JP6526898B1 - Video distribution system, video distribution method, and video distribution program - Google Patents

Video distribution system, video distribution method, and video distribution program Download PDF

Info

Publication number
JP6526898B1
JP6526898B1 JP2018217228A JP2018217228A JP6526898B1 JP 6526898 B1 JP6526898 B1 JP 6526898B1 JP 2018217228 A JP2018217228 A JP 2018217228A JP 2018217228 A JP2018217228 A JP 2018217228A JP 6526898 B1 JP6526898 B1 JP 6526898B1
Authority
JP
Japan
Prior art keywords
viewing user
moving image
display
actor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018217228A
Other languages
Japanese (ja)
Other versions
JP2020088498A (en
Inventor
匡志 渡邊
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018217228A priority Critical patent/JP6526898B1/en
Application granted granted Critical
Publication of JP6526898B1 publication Critical patent/JP6526898B1/en
Priority to PCT/JP2019/044998 priority patent/WO2020105568A1/en
Priority to US17/295,396 priority patent/US11736779B2/en
Publication of JP2020088498A publication Critical patent/JP2020088498A/en
Priority to US18/342,195 priority patent/US20230345084A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】視聴ユーザとのコミュニケーションの機会を増加させる仕組みを提供する。【解決手段】アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置10に配信する動画配信システム1であって、視聴ユーザに関連付けられたオブジェクトを記憶するストレージを備え、視聴ユーザからオブジェクトの表示要求を受け付け、アクターから視認可能な位置に配置された表示装置に、表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを含むリストを表示する。【選択図】図1The present invention provides a mechanism for increasing opportunities for communication with a viewing user. The moving image distribution system 1 distributes a moving image including animation of a character object generated based on the movement of an actor to a client device 10 used by a viewing user, and stores an object associated with the viewing user. Information of the object for which the display request has been received and the identification of the viewing user who made the display request of the object on the display device provided with the storage and receiving the display request for the object from the viewing user and arranged at a position visible by the actor Display a list containing information. [Selected figure] Figure 1

Description

本発明は、動画配信システム、動画配信方法、及び動画配信プログラムに関する。   The present invention relates to a video distribution system, a video distribution method, and a video distribution program.

従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている(例えば、特許文献1参照)。   Conventionally, a moving image distribution system has been known which generates animation of a character object based on the movement of an actor and distributes a moving image including the animation of the character object (see, for example, Patent Document 1).

この種の動画配信システムにおいて、複数の視聴ユーザに配信される動画に、視聴ユーザの操作によって任意のオブジェクトを表示させるものが提案されている。視聴ユーザにより動画に表示させるオブジェクトは、例えば、キャラクタオブジェクトへのギフトオブジェクト等である。   In this type of moving image distribution system, it has been proposed to display an arbitrary object in the moving image to be distributed to a plurality of viewing users by the operation of the viewing user. An object to be displayed on a moving image by a viewing user is, for example, a gift object to a character object.

特開2015−184689号公報JP, 2015-184689, A

動画配信システムにおいて、視聴ユーザ又は視聴回数を増やすためは、キャラクタオブジェクト自体の独自性に加え、キャラクタオブジェクトを通じたアクターと視聴ユーザとのコミュニケーションの機会を増やすことが重要となる。しかし、アクターは、キャラクタオブジェクトに動きを付けながら、必要に応じて音声を発し、さらにはギフトオブジェクトにも対応しなければならない。その上、視聴ユーザとのコミュニケーションの機会を増加させるとなると、注意を払う対象がさらに増えるため困難であるのが実情である。   In the video distribution system, in order to increase the number of viewing users or the number of viewing times, it is important to increase the opportunities for communication between actors and viewing users through the character object, in addition to the uniqueness of the character object itself. However, the actor has to make a voice as needed while making a motion on the character object, and also have to correspond to a gift object. Moreover, it is difficult to increase the number of targets for paying attention when increasing the opportunities for communication with the viewing user.

本発明は、上記実情に鑑みてなされたものであり、視聴ユーザとのコミュニケーションの機会を増加させる仕組みを提供することを目的とする。   The present invention has been made in view of the above-mentioned circumstances, and an object thereof is to provide a mechanism for increasing opportunities for communication with a viewing user.

上記課題を解決する動画配信システムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置に配信する動画配信システムであって、一又は複数のコンピュータプロセッサと、前記視聴ユーザに関連付けられたオブジェクトを記憶するストレージと、前記アクターから視認可能な表示装置と、を備え、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記視聴ユーザから前記オブジェクトの表示要求を受け付け、前記アクターから視認可能な位置に配置された表示装置に、前記表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを対応付けたオブジェクト情報を表示する。   A moving image distribution system for solving the above problems is a moving image distribution system for distributing a moving image including animation of a character object generated based on the movement of an actor to a client device used by a viewing user, which is one or more computer processors And a storage for storing an object associated with the viewing user, and a display device visible from the actor, wherein the one or more computer processors execute the computer readable instructions to execute the computer readable instructions. Information of the object for which the display request has been received, and identification information of the viewing user who has made the display request for the object, to the display device arranged to receive the display request for the object from the viewing user and arranged at a position visible to the actor Of To display-object information.

上記課題を解決する動画配信方法は、一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置に配信する動画配信方法であって、前記視聴ユーザに関連付けられたオブジェクトをストレージに記憶する工程と、前記視聴ユーザから前記オブジェクトの表示要求を受け付ける工程と、前記アクターから視認可能な位置に配置された表示装置に、前記表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを対応付けたオブジェクト情報を表示する工程と、を有する。   A moving image distribution method for solving the above-mentioned problems, wherein one or more computer processors use moving images including animation of a character object generated based on the movement of an actor by executing computer readable instructions. Video distribution method for distributing to a client device, the steps of storing an object associated with the viewing user in a storage, receiving a display request for the object from the viewing user, and a position visible by the actor And displaying the object information in which the information of the object for which the display request has been received and the identification information of the viewing user who made the display request for the object are associated with each other on the display device arranged in.

上記課題を解決する動画配信プログラムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置に配信する動画配信プログラムであって、一又は複数のコンピュータプロセッサに、前記視聴ユーザに関連付けられたオブジェクトをストレージに記憶する工程と、前記視聴ユーザから前記オブジェクトの表示要求を受け付ける工程と、前記アクターから視認可能な位置に配置された表示装置に、前記表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを対応付けたオブジェクト情報を表示する工程と、を実行させる。   A moving image distribution program for solving the above-mentioned problems is a moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor to a client device used by a viewing user. And storing the object associated with the viewing user in the storage, receiving the display request for the object from the viewing user, and displaying the display request on a display device arranged at a position visible from the actor. And displaying the object information in which the information of the received object and the identification information of the viewing user who made the display request of the object are associated.

本発明によれば、視聴ユーザとのコミュニケーションの機会を増加させる仕組みを提供することができる。   According to the present invention, it is possible to provide a mechanism for increasing the opportunity for communication with a viewing user.

実施形態に係る動画配信システムの概略図。BRIEF DESCRIPTION OF THE DRAWINGS The schematic of the moving image delivery system which concerns on embodiment. 上記動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図。The schematic diagram which shows typically the installation of the studio which produces the moving image delivered by the said moving image delivery system. 上記動画配信システムの一部を示すブロック図。The block diagram which shows a part of said moving image delivery system. 上記動画配信システムを構成するクライアント装置を示すブロック図。FIG. 2 is a block diagram showing a client device that constitutes the moving image distribution system. 一実施形態におけるユーザ管理データの例を示す図。The figure which shows the example of the user management data in one Embodiment. 一実施形態における保有リストの例を示す図。The figure which shows the example of the possession list | wrist in one Embodiment. 一実施形態における候補リストの例を示す図。The figure which shows the example of the candidate list | wrist in one Embodiment. 一実施形態における投稿メッセージの例を示す図。The figure which shows the example of the contribution message in one embodiment. 一実施形態においてクライアント装置に表示される動画の例を示す図。The figure which shows the example of the moving image displayed on a client apparatus in one Embodiment. 一実施形態においてクライアント装置に表示される動画の例を示す図。The figure which shows the example of the moving image displayed on a client apparatus in one Embodiment. 一実施形態においてクライアント装置に表示される動画の例を示す図。The figure which shows the example of the moving image displayed on a client apparatus in one Embodiment. 一実施形態においてクライアント装置に表示される動画の例を示す図。The figure which shows the example of the moving image displayed on a client apparatus in one Embodiment. 一実施形態においてアクターが視認するディスプレイに表示される画面の例を示す図。The figure which shows the example of the screen displayed on the display which an actor visually recognizes in one Embodiment. 一実施形態においてアクターが視認するディスプレイに表示される画面の例を示す図。The figure which shows the example of the screen displayed on the display which an actor visually recognizes in one Embodiment. 一実施形態においてアクターが視認するディスプレイに表示される画面の例を示す図。The figure which shows the example of the screen displayed on the display which an actor visually recognizes in one Embodiment. 一実施形態における動画配信処理の流れを示すフローチャート。6 is a flowchart showing a flow of moving image distribution processing in one embodiment. 一実施形態における装飾オブジェクトを受け付ける処理の流れを示すフローチャート。The flowchart which shows the flow of the processing which accepts the decoration object in one execution form. 一実施形態における装飾オブジェクトを表示する処理の流れを示すフローチャート。The flowchart which shows the flow of the processing which displays the decoration object in one execution form. 一実施形態における投稿メッセージを表示する処理の流れを示すフローチャート。The flowchart which shows the flow of the processing which displays the contribution message in one execution form.

以下、図面を参照して、本発明の実施の形態に係る動画配信システムについて説明する。
図1に示すように、動画配信システム1は、クライアント装置10と、サーバ20と、スタジオユニット30とを備える。クライアント装置10と、サーバ20と、スタジオユニット30とは、ネットワーク11を介して相互に通信可能に接続されている。ネットワーク11は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。
Hereinafter, a moving image distribution system according to an embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the moving image distribution system 1 includes a client device 10, a server 20, and a studio unit 30. The client device 10, the server 20, and the studio unit 30 are communicably connected to each other via the network 11. The network 11 includes various networks such as a local area network and the Internet.

動画配信システム1では、配信者が、スタジオユニット30を利用してアクターの動きに基づくキャラクタオブジェクトのアニメーションを含むコンテンツの動画を作成する。キャラクタオブジェクトは、仮想的な人物、動物等の個体である。作成された動画は、サーバ20を介して、視聴ユーザが用いるクライアント装置10に配信される。配信者は、アクター、スタジオユニット30の運営者、又はそれら以外の者であってもよい。   In the video delivery system 1, the distributor uses the studio unit 30 to create a video of content including animation of a character object based on the movement of the actor. The character object is an individual such as a virtual person or an animal. The created moving image is distributed via the server 20 to the client device 10 used by the viewing user. The distributor may be an actor, an operator of the studio unit 30, or another person.

図2に従って、スタジオユニット30の概要について説明する。スタジオユニット30は、トラッキングシステム31、コントローラ40、メインディスプレイ41、サブディスプレイ43(表示装置)、マイク44(図3参照)、サポーターコンピュータ45を含む。   The outline of the studio unit 30 will be described according to FIG. The studio unit 30 includes a tracking system 31, a controller 40, a main display 41, a sub display 43 (display device), a microphone 44 (see FIG. 3), and a supporter computer 45.

トラッキングシステム31は、アクターAの動きに関する情報を取得する。アクターAは、例えば、パフォーマンスを行う人間、動物、または運動する物体である。アクターAは、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、複数であってもよい。   The tracking system 31 obtains information on the movement of the actor A. The actor A is, for example, a person performing a performance, an animal, or a moving object. The actor A may be, for example, a robot that can move independently. The number of actors in the studio room R may be more than one.

トラッキングシステム31は、アクターAの位置を検出する。また、トラッキングシステム31は、アクターAの表情、及び仮想空間に設定された仮想カメラの位置等を検出し得る。例えば、トラッキングシステム31は、外部センサ32、装着センサ33及び位置特定装置35部を含む。これらは、アウトサイドイン方式で、アクターAが装着する装着センサ33の向き及び位置の少なくとも一つを検出する。   The tracking system 31 detects the position of the actor A. The tracking system 31 can also detect the expression of the actor A, the position of the virtual camera set in the virtual space, and the like. For example, the tracking system 31 includes an external sensor 32, an attachment sensor 33, and a position specifying device 35. These are outside-in methods and detect at least one of the direction and position of the mounting sensor 33 mounted by the actor A.

装着センサ33は、アクターAに装着される。アクターAに装着される装着センサ33は、複数である。例えば、装着センサ33は、アクターAの左手首、右手首、左足甲、右足甲、腰部及び頭頂に装着されている。装着センサ33は、装着具を介してアクターAに装着されてもよいし、装着センサ33が装着された着衣をアクターAが着てもよい。装着センサ33は、アクターAの様々な部位に装着され得る。例えば、装着センサ33は、手の指に装着し、指の動きを検出するものであってもよい。アクターAに装着される装着センサ33の個数は、5つ以下でもよいし7以上であってもよい。   The attachment sensor 33 is attached to the actor A. There are a plurality of attachment sensors 33 attached to the actor A. For example, the wearing sensor 33 is attached to the left wrist, the right wrist, the left instep, the right instep, the waist and the top of the actor A. The attachment sensor 33 may be attached to the actor A via the attachment tool, or the actor A may wear the clothes on which the attachment sensor 33 is attached. The attachment sensor 33 may be attached to various portions of the actor A. For example, the attachment sensor 33 may be attached to a finger of a hand to detect movement of the finger. The number of attachment sensors 33 attached to the actor A may be five or less or seven or more.

装着センサ33は、外部センサ32と協働して、自らの向き及び位置を特定するための情報を、位置特定装置35に出力する。アウトサイドイン方式における外部センサ32の一つとして、例えば、多軸レーザエミッターがある。外部センサ32は、同期用のパルスレーザ光を出射する。装着センサ33は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。装着センサ33は、例えば、HTC Corporation(登録商標)から提供されているVive Tracker(登録商標)及びVive Base Stationを用いることができる。また、上記の構成に加えて若しくは代えて、装着センサ33は、自律して位置を特定するためのセンサを内蔵していてもよい。例えば、装着センサ33は、多軸加速度センサ、ジャイロ、及び地磁気センサのうち少なくとも一つを備えていてもよい。また、装着センサ33は、外部センサ32と協働するものと、外部センサ32と協働しないものの両方を用いてもよい。また、装着センサ33は、単体でその向き又は位置を検出できるものであってもよい。   The mounting sensor 33 cooperates with the external sensor 32 to output information for specifying its own orientation and position to the position specifying device 35. One of the external sensors 32 in the outside-in method is, for example, a multi-axis laser emitter. The external sensor 32 emits pulse laser light for synchronization. The mounting sensor 33 includes a sensor that detects a laser beam, and detects its own position and orientation while synchronizing with a synchronization pulse. As the mounting sensor 33, for example, Vive Tracker (registered trademark) and Vive Base Station provided by HTC Corporation (registered trademark) can be used. Further, in addition to or instead of the above configuration, the mounting sensor 33 may incorporate a sensor for autonomously specifying the position. For example, the mounting sensor 33 may include at least one of a multi-axis acceleration sensor, a gyro, and a geomagnetic sensor. Also, the mounting sensor 33 may be either one that cooperates with the external sensor 32 or one that does not cooperate with the external sensor 32. Further, the mounting sensor 33 may be capable of detecting the direction or the position alone.

また、トラッキングシステム31は、視点位置センサ36及びカメラ37を含む。視点位置センサ36は、ユーザによりその位置を変更可能に構成されている。視点位置センサ36は、装着センサ33と同様の構成である。視点位置センサ36は、無線通信又は通信ケーブルを介して、位置特定装置35に自らの向き及び位置を特定するための情報を出力する。視点位置センサ36は、仮想空間内の仮想カメラの視点として設定される。視点位置センサ36は、例えば、視点位置センサ36は、スタンドに支持されてもよいし、ジンバル又はスタビライザーで支持されてもよい。ジンバルは、アクター又はその他の人物によって把持可能な形状に構成されてもよい。視点位置センサ36をジンバルまたはスタビライザーで支持することにより、手ぶれを抑制することが可能となる。   The tracking system 31 also includes a viewpoint position sensor 36 and a camera 37. The viewpoint position sensor 36 is configured to be changeable by the user. The viewpoint position sensor 36 has the same configuration as the attachment sensor 33. The viewpoint position sensor 36 outputs information for specifying its own orientation and position to the position specifying device 35 via a wireless communication or communication cable. The viewpoint position sensor 36 is set as a viewpoint of a virtual camera in the virtual space. For example, the viewpoint position sensor 36 may be supported by a stand or may be supported by a gimbal or a stabilizer. The gimbal may be configured in a shape that can be gripped by an actor or other person. By supporting the viewpoint position sensor 36 with a gimbal or a stabilizer, it is possible to suppress camera shake.

カメラ37は、アクターAの顔を撮像できるように配置されている。例えば、カメラ37は、アクターAの頭部や首等に取り付けられるか、又はアクターAの正面に配置されている。カメラ37は、アクターAの顔を連続的に撮像し、アクターAの顔の撮像データを取得し、当該撮像データをサーバ20に送信する。カメラ37は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。   The camera 37 is arranged to be able to capture the face of the actor A. For example, the camera 37 is attached to the head or neck or the like of the actor A, or is disposed in front of the actor A. The camera 37 continuously images the face of the actor A, acquires imaging data of the face of the actor A, and transmits the imaging data to the server 20. The camera 37 may be a 3D camera capable of detecting the depth of the face of a person.

マイク44は、アクターAが発する音声を集めることができる位置に配置されている。例えば、マイク44は、アクターAの頭部や首等に取り付けられるか、又はアクターAの正面に配置されている。マイク44は、音声に応じた信号をサーバ20に送信する。   The microphone 44 is disposed at a position where the voice emitted by the actor A can be collected. For example, the microphone 44 is attached to the head or neck or the like of the actor A, or is disposed in front of the actor A. The microphone 44 transmits a signal corresponding to the voice to the server 20.

コントローラ40は、アクターAにより操作される。コントローラ40は、アクターAの操作に応じたコントロール信号をサーバ20に出力する。また、コントローラ40は、自律して位置を特定するためのセンサを内蔵していてもよい。例えば、コントローラ40は、多軸加速度センサ、ジャイロ、及び地磁気センサのうち少なくとも一つを備えていてもよい。また、コントローラ40は、上記の構成に加えて若しくは代えて、外部センサ32と協働して位置を検出可能に構成されていてもよい。   The controller 40 is operated by the actor A. The controller 40 outputs a control signal corresponding to the operation of the actor A to the server 20. Further, the controller 40 may incorporate a sensor for autonomously specifying the position. For example, the controller 40 may include at least one of a multi-axis acceleration sensor, a gyro, and a geomagnetic sensor. In addition to or instead of the above configuration, the controller 40 may be configured to be able to detect the position in cooperation with the external sensor 32.

メインディスプレイ41は、サーバ20によって生成された動画を表示するように構成される。メインディスプレイ41は、1台でもよく、図示のように複数台でもよい。メインディスプレイ41に表示される動画には、キャラクタオブジェクトのアニメーションが含まれる。   The main display 41 is configured to display the moving image generated by the server 20. One main display 41 may be provided, or a plurality of main displays may be provided as illustrated. The animation displayed on the main display 41 includes animation of a character object.

サブディスプレイ43は、サーバ20又はサポーターコンピュータ45から受信した情報を表示するように構成される。サブディスプレイ43は、1台でもよく複数台でもよい。サーバ20又はサポーターコンピュータ45からメインディスプレイ41に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。メインディスプレイ41及びサブディスプレイ43は、アクターAによって視認可能な位置に配置される。   The sub display 43 is configured to display the information received from the server 20 or the supporter computer 45. One or more sub displays 43 may be used. The information transmitted from the server 20 or the supporter computer 45 to the main display 41 may include, for example, text information, image information, and various other information. The main display 41 and the sub display 43 are arranged at positions visible by the actor A.

サポーターコンピュータ45は、スタジオルームの隣にいるオペレータ(本明細書では、「サポーター」という)が用いるコンピュータである。サポーターコンピュータ45が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ45を用いるサポーターは、アクターAを視認できる。図示の実施形態では、サポーターB1及びサポーターB2が在室している。サポーターコンピュータ45は、サポーターの操作に従って、サブディスプレイ43に各種情報を出力する。本明細書においては、サポーターB1とサポーターB2とを互いに区別する必要がない場合には、サポーターB1及びサポーターB2を「サポーター」と総称することがある。図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10またはそれ以外のクライアント装置に配信される動画をスクリーンに投影することができる。   The supporter computer 45 is a computer used by an operator (herein referred to as a "supporter") next to the studio room. The room where the supporter computer 45 is installed and the studio room R are separated by the glass window, so that the supporter using the supporter computer 45 can visually recognize the actor A. In the illustrated embodiment, the supporter B1 and the supporter B2 are in the room. The supporter computer 45 outputs various information to the sub display 43 according to the operation of the supporter. In the present specification, when it is not necessary to distinguish between the supporter B1 and the supporter B2, the supporter B1 and the supporter B2 may be collectively referred to as a "supporter". The components and functions of studio unit 30 shown in FIG. 2 are exemplary. The studio unit 30 applicable to the present invention may comprise various components not shown. For example, studio unit 30 may include a projector. The projector can project the moving image delivered to the client device 10 or another client device on the screen.

図3に従って、サーバ20について説明する。サーバ20は、アクターの動作に基づくキャラクタオブジェクトのアニメーションを含む動画を、視聴ユーザに配信するように構成される。この動画に含まれるキャラクタオブジェクトは、仮想空間内でモーション制御されてもよい。サーバ20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23(記憶媒体)とを備えている。   The server 20 will be described according to FIG. The server 20 is configured to deliver a moving image including animation of a character object based on an action of an actor to a viewing user. The character object included in the moving image may be motion controlled in the virtual space. The server 20 includes a computer processor 21, a communication I / F 22, and a storage 23 (storage medium).

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや多様な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、自身が実行する処理の少なくとも一部を、ASIC、PLD、FPGA、MCU等の回路(circuitry)により実現してもよい。図3においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。   The computer processor 21 is an arithmetic device which loads an operating system and various programs for realizing various functions from the storage 23 or other storages into the memory and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, various arithmetic devices other than these, or a combination thereof. The computer processor 21 may realize at least a part of the processing performed by itself by circuitry such as an ASIC, a PLD, an FPGA, or an MCU. Although computer processor 21 is illustrated as a single component in FIG. 3, computer processor 21 may be a collection of a plurality of physically separate computer processors. In the present specification, a program described as being executed by the computer processor 21 or an instruction included in the program may be executed by a single computer processor or may be executed by a plurality of computer processors in a distributed manner. It is also good. Also, a program executed by the computer processor 21 or an instruction included in the program may be executed by a plurality of virtual computer processors.

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージに格納された配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、モーションデータ処理部21A、動画生成部21B、動画配信部21C、ユーザリクエスト処理部21D、ユーザ情報管理部21E、購入処理部21Fとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、スタジオユニット30に含まれるコンピュータが有しているコンピュータプロセッサにより実現されてもよい。   The computer processor 21 executes a computer-readable instruction included in a distribution program stored in the storage 23 or other storages to obtain a motion data processing unit 21A, a moving image generation unit 21B, a moving image distribution unit 21C, and a user request. It functions as a processing unit 21D, a user information management unit 21E, and a purchase processing unit 21F. At least a part of the functions implemented by the computer processor 21 may be implemented by a computer processor other than the computer processor 21 of the video distribution system 1. At least a part of the functions implemented by the computer processor 21 may be implemented by, for example, a computer processor included in a computer included in the studio unit 30.

モーションデータ処理部21Aは、アクターに装着された装着センサ33の各々により検出されたトラッキング情報に基づいて、ボディモーションデータを生成する。ボディモーションデータは、アクターの体の各部位における位置及び向きの少なくとも一つを、時系列的にデジタル表現したものである。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング間隔ごとに生成されてもよい。   The motion data processing unit 21A generates body motion data based on the tracking information detected by each of the attachment sensors 33 attached to the actor. The body motion data is a time-series digital representation of at least one of the position and orientation of each part of the actor's body. Body motion data is generated as needed over time. For example, body motion data may be generated at predetermined sampling intervals.

また、モーションデータ処理部21Aは、スタジオユニット30が有するカメラ37の撮影データに基づいて、アクターの顔の動きの時系列なデジタル表現であるフェイスモーションデータを生成する。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング間隔ごとに生成されてもよい。   In addition, the motion data processing unit 21A generates face motion data that is a time-series digital representation of the movement of the face of the actor based on shooting data of the camera 37 that the studio unit 30 has. Face motion data is generated as needed over time. For example, face motion data may be generated at predetermined sampling intervals.

動画生成部21Bは、モーションデータ処理部21Aによって生成されたボディモーションデータ及びフェイスモーションデータを、ストレージ23に格納されたモデルデータ23Aに含まれる所定のモデルデータに適用する。これにより、動画生成部21Bは、仮想空間内で動き、且つ表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。   The moving image generation unit 21B applies the body motion data and face motion data generated by the motion data processing unit 21A to predetermined model data included in the model data 23A stored in the storage 23. Thereby, the moving image generation unit 21B is configured to generate animation of a character object that moves in the virtual space and whose expression changes.

さらに動画生成部21Bは、ストレージ23に格納されたオブジェクトデータ23Bを用いて仮想空間を構築し、この仮想空間の画像と、アクターAに対応するキャラクタオブジェクトのアニメーションと、を含む動画を生成する。動画生成部21Bは、視点位置センサ36の位置を、動画の視点である仮想カメラの位置とすることができる。そして、この仮想カメラの位置に対するアクターAの相対的な位置を、仮想空間内でのキャラクタオブジェクトの位置とする。したがって、アクターAが、視点位置センサ36の位置又は向きを、任意の位置又は向きに変更することにより、キャラクタオブジェクトを左側から見た動画、右側から見た動画、俯瞰した動画等、バリエーションに富んだ動画を生成することができる。また、動画生成部21Bは、仮想カメラの位置に基づき、仮想カメラの設定情報(焦点、画角等)を変更してもよい。   Furthermore, the moving image generation unit 21B constructs a virtual space using the object data 23B stored in the storage 23, and generates a moving image including an image of the virtual space and an animation of a character object corresponding to the actor A. The moving image generation unit 21B can set the position of the viewpoint position sensor 36 as the position of the virtual camera that is the viewpoint of the moving image. Then, the relative position of the actor A to the position of the virtual camera is taken as the position of the character object in the virtual space. Therefore, by changing the position or orientation of the viewpoint position sensor 36 to any position or orientation, the actor A is rich in variations, such as a moving image seen from the left, a moving image seen from the right, and a blurred moving image Can generate videos. In addition, the moving image generation unit 21B may change setting information (focus, angle of view, and the like) of the virtual camera based on the position of the virtual camera.

また、動画生成部21Bは、視聴ユーザに、各自のアバターの描画データが関連付けられている場合には、キャラクタオブジェクトのアニメーションに加え、視聴ユーザのアバターのアニメーションを表示してもよい。当該アバターは、視聴ユーザによるクライアント装置10への指示に基づいて、動画内で、動くように表示されてもよい。   Also, when the viewing user is associated with the drawing data of their avatar, the moving image generation unit 21B may display the animation of the avatar of the viewing user in addition to the animation of the character object. The avatar may be displayed to move in the moving image based on an instruction to the client device 10 by the viewing user.

動画配信部21Cは、配信動画のリストをクライアント装置10に送信するとともに、動画生成部21Bによって生成された動画を配信する。動画配信部21Cは、スタジオルームRで撮影された動画をリアルタイムに配信してもよいし、予め録画した動画を、配信スケジュール等に従って配信するようにしてもよい。動画配信部21Cは、同じ時間帯に、複数の動画を配信可能に構成され得る。例えば、動画配信部21Cは、アクターA1が演じる「キャラクタX」の配信動画と、アクターA2が演じる「キャラクタY」の配信動画とを、同じ配信開始時刻(例えば「20:00」)、又は配信時間帯を重複させて配信し得る。動画配信部21Cは、クライアント装置10からのリスト表示要求に応じて、配信可能な配信動画のリストを当該クライアント装置10に送信する。動画配信部21Cは、クライアント装置10から動画配信要求を受信すると、動画配信要求に基づいて、選択された動画を当該クライアント装置10に送信する。   The moving image distribution unit 21C transmits the list of distribution moving images to the client device 10, and distributes the moving image generated by the moving image generation unit 21B. The moving image distribution unit 21C may distribute the moving image captured in the studio room R in real time, or may distribute the moving image recorded in advance according to a distribution schedule or the like. The moving image distribution unit 21C can be configured to be able to distribute a plurality of moving images in the same time zone. For example, the moving image distribution unit 21C distributes the distribution moving image of "character X" played by the actor A1 and the distribution moving image of "character Y" played by the actor A2 at the same distribution start time (for example, "20:00") It may be delivered with overlapping time zones. In response to the list display request from the client device 10, the video distribution unit 21C transmits a list of distributable distribution videos to the client device 10. When receiving the moving image distribution request from the client device 10, the moving image distribution unit 21C transmits the selected moving image to the client device 10 based on the moving image distribution request.

ユーザリクエスト処理部21Dは、視聴ユーザのクライアント装置10から、オブジェクトの表示要求、及び投稿メッセージの表示要求を受け付け、当該表示要求に応じた処理を行う。視聴ユーザは、自らのクライアント装置10を操作することにより、オブジェクトの表示要求をサーバ20に送信することができる。オブジェクトは、視聴者からコンテンツへ提供するギフトオブジェクトを含む。ギフトオブジェクトは、視聴ユーザからアクター等へのデジタル的なギフトとなるオブジェクトである。ギフトオブジェクトは、対価を払わずに表示要求を行うことのできるものであってもよく、対価が必要なものであってもよく、表示要求に応じて表示がなされた場合に対価を支払うものであってもよい。ギフトオブジェクトは、仮想空間に継続的に表示されるものであってもよく、仮想空間に一時的に演出を加えるものであってもよい。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示要求の対象であるオブジェクトの識別情報(オブジェクトID)が含まれてもよい。   The user request processing unit 21D accepts an object display request and a post message display request from the client device 10 of the viewing user, and performs processing according to the display request. The viewing user can transmit an object display request to the server 20 by operating his / her client device 10. The objects include gift objects provided by the viewer to the content. The gift object is an object to be a digital gift from the viewing user to the actor or the like. The gift object may be able to make a display request without paying for it, or may require a price, and pays for the display when the display is made according to the display request. It may be. The gift object may be continuously displayed in the virtual space, or may temporarily add an effect to the virtual space. The display request for the gift object may include the user ID of the viewing user and identification information (object ID) of the object that is the target of the display request.

ユーザリクエスト処理部21Dは、視聴ユーザからギフトオブジェクトの表示要求を受け付けると、そのギフトオブジェクトが、アクター又はサポーターの表示の可否についての判断を要するものか否かを判定する。ユーザリクエスト処理部21Dは、表示要求が行われたオブジェクトが、アクター又はサポーターの判断を要しないものと判定すると、動画生成部21Bを介して、仮想空間に、表示要求が行われたオブジェクトを表示させる。   When receiving a request for displaying a gift object from the viewing user, the user request processing unit 21D determines whether or not the gift object requires a determination as to whether or not an actor or a supporter can display it. When the user request processing unit 21D determines that the object for which the display request has been made does not require the determination of the actor or the supporter, the user request processing unit 21D displays the object for which the display request is made in the virtual space via the moving image generation unit 21B. Let

一方、ユーザリクエスト処理部21Dは、表示要求が行われたオブジェクトが、アクター又はサポーターの判断を要するものであると判定すると、サブディスプレイ43に、表示要求が行われたギフトオブジェクトを表示する。アクター又はサポーターにより、表示要求が行われたギフトオブジェクトに対し表示指示がなされると、表示要求が行われたオブジェクトを表示させる。   On the other hand, when the user request processing unit 21D determines that the object for which the display request has been made requires the determination of the actor or the supporter, the sub display 43 displays the gift object for which the display request has been made. When the actor or supporter gives a display instruction to the gift object for which the display request has been made, the object for which the display request has been made is displayed.

また、ユーザリクエスト処理部21Dは、クライアント装置10から受信した投稿メッセージを動画に表示させるための処理を行う。投稿メッセージには、メッセージの内容の他、視聴ユーザの識別情報(ユーザID又は端末ID)、投稿日時が含まれる。   In addition, the user request processing unit 21D performs processing for displaying the posting message received from the client device 10 on a moving image. The post message includes identification information (user ID or terminal ID) of the viewing user, as well as the content of the message, and the post date and time.

ユーザリクエスト処理部21Dは、投稿メッセージを受信すると、投稿メッセージを表示可能な場面か否かを判断する。ユーザリクエスト処理部21Dは、受信した投稿メッセージを表示可能であると判断すると、動画生成部21Bを介して、動画のうち所定の領域に投稿メッセージを表示させる。また、ユーザリクエスト処理部21Dは、投稿メッセージ、投稿メッセージの属性情報を、サブディスプレイ43に表示する。   When receiving the posting message, the user request processing unit 21D determines whether or not the posting message can be displayed. If the user request processing unit 21D determines that the received post message can be displayed, the user request processing unit 21D causes the moving image generation unit 21B to display the post message in a predetermined area of the moving image. In addition, the user request processing unit 21D displays the post message and the attribute information of the post message on the sub display 43.

ユーザ情報管理部21Eは、視聴ユーザの視聴状況を取得し、視聴状況を視聴ユーザに関連付けてストレージ23に記憶する。ユーザ情報管理部21Eは、視聴ユーザが、視聴アプリケーションにおいて視聴している動画、すなわち視聴ユーザが「入室」しているアクターの「部屋」を視聴ユーザのユーザIDと関連付けて履歴として記憶する。また、ユーザ情報管理部21Eは、視聴ユーザの視聴状況等に応じて、視聴ユーザをグループ化する。   The user information management unit 21E acquires the viewing status of the viewing user, associates the viewing status with the viewing user, and stores the viewing status in the storage 23. The user information management unit 21E stores the moving image viewed by the viewing user in the viewing application, that is, the "room" of the actor whose viewing user is "entered" in association with the user ID of the viewing user as a history. In addition, the user information management unit 21E groups the viewing users according to the viewing situation of the viewing user.

購入処理部21Fは、視聴ユーザの操作により、配信動画に関連するギフトオブジェクト等の購入媒体の表示要求を、クライアント装置10から受け付ける。購入処理部21Fは、購入媒体の表示要求を受け付けた後、購入媒体の情報をクライアント装置10に送信する。購入媒体の情報には、購入媒体の種類、購入媒体の画像、価格、及び購入に必要な各種の情報が含まれ得る。視聴ユーザは、クライアント装置10に表示された購入媒体の情報を確認して、任意の購入媒体を選択する。視聴ユーザによって購入媒体が選択されると、クライアント装置10は、購入媒体の購入要求をサーバ20に送信する。購入処理部21Fは、購入要求に基づいて、決済処理を行う。この決済処理が完了すると、購入された購入媒体は、視聴ユーザによって保有されるものとしてサーバ20に記憶される。なお、購入媒体は、ギフトオブジェクトの他、動画の視聴に関連するギフトオブジェクト以外のオブジェクトや、動画の画質、2次元画像又は3次元画像等の視聴条件であってもよい。また、購入媒体は、動画自体であってもよい。購入可能なギフトオブジェクトやその他の媒体の売上は、配信者に分配される。このとき、売上の一部をスタジオユニット30の運営者に分配してもよい。   The purchase processing unit 21F receives, from the client device 10, a display request for a purchase medium such as a gift object or the like related to the distribution moving image by the operation of the viewing user. After accepting the display request for the purchase medium, the purchase processing unit 21F transmits information on the purchase medium to the client device 10. The information of the purchase medium may include the type of the purchase medium, the image of the purchase medium, the price, and various information necessary for the purchase. The viewing user confirms the information of the purchase medium displayed on the client device 10, and selects an arbitrary purchase medium. When the purchase medium is selected by the viewing user, the client device 10 transmits a purchase medium purchase request to the server 20. The purchase processing unit 21F performs payment processing based on the purchase request. When this settlement process is completed, the purchased purchase medium is stored in the server 20 as being held by the viewing user. The purchase medium may be, besides the gift object, an object other than a gift object related to viewing of a moving image, viewing conditions such as the image quality of a moving image, a two-dimensional image or a three-dimensional image. Also, the purchase medium may be a moving image itself. Sales of purchasable gift objects and other media are distributed to distributors. At this time, a part of the sales may be distributed to the studio unit 30 operator.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ20は、通信I/F22を介して、他の装置とデータを送受信することができる。   The communication I / F 22 is implemented as hardware, firmware, or communication software such as a TCP / IP driver or a combination thereof. The server 20 can transmit and receive data to and from other devices via the communication I / F 22.

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ20とは物理的に別体のストレージに格納されてもよい。   The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. Various programs can be stored in the storage 23. The programs and various data that may be stored in the storage 23 may be stored in a storage physically separate from the server 20.

次に、スタジオユニット30の位置特定装置35及びサポーターコンピュータ45についてさらに説明する。スタジオユニット30の位置特定装置35は、コンピュータプロセッサ35A、ストレージ35B(記憶媒体)、通信インターフェース(I/F)35Cを含む。コンピュータプロセッサ35Aは、サーバ20のコンピュータプロセッサ21と同様に、CPU等の各種の演算装置である。ストレージ35Bは、サーバ20のストレージ23と同様に、磁気ディスク等の各種記憶装置である。通信インターフェース(I/F)35Cは、サーバ20の通信インターフェース22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア又はこれらの組み合わせである。コンピュータプロセッサ35Aは、ストレージ35B又はその他のストレージに格納された位置検出プログラムを実行することにより、外部センサ32又は装着センサ33からトラッキング情報を取得して、装着センサ33の各々の位置を特定する。また、コンピュータプロセッサ35Aは、ストレージ35B又はその他のストレージに格納された位置検出プログラムを実行することにより、外部センサ32又は視点位置センサ36からトラッキング情報を取得して、視点位置センサ36の位置を特定する。また、位置特定装置35は、特定した位置を、サーバ20に送信する。   Next, the position specifying device 35 of the studio unit 30 and the supporter computer 45 will be further described. The position specifying device 35 of the studio unit 30 includes a computer processor 35A, a storage 35B (storage medium), and a communication interface (I / F) 35C. The computer processor 35A is, like the computer processor 21 of the server 20, various computing devices such as a CPU. The storage 35 B is, like the storage 23 of the server 20, various storage devices such as magnetic disks. The communication interface (I / F) 35C is, like the communication interface 22 of the server 20, various drivers for communicating with other devices, software, or a combination thereof. The computer processor 35A acquires the tracking information from the external sensor 32 or the mounting sensor 33 by executing the position detection program stored in the storage 35B or the other storage, and specifies the position of each of the mounting sensor 33. In addition, the computer processor 35A acquires the tracking information from the external sensor 32 or the viewpoint position sensor 36 by executing the position detection program stored in the storage 35B or other storage, and specifies the position of the viewpoint position sensor 36. Do. Also, the position specifying device 35 transmits the specified position to the server 20.

サポーターコンピュータ45は、コンピュータプロセッサ46と、通信I/F47と、ストレージ48(記憶媒体)と、ディスプレイ49と、入力インターフェース50と、を備える。   The supporter computer 45 includes a computer processor 46, a communication I / F 47, a storage 48 (storage medium), a display 49, and an input interface 50.

コンピュータプロセッサ46は、サーバ20のコンピュータプロセッサ21と同様に、CPU等の各種演算装置である。通信I/F47は、通信I/F22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア、またはこれらの組み合わせである。ストレージ48は、ストレージ23と同様に、磁気ディスク等のデータを記憶可能な各種記憶装置である。ストレージ48には、各種のプログラムが格納されている。ディスプレイ49は、液晶ディスプレイ、有機ELディスプレイ、無機ELディスプレイ、又はこれら以外の画像を表示可能な任意の表示装置である。入力インターフェース50は、マウス、キーボード等のサポーターからの入力を受け付ける任意のポインティングデバイスを含む。   The computer processor 46 is, like the computer processor 21 of the server 20, various computing devices such as a CPU. The communication I / F 47 is, like the communication I / F 22, various drivers, software, or a combination thereof for communicating with other devices. The storage 48 is, like the storage 23, various storage devices capable of storing data such as a magnetic disk. The storage 48 stores various programs. The display 49 is a liquid crystal display, an organic EL display, an inorganic EL display, or any other display device capable of displaying an image. The input interface 50 includes any pointing device that receives input from a supporter, such as a mouse and a keyboard.

コンピュータプロセッサ46は、ストレージ48等に格納されたプログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、表示制御部46A、進行管理部46Bとして機能する。コンピュータプロセッサ46により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ46以外のコンピュータプロセッサにより実現されてもよい。また、本明細書においてコンピュータプロセッサ46により実現される機能の少なくとも一部は、例えばサーバ20のコンピュータプロセッサ21により実現されてもよい。   The computer processor 46 functions as a display control unit 46A and a progress management unit 46B by executing computer-readable instructions included in a program stored in the storage 48 or the like. At least a part of the functions implemented by the computer processor 46 may be implemented by a computer processor other than the computer processor 46 of the video distribution system 1. Also, at least a part of the functions implemented by the computer processor 46 in the present specification may be implemented by the computer processor 21 of the server 20, for example.

表示制御部46Aは、サポーターによる入力インターフェース50を介した様々な操作入力に応じて、アクターが視認可能である一方で視聴ユーザが視認することのできない画面をメインディスプレイ41又はサブディスプレイ43に表示したり、視聴ユーザに配信される配信動画に様々な付加情報を付加したりするように構成される。   The display control unit 46A displays, on the main display 41 or the sub display 43, a screen which can be viewed by the actor but can not be viewed by the viewing user, in response to various operation inputs from the supporter via the input interface 50. Or, it is configured to add various additional information to the distribution moving image to be distributed to the viewing user.

サポーターコンピュータ45は、サポーターの操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ45は、例えば、外部センサ32による走査インターバルの設定、装着センサ33の位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。サポーターは、サポーターコンピュータ45にメッセージを入力し、当該入力されたメッセージをメインディスプレイ41に表示することができる。   The supporter computer 45 may be configured to be able to change the setting of the component of the studio unit 30 according to the operation of the supporter. The supporter computer 45 can change, for example, the setting of the scanning interval by the external sensor 32, the setting of the position or the orientation of the mounting sensor 33, and various settings of other various devices. The supporter can input a message to the supporter computer 45, and can display the input message on the main display 41.

次に図4を参照して、クライアント装置について説明する。
クライアント装置10は、スマートフォンなどの情報処理装置である。クライアント装置10は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ヘッドマウントディスプレイを含むウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。
Next, the client device will be described with reference to FIG.
The client device 10 is an information processing device such as a smartphone. The client device 10 is a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer including a head mounted display, a game console, and various information processing devices capable of reproducing moving images other than these, besides a smartphone. It is also good.

クライアント装置10は、コンピュータプロセッサ12、ストレージ13(記憶媒体)、入力インターフェース(I/F)14、通信インターフェース(I/F)15、ディスプレイ16を含む。コンピュータプロセッサ12は、サーバ20のコンピュータプロセッサ21と同様に、CPU等の各種の演算装置である。ストレージ13は、サーバ20のストレージ23と同様に、磁気ディスク等の各種記憶装置である。ストレージ13には、サーバ20から配信された動画を視聴するためのアプリケーションプログラムが記憶されている。入力I/F14は、タッチパネル等の視聴ユーザからの入力を受け付ける任意の入力インターフェースである。通信I/F15は、通信I/F22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア、またはこれらの組み合わせである。ディスプレイ16は、例えばタッチパネルと一体化された有機ELディスプレイ、液晶ディスプレイ、又はこれら以外の画像を表示可能な任意の表示装置である。   The client device 10 includes a computer processor 12, a storage 13 (storage medium), an input interface (I / F) 14, a communication interface (I / F) 15, and a display 16. The computer processor 12 is, like the computer processor 21 of the server 20, various computing devices such as a CPU. The storage 13 is, like the storage 23 of the server 20, various storage devices such as magnetic disks. The storage 13 stores an application program for viewing the moving image distributed from the server 20. The input I / F 14 is an arbitrary input interface that receives an input from a viewing user such as a touch panel. The communication I / F 15 is, like the communication I / F 22, various drivers, software, or a combination thereof for performing communication with another device. The display 16 is, for example, an organic EL display integrated with a touch panel, a liquid crystal display, or any display device capable of displaying an image other than these.

クライアント装置10は、入力I/F14を介して、視聴ユーザの操作を受け付けることにより、クライアント装置10に実装された視聴アプリケーションプログラムを起動する。視聴アプリケーションは、少なくとも視聴が可能であればよく、その他の機能を有していてもよい。コンピュータプロセッサ12は、視聴アプリケーションプログラムに含まれる読み取り可能な命令を実行して、サーバ20から、配信動画のリストを取得する。クライアント装置10は、送信されたリストをディスプレイに表示する。視聴ユーザは、リストに表示された動画から一つを選択する。クライアント装置10は、視聴ユーザの選択操作を受け付けると、選択された動画の配信を要求する動画配信要求をサーバ20に送信する。又は、クライアント装置10は、サーバ20にアクセスすることによって、ストレージ13に記憶されたウェブブラウザを起動させ、HTML、又はXML等のマークアップ言語で記述されたウェブページをディスプレイ16に表示するように構成されてもよい。ウェブページには、動画のリストが表示される。又は、クライアント装置10は、自身のストレージ13に記憶された視聴用プログラム及びウェブブラウザ(アプリ内ブラウザ)との両方を用いて、動画のリストを表示させてもよい。   The client device 10 receives the operation of the viewing user via the input I / F 14 to start the viewing application program implemented in the client device 10. The viewing application may be at least viewable and may have other functions. The computer processor 12 executes readable instructions included in the viewing application program to obtain a list of distribution videos from the server 20. The client device 10 displays the transmitted list on the display. The viewing user selects one of the videos displayed in the list. When the client device 10 receives the selection operation of the viewing user, the client device 10 transmits, to the server 20, a moving image distribution request for requesting distribution of the selected moving image. Alternatively, the client device 10 activates the web browser stored in the storage 13 by accessing the server 20 and displays a web page described in a markup language such as HTML or XML on the display 16. It may be configured. The web page displays a list of videos. Alternatively, the client device 10 may display the moving image list using both the viewing program and the web browser (in-app browser) stored in the storage 13 of the client device 10.

クライアント装置10は、サーバ20から動画のデータを受信すると、受信したデータに基づいてディスプレイ16に動画を表示する。視聴ユーザは、クライアント装置10の入力I/F14を介して、配信された動画に関するメッセージを入力し、このメッセージをサーバ20に投稿することができる。各視聴ユーザから投稿されたメッセージは、動画に重畳して表示されてもよい。これにより、アクターと視聴ユーザとの交流、及び視聴ユーザ間の交流が図られる。   When the client device 10 receives moving image data from the server 20, the client device 10 displays the moving image on the display 16 based on the received data. The viewing user can input a message regarding the delivered moving image via the input I / F 14 of the client device 10 and post the message to the server 20. The message posted from each viewing user may be displayed superimposed on the moving image. Thus, the interaction between the actor and the viewing user and the interaction between the viewing user can be achieved.

次に、サーバ20のストレージ23に格納された各種のデータについて説明する。ストレージ23には、モデルデータ23A、オブジェクトデータ23B、ユーザ管理データ23C、保有リスト23D、候補リスト23E、投稿メッセージ23Fが記憶されている。また、ストレージ23には、動画配信システム1が配信中の動画又は既に配信した動画が記憶され得る。   Next, various data stored in the storage 23 of the server 20 will be described. The storage 23 stores model data 23A, object data 23B, user management data 23C, a possession list 23D, a candidate list 23E, and a posting message 23F. Further, the storage 23 may store a moving image being distributed by the moving image distribution system 1 or a moving image already distributed.

モデルデータ23Aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23Aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23Aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23Aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターに対応するキャラクタオブジェクトを生成するために、モデルデータ23Aは、互いに異なる少なくとも2種類のモデルデータを有する。   The model data 23A is model data for generating an animation of a character. The model data 23A may be three-dimensional model data for generating three-dimensional animation, or may be two-dimensional model data for generating two-dimensional model data. The model data 23A includes, for example, rig data (sometimes called "skeleton data") indicating the skeleton of a character, and surface data indicating the shape or texture of the surface of the character. The model data 23A can include a plurality of different model data. The plurality of model data may have different rig data, or may have the same rig data. The plurality of model data may have surface data different from each other or may have the same surface data. In the illustrated embodiment, in order to generate a character object corresponding to an actor, the model data 23A includes at least two types of model data different from each other.

オブジェクトデータ23Bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23Bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23Bには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。   The object data 23B includes asset data for constructing a virtual space constituting a moving image. The object data 23 B is data for drawing the background of the virtual space constituting the moving image, data for drawing various objects displayed in the moving image, and for drawing various objects displayed in the moving image other than these. Contains data. The object data 23B may include object position information indicating the position of the object in the virtual space.

オブジェクトデータ23Bには、上記以外にも、クライアント装置10の視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、装飾オブジェクトと、通常オブジェクトとが含まれ得る。ギフトオブジェクトには、視聴ユーザが保有するための対価が必要なものと、対価が必要でないものが含まれ得る。購入可能なオブジェクトの数またはオブジェクトの購入金額に上限が設定されていてもよい。   In addition to the above, the object data 23B may include a gift object displayed in a moving image based on a display request from the viewing user of the client device 10. Gift objects may include effect objects, decoration objects, and regular objects. The gift objects may include those requiring consideration for holding by the viewing user and those not requiring consideration. An upper limit may be set on the number of purchasable objects or the purchase price of the objects.

エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトや、花火を模したオブジェクト等である。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。例えば、エフェクトオブジェクトは、運動する粒子により構成される一事象を表現するパーティクルシステムによって表現されてもよい。パーティクルシステムにおいては、粒子毎に表示時間が設定されていてもよい。エフェクトオブジェクトは、静的なオブジェクトであってもよいし、動的なオブジェクトであってもよい。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。   The effect object is an object that affects the impression of the entire viewing screen of the distributed moving image, and is, for example, an object that simulates confetti, an object that simulates a fireworks, or the like. An object simulating a confetti may be displayed on the entire viewing screen, which can change the impression of the entire viewing screen before and after the display. For example, the effect object may be represented by a particle system that represents an event composed of moving particles. In the particle system, the display time may be set for each particle. The effect object may be a static object or a dynamic object. The effect object may be displayed so as to overlap with the character object, but differs from the decorative object in that the display associated with a specific part of the character object is not made.

装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。   The decoration object is an object displayed on the display screen in association with a specific part of the character object. The decorative object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to touch the specific part of the character object. The decoration object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to cover a part or all of the specific part of the character object.

装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトに装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23Bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。   The decorative object is, for example, an accessory (such as a headband, a necklace, an earring, etc.) attached to a character object, clothes (such as a T-shirt), a costume, and an object that can be attached to other character objects. The object data 23B corresponding to the decoration object may include mounting position information indicating which part of the character object the decoration object is associated with. The mounting position information of a certain decoration object can indicate to which part of the character object the decoration object is to be mounted. For example, when the decorative object is a headband, the mounting position information of the decorative object may indicate that the decorative object is mounted on the "head" of the character object. If the decorative object is a T-shirt, the mounting position information of the decorative object may indicate that the decorative object is mounted on the “body” of the character object.

装飾オブジェクトは、サーバ20がストレージ23又はその他のストレージに記憶するリストに追加された後、アクター又はサポーターに選択されることによって、キャラクタオブジェクトに装着される。視聴ユーザは、自身が送信した装飾ギフトオブジェクトをキャラクタオブジェクトに装着してもらうことで、キャラクタオブジェクトに親近感を覚える。一方、視聴ユーザが装飾オブジェクトの表示要求を行っても、アクター又はサポーターに選択されなければ、当該装飾オブジェクトはキャラクタオブジェクトに装着されない。アクターが装飾オブジェクトを選択する場合には、アクターは、サブディスプレイ43に表示されるリストを確認し、コントローラ40等のポインティングデバイスを用いるか、又はサポーターへの指示によって装飾オブジェクトを選択する。また、サポーターは、サポーターコンピュータ45に表示されるリストを確認し、入力インターフェース50を用いて装飾オブジェクトを選択する。   The decoration object is attached to the character object by being selected by an actor or a supporter after the server 20 is added to the list stored in the storage 23 or other storage. The viewing user feels familiarity with the character object by having the character object attach the decoration gift object transmitted by the user. On the other hand, even if the viewing user requests display of the decoration object, the decoration object is not attached to the character object unless it is selected by the actor or supporter. When the actor selects the decoration object, the actor confirms the list displayed on the sub display 43, and uses the pointing device such as the controller 40 or selects the decoration object according to the instruction to the supporter. Further, the supporter confirms the list displayed on the supporter computer 45, and selects the decoration object using the input interface 50.

通常オブジェクトは、仮想空間内に物体として配置される装飾オブジェクト以外のギフトオブジェクトであって、例えばぬいぐるみや花束を模したオブジェクトである。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。通常オブジェクトは、通常オブジェクトがアクターによってその位置を変更可能であるのに対し、エフェクトオブジェクトはアクターによってその位置が変更できない点で異なっていてもよい。また、通常オブジェクトとエフェクトオブジェクトは、表示時間が異なっていてもよい。   The normal object is a gift object other than the decoration object arranged as an object in the virtual space, and is, for example, an object imitating a stuffed toy or a bouquet. The normal object may be displayed so as to overlap with the character object, but differs from the decorative object in that the display associated with a specific part of the character object is not made. The normal object may differ in that the normal object can change its position by the actor, whereas the effect object can not change its position by the actor. Also, the normal object and the effect object may have different display times.

ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間又は通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されていてもよい。   The display time according to the kind may be set to each of the gift objects. In one aspect, the display time of the decoration object may be set longer than the display time of the effect object or the display time of the normal object. For example, the display time of the decoration object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.

図5に示すように、ユーザ管理データ23Cは、キャラクタオブジェクトのコンテンツ毎に、当該動画を視聴したことのある視聴ユーザに関する情報を記憶したものである。基本的に、コンテンツは、複数回に亘って配信される。例えば、「配信者A」は、「キャラクタP」を主人公とする「コンテンツP」を、複数回に亘って配信する。また、別の「配信者B」は、「キャラクタQ」を主人公とする「コンテンツQ」を、複数回に亘ってそれぞれ配信する。コンテンツは、キャラクタオブジェクト毎に異なるものとは限らない。例えば、同じキャラクタオブジェクトの動画でも、互いに関連しない場合には、それぞれ別のコンテンツを構成してもよい。ユーザ管理データ23Cは、初回のコンテンツの配信開始以降の視聴ユーザのアクティビティを記憶したものである。アクティビティは、コンテンツに対する視聴ユーザの活動であり、コンテンツの視聴履歴や、コンテンツへのメッセージの投稿状況、コンテンツへのギフトオブジェクトの提供状況、コンテンツへの課金状況等のうち少なくとも一つを含み得る。また、「視聴ユーザC」が、「コンテンツP」、及び「コンテンツQ」の両方を視聴したことがある場合には、「コンテンツP」における「視聴ユーザC」のアクティビティと、「コンテンツQ」における「視聴ユーザC」のアクティビティとがそれぞれ記憶される。   As shown in FIG. 5, the user management data 23C stores, for each content of a character object, information on a viewing user who has viewed the moving image. Basically, content is distributed multiple times. For example, "distributor A" distributes "content P" having "character P" as a main character over a plurality of times. Further, another “distributor B” distributes “content Q” having “character Q” as a main character over a plurality of times. The content is not necessarily different for each character object. For example, even if moving images of the same character object are not related to each other, different contents may be configured. The user management data 23C stores the activity of the viewing user after the start of distribution of the content for the first time. The activity is an activity of a viewing user for the content, and may include at least one of a viewing history of the content, a posting status of a message to the content, a providing status of a gift object for the content, a charging status for the content, and the like. In addition, when "viewing user C" has viewed both "content P" and "content Q", the activity of "viewing user C" in "content P" and "content Q" The activities of "viewing user C" are stored respectively.

ユーザ管理データ23Cは、コンテンツの視聴ユーザ毎に、視聴ユーザの識別情報(ユーザID)、視聴ユーザが属するグループ、視聴ユーザの入室状態、視聴ユーザのランキング、視聴ユーザの課金状態を含み得る。   The user management data 23C may include, for each viewing user of content, identification information (user ID) of the viewing user, a group to which the viewing user belongs, an entering state of the viewing user, a viewing user ranking, and a viewing user charge state.

コンテンツに対応するグループは、当該コンテンツにおいて視聴ユーザが属するグループを示す。視聴ユーザを分けるグループは、複数であればよい。視聴ユーザは、視聴したことのあるコンテンツにおいて、そのアクティビティに関する条件に基づき、各グループに分けられる。グループを分ける条件は、配信者又はスタジオユニット30の運営者によって予め設定されるものであってもよい。例えば、コンテンツのアクティビティに関する条件に基づいて、視聴ユーザを、コンテンツの熱心なファンである視聴ユーザからなるグループと、初めて視聴する視聴ユーザ等、コンテンツへの関わりが小さい視聴ユーザからなるグループとに分けることができる。   The group corresponding to the content indicates the group to which the viewing user belongs in the content. A plurality of groups may be used to divide the viewing users. The viewing users are divided into each group based on the condition regarding the activity in the content that has been viewed and listened to. The conditions for dividing the group may be preset by the distributor or the operator of the studio unit 30. For example, based on the condition regarding the activity of the content, the viewing users are divided into a group consisting of viewing users who are keen fans of the content and a group consisting of viewing users having a small relation with the content, such as a viewing user who views first be able to.

グループを分ける条件は、当該コンテンツの視聴回数、当該コンテンツへの投稿メッセージの投稿回数、当該コンテンツへのギフトオブジェクトの送信回数、当該コンテンツへの課金額の少なくとも一つを含み得る。例えば、グループを分ける条件が視聴回数である場合、「コンテンツP」の視聴回数が所定回数(例えば10回)以上の視聴ユーザは第1グループ(例えば「VIPグループ」)に含め、視聴回数が所定回数未満の視聴ユーザは、第2グループに含める。また、グループを分ける条件がメッセージの投稿回数である場合、メッセージの投稿回数が所定回数(例えば20回)以上の視聴ユーザは第1グループに含め、メッセージの投稿回数が所定回数未満の視聴ユーザは第2グループに含める。グループを分ける条件が、ギフトオブジェクトの提供回数である場合、ギフトオブジェクトの提供回数が所定回数(例えば5回)以上の視聴ユーザは第1グループに含め、ギフトオブジェクトの提供回数が所定回数未満の視聴ユーザは第2グループに含める。グループを分ける条件が課金額である場合、課金額が所定の金額以上である視聴ユーザは第1グループに含め、課金額が所定の金額未満である視聴ユーザは第2グループに含める。また、コンテンツの視聴回数、コンテンツへの投稿メッセージの投稿回数、コンテンツへのギフトオブジェクトの送信回数、コンテンツへの課金額、及びその他の条件のうち複数を組み合わせて、グループ分けを行ってもよい。   The conditions for dividing the group may include at least one of the number of viewing and listening times of the content, the number of postings of the posting message to the content, the number of transmitting gift objects to the content, and the billing amount for the content. For example, when the condition for dividing the group is the number of viewing times, viewing users whose viewing number of "content P" is a predetermined number of times (for example, 10 times) are included in the first group (for example, "VIP group") Viewing users less than the number of times are included in the second group. Also, when the condition for dividing the group is the number of message postings, viewing users whose number of message postings is a predetermined number of times (for example, 20 times) are included in the first group and viewing users whose number of message postings is less than a predetermined number are Include in the second group. If the condition for dividing the group is the number of times of provision of the gift object, the viewing user whose number of times of provision of the gift object is a predetermined number of times (for example 5 times) is included in the first group and the number of times of provision of the gift object is less than the predetermined number of times Users are included in the second group. When the condition for dividing the group is a billing amount, a viewing user whose billing amount is equal to or more than a predetermined amount is included in the first group, and a viewing user whose billing amount is less than the predetermined amount is included in the second group. Also, grouping may be performed by combining a plurality of the number of viewing and listening times of the content, the number of postings of the posting message to the content, the number of transmissions of the gift object to the content, the billing amount for the content, and other conditions.

グループ分けの条件は、上記の条件以外であってもよい。例えば、視聴用のアプリケーションの利用状況(利用頻度、利用年数、直近の利用日時)、ユーザの属性(年齢、性別、職業、居住地、利用言語等)であってもよい。また、これらの条件を組み合わせて、グループ分けを行ってもよい。   The grouping conditions may be other than the above conditions. For example, the usage status of the viewing application (frequency of use, number of years of usage, latest usage date and time), and attributes of the user (age, gender, occupation, place of residence, language of use, etc.) may be used. Further, grouping may be performed by combining these conditions.

コンテンツと関連付けられた入室状態は、動画配信システム1にログインした状態で当該コンテンツを視聴中であるか否かを示すデータである。視聴ユーザのクライアント装置10に当該コンテンツが配信されている場合には、入室状態は「入室」を示すデータが記憶される。当該クライアント装置10に当該コンテンツが配信されていない場合には、入室状態には「退室」を示すデータが記憶される。なお、当該クライアント装置10に当該コンテンツが配信された後、動画の視聴を中断し、中断から所定時間が経過した場合に、「退室」を示すデータを記憶してもよい。一方、配信中の動画において、その配信回の最初からコンテンツを視聴していない場合には、「未視聴」等の「退室」以外のデータを記憶するようにしてもよい。   The entry state associated with the content is data indicating whether the content is being viewed while logged in to the moving image distribution system 1. When the content is distributed to the client device 10 of the viewing user, data indicating “entry” is stored. When the content is not distributed to the client device 10, data indicating “exit” is stored in the entry state. Note that after the content is distributed to the client device 10, viewing of the moving image may be interrupted, and when a predetermined time has elapsed from the interruption, data indicating “exit” may be stored. On the other hand, in the moving image being distributed, when the content is not viewed from the beginning of the distribution cycle, data other than "out of room" such as "not yet viewed" may be stored.

コンテンツと関連付けられたランキングは、当該コンテンツにおける視聴ユーザのランキングを示すデータである。順位の付与方法は、スタジオユニット30の運営者又は配信者が決定することができる。例えば、ランキングは、当該コンテンツの視聴回数、当該コンテンツへの投稿メッセージの投稿回数、当該コンテンツへのギフトオブジェクトの送信回数、当該コンテンツへの課金額等に応じて決められてもよい。ランキングは、当該コンテンツの全ての視聴ユーザを母集団としてもよいし、複数のグループのうち少なくとも1つ(例えば第1グループ)を母集団としてもよい。   The ranking associated with the content is data indicating the ranking of the viewing user in the content. The operator of the studio unit 30 or the distributor can decide the method of giving the order. For example, the ranking may be determined according to the number of viewing times of the content, the number of postings of the posting message to the content, the number of transmissions of the gift object to the content, the billing amount for the content, and the like. The ranking may be a population of all the viewing users of the content or a population of at least one of a plurality of groups (for example, the first group).

コンテンツと関連付けられたランキングは、当該コンテンツにおける視聴ユーザの課金状態を示すデータである。課金状態は、「課金あり」、「課金なし」等のデータである。又は課金状態は、課金額であってもよい。   The ranking associated with the content is data indicating the charging status of the viewing user in the content. The charge status is data such as "with charge" or "without charge". Alternatively, the charge status may be a charge amount.

図6に示すように、保有リスト23Dは、視聴ユーザが保有するオブジェクトのリストである。保有リスト23Dは、ユーザIDに関連付けて、保有するオブジェクトの識別情報(オブジェクトID)を含み得る。視聴ユーザが保有するオブジェクトは、コンテンツ毎に異なっていてもよく、視聴ユーザが保有するオブジェクトは、異なるコンテンツの間で共通のものであってもよく、これらの両方を含んでいてもよい。コンテンツ毎にオブジェクトが異なる場合、視聴ユーザの保有リスト23Dは、コンテンツ毎にオブジェクトの識別情報が記憶される。この保有リスト23Dは、複数の動画配信に亘って継続的に記憶される。又は保有リスト23Dは、1回分のコンテンツを配信する度に新たに生成又はリセットされるものであってもよい。   As shown in FIG. 6, the possession list 23D is a list of objects possessed by the viewing user. The possession list 23D can include identification information (object ID) of an object to be possessed in association with the user ID. The objects owned by the viewing user may be different for each content, and the objects owned by the viewing user may be common among different contents, or may include both of them. When the object is different for each content, the owned list 23D of the viewing user stores the identification information of the object for each content. The possession list 23D is continuously stored over a plurality of moving picture distributions. Alternatively, the possession list 23D may be newly generated or reset each time a content for one dose is distributed.

図7に示すように、候補リスト23Eは、動画に関連付けられたギフトオブジェクトのリストである。候補リスト23Eは、動画の配信回毎に、生成又はリセットされることが好ましい。視聴ユーザが、動画にギフトオブジェクトの表示要求を送信すると、そのギフトオブジェクトに関する情報が候補リスト23Eに追加される。候補リスト23Eは、ギフトオブジェクトの送信元の視聴ユーザの識別情報(ユーザID)、ギフトオブジェクトの識別情報(オブジェクトID)、ギフトオブジェクトの種類(装飾オブジェクト、エフェクトオブジェクト、通常オブジェクト)、ギフトオブジェクトの送信日時、ギフトオブジェクトの選択状態を含み得る。ギフトオブジェクトの選択状態は、ギフトオブジェクトが装飾オブジェクトであった場合に、アクター又はサポーターによって装飾オブジェクトが選択されているか否かを示す。選択状態は、装飾オブジェクトが選択されている場合には、「選択」を示すデータが記憶され、装飾オブジェクトが選択されていない場合には「未選択」を示すデータが記憶される。ギフトオブジェクトが装飾オブジェクトではない場合には、「未選択」、又は、「未選択」及び「選択」以外のデータが記憶される。   As shown in FIG. 7, the candidate list 23E is a list of gift objects associated with the moving image. It is preferable that the candidate list 23E be generated or reset each time the moving image is distributed. When the viewing user sends a request for displaying a gift object to a moving image, information on the gift object is added to the candidate list 23E. The candidate list 23E includes the identification information (user ID) of the viewing user of the transmission source of the gift object, the identification information (object ID) of the gift object, the type of gift object (decoration object, effect object, normal object), transmission of the gift object The date and time may include the selection state of the gift object. The selection state of the gift object indicates whether the decoration object is selected by the actor or the supporter when the gift object is a decoration object. In the selection state, data indicating “selection” is stored when a decoration object is selected, and data indicating “not selected” is stored when a decoration object is not selected. If the gift object is not a decoration object, data other than "not selected" or "not selected" and "selected" is stored.

図8に示すように、投稿メッセージ23Fは、視聴ユーザが動画に投稿したメッセージに関する情報を含み得る。投稿メッセージ23Fは、コンテンツ毎に、視聴ユーザの識別情報(ユーザID)、当該視聴ユーザが属するグループ、投稿メッセージの内容、メッセージを投稿した投稿日時を含み得る。視聴ユーザが属するグループは、ユーザ管理データ23Cに記憶されているため、これを省略してもよい。投稿メッセージ23Fは、1回分のコンテンツを配信する度に、新たに生成又はリセットされる。   As shown in FIG. 8, the posting message 23F may include information on a message posted by the viewing user to the moving image. The posting message 23F may include, for each content, identification information (user ID) of a viewing user, a group to which the viewing user belongs, contents of a posting message, and a posting date and time when the message was posted. The group to which the viewing user belongs may be omitted because it is stored in the user management data 23C. The post message 23F is newly generated or reset each time one-time content is delivered.

次に、視聴ユーザ、アクター及びサポーターが確認する画面について、コンテンツの配信の流れとともに説明する。クライアント装置10は、視聴ユーザの操作により視聴アプリケーションプログラムが起動されると、サーバ20に対しコンテンツのリストを要求する。サーバ20は、コンテンツのリストを表示するための情報を、クライアント装置10に送信する。   Next, the screens confirmed by the viewing user, the actor, and the supporter will be described along with the flow of the content distribution. When the viewing application program is activated by the operation of the viewing user, the client device 10 requests the server 20 for a list of contents. The server 20 transmits information for displaying a list of contents to the client device 10.

図9に示すように、クライアント装置10のディスプレイ16には、コンテンツリスト画面100が表示される。コンテンツリスト画面100には、配信中又は配信予定のコンテンツのリストが表示されている。リストには、コンテンツの画像101の他、コンテンツの配信日時、コンテンツ名、コンテンツに出演するキャラクタの名前等が表示されている。   As shown in FIG. 9, a content list screen 100 is displayed on the display 16 of the client device 10. The content list screen 100 displays a list of contents being delivered or to be delivered. In the list, in addition to the image 101 of the content, the delivery date and time of the content, the content name, the names of characters appearing in the content, and the like are displayed.

視聴ユーザは、リストの中から一つのコンテンツを選択する。クライアント装置10は、選択されたコンテンツの配信要求をサーバ20に送信する。
サーバ20は、コンテンツの配信要求をクライアント装置10から受信すると、当該クライアント装置10に、配信要求の対象のコンテンツを配信する。クライアント装置10は、コンテンツを受信すると動画を表示する。
The viewing user selects one content from the list. The client device 10 transmits the distribution request of the selected content to the server 20.
When the server 20 receives a content distribution request from the client device 10, the server 20 distributes the target content of the distribution request to the client device 10. When receiving the content, the client device 10 displays a moving image.

図10に示すように、クライアント装置10のディスプレイ16には、動画視聴画面105が表示される。動画視聴画面105には、視点位置センサ36をカメラ視点とした仮想空間と、アクターの動作が反映されたキャラクタオブジェクト110が表示される。また、動画視聴画面105には、ギフト選択部112と、投稿選択部113とが表示されている。   As shown in FIG. 10, a moving image viewing screen 105 is displayed on the display 16 of the client device 10. The moving image viewing screen 105 displays a virtual space with the viewpoint position sensor 36 as a camera viewpoint and a character object 110 on which the motion of the actor is reflected. Further, on the moving image viewing screen 105, a gift selection unit 112 and a post selection unit 113 are displayed.

視聴ユーザによって、動画視聴画面105のギフト選択部112が選択されると、クライアント装置10は、保有リスト23Dをサーバ20から取得する。又はクライアント装置10は、予めサーバ20から取得しストレージ13に記憶した保有リスト23Dを取得する。さらにクライアント装置10は、保有リスト23Dに基づいて、視聴ユーザが保有しているギフトオブジェクトをリストにして表示する。   When the gift selection unit 112 of the moving image viewing screen 105 is selected by the viewing user, the client device 10 acquires the possession list 23D from the server 20. Alternatively, the client device 10 acquires the possession list 23D acquired in advance from the server 20 and stored in the storage 13. Furthermore, based on the possession list 23D, the client device 10 displays the gift objects possessed by the viewing user as a list.

視聴ユーザによってギフトオブジェクトのリストから通常オブジェクトが選ばれると、クライアント装置10からサーバ20へ、通常オブジェクトの表示要求が送信される。表示要求には、通常オブジェクトの識別情報(オブジェクトID)とユーザの識別情報(ユーザID)とが含まれる。なお、ギフトオブジェクトの表示要求には、ユーザの識別情報の送信が必要であるため、表示要求を送信する前に、動画配信システム1又は動画配信システム1と連携したその他のユーザ認証システムにログインする必要がある。   When the viewing user selects a normal object from the list of gift objects, a request for displaying the normal object is transmitted from the client device 10 to the server 20. The display request usually includes identification information (object ID) of an object and identification information (user ID) of a user. In addition, since transmission of identification information of a user is necessary for the display request of a gift object, before transmitting the display request, the user is logged in to the video distribution system 1 or another user authentication system in cooperation with the video distribution system 1 There is a need.

サーバ20は、通常オブジェクトの表示要求に応じて、表示要求を行った視聴ユーザ及びその他の視聴ユーザに配信される動画に通常オブジェクト111を表示させる。図示の実施形態では、複数種類の通常オブジェクト111A〜111Cが表示されている。通常オブジェクト111Aは、クマのぬいぐるみのオブジェクトであり、仮想空間内の所定位置に配置されている。この通常オブジェクト111Aは、例えばキャラクタオブジェクト110が把持する動作を行った場合等、キャラクタオブジェクト110との接触により、仮想空間内で移動可能であってもよい。通常オブジェクト111Bは、掛け軸のオブジェクトであり、仮想空間内の所定位置に表示される。通常オブジェクト111Cは、仮想空間内を移動可能なオブジェクトである。この通常オブジェクト111Cは、仮想空間内を移動した後、最終的に到達した位置に留まって表示されていてもよいし、画面から消えてもよい。   In response to the display request for the normal object, the server 20 displays the normal object 111 in the moving image distributed to the viewing user who made the display request and the other viewing users. In the illustrated embodiment, a plurality of types of normal objects 111A to 111C are displayed. The normal object 111A is a bear's stuffed toy object, and is disposed at a predetermined position in the virtual space. The normal object 111A may be movable in the virtual space by contact with the character object 110, for example, when the character object 110 performs an operation of holding it. The normal object 111B is an object of the multiplication axis, and is displayed at a predetermined position in the virtual space. The normal object 111C is an object movable in the virtual space. After moving in the virtual space, the normal object 111 </ b> C may be displayed at a position finally reached and may disappear from the screen.

図11に示すように、通常オブジェクトの表示要求と同様に、視聴ユーザによってエフェクトオブジェクトの表示要求がなされた場合には、動画視聴画面105にエフェクトオブジェクトが表示される。図示の実施形態では、紙吹雪に対応するエフェクトオブジェクト115が表示されている。   As shown in FIG. 11, when a viewing user makes a display request for an effect object, as in the case of a normal object display request, the effect object is displayed on the moving image viewing screen 105. In the illustrated embodiment, an effect object 115 corresponding to confetti is displayed.

図12に示すように、通常オブジェクトの表示要求と同様に、視聴ユーザによって装飾オブジェクトの表示要求がなされた場合には、動画視聴画面105に装飾オブジェクト120が表示される。装飾オブジェクト120は、キャラクタオブジェクトの特定の部位と関連付けて動画視聴画面105に表示される。装飾オブジェクト120は、キャラクタオブジェクトの特定の部位に接するように表示されてもよい。例えば、猫の耳を模した装飾オブジェクト120は、キャラクタオブジェクトの頭部中央に関連付けられているため、キャラクタオブジェクト110の頭部中央に装着される。キャラクタオブジェクト110が動くと、装飾オブジェクト120もキャラクタオブジェクト110に関連付けられたまま、キャラクタオブジェクト110に装着されているかのように頭部に付随して動く。   As shown in FIG. 12, as in the case of the normal object display request, when the viewing user makes a display request for the decoration object, the decoration object 120 is displayed on the moving image viewing screen 105. The decoration object 120 is displayed on the moving image viewing screen 105 in association with a specific part of the character object. The decorative object 120 may be displayed to touch a specific part of the character object. For example, the decoration object 120 imitating a cat's ear is attached to the head center of the character object 110 because it is associated with the head center of the character object. When the character object 110 moves, the decoration object 120 also moves along with the head as if being attached to the character object 110 while being associated with the character object 110.

動画が投稿メッセージを投稿可能な期間を有している場合、動画を視聴しているいずれかの視聴ユーザによって投稿選択部113が投稿されると、動画視聴画面105とは別の画面又は動画視聴画面105内にメッセージ入力画面が表示される。入力画面においてメッセージが入力された場合には、投稿メッセージの情報がサーバ20へ送信される。   When the posting selection unit 113 is posted by any viewing user who is viewing the moving image when the moving image has a period in which the posting message can be posted, another screen or moving image view from the moving image viewing screen 105 is viewed. A message input screen is displayed in the screen 105. When a message is input on the input screen, information on the post message is transmitted to the server 20.

サーバ20は、投稿可能な期間内において投稿メッセージを受信した場合には、投稿メッセージを含んだ動画データをクライアント装置10に送信する。クライアント装置10は、動画視聴画面105内に投稿メッセージ130を表示させる。投稿メッセージ130は、所定のメッセージ表示領域131に表示される。投稿メッセージ130は、投稿された日時の順番に並んでいる。例えば最新の投稿メッセージ130は、メッセージ表示領域131の最上部に表示される。次に、サーバ20が新たな投稿メッセージを受信すると、最上部に表示されていた投稿メッセージ130を下に移動し、新たな投稿メッセージを最上部に表示する。メッセージ表示領域131の最下部に到達した投稿メッセージは、新たな投稿メッセージが最上部に追加されると、さらに下方に移動して表示されなくなる。又は、メッセージ表示領域131は、一つの投稿メッセージのみを表示可能であってもよい。   When the server 20 receives a posting message within a postable period, it transmits moving image data including the posting message to the client device 10. The client device 10 displays the posting message 130 in the moving image viewing screen 105. Post message 130 is displayed in a predetermined message display area 131. Post messages 130 are arranged in the order of date and time of posting. For example, the latest post message 130 is displayed at the top of the message display area 131. Next, when the server 20 receives a new post message, the post message 130 displayed at the top is moved downward, and a new post message is displayed at the top. The post message that has reached the bottom of the message display area 131 moves further downward and is not displayed when a new post message is added at the top. Alternatively, the message display area 131 may be able to display only one post message.

次に、スタジオルームRでアクターが確認する画面について説明する。
図13は、スタジオルームRに設置されたサブディスプレイ43に表示された通知画面200の例を示す。通知画面200には、アクターへの通知201が表示され得る。通知画面200を表示させるためのデータは、サポーターコンピュータ45が自動で生成するものであってもよく、サポーターの入力操作を必要とするものであってもよい。図示の実施形態では、通知201は、残り時間、スケジュール、アクターへ報知する情報等が表示される。アクターは、通知画面200を確認しつつ、パフォーマンスを行う。なお、通知201は、メインディスプレイ41の画面に、キャラクタオブジェクトのアニメーションと重畳して又は並べて表示してもよい。
Next, the screen which an actor confirms in studio room R is demonstrated.
FIG. 13 shows an example of the notification screen 200 displayed on the sub display 43 installed in the studio room R. The notification screen 200 may display a notification 201 to the actor. The data for displaying the notification screen 200 may be generated automatically by the supporter computer 45, or may be one requiring the supporter's input operation. In the illustrated embodiment, the notification 201 displays the remaining time, the schedule, information for notifying the actor, and the like. The actor performs performance while checking the notification screen 200. Note that the notification 201 may be displayed on the screen of the main display 41 so as to overlap or be aligned with the animation of the character object.

図14は、サブディスプレイ43に表示されるギフトリスト画面210の例を示す。ギフトリスト画面210には、視聴ユーザから表示要求がなされたギフトオブジェクトを、視聴ユーザと対応付けて表示したリスト(オブジェクト情報)が表示されている。ギフトリスト画面210には、全ギフト一覧211、装着中ギフト一覧212(第1リスト)、及び未装着ギフト一覧213(第2リスト)が表示されている。   FIG. 14 shows an example of the gift list screen 210 displayed on the sub display 43. The gift list screen 210 displays a list (object information) in which gift objects for which a display request has been made from the viewing user are displayed in association with the viewing user. On the gift list screen 210, an all gift list 211, an in-wear gift list 212 (first list), and an unmounted gift list 213 (second list) are displayed.

全ギフト一覧211には、動画配信中に視聴ユーザから表示要求が行われたギフトオブジェクトの画像、当該ギフトオブジェクトの名前、当該ギフトオブジェクトの表示要求を行った視聴ユーザの識別情報(ユーザのアカウント名又はユーザID)、装着状態を含み得る。全ギフト一覧211には、装飾オブジェクトに加え、その他の種類のギフトオブジェクトが含まれることが好ましい。なお、視聴ユーザの識別情報として、視聴ユーザのアバターが表示されてもよい。図示の実施形態においては、全ギフト一覧211には、通常オブジェクト、エフェクトオブジェクト、装飾オブジェクトの全種類のギフトオブジェクトが表示される。   In the all gift list 211, an image of a gift object for which a viewing request has been made from a viewing user during video distribution, a name of the gift object, and identification information of the viewing user who made a display request for the gift object (user account name Or user ID), may include the wearing state. The total gift list 211 preferably includes other types of gift objects in addition to the decoration objects. The avatar of the viewing user may be displayed as identification information of the viewing user. In the illustrated embodiment, the all gift list 211 displays gift objects of all types: regular objects, effect objects, and decorative objects.

全ギフト一覧211の「装着状態」は、全ギフト一覧211に表示されたギフトオブジェクトが装飾オブジェクトである場合に、キャラクタオブジェクトが装飾オブジェクトを装着しているか否かを示す。キャラクタオブジェクトが装飾オブジェクトを装着している場合には「装着中」が表示される。キャラクタオブジェクトの装着が終了した場合には、「装着済」が表示される。配信中のコンテンツにおいて、キャラクタオブジェクトが既に装着し終わった装飾オブジェクトについては、「装着済」が表示される。アクター及びサポーターは、この全ギフト一覧211において、動画の配信を開始した時点から視聴者によって表示要求が行われたギフトオブジェクトを確認することができる。また、全ギフト一覧211には、ギフトオブジェクトに関連付けてユーザの識別情報が表示されているので、アクターは、動画の音声で、ギフトオブジェクトの表示要求を行った視聴ユーザに対し、メッセージ(例えば「Aさん、ありがとう」等)を伝えることができる。これにより、アクターが、視聴ユーザとのコミュニケーションの増加を図ることができるので、視聴ユーザの満足度を向上することができる。   The “mounted state” of the all gift list 211 indicates whether the character object is mounted on the decoration object when the gift object displayed on the all gift list 211 is the decoration object. If the character object is wearing a decoration object, "loading" is displayed. When the mounting of the character object is completed, "mounted" is displayed. In the content being delivered, "mounted" is displayed for the decoration object for which the character object has already been mounted. The actor and the supporter can confirm, in the all gift list 211, the gift object for which the viewer has made a display request from the time when the distribution of the moving image is started. In addition, since the identification information of the user is displayed in association with the gift object in the all gift list 211, the actor is a voice of the moving image, and a message (for example, “ Thank you, Mr. A, etc.). As a result, the actor can increase communication with the viewing user, so that the degree of satisfaction of the viewing user can be improved.

装飾オブジェクトには表示時間が定められ得る。表示時間が経過した装飾オブジェクトは、全ギフト一覧211において、選択状態が「装着済」とされた上、グレイアウト等、表示時間が経過していない装飾オブジェクトと異なる表示態様とされる。また、表示時間が経過した装飾オブジェクトは、動画上で非表示とされる。   Display time may be defined for the decoration object. The decoration objects for which the display time has elapsed are displayed in a different display mode from the decoration objects for which the display time has not elapsed, such as graying out after the selection state is set to “already” in the entire gift list 211. Also, the decoration object for which the display time has elapsed is hidden on the moving image.

なお、配信中の動画において、異なる視聴ユーザから同じ装飾オブジェクトの表示要求が行われ、一方の装飾オブジェクトのみがキャラクタオブジェクトによって装着された場合には、当該装飾オブジェクトを「装着済み」とし、他方の装飾オブジェクトを「未装着」としてもよい。又は、両方の装飾オブジェクトを「装着済み」としてもよい。   In addition, in the moving image being distributed, when the display request of the same decoration object is issued from different viewing users and only one decoration object is mounted by the character object, the decoration object is set as “already mounted”, and the other is The decoration object may be "unmounted". Alternatively, both decoration objects may be "mounted".

装着中ギフト一覧212には、アクター又はサポーターによって選択され、キャラクタオブジェクトが装着している装飾ギフトオブジェクトが表示されている。装着中ギフト一覧212の項目は、全ギフト一覧と同様である。装着中ギフト一覧212は、装着中である装飾オブジェクトのうち、表示要求が行われた日時が最も遅いもの、すなわち最も新しいものが最上部に表示され、表示要求が行われた日時が遅いものから順に、上から下に並べて表示される。アクター及びサポーターは、この装着中ギフト一覧212を確認することで、キャラクタオブジェクトが装着している装飾オブジェクトを把握することができる。このため、アクターは、キャラクタオブジェクトに装着した装飾オブジェクトの感想等のメッセージ(例えば「このネコミミ、気に入った」等)を動画の音声で、視聴ユーザに伝えることができる。これにより、アクターが、装飾オブジェクトを通じて、視聴ユーザとのコミュニケーションの増加を図ることができるので、装飾オブジェクトを提供した視聴ユーザの満足度を向上するだけでなく、当該視聴ユーザ以外の視聴ユーザが装飾オブジェクトを提供する意欲を高めることができる。   In the wearing gift list 212, a decoration gift object selected by an actor or a supporter and worn by a character object is displayed. The items of the in-wear gift list 212 are the same as those of all the gift lists. Among the decoration objects being worn, the gift list 212 with the latest date and time when the display request is made, that is, the newest one is displayed at the top and the date and time when the display request is issued is late In order, it is displayed side by side from the top. The actor and the supporter can grasp the decoration object worn by the character object by checking the gift list 212 during wearing. For this reason, the actor can transmit a message (for example, "This cat Mimi, I like it", etc.) such as an impression of the decoration object attached to the character object to the viewing user by the sound of the moving image. As a result, the actor can increase communication with the viewing user through the decoration object, so that not only the satisfaction of the viewing user who provided the decoration object is improved, but also viewing users other than the viewing user are decorated It can motivate you to provide objects.

表示時間が経過した装飾オブジェクトは、装着中ギフト一覧212から消去されるか、又は、グレイアウト等、表示時間が経過していない装飾オブジェクトと異なる表示態様とされる。   The decoration object for which the display time has elapsed is deleted from the in-wear gift list 212 or a display mode different from the decoration object for which the display time has not elapsed, such as graying out.

未装着ギフト一覧213には、視聴ユーザにより表示要求が行われた後、アクター又はサポーターによって選択されていない装飾ギフトオブジェクトが表示されている。未装着ギフト一覧213の項目は、全ギフト一覧と同様である。未装着ギフト一覧213は、表示要求が行われた日時が最も早いもの、すなわち表示要求が行われてから未装着のまま経過した時間が最も長いものが最上部に表示され、表示要求が行われた日時が早いものから順に、上から下に並べて表示される。このように、未装着の装飾ギフトオブジェクトが一覧表示されるので、アクター又はサポーターは、視聴ユーザから提供されて選択していない装飾オブジェクトを把握することができる。このようにアクターが未選択の装飾オブジェクトを容易に確認することができるので、可能な限り多くの装飾オブジェクトを効率的に選択することができる。さらに、表示要求が行われた日時が早いものを上部に表示するので、選択の漏れを抑制することができる。   In the unmounted gift list 213, decorative gift objects not selected by an actor or a supporter are displayed after the display user has made a display request. The items of the unmounted gift list 213 are the same as those of all the gift lists. In the unmounted gift list 213, the display request is made at the earliest when the display request is made, that is, the longest non-mounted time after the display request is made is displayed at the top, and the display request is made. They are displayed side by side from top to bottom in order from the earliest date and time. In this manner, since the unmounted decorative gift objects are listed, the actor or supporter can grasp the decorative objects provided by the viewing user and not selected. In this manner, since the actor can easily confirm the unselected decoration objects, it is possible to efficiently select as many decoration objects as possible. Furthermore, since the display request is displayed earlier on the top when the display request has been made, selection omission can be suppressed.

装飾ギフトオブジェクトのうち、表示時間が制限されているオブジェクトは、キャラクタオブジェクトに装着開始されたときから表示時間が経過すると、動画視聴画面105から消去される。消去された装飾オブジェクトは、装着中ギフト一覧212から消去される。このように動画視聴画面105から消去された装飾オブジェクトは、全ギフト一覧211において、選択状態が「装着済」に更新される。全ギフト一覧211、装着中ギフト一覧212、未装着ギフト一覧213に、ギフトオブジェクトの表示時間を表示してもよい。   Among the decoration gift objects, an object whose display time is limited is deleted from the moving image viewing screen 105 when the display time has elapsed since the attachment of the character object was started. The erased decoration object is erased from the gift list 212 during wearing. As described above, in the all-gift list 211, the selection state of the decoration object deleted from the moving image viewing screen 105 is updated to "already installed". The display time of the gift object may be displayed on the all gift list 211, the in-wear gift list 212, and the non-mounted gift list 213.

また、アクター又はサポーターによって未装着ギフト一覧213に含まれるいずれかの装飾ギフトが選択されると、サーバ20によって、選択された装飾オブジェクトに関する情報は、未装着ギフト一覧213から消去され、装着中ギフト一覧212に新たに追加される。また、選択された装飾ギフトオブジェクトは、全ギフト一覧211の選択状態が「未選択」から「装着中」に更新される。   In addition, when any decoration gift included in the non-mounted gift list 213 is selected by the actor or supporter, the server 20 deletes the information on the selected decoration object from the non-mounted gift list 213 and the gift being worn It is newly added to the list 212. Moreover, as for the selected decoration gift object, the selection state of the all gift list 211 is updated from “not selected” to “during mounting”.

このように、ギフトリスト画面210において、装着中ギフト一覧212と、未装着ギフト一覧213とが分けて表示されるので、視聴ユーザから多くの装飾オブジェクトが提供されたとしても、アクター又はサポーターは、選択中の装飾オブジェクト及び未選択の装飾オブジェクトを把握し、装飾オブジェクトを効率良く選択することができる。そして、限られた配信時間の中で、可能な限り多くの装飾オブジェクトを選択してキャラクタオブジェクトに装着させることで、視聴ユーザとのコミュニケーションの機会を増加させることができる。これにより、配信動画に対する視聴ユーザの満足度を向上させることができる。   As described above, since the gift list during installation 212 and the non-mounted gift list 213 are separately displayed on the gift list screen 210, the actor or supporter can display even if many viewing objects are provided by the viewing user, It is possible to grasp the selected decoration object and the unselected decoration object, and efficiently select the decoration object. Then, as many decoration objects as possible are selected and attached to the character object within the limited delivery time, the opportunity for communication with the viewing user can be increased. Thereby, the degree of satisfaction of the viewing user with respect to the distribution moving image can be improved.

図15は、サブディスプレイ43に表示されるメッセージ表示画面220である。メッセージ表示画面220は、ギフトリスト画面210と同じサブディスプレイ43に表示されてもよいし、サブディスプレイ43が複数台ある場合には異なるサブディスプレイ43に表示されてもよい。メッセージ表示画面220には、第1メッセージ表示領域221と、第2メッセージ表示領域222と、入室ログ223とが表示されている。   FIG. 15 is a message display screen 220 displayed on the sub display 43. The message display screen 220 may be displayed on the same sub display 43 as the gift list screen 210, or may be displayed on a different sub display 43 when there are a plurality of sub displays 43. On the message display screen 220, a first message display area 221, a second message display area 222, and an entry log 223 are displayed.

第1メッセージ表示領域221は、サーバ20のコンピュータプロセッサ21が、配信中のコンテンツに対応する投稿メッセージ23Fをストレージ23から読み出して、投稿日時順にリスト化したものである。投稿日時が最も遅いもの、すなわち最新の投稿メッセージがリストの最上部に表示させてもよい。新たな投稿メッセージが投稿されると、当該投稿メッセージは第1メッセージ表示領域221の最上部に追加し、既に第1メッセージ表示領域221に表示された投稿メッセージは下方に繰り下げる。なお、投稿メッセージの移動方向は、逆方向であってもよい。リストには、投稿メッセージ毎に、視聴ユーザの識別情報(視聴ユーザのアカウント名等)、投稿時刻、メッセージ内容が含まれ得る。なお、視聴ユーザの識別情報として、視聴ユーザのアバターが表示されてもよい。   In the first message display area 221, the computer processor 21 of the server 20 reads out the posting messages 23F corresponding to the contents being distributed from the storage 23, and lists them in order of posting date and time. The latest posting message may be displayed at the top of the list, with the latest posting date and time. When a new post message is posted, the post message is added to the top of the first message display area 221, and the post message already displayed in the first message display area 221 is advanced downward. Note that the moving direction of the post message may be reverse. The list may include, for each post message, identification information of the viewing user (such as an account name of the viewing user), a posting time, and a message content. The avatar of the viewing user may be displayed as identification information of the viewing user.

第2メッセージ表示領域222は、サーバ20のコンピュータプロセッサ21が、ストレージ23に記憶された投稿メッセージ23Fのうち、第1グループ(VIPグループ)に属する視聴ユーザの投稿メッセージのみを抽出してリスト化したものである。図示の実施形態では、第2メッセージ表示領域222に表示された投稿メッセージは、第1メッセージ表示領域221にも表示されていてもよく、第2メッセージ表示領域222のみに表示されてもよい。第2メッセージ表示領域222には、視聴ユーザの識別情報(視聴ユーザのアカウント名等)、投稿時刻、メッセージ内容のほか、ランキングが含まれ得る。なお、視聴ユーザの識別情報として、視聴ユーザのアバターが表示されてもよい。   In the second message display area 222, the computer processor 21 of the server 20 extracts and lists only the posting messages of the viewing users belonging to the first group (VIP group) from the posting messages 23F stored in the storage 23. It is a thing. In the illustrated embodiment, the post message displayed in the second message display area 222 may be displayed in the first message display area 221, or may be displayed only in the second message display area 222. The second message display area 222 may include a ranking in addition to identification information of the viewing user (account name of viewing user, etc.), posting time, message content. The avatar of the viewing user may be displayed as identification information of the viewing user.

入室ログ223は、配信中のコンテンツを視聴している視聴ユーザのリストである。サーバ20のコンピュータプロセッサ21は、配信中のコンテンツに対応するユーザ管理データ23Cを参照して、入室状態が「入室」である視聴ユーザを抽出する。入室ログ223は、当該コンテンツを視聴している視聴ユーザの識別情報、入室時刻、入室状態、グループを含み得る。なお、視聴ユーザの識別情報として、視聴ユーザのアバターが表示されてもよい。   The entry log 223 is a list of viewing users who are viewing the content being delivered. The computer processor 21 of the server 20 refers to the user management data 23C corresponding to the content being distributed, and extracts the viewing user whose entry state is "entry". The entry log 223 may include identification information of a viewing user who is viewing the content, entry time, entry status, and group. The avatar of the viewing user may be displayed as identification information of the viewing user.

アクターは、入室ログ223を参照することにより、視聴を開始した視聴ユーザに対し、動画の音声を通じて、「Nさん、こんにちは」等のメッセージを述べることができる。このように、アクターは、視聴を開始した視聴ユーザとのコミュニケーションをとることができるので、視聴ユーザはキャラクタへの愛着が湧き、コンテンツへの満足度が高められる。   By referring to the entry log 223, the actor can describe a message such as "N, Hi" to the viewing user who has started viewing through the audio of the moving image. In this manner, the actor can communicate with the viewing user who has started viewing, so that the viewing user becomes attached to the character and the satisfaction with the content is enhanced.

また、アクターは、第1メッセージ表示領域221、及び第2メッセージ表示領域222を確認することにより、視聴ユーザからの投稿メッセージに対応することができる。この際、第1メッセージ表示領域221と、第1グループの視聴ユーザが属する第2メッセージ表示領域222とを分けて表示することにより、投稿メッセージを送信したユーザの傾向を容易に把握することができる。例えば、アクターは、第1グループに属する視聴ユーザの投稿メッセージへの対応を優先することができる。これにより、第1グループに属する視聴ユーザのコンテンツへの満足度を特に高めることができる。また、第2グループに属する視聴ユーザの投稿メッセージへの対応を優先すれば、第2グループに属する視聴ユーザのコンテンツへの満足度を特に高めることができる。   In addition, the actor can respond to the posting message from the viewing user by confirming the first message display area 221 and the second message display area 222. At this time, by separately displaying the first message display area 221 and the second message display area 222 to which the viewing user of the first group belongs, it is possible to easily grasp the tendency of the user who has sent the post message. . For example, the actor can give priority to the response to the posting message of the viewing user belonging to the first group. Thereby, the degree of satisfaction with the content of the viewing user belonging to the first group can be particularly enhanced. Further, if priority is given to the response to the posting message of the viewing user belonging to the second group, the degree of satisfaction with the content of the viewing user belonging to the second group can be particularly enhanced.

次に図16を参照して、一実施形態における動画配信処理について説明する。当該動画配信処理においては、スタジオルームRにおいてアクターがパフォーマンスを行っていることが想定されている。まず、ステップS11では、サーバ20のモーションデータ処理部21Aによって、アクターの体の動きのデジタル表現であるボディモーションデータと、アクターの顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。   Next, with reference to FIG. 16, a moving image delivery process according to an embodiment will be described. In the video distribution process, it is assumed that the actor is performing in the studio room R. First, in step S11, the motion data processing unit 21A of the server 20 converts body motion data, which is a digital representation of the movement of the actor's body, and face motion data, which is a digital representation of the movement (expression) of the actor's face. It is generated.

次に、ステップS12において、動画生成部21Bにより、動画が生成される。当該ステップでは、アクターのボディモーションデータ及びフェイスモーションデータを、アクター用のモデルデータ23Aに適用することにより、アクターの体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションが生成される。さらにこのアニメーションを用いた動画が生成される。この動画には、アクターの音声が合成される。   Next, in step S12, a moving image is generated by the moving image generation unit 21B. In this step, by applying the body motion data and face motion data of the actor to the model data 23A for the actor, an animation of a character object moving in synchronization with the movement of the body and expression of the actor is generated. Furthermore, a moving image using this animation is generated. The voice of the actor is synthesized to this animation.

次に、ステップS13において、動画配信部21Cにより、ステップS12にて生成された動画が配信される。コンテンツは、ネットワーク11を介してクライアント装置10に配信される。このコンテンツは、サポーターコンピュータ45に配信され、また、スタジオルームR内のメインディスプレイ41に投影されてもよい。1回分のコンテンツは、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。   Next, in step S13, the moving image distribution unit 21C distributes the moving image generated in step S12. The content is distributed to the client device 10 via the network 11. This content may be distributed to the supporter computer 45 and may be projected on the main display 41 in the studio room R. One dose of content is delivered continuously over a predetermined delivery period. The distribution period of the moving image may be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, and any other time.

次に、ステップS14に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ45により配信の終了指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S13の処理が繰り返し実行され、アクターの動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。   Next, the process proceeds to step S14, and it is determined whether an end condition for ending the distribution of the moving image is satisfied. The end condition is, for example, that the end time of distribution has been reached, that the support computer 45 has instructed the end of distribution, or other conditions. If the end condition is not satisfied, the processing of steps S11 to S13 is repeatedly executed, and the distribution of the moving image including the animation synchronized with the movement of the actor is continued. If it is determined that the ending condition is satisfied for the moving image, the distribution processing of the moving image is ended.

次に、図17を参照して、ギフトオブジェクトの受付処理について説明する。サーバ20のユーザリクエスト処理部21Dによってクライアント装置10から送信されたギフトオブジェクトの表示要求が受信されると、ギフトオブジェクトが受け付けられる(ステップS20)。表示要求には、視聴ユーザの識別情報、ギフトオブジェクトの識別情報、送信日時等が含まれ得る。   Next, the process of accepting gift objects will be described with reference to FIG. When the display request for the gift object transmitted from the client device 10 is received by the user request processing unit 21D of the server 20, the gift object is accepted (step S20). The display request may include the identification information of the viewing user, the identification information of the gift object, the transmission date, and the like.

ユーザリクエスト処理部21Dによって、受け付けたギフトオブジェクトの情報が候補リスト23Eに追加され、ギフトオブジェクトの情報がギフトリスト画面210の全ギフト一覧211に追加される(ステップS21)。   Information of the received gift object is added to the candidate list 23E by the user request processing unit 21D, and information of the gift object is added to the all gift list 211 of the gift list screen 210 (step S21).

次に、ユーザリクエスト処理部21Dによって、追加されたギフトオブジェクトが装飾オブジェクトであるか否かが判断される(ステップS22)。ギフトオブジェクトが装飾オブジェクトではなく、エフェクトオブジェクト又は通常オブジェクトである場合には(ステップS22:NO)、ギフトオブジェクトの受付処理を終了する。   Next, the user request processing unit 21D determines whether the added gift object is a decoration object (step S22). If the gift object is not a decoration object but an effect object or a normal object (step S22: NO), the gift object reception process is ended.

ギフトオブジェクトが装飾オブジェクトである場合には(ステップS22:YES)、ギフトオブジェクトが、未装着ギフト一覧213に追加される(ステップS23)。
次に、図18を参照して、装飾オブジェクトの選択処理について説明する。アクター又はサポーターの操作によって、装飾オブジェクトが選択されたと判断すると(ステップS30:YES)、ユーザリクエスト処理部21Dによって、選択された装飾オブジェクトが、未装着ギフト一覧213から削除され、装着中ギフト一覧212に表示される(ステップS31)。また、動画生成部21Bによって、選択された装飾オブジェクトが、当該装飾オブジェクトに関連付けられたキャラクタオブジェクトの所定の部位に表示される(ステップS32)。
If the gift object is a decoration object (step S22: YES), the gift object is added to the unmounted gift list 213 (step S23).
Next, the process of selecting a decoration object will be described with reference to FIG. If it is determined that the decoration object is selected by the operation of the actor or the supporter (step S30: YES), the selected decoration object is deleted from the unmounted gift list 213 by the user request processing unit 21D, and the gift list 212 being mounted Is displayed (step S31). Further, the selected decoration object is displayed by the moving image generation unit 21B at a predetermined part of the character object associated with the decoration object (step S32).

さらに、動画に表示された装飾オブジェクトについて、表示期間が終了したか否かが判断される(ステップS33)。装飾オブジェクトの表示期間が終了していない場合には(ステップS33:NO)、装飾オブジェクトの表示が継続される。一方、装飾オブジェクトの表示時間が終了した場合には(ステップS33:YES)、装着中ギフト一覧212のうち、表示時間が終了した装飾オブジェクトが更新される(ステップS34)。具体的には、表示時間が終了した装飾オブジェクトが装着中ギフト一覧212から消去されるか、又はグレイアウトされる等、表示時間が終了していない他の装飾オブジェクトと異なる表示態様とされる。   Furthermore, it is determined whether or not the display period has ended for the decoration object displayed in the moving image (step S33). If the display period of the decoration object has not ended (step S33: NO), the display of the decoration object is continued. On the other hand, when the display time of the decoration object is ended (step S33: YES), the decoration object of which the display time is ended is updated in the wearing gift list 212 (step S34). Specifically, the display object is displayed differently from other decoration objects whose display time has not ended, such as the decorative object whose display time has ended is deleted from the gift list 212 during installation or grayed out.

次に、図19を参照して、投稿メッセージの表示処理について説明する。視聴ユーザの識別情報と投稿メッセージとが受信されると、ユーザリクエスト処理部21Dによって、当該投稿メッセージが、第1のグループに属する視聴ユーザからの投稿メッセージであるか否かを判断する(ステップS40)。視聴ユーザのグループ分けは、ユーザ情報管理部21Eによって、所定のタイミングで行われる。   Next, the post message display process will be described with reference to FIG. When the identification information of the viewing user and the posting message are received, it is determined by the user request processing unit 21D whether the posting message is a posting message from the viewing user belonging to the first group (step S40). ). The grouping of the viewing users is performed by the user information management unit 21E at a predetermined timing.

受信された投稿メッセージが第1グループに属する視聴ユーザからの投稿メッセージであると判断されると(ステップS40:YES)、ユーザリクエスト処理部21Dによって、当該投稿メッセージを第1メッセージ表示領域221及び第2メッセージ表示領域222に表示する(ステップS41)。一方、受信された投稿メッセージが第2グループに属するユーザからの投稿メッセージであると判断されると(ステップS40:YES)、当該投稿メッセージは、第2メッセージ表示領域222のみに表示される(ステップS42)。   If it is determined that the received post message is a post message from a viewing user who belongs to the first group (step S40: YES), the user request processing unit 21D displays the post message in the first message display area 221 and the first message display area 221 2 Display in the message display area 222 (step S41). On the other hand, when it is determined that the received post message is a post message from a user belonging to the second group (step S40: YES), the post message is displayed only in the second message display area 222 (step S40). S42).

以上説明したように、本実施形態によれば、以下の効果が得られる。
(1)上記実施形態では、動画配信システムは、視聴ユーザから、オブジェクトの表示要求を受け付ける。また、表示要求が受け付けられたオブジェクトのリストが、アクターから視認可能な位置に配置されたサブディスプレイ43に表示される。パフォーマンス中のアクターは、サブディスプレイ43に表示されたリストを確認することによって、表示要求が行われたオブジェクトと、当該オブジェクトの表示要求を行った視聴ユーザとを迅速に把握できる。さらに、アクターは、オブジェクトと視聴ユーザとを迅速に把握することにより、表示要求を行った視聴ユーザに対し好適なタイミングでメッセージを送ることが可能となる。従って、視聴ユーザとのコミュニケーションの機会を増加させることができる。
As described above, according to this embodiment, the following effects can be obtained.
(1) In the above embodiment, the moving picture distribution system receives a display request for an object from a viewing user. In addition, a list of objects for which a display request has been received is displayed on the sub display 43 disposed at a position visible from the actor. By checking the list displayed on the sub display 43, the actor in performance can quickly grasp the object for which the display request has been made and the viewing user who has made the display request for the object. Furthermore, the actor can send a message to the viewing user who made the display request at a suitable timing by quickly grasping the object and the viewing user. Therefore, the opportunity for communication with the viewing user can be increased.

(2)上記実施形態では、ギフトリスト画面210の中からアクター等の視聴ユーザ以外のユーザによって選択されたオブジェクトが動画に表示される。ギフトリスト画面210には、表示要求が行われたオブジェクトが表示されているので、アクター等がオブジェクトを効率よく選択することができる。このため、リストの効果をより発揮することができる。   (2) In the above embodiment, an object selected by a user other than a viewing user such as an actor from the gift list screen 210 is displayed as a moving image. Since the objects for which the display request has been made are displayed on the gift list screen 210, an actor or the like can efficiently select the objects. For this reason, the effect of the list can be exhibited more.

(3)上記実施形態では、ギフトリスト画面210において、選択されたオブジェクトと、未選択のオブジェクトとが、別のリストに分けて表示されるので、未選択のオブジェクトのリストの中からオブジェクトを容易に選択することができる等、アクターのパフォーマンスを支援することができる。   (3) In the above embodiment, in the gift list screen 210, the selected object and the unselected objects are displayed separately in another list, so it is easy to select an object from the list of unselected objects. You can choose to support the performance of the actor, etc.

(4)上記実施形態では、装飾オブジェクトのみが、装着中ギフト一覧212及び未装着ギフト一覧213に表示される。つまり、視聴ユーザ以外のユーザによって選択される必要のあるオブジェクトのみが第1リスト及び第2リストに表示されるため、アクターは、希望の装飾オブジェクトを容易に選択できる。   (4) In the above embodiment, only the decoration object is displayed on the in-wear gift list 212 and the un-mounted gift list 213. That is, since only objects that need to be selected by a user other than the viewing user are displayed in the first list and the second list, the actor can easily select a desired decoration object.

(5)上記実施形態では、第1グループに属する視聴ユーザの投稿メッセージが、他のグループに属する視聴ユーザの投稿メッセージとは異なる領域に表示されるので、アクターは、第1グループに属する視聴ユーザの投稿メッセージに優先して対応することができる。このため、特定の視聴ユーザに対するコミュニケーションの機会を増加させることができる。   (5) In the above embodiment, the post message of the viewing user belonging to the first group is displayed in the area different from the posting message of the viewing user belonging to the other group, so the actor is a viewing user belonging to the first group It is possible to prioritize and respond to post messages of. For this reason, the communication opportunity with respect to a specific viewing-and-listening user can be increased.

上記各実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、ギフトリスト画面210を、装着中ギフト一覧212、未装着ギフト一覧213を含む画面をサブディスプレイ43に表示した。これに代えて若しくは加えて、第1グループに属する視聴ユーザからのギフト一覧、及び第2グループに属する視聴ユーザからのギフト一覧の少なくとも一方をサブディスプレイ43に表示してもよい。さらに、第1グループに属する視聴ユーザからのギフト一覧を、装着中ギフト一覧と、未装着ギフト一覧とに分けるようにしてもよい。同様に、第2グループに属する視聴ユーザからのギフト一覧を、装着中ギフト一覧と、未装着ギフト一覧とに分けるようにしてもよい。これによれば、装飾ギフトオブジェクトを、装着中及び未装着の観点に加え、視聴ユーザの属するグループといった観点で区別して表示することができるので、視聴ユーザの属するグループに応じたコミュニケーションを取ることができる。
The above embodiments can be implemented with the following modifications. The present embodiment and the following modifications can be implemented in combination with one another as long as there is no technical contradiction.
In the above embodiment, the gift list screen 210 is displayed on the sub display 43 with a screen including the in-wear gift list 212 and the non-mounted gift list 213. Instead of or in addition to this, at least one of the gift list from the viewing user belonging to the first group and the gift list from the viewing user belonging to the second group may be displayed on the sub display 43. Furthermore, the gift list from the viewing user belonging to the first group may be divided into the in-wear gift list and the unmounted gift list. Similarly, the gift list from the viewing user belonging to the second group may be divided into the in-wear gift list and the non-mounted gift list. According to this, the decorative gift object can be displayed separately from the perspective of the group to which the viewing user belongs in addition to the perspective of wearing and non-mounting, so that communication according to the group to which the viewing user belongs can be taken. it can.

・上記実施形態では、ギフトリスト画面210とメッセージ表示画面220とを異なる画面とした。これに代えて、装着中ギフト一覧212、未装着ギフト一覧213、第1メッセージ表示領域221、第2メッセージ表示領域222、及び入室ログ223のうち複数を一画面に並べて表示してもよい。また、アクター又はサポーターが、全ギフト一覧211、装着中ギフト一覧212、未装着ギフト一覧213、第1メッセージ表示領域221、第2メッセージ表示領域222、及び入室ログ223のうち、任意の表示を一画面内において自由に配置できるように構成されていてもよい。   In the above embodiment, the gift list screen 210 and the message display screen 220 are different screens. Instead of this, a plurality of the attached gift list 212, the unattached gift list 213, the first message display area 221, the second message display area 222, and the entry log 223 may be displayed side by side on one screen. In addition, the actor or supporter may select any one of the all gift list 211, the in-wear gift list 212, the non-mounted gift list 213, the first message display area 221, the second message display area 222, and the entry log 223. It may be configured to be freely arranged in the screen.

・上記実施形態では、一つのサブディスプレイ43に、ギフトリスト画面210とメッセージ表示画面220とを交互に表示してもよい。画面の切り替えは、ギフトオブジェクトの表示要求、及び投稿メッセージのいずれかを受信したときに行ってもよい。例えば、ギフトオブジェクトの表示要求を受信した場合には、ギフトリスト画面210を所定時間表示し、投稿メッセージを受信した場合にはメッセージ表示画面220を所定時間表示する。   In the above embodiment, the gift list screen 210 and the message display screen 220 may be alternately displayed on one sub display 43. The switching of the screen may be performed when any of the display request for the gift object and the posting message is received. For example, when a request for displaying a gift object is received, the gift list screen 210 is displayed for a predetermined time, and when a post message is received, the message display screen 220 is displayed for a predetermined time.

・上記実施形態では、ギフトリスト画面210、メッセージ表示画面220はサブディスプレイ43に表示されるようにした。これに代えて、ギフトリスト画面210、及びメッセージ表示画面220の少なくとも一つを、メインディスプレイ41に表示するようにしてもよい。   In the above embodiment, the gift list screen 210 and the message display screen 220 are displayed on the sub display 43. Instead of this, at least one of the gift list screen 210 and the message display screen 220 may be displayed on the main display 41.

・上記実施形態では、装飾オブジェクトは、キャラクタオブジェクトに装着された後、所定の表示時間が経過すると非表示となるようにした。これに代えて、装飾オブジェクトは、アクター又はサポーターの操作により、非表示となるように構成されてもよい。   In the above embodiment, after the decoration object is attached to the character object, it is not displayed when a predetermined display time elapses. Alternatively, the decoration object may be configured to be hidden by the operation of the actor or supporter.

・上記実施形態では、ギフトリスト画面210、メッセージ表示画面220はサブディスプレイ43に表示されるようにした。これに代えて若しくは加えて、アクターが装着するヘッドマウントディスプレイに表示されるようにしてもよい。ヘッドマウントディスプレイは、透過型のものであってもよく、非透過型のものであってもよい。ヘッドマウントディスプレイには、キャラクタのアニメーションを含む動画が表示されてもよく、それらの動画は表示されずギフトリスト画面210及びメッセージ表示画面220の少なくとも一方のみが表示されてもよい。   In the above embodiment, the gift list screen 210 and the message display screen 220 are displayed on the sub display 43. Instead of or in addition to this, it may be displayed on a head mounted display worn by the actor. The head mounted display may be transmissive or non-transmissive. On the head mounted display, moving images including animation of characters may be displayed, and those moving images may not be displayed and only at least one of the gift list screen 210 and the message display screen 220 may be displayed.

・上記実施形態では、視聴ユーザを、コンテンツの視聴回数、当該コンテンツへの投稿メッセージの投稿回数、当該コンテンツへのギフトオブジェクトの送信回数、当該コンテンツへの課金額等によって、複数のグループに分けた。これに代えて、視聴ユーザを、配信される動画に対し、不適切な行動を行う視聴ユーザが属するグループ(例:第2グループ)と、それ以外の視聴ユーザが属するグループ(例:第1グループ)とを分けてもよい。視聴ユーザの実名や住所等、視聴ユーザを特定する情報は、アカウント名、ユーザID又はアバター等の必要な情報を除いて、配信者や他の視聴ユーザに開示されないことから、悪意のある視聴ユーザは、動画へのメッセージの投稿、ギフトオブジェクトの表示要求等のアクティビティにおいて、不適切な行動をとる可能性がある。配信者は、トラブルを未然に防ぐために、これらの視聴ユーザが「入室」(ログイン)したこと、メッセージを投稿したこと等をいち早く把握する必要がある。グループを分ける条件は、動画上で不適切なメッセージが過去に送信されたこと、又はその回数が閾値に達したことなどである。不適切なメッセージを判定する方法として、例えば、サーバ20が、メッセージの内容を解析し、メッセージに含まれる語句が不適切な語句に該当すると判断すると、当該メッセージを不適切であると判定する方法がある。他にも、配信者又は運営者が、動画に投稿されるメッセージを目視して確認することによってメッセージが不適切であるか否かを判定する方法、他の視聴ユーザから不適切であるとの通報を受けることによって不適切であると判定する方法等がある。配信者又は運営者がメッセージが不適切であるか否かを判定する場合、配信者又は運営者は、サポーターコンピュータ45等を操作して、そのメッセージを送信した視聴ユーザを例えば「第2グループ」に帰属させる。又は、配信者又は運営者は、サポーターコンピュータ45等を操作して、そのメッセージを送信した視聴ユーザが不適切な発言を行った回数を更新する。サーバ20は、それらの情報をサポーターコンピュータ45等から受信して、ユーザ管理データを更新する。これらのグループ分けは、上記実施形態と同様にコンテンツ毎に管理されてもよいし、動画を配信するプラットフォーム全体に共通するものとして管理してもよい。また、入室ログ223には、視聴ユーザの識別情報とともに、当該視聴ユーザが属するグループを表示してもよい。第2グループに属する監視が必要な視聴ユーザが「入室」すると、その入室ログ223(図15)にその視聴ユーザの識別情報が表示されるので、配信者は、その視聴ユーザを強制退室させることも可能である。又は、サーバ20が、その視聴ユーザが「入室」したときに自動的に強制退室させてもよい。或いは、強制退室を行なわずとも、入室ログ223にその視聴ユーザの入室が表示されるだけで、配信者は、その他の視聴ユーザの迷惑にならないように注意を払うことができる。   In the above embodiment, the viewing users are divided into a plurality of groups according to the number of viewing of the content, the number of postings of the posting message to the content, the number of transmissions of the gift object to the content, the billing amount to the content . Instead of this, for the viewing user, a group to which the viewing user who performs an inappropriate action belongs to the video to be distributed belongs (eg: second group) and a group to which the other viewing users belong to (eg: first group) And may be separated. Information that specifies the viewing user, such as the real name or address of the viewing user, is not disclosed to the distributor or other viewing users except for necessary information such as the account name, user ID, avatar, etc. May take inappropriate action in activities such as posting a message to a moving image, and requesting display of a gift object. In order to prevent problems, the distributor needs to quickly grasp that these viewing users have "entered" (logged in), posted messages, and the like. A condition for dividing a group is that an inappropriate message has been sent in the past on a moving image, or that the number of times has reached a threshold. As a method of determining an inappropriate message, for example, a method of determining that the message is inappropriate when the server 20 analyzes the contents of the message and determines that the phrase included in the message corresponds to an inappropriate phrase There is. In addition, a method in which the distributor or the operator judges whether or not the message is inappropriate by visually checking the message posted in the moving picture, or from other viewing users There is a method etc. of judging it to be inappropriate by receiving a report. When the distributor or the operator determines whether the message is inappropriate, the distributor or the operator operates the supporter computer 45 or the like to transmit the viewing user who has sent the message, for example, the “second group”. Be attributed to Alternatively, the distributor or the operator operates the supporter computer 45 or the like to update the number of times the viewing user who has sent the message made an inappropriate speech. The server 20 receives the information from the supporter computer 45 or the like, and updates the user management data. These groupings may be managed for each content as in the above embodiment, or may be managed as common to the entire platform for distributing moving pictures. The room entry log 223 may display the identification information of the viewing user as well as the group to which the viewing user belongs. When a viewing user who needs monitoring belonging to the second group “enters”, the identification information of the viewing user is displayed in the entry log 223 (FIG. 15), so the distributor forcibly terminates the viewing user Is also possible. Alternatively, the server 20 may automatically be forced out of the room when the viewing user “enters”. Alternatively, the distributor can pay attention so as not to bother other viewing users only by the entry log of the viewing user being displayed in the entry log 223 without forced removal.

・一実施形態においては、アクター及びアクターに装着される複数の装着センサ33の各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該装着センサ33の各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該装着センサ33の各々の位置及び向きを検出してもよい。このように、アクターに装着される複数の装着センサ33の各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルーム内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該装着センサ33の各々の位置及び向きを検出してもよい。一実施形態においては、装着センサ33に代えて、複数のマーカーを用いることができる。マーカーは、アクターの各々に設けられる。又は、マーカーは、アクターの着衣(例えば上衣、又は下衣、又はこれらが一体となったスーツ等)に設けられてもよい。このようにマーカーが設けられたアクターを撮影して撮影データを生成し、この撮影データを画像処理することにより、マーカーの位置及び向きの少なくとも一方を検出することができる。また、上記装着センサ33や、加速度センサやジャイロ等の位置及び向きの少なくとも一つを検出可能なセンサや、静電容量式のセンサ等、外部センサ32やサーバ20との間で信号を送受信可能なセンサをアクターの着衣(例えば上衣、又は下衣、又はこれらが一体となったスーツ等)に設け、これらのセンサから発信された信号に基づいて、センサの位置、向き、及び動きの少なくとも一部を検出するようにしてもよい。また、トラッキングシステム31は、装着センサ33を用いず、外部センサ32のみで、アクターの動きを検出できるものであってもよい。   -In one embodiment, a large number of infrared LEDs are mounted on each of the plurality of mounting sensors 33 mounted on the actor and the actor, and the light from this infrared LED is provided on the floor or wall of the studio room R The position and orientation of each of the mounting sensors 33 may be detected by detecting with an infrared camera. A visible light LED may be used instead of the infrared LED, and the position and the orientation of each of the mounting sensors 33 may be detected by detecting the light from the visible light LED with a visible light camera. As described above, a light emitting unit (for example, an infrared LED or a visible light LED) is provided to each of the plurality of mounting sensors 33 mounted to the actor, and light from the light emitting unit is provided to the light receiving unit For example, the position and the orientation of each of the mounting sensors 33 may be detected by detecting with an infrared camera or a visible light camera. In one embodiment, a plurality of markers can be used instead of the mounting sensor 33. A marker is provided for each of the actors. Alternatively, the marker may be provided on the actor's clothes (e.g., an upper or lower coat, or a suit in which they are integrated). By imaging an actor provided with a marker in this manner to generate imaging data and performing image processing on the imaging data, at least one of the position and the orientation of the marker can be detected. Also, signals can be transmitted / received to / from the external sensor 32 or the server 20, such as the attachment sensor 33, a sensor capable of detecting at least one of the position and orientation of an acceleration sensor, a gyro, etc., and a capacitive sensor. Sensors are provided on the actor's clothes (for example, upper or lower clothes, or a suit integrated with them), and at least one of the position, orientation, and movement of the sensors is determined based on the signals transmitted from these sensors. A section may be detected. Further, the tracking system 31 may be one which can detect the movement of the actor only by the external sensor 32 without using the mounting sensor 33.

・実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。   The method described in the embodiment is, for example, a magnetic disk (a floppy (registered trademark) disk, a hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), a semiconductor as a program that can be executed by a computer. It can be stored in a recording medium such as a memory (ROM, RAM, flash memory, etc.), and can be distributed by transmission via a communication medium. The program stored on the medium side includes a setting program for configuring the software means (not only the execution program but also the table and data structure) to be executed by the computer in the computer. A computer that implements the present apparatus reads a program recorded in a recording medium, and optionally constructs a software means by the setting program, and executes the above-described processing by controlling the operation by the software means. Incidentally, the recording medium referred to in the present specification is not limited to the distribution medium, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in an apparatus connected inside a computer or via a network.

1…動画配信システム、10…クライアント装置、20…サーバ。   1 ... video distribution system, 10 ... client device, 20 ... server.

Claims (6)

アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置に配信する動画配信システムであって、
一又は複数のコンピュータプロセッサと、
前記視聴ユーザに関連付けられたオブジェクトを記憶するストレージと、
前記アクターから視認可能な表示装置と、
を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記視聴ユーザから前記オブジェクトの表示要求を受け付け、
前記表示装置に、前記表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを対応付けたオブジェクト情報を表示
前記オブジェクト情報が前記オブジェクトの表示要求を行った視聴ユーザ以外のユーザによって選択され、前記オブジェクトの選択が受け付けられた場合に、当該オブジェクトが前記動画に表示され、
前記オブジェクト情報は、選択されたオブジェクトに関するオブジェクト情報を含む第1リストと、未選択のオブジェクトに関するオブジェクト情報を含む第2リストとを含む、
動画配信システム。
A moving image distribution system for distributing a moving image including animation of a character object generated based on the motion of an actor to a client device used by a viewing user,
One or more computer processors,
Storage for storing objects associated with the viewing user;
A display device visible from the actor;
Equipped with
The one or more computer processors execute computer readable instructions by:
Accepting a display request for the object from the viewing user,
Object information in which information of an object for which the display request has been received is associated with identification information of a viewing user who has made a display request for the object is displayed on the display device;
When the object information is selected by a user other than the viewing user who made the display request for the object, and the selection of the object is accepted, the object is displayed in the moving image,
The object information includes a first list including object information on a selected object and a second list including object information on an unselected object.
Video distribution system.
前記オブジェクトは、前記表示要求を行った視聴ユーザ以外のユーザに選択されることによって動画に表示される装飾オブジェクトと、前記表示要求が受け付けられた場合に動画に表示されるオブジェクトとを含み、
前記第1リスト及び前記第2リストには、前記装飾オブジェクトの情報のみが表示される、
請求項に記載の動画配信システム。
The object includes a decoration object displayed in a moving image by being selected by a user other than the viewing user who made the display request, and an object displayed in the moving image when the display request is accepted.
Only the information of the decoration object is displayed in the first list and the second list.
The video distribution system according to claim 1 .
前記コンピュータプロセッサが、
前記視聴ユーザの動画に対する行動が所定条件を満たしたとき、当該視聴ユーザを、複数のグループのうちいずれかに関連付ける、
請求項1又は2に記載の動画配信システム。
The computer processor is
When the action of the viewing user on the moving image satisfies a predetermined condition, the viewing user is associated with one of a plurality of groups.
The video delivery system according to claim 1 or 2 .
前記視聴ユーザは、複数のグループのいずれかに関連付けられ、
前記コンピュータプロセッサが、
前記視聴ユーザから、配信中の動画に対して送信された投稿メッセージを受け付け、
前記表示装置に、前記複数のグループのうち所定のグループに属する視聴ユーザが送信した投稿メッセージを表示するメッセージ表示領域と、前記所定のグループに含まれない視聴ユーザからのメッセージを表示可能なメッセージ表示領域とを表示する、
請求項1又は2に記載の動画配信システム。
The viewing user is associated with one of a plurality of groups,
The computer processor is
Accept a post message sent to the video being delivered from the viewing user,
A message display area for displaying a post message transmitted by a viewing user belonging to a predetermined group among the plurality of groups, and a message display capable of displaying a message from a viewing user not included in the predetermined group on the display device Display area and
The video delivery system according to claim 1 or 2 .
一又は複数のコンピュータプロセッサが、コンピュータ読み取り可能な命令を実行することにより、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置に配信する動画配信方法であって、
前記視聴ユーザに関連付けられたオブジェクトをストレージに記憶する工程と、
前記視聴ユーザから前記オブジェクトの表示要求を受け付ける工程と、
前記アクターから視認可能な位置に配置された表示装置に、前記表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを対応付けたオブジェクト情報を表示する工程と、
前記オブジェクト情報が前記オブジェクトの表示要求を行った視聴ユーザ以外のユーザによって選択され、前記オブジェクトの選択が受け付けられた場合に、当該オブジェクトを前記動画に表示する工程と、有し、
前記オブジェクト情報は、選択されたオブジェクトに関するオブジェクト情報を含む第1リストと、未選択のオブジェクトに関するオブジェクト情報を含む第2リストとを含む、
動画配信方法。
A moving image distribution method in which one or more computer processors execute computer readable instructions to distribute moving images including animations of character objects generated based on the motion of an actor to client devices used by a viewing user There,
Storing in storage an object associated with the viewing user;
Accepting a display request for the object from the viewing user;
Displaying the object information in which the information of the object for which the display request has been received is associated with the identification information of the viewing user who made the display request for the object on the display device arranged at a position visible to the actor When,
Displaying the object on the moving image when the object information is selected by a user other than the viewing user who made the display request for the object, and the selection of the object is accepted;
The object information includes a first list including object information on a selected object and a second list including object information on an unselected object.
Video delivery method.
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を視聴ユーザが使用するクライアント装置に配信する動画配信プログラムであって、
一又は複数のコンピュータプロセッサに、
前記視聴ユーザに関連付けられたオブジェクトをストレージに記憶する工程と、
前記視聴ユーザから前記オブジェクトの表示要求を受け付ける工程と、
前記アクターから視認可能な位置に配置された表示装置に、前記表示要求を受け付けたオブジェクトの情報と、当該オブジェクトの表示要求を行った視聴ユーザの識別情報とを対応付けたオブジェクト情報を表示する工程と、
前記オブジェクト情報が前記オブジェクトの表示要求を行った視聴ユーザ以外のユーザによって選択され、前記オブジェクトの選択が受け付けられた場合に、当該オブジェクトを前記動画に表示する工程と、を実行させ、
前記オブジェクト情報は、選択されたオブジェクトに関するオブジェクト情報を含む第1リストと、未選択のオブジェクトに関するオブジェクト情報を含む第2リストとを含む、
動画配信プログラム。
A moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor to a client device used by a viewing user,
One or more computer processors,
Storing in storage an object associated with the viewing user;
Accepting a display request for the object from the viewing user;
Displaying the object information in which the information of the object for which the display request has been received is associated with the identification information of the viewing user who made the display request for the object on the display device arranged at a position visible to the actor When,
Displaying the object on the moving image when the object information is selected by a user other than the viewing user who made the display request for the object, and the selection of the object is accepted;
The object information includes a first list including object information on a selected object and a second list including object information on an unselected object.
Video distribution program.
JP2018217228A 2018-11-20 2018-11-20 Video distribution system, video distribution method, and video distribution program Active JP6526898B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018217228A JP6526898B1 (en) 2018-11-20 2018-11-20 Video distribution system, video distribution method, and video distribution program
PCT/JP2019/044998 WO2020105568A1 (en) 2018-11-20 2019-11-18 System, method, and program for delivering moving-image
US17/295,396 US11736779B2 (en) 2018-11-20 2019-11-18 System method and program for distributing video
US18/342,195 US20230345084A1 (en) 2018-11-20 2023-06-27 System, method, and program for distributing video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018217228A JP6526898B1 (en) 2018-11-20 2018-11-20 Video distribution system, video distribution method, and video distribution program

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2019049476A Division JP6526933B1 (en) 2018-11-20 2019-03-18 Video distribution system, video distribution method, and video distribution program
JP2019049477A Division JP6526934B1 (en) 2018-11-20 2019-03-18 Video distribution system, video distribution method, and video distribution program
JP2019087383A Division JP7202967B2 (en) 2018-11-20 2019-05-07 Video distribution system, video distribution method, and video distribution program

Publications (2)

Publication Number Publication Date
JP6526898B1 true JP6526898B1 (en) 2019-06-05
JP2020088498A JP2020088498A (en) 2020-06-04

Family

ID=66730671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018217228A Active JP6526898B1 (en) 2018-11-20 2018-11-20 Video distribution system, video distribution method, and video distribution program

Country Status (1)

Country Link
JP (1) JP6526898B1 (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170911A (en) * 2019-04-02 2020-10-15 株式会社 ディー・エヌ・エー System, method, and program for delivering live video
JP6783919B1 (en) * 2019-12-27 2020-11-11 グリー株式会社 Information processing system, information processing method and computer program
JP6788756B1 (en) * 2020-01-27 2020-11-25 グリー株式会社 Information processing system, information processing method and computer program
JP2021002327A (en) * 2020-04-14 2021-01-07 グリー株式会社 Computer program, information processing method and information processing system
JP2021005857A (en) * 2019-06-26 2021-01-14 グリー株式会社 Computer program, information processing method, and video distribution system
JP2021007198A (en) * 2019-06-28 2021-01-21 グリー株式会社 Video distribution system, video distribution method, information processor, video distribution program, and video viewing program
JP2021027576A (en) * 2020-05-15 2021-02-22 グリー株式会社 Moving image data processing program, moving image data processing method, information processing device and information processing method
JP2021051578A (en) * 2019-09-25 2021-04-01 グリー株式会社 Information processing system, information processing method and computer program
JP2021052374A (en) * 2019-09-25 2021-04-01 グリー株式会社 Information processing system, information processing method and computer program
JP2021064890A (en) * 2019-10-15 2021-04-22 株式会社 ディー・エヌ・エー System, method, and program for distribution live video
JP2021087149A (en) * 2019-11-29 2021-06-03 グリー株式会社 Video distribution system, information processing method, and computer program
JP2021086639A (en) * 2019-11-29 2021-06-03 グリー株式会社 Information processing system, information processing method, and computer program
JP2021087213A (en) * 2020-05-01 2021-06-03 グリー株式会社 Video distribution system, information processing method, and computer program
JP2021118456A (en) * 2020-01-27 2021-08-10 グリー株式会社 Computer program, method, and server device
JP2021120795A (en) * 2020-01-30 2021-08-19 株式会社ドワンゴ Management server, user terminal, gift system and information processing method
JPWO2021059367A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059364A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059369A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059366A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059362A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059356A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059368A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059370A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059365A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
WO2022014184A1 (en) * 2020-07-14 2022-01-20 ソニーグループ株式会社 Information processing device, information processing method, program, and system
JP2022044620A (en) * 2019-12-27 2022-03-17 グリー株式会社 Information processing system, information processing method, and computer program
JP2022046580A (en) * 2020-06-11 2022-03-23 グリー株式会社 Information processing system, information processing method and computer program
JP2022128459A (en) * 2020-02-26 2022-09-01 グリー株式会社 Information processing system, information processing method and computer program
JP2022141627A (en) * 2020-02-26 2022-09-29 グリー株式会社 Information processing system, information processing method and computer program
US11524235B2 (en) * 2020-07-29 2022-12-13 AniCast RM Inc. Animation production system
JP7386769B2 (en) 2019-10-15 2023-11-27 株式会社 ディー・エヌ・エー System, method, and program for delivering live video

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223669A1 (en) * 2022-05-18 2023-11-23 株式会社コナミデジタルエンタテインメント Distribution system, and control program and control method for distribution system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012120098A (en) * 2010-12-03 2012-06-21 Linkt Co Ltd Information provision system
CN106034068A (en) * 2015-03-20 2016-10-19 阿里巴巴集团控股有限公司 Method and device for private chat in group chat, client-side, server and system
JP6382468B1 (en) * 2018-05-08 2018-08-29 グリー株式会社 Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170911A (en) * 2019-04-02 2020-10-15 株式会社 ディー・エヌ・エー System, method, and program for delivering live video
JP2021005857A (en) * 2019-06-26 2021-01-14 グリー株式会社 Computer program, information processing method, and video distribution system
JP2021007198A (en) * 2019-06-28 2021-01-21 グリー株式会社 Video distribution system, video distribution method, information processor, video distribution program, and video viewing program
JP7202981B2 (en) 2019-06-28 2023-01-12 グリー株式会社 Video distribution system, program, and information processing method
JP7473901B2 (en) 2019-06-28 2024-04-24 グリー株式会社 Video distribution system, program, and information processing method
JP7115696B2 (en) 2019-09-24 2022-08-09 株式会社エクシヴィ animation production system
JP7218874B2 (en) 2019-09-24 2023-02-07 株式会社エクシヴィ animation production system
JP7218875B2 (en) 2019-09-24 2023-02-07 株式会社エクシヴィ animation production system
US20220351451A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production system
US20220351448A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production system
JP7390542B2 (en) 2019-09-24 2023-12-04 株式会社RiBLA Animation production system
JP7115699B2 (en) 2019-09-24 2022-08-09 株式会社エクシヴィ animation production system
JP7470344B2 (en) 2019-09-24 2024-04-18 株式会社RiBLA Animation Production System
JP7115698B2 (en) 2019-09-24 2022-08-09 株式会社エクシヴィ animation production system
JP7470346B2 (en) 2019-09-24 2024-04-18 株式会社RiBLA Animation Production System
JP7115697B2 (en) 2019-09-24 2022-08-09 株式会社エクシヴィ animation production system
JP7470345B2 (en) 2019-09-24 2024-04-18 株式会社RiBLA Animation Production System
JP7390540B2 (en) 2019-09-24 2023-12-04 株式会社RiBLA Animation production system
JPWO2021059367A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059364A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059369A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059366A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059362A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059356A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059368A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059370A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059365A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JP7218875B6 (en) 2019-09-24 2023-12-11 株式会社RiBLA Animation production system
JP7218874B6 (en) 2019-09-24 2023-12-11 株式会社RiBLA Animation production system
JP2021051578A (en) * 2019-09-25 2021-04-01 グリー株式会社 Information processing system, information processing method and computer program
JP2021052374A (en) * 2019-09-25 2021-04-01 グリー株式会社 Information processing system, information processing method and computer program
US11503346B2 (en) 2019-10-15 2022-11-15 DeNA Co., Ltd. System, method, and computer-readable medium including program for distributing live video
JP2021064890A (en) * 2019-10-15 2021-04-22 株式会社 ディー・エヌ・エー System, method, and program for distribution live video
JP7386769B2 (en) 2019-10-15 2023-11-27 株式会社 ディー・エヌ・エー System, method, and program for delivering live video
JP7336798B2 (en) 2019-11-29 2023-09-01 グリー株式会社 Information processing system, information processing method and computer program
JP7402406B2 (en) 2019-11-29 2023-12-21 グリー株式会社 Information processing system, information processing method and computer program
JP2021086639A (en) * 2019-11-29 2021-06-03 グリー株式会社 Information processing system, information processing method, and computer program
JP2021087149A (en) * 2019-11-29 2021-06-03 グリー株式会社 Video distribution system, information processing method, and computer program
JP2021108105A (en) * 2019-12-27 2021-07-29 グリー株式会社 Information processing system, information processing method, and computer program
JP2021107956A (en) * 2019-12-27 2021-07-29 グリー株式会社 Information processing system, information processing method, and computer program
JP2022044620A (en) * 2019-12-27 2022-03-17 グリー株式会社 Information processing system, information processing method, and computer program
JP7301298B2 (en) 2019-12-27 2023-07-03 グリー株式会社 Information processing system, information processing method and computer program
US11843643B2 (en) 2019-12-27 2023-12-12 Gree, Inc. Information processing system, information processing method, and computer program
JP7003204B2 (en) 2019-12-27 2022-01-20 グリー株式会社 Information processing systems, information processing methods and computer programs
JP6783919B1 (en) * 2019-12-27 2020-11-11 グリー株式会社 Information processing system, information processing method and computer program
JP2021117721A (en) * 2020-01-27 2021-08-10 グリー株式会社 Information processing system, information processing method and computer program
JP6788756B1 (en) * 2020-01-27 2020-11-25 グリー株式会社 Information processing system, information processing method and computer program
JP2021118456A (en) * 2020-01-27 2021-08-10 グリー株式会社 Computer program, method, and server device
JP2021120795A (en) * 2020-01-30 2021-08-19 株式会社ドワンゴ Management server, user terminal, gift system and information processing method
JP7317327B2 (en) 2020-02-26 2023-07-31 グリー株式会社 Information processing system, information processing method and computer program
JP7317326B2 (en) 2020-02-26 2023-07-31 グリー株式会社 Information processing system, information processing method and computer program
JP2022141627A (en) * 2020-02-26 2022-09-29 グリー株式会社 Information processing system, information processing method and computer program
JP2022128459A (en) * 2020-02-26 2022-09-01 グリー株式会社 Information processing system, information processing method and computer program
JP7220173B2 (en) 2020-04-14 2023-02-09 グリー株式会社 Computer program, information processing method and information processing system
JP2021002327A (en) * 2020-04-14 2021-01-07 グリー株式会社 Computer program, information processing method and information processing system
JP7455298B2 (en) 2020-05-01 2024-03-26 グリー株式会社 Video distribution system, information processing method and computer program
JP7134197B2 (en) 2020-05-01 2022-09-09 グリー株式会社 Video distribution system, information processing method and computer program
JP2022091811A (en) * 2020-05-01 2022-06-21 グリー株式会社 Moving image distribution system, information processing method and computer program
JP2021087213A (en) * 2020-05-01 2021-06-03 グリー株式会社 Video distribution system, information processing method, and computer program
JP7272993B2 (en) 2020-05-15 2023-05-12 グリー株式会社 Video data processing program, video data processing method, information processing apparatus, and information processing method
JP2021027576A (en) * 2020-05-15 2021-02-22 グリー株式会社 Moving image data processing program, moving image data processing method, information processing device and information processing method
JP7168754B2 (en) 2020-06-11 2022-11-09 グリー株式会社 Information processing system, information processing method and computer program
JP2022046580A (en) * 2020-06-11 2022-03-23 グリー株式会社 Information processing system, information processing method and computer program
WO2022014184A1 (en) * 2020-07-14 2022-01-20 ソニーグループ株式会社 Information processing device, information processing method, program, and system
US11524235B2 (en) * 2020-07-29 2022-12-13 AniCast RM Inc. Animation production system

Also Published As

Publication number Publication date
JP2020088498A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6526898B1 (en) Video distribution system, video distribution method, and video distribution program
JP6526934B1 (en) Video distribution system, video distribution method, and video distribution program
JP6382468B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6543403B1 (en) Video distribution system, video distribution method and video distribution program
JP6420930B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
US20210368228A1 (en) Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor
JP6622440B1 (en) Video distribution system, video distribution method, video distribution program, information processing terminal, and video viewing program
JP2020107264A (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US20210409827A1 (en) Video distribution system distributing video that includes message from viewing user
JP6550546B1 (en) Video distribution system, video distribution method and video distribution program
JP7470335B2 (en) Video distribution system, video distribution method, video distribution program and server
US20230345084A1 (en) System, method, and program for distributing video
JP6526933B1 (en) Video distribution system, video distribution method, and video distribution program
JP6671528B1 (en) Video distribution system, video distribution method, and video distribution program
JP6847138B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP7032461B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP6829241B2 (en) Video distribution system, video distribution method, video distribution program, information processing terminal and video viewing program
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP6764442B2 (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors.
JP2020109943A (en) Video delivery system, video delivery method, video delivery program, information processing terminal, and video viewing program
JP2020005238A (en) Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor
JP2019198057A (en) Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement
JP2019198065A (en) Moving image distribution system distributing moving image including message from viewer user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250