JP2022089817A - Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method - Google Patents

Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method Download PDF

Info

Publication number
JP2022089817A
JP2022089817A JP2022037710A JP2022037710A JP2022089817A JP 2022089817 A JP2022089817 A JP 2022089817A JP 2022037710 A JP2022037710 A JP 2022037710A JP 2022037710 A JP2022037710 A JP 2022037710A JP 2022089817 A JP2022089817 A JP 2022089817A
Authority
JP
Japan
Prior art keywords
user
distribution
data
user device
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022037710A
Other languages
Japanese (ja)
Other versions
JP2022089817A5 (en
Inventor
洋典 山内
Yosuke Yamanouchi
宗学 山本
Kazunori Yamamoto
彩 倉淵
Aya Kurabuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022037710A priority Critical patent/JP2022089817A/en
Publication of JP2022089817A publication Critical patent/JP2022089817A/en
Publication of JP2022089817A5 publication Critical patent/JP2022089817A5/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce load on a computer when distributing a video in which a plurality of characters are drawn.
SOLUTION: A video distribution system 11 comprises: a first image processing unit which renders a first avatar object reflecting movement of a host user and a second avatar object reflecting movement of a guest user who requests the host user to permit participation, in a drawing space of video; and a second image processing unit which uses object data for which processing load of drawing is lighter than that for the first avatar object and the second avatar object, to render a third avatar object corresponding to a guest user who requests the host user to permit participation.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

新規性喪失の例外適用申請有り There is an application for exception of loss of novelty

本発明は、動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法に関する。 The present invention relates to a moving image application program, a moving object drawing method, a moving image distribution system, a moving image distribution server, and a moving image distribution method.

従来から、ユーザの動きに基づくキャラクタ動画を含む動画を配信するシステムが知られている(例えば、特許文献1参照)。このシステムでは、動画処理装置が第1の声優の顔及び体の動きの検出結果を取得するとともに、第2の声優の顔及び体の動きの検出結果を取得する。さらに動画処理装置は、取得した検出結果に基づき、第1キャラクタの3次元情報及び第2キャラクタの3次元情報に基づきレンダリングを行って第1キャラクタの動画及び第2キャラクタが動画を生成し、それらの動画を合成する。 Conventionally, a system for distributing a moving image including a character moving image based on a user's movement has been known (see, for example, Patent Document 1). In this system, the moving image processing device acquires the detection result of the face and body movements of the first voice actor, and also acquires the detection result of the face and body movements of the second voice actor. Further, the moving image processing device performs rendering based on the three-dimensional information of the first character and the three-dimensional information of the second character based on the acquired detection result, and the moving image of the first character and the moving image of the second character generate the moving images. Synthesize the video of.

特開2015-184689号公報JP-A-2015-184689

しかし、ユーザの動きをキャラクタの3次元モデルデータに適用すること、背景等とともにキャラクタをレンダリングすること等を、複数のキャラクタについて実行するとなると、動画生成装置の処理負荷は大きくなる。このため、複数のキャラクタを含む共演動画を生成する処理にかかる負荷の軽減が求められている。 However, if the movement of the user is applied to the three-dimensional model data of the character, the character is rendered together with the background, and the like for a plurality of characters, the processing load of the moving image generator becomes large. Therefore, it is required to reduce the load on the process of generating the co-starring moving image including a plurality of characters.

本発明は、上記実情に鑑みてなされたものであり、ユーザの動きが反映されるオブジェクトを複数含む動画を描画又は配信するコンピュータへの負荷を軽減することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to reduce the load on a computer that draws or distributes a moving image including a plurality of objects reflecting a user's movement.

上記課題を解決する動画用アプリケーションプログラムは、コンピュータを、第1ユーザの動きが反映される第1キャラクタオブジェクトと、前記第1ユーザに参加要請を行った第2ユーザの動きが反映される第2キャラクタオブジェクトとを動画の描画空間にレンダリングする第1画像処理部と、前記第1ユーザに参加要請を行った第3ユーザに対応する第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする第2画像処理部として機能させる。 In the moving image application program for solving the above problems, the computer has a first character object that reflects the movement of the first user and a second that reflects the movement of the second user who has requested the first user to participate. The first character object and the second character are the first image processing unit that renders the character object in the drawing space of the moving image, and the third character object corresponding to the third user who has requested the first user to participate. It functions as a second image processing unit that renders using object data, which has a smaller drawing processing load than an object.

上記課題を解決する動画配信システムは、第1ユーザの動きが反映される第1キャラクタオブジェクトと、前記第1ユーザに参加要請を行った第2ユーザの動きが反映される第2キャラクタオブジェクトとを動画の描画空間にレンダリングする第1画像処理部と、前記第1ユーザに参加要請を行った第3ユーザに対応する第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする第2画像処理部とを備える。 The video distribution system that solves the above problems includes a first character object that reflects the movement of the first user and a second character object that reflects the movement of the second user who has requested the first user to participate. The first image processing unit that renders in the drawing space of the moving image and the third character object corresponding to the third user who has requested the first user to participate are drawn more than the first character object and the second character object. It is provided with a second image processing unit for rendering using object data having a small processing load.

上記課題を解決する動画配信サーバは、第2ユーザが用いる第2ユーザ装置から、第1ユーザに対応する第1キャラクタオブジェクトが含まれる動画への参加要請を受け付ける第1受付部と、第3ユーザが用いる第3ユーザ装置から、前記動画への参加要請を受け付ける第2受付部と、前記第2ユーザ装置から、前記第2ユーザの動きが反映されたモーションデータを含むアニメーション構成データを受信する第1受信部と、前記アニメーション構成データを前記第1ユーザが用いる第1ユーザ装置及び前記第3ユーザ装置に送信する第1送信部と、前記第3ユーザ装置から、前記第1キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを描画するための簡易データを受信する第2受信部と、前記簡易データを前記第1ユーザ装置及び前記第2ユーザ装置に送信する第2送信部と、を備える。 The video distribution server that solves the above problems is a first reception unit that receives a request for participation in a video including a first character object corresponding to the first user from a second user device used by the second user, and a third user. Receives animation configuration data including motion data reflecting the movement of the second user from the second reception unit that receives a request for participation in the moving image from the third user device used by the user and the second user device. 1 The receiving unit, the first transmitting unit that transmits the animation configuration data to the first user device used by the first user, the third user device, and the third user device draw more than the first character object. It is provided with a second receiving unit for receiving simple data for drawing object data having a small processing load, and a second transmitting unit for transmitting the simple data to the first user device and the second user device.

上記課題を解決する動画配信方法は、第2ユーザが用いる第2ユーザ装置から、第1ユーザに対応する第1キャラクタオブジェクトが含まれる動画への参加要請を受け付ける第1受付ステップと、第3ユーザが用いる第3ユーザ装置から、前記動画への参加要請を受け付ける第2受信ステップと、前記第2ユーザ装置から、前記第2ユーザの動きが反映されたモーションデータを含むアニメーション構成データを受信する第1受信ステップと、前記アニメーション構成データを前記第1ユーザが用いる第1ユーザ装置及び前記第3ユーザ装置に送信する第1送信ステップと、前記第3ユーザ装置から、前記第1キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを描画するための簡易データを受信する第2受信ステップと、前記簡易データを前記第1ユーザ装置及び前記第2ユーザ装置に送信する第2送信ステップと、を実行する。 The video distribution method for solving the above problems includes a first reception step of accepting a request for participation in a video including a first character object corresponding to the first user from a second user device used by the second user, and a third user. A second reception step of receiving a request for participation in the moving image from the third user device used by the user, and a second reception step of receiving animation configuration data including motion data reflecting the movement of the second user from the second user device. 1 reception step, a first transmission step of transmitting the animation configuration data to the first user device and the third user device used by the first user, and drawing from the third user device rather than the first character object. A second reception step of receiving simple data for drawing object data having a small processing load, and a second transmission step of transmitting the simple data to the first user device and the second user device are executed. ..

本発明によれば、複数のキャラクタが描画された動画を配信する際のコンピュータへの負荷を軽減することができる。 According to the present invention, it is possible to reduce the load on the computer when distributing a moving image in which a plurality of characters are drawn.

動画配信システムの第1実施形態を示す模式図。The schematic diagram which shows 1st Embodiment of a moving image distribution system. 同実施形態のサーバに格納されるユーザ管理情報を示す図。The figure which shows the user management information stored in the server of the same embodiment. 同実施形態における現実空間でのユーザ装置とユーザとの位置関係を示す模式図。The schematic diagram which shows the positional relationship between the user apparatus and a user in the real space in the same embodiment. 同実施形態における仮想空間でのアバターオブジェクトの配置を示す模式図。The schematic diagram which shows the arrangement of the avatar object in the virtual space in the same embodiment. 同実施形態における配信画面の一例を示す図。The figure which shows an example of the distribution screen in the same embodiment. 同実施形態における配信画面の一例を示す図。The figure which shows an example of the distribution screen in the same embodiment. 同実施形態における参加待機列の構造を示す概念図。The conceptual diagram which shows the structure of the participation waiting line in the same embodiment. 同実施形態におけるゲストユーザのアバターオブジェクトの位置を示す概念図。The conceptual diagram which shows the position of the avatar object of a guest user in the same embodiment. 同実施形態におけるコラボレーション配信の手順を示す模式図。The schematic diagram which shows the procedure of collaboration delivery in the same embodiment. 同実施形態におけるコラボレーション配信の手順を示すシーケンスチャート。A sequence chart showing the procedure of collaboration distribution in the same embodiment. 同実施形態におけるコラボレーション配信の手順を示すシーケンスチャート。A sequence chart showing the procedure of collaboration distribution in the same embodiment. 同実施形態における配信画面の一例を示す図。The figure which shows an example of the distribution screen in the same embodiment. 同実施形態における配信画面の一例を示す図。The figure which shows an example of the distribution screen in the same embodiment. 同実施形態における配信画面の一例を示す図。The figure which shows an example of the distribution screen in the same embodiment. 同実施形態における配信画面の一例を示す図。The figure which shows an example of the distribution screen in the same embodiment. 動画配信システムの第2実施形態におけるコラボレーション配信の手順を示す模式図。The schematic diagram which shows the procedure of collaboration distribution in 2nd Embodiment of a moving image distribution system. 同実施形態におけるコラボレーション配信の手順を示すシーケンスチャート。A sequence chart showing the procedure of collaboration distribution in the same embodiment. 同実施形態におけるコラボレーション配信の手順を示すシーケンスチャート。A sequence chart showing the procedure of collaboration distribution in the same embodiment.

(第1実施形態)
以下、動画配信システムの第1実施形態について説明する。
図1に示すように、動画配信システム11は、ユーザ装置12とサーバ13とを備える。動画配信システム11は、複数のユーザ装置12とサーバ13との間でネットワーク14を介してデータを送受信することによりユーザ装置12に動画を表示するシステムである。ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされている。以下、動画を配信するユーザを「配信ユーザ」、配信ユーザによって配信された動画を視聴するユーザを「視聴ユーザ」といい、これらを区別しない場合には単に「ユーザ」という。
(First Embodiment)
Hereinafter, the first embodiment of the moving image distribution system will be described.
As shown in FIG. 1, the moving image distribution system 11 includes a user device 12 and a server 13. The moving image distribution system 11 is a system that displays a moving image on the user device 12 by transmitting and receiving data between the plurality of user devices 12 and the server 13 via the network 14. A video application program for viewing and distributing a video is installed in the user device 12. Hereinafter, a user who distributes a video is referred to as a "distribution user", a user who views a video distributed by the distribution user is referred to as a "viewing user", and when these are not distinguished, they are simply referred to as a "user".

ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置である。 The user device 12 is a wearable computer such as a smartphone (multifunctional telephone terminal), a tablet terminal, a personal computer, a console game machine, and a head-mounted display, and an information processing device capable of reproducing moving images other than these devices.

ユーザ装置12は、コンピュータプロセッサ20、メモリ21、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。コンピュータプロセッサ20は、ストレージ22又はそれ以外のストレージからオペレーティングシステムやその他のプログラムをメモリ21にロードし、メモリ21から取り出した命令を実行する演算装置である。コンピュータプロセッサ20は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)等の1乃至複数の演算回路である。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信することができる。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。通信I/F23は、ハードウェア、ソフトウェア、又はこれらの組み合わせとして実装される。 The user device 12 includes a computer processor 20, a memory 21, a storage 22 (storage medium), and a communication interface (I / F) 23. The computer processor 20 is a computing device that loads an operating system or other program from the storage 22 or other storage into the memory 21 and executes an instruction fetched from the memory 21. The computer processor 20 is one or a plurality of arithmetic circuits such as a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), and an NPU (Neural network Processing Unit). The communication I / F 23 can send and receive data to and from the server 13 and other user devices 12 via the network 14. The network 14 includes various networks such as a local area network and the Internet. The communication I / F 23 is implemented as hardware, software, or a combination thereof.

メモリ21は、コンピュータプロセッサ20が直接的に読み出し及び書き込みが可能な主記憶装置(記録媒体)であり、半導体メモリ等から構成される。ストレージ22は、補助記憶装置(記録媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。ストレージ22には、動画アプリケーションプログラム22A、アバターオブジェクトを描画するためのアバターデータ22B、オブジェクト情報22Cが格納されている。 The memory 21 is a main storage device (recording medium) on which the computer processor 20 can directly read and write, and is composed of a semiconductor memory or the like. The storage 22 is an auxiliary storage device (recording medium), and is, for example, a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory. The storage 22 can also be used in combination with a plurality of storages. The storage 22 stores the moving image application program 22A, the avatar data 22B for drawing the avatar object, and the object information 22C.

動画アプリケーションプログラム22Aは、ユーザの指示に応じて、ユーザ自身が動画を配信する配信モードと、他の配信ユーザが配信する動画を視聴する視聴モードとに切り替えられる。 The moving image application program 22A is switched between a distribution mode in which the user himself distributes the moving image and a viewing mode in which the moving image distributed by another distribution user is viewed, according to the instruction of the user.

アバターデータ22Bは、アバターオブジェクトを描画するための3次元モデルデータである。ユーザ装置12は、動画アプリケーションプログラム22Aを起動した場合等、アバターデータ22Bをサーバ13から所定のタイミングで取得する。アバターデータ22Bは、アバターオブジェクト本体を描画するためのデータ、アバターオブジェクト本体に適用されるテクスチャデータ等を含んでいる。アバターオブジェクト本体を描画するためのデータには、ポリゴンデータ、アバターオブジェクトの動作を表現するための骨格データ(ボーン)等が含まれる。アバターデータ22Bには、複数のアバターオブジェクト本体のデータを含んでいる。テクスチャデータには、アバターオブジェクトに対して適用可能な複数のパーツデータが含まれている。例えば「目」、「眉」、「耳」、「服」等のカテゴリ毎に複数のパーツデータが準備されている。ユーザは、複数のアバターオブジェクトの中から一つのアバターオブジェクトを選択する。また、パーツデータを選択し、アバターオブジェクト本体に適用して、ユーザ独自のアバターオブジェクトを作成する。ユーザによって選択されたアバターオブジェクト本体とパーツデータとの組み合わせは、ストレージ22に記録される。 The avatar data 22B is three-dimensional model data for drawing an avatar object. The user device 12 acquires the avatar data 22B from the server 13 at a predetermined timing, such as when the moving image application program 22A is started. The avatar data 22B includes data for drawing the avatar object body, texture data applied to the avatar object body, and the like. The data for drawing the avatar object body includes polygon data, skeleton data (bone) for expressing the operation of the avatar object, and the like. The avatar data 22B includes data of a plurality of avatar object bodies. The texture data contains a plurality of part data applicable to the avatar object. For example, a plurality of parts data are prepared for each category such as "eyes", "eyebrows", "ears", and "clothes". The user selects one avatar object from a plurality of avatar objects. Also, select the part data and apply it to the avatar object body to create your own avatar object. The combination of the avatar object body and the part data selected by the user is recorded in the storage 22.

オブジェクト情報22Cは、所定のタイミングでサーバ13からダウンロードされるデータである。オブジェクト情報22Cは、仮想空間にレンダリングされるオブジェクトであって、アバターオブジェクト以外のオブジェクトに関する情報である。アバターオブジェクト以外のオブジェクトは、視聴ユーザからアバターオブジェクト又は配信ユーザに贈られるギフトオブジェクトを含む。ギフトオブジェクトには、エフェクトオブジェクトと、装着オブジェクトと、通常オブジェクトとが含まれる。エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトや、花火を模したオブジェクト等である。装着オブジェクトは、アバターオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。装着オブジェクトは、例えば、装着オブジェクトに装着されるアクセサリー(帽子、めがね等)、衣服(Tシャツなど)、コスチューム、及びこれら以外のアバターオブジェクトに装着可能なオブジェクトである。装着オブジェクトは、視聴ユーザから提供された後、配信ユーザに選択されることによってアバターオブジェクトに装着される。通常オブジェクトは、仮想空間内に物体として配置される装着オブジェクト以外のギフトオブジェクトであって、例えばぬいぐるみや花束を模したオブジェクトである。 The object information 22C is data downloaded from the server 13 at a predetermined timing. The object information 22C is an object rendered in the virtual space and is information about an object other than the avatar object. Objects other than the avatar object include a gift object given by the viewing user to the avatar object or the distribution user. Gift objects include effect objects, wearing objects, and regular objects. The effect object is an object that affects the impression of the entire viewing screen of the distributed moving image, and is, for example, an object that imitates confetti, an object that imitates fireworks, and the like. The attached object is an object displayed on the display screen in association with a specific part of the avatar object. The attached object is, for example, an object that can be attached to an accessory (hat, glasses, etc.), clothes (T-shirt, etc.), a costume, and other avatar objects attached to the attached object. The attached object is provided to the avatar object by being selected by the distribution user after being provided by the viewing user. A normal object is a gift object other than a wearing object arranged as an object in a virtual space, and is, for example, an object imitating a stuffed animal or a bouquet.

また、オブジェクトは、物理的挙動を行うオブジェクトであってもよい。具体的には、オブジェクトは、重力による落下、力の付与による運動等といった物理的挙動をシミュレーションするものであってもよい。物理挙動オブジェクトには、物理的挙動をシミュレーションするためのコンポーネント(プログラム)が、実行可能に関連付けられている。 Further, the object may be an object that performs physical behavior. Specifically, the object may simulate physical behavior such as falling due to gravity, motion due to application of force, and the like. A component (program) for simulating physical behavior is executably associated with a physical behavior object.

また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、ディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、コンピュータプロセッサ20と同じ装置として設けられていてもよく、コンピュータプロセッサ20を備える装置に接続するかたちで設けられていてもよい。 Further, the user device 12 includes a sensor unit 24, a speaker 25, a microphone 26, an operation unit 27, and a display 28. At least one of the sensor unit 24, the speaker 25, the microphone 26, the operation unit 27, and the display 28 may be provided as the same device as the computer processor 20, or may be provided so as to be connected to a device including the computer processor 20. You may.

センサユニット24は、ユーザの表情の変化を示すフェイスモーション、及びセンサユニット24に対するユーザの身体の相対位置の変化を示すボディモーションを検出するセンサ群である。フェイスモーションは、瞬きや口の開閉等の動きを含む。例えば、センサユニット24は、ユーザに向かって赤外線を出射する出射部及びユーザの顔等に反射した赤外線を検出する赤外線カメラと、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部との少なくとも一方を有する。センサユニット24は、例えば検出を開始したときの初期状態からの表情の変化や、相対位置の変化を検出する。又は、センサユニット24は、これ以外のセンサであってもよいし、例えば、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサをさらに組み合わせてもよい。以下、フェイスモーションの検出データ、及びボディモーションの検出データを「モーションデータ」という。 The sensor unit 24 is a group of sensors that detect a face motion indicating a change in the facial expression of the user and a body motion indicating a change in the relative position of the user's body with respect to the sensor unit 24. Face motion includes movements such as blinking and opening and closing of the mouth. For example, the sensor unit 24 processes an infrared camera that detects infrared rays reflected on a user's face and an emitting unit that emits infrared rays toward the user, a camera that captures the user's face, and data captured by the camera. It has at least one of the image processing unit. The sensor unit 24 detects, for example, a change in facial expression from an initial state when detection is started, or a change in relative position. Alternatively, the sensor unit 24 may be a sensor other than this, or may be further combined with a sensor other than the above-mentioned sensor such as an acceleration sensor or a gyro sensor. Hereinafter, the face motion detection data and the body motion detection data are referred to as "motion data".

スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザが発話した音声を入力し、音声データに変換する。操作部27は、ディスプレイ28と一体化されたタッチパネルや、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、コントローラ等である。ディスプレイ28は、コンピュータプロセッサ20の出力指示に応じて、各種画像を出力する。 The speaker 25 converts voice data into voice and outputs it. The microphone 26 inputs the voice spoken by the user and converts it into voice data. The operation unit 27 is a touch panel integrated with the display 28, an operation button, a keyboard, a mouse, a controller, and the like provided in the housing of the user device 12. The display 28 outputs various images in response to the output instruction of the computer processor 20.

コンピュータプロセッサ20は、ストレージ22に記憶された動画アプリケーションプログラム22Aを実行することにより、アプリケーション管理部20A、モーションデータ管理部20B、表示制御部20Cとして機能する。アプリケーション管理部20Aは、動画アプリケーションプログラムを管理する。アプリケーション管理部20Aは、操作部27を通じて入力されたユーザの要求又はサーバ13からの要求等を入力して、それらの要求の内容に応じて、モーションデータ管理部20B又は表示制御部20Cへ要求を出力する。また、アプリケーション管理部20Aは、モーションデータ管理部20B及び表示制御部20Cからの要求をサーバ13へ送信したり、サーバ13から受信した各種データをストレージ22に記録したりする。アプリケーション管理部20Aによって実現される機能の一例としては、配信中の動画の画面全体又はその一部をキャプチャして得た画像データを「写真」として保存する撮影機能がある。 The computer processor 20 functions as an application management unit 20A, a motion data management unit 20B, and a display control unit 20C by executing the moving image application program 22A stored in the storage 22. The application management unit 20A manages the video application program. The application management unit 20A inputs a user's request input through the operation unit 27, a request from the server 13, and the like, and makes a request to the motion data management unit 20B or the display control unit 20C according to the contents of those requests. Output. Further, the application management unit 20A transmits a request from the motion data management unit 20B and the display control unit 20C to the server 13, and records various data received from the server 13 in the storage 22. As an example of the function realized by the application management unit 20A, there is a shooting function of capturing the entire screen of the moving image being distributed or a part thereof and saving the image data obtained as a "photograph".

モーションデータ管理部20Bは、センサユニット24からモーションデータを取得し、表示制御部20Cに出力する。
表示制御部20Cは、配信モードにおいて、アバターデータ22Bにモーションデータを適用する。また、表示制御部20Cは、アバターオブジェクト、アバターオブジェクト以外のオブジェクトを表示する場合はそのオブジェクトを含めてレンダリングを行う。ここでいうレンダリングは、透視投影、隠面消去(ラスタ化)等が含まれる描画処理をいう。レンダリングは、これらのうち少なくとも一つの処理であってもよい。また、上記の処理に加えて、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。また、表示制御部20Cは、レンダリングされた画像を用いてアニメーションを生成する。さらに、表示制御部20Cは、アニメーションと、視聴ユーザのユーザ装置12から送信された投稿メッセージ又はサーバ13から送信された通知、操作ボタン等のGUI(Graphical User Interface)パーツ等とを合成した(又は重畳した)動画データをディスプレイ28に出力する。
The motion data management unit 20B acquires motion data from the sensor unit 24 and outputs it to the display control unit 20C.
The display control unit 20C applies motion data to the avatar data 22B in the distribution mode. Further, when the display control unit 20C displays an avatar object and an object other than the avatar object, the display control unit 20C renders the object including the avatar object. Rendering here refers to drawing processing including perspective projection, hidden surface erasing (rasterization), and the like. Rendering may be at least one of these processes. Further, in addition to the above processing, processing such as shading and texture mapping may be included. Further, the display control unit 20C generates an animation using the rendered image. Further, the display control unit 20C synthesizes (or) the animation and the GUI (Graphical User Interface) parts such as the posted message transmitted from the user device 12 of the viewing user, the notification transmitted from the server 13, and the operation buttons. The superimposed) moving image data is output to the display 28.

また、表示制御部20Cは、マイク26から入力した音声データ及び音声及び動画データをエンコードする。アプリケーション管理部20Aは、エンコードしたデータをサーバ13に送信する。 Further, the display control unit 20C encodes the audio data and the audio and video data input from the microphone 26. The application management unit 20A transmits the encoded data to the server 13.

また、表示制御部20Cは、視聴モードにおいて、サーバ13からエンコードされた動画データ及び音声データを受信する。また、表示制御部20Cは、受信したデータをデコードし、動画データと音声データとを同期させてディスプレイ28及びスピーカ25に出力する。 Further, the display control unit 20C receives the moving image data and the audio data encoded from the server 13 in the viewing mode. Further, the display control unit 20C decodes the received data, synchronizes the moving image data and the audio data, and outputs the data to the display 28 and the speaker 25.

次にサーバ13について説明する。サーバ13は、動画を配信するためのサービスを提供するサービス提供者等が用いるものである。サーバ13は、コンピュータプロセッサ30と、メモリ31と、ストレージ32と、通信I/F33とを備えている。コンピュータプロセッサ30は、ユーザ装置12のコンピュータプロセッサ20と同様な構成である。コンピュータプロセッサ30は、複数の演算回路を組み合わせて構成されていてもよい。また、メモリ31、ストレージ32、通信I/F33は、ユーザ装置12と同様な構成である。サーバ13は複数の装置から構成されていてもよく、コンピュータプロセッサ30、メモリ31、ストレージ32、通信I/F33はそれらの装置に分散されて設けられていてもよい。 Next, the server 13 will be described. The server 13 is used by a service provider or the like that provides a service for distributing a moving image. The server 13 includes a computer processor 30, a memory 31, a storage 32, and a communication I / F 33. The computer processor 30 has the same configuration as the computer processor 20 of the user apparatus 12. The computer processor 30 may be configured by combining a plurality of arithmetic circuits. Further, the memory 31, the storage 32, and the communication I / F 33 have the same configuration as the user device 12. The server 13 may be composed of a plurality of devices, and the computer processor 30, the memory 31, the storage 32, and the communication I / F 33 may be distributed and provided in those devices.

ストレージ32には、配信プログラム32Aが格納されている。コンピュータプロセッサ20は、配信プログラム32Aを実行することにより、配信管理部30A、購入処理部30Bとして機能する。 The distribution program 32A is stored in the storage 32. The computer processor 20 functions as a distribution management unit 30A and a purchase processing unit 30B by executing the distribution program 32A.

配信管理部30Aは、ユーザ装置12から受信した各種データをストレージ32に記憶するとともに、ユーザ装置12から受信した購入要求等に基づき、購入処理部30Bに要求を出力する。さらに、配信管理部30Aは、ユーザ装置12から要求されたデータをストレージ32等から取得してユーザ装置12に送信する。具体的には、配信管理部30Aは、ユーザ装置12からの要求に応じて、配信中の動画のリストを送信する。配信管理部30Aは、リストの中からリクエストされた動画の識別情報をユーザ装置12から受信すると、配信要求を、リクエストされた動画の配信ユーザが用いるユーザ装置12に対して送信する。また、配信管理部30Aは、配信中の動画に対して視聴ユーザから投稿された投稿メッセージ等を受信する。さらに配信管理部30Aは、受信した投稿メッセージを、配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。投稿メッセージには、メッセージの内容の他、視聴ユーザの識別情報(ユーザのアカウント名等)、投稿日時等が含まれる。また、配信管理部30Aは、視聴ユーザが動画の視聴を開始したときに、例えば「ユーザAさん入室しました」の通知メッセージを配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。ユーザ装置12は、受信した通知メッセージを投稿メッセージの表示欄に表示する。 The distribution management unit 30A stores various data received from the user device 12 in the storage 32, and outputs the request to the purchase processing unit 30B based on the purchase request received from the user device 12. Further, the distribution management unit 30A acquires the data requested from the user device 12 from the storage 32 or the like and transmits the data to the user device 12. Specifically, the distribution management unit 30A transmits a list of moving images being distributed in response to a request from the user device 12. When the distribution management unit 30A receives the identification information of the requested moving image from the list from the user device 12, the distribution management unit 30A transmits the distribution request to the user device 12 used by the distribution user of the requested moving image. In addition, the distribution management unit 30A receives a posted message or the like posted by the viewing user for the video being distributed. Further, the distribution management unit 30A transmits the received posted message to the user device 12 of the distribution user and the user device 12 of the viewing user. The posted message includes the content of the message, identification information of the viewing user (user's account name, etc.), posting date and time, and the like. Further, when the viewing user starts viewing the moving image, the distribution management unit 30A transmits, for example, a notification message of "user A has entered the room" to the distribution user's user device 12 and the viewing user's user device 12. The user device 12 displays the received notification message in the display field of the posted message.

配信管理部30Aは、動画を視聴する視聴ユーザが用いるユーザ装置12から、視聴中の動画へのオブジェクトの表示要求を受信する。表示要求が行われるオブジェクトは仮想空間内に表示されるオブジェクトであって、視聴ユーザから、ギフトオブジェクトのほか、動画を好評価する評価オブジェクト、配信ユーザを応援するための応援オブジェクト等を含む。ギフトオブジェクトは、視聴ユーザに関連付けられた対価を支払うことによって表示要求を行うものである。表示要求を行うための対価は、複数の種類がある。例えば、視聴や動画配信等のユーザの行為により動画アプリケーション内で付与されるポイントを対価とするギフトオブジェクト(無償オブジェクト)や、動画アプリケーション外でも使用可能な通貨を対価とするギフトオブジェクト(有償オブジェクト)がある。ギフトオブジェクトは、表示要求に応じて表示がなされた場合に対価を支払うものであってもよい。配信管理部30Aは、視聴ユーザのユーザ装置12から受信したギフトオブジェクトの表示要求を、ギフトオブジェクトの識別情報とともに配信ユーザのユーザ装置12に送信する。サーバ13は、ギフトオブジェクトの表示要求がサーバ13によって受け付けられたとき、又は表示要求に対する配信ユーザによる所定の操作がなされたとき等、所定のタイミングで、「ユーザBさんが花火を贈りました」等の通知メッセージを配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。ユーザ装置12は、受信したギフトオブジェクトに関する通知メッセージを投稿メッセージの表示欄に表示する。 The distribution management unit 30A receives a request for displaying an object on the moving image being viewed from the user device 12 used by the viewing user who views the moving image. The object for which the display request is made is an object displayed in the virtual space, and includes a gift object from the viewing user, an evaluation object that favorably evaluates the video, a support object for supporting the distribution user, and the like. A gift object makes a display request by paying a consideration associated with the viewing user. There are multiple types of consideration for making a display request. For example, a gift object (free object) that pays for points given in the video application by the user's actions such as viewing and video distribution, and a gift object (paid object) that pays for currency that can be used outside the video application. There is. The gift object may be one that pays for the display when it is displayed in response to the display request. The distribution management unit 30A transmits the display request of the gift object received from the user device 12 of the viewing user to the user device 12 of the distribution user together with the identification information of the gift object. The server 13 said, "User B presented fireworks" at a predetermined timing, such as when the display request for the gift object was received by the server 13, or when a predetermined operation was performed by the distribution user for the display request. Etc. are transmitted to the user device 12 of the distribution user and the user device 12 of the viewing user. The user device 12 displays a notification message regarding the received gift object in the display field of the posted message.

購入処理部30Bは、ユーザの操作にしたがって、オブジェクトの購入処理を行う。購入処理には、動画アプリケーションプログラム内で利用可能なコイン、ポイント、チケット等の対価(媒体)を支払って、オブジェクトを入手する購入が含まれる。また、購入処理には、オブジェクトの交換、売却、譲渡の処理を含めてもよい。また、購入処理部30Bは、対価が支払われることにより、複数のオブジェクトの中から所定数のオブジェクトが選択される抽選(ガチャ)を実行するようにしてもよい。購入処理部30Bは、購入されたオブジェクトを、ユーザによって保有されるものとしてユーザ装置12又はサーバ13に記録する。購入可能なオブジェクトの売上は、例えば配信ユーザ及びサービス提供者に分配される。 The purchase processing unit 30B performs the purchase processing of the object according to the operation of the user. The purchase process includes a purchase to obtain an object by paying for coins, points, tickets, etc. that can be used in the video application program. In addition, the purchase process may include the process of exchanging, selling, or transferring the object. Further, the purchase processing unit 30B may execute a lottery (gacha) in which a predetermined number of objects are selected from a plurality of objects by paying the consideration. The purchase processing unit 30B records the purchased object in the user device 12 or the server 13 as being owned by the user. Sales of purchaseable objects are distributed, for example, to distribution users and service providers.

次に、サーバ13のストレージ32に格納された各種のデータについて説明する。ストレージ32には、ユーザ管理情報32B、アバターデータ32C、オブジェクト情報32Dが格納されている。 Next, various data stored in the storage 32 of the server 13 will be described. User management information 32B, avatar data 32C, and object information 32D are stored in the storage 32.

ユーザ管理情報32Bは、動画アプリケーションプログラムを用いるユーザに関する情報である。アバターデータ32Cは、各ユーザに対応付けられたアバターオブジェクトを描画するためのデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。オブジェクト情報32Dは、ギフトオブジェクトを描画するためのデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。オブジェクト情報32Dには、ポリゴンデータ等のギフトオブジェクトを描画するためのデータの他、ギフトオブジェクトの属性情報が含まれる。 The user management information 32B is information about a user who uses the moving image application program. The avatar data 32C is data for drawing an avatar object associated with each user, and is transmitted to the user device 12 in response to a request from the user device 12. The object information 32D is data for drawing a gift object, and is transmitted to the user device 12 in response to a request from the user device 12. The object information 32D includes data for drawing a gift object such as polygon data, as well as attribute information of the gift object.

図2を参照して、ユーザ管理情報32Bについて詳述する。ユーザ管理情報32Bは、ユーザ毎に記憶されている。ユーザ管理情報32Bは、ユーザの識別情報(ユーザIDやパスワード)、コイン、ポイント等を含む。コインは、ユーザによって購入されたものである。ポイントは、配信や視聴を行ったとき、イベントに参加したとき、又はオブジェクト等を売却したとき等、所定のタイミングでユーザに付与される。 The user management information 32B will be described in detail with reference to FIG. The user management information 32B is stored for each user. The user management information 32B includes user identification information (user ID and password), coins, points, and the like. The coin was purchased by the user. Points are given to users at predetermined timings such as when distribution or viewing is performed, when an event is participated, or when an object or the like is sold.

次に図3を参照して、ユーザ装置12を用いた動画の配信方法について説明する。なお、動画の配信及び視聴に用いられるユーザ装置12を、スマートフォンとして説明する。配信ユーザ100は、少なくとも自身の顔がセンサユニット24の検出範囲101に含まれるようにユーザ装置12と対峙して、配信アプリケーションプログラムを実行する。このとき、配信ユーザ100は、配信アプリケーションプログラムを配信モードにする。 Next, with reference to FIG. 3, a method of distributing a moving image using the user device 12 will be described. The user device 12 used for distribution and viewing of moving images will be described as a smartphone. The distribution user 100 confronts the user device 12 so that at least his / her face is included in the detection range 101 of the sensor unit 24, and executes the distribution application program. At this time, the distribution user 100 puts the distribution application program into the distribution mode.

配信ユーザ100が用いるユーザ装置12は、センサユニット24から出力されたモーションデータをアバターデータ22Bに適用して、アニメーションを生成する。ユーザ装置12のディスプレイ28には、生成したアニメーション及びGUIパーツ等を含む動画が表示される。仮想空間の仮想カメラの角度は、ユーザの操作に基づき変更することができる。アバターオブジェクトの位置は、配信ユーザ100とセンサユニット24との相対距離Lに応じて変化する。相対距離Lの変化は、図4中、x軸正方向、x軸負方向、z軸正方向及びz軸負方向の距離の変化として検出される。 The user device 12 used by the distribution user 100 applies the motion data output from the sensor unit 24 to the avatar data 22B to generate an animation. The display 28 of the user device 12 displays a moving image including the generated animation and GUI parts. The angle of the virtual camera in the virtual space can be changed based on the user's operation. The position of the avatar object changes according to the relative distance L between the distribution user 100 and the sensor unit 24. The change in the relative distance L is detected in FIG. 4 as a change in the distance in the positive direction on the x-axis, the negative direction on the x-axis, the positive direction on the z-axis, and the negative direction on the z-axis.

視聴ユーザ102のディスプレイ28には、配信ユーザ100のユーザ装置12から送信されたデータに基づく動画が表示される。視聴ユーザ102は、動画に対してギフトオブジェクトを贈るための操作等を行い、ユーザ装置12は、ギフトオブジェクトの表示要求をサーバ13に送信する。サーバ13は、ユーザ装置12から受信したギフトオブジェクトの表示要求を、配信ユーザ100のユーザ装置12に送信する。配信ユーザ100のユーザ装置12は、表示要求に基づいて、ギフトオブジェクトをレンダリングしたアニメーションをサーバ13に送信する。 The display 28 of the viewing user 102 displays a moving image based on the data transmitted from the user device 12 of the distribution user 100. The viewing user 102 performs an operation for presenting a gift object to the moving image, and the user device 12 transmits a display request for the gift object to the server 13. The server 13 transmits the display request of the gift object received from the user device 12 to the user device 12 of the distribution user 100. The user device 12 of the distribution user 100 transmits an animation in which the gift object is rendered to the server 13 based on the display request.

(動作)
次に、コラボレーション配信機能(共演機能)について説明する。視聴ユーザ102は、配信中の動画に自身に対応するアバターオブジェクトを表示させるコラボレーション配信に参加することができる。コラボレーション配信に参加するにあたり、視聴ユーザ102が用いるユーザ装置12は、サーバ13を介して、コラボレーション配信を許可する設定で配信をしている配信ユーザ100が用いるユーザ装置12に参加要請を送信する。配信ユーザ100が参加要請を承認すると、配信ユーザ100がホストユーザ103(図3参照)、参加要請を行った視聴ユーザ102がゲストユーザ104(図3参照)となり、ホストユーザ103に対応するアバターオブジェクトとゲストユーザ104に対応するアバターオブジェクトとが動画に表示される。なお、コラボレーション配信を許可する設定をしていない配信ユーザ100が配信する動画には、参加要請を行うことができない。
(motion)
Next, the collaboration distribution function (co-starring function) will be described. The viewing user 102 can participate in the collaboration distribution that displays the avatar object corresponding to the video being distributed. In participating in the collaboration distribution, the user device 12 used by the viewing user 102 transmits a participation request to the user device 12 used by the distribution user 100 who is distributing with the setting to allow the collaboration distribution via the server 13. When the distribution user 100 approves the participation request, the distribution user 100 becomes the host user 103 (see FIG. 3), the viewing user 102 who made the participation request becomes the guest user 104 (see FIG. 3), and the avatar object corresponding to the host user 103. And the avatar object corresponding to the guest user 104 are displayed in the video. It should be noted that the participation request cannot be made to the moving image distributed by the distribution user 100 who is not set to allow the collaboration distribution.

図4を参照して、ホストユーザ103に対応するアバターオブジェクト及びゲストユーザ104に対応するアバターオブジェクトのレンダリング方法について説明する。ホストユーザ103に対応するアバターオブジェクト110及びゲストユーザ104のアバターオブジェクト111は、予め決められた初期位置に配置される。例えば、アバターオブジェクト110は、仮想カメラ118からみて左側の位置に配置され、アバターオブジェクト111は、仮想カメラ118からみて右側の位置に配置される。これにより、ディスプレイ28に表示される画面上でも、アバターオブジェクト110は画面の左側、アバターオブジェクト111の右側にそれぞれ表示される。 With reference to FIG. 4, a rendering method of the avatar object corresponding to the host user 103 and the avatar object corresponding to the guest user 104 will be described. The avatar object 110 corresponding to the host user 103 and the avatar object 111 of the guest user 104 are arranged at predetermined initial positions. For example, the avatar object 110 is arranged at a position on the left side when viewed from the virtual camera 118, and the avatar object 111 is arranged at a position on the right side when viewed from the virtual camera 118. As a result, the avatar object 110 is displayed on the left side of the screen and on the right side of the avatar object 111 even on the screen displayed on the display 28.

アバターオブジェクト110には、その正面から法線方向に延びる正面方向112、高さ方向113、及び幅方向114からなる座標軸が設定されている。同様に、アバターオブジェクト111にも、正面方向115、高さ方向116、及び幅方向117からなる座標軸が設定されている。アバターオブジェクト110,111は立ち姿勢で描画されている。また、アバターオブジェクト110,111は、正面方向112,115、及び幅方向114,117に変位可能である。但し、仮想空間内でアバターオブジェクト110,111が変位可能な可動範囲は限られており、ホストユーザのアバターオブジェクト110は仮想カメラ118からみて左側の領域、ゲストユーザのアバターオブジェクト111は仮想カメラ118からみて右側の領域である。アバターオブジェクト110,111の位置が入れ替わることはできない。 The avatar object 110 is set with a coordinate axis including a front direction 112 extending in the normal direction from the front thereof, a height direction 113, and a width direction 114. Similarly, the avatar object 111 is also set with a coordinate axis including a front direction 115, a height direction 116, and a width direction 117. The avatar objects 110 and 111 are drawn in a standing posture. Further, the avatar objects 110 and 111 can be displaced in the front direction 112 and 115 and the width direction 114 and 117. However, the movable range in which the avatar objects 110 and 111 can be displaced is limited in the virtual space, the host user's avatar object 110 is in the area on the left side of the virtual camera 118, and the guest user's avatar object 111 is in the virtual camera 118. This is the area on the right side. The positions of the avatar objects 110 and 111 cannot be swapped.

コラボレーション配信においては、共演相手と同じポーズをとったり、「相合傘」等のコラボレーション配信向けのギフトオブジェクトと合わせて記念写真を撮影したいという視聴ユーザ又は配信ユーザのニーズがある。また、共演相手に対する親近感を表現したり、撮影機能を利用して記念写真としての画像データを取得したりする場合等に、アバターオブジェクト110,111を互いに接近させることができれば多彩な表現が可能となり理想的である。しかし、ユーザの動作に応じて仮想空間内のアバターオブジェクトを隣のアバターオブジェクトに近付けることは、現実世界において近隣に存在する人物に近づく場合のように容易にはできない。 In collaboration distribution, there is a need for a viewing user or a distribution user who wants to take the same pose as a co-star or take a commemorative photo together with a gift object for collaboration distribution such as "Aigo Umbrella". In addition, various expressions are possible if the avatar objects 110 and 111 can be brought close to each other when expressing a feeling of familiarity with the co-starring partner or when acquiring image data as a commemorative photo by using the shooting function. It is ideal. However, it is not as easy to bring an avatar object in virtual space closer to an adjacent avatar object according to the user's actions, as in the case of approaching a nearby person in the real world.

例えば、アバターオブジェクト110,111を、各々の正面方向112,115が平行になるようにレンダリングした場合は、一方のユーザが、自身のアバターオブジェクトを他方のユーザのアバターオブジェクトに近付けることは難しい。その理由の一つは、センサユニット24は正面に存在する物体の動きに対して最も精度がよく、正面から側方へ離れるに従い精度が低下してしまうためである。このため、ユーザが、自身の身体を傾ける等の幅方向(図3中z軸正方向及びz軸負方向)に沿った動作を行っても、センサユニット24の検出結果に正確に反映されないことがある。その場合、アバターオブジェクト110,111がユーザの意図する通りに動作しない。また、センサユニット24の精度に関わらず、ユーザが、頭部及び頭部以外の身体を同時に動かす等、複雑な動作を行うと、アバターオブジェクト110,111がユーザの意図する通りに動作しない場合がある。 For example, when the avatar objects 110 and 111 are rendered so that the front directions 112 and 115 are parallel to each other, it is difficult for one user to bring his or her avatar object closer to the avatar object of the other user. One of the reasons is that the sensor unit 24 has the highest accuracy for the movement of an object existing in the front, and the accuracy decreases as the distance from the front to the side increases. Therefore, even if the user performs an operation along the width direction (the z-axis positive direction and the z-axis negative direction in FIG. 3) such as tilting his / her body, it is not accurately reflected in the detection result of the sensor unit 24. There is. In that case, the avatar objects 110 and 111 do not operate as the user intended. Further, regardless of the accuracy of the sensor unit 24, if the user performs a complicated operation such as moving the head and the body other than the head at the same time, the avatar objects 110 and 111 may not operate as intended by the user. be.

本実施形態では、アバターオブジェクト110,111は、それらの正面方向112,115が、隣り合うアバターオブジェクト110,111側に傾くようにレンダリングされる。換言すると、アバターオブジェクト110,111は、それらの正面方向112,115に沿ったベクトルが仮想カメラ118の位置に近づくに伴い接近するようにレンダリングされる。より具体的には、仮想カメラ118の正面方向XCと平行な方向とアバターオブジェクト110,111の正面方向112,115とがなす角度のうち、小さい角度θの大きさは、0°超90°未満である。角度θは、5°以上45°以下が好ましく、10°以上30°未満がより好ましい。 In the present embodiment, the avatar objects 110 and 111 are rendered so that their frontal directions 112 and 115 are tilted toward the adjacent avatar objects 110 and 111. In other words, the avatar objects 110, 111 are rendered so that the vectors along their frontal directions 112, 115 approach each other as they approach the position of the virtual camera 118. More specifically, of the angles formed by the direction parallel to the front direction XC of the virtual camera 118 and the front directions 112 and 115 of the avatar objects 110 and 111, the size of the small angle θ is more than 0 ° and less than 90 °. Is. The angle θ is preferably 5 ° or more and 45 ° or less, and more preferably 10 ° or more and less than 30 °.

現実空間においてホストユーザ103及びゲストユーザ104が、ユーザ装置12の正面にいる状態を維持したままユーザ装置12に対して図3中x軸正方向に移動すると、仮想空間内のアバターオブジェクト110,111は正面方向112,115に沿って移動する。アバターオブジェクト110,111の正面方向112,115は、隣のアバターオブジェクト側に傾いているため、アバターオブジェクト110,111は移動に伴い互いに接近する。つまり、ホストユーザ103及びゲストユーザ104は、ユーザ装置12の正面に位置した状態を維持したままユーザ装置12との間の相対距離Lを短くすればよいため、アバターオブジェクト110,111同士を接近させるための動作が行いやすく、アバターオブジェクト110,111にも意図通りの動作を行わせることが可能となる。逆に、共演相手に対して遠ざかりたい場合には、そのユーザはユーザ装置12から遠ざかればよい。これにより、アバターオブジェクト110,111を近付けた状態から元の状態に戻ることができる。また、共演相手に対して「驚く」、「興ざめする(引く)」等の感情を表現することも可能となる。よって、共演相手に対する接近する動作や離れる動作を簡単に行うことができるので、動画における表現方法を多彩にすることができる。 When the host user 103 and the guest user 104 move in the positive direction of the x-axis in FIG. 3 with respect to the user device 12 while maintaining the state of being in front of the user device 12 in the real space, the avatar objects 110 and 111 in the virtual space Moves along the frontal directions 112, 115. Since the frontal directions 112 and 115 of the avatar objects 110 and 111 are tilted toward the adjacent avatar object, the avatar objects 110 and 111 approach each other as they move. That is, since the host user 103 and the guest user 104 need only shorten the relative distance L between the host user 103 and the guest user 104 while maintaining the state of being located in front of the user device 12, the avatar objects 110 and 111 are brought close to each other. It is possible to make the avatar objects 110 and 111 perform the intended operation. On the contrary, when it is desired to move away from the co-star, the user may move away from the user device 12. As a result, it is possible to return to the original state from the state in which the avatar objects 110 and 111 are brought close to each other. It is also possible to express emotions such as "surprise" and "excitement (pull)" to the co-star. Therefore, since it is possible to easily perform an approaching motion and a moving motion with respect to the co-star, it is possible to make various expression methods in the moving image.

なお、図4では、説明の便宜上、アバターオブジェクト110,111の画面奥行方向(X軸負方向)の位置を同一としたが、それらの奥行方向の位置は異なっていてもよい。例えば、アバターオブジェクト110が、アバターオブジェクト111よりも仮想カメラ118からみて手前に位置してもよい。このアバターオブジェクト110,111の前後関係は、常に維持されるようにしてもよい。これにより、アバターオブジェクト110,111が接近することで、画面上で腕などの身体の一部が重なって見える場合でも、アバターオブジェクト110の身体の一部を常に手前に描画することで、一方のアバターオブジェクト110の身体の一部が、他方のアバターオブジェクト111の身体の一部を通過する等の違和感のある表現を抑制することができる。 In FIG. 4, for convenience of explanation, the positions of the avatar objects 110 and 111 in the screen depth direction (X-axis negative direction) are the same, but the positions in the depth direction may be different. For example, the avatar object 110 may be located in front of the avatar object 111 when viewed from the virtual camera 118. The context of the avatar objects 110 and 111 may be maintained at all times. As a result, even if the avatar objects 110 and 111 approach each other and the parts of the body such as the arms appear to overlap on the screen, the part of the body of the avatar object 110 is always drawn in front of one of them. It is possible to suppress an uncomfortable expression such as a part of the body of the avatar object 110 passing through a part of the body of the other avatar object 111.

また、アバターオブジェクト110,111のZ軸に沿った相対距離について許容される下限値を予め設定してもよい。そして、アバターオブジェクト110,111の相対距離が下限値に到達した後に、ユーザがさらにユーザ装置12に近づいたとしてもアバターオブジェクト110,111は近付かないようにしてもよい。 Further, the allowable lower limit value may be set in advance for the relative distance of the avatar objects 110 and 111 along the Z axis. Then, even if the user further approaches the user device 12 after the relative distance of the avatar objects 110 and 111 reaches the lower limit value, the avatar objects 110 and 111 may not approach.

図5は、初期状態のコラボレーション配信画面130を示す。コラボレーション配信画面130では、ホストユーザ103のアバターオブジェクト110と、ゲストユーザ104のアバターオブジェクト111とは、正面を向きつつ互いの方向に(内側に)体を傾けた状態で描画されている。 FIG. 5 shows the collaboration distribution screen 130 in the initial state. On the collaboration distribution screen 130, the avatar object 110 of the host user 103 and the avatar object 111 of the guest user 104 are drawn in a state of being tilted (inwardly) toward each other while facing the front.

図6は、ホストユーザ103及びゲストユーザ104の少なくとも一方が、ユーザ装置12の正面の位置を維持したままユーザ装置12に接近したときのコラボレーション配信画面131である。アバターオブジェクト110,111は接近した状態で描画されている。例えばホストユーザ103及びゲストユーザ104がユーザ装置12に近づくと、アバターオブジェクト110,111は仮想カメラ118に近づく。このとき、図6に示すように、アバターオブジェクト110,111は大きく描画されてもよいし、アバターオブジェクト110,111の大きさを変更しなくてもよい。 FIG. 6 is a collaboration distribution screen 131 when at least one of the host user 103 and the guest user 104 approaches the user device 12 while maintaining the position in front of the user device 12. The avatar objects 110 and 111 are drawn in close proximity. For example, when the host user 103 and the guest user 104 approach the user device 12, the avatar objects 110 and 111 approach the virtual camera 118. At this time, as shown in FIG. 6, the avatar objects 110 and 111 may be drawn large, and the sizes of the avatar objects 110 and 111 may not be changed.

次に、三人以上のアバターオブジェクトを動画画面に表示するコラボレーション配信機能について説明する。三人以上のアバターオブジェクトが表示されるコラボレーション配信は、複数のユーザ装置12の各々から参加要請がサーバ13を介して送信され、配信ユーザが用いるユーザ装置12によりそれらの参加要請が承認された場合に開始される。参加要請が承認された視聴ユーザのアバターオブジェクトは、参加待機列に追加される。 Next, the collaboration distribution function that displays three or more avatar objects on the video screen will be described. In the collaboration distribution in which three or more avatar objects are displayed, the participation request is transmitted from each of the plurality of user devices 12 via the server 13, and the participation request is approved by the user device 12 used by the distribution user. Is started on. The viewing user's avatar object for which the participation request has been approved is added to the participation waiting line.

図7に示すように、サーバ13は、参加待機列135に、参加要請が承認されたアバターオブジェクト(共演アバター)の識別情報136,137を順に追加する。新たな参加要請が承認された場合には、参加待機列135の後尾に新たなアバターオブジェクトの識別情報138を追加する。また、サーバ13は、所定のタイミングで、先頭の識別情報136に対応するアバターオブジェクトのレンダリングをユーザ装置12に実行させ、参加待機列135で待機中のアバターオブジェクトの順番を繰り上げる。 As shown in FIG. 7, the server 13 sequentially adds identification information 136, 137 of the avatar object (co-starring avatar) for which the participation request is approved to the participation waiting column 135. If the new participation request is approved, the identification information 138 of the new avatar object is added to the tail of the participation waiting column 135. Further, the server 13 causes the user apparatus 12 to render the avatar object corresponding to the first identification information 136 at a predetermined timing, and advances the order of the avatar objects waiting in the participation waiting column 135.

図8は、ホストユーザのアバターオブジェクト110と、ゲストユーザのアバターオブジェクト111,140,141の画面上での表示位置を模式的に示している。図5及び図6と同様に、第1ゲストユーザのアバターオブジェクト111は、ホストユーザのアバターオブジェクト110の右側の第1表示位置145Aに表示される。第1表示位置145Aに表示されるアバターオブジェクト110は、3次元モデルデータを用いて描画される。また、第1表示位置145Aに表示されるアバターオブジェクト110は、第1ゲストユーザが用いるユーザ装置12から送信されたモーションデータが反映される。つまり、第1ゲストユーザの身体の動きに合わせて、アバターオブジェクト111が動作する。 FIG. 8 schematically shows the display positions of the host user's avatar object 110 and the guest user's avatar objects 111, 140, 141 on the screen. Similar to FIGS. 5 and 6, the avatar object 111 of the first guest user is displayed at the first display position 145A on the right side of the avatar object 110 of the host user. The avatar object 110 displayed at the first display position 145A is drawn using the three-dimensional model data. Further, the avatar object 110 displayed at the first display position 145A reflects the motion data transmitted from the user device 12 used by the first guest user. That is, the avatar object 111 operates according to the movement of the body of the first guest user.

第1ゲストユーザの次に参加要請が承認された第2ゲストユーザのアバターオブジェクト140は、アバターオブジェクト110,111の後方のうち左側の第2表示位置145Bに表示される。第2ゲストユーザの次に参加要請が承認された第3ゲストユーザのアバターオブジェクト141は、後方右側の第3表示位置145Cに表示される。 The avatar object 140 of the second guest user whose participation request is approved next to the first guest user is displayed at the second display position 145B on the left side of the rear of the avatar objects 110 and 111. The avatar object 141 of the third guest user whose participation request is approved next to the second guest user is displayed at the third display position 145C on the rear right side.

第2表示位置145B及び第3表示位置145Cに表示されるアバターオブジェクト140,141は、第1表示位置145Aに表示されるアバターオブジェクト111に比べて描画の処理負荷が少ない画像が用いられる。以下、ホストユーザのアバターオブジェクト110や第1表示位置145Aに表示されるアバターオブジェクト111を描画するために用いられるモデルデータを第1描画データといい、第2表示位置145B及び第3表示位置145Cに表示されるアバターオブジェクト140,141を描画するために用いられるモデルデータを第2描画データという。 As the avatar objects 140 and 141 displayed at the second display position 145B and the third display position 145C, an image having a smaller drawing processing load than the avatar object 111 displayed at the first display position 145A is used. Hereinafter, the model data used for drawing the avatar object 110 of the host user and the avatar object 111 displayed in the first display position 145A is referred to as the first drawing data, and is referred to as the second display position 145B and the third display position 145C. The model data used to draw the displayed avatar objects 140 and 141 is called the second drawing data.

第2描画データには、例えば、アバターオブジェクト140,141の画像をキャプチャした2次元データが用いられる。2次元のデータは、ホストユーザのユーザ装置12で作成される。ホストユーザのユーザ装置12は、ゲストユーザのアバターオブジェクトの識別情報に基づいてアバターデータ22Bを用いて3次元のアバターオブジェクトのデータを作成するとともに、そのデータを2次元化することによって2次元のデータを作成する。なお、2次元のデータは、アバターオブジェクト140,141に対応するゲストユーザが用いるユーザ装置12から送信されたものであってもよく、視聴ユーザのユーザ装置12がアバターデータ22Bを用いて生成したものであってもよい。また、第2描画データは、画面に表示する際の処理負荷が3次元のアバターオブジェクトよりも少なくなるデータであればよく、ポリゴン数を低減させた3次元モデルデータ、又は2次元のポリゴンデータが用いられてもよい。 As the second drawing data, for example, two-dimensional data obtained by capturing the images of the avatar objects 140 and 141 is used. The two-dimensional data is created by the user device 12 of the host user. The user device 12 of the host user creates three-dimensional avatar object data using the avatar data 22B based on the identification information of the guest user's avatar object, and makes the data two-dimensional to obtain two-dimensional data. To create. The two-dimensional data may be transmitted from the user device 12 used by the guest user corresponding to the avatar objects 140 and 141, and may be generated by the viewing user user device 12 using the avatar data 22B. May be. Further, the second drawing data may be data whose processing load when displayed on the screen is smaller than that of the three-dimensional avatar object, and the three-dimensional model data or the two-dimensional polygon data in which the number of polygons is reduced may be used. It may be used.

第1表示位置145Aに表示されたアバターオブジェクト111は、制限条件が満たされると、第1表示位置145Aから移動する。このとき、アバターオブジェクト111は、上方に移動することによって退出するが、下方、右側、左側、画面奥方向、画面手前方向に移動して画面から退出させてもよい。又は移動中のアバターオブジェクト111を表示することなく、消去してもよい。制限条件は、アバターオブジェクト111が第1表示位置145Aに表示されてから移動するまでの時間が予め設定された一定時間に到達することである。又は、制限条件は、それ以外であってもよい。例えば、ホストユーザがユーザ装置12で画面上の操作オブジェクト等を操作すること、ゲストユーザがユーザ装置12で画面上の操作オブジェクト等を操作すること、ホストユーザ及びゲストユーザが対戦するゲームでホストユーザが勝利又は敗北すること等である。 The avatar object 111 displayed at the first display position 145A moves from the first display position 145A when the restriction condition is satisfied. At this time, the avatar object 111 exits by moving upward, but may be moved downward, right side, left side, back side of the screen, and front side of the screen to exit the screen. Alternatively, the moving avatar object 111 may be deleted without being displayed. The limiting condition is that the time from when the avatar object 111 is displayed at the first display position 145A until it moves reaches a predetermined fixed time. Alternatively, the limiting condition may be other than that. For example, a host user operates an operation object or the like on the screen with the user device 12, a guest user operates an operation object or the like on the screen with the user device 12, or a host user in a game in which a host user and a guest user compete against each other. Is to win or lose.

アバターオブジェクト111が第1表示位置145Aから上方向に移動して画面から退出すると、参加待機列135で待機中のアバターオブジェクトの順番が繰り上がり、第2表示位置145Bに表示されたアバターオブジェクト140が、第1表示位置145Aに表示される。また、第3表示位置145Cに表示されたアバターオブジェクト141が、第2表示位置145Bに表示される。 When the avatar object 111 moves upward from the first display position 145A and exits the screen, the order of the avatar objects waiting in the participation waiting row 135 is advanced, and the avatar object 140 displayed in the second display position 145B is displayed. , Is displayed at the first display position 145A. Further, the avatar object 141 displayed at the third display position 145C is displayed at the second display position 145B.

図9は、コラボレーション配信の概念図である。ホストユーザも含めて三人以上のアバターオブジェクトが表示されるコラボレーション配信が開始されると、コラボレーション配信の参加者のユーザ装置12は、モーションデータや音声データ等の各種データを送受信し合い、受信したデータに基づきレンダリングを行う。具体的には、配信ユーザが用いるユーザ装置である配信ユーザ装置12Aは、モーションデータ、カメラデータ、ギフトオブジェクトデータ、及び音声データ等を含むアニメーション構成データ(以下、単に構成データ120という)をサーバ13に送信する。カメラデータは、配信ユーザ装置12Aで設定された仮想カメラ118に関するデータである。カメラデータは、仮想空間内のオブジェクトを撮影する仮想カメラ118の撮影手法に関する情報であり、仮想カメラの位置や向きを含む。 FIG. 9 is a conceptual diagram of collaboration distribution. When the collaboration distribution in which three or more avatar objects including the host user are displayed is started, the user device 12 of the participants of the collaboration distribution sends and receives various data such as motion data and voice data to each other and receives the data. Render based on the data. Specifically, the distribution user device 12A, which is a user device used by the distribution user, uses the server 13 for animation configuration data (hereinafter, simply referred to as configuration data 120) including motion data, camera data, gift object data, voice data, and the like. Send to. The camera data is data related to the virtual camera 118 set by the distribution user device 12A. The camera data is information about a shooting method of the virtual camera 118 that shoots an object in the virtual space, and includes the position and orientation of the virtual camera.

ギフトオブジェクトデータは、レンダリングを行うギフトオブジェクトの識別情報、ギフトオブジェクトの位置等である。音声データは、配信ユーザ装置12Aがマイク26を介して入力した音声のデータである。また、構成データ120にアバターオブジェクトの識別情報を含めてもよい。 The gift object data is identification information of the gift object to be rendered, the position of the gift object, and the like. The voice data is voice data input by the distribution user device 12A via the microphone 26. Further, the configuration data 120 may include the identification information of the avatar object.

また、配信ユーザ装置12Aは、第1ゲストユーザが用いるユーザ装置である配信ユーザ装置12Bから、配信ユーザ装置12Bが送信した構成データ120を受信する。
第1ゲストユーザが用いるユーザ装置である配信ユーザ装置12Bは、構成データ120をサーバ13に送信する。また、第2ゲストユーザが用いるユーザ装置である配信ユーザ装置12Cは、モーションデータ、カメラデータ、ギフトオブジェクトデータを送信しない。配信ユーザ装置12Cは、音声データを含む簡易データ121をサーバ13に送信する。
Further, the distribution user device 12A receives the configuration data 120 transmitted by the distribution user device 12B from the distribution user device 12B, which is a user device used by the first guest user.
The distribution user device 12B, which is a user device used by the first guest user, transmits the configuration data 120 to the server 13. Further, the distribution user device 12C, which is a user device used by the second guest user, does not transmit motion data, camera data, or gift object data. The distribution user device 12C transmits simple data 121 including voice data to the server 13.

配信ユーザ装置12A~12Cは、サーバ13を介して構成データ120及び簡易データ121を受信すると、それらに基づいてレンダリングを行い、アニメーションを生成する。つまり、配信ユーザ装置12Aから送信された構成データ120に基づき、ホストユーザに対応するアバターオブジェクトを生成し、そのアバターオブジェクトにモーションデータを適用し、アバターオブジェクトをホストユーザの動きに合わせて動作させたアニメーションを生成する。また、配信ユーザ装置12Bから送信された構成データ120に基づき、第1ゲストユーザに対応するアバターオブジェクトを生成し、そのアバターオブジェクトにモーションデータを適用し、アバターオブジェクトを第1ゲストユーザの動きに合わせて動作させたアニメーションを生成する。なお、配信ユーザ装置12A,12Bは、ホストユーザに対応するアバターオブジェクトの本体の識別データ及びテクスチャデータの識別情報を適宜サーバ13に送信している。配信ユーザ装置12A~12Cは、それらの情報をサーバ13から適宜受信して、ホストユーザ及び第1ゲストユーザに対応するアバターオブジェクトを作成し、アバターオブジェクトにモーションデータを適用する。 When the distribution user devices 12A to 12C receive the configuration data 120 and the simple data 121 via the server 13, they perform rendering based on them and generate an animation. That is, an avatar object corresponding to the host user is generated based on the configuration data 120 transmitted from the distribution user device 12A, motion data is applied to the avatar object, and the avatar object is operated according to the movement of the host user. Generate an animation. Further, based on the configuration data 120 transmitted from the distribution user device 12B, an avatar object corresponding to the first guest user is generated, motion data is applied to the avatar object, and the avatar object is adjusted to the movement of the first guest user. Generate an animation that has been operated. The distribution user devices 12A and 12B appropriately transmit the identification data of the main body of the avatar object corresponding to the host user and the identification information of the texture data to the server 13. The distribution user devices 12A to 12C appropriately receive the information from the server 13, create an avatar object corresponding to the host user and the first guest user, and apply motion data to the avatar object.

また、配信ユーザ装置12Aは、生成した動画をエンコードして、サーバ13に送信する。サーバ13は、動画を視聴中の視聴ユーザのユーザ装置である視聴ユーザ装置12Dにエンコードした動画データ122を送信する。 Further, the distribution user device 12A encodes the generated moving image and transmits it to the server 13. The server 13 transmits the video data 122 encoded in the viewing user device 12D, which is the user device of the viewing user who is viewing the moving image.

(動作)
次に、図10及び図11を参照して、ホストユーザと複数のゲストユーザとが共演する場合の処理手順について説明する。
(motion)
Next, with reference to FIGS. 10 and 11, a processing procedure when a host user and a plurality of guest users co-star will be described.

図10に示すように、まず、ホストユーザが用いる配信ユーザ装置12Aは、コラボレーション配信(コラボ配信)を許可する動画(コラボ許可動画)の配信を開始する(ステップS10)。第1ゲストユーザが用いる配信ユーザ装置12B及び第2ゲストユーザが用いる配信ユーザ装置12Cは、ユーザの操作に基づきサーバ13に参加要請を送信する(ステップS11,ステップS12)。なお、参加申請は、ユーザの識別情報とともに送信される。また、ここでは、参加要請をアバターオブジェクトの識別情報とともに送信する場合について説明する。 As shown in FIG. 10, first, the distribution user device 12A used by the host user starts distribution of a moving image (collaboration-permitted video) for which collaboration distribution (collaboration-permitted video) is permitted (step S10). The distribution user device 12B used by the first guest user and the distribution user device 12C used by the second guest user transmit a participation request to the server 13 based on the user's operation (steps S11 and S12). The participation application is sent together with the user's identification information. Further, here, a case where a participation request is transmitted together with the identification information of the avatar object will be described.

サーバ13は、受信した参加要請に基づき、コラボレーション配信に参加するアバターオブジェクトの識別情報を参加待機列に追加する(ステップS13)。参加待機列に含まれているアバターオブジェクトは、仮想空間にレンダリングされていないアバターオブジェクトである。参加待機列に追加されたアバターオブジェクトが、仮想空間にレンダリングされるとそのアバターの識別情報が待機列から除外される。 Based on the received participation request, the server 13 adds the identification information of the avatar object participating in the collaboration distribution to the participation waiting line (step S13). The avatar object contained in the waiting column is an avatar object that has not been rendered in the virtual space. When an avatar object added to the waiting line is rendered in virtual space, the identification information of that avatar is excluded from the waiting line.

サーバ13は、参加申請の通知を、参加申請を行った視聴ユーザの識別情報とともに配信ユーザ装置12Aに送信する(ステップS14)。配信ユーザ装置12Aは、参加要請をサーバ13から受信すると、参加要請の承認画面をディスプレイ28に表示して、参加要請の承認及び否認(又は待機)の選択を求める。参加要請が承認されると、配信ユーザ装置12Aは、参加要請を承認する(ステップS15)。このとき、配信ユーザ装置12Aは、承認した視聴ユーザの識別情報をサーバ13に送信する。 The server 13 transmits the notification of the participation application to the distribution user device 12A together with the identification information of the viewing user who made the participation application (step S14). Upon receiving the participation request from the server 13, the distribution user device 12A displays the participation request approval screen on the display 28 and requests the selection of approval and denial (or standby) of the participation request. When the participation request is approved, the distribution user device 12A approves the participation request (step S15). At this time, the distribution user device 12A transmits the approved viewing user identification information to the server 13.

サーバ13は、参加要請が承認された視聴ユーザを追加した参加者リストをゲストユーザの配信ユーザ装置12B,12Cに加え、ホストユーザの配信ユーザ装置12Aに送信する(ステップS16)。 The server 13 adds the participant list to which the viewing user whose participation request has been approved is added to the distribution user devices 12B and 12C of the guest user, and transmits the participant list to the distribution user device 12A of the host user (step S16).

第2ゲストユーザの配信ユーザ装置12Cは、参加者リストを参照して参加要請が承認されたか否かを判定する。配信ユーザ装置12Cは、第2ゲストユーザの参加要請が承認されたと判定すると、簡易データ121をサーバ13に送信する(ステップS17)。このとき、第2ゲストユーザのアバターオブジェクトの識別情報を簡易データに含めて、又は簡易データとは別に送信してもよい。 The distribution user device 12C of the second guest user refers to the participant list and determines whether or not the participation request is approved. When the distribution user device 12C determines that the participation request of the second guest user is approved, the distribution user device 12C transmits the simple data 121 to the server 13 (step S17). At this time, the identification information of the avatar object of the second guest user may be included in the simple data, or may be transmitted separately from the simple data.

サーバ13は、第2ゲストユーザの配信ユーザ装置12Cから受信した簡易データ121を、ホストユーザの配信ユーザ装置12A、第1ゲストユーザの配信ユーザ装置12Bに送信する(ステップS18)。 The server 13 transmits the simple data 121 received from the distribution user device 12C of the second guest user to the distribution user device 12A of the host user and the distribution user device 12B of the first guest user (step S18).

また、ホストユーザの配信ユーザ装置12Aは、構成データ120をサーバ13に送信する(ステップS19)。サーバ13は、配信ユーザ装置12Aから受信した構成データ120を、ゲストユーザの配信ユーザ装置12B,12Cに送信する(ステップS20)。 Further, the distribution user device 12A of the host user transmits the configuration data 120 to the server 13 (step S19). The server 13 transmits the configuration data 120 received from the distribution user device 12A to the distribution user devices 12B and 12C of the guest user (step S20).

また、第1ゲストユーザの配信ユーザ装置12Bは、構成データ120をサーバ13に送信する(ステップS21)。サーバ13は、配信ユーザ装置12Aから受信した構成データ120を、ホストユーザの配信ユーザ装置12A及び第2ゲストユーザの配信ユーザ装置12Cに送信する(ステップS22)。 Further, the distribution user device 12B of the first guest user transmits the configuration data 120 to the server 13 (step S21). The server 13 transmits the configuration data 120 received from the distribution user device 12A to the distribution user device 12A of the host user and the distribution user device 12C of the second guest user (step S22).

ホストユーザの配信ユーザ装置12Aは、自身の構成データ120、配信ユーザ装置12Bから受信した構成データ120、及び配信ユーザ装置12Cから受信した簡易データ121に基づき、アニメーションを表示し、エンコードする(ステップS23)。そして、エンコードした動画データを視聴ユーザ装置12Dに送信する(ステップS27)。 The host user's distribution user device 12A displays and encodes an animation based on its own configuration data 120, configuration data 120 received from the distribution user device 12B, and simple data 121 received from the distribution user device 12C (step S23). ). Then, the encoded moving image data is transmitted to the viewing user device 12D (step S27).

また、配信ユーザ装置12Bは、自身の構成データ120、配信ユーザ装置12Aから受信した構成データ120、及び配信ユーザ装置12Cから受信した簡易データ121に基づき、アニメーションを表示する(ステップS25)。さらに、配信ユーザ装置12Cは、自身の簡易データ121、配信ユーザ装置12A,12Bから受信した構成データ120に基づき、アニメーションを表示する(ステップS26)。 Further, the distribution user device 12B displays an animation based on its own configuration data 120, the configuration data 120 received from the distribution user device 12A, and the simple data 121 received from the distribution user device 12C (step S25). Further, the distribution user device 12C displays an animation based on its own simple data 121 and the configuration data 120 received from the distribution user devices 12A and 12B (step S26).

なお、配信ユーザ装置12Cが簡易データ121を送信するタイミング、及び配信ユーザ装置12A,12Bが構成データ120を送信するタイミングの順番は特に限定されない。また、ステップS16において、サーバ13は参加者リストをホストユーザの配信ユーザ装置12Aに送信するようにしたが、これを省略してもよい。 The order of the timing at which the distribution user device 12C transmits the simple data 121 and the timing at which the distribution user devices 12A and 12B transmit the configuration data 120 is not particularly limited. Further, in step S16, the server 13 transmits the participant list to the distribution user device 12A of the host user, but this may be omitted.

次に図11を参照して、ゲストユーザの順番が入れ替わる場合について説明する。
第1ゲストユーザの配信ユーザ装置12Bは、制限条件が満たされると退出申請を送信する(ステップS30)。退出申請は、アバターオブジェクトの識別情報とともに送信される。サーバ13は、退出申請を受信すると、アバターオブジェクトの識別情報に基づき、参加待機列を更新する(ステップS31)。つまり、参加待機列で待機中のアバターオブジェクトの順番を繰り上げる。
Next, a case where the order of the guest users is changed will be described with reference to FIG.
The distribution user device 12B of the first guest user transmits an exit request when the restriction condition is satisfied (step S30). The exit request is sent with the identification information of the avatar object. Upon receiving the exit request, the server 13 updates the participation waiting line based on the identification information of the avatar object (step S31). That is, the order of the avatar objects waiting in the participation waiting line is advanced.

また、サーバ13は、退出申請を送信した第1ゲストユーザに対応するアバターオブジェクトの識別情報を参加者リストから除外して更新し、更新した参加者リストを配信ユーザ装置12A~12Cに送信する(ステップS32,ステップS33)。ホストユーザの配信ユーザ装置12Aでは、参加者リストから除外されたアバターオブジェクトを画面から退出させる退出アニメーションをディスプレイ28に表示し、退出アニメーションを音声データ等とともにエンコードする(ステップS36)。そして、エンコードしたデータを視聴ユーザ装置12Dに送信する(ステップS38)。視聴ユーザ装置12Dは、エンコードされたデータを受信し、退出アニメーションをディスプレイ28に表示する(ステップS39)。なお、コラボレーション配信から退出すると、第1ゲストユーザのユーザ装置12は、視聴ユーザ装置12Dとなる。 Further, the server 13 excludes the identification information of the avatar object corresponding to the first guest user who sent the exit request from the participant list and updates it, and transmits the updated participant list to the distribution user devices 12A to 12C ( Step S32, step S33). In the distribution user device 12A of the host user, an exit animation for exiting the avatar object excluded from the participant list from the screen is displayed on the display 28, and the exit animation is encoded together with voice data and the like (step S36). Then, the encoded data is transmitted to the viewing user device 12D (step S38). The viewing user device 12D receives the encoded data and displays the exit animation on the display 28 (step S39). When exiting the collaboration distribution, the user device 12 of the first guest user becomes the viewing user device 12D.

また、第1ゲストユーザの配信ユーザ装置12B及び第2ゲストユーザの配信ユーザ装置12Cは、受信した参加者リストに基づき、第1ゲストユーザに対応するアバターオブジェクトを画面から退出させる退出アニメーションをディスプレイ28に表示する(ステップS34、S35)。ここでは、参加者リストには、第2ゲストユーザのみしか含まれていない場合について説明する。 Further, the distribution user device 12B of the first guest user and the distribution user device 12C of the second guest user display an exit animation for exiting the avatar object corresponding to the first guest user from the screen based on the received participant list 28. Is displayed in (steps S34 and S35). Here, a case where only the second guest user is included in the participant list will be described.

第1ゲストユーザのアバターオブジェクトが退出したことにより、第2ゲストユーザの順番が繰り上がる。第2ゲストユーザの配信ユーザ装置12Cは、繰り上げ後のアニメーションをディスプレイ28に表示する(ステップS40)。繰り上げ後のアニメーションでは、第1表示位置145Aに、第2ゲストユーザに対応するアバターオブジェクトが表示され、第1ゲストユーザに対応するアバターオブジェクトが消去されている。また、第1ゲストユーザは、アバターオブジェクトを退出させることにより、ゲストユーザではなくなり、再び参加要請を行わない限りは視聴ユーザとなる(図11では、便宜上、ステップS34、ステップS35以降も第1ゲストユーザの配信ユーザ装置12Bとして示す)。 When the avatar object of the first guest user leaves, the order of the second guest user is advanced. The distribution user device 12C of the second guest user displays the animation after the advance on the display 28 (step S40). In the animation after the advance, the avatar object corresponding to the second guest user is displayed at the first display position 145A, and the avatar object corresponding to the first guest user is deleted. Further, the first guest user is no longer a guest user by leaving the avatar object, and becomes a viewing user unless the participation request is made again (in FIG. 11, for convenience, the first guest in steps S34 and S35 and thereafter is also the first guest). User distribution User device 12B).

また、配信ユーザ装置12Cは、構成データ120をサーバ13に送信する(ステップS41)。サーバ13は、配信ユーザ装置12Cから受信した構成データ120を、ホストユーザの配信ユーザ装置12Aに送信する(ステップS42)。 Further, the distribution user device 12C transmits the configuration data 120 to the server 13 (step S41). The server 13 transmits the configuration data 120 received from the distribution user device 12C to the distribution user device 12A of the host user (step S42).

配信ユーザ装置12Aは、繰り上げ後の繰り上げ後のアニメーションをディスプレイ28に表示し、繰り上げ後のアニメーションをエンコードする(ステップS43)。また、配信ユーザ装置12Aは、エンコードした動画データを視聴ユーザ装置12Dに送信する(ステップS44)。 The distribution user device 12A displays the animation after the carry on the display 28, and encodes the animation after the carry (step S43). Further, the distribution user device 12A transmits the encoded moving image data to the viewing user device 12D (step S44).

第2ゲストユーザの配信ユーザ装置12Cは、自身の構成データ120、ホストユーザの配信ユーザ装置12Aから送信された構成データ120(図11では図示略)に基づいて、繰り上げ後のアニメーションを表示する(ステップS45)。また、アバターオブジェクトが退出することで視聴ユーザとなった第1ゲストユーザのユーザ装置12(配信ユーザ装置12B)及び視聴ユーザ装置12Dでは、配信ユーザ装置12Aから送信された動画データに基づき、繰り上げ後のアニメーションを表示する(ステップS46)。なお、コラボレーション配信から退出したとき、退出したユーザのユーザ装置12には、動画の視聴画面ではなく、ホーム画面を表示してもよい。つまり、ユーザ装置12は、コラボレーション配信に参加した動画の配信ルームをいったん退出する。ホーム画面では、配信中の動画のリスト等が表示され、リスト内の動画を選択することにより動画の視聴を開始することができる。 The distribution user device 12C of the second guest user displays the animation after the advance based on its own configuration data 120 and the configuration data 120 (not shown in FIG. 11) transmitted from the distribution user device 12A of the host user (not shown). Step S45). Further, in the user device 12 (delivery user device 12B) and the viewing user device 12D of the first guest user who became the viewing user due to the exit of the avatar object, after moving up based on the moving image data transmitted from the distribution user device 12A. Animation is displayed (step S46). When exiting the collaboration distribution, the user device 12 of the exiting user may display a home screen instead of a video viewing screen. That is, the user device 12 temporarily leaves the distribution room of the moving image that participated in the collaboration distribution. On the home screen, a list of videos being distributed is displayed, and you can start watching the videos by selecting the videos in the list.

なお、図11の例では、参加者リストに第2ユーザの次のユーザが参加しない場合について説明したが、参加者リストに、コラボレーション配信に参加した第3ゲストユーザに関する識別情報が含まれる場合には、ステップS42において第3ゲストユーザに対応するユーザ装置12にも構成データ120を送信する。また、第3ゲストユーザのユーザ装置12は、順番に応じて、構成データ120又は簡易データ121をサーバ13に送信する。 In the example of FIG. 11, the case where the user following the second user does not participate in the participant list has been described, but the case where the participant list includes the identification information about the third guest user who participated in the collaboration distribution. Also transmits the configuration data 120 to the user device 12 corresponding to the third guest user in step S42. Further, the user apparatus 12 of the third guest user transmits the configuration data 120 or the simple data 121 to the server 13 in order.

次に、図12~図15を参照して、ユーザ装置12に表示される画面について説明する。図12は、配信ユーザが用いるユーザ装置12に表示される配信画面150である。視聴ユーザがユーザ装置12を用いて参加要請を送信するための操作を行うと、配信画面150には承認要請ウィンドウ152が表示される。承認要請ウィンドウ152には、承認を待機(否認)する待機ボタン154、及び承認を行う承認ボタン153が表示されている。承認ボタン153が選択されると、ユーザ装置12は、参加リストに、参加要請を行ったユーザに対応するアバターオブジェクトの識別情報を追加する。 Next, the screen displayed on the user apparatus 12 will be described with reference to FIGS. 12 to 15. FIG. 12 is a distribution screen 150 displayed on the user device 12 used by the distribution user. When the viewing user performs an operation for transmitting the participation request using the user device 12, the approval request window 152 is displayed on the distribution screen 150. In the approval request window 152, a wait button 154 for waiting (denying) approval and an approval button 153 for approving are displayed. When the approval button 153 is selected, the user device 12 adds the identification information of the avatar object corresponding to the user who requested the participation to the participation list.

図13は、配信ユーザのユーザ装置12に表示される配信画面160である。なお、視聴ユーザが用いるユーザ装置12にも同様の画面が表示される。配信画面160は、3人のゲストユーザのアバターオブジェクト111,140,141が表示されている。アバターオブジェクト110,111は、仮想空間内で3次元モデルとして描画されている。また、アバターオブジェクト110,111には、ホストユーザ及びゲストユーザのモーションデータが反映されている。アバターオブジェクト140,141は、2次元データであって、アバターオブジェクト140,141には、ゲストユーザのモーションデータが反映されていない。 FIG. 13 is a distribution screen 160 displayed on the user device 12 of the distribution user. A similar screen is displayed on the user device 12 used by the viewing user. The distribution screen 160 displays the avatar objects 111, 140, 141 of the three guest users. The avatar objects 110 and 111 are drawn as a three-dimensional model in the virtual space. Further, the motion data of the host user and the guest user are reflected in the avatar objects 110 and 111. The avatar objects 140 and 141 are two-dimensional data, and the motion data of the guest user is not reflected in the avatar objects 140 and 141.

図14に示すように、アバターオブジェクト111に対する制限条件が成立すると、アバターオブジェクト111が画面上方へ移動する退出アニメーションが表示される。これによって、第1表示位置145Aが空いた状態となる。 As shown in FIG. 14, when the restriction condition for the avatar object 111 is satisfied, an exit animation in which the avatar object 111 moves to the upper part of the screen is displayed. As a result, the first display position 145A becomes vacant.

次いで図15に示すように、繰り上げ後のアニメーションが表示される。つまり、第2表示位置145Bに表示されたアバターオブジェクト140が、消去、又は画面上方に向かって移動して画面から退出する。そして、第1表示位置145Aに、第2表示位置145Bに表示されていたアバターオブジェクト140が、画面上方から下方に向かって移動するように表示される。また、第3表示位置145Cに表示されていたアバターオブジェクト141は、第2表示位置145Bに配置されている。参加待機列135に待機中のアバターオブジェクトが無い場合には、第3表示位置145Cは空いた状態となる。なお、繰り上げ後のアニメーションでの演出は、アバターオブジェクトが画面上方から下方に向かって移動すること以外の演出であってもよい。第1表示位置145Aに位置するアバターオブジェクトは、3次元データのオブジェクトのアニメーションとして表示されるとともに、アバターオブジェクトにはモーションデータが適用される。 Then, as shown in FIG. 15, the animation after the advance is displayed. That is, the avatar object 140 displayed at the second display position 145B is erased or moved toward the upper part of the screen and exits from the screen. Then, the avatar object 140 displayed at the second display position 145B is displayed at the first display position 145A so as to move downward from the upper part of the screen. Further, the avatar object 141 displayed at the third display position 145C is arranged at the second display position 145B. If there is no waiting avatar object in the participation waiting row 135, the third display position 145C is vacant. It should be noted that the effect of the animation after the advance may be an effect other than the movement of the avatar object from the upper part to the lower part of the screen. The avatar object located at the first display position 145A is displayed as an animation of an object of three-dimensional data, and motion data is applied to the avatar object.

このように画面の奥行方向の後方に2次元モデルで描画されていたアバターオブジェクトが3次元モデルとして新たに描画されるとき、画面内で急に表示態様が変わると違和感がある。このため、第2表示位置145Bに表示されていた2次元モデルに基づくアバターオブジェクトを画面外に退出させ、3次元モデルに基づくアバターオブジェクトとして画面内に戻して描画する。これにより、視聴ユーザ及び配信ユーザに違和感を与えることを抑制することができる。 When the avatar object drawn by the two-dimensional model is newly drawn as the three-dimensional model behind the depth direction of the screen in this way, there is a sense of incongruity if the display mode suddenly changes in the screen. Therefore, the avatar object based on the two-dimensional model displayed at the second display position 145B is moved out of the screen and returned to the screen as an avatar object based on the three-dimensional model for drawing. As a result, it is possible to suppress giving a sense of discomfort to the viewing user and the distribution user.

次に、本実施形態の効果について説明する。
(1)コラボレーション配信に参加するユーザ装置12は、ホストユーザの動きが反映されるアバターオブジェクトと、ホストユーザに参加要請を行った第1ゲストユーザの動きが反映されるアバターオブジェクトを動画の描画空間にレンダリングする。また、ユーザ装置12は、ホストユーザに参加要請を行った第2ゲストユーザに対応するアバターオブジェクトを、ホストユーザに対応するアバターオブジェクト及び第1ゲストユーザに対応するアバターオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする。このため、第2ゲストユーザに対応するアバターオブジェクトのレンダリング処理にかかる負荷が軽減されるので、3つ以上のアバターオブジェクトを描画する場合であっても、描画処理にかかる負荷を軽減することができる。また、第2ゲストユーザのユーザ装置12からは、モーションデータを含まない簡易データ121が送信されるので、ユーザ装置12間で送受信されるデータ量を低減することができる。
Next, the effect of this embodiment will be described.
(1) The user device 12 participating in the collaboration distribution draws a moving image of an avatar object that reflects the movement of the host user and an avatar object that reflects the movement of the first guest user who has requested the host user to participate. Render to. Further, the user device 12 has a higher drawing processing load on the avatar object corresponding to the second guest user who has requested the host user to participate than the avatar object corresponding to the host user and the avatar object corresponding to the first guest user. Render with less object data. Therefore, since the load on the rendering process of the avatar object corresponding to the second guest user is reduced, the load on the drawing process can be reduced even when three or more avatar objects are drawn. .. Further, since the simple data 121 not including the motion data is transmitted from the user device 12 of the second guest user, the amount of data transmitted / received between the user devices 12 can be reduced.

(2)第2ゲストユーザに対応するアバターオブジェクトは、静止状態で動画に表示される。このため、第2ゲストユーザに対応するアバターオブジェクトのレンダリング処理にかかる負荷が軽減される。 (2) The avatar object corresponding to the second guest user is displayed in the moving image in a stationary state. Therefore, the load on the rendering process of the avatar object corresponding to the second guest user is reduced.

(3)ホストユーザに対応するアバターオブジェクト及び第1ゲストユーザに対応するアバターオブジェクトと、第2ゲストユーザに対応するアバターオブジェクトとは異なる領域に配置される。このため、第2ゲストユーザに対応するアバターオブジェクトが、ホストユーザに対応するアバターオブジェクト及び第1ゲストユーザに対応するアバターオブジェクトとは異なる表示態様で描画されていることが、視聴ユーザ及びゲストユーザに認識されやすくなる。これにより、第2ゲストユーザに対応するアバターオブジェクトがホストユーザに対応するアバターオブジェクト等と異なる表示態様となる要因が、通信障害、アプリケーションプログラムのバグ等であるとのユーザの誤解を抑制することができる。 (3) The avatar object corresponding to the host user, the avatar object corresponding to the first guest user, and the avatar object corresponding to the second guest user are arranged in different areas. Therefore, it is known to the viewing user and the guest user that the avatar object corresponding to the second guest user is drawn in a display mode different from the avatar object corresponding to the host user and the avatar object corresponding to the first guest user. It will be easier to recognize. As a result, it is possible to suppress the user's misunderstanding that the factors that cause the avatar object corresponding to the second guest user to have a different display mode from the avatar object corresponding to the host user are a communication failure, a bug in the application program, and the like. can.

(4)簡易データ121で描画されていたアバターオブジェクトが3次元モデルとして新たに描画されるとき、アバターオブジェクトを画面外に退出させ、3次元モデルに基づくアバターオブジェクトとして画面内に戻して描画する。これにより、視聴ユーザ及び配信ユーザにコラボ配信の出演者の変更に伴う画面変更の違和感を与えることを抑制することができる。 (4) When the avatar object drawn by the simple data 121 is newly drawn as a three-dimensional model, the avatar object is moved out of the screen and returned to the screen as an avatar object based on the three-dimensional model and drawn. As a result, it is possible to prevent the viewing user and the distribution user from giving a sense of discomfort due to the screen change due to the change of the performers in the collaboration distribution.

(5)ホストユーザ及びゲストユーザは、ユーザ装置12との相対距離Lを縮めることにより、ホストユーザに対応するアバターオブジェクトとゲストユーザに対応するアバターオブジェクトとを近付けることができる。このため、動画において多彩な表現が可能になる。 (5) The host user and the guest user can bring the avatar object corresponding to the host user and the avatar object corresponding to the guest user closer to each other by reducing the relative distance L with the user device 12. Therefore, various expressions are possible in the moving image.

(6)ホストユーザのユーザ装置12は、アニメーションを含む動画データをエンコードして、サーバ13に送信する。このため、視聴ユーザのユーザ装置12にかかるレンダリング処理の負荷を軽減することができる。 (6) The user device 12 of the host user encodes the moving image data including the animation and transmits it to the server 13. Therefore, it is possible to reduce the load of the rendering process on the user device 12 of the viewing user.

(第2実施形態)
次に、動画配信システムの第2実施形態について説明する。なお、第1実施形態では、ホストユーザのユーザ装置12が動画データをエンコードして送信する映像配信方式であるのに対し、本実施形態では視聴者のユーザ装置側でアバターオブジェクトをレンダリングする。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment of the moving image distribution system will be described. In the first embodiment, the user device 12 of the host user encodes and transmits the moving image data, whereas in the present embodiment, the avatar object is rendered on the user device side of the viewer. Hereinafter, the same parts as those in the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

図16に示すように、視聴者のユーザ装置側でアバターオブジェクトをレンダリングするクライアント側レンダリング方式では、視聴ユーザ装置12Dは、エンコードされた動画データを受信するのではなく、サーバ13から構成データ120及び簡易データ121を含むデータ123を受信して、データ123に基づいてオブジェクトのレンダリングを行う。視聴ユーザ装置12Dは、オブジェクトをレンダリングした画像を用いてアニメーションを生成し、サーバ13から受信した投稿メッセージ等を合成して、動画をディスプレイ28に表示する。 As shown in FIG. 16, in the client-side rendering method in which the avatar object is rendered on the user device side of the viewer, the viewing user device 12D does not receive the encoded video data, but the configuration data 120 and the configuration data 120 from the server 13. The data 123 including the simple data 121 is received, and the object is rendered based on the data 123. The viewing user device 12D generates an animation using an image obtained by rendering an object, synthesizes a posted message or the like received from the server 13, and displays a moving image on the display 28.

(動作)
次に、図17及び図18を参照して、ホストユーザと複数のゲストユーザとが共演する場合の処理手順について説明する。
(motion)
Next, with reference to FIGS. 17 and 18, a processing procedure when a host user and a plurality of guest users co-star will be described.

図17に示すように、コラボ許可配信開始(ステップS10)、ゲストユーザのユーザ装置12による参加要請(ステップS11,ステップS12)、サーバ13による参加待機列への追加(ステップS13)、参加要請の通知(ステップS14)、参加リスト送信(ステップS14~ステップS16)を第1実施形態と同様に行う。参加者リストの送信(ステップS16A)では、サーバ13は、視聴ユーザ装置12Dにも参加者リストを送信する。 As shown in FIG. 17, the collaboration permission distribution is started (step S10), the guest user's participation request by the user device 12 (step S11, step S12), the addition to the participation waiting line by the server 13 (step S13), and the participation request. Notification (step S14) and participation list transmission (steps S14 to S16) are performed in the same manner as in the first embodiment. In the transmission of the participant list (step S16A), the server 13 also transmits the participant list to the viewing user device 12D.

また、第1実施形態と同様に、ホストユーザ及びゲストユーザからなる参加者の間での簡易データの送信(ステップS17、ステップS18)、構成データ120の送信(ステップS19~ステップS22)を行う。 Further, similarly to the first embodiment, the transmission of simple data (step S17, step S18) and the transmission of the configuration data 120 (steps S19 to S22) are performed between the participants consisting of the host user and the guest user.

配信ユーザ装置12A~12Cは、受信した構成データ120及び簡易データ121に基づき、アニメーションを表示する(ステップS23、25、26)。また、ホストユーザの配信ユーザ装置12Aは、構成データ120及び簡易データ121をサーバ13を介して視聴ユーザ装置12Dに送信する(ステップS50)。視聴ユーザ装置12Dは、サーバ13から受信した構成データ120及び簡易データ121を含むデータ123に基づきレンダリングを行い、アニメーションを生成してディスプレイ28に表示する(ステップS51)。 The distribution user devices 12A to 12C display the animation based on the received configuration data 120 and the simple data 121 (steps S23, 25, 26). Further, the distribution user device 12A of the host user transmits the configuration data 120 and the simple data 121 to the viewing user device 12D via the server 13 (step S50). The viewing user device 12D renders based on the data 123 including the configuration data 120 and the simple data 121 received from the server 13, generates an animation, and displays it on the display 28 (step S51).

図18に示すように、退出申請(ステップS30)、参加待機列の更新(ステップS31)、参加リスト送信(ステップS32)を第1実施形態と同様に行う。ここでも参加者リストの送信(ステップS33A)では、サーバ13は、視聴ユーザ装置12Dにも参加者リストを送信する。 As shown in FIG. 18, the exit application (step S30), the update of the participation waiting line (step S31), and the participation list transmission (step S32) are performed in the same manner as in the first embodiment. Again, in the transmission of the participant list (step S33A), the server 13 also transmits the participant list to the viewing user device 12D.

また、コラボレーション配信に参加する配信ユーザ装置12A~12Cでは退出アニメーションが表示される(ステップS34~S36)。さらに、視聴ユーザ装置12Dは、受信した参加者リストに基づいて、退出アニメーションを表示する(ステップS37)。 Further, exit animations are displayed on the distribution user devices 12A to 12C participating in the collaboration distribution (steps S34 to S36). Further, the viewing user device 12D displays an exit animation based on the received participant list (step S37).

さらに、順番が繰り上げられた第2ゲストユーザのユーザ装置12から送信された構成データ120は、コラボレーション配信に参加する配信ユーザ装置12A~12Cに加え、視聴ユーザのユーザ装置12にも送信される(ステップS41~ステップS43)。 Further, the configuration data 120 transmitted from the user device 12 of the second guest user whose order has been advanced is also transmitted to the user device 12 of the viewing user in addition to the distribution user devices 12A to 12C participating in the collaboration distribution. Step S41 to S43).

そして、配信ユーザ装置12A~12C、及び視聴ユーザ装置12Dは、構成データ120及び簡易データ121に基づき、オブジェクトのレンダリングを行い、繰り上げ後のアニメーションを表示する(ステップS45,ステップS55~56)。なお、コラボレーション配信から退出したとき、退出したユーザのユーザ装置12には、動画の視聴画面ではなく、ホーム画面を表示してもよい。 Then, the distribution user devices 12A to 12C and the viewing user devices 12D render the object based on the configuration data 120 and the simple data 121, and display the animation after the advance (step S45, steps S55 to 56). When exiting the collaboration distribution, the user device 12 of the exiting user may display a home screen instead of a video viewing screen.

第2実施形態によれば、第1実施形態の(1)~(6)の効果に加え、以下の効果が得られる。
(7)視聴ユーザのユーザ装置12は、アニメーション構成データをサーバ13から受信して、オブジェクトをレンダリングし、アニメーションを生成する。このため、ホストユーザのユーザ装置12が、アニメーションをエンコードする必要が無いためホストユーザのユーザ装置12にかかる負荷を軽減することができる。
According to the second embodiment, in addition to the effects of (1) to (6) of the first embodiment, the following effects can be obtained.
(7) The user device 12 of the viewing user receives the animation configuration data from the server 13, renders the object, and generates the animation. Therefore, since the host user user device 12 does not need to encode the animation, the load on the host user user device 12 can be reduced.

上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、アバターオブジェクトは、正面方向112,115、及び幅方向114,117(図4参照)に変位可能であるとしたが、これに代えて若しくは加えて、ユーザの顔の高さ位置の変化に基づき高さ方向113,116の位置を変更してもよい。
The above embodiment can be modified and implemented as follows. The above embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
-In the above embodiment, the avatar object is displaceable in the front direction 112, 115 and the width direction 114, 117 (see FIG. 4), but instead of or in addition to this, the height of the user's face. The positions of 113 and 116 in the height direction may be changed based on the change in position.

・上記実施形態では、サーバ13が、仮想空間にレンダリングするアバターオブジェクトの順番を管理するようにした。これに代えて若しくは加えて、配信ユーザ装置12Aが仮想空間にレンダリングするアバターオブジェクトの順番を管理するようにしてもよい。又は、配信ユーザ装置12Aのみではなく、配信ユーザ装置12A~12Cの各々が管理するようにしてもよい。 -In the above embodiment, the server 13 manages the order of the avatar objects to be rendered in the virtual space. Alternatively or additionally, the distribution user device 12A may manage the order of the avatar objects rendered in the virtual space. Alternatively, not only the distribution user device 12A but also each of the distribution user devices 12A to 12C may be managed.

・上記実施形態では、サーバ13が、参加者リストを管理し、各ユーザ装置12に送信するようにした。これに代えて若しくは加えて、配信ユーザ装置12Aが管理するようにしてもよい。 -In the above embodiment, the server 13 manages the participant list and sends it to each user device 12. Alternatively or additionally, the distribution user device 12A may be managed.

・上記実施形態では、第2表示位置及び第3表示位置に表示されるアバターオブジェクトに対応するゲストユーザのユーザ装置12は、音声データを送信するようにした。これに代えて、第2表示位置及び第3表示位置に表示されるアバターオブジェクトに対応するゲストユーザのユーザ装置12は、第2描画データを送信して、音声データを送信しなくてもよい。これによれば、サーバ13を介したユーザ装置12間の通信量をさらに低減することができる。 -In the above embodiment, the user device 12 of the guest user corresponding to the avatar object displayed at the second display position and the third display position transmits the voice data. Instead, the user device 12 of the guest user corresponding to the avatar object displayed at the second display position and the third display position may transmit the second drawing data and may not transmit the voice data. According to this, the amount of communication between the user devices 12 via the server 13 can be further reduced.

・上記実施形態では、ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされているものとした。これに代えて、動画を視聴するためのアプリケーションプログラムと、動画を配信するためのアプリケーションプログラムとを別のアプリケーションプログラムとしてもよい。配信を行う場合には配信アプリケーションプログラムを用いて動画を配信する。視聴を行う場合には視聴アプリケーションプログラムを用いて動画を視聴する。ギフトオブジェクトの表示要求は、視聴アプリケーションプログラムを用いて行う。 -In the above embodiment, it is assumed that the video application program for viewing and distributing the video is installed in the user device 12. Instead of this, the application program for viewing the video and the application program for distributing the video may be different application programs. When distributing, the video is distributed using the distribution application program. When viewing, watch the video using the viewing application program. The display request of the gift object is made by using the viewing application program.

・上記実施形態では、ユーザ装置12がアバターオブジェクトやギフトオブジェクトのレンダリングを行うようにした。これに代えて若しくは加えて、サーバ13が、アバターオブジェクトやギフトオブジェクトのレンダリングを行ってもよい。また、サーバ13は、オブジェクトをレンダリングした画像を用いてアニメーションを生成し、ユーザ装置12に配信するようにしてもよい。 -In the above embodiment, the user device 12 renders the avatar object and the gift object. Alternatively or additionally, the server 13 may render the avatar object or gift object. Further, the server 13 may generate an animation using the image obtained by rendering the object and distribute it to the user device 12.

・モーションデータ管理部20Bは、センサユニット24から、ユーザの表情の変化、頭部の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得するとしたが、このうち少なくとも一つのパラメータを取得するものであってもよい。個々の場合、センサユニット24が取得できない検出データについて、ユーザ装置12であってもよい。また、モーションデータ管理部20Bは、ユーザの表情の変化、頭部の動き及びユーザの相対位置の少なくとも一つに加えて、若しくは代えて、頭部の動作以外の動きを検出した検出データ等のその他の検出データを取得してもよい。 -The motion data management unit 20B is supposed to acquire detection data from the sensor unit 24 that detects changes in the user's facial expression, head movement, and the user's relative position with respect to the sensor unit 24, but at least one of these parameters is used. It may be the one to be acquired. In each case, the user device 12 may be used for the detection data that cannot be acquired by the sensor unit 24. Further, the motion data management unit 20B includes detection data for detecting movements other than the movement of the head in addition to or in place of at least one of the change in the facial expression of the user, the movement of the head, and the relative position of the user. Other detection data may be acquired.

・上記実施形態では、アバターオブジェクト110,111が変位可能な可動範囲は限られており、アバターオブジェクト110,111の位置が入れ替わることはできないとした。これに代えて、ホストユーザ、及びゲストユーザの動きに合わせて、アバターオブジェクト110,111の位置を入れ替え可能としてもよい。 -In the above embodiment, the movable range in which the avatar objects 110 and 111 can be displaced is limited, and the positions of the avatar objects 110 and 111 cannot be exchanged. Instead of this, the positions of the avatar objects 110 and 111 may be interchangeable according to the movements of the host user and the guest user.

・上記実施形態では、第2表示位置145B及び第3表示位置145Cに表示されるアバターオブジェクトに、モーションデータを適用してもよい。この態様において、簡易データ121に、モーションデータが含められる。 -In the above embodiment, motion data may be applied to the avatar objects displayed at the second display position 145B and the third display position 145C. In this embodiment, the simple data 121 includes motion data.

さらに、第2表示位置145B及び第3表示位置145Cに表示されるアバターオブジェクトを、3次元データに基づくアバターオブジェクトとし、そのアバターオブジェクトにモーションデータを適用してもよい。この態様においては、コラボレーション配信に参加するホストユーザ以外の全てのユーザが第1ゲストユーザとなる。第1ゲストユーザのユーザ装置12の間では、構成データ120が送受信され、自身の構成データ120と他のユーザの構成データ120とに基づき、各ユーザ装置12においてオブジェクトがレンダリングされ、動画が生成される。 Further, the avatar object displayed at the second display position 145B and the third display position 145C may be an avatar object based on the three-dimensional data, and motion data may be applied to the avatar object. In this aspect, all users other than the host user who participates in the collaboration distribution are the first guest users. Configuration data 120 is transmitted and received between the user equipment 12 of the first guest user, an object is rendered in each user equipment 12 based on its own configuration data 120 and the configuration data 120 of another user, and a moving image is generated. Ru.

・動画に表示される仮想空間は、拡張現実(AR;Augmented Reality)の空間であってもよい。例えば、ユーザ装置12のカメラが撮影した現実世界の画像に、アバターオブジェクト及びギフトオブジェクト等を重ねて表示してもよい。この態様においては、ホストユーザのユーザ装置12のカメラが撮像した画像を背景画像とする。 -The virtual space displayed in the moving image may be an augmented reality (AR) space. For example, an avatar object, a gift object, or the like may be superimposed and displayed on a real-world image taken by the camera of the user device 12. In this aspect, the image captured by the camera of the user device 12 of the host user is used as the background image.

・上記実施形態では、ユーザの動作をアバターオブジェクトに適用した。しかし、動画を生成する際の処理負荷を軽減するという観点では、現実世界の複数のユーザの動画を一つの画面に合成したコラボレーション配信とすることもできる。この場合、コラボレーション配信において、一つの画面に表示されるユーザの一部が、動画として表示され、他のユーザが静止画として表示されてもよい。 -In the above embodiment, the user's action is applied to the avatar object. However, from the viewpoint of reducing the processing load when generating a moving image, it is also possible to perform collaborative distribution in which videos of a plurality of users in the real world are combined on one screen. In this case, in the collaboration distribution, a part of the users displayed on one screen may be displayed as a moving image, and another user may be displayed as a still image.

・上記実施形態では、ユーザ装置12は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、ユーザ装置12は、情報処理装置の少なくとも一つと、入力装置及び出力装置から構成されるシステムであってもよい。例えば、ユーザ装置12は、コンピュータプロセッサ20等を備えるコンソールゲーム機と、これと別体に設けられたセンサユニット24、操作部27であるコントローラ、スピーカ25、ディスプレイ28等が相互にデータを送受信可能なシステムであってもよい。また、ユーザ装置12は、パーソナルコンピュータ等の情報処理装置と、これと別体に設けられたセンサユニット24、操作部27であるコントローラ、スピーカ25、ディスプレイ28であるウェアラブルディスプレイ等が相互にデータを送受信可能なシステムであってもよい。又は、動画を配信するユーザ装置12に代えて、動画配信用のスタジオに設けられたシステムであって、情報処理装置、センサユニット24、操作部27、スピーカ25、ディスプレイ28を備えたシステムを、動画を配信するシステムとして用いてもよい。 -In the above embodiment, the user device 12 is an information processing device such as a smartphone, a mobile phone, a tablet terminal, a personal computer, a console game machine, a wearable computer such as a head-mounted display, and the like. Alternatively, the user device 12 may be a system composed of at least one of the information processing devices, an input device, and an output device. For example, in the user device 12, a console game machine including a computer processor 20 and the like, a sensor unit 24 provided separately from the console game machine, a controller as an operation unit 27, a speaker 25, a display 28, and the like can mutually transmit and receive data. System may be used. Further, in the user device 12, an information processing device such as a personal computer, a sensor unit 24 provided separately from the information processing device, a controller as an operation unit 27, a speaker 25, a wearable display as a display 28, and the like mutually exchange data. It may be a system that can send and receive. Alternatively, instead of the user device 12 that distributes the moving image, a system provided in the studio for distributing the moving image, which is provided with an information processing device, a sensor unit 24, an operation unit 27, a speaker 25, and a display 28, may be used. It may be used as a system for distributing moving images.

・上記実施形態では、センサユニット24をユーザ装置12側に設けたが、センサユニット24の少なくとも一部を、配信ユーザの身体に装着したり、配信ユーザの近傍に設けたりしてもよい。例えば、センサユニット24は、赤外線等の検出光を所定間隔で出射する出射部と、配信ユーザの身体に装着され、検出光を受光して検出結果をコンピュータプロセッサ20に送信する受光部とから構成してもよい。又は、センサユニット24は、配信ユーザの身体に装着されたマーカーを検出するカメラ等から構成してもよい。
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
[1]
コンピュータを、
第1ユーザの動きが反映される第1キャラクタオブジェクトと、前記第1ユーザに参加要請を行った第2ユーザの動きが反映される第2キャラクタオブジェクトとを動画の描画空間にレンダリングする第1画像処理部と、
前記第1ユーザに参加要請を行った第3ユーザに対応する第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする第2画像処理部として機能させる、動画用アプリケーションプログラム。
[2]
前記第2画像処理部は、前記第3キャラクタオブジェクトに前記第3ユーザの動きを反映せず静止状態で表示する、[1]に記載の動画用アプリケーションプログラム。
[3]
前記第2画像処理部は、前記第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトを含む領域とは異なる領域に表示する、[1]又は[2]に記載の動画用アプリケーションプログラム。
[4]
前記第1画像処理部は、前記第2キャラクタオブジェクトを第1表示位置にレンダリングし、
前記第2画像処理部は、前記第3キャラクタオブジェクトを第2表示位置にレンダリングするとともに、
前記第1画像処理部は、前記第2キャラクタオブジェクトに関する制限条件が成立したとき、前記第2キャラクタオブジェクトを前記第1表示位置から退出させ、前記第3キャラクタオブジェクトを前記第1表示位置にレンダリングする、[1]~[3]のいずれか1項に記載の動画用アプリケーションプログラム。
[5]
前記第1画像処理部は、前記第2キャラクタオブジェクトに関する制限条件が成立したとき、前記第2キャラクタオブジェクトをユーザが用いるディスプレイに表示される画面から退出させ、3次元モデルデータに基づく第2キャラクタオブジェクトを前記第1表示位置にレンダリングする、[4]に記載の動画用アプリケーションプログラム。
[6]
前記第1画像処理部は、
前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトを、それらの正面方向に沿ったベクトルが、隣り合うキャラクタオブジェクト側に傾くようにレンダリングし、
前記第1ユーザの正面方向への移動量及び第2ユーザの正面方向への移動量に基づいて、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトをそれらの正面方向に沿って移動させる、[1]~[5]のいずれか1項に記載の動画用アプリケーションプログラム。
[7]
前記第2画像処理部は、前記第3キャラクタオブジェクトを、仮想カメラを基準とした奥行方向の情報を低減又は省略したデータを用いて描画する、[1]~[6]のいずれか1項に記載の動画用アプリケーションプログラム。
[8]
前記コンピュータを、
前記第1ユーザの動きを示すモーションデータ、前記第2ユーザの動きを示すモーションデータ、前記第3キャラクタオブジェクトを描画するための簡易データに基づきアニメーションを生成する第1アニメーション生成部と、
前記アニメーションをエンコードして、エンコードしたデータを、動画を配信するサーバに送信するエンコード部としてさらに機能させる、[1]~[7]のいずれか1項に記載の動画用アプリケーションプログラム。
[9]
前記コンピュータを、
動画を配信するサーバから、前記第1ユーザの動きを示すモーションデータ、前記第2ユーザの動きを示すモーションデータ、前記第3キャラクタオブジェクトを描画するための簡易データを含むアニメーション構成データを受信する構成データ受信部と、
前記アニメーション構成データに基づいて、前記第1キャラクタオブジェクト、前記第2キャラクタオブジェクト及び前記第3キャラクタオブジェクトを含むアニメーションを生成する第2アニメーション生成部として機能させる、[1]~[8]のいずれか1項に記載の動画用アプリケーションプログラム。
[10]
コンピュータが、
第1ユーザの動きが反映される第1キャラクタオブジェクトと、前記第1ユーザに参加要請を行った第2ユーザの動きが反映される第2キャラクタオブジェクトを動画の描画空間にレンダリングする第1画像処理ステップと、
前記第1ユーザに参加要請を行った第3ユーザに対応する第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする第2画像処理ステップとを実行する、動画のオブジェクト描画方法。
[11]
第1ユーザの動きが反映される第1キャラクタオブジェクトと、前記第1ユーザに参加要請を行った第2ユーザの動きが反映される第2キャラクタオブジェクトとを動画の描画空間にレンダリングする第1画像処理部と、
前記第1ユーザに参加要請を行った第3ユーザに対応する第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする第2画像処理部とを備える、動画配信システム。
[12]
第2ユーザが用いる第2ユーザ装置から、第1ユーザに対応する第1キャラクタオブジェクトが含まれる動画への参加要請を受け付ける第1受付部と、
第3ユーザが用いる第3ユーザ装置から、前記動画への参加要請を受け付ける第2受付部と、
前記第2ユーザ装置から、前記第2ユーザの動きが反映されたモーションデータを含むアニメーション構成データを受信する第1受信部と、
前記アニメーション構成データを前記第1ユーザが用いる第1ユーザ装置及び前記第3ユーザ装置に送信する第1送信部と、
前記第3ユーザ装置から、前記第1キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを描画するための簡易データを受信する第2受信部と、
前記簡易データを前記第1ユーザ装置及び前記第2ユーザ装置に送信する第2送信部と、を備える、動画配信サーバ。
[13]
第2ユーザが用いる第2ユーザ装置から、第1ユーザに対応する第1キャラクタオブジェクトが含まれる動画への参加要請を受け付ける第1受付ステップと、
第3ユーザが用いる第3ユーザ装置から、前記動画への前記参加要請を受け付ける第2受信ステップと、
前記第2ユーザ装置から、前記第2ユーザの動きが反映されたモーションデータを含むアニメーション構成データを受信する第1受信ステップと、
前記アニメーション構成データを前記第1ユーザが用いる第1ユーザ装置及び前記第3ユーザ装置に送信する第1送信ステップと、
前記第3ユーザ装置から、前記第1キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを描画するための簡易データを受信する第2受信ステップと、
前記簡易データを前記第1ユーザ装置及び前記第2ユーザ装置に送信する第2送信ステップと、を実行する、動画配信方法。
-In the above embodiment, the sensor unit 24 is provided on the user device 12 side, but at least a part of the sensor unit 24 may be attached to the body of the distribution user or provided in the vicinity of the distribution user. For example, the sensor unit 24 includes an emission unit that emits detection light such as infrared rays at predetermined intervals, and a light receiving unit that is attached to the body of the distribution user and receives the detection light and transmits the detection result to the computer processor 20. You may. Alternatively, the sensor unit 24 may be composed of a camera or the like that detects a marker attached to the body of the distribution user.
Next, the technical idea that can be grasped from the above embodiment and another example will be added below.
[1]
Computer,
The first image that renders the first character object that reflects the movement of the first user and the second character object that reflects the movement of the second user who requested the first user to participate in the drawing space of the moving image. Processing unit and
A second character object corresponding to the third user who has requested participation to the first user is rendered using object data having a smaller drawing processing load than the first character object and the second character object. An application program for movies that functions as an image processing unit.
[2]
The moving image application program according to [1], wherein the second image processing unit displays the third character object in a stationary state without reflecting the movement of the third user.
[3]
The moving image application according to [1] or [2], wherein the second image processing unit displays the third character object in an area different from the area including the first character object and the second character object. program.
[4]
The first image processing unit renders the second character object at the first display position.
The second image processing unit renders the third character object at the second display position and at the same time.
When the restriction condition regarding the second character object is satisfied, the first image processing unit causes the second character object to exit from the first display position and renders the third character object to the first display position. , The moving image application program according to any one of [1] to [3].
[5]
When the restriction condition regarding the second character object is satisfied, the first image processing unit causes the second character object to exit from the screen displayed on the display used by the user, and the second character object based on the three-dimensional model data. The moving image application program according to [4], which renders the above-mentioned first display position.
[6]
The first image processing unit is
The first character object and the second character object are rendered so that the vectors along their front directions are tilted toward the adjacent character objects.
Based on the amount of movement of the first user in the front direction and the amount of movement of the second user in the front direction, the first character object and the second character object are moved along their front directions [1]. ]-[5] The video application program according to any one of the items.
[7]
The second image processing unit draws the third character object using data in which information in the depth direction with respect to the virtual camera is reduced or omitted, according to any one of [1] to [6]. The video application program described.
[8]
The computer
A first animation generation unit that generates an animation based on motion data showing the movement of the first user, motion data showing the movement of the second user, and simple data for drawing the third character object.
The moving image application program according to any one of [1] to [7], which encodes the animation and further functions as an encoding unit for transmitting the encoded data to a server that distributes a moving image.
[9]
The computer
A configuration that receives motion data indicating the movement of the first user, motion data indicating the movement of the second user, and animation configuration data including simple data for drawing the third character object from a server that distributes a moving image. Data receiver and
Any of [1] to [8] that functions as a second animation generation unit that generates an animation including the first character object, the second character object, and the third character object based on the animation configuration data. The video application program described in Section 1.
[10]
The computer
The first image processing that renders the first character object that reflects the movement of the first user and the second character object that reflects the movement of the second user who requested the first user to participate in the drawing space of the moving image. Steps and
A second character object corresponding to the third user who has requested participation to the first user is rendered using object data having a smaller drawing processing load than the first character object and the second character object. How to draw a video object to perform image processing steps.
[11]
The first image that renders the first character object that reflects the movement of the first user and the second character object that reflects the movement of the second user who requested the first user to participate in the drawing space of the moving image. Processing unit and
A second character object corresponding to the third user who has requested participation to the first user is rendered using object data having a smaller drawing processing load than the first character object and the second character object. A video distribution system equipped with an image processing unit.
[12]
A first reception unit that receives a request for participation in a video containing a first character object corresponding to the first user from a second user device used by the second user.
A second reception unit that receives a request for participation in the video from a third user device used by the third user, and a second reception unit.
A first receiving unit that receives animation configuration data including motion data reflecting the movement of the second user from the second user device.
A first transmission unit that transmits the animation configuration data to the first user device used by the first user and the third user device, and
A second receiving unit that receives simple data for drawing object data having a smaller drawing processing load than the first character object from the third user device.
A video distribution server including a second transmission unit that transmits the simple data to the first user device and the second user device.
[13]
The first reception step of receiving a participation request from the second user device used by the second user to the video including the first character object corresponding to the first user, and
A second reception step of receiving the participation request to the moving image from the third user device used by the third user, and
A first reception step of receiving animation configuration data including motion data reflecting the movement of the second user from the second user device.
A first transmission step of transmitting the animation configuration data to the first user device and the third user device used by the first user, and
A second reception step of receiving simple data for drawing object data having a smaller drawing processing load than the first character object from the third user device.
A moving image distribution method for executing a second transmission step of transmitting the simple data to the first user device and the second user device.

11…動画配信システム、
12…ユーザ装置
13…サーバ。
11 ... Video distribution system,
12 ... User device 13 ... Server.

Claims (1)

コンピュータを、
第1ユーザの動きが反映される第1キャラクタオブジェクトと、前記第1ユーザに参加要請を行った第2ユーザの動きが反映される第2キャラクタオブジェクトとを動画の描画空間にレンダリングする第1画像処理部と、
前記第1ユーザに参加要請を行った第3ユーザに対応する第3キャラクタオブジェクトを、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトよりも描画の処理負荷が少ないオブジェクトデータを用いてレンダリングする第2画像処理部として機能させる
動画用アプリケーションプログラム。
Computer,
The first image that renders the first character object that reflects the movement of the first user and the second character object that reflects the movement of the second user who requested the first user to participate in the drawing space of the moving image. Processing unit and
A second character object corresponding to the third user who has requested participation to the first user is rendered using object data having a smaller drawing processing load than the first character object and the second character object. A video application program that functions as an image processing unit.
JP2022037710A 2020-03-24 2022-03-11 Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method Pending JP2022089817A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022037710A JP2022089817A (en) 2020-03-24 2022-03-11 Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020053114A JP7098676B2 (en) 2020-03-24 2020-03-24 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
JP2022037710A JP2022089817A (en) 2020-03-24 2022-03-11 Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020053114A Division JP7098676B2 (en) 2020-03-24 2020-03-24 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method

Publications (2)

Publication Number Publication Date
JP2022089817A true JP2022089817A (en) 2022-06-16
JP2022089817A5 JP2022089817A5 (en) 2023-01-11

Family

ID=77886582

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020053114A Active JP7098676B2 (en) 2020-03-24 2020-03-24 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
JP2022037710A Pending JP2022089817A (en) 2020-03-24 2022-03-11 Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020053114A Active JP7098676B2 (en) 2020-03-24 2020-03-24 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method

Country Status (1)

Country Link
JP (2) JP7098676B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7323900B1 (en) 2022-06-29 2023-08-09 グリー株式会社 Program, information processing method, and information processing apparatus

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312975B1 (en) 2022-03-31 2023-07-24 グリー株式会社 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7357865B1 (en) 2022-07-25 2023-10-10 グリー株式会社 Program, information processing method, and information processing device
JP2024030610A (en) * 2022-08-24 2024-03-07 株式会社Jvcケンウッド Avatar control device, avatar control method, and avatar control program
JP2024030568A (en) * 2022-08-24 2024-03-07 株式会社Jvcケンウッド Avatar control device, avatar control method, and avatar control program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215324A (en) * 1999-01-21 2000-08-04 Mitsubishi Electric Corp Three-dimensional space display device using multi-user type texture, space displaying method and space displaying method recording medium
JP4177381B2 (en) * 2006-03-01 2008-11-05 株式会社スクウェア・エニックス Image generation method, image generation apparatus, and image generation program
JP7228338B2 (en) * 2018-05-22 2023-02-24 株式会社 ディー・エヌ・エー System, method and program for distributing videos

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7323900B1 (en) 2022-06-29 2023-08-09 グリー株式会社 Program, information processing method, and information processing apparatus

Also Published As

Publication number Publication date
JP7098676B2 (en) 2022-07-11
JP2021152785A (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP7098676B2 (en) Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US11074737B2 (en) Information processing apparatus and method
JP6724219B1 (en) Movie application program, movie display method, movie distribution system, and information processing device
KR20230159481A (en) Programs, methods, and information processing devices
JP2023067892A (en) Information processing program, information processing method, and information processing device
JP2023143963A (en) Program, information processing method, and information processing device
JP2024036381A (en) Programs, information processing methods, servers and server information processing methods
JP2023095862A (en) Program and information processing method
JP7001796B1 (en) Information processing program, information processing method and information processing system
JP7271476B2 (en) Video application program, video display method, information processing device and information processing method
JP2022097475A (en) Information processing system, information processing method, and computer program
JP7223834B2 (en) Program, information processing method and information processing apparatus
JP7323900B1 (en) Program, information processing method, and information processing apparatus
JP7357865B1 (en) Program, information processing method, and information processing device
JP2021007198A (en) Video distribution system, video distribution method, information processor, video distribution program, and video viewing program
JP7473909B2 (en) Video application program, video object drawing method, video management program, video management method, server, and video distribution system
JP6983980B1 (en) Information processing systems, information processing methods and computer programs
JP7301262B2 (en) Information processing system, information processing method and computer program
US11704854B2 (en) Information processing system, information processing method, and computer program
JP7148700B2 (en) Information processing system, information processing method and computer program
JP2021158558A (en) Moving image application program, object drawing method of moving image, moving image management program, moving image management method, server and moving image distribution system
JP6828106B1 (en) Video distribution system, video distribution method and video distribution program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117