JP2019197961A - 視聴ユーザからのメッセージを含む動画を配信する動画配信システム - Google Patents

視聴ユーザからのメッセージを含む動画を配信する動画配信システム Download PDF

Info

Publication number
JP2019197961A
JP2019197961A JP2018089628A JP2018089628A JP2019197961A JP 2019197961 A JP2019197961 A JP 2019197961A JP 2018089628 A JP2018089628 A JP 2018089628A JP 2018089628 A JP2018089628 A JP 2018089628A JP 2019197961 A JP2019197961 A JP 2019197961A
Authority
JP
Japan
Prior art keywords
moving image
display area
posted message
posted
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018089628A
Other languages
English (en)
Other versions
JP6431233B1 (ja
Inventor
匡志 渡邊
Masashi Watanabe
匡志 渡邊
健悟 栗田
Kengo Kurita
健悟 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018089628A priority Critical patent/JP6431233B1/ja
Application filed by GREE Inc filed Critical GREE Inc
Publication of JP6431233B1 publication Critical patent/JP6431233B1/ja
Application granted granted Critical
Priority to CN202210548253.7A priority patent/CN115086736A/zh
Priority to CN202210559306.5A priority patent/CN114915827A/zh
Priority to CN201910374844.5A priority patent/CN110460893B/zh
Priority to US16/406,494 priority patent/US11190848B2/en
Publication of JP2019197961A publication Critical patent/JP2019197961A/ja
Priority to US17/474,982 priority patent/US20210409827A1/en
Priority to US18/530,400 priority patent/US20240114214A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】キャラクタオブジェクトのアニメーションを含む動画における投稿メッセージの表示態様を改善する、動画配信システムを提供する。【解決手段】動画配信システム1は、サーバ装置において、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、第1投稿メッセージが表示される第1表示領域と、第2投稿メッセージが表示される一方で第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。【選択図】図1

Description

本明細書における開示は、視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。本明細書における開示は、より具体的には、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及び視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。
従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015−184689号公報(特許文献1)に開示されている。
特許文献1には、当該動画配信システムにおいて、チャット機能を実装できることが開示されている。かかるチャット機能においては、動画を視聴する視聴ユーザからメッセージが投稿される。アクターは、この投稿された投稿メッセージを見ることができる。アクターが、メッセージに対してリアクションを行うと、そのリアクションが動画に反映される。このチャット機能により、視聴ユーザ同士の交流や、視聴ユーザとアクターとの交流が実現される。
特開2015−184689号公報
従来、動画の表示画面の一部領域が投稿メッセージの表示領域として割り当てられている。表示画面におけるスペースの制約から、投稿メッセージの表示領域がキャラクタオブジェクトと重複することがある。この場合、投稿メッセージとキャラクタオブジェクトとが重複して表示されることによって、視聴ユーザの視聴体験が劣化するおそれがある。例えば、キャラクタオブジェクトの主要部分が投稿メッセージで隠されると、視聴者は動画の視聴を妨げられたと感じるおそれがある。
投稿されたメッセージを表示する表示領域を表示画面の一定の領域に確保し、この表示領域にキャラクタオブジェクトが表示されないようにするための表示制御を行えばキャラクタオブジェクトと投稿メッセージとの重複は回避できる。しかしながら、キャラクタオブジェクトの表示位置が制限されてしまい、この点が動画制作の上で大きな制約となる。
このように、投稿オブジェクトの表示領域を一定の領域に制限するとユーザに満足のいく視聴体験を提供することが難しくなる。キャラクタオブジェクトのアニメーションを含む動画における投稿メッセージの表示態様について、改善が求められている。
本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。
一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。当該実施形態において、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージが表示される第1表示領域と、前記第2投稿メッセージが表示される一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。
一態様による動画配信システムにおいて、前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される。
一態様による動画配信システムにおいて、前記第1投稿メッセージは、前記第1表示領域において第1方向に移動する。
一態様による動画配信システムにおいて、前記第2投稿メッセージは、前記第2表示領域において第2方向に移動する。
一態様による動画配信システムにおいて、前記第2方向は、前記第2投稿メッセージに含まれる第1コマンドに応じて変化する。
一態様による動画配信システムにおいて、前記第2表示領域における前記第2投稿メッセージの初期表示位置は、前記第2投稿メッセージに含まれる第2コマンドに応じて変化する。
一態様による動画配信システムにおいて、前記第2投稿メッセージの前記第2表示領域における移動速度は前記第1投稿メッセージの前記第1表示領域における移動速度よりも遅い。
一態様による動画配信システムにおいて、前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い。
一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ以外の情報も表示される。
一態様による動画配信システムにおいて、前記ストレージは、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供された電子的ギフトを記憶する。
一態様による動画配信システムにおいて、前記第1投稿メッセージ以外の情報には、前記電子的ギフトの提供が行われたことを示す通知が含まれる。
一態様による動画配信システムにおいて、前記第2ユーザは、前記電子的ギフトに関するパラメータが所定条件を満たしたユーザである。
一態様による動画配信システムにおいて、前記第2ユーザは、前記動画の視聴回数が所定回数を超えたユーザである。
一態様による動画配信システムにおいて、前記第1ユーザは、前記第1投稿メッセージの投稿数が所定数を超えると、前記第1ユーザグループから離脱し前記第2ユーザグループに含められる。
一態様による動画配信システムにおいて、前記動画は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む。
一態様による動画配信システムにおいて、前記第2表示領域の少なくとも一部は、前記キャラクタオブジェクトの背後に配されている。
一態様による動画配信システムにおいて、前記第1表示領域及び前記キャラクタオブジェクトが重複して表示される場合には、前記キャラクタオブジェクトが前記第1表示領域の背後に配される。
一態様による動画配信システムは、複数のカメラをさらに備え、前記複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構成された仮想空間の画像を含む。
一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内の表示用オブジェクトに設けられ、前記第2表示領域の前記仮想空間における位置は、前記アクティブセンサの位置及び向きに応じて変更される。
一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内に設けられ、前記第2表示領域の前記仮想空間における大きさは、前記アクティブセンサの位置及び向きに応じて変更される。
一態様による動画配信方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される。当該動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージが表示される第1表示領域と、前記第2投稿メッセージが表示される一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。
一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、 前記第1投稿メッセージが表示される第1表示領域と、前記第2投稿メッセージが表示される一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。
実施形態によれば、動画の視聴ユーザからの投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示することができる。
一実施形態による動画配信システムを示すブロック図である。 図1の動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図である。 図1の動画配信システムにおいて記憶される保有リストを説明する図である。 図1の動画配信システムにおいて記憶される候補リストを説明する図である。 図1の動画配信システムにおいて記憶される投稿データを説明する図である。 図1の動画配信システムにおいて記憶される視聴管理データを説明する図である。 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図7には、キャラクタオブジェクトのアニメーションが含まれている。 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図8には、通常オブジェクトが含まれている。 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図9には、装飾オブジェクトが含まれている。 候補リストに含まれている装飾オブジェクトの中から所望の選択装飾オブジェクトを選択するための装飾オブジェクト選択画面の例を示す模式図である。 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。 一実施形態における動画配信処理の流れを示すフロー図である。 図1の動画配信システムにおいて配信される動画の配信期間の区分を説明するための図である。 別の実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。 別の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。
以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。
図1から図6を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図3から図6は、動画配信システム1において記憶される情報を説明するための図である。
動画配信システム1は、クライアント装置10a〜10cと、サーバ装置20と、スタジオユニット30と、ストレージ60と、を備える。クライアント装置10a〜10cと、サーバ装置20と、ストレージ60と、は、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置20は、後述するように、キャラクタのアニメーションを含む動画を配信するように構成される。この動画に含まれるキャラクタは、仮想空間内でモーション制御されてもよい。
この動画は、サーバ装置20からクライアント装置10a〜10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を、各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。
クライアント装置10a〜10cは、スマートフォンなどの情報処理装置である。クライアント装置10a〜10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a〜10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。
クライアント装置10a〜10cのディスプレイは、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。
視聴ユーザは、クライアント装置10a〜10cのタッチパネルを介して、配信された動画に関するメッセージ又はそれ以外のメッセージを入力することができる。このメッセージは、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の任意の形式の電子的なメッセージであってもよい。クライアント装置10a〜10cの各々は、視聴ユーザによって入力されたメッセージをサーバ装置20に投稿(送信)するように構成され得る。本明細書においては、配信された動画を視聴するためのクライアント装置10a〜10c及び/又はこれら以外のクライアント装置からサーバ装置20に送信されたメッセージを投稿メッセージと呼ぶことがある。例えば、第1視聴ユーザのクライアント装置10aに配信された動画に関して、当該第1視聴ユーザがクライアント装置10aに入力し、このクライアント装置10aからサーバ装置20に対して送信された投稿メッセージは、第1視聴ユーザの投稿メッセージである。
図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。
コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。
通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。
ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。
スタジオユニット30の構成要素の多くは、例えば、図2に示されているスタジオルームRに配されている。図示のように、スタジオルームRにおいては、アクターA1及びアクターA2がパフォーマンスを行っている。スタジオユニット30は、アクターA1及びアクターA2の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。
アクターA1及びアクターA2はいずれも、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。図示の実施形態において、アクターA1及びアクターA2は、トーク、パフォーマンス、及びこれら以外の動画として配信される番組を進行するための行動を行う人間である。アクターA1及びアクターA2は、人間以外に、動物またはこれ以外の運動する任意の物体(非生物)であってもよい。アクターA1及びアクターA2は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。
スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a〜31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、を有する。スタジオユニット30はまた、アクターA2に装着される6つのモーションセンサ32a〜32fと、アクターA2の左手に把持されているコントローラ34aと、アクターA2の右手に把持されているコントローラ34bと、装着具38bを介してアクターA2の頭部に取り付けられるカメラ38aと、を有する。装着具37b及び装着具38bの各々には、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1及びアクターA2の発話を音声データとして取得することができる。マイクは、装着具37b及び装着具38bを介してアクターA1及びアクターA2に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、トラッキングセンサ36aと、トラッキングセンサ36bと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。
モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサーを複数備えてもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサーでの受光時間、各光センサーが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出してもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。
モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々において算出された各モーションセンサの位置及び向きを示す検出情報は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサの検出情報は、当該インターバルごとに更新される。なお、ベースステーションは、3つ以上の複数であってもよい。ベースステーションの位置は適宜変更してもよい。例えば、図2に示されているトラッキングセンサの検出対象の空間の上方の隅部に配されているベースステーションに加えて若しくは替えて、上方位置及び床面に近い下方位置に対をなすように配置されたベースステーションが設けられてもよい。例えば、ベースステーションは4つであってもよい
図示の実施形態において、アクターA1は、6つのモーションセンサ31a〜31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手首、右手首、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a〜31fは、装着具を介してアクターA1に装着されてもよい。アクターA2は、6つのモーションセンサ32a〜32fを装着している。モーションセンサ32a〜32fは、アクターA2に対してモーションセンサ31a〜31fと同様の位置に装着され得る。図2に示されているモーションセンサ31a〜31f及びモーションセンサ32a〜32fは例示である。モーションセンサ31a〜31fは、アクターA1の様々な部位に装着され得るし、モーションセンサ32a〜32fは、アクターA2の様々な部位に装着され得る。アクターA1及びアクターA2に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1及びアクターA2の体の各部に装着されたモーションセンサ31a〜31f及びモーションセンサ32a〜32fの位置及び向きを検出することにより、アクターA1及びアクターA2の体の動きを検出することができる。
一実施形態においては、アクターA1及びアクターA2に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。
一実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1及びアクターA2の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1及びアクターA2を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。
コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。同様に、コントローラ34a及びコントローラ34bは、アクターA2の操作に応じたコントロール信号をサーバ装置20に出力する。
トラッキングセンサ36a及びトラッキングセンサ36bは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。トラッキングセンサ36a及びトラッキングセンサ36bのトラッキング情報は、各々の三次元直交座標系での位置および各軸回りの角度として算出される。トラッキングセンサ36aの位置および向きは、操作者の操作に応じて変更されえる。トラッキングセンサ36aは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。同様に、トラッキングセンサ36bの位置および向きは、操作者の操作に応じて設定される。トラッキングセンサ36bは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。図示の実施形態において、トラッキングセンサ36aは、アクターA1の左前方に設けられている。トラッキングセンサ36bは、アクターA1及びアクターA2の前方であってアクターA1とアクターA2とのほぼ中間の位置に設けられている。
カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。同様に、カメラ38aは、アクターA2の頭部に取り付けられている。カメラ38aは、アクターA2の顔を撮像できるように配置されており、アクターA2の顔を連続的に撮像し、アクターA2の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信し、カメラ38aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37a及びカメラ38aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。
ディスプレイ39は、サポートコンピュータ40から受信した情報を表示するように構成される。サポートコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1及びアクターA2によって視認可能な位置に配置される。
図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1及びアクターA2を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。
サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、トラッキングセンサ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。後述するアクティブセンサの切り替えは、サポーターB1及びサポーターB2によるサポーターコンピュータ40の操作に基づいて実行され得る。サポーターB1及びサポータB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。
図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。
次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、保有リスト23c、候補リスト23d、投稿データ23e、視聴管理データ23f、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。
モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターA1に対応するキャラクタオブジェクト及びアクターA2に対応するキャラクタオブジェクトを生成するために、モデルデータ23aは、互いに異なる少なくとも2種類のモデルデータを有する。このアクターA1に対応するキャラクタオブジェクト用のモデルデータとアクターA2に対応するキャラクタオブジェクト用のモデルデータとは、例えば、同じリグデータを有するが、異なる表面データを有していてもよい。
オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。
オブジェクトデータ23bには、上記以外にも、クライアント装置10a〜10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。
エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。
通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1またはアクターA2)へのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。
装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。
装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトが装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。
ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。
保有リスト23cは、動画の視聴ユーザが保有しているギフトオブジェクトを示すリストである。保有リスト23cの例が図3に示されている。図示のように、保有リスト23cにおいては、視聴ユーザのアカウント情報(例えば、視聴ユーザのユーザID)と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されている。この視聴ユーザには、例えば、クライアント装置10a〜クライアント装置10cの第1視聴ユーザ〜第3視聴ユーザが含まれる。
候補リスト23dは、視聴ユーザから表示要求がなされた装飾オブジェクトのリストである。後述するように、装飾オブジェクトを保有している視聴ユーザは、保有している装飾オブジェクトの表示要求を行うことができる。候補リスト23dにおいては、装飾オブジェクトの表示要求を行った視聴ユーザのアカウント情報と対応付けて、当該装飾オブジェクトを特定するオブジェクトIDが記憶される。この候補リスト23dは、配信者ごとに作成されてもよい。候補リスト23dは、例えば、配信者(アクターA1、アクターA2、サポーターB1、及び/又はサポーターB2)を特定する配信者識別情報と対応付けて記憶されてもよい。
投稿データ23eは、視聴ユーザから投稿された投稿メッセージを示すデータである。投稿データ23eは、投稿メッセージを投稿した視聴ユーザのアカウント情報と、当該視聴ユーザが属するユーザグループを示すグループ情報と、当該視聴ユーザによって投稿された投稿メッセージと、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが属するユーザグループに関するグループ情報と、当該視聴ユーザによって投稿された投稿メッセージとが記憶され得る。投稿データ23eは、各投稿メッセージが投稿された時刻(例えば、クライアント装置から送信された投稿メッセージがサーバ装置20によって受信された時刻、または、サーバ装置20に受信された投稿メッセージがストレージ23の所定の記憶領域に書き込まれた時刻)を記憶しても良い。
視聴ユーザのアカウント情報は、例えば、当該視聴ユーザのユーザ識別情報(ユーザID)である。
グループ情報は、視聴ユーザが属するグループを識別するグループ識別情報(グループID)である。視聴ユーザが属するグループには、例えば、第1ユーザグループと、第2ユーザグループと、が含まれる。例えば、第1ユーザグループは、一般ユーザが属する一般ユーザグループであり、第2ユーザグループは、一般ユーザとは異なるプレミアムユーザが属するプレミアムユーザグループである。
第1ユーザグループと第2ユーザグループとの分類基準として、様々な基準が採用され得る。視聴ユーザのうち動画の視聴回数が所定回数よりも少ないユーザを一般ユーザに分類し、視聴回数が所定回数以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち動画の視聴時間が所定時間よりも少ないユーザを一般ユーザに分類し、視聴時間が所定時間以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入金額が所定金額よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入金額が所定金額以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入量が所定量よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入量が所定量以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち投稿メッセージの投稿数が所定数よりも少ないユーザを一般ユーザに分類し、投稿メッセージの投稿数が所定数以上のユーザをプレミアムユーザに分類してもよい。視聴回数、視聴時間、ギフトオブジェクトの購入金額、ギフトオブジェクトの購入量、投稿メッセージの投稿数は、動画配信システム1の利用開始からの累積値であってもよく、所定期間において集計された集計値であってもよい。
一態様において、第2ユーザグループは、第1ユーザグループよりも少ない数のユーザから構成される。視聴ユーザは、動画配信システム1への利用登録を行う際には、第1ユーザグループに分類される。視聴ユーザは、動画配信システム1の利用開始後に、第2ユーザグループに分類されるための基準を満たすと、第1ユーザグループを離脱して第2ユーザグループに属する。このように、視聴ユーザは、動画配信システム1の利用態様によって、所属するユーザグループが変更されてもよい。視聴ユーザは、第2ユーザグループに分類されるための基準を満たさなくなった場合には、第2ユーザグループから第1ユーザグループへ所属するユーザグループが変更されてもよい。
一態様において、第1ユーザグループに属する視聴ユーザの数が第2ユーザグループに属する視聴ユーザの数よりも少ない状態が維持されるように、ユーザグループへの分類基準が動的に調整されてもよい。例えば、サーバ装置20は、第1ユーザグループに属する視聴ユーザの数及び第2ユーザグループに属する視聴ユーザの数をモニターし、その差が所定数よりも小さくなった場合には、第2ユーザグループへ分類されるための基準を厳しくしてもよい。例えば、当初は、動画配信システム1を利用した動画の視聴時間が10時間以上の視聴ユーザを第2ユーザグループに分類している場合、第2ユーザグループに属するユーザの数と第1ユーザグループに属する視聴ユーザの数との差が所定の値よりも小さくなった場合には、動画配信システム1を利用した動画の視聴時間が20時間以上の視聴ユーザを第2ユーザグループに分類するように基準を変更しても良い。
視聴ユーザの分類は、本明細書で具体的に説明するものには限定されない。視聴ユーザは、3つ以上のグループに分類されてもよい。また、各視聴ユーザがどのグループに所属するかを定める分類基準は任意に定められ得る。
投稿メッセージは、視聴ユーザからクライアント装置を介して投稿されたメッセージである。視聴ユーザから投稿されるメッセージには、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の様々な形式のメッセージが含まれる。本明細書においては、第1ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第1投稿メッセージと呼び、第2ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第2投稿メッセージと呼ぶことがある。
視聴管理データ23fは、視聴ユーザによる動画の視聴を管理するためのデータである。視聴管理データ23fは、視聴ユーザのアカウント情報と、動画配信システム1により配信される動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが視聴した動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、が記憶され得る。動画情報は、例えば、動画を識別する動画識別情報(動画ID)である。動画視聴情報は、視聴ユーザによって視聴された動画の視聴時間、視聴回数、及びこれら以外の動画の視聴に関する様々なデータを含み得る。
次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、ボディモーションデータ生成部21a、フェイスモーションデータ生成部21b、アニメーション生成部21c、動画生成部21d、動画配信部21e、表示要求処理部21f、装飾オブジェクト選択部21g、オブジェクト購入処理部21h、及び投稿メッセージ処理部21iとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサにより実現されてもよい。
ボディモーションデータ生成部21aは、モーションセンサ31a〜31fの各々の検出情報に基づいて、アクターA1の体の各部位の第1ボディモーションデータを生成し、また、モーションセンサ32a〜32fの各々の検出情報に基づいて、アクターA2の体の各部位の位置及び向きのデジタル表現である第2ボディモーションデータを生成する。本明細書では、第1ボディモーションデータ及び第2ボディモーションデータを総称して単に「ボディモーションデータ」と呼ぶことがある。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクターA1及びアクターA2の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、アクターA1及びアクターA2の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの検出情報に基づいて、アクターA1及びアクターA2の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。
フェイスモーションデータ生成部21bは、カメラ37aの撮像データに基づいて、アクターA1の顔の動きのデジタル表現である第1フェイスモーションデータを生成し、また、カメラ38aの各々の撮像データに基づいて、アクターA2の顔の動きのデジタル表現である第2フェイスモーションデータを生成する。本明細書では、第1フェイスモーションデータ及び第2フェイスモーションデータを総称して単に「フェイスモーションデータ」と呼ぶことがある。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA2及びアクターA2の顔の動き(表情の変化)を時系列的にデジタル表現することができる。
アニメーション生成部21cは、ボディモーションデータ生成部21aによって生成されたボディモーションデータ及びフェイスモーションデータ生成部21bによって生成されたフェイスモーションデータを、モデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。具体的には、アニメーション生成部21cは、アクターA1に関する第1ボディモーションデータ及び第1フェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、アクターA2に関する第2ボディモーションデータ及び第2フェイスモーションデータに基づいて、アクターA2の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。本明細書においては、アクターA1の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第1キャラクタオブジェクト」といい、アクターA2の動き及び表情に基づいて悪生成されたキャラクタオブジェクトを「第2キャラクタオブジェクト」ということがある。
動画生成部21dは、オブジェクトデータ23bを用いて仮想空間を構築し、この仮想空間と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。第1キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA1の位置に合致するように仮想空間内に配置され、第2キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA2の位置に合致するように仮想空間内に配置される。したがって、トラッキングセンサ36aの位置または向きを変更することにより、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向きを変化させることができる。
一態様において、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想空間を構築する。例えば、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想カメラの設定情報(仮想空間内での位置、注視位置、注視方向、及び画角)を定め、この仮想カメラの設定情報に基づいて仮想空間全体のうちの描画領域を定め、この仮想空間の描画領域を表示するための動画情報を生成する。
動画生成部21dは、トラッキングセンサ36aのトラッキング情報に代えて、または、トラッキングセンサ36aのトラッキング情報に加えて、トラッキングセンサ36bのトラッキング情報に基づいて、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向き、並びに、仮想カメラの設定情報を定めるように構成されてもよい。動画生成部21dは、トラッキングセンサ36a及びトラッキングセンサ36bのうちから選択されたセンサ(本明細書において、「アクティブセンサ」と呼ぶことがある。)のトラッキング情報に基づいて仮想カメラの設定情報を定めるように構成されてもよい。
動画生成部21dは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1及びアクターA2の音声を合成することができる。
以上のようにして、動画生成部21dは、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーション、並びに、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションを生成し、このアニメーションにアクターA1及びアクターA2の音声が合成された配信用の動画を生成することができる。
動画配信部21eは、動画生成部21dにおいて生成された動画を配信する。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。受信された動画は、クライアント装置10a〜クライアント装置10cにおいて再生される。
この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。
サーバ装置20からクライアント装置10aに配信され、このクライアント装置10aにおいて再生されている動画の表示例が図7に示されている。図示のように、サーバ装置20から配信された動画の表示画像70は、クライアント装置10aのディスプレイに表示される。このクライアント装置10aに表示されている表示画像70は、スタジオを模した仮想空間内に、アクターA1に対応するキャラクタオブジェクト71Aと、アクターA2に対応するキャラクタオブジェクト71Bと、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bが立つスタジオフロアに対応するフロアオブジェクト72cと、このフロアオブジェクト72c上に置かれたテーブルを示すテーブルオブジェクト72aと、フロアオブジェクト72c上に置かれたスタジオセットを示すスタジオセットオブジェクト72bと、が含まれている。
テーブルオブジェクト72a、スタジオセットオブジェクト72b、及びフロアオブジェクト72cは、ギフトオブジェクトではなく、オブジェクトデータ23bに含まれている仮想空間を構築するためのオブジェクトである。図示の実施形態において、配信動画に含まれる仮想空間は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがパフォーマンスを行うステージを模した空間となっている。フロアオブジェクト72cは、このステージのフロアに対応する。フロアオブジェクト72cは、仮想空間における水平方向に延伸している。スタジオセットオブジェクト72bは、このステージにおけるステージセットに対応する。図示の実施形態においては、スタジオセットオブジェクト72bは平面視において円弧状に延伸しており、フロアの外縁を画定している。
キャラクタオブジェクト71Aは、アクターA1の第1ボディモーションデータ及び第1フェイスモーションデータをモデルデータ23aに含まれているアクターA1用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Aは、第1ボディモーションデータ及び第1フェイスモーションデータに基づいてモーション制御される。キャラクタオブジェクト71Bは、アクターA2の第2ボディモーションデータ及び第2フェイスモーションデータを、モデルデータ23aに含まれているアクターA2用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Bは、第2ボディモーションデータ及び第2フェイスモーションデータに基づいてモーション制御される。したがって、キャラクタオブジェクト71Aは、アクターA1の体及び表情の動きに同期して画面内で動くように制御され、キャラクタオブジェクト71Bは、アクターA2の体及び表情の動きに同期して画面内で動くように制御される。
上記のように、サーバ装置20からの配信動画は、サポーターコンピュータ40に配信されてもよい。サポーターコンピュータ40に配信された動画は、サポーターコンピュータ40において図7と同様に表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40において再生されている動画を見て、スタジオユニット30の構成要素の設定を変更することができる。一態様において、サポーターB1及びサポーターB2は、配信中の動画においてキャラクタオブジェクト71A及びキャラクタオブジェクト71Bのアングルを変更したい場合には、トラッキングセンサ36aの向きの変更を指示する指示信号をサポーターコンピュータ40からトラッキングセンサ36aに送信することができる。トラッキングセンサ36aは、当該指示信号に応じて、向きを変更することができる。例えば、トラッキングセンサ36aは、スタンドにその軸周りにアクチュエータを内蔵した回動機構を介して回動可能に取り付けられており、トラッキングセンサ36aが向きの変更を指示する指示信号を受信すると、当該指示信号に基づいて当該回動機構のアクチュエータが駆動され、当該指示信号に応じた角度だけトラッキングセンサ36aが回動されてもよい。一態様において、サポーターB1及びサポーターB2は、トラッキングセンサ36aからのトラッキング情報に代えて、トラッキングセンサ36bからのトラッキング情報を用いるための指示をサポーターコンピュータ40からトラッキングセンサ36a及びトラッキングセンサ36bに送信してもよい。
一態様において、サポーターB1及びサポーターB2は、サポーターコンピュータ40にて再生されている動画を見てアクターA1またはアクターA2に対する指示が必要と判断した場合には、その指示を示すメッセージをサポーターコンピュータ40に入力し、このメッセージをディスプレイ39に出力することができる。例えば、サポーターB1及びサポーターB2は、このディスプレイ39に表示されるメッセージを通じて、アクターA1またはアクターA2に対して立ち位置の変更を指示することができる。
表示要求処理部21fは、視聴ユーザのクライアント装置からギフトオブジェクトの表示要求を受け付け、当該表示要求に応じた処理を行う。各視聴ユーザは、自らのクライアント装置を操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。例えば、第1視聴ユーザは、クライアント装置10aを操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示を要求するオブジェクトを特定する識別情報(オブジェクトID)が含まれてもよい。
上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。エフェクトオブジェクト及び通常オブジェクトは、第1オブジェクトの例である。また、エフェクトオブジェクトまたは通常オブジェクトの表示を要求する表示要求は、第1表示要求の例である。
一態様において、表示要求処理部21fは、視聴ユーザから特定のエフェクトオブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトオブジェクトを動画の表示画像70に表示させるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて紙吹雪を示すエフェクトオブジェクト73を表示画像70に表示させる。
一態様において、表示要求処理部21fは、視聴ユーザから特定の通常オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常オブジェクトを動画70に表示させるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト74を表示画像70に表示させる。
通常オブジェクト74の表示要求には、仮想空間内における当該通常オブジェクト74の表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、表示要求処理部21fは、仮想空間内の表示位置指定パラメータによって指定された位置に通常オブジェクト74を表示することができる。例えば、表示位置指定パラメータによって、テーブルを示すテーブルオブジェクト72aの上を通常オブジェクト74の表示位置として指定することができる。視聴ユーザは、表示位置指定パラメータを用いることにより、動画70に含まれているキャラクタオブジェクト71A、キャラクタオブジェクト71B、ギフトオブジェクト、及びこれら以外のオブジェクトの表示を見て、通常オブジェクトを表示したい位置を指定することができる。
一態様において、通常オブジェクト74は、動画の表示画像70内で移動するように表示されてもよい。例えば、通常オブジェクト74は、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト74は、落下開始から動画70を構成する仮想空間のフロアまで落下している間当該表示画像70内に表示され、フロアに落下した後に当該表示画像70から消滅してもよい。視聴ユーザは、落下する通常オブジェクト74を落下開始時から落下終了時まで見ることができる。通常オブジェクト74の画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト74は、動画70の左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動するように表示画像70において表示されてもよい。通常オブジェクト74は、様々な軌道上を移動することができる。例えば、通常オブジェクト74は、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト74の移動方向を指定する移動方向パラメータ及び通常オブジェクト74が移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいもの(例えば、エフェクトオブジェクト73の紙吹雪の紙片)は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクトと重複しない位置に表示される。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの少なくとも一方と重複する場合には、当該重複して表示されるキャラクタオブジェクトの後ろに表示される。
一態様において、表示要求処理部21fは、視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リスト23dに追加する。装飾オブジェクトの表示要求は、第2表示要求の例である。例えば、表示要求処理部21fは、視聴ユーザから表示要求されている特定の装飾オブジェクトを識別する識別情報(オブジェクトID)を、当該視聴ユーザのユーザIDと対応付けて、候補リスト23dに記憶することができる(図4参照)。装飾オブジェクトの表示要求が複数なされた場合には、当該複数の表示要求の各々について、表示要求を行った視聴ユーザのユーザIDと、当該視聴ユーザによって表示要求されている装飾オブジェクトの装飾オブジェクトIDとが対応付けて候補リスト23dに記憶される。
一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうちの一又は複数が選択されたことに応じて、当該選択された装飾オブジェクトを動画の表示画像70に表示させるための処理を行う。本明細書では、候補リスト23dから選択された装飾オブジェクトを「選択装飾オブジェクト」と呼ぶことがある。
候補リスト23dからの装飾オブジェクトの選択は、例えば、サポーターB1及びサポーターB2がサポーターコンピュータ40を操作することによってなされる。一態様において、サポーターコンピュータ40には、装飾オブジェクト選択画面が表示される。図10は、一態様における装飾オブジェクト選択画面80の例を示す。この装飾オブジェクト選択画面80は、例えば、サポーターコンピュータ40のディスプレイに表示される。装飾オブジェクト選択画面80は、例えば、表形式で候補リスト23dに含まれている複数の装飾オブジェクトの各々を表示する。図示のように、一態様における装飾オブジェクト選択画面80は、装飾オブジェクトの種類を表示する第1列81と、装飾オブジェクトの画像を表示する第2列82と、装飾オブジェクトが関連付けられているキャラクタオブジェクトの部位を表示する第3列83と、を有する。また、装飾オブジェクト選択画面80には、各装飾オブジェクトを選択するための選択ボタン84a〜84cが表示されている。このように、装飾オブジェクト選択画面80には、選択装飾オブジェクトの候補となる装飾オブジェクトが表示される。
サポーターB1及びサポーターB2は、この装飾オブジェクト選択画面80に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。例えば、サポーターB1及びサポーターB2は、選択ボタン84aを選択することにより、カチューシャを選択することができる。装飾オブジェクト選択部21gによってカチューシャが選択されたことが検出されると、表示要求処理部21fは、図9に示すように、選択されたカチューシャを示す選択装飾オブジェクト75を動画の表示画面70に表示させる。選択装飾オブジェクト75は、キャラクタオブジェクトの特定の部位と関連付けて、表示画像70に表示される。選択装飾オブジェクト75は、キャラクタオブジェクトのうちの当該特定の部位に接するように表示されてもよい。例えば、カチューシャを示す選択75は、キャラクタオブジェクトの頭部と対応付けられているため、図9に示されているように、キャラクタオブジェクト71Aの頭部に装着される。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面70に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト71Aの頭部が動くと、あたかもカチューシャがキャラクタオブジェクト71Aの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクト75もキャラクタオブジェクト71Aの頭部に付随して動く。
選択装飾オブジェクト75は、キャラクタオブジェクト71Aではなく、キャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。選択装飾オブジェクト75は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。
装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトの表示要求を行ったユーザを特定可能な情報を含まないように構成されてもよい。これにより、装飾オブジェクトの選択の際に、選択者が特定のユーザを優遇することを防止できる。
一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザに関する情報を表示するようにしてもよい。例えば、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザがこれまでに装飾オブジェクトの表示要求を行った回数と選択された回数(例えば、これまでに装飾オブジェクトの表示要求を5回行ってそのうち2回は選択されたことを示す情報)、当該ユーザがキャラクタオブジェクト71A及びキャラクタオブジェクトBの少なくとも一方の動画を視聴した視聴回数、当該ユーザが動画配信システム1における動画(キャラクタオブジェクト71A及びキャラクタオブジェクトBの出演有無を問わない)の視聴回数、当該ユーザによるギフトオブジェクトの購入金額、当該ユーザによるオブジェクトの購入回数、当該ユーザが保有する動画配信システム1内で使用できるポイント、当該ユーザの動画配信システム1におけるレベル、及びこれら以外の各装飾オブジェクトの表示要求を行ったユーザに関する各種情報を表示してもよい。当該実施形態によれば、装飾オブジェクトの表示要求を行ったユーザのこれまでの動画配信システム1における行動や視聴履歴に基づいて、装飾オブジェクトの選択を行うことができる。
一実施形態において、装飾オブジェクトの表示には、重複を排除するための制約が課されてもよい。例えば、キャラクタオブジェクト71Aに関し、その特定の部位に関連付けられた装飾オブジェクトが既に選択されている場合には、当該特定の部位に関連付けられた他の装飾オブジェクトの選択が禁止されてもよい。図7の実施形態に示されているように、キャラクタオブジェクト71Bの「頭部」に関連付けられているカチューシャが既に選択されている場合には、「頭部」に関連付けられているそれ以外の装飾オブジェクト(例えば、頭部に関連付けられている「帽子」を表す装飾オブジェクト)は、装飾オブジェクト選択画面80に表示されないか、または、当該帽子を表す装飾オブジェクトを選択するための選択ボタンが選択画面80において選択不能とされてもよい。当該実施形態によれば、装飾オブジェクトがキャラクタオブジェクトの特定の部位に重複して表示されることを防止できる。
装飾オブジェクト選択画面80は、サポーターコンピュータ40に代えて、または、サポーターコンピュータ40に加えて、他の装置に表示されてもよい。例えば、装飾オブジェクト選択画面80は、スタジオルームR内のディスプレイ39及びスクリーンSの少なくとも一方に表示されてもよい。この場合、アクターA1及びアクターA2が当該ディスプレイ39又はスクリーンSに表示された装飾オブジェクト選択画面80に基づいて、所望の装飾オブジェクトを選択することができる。アクターA1及びアクターA2による装飾オブジェクトの選択は、例えば、コントローラ33a、コントローラ33b、コントローラ34a、またはコントローラ34bを操作することによりなされ得る。
一態様において、オブジェクト購入処理部21hは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザのクライアント装置(例えば、クライアント装置10a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装飾オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、クライアント装置10aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、クライアント装置10aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置20に送信される。オブジェクト購入処理部21hは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。この場合、保有リスト23cに、購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトオブジェクトのオブジェクトIDが記憶される。
購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。
一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。
他の態様においては、購入対象のエフェクトオブジェクトについてオブジェクト購入処理部21hにおける決済処理が完了したことに応じて、決済完了通知がクライアント装置10aに送信され、当該クライアント装置10aにおいて、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置から表示要求処理部21fに送信され、表示要求処理部21fにおいて、当該購入対象のエフェクトオブジェクトを動画の表示画像70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面がクライアント装置10aに表示されてもよい。
上記のように、クライアント装置10a〜10c及びこれら以外のクライアント装置は、配信動画に関する投稿メッセージ及びその他の投稿メッセージをサーバ装置20に送信することができる。投稿メッセージ処理部21iは、クライアント装置10a〜10c及びこれら以外のクライアント装置から受信した投稿メッセージを動画に表示させるための処理を行うように構成される。
一態様における投稿メッセージの表示態様について、図11から図16を参照して説明する。図11から図14は、クライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示している。図15は、一実施形態における動画配信処理の流れを示すフロー図であり、図16は、配信動画における第1配信期間及び第2配信期間を説明するための概略図である。第1配信期間においては、動画内に第1表示領域76が含まれ、第2配信期間においては、動画内に第2表示領域77が含まれる。
図16に示されているように、一実施形態において、サーバ装置20は、時刻t1から時刻t2の間に動画を配信する。時刻t1が動画の配信開始時刻であり、時刻t2が動画の配信終了時刻である。図示の実施形態においては、動画の全配信期間のうち、時刻t1と時刻t3との間および時刻t4と時刻t2との間が第1配信期間であり、時刻t3と時刻t4との間が第2配信期間である。当該動画の配信開始時刻t1の後は、時刻t3まで第1配信期間161が続き、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられ、第1配信期間163が配信終了時刻t2まで継続する。第1配信期間及び第2配信期間の順序、長さ、出現回数、及びそれ以外の第1配信期間及び第2配信期間に関する設定は任意に定め得る。
一実施形態において、第1配信期間と第2配信期間とは、所定の時刻が到来したときに切り替えられてもよい。例えば、図示の実施形態では、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられている。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、アクターA1によるコントローラ33aまたはコントローラ33bの操作に応じて行われてもよく、アクターA2によるコントローラ34aまたはコントローラ34bの操作に応じて行われてもよい。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、サポーターB1またはサポーターB2によるサポーターコンピュータ40の操作に応じて行われてもよい。第1配信期間と第2配信期間との切り替えは、本明細書において明示的に説明されていない態様で行われてもよい。
図11及び図12は、第1配信期間における配信動画の表示画像70を示す。図11に示されている配信動画の表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは表示画像70において正面を向いている。
図示の実施形態において、再生動画(またはその表示画像70)には、第1表示領域76が含まれている。
一態様において、第1表示領域76は、動画生成部21dにより生成された動画にスーパーインポーズされる表示領域である。一態様において、第1表示領域76は、二次元の表示領域である。
一態様において、第1表示領域76は、動画生成部21dにより生成される仮想空間を構成するオブジェクトではない。この場合、第1表示領域76は、動画生成部21dにより生成される仮想空間を構築するための仮想カメラの設定情報(位置、向き、及び画角)によらず、当該動画の表示画像70の所定の領域に表示される。第1表示領域76は、アクティブセンサが切り替えられても、その切り替えの前後で変わらない位置に表示されてもよい。図示の実施形態では、表示画像70の左下の一定の範囲を占める領域が、第1表示領域76とされている。第1表示領域76の位置は、本明細書で具体的に説明した位置には限られない。図示のように、第1表示領域76は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方と重複する領域に設けられてもよい。図示の実施形態では、第1表示領域76は、キャラクタオブジェクト71Bの一部と重複している。第1表示領域76とキャラクタオブジェクト71Bとが重複する領域においては、第1表示領域76およびそこに含まれる投稿メッセージが、キャラクタオブジェクト71Bよりも画面の手前に表示されてもよい。この場合、キャラクタオブジェクト71Bの一部が第1表示領域76またはそこに表示される投稿メッセージの背後に隠れて視聴ユーザによって視認できなくなる。
一態様において、投稿メッセージ処理部21iは、視聴ユーザからクライアント装置10a〜10c及びこれら以外のクライアント装置を介して投稿された投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示するように構成される。視聴ユーザから投稿された投稿メッセージは、ストレージ23に投稿データ23eとして記憶されているので、投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出して、この読み出した投稿メッセージを第1表示領域76又は後述する第2表示領域77に表示することができる。投稿メッセージは、投稿時間が早い順に読み出されてもよい。
図11に示されている実施形態においては、第1表示領域76には、投稿メッセージ76a〜76dの4つの投稿メッセージが表示されている。この投稿メッセージ76a〜76dは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)であってもよいし、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)であってもよい。例えば、投稿メッセージ76a、投稿メッセージ76b、投稿メッセージ76c、及び投稿メッセージ76dがこの順にストレージ23から読み出され、この読み出された各第1投稿メッセージが、読み出された順に第1表示領域76に表示される。具体的な表示手順の例は以下のとおりである。第1投稿メッセージ76aが読み出されると、当該投稿メッセージ76aが第1表示領域76の最上部に表示される。次に、投稿メッセージ76bが読み出されると、投稿メッセージ76aは、当初の表示位置から下方に移動し、この移動により空いたスペースに投稿メッセージ76bが表示される。以下、同様に、新しい投稿メッセージが表示される場合には、表示済みの投稿メッセージを下方に移動させ、その移動により空いたスペースに当該新しい投稿メッセージが表示される。
投稿メッセージ76aが第1表示領域76の下限まで到達した後に新しい投稿メッセージを表示する場合には、下限に到達した投稿メッセージ76aは、第1表示領域76に表示されなくなる。図11の表示画像70においては、投稿メッセージ76aが第1表示領域76の下限に到達したことが想定されている。この時点で、新しい投稿メッセージ76eがストレージ23から第1表示領域76への表示のために読み出されると、図12に示されているように、投稿メッセージ76aは第1表示領域76に表示されなくなり、残りの投稿メッセージ(第1投稿メッセージ76b〜76d)が下方に移動した後、この移動により空いたスペースに投稿メッセージ76eが表示される。このように、第1表示領域76に表示された投稿メッセージは、当該第1表示領域76の移動方向の終端に達するまでの間、第1表示領域76に表示され続ける。
第1表示領域76には、視聴ユーザから投稿された第1投稿メッセージだけでなく、サーバ装置20からの各種通知が表示されてもよい。例えば、第1視聴ユーザからギフトの表示要求があった場合には、その旨がシステムからのメッセージとして第1表示領域76に表示されてもよい。第1表示領域76に表示され得るサーバ装置20からの通知には、様々な種類の通知が含まれ得る。サーバ装置20からの通知には、例えば、ある視聴ユーザが動画の視聴を開始した場合に当該視聴ユーザが動画の視聴を開始した旨を通知するためのメッセージであってもよい。
以上のとおり、投稿メッセージ処理部21iは、第1ユーザグループまたは第2ユーザグループに属するユーザの投稿メッセージを、第1表示領域76に表示する処理を行う。第1表示領域76において、第1投稿メッセージは、新しい投稿メッセージを表示するためのスペースを作り出すために、所定の移動方向に移動する。図11及び図12に示した実施形態では、第1投稿メッセージは、上から下へ移動する。第1表示領域76における第1投稿メッセージの移動方向は、上から下には限られない。第1表示領域76における第1投稿メッセージの移動方向は、下から上、左から右、右から左、及びこれら以外の任意の方向であってもよい。
続いて、図13及び図14を参照して、第2配信期間に配信される動画について説明する。図13及び図14は、第2配信期間における配信動画の表示画像130の例を示す。図13及び図14に示した実施形態では、第2配信期間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがステージの上でパフォーマンスを行う動画が配信されることを想定している。図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、表示画像130において正面を向いている。図14には、トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像130が示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。
第2表示領域77は、動画生成部21dにより生成される仮想空間に含まれる一又は複数のオブジェクトの表面の一部又は全部に相当する領域である。図示の実施形態においては、スクリーン状のスクリーンオブジェクト131の前面の全体が第2表示領域77とされている。本明細書においては、スクリーンオブジェクト131のように、第2表示領域77が設けられるオブジェクトを「表示用オブジェクト」又は「メッセージ表示用オブジェクト」と呼ぶことがある。配信動画に含まれる仮想空間内の任意のオブジェクトを表示用オブジェクトとすることができる。一態様においては、ギフトオブジェクトを表示用オブジェクトとしてもよい。
図13の実施形態においては、第2表示領域77には、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)が表示される。図示の例では、第2表示領域77には、第2投稿メッセージ77a〜77eの5つの第2投稿メッセージが表示されている。本明細書において、第2投稿メッセージ77a〜77eは、互いから区別される必要がない場合には、単に「第2投稿メッセージ」と呼ばれることがある。図13に示されているように、第2投稿メッセージ77a、第2投稿メッセージ77b、第2投稿メッセージ77c、第2投稿メッセージ77d、及び第2投稿メッセージ77eがこの順にストレージ23から読み出され、この読み出された各第2投稿メッセージが、読み出された順に第2表示領域77に表示される。第2表示領域77には、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)は表示されない。第2配信期間においては、第1ユーザグループに属する視聴ユーザは、クライアント装置にて実装される機能によりメッセージの投稿ができないか、または、メッセージを投稿することができても、当該メッセージは第2表示領域77には表示されない。
第2表示領域77に表示される第2投稿メッセージは、第2表示領域77において所定の方向に移動してもよい。図13の実施形態においては、各第2投稿メッセージは、第2表示領域77の上から下に向かって移動する。スクリーンオブジェクト131(第2表示領域77)は、仮想空間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後方に配されているため、この第2表示領域77に表示された第2投稿メッセージのうち第2投稿メッセージ77a〜77dの各々の一部は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後ろに隠れている。第2投稿メッセージは、第2表示領域77の移動方向における終端まで移動すると、その後、表示画像70に表示されなくなる。一実施形態において、スクリーンオブジェクト131等の表示用オブジェクトは、仮想空間において、キャラクタオブジェクトよりも後方に配される。これにより、表示用オブジェクト及び当該表示用オブジェクトに表示される第2投稿メッセージの後ろにキャラクタオブジェクトが隠れてしまうことがない。上記のように、第2配信期間においては、キャラクタオブジェクトがパフォーマンスを行うことが想定されている。よって、表示用オブジェクトをキャラクタオブジェクトよりも後方に配すことにより、ユーザは、キャラクタオブジェクトのパフォーマンスを他のオブジェクトによって邪魔されることなく見ることができる。これにより、ユーザの視聴体験の劣化を防ぐことができる。
第2表示領域77における第2投稿メッセージの移動方向は、上から下の方向には限られない。第2表示領域77における第2投稿メッセージの移動方向は、左から右、下から上、右から左、及びこれら以外の任意の方向であってもよい。第2表示領域77における投稿メッセージの移動方向は、第1表示領域76における第1投稿メッセージの移動方向と異なっていても良い。
一態様において、第2表示領域77における投稿メッセージの移動方向は、当該投稿メッセージに含まれる第1コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、移動方向を指定する第1コマンドを当該投稿メッセージに含めることができる。この第1コマンドは、例えば、左から右への移動を指定する場合には「L、R」というテキストであってもよい。この第1コマンドは、例えば、投稿メッセージの本体(第2表示領域77に表示されるメッセージ)の後に付加されてもよい。メッセージ本体と第1コマンドとの間は、アットマーク(「@」)、カンマ(「,」)、セミコロン(「;」)、コロン(「:」)などで区切られても良い。このように、視聴ユーザは、第2表示領域77におけるメッセージの移動方向を指定する第1コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。第1コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第1コマンドにより指定された方向に移動するように、当該投稿メッセージを第2表示領域77に表示するように構成されてもよい。上述した第1コマンドの記述形式は、任意に変更することができる。
一態様において、第2表示領域77における投稿メッセージの初期表示位置は、当該投稿メッセージに含まれる第2コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、当該投稿メッセージに第2表示領域77における初期表示位置を指定する第2コマンドを含めることができる。この第2コマンドは、例えば、初期表示位置が第2表示領域の左端である場合には「@L」というテキストであり、初期表示位置が第2表示領域の右端である場合には「@R」というテキストであり、初期表示位置が第2表示領域の中央である場合には「@C」というテキストであってもよい。視聴ユーザは、第2コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。投稿メッセージには、第2コマンドに加えて第1コマンドが含められても良い。第2コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第2コマンドにより指定された初期表示位置に当該投稿メッセージを表示する。当該投稿メッセージが第1コマンドも含む場合には、投稿メッセージ処理部21iは、当該投稿メッセージを当該第2コマンドにより指定された初期表示位置に表示させ、その後に当該第1コマンドで指定された方向に移動させるように構成されてもよい。上述した第2コマンドの記述形式は、任意に変更することができる。
一態様において、投稿メッセージ処理部21iは、第2投稿メッセージの第2表示領域77における移動速度が第1投稿メッセージの第1表示領域76における移動速度よりも遅くなるように、各投稿メッセージの移動速度を調整することができる。
一態様において、投稿メッセージ処理部21iは、第1投稿メッセージが第1表示領域76に表示されている第1表示時間よりも、第2投稿メッセージが第2表示領域77に表示されている第2表示時間が長くなるように、各投稿メッセージの移動速度を調整することができる。第1投稿メッセージの移動方向における第1表示領域76の長さと第2投稿メッセージの移動方向における第2表示領域77の長さとが同じ場合には、上記のように、第2投稿メッセージの移動速度が第1投稿メッセージの移動速度よりも遅くなるようにすることで、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。第1投稿メッセージと第2投稿メッセージの移動速度が同じ場合には、第2投稿メッセージの移動方向における第2表示領域73の長さを第1投稿メッセージの移動方向における第1表示領域76の長さよりも長くすることにより、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。
一態様においては、カメラワークにより、配信動画の表示を変更することができる。上記のとおり、図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて生成されている。つまり、表示画像130は、トラッキングセンサ36bがアクティブセンサとされているときに生成されている。このため、図13の表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは正面を向いている。アクティブセンサをトラッキングセンサ36bからトラッキングセンサ36aに切り替えることにより、トラッキングセンサ36aのトラッキング情報に基づいて生成された仮想空間を含む動画が生成される。トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像の例が図14に示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。また、スクリーンオブジェクト131、当該スクリーンオブジェクト131の表面に設けられている第2表示領域77、及び当該第2表示領域77に表示される第2投稿メッセージも傾いて表示されている。このように、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置及び向きは、いずれのトラッキングセンサがアクティブセンサとして用いられるかによって定められる。また、アクティブセンサの位置又は向きを変更すると、それに応じて、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置又は向きも変更される。図14に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像130における第2表示領域77(またはスクリーンオブジェクト131)は、図13に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像における表示画像130における第2表示領域77(またはスクリーンオブジェクト131)よりも、斜め方向から見ている分だけ小さく表示されている。
アクティブセンサがトラッキングセンサ36bからトラッキングセンサ36aに切り替えられると、仮想空間における仮想カメラの位置(視点の位置)も変更されるため、第2表示領域77の仮想空間における位置や向きも変更される。例えば、トラッキングセンサ36bがアクティブセンサとされている図13の表示画像においては、第2投稿メッセージ77a〜77dの各々の位置がキャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの後ろに隠れているが、トラッキングセンサ36aがアクティブセンサとされている図14の表示画像130においては、第2投稿メッセージ77cのみがキャラクタオブジェクトの後ろに隠れており、視点の移動によって、第2投稿メッセージ77a,77b,及び77dは、キャラクタオブジェクトの後ろに隠れず、その全体が視認可能になっている。このように、アクティブセンサの切り替えによって、仮想空間における視点を移動させることにより、キャラクタオブジェクトの後ろに隠れていた第2投稿メッセージを視認しやすくすることができる。
次に、図15を参照して、一態様による動画配信処理について説明する。図15は、一実施形態における動画配信処理の流れを示すフロー図である。動画配信処理においては、スタジオルームRにアクターA1及びアクターA2が在室していることが想定されている。
まず、ステップS11では、アクターA1及びアクターA2の体の動きのデジタル表現であるボディモーションデータと、アクターA1及びアクターA2の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータの生成は、例えば、上記のボディモーションデータ生成部21aで行われ、フェイスモーションデータの生成は、例えば、上記のフェイスモーションデータ生成部21bで行われる。
次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーションが生成される。同様に、アクターA2のボディモーションデータ及びフェイスモーションデータを、アクターA2用のモデルデータに適用することにより、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部21cで行われる。
次に、ステップS13において、仮想空間の画像と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。この動画には、アクターA1及びアクターA2の音声が合成されてもよい。第1キャラクタオブジェクトのアニメーション及び第2キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。この動画の生成は、例えば、上記の動画生成部21dで行われる。
次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。
次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、アクターA1及びアクターA2の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。
次に、図17及び図18を参照して、本発明の他の実施形態について説明する。図17は、本発明の他の実施形態においてクライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示し、図18は、当該他の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。
図17に示されている表示画像170は、第1表示領域176と、第2表示領域177と、を含んでいる。第1表示領域176には、第1投稿メッセージ176a〜176dが表示されており、第2表示領域177には、第2投稿メッセージ177aが表示されている。図17に示されている実施形態においては、投稿メッセージ処理部21iは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)を第1表示領域76に表示し、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)を第2表示領域177に表示するための処理を行う。
図18に示されている投稿メッセージの表示処理においては、動画の配信中に当該動画に対する投稿メッセージがクライアント装置から当該動画を配信するサーバ装置20に投稿されることが想定されている。投稿メッセージの表示処理は、図15に示した動画の配信処理と並行して行われる。サーバ装置20において受信された投稿メッセージは、ストレージ23に投稿データ23eとして記憶される。
ステップS21においては、ストレージ23に記憶された投稿メッセージが読み出される。投稿メッセージは、例えば、投稿順に読み出される。
次に、ステップS22において、ストレージ23から読み出された投稿メッセージを投稿した視聴ユーザが、いずれのユーザグループに属しているかが判定される。投稿データ23eにおいては、投稿メッセージを投稿した視聴ユーザのアカウント情報及び当該視聴ユーザが属するユーザグループを示すグループ情報と対応付けて当該投稿メッセージが記憶されているので、投稿データ23eを参照することにより、投稿メッセージを投稿したユーザが属するユーザグループを特定することができる。
投稿メッセージを投稿した視聴ユーザが第1ユーザグループに属すると判定された場合には表示処理はステップS23に進み、投稿メッセージを投稿した視聴ユーザが第2ユーザグループに属すると判定された場合には表示処理はステップS24に進む。
ステップS23においては、ステップS21において読み出された投稿メッセージが第1表示領域(例えば、第1表示領域76)に表示される。
ステップS24においては、ステップS21において読み出された投稿メッセージが第2表示領域(例えば、第2表示領域77)に表示される。
以上のように、ストレージ23から読み出された投稿メッセージが、当該投稿メッセージを投稿したユーザが属するユーザグループに応じた表示領域に表示される。
上記の一実施形態によれば、第1投稿メッセージが表示される第1表示領域76と、第2投稿メッセージが表示される一方で第1投稿メッセージは表示されない第2表示領域77と、を含む動画が配信される。これにより、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示領域を割り当てることができる。従来は、表示画面の所定領域に投稿メッセージ用の表示領域が一つのみ設けられているため、様々なユーザグループのユーザからの投稿メッセージが同じ表示領域に表示されている。これに対して、上記の実施形態によれば、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示処理が行われる。これにより、投稿メッセージの表示態様を多様化することができる。
一実施形態においては、第2表示領域77の一部がキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されている。これにより、第2投稿メッセージを他のユーザの注目をより集めやすい領域に表示することができる。
一実施形態においては、第2表示領域77は、アクターA1及びアクターA2がパフォーマンスを披露する第2配信期間において動画に含められる。第2表示領域77は、このアクターA1及びアクターA2のパフォーマンスに応じてモーション制御されるキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に表示されるので、他のユーザの注目をより集めやすい。また、第2表示領域77は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されるので、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bのパフォーマンスの視聴の妨げにもなりにくい。
一実施形態においては、第1表示領域76とキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方とが重複して表示される場合には、キャラクタオブジェクトが第1表示領域76の背後に配される。これにより、視聴ユーザやアクターA1及びアクターA2による投稿メッセージの表示がより重視される配信期間においては
、投稿メッセージがキャラクタオブジェクトの背後に隠されることなく表示される。
このように、上記実施形態によれば、動画の内容(例えば、アクターがパフォーマンスを実施中か否か)に応じて投稿メッセージの表示態様を変更することができる。よって、視聴ユーザによる動画の視聴体験を劣化させることなく、投稿メッセージの表示態様を多様化することができる。
上記の実施形態において、第2ユーザグループに属する視聴ユーザは、投稿メッセージの表示に関して、第1ユーザグループに属する視聴ユーザよりも優遇されたサービスまたは優れた機能の提供を受けることができる。
例えば、第2ユーザグループに属する視聴ユーザは、第1コマンドを用いて第2投稿メッセージの移動方向を指定したり、第2コマンドを用いて第2投稿メッセージの表示開始位置を指定することができる。これにより、第2ユーザグループに属する視聴ユーザは、自らの投稿メッセージをより注目を集めやすい方向に移動させたり、より注目を集めやすい位置に表示させたりすることができる。他方、第1ユーザグループに属する視聴ユーザは、投稿メッセージの移動方向の指定や、初期表示位置の指定を行うことができない。
上記の一実施形態において、第2表示領域77における第2投稿メッセージの移動速度は、第1表示領域76における第1投稿メッセージの移動速度よりも遅くなるように、投稿メッセージの表示制御が行われる。これにより、第2ユーザーグループに属する視聴ユーザは、第1ユーザグループに属する視聴ユーザよりも、自らの投稿メッセージを表示画面上に長く表示させることができる。
上記の一実施形態において、第2ユーザグループに属する視聴ユーザは、第1配信期間161,163及び第2配信期間162のいずれにおいてもメッセージを投稿することができる。これに対して、第1ユーザグループに属するユーザは、第1配信期間161,163においてのみメッセージを投稿することができる。
本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。
視聴ユーザから投稿された投稿メッセージは、ストレージ23に記憶されなくてもよい。この場合、投稿メッセージ処理部21iは、クライアント装置から受信した投稿メッセージを解析して当該投稿メッセージを投稿したユーザが属するユーザグループを特定し、この特定されたユーザグループに応じた表示領域に当該投稿メッセージを表示することができる。
本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。
1 動画配信システム

Claims (23)

  1. 第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
    前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
    前記第1投稿メッセージが表示される第1表示領域と、前記第2投稿メッセージが表示される一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する、
    動画配信システム。
  2. 前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される、
    請求項1に記載の動画配信システム。
  3. 前記第1投稿メッセージは、前記第1表示領域において第1方向に移動する、
    請求項1又は請求項2に記載の動画配信システム。
  4. 前記第2投稿メッセージは、前記第2表示領域において第2方向に移動する、
    請求項3に記載の動画配信システム。
  5. 前記第2方向は、前記第2投稿メッセージに含まれる第1コマンドに応じて変化する、
    請求項4に記載の動画配信システム。
  6. 前記第2表示領域における前記第2投稿メッセージの初期表示位置は、前記第2投稿メッセージに含まれる第2コマンドに応じて変化する、
    請求項4又は請求項5に記載の動画配信システム。
  7. 前記第2投稿メッセージの前記第2表示領域における移動速度は前記第1投稿メッセージの前記第1表示領域における移動速度よりも遅い、
    請求項1から請求項6のいずれか1項に記載の動画配信システム。
  8. 前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い、
    請求項1から請求項7のいずれか1項に記載の動画配信システム。
  9. 前記第1表示領域には、前記第1投稿メッセージ以外の情報も表示される、
    請求項1から請求項8のいずれか1項に記載の動画配信システム。
  10. 前記ストレージは、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供された電子的ギフトを記憶する、
    請求項1から請求項9のいずれか1項に記載の動画配信システム。
  11. 前記第1投稿メッセージ以外の情報には、前記電子的ギフトの提供が行われたことを示す通知が含まれる、
    請求項10に記載の動画配信システム。
  12. 前記第2ユーザは、前記電子的ギフトに関するパラメータが所定条件を満たしたユーザである、
    請求項10又は請求項11に記載の動画配信システム。
  13. 前記第2ユーザは、前記動画の視聴回数が所定回数を超えたユーザである、
    請求項1から請求項12のいずれか1項に記載の動画配信システム。
  14. 前記第1ユーザは、前記第1投稿メッセージの投稿数が所定数を超えると、前記第1ユーザグループから離脱し前記第2ユーザグループに含められる、
    請求項1から請求項13のいずれか1項に記載の動画配信システム。
  15. 前記動画は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む、
    請求項1から請求項14のいずれか1項に記載の動画配信システム。
  16. 前記第2表示領域の少なくとも一部は、前記キャラクタオブジェクトの背後に配されている、請求項15に記載の動画配信システム。
  17. 前記第1表示領域及び前記キャラクタオブジェクトが重複して表示される場合には、前記キャラクタオブジェクトが前記第1表示領域の背後に配される、
    請求項15または請求項16に記載の動画配信システム。
  18. 複数のカメラをさらに備え、
    前記複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構成された仮想空間の画像を含む、
    請求項1から請求項17のいずれか1項に記載の動画配信システム。
  19. 前記第2表示領域は、前記仮想空間内の表示用オブジェクトに設けられ、
    前記第2表示領域の前記仮想空間における位置及び向きは、前記アクティブセンサのトラッキング情報に応じて変更される、
    請求項18に記載の動画配信システム。
  20. 前記第2表示領域は、前記仮想空間内に設けられ、
    前記第2表示領域の前記仮想空間における大きさは、前記アクティブセンサの位置及び向きに応じて変更される、
    請求項18又は請求項19に記載の動画配信システム。
  21. 前記第1表示領域は、第1配信期間において前記動画に含まれており、前記第2表示領域は、第2配信期間において前記動画に含まれている、請求項1から請求項20のいずれか1項に記載の動画配信システム。
  22. 一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
    第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
    第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
    前記第1投稿メッセージが表示される第1表示領域と、前記第2投稿メッセージが表示される一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
    を備える動画配信方法。
  23. 一又は複数のコンピュータプロセッサに実行されるプログラムであって、
    前記一又は複数のコンピュータプロセッサに、
    第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
    第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
    前記第1投稿メッセージが表示される第1表示領域と、前記第2投稿メッセージが表示される一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
    、を実行させる動画配信プログラム。
JP2018089628A 2018-05-08 2018-05-08 視聴ユーザからのメッセージを含む動画を配信する動画配信システム Active JP6431233B1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018089628A JP6431233B1 (ja) 2018-05-08 2018-05-08 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
CN202210548253.7A CN115086736A (zh) 2018-05-08 2019-05-07 动态图像分发系统及其方法和记录介质
CN201910374844.5A CN110460893B (zh) 2018-05-08 2019-05-07 动态图像分发系统及其方法和记录介质
CN202210559306.5A CN114915827A (zh) 2018-05-08 2019-05-07 动态图像分发系统及其方法和记录介质
US16/406,494 US11190848B2 (en) 2018-05-08 2019-05-08 Video distribution system distributing video that includes message from viewing user
US17/474,982 US20210409827A1 (en) 2018-05-08 2021-09-14 Video distribution system distributing video that includes message from viewing user
US18/530,400 US20240114214A1 (en) 2018-05-08 2023-12-06 Video distribution system distributing video that includes message from viewing user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018089628A JP6431233B1 (ja) 2018-05-08 2018-05-08 視聴ユーザからのメッセージを含む動画を配信する動画配信システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2018152708A Division JP6431242B1 (ja) 2018-05-08 2018-08-14 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2018206760A Division JP6498832B1 (ja) 2018-05-08 2018-11-01 視聴ユーザからのメッセージを含む動画を配信する動画配信システム

Publications (2)

Publication Number Publication Date
JP6431233B1 JP6431233B1 (ja) 2018-11-28
JP2019197961A true JP2019197961A (ja) 2019-11-14

Family

ID=64480605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089628A Active JP6431233B1 (ja) 2018-05-08 2018-05-08 視聴ユーザからのメッセージを含む動画を配信する動画配信システム

Country Status (1)

Country Link
JP (1) JP6431233B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021158558A (ja) * 2020-03-27 2021-10-07 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
JP7335572B1 (ja) * 2022-09-30 2023-08-30 グリー株式会社 情報処理システム、制御方法、及びサーバ装置
JP7445272B1 (ja) 2023-03-31 2024-03-07 グリー株式会社 動画処理方法、動画処理システム、及び動画処理プログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305599B2 (ja) * 2019-01-11 2023-07-10 株式会社コロプラ プログラム
JP6726322B1 (ja) * 2019-01-11 2020-07-22 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP2020170911A (ja) * 2019-04-02 2020-10-15 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
JP7332562B2 (ja) * 2019-04-26 2023-08-23 株式会社コロプラ プログラム、方法、および情報端末装置
JP6891311B2 (ja) * 2019-09-25 2021-06-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP6668549B1 (ja) * 2019-09-25 2020-03-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP6748772B1 (ja) * 2019-10-15 2020-09-02 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
US11682154B2 (en) 2019-10-31 2023-06-20 Gree, Inc. Moving image processing method of a moving image viewed by a viewing user, a server device controlling the moving image, and a computer program thereof
JP7133590B2 (ja) * 2020-08-13 2022-09-08 グリー株式会社 動画処理方法、サーバ装置及びコンピュータプログラム
JP6783919B1 (ja) * 2019-12-27 2020-11-11 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7086253B2 (ja) * 2020-02-26 2022-06-17 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7317326B2 (ja) * 2020-02-26 2023-07-31 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7317327B2 (ja) * 2020-02-26 2023-07-31 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7272993B2 (ja) * 2020-05-15 2023-05-12 グリー株式会社 動画データ処理プログラム、動画データ処理方法、情報処理装置及び情報処理方法
JP6826690B2 (ja) * 2020-10-06 2021-02-03 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
JP7317088B2 (ja) * 2021-01-15 2023-07-28 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
JP6886566B2 (ja) * 2021-01-15 2021-06-16 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013222989A (ja) * 2012-04-12 2013-10-28 Dowango:Kk 映像表示システム、再生領域指定サーバ装置、端末装置、およびプログラム
JP2017121036A (ja) * 2016-09-01 2017-07-06 株式会社 ディー・エヌ・エー デジタルコンテンツを配信するシステム、方法、及びプログラム
JP2018511846A (ja) * 2015-03-20 2018-04-26 アリババ グループ ホウルディング リミテッド グループチャット内でプライベートチャットを提供するための方法及びシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013222989A (ja) * 2012-04-12 2013-10-28 Dowango:Kk 映像表示システム、再生領域指定サーバ装置、端末装置、およびプログラム
JP2018511846A (ja) * 2015-03-20 2018-04-26 アリババ グループ ホウルディング リミテッド グループチャット内でプライベートチャットを提供するための方法及びシステム
JP2017121036A (ja) * 2016-09-01 2017-07-06 株式会社 ディー・エヌ・エー デジタルコンテンツを配信するシステム、方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
安藤 幸央: "MOCAP+Unityで実現する「ライブコミュニケーティングアニメ」", CG WORLD, vol. 第190巻, JPN6018022810, 10 June 2014 (2014-06-10), JP, pages 48 - 49, ISSN: 0003819164 *
長谷川 雄介: "ヴァーチャルアイドル新時代の幕開け PROJECT MariA", CG WORLD, vol. 第231巻, JPN6018022808, 10 November 2017 (2017-11-10), JP, pages 74 - 79, ISSN: 0003819163 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021158558A (ja) * 2020-03-27 2021-10-07 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
JP7473909B2 (ja) 2020-03-27 2024-04-24 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
JP7335572B1 (ja) * 2022-09-30 2023-08-30 グリー株式会社 情報処理システム、制御方法、及びサーバ装置
JP7445272B1 (ja) 2023-03-31 2024-03-07 グリー株式会社 動画処理方法、動画処理システム、及び動画処理プログラム

Also Published As

Publication number Publication date
JP6431233B1 (ja) 2018-11-28

Similar Documents

Publication Publication Date Title
JP6431233B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP6382468B1 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6420930B1 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
KR102481333B1 (ko) 액터의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
US20210409827A1 (en) Video distribution system distributing video that includes message from viewing user
JP6446154B1 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP6951394B2 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2024023273A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6847138B2 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6498832B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2023015139A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP6592214B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP6431242B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2020043578A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7279114B2 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2019198059A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP6764442B2 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2019198057A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020005238A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181101

R150 Certificate of patent or registration of utility model

Ref document number: 6431233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250