特許法第30条第2項適用 ・2021年8月6日 https://twitter.com/REALITY_app/status/1423604281257586697?s=20 ・2021年8月6日 https://reality.app/notice/page/n6ffzPPDnaww ・2021年8月6日~2021年8月16日 https://reality.app/ https://itunes.apple.com/us/app/reality/idl404176564?l=ja&ls=1&mt=8 https://play.google.com/store/apps/details?id=net.wrightflyer.le.reality
初めに、本開示の実施形態に係る情報処理システムの概要について図面を参照しながら説明する。
本開示における情報処理システムは、一以上の情報処理装置およびサーバ装置を備える情報処理システムであって、一又は複数のコンピュータプロセッサを備える。
各装置に表示される動画は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含むものとして説明を行うが、これに限られるものではなく、配信ユーザの操作に応じて生成されるキャラクタオブジェクトのアニメーションを含むものとしてもよいし、配信ユーザ本人の画像を含むものとしてもよい。また、これらキャラクタオブジェクトや配信ユーザは表示されず、配信ユーザの声のみを含むものとしてもよい。
また、動画に表示される空間は仮想空間であってもよいし、現実空間であってもよいし、これらが融合した拡張現実空間であってもよい。また、動画は、少なくとも所定の映像および配信ユーザの声を再生するカラオケ動画やゲーム実況動画のようなものであってもよいし、これらにキャラクタオブジェクトまたは配信ユーザの実画像を重畳して表示したものであってもよい。
また、現実空間に配信ユーザが含まれる場合には、当該配信ユーザの実画像に当該配信ユーザの動きに基づいて生成されるキャラクタオブジェクトを重ねて表示させてもよい。また、現実空間の撮影画像に、ギフトオブジェクト等のアニメーションを重ねて表示してもよい。
本開示の実施形態における情報処理システムは、多くの人が同時に参加してキャラクタオブジェクト(アバタ)を通じた交流や仕事、遊びなどを実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供するために用いられることができる。
本実施形態では、上記メタバースの一要素として、仮想空間の中で自分のアバタ(キャラクタオブジェクト)が自由に歩き回り、互いにコミュニケーションをとることが可能な「ワールド機能」を実現するために用いられることができる。
<システム構成>
図1に一例として示されるように、本開示に係る情報処理システム1000は、1以上の視聴ユーザ端末1100、および、これら視聴ユーザ端末1100とネットワーク1200を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)1300を含むことができる。
また、当該情報処理装置1300は、インターネットを介してサーバ装置と接続され、情報処理装置1300で行われるべき処理の一部または全部を当該サーバ装置で行うものとしてもよい。なお、かかるサーバ装置は、図2に示す情報処理装置2400としてもよい。
本明細書において、かかる情報処理システム1000による配信を、スタジオ配信と呼ぶものとする。
スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。
また、本発明の情報処理システム1000は、図2に一例として示される別の情報処理システム2000と連携することができる。図2に示される情報処理システム2000は、配信ユーザ端末2100、1以上の視聴ユーザ端末2200、および、これら配信ユーザ端末2100および視聴ユーザ端末2200とネットワーク2300を介して接続される情報処理装置(サーバ装置)2400を含むことができる。
上記の例において、配信ユーザ端末2100はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム2000による配信を、モバイル配信と呼ぶものとする。
モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザ端末2100が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。
なお、モバイル配信における配信ユーザと視聴ユーザの区別は特になく、視聴ユーザはいつでもモバイル配信が可能であり、配信ユーザは他の配信ユーザの動画を視聴する場合には視聴ユーザとなりうる。
上記情報処理システム1000および情報処理システム2000により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。
また、いずれの配信においても、モーションをキャラクタに反映させてアニメーションを生成する処理および後述するギフトを表示する処理等は、配信ユーザ端末、視聴ユーザ端末、情報処理装置および他の装置により分担して行われてもよい。
すなわち、ここでいう「配信」は、視聴ユーザの端末において動画を視聴可能とするための情報を送信することをいい、動画のレンダリングは情報処理装置1300,2400側で行われるものであってもよいし、配信ユーザ端末2100,視聴ユーザ端末1100,2200側で行われるものであってもよい。
具体的には、キャラクタオブジェクトのアニメーションを生成する(レンダリングする)端末または装置には、配信ユーザ端末または情報処理装置から、配信ユーザのフェイスモーションデータおよび音声データが送信される。また、フェイスモーションに加えてボディモーションが送信されてもよい。
本開示において、アニメーションを生成する処理は配信ユーザ端末および視聴ユーザ端末のそれぞれで行うものとして説明を行うが、これに限られるものではない。
そして、本開示における情報処理システムは、図1および図2に示した例のいずれの場合にも適用が可能である。また、「配信ユーザ」および「視聴ユーザ」の区別は必ずしも必要でないことから、本開示の実施形態における情報処理システム3000は、図3に示されるように、第一ユーザ端末100、第二ユーザ端末200、および、これら第一ユーザ端末100および第二ユーザ端末200とネットワーク300を介して接続可能なサーバ装置400を備えるものとして説明を行う。
第一ユーザ端末100は、少なくとも上述した情報処理装置1300または配信ユーザ端末2100として機能するものであり、第二ユーザ端末200は、少なくとも上述した一以上の視聴ユーザ端末1100,2200として機能するものであり、サーバ装置400は、少なくとも上述したサーバ装置または情報処理装置2400として機能するものである。
本開示において第一ユーザ端末100および第二ユーザ端末200は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ(HMD)、眼鏡型のウェアラブル端末(ARグラス等)等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置とすることができる。また、これら端末は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。
<ハードウェア構成>
ここで、図4を用いて、第一ユーザ端末100のハードウェア構成について説明する。第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力インターフェース(入出力I/F)104と、通信インターフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力I/F104と、通信I/F105との協働により、本実施形態に記載される機能、方法を実現することができる。
プロセッサ101は、ストレージ103に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
メモリ102は、ストレージ103からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ102には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
ストレージ103は、プログラムを記憶する。ストレージ103は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク300を介して、他の情報処理装置との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。
入出力I/F104は、第一ユーザ端末100に対する各種操作を入力する入力装置、及び、第一ユーザ端末100で処理された処理結果を出力する出力装置を含む。入出力I/F104は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。
入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。
入力装置は、センサユニットを含むことができる。センサユニットは、ユーザの表情の変化を示すフェイスモーション、及びセンサユニットに対するユーザの身体の相対位置の変化を示すボディモーションを検出する1以上のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニットは、公知の物を使用することができる。センサユニットの一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニットは、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDER」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニットの演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。
また、センサユニットは、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニットは、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサ、をさらに含むものであってもよい。センサユニットは、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニットの画像処理部は、本発明の情報処理システムが具備可能な制御部が備えていてもよい。
入力装置としての操作部は、ユーザ端末の種類に応じたものを用いることができる。操作部の一例は、ディスプレイと一体化されたタッチパネルや、ユーザ端末の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行することができる。なお、センサユニットがハンドトラック機能等の入力インターフェース機能も有する場合には、操作部は省略可能である。
出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。
また、本開示における第二ユーザ端末200およびサーバ装置400についても、特筆すべき場合を除き、図4と同様のハードウェア構成で構成されることができる。
続いて、本開示の実施形態における情報処理システムにより実現されるアプリケーションを起動したユーザ端末において実行可能な各種機能、および、表示される画面の遷移について図面を参照しながら説明する。
図5は、動画の配信・視聴アプリケーションを起動した際にユーザ端末に表示されるトップ画面T10を示したものである。
図5に示されるように、ユーザは、トップ画面T10においておすすめタブT11内で一覧表示されるおすすめの一以上の配信チャンネルT12のサムネイル画像の中から一の配信チャンネル(配信枠、配信番組、配信動画など)を選ぶことにより、当該一の配信チャンネルで再生される動画を視聴することができる。
あるいは、ユーザは、特定の一の配信チャンネルの固定リンクへアクセスすることにより、当該特定の一の配信チャンネルで再生される動画を視聴することができる。かかる固定リンクは、フォロー中の配信ユーザからのお知らせ、または、他のユーザから送られたシェアの通知などにより得ることができる。
このように、動画を視聴するユーザは視聴ユーザとなり、動画を視聴する端末は第二ユーザ端末200となる。
また、図5に示すように、トップ画面T10にはキャンペーンやイベントなどのお知らせの表示欄T13が表示されてもよい。このお知らせの表示欄T13は、スライド操作により他のお知らせへの表示の切り替えが可能である。
そして、トップ画面T10からは、フォロータブT14、ゲームカテゴリを表示するためのゲームタブT15、コラボ待ちの配信チャンネルを表示するためのコラボ待ちタブT16、ビギナーの配信チャンネルを表示するためのビギナータブT17が表示される。これらを選択することにより(タブを切り替えることにより)、トップ画面T10からそれぞれ別の画面へと遷移する。
なお、トップ画面T10の上部枠のサービス名表示T18および検索ボタンT19については、遷移先の画面で固定して表示されたままとしてもよい。
同様に、トップ画面T10の下部枠のホームボタンT20、メッセージボタンT21、配信準備ボタンT22、ガチャボタンT23、プロフィールボタンT24についても、遷移先の画面で固定して表示されたままとしてもよい。
図5に示したトップ画面T10等において、表示されているサムネイル画像T12を選択したユーザは、上述したように動画を視聴する視聴ユーザ(第二ユーザ)となり、配信準備ボタンT22を選択したユーザは、動画を配信する配信ユーザ(第一ユーザ)となりうる。
一例として、図5に示したトップ画面T10において配信準備ボタンT22を選択すると、図6に示すアバタ設定画面D10へと遷移する。そして、アバタ設定画面D10において配信ボタンD11を選択すると、図7に示す配信設定画面D20へと遷移する。そして、配信設定画面D20において配信開始ボタンD25を選択すると、図8に示すアバタ配信画面D30へと遷移する。
続いて、動画の配信を開始するまでのフローの詳細について説明を行う。
本開示における一又は複数のコンピュータプロセッサは、配信開始要求受付部と、配信設定部と、配信開始部とを備えることができる。
配信開始要求受付部は、配信ユーザの配信ユーザ端末から、キャラクタオブジェクトのアニメーションを含む第一の動画の配信開始要求を受け付ける。
ここでは、第一の動画は、キャラクタオブジェクトのアニメーションを含む動画のことをいう。なお、本明細書において、キャラクタオブジェクトのことを「アバタ」と呼ぶ場合がある。
そして、上記配信開始要求は、上記動画配信プラットフォームにアクセスするための専用のアプリケーション(動画の配信・視聴アプリケーション)を起動したユーザ端末(後に配信ユーザ端末2100となる)に表示される上述したトップ画面から遷移したアバタ設定画面等に配置される配信ボタンD11を選択することにより、ユーザ端末から情報処理装置2400に送信されるものとすることができる。
図6は、アバタ設定画面D10の一例を示したものである。アバタ設定画面D10には、キャラクタオブジェクトCO、配信ボタンD11、ガチャボタンD12、着替えボタンD13、フォトボタンD14等が表示されることができる。
ユーザによって着替えボタンD13が選択されると、キャラクタオブジェクトCOの目、鼻、口、髪、アクセサリ、洋服、背景などの各種アバタパーツを選択するためのクローゼット画面が展開する。
ユーザによってガチャボタンD12が選択されると、上記アバタパーツを入手するための抽選画面が展開する。
ユーザによってフォトボタンD14が選択されると、キャラクタオブジェクトの静止画を撮影するための撮影画面が展開する。
そして、ユーザによって配信ボタンD11が選択されると、情報処理装置2400(サーバ装置400)に対して配信開始要求が送信される。
配信設定部は、配信開始要求受付部が受け付けた第一の動画の配信開始要求に応じて、第一の動画の配信設定を配信ユーザ端末2100からの指定に基づいて設定する。
一例として、上記配信ボタンD11が選択されると、配信ユーザ端末2100に表示される画面は、図6に示したアバタ設定画面D10から図7に示す配信設定画面D20へと遷移する。
配信設定には、第一の動画のタイトルに関する設定、第一の動画への他のユーザの出演可否に関する設定、および、第一の動画へ出演可能な人数に関する設定、パスワードに関する設定の少なくとも一つが含まれることができる。
これらの配信設定は、それぞれ図7におけるタイトル設定欄D21、コラボ可否設定欄D22、人数設定欄D23、パスワード設定欄D24において設定が可能である。なお、図7では、さらに、誰でもコラボ可否設定欄D26、SNS投稿可否欄D27が表示されている。
第一の動画のタイトルは、許容される上限までの文字数の範囲において配信ユーザが自由に決定することができるものである。なお、配信ユーザによる入力が無い場合には「〇〇〇の配信だよ♪」等の、配信ユーザまたはキャラクタオブジェクトの名前を含む、予め設定されたタイトルが自動的に決定されるものとしてもよい。
第一の動画への他のユーザの出演可否は、配信ユーザが自由に決定することができるものである。可の場合には、他のユーザは配信ユーザに対して出演申請を行うことが可能であり、否の場合には、他のユーザは配信ユーザに対して出演申請を行うことができない。配信ユーザの動画に他のユーザが出演している状態を、本明細書では「コラボ」と呼ぶことがある。コラボについての詳細は後述する。
第一の動画へ出演可能な人数は、前述した第一の動画への他のユーザの出演が可の場合にのみ設定が可能であり、許容される上限までの人数の範囲において配信ユーザが自由に決定することができるものである。
パスワードは、前述した第一の動画への他のユーザの出演が可の場合にのみ任意で設定が可能であり、指定された桁数の数字を配信ユーザが自由に決定することができるものである。他のユーザが第一の動画への出演申請を行う際、かかるパスワードの入力が要求される。なお、誰でもコラボ可否設定欄D26がOFFの場合にのみ、パスワード設定欄D24がアクティブとなる構成としてもよい。
配信開始部は、配信設定部により設定された条件に基づいて、第一の動画に関する情報を、視聴ユーザの視聴ユーザ端末2200に配信する。
かかる配信の開始指示は、図7に示した配信開始ボタンD25の選択により送信される。
一例として、配信開始部は、配信ユーザのキャラクタオブジェクトのアニメーションを含む動画(第一の動画)に関する情報を、視聴ユーザの視聴ユーザ端末2200に配信する(アバタ配信する)。
第一の動画に関する情報には、例えばキャラクタオブジェクトの動作を示すモーション情報や、配信ユーザの音声情報や、他の視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報は、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。
そして、配信開始部は、上述した動画配信プラットフォームを介して動画をライブ配信することができる。
図8は、配信ユーザ端末2100に表示されるアバタ配信画面D30を示したものである。
アバタ配信画面D30には、キャラクタオブジェクトCOが表示される他、配信ユーザがコメントを入力するためのコメント入力ボタンD31、画面の静止画を保存するためのフォトボタンD32、後述するゲームをプレイするためのプレイ開始ボタンD33、外部サービスにより提供される動画を視聴するための外部サービス連携ボタンD34、アバタパーツを入手するためのガチャボタンD12が表示されることができる。
また、アバタ配信画面D30の上部には累計視聴者数表示D35、累計いいね数表示D36、コラボ人数表示D37、外部SNSへのシェアボタンD38、ゲスト詳細ボタンD39、ランキング表示ボタンD40、設定ボタンD41,音声のON/OFを切り替えるための音声切替ボタンD42が表示されることができる。また、配信を終了するための終了ボタンD43も表示される。
これらの表示およびボタンの詳細な説明は省略するが、設定ボタンD41の選択により、配信設定画面D20で設定した配信設定の変更を行うことが可能である。
なお、図8は、配信設定画面D20において、第一の動画への他のユーザの出演を可、第一の動画へ出演可能な人数を3人として配信を開始した例を示したものであるため、キャラクタオブジェクトCOは左下に寄った状態で表示されている。空いている空間には他のユーザのキャラクタオブジェクトが3人まで出演可能な状態である。
以上が、本開示における発明のアバタ配信を行う際の画面遷移の説明である。
続いて、配信ユーザが配信中にゲームを行う際の画面遷移について説明を行う。
本開示における一又は複数のコンピュータプロセッサは、ゲーム要求受付部と、ゲーム動画配信部と、ゲーム表示処理部とを備えることができる。
配信ユーザは、図8に示したようなアバタ配信の最中に、プレイ開始ボタンD33を選択することによりゲームのプレイ開始要求を行うことが可能である。
なお、プレイ開始ボタンD33の選択により表示されるゲームは、本開示における情報処理システムにより実現されるアプリケーションに実装される専用のゲームであり、外部サービスにより提供される汎用的なゲームとは異なるものとすることができる。よって、本開示におけるゲーム配信は、外部サービスにより提供される汎用的なゲームのプレイ動画を配信ユーザの実況と共に配信するものとは区別されるものとしてもよい。
あるいは、プレイ開始要求は、配信ユーザの配信ユーザ端末2100に表示される所定の画面に配置されるプレイ開始ボタンを選択することにより、配信ユーザ端末2100から情報処理装置2400に送信されるものとすることができる。
図9は、上記所定の画面として、プレイ開始ボタンG11が配置された画面G10の一例を示したものである。図9に示す画面G10は、本開示における情報処理システムにより実現されるアプリケーションを起動したユーザ端末に表示されるトップ画面T10(図5)から、ゲームタブT15の選択により遷移してきた画面である。
画面G10には、少なくとも、所定のゲームのプレイ開始要求を送信可能なプレイ開始ボタンG11が表示される。
そして、ゲーム要求受付部が所定のゲームのプレイ開始要求を受け付けた場合、ゲーム動画配信部は、第二の動画に関する情報を視聴ユーザ端末に配信する。
ここで、第二の動画は、所定のゲームのプレイ動画である。本明細書において、かかる動画が視聴ユーザ端末2200の画面に表示されるよう配信を行うことを「ゲーム配信」と呼ぶ。
また、ユーザは、本開示の発明により実現されるアプリケーションの起動後、ゲーム一覧画面およびゲーム詳細画面に配置されるプレイ開始オブジェクトを選択することにより、配信ユーザとして、第二の動画の配信開始要求を情報処理装置2400に送信することができる。
これらゲーム一覧画面またはゲーム詳細画面は、次に詳説する第一の画面である。
すなわち、ゲーム表示処理部は、配信開始要求を送信可能な配信開始オブジェクト、所定のゲームのプレイ開始要求を送信可能なプレイ開始オブジェクト、および、所定のゲームのプレイ動画を配信中の動画のサムネイル画像を含む第一の画面の表示処理を行う。
図9において示した画面G10は、当該第一の画面のうちゲーム一覧画面に相当する。ゲーム一覧画面である第一の画面は、トップ画面T10から、ゲームタブT15の選択により遷移してきた画面である。
かかる第一の画面には、配信開始オブジェクトとしての配信準備ボタンT22、プレイ開始オブジェクトとしてのプレイ開始ボタンG11、および、動画の配信チャンネルを示すサムネイル画像が含まれる。
第一の画面には、プレイ可能な複数のゲームごとに、プレイ開始ボタンG11、ゲームアイコンG12、ゲーム名G13、当該ゲームの配信チャンネルの総視聴者数G14、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG15がそれぞれ表示されている。
なお、ここで表示される配信リストG15に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG15のサムネイル画像は横スクロールにより表示範囲の変更が可能であるものとする。
また、このゲーム一覧画面に表示されるゲームは、以下の優先度の上位10タイトルを読み込むものとする。一例として、優先度は、ゲーム配信開始日時から48時間以内、視聴ユーザが30日以内で最後にプレイした日付の新しい順、期間IDの優先度の高い順、期間IDの降順、により定められている。
この配信リストG15は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。
そして、図10は、第一の画面のうちゲーム詳細画面に相当する。ゲーム詳細画面である第一の画面は、図9に示したゲーム一覧画面に表示されたゲームアイコンG12またはゲーム名G13を選択することにより遷移してきた画面でG20である。
かかる第一の画面には、配信開始オブジェクトである配信準備ボタンT22、プレイ開始オブジェクトであるプレイ開始ボタンG21、および、動画の配信チャンネルを示すサムネイル画像が含まれる。
また、第一の画面には、ゲームアイコンG22、ゲーム名G23、当該ゲームの配信チャンネルの総視聴者数G24、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG25がそれぞれ表示されている。
なお、ここで表示される配信リストG25に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG25のサムネイル画像は縦スクロールにより表示範囲の変更が可能であるものとする。
この配信リストG25は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。
上述したように、配信開始オブジェクトまたはプレイ開始オブジェクトを選択したユーザは、配信開始要求またはプレイ開始要求を行う配信ユーザとなる。
また、サムネイル画像を選択したユーザは、第二の動画を視聴する視聴ユーザとなる。
また、第一の画面は、スクロール操作が不可能な第一の領域と、スクロール操作が可能な第二の領域とを含む。
ここでいう第一の画面は図10に示す第一の画面とする。そして、第一の画面は、第一の領域R1と第二の領域R2とを含む。具体的には、第一の領域R1には、ゲームタイトルが表示され、第二の領域R2には上述したプレイ開始ボタンG21、ゲームアイコンG22、ゲーム名G23、視聴者数G24、そして配信リストG25が表示されている。
そして、第一の領域R1はスクロール操作が不可能な、表示画面上で固定表示される部分であり、第二の領域R2はユーザによってスクロール操作が可能な部分である。第二の領域R2をスクロールすることにより、ユーザは画面外に隠れたサムネイル画像を確認することができるようになる。
ところが、第二の領域のスクロールによってプレイ開始ボタンG21が画面外へ隠れてしまうおそれがあるため、本開示における表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクト(プレイ開始ボタンG21)の表示状態に応じて、第一の領域R1にプレイ開始オブジェクト(プレイ開始ボタンG21)を表示させることができる。
一例として、図10ではプレイ開始ボタンG21は第二の領域R2に表示されるが、図11では第一の領域R1に表示される。すなわち、プレイ開始ボタンG21の一部またはすべてが第二の領域R2に表示されなくなると、プレイ開始ボタンG21が第一の領域に出現するようにしたものである。
また、ゲーム表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクトの表示状態に応じて、第一の領域R1にプレイ開始オブジェクトを段階的に表示させてもよい。
かかる表現は、第二の領域R2のスクロール量に合わせてプレイ開始オブジェクトの透明度を変化させることにより実現することができる。
一例として、スクロール量(単位はピクセル)0~50をボタンの透明度0.0(完全に透明)~1.0(完全に不透明)に対応させる。すると、初期表示状態ではオブジェクトは完全に透明なので見えず、50ピクセル以上スクロールするとオブジェクトが完全に表示されるようになる。その間(0~50)はオブジェクトの透明度を線形に変化させるのが好ましい。なお、スクロール量の単位は論理ピクセルであって、ディスプレイの実際のピクセルとは異なってもよい。
また、ゲーム要求受付部は、ゲーム動画配信部による第二の動画に関する情報の配信後、配信ユーザ端末100からの所定のゲームのプレイ終了要求を受け付け可能であるものとする。
プレイ終了要求は、ゲーム画面に配置された終了ボタンの選択により送信することができる。
そして、ゲーム要求受付部が所定のゲームのプレイ終了要求を受け付けた場合、動画配信部は、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信することができる。
すなわち、ここで配信されるのは第一の動画の情報の一部ではなく、第一の動画の情報の全てである。
そして、動画配信部が、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信した場合に、視聴ユーザ端末2200に表示されるのは、第一の動画であるものとする。
続いて、動画の視聴を開始するためのフローについて説明を行う。
本開示における一または複数のプロセッサは、さらに、視聴受付部を備えることができる。
視聴受付部は、ユーザからの動画の視聴要求を受け付ける。
上記動画配信部は、視聴要求に応じて、ユーザの情報処理端末に、動画情報として映像および音声に関する情報を配信する。
図12は、視聴ユーザ端末2200に表示されるアバタ動画の視聴画面V10を示した例である。
視聴ユーザは、コメント投稿欄V11にテキストの入力を行い、送信ボタンV12を押すことでコメントを投稿することができる。
また、ギフトボタンV13を押すことで視聴ユーザにはギフト一覧(図13の画面V30)が表示され、選択により指定したギフトの表示要求を送信することができる。
このとき、本開示における一又は複数のプロセッサは、判定部を備えることができる。判定部は、視聴ユーザ端末2200からギフトの表示要求があったか否かを判定する。
表示要求には、ギフトオブジェクト情報が含まれることができる。ギフトオブジェクト情報は、少なくともギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。
また、図13に示されるように、ギフトは分類(無料(有料)ギフト、アクセサリ、応援グッズ、アピール、バラエティ等)ごとに分けて表示されることができる。
ここで、有料ギフトとは、視聴ユーザが購入したマイコインの消費により購入可能なギフトであり、無料ギフトとは、視聴ユーザが無料で入手したマイポイントの消費または消費なしで入手可能なギフトである。
なお、本出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。したがって、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本件出願に記載された技術を理解することも可能である。
また、視聴ユーザは、いいねボタンV14を押すことで好意を示す評価を投稿することができる。なお、いいねボタンV14に加えて/代えて、否定的な評価やその他の感情を投稿するボタンを表示することも可能である。
また、配信ユーザが配信設定で他のユーザの出演可否を可に設定している場合、コラボ申請ボタンV15を選択することで動画への出演申請を送信することができる。
また、視聴ユーザが未だフォローしていない配信ユーザが配信する動画の画面には、視聴ユーザが配信ユーザをフォローするためのフォローボタンV16が表示される。このフォローボタンは、視聴ユーザが既にフォローしている配信ユーザが配信する動画の画面では、フォロー解除ボタンとして機能する。
なお、この「フォロー」は視聴ユーザから視聴ユーザへ、配信ユーザから視聴ユーザへ、配信ユーザから配信ユーザへ行われるものであってもよい。ただし、フォローは一方向のみの関連付けとして管理され、逆方向の関連付けはフォロワーとして別に管理されるものとする。
また、画面の静止画を保存するためのフォトボタンV25も表示されることができる。
また、視聴画面V10には、応援ランキング表示ボタンV17、シェアボタンV18、ランキング表示ボタンV19も表示される。
応援ランキングは、配信ユーザを応援している視聴ユーザのランキングを表示するものであり、ランキングはギフトの額(ポイント/コイン)等に応じて算出されることができる。
また、動画のシェアに関し、視聴ユーザはシェアボタンV18を押すことでシェア可能なSNS(ソーシャル・ネットワーキング・サービス)一覧を確認し、選択により指定したSNSの指定した場所に固定リンクを送信することができる。
また、コラボ申請ボタンV15を押すことで配信ユーザに対してコラボ配信をリクエストすることができる。コラボ配信とは、配信ユーザの配信動画に視聴ユーザのキャラクタオブジェクトを登場させることをいう。
視聴画面V10の上部には、配信ユーザアイコンV21、配信ユーザ名(キャラクタオブジェクト名)V22、累計視聴者数表示V23、累計いいね数表示V24が表示されることができる。
また、視聴終了ボタンV20を選択すると、視聴を終了するための画面が展開し、視聴終了要求を送信することができるようになる。
かかる視聴を終了するための画面について、詳細に説明する。かかる画面は、「小窓音声配信」と呼ばれ、動画の映像は表示させに音声のみを再生する態様での視聴を行うためのものである。
上記視聴終了ボタンV20の選択は、動画の視聴終了要求として視聴受付部によって受け付けられる。
このとき、動画配信部は、視聴終了要求に応じて、映像に関する情報の配信を終了する一方で、音声に関する情報の配信は終了させない。
そして、ユーザ端末において、映像および音声に関する情報が配信されている場合には、ユーザ端末には映像が主画面に表示され、音声に関する情報のみが配信されている場合には、ユーザ端末には映像は表示されず動画を視聴中であることを示す副画面が表示されることを特徴とする。
図14は、上記副画面V51が表示された画面V50のイメージを示したものである。
この副画面V51が表示される際、バックに表示される主画面は動画を視聴する前の画面へと遷移する。例えば、おすすめタブから視聴枠へ移動した場合にはおすすめタブの表示へと戻り、フォロータブから視聴枠へ移動した場合にはフォロータブへと遷移する。
この副画面V51が表示されている場合、主画面での操作が可能となり、他の画面への遷移が可能となる。
副画面V51には、プロフィール画像、名前、タイトルおよび、音声が流れていることが視覚的に識別可能な音声アイコンが表示される。
そして、副画面V51に表示された終了アイコンV52の選択により、視聴を完全に終了させることができる。
なお、映像の表示の終了については、サーバ装置から情報は送信するものの端末側で表示をしないものとしてもよいし、サーバ装置から情報の送信自体を停止するものとしてもよい。
かかる構成によれば、音声のみ聞きながら他の配信を探したり、他のユーザとのチャットを楽しんだりすることができるようになる。
続いて、配信ユーザの動画に他のユーザが出演する「コラボ」について説明する。
上述したとおり、視聴ユーザは、図12に示すコラボ申請ボタンV15を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信することができる。
本開示における一又は複数のコンピュータプロセッサが備えるコラボアバタ表示部は、受付部が受け付けた参加要求に応じて、当該参加要求を行った視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトを動画に表示させる。
図15は、一例として、ホストユーザのキャラクタオブジェクトである第1のアバタA1が表示された動画に、ゲストユーザのキャラクタオブジェクトである第2のアバタA2が参加している場合の視聴または配信画面を示したものである。なお、図15ではアバタ以外のオブジェクトの表示については省略されている。
また、図16に示すように、さらに、別の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第3のアバタA3が動画に参加してもよい。なお、図16では第3のアバタA3が、第1のアバタA1および第2のアバタA2の後方に配置されているが、3人が横一列に並ぶように配置されてもよい。また、アバタの配置位置は配信ユーザが指定できるようにしてもよい。
図17は、図5に示したトップ画面のフォロータブの選択により表示される、相互フォロー関係を有するユーザの一覧画面T30を示したものである。相互フォローとは、互いに相手のフォロワーとなっている関係をいう。
この一覧画面T30には、相互フォロー関係を有するユーザのプロフィール画像および名前が表示されている。
図17に示されるように、一覧画面T30には、相互フォロー関係を有するユーザの各々に対して第一のオブジェクトT31が表示されるものとする。また、第一のオブジェクトT31とともに、チャットオブジェクトT32が表示されるものとしてもよい。このチャットオブジェクトを選択することにより、第二ユーザとの個別のチャット画面へと遷移することができる。
第一のオブジェクトT31は、当該第一のオブジェクトT31に関連付けられたユーザの端末に対して、所定の通知を送信する。
所定の通知は、一例として、呼び出し通知とすることができる。
<第一の実施形態>
続いて、本開示における第一の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
本開示の第一の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図18に示されるように、送信部411、受付部412、第一の動画生成部413、第二の動画生成部414および動画切替部415を備える。
ここでは、上記送信部411、受付部412、第一の動画生成部413、第二の動画生成部414および動画切替部415はいずれもサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。
送信部411は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。
動画は、図19に一例として示されるように、第一ユーザのキャラクタオブジェクトCOを含む動画とすることができる。
動画に関する情報は、第二ユーザ端末200において動画を視聴可能とするための情報であればよく、動画のレンダリングはサーバ装置400または第一ユーザ端末100で行われるものであってもよいし、第二ユーザ端末200において行われるものであってもよい。
動画に含まれるキャラクタオブジェクトCOの少なくとも顔部には、第一ユーザ端末100が備えるカメラ(ここでは一例としてインカメラ)で撮影された第一ユーザの顔の動きが反映されるものとしてもよい。
受付部412は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。
第一のオブジェクトは、一例として、上述したギフトオブジェクトとすることができる。図13および図20に示されるように、第二ユーザは、第二ユーザ端末200に表示されたギフト一覧画面V30から所望のギフトオブジェクトの表示要求を送信することができる。図中に示されるポイント(P,pt)は、ユーザが本システムにおける報酬やイベントなどで無料で入手可能なものであり、図中に示されるコイン(C)は、ユーザが購入することにより有料で入手可能なものである。
第一の動画生成部413は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。
上記第一情報は、動画の内容によって異なるが、一例として上述したような配信ユーザのキャラクタオブジェクトが出演する動画の場合には、キャラクタオブジェクトの動作を示すモーション情報、配信ユーザの音声情報、視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報には、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とが含まれるものとする。
図19は、第一ユーザ端末100および/または第二ユーザ端末200の表示部に表示される第一の動画を表示した画面V10のイメージを示したものである。図19に示される画面V10には、少なくともキャラクタオブジェクトCOおよび第一のオブジェクトG1が含まれる。なお、図19では省略されているが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。
第二の動画生成部414は、第二の動画として、第一のオブジェクトG1とは異なる第二のオブジェクトS1を仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトCOを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。
第二のオブジェクトS1は、第一のオブジェクトG1のように第二ユーザ端末200からの表示要求に応じて表示されるものではなく、サーバ装置400(システム側)で表示位置およびタイミングを制御するものである。
図21は、第一ユーザ端末100および/または第二ユーザ端末200の表示部に表示される第二の動画を表示した画面V40のイメージを示したものである。図21に示される画面V40には、少なくともキャラクタオブジェクトCO、第二のオブジェクトS1が含まれる。なお、図21では省略されているが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。
ここで、本開示における仮想空間の広がりのイメージについて図22を参照しながら詳細に説明する。
図22に一例として示されるように、本実施形態における仮想空間は、円盤状の島(ワールド)が宙に浮いているように配置されている。この島は、タワー状のケーキの天地を逆にした態様のオブジェクトであり、円盤状の地面に様々なオブジェクトが配置される構成とすることができる。なお、この島や地面は一例として示されたものであり、これらの表示態様は特に限定されない。
オブジェクトとしては、少なくとも、上述したキャラクタオブジェクトCO、第一のオブジェクトG1および第二のオブジェクトS1が表示されることができる。
このように、第二の動画のコンテンツとして提供されるのは「ワールド」であり、かかる「ワールド」は上述した「ワールド機能」を実行することにより展開する。
図23は、図22に示した地面の上面図であって、上記の構成における第一の領域と第二の領域を説明するためのイメージ図である。なお、各オブジェクトは見易さのために正面視の状態で描かれている。
図23に示されるように、キャラクタオブジェクトCOが移動可能な領域は、仮想空間における第一の領域R10と第二の領域R20とすることができる。
第一の領域R10と第二の領域R20とは連続的な領域であればよく、これらの位置関係および形状については特に限定されない。
一例として、第一の動画は、図24に示す仮想カメラVC1の位置から第一の領域R10を撮影した画像として生成される(図19)。なお、この仮想カメラVC1の位置および向き等は、第一ユーザの操作によって所定範囲内で変更が可能であるものとする。
また、一例として、第二の動画は、図25に示す仮想カメラVC2の位置から第一の領域R10および/または第二の領域R20を撮影した画像として生成される(図21)。なお、この仮想カメラVC2の位置および向き等は、第一ユーザの操作によって変更が可能であるが、基本的にはキャラクタオブジェクトCOの移動に追従して仮想カメラは移動するものとする。仮想カメラVC2の操作手法の詳細については後述する。
このように、第一の動画および第二の動画は、同一の仮想空間(ワールド)内で撮影された動画とすることができる。あるいは、第一の動画および第二の動画は、別の仮想空間で撮影された動画とすることもできる。この場合には、第二の動画を上記ワールドで撮影された動画とする。
また、仮想空間に設けられた第一ユーザのプライベートスペースである自分の部屋を第一の領域、パブリックスペースである部屋の外を第二の領域とし、これらの領域を行き来できるような構成としてもよい。
そして、動画切替部415は、第一ユーザの第一ユーザ端末100からの指示に応じて、第二ユーザ端末200に表示させる動画を、第一の動画と第二の動画とで切り替えることを特徴とする。
上記指示は、第一ユーザ端末100に表示された第一の動画および第二の動画に表示された所定の操作UIに対する操作によりサーバ装置400に送信されるものとすることができる。
一例として、第一の動画から第二の動画へ/第二の動画から第一の動画への切り替えは、第一の動画および第二の動画に表示される切替ボタンの選択により行うことができる。
第二の動画としてのワールド機能が上述したゲームの一つとして提供される場合、上述したゲーム配信の開始および終了手順を適用することができる。
具体的には、第一の動画から第二の動画への切り替えは、第一の動画に表示されたゲームのプレイ開始ボタンD33(図8)または当該プレイ開始ボタンD33の選択により遷移した先の画面において表示されるゲーム一覧の中から選択した一のゲームのプレイボタンG11,G21(図9,図10)を選択することにより行うことができる。
また、第二の動画から第一の動画への切り替えは、第二の動画に表示されたプレイ終了ボタンV41(図21等)を選択することにより行うことができる。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
具体的には、まず、第一の動画および第二の動画の2種類の動画の存在により、動画の興趣性が向上する。
特に、第二の動画の舞台となる仮想空間「ワールド」には、テーマに沿って魅力的な第二のオブジェクトが配置されており、キャラクタオブジェクトは自由に移動して好きな場所・好きな視点で動画を生成することができるため、第一の動画よりもユーザの個性を出した動画を生成することができるようになる。
また、上記ワールドを探索している動画を生成することで、トークやコメントにおける話題作りが容易になる。
また、これら2種類の動画を切り替え可能とすることにより、必然的に配信時間も長くすることができるようになる。
このように、第一の動画および第二の動画の2種類の動画の存在、および、切替によって、動画のコンテンツとしての質が従来よりも向上する。
また、動画のコンテンツとしての質が向上することにより、動画を視聴するユーザの視聴意欲も向上し、視聴するユーザの数が増加することに伴って配信するユーザの配信意欲も向上することになる。
そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザとの交流、さらには、配信ユーザ同士、視聴ユーザ同士の交流が活性化することにつながる。
なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することができる。
そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(第一ユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、本開示の情報処理システムによれば、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。
続いて、第一の実施形態における他の適用例について説明を行う。
動画切替部415により動画が第一の動画から第二の動画へ切り替えられた場合、第二の動画生成部414は、既に表示されている第一のオブジェクトG1の第一の領域への表示は維持したまま、第二情報を生成することができる。
具体的には、図19に示された第一の動画の画面V10に表示された第一のオブジェクトG1(りんごオブジェクト)は、図21に示された第二の動画の画面V40へと変化しても引き続き表示される。
動画切替部415により動画が第二の動画から第一の動画へ切り替えられた場合、第一の動画生成部413は、既に表示されている第一のオブジェクトG1の第一の領域への表示は維持したまま、第一情報を生成することができる。
具体的には、図21に示された第二の動画の画面V40に表示された第一のオブジェクトG1(りんごオブジェクト)は、図19に示された第一の動画の画面V10へと変化しても引き続き表示される。このとき、第一の領域へ表示されていた第一のオブジェクトG1のみならず、第二の領域へ表示されていた第一のオブジェクトG1についても表示位置を変更して引き続き表示される構成とすることができる。
なお、第一のオブジェクトG1の表示は、第一のオブジェクトG1毎に設定された表示時間に基づいて制御されるため、表示開始から表示時間の経過により第一のオブジェクトG1の表示は終了する。第一のオブジェクトG1の表示要求は、第一の動画の表示中でも第二の動画の表示中でも行うことが可能であり、いずれの場合であっても、途中の動画の切り替えの有無にかかわらず、第一のオブジェクトG1の表示は表示時間の経過まで継続する。言い換えると、配信ユーザの操作(行為)によって視聴ユーザが投じたギフトの表示時間が変更されることがないため、コイン等を消費することによりギフトを投じた視聴ユーザに不満を生じさせない。
第二の動画生成部414は、所定条件に基づいて少なくとも第二のオブジェクトS1を別の第二のオブジェクトS1に変更することができる。
図21および図22に示した例では、第二のオブジェクトS1は一例として犬オブジェクト、かぼちゃオブジェクト、タワーケーキオブジェクト等であるが、これら第二のオブジェクトS1は、一例として図26および図27に示すように少なくとも犬オブジェクトとかぼちゃオブジェクトをクラゲオブジェクトと魚オブジェクトに変更することができる。また、タワーケーキオブジェクトのように、変更されない第二のオブジェクトS1があってもよい。本開示においてかかる第二のオブジェクトS1が変更されることを、テーマの変更と呼ぶ。
所定条件は、予定時刻の到来、予定時間の経過、または、第一ユーザまたは他のユーザからの変更指示を受信したこととすることができる。
所定条件が予定時刻の到来である場合、第二の動画生成部414は、動画の配信開始時間に関わらず、予定時刻が到来した際に第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、予定時刻は10時20分、10時40分、11時00分等の一定間隔の時刻とすることができる。また、予定時刻は、朝(6時00分)、昼(12時00分)、夜(18時00分)とすることもできる。なお、この時間は現実の日の出日の入りの時間に応じて変更されるものとしてもよい。
また、予定時刻の到来には予定日時の到来も含まれる。この場合、第二の動画生成部414は、動画の配信開始時間に関わらず、予定日時が到来した際に第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、予定日時は10月31日0時00分(ハロウィン)、12月25日0時00分(クリスマス)、1月1日0時00分(元旦)等のイベント開始の日時とすることができる。
所定条件が予定時間の経過である場合、第二の動画生成部414は、動画の配信開始時間から予定時間が経過した際に第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、予定時間は配信開始から20分、40分、60分等の一定間隔の時間とすることができる。
所定条件が第一ユーザまたは他のユーザからの変更指示を受信したことである場合、第二の動画生成部414は、動画の配信中に第一ユーザまたは他のユーザからの変更指示を受信した際に、第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、変更指示は、画面に表示された変更指示オブジェクトの選択により行われることができる。なお、ここでいう他のユーザとは、視聴ユーザのみならず、後述するゲストユーザも含まれる。
なお、所定条件が、予定時刻の到来や予定時間の経過である場合、予定時刻や第二のオブジェクトが変更されるまでの時間を動画内に表示してもよい。
また、第二の動画生成部414は、第二のオブジェクトS2を別の第二のオブジェクトS2に変更した場合であっても、既に表示されている第一のオブジェクトG1の第一の領域または第二の領域への表示は維持したまま、第二情報を生成することができる。
具体的には、図21に示された第二の動画の画面V40に表示された第一のオブジェクトG1(りんごオブジェクト)は、図26に示された第二の動画の画面V40へと変化しても引き続き表示される。
なお、第一のオブジェクトG1の表示は、第一のオブジェクトG1毎に設定された表示時間に基づいて制御されるため、表示開始から表示時間の経過により第一のオブジェクトG1の表示は終了する。第一のオブジェクトG1の表示は、第二のオブジェクトS1の変更の有無にかかわらず、表示時間の経過まで継続する。
また、図28に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、効果発生部416を備えることができる。
効果発生部416は、既に表示されている第一のオブジェクトG1または新たに表示された第一のオブジェクトG1が、第二のオブジェクトS1と特定の関係を有する場合に、所定の効果を発生させる。
具体的には、予め所定の記憶部に記憶された組み合わせデータに基づいて、上記特定の関係の有無が判定される。一例として、第一のオブジェクトおよび第二のオブジェクトの各々には、識別番号および/または属性情報が対応付けられており、これらが一致または関連付けられている場合に、特定の関係を有すると判定される。
属性情報とは、例えば、季節(夏、冬等)に関する属性、イベント(ハロウィン、クリスマス、年末年始等)に関する属性、ロケーション(海、宇宙、空等)に関する属性などである。
上記判定のタイミングは、第一のオブジェクトの表示要求を受信したタイミング、第一のオブジェクトが表示されたタイミング、または、第二のオブジェクトが別の第二のオブジェクトに変更されたタイミングとすることができる。
所定の効果は、例えば、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは、例えば、紙吹雪オブジェクト、クラッカーオブジェクト、くす玉オブジェクトなどの演出オブジェクトとすることができる。
また、図28に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、移動操作受付部417と、仮想カメラ制御部418とを備えることができる。
移動操作受付部417は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。移動操作の詳細については後述する。
仮想カメラ制御部418は、仮想空間内を撮影する仮想カメラの動作を制御する。動作制御の詳細については後述する。
また、本開示の実施形態において、第一ユーザのキャラクタオブジェクトの顔部の動きは、第一ユーザ端末100のインカメラによって撮影された第一ユーザの顔部の動きに基づいて生成されることができる。
そして、第一の動画生成部413は、第一ユーザのキャラクタオブジェクトの顔部の動きを、第一ユーザの顔部の動きと反転した反転状態で生成することができる。
具体的には、第一ユーザが右目でウインクをすると、第一ユーザのキャラクタオブジェクトは左目でウインクをする。第一ユーザは第一ユーザ端末100に表示されたキャラクタオブジェクトの顔を見ながら配信を行うため、反転状態(ミラー表示)にすることで第一ユーザは鏡を見ているように直感的な感覚(操作)で配信を行うことができるようになる。なお、左右を反転しない非反転状態(すなわち、第一ユーザが右目でウインクしたときにキャラクタオブジェクトが右目でウインクする状態)では違和感が生じ、直感的な感覚で操作をすることが難しい。
そして、第二の動画生成部414は、第一ユーザのキャラクタオブジェクトと仮想カメラとの位置関係に応じて、第一ユーザのキャラクタオブジェクトの顔部の動きを、反転状態または非反転状態で生成することができる。
一例として、仮想カメラが第一ユーザのキャラクタオブジェクトの正面範囲の位置の場合(一例としてキャラクタオブジェクトの正面から左右90度の範囲)には、キャラクタオブジェクトの顔部の動きを反転状態で生成し、仮想カメラが第一ユーザのキャラクタの正面範囲から外れる位置の場合(一例としてキャラクタオブジェクトの正面から左右90度を超える範囲)には、キャラクタオブジェクトの顔部の動きを非反転状態で生成する。
具体的には、仮想カメラが第一ユーザのキャラクタオブジェクトの正面範囲の位置と判定される場合には、第一ユーザが右目でウインクをすると、第一ユーザのキャラクタオブジェクトは左目でウインクをする。逆に、仮想カメラが第一ユーザのキャラクタオブジェクトの正面範囲を超える位置と判定される場合には、第一ユーザが右目でウインクをすると、第一ユーザのキャラクタオブジェクトは右目でウインクをする。
上記例では顔部の動きについて説明を行ったが、頭部や腕部の動きについても同様の制御方法とすることができる。
これによれば、仮想カメラとキャラクタオブジェクトの位置関係によって生じる表示上の違和感を解消することができる。
なお、上記反転状態および非反転状態は第一ユーザの指示によって切り替えられるものとしてもよい。
また、第二の動画生成部414は、第一ユーザのキャラクタオブジェクトが移動可能な領域を超えて移動した場合、仮想空間内の他の位置から再出現させることができる。
仮想空間が図22および図27に示したような空間である場合、円盤状の地面の端を超えてキャラクタオブジェクトが移動した場合、キャラクタオブジェクトをタワーの下へ落下させ、円盤状の地面の中央上部から降ってくるように再出現させることができる。再出現の位置を中央とすることにより、キャラクタオブジェクトがワールド内のどの方向に行くのにも都合がよい。また、ワールド内で道に迷った場合にも、基準となる中央位置へ戻ることができる。
以上、第一の実施形態の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
<第二の実施形態>
続いて、本開示における第二の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
本開示の第二の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図29に示されるように、送信部421、受付部422、第一の動画生成部423、第二の動画生成部424を備える。
ここでは、上記送信部421、受付部422、第一の動画生成部423、第二の動画生成部424はいずれもサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。
送信部421は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。送信部421は、上述した送信部411と同様の構成とすることができる。
受付部422は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。受付部422は、上述した受付部422と同様の構成とすることができる。
第一の動画生成部423は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。第一の動画生成部423は、上述した第一の動画生成部413と同様の構成とすることができる。
第二の動画生成部424は、第二の動画として、第一のオブジェクトG1とは異なる第二のオブジェクトS1を仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトCOを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。第二の動画生成部424は、上述した第二の動画生成部424と同様の構成とすることができる。
そして、第二の動画生成部440は、第一のオブジェクトG1に関連付けられた配置位置情報に基づいて、当該第一のオブジェクトG1を第一の領域R10の所定位置(図23等)、または、第一ユーザのキャラクタオブジェクトCOに関連付けられた位置に表示させることを特徴とする。
第一のオブジェクトG1の第一のオブジェクト情報には、ギフトオブジェクトについての説明個所に記載したとおり、第一のオブジェクトG1が表示される位置を示す位置情報(配置位置情報)が含まれる。
第一のオブジェクトG1の配置位置情報には、一例として、第一の領域R10の中の所定位置(所定領域)の座標、または、第一ユーザのキャラクタオブジェクトCOの部位が定められているものとする。
本開示において、前者の配置位置情報を有する第一のオブジェクトG1を非装着オブジェクトと呼び、後者の配置位置情報を有する第一のオブジェクトG1を装着オブジェクトと呼ぶものとする。
なお、第一のオブジェクトG1の出現位置(表示開始位置)は上記配置位置とは異なるものとしてもよい。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
具体的には、まず、第一の動画および第二の動画の2種類の動画の存在により、動画の興趣性が向上する。
特に、第二の動画の舞台となる仮想空間「ワールド」には、テーマに沿って魅力的な第二のオブジェクトが配置されており、キャラクタオブジェクトは自由に移動して好きな場所・好きな視点で動画を生成することができるため、第一の動画よりもユーザの個性を出した動画を生成することができるようになる。
また、上記ワールドを探索している動画を生成することで、トークやコメントにおける話題作りが容易になる。
また、第一の動画だけでなく第二の動画にも第一のオブジェクトを表示可能とすることにより、視聴ユーザのギフティング意欲を不必要に削ぐことなく第一の動画および第二の動画を提供することができるようになる。
このように、第一の動画および第二の動画の2種類の動画の存在、および、ギフティングによって、動画のコンテンツとしての質が従来よりも向上する。
また、動画のコンテンツとしての質が向上することにより、動画を視聴するユーザの視聴意欲も向上し、視聴するユーザの数が増加することに伴って配信するユーザの配信意欲も向上することになる。
そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザとの交流、さらには、配信ユーザ同士、視聴ユーザ同士の交流が活性化することにつながる。
なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することができる。
そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(一のユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、本開示の情報処理システムによれば、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。
第二の動画生成部424は、第一のオブジェクトG1を表示する際に、第二の動画に第一のオブジェクトG1が表示されている旨のシステムコメントを表示させることができる。
あるいは、第二の動画生成部424は、第一のオブジェクトG1の表示要求を受信した際に、第二の動画に第一のオブジェクトG1の表示要求がなされた旨(ギフティングを受けた旨)のシステムコメントを表示させることができる。
図30および図31は、第一ユーザ端末100および/または第二ユーザ端末200に表示される第二の動画を表示した画面V40に、第一ユーザ、第二ユーザおよび/またはシステム側からのコメントが表示されている様子を示したものである。なお、図30および図31では省略されているが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。
図30および図31に示す例では、第一のオブジェクトG1(バナナオブジェクト)が表示されている旨のシステムコメントとして「〇〇〇さん バナナ×3をあげました」というコメントが表示されている。
なお、システムコメントは第一ユーザおよび第二ユーザからのコメントとは異なる態様で表示されるものとしてもよい。例えば、第一のオブジェクトG1が表示されている旨のシステムコメントとして所定のマーク(図31の「出たよ!」という吹き出しマーク)が表示される構成としてもよい。
そして、本開示の実施形態において、第一ユーザのキャラクタオブジェクトCOは第一の領域R10および第二の領域R20を移動可能である。例えば図31に示されるように、第一ユーザのキャラクタオブジェクトCOが第一の領域R10から遠く離れた第二の領域R20を移動中に、第一のオブジェクトG1が第一の領域R10に配置された場合、画面には第一のオブジェクトG1が表示されない可能性があるため、かかるシステムコメントの表示は有益である。
また、図32に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、移動操作受付部425と、仮想カメラ制御部426とを備えることができる。
移動操作受付部425は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。移動操作の詳細については後述する。
仮想カメラ制御部426は、仮想空間内を撮影する仮想カメラの動作を制御する。動作制御の詳細については後述する。
仮想カメラ制御部426は、第一のオブジェクトG1が第一の領域R10の所定位置に表示される際に、所定位置と仮想カメラとの位置関係に応じて、仮想カメラの動作を制御することができる。
一例として、仮想カメラ制御部426は、図33に示されるように、第一の領域R10の所定位置に表示された第一のオブジェクトG1が撮影範囲に入るように仮想カメラの向きおよび位置を調整する。これは、仮想カメラが後述するようにユーザ操作中であったとしても、自動的に適用される。
このとき、仮想カメラは、撮影範囲に第一のオブジェクトG1とキャラクタオブジェクトCOとの両方が収まるように制御される。
一方で、仮想カメラ制御部426は、所定位置と仮想カメラとの位置関係から、第一のオブジェクトとキャラクタオブジェクトとを同画面に含めることができない場合、第一のオブジェクトを画面に含めるよう仮想カメラの動作を制御することができる。
一例として、仮想カメラ制御部426は、図34に示されるように、第一の領域R10の所定位置に表示された第一のオブジェクトG1のみが撮影範囲に入るように仮想カメラの向きおよび位置を調整する。これは、仮想カメラが後述するようにユーザ操作中であったとしても、自動的に適用される。
また、第二の動画生成部224は、第一のオブジェクトG1を第一の領域R10の所定位置に表示する際に、キャラクタオブジェクトCOの仮想空間内の位置に応じて、仮想空間内に第一のオブジェクトの位置を示す目印オブジェクトM1を表示することができる。
一例として、第二の動画生成部424は、図35に示されるように、仮想カメラが現在いる位置および向きに関わらず、第一の領域R10の所定位置に表示された第一のオブジェクト(の方向)を指し示すように、目印オブジェクトM1を表示する。
また、第二の動画生成部424は、第一のオブジェクトG1に関連付けられた配置位置情報が当該第一のオブジェクトを第一の領域R10の所定位置に表示させるべきものであっても、第一ユーザのキャラクタオブジェクトCOに関連付けられた位置に表示させることができる。
一例として、第二の動画生成部424は、図36に示されるように、第一ユーザのキャラクタオブジェクトCOに関連付けられた位置(頭上)に第一のオブジェクトG1を表示させる。本例によれば、第一ユーザのキャラクタオブジェクトCOが仮想空間内のどの位置にいようとも第一のオブジェクトG1が撮影範囲に含まれる可能性を高くすることができる。これにより、広い仮想空間のすべてを表示することができない、限られた大きさの表示画面において、配信ユーザおよび視聴ユーザにとって重要なギフトを効果的に知らせることができる。
以上、第二の実施形態の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
<第三の実施形態>
続いて、本開示における第三の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
本開示の第三の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図37に示されるように、送信部431、受付部432、第一の動画生成部433、第二の動画生成部434および関連付部435を備える。
ここでは、送信部431、受付部432、第一の動画生成部433、第二の動画生成部434および関連付部435はいずれもサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。
送信部431は、第一ユーザのキャラクタオブジェクトCOを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。送信部431は、上述した送信部411と同様の構成とすることができる。
受付部432は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。受付部432は、上述した受付部412と同様の構成とすることができる。
第一の動画生成部433は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。第一の動画生成部433は、上述した第一の動画生成部413と同様の構成とすることができる。
第二の動画生成部434は、第二の動画として、第一のオブジェクトG1とは異なる第二のオブジェクトS1を仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトCOを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。第二の動画生成部434は、上述した第二の動画生成部414と同様の構成とすることができる。
また、図38に示されるように、第二の動画生成部434は、第二の領域R20に、第一のオブジェクトG1および第二のオブジェクトS1とは異なる第三のオブジェクトP1を表示させるものとする。
図39は、第三のオブジェクトP1のイメージを示したものである。図39では、第三のオブジェクトP1として2次元のパネル状のオブジェクトP11~14が示されている。なお、第三のオブジェクトは2次元のパネル状のオブジェクトには限定されず、3次元のオブジェクトとしてもよい。
オブジェクトP11~14には、それぞれ、装着オブジェクトがキャラクタ画像とともに表示されている。画像オブジェクトに表示されるキャラクタ画像は、第一ユーザのキャラクタオブジェクトの画像であってもよいし、別の画像であってもよい。
関連付部435は、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが所定の関係になった場合に、第一ユーザのキャラクタオブジェクトCOに第三のオブジェクトP1に対応付けられた第四のオブジェクトW1を関連付ける。
所定の関係とは、キャラクタオブジェクトCOの少なくとも一部(手や足等)が第三のオブジェクトP1に触れたこと、キャラクタオブジェクトCOと第三のオブジェクトP1との距離が所定距離となったこと、キャラクタオブジェクトCOが第三のオブジェクトP1に対応付けられたボタンオブジェクトを押したことなどとすることができる。なお、上記第三のオブジェクトP1に触れたことには、キャラクタオブジェクトCOが第三のオブジェクトP1に所定時間に亘って接触していたこと、所定時間に亘って所定距離内にいたこと、所定時間に亘って押していたことが含まれるものとする。
これら所定の関係は特に限定されるものではないが、動画を視聴している第二ユーザが、第一ユーザのキャラクタオブジェクトCOが第四のオブジェクトW1を関連付けようとしていることが視覚的に分かるような態様とすることができる。
また、第二の動画生成部434は、関連付部435により第一ユーザのキャラクタオブジェクトCOに第四のオブジェクトW1が関連付けられた場合に、第一ユーザのキャラクタオブジェクトCOに第四のオブジェクトW1を関連付けて表示する。
すなわち、キャラクタオブジェクトCOに、第三のオブジェクトP1に表示された装着オブジェクトを装着させて第四のオブジェクトW1として表示する。図39に示す例では、第一ユーザのキャラクタオブジェクトCOが第三のオブジェクトP14と所定の関係になり、第三のオブジェクトP14に表示された装着オブジェクトである第四のオブジェクト(キラキラオブジェクト)W14がキャラクタオブジェクトCOの頭部の周りに装着した例が表示されている。
この第四のオブジェクトW1は、後述するように第二ユーザがギフトとして表示要求することができるギフトオブジェクトと同一のオブジェクトとしてもよいし、ギフトとしては投じることができない特別なオブジェクトとしてもよい。
前者の場合、第四のオブジェクトW1は価値の高いギフトに対応する。これは、価値の高いギフトは第二ユーザによって投じられるのは稀であるため、第一ユーザおよび第二ユーザは当該オブジェクトをなかなか見る/装着することができないが、このワールド機能においては特別に無料で装着できるようにすることにより、ワールド機能が活性化するとともに、第一の動画でも投じてみようという動機につながる。
また、第三のオブジェクトP1は、全てのユーザに同じものが表示されるものとしてもよいし、表示されるワールドのテーマに応じて異なるものが表示されてもよい。また、表示される第三のオブジェクトP1は、第一ユーザの情報に基づいて決定されるものとしてもよい。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
具体的には、まず、第一の動画および第二の動画の2種類の動画の存在により、動画の興趣性が向上する。
特に、第二の動画の舞台となる仮想空間「ワールド」には、テーマに沿って魅力的な第二のオブジェクトが配置されており、キャラクタオブジェクトは自由に移動して好きな場所・好きな視点で動画を生成することができるため、第一の動画よりもユーザの個性を出した動画を生成することができるようになる。
また、上記ワールドを探索している動画を生成することで、トークやコメントにおける話題作りが容易になる。
また、第二の動画に表示された第三のオブジェクトを表示し、キャラクタオブジェクトが対応する第四のオブジェクトを自由に装着可能とすることにより、トークやコメントにおける話題作りがより容易になり、ユーザ同士の交流がより活性化する。
また、上記第四のオブジェクトを装着するまでの工程を動画内で視覚的に表現することにより、第一ユーザおよび/または第二ユーザに期待感を与えることもできる。
また、第四のオブジェクトを価値の高いギフトに対応するものとした場合、価値の高いギフトは第二ユーザによって投じられるのは稀であるため、第一ユーザおよび第二ユーザは当該オブジェクトをなかなか見る/装着することができないが、このワールド機能においては特別に装着できるようにすることにより、ワールド機能が活性化するとともに、第一の動画でも投じてみようという動機につながる。
このように、第一の動画および第二の動画の2種類の動画の存在、および、第四のオブジェクトによって、動画のコンテンツとしての質が従来よりも向上する。
また、動画のコンテンツとしての質が向上することにより、動画を視聴するユーザの視聴意欲も向上し、視聴するユーザの数が増加することに伴って配信するユーザの配信意欲も向上することになる。
そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザとの交流、さらには、配信ユーザ同士、視聴ユーザ同士の交流が活性化することにつながる。
なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することができる。
そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(一のユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、本開示の情報処理システムによれば、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。
上記第二の動画生成部434は、関連付部435が関連付けを行う際に、ローディング画像を所定時間表示することができる。
図40は、上記ローディング画像L1の例を示したものである。図40では、キャラクタオブジェクトCOが第三のオブジェクトP1(P11)を踏むと同時にローディング画像L1が表示され、円状のメータが0%から増加して100%となった際に、キャラクタオブジェクトCOに第四のオブジェクトW1(W11)が装着される。
これは、あえてローディング時間をとることで、視聴している第二ユーザに対してキャラクタオブジェクトが第四のオブジェクトを関連付けようとしていることがわかるような表示としている。これにより、第一ユーザおよび/または第二ユーザの期待感をより増加させることができる。
なお、メータが満ちるまでの時間(ローディング時間)については特に限定されないが、第四のオブジェクトの価値が高いほどローディング時間を長くする構成としてもよい。
図41に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、選択画面生成部436を備えることができる。
選択画面生成部436は、第二ユーザ端末200に、第一のオブジェクトG1の表示要求を行うための選択画面V30を表示させるための情報を生成する。
図20で示されたように、選択画面V30には、第一のオブジェクトG1の表示要求を行うための複数の画像が選択可能に表示される。
そして、画像のうち、第四のオブジェクトに関連する第一のオブジェクトG1の表示要求を行うための画像は、図42に示されるように、他の画像とは異なる態様で表示されることができる。
例えば、第一ユーザが第二の動画において第四のオブジェクトとして三角ぼうしを自由に装着できる状態において、第二ユーザが三角ぼうしのギフトを投じることの表示上のメリットは少ない(ただし、第一ユーザが得た(第二ユーザが投じた)ギフトの額(ポイント)には寄与するため、その点のメリットはある。)。
そのため、第二ユーザは、第四のオブジェクトに関連する第一のオブジェクトG1の画像については他の画像とは異なる態様で表示し、上記事情を理解した上で選択できるようになる。
なお、第四のオブジェクトに関連するとは、第四のオブジェクトと同一の場合に限られず、第四のオブジェクトとは異なるものの表示位置が略同一である場合なども含まれるものとする。
上記異なる態様の例として、図42では枠を強調させた例を示したが、バッチを付けたり、色を変えたりするなどしてもよい。
また、第二ユーザによって第四のオブジェクトに関連する第一のオブジェクトG1の表示要求が行われた場合には、動画内に特別な効果が生じるようにしてもよい。
特別な効果は、例えば、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは例えば、紙吹雪オブジェクト、クラッカーオブジェクトなどの演出オブジェクトとすることができる。
かかる構成によれば、表示上のデメリットを補うことができるようになる。
また、図41に示されるように、本開示の一又は複数のコンピュータプロセッサは、さらに、判定部437を備えることができる。
判定部437は、第一ユーザのキャラクタオブジェクトCOの特定の位置に関連付けて表示されるべき第一のオブジェクトG1の表示要求があった場合に、既に第一ユーザのキャラクタオブジェクトCOの特定の位置に関連付けて第四のオブジェクトW1が表示されているか否かを判定する。
図43は、かかる判定部437による判定ステップを含む処理フローの一例を示したものである。
図43に示されるように、一又は複数のコンピュータプロセッサは、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて表示されるべき第一のオブジェクトの表示要求があったか否かを判定するステップを実行する(S401)。
第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて表示されるべき第一のオブジェクトの表示要求があったと判定された場合、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されているか否かを判定するステップを実行する(S402)。特定の位置とは、同一の位置であってもよいし、略同一の位置も含むものとする。
そして、既に第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていると判定された場合、第二の動画生成部440は、第四のオブジェクトに代えて第一のオブジェクトを表示するか、または、第四のオブジェクトおよび第一のオブジェクトの両方を特定の位置に関連付けて表示することができる。
すなわち、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていると判定された場合、第二の動画生成部440は、第四のオブジェクトに代えて第一のオブジェクトを表示するか、または、第四のオブジェクトおよび第一のオブジェクトの両方を特定の位置に関連付けて表示するステップ(S403)を実行する。
第四のオブジェクトに代えて第一のオブジェクトを表示するか、第四のオブジェクトおよび第一のオブジェクトの両方を表示するか、については、第一のオブジェクトの性質によって決定されることができる。例えば、第一のオブジェクトの価値が基準よりも高い場合には第四のオブジェクトに代えて第一のオブジェクトを表示させ、第一のオブジェクトの価値が基準よりも低い場合には両方を表示させるなどである。なお、基準については、第四のオブジェクトがギフトである場合の価値としてもよいし、第一ユーザまたは運営側が設定できるものとしてもよい。
なお、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていないと判定された場合、第二の動画生成部440は、第一のオブジェクトを特定の位置に関連付けて表示するステップを実行する(S404)。
別の例として、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて表示されるべき第一のオブジェクトの表示要求があった場合に、既に第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていると判定部437により判定された場合、第二の動画生成部434は、第一ユーザ端末からの指示に基づいて、第四のオブジェクトに代えて第一のオブジェクトを表示することができる。
このとき、第一ユーザの画面には、上記指示を行うための表示指示オブジェクトが表示されるものとすることができる。これにより、第一ユーザは自分の好きなタイミングで第二ユーザからのギフトである第一オブジェクトを表示することができるようになる。
上記の例では、既に第四のオブジェクトが表示されているか否かを判定するものとしたが、逆も同様である。
すなわち、図44に示されるように、一又は複数のコンピュータプロセッサは、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが所定の関係になったか否かを判定するステップを実行する(S405)。
そして、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが所定の関係になったと判定された場合、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されているか否かを判定するステップを実行する(S406)。特定の位置とは、同一の位置であってもよいし、略同一の位置も含むものとする。
そして、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されていると判定された場合、第二の動画生成部440は、第一のオブジェクトに代えて第四のオブジェクトを表示するか、または、第四のオブジェクトおよび第一のオブジェクトの両方を特定の位置に関連付けて表示するステップを実行する(S407)。
第一のオブジェクトに代えて第四のオブジェクトを表示するか、第四のオブジェクトおよび第一のオブジェクトの両方を表示するか、については、第四のオブジェクトの性質によって決定されることができる。例えば、第四のオブジェクトの価値が第一のオブジェクトの価値よりも高い場合には第一のオブジェクトに代えて第四のオブジェクトを表示させ、第四のオブジェクトの価値が第一のオブジェクトの価値よりも低い場合には両方を表示させるなどである。なお、第四のオブジェクトの価値については、第四のオブジェクトがギフトである場合の価値とすることができる。
なお、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されていないと判定された場合、第二の動画生成部440は、第四のオブジェクトを特定の位置に関連付けて表示するステップを実行する(S408)。
別の例として、既に第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されていると判定部437により判定された場合、第二の動画生成部434は、第一ユーザ端末からの指示に基づいて、第一のオブジェクトに代えて第四のオブジェクトを表示することができる。
このとき、第一ユーザの画面には、上記指示を行うための表示指示オブジェクトが表示されるものとすることができる。これにより、第一ユーザは自分の好きなタイミングで第四のオブジェクトを表示することができるようになる。
また、図38に示されるように、第二の動画生成部440は、第二の領域R20に、第一のオブジェクトG1、第二のオブジェクトS1および第三のオブジェクトP1とは異なる第五のオブジェクトP2を表示させることができる。
第五のオブジェクトP2は、一例として図45に示されるような解除オブジェクトである。
そして、関連付部435は、第一ユーザのキャラクタオブジェクトと第五のオブジェクトP2とが所定の関係になった場合に、第一ユーザのキャラクタオブジェクトに関連付けられた第四のオブジェクトの関連付けを解除することができる。
すなわち、第五のオブジェクトP2は、第四のオブジェクトW1とキャラクタオブジェクトCOとの関連付けを解除し、非表示とするためのオブジェクトである。所定の関係については第三のオブジェクトの説明において記載したのと同様の関係とすることができる。
また、第一ユーザのキャラクタオブジェクトCOに第四のオブジェクトW1が関連付けられている場合において、関連付部435は、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが再度所定の関係になった場合に、第一ユーザのキャラクタオブジェクトCOに関連付けられた第四のオブジェクトW1の関連付けを解除することができる。
すなわち、キャラクタオブジェクトCOが第三のオブジェクトP1を一度踏んだ場合には第四のオブジェクトW1が関連付けられ、二度目に踏んだ場合には第四のオブジェクトW1の関連付けが解除されて非表示となる。なお、三度目に踏んだ場合には再度第四のオブジェクトW1がキャラクタオブジェクトに関連付けられるものとするが、関連付け可能な回数には上限を設けても良い。
また、図45に示されるように、例えば第三のオブジェクトP11を踏むことにより第四のオブジェクトW11が関連付けられ表示されている状態で、別の第三のオブジェクトP12を踏んだ場合には、第四のオブジェクトW11の関連付けが解除され、別の第三のオブジェクトP12に対応する第四のオブジェクトW12が装着されるものとする。
あるいは、例えば第三のオブジェクトP11を踏むことにより第四のオブジェクトW11が関連付けられ表示されている状態で、別の第三のオブジェクトP12を踏んだ場合には、第四のオブジェクトW11の関連付けは解除されず、別の第三のオブジェクトP12に対応する第四のオブジェクトW12がさらに装着されるものとしてもよい。
また、上述したように、キャラクタオブジェクトCOが領域外へ移動して再出現した場合にも、すべての第四のオブジェクトの関連付けが解除されるものとしてもよい。
なお、第四のオブジェクトW1に表示時間が定められていない場合には、上記の行動がなければ関連付けは解除されないものとすることができる。
なお、上記第三のオブジェクトP1はワールドのテーマが変更された場合(第二のオブジェクトS1が変更された場合)に、ワールドのテーマに沿って別の第三のオブジェクトP1へと変更されるものとすることができる。第三のオブジェクトP1が複数である場合には、そのすべてまたは一部が変更されるものとしてもよい。
そして、ワールドのテーマが変更されても、装着済みの第四のオブジェクトW1は引き続き表示が継続する。
かかる構成を利用し、第四のオブジェクトを用いたミッションを生成し、ミッションをクリアした場合に所定の効果を発生させるものとしてもよい。
ミッションの例としては、テーマが変更される前に装着した第四のオブジェクトと、特定の関係を有する第四のオブジェクトを、テーマ変更後に装着すること、などである。複数回のテーマ変更にわたってかかるミッションを継続させることも可能である。
例えば、各テーマにおいて、アイスクリームオブジェクトである第四のオブジェクトが装着可能な場合において、テーマが変更されるごとにキャラクタオブジェクトの頭部に、アイスクリームをどんどん詰みあげさせることをミッションとすることができる。
所定の効果は、例えば、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは例えば、紙吹雪オブジェクト、クラッカーオブジェクト、くす玉オブジェクトなどの演出オブジェクトとすることができる。
かかる所定の効果は、テーマが変更される度に豪華になる構成とすることができる。
以上の構成によれば、第一ユーザの配信時間をより長くすることができるとともに、動画の興趣性も向上するため第二ユーザの視聴意欲も向上させることができる。
以上、第一の実施形態の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
<第四の実施形態>
続いて、本開示における第四の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
本開示の第四の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図46に示されるように、送信部141、移動操作受付部142、仮想カメラ制御部143および動画生成部144を備える。
ここでは、上記送信部141、移動操作受付部142、仮想カメラ制御部143および動画生成部144はいずれも第一ユーザ端末100が備えるものとして説明を行うが、これに限られるものではない。
送信部141は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。
動画は、一例として、第一ユーザによってリアルタイムに配信される動画とすることができる。
動画に関する情報は、一例として、第二ユーザ端末200において動画を視聴可能とするための情報であればよく、動画のレンダリングは第一ユーザ端末100またはサーバ装置400で行われるものであってもよいし、第二ユーザ端末200において行われるものであってもよい。
動画に含まれるキャラクタオブジェクトの少なくとも顔部には、第一ユーザ端末が備えるカメラで撮影された第一ユーザの顔の動きが反映されるものとしてもよい。
移動操作受付部142は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。仮想空間は、図22で示した空間とすることができる。移動操作の受け付け手法については後述する。
仮想カメラ制御部143は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。カメラ操作の受け付け手法については後述する。
動画生成部144は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。
ここで生成される情報は上述した第二情報であり、第二情報に基づいて上記動画が表示されるものとする。すなわち、第二ユーザ端末200に送信される動画は第二の動画とする。
そして、本実施形態において、第一ユーザの第一ユーザ端末100に表示された第一の操作UIに対する所定の操作に応じて、第一ユーザのキャラクタオブジェクトに第一の移動動作を適用する。
また、第一ユーザ端末100に表示された第二の操作UIに対する所定の操作に応じて、第一ユーザのキャラクタオブジェクトに第二の移動動作を適用する。
また、第一ユーザ端末100に表示された第三の操作UIに対する所定の操作に応じて、仮想カメラの視点を一人称視点または三人称視点に切り替えることができる。
図47は、第一ユーザ端末100に表示された画面D50に第一の操作UI51、第二の操作UI52および第三の操作UI53が表示されたイメージを示したものである。
第一の操作UI51は、仮想的なジョイスティックであり、第一の操作UI51の外円領域内のタッチの初期位置からのスワイプ方向に応じて対象を仮想空間内の水平方向に移動させるものとすることができる。外円領域内の内円は、タッチ位置に応じて外円領域内を移動するよう表示される。なお、初期位置からの移動距離に応じてキャラクタオブジェクトの移動速度を変化させてもよい。また、初期位置からの移動距離に応じてキャラクタオブジェクトの移動速度を変化させなくてもよい。この場合には、一定速度の変化となり見やすい画面を提供することができる。
第二の操作UI52は、第二の操作UI52の円領域内のタップに応じてキャラクタオブジェクトを仮想空間内の垂直方向に移動させるものとすることができる。
第三の操作UI53は、タップ操作により一人称視点と三人称視点とを切り替えるものである。図47は三人称視点の動画を表示した画面のイメージであり、図48の一人称視点の動画を表示した画面のイメージを示したものである。
そして、第一ユーザ端末100における、第一の操作UI51、第二の操作UI52および第三の操作UI53が表示されていない領域(第五の領域)に対する所定の操作に応じて、仮想カメラの移動、回転および/または拡縮の操作を適用する。
具体的には、第五の領域に対する一本指でのスワイプ操作に応じて、仮想カメラに回転操作を適用する。
また、第五の領域に対する二本指でのスワイプ操作に応じて、仮想カメラに移動操作を適用する。
また、第五の領域に対する二本指でのピンチイン/ピンチアウト操作に応じて、仮想カメラに拡縮操作を適用する。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
具体的には、第二の動画の存在により、動画のコンテンツとしての質が向上する。
また、上記構成により、第二の動画におけるキャラクタオブジェクトの操作性が向上する。
また、動画の質が向上することにより、視聴ユーザの視聴意欲が向上し、視聴ユーザ数が増加することに伴って配信ユーザの配信意欲も向上することになる。
そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザの交流、さらには、視聴ユーザ同士の交流が活性化することにつながる。
なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画(ワールド機能)を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することもできる。
そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(一のユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。
第一ユーザ端末に対する所定の操作に応じて、第一ユーザ端末に表示された動画へのコメントに関する表示の有無を切り替えることができる。
図49は、図48に示した画面D50にコメント欄D54を表示させたものである。
そして、一又は複数のコンピュータプロセッサは、動画へのコメントに関する表示の有無を切り替えた際、第一の操作UIおよび第二の操作UIの表示位置を変更、または、第一の操作UI51、第二の操作UI52および第三の操作UI53を非表示とすることができる。
具体的には、図48と図49に示す例では表示位置を変更しているが、図48と図50に示す例では非表示としている。
また、上述したように、第一の移動動作は水平移動(歩行等)であり、第二の移動動作は垂直移動(ジャンプ等)とすることができる。
また、一又は複数のコンピュータプロセッサは、領域(第五の領域)に対する一本指でのスワイプ操作に応じて、仮想カメラに回転操作を適用する。
また、一又は複数のコンピュータプロセッサは、領域(第五の領域)に対する二本指でのスワイプ操作に応じて、仮想カメラに移動操作を適用する。
また、一又は複数のコンピュータプロセッサは、領域(第五の領域)に対する二本指でのピンチイン/ピンチアウト操作に応じて、仮想カメラに拡縮操作を適用する。
これらの操作により、仮想空間内を自由自在に映すことが可能となる。
また、仮想カメラ制御部143は、第一ユーザまたは当該第一ユーザから許可されたユーザからのカメラ操作を受け付けることができる。
第一ユーザから許可されたユーザとは、一例としてゲストユーザの中の一のユーザとすることができるが、詳細については後述する。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
<第五の実施形態>
続いて、本開示における第五の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
本開示の第五の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図51に示されるように、送信部151、移動操作受付部152、仮想カメラ制御部153および動画生成部154を備える。
送信部151は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。送信部151は、上述した送信部141と同様の構成とすることができる。
移動操作受付部152は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。移動操作受付部152は、上述した移動操作受付部142と同様の構成とすることができる。
仮想カメラ制御部153は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。仮想カメラ制御部153は、上述した仮想カメラ制御部143と同様の構成とすることができる。
動画生成部154は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。動画生成部154は、上述した動画生成部144と同様の構成とすることができる。
そして、本開示における動画生成部154は、動画に、さらに、一以上の他のユーザのキャラクタオブジェクトを表示させるための情報を生成可能とする。
このように生成された動画はコラボ動画と呼ばれるものであり、第一ユーザが「ホストユーザ」、他のユーザが「ゲストユーザ」となる。コラボ動画の詳細については前述したとおりであるが、視聴ユーザ(第二ユーザ)は、図12に示すコラボ申請ボタンV15を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信し、動画生成部154は、受付部が受け付けた参加要求に応じて、当該参加要求を行った視聴ユーザ(他のユーザ)のキャラクタオブジェクトを動画に表示させる。なお、この他のユーザのキャラクタオブジェクトは、他のユーザの動きに基づいて生成されるものであってもよいし、他のユーザの操作に基づくものであってもよい。以降、コラボに参加中のゲストユーザは「他のユーザ」と呼び、コラボに参加していない視聴ユーザを「第二ユーザ」と呼ぶものとする。
図52は、第一ユーザ(ホストユーザ)のキャラクタオブジェクトC1、他のユーザ(ゲストユーザ)のキャラクタオブジェクトC2、C3が表示された動画を表示した画面V50のイメージを示したものである。
なお、他のユーザのキャラクタオブジェクトの表示開始位置は第一の領域とする。表示要求が第一の動画の表示中になされた場合には、キャラクタオブジェクト全員が第一の領域にいるために、キャラクタオブジェクトは整列した状態で表示される(図15、図16)が、表示要求が第二の動画の表示中になされた場合には、表示要求を行った他のユーザ以外のユーザは第一の領域または第二の領域を自由に移動可能な状態であるために、バラバラの状態で表示されうる。
また、第一の動画におけるコラボ中に第二の動画へと切り替わった場合には、キャラクタオブジェクト全員が第一の領域にいる状態から第二の動画がスタートする。具体的には、第一の動画では仮想空間の中央側からキャラクタオブジェクトを撮影する仮想カメラVC1が適用され(図24)、第二の動画では仮想空間の縁側(仮想カメラVC1と対向する側)からキャラクタオブジェクト撮影する仮想カメラVC2が適用される(図25)。よって、第二の動画の開始時には、キャラクタオブジェクトの背後から仮想カメラVC2が撮影している状態の動画が表示される。
そして、本開示における送信部151は、第一ユーザのキャラクタオブジェクトC1の一人称視点または三人称視点の動画を第二ユーザ端末200に送信することを特徴とする。
ここで第二ユーザ端末200に送信される動画は第二の動画とする。すなわち、第五の実施形態におけるコラボ動画は、ワールド機能を実行中の動画である。
図52は、第一ユーザのキャラクタオブジェクトC1の三人称視点の動画を示した例であり、第一ユーザのキャラクタオブジェクトC1の後頭部と、他のユーザのキャラクタオブジェクトC2、C3とが表示されている。一方で、図53は他のユーザのキャラクタオブジェクトC2の一人称視点の動画を示した例であり、第一ユーザのキャラクタオブジェクトC1と、他のユーザのキャラクタオブジェクトC3とが表示されている。なお、図52と図53とでキャラクタオブジェクトや他のオブジェクトの位置は関連していないものとする。
上記一人称視点と三人称視点の切り替えは、図47で示した第三の操作UI53への操作により行われることができる。なお、他のユーザは、自身のキャラクタオブジェクトがコラボに参加中は自身のキャラクタオブジェクトを操作可能であり、画面D50に示した第一の操作UI51、第二の操作UI52および第三の操作UI53が自身の端末の画面に表示されるものとする。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
具体的には、第二の動画においてもコラボ機能を設けることにより、動画のコンテンツとしての質がより向上する。また、コラボに参加しているユーザ同士の交流、コラボに参加しているユーザと視聴ユーザの交流、さらには、視聴ユーザ同士の交流が活性化することにつながる。
また、動画の質が向上することにより、視聴ユーザの視聴意欲が向上し、視聴ユーザ数が増加することに伴って配信ユーザの配信意欲も向上することになる。
また、送信部151は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点、および、他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画に関する情報を、第二ユーザ端末200に送信することができる。
図54は、一例として、第一ユーザのキャラクタオブジェクトC1の三人称視点の動画の表示欄V61、他のユーザのキャラクタオブジェクトC2の三人称視点の動画の表示欄V62、他のユーザのキャラクタオブジェクトC3の一人称視点の動画の表示欄V63が一つの画面V60に表示された例を示したものである。
図52および図53で示した例のように、第一ユーザのキャラクタオブジェクトの視点の画面だけを表示するのか、図54で示した例のように、すべてのユーザのキャラクタオブジェクトの視点の画面を分割して表示するのかについては、後述するように、第一ユーザまたは第二ユーザの選択により決定することができる。なお、図54では、コラボに参加中のゲストが2人のため空欄ができているが、ここには3人目のゲストを表示することができる。
また、図54では表示欄が四角形で等分される例を示したが、表示欄の形状は特に限定されず、表示欄の大きさも、第一ユーザを大きくし、他のユーザを小さくするような配分としてもよい。
また、図54は各種表示および操作UIが非表示の状態を示したものであるが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。
また、コラボ参加中のユーザ(第一ユーザおよび他のユーザ)の画面にはそれぞれ自身の一人称/三人称画面のみが表示されるものとしてもよいし、図54に示したような全員の一人称/三人称画面が表示されるものとしてもよい。これらは、コラボ参加中のユーザの各々の選択により切替可能としてもよい。
また、本開示における一又は複数のコンピュータプロセッサは、図55に示されるように、選択受付部155を備えることができる。
選択受付部155は、第一ユーザまたは第二ユーザによる、第一ユーザおよび一以上の他のユーザの中からの一のユーザの選択を受け付ける。
すなわち、ホストユーザである第一ユーザ、または、視聴ユーザである第二ユーザは、コラボ参加中のユーザの中から一のユーザの選択を行うことができる。
このとき、送信部151は、選択受付部155により受け付けられた選択に応じて、動画に関する情報を送信することができる。
具体的には、選択受付部155が第一ユーザによる一以上の他のユーザの中からの一の他のユーザの選択を受け付けた場合、送信部151は、一の他のユーザの一人称視点の動画に関する情報を送信する。
これは、例えば、第一ユーザのキャラクタオブジェクトが出演者、選択された他のユーザがカメラマンという状態を想定したものである。通常、第一ユーザは、自身の動きおよび/またはキャラクタオブジェクトの操作を行いながら、仮想カメラの操作も同時に行う必要がある。しかしながら、より質の高い動画を生成するためには、他のユーザにカメラ操作の権限を委任する方が容易である。このとき、選択された他のユーザのキャラクタオブジェクトは裏方のスタッフとなるため、動画は三人称視点ではなく一人称視点として自動的に設定されるものとする。
また、選択受付部155が第二ユーザによる第一ユーザおよび一以上の他のユーザの中からの一のユーザの選択を受け付けた場合、送信部151は、当該選択されたユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画に関する情報を第二ユーザ端末に送信してもよい。
そして、第二ユーザの画面には、自分が選択したユーザのキャラクタオブジェクトの視点の動画が表示されるものであってもよいし、自分および他の第二ユーザを含む複数の第二ユーザによって選択(投票)された数が一番多いユーザのキャラクタオブジェクトの視点の動画が表示されるものであってもよい。なお、このとき表示される視点の種類(一人称視点/三人称視点)は、当該視点の動画を提供するユーザによって選択された視点の種類が適用されるものであってもよいし、第一ユーザまたは第二ユーザによってさらに選択されるものであってもよい。
また、上記例では複数の第二ユーザが公平に投票するものであったが、特定の第二ユーザがすべての他の第二ユーザに表示させる動画を決定できる構成としてもよい。特定の第二ユーザとは、例えば、ギフトの表示要求および表示要求がなされたギフトの価値等に基づいて算出されるポイントが多いユーザ(一例としてギフティング額が多いユーザ)、第一ユーザが配信する動画を視聴した回数の多いユーザなどとすることができる。
また、選択受付部155が第一ユーザによる一以上の他のユーザの中からの一の他のユーザの選択を受け付けた場合、本開示における一又は複数のコンピュータプロセッサは、図55に示されるように、さらに、演出受付部156および効果発生部157を備えることができる。
演出受付部156は、他のユーザからの動画への演出効果の表示要求を受け付ける。
効果発生部157は、演出受付部156が受け付けた表示要求に応じて、動画へ演出効果を発生させる。
演出効果は、一例として図56に示されるように、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは例えば、紙吹雪オブジェクト、クラッカーオブジェクト、くす玉オブジェクトなどの演出オブジェクトとすることができる。
そして、送信部151は、演出効果が発生された動画に関する情報を送信することを特徴とする。
これは、例えば、第一ユーザのキャラクタオブジェクトが出演者、選択された他のユーザが特殊効果スタッフという状態を想定したものである。通常、第一ユーザは、自身の動きおよび/またはキャラクタオブジェクトの操作を行いながら、演出効果の発動操作も同時に行う必要がある。しかしながら、より質の高い動画を生成するためには、他のユーザに発動操作の権限を委任する方が容易である。
また、選択受付部155が第一ユーザによる一以上の他のユーザの中からの一の他のユーザの選択を受け付けた場合、本開示における一又は複数のコンピュータプロセッサは、さらに、切替受付部158を備えることができる。
切替受付部158は、他のユーザからの動画へのオブジェクトの切替要求を受け付けるものである。
オブジェクトの切替要求とは、上述した第二のオブジェクトを別の第二のオブジェクトへと変更する要求である。上述した例では、第二のオブジェクトの変更の条件は予定時刻の到来、予定時間の経過、または、第一ユーザまたは他のユーザからの変更指示として説明したが、この他のユーザからの変更指示が本例に相当する。
動画生成部154は、切替受付部158が受け付けた切替要求に応じて、仮想空間に表示された第一ユーザのキャラクタオブジェクトC1および他のユーザのキャラクタオブジェクトC2以外のオブジェクトを別のオブジェクトに変更することができる(図57、図58)。
図57および図58に示されるように、一部変更されないオブジェクト(タワーケーキオブジェクト等)があってもよい。
また、視聴ユーザから装着ギフトの表示要求があった場合、かかる表示要求に応じて当該装着ギフトに対応するギフトオブジェクトを動画に表示させるための表示指示オブジェクトを、選択受付部155によって第一ユーザまたは第二ユーザによる選択が受け付けられた一の他のユーザの画面に表示させてもよい。これにより、他のユーザは、自分の好きなタイミングで、第一のユーザに対して(あるいは他のユーザ以外のゲストユーザに対して)装着ギフトオブジェクトを装着させて表示させることができるようになる。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
上述した第一の実施形態から第五の実施形態は、相互に組み合わせることができ、また、これら実施形態の一部を相互に組み合わせることも可能である。
続いて、本開示の実施形態における情報処理方法について説明を行う。
本開示の実施形態における情報処理方法は、図3に示した情報処理システム3000における情報処理方法である。情報処理システム3000は、一以上の第一ユーザ端末100、第二ユーザ端末200およびサーバ装置400を備える。
本開示における情報処理方法は、図59に一例として示されるように、情報処理システム3000が備える一又は複数のコンピュータプロセッサに、送信ステップS451、移動操作受付ステップS452、仮想カメラ制御ステップS453および動画生成ステップS454を実行させる。
送信ステップS451は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末に送信する。かかる送信ステップS451は、上述した送信部151により実行されることができる。
送信ステップS451は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。
移動操作受付ステップS452は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。かかる移動操作受付ステップS452は、上述した移動操作受付部152により実行されることができる。
移動操作受付ステップS452は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。
仮想カメラ制御ステップS453は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。かかる仮想カメラ制御ステップS453は、上述した仮想カメラ制御部153により実行されることができる。
仮想カメラ制御ステップS453は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。
動画生成ステップS454は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。かかる動画生成ステップS454は、上述した動画生成部154により実行されることができる。
動画生成ステップS454は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。
そして、動画生成ステップS454では、動画に、さらに、一以上の他のユーザのキャラクタオブジェクトを表示させるための情報を生成可能であり、送信ステップS451では、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、一以上の他のユーザの中からの一の他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画に関する情報を、第二ユーザ端末に送信する。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。
本開示の実施形態におけるコンピュータプログラムは、図3に示したように、動画を配信する情報処理システム3000において実行されるコンピュータプログラムである。情報処理システム3000は、一以上の第一ユーザ端末100、第二ユーザ端末200およびサーバ装置400を備える。
本開示におけるコンピュータプログラムは、情報処理システム3000が備える一又は複数のコンピュータプロセッサに、送信機能、移動操作受付機能、仮想カメラ制御機能および動画生成機能を実現させることを特徴とする。
送信機能は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末に送信する。
移動操作受付機能は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。
仮想カメラ制御機能は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。
動画生成機能は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。
そして、動画生成機能は、動画に、さらに、一以上の他のユーザのキャラクタオブジェクトを表示させるための情報を生成可能であり、送信機能は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、一以上の他のユーザの中からの一の他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画に関する情報を、第二ユーザ端末に送信する。
上記機能は、図60に示す送信回路1451、移動操作受付回路1452、仮想カメラ制御回路1453および動画生成回路1454により実現されることができる。送信回路1451、移動操作受付回路1452、仮想カメラ制御回路1453および動画生成回路1454は、それぞれ上述した送信部151、移動操作受付部152、仮想カメラ制御部153および動画生成部154により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第一ユーザ端末100に相当するものである。
情報処理装置は、図61に示されるように、送信部151、移動操作受付部152、仮想カメラ制御部153、動画生成部154、受信部159および表示部160を備える。
送信部151は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する。送信部151の詳細は上述したとおりである。
移動操作受付部152は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。送信部151の詳細は上述したとおりである。
仮想カメラ制御部153は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。仮想カメラ制御部153の詳細は上述したとおりである。
動画生成部154は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。動画生成部154の詳細は上述したとおりである。
受信部159は、サーバ装置400から、一以上の他のユーザのキャラクタオブジェクトを動画に表示させるための情報を受信する。
表示部160は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、一以上の他のユーザの中からの一の他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画を表示させる。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
続いて、本開示の実施形態における情報処理方法について説明を行う。かかる情報処理方法は、上述した情報処理装置(第一ユーザ端末100)において実行される情報処理方法である。
本開示における情報処理方法は、図62に一例として示されるように、情報処理装置が備える一又は複数のコンピュータプロセッサに、送信ステップS151、移動操作受付ステップS152、仮想カメラ制御ステップS153、動画生成ステップS154、受信ステップS159および表示ステップS160を実行させることを特徴とする。
送信ステップS151は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する。かかる送信ステップS151は、上述した送信部151により実行されることができる。
移動操作受付ステップS152は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。かかる移動操作受付ステップS152は、上述した移動操作受付部152により実行されることができる。
仮想カメラ制御ステップS153は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。かかる仮想カメラ制御ステップS153は、上述した仮想カメラ制御部153により実行されることができる。
動画生成ステップS154は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。かかる動画生成ステップS154は、上述した動画生成部154により実行されることができる。
受信ステップS159は、一以上の他のユーザのキャラクタオブジェクトを動画に表示させるための情報を受信する。かかる受信ステップS159は、上述した受信部159により実行されることができる。
表示ステップS160は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、一以上の他のユーザの中からの一の他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画を表示させる。かかる表示ステップS160は、上述した表示部160により実行されることができる。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第一ユーザ端末100)において実行されるコンピュータプログラムである。
本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のプロセッサに、送信機能、移動操作受付機能、仮想カメラ制御機能、動画生成機能、受信機能および表示機能を実現させることを特徴とする。
送信機能は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する。
移動操作受付機能は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。
仮想カメラ制御機能は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。
動画生成機能は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。
受信機能は、サーバ装置から、一以上の他のユーザのキャラクタオブジェクトを動画に表示させるための情報を受信する。
表示機能は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、一以上の他のユーザの中からの一の他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画を表示させる。
上記機能は、図63に示す送信回路1151、移動操作受付回路1152、仮想カメラ制御回路1153、動画生成回路1154、受信回路1155および表示回路1156により実現されることができる。送信回路1151、移動操作受付回路1152、仮想カメラ制御回路1153、動画生成回路1154、受信回路1155および表示回路1156は、それぞれ上述した送信部151、移動操作受付部152、仮想カメラ制御部153、動画生成部154、受信部159および表示部160により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第二ユーザ端末200であって、上述したゲストユーザとなる第二ユーザの第二ユーザ端末200に相当するものである。
情報処理装置は、図64に示されるように、受信部251、移動操作受付部252、仮想カメラ制御部253、送信部254および表示部255を備える。
受信部251は、第一ユーザのキャラクタオブジェクトおよび第二ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する。
移動操作受付部252は、仮想空間内における第二ユーザのキャラクタオブジェクトの移動操作を受け付ける。
仮想カメラ制御部253は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。
送信部254は、移動操作およびカメラ操作に関する情報をサーバ装置に送信する。
表示部255は、第一ユーザのキャラクタオブジェクトおよび第二ユーザのキャラクタオブジェクトを仮想空間内で移動可能に表示する。
表示部255は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、第二ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および第二ユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画を表示させる。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
続いて、本開示の実施形態における情報処理方法について説明を行う。かかる情報処理方法は、上述した情報処理装置(第二ユーザ端末200)において実行される情報処理方法である。
本開示における情報処理方法は、図65に一例として示されるように、情報処理装置が備える一又は複数のコンピュータプロセッサに、受信ステップS251、移動操作受付ステップS252、仮想カメラ制御ステップS253、送信ステップS254および表示ステップS255を実行させることを特徴とする。
受信ステップS251は、第一ユーザのキャラクタオブジェクトおよび第二ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する。かかる受信ステップS251は、上述した受信部251により実行されることができる。
移動操作受付ステップS252は、仮想空間内における第二ユーザのキャラクタオブジェクトの移動操作を受け付ける。かかる移動操作受付ステップS252は、上述した移動操作受付部252により実行されることができる。
仮想カメラ制御ステップS253は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。かかる仮想カメラ制御ステップS253は、上述した仮想カメラ制御部253により実行されることができる。
送信ステップS254は、移動操作およびカメラ操作に関する情報をサーバ装置に送信する。かかる送信ステップS254は、上述した送信部254により実行されることができる。
表示ステップS255は、第一ユーザのキャラクタオブジェクトおよび第二ユーザのキャラクタオブジェクトを仮想空間内で移動可能に表示する。かかる表示ステップS255は、上述した表示部255により実行されることができる。
そして、表示ステップS255では、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、第二ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および第二ユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画を表示させる。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
最後に、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第二ユーザ端末200)において実行されるコンピュータプログラムである。
本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のプロセッサに、受信機能、移動操作受付機能、仮想カメラ制御機能、送信機能および表示機能を実現させることを特徴とする。
受信機能は、第一ユーザのキャラクタオブジェクトおよび第二ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する。
移動操作受付機能は、仮想空間内における第二ユーザのキャラクタオブジェクトの移動操作を受け付ける。
仮想カメラ制御機能は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。
送信機能は、移動操作およびカメラ操作に関する情報をサーバ装置に送信する。
表示機能は、第一ユーザのキャラクタオブジェクトおよび第二ユーザのキャラクタオブジェクトを仮想空間内で移動可能に表示する。
そして、表示機能は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、第二ユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画、または、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点および第二ユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画を表示させる。
上記機能は、図66に示す受信回路1251、移動操作受付回路1252、仮想カメラ制御回路1253、送信回路1254および表示回路1255により実現されることができる。受信回路1251、移動操作受付回路1252、仮想カメラ制御回路1253、送信回路1254および表示回路1255は、それぞれ上述した受信部251、移動操作受付部252、仮想カメラ制御部253、送信部254および表示部255により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。
また、上述した「ギフト」や「コメント」など、本開示における情報処理システムにおいて送受信される対象はすべて、電子的な「データ」である。
上記[発明の概要]の欄は、選択された様々な概念を簡略化された形式により導入するために記載されており、これらの様々な概念については[発明を実施するための形態]の欄において後述する。本明細書において用いられるすべての商標は、これらの商標の保有者の財産である。この[発明の概要]の欄の記載は、特許請求の範囲に記載された発明の重要な特徴又は不可欠な特徴を特定することを意図するものでもなく、特許請求の範囲に記載された発明の技術的範囲を限定することを意図するものでもない。特許請求の範囲に記載された発明の、上述した又は他の目的、特徴及び効果は、添付図面を参照して示された[発明を実施するための形態]の欄の記載からより明らかとなる。
上述したネットワークを実現するための通信回線は、携帯電話網、無線ネットワーク(例えば、Bluetooth、(IEEE 802.11a/b/nといったような)WiFi、WiMax、セルラー、衛星、レーザー、赤外線、を介したRF接続)、固定電話網、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及び/又は、イーサネットネットワークを、これらに限定することなく含むことができる。
上述したメモリは揮発性メモリ(例えば、レジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(例えば、リードオンリーメモリ(ROM)、EEPROM、フラッシュメモリ)、及び、ストレージ(例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、磁気テープ、光学媒体)、といったようなコンピュータにより読み取り可能な媒体を、これらに限定することなく含むことができる。容易に理解されるように、「コンピュータにより読み取り可能な記録媒体」という用語は、変調されたデータ信号すなわち一時的な信号といったような送信媒体ではなく、メモリ及びストレージといったようなデータストレージのための媒体を含むことができる。
本明細書は、いかなる方法によっても限定されることを意図していない、代表的な様々な実施形態という意味により記載される。本件出願において用いられるように、「1つの」、「前記」、「上記」、「当該」、「該」、「この」、「その」といった単数形は、複数形でないことを明確に示さない限り、複数形を含むことができる。また、「含む」という用語は、「具備する」こと又は「備える」ことを意味し得る。さらに、「結合された」、「結合した」、「結び付けられた」、「結び付けた、「接続された」又は「接続した」という用語は、対象物を相互に結合する、接続する又は結び付ける、機械的、電気的、磁気的及び光学的な方法を他の方法とともに包含し、このように結合された、結合した、結び付けられた、結び付けた、接続された又は接続した対象物の間にある中間要素の存在を排除しない。
本明細書において記載される、様々なシステム、方法及び装置は、いかなる方法によっても限定されるものとして解釈されるべきではない。実際には、本開示は、開示された様々な実施形態の各々、これら様々な実施形態を相互に組み合わせたもの、及び、これら様々な実施形態の一部を相互に組み合わせたもの、のうちのあらゆる新規な特徴及び態様に向けられている。本明細書において記載される、様々なシステム、方法及び装置は、特定の態様、特定の特徴、又は、このような特定の態様と特定の特徴とを組み合わせたものに限定されないし、本明細書に記載される物及び方法は、1若しくはそれ以上の特定の効果が存在すること又は課題が解決されることを、要求するものでもない。さらには、本明細書において記載された様々な実施形態のうちの様々な特徴若しくは態様、又は、そのような特徴若しくは態様の一部は、相互に組み合わせて用いられ得る。
本明細書において開示された様々な方法のうちの幾つかの方法の動作が、便宜上、特定の順序に沿って記載されているが、このような手法による記載は、特定の順序が以下特定の文章によって要求されていない限り、上記動作の順序を並び替えることを包含する、と理解すべきである。例えば、順番に記載された複数の動作は、幾つかの場合には、並び替えられるか又は同時に実行される。さらには、簡略化を目的として、添付図面は、本明細書に記載された様々な事項及び方法が他の事項及び方法とともに用いられ得るような様々な方法を示していない。加えて、本明細書は、「生成する」、「発生させる」、「表示する」、「受信する」、「評価する」及び「配信する」のような用語を用いることがある。これらの用語は、実行される実際の様々な動作のハイレベルな記載である。これらの用語に対応する実際の様々な動作は、特定の実装に依存して変化し得るし、本明細書の開示の利益を有する当業者によって容易に認識され得る。
本開示の装置又は方法に関連して本明細書に提示される、動作理論、科学的原理又は他の理論的な記載は、よりよい理解を目的として提供されており、技術的範囲を限定することを意図していない。添付した特許請求の範囲における装置及び方法は、このような動作理論により記載される方法により動作する装置及び方法に限定されない。
本明細書に開示された様々な方法のいずれもが、コンピュータにより読み取り可能な1又はそれ以上の媒体(例えば、1又はそれ以上の光学媒体ディスク、複数の揮発性メモリ部品、又は、複数の不揮発性メモリ部品といったような、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶された、コンピュータにより実行可能な複数の命令を用いて実装され、さらに、コンピュータにおいて実行され得る。ここで、上記複数の揮発性メモリ部品は、例えばDRAM又はSRAMを含む。また、上記複数の不揮発性メモリ部品は、例えばハードドライブ及びソリッドステートドライブ(SSD)を含む。さらに、上記コンピュータは、例えば、計算を行うハードウェアを有するスマートフォン及び他のモバイル装置を含む、市場において入手可能な任意のコンピュータを含む。
本明細書において開示された技術を実装するためのこのようなコンピュータにより実行可能な複数の命令のいずれもが、本明細書において開示された様々な実施形態の実装の間において生成され使用される任意のデータとともに、1又はそれ以上のコンピュータにより読み取り可能な媒体(例えば、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶され得る。このようなコンピュータにより実行可能な複数の命令は、例えば、個別のソフトウェアアプリケーションの一部であり得るか、又は、ウェブブラウザ若しくは(リモート計算アプリケーションといったような)他のソフトウェアアプリケーションを介してアクセス又はダウンロードされるソフトウェアアプリケーションの一部であり得る。このようなソフトウェアは、例えば、(例えば市場において入手可能な任意の好適なコンピュータにおいて実行されるエージェントとしての)単一のローカルコンピュータにおいて、又は、1又はそれ以上のネットワークコンピュータを用いて、ネットワーク環境(例えば、インターネット、ワイドエリアネットワーク、ローカルエリアネットワーク、(クラウド計算ネットワークといったような)クライアントサーバネットワーク、又は、他のそのようなネットワーク)において、実行され得る。
明確化のために、ソフトウェアをベースとした様々な実装のうちの特定の選択された様々な態様のみが記載される。当該分野において周知である他の詳細な事項は省略される。例えば、本明細書において開示された技術は、特定のコンピュータ言語又はプログラムに限定されない。例えば、本明細書において開示された技術は、C、C++、Java、又は、他の任意の好適なプログラミング言語で記述されたソフトウェアにより実行され得る。同様に、本明細書において開示された技術は、特定のコンピュータ又は特定のタイプのハードウェアに限定されない。好適なコンピュータ及びハードウェアの特定の詳細な事項は、周知であって、本明細書において詳細に説明する必要はない。
さらには、このようなソフトウェアをベースとした様々な実施形態(例えば、本明細書において開示される様々な方法のいずれかをコンピュータに実行させるための、コンピュータにより実行可能な複数の命令を含む)のいずれもが、好適な通信手段により、アップロードされ、ダウンロードされ、又は、リモート方式によりアクセスされ得る。このような好適な通信手段は、例えば、インターネット、ワールドワイドウェブ、イントラネット、ソフトウェアアプリケーション、ケーブル(光ファイバケーブルを含む)、磁気通信、電磁気通信(RF通信、マイクロ波通信、赤外線通信を含む)、電子通信、又は、他のそのような通信手段を含む。