JP7323900B1 - プログラム、情報処理方法、及び情報処理装置 - Google Patents

プログラム、情報処理方法、及び情報処理装置 Download PDF

Info

Publication number
JP7323900B1
JP7323900B1 JP2022104194A JP2022104194A JP7323900B1 JP 7323900 B1 JP7323900 B1 JP 7323900B1 JP 2022104194 A JP2022104194 A JP 2022104194A JP 2022104194 A JP2022104194 A JP 2022104194A JP 7323900 B1 JP7323900 B1 JP 7323900B1
Authority
JP
Japan
Prior art keywords
user
avatar object
viewing
moving image
user device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022104194A
Other languages
English (en)
Other versions
JP2024004560A (ja
Inventor
大起 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022104194A priority Critical patent/JP7323900B1/ja
Priority to US18/129,505 priority patent/US20240007700A1/en
Priority to JP2023117382A priority patent/JP2024007548A/ja
Application granted granted Critical
Publication of JP7323900B1 publication Critical patent/JP7323900B1/ja
Publication of JP2024004560A publication Critical patent/JP2024004560A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】描画の処理負荷を軽減しつつ、動画を視聴する第2ユーザが動画配信に参加する機会を増やす。【解決手段】ユーザ装置12は、配信ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画をディスプレイに出力する第1出力制御処理と、動画を視聴する第2ユーザの動画に対するアクションが、予め定めた基準アクションに該当する場合に、第2ユーザの動作を適用しない第2アバターオブジェクトと、第1アバターオブジェクトとを含む動画をディスプレイ28に出力する第2出力制御処理と、を実行する。【選択図】図1

Description

本発明は、プログラム、情報処理方法、及び情報処理装置に関する。
従来から、ユーザの動きに基づくアバターオブジェクトのアニメーションを含む動画を配信する情報処理システムが知られている(例えば、特許文献1参照)。このシステムでは、二体のキャラクタを含む動画をリアルタイムに生成する。また、声優の音声を動画にリアルタイムに合成して、ネットワークを通じて配信する。
特開2015-184689号公報
ところで、動画を配信する情報処理システムにおいては、視聴ユーザの人数の増加、若しくは、視聴時間を累積した累積視聴時間又は視聴回数の増加を図ること等を目的として、配信中の動画への視聴ユーザの参加の機会を増やすことが検討されている。
しかし、上記システムのように、複数のユーザが動画の配信に参加する場合であってもその参加人数は限られており、視聴ユーザが参加する機会の増加には至らなかった。
一態様では、情報処理装置が実行するプログラムを提供する。前記プログラムは、1又は複数のコンピュータに、第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画をディスプレイに出力する第1出力制御処理と、第2ユーザの前記動画に対するアクションが、予め定めた基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第1アバターオブジェクトよりも描画の処理負荷が小さく且つ前記第2ユーザに対応する第2アバターオブジェクト及び前記基準アクションに対応する情報を前記動画に前記第1アバターオブジェクトの表示期間よりも短い表示期間内において表示する第2出力制御処理と、を実行させる。
別の態様では、情報処理方法を提供する。前記情報処理方法は、1又は複数のコンピュータが、第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画をディスプレイに出力する第1出力制御処理と、第2ユーザの前記動画に対するアクションが、予め定めた基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第1アバターオブジェクトよりも描画の処理負荷が小さく且つ前記第2ユーザに対応する第2アバターオブジェクト及び前記基準アクションに対応する情報を前記第1アバターオブジェクトの表示期間よりも短い表示期間内において前記動画に表示する第2出力制御処理と、を実行する。
別の態様では、情報処理装置を提供する。前記情報処理装置は、第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画を、第2ユーザが用いる第2ユーザ装置から動画の視聴要求に基づき前記第2ユーザ装置のディスプレイに出力させる第1処理部と、前記第2ユーザの前記動画に対するアクションであって予め定めた基準アクションに対応する情報を前記第2ユーザ装置から取得する第2処理部と、前記第1アバターオブジェクトよりも描画の処理負荷が小さく且つ前記第2ユーザに対応する第2アバターオブジェクトを描画するためのデータを前記第2ユーザ装置から取得する第3処理部と、前記第2ユーザの前記動画に対するアクションが、前記基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第2アバターオブジェクト及び前記基準アクションに対応する情報を前記動画に前記第1アバターオブジェクトの表示期間よりも短い表示期間内において表示させる第4処理部と、を備える。
別の態様では、情報処理方法を提供する。前記情報処理方法は、1又は複数のコンピュータが、第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画を、第2ユーザが用いる第2ユーザ装置から動画の視聴要求に基づき前記第2ユーザ装置のディスプレイに出力させる第1処理と、前記第2ユーザの前記動画に対するアクションであって予め定めた基準アクションに対応する情報を前記第2ユーザ装置から取得する第2処理と、前記第1アバターオブジェクトよりも描画の処理負荷が小さく且つ第2ユーザに対応する第2アバターオブジェクトを描画するためのデータを前記第2ユーザ装置から取得する第3処理と、前記第2ユーザの前記動画に対するアクションが、前記基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第2アバターオブジェクト及び前記基準アクションに対応する情報を前記動画に前記第1アバターオブジェクトの表示期間よりも短い表示期間内において表示させる第4処理と、を実行する。
本発明によれば、描画の処理負荷を軽減しつつ、動画を視聴する視聴ユーザが動画配信に参加する機会を増加することができる。
第1実施形態における情報処理システムの一実施形態を示す模式図である。 同実施形態のユーザ管理データを示す図である。 同実施形態の本体パーツデータの構成を示す図である。 同実施形態の装着パーツデータの構成を示す図である。 同実施形態のコラボレーション配信の視聴画面を示す図である。 同実施形態の簡易アバターオブジェクトを表示するための手順を示すフローチャートである。 同実施形態のホーム画面を示す図である。 同実施形態の視聴画面を示す図である。 同実施形態の視聴画面を示す図である。 同実施形態の視聴画面を示す図である。 同実施形態の視聴画面を示す図である。 同実施形態の視聴画面を示す図である。 同実施形態の配信画面を示す図である。 第2実施形態におけるモードを切り替える手順を示すフローチャートである。 第2実施形態の視聴画面を示す図である。 他の実施形態のギフトオブジェクトを表示する手順を示すフローチャートである。
(第1実施形態)
以下、プログラム、情報処理方法、及び情報処理装置の第1実施形態について説明する。
<情報処理システム>
図1を参照して、情報処理システム11について説明する。情報処理システム11は、複数のユーザ装置12及びサーバ13を含む。ユーザ装置12とサーバ13とは、ネットワーク14を介してデータを送受信する。ユーザ装置12は、ユーザの入力操作に基づいて動画の配信及び視聴に必要なデータをサーバ13から受信する。
ユーザ装置12を用いて動画を配信するユーザを配信ユーザ、配信された動画を視聴するユーザを視聴ユーザという。ユーザは、配信ユーザ及び視聴ユーザの両方になることが可能である。つまり、ユーザは、動画を視聴する場合は視聴ユーザであり、動画を配信する場合は配信ユーザである。また、配信ユーザが用いるユーザ装置12を配信ユーザ装置12Aといい、視聴ユーザが用いるユーザ装置12を視聴ユーザ装置12Bという。配信ユーザ及び視聴ユーザ、配信ユーザ装置12A及び視聴ユーザ装置12Bを区別しない場合には、単にユーザ、ユーザ装置12という。なお、配信ユーザは特許請求の範囲の第1ユーザに対応し、視聴ユーザは特許請求の範囲の第2ユーザに対応する。また、配信ユーザ装置12Aは第1ユーザ装置、視聴ユーザ装置12Bは第2ユーザ装置に対応する。
ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ウェアラブルコンピュータ、又はこれらの装置以外の動画を再生可能な情報処理装置である。ウェアラブルコンピュータは、ユーザが動画を視聴可能な画面を備えていればよく、例えばユーザの頭部に装着されるヘッドマウントディスプレイ、又は眼鏡型のウェアラブル端末等である。ユーザ装置12は、単独で動作する装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。後者のユーザ装置12の一例として、例えばアウトサイドイン方式のトラッキングを行うシステムがある。
ユーザ装置12は、制御部20、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。制御部20は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)等の1又は複数の演算回路を備える。また、制御部20は、演算回路が読み出し及び書き込みが可能な主記憶装置(記憶媒体)であるメモリを備える。メモリは、半導体メモリ等から構成される。制御部20は、ストレージ22又は外部ストレージからオペレーティングシステムやその他のプログラムをメモリに読み込み、メモリから取り出した命令を実行する。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信することができる。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。制御部20は、特許請求の範囲の第1出力制御部、第2出力制御部に対応する。ストレージ22は、特許請求の範囲の記憶部に対応する。
ストレージ22は、補助記憶装置(記憶媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。
制御部20は、ユーザの操作部27に対する入力操作に基づいて、ストレージ22に記録された各種プログラムを実行することにより、動画の配信に関する各処理及び視聴に関する各処理を実行する。以下、説明の便宜上、動画の配信を行う状態を配信モードといい、他の配信ユーザが配信する動画を視聴する状態を視聴モードという。
また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、及びディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、制御部20と同じ装置内に設けられていてもよく、制御部20を備える装置に接続する態様で設けられていてもよい。
センサユニット24は、ユーザの表情の変化を示すフェイスモーション、及びセンサユニット24に対するユーザの身体の相対位置の変化を示すボディモーションを検出する1又は複数のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニット24は、公知の物を使用することができる。センサユニット24の一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニット24は、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iPhoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」等の「LIDAR」(Light Detection and Ranging、又はLaser Imaging Detection and Ranging)や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニット24の演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。
また、センサユニット24は、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。また、センサユニット24は、手以外の人間の部位の位置又は向きを検出するセンサを含んでいてもよい。センサユニット24は、加速度センサ等の速度や加速度を検出するセンサ、ジャイロセンサ等の方向や方位を検出するセンサ等のセンサをさらに含むものであってもよい。センサユニット24は、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニット24の画像処理部は、制御部20が備えていてもよい。
スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザが発話した音声を入力し、音声データに変換する。ディスプレイ28は、制御部20の出力指示に応じて、各種画像を出力する。
操作部27は、ユーザ装置12の種類に応じたものを用いることができる。操作部27の一例は、ディスプレイ28と一体化されたタッチパネルである。また、操作部27の他の例は、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部27の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示等の各種操作を実行したりすることができる。なお、センサユニット24がハンドトラック機能等の入力インターフェース機能も有する場合には、操作部27は省略可能である。
<サーバ>
次にサーバ13について説明する。サーバ13は、動画を配信するためのサービスを提供するサービス提供者等が用いるものである。サーバ13は、制御部30と、通信I/F34と、ストレージ35とを備えている。制御部30は、1又は複数の演算回路を有している。制御部30は、ユーザ装置12の制御部20と同様な構成である。また、通信I/F34及びストレージ35は、ユーザ装置12と同様な構成である。サーバ13は1つの装置から構成されていてもよく、複数の装置から構成されていてもよい。サーバ13が複数の装置から構成される場合、それらの装置は、制御部30の機能、ストレージ35に格納された各種のデータを分散して備える。制御部30は、特許請求の範囲の第1処理部、第2処理部、第3処理部、第4処理部に対応する。
<動画の配信方式>
動画の配信方式としては、クライアントレンダリング方式、ブラウザレンダリング方式、映像配信方式及びサーバ配信方式のうち一つを用いることができる。
クライアントレンダリング方式は、配信ユーザ装置12A及び視聴ユーザ装置12Bが動画の生成に必要な動画構成データをサーバ13から受信して動画を描画するものである。動画構成データは、配信ユーザ装置12Aのセンサユニット24が検出したトラッキングデータを含む。また、各ユーザ装置12は、配信ユーザの発話に基づく音声データを取得し、動画と同期させて音声を出力する。この場合、各ユーザ装置12のストレージ22には、アプリケーションプログラムと、アバターを描画する描画データ等の各種データとが記憶される。
ブラウザレンダリング方式は、配信ユーザ装置12A及び視聴ユーザ装置12Bが、ストレージ22に格納したウェブブラウザプログラムを用いて、動画を描画する方法である。このとき、配信ユーザ装置12Aは、トラッキングデータ等をサーバ13に送信する。ユーザ装置12は、HTML(Hyper Text Markup Language)等のマークアップ言語で記述され、CSS(Cascading Style Sheets)、JavaScript(登録商標)等が用いられたウェブページをサーバ13からダウンロードする。ユーザ装置12で起動されたウェブブラウザプログラムは、ブラウザ上で動作するJavaScriptによってアバターオブジェクトや他のオブジェクトを描画する。ブラウザレンダリング方式では、ユーザ装置12はサーバ13から受信したデータを揮発性メモリに記憶し、動画を表示するためのウェブページのURL等のデータを不揮発性メモリに記憶する。このため、アバターオブジェクトの描画データはユーザ装置12に記憶されない。
映像配信方式は、配信ユーザ装置12Aが動画データを生成する方式である。視聴ユーザ装置12Bは、配信ユーザ装置12Aから受信した動画データに基づいて動画をディスプレイ28に表示する。具体的には、配信ユーザ装置12Aがトラッキングデータ等を用いて動画データを生成する。また、配信ユーザ装置12Aは、エンコードした動画データ及び音声データをサーバ13に送信する。サーバ13は、動画データ及び音声データを視聴ユーザ装置12Bに送信する。
サーバ配信方式は、サーバ13が動画データを生成する方式である。サーバ13は、トラッキングデータ、音声データを配信ユーザ装置12Aから受信する。そして、サーバ13は、それらのデータに基づいて動画データを生成する。サーバ13は、生成した動画データを配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。配信ユーザ装置12A及び視聴ユーザ装置12Bは、受信した動画データに基づき動画をディスプレイ28に出力する。
このように、ユーザ装置12及びサーバ13のいずれかが動画データの生成を担う。動画データの生成を担う装置は、配信方式に応じて変更可能である。ユーザ装置12が動画データの生成を担う場合、視聴ユーザ装置12Bが動画データの生成を行ってもよいし、配信ユーザ装置12Aが動画データの生成を行ってもよい。また、必要に応じてユーザ装置12は、他のユーザ装置12を送信先として、生成した動画データを送信する。
なお、配信ユーザ装置12A及び視聴ユーザ装置12Bは互いに異なる方式で動画を表示してもよい。例えば配信ユーザ装置12Aがクライアントレンダリング方式で動画を表示し且つ視聴ユーザ装置12Bがブラウザレンダリング方式で動画を表示してもよい。
本実施形態では、各ユーザ装置12がクライアントレンダリング方式で動画を配信する方法について説明する。
クライアントレンダリング方式では、ユーザ装置12は、動画アプリケーションプログラムをストレージ22に記憶している。また、ストレージ22は、動画アプリケーションプログラムの実行に用いられるアバターオブジェクト及び他のオブジェクトの三次元モデルデータ等を記憶している。
配信ユーザ装置12Aの制御部20は、センサユニット24から取得したトラッキングデータを含む動画構成データ及びマイク26が集音した音声に基づく音声データをサーバ13に送信する。配信ユーザは、自身に対応するアバターオブジェクトのパーツを好みのパーツに設定することができる。動画構成データは、アバターオブジェクトのパーツを示す識別情報(パーツID)を含んでいる。また、配信ユーザは、仮想空間の仮想カメラの位置を調整可能である。動画構成データは、仮想カメラの位置を含んでいてもよい。トラッキングデータ及び音声データには、タイムスタンプが付与されている。タイプスタンプは、制御部20の計時機能を有する回路(内部クロック)に基づく基準時間情報に基づいて生成される。又はタイムスタンプは、サーバ13から送信される時刻情報又は時刻配信サービスを提供するサーバ13から取得した基準時間情報に基づいて生成される。タイムスタンプは、基準とする時間からの経過時間を表していてもよいし、時刻を表していてもよい。
視聴ユーザ装置12Bは、配信ユーザのアバターオブジェクトのパーツIDを、動画の視聴を開始したタイミング等の所定のタイミングで予め受信している。視聴ユーザ装置12Bは、トラッキングデータを配信ユーザのアバターオブジェクトに適用する。また、視聴ユーザ装置12Bの制御部20は、アバターオブジェクト、アバターオブジェクト以外のオブジェクトを含めてレンダリングを行う。ここでいうレンダリングは、仮想カメラの位置の取得、透視投影、オブジェクトの各々に関連付けられた深度情報に基づく隠面消去等が含まれる描画処理をいう。レンダリングは、これらのうち少なくとも一つの処理であってもよいし、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。
制御部20は、視聴ユーザからの投稿メッセージ又は通知等のデータをサーバ13から受信する。制御部20は、アバターオブジェクトや他のオブジェクトの画像と、投稿メッセージや通知等を合成した動画データをディスプレイ28に出力する。また、制御部20は、タイムスタンプに基づいて音声データを動画データと同期させてスピーカ25から出力する。
さらに、制御部20は、視聴ユーザの操作に基づいて、ギフトオブジェクトの表示要求(ギフト表示要求)の送信、動画に対するメッセージの投稿、動画に対する評価(「いいね!」ボタン、又は「favorite」ボタンの選択等)を行う。
<動画に用いられるデータの構成>
次に図2~図4を参照して、動画の配信又は視聴に用いられる各データについて、詳述する。
図2は、ユーザ管理データ50の一例を示す。ユーザ管理データ50は、サーバ13に記憶される。ユーザ管理データ50は、ユーザの識別情報であるユーザID、コイン、ポイントのデータを含む。コインは、ユーザが購入可能な媒体である。ポイントは、動画の視聴、動画の配信等のアクションにより得ることができる媒体である。この他に、ユーザ管理データ50は、イベントに参加することにより累積するスコアを含んでいてもよい。コイン、ポイント、スコアは、動画配信サービス内で利用することが可能である。なお、ユーザ装置12がユーザ管理データ50を記憶していてもよい。
図3は、アバターオブジェクトの本体パーツデータ51の一例である。本体パーツデータ51は、ユーザ装置12のストレージ22に記憶される。
本体パーツについて説明する。本体パーツは、アバターオブジェクトの部位を構成するパーツである。本体パーツを描画するデータは、ポリゴンデータ、及びアバターオブジェクトの動作を表現するための骨格データ(ボーン)、テクスチャデータ等を含む。また、本体パーツには、アバター属性が関連付けられている。アバター属性は、例えば「M型」等の男性型、「F型」等の女性型といった型式、身長、肌色、体型等である。アバター属性によって、アバターオブジェクトの骨格データ、ポリゴンデータ等が異なる。ユーザがアバター属性を選択することによって、上半身や下半身等の本体パーツが選択される。また、この本体パーツの一部は、ユーザが任意に設定することができる。例えば、ユーザは、目、口、髪型等のパーツを選択することが可能である。本実施形態では、各ユーザは、ユーザが利用可能なアバターとして3体のアバターオブジェクトを登録することが可能である。
本体パーツデータ51は、アバターのスロット番号、型式、身長、肌色、体型、その他の本体パーツに関する情報を含む。本体パーツデータ51は、アバターのスロット番号毎に、各種の情報を有している。型式は、ユーザが選択したアバター属性である型式である。身長、肌色、体型は、ユーザが選択した身長、肌色、体型の識別情報である。ユーザが選択する前は、身長、肌色及び体型は、初期設定のままである。ユーザは、身長、肌色及び体型の設定を変更することが可能である。パーツは、目、口、及び髪型等の個別のパーツのIDである。また、複数の装着パーツの中には、色が選択可能な装着パーツがある。例えば、「Tシャツ」である装着パーツには、「赤」、「青」、「緑」の色が選択可能である。なお、ユーザが本体パーツを選択する前は、初期設定の本体パーツが適用されている。
図4は、装着パーツデータ52の一例を示す。装着パーツについて説明する。装着パーツは、アバターオブジェクトの所定の部位に適用されるパーツである。装着パーツは、例えば上半身に適用される「トップス」、足に適用される「靴」、下半身に適用される「スカート」等である。ユーザは、アバターオブジェクトのアバター属性に応じた複数の装着パーツから、好みの装着パーツを選択することが可能である。つまり、視聴ユーザは、スロット番号が「1」~「3」のアバターオブジェクト毎に、装着パーツを適用することができる。なお、ユーザが装着パーツを選択する前は、初期設定の装着パーツが適用されている。
装着パーツには、アバターオブジェクトの部位を示す属性データが関連付けられている。なお、装着パーツは、アバターオブジェクトの所定の部位に関連付けられるものであればよく、アバターオブジェクトの衣服類以外にも、「コップ」、「ジョッキ」、「傘」、「楽器」等であってもよい。例えば「コップ」は、アバターオブジェクトの手の部位に関連付けられている。「コップ」のパーツが手に適用されることにより「コップ」を持ったアバターオブジェクトを表示することができる。装着パーツには、アプリケーションプログラムをインストールしたときに記憶される標準のパーツと、ユーザがコインとの交換やイベントへの参加等を行うことによってサーバ13が付与するパーツがある。
装着パーツデータ52は、パーツID、アイテム名、部位、属性、色及び適用されるアバターオブジェクトのスロット番号を含む。パーツIDは、選択した装着パーツの識別情報(ID)である。アイテム名は、装着パーツの名称である。例えば、「初心者Tシャツ」等のアイテムの名称が記憶されている。部位は、装着パーツが適用されるアバターオブジェクトの部位である。属性は、その装着パーツが適用されるアバターの属性であり、全属性(例えば「All」)、「M型」、又は「F型」が設定される。色は、装着パーツの色であって、ユーザが選択した色を示す。適用されるスロット番号は、ユーザが登録したアバターオブジェクトのうち、装着パーツが適用されるアバターオブジェクトのスロット番号を示す。
ユーザ装置12は、装着パーツデータ52のほか、非装着パーツデータを記憶していてもよい。非装着パーツは、仮想空間に適用される装着パーツ以外のパーツである。例えば、非装着パーツは、背景として表示される壁紙等のオブジェクトである。非装着パーツデータは、パーツ毎に、パーツID、アイテム名、色を含む。なお、非装着パーツは、適用対象のアバターオブジェクトと関連付けて記憶されていてもよい。
<コラボレーション配信機能>
次に、コラボレーション配信機能(共演機能)について説明する。コラボレーション配信では、配信ユーザ以外のユーザは、共演者として、自身に対応するアバターオブジェクトを配信中の動画に表示させることができる。コラボレーション配信における共演は、配信ユーザによりコラボレーション配信を許可する設定がなされた動画でのみ行うことができる。つまり、配信ユーザによって許可されたユーザは、共演者となることが可能である。コラボレーション配信は、配信ユーザに加え、1人以上所定人数以下の共演ユーザが参加できる。所定人数は例えば3人である。なお、配信ユーザのアバターオブジェクト110は、特許請求の範囲の第1アバターオブジェクトに対応する。
コラボレーション配信に参加するにあたり、ユーザ装置12は、配信ユーザ装置12Aに参加申請を送信する。配信ユーザが参加申請を承認すると、コラボレーション配信において配信ユーザがホストユーザ、参加申請を行ったユーザがゲストユーザとなる。そして、ホストユーザに対応するホストアバターオブジェクト、及びゲストユーザに対応するゲストアバターオブジェクトが動画に表示される。
図5は、コラボレーション配信の視聴画面60を示す。この視聴画面60は、視聴ユーザ装置12Bのディスプレイ28に表示される。なお、配信ユーザ装置12Aにもほぼ同様の画面が表示される。
視聴画面60は、ホストアバターオブジェクト61の画像を含む。図5に示す視聴画面60は、ホストアバターオブジェクト61のほか、三人のゲストユーザのゲストアバターオブジェクト62~64を表示した例を示している。ゲストアバターオブジェクト62は第3アバターオブジェクトに対応する。
1体目のゲストアバターオブジェクト62は、第1ゲストユーザに対応するアバターオブジェクトである。ゲストアバターオブジェクト62は、ホストアバターオブジェクト61の位置70の右側の位置71に表示される。ホストアバターオブジェクト61及びゲストアバターオブジェクト62は、三次元モデルデータを用いて描画される。また、ホストアバターオブジェクト61にはホストユーザの動作を検出したトラッキングデータが適用されている。つまり、ホストユーザの身体の動きに合わせて、ホストアバターオブジェクト61が動作する。ゲストアバターオブジェクト62には、第1ゲストユーザの動作を検出したトラッキングデータが適用されている。つまり、第1ゲストユーザの身体の動きに合わせて、ゲストアバターオブジェクト62が動作する。なお、トラッキングデータが適用されるゲストアバターオブジェクト62を、第2アバターオブジェクトという。
第1ゲストユーザの次に参加申請が承認された第2ゲストユーザのゲストアバターオブジェクト63は、ホストアバターオブジェクト61及びゲストアバターオブジェクト62の後方のうち左側の位置72に表示される。第2ゲストユーザの次に参加申請が承認された第3のゲストユーザのゲストアバターオブジェクト64は、後方右側の位置73に表示される。ゲストアバターオブジェクト63,64は、三次元モデルデータを用いて描画される。ゲストアバターオブジェクト63には、第2ゲストユーザの動作を検出したトラッキングデータが適用されている。ゲストアバターオブジェクト64には、第3ゲストユーザの動作を検出したトラッキングデータが適用されている。
ゲストアバターオブジェクト62は、第1ゲストユーザの操作により退出する。又は、ゲストアバターオブジェクト62は、表示が開始されてから所定時間が経過したとき、ゲストアバターオブジェクト62は位置71から自動的に退出するようにしてもよい。そして、第2ゲストユーザのゲストアバターオブジェクト63が位置71に配置される。また、第3ゲストユーザのゲストアバターオブジェクト64は位置72に配置される。さらに、共演を待機する新たなゲストアバターオブジェクトが存在する場合には、そのアバターオブジェクトが位置73に表示される。なお、四人の許容枠において、二人の共演者のゲストアバターオブジェクト62,63のみが存在し、待機するゲストユーザが存在しない場合には、それらのゲストアバターオブジェクト62,63が表示され続けてもよい。
<簡易アバターオブジェクトの表示機能>
次に、視聴ユーザに対応するアバターオブジェクト110の表示機能について説明する。描画の処理負荷が小さく且つ視聴ユーザに対応するアバターオブジェクト110を、以下において簡易アバターオブジェクトという。簡易アバターオブジェクトの画像データは、ユーザ装置12の制御部20によって予め生成されている。簡易アバターオブジェクトは、簡易アバターオブジェクトに対応する視聴ユーザによって選択されているスロット番号のアバターオブジェクトである。このアバターオブジェクトには、その視聴ユーザによって選択された装着パーツが適用されている。換言すると、動画の配信に用いる3次元のアバターオブジェクト110を構成している本体パーツ及び装着パーツに基づいて生成されている。また、生成された簡易アバターオブジェクトの画像データは、ユーザ装置12のストレージ22に記憶されている。なお、簡易アバターオブジェクトの画像データは、サーバ13が生成してもよい。
簡易アバターオブジェクトは、描画の処理負荷が軽減されたデータである。簡易アバターオブジェクトは、二次元オブジェクトとして描画すること、トラッキングデータを適用しないこと、及びポリゴン数を低減させることの少なくとも一つの手法を用いて処理負荷が軽減されている。さらにユーザ装置12の処理負荷を低減するため、簡易アバターオブジェクトの画像データは、複数のパーツを一体化したものであってもよい。また、簡易アバターオブジェクトには物理的挙動を行うコンポーネントが省略されていてもよい。また、簡易アバターオブジェクトの画面上の大きさは、ホストアバターオブジェクト61及びゲストアバターオブジェクト62~64の画像の大きさに比べて小さい。
本実施形態においては、簡易アバターオブジェクトは、二次元オブジェクトとして描画される。また、簡易アバターオブジェクトは、トラッキングデータが適用されない。
さらに、簡易アバターオブジェクトの表示は、配信ユーザによる許可は必要なく、視聴ユーザが予め定めた基準アクションを実行したことを契機に表示される。つまり、配信ユーザが動画の配信中に、基準アクションが実行される都度、簡易アバターオブジェクトの表示を許可する操作又は許可しない操作を実行する場合、配信ユーザの操作が煩雑になってしまう。このため、簡易アバターオブジェクトは、配信ユーザの許可を経ることなく表示される。また、簡易アバターオブジェクトはトラッキングデータが適用されないので、視聴ユーザが動画内で迷惑行為を行う可能性は低い。このため、簡易アバターオブジェクトの表示について、配信ユーザが許可を行う必要性は低い。
また、簡易アバターオブジェクトは、GUI(Graphical User Interface)を表示するための領域に配置される。以下、この領域をUI表示領域という。UI表示領域に配置されたGUIは、三次元の仮想空間において最前面に表示される。
簡易アバターオブジェクトは、UI表示領域に表示されるため、仮想空間内に設定される仮想カメラに対する深度情報(Z値、画面奥行方向の位置)が関連付けられていない。深度情報は、画面を表示する仮想カメラからの距離を示す。仮想カメラから遠い位置にあるオブジェクトは、深度が大きくなる。このため、簡易アバターオブジェクトを描画する際は、他の三次元オブジェクトとのレンダリングにおいて、深度テスト(隠面消去)を行う必要が無い。深度テストでは、一方のオブジェクトが他方のオブジェクトの手前にあるか又は奥にあるかを判定し、他方のオブジェクトの奥にある場合には、一方のオブジェクトの隠れていない領域を描画し、隠れている領域を描画しない。深度テストの一つの手法として、例えばZテスト(Z‐buffering)がある。ゲストアバターオブジェクト62~64については深度テストを行う必要があるが、簡易アバターオブジェクトは深度情報が関連付けられていないため、深度テストを行う必要が無い。このため、ゲストアバターオブジェクト62~64を描画するための処理負荷よりも、簡易アバターオブジェクトを描画するための処理負荷を低減することができる。
簡易アバターオブジェクトは、視聴ユーザが以下の基準アクションを行ったことを契機にユーザ装置12のディスプレイ28に表示される。
・動画の視聴を開始したとき。
・動画に対して評価を行ったとき。
・メッセージを投稿したとき。
・ギフト表示要求を送信したとき。
視聴ユーザ装置12Bは、視聴ユーザによる基準アクションの指示操作を受け付けると、実行された基準アクションに関連付けられた各種のデータと、簡易アバターオブジェクトの画像データとをサーバ13に送信する。このとき、画像データではなく、簡易アバターオブジェクトを表示するための本体パーツ及び装着パーツのパーツIDを送信してもよい。また、視聴ユーザ装置12Bは、簡易アバターオブジェクトの画像データ又はパーツIDを、基準アクションの指示操作を受け付ける前に予めサーバ13に対して送信していてもよい。
サーバ13は、基準アクションに対応するデータと、基準アクションに対応するデータの表示要求とを配信ユーザ装置12A及び複数の視聴ユーザ装置12Bに送信する。送信先の視聴ユーザ装置12Bは、簡易アバターオブジェクトの画像データ等を送信した視聴ユーザ装置12Bを含んでいてもよいし、含んでいなくてもよい。送信先の視聴ユーザ装置12Bに、簡易アバターオブジェクトの画像データ等を送信した視聴ユーザ装置12Bが含まれない場合、その視聴ユーザ装置12Bは基準アクションに関連付けられた各種のデータと、簡易アバターオブジェクトの画像データに基づいて画面を表示する。
配信ユーザ装置12A及び視聴ユーザ装置12Bは、実行された基準アクションに関連付けられた各種のデータと、簡易アバターオブジェクトの画像データとをサーバ13から受信する。そして、それらの配信ユーザ装置12A及び視聴ユーザ装置12Bは、ホストアバターオブジェクト61に加え、簡易アバターオブジェクト、基準アクションに対応する情報をディスプレイ28に出力する。
簡易アバターオブジェクト80は、所定時間だけ動画に表示される。つまり、簡易アバターオブジェクト80が表示される期間は、配信ユーザのアバターオブジェクト110が表示される期間よりも短い。又は、簡易アバターオブジェクト80は、配信ユーザの操作又は簡易アバターオブジェクト80に対応する視聴ユーザの操作に基づき、動画から消去されるようにしてもよい。
(動作)
次に、ユーザ装置12及びサーバ13の動作について説明する。
ユーザ装置12は、第1出力制御処理、第2出力制御処理及び第3出力制御処理を行う。
第1出力制御処理では、制御部20は、配信ユーザの動作を表すトラッキングデータを適用したアバターオブジェクト110を含む動画をディスプレイ28に出力する。
第2出力制御処理では、制御部20は、視聴ユーザの動画に対するアクションが、予め定めた基準アクションに該当する場合に、アバターオブジェクト110に加えて、簡易アバターオブジェクト及び基準アクションに対応する情報を動画にアバターオブジェクト110の表示期間よりも短い表示期間内において表示する。簡易アバターオブジェクトは、第1アバターオブジェクトよりも描画の処理負荷が小さく且つ視聴ユーザに対応する。
第3出力制御処理では、制御部20は、動画に他のユーザが共演者として参加する場合に、配信ユーザのアバターオブジェクト110及び共演ユーザの動作を表すゲストアバターオブジェクト62を含む動画をディスプレイ28に出力する。共演ユーザのゲストアバターオブジェクト62は、共演ユーザの動作を表すトラッキングデータが適用されている。
サーバ13は、第1処理、第2処理、第3処理、及び第4処理を行う。
第1処理では、制御部30は、配信ユーザの動作を表すトラッキングデータを適用したアバターオブジェクト110を含む動画を、視聴ユーザが用いる視聴ユーザ装置12Bから動画の視聴要求に基づき視聴ユーザ装置12Bのディスプレイ28に出力させる。
第2処理では、制御部30は、視聴ユーザの基準アクションに対応する情報を視聴ユーザ装置12Bから取得する。
第3処理では、制御部30は、配信ユーザのアバターオブジェクト110よりも描画の処理負荷が小さく且つ視聴ユーザに対応する簡易アバターオブジェクトを描画するためのデータを視聴ユーザ装置12Bから取得する。
第4処理では、制御部30は、視聴ユーザの動画に対するアクションが、基準アクションに該当する場合に、アバターオブジェクト110に加えて、簡易アバターオブジェクト及び基準アクションに対応する情報を動画にアバターオブジェクト110の表示期間よりも短い表示期間内において表示させる。
次に図6を参照して、視聴ユーザ装置12Bが簡易アバターオブジェクトの画像データを送信する手順について詳述する。視聴ユーザ装置12Bは、視聴ユーザが選択した動画の視聴を開始しているものとする。
視聴ユーザ装置12Bの制御部20は、ユーザによる操作部27に対する入力操作に基づいて、視聴ユーザによるアクションを検知したか否かを判断する(ステップS10)。アクションが無いと判断すると(ステップS10:NO)、ステップS14に進む。
一方、制御部20は、視聴ユーザのアクションを検知すると(ステップS10:YES)、視聴ユーザのアバターオブジェクトである簡易アバターオブジェクトを表示するか否かを判断する(ステップS11)。具体的には、制御部20は、検知したアクションが、簡易アバターオブジェクトを表示する基準アクションに該当するか否かを判断する。基準アクションを示すリストは、予めストレージ22等に記憶されている。
制御部20は、簡易アバターオブジェクトを表示しないと判断すると(ステップS11:NO)、簡易アバターオブジェクトの画像データを送信せずに、アクションに応じた処理を行う(ステップS13)。簡易アバターオブジェクトを表示するアクションに該当しないアクションとしては、配信ユーザのフォロー、配信動画の共有、配信動画のキャプチャ(スクリーンショット)、動画の視聴の終了等である。
一方、制御部20は、簡易アバターオブジェクトを表示すると判断すると(ステップS11:YES)、簡易アバターオブジェクトの画像データをサーバ13に送信する(ステップS12)。例えば、制御部20は、視聴ユーザが動画に対して好評価を行ったとき、好評価を動画に反映する要求と、簡易アバターオブジェクトの画像データとをサーバ13に送信する。また、制御部20は、視聴ユーザが動画にメッセージを投稿したとき、メッセージの内容を含むデータと簡易アバターオブジェクトの画像データとをサーバ13に送信する。さらに、制御部20は、視聴ユーザがギフト表示要求を送信したとき、ギフト表示要求、視聴ユーザが選択したギフトオブジェクトのID、及び簡易アバターオブジェクトの画像データをサーバ13に送信する。
ステップS14において、制御部20は、動画の配信が終了したか否かを判断する。動画の配信が終了しないと判断すると(ステップS14:NO)、ステップS10に戻る。動画の配信を終了すると判断すると(ステップS14:YES)、処理を終了する。
(視聴画面)
次に図7~図12を参照して、ユーザ装置12がディスプレイ28に表示する画面について説明する。
図7を参照して、ホーム画面101について説明する。ユーザが動画アプリケーションを起動すると、ユーザ装置12は、配信中の動画のリストをサーバ13から受信する。ユーザ装置12は、リストに基づいてホーム画面101をディスプレイ28に出力する。ホーム画面101には、視聴可能な動画を示す動画選択部102が表示されている。ユーザが動画選択部102を選択すると、ユーザ装置12は、選択された動画のIDを視聴要求とともにサーバ13に送信する。サーバ13は、視聴ユーザ数を更新するとともに、動画を描画するための動画構成データ及び音声データをユーザ装置12に送信する。これにより、ユーザ装置12が視聴モードとなる。
視聴ユーザ装置12Bは、動画構成データ等をサーバ13から受信すると、動画構成データを用いて動画データを生成する。そして動画データに基づいて視聴画面100をディスプレイ28に出力する。
視聴画面100及び配信ユーザ装置12Aに表示される配信画面は、例外を除き、アバターオブジェクト110を含む動画の内容はほぼ同じである。このため、図8~図12では視聴画面100を例示して簡易アバターオブジェクト80の表示態様について説明する。
図8は、視聴画面100の一例を示す。視聴画面100は、配信ユーザに対応するアバターオブジェクト110の画像を含む。アバターオブジェクト110には、配信ユーザの動作に基づくトラッキングデータが適用されている。アバターオブジェクト110には、装着パーツ111の描画データが適用されている。仮想空間には、壁紙である非装着パーツ125が適用されている。また、視聴ユーザ装置12Bは、アバターオブジェクト110のアニメーションと同期させて音声をスピーカ25から出力する。
また、視聴画面100は、視聴者数112と総ハート数113とを含む。視聴者数112は、動画を視聴した視聴者を累積した人数である。又は視聴者数112は、動画を視聴中の視聴者数であってもよい。また、総ハート数113は、動画を開始してから動画に対し視聴者が好評価を行った回数である。
また、視聴画面100は、視聴ランキングボタン114、配信ユーザランキングボタン115、共有ボタン116、及びフォローボタン117を含む。視聴ランキングボタン114を視聴ユーザが操作することで、視聴ユーザ装置12Bは、その配信ユーザが配信する動画を視聴したことのある視聴ユーザにおいて、ギフトの送付数に基づく視聴ユーザの順位を表示する。配信ユーザランキングボタン115は、動画を配信する全ての配信ユーザにおいて、ギフトオブジェクトを受け取った数に基づく配信ユーザの順位を表示する。例えば、この順位は、全ての配信ユーザを対象に算出されたものである。また、順位は、「花束」等のギフトオブジェクトの種類毎に、ギフトオブジェクトを受け取った数の多い順に並べた順位である。
共有ボタン116を視聴ユーザが選択することで、視聴ユーザ装置12Bは動画のリンク(URL)を他のソーシャルネットワークサービスで送信すること、リンクのコピー、又は相互にフォローしているユーザのフォローリストの読み出し等を行う。フォローボタン117を視聴ユーザが選択することで、サーバ13はこの視聴ユーザとこの動画を配信する配信ユーザとを関連付ける。
また、視聴画面100は、メッセージ入力部118及びメッセージ表示部119を含む。メッセージ入力部118は、視聴ユーザが配信ユーザに対するメッセージを送信することが可能である入力フォームである。メッセージ表示部119は、各視聴ユーザ装置12Bが送信したメッセージ、又は視聴ユーザのアクションに基づきサーバ13が送信した定型のメッセージである。メッセージ表示部119は、最新のものが最も上方(又は下方)になるように表示され、新たなメッセージ表示部119が追加されると下方(又は上方)に移動し、メッセージ表示部119の表示可能領域の下方(又は上方)まで到達すると消去される。
また、視聴画面100は、カメラボタン120、好評価ボタン121及びギフトボタン122を含む。カメラボタン120が選択操作されると視聴ユーザ装置12Bは表示している視聴画面100をキャプチャする。また、キャプチャした視聴画面100を、ストレージ22に記憶する。好評価ボタン121が選択操作されると、視聴ユーザ装置12Bは、例えばハートマーク等の好評価を示す指標を視聴画面100に表示する。また、視聴ユーザ装置12Bは好評価を反映する要求をサーバ13に送信する。サーバ13は好評価を反映する要求を受信すると、総ハート数113を更新する。視聴ユーザは、対価の支払いを行うことなく好評価を示す指標を動画に表示することができる。
ギフトボタン122が選択操作されると、視聴ユーザ装置12Bは、ギフトの一覧を視聴画面100に重ねて表示する。その視聴ユーザ装置12Bを用いる視聴ユーザはギフトの一覧からギフトを選択する。視聴ユーザ装置12Bは、選択されたギフトのギフトID及びギフト表示要求をサーバ13に送信する。また、その視聴ユーザ装置12Bは、ギフトID及びギフト表示要求をサーバ13から受信すると、ギフトIDに対応するギフトオブジェクトをアバターオブジェクト110とともに描画する。視聴ユーザは、対価の支払いを行ってギフトオブジェクトを動画に表示する。ギフトオブジェクトに対して支払われうる対価は、コイン及びポイントである。上述したようにコインはユーザが購入するものであるため、コインが支払われるギフトオブジェクトは有償オブジェクトである。ポイントは、動画に関するユーザのアクションに基づきユーザが獲得できるものである。このため、ポイントが支払われるギフトオブジェクトは無償オブジェクトである。
上述したように、視聴ユーザ装置12Bは、その視聴ユーザ装置12Bを用いる視聴ユーザのアクションが基準アクションに該当する場合に、簡易アバターオブジェクト80を表示する。視聴ユーザ装置12Bは、動画アプリケーションプログラムを起動したとき、又は動画の視聴を開始したとき等のタイミングで、簡易アバターオブジェクト80の画像データの生成処理を行う。具体的には、スロット番号が「1」~「3」のアバターオブジェクト110のうち、その視聴ユーザが選択しているアバターオブジェクト110のパーツID又は画像データを取得する。このとき取得されたアバターオブジェクト110の画像データには、その視聴ユーザが予め適用した装着パーツ111が適用されている。つまり、視聴ユーザは、自身の簡易アバターオブジェクト80が動画に表示されることから、簡易アバターオブジェクト80に適用される装着パーツを配信ユーザに合わせたり、現実世界の季節に合わせたものとしたりする等の工夫をすることが可能となる。
そして制御部20は、画像データの軽量化を行う。上述したように、例えば、視聴ユーザ装置12Bは、アバターオブジェクト110の画像データを二次元化する。また、アバターオブジェクト110の大きさよりも簡易アバターオブジェクト80を小さくする。その視聴ユーザ装置12Bは簡易アバターオブジェクト80の画像データを生成してストレージ22に記憶する。そして、その視聴ユーザ装置12Bを用いる視聴ユーザが基準アクションを行ったとき、簡易アバターオブジェクト80の画像データをストレージ22から読み出してサーバ13に送信する。
なお、簡易アバターオブジェクト80の画像データの生成処理は、サーバ13が行ってもよい。このときサーバ13は、視聴ユーザ装置12Bから、本体パーツのID及び装着パーツのIDを受信するとともに、これらのIDに基づいて簡易アバターオブジェクト80の画像データを生成する。又は、簡易アバターオブジェクト80の画像データの生成処理は、各視聴ユーザ装置12Bが視聴画面100を描画する際に生成するようにしてもよい。この場合、視聴ユーザ装置12Bは、アクションを行った視聴ユーザの視聴ユーザ装置12Bから、サーバ13を介して、本体パーツのID及び装着パーツのIDを受信するとともに、これらのIDに基づいて簡易アバターオブジェクト80の画像データを生成する。
図8に示す視聴画面100では、動画の視聴を開始した視聴ユーザの簡易アバターオブジェクト80が表示されている。視聴ユーザ装置12Bは、他の視聴ユーザが視聴を開始した場合、サーバ13からその他の視聴ユーザに対応する簡易アバターオブジェクト80の画像データを受信して、簡易アバターオブジェクト80を表示する。また、視聴ユーザ装置12Bは、当該視聴ユーザ装置12Bを用いる視聴ユーザが動画の視聴を開始したとき、簡易アバターオブジェクト80の画像データをサーバ13に送信する。また、ストレージ22から読み出した簡易アバターオブジェクト80の画像をディスプレイ28に表示するか、又は、サーバ13から受信した簡易アバターオブジェクト80の画像データに基づいて簡易アバターオブジェクト80の画像を表示する。
視聴画面100は表示スペースが限られているため、多数の簡易アバターオブジェクト80をレイアウトすることが難しい。よって、視聴ユーザ装置12Bは、簡易アバターオブジェクト80を1つずつ表示する。このとき、簡易アバターオブジェクト80の画像は、「入室しました」等のメッセージ表示部119に関連付けられていることが判別可能となるように表示される。図8の例では、メッセージ表示部119の外側であって、視聴画面100の上下方向におけるメッセージ表示部119の位置と同じ位置に表示される。
例えば、視聴ユーザ装置12Bは、サーバ13から、簡易アバターオブジェクト80の画像データを受信した順序に基づいて簡易アバターオブジェクト80を表示する。視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、動画の視聴を開始したことを表すメッセージ表示部119と同じタイミングで出力する。また、視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、メッセージ表示部119に隣接させて一定期間表示する。視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、メッセージ表示部119が消去される前に消去してもよい。このようにすると、メッセージ表示部119を閲覧可能にしつつ、他の簡易アバターオブジェクト80の表示スペースを確保することができる。又は、簡易アバターオブジェクト80の画像を、メッセージ表示部119と同時に消去するようにしてもよい。
図9に示す視聴画面100では、動画に対して好評価を行った視聴ユーザの簡易アバターオブジェクト80が表示されている。視聴ユーザ装置12Bは、好評価を示す指標129の表示要求と簡易アバターオブジェクト80の画像データをサーバ13から受信すると、これらに基づいて、指標129及び簡易アバターオブジェクト80の画像を表示する。また、視聴ユーザ装置12Bは、当該視聴ユーザ装置12Bを用いる視聴ユーザが動画を好評価する操作を行った場合、指標129の表示要求とともに簡易アバターオブジェクト80の画像データをサーバ13に送信する。
視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、好評価を行ったことを表すメッセージ表示部119と同じタイミングで表示する。また、視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、好評価が行われたことを表すメッセージ表示部119に隣接させて一定期間表示する。
図10に示す視聴画面100では、メッセージを投稿した視聴ユーザの簡易アバターオブジェクト80が表示されている。視聴ユーザ装置12Bは、他の視聴ユーザが投稿したメッセージと簡易アバターオブジェクト80の画像データをサーバ13から受信すると、これらに基づいてメッセージ表示部119及び簡易アバターオブジェクト80の画像を表示する。また、視聴ユーザ装置12Bは、当該視聴ユーザ装置12Bを用いる視聴ユーザがメッセージを投稿する操作を行った場合、メッセージとともに、簡易アバターオブジェクト80の画像データをサーバ13に送信する。
視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、視聴ユーザが投稿したメッセージを示すメッセージ表示部119と同じタイミングで出力する。また、視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、投稿されたメッセージの内容を示すメッセージ表示部119に隣接させて一定期間表示する。
図11に示す視聴画面100では、ギフトオブジェクトを贈った視聴ユーザの簡易アバターオブジェクト80が表示されている。視聴ユーザ装置12Bは、当該視聴ユーザ装置12Bを用いる視聴ユーザがギフトオブジェクト123の表示要求を送信する操作を行った場合、ギフトIDとともに、視聴ユーザに対応する簡易アバターオブジェクト80の画像データをサーバ13に送信する。また、視聴ユーザ装置12Bは、ギフトIDと簡易アバターオブジェクト80の画像データを受信すると、これらに基づいてギフトオブジェクト123及び簡易アバターオブジェクト80を表示する。視聴ユーザ装置12Bは、ギフトオブジェクト123の画像データを予めサーバ13から受信している。
例えば、視聴ユーザ装置12Bは、受信したギフトIDのギフトオブジェクト123と、簡易アバターオブジェクト80及びメッセージ表示部119とを同時に表示することが好ましい。これによれば、ギフトオブジェクト123を贈った視聴ユーザを判別可能に表示することができる。
視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像を、メッセージ表示部119が消去される前に消去してもよい。このようにすると、メッセージ表示部119を閲覧可能にしつつ、他の簡易アバターオブジェクト80の表示スペースを確保することができる。又は、簡易アバターオブジェクト80の画像を、メッセージ表示部119と同時に消去する。
図12に示す視聴画面100では、配信ユーザによって視聴ユーザのプロフィールが表示されている場面を示している。配信ユーザ装置12Aが、配信ユーザによる視聴ユーザのプロフィールを確認するための確認操作を受け付けると、視聴ユーザのプロフィール情報をディスプレイ28に出力する。視聴ユーザのプロフィール情報は、視聴ユーザ装置12Bがストレージ22に記憶している。また、視聴ユーザ装置12Bは、視聴ユーザが動画の視聴を開始したとき、又は配信ユーザによる確認操作を受け付けたとき等の所定のタイミングで視聴ユーザのプロフィール情報をサーバ13に送信する。
配信ユーザが視聴ユーザのプロフィールを見るとき、サーバ13は、その視聴ユーザが用いる視聴ユーザ装置12Bに対し、簡易アバターオブジェクト80の画像データを要求する。そして、サーバ13は、簡易アバターオブジェクト80の画像データを受信すると、配信ユーザ装置12A及び視聴ユーザ装置12Bに簡易アバターオブジェクト80の画像データを送信する。
視聴ユーザ装置12Bは、サーバ13から受信した画像データに基づいて、簡易アバターオブジェクト80の画像を表示する。このとき、簡易アバターオブジェクト80を、視聴画面100の端から所定位置まで歩くような動作で表示してもよい。
図13は、配信ユーザ装置12Aがディスプレイ28に表示する配信画面103の一例を示す。配信画面103は、視聴画面100と同様に簡易アバターオブジェクト80の画像を含む。配信ユーザ装置12Aは、簡易アバターオブジェクト80に関連付けて、簡易アバターオブジェクト80に対応する視聴ユーザのプロフィール情報130を表示する。なお、このプロフィール情報130は、動画を視聴している視聴ユーザ装置12Bには表示されない。これにより、視聴ユーザのプロフィールを視聴ユーザ自身の意図に反して不特定多数の他のユーザに公開することがない。また、視聴ユーザは、配信ユーザが視聴ユーザ自身のプロフィールを確認していることを把握することができる。
配信画面103は、視聴者数112、総ハート数113、コラボレーションをしている共演者の人数131を含む。共演者の人数131は、コラボレーション配信に参加している共演者の数を示す。
また、配信画面103は、共有ボタン116、共演者確認ボタン137、配信ユーザランキングボタン115、設定ボタン138、及び音声ボタン139を含む。コラボレーション配信中に共演者確認ボタン137を選択することによって、共演者のプロフィール情報130を見ることができる。共演者のプロフィール情報130を確認するときも、視聴ユーザ装置12Bは図12に示すようなプロフィール情報130を含まない視聴画面100を表示する。設定ボタン138を選択することで、配信の設定を行うことができる。音声ボタン139が選択されると、配信ユーザ装置12Aは、音声の出力を停止(ミュート)するか、又は音声停止状態を解除する。
また、配信画面103は、コメントボタン140、撮影ボタン141、ゲームボタン142、動画視聴ボタン143、ガチャ実行ボタン144を含む。コメントボタン140が操作されることで、配信ユーザ装置12Aは、コメントを入力する入力フォームを表示する。撮影ボタン141が操作されることで、配信ユーザ装置12Aは、動画のキャプチャを行う。ゲームボタン142が操作されることで、配信ユーザ装置12Aは動画の配信中に実行可能なゲームの一覧を表示する。ゲームの実況画面は、動画に表示される。動画視聴ボタン143が操作されることで、配信ユーザ装置12Aは、他の動画配信サービスによって提供される動画を選択する画面を表示する。ガチャ実行ボタン144が操作されることで、配信ユーザ装置12Aは、実行可能な抽選(ガチャ)の一覧を表示する。
第1実施形態の効果について説明する。
(1-1)ユーザ装置12は、視聴ユーザが基準アクションを行った場合に第2アバターオブジェクトである簡易アバターオブジェクト80を、第1アバターオブジェクトであるアバターオブジェクト110を含む動画に表示する。このため、視聴ユーザが動画の配信に参加する機会を増やすことができる。また、簡易アバターオブジェクト80は、配信ユーザのアバターオブジェクト110に比べ描画の処理負荷が小さいため、簡易アバターオブジェクト80を表示する第2出力制御処理の処理負荷を低減することができる。また、簡易アバターオブジェクト80と合わせて、基準アクションに対応するメッセージ表示部119を表示するため、視聴ユーザが行ったアクションを目立たせることができる。
(1-2)配信ユーザに対応するアバターオブジェクト110の他に、共演ユーザの動作が反映されたゲストアバターオブジェクト62及び共演ユーザの動作が反映されないゲストアバターオブジェクト63,64を動画に表示させる。このため、共演ユーザは自身のアバターオブジェクト110の動画への表示を通じて動画の配信に参加することができる。また、簡易アバターオブジェクト80の画面上の大きさは、配信ユーザに対応するアバターオブジェクト110及びゲストアバターオブジェクト62~64よりも小さいため、それらのアバターオブジェクト110の演出等を阻害しないようにすることができる。
(1-3)ゲストアバターオブジェクト62~64は、配信ユーザによって許可された場合に表示される。また、簡易アバターオブジェクト80は、配信ユーザの許可を経ることなく表示することが可能である一方で、視聴ユーザの動作が反映されない。このため、配信ユーザの動画配信中の許可操作が煩雑になるのを抑制することができる。また、迷惑行為を行う可能性の低いユーザの共演のみ共演を許可することで、他のユーザによる迷惑行為を抑制することができる。
(1-4)簡易アバターオブジェクト80は、画面の奥行方向と平行な方向において、配信ユーザのアバターオブジェクト110及び他のオブジェクトよりも手前に表示する。したがって、簡易アバターオブジェクト80については、他のオブジェクトとの深度の比較等の画像処理が不要となるため、簡易アバターオブジェクト80を表示する第2出力制御処理の負荷を軽減することができる。
(1-5)ユーザ装置12は、簡易アバターオブジェクト80を、視聴ユーザが行った基準アクションに対応するメッセージ表示部119と関連付けて表示する。このため、配信ユーザ及び視聴ユーザは、視聴ユーザが行ったアクションと簡易アバターオブジェクト80とを紐づけることができる。
(1-6)ユーザ装置12は、視聴ユーザが基準アクションを行った場合に加え、配信ユーザが基準アクションを実行した場合に簡易アバターオブジェクト80を表示することができる。
(1-7)配信ユーザが視聴ユーザ又はゲストユーザのプロフィール情報を確認する操作を行った場合に、配信ユーザ装置12Aは、簡易アバターオブジェクト80及びプロフィール情報130を表示する。一方、視聴ユーザ装置12Bは、簡易アバターオブジェクト80を表示し、プロフィール情報130は表示しない。このため、視聴ユーザのプロフィール情報が、不特定多数の他の視聴ユーザに意図せず公開されてしまうことを抑制することができる。
(第2実施形態)
次に、情報処理システムの第2実施形態について説明する。第2実施形態においては、視聴ユーザ数に応じて簡易アバターオブジェクト80を表示する表示態様を変更する点が第1実施形態と異なる。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
サーバ13の制御部30は、視聴ユーザ数をメモリ等に記憶している。制御部30は、視聴ユーザ装置12Bから動画の視聴要求を受信すると、視聴ユーザ数を更新する。視聴ユーザ数は、動画の視聴を途中で停止した視聴ユーザを含む累積視聴ユーザ数であってもよく、動画を視聴中である視聴ユーザ数であってもよい。
サーバ13は、視聴ユーザのアクションに基づいて簡易アバターオブジェクト80の画像を個別に表示する第1モードと、複数の簡易アバターオブジェクト80を同時に表示する第2モードとを切り替える。第1モードから第2モードへ切り替える切替条件は、第1モードにおいて視聴ユーザ数が第1モードの最大人数を超えたことである。
図14を参照して、サーバ13がモードを切り替える手順について説明する。サーバ13の制御部30は、視聴ユーザ数が最大人数を超えたか否かを判断する(ステップS20)。制御部30は、視聴ユーザ数が最大人数以下であると判断すると(ステップS20:NO)、第1モードを維持しつつ、ステップS24に進む。
制御部30が、視聴ユーザ数が最大人数を超えたと判断すると(ステップS20:YES)、モードを切り替えるか否かを判定する(ステップS21)。制御部30は、視聴ユーザ数が最大人数を超えたときに、モードを切替可能である通知を送信し、当該通知を配信ユーザ装置12Aに出力させる。そして、サーバ13が、配信ユーザの指示操作を受け付けた配信ユーザ装置12Aからモードの切替要求を受信した場合に、モードを第2モードに切り替えると判定する。サーバ13が、配信ユーザの指示操作を受け付けた配信ユーザ装置12Aからモードの維持する要求を受信した場合に、モードを第1モードに維持すると判定する。
制御部30が、モードを第2モードに切り替えないと判定すると(ステップS21:NO)、第1モードを維持して(ステップS23)、ステップS24に進む。
制御部30が、モードを第2モードに切り替えると判定すると(ステップS21:YES)、動画の表示態様を第2モードに切り替える(ステップS22)。具体的には、制御部30は、配信ユーザ装置12A及び視聴ユーザ装置12Bに、モード切替要求を送信する。視聴ユーザ装置12Bは、モード切替要求を受信したとき又はその前の所定のタイミングで、視聴ユーザの各々に対応する簡易アバターオブジェクト80の画像データをサーバ13に送信する。このとき、視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像データに代えて、簡易アバターオブジェクトのパーツIDを送信してもよい。
第2モードにおいて、サーバ13は、配信ユーザ装置12Aから送信された動画構成データを視聴ユーザ装置12Bに送信する。また、サーバ13は、視聴ユーザ装置12Bから受信した簡易アバターオブジェクト80の画像データを、配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。また、各ユーザ装置12は、サーバ13から受信した画像データに基づいて簡易アバターオブジェクト80を表示する。
このとき、ユーザ装置12は、全ての視聴ユーザの簡易アバターオブジェクト80を表示してもよい。また、全ての視聴ユーザのうち、所定人数の簡易アバターオブジェクト80を表示してもよい。例えば視聴ユーザが50人以上である場合、20人の視聴ユーザに対応する視聴ユーザの簡易アバターオブジェクト80を表示するようにしてもよい。そして、複数回に分けて、全ての視聴ユーザの簡易アバターオブジェクト80を表示するようにしてもよい。この場合、簡易アバターオブジェクト80の表示が入れ替わる際に、新たに表示される複数の簡易アバターオブジェクト80を、視聴を開始した順番で画面外から画面内に入るように行進させるように表示してもよい。言い換えると、新たに表示される複数の簡易アバターオブジェクト80を一方向に移動させてもよい。同様に、簡易アバターオブジェクト80の表示が入れ替わる際に、退出する複数の簡易アバターオブジェクト80を画面外に行進させるように表示してもよい。
また、ユーザ装置12は、第2モードにおける簡易アバターオブジェクト80の描画処理の負荷を、第1モードにおける簡易アバターオブジェクト80の描画処理の負荷よりも小さくしてもよい。又はサーバ13が各ユーザ装置12に簡易アバターオブジェクト80の画像データを送信する際に描画処理の負荷を小さくして送信するようにしてもよい。例えば、第2モードにおける簡易アバターオブジェクト80を、個別のオブジェクトではなく、複数の簡易アバターオブジェクト80をまとめた画像データとして表示してもよい。
サーバ13は、動画の配信が終了したか否かを判断する(ステップS24)。サーバ13が動画の配信を終了していないと判断すると(ステップS24:NO)、ステップS20に戻る。また、サーバ13が動画の配信を終了したと判断すると(ステップS24:YES)、この処理を終了する。
なお、第1モードから第2モードに切り替える条件となる視聴ユーザ数が、視聴中の視聴ユーザ数である場合、第2モードに移行した後に視聴ユーザ数が最大人数以下となることがある。第2モードに移行にした後に視聴ユーザ数が最大人数以下になった場合に、第2モードを維持するようにしてもよい。又は、第2モードに移行にした後に視聴ユーザ数が最大人数以下になった場合に、第1モードに戻るようにしてもよい。
図15は、第2モードの視聴画面100である。視聴画面100は、配信ユーザのアバターオブジェクト110と、複数の視聴ユーザの簡易アバターオブジェクト80とを含む。簡易アバターオブジェクト80は、図15に例示するように、ステージ上に位置するアバターオブジェクト110の前方に並んでいてもよい。又は、アバターオブジェクト110を囲むように簡易アバターオブジェクト80が並んでいてもよい。
視聴ユーザがギフト表示要求を送信するための操作を視聴ユーザ装置12Bにおいて行うと、視聴ユーザ装置12Bは、ギフトID、ユーザID及び簡易アバターの画像データをサーバ13に送信する。サーバ13は、ギフトID、ユーザID、及び簡易アバターオブジェクト80の画像データをユーザ装置12に送信する。このとき、サーバ13はこの視聴ユーザの簡易アバターオブジェクト80を他の簡易アバターオブジェクト80よりも目立たせるようにユーザ装置12に表示させる。例えば、簡易アバターオブジェクト80を、配信ユーザのアバターオブジェクト110の隣に表示させる。アバターオブジェクト110がステージ上に位置する場合には、簡易アバターオブジェクト80もステージ上に位置する。
第2実施形態によれば、第1実施形態の(1-1)~(1-7)に記載の効果に加え、以下の効果を得ることができる。
(2-1)視聴ユーザの人数が最大人数を超えたとき、複数の視聴ユーザの簡易アバターオブジェクト80の表示を可能とする。このため、視聴ユーザが、配信ユーザのライブ会場に参加しているような演出を行うことができる。
(第3実施形態)
次に、情報処理システムの第3実施形態について説明する。第3実施形態においては、ギフトオブジェクト123を表示するとき、その表示要求を行った視聴ユーザが動画を視聴しているか否かに基づいて、ギフトオブジェクト123の表示態様を変える点が第1実施形態と異なる。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
図16を参照して、サーバ13がギフトオブジェクト123の表示要求をユーザ装置12に送信する手順について説明する。以下においてギフトオブジェクト123の表示要求を、ギフト表示要求という。
サーバ13は、ギフト表示要求を受信したか否かを判断する(ステップS31)。このとき、サーバ13は、ギフト表示要求と同時若しくはその前に、簡易アバターオブジェクト80の画像データを受信している。ギフト表示要求を受信していない場合には(ステップS31:NO)、ステップS37に進む。サーバ13は、ギフト表示要求を受信したと判断すると(ステップS31:YES)、ギフトオブジェクト123を表示するタイミングであるか否かを判断する(ステップS32)。
ここで、サーバ13は、ギフトオブジェクト123の属性に合わせて、当該ギフトオブジェクト123を表示するタイミングを判断する。ぬいぐるみ等、特に表示タイミングが限定されない場合には、ギフト表示要求を受信することを契機として視聴ユーザ装置12Bにギフトオブジェクト123を表示させる。装着オブジェクトである場合には、配信ユーザ装置12Aに装着オブジェクトであるギフトオブジェクト123が贈られたことを通知する。これに対し、配信ユーザが装着オブジェクトの表示を許可する操作を行ったときに、視聴ユーザ装置12Bにギフトオブジェクト123を表示させる。但し、配信ユーザが装着オブジェクトの表示を許可することは一例である。サーバ13は、装着オブジェクトのギフト表示要求を受信することを契機として視聴ユーザ装置12Bにギフトオブジェクト123を表示させてもよい。
また、ギフトオブジェクト123の表示位置が決められている場合がある。例えば「壁紙」、「掛け軸」、「タワーケーキ」等のギフトオブジェクト123は、予め定められた表示位置に一定期間表示されるが、既に表示位置に表示されているギフトオブジェクト123が消去されないと新たなギフトオブジェクト123を表示できない。このような場合、ギフトオブジェクト123に関連付けられた表示位置が空いた場合に、ギフトオブジェクト123を表示するタイミングであると判断する。
サーバ13は、ギフトオブジェクト123を表示するタイミングではないと判断すると(ステップS32:NO)、ギフトオブジェクト123の表示タイミングを待機する。
サーバ13は、ギフトオブジェクト123を表示するタイミングであると判断すると(ステップS32:YES)、そのギフトオブジェクト123を贈った視聴ユーザが動画を視聴中であるか否かを判断する(ステップS33)。
サーバ13は、ギフトオブジェクト123を贈った視聴ユーザが動画を視聴中であると判断すると(ステップS33:YES)、簡易アバターオブジェクト80及びギフトオブジェクト123をユーザ装置12に表示させる(ステップS34)。具体的には、サーバ13は、ギフトID及び簡易アバターオブジェクト80の画像データをユーザ装置12に送信する。ユーザ装置12は、ギフトID及び簡易アバターオブジェクト80の画像データを受信すると、ギフトIDに対応するギフトオブジェクト123を描画するとともに、簡易アバターオブジェクト80の画像を表示する。このとき、簡易アバターオブジェクト80とギフトオブジェクト123とを同じタイミングで出力することが好ましい。又は簡易アバターオブジェクト80の表示期間とギフトオブジェクト123の表示期間とが重複していることが好ましい。
一方、サーバ13は、ギフトオブジェクト123を贈った視聴ユーザが動画を視聴中ではないと判断すると(ステップS33:NO)、簡易アバターオブジェクト80を表示せずに、ギフトオブジェクト123を表示する(ステップS35)。具体的には、サーバ13は、ギフトIDをユーザ装置12に送信する。ユーザ装置12は、ギフトIDを受信すると、ギフトIDに対応するギフトオブジェクト123を描画する。
つまり、視聴ユーザ装置12Bがギフト表示要求を送信したタイミングと、ギフトオブジェクト123が表示されるタイミングとは多少のずれがあることがある。また、ギフトオブジェクト123の属性によってはギフトオブジェクト123が表示されるまでに時間を要する場合がある。そして、視聴ユーザ装置12Bがギフト表示要求を送信してから、ギフトオブジェクト123が表示されるまでの間に、ギフトオブジェクト123を贈った視聴ユーザが視聴を終了する可能性がある。
本実施形態においても上記実施形態と同様に、ギフトオブジェクト123を贈った視聴ユーザに対応する簡易アバターオブジェクト80を表示する。しかし、ギフトオブジェクト123の表示を行う前に視聴ユーザが動画の視聴を終了した場合、視聴ユーザが動画の視聴を終了しているにも関わらず簡易アバターオブジェクト80が表示されてしまうと、視聴ユーザ又は配信ユーザが違和感を覚える可能性がある。このため、ギフトオブジェクト123の表示を行う前に視聴ユーザが動画の視聴を終了した場合には簡易アバターオブジェクト80を表示しない。
ステップS37において、サーバ13は配信を終了しない場合には(ステップS37:NO)、ステップS31に戻り、ギフト表示要求を受信したか否かを繰り返し判断する。サーバ13が配信を終了した場合には(ステップS37:YES)、処理を終了する。
第3実施形態によれば、第1実施形態の(1-1)~(1-7)に記載の効果に加え、以下の効果を得ることができる。
(3-1)ユーザ装置12は、ギフト表示要求を送信した視聴ユーザが視聴を継続している場合に、ギフトオブジェクト123及び簡易アバターオブジェクト80を表示する。また、ギフト表示要求を送信した視聴ユーザが視聴を継続していない場合に、簡易アバターオブジェクト80を表示せず、ギフトオブジェクト123を表示する。このため、配信ユーザや他の視聴ユーザが、視聴ユーザが退出したにもかかわらず、その視聴ユーザの簡易アバターオブジェクト80が表示されることによる違和感を覚えることを抑制することができる。
上記各実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<ユーザ>
・上記各実施形態では、配信ユーザは、映像に関する情報及び音声に関する情報の少なくとも一方を送信する側のユーザを意味する。例えば、配信ユーザは、単独での動画配信、複数人が参加可能なコラボ配信を実行するユーザである。又は、配信ユーザは、複数人が参加及び視聴の少なくとも一方が可能なビデオチャットまたはボイスチャット、複数人が参加及び視聴の少なくとも一方が可能な仮想空間上でのイベント(パーティなど)を主催又は開催するユーザであればよい。すなわち、配信ユーザは、ホストユーザ、主催ユーザ又は開催ユーザと言い換えることもできる。
一方で、視聴ユーザは、映像に関する情報及び音声に関する情報の少なくとも一方を受信する側のユーザを意味する。ただし、視聴ユーザは上記情報を受信するのみならず、リアクションすることも可能なユーザとすることができる。例えば、視聴ユーザは、動画配信、コラボ配信を視聴するユーザである。又は視聴ユーザは、ビデオチャット、ボイスチャットやイベントに参加及び視聴の少なくとも一方を行うユーザであればよい。そのため、視聴ユーザは、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、応援ユーザなどと言い換えることもできる。
<コラボレーション配信>
・上記各実施形態では、簡易アバターオブジェクト80を1つずつ表示するようにしたが、複数の簡易アバターオブジェクト80を表示するようにしてもよい。この場合であっても、基準アクションのメッセージ表示部119と簡易アバターオブジェクト80との対応が判別可能に表示することが好ましい。
・上記各実施形態において、配信ユーザが参加を許可した場合に、共演ユーザのコラボレーション配信への参加を可能とした。これに代えて若しくは加えて、配信ユーザが許可しなくても、共演ユーザのコラボレーション配信への参加を可能としてもよい。この場合、視聴ユーザのステータス情報が所定条件を満たしたユーザのアバターオブジェクトのみ、トラッキングデータが適用されたアバターオブジェクト110として表示してもよい。また、動画での活動が所定条件を満たさないユーザのアバターオブジェクトは、簡易アバターオブジェクト80として表示される。なおステータス情報は、ユーザの動画に対する活動を示す情報や、動画に直接的又は間接的に関連するユーザの情報である。
・コラボレーション配信において、後方左側の位置及び後方右側の位置72,73に表示されるゲストアバターオブジェクト63,64は、ホストアバターオブジェクト61及びゲストアバターオブジェクト62に比べて描画の処理負荷が少ないオブジェクトであってもよい。例えば、ゲストアバターオブジェクト63,64には、第2ゲストユーザ及び第3ゲストユーザのトラッキングデータが適用されない。
また、ゲストアバターオブジェクト63,64を描画するデータは、ホストアバターオブジェクト61等を描画するデータよりも、描画の処理負荷が少ない。例えば、ゲストアバターオブジェクト63,64を描画するデータは二次元オブジェクトを描画するデータである。つまり、ゲストアバターオブジェクト63,64は、二次元オブジェクトとして描画される。
ゲストアバターオブジェクト63,64を描画する画像データは、動画を描画する視聴ユーザ装置12Bが生成したものである。又は、第2ゲストユーザ及び第3ゲストユーザが用いるユーザ装置12から送信されたものであってもよい。
ゲストアバターオブジェクト63,64を描画する描画データは、ポリゴン数を低減させたデータであってもよい。ポリゴン数を低減することで画像処理の負荷を低下させることができる。又は、ゲストアバターオブジェクト63,64を描画する描画データは、アバターオブジェクトを構成する本体パーツ及び装着パーツ等の複数のパーツを一体化させたデータであってもよい。パーツ数を減らすことで、パーツを個々に描画するよりも画像処理の負荷を軽減することができる。
又はゲストアバターオブジェクト63,64では、ホストアバターオブジェクト61に関連付けられている物理的挙動を行うコンポーネントが省略されていてもよい。例えばゲストアバターオブジェクト63,64と、他のオブジェクトが重なったとしても衝突判定を行わなくてもよい。
また、配信ユーザ装置12Aに加え、各ゲストユーザが用いるユーザ装置12は、ゲストユーザの発話に基づく音声データをサーバ13に送信するようにしてもよい。つまり、動画を表示するユーザ装置12は、ホストユーザの音声及び各ゲストユーザの音声を、動画と同期させて出力する。
又は、ゲストユーザが用いるユーザ装置12のうち、第1ゲストユーザが用いるユーザ装置12のみ、音声データをサーバ13に送信するようにしてもよい。ホストユーザ及び第1ゲストユーザの音声を出力するとともに、第2ゲストユーザ及び第3ゲストユーザの音声を出力しなくてもよい。
<簡易アバターオブジェクト>
・上記実施形態では、ユーザ装置12は、簡易アバターオブジェクト80を、二次元オブジェクトとして描画するとともに、視聴ユーザのトラッキングデータを適用せずに描画した。これに代えて、ユーザ装置12は、簡易アバターオブジェクト80を、視聴ユーザのトラッキングデータが適用された二次元オブジェクトとして描画してもよい。また、簡易アバターオブジェクト80を、三次元オブジェクトとして描画するとともに、視聴ユーザのトラッキングデータを適用せずに描画してもよい。また、簡易アバターオブジェクト80を、ポリゴン数を軽減した三次元オブジェクトとして描画してもよい。上記実施形態では、視聴ユーザのアバターオブジェクト110を2次元化したが、ユーザ装置12は、3次元オブジェクトのアバターオブジェクト110に対応する簡易アバターオブジェクト80の画像データを予め記憶していてもよい。この画像データは、アバターオブジェクト110を変形(デフォルメ)した画像データであってもよい。例えば、アバターオブジェクト110の頭部を大きくした低等身の簡易アバターオブジェクト80に関するデータであってもよい。
・第1実施形態では、配信ユーザのフォロー、配信動画の共有、配信動画のキャプチャ(スクリーンショット)、動画の視聴の終了といった視聴ユーザのアクションが基準アクションに該当しないとした。しかし、これらのアクションの何れかが実行された場合に、簡易アバターオブジェクト80を表示するようにしてもよい。
・簡易アバターオブジェクト80は、視聴ユーザの動画内でのアクションに応じて変化させてもよい。簡易アバターオブジェクト80が表示されたとき、動画を見ているユーザは簡易アバターオブジェクト80が表示される契機がわからない場合がある。特に画面のサイズが小さいスマートフォン等においては表示できる情報に限りがある。このため、簡易アバターオブジェクト80が表示される契機となる視聴ユーザのアクション毎に、簡易アバターオブジェクト80が準備されていてもよい。また、簡易アバターオブジェクト80は静止した画像でもよく、所定のモーションデータが適用されていてもよい。例えば、視聴ユーザが好評価ボタン121を選択した場合、「goodサイン」をした簡易アバターオブジェクト80を表示してもよい。また、視聴ユーザがギフトボタン122を選択した場合、プレゼントの箱を持った簡易アバターオブジェクト80を表示してもよい。また、視聴ユーザがメッセージを投稿した場合、封筒を持った簡易アバターオブジェクト80を表示してもよい。また、配信ユーザ装置12Aがプロフィール情報130を表示している間は、簡易アバターオブジェクト80が視聴ユーザのアカウント名を表示したプレートを持っていたり、手を挙げていたりしていてもよい。ユーザ装置12は、基準アクションに応じた複数の簡易アバターオブジェクト80の画像データを作成するとともにストレージ22に記憶する。この態様によれば、配信ユーザ及び視聴ユーザは、簡易アバターオブジェクト80が表示されたとき、簡易アバターオブジェクト80が表示される契機を理解することが可能となる。
<基準アクション>
・上記各実施形態では、簡易アバターオブジェクト80(第2アバターオブジェクト)を表示するシステムを、配信ユーザが配信ユーザ装置12Aを用いて動画を配信し、視聴ユーザが視聴ユーザ装置12Bを用いて動画を視聴する情報処理システムに具体化した。これに代えて、簡易アバターオブジェクト80を表示するシステムを、ユーザに対応するアバターオブジェクトが移動するメタバース(仮想空間)の画像をユーザ装置12に出力するシステムに具体化してもよい。このメタバースでは、第1ユーザが会話又はパフォーマンスする小空間において、第2ユーザがこの小空間を訪問することがある。小空間は、部屋、ライブ会場等である。この態様において、他方のユーザが小空間を訪問したときに簡易アバターオブジェクト80を表示してもよい。この場合、小空間に集合するユーザのアバターオブジェクトの数が多くなると、ユーザ装置12の処理負荷が大きくなる。よって簡易アバターオブジェクト80を表示することによって処理負荷を軽減することができる。
・第1実施形態では、配信ユーザがコメントを動画に投稿するアクションを基準アクションとしてもよい。コメントボタン140で、コメントの宛先である視聴ユーザを指定したとき、その視聴ユーザに対応する簡易アバターオブジェクト80を配信画面及び視聴画面に表示するようにしてもよい。また、例えば配信画面に表示された視聴ランキングボタン(図示略)が配信ユーザによって選択された場合に、視聴ランキングに含まれる視聴ユーザの簡易アバターオブジェクト80を順番に表示するようにしてもよい。
<簡易アバターオブジェクトの表示モード>
・第2実施形態において、視聴ユーザ数が第1モードでの最大人数を超える場合には、ユーザ装置12は第2モードで視聴ユーザの簡易アバターオブジェクト80を描画するようにした。これに代えて、視聴ユーザ装置12Bの種類に応じて描画モードを選択するようにしてもよい。例えば、視聴ユーザ装置12Bが、スマートフォンである場合には第1モードで簡易アバターオブジェクト80を描画する。また、視聴ユーザ装置12Bがパーソナルコンピュータ、ヘッドマウントディスプレイである場合には、第2モードで簡易アバターオブジェクト80を描画する。このとき、視聴ユーザ装置12Bは自身のスペック情報を取得するとともに、スペック情報が第2モードで簡易アバターオブジェクト80を描画可能であるか否かを判定するようにしてもよい。そして、視聴ユーザ装置12Bが、第2モードで簡易アバターオブジェクト80を描画可能であると判定した場合に、第2モードに移行するようにしてもよい。
・第2実施形態において、配信ユーザのアクションに応じて描画モードを切り替えるようにしてもよい。具体的には、配信ユーザ装置12Aが、配信ユーザが歌っているか、会話をしているかを判断する。配信ユーザ装置12Aが、配信ユーザが歌っていると判断すると、第2モードでの表示要求を、サーバ13を介して視聴ユーザ装置12Bに送信する。第2モードでの表示要求を受信すると、視聴ユーザ装置12Bは、予め受信した視聴ユーザの簡易アバターオブジェクト80の画像データを用いて第2モードで簡易アバターオブジェクト80を描画する。配信ユーザ装置12Aが、配信ユーザが会話していると判断すると、第1モードでの表示要求を、サーバ13を介して視聴ユーザ装置12Bに送信する。第1モードでの表示要求を受信すると、視聴ユーザ装置12Bは、予め受信した視聴ユーザの簡易アバターオブジェクト80の画像データを用いて第1モードで簡易アバターオブジェクト80を描画する。
・上記各実施形態において、配信ユーザが参加を許可した場合に、共演ユーザのコラボレーション配信への参加を可能とした。これに代えて若しくは加えて、配信ユーザが許可しなくても、共演ユーザのコラボレーション配信への参加を可能としてもよい。この場合、動画での活動が所定条件を満たしたユーザのアバターオブジェクトのみ、トラッキングデータが適用されたアバターオブジェクト110として表示してもよい。また、動画での活動が所定条件を満たさないユーザのアバターオブジェクトは、簡易アバターオブジェクト80として表示される。
<視聴ユーザに関する所定条件>
・上記各実施形態では、視聴ユーザのアクションに基づいて簡易アバターオブジェクト80を描画するようにした。これに加えて、視聴ユーザのステータス情報が視聴ユーザに関する所定条件を満たす場合に簡易アバターオブジェクト80を描画するようにしてもよい。ステータス情報は、ユーザの動画に対する活動を示す情報や、動画に直接的又は間接的に関連するユーザの情報である。動画に間接的に関連する情報とは、例えばサーバ13が外部サーバから取得可能な情報である。サーバ13は、外部サーバのAPI(Application Programming Interface)を用いて動画に間接的に関連する情報を取得する。
例えば、ステータス情報は配信ユーザと視聴ユーザとの友好関係を示す情報である。配信ユーザをフォローした視聴ユーザが基準アクションを実行した場合に、ユーザ装置12がその視聴ユーザの簡易アバターオブジェクト80を描画するようにしてもよい。つまり、視聴ユーザ装置12B等に格納されたフォローリストに配信ユーザの識別情報が含まれていればよい。また、ステータス情報は、視聴ユーザが属するグループに関する情報であってもよい。所定の条件は、配信ユーザを応援するファンクラブや、配信ユーザが属するグループに属していることであってもよい。また、ステータス情報は、視聴ユーザの動画に対する活動を示す情報であってもよい。所定の条件は、配信ユーザの応援ランキングの所定の順位以上であることである。又は、簡易アバターオブジェクト80を表示する視聴ユーザの条件は、初めて動画を視聴したことである。又は、簡易アバターオブジェクト80を表示する視聴ユーザの条件は、視聴ユーザの累積視聴時間が所定時間以上、視聴回数が所定回数以上、特定の配信者が配信する動画の累積視聴時間が所定時間以上、視聴回数が所定回数以上であることである。累積視聴時間及び視聴回数は、特定配信者が配信する動画の累積視聴時間及び視聴回数であってもよい。また、累積視聴時間及び視聴回数は、複数の配信者が配信する動画毎の累積視聴時間及び視聴回数を合計した累積視聴時間及び視聴回数であってもよい。又は、簡易アバターオブジェクト80を表示する視聴ユーザの条件は、ギフト表示要求を送信した回数が所定回数以上であることである。又は、簡易アバターオブジェクト80を表示する視聴ユーザの条件は、メッセージの投稿回数が所定回数以上であることである。又は、簡易アバターオブジェクト80を表示する視聴ユーザの条件は、所定金額以上のギフトオブジェクトを贈ったことである。又は、簡易アバターオブジェクト80を表示する視聴ユーザの条件は、課金額が基準値に到達したことである。また、簡易アバターオブジェクト80を一度表示した後は、その簡易アバターオブジェクト80を表示しないようにしてもよい。この場合には、簡易アバターオブジェクト80を表示できる視聴ユーザを制限することで、表示面積が限られたスマートフォンであっても、表示の条件を満たす全ての簡易アバターオブジェクト80を表示することができる。
・上記実施形態において、ユーザ装置12は、複数の視聴ユーザが配信ユーザにギフトを贈る場合に、それらの視聴ユーザに対応する簡易アバターオブジェクト80を描画するようにしてもよい。例えば、視聴ユーザ装置12Bは、複数の視聴ユーザがチャットを行うグループチャットの画面を表示している。グループチャットは、テキストのチャット、音声によって会話が可能である音声チャット、及びビデオチャットのいずれか一つ、又はそれらの組み合わせである。ギフト表示要求を行う一の視聴ユーザ装置12Bは、ギフトIDと、グループIDとをサーバ13に送信する。グループIDに代えて、グループに属するユーザのユーザIDを送信するようにしてもよい。サーバ13は、ギフト表示要求を受信すると、グループIDに関連付けられた視聴ユーザの視聴ユーザ装置12Bに対し、簡易アバターオブジェクト80の画像データを要求する。グループに属する視聴ユーザの視聴ユーザ装置12Bは、簡易アバターオブジェクト80の画像データをサーバ13に送信する。サーバ13は、受信した簡易アバターオブジェクト80の画像データを各ユーザ装置12に送信する。ユーザ装置12は、ギフトIDに対応するギフトオブジェクトとともに、グループに属する視聴ユーザの簡易アバターオブジェクト80を同時に描画する。又は、ユーザ装置12は、ギフトIDに対応するギフトオブジェクトとともに、グループに属する視聴ユーザのうち、代表者の簡易アバターオブジェクト80を描画する。代表者は、ギフト表示要求を行った視聴ユーザであってもよく、グループ内で予め決められた視聴ユーザであってもよい。代表者が予め決められている場合には、ユーザ装置12又はサーバ13に、そのユーザのユーザIDが記録されている。
・配信ユーザ装置12Aにおいて配信終了ボタンが選択操作された場合、配信ユーザのアバターオブジェクト110及び視聴ユーザの簡易アバターオブジェクト80が集合した状態の画像データを生成するようにしてもよい。ユーザ装置12は、配信ユーザのアバターオブジェクトに加え、全員又は一部の視聴ユーザの簡易アバターオブジェクト80を動画に表示する。また、ユーザ装置12は、画面をキャプチャして、集合写真としてディスプレイ28に表示する。さらに、ユーザ装置12は生成した画像データをストレージ22に記憶する。
・上記各実施形態では、ユーザ装置12が簡易アバターオブジェクト80の画像データを生成し、サーバ13に送信するようにした。これに代えて若しくは加えて、サーバ13が画像データを生成してもよい。または、ユーザ装置12が、動画データを生成する際に簡易アバターオブジェクト80の画像データを生成するようにしてもよい。この場合、各視聴ユーザのアバターオブジェクト110の本体パーツのパーツID、装着パーツのパーツIDを予め取得する。簡易アバターオブジェクト80の画像データを生成する装置は、動画の配信方式等に応じて変更が可能である。
(情報処理システム)
・センサユニット24は、ユーザの表情の変化、頭部の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得するとしたが、このうち少なくとも一つであってもよい。また、センサユニット24は、ユーザの表情の変化、頭部の動き及びユーザの相対位置の少なくとも一つに加えて、若しくは代えて、頭部の動作以外の動きを検出した検出データ等のその他の検出データを取得してもよい。
・動画に表示される仮想空間は、拡張現実(AR;Augmented Reality)の空間であってもよい。例えば、視聴ユーザ装置12Bのカメラが撮影した現実世界の画像に、配信ユーザ装置12Aから送信されたデータに基づくアバターオブジェクト及びギフトオブジェクト等のアニメーションを重ねて表示してもよい。又は、配信ユーザ装置12Aが、自身のカメラが撮影した現実世界の画像に、アバターオブジェクト及びギフトオブジェクト等のアニメーションを重ねて表示することによって動画を生成し、動画をエンコードしてサーバ13に送信するようにしてもよい。
・上記各実施形態では、ユーザ装置12は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、情報処理システムを、動画配信用のスタジオに設けられたシステムとしてもよい。情報処理システムは、情報処理装置、サーバ、配信ユーザの身体に装着されるセンサユニット24、センサユニット24の位置を検出するトラッキングシステム、操作部27、スピーカ25、ディスプレイ28を有する。トラッキングシステムは、同期用のパルスレーザ光を出射する多軸レーザエミッターを備えていてもよい。センサユニット24は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。センサユニット24は、例えば、HTC Corporation(登録商標)から提供されているVive Tracker(登録商標)及びVive Base Station(登録商標)を用いることができる。
・ユーザ装置12の制御部20は、アプリケーションプログラムの実行により、第1出力制御処理、第2出力制御処理、第3出力制御処理を実行するようにした。これらのうち少なくとも一つは、サーバ13、又は情報処理システム11を構成する他の装置が実行するようにしてもよい。また、サーバ13の制御部30は、第1処理、第2処理、第3処理及び第4処理を実行するようにした。これらのうち少なくとも一つは、ユーザ装置12、又は情報処理システム11を構成する他の装置が実行するようにしてもよい。
11…情報処理システム
12…ユーザ装置
13…サーバ

Claims (23)

  1. 1又は複数のコンピュータに、
    第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画をディスプレイに出力する第1出力制御処理と、
    第2ユーザの前記動画に対するアクションが、予め定めた基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第1アバターオブジェクトよりも描画の処理負荷が小さいアバターオブジェクトであって前記第2ユーザに対応する第2アバターオブジェクト前記基準アクションに対応する情報前記第1アバターオブジェクトの表示期間よりも短い表示期間内において前記動画に表示する第2出力制御処理と、を実行させる、プログラム。
  2. 前記コンピュータに、前記動画に他のユーザが共演者として参加する場合に、前記第1アバターオブジェクト及び前記共演者である共演ユーザの動作を表すトラッキングデータを適用した第3アバターオブジェクトを含む前記動画を前記ディスプレイに出力する第3出力制御処理さらに実行させ、
    前記第2出力制御処理では、前記第1アバターオブジェクト及び前記第3アバターオブジェクトよりも画面上の大きさが小さい前記第2アバターオブジェクトを表示する、請求項1に記載のプログラム。
  3. 前記第2出力制御処理では、前記第1ユーザが話した音声を出力し、複数の前記共演ユーザのうち一部の前記共演ユーザが話した音声を出力しない、請求項に記載のプログラム。
  4. 前記コンピュータに、前記第1ユーザが第1ユーザ装置において他のユーザが共演者として参加することを許可する許可操作を行ったことを条件に、前記第1アバターオブジェクト、及び前記共演者である共演ユーザの動作を表すトラッキングデータを適用した第3アバターオブジェクトを含む前記動画を前記ディスプレイに出力する第3出力制御処をさらに実行させ、
    前記第2出力制御処理では、前記第2ユーザが前記基準アクションを実行したとの条件を満たした場合に、前記第2アバターオブジェクトを前記動画に表示する、請求項1に記載のプログラム。
  5. 前記第2出力制御処理では、前記第2アバターオブジェクトを、前記基準アクションに対応する内容を含むメッセージ表示部と関連付けて表示する、請求項1に記載のプログラム。
  6. 前記第2出力制御処理では、さらに、前記第1ユーザによる前記動画に対するアクションが前記基準アクションに該当する場合に、当該基準アクションの対象となる前記第2ユーザの前記第2アバターオブジェクトを前記動画に表示する、請求項1に記載のプログラム。
  7. 前記第1ユーザの前記基準アクションは、前記第1ユーザが用いる第1ユーザ装置が前記第2ユーザのプロフィール情報の表示要求を送信したことであり、
    前記第1ユーザ装置には前記第2ユーザのプロフィール情報及び前記第2アバターオブジェクトが表示され、前記第2ユーザが用いる第2ユーザ装置には前記第2アバターオブジェクトが表示される、請求項6に記載のプログラム。
  8. 前記第2出力制御処理では、前記第2ユーザのステータス情報が所定の条件を満たす前記第2ユーザが前記基準アクションを行った場合のみ前記第2アバターオブジェクトを表示する、請求項1に記載のプログラム。
  9. 前記第2ユーザのステータス情報は、前記第1ユーザとの友好関係を示す情報であって、前記所定の条件は、前記第2ユーザのフォローリストに前記第1ユーザの識別情報が含まれていることである、請求項8に記載のプログラム。
  10. 前記第2ユーザのステータス情報は、前記第2ユーザが属するグループに関する情報であって、前記所定の条件は、前記第2ユーザが、前記第1ユーザが含まれるグループに属していることである、請求項8に記載のプログラム。
  11. 前記第2ユーザのステータス情報は、前記動画に対する活動を示す情報であって、前記所定の条件は、前記第1ユーザが配信する前記動画を視聴した回数である視聴回数が所定回数以上、又は前記第1ユーザが配信する前記動画を視聴した時間を累積した累積視聴時間が所定時間以上であることである、請求項8に記載のプログラム。
  12. 前記第2ユーザのステータス情報は、前記動画に対する活動を示す情報であって、前記所定の条件は、前記第1ユーザが配信する前記動画に対するメッセージの投稿回数又はギフトオブジェクトの表示要求を送信した回数が所定回数以上であることである、請求項8に記載のプログラム。
  13. 前記第2ユーザのステータス情報は、前記動画に対する活動を示す情報であって、前記所定の条件は、前記第1ユーザが配信する前記動画に対する課金が基準値に到達したことである、請求項8に記載のプログラム。
  14. 前記コンピュータに、
    前記動画を視聴する前記第2ユーザの人数が所定人数を超えたかを判定する処理をさらに実行させるとともに、
    前記第2出力制御処理では、前記第2ユーザの人数が所定人数以下である場合に、複数の前記第2アバターオブジェクトを1つずつ表示し、前記第2ユーザの人数が所定人数を超えた場合に、複数の前記第2アバターオブジェクトを同じ期間内において表示する、請求項1に記載のプログラム。
  15. 前記コンピュータに、前記第1ユーザによって前記動画の配信が終了される場合に、前記第2アバターオブジェクト及び前記第1アバターオブジェクトが集合した状態を画面に表示する処理と、
    前記集合した状態を含む画面をキャプチャした画像データを記憶部に記憶する処理と、をさらに実行させる、請求項1に記載のプログラム。
  16. 前記第2出力制御処理では、ギフトオブジェクトを表示するとき、当該ギフトオブジェクトの表示要求を送信した前記第2ユーザが用いる第2ユーザ装置が視聴モードを継続している場合には前記第2アバターオブジェクト及び前記ギフトオブジェクトを表示し、前記第2ユーザ装置が前記視聴モードではない場合には前記第2アバターオブジェクトを表示せずに前記ギフトオブジェクトを表示する、請求項1に記載のプログラム。
  17. 前記基準アクションは、前記第2ユーザが用いる第2ユーザ装置が前記動画の視聴を開始したことである、請求項1~16のいずれか1項に記載のプログラム。
  18. 前記基準アクションは、前記第2ユーザが用いる第2ユーザ装置が前記動画に対する評価に関する情報を送信したことである、請求項1~16のいずれか1項に記載のプログラム。
  19. 前記基準アクションは、前記第2ユーザが用いる第2ユーザ装置が前記動画に対するメッセージを投稿したことである、請求項1~16のいずれか1項に記載のプログラム。
  20. 前記基準アクションは、前記第2ユーザが用いる第2ユーザ装置が前記動画に対してギフトオブジェクトの表示要求を送信したことである、請求項1~16のいずれか1項に記載のプログラム。
  21. 1又は複数のコンピュータが、
    第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画をディスプレイに出力する第1出力制御処理と、
    第2ユーザの前記動画に対するアクションが、予め定めた基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第1アバターオブジェクトよりも描画の処理負荷が小さいアバターオブジェクトであって前記第2ユーザに対応する第2アバターオブジェクト前記基準アクションに対応する情報前記第1アバターオブジェクトの表示期間よりも短い表示期間内において前記動画に表示する第2出力制御処理と、を実行する、情報処理方法。
  22. 第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画を、第2ユーザが用いる第2ユーザ装置から動画の視聴要求に基づき前記第2ユーザ装置のディスプレイに出力させる第1処理部と、
    前記第2ユーザの前記動画に対するアクションであって予め定めた基準アクションに対応する情報を前記第2ユーザ装置から取得する第2処理部と、
    前記第1アバターオブジェクトよりも描画の処理負荷が小さいアバターオブジェクトであって前記第2ユーザに対応する第2アバターオブジェクトを描画するためのデータを前記第2ユーザ装置から取得する第3処理部と、
    前記第2ユーザの前記動画に対するアクションが、前記基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第2アバターオブジェクト前記基準アクションに対応する情報前記第1アバターオブジェクトの表示期間よりも短い表示期間内において前記動画に表示させる第4処理部と、を備える、情報処理装置。
  23. 1又は複数のコンピュータが、
    第1ユーザの動作を表すトラッキングデータを適用した第1アバターオブジェクトを含む動画を、第2ユーザが用いる第2ユーザ装置から動画の視聴要求に基づき前記第2ユーザ装置のディスプレイに出力させる第1処理と、
    前記第2ユーザの前記動画に対するアクションであって予め定めた基準アクションに対応する情報を前記第2ユーザ装置から取得する第2処理と、
    前記第1アバターオブジェクトよりも描画の処理負荷が小さいアバターオブジェクトであって前記第2ユーザに対応する第2アバターオブジェクトを描画するためのデータを前記第2ユーザ装置から取得する第3処理と、
    前記第2ユーザの前記動画に対するアクションが、前記基準アクションに該当する場合に、前記第1アバターオブジェクトに加えて、前記第2アバターオブジェクト前記基準アクションに対応する情報、前記第1アバターオブジェクトの表示期間よりも短い表示期間内において前記動画に表示させる第4処理と、を実行する、情報処理方法。
JP2022104194A 2022-06-29 2022-06-29 プログラム、情報処理方法、及び情報処理装置 Active JP7323900B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022104194A JP7323900B1 (ja) 2022-06-29 2022-06-29 プログラム、情報処理方法、及び情報処理装置
US18/129,505 US20240007700A1 (en) 2022-06-29 2023-03-31 Program, information processing method, and information processing device
JP2023117382A JP2024007548A (ja) 2022-06-29 2023-07-19 プログラム、情報処理方法、及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022104194A JP7323900B1 (ja) 2022-06-29 2022-06-29 プログラム、情報処理方法、及び情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023117382A Division JP2024007548A (ja) 2022-06-29 2023-07-19 プログラム、情報処理方法、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP7323900B1 true JP7323900B1 (ja) 2023-08-09
JP2024004560A JP2024004560A (ja) 2024-01-17

Family

ID=87519483

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022104194A Active JP7323900B1 (ja) 2022-06-29 2022-06-29 プログラム、情報処理方法、及び情報処理装置
JP2023117382A Pending JP2024007548A (ja) 2022-06-29 2023-07-19 プログラム、情報処理方法、及び情報処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023117382A Pending JP2024007548A (ja) 2022-06-29 2023-07-19 プログラム、情報処理方法、及び情報処理装置

Country Status (2)

Country Link
US (1) US20240007700A1 (ja)
JP (2) JP7323900B1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152785A (ja) 2020-03-24 2021-09-30 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9218413B2 (en) * 2011-06-13 2015-12-22 Opus Deli, Inc. Venue-related multi-media management, streaming, online ticketing, and electronic commerce techniques implemented via computer networks and mobile devices
US9734463B2 (en) * 2015-12-21 2017-08-15 Opus Deli, Inc. Automated, conditional event ticketing, reservation, and promotion techniques implemented over computer networks
US9349108B2 (en) * 2011-06-13 2016-05-24 Opus Deli, Inc. Automated, conditional event ticketing and reservation techniques implemented over a computer network
US10390064B2 (en) * 2015-06-30 2019-08-20 Amazon Technologies, Inc. Participant rewards in a spectating system
US11663791B1 (en) * 2021-11-16 2023-05-30 At&T Intellectual Property I, L.P. Dynamic avatars for customer support applications
US20230260219A1 (en) * 2022-02-17 2023-08-17 Rovi Guides, Inc. Systems and methods for displaying and adjusting virtual objects based on interactive and dynamic content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152785A (ja) 2020-03-24 2021-09-30 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
JP2022089817A (ja) 2020-03-24 2022-06-16 グリー株式会社 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法

Also Published As

Publication number Publication date
JP2024007548A (ja) 2024-01-18
JP2024004560A (ja) 2024-01-17
US20240007700A1 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
JP7145266B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7098676B2 (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
US11740766B2 (en) Information processing system, information processing method, and computer program
JP6941245B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7001796B1 (ja) 情報処理プログラム、情報処理方法及び情報処理システム
JP7293329B1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021158558A (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
JP2023143963A (ja) プログラム、情報処理方法及び情報処理装置
KR102082670B1 (ko) 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
JP7092930B1 (ja) プログラム、情報処理方法、サーバ及びサーバの情報処理方法
US20230252706A1 (en) Information processing system, information processing method, and computer program
JP7323900B1 (ja) プログラム、情報処理方法、及び情報処理装置
JP2022097475A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7357865B1 (ja) プログラム、情報処理方法、及び情報処理装置
JP7223834B2 (ja) プログラム、情報処理方法及び情報処理装置
US11704854B2 (en) Information processing system, information processing method, and computer program
JP6983980B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7301262B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US12100085B2 (en) Information processing system, information processing method and non-transitory computer readable medium storing program
JP7550411B1 (ja) プログラム、情報処理方法、サーバ、サーバの情報処理方法及び情報処理システム
US20240152311A1 (en) Information processing system, information processing method, and computer program
JP2024139691A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2023098892A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220629

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230720

R150 Certificate of patent or registration of utility model

Ref document number: 7323900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150