JP7429373B2 - プログラム、情報処理方法、サーバ及びサーバの情報処理方法 - Google Patents

プログラム、情報処理方法、サーバ及びサーバの情報処理方法 Download PDF

Info

Publication number
JP7429373B2
JP7429373B2 JP2021208919A JP2021208919A JP7429373B2 JP 7429373 B2 JP7429373 B2 JP 7429373B2 JP 2021208919 A JP2021208919 A JP 2021208919A JP 2021208919 A JP2021208919 A JP 2021208919A JP 7429373 B2 JP7429373 B2 JP 7429373B2
Authority
JP
Japan
Prior art keywords
parts
trial
lottery
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021208919A
Other languages
English (en)
Other versions
JP2023051663A (ja
Inventor
義礎 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2021208919A priority Critical patent/JP7429373B2/ja
Publication of JP2023051663A publication Critical patent/JP2023051663A/ja
Priority to JP2024005931A priority patent/JP2024036381A/ja
Application granted granted Critical
Publication of JP7429373B2 publication Critical patent/JP7429373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、動画を配信又は視聴するプログラム、情報処理方法、サーバ及びサーバの情報処理方法に関する。
従来から、配信ユーザの動きに基づくアバターオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている(例えば、特許文献1参照)。
特開2015-184689号公報
この動画配信システムにおいて、アバターオブジェクトに適用されるアイテム等の報酬の抽選を行うものが既に知られている。報酬は、アバターオブジェクトの表現の幅を拡げ得るものであるが、ユーザによっては報酬に興味はあっても抽選を行うまでには至らないことがある。このように抽選を行う機会が失われると、動画の配信が画一的となりやすく、ユーザの動画への興味が薄れる一因となる可能性がある。このため、抽選を通じて、動画の配信及び視聴を活発化することが望まれている。
上記課題を解決するプログラムは、1又は複数のコンピュータに、ユーザに関連付けられた登録パーツを、前記ユーザの動きが反映されるアバターオブジェクトに適用した動画を前記ユーザが視認するディスプレイに出力する第1描画処理と、前記ユーザによる入力操作部への操作に基づき、抽選の対象である前記パーツを複数含む抽選対象集団を指定する情報をサーバに送信する指定処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを取得する試用パーツ取得処理と、前記試用パーツデータを用いて前記試用パーツを自動的に適用した前記アバターオブジェクトを前記ディスプレイに出力する第2描画処理と、を実行させる。
上記課題を解決する情報処理方法は、1又は複数のコンピュータが、ユーザに関連付けられた登録パーツを、前記ユーザの動きが反映されるアバターオブジェクトに適用した動画を前記ユーザが視認するディスプレイに出力する第1描画処理と、前記ユーザによる入力操作部への操作に基づき、抽選対象のパーツを複数含む抽選対象集団を指定する情報をサーバに送信する指定処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを取得する試用パーツ取得処理と、前記試用パーツデータを用いて、前記試用パーツを自動的に適用した前記アバターオブジェクトを前記ディスプレイに出力する第2描画処理と、を実行する。
上記課題を解決するサーバは、ユーザの動きが反映されるアバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置に送信するパーツ送信処理と、抽選対象の前記パーツを複数含む抽選対象集団を指定する情報を前記ユーザ装置から受信する指定受信処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを前記ユーザ装置に送信する試用パーツ送信処理と、前記抽選対象集団からの抽選の実行要求を、前記ユーザ装置から受信する抽選要求受信処理と、前記抽選対象集団から所定数の前記パーツを抽選する抽選実行処理と、前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記ユーザ装置に送信する抽選データ送信処理と、を実行する。
上記課題を解決するサーバの情報処理方法は、1又は複数のコンピュータが、ユーザの動きが反映されるアバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置に送信するパーツ送信処理と、抽選対象の前記パーツを複数含む抽選対象集団を指定する情報を前記ユーザ装置から受信する指定受信処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを前記ユーザ装置に送信する試用パーツ送信処理と、前記抽選対象集団からの抽選の実行要求を、前記ユーザ装置から受信する抽選要求受信処理と、前記抽選対象集団から所定数の前記パーツを抽選する抽選実行処理と、前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記ユーザ装置に送信する抽選データ送信処理と、を実行する。
本発明によれば、アバターオブジェクトに適用されるパーツの抽選を行う機会を増やすことができる。
第1実施形態における動画配信システムの一実施形態を示す模式図。 同実施形態のユーザ管理データを示す図。 同実施形態の登録パーツデータを示す図。 同実施形態の抽選対象集団及び試用パーツデータを示す図。 同実施形態の自動試用処理を示す模式図。 同実施形態の自動試用処理を含む動画配信の手順を説明するシーケンスチャート。 同実施形態におけるクローゼットモードの画面図。 同実施形態における抽選一覧画面を示す図。 同実施形態の自動試用画面の一例を示す図。 同実施形態の自動試用画面の他の例を示す図。 同実施形態の視聴画面の他の例を示す図。 第2実施形態の自動試用画面及び視聴画面の一例を示す図。 同実施形態の視聴画面の一例を示す図。 第3実施形態のコラボレーション配信の画面の一例を示す図。 変形例の自動試用画面の一例を示す図。
(第1実施形態)
以下、プログラム、情報処理方法、サーバ及びサーバの情報処理方法の第1実施形態について、動画配信システムを例示して説明する。動画配信システムは、ユーザの動きが反映されるアバターオブジェクトを含むアニメーションを、そのユーザが用いるユーザ装置及び他のユーザが用いるユーザ装置に表示する。
<動画配信システム>
図1を参照して、動画配信システム11について説明する。動画配信システム11は、ユーザ装置12及びサーバ13を含む。複数のユーザ装置12とサーバ13とが、ネットワーク14を介してデータを送受信することにより、一方のユーザ装置12が配信する動画を、他方のユーザ装置12に配信する。ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラム220がインストールされている。以下、動画を配信するユーザを配信ユーザ10A、配信ユーザ10Aによって配信された動画を視聴するユーザ10を視聴ユーザ10Bという。つまり、ユーザ10は、配信ユーザ及び視聴ユーザの両方になることができ、動画を視聴する場合は視聴ユーザ10Bであり、動画を配信する場合は配信ユーザ10Aである。また、配信ユーザ10Aが用いるユーザ装置12を配信ユーザ装置12Aといい、視聴ユーザ10Bが用いるユーザ装置12を視聴ユーザ装置12Bという。配信ユーザ10A及び視聴ユーザ10B、配信ユーザ装置12A及び視聴ユーザ装置12Bを区別しない場合には、単にユーザ10、ユーザ装置12という。
ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ、眼鏡型のウェアラブル端末等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置である。ユーザ装置12は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。
ユーザ装置12は、制御部20、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。制御部20は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)等の1又は複数の演算回路を備える。また、制御部20は、演算回路が読み出し及び書き込みが可能な主記憶装置(記憶媒体)であるメモリを備える。メモリは、半導体メモリ等から構成される。制御部20は、ストレージ22又は外部ストレージからオペレーティングシステムやその他のプログラムをメモリに読み込み、メモリから取り出した命令を実行する。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信することができる。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。
ストレージ22は、補助記憶装置(記憶媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。ストレージ22には、動画アプリケーションプログラム220、アバターオブジェクトを描画するための登録パーツデータ221、試用パーツデータ222、及びユーザ管理データ223が格納されている。
制御部20は、動画アプリケーションプログラム220を実行することにより、ユーザ10の操作部27に対する入力操作に基づいてユーザ10自身が動画を配信する配信モードと、他の配信ユーザ10Aが配信する動画を視聴する視聴モードとを切り替える。
また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、入力操作部としての操作部27、ディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、制御部20と同じ装置として設けられていてもよく、制御部20を備える装置に接続する態様で設けられていてもよい。
センサユニット24は、ユーザ10の表情の変化を示すフェイスモーション、及びセンサユニット24に対するユーザ10の身体の相対位置の変化を示すボディモーションを検出する1又は複数のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニット24は、公知の物を使用することができる。センサユニット24の一例は、ユーザ10に向かって照射された光がユーザ10の顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザ10の顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニット24は、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDAR」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザ10の顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニット24の演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。
また、センサユニット24は、ユーザ10の顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニット24は、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサをさらに含むものであってもよい。センサユニット24は、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザ10が存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニット24の画像処理部は、制御部20が備えていてもよい。
スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザ10が発話した音声を入力し、音声データに変換する。ディスプレイ28は、制御部20の出力指示に応じて、各種画像を出力する。操作部27は、ユーザ装置12の種類に応じたものを用いることができる。操作部27の一例は、ディスプレイ28と一体化されたタッチパネルや、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザ10が手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部27の他の一例は、ユーザ10の手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザ10の手の動きに基づいて、ユーザ10の指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示等の各種操作を実行したりすることができる。なお、センサユニット24がハンドトラック機能等の入力インターフェース機能も有する場合には、操作部27は省略可能である。
<サーバ>
次にサーバ13について説明する。サーバ13は、動画を配信するためのサービスを提供するサービス提供者等が用いるものである。サーバ13は、制御部30と、通信I/F34と、ストレージ35とを備えている。制御部30は、1又は複数の演算回路を有している。制御部30は、ユーザ装置12の制御部20と同様な構成である。また、通信I/F34及びストレージ35は、ユーザ装置12と同様な構成である。サーバ13は1つの装置から構成されていてもよく、複数の装置から構成されていてもよい。サーバ13が複数の装置から構成される場合、それらの装置は、制御部30の機能、ストレージ35に格納された各種のデータを分散して備える。
ストレージ35には、ユーザ管理データ350、登録パーツデータ351、試用パーツデータ356、抽選データ353、及び配信プログラム355が格納されている。ユーザ管理データ350、登録パーツデータ351、試用パーツデータ356は、ユーザ装置12に格納されたユーザ管理データ223、登録パーツデータ221、試用パーツデータ222と共通するデータ構成を有している。抽選データ353は、抽選対象となるパーツの描画データ及び描画データの属性データを含む。
この他、ストレージ35には、本体パーツ、装着パーツ及び非装着パーツを描画するためのマスターとなる描画データ及びその属性データが格納されている。また、ストレージ35には、ギフトオブジェクト等のオブジェクトを描画するためのマスターとなるデータが格納されている。
(データ構成)
次に図2~図4を参照して、サーバ13のストレージ35に記憶されたデータの構成の一例について詳述する。サーバ13のストレージ35に記憶されたデータ及びユーザ装置12のストレージ22に記憶されたデータは、その構造が共通しているため、ここではサーバ13のストレージ35に記憶されたデータについて説明する。
図2は、ユーザ管理データ350の一例を示す。ユーザ管理データ350は、ユーザ毎に記憶されている。ユーザ装置12には、そのユーザ装置12を用いるユーザのユーザ管理データ223が記憶されている。ユーザ管理データ350は、ユーザ10の識別情報、アカウント名、購入媒体であるコイン、ポイント等を含む。ユーザ10の識別情報は、サーバ13がユーザ10又はユーザ装置12を識別できる情報であればよい。例えば、識別情報は、ユーザに一意に関連付けられたID、ユーザ装置12に関連付けられた登録IDやデバイストークン等のうち少なくとも一つであってもよい。コインは、ユーザ10によって購入されたものである。ポイントは、配信を行ったとき、配信を視聴したとき、イベントに参加したとき、又はオブジェクト等を売却したとき等、所定のタイミングでユーザ10に付与される。
図3は、登録パーツデータ351の一例を示す。登録パーツデータ351は、ユーザ10に関連付けられて記憶されている登録パーツに関するデータであって、ユーザ10毎に管理されている。登録パーツは、ユーザが任意のタイミングで利用可能なパーツとしてユーザ装置12やサーバ13に既に登録されているものである。登録パーツデータ351は、仮想空間内に配置されるアバターオブジェクトのパーツ又はアバターオブジェクトに適用されるパーツを描画するための描画データ及び属性データを含む。登録パーツデータ351は、ユーザ10が対価を支払って取得したパーツのデータの他、対価が不要であるパーツのデータ、抽選によって取得されたパーツのデータを含む。
ここで動画に用いられるパーツについて説明する。パーツは、アバターオブジェクト本体に適用される本体パーツ、アバターオブジェクトに装着される状態で表示される装着パーツ、アバターオブジェクトには装着されない状態で表示される非装着パーツを含む。パーツを描画するため描画データは、3次元モデルデータであり、ポリゴンデータ、及びアバターオブジェクトの動作を表現するための骨格データ(ボーン)、テクスチャデータ等が含まれる。
本体パーツについて説明する。ユーザ10は、好みの本体パーツを選択してアバターオブジェクトを構成することができる。本体パーツには、アバター属性が関連付けられている。アバター属性は、例えば「F型」、「M型」といった型式である。アバター属性によって、アバターオブジェクトに適用できる装着パーツが異なる。なお、アバター属性は、「F型」、「M型」の他に、「大人」、「子供」、キャラクタの種類が設定されていてもよい。一人のユーザ10に関連付けられた登録パーツデータ351は、複数体のアバターオブジェクト本体を描画するためのデータを含んでいてもよい。
また、装着パーツは、アバターオブジェクトの所定の部位に適用されるパーツである。装着パーツは、例えば「トップス」、「靴」、「スカート」等のカテゴリに分類されている。カテゴリの各々には、そのカテゴリに属する複数の装着パーツが属している。ユーザ10は、アバターオブジェクトのアバター属性に応じた複数の装着パーツから、好みの装着パーツを選択する。装着パーツには、アバターオブジェクトの部位を示す属性データが関連付けられている。ユーザ装置12は、装着パーツを、属性データが示すアバターオブジェクトの部位に適用する。なお、装着パーツは、アバターオブジェクトの衣服類以外にも、「コップ」、「ジョッキ」、「傘」、「楽器」等、アバターオブジェクトの所定の部位に関連付けられるものであればよい。例えば「コップ」は、アバターオブジェクトの手の部位に関連付けられ、「コップ」のパーツが適用されることにより「コップ」を持ったアバターオブジェクトを表示することができる。
非装着パーツは、アバターオブジェクトの背景に表示される壁紙等である。
登録パーツデータ351は、本体パーツを示す本体パーツデータ351Aと、装着パーツを示す装着パーツデータ351Bと、非装着パーツを示す非装着パーツデータ351Cとを含む。
本体パーツデータ351Aは、ユーザ10が選択した本体パーツの組み合わせを含む。本体パーツは、パーツ毎に割り振られた識別情報であるパーツIDによって識別可能である。本体パーツデータ351Aには、ユーザ10毎に、例えば3体までのアバターのデータを格納することができる。本体パーツデータ351Aは、アバター毎に、本体パーツの組み合わせの他、アバター属性等を含む。例えば本体パーツデータ351Aは、「F型」等のアバター属性に加え、身長、体型、肌色等の属性データを含む。
装着パーツデータ351Bは、装着パーツ毎に、パーツID、アイテム名、アバター属性、色、適用されるアバターの識別情報を含む。アイテム名は、パーツ毎に付与された名称である。アバター属性は、パーツが適用されるアバターオブジェクトのアバター属性である。アバター属性は、「F型」、「M型」のほか、「F型」及び「M型」の両方に適用可能な「ノーマル型」がある。例えば「F型」のアバター属性が関連付けられたパーツは、「F型」のアバターオブジェクトのみに適用される。「色」は、パーツの色を示す。パーツは、同じ種類パーツであっても色が異なるものがあり、例えば同じ種類の「シャツ」のパーツとして、「白」のパーツと、「黒」のパーツとが存在し、それらには異なるパーツIDが割り振られている。また、ユーザ10が、装着パーツを、自身が本体パーツを組み合わせて設定したアバターオブジェクトに装着したものとして関連付けて保存している場合には、装着パーツと適用対象のアバターの識別情報とが関連付けて登録されている。アバターの識別情報は、アバター毎に割り振られた番号等である。ユーザ10が、装着パーツをアバターオブジェクトに装着したものとして関連付けて保存していない場合には、適用対象のアバターの識別情報が関連付けられない。
非装着パーツデータ351Cは、非装着パーツ毎に、パーツID、アイテム名、アバター属性、色を含む。ユーザ装置12は、登録パーツデータ221の更新データを、動画アプリケーションプログラム220を起動した際、所定の画面に遷移した際等、サーバ13から所定のタイミングで取得する。ユーザ10が、非装着パーツを、自身が本体パーツを組み合わせて設定したアバターオブジェクトに装着したものとして関連付けて保存している場合には、非装着パーツと適用対象のアバターの識別情報とが関連付けて登録されている。
図4は、抽選データ353及び試用パーツデータ356の一例を示す。
抽選データ353は、複数の抽選対象集団(母集団)に関するデータである。抽選対象集団は、抽選対象のパーツを複数含む。抽選データ353は、抽選対象のパーツを描画するための描画データ及びその属性データを含む。サーバ13は、抽選データ353を用いて、複数の抽選対象集団(母集団)からユーザに指定された抽選対象集団を選択する。また、サーバ13は、選択した抽選対象集団の中から所定数のパーツを設定された確率に基づき所定の抽選方法に従って選択する。例えば「夕涼みガチャ」、「夜空ガチャ」等のテーマ毎に複数の抽選対象集団が設定され、抽選対象集団の各々は設定されたテーマに沿ったパーツを含む。図4は、一つの抽選対象集団を構成するパーツの抽選データ353を示す。
抽選データ353は、抽選対象のパーツを示す抽選対象データ354を含む。抽選対象データ354は、抽選対象のパーツの属性データであり、パーツID、アイテム名、アバター属性、色を含む。例えば「トップス」のカテゴリに対応する抽選データ353Aは、「ワンピース」や「シャツ」等の装着パーツに対応する抽選対象データ354を含む。また、抽選データ353Aは、同一の種類の装着パーツであって且つアバター属性又は色が異なるパーツの抽選対象データ354を含む。例えば、抽選データ353Aは、種類が「ワンピース」であって色が異なる抽選対象データ354を含み、これらには異なるパーツIDが割り振られている。また、抽選データ353Aは、種類が「シャツ」であって、アバター属性がそれぞれ「F型」、「M型」である装着パーツの抽選対象データ354を含み、これらには異なるパーツIDが割り振られている。また、図4に例示する抽選データ353は、「フェイスシール」のカテゴリの抽選データ353B、「壁紙」のカテゴリの抽選データ353C、「付属系」のカテゴリの抽選データ353Dを含む。
この他にも、抽選データ353は、エモート機能を発現する抽選対象データ354を有していてもよい。エモート機能とは、動画アプリケーションプログラム220が実行可能な処理の一つであり、アバターオブジェクトの手、腕、頭部等の部位の各階層に関連付けられたコンポーネントである。ユーザ装置12がコンポーネントをアバターオブジェクトに適用することにより、アバターオブジェクトは、例えば「拍手」、「手を振る」、「手を合わせる」、「乾杯」等の動作を行う。例えば「手を振る」には、アバターオブジェクト100の「右手」の階層に、手を振るアニメーションが関連付けられている。また、エモート機能は、その適用対象として、アバターオブジェクト100のアバター属性が設定されていてもよい。
また、抽選データ353は、抽選によって付与される抽選パーツに加え、さらに追加される「おまけ」のパーツである追加パーツを含んでいてもよい。追加パーツは、抽選対象のパーツを抽選する抽選確率には関係なく選択されるものである。追加パーツは、1つであってもよく、複数であってもよい。追加パーツが複数である場合には、所定の条件に従って追加パーツが選択される。
試用パーツデータ356は、抽選対象のパーツのうち、アバターオブジェクトに対し、試しに適用されるパーツである試用パーツに関するデータである。つまり、試用パーツは、一時的に適用されるパーツ、仮に適用されるパーツであって、登録パーツのように、アバターオブジェクトに限られた場面又は時間のみ適用することはできるが、ユーザが任意の場面で継続的に利用できるパーツではない。試用パーツには、おまけのパーツである追加パーツが含まれていてもよい。試用パーツデータ356は、試用パーツの組み合わせを示し、それらの試用パーツはそれぞれ異なるカテゴリに属する。試用パーツは、試用パーツの提供者、又は動画の配信サービスを提供する提供者によって設定されている。例えば、「トップス」のカテゴリから「シャツ」、「フェイスシール」のカテゴリから一つのフェイスシール、「壁紙」のカテゴリから一つの壁紙、「付属系」のカテゴリから「羽根」が指定されている。試用パーツのカテゴリの数は、抽選データ353のカテゴリの数以下である。つまり、抽選データ353のカテゴリのうち、試用パーツが選択されていないカテゴリがあってもよい。なお、説明の便宜上、図4に示す試用パーツデータ356は、アイテム名、アバター属性、及び色を含んでいるが、パーツIDのみ含んでいればよい。
提供者は、試用パーツとして任意のパーツを指定できる。試用パーツは、装着パーツ以外にも、本体パーツ、非装着パーツであってもよい。また、試用パーツは、パーツに設定された希少度(レアリティ)が標準の希少度よりも高いパーツであってもよい。又は、試用パーツは、抽選確率が基準値よりも低いパーツであってもよい。
(ユーザ装置の処理)
次に、ユーザ装置12が動画アプリケーションプログラム220を実行することにより実行される処理について説明する。ユーザ装置12の制御部20は、第1描画処理、指定処理、試用パーツ取得処理、第2描画処理を行う。さらに、ユーザ装置12は、登録パーツ表示処理、モード切替処理を行う。これらの処理は、1つの演算回路が行うようにしてもよく、複数の演算回路が分散して行うようにしてもよい。
第1描画処理は、登録パーツを組み合わせて、アバターオブジェクトを含む動画をディスプレイ28に出力する。なお、動画の配信方式としては、配信ユーザ装置12Aに加え視聴ユーザ装置12Bが動画の生成に必要な動画構成データを取得して動画を生成するクライアントレンダリング方式と、配信ユーザ装置12Aが動画データを生成しエンコードして視聴ユーザ装置12Bに送信する映像配信方式と、サーバ13が動画を生成しエンコードして配信ユーザ装置12A及び視聴ユーザ装置12Bに送信するサーバ配信方式を含む。本実施形態では、クライアントレンダリング方式でユーザ装置12に動画を表示させる方法について説明する。なお、配信ユーザ装置12Aが生成した動画データを用いて、視聴ユーザ装置12Bがパーツ等のレンダリングやそのほかの画像処理を行うハイブリッド方式であってもよく、またはサーバ13で動画を生成する方式であってもよく、その他の動画の配信方式であってもよい。また、動画配信方式には、配信ユーザ装置12Aが生成且つエンコードした動画データをユーザ装置12のウェブブラウザで視聴可能とするウェブ配信方式があってもよい。この場合、ユーザ装置12は、動画アプリケーションプログラム220を記憶していなくてもよい。
クライアントレンダリング方式では第1描画処理において、制御部20は、配信モードの場合にアバターオブジェクトにセンサユニット24から取得したトラッキングデータを適用してアニメーションを生成する。また、制御部20は、アバターオブジェクト、アバターオブジェクト以外のオブジェクトを含めてレンダリングを行う。ここでいうレンダリングは、仮想カメラの位置の取得、透視投影、隠面消去(ラスタ化)等が含まれる描画処理をいう。レンダリングは、これらのうち少なくとも一つの処理であってもよいし、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。
また、制御部20は、レンダリングされた画像を用いてアニメーションを生成する。さらに制御部20は、アニメーションと、視聴ユーザ装置12Bから送信された投稿メッセージ、又はサーバ13から送信された通知等とを合成した動画データをディスプレイ28に出力する。制御部20は、配信モードにおいて、マイク26から入力した音声データを、動画データと同期させてスピーカ25から出力する。
制御部20は、視聴モードにおいて、動画を配信する他のユーザ10が用いるアバターオブジェクトの本体パーツ及び装着パーツ等のパーツIDをサーバ13から受信する。また、制御部20は、他の配信ユーザ装置12Aから送信されたトラッキングデータ及び音声データをサーバ13から受信する。そして、制御部20は、他の配信ユーザ10Aに対応するアバターオブジェクトに受信したトラッキングデータを適用してアニメーションを生成する。また、制御部20は、アニメーションと、サーバ13から受信した投稿メッセージや通知等とを合成した動画データをディスプレイ28に出力し、音声データを動画データとを同期させてスピーカ25から出力する。視聴モードでのレンダリングは配信モードの場合と同様である。
また、配信モードにおいては、制御部20は配信処理を行う。配信処理では動画配信を行うアバターオブジェクトの本体パーツ及び装着パーツ等のパーツIDをサーバ13に送信する。また、制御部20は、トラッキングデータ及び音声データをサーバ13に送信する。
指定処理は、ユーザ10による操作部27への操作に基づき、抽選対象集団を指定する情報をサーバ13に送信する処理である。
試用パーツ取得処理は、抽選対象集団に含まれる試用パーツに関する試用パーツデータ356を取得し、試用パーツデータ222としてストレージ22に記憶する処理である。
第2描画処理は、試用パーツデータ222を用いて、試用パーツを自動的に適用したアバターオブジェクトをディスプレイ28に出力する処理である。以下では、試用パーツを自動的に適用することを、自動試用という。つまり、アバターオブジェクトに、シャツ等が自動的に試着されたり、アバターオブジェクトの背景に壁紙が自動的に配置されたりする。
登録パーツ表示処理は、ユーザ10の入力操作に応じて、登録パーツデータ221を用いて登録パーツをディスプレイ28に表示する処理である。
モード切替処理は、ユーザ10の入力操作に応じて、動画を配信する配信モードと、動画を視聴する視聴モードとを切り替える処理である。
(自動試用)
図5を参照して、自動試用について詳述する。図5は、試用パーツを適用する前のアバターオブジェクト100Aと、試用パーツを適用した後のアバターオブジェクト100Bとを示す。また、自動試用前のアバターオブジェクト100Aは、ユーザ10に関連付けられた登録パーツである装着パーツのうち、ユーザ10に選択された装着パーツの描画データが適用されている。
自動試用を行う条件が満たされると、ユーザ装置12は、試用パーツデータ222を取得する。自動試用を行う条件は、例えば、ユーザ10によって抽選対象集団が指定されたこと、抽選対象集団が指定された状態で自動試用を行うためのボタンが選択操作されたこと等である。そして、ユーザ装置12は、ストレージ22に予めされた描画データの中から、試用パーツデータ222に含まれるパーツIDに対応する描画データを選択する。ユーザ装置12は、図5中、自動試用後のアバターオブジェクト100Bに示すように、選択した描画データを、その属性データが示す部位又は領域に適用する。描画データが適用される部位又は領域に、既に他のパーツが適用されている場合には、その適用を解除(又は無効)にして、選択した描画データを適用する。つまり、ユーザ10が試用パーツを適用するのではなく、自動試用の条件が満たされたときに自動的に試用パーツを適用する。
例えば、ユーザ装置12は、アバターオブジェクト100Aが装着したシャツ110の適用を解除して、試用パーツであるシャツ101をアバターオブジェクト100Bの上半身に適用する。また、ユーザ装置12は、フェイスシール102の描画データを、アバターオブジェクト100Bの顔に適用する。また、ユーザ装置12は、羽根103をアバターオブジェクト100Bの背中に適用し、壁紙104をアバターオブジェクト100Bの背景に適用する。その結果、試用パーツが適用されなかった部位又は領域のパーツは、自動試用前のアバターオブジェクト100Aに適用されていたものが維持される。図5の例では、自動試用前に適用されていたスカート111及びスニーカー112が、自動装着後にも維持される。
このように、ユーザ10が所持するパーツと抽選で当たる可能性のあるパーツとを組み合わせ可能とすることによって、ユーザ10は、所持するパーツとの相性を確認することができる。ユーザ10は、1回目の自動装着を行った後、ユーザが所持する他のパーツと組み合わせたい場合には、ユーザ10が所持するパーツから任意のパーツを選択し直すことができる。所持するパーツと、抽選で当たる可能性のあるパーツとの相性が良ければ、ユーザ10の抽選する意欲が高まる。
提供者は、価値の高い試用パーツを自動試用させること、又は組み合わせることによって相乗効果を奏する複数の試用パーツを自動試用させることによって、ユーザ10の抽選への意欲を高めることができる。例えば、提供者は、希少度(レアリティ)が高いパーツ、又は抽選の確率の低いパーツを試用パーツに含ませることができる。つまり、希少度が高いパーツや抽選確率が低いパーツは、例えばパーツの描写が細かいこと、パーツにボーンが組み込まれアバターオブジェクトの動作に応じて揺れる等の動作を行うことなど、製作に工数が掛けられていることが多く、価値が高いものである。さらに、相性のよい試用パーツを組み合わせることで、美観や統一感を高めることができる。また、壁紙は、服などのパーツに比べて表示面積が広く、配信空間の見栄えや雰囲気に大きく影響するため、価値が高い。このため、試用パーツに壁紙を含めることが好ましい。このように価値の高い試用パーツをユーザ10に体験させることで、ユーザ10が抽選に興味をもつことが期待される。
(サーバの処理)
次に、サーバ13が配信プログラム355を実行することにより実行される処理について説明する。制御部30は、パーツ送信処理、指定受信処理、試用パーツ送信処理、抽選要求受信処理、抽選実行処理及び抽選データ送信処理を行う。これらの処理は、1つの演算回路が行うようにしてもよく、複数の演算回路が分散して行うようにしてもよい。
パーツ送信処理は、アバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置12に送信する処理である。
指定受信処理は、抽選対象のパーツを複数含む抽選対象集団を指定する情報をユーザ装置12から受信する処理である。
試用パーツ送信処理は、試用パーツデータ356を所定のタイミングでユーザ装置12に送信する処理である。
抽選要求受信処理は、抽選対象集団からの抽選の実行要求を、ユーザ装置12から受信する処理である。
抽選実行処理は、ユーザ10が指定した抽選対象集団から所定数のパーツを抽選する処理である。
抽選データ送信処理は、抽選対象集団から抽選された抽選パーツに関するデータをユーザ装置12に送信する処理である。
さらに、制御部30は、動画配信処理を行う。具体的には、制御部30は、視聴ユーザ装置12Bからの要求に応じて、配信中の動画のリストを送信する。制御部30は、リストの中から選択された動画の識別情報を視聴ユーザ装置12Bから受信する。また、制御部30は、選択された動画を配信する配信ユーザ装置12Aから取得したトラッキングデータ等を、視聴ユーザ装置12Bに送信する。また、制御部30は、配信中の動画に対して視聴ユーザから投稿された投稿メッセージ等を受信する。さらに制御部30は、受信した投稿メッセージを、配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。投稿メッセージには、メッセージの内容の他、視聴ユーザ10Bの識別情報(ユーザ10のアカウント名等)、投稿日時等が含まれる。また、動画に表示されるメッセージには「ユーザAさん入室しました」の通知メッセージも含まれる。
また、制御部30は、ギフト表示処理を行う。具体的には、視聴ユーザ装置12Bから、視聴中の動画へのギフトオブジェクトの表示要求を受信する。表示要求が行われるギフトオブジェクトは仮想空間内に表示されるオブジェクトであって、視聴ユーザ10Bから、動画を配信する配信ユーザ10Aに提供されるギフトオブジェクト、動画を好評価する評価オブジェクト等を含む。ギフトオブジェクトは、対価を支払わずに表示要求を行うことのできるものであってもよく、対価を払うことによって表示要求を行うものであってもよい。又は、ギフトオブジェクトは、表示要求に応じて表示がなされた場合に対価を支払うものであってもよい。制御部30は、ギフトオブジェクトの表示要求を、ギフトオブジェクトの識別情報とともに配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。サーバ13は、ギフトオブジェクトの表示要求がサーバ13によって受け付けられたとき、又は表示要求に対する配信ユーザ10Aによる所定の操作がなされたとき等、所定のタイミングで、「ユーザBさんが花火を贈りました」等の通知メッセージを配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。
また、制御部30は購入処理を行う。具体的には、ユーザ10の操作に従って、ユーザ10が指定した任意のパーツの購入処理及び抽選の購入処理を行う。購入処理には、動画アプリケーションプログラム内で利用可能なコイン、ポイント、チケット等の対価(媒体)を支払う処理が含まれる。例えばポイントは、動画の配信及び動画の視聴によって取得することができる。また、購入処理には、パーツの交換、売却、譲渡の処理を含めてもよい。購入処理は、購入されたパーツを、登録パーツとして、ユーザ10に関連付けてユーザ装置12及びサーバ13の少なくとも一方に記憶する。購入可能なパーツの売上は、例えば配信ユーザ10A及びサービス提供者に分配される。
(動作)
図6を参照して、自動試用を行う場合の手順について、配信ユーザ装置12Aが動画を配信する場合を例にして説明する。
配信ユーザ装置12A及び視聴ユーザ装置12Bは、アプリケーションを起動したとき、又はアバターオブジェクト100を画面に呼び出すとき等の所定のタイミングで、登録パーツデータ351及び抽選データ353等のうち、必要なデータをサーバ13から取得する。配信ユーザ装置12A及び視聴ユーザ装置12Bがサーバ13から取得するデータは、アプリケーション内で表示する可能性があるデータであって、ユーザ10が指定したデータではない。なお、ユーザ装置12は、動画の描画等に必要なデータをサーバ13に適宜要求し、サーバ13から指定したデータを取得するようにしてもよい。
配信ユーザ10Aの操作に基づき配信モードに移行した配信ユーザ装置12Aは、配信ユーザ10Aが選択したアバターオブジェクト100に、センサユニット24が生成したトラッキングデータを適用した動画をディスプレイ28に出力する。また、配信ユーザ装置12Aは、動画を構成するための動画構成データを生成する。動画構成データは、配信ユーザ10Aの動作を検出したトラッキングデータを含む。そして、生成した動画構成データ及び音声データをサーバ13に送信する(ステップS1)。なお、配信ユーザ10Aに対応するアバターオブジェクトを描画するためのパーツのパーツIDは、動画構成データに含めてもよいし、動画構成データの送信とは別のタイミングで送信してもよい。
視聴ユーザ10Bの操作に基づき視聴モードに移行した視聴ユーザ装置12Bは、配信されている動画チャンネルの一覧をサーバ13から受信し、一覧をディスプレイ28に出力する。視聴ユーザ10Bは、一覧の中から視聴したい動画を選択する操作を操作部27に対して行う。視聴ユーザ装置12Bは、選択された動画の識別情報(ID)とともに、選択された動画の表示要求を送信する(ステップS2)。
サーバ13は、表示要求に対応する動画を描画するための動画構成データと音声データとを、視聴ユーザ装置12Bに送信する(ステップS3)。視聴ユーザ装置12Bは、動画構成データ及び音声データを受信すると、配信ユーザ10Aに対応するアバターオブジェクトのパーツIDを用いて、アバターオブジェクト100を構成する。また、このアバターオブジェクトにトラッキングデータを適用して、アバターオブジェクトのアニメーションを生成し、ディスプレイ28に出力する。さらに、動画に同期させて音声データをスピーカ25から出力する。なお、図6においては、配信ユーザ装置12Aにおけるディスプレイ28への動画の出力制御処理、視聴ユーザ装置12Bにおけるディスプレイ28への動画の出力制御処理は、便宜上図示を省略している。
配信ユーザ10Aは、動画の配信中に抽選を行うとき、操作部27を操作して抽選一覧画面に遷移する。さらに配信ユーザ10Aは、抽選一覧画面にて任意の抽選を選択する。配信ユーザ装置12Aは、選択された抽選に対応する抽選対象集団を指定する抽選IDをサーバ13に送信する(ステップS4)。サーバ13は、受信した抽選IDに対応する試用パーツデータ356をストレージ35から読み出し、読み出した試用パーツデータ356を配信ユーザ装置12Aに送信する(ステップS5)。
配信ユーザ装置12Aは、受信した試用パーツデータ356を、指定した抽選対象集団に対応する試用パーツデータ222としてストレージ22に記憶する。そして、配信ユーザ装置12Aは、試用パーツデータ222を用いて自動試用を行う(ステップS7)。具体的には、配信ユーザ装置12Aは、ストレージ22に予め記憶された抽選対象パーツの描画データのうち、試用パーツデータ356に含まれるパーツIDに対応する描画データを取得する。また、配信ユーザ装置12Aは、取得した描画データに関連付けられた属性データが示すアバターオブジェクト100の部位又は領域に描画データを適用する。
また、サーバ13は、試用パーツデータ356を視聴ユーザ装置12Bに送信する(ステップS6)。視聴ユーザ装置12Bは、配信ユーザ装置12Aと同様に、試用パーツを配信ユーザ10Aに対応するアバターオブジェクト100の部位又は仮想空間の所定の領域に適用して、自動試用の処理を行う(ステップS8)。このように、配信ユーザ10Aが動画配信中に自動試用を行ったとき、視聴ユーザ10Bもその様子を動画上で確認することができる。このとき、視聴ユーザ10Bは、操作部27に対する入力操作を行って、配信ユーザ10Aに対し自動試用の感想をメッセージとして送信することができる。
配信ユーザ10Aは、自動試用の結果を画面で視認する。そして、配信ユーザ10Aは、抽選を行う場合には、操作部27に対して抽選を実行するための入力操作を行う。これにより、配信ユーザ装置12Aには、抽選確認画面が表示される。例えば、この抽選確認画面には、配信ユーザ10Aに関連付けられたコインやポイント、抽選の対価であるコイン又はポイントといった種類を選択するための選択ボタンや、コインを購入するための購入ボタン等が含まれている。この抽選確認画面は、視聴ユーザ装置12Bには表示されない。抽選実行ボタン等の選択部が操作されると、配信ユーザ装置12Aは、抽選実行要求をサーバ13に送信する抽選要求処理を行う(ステップS9)。このとき、抽選実行要求に抽選IDを含めてもよい。サーバ13は、抽選実行要求を受信すると、ユーザ装置12から送信された抽選IDに対応する抽選対象集団を母集団として抽選を実行する(ステップS10)。
このときサーバ13は、抽選の対価を要求する購入処理を行う。購入処理では、抽選の対価をユーザ管理データ350に反映する。例えば、1回の抽選が「100C」のコイン又は「100P」のポイントを消費する場合には、ユーザ管理データ350に含まれるコインの数値から、「100C」を減算するか、又はユーザ管理データ350に含まれるポイントの数値から、「100P」を減算する。消費される対価の種類は、配信ユーザ10Aが指定することが可能である。または、サーバ13は、他の決済サーバに、抽選の対価と、購入処理を実行させるための要求とを送信するようにしてもよい。
サーバ13は、抽選されたパーツである抽選パーツの識別情報であるパーツIDを、配信ユーザ装置12Aに送信する(ステップS11)。本実施形態においてパーツIDは抽選パーツデータであるが、抽選パーツデータは、抽選パーツを描画するための描画データであってもよい。配信ユーザ装置12Aは、パーツIDを受信する抽選データ受信処理を行う。そして、受信したパーツIDに対応する描画データをストレージ22から取得し、抽選パーツの画像をディスプレイ28に出力する。このとき、抽選パーツを単体で表示してもよく、抽選パーツが関連付けられたアバターオブジェクト100の部位又は領域に抽選パーツを表示してもよい。また、サーバ13は、抽選パーツのパーツIDを、登録パーツとして、登録パーツデータ351に記憶する(ステップS12)。また、配信ユーザ装置12Aは、抽選パーツのパーツIDを、配信ユーザ10Aが所持するパーツとして、登録パーツデータ221に記憶する(ステップS13)。
また、サーバ13は、抽選パーツのパーツIDを視聴ユーザ装置12Bに送信する(ステップS14)。視聴ユーザ装置12Bは、配信ユーザ装置12Aと同様に、受信したパーツIDに対応する描画データをストレージ22から取得し、抽選パーツの画像をディスプレイ28に出力する。このとき、抽選パーツを単体で表示してもよく、抽選パーツが関連付けられたアバターオブジェクト100の部位又は領域に抽選パーツを表示してもよい。なお、抽選パーツは、配信ユーザ装置12Aのみに表示し、視聴ユーザ装置12Bには表示しなくてもよい。
なお、自動試用は、動画を配信していない場合でも行うことができる。上述する各ステップのうち、視聴ユーザ装置12Bに対してサーバ13が実行する処理、視聴ユーザ装置12Bが行う処理が省略される。
図7~図11を参照して、配信ユーザ装置12A又は視聴ユーザ装置12Bに表示される画面について説明する。
図7は、ユーザ装置12に表示されるクローゼット画面51である。クローゼット画面51は、配信モード及び視聴モード以外のモードであるクローゼットモードで表示されるものである。クローゼットモードでは、ユーザ10が利用可能な登録パーツを画面に含めて表示し、ユーザ10が登録パーツを選択することにより、アバターオブジェクト100に適用することができるモードである。つまり、このモードでは、ユーザ10が配信の準備を行うことができる。動画を配信している間は、配信ユーザ装置12Aにクローゼット画面51を表示したとき、視聴ユーザ装置12Bにクローゼット画面を表示しない。本実施形態では動画配信中であっても、自動試用を行う場合には、クローゼット画面を表示する。
クローゼット画面51は、アバターオブジェクト100、アバター選択部51A、保存ボタン51B、抽選ボタン51C、色選択部51D、登録パーツリスト51E、カテゴリ選択部51Fを含む。アバター選択部51Aには、選択可能なアバターの一覧が表示されている。例えばユーザ10が「アバター1」を選択すると、ユーザ装置12は、登録パーツデータ221のうち、「アバター1」に対応する本体データを参照して、本体パーツのパーツIDを取得する。さらに、取得したパーツIDに対応するパーツの描画データをストレージ22から取得して、アバターオブジェクト100をディスプレイ28に表示する。また、「アバター2」を選択すると「アバター2」に対応する他のアバターオブジェクト100が表示される。
カテゴリ選択部51Fは、パーツのカテゴリのアイコンが表示されている。ユーザ10により、カテゴリ選択部51Fのカテゴリが選択されると、選択されたカテゴリに対応する登録パーツが登録パーツリスト51Eに表示される。ユーザ10により、登録パーツリスト51Eに表示されたパーツが選択されると、ユーザ装置12は選択されたパーツが、そのパーツに関連付けられた属性データが示すアバターオブジェクト100の部位又は領域に表示される。また、色選択部51Dには、「黒」、「黄色」、「オレンジ」、「赤」、「ピンク」等の色見本のアイコンが表示されている。この色見本のアイコンが選択されると、パーツの色が変更される。パーツに応じて、色見本の数は異なる。保存ボタン51Bは、登録パーツを適用したアバターオブジェクトを保存するためのボタンである。保存ボタン51Bが選択されると、ユーザ装置12は、登録パーツの組み合わせを登録パーツデータ221に登録する。また、ユーザ装置12は、パーツの組み合わせを示すパーツIDをアバターオブジェクトの識別情報とともにサーバ13に送信する。サーバ13は、受信したパーツIDをアバターオブジェクトの識別情報に関連付けてストレージ35に記憶する。抽選ボタン51Cは、抽選一覧画面を表示するためのボタンである。モード終了部51Gを選択するとクローゼットモードが終了する。
図8は、ユーザ装置12に表示される抽選一覧画面52である。抽選一覧画面52には、抽選の種類を選択するためのバナー52Aが表示されている。配信ユーザ10Aは、バナー52Aを選択する操作を行う。バナー52Aが選択されると、配信ユーザ装置12Aは、抽選IDをサーバ13に送信する。抽選一覧画面52には、ホーム画面に戻るためのホームボタン52B、通知を表示するための通知表示ボタン52C、配信を行うための配信ボタン52D、抽選を行うための抽選ボタン52E、プロフィール情報などを編集するための編集ボタン52Fが表示されている。ホーム画面において抽選ボタン52Eを選択すると抽選一覧画面52に遷移する。抽選一覧画面52においては抽選ボタン52Eを選択しても別の画面に遷移しない。また、配信ボタン52Dが選択されることにより図示しない配信待機画面が表示される。配信待機画面からは、クローゼット画面51や配信画面に遷移することができる。
図9は、配信ユーザ装置12Aに表示される自動試用画面53の一例を示す。この自動試用画面53Aは、動画配信中に自動試用を行った場合の画面である。自動試用画面53Aは、アバターオブジェクト100、メッセージ表示部53C、モード終了部53D、抽選実行ボタン53E,53F、リセットボタン53Lを含む。アバターオブジェクト100には、試用パーツである、シャツ101、フェイスシール102、羽根103、壁紙104が適用されている。
メッセージ表示部53Cは、視聴ユーザ装置12Bから送信されたメッセージである。メッセージ表示部53Cは、動画を配信していない場合には表示されない。抽選実行ボタン53E,53Fは、抽選を実行するためのボタンであり、例えば回数や、抽選の対価別に設けられている。これらの何れかが選択されると、ユーザ装置12から抽選実行要求がサーバ13に送信される。モード終了部53Dが選択されると、ユーザ装置12は、自動試用画面53Aを閉じる。また、視聴ユーザ装置12Bにも自動試用画面53Aと同様の画面が表示される。視聴ユーザ装置12Bに表示される自動試用画面53Aでは、抽選実行ボタン53E,53F等が非表示とされてもよい。リセットボタン53Lは、選択されることにより、適用されているパーツをリセットする。適用されているパーツがリセットされると、クローゼットモードで設定したパーツが適用されたアバターオブジェクト100となる。
図10は、自動試用画面53の他の例である。自動試用画面53Bでは、自動試用を行ったアバターオブジェクト100を表示した後に、配信ユーザ10Aの選択により試用パーツを変更することができる。自動試用画面53Bは、アバターオブジェクト100、メッセージ表示部53C、モード終了部53D、抽選実行ボタン53E,53Fの他に、色選択部53G、パーツ選択部53H、カテゴリ選択部53J、リセットボタン53Lを含んでいる。カテゴリ選択部53Jには、抽選対象集団に含まれるカテゴリが表示されている。パーツ選択部53Hには、クローゼット画面51の登録パーツリスト51Eと同様にパーツが表示されている。これらのパーツは抽選対象集団に含まれるものである。色選択部53Gは、クローゼット画面51の色選択部51Dと同様に色見本が表示されている。
又は、カテゴリ選択部53Jには、ユーザ10の登録パーツが属するカテゴリ、及びパーツ選択部53Hには、登録パーツが表示されてもよい。ユーザ10が登録パーツを選択すると、試用パーツと、ユーザ10が選択した登録パーツとを組み合わせることができる。このため、ユーザ10は手持ちのパーツと、抽選で当たる可能性のあるパーツとの相性を確認することができる。
なお、試用パーツに代えて、抽選対象のパーツ又は登録パーツをアバターオブジェクト100に適用するとき、リセットボタン53Lを選択するようにしてもよい。これにより、アバターオブジェクト100は、クローゼットモードで設定したパーツが適用されたアバターオブジェクト100に変更される。このため、ユーザ10がパーツ選択部53Hに表示された抽選対象のパーツ又は登録パーツを1つずつ選択して、パーツを変更する手間を軽減することができる。
アバターオブジェクト100には、自動試用の対象のパーツが適用されている。パーツ選択部53Hでパーツを選択すると、自動試用の対象のパーツに代えて、選択したパーツが適用される。例えばパーツ選択部53Hでシャツを選択すると、自動試用されたシャツ101に代えて、選択されたシャツ119が表示される。色選択部53Gで色見本のアイコンを選択すると、色を選択することができる。このとき、リセットボタン53Lを選択することにより、アバターオブジェクト100に適用されているパーツがリセットされて、クローゼット画面51のアバターオブジェクト100の状態に戻る。具体的には、ユーザ装置12は、装着パーツデータ351B及び非装着パーツデータ351Cに関連付けられたアバターの識別情報を参照して、画面に表示されているアバターオブジェクト100に関連付けられて保存された装着パーツ及び非装着パーツを取得する。このとき取得される装着パーツ及び非装着パーツは、クローゼットモードでアバターオブジェクト100に装着されるものとして保存された初期状態のパーツである。
リセットボタン53Lが選択されたとき、試用パーツが適用された部位に、クローゼットモードにおいてパーツが関連付けられている場合には、試用パーツ等のパーツと部位との関連付けが解除される。また、リセットボタン53Lが選択されたとき、試用パーツとして「帽子」がアバターオブジェクト100の頭部に関連付けられ、クローゼットモードで「帽子」が適用されていない場合には、「帽子」の試用パーツは非表示となる。また、リセットボタン53Lが選択されたとき、試用パーツが適用されていない部位に、クローゼットモードで適用されているパーツが関連付けられている場合には、クローゼットモードで適用されているパーツが表示される。試用パーツに限らず、リセットボタン53Lを選択した場合には、アバターオブジェクト100はクローゼットモードの状態に戻る。つまり、画面上で、ユーザ10が選択したパーツがアバターオブジェクト100に適用されていたとしても、それらのパーツの関連付けが解除され、保存ボタン51Bを選択することによってアバターオブジェクト100の各部位に装着されるものとしてパーツを関連付けた初期状態に戻る。
図11を参照して、視聴ユーザ装置12Bに表示される視聴画面について説明する。ホーム画面54には、視聴可能な動画を示す動画選択部54Aが表示されている。ユーザが動画選択部54Aを選択すると、選択された動画のIDが表示要求とともにサーバ13に送信される。これにより、ユーザ装置12が視聴モードとなる。配信ユーザが動画の配信中に自動試用を行うと、自動試用画面55が視聴ユーザ装置12Bに表示される。自動試用画面55は、メッセージ表示部55A、メッセージ入力部55B、評価ボタン55Cを含む。また、自動試用画面53は、コラボレーション配信への参加を配信ユーザ10Aに要請するコラボレーション要請ボタン55D、ギフトオブジェクトを動画に表示するためのギフト表示ボタン55Eを含んでいてもよい。この画面において視聴ユーザ10Bは、メッセージ入力部55Bに、自動試用の感想を入力して、サーバ13を介して配信ユーザ装置12Aにメッセージを送信することができる。また、視聴ユーザ10Bは、評価ボタン55Cを選択することにより、好評価を示す指標を動画に表示することができる。
このようにアバターオブジェクト100に試用パーツを適用し、その自動試用画面55を視聴ユーザ装置12Bに表示する態様において、試用パーツを適用したアバターオブジェクト100の表示を制限するようにしてもよい。例えば、試用パーツを適用したアバターオブジェクト100の表示時間を制限するようにしてもよい。又は自動試用画面55を構成する画面要素に制限を設けるようにしてもよい。例えば、配信ユーザ装置12Aに表示されるメッセージ表示部53C、及び視聴ユーザ装置12Bに表示される55Aの少なくとも一方を非表示にするようにしてもよい。又は、自動試用画面55に、トラッキングデータを適用したアバターオブジェクト100ではなく、静止したアバターオブジェクト100を表示するようにしてもよい。又は、自動試用画面53の一部をキャプチャした静止画を表示するようにしてもよい。このようにすると、抽選が行われず自動試用画面53のままで動画の配信が継続されにくいため、意図しない試用パーツの利用を抑制することができる。
次に、第1実施形態の効果について説明する。
(1-1)ユーザ10の操作に基づき指定された抽選対象集団の中から、予め設定された試用パーツデータ222に基づき、試用パーツがアバターオブジェクト100に自動的に適用される。つまり、ユーザ10の試用パーツの選択を経ることなく、試用パーツがアバターオブジェクト100に自動的に適用される。ユーザ10は、試用パーツが自動的に適用されたアバターオブジェクト100を自動試用画面53で視認することによって、試用パーツの美観又はアバターオブジェクト100との相性を確認することができる。また、複数の試用パーツが適用された場合には試用パーツの統一感を確認することができる。このため、ユーザ10の抽選への意欲を高め、アバターオブジェクト100に適用されるパーツの抽選を行う機会を増やすことができる。また、試用パーツをユーザ10が選択することによりアバターオブジェクト100に適用する場合に比べ、ユーザ10の手間を軽減することができる。さらに、複数の試用パーツをアバターオブジェクト100に適用する場合、ユーザ装置12はこれらの試用パーツを一度に描画する画像処理を行うため、ユーザ装置12にかかる負担を軽減することができる。
(1-2)抽選で選択された抽選パーツを、ユーザ10に関連付けられユーザ10の任意のタイミングで利用可能な登録パーツとして、登録パーツを表示した登録パーツリスト51Eに含めて表示する。また、試用パーツの画像は、登録パーツリスト51Eに表示しない。つまり、試用パーツは、ユーザ10のクローゼット画面51に表示しないため、試用パーツを、ユーザ10が任意のタイミングで利用可能な登録パーツではなく、抽選により当たる可能性があるパーツとしてユーザ10に認識させることができる。
(1-3)自動試用にあたり、試用パーツに関連付けられた部位又は領域に登録パーツが既に適用されている場合には、登録パーツの適用を解除し、試用パーツを新たに適用する。このため、登録パーツに代えて、試用パーツを適用することによって、ユーザ10は、登録パーツを試用したアバターオブジェクト100と試用パーツを試用したアバターオブジェクト100とを比較することができる。そして、ユーザ10に試用パーツに興味をもたせることができる。
(1-4)ユーザ装置12は、試用パーツデータ222の中からアバターオブジェクト100のアバター属性に応じた試用パーツのパーツIDを選択し、選択したパーツIDに対応する試用パーツをアバターオブジェクト100に適用する。このため、アバター属性に合った試用パーツをアバターオブジェクト100に適用できる。よって、相性の良い試用パーツを試用したアバターオブジェクト100をユーザ10が視認することによって、ユーザ10の抽選を行う意欲が高められる。また、アバター属性毎に試用パーツを設けることで、試用パーツのバリエーションを多くし、多様な表現を可能とすることができる。
(1-5)ユーザ装置12は、抽選対象のパーツを予め受信する。また、ユーザ装置12は、試用パーツをアバターオブジェクト100に適用する際には、試用パーツのパーツIDを受信するため、自動試用の際にユーザ装置12にかかる負荷を軽減し、試用パーツの試用を速やかに行うことができる。
(1-6)アバターオブジェクト100には複数の試用パーツが適用され、それらの試用パーツは全て異なるカテゴリに属する。このため、試用パーツの組み合わせに、試用パーツ同士の相性の良さや統一性をもたせることによって、ユーザの抽選への意欲を高めることができる。
(1-7)ユーザ装置12が配信モードの場合には、試用パーツをアバターオブジェクト100に適用した第1の画像である自動試用画面53を表示する。また、ユーザ装置12は、視聴モードの場合、視聴中の動画を配信する配信ユーザによって抽選対象集団が選択されたとき、第2の画像である自動試用画面55をディスプレイ28に出力する。この自動試用画面55は、試用パーツを適用したアバターオブジェクト100と、配信ユーザ10Aにメッセージを送信するためのメッセージ入力部55Bとを含む。このため、視聴モードの場合にも、試用パーツが適用されたアバターオブジェクトを視認できる。また、その試用パーツの適用に関してメッセージ入力部55Bにメッセージを入力して感想を配信ユーザ10Aに伝えることができるので、話題を作ることができ、配信ユーザ10Aと視聴ユーザ10Bとのコミュニケーションの活発化を図ることが可能となる。
(第2実施形態)
次に、動画配信システムの第2実施形態について説明する。第1実施形態では、視聴ユーザ10Bが、自動試用画面55を確認できるようにした。これに代えて、第2実施形態では、配信ユーザ装置12Aに自動試用画面53を表示し、視聴ユーザ装置12Bにそれ以外の第2の画像を表示する点が第1実施形態と異なる。
図12は、配信ユーザ装置12Aに表示される自動試用画面53と、視聴ユーザ装置12Bに表示される待機画面56とを示す。配信ユーザ装置12Aが抽選IDをサーバ13に送信したとき、サーバ13は、抽選IDに対応する試用パーツデータ356を配信ユーザ装置12Aに送信する。一方、サーバ13は、待機画面表示要求を視聴ユーザ装置12Bに送信する。
配信ユーザ装置12Aは、試用パーツデータ356を受信すると、第1の画像である自動試用画面53を表示する。自動試用画面53は、自動試用の対象のパーツが適用されたアバターオブジェクト100Aの画像を含む。一方、視聴ユーザ装置12Bは、待機画面表示要求を受信すると、第2の画像である待機画面56をディスプレイ28に表示する。
第2実施形態では、図6に示す第1実施形態の自動試用の手順において、サーバ13が試用パーツデータ356を視聴ユーザ装置12Bに送信するステップ(ステップS6)及び視聴ユーザ装置12Bが試用パーツデータ356を用いて自動試用を行うステップ(ステップS8)が省略される。このステップに代えて、サーバ13は、待機画面を視聴ユーザ装置12Bに表示するための待機データを視聴ユーザ装置12Bに送信する。また、視聴ユーザ装置12Bは、待機データに基づいて待機画面をディスプレイ28に表示する。この待機データは、待機画面の出力要求の他、配信ユーザ10Aの発話に基づく音声データを含むことが好ましい。また、待機データは、配信ユーザ10Aのトラッキングデータを含んでいてもよい。
図12に視聴ユーザ装置12Bに表示される待機画面56の一例を示す。待機画面56の構成は特に限定されないが、試用パーツが適用されたアバターオブジェクト100Bが表示されなければよい。図12に示す待機画面56Aは、自動試用の対象のパーツが適用される前のアバターオブジェクト100Bの画像を含む。つまり、配信ユーザ装置12Aでは試用パーツが適用されたアバターオブジェクト100Aが表示される一方、視聴ユーザ装置12Bでは、試用パーツが適用されないアバターオブジェクト100Bが表示される。つまり、第2実施形態の試用パーツは、配信ユーザ10Aに確認されるパーツであるが、視聴ユーザ10Bには確認されないパーツである。また、試用パーツを用いた自動試用は、配信ユーザ10Aに視認されるが視聴ユーザ10Bには視認されないものである。
待機画面56に表示されるアバターオブジェクト100Bには、動画構成データに含まれるトラッキングデータを適用してもよい。これにより、アバターオブジェクト100Bは、配信ユーザ10Aの動作に合わせて動作する。また、視聴ユーザ装置12Bは、配信ユーザ10Aの音声データを受信し、スピーカ25から音声を出力する。また、待機画面56には、視聴ユーザ装置12Bから送信されたメッセージ表示部56Cを表示するようにしてもよい。
図13は、他の例である待機画面56Bを示す。待機画面56Bは、アバターオブジェクト100を含まない画面である。待機画面56Bには、試用パーツが適用されていることを示すメッセージを表示してもよい。待機画面56Bには視聴ユーザ装置12Bが送信したメッセージ56Dを表示してもよい。又は、待機画面56の他の例として、自動試用の対象となるパーツが適用されたアバターオブジェクト100Aを、解像度の低下、ぼかし等の加工を加えて表示してもよい。又は、自動試用の対象となるパーツが適用されたアバターオブジェクト100の一部、又は自動試用のパーツの一部のみを待機画面56に表示するようにしてもよい。例えば、試用パーツとして「帽子」を装着したアバターオブジェクト100の頭部をズームアップして、上半身及び下半身を含まない待機画面としてもよい。又は、待機画面56に表示されるアバターオブジェクト100Bに、アバターオブジェクト100Aに適用された試用パーツの数よりも少ない試用パーツを適用してもよい。例えば、待機画面56に壁紙のみを適用してもよい。
第2実施形態では、第1実施形態の(1-1)~(1-6)に記載の効果に加えて以下の効果を奏する。
(2-1)ユーザ装置12が配信モードの場合には、試用パーツをアバターオブジェクト100に適用した第1の画像である自動試用画面53を表示する。また、ユーザ装置12は、視聴モードの場合には、視聴中の動画を配信する配信ユーザによって抽選対象集団が選択されたとき、第2の画像である待機画面56が表示される。待機画面56は、試用パーツを適用したアバターオブジェクト100を含まない。このため、あたかも試用パーツが配信ユーザ10Aの登録パーツであるかのように、試用パーツがアバターオブジェクトに適用されたまま、動画の配信及び視聴が行われることを抑制することができる。このため、試用パーツが意図しない方法で用いられることを防ぐことができる。
(第3実施形態)
次に、動画配信システムの第3実施形態について説明する。第1実施形態では、配信ユーザ10Aが単独で動画を配信するようにした。第3実施形態では、複数の配信ユーザ10Aがコラボレーション配信する点で第1実施形態と相違する。
コラボレーション配信では、複数の配信ユーザ10Aが自身のアバターオブジェクト100を一つの動画に表示する。コラボレーション配信に参加するにあたり、ユーザ装置12は、サーバ13を介して、配信ユーザ装置12Aに参加要請を送信する。配信ユーザが参加要請を承認すると、配信ユーザ10Aがホストユーザ、参加要請を行ったユーザがゲストユーザとなる。参加申請は、動画を視聴する視聴ユーザ10Bが行ってもよく、動画の配信を開始する前に一方のユーザ10が他方のユーザ10に行うようにしてもよい。
サーバ13は、コラボレーション配信に参加する複数の配信ユーザ装置12Aから、動画構成データ及び音声データを受信する。サーバ13は、受信した動画構成データ及び音声データを、それらを送信した配信ユーザ装置12A以外の配信ユーザ装置12Aに送信する。また、サーバ13は、受信した動画構成データ及び音声データを視聴ユーザ装置12Bに送信する。視聴ユーザ装置12Bは、受信した動画構成データを用いて、配信ユーザ10Aの動作が反映されたアバターオブジェクト100を描画する。また、視聴ユーザ装置12Bは、受信した音声データをスピーカ25から出力する。
ホストユーザ及びゲストユーザのいずれか一方が抽選バナーを選択すること等により、配信ユーザ装置12Aは抽選IDを送信する。サーバ13は、抽選IDに対応する試用パーツデータ356を取得し、コラボレーション配信に参加する全ての配信ユーザ装置12A、視聴ユーザ装置12Bに取得した試用パーツデータ356を送信する。
配信ユーザ装置12A及び視聴ユーザ装置12Bは、試用パーツを受信すると、コラボレーション配信に参加する全てのアバターオブジェクト100に対し自動試用を行う。具体的には、配信ユーザ装置12A及び視聴ユーザ装置12Bは、サーバ13から受信した試用パーツデータ356に対応するパーツの描画データをストレージ22から取得し、全てのアバターオブジェクト100に適用する。このとき、第1実施形態と同様に、アバターオブジェクト100の各々に関連付けられた属性データに基づき、試用パーツを適用する。
図14は、コラボレーション配信における自動試用画面58を示す。図15に示す自動試用画面58は、配信ユーザ装置12Aに表示される画面である。自動試用画面58は、ホストユーザのアバターオブジェクト100Cと、ゲストユーザのアバターオブジェクト100Dとを含む。アバターオブジェクト100C,100Dには、試用パーツ105が適用されている。試用パーツ105は同じパーツIDを有するものであってもよい。また、自動試用画面58は、視聴ユーザ装置12Bから送信されたメッセージ表示部58Aを含んでいてもよい。例えば、アバターオブジェクト100C,100Dの両方には、同じ柄のシャツ105A,105Bが適用される。
又は、サーバ13は、同じ抽選対象集団に属し異なるパーツのパーツIDを含む試用パーツデータ356を、コラボレーション配信に参加する配信ユーザ装置12Aに送信するようにしてもよい。例えば、同じ柄であって色違いのTシャツなどのパーツ、M型とF型の型式のみが違うパーツ、同じ柄や色調(テーマ)であってTシャツのパーツやワンピースのパーツの組み合わせである。この場合、サーバ13は、パーツIDと、パーツID毎に関連付けられたアバターオブジェクトの識別情報を送信する。配信ユーザ装置12A及び視聴ユーザ装置12Bは、試用パーツを、その試用パーツに関連付けられたアバターオブジェクト100に適用する。アバターオブジェクト100の各々には、同じ抽選対象集団であって、異なる試用パーツ105が適用される。
又は、サーバ13は、エモート機能をコラボレーション配信に参加する配信ユーザ装置12Aに送信するようにしてもよい。アバターオブジェクト100の各々に適用されるエモート機能は、同時に行われたり、連動したりする。例えば、二体のアバターオブジェクト100の腕や手を同時にアバターオブジェクト100の相対位置関係に応じた動作をさせることで、ハートマーク、円形等の所定の形状をつくる。この場合、各エモート機能のコンポーネントには、動作を実行させるアバターオブジェクト100の数と、アバターオブジェクト100の相対位置が関連付けられている。又は、三体のアバターオブジェクト100に連続的に動作をさせることにより、ウェーブを作ったりする。例えば、所定のユーザによりエモート機能を実行する操作が行われ、配信ユーザ装置12Aからエモート実行指令がサーバ13に送信すると、サーバ13は、他の配信ユーザ装置12A及び視聴ユーザ装置12Bにエモート実行指令を送信する。ユーザ装置12は、エモート実行指令を受信すると、アバターオブジェクト100の各々に同時にエモート機能に対応する動作をさせるアニメーションを出力する。又は、ユーザ装置12は、エモート実行指令を受信すると、アバターオブジェクト100の各々に、時間ずらして動作するアニメーションを出力する。アバターオブジェクト100の各々に適用するエモート機能には、そのアニメーションを出力する順番と、出力するタイミングを示す経過時間が設定されている。1番目のエモート機能のアニメーションが開始されてから「0.5秒」後に、2番目のエモート機能のアニメーションが実行される。また、アニメーションは、最も左に配置されたアバターオブジェクト100から順番に適用されてもよい。これにより、アバターオブジェクト100は連動した動作を行う。
ホストユーザ及びゲストユーザは、試用パーツを気に入った場合、ユーザ装置12を操作して抽選実行部58B,58Cを選択することにより抽選実行要求をサーバ13に送信する。抽選実行要求は、ユーザID等とともに送信される。サーバ13は、抽選実行要求を受信すると、抽選を実行する。そして、抽選の結果、得られた抽選パーツのパーツIDを、抽選実行要求を送信したユーザの登録パーツデータ351に記憶する。また、サーバは、抽選パーツのパーツIDを、抽選実行要求を送信したユーザのユーザID等と関連付けて配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。抽選実行要求を送信したユーザの配信ユーザ装置12Aは、ユーザIDに基づき、抽選パーツのパーツIDを登録パーツデータ221に記憶する。また、サーバ13は、抽選実行要求を送信したユーザ10に対する購入処理を実行する。
第1実施形態と同様に、複数のアバターオブジェクト100に試用パーツを適用し、その自動試用画面58を視聴ユーザ装置12Bに表示する態様において、試用パーツ105を適用したアバターオブジェクト100の表示に制限を設けるようにしてもよい。例えば、複数のアバターオブジェクト100のうち一体のアバターオブジェクト100のみ試用パーツを適用させた状態で表示し、その他のアバターオブジェクト100には試用パーツを適用しなくてもよい。又は自動試用画面58を構成する画面要素に制限を設けるようにしてもよい。このようにすると、抽選が行われず自動試用画面58のまま配信が継続されることを抑制することができる。
第3実施形態では、第1実施形態の(1-1)~(1-7)に記載の効果に加えて以下の効果を奏する。
(3-1)コラボレーション配信に参加する配信ユーザ10Aによって抽選対象集団の指定が行われたとき、全てのアバターオブジェクトに同じ試用パーツ、又は同じ抽選対象集団に含まれ互いに異なる試用パーツが適用される。よって、コラボレーション配信に参加する全てのアバターオブジェクトの間で、試用パーツとの相性等の比較を行うことができる。このため、複数の配信ユーザ10Aの間、および配信ユーザ10A及び視聴ユーザ10Bの間のコミュニケーションを活発化することができる。
上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・第2実施形態の視聴ユーザ装置12Bにおける待機画面56の表示方法を、第3実施形態に記載のコラボレーション配信に適用するようにしてもよい。この場合、例えば、コラボレーション配信に参加する全ての配信ユーザ装置12Aには、試用パーツが適用されたアバターオブジェクト100を含む第1の画像を表示する。又は、コラボレーション配信に参加する全ての配信ユーザ装置12Aのうち、抽選対象集団を指定した配信ユーザ10Aが用いる配信ユーザ装置12Aのみに、試用パーツが適用されたアバターオブジェクト100を含む第1の画像を表示する。また、コラボレーション配信を視聴する視聴ユーザ装置12Bには、試用パーツが適用されたアバターオブジェクト100を含まない第2の画像を表示する。
・上記各実施形態では、試用パーツを、アバターオブジェクト100の本体パーツ、装着パーツ、非装着パーツとした。試用パーツは、アバターオブジェクト100に適用されるだけでなく、アプリケーション内で所定の効果を発揮するものであってもよい。また、第3実施形態のように、複数のユーザが参加するコラボレーション配信の場合には、試用パーツの組み合わせを1つずつ、コラボレーション配信に参加するユーザのアバターオブジェクトの各々に対して適用してもよい。
図15に示す配信画面59に例示されるように、試用パーツは、アバターオブジェクト100が用いる武器パーツ120,121であってもよい。配信ユーザ10Aは、アバターオブジェクト100を用いて、ゲームをプレイする動画を配信する。アバターオブジェクト100は、ゲーム内に設定されたミッションをクリアするためのアクションを行う。試用パーツには、アクションが関連付けられている。アクションは、例えば他のキャラクタ等のオブジェクトに影響を与えるもの、アバターオブジェクト100に影響を与えるものである。また、アクションは、例えばオブジェクトに関連付けられたパラメータ又はアバターオブジェクトに関連付けられたパラメータを減じるもの又は増加させるものである。パラメータは、その値がゲームの進行に応じて変化するものである。パラメータの種類は、アバターオブジェクト100又はその他のオブジェクトの攻撃力、防御力、戦闘力、体力(ヒットポイント、スタミナ)、魔力(マジックポイント)、レベル、経験値、スキルを用いる時に消費されるポイントであるスキルポイント、機敏性等である。また、アクションは、他のオブジェクト又はアバターオブジェクト100を移動させるものである。また、アクションは、例えばオブジェクトの数又はアバターオブジェクトの数を増加又は減少させるものである。例えば「刀」の武器パーツ121の場合は、「攻撃」のアクションが関連付けられている。さらにこの武器パーツ121にはアクション効果が関連付けられている。アクション効果は、例えば「攻撃力」等、対象物に付与される影響の大きさ又は効果の大きさである。また、試用パーツには、ゲーム内属性が関連付けられていてもよい。試用パーツに関連付けられたゲーム内属性は、例えば「火属性」、「水属性」、「土属性」、「風属性」、「光属性」等である。また、異なる属性や相性の良い属性の武器パーツの組み合わせや、同じ属性で異なる種類の武器パーツの組み合わせを、コラボレーション配信で表示されるアバターオブジェクト100の各々に1つずつ適用するようにしてもよい。この場合、複数のユーザにより構成されるグループで対戦する、いわゆるギルド戦といわれるゲームにおいて、例えば、グループとしての攻撃力や防御力等、グループとして対戦に勝利しやすくなるように武器パーツの組み合わせを設定することが好ましい。
このようなゲームにおいて、試用パーツの組み合わせによってアクションの効果やその大きさが異なることがある。例えば、同じ属性の試用パーツを用いると、試用パーツの各々が有する効果が大きくなる。このようにアバターオブジェクト100がゲーム内で用いる試用パーツが1乃至複数のユーザに抽選される場合、アクション効果が高い組み合わせや、ゲーム内の効果が高いものを配信ユーザ10Aに体験させることによって、配信ユーザ10Aの抽選への意欲を高めることができる。自動試用画面58では、試用パーツを装着したアバターオブジェクト100がアクションを実行可能である。なお、抽選される試用パーツは複数に限らず、単数であってもよい。
・上記各実施形態では、ユーザ10に関連付けられた登録パーツと抽選パーツとの重複を考慮することなく、抽選を行うものとした。つまり、抽選対象集団にユーザ10の登録パーツが含まれている場合には、ユーザ10が抽選を行った場合に、登録パーツと抽選パーツとが重複してしまう可能性がある。このため、サーバ13は、ユーザ装置12から抽選実行要求を受信したときに、抽選対象集団から、抽選実行要求を送信したユーザ10の登録パーツを除外するようにしてもよい。具体的には、サーバ13は、ユーザ装置12からユーザの識別情報とともに抽選実行要求を受信したときに、ユーザ装置12に対応する登録パーツデータ351をストレージ35から取得する。そして、抽選データ353のうち、登録パーツデータ351に対応する抽選対象データ354を除外する。そして、抽選対象データ354を除外した抽選データ353を用いて抽選を行うようにしてもよい。又は、サーバ13は、登録パーツデータ351に対応する抽選対象データ354を除外せず、抽選パーツを決定したときに、抽選パーツが登録パーツデータ351に含まれるか否かを判定する。サーバ13は、抽選パーツが登録パーツデータ351に含まれる場合に、再び抽選を行う。そして、登録パーツデータ351に含まれないパーツが抽選されるまで、抽選を繰り返す。このようにすると、登録パーツと抽選パーツとが重複することがないため、ユーザ10の抽選に対する満足度を高めることができる。
・上記各実施形態では、ホストユーザが配信する動画に対し、共演要請をしてゲストユーザのアバターオブジェクトを動画に追加するようにした。これに代えて、ホストユーザ、ゲストユーザを決めず、予め定めたユーザに対応するアバターオブジェクトを共演させた動画を配信してもよい。
・上記各実施形態では、エモート機能は、アバターオブジェクトの手や腕等の部位を動作させるものやアバターオブジェクトの表情に例示して説明したが、これに限定されない。エモート機能は、アバターオブジェクトの立ち位置を変更させたり、アバターオブジェクトを歩かせたり、踊らせたりするものであってもよい。
・上記各実施形態では、ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされているものとした。これに代えて、動画を視聴するためのアプリケーションプログラムと、動画を配信するためのアプリケーションプログラムとを別のアプリケーションプログラムとを分けてもよい。配信を行う場合には配信アプリケーションプログラムを用いて動画を配信する。視聴を行う場合には視聴アプリケーションプログラムを用いて動画を視聴する。ギフトオブジェクトの表示要求は、視聴アプリケーションプログラムを用いて行う。
(動画配信方式)
・上記各実施形態では、配信ユーザ装置12A及び視聴ユーザ装置12Bが動画構成データ等を受信して動画を生成するクライアントレンダリング方式を用いた。これに代えて若しくは加えて、配信ユーザ装置12Aが動画データをエンコードする映像配信方式を用いてもよい。映像配信方式では、配信ユーザ装置12Aは、トラッキングデータ等を用いてアニメーションを生成し、そのアニメーションをエンコードする。また、配信ユーザ装置12Aは、エンコードしたデータをサーバ13に送信する。サーバ13は、エンコードしたデータを視聴ユーザ装置12Bに送信する。このとき、サーバ13は、視聴ユーザからのメッセージや音声データを、アニメーションと一緒に視聴ユーザ装置12B及び配信ユーザ装置12Aに送信してもよい。また、配信ユーザ装置12Aは、トラッキングデータを用いてアニメーションを表示する。視聴ユーザ装置12Bは、エンコードされたデータをデコードして、アニメーションを表示する。また、動画配信方式として、サーバ配信方式を用いる場合には、配信ユーザ装置12Aは、動画構成データ及び音声データをサーバ13に送信する。サーバ13は、動画構成データ及び音声データを用いて動画を生成し動画をエンコードして視聴ユーザ装置12Bに送信する。このとき配信ユーザ装置12Aは、動画構成データ等に基づいて動画を生成してもよく、サーバ13からエンコードした動画データを受信し、デコードして動画を表示するようにしてもよい。
(動画配信システム)
・センサユニット24は、ユーザの表情の変化、頭部の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得するとしたが、このうち少なくとも一つであってもよい。また、センサユニット24は、ユーザの表情の変化、頭部の動き及びユーザの相対位置の少なくとも一つに加えて、若しくは代えて、頭部の動作以外の動きを検出した検出データ等のその他の検出データを取得してもよい。
・動画に表示される仮想空間は、拡張現実(AR;Augmented Reality)の空間であってもよい。例えば、視聴ユーザ装置12Bのカメラが撮影した現実世界の画像に、配信ユーザ装置12Aから送信されたデータに基づくアバターオブジェクト及びギフトオブジェクト等のアニメーションを重ねて表示してもよい。又は、配信ユーザ装置12Aが、自身のカメラが撮影した現実世界の画像に、アバターオブジェクト及びギフトオブジェクト等のアニメーションを重ねて表示することによって動画を生成し、動画をエンコードしてサーバ13に送信するようにしてもよい。
・上記各実施形態では、ユーザ装置12は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、動画配信システムを、動画配信用のスタジオに設けられたシステムとしてもよい。動画配信システムは、情報処理装置、サーバ、配信ユーザの身体に装着されるセンサユニット24、センサユニット24の位置を検出するトラッキングシステム、操作部27、スピーカ25、ディスプレイ28を有する。トラッキングシステムは、同期用のパルスレーザ光を出射する多軸レーザエミッターを備えていてもよい。センサユニット24は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。センサユニット24は、例えば、HTC Corporation(登録商標)から提供されているVive Tracker(登録商標)及びVive Base Stationを用いることができる。情報処理装置は、第1描画処理、指定処理、試用パーツ取得処理、第2描画処理を行う。
・第1描画処理、指定処理、試用パーツ取得処理、第2描画処理、抽選要求処理、抽選データ受信処理、登録パーツ表示処理、及びモード切替処理の各々は、ユーザ装置12及びサーバ13のうちいずれか一方、又は動画配信システム11を構成する他の装置が実行するようにしてもよい。
次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
〔1〕1又は複数のコンピュータに、ユーザに関連付けられた登録パーツを、前記ユーザの動きが反映されるアバターオブジェクトに適用した動画を前記ユーザが視認するディスプレイに出力する第1描画処理と、前記ユーザによる入力操作部への操作に基づき、抽選対象のパーツを複数含む抽選対象集団を指定する情報をサーバに送信する指定処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを取得する試用パーツ取得処理と、前記試用パーツデータを用いて前記試用パーツを自動的に適用した前記アバターオブジェクトを前記ディスプレイに出力する第2描画処理と、を実行させるプログラム。
〔2〕前記コンピュータに、前記抽選対象集団からの抽選の実行要求を、抽選を行うサーバに送信する抽選要求処理と、前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記サーバから受信する抽選データ受信処理と、前記抽選パーツの画像を、前記ユーザに関連付けられた前記登録パーツとして、前記登録パーツの画像を選択可能に表示した登録パーツリストに含めて表示する登録パーツ表示処理と、さらに実行させ、前記登録パーツ表示処理では、前記試用パーツの画像を前記登録パーツリストに表示しない、〔1〕のプログラム。
〔3〕前記登録パーツ及び前記試用パーツは、前記アバターオブジェクトの部位に関連付けられており、前記第2描画処理は、前記アバターオブジェクトに前記試用パーツを適用する際、前記試用パーツに関連付けられた前記部位に前記登録パーツが既に適用されている場合には、前記登録パーツの適用を解除し、前記試用パーツを新たに適用する〔1〕又は〔2〕に記載のプログラム。
〔4〕前記アバターオブジェクトはアバター属性が関連付けられ、前記試用パーツデータは、前記アバター属性毎に異なる前記試用パーツの識別情報を含み、前記第2描画処理は、前記試用パーツデータのうち、前記ディスプレイに出力している前記アバターオブジェクトの前記アバター属性に応じた前記試用パーツの識別情報を選択し、選択した前記識別情報に対応する前記試用パーツを前記アバターオブジェクトに適用する〔1〕~〔3〕のいずれか1項に記載のプログラム。
〔5〕前記コンピュータに、前記抽選対象集団に含まれる抽選対象のパーツを描画するための描画データを、抽選を行うサーバから予め受信し、記憶部に記憶する処理をさらに実行させ、前記試用パーツ取得処理では、前記試用パーツの識別情報を受信し、前記第2描画処理では、前記試用パーツの識別情報に対応する前記描画データを前記記憶部から取得し、前記アバターオブジェクトに適用する〔1〕~〔4〕のいずれか1項に記載のプログラム。
〔6〕前記コンピュータに、前記ユーザの入力操作に応じて、前記動画を配信する配信モードと、前記動画を視聴する視聴モードとを切り替えるモード切替処理をさらに実行させ、前記配信モードにおいて、前記ユーザにより前記抽選対象集団を指定する前記指定処理が行われたとき、前記試用パーツを前記アバターオブジェクトに適用した第1の画像を表示する前記第2描画処理を実行し、前記視聴モードにおいて、視聴中の前記動画を配信する配信ユーザによって前記指定処理が行われたとき、前記試用パーツを適用した前記アバターオブジェクトと、前記配信ユーザにメッセージを送信するためのメッセージ入力部とを含む第2の画像を前記ディスプレイに出力する処理を行う〔1〕~〔5〕のいずれか1項に記載のプログラム。
〔7〕前記コンピュータに、前記ユーザの入力操作に応じて、前記動画を配信する配信モードと、前記動画を視聴する視聴モードとを切り替えるモード切替処理をさらに実行させ、前記配信モードにおいて、前記ユーザにより前記抽選対象集団を指定する前記指定処理が行われたとき、前記試用パーツを前記アバターオブジェクトに適用した第1の画像を前記ディスプレイに出力する前記第2描画処理を実行し、前記視聴モードにおいて、視聴中の前記動画を配信する配信ユーザによって前記指定処理が行われたとき、前記試用パーツを適用した前記アバターオブジェクトを含まない第2の画像を前記ディスプレイに出力する処理を行う〔1〕~〔5〕のいずれか1項に記載のプログラム。
〔8〕前記コンピュータに、配信ユーザに対応する前記アバターオブジェクトを複数含むコラボレーション配信の動画を前記ディスプレイに出力するとともに、複数の前記配信ユーザのうち一人の入力操作により前記指定処理が行われたとき、取得した前記試用パーツを用いて、前記コラボレーション配信に参加する全ての前記アバターオブジェクトに、同一の前記試用パーツ、又は、前記抽選対象集団に含まれ互いに異なる前記試用パーツを適用する〔1〕~〔6〕のいずれか1項に記載のプログラム。
〔9〕前記抽選対象集団に含まれる前記パーツは、複数のカテゴリの一つに属し、前記アバターオブジェクトには複数の前記試用パーツが適用され、それらの前記試用パーツは異なる前記カテゴリに属する〔1〕~〔8〕のいずれか1項に記載のプログラム。
〔10〕1又は複数のコンピュータが、ユーザに関連付けられた登録パーツを、前記ユーザの動きが反映されるアバターオブジェクトに適用した動画を前記ユーザが視認するディスプレイに出力する第1描画処理と、前記ユーザによる入力操作部への操作に基づき、抽選対象のパーツを複数含む抽選対象集団を指定する情報をサーバに送信する指定処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを取得する試用パーツ取得処理と、前記試用パーツデータを用いて前記試用パーツを自動的に適用した前記アバターオブジェクトを前記ディスプレイに出力する第2描画処理と、を実行する情報処理方法。
〔11〕ユーザの動きが反映されるアバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置に送信するパーツ送信処理と、抽選対象の前記パーツを複数含む抽選対象集団を指定する情報を前記ユーザ装置から受信する指定受信処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを前記ユーザ装置に送信する試用パーツ送信処理と、前記抽選対象集団からの抽選の実行要求を、前記ユーザ装置から受信する抽選要求受信処理と、前記抽選対象集団から所定数の前記パーツを抽選する抽選実行処理と、前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記ユーザ装置に送信する抽選データ送信処理と、を実行するサーバ。
〔12〕1又は複数のコンピュータが、ユーザの動きが反映されるアバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置に送信するパーツ送信処理と、抽選対象の前記パーツを複数含む抽選対象集団を指定する情報を前記ユーザ装置から受信する指定受信処理と、前記抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを前記ユーザ装置に送信する試用パーツ送信処理と、前記抽選対象集団からの抽選の実行要求を、前記ユーザ装置から受信する抽選要求受信処理と、前記抽選対象集団から所定数の前記パーツを抽選する抽選実行処理と、前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記ユーザ装置に送信する抽選データ送信処理と、を実行するサーバの情報処理方法。
11…動画配信システム
12…ユーザ装置
13…サーバ

Claims (14)

  1. 1又は複数のコンピュータに、
    ユーザに関連付けられた登録パーツを、前記ユーザの動きが反映されるアバターオブジェクトに適用した動画を前記ユーザが視認するディスプレイに出力する第1描画処理と、
    前記ユーザによる入力操作部への操作に基づき、抽選対象のパーツを複数含む抽選対象集に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを取得する試用パーツ取得処理と、
    前記試用パーツデータを用いて前記試用パーツを自動的に適用した前記アバターオブジェクトを前記ディスプレイに出力する第2描画処理と、を実行させるプログラム。
  2. 前記コンピュータに、
    前記抽選対象集団からの抽選の実行要求を、抽選を行うサーバに送信する抽選要求処理と、
    前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記サーバから受信する抽選データ受信処理と、
    前記抽選パーツの画像を、前記ユーザに関連付けられた前記登録パーツとして、前記登録パーツの画像を選択可能に表示した登録パーツリストに含めて表示する登録パーツ表示処理と、をさらに実行させ、
    前記登録パーツ表示処理では、前記試用パーツの画像を前記登録パーツリストに表示しない、請求項1のプログラム。
  3. 前記登録パーツ及び前記試用パーツは、前記アバターオブジェクトの部位に関連付けられており、
    前記第2描画処理は、前記アバターオブジェクトに前記試用パーツを適用する際、前記試用パーツに関連付けられた前記部位に前記登録パーツが既に適用されている場合には、前記登録パーツの適用を解除し、前記試用パーツを新たに適用する
    請求項1又は2に記載のプログラム。
  4. 前記アバターオブジェクトはアバター属性が関連付けられ、
    前記試用パーツデータは、前記アバター属性毎に異なる前記試用パーツの識別情報を含み、
    前記第2描画処理は、前記試用パーツデータのうち、前記ディスプレイに出力している前記アバターオブジェクトの前記アバター属性に応じた前記試用パーツの識別情報を選択し、選択した前記識別情報に対応する前記試用パーツを前記アバターオブジェクトに適用する
    請求項1~3のいずれか1項に記載のプログラム。
  5. 前記コンピュータに、
    前記抽選対象集団に含まれる抽選対象のパーツを描画するための描画データを、抽選を行うサーバから予め受信し、記憶部に記憶する処理をさらに実行させ、
    前記試用パーツ取得処理では、前記試用パーツの識別情報を受信し、
    前記第2描画処理では、前記試用パーツの識別情報に対応する前記描画データを前記記憶部から取得し、前記アバターオブジェクトに適用する
    請求項1~4のいずれか1項に記載のプログラム。
  6. 前記コンピュータに、
    前記ユーザの入力操作に応じて、前記動画を配信する配信モードと、前記動画を視聴する視聴モードとを切り替えるモード切替処理をさらに実行させ、
    前記配信モードにおいて、前記ユーザにより前記抽選対象集団が指定されたとき、前記試用パーツを前記アバターオブジェクトに適用した第1の画像を表示する前記第2描画処理を実行させ、
    前記視聴モードにおいて、視聴中の前記動画を配信する配信ユーザによって前記抽選対象集団が指定されたとき、前記試用パーツを適用した前記アバターオブジェクトと、前記配信ユーザにメッセージを送信するためのメッセージ入力部とを含む第2の画像を前記ディスプレイに出力する処理を実行させる
    請求項1~5のいずれか1項に記載のプログラム。
  7. 前記コンピュータに、
    前記ユーザの入力操作に応じて、前記動画を配信する配信モードと、前記動画を視聴する視聴モードとを切り替えるモード切替処理をさらに実行させ、
    前記配信モードにおいて、前記ユーザにより前記抽選対象集団が指定されたとき、前記試用パーツを前記アバターオブジェクトに適用した第1の画像を前記ディスプレイに出力する前記第2描画処理を実行させ、
    前記視聴モードにおいて、視聴中の前記動画を配信する配信ユーザによって前記抽選対象集団が指定されたとき、前記試用パーツを適用した前記アバターオブジェクトを含まない第2の画像を前記ディスプレイに出力する処理を実行させる
    請求項1~5のいずれか1項に記載のプログラム。
  8. 前記コンピュータに、
    配信ユーザに対応する前記アバターオブジェクトを複数含むコラボレーション配信の動画を前記ディスプレイに出力させるとともに、
    複数の前記配信ユーザのうち一人の入力操作により前記抽選対象集団が指定されたとき、取得した前記試用パーツを用いて、前記コラボレーション配信に参加する全ての前記アバターオブジェクトに、同一の前記試用パーツ、又は、前記抽選対象集団に含まれ互いに異なる前記試用パーツを適用させる
    請求項1~6のいずれか1項に記載のプログラム。
  9. 前記抽選対象集団に含まれる前記パーツは、複数のカテゴリの一つに属し、
    前記アバターオブジェクトには複数の前記試用パーツが適用され、それらの前記試用パーツは異なる前記カテゴリに属する
    請求項1~8のいずれか1項に記載のプログラム。
  10. 1又は複数のコンピュータが、
    ユーザに関連付けられた登録パーツを、前記ユーザの動きが反映されるアバターオブジェクトに適用した動画を前記ユーザが視認するディスプレイに出力する第1描画処理と、
    前記ユーザによる入力操作部への操作に基づき、抽選対象のパーツを複数含む抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを取得する試用パーツ取得処理と、
    前記試用パーツデータを用いて前記試用パーツを自動的に適用した前記アバターオブジェクトを前記ディスプレイに出力する第2描画処理と、を実行する情報処理方法。
  11. ユーザの動きが反映されるアバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置に送信するパーツ送信処理と、
    抽選対象の前記パーツを複数含む抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを前記ユーザ装置に送信する試用パーツ送信処理と、を実行するサーバ。
  12. 前記抽選対象集団からの抽選の実行要求を、前記ユーザ装置から受信する抽選要求受信処理と、
    前記抽選対象集団から所定数の前記パーツを抽選する抽選実行処理と、
    前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記ユーザ装置に送信する抽選データ送信処理と、さらに実行する、請求項11に記載のサーバ。
  13. 1又は複数のコンピュータが、
    ユーザの動きが反映されるアバターオブジェクトに適用されるパーツを描画するための描画データをユーザ装置に送信するパーツ送信処理と、
    抽選対象の前記パーツを複数含む抽選対象集団に含まれる前記パーツの中から前記アバターオブジェクトに一時的に適用するパーツとして予め設定された試用パーツに関する試用パーツデータを前記ユーザ装置に送信する試用パーツ送信処理と、を実行するサーバの情報処理方法。
  14. 前記コンピュータが、
    前記抽選対象集団からの抽選の実行要求を、前記ユーザ装置から受信する抽選要求受信処理と、
    前記抽選対象集団から所定数の前記パーツを抽選する抽選実行処理と、
    前記抽選対象集団から抽選された抽選パーツに関する抽選パーツデータを前記ユーザ装置に送信する抽選データ送信処理と、さらに実行する、請求項13に記載のサーバの情報処理方法。
JP2021208919A 2021-09-30 2021-12-23 プログラム、情報処理方法、サーバ及びサーバの情報処理方法 Active JP7429373B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021208919A JP7429373B2 (ja) 2021-09-30 2021-12-23 プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP2024005931A JP2024036381A (ja) 2021-09-30 2024-01-18 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021160906A JP7092930B1 (ja) 2021-09-30 2021-09-30 プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP2021208919A JP7429373B2 (ja) 2021-09-30 2021-12-23 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021160906A Division JP7092930B1 (ja) 2021-09-30 2021-09-30 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024005931A Division JP2024036381A (ja) 2021-09-30 2024-01-18 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Publications (2)

Publication Number Publication Date
JP2023051663A JP2023051663A (ja) 2023-04-11
JP7429373B2 true JP7429373B2 (ja) 2024-02-08

Family

ID=82196197

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021160906A Active JP7092930B1 (ja) 2021-09-30 2021-09-30 プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP2021208919A Active JP7429373B2 (ja) 2021-09-30 2021-12-23 プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP2024005931A Pending JP2024036381A (ja) 2021-09-30 2024-01-18 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021160906A Active JP7092930B1 (ja) 2021-09-30 2021-09-30 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024005931A Pending JP2024036381A (ja) 2021-09-30 2024-01-18 プログラム、情報処理方法、サーバ及びサーバの情報処理方法

Country Status (2)

Country Link
US (1) US20230101386A1 (ja)
JP (3) JP7092930B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386584B1 (ja) 2023-03-29 2023-11-27 クラスター株式会社 プログラム、情報処理装置および情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175819A (ja) 2009-01-29 2010-08-12 Brother Ind Ltd カラオケネットワークシステム
JP2017055996A (ja) 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置及びサーバシステム
JP2020195805A (ja) 2020-08-27 2020-12-10 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP2021149407A (ja) 2020-03-18 2021-09-27 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6622440B1 (ja) 2019-09-24 2019-12-18 グリー株式会社 動画配信システム、動画配信方法、動画配信プログラム、情報処理端末及び動画視聴プログラム
JP6724219B1 (ja) 2019-07-24 2020-07-15 グリー株式会社 動画アプリケーションプログラム、動画表示方法、動画配信システム及び情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175819A (ja) 2009-01-29 2010-08-12 Brother Ind Ltd カラオケネットワークシステム
JP2017055996A (ja) 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置及びサーバシステム
JP2021149407A (ja) 2020-03-18 2021-09-27 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP2020195805A (ja) 2020-08-27 2020-12-10 株式会社コロプラ ゲームプログラム、方法、および情報処理装置

Also Published As

Publication number Publication date
JP2023050679A (ja) 2023-04-11
JP2024036381A (ja) 2024-03-15
JP2023051663A (ja) 2023-04-11
JP7092930B1 (ja) 2022-06-28
US20230101386A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
JP6622440B1 (ja) 動画配信システム、動画配信方法、動画配信プログラム、情報処理端末及び動画視聴プログラム
JP6906929B2 (ja) ゲームシステム及びプログラム
JP2024036381A (ja) プログラム、情報処理方法、サーバ及びサーバの情報処理方法
US20220297006A1 (en) Program, method, and terminal device
JP2018075260A (ja) ゲームシステム及びプログラム
JP7479618B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
US11496807B2 (en) Video distribution system, video distribution method, information processing device, and video viewing program
JP2018094247A (ja) ゲームシステム及びプログラム
JP7300925B2 (ja) キャラクタを使ったライブ通信システム
JP2023143963A (ja) プログラム、情報処理方法及び情報処理装置
JP7268238B1 (ja) プログラム、情報処理方法及び情報処理システム
US20230201716A1 (en) Information processing device, information processing method, and program
CN116993432A (zh) 虚拟服饰信息展示方法及电子设备
JP2017142816A (ja) 同期サーバ及び同期方法
US11911703B2 (en) Program, information processing method, information processing device, and server
JP7001796B1 (ja) 情報処理プログラム、情報処理方法及び情報処理システム
KR102169804B1 (ko) 스크린 샷을 이용한 캐릭터의 설정정보 처리장치 및 방법
JP7357865B1 (ja) プログラム、情報処理方法、及び情報処理装置
JP7223834B2 (ja) プログラム、情報処理方法及び情報処理装置
US20240007700A1 (en) Program, information processing method, and information processing device
JP7454166B2 (ja) 情報処理システム、情報処理方法、及び記憶媒体
JP7307433B1 (ja) ゲーム制御装置、ゲーム制御方法、プログラム、情報処理方法及びゲーム制御システム
JP7317329B1 (ja) プログラム、情報処理方法、ゲーム制御装置及びゲーム制御方法
JP2022089817A (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
JP2023138621A (ja) 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221223

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240118

R150 Certificate of patent or registration of utility model

Ref document number: 7429373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150