JP7479618B2 - 情報処理プログラム、情報処理方法、情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、情報処理装置 Download PDF

Info

Publication number
JP7479618B2
JP7479618B2 JP2023025679A JP2023025679A JP7479618B2 JP 7479618 B2 JP7479618 B2 JP 7479618B2 JP 2023025679 A JP2023025679 A JP 2023025679A JP 2023025679 A JP2023025679 A JP 2023025679A JP 7479618 B2 JP7479618 B2 JP 7479618B2
Authority
JP
Japan
Prior art keywords
user
expression
avatar
activation condition
guide display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023025679A
Other languages
English (en)
Other versions
JP2023067892A (ja
Inventor
暁彦 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023025679A priority Critical patent/JP7479618B2/ja
Publication of JP2023067892A publication Critical patent/JP2023067892A/ja
Application granted granted Critical
Publication of JP7479618B2 publication Critical patent/JP7479618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理プログラム、情報処理方法、情報処理装置に関する。
従来から、ユーザの動きに基づくキャラクタ動画を含む動画を配信するシステムが知られている(例えば、特許文献1参照)。このシステムでは、動画処理装置が第1の声優の表情及び体の動きの検出結果を取得するとともに、第2の声優の表情及び体の動きの検出結果を取得する。さらに動画処理装置は、取得した検出結果に基づき、第1キャラクタの3次元情報及び第2キャラクタの3次元情報に基づきレンダリングを行って第1キャラクタの動画及び第2キャラクタが動画を生成し、それらの動画を合成する。
特開2015-184689号公報
上記のような動画配信システムでは、キャラクタが発動できる表情は、初めにシステムに格納された基本的な表情に限られていた。しかし、キャラクタの表情や手足の動き等を含む表現が単調であるよりも多様である方が動画を視聴するユーザを飽きさせない。このため、キャラクタの表現を多様化することが望まれている。
しかし、キャラクタの表現を多様化すると、表現の各々を発動させるための条件も表現の増加に伴い多くなる。また、ユーザの身体の動きで表現を発動させる場合において、ユーザが新たな表現の発動を試みる場合には、ユーザ自身がどのように動いたらよいか直観的に把握しにくい場合がある。このようにキャラクタの表現の発動条件がユーザにとって判りにくいと、多くの表現が準備されていたとしても、表現の利用頻度が低くなる可能性がある。
本発明は、上記実情に鑑みてなされたものであり、その目的は、ユーザが配信する動画における表現をユーザが発動しやすくすることにより、動画の表現の多様化を図ることにある。
上記課題を解決する情報処理プログラムは、1乃至複数のコンピュータに、ユーザの動きが反映されるアバターオブジェクト、及び前記アバターオブジェクトの表現を表示したガイド表示をディスプレイに出力するガイド表示工程と、前記ユーザの身体の一部であるユーザ部位の位置の変化量を取得する変化量取得工程と、前記変化量が前記ガイド表示に含まれる表現の発動条件を満たした場合に、その表現を適用した前記アバターオブジェクトを表示する発動工程と、前記発動条件を満たした表現を、その後も前記アバターオブジェクトに適用可能に前記ユーザに提供する提供工程を実行させる。
上記課題を解決する情報処理方法は、ユーザの動きが反映されるアバターオブジェクト、及び前記アバターオブジェクトの表現を表示したガイド表示をディスプレイに出力するガイド表示工程と、前記ユーザの身体の一部であるユーザ部位の位置の変化量を取得する変化量取得工程と、前記変化量が前記ガイド表示に含まれる表現の発動条件を満たした場合に、その表現を適用した前記アバターオブジェクトを表示する発動工程と、前記発動条件を満たした表現を、その後も前記アバターオブジェクトに適用可能に前記ユーザに提供する提供工程とを実行する。
上記課題を解決する情報処理装置は、ユーザの動きが反映されるアバターオブジェクトの表現の選択候補から、所定数の前記選択候補を選択する選択部と、前記選択候補である前記表現を含むガイド表示を表示するためのデータと、前記ユーザの身体の一部であるユーザ部位の位置の変化量が前記表現に対応する発動条件を満たすか否かを判定するための発動条件データとを前記ユーザ装置に送信する第1送信部と、前記発動条件を満たした前記表現を前記ユーザに利用可能に提供するための前記表現の描画データを前記ユーザが用いるユーザ装置に送信する第2送信部と、を備える。
上記課題を解決する情報処理方法は、1乃至複数のコンピュータが、ユーザの動きが反映されるアバターオブジェクトの表現の選択候補から、所定数の前記選択候補を選択する選択工程と、前記選択候補である前記表現を含むガイド表示を表示するためのデータと、前記ユーザの身体の一部であるユーザ部位の位置の変化量が前記表現に対応する発動条件を満たすか否かを判定するための発動条件データとを前記ユーザ装置に送信する第1送信工程と、前記発動条件を満たした前記表現を前記ユーザに利用可能に提供するための前記表現の描画データを前記ユーザが用いるユーザ装置に送信する第2送信工程と、を実行する。
上記各構成によれば、ユーザは、ガイド表示を確認し、ガイド表示に表示された表現に合わせるように動作する。そして、ユーザの動きに基づくユーザ部位の変化量が、ガイド表示に含まれる表現の発動条件を満たした場合に、その表現が適用されたアバターオブジェクトが表示され、ユーザに利用可能に提供される。つまり、ユーザ自身が表現を発動できることを理解し、且つ表現の発動の方法をある程度把握した後に、その表現が引き続き利用可能な状態となるため、動画を配信する際にもその表現を発動させやすくなる。その結果、新たに提供した表現の利用率が高まり、動画の表現が多様となることにより、動画を視聴するユーザを飽きさせないようにすることが可能となる。
本発明によれば、ユーザが配信する動画における表現をユーザが発動しやすくすることにより、動画の表現の多様化を図ることができる。
動画配信システムの第1実施形態を示す模式図。 同実施形態におけるアバター表現データの模式図。 同実施形態における発動条件データの模式図。 同実施形態におけるユーザとユーザ装置の一例との位置関係を示す図。 同実施形態における配信モード画面を示す図。 同実施形態における配信モード画面を示す図。 同実施形態における配信モード画面を示す図。 同実施形態における視聴モード画面を示す図。 同実施形態の抽選処理の手順を示すフローチャート。 同実施形態におけるアバター表現を提供する手順を示すフローチャート。 動画配信システムの第2実施形態を示す模式図。 同実施形態における発動条件データの模式図。 (a)は「拍手」のアバター表現が適用された配信モード画面を示す図、(b)は「遠くへ飛ぶ」のアバター表現が適用された配信モード画面を示す図。 変形例の発動条件データの模式図。
(第1実施形態)
以下、動画配信システムの第1実施形態について説明する。
図1に示すように、動画配信システム11は、ユーザ装置12とサーバ13とを備える。ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされている。ユーザ装置12は、動画アプリケーションプログラムを実行することにより、他のユーザ装置12との間でサーバ13及びネットワーク14を介してデータを送受信し、動画の配信及び動画の表示を行う。以下、動画を配信するユーザを「配信ユーザ」、配信ユーザによって配信された動画を視聴するユーザを「視聴ユーザ」といい、これらを区別しない場合には単に「ユーザ」という。
ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置である。
ユーザ装置12は、コンピュータプロセッサ20、メモリ21、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。コンピュータプロセッサ20は、ストレージ22又はそれ以外のストレージからオペレーティングシステムやその他のプログラムをメモリ21にロードし、メモリ21から取り出した命令を実行する演算装置である。コンピュータプロセッサ20は、1乃至複数の演算回路からなる。コンピュータプロセッサ20は、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)、ISP(Image Signal Processor)等を備える。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信する。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。また、通信I/F23は、他の外部機器との間で近距離無線通信又は有線での通信を行う。通信I/F23は、ハードウェア、ソフトウェア、又はこれらの組み合わせとして実装される。
メモリ21は、コンピュータプロセッサ20が直接的に読み出し及び書き込みが可能な主記憶装置(記録媒体)であり、半導体メモリ等から構成される。ストレージ22は、補助記憶装置(記録媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。ストレージ22には、動画アプリケーションプログラム220、アバターオブジェクトを描画するためのアバターデータ221、オブジェクトデータ222が格納されている。
動画アプリケーションプログラム220は、サーバ13から適宜取得される更新データによって更新される。ユーザの指示に応じて動画アプリケーションプログラム220が実行されることにより、ユーザ自身が動画を配信する配信モードと、他の配信ユーザが配信する動画を視聴する視聴モードとに切り替えられる。動画アプリケーションプログラム220を実行することにより表示される画面には、配信モードと視聴モードとを切り替えるボタンが画面に表示される。
アバターデータ221は、アバターオブジェクトを描画するための3次元モデルデータである。ユーザ装置12は、動画アプリケーションプログラム220を起動した場合等、アバターデータ221をサーバ13から所定のタイミングで取得する。アバターデータ221は、アバターオブジェクト本体を描画するためのデータ、アバターオブジェクト本体に適用されるテクスチャデータ等を含んでいる。アバターオブジェクト本体を描画するためのデータは特に限定されないが、アバターオブジェクトの動作を表現するための骨格データ(ボーン)、肌等を表現するポリゴンデータ等により構成される。アバターデータ221には、複数のアバターオブジェクト本体のデータを含んでいる。テクスチャデータには、アバターオブジェクトに対して適用可能な複数のパーツデータが含まれている。例えば「目」、「眉」、「耳」、「服」等のカテゴリ毎に複数のパーツデータが準備されている。ユーザは、複数のアバターオブジェクトの中から一つのアバターオブジェクトを選択する。また、パーツデータを選択し、アバターオブジェクト本体に適用して、ユーザ独自のアバターオブジェクトを作成する。ユーザによって選択されたアバターオブジェクト本体とパーツデータとの組み合わせは、ストレージ22に記録される。
また、アバターデータ221には、表情や手足の動作等のアバター表現をアバターオブジェクトに適用するためのアバター表現データが含まれる。アバター表現の「動作」は、手部位のみ、足部位のみといった単独の部位の動作だけでなく、手部位及び足部位等の複数の部位を連動させる動作も含まれる。また、表情と動作とを同時に発動させる表現も含まれる。アバター表現データには、ユーザの表情の解析結果からアバターオブジェクトに発動させる表情を判定するための判定データ、アバターオブジェクトに表情を発現させるための描画データが含まれる。アバターオブジェクトに適用する表情を判定する手法は特に限定されない。例えば、表情毎に設定された閾値を用いて判定する方法であってもよい。具体的には、判定データに「笑顔」や「ウインク」等の表情に対して目や口等のユーザ部位の変化量の閾値を設定し、解析部203により解析されたユーザの目や口の変化量が、それらの部位に対して設定された閾値を超えた場合に、「笑顔」や「ウインク」等の表情を発動すると判定してもよい。この場合、例えば特願2019-239318号に記載された方法を用いることもできる。又は、解析結果と基準となるデータとの類似度を用いて判定する方法であってもよい。具体的には、判定データに、「笑顔」や「ウインク」等の表情を発現するためのユーザ部位のモデルデータを含めるとともに、解析結果とモデルデータとの類似度とを求め、この類似度が所定値以上である場合に、その表情の発動条件が満たされると判定してもよい。又は、ユーザの感情を推定し、推定した感情から表情を特定してもよい。具体的には目や口等のユーザ部位の変化量に基づき感情毎のスコアを特定し、それらのスコアの合計のうち最も高いスコアに対応する感情の表情を発動すると判定してもよい。例えば特願2019-94557号に記載された方法を用いることもできる。また、例えばアバターの表情を描画する手法は特に限定されない。例えば、アバターオブジェクトの顔部位に、「笑顔」、「ウインク」等の表情を表現した画像を重畳することで表情を変化させてもよい。又は、アバターオブジェクトの顔部分のメッシュの頂点位置を変更するブレンドシェイプと呼ばれる手法によって、アバターの表情を変化させてもよい。
オブジェクトデータ222は、仮想空間にレンダリングされるオブジェクトであって、アバターオブジェクト以外のオブジェクトに関する情報である。オブジェクトデータ222は、所定のタイミングでサーバ13から取得される。オブジェクトデータ222に対応するオブジェクトは、視聴ユーザから贈られるギフトオブジェクト、ゲーム実行中に表示されるオブジェクトを含む。ギフトオブジェクトの態様は特に限定されないが、例えば、アバターオブジェクトが装着可能な装着オブジェクト、仮想空間内に一定期間表示される通常オブジェクト、花火や文字等のエフェクトオブジェクトであってもよい。また、視聴ユーザは、配信ユーザに後述する抽選要求を行ってもよい。
また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、ディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、コンピュータプロセッサ20と同じ装置として設けられていてもよく、コンピュータプロセッサ20を備える装置に接続するかたちで設けられていてもよい。
センサユニット24は、ユーザの表情の変化を示すフェイスモーション、及びセンサユニット24に対するユーザの身体の相対位置の変化を示すボディモーションを検出する1乃至複数のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニット24は、公知の物を使用することができるが、例えばユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサや、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部とを備える。一例として、センサユニット24は、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDAR」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニット24の演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。
センサユニット24は、例えば検出を開始したときの初期状態からの表情の変化や、相対位置の変化を検出する。又は、センサユニット24は、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサをさらに含むものであってもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「モーションデータ」という。
スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザが発話した音声を入力し、音声データに変換する。操作部27は、ディスプレイ28と一体化されたタッチパネルや、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、コントローラ等である。ディスプレイ28は、コンピュータプロセッサ20の出力指示に応じて、各種画像を出力する。コントローラは操作部に対応する。
コンピュータプロセッサ20は、アプリケーション管理部201、表示制御部202、解析部203として機能する。アプリケーション管理部201は、ストレージ22に記憶された動画アプリケーションプログラム220を実行することにより機能するものであり、動画の配信及び視聴に対する処理を行う。アプリケーション管理部201は、操作部27を通じて入力されたユーザの要求に基づき、表示制御部202への要求の出力やサーバ13へのデータの送信を行う。また、サーバ13から各種データを受信して、ストレージ22への記録や、要求されたデータの送信等を行う。また、アプリケーション管理部201は、解析部203による解析結果を取得し、表示制御部202に出力する。
表示制御部202は、ストレージ22に記憶された動画アプリケーションプログラム220を実行することにより機能するものであり、センサユニット24から各種の情報を取得して、動画アプリケーション上で画像を表示する。表示制御部202は、配信モード及び視聴モードにおいて、解析部203によるユーザの表情等の解析結果に基づき特定されたアバター表現をアバターオブジェクトに反映させる。
また、表示制御部202は、アバターオブジェクト、アバターオブジェクト以外のオブジェクトについてレンダリングを行う。ここでいうレンダリングは、透視投影、隠面消去(ラスタ化)等の描画処理を含む。レンダリングは、これらのうち少なくとも一つの処理であってもよい。また、上記の処理に加えて、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。また、表示制御部202は、レンダリングされた画像を用いてアニメーションを生成する。さらに、表示制御部202は、アニメーションと、視聴ユーザのユーザ装置12から送信された投稿メッセージ又はサーバ13から送信された通知、操作ボタン等のGUI(Graphical User Interface)パーツ等とを合成した(又は重畳した)動画データをディスプレイ28に出力する。
解析部203は、動画アプリケーションプログラム220以外のプログラムを実行することにより機能するものであってもよく、動画アプリケーションプログラム220を実行することにより機能するものであってもよい。解析部203は、ユーザの顔を構成するユーザ部位の変化量を検出する。ユーザ部位は、ユーザの身体を構成する部位であって、本実施形態では左眉、右眉、左瞼、右瞼、左目、右目、左頬、右頬、鼻、頭部、上半身全体等である。変化量は、ユーザ部位の位置の変化量であって、単位時間当たりの変化量、又は配信モードの開始時や所定時間前におけるユーザ部位の位置を基準としたときの変化量等である。
表示制御部202は、解析部203による解析結果であるユーザ部位の各々の変化量を取得する。また、表示制御部202は、予め定められた判定方法によって、変化量に基づき、アバター表現を発動させるか否かを判定する。例えば、ユーザ部位の各々の変化量を、アバターデータ221に含まれるユーザ部位の各々の閾値と比較する。閾値は、「口を開ける」、「目を閉じる」等のアバター表現について、各部位の閾値として設定されている。そして、表示制御部202は、特定部分の各々の変化量の全てが各閾値を上回る旨を判定したことを契機として、閾値を上回った表現をアバターオブジェクトに適用する。
次にサーバ13について説明する。サーバ13は、動画を配信するためのサービスを提供する1乃至複数のサービス提供者等が用いるものである。サーバ13は、コンピュータプロセッサ30と、メモリ33と、ストレージ35と、通信I/F34とを備えている。コンピュータプロセッサ30は、ユーザ装置12のコンピュータプロセッサ20と同様な構成である。また、メモリ33、ストレージ35、通信I/F34は、ユーザ装置12と同様な構成である。サーバ13は複数の装置から構成されていてもよく、コンピュータプロセッサ30、メモリ33、ストレージ35、通信I/F34はそれらの装置に分散されて設けられていてもよい。
コンピュータプロセッサ30は、配信管理プログラムを実行することにより配信管理部301として機能する。配信管理部301は、ユーザ装置12から受信した各種データをストレージ35に記憶する。さらに、配信管理部301は、ユーザ装置12から要求されたデータをストレージ35等から取得してユーザ装置12に送信する。具体的には、配信管理部301は、ユーザ装置12からの要求に応じて、配信中の動画のリストを送信する。配信管理部301は、リストの中からリクエストされた動画の識別情報をユーザ装置12から受信すると、リクエストされた動画の配信ユーザが用いるユーザ装置12から送信される各種のデータを、リクエストを行ったユーザ装置12に送信する。
また、配信管理部301は、動画を視聴するユーザから投稿された投稿メッセージ等を受信する。さらに配信管理部301は、受信した投稿メッセージを、動画を配信するユーザのユーザ装置12及び動画を視聴するユーザのユーザ装置12に送信する。投稿メッセージには、メッセージの内容の他、メッセージを送信したユーザの識別情報(ユーザのアカウント名等)等が含まれる。また、配信管理部301は、視聴ユーザが動画の視聴を開始したときに、例えば「ユーザAさん入室しました」の通知メッセージを全てのユーザ装置12に送信する。ユーザ装置12は、受信した通知メッセージを投稿メッセージの表示欄に表示する。
配信管理部301は、動画を視聴するユーザが用いるユーザ装置12から、視聴中の動画へのオブジェクトの表示要求を受信する。表示要求が行われるオブジェクトは仮想空間内に表示されるオブジェクトであって、動画を視聴するユーザから贈られるギフトオブジェクトのほか、動画を好評価する評価オブジェクト等を含む。配信管理部301は、受信したギフトオブジェクトの表示要求を、ギフトオブジェクトの識別情報とともに動画を配信するユーザのユーザ装置12及び動画を視聴するユーザのユーザ装置12に送信する。ユーザ装置12は、受信したギフトオブジェクトに関する通知メッセージを投稿メッセージの表示欄に表示する。
配信管理部301は、ユーザ装置12からの要求に応じて、購入対象の購入処理を行う。購入処理には、動画アプリケーションプログラム内で利用可能なコイン、ポイント、チケット等の対価(媒体)を支払って、購入対象を入手する購入が含まれる。購入対象には、仮想空間に表示される「花火」、「花」、「掛け軸」等のオブジェクト、アバターオブジェクトが装着可能な「服」、「帽子」等の装着オブジェクトが含まれる。また、購入対象には、アバターオブジェクトに適用される表情や手足の動作等のアバター表現が含まれる。配信管理部301は、ユーザ装置12から購入要求を受信し、対価をユーザに関連付けられた仮想通貨やポイント等の支払情報から減じる処理を行うと、購入対象を、ユーザによって保有されるものとしてユーザに関連付けてユーザ装置12又はサーバ13に記録する。購入対象の売上は、例えば配信ユーザ及びサービス提供者に分配される。
また、配信管理部301は、ユーザのユーザ装置12からの抽選要求に応じて、抽選処理を行う。抽選処理には、アバター表現の抽選処理が含まれる。ユーザ装置12は、抽選要求を受け付けると、複数(N個、例えば64個)のアバター表現の中から、所定数(M個、M<N、例えば8個)のアバター表現を選択する。そして、選択した所定数のアバター表現に関するデータを配信ユーザのユーザ装置12に送信する。保有されたアバター表現は、ユーザ自身が配信する動画内で発動することができる。また、動画を視聴する視聴ユーザが、動画を配信する配信ユーザに贈るギフトとして、ユーザ装置12から抽選要求をサーバ13に送信するようにしてもよい。この場合、ギフトを受け取ったユーザが、アバター表現を保有できる。なお、抽選要求に対価が必要な場合には、抽選要求を行ったユーザが支払う。具体的には、配信ユーザが抽選要求を行った場合には、サーバ13は配信ユーザに関連付けられた媒体(コイン、チケット、ポイント等)を抽選要求の分だけ減じる。また、視聴ユーザが抽選要求を行った場合には、サーバ13は視聴ユーザに関連付けられた媒体(コイン、チケット、ポイント等)を抽選要求の分だけ減じる。
次に、サーバ13のストレージ35に格納された各種のデータについて説明する。ストレージ35には、ユーザ管理情報350、アバターデータ351、オブジェクトデータ352が格納されている。
ユーザ管理情報350は、動画アプリケーションプログラムを用いるユーザに関する情報であって、ユーザ識別情報、ポイント等を含む。アバターデータ351は、各ユーザに対応付けられたアバターオブジェクトを描画するためのデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。アバターデータ351には、アバターオブジェクトに、顔の表情や手足の動作を適用するためのアバター表現データが含まれる。ユーザ装置12のストレージ22に記録されたアバターデータ221にもアバター表現データが含まれているが、サーバ13のアバターデータ351には、ユーザ装置12のアバター表現データには含まれないデータも含まれている。サーバ13は、ユーザ装置12からの要求等に応じて、ユーザ装置12に追加するアバター表現データを送信する。オブジェクトデータ352は、ギフトオブジェクトやほかのオブジェクトを描画するためのデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。
図2は、サーバ13のストレージ35に記録されるアバター表現データ353の一例である。アバター表現データ353は、アバターオブジェクトに適用する表情のデータを含んでいる。アバター表現である表情には、「口を開ける」、「目を閉じる」等の基本的な表情(図示略)のほかに、「びっくり顔(驚いた表情)」、「目がハート(目がハート型になる表情)」、「困り顔(困った表情)」、「はてな顔(疑問がある表情)」等が含まれる。これらの表情の中には、人間が実現できる表情のほか、人間が直接的な動作によって表現できない表情が含まれる。また、アバター表現データ353に基づき発現される表情には、顔の部位の位置を変化させる表現のほか、感嘆符や疑問符、汗や涙、頬の赤らみ等のユーザ部位以外によって発現される演出表現も含まれる。アバター表現の各々には、互いに異なる内容の発動条件が関連付けられている。
図3は、発動条件の詳細が規定された発動条件データ354の一例である。発動条件データ354は、「目がハート」のアバター表現を発動するためのデータであって、その表現を発動するか否かを判定する対象となるユーザ部位として、左目、右目、口等が設定されている。また、ユーザ部位の各々に、変化量の閾値(基準情報)が関連付けられている。例えば「左目」及び「右目」については、目が細く変化したことを判定するための閾値(例えば「-0.6」)が設定されている。ユーザ部位の変化量が、一つのアバター表現に対して設定された全てのユーザ部位の閾値を超えると、そのアバター表現が発動される。例えば、「左目」及び「右目」の変化量は閾値を超えるものの、「口」等のユーザ部位の変化量が閾値以下となった場合、「目がハート」のアバター表現は発動されない。なお、閾値が負の値の場合は、変化量が負の値であってその絶対値が閾値の絶対値よりも大きくなった場合に、閾値を超えたと判定する。
アバター表現に応じて、発動条件データ354のユーザ部位の組み合わせは異なっていてもよい。例えば「目がハート」のアバター表現に対しては、「左目」、「右目」、「口」等のユーザ部位について閾値が設定されているが、「はてな顔」は「左目」、「右目」等の閾値が設定されず、「目がハート」のアバター表現には設定されていない「頭部」が設定されていてもよい。
なお、上述したように解析結果とモデルデータとの類似度を用いて発動条件を満たすか否かを判定する場合には、まず図3に示すユーザ部位毎の閾値を用いて、ユーザ部位の変化量「C」と変化量の閾値「Cth」との差分の二乗「(C-Cth)^2」を求める。さらに、差分の二乗「(C-Cth)^2」を加算し、二乗和を求める(Σ(Ck-Ckth)^2、「k」はユーザ部位に割り振られた自然数)。そして、求められた二乗和が、一定値以下である場合には、類似度が高いものとして、発動条件を満たすと判定する。
次に図4を参照して、ユーザ装置12を用いた動画の配信方法について説明する。なお、動画の配信及び視聴に用いられるユーザ装置12を、スマートフォンとして説明する。ユーザ100は、少なくとも自身の顔がセンサユニット24の検出範囲101に含まれるようにユーザ装置12と対峙して、動画アプリケーションプログラム220を実行する。このとき、ユーザ100は、動画アプリケーションプログラム220を配信モードにする。アバターオブジェクトの位置は、ユーザ100とセンサユニット24との相対距離Lに応じて変化する。相対距離Lの変化は、図4中、x軸正方向、x軸負方向、z軸正方向及びz軸負方向の距離の変化として検出される。
次に図5を参照して、ユーザ装置12に表示される配信モード画面110について説明する。配信モード画面110は、動画アプリケーションを配信モードとして起動したときに表示され、ユーザ100に対応するアバターオブジェクト111が表示されている。図5に示す配信モード画面110は、配信モードであって、且つ配信を開始していない状態を示す。つまり、このときの配信モード画面110は、ユーザ100のみが視認するクローゼットモードの画面であり、他のユーザは視聴していない。この画面においては、アバターオブジェクト111の装着オブジェクトや髪型等の変更、アバターオブジェクト111の動作のテスト等を行うことができる。アバターオブジェクト111の表情は、ユーザ100の表情の変化に伴い変化する。例えば、ユーザ100が目を閉じると、センサユニット24の検出結果が反映されることによってアバターオブジェクト111も目を閉じる。さらに、アバターオブジェクト111の頭部は、センサユニット24の検出結果が反映されることによってユーザ100の頭部の動きに伴い動く。また、上述したように、アバターオブジェクト111の上半身の位置は、ユーザ100とセンサユニット24との相対距離の変化に応じて変化する。
配信モード画面110には、配信切替ボタン113と、リスト表示ボタン114~117とが表示される。配信切替ボタン113が選択されると、動画の配信を開始したり、動画の配信を停止したりすることができる。リスト表示ボタン114は、複数のアバターオブジェクトから所望のアバターオブジェクト111を選択するためのリストを表示する。リスト表示ボタン115,116は、アバターオブジェクトの目と耳等の部位を選択するためのアイコンである。リスト表示ボタン117は、アバターオブジェクトの表情のリストを表示するためのアイコンである。また、抽選ボタン118は、上述した装着オブジェクトや、アバターの表情等のアバター表現の抽選を実行するためのアイコンである。
抽選ボタン118が選択されると、抽選の対価を支払うことについて確認するための確認画面が対価とともに表示される。ユーザ装置12は、この確認画面においてユーザの確認操作を受け付けると、サーバ13に抽選要求を送信する。アバター表現の抽選要求を送信した場合、ユーザ装置12は抽選結果であるアバター表現データ353をサーバ13から受信する。受信したアバター表現データ353はユーザ装置12のストレージ22に記録される。
図6に示すように、ユーザ装置12が抽選結果を受信すると、表示制御部202は、アバター表現データ353に含まれる所定のデータを読み出して、ガイド表示120を表示する。ガイド表示120には、サーバ13によって選択されたM個(例えば8個)のアバター表現が表示されている。これらの表現のうちユーザ100が発動条件を満たすことのできたものがユーザ100に利用可能に提供される。ユーザは、ガイド表示120に含まれるアバター表現を発動させるために、ガイド表示120に含まれる表現を参考にして、表情を変化させる。例えば「びっくり顔」を発動させるために目を大きく見開いたり、「目がハート」を発動させるために笑顔をつくったりする。
ユーザ装置12の解析部203は、センサユニット24により検出されたモーションデータに基づき、ユーザ部位の変化量を所定のサンプリング間隔で特定する。表示制御部202は、解析部203から変化量を取得し、サーバ13から受信したアバター表現データ353を参照して、ユーザ部位の各々の変化量がアバター表現の発動条件を満たすか否かを判定する。
図7に示すように、表示制御部202は、ユーザ部位の変化量が、「目をハートにする」のアバター表現の発動条件を満たす場合に、「目をハートにする」のアバター表現を発動させる。発動されたアバター表現は、ユーザ装置12のストレージ22に、引き続き発動可能なアバター表現として記録される。利用可能となったアバター表現は、リスト表示ボタン117を選択操作することで、画面に表示することができる。つまり、ユーザ100と関連付けて記録されたアバター表現は、その後の動画の配信等で利用可能となる。発動されなかったアバター表現は、利用不可能とされる。
配信モード画面110では、ガイド表示120の中で、発動可能なアバター表現をフレーム122等で囲む等、発動ができないアバター表現と識別可能に表示してもよい。又は、発動可能なアバター表現を、発動ができないアバター表現とは別に表示してもよいし、発動ができないアバター表現を消去してもよい。
また、アバター表現を発現する時間を制限するようにしてもよい。例えば、アプリケーション管理部201は、ガイド表示120を表示した時点からの経過時間を計測し、制限時間から経過時間を減じた残り時間121をガイド表示120と合わせて表示してもよい。なお、残り時間ではなく経過時間を表示しても良い。
さらに、ガイド表示120に含まれる複数のアバター表現のうち最初に発動できた一つをユーザ100により利用可能に提供してもよいし、制限時間内に発動できたアバター表現を全てユーザ100により利用可能としてもよい。また、制限時間内に発動できなかったアバター表現については、対価を追加で支払うこと等により、アバター表現の取得に再挑戦できるようにしてもよい。
また、制限時間内にアバター表現を発動できた場合、報酬を付与するようにしてもよい。報酬は、動画アプリケーション内で利用可能な媒体(コイン、ポイント、チケット等)、又はオブジェクトである。オブジェクトは、発動できたアバター表現とは異なるアバター表現、アバターオブジェクトに装着可能な装着オブジェクト、動画を演出する各種のオブジェクト等である。さらに複数のアバター表現が発動できた場合には、一つのアバター表現が発動できた場合に比べ、ユーザ100にとって価値が高い、若しくは動画配信をより効率的に行うことを可能とする又は高品質な動画を配信することができる報酬を付与するようにしてもよい。又は、単に報酬の数を増加させてもよい。
つまり、抽選により選択されたアバター表現が無条件にユーザ100によって利用可能になるのではなく、ガイド表示120に含まれるアバター表現のうち、ユーザ100が発動できた表現のみがユーザ100によって利用可能となる。よって、ユーザは、抽選への期待感だけでなく、自身の表情を変化させることによってアバター表現の発動条件を探る楽しさを感じることができる。また、実際にはユーザ100が発動できない非現実的なアバター表現も、ユーザ100に付与されるアバター表現の候補の中に含まれるので、ユーザ100は意外性を覚え、アバター表現を発動させようとする意欲が高まる。
さらに、発動条件を最初に満たしたアバター表現がユーザ100により利用可能となるため、次にそのアバター表現を発動する機会においては、ユーザが発動条件を概ね把握しているために容易にアバター表現を発動することができる。その結果、新たに取得されたアバター表現の利用率を高めることができる。また、ユーザ100が発動させようとしても発動できない可能性のある他のアバター表現はユーザ100に提供されない。このため、抽選に対し対価を支払った場合には、対価を支払ったにも関わらずユーザ自身が発動できないアバター表現が提供されることを防ぐことができるため、ユーザの満足度を高めることができる。
図8は、クローゼットモードではなく動画の配信中にアバター表現の取得が行われる場合の配信モード画面110である。つまり、配信切替ボタン113を「オン」にした状態であって、動画の配信を開始し、配信モード画面110を配信を行うユーザ100だけでなく、他のユーザが視聴している状態においても、抽選ボタン118を選択することができる。なお、動画を視聴するユーザのユーザ装置12のディスプレイ28には、配信モード画面110と同じアバターオブジェクト111を含む視聴画面が表示される。この場合、サーバ13は、抽選の対価を支払うことについて確認するための確認画面を、配信を行うユーザ100が用いるユーザ装置12のみに表示させ、動画の視聴を行うユーザ100が用いるユーザ装置12には表示させないようにする。これにより、ユーザ100の保有する対価(コイン、ポイント、チケット等)を、動画の視聴を行うユーザ100に公開しないようにすることができる。
動画の配信中に、ユーザ100の操作によりガイド表示120を表示させ、ユーザ100がガイド表示120のアバター表現を発動させようとして表情を変えると、その表情の変化をユーザ100が用いるユーザ装置12のセンサユニット24が検知して、アバターオブジェクト111に反映される。そのため、動画を視聴する視聴ユーザは、様々な表情を試すユーザ100の様子を、アバターオブジェクト111の表情の変化として視認することができる。なお、ガイド表示120は、アバター表現の取得という場面を共有する意味では視聴画面に表示されることが好ましいが、画面にガイド表示120を表示するスペースが無い場合等には視聴画面に表示されなくてもよい。
(動作)
図9及び図10を参照して、アバター表現の取得処理の手順について、その動作とともに説明する。図9は、サーバ13が実行する抽選処理の手順を示す。サーバ13の配信管理部301は、ユーザ装置12から抽選要求を受信する(ステップS1)。サーバ13は、抽選対象の複数のアバター表現の中から、複数のアバター表現を選択する(ステップS2)。また、サーバ13は、選択した複数のアバター表現データを、抽選要求を送信したユーザ装置12へ送信する(ステップS3)。アバター表現は、抽選要求を行ったユーザが所持していないアバター表現から選択されてもよく、ユーザが所持しているか否かを問わず不特定多数のアバター表現から選択されてもよい。
図10は、ユーザ装置12が実行するアバター表現の取得処理の手順を示す。この処理は、ガイド表示工程、変化量取得工程、発動工程、提供工程及び判定工程を含む。ユーザ装置12のアプリケーション管理部201は、抽選結果であるアバター表現データをサーバ13から受信し(ステップS11)、ストレージ22に記録する。また、表示制御部202は、ユーザ100の操作に基づき、ストレージ22からガイド表示120を表示するためのデータを読み出し、ガイド表示120をディスプレイ28に出力する(ステップS12)。また、アプリケーション管理部201は、ガイド表示120を表示してからの経過時間の計測を開始する(ステップS13)。表示制御部202は、制限時間までの残り時間をディスプレイ28に出力する。ユーザ100は、ガイド表示120に含まれる複数のアバター表現を参考にしながら、様々な表情を試す。
表示制御部202は、解析部203から、ユーザ100の表情の解析結果を取得する(ステップS14)。表示制御部202は、解析結果と発動条件データ354とを比較して、解析結果が、ガイド表示120に含まれるいずれかのアバター表現の発動条件を満たすか否かを判定する(ステップS15)。
表示制御部202は、解析結果と発動条件データ354とを比較して、解析結果がガイド表示120に含まれるいずれかのアバター表現の発動条件を満たすと判定すると(ステップS15:YES)、発動条件を満たすアバター表現を配信モードにおいて利用可能とする(ステップS16)。
一方、表示制御部202が、解析結果がガイド表示120に含まれるアバター表現の発動条件を満たさないと判定すると(ステップS15:NO)、その比較結果を受けて、アプリケーション管理部201は制限時間が経過したか否かを判断する(ステップS17)。アプリケーション管理部201が、制限時間が経過していないと判断すると(ステップS17:NO)、ステップS14に戻り、ユーザ100の表情の解析を繰り返す。
アプリケーション管理部201が、制限時間が経過したと判断すると(ステップS17:YES)、表示制御部202は、抽選された表現以外の表現をユーザ100に利用可能とする(ステップS18)。つまり、ユーザ100がアバター表現の発動条件のいずれも満たせなかった場合には、ガイド表示120に含まれるアバター表現以外のアバター表現が付与される。このアバター表現は、サーバ13から受信したアバター表現データに予め含まれていてもよいし、制限時間が経過したと判定した場合にサーバ13からダウンロードするようにしてもよい。このように、ユーザ100がガイド表示120に含まれるアバター表現に合致する表情を実現することができなくても、新たなアバター表現がユーザに付与されるので、抽選に対するユーザの満足度が低下することを抑制することができる。
次に、本実施形態の効果について説明する。
(1)ユーザ100は、配信モード画面110に表示されるガイド表示120を確認し、ガイド表示120に表示された表現に合わせるように動作する。そして、ユーザ100の動きに基づくユーザ部位の変化量が、ガイド表示120に含まれる表現の発動条件を満たした場合に、その表現が適用されたアバターオブジェクト111が表示され、ユーザに利用可能に提供される。つまり、ユーザ自身が表現を発動できることを理解し、且つ表現の発動の方法をある程度把握した後に、その表現が引き続き利用可能な状態となるため、動画を配信する際にもその表現を発動させやすくなる。その結果、新たに提供した表現の利用率が高まり、動画の表現を多様化させることによって動画を視聴するユーザを飽きさせないようにすることが可能となる。その結果、動画を視聴するユーザの数や、視聴時間、視聴回数等を増加させることができる。また、動画を視聴するユーザの寄与を明確にすることで、抽選の効果を向上することができる。
(2)ユーザ100が発動できるアバター表現のみをユーザ100に提供し、発動できない可能性のあるアバター表現を提供しない。このため、ユーザは、自身が発動できるアバター表現のみを取得できる。特に、アバター表現の取得に対価を必要とする場合には、発動できないアバター表現には対価が支払われないことになるため、ユーザの満足度を高めることができる。
(3)ユーザ100がガイド表示120に表示されたいずれの表現を発動できない場合にも、ガイド表示120に含まれない他のアバター表現等を提供することにより、ユーザの満足度を高めることができる。
(4)ユーザ装置12は、ユーザ部位の変化量が発動条件を満たすか否かを判定する。このため、サーバ13が判定処理を行う場合に比べ、サーバ13の処理負荷を軽減するとともにサーバ13との間で送受信されるデータ量を低減することができる。
(5)ガイド表示120にはアバターオブジェクト111の表情が表示され、発動条件を満たした表情がユーザ100に提供される。このため、アバターオブジェクト111の表情を多様化することによって、視聴ユーザを飽きさせない動画を配信することが可能となる。
(6)ユーザ100に提供されるアバター表現の候補は抽選によって選択される。これによれば、ユーザ100に提供される表現について、ユーザに期待感をもたせることができる。
(第2実施形態)
次に、プログラム、情報処理方法及び情報処理装置の第2実施形態について説明する。第1実施形態は、表情を特別表現としてユーザに関連付けて付与する態様としたが、本実施形態は、表情に加え、手足の動作を特別表現としてユーザに関連付ける点で第1実施形態と異なっている。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
図11に示すように、ユーザ100は、動画を配信するスタジオから動画を配信する。動画配信スタジオ150に設置された動画配信システム151は、カメラ152、マイク153、コントローラ155、ディスプレイ157及び配信装置160を備える。また、動画配信システム151は、ユーザ100の手部位、足部位に装着された装着センサ156、装着センサ156の位置を特定するための位置検出部154等を含むトラッキングシステムを備える。カメラ152は、ユーザ100の顔を撮影する。サーバ13は、トラッングシステムから取得したトラッキングデータ、カメラ152から取得した表情データをアバターオブジェクト111に適用したアニメーションを生成する。また、仮想空間の背景とアバターオブジェクトとをレンダリングしたアニメーションを音声とともに動画データとしてユーザ装置12に配信する。また、例えば、トラッキングシステムは、配信ユーザの身体に装着されたマーカー若しくはそれと同等な特徴点を同等する画像処理部及びカメラ等から構成してもよい。配信装置160は、第1実施形態のユーザ装置12と同様な構成であり、ネットワークを介してサーバ13と通信可能に接続されている。
装着センサ156は、ユーザ100の手足の他、頭部等、ユーザ100の様々なユーザ部位に装着され得る。例えば、装着センサ156は、手の指に装着し、指の動きを検出するものであってもよい。ユーザ100に装着される装着センサ156の個数は、5つ以下でもよいし7以上であってもよい。位置検出部154は、装着センサ156の位置を特定するための外部センサを含んでいてもよい。この外部センサは、例えば、多軸レーザエミッターである。外部センサは、同期用のパルスレーザ光を出射する。装着センサ156は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。装着センサ156は、例えば、HTC Corporationから提供されているVive Trackerを用いることができる。また、位置検出部154のセンサは、HTC Corporationから提供されているVive Base Stationを用いることができる。また、上記の構成に加えて若しくは代えて、装着センサ156は、自律して位置を特定するためのセンサを内蔵していてもよい。例えば、装着センサ156は、多軸加速度センサ、ジャイロ、及び地磁気センサのうち少なくとも一つを備えていてもよい。また、装着センサ156は、外部センサと協働するものと、外部センサと協働しないものの両方を用いてもよい。また、装着センサ156は、単体でその向き又は位置を検出できるものであってもよい。
図12に示すように、配信装置160、又は配信装置160と接続されたサーバ13には、第1実施形態の発動条件データ354に加え、ユーザ部位である手足の動きを発動条件としたアバター表現データ353Aが格納されている。アバター表現データ353Aには、アバター表現と、アバター表現の各々に設定された発動条件とが記録されている。アバター表現は、「拍手」、「ジャンプ」、「遠くへ飛ぶ」等であり、必ずしも人間の直接的動作によって再現される動作に限定されない例えば「バック転」のモーション表現(アバター表現)の発動条件には「両腕を上げる」が設定されている。発動条件には、腕等のユーザ部位について、ある初期の特徴的な時間区間における変化量が設定されている。発動条件が満たされるか否かの判定には、特定のキーフレームを用いてもよいが、複数の前駆動作を組み合わせた多段階の判定としてもよい。又は、ある時間区間におけるユーザ部位の変化量が発動条件を満たすか否かを判定してもよい。なお、キーフレームとは、ユーザ100の一連の動作のうち、アニメーション再生の補完を行う上で特徴となる行列を保管したフレームであり、自動生成もしくは制作者が事前に設定する、ポーズや表情を構成する各関節を定義する行列や特徴部位の変化量といった時間的変化要素を表現する数値である。
配信装置160は、カメラ152及び位置検出部154から検出データを取得して、ユーザ100の動作を解析する。配信装置160は、アバター表現データ353,353Aを参照して、ユーザ100の動作の解析結果が、アバター表現データ353,353Aの発動条件を満たすか否かを判定する。
本実施形態では、第1実施形態と同様に、サーバ13によってアバター表現の抽選が行われる。ユーザ100のコントローラ155の操作によって抽選要求が行われてもよいし、ユーザ100以外の動画配信スタジオ150に存在する作業者により抽選要求を送信するための操作が行われてもよい。配信装置160は、ユーザ100等の指示にしたがって、サーバ13に抽選要求を送信する。
配信装置160は、複数のアバター表現を含むガイド表示120をディスプレイ157に表示する。本実施形態では、ガイド表示120は、手足の動作に関するアバター表現を含む。また、ガイド表示120には、表情のアバター表現が含んでいてもよい。
図13(a)は、「拍手」のアバター表現が発動されたアバターオブジェクト111の配信モード画面110である。ユーザ100が手を合わせる動作し、「拍手」のアバター表現に対応する発動条件を満たしたとき、アバターオブジェクト111が手の平を繰り返し合わせる「拍手」のアバター表現が発動される。このとき、拍手の音声データをユーザ装置12のスピーカ25から出力させるようにしてもよい。また、「拍手」のアバター表現は、所定時間が経過した後に終了するようにしてもよいし、手を合わせる動作を終了したときに終了するようにしてもよい。
図13(b)は、「遠くへ飛ばされる」のアバター表現が発動された配信モード画面110である。ユーザ100が、「遠くへ飛ばされる」に対応する発動条件を満たすことで、このアバター表現が発動される。アバターオブジェクト111Aは、アバターオブジェクト111のモデルを異ならせた又は簡素化させたものである。発動されたアバター表現は、配信装置160のストレージ(図示略)に利用可能に記録される。
このようにユーザ100の表情に加え、手足の動きを検出し、発動条件が満たされる場合にはアバター表現を発動するので、アバターオブジェクト111の表現を多彩にすることができる。また、例えば「拍手」といったアバター表現を発動する場合、ある程度の時間区間において「拍手」が繰り返し再生されることが望ましいが、ユーザ100は実際に拍手をせずに手を合わせる動作を行えば、予め設定された時間区間、「拍手」のアバター表現が継続される。このため、トラッキングシステムによって「拍手」等の素早い動作やその他の複雑な動作を検出しなくても、所望の動作をアバターオブジェクトに行わせることができる。また、非現実的なアバター表現も、実際のユーザ100の動作で実行させることができる。
第2実施形態によれば、第1実施形態の(1)~(6)に記載の効果に加え、以下の効果が得られる。
(7)ガイド表示120にはアバターオブジェクト111の手足の動き等である動作が表示され、発動条件を満たした表情がユーザ100に提供される。このため、アバターオブジェクト111の動作を多様化することによって、視聴ユーザを飽きさせない動画を配信することが可能となる。
上記各実施形態は、以下のように変更して実施することができる。上記各実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・第1実施形態では、ガイド表示120に表示されるアバター表現は表情のみとした。これに代えて、アバター表現は、表情と手足等の動きとの組み合わせであってもよい。図14に示すように、アバター表現データ353Bは、表情のアバター表現と手足等の動きのアバター表現との組み合わせに対し、発動条件が関連付けられている。手足の動き等のアバター表現は、例えば「両手を挙げる」、「両手を組む」等である。発動条件が満たされると、表情と手足等の動きを組み合わせたアバター表現が発動される。このようにすると、ユーザ100が表情を変えるだけで、アバターオブジェクト111の表情だけでなく、手(腕)、足、及び頭部(首)も表情に連動して変化するため、解析部203による解析処理の負荷を軽減しつつも、躍動的な動画を配信することができる。
・第2実施形態では、動画配信スタジオ150に設置された動画配信システム151によって、ユーザ100の手足の動きを検出するようにした。これに代えて若しくは加えて、ユーザ装置12の表示制御部202が、ユーザ100の手足を認識できれば、ユーザ装置12が手足の動きを検出するようにしてもよい。
・上記各実施形態では、サーバ13が複数のアバター表現を抽選処理により選択するようにした。これに代えて、サーバ13が一つのアバター表現を抽選処理により選択するようにしてもよい。或いは、サーバ13は、抽選処理を行わなくても良い。つまり、抽選処理を行わず予め定められたアバター表現が含まれるテンプレートのようなガイド表示120をユーザ装置12に出力させてもよい。そして、ガイド表示120に含まれるアバター表現のうち発動条件を満たしたものをユーザ100に利用可能とするようにしてもよい。
・上記各実施形態では、ガイド表示120に含まれる表情のいずれかの発動条件が満たされた場合にその表情をユーザに提供するようにした。これに代えて、ガイド表示120に、「当たり」の表情と「はずれ」の表情とを表示してもよい。そして、ユーザ部位の変化量が「はずれ」の表情の発動条件を満たす場合にはアバター表現を提供せず、「当たり」の表情の発動条件を満たす場合のみ、「当たり」の表情をユーザ100に利用可能に提供してもよい。また、「はずれ」の表情は、単に表情が発動しない状態としてもよい。
・上記各実施形態では、動画の配信を行うユーザ(配信ユーザ)が、アバター表現を取得するためにガイド表示120に表示された表現を参考にして動作するようにした。これに代えて、動画を視聴するユーザ(視聴ユーザ)が、ガイド表示120に表示された表現を参考にして動作し、ガイド表示120に表示された表現の発動条件を満たした場合に、配信ユーザにその表現を利用可能に提供してもよい。
・上記各実施形態では、アバターオブジェクトやその他のオブジェクトをレンダリングするクライアントレンダリング方式について説明したが、これ以外の動画配信方式によって動画を配信するようにしてもよい。例えば、動画配信を行うユーザ100が用いるユーザ装置12がレンダリングを行う映像配信方式であってもよい。この方式では、配信ユーザのユーザ装置12は、センサユニット24の検出結果をアバターオブジェクト111に適用し、各オブジェクトをレンダリングして動画を生成する。そして、ユーザ装置12は、生成した動画データをサーバ13に送信する。サーバ13は、動画データを受信し、その動画を視聴している視聴ユーザのユーザ装置12に動画データを送信する。ユーザ装置12は、送信された動画データに基づき動画を出力する。
又は、サーバ13が動画を生成するサーバ配信方式であってもよい。この配信方式では、配信ユーザのユーザ装置12は、センサユニット24の検出結果又は解析部203の解析結果をサーバ13に送信する。解析結果が発動条件を満たすか否かの判定は、ユーザ装置12側で行ってもよいが、サーバ13が行ってもよい。そして、解析結果が発動条件を満たす場合又は解析結果が発動条件を満たさないと最終的に判定した場合、ユーザ装置12又はサーバ13が判定した結果をトリガーとして動画を視聴するユーザ100のユーザ装置12や動画を配信するユーザ100のユーザ装置12に配信する。ユーザ装置12は、受信したトリガーに基づき判定結果に応じたアニメーションを再生するようにしてもよい。サーバ13は、検出結果又は解析結果に基づいて動画データを生成し、動画データを、視聴ユーザのユーザ装置12に動画データを送信する。ユーザ装置12は、受信した動画データに基づく動画を表示する。
・上記実施形態では、ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされているものとした。これに代えて、動画を視聴するためのアプリケーションプログラムと、動画を配信するためのアプリケーションプログラムとを別のアプリケーションプログラムとしてもよい。配信を行う場合には配信アプリケーションプログラムを用いて動画を配信する。視聴を行う場合には視聴アプリケーションプログラムを用いて動画を視聴する。ギフトオブジェクトの表示要求は、視聴アプリケーションプログラムを用いて行う。
・動画に、現実世界の画像を含む映像を表示してもよい。例えば、動画に、拡張現実(AR;Augmented Reality)の空間を表示させるようにしてもよい。例えば、ユーザ装置12のカメラが撮影した現実世界の画像に、アバターオブジェクト及び他のオブジェクト等を重ねて表示する。この態様においては、ユーザ装置12のカメラが撮像した画像を背景画像とする。
・上記実施形態では、動画の配信を行うユーザが一人の場合を例にして説明したが、動画の配信を行うユーザ100は複数人であってもよい。複数人が動画の配信を行うコラボレーション配信(コラボ配信)では、ホストユーザとゲストユーザが設定されている。このうち、アバター表現の取得は、ホストユーザが行うようにしてもよい。又はコラボ配信に参加する複数のユーザ100が同時に表情等を変化させ、最も早く発動条件を満たしたユーザ100に、アバター表現を付与するようにしてもよい。この場合、ユーザ装置12が解析結果をサーバ13に送信する。サーバ13は、アバター表現データ353をストレージ35に記憶しており、解析結果とアバター表現データ353とを比較して、発動条件が満たされたか否かを判定する。
・上記各実施形態では、アバター表現の抽選の実行、抽選により選択されたアバター表現候補のうち、センサユニット24のユーザ100の表情や動作の検出結果の解析、その解析結果がアバター表現の発動条件を満たすか否かの判定、発動条件を満たすアバター表現を利用可能に付与することをユーザ装置12が行うようにしたが、これらの処理のうち少なくとも一部をサーバ13等のユーザ装置12以外の装置が行うようにしてもよい。解析をサーバ13が行う場合には、サーバ13は、ユーザ装置12からセンサユニット24の検出結果を取得し、解析を行う。また、判定をサーバ13が行う場合には、サーバ13は、解析結果とサーバ13のストレージ35に記憶されたアバター表現データ353とを比較し、発動条件を満たすアバター表現の有無を判定する。また、アバター表現の付与をサーバ13が行う場合には、サーバ13は、ガイド表示120の描画データのみをユーザ装置12に送信し、発動条件が満たされた場合に、そのアバター表現を描画するためのデータをユーザ装置12に送信してもよい。又は、サーバ13は、アバター表現を描画するためのデータを予めユーザ装置12に送信しておき、発動条件が満たされた場合に発動条件が満たされたアバター表現の利用を許可する指示をユーザ装置12に送信してもよい。
・上記各実施形態において、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、ディスプレイ28といった入出力装置を備えるものとした。これに代えて、これらの入出力装置は、外部装置としてユーザ装置12に接続されるものであってもよい。また、ユーザ装置12は、外部装置としての通信I/F23及びストレージ22の少なくとも一方に接続されるものであってもよい。
・上記各実施形態では、ユーザ100は、自身が所持するユーザ装置12を用いて動画を配信するようにしたが、ユーザ100が配信する動画を視聴ユーザが視聴することができれば、これに限定されない。例えば、動画を、多数の視聴ユーザが参加するイベント会場に設置された大型ディスプレイに表示するようにしてもよい。
次に、上記実施形態及び別例から把握できる技術的思想について、以下に追記する。
[1]
1乃至複数のコンピュータに、
ユーザの動きが反映されるアバターオブジェクト、及び前記アバターオブジェクトの表現を表示したガイド表示をディスプレイに出力するガイド表示工程と、
前記ユーザの身体の一部であるユーザ部位の位置の変化量を取得する変化量取得工程と、
前記変化量が前記ガイド表示に含まれる表現の発動条件を満たした場合に、その表現を適用した前記アバターオブジェクトを表示する発動工程と、
前記発動条件を満たした表現を、その後も前記アバターオブジェクトに適用可能に前記ユーザに提供する提供工程と、を実行させる情報処理プログラム。
[2]
前記ガイド表示工程は、複数の表現を含む前記ガイド表示を出力し、
前記提供工程は、前記複数の表現のうち、前記発動条件が満たされた前記表現のみを前記ユーザに提供する[1]に記載の情報処理プログラム。
[3]
前記変化量が前記発動条件を満たすか否かの判定に制限時間が設けられ、
前記提供工程では、前記制限時間内に前記発動条件を満たさない場合には、前記ガイド表示に表示された前記表現以外の表現を前記アバターオブジェクトに適用可能に記録する[1]又は[2]に記載の情報処理プログラム。
[4]
前記コンピュータに、
前記変化量が前記ガイド表示に含まれる表現の発動条件を満たすか否かを判定する判定工程をさらに実行させる[1]~[3]のいずれか1項に記載の情報処理プログラム。
[5]
前記判定工程は、前記ユーザ部位の前記変化量と前記ユーザ部位の基準情報との類似度を評価する類似度評価を含み、前記類似度が高い場合に前記発動条件を満たすと判定する[4]に記載の情報処理プログラム。
[6]
前記表現は、前記アバターオブジェクトの顔部位に適用される表情である[1]~[5]のいずれか1項に記載の情報処理プログラム。
[7]
前記表現は、前記アバターオブジェクトの手部位、足部位及び頭部の少なくとも一つに適用される動作である[1]~[6]のいずれか1項に記載の情報処理プログラム。
[8]
前記コンピュータに、
前記ガイド表示に表示される前記表現が選択された抽選結果を受信する工程をさらに実行させる[1]~[7]のいずれか1項に記載の情報処理プログラム。
[9]
1乃至複数のコンピュータが、
ユーザの動きが反映されるアバターオブジェクト、及び前記アバターオブジェクトの表現を表示したガイド表示をディスプレイに出力するガイド表示工程と、
前記ユーザの身体の一部であるユーザ部位の位置の変化量を取得する変化量取得工程と、
前記変化量が前記ガイド表示に含まれる表現の発動条件を満たした場合に、その表現を適用した前記アバターオブジェクトを表示する発動工程と、
前記発動条件を満たした表現を、その後も前記アバターオブジェクトに適用可能に前記ユーザに提供する提供工程と、を実行する情報処理方法。
[10]
ユーザの動きが反映されるアバターオブジェクトの表現の選択候補から、所定数の前記選択候補を選択する選択部と、
前記選択候補である前記表現を含むガイド表示を表示するためのデータと、前記ユーザの身体の一部であるユーザ部位の位置の変化量が前記表現に対応する発動条件を満たすか否かを判定するための発動条件データとを前記ユーザが用いるユーザ装置に送信する第1送信部と、
前記発動条件を満たした前記表現を前記ユーザに利用可能に提供するための前記表現の描画データを前記ユーザ装置に送信する第2送信部と、を備える情報処理装置。
[11]
1乃至複数のコンピュータが、
ユーザの動きが反映されるアバターオブジェクトの表現の選択候補から、所定数の前記選択候補を選択する選択工程と、
前記選択候補である前記表現を含むガイド表示を表示するためのデータと、前記ユーザの身体の一部であるユーザ部位の位置の変化量が前記表現に対応する発動条件を満たすか否かを判定するための発動条件データとを前記ユーザが用いるユーザ装置に送信する第1送信工程と、
前記発動条件を満たした前記表現を前記ユーザに利用可能に提供するための前記表現の描画データを前記ユーザ装置に送信する第2送信工程と、を実行する情報処理方法。
11…動画配信システム、
12…ユーザ装置
13…サーバ。

Claims (11)

  1. 1乃至複数のコンピュータに、
    ユーザの操作に基づき、前記ユーザに関連付けられたアバターオブジェクトの表現を利用するための要求を送信する要求工程と、
    前記アバターオブジェクトの表現が選択された結果を受信し、前記結果に基づいて、前記ユーザが利用可能な前記アバターオブジェクトの表現に関する情報含むガイド表示をディスプレイに出力するガイド表示工程と、
    前記ユーザの身体の一部であるユーザ部位の位置の変化量を取得する変化量取得工程と、
    前記変化量が前記ガイド表示に含まれる表現の発動条件を満たした場合に、その表現を適用した前記アバターオブジェクトを表示する発動工程と、
    前記発動条件を満たした表現を、その後も前記アバターオブジェクトに利用可能に前記ユーザに提供する提供工程と、を実行させ
    情報処理プログラム。
  2. 前記ガイド表示工程は、複数の表現を含む前記ガイド表示を出力し、
    前記提供工程は、前記複数の表現のうち、前記発動条件が満たされた前記表現を前記ユーザに提供する
    請求項1に記載の情報処理プログラム。
  3. 前記変化量が前記発動条件を満たすか否かの判定に制限時間が設けられ、
    前記提供工程では、前記ガイド表示に含まれる前記複数の表現のうち前記制限時間内に前記発動条件を満たした前記表現を利用可能に提供し、前記制限時間内に前記発動条件を満たさない場合には前記ガイド表示に含まれる前記表現を提供しない
    請求項2に記載の情報処理プログラム。
  4. 前記提供工程では、前記制限時間内に前記発動条件を満たさない場合には、前記ガイド表示に表示された前記表現以外の表現を前記アバターオブジェクトに適用可能に記録する
    請求項3に記載の情報処理プログラム。
  5. 前記コンピュータに、
    前記変化量が前記ガイド表示に含まれる表現の発動条件を満たすか否かを判定する判定工程をさらに実行させる
    請求項1~4のいずれか1項に記載の情報処理プログラム。
  6. 前記判定工程では、前記ユーザ部位の前記変化量と前記ユーザ部位の基準情報との類似度を評価する類似度評価を含み、前記類似度が高い場合に前記発動条件を満たすと判定する
    請求項5に記載の情報処理プログラム。
  7. 前記表現は、前記アバターオブジェクトの顔部位に適用される表情である
    請求項1~6のいずれか1項に記載の情報処理プログラム。
  8. 前記表現は、前記アバターオブジェクトの手部位、足部位及び頭部の少なくとも一つに適用される動作である
    請求項1~7のいずれか1項に記載の情報処理プログラム。
  9. 1乃至複数のコンピュータが、
    ユーザの操作に基づき、前記ユーザに関連付けられたアバターオブジェクトの表現を利用するための要求を送信する要求工程と、
    前記アバターオブジェクトの表現が選択された結果を受信し、前記結果に基づいて、前記ユーザが利用可能な前記アバターオブジェクトの表現に関する情報含むガイド表示をディスプレイに出力するガイド表示工程と、
    前記ユーザの身体の一部であるユーザ部位の位置の変化量を取得する変化量取得工程と、
    前記変化量が前記ガイド表示に含まれる表現の発動条件を満たした場合に、その表現を適用した前記アバターオブジェクトを表示する発動工程と、
    前記発動条件を満たした表現を、その後も前記アバターオブジェクトに利用可能に前記ユーザに提供する提供工程と、を実行す
    情報処理方法。
  10. ユーザが用いるユーザ装置から、前記ユーザに関連付けられたアバターオブジェクトの表現を利用するための要求を受信する要求受信部と、
    前記アバターオブジェクトの複数の前記表現から、所定数の前記表現を選択する選択部と、
    前記選択部により選択された前記表現に関する情報を含むガイド表示を表示するためのデータと、前記ユーザの身体の一部であるユーザ部位の位置の変化量が前記選択部により選択された前記表現に対応する発動条件を満たすか否かを判定するための発動条件データとを前記ユーザ装置に送信する第1送信部と、
    前記ガイド表示で表される前記表現のうち前記発動条件を満たした前記表現を前記ユーザに利用可能に提供するための前記表現の描画データを前記ユーザ装置に送信する第2送信部と、を備える
    情報処理装置。
  11. 1乃至複数のコンピュータが、
    ユーザが用いるユーザ装置から、前記ユーザに関連付けられたアバターオブジェクトの表現を利用するための要求を受信する要求受信工程と、
    前記アバターオブジェクトの複数の前記表現から、所定数の前記表現を選択する選択工程と、
    前記選択工程で選択された前記表現に関する情報を含むガイド表示を表示するためのデータと、前記ユーザの身体の一部であるユーザ部位の位置の変化量が前記選択工程で選択された前記表現に対応する発動条件を満たすか否かを判定するための発動条件データとを前記ユーザ装置に送信する第1送信工程と、
    前記ガイド表示で表される前記表現のうち前記発動条件を満たした前記表現を前記ユーザに利用可能に提供するための前記表現の描画データを前記ユーザ装置に送信する第2送信工程と、を実行する
    情報処理方法。
JP2023025679A 2020-06-29 2023-02-22 情報処理プログラム、情報処理方法、情報処理装置 Active JP7479618B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023025679A JP7479618B2 (ja) 2020-06-29 2023-02-22 情報処理プログラム、情報処理方法、情報処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020111894A JP7234187B2 (ja) 2020-06-29 2020-06-29 情報処理プログラム、情報処理方法、情報処理装置
JP2023025679A JP7479618B2 (ja) 2020-06-29 2023-02-22 情報処理プログラム、情報処理方法、情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020111894A Division JP7234187B2 (ja) 2020-06-29 2020-06-29 情報処理プログラム、情報処理方法、情報処理装置

Publications (2)

Publication Number Publication Date
JP2023067892A JP2023067892A (ja) 2023-05-16
JP7479618B2 true JP7479618B2 (ja) 2024-05-09

Family

ID=80147888

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020111894A Active JP7234187B2 (ja) 2020-06-29 2020-06-29 情報処理プログラム、情報処理方法、情報処理装置
JP2023025679A Active JP7479618B2 (ja) 2020-06-29 2023-02-22 情報処理プログラム、情報処理方法、情報処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020111894A Active JP7234187B2 (ja) 2020-06-29 2020-06-29 情報処理プログラム、情報処理方法、情報処理装置

Country Status (1)

Country Link
JP (2) JP7234187B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023109490A (ja) 2022-01-27 2023-08-08 株式会社リコー 面発光レーザ、レーザ装置、検出装置及び移動体
JP7339420B1 (ja) 2022-12-20 2023-09-05 カバー株式会社 プログラム、方法、情報処理装置
JP7548644B1 (ja) 2024-02-07 2024-09-10 株式会社Hinichijo 通信教育システム、通信教育提供方法及び通信教育提供プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6668549B1 (ja) 2019-09-25 2020-03-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP2020057207A (ja) 2018-10-02 2020-04-09 株式会社スクウェア・エニックス 描画プログラム、記録媒体、描画制御装置、描画制御方法
JP2020064426A (ja) 2018-10-16 2020-04-23 株式会社アンビリアル コミュニケーションシステム及びプログラム
WO2020129959A1 (ja) 2018-12-18 2020-06-25 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置及び表示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102661019B1 (ko) 2018-02-23 2024-04-26 삼성전자주식회사 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법
JP6506443B1 (ja) 2018-04-27 2019-04-24 株式会社 ディー・エヌ・エー 画像生成装置及び画像生成プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057207A (ja) 2018-10-02 2020-04-09 株式会社スクウェア・エニックス 描画プログラム、記録媒体、描画制御装置、描画制御方法
JP2020064426A (ja) 2018-10-16 2020-04-23 株式会社アンビリアル コミュニケーションシステム及びプログラム
WO2020129959A1 (ja) 2018-12-18 2020-06-25 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置及び表示方法
JP6668549B1 (ja) 2019-09-25 2020-03-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP7234187B2 (ja) 2023-03-07
JP2022011032A (ja) 2022-01-17
JP2023067892A (ja) 2023-05-16

Similar Documents

Publication Publication Date Title
US11398067B2 (en) Virtual reality presentation of body postures of avatars
JP7389855B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7479618B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
EP3381175B1 (en) Apparatus and method for operating personal agent
JP6244593B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP5859456B2 (ja) プレゼンテーション用カメラ・ナビゲーション
JP6392911B2 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7098676B2 (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
US20210312167A1 (en) Server device, terminal device, and display method for controlling facial expressions of a virtual character
US20220270302A1 (en) Content distribution system, content distribution method, and content distribution program
EP4023310A1 (en) Program, method, and terminal device
JP2023126237A (ja) キャラクタを使ったライブ通信システム
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US12035010B2 (en) Video distribution system, video distribution method, information processing device, video distribution program, and video viewing program for displaying avatar objects
JP2019032844A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7560835B2 (ja) プログラム及び情報処理方法
JP7092930B1 (ja) プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP6826645B1 (ja) プログラム、方法、および端末装置
CN114025854A (zh) 程序、方法以及终端装置
JP7357865B1 (ja) プログラム、情報処理方法、及び情報処理装置
US20240007700A1 (en) Program, information processing method, and information processing device
JP2022003776A (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7479618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150