JP6965896B2 - 表示制御システム、及び、表示制御方法 - Google Patents

表示制御システム、及び、表示制御方法 Download PDF

Info

Publication number
JP6965896B2
JP6965896B2 JP2018565130A JP2018565130A JP6965896B2 JP 6965896 B2 JP6965896 B2 JP 6965896B2 JP 2018565130 A JP2018565130 A JP 2018565130A JP 2018565130 A JP2018565130 A JP 2018565130A JP 6965896 B2 JP6965896 B2 JP 6965896B2
Authority
JP
Japan
Prior art keywords
item
user
performer
display
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018565130A
Other languages
English (en)
Other versions
JPWO2018142494A1 (ja
Inventor
幸司 細見
孝司 栗山
祐輝 勝俣
和明 出口
諭 志茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2018142494A1 publication Critical patent/JPWO2018142494A1/ja
Application granted granted Critical
Publication of JP6965896B2 publication Critical patent/JP6965896B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明は、ライブ配信を行う表示制御システム、及び、表示制御方法に関する。
特許文献1等には、コンテンツを配信するサーバが記載されている。
特許第5530557号公報
本発明の一態様によれば、被写体が存在する実空間の映像を表示装置に表示させる表示装置制御部と、前記実空間の三次元位置情報を取得する取得部と、ユーザ動作を検出する検出部と、前記取得部が取得した三次元位置情報と、前記検出部が検出したユーザ動作のユーザ動作情報とに基づいて、アイテムの映像を前記被写体が認識できるように前記実空間上に表示するアイテム表示制御部とを備えた表示制御システムが提供される。
本発明の他の態様によれば、被写体が存在する実空間の映像を表示装置に表示させ、前記実空間の三次元位置情報を取得し、ユーザ動作を検出し、前記取得した三次元位置情報と、前記検出したユーザ動作のユーザ動作情報とに基づいて、アイテムの映像を前記被写体が認識できるように前記実空間上に表示する表示制御方法が提供される。
ライブ配信システムの全体構成を示す図。 サーバとユーザ端末のブロック図。 (a)はライブ配信処理のフローチャート、(b)はライブ配信時におけるユーザ端末の表示画面を示す図。 ユーザによるアイテム/演者選択処理のフローチャート。 (a)はアイテムを選択する際のユーザ端末の表示画面を示す図、(b)は演者を選択する際のユーザ端末の表示画面を示す図、(c)はアイテムと演者が選択された際のユーザ端末の表示画面を示す図、(d)はアイテムと演者が選択された際のスタジオモニタの表示画面を示す図、(e)はユーザがアイテムを投げる動作をした際のユーザ端末及びスタジオモニタの表示画面を示す図。 演者が当該アイテムを取得する取得処理を示すフローチャート。 (a)は演者が猫耳のヘッドバンドのアイテムを拾った際のユーザ端末及びスタジオモニタの表示画面を示す図、(b)は演者がヘッドバンドのアイテムを装着した際のユーザ端末及びスタジオモニタの表示画面を示す図、(c)は演者が横を向いた際のユーザ端末及びスタジオモニタの表示画面を示す図。 演者からユーザへの返礼処理のフローチャート。 (a)は演者が返礼のサインボールを手に持った際のユーザ端末及びスタジオモニタの表示画面を示す図、(b)は演者がサインボールを投げた際のユーザ端末及びスタジオモニタの表示画面を示す図、(c)はユーザがサインボールを受け取った際のユーザ端末及びスタジオモニタの表示画面を示す図。 (a)は演者に対してエフェクトが付加された際のユーザ端末及びスタジオモニタの表示画面を示す図、(b)はユーザがアイテムを投げる動作をした際のユーザ端末及びスタジオモニタの表示画面を示す図、(c)は演者がアイテムを受け取った際のユーザ端末及びスタジオモニタの表示画面を示す図、(d)は背景画像にタワーが表示された際のユーザ端末及びスタジオモニタの表示画面を示す図。
以下、図1〜図10を用いて、本発明が適用されたライブ配信システムを図面を参照して説明する。
〔ライブ配信システムの概要〕
図1に示すように、ライブ配信システム1は、生演奏等のパフォーマンスが実演されるスタジオ10と、スタジオ10で取得されたコンテンツデータをライブ配信するサーバ20と、サーバ20で配信されたコンテンツデータを視聴するユーザ端末40,60,70とを備えている。サーバ20とユーザ端末40,60,70とは、ネットワーク2を介して接続されている。なお、ユーザ端末の数は、ここで示す2台に限定されるものではなく、1台であっても、数十台でも数百台であってもよい。
スタジオ10内の実空間では、一例として、被写体としての3人の演者A,B,Cがステージで楽曲を演奏し、歌唱している。勿論、演者の人数は3人に限定されるものではなく、1人や2人でもよいし、4人以上であってもよい。また、演者A,B,Cは、1つのバンド等のグループであってもよいし、それぞれが独立して活動する演者A,B,Cの集まりであってもよい。スタジオ10には、再生装置11と、スピーカ12と、マイク13と、RGBカメラ14と、デプスカメラ15と、プロジェクタ16と、スタジオモニタ17とを備えている。
再生装置11は、演奏する楽曲データを再生し、楽曲データに基づく楽曲を、再生装置11と接続されたスピーカ12から放音する。マイク13は、各演者A,B,Cが所持しており、演者A,B,Cの音声を集音する。一例として、RGBカメラ14は、ライブ配信システム1において、第1カメラである。RGBカメラ14は、動画撮影機能を有するデジタルカメラである。一例として、RGBカメラ14は、ビデオカメラである。一例として、RGBカメラ14は、表示データ生成用カメラ等である。RGBカメラ14は、演者A,B,Cが演奏している実空間を撮像するビデオカメラである。RGBカメラ14は、一例として、CCDやCMOS等の撮像素子を備え、可視光等の光を検出し、3色(赤、緑、青)のカラー信号で構成された表示データを出力する。一例として、RGBカメラ14は、演者A,B,C等の被写体を撮像し、表示データとして、ユーザ端末40,60,70等の表示部に撮像した被写体を表示できる観賞用データを出力する。また、一例として、RGBカメラ14は、表示データとして、スタジオモニタ17に表示されるように撮像データを出力する。更に、一例として、RGBカメラ14は、表示データとして、ユーザA,B,Cが居る公共場所やライブ会場やコンサートホールに設置された大型スクリーンを備えた大型表示装置に表示される映像データを出力する。なお、RGBカメラ14は、ビデオカメラである必要はなく、例えば動画撮像機能を備えたスマートデバイス端末であってもよい。この場合、スマートデバイス端末を三脚等に固定することによって、ビデオカメラと同様に機能させることができる。
一例として、デプスカメラ15は、ライブ配信システム1において、第2カメラである。一例として、デプスカメラ15は、赤外線カメラである。一例として、デプスカメラ15は、三次元位置情報取得用カメラである。デプスカメラ15は、自身から被写体までの距離である深度情報等を取得する。デプスカメラ15は、一例として、被写体となる演者A,B,C等との距離である深度情報等を取得する取得部である。一例として、デプスカメラ15は、被写体の一部である演者Aまでの距離(深度情報)、被写体の一部である演者Bまでの距離(深度情報)及び被写体の一部である演者Cまでの距離(深度情報)をそれぞれ取得する。一例として、デプスカメラ15は、被写体の一部であるスタジオの各点までの距離である深度情報等を取得する。一例として、デプスカメラ15は、被写体として演者A、B及びCとスタジオとを含む実空間の三次元位置情報を取得する。デプスカメラ15は、赤外線を投光する投光部と、赤外線を検出する赤外線検出部とを備えている。デプスカメラ15は、一例として、投光部から投光した赤外線パルスが反射して戻ってくるまでの時間から実空間における深度情報等の三次元位置情報を取得する。なお、RGBカメラ14とデプスカメラ15とは、一体の装置であってもよいし、別体の装置であってもよい。
プロジェクタ16は、一例としてステージに演者A,B,Cへのプレゼントであるアイテムのオブジェクトをプロジェクションマッピング等の手法で表示する。スタジオモニタ17は、実空間であるスタジオ10に配置され、映像が表示される表示装置であり、一例として、主に演者A,B,Cが視認可能なようにステージの前に設置される表示装置である。スタジオモニタ17は、一例としてフラットディスプレイであり、LCD表示装置、有機EL表示装置である。そして、スタジオモニタ17は、RGBカメラ14で撮像された演者A,B,Cのパフォーマンスの映像が表示される。
サーバ20は、演者A,B,Cによって演奏されたコンテンツデータとしてのライブデータを生成する。一例として、サーバ20は、再生装置11からの楽曲データ、マイク13からの音声データ、RGBカメラ14からの映像データ等の各種のデータに基づいて、ユーザ端末40,60,70に対して配信するための演者A,B,Cによるパフォーマンスのライブデータを生成し、ライブデータをユーザ端末40,60,70に対してライブ配信する。すなわち、サーバ20は、ユーザ端末40,60,70に対して、演者A,B,Cによるパフォーマンスを生中継する。
なお、演者A,B,Cによるパフォーマンスは、伴奏を再生装置11により再生するのではなく、実際に演者A,B,Cがギターやドラム等の楽器を演奏し、その音をマイクで集音するものであってもよい。スタジオ10でライブデータをデータ生成装置等で生成し、サーバ20に送信するようにしてもよい。
ライブ配信システム1に参加するユーザA,B,Cは、一例として、演者A,B,Cのファンであり、ユーザ端末40,60,70を用いてライブデータを視聴することができる。ユーザ端末40は、一例として、デスクトップ型又はラップトップ型のパーソナルコンピュータ40aと、パーソナルコンピュータ40aと接続されたウェアラブル端末やスマートデバイス端末としてのスマートウォッチ50とを備えている。パーソナルコンピュータ40aがデスクトップ型である場合、ユーザ端末40は、デスクトップ型のパーソナルコンピュータ40aと、パーソナルコンピュータ40aと接続されたモニタと、パーソナルコンピュータ40aと接続されたスマートウォッチ50とを備えている。また、パーソナルコンピュータ40aがラップトップ型である場合、ユーザ端末40は、表示部を備えたラップトップ型のパーソナルコンピュータ40aと、ラップトップ型のパーソナルコンピュータ40aと接続されたスマートウォッチ50とを備えている。一例として、ユーザ端末40のユーザAは、スマートウォッチ50を利き腕等に装着しており、スマートウォッチ50は、パーソナルコンピュータ40aと有線又は無線で接続されている。スマートウォッチ50は、加速度センサやジャイロセンサ等の検出部を備えており、一例としてユーザAが物を投げる動作をしたとき、ユーザ動作情報として、その加速度や角度(姿勢)や角速度を検出する。
なお、パーソナルコンピュータ40aは、ヘッドマウントディスプレイ(HMD)が有線又は無線で接続されていてもよい。また、HMDは、パーソナルコンピュータ40aとしての構成を備えていてもよい。HMDとしては、光学シースルー型ヘッドマウントディスプレイ、ビデオシースルー型ヘッドマウントディスプレイ、非透過型ヘッドマウントディスプレイ等が挙げられる。光学シースルー型ヘッドマウントディスプレイの場合はAR(拡張現実)による表示を行うことができる。ビデオシースルー型ヘッドマウントディスプレイや非透過型ヘッドマウントディスプレイの場合はVR(仮想現実)による表示を行うことができる。HMDには、後述するプレゼントや返礼ためのアイテムのオブジェクトを表示することができる。
また、ユーザ端末60は、一例として、スマートフォンやタブレット等のスマートデバイス端末であり、携帯可能な小型の情報処理端末である。スマートフォンは、一例として、表示面にタッチパネルを備えている。また、ユーザ端末60は、加速度センサやジャイロセンサ等の検出部を備えており、一例として、ユーザBが物を投げる動作をしたとき、ユーザ動作情報として、その加速度や角度や角速度を検出する。ユーザ端末60は、携帯可能な小型の情報処理端末であることから、ユーザ端末60のユーザは、どこでもライブデータを視聴することができる。
ユーザCのユーザ端末70は、スマートデバイス端末60aとスマートウォッチ50とを備えている。この場合、スマートデバイス端末60aがユーザAのラップトップ型のパーソナルコンピュータ40aのような機能を担う。これにより、ユーザCがスマートウォッチ50を装着した利き腕で物を投げる動作をしているときにも、もう一方の手に持ったスマートデバイス端末60aの表示部に表示された映像を視認することができる。また、スマートデバイス端末60aを机等に置いたり三脚に固定した状態で、物を投げる動作を行うことができる。これにより、スマートデバイス端末60aの表示部に表示された映像を見ながらスマートウォッチ50を装着した利き腕で投げ動作等をすることができる。
ユーザ端末40,60,70では、ライブデータを視聴しながら、そのとき実際にパフォーマンスしている演者A,B,Cに対して、アイテムを仮想的にプレゼントすることができる。一例として、ユーザ端末40,60,70の表示面には、ライブデータとともに、演者A,B,Cに対してプレゼントすることが可能なアイテムの第1オブジェクトとしてのオブジェクトが一覧表示されたアイテム選択オブジェクトが表示される。アイテムとしては、花束、ヘッドバンド等の装飾具、ユーザ端末40,60,70で視聴する際演者の動作を演出するエフェクト、演者が実演する場所の背景画像等を挙げることができる。そして、ユーザA,B,Cは、アイテム選択オブジェクト内のオブジェクト一覧の中から何れか1つのアイテムを選択し、さらに、プレゼントする演者を演者A,B,Cの中から選択する。図1では、演者として演者Aが選択され、また、アイテムとして猫耳のヘッドバンドが選択されている例を示している。
この後、ユーザ端末40のユーザAは、スマートウォッチ50を装着した状態で腕を振って物を投げる動作をする。ユーザ端末60のユーザBは、ユーザ端末60を持った状態で腕を振って物を投げる動作をする。ユーザ端末70のユーザCは、スマートウォッチ50を装着した状態で腕を振って物を投げる動作をする。すると、ユーザ端末40,60,70は、サーバ20に対して検出結果であるユーザ動作情報としての加速度データ、角度(姿勢)データ、角速度データ等の操作データをサーバ20に送信する。なお、ユーザ端末60,70では、ライブデータが表示されている表示面を指やスタイラスペンを用いて、表示されている演者A,B,Cの方向へなぞる操作を行い、その座標データ等の操作データをサーバ20に送信するようにしてもよい。
すると、サーバ20は、ユーザ端末40,60,70から送信されたアイテムIDが示すアイテム18の映像をプロジェクタ16を使ってスタジオ10の床面に映像表示する。映像表示されるアイテム18は、一例として、ユーザ端末40,60,70から送信された演者IDが示す演者の前に表示される。図1では、演者Aの前にヘッドバンドのアイテム18が映像表示されている例を示している。一例として、プロジェクタ16は、表示されるアイテム18を、アイテムがユーザA,B,Cの側、すなわち演者A,B,Cの前方位置から演者A,B,Cの方向に投げられたように映像を表示する。実空間において、アイテムが落下する床面の位置、すなわち最終的にアイテム18が表示されるアイテム位置は、スタジオ10内で特定される特定位置であって、ユーザ端末40,60,70から送信されたユーザ動作情報としての加速度データ、角度データ、角速度データ等の操作データに基づいて決まる。アイテム位置は、深度情報等の三次元位置情報で特定される。アイテム位置は、一例として、デプスカメラ15の検出部を原点とする三次元座標系等で特定することができる。
一例として、ユーザA,B,Cがアイテムを弱く投げるような動作をした場合、アイテム18が表示されるアイテム位置は、演者A,B,Cの前方で遠く離れた位置となる。ユーザA,B,Cがアイテムを強く投げるような動作をした場合、アイテム18が表示されるアイテム位置は、演者A,B,Cの前方で比較的近い位置となる。更に、アイテムがユーザA,B,Cによって強く投げられ過ぎた場合、アイテム18が表示されるアイテム位置は、アイテムが演者A,B,Cの後方にある壁で跳ね返った後、演者A,B,Cに対して前方や後方の位置となる。これにより、演者A,B,Cは、実際にはスタジオ10にはいないユーザA,B,Cから自分たちの方向にアイテムが投げられたように視認することができる。演者A,B,Cに対してアイテムが投げられた様子は、ユーザ端末40,60,70の表示面にも映像とともに、アイテムオブジェクトがRGBカメラ14が撮像した映像の中におけるアイテムオブジェクト位置に表示される。これにより、ユーザA,B,Cも、自分の投げたアイテムが演者A,B,Cの近くに届いたことを視認することができる。更に、一例として、ユーザA,B,Cが特定の演者Aに対して右側又は左側にアイテムを投げる動作をした場合、実空間において、アイテム18が表示されるアイテム位置は、ユーザA,B,Cがアイテムを投げた方向に対応して、演者Aに対して右側又は左側の位置となる。一例として、演者Aに対して右側にアイテムを投げてしまった場合、アイテム18が表示されるアイテム位置は、演者Bや演者Cの正面となってもよい。このようなアイテム位置は、ユーザ端末40,60,70で検出された検出結果としての加速度データ、角度データ、角速度データ等の操作データに基づいて決まる三次元位置情報で特定される。
なお、スタジオモニタ17にもユーザ端末40,60,70の表示面と同様な映像表示を行ってもよい。
スタジオ10のデプスカメラ15は、一例として、常時、スタジオ10における各所の深度情報等の三次元位置情報を算出している。デプスカメラ15は、一例として、演者A,B,Cの人物領域を抽出し、人物領域と非人物領域とに区分する。デプスカメラ15は、一例として、演者A,B,Cの各々の25カ所の骨格位置を骨格データとして取得し、さらに、各骨格位置の深度情報を算出している。骨格位置としては、一例として左右の手、頭部、首、左右の肩、左右の肘、左右の膝、左右の足等の骨格位置が含まれている。なお、取得する骨格位置の数は、25カ所に限定されるものではない。また、デプスカメラ15は、スタジオ10における壁や床面との距離を算出している。ここで、深度情報は、一例としてデプスカメラ15の前方の対物レンズ又はセンサ面から測定対象位置(スタジオ10の壁の各所や床の各所)との距離である。また、深度情報は、一例としてデプスカメラ15の前方の対物レンズ又はセンサ面から被写体となる演者の骨格位置までの距離である。
アイテム18が表示されているアイテム位置に対して演者Aの右手又は左手、一例として演者Aの右手又は左手の深度情報に基づく位置がアイテム位置に重なったときは、演者Aがアイテムを拾ったときである。そこで、プロジェクタ16は、アイテム位置に演者Aの右手又は左手が重なったとき、アイテム18を非表示とする。ここでのアイテムは、ヘッドバンドである。そこで、演者Aが拾ったヘッドバンドを頭部に装着するように振る舞う。この間、サーバ20は、ユーザ端末40,60,70の表示面に対して、演者Aの右手又は左手に把持されたように拾ったヘッドバンドのオブジェクトを映像表示し、ヘッドバンドのオブジェクトが演者Aの頭部に装着される様子を表示する。これにより、ユーザA,B,Cは、ユーザ端末40,60の表示面で、自分がプレゼントしたヘッドバンドが演者Aに認識され、演者Aがそのヘッドバンドが装着する様子を視認することができる。
これ以降、ユーザA,Bは、ユーザ端末40,60,70の表示面で、演者Aがヘッドバンドを装着した状態で演奏している様子を視認することができる。一例として、演者Aが横向いたとき、ヘッドバンドのオブジェクトの向きも演者Aの向きに合わせて表示される。各演者A,B,Cの向きは、RGBカメラ14からの表示データから演者A,B,Cの顔検出をし、デプスカメラ15から演者A,B,Cの骨格位置を算出することで判定する。また、アイテムのオブジェクトを表示するデータも三次元データである。一例として、これらのデータに基づいて、演者Aが横向きになったことを検出した場合には、演者Aの向きに合わせてヘッドバンドのオブジェクトの向きも変化される。演者Aがヘッドバンドを装着した状態は、スタジオモニタ17にも表示され、演者A,B,Cに、ユーザ端末40,60,70に表示されている状態を視認させることができる。
一例として、サーバ20は、ユーザから演者A,B,Cにアイテムがプレゼントされた時点(演者A,B,Cがアイテムを受け取った時点)で、演者A,B,Cにプレゼントされた(演者A,B,Cが受け取った)すべてのアイテムと、それに対応するユーザIDを特定することができる。これを利用して、サーバ20は、演者A,B,Cがアイテムを拾った時点で、アイテムをプレゼントしてくれたユーザIDを特定することができる。
間奏に入ったときには、一例として、スタジオ10のスタジオモニタ17の表示面にヘッドバンドのアイテムを演者Aに対してプレゼントしたユーザIDのオブジェクトの映像を表示する。また、一例として、ユーザIDのオブジェクトの映像をプロジェクタ16でスタジオ10の床面に表示する。これにより、演者Aは、ヘッドバンドをプレゼントしてくれたユーザA,B,Cを把握することができる。
一例として、演者AがユーザIDを発声しマイク13で集音されると、サーバ20は、マイク13からの音声データから音声認識処理により、返礼をするユーザのユーザIDを特定してそのユーザに返礼できるようにする。この音声認識処理は、マイク13以外の他の装置(サーバ20、スタジオ10に設置された装置等)で行うこともできる。また、一例として、返礼処理として、演者A,B,Cが装着しているアイテム(例えばヘッドバンド)を演者が触りながら返礼するアイテムを投げる動作をすると、演者A,B,Cが触っているアイテムをプレゼントしたユーザIDを特定してそのユーザに返礼できるようにする。更に、一例として、サーバ20は、ライブ配信視聴者全員をユーザIDで特定しており、アイテムを一定額以上購入してくれたユーザに対して演者A,B,Cが返礼処理を行うことができるようにする。更に、一例として、ユーザ端末がユーザの視線を検出する視線検出部を備えており、ユーザが特定の演者を注視した時間を算出することができる場合がある。このような場合において、演者Aが返礼処理をしたとき、演者Aを一定時間以上見続けていたユーザIDのユーザに対して返礼することができる。また、演者Aを一定時間以上見続けていないユーザIDのユーザに対してはランダムに抽出したユーザIDのユーザに対して返礼する。
以上のように、返礼をする場合、演者AがユーザA,B,Cに対して返礼のプレゼントとなる第2オブジェクトとしてのアイテムオブジェクトの映像をスタジオモニタ17及びユーザ端末40,60,70の表示面に表示する。具体的に、返礼品のアイテムが演者Aのサインボールであるとき、スタジオモニタ17及びユーザ端末40,60,70の表示面において、演者Aの右手又は左手にサインボールが把持されたようにサインボールのアイテムオブジェクトの映像を演者Aの右手又は左手の位置に表示する。これにより、演者Aは、現在、自分はサインボールを持った現状を把握することができ、また、ユーザA,B,Cも、演者Aが自分への返礼となるサインボールを投げてくれる現状を把握することができる。
演者Aがサインボールを投げる動作を行ったとき、デプスカメラ15は、演者Aのサインボールを持った手の深度情報等の変化に基づいて演者Aがサインボールを投げたことを検出する。すると、ユーザ端末40,60,70の表示面には、演者AがユーザA,B,Cの方へサインボールを投げたようにアイテムオブジェクトが表示される。ユーザ端末40,60,70において、表示面に表示されたサインボールをキャッチする操作がされたとき、ユーザA,B,Cがサインボールを受け取ったことになる。なお、返礼のプレゼントとしては、サインボールに限定されるものではない。ユーザA,B,Cは、受け取ったサインボール等の返礼品を、再度、ライブ配信が行われている際に、演者A,B,Cに対してアイテムを投げることもできる。そして、返礼品としてのプレゼントは、実際の物をユーザA,B,Cに対して後日郵送されるようにしてもよい。郵送の際には、実際のサインボールではなく、色紙や演者に関連するグッズやCDやDVD等のアルバム、コンサートの優待券等であってもよい。
〔デプスカメラ15〕
デプスカメラ15は、一例として、パルス変調された赤外線を投光するプロジェクタ等の投光部と赤外線カメラ等の赤外線検出部とを備えており、投光した赤外線パルスが反射して戻ってくるまでの時間から深度情報を算出する(Time of Flight(TOF)方式)。デプスカメラ15は、一例として、常時、スタジオ10における各所の深度情報等の三次元位置情報を算出している。
また、デプスカメラ15は、演者A,B,Cの人物領域を抽出し、人物領域と非人物領域とに区分する。一例として、同じ場所(一例としてスタジオ10)において、人物が映る前後における差分値に基づいて人物領域を算出する。また、一例として、検出する赤外線量が閾値を超える領域を人物領域と判定する。
さらに、デプスカメラ15は、骨格位置を検出する。デプスカメラ15は、人物領域における各所の深度情報を取得し、深度と形状の特徴量に基づいて、人物領域に写る人物の実空間上の部位(左右の手、頭部、首、左右の肩、左右の肘、左右の膝、左右の足等)を算出し、各部位における中心位置を骨格位置として算出する。デプスカメラ15は、記憶部に記憶された特徴量辞書を用いて、人物領域から決定される特徴量を、当該特徴量辞書に登録されている各部位の特徴量と照合することにより、人物領域における各部位を算出する。
なお、デプスカメラ15が赤外線検出部での検出結果を他の装置(サーバ20、ユーザ端末40,60,70、スタジオ10に設置された算出装置等)に出力し、他の装置が深度情報を算出、人物領域を抽出、人物領域と非人物領域とに区分、人物領域の検出、骨格位置の検出、人物領域における各部位を特定等の処理を行うようにしてもよい。
また、以上のようなモーションキャプチャ処理は、演者A,B,Cに対してマーカを付けることなく行うものであるが、演者A,B,Cにマーカを付けて行うようにしてもよい。
更に、深度情報を算出するにあたっては、投光した赤外線パターンを読み取り、パターンのゆがみから深度情報を得る方式であってもよい(Light Coding方式)。
更にまた、深度情報は、二眼カメラ、複数台カメラによる視差情報から算出するようにしてもよい。更に、深度情報は、RGBカメラ14で取得した映像を画像認識し、写真測量技術等を用いて画像解析することで算出することもできる。この場合、RGBカメラ14が検出部として機能することからデプスカメラ15は不要となる。
〔サーバ20〕
図2に示すように、サーバ20は、スタジオ10の各部とのインタフェース(以下、単に「IF」という。)を備えており、有線又は無線で接続されている。スタジオ10の各部と接続するIFとしては、オーディオIF21と、RGBカメラIF22と、デプスカメラIF23と、プロジェクタIF24と、表示IF25とを備えている。更に、データベース26と、データ記憶部27と、ネットワークIF28と、メインメモリ29と、制御部30とを備えている。サーバ20は、ユーザ端末40,60,70にライブデータを配信し、更に、プロジェクタ16やスタジオモニタ17やユーザ端末40,60,70の表示を制御する表示制御装置として機能する。
オーディオIF21は、スタジオ10の再生装置11、マイク13等と接続されている。オーディオIF21は、再生装置11から演奏する楽曲データが入力され、マイク13から演者A,B,Cの音声データが入力される。
RGBカメラIF22は、RGBカメラ14が撮像したスタジオ10の映像データが入力される。デプスカメラIF23は、スタジオ10の各所や演者A,B,Cの深度情報、人物領域のデータ、骨格位置の深度情報等が入力される。プロジェクタIF24は、プロジェクタ16でスタジオ10のステージの床面等に、アイテムを表示する制御を行う。表示IF25は、スタジオ10に設置されたスタジオモニタ17を制御する。一例として、表示IF25は、スタジオモニタ17の表示面に、演者A,B,CにプレゼントしたアイテムオブジェクトやユーザIDを表示する。これにより、演者A,B,Cは、誰からアイテムがプレゼントされたかを知ることができる。
管理部としてのデータベース26は、ライブ毎に、本システムに登録したユーザのユーザIDに関連付けて、各ユーザのアイテムを管理する。具体的に、データベース26では、ライブ毎に、各ユーザIDに関連付けて、アイテムIDと、アイテム送り先IDと、アイテム受取有無と、返礼有無と、返礼受取成否とを管理している。
アイテムIDは、ユーザが購入したアイテムを一意に特定するIDであり、各ライブにおいて、ユーザがプレゼントしたアイテムを一意に特定するIDである。
アイテム送り先IDは、アイテムをプレゼントした演者を一意に特定するIDである。
アイテム受取有無は、ユーザがプレゼントしたアイテムの受取を、ユーザが選択した演者が成功したかどうかを管理する。
返礼有無は、ユーザがプレゼントしたアイテを受け取った演者がプレゼントしてくれたユーザに対して返礼を行ったかを管理する。
返礼受取成否は、返礼の受取が成功したかどうかを管理する。
データベース26は、その他に、ライブ配信に参加可能な全ユーザをユーザIDに関連付けて管理している。各ライブに参加するユーザは、登録された全ユーザから選択される。また、データベース26は、一例として、各アイテムの値段をアイテムIDと関連付けて管理している。また、一例として、各ユーザの演者に応じた購入金額の総額を管理している。
図2では、ユーザAは、アイテムID「A(花束)」を演者Cに対してプレゼントしたが、演者Cによってプレゼントが受け取ってもらえなかったことを示している。ユーザBは、アイテムID「C(ヘッドバンド)」を演者Aに対してプレゼントし、アイテムAを演者Aが受け取り、さらに、演者Aが返礼を行い、その返礼をユーザAが受け取ったことを示している。ユーザCは、アイテムID「B(エフェクト)」を演者Bに対してプレゼントし、アイテムBを演者Bが受け取り、さらに、演者Bが返礼を行ったが、ユーザCがその返礼の受取に失敗したことを示している。
データ記憶部27は、ハードディスク等の記憶装置である。データ記憶部27は、ライブ配信システム1に関連する制御プログラムやアイテムのオブジェクトを表示するための表示データ等が保存されている。アイテムのオブジェクトを表示するための表示データは、一例として、アイテムが有形の物、例えば装飾具であるとき、三次元データであり、演者の向きに合わせて装飾具も表示されるようになっている。一例として、装飾具のデータは、演者が正面を向いているとき、装飾具の正面から表示され、演者が横を向いているとき、装飾具も横向きに表示される。制御プログラムは、一例として、ライブデータをユーザ端末40,60,70に対して配信する配信プログラムである。制御プログラムは、一例として、ユーザからのプレゼントされたアイテムのオブジェクトをプロジェクタ16によってスタジオ10の床面に表示するアイテム表示制御プログラムである。また、制御プログラムは、一例として、スタジオモニタ17やユーザ端末40,60,70の表示面に対して、ユーザからプレゼントされたアイテムオブジェクトを、演者A,B,Cと関連付けて表示する表示装置制御プログラムである。また、制御プログラムは、一例として、スタジオモニタ17やユーザ端末40,60,70の表示面に対して送り主のユーザIDのオブジェクトを表示する表示装置制御プログラムである。更に、制御プログラムは、一例として、アイテムがプレゼントされた演者がアイテムをユーザに対して返礼をするとき、スタジオモニタ17やユーザ端末40,60,70の表示面に対して返礼のアイテムオブジェクトを表示する表示装置制御プログラムである。
ネットワークIF28は、サーバ20とユーザ端末40,60,70とをインターネット等のネットワーク2を介して接続する。メインメモリ29は、一例として、RAMであり、配信中のライブデータや制御プログラム等を一時的に記憶する。
制御部30は、一例として、CPUであり、サーバ20の全体の動作を制御する。制御部30は、一例として、配信制御プログラムに従って、ライブデータをユーザ端末40,60,70に対して配信する配信部である。制御部30は、一例として、アイテム表示制御プログラムに従って、ユーザからのプレゼントされたアイテムをプロジェクタ16によってスタジオ10の床面に表示するアイテム表示制御部である。制御部30は、一例として、ユーザ端末40,60,70の表示を制御する表示装置制御部であり、また、スタジオモニタの表示を制御する表示装置制御部である。
このような制御部30は、スタジオモニタ17やユーザ端末40,60,70の表示面に対して、ユーザからプレゼントされたアイテムオブジェクトを、演者A,B,Cと関連付けて表示する表示データを生成し表示する。更に、一例として、スタジオモニタ17やユーザ端末40,60,70の表示面に対して、送り主のユーザIDを表示する表示データを生成し表示する。更に、制御部30は、一例として、アイテムがプレゼントされた演者がアイテムをユーザに対して返礼をするとき、スタジオモニタ17やユーザ端末40,60,70の表示面に対して返礼のアイテムの表示データを生成し表示する。
アイテムオブジェクトは、スタジオモニタ17やユーザ端末40,60,70の表示面に表示するにあたって、スタジオ10の実空間に本来あるべきアイテムオブジェクト位置に表示される。すなわち、アイテム位置は、スタジオ10の実空間における位置が三次元位置情報によって特定されている。スタジオモニタ17やユーザ端末40,60,70の表示面に表示されるアイテムのオブジェクトは、RGBカメラ14の向きを変更したとしても、その向きで取得している映像のなかでしかるべきアイテムオブジェクト位置に表示される。また、アイテム位置がRGBカメラ14の撮像範囲から外れる場合、スタジオモニタ17やユーザ端末40,60,70の表示面には、アイテムオブジェクトが表示されなくなる。そして、スタジオモニタ17やユーザ端末40,60,70の表示面には、アイテムオブジェクトは、演者A,B,Cがしゃがんだり、飛び上がったりした場合であっても、演者A,B,Cの動作に合わせて表示されることになる。
制御部30は、以上のような処理を全て行う必要はなく、一部の処理を他の装置と連携して行うようにしてもよい。一例として、スタジオ10にパーソナルコンピュータ等の制御装置を設置し、スタジオ10に設置された制御装置とサーバ20とで連携して以上のような処理を行うシステムとすることができる。この場合、例えば、サーバ20は、データベース26と、メインメモリ29と、制御部30とを備えるようにする。また、制御装置は、オーディオIF21と、RGBカメラIF22と、デプスカメラIF23と、プロジェクタIF24と、表示IF25と、データ記憶部27と、ネットワークIF28とを備えるようにする。そして、一例として、制御装置は、データベース26の更新以外の処理を行うようにしてもよい。例えば、ユーザからのプレゼントされたアイテムのオブジェクトをプロジェクタ16で表示する処理やスタジオモニタ17やユーザ端末40,60,70の表示面に表示する処理等である。
また、以上のような処理の一部をユーザ端末40,60,70と連携して行うようにしてもよい。例えば、RGBカメラ14により取得した実空間の映像データ、デプスカメラ15により取得した三次元位置情報等をユーザ端末40,60,70へ送信する。ユーザ端末40,60,70は、ユーザA,B,Cの動作を検出し、実空間の映像データ、三次元位置情報、ユーザA,B,Cの動作の検出結果に基づいて、最終到達位置までのアイテムの軌跡、アイテムオブジェクトの表示等を自身の表示面に表示する。
〔ユーザ端末40〕
ユーザ端末40は、一例として、ユーザAが管理する装置であり、デスクトップ又はラップトップ型のパーソナルコンピュータ40aとスマートウォッチ50とを備えている。一例として、ラップトップ型のパーソナルコンピュータ40aは、オーディオIF41と、表示IF42と、ネットワークIF43と、通信IF44と、データ記憶部45と、操作IF46と、メインメモリ47と、制御部48とを備えている。オーディオIF41は、スピーカ、イヤホン、ヘッドフォン等の音声出力機器やマイク等の音声入力機器と接続されている。表示IF42は、一例として、液晶表示装置等の表示装置で構成された表示部49と接続されている。
ネットワークIF43は、一例として、ネットワーク2を介してサーバ20と通信する。通信IF44は、一例として、スマートウォッチ50と通信する。通信IF44とスマートウォッチ50とは、無線LANや有線のLANで接続され、スマートウォッチ50からユーザ動作情報としての加速度データ、角度データ、角速度データ等が入力される。データ記憶部45は、不揮発性メモリであり、一例として、ハードディスクやフラッシュメモリである。データ記憶部45は、ライブデータの再生プログラムやスマートウォッチ50との通信制御プログラム等が格納されている。操作IF46は、キーボードやマウス等の操作装置と接続されている。また、表示IF42に接続された表示部49の表示面にタッチパネルが設けられているときには、当該タッチパネルと接続されている。メインメモリ47は、一例として、RAMであり、配信中のライブデータや制御プログラム等を一時的に記憶する。制御部48は、一例として、CPUであり、ユーザ端末40の全体の動作を制御する。一例として、制御部48は、ライブデータを再生しているとき、演者A,B,Cの中から1人又は複数人を選択し、演者選択データをサーバ20に対して送信し、また、アイテムのオブジェクトの一覧の中から1つ又は複数のアイテム選択データをサーバ20に対して送信する。更に、制御部48は、一例として、スマートウォッチ50で検出したユーザ動作情報としての加速度データ、角度データ、角速度データ等の操作データをサーバ20に対して送信する。
スマートウォッチ50は、一例としてユーザAの利き腕の手首等に装着される腕時計型の情報処理端末である。スマートウォッチ50は、センサ51と、通信IF52と、データ記憶部53と、メインメモリ54と、制御部55とを備える。センサ51は、例えば加速度センサやジャイロセンサである。通信IF52は、一例として、センサ51が検出した加速度データやスマートウォッチ50の角度データや角速度データをパーソナルコンピュータ40aに送信する。センサ51は、一例として、ユーザAが物を投げる動作をしたとき、その腕の振りに関するユーザ動作情報としての加速度データ、角度データ、角速度データ等の操作データを通信IF52よりパーソナルコンピュータ40aに送信する。データ記憶部53は、不揮発性メモリであり、一例として、ハードディスクやフラッシュメモリである。データ記憶部53は、センサ51を駆動するドライバやパーソナルコンピュータ40aとの通信制御プログラム等が格納されている。制御部55は、一例として、CPUであり、スマートウォッチ50の全体の動作を制御する。
なお、ユーザ端末40と接続される端末は、スマートウォッチ50ではなく、加速度センサやジャイロセンサを備えスマートフォン等の小型で携帯可能な情報処理端末であってもよい。
〔ユーザ端末60〕
ユーザ端末60は、一例として、ユーザBが管理する装置であり、スマートフォンやタブレット等のスマートデバイス端末である。ユーザ端末60は、一例として、オーディオIF61と、表示IF62と、操作IF63と、センサ64と、ネットワークIF65と、データ記憶部66と、メインメモリ67と、制御部68とを備えている。オーディオIF61は、内蔵スピーカやイヤホン等の音声出力機器や内蔵マイク等の音声入力機器と接続されている。オーディオIF61は、一例として、ライブデータを音声出力機器から放音する。表示IF62は、内蔵の液晶パネル、有機ELパネル等の小型の表示部69と接続されている。表示部69には、タッチパネルが設けられ、操作IF63は、タッチパネルと接続されている。センサ64は、例えば加速度センサやジャイロセンサである。ネットワークIF65は、一例として、ネットワーク2を介してサーバ20と通信する。ネットワークIF65は、一例として、ユーザが物を投げる動作をしたとき、センサ64が検出したユーザ動作情報としての腕の振りに関する加速度データ、角度データ、角速度データの操作データをサーバ20に送信する。また、ライブデータが表示されている表示面を指やスタイラスペンを用いて、表示されている演者A,B,Cの方向へなぞるスワイプ操作が行われたとき、その座標データ等の操作データをサーバ20に送信する。データ記憶部66は、不揮発性メモリであり、一例として、フラッシュメモリである。データ記憶部66は、ライブデータの再生プログラム等が格納されている。メインメモリ67は、一例として、RAMであり、配信中のライブデータや制御プログラム等を一時的に記憶する。
制御部68は、一例として、CPUであり、ユーザ端末60の全体の動作を制御する。一例として、制御部68は、ライブデータを再生しているとき、演者A,B,Cの中から1人又は複数人を選択し、選択データをサーバ20に対して送信し、また、アイテムのオブジェクトの一覧の中から1つ又は複数の選択データをサーバ20に対して送信する。更に、制御部48は、一例として、ユーザがユーザ端末60を持って、物を投げる動作をしたとき、その腕の振りの加速度データ、角度データ、角速度データ、座標データ等の操作データをサーバ20に対して送信する。
以下、ライブ配信システム1の作用について説明する。
〔ライブ配信処理〕
ライブ配信に先立って、先ず、スタジオ10では、デプスカメラ15がスタジオ10における各所の深度情報を取得するとともに、人物領域を算出し、次いで、人物領域において骨格位置を算出しし、各骨格位置における深度情報を算出できるようにする。以後、デプスカメラ15では、モーションキャプチャ処理が実行される。また、ユーザ端末40,60,70は、サーバ20に対してログインし、ライブ配信を視聴可能な状態にする。
図3(a)に示すように、演者A,B,Cが演奏を開始する際、ステップS1において、サーバ20は、コンテンツデータとしてのライブデータを生成する。具体的に、サーバ20には、RGBカメラ14が撮像したスタジオ10において演者A,B,Cが演奏している実空間の映像データが入力される。また、サーバ20には、再生装置11から楽曲データが入力され、マイク13から演者A,B,Cの音声データが入力される。そして、サーバ20は、これらの各種データに基づいて、ユーザ端末40,60,70に対して配信するための演者A,B,Cによるパフォーマンスのライブデータを生成する。また、ステップS2において、サーバ20は、スタジオ10の各所や演者A,B,Cにおける骨格位置の深度情報が入力される。ステップS3において、サーバ20は、ユーザ端末40,60,70に対してライブデータをライブ配信する。すなわち、サーバ20は、演者A,B,Cによる演奏をリアルタイムでユーザ端末40,60,70に対して配信する。これにより、図3(b)に示すように、ユーザ端末40,60,70は、表示面に、ライブデータに基づくライブ映像71が表示され、また、ライブ音声が出力される。
〔アイテム/演者選択処理〕
次に、アイテム/演者選択処理を図4を用いて説明する。ここでは、ユーザBがユーザ端末60でライブデータを視聴し操作する場合を例にとり説明する。ステップS11において、サーバ20は、ユーザ端末60の表示面に、ライブ映像71に重畳するように、選択可能なアイテムのオブジェクトが一覧表示するアイテム選択オブジェクト72を表示する(図5(a)参照)。一例として、図5(a)では、アイテム選択オブジェクト72には、左から順に、花束のアイテムを示すオブジェクト72a、演者の動作を演出するエフェクトを付加するアイテムのオブジェクト72b、猫耳のヘッドバンドのアイテムを示すオブジェクト72c、ライブ配信の背景画像のアイテムを示すオブジェクト72dが一列に列挙されている。
アイテム選択オブジェクト72に列挙されるアイテムは、運営者側によって複数用意されるアイテムである。用意されるアイテムは、ライブ毎に異なっていてもよいし、全てのライブで共通していてもよい。また、複数のライブで一部のアイテムが重複していてもよい。サーバ20のデータベースでは、各アイテムの値段をアイテムIDと関連付けて管理している。サーバ20は、一例として、アイテムIDに関連付けられて当該アイテムを表示するためのアイテムデータとして動画データや画像データや音声データや楽曲データ等を保存している。アイテムデータは、一例として三次元データである。
各アイテムは、有料であり、アイテムに応じて金額が決まっており、アイテムIDに値段が関連付けられている。一例として、アイテムID「A」の花束のアイテムは、200円である。アイテムID「B」のエフェクトを付加するアイテムは、300円である。アイテムID「C」の猫耳のヘッドバンドのアイテムは、500円である。アイテムID「D」の背景画像のアイテム「D」は、1000円である。一例として、図2のデータベースに示されたユーザAは、アイテムID「A」の花束を200円で購入しており、ユーザBは、アイテムID「C」のヘッドバンドを500円で購入しており、ユーザCは、アイテムID「B」のエフェクトを300円で購入している。このように、ユーザA,B,Cは、ユーザ端末40,60,70を介してこれらのアイテムを購入することで、演者A,B,Cに対してアイテムをプレゼントできるようになる。これにより、演者A,B,C及び運営者は、ユーザA,B,Cからプレゼントされたアイテムに応じた売り上げを得ることができる。演者A,B,Cがアイテムを受け取る(例えば拾う)か否かにかかわらず、ユーザA,B,Cがプレゼントしたすべてのアイテムが、演者A,B,C及びその運営者の売り上げとなる。アイテムの中には、無料のアイテムが存在してもよい。また、1つのライブで、1人のユーザが1つのアイテムを購入してもよいし、複数のアイテムを購入してもよい。データベースでは、各ユーザの演者に応じた購入金額の総額を管理している。これにより、一例として、運営者が管理するサーバ20は、多くアイテムを購入したユーザに対して演者から優先的に返礼を行う処理等を行うことができるようになる。
ユーザ端末60でアイテム選択オブジェクト72の一覧の中から1つのアイテムがユーザBにより選択されると、ユーザ端末60は、ユーザIDと選択したアイテムのアイテムIDを含むアイテム選択データをサーバ20に対して送信する。ステップS12において、サーバ20は、アイテム選択データに基づいてアイテムの選択処理を行う。サーバ20は、選択されたアイテムのオブジェクト72cのみをユーザ端末60に表示する選択データをユーザ端末60対して送信し、ユーザ端末60の表示面に、ライブ映像71に対して重畳するように、オブジェクト72cを表示する。図5(b)では、一例として、サーバ20がヘッドバンドのアイテムを示すオブジェクト72cを選択し、ユーザ端末60の表示面の下側の角に表示した状態を示している。あわせて、サーバ20は、演者A,B,Cにも現在アイテム選択処理の状態にあることを知らせるため、スタジオモニタ17にも同様な表示を行う。
また、サーバ20は、ユーザ端末60の表示面に、一例として、演者A,B,Cを1人ずつ囲む演者選択オブジェクト73を表示する。ここで、ユーザ端末60の表示面には、一例として、ユーザBが次に演者選択操作を知らせる第1教示オブジェクト73aもあわせて表示する。ユーザ端末60で1つの演者選択オブジェクト73を選択すると、ユーザ端末60は、ユーザIDと選択した演者の演者IDを含む演者選択データをサーバ20に対して送信する。ステップS13において、サーバ20は、演者選択データに基づいて演者の選択処理を行う。サーバ20は、ユーザ端末60の表示面に、ライブ映像71に重畳するように、選択した演者Aに対して演者決定オブジェクト74を表示する。図5(c)では、一例として、サーバ20が演者Aを選択し、ユーザ端末60の表示面に表示した状態を示している。演者選択オブジェクト73や演者決定オブジェクト74は、四角形状でもよいが、これに限定されるものではなく、例えば円形形状や三角形状であってもよい。あわせて、図5(d)に示すように、サーバ20は、演者A,B,Cにも現在演者選択処理の状態にあることを知らせるため、スタジオモニタ17にも同様な表示を行う。スタジオモニタ17では、ユーザBが選択したアイテムを送ろうとしていることを示す第2教示オブジェクト74aを表示する。
なお、サーバ20は、アイテムと演者が選択されると、データベース26に選択されたアイテムと演者を登録する。
この後、ユーザ端末60のユーザは、ユーザ端末60を操作しながらスタジオ10に居る演者A,B,Cに対してアイテムをプレゼントできる状態となる。具体的に、ユーザ端末60のユーザBは、ユーザ端末60を手に持って物を投げる動作をすることで、選択したアイテムを自分が選択した演者に対して投げる疑似体験をすることができる。具体的に、サーバ20は、ユーザ端末60と同期処理を開始し、ユーザ端末60は、単位時間ごとに、センサ64で検出したユーザ動作情報としての加速度データ、角度データ、角速度データ等の操作データをサーバ20に対して送信する。ステップS14において、サーバ20は、ユーザが投げ動作を行ったことを判定するための閾値を記憶しており、閾値を超えたとき、ユーザ端末60で投げ動作が行われたと判定する。一例として、サーバ20は、投げ動作を特定するため、加速度データ、角度データ、角速度データ等の閾値を記憶している。サーバ20は、加速度データ、角度データ、角速度データ等が閾値を超えたとき、投げ動作が行われたと判定する。また、タッチパネルのスワイプ操作が行われた際の始点と終点の距離等が閾値を超えたとき、投げ動作が行われたと判定する。なお、ユーザ端末40の場合、加速度データ、角度データ、角速度データ等が閾値を超えたとき、投げ動作が行われたと判定する。
ステップS15において、サーバ20は、ユーザ端末60から送信された腕の振りに関する加速度データ、角度データ、角速度データ等の操作データに基づいてユーザの腕の振りの向きや速さ等を解析する。これにより、サーバ20は、投げられたアイテムが投げられたときの軌跡や落下位置であるアイテム位置が算出される。一例として、アイテム位置は、デプスカメラ15の検出部を原点とする三次元座標系等で特定することができる。
ステップS16において、サーバ20は、解析結果に基づいて、ユーザ端末60の表示面に表示する落下するヘッドバンドのアイテムを示す落下オブジェクト75の表示データを生成し、ユーザ端末60に対して送信する。これにより、図5(e)に示すように、ユーザ端末60の表示面には、落下オブジェクト75が演者Aに向かって来るようにリアルタイムに表示される。また、同様の落下オブジェクト75の表示データをスタジオ10のスタジオモニタ17に対して送信し、スタジオモニタ17にも落下オブジェクト75がリアルタイムに表示される。落下オブジェクト75は、スタジオモニタ17やユーザ端末60の表示面に表示するにあたって、スタジオ10の実空間に本来あるべきアイテムオブジェクト位置に表示される。すなわち、アイテムの位置は、スタジオ10の実空間におけるアイテム位置が三次元位置情報によって特定されている。したがって、落下オブジェクト75は、仮にRGBカメラ14の向きを変更したとしても、そのRGBカメラ14の向きで取得している映像のなかでしかるべきアイテムオブジェクト位置に表示される。また、アイテム位置がRGBカメラ14の撮像範囲から外れる場合には、落下オブジェクト75が表示されなくなる。
なお、スタジオモニタ17に落下オブジェクト75を表示する処理は、次のステップS17でプロジェクタ16によってスタジオ10の床面に落下オブジェクト75が表示されることから省略してもよい。
ステップS17において、サーバ20は、プロジェクタ16に対して落下オブジェクト75の表示データを送信し、プロジェクタ16は、スタジオ10の床面において、飛翔した状態で演者Aに向かってくるアイテムのオブジェクトやアイテム位置に落下したアイテムのオブジェクトをリアルタイムに表示する。これにより、演者A,B,Cは、落下オブジェクト75の落下位置を把握することができる。
なお、落下オブジェクト75は、少なくともアイテム位置に表示されえればよく、アイテム位置まで飛翔してくるまでの途中の状態や軌跡は表示しなくてもよい。
また、アイテム位置が演者A,B,Cの行動する演者行動範囲内にならないように落下オブジェクト75を表示してもよい。また、アイテム位置に至るまでの間はオブジェクトが演者行動範囲内に入ってもよいが、ユーザがプレゼントしたアイテムのオブジェクトが最終的に演者行動範囲内に入らないように落下オブジェクト75を表示するようにしてもよい。また、ユーザが演者にアイテムをプレゼントする動作(例えば投げる)を検出して算出したアイテム位置が演者行動範囲内に位置したとしても、演者行動範囲内にオブジェクトを表示しないようにしてもよい。この場合、例えば、算出したアイテム位置を考慮して、演者行動範囲外の近傍(演者行動範囲外であって、算出したアイテム位置に最も近い位置)にオブジェクトを表示する。このような表示形態によれば、演者A,B,Cが誤ってプレゼントされたアイテムを踏んでしまうことを防ぐことができる。
なお、演者行動範囲は、一例として、スタジオ10等におけるステージ等である。また、演者行動範囲は、1曲のなかで前奏、間奏及び後奏の期間と、それ以外の期間とで異なる範囲を設定してもよい。また、曲を演奏している期間と演奏していない期間とで異なる範囲を設定してもよい(例えば曲を演奏している期間は演者が曲に合わせて行動する範囲とし、曲を演奏していない期間は演者行動範囲をなしとする)。更に、演奏中の曲にあわせて異なる範囲を設定してもよいし、ライブ配信している期間はずっと同じ範囲に設定してもよい。演奏に限らず、演技している期間と、演技前後の期間とで異なる範囲を設定してもよい。
更に、アイテムが演者に当たったら、アイテムをその場で落下させたり、アイテムの飛ぶ向きが変わるようにしてもよいし、移動させるようにしてもよい。
〔アイテム取得処理〕
次に、ユーザBがプレゼントしたヘッドバンドのアイテムを演者Aが取得する動作について図6を参照して説明する。
サーバ20では、常時、デプスカメラ15からは各演者A,B,Cの骨格位置と各骨格位置の深度情報が入力されている。また、サーバ20は、RGBカメラ14からの映像から演者A,B,Cの顔検出をしている。これにより、サーバ20は、演者Aの各骨格位置と、当該骨格位置の深度情報と、演者Aの顔の位置を追跡している。ステップS21において、サーバ20は、演者Aがヘッドバンドのアイテムを拾ったと判定する。一例として、サーバ20は、スタジオ10の床に落ちているアイテムを拾う動作を特定するため、左右何れかの手の骨格位置と左右何れかの足の骨格位置の距離や左右何れかの手の骨格位置と床面との距離等に関する閾値を記憶している。サーバ20は、算出した左右何れかの手の骨格位置と左右何れかの足の骨格位置の距離や左右何れかの手の骨格位置とアイテム位置における床面との距離等のデータが閾値を超えたとき、演者Aがヘッドバンドのアイテムを拾ったと判定する。一例として、サーバ20は、左右何れかの手の位置が床面のアイテム位置と重なったとき、演者Aがヘッドバンドのアイテムを拾ったと判定する。換言すると、ユーザから演者にプレゼントされたアイテムのオブジェクトの範囲内に演者が位置したかを判定する。アイテムのオブジェクトの範囲は、一例として、三次元位置情報と、ユーザ動作情報と、アイテムの種類とによって決定される。一例として、ヘッドバンドの場合、ヘッドバンドの外形形状の範囲となる。左右何れかの手の位置と床面のアイテム位置とが重なったかどうかの判定は、一例として、演者の手の位置の三次元情報(1点)とアイテム位置の三次元情報(1点)とが重なったかを判定する。また、一例として、演者の手の位置の三次元情報(複数点)とアイテム位置の三次元情報(1点)とが重なったかを判定する。更に、一例として、演者の手の位置の三次元情報(1点)とアイテム位置の三次元情報(複数点)とが重なったかを判定する。更に、一例として、演者の手の位置の三次元情報(複数点)とアイテム位置の三次元情報(複数点)とが重なったかを判定する。更に、一例として、演者の手の位置の三次元情報(指先等の領域)とアイテム位置の三次元情報(落下オブジェクト75が表示されている領域)とが重なったかを判定する。左右何れかの手の位置と床面のアイテム位置とが重なったかどうかの判定は、演者の手の位置の三次元情報とアイテム位置の三次元情報とが1点ではなく、複数点や領域が重なったかを判定するようにした方が行いやすくなる。
ステップS22において、サーバ20は、スタジオ10の床面に表示している落下オブジェクト75を非表示にする制御を行う。アイテムが演者Aに拾われれば、床面からはアイテムが無くなるからである。
アイテムが演者Aに拾われてから演者Aの頭部に装着されるまでの間は、演者Aの手に持たれることになる。一例として、図7(a)は、演者Aがヘッドバンドのアイテムを拾った状態を示している。そこで、ステップS23において、サーバ20は、演者Aの取得動作を解析する。すなわち、サーバ20は、演者Aの各骨格位置と、当該骨格位置の深度情報と、演者Aの顔の位置からヘッドバンドのアイテムを頭部に装着するまでの動作を解析する。ステップS24において、サーバ20は、解析結果に基づいて、スタジオモニタ17及びユーザ端末60の表示面に、拾ってから頭部に装着するまでのヘッドバンドのアイテムを示す取得オブジェクト76の表示データを生成し、スタジオモニタ17及びユーザ端末60に対して送信する。これにより、一例として、スタジオモニタ17及びユーザ端末60の表示面には、取得オブジェクト76が床面のアイテム位置から頭部に移動するまでの間、拾った手に関連付けられて表示される。
ステップS25において、サーバ20は、演者Aがヘッドバンドのアイテムを頭部に装着する装着動作を解析する。すなわち、サーバ20は、演者Aの各骨格位置と、当該骨格位置の深度情報と、演者Aの顔の位置からヘッドバンドのアイテムを頭部に装着動作を解析する。一例として、サーバ20は、左右何れかの手の位置が頭部の位置と重なったときに装着動作を検出する。ステップS26において、サーバ20は、スタジオモニタ17及びユーザ端末60の表示面に、演者A,B,Cの頭部の装着位置に取得オブジェクト76を表示する表示データを生成し、スタジオモニタ17及びユーザ端末60に対して送信する。一例として、サーバ20は、髪色と背景との境界部分に沿うように取得オブジェクト76を表示する表示データを生成する。これにより、一例として、スタジオモニタ17及びユーザ端末60の表示面には、取得オブジェクト76が演者Aの頭部に装着された状態が表示される(図7(b)参照)。サーバ20は、演者Aの頭部を追跡しており、演者Aが動いたとしても常にヘッドバンドのアイテムが装着されているように表示する。
演者Aは、振り付けによっては、横を向くことがある。このような場合であっても、サーバ20は、演者Aの向きに合わせて、取得オブジェクト76を表示する(図7(c)参照)。各演者Aの向きは、RGBカメラ14からの表示データから演者Aの顔検出をし、デプスカメラ15から演者Aの骨格位置を算出することで判定することができ、アイテムのオブジェクトを表示するデータも三次元データであり、何れの向きからの表示も可能である。これらのデータに基づいて、演者Aが横向きになったことを検出した場合には、演者Aの向きに合わせてヘッドバンドのオブジェクトの向きも変化される。そして、取得オブジェクト76は、演者Aがしゃがんだり、飛び上がったりした場合であっても、演者Aの動作に合わせて表示されることになる。
なお、サーバ20は、選択した演者によってアイテムが取得されると、成功した旨がデータベース26に登録される。
演者Aにヘッドバンドのアイテムが装着されると、ステップS27において、サーバ20は、ヘッドバンドのアイテムを演者AにプレゼントしたユーザBを示すユーザIDのIDオブジェクト76aをスタジオモニタ17及びユーザ端末60の表示面に表示する。これにより、演者Aは、ヘッドバンドのアイテムをプレゼントしてくれたユーザのユーザIDを視認することができ、また、ユーザBも、自分のユーザIDが表示されることで、自分のプレゼントしたヘッドバンドのアイテムが演者Aに装着されたことを視認することができる。なお、サーバ20は、プロジェクタ16でスタジオ10の床面にも表示するようにしてもよい。
アイテムのオブジェクトを演者に関連付けて表示する期間は、取得してからのライブ配信が行われている全期間であってもよいし、1曲毎であってもよい。また、間奏の間は表示しないようにしてもよい。
また、演者が一度装着したアイテムを取り外し、例えばボックス(スタジオに設置する等実在するものでもよいし、アイテムと同様に仮想のオブジェクトにしてもよい。)に収納したり置いたりすることができる。これにより、数多くのアイテムが演者にプレゼントされた場合、演者は複数のプレゼントを装着することができる。例えば演者がヘッドバンドを一度に複数装着することもできるし、それまで演者が装着していたヘッドバンドを外して、新たなヘッドバンドを拾って装着できる。このような場合において、ボックスを机や収納箱のように使用して、違和感なく、ヘッドバンドの付け替え作業等を演出することができる。
〔返礼処理〕
間奏の間は、演者A,B,Cも歌唱を行わないことから、アイテムをプレゼントしてくれたユーザBに対してお返しである返礼の動作を行うことができる。ステップS31において、サーバ20は、ライブ演奏中の楽曲が間奏に入ったかを判定する。サーバ20は、一例として、マイク13からの音声入力が所定期間なかったときに、間奏に入ったと判定することができる。また、サーバ20は、一例として、再生装置11から間奏に入ったことを示す検出信号が入力されたとき、間奏に入ったと判定することができる。また、一例として、間奏に入ったことを示す動作を検出することによって、間奏に入ったと判定することができる。サーバ20は、一例として、ユーザ端末60と同期処理を開始し、ユーザ端末60における表示やユーザ端末60で操作される返礼受取処理を検出できるようにする。
なお、返礼処理は、間奏の間ではなく、曲と曲の間に行ってもよい。また、舞台等で演劇やミュージカル等を行っているときには、第N幕と第N+1幕との間等であってもよい。
なお、間奏の終了は、マイク13からの音声入力があったときや再生装置11から間奏が終了することを示す検出信号が入力されたときに、間奏の終了を判定することができる。また、間奏が終了したことを示す動作を検出することによって、間奏が終了したと判定することができる。
上述したステップS27において、サーバ20は、ヘッドバンドのアイテムを演者AにプレゼントしたユーザBのユーザIDをスタジオモニタ17及びユーザ端末60の表示面に表示している。したがって、演者Aは、ヘッドバンドのアイテムを演者AにプレゼントしたユーザBのユーザIDをマイク13に向かって呼ぶ。すると、ステップS32において、サーバ20は、マイク13で集音した音声データを音声認識し、ユーザBのユーザIDを特定する。なお、サーバ20は、返礼する相手となるユーザに対しては、返礼を行う旨がデータベース26に登録される。
ステップS33において、サーバ20は、演者Aの返礼動作を検出する。サーバ20は、一例として、演者が返礼動作に移行することを示す特徴的な特定動作を検出する。一例として、サーバ20は、特定動作を判定するための各骨格位置の閾値を記憶しており、各骨格位置のデータが閾値を超えたとき、演者Aが特定動作を行ったと判定する。ここで、演者AからユーザBに対する返礼品は、一例として、演者Aのサインボールであり、演者Aは、特定動作に次いで、スタジオ10から実際にはスタジオ10にはいないユーザBに対してサインボールを投げる動作をする。ステップS34において、サーバ20は、演者Aの各骨格位置と、当該骨格位置の深度情報と、演者Aの顔の位置から返礼動作を解析する。ステップS35において、サーバ20は、一例として、スタジオモニタ17及びユーザ端末60の表示面に、演者Aによる投げ動作の開始部分において、演者Aの左右何れかの手の位置にサインボールの返礼オブジェクト77を表示する表示データを生成し、スタジオモニタ17及びユーザ端末60に対して送信する。これにより、図9(a)に示すように、一例として、スタジオモニタ17及びユーザ端末60の表示面には、返礼オブジェクト77がリアルタイムに表示される。また、サーバ20は、スタジオモニタ17及びユーザ端末60の表示面にユーザBの手を模した受取オブジェクト78を表示する表示データを生成し、スタジオモニタ17及びユーザ端末60に対して送信する。受取オブジェクト78がサインボールを投げる際の仮想的な目標となる。
ステップS36において、サーバ20は、演者Aによる投げ動作を解析する。具体的に、サーバ20は、演者Aの各骨格位置と、当該骨格位置の深度情報と、演者Aの顔の位置から演者Aの腕の振り等を検出する。ステップS37において、サーバ20は、スタジオモニタ17及びユーザ端末60の表示面に、投げる動作の途中にある演者Aの左右何れかの手の位置に返礼オブジェクト77を表示する表示データ生成する。また、左右何れかの手から離れ飛翔している状態の返礼オブジェクト77を表示する表示データを生成する。そして、スタジオモニタ17及びユーザ端末60に対して送信する。これにより、図9(b)に示すように、一例として、スタジオモニタ17及びユーザ端末60の表示面には、受取オブジェクト78の方向にサインボールが投げられたようにリアルタイムに表示される。
なお、演者Aのサインボールを投げる腕には、エフェクトを付与するようにしてもよい。一例として、このエフェクトは、演者の動きを検出して、検出した動きに応じたエフェクトとして、多数の点滅する星型図形を移動する演者Aの腕の移動方向の下流側の縁に表示するものである。一例として、エフェクトは、返礼動作を検出した時点で、演者Aのサインボールを投げる腕に関連付けて表示する。そして、投げる動作に移ると、振っている腕の移動に合わせて、腕の移動方向の下流側の縁に表示される。また、返礼動作が検出された時点で、背景画像を返礼処理のときに表示する特定画像に変更してもよい。
ユーザ端末60で返礼オブジェクト77が受取オブジェクト78に届くタイミングで受取操作を行うと、ユーザ端末60は、ユーザIDを含む受取データをサーバ20に対して送信する。受取操作とは、ボールを抱える動作であり、画面の何れかの位置や受取オブジェクト78を、マウスでクリックする操作である。受取操作は、一例として、タッチパネルをタッチする操作である。ステップS38において、サーバ20は、受取データを受信したとき、返礼の受け取った旨をデータベース26に登録する。このとき、サーバ20は、スタジオモニタ17及びユーザ端末60の表示面に、受取オブジェクト78によって返礼オブジェクト77がキャッチされた状態を表示する表示データを生成し、スタジオモニタ17及びユーザ端末60に対して送信する。これにより、図9(c)に示すように、一例として、スタジオモニタ17及びユーザ端末60の表示面には、手でサインボールをキャッチした状態が表示される。
なお、返礼オブジェクト77が受取オブジェクト78に届くタイミングで受取操作を行わなかったときは、ユーザIDを含む受取失敗データをサーバ20に対して送信し、サーバ20は、受取失敗データを受信したとき、返礼の受取を失敗した旨をデータベース26に登録する。
〔他のアイテム〕
図5(a)において示す演者の動作を演出するエフェクトを付加するアイテムのオブジェクト72bは、演者A,B,Cに対して次のようなエフェクトを付加する。図10(a)は、選択された演者Aに対してエフェクトオブジェクト81が付加されている。このエフェクトオブジェクト81の映像は、演者の動きを検出して、検出した動きに応じたエフェクトとして、多数の点滅する星型図形を移動する演者Aの腕の移動方向の下流側の縁に表示している。このようなエフェクトオブジェクト81は、上述のヘッドバンドのように有形の物ではない。図10(b)に示すように、選択した演者Aに対して投げるときは、プレゼント用のリボン等が付いた箱オブジェクト82とする。そして、図10(c)に示すように、選択し演者Aによって取得されたとき、すなわち左右何れかの手の位置がアイテム位置と重なったとき、箱オブジェクト82を非表示とし、以降、エフェクトオブジェクト81を表示する制御を行う。
一例として、演者Aがしゃがんだり、飛び上がったりした場合であっても、演者Aの動作に合わせて表示される。一例として、演者A,B,Cがジャンプする前後でエフェクトを変化させてもよい。一例として、ジャンプ前は点滅する星型図形でエフェクト表示し、ジャンプ後は、異なる図形を点滅表示する。また、一例として、予め複数の特定動作が定義されており、1つの特定動作が検出されたときには、その動作に関連付いた特定のエフェクトを付与する表示を行う。また、一例として、特定動作が検出されたときには、エフェクトを付与する表示を停止する。また、一例として、特定動作が検出されるまでは、エフェクトを付与する表示を行わない。
図10(d)は、ライブ配信の背景画像のアイテムを示すオブジェクト72dが選択された状態を示している。このような背景画像のオブジェクト72dの場合にも、上述のヘッドバンドのように有形の物ではない。このため、選択した演者Aに対して投げるときは、プレゼント用の箱オブジェクト82を使用することが好ましい。
なお、ヘッドバンドのアイテムを選択したときにも、選択した演者Aに対して投げるときは、プレゼント用の箱オブジェクト82を表示するようにしてもよい。
また、返礼オブジェクト77は、返礼をするユーザのユーザ端末40,60,70に対してのみ表示するようにしてもよい。これにより、演者とユーザの1対1のコミュニケーションを実現することができる。
〔他のアイテム/演者選択処理〕
以上の例においては、ユーザBが演者Aを選択した場合を説明したが、演者Aの代わりに演者Bや演者Cを選択可能であるし、1人のユーザが1つのユーザ端末40,60,70から演者Aと共に、複数の演者、例えば演者Bや演者Cを選択してもよい。複数の演者を選択した場合において、ライブ配信の背景画像のアイテムを示すオブジェクト72d以外であれば、異なるアイテムが選択されてもよいし、同じアイテムが選択されてもよい。
上記ライブ配信システム1によれば、以下に列挙する効果を得ることができる。
(1)ライブ配信システム1では、ユーザ欲求として、例えばユーザは演者にアイテムを受け取ってほしい気持ちから、演者に受け取ってもらえるまでアイテムを購入して演者へプレゼントする。また、ユーザは演者に受け取ってもらえる可能性を少しでも高めたいと思うがために、少しでも演者の近くにアイテムを投げようとする。また、ユーザ間競争意識として、例えば自分は演者にアイテムを受け取ってもらったことがある、お返しをもらったことがあるといった競争意識が生まれる。これにより、ユーザによるアイテム購入を促すことができる。このように、運営者および演者の収益を高めることができる。
(2)スタジオ10にユーザA,B,Cは、スタジオ10で演奏している演者A,B,Cに対してアイテムをスタジオ10に対して投げるような動作をしてプレゼントすることができる。プレゼントされたアイテムは、スタジオ10の床面に落下オブジェクト75として表示される。これにより、演者A,B,Cも、ファン等のユーザA,B,Cからアイテムがプレゼントされたことを視認することができる。また、ユーザ端末40,60,70にも演者A,B,Cの前に表示されることから、ユーザA,B,Cも自分が投げたアイテムが演者A,B,Cの前に届いたことを視認することができる。このように、ユーザA,B,Cは、実際にスタジオ10に居なくても、スタジオ10に居るかのようにユーザ端末40,60,70から演者A,B,Cに対してアイテムをプレゼントすることができる。また、演者A,B,Cも、実際のプレゼントを受け取るような振る舞いを行うことができる。
(3)プレゼントした演者A,B,Cがスタジオ10の床面に表示されたアイテムのオブジェクトを拾う振りをした場合、ユーザ端末40,60,70には、プレゼントした演者A,B,Cが実際に身に着けたように表示される。したがって、プレゼントしたユーザは、自分がプレゼントしたアイテムを受け取ってもらえたことを視認することができる。
(4)ユーザがスタジオ10で演奏している演者A,B,Cに対してアイテムをスタジオ10に対して投げるような動作をしてプレゼントしたとき、ユーザ端末40,60,70からは腕の振りに関する加速度データ、角度データ、角速度データ等の操作データが送信される。したがって、腕の振りの速さ等に応じて、アイテムが落ちるアイテム位置を変えることができる。したがって、ユーザA,B,Cは、なるべくアイテムが選択した演者A,B,Cの前に落下するように、腕の振りの速さ等を調整することができ、娯楽性を高めることができる。
(5)演者A,B,Cには、アイテムをプレゼントしたユーザA,B,CのユーザIDを視認させることができる。
(6)演者A,B,Cは、プレゼントしてくれたユーザA,B,Cに対して返礼をすることができる。これにより、演者A,B,Cとユーザとの間で双方向のコミュニケーションを実現することができる。
(7)返礼のアイテムも、演者A,B,Cの動作に応じて、ユーザ端末40,60,70に表示することができる。さらに、返礼のアイテムをタイミング良くキャッチする操作をユーザ端末40,60,70で行うことができるようにすることで、一層、娯楽性を高めることができる。
なお、上記ライブ配信システムは、以下のように適宜変更して実施することもできる。
・演者A,B,Cは、プレゼントしてくれたユーザA,B,Cに対して返礼をする場合において、返礼オブジェクト77を使用して演者A,B,Cが返礼の動作を行わなくてもよい。この場合、プレゼントしてくれたユーザA,B,Cに対して、返礼の有形プレゼントを郵送するようにしてもよい。これにより、ライブ配信システム1の処理を簡素化することができる。
・返礼品は、有形のプレゼントは、実際の物をユーザA,B,Cに対して後日郵送されるようにしてもよい。郵送の際には、実際のサインボールではなく、色紙や演者に関連するグッズやCDやDVD等のアルバム、コンサートの優待券等であってもよい。返礼を郵送する場合は、データベース26において、返礼の受け取った旨が登録されているユーザに対して行う。この場合の送り主は、演者A,B,Cであってもよいし、本システムの運営者であってもよい。なお、受取失敗の場合、そのユーザは、有形のプレゼントも受け取ることができない(郵送されない)ようにしてもよい。
・演者A,B,Cは、プレゼントしてくれたユーザA,B,Cに対して返礼を行わなくてもよい。すなわち、サーバ20は、返礼処理を省略してもよいし、また、アイテムを受け取ったとしても、返礼品を郵送しなくてもよい。
・一例として、プレゼントしてくれたユーザA,B,Cに対して返礼を行わない場合、ユーザIDとプレゼントしたアイテムとを関連付けて管理しなくてもよい。これにより、ライブ配信システム1の処理を簡素化することができる。
・ユーザ端末60のように、タッチパネルを備えている場合、ライブデータが表示されている表示面を指やスタイラスペンを用いて、表示されている演者A,B,Cの方向へなぞる操作を行って、選択した演者A,B,Cに対してアイテムをプレゼントする操作を行うようにしてもよい。この場合、ユーザ端末には、加速度センサやジャイロセンサが不要となる。また、タッチパネルを備えないユーザ端末をユーザが使用している場合には、マウスを用いて、ポインタを表示されている演者A,B,Cの方向へ移動させる操作を行って、選択した演者A,B,Cに対してアイテムをプレゼントする操作を行うようにしてもよい。
・少なくとも、演者A,B,Cに投げたアイテムの落下オブジェクトは、アイテム位置に少なくとも表示されればよく、落下オブジェクトがアイテム位置に届くまでの軌跡は省略してもよい。
・演者が実演する実空間は、スタジオ10以外であってもよく、ライブ会場やコンサート会場であってもよい。この場合、プロジェクタ16は、ステージにアイテムのオブジェクトを表示することになり、ユーザは、観客席に居ながら、ユーザ端末60のような自身の小型で携帯可能な情報処理端末を用いて演者に対してアイテムを投げる操作を行うことができる。
・アイテムのオブジェクトをスタジオ10に表示する手段は、プロジェクタ16に限定されるものではない。一例として、スタジオ10の床を、液晶表示パネル等の複数のフラット表示パネルを表示面が床面を向くように並べ、表示面の上に透明な合成樹脂板を敷いて構成し、床面に、アイテムのオブジェクトを表示するようにしてもよい。また、アイテム位置をレーザポインタで指し示すだけでもよい。空中ディスプレイ技術、空中結像技術、エアリアルイメージング技術を用いてアイテムを表示するようにしてもよい。アイテムは、二次元画像(コンピュータグラフィックス(CG))または三次元画像(コンピュータグラフィックス(CG))で表示するようにしてもよい。さらに、床面に多数のロッドを敷き詰め床面に対して垂直方向にロッドを昇降させて、床面を波状に変化させることによって、アイテムのオブジェクトを表すようにしてもよい。また、アイテムのオブジェクトをスタジオ10に表示する手段は、これらの装置を組み合わせたものであってもよい。
・返礼のアイテムをデータベース26に登録し、次回のライブのときに、返礼のアイテムを演者に投げるようにしてもよい。このようなアイテムは、ユーザが購入することができない非売品アイテムである。当該アイテムと他のユーザのアイテムとが競合したときには、当該アイテムを優先して演者が装着する制御を行うようにしてもよい。非売品のアイテムとしては、装飾具でもよいし、エフェクトを付与するものでもよいし、背景画像であってもよい。
・演者やユーザによる特定の動作(例えば物を投げる動作、又、どの方向へ、どの程度の強さで投げたのか)は、スマートウォッチ50の検出部やスマートデバイス端末60aの検出部による検出結果に基づいて判定(検出)するものに限定されない。例えばカメラで取得した映像に基づいて、フレーム間差分や動きベクトルを算出して、判定するようにしてもよい。
一例として、ユーザA,B,Cが演者A,B,Cへアイテムをプレゼントする際にユーザが行う動作を加速度センサやジャイロセンサを用いて検出するのではなく、例えば、次のように行う。ユーザの正面に、ウェブカメラ、ビデオカメラ等動画撮影機能を有するカメラを設置する。ここでのカメラは、一例として、ラップトップ型のパーソナルコンピュータに一体に設けられたウェブカメラであり、一例として、デスクトップ型パーソナルコンピュータに接続されたウェブカメラやビデオカメラである。また、一例として、スマートデバイス端末に内蔵されたカメラである。そして、ユーザ端末40,60,70、サーバ20、又は、それ以外の他の装置は、ビデオデータを構成するフレームのフレーム間差分によってユーザの物を投げる動きデータを算出し、動きデータに基づいて投げる動作を検出する。又は、基準となるフレームからのオブジェクトの動きベクトルを検出して、ユーザの物を投げる動作を検出する。この後、スタジオ10の床面のアイテム位置やユーザ端末40,60,70の表示面に、アイテムの軌跡やアイテムを演者A,B,Cが認識できるように表示されるようになる。
また、ユーザA,B,Cが演者A,B,Cへプレゼントしたアイテムを演者A,B,Cが取得する動作を上述したフレーム間差分や動きベクトルを用いた画像解析を用いて検出してもよい。一例として、演者A,B,Cがアイテムを拾うときのしゃがんだり屈んだりする動作やアイテムに触る又はアイテムが表示されたアイテム位置を触る動作を上記画像解析で検出する。この後、演者A,B,Cがアイテムを装着したり演者A,B,Cに対してエフェクトを付加する処理を行うことができる。
更に、演者A,B,Cが取得したアイテムを装着する動作を上記画像解析等を用いて検出してもよい。一例として、演者A,B,C自身の頭部へアイテムを移動する動作を上記画像解析で検出することができる。
更に、演者A,B,CがユーザA,B,Cへアイテムを返礼する動作を上記画像解析処理を用いて検出してもよい。一例として、スタジオ10で演者A,B,Cが上記画像解析で検出することができる。
すなわち、演者A,B,Cの行う動作を深度情報を用いることなく上記画像解析処理で検出することもできるし、ユーザA,B,Cが行う動作を上記画像解析処理で検出することができる。
・操作データとしては、加速度データ、角度データ、角速度データのすべてではなく、動きデータとしての少なくとも加速度データだけでもよい。加速度データにより、投げられたアイテムの飛距離等を算出することができるからである。
・スタジオ10において、スタジオモニタ17は省略してもよい。この場合、アイテムのオブジェクトを投げたユーザのユーザIDのIDオブジェクト76a等は、プロジェクタ16で表示するようにすればよい。
・演者A,B,Cに対してアイテムが多くプレゼントされ過ぎた場合、スタジオモニタ17やユーザ端末40,60,70の表示面に、アイテムのオブジェクトが表示され過ぎてしまう。同様に、スタジオ10の床面には、プロジェクタ16によってアイテムのオブジェクトが表示され過ぎてしまう。このような場合、サーバ20は、参加するユーザ端末の数が閾値を超えると、ランダムにユーザ端末を抽出し、抽出したユーザ端末からのアイテムのオブジェクトをスタジオモニタ17やユーザ端末40,60,70の表示面に表示する。また、サーバ20は、抽出したユーザ端末からのアイテムのオブジェクトをプロジェクタ16によってスタジオ10の床面に表示する。
・ユーザA,B,Cから演者A,B,Cへのプレゼントとしてのアイテムや演者A,B,CからユーザA,B,Cへの返礼アイテムは、一例として、ユーザA,B,Cから演者A,B,Cに対して、単に「送る」ものがある。また、一例として、ユーザA,B,Cから演者A,B,Cに対して、ユーザA,B,Cが演者A,B,Cに感謝したり祝福したり応援する気持ちを込めて「贈る」ものがある。更に、一例として、ユーザA,B,Cから演者A,B,Cに対して、ユーザA,B,Cが購入したアイテム(所有物)を演者A,B,Cに「与える」ものがある。更に、一例として、ユーザA,B,Cが購入したアイテム(所有権)を演者A,B,Cに「渡す」ものがある。
・アイテムとしては、ユーザA,B,Cから演者A,B,Cへプレゼントされるアイテムは、ユーザ端末40,60,70の表示面やスタジオモニタ17の表示面に単に表示するものであってもよい。このようなアイテムは、図5(a)に示すアイテム選択オブジェクト72の中から選択することもできるし、アイテム選択オブジェクト72とは関係なく、ユーザが自作した演者の舞台を華やかにする画像データ等のアイテムであってもよい。このような、ユーザ端末40,60,70の表示面やスタジオモニタ17の表示面に単に表示するだけのアイテムは、一例として、ユーザがアイテムを購入したときに課金される。なお、自作のアイテムの場合は無料であってもよい。
ヘッドバンドといった演者A,B,Cが装着する装着具のアイテムやエフェクトのアイテムは、実際に演者A,B,Cがアイテムを取得したときにも更に課金するようにしてもよい。すなわち、ユーザA,B,Cがアイテムを購入したときと演者A,B,Cがアイテムを取得したときの2回課金を行うようにしてもよい。なお、演者A,B,Cがアイテムを取得したときだけ課金するようにしてもよい。
・演者A,B,CからユーザA,B,Cへの返礼として、返礼を受けたユーザのみが見られる単なる表示や演出であってもよい。この場合、一例として、演者A,B,CからユーザA,B,Cへ返礼する動作は行わなくてもよい。そして、このような場合は、サインボール等の実物をユーザA,B,Cに対して郵送等しなくてもよい。
・アイテムとしては、ユーザA,B,Cがソフトウェアを使用して作成した画像データや動画データを含んだ簡易式プログラムであってもよい。簡易式プログラムとしては、一例として、オブジェクトの動きを含んだ演者のステージを華やかにする演出等のエフェクトのプログラムである。
1…ライブ配信システム、2…ネットワーク、10…スタジオ、11…再生装置、12…スピーカ、13…マイク、14…RGBカメラ、15…デプスカメラ、16…プロジェクタ、17…スタジオモニタ、18…アイテム、20…サーバ、21…オーディオIF、22…RGBカメラIF、23…デプスカメラIF、24…プロジェクタIF、25…表示IF、26…データベース、27…データ記憶部、28…ネットワークIF、29…メインメモリ、30…制御部、40…ユーザ端末、41…オーディオIF、42…表示IF、43…ネットワークIF、44…通信IF、45…データ記憶部、46…操作IF、47…メインメモリ、48…制御部、49…表示部、50…スマートウォッチ、51…センサ、52…通信IF、53…データ記憶部、54…メインメモリ、55…制御部、60…ユーザ端末、60a…スマートデバイス端末、61…オーディオIF、62…表示IF、63…操作IF、64…センサ、65…ネットワークIF、66…データ記憶部、67…メインメモリ、68…制御部、69…表示部、70…ユーザ端末、71…ライブ映像、72…アイテム選択オブジェクト、72a…オブジェクト、72b…オブジェクト、72c…オブジェクト、72d…オブジェクト、73…演者選択オブジェクト、73a…第1教示オブジェクト、74…演者決定オブジェクト、74a…第2教示オブジェクト、75…落下オブジェクト、76…取得オブジェクト、76a…IDオブジェクト、77…返礼オブジェクト、78…受取オブジェクト、81…エフェクトオブジェクト、82…箱オブジェクト。

Claims (13)

  1. 被写体が存在する実空間の映像を表示装置に表示させる表示装置制御部と、
    前記実空間の三次元位置情報を取得する取得部と、
    ユーザ動作を検出する検出部と、
    前記取得部が取得した三次元位置情報と、前記検出部が検出したユーザ動作のユーザ動作情報とに基づいて、アイテムの映像を前記被写体が認識できるように前記実空間上に表示するアイテム表示制御部と
    を備えた表示制御システム。
  2. 前記ユーザ動作は、ユーザのスマートデバイス端末により検出される
    請求項1に記載の表示制御システム。
  3. 前記ユーザ動作は、前記ユーザが物を投げる動作である
    請求項2に記載の表示制御システム。
  4. 前記ユーザ動作情報は、前記ユーザの動きデータである
    請求項3に記載の表示制御システム。
  5. 前記表示装置制御部は、前記映像において、前記アイテムに対応するアイテムオブジェクトを配置すべきアイテムオブジェクト位置を算出し、前記映像と前記アイテムオブジェクトとを、前記アイテムオブジェクトが前記アイテムオブジェクト位置に表示されるように表示装置に表示させる
    請求項1ないし4のうち何れか1項に記載の表示制御システム。
  6. 前記検出部が前記アイテムの範囲内に前記被写体としての演者が位置したと判定した場合、前記表示装置制御部は、前記アイテムオブジェクトを前記演者に関連付けて表示装置に表示させる
    請求項5に記載の表示制御システム。
  7. 前記アイテムの範囲は、前記取得部が取得した三次元位置情報と、前記検出部が検出し
    たユーザ動作情報と、前記アイテムの種類とに基づいて決定する
    請求項6に記載の表示制御システム。
  8. 前記表示装置制御部は、前記被写体としての演者がユーザに返礼アイテムをプレゼントするための動作をしたと判定した場合、前記ユーザに前記返礼アイテムを付与する
    請求項1ないし7のうち何れか1項に記載の表示制御システム。
  9. 前記表示装置制御部は、前記ユーザが受取動作を行ったと判定したときは前記ユーザに前記返礼アイテムを付与し、前記ユーザが受取動作を行っていないと判定したとき前記ユーザに前記返礼アイテムを付与しない
    請求項8に記載の表示制御システム。
  10. 前記表示装置制御部は、返礼に関連する表示を、前記返礼アイテムの相手となるユーザ端末の表示装置のみ表示し、それ以外のユーザのユーザ端末の表示装置には表示しない
    請求項9に記載の表示制御システム。
  11. 前記アイテムは、ユーザが購入したアイテムである
    請求項1ないし10のうち何れか1項に記載の表示制御システム。
  12. 前記アイテム表示制御部は、前記アイテムの映像としてアイテムオブジェクトを表示する、
    請求項1ないし4のうち何れか1項に記載の表示制御システム。
  13. 表示装置制御部によって、被写体が存在する実空間の映像を表示装置に表示させ、
    取得部によって、前記実空間の三次元位置情報を取得し、
    検出部によって、ユーザ動作を検出し、
    アイテム表示制御部によって、前記取得した三次元位置情報と、前記検出したユーザ動作のユーザ動作情報とに基づいて、アイテムの映像を前記被写体が認識できるように前記実空間上に表示する表示制御方法。
JP2018565130A 2017-01-31 2017-01-31 表示制御システム、及び、表示制御方法 Active JP6965896B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/003496 WO2018142494A1 (ja) 2017-01-31 2017-01-31 表示制御システム、及び、表示制御方法

Publications (2)

Publication Number Publication Date
JPWO2018142494A1 JPWO2018142494A1 (ja) 2019-11-21
JP6965896B2 true JP6965896B2 (ja) 2021-11-10

Family

ID=63040375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018565130A Active JP6965896B2 (ja) 2017-01-31 2017-01-31 表示制御システム、及び、表示制御方法

Country Status (4)

Country Link
JP (1) JP6965896B2 (ja)
CN (1) CN110249631B (ja)
TW (1) TWI701628B (ja)
WO (1) WO2018142494A1 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114915827A (zh) 2018-05-08 2022-08-16 日本聚逸株式会社 动态图像分发系统及其方法和记录介质
KR102585051B1 (ko) 2018-05-08 2023-10-04 그리 가부시키가이샤 액터의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
US11128932B2 (en) 2018-05-09 2021-09-21 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of actors
KR102490402B1 (ko) * 2018-08-28 2023-01-18 그리 가부시키가이샤 배신 유저의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 라이브 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
JP6550549B1 (ja) * 2019-04-25 2019-07-24 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6523586B1 (ja) * 2019-02-28 2019-06-05 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
US11044535B2 (en) * 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
JP6491388B1 (ja) * 2018-08-28 2019-03-27 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6713080B2 (ja) * 2019-07-01 2020-06-24 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
US11736779B2 (en) * 2018-11-20 2023-08-22 Gree, Inc. System method and program for distributing video
JP6671528B1 (ja) * 2019-07-01 2020-03-25 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
JP6543403B1 (ja) * 2018-12-12 2019-07-10 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
US11997368B2 (en) * 2018-12-12 2024-05-28 GREE Inc. Video distribution system, video distribution method, and storage medium storing video distribution program
JP6550546B1 (ja) * 2019-03-26 2019-07-24 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
JP7277145B2 (ja) * 2019-01-10 2023-05-18 株式会社Iriam キャラクタを使ったライブ通信システム
JP6809719B2 (ja) * 2019-02-15 2021-01-06 ステルスバリュー合同会社 情報処理装置及びプログラム
JP7236632B2 (ja) 2019-03-26 2023-03-10 株式会社Mixi サーバ装置、サーバ装置用プログラム及び端末装置用プログラム
JP6748753B1 (ja) 2019-04-02 2020-09-02 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
US11559740B2 (en) 2019-09-13 2023-01-24 Gree, Inc. Video modification and transmission using tokens
JP7360112B2 (ja) * 2019-09-27 2023-10-12 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
JP6751193B1 (ja) * 2019-10-31 2020-09-02 グリー株式会社 動画処理方法、サーバ装置及びコンピュータプログラム
US11682154B2 (en) 2019-10-31 2023-06-20 Gree, Inc. Moving image processing method of a moving image viewed by a viewing user, a server device controlling the moving image, and a computer program thereof
JP7133590B2 (ja) * 2020-08-13 2022-09-08 グリー株式会社 動画処理方法、サーバ装置及びコンピュータプログラム
JP7046044B6 (ja) * 2019-11-08 2022-05-06 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
JP7261727B2 (ja) 2019-11-20 2023-04-20 グリー株式会社 動画配信システム、動画配信方法及びサーバ
US11595739B2 (en) 2019-11-29 2023-02-28 Gree, Inc. Video distribution system, information processing method, and computer program
JP7336798B2 (ja) * 2019-11-29 2023-09-01 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7134197B2 (ja) * 2020-05-01 2022-09-09 グリー株式会社 動画配信システム、情報処理方法およびコンピュータプログラム
JP6766246B1 (ja) * 2019-12-19 2020-10-07 株式会社ドワンゴ 管理サーバ、ユーザ端末、ギフトシステムおよび情報処理方法
WO2021145023A1 (ja) 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置及び情報処理端末
JP6798733B1 (ja) * 2020-01-20 2020-12-09 合同会社Mdk 対価連動型動作誘起方法及び対価連動型動作誘起プログラム
JP6788756B1 (ja) * 2020-01-27 2020-11-25 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP6803485B1 (ja) * 2020-01-27 2020-12-23 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7034191B2 (ja) * 2020-01-30 2022-03-11 株式会社ドワンゴ 管理サーバ、ギフトシステムおよび情報処理方法
CN115039410B (zh) * 2020-02-12 2024-10-15 索尼集团公司 信息处理系统、信息处理方法和程序
CN111523545B (zh) * 2020-05-06 2023-06-30 青岛联合创智科技有限公司 一种结合深度信息的物品查找方法
JP7104097B2 (ja) * 2020-06-02 2022-07-20 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7284329B2 (ja) * 2020-06-02 2023-05-30 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7145266B2 (ja) * 2020-06-11 2022-09-30 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7521779B2 (ja) * 2020-06-12 2024-07-24 株式会社コナミデジタルエンタテインメント 映像配信システム、それに用いるコンピュータプログラム、及び制御方法
JP7093383B2 (ja) * 2020-08-07 2022-06-29 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
JP7175299B2 (ja) * 2020-08-21 2022-11-18 株式会社コロプラ プログラム、方法、およびコンピュータ
WO2022059686A1 (ja) * 2020-09-16 2022-03-24 日本紙工株式会社 映像評価システム、映像評価プログラム、映像評価方法
JP6841465B1 (ja) * 2020-10-02 2021-03-10 合同会社Mdk 対価連動型動作誘起方法及び対価連動型動作誘起プログラム
JP2022096096A (ja) * 2020-12-17 2022-06-29 株式会社ティーアンドエス 映像配信方法及びそのためのプログラム
JPWO2022149517A1 (ja) * 2021-01-05 2022-07-14
CN112929685B (zh) * 2021-02-02 2023-10-17 广州虎牙科技有限公司 Vr直播间的互动方法、装置、电子设备和存储介质
JP7156735B1 (ja) 2021-10-26 2022-10-20 合同会社Mdk プログラム、管理サーバ装置、コンテンツ配信管理方法、コンテンツ配信方法
JP7563704B2 (ja) 2022-07-07 2024-10-08 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7349689B1 (ja) 2022-09-07 2023-09-25 義博 矢野 情報処理方法及び情報処理システム
CN116320508A (zh) * 2022-09-07 2023-06-23 广州方硅信息技术有限公司 直播互动方法、计算机设备及存储介质
US20240153350A1 (en) 2022-11-04 2024-05-09 17Live Japan Inc. Gift box event for live streamer and viewers

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4696018B2 (ja) * 2006-04-13 2011-06-08 日本電信電話株式会社 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム
WO2008153599A1 (en) * 2006-12-07 2008-12-18 Adapx, Inc. Systems and methods for data annotation, recordation, and communication
JP2012120098A (ja) * 2010-12-03 2012-06-21 Linkt Co Ltd 情報提供システム
CN104516492A (zh) * 2013-09-28 2015-04-15 南京专创知识产权服务有限公司 一种基于3d全息投影的人机交互技术
JP5726987B2 (ja) * 2013-11-05 2015-06-03 株式会社 ディー・エヌ・エー コンテンツの配信システム、配信プログラム及び配信方法
JP5530557B1 (ja) * 2013-12-13 2014-06-25 株式会社 ディー・エヌ・エー コンテンツを配信するサーバ、プログラム及び方法
JP5902768B2 (ja) * 2014-07-22 2016-04-13 トモヤ 高柳 コンテンツ配信システム
CN104363519B (zh) * 2014-11-21 2017-12-15 广州华多网络科技有限公司 一种基于在线直播的信息显示方法、相关装置及系统
US9846968B2 (en) * 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
US20160330522A1 (en) * 2015-05-06 2016-11-10 Echostar Technologies L.L.C. Apparatus, systems and methods for a content commentary community
CN105373306B (zh) * 2015-10-13 2018-10-30 广州酷狗计算机科技有限公司 虚拟物品赠送方法及装置
CN106231368B (zh) * 2015-12-30 2019-03-26 深圳超多维科技有限公司 主播类互动平台道具呈现方法及其装置、客户端
CN106231435B (zh) * 2016-07-26 2019-08-02 广州华多网络科技有限公司 网络直播间内赠送电子赠品的方法、装置和终端设备
CN106131536A (zh) * 2016-08-15 2016-11-16 万象三维视觉科技(北京)有限公司 一种裸眼3d增强现实互动展示系统及其展示方法
CN106331735B (zh) * 2016-08-18 2020-04-21 北京奇虎科技有限公司 一种特效处理方法、电子设备及服务器
CN106355440A (zh) * 2016-08-29 2017-01-25 广州华多网络科技有限公司 群组内赠送电子赠品的控制方法和装置

Also Published As

Publication number Publication date
TW201832161A (zh) 2018-09-01
WO2018142494A1 (ja) 2018-08-09
JPWO2018142494A1 (ja) 2019-11-21
CN110249631A (zh) 2019-09-17
TWI701628B (zh) 2020-08-11
CN110249631B (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
JP6965896B2 (ja) 表示制御システム、及び、表示制御方法
JP6382468B1 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6420930B1 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6431233B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP6809830B2 (ja) プログラム及び電子機器
WO2020027226A1 (ja) 表示制御システム、表示制御方法、及び、表示制御プログラム
CN110460892B (zh) 动态图像分发系统、动态图像分发方法以及记录介质
US20220095008A1 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and video distribution program
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JPWO2019234879A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
CN110460893B (zh) 动态图像分发系统及其方法和记录介质
JP2024023273A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2019198060A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6498832B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2020043578A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7357865B1 (ja) プログラム、情報処理方法、及び情報処理装置
JP6764442B2 (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6431242B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
WO2022102550A1 (ja) 情報処理装置及び情報処理方法
JP2019198057A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020005238A (ja) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2019198065A (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6965896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250