JP2019146148A - コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム - Google Patents
コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム Download PDFInfo
- Publication number
- JP2019146148A JP2019146148A JP2018216905A JP2018216905A JP2019146148A JP 2019146148 A JP2019146148 A JP 2019146148A JP 2018216905 A JP2018216905 A JP 2018216905A JP 2018216905 A JP2018216905 A JP 2018216905A JP 2019146148 A JP2019146148 A JP 2019146148A
- Authority
- JP
- Japan
- Prior art keywords
- virtual character
- viewpoint
- viewer
- video
- content distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
【課題】仮想キャラクタが参加するライブコンテンツのコンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラムを提供する。【解決手段】コンテンツ配信システム1において、仮想キャラクタを表示する仮想キャラクタ表示装置50と、番組のセットを仮想キャラクタの視点に基づいて撮影する仮想キャラクタ視点撮影手段103aと、仮想キャラクタ視点撮影手段が撮影した映像に応じて生成された演技情報に基づいて、仮想キャラクタの表示データを作成する表示データ作成手段203と、作成された表示データに基づいた仮想キャラクタが表示された仮想キャラクタ表示装置を含む番組のセットを視聴者の視点に基づいて撮影する視聴者視点撮影手段104aと、を備えるスタジオと、視聴者視点撮影手段が撮影した映像をネットワークを介して配信する視聴者映像配信手段101を備えるコンテンツ配信サーバを有する。【選択図】図1
Description
本開示は、仮想キャラクタが参加する公開番組等のライブコンテンツを配信するコンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラムに関する。
従来からCG(Computer Graphics)で仮想空間上に表示させる人物や動物等のキャラクタを生成する技術が知られている。例えば、特許文献1は、3次元仮想空間上で動作する仮想キャラクタを容易に生成する装置を開示している。
また、そのように生成された仮想キャラクタを、動画コンテンツの演者として出演させる技術が提案されている。例えば、仮想キャラクタの映像と、その背景の映像とを合成してコンテンツを作成する。視聴者は、仮想空間上で仮想キャラクタの愛くるしい演技などを楽しむことができる。
上述のような仮想キャラクタを、仮想キャラクタのみを出演させるのではなく、現実の人物と共演させたいというニーズがある。例えば、スタジオで撮影された現実の人物の映像と、仮想キャラクタの映像とを合成することで、視聴者は、現実の人物と仮想キャラクタとが同じ空間にいるような雰囲気を楽しむことができる。
しかしながら、上述のように合成された映像では現実の人物と仮想キャラクタとが同じ空間に存在するように表示されているものの、実際のスタジオでは現実の人物しか存在していない。このため、視聴者がスタジオに行って番組にライブ参加するような公開番組では、参加者はスタジオで番組に出演する現実の人物しか見ることができず、参加者が仮想キャラクタと同じ空間に居る雰囲気を味わうことは難しい。
また、仮想キャラクタと共演する現実の人物は、仮想キャラクタの動きを想定して演技するものの、実際の動きに対してリアクションするわけではないので、自然な演技を行うことは容易ではない。
そこで、本開示では、仮想キャラクタが参加する公開番組等のライブコンテンツを楽しむことができるコンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラムを提供することを目的とする。
上記の課題を解決するために、本開示のコンテンツ配信システムは、仮想キャラクタが参加する番組をネットワークを介して配信するシステムであって、仮想キャラクタを表示する仮想キャラクタ表示装置と、番組のセットを、仮想キャラクタの視点に基づいて撮影する仮想キャラクタ視点撮影手段と、仮想キャラクタ視点撮影手段が撮影した映像に応じて生成された演技情報に基づいて、仮想キャラクタの表示データを作成する表示データ作成手段と、作成された表示データに基づいた仮想キャラクタが表示された仮想キャラクタ表示装置を含む番組のセットを、視聴者の視点に基づいて撮影する視聴者視点映像撮影手段と、視聴者視点撮影手段が撮影した映像をネットワークを介して配信する視聴者映像配信手段と、を備える。
また、本開示のコンテンツ配信方法は、仮想キャラクタが参加する番組をネットワークを介して配信する方法であって、仮想キャラクタを仮想キャラクタ表示装置に表示するステップと、番組のセットを、仮想キャラクタの視点に基づいて撮影する仮想キャラクタ視点撮影ステップと、仮想キャラクタ視点撮影ステップにおいて撮影した映像に応じて生成された演技情報に基づいて、仮想キャラクタの表示データを作成する表示データ作成ステップと、作成された表示データに基づいた仮想キャラクタが表示された仮想キャラクタ表示装置を含む番組のセットを、視聴者の視点に基づいて撮影する視聴者視点映像撮影ステップと、視聴者視点撮影ステップにおいて撮影した映像をネットワークを介して配信する視聴者映像配信ステップと、を備える。
また、本開示のコンテンツ配信プログラムは、上述のコンテンツ配信方法をコンピュータによって実現させる。
本開示によれば、仮想キャラクタが参加した公開番組等のライブコンテンツを配信することができる。
以下、本開示に係る実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。また、本実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。
<実施形態1>
本実施形態に係るコンテンツ配信システムは、仮想キャラクタが出演者としてタレントとスタジオで共演する公開番組等のライブコンテンツを配信するシステムである。
本実施形態に係るコンテンツ配信システムは、仮想キャラクタが出演者としてタレントとスタジオで共演する公開番組等のライブコンテンツを配信するシステムである。
仮想キャラクタを表示させた表示装置をスタジオに設置して仮想キャラクタを番組に出演させることで、仮想キャラクタと現実の人物とが実際のスタジオで共演する演出が可能となる。これにより、スタジオの観覧者や、番組の視聴者は現実の人物と仮想キャラクタとが実際にスタジオにいるような雰囲気を味わうことができる。また、仮想キャラクタと共演する現実の人物は、仮想キャラクタの動作を見てリアクションできるため、仮想キャラクタと目線を合わせる等の自然な演技を行うことができる。
図1は、実施形態1に係るコンテンツ配信システム1の機能構成を示すブロック図である。図1を参照して、コンテンツ配信システム1の機能構成及びその概要について説明する。
コンテンツ配信システム1は、コンテンツ配信サーバ10と、演者端末20a、20bと、視聴者端末30a、30bと、ネットワーク40と、仮想キャラクタ表示装置50とを備える。コンテンツ配信サーバ10と、演者端末20と、視聴者端末30とは、例えば、インターネットなどのネットワーク40に接続されている。なお、演者端末20および視聴者端末30は、図1に示すようにネットワーク40に複数台接続されているが、特に区別する必要がある場合を除き、演者端末20、視聴者端末30と記載する。
仮想キャラクタ表示装置(以下、VC表示装置と記載する。)50は、公開番組の出演者である仮想キャラクタVCを表示する表示装置であって、公開番組のスタジオ内で、共演者のタレントTの傍に設置されている。なお、VC表示装置50の設置位置はこれに限らず、番組制作者等の指示により、公開番組に参加できるようスタジオ内の任意の位置に設置されてよい。また、仮想キャラクタVCは、VC表示装置50とは異なる位置にいる演者Aの演技に基づいて表示される。
(コンテンツ配信サーバ10の構成)
コンテンツ配信サーバ10は、スタジオで収録される公開番組等のライブコンテンツを配信するサーバ装置である。コンテンツ配信サーバ10は、通信手段101と、制御手段102と、仮想キャラクタ用情報取得手段103と、視聴者用情報取得手段104と、を備える。
コンテンツ配信サーバ10は、スタジオで収録される公開番組等のライブコンテンツを配信するサーバ装置である。コンテンツ配信サーバ10は、通信手段101と、制御手段102と、仮想キャラクタ用情報取得手段103と、視聴者用情報取得手段104と、を備える。
通信手段101は、視聴者映像配信手段に相当し、ネットワーク40を介して、演者端末20、視聴者端末30と通信を行う通信インタフェースである。
仮想キャラクタ用情報取得手段103は、カメラ103a及びマイク103bから映像と音声を仮想キャラクタ用情報として取得する。仮想キャラクタ用情報は、仮想キャラクタVCの演者Aが仮想キャラクタの演技をする際に用いられる。
カメラ103aは、仮想キャラクタ視点撮影手段に相当し、魚眼レンズや広角レンズ等を使用してタレントTの傍の位置から公開番組のセットを撮影する。撮影した映像は、仮想キャラクタの視点に基づいた映像、すなわち、仮想キャラクタから見える映像として用いられる。マイク103bは、タレントTの傍の位置からスタジオ内の音声を収音し、仮想キャラクタが聞こえる音声として用いる。カメラ103aやマイク103bの配置については、後述する。
視聴者用情報取得手段104は、カメラ104a及びマイク104bからスタジオ内の映像及び音声を視聴者用情報として取得する。視聴者用情報は、後述する制御手段102によって配信コンテンツを生成する際に用いられる。
カメラ104aは、視聴者視点撮影手段に相当し、タレントTと仮想キャラクタVCが表示されたVC表示装置50を含む公開番組のセット(例えば、番組の大道具、小道具や美術装飾など)を撮影する。すなわち、カメラ104aが撮影した映像は、視聴者の視点に基づいた映像として用いられる。マイク104bは、タレントTや仮想キャラクタVCの声などを含むスタジオ内の音声を収音する。
制御手段102は、仮想キャラクタ用情報取得手段103が取得した仮想キャラクタ用情報に基づいて、演者用表示データを生成する。例えば、仮想キャラクタ用情報に番組制作者の演出指示等を付加して、演者用表示データとしてよい。そして、通信手段101に、ネットワーク40を介して演者端末20に送信するよう指示する。
また、制御手段102は、視聴者用情報取得手段104が取得した視聴者用情報に基づいて、視聴者用コンテンツを生成する。例えば、制御手段102は、カメラ104aが撮影した映像に視聴者端末30から送信されたコメントや画像等を付加してコンテンツを生成してよい。通信手段101は、制御手段102の指示を受け、ネットワーク40を介して生成されたコンテンツを配信する。
なお、制御手段102は、スタジオ内に設置されたモニタ106(視聴者映像表示装置に相当。)に視聴者用コンテンツを表示させるように制御してもよい。これにより、公開番組の出演者等が、視聴者がどのような映像を視聴しているか確認しながら番組を進行することができる。また、出演者は、モニタ106を確認することで、視聴者からのコメントなども把握できるため、視聴者のコメント等に対してもリアクションでき、視聴者との双方向でのインタラクションを実現することができる。
さらに、制御手段102は、VC表示装置50に対して、後述する表示データ作成手段203が作成した表示データに基づいて仮想キャラクタVCを表示するよう制御する。
(VC表示装置50の構成とカメラの配置)
VC表示装置50は、コンテンツ配信サーバ10の制御手段102の制御により、後述する演者端末20において作成された表示データに基づいて、仮想キャラクタVCを表示する。
VC表示装置50は、コンテンツ配信サーバ10の制御手段102の制御により、後述する演者端末20において作成された表示データに基づいて、仮想キャラクタVCを表示する。
VC表示装置50は、透過型ディスプレイである。例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイであってもよい。透過型ディスプレイは、何も表示されていない状態ではパネルは透明である。パネルに仮想キャラクタVCを表示させた状態では、仮想キャラクタVCが表示された領域は、表側から見ると裏側の背景は透けて見ることができない非透過領域であるが、その領域を裏側から見ると表側の背景は透けて見ることができる透過領域である。透過型ディスプレイの原理については、公知技術であるため説明を省略する。
このような透過型ディスプレイをVC表示装置50として利用し、本実施形態では、カメラ103aやマイク103bをVC表示装置50の裏側に配置する。この配置について、図2〜図4を参照してさらに説明する。
図2は、スタジオ内部を上(タレントTの頭頂部が見える側)から見た図である。図3は、カメラ104aが撮影した映像の一例を示す図である。図4は、カメラ103aが撮影した映像の一例を示す図である。図2に示すように、タレントTの傍には、VC表示装置50が設置されている。VC表示装置50の面50aが表側、面50bが裏側である。また、VC表示装置50の黒色部分は、仮想キャラクタVCが表示されている領域を示している。
VC表示装置50の表側、すなわち、視聴者の視点側には、視聴者用情報のためのカメラ104a及びマイク104bが設置される。また、出演者等が番組の進行を確認できるように視聴者用コンテンツが表示されるモニタ106が設置されていてもよい。
VC表示装置50の裏側、すなわち、視聴者の視点の反対側には、仮想キャラクタ用情報のためのカメラ103a及びマイク103bが設置される。
VC表示装置50に仮想キャラクタVCが表示されると、仮想キャラクタVCの表示領域を通して、表側からは裏側の背景を透過して見ることはできないが、裏側からは表側の背景を透過して見ることができる。すなわち、カメラ104aが視聴者の視点(方向25)からVC表示装置50を撮影すると、仮想キャラクタVCの表示領域の裏側にあるカメラ103aやマイク103bを写さずに、仮想キャラクタVCが表示されたVC表示装置50を撮影することができる(図3参照)。
一方、カメラ103aは、仮想キャラクタVCの表示に遮られることなく、仮想キャラクタVCの視点(方向26)からスタジオ内を撮影することができる(図4参照)。これにより、視聴者は、カメラ103aやマイク103bの存在を感じることなく、公開番組を楽しむことができる。
なお、カメラ103aを、仮想キャラクタVCの頭部分に相当する位置に配置すると、より仮想キャラクタVCの視点に近い映像が撮影できる点で好ましいが、頭部分はよく動くため、VC表示装置50の表側から見えてしまうおそれがある。このため、カメラ103aやマイク103bが、常に仮想キャラクタVCの表示領域によって隠れるよう、仮想キャラクタVCが表示される領域のうち、あまり表示が消えない領域、例えば、仮想キャラクタVCの体部分に相当する位置に設置することが好ましい。
(演者端末20の構成)
図1に戻って、演者端末20は、演者Aの演技に基づいて、仮想キャラクタVCをVC表示装置50に表示させるために用いられる表示データを作成する端末であって、例えば、パーソナルコンピュータ等の情報処理装置である。なお、本実施形態では、仮想キャラクタVCの演者AはVC表示装置50に対して遠隔の場所にいるが、スタジオのすぐ傍にいてもよい。
図1に戻って、演者端末20は、演者Aの演技に基づいて、仮想キャラクタVCをVC表示装置50に表示させるために用いられる表示データを作成する端末であって、例えば、パーソナルコンピュータ等の情報処理装置である。なお、本実施形態では、仮想キャラクタVCの演者AはVC表示装置50に対して遠隔の場所にいるが、スタジオのすぐ傍にいてもよい。
演者端末20は、通信手段201と、制御手段202と、表示データ作成手段203と、を備える。
通信手段201は、ネットワーク40を介して通信を行う通信インタフェースである。通信手段201は、コンテンツ配信サーバ10から演者用表示データ及び視聴者用コンテンツを受信する。また、後述する表示データ作成手段203で作成された仮想キャラクタVCの表示データをコンテンツ配信サーバ10に送信する。
制御手段202は、通信手段201が受信した演者用表示データをモニタ205(視点映像表示装置に相当。)に表示させる。また、視聴者用コンテンツをモニタ206(視聴者映像表示装置に相当。)に表示させる。演者Aは、仮想キャラクタVCの視点から見た映像(図4参照)が表示されるモニタ205を視聴しながら、仮想キャラクタVCとして演技する。また、視聴者の視点から見た映像(図3参照)が表示されるモニタ206も視聴して、番組の進行を確認することができる。
なお、視聴者の視点から見た映像は、モニタ206ではなく、モニタ205で確認できるようにしてもよい。すなわち、カメラ103aが、スタジオ内に設置された視聴者映像表示装置であるモニタ106も撮影することで、仮想キャラクタVCの視点を通して、視聴者の視点から見た映像も確認することができる。これにより、演者Aは、一つのモニタを見るだけで、仮想キャラクタVCの視点から見た映像と視聴者の視点から見た映像とを視聴することができる。
表示データ作成手段203は、後述する演技情報取得手段204が取得した、仮想キャラクタVCの演者Aの演技情報に基づいて、仮想キャラクタVCの表示データを作成する。
演技情報取得手段204は、演者Aによる入力操作を演技情報として取得する。入力操作とは、例えば、モーションキャプチャなどの演者Aの視線および/または動きを検知するセンサによって検知された演者Aの動作によるジェスチャ入力や、キャラクタの表情などを表現するためのボタン操作による入力等を含むが、仮想キャラクタの演技を表現するための入力であれば、どのような入力操作であってもよい。
表示データ作成手段203は、例えば、モーションキャプチャにより、実際の人の動作や視線等を取得する。その取得した人の動作や視線に対応させて仮想キャラクタVCの動き(表示データ)を生成することで、仮想キャラクタVCの滑らかで自然な演技を実現させる。なお、モーションキャプチャを用いてキャラクタの動き等を生成することは公知技術であるので、詳細は省略する。
作成された表示データは、制御手段202の指示により、通信手段201によって、ネットワーク40を介してコンテンツ配信サーバ10に送信される。なお、表示データ作成手段203は、コンテンツ配信サーバ10が備えるようにしてもよい。この場合、演技情報取得手段204が取得した演技情報は、通信手段201によって、コンテンツ配信サーバ10に送信される。
(視聴者端末30の構成)
視聴者端末30は、配信されたコンテンツを視聴する端末であって、例えば、スマートフォン、携帯電話、パーソナルコンピュータ、ゲーム装置、PDA、携帯型ゲーム機、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。
視聴者端末30は、配信されたコンテンツを視聴する端末であって、例えば、スマートフォン、携帯電話、パーソナルコンピュータ、ゲーム装置、PDA、携帯型ゲーム機、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。
視聴者端末30は、通信手段301と、制御手段302と、を備える。通信手段301は、ネットワーク40を介した通信を行う通信インタフェースであり、コンテンツ配信サーバ10から視聴者用コンテンツを受信する。
制御手段302は、通信手段301が受信した視聴者用コンテンツをモニタ303に表示させる。これにより、視聴者は公開番組を楽しむことができる。
(処理の流れ)
図5は、コンテンツ配信サーバ10に係るコンテンツ配信処理を示すフローチャートである。図5を参照して、コンテンツ配信システム1において、コンテンツ配信サーバ10がライブコンテンツを配信する処理の流れについて説明する。
図5は、コンテンツ配信サーバ10に係るコンテンツ配信処理を示すフローチャートである。図5を参照して、コンテンツ配信システム1において、コンテンツ配信サーバ10がライブコンテンツを配信する処理の流れについて説明する。
ステップS501において、コンテンツ配信サーバ10の制御手段102は、仮想キャラクタ用情報取得手段103に対して、仮想キャラクタ用情報を取得するよう指示する。仮想キャラクタ用情報取得手段103は、カメラ103aおよびマイク103bから、仮想キャラクタVCの視点に基づく映像および音声を仮想キャラクタ用情報として取得する。
ステップS502において、制御手段102は、仮想キャラクタ用情報取得手段103が取得した仮想キャラクタ用情報に基づいて、演者用表示データを生成し、通信手段101に対して、演者端末20に送信するよう指示する。
ステップS503において、通信手段101は、演者端末20から仮想キャラクタVCの表示データを受信する。なお、演者端末20における表示データの作成処理は、図6において詳述する。
ステップS504において、制御手段102は、VC表示装置50に対して、ステップS503で受信した表示データに基づいて仮想キャラクタVCを表示するよう指示する。演者端末20における表示データの作成処理については、図7において詳述する。
ステップS505において、制御手段102は、視聴者用情報取得手段104に対して、視聴者用情報を取得するよう指示する。視聴者用情報取得手段104は、カメラ104aおよびマイク104bから視聴者の視点に基づく映像および音声を取得する。
ステップS506において、制御手段102は、視聴者用情報取得手段104が取得した視聴者用情報に基づいて視聴者用コンテンツを生成し、通信手段101に対し、生成したコンテンツを配信するように指示する。この際、制御手段102は、スタジオ内のモニタ106に視聴者用コンテンツを表示するように指示してもよい。
ステップS507において、制御手段102は、番組制作者によって番組終了や配信終了の指示を受けたか否か判断する。終了指示を受けていない場合(ステップS507においてNO)は、処理はステップS501に戻る。そうでない場合(ステップS507においてYES)は、処理は終了する。
図6は、仮想キャラクタVCの表示データを作成する処理を示すフローチャートである。図6を参照して、演者端末20において、仮想キャラクタVCの表示データを作成する処理について説明する。
ステップS601において、演者端末20の通信手段201は、コンテンツ配信サーバ10から、演者用表示データを受信する。
ステップS602において、制御手段202は、モニタ205に対して、通信手段201が受信した演者用表示データに基づいて、仮想キャラクタの視点に基づいた映像を表示するよう指示する。
ステップS603において、通信手段201は、コンテンツ配信サーバ10から配信された視聴者用コンテンツを受信する。
ステップS604において、制御手段202は、モニタ206に対して、通信手段201が受信した視聴者用コンテンツを表示するよう指示する。なお、ステップS601及びステップS603の処理の順序は上述に限らず、また、並列的に実行されてもよい。
ステップS605において、演技情報取得手段204は、モーションキャプチャなどにより仮想キャラクタVCの演者Aの動きを演技情報として取得する。
ステップS606において、表示データ作成手段203は、演技情報取得手段204が取得した演技情報に基づいて、仮想キャラクタVCをVC表示装置50に表示するための表示データを作成する。
ステップS607において、通信手段201は、制御手段202の指示により、表示データ作成手段203により作成された表示データをコンテンツ配信サーバ10に送信する。
図7は、配信コンテンツの視聴処理を示すフローチャートである。図7を参照して、視聴者端末30における配信コンテンツの視聴処理について説明する。
ステップS701において、視聴者端末30の制御手段302は、視聴者端末30のユーザからコンテンツの配信要求が指示されたか否かを判断する。配信要求が指示されたと判断した場合(ステップS701においてYES)は、処理はステップS702に進み、そうでない場合は、処理は終了する。
ステップS702において、通信手段301は、コンテンツ配信サーバ10から視聴者用コンテンツを受信する。
ステップS703において、制御手段302は、モニタ303に対し、受信した視聴者用コンテンツを表示するよう指示する。
ステップS704において、制御手段302は、終了指示を受けたか否かを判断する。例えば、ユーザからの視聴終了の指示や、コンテンツ配信サーバからの配信終了指示について判断する。終了指示を受けていないと判断した場合(ステップS704においてNO)は、処理はステップS702に戻り、そうでない場合(ステップS704においてYES)は、処理は終了する。
(ハードウェア構成図)
図8は、コンテンツ配信サーバ10のハードウェア構成を示すブロック図である。コンテンツ配信サーバ10は、コンピュータ801に実装される。コンピュータ801は、CPU802と、主記憶装置803と、補助記憶装置804と、インタフェース805と、を備える。
図8は、コンテンツ配信サーバ10のハードウェア構成を示すブロック図である。コンテンツ配信サーバ10は、コンピュータ801に実装される。コンピュータ801は、CPU802と、主記憶装置803と、補助記憶装置804と、インタフェース805と、を備える。
コンテンツ配信サーバ10の各構成要素の動作は、プログラムの形式で補助記憶装置804に記憶されている。CPU802は、プログラムを補助記憶装置804から読み出して主記憶装置803に展開し、当該プログラムに従って上記処理を実行する。また、CPU802は、プログラムに従って、記憶領域を主記憶装置803に確保する。当該プログラムは、具体的には、コンピュータ801に、ライブコンテンツを配信させるためのコンテンツ配信プログラムである。
なお、補助記憶装置804は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース805を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムがネットワークを介してコンピュータ801に配信される場合、配信を受けたコンピュータ801が当該プログラムを主記憶装置803に展開し、処理を実行しても良い。
また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置804に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。なお、図8に示したハードウェア構成は、演者端末20や視聴者端末30も同様の構成としてもよい。演者端末20及び視聴者端末30の各構成要素の動作も、上述のコンテンツ配信サーバ10と同様に、補助記憶装置に記憶されたプログラムに従ったCPUにより実現する。
(効果の説明)
本実施形態に係るコンテンツ配信システムでは、仮想キャラクタを表示させた表示装置をスタジオに設置して仮想キャラクタを番組に出演させる。これにより、仮想キャラクタと現実の人物とが実際のスタジオで共演する演出が可能となり、スタジオの観覧者や、番組の視聴者は現実の人物と仮想キャラクタとが実際にスタジオにいるような雰囲気を味わうことができる。
本実施形態に係るコンテンツ配信システムでは、仮想キャラクタを表示させた表示装置をスタジオに設置して仮想キャラクタを番組に出演させる。これにより、仮想キャラクタと現実の人物とが実際のスタジオで共演する演出が可能となり、スタジオの観覧者や、番組の視聴者は現実の人物と仮想キャラクタとが実際にスタジオにいるような雰囲気を味わうことができる。
また、仮想キャラクタと共演する現実の人物は、仮想キャラクタの動作を見てリアクションできるため、仮想キャラクタと目線を合わせる等の自然な演技を行うことができる。
また、仮想キャラクタを表示させる表示装置に、画像の表示領域の裏側(背景)が透過しない透過型ディスプレイを用い、仮想キャラクタの表示領域の裏側に仮想キャラクタの視点映像を撮影する撮影手段を配置する。これにより、視聴者は、撮影手段の存在を感じることなく、番組を楽しむことができる。
また、このような撮影手段の配置により、仮想キャラクタの視点により近い映像を取得することができ、共演者である現実の人物のリアクションに合わせて、仮想キャラクタの演者は自然な演技を行うことができる。
本実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
1 コンテンツ配信システム、10 コンテンツ配信サーバ、20 演者端末、30 視聴者端末、40 ネットワーク、50 仮想キャラクタ表示装置、101,201,301 通信手段、102,202,302 制御手段、103 仮想キャラクタ用情報取得手段、104 視聴者用情報取得手段、106,205,206,303 モニタ、203 表示データ作成手段、204 演技情報取得手段、801 コンピュータ、802 CPU、803 主記憶装置、804 補助記憶装置、805 インタフェース
Claims (11)
- 仮想キャラクタが参加する番組をネットワークを介して配信するコンテンツ配信システムであって、
前記仮想キャラクタを表示する仮想キャラクタ表示装置と、
前記番組のセットを、前記仮想キャラクタの視点に基づいて撮影する仮想キャラクタ視点撮影手段と、
前記仮想キャラクタ視点撮影手段が撮影した映像に応じて生成された演技情報に基づいて、前記仮想キャラクタの表示データを作成する表示データ作成手段と、
前記作成された表示データに基づいた仮想キャラクタが表示された前記仮想キャラクタ表示装置を含む前記番組のセットを、視聴者の視点に基づいて撮影する視聴者視点撮影手段と、
前記視聴者視点撮影手段が撮影した映像を前記ネットワークを介して配信する視聴者映像配信手段と、を備えるコンテンツ配信システム。 - 前記仮想キャラクタ表示装置は透過型ディスプレイであって、前記仮想キャラクタが表示されている領域は、前記視聴者の視点側からは非透過領域、前記視聴者の視点の反対側からは透過領域であり、
前記仮想キャラクタ視点撮影手段は、前記仮想キャラクタ表示装置の前記仮想キャラクタの表示されている領域に対して、前記視聴者の視点の反対側に設置される、請求項1に記載のコンテンツ配信システム。 - 前記表示データ作成手段は、前記仮想キャラクタ視点撮影手段が撮影した映像に応じて演技する前記仮想キャラクタの演者の入力操作を前記演技情報として取得する演技情報取得手段を含む、請求項1または請求項2に記載のコンテンツ配信システム。
- 前記仮想キャラクタ視点撮影手段が撮影した映像を表示する視点映像表示装置をさらに備え、
前記演技情報取得手段は、前記仮想キャラクタの演者が前記視点映像表示装置に表示された映像を視聴しながら行った前記番組の進行に応じた動きを前記演技情報として取得する、請求項3に記載のコンテンツ配信システム。 - 前記仮想キャラクタの演者と前記仮想キャラクタ表示装置とは、異なる場所に位置する、請求項3または請求項4に記載のコンテンツ配信システム。
- 前記視聴者映像配信手段によって配信された映像を表示する視聴者映像表示装置をさらに備え、
前記視聴者映像表示装置は、前記仮想キャラクタの演者が前記配信された映像を視聴できるように配置される請求項3から請求項5のいずれか一項に記載のコンテンツ配信システム。 - 前記視聴者映像配信手段によって配信された映像を表示する視聴者映像表示装置をさらに備え、
前記仮想キャラクタ視点撮影手段は、前記配信された映像が表示された前記視聴者映像表示装置を含む前記番組のセットを撮影し、
前記仮想キャラクタの演者は、前記視点映像表示装置を介して、前記視聴者映像表示装置に表示された前記配信された映像を視聴する、請求項4に記載のコンテンツ配信システム。 - 前記仮想キャラクタ視点撮影手段は、広角レンズまたは魚眼レンズによって撮影する、請求項1から請求項7のいずれか一項に記載のコンテンツ配信システム。
- 前記演技情報取得手段は、前記演者の視線および/または動きを前記入力操作として検知するセンサを含む、請求項3に記載のコンテンツ配信システム。
- 仮想キャラクタが参加する番組をネットワークを介して配信するコンテンツ配信方法であって、
前記仮想キャラクタを仮想キャラクタ表示装置に表示するステップと、
前記番組のセットを、前記仮想キャラクタの視点に基づいて撮影する仮想キャラクタ視点撮影ステップと、
前記仮想キャラクタ視点撮影ステップにおいて撮影した映像に応じて生成された演技情報に基づいて、前記仮想キャラクタの表示データを作成する表示データ作成ステップと、
前記作成された表示データに基づいた仮想キャラクタが表示された前記仮想キャラクタ表示装置を含む前記番組のセットを、視聴者の視点に基づいて撮影する視聴者視点撮影ステップと、
前記視聴者視点撮影ステップにおいて撮影した映像を前記ネットワークを介して配信する視聴者映像配信ステップと、を備えるコンテンツ配信方法。 - 請求項10に記載のコンテンツ配信方法をコンピュータによって実現させるコンテンツ配信プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018216905A JP2019146148A (ja) | 2018-11-19 | 2018-11-19 | コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018216905A JP2019146148A (ja) | 2018-11-19 | 2018-11-19 | コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018029542A Division JP6454883B1 (ja) | 2018-02-22 | 2018-02-22 | コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019146148A true JP2019146148A (ja) | 2019-08-29 |
Family
ID=67773279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018216905A Pending JP2019146148A (ja) | 2018-11-19 | 2018-11-19 | コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019146148A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023071443A1 (zh) * | 2021-10-26 | 2023-05-04 | 北京字跳网络技术有限公司 | 虚拟对象控制方法、装置、电子设备及可读存储介质 |
-
2018
- 2018-11-19 JP JP2018216905A patent/JP2019146148A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023071443A1 (zh) * | 2021-10-26 | 2023-05-04 | 北京字跳网络技术有限公司 | 虚拟对象控制方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110300909B (zh) | 用于显示交互式增强现实展示的系统、方法和介质 | |
KR102581453B1 (ko) | 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리 | |
WO2020210213A1 (en) | Multiuser asymmetric immersive teleconferencing | |
JP6812803B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2022177053A (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
JP2010206307A (ja) | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム | |
JP2015184689A (ja) | 動画生成装置及びプログラム | |
US10896322B2 (en) | Information processing device, information processing system, facial image output method, and program | |
JP6454883B1 (ja) | コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム | |
JP6559871B1 (ja) | 動画合成装置、動画合成方法及び動画合成プログラム | |
JP6843164B2 (ja) | プログラム、方法、および情報処理装置 | |
US10289193B2 (en) | Use of virtual-reality systems to provide an immersive on-demand content experience | |
JP6559870B1 (ja) | 動画合成装置、動画合成方法及び動画合成プログラム | |
US20240048677A1 (en) | Information processing system, information processing method, and computer program | |
JP2016213674A (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
JP2011113206A (ja) | 映像コミュニケーションシステム、及び映像コミュニケーション方法 | |
JP2019146148A (ja) | コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム | |
JP5813542B2 (ja) | 画像コミュニケーションシステム、AR(AugmentedReality)動画生成装置及びプログラム | |
JP2023153790A (ja) | プログラム | |
JP2020087429A (ja) | 動画合成装置、動画合成方法及び動画合成プログラム | |
KR101514346B1 (ko) | 합성 사진 촬영 장치 및 방법 | |
JP5894505B2 (ja) | 画像コミュニケーションシステム、画像生成装置及びプログラム | |
KR20130067855A (ko) | 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법 | |
JP5916365B2 (ja) | 映像送信システム、映像送信方法及びコンピュータプログラム | |
JP7044149B2 (ja) | 情報処理装置、情報処理方法、およびプログラム |