JP2019186799A - コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム - Google Patents

コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム Download PDF

Info

Publication number
JP2019186799A
JP2019186799A JP2018077135A JP2018077135A JP2019186799A JP 2019186799 A JP2019186799 A JP 2019186799A JP 2018077135 A JP2018077135 A JP 2018077135A JP 2018077135 A JP2018077135 A JP 2018077135A JP 2019186799 A JP2019186799 A JP 2019186799A
Authority
JP
Japan
Prior art keywords
distributor
content distribution
distribution server
terminal
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077135A
Other languages
English (en)
Other versions
JP6397595B1 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
健太郎 松井
Kentaro Matsui
健太郎 松井
進之介 岩城
Shinnosuke Iwaki
進之介 岩城
尚 小嶋
Takashi Kojima
尚 小嶋
山口 直樹
Naoki Yamaguchi
直樹 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infinite Co Ltd
Dwango Co Ltd
Original Assignee
Infinite Co Ltd
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infinite Co Ltd, Dwango Co Ltd filed Critical Infinite Co Ltd
Priority to JP2018077135A priority Critical patent/JP6397595B1/ja
Application granted granted Critical
Publication of JP6397595B1 publication Critical patent/JP6397595B1/ja
Publication of JP2019186799A publication Critical patent/JP2019186799A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限することが可能なコンテンツ配信サーバ等を提供する。【解決手段】コンテンツ配信サーバ100は、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成部142と、映像生成部142が生成した映像に基づいてライブコンテンツを配信する配信部143と、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部144とを備える。【選択図】図2

Description

本開示は、コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラムに関する。
従来、ユーザが仮想空間内において互いにコミュニケーションを取ることが可能なシステムが知られている。
例えば、特許文献1には、ユーザが互いにコミュニケーションを取るための仮想環境を提供する技術が開示されている。この仮想環境では、仮想空間内の仮想メッセージに閲覧権を設定することが可能である。この場合、閲覧権を有する閲覧者のみが仮想メッセージの内容を閲覧できる。閲覧権を有しない閲覧者が閲覧した場合には、仮想メッセージは非表示又はぼかした表示となる。
ところで、近年、ネットワークを介してライブコンテンツを配信するサービスがインターネット生放送として普及している。このようなインターネット生放送において、配信者が仮想空間内で仮想キャラクタ(アバター)として登場し、その映像をライブコンテンツとして配信する技術が提案されている。
国際公開第2008/106196号
特許文献1に開示されている技術では、すべてのユーザが仮想キャラクタとして仮想空間内に入り込むことが前提となっている。この場合、すべてのユーザは、同様な立場で仮想空間を共有する。
これに対し、インターネット生放送では、仮想キャラクタとして仮想空間内に入り込むユーザ(主に配信者)だけでなく、その映像を視聴するだけのユーザ(主に視聴者)が存在する。この場合、ユーザによって立場が異なる。そのため、すべてのユーザが同様な立場で仮想空間を共有することは好ましくない場合がある。
例えば、現状のインターネット生放送のシステムでは、配信者と、視聴者と、配信に参加する参加者とが、同様な仮想空間を閲覧する仕様になっている。配信者は、HMD(Head Mount Display)を装着し、仮想空間の映像を見ながら配信する。なお、現実空間における配信者の動作は、モーションキャプチャ技術によって、仮想空間における仮想キャラクタの動作に反映される。
ここで、配信者は配信中に台本やタイムキーパーを確認したい場合がある。しかし、配信者は、HMDを装着しているため、現実空間において台本やタイムキーパーを確認することができない。そのため、仮想空間に台本やタイムキーパーを示すオブジェクトが表示されることが好ましい。しかし、台本やタイムキーパーを示すオブジェクトは、配信者が視聴者に視聴させたいオブジェクトではない。
また、配信者は、配信のために使用する仮想カメラ又は仮想カメラの位置を示すオブジェクトを確認したい場合がある。しかし、仮想カメラ又は仮想カメラの位置を示すオブジェクトは、配信者が視聴者に視聴させたいオブジェクトではない。
このように、台本、タイムキーパー、仮想カメラ(仮想カメラの位置)等のように、配信者の都合で仮想空間内に表示されるオブジェクトが、視聴者に公開されることは好ましくない。一方、配信者による配信に参加する参加者(視聴者又は他の配信者)には、そのようなオブジェクトであっても公開した方が好ましい場合もある。したがって、配信者の都合で仮想空間内に表示されるオブジェクトについては、配信状況に応じて、公開を制限するための仕組みが必要である。
この点、特許文献1に開示されている技術は、他人に宛てる仮想メッセージの閲覧権限を制御するものであるため、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限する仕組みではない。
そこで、本開示はこのような事情に鑑み、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限することが可能なコンテンツ配信サーバ等を提供することを目的とする。
上記目的を達成するため、本開示の第1の観点に係るコンテンツ配信サーバは、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成部と、映像生成部が生成した映像に基づいてライブコンテンツを配信する配信部と、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部とを備えることを特徴とする。
また、上記目的を達成するため、本開示の第2の観点に係るコンテンツ配信システムは、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像に基づいてライブコンテンツを配信するコンテンツ配信サーバと、配信者が使用する配信者端末と、ライブコンテンツを視聴する視聴者が使用する視聴者端末とを備えるコンテンツ配信システムであって、コンテンツ配信サーバは、配信者端末から公開制限設定を受け付けた場合に、配信者端末に表示される仮想空間内に存在するオブジェクトが視聴者端末に表示されることを制限することを特徴とする。
また、上記目的を達成するため、本開示の第3の観点に係るコンテンツ配信方法は、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成ステップと、映像生成ステップにおいて生成された映像に基づいてライブコンテンツを配信する配信ステップと、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付ステップとを含むことを特徴とする。
また、上記目的を達成するため、本開示の第4の観点に係るプログラムは、コンピュータを、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成手段、映像生成手段が生成した映像に基づいてライブコンテンツを配信する配信手段、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付手段、として機能させる。
本開示によれば、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限することが可能なコンテンツ配信サーバ等を提供することができる。
実施形態に係るコンテンツ配信システムの構成例を示す図である。 実施形態に係るコンテンツ配信サーバの構成例を示すブロック図である。 実施形態に係る配信者端末の構成例を示すブロック図である。 実施形態に係る視聴者端末の構成例を示すブロック図である。 実施形態に係る参加者端末の構成例を示すブロック図である。 実施形態に係る配信者端末に表示される仮想空間の映像の一例を示す図である。 実施形態に係る視聴者端末に表示される配信画面の一例を示す図である。 実施形態に係る参加者端末に表示される仮想空間の映像の第1の例を示す図である。 実施形態に係る参加者端末に表示される仮想空間の映像の第2の例を示す図である。 実施形態に係るコンテンツ配信サーバの制御処理の一例を示すフローチャートである。 変形例に係る視聴者端末に表示される画面の一例を示す図である。
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
(実施形態)
図1に示すように、本実施形態に係るコンテンツ配信システム1は、コンテンツ配信サーバ100と、配信者端末200と、一台以上の視聴者端末300と、参加者端末400a、400bとを備える。コンテンツ配信サーバ100と、配信者端末200と、一台以上の視聴者端末300と、参加者端末400a、400bとは、それぞれネットワークNWを介して通信可能に接続される。ネットワークNWは、例えばWAN(World Area Network)である。
コンテンツ配信サーバ100は、ネットワークNWを介して配信サービスを提供する。コンテンツ配信サーバ100は、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像に基づいてライブコンテンツを視聴者端末300に配信する。
仮想空間の映像には、仮想キャラクタだけでなく、背景、仮想的な物体を示すオブジェクト等も含まれる。仮想空間は、基本的には、CG(Computer Graphics)によって生成される3次元空間である。なお、仮想空間は、2次元空間であってもよい。なお、配信者だけでなく、配信に参加する参加者がいる場合には、さらに、参加者の情報を参加者の仮想キャラクタの情報として仮想空間内の映像が合成される。
配信者端末200は、ライブコンテンツを配信する配信者によって使用される。配信者端末200は、HMDを備える通信端末であり、通信機能及びモーションキャプチャ機能を有する。配信者端末200は、モーションキャプチャ機能により、配信者の動き(ジェスチャ)や視線をモーション情報として取得する。モーション情報は、配信者に対応付けられた仮想キャラクタの動きと仮想空間内の映像における視点(すなわちレンダリング)に反映される。なお、モーション情報には、配信者の表情を示すデータが含まれていてもよい。
視聴者端末300は、パーソナルコンピュータ、タブレット端末、スマートフォン等の通信機能を有する装置である。視聴者端末300は、ライブコンテンツを視聴する視聴者によって使用される。
参加者端末400a、400bは、それぞれ配信者による配信に参加する参加者によって使用される。参加者は、配信者端末200の配信者とは異なる、他の配信者であってもよいし、ライブコンテンツを視聴する視聴者であってもよい。ただし、参加者端末400a、400bは、視聴者端末300とは異なり、参加者が仮想キャラクタとして配信に参加するための構成を有する。
本実施形態では、参加者端末400aは、視聴者によって使用され、参加者端末400bは、他の配信者によって使用される。参加者端末400aは、後述する公開制限設定が適用され、参加者端末400bは、後述する許可設定により公開制限設定が緩和される。なお、本実施形態では、参加者が視聴者一人と他の配信者一人の場合を説明するが、参加者の数や内訳はこれに限られない。
参加者端末400a、400bは、HMDを備える通信端末であり、通信機能及びモーションキャプチャ機能を有する。参加者端末400a、400bは、モーションキャプチャ機能により、参加者の動き(ジェスチャ)や視線をモーション情報として取得する。モーション情報は、参加者に対応付けられた仮想キャラクタの動きと仮想空間内の映像における視点(すなわちレンダリング)に反映される。なお、モーション情報には、参加者の表情を示すデータが含まれていてもよい。以下の説明において、参加者端末400a、400bのそれぞれを区別する必要がない場合には、両者をまとめて参加者端末400と称する。
<コンテンツ配信サーバの構成>
以下、コンテンツ配信サーバ100の構成を詳細に説明する。図2に示すように、コンテンツ配信サーバ100は、他の装置と通信を行う通信部110と、各種データを記憶する記憶部120と、時刻を計時する計時部130と、装置全体の制御を行う制御部140とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部110は、有線通信又は無線通信を行うためのNIC(Network Interface Card controller)を備える通信インターフェースである。通信部110は、ネットワークNWを介して、配信者端末200及び視聴者端末300と通信を行う。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。記憶部120は、各種制御処理を実行するためのプログラム、各種データ等を記憶する。
計時部130は、クロック信号を生成するための発振回路及び可変PLL(Phase Locked Loop)、クロック信号のパルス数をカウントするカウンタ回路等から構成される。計時部130はカウントされるパルス数に基づいて時刻を計時する。
制御部140は、CPU(Central Processing Unit)等から構成される。制御部140は、記憶部120に記憶されているプログラムを実行することにより、コンテンツ配信サーバ100の全体の動作を制御する。制御部140は、計時部130がカウントするパルス数に基づいたタイミングで各種制御を実行する。また、制御部140は、計時部130が計時する時刻に基づいて、ライブコンテンツの開始時点からの経過時間をカウントしたり、予め定められた時間(例えば配信予定時間)を経過したか否かを判別したりする。
以下、制御部140の機能的な構成を説明する。制御部140は、情報取得部141、映像生成部142、配信部143、第1の設定受付部144、第2の設定受付部145として機能する。
情報取得部141は、通信部110を介して、配信者端末200から配信者が使用する仮想キャラクタに関する情報と配信者の動きや視線を示すモーション情報とを取得する。また、情報取得部141は、通信部110を介して、参加者端末400から参加者が使用する仮想キャラクタに関する情報と参加者の動きや視線を示すモーション情報とを取得する。情報取得部141は、通信部110を介して配信者端末200と参加者端末400から音声情報を取得する。
映像生成部142は、配信者及び参加者の情報をそれぞれの仮想キャラクタの情報として合成した仮想空間内の映像を生成する。合成は、例えば、予め定められた仮想空間内の映像を背景として、そこにあたかも仮想キャラクタが存在するように映像を生成し、さらに、その仮想キャラクタにその仮想キャラクタを使用する配信者又は参加者の動きが反映されるように映像を生成することによって実現される。
配信部143は、映像生成部142が生成した映像に基づいてライブコンテンツを配信する。生成した映像に基づくライブコンテンツとは、生成した映像データに対して各々の視点でレンダリングした映像を示す情報である。具体的には、ライブコンテンツは、生成した映像を配信者の仮想キャラクタの視点で見た場合の映像と、生成した映像を参加者の仮想キャラクタの視点で見た場合の映像と、生成した映像を配信用の仮想カメラの視点で見た場合の映像(配信画面)とを示す情報を含む。
配信部143によって配信されるライブコンテンツは、映像を示す情報だけでなく、音声情報をも含む。配信部143は、情報取得部141が取得した音声情報と、予め記憶部120に記憶され、演出に使用される音声情報とを、ライブコンテンツとして配信する。
第1の設定受付部144は、配信者端末200から通信部110を介して、公開制限設定を受け付ける。公開制限設定を受け付けた場合に、配信部143は、配信者端末200に表示される仮想空間内に存在するオブジェクトが視聴者端末300に表示されることを制限する。
公開制限設定の対象となるオブジェクトは、配信者の都合で仮想空間内に表示される仮想的な物体を示すオブジェクトである。公開制限設定の対象となるオブジェクトは、例えば、台本と、タイムキーパーと、仮想カメラ又はその仮想カメラの位置とのいずれかを示すオブジェクトである。
ここで、本開示において、台本は、広義に解釈され、配信内容の構成、使用される素材、セリフ等を時系列に示すものに限られない。台本は、配信者が配信中に参考にする資料であって、配信者が視聴者に視聴されたくないものを意味する。例えば、台本には、ニュース記事、通帳、本、写真等の配信に利用するための素材が含まれる。台本を示すオブジェクトは、配信者(すなわち配信者の仮想キャラクタ)の動きに追従して移動し、配信者端末200に表示される仮想空間における視野の所定の位置に表示される。例えば、台本を示すオブジェクトは、コンテンツ配信サーバ100の制御によって、配信者の仮想キャラクタと一定距離を保つように追従する。タイムキーパーを示すオブジェクトについても、このような追従制御が実行されてもよい。
公開制限設定には、複数のパターンがある。例えば、第1の設定受付部144は、オブジェクトに対して、そのオブジェクトを視聴者端末300に表示させるか否かの切替設定を受け付け、切替設定を公開制限設定として受け付けてもよい。第1の設定受付部144は、オブジェクトに対して、そのオブジェクトを視聴者端末300には別のオブジェクトとして表示させる又はぼかした状態で表示させるための表示変更設定を受け付け、その表示変更設定を公開制限設定として受け付けてもよい。
第1の設定受付部144は、配信者端末200に表示される仮想空間内の一部のエリアを、視聴者端末300には表示させない非公開エリアとする設定を受け付け、その非公開エリアを介してそのオブジェクトに対する公開制限設定を行ってもよい。非公開エリアを介したオブジェクトに対する公開制限設定は、例えば、配信者が仮想空間内での物理的な作用によりそのオブジェクトを非公開エリアに移動させることによって行われてもよい。また、非公開エリアを介したオブジェクトに対する公開制限設定は、配信者がそのオブジェクトを移動させるためのインターフェース操作を実行することによって行われてもよい。インターフェース操作は、例えば、操作ボタンの押下、所定のジェスチャ等の操作である。なお、非公開エリアの位置は、仮想空間内において配信者が決めた位置に固定されてもよいし、コンテンツ配信サーバ100の制御によって、配信者の仮想キャラクタの動きに合わせて、追従してもよい。
配信部143は、配信者端末200に表示される仮想空間内に存在するオブジェクトには、公開制限設定の対象となっているか否かを示すマーキングを付与する。マーキングのマークは、例えば、カメラマーク、電球マーク等であってもよいし、黒丸や白丸等の簡易な図形であってもよい。このようなマーキングを付した映像を配信者端末200に表示させることにより、配信者に設定状況を識別させることができる。
第2の設定受付部145は、配信者端末200から通信部110を介して、許可設定を受け付ける。許可設定を受け付けた場合に、配信部143は、公開制限設定されているオブジェクトをその許可設定の対象となる参加者端末400に表示させる。許可設定は、公開制限設定されているオブジェクトのすべてに対して行われてもよいし、それらの一部のオブジェクトに対して行われてもよい。
<配信者端末の構成>
以下、配信者端末200の構成を詳細に説明する。図3に示すように、配信者端末200は、他の装置と通信を行う通信部210と、ユーザの操作を受け付ける操作部220と、各種データを記憶する記憶部230と、各種画像を表示する表示部240と、音声入力を受け付ける音声入力部250と、モーション情報を入力するための動作入力部260と、各種音声を出力する音声出力部270と、装置全体の制御を行う制御部280とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部210は、有線通信又は無線通信を行うためのNICを備える通信インターフェースである。通信部210は、ネットワークNWを介して、コンテンツ配信サーバ100と通信を行う。
操作部220は、操作ボタン、キーボード、ポインティングデバイス等から構成され、ユーザが指示を入力するために用いられるインターフェースである。
記憶部230は、RAM、ROM等から構成される。記憶部230は、各種制御処理を実行するためのプログラム、入力データ等を記憶する。
表示部240は、例えば、LCD、ELディスプレイ等によって構成される。表示部240は、制御部280からの入力データに応じてテキスト、画像等を表示する。
音声入力部250は、マイクロフォン等から構成される。音声入力部250は外部から入力された音声を受け付けて音声情報を取得する。
動作入力部260は、ユーザの入力操作を受け付けて、ユーザのモーション情報として取得する。動作入力部260は、例えば、モーションキャプチャ技術によってモーション情報を取得するためのカメラ、センサ等を備える。モーション情報は、例えば、ユーザの視線、動き(ジェスチャ)を検知するセンサによって検知される。また、モーション情報は、仮想キャラクタの表情や所定の演出動作等を表現するためのボタン操作によって取得されてもよい。
なお、ユーザのモーション情報を仮想キャラクタの動作、視線等に変換する処理は、配信者端末200において実行されてもよいし、コンテンツ配信サーバ100において実行されてもよいし、コンテンツ配信サーバ100及び配信者端末200の協働によって実行されてもよい。
音声出力部270は、例えば、スピーカー、増幅器等によって構成される。音声出力部270は、制御部280からの入力データに応じて音声を出力する。
制御部280は、CPU等から構成される。制御部280は、記憶部230に記憶されているプログラムを実行することにより、配信者端末200の全体の動作を制御する。
以下、制御部280の機能的な構成を説明する。制御部280は、コンテンツ取得部281、表示制御部282、音声出力制御部283、入力情報送信部284、第1の設定情報送信部285、第2の設定情報送信部286として機能する。
コンテンツ取得部281は、通信部210を介してコンテンツ配信サーバ100からライブコンテンツを示すデータを取得する。表示制御部282は、コンテンツ取得部281が取得したライブコンテンツを示すデータに基づいて、表示部240に仮想空間内の映像を表示させる。音声出力制御部283は、コンテンツ取得部281が取得したライブコンテンツを示すデータに基づいて音声出力部270に音声を出力させる。
入力情報送信部284は、音声入力部250において取得した音声情報と動作入力部260において取得したモーション情報とをコンテンツ配信サーバ100に送信する。なお、入力情報送信部284は、仮想キャラクタにモーション情報を反映させた後の情報をコンテンツ配信サーバ100に送信してもよい。
第1の設定情報送信部285は、ユーザから受け付けた公開制限設定を示す情報を、通信部210を介してコンテンツ配信サーバ100に送信する。第2の設定情報送信部286は、ユーザから受け付けた許可設定を示す情報を、通信部210を介してコンテンツ配信サーバ100に送信する。
<視聴者端末の構成>
以下、視聴者端末300の構成を詳細に説明する。図4に示すように、視聴者端末300は、他の装置と通信を行う通信部310と、ユーザの入力操作を受け付ける操作部320と、各種データを記憶する記憶部330と、各種画像を表示する表示部340と、音声を出力する音声出力部350と、装置全体の制御を行う制御部360とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部310は、有線通信又は無線通信を行うためのNICを備える通信インターフェースである。通信部310は、ネットワークNWを介して、コンテンツ配信サーバ100と通信を行う。
操作部320は、操作ボタン、キーボード、ポインティングデバイス等から構成され、ユーザが指示を入力するために用いられるインターフェースである。
記憶部330は、RAM、ROM等から構成される。記憶部330は、各種制御処理を実行するためのプログラム、入力データ等を記憶する。
表示部340は、例えば、LCD、ELディスプレイ等によって構成される。表示部340は、制御部360からの入力データに応じてテキスト、画像等を表示する。
音声出力部350は、スピーカー、アンプ等から構成される。音声出力部350は制御部360からの入力データに応じて音声を出力する。
制御部360は、CPU等から構成される。制御部360は、記憶部330に記憶されているプログラムを実行することにより、視聴者端末300の全体の動作を制御する。
以下、制御部360の機能的な構成を説明する。制御部360は、コンテンツ取得部361、表示制御部362、音声出力制御部363として機能する。
コンテンツ取得部361は、通信部310を介してコンテンツ配信サーバ100からライブコンテンツを示すデータを取得する。表示制御部362は、コンテンツ取得部361が取得したライブコンテンツを示すデータに基づいて、表示部340に仮想空間内の映像を表示させる。音声出力制御部363は、コンテンツ取得部361が取得したライブコンテンツを示すデータに基づいて音声出力部350に音声を出力させる。
<参加者端末の構成>
以下、参加者端末400の構成を詳細に説明する。図5に示すように、参加者端末400は、他の装置と通信を行う通信部410と、ユーザの入力操作を受け付ける操作部420と、各種データを記憶する記憶部430と、各種画像を表示する表示部440と、音声入力を受け付ける音声入力部450と、モーション情報を入力するための動作入力部460と、各種音声を出力する音声出力部470と、装置全体の制御を行う制御部480とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
参加者端末400の構成は、基本的に、配信者端末200の構成と同じである。例えば、参加者端末400は、参加者が配信に参加するために必要な情報として、参加者のモーション情報を取得し、それを参加者の仮想キャラクタの動作に反映するためにコンテンツ配信サーバ100に送信する機能を有している。
ただし、参加者端末400は、公開制限設定や許可設定を受け付ける機能を有しない点で配信者端末200とは異なる。参加者端末400の制御部480は、コンテンツ取得部481、表示制御部482、音声出力制御部483、入力情報送信部484として機能する。これらの機能は、配信者端末200の制御部280のコンテンツ取得部281、表示制御部282、音声出力制御部283、入力情報送信部284と同じである。
<映像と配信画面の具体例>
以下、配信されるライブコンテンツを示す情報に基づいて表示される映像と配信画面の具体例を説明する。
図6は、配信者端末200に表示される仮想空間の映像の一例を示している。配信者端末200に表示される仮想空間の映像は、非公開エリアではない領域A1と非公開エリアを示す領域A2を含む。非公開エリアは、公開制限設定に基づいて設定される領域であり、この領域A2は、視聴者端末300には表示されない。
図示するように、配信者目線の映像では、台本を示すオブジェクト10、タイムキーパーを示すオブジェクト20、仮想カメラを示すオブジェクト40が表示される。これらのオブジェクト10、20、30、40は配信者の都合によって表示されるオブジェクトである。また、映像には、テーブルを示すオブジェクト30も表示されている。
なお、仮想カメラを示すオブジェクト40の代わりに、仮想カメラの位置、撮影角度、撮影領域等を示すオブジェクトが表示されてもよい。仮想カメラを示すオブジェクト40は、視聴者が視聴する際の撮影位置、撮影角度、撮影領域、視点等を示している。このオブジェクト40の表示により、配信者は、どのように視聴者に見られているかを意識して配信することができる。
テーブルを示すオブジェクト30の左上には小さなマーク(黒丸)が付加されている。これにより、配信者は、視聴者が視聴する配信画面に、テーブルを示すオブジェクト30が表示される可能性があることがわかる。
仮想カメラを示すオブジェクト40にも小さなマーク(黒丸)が付加されている。しかし、仮想カメラを示すオブジェクト40は非公開エリアに配置されているため、視聴者が視聴する配信画面には表示されない。台本を示すオブジェクト10、タイムキーパーを示すオブジェクト20には、小さなマーク(黒丸)が付加されていないため、視聴者が視聴する配信画面には表示されない。
なお、配信者は、台本を示すオブジェクト10、タイムキーパーを示すオブジェクト20、仮想カメラを示すオブジェクト40を公開するか否かの切替設定をすることができる。また、公開されているオブジェクトを非公開エリアの領域A2に移動させることができる。
図7は、視聴者端末300に表示される配信画面の一例を示している。領域A3には、仮想空間内の映像において、仮想カメラを示すオブジェクト40の視点でレンダリングされた画像が動画として表示される。領域A4には、視聴者が投稿するコメント入力欄が表示され、その右には、投稿実行ボタンB1が表示される。
この配信画面には、配信者を示す仮想キャラクタ50と、公開制限設定がされているテーブルを示すオブジェクト30しか表示されていない。配信画面では、非公開エリアに設定されている領域A2は存在しないことになっている。なお、配信画面には、図6の配信者目線の映像には入っていなかった配信者を示す仮想キャラクタ50が入っている。これは、配信者端末200と、視聴者端末300とでは、視点が異なるからである。
図8は、視聴者によって使用される参加者端末400aに表示される仮想空間の映像の一例を示している。この例では、参加者端末400aは、配信者による公開制限設定が適用されている。
この場合、参加者端末400aには、図6に示す非公開エリアに設定されている領域A2は表示されない。非公開エリアの領域A2に配置されている仮想カメラを示すオブジェクト40も表示されない。台本を示すオブジェクト10及びタイムキーパーを示すオブジェクト20は、公開制限設定されているため、これらも表示されない。なお、図8に示す映像は、参加者の固有の視点でレンダリングされているため、図6や図7とは視点が異なる。
図9は、他の配信者によって使用される参加者端末400bに表示される仮想空間の映像の一例を示している。この例では、参加者端末400bは、配信者による許可設定が適用され、公開制限設定が緩和されている。
この場合、参加者端末400bには、図6に示す非公開エリアに設定されている領域A2に対応する領域A7が表示される。「領域A2に対応する領域A7」というのは、配信者の視点で映る領域A2と参加者の視点で映る領域A7とでは視点が異なる点で相違することを意味する。領域A7には、非公開エリアの領域A2に配置されている仮想カメラを示すオブジェクト40も表示される。
台本を示すオブジェクト10及びタイムキーパーを示すオブジェクト20は、図9では表示されていない。しかし、これらも参加者端末400bに表示されてもよい。配信者は、配信者端末200を操作して、公開制限設定をオブジェクト毎に設定可能である。
<処理の流れ>
以下、図10を参照しながら、コンテンツ配信サーバ100が実行する制御処理の一例を説明する。この処理は、配信者端末200がコンテンツ配信サーバ100にログインして、ライブコンテンツの配信準備を開始したことを契機に実行される。
まず、制御部140は、配信者端末200に配信前映像を表示させる(ステップS101)。制御部140は、通信部110を介して、配信前映像や初期設定を行うための情報等を配信者端末200に送信する。なお、制御部140は、参加者が配信者と同様に最初から参加する場合には、参加者端末400にも配信前映像を表示させる。
配信前映像は、例えば、背景や各種オブジェクトを含む仮想空間内の映像であり、配信者がどのような仮想空間で配信を行うか設定するための映像である。配信前映像では、仮想キャラクタは表示されなくてもよいし、配信者の情報と連動していない状態で表示されてもよい。また、配信前映像において、記憶部120に記憶されている仮想キャラクタやオブジェクトを表示させ、それらを選択肢として、配信者に配信に使用するものを選択させてもよい。
次に、制御部140の情報取得部141は、通信部110を介して、配信者端末200から各種情報を取得する(ステップS102)。各種情報は、例えば、配信者が使用する仮想キャラクタの情報やモーション情報である。なお、制御部140の情報取得部141は、参加者が配信に参加したタイミングで、通信部110を介して、参加者端末400からも各種情報を取得する。
制御部140の配信部143は、配信者端末200に合成した映像を表示させる(ステップS103)。具体的には、制御部140の映像生成部142が配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する。制御部140の配信部143は、通信部110を介して配信者端末200に合成した仮想空間内の映像を示す情報を送信する。
なお、制御部140の映像生成部142は、参加者が配信に参加している場合には、参加者の情報についても参加者の仮想キャラクタの情報として反映した仮想空間内の映像を生成する。この場合、制御部140の配信部143は、参加者端末400にも合成した仮想空間内の映像を示す情報を送信する。ただし、この情報は、参加者の視点の映像を示す情報であるため、配信者端末200に送信される情報とは異なる。
ここで、制御部140は、通信部110を介して、配信者端末200から各種設定を受け付ける(ステップS104)。各種設定には、第1の設定受付部144が受け受ける第1の設定(公開制限設定)と、第2の設定受付部145が受け付ける第2の設定(許可設定)とが含まれる。
制御部140は、公開制限設定があるか否かを判別する(ステップS105)。制御部140は、公開制限設定がないと判別した場合(ステップS105;N)、合成した仮想空間内の映像に基づいてライブコンテンツを配信する(ステップS109)。この場合、制御部140の配信部143は、同じ仮想空間内の映像に基づいてライブコンテンツを、配信者端末200、視聴者端末300、参加者端末400に配信する。
一方、制御部140は、公開制限設定があると判別した場合(ステップS105;Y)、ライブコンテンツの表示に制限をかける(ステップS106)。公開制限の具体的な方法については上述した具体例の通りである。
また、制御部140は、許可設定があるか否かを判別する(ステップS107)。制御部140は、許可設定がないと判別した場合(ステップS107;N)、合成した仮想空間内の映像に基づいてライブコンテンツを配信する(ステップS109)。この場合、制御部140の配信部143は、視聴者端末300及び参加者端末400にライブコンテンツの表示に制限をかけた状態で、ライブコンテンツを配信する。
一方、制御部140は、許可設定があると判別した場合(ステップS107;Y)、その参加者端末400については、ライブコンテンツの表示の制限を緩和する(ステップS108)。この場合、制御部140の配信部143は、合成した仮想空間内の映像に基づいてライブコンテンツを配信する(ステップS109)。
ただし、視聴者端末300及び許可設定されていない参加者端末400には、ライブコンテンツの表示に制限をかけた状態で、ライブコンテンツを配信する。例えば、許可設定された参加者端末400(例えば参加者端末400b)には、公開制限されたオブジェクトも表示させた状態でライブコンテンツが配信される。許可設定されていない参加者端末400(例えば参加者端末400a)には、公開制限されたオブジェクトを表示させない状態でライブコンテンツが配信される。
<効果の説明>
本実施形態に係るコンテンツ配信システム1において、コンテンツ配信サーバ100は、公開制限設定を受け付ける第1の設定受付部144を備え、配信者端末200は、第1の設定情報送信部285を備えている。
この場合、配信者は、仮想空間内に表示されるオブジェクトについて公開制限設定することができる。これにより、配信者の都合で使用され、かつ視聴者に視聴されたくないオブジェクトを、配信者端末200には表示させ、視聴者端末300には表示させないことが可能となる。
また、本実施形態に係るコンテンツ配信システム1において、コンテンツ配信サーバ100は、許可設定を受け付ける第2の設定受付部145を備え、配信者端末200は、第2の設定情報送信部286を備えている。この場合、配信者は、参加者端末400に対して許可設定することによって参加者には公開制限設定されているオブジェクトを視聴させることができる。このように、配信者は、配信状況に応じて公開を制限することができる。
以上で実施形態の説明を終了するが、上記実施形態は一例に過ぎない。そのため、コンテンツ配信システム1の具体的な構成、処理の内容等は上記実施形態で説明したものに限られない。以下、上記実施形態の変形例について説明する。なお、実施形態に係るコンテンツ配信システム1と共通する構成要素については同一の符号を付して説明する。
(変形例)
コンテンツ配信サーバ100が実行する制御処理の順序は、図10に示す例に限られない。例えば、ステップS101の配信前映像を表示させる処理は省略されてもよい。ステップS104の各種設定を受け付ける処理は、ステップS109以降のライブコンテンツの配信中に実行されてもよいし、ステップS102やステップS103より前のタイミングで実行されてもよい。
上記実施形態では、各種設定に応じて、コンテンツ配信サーバ100が配信するコンテンツの内容に変形を加えている。すなわち、配信段階でコンテンツの表示制限を実行している。しかし、配信されるコンテンツの内容はすべて同じであってもよく、受信側で映像を表示させる段階でコンテンツに表示制限を実行してもよい。視聴者端末300や参加者端末400がプログラムを実行してコンテンツを表示する際に、各種設定に応じて表示制限を実行してもよい。例えば、視聴者端末300や参加者端末400が、配信者による各種設定の情報を受信して、それに応じた動作を行うことによって、このような変形が実現可能である。
公開制限設定の方法は、上記実施形態に示すものに限られない。例えば、第1の設定受付部144は、配信者端末200に表示される仮想空間内にモザイクオブジェクトを表示させる設定を受け付けてもよい。配信部143は、そのモザイクオブジェクトと重なる領域を視聴者端末300にはモザイクをかけた状態で表示させ、そのモザイクオブジェクトを介してオブジェクトに対する公開制限設定を行うように構成されてもよい。
例えば、図11では、視聴者端末300において円板状のモザイクオブジェクト60が表示されている。このモザイクオブジェクト60は、重なる領域をモザイク状態で表示させる。ただし、モザイクオブジェクト60は、視聴者端末300にはモザイク状態を表示させるのに対し、配信者端末200や許可設定がなされた参加者端末400には透過状態を表示させる。
この場合、配信者は、モザイクオブジェクト60又は隠したいオブジェクトを移動させ、隠したいオブジェクトがモザイクオブジェクト60と重なるように配置することができる。モザイクオブジェクト60は、配信者の仮想キャラクタが保持して移動させることが可能な構成にされてもよいし、配信者が所定の操作を行った場合に移動するように構成されてもよい。
これにより、隠したいオブジェクト(例えば、タイムキーパーを示すオブジェクト20)にモザイクをかけて視聴者端末300に表示させることが可能となる。一方、配信者と許可設定されている参加者は、モザイクオブジェクト60と重なる領域であっても、モザイクオブジェクト60が透過した状態で映像を閲覧することができる。
モザイクオブジェクト60は、図11に示す円板状に限られない。例えば、容器のように周囲を覆う形状であってもよい。この場合、隠したいオブジェクトを保持しつつ、仮想カメラによる撮影角度が変わった場合であってもモザイク状態を維持することが可能となる。
上記実施形態では、公開制限設定と許可設定に基づいて、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限する構成を説明した。しかし、コンテンツ配信サーバ100は、オブジェクトの公開を制限するだけでなく、音声の公開を制限し、配信者端末200、視聴者端末300、参加者端末400のそれぞれを制御する構成をさらに備えていてもよい。
例えば、コンテンツ配信サーバ100は、公開制限設定と許可設定に基づいて、配信者端末200、視聴者端末300、参加者端末400のそれぞれに異なる音声出力を実行させる構成であってもよい。例えば、配信者端末200と許可設定されている参加者端末400には、所定のタイミングで所定の音声を出力させ、視聴者端末300には、その所定の音声を出力させない構成であってもよい。所定の音声は、例えば、「あと5分で終わりです。」のような配信の進行スケジュールに基づくナビゲーションであってもよいし、配信者又は参加者が使用する話題の題材を提示するものであってもよい。
また、音声出力の制御は、これに限られない。例えば、コンテンツ配信サーバ100は、公開制限設定と許可設定に基づいて、配信者と参加者との間で秘密の会話を可能とするために、配信者端末200と参加者端末400には互いの会話を音声出力させ、視聴者端末300にはその会話を音声出力させない構成であってもよい。このような音声出力制御は、例えば、第1の設定受付部144と、第2の設定受付部145と、音声出力制御部283、363、483との協働によって実現される。
上記実施形態に係るコンテンツ配信システム1では、配信者端末200と視聴者端末300と参加者端末400とを異なる構成とし、それぞれを区別可能にしている。しかし、これらの各装置の構成要素を組み合わせて、その装置を配信者端末、視聴者端末及び参加者端末として機能する構成としてもよい。
また、本開示に係るコンテンツ配信システムは、上記装置によらず、例えば、コンピュータがプログラムを実行することで、その機能を実現してもよい。コンテンツ配信システム1の機能を実現するためのプログラムは、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disc)、HDD(Hard Disc Drive)等のコンピュータ読み取り可能な記録媒体に記憶されてもよいし、ネットワークを介してコンピュータにダウンロードされてもよい。
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
1…コンテンツ配信システム、100…コンテンツ配信サーバ、200…配信者端末、300…視聴者端末、400…参加者端末、141…情報取得部、142…映像生成部、143…配信部、144…第1の設定受付部、145…第2の設定受付部、281,361,481…コンテンツ取得部、282,362,482…表示制御部、283,363,483…音声出力制御部、284,484…入力情報送信部、285…第1の設定情報送信部、286…第2の設定情報送信部

Claims (17)

  1. 配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成部と、
    前記映像生成部が生成した映像に基づいてライブコンテンツを配信する配信部と、
    前記配信者が使用する配信者端末から、該配信者端末に表示される前記仮想空間内に存在するオブジェクトに対して、前記ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部と、
    を備えることを特徴とするコンテンツ配信サーバ。
  2. 前記配信者端末から、前記配信者による配信に参加する参加者が使用する参加者端末に、前記公開制限設定されている前記オブジェクトを表示させる許可設定を受け付ける第2の設定受付部をさらに備える、
    ことを特徴とする請求項1に記載のコンテンツ配信サーバ。
  3. 前記配信者端末によって前記許可設定された前記参加者端末には、前記公開制限設定されている前記オブジェクトを表示させ、前記配信者端末によって前記許可設定されていない前記参加者端末には、前記公開制限設定されている前記オブジェクトを表示させない、
    ことを特徴とする請求項2に記載のコンテンツ配信サーバ。
  4. 前記第1の設定受付部は、前記オブジェクトに対して、該オブジェクトを前記視聴者端末に表示させるか否かの切替設定を受け付け、該切替設定を前記公開制限設定として受け付ける、
    ことを特徴とする請求項1から3のいずれか1項に記載のコンテンツ配信サーバ。
  5. 前記第1の設定受付部は、前記オブジェクトに対して、該オブジェクトを前記視聴者端末には別の前記オブジェクトとして表示させる又はぼかした状態で表示させるための表示変更設定を受け付け、該表示変更設定を前記公開制限設定として受け付ける、
    ことを特徴とする請求項1から4のいずれか1項に記載のコンテンツ配信サーバ。
  6. 前記第1の設定受付部は、前記配信者端末に表示される前記仮想空間内の一部のエリアを、前記視聴者端末には表示させない非公開エリアとする設定を受け付け、該非公開エリアを介して前記オブジェクトに対する前記公開制限設定を行う、
    ことを特徴とする請求項1から5のいずれか1項に記載のコンテンツ配信サーバ。
  7. 前記非公開エリアを介した前記オブジェクトに対する前記公開制限設定は、前記配信者が前記仮想空間内での物理的な作用により該オブジェクトを該非公開エリアに移動させることによって行われる、
    ことを特徴とする請求項6に記載のコンテンツ配信サーバ。
  8. 前記非公開エリアを介した前記オブジェクトに対する前記公開制限設定は、前記配信者が該オブジェクトを移動させるためのインターフェース操作を実行することによって行われる、
    ことを特徴とする請求項6に記載のコンテンツ配信サーバ。
  9. 前記非公開エリアの位置を、前記配信者の前記仮想キャラクタの動きに追従させる、
    ことを特徴とする請求項6から8のいずれか1項に記載のコンテンツ配信サーバ。
  10. 前記第1の設定受付部は、前記配信者端末に表示される前記仮想空間内にモザイクオブジェクトを表示させる設定を受け付け、該モザイクオブジェクトと重なる領域を前記視聴者端末にはモザイクをかけた状態で表示させ、該モザイクオブジェクトを介して前記オブジェクトに対する前記公開制限設定を行う、
    ことを特徴とする請求項1から9のいずれか1項に記載のコンテンツ配信サーバ。
  11. 前記公開制限設定の対象となる前記オブジェクトは、台本と、タイムキーパーと、仮想カメラ又は該仮想カメラの位置とのいずれかを示す前記オブジェクトである、
    ことを特徴とする請求項1から10のいずれか1項に記載のコンテンツ配信サーバ。
  12. 前記台本又は前記タイムキーパーを示す前記オブジェクトを、前記配信者の前記仮想キャラクタの動きに追従させる、
    ことを特徴とする請求項11に記載のコンテンツ配信サーバ。
  13. 前記配信者端末に表示される前記仮想空間内に存在する前記オブジェクトには、前記公開制限設定の対象となっているか否かを示すマーキングが付与される、
    ことを特徴とする請求項1から12のいずれか1項に記載のコンテンツ配信サーバ。
  14. 前記公開制限設定と前記許可設定に基づいて、前記配信者端末と、前記視聴者端末と、前記参加者端末とのそれぞれに異なる音声出力を実行させる、
    ことを特徴とする請求項2又は3に記載のコンテンツ配信サーバ。
  15. 配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像に基づいてライブコンテンツを配信するコンテンツ配信サーバと、
    前記配信者が使用する配信者端末と、
    前記ライブコンテンツを視聴する視聴者が使用する視聴者端末と、
    を備えるコンテンツ配信システムであって、
    前記コンテンツ配信サーバは、前記配信者端末から公開制限設定を受け付けた場合に、該配信者端末に表示される前記仮想空間内に存在するオブジェクトが前記視聴者端末に表示されることを制限する、
    ことを特徴とするコンテンツ配信システム。
  16. 配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成ステップと、
    前記映像生成ステップにおいて生成された映像に基づいてライブコンテンツを配信する配信ステップと、
    前記配信者が使用する配信者端末から、該配信者端末に表示される前記仮想空間内に存在するオブジェクトに対して、前記ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付ステップと、
    を含むことを特徴とするコンテンツ配信方法。
  17. コンピュータを、
    配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する映像生成手段、
    前記映像生成手段が生成した映像に基づいてライブコンテンツを配信する配信手段、
    前記配信者が使用する配信者端末から、該配信者端末に表示される前記仮想空間内に存在するオブジェクトに対して、前記ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付手段、
    として機能させるプログラム。
JP2018077135A 2018-04-12 2018-04-12 コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム Active JP6397595B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018077135A JP6397595B1 (ja) 2018-04-12 2018-04-12 コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077135A JP6397595B1 (ja) 2018-04-12 2018-04-12 コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018163511A Division JP2019185720A (ja) 2018-08-31 2018-08-31 コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6397595B1 JP6397595B1 (ja) 2018-09-26
JP2019186799A true JP2019186799A (ja) 2019-10-24

Family

ID=63668559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077135A Active JP6397595B1 (ja) 2018-04-12 2018-04-12 コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6397595B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046753A (ja) * 2018-09-14 2020-03-26 株式会社コロプラ プログラム、情報処理方法及び情報処理装置
JP2020161168A (ja) * 2020-06-16 2020-10-01 株式会社コロプラ プログラム、情報処理方法及び情報処理装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115086736A (zh) 2018-05-08 2022-09-20 日本聚逸株式会社 动态图像分发系统及其方法和记录介质
KR102585051B1 (ko) 2018-05-08 2023-10-04 그리 가부시키가이샤 액터의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
US11128932B2 (en) 2018-05-09 2021-09-21 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of actors
US11044535B2 (en) 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
JP7094216B2 (ja) 2018-12-28 2022-07-01 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6726322B1 (ja) * 2019-01-11 2020-07-22 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP6785325B2 (ja) * 2019-01-11 2020-11-18 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP7305599B2 (ja) * 2019-01-11 2023-07-10 株式会社コロプラ プログラム
JP6843164B2 (ja) * 2019-01-25 2021-03-17 株式会社コロプラ プログラム、方法、および情報処理装置
JP7398873B2 (ja) * 2019-03-29 2023-12-15 株式会社バンダイナムコエンターテインメント サーバシステムおよび動画配信システム
JP6684952B1 (ja) * 2019-06-28 2020-04-22 株式会社ドワンゴ コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008106196A1 (en) * 2007-03-01 2008-09-04 Sony Computer Entertainment America Inc. Virtual world avatar control, interactivity and communication interactive messaging
JP2014021570A (ja) * 2012-07-12 2014-02-03 Sony Computer Entertainment Inc 動画像生成装置
JP2018028789A (ja) * 2016-08-17 2018-02-22 クラスター株式会社 サーバ、情報の送信方法及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008106196A1 (en) * 2007-03-01 2008-09-04 Sony Computer Entertainment America Inc. Virtual world avatar control, interactivity and communication interactive messaging
JP2014021570A (ja) * 2012-07-12 2014-02-03 Sony Computer Entertainment Inc 動画像生成装置
JP2018028789A (ja) * 2016-08-17 2018-02-22 クラスター株式会社 サーバ、情報の送信方法及びそのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046753A (ja) * 2018-09-14 2020-03-26 株式会社コロプラ プログラム、情報処理方法及び情報処理装置
JP2020161168A (ja) * 2020-06-16 2020-10-01 株式会社コロプラ プログラム、情報処理方法及び情報処理装置
JP7138138B2 (ja) 2020-06-16 2022-09-15 株式会社コロプラ プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
JP6397595B1 (ja) 2018-09-26

Similar Documents

Publication Publication Date Title
JP6397595B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
US11277585B2 (en) Content distribution server, content distribution system, content distribution method, and program
US11863813B2 (en) System and methods for interactive filters in live streaming media
JP6469279B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
US11956504B2 (en) Content distribution server, content distribution system, content distribution method, and program
US20180356885A1 (en) Systems and methods for directing attention of a user to virtual content that is displayable on a user device operated by the user
JP6556301B1 (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2024050721A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
CN102595212A (zh) 与多媒体内容的模拟组交互
US20180336069A1 (en) Systems and methods for a hardware agnostic virtual experience
JP6883140B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2020017950A (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2019185720A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2020039112A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP6473265B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP6487585B1 (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2020039109A (ja) コンテンツ配信サーバ、コンテンツ配信方法及びプログラム
JP2022097350A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2019185736A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP7470337B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7470312B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2019185750A (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2020038601A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
WO2023215637A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
CN115904159A (zh) 虚拟场景中的显示方法、装置、客户端设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180710

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R150 Certificate of patent or registration of utility model

Ref document number: 6397595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250