JP2021005319A - 制御サーバ、配信システム、制御方法及びプログラム - Google Patents

制御サーバ、配信システム、制御方法及びプログラム Download PDF

Info

Publication number
JP2021005319A
JP2021005319A JP2019120101A JP2019120101A JP2021005319A JP 2021005319 A JP2021005319 A JP 2021005319A JP 2019120101 A JP2019120101 A JP 2019120101A JP 2019120101 A JP2019120101 A JP 2019120101A JP 2021005319 A JP2021005319 A JP 2021005319A
Authority
JP
Japan
Prior art keywords
state
camera
virtual space
virtual
distributor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019120101A
Other languages
English (en)
Other versions
JP6695482B1 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
俊博 清水
Toshihiro Shimizu
俊博 清水
尚 小嶋
Takashi Kojima
尚 小嶋
寛明 齊藤
Hiroaki Saito
寛明 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2019120101A priority Critical patent/JP6695482B1/ja
Priority to JP2020075125A priority patent/JP7360989B2/ja
Application granted granted Critical
Publication of JP6695482B1 publication Critical patent/JP6695482B1/ja
Publication of JP2021005319A publication Critical patent/JP2021005319A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間内のアバターを撮影した動画の配信において、状況に応じて適したカメラ割りを行う。【解決手段】仮想空間を撮影する仮想カメラを制御する制御サーバ20は、複数のカメラ割りのそれぞれを状態とし、仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部23と、仮想空間の状況を解析する解析部21と、解析結果に基づき、有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように仮想カメラを制御する制御部22を備える。【選択図】図3

Description

本発明は、制御サーバ、配信システム、制御方法及びプログラムに関する。
仮想現実(VR)技術を利用し、仮想空間内のスタジオでの番組を仮想カメラで撮影した映像を配信するサービスが知られている。配信者は、仮想空間内でアバターとして番組に参加する。仮想空間内のスタジオを利用することで、遠隔地の複数の配信者が共同して番組を進行することもできる。また、視聴者もアバターとして番組に参加することもできる。
特許4625058号
仮想空間内に複数のアバターが存在する番組では、参加しているアバター全員を撮影した映像や発言しているアバターのアップの映像など、番組の進行に応じてカメラ割りを変えると見やすい番組を配信できる。
しかしながら、状況に適したカメラ割りをするためには、仮想空間内の仮想カメラを操作するスタッフが必要である。1人または少人数で番組を生配信する場合は、カメラを操作する専門のスタッフはおらず、状況に応じたカメラ割りをすることが難しいという問題があった。
特許文献1には、ユーザの指示またはシナリオによりアバターを仮想空間内で自動的に行動させ、ユーザからの指示によって位置の異なる複数のカメラの撮影画像を切り替える技術が開示されている。特許文献1には、仮想空間内の複数の位置に配置されたカメラの撮影画像を切り替えることは開示されているが、カメラの切り替えは、ユーザの指示または仮想空間内の所定の位置及び時間を予め定めたシナリオに基づくものであり、状況に応じて自動的に切り替わるものではない。
本発明は、上記に鑑みてなされたものであり、仮想空間を撮影した動画の配信において、状況に応じて適したカメラ割りを自動的に行うことを目的とする。
本発明の一態様の制御サーバは、仮想空間を撮影する仮想カメラを制御する制御サーバであって、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、を有する。
本発明の一態様の配信システムは、仮想空間を撮影した映像を端末へ配信する配信システムであって、仮想空間を撮影した映像を端末へ配信する配信サーバと前記仮想空間を撮影する仮想カメラを制御する制御サーバを有し、前記制御サーバは、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、を備える。
本発明によれば、仮想空間を撮影した動画の配信において、状況に応じて適したカメラ割りを自動的に行うことができる。具体的には、本発明によれば、有限オートマトンを用いてカメラ割りを制御することにより、VRコンテンツにおける配信者の挙動に応じて無限にシナリオ(カメラ割り)が増えることなく、効果のあるシナリオに絞られて演出上の効果が発揮される。
図1は、本実施形態の番組配信システムの全体的な構成例を示すブロック図である。 図2は、配信者がヘッドマウントディスプレイを装着した様子を示す図である。 図3は、制御サーバの構成例を示す機能ブロック図である。 図4は、制御サーバの保持する有限オートマトンの一例を示す図である。 図5は、制御サーバによる仮想カメラの制御処理の流れを示すフローチャートである。 図6は、仮想空間内のスタジオの一例を示す図である。 図7は、仮想空間内のスタジオの全体を撮影した画面例を示す図である。 図8は、2人の配信者アバターを撮影した画面例を示す図である。 図9は、一方の配信者アバターのアップを撮影した画面例を示す図である。 図10は、他方の配信者アバターのアップを撮影した画面例を示す図である。 図11は、画面を分割して配信者アバターを表示した画面例を示す図である。 図12は、ディスプレイオブジェクトの両脇に配信者アバターを配置した画面例を示す図である。
[システム構成]
以下、本発明の一実施形態の番組配信システムについて図面を用いて説明する。
本実施形態の番組配信システムは、配信者が3次元仮想空間内で配信者アバターとして番組に参加し、番組が進行する仮想空間を撮影した映像をライブ配信するシステムである。また、本実施形態の番組配信システムでは、視聴者も配信者と同じ仮想空間内に視聴者アバターとして番組に参加できる。
図1に示す本実施形態の番組配信システムは、配信サーバ10、制御サーバ20、配信者端末30、および視聴者端末40を備える。各装置は、ネットワークを介して接続されている。配信サーバ10と制御サーバ20は動画配信サービスを提供する事業者が用意する装置である。配信者端末30と視聴者端末40は、配信者および視聴者のそれぞれが自身で所有または用意する端末である。事業者から見れば、配信者と視聴者の双方が自社サービスを利用するユーザである。もちろん、事業者自身が配信者となってもよい。図1では、2台の配信者端末30と3台の視聴者端末40を図示しているが、各装置の台数をこれに限るものではない。
配信サーバ10は、ネットワークを介して、配信者端末30から配信者の音声および配信者アバターのモーションデータを受信する。例えば、2人の配信者が参加する番組であれば、2人の配信者それぞれの配信者端末30から2人の配信者それぞれの音声および配信者アバターのモーションデータを受信する。配信サーバ10は、モーションデータに基づいて配信者アバターの動きを制御する。モーションデータはアバターの表情を含んでもよい。
配信サーバ10は、音声および仮想カメラで仮想空間を撮影した映像(配信サーバ10がレンダリングした映像)を視聴者端末40へ配信する。配信サーバ10は、仮想空間をレンダリングするためのデータセットを視聴者端末40へ送信し、視聴者端末40が仮想空間をレンダリングしてもよい。配信サーバ10は、配信者端末30へ映像を配信してもよい。
配信者端末30や視聴者端末40がヘッドマウントディスプレイ(HMD)などを備えたVR機能を有する端末であれば、配信サーバ10は、仮想空間を構築するためのデータセットを端末へ送信する。端末は、受信したデータセットに基づいて仮想空間を構築し、HMDで検知した視線方向に基づいて仮想空間をレンダリングして、HMDに映像を映す。なお、仮想空間のレンダリングは配信サーバ10が行ってもよい。例えば、配信サーバ10が端末から視線方向を受信し、配信サーバ10が受信した視線方向に基づいて仮想空間をレンダリングした映像を端末へ配信し、端末は受信した映像をHMDに映す。
配信サーバ10は、視聴者端末40からコメントを受信し、配信する映像にコメントを重畳させてもよい。
番組に視聴者を参加させてもよい。例えば、視聴者が視聴者端末40に対して番組に参加する操作を行うと、配信サーバ10は、視聴者が番組に参加することを知らせる通知を視聴者端末40から受信する。配信サーバ10は、視聴者に対応する視聴者アバターを仮想空間内に配置する。視聴者が番組に参加しているときは、配信サーバ10は、視聴者の音声および視聴者アバターのモーションデータを視聴者端末40から受信し、モーションデータに基づいて視聴者アバターの動きを制御する。
制御サーバ20は、仮想空間での番組を撮影する仮想カメラを制御する装置である。制御サーバ20は、カメラ割りを状態とし、仮想空間の状況を遷移条件とした有限オートマトンに従って仮想空間内の仮想カメラを制御する。制御サーバ20は、状態の遷移に従って仮想空間内のレイアウト(オブジェクトの配置)を変更してもよい。制御サーバ20の詳細については後述する。本実施形態が用いる有限オートマトンとは、有限個の状態と遷移と動作の組み合わせからなる数学的に抽象化されたモデルである。有限個の「状態」のうちある時点では1つの状態しかとらず、何らかのイベントや条件によってある状態から別の状態へと移行する。ある状態から別の状態へ移行することを「遷移」と呼ぶ。有限オートマトンは、それぞれの状態から遷移しうる状態と、遷移のきっかけとなる条件を列挙することで定義される。
配信者端末30は、配信者が番組を配信するために使用する端末である。配信者端末30として、VR機能を有するスマートフォンおよびパーソナルコンピュータなどの任意のコンピュータ機器を用いることができる。配信者端末30は、図2に示すように、配信者が装着するHMD31を備える。配信者端末30は、配信者からの入力を受け付けて、仮想空間内に配置される配信者アバターを操作するためのコントローラ32を備えてもよい。配信者端末30は、HMD31で検知する配信者の頭の動きおよびコントローラ32による操作に基づいて配信者アバターのモーションデータを生成する。
配信者端末30は、配信サーバ10から仮想空間を構築するためのデータセットを受信し、受信したデータに基づいて仮想空間を構築し、仮想空間をレンダリングして、HMD31に映像を映す。
配信者端末30は、配信者の音声および配信者アバターのモーションデータを配信サーバ10へ送信する。配信者は、配信者アバターを動かしながら、他の配信者や視聴者と会話することで番組を進行する。
なお、配信者端末30として、HMD31を備えず、カメラを内蔵またはカメラを接続した端末を用いてもよい。この場合、配信者端末30は、カメラで配信者を撮影し、配信者を撮影した映像から配信者アバターのモーションデータを生成する。配信者端末30は、配信サーバ10から仮想カメラで仮想空間内を撮影した映像を受信して表示する。
視聴者端末40は、視聴者が番組を視聴するために使用する端末である。視聴者端末40は、配信サーバ10から番組の映像を受信して表示できる機能を備える機器であれば、スマートフォン、タブレット端末、テレビシステム、パーソナルコンピュータなどの任意のコンピュータ機器を用いることができる。視聴者端末40は、視聴者から入力したコメントを配信サーバ10へ送信してもよい。
視聴者が視聴者アバターとして番組に参加する場合、視聴者端末40は、視聴者の音声および視聴者アバターのモーションデータを配信サーバ10へ送信する。
[サーバ構成]
図3を参照し、制御サーバについて説明する。
図3に示す制御サーバ20は、解析部21、制御部22、および記憶部23を備える。制御サーバ20は、複数のカメラ割りのそれぞれを状態として持ち、仮想空間の状況に応じて状態間を遷移させて、カメラ割りを自動的に制御する。
解析部21は、仮想空間の状況を解析する。解析対象の仮想空間の状況には、アバターの音声(配信者および視聴者の音声)を含めてもよい。例えば、解析部21は、発話したアバター、発話したアバターの順番、発話の音量、発話の長さ、発話の内容、アバターのポーズ、コメント数、番組に参加した視聴者アバターの数などを解析する。
制御部22は、解析結果に基づき、有限オートマトンに従ってカメラ割りの状態を遷移させる。制御部22は、状態を遷移させると、遷移後の状態に紐付けられた仮想カメラの制御情報に基づいて仮想カメラを制御する。
制御部22は、例えば図4に示すような、有限オートマトンに従って仮想カメラを制御する。図4の例では、4つのカメラ割りの状態S1〜S4を持ち、制御部22の保持する状態は、状態S1〜S4間を条件A〜Hに従って遷移する。図4の有限オートマトンを用いた画面の遷移については後述する。
記憶部23は、複数のカメラ割りのそれぞれを状態とし、仮想空間の状況を遷移条件とした有限オートマトンと、状態ごとの仮想カメラの制御情報を記憶する。
記憶部23は、複数種類の有限オートマトンを記憶してもよい。例えば、有限オートマトンの例としては、配信者アバターが1人の番組のカメラ割りの遷移を示す有限オートマトン、配信者アバターが2人の番組のカメラ割りの遷移を示す有限オートマトン、複数の配信者アバターが討論する番組のカメラ割りの遷移を示す有限オートマトン、配信者アバターが動画やゲーム画面を見ながら解説する番組のカメラ割りの遷移を示す有限オートマトンなど様々なものが考えられる。記憶部23は、上記に限らず、配信する番組に応じた有限オートマトンを記憶する。有限オートマトンは事業者が用意したものであってもよいし、配信者が作成したものであってもよい。
上記制御サーバ20には、例えば、中央演算処理装置(CPU)と、メモリと、ストレージと、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、制御サーバ20が実現される。このプログラムは磁気ディスク、光ディスク、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。制御サーバ20の機能を配信サーバ10が備えてもよい。
[カメラ制御処理]
図5を参照し、制御サーバによる仮想カメラの制御処理の流れについて説明する。
配信者は、番組配信前に、番組に適した有限オートマトンを選択しておく。もしくは、配信者は、番組用に複数の有限オートマトンを選択しておき、その中から、視聴者が有限オートマトンを選択してもよい。例えば、2人の配信者アバターが参加する番組において、各配信者アバターのそれぞれを重点的に映すカメラ割りの有限オートマトンを別々に用意しておく。スタジオ全体を重点的に映すカメラ割りの有限オートマトンを用意してもよい。視聴者は、番組を視聴する際に、自分の応援する配信者アバターをより重点的に映すカメラ割りの有限オートマトンを選択できる。各有限オートマトンでは、遷移条件のウエイトを配信者アバターごとに異ならせておく。視聴者の属性情報を収集しておき、制御サーバ20が視聴者の属性情報に基づいて有限オートマトンを選択してもよい。制御サーバ20は、配信先の視聴者端末40の種別に応じて適用する有限オートマトンを選択してもよい。
番組の配信を開始すると、ステップS11にて、解析部21は、仮想空間の状況を解析する。発話の解析に関して、アバターごとにウエイト付けを異ならせてもよい。例えば、解析部21は、配信者アバターと視聴者アバターとでは配信者アバターの発話により大きいウエイト付けをする。解析部21は、発話の解析結果をスコアに換算し、ウエイトに基づいてスコアを補正する。有限オートマトンでは、スコアに基づく遷移条件を設定しておく。
ステップS12にて、制御部22は、解析結果に基づき、現在の状態から別の状態への遷移条件が成立したか否かを判定する。遷移条件が成立していない場合、制御部22は、ステップS14に処理を進める。
遷移条件が成立した場合、ステップS13にて、制御部22は、保持する状態を遷移条件を満たした先の状態へ遷移させるとともに、遷移後の状態に応じて仮想カメラを制御する。例えば、状態S1から状態S2へ遷移する条件Aが成立した場合、制御部22は、保持する状態を状態S2へ遷移させるとともに、状態S2に対応するカメラ割りとなるように仮想カメラを制御する。
ステップS14にて、制御部22は、番組が終了したか否か判定する。番組の配信が続く場合はステップS11に戻り、処理を繰り返す。
[仮想空間内の配置]
図6を参照し、番組を撮影する仮想空間について説明する。
図6に示す仮想空間内のスタジオは、2人の配信者アバター100,200が進行する番組を配信するために用意されたものである。スタジオ内には、2人の配信者アバター100,200が配置される。この番組には、視聴者アバター300A〜300Cも参加可能である。視聴者アバター300A〜300Cは、配信者アバター100,200の後ろ側に配置される。
また、図6では、ディスプレイオブジェクト400をスタジオ内に配置している。ディスプレイオブジェクト400は、視聴者からのコメント、静止画、動画、およびゲーム画面などをはめ込んで表示できる。配信者アバター100,200は、ディスプレイオブジェクト400に表示される動画などを見ながら番組を進行してもよい。なお、図6では、スタジオの床オブジェクト、壁オブジェクトなどの背景オブジェクトは図示していない。上記以外のオブジェクトをスタジオ内に配置してもよい。
仮想空間内に配置された仮想カメラ500が仮想空間内のスタジオを撮影する。制御サーバ20が仮想カメラを制御し、配信サーバ10が仮想カメラで撮影された映像を配信する。
[画面の遷移例]
図7ないし図10を参照し、図4に示した有限オートマトンを番組のカメラ割りの遷移を示す有限オートマトンとして用いたときの、番組の画面の遷移例について説明する。
図4の有限オートマトンは、2人の配信者アバターが進行する番組用のカメラ割りの有限オートマトンである。図4の有限オートマトンにおいて、状態S1のカメラ割りはスタジオ全体を撮影するカメラ割りであり、状態S2のカメラ割りは2人の配信者アバター100,200がフレーム内に収まるカメラ割りであり、状態S3のカメラ割りは配信者アバター100のアップを映すカメラ割りであり、状態S4のカメラ割りは配信者アバター200のアップを映すカメラ割りである。
番組開始時は、状態S1からスタートする。状態S1では、仮想カメラで撮影された映像は、図7に示すように、仮想空間内のスタジオ全体を撮影した映像となる。
状態S1のとき、条件Aが成立すると、状態S2へ遷移する。条件Aは、例えば、配信者アバター100,200のいずれかが発話した、という条件である。条件Aとして、オープニング音楽が終了した、所定時間経過した、などを設定してもよい。
制御サーバ20は、状態S1のとき、配信者アバター100,200のいずれかの発話を検知すると、保持する状態を状態S1から状態S2へ遷移させるとともに、2人の配信者アバター100,200がフレーム内に収まるように、仮想カメラの位置、撮影方向、および画角等を制御する。状態S2へ遷移すると、図8に示すように、配信者アバター100,200の2人を撮影した映像となる。演出上の工夫の一環として、仮想カメラで撮影するとき仮想空間内のオブジェクトの位置は無視し、オブジェクトの位置を、見やすく、興趣性がある位置に変えて、仮想カメラによる撮影画面としてもよい。例えば、離れた位置に立つ2人の配信者アバター100,200を、近くで向い合せて、仮想カメラで撮影する。あるいは、同じ仮想空間にいる他のアバター、例えば視聴者アバターを、配信者アバター100,200を囲む位置に配置する。2人の配信者アバター100,200の間に他のアバターや仮想オブジェクトが存在し、配信者アバター100,200が隠れてしまう場合に、あえて障害となる仮想オブジェクト等を表示しない。
状態S2のとき、条件Bが成立すると状態S1に遷移し、条件Cが成立すると状態S3に遷移し、条件Eが成立すると状態S4に遷移する。
条件Cは、例えば、配信者アバター100が所定時間以上発話を続けた、という条件である。条件Eは、例えば、配信者アバター200が所定時間以上発話を続けた、という条件である。配信者アバター100,200の2人で会話している間は、状態S2とし、配信者アバター100,200のいずれかが所定時間以上続けて話すようになると、状態S3または状態S4に遷移する。
制御サーバ20は、状態S2のとき、配信者アバター100が所定時間以上発話を続けたことを検知すると、保持する状態を状態S2から状態S3へ遷移させるとともに、配信者アバター100がアップで写るように、仮想カメラを制御する。状態S3へ遷移すると、図9に示すように、配信者アバター100のアップを撮影した映像となる。
また、制御サーバ20は、状態S2のとき、配信者アバター200が所定時間以上発話を続けたことを検知すると、保持する状態を状態S2から状態S4へ遷移させるとともに、配信者アバター200がアップで写るように、仮想カメラを制御する。状態S4へ遷移すると、図10に示すように、配信者アバター200のアップを撮影した映像となる。
なお、状態S3,S4において、配信者アバター100,200のそれぞれの背景を別々に用意してもよい。例えば、状態S3,S4のそれぞれに背景オブジェクトを紐付けておき、状態S3,S4に遷移した際に、紐付けられた背景オブジェクトを指定の場所(配信者アバター100,200の後ろ)に出現させる。配信者アバター100の背景と配信者アバター200の背景とを異ならせることができる。
状態S3のとき、条件Hが成立すると状態S4に遷移し、状態S4のとき、条件Gが成立すると状態S3に遷移する。
条件Hは、例えば、配信者アバター200が発話した、という条件である。条件Gは、例えば、配信者アバター100が発話した、という条件である。配信者アバター100,200が話しているときに、相手の配信者アバター100,200が発話すると、仮想カメラは、相手の配信者アバター100,200を撮影するように制御される。条件H,Gとして、配信者アバター100,200が大きくうなずいた、などの配信者アバター100,200の動きを設定してもよい。
また、状態S3のとき、条件Dが成立すると状態S2に遷移し、状態S4のとき、条件Fが成立すると状態S2に遷移する。条件D,Fは、例えば、配信者アバター100,200が所定時間以上発話していない、という条件である。配信者アバター100,200の会話が一旦終了すると、配信者アバター100,200の2人を写した映像に戻す。あるいは、条件D,Fを、配信者アバター100,200のいずれかが「続いては」「では次の」などの番組を進行させる発話をした、という条件にして、番組のコーナーが変化する際に状態S2に遷移させて、配信者アバター100,200の2人を写すカメラ割りにしてもよい。もしくは、条件D,Fを、例えば、状態S3と状態S4との間の遷移の間隔が所定時間より短い、という条件として、配信者アバター100,200のアップを撮影した映像が頻繁に切り替わるときは、配信者アバター100,200の2人を写すカメラ割りに戻してもよい。
状態S2から状態S1に遷移する条件Bは、例えば、配信者アバター100,200の両方が手を振る動作をした、という条件である。番組終了前、配信者アバター100,200が手を振って視聴者にお別れの挨拶をすると、状態S1に遷移させてスタジオ全体の映像を配信した後、番組を終了する。条件Bとして、配信者アバター100,200の発話内容が終了の挨拶であった、番組終了時刻になった、などを設定してもよい。
遷移条件は上記に限るものではない。仮想空間内の盛り上がりを遷移条件としてもよい。例えば、配信者たちの会話を解析し、会話の盛り上がり度合いを遷移条件としてもよいし、仮想空間にいる視聴者アバターの増加傾向を遷移条件としてもよいし、あるいは仮想空間にはいないが視聴だけをしている視聴者の増加傾向を遷移条件としてもよい。また、視聴者の応援状況を遷移条件としてもよい。例えば、視聴者たちの発言、応援の数、投稿されるコメントの数や内容、どちらを応援しているか、などを遷移条件としてもよい。
このように、制御サーバ20が、単なる条件分岐でなく、状態の遷移を記した有限オートマトンに基づいて仮想カメラを制御することで、番組の進行に応じて、より自然で見やすい映像を配信できる。本発明がもたらす効果を他の局面から説明する。VR空間の配信コンテンツに限らず、例えばテレビ放送(地上波、BS放送など)される対談番組、バラエティ番組などでは、視聴者を飽きさせず興味を持たせ、盛り上がりを演出する進行(台本、カメラ割りを含む)はおのずとパターンが決まっていて、熟練した演出者やスイッチャーが最適な進行、特にカメラ割りを実行している。しかし、出演者がアドリブで発言をしたり、スタジオに居る観客の反応が盛り上がったりした場合には台本に無い進行を行うことがあり、この進行にはカメラ割りを含んでいる。
一方、近年、個人で動画配信を行うことが盛んになっており、これら動画配信にはVR空間内に配信者アバターを配置したり、複数の配信者が共通の仮想空間中にアバターとして出現して対話や動作を行ったりすることも含まれている。この場合、先に説明したような演出効果が高い進行(台本、カメラ割りなど)を行なえば、配信番組やコンテンツの充実が可能である。しかし、個人で配信を行う場合には、テレビ放送における熟練した演出者、スイッチャーを配置することは困難である。そこで本実施形態では、あらかじめ、最適な演出効果を実現するためのシナリオ(カメラ割り)を有限オートマトンとして準備しておき、実際の配信者アバターの発言や視聴者の盛り上がりなどを見てカメラ割りを最適な状態へ遷移させる。これにより、あたかも熟練の演出者やスイッチャーの手で進行がなされているかのような、演出効果が高く興趣性も高いVR動画配信、VR動画コンテンツの生成が行える。
図11に示すように、画面を分割し、分割したそれぞれの領域に、配信者アバター100,200のそれぞれを表示するカメラ割りの状態を保持してもよい。
さらに、図12に示すように、ディスプレイオブジェクト400の両脇に配信者アバター100,200を立たせて、ディスプレイオブジェクト400を映すカメラ割りの状態を保持してもよい。配信者は、配信者アバター100,200をディスプレイオブジェクト400の脇に動かす必要はない。状態にアバターやオブジェクトのレイアウトを紐付けておく。つまり、制御サーバ20は、状態に対応した仮想カメラの制御情報に加えてオブジェクトの配置を示すレイアウト情報を記憶しておく。状態が遷移したとき、制御サーバ20は、仮想カメラだけでなく、配信者アバター100,200やディスプレイオブジェクト400の位置を指定のレイアウトに合わせて変更する。
また、制御サーバ20は、番組の配信先の端末の種別または性能に応じてレイアウトを変更してもよい。例えば、パーソナルコンピュータなどの画面サイズの大きな端末に配信するときは、配信者アバター100,200のモデルとして、通常の頭身のモデルを配置し、携帯端末など画面サイズの小さな端末に配信するときは、頭を多くデフォルメした頭身の小さなモデルを配置する。同じ番組を視聴する場合であっても、パーソナルコンピュータには通常の頭身のモデルの映像が配信され、携帯端末にはデフォルメした投信のモデルの映像が配信される。視聴に用いる端末の違いで異なる映像が配信される。
制御サーバ20は、パーソナルコンピュータ用の有限オートマトンと携帯端末用の有限オートマトンを用意しておき、携帯端末用の有限オートマトンの状態には、配信者アバター100,200のモデルをデフォルメしたモデルに差し替える情報を紐付けておく。パーソナルコンピュータから視聴するときは、パーソナルコンピュータ用の有限オートマトンが選択され、携帯端末から視聴するときは、携帯端末用の有限オートマトンが選択される。携帯端末用の有限オートマトンの各状態には、デフォルメしたアバターのモデルを配置するレイアウト情報が紐付けられているので、携帯端末で番組を視聴したときにはデフォルメしたアバターが表示される。あるいは、モデルを差し替える代わりに、携帯端末用の有限オートマトンでは、パーソナルコンピュータ用の有限オートマトンよりも、配信者アバター100,200がよりアップに写るカメラ割りとしてもよい。
以上説明したように、本実施形態の番組配信システムの制御サーバ20は、複数のカメラ割りのそれぞれを状態とし、仮想空間の状況を遷移条件とした有限オートマトンを記憶しておく。制御サーバ20は、仮想空間の状況を解析し、解析結果に基づき、有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように仮想カメラを制御する。制御サーバ20が、事前に決めた有限オートマトンに基づいて仮想カメラを制御することにより、不自然なカメラ割りの遷移を排除できるので、状況に応じて適したカメラ割りを行える。
10…配信サーバ
20…制御サーバ
21…解析部
22…制御部
23…記憶部
30…配信者端末
31…HMD
32…コントローラ
40…視聴者端末
本発明の一態様の制御サーバは、仮想空間内の番組を撮影する仮想カメラを制御する制御サーバであって、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部を備え、前記遷移条件は、前記仮想空間内のアバターの発話に関する条件である
本発明の一態様の配信システムは、仮想空間内の番組を撮影した映像を端末へ配信する配信システムであって、仮想空間内の番組を撮影した映像を端末へ配信する配信サーバと前記仮想空間内の番組を撮影する仮想カメラを制御する制御サーバを有し、前記制御サーバは、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部を備え、前記遷移条件は、前記仮想空間内のアバターの発話に関する条件である
本発明の一態様の制御サーバは、仮想空間内の番組を撮影する仮想カメラを制御する制御サーバであって、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部を備え、前記遷移条件は、前記仮想空間内のアバターの発話に関する条件であり、前記番組を視聴する端末の種別に応じて適用する有限オートマトンを変更する
本発明の一態様の配信システムは、仮想空間内の番組を撮影した映像を端末へ配信する配信システムであって、仮想空間内の番組を撮影した映像を端末へ配信する配信サーバと前記仮想空間内の番組を撮影する仮想カメラを制御する制御サーバを有し、前記制御サーバは、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部を備え、前記遷移条件は、前記仮想空間内のアバターの発話に関する条件であり、前記制御サーバは、前記端末の種別に応じて適用する有限オートマトンを変更する

Claims (8)

  1. 仮想空間を撮影する仮想カメラを制御する制御サーバであって、
    複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、
    前記仮想空間の状況を解析する解析部と、
    解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、
    を備える制御サーバ。
  2. 請求項1に記載の制御サーバであって、
    前記状態に、前記仮想空間内のオブジェクトの配置情報を関連付けておき、
    前記制御部は、遷移後の状態に応じて前記オブジェクトを配置する制御サーバ。
  3. 請求項2に記載の制御サーバであって、
    前記オブジェクトは背景オブジェクトであり、前記状態に応じて前記仮想カメラで撮影される前記背景オブジェクトが異なる制御サーバ。
  4. 請求項1ないし3のいずれかに記載の制御サーバであって、
    前記遷移条件は、前記仮想空間内のアバターの発話に関する条件である制御サーバ。
  5. 仮想空間を撮影した映像を端末へ配信する配信システムであって、
    仮想空間を撮影した映像を端末へ配信する配信サーバと前記仮想空間を撮影する仮想カメラを制御する制御サーバを有し、
    前記制御サーバは、
    複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、
    前記仮想空間の状況を解析する解析部と、
    解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、
    を備える配信システム。
  6. 請求項5に記載の配信システムであって、
    前記制御サーバは、前記端末の種別に応じて適用する有限オートマトンを変更する配信システム。
  7. 仮想空間を撮影する仮想カメラを制御する制御方法であって、
    コンピュータが、
    複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶し、
    前記仮想空間の状況を解析し、
    解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する
    を有する制御方法。
  8. 仮想空間を撮影する仮想カメラを制御する制御サーバとしてコンピュータを動作させるプログラムであって、
    複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する処理と、
    前記仮想空間の状況を解析する処理と、
    解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する処理と、
    を前記コンピュータに実行させるプログラム。
JP2019120101A 2019-06-27 2019-06-27 制御サーバ、配信システム、制御方法及びプログラム Active JP6695482B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019120101A JP6695482B1 (ja) 2019-06-27 2019-06-27 制御サーバ、配信システム、制御方法及びプログラム
JP2020075125A JP7360989B2 (ja) 2019-06-27 2020-04-21 制御サーバ、端末、配信システム、制御方法、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019120101A JP6695482B1 (ja) 2019-06-27 2019-06-27 制御サーバ、配信システム、制御方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020075125A Division JP7360989B2 (ja) 2019-06-27 2020-04-21 制御サーバ、端末、配信システム、制御方法、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6695482B1 JP6695482B1 (ja) 2020-05-20
JP2021005319A true JP2021005319A (ja) 2021-01-14

Family

ID=70682437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019120101A Active JP6695482B1 (ja) 2019-06-27 2019-06-27 制御サーバ、配信システム、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6695482B1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062126B1 (ja) 2021-11-01 2022-05-02 株式会社バーチャルキャスト 端末、情報処理方法、プログラム、および記録媒体
JP7133257B1 (ja) 2022-01-14 2022-09-08 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP7312337B1 (ja) 2023-03-29 2023-07-20 株式会社バーチャルキャスト 会議システム、制御装置、制御方法、プログラム、および記録媒体
JP7489644B2 (ja) 2022-06-28 2024-05-24 グリー株式会社 コンピュータプログラム、方法及びサーバ装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264941B2 (ja) * 2021-06-17 2023-04-25 グリー株式会社 プログラム、情報処理装置及び情報処理方法
JP2024017662A (ja) * 2022-07-28 2024-02-08 株式会社バンダイナムコエンターテインメント エンターテインメントシステム、プログラム、サーバ及び表示制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097233A (ja) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd カメラワーク制御装置およびカメラワーク制御方法
JP2010109898A (ja) * 2008-10-31 2010-05-13 Canon Inc 撮影制御装置、撮影制御方法及びプログラム
JP2013176529A (ja) * 2011-06-03 2013-09-09 Nintendo Co Ltd 変更されたゲーム状態に基づいて仮想カメラの位置を変えるための装置および方法
JP2015192753A (ja) * 2014-03-31 2015-11-05 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097233A (ja) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd カメラワーク制御装置およびカメラワーク制御方法
JP2010109898A (ja) * 2008-10-31 2010-05-13 Canon Inc 撮影制御装置、撮影制御方法及びプログラム
JP2013176529A (ja) * 2011-06-03 2013-09-09 Nintendo Co Ltd 変更されたゲーム状態に基づいて仮想カメラの位置を変えるための装置および方法
JP2015192753A (ja) * 2014-03-31 2015-11-05 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡本和憲, 外2名: ""台本に基づく会話エージェントのジェスチャ自動生成"", 2004年度人工知能学会全国大会(第18回)論文集, JPN6020002350, 4 June 2004 (2004-06-04), pages 1 - 4, ISSN: 0004200081 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062126B1 (ja) 2021-11-01 2022-05-02 株式会社バーチャルキャスト 端末、情報処理方法、プログラム、および記録媒体
WO2023074898A1 (ja) * 2021-11-01 2023-05-04 株式会社ドワンゴ 端末、情報処理方法、プログラム、および記録媒体
JP2023067360A (ja) * 2021-11-01 2023-05-16 株式会社バーチャルキャスト 端末、情報処理方法、プログラム、および記録媒体
JP7133257B1 (ja) 2022-01-14 2022-09-08 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP2023103662A (ja) * 2022-01-14 2023-07-27 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP7489644B2 (ja) 2022-06-28 2024-05-24 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7312337B1 (ja) 2023-03-29 2023-07-20 株式会社バーチャルキャスト 会議システム、制御装置、制御方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
JP6695482B1 (ja) 2020-05-20

Similar Documents

Publication Publication Date Title
JP6695482B1 (ja) 制御サーバ、配信システム、制御方法及びプログラム
US20230226443A1 (en) Management of streaming video data
US11546566B2 (en) System and method for presenting and viewing a spherical video segment
US7826644B2 (en) Method and system for immersing face images into a video sequence
US10609332B1 (en) Video conferencing supporting a composite video stream
US8834268B2 (en) Peripheral device control and usage in a broadcaster mode for gaming environments
CN110998505B (zh) 具有物理视频面板的同步全息显示和3d对象
US20120154510A1 (en) Smart Camera for Virtual Conferences
JP2022177053A (ja) 情報処理システム、情報処理方法、および情報処理プログラム
US20140031121A1 (en) Broadcaster mode and broadcasting features for gaming environments
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
US20220083126A1 (en) Communication device, communication method, and communication program
US20140018157A1 (en) Reward-based features for videogame observers
US20210084239A1 (en) Systems and Methods of Transitioning Between Video Clips in Interactive Videos
WO2023035897A1 (zh) 视频数据生成方法、装置、电子设备及可读存储介质
CN113518232A (zh) 视频显示方法、装置、设备和存储介质
CN110730340B (zh) 基于镜头变换的虚拟观众席展示方法、系统及存储介质
JP5632792B2 (ja) 参加型コンテンツ管理装置、視聴端末、参加型コンテンツ管理プログラム、及び視聴プログラム
CN109754275A (zh) 数据对象信息提供方法、装置及电子设备
WO2020194973A1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7360989B2 (ja) 制御サーバ、端末、配信システム、制御方法、情報処理方法、及びプログラム
Bassbouss et al. Interactive 360° video and storytelling tool
KR20220126660A (ko) Ar 안면인식을 활용한 메타버스 화상 교육 플랫폼 제공 방법 및 네트워크 시스템
JP2011109371A (ja) 3次元画像にコメントテキストを重畳して表示するサーバ、端末、プログラム及び方法
Engstrom et al. Producing collaborative video: developing an interactive user experience for mobile tv

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190627

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200421

R150 Certificate of patent or registration of utility model

Ref document number: 6695482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250