JP6758268B2 - 表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法 - Google Patents

表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法 Download PDF

Info

Publication number
JP6758268B2
JP6758268B2 JP2017166891A JP2017166891A JP6758268B2 JP 6758268 B2 JP6758268 B2 JP 6758268B2 JP 2017166891 A JP2017166891 A JP 2017166891A JP 2017166891 A JP2017166891 A JP 2017166891A JP 6758268 B2 JP6758268 B2 JP 6758268B2
Authority
JP
Japan
Prior art keywords
viewpoint
video data
resolution
image
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017166891A
Other languages
English (en)
Other versions
JP2019047249A (ja
Inventor
福井 啓允
啓允 福井
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017166891A priority Critical patent/JP6758268B2/ja
Publication of JP2019047249A publication Critical patent/JP2019047249A/ja
Application granted granted Critical
Publication of JP6758268B2 publication Critical patent/JP6758268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、自由視点映像を合成するための多視点映像データの配信技術に関する。
次世代における高い臨場感を提供可能なメディアの一つとして、自由視点映像が注目されている。この自由視点映像を合成する技術は、対象物(オブジェクト)に対する視点をユーザが任意に指定し、指定された視点からの映像を随時提供する、といったインタラクティブな視聴サービスを可能にする技術となっている。
この自由視点映像の合成方式の1つとして、3次元モデル上に視点毎のオブジェクトを配置し、ユーザが指定した任意の仮想視点からの見え方を計算して、この仮想視点の2次元画像を描画する方法が挙げられる。ここで特に、配置されるオブジェクトの表現として2次元画像を用いる手法はビルボード方式と呼ばれている。
このビルボード方式による自由視点映像の配信においては、サーバが以下の情報(a)〜(c)を含む自由視点コンテンツをクライアントに向けて配信する。
(a)各視点の映像ストリーム
(b)各視点に存在するオブジェクト情報(マスク画像,3次元位置,大きさ情報)
(c)各視点のカメラキャリブレーション情報
クライアントは、配信された映像ストリームをデコードし、各フレームと取得したマスク画像とを比較してオブジェクト画像(ビルボード画像)を抽出した後、ユーザが指定した仮想視点からの見え方を計算して2次元画像を描画し、自由視点映像を合成するのである。
このようにクライアント側で自由視点映像の合成処理を行うためには、サーバ側で、全視点分のコンテンツを予め準備しておく必要がある。ここで特に、上記(a)の映像ストリームについては、高解像度化によって1視点当たりのビットレートも相当に高くなっており、インターネット経由で配信することを考えると、配信データ量が大きくなり過ぎるという問題が生じていた。
この問題に対し、例えば特許文献1では、全視点分の映像ストリームを配信しつつ、ユーザが現在指定している視点以外の映像についてはそのビットレートを下げることによって、全体のレートをできる限り低減させる技術が提案されている。
ちなみに、自由視点映像の配信方式として、例えば予め作成された映像コンテンツを配信する場合、VoD(Video on Demand)型配信方式を用いることが一般的である。具体的には、MPEG−DASH(Dynamic Adaptive Streaming over Hyper transfer protocol)や、HLS(HTTP Live Streaming)といったプロトコルが広く利用されている。このような方式では、予め映像ストリームを数〜10秒程度の再生時間長を有するセグメントファイルに分割しておき、クライアント側がこのセグメント単位で受信及び再生開始を行うことによって、映像ストリームを受信しながら再生する擬似ストリーミングが実現される。
さらに、映像ストリームに異なる品質(ビットレート)のものを用意し、セグメント毎に、互いに異なるビットレートのセグメントファイルを準備しておくことによって、セグメント単位でビットレートを切り替えることも可能となる。この場合、通信ネットワークの通信状況に応じ、クライアント側が要求するコンテンツの品質を変更することも可能である。具体的には、セグメント長間隔の要求時点で、直近で計測したスループットを超えない範囲内のビットレートを有するセグメントファイルを要求することができる。
特開2013−183209号公報
特許文献1に記載された技術では、ユーザが視点を選択する度に、選択された視点におけるビットレートが最大となるように確率分布を更新し、各視点へ割り当てるべきビットレートを決定している。ここで、選択される「視点」は、撮影時のカメラ視点に対応した離散的に位置する視点である。
すなわち、特許文献1に記載の技術は、各視点に割り当てるビットレートの配分を、離散的な視点のみに依存して決定している。そのため、例えば、自由視点映像を合成する際の(連続的な空間座標値である)視点位置からすると、オブジェクト画像は小さく表示され、この表示を行うのに高い品質の画像を用いても見た目としてほとんど意味がないにもかかわらず、選択された視点との関係で、より高い品質の画像が配信される、といった場合も生じてしまう。
また一方で、この視点位置からすると、オブジェクト画像が大きく詳細に表示されるので、より高い品質の画像が取得されるべきにもかかわらず、選択された視点との関係で、それほど高い品質の画像が配信されないといった場合も生じ得るのである。
さらに、例えば超高解像度の8Kカメラをもって撮影されたオブジェクト画像を含む映像データを受信し、このオブジェクト画像を高解像度の4Kディスプレイで表示した場合、この4Kディスプレイでは、このオブジェクト画像が実際の表示の2倍の大きさで表示されるような視点位置でなければ、8K相当の解像度による表示ができず、結局、無駄に大容量の映像データを取得したことになってしまう。
このように、選択された離散的な視点に対し、単純により多くのビットレートを割り当てるというだけでは、実際の視点位置から見たオブジェクトの状態に即した品質を、このオブジェクトの画像に割り当てることにはならない。したがって、配信される各視点の映像データに対し割り当てるビットレートの配分、すなわち「配信プロファイル」を、オブジェクトの見え方も考慮して決定することが非常に重要となるのである。
そこで、本発明は、オブジェクト画像の表示状態に合わせた品質を当該オブジェクト画像に割り当て得るような配信プロファイルを決定することができるクライアント、配信プロファイル決定プログラム及び配信プロファイル決定方法を提供することを目的とする。
本発明によれば、オブジェクトの画像を含み互いに視点の異なる複数の映像データを配信可能なサーバから、ビットレートを指定して当該映像データを取得することによって、指定された視点位置及び向きに係る映像を生成可能なクライアントであって、
指定された視点位置及び向きと当該オブジェクトの位置との関係に基づいて、当該映像データに係る複数の視点のうちから、当該オブジェクトに係る視点を選択する視点選択手段と、
指定された視点位置及び向きに係る画像において当該オブジェクトを表示する際に可能となる解像度である表示可能解像度を算出する解像度算出手段と、
当該映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定する配信プロファイル決定手段と
を有するクライアントが提供される。
本発明によれば、また、オブジェクトの画像を含み互いに視点の異なる複数の映像データを配信可能なサーバから、ビットレートを指定して当該映像データを取得することによって、指定された視点位置及び向きに係る映像を生成可能なクライアントに搭載されたコンピュータを機能させる配信プロファイル決定プログラムであって、
指定された視点位置及び向きと当該オブジェクトの位置との関係に基づいて、当該映像データに係る複数の視点のうちから、当該オブジェクトに係る視点を選択する視点選択手段と、
指定された視点位置及び向きに係る画像において当該オブジェクトを表示する際に可能となる解像度である表示可能解像度を算出する解像度算出手段と、
当該映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定する配信プロファイル決定手段と
してコンピュータを機能させる配信プロファイル決定プログラムが提供される。
本発明によれば、さらに、オブジェクトの画像を含み互いに視点の異なる複数の映像データを配信可能なサーバから、ビットレートを指定して当該映像データを取得することによって、指定された視点位置及び向きに係る映像を生成可能なクライアントに搭載されたコンピュータにおける配信プロファイル決定方法であって、
指定された視点位置及び向きと当該オブジェクトの位置との関係に基づいて、当該映像データに係る複数の視点のうちから、当該オブジェクトに係る視点を選択するステップと、
指定された視点位置及び向きに係る画像において当該オブジェクトを表示する際に可能となる解像度である表示可能解像度を算出するステップと、
当該映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定するステップと
を有する配信プロファイル決定方法が提供される。
本発明のクライアント、配信プロファイル決定プログラム及び配信プロファイル決定方法によれば、オブジェクト画像の表示状態に合わせた品質を当該オブジェクト画像に割り当て得るような配信プロファイルを決定することができる。
本発明によるクライアントを備えた映像データ配信システムの一実施形態における機能構成を示す機能ブロック図である。 配信される多視点映像データの一実施形態を示す模式図である。 ユーザによって指定される視点位置及び向きと、配信映像データの視点との関係を説明するための模式図である。 自由視点合成部における自由視点映像合成処理の概略を説明するための模式図である。 自由視点合成部における自由視点映像合成処理の一実施形態を示す模式図である。 解像度算出の必要性を説明するための模式図である。 解像度算出の際の視点の選択について説明するための模式図である。 解像度算出部による表示可能解像度算出処理の一実施形態を説明するための模式図である。 配信プロファイル決定部による配信プロファイル決定処理の一実施例を示す模式図である。 本発明による配信プロファイル決定方法の一実施形態を含む配信制御方法の概略を示すシーケンス図である。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
[映像データ配信システム]
図1は、本発明によるクライアントを備えた映像データ配信システムの一実施形態における機能構成を示す機能ブロック図である。
図1に示した本実施形態のスマートフォン1は、配信サーバ2に対し、通信ネットワークを介して大容量の多視点映像ストリームデータの送信要求を行い、受信した当該データを用いて自由視点映像を合成して表示するクライアント(端末)である。ここで、スマートフォン1、配信サーバ2、及び両者を接続する通信ネットワークは、本発明による映像データ配信システムを構成している。
本実施形態において、配信サーバ2の保存する多視点映像ストリームデータは、対象物(オブジェクト)の画像を含む複数視点の映像データであるが、それぞれ複数のセグメントに分割されている。すなわち、配信サーバ2には、各セグメントについて互いに視点の異なる複数の映像データ(複数種のセグメントファイル)が準備されている。スマートフォン1は、このような互いに視点の異なる複数種のセグメントファイルを受信して合成し、指定された視点位置から見たオブジェクトを含む自由視点映像を生成するのである。
さらに、本実施形態の配信サーバ2では、複数種のセグメントファイルの各々について、互いにビットレート(品質)の異なる複数のセグメントファイルが準備されている。ここで、スマートフォン1は、1つ又は複数のセグメント分を受信するにあたり、各視点のセグメントファイルについて、いずれのビットレートのものを取得したいかを指定した「配信プロファイル」を含む配信要求(HTTP Request)を行う。後に詳細に説明するように、スマートフォン1は、この「配信プロファイル」の決定処理に顕著な特徴を有している。
ちなみに本実施形態において、多視点映像ストリームデータは、多視点映像のHTTP型ストリーミング方式に基づいて送受信され、そのプロトコルとして具体的に、例えばDASH(Dynamic Adaptive Streaming over Hyper transfer protocol)が使用可能となっている。また、HTTPサーバである配信サーバ2は、予め作成された映像コンテンツとしての多視点映像ストリームデータを、VoD(Video on Demand)型配信方式を用いて配信することができる。
このような方式では、上述したように、映像ストリームを数〜10秒程度の再生時間長を有するセグメントファイルに予め分割しておき、クライアント側がこのセグメント単位で受信及び再生開始を行うことによって、映像ストリームを受信しながら再生する擬似ストリーミングが実現される。なお当然に、本映像データ配信システムにおける多視点映像ストリームデータの配信方式及び採用可能なプロトコルは、以上に述べたものに限定されるものではない。
ここで、クライアント側が「配信プロファイル」を決定する際、例えば特許文献1に記載された技術のように、選択された離散的な視点に対し、単純により多くのビットレートを割り当てるというだけでは、指定された視点位置から見たオブジェクトの状態に即した品質を、オブジェクト画像に割り当てることにはならない。
例えば、指定された視点位置からすると、オブジェクト画像は小さく表示され、この表示を行うのに高い品質の画像を用いても見た目としてほとんど意味がないにもかかわらず、選択された視点との関係で、より高い品質の画像が配信される場合も生じてしまう。また一方で、指定された視点位置からすると、オブジェクト画像が大きく詳細に表示されるので、より高い品質の画像が取得されるべきにもかかわらず、選択された視点との関係で、それほど高い品質の画像が配信されないといった場合も生じ得る。
このような問題を解決すべく、スマートフォン1は、同じく図1に示すように、
(A)配信された映像データから生成された(オブジェクトを含む)3次元モデルを用い、指定された視点位置及び向きとオブジェクトの位置との関係に基づいて、配信された映像データに係る複数の視点のうちから、オブジェクトに係る視点を選択する視点選択部125と、
(B)指定された視点位置及び向きに係る画像においてオブジェクトを表示する際に可能となる解像度である「表示可能解像度」を算出する解像度算出部126と、
(C)配信される映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された「表示可能解像度」に基づいて、当該映像データのビットレート、すなわち「配信プロファイル」を決定する配信プロファイル決定部13と
を有することを特徴としている。
このように、スマートフォン1は、「配信プロファイル」を決定する際、従来考慮されてこなかった(連続的な空間座標値である)視点位置及び視点の向きと、オブジェクトの位置との関係を考慮し、さらに、配信される映像データ毎に、対応するオブジェクトの「表示可能解像度」を勘案している。これにより、オブジェクト画像の表示状態に合わせた品質を当該オブジェクト画像に割り当て得るような「配信プロファイル」を決定することが可能となる。
なお、以下に示す実施形態では、オブジェクトに係る視点を選択し、この選択された視点の情報も、配信プロファイルの決定のために使用される。すなわち、オブジェクトの見え情報(オブジェクトの表示可能解像度、及びオブジェクトに係る視点)に基づいて配信プロファイルが決定されるのである。
ここで、重要となる「表示可能解像度」を算出する1つの方法として、指定された視点位置及び向きに係る画像における表示に係る所定のパラメータを変化させた際の、当該オブジェクトについての「拡大率」を算出し、この「拡大率」と、指定された視点位置及び向きに係る画像の表示に係る所定の解像度とに基づいて、当該オブジェクトの「表示可能解像度」を算出する方法を採用することができる。
また、スマートフォン1によれば、以上に説明したような好適に決定された「配信プロファイル」に基づいて映像データが配信されるので、この配信に使用される通信ネットワークにおいて、通信資源を無駄に使用してトラヒックを無用に増大させるような事態が回避可能となるのである。
[クライアントの機能構成、配信プロファイル決定方法]
図1に示した機能ブロック図によれば、スマートフォン1は、通信インタフェース部101と、タッチパネルディスプレイ(TP・DP)102と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、スマートフォン1のコンピュータを機能させるプログラムを実行することによって、本発明による配信プロファイル決定方法の一実施形態としての配信プロファイル決定機能、データ要求機能及び自由視点映像合成機能を具現化する。
さらに、このプロセッサ・メモリは、機能構成部として、通信制御部11と、データ処理部12と、配信プロファイル決定部13とを有する。このうち、通信制御部11は、映像データ受信部111と、スループット算出部112と、プロファイルリスト取得部113と、要求送信部114とを含む。また、データ処理部12は、視点位置検出部121と、メディアエンジン122と、自由視点合成部123と、視点選択部125と、解像度算出部126とを含む。さらに、配信プロファイル決定部13は、第1リスト範囲決定部131と、第2リスト範囲決定部132とを含む。ここで、図1におけるスマートフォン1の機能構成部間を矢印で接続して示した処理の流れは、本発明による配信プロファイル決定方法の一実施形態としても理解される。
同じく図1において、通信インタフェース部101は、
(a)要求送信部114で生成された、配信プロファイルを含むHTTP Request(セグメント要求)を、事業者通信網やインターネット等の無線又は有線の通信ネットワークを介し、配信サーバ2宛てに送信する。また、
(b)配信サーバ2から、後に詳述する、互いに視点の異なる配信映像データ毎にビットレートと解像度とが対応付けられたプロファイルリストを受信し、さらに、
(c)配信サーバ2から、HTTP Requestへの応答として、要求した配信プロファイル相当のセグメントファイルを受信する。
また、通信インタフェース部101は、
(d)データ処理部12で生成された自由視点映像データを、外部の情報処理装置宛てに送信してもよく、
(e)外部のサーバから、本発明による配信プロファイル決定プログラム(アプリ)をダウンロードしてもよい。
通信制御部11の映像データ受信部111は、通信インタフェース部101を介して受信したセグメントファイル(多視点映像データ)を管理し、適宜、データ処理部12へ出力する。ここで、配信される多視点映像データの具体的構成を説明する。
図2は、配信される多視点映像データの一実施形態を示す模式図である。
図2において、配信サーバ2は、配信用として保存・管理する多視点映像ストリームデータを準備するため、最初に、設定された複数の視点(本実施形態では5つの視点A〜E)の各々についての映像データを含む1つの多視点映像コンテンツにおいて、例えば圧縮符号化等の公知技術を用いて、視点毎に、互いにビットレートの異なる複数の映像データを用意する。
次いで、複数の視点(5つの視点A〜E)の各々について、各ビットレートの映像データを、時間軸上で複数のセグメントに分割する。ここで、1つの映像データを構成する複数のセグメントは、再生の順番である再生時間1,2,3,・・・に対応している。また、1つのセグメントは、例えば数〜10秒程度の再生時間長を有するものとすることができる。ちなみに、1つの映像データを構成するセグメントの再生時間長は、特にVoD配信の場合、一定値に設定されることが好ましい。
以上に述べた準備処理によって、図2に示すように、多視点映像ストリームデータは、各視点について、再生時間毎に、互いにビットレートの異なる複数の(図2では4つの)セグメントファイルが用意されたデータセットとして保存・管理される。図2では、セグメントファイルを示す矩形の相対的な高さ(高さ方向の幅)が、ビットレートの高低を表している。また、例えば、視点「A」の映像データにおける再生時間「1」のセグメントファイルには、「A1」との記号が付され区別されている。
以上に説明したような配信サーバ2で準備された多視点映像ストリームデータを取得するため、スマートフォン1(の通信インタフェース部101)は、本実施形態において配信サーバ2との間でデータの送受信を行う。ちなみに、ビルボード方式の自由視点映像の配信においては、以下の(a)〜(c)を含むコンテンツが用意され配信される。
(a)各視点の映像ストリームデータ
(b)各視点に存在するオブジェクト情報(マスク画像,3次元位置,大きさ情報)
(c)各視点のカメラキャリブレーション情報
また、配信サーバ2は、上記のコンテンツと合わせて、プロファイルリストを生成し配信する。このプロファイルリストは、後に図9を用いて詳細に説明するが、視点A〜Eの映像データ毎に、予め準備された1つ以上のビットレートと、当該ビットレートの映像データにおける解像度とが対応付けられたリストとなっている。
図1に戻って、スループット算出部112は、受信されたセグメントファイルのファイルサイズと、要求時刻から見て当該セグメントファイルをダウンロードするのに要した時間とに基づいて、使用している通信ネットワークのスループットを算出し、算出されたスループットの情報を、適宜、配信プロファイル決定部13へ出力する。
また、プロファイルリスト取得部113は、通信インタフェース部101を介して受信したプロファイルリストを管理し、適宜、配信プロファイル決定部13へ出力する。さらに、要求送信部114は、この配信プロファイル決定部13で決定された配信プロファイルを含むHTTP Request(セグメント要求)を生成し、通信インタフェース部101によって配信サーバ2宛てに送信する。
データ処理部12は、以上に述べたような配信された1つ又は複数のセグメント分のセグメントファイルの処理を実行し、タッチパネルディスプレイ102を介しユーザによって指定された視点位置及び向きに基づいた自由視点映像を合成して、タッチパネルディスプレイ102に表示させる。以下、このデータ処理部12に含まれる視点位置検出部121、自由視点合成部123、及びメディアエンジン122の説明を行う。
最初に、視点位置検出部121は、常時、ユーザによる視点位置及び向きを指定する操作を監視し、ユーザによる当該指定操作を受けて、指定された視点位置及び向きの情報を自由視点合成部123及び視点選択部125へ出力する。また、自由視点合成部123は、取得された多視点のセグメントファイルを合成して、3次元モデル空間内にオブジェクト画像(ビルボード画像)が貼付されたビルボード方式の3次元モデルを生成する。
さらに、自由視点合成部123は、この3次元モデルを用い、指定された視点位置及び向きの情報に基づいて自由視点映像を生成する。最後に、メディアエンジン122は、生成された自由視点映像を、例えばタッチパネルディスプレイ102へ出力してユーザに提供させる。または、スマートフォン1に搭載されたアプリ(アプリケーションプログラム)に出力し、当該アプリに生成した自由視点映像を利用させてもよい。
図3は、ユーザによって指定される視点位置及び向きと、配信映像データの視点との関係を説明するための模式図である。
図3によれば、基準位置にある撮影対象(オブジェクト)に対し、5つの視点A〜Eが設定されている。これらの視点からの映像が、多視点映像データとして配信されるのである。また、同図には、ユーザによって指定された視点位置及び向きが示されている。ここで、指定された視点位置は連続的な座標値をとる一方、視点A〜Eは離散的であるが、視点A〜Eの各々は、撮影対象から見た方向角θ(0°≦θ<360°)で表される所定の視点位置範囲をカバーしている。例えば図3では、視点Bは、視点位置の範囲として方位角範囲36°〜108°を仮想的にカバーしており、指定された視点位置は、この視点Bに属することになる。
ユーザは、タッチパネルディスプレイ102(図1)に表示された視点操作用画像に対する操作や、又はそのような表示に関わらない(暗黙の)操作等によって、自らが見たいと思う視点位置及び向きを指定する。これにより、指定された視点位置及び向きの属する視点が、視点A〜Eのうちから1つ選択され、注視点とされるのである。なお、ユーザは、随時にしかも連続的に、指定する視点位置及び向きを変更することが可能であってもよい。
図4は、自由視点合成部123における自由視点映像合成処理の概略を説明するための模式図である。
図4によれば、自由視点合成部123は、最初に、スマートフォン1に配信された多視点の映像データをデコードしてフレーム画像を生成し、さらに、同時に配信されたビルボード情報内のマスク画像を、このフレーム画像に適用してビルボード画像領域のみの画像であるビルボード画像(オブジェクト画像)を抽出する。次いで、抽出したビルボード画像を、同じくビルボード情報内の3次元位置に従って3次元モデル空間(X, Y, Z)内に配置し、3次元モデルを生成する。
自由視点合成部123は、次いで、この3次元モデルを用い、視点位置検出部122から入力した指定された視点位置及び向きの情報に基づいて自由視点映像を生成する。ここで、自由視点映像は、指定された視点位置に配置され、その向きを撮影向きとする仮想カメラによって撮影される(射影される)2次元カメラ画像上での映像となる。図4に示すように、視点位置及び向きが切り替われば、この2次元カメラ画像の位置及び向きも変化し、対応するビルボード画像も切り替わる。その結果、自由視点映像も、切り替わった視点位置及び向きに対応する映像となるのである。
以上に説明したような処理を、生成したフレーム毎に実行することによって、ユーザは、例えば任意の視点位置を指定しながら、この視点位置に係る映像を享受することも可能となるのである。
図5は、自由視点合成部123における自由視点映像合成処理の一実施形態を示す模式図である。
図5に示した実施形態において、自由視点映像は、指定された視点位置からその向きに3次元モデルを見た際の2次元カメラ画像を、フレーム毎に生成することによって生成される。ここで、3次元モデルには、
(a)絶対的な3次元世界座標系(X, Y, Z)と、
(b)ユーザによって指定された視点位置及び向きを基準とした3次元カメラ座標系(x, y, z)と
の2種類の座標系が定義される。この3次元カメラ座標系の原点(x0, y0, z0)は、指定された視点位置(仮想カメラ位置)としてもよく、またz軸は、指定された向きの軸、すなわち仮想カメラの光軸とすることができる。
さらに、2次元カメラ画像には、2次元カメラ画像座標系(u, v)が定義される。この座標系の原点(u0, v0)は、例えば、仮想カメラ光軸(z軸)と2次元カメラ画像との交点、すなわち原点(x0, y0, z0)の投影点としてもよい。
自由視点合成部123は、このように定義された座標系を利用し、3次元世界座標空間(X, Y, Z)に存在する1つの点を、ひとまず3次元カメラ座標空間(x, y, z)における1つの点に変換し、次いで、この対応点を2次元カメラ画像上の点(u, v)に変換することによって、2次元カメラ画像を生成する。これらの変換は、次式

によって表される。
上式(1)において、sはスケーリングファクタであり既知の値が使用される。また、行列[A]は、仮想カメラの内部パラメータ行列である。この行列[A]の要素であるfx及びfyは、視点位置に設置された仮想カメラの焦点距離であり、例えば画素単位で表される値とすることができる。さらに、行列[A]の要素であるcx及びcyは、カメラ基準点の座標値であり、通常、(cx, cy)が2次元カメラ画像の中心点となるように設定される。なお、この内部パラメータ行列[A]は、視点位置に依存するものではないので以下、所与のものとする。
また、行列[R|t]は、仮想カメラの外部パラメータ行列である。この行列[R|t]の要素r11〜r33だけを要素とする行列[R]は、仮想カメラの回転変換行列に相当し、一方、行列[R|t]の要素t1〜t3だけを要素とする行列[t]は、仮想カメラの並進変換行列に相当する。したがって、この外部パラメータ行列[R|t]は、回転・並進の同時変換行列と捉えることができ、3次元世界座標系に対する回転・並進を表現する行列となっている。
ここで、式(1)のうち、3次元世界座標系(X, Y, Z)を3次元カメラ座標系(x, y, z)に対応させる部分を定式化すると、次式

にように表される。また、上式(2)の結果を用いて2次元カメラ画像座標の点(u, v)を導出するための式は、
(3) u=x'+cx=fx・x/z+cx
v=y'+cy=fy・y/z+cy
と表される。ここで、スケーリングファクタsは1としている。また、変換(投影方式)は透視投影となっている。
以上に説明した変換を3次元モデルの各点に対して実行することによって、2次元カメラ画像が生成される。ちなみに、このような座標変換処理は、GPU(Graphics Processing Unit)上の公知のライブラリ等によって実施されることが一般的である。
次いで以下、データ処理部12における視点選択部125及び解像度算出部126の説明を行うが、最初に、図6及び図7を用いて、選択された視点に係る解像度算出の必要性を説明する。
図6は、解像度算出の必要性を説明するための模式図である。また、図7は、解像度算出の際の視点の選択について説明するための模式図である。
図6に示すように、例えば超高解像度の8Kカメラをもって撮影されたオブジェクト画像を含む映像データを受信し、このオブジェクト画像を高解像度の4Kディスプレイで表示する場合を考える。この4Kディスプレイでは、このオブジェクト画像が実際の表示の2倍の大きさで表示されるような視点位置でなければ、8K相当の解像度、すなわち8K相当のピクセル数による表示ができず、結局、無駄に大容量の映像データを取得したことになってしまう。
例えば、8Kカメラをもって撮影された幅w及び高さhのオブジェクト画像は、図6におけるドリーインする前の4K仮想カメラによる2次元4Kカメラ画像においては、同じ幅w及び高さhの画像として表示され、結果的に8Kカメラによる超高解像度は生かされない。このオブジェクト画像の超高解像度を生かすには、同じく図6に示すように、4K仮想カメラをドリーインし、このオブジェクト画像を、2次元4Kカメラ画像において2倍ズームで、すなわち幅2w及び高さ2hの画像として表示する必要がある。
このように、オブジェクト画像が表示される際、その見え方の向上に貢献できるような解像度をオブジェクト画像に割り当てることが重要となることが理解される。したがって、例えば特許文献1の技術のように、選択された離散的な視点に対し、単純により多くのビットレート(品質)を割り当てるというだけでは、指定された視点位置から見たオブジェクトの見え方に適した解像度を、オブジェクト画像に割り当てることにはならないのである。
ここで特に、多視点映像データから自由視点映像を合成することを考えると、多視点のオブジェクト画像が存在しているのであるから、指定された視点位置に基づいて、オブジェクト画像毎にいずれの視点の映像データを選択すべきかを決定することが重要となる。
例えば、図7に示した例では、オブジェクトOJ2については、視点Bの画像が選択されるが、このオブジェクトOJ2は、視点Bのカメラ位置から遠いので、2次元合成画像においても遠くに、すなわちより小さく表示されることになる。したがって、オブジェクトOJ2の画像の解像度としては、例えば720pまでのものを選択すれば十分であると判断される。
一方、オブジェクトOJ1については、視点Aの画像が選択されるが、このオブジェクトOJ1は、視点Aのカメラ位置から近いので、2次元合成画像においても近くに、すなわちより大きく表示されることになる。したがって、オブジェクトOJ1の画像の解像度として、例えば720pよりも大きい1080pのものを選択すれば、効果的にオブジェクトOJ1の画質を向上させることができるのである。
ちなみに、図7に示した例では、ユーザによって指定された視点位置及び向きによって選択される視点は、視点Bとなる。従来は、例えば、オブジェクトOJ1やオブジェクトOJ2の見え方にかかわらず、この選択された視点Bのみに基づいて配信ビットレートが決められてきたのである。
以上説明したように、表示において奏功するオブジェクト画像の解像度を実現するべく配信ビットレート(品質)を決定するためには、指定された視点位置とオブジェクト位置との関係によって決まるオブジェクトの見え方を勘案しなければならない。逆に言えば、図7を用いて説明したように、このオブジェクトの見え方を勘案することによって、例えば視点Bに配分された余分な(表示に奏功しない)ビットレート分を視点Aに割り振り、2次元合成画像において、オブジェクトを、その表示状態に合った解像度で表示することが可能となるのである。
図1に戻って、データ処理部12の視点選択部125は、指定された視点位置及び向きとオブジェクトの位置との関係に基づいて、配信される映像データに係る複数の視点のうちから、このオブジェクトに係る視点を選択する。例えば、指定された視点位置からこのオブジェクトへ向かう視線ベクトルとの間で最大の内積値をとる視線ベクトルであって、このオブジェクトを終点とする視線ベクトルの始点となる視点を、このオブジェクトに係る視点として選択することができる。
具体的には、視点nからオブジェクトへ向かう視線ベクトルをXnとし、指定された視点位置からオブジェクトへ向かう視線ベクトルをYとすると、選択すべき視点nSは、次式
(4) nS=Argmax(n){Xn・Y}
によって算出される。この式(4)に従えば、例えば、図7に示したような2つのオブジェクトOJ1及びOJ2を有する3次元カメラ座標空間において、オブジェクトOJ1について選択される視点は、視点Aとなり、一方、オブジェクトOJ2について選択される視点は、視点Bとなる。
同じく図1において、解像度算出部126は、指定された視点位置及び向きに係る画像においてオブジェクトを表示する際に可能となる解像度である表示可能解像度を算出する。具体的には、指定された視点位置及び向きに係る画像における表示に係る所定パラメータを変化させた際の、オブジェクトについての「拡大率」を算出し、この「拡大率」と、指定された視点位置及び向きに係る画像の表示に係る所定の解像度とに基づいて、このオブジェクトの表示可能解像度を算出することができる。
ここで、表示可能解像度は、ディスプレイの論理解像度に、次に図8を用いて説明するように求められた「拡大率」を乗じて算出してもよい。なお、(論理解像度)<(物理解像度)の場合は、ディスプレイの物理解像度を用いることができる。また、上記の所定パラメータとして、同じく図8を用いて説明するように、視点位置の座標、並びに、指定された視点位置及び向きに係る画像を構成する仮想視点の焦点距離のうちの少なくとも1つを変化させることも好ましい。
図8は、解像度算出部126による表示可能解像度算出処理の一実施形態を説明するための模式図である。
図8には、3次元カメラ座標空間における視点位置の仮想的切り替えによって「拡大率」を算出する様子が示されている。視点位置を仮想的に切り替えた際、対象となる1つのオブジェクトにおける3次元カメラ座標空間内の1点(x, y, z)は、別の1点(x', y', z')へ移動する。
また、この視点位置切り替えに伴い、2次元カメラ画像(座標)でも、対応する1点(u, v)が別の1点(u', v')へ移動するが、ここで、1つのオブジェクト内の2点(u1, v1)及び(u2, v2)がそれぞれ、別の2点(u1', v1')及び(u2', v2')に移動する場合を考える。この場合、拡大率Rmは、次式
(5) Rm=D((u1', v1'), (u2', v2'))/D((u1, v1), (u2, v2))
によって算出することができる。
上式(5)において、Dは2点間のユーグリッド距離を求める関数である。このような拡大率の算出は、2次元カメラ画像への射影後の情報に基づいて行われるといえる。なお、上記の2点として、例えば、オブジェクト画像(ビルボード画像)を規定する当該画像矩形における上方左側の頂点及び下方右側の頂点を用いることも好ましい。
また、変更態様として、上述したような視点切り替えにおいて、拡大率は単純にz座標値、及び2次元カメラ画像平面までの距離にのみ依存すると仮定すると、拡大率Rmは、次式
(6) Rm=(fx/z')/(fx/z)=z/z'
によっても算出可能となる。
また、更なる変更態様として、上述したように視点位置を切り替えることなく、光学ズームのように焦点距離を変化させるだけの仮想的な拡大操作を考えてもよい。この場合、拡大率は上述した仮想カメラにおける内部パラメータ行列[A]の要素である焦点距離fx及びfyに比例して大きくなるため、焦点距離を変化させた後の焦点距離をfx'及びfy'とすると、拡大率Rmは、次式
(7) Rm=(fx'/fx)・(fy'/fy)
によって算出可能となる。
なお、以上に説明したような拡大率の算出処理は、前提として変換の際に透視投影が行われる場合のものである。当然に、他の投影方式を採用する場合、その方式に合った拡大率を求めることになる。
次に、オブジェクトの拡大率を算出して利用する一実施例として、図7に示したような2つのオブジェクトOJ1及びOJ2を有する3次元カメラ座標空間を考える。また、これらのオブジェクトが表示されるディスプレイの解像度は360pであるとする。
ここで、オブジェクトOJ1に対する拡大率Rmが2.0(倍)と算出されたとすると、このオブジェクトOJ1は、上記の解像度360pのディスプレイにおいて、解像度が720p(=360p×2.0)相当となるまで表示することが可能となる。一方、オブジェクトOJ2に対する拡大率Rmが3.0(倍)であれば、このオブジェクトOJ2は、このディスプレイにおいて、解像度が1080p(=360p×3.0)相当となるまで表示することが可能となる。
すなわち、まとめると、あるオブジェクトの「表示可能解像度」は、このオブジェクトを表示する「ディスプレイの解像度」と、このオブジェクトについての「拡大率」との積として算出することができるのである。以下引き続き、図7に示した2つのオブジェクトOJ1及びOJ2について説明を進めていく。
上述したように表示可能解像度が720pであるオブジェクトOJ1については、上式(4)のところで説明したように、選択される視点は視点Aとなっている。そこで、解像度算出部126(図1)は、この視点Aの表示可能解像度を720pに設定する。一方、表示可能解像度が1080pであるオブジェクトOJ2について選択される視点は視点Bとなるので、解像度算出部126(図1)は、この視点Bの表示可能解像度を1080pに設定する。
ちなみに、1つの視点に複数のオブジェクトが存在する場合、すなわち複数のオブジェクトについてこの1つの視点が選択される場合、例えば、それらのオブジェクトに係る表示可能解像度における最大値や平均値等を、この視点の表示可能解像度に設定してもよい。
また、解像度算出部126(図1)では、対象となるオブジェクトの拡大率における限界値に基づいて、表示可能解像度の制限範囲を決定してもよい。例えば、通常、ディスプレイのサイズから、オブジェクトを拡大して表示可能な範囲にも必ず上限が存在する。解像度算出部126(図1)は、この拡大率の上限値を設定し、例えば、この上限値とディスプレイの解像度との積を、表示可能解像度の解像度上限値とし、この解像度上限値を超えない範囲で、各視点について表示可能解像度を設定することも好ましい。
これにより、そこまで表示されることのない過剰に高い解像度の映像データを、無用に取得する事態を回避することができる。また、その分の解像度(ビットレート)を別の視点の映像データに振り分けることによって、通信資源を浪費することなく好適な品質の自由視点映像を提供することも可能となるのである。
図1に戻って、配信プロファイル決定部13は、配信される映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定する。例えば、配信サーバ2より取得したプロファイルリストから、各映像データについて、計測されたスループットに係る条件を満たすビットレートを有し、さらに、各映像データについて、算出された当該表示可能解像度に応じた解像度を有するプロファイルを決定してもよい。
以下、取得したプロファイルリストを用いた配信プロファイル決定処理の一実施形態を説明する。具体的に、配信プロファイル決定部13は、第1リスト範囲決定部131と、第2リスト範囲決定部132とを含む。ここで、
(a)第1リスト範囲決定部131は、取得されたプロファイルリストから、各映像データについて、計測されたスループットに係る条件を満たすビットレートを有する第1リスト範囲を抽出し、さらに、
(b)第2リスト範囲決定部132は、各映像データについて、算出された表示可能解像度に応じた解像度を有する第2リスト範囲を抽出し、最後に、
(c)配信プロファイル決定部13は、第1リスト範囲が第2リスト範囲よりも広い映像データから、第2リスト範囲が第1リスト範囲よりも広い映像データへ、ビットレート分を移動させる形で配信プロファイルを決定する
ことも好ましい。
図9は、配信プロファイル決定部13による配信プロファイル決定処理の一実施例を示す模式図である。
図9に示すように、配信プロファイル決定部13は、プロファイルリスト取得部113によって取得されたプロファイルリストPL0を用い、スループット算出部112で算出されたスループットと、解像度算出部126で決定された視点毎の表示可能解像度とに基づいて、視点毎に、配信時に選択されるビットレート(解像度)を決定する。
ここで、プロファイルリストPL0は、視点A〜Eの映像データの各々について(多視点の映像データの視点毎に)、予め準備された1つ以上のビットレートと、当該ビットレートの映像データにおける解像度とが対応付けられたリストとなっている。ちなみに、図9には、見易さのため、プロファイルリストPL0のうち視点A〜Cに関するプロファイルのみが示されている。以下これに従い説明を容易にするため、視点A〜Cに関する配信プロファイルの決定処理を示すが、本来は当然に、視点A〜Eの映像データ毎に配信プロファイルが決定されるのである。
最初に、第1リスト範囲決定部131は、予め設定された視点間の選択確率分布p(xi|xi-1)に基づき、スループット算出部112で算出されたスループットを超えない最大の合計ビットレートb(t)を、視点A〜Cの各々へ配分する。ここで、この選択確率分布p(xi|xi-1)として例えば、xi=xi-1の場合に最大値をとる正規分布を採用してもよい。このような選択確率分布を用いると、視点xiのビットレートbi(t)は、選択された視点をxi-1として、次式
(8) bi(t)=p(xi|xi-1)*b(t)
によって決定される。ちなみに、このようなスループットに基づくビットレートの仮配分処理は、予めスループット算出部112で実施されていてもよい。
第1リスト範囲決定部131は、本実施例において視点Bが選択されているので、上式(8)に従い例えば、
視点A:視点B:視点C=3Mbps:5Mbps:3Mbps
といったビットレート配分を決定し、各視点についてビットレートが、このビットレート配分値を上限とする範囲内に収まるような第1リスト範囲PL1を抽出する。
次に、第2リスト範囲決定部132は、視点A〜Cの各々について、解像度算出部126で決定された表示可能解像度を超えない最大の解像度を有する第2リスト範囲PL2を抽出する。図7に示した実施例においては、視点A及び視点Bの表示可能解像度はそれぞれ1080p及び720pであるから(また、視点Cは720pであるとして)、表示可能解像度を超えない最大の解像度を有するビットレート配分は、
視点A:視点B:視点C=5Mbps:3Mbps:3Mbps
となり、第2リスト範囲決定部132は、各視点についてビットレートが、このビットレート配分値を上限とする範囲内に収まるような第2リスト範囲PL2を抽出する。
配信プロファイル決定部13は、最後に、第1リスト範囲PL1が第2リスト範囲PL2よりも広い視点(の映像データ)から、第2リスト範囲PL2が第1リスト範囲PL1よりも広い視点(の映像データ)へ、ビットレート分を移動させる形で配信プロファイルを決定する。具体的には、例えば、
(a)(第2リスト範囲PL2のプロファイル数)>(第1リスト範囲PL1のプロファイル数)となる視点αと、
(b)(第2リスト範囲PL2のプロファイル数)<(第1リスト範囲PL1のプロファイル数)となる視点βと
が存在する場合、第1リスト範囲PL1において、視点βのプロファイルを1段下げる一方、視点αのプロファイルを1段上げることも好ましい。
例えば、図9に示した実施例では、視点Aでは、第2リスト範囲PL2のプロファイル数(リストの段数)が4であって、第1リスト範囲PL1のプロファイル数(リストの段数)が3である。一方、視点Bでは、全くその逆となっている。そこで、配信プロファイル決定部13は、第1リスト範囲PL1において、視点Aのプロファイルを1段上げて視点Bのプロファイルを1段下げ、最終的に、
視点A:視点B:視点C=5Mbps:3Mbps:3Mbps
といったビットレート配分を決定するのである。
ちなみに、以上に説明した実施例では、視点プロファイル間のビットレート分の振り替えは、プロファイル1段分を単位としているが、当然、それ以外の分を単位として振り替えを行うことも可能である。
ここで、従来技術のように、視点毎の表示可能解像度を考慮せず、選択された視点Bに基づいて配信ビットレートを決定すると、ビットレート配分は、
視点A:視点B:視点C=3Mbps:5Mbps:3Mbps
となる。これによると、結局、視点Bに係る映像データの取得について、通信資源を過度に使用してしまう一方、視点Aについて、表示品質の点でより好適となる、より解像度の高い映像データの取得を逸してしまう。
いずれにしても本実施例のように、各視点において、スループットを超えない合計ビットレートの範囲内で、表示可能解像度を超えない解像度に対応する、できるだけ大きなビットレートを有するプロファイルを決定することによって、通信資源を無駄に使用する事態を回避しつつ、オブジェクト画像の表示状態に合わせた解像度を当該オブジェクト画像に割り当て、より好適な品質の自由視点映像を生成することができるのである。
またここで、オブジェクトの表示可能解像度を超えるプロファイルは選択せず、さらに、オブジェクトの表示可能解像度に満たない解像度を有する視点のプロファイルに、過剰な解像度を有する視点のビットレート分を振り分けることによって、合成した映像の画質を効果的に向上させることも可能となる。
言い換えると、オブジェクトがいずれの視点においてどの程度の解像度をもって表示可能であるかを予め算出しておき、表示解像度が最も高くなる視点へより多くのビットレートを配分することによって、通信資源を浪費せずに品質の向上した自由視点映像を合成することができるのである。
なお、高解像度のオブジェクトを低解像度にダウンコンバートして表示することも可能であるが、同一のビットレートであれば画質は一般に低下してしまうので、以上に説明したように、解像度を考慮してビットレートの配分を判断することが非常に好ましい。
図10は、本発明による配信プロファイル決定方法の一実施形態を含む配信制御方法の概略を示すシーケンス図である。ここで、ベースとなる配信手順は、HTTPクライアントとHTTPサーバとの通信に係るものであって、公知のHLSやMPEG−DASH等のプロトコルに沿ったものとなっている。
(S101)スマートフォン1は、ユーザによって指定された視点位置及び向きの情報を取得する。
(S102)スマートフォン1は、直近のスループットを算出し、このスループットを超えない合計ビットレートを各視点に仮配分する。
(S103)スマートフォン1は、各視点について、オブジェクトの表示可能解像度を算出する。
(S104)スマートフォン1は、プロファイルリストPL0の取得要求を、配信サーバ2宛てに送信する。
(S105)配信サーバ2は、プロファイルリストPL0を含む応答を、スマートフォン1宛てに送信する。
なお、スマートフォン1はこのプロファイルリストPL0を、HLSの場合にはm3u8として、また、MPEG−DASHの場合にはMPDとして、配信サーバ2から受信することができる。
(S106)スマートフォン1は、取得したプロファイルリストPL0に基づき、算出したスループットから第1リスト範囲PL1を抽出する。
(S107)スマートフォン1は、同じく取得したプロファイルリストPL0に基づき、算出した表示可能解像度から第2リスト範囲PL2を抽出する。
(S108)スマートフォン1は、PL1のプロファイル数(リストの段数)がPL2のプロファイル数(リストの段数)よりも大きくなる視点βと、PL2のプロファイル数(リストの段数)がPL1のプロファイル数(リストの段数)よりも大きくなる視点αとが存在するか否かを判定する。ここで、偽の判定(視点α及びβの両者は存在しないとの判定)を行った場合、ステップS110へ移行する。
(S109)一方、ステップS108で真の判定(視点α及びβの両者が存在するとの判定)を行った場合、視点βから視点αへ所定のビットレート分を移動する。具体的には、第1リスト範囲PL1において、視点βのプロファイルを1段下げる一方、視点αのプロファイルを1段上げてもよい。
(S110)スマートフォン1は、この段階での第1リスト範囲PL1における、ビットレートが最大であるプロファイルを、配信プロファイルに決定する。
(S111)スマートフォン1は、決定した配信プロファイルをもってオブジェクトファイル(各視点のセグメントファイル)の取得要求(HTTP Request)を、配信サーバ2宛てに送信する。
(S112)配信サーバ2は、オブジェクトファイルを含む応答を、スマートフォン1宛てに送信する。
(S113)スマートフォン1は、取得したオブジェクトファイル(各視点のセグメントファイル)を用いて自由視点映像を合成する。
これ以降、スマートフォン1と配信サーバ2とは、S101〜S113と同様の手順を繰り返し順次、各再生時間のオブジェクトファイル(各視点のセグメントファイル)の要求、送受信、自由視点映像の合成・再生を実施していく。なお、通常、スマートフォン1によるオブジェクトファイルの取得要求(HTTP Request)は、1セグメント(に含まれるメディア)分の再生時間長(例えば数〜10秒程度)の経過毎に、周期的に行われることになる。
ちなみに、以上に説明した実施形態では、多視点映像データのうちの、オブジェクト毎に準備された当該オブジェクトに係る画像データであるオブジェクトファイルが配信されている。この場合、当該多視点映像データのうちの背景データは、オブジェクトファイルよりも少ない頻度で(例えば5〜10分経過毎に)配信されるものであってもよい。実際、例えばスポーツ観戦の映像データでは、背景となるグラウンドの画像は頻繁に差し替える必要はなく、したがって背景映像データは、通信資源を有効に使用するべく間隔をあけて配信すればよい場合がほとんどである。
以上、詳細に説明したように、本発明によれば、多視点映像データの配信プロファイルを決定する際、従来考慮されてこなかった視点位置及び視点の向きと、オブジェクトの位置との関係を考慮し、さらに、配信される映像データ毎に、対応するオブジェクトの表示可能解像度を勘案している。これにより、オブジェクト画像の表示状態に合わせた品質を当該オブジェクト画像に割り当て得るような配信プロファイルを決定することが可能となる。
また、以上に説明したような好適に決定された配信プロファイルに基づいて多視点映像データが配信されるので、この配信に使用される通信ネットワークにおいて、通信資源を無駄に使用してトラヒックを無用に増大させるような事態が回避可能となるのである。この点、自由視点合成技術においては、来る5G(第5世代移動通信システム)においても、膨大な容量の多視点映像データを遅延なく配信できるか否かが重要なポイントになると予測されており、本発明は、所定の映像品質を確保しつつ、そのような課題を解決するための重要な技術を提供するものとなっている。
以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲内での種々の変更、修正及び省略は、当業者によれば容易に行うことができる。以上に述べた説明はあくまで例示であって、何ら制約を意図するものではない。本発明は、特許請求の範囲及びその均等物によってのみ制約される。
1 スマートフォン(クライアント)
101 通信インタフェース部
102 タッチパネルディスプレイ(TP・DP)
11 通信制御部
111 映像データ受信部
112 スループット算出部
113 プロファイルリスト取得部
114 要求送信部
12 データ処理部
121 視点位置検出部
122 メディアエンジン
123 自由視点合成部
125 視点選択部
126 解像度算出部
13 配信プロファイル決定部
131 第1リスト範囲決定部
132 第2リスト範囲決定部
2 配信サーバ

Claims (9)

  1. オブジェクトの画像を含み互いに視点の異なる複数の映像データを配信可能なサーバから、ビットレートを指定して当該映像データを取得することによって、指定された視点位置及び向きに係る映像を生成可能なクライアントであって、
    指定された視点位置及び向きと当該オブジェクトの位置との関係に基づいて、当該映像データに係る複数の視点のうちから、当該オブジェクトに係る視点を選択する視点選択手段と、
    指定された視点位置及び向きに係る画像において当該オブジェクトを表示する際に可能となる解像度である表示可能解像度を算出する解像度算出手段と、
    当該映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定する配信プロファイル決定手段と
    を有することを特徴とするクライアント。
  2. 前記サーバから、互いに視点の異なる当該映像データ毎にビットレートと解像度とが対応付けられたプロファイルリストを取得可能な通信制御手段を更に有し、
    前記配信プロファイル決定手段は、取得された当該プロファイルリストから、各映像データについて、計測されたスループットに係る条件を満たすビットレートを有し、さらに、各映像データについて、算出された当該表示可能解像度に応じた解像度を有するプロファイルを決定する
    ことを特徴とする請求項1に記載のクライアント。
  3. 前記配信プロファイル決定手段は、
    取得された当該プロファイルリストから、各映像データについて、計測されたスループットに係る条件を満たすビットレートを有する第1のリスト範囲を抽出し、さらに、各映像データについて、算出された当該表示可能解像度に応じた解像度を有する第2のリスト範囲を抽出し、
    第1のリスト範囲が第2のリスト範囲よりも広い映像データから、第2のリスト範囲が第1のリスト範囲よりも広い映像データへ、ビットレート分を移動させる形で当該プロファイルを決定する
    ことを特徴とする請求項2に記載のクライアント。
  4. 前記解像度算出手段は、指定された視点位置及び向きに係る画像における表示に係る所定のパラメータを変化させた際の、当該オブジェクトについての拡大率を算出し、当該拡大率と、指定された視点位置及び向きに係る画像の表示に係る所定の解像度とに基づいて、当該オブジェクトの表示可能解像度を算出することを特徴とする請求項1から3のいずれか1項に記載のクライアント。
  5. 前記解像度算出手段は、当該オブジェクトの拡大率における限界値に基づいて、当該表示可能解像度の制限範囲を決定することを特徴とする請求項4に記載のクライアント。
  6. 前記解像度算出手段は、当該所定のパラメータとして、当該視点位置の座標、並びに、指定された視点位置及び向きに係る画像を構成する仮想視点の焦点距離のうちの少なくとも1つを変化させることを特徴とする請求項4又は5に記載のクライアント。
  7. 前記視点選択手段は、指定された視点位置から当該オブジェクトへ向かう視線ベクトルとの間で最大の内積値をとる視線ベクトルであって、当該オブジェクトを終点とする視線ベクトルの始点となる視点を、当該オブジェクトに係る視点として選択することを特徴とする請求項1から6のいずれか1項に記載のクライアント。
  8. オブジェクトの画像を含み互いに視点の異なる複数の映像データを配信可能なサーバから、ビットレートを指定して当該映像データを取得することによって、指定された視点位置及び向きに係る映像を生成可能なクライアントに搭載されたコンピュータを機能させる配信プロファイル決定プログラムであって、
    指定された視点位置及び向きと当該オブジェクトの位置との関係に基づいて、当該映像データに係る複数の視点のうちから、当該オブジェクトに係る視点を選択する視点選択手段と、
    指定された視点位置及び向きに係る画像において当該オブジェクトを表示する際に可能となる解像度である表示可能解像度を算出する解像度算出手段と、
    当該映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定する配信プロファイル決定手段と
    してコンピュータを機能させることを特徴とする配信プロファイル決定プログラム。
  9. オブジェクトの画像を含み互いに視点の異なる複数の映像データを配信可能なサーバから、ビットレートを指定して当該映像データを取得することによって、指定された視点位置及び向きに係る映像を生成可能なクライアントに搭載されたコンピュータにおける配信プロファイル決定方法であって、
    指定された視点位置及び向きと当該オブジェクトの位置との関係に基づいて、当該映像データに係る複数の視点のうちから、当該オブジェクトに係る視点を選択するステップと、
    指定された視点位置及び向きに係る画像において当該オブジェクトを表示する際に可能となる解像度である表示可能解像度を算出するステップと、
    当該映像データ毎に、当該映像データに係る視点が選択されたオブジェクトについて算出された表示可能解像度に基づいて、当該映像データのビットレートを決定するステップと
    を有することを特徴とする配信プロファイル決定方法。
JP2017166891A 2017-08-31 2017-08-31 表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法 Active JP6758268B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017166891A JP6758268B2 (ja) 2017-08-31 2017-08-31 表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166891A JP6758268B2 (ja) 2017-08-31 2017-08-31 表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2019047249A JP2019047249A (ja) 2019-03-22
JP6758268B2 true JP6758268B2 (ja) 2020-09-23

Family

ID=65814770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166891A Active JP6758268B2 (ja) 2017-08-31 2017-08-31 表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP6758268B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269760B1 (ko) * 2019-11-26 2021-06-29 서울과학기술대학교 산학협력단 영상 전송 시스템의 다중 영상 시점 보정 장치
US11877021B2 (en) 2019-12-27 2024-01-16 Nippon Hoso Kyokai Transmitting device and receiving device

Also Published As

Publication number Publication date
JP2019047249A (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
KR101451041B1 (ko) 복수의 콘텐츠 아이템으로부터 합성 뷰를 생성하는 방법, 서버 및 단말
JP7436598B2 (ja) 空間的不均等ストリーミング
JP6884856B2 (ja) コンテンツに基づいた映像データのストリーム分割
EP2490179B1 (en) Method and apparatus for transmitting and receiving a panoramic video stream
US20190387214A1 (en) Method for transmitting panoramic videos, terminal and server
EP1162830A2 (en) Method and apparatus for electronically distributing motion panoramic images
Park et al. Volumetric media streaming for augmented reality
WO2010116243A1 (en) Methods and apparatus for efficient streaming of free view point video
JP7493496B2 (ja) 画像合成
US11159823B2 (en) Multi-viewport transcoding for volumetric video streaming
US20200404241A1 (en) Processing system for streaming volumetric video to a client device
JP6758268B2 (ja) 表示可能解像度に基づいて配信プロファイルを決定するクライアント、プログラム及び方法
KR20190062816A (ko) 분할 영상 기반의 라이브 스트리밍 서비스 운용 방법 및 이를 지원하는 전자 장치
JP2014176017A (ja) 映像再生装置、映像配信装置、映像再生方法及び映像配信方法
JP2018125621A (ja) データのセグメント受信を制御するクライアント、プログラム及び方法
JP2014116922A (ja) 映像再生装置及び映像配信装置
WO2022149189A1 (ja) 配信制御装置、配信制御システム、配信制御方法、及びプログラム
CN116320551B (zh) 一种基于多个多球面图像的多视点视频自适应传输方法
JP7522605B2 (ja) 送信装置、受信装置、ネットワークノード、及びプログラム
EP4013059A1 (en) Changing video tracks in immersive videos
JP7296219B2 (ja) 受信装置、送信装置、及びプログラム
JP6589526B2 (ja) ビットレート決定装置、サーバ装置、ビットレート決定方法、及びプログラム
JP2017041707A (ja) 再生装置、情報処理方法及び通信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200901

R150 Certificate of patent or registration of utility model

Ref document number: 6758268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150