JP7324251B2 - 情報処理装置および情報処理方法、映像表示システム、プログラム - Google Patents

情報処理装置および情報処理方法、映像表示システム、プログラム Download PDF

Info

Publication number
JP7324251B2
JP7324251B2 JP2021114389A JP2021114389A JP7324251B2 JP 7324251 B2 JP7324251 B2 JP 7324251B2 JP 2021114389 A JP2021114389 A JP 2021114389A JP 2021114389 A JP2021114389 A JP 2021114389A JP 7324251 B2 JP7324251 B2 JP 7324251B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
video
viewpoint video
distribution
distribution method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021114389A
Other languages
English (en)
Other versions
JP2023010326A (ja
Inventor
剛史 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021114389A priority Critical patent/JP7324251B2/ja
Priority to EP22181226.6A priority patent/EP4117293A1/en
Priority to US17/857,306 priority patent/US20230009185A1/en
Publication of JP2023010326A publication Critical patent/JP2023010326A/ja
Application granted granted Critical
Publication of JP7324251B2 publication Critical patent/JP7324251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、情報処理装置および情報処理方法、映像表示システム、プログラムに関する。
昨今、被写体を様々な視点位置および視線方向からの映像として視聴できる仮想視点映像の技術が注目されている。この技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の映像と比較してユーザに高臨場感を与えることが出来る。特許文献1には、被写体を取り囲むように設置された複数の撮影装置により同一のタイミングで多方向から撮影した複数の映像から仮想視点映像を生成し、生成された仮想視点映像を外部のユーザ端末に配信する技術が開示されている。
特開2014―41259号公報
特許文献1に開示された技術では、配信装置が、ユーザ端末から指定された仮想視点の位置に基づいて仮想視点映像を生成し、ユーザ端末に提供している。一方、例えば、ユーザ端末側で仮想視点映像の生成が可能な場合は、配信装置から仮想視点映像を生成するためのデータをユーザ端末に送信し、ユーザ端末が仮想視点映像を生成することにより、仮想視点映像を配信する方法が考えられる。この構成によれば、配信装置側での仮想視点映像の生成に係る処理負荷は軽減されるが、ユーザ端末側の処理負荷が増加する。このように、仮想視点映像の配信方法には複数の種類が考えられ、それぞれ特徴がある。特許文献1では、状況に応じて仮想視点映像の配信をどのように行うかの決定方法については考慮されていない。
本開示の一態様では、状況に応じて適切な方法で仮想視点映像の配信が行われるようにする。
本開示の一態様による情報処理装置は以下の構成を有する。すなわち、
仮想視点映像の配信に係る配信方法として、前記仮想視点映像の生成に使用される被写体データを外部装置から受信することにより前記仮想視点映像を生成する第1の方法と、前記仮想視点映像を生成するための仮想視点を指定することにより生成された仮想視点映像を前記外部装置から受信する第2の方法と、のいずれを使用するかを判定する判定手段と、
前記判定手段により判定された配信方法を使用して、前記仮想視点映像を取得する取得手段と、を有する。
本開示によれば、状況に応じて適切な方法で仮想視点映像の配信が行われるようにすることができる。
実施形態による映像表示システムの構成例を示すブロック図。 実施形態による配信方法を説明する図。 実施形態による仮想カメラの位置と仮想視点映像の例を示す図。 実施形態による映像視聴装置の処理を示すフローチャート。 実施形態による映像配信装置の処理を示すフローチャート。 映像視聴装置における滞留フレーム数の変動の例を示す図。 映像配信装置における配信状態および仮想視点映像の生成状況を例示する図。 配信方の切り替え時における仮想カメラの位置姿勢の補完を説明する図。 配信方の切り替え時におけるイベント時刻の補完を説明する図。 配信方法決定部によるユーザインターフェイスの表示例を示す図。 映像視聴装置および映像配信装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
図1に、本実施形態に関わる映像表示システム10の構成例を示す。映像表示システム10は、映像配信装置100と映像視聴装置110を有する。映像配信装置100は、仮想視点映像の生成に必要な3次元形状情報とテクスチャ情報、および、仮想視点映像を配信する機能を有する。以下、3次元形状情報とテクスチャ情報のような、仮想視点映像の生成に必要なデータを、被写体データと称する。3次元形状情報は、被写体の3次元形状を表すデータであり、例えば、点群データや、ポリゴン(メッシュ)データなどでありうる。
映像配信装置100は、例えば、クラウドと呼ばれる、ネットワークを介してユーザにサービスを提供するコンピュータサーバ(情報処理装置)を用いて実現され得る。映像視聴装置110は、映像配信装置100が配信した3次元形状情報とテクスチャ情報から仮想視点映像を生成し、可視化してユーザに視聴させる機能、および、映像配信装置100が配信した仮想視点映像を可視化してユーザに視聴させる機能を有する。また、映像視聴装置110はユーザから、仮想視点映像の生成のための仮想視点の位置、仮想視点からの視線方向の指定を受け付ける機能を有する。映像視聴装置110は、例えばタブレットやパソコンなどの情報処理装置である。ユーザはタブレットに表示されるユーザインターフェイスを介して仮想視点の位置、視線方向を指定することができ、任意の視点から観察される仮想視点映像を視聴することが可能となる。映像配信装置100と映像視聴装置110はネットワークで接続されており、ネットワークを介してデータを送受信することができる。なお、図1では、映像配信装置100に1台の映像視聴装置110が接続された構成が示されているが、映像配信装置100には2台以上の映像視聴装置110が接続され得る。
映像配信装置100は、データ保存部101と映像生成部102とデータ選択部103と通信部104を備える。
データ保存部101は、3次元形状情報およびテクスチャ情報を被写体データとして保存する。3次元形状情報は、被写体を取り囲むように設置した複数のカメラを用い、同一のタイミングで多方向から撮影した映像から生成される。より具体的には、3次元形状情報は、例えば、複数のカメラで撮影した画像を被写体と被写体以外の背景に分離して被写体のシルエット画像を抽出し、複数の異なる視点のシルエット画像から視体積交差法を用いることで導出される。本実施形態では、被写体データ生成装置121が、複数のカメラ131により撮影された複数の撮影画像に対して上記処理を行い、被写体データを生成する。データ保存部101は、こうして導出された3次元形状情報と、撮影画像から得られたテクスチャ情報を含む被写体データを保存している。なお、映像配信装置100が被写体データ生成装置121の機能を有してもよい。また、データ保存部101が保存する被写体データは、3次元形状情報とテクスチャのセットに限られるものではない。被写体データは、それに基づいて仮想視点映像を作成することが可能なデータであればよく、例えば、色付き点群データ等であってもよい。また、被写体データは、ビルボードデータ等であってもよい。また、被写体データは、上述したデータの他に、仮想視点映像の生成に使用されるデータを含んでもよい。例えば、被写体データに、CGにより生成された背景データなどが含まれてもよい。データ保存部101は、例えば、SSDやハードディスクなどに代表されるストレージにより実現され得る。
映像生成部102は、データ保存部101に保存されている被写体データ(本例では、3次元形状情報とテクスチャ情報)から仮想視点映像を生成する。例えば、映像生成部102は、設定された仮想視点の位置及び仮想視点からの視線方向、3次元形状情報とテクスチャ情報を用いてレンダリング処理を行い、仮想視点映像を生成する。映像生成部102は、生成した仮想視点映像をネットワークにて伝送可能な圧縮データに変換する機能を有しても良い。映像生成部102は、生成した仮想視点映像をデータ選択部103に出力する。
データ選択部103は、通信部104を介して映像視聴装置110に送信されるデータを選択する。データ選択部103は、映像視聴装置110からの指示に基づいて、データ保存部101に保存されている被写体データと、映像生成部102が生成した仮想視点映像とのうち、映像視聴装置110へ送信されるデータを選択する。なお、複数台の映像視聴装置110が接続されている場合、データ選択部103はそれぞれの映像視聴装置110に対して送信するデータを選択する。通信部104は、ネットワークを介して、外部装置である映像視聴装置110とデータの送受信を行う。例えば、通信部104はイーサネットなどに代表される通信規格で外部装置との通信を行う。
次に、映像視聴装置110の機能部について説明する。映像視聴装置110は、通信部111、映像生成部112、指示部113、映像取得部114、配信方法決定部115、映像表示部116を備える。
通信部111は、ネットワークを介して、映像配信装置100とデータの送受信を行う。例えば、通信部111はイーサネットなどに代表される通信規格により通信を行う。映像生成部112は、通信部111を介して映像配信装置100から受信した被写体データ(本例では3次元形状情報およびテクスチャ情報)と、指示部113から提供される仮想視点の情報に基づいて仮想視点映像を生成する。なお、以下では、仮想視点を仮想カメラと称し、仮想視点の位置およびその位置からの視線方向を仮想カメラの位置姿勢と称する。すなわち、映像生成部112は、映像配信装置100から受信した3次元形状情報とテクスチャ情報と、仮想カメラの位置姿勢情報とに基づいてレンダリング処理を行い、仮想視点映像を生成する。映像生成部112は生成した仮想視点映像を映像データとして配信方法決定部115に出力する。
指示部113は、仮想カメラの位置姿勢を指示するユーザ操作を受け付け、ユーザにより指示された位置姿勢を映像生成部112へ提供するとともに、通信部111を介して映像配信装置100へ送信する。例えば、指示部113は、仮想カメラの位置姿勢を指示するためのユーザインターフェイスをタブレットの画面に表示し、ユーザによる位置姿勢の指定を受け付け、その内容を映像生成部112と通信部111に供給する。なお、映像視聴装置110がパソコンなどである場合には、仮想視点カメラの位置を指定するレバーとスイッチで構成された入力装置であっても良い。映像取得部114は、通信部111を介して映像配信装置100から受信した仮想視点映像(映像生成部102が生成した仮想視点映像)を、映像表示部116で表示可能な映像データに変換する。例えば、映像取得部114は、受信した仮想視点映像が圧縮映像データであった場合には、これを伸張する機能を有する。
配信方法決定部115は、仮想視点映像を視聴するための複数の配信方法の中から使用する配信方法を決定し、決定された配信方法を映像配信装置100に通知する。判断部1151は、通信部111による被写体データの受信の状態または映像生成部112による仮想視点映像の生成の状態に基づいて、映像生成部112が所定のフレームレートで仮想視点映像を生成できるか否かを判断する。配信方法決定部115は、この判断結果に基づいて、映像生成部112から仮想視点映像を取得する配信方法を用いるか、映像配信装置100(映像取得部114)から仮想視点映像を取得する配信方法を用いるかを判定し、使用する配信方法を決定する。配信方法決定部115は、決定された配信方法に基づいて、映像生成部112が生成した映像データと、映像取得部114が取得した映像データのうちの一方を選択し、選択された映像データを映像表示部116に出力する。なお、本実施形態が用いる複数の配信方法、および、配信方法決定部115が配信方法を決定する処理については後述する。映像表示部116は、配信方法決定部115から出力された映像データ(仮想視点映像)を、例えば液晶ディスプレイに代表される表示器に表示する。これにより、ユーザは、配信方法決定部115が選択し出力した仮想視点映像を視聴することができる。
映像配信装置100および映像視聴装置110のハードウェア構成について、図10を用いて説明する。映像配信装置100および映像視聴装置110は、それぞれ図10に示されるような構成を備える情報処理装置200により実現され得る。情報処理装置200は、CPU(中央演算装置)211、ROM(リードオンリーメモリ)212、RAM(ランダムアクセスメモリ)213、補助記憶装置214、表示部215、操作部216、通信I/F217、及びバス218を有する。
CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて情報処理装置200の全体を制御することで、図1に示される映像配信装置100、映像視聴装置110の各機能を実現する。なお、情報処理装置200がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部215は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置200を操作するためのGUI(Graphical User Interface)などを表示する。操作部216は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。通信I/F217は、情報処理装置200の外部の装置との通信に用いられる。例えば、情報処理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。情報処理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。バス218は、情報処理装置200の各部をつないで情報を伝達する。
本実施形態では表示部215と操作部216が情報処理装置200の内部に存在するものとするが、表示部215と操作部216との少なくとも一方が情報処理装置200の外部に別の装置として存在していてもよい。この場合、CPU211が、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作してもよい。
次に、複数の配信方法の例について説明する。図2は、本実施形態による映像表示システム10が用いる配信方法の例を示す。本実施形態では、図2に示す3つの配信方法A~Cが選択的に用いられる。「通信データ」の行は、配信方法A~Cのそれぞれについて、ダウンロードにおいて映像配信装置100から映像視聴装置110へ送信されるデータと、アップロードにおいて映像視聴装置110から映像配信装置100へ送信されるデータを示す。「表示される映像の生成を行う装置」の行は、配信方法A~Cのそれぞれにおいて、映像配信装置100と映像視聴装置110のどちらで生成された仮想視点映像が表示されるかを示す。「仮想カメラ操作性」の行は、配信方法A~Cのそれぞれにおけるレイテンシ(仮想カメラの操作に対する追従性)と指定可能位置(ユーザが操作できる仮想カメラの位置)を示す。「通信帯域」の行は、配信方法A~Cのそれぞれにおける、ダウンロード時に要求される通信帯域、アップロード時に要求される通信帯域を示す。「映像視聴装置の処理負荷」は、配信方法A~Cのそれぞれにおける映像視聴装置110の処理負荷の大きさを示す。「映像配信装置の処理負荷」は、配信方法A~Cのそれぞれにおける映像配信装置100の処理負荷の大きさを示す。
配信方法Aでは、映像配信装置100が、被写体データ(本実施形態では3次元形状情報およびテスクチャ情報)を映像視聴装置110に対して配信する。なお、映像視聴装置110は、映像配信装置100により配信される被写体データが対応するフレームの時刻(以下、イベント時刻と称する)を指定することができる。映像配信装置100は、映像視聴装置110から指定されたイベント時刻のフレームを先頭として被写体データを映像視聴装置110に配信する。映像視聴装置110(映像生成部112)は、映像配信装置100から受信した被写体データと、指示部113を介してユーザが入力した仮想カメラの位置姿勢情報とに基づいて仮想視点映像のレンダリングを行う。配信方法Aでは、映像視聴装置110の映像生成部112が仮想視点映像を生成するため、ユーザ(指示部113)からの指示に対して低遅延で仮想視点映像を生成することができる。そのため、ユーザは仮想カメラの操作に対してレスポンス良く仮想視点映像が変化するユーザエクスペリエンスを得ることとなる。その一方で、映像配信装置100は、2次元映像データと比較しデータ量が数倍から数十倍大きい3次元形状情報を映像視聴装置110に伝送しうる。そのため、映像配信装置100と映像視聴装置110の間で大きい通信帯域(例えば、図2の例では1Gbps)を確保する必要がある。さらには、映像視聴装置110は、配信された被写体データ(3次元形状情報およびテクスチャ情報)を実時間でレンダリング可能な能力が必要となる。
配信方法Bでは、映像配信装置100が、映像視聴装置110から指定された仮想カメラの位置姿勢とデータ保存部101に保存されている被写体データとから仮想視点映像(2次元映像データ)を生成する。映像配信装置100は、映像視聴装置110から指定されたイベント時刻を先頭とする仮想視点映像のフレームを生成し、生成した仮想視点映像を映像視聴装置110に配信する。ここで、仮想カメラの位置姿勢およびイベント時刻は、指示部113からユーザにより入力され、通信部111を介して映像配信装置100に送信される。配信方法Bでは、仮想カメラの位置姿勢の情報がネットワークを介して映像配信装置100に伝送される必要がある。そのため、配信方法Aと比べると、ユーザの仮想カメラ操作と、その操作が反映された仮想視点映像の表示との間に遅延が生じうる。しかしながら、配信方法Bは、映像配信装置100で生成された2次元映像データを配信するため、データ量の多い3次元形状情報およびテクスチャ情報を含む被写体データを配信する必要が無く、配信方法Aと比べて大きい通信帯域を必要としない。ただし、ユーザが指定する仮想カメラの位置姿勢ごとに映像配信装置100がレンダリングを行う必要があるため、映像配信装置100の映像生成部102に高い処理性能が必要となる。
配信方法Cでは、映像配信装置100が、あらかじめ決められた複数の仮想カメラの位置姿勢に基づいて仮想視点映像を生成し、複数の仮想カメラのうち映像視聴装置110が指定する仮想カメラによる仮想視点映像(2次元映像データ)を配信する。配信方法Cでは、映像配信装置100が生成した仮想視点映像が1つ以上の映像視聴装置に配信されるため、個々の映像視聴装置110がイベント時刻を指定することはできない。図3に配信方法Bと配信方法Cのために映像配信装置100が生成する仮想視点映像の例を示す。図3の例では、スタジアムにおいて撮影されたサッカーの仮想視点映像について示している。映像配信装置100のデータ保存部101には、図3のスタジアム301、選手302、ボール303の被写体データ(3次元形状情報およびテクスチャ情報)が保存されている。配信方法Bでは、映像視聴装置110からの指示により設定される仮想カメラ350の位置姿勢とデータ保存部101に保存されている被写体データとに基づいて映像生成部102が仮想視点映像351を生成し、配信する。配信方法Cでは、映像配信装置100の映像生成部102は、データ保存部101から被写体データを読み出し、予め決められている仮想カメラの位置姿勢に基づく仮想視点映像を生成する。本実施形態では、仮想カメラ310、320、330、340の位置姿勢が図3に示されるように予め決められている。仮想視点映像311、321、331、341は、それぞれ仮想カメラ310、320、330,340の位置姿勢に基づいて映像生成部102により生成された仮想視点映像である。
配信方法Cにおいて、ユーザは、指示部113を用いて、前述の4つの仮想カメラ310、320、330、340のうちから所望の位置姿勢の仮想カメラを選択する。配信方法Aおよび配信方法Bでは、仮想カメラの任意の位置姿勢およびイベント時刻を選択できるのに対し、配信方法Cでは予め決められた仮想カメラの位置姿勢から選択することとなる。配信方法Cでは、仮想カメラの位置を固定することで、映像配信装置100(映像生成部102)の処理負荷を増やすことなくユーザ数の増加に対応することが可能となる。
次に、配信方法決定部115による配信方法を決定する処理およびそれぞれの配信方法において仮想視点映像を表示する処理について説明する。図4Aは、映像視聴装置110による、仮想視点映像の表示処理を示すフローチャートである。本実施形態では、上述した3つの配信方法のうちから、映像視聴装置110による仮想視点映像の表示に用いられる配信方法が決定される。また、映像視聴装置110からの各種要求に応じた映像配信装置100の動作を図4Bのフローチャートに示す。
ステップS420において、配信方法決定部115は配信方法A~Cのそれぞれについて選択可能か否かを確認する。配信方法Aは、前述のように、映像配信装置100との通信に十分な通信帯域があり、映像生成部112に十分なレンダリング性能がある場合に、選択可能と判断される。十分な通信帯域があることは、例えば、テスト用の被写体データ(3次元形状情報およびテクスチャ情報)を用いて次のようにして確認され得る。配信方法決定部115が、映像配信装置100にテスト用の被写体データの送信を要求すると、映像配信装置100は要求元である映像配信装置100にテスト用の被写体データを配信する(ステップS510でYES,ステップS511)。映像視聴装置110においてテスト用の被写体データが受信されると、映像生成部112は、テスト用の被写体データに基づく仮想視点映像を生成する。配信方法決定部115(判断部1151)は、映像生成部112が所望のフレームレートでテスト用の被写体データに基づく仮想視点映像を出力できているかを確認する。なお、このときに用いられる仮想カメラの位置姿勢は、予め設定された位置姿勢でもよいし、その時点でユーザ操作により指定されている位置姿勢でもよい。映像生成部112が仮想視点映像を所望のフレームレートで出力できていれば、判断部1151は映像生成部112による仮想視点映像を利用可能であると判断し、この判断結果に従って配信方法決定部115は、配信方法Aを選択可能であると判断する。
配信方法Bの選択の可否は、例えば、映像配信装置100の映像生成部102に処理能力の余剰があるか否かを確認することにより判断される。例えば、ステップS420において、配信方法決定部115が、映像配信装置100に配信方法Bによる仮想視点映像の配信が可能か否かを問い合わせる。この問い合わせを受け付けた映像生成部102は、処理能力の余剰があるか否かを判断する(ステップS520でYES,ステップS521)。例えば、映像生成部102には生成可能な仮想視点映像の本数の上限が予め設定されており、映像生成部102は、現在生成している仮想視点映像の本数がその上限に達しているか否かにより処理能力の余剰があるか否かを判断する。映像生成部102は、生成している仮想視点映像の本数が上限に達していれば余剰なしと判断し、そうでなければ余剰ありと判断する。詳細は、図6を用いて後述する。余剰ありと判断された場合(ステップS522でYES)、映像配信装置100は、配信方法Bを実行可能であることを映像視聴装置110に返答する(ステップS523)。他方、余剰なしと判断された場合は(ステップS522でNO)、映像配信装置100は、配信方法Bを実行不可であることを映像視聴装置110に返答する(ステップS524)。但し、映像生成部102の処理能力の余剰の確認方法はこれに限られるものではなく、例えば、映像生成部102のストレージやメモリ、CPU稼働率に基づいて処理能力の余剰を確認しても良い。
配信方法Cでは、映像生成部102が予め決められた仮想カメラの位置に基づいて仮想視点映像を生成するので、処理負荷および通信負荷がほぼ一定である。したがって、配信方法Cは、配信方法AおよびBが選択不可能だった場合に備えて、常に選択可能とする。まず、配信方法A、B、Cのすべてが選択可能であると確認されたとして、以降の処理を説明する。
ステップS430において、配信方法決定部115は、ステップS420において選択可能であると確認された配信方法の中から、使用する配信方法を決定する。本例では、配信方法A、配信方法B、配信方法Cの優先順で配信方法が決定される。したがって、配信方法A~Cの全てが選択可能な場合、配信方法決定部115は、配信方法Aを選択する。配信方法Aでは、ユーザが仮想カメラの位置をレスポンス良く操作することが可能である。なお、本実施形態では配信方法決定部115が配信方法を決定する例を示したが、これに限られるものではない。例えば、選択可能と確認された配信方法をリスト表示し、このリストからユーザが所望の配信方法を選択するようにしても良い。配信方法決定部115が配信方法Aを選択すると、処理はステップS440に遷移する。
ステップS440において、配信方法決定部115は、通信部111および通信部104を介して、選択した配信方法が配信方法Aであることを映像配信装置100のデータ選択部103に通知する。映像視聴装置110から配信方法Aが選択された旨の通知を受けたデータ選択部103は(ステップS530、ステップS531)、データ保存部101に保存されている被写体データを読み出し(ステップS532)、通信部104を介して映像視聴装置110に送信する(ステップS533)。通信部111は、映像配信装置100から受信した被写体データを映像生成部112に供給する。なお、映像視聴装置110から映像配信装置100にイベント時刻が指定されると、映像配信装置100は指定されたイベント時刻以降のフレームに対応する被写体データを映像視聴装置110へ送信する。次に、ステップS441において、配信方法決定部115は、映像生成部112に、仮想視点映像を生成するよう指示する。映像生成部112は、指示部113からのユーザ指定された仮想カメラの位置姿勢と、映像配信装置100から受信した被写体データを用いてレンダリングを行い、仮想視点映像を生成する。次に、ステップS442において、映像表示部116は、映像生成部112により生成された仮想視点映像を表示器(表示部215)に表示する。ユーザは、指示部113から指示した仮想カメラの仮想視点映像を視聴することが可能となる。
ステップS443において、配信方法決定部115は、ユーザから仮想視点映像の視聴の終了指示があるかを確認する。終了処理があれば(ステップS443でYES)、映像視聴装置110における仮想視点映像の視聴を終え、本処理を終了する。他方、ユーザからの終了処理が無ければ(ステップS443でNO)、処理はステップS444に遷移する。
ステップS444において、配信方法決定部115は、映像生成部112が生成し出力した仮想視点映像のフレームであって、まだ映像表示部116により表示されていないフレームの数(以下、滞留フレーム数)を確認する。映像表示部116は、所定のフレームレート、例えば30fps(1秒間に30フレーム)で、仮想視点映像を表示する。映像生成部112は、十分な通信帯域が確保されていて、レンダリングするのに非常に時間がかかるデータが入ってこない限り、1秒間に30フレーム以上のフレームを生成することが可能である。一方、通信部111の通信帯域や映像生成部112の処理負荷などの変動により、映像生成部112が時間当たりに生成可能なフレーム数が変動すると、滞留フレーム数も増減する。本実施形態では、このような滞留フレーム数を配信方法Aの選択可否の判断に用いる。
ステップS445において、配信方法決定部115は配信方法の変更の要否をステップS444で確認した滞留フレーム数に基づいて判断する。図5に滞留フレーム数の遷移の例を示す。図5において、横軸は時間を表し、縦軸は滞留フレーム数を表す。配信方法決定部115は、滞留フレーム数が閾値F2以下になった場合に、配信方法Aから他の配信方法への切り替えが必要であると決定する。図5の例では、時刻0からt0までは、十分な通信帯域が確保され、映像生成部112は、1秒間に30フレーム以上の仮想視点映像を生成している。時刻t0から通信帯域が低下し映像生成部112の生成するフレーム数が1秒に30フレーム以下になったとする。このため、滞留フレーム数は時刻t0から徐々に減少し、時刻t2で閾値F2に達している。配信方法決定部115は、滞留フレーム数が閾値F2に達した時刻t2において配信方法の変更が必要であると判断する。配信方法を変更する必要があると判断された場合(ステップS445でYES)、処理はステップS420に戻る。他方、配信方法の変更が不要と判断された場合(ステップS445でNO)、処理はステップS442に戻り、配信方法Aによる仮想視点映像の再生が継続する。
なお、前述の説明では、配信方法決定部115が配信方法を切り替えることを決定したが、ユーザに対し配信方法の変更を促す、または、確認するようにしても良い。例えば、図5に示すように、滞留フレーム数が閾値F1以下になった時点(t1)で、配信方法決定部115は、映像表示部116に配信方法の変更をユーザに促す表示を行う。配信方法A以外の配信方法への変更がユーザによって指示された場合、配信方法決定部115はステップS445で配信方法を変更すると判断し(ステップS445でYES)、処理はステップS420に戻る。
ステップS420に処理が戻ると、上述のように配信方法決定部115は選択可能な配信方法を確認する。ステップS445で他の配信方法への変更が必要と判断された場合は、配信方法Aが選択中であり、滞留フレーム数が閾値を下回っている。従って、配信方法決定部115は配信方法Aを選択不可と判断する。配信方法Bについては、配信方法決定部115が通信部111を介して、映像配信装置100の映像生成部102の処理能力の余剰があるか否かを確認する。
図6に映像配信装置100の映像生成部102の処理状態の例を示す。映像生成部102は、同時に8本の仮想視点映像を生成できるものとする。図6では、同時に実行可能な8本の仮想視点映像の生成処理600~607として示している。但し、本実施形態では、配信方法Cを常時選択可能とするために、生成処理604~607は仮想カメラ310,320,330,340の仮想視点映像を生成するために確保されており、生成処理600~603が配信方法Bで使用できるものとする。すなわち、生成処理604~607は配信方法Cによる仮想視点映像生成のために予約されており、配信方法Bのために用いることはできない。例えば、図6(A)では、生成処理600~602は現在、ユーザ3~5のための配信方法Bのための処理を行っている。また、生成処理603は未実行であり、処理要求を受け付け可能な状態であるとする。また、配信処理610~614は、複数の映像視聴装置110からの要求により実行されている配信処理を表している。例えば、配信処理610は、配信方法Aで視聴しているユーザ1のための配信処理を示す。ユーザ1は配信方法Aで視聴しているため、映像生成部102では配信処理610のための生成処理は行われていない。また、配信処理612は、配信方法Bで視聴しているユーザ3のための配信処理であり、映像生成部102で仮想視点映像の生成処理600が行われている。同様に、配信処理613~614のために生成処理601~602が行われている。図6(A)では、映像生成部102が、ユーザ3,4,5の3つの仮想視点映像の配信のための生成処理600,601,602を実行している。
図6(A)の状態において、配信方法Aで視聴していたユーザ1の映像視聴装置110における配信方法Aでの視聴継続が難しくなり、配信方法決定部115が、配信方法Bの可否を映像配信装置100に確認したとする。図6(A)の状態では、映像生成部102に未使用の生成処理603がある。すなわち、映像生成部102は、新たな生成処理の実行が行可能であり(処理能力の余剰があり)、配信方法Bを選択可能である旨が配信方法決定部115に通知される。
ステップS420において、配信方法Aは選択不可であるが配信方法Bは選択可能であると確認されると、ステップS430において、配信方法決定部115は、配信方法Bを用いることを決定する。したがって、処理はステップS450に遷移する。ステップS450において、配信方法決定部115は通信部111および通信部104を介して、データ選択部103に配信方法Bを用いることを通知する。配信方法Bの通知を受けたデータ選択部103は、映像生成部102に対して仮想視点映像の生成を要求する。この要求を受けた映像生成部102は、映像視聴装置110から受信した仮想カメラの位置姿勢を用いた仮想視点映像の生成を開始する(ステップS530、S531、S534~S536)。これにより、例えば、図6(B)に示されるように、映像生成部102の生成処理603が、ユーザ1の配信処理610のための仮想視点映像の生成を開始する。
ステップS451において、指示部113でユーザが入力した仮想カメラの位置姿勢の情報が、通信部111を介して映像配信装置100の映像生成部102に送信される。映像生成部102は、仮想カメラの位置姿勢を受信し(ステップS534)、データ保存部101から読み出した被写体データと、受信した仮想視点カメラの位置姿勢とに基づいて仮想視点映像を生成する(ステップS535、図6(B)の生成処理603)。データ選択部103は、映像生成部102が生成した仮想視点映像を、通信部104を介して、映像視聴装置110に配信する(ステップS536、図6(B)の配信処理610)。なお、送信される仮想視点映像は2次元映像データなので、データ選択部103が動画像圧縮処理を実施してデータ量を削減してから送信するようにしても良い。
ステップS452において、映像取得部114は、圧縮された仮想視点映像に対して伸長処理を行って2次元映像を生成し、配信方法決定部115に入力する。配信方法決定部115は、配信方法Bが選択されているので、映像取得部114から入力した仮想視点映像を映像表示部116に供給し、映像表示部116はこれを表示器(表示部215)に表示する。こうして、配信方法Bでは、指示部113により指示された仮想カメラの位置姿勢に基づいて映像配信装置100の映像生成部102が生成した仮想視点映像を、映像視聴装置110においてユーザが視聴することができる。なお、配信方法Bにおいて、映像視聴装置110から映像配信装置100に対してイベント時刻を指定することにより、指定されたイベント時刻の仮想視点映像を視聴できることは、上述したとおりである。
ステップS453において、配信方法決定部115は、ユーザから仮想視点映像の視聴の終了指示があるかを確認する。終了処理があれば(ステップS453でYES)、映像視聴装置110における仮想視点映像の視聴を終え、本処理を終了する。他方、ユーザからの終了処理が無ければ(ステップS453でNO)、処理はステップS454に遷移する。
ステップS454において、配信方法決定部115は、配信方法Bから配信方法Cの変更の要否、配信方法Bから配信方向Aへの変更の可否を判断する。配信方法決定部115は、例えば、映像生成部102の処理負荷が高くなり仮想視点映像の生成を継続できない場合、或いは、ユーザからの仮想カメラの位置姿勢指示に対する遅延が大きく、操作性が低下している場合、配信方法Bの維持が困難であると判断する。映像生成部102が仮想視点映像の生成を継続できないことは、映像配信装置100から通知されてもよいし、受信される仮想視点映像のフレームレートの低下から配信方法決定部115が判断するようにしてもよい。仮想カメラの位置姿勢指示に対する遅延の大きさは、例えば、映像配信装置100が仮想視点映像に仮想カメラの位置姿勢情報を付加して配信し、配信方法決定部115がこれを確認することでなされ得る。また、配信方法Aへの変更が可能であるか否かを判断するために、配信方法決定部115は、例えば、映像配信装置100にテスト用の3次元形状情報およびテクスチャ情報(以下、テストデータ)の配信を行わせる。配信方法決定部115は、映像生成部112にテストデータから仮想視点映像を生成させ、残留フレーム数が閾値以上(例えば、閾値F1以上)になった場合に配信方法Aが選択可能であると判断する。配信方法Cへの変更が必要である、或いは、配信方法Aへの変更が可能であると判断された場合(ステップS454でYES)、処理はステップS420に戻る。その他の場合(ステップS454でNO)、処理はS451に戻り、配信方法Bを用いた仮想視点映像の再生が継続する。
以上、配信方法決定部115が配信方法Aから配信方法Bに切り替わる場合を説明した。次に、配信方法Aから配信方法Cに切り替わる場合の処理を説明する。
上述のようにステップS454でYESと判断された場合、処理はステップS420に戻り、配信方法決定部115は選択可能な配信方法を確認する。このとき、映像視聴装置110が依然として配信方法Aによる配信を採用できないと判断し、映像配信装置100の映像生成部102の処理状態が図6(C)に示すようになっていたとする。図6(C)の状態では、図6(A)の状態に配信処理615~621が加わっており、映像配信装置100の映像生成部102は、配信方法Bのための4つの生成処理600~603と、配信方法Cのための4つの生成処理604~607を実行している。配信方法Cでは、予め位置姿勢が決められた4つの仮想カメラ310、320、330、340(図3)に対応した仮想視点映像の生成が、4つの生成処理604~607で行われる。配信処理616~621は、配信方法Cを用いてユーザ7~12のそれぞれの映像視聴装置110に仮想視点映像を配信している。このような状況で配信方法決定部115により配信方法Bの実行可否の確認が行われた場合、映像生成部102はこれ以上の生成処理を受け付けることができないので配信方法Bは選択不可と判断される。その結果、配信方法決定部115は、配信方法Cのみを選択可能な配信方法と判断する。ステップS430において、配信方法決定部115は配信方法Cを選択し、処理はステップS460に遷移する。
ステップS460において、配信方法決定部115は配信方法Cを選択したことを映像配信装置100のデータ選択部103に通知する。ステップS461において、配信方法決定部115は、指示部113でユーザが入力した仮想カメラの選択情報を映像配信装置100の映像生成部102に送付する。本実施形態の配信方法Cでは、前述の予め決められた4つの仮想カメラ310、320、330、340の中から1つを選択することとなる。データ選択部103は、配信方法Cが指定されると、映像視聴装置110から選択情報を受信する(ステップS530、S531、S537)。次に、データ選択部103は、受信した選択情報により選択された仮想カメラの位置姿勢に対応した仮想視点映像を、当該選択情報の送信元の映像視聴装置110に配信する(ステップS538)。
ステップS462において、映像取得部114は、通信部111を介して受信された仮想視点映像に伸長処理等を施し、得られた仮想視点映像を配信方法決定部115に供給する。配信方法決定部115は、映像取得部114から供給された仮想視点映像を選択し、映像表示部116を介してユーザに表示を行う。このようにして配信方法Cを用いることで、図6(C)のように、視聴するユーザが増加しても、映像配信装置100の映像生成部102の処理負荷を所定の範囲に収めつつ、配信を継続することが可能となる。
ステップS463において、配信方法決定部115は、ユーザから仮想視点映像の視聴の終了指示があるかを確認する。終了処理があれば(ステップS463でYES)、映像視聴装置110における仮想視点映像の視聴を終え、本処理を終了する。他方、ユーザからの終了処理が無ければ(ステップS463でNO)、処理はステップS464に遷移する。
ステップS464において、配信方法決定部115は配信方法の変更の可否を判断する。配信方法Cにおいては、基本的に一般的な2次元映像配信と同等の構成となるため、仮想視点映像を視聴できなくなるケースはない。すなわち、これ以上の配信方法への変更が必要になることはない。しかしながら、配信方法Cでは、配信方法Aおよび配信方法Bと比べて仮想カメラの操作性が制約される。そこで、ステップS464において、配信方法Cから配信方法Aまたは配信方法Bへの変更が可能か否かを確認する。配信方法Aへの変更の可否は、例えば上述したテストデータを用いた方法により判断することができる。また、配信方法Bへの変更の可否は、映像生成部102の処理能力の余剰の有無(例えば、生成処理600~607のいずれかが未使用になっているか否か)を問い合わせることで判断できる。配信方法Aまたは配信方法Bへの変更が可能であると判断された場合(ステップS464でYES)、処理はステップS420に戻る。その他の場合(ステップS464でNO)、処理はS461に戻り、配信方法Cを用いた仮想視点映像の再生が継続する。
本実施形態では、配信方法Cにおける予め設定している仮想カメラの位置を4点としたが、これに限定されるものではない。この視点数を増やすことによって、ユーザが選択可能な視点は増やすことが可能となる。なお、映像配信装置100は、映像視聴装置110から指定されたイベント時刻に対応する被写体データを映像視聴装置110に送ることができる。結果、配信方法Aにおいては、再生する仮想視点映像の時刻を指定することができる。また、配信方法Bにおいても、映像配信装置100において配信先ごとに個別に仮想視点映像が生成されるので、映像視聴装置110は、所望のイベント時刻に対応した仮想視点映像を取得することができる。
以上のように、配信方法を変更することにより、映像視聴装置110の通信帯域の変動や映像配信装置100の負荷の変動が生じても、ユーザに仮想視点映像の視聴を継続させることが可能となる。
次に、配信方法Aから配信方法Cへの切り替えを実行する場合の仮想カメラの補完処理について説明する。配信方法Aではユーザの操作に応じた任意の位置姿勢の仮想カメラが用いられるが、配信方法Cでは、位置姿勢があらかじめ決められた複数の仮想カメラの中から選択された仮想カメラが用いられる。配信方法Cでは、映像配信装置100の映像生成部102が、複数の仮想カメラに基づく複数の仮想視点映像を生成し、映像視聴装置110から指定された仮想カメラに対応する仮想視点映像を配信する。また、配信方法Aではユーザが仮想視点映像のイベント時刻を設定できるのに対し、配信方法Cでは映像生成部102がイベント時刻を決定する。そのため、配信方法Cにおける仮想カメラの位置姿勢およびイベント時刻と、配信方法Aによる仮想カメラの位置姿勢およびイベント時刻とは、一般には一致しない。そのため、配信方法Aと配信方法Cの間の切り替えが発生すると、イベント時刻と仮想カメラの位置姿勢が不連続に切り替わり、不自然な仮想視点映像が再生される可能性がある。そこで、本実施形態では、配信方法Aと配信方法Cの間の切り替えが生じた場合に、イベント時刻の連続性と仮想カメラの位置姿勢の連続性をなるべく維持することにより、切り替え時に生じる仮想視点映像の不自然さを低減する。
図7は、配信方法Aから配信方法Cへ切り替わる際の仮想カメラの位置姿勢とコンテンツ内のイベント時刻の補完の例を示す図である。図7(A)では、ユーザは配信方法Aで仮想視点映像700を視聴しているとする。指示部113よりユーザが入力された仮想カメラの位置姿勢に基づいて映像生成部112が仮想視点映像を生成している。仮想カメラ位置姿勢は、3次元の位置を表すX,Y,Z座標と、Pan、Tilt、Rollの3つの角度で表される。例えば、図7(A)では、位置姿勢として、X=200、Y=250、Z=20、Pan=0、Tilt=10、Roll=0が入力されている。また、仮想視点映像を視聴しているイベント時刻は、01:20:10である。図7(A)に示された配信方法Aの状態から配信方法Cに切り替える場合を説明する。図7(E)は配信方法Cにより生成される仮想視点映像704を示す。配信方法Cにおける仮想カメラの位置姿勢は、X=204、Y=250、Z=220、Pan=0、Tilt=50、Roll=0である。図7では、配信方法Aによる仮想視点映像700から、補完処理により得らえる仮想視点映像701~703を経て、配信方法Cによる仮想視点映像704への切り替えが完了する様子が示されている。
まず、配信方の切り替え時におけるイベント時刻の補完について、図8を参照して説明する。図8(A)は、配信方法Aによる再生のイベント時刻=01:20:10において切り替えが発生した場合の、配信方法Aから配信方法Cへの切り替えを説明する図である。この例では、配信方法Cによるイベント時刻は配信方法Aによるイベント時刻よりも8秒遅れており、切替発生時点で、配信方法Aと配信方法Cによる仮想視点映像のイベント時刻はそれぞれ01:20:10、01:20:02となっている。図8(A)の例では、配信方法Aと配信方法Cの間のイベント時刻の時間差(8秒)の半分(4秒)をかけて、配信方法Aによる仮想視点映像のイベント時刻を戻すこと(逆再生)により切り替え時のイベント時刻の時間差を解消または低減している。以下、この時間差の解消または低減のための時間を解消時間と称する。なお、以下では、時間差が解消される具体例を示すが、時間差が所定時間以下となるように低減されてもよい。配信方法決定部115は、配信方法Aから配信方法Cへ切り替える際に、現在の仮想カメラの位置姿勢およびイベント時刻と、切り替え後の仮想カメラの位置姿勢およびイベント時刻との間を補完するための仮想カメラの位置姿勢とイベント時刻を算出する。すなわち、配信方法決定部115は、イベント時刻を01:20:10から01:20:06へ戻す間に、仮想カメラの位置姿勢を、配信方法Cにおける仮想カメラの位置姿勢へ徐々に近づけるように補完する。例えば、仮想カメラの位置の移動がより連続的になるように、配信方法変更後の座標から配信方法変更前の座標の差分を取り、補完するフレーム数でこの差分を等間隔に分割した座標で補完する。配信方法決定部115が算出した補完用の位置姿勢およびイベント時刻に基づいて仮想視点映像を生成することにより、配信方法の変更の前後における仮想カメラの位置姿勢とイベント時刻を連続的に変化させることが可能となる。
例えば、配信方法決定部115は、映像生成部112の処理状況を確認し、配信方法を切り替える前の状態を維持できるフレーム数を算出する。例えば、通信帯域の減少率から、維持できるフレームレートを算出することができる。例えば、定常状態での視聴が30フレーム毎秒であり、通信帯域が1/2に低下した場合は、15フレーム毎秒が維持可能なフレームレートとして算出される。この場合、15フレーム毎秒で、補完された仮想視点の位置姿勢からの仮想視点映像を生成してもよいが、15フレーム毎秒よりも小さいフレームレートで生成してもよい。但し、ユーザが仮想カメラの移動の連続性が視認できるようなフレーム数を選択することが望ましい。配信方法を切り替える前と後のコンテンツ内のイベント時刻が離れている場合には、フレームレートに加え、2倍速、4倍速の再生速度で切り替えても良い。
また、仮想カメラ位置についても、配信方法を切り替える前と後を補完する仮想カメラ位置情報を配信方法決定部115が算出する。例えば、上述の維持可能なフレームレートに上述の解消時間を乗ずることで解消時間の間に挿入されるフレーム数+1が算出され、この数で仮想カメラの位置姿勢の差を割ることで、1フレームごとの仮想カメラの移動量を算出することができる。例えば、フレームレート(=15フレーム毎秒)に解消時間(=4秒)を乗じることで、60フレーム(但し、60フレーム目が配信方法Cによる仮想視点映像になるため、解消時間の間に挿入されるフレーム数は59となる。)が得られる。そこで、切替前後の仮想カメラの位置姿勢の差を60で割ることで、1フレームごとの仮想カメラの位置姿勢の変化量が得られる。
例えば、図7(A)で切り替えが発生し、図7(E)で配信方法Cへの切り替えが完了する場合、仮想視点映像700と切り替えた後の仮想視点映像704では、仮想カメラの位置のZ座標が20から220に変化している。図7では、解消時間の1秒ごとの仮想カメラの位置姿勢とコンテンツが例示されている。上述の様に、補完される仮想カメラの位置姿勢の値の加算値は、
(切替後の座標-変更前の座標)÷(フレームレート×解消時間) ...式1
である。
図7の例では、Z座標に関して、(220-20)÷(15×4)=10/3となり、Z方向に10/3ずつ仮想カメラを移動させる。図7(B)、図7(C)、図7(D)では、解消時間内の逆再生における1秒ごと(15フレームごと)の仮想カメラの位置が示されており、Z座標は50(=(10/3)×15)ずつ増加している。すなわち、配信方法決定部115が導出する仮想カメラの位置のZ座標の値は、70、120、170と導出される。配信方法決定部115は、仮想カメラの位置のX、Yの座標を同様の方法で導出する。このようにすることで配信方法変更前後の仮想視点映像で仮想カメラが連続的に移動しているようにユーザが視認することが可能となる。このようにすることで、仮想カメラ位置が予め決められている配信方法Cに変更した場合においても、変更前後で仮想視点映像が連続的に変化することにより、ユーザがどの視点から視聴しているか見失うことなく視聴を継続することが可能となる。
なお、図8(A)では、配信方法Aと配信方法Cのイベント時刻の差が8秒であり、その半分(=4秒)を解消時間に設定している場合を説明したが、これに限られるものではなく、時刻差の半分よりも短い解消時間が設定されてもよい。この場合、解消時間において1倍速よりも大きい所定倍速での逆再生が行われる。例えば、図8(B)では、時刻差=8秒に対して解消時間=2秒が設定された場合を示す。この場合、2秒で6秒分を戻すことになるため、3倍速の逆再生となる。また、時刻差の半分よりも長い解消時間が設定されてもよい。この場合、解消時間において1倍速よりも小さい所定倍速での逆再生が行われる。例えば、図8(C)では、時刻差=8秒に対して解消時間=6秒が設定された場合を示す。この場合、6秒をかけて2秒分を戻すことになるため、1/3倍速の逆再生となる。また、配信方法Cのイベント時刻の方が配信方法Aのイベント時刻より進んでいてもよい。例えば、図8(D)に示されるように、時刻差=2秒を解消時間=4秒で解消する場合、配信方法Aによる仮想視点映像の生成を、3/2倍速で行えばよい。
なお、解消時間における3次元形状情報は、映像視聴装置110が映像配信装置100から、イベント時刻を指定して取得することができる。或いは、映像視聴装置110が、映像配信装置100から受信した直近の所定時間の3次元形状情報を保持しておき、これを用いるようにしてもよい。また、解消時間=イベント時刻の差としてもよい。例えば、図8(A)において、解消時間=8秒を設定することができる。この場合、現在の仮想カメラの位置姿勢を8秒かけて配信方法Cの仮想カメラの位置姿勢へ移動し、イベント時刻=01:20:10の被写体データを用いて仮想視点映像が生成される。結果、イベント時刻=01:20:10で仮想視点映像の時刻が停止し、解消時間の間に仮想カメラの位置姿勢のみが変化する仮想視点映像が生成される。そして解消時間である8秒が経過すると、配信方法Cによるイベント時刻=01:20:10以降の仮想視点映像が再生される。このようにすれば、映像配信装置から新たに被写体データを受信する必要がないので、解消時間の間も通常時のフレームレートを維持しながら配信方法Cへ移行することができる。
以上、配信方法Aから配信方法Cへの切り替え時の仮想カメラの補完方法を説明した。なお、配信方法Cから配信方法Aへ切り替わる際には、配信方法Cにおいて選択中の仮想カメラの位置姿勢を、配信方法Aにおける仮想カメラの位置姿勢の初期状態として用いることができる。この方法は、配信方法Cから配信方法Bへの切り替え時にも適用可能である。
次に配信方法決定部115が映像表示部116を介してユーザに表示するユーザインターフェイスの例について図9を用いて説明をする。図9(A)~(D)にユーザが視聴する画面の例を示す。これらの画面は、映像表示部116が表示部215を用いて行う表示の例である。図9(A)のアイテム901および図9(C)のアイテム921は、現在の配信方法を示している。アイテム901にはエッジモードと表示されており、配信方法Aで仮想視点映像が再生、表示されていること、すなわち、表示されている仮想視点映像が映像視聴装置110の映像生成部112で生成されたものであることを表している。アイテム921には、クラウドモードと表示されており、これは配信方法Bまたは配信方法Cが用いられていること、すなわち、表示中の仮想視点映像が映像配信装置100の映像生成部102で生成されたものであることを意味している。
図9(A)、図9(B)のアイテム902には、現在の仮想カメラの位置と姿勢(方向)が矢印で表示されている。図9(B)のアイテム911は、配信方法Aからの配信方法の変更が必要であることをユーザに警告している。この警告は、図5の参照により上述したように、滞留フレーム数が閾値F1を下回ったことによりなされる。また、図9(B)のメッセージ912により、配信方法の変更をユーザに促している。図9(A)の状態から、ネットワークの帯域が減少すると図9(B)のアイテム911のような警告と、配信方法の変更を促すメッセージ912が表示される。図9(B)のメッセージ912内の「YES」をクリックすることで、配信方法の変更が指示されると、図9(C)の表示状態となる。図9(C)は、配信方法Cによる表状態の例を示す。なお、ここでは、配信方法Aから配信方法Cに切り替わる場合を示したが、配信方法Bへの切り替えが可能な場合は、メッセージ912のYESボタンの押下により配信方法Bへ切り替わる。配信方法Bが用いられた場合の表示は、図9(C)において、アイテム922ではなくアイテム902が表示される。配信方法Bでは、映像視聴装置110から仮想カメラの任意の位置姿勢を指示することができるためである。なお、メッセージ912において「NO」がクリックされると、配信方法Aによる仮想視点映像の表示が継続する。但し、図4AのステップS445で配信方法の変更が必要と判断される状態(例えば、滞留フレーム数が閾値F2を下回る状態)になると、自動的に配信方法の切り替えが行われる。
図9(C)のアイテム922は、配信方法Cにおいて選択が可能な仮想カメラを矢印で示し、それらのうち現在選択中の仮想カメラを黒矢印で示している。また、配信方法Bや配信方法Cでは、配信方法Aに切り替えることができるか確認するテストを開始するためのメッセージ923が表示される。ユーザが図9(C)のメッセージ923内の「開始」をクリックすることにより、前述のような配信方法Aに変換可能かテストするためのテストデータの配信が開始される。その後、配信方法が変更可能と判断されると、図9(D)のように、配信方法Aへの変更を勧めるメニュー924が表示される。ユーザが、メニュー924の「移行」をクリックすると、配信方法Aに変更され、図9(A)に示した状態となる。
次に図9(A)のアイテム902の説明を行う。図9(A)のアイテム902は仮想カメラの位置の俯瞰図を示している。図9(A)は、配信方法Aで仮想視点映像を視聴している場合の画面を表している。配信方法Aでは、仮想カメラの位置を自由にユーザから操作することが可能である。アイテム902では、スタジアムにおける仮想カメラの位置が矢印で表されている。ユーザが仮想カメラの位置を動かすことにより、この矢印が動き(矢印の位置と向きが変化する)、仮想カメラの位置姿勢をユーザに示すことが可能となる。配信方法Cのように予め、仮想カメラの位置姿勢が固定されている場合には、図9(C)のアイテム922のように、選択可能な仮想カメラが表示される。例えば、前述の配信方法Cの例であれば4つの選択可能な仮想カメラの位置姿勢が矢印により表示され、現在選択されている仮想カメラに対応する矢印がハイライトして表示される。
以上のように、ネットワークなどの配信環境の変化により、仮想視点映像の視聴が困難な状態になっても、仮想視点映像の配信方法を変化させることにより、ユーザに仮想視点映像を配信し続けることが可能となる。
(その他の実施形態)
上述した実施形態では、複数の撮影装置により取得された複数の撮影画像に基づいて生成される被写体データを使用して生成された仮想視点映像を配信する場合について説明した。しかしながら、これに限定されず、例えばコンピュータグラフィック(CG)等により生成された3次元形状データやテクスチャデータを使用して生成される映像に対しても、本実施形態は適用可能である。この場合の映像は、例えばビデオゲームなどでありうる。例えばビデオゲームの配信を行う場合にも、本実施形態における被写体データに相当するデータをユーザ端末に配信するか、仮想視点を指定して外部装置により生成された映像をユーザ端末に配信するかを切り替える構成としてもよい。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は上記実施形態に制限されるものではなく、開示の精神および範囲から離脱することなく、様々な変更および変形が可能である。
100:映像配信装置、101:データ保存部、102:映像生成部、103:データ選択部、104:通信部、110:映像視聴装置、111:通信部、112:映像生成部、113:指示部、114:映像取得部、115:決定部、1151:判断部、116:映像表示部

Claims (20)

  1. 仮想視点映像の配信に係る配信方法として、前記仮想視点映像の生成に使用される被写体データを外部装置から受信することにより前記仮想視点映像を生成する第1の方法と、前記仮想視点映像を生成するための仮想視点を指定することにより生成された仮想視点映像を前記外部装置から受信する第2の方法と、のいずれを使用するかを判定する判定手段と、
    前記判定手段により判定された配信方法を使用して、前記仮想視点映像を取得する取得手段と、を有することを特徴とする情報処理装置。
  2. 前記判定手段は、前記被写体データを受信するために用いられる通信帯域に基づいて、いずれの配信方法を使用するかを判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、前記取得手段により取得された仮想視点映像のうちの表示を待つ滞留フレームの数に基づいて、いずれの配信方法を使用するかを判定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記判定手段は、前記外部装置からテスト用の被写体データを受信し、前記取得手段が前記テスト用の被写体データから仮想視点映像を生成する時間当たりのフレーム数に基づいて、いずれの配信方法を使用するかを判定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記判定手段による判定の結果に基づいて、前記第1の方法から前記第2の方法への切り替えが行われることをユーザに通知する通知手段をさらに有することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記取得手段は、前記通知の後、ユーザが前記第1の方法から前記第2の方法への切り替えを指示した場合に、前記第2の方法を用いて表示のための仮想視点映像を取得することを決定することを特徴とする請求項5に記載の情報処理装置。
  7. 前記第1の方法と前記第2の方法を用いることが可能な場合に、前記第1の方法と前記第2の方法のいずれかをユーザに選択させる選択手段を有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記取得手段は、前記第2の方法を用いる場合に、前記外部装置に対して行われる仮想視点の指定方法が異なる複数の第2の方法のうち1つを選択することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記複数の第2の方法は、
    ユーザにより指定された仮想視点の位置及び仮想視点からの視線方向を前記外部装置に送信し、送信した仮想視点の位置と視線方向に対応する仮想視点映像を前記外部装置から受信する第3の方法と、
    あらかじめ設定された複数の仮想視点のうちの一つを選択する指示を前記外部装置に送信し、選択した仮想視点に対応する仮想視点映像を前記外部装置から受信する第4の方法と、を含むことを特徴とする請求項8に記載の情報処理装置。
  10. 前記判定手段は、前記第3の方法を前記第4の方法よりも優先して用いると判定することを特徴とする請求項9に記載の情報処理装置。
  11. 前記第1の方法から前記第4の方法に切り替えることが決定された場合に、ユーザにより指定されている仮想視点を前記第4の方法で用いられる前記複数の仮想視点のうちの1つへ徐々に変化させた仮想視点映像を得る補完手段をさらに有することを特徴とする請求項9または10に記載の情報処理装置。
  12. 前記補完手段は、前記第1の方法を用いて表示される仮想視点映像の時刻を停止する、所定倍速で戻す、または所定倍速で進めることにより、前記第1の方法を用いて表示されている仮想視点映像の時刻と、前記第4の方法で取得される仮想視点映像の時刻との差が小さくなるように処理を行うことを特徴とする請求項11に記載の情報処理装置。
  13. 仮想視点映像の配信に係る配信方法として、前記仮想視点映像の生成に使用される被写体データを外部装置に出力する第1の方法と、前記被写体データと前記外部装置から受信した仮想視点の指定とに基づいて生成される前記仮想視点映像を出力する第2の方法とのうち、いずれかの指定を受信する受信手段と、
    前記受信手段により受信された指定に基づいて、前記被写体データ又は前記仮想視点映像を出力する出力手段と、を有することを特徴とする情報処理装置。
  14. 前記出力手段は、前記外部装置からテスト用の被写体データが要求された場合に、仮想視点映像の生成に用いられる所定の被写体データを前記外部装置へ出力することを特徴とする請求項13に記載の情報処理装置。
  15. 前記外部装置から指定される仮想視点に基づいて仮想視点映像を生成する第1の生成処理と、予め設定された仮想視点に対応する仮想視点映像を生成する第2の生成処理と、を行う生成手段を有し、
    前記出力手段は、前記受信手段により前期第2の方法の指定が受信された場合、前記第1の生成処理と前記第2の生成処理のいずれかにより生成された仮想視点映像を前記外部装置へ出力することを特徴とする請求項13または14に記載の情報処理装置。
  16. 前記外部装置からの問い合わせに応じて、前記生成手段により行われる前記第1の生成処理により生成される仮想視点映像のうちの1つを前記外部装置のために使用できるか否かを前記外部装置に返答する返答手段をさらに備えることを特徴とする請求項15に記載の情報処理装置。
  17. 映像配信を行う映像配信装置と、前記映像配信装置により配信された映像を表示する映像視聴装置とを有する映像表示システムであって、
    前記映像視聴装置が、
    仮想視点映像の配信に係る配信方法として、前記仮想視点映像の生成に使用される被写体データを前記映像配信装置から受信することにより前記仮想視点映像を生成する第1の方法と、前記仮想視点映像を生成するための仮想視点を指定することにより生成された仮想視点映像を前記映像配信装置から受信する第2の方法と、のいずれを使用するかを判定する判定手段と、
    前記判定手段により判定された配信方法を使用して、前記仮想視点映像を取得する取得手段と、を有し、
    前記映像配信装置が、
    前記第1の方法と前記第2の方法とのうちのいずれかの指定を前記映像視聴装置より受信する受信手段と、
    前記受信手段により受信された指定に基づいて、前記被写体データ又は前記仮想視点映像を前記映像視聴装置へ出力する出力手段と、を有する、ことを特徴とする映像表示システム。
  18. 仮想視点映像の配信に係る配信方法として、前記仮想視点映像の生成に使用される被写体データを外部装置から受信することにより前記仮想視点映像を生成する第1の方法と、前記仮想視点映像を生成するための仮想視点を指定することにより生成された仮想視点映像を前記外部装置から受信する第2の方法と、のいずれを使用するかを判定する判定工程と、
    前記判定工程により判定された配信方法を使用して、前記仮想視点映像を取得する取得工程と、を有することを特徴とする情報処理方法。
  19. 仮想視点映像の配信に係る配信方法として、前記仮想視点映像の生成に使用される被写体データを外部装置に出力する第1の方法と、前記被写体データと前記外部装置から受信した仮想視点の指定とに基づいて生成される前記仮想視点映像を出力する第2の方法とのうち、いずれかの指定を受信する受信工程と、
    前記受信工程により受信された指定に基づいて、前記被写体データ又は前記仮想視点映像を出力する出力工程と、を有することを特徴とする情報処理方法。
  20. コンピュータを、請求項1乃至16のいずれか1項に記載された情報処理装置として機能させるためのプログラム。
JP2021114389A 2021-07-09 2021-07-09 情報処理装置および情報処理方法、映像表示システム、プログラム Active JP7324251B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021114389A JP7324251B2 (ja) 2021-07-09 2021-07-09 情報処理装置および情報処理方法、映像表示システム、プログラム
EP22181226.6A EP4117293A1 (en) 2021-07-09 2022-06-27 Information processing apparatus, information processing method, and program
US17/857,306 US20230009185A1 (en) 2021-07-09 2022-07-05 Information processing apparatus, information processing method, video display system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021114389A JP7324251B2 (ja) 2021-07-09 2021-07-09 情報処理装置および情報処理方法、映像表示システム、プログラム

Publications (2)

Publication Number Publication Date
JP2023010326A JP2023010326A (ja) 2023-01-20
JP7324251B2 true JP7324251B2 (ja) 2023-08-09

Family

ID=82321467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114389A Active JP7324251B2 (ja) 2021-07-09 2021-07-09 情報処理装置および情報処理方法、映像表示システム、プログラム

Country Status (3)

Country Link
US (1) US20230009185A1 (ja)
EP (1) EP4117293A1 (ja)
JP (1) JP7324251B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123801A1 (ja) 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
JP2020173629A (ja) 2019-04-11 2020-10-22 キヤノン株式会社 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
JP2020187706A (ja) 2019-05-17 2020-11-19 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5593356B2 (ja) 2012-08-22 2014-09-24 ヤフー株式会社 広告配信装置、広告配信方法および広告配信プログラム
JP6871801B2 (ja) * 2017-05-11 2021-05-12 キヤノン株式会社 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP7073128B2 (ja) * 2018-02-08 2022-05-23 キヤノン株式会社 通信装置、通信方法、及びプログラム
JP7091133B2 (ja) * 2018-05-09 2022-06-27 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123801A1 (ja) 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
JP2020173629A (ja) 2019-04-11 2020-10-22 キヤノン株式会社 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
JP2020187706A (ja) 2019-05-17 2020-11-19 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法およびプログラム

Also Published As

Publication number Publication date
EP4117293A1 (en) 2023-01-11
JP2023010326A (ja) 2023-01-20
US20230009185A1 (en) 2023-01-12

Similar Documents

Publication Publication Date Title
CN110073414B (zh) 图像处理设备、方法和非暂时性计算机可读存储介质
CN113347405B (zh) 缩放相关的方法和装置
JP6433559B1 (ja) 提供装置および提供方法、プログラム
JP7065836B6 (ja) 画像処理
JPWO2018199052A1 (ja) 画像表示方法及び画像表示装置
WO2019054360A1 (ja) 画像表示方法、画像配信方法、画像表示装置及び画像配信装置
US11956408B2 (en) Information processing system, information processing method, and storage medium
WO2018100928A1 (ja) 画像処理装置および方法
US11317124B2 (en) Apparatus and method for generating an image data stream
US20190379917A1 (en) Image distribution method and image display method
JP6572368B2 (ja) 生成装置および生成方法、プログラム
JP7324251B2 (ja) 情報処理装置および情報処理方法、映像表示システム、プログラム
JP2018136793A (ja) 画像処理装置、画像処理方法及びプログラム
JP2020187706A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP7277184B2 (ja) 情報処理装置、情報処理方法ならびにプログラム。
US20240242422A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable medium
JP2021033347A (ja) 画像処理装置、画像処理方法及びプログラム
EP4221234A1 (en) Information processing device, information processing method, and information processing system
US10976985B2 (en) Recording medium recording data display program, data display method, and electronic apparatus for displaying received data by delaying an adjustment time
EP4187904A1 (en) Information processing apparatus, information processing system, and program
JP7522605B2 (ja) 送信装置、受信装置、ネットワークノード、及びプログラム
US20240305835A1 (en) Image sharing method and image sharing system, and storage medium
JP2021118517A (ja) 映像処理装置
JP2017041707A (ja) 再生装置、情報処理方法及び通信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R151 Written notification of patent or utility model registration

Ref document number: 7324251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151