JP2023178007A - 情報処理装置、情報処理装置の制御方法、及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、及びプログラム Download PDF

Info

Publication number
JP2023178007A
JP2023178007A JP2022091021A JP2022091021A JP2023178007A JP 2023178007 A JP2023178007 A JP 2023178007A JP 2022091021 A JP2022091021 A JP 2022091021A JP 2022091021 A JP2022091021 A JP 2022091021A JP 2023178007 A JP2023178007 A JP 2023178007A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
interest
virtual
point
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022091021A
Other languages
English (en)
Inventor
清 岩渕
Kiyoshi Iwabuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022091021A priority Critical patent/JP2023178007A/ja
Publication of JP2023178007A publication Critical patent/JP2023178007A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】ユーザー端末が増加しても、サーバ装置にかかる処理負荷を低減し、各ユーザーに仮想視点画像を提供することである。【解決手段】配信システム100において、サーバ装置120は、複数のユーザー端末装置130で指定された複数の仮想視点情報を取得し、取得した複数の仮想視点情報から複数の注目点を特定し、複数の仮想視点に基づいて仮想視点を決定し、複数の注目点に基づいて注目点を決定し、決定した仮想視点と注目点から仮想視点画像を生成し、生成した仮想視点画像を端末装置130に配信する制御を行う。【選択図】図1

Description

本開示は、仮想視点画像を生成するための技術に関するものである。
近年、複数のカメラを異なる位置に設置し、同期撮影し、当該撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく任意の視点からなる仮想視点(仮想カメラ)位置で撮影しているかのような画像を生成する技術が注目されている。
特許文献1には、複数のユーザーに対して各ユーザーが指定した仮想視点に応じた仮想視点画像を提供することや、各ユーザーが指定した仮想視点に応じた仮想視点画像をサーバ装置で生成し、複数のユーザーで共有できるようにすることが記載されている。
特開2014-215828号公報
しかしながら、ユーザー端末が増加すると、サーバ装置において仮想視点画像を生成する処理負荷が増加する。
そこで本開示は上記の問題点を鑑みてなされたものであり、その目的は、ユーザー端末が増加しても、サーバ装置にかかる処理負荷を低減し、各ユーザーに仮想視点画像を提供することである。
本開示の1つの実施態様のサーバ装置は、
複数の仮想視点を示す仮想視点情報を取得する取得手段であって、第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得手段と、
前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定手段と、
前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて第3の仮想視点の注目点とを示す第3仮想視点情報を生成する視点情報生成手段と、
複数の撮像装置により撮像された複数の画像と前記第3の仮想視点の位置および注目点とに基づいて仮想視点画像を生成する生成手段と、
前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信手段と、
を有することを特徴としている。
本開示によれば、ユーザー端末が増加しても、サーバ装置にかかる処理負荷を低減し、各ユーザーに仮想視点画像を提供することが可能となる。
配信システムを示す図である。 撮像装置の設置例を示す図である。 仮想視点画像配信装置のハードウェア構成を示す図である。 仮想視点画像配信装置の機能構成を示す図である。 近接視点選択部及び視点統合部の動作フローを示す図である。 クラスタリング処理の動作フローを示す図である。 実施形態1に係る仮想視点統合処理の動作フローを示す図である。 実施形態1に係る近接視点選択部及び視点統合部の動作の例を表した概念図である。 端末装置の動作フローを示す図である。 実施形態2に係る仮想視点統合処理の動作フローを示す図である。 実施形態2に係る近接視点選択部及び視点統合部の動作の例を表した概念図である。
以下、図面を参照して本開示の実施形態を説明する。ただし、本開示は以下の実施形態に限定されるものではない。
本開示において、サーバ側で用いる情報処理装置のことをサーバ装置と呼称する。例えば、コンピュータのことである。
(実施形態1)
図1は、実施形態1に係る配信システム100を示す図である。
配信システム100は、複数の撮像装置110と、仮想視点画像配信装置120と、複数の端末装置130とを有している。各撮像装置110と仮想視点画像配信装置120は、LAN(Local Area Network)ケーブル等の通信ケーブルを介して接続している。なお、本実施形態においては、通信ケーブルはLANケーブルであるものとするが、通信ケーブルは実施形態に限定されるものではない。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザーが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザーが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザー操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
撮像装置110は、例えば画像(静止画及び動画)を撮影可能なデジタルカメラである。なお、撮像装置はカメラだけでなく、画像処理を行う機能部を有していてもよい。また、撮像装置は、カメラ以外に、距離情報を取得するセンサを有していてもよい。
図2は、複数の撮像装置110の設置例を示す図である。複数の撮像装置110は、複数の方向から撮像領域を撮像する。本実施形態において、複数の撮像装置110は、スタジアム200などでフィールド220を取り囲むように観客席210に設置され、フィールド220内の被写体の画像(映像)を撮影する。撮影された画像は、撮像装置110から仮想視点画像配信装置120に送信される。
撮像装置110は、望遠カメラと広角カメラなど画角が異なるカメラが含まれていてもよい。例えば、望遠カメラを用いて被写体を高解像度に撮像することで、生成される仮想視点画像の解像度を向上できる。また、被写体の移動範囲が広い場合は、広角カメラを用いて撮影することで、カメラ台数を減らすことができる。また、広角カメラと望遠カメラの撮像領域を組み合わせて撮像することで設置位置の自由度が向上する。なお、撮像装置は共通の時刻で同期され、撮像した画像にはフレーム毎の画像に撮像時刻情報が付与される。
仮想視点画像配信装置120は、撮像装置110により得られた撮影画像を蓄積しておき、端末装置130であるユーザー操作により仮想視点情報が入力されると、撮像画像と仮想視点情報とに基づいて、仮想視点画像を生成する。仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向き(視線方向)を示す情報である。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。
仮想視点画像配信装置120は、例えば、サーバ装置であり、データベース機能や、画像処理機能を備えている。データベースには、スタジアム200内の被写体撮影開始前など予め被写体が存在しない状態の場面を撮影した画像を背景画像として、撮像装置110を介して保持しておく。また被写体の存在するシーンでは、被写体となる特定のオブジェクト等の前景を画像処理により分離して、特定オブジェクト画像として保持しておく。なお、特定オブジェクトは、人物だけでなく、道具など、画像パターンが予め定められている物体であってもよい。
仮想視点情報に対応した仮想視点画像は、データベースで管理された背景画像と特定オブジェクト画像とから生成されるものとする。仮想視点画像の生成方式として、例えばモデルベースレンダリング(Model-Based Rendering:MBR)が用いられる。MBRとは、被写体を複数の方向から撮影した複数の撮像画像に基づいて生成される三次元形状データを用いて仮想視点画像を生成する方式である。三次元形状データの生成は、例えば視体積交差法(Shap from Silhouette法)が用いられる。この処理の結果、被写体の3次元形状を表現した3D点群(3次元座標を持つ点の集合)が得られる。なお、撮影画像から被写体の3次元形状を導出する方法はこれに限らない。この三次元形状データと、指定した背景モデルから、仮想カメラに対応した仮想視点画像を生成する。なお、仮想視点画像の生成方法は、MBR以外のレンダリング手法を用いてもよい。生成された仮想視点画像は、LANケーブルなどを介して、端末装置130に伝送される。
端末装置130は、例えば、スマートフォンやタブレット端末である。各種の操作を行うタブレット131は、画像やUI(User Interface)を表示する画面132の上に重ねて配置されている。
また端末装置130は、仮想視点画像配信装置120から受信した仮想視点画像を画面132に表示する。端末装置130は、さらにタブレット131を使用したユーザー操作を仮想視点位置の移動指示(移動量と移動方向に関する指示)情報に変換し仮想視点画像配信装置120に送信する。
図3は、仮想視点画像配信装置120のハードウェア構成を示す図である。
仮想視点画像配信装置120は、CPU300と、ROM310と、RAM320と、HDD330と、有線通信部340と、無線通信部350とを有している。CPU300は、ROM310に記憶された制御プログラムを読み出して各種処理を実行する。RAM320は、CPU300の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD330は、各種データや各種プログラム等を記憶する。有線通信部340は、ネットワークを介して撮像装置110との通信処理を行う。無線通信部350は、無線通信により端末装置130と通信を行う。
なお、後述する仮想視点画像配信装置120の機能や処理は、CPU300がROM310又はHDD330に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、端末装置130のハードウェア構成については、図示は省略するが、仮想視点画像配信装置120のハードウェア構成に準ずるものである。
図4は、仮想視点画像配信装置120の機能構成を示す図である。
撮影画像入力部400は、撮像装置110からLANケーブルを介して入力された伝送信号を撮影画像データに変換して、前景背景分離部401へ出力する。
前景背景分離部401は、撮影画像入力部400から入力された撮影画像のうち、予め被写体が存在しない状態の場面を撮影した画像を背景画像データとして、撮影画像保存部402へ出力する。また、撮影された画像から被写体を抽出し、前景画像データとして撮影画像保存部402へ出力する。
撮影画像保存部402は、データベースであり、前景背景分離部401から入力された前景画像データと、背景画像データを保存する。また、形状生成部403に前景画像データを出力する。また、画像生成部410にレンダリングに使用する前景画像データと背景画像データを出力する。
形状生成部403は、撮影画像保存部402から入力された前景画像データを用いて、被写体の形状を示す三次元形状情報を生成する。また、生成した三次元形状情報を画像生成部410へ出力する。なお、撮像画像から被写体の三次元形状情報を導出する方法はこれに限らない。
仮想視点受信部430は、端末装置130から無線通信により入力された伝送信号をユーザー入力データに変換する。ユーザー入力データが仮想視点情報である場合、仮想視点情報を近接視点選択部432へ出力する。この時、視点の統合を希望しないユーザーからの仮想視点情報には、非統合の指示情報が付加されている。本実施形態では無線通信を用いているが、これに限らず、LAN等によって接続してもよい。
仮想視点受信部430はまた、端末装置130より受信した仮想視点の総数を負荷監視部431へ出力する。
負荷監視部431は、仮想視点受信部430から受け取った仮想視点の総数に基づき、所定の期間内において仮想視点画像を生成することができる仮想視点の総数を決定し、近接視点選択部432へ出力する。本実施形態では負荷の監視のパラメータとして同時に接続されているユーザー端末を使用しているが、これに限るものではなく、例えば、仮想視点受信部430が受信した仮想視点の総数や画像生成部410の稼働率といったパラメータを使用してもよい。
近接視点選択部432では、負荷監視部431から受け取った所定の期間内において仮想視点画像を生成することができる仮想視点の総数となるよう、仮想視点受信部430から受け取った仮想視点情報を統合する近接仮想視点情報を選択する。選択された近接仮想視点情報は、視点統合部433へ出力される。この近接視点情報の選択アルゴリズムに関しては、フローチャートを用いて後述する。選択から外れた統合の必要が無い仮想視点情報は、そのまま画像生成部410へ出力される。また、仮想視点受信部430から受け取った仮想視点情報のうち、視点の統合を希望しないユーザーから非統合の指示情報付きで受け取った仮想視点情報は、統合対象から外し、非統合指示情報と共に画像生成部410へ出力される。本開示は、視点の統合を許容するユーザーにとって効果のあるものであり、視点の統合を希望しないユーザーにとっては従来通りの動作となる。
視点統合部433では、近接視点選択部432から受け取った情報に従って仮想視点情報の統合を行い、統合された仮想視点情報を画像生成部410に出力する。
画像生成部410は、近接視点選択部432及び視点統合部433から入力された仮想視点情報と、撮影画像保存部402から入力された撮影画像データと、形状生成部403から入力された三次元形状情報により、仮想視点画像生成処理を行う。この際、非統合指示情報が付加されている仮想視点情報に関しては、ベストエフォートで処理され、時間内で処理できない場合はフレームレートの低下が起きる。
仮想視点画像生成処理は、仮想視点位置から見た被写体の三次元形状に対して、実カメラで撮影された画像データの色情報でレンダリング(着色処理)する。仮想視点から三次元形状情報に基づく被写体が見えている状況で、仮想視点の位置から所定の範囲内に実カメラ位置がある場合、その実カメラの前景画像データを形状の色として使用するものとする。その後、背景画像データと、その仮想視点位置から撮影された被写体の画像とを合成して仮想視点画像となる。
生成された仮想視点画像は、画像送信部420へ出力する。この時、視点統合部433によって統合された仮想視点を元に生成された仮想視点画像には、統合処理が行われたことを表すフラグと、統合された仮想視点の情報をメタ情報として付加する。
画像送信部420は、画像生成部410から入力した仮想視点画像データを、無線通信信号に変換して端末装置130へ出力する。
図5は、近接視点選択部432及び視点統合部433の動作を示すフローチャートである。
ステップS500で、負荷監視部431から受け取った作成可能な仮想視点の総数と仮想視点受信部430から受け取った仮想視点の総数を比較し、作成可能な仮想視点の総数の方が少なければ、ステップS510からステップS530の処理を行う。それぞれが同数または作成可能な仮想視点の総数の方が多い場合は、統合の必要がないのでステップS510、ステップS520の処理はスキップし、ステップS530の処理を行う。
ステップS510では、仮想視点受信部430から受け取った仮想視点情報をクラスタリングし、現フレームで生成する仮想視点の総数が負荷監視部431から受け取った作成可能な仮想視点数となるように近接仮想視点を選択する。クラスタリング処理に関しては、図6を用いて後述する。
ステップS520では、ステップS510で選択された近接仮想視点の仮想視点情報を、視点統合部433へ出力する。その後ステップS525で、視点統合部433により視点の統合が行われ、画像生成部410へ送られる。
ステップS530では、統合の対象外となった仮想視点情報を、画像生成部410に出力する。
図6は、図5のステップS510にあたるクラスタリング処理の動作を示すフローチャートである。
本実施形態では、クラスタリング処理の手法として、k-means法と呼ばれる手法を用いる。また、クラスタリングを行う際のパラメータとして、仮想視点がフィールド220と交わる点(注目点)の座標を用いる。なお、注目点は仮想視点から仮想視点の視線方向に投射した光線とオブジェクトが交わる点の座標でもよい。
ステップS600では、目標数の各クラスタの注目点座標の初期値として、前フレームで仮想視点画像生成に用いた仮想視点位置の注目点座標を代入する。
ステップS610では、仮想視点受信部430から受け取った仮想視点情報から求めた注目点座標と、各クラスタの注目点座標との距離を計算し、一番距離が近いクラスタにクラスタリングする。この処理を仮想視点受信部430から受け取った全仮想視点情報に対して行う。この時、どの注目点座標に対しても一定以上の距離がある孤立した注目点座標を持つ仮想視点情報は、クラスタリングの対象から外す。
ステップS620では、ステップS610の結果のクラスタ毎に、注目点座標の重心位置を計算し、そのクラスタの注目点座標を更新する。
ステップS630では、ステップS610及びステップS620の処理でクラスタが変化したかどうか確認し、変化が無くなるまで繰り返す。
本実施形態では、クラスタリング処理の手法として、k-means法と呼ばれる手法を用いることとしたが、これに限らず、ウォード法や群平均法など別の手法を用いてもよい。また、本実施形態では近接仮想視点の選択に用いるパラメータとして注目点座標を用いたが、これに限るものではなく、カメラの向きや、画角といったパラメータを用いてもよい。以上のクラスタリング処理を行うことにより、注目点座標の近い仮想視点を選択することができる。
図7は視点統合部433の動作を示すフローチャートである。
ステップS700では、各々の近接仮想視点の注目点の座標から、重心座標を計算し、統合仮想視点の注目点の座標とする。
ステップS710では、各々の近接仮想視点の仮想カメラの位置から、重心座標を計算し、統合仮想視点の仮想カメラの位置とする。
ステップS720では、各々の近接仮想視点の画角(ズーム)から、平均を計算し、統合仮想視点の画角(ズーム)とする。
図8は、近接視点選択部432及び、視点統合部433の動作の例を表した概念図である。
図8(a)において、800から806は仮想視点受信部430から受け取った仮想視点情報を図示したものである。同図で810、811は図6で説明したクラスタリングの結果近接仮想視点として選択された様子を表している。
仮想視点800は、図6のステップS610で、クラスタリングの対象から外された仮想視点である。
図8(b)において、仮想視点820、821は、図8(a)の近接仮想視点810、811が、視点統合部433によって統合された統合仮想視点を表している。
図9は、端末装置130の動作を示すフローチャートである。
ステップS900でタブレット131の操作による入力を確認する。確認の結果、プリセットカメラ位置の選択などの、カメラを切り替える処理であればステップS910、およびステップS930の処理が行われる。また、ピンチイン/インチアウト/ドラッグなどといったカメラを操作する入力であれば、ステップS920、およびステップS930の処理が行われる。特に入力が無い場合にはステップS910からステップS930の処理はスキップされる。
ステップS910では、カメラの切り替えを行う為、仮想視点の現在情報を切り替えるカメラの情報で直接書き換える。
ステップS920では、仮想視点の現在情報を、カメラの操作に従い相対的に移動させる。
ステップS930では、ステップS910またはステップS920で変更された仮想視点情報を、仮想視点画像配信装置120に送信する。
ステップS940では、仮想視点画像配信装置120から仮想視点画像が配信されたかどうか確認し、配信されている場合はステップS950以降の処理を行い、配信されていなければステップS900へ戻る。
ステップS950では、仮想視点画像配信装置120から配信された仮想視点画像を、画面132に表示する。
次にステップS960では、配信された仮想視点画像に付加されているメタ情報を確認し、統合処理が行われたことを表すフラグが付加されていればステップS970以降の処理を行い、付加されていなければステップS900へ戻る。
ステップS970では、視点の統合が行われたことをユーザーに知らせる表示を画面132に対して行う。
次にステップS980でメタ情報から統合された仮想視点の情報を取り出し、その情報で仮想視点の現在情報を更新する。
このステップS980の処理で、統合された仮想視点の情報をフィードバックすることにより、ユーザーがタブレット131の操作を行っていない状態では、仮想視点の統合が行われている間は仮想視点が統合されたものに追従する。仮想視点の統合が行われない場合では、そのままの仮想視点が保持される。
以上、実施形態1の形態によれば、上記処理を各フレームにおいて繰り返すことにより、仮想視点の統合により仮想視点画像の生成数を、生成可能な数に制限することができる。したがって、ユーザー端末が増加しても、サーバ装置にかかる処理負荷を低減し、各ユーザーに仮想視点画像を提供することができる。
(実施形態2)
本実施形態では、実施形態1と比較し、視点統合部433の動作が異なる。図10は、視点統合部433の動作を示すフローチャートである。
実施形態1の図7のフローチャートに対し、ステップS710とステップS720の間に、ステップS1000~ステップS1020の処理が追加されている。
ステップS1000では、仮想視点受信部430から受け取った複数の仮想視点情報から、仮想カメラと注目点との距離を計算し、そのばらつきを求める。
ステップS1010では、ステップS1000で求めたばらつきをチェックし、ばらつきがあらかじめ定めた閾値よりも大きい場合、ステップS1020の処理を実行する。この閾値は、設置されているスタジアム200の大きさなどにより変わる為、設置時などに設定しておく。
ステップS1020では、仮想カメラと注目点との距離を元に、2つのグループに分け、各々のグループで距離の平均値を取り、新たな仮想カメラと注目点の距離として設定する。2つのグループに分ける手法としては、平均値以上の距離があるか、平均値より短い距離であるかで2つのグループに分けることができる。また、2つのグループではなく複数のグループに分けてもよい。複数のグループに分ける方法は、平均値に基づいて設定する方法に限らず、K-means法等のクラスタリング処理を用いてもよい。
図11は、図10のフローチャートに従って視点統合部433が動作した時の、近接視点選択部432及び、視点統合部433の動作の例を表した概念図である。
図11(a)については、実施形態1の図8(a)と同じものである。
図11(b)は、視点統合部433の処理が行われた後の様子を示している。図8(b)の820の仮想視点は、図11(b)では、1101と1102に分離されている。
以上、実施形態2の形態によれば、統合対象の近接視点が、仮想カメラと注目点の距離のばらつきが大きい場合、複数の距離を持つ近接視点として統合される為、ユーザーの意図により近い仮想視点画像を配信することができる。
尚、本実施形態における制御の一部又は全部を上述した実施形態の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理システム等に供給するようにしてもよい。そしてその画像処理システム等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本開示を構成することとなる。
尚、本実施形態の開示は、以下の構成、方法およびプログラムを含む。
(構成1)
複数の仮想視点を示す仮想視点情報を取得する取得手段であって、第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得手段と、
前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定手段と、
複数の撮像装置により撮像された複数の画像と、前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて決定される第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて決定される第3の仮想視点の注目点と、に基づいて仮想視点画像を生成する生成手段と、
前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信手段と、
を有することを特徴とする装置。
(構成2)
前記生成手段は、前記生成手段において所定の時間内に生成可能な仮想視点画像の数が前記取得手段によって取得される前記複数の仮想視点の数より少ない場合、前記第1の仮想視点の位置から前記第1の仮想視点の注目点を見た光景を示す仮想視点画像および前記第2の仮想視点の位置から前記第2の仮想視点の注目点を見た光景を示す仮想視点画像を生成しないこと
を特徴とする構成1に記載の装置。
(構成3)
前記生成手段は、仮想視点画像を生成する生成手段において所定の時間内に生成可能な仮想視点画像の数が前記取得手段によって取得される前記複数の仮想視点の数以上に多い場合、前記第1の仮想視点の位置から前記第1の仮想視点の注目点を見た仮想視点画像および前記第2の仮想視点の位置から前記第2の仮想視点の注目点を見た仮想視点画像を生成し、
前記送信手段は、前記第1のユーザー端末に前記第1の仮想視点の位置から前記第1の仮想視点の注目点を見た仮想視点画像を送信し、前記第2のユーザー端末に前記第2の仮想視点の位置から前記第2の仮想視点の注目点を見た仮想視点画像を送信すること
を特徴とする構成1に記載の装置。
(構成4)
前記第1の仮想視点の注目点は、前記第1の仮想視点の位置から前記第1の仮想視点からの視線方向に投射する光線とオブジェクトとの交点であり、
前記第2の仮想視点の注目点は、前記第2の仮想視点の位置から前記第2の仮想視点からの視線方向に投射する光線とオブジェクトとの交点であること
を特徴とする構成1乃至3のいずれか1項に記載の装置。
(構成5)
前記第1の仮想視点の注目点と前記第2の仮想視点の注目点は、同一のオブジェクトに対応する点であること
を特徴とする構成1乃至4のいずれか1項に記載の装置。
(構成6)
前記送信手段は、前記第1のユーザー端末および前記第2のユーザー端末に前記第3の仮想視点の位置および注目点を送信すること
を特徴とする構成1乃至5のいずれか1項に記載の装置。
(構成7)
前記第3の仮想視点の位置は、前記第1の仮想視点の位置と前記第2の仮想視点の位置との重心の位置であること
を特徴とする構成1乃至6のいずれか1項に記載の装置。
(構成8)
前記第3の仮想視点の注目点は、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点との重心に対応する点であること
を特徴とする構成1乃至7のいずれか1項に記載の装置。
(構成9)
前記第1仮想視点情報と前記第2仮想視点情報とは同時刻の情報である
ことを特徴とする構成1乃至8のいずれか1項に記載の装置。
(構成10)
複数のユーザー端末から複数の仮想視点の注目点を示す情報を含む仮想視点情報を取得する取得手段と、
前記取得手段によって取得される前記複数の仮想視点の数が仮想視点画像を生成する生成手段において所定の時間内に生成可能な仮想視点画像の数より多い場合、前記取得手段によって取得される前記複数の仮想視点の数が前記仮想視点画像を生成する生成手段において所定の時間内に生成可能な仮想視点画像の数より少なくなるように、前記複数の仮想視点の内、複数の仮想視点から特定される特定仮想視点に基づいて特定仮想視点画像を生成し、前記特定仮想視点の特定に用いた仮想視点を取得した複数のユーザー端末に前記特定仮想視点画像を送信する制御を行う制御手段と、
を有することを特徴とする装置。
(構成11)
前記制御手段は、前記複数の仮想視点の内、仮想視点の注目点に基づいてクラスタリングし、同じクラスに分類された複数の仮想視点から前記特定仮想視点が特定されること
を特徴とする構成10に記載の装置。
(方法)
複数の仮想視点を示す仮想視点情報を取得する取得手段であって、第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得工程と、
前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定工程と、
複数の撮像装置により撮像された複数の画像と、前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて決定される第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて決定される第3の仮想視点の注目点と、に基づいて仮想視点画像を生成する生成工程と、
前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信工程と、
を有することを特徴とする方法。
(システム)
複数の仮想視点を示す仮想視点情報を取得する取得手段であって、第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得手段と、
前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定手段と、
複数の撮像装置により撮像された複数の画像と、前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて決定される第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて決定される第3の仮想視点の注目点と、に基づいて仮想視点画像を生成する生成手段と、
前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信手段と、
を有することを特徴とするシステム。
(プログラム)
構成1乃至11のいずれか1項に記載の装置に記載の各手段をコンピュータにより制御するためのプログラム。
100 配信システム
110 撮像装置
120 サーバ装置
130 端末装置
410 画像生成部
420 画像送信部
430 仮想視点受信部
433 視点統合部

Claims (14)

  1. 第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得手段と、
    前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定手段と、
    複数の撮像装置により撮像された複数の画像と、前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて決定される第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて決定される第3の仮想視点の注目点と、に基づいて仮想視点画像を生成する生成手段と、
    前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信手段と、
    を有することを特徴とする情報処理装置。
  2. 前記生成手段は、前記生成手段において所定の時間内に生成可能な仮想視点画像の数が前記取得手段によって取得される前記複数の仮想視点の数より少ない場合、前記第1の仮想視点の位置から前記第1の仮想視点の注目点を見た光景を示す仮想視点画像および前記第2の仮想視点の位置から前記第2の仮想視点の注目点を見た光景を示す仮想視点画像を生成しないこと
    を特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段は、仮想視点画像を生成する生成手段において所定の時間内に生成可能な仮想視点画像の数が前記取得手段によって取得される前記複数の仮想視点の数以上に多い場合、前記第1の仮想視点の位置から前記第1の仮想視点の注目点を見た光景を示す仮想視点画像および前記第2の仮想視点の位置から前記第2の仮想視点の注目点を見た光景を示す仮想視点画像を生成し、
    前記送信手段は、前記第1のユーザー端末に前記第1の仮想視点の位置から前記第1の仮想視点の注目点を見た仮想視点画像を送信し、前記第2のユーザー端末に前記第2の仮想視点の位置から前記第2の仮想視点の注目点を見た仮想視点画像を送信すること
    を特徴とする請求項1に記載の情報処理装置。
  4. 前記第1の仮想視点の注目点は、前記第1の仮想視点の位置から前記第1の仮想視点からの視線方向に向かう線とオブジェクトとの交点であり、
    前記第2の仮想視点の注目点は、前記第2の仮想視点の位置から前記第2の仮想視点からの視線方向に向かう線とオブジェクトとの交点であること
    を特徴とする請求項1に記載の情報処理装置。
  5. 前記第1の仮想視点の注目点と前記第2の仮想視点の注目点は、同一のオブジェクトに対応する点であること
    を特徴とする請求項4に記載の情報処理装置。
  6. 前記送信手段は、前記第1のユーザー端末および前記第2のユーザー端末に前記第3の仮想視点の位置および注目点を送信すること
    を特徴とする請求項1に記載の情報処理装置。
  7. 前記第3の仮想視点の位置は、前記第1の仮想視点の位置と前記第2の仮想視点の位置との重心の位置であること
    を特徴とする請求項1に記載の情報処理装置。
  8. 前記第3の仮想視点の注目点は、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点との重心に対応する点であること
    を特徴とする請求項1に記載の情報処理装置。
  9. 前記第1仮想視点情報と前記第2仮想視点情報とは同時刻の情報である
    ことを特徴とする請求項1に記載の情報処理装置。
  10. 複数のユーザー端末から複数の仮想視点の注目点を示す情報を含む仮想視点情報を取得する取得手段と、
    前記取得手段によって取得される前記複数の仮想視点の数が仮想視点画像を生成する生成手段において所定の時間内に生成可能な仮想視点画像の数より多い場合、前記取得手段によって取得される前記複数の仮想視点の数が前記仮想視点画像を生成する生成手段において所定の時間内に生成可能な仮想視点画像の数より少なくなるように、前記複数の仮想視点の内、複数の仮想視点から特定される特定仮想視点に基づいて特定仮想視点画像を生成し、前記特定仮想視点の特定に用いた仮想視点を取得した複数のユーザー端末に前記特定仮想視点画像を送信する制御を行う制御手段と、
    を有することを特徴とする情報処理装置。
  11. 前記制御手段は、前記複数の仮想視点の内、仮想視点の注目点に基づいてクラスタリングし、同じクラスに分類された複数の仮想視点から前記特定仮想視点が特定されること
    を特徴とする請求項10に記載の情報処理装置。
  12. 第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得工程と、
    前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定工程と、
    複数の撮像装置により撮像された複数の画像と、前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて決定される第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて決定される第3の仮想視点の注目点と、に基づいて仮想視点画像を生成する生成工程と、
    前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信工程と、
    を有することを特徴とする配信方法。
  13. 第1のユーザー端末より、第1の仮想視点の位置および第1の仮想視点からの視線方向を示す第1仮想視点情報と、第2のユーザー端末より、第2の仮想視点の位置および第2の仮想視点からの視線方向を示す第2仮想視点情報とを取得する取得手段と、
    前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向に基づいて、第1の仮想視点の注目点を特定し、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向に基づいて、第2の仮想視点の注目点を特定する特定手段と、
    複数の撮像装置により撮像された複数の画像と、前記第1の仮想視点の位置と前記第2の仮想視点の位置とに基づいて決定される第3の仮想視点の位置と、前記第1の仮想視点の注目点と前記第2の仮想視点の注目点とに基づいて決定される第3の仮想視点の注目点と、に基づいて仮想視点画像を生成する生成手段と、
    前記仮想視点画像を前記第1のユーザー端末および前記第2のユーザー端末に送信する送信手段と、
    を有することを特徴とする配信システム。
  14. コンピュータを請求項1乃至11のいずれか1項に記載のサーバ装置として機能させるためのプログラム。
JP2022091021A 2022-06-03 2022-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム Pending JP2023178007A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022091021A JP2023178007A (ja) 2022-06-03 2022-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022091021A JP2023178007A (ja) 2022-06-03 2022-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023178007A true JP2023178007A (ja) 2023-12-14

Family

ID=89124229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022091021A Pending JP2023178007A (ja) 2022-06-03 2022-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2023178007A (ja)

Similar Documents

Publication Publication Date Title
JP5523027B2 (ja) 情報送信装置及び情報送信方法
US10917622B2 (en) Information processing apparatus, display control method, and storage medium
JP7146662B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20180182114A1 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
JP6647433B1 (ja) 点群データ通信システム、点群データ送信装置および点群データ送信方法
US11956408B2 (en) Information processing system, information processing method, and storage medium
KR20170075445A (ko) 영상 처리 장치 및 영상 처리 방법
JPWO2006080316A1 (ja) カメラ制御装置およびこの装置におけるズーム倍率制御方法
JP2009192737A (ja) 画像表示装置、画像表示方法、プログラム及び記録媒体
US11818492B2 (en) Communication management apparatus, image communication system, communication management method, and recording medium
JP2019191989A (ja) 仮想視点画像を生成するシステム、方法及びプログラム
US11743590B2 (en) Communication terminal, image communication system, and method for displaying image
JP2016127571A (ja) カメラシステム、表示制御装置、表示制御方法、及びプログラム
US20220103751A1 (en) Communication management apparatus, image communication system, communication management method, and recording medium
JP2014222825A (ja) 映像処理装置および映像処理方法
KR101649752B1 (ko) 영상 매트릭스 인터페이스를 이용한 다시점 영상 생성 방법 및 다시점 영상 생성 시스템
US11825066B2 (en) Video reproduction apparatus, reproduction method, and program
JP2023178007A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
JP2020101897A (ja) 情報処理装置、情報処理方法及びプログラム
JP7195791B2 (ja) 画像処理装置、情報処理方法及びプログラム
JP2022012398A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
JP7528140B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5917175B2 (ja) 撮像装置、撮像装置の配信方法、撮像システムおよびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213