JP2022012398A - Information processor, information processing method, and program - Google Patents
Information processor, information processing method, and program Download PDFInfo
- Publication number
- JP2022012398A JP2022012398A JP2020114211A JP2020114211A JP2022012398A JP 2022012398 A JP2022012398 A JP 2022012398A JP 2020114211 A JP2020114211 A JP 2020114211A JP 2020114211 A JP2020114211 A JP 2020114211A JP 2022012398 A JP2022012398 A JP 2022012398A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- virtual viewpoint
- information processing
- camera
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、複数の撮影装置を用いて仮想視点画像を生成する技術に関するものである。 The present invention relates to a technique for generating a virtual viewpoint image using a plurality of photographing devices.
複数の撮影装置を異なる位置に設置して同期撮影し、その撮影により得られた複数の撮影画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。動画の仮想視点画像を生成する場合には、仮想視点画像に対応する仮想視点の位置や向きを経時的に変化させることもできる。しかし、仮想視点の位置や向きによっては、仮想視点画像の画質が低下する場合がある。例えば、撮影装置の位置及び向きと仮想視点の位置及び向きとが大きく異なる場合に、撮影画像に基づいて仮想視点からの見え方を十分に再現できず、仮想視点画像の画質が低下する。 There is a technique of installing a plurality of photographing devices at different positions to perform synchronous photography, and using a plurality of captured images obtained by the imaging to generate a virtual viewpoint image in which the viewpoint can be arbitrarily changed. When generating a virtual viewpoint image of a moving image, the position and orientation of the virtual viewpoint corresponding to the virtual viewpoint image can be changed over time. However, the image quality of the virtual viewpoint image may deteriorate depending on the position and orientation of the virtual viewpoint. For example, when the position and orientation of the photographing device and the position and orientation of the virtual viewpoint are significantly different, the appearance from the virtual viewpoint cannot be sufficiently reproduced based on the captured image, and the image quality of the virtual viewpoint image is deteriorated.
特許文献1には、設置された複数の撮影装置の位置及び向きを特定し、仮想視点をどのように動かせば高画質の仮想視点画像を生成できるかを示すインジケータをユーザに対して表示することが開示されている。ユーザはその表示を見ながら仮想視点を操作することで、仮想視点画像の画質の低下を抑制することができる。
In
しかしながら、特許文献1に記載の方法で高画質の仮想視点画像を生成しようとすると、仮想視点の位置や視線方向の設定可能な範囲が制限されてしまう。例えば、ユーザが所望する仮想視点の位置や視線方向が予め決まっている場合であっても、仮想視点画像の画質の低下を抑制するために、仮想視点の位置や視線方向を変更することになってしまうことが考えられる。
However, when an attempt is made to generate a high-quality virtual viewpoint image by the method described in
本発明は上記の課題に鑑みてなされたものであり、特定された仮想視点に応じた適切な仮想視点画像を生成できるように撮影装置の位置及び向きを決定することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to determine the position and orientation of a photographing device so that an appropriate virtual viewpoint image corresponding to a specified virtual viewpoint can be generated.
上述した課題を解決するために、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、情報処理装置は、複数の撮影装置によりそれぞれ異なる位置から撮影対象領域を撮影することにより得られる複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び向きを特定する特定手段と、
前記特定手段により特定された前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定する決定手段と、を有する。
In order to solve the above-mentioned problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, the information processing device specifies the position and orientation of the virtual viewpoint corresponding to the virtual viewpoint image generated based on the plurality of images obtained by shooting the shooting target area from different positions by the plurality of shooting devices. Specific means and
It has a determination means for determining the position and orientation of the imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint specified by the specific means.
本発明によれば、特定された仮想視点に応じた適切な仮想視点画像を生成できるように撮影装置の位置及び向きを決定することができる。 According to the present invention, the position and orientation of the photographing device can be determined so that an appropriate virtual viewpoint image corresponding to the specified virtual viewpoint can be generated.
[システム構成]
図1は、本実施形態に係る画像処理システム100の構成例を示すブロック図である。画像処理システム100は、図1に示されるように、複数のカメラ101、ハブ102、制御装置103、画像生成装置104、及び配置決定装置105を有する。
[System configuration]
FIG. 1 is a block diagram showing a configuration example of the
画像処理システム100は、複数のカメラ101による撮影に基づく複数の画像と、指定された仮想視点に基づいて、指定された仮想視点から見た光景を表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
The
複数のカメラ101は、図2に示すように、オブジェクト202が位置する撮影対象領域201を囲むようにそれぞれ異なる位置に設置され、撮影対象領域201の一部又は全体をそれぞれ異なる方向から同期して撮影する。なお、複数のカメラ101は撮影対象領域201の全周にわたって設置されていなくてもよく、撮影対象領域201の周囲の一部にのみ設置されていてもよい。また、カメラ101の数は図に示す例に限定されない。カメラ101は、例えば、静止画像及び動画像を撮影可能なデジタルカメラ等であり、複数のカメラ101には、望遠カメラと広角カメラなど機能が異なるカメラが混在していても良い。
As shown in FIG. 2, the plurality of
なお、本実施形態では、撮影対象領域201をそれぞれ異なる位置から撮影する撮影装置として、それぞれが独立した筐体を有し単一の視点で撮影可能なカメラ101を用いる場合について説明する。ただしこれに限らず、2以上の撮影装置が同一の筐体内に構成されていてもよい。例えば、複数のレンズ群と複数のセンサを備えており複数視点から撮影可能な単体のカメラが、複数の撮影装置として設置されていてもよい。
In this embodiment, a case where a
本実施形態における撮影対象領域201は、仮想視点画像を制作するための撮影が行われる撮影スタジオである。ただし撮影対象領域201はこれに限定されるものではなく、例えばスポーツ競技が行われる競技場であってもよいし、演技が行われる舞台であってもよい。
The
複数のカメラ101で撮影された複数の画像は、ハブ102を通して、画像生成装置104へ送られる。制御装置103は、ハブ102を介して複数のカメラ101と通信可能に接続され、複数のカメラ101の撮影の制御や、複数のカメラ101の配置状況の管理などを行う。
A plurality of images taken by the plurality of
画像生成装置104は、複数のカメラ101による撮影に基づく複数の画像(複数視点画像)を取得して記憶する。複数視点画像に含まれる画像は、撮影画像であってもよいし、撮影画像に対して例えば所定の領域を抽出する処理などの画像処理が行われることで得られる画像であってもよい。また、画像生成装置104は、仮想視点を指定するためのコントローラ等を用いたユーザ操作に応じた入力を受け付け、生成すべき仮想視点画像に対応する仮想視点を特定する。そして画像生成装置104は、特定された仮想視点から見た光景を表す仮想視点画像を複数視点画像に基づいて生成する。
The
画像生成装置104は、例えば以下の方法で仮想視点画像を生成する。まず、複数のカメラ101によりそれぞれ異なる方向から撮影することで複数の画像が取得される。次に、その複数の画像から、人物などの所定のオブジェクト202に対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。背景は例えばスタジオのセットやフィールドである。また、所定のオブジェクト202の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成される。また、スタジオや競技場などの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、3次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
The
仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向き(視線方向)を示す情報である。具体的には、視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。 The viewpoint information used to generate the virtual viewpoint image is information indicating the position and direction (line-of-sight direction) of the virtual viewpoint. Specifically, the viewpoint information is a parameter set including a parameter representing a three-dimensional position of the virtual viewpoint and a parameter representing the direction of the virtual viewpoint in the pan, tilt, and roll directions. The content of the viewpoint information is not limited to the above. For example, the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint. Further, the viewpoint information may have a plurality of parameter sets. For example, the viewpoint information may have a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image, and may be information indicating the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. ..
本実施形態では、仮想カメラという概念を用いて説明を行う。仮想カメラとは、撮影対象領域201の周囲に実際に設置された複数のカメラ101とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮影対象領域201に関連付けられる仮想空間内に設定された仮想視点から撮影した画像であるとみなすことができる。そして、仮想的な当該撮影における視点の位置及び向きは仮想カメラの位置及び姿勢として表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮影画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を示す情報を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
In this embodiment, the description will be given using the concept of a virtual camera. The virtual camera is a virtual camera different from the plurality of
配置決定装置105は、画像生成装置104において設定された仮想カメラパスに基づいて、その仮想カメラパスに応じた仮想視点画像が高画質に生成できるように、複数のカメラ101の配置を決定する。カメラ101の配置決定の詳細については後述する。配置決定装置105は、制御装置103及び画像生成装置104と有線又は無線で接続されている。
The
なお、画像処理システム100の構成は図1に示したものに限定されない。例えば、制御装置103、画像生成装置104、及び配置決定装置105のいずれか2つ又は全部が一体となって構成されていてもよい。また、上述した前景画像と背景画像は、画像生成装置104が撮影画像からそれぞれ抽出しても良いし、それ以外の装置(例えばカメラ101)が抽出しても良い。カメラ101が前景画像と背景画像を抽出する場合、複数のカメラ101のそれぞれが前景画像と背景画像の両方を抽出してもよいし、複数のカメラ101のうち一部のカメラ101が前景画像を抽出し、他の一部のカメラ101が背景画像を抽出してもよい。また、複数のカメラ101には、前景画像と背景画像のいずれも抽出しないカメラ101が含まれていてもよい。
The configuration of the
[ハードウェア構成]
図3は、画像処理システム100に含まれる情報処理装置の一例としての配置決定装置105のハードウェア構成例を示す図である。なお、情報処理装置の一例としての制御装置103及び画像生成装置104の構成も、以下で説明する配置決定装置105と同様である。配置決定装置105は、CPU301、ROM302、RAM303、HDD304、操作部305、表示部306、及び通信部307を有する。
[Hardware configuration]
FIG. 3 is a diagram showing a hardware configuration example of the
CPU301は、ROM302やHDD304に記憶された制御プログラムを用いて、演算処理や各種プログラムを実行することで、配置決定装置105の各機能を実現する。なお、配置決定装置105がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM302は、ブートプログラム、制御プログラム、画像生成装置104の各部に設定するパラメータ等を記憶する記憶領域を有する。RAM303は、CPU301の主メモリ、ワークエリア等の一致時記憶領域として用いられる。HDD304は、各種データやプログラムを記憶する。なお、HDD304に替えてSSDなどその他の補助記憶装置が用いられてもよい。
The
操作部305は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU301に入力する。表示部306は、例えば液晶ディスプレイやLED等で構成され、ユーザが配置決定装置105を操作するためのGUI(Graphical User Interface)などを表示する。CPU301は、表示部306を制御する表示制御部として動作する。通信部307は、制御装置103及び画像生成装置104等の外部装置と通信する。なお、通信部307による通信は、LAN等の有線ネットワークを介して行われても良いし、無線ネットワークを介して行われても良い。
The
本実施形態では表示部306と操作部305が配置決定装置105の内部に存在するものとするが、表示部306と操作部305との少なくとも一方が配置決定装置105の外部に別の装置として存在していてもよい。
In the present embodiment, it is assumed that the
[配置決定装置の機能構成]
図4は、本実施形態における配置決定装置105の機能構成例を示すブロック図である。パス取得部401は、経時的な仮想視点の位置、向き、及び画角の変遷を示す仮想カメラパスを取得し、撮影範囲算出部402に送信する。パス取得部401が取得する仮想カメラパスは、画像生成装置104が仮想視点画像を生成するために生成したものである。ただし、パス取得部401が取得する仮想カメラパスは、画像生成装置104により生成されたものに限らず、別の処理システムや、外部の仮想カメラパス生成装置により生成されたものでも良い。また、仮想カメラパスは、予め想定されるオブジェクト202の動きのシミュレーション結果から生成されたものでも良く、これらに限定されない。
[Functional configuration of placement determination device]
FIG. 4 is a block diagram showing a functional configuration example of the
パス取得部401は、配置決定装置105がカメラ配置を決定するために基準とする仮想カメラパスを1つ以上取得する。取得された仮想カメラパスからは、複数の時点のそれぞれにおける仮想視点の位置及び向きが特定される。パス取得部401は、画像生成装置104により過去に生成され記憶されている仮想カメラパス全てを取得しても良いし、生成された仮想カメラパスの一部のみを指定して取得しても良い。また、画質を改善したい仮想視点画像に対応する仮想カメラパスを選別して取得しても良い。また、パス取得部401は、仮想視点画像の画質が不十分であったため不採用になった仮想カメラパスを取得しても良いし、画質改善の対象となる仮想カメラパスを画質の要求値と併せて取得しても良い。また、パス取得部401は、将来生成予定の仮想視点画像に対応する仮想カメラパスを取得してもよい。パス取得部401により取得される仮想カメラパスには、同じ撮影期間に対応する複数の仮想カメラパスが含まれても良いし、スローや早送りや巻き戻しなどの時間的な加工がされた仮想カメラパスが含まれても良い。また、パス取得部401は、接続された画像生成装置104が生成した仮想カメラパスをリアルタイムで取得しても良い。
The
撮影範囲算出部402は、配置条件記憶部404から取得した情報が示す撮影対象領域201における、パス取得部401から受信した仮想カメラパスが示すフレーム毎の仮想カメラの撮影範囲を算出し、重要度算出部403に送信する。具体的には、仮想視点画像の動画を構成する各フレームに対応する各時点について、仮想カメラパスに含まれる仮想カメラの位置、姿勢、及び画角を示すパラメータに基づいて、仮想カメラの撮影範囲(仮想視点の視野に含まれる範囲)を算出する。
The shooting
算出される撮影範囲は、3次元領域であっても良いし、平面(例えば、z=0の床面)における2次元領域であっても良い。また、撮影範囲が2次元領域として算出される場合は、オブジェクト202の大きさや動きに応じて、平面上の各位置が撮影範囲に含まれるか否かの判断基準が異なってもよい。例えば、オブジェクト202が人物である場合に、床面からの高さが0~2mに含まれる領域が仮想カメラにより撮影可能であるような2次元位置が、撮影範囲に含まれると判断されても良い。
The calculated shooting range may be a three-dimensional region or a two-dimensional region on a plane (for example, a floor surface with z = 0). Further, when the shooting range is calculated as a two-dimensional region, the criterion for determining whether or not each position on the plane is included in the shooting range may differ depending on the size and movement of the
また、仮想カメラにより一定以上の解像度で撮影可能な範囲を撮影範囲としてもよい。すなわち、仮想カメラの視野に含まれる位置であっても、仮想カメラから一定以上の解像度で撮影できない位置(例えば仮想カメラからの距離が所定値以上である位置)は、仮想カメラの撮影範囲に含まれないと判断されてもよい。上記の一定の解像度は、撮影内容などに応じて決定されても良いし、ユーザにより指定されても良い。 Further, the range in which the virtual camera can shoot at a certain resolution or higher may be set as the shooting range. That is, even if the position is included in the field of view of the virtual camera, the position where the virtual camera cannot shoot at a certain resolution or higher (for example, the position where the distance from the virtual camera is equal to or higher than a predetermined value) is included in the shooting range of the virtual camera. It may be determined that it cannot be done. The above-mentioned constant resolution may be determined according to the shooting content or the like, or may be specified by the user.
また、仮想カメラの撮影範囲は、撮影範囲を囲む点の座標値で表されても良いし、撮影対象領域201に含まれる各ブロック(部分領域)が撮影範囲内であるか否かを示す情報により表されても良い。ブロックの分割単位は、現実空間における所定の大きさ(例えば10cmや1m)に決められても良いし、撮影対象領域201が所定の数に等分されるように決められても良い。また、ブロックの分割単位は、撮影対象領域201の大きさや複数のカメラ101の台数や撮影内容に応じて変更されても良く、これらに限定されない。また、撮影対象領域201に対して撮影範囲を示す画像が出力されても良い。
Further, the shooting range of the virtual camera may be represented by the coordinate values of the points surrounding the shooting range, and information indicating whether or not each block (partial area) included in the
重要度算出部403は、撮影範囲算出部402から受信した仮想カメラの撮影範囲を基に、撮影対象領域201内の各領域の重要度を算出する。重要度の算出方法としては、例えば、各領域が仮想カメラの撮影範囲に含まれるかがフレームごとに判断され、ある領域が仮想カメラの撮影範囲に含まれる累積時間(累積フレーム数)に応じてその領域の重要度が算出される。累積時間が長いほど重要度が高く設定されることで、仮想カメラの撮影範囲に長時間入る重要な領域が特定される。重要度は、累積時間の数値により表されても良いし、累積時間に応じて重要度高/重要度中/重要度低のように複数のレベルで表されても良い。
The
また、重要度の算出に用いられる情報は、領域が仮想カメラの撮影範囲に入る期間の長さを示す累積時間に限定されない。例えば、領域の重要度の算出に、撮影シーンの注目度が用いられてもよい。すなわち、仮想カメラが撮影するシーンの注目度に応じて、仮想カメラパス単位あるいはフレーム単位で、重要度に重み付けがされても良い。具体的には、注目度が高いシーンに対応するフレームにおいてある領域が仮想カメラの撮影範囲に含まれている場合は、注目度が低いシーンに対応するフレームにおいて撮影範囲に含まれている場合よりも、その領域の重要度の加算量を大きくしてもよい。 Further, the information used for calculating the importance is not limited to the cumulative time indicating the length of the period during which the area falls within the shooting range of the virtual camera. For example, the attention level of the shooting scene may be used to calculate the importance of the area. That is, the importance may be weighted in units of virtual camera paths or frames according to the degree of attention of the scene shot by the virtual camera. Specifically, when a certain area is included in the shooting range of the virtual camera in the frame corresponding to the scene with high attention, it is more than when it is included in the shooting range in the frame corresponding to the scene with low attention. However, the amount of addition of the importance of the area may be increased.
また、仮想カメラパスに基づいて生成された仮想視点画像の人気度が高い場合、同様の仮想カメラパスが重要であると判断できるため、そのような人気度が高い仮想カメラパスに応じた仮想カメラの撮影範囲に含まれる領域の重要度の加算量を大きくしても良い。また例えば、撮影対象領域201を照らす照明の位置及び向きに基づいて、各領域の重要度が補正されてもよい。重要度の重み付けは、重要度の加算量を調整するものに限定されない。例えば、所定の条件を満たす領域の重要度値または重要度レベルを最高値または最高レベルにしても良いし、所定の条件を満たす領域の重要度値を一定値加算したり重要度レベルを一定レベル上げたりしても良く、これらに限定されない。
Also, if the virtual viewpoint image generated based on the virtual camera path is popular, it can be determined that a similar virtual camera path is important, so a virtual camera corresponding to such a popular virtual camera path is used. You may increase the addition amount of the importance of the area included in the shooting range of. Further, for example, the importance of each area may be corrected based on the position and direction of the illumination that illuminates the
配置条件記憶部404は、複数のカメラ101の配置の条件に関する情報を記憶する。例えば、撮影スタジオなどの会場の情報、撮影対象領域201の情報、スタジオ内でカメラ101を設置可能な構造体とその位置に関する情報、配置可能なカメラ101の台数及びカメラ101のスペック情報などが記憶される。また、すでに設置済のカメラ101がある場合は、現在のカメラ101の配置の情報として、カメラ101の位置や設定情報、固定カメラまたは雲台カメラなどのカメラ種別の情報などが記憶される。
The arrangement
要求取得部405は、領域の重要度に応じた、その領域の撮影状況に関する要求を取得する。具体的には、特定の重要度の領域に対する複数のカメラ101の位置関係に関する要求(例えばその領域から見た複数のカメラ101の間の角度の上限値)が取得される。また、特定の重要度の領域の撮影に係る解像度に関する要求(例えばカメラ101による撮影画像におけるその領域の大きさに対応する解像度の下限値)が取得される。要求取得部405は、仮想視点画像の画質に関わる要求を取得すればよく、要求の内容はこれらに限られない。
The
要求取得部405は、領域重要度に対応する上限カメラ間角度及び下限解像度を予め表として記憶しておき、その表を参照しても良い。参照される表の一例を図5に示す。図5に示したように、領域重要度が高いほど、オブジェクト202のモデル精度が高くなるように、上限カメラ間角度が小さい値になる。また、領域重要度が高いほど、オブジェクト202のモデルにマッピングされるテクスチャの解像度が高くなるように、下限解像度が大きい値になる。また、要求取得部405は、操作部305を介してオペレータにより指定された数値等に応じた要求の情報を取得しても良い。また、特定の仮想カメラパス及び特定のフレームに対して画質要求値が決められても良い。
The
配置決定部406は、重要度算出部403から受信した領域毎の重要度と、配置条件記憶部404から取得した条件と、要求取得部405から取得した要求とに基づいて、複数のカメラ101の配置を決定する。具体的には、配置条件記憶部404からは、設置済のカメラ101の情報がある場合はその前提条件、配置可能なカメラ101の設定情報や位置情報、撮影対象領域201の情報などが取得される。また、要求取得部405からは、重要度に応じた要求が取得され、領域毎に要求される上限カメラ間角度及び下限解像度が求められる。そして、領域毎の重要度に応じた上限カメラ間角度及び下限解像度の要求を満たすように、複数のカメラ101の配置が決定される。決定されたカメラ配置を示す配置情報は、表示部306や通信部307を介して、例えば画像として出力される。なお、配置決定部406は、各領域の重要度に応じた要求が満たされるように、カメラ101の位置だけでなくカメラの向き(撮影方向)やカメラの画角に対応する焦点距離を決定してもよい。本実施形態における配置情報には、カメラ101の位置、向き、及び焦点距離を示す情報が含まれてもよい。
The
なお、領域毎の要求を満たすようなカメラ配置が複数パターンある場合は、複数パターンのカメラ配置が導出され、それらのうち最適なカメラ配置が決定されても良い。最適なカメラ配置は、例えば、必要なカメラ101の台数が最も少ないものであっても良いし、設置済のカメラ101の配置からの変更量が最も少ないものであっても良い。また、要求を満たす複数のカメラ配置の候補の中から、操作部305を介してオペレータの操作に応じて採用すべきカメラ配置が選択されても良い。なお、配置可能な台数のカメラ101で撮影対象領域201内のすべての領域についての要求を満たせない場合は、重要度の低い領域の要求を変更しても良い。その際は、操作部305を介して、オペレータから要求の変更指示が受け付けられても良い。
When there are a plurality of patterns of camera arrangements that satisfy the requirements for each area, a plurality of patterns of camera arrangements may be derived, and the optimum camera arrangement may be determined among them. The optimum camera arrangement may be, for example, the one in which the number of required
[動作フロー]
次に、配置決定装置105の処理フローを、図6を用いて説明する。図6に示す処理は、配置決定装置105のCPU301がROM302に格納されたプログラムをRAM303に展開して実行することで実現される。なお、図6に示す処理の少なくとも一部を、CPU301とは異なる1又は複数の専用のハードウェアにより実現してもよい。後述する図10に示す処理についても同様である。図6に示す処理は、画像処理システム100を介してユーザにより仮想カメラパスが指定され、配置決定装置105が操作部305を介してオペレータからカメラ配置決定を行うための指示を受け付けたタイミングで開始される。この仮想カメラパスは、複数のカメラ101による撮影が行われる前に指定されてもよいし、所定の位置に設置されたカメラ101により取得された撮影画像に基づいて仮想視点画像を試作する際に指定されてもよい。なお、図6に示す処理の開始タイミングは上記に限定されない。
[Operation flow]
Next, the processing flow of the
S601において、パス取得部401は、カメラ配置を決定する際の基準となる仮想カメラパスを取得する。S602において、撮影範囲算出部402は、S601で取得された仮想カメラパスから、フレーム毎の仮想カメラの位置、姿勢、及び画角を示すパラメータを取得し、撮影対象領域201における仮想カメラの撮影範囲を算出する。そして、撮影範囲算出部402は、仮想カメラパスに含まれる全フレーム分の仮想カメラの撮影範囲を示す情報を重要度算出部403に送信する。
In S601, the
図7(A)に、S601で取得された仮想カメラパスが示す仮想カメラ701~703とS602で算出された仮想カメラの撮影範囲704~706の例を示す。図7(A)では、説明をわかりやすくするために3フレームの仮想カメラパスの例を示すが、フレーム数はこれに限るものではなく、仮想カメラパスにはより多くのフレームに対応する仮想カメラの情報が含まれてもよい。図7(A)では、撮影対象領域201の床面(z=0)における2次元領域(xy平面)の撮影範囲を示すが、算出される撮影範囲はこれに限られない。
FIG. 7A shows an example of the
S603において、重要度算出部403は、受信した仮想カメラパスに含まれる全フレーム分の仮想カメラの撮影範囲に基づいて、領域毎にその領域が撮影範囲に含まれる累積時間を算出する。図7(B)は、図7(A)に示した仮想カメラの撮影範囲704~706に基づいて算出された各領域の累積時間を示す。領域707の累積時間は3フレームであり、領域708の累積時間は2フレームであり、領域709の累積時間は1フレームである。
In S603, the
S604において、重要度算出部403は、S603で算出された累積時間に基づいて各領域の重要度を算出する。図7(C)は、図7(B)で算出された累積時間と重要度の対応例を示す。図7(C)の例では、累積時間に応じて重要度を3段階にレベル分けしたが、これに限らず、累積時間と重要度の対応は、仮想カメラパスのフレーム数や累積時間のばらつき度合いに応じて決定されても良い。
In S604, the
S605において、配置決定部406は、要求取得部405から、領域の重要度に応じた要求として、上限カメラ間角度及び下限解像度を取得する。図5に示したように、予め保持された重要度と要求の対応表が取得されても良いし、S604で算出された領域重要度に対して、操作部305を介してオペレータにより要求が設定されても良い。S606において、配置決定部406は、配置条件記憶部404から、カメラ配置条件として、例えば現在のカメラ101の配置の情報、配置可能なカメラ101の情報、設置可能場所の情報、及び撮影対象領域201の情報を取得する。
In S605, the
S607において、配置決定部406は、S605で取得された要求と、S606で取得されたカメラ配置条件に基づいて、カメラ配置を決定する。カメラ配置の決定方法の一例としては、まず、設置済のカメラ101の配置に応じた領域毎のカメラ間角度及び解像度が算出され、要求を満たさない領域が特定される。そして、重要度の高い領域から優先的に、要求を満たすように設置済のカメラ101の位置、姿勢、及び焦点距離の少なくとも何れかが変更される。なお、カメラ101の位置及び姿勢は雲台により制御され、焦点距離はズームレンズにより制御される。
In S607, the
また、現在設置済のカメラ101の設定の変更だけでは要求を満たせない場合は、配置可能な場所に配置可能なカメラ101が追加される。設置済のカメラ101がある場合は、設置済みカメラ101の変更及びカメラ101の追加台数ができるだけ少なくなるようにカメラ配置が決定されてもよい。あるいは、設置済のカメラ101の状態は変更せず、要求を満たすように追加のカメラ101が設置されても良い。その際には、重要度の高い領域の要求が少なくとも満たされるようにしても良い。また、設置済みのカメラ101は固定され、追加のカメラ101として雲台で制御できるカメラ101を設置しておいて、これらのカメラ101が制御されてもよい。
Further, if the request cannot be satisfied only by changing the setting of the currently installed
また、設置済のカメラ101がない場合には、撮影対象領域201を一定条件で撮影できるように複数のカメラ101を仮配置した後で、重要度の高い領域から要求が満たされるようにカメラ配置が変更されても良い。また、焦点距離の異なる複数種類のカメラ101がある場合、それらが組み合わせて配置されても良い。その際、重要度の高い領域の撮影には、優先的に望遠レンズのカメラが使用されてもよい。
If there is no installed
S608において、配置決定部406は、S607で決定されたカメラ配置を示す配置情報を出力する。配置情報は表示部306を介してオペレータやカメラ設置作業者などのユーザに提示され、ユーザはその表示を見て、S607で決定されたカメラ配置が実現されるようにカメラ101の設置や調整を行う。なお、配置情報が通信部307を介して制御装置103に送信され、制御装置103が受信した配置情報に応じてカメラ101の位置や向きを自動で変更しても良い。
In S608, the
以上の処理により、仮想カメラパスに応じた適切な仮想視点画像を生成するための要求を満たすようなカメラ配置が実現される。そして、そのように配置された複数のカメラ101により取得された複数の撮影画像に基づいて、画像生成装置104は仮想カメラパスに応じた仮想視点画像を高画質に生成できる。このような方法によれば、仮想視点を自由に指定してもそれに応じてカメラ配置を決定することにより高画質な仮想視点画像を生成できるため、仮想視点の指定に係る自由度を向上させることができる。
Through the above processing, a camera arrangement that satisfies the requirements for generating an appropriate virtual viewpoint image according to the virtual camera path is realized. Then, the
図8に、S608で出力される配置情報の例を示す。図8(A)は、設置済のカメラ101がない場合に出力される配置情報の例を示す。図8(A)では、カメラA、カメラB、及びカメラCのそれぞれについて、カメラ位置及び注視点の3次元座標と焦点距離が示されている。なお、注視点とは、カメラ101の光軸上の位置(カメラ101の位置から撮影方向に離れた位置)であり、例えばカメラ101の光軸と撮影対象領域201の地面とが交差する位置である。カメラ101の位置と注視点が決まれば、それに応じてカメラ101の向きも決まる。なお、図8(B)に示すようなカメラ配置の全体図が配置情報として出力されても良い。
FIG. 8 shows an example of the arrangement information output in S608. FIG. 8A shows an example of arrangement information output when there is no installed
図8(C)は、設置済のカメラ101がある場合に出力される配置情報の例である。図8(C)では、設定を変更すべきカメラA及びカメラCのそれぞれについて、位置、姿勢、及び焦点距離の変更量が示されている。また、図8(C)のように、設定を変更すべきカメラ101を特定可能に示すカメラ配置の全体図が配置情報として出力されても良い。
FIG. 8C is an example of arrangement information output when there is an installed
また、設置済のカメラ101の設定を変更することなく、重要領域を撮影するカメラ101を追加する場合もある。この場合、図8(A)のような追加すべきカメラ101の配置に関する情報と、図8(D)のような追加すべきカメラ101の位置を示すカメラ配置の全体図とが、出力される配置情報に含まれても良い。なお、配置情報の形式は図8の例に限定されない。例えば、カメラ位置が、3次元座標ではなく、カメラ101を設置可能な予め定められた位置やその位置の番号で示されても良い。また、注視点の3次元座標ではなく、カメラ101の撮影範囲を示すシミュレーション画像が表示されてもよい。
In addition, a
なお、仮想カメラパスに応じた仮想カメラの撮影方向毎に領域重要度が算出されて、カメラ配置が決定されても良い。例えば、図7に示した仮想カメラパスでは、撮影対象領域201の下側からのみ仮想カメラによる撮影が行われている。そのため、仮想カメラの撮影方向の反対側にあるカメラ101(図8(D)の例におけるカメラF~J)の配置を行わない、またはカメラ台数や設定値を変更しても良い。
The area importance may be calculated for each shooting direction of the virtual camera according to the virtual camera path, and the camera arrangement may be determined. For example, in the virtual camera path shown in FIG. 7, shooting is performed by the virtual camera only from the lower side of the
また、図8(B)及び図8(C)に示す配置情報の例は、決定されたカメラ配置を2次元的に示すものであるが、配置情報の例はこれに限定されず、決定されたカメラ配置を3次元的に示すものであってもよい。すなわち、出力される配置情報は、決定されたカメラ配置における各カメラ101の高さを示す図を含んでもよい。
Further, the example of the arrangement information shown in FIGS. 8B and 8C shows the determined camera arrangement two-dimensionally, but the example of the arrangement information is not limited to this and is determined. The camera arrangement may be three-dimensionally shown. That is, the output placement information may include a diagram showing the height of each
また、本実施形態では、撮影対象領域201のうち、仮想カメラパスに応じた仮想カメラの撮影範囲に全く含まれない領域については重要度低として、その領域についても一定の要求は満たされるようにカメラ配置が決定されるものとした。これにより、仮想カメラパスを少し変更したり追加したりしても、そのカメラパスに応じた仮想視点画像を生成できる。ただし、特定された仮想カメラパスのみを用いて仮想視点画像が生成される場合は、仮想カメラパスに応じた仮想カメラの撮影範囲に全く含まれない領域はカメラ101により撮影されないように、カメラ配置が決定されても良い。
Further, in the present embodiment, of the
[変形例]
以下では、仮想カメラパスに応じた仮想カメラの撮影範囲内に存在するオブジェクトの位置に基づいてカメラ配置を決定する、画像処理システム100の変形例について説明する。本変形例においては、複数のカメラ101により取得された複数の撮影画像と指定された仮想カメラパスとに基づいて仮想視点画像が生成され、その仮想カメラパスに基づいて複数のカメラ101の配置や設定が変更される。そして、変更後の配置や設定に応じた複数のカメラ101により改めて取得された複数の撮影画像を使用することで、指定された仮想カメラパスに応じた高画質の仮想視点画像が生成される。例えば、リハーサル撮影時に指定された仮想カメラパスに基づいて、本番撮影時のカメラ配置が決定される。本番撮影時には、リハーサル撮影時に用いられたカメラ101の位置や向きを変更してもよいし、リハーサル撮影時に用いられなかったカメラ101が追加されてもよい。なお、本変形例における仮想カメラパスには、各フレームに対応する撮影時刻あるいは撮影時のタイムコード情報が含まれているものとする。以下の説明では、上述した実施形態との相違点を中心に説明する。
[Modification example]
Hereinafter, a modified example of the
図9は、本変形例における画像処理システム100の構成を示す。図9において、図4に示した処理部と同様の処理を行う処理部については、同一の符号を付与している。オブジェクト情報取得部901は、パス取得部401で取得された仮想カメラパスに応じたオブジェクト情報を取得し、オブジェクト領域算出部902に送信する。オブジェクト情報とは、撮影時(例えばリハーサル時)に撮影対象領域201内に存在するオブジェクトの種類と撮影時刻毎の形状及び位置を示す情報である。オブジェクトの種類には人物や物の種類や名称が含まれる。オブジェクトの形状及び位置を示すは、例えば、仮想視点画像を生成するために用いられるオブジェクトの3次元モデルの形状と位置を示す情報である。なお、画像認識技術を用いることで人物の顔などを特定した結果がオブジェクト情報に含まれても良い。
FIG. 9 shows the configuration of the
オブジェクト情報取得部901により取得されるオブジェクト情報は、画像生成装置104で生成されたものに限らず、別の処理システムや、外部のオブジェクト形状モデル生成装置において生成されたものでも良い。あるいは、オブジェクト情報は、予め想定されるオブジェクトの動きをシミュレーションした結果に基づいて生成されたものでも良く、これらに限定されない。オブジェクト情報取得部901は、撮影時の全フレーム分のオブジェクト情報を取得し、その中からパス取得部401で取得された仮想カメラパスに含まれるフレームに対応する撮影時刻のオブジェクト情報を抽出してもよい。あるいは、オブジェクト情報取得部901は、仮想カメラパスに含まれるフレームに対応する撮影時刻のオブジェクト情報のみを外部から取得しても良い。
The object information acquired by the object
オブジェクト領域算出部902は、撮影範囲算出部402から受信した仮想カメラの撮影範囲と、オブジェクト情報取得部901から受信したオブジェクト情報に基づいて、仮想カメラの撮影範囲に含まれるオブジェクトが存在する領域を算出する。算出されたオブジェクト領域は、重要度算出部903に送信される。算出されるオブジェクト領域は、仮想カメラの撮影範囲内にあるオブジェクト全ての領域を含んでも良いし、特定のオブジェクトの領域のみを含んでも良い。特定のオブジェクトは、例えば、特定の人物や、人物の顔や、コマーシャル撮影における商品、社名や製品ロゴなどである。特定のオブジェクトは、撮影内容に応じて決定されても良いし、オペレータの指示に基づいて決定されても良い。
The object
重要度算出部903は、オブジェクト領域算出部902から受信したオブジェクト領域を基に、撮影対象領域201内の各領域の重要度を算出する。重要度の算出方法としては、上述した方法と同様に、撮影対象領域201内の各ブロックがオブジェクト領域に含まれるフレームの数を累積し、累積時間が長いほどそのブロックの重要度が高くなるように算出されても良い。ただしこれに限らず、オブジェクト領域に1フレーム以上含まれるブロックは全て重要領域となるように重要度が算出されても良い。
The
または、特定のオブジェクトの存在する領域のみを重要な領域としても良いし、仮想カメラの視野に含まれるオブジェクトの種類に応じて重要度に重み付けしても良い。オブジェクトに応じた重み付けの仕方については、撮影内容に応じて決定されても良いし、オペレータの指示に応じて決定されても良い。また、仮想カメラの視野におけるオブジェクトの大きさに応じて重要度に重み付けを行い、例えば、仮想カメラがオブジェクトを大きく撮影している場合ほどそのオブジェクトが位置する領域の重要度を高くしてもよい。 Alternatively, only the area where a specific object exists may be regarded as an important area, or the importance may be weighted according to the type of the object included in the field of view of the virtual camera. The weighting method according to the object may be determined according to the shooting content or may be determined according to the instruction of the operator. Further, the importance may be weighted according to the size of the object in the field of view of the virtual camera. For example, the area in which the object is located may be more important as the virtual camera shoots the object larger. ..
次に、本変形例の配置決定装置105の処理フローについて、図10を用いて説明する。図10に示す処理は、画像処理システム100を介してユーザにより仮想カメラパスが指定され、配置決定装置105が操作部305を介してオペレータからカメラ配置決定を行うための指示を受け付けたタイミングで開始される。この仮想カメラパスは、例えば、リハーサル時の撮影画像に基づいて仮想視点画像を試作する際に指定される。なお、図10に示す処理の開始タイミングは上記に限定されない。なお、図10の説明において、図6を用いて説明した処理と同様の処理については同一の符号を付与している。以下では、図6で示した処理との相違点を中心に説明する。
Next, the processing flow of the
S1001において、オブジェクト情報取得部901は、S601で取得された仮想カメラパスに含まれる各フレームの撮影時刻に対応するオブジェクト情報を取得する。S1002において、オブジェクト領域算出部902は、S601で取得された仮想カメラパスに含まれる各フレームについて、S1001で取得されたオブジェクト情報に基づいて、S602で算出された仮想カメラの撮影範囲内のオブジェクト領域を算出する。
In S1001, the object
図11(A)に、仮想カメラパスが示す仮想カメラ701~703とS602で算出された仮想カメラの撮影範囲704~706、及び各フレームにおいてオブジェクトが存在する領域1101及び領域1102の例を示す。図11(A)において、領域1101は仮想カメラの撮影範囲内に位置するオブジェクトの領域であり、領域1102は仮想カメラの撮影範囲外に位置するオブジェクトの領域である。なお、1つのオブジェクトが仮想カメラの撮影範囲内外にまたがって存在する場合は、撮影範囲内にあるオブジェクトの一部の領域のみを撮影範囲内のオブジェクト領域として扱っても良い。あるいは、そのようなオブジェクト全体の領域を、撮影範囲内のオブジェクト領域または撮影範囲外の領域として扱っても良い。
FIG. 11A shows an example of the
S1003において、重要度算出部903は、S1002で算出された仮想カメラの撮影範囲内のオブジェクト領域を仮想カメラパスに含まれる全フレームにわたって累積することで得られる累積領域を算出する。図11(B)は、図11(A)に示した仮想カメラ撮影範囲内のオブジェクトの領域1101を累積した様子を示す。
In S1003, the
S1004において、重要度算出部903は、S1003で算出されたオブジェクト領域の累積結果に基づいて、重要領域を算出し、配置決定部406に送信する。図11(C)は、領域1101の累積領域を囲むように算出された重要領域1103を示す。すなわち、各フレームにおけるオブジェクト領域が重要領域に含まれる。ただし、重要領域1103は、図11(C)の例のような四角形でなくても良く、例えば累積領域の輪郭の形状であっても良いし、楕円形などであっても良い。また、累積領域の周囲にマージンを取るように重要領域1103が設定されてもよい。重要度算出部903は、重要領域に含まれる領域の重要度を一律に設定してもよいし、重要領域に含まれる領域のうちオブジェクト領域であったフレーム数が多い領域ほど重要度が高くなるように重要度を設定してもよい。
In S1004, the
各領域の重要度が算出された後の処理は、図6を用いて説明した処理と同様であり、領域重要度に応じた要求とカメラ配置条件に基づいてカメラ配置が決定され、決定されたカメラ配置を示す配置情報が出力される。以上の処理により、仮想カメラパスに応じた仮想カメラの撮影範囲内のオブジェクト(すなわち仮想視点画像に映るオブジェクト)が仮想視点画像において高画質で表示されるための要求を満たすようなカメラ配置が実現される。そして、そのように配置された複数のカメラ101により取得された複数の撮影画像に基づいて、画像生成装置104は仮想カメラパスに応じた仮想視点画像を高画質に生成できる。
The process after the importance of each area is calculated is the same as the process described with reference to FIG. 6, and the camera arrangement is determined and determined based on the request according to the area importance and the camera arrangement condition. Placement information indicating the camera placement is output. Through the above processing, a camera arrangement that meets the requirements for high-quality display of objects within the shooting range of the virtual camera according to the virtual camera path (that is, objects reflected in the virtual viewpoint image) is realized. Will be done. Then, the
例えば、スタジオ撮影などの撮り直しが可能な状況において、撮影画像と指定された仮想カメラパスに基づいて生成された仮想視点画像の画質が不十分な場合に、その仮想カメラパスに基づいて次の撮影のためにカメラ配置を修正することができる。また、演者が既定の動きをするような撮影においては、演者の位置と動きを表すシミュレーションデータと仮想カメラパスに基づいてカメラ配置を決定することも可能である。また、スタジオ撮影に限らず、例えばスポーツ撮影においても、過去の撮影データ及び仮想カメラパスを用いることで、次回の撮影に向けてカメラ配置を改善することが可能である。 For example, in a situation where reshooting is possible such as studio shooting, if the image quality of the shot image and the virtual viewpoint image generated based on the specified virtual camera path is insufficient, the following is based on the virtual camera path. You can modify the camera placement for shooting. Further, in shooting in which the performer makes a predetermined movement, it is possible to determine the camera arrangement based on the simulation data representing the position and movement of the performer and the virtual camera path. Further, not only in studio shooting but also in sports shooting, for example, it is possible to improve the camera arrangement for the next shooting by using the past shooting data and the virtual camera path.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a recording medium readable by a computer.
100 画像処理システム
101 カメラ
102 ハブ
103 制御装置
104 画像生成装置
105 配置決定装置
100
Claims (19)
前記特定手段により特定された前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定する決定手段と、を有することを特徴とする情報処理装置。 A specific means for specifying the position and orientation of a virtual viewpoint corresponding to a virtual viewpoint image generated based on a plurality of images obtained by shooting a shooting target area from different positions by a plurality of shooting devices.
An information processing apparatus comprising: a determination means for determining the position and orientation of an imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint specified by the specific means.
前記決定手段は、前記複数の時点のそれぞれにおける前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定することを特徴とする請求項1に記載の情報処理装置。 The specific means identifies the position and orientation of the virtual viewpoint at each of a plurality of time points, and determines the position and orientation of the virtual viewpoint.
The first aspect of the present invention is characterized in that the determination means determines the position and orientation of the imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint at each of the plurality of time points. Information processing equipment.
前記決定手段は、前記特定手段により特定された前記仮想視点の位置、向き、及び前記仮想視点に対応する画角に基づいて、前記複数の撮影装置に含まれる撮影装置の位置、向き及び画角を決定することを特徴とする請求項1又は2に記載の情報処理装置。 The specifying means identifies the position and orientation of the virtual viewpoint, and the angle of view corresponding to the virtual viewpoint.
The determining means is a position, orientation and angle of view of the photographing apparatus included in the plurality of photographing devices based on the position and orientation of the virtual viewpoint specified by the specific means and the angle of view corresponding to the virtual viewpoint. The information processing apparatus according to claim 1 or 2, wherein the information processing apparatus is determined.
前記決定手段は、前記特定手段により特定された前記仮想視点の位置及び向きに応じた第2の仮想視点画像を生成するために用いられる第2の複数の画像を取得するための撮影装置の位置及び向きを決定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 The specifying means identifies the position and orientation of the virtual viewpoint designated for generating the first virtual viewpoint image based on the first plurality of images.
The determination means is a position of a photographing device for acquiring a plurality of second images used for generating a second virtual viewpoint image according to the position and orientation of the virtual viewpoint specified by the specific means. The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus is characterized in that the orientation is determined.
前記撮影対象領域に含まれる部分領域であって前記特定手段により特定された前記仮想視点の位置及び向きに応じた視野に含まれる部分領域を特定し、
前記撮影装置による前記部分領域の撮影状況が所定の要求を満たすように、前記撮影装置の位置及び向きを決定することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 The determination means is
A partial region included in the visual field according to the position and orientation of the virtual viewpoint specified by the specific means, which is a partial region included in the imaging target region, is specified.
The information processing apparatus according to any one of claims 1 to 10, wherein the position and orientation of the photographing apparatus are determined so that the photographing condition of the partial region by the photographing apparatus satisfies a predetermined requirement. ..
前記決定手段は、前記部分領域の重要度を、前記複数の時点のうち前記仮想視点の位置及び向きに応じた視野に前記部分領域が含まれる時点の数に基づいて決定し、
前記所定の要求は、前記部分領域の重要度に応じて決まることを特徴とする請求項11乃至13の何れか1項に記載の情報処理装置。 The specific means identifies the position and orientation of the virtual viewpoint at each of a plurality of time points, and determines the position and orientation of the virtual viewpoint.
The determination means determines the importance of the partial region based on the number of time points in which the partial region is included in the visual field according to the position and orientation of the virtual viewpoint among the plurality of time points.
The information processing apparatus according to any one of claims 11 to 13, wherein the predetermined requirement is determined according to the importance of the partial region.
前記特定工程において特定された前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定する決定工程と、を有することを特徴とする情報処理方法。 A specific process for specifying the position and orientation of a virtual viewpoint corresponding to a virtual viewpoint image generated based on a plurality of images obtained by shooting a shooting target area from different positions by a plurality of shooting devices.
An information processing method comprising: a determination step of determining a position and an orientation of an imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint specified in the specific step.
前記決定工程においては、前記複数の時点のそれぞれにおける前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きが決定されることを特徴とする請求項16に記載の情報処理方法。 In the specific step, the position and orientation of the virtual viewpoint at each of the plurality of time points are specified.
16. The determination step is characterized in that the positions and orientations of the photographing devices included in the plurality of photographing devices are determined based on the positions and orientations of the virtual viewpoints at each of the plurality of time points. Information processing method described in.
前記撮影対象領域に含まれる部分領域であって前記特定工程において特定された前記仮想視点の位置及び向きに応じた視野に含まれる部分領域を特定し、
前記撮影装置による前記部分領域の撮影状況が所定の要求を満たすように、前記撮影装置の位置及び向きを決定することを特徴とする請求項16又は17に記載の情報処理方法。 The determination step is
A partial region included in the visual field according to the position and orientation of the virtual viewpoint specified in the specific step, which is a partial region included in the imaging target region, is specified.
The information processing method according to claim 16 or 17, wherein the position and orientation of the photographing apparatus are determined so that the photographing condition of the partial region by the photographing apparatus satisfies a predetermined requirement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114211A JP2022012398A (en) | 2020-07-01 | 2020-07-01 | Information processor, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114211A JP2022012398A (en) | 2020-07-01 | 2020-07-01 | Information processor, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022012398A true JP2022012398A (en) | 2022-01-17 |
Family
ID=80148653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020114211A Pending JP2022012398A (en) | 2020-07-01 | 2020-07-01 | Information processor, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022012398A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272483A (en) * | 2022-07-22 | 2022-11-01 | 北京城市网邻信息技术有限公司 | Image generation method and device, electronic equipment and storage medium |
-
2020
- 2020-07-01 JP JP2020114211A patent/JP2022012398A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272483A (en) * | 2022-07-22 | 2022-11-01 | 北京城市网邻信息技术有限公司 | Image generation method and device, electronic equipment and storage medium |
CN115272483B (en) * | 2022-07-22 | 2023-07-07 | 北京城市网邻信息技术有限公司 | Image generation method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102105189B1 (en) | Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object | |
WO2019176713A1 (en) | Control device, image processing system, control method, and program | |
KR20140100656A (en) | Point video offer device using omnidirectional imaging and 3-dimensional data and method | |
JP2018107793A (en) | Generation device, generation method and program of virtual view point image | |
KR20200023513A (en) | Image processing system, image processing method, and storage medium | |
CN112311965A (en) | Virtual shooting method, device, system and storage medium | |
JP5963006B2 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
KR101649752B1 (en) | Generating method for multiview image using interface with image matrix and generating system for multiview image | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
KR101843018B1 (en) | System and Method for Video Composition | |
JP2022012398A (en) | Information processor, information processing method, and program | |
JP2019103126A (en) | Camera system, camera control device, camera control method, and program | |
JP2010183384A (en) | Photographic camera learning apparatus and program therefor | |
JP2022038176A (en) | Control device, control method, and program | |
JP6672417B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP7494153B2 (en) | Generation device, generation method, and program | |
JP2020014177A (en) | Information processing apparatus, information processing method, and program | |
JP2020136821A (en) | Information processing device and control method thereof, and program | |
JP2023001850A (en) | Information processing apparatus, information processing method, and program | |
WO2022230718A1 (en) | Information processing device, information processing method, and program | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2022094907A (en) | Generation device, generation method, and program | |
WO2021182153A1 (en) | Information processing device, information processing system, information processing method, and program | |
WO2024042893A1 (en) | Information processing device, information processing method, and program | |
JP2023175503A (en) | Image processing apparatus and its image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20200731 |