JP2024058941A - Control device, control method, and computer program - Google Patents
Control device, control method, and computer program Download PDFInfo
- Publication number
- JP2024058941A JP2024058941A JP2022166369A JP2022166369A JP2024058941A JP 2024058941 A JP2024058941 A JP 2024058941A JP 2022166369 A JP2022166369 A JP 2022166369A JP 2022166369 A JP2022166369 A JP 2022166369A JP 2024058941 A JP2024058941 A JP 2024058941A
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- information
- change
- attitude
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 title description 39
- 230000008859 change Effects 0.000 claims abstract description 75
- 230000003287 optical effect Effects 0.000 claims abstract description 25
- 230000010365 information processing Effects 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 29
- 230000004048 modification Effects 0.000 claims description 23
- 238000012986 modification Methods 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 21
- 230000005484 gravity Effects 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 仮想カメラの操縦者が自動制御を行うカメラパラメータを手動操作したい場合に、操作者の意図通りに仮想カメラを移動できなくなる虞がある。【解決手段】 仮想カメラの位置または仮想カメラの姿勢を変更する変更情報を取得し、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定し、判定結果に基づいて特定のオブジェクトが仮想カメラの光軸上に位置するように仮想カメラの位置および姿勢を変更する。【選択図】 図4[Problem] When an operator of a virtual camera wishes to manually operate camera parameters that are automatically controlled, there is a risk that the operator will not be able to move the virtual camera as intended. [Solution] Change information for changing the position or attitude of the virtual camera is acquired, and it is determined whether the information is for changing the position of the virtual camera or the attitude of the virtual camera, and the position and attitude of the virtual camera are changed based on the determination result so that a specific object is positioned on the optical axis of the virtual camera. [Selected Figure] Figure 4
Description
本開示は、仮想視点映像を生成する仮想カメラの制御装置、制御方法およびコンピュータプログラムに関する。 The present disclosure relates to a control device, a control method, and a computer program for a virtual camera that generates a virtual viewpoint image.
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく任意の視点からなる仮想視点画像を生成する技術が注目されている。この技術をテレビ等のスポーツ中継に適用した場合、従来の撮影画像と比較して高い自由度かつ臨場感のある映像コンテンツを生成することができる。 In recent years, a technology that uses multiple cameras installed in different positions to synchronously capture images from multiple viewpoints and then generates virtual viewpoint images from any viewpoint, rather than just images from the camera installation positions, has been gaining attention. When this technology is applied to sports broadcasts on television and other media, it is possible to generate video content with a high degree of freedom and realism compared to conventionally captured images.
このとき、仮想カメラの操作者は、試合のシーン、具体的には選手やボールの動きなどに応じて、そのシーンに適した映像となるように仮想カメラの位置や向きを指定する必要がある。仮想カメラは、併進および回転に対してそれぞれ3自由度を持ち、被写体に合わせて位置や向きを自由に操作可能である。仮想カメラの操縦者は、仮想カメラが常に特定の選手やボールを向くよう姿勢を変化させる、といったシーンを撮影する場合、移動する被写体を画角内の所望の位置に捉え続けるために複数の自由度を操作しなければならない。そのため、移動する被写体を画角内の所望の位置にとらえ続けるために、仮想カメラの位置だけを手動操作し、仮想カメラの姿勢は被写体に常に向くように自動制御するなど、移動操作を簡易化したいという要望がある。 At this time, the operator of the virtual camera must specify the position and orientation of the virtual camera so that the image is appropriate for the scene of the match, specifically the movement of the players and the ball. The virtual camera has three degrees of freedom for both translation and rotation, and can freely manipulate its position and orientation to suit the subject. When shooting a scene in which the virtual camera changes its attitude so that it always faces a specific player or the ball, the operator of the virtual camera must manipulate multiple degrees of freedom to keep the moving subject captured at a desired position within the angle of view. For this reason, there is a demand for simplifying the movement operation, such as manually manipulating only the position of the virtual camera and automatically controlling the attitude of the virtual camera so that it always faces the subject, in order to keep the moving subject captured at a desired position within the angle of view.
特許文献1では、自動制御を行うカメラパラメータと手動操作を行うカメラパラメータを予め設定することにより、被写体が速く複雑に移動するシーンであっても、仮想カメラの画角内に被写体の所望の場所を捉え続けることを可能とする技術が示されている。 Patent document 1 discloses a technology that allows a desired location of a subject to be continuously captured within the field of view of a virtual camera, even in a scene in which the subject moves quickly and in a complex manner, by previously setting camera parameters for automatic control and camera parameters for manual operation.
しかしながら、自動制御を行うカメラパラメータと手動操作を行うカメラパラメータを予め設定するため、操作者(ユーザ)が手動操作したいカメラパラメータが変化した場合、操作者の意図通りに仮想カメラを移動できなくなる虞がある。 However, because the camera parameters for automatic control and those for manual operation are set in advance, if the camera parameters that the operator (user) wants to manually operate change, there is a risk that the virtual camera will not be able to be moved as the operator intends.
本開示は上記の課題に鑑みてなされたものであり、仮想カメラの操作者が意図した仮想視点画像を、容易な操作で撮影することを目的とする。 This disclosure was made in consideration of the above-mentioned problems, and aims to enable the operator of the virtual camera to capture the intended virtual viewpoint image with simple operations.
本開示の一態様に係る情報処理装置は、
複数の撮像装置により撮像される複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想カメラの位置または仮想カメラの姿勢を変更する変更情報を取得する取得手段と、
特定のオブジェクトを設定する設定手段と、
前記変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定手段と、
前記変更情報と前記判定手段の判定結果とに基づいて、前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更する変更手段と、
を有することを特徴とする。
An information processing device according to an embodiment of the present disclosure includes:
an acquisition means for acquiring change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
A setting means for setting a particular object;
a determination means for determining whether the change information is information for changing a position of the virtual camera or information for changing an attitude of the virtual camera;
a modification means for modifying a position and an attitude of the virtual camera based on the modification information and a determination result of the determination means so that the specific object is positioned on an optical axis of the virtual camera;
The present invention is characterized by having the following.
本開示によれば、仮想カメラの操縦者が意図した仮想視点画像を、容易な操作で撮影することができる。 According to the present disclosure, the virtual viewpoint image intended by the operator of the virtual camera can be captured with simple operations.
以下、図面を参照して本開示の実施形態を説明する。ただし、本開示は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。 Embodiments of the present disclosure will be described below with reference to the drawings. However, the present disclosure is not limited to the following embodiments. In each drawing, the same members or elements are given the same reference numbers, and duplicate descriptions are omitted or simplified.
<実施形態1>
図1は、画像処理システム全体の構成図である。
<Embodiment 1>
FIG. 1 is a diagram showing the overall configuration of an image processing system.
画像処理システム10は、撮影システム101、画像処理装置102、情報処理装置103から構成される。画像処理システム10は、仮想視点画像を生成することが可能である。
The
撮影システム101は、複数の物理カメラを、撮影領域を囲うようにそれぞれ異なる位置に設置し、時刻同期して撮影する。多視点から同期撮影した複数画像を、画像処理装置102に送信する。撮影領域は、仮想視点画像を生成するための撮影が行われる撮影スタジオや、スポーツ競技が行われる競技場や演技が行われる舞台などである。
The
画像処理装置102は、多視点から同期撮影した複数画像を元に、仮想カメラから見た仮想視点画像を生成する。仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。仮想カメラの視点は、後述する情報処理装置103が決定するカメラパラメータによって表現される。なお、特に断りがない限り、以降の説明に於いて画像という文言が動画と静止画の両方の概念を含むものとして説明する。すなわち、画像処理システム10は、静止画及び動画の何れについても処理可能である。
The
画像処理装置102は、撮影システム101から送られた複数の撮像画像から、被写体を前景として抽出し、抽出された前景画像から3次元モデルを生成する。前景を抽出する方法としては、背景差分情報を用いる方法がある。最も単純には、あらかじめ背景画像として、前景が存在しない状態を撮影しておき、前景が存在する画像と背景画像の差分を算出する。差分値が閾値より大きい場合に、その画素位置は前景であると判定する。その他前景を抽出する手法については、被写体に関する画像上の特徴量や機械学習を用いる手法など様々な手法があるが本提案では前景を抽出する手法は問わない。3次元モデルは、視体積交差法(Shap from Silhouette法)により3D点群(3次元座標を持つ点の集合)を生成しても良いし、ステレオ画像処理から得られたデプスデータを用いて生成してもよい。本件では、3次元モデルを生成する方法について限定しない。この3次元モデルと、指定した背景モデルから、仮想カメラから見た仮想視点画像を生成する。背景モデルは、あらかじめ撮影したスタジオセットや競技場のフィールドなどのデータでも良いし、CGなどで生成した架空の空間のデータでも良い。仮想視点画像の生成方法としては、例えば、モデルベースレンダリング(Model-Based Rendering:MBR)を用いることができる。この処理により、仮想カメラの位置および姿勢から見た3次元モデルの画像を生成できる。なお、仮想視点画像の生成方法はこれに限定しない。
The
情報処理装置103は、仮想カメラを制御し、仮想カメラの視点を表すカメラパラメータを決定する。仮想カメラのカメラパラメータは、位置、姿勢、ズームまたは時刻を指定するためのパラメータを含んでいる。カメラパラメータにより指定される仮想カメラの位置は、所定の位置を原点とする3次元座標で示される。また、仮想カメラのカメラパラメータにより指定される位置は、X軸、Y軸、Z軸の3軸の直交座標系の座標により示される。また、カメラパラメータにより指定される仮想カメラの姿勢はパン、チルト、ロールの3軸のパラメータから構成される。カメラパラメータにより指定される仮想カメラのズームは、例えば、焦点距離の1軸により示される。なお、カメラパラメータは他の要素を規定するパラメータを含んでもよいし、上述したパラメータの全てを含まなくてもよい。
The
情報処理装置103は、決定した仮想カメラのカメラパラメータを画像処理装置102へ送信する。次に、画像処理装置102は、受信したカメラパラメータを元に仮想視点画像を生成し、情報処理装置103へ送信する。
The
図2(a)は、情報処理装置103のハードウェア構成を説明する図である。
Figure 2(a) is a diagram explaining the hardware configuration of the
CPU201は、RAM202やROM203に格納されているコンピュータプログラムやデータを用いて情報処理装置103の全体を制御する。なお、情報処理装置103がCPU201と異なる1又は複数の専用のハードウェアを有し、CPU201による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
The
RAM202は、ROM203から読みだされたコンピュータプログラムや計算の途中結果など、通信部204を介して外部から供給されるデータなどを一時的に記憶する。
ROM203は、変更を必要としないコンピュータプログラムやデータを保持する。
通信部204は、情報処理装置103と外部の装置との通信に用いられる。例えば、情報処理装置103が外部の装置と有線通信する機能を有する場合には、EthernetやUSBなどの通信手段を備える。情報処理装置103が外部の装置と無線通信する機能を有する場合には、通信部204はアンテナを備える。
The
入出力部205は、仮想カメラを制御するための複数の入力部と、仮想カメラの状態などを表示する複数の表示部を有する。
The input/
移動制御部206は、操作者により入出力部205に入力された内容に基づき、仮想カメラの移動を制御し、カメラパラメータを決定する。本実施形態では、移動制御部206は情報処理装置103が備えるがこれに限定されない。画像処理装置102に備えてもよい。その場合、入出力部205に入力された内容をそのまま画像処理装置102に送信する。
The
図2(b)は、入出力部205を説明する図である。
Figure 2 (b) is a diagram explaining the input/
表示部211は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置103を操作するためのGUI(Graphical User Interface)や画像処理装置102で生成された仮想視点画像を含む画像を表示する。
The
入出力部205は、ジョイスティック212a、212b、シーソースイッチ213a、213b、ボタン群214を有する。操作者はそれらを入力部として操作し、仮想カメラのカメラパラメータの変更を行う。ジョイスティック212a、212bは、それぞれ3自由度のカメラパラメータを持っている。本実施形態では、ジョイスティック212aにより仮想カメラのX軸、Y軸、Z軸のカメラパラメータを操作する、ジョイスティック212bにより仮想カメラのパン、チルト、ロールのカメラパラメータを操作する。シーソースイッチ213a、213bは、プラス側またはマイナス側に倒すことで、予め定められた焦点距離範囲内で仮想カメラの焦点距離や注目点までの距離を変更する。ここで、注目点は、仮想カメラから一定距離離れた光軸上の点である。なお、仮想カメラの光軸上に存在するオブジェクトの位置を注目点として設定してもよい。あるいは、仮想カメラの光軸と地上から所定の高さ(例えば1.5m)の平面との交点を注目点として設定してもよい。また、注視領域は、注視点を中心とし所定の距離を半径とした円で表現される領域である。本実施形態では、注視点を中心に2mと設定する。なお、注視領域はこれに限定されず、注視点を中心とした多角形の領域や球状の領域であってもよい。また、図2に示す入出力部205は一例に過ぎず、本件では入出力部205の構成について限定しない。
The input/
図3(a)は、仮想カメラの撮影空間における世界座標系(x、y、z)を示す図である。 Figure 3(a) shows the world coordinate system (x, y, z) in the shooting space of the virtual camera.
世界座標系は、仮想カメラのカメラパラメータや被写体を表すために使用される。被写体とは、フィールド301やボール302、選手303等の、撮影空間内に存在する有体物である。世界座標系は、フィールド301の中心を、原点(0、0、0)とする。また、x軸をフィールド301の長辺方向、y軸をフィールド301の短辺方向、z軸をフィールド301に対する鉛直方向とする。なお、世界座標系の設定方法は、これに限定しない。
The world coordinate system is used to represent the camera parameters of the virtual camera and the subject. A subject is a tangible object that exists in the shooting space, such as the
図3(b)は、仮想カメラのカメラパラメータを示す図である。 Figure 3(b) shows the camera parameters of the virtual camera.
仮想カメラのカメラパラメータは、X軸312、Y軸313、Z軸314の3軸の直交座標系(X、Y、Z)で表現される。Z軸314は、仮想カメラ311の姿勢によらず、常にフィールド301に垂直な方向である。したがって、X軸312とY軸313は、カメラの姿勢によらず、常にフィールド301に水平な方向である。X軸312とY軸313は、仮想カメラ311の姿勢によって方向が変わる。仮想カメラ311の光軸をフィールド301に水平な面に投影した方向がY軸313であり、仮想カメラ311の光軸に直交する方向がX軸312である。また、X軸312、Y軸313、Z軸314を回転軸とした回転移動がそれぞれチルト315、ロール316、パン317である。なお、カメラパラメータの設定方法は、これに限定しない。
The camera parameters of the virtual camera are expressed in a Cartesian coordinate system (X, Y, Z) of three axes:
X軸312、Y軸313、Z軸314の3軸に対応するカメラパラメータと、チルト315、ロール316、パン317の3軸に対応するカメラパラメータを組み合わせることで、仮想カメラは被写体(フィールド)の三次元空間を自由に移動及び姿勢変更できる。その中でユーザにとって操作しやすい組み合わせを仮想カメラの移動操作として用意する。本実施形態では、X軸312、Y軸313、Z軸314の3軸に対応するカメラパラメータに対する操作を位置操作、チルト315、ロール316、パン317の3軸に対応するカメラパラメータに対する操作を回転操作と呼称する。仮想カメラの移動操作として、前述の位置操作・回転操作の他に、拡大・縮小や、注目点との併進移動、注目点を中心にした横回転・縦回転等がある。
By combining camera parameters corresponding to the three axes,
拡大・縮小とは、仮想カメラの撮影領域にある被写体を拡大または縮小する操作である。仮想カメラを光軸方向へ移動させるによって実現する。前進により拡大、後退により縮小表示される。なお、拡大・縮小はこれらの方法に限定されず、仮想カメラの焦点距離等の変更を用いてもよい。 Zooming in and out is the operation of enlarging or reducing the size of a subject in the virtual camera's field of view. This is achieved by moving the virtual camera along the optical axis. Moving forward causes the image to zoom in, and moving backward causes the image to zoom out. Note that zooming in and out is not limited to these methods, and it is also possible to change the focal length of the virtual camera, etc.
注目点との併進移動とは、図3(c)に示すように、仮想カメラ311の姿勢を変更せずに、仮想カメラ311の注目点321の位置を移動する操作である。注目点の位置は、仮想カメラの光軸上に位置する。そのため、仮想カメラ311の姿勢を変更せずに仮想カメラ311の位置を移動した場合、注目点の位置も仮想カメラの311の位置と平行に移動する。したがって、仮想カメラ311の姿勢を変更せずに仮想カメラ311の位置を変更する際の仮想カメラ311の移動軌跡と、注目点321の移動軌跡は、同じ移動軌跡となる。
As shown in FIG. 3(c), translational movement with respect to the point of interest is an operation of moving the position of the point of
注目点を中心とした横回転とは、図3(d)に示すように、仮想カメラ311を、注目点321を中心として、Z軸314と平行な軸324回りに回転移動する操作である。言い換えれば、注目点321を中心とした円上を移動する操作である。どの方向への回転移動でも同様に言い換えられるため、下記省略する。
As shown in FIG. 3(d), horizontal rotation around a point of interest is an operation of rotating the
注目点を中心とした縦回転とは、図3(e)に示すように、仮想カメラ311を、注目点321を中心として、X軸312と平行な軸326回りに回転移動する操作である。注目点を中心とした横回転・縦回転において、仮想カメラの姿勢は、常に注目点321を向くように変化し、注目点321の座標は変化しない。また、回転半径は、仮想カメラ311と注目点321間の距離と等しい。
As shown in FIG. 3(e), vertical rotation around a point of interest is an operation of rotating the
注目点321を中心とした横回転323と縦回転325を組み合わせることによって、注目点321の座標を変化させずに、360度あらゆる角度から被写体を見ることができる仮想カメラの移動操作を実現できる。なお、仮想カメラの移動操作はこれらに限定されず、仮想カメラの移動と姿勢変更の組み合わせによって実現できる動作であれば良い。
By combining
図4は、実施形態1における画像処理装置の機能構成例を表すブロック図である。画像処理装置102は、撮影システム101から同期撮影した複数画像、情報処理装置103からカメラパラメータを受信し、仮想視点画像を生成する。
Figure 4 is a block diagram showing an example of the functional configuration of an image processing device in embodiment 1. The
画像処理装置102が搭載する各機能について順に説明する。
The functions of the
仮想カメラ情報取得部401は、情報処理装置103が有する入出力部205から操作者による入力部への入力内容を受信し、注視領域の範囲を取得する。また、情報処理装置103が有する移動制御部206から各フレームにおける仮想カメラの位置および姿勢といったカメラパラメータを取得する。このカメラパラメータは注視対象設定部403、制御判定部404に送信される。
The virtual camera
被写体モデル生成部402は、撮影システム101から受信した複数画像や、各撮影装置の位置や姿勢といったパラメータをもとに、被写体のモデル情報を生成する。モデル情報には、モデルの3次元形状を表すデータ、モデルの位置情報などが含まれる。なお、モデルの位置は、モデルを囲うバウンディングボックスの重心で近似するが、モデルの位置の近似方法はこれに限定しない。生成されたモデルは、仮想視点画像生成部406に送信される。
The subject
注視対象設定部403は、被写体モデル生成部402からモデル情報を受信し、入出力部205から受信した操作者による入力部への入力内容に対応した被写体を注視対象(特定オブジェクト)とし、そのモデル情報を出力する。例えば、入出力部205に新たにキーボードを設け、操作者がキーボードの右方向のボタンを押した場合、仮想カメラから見て現在選択されている被写体モデルの右側に位置し、X軸方向の距離が最短となる被写体のモデルを注視対象として設定する。設定した被写体のモデル情報は注視対象設定部403に送信する。特に入力部から注視対象を指定する入力がない場合、注目点に最も近い被写体を注視対象として選択する。なお、注視対象は単体とは限らず、複数の被写体を注視対象に選択してもよい。その場合、注視対象のモデル群の位置は、モデル群を囲うバウンディングボックスの重心で近似するが、位置情報を取得する手段はこれに限定しない。注視対象として選択されたモデル情報は、制御判定部404へ送信される。なお、注視対象設定部403は画像処理装置102と異なる装置が有していてもよい。例えば、情報処理装置103が有していてもよく、その場合、ユーザが注視対象を選択する入力を行うことにより注視対象を設定する。
The gaze
制御判定部404は、注視対象設定部403から注視対象のモデル情報を、仮想カメラ情報取得部401から仮想カメラのカメラパラメータを受信し、注視対象のモデルを注視するように仮想カメラの位置または姿勢に自動制御が有効か否かを判定する。ここで、注視とは、仮想カメラの撮影画像の中心位置と注視対象を囲うバウンディングボックスの重心位置を一致していること、または、仮想カメラ情報取得部401から受信した注視領域内に注視対象のモデルが位置していることとする。自動制御が有効か否かの判定は、操作者による入力部への入力内容や、注視対象を含む被写体群の位置と仮想カメラの位置および姿勢、注目点の関係に基づいて行われる。本実施形態では、注視対象設定部403で設定された注視対象を注視できておらず、仮想カメラの画角内に注視対象が存在しない場合に自動制御が有効と判定する。自動制御が有効か否かの判定結果および自動制御の対象となるカメラパラメータを示す情報は、位置姿勢制御部405に送信される。なお、自動制御が有効と判定された場合、次のフレームから自動制御を解除するか否かの判定を行う。自動制御を解除するか否かの判定は、操作者による入力部への入力内容に基づいて行われる。具体的には、自動制御の対象となるカメラパラメータに対する入力があれば自動制御を解除する。つまり、操縦者が自動制御を解除したい場合、自動制御されているパラメータを変更する操作を行えばよい。自動制御を解除するか否かの判定結果は、位置姿勢制御部405に送信される。なお、自動制御はカメラパラメータを修正する処理であるため、制御判定のことを修正判定や変更判定と呼称してもよい。
The
位置姿勢制御部405は、制御判定部404により自動制御が有効と判定された場合に、注視対象として選択されているモデルに対して注視するようにカメラパラメータの一部を自動制御し、仮想カメラのカメラパラメータを修正する。このとき、操作者により入力部に入力された移動操作及び注視対象のモデルの移動に応じて、自動制御されるカメラパラメータが決定される。言い換えれば、自動制御が有効になったときの操作者の入力により、自動制御されるカメラパラメータが決定される。修正後のカメラパラメータは、仮想視点画像生成部406に送信される。有効と判定された自動制御は、解除の判定がされるまで継続される。自動制御が有効であって、制御判定部404より自動制御を解除する情報を受信した場合、自動制御を解除する。
When the
仮想視点画像生成部406は、被写体モデル生成部402から被写体のモデル情報、位置姿勢制御部405から仮想カメラのカメラパラメータを取得し、仮想カメラの位置および姿勢から見た被写体モデルのレンダリングを行い、仮想視点画像を生成する。生成された仮想視点画像は情報処理装置103に送信され、入出力部205の表示部で表示される。
The virtual viewpoint
図5(a)は、仮想カメラの操作内容と注視時に自動制御されるカメラパラメータの対応例を示す図である。注視対象のモデルに対して注視するように仮想カメラの位置および姿勢を自動制御するとき、入力部に入力された、操作者による仮想カメラの操作内容によって、注視するように自動制御を受けるカメラパラメータが決定される。ただし、自動制御を受けるカメラパラメータは、入力部に入力されている移動操作のカメラパラメータとは異なるカメラパラメータである。また、操作者による仮想カメラの移動操作と注視時に自動制御されるカメラパラメータは、一対一で対応するとは限らず、一つの仮想カメラの移動操作に対し、自動制御されるカメラパラメータの候補が二つ以上存在する場合がある。この場合、注視するように仮想カメラを移動させたときに、カメラパラメータの変化量が小さくなる移動のカメラパラメータに自動制御を行う。X軸周りの回転また、複数の移動操作が入力部に入力された場合、自動制御されるカメラパラメータの総数が最小となるように自動制御されるカメラパラメータを決定する。なお、カメラパラメータの候補から自動制御されるカメラパラメータを決定する方法はこれに限定しない。 Figure 5 (a) is a diagram showing an example of the correspondence between the operation contents of the virtual camera and the camera parameters that are automatically controlled when gazing. When the position and attitude of the virtual camera are automatically controlled to gaze at the model of the gaze target, the camera parameters that are automatically controlled to gaze are determined according to the operation contents of the virtual camera by the operator inputted to the input unit. However, the camera parameters that are automatically controlled are different from the camera parameters of the movement operation inputted to the input unit. In addition, the movement operation of the virtual camera by the operator and the camera parameters that are automatically controlled when gazing are not necessarily in one-to-one correspondence, and there may be two or more candidates for the camera parameters that are automatically controlled for one movement operation of the virtual camera. In this case, when the virtual camera is moved to gaze at, the camera parameters of the movement that have a small change amount of the camera parameters are automatically controlled. Rotation around the X axis Furthermore, when multiple movement operations are inputted to the input unit, the camera parameters that are automatically controlled are determined so that the total number of camera parameters that are automatically controlled is minimized. Note that the method of determining the camera parameters to be automatically controlled from the candidates of the camera parameters is not limited to this.
本実施形態では、操作内容がX軸方向の併進移動であった場合、パンが自動制御される。操作内容が併進移動の場合、操作者は仮想カメラの位置を指定する操作を行うため、仮想カメラの位置を把握できる。しかしながら、操作内容が回転移動の場合、仮想カメラの位置に対応するカメラパラメータが自動制御されるため、仮想カメラの位置が実際にどこに移動するのか操作者が把握できない虞がある。そのため、本実施形態では、操作内容が回転移動の場合、注視対象を中心とし、注視対象と仮想カメラとの距離を半径とした円上に仮想カメラの位置を移動させるように自動制御を行う。このようにすることで、操作内容が回転移動であった場合にも、仮想カメラの位置がどこに動くのか容易に想像できる。なお、これに限定されず、操作内容が回転移動の場合、仮想カメラの位置が併進移動するように自動制御してもよい。また、コントローラに別途ボタンを設けておき、ボタンを押下することにより、自動制御の内容を切り替えるようにしてもよい。例えば、自動制御の内容が、注視対象を中心とした回転移動であった場合、ボタンを押下することにより、併進移動に切り替えることができる。 In this embodiment, if the operation is translation in the X-axis direction, the pan is automatically controlled. If the operation is translation, the operator performs an operation to specify the position of the virtual camera, and thus the position of the virtual camera can be grasped. However, if the operation is rotation, the camera parameters corresponding to the position of the virtual camera are automatically controlled, and there is a risk that the operator will not be able to grasp where the position of the virtual camera will actually move. Therefore, in this embodiment, if the operation is rotation, automatic control is performed to move the position of the virtual camera on a circle with the gaze target as the center and the distance between the gaze target and the virtual camera as the radius. In this way, even if the operation is rotation, it is easy to imagine where the position of the virtual camera will move. Note that this is not limited to this, and if the operation is rotation, the position of the virtual camera may be automatically controlled to move in a translational manner. In addition, a separate button may be provided on the controller, and the content of the automatic control may be switched by pressing the button. For example, if the content of the automatic control is rotation around the gaze target, pressing the button can switch to translation.
図5(b)に仮想カメラの併進移動・回転移動の分類を示す。本実施形態において、仮想カメラの併進移動とは、仮想カメラの位置のみを変更し、姿勢を変更しない移動のことである。言い換えれば、X軸、Y軸、Z軸のパラメータを変更し、パン、チルト、ロールのパラメータを変更しないことである。姿勢を変更しないため、仮想カメラの位置と注目点の位置が並行して移動するため、併進移動と定義する。なお、仮想カメラの回転移動とは、仮想カメラの姿勢のみを変更し、位置を変更しない動作のことである。言い換えれば、パン、チルト、ロールのパラメータを変更し、X軸、Y軸、Z軸のパラメータを変更しないことである。操作者による仮想カメラの移動操作と注視時に自動制御されるカメラパラメータの対応は図5(a)に示す対応に限定されず、一方が併進移動、もう一方が回転移動となるような対応となればよい。つまり、操作者による移動操作と自動制御されるカメラパラメータがともに併進移動(または回転移動)となることはない。なお、拡大・縮小は、光軸方向への併進移動と考え、併進移動に含める。注目点を中心にした横回転は、回転移動に含める。 Figure 5(b) shows the classification of translational and rotational movements of the virtual camera. In this embodiment, translational movement of the virtual camera refers to movement in which only the position of the virtual camera is changed, without changing the attitude. In other words, it is to change the parameters of the X-axis, Y-axis, and Z-axis, and not to change the parameters of the pan, tilt, and roll. Since the attitude is not changed, the position of the virtual camera and the position of the point of interest move in parallel, so it is defined as translational movement. Note that rotational movement of the virtual camera refers to an operation in which only the attitude of the virtual camera is changed, without changing the position. In other words, it is to change the parameters of the pan, tilt, and roll, and not to change the parameters of the X-axis, Y-axis, and Z-axis. The correspondence between the movement operation of the virtual camera by the operator and the camera parameters that are automatically controlled when gazing is not limited to the correspondence shown in Figure 5(a), and it is sufficient that one is translational movement and the other is rotational movement. In other words, the movement operation by the operator and the camera parameters that are automatically controlled are not both translational movement (or rotational movement). Note that enlargement and reduction are considered as translational movement in the optical axis direction, and are included in translational movement. Horizontal rotation around a point of interest is included in rotational movement.
一方で、仮想カメラの移動が停止している状態であっても注視対象のモデルが移動した場合、仮想カメラと注視対象の相対的な位置関係は変化する。そのため、仮想カメラが停止している状態で注視対象のモデルが移動した場合の自動制御の対象となるカメラパラメータを予め設定する。具体的には、仮想カメラの位置または姿勢のいずれかに対応するカメラパラメータが設定される。本実施形態では、仮想カメラの位置に対応するカメラパラメータを設定する。どちらの制御を行うかは操縦者が設定でき、コントローラに仮想カメラが停止している状態での自動制御対象を併進移動と回転移動で切り替えるボタンを設ける(不図示)。 On the other hand, if the model being watched moves even when the virtual camera is stopped, the relative positional relationship between the virtual camera and the object being watched changes. For this reason, camera parameters that are subject to automatic control when the model being watched moves while the virtual camera is stopped are set in advance. Specifically, camera parameters corresponding to either the position or the attitude of the virtual camera are set. In this embodiment, camera parameters corresponding to the position of the virtual camera are set. The operator can set which control is to be performed, and the controller is provided with a button (not shown) that switches the object of automatic control between translational movement and rotational movement when the virtual camera is stopped.
図6は、実施形態1における仮想カメラのカメラパラメータの修正例を示す図である。制御判定部404により自動制御を行うと判定された場合、位置姿勢制御部405は、操作者による入力部の入力内容や注視対象を含む被写体群の位置、仮想カメラの位置および姿勢、注目点の関係に基づき、カメラパラメータを修正する。自動制御有効中は、操作者により入力部に入力された移動操作及び注視対象のモデルの移動に応じてカメラパラメータの一部が自動制御される。なお、自動制御されているカメラパラメータに対する入力があった場合、自動制御を解除する。
Figure 6 is a diagram showing an example of how camera parameters of a virtual camera are modified in embodiment 1. When the
図6(a)は、注視対象のモデル602と仮想カメラ601の注目点603の位置関係に基づくカメラパラメータの修正例を示す図である。操作者により注目点603を中心にした横回転の移動操作604及びそれらを組み合わせた移動操作後に、注視対象の移動により注視対象のモデル602の位置が注目点603から遠ざかることがある。このとき、注視対象のモデル602が仮想カメラ601の撮影画像内の注視領域604の内から外へ移動した場合に、制御判定部404により仮想カメラに自動制御を行うと判定される。自動制御が有効となると、注視対象のモデル情報と、自動制御が有効になったフレームでの仮想カメラのカメラパラメータを参照し、自動制御を行うパラメータを決定する。図6(a)では、操縦者による注目点603を中心にした横回転が終了し、操縦者が仮想カメラを操縦していないときに、注視対象602が注視領域604の外に出たとする。このとき、注目点603の位置座標が注視対象のモデル602の位置座標と一致するように仮想カメラが併進移動605する。なお、注目点603と注視対象のモデル602の位置座標を一致させる方法はこれに限定しない。自動制御有効中は、注目点603と注視対象のモデル602の位置座標が常に一致するように、フレームごとに注目点603の位置座標が更新され、仮想カメラが併進移動605する。このとき、自動制御が有効化された直後の注目点と仮想カメラの距離の値を記憶しておき、自動制御有効中は注目点603と仮想カメラ601の距離が常に記憶した値となるように仮想カメラが併進移動605する。ただし、操作者が拡大または縮小の操作を行った場合、変更後の値となるように仮想カメラを併進移動605させる。
6A is a diagram showing an example of camera parameter correction based on the positional relationship between the
図6(b)は、注視対象を含む被写体群の位置と仮想カメラの位置および姿勢の関係に基づくカメラパラメータの修正例を示す図である。操作者による仮想カメラの移動操作606及び注視対象のモデル602の位置の変化により、注視対象のモデル602が仮想カメラ601の撮影画像内の注視領域604の内から外へ移動した場合、自動制御が有効化されてカメラパラメータが修正される。自動制御が有効となると、注視対象のモデル602を注視するように仮想カメラが回転移動608する。ここで、注視対象のモデル602が注視対象ではない被写体607に遮られたために自動制御が有効になった場合においては、注目点603を中心にした横回転により仮想カメラを回転移動608させて注視対象を注視する。自動制御有効中は、注視対象設定部403から受信した注視対象のモデルの位置情報と、仮想カメラ情報取得部401から受信した仮想カメラのカメラパラメータを参照し、フレームごとに注視対象のモデルに対して注視しているかを判定する。注視されていないと判定された場合、注視対象のモデルを注視するように仮想カメラを併進移動または回転移動608させる。また、本実施形態では、注視対象が遮られていない位置まで回転移動608を行う。さらに、注視対象ではない被写体607が仮想カメラの光軸から所定の距離離れるまで回転移動608を行ってもよい。
6B is a diagram showing an example of camera parameter correction based on the relationship between the position of the group of objects including the gaze target and the position and attitude of the virtual camera. When the
図6(c)は、操作者による仮想カメラの移動操作に基づくカメラパラメータの修正例を示す図である。制御判定部404により自動制御を行うと判定されると、入力部に入力された移動操作及び注視対象のモデルの移動に応じて一部のカメラパラメータが自動制御される。自動制御有効中に、自動制御されているカメラパラメータに対する入力があった場合は、自動制御を解除する。例えば、X軸及びY軸方向の併進移動609が入力されているとき、X軸方向の併進移動に対しては、パンが対応し、Y軸方向の併進移動に対しては、チルトまたはパンが対応する。複数の移動操作が入力部に入力されている場合、自動制御されるカメラパラメータの総数が最小となるように自動制御されるカメラパラメータを決定するため、自動制御されるカメラパラメータはパンとなる。次に、移動操作がX軸及びY軸方向の併進移動609から注目点を中心とした横回転610に変更される。このとき、自動制御が有効になったときの操作はX軸及びY軸方向の併進移動609であったため、パンが自動制御されている。操作者は注目点を中心とした横回転610を入力したため、入力されるパラメータは仮想カメラの位置を指定するXおよびYに加え、仮想カメラの姿勢を指定するパンである。このとき、入力にパンが含まれているため、自動制御されていたパラメータに対する入力が行われたと判定し、自動制御が解除される。
Figure 6 (c) is a diagram showing an example of camera parameter correction based on the movement operation of the virtual camera by the operator. When the
図7は、実施形態1における画像処理装置の処理を表すフローチャートである。 Figure 7 is a flowchart showing the processing of the image processing device in embodiment 1.
ステップS701において、被写体モデル生成部402は、撮影システム101から異なる方向から撮影された複数枚の画像や、撮影装置の位置および姿勢のカメラパラメータを取得し、被写体モデルを生成する。
In step S701, the subject
ステップS702において、仮想カメラ情報取得部401は、情報処理装置103の入力部で入力された仮想カメラの移動操作から、仮想カメラの位置および姿勢などのカメラパラメータ情報を取得する。このカメラパラメータ情報は、操作者の入力情報をカメラパラメータに変換したものであるため、初期値または前のフレームのカメラパラメータを変更するための変更情報や更新情報とも言える。取得したカメラパラメータ情報は制御判定部404へ送信する。
In step S702, the virtual camera
ステップS703において、制御判定部404は、自動制御が有効になっているか否かを判定する。自動制御が有効になっていればステップS704に進む。自動制御が有効になっていなければ、ステップS706に進む。
In step S703, the
ステップS704において、制御判定部404は、ステップS702で取得したカメラパラメータ情報を参照し、自動制御中のカメラパラメータに対する入力が含まれているか判定する。自動制御中のカメラパラメータに対する入力が含まれていればステップS705に進む。自動制御中のカメラパラメータに対する入力が含まれていなければステップS706に進む。
In step S704, the
ステップS705において、制御判定部404は、有効になっている自動制御を解除する。このとき、自動制御を解除する情報を位置姿勢制御部に送信する。例えば、自動制御の有効か否かを判定するパラメータautoを設け、auto=1のとき自動制御が有効であり、auto=0のとき自動制御が無効であるとして情報を送信する。
In step S705, the
ステップS706において、注視対象設定部403は、情報処理装置103の入力部から操作者による注視対象を選択する入力を取得する。本実施形態では、S701にて生成した被写体モデルに対応する被写体IDを予め生成しておき、操作者が注視対象の被写体IDを入力することで注視対象を設定する。注視対象を選択する入力がない場合、注目点に最も近い被写体を注視対象として設定する。
In step S706, the gaze
ステップS707において、注視対象設定部403は、被写体モデル生成部402で生成された被写体モデルの位置情報を参照し、ステップS706で選択された被写体の位置情報と一致する被写体のモデル情報を取得する。
In step S707, the gaze
ステップS708において、制御判定部404は、ステップS702で取得した仮想カメラのカメラパラメータと、被写体モデル生成部402で生成された注視対象を含む全被写体のモデル情報を参照し、自動制御の有効化条件を満たすか否かを判断する。有効化条件を満たす場合はステップS709へ、満たさない場合はステップS714へ進む。なお、自動制御の有効か否かを示すパラメータautoがauto=1となっている場合は、自動制御の有効化条件を判定せずにステップS709に進む。
In step S708, the
ステップS709において、制御判定部404は、仮想カメラと注視対象のモデルの間に位置する注視対象ではない被写体により、撮影画像において注視対象が遮られているかを判断する。注視対象が遮られている場合はステップS713へ、遮られていない場合はS710へ進む。
In step S709, the
ステップS710において、仮想カメラ情報取得部401は、ステップS702で取得した仮想カメラの移動操作が併進移動であるか否かを判断する。併進移動の場合はステップS712、異なる場合はステップS711に進む。
In step S710, the virtual camera
ステップS711において、位置姿勢制御部405は、仮想カメラ情報取得部401から取得したカメラパラメータに対して、注視対象のモデルを注視するように仮想カメラを併進移動させ、カメラパラメータを修正する。また、ステップS702で取得する仮想カメラ情報が前のフレームと同一である場合、注視対象のモデルの移動に応じたカメラパラメータを自動制御する。具体的には、注視対象が移動した場合、注視対象のモデルを注視するように仮想カメラを併進移動させ、カメラパラメータを修正する。そして、修正後のカメラパラメータを仮想視点画像生成部406へ送信する。
In step S711, the position and
ステップS712において、位置姿勢制御部405は、仮想カメラ情報取得部401から取得したカメラパラメータに対して、注視対象のモデルを注視するように仮想カメラを回転移動させ、カメラパラメータを修正する。そして、修正後のカメラパラメータを仮想視点画像生成部406へ送信する。
In step S712, the position and
ステップS713において、位置姿勢制御部405は、仮想カメラ情報取得部401から取得したカメラパラメータに対して、注視対象のモデルを注視するように注目点を中心とした横回転・縦回転により仮想カメラを移動させ、カメラパラメータを修正する。そして、修正後のカメラパラメータを仮想視点画像生成部406へ送信する。
In step S713, the position and
ステップS714において、仮想視点画像生成部406は、ステップS701で生成した被写体のモデル情報と、ステップS702で取得したカメラパラメータ、または、ステップS711~S713で修正したカメラパラメータを取得する。そして、仮想カメラの位置および姿勢から見た被写体モデルのレンダリングを行い、仮想視点画像を生成する。このとき、ステップS706において、注視対象を選択する入力を取得していない場合はステップS702で取得したカメラパラメータを使用し、取得していた場合はS711~S713で修正したカメラパラメータを使用する。
In step S714, the virtual viewpoint
ステップS715において、情報処理装置の作業終了の指示があったかを判断する。作業終了の指示がない場合はステップS701戻り、ステップS701からステップS715までのフローを繰り返し、作業終了の指示があった場合はフローを終了する。 In step S715, it is determined whether an instruction to end the work on the information processing device has been given. If an instruction to end the work has not been given, the process returns to step S701 and the flow from step S701 to step S715 is repeated, and if an instruction to end the work has been given, the flow ends.
上記処理により、自動制御が有効になったときの操作者の操作内容に応じて、操作者の操作していないパラメータを自動制御し、自動制御が解除されるまで自動制御を続ける。本処理により、操作者の操作したいカメラパラメータが変更した場合にも、自動制御を解除することができ、操作者の意図する仮想視点画像を生成することができる。 By the above process, parameters not operated by the operator are automatically controlled according to the operation contents of the operator when the automatic control is enabled, and the automatic control continues until the automatic control is released. This process can release the automatic control even if the camera parameters that the operator wants to operate change, and the virtual viewpoint image that the operator intends can be generated.
本実施形態ではフレーム毎に処理を行うことになっているが、注視対象を注視する自動制御が有効な時刻を操作者が指定し、その間だけ処理が行われるようにしてもよい。 In this embodiment, the processing is performed for each frame, but the operator may specify the time during which the automatic control of gazing at the gaze target is effective, and the processing may be performed only during that time.
本実施形態では、選択された注視対象のモデル情報を読み込み、操作者による入力部への入力内容や、注視対象を含む被写体群の位置と仮想カメラの位置および姿勢、注目点の関係に基づいて、注視対象を注視するように仮想カメラの位置および姿勢を制御する。このとき、入力内容に応じて予め設定されたカメラパラメータを自動制御して注視する処理が行われるため、操作者は自動制御されるカメラパラメータを容易に予想でき、自動制御による自動制御と手動操作の両立時における操作ミスを防止することができる。また、注視したい被写体を注視できていない場合のみ、仮想カメラのカメラパラメータに自動制御を行うため、仮想視点画像撮影の利点であるカメラ移動の自由度を過度に低下させることがない。 In this embodiment, model information for the selected gaze target is read, and the position and attitude of the virtual camera are controlled to gaze at the gaze target based on the input contents by the operator to the input unit, the positions of the group of subjects including the gaze target, the position and attitude of the virtual camera, and the relationship of the point of interest. At this time, a process of gaze is performed by automatically controlling preset camera parameters according to the input contents, so that the operator can easily predict the camera parameters to be automatically controlled, and it is possible to prevent operational errors when automatic control by automatic control and manual operation are performed at the same time. In addition, automatic control of the camera parameters of the virtual camera is performed only when the subject to be gazed at is not gazed at, so there is no excessive reduction in the degree of freedom of camera movement, which is an advantage of virtual viewpoint image capture.
<実施形態2>
第1の実施形態では、操作者による入力部への入力内容や、注視対象を含む被写体群の位置と仮想カメラの位置および姿勢、注目点の関係に基づいて、注視対象を注視するように仮想カメラの位置および姿勢を制御する処理について説明した。このとき、注視のために自動制御されるカメラパラメータにおいては、自動制御されているカメラパラメータに対する操作者による入力部への入力があれば、自動制御を解除した。しかしながら、操縦者が自動制御を解除せずに自動制御中のカメラパラメータを調整したい可能性がある。例えば、第1の実施形態では、自動制御中は注視対象を注視するように自動制御したが、注視領域の端に注視対象がいるような仮想視点画像を生成したい可能性がある。そこで、第2の実施形態では、自動制御対象となっているカメラパラメータに対し、所定値以下の入力であれば自動制御を解除せずにカメラパラメータを変更できるものとする。
<Embodiment 2>
In the first embodiment, a process was described in which the position and attitude of the virtual camera are controlled to gaze at the target of gaze based on the contents of the input to the input unit by the operator, the position of the group of subjects including the target of gaze, the position and attitude of the virtual camera, and the relationship of the point of interest. At this time, in the camera parameters that are automatically controlled for gaze, if there is an input to the input unit by the operator for the automatically controlled camera parameters, the automatic control is released. However, there is a possibility that the operator wants to adjust the camera parameters during automatic control without releasing the automatic control. For example, in the first embodiment, the camera is automatically controlled to gaze at the target of gaze during automatic control, but there is a possibility that the operator wants to generate a virtual viewpoint image in which the target of gaze is at the edge of the gaze area. Therefore, in the second embodiment, it is assumed that the camera parameters that are the target of automatic control can be changed without releasing the automatic control if the input is equal to or less than a predetermined value.
自動制御されるカメラパラメータに対する入力部への入力量が微小の場合は、自動制御が無効化されず、自動制御されるパラメータに反映する。例えば、操作者が併進移動を入力しており、回転移動を自動制御としている場合、操縦者がX軸周りの回転移動(パン)を入力したとする。このとき、入力量が所定値以下であれば自動制御を解除せずパラメータを更新する。所定値は予め設定されているものとし、本実施形態では0.5m/sの入力量以下であれば自動制御を解除しないものとする。自動制御を解除しない場合、入力した操作はその自動制御が解除されるまで、自動制御の対象となるパラメータに反映される。つまり、自動制御中の仮想視点画像に映る注視対象の位置を調整できるようになり、操作者の所望の位置に注視対象を調整できることになる。入力量が微小か否かの判定は、制御判定部404により判定され、入力部に入力された入力量が操作者によりあらかじめ設定された基準値を下回る場合に微小と判定される。操作者は、入力部により基準値を入力し、制御判定部404がその数値を記憶、参照する。入力量が微小か否かの判定方法はこれに限定しない。例えば、自動制御されるカメラパラメータに対する入力部への入力量と、その他のカメラパラメータに対する入力量との相対的な比較によって入力量が微小か否かの判定をしてもよい。なお、入力部への入力に対し、重み係数をかけてカメラパラメータを制御する可能性が考えられる。その場合、カメラパラメータの変更量が所定値以下の入力であれば自動制御を解除せずにカメラパラメータを変更できるものとしてもよい。このようにすることで、操縦者による仮想カメラの入力が容易になる。
If the input amount to the input unit for the automatically controlled camera parameters is small, the automatic control is not disabled and is reflected in the automatically controlled parameters. For example, if the operator inputs a translational movement and the rotational movement is automatically controlled, the operator inputs a rotational movement (pan) around the X axis. At this time, if the input amount is less than a predetermined value, the automatic control is not released and the parameters are updated. The predetermined value is set in advance, and in this embodiment, if the input amount is less than 0.5 m/s, the automatic control is not released. If the automatic control is not released, the input operation is reflected in the parameters to be automatically controlled until the automatic control is released. In other words, the position of the gaze target reflected in the virtual viewpoint image during automatic control can be adjusted, and the gaze target can be adjusted to the operator's desired position. The
尚、本実施形態における制御の一部または全部を上述した実施形態の機能を実現するコンピュータプログラムをネットワークまたは各種記憶媒体を介して画像処理システム等に供給するようにしてもよい。そしてその画像処理システム等におけるコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、および該プログラムを記憶した記憶媒体は本開示を構成することとなる。 A computer program that realizes all or part of the control in this embodiment and the functions of the above-described embodiment may be supplied to an image processing system or the like via a network or various storage media. A computer (or a CPU, MPU, etc.) in the image processing system or the like may then read and execute the program. In this case, the program and the storage medium on which the program is stored constitute the present disclosure.
尚、本実施形態の開示は、以下の構成、方法及びプログラムを含む。 The disclosure of this embodiment includes the following configurations, methods, and programs.
(構成1)
複数の撮像装置により撮像される複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想カメラの位置または仮想カメラの姿勢を変更する変更情報を取得する取得手段と、
前記変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定手段と、
前記変更情報が前記仮想カメラの位置を変更する情報である場合、前記変更情報に基づいて前記仮想カメラの位置を変更しつつ特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの姿勢を変更し、前記変更情報が前記仮想カメラの姿勢を変更する情報である場合、前記変更情報に基づいて前記仮想カメラの姿勢を変更しつつ前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置を変更する変更手段と、
を有することを特徴とする装置。
(Configuration 1)
an acquisition means for acquiring change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
a determination means for determining whether the change information is information for changing a position of the virtual camera or information for changing an attitude of the virtual camera;
a modification means for, when the modification information is information for modifying a position of the virtual camera, modifying an attitude of the virtual camera so that a specific object is located on an optical axis of the virtual camera while modifying a position of the virtual camera based on the modification information, and for, when the modification information is information for modifying an attitude of the virtual camera, modifying a position of the virtual camera so that the specific object is located on the optical axis of the virtual camera while modifying the attitude of the virtual camera based on the modification information;
An apparatus comprising:
(構成2)
前記変更手段は、前記変更情報が前記仮想カメラの姿勢を変更する情報である場合、前記変更情報に基づいて前記仮想カメラの姿勢を変更し、さらに前記特定のオブジェクトと前記仮想カメラのとの距離を一定に保つように前記仮想カメラの位置を変更することを特徴とする構成1に記載の装置。
(Configuration 2)
The device described in configuration 1, characterized in that, when the change information is information for changing the attitude of the virtual camera, the change means changes the attitude of the virtual camera based on the change information, and further changes the position of the virtual camera so as to keep a constant distance between the specific object and the virtual camera.
(構成3)
更に、前記変更手段による変更を行うか否かを判定する変更判定手段を有することを特徴とする構成1乃至2の何れか1項に記載の装置。
(Configuration 3)
3. The apparatus according to claim 1, further comprising a change determining means for determining whether or not the change is to be made by the change means.
(構成4)
前記変更判定手段は、前記仮想カメラの注視点から所定の距離に前記特定のオブジェクトが位置していない場合に前記変更手段による変更を行うと判定し、前記仮想カメラの注視点から所定の距離に前記特定のオブジェクトが位置している場合に前記変更手段による変更を行わないと判定することを特徴とする構成3に記載の装置。
(Configuration 4)
The device described in configuration 3, wherein the change determination means determines that a change will be made by the change means when the specific object is not located at a predetermined distance from the virtual camera's point of view, and determines that a change will not be made by the change means when the specific object is located at a predetermined distance from the virtual camera's point of view.
(構成5)
前記取得手段は、オブジェクトの3次元モデルを取得し、
前記変更手段は、前記特定のオブジェクトの3次元モデルの重心位置が前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更することを特徴とする構成1乃至4の何れか1項に記載の装置。
(Configuration 5)
The obtaining means obtains a three-dimensional model of an object;
The device according to any one of configurations 1 to 4, wherein the modification means modifies the position and orientation of the virtual camera so that the center of gravity of the three-dimensional model of the specific object is located on the optical axis of the virtual camera.
(構成6)
前記仮想カメラの位置は、X軸、Y軸、Z軸のパラメータで表現され、
前記仮想カメラの姿勢は、パン、チルト、ロールのパラメータで表現されることを特徴とする構成1乃至5の何れか1項に記載の装置。
(Configuration 6)
The position of the virtual camera is expressed by X-axis, Y-axis, and Z-axis parameters,
The apparatus according to any one of configurations 1 to 5, wherein the attitude of the virtual camera is expressed by pan, tilt, and roll parameters.
(構成7)
更に、特定のオブジェクトを設定する設定手段を有することを特徴とする請求項1に記載の情報処理装置。
(Configuration 7)
2. The information processing apparatus according to claim 1, further comprising setting means for setting a specific object.
(構成8)
前記設定手段は、操作者による操作に基づいて、前記特定のオブジェクトを設定することを特徴とする構成7に記載の装置。
(Configuration 8)
The apparatus according to configuration 7, wherein the setting means sets the specific object based on an operation by an operator.
(構成9)
前記設定手段は、複数のオブジェクトの中から前記特定のオブジェクトを指定する入力に基づいて、前記特定のオブジェクトを設定することを特徴とする構成8に記載の装置。
(Configuration 9)
9. The apparatus according to configuration 8, wherein the setting means sets the specific object based on an input specifying the specific object from among a plurality of objects.
(構成10)
前記設定手段は、前記仮想カメラの注目点に最も近いオブジェクトを前記特定オブジェクトと設定することを特徴とする構成7に記載の装置。
(Configuration 10)
The apparatus according to configuration 7, wherein the setting means sets an object that is closest to a point of interest of the virtual camera as the specific object.
(構成11)
前記判定手段は、前記特定のオブジェクトと前記仮想カメラとを結ぶ光軸上に前記特定のオブジェクトと異なるオブジェクトが位置していないか判定し、
前記変更手段は、前記特定のオブジェクトと異なるオブジェクトが前記特定のオブジェクトと前記仮想カメラとを結ぶ光軸上に位置しないように、前記仮想カメラの位置および姿勢を変更することを特徴とする構成1乃至10の何れか1項に記載の装置。
(Configuration 11)
the determining means determines whether or not an object other than the specific object is located on an optical axis connecting the specific object and the virtual camera;
The device described in any one of configurations 1 to 10, characterized in that the modification means changes the position and orientation of the virtual camera so that an object other than the specific object is not located on an optical axis connecting the specific object and the virtual camera.
(構成12)
前記変更手段は、前記特定のオブジェクトの位置を中心とし、前記特定のオブジェクトの位置から前記仮想カメラまでの距離を半径とした円上を移動するように前記仮想カメラの位置および姿勢を変更することを特徴とする構成11に記載の装置。
(Configuration 12)
The device described in configuration 11, characterized in that the modification means modifies the position and orientation of the virtual camera so as to move on a circle having the position of the specific object as its center and the distance from the position of the specific object to the virtual camera as its radius.
(構成13)
前記変更情報は、ジョイスティックの入力に基づいて、前記仮想カメラの位置または前記仮想カメラの姿勢を変更することを特徴とする構成1乃至12の何れか1項に記載の装置。
(Configuration 13)
13. The device according to any one of configurations 1 to 12, wherein the change information changes the position or attitude of the virtual camera based on a joystick input.
(構成14)
更に、前記変更手段により変更された前記仮想カメラの位置および姿勢に基づいて生成される仮想視点画像を表示する表示手段を有することを特徴とする構成1乃至13の何れか1項に記載の装置。
(Configuration 14)
14. The apparatus according to any one of claims 1 to 13, further comprising a display means for displaying a virtual viewpoint image generated based on the position and attitude of the virtual camera changed by the change means.
(構成15)
前記変更情報は、前記仮想カメラの位置の変更量および前記仮想カメラの姿勢の変更量を含み、
前記変更手段は、前記変更量が所定値以下の場合、前記変更情報に基づいて前記仮想カメラの位置または姿勢を変更することを特徴とする構成1乃至14の何れか1項に記載の装置。
(Configuration 15)
the change information includes a change amount of the position of the virtual camera and a change amount of the attitude of the virtual camera,
15. The device according to any one of configurations 1 to 14, wherein the change means changes the position or attitude of the virtual camera based on the change information when the amount of change is equal to or less than a predetermined value.
(構成16)
複数の撮像装置により撮像される複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想カメラの位置または仮想カメラの姿勢を変更する第1変更情報を取得する取得手段と、
特定のオブジェクトを設定する設定手段と、
前記第1変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定手段と、
前記第1変更情報と前記判定手段の判定結果とに基づいて、前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更する第2変更情報を出力する出力手段と、
を有することを特徴とする装置。
(Configuration 16)
an acquisition means for acquiring first change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
A setting means for setting a particular object;
a determination means for determining whether the first change information is information for changing a position of a virtual camera or information for changing an attitude of the virtual camera;
an output means for outputting second modification information for modifying a position and an attitude of the virtual camera based on the first modification information and a determination result of the determination means so that the specific object is positioned on an optical axis of the virtual camera;
An apparatus comprising:
(方法)
複数の撮像装置により撮像される複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想カメラの位置または仮想カメラの姿勢を変更する変更情報を取得する取得工程と、
特定のオブジェクトを設定する設定工程と、
前記変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定工程と、
前記変更情報と前記判定手段の判定結果とに基づいて、前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更する変更工程と、
を有することを特徴とする情報処理方法。
(Method)
an acquisition step of acquiring change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
a configuration step for configuring a particular object;
a determination step of determining whether the change information is information for changing a position of a virtual camera or information for changing an attitude of the virtual camera;
a modifying step of modifying a position and an attitude of the virtual camera based on the modification information and a determination result of the determining means so that the specific object is located on an optical axis of the virtual camera;
13. An information processing method comprising:
(プログラム)
構成1乃至15の何れか1項に記載の装置の各手段をコンピュータにより制御するためのプログラム。
(program)
16. A program for controlling each means of the device according to any one of configurations 1 to 15 by a computer.
401 仮想カメラ情報取得部
403 注視対象設定部
404 制御判定部
405 位置姿勢制御部
401 Virtual camera
Claims (18)
前記変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定手段と、
前記変更情報が前記仮想カメラの位置を変更する情報である場合、前記変更情報に基づいて前記仮想カメラの位置を変更しつつ前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの姿勢を変更し、前記変更情報が前記仮想カメラの姿勢を変更する情報である場合、前記変更情報に基づいて前記仮想カメラの姿勢を変更しつつ前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置を変更する変更手段と、
を有することを特徴とする情報処理装置。 an acquisition means for acquiring change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
a determination means for determining whether the change information is information for changing a position of a virtual camera or information for changing an attitude of the virtual camera;
a modification means for, when the modification information is information for modifying a position of the virtual camera, modifying an attitude of the virtual camera so that the specific object is located on an optical axis of the virtual camera while modifying a position of the virtual camera based on the modification information, and for, when the modification information is information for modifying an attitude of the virtual camera, modifying a position of the virtual camera so that the specific object is located on the optical axis of the virtual camera while modifying the attitude of the virtual camera based on the modification information;
13. An information processing device comprising:
前記変更手段は、前記特定のオブジェクトの3次元モデルの重心位置が前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更することを特徴とする請求項1に記載の情報処理装置。 The obtaining means obtains a three-dimensional model of an object;
2 . The information processing apparatus according to claim 1 , wherein the change means changes the position and attitude of the virtual camera so that the center of gravity of the three-dimensional model of the specific object is positioned on the optical axis of the virtual camera.
前記仮想カメラの姿勢は、パン、チルト、ロールのパラメータで表現されることを特徴とする請求項1に記載の情報処理装置。 The position of the virtual camera is expressed by X-axis, Y-axis, and Z-axis parameters,
2 . The information processing apparatus according to claim 1 , wherein the attitude of the virtual camera is expressed by pan, tilt, and roll parameters.
前記変更手段は、前記特定のオブジェクトと異なるオブジェクトが前記特定のオブジェクトと前記仮想カメラとを結ぶ光軸上に位置しないように、前記仮想カメラの位置および姿勢を変更することを特徴とする請求項1に記載の情報処理装置。 the determining means determines whether or not an object other than the specific object is located on an optical axis connecting the specific object and the virtual camera;
2 . The information processing apparatus according to claim 1 , wherein the change means changes the position and attitude of the virtual camera so that an object other than the specific object is not positioned on an optical axis connecting the specific object and the virtual camera.
前記変更手段は、前記変更量が所定値以下の場合、前記変更情報に基づいて前記仮想カメラの位置または姿勢を変更することを特徴とする請求項1に記載の情報処理装置。 the change information includes a change amount of the position of the virtual camera and a change amount of the attitude of the virtual camera,
2 . The information processing apparatus according to claim 1 , wherein the change means changes the position or the attitude of the virtual camera based on the change information when the amount of change is equal to or smaller than a predetermined value.
特定のオブジェクトを設定する設定手段と、
前記第1変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定手段と、
前記第1変更情報と前記判定手段の判定結果とに基づいて、前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更する第2変更情報を出力する出力手段と、
を有することを特徴とする情報処理装置。 an acquisition means for acquiring first change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
A setting means for setting a particular object;
a determination means for determining whether the first change information is information for changing a position of a virtual camera or information for changing an attitude of the virtual camera;
an output means for outputting second modification information for modifying a position and an attitude of the virtual camera based on the first modification information and a determination result of the determination means so that the specific object is positioned on an optical axis of the virtual camera;
13. An information processing device comprising:
特定のオブジェクトを設定する設定工程と、
前記変更情報が、仮想カメラの位置を変更する情報か、仮想カメラの姿勢を変更する情報かを判定する判定工程と、
前記変更情報と前記判定手段の判定結果とに基づいて、前記特定のオブジェクトが前記仮想カメラの光軸上に位置するように前記仮想カメラの位置および姿勢を変更する変更工程と、
を有することを特徴とする情報処理方法。 an acquisition step of acquiring change information for changing a position or an attitude of a virtual camera corresponding to a virtual viewpoint image generated based on a plurality of captured images captured by a plurality of imaging devices;
a configuration step for configuring a particular object;
a determination step of determining whether the change information is information for changing a position of a virtual camera or information for changing an attitude of the virtual camera;
a modifying step of modifying a position and an attitude of the virtual camera based on the modification information and a determination result of the determining means so that the specific object is located on an optical axis of the virtual camera;
13. An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022166369A JP2024058941A (en) | 2022-10-17 | 2022-10-17 | Control device, control method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022166369A JP2024058941A (en) | 2022-10-17 | 2022-10-17 | Control device, control method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024058941A true JP2024058941A (en) | 2024-04-30 |
Family
ID=90827001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022166369A Pending JP2024058941A (en) | 2022-10-17 | 2022-10-17 | Control device, control method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024058941A (en) |
-
2022
- 2022-10-17 JP JP2022166369A patent/JP2024058941A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7459341B2 (en) | Information processing device, control method for information processing device, and program | |
KR20210136858A (en) | Image display apparatus, control method and program | |
JP2022184958A (en) | animation production system | |
WO2017122270A1 (en) | Image display device | |
US20220277511A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6450226B2 (en) | Camera control apparatus and program thereof | |
JP7454818B2 (en) | Animation production method | |
JP7480377B2 (en) | Information processing device, information processing method, and program | |
JP7287798B2 (en) | Remote camera system, control system, video output method, virtual camera work system, and program | |
JP2024058941A (en) | Control device, control method, and computer program | |
JP2023116432A (en) | animation production system | |
JP7455524B2 (en) | Information processing device, setting method, and program | |
JP2024019911A (en) | Head-mounted display and image displaying method | |
WO2022141122A1 (en) | Control method for unmanned aerial vehicle, and unmanned aerial vehicle and storage medium | |
JP7395296B2 (en) | Image processing device, image processing method, and program | |
JP2022012398A (en) | Information processor, information processing method, and program | |
CN115315684A (en) | Method for changing viewpoint in virtual space | |
JP2023175503A (en) | Image processing apparatus and its image processing method | |
JP6609201B2 (en) | Multi-view video generation system, multi-view video generation device and program thereof | |
JP2019219702A (en) | Method for controlling virtual camera in virtual space | |
WO2020235541A1 (en) | Image interface device, image manipulation device, manipulation-object manipulation device, manipulation-object manipulation system, manipulation-object presentation method, and manipulation-object presentation program | |
JP2022083816A (en) | Image generation apparatus, image generation method, and program | |
JP7127569B2 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2024070762A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |