JP2019145894A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2019145894A JP2019145894A JP2018025822A JP2018025822A JP2019145894A JP 2019145894 A JP2019145894 A JP 2019145894A JP 2018025822 A JP2018025822 A JP 2018025822A JP 2018025822 A JP2018025822 A JP 2018025822A JP 2019145894 A JP2019145894 A JP 2019145894A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- virtual
- virtual viewpoint
- image quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、仮想視点映像生成時における仮想カメラの経路を設定する技術に関する。 The present invention relates to a technique for setting a path of a virtual camera when generating a virtual viewpoint video.
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点映像生成技術がある。仮想視点映像生成技術は、スポーツ放送等において、より臨場感の高い映像表現として期待されているが、どのような視点からでも高画質の画像が得られるというわけではなく、その原理上の制約が存在する。例えば、実カメラで撮影された複数視点映像間の死角によって、仮想カメラからの映像を再現できない領域が存在する。また、オブジェクトから一定の距離よりも近い位置に仮想カメラを設定した場合には、実カメラによる撮影画像を拡大して描画することになるので、オブジェクトの解像度合いが低下したボケた映像となる。これらを考慮せずに仮想カメラの経路(時間軸に沿った仮想カメラの位置移動)を設定すると、得られる仮想視点映像は低画質なものになってしまう。そのため、出来上がった仮想視点映像をプレビュー画面等で確認し、満足のいく画像でなければ、仮想カメラの経路設定をやり直すことになる。 There is a virtual viewpoint video generation technology as a technology for reproducing video from a camera (virtual camera) that does not actually exist and is virtually arranged in a three-dimensional space using videos taken by a plurality of real cameras. Virtual viewpoint video generation technology is expected as a more realistic video expression in sports broadcasting etc., but it does not mean that high quality images can be obtained from any viewpoint, and there are limitations in principle. Exists. For example, there is an area where the image from the virtual camera cannot be reproduced due to the blind spot between the multiple viewpoint images captured by the real camera. Further, when the virtual camera is set at a position closer than a certain distance from the object, an image captured by the real camera is enlarged and drawn, resulting in a blurred image in which the resolution of the object is reduced. If the path of the virtual camera (position movement of the virtual camera along the time axis) is set without taking these into consideration, the obtained virtual viewpoint video has low image quality. Therefore, the completed virtual viewpoint video is confirmed on the preview screen or the like, and if the image is not satisfactory, the route setting of the virtual camera is performed again.
この点、特許文献1には、実カメラで撮影した複数視点映像間の死角の情報を2Dマップ上に可視化してユーザに提示し、実際に仮想視点映像を生成せずとも、事前に死角がどこにあるのかをユーザが確認できるようにする技術が提案されている。
In this regard, in
上記特許文献1の手法では、ユーザが事前に確認可能なのは死角情報のみで、生成される仮想視点映像の画質がどのようになるのかまでは事前に確認することはできなかった。そこで本発明では、仮想カメラの経路設定の時点で、仮想視点映像の予想される画質をユーザが事前に把握できるようにすることを目的とする。
In the method of
本発明に係る画像処理装置は、複数のカメラで撮影した複数視点画像から仮想視点画像を生成する画像処理装置であって、前記複数視点画像を取得する取得手段と、前記仮想視点画像に対応する仮想カメラのパラメータをユーザが設定するためのGUIと、設定された前記パラメータに基づき、前記複数視点画像を用いて前記仮想視点画像を生成する生成手段と、を備え、前記GUIには、前記仮想視点画像の画質に関する情報が表示されることを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus that generates a virtual viewpoint image from a plurality of viewpoint images captured by a plurality of cameras, and corresponds to the acquisition means for acquiring the plurality of viewpoint images and the virtual viewpoint image. A GUI for a user to set parameters of the virtual camera; and a generation unit that generates the virtual viewpoint image using the plurality of viewpoint images based on the set parameter, the GUI including the virtual camera Information on the image quality of the viewpoint image is displayed.
本発明によれば、ユーザは、仮想カメラの経路設定時において、生成される仮想視点映像の画質を把握することができる。 According to the present invention, the user can grasp the image quality of the generated virtual viewpoint video when setting the route of the virtual camera.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all the combinations of features described in the present embodiment are not necessarily essential to the solution means of the present invention.
図1は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。なお、仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される映像であり、自由視点画像や任意視点画像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であっても良い。本実施形態では、仮想視点画像が動画である場合の例を中心に説明する。図1に示す仮想視点映像システムは、画像処理装置100と2種類のカメラ群109及び110とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、様々なユーザ入力を受け付ける。表示部105は、液晶パネルなどで構成され、自由視点映像生成時の仮想カメラの経路設定のためのUI画面の表示などを行う。外部I/F部106は、カメラ群109及び110を構成する各カメラとネットワーク(ここではLAN108)を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
FIG. 1 is a diagram illustrating an example of a configuration of a virtual viewpoint video system in the present embodiment. Note that a virtual viewpoint image is a video generated by an end user and / or a selected operator who freely manipulates the position and orientation of a virtual camera, and is also referred to as a free viewpoint image or an arbitrary viewpoint image. The virtual viewpoint image may be a moving image or a still image. In the present embodiment, an example where the virtual viewpoint image is a moving image will be mainly described. The virtual viewpoint video system shown in FIG. 1 includes an
上記2種類のカメラ群は、それぞれズームカメラ群109と広角カメラ群110である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。広角カメラ群110は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、ズームカメラ群109及び広角カメラ群110を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、ズームカメラ群109及び広角カメラ群110は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。
The two types of camera groups are a
なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。 In addition to the above, there are various components of the system configuration, but the description is omitted because it is not the main point of the present invention.
図2(a)は、ズームカメラ群109と広角カメラ群110のカメラ配置の一例を示した図である。フィールド201は例えばサッカー等を行うスタジアム内のグラウンド面であり、その上にはオブジェクト(被写体)202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203と広角カメラ群110を構成する12台の広角カメラ204がフィールド201を取り囲むように配置されている。図2(b)において点線で囲まれた領域213は、ズームカメラ203の撮影領域を示している。ズームカメラ203は画角が狭いため撮影領域は狭いが、オブジェクト202を撮影した際の解像度合いは高いという特性を持つ。また、図2(c)において点線で囲まれた領域214は、広角カメラ204の撮影領域を示している。広角カメラ204は画角が広いため撮影領域は広いが、オブジェクト202を撮影した際の解像度合いは低いという特性を持つ。なお、図2(b)では撮影領域の形状を便宜的に楕円で示しているが、後述のとおり各カメラの実際の撮影領域の形状は矩形であるのが一般的である。
FIG. 2A is a diagram illustrating an example of the camera arrangement of the
続いて、動画の複数視点画像(以下、複数視点映像)から動画の仮想視点画像(以下、仮想視点映像)を生成する際の処理を例に、画像処理装置100の構成等について詳しく説明する。図3は、画像処理装置100の論理構成の一例を示す図である。また、図4は、画像処理装置100における、仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。図4に示す一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。なお、各処理の冒頭における記号「S」はステップを意味する。
S401では、ズームカメラ群109及び広角カメラ群110のそれぞれが同期撮影を行って得た複数視点の映像データが画像処理装置100に入力される。入力された複数視点(ここでは各12視点)の映像データは、メインメモリ102に展開される。
Next, the configuration and the like of the
In step S <b> 401, video data of a plurality of viewpoints obtained by performing synchronized shooting with the
S402では、形状推定部301において、S401で取得した複数視点映像データを用いて、撮影シーン内に存在する各オブジェクトの3次元形状推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。これにより、オブジェクトの3次元形状を表すデータ(例えば、ポリゴンデータやボクセルデータ)が生成される。
In S402, the
S403では、画質設定部303において、生成される仮想視点映像についての画質レベルが設定される。ここで、画質レベルには、解像度レベル、色差レベル、ノイズレベルなどが含まれる。この画質レベルの設定は、例えばGUIを介したユーザ入力に基づいて行う。仮想視点映像の画質レベルとして、ユーザが許容或いは満足できるレベルを予め設定することで、一定の基準を満たす画質の仮想視点映像を生成可能にする。ユーザ入力に基づく画質設定処理の詳細については後述する。なお、ユーザ入力に基づかずに、予め定めておいた例えば推奨される画質レベルが自動で設定されるようにしてもよい。
In S403, the image
S404では、仮想カメラ設定部304において、仮想視点映像の対象タイムフレームにおける仮想カメラの位置・姿勢(仮想カメラパス)や注視する点(仮想注視点パス)といったパラメータが、GUIを介したユーザ入力に基づき設定される。この際、S403で設定された画質レベルが得られる範囲を示す情報が、仮想カメラのパラメータ設定用UI画面上に表示される。仮想カメラのパラメータ設定処理に関する詳細は後述する。
In S404, in the virtual
S405では、仮想視点画像生成部305において、S404で設定された仮想カメラパラメータに従って、仮想視点映像が生成される。仮想視点映像は、S402の形状推定処理で得られたオブジェクトの3D形状データを用いて、設定された仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。この生成処理には公知の技術を適宜適用すればよく、本発明の主眼ではないので説明を省く。
In S405, the virtual viewpoint
以上が、本実施形態に係る、仮想視点映像が生成されるまでの大まかな流れである。なお、S401で入力された複数視点映像に対して画質を向上させる処理(例えば、超解像処理やエッジ鮮鋭化処理)を施し、得られた複数視点映像を元に仮想視点映像の生成を行なうように構成してもよい。これにより、画質向上処理後の複数視点映像の画質レベルを限界とした仮想視点映像の生成が可能となる。続いて、S403のユーザ入力に基づく画質設定処理、S404の仮想カメラ設定処理の詳細について順に説明する。 The above is a rough flow until the virtual viewpoint video is generated according to the present embodiment. Note that processing (for example, super-resolution processing and edge sharpening processing) for improving the image quality is performed on the multi-view video input in S401, and virtual viewpoint video is generated based on the obtained multi-view video. You may comprise as follows. This makes it possible to generate a virtual viewpoint video with the image quality level of the multi-viewpoint video after the image quality improvement processing as a limit. Next, details of the image quality setting process based on the user input in S403 and the virtual camera setting process in S404 will be described in order.
(画質設定処理)
図5は、画質設定処理の詳細を示すフローチャートの一例である。ここでは、解像度レベルをユーザが指定する場合を例に、画質設定処理を説明することとする。以下、図5のフローに沿って説明する。
(Image quality setting process)
FIG. 5 is an example of a flowchart showing details of the image quality setting process. Here, the image quality setting process will be described by taking as an example the case where the user specifies the resolution level. Hereinafter, it demonstrates along the flow of FIG.
S501では、すべてのカメラ群(ここではズームカメラ群109と広角カメラ群110の2種類)に属する各カメラのカメラ情報が取得される。カメラ情報には、カメラの設置位置、注視点位置、画角、焦点距離、イメージセンサの画素ピッチと縦横それぞれの総画素数といった情報が含まれる。このカメラ情報は、予め記憶部103に保持しておいたものを読み出して取得してもよいし、各カメラ(或いは各カメラ群を代表する1台のカメラ)にアクセスして取得してもよい。
In S501, camera information of each camera belonging to all camera groups (here, two types of
S502では、S501で取得したカメラ情報のうちカメラの設置位置と注視点位置の情報を用いて、各カメラから注視点までの撮影距離が算出される。この撮影距離d[mm]は、例えば以下の式(1)を用いて求めることができる。 In S502, the shooting distance from each camera to the gazing point is calculated using information on the camera installation position and the gazing point position in the camera information acquired in S501. The photographing distance d [mm] can be obtained using, for example, the following formula (1).
上記式(1)において、(Xc, Yc, Zc)はカメラの設置位置の3次元座標を表し、(Xo, Yo, Zo)は注視点位置の3次元座標を表している。この際の3次元座標の原点は、例えば、サッカー等の試合を行うスタジアムに各カメラを設置する場合であれば、サッカーコート内のセンターマークとする。図6は、座標原点をセンターマーク、各カメラ(図6中の菱形◆)の注視点(図6中の黒丸●)を一方のペナルティマークとした場合の、1つのカメラ群に属するカメラの設置位置(X座標とY座標)の一例を示している。図6において、X座標に対応する横軸、Y座標に対応する縦軸の単位は共に[mm]である。図6は二次元のグラフなので高さを表すZ座標の情報は含まれていないが、Z座標は例えば15000[mm]といった値となる。 In the above formula (1), (Xc, Yc, Zc) represents the three-dimensional coordinates of the camera installation position, and (Xo, Yo, Zo) represents the three-dimensional coordinates of the gazing point position. The origin of the three-dimensional coordinates at this time is, for example, a center mark in a soccer court when each camera is installed in a stadium where a game such as soccer is performed. Fig. 6 shows the installation of cameras belonging to one camera group when the origin of coordinates is the center mark and the gazing point (black circle in Fig. 6) of each camera (diamond in Fig. 6) is one penalty mark. An example of the position (X coordinate and Y coordinate) is shown. In FIG. 6, the unit of the horizontal axis corresponding to the X coordinate and the vertical axis corresponding to the Y coordinate is [mm]. Since FIG. 6 is a two-dimensional graph, information on the Z coordinate representing the height is not included, but the Z coordinate has a value of 15000 [mm], for example.
S502では、S501で算出した撮影距離に基づき、カメラ群毎に解像度が算出される。図7は、カメラ701の焦点距離をf[mm]、イメージセンサの横幅をSW[mm]、センサ横方向の総画素数x[pixel]としたときの、カメラ701とその撮影範囲702の幾何条件を示している。図7に示す幾何条件を前提としたとき、撮影範囲702の実空間上での横幅H[mm]は、以下の式(2)で表される。
In S502, the resolution is calculated for each camera group based on the shooting distance calculated in S501. FIG. 7 shows the geometry of the
上記式(2)において、カメラ701の画角θは、以下の式(3)で表される。
In the above equation (2), the angle of view θ of the
そして、横幅Hと総画素数xから、実空間上での単位長さ[mm]当たりにおける撮影画像の画素数を表す解像度Rpが得られる。この解像度Rp[pixel/mm]は、以下の式(4)で表される。 The resolution Rp representing the number of pixels of the captured image per unit length [mm] in real space is obtained from the horizontal width H and the total number of pixels x. This resolution Rp [pixel / mm] is expressed by the following equation (4).
上記式(4)において、pは画素ピッチ[mm]を表している。こうして得られる解像度Rpは、0〜1.0の範囲をとり、その値が大きいほど実空間を細かくサンプリングできており、高解像に撮影できていることを表す。そして、算出された各カメラの解像度Rpから、カメラ群毎の解像度が例えばその平均値をとるなどして決定される。なお、仮想視点映像を生成する都合上、各カメラ群に属する各カメラは、同一オブジェクトが同一サイズに撮像されるように焦点距離が調整されている。そのため、同じカメラ群に属するカメラであれば、どのカメラも同程度の解像度Rpが算出されることになる。つまり、ズームカメラ群109と広角カメラ群110のそれぞれから1種類の代表解像度が算出される。本実施形態の場合、例えば広角カメラ群110の代表解像度は0.5程度、ズームカメラ群109の代表解像度は1.0程度となり、ズームカメラ群109の方が高解像となる。
In the above formula (4), p represents the pixel pitch [mm]. The resolution Rp obtained in this way ranges from 0 to 1.0, and the larger the value, the finer the real space can be sampled, and the higher the resolution can be captured. Then, from the calculated resolution Rp of each camera, the resolution for each camera group is determined, for example, by taking an average value thereof. For convenience of generating the virtual viewpoint video, the focal lengths of the cameras belonging to the camera groups are adjusted so that the same object is imaged in the same size. Therefore, the same resolution Rp is calculated for all cameras belonging to the same camera group. That is, one type of representative resolution is calculated from each of the
S504では、仮想視点映像においてユーザが特定の解像度(例えば、許容可能な限界解像度)が、画質レベル設定用UI画面を介したユーザ入力に基づき設定される。図8の(a)及び(b)は、GUI制御部302によって表示部105に表示される画質レベル設定用UI画面の一例を示している。特定の解像度レベルを指定するユーザは、図8(a)の状態でボタン801〜803の中から解像度指定ボタン803を押下する。すると、図8(b)の状態へと遷移し、その画面左側にはS503で算出されたズームカメラ群の代表解像度が得られる範囲810と広角カメラ群の代表解像度が得られる範囲811が表示され、サブウィンドウ806がポップアップ表示される。ユーザは、サブウィンドウ806の中の入力欄807に所望の解像度Rpを入力して、OKボタン804を押下する。このとき、Rp=0は解像できないことを意味し原理的に成り立たないので、解像度Rpの範囲は、0〜< Rp ≦1.0となる。こうしてユーザは、仮想視点映像について許容可能な特定の解像度を指定することができる。例えば特定解像度として“0.7”が設定された場合には、広角カメラ群110で撮影された複数視点画像はこの解像度を満足することができないため、ズームカメラ群109で撮影された複数視点画像のみが仮想視点画像の生成に用いられることになる。また、特定解像度として“0.4”が設定された場合には、広角カメラ群110で撮影された複数視点画像とズームカメラ群109で撮影された複数視点画像の双方が仮想視点画像の生成に用いられることになる。なお、特定解像度をユーザが指定する方法は上述の例に限定されず、例えば、ユーザがより直観的に認識しやすいように、少なくとも2以上の異なる解像度にそれぞれ対応付けられた画像サンプルを提示して、ユーザが所望の解像度を指定できるようにしてもよい。画像サンプルは、ズームカメラ群109に属するカメラ203で撮影した最も高解像度の画像から生成可能である。具体的には、カメラ203の撮影画像を縮小した後、ニアレストネイバー等の手法で段階的に拡大することで解像度の異なる複数の画像サンプルを得る。こうして、例えば図9(a)に示すように複数(ここでは4つ)の解像度別の画像サンプルを用意し、サブウィンドウ906のように表示する(図9(b)を参照)。この場合、図9(b)に示すように、例えば画像サンプルA〜Dの各解像度レベルに対応する範囲を示すライン等を、例えばフィールドマップ上に表示させてもよい。これによりユーザは、解像度レベルの異なる画像を実際に確認しながら、自身が望む解像度レベルを指定することが可能になる。
In S504, a specific resolution (for example, an allowable limit resolution) by the user in the virtual viewpoint video is set based on the user input via the image quality level setting UI screen. 8A and 8B show an example of an image quality level setting UI screen displayed on the
以上が、ユーザ入力に基づく画質設定処理の内容である。なお、S503までの各処理については、会場設営後の準備段階でキャリブレーションを行うなどして、複数視点映像の撮影開始前に済ませておいてもよい。また、解像度を例に説明を行ったが、色差やノイズについても同様に適用可能である。 The above is the content of the image quality setting process based on the user input. Note that each processing up to S503 may be completed before the start of the shooting of the multi-viewpoint video by performing calibration at the preparation stage after the venue is set up. Further, although the description has been given taking the resolution as an example, the present invention can be similarly applied to color differences and noise.
<色差の場合>
色差レベルを指定する場合は、まず、全カメラ群に属する全カメラを対象とした全ての組合せについて、所属するカメラ群の共通撮影領域における、撮影画像内の平坦部の色相、明度、彩度の差から色差ΔEを、事前のキャリブレーション等で求めておく。そして、ユーザが例えば許容可能な色差ΔE_ (例えば、0〜10.0の範囲内)を、前述の画質レベル設定用UI画面を介して、解像度の場合と同様にユーザが指定できるようにする。色差ΔEは、その値が0のときカメラ間の色の差がまったくないことを表し、その値が大きいほどカメラ間の色の差が大きいことを表す。JIS規格や各種の工業界で一般的に使用されている例では、ΔE=1.6〜3.2の範囲であれば、離間比較では人がほとんど差に気付かないレベルだとされている。そこで、ユーザが指定した色差ΔE_uよりも小さい値の色差ΔEを持つ組合せだけを抽出し、当該組合せに含まれる複数のカメラにおける共通撮影領域を導出して、これを特定の色差レベルの仮想視点映像が得られる範囲を示す情報として仮想カメラ設定用UI画面に表示する。この特定色差レベルの範囲情報を参考にユーザが仮想カメラを設定し、指定した特定色差レベルを満たすカメラで撮影された複数視点映像データだけを仮想視点映像の生成に使用することで、一定の色差レベルが保証された仮想視点映像を得ることが可能になる。なお、共通撮影領域の導出方法については、後述する。
<For color difference>
When specifying the color difference level, first, for all combinations targeting all cameras belonging to all camera groups, the hue, brightness, and saturation of the flat part in the captured image in the common shooting area of the camera group to which it belongs. The color difference ΔE is obtained from the difference by prior calibration or the like. Then, for example, the user can specify an allowable color difference ΔE_ (for example, in the range of 0 to 10.0) via the image quality level setting UI screen, as in the case of the resolution. The color difference ΔE indicates that there is no color difference between the cameras when the value is 0, and the greater the value, the greater the color difference between the cameras. In examples generally used in the JIS standard and various industrial industries, it is said that if ΔE = 1.6 to 3.2, a person hardly notices the difference in the distance comparison. Therefore, only a combination having a color difference ΔE smaller than the color difference ΔE_u specified by the user is extracted, a common shooting area in a plurality of cameras included in the combination is derived, and this is a virtual viewpoint video with a specific color difference level. Is displayed on the virtual camera setting UI screen as information indicating the range in which can be obtained. The user sets a virtual camera with reference to this specific color difference level range information, and uses only the multi-viewpoint video data captured by the camera that satisfies the specified specific color difference level to generate a virtual viewpoint video. It is possible to obtain a virtual viewpoint video with a guaranteed level. A method for deriving the common imaging area will be described later.
<ノイズの場合>
ノイズについては、複数視点映像データにおいてテクスチャが存在しない平坦領域のSN比によって、仮想視点映像におけるノイズレベルを制御することができる。具体的には、まず、全カメラ群に属する全カメラを対象に、撮影画像内の平坦領域における平均輝度μと標準偏差σの比率であるSN比(=μ/σ)を、事前のキャリブレーション等で求めておく。そして、ユーザが例えば許容可能なSN比(例えば、0〜100[dB]の範囲内)を、前述の画質設定用UI画面を介して、解像度の場合と同様にユーザが指定できるようにする。SN比は、その値が0のときノイズ量が最大であることを表し、その値が大きいほどノイズ量が少ないことを表す。そこで、ユーザが指定したSN比よりも大きい値のSN比を持つカメラだけを抽出し、当該抽出された複数のカメラにおける共通撮影領域を導出して、これを特定のノイズレベルの仮想視点映像が得られる範囲を示す情報として仮想カメラ設定用UI画面に表示する。この特定ノイズレベルの範囲情報を参考にユーザが仮想カメラを設定し、指定したSN比を満たすカメラで撮影された複数視点映像データだけを仮想視点映像の生成に使用することで、一定のノイズレベルが保証された仮想視点映像を得ることが可能になる。
<In case of noise>
As for noise, the noise level in the virtual viewpoint video can be controlled by the SN ratio of the flat area where the texture does not exist in the multi-view video data. Specifically, first, for all cameras belonging to all camera groups, the SN ratio (= μ / σ), which is the ratio of the average luminance μ and the standard deviation σ in the flat area in the captured image, is preliminarily calibrated. Etc. Then, the user can specify, for example, an allowable SN ratio (for example, within a range of 0 to 100 [dB]), as in the case of the resolution, through the above-described image quality setting UI screen. The SN ratio indicates that the amount of noise is maximum when the value is 0, and that the larger the value, the smaller the amount of noise. Therefore, only a camera having an SN ratio that is larger than the SN ratio specified by the user is extracted, a common shooting area for the extracted plurality of cameras is derived, and this is used as a virtual viewpoint video of a specific noise level. Information on the obtained range is displayed on the virtual camera setting UI screen. The user sets a virtual camera with reference to this specific noise level range information, and uses only the multi-viewpoint video data captured by the camera that satisfies the specified signal-to-noise ratio to generate a virtual viewpoint video. Can be obtained.
なお、上述の説明では、設定対象の画質の種類に応じた任意の数値を自由にユーザが指定する例を説明したが、これに限定されない。例えば、「高」「低」或いは「大」「中」「小」といったように段階別のレベルを用意し、その中からユーザが任意のレベルを選択し、各レベルに対応する特定画質の範囲情報が表示されるようにしてもよい。さらには、解像度、色差、ノイズといった複数の画質要素を組合せた特定画質の範囲情報を表示するようにしても良い。 In the above description, an example in which the user freely designates an arbitrary numerical value according to the type of image quality to be set has been described, but the present invention is not limited to this. For example, “High”, “Low”, “Large”, “Medium”, and “Small” levels are prepared for each stage, and the user selects an arbitrary level from among them, and a specific image quality range corresponding to each level. Information may be displayed. Furthermore, specific image quality range information combining a plurality of image quality elements such as resolution, color difference, and noise may be displayed.
(仮想カメラ設定処理)
図10(a)は、仮想カメラのパラメータ設定を行う処理の流れを示すフローチャートである。以下、図10(a)のフローに沿って説明する。
(Virtual camera setting process)
FIG. 10A is a flowchart showing a flow of processing for setting the parameters of the virtual camera. Hereinafter, it demonstrates along the flow of Fig.10 (a).
S1001では、GUI制御部302によって、仮想カメラ設定用UI画面が表示部105に表示される。図11は、仮想カメラ設定用UI画面の一例を示している。 図11に示す仮想カメラ設定用UI画面1100では、フィールド201を真上から俯瞰で見たフィールドマップ1110が画面左側に表示されており、その上にS402で推定したオブジェクト(選手とボール)の3D形状がマッピングされている。図10(b)に示す詳細フローに沿って、仮想カメラのパラメータ設定を行うためのGUIの表示制御について説明する。
In step S <b> 1001, the
まず、S1011では、すべてのカメラ群(ここではズームカメラ群109と広角カメラ群110の2種類)に属する各カメラのカメラ情報が取得される。カメラ情報には、当該カメラの設置位置、注視点位置、画角、焦点距離、イメージセンサの画素ピッチと縦横それぞれの総画素数といった情報が含まれる。このカメラ情報は、予め記憶部103に保持しておいたものを読み出して取得してもよいし、各カメラ(或いは各カメラ群を代表する1台のカメラ)にアクセスして取得してもよい。
First, in S1011, camera information of each camera belonging to all camera groups (here, two types of
S1012では、取得した各カメラ群のカメラ情報に基づいて、略同じ画角を有する複数のカメラの撮影領域が重複する領域(共通撮影領域)が、カメラ群単位で導出される。ここで、「略同じ」と表現しているのはカメラから注視点までの距離の差によってカメラ間で微細な画角の変動が発生するためである。すなわち、同じカメラ群に属する各カメラの画角は完全に同じでなくてもよく、同程度の画角を有していればよい。図12は、カメラ群毎の共通撮影領域の導出方法を説明する図である。いま、サッカーコートのあるフィールド201に対して同じカメラ群に属する2台のカメラ1201と1202が同じ注視点を向いて撮影を行っている。このカメラ群の共通撮影領域は、カメラ1201から注視点に向けた四角錐とフィールド201との交面1211と、カメラ1202から注視点に向けた四角錐とフィールド201との交面1212とが重複する領域1213として求められる。ここでは、説明の便宜上、カメラ1201と1202の2台で説明を行ったが、3台以上でも考え方は同じである。こうして、各カメラ群についての共通撮影領域が導出される。
In S1012, based on the acquired camera information of each camera group, an area (common shooting area) where shooting areas of a plurality of cameras having substantially the same angle of view overlap is derived for each camera group. Here, the expression “substantially the same” is because a fine change in the angle of view occurs between the cameras due to a difference in distance from the camera to the gazing point. That is, the angles of view of the cameras belonging to the same camera group do not have to be completely the same, as long as they have the same angle of view. FIG. 12 is a diagram illustrating a method for deriving a common shooting area for each camera group. Now, two cameras 1201 and 1202 belonging to the same camera group are shooting with respect to the
S1013では、カメラ群毎の共通撮影領域が認識可能に仮想カメラ設定用UI画面の左側に表示される。図13は、フィールドマップ上に、カメラ群毎の共通撮影領域が認識可能に投影された結果の一例を示す図である。ここではフィールドマップを2次元で示しているが3次元でもよい。図13において、矩形の枠1300がフィールドマップを示す。そして、破線の楕円1301がズームカメラ群109の共通撮影領域(以下、ズームカメラ群撮影領域)を示している。ズームカメラ群撮影領域1301内では、ズームカメラ群109で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。ズームカメラ群撮影領域1301内では、オブジェクトの解像度合いが相対的に高いため、仮想カメラをオブジェクトに近づけても、仮想視点映像の画質を維持することが可能である。本実施形態の場合、ズームカメラ群撮影領域1301は、ズームカメラ群109に属する12台全てのズームカメラ203の撮影領域が重複する領域となっている。そして、一点鎖線の楕円1302が広角カメラ群110の共通撮影領域(以下、広角カメラ群撮影領域)を示している。広角カメラ群撮影領域1302内では、広角カメラ群110で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。広角カメラ群撮影領域1302内では、オブジェクトの解像度合いが相対的に低いため、仮想カメラをオブジェクトに一定以上近づけると、仮想視点映像の画質が悪化することになる。本実施形態の場合、広角カメラ群撮影領域1302は、広角カメラ群110に属する12台全ての広角カメラ204の撮影領域が重複する領域となっている。また、フィールドマップ1300内の斜線で示す領域1303は、広角カメラ群110に属する各広角カメラ204の撮影領域が重複せず、仮想視点映像生成が不可能な領域(以下、仮想視点映像生成不可領域)を示している。カメラ群毎の共通撮影領域は、例えば色分けなどによって識別可能に表示される。なお、図13では、説明の便宜上、各カメラ群の共通撮影領域の形状を楕円で示しているが、実際には多角形となる。
In step S1013, the common shooting area for each camera group is displayed on the left side of the virtual camera setting UI screen so as to be recognizable. FIG. 13 is a diagram illustrating an example of a result of recognizing and projecting a common shooting area for each camera group on the field map. Although the field map is shown in two dimensions here, it may be three dimensions. In FIG. 13, a
S1014では、仮想カメラ設定用UI画面を介して、どの領域を中心に仮想視点映像を生成するかについてのユーザ指定が受け付けられ、ユーザによって指定された領域が着目領域として設定される。この際、ユーザはマウスやタッチペン等を用いて、フィールドマップ1110内の所望の領域を指定する。図11において、破線の矩形1111がユーザ入力に基づいて設定された着目領域を示している。着目領域が設定されると、仮想カメラ設定用UI画面1100の左側は、当該着目領域1111を中心に拡大されたフィールドマップへと切り換わる。図14に、着目領域1111を中心に拡大されたフィールドマップ1400が表示された仮想カメラ設定用UI画面を示す。
In S1014, a user designation as to which region is used to generate the virtual viewpoint video is accepted via the virtual camera setting UI screen, and the region designated by the user is set as the region of interest. At this time, the user designates a desired area in the
S1015では、前述の画質設定処理で設定された特定画質レベルの仮想視点画像の生成可能な範囲が、着目領域設定後の仮想カメラ設定用UI画面におけるフィールドマップ上に示される。図14において、着目領域1111設定後の拡大フィールドマップ1400内の二点鎖線1401が、ユーザ指定の特定解像度が得られなくなる限界を示すラインである。二点鎖線1401近くにある白抜きの矢印が示す方向の範囲内で仮想カメラを設定すれば、特定解像度を満足する仮想視点映像が得られることになる。図10(a)のフローの説明に戻る。
In S1015, the range in which the virtual viewpoint image of the specific image quality level set in the image quality setting process described above can be generated is shown on the field map on the virtual camera setting UI screen after setting the region of interest. In FIG. 14, a two-
S1002では、仮想カメラ設定用UI画面を介したユーザ入力に基づいて、仮想カメラパスが設定される。仮想カメラパスを設定するユーザは、カメラパス指定ボタン1101を押下する。そして、別途設定のタイムフレーム(60fpsで撮影されたうちの10秒分であれば600フレーム)の間に移動する仮想カメラの軌跡をマウス等でフィールドマップ1400上に描くことで、仮想カメラパスを指定する。この際、ユーザは、フォールドマップ1400上に重畳表示されたライン等(図14の例では二点鎖線1401)によって、どのように仮想カメラを設定すれば、特定解像度を満たす仮想視点画像が得られるのかを事前に把握できる。こうしてユーザは、出来上がる仮想視点映像の解像度を予測しつつ仮想カメラパスの指定作業を行うことができる。図14において、フィールドマップ1400上の太線矢印1402は、こうして設定された仮想カメラのパスを示している。なお、設定されたパス1402上の任意の点Pをマウス等のドラッグ操作によって移動させることにより、パスの修正が可能である。また、この段階での仮想カメラパスのフィールド面からの高さはデフォルト値(例えば、15m)となる。
In S1002, a virtual camera path is set based on a user input via the virtual camera setting UI screen. A user who sets a virtual camera path presses a camera
S1003では、仮想カメラの高さ調整を行うか否かによって処理の切り分けがなされる。ユーザがカメラパス高さ編集ボタン1102を押下した場合は、S1004に進み、そうでない場合は仮想カメラ設定処理を終了する。
In S1003, the process is divided depending on whether or not the height of the virtual camera is adjusted. If the user presses the camera path
S1004では、仮想カメラの高さを調整する処理が実行される。ユーザは、仮想カメラパス1402上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うことによって、高さを変更したい仮想カメラの位置(高さ編集点)を指定する。高さ編集点が指定されると、仮想カメラ設定用UI画面内に、高さ設定ウィンドウ1410が表示される(図14を参照)。この高さ設定ウィンドウ1410には、フィールド201を真横(グラウンド面に対して水平方向)からみた画像1411が表示され、その中には特定解像度が得られなくなる限界を示すライン1401も表示される。ユーザは、高さ設定ウィンドウ1410内の入力欄1412に任意の値(単位:m、例えば0〜25m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この際、仮想カメラの高さが変わると、各オブジェクトまでの距離も変わることになる。例えば、仮想カメラの高さをより低い位置に変更すると各オブジェクトまでの距離が近くなってそのサイズが大きくなる一方で、解像度が落ちてボケた映像になりやすくなる。この場合、前述のS502で説明したやり方で、変更後の高さにおける撮影距離dに対応した解像度を求めて、上記ライン1401も更新する。これによりユーザは、高さ変更を行った場合に画質がどのように変化するのかを随時把握しながら、仮想カメラの高さを編集することができる。なお、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。
In S1004, a process for adjusting the height of the virtual camera is executed. The user moves the cursor to an arbitrary position (coordinates) on the
以上がS406における仮想カメラ設定処理の詳細である。 The above is the details of the virtual camera setting process in S406.
<変形例>
上述の例では、仮想カメラの設定する際のGUIにおいて、予め指定された画質レベルに関する情報を表示して、ユーザが仮想視点画像の出来上がりの画質を予測しながら仮想カメラを設定できるようにしている。GUIで事前に画質レベルに関する情報を表示するのに代えて、ユーザが設定した仮想カメラパスでは予め指定された画質レベルを満足しない場合にその旨を通知するメッセージによる警告表示を行うようにしてもよい。これによりユーザは、設定中の仮想カメラパスでは一定の画質レベルが保証されないことを知ることができ、仮想カメラの設定をやり直す機会を仮想視点画像の生成前に確保できる。また、仮想カメラ設定用UI画面でユーザが参照するフィールドマップ上に、ズームカメラ群撮影領域や広角カメラ群撮影領域を示す情報も併せて表示するようにしてもよい。
<Modification>
In the above-described example, in the GUI when setting the virtual camera, information on the image quality level designated in advance is displayed so that the user can set the virtual camera while predicting the final image quality of the virtual viewpoint image. . Instead of displaying information on the image quality level in advance using the GUI, if the image quality level specified in advance by the virtual camera path set by the user is not satisfied, a warning display with a message to that effect may be displayed. Good. Thus, the user can know that a certain image quality level is not guaranteed in the virtual camera path being set, and can secure an opportunity to redo the virtual camera setting before generating the virtual viewpoint image. Further, information indicating the zoom camera group shooting area and the wide-angle camera group shooting area may be displayed together on the field map referred to by the user on the virtual camera setting UI screen.
以上のとおり本実施形態によれば、仮想カメラの移動経路や高さを設定する際に、どのように仮想カメラを設定すれば、一定の画質が保証された仮想視点画像が得られるかをユーザは事前に把握することできる。その結果、仮想カメラのパラメータ設定作業を、出来上がった仮想視点画像を見た上で何度もやり直すという必要がなくなり、効率よく仮想視点画像を生成することができる。 As described above, according to this embodiment, when setting the movement path and height of the virtual camera, the user can determine how to set the virtual camera to obtain a virtual viewpoint image with a certain image quality guaranteed. Can be grasped in advance. As a result, it is not necessary to repeat the parameter setting operation of the virtual camera after viewing the completed virtual viewpoint image, and the virtual viewpoint image can be generated efficiently.
実施形態1では、仮想カメラを設定する際に、一定の画質レベルが保証される仮想カメラの設定範囲をユーザが事前に把握できるようにする態様について、解像度の場合を例に説明した。仮想視点映像において人が知覚できる解像度は、仮想カメラとオブジェクトとの相対速度によっても変わってくるところ、実施形態1ではこの点までは考慮していなかった。そこで、設定された仮想カメラとオブジェクトとの相対速度に応じて、ユーザが仮想カメラの移動速度を調整して、指定された特定解像度の条件が満たされるようにする態様を実施形態2として説明する。なお、実施形態1と共通する内容については説明を省略し、以下では差異点について述べるものとする。
In the first embodiment, when setting a virtual camera, the aspect in which the user can grasp in advance the setting range of the virtual camera that guarantees a certain image quality level has been described by taking the case of resolution as an example. The resolution that humans can perceive in the virtual viewpoint video varies depending on the relative speed between the virtual camera and the object, but this point has not been considered in the first embodiment. Therefore, a mode in which the user adjusts the moving speed of the virtual camera in accordance with the set relative speed between the virtual camera and the object so that the specified specific resolution condition is satisfied will be described as a second embodiment. . In addition, description is abbreviate | omitted about the content which is common in
本実施形態に係る仮想カメラの設定時における制御の説明に入る前に、オブジェクトの速度によって人が知覚できる解像度が変わる点について確認しておく。図15は、人間の動き刺激に対する視覚系の時空間周波数特性の一つである空間速度コントラスト感度関数(SV-CSF:Spatio-Velocity Contrast Sensitivity Function)を説明するグラフである。横軸は空間周波数、縦軸は人の視覚感度(応答特性)を表す。そして、曲線1501はオブジェクトの移動速度が比較的速い(秒速4.5m程度)の場合のSV-CSF、曲線1502は移動策度が比較的遅い(秒速1.5m程度)場合のSV-CSFを示している。人の視覚感度は、空間周波数が“0”のときに低く、空間周波数が高くなるにつれて急激に上昇する。その後、緩やかに下降して、高周波(=高解像度)であるほど感度が低くなり、限りなく“0”に近づいていく。さらに、SV-CSFはオブジェクトの移動速度が速いほど低周波側(左方向)に曲線の極大値がシフトしていく。例えば、オブジェクトの移動速度が相対的に遅い曲線1502の場合、空間周波数がs(例えば、s=8)のときとt(例えば、t=15)のときとでは応答特性に差があるため、解像度の違いを知覚可能である。しかしながら、オブジェクトの移動速度が相対的に速い曲線1501の場合、空間周波数がs以降は応答特性の値が“0”に収束しており解像度の違いを知覚することができない。このような人の視覚特性を利用して、特定解像度に収まるように仮想カメラとオブジェクトとの相対速度を調整する処理を行えるようにする。
Before entering the description of the control at the time of setting the virtual camera according to the present embodiment, it is confirmed that the resolution perceivable by a person changes depending on the speed of the object. FIG. 15 is a graph for explaining a space-velocity contrast sensitivity function (SV-CSF), which is one of the spatio-temporal frequency characteristics of the visual system with respect to human motion stimuli. The horizontal axis represents spatial frequency, and the vertical axis represents human visual sensitivity (response characteristics).
図16は、本実施形態に係る、仮想カメラ設定処理の流れを示すフローチャートである。S1601〜S1604は、実施形態1の図10(a)のフローのS1001〜S1004と同じである。ここまでの各ステップの処理によって仮想カメラが設定されると、続くS1605において、着目領域の中に存在するオブジェクトの中から注目するオブジェクトが、ユーザ入力等に基づいて決定される。図17は、本実施形態に係る、仮想カメラ設定用UI画面の一例である。ユーザは、図17に示す仮想カメラ設定用UI画面1100において、オブジェクト選択ボタン1701を押下した後、フィールドマップ1400上でマウス等を操作して注目するオブジェクトを選択する。すると選択されたオブジェクトが注目オブジェクトとして決定される。ここでは、4人の選手の中から最もボールに近い選手のオブジェクト1702が選択されたものとする。なお、ユーザが直接選択するのに代えて、予め登録した特定の選手やボールを注目オブジェクトとして自動で決定するように構成してもよい。
FIG. 16 is a flowchart showing a flow of virtual camera setting processing according to the present embodiment. S1601 to S1604 are the same as S1001 to S1004 in the flow of FIG. 10A of the first embodiment. When the virtual camera is set by the processing of each step so far, in S1605, an object of interest is determined from objects existing in the region of interest based on user input or the like. FIG. 17 is an example of a virtual camera setting UI screen according to the present embodiment. The user presses an
S1602では、対象タイムフレームにおける注目オブジェクトと仮想カメラの移動速度をそれぞれ算出し、両者間の相対速度がユーザ入力に基づき調整される。図18は、仮想カメラについての推奨される移動速度を説明するグラフである。縦軸は実際のオブジェクトとカメラとの相対速度を示し、横軸は空間周波数を示している。そして、曲線1801は、オブジェクトと仮想カメラとの相対速度について、低速〜高速までの複数のSV-CSFを求め、それぞれの感度が限りなく0に近づいたときの空間周波数をプロットしたものである。例えば、ユーザが指定した特定解像度が、曲線1801上の丸印1802に対応するとする。この場合、決定された注目オブジェクトと現在設定している仮想カメラとの相対速度がu[m/sec](例えば、u=2)を超えている場合には、ユーザに対し、仮想カメラの移動速度を調整するよう促す表示を行い、許容範囲内となるように調整させる。本実施形態では、仮想視点映像をテレビモニタ等のディスプレイ上で視聴することを想定している。このようなディスプレイ上で人がオブジェクトを知覚可能(追従視可能)な速度はおよそ30[degree/sec]であるため、これに対応する破線1803で示す速度を超えることがないように調整することになる。ユーザが速度編集ボタン1703を押下すると、速度設定用のサブウィンドウ1710がポップアップ表示される。このときのサブウィンドウ1710内のスライドバー1711のレンジは、ユーザが指定した特定解像度に対応したものとなる。例えば、上述の丸印1802の場合には0〜u[m/sec]のレンジとなる。このようにして、ユーザはスライドバー1711によって仮想カメラの速度調整を行う。
In S1602, the moving speed of the object of interest and the virtual camera in the target time frame is calculated, and the relative speed between them is adjusted based on the user input. FIG. 18 is a graph illustrating the recommended moving speed for the virtual camera. The vertical axis represents the relative speed between the actual object and the camera, and the horizontal axis represents the spatial frequency. A
以上が、本実施形態に係る、仮想カメラ設定処理の内容である。仮想カメラとオブジェクトとの相対速度に応じて、仮想カメラの移動速度を調整するようユーザに促して調整させることで、より高画質な仮想視点映像を確実に得ることができる。 The above is the content of the virtual camera setting process according to the present embodiment. By prompting and adjusting the user to adjust the moving speed of the virtual camera in accordance with the relative speed between the virtual camera and the object, a higher-quality virtual viewpoint video can be reliably obtained.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 画像処理装置
105 表示部
302 視点制御部
305 仮想視点画像生成部
100
Claims (14)
前記複数視点画像を取得する取得手段と、
前記仮想視点画像に対応する仮想カメラのパラメータをユーザが設定するためのGUIと、
設定された前記パラメータに基づき、前記複数視点画像を用いて前記仮想視点画像を生成する生成手段と、
を備え、
前記GUIには、前記仮想視点画像の画質に関する情報が表示される
ことを特徴とする画像処理装置。 An image processing device that generates a virtual viewpoint image from a plurality of viewpoint images captured by a plurality of cameras,
Obtaining means for obtaining the multi-viewpoint image;
A GUI for a user to set parameters of a virtual camera corresponding to the virtual viewpoint image;
Generating means for generating the virtual viewpoint image using the plurality of viewpoint images based on the set parameters;
With
The GUI displays information related to the image quality of the virtual viewpoint image.
前記画質に関する情報は、前記指定された画質レベルに応じて生成される
ことを特徴とする請求項1に記載の画像処理装置。 The GUI further accepts designation of an image quality level for the generated virtual viewpoint image,
The image processing apparatus according to claim 1, wherein the information related to the image quality is generated according to the designated image quality level.
前記画質に関する情報は、指定された解像度レベルを満足する仮想視点画像が得られる、前記仮想カメラの位置の範囲を示す情報であることを特徴とする請求項3に記載の画像処理装置。 The designation of the image quality level is designation of a resolution level,
The image processing apparatus according to claim 3, wherein the information on the image quality is information indicating a range of a position of the virtual camera from which a virtual viewpoint image satisfying a designated resolution level is obtained.
前記画質に関する情報は、指定された色差レベルを満足する仮想視点画像が得られる、前記仮想カメラの位置の範囲を示す情報である
ことを特徴とする請求項3に記載の画像処理装置。 The designation of the image quality level is designation of a color difference level,
The image processing apparatus according to claim 3, wherein the information related to the image quality is information indicating a range of a position of the virtual camera from which a virtual viewpoint image satisfying a specified color difference level is obtained.
前記画質に関する情報は、指定されたSN比を満足する仮想視点画像が得られる、前記仮想カメラの位置の範囲を示す情報である
ことを特徴とする請求項3に記載の画像処理装置。 The designation of the image quality is designation of an S / N ratio representing a noise level,
The image processing apparatus according to claim 3, wherein the information related to the image quality is information indicating a range of a position of the virtual camera from which a virtual viewpoint image satisfying a specified SN ratio is obtained.
前記複数視点画像を取得するステップと、
前記仮想視点画像の画質に関する情報が表示されたGUIを介して、前記仮想視点画像に対応する仮想カメラのパラメータの設定を受け付けるステップと、
設定された前記パラメータに基づき、前記複数視点画像を用いて前記仮想視点画像を生成するステップと、
を含むことを特徴とする画像処理方法。 An image processing method for generating a virtual viewpoint image from a plurality of viewpoint images photographed by a plurality of cameras,
Obtaining the multi-viewpoint image;
Receiving a setting of a parameter of a virtual camera corresponding to the virtual viewpoint image via a GUI on which information on the image quality of the virtual viewpoint image is displayed;
Generating the virtual viewpoint image using the plurality of viewpoint images based on the set parameters;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018025822A JP2019145894A (en) | 2018-02-16 | 2018-02-16 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018025822A JP2019145894A (en) | 2018-02-16 | 2018-02-16 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019145894A true JP2019145894A (en) | 2019-08-29 |
Family
ID=67772793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018025822A Pending JP2019145894A (en) | 2018-02-16 | 2018-02-16 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019145894A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021059669A1 (en) * | 2019-09-25 | 2021-04-01 |
-
2018
- 2018-02-16 JP JP2018025822A patent/JP2019145894A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021059669A1 (en) * | 2019-09-25 | 2021-04-01 | ||
WO2021059669A1 (en) * | 2019-09-25 | 2021-04-01 | ソニー株式会社 | Information processing device, video generation method, and program |
CN114450713A (en) * | 2019-09-25 | 2022-05-06 | 索尼集团公司 | Information processing apparatus, video generation method, and program |
EP4012664A4 (en) * | 2019-09-25 | 2022-10-12 | Sony Group Corporation | Information processing device, video generation method, and program |
US20220329770A1 (en) * | 2019-09-25 | 2022-10-13 | Sony Group Corporation | Information processing apparatus, video generation method and program |
JP7444172B2 (en) | 2019-09-25 | 2024-03-06 | ソニーグループ株式会社 | Information processing device, video generation method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7051457B2 (en) | Image processing equipment, image processing methods, and programs | |
US10970915B2 (en) | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium | |
KR102187974B1 (en) | Information processing apparatus, method, and program for generation of virtual viewpoint images | |
JP6434947B2 (en) | Imaging system, image processing apparatus, image processing method, and program | |
KR102342668B1 (en) | Image processing apparatus, image processing method and storage medium | |
JP6407460B1 (en) | Image processing apparatus, image processing method, and program | |
JP6849430B2 (en) | Image processing equipment, image processing methods, and programs | |
CN110460835B (en) | Image processing apparatus, control method thereof, and computer-readable storage medium | |
JP7073092B2 (en) | Image processing equipment, image processing methods and programs | |
JP6610535B2 (en) | Image processing apparatus and image processing method | |
US10885651B2 (en) | Information processing method, wearable electronic device, and processing apparatus and system | |
CN111466113B (en) | Apparatus and method for image capture | |
JP7027049B2 (en) | Image processing equipment, image processing methods and programs | |
KR20180123302A (en) | Method and Apparatus for Visualizing a Ball Trajectory | |
US20130222376A1 (en) | Stereo image display device | |
CN113348489A (en) | Image processing method and device | |
US20130083169A1 (en) | Image capturing apparatus, image processing apparatus, image processing method and program | |
US9767580B2 (en) | Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images | |
JP2006191408A (en) | Image display program | |
JP2019145894A (en) | Image processing device, image processing method, and program | |
JP2019144958A (en) | Image processing device, image processing method, and program | |
JP2012105172A (en) | Image generation device, image generation method, computer program, and record medium | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019067419A (en) | Image processing device, image processing method, and program |