JP7034666B2 - Virtual viewpoint image generator, generation method and program - Google Patents
Virtual viewpoint image generator, generation method and program Download PDFInfo
- Publication number
- JP7034666B2 JP7034666B2 JP2017204420A JP2017204420A JP7034666B2 JP 7034666 B2 JP7034666 B2 JP 7034666B2 JP 2017204420 A JP2017204420 A JP 2017204420A JP 2017204420 A JP2017204420 A JP 2017204420A JP 7034666 B2 JP7034666 B2 JP 7034666B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- viewpoint image
- image
- camera
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、複数視点映像から仮想視点画像を生成する画像処理に関する。 The present invention relates to image processing for generating a virtual viewpoint image from a plurality of viewpoint images.
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点画像技術がある。仮想視点画像技術は、スポーツ放送等において、より臨場感の高い映像表現として期待されている。仮想視点画像の生成では、実カメラで撮影した映像を画像処理装置に取り込んで、まずオブジェクトの形状推定を実施する。次に、形状推定の結果を基に仮想カメラの移動経路をユーザが決定し、仮想カメラから撮影した映像を再現する。ここで、例えば撮影シーンがサッカーの試合であれば、仮想カメラの移動経路の決定の際には、サッカーが行われるフィールド全域でオブジェクトである選手やボールの形状推定が行われている必要がある。しかし、広いフィールドの全域に対してオブジェクト形状の推定処理を実施する場合、実カメラで撮影された複数視点映像データの転送時間や形状推定処理時間の増大を招いてしまう。より迫力のある臨場感の高い試合放送の実現には、例えばシュートシーンの仮想視点画像をリプレイ映像として試合中にタイムリーに放送することが重要である。映像転送時間や形状推定処理時間の増大は、リアルタイム性の高い仮想視点画像生成の阻害要因となる。 There is a virtual viewpoint image technology as a technology for reproducing an image from a camera (virtual camera) that does not actually exist and is virtually arranged in a three-dimensional space by using images taken by a plurality of real cameras. Virtual viewpoint image technology is expected as a more realistic image expression in sports broadcasting and the like. In the generation of the virtual viewpoint image, the image taken by the actual camera is taken into the image processing device, and the shape of the object is first estimated. Next, the user determines the movement path of the virtual camera based on the result of shape estimation, and reproduces the image taken from the virtual camera. Here, for example, if the shooting scene is a soccer match, when determining the movement route of the virtual camera, it is necessary to estimate the shape of the player or the ball, which is an object, in the entire field where the soccer is played. .. However, when the object shape estimation process is performed on the entire area of a wide field, the transfer time and the shape estimation process time of the multi-viewpoint video data taken by the actual camera are increased. In order to realize a more powerful and realistic match broadcast, it is important to broadcast a virtual viewpoint image of a shoot scene as a replay image in a timely manner during the match. The increase in video transfer time and shape estimation processing time is an obstacle to the generation of highly real-time virtual viewpoint images.
この点、実カメラで撮影された映像データを異なる解像度で保持し、まず低解像度の映像で形状推定を実施し、その結果を初期値として次に高解像度の映像で形状推定を実施しこれを繰り返すことで処理時間を短縮させる技術が提案されている(特許文献1)。 In this regard, the video data taken by the actual camera is held at different resolutions, the shape is first estimated with the low resolution video, the result is used as the initial value, and then the shape is estimated with the high resolution video. A technique for shortening the processing time by repeating the process has been proposed (Patent Document 1).
しかしながら、上記特許文献1の手法では形状推定処理時間の短縮は可能でも、実カメラで撮影された複数視点映像データの画像処理装置への転送時間の短縮はできない。
However, although the method of
本発明に係る仮想視点画像生成装置は、フィールドを互いに異なる方向から撮影する複数の第1撮影装置により得られる複数の撮影画像であって、仮想視点の位置及び前記仮想視点からの視線方向に応じた第1仮想視点画像の生成に使用される複数の撮影画像を取得する第1取得手段と、前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2撮影装置により得られる1または複数の撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1取得手段により取得された前記複数の撮影画像に基づいて生成される前記第1仮想視点画像の評価結果に応じて決定する決定手段と、前記決定手段による決定に応じて、前記第2撮影装置により得られる1又は複数の撮影画像を取得する第2取得手段と、前記第1取得手段により取得された複数の撮影画像、及び、前記決定手段による決定に応じて前記第2取得手段により取得された1または複数の撮影画像に基づいて、前記第1仮想視点画像及び前記第2仮想視点画像を生成する生成手段と、を備えたことを特徴とする。
The virtual viewpoint image generation device according to the present invention is a plurality of captured images obtained by a plurality of first imaging devices that capture fields from different directions, depending on the position of the virtual viewpoint and the line-of-sight direction from the virtual viewpoint. It is obtained by a first acquisition means for acquiring a plurality of captured images used for generating a first virtual viewpoint image, and one or a plurality of second imaging devices that capture at least a part of the field from different directions. Alternatively, whether or not to generate a second virtual viewpoint image having a higher image quality than the first virtual viewpoint image based on the plurality of captured images is generated based on the plurality of captured images acquired by the first acquisition means . A determination means for determining according to the evaluation result of the first virtual viewpoint image, and a second acquisition means for acquiring one or a plurality of captured images obtained by the second imaging device according to the determination by the determination means. And, based on the plurality of captured images acquired by the first acquisition means and one or a plurality of captured images acquired by the second acquisition means according to the determination by the determination means, the first virtual viewpoint. It is characterized by comprising a generation means for generating an image and the second virtual viewpoint image .
本発明によれば、実カメラからの映像転送時間と画像処理装置における形状推定処理時間の両方を削減することができる。これにより、リアルタイム性の高い仮想視点映像生成が可能となる。 According to the present invention, both the video transfer time from the actual camera and the shape estimation processing time in the image processing apparatus can be reduced. This makes it possible to generate virtual viewpoint images with high real-time characteristics.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.
図1は、本実施例における、仮想視点画像システムの構成の一例を示す図である。なお仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される映像であり、仮想視点画像や任意視点画像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であっても良い。本実施形態では、仮想視点画像が動画である場合の例を中心に説明する。図1に示す仮想視点画像システムは、画像処理装置100と3種類のカメラ群109~111とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、ユーザからの操作入力を受け付ける。表示部105は、液晶パネルなどで構成され、仮想視点画像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109~111を構成する各カメラとLAN108を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
FIG. 1 is a diagram showing an example of the configuration of a virtual viewpoint image system in this embodiment. The virtual viewpoint image is an image generated by the end user and / or an appointed operator freely manipulating the position and posture of the virtual camera, and is also called a virtual viewpoint image or an arbitrary viewpoint image. Further, the virtual viewpoint image may be a moving image or a still image. In this embodiment, an example in which the virtual viewpoint image is a moving image will be mainly described. The virtual viewpoint image system shown in FIG. 1 is composed of an
上記3種類のカメラ群は、それぞれズームカメラ群109、標準カメラ群110、広角カメラ群111である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。標準カメラ群110は、画角が標準的なレンズ(例えば30度)を搭載した複数台のカメラで構成されている。広角カメラ群111は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、カメラ群109~111を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、各カメラ群109~111は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。
The above three types of cameras are a
なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。 Regarding the system configuration, there are various components other than the above, but since it is not the main subject of the present invention, the description thereof will be omitted.
図2(a)は、例えばサッカー等を行う競技場に、ズームカメラ群109、標準カメラ群110、広角カメラ群111の3種類のカメラ群からなる撮像システムにおけるカメラ配置の一例を示した図である。競技を行うフィールド201上にはオブジェクト202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203、標準カメラ群110を構成する8台の標準カメラ204、広角カメラ群111を構成する4台の広角カメラ205がフィールド201を取り囲むように配置されている。各カメラ群を構成するカメラの台数については、ズームカメラ203>標準カメラ204>広角カメラ205の関係が成り立つ。また、ズームカメラ203がオブジェクト202を囲む径の長さrzと、標準カメラ204がオブジェクト202を囲む径の長さrsと、広角カメラ205がオブジェクト202を囲む径の長さrwとの間には、rw>rs>rzの関係が成り立つ。これは、標準カメラ204及び広角カメラ205がより広い領域を撮影可能とするためである。図2(b)は、ズームカメラ203、標準カメラ204、広角カメラ205のフィールド201からの高さを示す図である。ズームカメラ203の高さhzと、標準カメラ204の高さhsと、広角カメラ205の高さhwとの間には、hw>hs>hzの関係が成り立つ。これも、標準カメラ204及び広角カメラ205がより広い領域を撮影するためである。
FIG. 2A is a diagram showing an example of camera arrangement in an imaging system consisting of three types of cameras, a
図3~図5は、カメラ群109~111それぞれの撮影領域を示す図である。まず、広角カメラ群111の撮影領域について説明する。図3に示すように、広角カメラ群111を構成する4台の広角カメラ205は、フィールド201の中心である広角注視点310を向き、フィールド201の全体を画角内に収めるように、等間隔に配置されている。このとき、4台の広角カメラ205の撮影領域が重複する領域を広角カメラ群撮影領域301とし、当該領域301内では、4台の広角カメラ205によって撮影された複数視点映像データを用いたオブジェクト202の形状推定が実施可能となる。なお、本実施形態では各カメラが等間隔に配置される場合の例を中心に説明するが、これに限らない。特に、スタジアムの形状などさまざまな事情を考慮してカメラ配置が決定されることがある。
3 to 5 are diagrams showing shooting areas of each of the
次に、標準カメラ群110の撮影領域について説明する。図4に示すように、標準カメラ群110を構成する8台の標準カメラ204は、更に2つのグループAとBに分類されており、グループAは4台の標準カメラ204Aで、グループBは4台の標準カメラ204Bで構成される。グループAの標準カメラ204Aは標準注視点311Aを向き、フィールド201の特定部分(左半分)を画角内に収めるように設計されている。また、グループBの標準カメラ204Bは標準注視点311Bを向き、フィールド201の特定部分(右半分)を画角に収めるように設計されている。図4に示すとおり、各グループに属する標準カメラ204A又は204Bは、例えば選手の正面を撮影する確率の高い方向に密に配置され、それ以外の方向(例えば選手の背面や側面方向を撮影する確率の高い方向)に疎に配置されている。このように、フィールドや競技(イベント)等の特性に応じてカメラ配置の疎密を設定することにより、例えば、少ないカメラ台数であっても仮想視点画像に対するユーザの満足度を向上させることができる。ただし、標準カメラの配置を等間隔にしても構わない。いま、グループAに属する4台の標準カメラ204Aの撮影領域が重複する領域を標準カメラ群撮影領域311A、グループBに属する4台の標準カメラ204Bの撮影領域が重複する領域を標準カメラ群撮影領域311Bとする。標準カメラ群撮影領域311A内では、4台の標準カメラ204Aによって撮影された複数視点映像データを用いたオブジェクト202の形状推定が実施可能となる。同様に、標準カメラ群撮影領域311B内では、4台の標準カメラ204Bによって撮影された複数視点映像データを用いたオブジェクト202の形状推定が実施可能となる。
Next, the shooting area of the
次に、ズームカメラ群109の撮影領域について説明する。図5に示すように、ズームカメラ群109を構成する16台のズームカメラ203は、更に4つのグループC、D、E、Fに分類される。具体的には、グループCは4台のズームカメラ203Cで、グループDは4台のズームカメラ203Dで、グループEは4台のズームカメラ203Eで、グループFは4台のズームカメラ203Fで構成される。そして、グループCのズームカメラ203Cはズーム注視点510Cを向き、フィールド201の特定部分(左上四分の一)を画角内に収めるように設計されている。また、グループDのズームカメラ203Dはズーム注視点510Dを向き、フィールド201の特定部分(左下四分の一)を画角に収めるように設計されている。グループEのズームカメラ203Eはズーム注視点510Eを向き、フィールド201の特定部分(右上四分の一)を画角内に収めるように設計されている。そして、グループFのズーム203Fカメラはズーム注視点510Fを向き、フィールド201の特定部分(右下四分の一)を画角に収めるよう設計されている。図5に示すとおり、各グループに属するズームカメラ203C~203Fは、選手の正面を撮影する確率の高い方向に密に配置され、選手の背面や側面方向を撮影する確率の高い方向に疎に配置されている。いま、各グループに属する4台のズームカメラ203C~203Fの撮影領域が重複する領域をそれぞれ、ズームカメラ群撮影領域501C、ズームカメラ群撮影領域501D、ズームカメラ群撮影領域501E、ズームカメラ群撮影領域501Fとする。ズームカメラ群撮影領域501C~501F内では、各4台のズームカメラ203C~203Fによって撮影された複数視点映像データを用いたオブジェクトの形状推定が実施可能となる。
Next, the shooting area of the
なお、カメラ台数や位置、グループ数、注視点位置等は一例を示したのもので、撮影シーン等に応じて変更されるものである。例えば、本実施例ではグループ単位で注視点を同一としているが、同一グループに属する各カメラが一定間隔を空けて異なる注視点を向いていてもよい。その場合の間隔調整については実施例2で説明する。また、本実施形態では、ズームカメラ群109、標準カメラ群110、及び広角カメラ群111という3種類のカメラ群を有するカメラシステムについて説明しているが、これに限らない。例えば、標準カメラ群110と広角カメラ群111の2種類のカメラ群のみ有するようにしてもよいし、4種類以上のカメラ群を有するようにしてもよい。また、上記では、カメラ群ごとにカメラ数や、撮像範囲や、設置の高さが異なる例を示したが、これに限らず、すべてのカメラ群のカメラ数が同じであってもよいし、各カメラの撮影範囲が同じ広さであってもよいし、各カメラの設置の高さが同じであってもよい。また、各カメラ群のカメラ数、撮影範囲、及び設置の高さ以外の要素が、カメラ群によって異なるようにしてもよい。例えば、第1カメラ群に属する複数カメラの有効画素数が、第2カメラ群に属する複数カメラの有効画素数よりも高くなるようにシステムを構築してもよい。また、少なくとも1つのカメラ群に属するカメラが1台という場合もありうる。このように、本実施形態で説明しているシステムの構成は一例に過ぎず、スタジアムの広さ、設備、カメラ数、及び予算等の制約に応じて、種々の変形を行うことが可能である。
The number and position of cameras, the number of groups, the position of the gazing point, etc. are shown as an example, and are changed according to the shooting scene and the like. For example, in this embodiment, the gazing points are the same for each group, but each camera belonging to the same group may face different gazing points at regular intervals. The interval adjustment in that case will be described in the second embodiment. Further, in the present embodiment, a camera system having three types of camera groups, that is, a
図6は、画像処理装置100において仮想視点画像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
FIG. 6 is a flowchart showing the entire flow until the virtual viewpoint image is generated in the
ステップ601では、各カメラ群109~111に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号が送信される。各カメラ群に属する各カメラは、受信した撮影パラメータに従って撮影を開始し、得られた映像データを各カメラ内のメモリに保持する。
In step 601, shooting parameters such as exposure conditions at the time of shooting and a signal for starting shooting are transmitted to each
ステップ602では、広角カメラ群111に属するすべての広角カメラ205によって撮影された複数視点映像データが取得される。取得された複数視点(ここでは4視点)の広角映像データは、メインメモリ102に展開される。前述のとおり、広角カメラ群111に属する広角カメラ205の数は他のカメラ群に属するカメラと比べて少ないため、各広角カメラ205からの映像データの転送に要する時間は短時間で済む。
In step 602, the multi-viewpoint video data captured by all the wide-
ステップ603では、広角カメラ群111から取得した複数視点映像データを用いてオブジェクトの3次元形状の推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。広角カメラ205によって撮影された映像データ内のオブジェクト領域は比較的に低解像度である。そのため、本ステップの形状推定によって得られる3次元形状データは低精細で粗いが、フィールド全体に存在するオブジェクトの形状を高速に推定できる。得られたオブジェクト形状データはその位置情報と共にメインメモリ102に保持される。
In step 603, the estimation process of the three-dimensional shape of the object is executed using the multi-viewpoint video data acquired from the wide-
ステップ604では、推定した低精細のオブジェクト形状データに基づき、自由始点映像の生成に必要な仮想カメラの移動経路といった各種パラメータが設定される。本実施例では、GUI(グラフィカル・ユーザ・インタフェース)を介したユーザ入力に基づいて、各種項目の値等が設定される。図7(a)及び(b)は、仮想カメラに関するパラメータ設定用GUI画面の一例を示す図である。図7(a)に示すGUI画面700内の左側には、フィールド201を含む撮影空間全体の俯瞰図(フィールドマップ701)上に、広角カメラ群撮影領域301が表示されている。広角カメラ群撮影領域301上には、ステップ603で取得したオブジェクトの3次元形状702がマッピングされる。ユーザは、オブジェクト202の位置やオブジェクト202の向いている方向などを、マッピングされたオブジェクト3次元形状702によって確認可能である。ユーザは、仮想カメラパス設定ボタン(不図示)を押下した上で、広角カメラ群撮影領域301上でマウス等を操作してカーソル703を移動することで、その移動軌跡を仮想カメラパス704として指定することができる。このとき指定される仮想カメラパスのフィールド201からの高さはデフォルト値(例えば、15m)となる。そして、仮想カメラパス704を指定した後、ユーザは、高さ編集ボタン(不図示)を押下して、指定した仮想カメラパスの高さを変更することができる。具体的には、広角カメラ群撮影領域301上に表示されている仮想カメラパス上の任意の位置(座標)にカーソル703を移動し、マウス等のクリック操作を行うことによって、高度を変更したい仮想カメラの位置(高さ編集点)を指定する。いま、広角カメラ群撮影領域301内に×印で示される箇所が、ユーザによって指定された高さ編集点を示している。この高さ編集点は複数個設定することが可能である。図7(a)の例では、P1とP2の2つの高さ編集点が設定されている。高さ編集点が設定されると、GUI画面700内の右側に高さ設定ウィンドウ705が表示される。ユーザは高さ設定ウィンドウ705内の各編集点に対応する入力欄706に任意の値(単位:m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この場合、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。仮想カメラパスを指定したユーザは、次に、タイムフレーム設定ボタン(不図示)を押下して、当該仮想カメラパスを仮想カメラが通過するのに要する時間(移動速度)を設定する。具体的には、タイムフレーム設定ボタンの押下に応答してGUI画面700内の右側にタイムフレーム設定ウィンドウ707が表示され、入力欄708(項目:t)に移動にかかる時間、入力欄709(項目:fps)にフレームレートの各値を入力する。時間とフレームレートが入力されると、生成する仮想視点画像のフレーム数が計算され、表示欄710(項目:frame)に表示される。図7(a)の例では、入力欄708に入力された時間が2[s]で、入力欄709に入力されたフレームレートが60[fps]であるので、120フレーム分の仮想視点からみた画像(以下、仮想視点画像)を生成することになる。このとき算出されたフレーム数は“F_Max”としてメインメモリ102上に保持される。さらに、ユーザは、指定した仮想カメラパス上での仮想カメラの向く方向を決めるため、注視点設定ボタン(不図示)を押下して、仮想カメラの注視点位置を設定する。具体的には、広角カメラ群撮影領域301内に表示されている仮想カメラパス上の任意の位置(座標)にカーソル703を移動し、マウス等のクリック操作を行うことによって、注視点を設定する対象の仮想カメラ位置(注視点設定点)を指定する。高さ編集点と同様、注視点設定点も複数個設定することが可能である。注視点設定点が設定されると、それらと対になった現時点の注視点の位置が自動的に表示される。このときの注視点位置は、例えばボールを持った選手など予め決められた注目オブジェクトの位置となる。図7(b)において、△印で示される箇所がユーザによって指定された注視点設定点(仮想カメラ位置)、☆印で示される箇所が対応する注視点位置である。図7(b)の例では、C1とC2の2つの注視点設定点が設定され、C1に対応する注視点としてT1、C2に対応する注視点としてT2が表示されている。注視点設定点が設定されると、GUI画面700内の右側に注視点設定ウィンドウ711が表示される。ユーザは注視点設定ウィンドウ711内の各設定点に対応する入力欄712に任意の座標(x,y,z)を入力することによって注視点設定点における仮想カメラが注視する位置を変更することができる。そして、注視点が変更された箇所以外の注視点は、近接する位置の注視点設定点又はデフォルトの注視点から補間して、注視点が急激に変化しないように調整される。以上のようにして、仮想カメラに関するパラメータが設定される。
In step 604, various parameters such as the movement path of the virtual camera necessary for generating the free start point image are set based on the estimated low-definition object shape data. In this embodiment, values of various items and the like are set based on user input via a GUI (graphical user interface). 7 (a) and 7 (b) are diagrams showing an example of a GUI screen for setting parameters related to a virtual camera. On the left side of the
ステップ605では、ステップ604で設定されたフレーム数分の仮想視点画像を生成するため、変数Fの格納領域がメインメモリ102に確保され、初期値として“0”が設定される。そして、続くステップ606で、設定された仮想カメラパラメータに従って、Fフレーム目の仮想視点画像が生成される。仮想視点画像生成処理の詳細に関しては後で詳述する。
In step 605, in order to generate virtual viewpoint images for the number of frames set in step 604, a storage area for the variable F is secured in the
ステップ607では、変数Fの値がインクリメント(+1)される。そして、ステップ608で、変数Fの値が、上述のF_Maxよりも大きいか否かが判定される。判定の結果、変数Fの値がF_Maxよりも大きい場合は、設定されたフレーム数分の仮想視点画像が生成されたこと(すなわち、設定されたタイムフレームに対応する仮想視点画像の完成)を意味するのでステップ609に進む。一方、変数Fの値がF_Max以下の場合はステップ606に戻って、次のフレームの仮想視点画像生成処理が実行される。 In step 607, the value of the variable F is incremented (+1). Then, in step 608, it is determined whether or not the value of the variable F is larger than the above-mentioned F_Max. As a result of the judgment, if the value of the variable F is larger than F_Max, it means that the virtual viewpoint images corresponding to the set number of frames have been generated (that is, the virtual viewpoint image corresponding to the set time frame is completed). Therefore, the process proceeds to step 609. On the other hand, when the value of the variable F is F_Max or less, the process returns to step 606 and the virtual viewpoint image generation process of the next frame is executed.
ステップ609では、仮想カメラパラメータの設定を変更して新たな仮想視点画像を生成するかどうかが判定される。この処理は、プレビューボタン(不図示)を押下すると表示されるプレビューウィンドウ713に表示された仮想視点画像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが仮想視点画像を生成し直したいと考えた場合は、仮想カメラパス設定ボタン等を再び押下し、改めて仮想カメラに関するパラメータ設定を行なう(ステップ604に戻る。)。そして、新たに設定された仮想カメラパラメータに従った内容で仮想視点画像が生成される。一方、生成された仮想視点画像に問題がなければ本処理を終える。以上が、本実施例に係る、仮想視点画像が生成されるまでの大まかな流れである。
In step 609, it is determined whether or not to change the setting of the virtual camera parameter to generate a new virtual viewpoint image. This process is performed based on an instruction from a user who has confirmed the image quality and the like by looking at the virtual viewpoint image displayed in the
続いて、前述のステップ606における仮想視点画像生成処理について詳しく説明する。図8は、本実施例に係る、仮想視点画像生成処理の詳細を示すフローチャートである。以下、図8のフローに沿って詳しく説明する。 Subsequently, the virtual viewpoint image generation process in step 606 described above will be described in detail. FIG. 8 is a flowchart showing the details of the virtual viewpoint image generation process according to the present embodiment. Hereinafter, a detailed description will be given along with the flow of FIG.
ステップ801では、前述のステップ605で設定した仮想カメラパスを基に、処理対象の注目フレームFiにおける仮想カメラ位置と注視点位置をそれぞれ取得する。続くステップ802では、取得した仮想カメラ位置と注視点位置から、注目フレームFiの仮想カメラの撮影領域Vrを導出する。図9は、仮想カメラの撮影領域の導出方法を説明する図である。図9において、仮想カメラ901から注視点902に向けて四角錐を形成し、四角錐とフィールド201との交面である矩形領域903が仮想カメラ撮影領域Vrとなる。そして、ステップ803では、ステップ801で取得した注視点位置に最も近いオブジェクトを検出し、最近傍オブジェクトとして設定する。図9において、符号904が最近傍オブジェクトを示している。
In step 801 are acquired the virtual camera position and the gazing point position in the frame Fi of interest to be processed, respectively, based on the virtual camera path set in step 605 described above. In the following step 802, the shooting area Vr of the virtual camera of the frame Fi of interest is derived from the acquired virtual camera position and gaze point position. FIG. 9 is a diagram illustrating a method of deriving a shooting area of a virtual camera. In FIG. 9, a quadrangular pyramid is formed from the
ステップ804では、設定された仮想カメラにおける最近傍オブジェクトの解像度合いを算出する。具体的には、注目フレームFiの仮想カメラからみた暫定的な仮想視点画像(広角カメラ205の複数視点映像データのみに基づく仮想視点画像)における最近傍オブジェクトが占める領域の割合Rを求める。この割合Rは、上記暫定的な仮想視点画像における最近傍オブジェクト領域の画素数を、当該画像全体の総画素数で割った値であり、例えば0.3といったような0~1の範囲の値となる。なお、本実施形態では、最近傍オブジェクトの解像度合いに基づいて暫定的な仮想視点画像を評価する例を中心に説明するが、最近傍オブジェクトに加えて、もしくは、最近傍オブジェクトに代えて、別のオブジェクトの解像度合いを評価するようにしてもよい。別のオブジェクトの例として、例えば、視聴者が選択したオブジェクト(例えば特定の選手)、暫定的な仮想視点画像の中心に最も近いオブジェクト、及び、正面を向いているオブジェクト(複数存在する場合にはその中で最も仮想カメラに近いオブジェクト)などが挙げられる。また、暫定的な仮想視点画像の評価のために参照するオブジェクトは、1つに限らず、複数であってもよい。 In step 804, the resolution of the nearest neighbor object in the set virtual camera is calculated. Specifically, the ratio R of the area occupied by the nearest neighbor object in the provisional virtual viewpoint image (virtual viewpoint image based only on the multi-viewpoint video data of the wide-angle camera 205) seen from the virtual camera of the frame Fi of interest is obtained. This ratio R is a value obtained by dividing the number of pixels of the nearest neighbor object area in the provisional virtual viewpoint image by the total number of pixels of the entire image, and is a value in the range of 0 to 1 such as 0.3. .. In this embodiment, an example of evaluating a provisional virtual viewpoint image based on the resolution of the nearest neighbor object will be mainly described, but it is different in addition to the nearest neighbor object or in place of the nearest neighbor object. You may want to evaluate the resolution of the object. Examples of other objects are, for example, the object selected by the viewer (eg, a particular player), the object closest to the center of the provisional virtual viewpoint image, and the object facing forward (if more than one). Among them, the object closest to the virtual camera) and so on. Further, the number of objects referred to for the evaluation of the provisional virtual viewpoint image is not limited to one, and may be plural.
ステップ805では、最近傍オブジェクトが標準カメラ群撮影領域内に存在するかどうかがそれぞれの位置座標に基づいて判定される。この場合において、最近傍オブジェクトの位置情報は前述のステップ603において導出されRAMメインメモリ102に保持されたものを用い、標準カメラ群撮影領域の位置情報は予め記憶部103に保持されたものを用いる。最近傍オブジェクトが標準カメラ群撮影領域内に存在する場合はステップ806に進む。一方、存在しない場合はステップ813に進み、広角カメラ群の複数視点映像データに基づく低精細のオブジェクト形状データを用いたレンダリングが実行されることになる。本実施例の場合、標準カメラ群撮影領域A又はBのいずれかに最近傍オブジェクトが含まれていればステップ806に進むことになる。
In
ステップ806では、暫定的な仮想視点画像における最近傍オブジェクトの解像度合いを表す割合Rが、第1の閾値Rsよりも大きいかどうかを判定する。ここで第1の閾値Rsは、最近傍オブジェクトが含まれていると判定された標準カメラ群に属するいずれかの標準カメラ204の撮影画像を取得し、当該撮影画像における上記最近傍オブジェクト領域の画素数を、その総画素数で割ることで得られる。これにより、注目フレームFiの仮想カメラと標準カメラ間での最近傍オブジェクトの解像度合いの比較が可能となる。図10(a)は、本ステップにおける判定内容を視覚的に表現した図であり、この場合は暫定的な仮想視点画像における最近傍オブジェクトの解像度合いの方が高い(割合Rの値が大きい)と判定されることになる。判定の結果、算出した割合Rの値が閾値Rsよりも大きい場合はステップ807に進む。一方、算出した割合Rの値が閾値Rs以下の場合はステップ813に進み、広角カメラ群の複数視点映像データに基づき生成された低精細のオブジェクト形状データを用いたレンダリングが実行される。なお、ステップ806の判定方法には種々の変形例が存在する。例えば、割合Rが閾値Rsよりも所定の閾値以上大きい場合にステップ807に進み、そうでない場合はステップ813に進むようにしてもよい。
In step 806, it is determined whether or not the ratio R representing the resolution of the nearest neighbor object in the provisional virtual viewpoint image is larger than the first threshold value Rs. Here, the first threshold Rs is a pixel of the nearest object region in the captured image obtained by acquiring an image captured by any of the
ステップ807では、上述のステップ805と同様、最近傍オブジェクトがズームカメラ群撮影領域内に存在するかどうかがそれぞれの位置座標に基づいて判定される。この場合において、ズームカメラ群撮影領域の位置情報も予め記憶部103に保持されている。最近傍オブジェクトがズームカメラ群撮影領域内に存在する場合はステップ808に進み、存在しない場合はステップ810に進む。本実施例の場合、ズーム群撮影領域C~Fのいずれかに最近傍オブジェクトが含まれていればステップ808に進むことになる。
In step 807, as in
ステップ808では、暫定的な仮想視点画像における最近傍オブジェクトの解像度合いを表す割合Rが、第2の閾値Rzよりも大きいかどうかを判定する。ここで第2の閾値Rzは、最近傍オブジェクトが含まれていると判定されたズームカメラ群に属するいずれかのズームカメラ203の撮影画像を取得し、当該撮影画像における最近傍オブジェクト領域の画素数を、その総画素数で割ることで得られる。これにより、注目フレームFiの仮想カメラとズームカメラ間での最近傍オブジェクトの解像度合いの比較が可能となる。図10(b)は、本ステップにおける判定内容を視覚的に表現した図であり、ここでも暫定的な仮想視点画像における最近傍オブジェクトの解像度合いの方が高い(割合Rの値が大きい)と判定されることになる。判定の結果、算出した割合Rの値が閾値Rzよりも大きい場合はステップ809に進む。一方、算出した割合Rの値が閾値Rz以下の場合はステップ810に進む。
In
ステップ809では、注目フレームFiの仮想カメラ撮影領域Vrにおけるオブジェクト形状の高精細な推定(再推定)に用いる複数視点映像データを、最近傍オブジェクトが存在すると判定されたズームカメラ群撮影領域に対応するズームカメラ群から取得する。取得した複数視点映像データは、メインメモリ102に展開される。また、ステップ810では、注目フレームFiの仮想カメラ撮影領域Vrにおけるオブジェクト形状の再推定(高精細)に用いる複数視点映像データを、最近傍オブジェクトが存在すると判定された標準カメラ群撮影領域に対応する標準カメラ群から取得する。取得した複数視点映像データは、メインメモリ102に展開される。
In
ステップ811では、メインメモリ102に展開された複数視点映像データを用いて、オブジェクト形状の再推定処理が実行される。これにより、前述のステップ603で得られたオブジェクト形状データよりも高精細なオブジェクト形状データが取得される。そして、ステップ812では、前述のステップ603の形状推定で得られた低精細のオブジェクト形状データを、ステップ811の形状推定で得られた高精細のオブジェクト形状データに置換する。
In step 811, the object shape re-estimation process is executed using the multi-viewpoint video data expanded in the
ステップ813では、ステップ812までの処理で決まったオブジェクト形状データとコンピュータグラフィックスにおけるレンダリング手法を用いて、注目フレームFiの仮想カメラから見た画像である仮想視点画像を生成する。 In step 813, a virtual viewpoint image which is an image seen from the virtual camera of the frame Fi of interest is generated by using the object shape data determined by the processes up to step 812 and the rendering method in computer graphics.
以上が、本実施例に係る仮想視点画像生成処理の内容である。なお、オブジェクト形状の再推定を行って、より高精細なオブジェクト形状データを取得するかどうかの判定において、本実施例では暫定的な仮想視点画像における最近傍オブジェクトの解像度合いを指標として用いたがこれに限定されない。例えば、最近傍オブジェクトと仮想カメラとの距離を指標とし、最近傍オブジェクトと仮想カメラ位置との距離が、最近傍オブジェクトとズームカメラ位置或いは標準カメラ位置との距離よりも遠い場合に、再推定を行うようにしてもよい。また、上述の実施形態では、暫定的な仮想視点画像の解像度合い(具体的には、最近傍オブジェクトの画素数を暫定的な仮想視点画像の画素数で割ることで得られる割合R)と、閾値(具体的には、標準カメラ群に属するカメラにより得られる撮像画像における最近傍オブジェクトの画素数を当該撮像画像の画素数で割ることで得られる閾値Rs)との比較結果に基づいて、より高画質な仮想視点画像を生成すべきか否かを判定する例を中心に説明した。しかしながら、この判定方法に限るものではなく、種々の変形が可能である。例えば、暫定的な仮想視点画像における割合Rが所定の閾値よりも大きければ(つまり仮想視点画像におけるオブジェクトのサイズが閾値より大きければ)、閾値Rsに関わらず高画質な仮想視点画像を生成すべきと判定されるようにしてもよい。また、他の方法としては、暫定的な仮想視点画像における最近傍オブジェクトの画質を評価し、その評価結果に応じて高画質な仮想視点画像を生成すべきか判定するようにしてもよい。最近傍オブジェクトの画質の評価方法としては、例えば、オブジェクトが正面を向いた人間であれば、顔の認識結果に基づいて評価する方法を用いてもよいし、オブジェクトのエッジの鮮明度合いに基づいて評価する方法を用いてもよい。これらの判定方法を用いれば、標準カメラ群の撮影画像を用いた判定方法よりも簡易な判定が可能となる。その他の変形例については以下で述べる。 The above is the content of the virtual viewpoint image generation process according to this embodiment. In this embodiment, the resolution of the nearest neighbor object in the provisional virtual viewpoint image is used as an index in determining whether to re-estimate the object shape and acquire higher-definition object shape data. Not limited to this. For example, using the distance between the nearest object and the virtual camera as an index, re-estimation is performed when the distance between the nearest object and the virtual camera position is farther than the distance between the nearest object and the zoom camera position or the standard camera position. You may do it. Further, in the above-described embodiment, the resolution of the provisional virtual viewpoint image (specifically, the ratio R obtained by dividing the number of pixels of the nearest object by the number of pixels of the provisional virtual viewpoint image) and Based on the comparison result with the threshold value (specifically, the threshold Rs obtained by dividing the number of pixels of the nearest object in the captured image obtained by a camera belonging to the standard camera group by the number of pixels of the captured image). The explanation focused on an example of determining whether or not to generate a high-quality virtual viewpoint image. However, the present invention is not limited to this determination method, and various modifications are possible. For example, if the ratio R in the provisional virtual viewpoint image is larger than a predetermined threshold value (that is, if the size of the object in the virtual viewpoint image is larger than the threshold value), a high-quality virtual viewpoint image should be generated regardless of the threshold value Rs. It may be determined that. Alternatively, as another method, the image quality of the nearest neighbor object in the provisional virtual viewpoint image may be evaluated, and it may be determined whether or not a high quality virtual viewpoint image should be generated according to the evaluation result. As a method of evaluating the image quality of the nearest neighbor object, for example, if the object is a human facing the front, a method of evaluating based on the recognition result of the face may be used, or based on the sharpness of the edge of the object. The evaluation method may be used. If these determination methods are used, it is possible to make a simpler determination than the determination method using the captured image of the standard camera group. Other modifications will be described below.
<変形例>
上述の実施例では、最初に広角カメラ群の複数視点映像データを用いて低精細のオブジェクト3次元形状を取得し、その後に仮想カメラパスに応じて標準又はズームカメラ群の複数視点映像データを用いて高精細のオブジェクト3次元形状を再取得して仮想視点画像を生成していた。しかしこれに限らない。例えば、広角カメラ群の複数視点映像データを用いた低精彩の3次元形状推定に代えて、オブジェクトを平面と見做した2次元の形状推定を行ってもよい(ビルボード法)。ビルボード法の場合は、前述のステップ603において、図11に示すフローを実行する。以下、詳しく説明する。
<Modification example>
In the above embodiment, the low-definition object 3D shape is first acquired using the multi-viewpoint video data of the wide-angle camera group, and then the multi-viewpoint video data of the standard or zoom camera group is used according to the virtual camera path. The high-definition object 3D shape was reacquired to generate a virtual viewpoint image. However, it is not limited to this. For example, instead of the low-definition three-dimensional shape estimation using the multi-viewpoint video data of the wide-angle camera group, the two-dimensional shape estimation in which the object is regarded as a plane may be performed (Billboard method). In the case of the billboard method, the flow shown in FIG. 11 is executed in step 603 described above. Hereinafter, it will be described in detail.
ステップ1101では、フィールド201上のオブジェクト位置が特定される。図12は、オブジェクト位置の特定方法を説明する図である。図12において、(a)の広角カメラ画像_1及び(b)の広角カメラ画像_2は、それぞれ異なる広角カメラ205によって撮影された画像であり、それぞれに1本のライン1201とオブジェクト1202が写っている。そして、図12(c)は、広角カメラ画像_1と広角カメラ画像_2に対して、フィールド面を基準として射影変換を行って合成した、射影変換後合成画像である。射影変換後合成画像では、ライン1201は1本のままであるが、オブジェクト1202は2つに分離しているのが分かる。この特性を利用して、分離の基点となっている×印で示す位置がオブジェクト位置1203として特定される。
In
ステップ1102では、特定されたオブジェクト位置に平板が設置される。そして、続くステップ1103では、設置した平板に対して、広角カメラ205の撮影画像から切り出したオブジェクトの部分画像が投影される。図13は、平板にオブジェクトの部分画像が投影された状態を示す図である。フィールド201上に存在するオブジェクトの数の分だけ設置された平板1300に、各オブジェクトの部分画像が投影されているのが分かる。
In step 1102, a flat plate is installed at the specified object position. Then, in the following step 1103, a partial image of the object cut out from the captured image of the wide-
以上が、本変形例に係る処理の内容である。オブジェクトの形状を2次元で処理するため、高速な処理が可能である。 The above is the content of the processing related to this modification. Since the shape of the object is processed in two dimensions, high-speed processing is possible.
また、平板を設置して切り出し画像を投影する代わりに、予め用意したオブジェクト形状(例えば、3Dレンジスキャナによるスキャンや、手動でモデリングされたオブジェクト形状)を、特定されたオブジェクト位置に配置してもよい。 Also, instead of installing a flat plate and projecting a cutout image, a prepared object shape (for example, a scan with a 3D range scanner or a manually modeled object shape) can be placed at the specified object position. good.
なお、本変形例の場合は、仮想視点画像生成処理(ステップ606)における処理の一部が変わることになる。すなわち、ステップ805及びステップ806の判定処理で“No”となった場合にも、ステップ813ではなくステップ811に進んでオブジェクトの3次元形状の推定処理が実行される。この際の推定には、ステップ602で取得済みの広角カメラ群の複数視点映像データが用いられることになる。図8のフローにおける破線の矢印800はこのことを示している。この場合も、注目フレームFiの仮想カメラの撮影領域Vrに含まれるオブジェクトのみを形状推定することで、処理の高速化が可能である。
In the case of this modification, a part of the processing in the virtual viewpoint image generation processing (step 606) will be changed. That is, even when the determination process of
以上のとおり本実施例によれば、画質を維持したまま注目オブジェクトに仮想カメラがより接近できる場合のみ、より狭い画角のカメラ群で撮影された複数視点映像データを取得して高精細なオブジェクト形状推定や仮想視点画像の生成を行う。したがって、必要最小限のデータ転送量と処理負荷に抑制することができる。これにより、よりリアルタイム性の高い仮想視点画像生成が可能となる。 As described above, according to this embodiment, only when the virtual camera can be closer to the object of interest while maintaining the image quality, the multi-viewpoint video data taken by the camera group with a narrower angle of view is acquired and the high-definition object is obtained. Performs shape estimation and virtual viewpoint image generation. Therefore, the minimum required data transfer amount and processing load can be suppressed. This makes it possible to generate a virtual viewpoint image with higher real-time performance.
次に、広角カメラ群以外のカメラ群(実施例1ではズームカメラ群と標準カメラ群)の撮影領域を撮影シーンに応じて最適化して、映像転送時間や形状推定処理時間の更なる削減を可能にする態様について実施例2として説明する。システム構成や仮想視点画像生成、処理の大まかな過程は、実施例1と同一であるため説明を省略し、以下では異なる点を中心に簡潔に説明する。 Next, it is possible to further reduce the video transfer time and shape estimation processing time by optimizing the shooting area of the camera group other than the wide-angle camera group (zoom camera group and standard camera group in Example 1) according to the shooting scene. The embodiment of the above will be described as Example 2. Since the general process of system configuration, virtual viewpoint image generation, and processing is the same as that of the first embodiment, the description thereof will be omitted, and the differences will be briefly described below.
図14は、本実施例に係る、標準カメラ群とズームカメラ群の撮影領域を最適化する処理の流れを示すフローチャートである。なお、本実施例の前提として、本処理を実行前のデフォルト状態では、各カメラ群内の同一グループに属する各カメラは一定間隔を空けてそれぞれ異なる方向を向いている(注視点が異なる)ものとする。 FIG. 14 is a flowchart showing a flow of processing for optimizing the shooting area of the standard camera group and the zoom camera group according to the present embodiment. As a premise of this embodiment, in the default state before executing this process, each camera belonging to the same group in each camera group faces in a different direction at regular intervals (the gazing point is different). And.
ステップ1401では、撮影シーンの設定(例えば球技を撮影対象とするのか陸上競技を撮影対象とするのか)が、不図示のUI画面を介したユーザ入力に基づいてなされる。続くステップ1402では、設定された撮影シーンが、所定高度以上の高高度領域を撮影する必要のあるシーンであるか否かが判定される。ここで、高高度領域の撮影を必要とする撮影シーンとは、ボールが数十m程度まで達するサッカーやラグビーといった球技などである。また、所定高度未満で高高度領域の撮影を要しない撮影シーン(低高度領域の撮影で足りるシーン)とは、陸上の短距離走などである。判定の結果、高高度領域の撮影を伴う撮影シーンである場合はステップ1403に進む。一方、高高度領域の撮影を伴わない撮影シーンである場合はステップ1404に進む。
In
ステップ1403では、ズームカメラ群109及び標準カメラ群110に属する各カメラの位置は固定したままで、注視点間の距離をグループ単位で縮小する(又はグループ内の各カメラの注視点を同一にする)。また、ステップ1404では、ズームカメラ群109及び標準カメラ群110に属する各カメラの位置は維持したままで、注視点間の距離をグループ単位で拡大(又は維持)する。図15は、各カメラ群のグループ単位で注視点間の距離を調整することで、標準カメラ群撮影領域やズームカメラ群撮影領域が変化する様子を説明する図である。図15(a)は注視点間距離を最大限に縮小(同一の注視点に変更)した場合の説明図である。図15(a)において、2つの白丸印1501と1502は2台のカメラ1511と1512の変更前のそれぞれの注視点を示している。そして、1つの黒丸印1503が変更後の注視点を示しており、2台のカメラ1511と1512が共に同じ注視点を向いている。このとき、フィールド面に沿ったカメラ群撮影領域Xは狭くなるが、高さ方向のカメラ群撮影領域Zは変更前よりも広くなる。そのため、ボールが高高度に達する球技等の撮影に好適な撮影領域となる。これに対し図15(b)は注視点間距離を拡大した場合の説明図である。図15(b)において、黒丸印1504がカメラ1511の変更後の注視点、黒丸印1505がカメラ1512の変更後の注視点をそれぞれ示しており、注視点間の間隔が拡がっているのがわかる。このとき、フィールド面に沿ったカメラ群撮影領域Xは広くなるが、高さ方向のカメラ群撮影領域Zは狭くなる。そのため、陸上の短距離走等においては、フィールド面と平行に広範囲な領域を撮影できる。
In step 1403, the positions of the cameras belonging to the
以上が、本実施例に係る、標準カメラ群とズームカメラ群の撮影領域を最適化する処理の内容である。なお、本実施例では、単一の所定高度を基準(閾値)として、所定高度以上の場合に注視点間距離を縮小し、所定高度未満の場合に注視点間距離を拡大(又は維持)しているが、これに限らない。例えば、注視点間距離を縮小する場合の閾値と拡大する場合の閾値とをそれぞれ別個に設けてもよい。本処理によって、1つの競技の撮影に必要なカメラ台数を削減することができる。また、削減したカメラを用いて、他の競技を同時に撮影するなど、利便性の向上も期待できる。 The above is the content of the process for optimizing the shooting area of the standard camera group and the zoom camera group according to this embodiment. In this embodiment, the distance between gaze points is reduced when the altitude is higher than the predetermined altitude, and the distance between gaze points is increased (or maintained) when the altitude is lower than the predetermined altitude, using a single predetermined altitude as a reference (threshold value). However, it is not limited to this. For example, a threshold value for reducing the distance between gazing points and a threshold value for increasing the distance between gaze points may be provided separately. By this processing, the number of cameras required for shooting one competition can be reduced. In addition, it can be expected to improve convenience, such as shooting other competitions at the same time using a reduced number of cameras.
本実施例によれば、広角カメラ群以外のカメラ群の撮影領域を撮影シーンに応じて最適化することができる。これにより、映像転送時間や処理時間の更なる削減が可能となる。 According to this embodiment, the shooting area of the camera group other than the wide-angle camera group can be optimized according to the shooting scene. This makes it possible to further reduce the video transfer time and processing time.
続いて、データベースを用いて、仮想カメラに関する設定を自動で行なう態様について、実施例3として説明する。実施例1及び2と共通する内容は説明を省略し、以下では異なる点を中心に説明する。 Subsequently, a mode in which the setting related to the virtual camera is automatically performed using the database will be described as Example 3. The contents common to the first and second embodiments will be omitted, and the differences will be mainly described below.
図16は、本実施例に係る、前述の図6のフローにおけるステップ604に代えて実行する、仮想カメラの各種項目を自動設定する処理の詳細を示すフローチャートである。 FIG. 16 is a flowchart showing the details of the process for automatically setting various items of the virtual camera, which is executed in place of step 604 in the flow of FIG. 6 described above, according to this embodiment.
ステップ1601では、不図示の外部ネットワークを介して接続される、撮影シーン解析データベース(以下、「シーンDB」)に対して、撮影シーンの解析を依頼する。画像処理装置100は、シーンDBとLAN108経由で接続され、シーンDBはさらに、外部から接続可能なネットワーク上に設置されている。シーンDBは、過去の撮影シーンに関する様々な情報を蓄積しており、画像処理装置100から解析に必要な情報を受け取って、撮影シーンの解析処理を実行する。図17は、シーン解析処理の概念図である。シーンDB1700には、撮影シーンの種類毎に、オブジェクト変遷情報と撮影環境情報が記録されている。ここで、オブジェクト変遷情報には、例えば撮影シーンがスポーツ競技の試合の場合、選手の移動位置の軌跡を記録したデータ、選手形状の変化の軌跡を記録したデータ、さらに球技であればボールの位置移動の軌跡を記録したデータなどが含まれる。撮影環境情報は、撮影時の周辺環境、例えば観客席の音声を記録したデータである。スポーツ競技における決定的シーンにおいては歓声によって観客席における音量が増加するため、視聴者の関心が高い決定的シーンか否かの判別に利用可能である。また、撮影シーンがスポーツ競技の試合の場合、シーンDB1700には、上述したオブジェクト変遷情報及び撮影環境情報と、各競技における決定的シーンとの対応関係を示す情報(以下、決定的シーン情報)も記録されている。決定的シーン情報は、決定的シーンの種類、および決定的シーンに適した代表的なカメラワーク(仮想カメラの移動経路)から構成される。決定的シーンの種類とは、例えばサッカーで言えば、シュートシーン、ロングパスシーン、コーナーキックシーン等である。決定的シーン情報は学習データとして保持し、深層学習(ディープラーニング)技術等を用いることで、撮影シーンの解析が可能である。学習データの素材は、世界中の競技場からインターネット等を介して取得可能なため、膨大なデータを収集可能である。画像処理装置100は、シーンDB1700に対し、撮影シーン(競技)の種類、選手やボールの移動ログ(移動軌跡データ)、選手の形状ログ(形状変化データ)、観客席音声データを送信して解析を依頼する。なお、シーンDB1700に送信する上記データは、ステップ602で取得した広角カメラ群111の複数視点映像データに基づき生成される。シーンDB1700では、解析依頼を受けて上述の解析処理を行う。解析結果は画像処理装置100に送られる。
In step 1601, a shooting scene analysis database (hereinafter referred to as “scene DB”) connected via an external network (not shown) is requested to analyze the shooting scene. The
ステップ1602では、画像処理装置100が、シーンDB1700から解析結果を受け取る。解析結果には、決定的シーンの発生した位置、決定的シーンの種類、決定的シーンに適した代表的なカメラワークの情報が含まれる。
In step 1602, the
ステップ1603では、受け取った解析結果に基づき、仮想カメラの各種項目が自動で設定される。具体的には、決定的シーンの発生位置が仮想カメラの注視点として設定される。また、代表的なカメラワークに基づき、仮想カメラの移動経路や対応するタイムフレームが設定される。決定的シーンの種類を示す情報は、生成後の仮想視点画像にメタデータとして付与される。このメタデータは放送事業者による2次利用(文字エフェクト入れ、データベース化など)の際に参照される。 In step 1603, various items of the virtual camera are automatically set based on the received analysis result. Specifically, the position where the decisive scene is generated is set as the gazing point of the virtual camera. In addition, the movement path of the virtual camera and the corresponding time frame are set based on the typical camera work. Information indicating the type of the decisive scene is added as metadata to the generated virtual viewpoint image. This metadata is referred to for secondary use by broadcasters (character effect insertion, database creation, etc.).
以上が、仮想カメラの各種項目を自動設定する処理の内容である。なお、上述のようにして自動設定された仮想カメラの注視点や移動経路を前述のGUI画面700上に表示し、さらにユーザがその内容を編集できるように構成してもよい。また、本実施例では、シーンDB1700を画像処理装置100とは別個の装置として構成したが、両者を一体化した1つの装置としてもよい。或いは、本実施例のシーンDB1700が有するシーン解析機能とデータ保存機能とを分離し、それぞれを別個の装置で構成してもよい。
The above is the content of the process for automatically setting various items of the virtual camera. The gaze point and the movement route of the virtual camera automatically set as described above may be displayed on the
本実施例によれば、データベースを用いて、仮想カメラについての移動経路等の各種項目を自動で設定することができる。これにより、更なる処理時間の短縮が可能である。 According to this embodiment, various items such as a movement route for a virtual camera can be automatically set by using a database. This makes it possible to further reduce the processing time.
本実施例では、仮想視点画像の生成時間に制限が設けられている場合に特に好適な映像生成手法に関して説明を行う。生成時間に制限が設けられているケースとして、例えば、プレイ直後にリプレイとして仮想視点画像を生成するケースや、あるいはスポーツ放送中にリアルタイムに仮想視点画像を生成するケースなどがある。なお、実施例1と重複する処理に関しては、説明を省略する。 In this embodiment, a video generation method that is particularly suitable when the generation time of the virtual viewpoint image is limited will be described. As a case where the generation time is limited, for example, there is a case where a virtual viewpoint image is generated as a replay immediately after play, or a case where a virtual viewpoint image is generated in real time during sports broadcasting. The description of the process overlapping with the first embodiment will be omitted.
図18は、画像処理装置100において、制限時間内に仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
FIG. 18 is a flowchart showing the entire flow until the virtual viewpoint image is generated within the time limit in the
ステップ1801~1809は、ステップ601~609とほぼ同処理である。図6との差異は、ステップ1806とステップ1810である。ステップ1802にて広角カメラ群から複数視点映像データが取得された後、ステップ1803~1805に並列して、ステップ1810が実行される。ステップ1810では、通信が完了したLAN108の通信帯域を有効活用すべく、標準カメラ群の複数視点映像データが順次取得される。取得された複数視点映像データは、ステップ1806にて用いられる。ステップ1806の仮想視点画像生成処理に関しては、図19にて詳述する。
Steps 1801 to 1809 are substantially the same as steps 601 to 609. The difference from FIG. 6 is step 1806 and step 1810. After the multi-viewpoint video data is acquired from the wide-angle camera group in step 1802, step 1810 is executed in parallel with steps 1803 to 1805. In step 1810, the multi-viewpoint video data of the standard camera group is sequentially acquired in order to effectively utilize the communication band of the
以上が、本実施例に係る、仮想視点画像が生成されるまでの大まかな流れである。処理時間の長いデータ通信を、形状推定処理や仮想カメラのパラメータ設定処理と並列化することで全体の処理時間が大幅に削減されるという効果がある。なお、本実施例の構成を、仮想視点画像の生成時間に制限が設けられていないケースや、生成時間に十分な余裕があるケースに用いてもよい。 The above is a rough flow until the virtual viewpoint image is generated according to this embodiment. By parallelizing data communication, which has a long processing time, with shape estimation processing and virtual camera parameter setting processing, there is an effect that the overall processing time is significantly reduced. The configuration of this embodiment may be used in a case where the generation time of the virtual viewpoint image is not limited or a case where the generation time has a sufficient margin.
図18のステップ1806の仮想視点画像生成処理を説明する。ここでは、標準カメラ群の複数視点映像データを用いてオブジェクト形状が生成された後、処理時間を鑑みながらズームカメラ群の複数視点映像データが適用される。図19は、本実施例に係る、仮想視点画像生成処理の詳細を示すフローチャートである。以下、図19のフローに沿って詳しく説明する。 The virtual viewpoint image generation process of step 1806 of FIG. 18 will be described. Here, after the object shape is generated using the multi-viewpoint video data of the standard camera group, the multi-viewpoint video data of the zoom camera group is applied in consideration of the processing time. FIG. 19 is a flowchart showing the details of the virtual viewpoint image generation process according to this embodiment. Hereinafter, a detailed description will be given along with the flow of FIG.
ステップ1901から、ステップ1906はステップ801~806と同処理であるため、説明を省略する。ステップ1907では、ステップ1810で取得された標準カメラ群の複数視点映像データを用いてオブジェクト形状の再推定処理が実行される。ステップ1908では、前述のステップ603の形状推定で得られた低精細のオブジェクト形状データが、ステップ1907の形状推定で得られた高精細のオブジェクト形状データに置換される。ステップ1909、1910はステップ807、808と同処理である。ステップ1911では、本ステップまでの処理時間が形状推定実施の限界値以内であるかが判断される。限界値は1画像フレームの形状推定を実施しなければならない時間に基づいて予め決定される。例えば、30秒以内に600フレームのリプレイ用の映像を生成する場合、1画像フレーム当たり50ミリ秒(30,000/600)を限界値とすることができる。ただし、処理時間に余裕を持たせる場合や、その他の事情によっては限界値が異なる値となることはありえる。Yesの場合はステップ1912に進む。Noの場合はステップ1917に進むことにより、標準カメラ群を用いた仮想視点画像が生成される。つまり、ステップ1911にてNoの判定となった場合は、ステップ1908で置換されたオブジェクト形状データの評価結果にかかわらず、ズームカメラ群の複数視点映像データに基づく形状推定を行わない。ステップ1912では、ステップ809と同様にズームカメラ群から複数視点映像データが取得される。このとき、LAN108の通信帯域を確保するため、ステップ1810での標準カメラ群の複数視点映像データの取得は、一時停止され、本ステップ終了後に再開される。ステップ1913では、本ステップまでの処理時間が形状推定実施の限界値以内であるかが再度判断される。Yesの場合はステップ1914に進み、Noの場合はステップ1916に進む。ステップ1914では、ズームカメラ群の複数視点映像データを用いてオブジェクト形状の再推定処理が実行される。ステップ1915では、前述のステップ1907の形状推定で得られたオブジェクト形状データが、ステップ1914の形状推定で得られた高精細のオブジェクト形状データに置換される。ステップ1916では、形状推定の再実行時間が不足しているため、オブジェクト形状はステップ1907で得られたデータが用いられるが、オブジェクト形状に投影するテクスチャはズームカメラの複数視点映像データを用いるようにレンダリング設定が行われる。ステップ1917では、ステップ1916までの処理で決まったオブジェクト形状とテクスチャを用いて、注目フレームFiの仮想カメラから見た画像である仮想視点画像が生成される。
Since step 1901, step 1906 is the same process as steps 801 to 806, the description thereof will be omitted. In step 1907, the object shape re-estimation process is executed using the multi-viewpoint video data of the standard camera group acquired in step 1810. In step 1908, the low-definition object shape data obtained by the shape estimation in step 603 described above is replaced with the high-definition object shape data obtained by the shape estimation in step 1907. Steps 1909 and 1910 are the same processes as
なお、処理時間が形状推定の限界値以内であるか否かの判定を実行するタイミングは、図19において示す例に限らない。例えば、ステップ1906とステップ1907の間に判定を行うようにしても良いし、ステップ1908とステップ1909の間に判定を行うようにしても良い。また、図19におけるステップ1910とステップ1911の順序が逆であっても良い。 The timing for executing the determination of whether or not the processing time is within the limit value of shape estimation is not limited to the example shown in FIG. For example, the determination may be made between steps 1906 and 1907, or the determination may be made between steps 1908 and 1909. Further, the order of steps 1910 and 1911 in FIG. 19 may be reversed.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (15)
前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2撮影装置により得られる1または複数の撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1取得手段により取得された前記複数の撮影画像に基づいて生成される前記第1仮想視点画像の評価結果に応じて決定する決定手段と、
前記決定手段による決定に応じて、前記第2撮影装置により得られる1又は複数の撮影画像を取得する第2取得手段と、
前記第1取得手段により取得される複数の撮影画像、及び、前記決定手段による決定に応じて前記第2取得手段により取得される1または複数の撮影画像に基づいて、前記第1仮想視点画像及び前記第2仮想視点画像を生成する生成手段と、
を備えたことを特徴とする仮想視点画像生成装置。 It is a plurality of captured images obtained by a plurality of first imaging devices that capture fields from different directions, and is used to generate a first virtual viewpoint image according to the position of a virtual viewpoint and the line-of-sight direction from the virtual viewpoint. The first acquisition means for acquiring a plurality of captured images ,
A second virtual viewpoint image having a higher image quality than the first virtual viewpoint image is obtained based on one or more shot images obtained by one or a plurality of second shooting devices that shoot at least a part of the field from different directions. A determination means for determining whether or not to generate according to the evaluation result of the first virtual viewpoint image generated based on the plurality of captured images acquired by the first acquisition means .
A second acquisition means for acquiring one or a plurality of captured images obtained by the second imaging device according to the determination by the determination means.
The first virtual viewpoint image and the first virtual viewpoint image based on the plurality of captured images acquired by the first acquisition means and one or a plurality of captured images acquired by the second acquisition means according to the determination by the determination means. The generation means for generating the second virtual viewpoint image and
A virtual viewpoint image generator characterized by being equipped with.
前記第1仮想視点画像内におけるオブジェクトのサイズが閾値以上である場合は、前記第2仮想視点画像を生成すると決定し、
前記オブジェクトのサイズが前記閾値未満である場合は、前記第2仮想視点画像を生成しないと決定する
ことを特徴とする請求項1または2に記載の仮想視点画像生成装置。 The determination means is
When the size of the object in the first virtual viewpoint image is equal to or larger than the threshold value, it is determined to generate the second virtual viewpoint image.
The virtual viewpoint image generation device according to claim 1 or 2 , wherein when the size of the object is less than the threshold value, it is determined not to generate the second virtual viewpoint image.
前記複数の第1撮影装置により得られる複数の撮影画像に基づいて生成される前記第1仮想視点画像の画質と、前記1または複数の第2撮影装置により得られる前記1または複数の撮影画像に基づく画質に関する閾値とを比較し、
前記第1仮想視点画像の画質が前記閾値により表される画質よりも低い場合に、前記第2仮想視点画像を生成すると決定する
ことを特徴とする請求項1乃至4のいずれか1項に記載の仮想視点画像生成装置。 The determination means is
The image quality of the first virtual viewpoint image generated based on the plurality of captured images obtained by the plurality of first photographing devices , and the one or more captured images obtained by the one or the plurality of second photographing devices . Compare with the threshold for image quality based on
The invention according to any one of claims 1 to 4 , wherein when the image quality of the first virtual viewpoint image is lower than the image quality represented by the threshold value, it is determined to generate the second virtual viewpoint image. The virtual viewpoint image generator described.
前記複数の第1撮影装置のそれぞれの撮影範囲は、前記第2撮影装置の撮影範囲よりも広い
ことを特徴とする請求項1乃至5のいずれか1項に記載の仮想視点画像生成装置。 The number of the plurality of first photographing devices is smaller than the number of the one or more second photographing devices .
The virtual viewpoint image generation device according to any one of claims 1 to 5 , wherein the shooting range of each of the plurality of first shooting devices is wider than the shooting range of the second shooting device.
前記第2決定手段による決定に応じて、前記第3撮影装置により得られる1または複数の撮影画像を取得する第3取得手段と、
を更に有し、
前記生成手段は、前記第2決定手段による決定に応じて前記第3取得手段により取得される1または複数の撮影画像に基づいて第3仮想視点画像を生成する、
ことを特徴とする請求項1乃至7のいずれか1項に記載の仮想視点画像生成装置。 A third virtual viewpoint image having a higher image quality than the second virtual viewpoint image generated in response to a determination by the determination means is generated based on one or a plurality of captured images obtained by one or a plurality of third photographing devices . A second determination means for determining whether or not to do so according to the evaluation result of the second virtual viewpoint image.
A third acquisition means for acquiring one or a plurality of captured images obtained by the third imaging device according to the determination by the second determination means.
Further have
The generation means generates a third virtual viewpoint image based on one or a plurality of captured images acquired by the third acquisition means in response to a determination by the second determination means.
The virtual viewpoint image generation device according to any one of claims 1 to 7 .
予め定められた制限時間内に前記第2仮想視点画像が生成される場合は、前記第2仮想視点画像の評価結果に応じて前記第3仮想視点画像を生成するか否かを決定し、
前記予め定められた制限時間内に前記第2仮想視点画像が生成されない場合は、前記第2仮想視点画像の評価結果にかかわらず、前記第3仮想視点画像を生成しないと決定する
ことを特徴とする請求項8に記載の仮想視点画像生成装置。 The second determination means is
When the second virtual viewpoint image is generated within a predetermined time limit, it is determined whether or not to generate the third virtual viewpoint image according to the evaluation result of the second virtual viewpoint image.
If the second virtual viewpoint image is not generated within the predetermined time limit, it is determined not to generate the third virtual viewpoint image regardless of the evaluation result of the second virtual viewpoint image. The virtual viewpoint image generation device according to claim 8.
前記予め定められた制限時間内に前記第1仮想視点画像が生成される場合は、前記第1仮想視点画像の評価結果に応じて前記第2仮想視点画像を生成するか否かを決定し、
前記予め定められた制限時間内に前記第1仮想視点画像が生成されない場合は、前記第1仮想視点画像の評価結果にかかわらず、前記第2仮想視点画像を生成しないと決定する
ことを特徴とする請求項10に記載の仮想視点画像生成装置。 The determination means is
When the first virtual viewpoint image is generated within the predetermined time limit, it is determined whether or not to generate the second virtual viewpoint image according to the evaluation result of the first virtual viewpoint image.
If the first virtual viewpoint image is not generated within the predetermined time limit, it is determined not to generate the second virtual viewpoint image regardless of the evaluation result of the first virtual viewpoint image. 10. The virtual viewpoint image generation device according to claim 10 .
前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2撮影装置により得られる撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1取得工程にて取得される前記複数の撮影画像に基づいて生成される前記第1仮想視点画像の評価結果に応じて決定する決定工程と、
前記決定に応じて、前記第2撮影装置により得られる1又は複数の撮影画像を取得する第2取得工程と、
前記第1取得工程にて取得される複数の撮影画像、及び、前記決定工程における決定に応じて前記第2取得工程にて取得される1または複数の撮影画像に基づいて、前記第1仮想視点画像及び前記第2仮想視点画像を生成する生成工程と、
を含むことを特徴とする仮想視点画像生成方法。 It is used to generate a first virtual viewpoint image according to the position of a virtual viewpoint and the line-of-sight direction from the virtual viewpoint based on a plurality of captured images obtained by a plurality of first imaging devices that capture fields from different directions. The first acquisition process to acquire multiple captured images ,
Whether to generate a second virtual viewpoint image having a higher image quality than the first virtual viewpoint image based on the captured images obtained by one or a plurality of second photographing devices that capture at least a part of the field from different directions. A determination step of determining whether or not the image is based on the evaluation result of the first virtual viewpoint image generated based on the plurality of captured images acquired in the first acquisition step.
A second acquisition step of acquiring one or a plurality of captured images obtained by the second imaging device according to the determination, and a second acquisition step.
The first virtual viewpoint based on a plurality of captured images acquired in the first acquisition step and one or a plurality of captured images acquired in the second acquisition step according to a decision in the determination step. A generation process for generating an image and the second virtual viewpoint image, and
A virtual viewpoint image generation method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/848,202 US10762653B2 (en) | 2016-12-27 | 2017-12-20 | Generation apparatus of virtual viewpoint image, generation method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016253280 | 2016-12-27 | ||
JP2016253280 | 2016-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018107793A JP2018107793A (en) | 2018-07-05 |
JP7034666B2 true JP7034666B2 (en) | 2022-03-14 |
Family
ID=62787604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017204420A Active JP7034666B2 (en) | 2016-12-27 | 2017-10-23 | Virtual viewpoint image generator, generation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7034666B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7129283B2 (en) * | 2018-08-31 | 2022-09-01 | キヤノン株式会社 | Processing device, control method, and program |
WO2020045186A1 (en) | 2018-08-31 | 2020-03-05 | キヤノン株式会社 | Information processing device, method, and program |
US10685679B1 (en) * | 2018-11-27 | 2020-06-16 | Canon Kabushiki Kaisha | System and method of determining a virtual camera path |
JP7278766B2 (en) * | 2018-12-21 | 2023-05-22 | キヤノン株式会社 | Image processing device, image processing method and program |
JP2020134973A (en) * | 2019-02-12 | 2020-08-31 | キヤノン株式会社 | Material generation apparatus, image generation apparatus and image processing apparatus |
JP7349793B2 (en) * | 2019-02-15 | 2023-09-25 | キヤノン株式会社 | Image processing device, image processing method, and program |
KR102629225B1 (en) * | 2019-05-16 | 2024-01-29 | 캐논 가부시끼가이샤 | Batch determination device, system, batch determination method and recording medium |
JP2020191618A (en) * | 2019-05-16 | 2020-11-26 | キヤノン株式会社 | Arrangement determination device, system, arrangement determination method, and program |
JP6838753B1 (en) * | 2019-09-19 | 2021-03-03 | ジャングルX株式会社 | Information processing equipment, information processing methods and information processing programs |
JP7371901B2 (en) * | 2019-11-08 | 2023-10-31 | 株式会社コナミデジタルエンタテインメント | Game program, information processing device, and method |
EP4083991A4 (en) * | 2019-12-23 | 2023-06-28 | Sony Group Corporation | Image generation device, image generation method, and image generation program |
EP4072147A4 (en) * | 2019-12-30 | 2022-12-14 | Huawei Technologies Co., Ltd. | Video stream processing method, apparatus and device, and medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012034343A (en) | 2010-07-02 | 2012-02-16 | Canon Inc | Image processing apparatus and control method thereof |
JP2015225529A (en) | 2014-05-28 | 2015-12-14 | キヤノン株式会社 | Information processing device, information processing method and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05126546A (en) * | 1991-10-30 | 1993-05-21 | Sony Corp | Method for restoring three-dimensional shape |
-
2017
- 2017-10-23 JP JP2017204420A patent/JP7034666B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012034343A (en) | 2010-07-02 | 2012-02-16 | Canon Inc | Image processing apparatus and control method thereof |
JP2015225529A (en) | 2014-05-28 | 2015-12-14 | キヤノン株式会社 | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2018107793A (en) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7034666B2 (en) | Virtual viewpoint image generator, generation method and program | |
US10762653B2 (en) | Generation apparatus of virtual viewpoint image, generation method, and storage medium | |
CN111050210B (en) | Method of performing operations, video processing system, and non-transitory computer readable medium | |
US10440407B2 (en) | Adaptive control for immersive experience delivery | |
US11750786B2 (en) | Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image | |
KR101518531B1 (en) | System and method for measuring potential eyestrain of stereoscopic motion pictures | |
WO2019143722A1 (en) | Augmenting detected regions in image or video data | |
JP6894962B2 (en) | Image data capture method, device, and program for free-viewpoint video | |
WO2017038541A1 (en) | Video processing device, video processing method, and program | |
US20190132529A1 (en) | Image processing apparatus and image processing method | |
US11227428B2 (en) | Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region | |
WO2020036644A2 (en) | Deriving 3d volumetric level of interest data for 3d scenes from viewer consumption data | |
US20210241422A1 (en) | Image processing for reducing artifacts caused by removal of scene elements from images | |
Grau et al. | A robust free-viewpoint video system for sport scenes | |
JP6392738B2 (en) | Information acquisition apparatus, information acquisition method, and information acquisition program | |
KR102105510B1 (en) | Server, method and user device for providing time slice video | |
Zhang et al. | Coherent video generation for multiple hand-held cameras with dynamic foreground | |
JP6392739B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6450306B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US11893688B2 (en) | Method of fusing mesh sequences within volumetric video | |
JP7332326B2 (en) | Video effect device and program | |
JP7204843B2 (en) | Transmission device, transmission method, and program | |
JP6411991B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2020127150A (en) | System, image processing apparatus, image processing method, and program | |
JP2021018570A (en) | Image processing apparatus, image processing system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220302 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7034666 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |