JP2020140519A - Image generation device and control method thereof - Google Patents
Image generation device and control method thereof Download PDFInfo
- Publication number
- JP2020140519A JP2020140519A JP2019036395A JP2019036395A JP2020140519A JP 2020140519 A JP2020140519 A JP 2020140519A JP 2019036395 A JP2019036395 A JP 2019036395A JP 2019036395 A JP2019036395 A JP 2019036395A JP 2020140519 A JP2020140519 A JP 2020140519A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- virtual viewpoint
- camera
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置及びその制御方法に関する。 The present invention relates to an image generation device that generates a virtual viewpoint image from a multi-viewpoint image taken by a plurality of cameras and a control method thereof.
複数のカメラを異なる位置に設置して多視点位置から撮影し、当該撮影により得られた多視点画像を用いて、任意に指定された視点位置からの仮想視点画像を生成する技術が知られている。この技術によれば、様々な視点の位置、角度から得られる画像を視聴することが出来る。そのため、例えばサッカーやバスケットボールなどのハイライトシーンについて、通常の画像と比較して視聴者に高臨場感を与えることが出来る画像を提供することができる。 A technique is known in which a plurality of cameras are installed at different positions to shoot from a multi-viewpoint position, and a virtual viewpoint image is generated from an arbitrarily specified viewpoint position using the multi-viewpoint image obtained by the shooting. There is. According to this technology, images obtained from various viewpoint positions and angles can be viewed. Therefore, for highlight scenes such as soccer and basketball, it is possible to provide an image that can give a high sense of presence to the viewer as compared with a normal image.
特許文献1では、スタジアムを複数のカメラで同期撮影して得られた多視点画像から仮想視点画像を生成する技術が開示されている。特許文献1によれば、多視点画像から前景テクスチャ画像、背景テクスチャ画像、三次元モデルなどを生成し、任意に指定された視点からの三次元モデルに適切な前景テクスチャ、背景テクスチャをマッピングして重畳合成することで仮想視点画像を生成する。
しかしながら、従来の方法で生成された仮想視点画像において、前景と背景の位置関係の精度が低いことによる課題が生じる場合がある。例えば、スタジアムをあらかじめ計測し、三次元モデリングによって背景の三次元形状モデル(以下、背景モデル)を生成する場合に、計測誤差や三次元モデリング精度の低さなどにより背景モデルと現実のスタジアムの形状とに誤差が生じる可能性がある。結果、前景画像を背景画像中の正確な位置に重畳することが出来なくなる。競走や競泳などで複数の選手がほぼ同時にゴールインするようなフィニッシュシーンの仮想視点画像において、選手とフィニュッシュラインの位置関係にずれが発生すると、仮想視点画像をビデオ判定へ利用する場合に正確な判定が行えない。 However, in the virtual viewpoint image generated by the conventional method, there may be a problem due to the low accuracy of the positional relationship between the foreground and the background. For example, when the stadium is measured in advance and a 3D shape model of the background (hereinafter referred to as the background model) is generated by 3D modeling, the background model and the actual shape of the stadium due to measurement errors and low 3D modeling accuracy. And there may be an error. As a result, the foreground image cannot be superimposed on the exact position in the background image. In a virtual viewpoint image of a finish scene where multiple athletes finish in at almost the same time in a race or swimming, if there is a deviation in the positional relationship between the athlete and the finish line, an accurate judgment will be made when using the virtual viewpoint image for video judgment. Cannot be done.
本発明は、上記課題に鑑みてなされたものであり、背景と前景の位置精度を向上した仮想視点画像を生成することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to generate a virtual viewpoint image with improved position accuracy of the background and the foreground.
上記課題を解決するための本発明の一態様による画像生成装置は以下の構成を備える。すなわち、
複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置であって、
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定手段と、
前記多視点画像と前記背景モデルを用いて、指定された仮想視点からの仮想視点画像を生成する生成手段と、を備え、
前記生成手段は、前記指定された仮想視点と前記仮想モデルとの距離が近いほど、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用する。
An image generator according to one aspect of the present invention for solving the above problems has the following configuration. That is,
An image generator that generates virtual viewpoint images from multi-viewpoint images taken by multiple cameras.
A setting means for setting a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background in a three-dimensional space.
A generation means for generating a virtual viewpoint image from a specified virtual viewpoint by using the multi-viewpoint image and the background model is provided.
The generation means uses the image captured by the specific camera in preference to the image captured by the other camera to generate the virtual viewpoint image as the distance between the designated virtual viewpoint and the virtual model becomes closer. ..
本発明によれば、背景と前景の位置精度が向上した仮想視点画像を生成することが可能となる。 According to the present invention, it is possible to generate a virtual viewpoint image with improved position accuracy of the background and the foreground.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.
<第一実施形態>
図1は、第一実施形態における仮想視点画像生成装置100の全体構成を例示するブロック図である。
<First Embodiment>
FIG. 1 is a block diagram illustrating the overall configuration of the virtual viewpoint
図1において、撮像システム110は、仮想視点画像生成に必要な多視点画像を撮影するシステムであり、複数のカメラ(撮影装置)101a〜101zから構成される。カメラ101a〜101zは、例えばスタジアムなど競技場の競技フィールドを取り囲むように設置され、各々にIPアドレスが割り当てられている。画像処理部103は、カメラ101a〜101zのシャッタースピード、絞り値、焦点距離などの撮影条件、および、撮影開始/終了を制御し、同期撮影を行う。撮像システム110によって撮影された複数の撮影画像からなる多視点画像は通信回線102を介して画像処理部103の画像入力部104に入力される。画像入力部104は、明るさ補正、諧調補正、解像力補正等の各種補正処理を撮影画像に施した後、処理された撮影画像を分離部105へ出力する。
In FIG. 1, the
分離部105は、カメラ101a〜101zの撮影画像から、競技選手など主被写体である前景領域と、主被写体以外の背景領域とに分離し、前景テクスチャ生成部106、背景テクスチャ生成部107、および画像生成部108に出力する。分離部105が用いる前景背景分離方法には公知の技術を適用できる。例えば、競技開始前にあらかじめ競技場のみを撮影し、該撮影像を参照画像として記憶しておき、カメラ撮影画像と参照画像との画素毎の差分値があらかじめ決められた閾値以上のとき前景領域と判断する方法があげられる。或いは、同一カメラの異なる時間で撮影された複数画像の画素毎の差分値があらかじめ決められた閾値以上のとき前景領域と判断する方法があげられる。操作UI109は、仮想カメラ(仮想視点)の指定、仮想平面(後述する)の指定をユーザに行わせるためのインターフェースである。
The
前景テクスチャ生成部106および背景テクスチャ生成部107は、カメラ101a〜101zによる全ての撮影画像の前景テクスチャおよび背景テクスチャをカメラIDごとに分類し蓄積する。画像生成部108は、前景モデル、前景テクスチャ、背景モデル、背景テクスチャ、仮想視点、仮想平面、および仮想視線評価値に基づいて仮想視点画像を生成する。なお、前景モデルは、分離部105から入力される前景画像に基づいて画像生成部108が生成し保持する。また、背景モデルは、後述のようにあらかじめ計測データなどに基づいて生成されており、画像生成部108が保持している。
The foreground
主被写体である前景は、主被写体の全周からの画像が撮像システム110によって撮影される。そのため、前景の三次元形状モデル(前景モデル)はカメラベース(イメージベース)の手法によって生成される。一方、競技場や構造物などは視界にあるカメラ台数が少ないため、背景の三次元形状モデル(背景モデル)をカメラベースで生成することが難しい。よって、あらかじめ競技場や構造物の形状を、図示しないレーザースキャナーなどで計測した計測データから、三次元モデリングソフトウェアなどで三次元形状モデルデータを作成し、背景モデルとして画像生成部108に保存しておく。背景モデルでは、計測誤差やモデリングにおける近似誤差によって実際の背景形状との間に誤差が発生する。この誤差により、背景モデルとカメラベースの前景モデルとを重畳合成した場合に、位置ずれが発生する。本実施形態では、後述の仮想平面生成部112によって生成される仮想平面を利用して、上記誤差を解消するための補正が行われる。
As for the foreground, which is the main subject, an image from the entire circumference of the main subject is taken by the
次に、画像生成部108は、操作UI109によって指定された仮想カメラの情報(仮想視点の位置、方向)に基づき、前景テクスチャおよび背景テクスチャを前景モデルと背景モデルにマッピングし、仮想視点画像を生成する。背景テクスチャ及び前景テクスチャとしてどのカメラの撮影画像を用いるかは、後述の視線判定部114の出力値に応じて決定される。画像生成部108は、生成した仮想視点画像をディスプレイ111に表示する。
Next, the
次に、仮想平面生成部112よって生成される仮想平面について説明する。仮想平面生成部112は、複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、仮想視点画像の生成に用いる背景モデルとを、同一の三次元仮想空間に設定する設定部として機能する構成の一例である。以下では、仮想モデルとして、仮想視点の視線方向と平行な仮想平面を設定する構成について説明する。本実施形態の仮想平面は、競技場内の特徴的な領域を含む平面であり、仮想視点画像上に重畳表示され、背景画像と前景画像の位置誤差補正に利用される。また仮想平面は、例えば、図2に示すように、短距離走の順位判定のための補助的な表示として利用され得る。
Next, the virtual plane generated by the virtual
図2は、第一実施形態による仮想視点画像生成装置100を短距離走フィニッシュ時の仮想視点画像の生成に適用した例を示す図である。競技用のトラック205上に引かれたフィニッシュライン204を含み、トラック205の面(平面)に直交する平面が仮想平面201として設定されている。複数台数のカメラを有する撮像システム110は、トラック205上に引かれたフィニッシュライン204を通過する選手202、203を撮影し多視点画像を得る。画像処理部103は、取得した多視点画像から仮想視点画像を生成し、ディスプレイ111に表示する。
FIG. 2 is a diagram showing an example in which the virtual viewpoint
選手202および選手203を含むフィニッシュライン204の近傍を撮像システム110で撮影された多視点画像から生成する場合を想定する。この場合、分離部105は、選手202および選手203の領域を前景画像、その他の領域を背景画像として分離する。また、背景モデルは、あらかじめトラック205を含むスタジアム形状を計測し、三次元モデリングによって生成された三次元形状モデルである。画像生成部108は、背景モデルの表面に背景テクスチャをマッピングして仮想視点から観察される背景画像を生成し、前景モデルの表面に前景テクスチャをマッピングして仮想視点から観察される前景画像を生成する。画像生成部108は、生成された背景画像と前景画像とを重畳合成して仮想視点画像を生成する。
It is assumed that the vicinity of the
視聴者(ユーザ)は、フィニッシュライン204の近傍の仮想視点からの仮想視点画像を観察することで、各選手の順位を容易に判定することが可能となる。しかしながら、フィニッシュライン204を含む背景画像と前景画像の位置関係に誤差があると、正確な順位を判定することができない。本実施形態では、そのような背景画像と前景画像の位置関係の誤差を解消する。以下、背景画像と前景画像の位置の誤差を解消する構成について説明する。
The viewer (user) can easily determine the ranking of each player by observing the virtual viewpoint image from the virtual viewpoint in the vicinity of the
図3は、第一実施形態による撮像システム110を陸上競技に適用した例を示す図である。図4は、第一実施形態による背景モデルの調整処理を説明するフローチャートである。図3に示されるように、カメラ101a〜101fは撮影対象領域であるフィニッシュライン204を取り囲むようにほぼ均等間隔に配置されている。これら複数のカメラのうちカメラ101aとカメラ101dはフィニッシュライン204の両延長線上部に配置され、その視線方向はフィニッシュライン204に向いている(S401)。カメラ101aとカメラ101dは、その視線方向が、フィニッシュライン204を含み地面に直交する仮想平面201に含まれているカメラであり、以下、特定のカメラとも称する。なお、図4の例では特定のカメラが2台であるが、これに限られるものではなく、特定カメラの台数は1台でもよいし、3台以上であってもよい。なお、本実施形態では特定のカメラがフィニッシュライン204に向いており、特定のカメラの視線方向と仮想平面201とが平行であるものとするが、これに限定されない。例えば、特定のカメラの位置が仮想平面201に含まれており、且つ、そのカメラの撮影範囲に仮想平面が含まれていれば、仮想平面が撮影範囲の中心に位置しなくてもよい。
FIG. 3 is a diagram showing an example in which the
図5は、カメラ101aまたはカメラ101dによる撮影画像の例を示す図である(以下、カメラ101dの撮影画像として説明する)。短距離走のような競技の場合、図5(a)のようにフィニッシュラインの延長線上からの撮影画像を用いるとフィニッシュ順位を判定し易い。そのため、本実施形態では、撮像システム110を構成する複数のカメラのうち、少なくとも1台のカメラをフィニッシュラインの延長線上に配置している。但し、配置位置はスポーツ競技の種類によって異なるため、競技種に合わせて最適な配置場所が設定される。
FIG. 5 is a diagram showing an example of an image captured by the
カメラ配置後、ユーザは、操作UI109を用いて、フィニッシュライン204を見易い位置に仮想視点を指定し、仮想視点画像の生成を指示する。画像処理部103は、撮像システム110によって撮影した多視点画像を用いて、指定された仮想視点からの仮想視点画像を生成し、ディスプレイ111に表示する(S402)。なお、S402で指定される仮想視点は、背景モデルに基づいてあらかじめ設定されていてもよいし、背景モデルに基づいて自動的に設定されてもよい。
After arranging the cameras, the user uses the
仮想平面生成部112は、ディスプレイ111に表示された仮想視点画像において、操作UI109によってフィニッシュライン204上の2点をユーザに指定させる(S403)。仮想平面生成部112は、表示画面上で指定された2点を、背景モデルにおけるトラック205を含む面に対して指定された点として扱い、指定された2点を両端とする線分ABを決定する。そして、仮想平面生成部112は、線分ABを含み、トラック205の面(例えば地面)と直交する平面を、図3に示した座標XYZ軸に基づいて、平面方程式ax+by+cz+d=0として算出する(S404)。仮想平面生成部112は、算出した平面方程式を仮想モデルとして仮想平面記憶部113に記憶する。仮想平面記憶部113に記憶された仮想平面は、画像生成部108に送られる。
The virtual
画像生成部108は、特定のカメラ(カメラ101d)による撮影画像に、特定のカメラと一致する仮想視点から観察される仮想モデルを描画する描画部の一例である。例えば、画像生成部108は、平面方程式で表される仮想平面を背景モデルの構成物の一部とし、仮想視点の位置を特定のカメラ101dの位置に設定して、当該仮想視点からの仮想平面201の画像を生成する。そして、画像生成部108は、カメラ101dの撮影画像に前述の仮想平面201の画像を重畳してディスプレイ111に表示する(S405)。図5(b)は、カメラ101dの撮影画像に仮想平面201を重畳したディスプレイ111の表示画像である。図5(b)では、背景モデルの誤差によって、カメラ101dの撮影画像に映されたフィニッシュライン204と仮想平面201にずれが生じている。
The
ユーザは、ディスプレイ111に表示されているカメラ101dによる撮影画像と仮想平面201との位置を確認し、それぞれが一致するまで背景モデルを修正(調整)する(S406、S407)。例えば、ユーザは、背景モデルを移動/回転することで、背景モデルと撮影画像を整合させる。こうして、画像生成部108は、特定カメラの撮影画像と描画された仮想モデルとが整合するように三次元モデルを調整する調整部の一例である。図5(c)は、背景モデルの修正(調整)が完了し、カメラ101dの撮影画像と仮想平面201とが整合した状態(仮想平面201が直線として観察されるとともに、当該直線がフィニッシュライン204と一致した状態)を示す。以上のような背景モデルの調整により、カメラ101dによる撮影画像と背景モデルの位置、方向が高精度に一致する。
The user confirms the positions of the image captured by the
その後、画像生成部108は、上記複数のカメラにより撮影された多視点画像と上記のごとく調整された背景モデルを用いて、指定された仮想視点に対応する仮想視点画像を生成する生成部の一例である。以上のように、特定のカメラからの撮影画像と背景モデルを仮想モデルの画像を用いて整合させることで、仮想モデルの近傍における仮想視点画像の背景画像と前景画像の間の位置関係の精度が向上する。よって、例えばフィニッシュライン204を含む仮想平面を仮想モデルとして設定することで、フィニッシュライン204付近を観察する仮想視点画像において、フィニッシュライン204と選手との位置関係をより高精度に再現することができる。
After that, the
なお、背景モデルと特定のカメラ101dとの関係が高精度に調整されるので、仮想視点画像の生成においては、特定のカメラによる撮影画像(テクスチャ)を他のカメラによる撮影画像よりも優先して利用することが好ましい。例えば、仮想視点が仮想平面に近いほど特定のカメラによる撮影画像を優先して用いて仮想視点画像を生成するようにすれば、注目する領域を観察する仮想視点画像における前景画像と背景画像の位置関係をより高精度に再現できる。以下、このような制御の具体例について説明する。本実施形態では、画像生成部108は、仮想視点画像の生成のために指定された仮想視点と仮想モデルとの位置および方向の近さを評価する。そして、画像生成部108は、評価された近さが所定のレベル以上の場合に、特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して用いて仮想視点画像を生成する。
Since the relationship between the background model and the
図6(a)は、第一実施形態による仮想視点画像の生成処理を説明するフローチャートである。まず、視線判定部114は、操作UI109を介して入力される仮想視点のユーザ指定を受け付ける(S601)。次に、視線判定部114は、指定された仮想視点と仮想平面の近さを評価し、評価値pを取得する(S602)。例えば、視線判定部114は、仮想視点と仮想平面との距離、および仮想視点の視線方向と仮想平面(法線)とのなす角度をもとに評価値を算出する。以下に視線判定部114による評価値pの算出の一実施形態を説明する。
FIG. 6A is a flowchart illustrating a process of generating a virtual viewpoint image according to the first embodiment. First, the line-of-
XYZを三次元座標軸、abcを平面の方向ベクトルとすると、平面方程式はax+by+cz+d=0である。視線判定部114は、仮想視点と仮想平面との距離、および仮想視点視線方向と仮想平面とのなす角を基準に評価値を算出する。
Assuming that XYZ is a three-dimensional coordinate axis and abc is a plane direction vector, the plane equation is ax + by + cz + d = 0. The line-of-
図3には、仮想平面201と、仮想平面201の近傍に指定された仮想カメラ(仮想視点301)の位置と視線方向(光軸方向)が示されている。図3に示されるように、仮想視点301の位置を(x1,y1,z1)、仮想視点301の視線方向の方向ベクトルを(l,m,n)とすると、仮想視点301から仮想平面201までの距離hは[数1]のように表される。
FIG. 3 shows the position and the line-of-sight direction (optical axis direction) of the
また、仮想視点301の視線方向と仮想平面201のなす角度θは[数2]のように表される。
Further, the angle θ formed by the line-of-sight direction of the
視線判定部114は、仮想カメラから平面までの距離hと仮想カメラ視線方向と平面のなす角θの関数p=f(h,θ)として評価値を求める。評価値pの一実施形態として距離hとなす角θに感度係数αおよびβをそれぞれ乗算し、それらの和p=αh+βθを評価値とする。仮想視点視線が仮想平面に沿うほど評価値pは小さくなり、p=0のとき、仮想視点の視線は仮想平面に完全に含まれる。
The line-of-
視線判定部114は、以上のように算出した評価値pを画像生成部108に送る。画像生成部108は、仮想平面と仮想視点との位置及び方向の関係に基づく評価値pがεより小さい場合(p<ε)、特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して用いて仮想視点画像を生成する(S603,S604)。すなわち、画像生成部108は、カメラ101dによって撮影された背景テクスチャと前景テクスチャを、他のカメラに優先して仮想視点画像のテクスチャマッピングの参照元として利用する。こうして、仮想視点が仮想平面201に近い場合に、上記のように調整された背景モデルにカメラ101dによって撮影されたテクスチャがマッピングされる。他方、p≧εの場合は、画像生成部108は、特定のカメラからの撮影画像を優先することなく、多視点画像を用いて仮想視点画像を生成する(S603、S605)。
The line-of-
図7(a)、図7(b)は、選手のフィニッシュ時の仮想視点画像をディスプレイ111に表示した図である。図7(a)は仮想カメラが仮想平面から離れた位置(p≧ε)にある時の仮想視点画像である。図7(a)のように、ディスプレイ111に仮想平面201を重畳して表示することで、選手とフィニッシュラインとの位置関係がより解り易くなる。図7(b)は、仮想視点を仮想平面201上に配置して得られた仮想視点画像、すなわち評価値p=0での仮想視点画像である。
7 (a) and 7 (b) are views showing a virtual viewpoint image at the finish of the athlete on the
以上のように、仮想視点301と仮想平面201に関して評価された近さが所定のレベル以上の場合(本例では、p<εの場合)に、画像生成部108は、背景モデルと前景モデルに張り付けるテクスチャを可能な限りカメラ101dの撮影画像から取得する。背景モデルのうちカメラ101dの撮影画像に含まれない部分のテクスチャについては、他のカメラの撮影画像から取得される。例えば、図7(b)の仮想視点画像には背景テクスチャと前景テクスチャとしてカメラ101dの撮影画像が優先的に用いられる。図4に示した処理により、カメラ101dの撮影画像と背景モデルは高精度に位置合わせされているので、仮想視点画像において背景画像と前景画像の位置関係が正確に再現される。
As described above, when the closeness evaluated with respect to the
以上のように、第一実施形態によれば、図7(b)で示すように、背景画像と前景画像の位置誤差が補正され、仮想視点画像における背景画像と前景画像の位置ずれが解消される。そのため、例えば、仮想平面をフィニッシュライン上に重畳表示することで短距離走フィニッシュ時の順位判定の補助として利用可能となる。また、第一実施形態によれば、仮想視点画像の視野内に設定された仮想平面に仮想視点視線が近いほど、背景画像と前景画像の配置精度が向上する。 As described above, according to the first embodiment, as shown in FIG. 7B, the positional error between the background image and the foreground image is corrected, and the positional deviation between the background image and the foreground image in the virtual viewpoint image is eliminated. To. Therefore, for example, by superimposing and displaying the virtual plane on the finish line, it can be used as an aid for ranking determination at the time of sprinting finish. Further, according to the first embodiment, the closer the virtual viewpoint line of sight is to the virtual plane set in the field of view of the virtual viewpoint image, the higher the placement accuracy of the background image and the foreground image is.
なお、仮想平面201に視線方向が含まれるカメラが複数台ある場合は、さらに、仮想視点の視線方向/位置と、カメラの視線方向/位置との関係を考慮して、どちらのカメラによる撮影画像を用いるかを決定するようにしてもよい。すなわち、仮想視点とカメラの距離、仮想視点とカメラの視線方向の内積に基づいて近さを評価し、この評価結果に基づいてどちらのカメラの撮影画像を優先して用いるかを決定するようにしてもよい。例えば、図3で説明したように、カメラ101aとカメラ101dの視線が仮想平面201に含まれる場合、上述した評価結果に基づいて優先して用いるカメラが決定される。
If there are a plurality of cameras whose line-of-sight direction is included in the
<第二実施形態>
以下、第二実施形態による仮想視点画像生成装置について説明する。第二実施形態の仮想視点画像生成装置100では、仮想視点と仮想平面の近さが所定のレベル以上の場合(p<ε)に、仮想視点画像から特定のカメラによる撮影画像に切り替える。なお、仮想視点画像生成装置100の構成は、第一実施形態(図1、図2)と同様である。但し、視線判定部114の判定結果が分離部105にも入力される。
<Second embodiment>
Hereinafter, the virtual viewpoint image generator according to the second embodiment will be described. In the virtual viewpoint
第二実施形態における仮想平面の生成、仮想平面情報の記憶は第一実施形態と同様である。視線判定部114は第一実施形態と同様に評価値pを計算する。仮想カメラ視線が仮想平面内に含まれているかどうかを判断するために評価値pとの比較に用いられる閾値εは、あらかじめ設定されているものとする。図6(b)は、第二実施形態による仮想視点画像の生成処理を説明するフローチャートである。以下、図6(b)のフローチャートを参照して、第二実施形態による画像生成部108の動作を説明する。
The generation of the virtual plane and the storage of the virtual plane information in the second embodiment are the same as those in the first embodiment. The line-of-
仮想視点の指定を受け付けて、仮想視点と仮想平面の近さを評価する評価値pを取得する処理は、第1実施形態(図6(a)のS601〜S602)と同様である。操作UI109の操作によって指定された仮想視点301と仮想平面201の近さが所定レベル以上の場合(p<εの場合)、画像生成部108は、特定のカメラによる撮影画像を仮想視点画像に替えてディスプレイ111に表示する(S613、S614)。他方、仮想視点301と仮想平面201の近さが所定レベル以上でない場合(p≧ε)、画像生成部108は、多視点画像を用いて指定された仮想視点からの仮想視点画像を生成する(S613、S615)。
The process of accepting the designation of the virtual viewpoint and acquiring the evaluation value p for evaluating the proximity of the virtual viewpoint and the virtual plane is the same as that of the first embodiment (S601 to S602 of FIG. 6A). When the proximity of the
S614による画像表示処理の一例についてより具体的に説明する。仮想視点301と仮想平面201の近さが所定レベル以上の場合(p<εの場合)、視線判定部114は、評価値pを0として画像生成部108と分離部105に出力する。分離部105は、視線判定部114からp=0を受信した場合、特定のカメラ(カメラ101d)による撮影画像の全体を前景画像として前景テクスチャ生成部106に送信する。また、画像生成部108は、視線判定部114からp=0を受信した場合、特定のカメラによる撮影画像の全体である前景画像を前景テクスチャ生成部106から取得し、そのままディスプレイ111に表示する。この動作により、ディスプレイ111における表示は、多視点画像から生成される仮想視点画像から特定のカメラにより撮影された撮影画像に切り替わる。
An example of the image display processing by S614 will be described more specifically. When the proximity of the
図7(a)〜(c)は、選手のフィニッシュ時の仮想視点画像をディスプレイ111に表示した状態の例を示す図である。第一実施形態でも説明したように、図7(a)は仮想カメラが仮想平面から離れた位置(p≧ε)にある場合の仮想視点画像である。図7(a)のように、ディスプレイ111に仮想平面201を重畳して表示することで、選手とフィニッシュラインとの位置関係がより解り易くなる。図7(b)は、仮想視点をフィニッシュライン延長線上に配置(p=0)して得られた、フィニッシュ時の仮想視点画像をディスプレイ111に表示した状態を示す図である。図7(b)は第一実施形態の図1の画像処理ブロックにより生成された画像であり、上述したように、三次元背景モデルに仮想平面が重畳され、順位判定の補助となる。
7 (a) to 7 (c) are diagrams showing an example of a state in which a virtual viewpoint image at the finish of a player is displayed on the
図7(c)は、本実施形態の画像生成部108が、仮想平面内に配置されたカメラ(例えば図4のカメラ101d)による撮影画像をディスプレイ111に表示した状態を示す図である。図7(c)は第二実施形態のS614で生成された画像であり、フィニッシュライン延長線上に配置されたカメラ101dによる撮影画像そのものである。すなわち、フィニッシュラインと選手を分離して生成する仮想視点画像に替えて、撮影画像そのものが表示されている。なお、ディスプレイ111の画面にカメラ番号表示701を追加するようにしてもよい。カメラ番号表示701により、仮想視点画像生成装置100をカメラ判定(ビデオ判定)に利用する場合に、審判員にどのカメラの画像であるかを明示することができる。
FIG. 7C is a diagram showing a state in which the
なお、仮想視点画像から特定カメラによる撮影画像への切り替えを行うか否かを判断するための評価値pは、上記に限られるものではない。例えば、特定のカメラの位置および/または視線方向と、仮想視点の位置および/または視線方向の差が所定範囲内であることを条件としてもよい。或いは、仮想視点の視線がフィニッシュラインの近傍の特定の範囲を向いていることを条件としてもよい。また、第1実施形態と第2実施形態の動作を組み合わせてもよい。例えば、2つの閾値ε1とε2(ε1>ε2)を設定し、ε1>p≧ε2の場合には特定カメラの撮影画像を優先して用いて仮想視点画像を生成し(第1実施形態のS604)、p<2の場合に特定カメラの撮影画像への切り替えを行うようにしてもよい。或いは、異なる条件で複数の評価値を算出し、それら評価値に基づいてS604の処理を実行するかS614の処理を実行するかを切り替えてもよい。 The evaluation value p for determining whether or not to switch from the virtual viewpoint image to the image captured by the specific camera is not limited to the above. For example, it may be a condition that the difference between the position and / or the line-of-sight direction of a specific camera and the position and / or the line-of-sight direction of the virtual viewpoint is within a predetermined range. Alternatively, it may be a condition that the line of sight of the virtual viewpoint points to a specific range in the vicinity of the finish line. Further, the operations of the first embodiment and the second embodiment may be combined. For example, two threshold values ε1 and ε2 (ε1> ε2) are set, and when ε1> p ≧ ε2, a virtual viewpoint image is generated by preferentially using the image captured by the specific camera (S604 of the first embodiment). ), P <2 may be used to switch to the captured image of the specific camera. Alternatively, a plurality of evaluation values may be calculated under different conditions, and it may be switched whether to execute the process of S604 or the process of S614 based on the evaluation values.
<第三実施形態>
第一実施形態、第二実施形態では、一つの仮想平面が三次元空間に設定される場合を説明した。しかしながら、仮想平面の数は一つに限られるものではない。第三実施形態では、一つの交線で交わる複数の仮想平面(二つの仮想平面)が設定される場合を説明する。
<Third Embodiment>
In the first embodiment and the second embodiment, the case where one virtual plane is set in the three-dimensional space has been described. However, the number of virtual planes is not limited to one. In the third embodiment, a case where a plurality of virtual planes (two virtual planes) intersecting at one line of intersection is set will be described.
図8はウィンタースポーツのカーリングに仮想視点画像生成装置100を適用した構成の例を示す図である。図8(a)は、カーリングの競技エリアの上部に撮像システム110(多視点カメラ)を配置した様子を表した図である。
FIG. 8 is a diagram showing an example of a configuration in which the virtual viewpoint
カーリングの競技エリアであるシート800の上部には、多視点画像を撮影するための複数のカメラとして5台のカメラ101a〜101eからなる撮像システム110が配置されている。5台中4台のカメラ101a〜101dは、ハウス803を中心にその近傍の多視点画像を生成するために、ハウス803の周辺を取り囲むように配置されている。また1台のカメラ101eをハウス803の中心の鉛直上部に配置してある。すなわち、カメラ101eは、その視線方向が仮想平面804と仮想平面805の交線に含まれる、特定のカメラとして用いられている。
An
図8(b)は仮想視点をハウス803中心の鉛直上部に指定したときの画像である。この視点位置からの画像は、視聴者による競技状況の把握や勝敗理解の助けになる。第三実施形態では2つの仮想平面を設定する。すなわち、センターライン801を含みシート800の面と直交する平面を第一の仮想平面804とし、ティーライン802を含みシート800の面と直交する平面を第二の仮想平面805とする。
FIG. 8B is an image when the virtual viewpoint is designated in the vertically upper part of the center of the
仮想平面生成部112は、センターライン801上における2つの指定位置から仮想平面804を、ティーライン802上の2つの指定位置から仮想平面805を仮想モデルとして生成し、それらの平面方程式を取得する。センターライン801、ティーライン802における位置の指定は、第一実施形態と同様に、仮想平面生成部112と接続された操作UI109を介して、ユーザにより行われる。仮想平面生成部112は、仮想平面804,805のそれぞれの平面方程式を画像生成部108に提供する。
The virtual
視線判定部114は、仮想視点と仮想平面との距離、および、仮想視点の方向と仮想平面の法線とのなす角度に関する評価値pを、仮想平面804と仮想平面805のそれぞれについて計算し、評価値p804、評価値p805を得る。そして、これら評価値を統合して新たな評価値を得る。例えば、それぞれの評価値の線形和p=γp804+ξp805を新たな評価値とする。第三実施形態においては、仮想視点位置および視線方向が仮想平面804と仮想平面805の交線806上にあるとき、最も視聴者の競技状況や勝敗理解の助けになり有効である。このとき、仮想視点は、仮想平面804及び仮想平面805の面上にあるため、評価値pは0となる。
The line-of-
評価値p=γp804+ξp805は、視線判定部114から画像生成部108に送られる。以下、画像生成部108は、第一実施形態または第二実施形態と同様に、評価値pに基づいて仮想視点画像の生成処理を切り替えることができる。なお、評価値pとして2つの仮想平面との関係を評価したが、これに限られるものではない。例えば、2つの仮想平面の交線と仮想視点の関係(例えば、交線の方向ベクトルと支線の方向ベクトルの内積、交線と仮想視点との距離)を評価してもよい。
The evaluation value p = γp 804 + ξp 805 is sent from the line-of-
以上、上記各実施形態では仮想モデルとして仮想平面を用いたが、仮想直線が用いられてもよい。例えば、ハウスの中心を指定することにより、シート面に垂直で、ハウスの中心をとおる仮想直線が設定される。この場合、仮想直線は、上記交線と一致する。評価値は、例えば、仮想直線と仮想視点との距離、仮想直線の方向と仮想視点の視線方向の差に基づいて算出することができる。 As described above, although the virtual plane is used as the virtual model in each of the above embodiments, a virtual straight line may be used. For example, by designating the center of the house, a virtual straight line perpendicular to the seat surface and passing through the center of the house is set. In this case, the virtual straight line coincides with the line of intersection. The evaluation value can be calculated based on, for example, the distance between the virtual straight line and the virtual viewpoint, and the difference between the direction of the virtual straight line and the line-of-sight direction of the virtual viewpoint.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
100:仮想視点画像生成装置、110:撮像システム、101a〜101z カメラ、102:通信回線、103:画像処理部、104:画像入力部、105:分離部、106:前景テクスチャ生成部、107:背景テクスチャ生成部、108:画像生成部、109:操作UI、111:ディスプレイ、112:仮想平面生成部、114:視線判定部 100: Virtual viewpoint image generator, 110: Imaging system, 101a-101z camera, 102: Communication line, 103: Image processing unit, 104: Image input unit, 105: Separation unit, 106: Foreground texture generation unit, 107: Background Texture generation unit, 108: Image generation unit, 109: Operation UI, 111: Display, 112: Virtual plane generation unit, 114: Line-of-sight determination unit
Claims (13)
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定手段と、
前記多視点画像と前記背景モデルを用いて、指定された仮想視点からの仮想視点画像を生成する生成手段と、を備え、
前記生成手段は、前記指定された仮想視点と前記仮想モデルとの距離が近いほど、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用することを特徴とする画像生成装置。 An image generator that generates virtual viewpoint images from multi-viewpoint images taken by multiple cameras.
A setting means for setting a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background in a three-dimensional space.
A generation means for generating a virtual viewpoint image from a specified virtual viewpoint by using the multi-viewpoint image and the background model is provided.
The generation means uses the image captured by the specific camera in preference to the image captured by another camera to generate the virtual viewpoint image as the distance between the designated virtual viewpoint and the virtual model becomes closer. An image generator characterized by this.
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、前記仮想視点画像の生成に用いる背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定手段と、
前記特定のカメラによる撮影画像に、前記特定のカメラと一致する仮想視点から観察される前記仮想モデルを描画する描画手段と、
前記撮影画像と描画された前記仮想モデルとが整合するように前記背景モデルを調整する調整手段と、
前記複数のカメラにより撮影された多視点画像と前記調整手段により調整された前記背景モデルを用いて仮想視点画像を生成する生成手段と、を備えることを特徴とする画像生成装置。 An image generator that generates virtual viewpoint images from multi-viewpoint images taken by multiple cameras.
A virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background used to generate the virtual viewpoint image are set in a three-dimensional space. Setting means to be
A drawing means for drawing the virtual model observed from a virtual viewpoint matching the specific camera on an image taken by the specific camera.
An adjustment means for adjusting the background model so that the captured image and the drawn virtual model match.
An image generation device comprising: a multi-viewpoint image taken by the plurality of cameras and a generation means for generating a virtual viewpoint image using the background model adjusted by the adjustment means.
前記生成手段は、前記評価手段により評価された前記近さが所定のレベル以上の場合に、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して用いて仮想視点画像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像生成装置。 Further provided with an evaluation means for evaluating the closeness of the position and direction between the virtual viewpoint designated for generating the virtual viewpoint image and the virtual model.
The generation means generates a virtual viewpoint image by using the image captured by the specific camera in preference to the image captured by another camera when the proximity evaluated by the evaluation means is equal to or higher than a predetermined level. The image generator according to any one of claims 1 to 3, wherein the image generator is characterized by the above.
前記評価手段により評価された前記近さが所定のレベル以上の場合に、表示に用いる画像を、前記生成手段により生成される仮想視点画像から前記特定のカメラによる撮影画像に切り替える切り替え手段と、をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像生成装置。 An evaluation means for evaluating the closeness of the position and direction between the virtual viewpoint designated for generating the virtual viewpoint image and the virtual model, and
A switching means for switching the image used for display from the virtual viewpoint image generated by the generation means to the image captured by the specific camera when the proximity evaluated by the evaluation means is equal to or higher than a predetermined level. The image generator according to any one of claims 1 to 3, further comprising.
前記評価手段は、前記複数の仮想平面のそれぞれについて仮想視点画像の生成のために指定された仮想視点との近さの評価結果を統合して、前記仮想モデルと前記指定された仮想視点との近さを評価することを特徴とする請求項4乃至6のいずれか1項に記載の画像生成装置。 The virtual model includes a plurality of virtual planes intersecting at one line of intersection, and the line-of-sight direction of the specific camera is included in the one line of intersection.
The evaluation means integrates the evaluation results of the proximity to the virtual viewpoint designated for generating the virtual viewpoint image for each of the plurality of virtual planes, and the virtual model and the designated virtual viewpoint are combined. The image generator according to any one of claims 4 to 6, wherein the closeness is evaluated.
前記複数のカメラによる多視点画像と前記背景モデルに基づいて生成された仮想視点画像を画面に表示させ、
前記画面において、表示されている仮想視点画像に対してユーザが指定した位置に基づいて仮想平面または仮想直線を決定することにより前記仮想モデルを設定することを特徴とする請求項1乃至8のいずれか1項に記載の画像生成装置。 The setting means is
A multi-viewpoint image from the plurality of cameras and a virtual viewpoint image generated based on the background model are displayed on the screen.
Any of claims 1 to 8 characterized in that the virtual model is set by determining a virtual plane or a virtual straight line based on a position designated by the user with respect to the displayed virtual viewpoint image on the screen. The image generator according to item 1.
前記評価手段は、前記仮想平面の位置および方向と、前記指定された仮想視点の位置および方向の近さを評価することを特徴とする請求項4、5、6、8のいずれか1項に記載の画像生成装置。 The virtual model is a virtual plane
The evaluation means according to any one of claims 4, 5, 6 and 8, characterized in that the position and direction of the virtual plane and the position and direction of the designated virtual viewpoint are evaluated. The image generator described.
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定工程と、
前記多視点画像と前記背景モデルを用いて、指定された仮想視点からの仮想視点画像を生成する生成工程と、を備え、
前記生成工程では、前記指定された仮想視点と前記仮想モデルとの距離が近いほど、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用することを特徴とする画像生成装置の制御方法。 It is a control method of an image generator that generates a virtual viewpoint image from a multi-view image taken by a plurality of cameras.
A setting step of setting a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background in a three-dimensional space.
A generation step of generating a virtual viewpoint image from a designated virtual viewpoint by using the multi-viewpoint image and the background model is provided.
In the generation step, the closer the distance between the designated virtual viewpoint and the virtual model is, the more the image captured by the specific camera is used for generating the virtual viewpoint image in preference to the image captured by the other camera. A control method for an image generator, characterized in that.
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、前記仮想視点画像の生成に用いる背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定工程と、
前記特定のカメラによる撮影画像に、前記特定のカメラと一致する仮想視点から観察される前記仮想モデルを描画する描画工程と、
前記撮影画像と描画された前記仮想モデルとが整合するように前記背景モデルを調整する調整工程と、
前記複数のカメラにより撮影された多視点画像と前記調整工程により調整された前記背景モデルを用いて仮想視点画像を生成する生成工程と、を備えることを特徴とする画像生成装置の制御方法。 It is a control method of an image generator that generates a virtual viewpoint image from a multi-view image taken by a plurality of cameras.
A virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background used to generate the virtual viewpoint image are set in a three-dimensional space. Setting process to be done and
A drawing step of drawing the virtual model observed from a virtual viewpoint matching the specific camera on an image taken by the specific camera.
An adjustment step of adjusting the background model so that the captured image and the drawn virtual model match.
A control method of an image generation device, comprising: a multi-viewpoint image taken by the plurality of cameras and a generation step of generating a virtual viewpoint image using the background model adjusted by the adjustment step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019036395A JP2020140519A (en) | 2019-02-28 | 2019-02-28 | Image generation device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019036395A JP2020140519A (en) | 2019-02-28 | 2019-02-28 | Image generation device and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020140519A true JP2020140519A (en) | 2020-09-03 |
Family
ID=72280419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019036395A Pending JP2020140519A (en) | 2019-02-28 | 2019-02-28 | Image generation device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020140519A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7528140B2 (en) | 2022-03-09 | 2024-08-05 | キヤノン株式会社 | Image processing device, image processing method, and program |
-
2019
- 2019-02-28 JP JP2019036395A patent/JP2020140519A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7528140B2 (en) | 2022-03-09 | 2024-08-05 | キヤノン株式会社 | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102013978B1 (en) | Method and apparatus for fusion of images | |
US8654195B2 (en) | Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus | |
TWI433530B (en) | Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo | |
KR101804205B1 (en) | Apparatus and method for image processing | |
JP5596972B2 (en) | Control device and control method of imaging apparatus | |
WO2017183470A1 (en) | Three-dimensional reconstruction method | |
JP2016018213A (en) | Hmd calibration with direct geometric modeling | |
JP2010278878A (en) | Stereoscopic image device and display image switching method thereof | |
WO2014023231A1 (en) | Wide-view-field ultrahigh-resolution optical imaging system and method | |
US20110149031A1 (en) | Stereoscopic image, multi-view image, and depth image acquisition apparatus and control method thereof | |
JP2007147457A (en) | Three-dimensional shape calculation apparatus and method | |
JP7196421B2 (en) | Information processing device, information processing system, information processing method and program | |
KR20150050172A (en) | Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object | |
JP2015073185A (en) | Image processing device, image processing method and program | |
JP2018500690A (en) | Method and system for generating magnified 3D images | |
JPH05303629A (en) | Method for synthesizing shape | |
CN107820071A (en) | Mobile terminal and its stereoscopic imaging method, device and computer-readable recording medium | |
JP2000112019A (en) | Electronic triplet lens camera apparatus | |
JP2020140519A (en) | Image generation device and control method thereof | |
JP2005063041A (en) | Three-dimensional modeling apparatus, method, and program | |
JP2007033087A (en) | Calibration device and method | |
JPH09305796A (en) | Image information processor | |
JP2006017632A (en) | Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method | |
JP5453552B2 (en) | Imaging apparatus, method and program | |
JP2011146762A (en) | Solid model generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |