JP7233881B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7233881B2 JP7233881B2 JP2018200042A JP2018200042A JP7233881B2 JP 7233881 B2 JP7233881 B2 JP 7233881B2 JP 2018200042 A JP2018200042 A JP 2018200042A JP 2018200042 A JP2018200042 A JP 2018200042A JP 7233881 B2 JP7233881 B2 JP 7233881B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- foreground
- camera
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、複数の視点で撮像された複数視点の画像に基づき、任意の仮想視点からの画像を生成する技術に関する。 The present invention relates to a technique for generating an image from an arbitrary virtual viewpoint based on multiple viewpoint images captured from multiple viewpoints.
複数の視点で撮像された複数視点の画像を用いて、任意の仮想視点における仮想視点画像を生成する技術がある。例えば、仮想視点画像を用いると、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することができるので、通常の画像と比較してユーザに高臨場感を与えることができる。 2. Description of the Related Art There is a technique of generating a virtual viewpoint image at an arbitrary virtual viewpoint using images of multiple viewpoints captured at multiple viewpoints. For example, by using a virtual viewpoint image, the highlight scenes of soccer or basketball can be viewed and viewed from various angles, so that it is possible to give the user a high sense of realism compared to normal images.
仮想視点画像の生成及び閲覧は、複数のカメラで撮影した画像をサーバ等の画像処理装置に集約して、前景背景の分離、三次元モデルの生成、レンダリング等の処理を行い、ユーザ端末に仮想視点画像を伝送することで実現される。このとき、仮想視点画像の背景として予め用意したスタジアムなどのモデルデータを用い、前景の形状推定を行い、それらに色を付けることで三次元形状モデルを生成している。 To generate and browse virtual viewpoint images, images captured by multiple cameras are aggregated in an image processing device such as a server, the foreground and background are separated, a 3D model is generated, and processing such as rendering is performed. It is realized by transmitting viewpoint images. At this time, model data of a stadium or the like prepared in advance is used as the background of the virtual viewpoint image, the shape of the foreground is estimated, and a three-dimensional shape model is generated by coloring them.
前景の形状推定精度、すなわち前景の画質をよくするために、フォーカスや向きが注視点に合わせられた各カメラの画角を狭く、光学的に拡大した状態で撮影される。注視点は対象箇所に合わせて複数設けられる。 In order to improve the accuracy of the shape estimation of the foreground, that is, the image quality of the foreground, the angle of view of each camera is narrowed and optically enlarged with the focus and orientation adjusted to the point of interest. A plurality of gaze points are provided according to the target location.
一方、注視点付近では、背景となるスタジアムが画像内に映りこむため、注視点とは無関係に、各カメラの画角を広く、光学的に引きの画でスタジアム全体を撮影する必要がある。 On the other hand, since the background stadium is reflected in the image near the point of interest, it is necessary to widen the angle of view of each camera and capture the entire stadium in an optically sharpened image regardless of the point of interest.
特許文献1には、複数台のプロジェクタが投影先のモデルに対して画像を重畳して表示する技術が記載されている。 Japanese Patent Application Laid-Open No. 2002-200000 describes a technique in which a plurality of projectors superimpose and display images on a model on which the images are projected.
しかしながら、前景画像の生成と背景画像の生成とでカメラに要求される画角が異なっていることから、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することができない場合があった。 However, since the angle of view required for the camera to generate the foreground image and the background image differs, an appropriate background image is generated based on the image captured by the camera used to generate the foreground image. Sometimes it was not possible.
特許文献1の技術では、共通の世界座標パラメータを持つ同期撮影されたカメラ群の画像を、同じく共通の世界座標をもつモデルに対して同期させて投影することができなかった。 With the technique of Patent Document 1, it was not possible to synchronously project images of a group of cameras that have common world coordinate parameters and that have been synchronously photographed onto a model that also has common world coordinates.
本発明は、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することを目的とする。 An object of the present invention is to generate an appropriate background image based on an image captured by a camera used to generate a foreground image.
本発明の一態様に係る画像処理装置は、仮想視点画像を生成する画像処理装置であって、第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成手段と、前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成手段と、前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段と、前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群と、を有し、前記背景生成手段は、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成することを特徴とする。 An image processing apparatus according to an aspect of the present invention is an image processing apparatus that generates a virtual viewpoint image, and is photographed by a first camera group composed of one or more cameras installed facing a first position. a first foreground generating means for generating a foreground image based on the obtained image; and a second camera group composed of one or more cameras installed facing a second position different from the first position. a second foreground generating means for generating a foreground image based on the image captured by the first and second camera groups; a texture image for the background model generated based on the image captured by the first and second camera groups; Background generation means for generating a background image of the virtual viewpoint image based on the background model, and one or more cameras installed facing a third position different from the first and second positions. and a third camera group, wherein the background generating means generates an image captured by the third camera group in addition to the images captured by the first and second camera groups The background image is generated further based on the texture image for the background model generated based on .
本発明によれば、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することができる。 According to the present invention, an appropriate background image can be generated based on an image captured by a camera used for generating a foreground image.
以下、本発明の実施形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、実施形態で説明されている構成要素の組み合わせのすべてが、課題を解決するための手段に必須のものとは限らず、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。なお、本実施形態では、背景画像が仮想視点画像の生成に用いられる例を説明するが、必ずしも仮想視点画像の生成に用いられるものでなくてよい。このため、複数カメラ間の相対的な幾何学的設置条件に縛られるものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention. In addition, not all combinations of the components described in the embodiments are essential to the means for solving the problems, and within the scope of the gist of the invention described in the claims, Various modifications and alterations are possible. In this embodiment, an example in which the background image is used to generate the virtual viewpoint image will be described, but the background image may not necessarily be used to generate the virtual viewpoint image. For this reason, it is not bound by relative geometric installation conditions between multiple cameras.
本明細書において符号の末尾のアルファベットは、同種の構成において個々の構成を識別するために用いている。末尾のアルファベットを省略して記載する場合、個々の構成を特に区別せずに記載しているものとする。 In this specification, alphabetical letters at the end of reference numerals are used to identify individual configurations in similar configurations. When description is made by omitting the alphabet at the end, it is assumed that each configuration is described without particular distinction.
[実施形態1]
本実施形態では、仮想視点画像の生成に用いられる背景画像を生成する形態を説明する。
図1は、本実施形態に係る画像処理システムの全体構成例を示すブロック図である。
[Embodiment 1]
In this embodiment, a form of generating a background image used for generating a virtual viewpoint image will be described.
FIG. 1 is a block diagram showing an example of the overall configuration of an image processing system according to this embodiment.
画像処理システム(仮想視点画像生成システム)100は、前景生成システム110A、110B、背景生成システム120、レンダリングシステム130を有し、カメラで撮影した画像を基に仮想視点画像を生成する。前景生成システム110A、110Bおよび背景生成システム120、レンダリングシステム130はそれぞれ、Ethrenet(登録商標)などのネットワークによって接続されている。なお、本実施形態では2つの前景生成システム110Aおよび110Bを有しているが、本実施形態はこれに限定されるものではなく、2つ以上のより多くの前景生成システム110を有する構成とすることも可能である。
An image processing system (virtual viewpoint image generation system) 100 has
前景生成システム110Aおよび110Bは仮想視点画像の前景画像を生成するために必要なシステムである。前景生成システム110Aと前景生成システム110Bは同様の構成であり、以降、前景生成システム110Aについて説明し、前景生成システム110Bについては説明を省略する。前景生成システム110Aは内部に撮影システム111a~111z、前景生成サーバ113を有する。前景生成システム110Aおよび110Bは、カメラの向きおよび焦点距離を合わせた注視点毎にシステムが構成される。ただし、本実施形態において、複数のカメラの注視点が一致せず、ずれている構成であってよい。
撮影システム111は、カメラで仮想視点画像を生成する対象を撮影し、変換を行って得たデジタル画像を各ブロックに転送する機能を実現する。仮想視点画像を生成するため、前景生成システム110の中に同様の構成を持つ複数の撮影システム111があり、本実施形態では111aから111zまで26台の構成であるものとする。ただし、本実施形態はこれに限定されるものではなく、求める仮想視点画像の前景画像の品質が得られるだけの必要な十分な数の撮影システムを有していれば26台より少ない台数または多くの台数で構成されていてもよい。撮影システム111それぞれは内部に撮像部112を有する。
The photographing system 111 realizes a function of photographing an object for generating a virtual viewpoint image with a camera and transferring a digital image obtained by performing conversion to each block. In order to generate a virtual viewpoint image, the foreground generation system 110 includes a plurality of photographing systems 111 having a similar configuration, and in this embodiment, 26
撮像部112は、カメラによって撮影された画像をデジタル画像に変換する機能を有する。また、撮像部112が有するカメラは同期信号を受信可能であり、後述のカメラ制御部117によって同期される。なお、撮影システム111a~111zは同様の機能を有するが、それぞれのカメラについては異なるカメラやレンズなどを用いるなどしてもよい。
The
前景生成サーバ113は、前景画像生成部114、パラメータ取得部115、前景形状推定部116、カメラ制御部117を有する。前景生成サーバ113は、前景の形状を推定して前景モデルデータを生成し、生成した前景モデルデータをレンダリングシステム130に送信する。前景モデルデータは、前景の三次元形状を表すデータである。
The
前景画像生成部114は、撮影システム111a~111zで撮影されて変換されたデジタル画像データから前景画像と背景画像を分離し、主な被写体(オブジェクト)である前景画像のみを抽出した前景画像データを生成する。生成された前景画像データは前景形状推定部116に送信される。前景画像は、例えば、画像データから選手などの動作する人物(動体)などを抽出した画像である。オブジェクトは、ボールなどのような物体であってもよい。背景画像は、例えば、芝生などの静止又は静止に近い状態が継続する物体を抽出した画像である。なお、前景画像と背景画像の分離方法は背景差分法に限定されるものではなく、公知の方法を適用可能である。なお、静止物体は、静止または、ほとんど静止している状態が継続している物体を指す。
The foreground
パラメータ取得部115は、予めキャリブレーションによって取得された、撮像部112のカメラ(以下、撮影システム111のカメラともいう)のカメラパラメータを保有し前景形状推定部116に提供する。カメラパラメータは、カメラの位置や姿勢などを表す外部パラメータと、画素ピッチや画像中心などを表す内部パラメータなどからなる。カメラパラメータは他にレンズによる画像の歪みを表した歪みパラメータなどを含んでもよい。
The
前景形状推定部116は、パラメータ取得部115から取得した撮影システム111a~111zのカメラパラメータと、前景画像生成部114から受信した前景画像データを用いて少なくとも前景の三次元形状を推定し、前景モデルデータを生成する。前景の三次元形状を推定する方法としては、例えばVisual Hullと呼ばれる方式などがあるが、本実施形態はこれに限らず、前景の形状を推定するどのような方法を用いてもよい。生成した前景モデルデータは、レンダリングシステム130に送信される。
The foreground
カメラ制御部117は、撮影システム111a~111zのカメラの撮影タイミングを同期させる信号を撮影システムに送信し、撮影システム111a~111zのカメラの撮影タイミングの同期と共に、撮影の開始および停止の指示を行う。撮影の開始および停止の状態を示す信号は、後述の制御部134に送信される。なお、本実施形態はこれに限らず、同期信号用の信号線を別途有してもよく、また、無線などを用いた同期信号制御を行ってもよい。
The
前景生成システム110Bは、前景生成システム110Aと同様の構成と機能をもつシステムである。なお、前景生成システム110Bが有する撮影システム111の数量は、前景生成システム110Aと同数である必要はなく、仮想視点画像の前景を生成するために必要な十分な数の撮影システムを有していればよい。
The
背景生成システム120は、パラメータ取得部121、モデル取得部122、背景画像生成部123、合成判断部124、テクスチャ生成部125を有する。背景生成システム120は、撮影システム111で撮影されたデジタル画像データを用いて背景モデルに張り付けるための背景テクスチャ画像を生成する。背景モデルは、背景の三次元形状を表すデータである。
The
パラメータ取得部121は、パラメータ取得部115と同様の機能を有し、予めキャリブレーションによって取得された撮影システム111のカメラのカメラパラメータを保有しテクスチャ生成部125に提供する。
The
モデル取得部122は、背景をメッシュモデル化した背景メッシュモデルデータを背景モデルとして取得し、テクスチャ生成部125に提供する。例えば、野球やサッカーなどのスポーツを撮影する場合は、そのスポーツが実際に行われているスタジアムのメッシュモデルデータなどが考えられるが、本実施形態はこれに限らず、どのようなメッシュモデルデータを用いてもよい。メッシュモデルとは、例えばCADデータなどの三次元の空間形状の面の集合で表現したデータのことである。背景モデルを表現する形式は、メッシュモデルの形式に限らず、例えは、点群やボクセルなどの他の公知の形式であってもよい。
The
背景画像生成部123は、撮影システム111a~111zで撮影されたデジタル画像データから前景画像と背景画像を分離し、背景画像のみを抽出した背景画像データを生成する。生成された背景画像データはテクスチャ生成部125に送信される。
The background
合成判断部124は、画像処理システム100内に存在する前景生成システム110を認識する。そして、合成判断部124は、それぞれの前景生成システム110から受信する画像データについて、どの前景生成システムの画像データを用いるか使用可否についてユーザから指示を受け、それらの情報をテクスチャ生成部125に提供する。
The
テクスチャ生成部125は、背景画像データを用い、背景メッシュモデルデータのメッシュに対し、カメラパラメータを用いて射影変換を行って投影し合成処理を行う。背景画像データは、合成判断部124から提供された画像データの使用可否の情報を基に、前景生成システム110Aおよび110Bで得たデジタル画像データのうち、使用対象のデジタル画像データから背景画像生成部123で生成されるデータである。背景メッシュモデルデータは、モデル取得部122から提供されるデータである。カメラパラメータは、パラメータ取得部121から提供される。
Using the background image data, the
そして、テクスチャ生成部125は、背景メッシュモデルへの投影と合成により、各メッシュのテクスチャ画像を生成する。すなわち、テクスチャ生成部125は、前景生成システム110Aおよび110Bで得たデジタル画像データを用いて、背景メッシュモデルデータに対する背景テクスチャ画像を生成する。テクスチャ生成部125は、生成した背景テクスチャ画像として背景モデルデータと共にレンダリングシステム130に送信する。テクスチャとは、物体の表面の質感を表現するために張り付ける画像のことである。
Then, the
カメラ画像を背景メッシュモデル上に投影する方法としては、例えば、以下の方法が考えられる。あるメッシュ上の4点、例えばメッシュが四角形であればテクスチャ画像上の端部に紐づけて、4点のカメラ画像上での座標とテクスチャ画像の頂点座標の対応から、ホモグラフィを求めて透視変換するなどの方法が考えられる。カメラ画像を透視変換し背景メッシュモデル上に投影した結果、カメラ画像が重複する場合は、それらを合成して画像を生成する。なお、本実施形態はこれに限定されるものではなく、背景画像データをテクスチャ画像上に投影するどのような方法を用いてもよい。 As a method of projecting the camera image onto the background mesh model, for example, the following method is conceivable. Four points on a certain mesh, for example, if the mesh is a quadrilateral, it is linked to the edge of the texture image, and from the correspondence between the coordinates of the four points on the camera image and the vertex coordinates of the texture image, the homography is obtained and perspective is obtained. A method such as conversion is conceivable. When the camera images are overlapped as a result of perspective transformation of the camera images and projection onto the background mesh model, they are combined to generate an image. Note that the present embodiment is not limited to this, and any method of projecting the background image data onto the texture image may be used.
レンダリングシステム130は、レンダリング部131、操作部132、出力部133、制御部134を有する。レンダリングシステム130は、前景生成システム110Aまたは110Bから取得した前景モデルデータ、背景生成システム120から取得した背景モデルデータ、背景テクスチャ画像を用い、ユーザ操作に従って仮想視点画像を生成する。
The
レンダリング部131は、前景生成システム110A、110Bから受信した前景モデルデータと、背景生成システム120から受信した背景モデルデータおよび背景テクスチャ画像とを用い、演算によって仮想視点からの画像をレンダリングする。演算としては、例えばCPUまたはGPUなどの演算が挙げられる。また、仮想視点画像の変更操作については後述の操作部132によってユーザからの操作を受け付けることで行われる。
The
操作部132はキーボードやマウス、ジョイスティックやタッチパッド等の操作部材、或いはファイル入力等の入力手段を有し、ユーザによる仮想視点の変更操作や撮影開始の指示、その他画像処理システム100各部への指示を受け付ける。変更された仮想視点の情報をレンダリング部131に送信する。
The
出力部133はDisplay PortやSDIなどの画像信号出力端子と、それらの画像信号を入力して画像として表示するTVやディスプレイ、プロジェクタ装置などの表示装置を有する。出力部133は、レンダリングされた仮想視点画像をユーザが目視で確認できる画像として出力する。なお、本実施形態はこれに限らず、仮想視点画像を静止画または動画として画像データとして出力し、ネットワークへの配信、あるいはストレージデバイスに対して保存するものであってもよい。
The
制御部134は、前景生成システム110Aおよび110B、背景生成システム120の各システムと通信し、各種制御を行う。制御部134は、前景生成システム110Aおよび110Bによる前景画像データ、前景モデルデータの生成の開始や停止、背景生成システム120による背景画像データ、背景テクスチャ画像の生成の開始や停止、注視点の切り替え操作等を行う。すなわち、制御部134は、画像処理システム100の各ブロックの制御を行う。
The
図2は、画像処理システム100による仮想視点画像の生成処理手順例を示すフローチャートである。本フローチャートを用いて本実施形態の画像処理システムの仮想視点画像生成処理について説明する。
FIG. 2 is a flowchart illustrating an example of a virtual viewpoint image generation processing procedure by the
図2(a)は、前景生成システム110Aによる前景モデルデータの生成処理手順例を示すフローチャートである。なお、ここでは前景生成システム110Aによる処理に関して説明するが、前景生成システム110Bでも、図2(a)と同様の処理が行われる。以下の各記号Sは、フローチャートにおけるステップであることを意味する。これらは図2以降についても同様である。
FIG. 2A is a flow chart showing an example of the foreground model data generation processing procedure by the
前景生成システム110Aのカメラ制御部117は、後述のS221で制御部134から送信された撮影開始指示の信号を受信する(S201)。
The
図3は、撮影システムの概略構成を示す図である。図3に示すように、撮影システム111a~111zは、スタジアム300を囲むように設置される。スタジアム300は、本実施形態の背景メッシュモデルデータを示しており、観客席の無いグラウンドのみの平面モデルを用いている。平面モデルは、三次元空間上に平面として表される三次元モデルである。本実施形態では平面モデルを用いた場合を示しているが、本実施形態はこれに限定されるものではなく、立体的な構造を持つモデルであってもよい。
FIG. 3 is a diagram showing a schematic configuration of the imaging system. As shown in FIG. 3, the
注視点301は前景生成システム110Aの注視点である。各撮影システム111a~111zのカメラは注視点301の方向に向き、注視点301に焦点が合うように設置される。すなわち、撮影システム111a~111zのカメラの注視点(撮影中心)は、注視点301である。
A
カメラ制御部117は、撮影システム111a~111zのカメラの撮影タイミングを同期させる(S202)。
The
カメラ制御部117による撮影システム111a~111zのカメラの撮影タイミングが同期すると、カメラ制御部117は、撮影システム111a~111zに対して撮影開始を指示する。撮影システム111a~111zの撮像部112は、カメラで撮影した画像をデジタル画像データに変換し当該デジタル画像データを前景画像生成部114及び背景画像生成部123に送信する。また、同期撮影が開始されると、カメラ制御部117は、同期撮影が開始されたことを示す信号を制御部134に送信する(S203)。
When the imaging timings of the cameras of the
前景画像生成部114は、撮影システム111a~111zが撮像部112によってカメラで撮影した画像を変換したデジタル画像データから前景画像と背景画像を分離し、背景画像を取り除いて前景画像のみを抽出した前景画像データを生成する。そして、前景画像生成部114は、生成した前景画像データを前景形状推定部116に提供する(S204)。
The foreground
前景形状推定部116は、前景画像生成部114から受信した前景画像データと、パラメータ取得部115から取得したカメラパラメータとを用いて前景の形状を推定し、前景モデルデータを生成する(S205)。なお、パラメータ取得部115は、予めキャリブレーションによって取得されたカメラパラメータを本フロー前に保有しているものとする。
The foreground
前景形状推定部116は、生成した前景モデルデータをレンダリング部131に送信する(S206)。
The foreground
図2(b)は、背景生成システム120による背景データの生成処理手順例を示すフローチャートである。
背景生成システム120の合成判断部124は、ユーザによって予め設定された前景生成システム110のいずれの画像データを用いて背景テクスチャ画像を生成するかを取得する(S211)。本実施形態では、前景生成システム110Aおよび110Bのすべての画像データを用いて背景画像データを生成するものとする。
FIG. 2B is a flow chart showing an example of the background data generation processing procedure by the
The
背景画像生成部123は、S211で取得した合成判断部124の判断結果に基づき、S203で撮影され変換されたデジタル画像データを前景生成システム110Aまたは110Bから受信する(S212)。例えば、ここでは、前景生成システム110Aからの画像データを受信したものとする。
The background
合成判断部124は、背景画像生成部123が、背景画像データを生成するデータとして設定されている前景生成システム110Aおよび110Bの全てからデータを取得したかを判断する(S213)。
合成判断部124は、前景生成システム110Aおよび110Bの全てからデータを取得して合成範囲の全てのデータが揃っていると判断すると、処理をS214に移行する。合成判断部124は、前景生成システム110Aおよび110Bの全てからデータを取得しておらず、合成範囲の全てのデータが揃っていないと判断すると、処理をS212に返し、S212とS213の処理を繰り返す。例えば、先のS212では前景生成システム110Aの画像データを受信しているが、前景生成システム110Bの画像データを受信していないため、S212に戻って前景生成システム110Bの画像データの受信を待つことになる。その後、S212で前景生成システム110Bの画像データの受信が完了すると、合成判断部124は、S213では合成判断部124に設定されたすべての前景生成システムの画像データが揃っていると判断し、処理をS214に移行する。
背景画像生成部123は、S212で受信したデジタル画像データを前景画像と背景画像に分離し、背景画像のみを抽出した背景画像データを生成する。そして、背景画像生成部123は、生成した背景画像データをテクスチャ生成部125に提供する(S214)。
The background
テクスチャ生成部125は、受信した背景画像データを、モデル取得部122から取得した背景モデルデータに対してカメラパラメータを用いて射影変換を行って投影し、それらを合成することで背景テクスチャ画像を生成する(S215)。なお、テクスチャ生成部125は、カメラパラメータをパラメータ取得部121から取得する。パラメータ取得部121は、予めキャリブレーションによってカメラパラメータを取得し保有しており、本フロー前にカメラパラメータを取得しているものとする。また、モデル取得部122は、背景モデルデータを本フロー前に取得しているものとする。
The
図4(a)、(b)は、前景生成システム110Aの撮影システム111a~111zにより得られる撮影範囲を模式的に示した図である。
FIGS. 4A and 4B are diagrams schematically showing the shooting ranges obtained by the
図4(a)は、撮影システム111tで撮影される範囲を示した図である。撮影システム111tによって、当該撮影システム111tが図示された位置から注視点301に焦点を合わせて撮影すると、撮影システム111tの撮影範囲は、注視点301を撮影中心とした領域400で示される範囲となる。すなわち、撮影システム111tの焦点が注視点301に合わされると、撮影システム111tの撮影範囲は、領域400で示される範囲となる。このように、図示された位置から注視点301に焦点を合わせて撮影した撮影システム111a~111zの26つ全ての撮影範囲を合わせると、図4(b)に示すように、全撮影範囲は、注視点301を撮影中心とした第1の領域401となる。第1の領域401は、スタジアム300のほぼ右半分をカバーする。すなわち、背景画像生成部123は、前景生成システム110Aから受信したデジタル画像データを用いて、第1の領域401に該当する背景画像データを生成できる。
FIG. 4A is a diagram showing a range photographed by the photographing
同様に、図5は、前景生成システム110Bの撮影システム111A~111Zにより得られる撮影範囲を模式的に示した図である。注視点501は前景生成システム110Bの注視点である。前景生成システム110Bの撮影システム111A~111Zが図示された位置から注視点501に焦点を合わせて撮影すると、当該撮影システム111A~111Zの全てを合わせた撮影範囲は、注視点501を撮影中心とした第2の領域502となる。第2の領域502は、スタジアム300のほぼ左半分をカバーする。すなわち、背景画像生成部123は、前景生成システム110Bから受信したデジタル画像データを用いて、第2の領域502に該当する背景画像データを生成できる。
Similarly, FIG. 5 is a diagram schematically showing the shooting range obtained by the
本実施形態では、合成判断部124によって前景生成システム110Aおよび前景生成システム110Bの両方が使用されると判断されるため、それらを合わせた背景画像データが生成される。
In the present embodiment, the
図6は、背景生成システム120によって生成される背景画像の範囲を示した模式図である。前景生成システム110Aおよび110Bの各撮影システムの焦点を注視点301および501に合わせて撮影すると、撮影システムの全てを合わせた撮影範囲は、図4(b)の第1の領域401と図5の第2の領域502を合わせた全領域601となる。全領域601は、スタジアム300全体をカバーする。すなわち、背景生成システム120は、スタジアム300全体をカバーする全領域601に該当する背景画像データを生成できる。
FIG. 6 is a schematic diagram showing the range of the background image generated by the
テクスチャ生成部125は、背景画像生成部123によって生成された背景画像データを、パラメータ取得部121から取得したカメラパラメータを用いて射影変換し、背景モデルデータであるスタジアム300に投影することで背景テクスチャ画像を生成する。そして、テクスチャ生成部125は、背景モデルデータと、生成された背景テクスチャ画像をレンダリング部131に送信する(S216)。
The
図2(c)は、レンダリングシステム130による仮想視点画像の生成処理手順例を示すフローチャートである。
操作部132がユーザにより操作されて、仮想視点画像を生成開始する操作を受け付けると、仮想視点画像の生成開始の操作を受け付けたことを画像処理システム100の各部に対して通知し仮想視点画像生成の開始を指示する(S221)。
FIG. 2(c) is a flowchart showing an example of a processing procedure for generating a virtual viewpoint image by the
When the
レンダリングシステム130の制御部134は、仮想視点画像の生成開始の操作を受け付けたことの通知を操作部132から受け取ると、前景生成システム110Aおよび110Bのカメラ制御部117に対して同期撮影開始を指示する(S222)。同期撮影が開始されると、制御部134は、S203で送信された、同期撮影が開始されたことを示す信号をカメラ制御部117から受信する。
When the
レンダリング部131は、S206で生成された前景モデルデータを前景生成システム110Aおよび110Bの前景形状推定部116から受信する(S223)。
The
レンダリング部131は、S216で生成された背景モデルデータと背景テクスチャ画像をテクスチャ生成部125から受信する(S224)。
The
操作部132は、ユーザによる仮想視点の操作、すなわち、仮想視点座標の変更操作を受け付け、変更された仮想視点座標情報をレンダリング部131に送信する(S225)。
The
レンダリング部131は、受信した前景モデルデータと背景モデルデータを用い、操作部132から受信した仮想視点座標を用いてCPUまたはGPUなどの演算によって仮想視点からの画像をレンダリングする(S226)。
The
図7は、仮想視点画像のレンダリングの様子を示した模式図である。
仮想視点701は、カメラが設置されていない任意の視点である仮想視点のカメラを表している。この仮想視点701で仮想視点画像としてレンダリングされる範囲を示しているのが仮想視点レンダリング範囲702である。
FIG. 7 is a schematic diagram showing how a virtual viewpoint image is rendered.
A
仮想視点レンダリング範囲702は、前景生成システム110Aの撮影範囲である第1の領域401の範囲を超えた撮影外領域703を有する。撮影外領域703は、黒で塗りつぶされた領域である。撮影外領域703は、前景生成システム110Aのみの画像データを用いて背景テクスチャ画像を生成することはできない。
The virtual
図8は、前景生成システム110Aおよび110Bの撮影範囲を合わせた全領域601と仮想視点レンダリング範囲702の関係を示した模式図である。本実施形態では、前景生成システム110Aと110Bの画像データのどちらも使用するため、全領域601の範囲において背景テクスチャ画像が生成される。よって、全領域601はスタジアム300のすべてが撮影範囲に含まれており、仮想視点レンダリング範囲702から見える範囲において、隙間の無い背景テクスチャ画像を生成することが出来る。
FIG. 8 is a schematic diagram showing the relationship between a
レンダリング部131が生成した画像は、出力部133に送られ、ディスプレイなどの表示装置(図示省略)を通してユーザに目視される、あるいは、ファイルなどの画像データとしてユーザに取得される(S227)。
The image generated by the
以上説明したように、本実施形態によれば、画角を狭く設定したカメラで撮影された画像を基に、適切な背景画像を生成することができる。具体的には、注視点を向いた撮影範囲が限定されたカメラを用いて、仮想視点画像の背景生成の範囲を広げることが出来る。すなわち、複数の注視点毎に前景の形状推定を行う際、新たなカメラを追加することなく、背景生成の範囲を広げることが出来る。 As described above, according to this embodiment, an appropriate background image can be generated based on an image captured by a camera with a narrow angle of view. Specifically, it is possible to widen the background generation range of the virtual viewpoint image by using a camera with a limited shooting range facing the gaze point. That is, when estimating the shape of the foreground for each of a plurality of fixation points, the range of background generation can be expanded without adding a new camera.
(変形例)
以上、本実施形態について述べてきたが、本発明はこれに限定されるものではない。
例えば、本実施形態では、背景生成システム120及びレンダリングシステム130は別のシステムとしているが、同一のシステムとしてもよい。
(Modification)
Although the present embodiment has been described above, the present invention is not limited to this.
For example, in this embodiment, the
注視点を選択するユーザインターフェース(選択手段)を有し、レンダリングシステム130は注視点を選択した前景生成サーバにより生成された前景モデルデータを用いた仮想視点画像を生成してもよい。
Having a user interface (selection means) for selecting a gaze point, the
また、本実施形態では背景生成システム120に対して、前景生成システム110Aおよび前景生成システム110Bの2つの画像データが送られているが、これに限定されない。例えば、操作部132のユーザインターフェースによって、前景生成システム110Aおよび110Bの各々に対して、背景生成システム120への画像データの転送のオンとオフを切り替えることが出来てもよい。その場合、背景生成システム120は、画像データの転送がオンになっている前景生成システム110の画像データを用いて背景テクスチャ画像を生成する。
Also, in the present embodiment, two image data of the
また、画像処理システムは、撮影システム111の注視点301および501と異なる注視点に向けて設置された1以上のカメラで構成される第3のカメラ群を有する第3の撮影システムをさらに有してもよい。第3のカメラ群は、前景生成システム110A、110Bが有する撮影システム111のカメラ(第1および第2のカメラ群)によって撮影された画像より広い画角の画像を撮影することが好ましく、スタジアム300全体を撮影することがより好ましい。なお、第3のカメラ群がスタジアム300全体を撮影する場合、第3のカメラ群のカメラの注視点をスタジアム300のほぼ中心に設定することが好ましい。その場合、テクスチャ生成部125は、前景生成システム110A、110Bのカメラ群によって撮影された画像に加えて、第3の撮影システムの第3のカメラ群によって撮影された画像をさらに用いて背景モデルに張り付ける背景テクスチャ画像を生成する。また、テクスチャ生成部125は、前記第3のカメラ群によって撮影された前記画像を、前景生成システム110A、110Bの第1、第2のカメラ群によって撮影された前記画像よりも高い比重で前記テクスチャ画像を生成してもよい。これにより、前景生成システム110A、110Bの第1、第2のカメラ群によって撮影された前記画像のみに基づく場合と比べて、より適切な背景画像を生成できる。
In addition, the image processing system further includes a third imaging system having a third camera group composed of one or more cameras installed toward a gaze point different from the gaze points 301 and 501 of the imaging system 111. may The third camera group preferably captures an image with a wider angle of view than the images captured by the cameras (first and second camera groups) of the imaging system 111 of the
また、撮影システム111は歪みパラメータを用いて、画像の歪みを補正する歪み補正部を前景生成サーバ113、または背景生成システム120に有し、撮影した画像データを歪み補正部によって補正処理を行ってもよい。また、歪み補正部は撮影システム111に有していてもよい。
Further, the image capturing system 111 has a distortion correction unit that corrects image distortion using a distortion parameter in the
また、本実施形態では、画像データを撮影システム111から前景生成サーバ113及び背景生成システム120に送信しているが、画像処理システム100が集約サーバを有し、集約サーバにてデータを集約するような形態であってもよい。そして、集約サーバ(振り分け手段)は、当該集約サーバに集約したデータを前景生成システム110Aの前景生成サーバ113と、前景生成システム110Bの前景生成サーバ113と、背景生成システム120とに振り分けてもよい。具体的には、集約サーバは、前景生成システム110Aの前景生成サーバ113に当該前景生成システム110Aの撮影システム111の画像を振り分けてもよい。集約サーバは、前景生成システム110Bの前景生成サーバ113に当該前景生成システム110Bの撮影システム111の画像を振り分けてもよい。集約サーバは、背景生成システム120に前景生成システム110Aの撮影システム111の画像と前景生成システム110Bの撮影システム111の画像を振り分けてもよい。
Further, in the present embodiment, image data is transmitted from the photographing system 111 to the
また、画像処理システム100が、ストレージを有するデータベースシステムを備え、前景生成システム110、背景生成システム120、レンダリングシステム130に対してデータベースを介して必要なデータを送受信してもよい。ストレージは、カメラパラメータや背景モデルデータ、前景生成システム110で生成される前景画像データ、背景画像データや前景モデルデータ、背景生成システム120で生成される背景テクスチャ画像などを記憶するのに十分な大容量記憶装置とする。
Further, the
[実施形態2]
本実施形態に係る画像処理システムについて、図9および図10を参照して説明する。
本実施形態では、背景画像データの合成について述べる。なお、本実施形態では、上述した実施形態の画像処理システムと同一の機器については同一の符号を付記しその説明を省略する。
[Embodiment 2]
An image processing system according to this embodiment will be described with reference to FIGS. 9 and 10. FIG.
In this embodiment, synthesis of background image data will be described. It should be noted that, in this embodiment, the same reference numerals are given to the same devices as in the image processing system of the above-described embodiment, and the description thereof will be omitted.
図9は、本実施形態の画像処理システムの構成例を示すブロック図である。
本実施形態の画像処理システム(仮想視点画像生成システム)900は、上述の実施形態と同様、前景生成システム110A、前景生成システム110B、背景生成システム120、レンダリングシステム130を有する。
FIG. 9 is a block diagram showing a configuration example of the image processing system of this embodiment.
An image processing system (virtual viewpoint image generation system) 900 of this embodiment includes a
背景生成システム120は、パラメータ取得部121、モデル取得部122、背景画像生成部123、合成判断部124、テクスチャ生成部125に加え、重みづけ判断部901を有する。
The
重みづけ判断部901は、テクスチャ生成部125が背景メッシュモデル上にカメラ画像(背景画像データ)を射影変換によって投影した際に、メッシュモデル上に投影したカメラ画像(背景画像データ)を合成する重みづけを導出する。すなわち、重みづけ判断部901は、メッシュモデル上に投影したカメラ画像における重複する領域に関し、各カメラ画像の重みづけを導出する。重みづけ判断部901による重みづけ処理は、S216の背景テクスチャ画像を生成する際に実行される。
When the
重みづけ判断部901による重みづけ処理について、図10を用いて説明する。
図10は、前景生成システム110Aおよび110Bの撮影範囲を示した模式図である。
Weighting processing by the weighting determination unit 901 will be described with reference to FIG.
FIG. 10 is a schematic diagram showing the shooting ranges of the
重複領域1001は、前景生成システム110Aによる撮影範囲である第1の領域401と前景生成システム110Bによる撮影範囲である第2の領域502が重複する範囲である。言い換えると、重複領域1001は、前景生成システム110Aおよび110Bのいずれのシステムを用いても背景画像データを生成することが出来る範囲である。
An overlapping
画素1002は、背景となるメッシュモデル上にて、第1の領域401および第2の領域502が重複する重複領域1001における、ある一点を示している。
A
画素1002と注視点301の距離1003Aが長さLaであり、画素1002と注視点501の距離1003Bが長さLbであるとする。
Assume that the
このとき、画素1002に関し、前景生成システム110Aで生成される背景画像データの画素値Xaと前景生成システム110Bで生成される背景画像データの画素値Xbの2つを合成した画素値Xの数値を演算によって導出する。画素値Xの導出方法として、例えば下記のような数式を用いる。
At this time, regarding the
上記の数式を用いることで、注視点からの距離が近い画素の重みを重くすることができる。画素1002の場合、長さLaと比較して長さLbの方が小さく、画素値Xbの重みづけの方が画素値Xaの重みよりも大きくなる。
By using the above formula, it is possible to weight pixels closer to the point of gaze. In the case of the
このように注視点からの距離を用いて重みづけをすることによって、カメラ画像(前景生成システムによるデジタル画像データ)の切り替わり部分において境界線が目立たないように徐々に重みを重くすることが出来る。 By weighting using the distance from the gaze point in this way, it is possible to gradually increase the weight so that the boundary line does not stand out in the switching portion of the camera image (digital image data by the foreground generation system).
本実施形態では、画素値Xを上記数式(1)により導出したが、画素値Xの導出方法はこれに限定されない。例えば、数式(1)の範囲を正規化した値としてもよい。また画素値Xを求める際の画素値Xaおよび画素値Xbの合成の重みづけについては、距離1003Aおよび距離1003Bに基づいて求め、長さLaおよび長さLbのいずれか値の小さな方の重みづけが重くなるように導出されれば良い。
また、合成の重みについては、単純に平均値や中間値を用いる方法でもよい。
In the present embodiment, the pixel value X is derived from the above formula (1), but the method of deriving the pixel value X is not limited to this. For example, it may be a value obtained by normalizing the range of formula (1). Further, the weighting for combining the pixel value Xa and the pixel value Xb when obtaining the pixel value X is obtained based on the
As for weights for synthesis, a method of simply using an average value or an intermediate value may be used.
また、各前景生成システム110から取得したデジタル画像データについて画質の評価を行い、解像度の高さやコントラストの高さなどの評価を数値化し、その数値によって重みづけを行ってもよい。 Alternatively, the image quality of the digital image data acquired from each foreground generation system 110 may be evaluated, the evaluation of high resolution and high contrast may be quantified, and weighting may be performed based on the numerical values.
また、前景生成システム110で撮影される撮影範囲の一部または全てにおいて、撮影に失敗した画素がある場合、それらの画素の重みを0または0に近い数値としてもよい。 In addition, if there are pixels that fail to be captured in part or all of the imaging range captured by the foreground generation system 110, the weight of those pixels may be set to 0 or a numerical value close to 0.
以上、説明したように、本実施形態によれば、複数の撮影システムによるカメラ画像(デジタル画像データ)において重複領域がある場合に、重みづけ処理を行うことで、切り替えられるカメラ画像間の境界線の生成を抑制できる。 As described above, according to the present embodiment, when there is an overlapping area in camera images (digital image data) obtained by a plurality of imaging systems, weighting processing is performed so that the boundary line between camera images to be switched is generation can be suppressed.
[実施形態3]
本実施形態に係る画像処理システムについて、図11および図12を参照して説明する。
本実施形態では、背景画像データの生成に於いて、生成範囲を指定する方法について述べる。なお、本実施形態では、上述した実施形態の画像処理システムと同一の機器については同一の符号を付記しその説明を省略する。
[Embodiment 3]
An image processing system according to this embodiment will be described with reference to FIGS. 11 and 12. FIG.
In this embodiment, a method of designating a generation range in generating background image data will be described. It should be noted that, in this embodiment, the same reference numerals are given to the same devices as in the image processing system of the above-described embodiment, and the description thereof will be omitted.
図11は、本実施形態の画像処理システムの構成例を示すブロック図である。
本実施形態の画像処理システム(仮想視点画像生成システム)1100は、上述の実施形態と同様、前景生成システム110A、前景生成システム110B、背景生成システム120、レンダリングシステム130を有する。
FIG. 11 is a block diagram showing a configuration example of the image processing system of this embodiment.
An image processing system (virtual viewpoint image generation system) 1100 of this embodiment includes a
前景生成システム110Aの撮影システム111aは、撮像部112に加え、前景背景分離部(以下、分離部と記す)1101を有する。
The
背景生成システム120は、パラメータ取得部121、モデル取得部122、合成判断部124、テクスチャ生成部125に加え、範囲指定部(以下、指定部と記す)1102を有する。
The
分離部1101は、撮像部112でカメラによって撮影された画像を変換したデジタル画像データから前景画像と背景画像を分離して、前景画像データと背景画像データを生成する。このとき、背景画像生成部123は、後述の指定部1102によって指定される範囲については背景画像データの生成を行わない。
A
指定部1102は、分離部1101が生成する背景画像データの範囲を指定し、指定された範囲の背景画像データを受信する。受信した背景画像データは、テクスチャ生成部125に送られる。
A designating
図12は、画像処理システム1100による仮想視点画像生成処理のフローチャートである。図12(a)に前景生成システム110Aによる前景データの生成処理手順例のフローを示し、図12(b)に背景生成システム120による背景データの生成処理手順例のフローを示す。なお、ここでは前景生成システム110Aによる処理に関して説明するが、前景生成システム110Bでも、図12(a)と同様の処理が行われる。レンダリングシステム130による仮想視点画像の生成処理手順例を示すフローは、図2(c)に示すフローと同様であり、その説明を省略する。
FIG. 12 is a flowchart of virtual viewpoint image generation processing by the
分離部1101は、撮像部112から取得したデジタル画像データ(撮影データ)を前景画像と背景画像に分離し、前景画像のみを抽出した前景画像データを生成し、生成した前景画像データを前景形状推定部116に提供する(S1201)。
A
分離部1101は、撮像部112から取得した撮影データを前景画像と背景画像に分離し、後述のS1211で指定部1102によって指定された範囲に従って、背景画像データを生成する(S1202)。生成した背景画像データは、指定部1102に送信される。
The
指定部1102は、S211で設定された前景生成システム110A、110Bの使用設定に従い、重複領域について前景生成システム110Aまたは110Bのいずれで生成するかを決定する(S1211)。例えば、指定部102は、仮想視点の位置及び方向に応じて前景生成システム110Aまたは110Bのうち何れか一方を選択する。
The designating
指定部1102による背景画像データにおける範囲の指定方法について、図10の重複領域1001を用いて説明する。
A method of specifying a range in the background image data by the specifying
重複領域1001は、前景生成システム110Aまたは110Bのいずれでも背景画像データを生成することが出来るため、どちらか一方のみから背景画像データが生成されればよい領域である。実施形態2と同様に、画素1002について重みづけ判断部901で重みづけの演算を行うと、前景生成システム110Aに対応するカメラで得られる画像に対する重みはLb/(La+Lb)となる。前景生成システム110Bに対応するカメラで得られる画像に対する重みはLa/(La+Lb)となる。このとき、La>Lbであるため、前景生成システム110Bで得られる画像の方の重みづけが前景生成システム110Aで得られる画像に対する重みづけと比べて重いことがわかる。指定部1102は、このようにして重みづけによる選択を行う。
The overlapping
指定部1102は、前景生成システム110Bを選択すると、前景生成システム110Aの撮影システム111a~111zの画素1002に該当する箇所について、分離部1101に対し不要な画素値として指定する。
When the
図13は、撮影システム111tについて、指定部1102によって背景画像データの生成範囲の指定が行われる様子を示した図である。図13(a)に撮影システム111tの撮影範囲と画素の位置との関係を示し、図13(b)に撮影システム111tの撮影範囲と非画像生成範囲との関係を示す。
FIG. 13 is a diagram showing how the specifying
図13(a)に示すように、画素1002は、撮影中心を注視点301に設定した撮影システム111tがスタジアム300を撮影した撮影範囲である領域400で示される範囲内に位置づけられている。図13(a)のように撮影範囲の領域400の中に含まれる画素1002は分離部1101で生成される背景画像データの生成範囲から外される。
As shown in FIG. 13A, the
重複領域1001の各画素について同様の処理を行うと、図13(b)の非画像生成範囲に示す領域1301について背景画像データの生成が行われず、これによって背景画像データを背景生成システムに転送する画像データの転送サイズを減らすことが出来る。
When the same processing is performed for each pixel in the overlapping
指定部1102は、分離部1101から背景画像データを受信する(S1212)。例えば、ここでは、撮影システム111aの分離部1101からの背景画像データを受信する。
The specifying
指定部1102は、分離部1101から受信した画像データが、合成範囲のデータ全てを受信したか否かを判断する(S1213)。すなわち、指定部1102は、合成判断部124で背景画像データを生成するデータとして設定されている前景生成システム110Aおよび110Bの全てからデータを取得したか否かを判断する。指定部1102は、全てのデータを受信したと判断すると(S1213でYES)、処理をS1214に移行する。指定部1102は、全てのデータを受信していないと判断すると(S1213でNO)、処理をS1212に返し、S1212とS1213の処理を繰り返す。例えば、先のS1212では撮影システム111aのデジタル画像データを受信しているが、その他についてはデジタル画像データを受信していない場合、処理をS1212に返しデジタル画像データを受信するまでを待つことになる。その後、S1212で残る前景生成システムの撮影システム全てから前景生成システムのデジタル画像データの受信が完了すると、指定部1102は、S1213において合成判断部124に設定された全ての背景画像データが揃っていると判断する。この判断結果に基づき、指定部1102は、処理をS1214に移行する。
The designating
テクスチャ生成部125は、指定部1102から取得した背景画像データを、モデル取得部122から取得した背景モデルデータに対し、パラメータ取得部121から取得したカメラパラメータを用いて射影変換を行って投影する。投影した画像を合成することで背景テクスチャ画像を生成する(S1214)。
The
以上、重複領域の背景画像データの生成範囲について説明を行ってきたが、本実施形態はこれに限定されるものではない。 Although the generation range of the background image data of the overlapping area has been described above, the present embodiment is not limited to this.
前述した他の重みづけの優先順位方法によって、最も重みづけの高いものが選択されるようにしてもよい。
ユーザ操作によって注視点の選択が行われた場合、重複領域で選択した注視点の撮影範囲を全て選択し、重複している他の注視点については使用しないなどとしてもよい。また、注視点の優先順位をユーザが指定し、指定した優先順位に従って背景画像データの生成範囲を指定してもよい。
The highest weighting may be selected according to other weighting priority methods previously described.
When a point of interest is selected by a user operation, the shooting range of the point of interest selected in the overlapping area may be entirely selected, and other overlapping points of interest may not be used. Alternatively, the user may specify the priority of the gaze point and specify the generation range of the background image data according to the specified priority.
続いて、本実施形態を構成する各装置のハードウェア構成について、より詳細に説明する。上述の通り、本実施形態では、前景生成サーバ113がFPGA及び/又はASICなどのハードウェアを実装し、これらのハードウェアによって、上述した各処理を実行する場合の例を中心に説明した。それは前景生成システム110内の撮影システム111、背景生成システム120、レンダリングシステム130についても同様である。しかしながら、上記装置のうち、少なくとも何れかが、例えば、CPU、DSPなどを用い、ソフトウェア処理によって本実施形態の処理を実行するようにしても良い。
Next, the hardware configuration of each device constituting this embodiment will be described in more detail. As described above, in the present embodiment, the
図14は、図1に示した機能構成をソフトウェア処理によって実現するための、前景生成サーバ113のハードウェア構成例を示す図である。なお、撮影システム111、背景生成システム120、レンダリングシステム130などの装置も、図14のハードウェア構成となりうる。前景生成サーバ113は、CPU1131と、RAM1132と、ROM1133と、二次記憶装置1134と、入出力インタフェース1135とを有する。これらの構成要素は、バスによって接続され、構成要素間でデータを送受信することが可能である。
FIG. 14 is a diagram showing a hardware configuration example of the
CPU1131は、RAM1132をワークメモリとして用いて、ROM1133や二次記憶装置1134に格納されたプログラムを実行し、システムバスを介して前景生成サーバ113の各構成要素を統括的に制御する。これにより、図1に示したモジュールが実現されたり、図2(a)に示した処理が実行されたりする。
The
二次記憶装置1134は、前景生成サーバ113で取り扱われる種々のデータが格納される装置であり、例えば、HDD、光ディスクドライブ、フラッシュメモリ等が用いられる。CPU1131は、システムバスを介して、二次記憶装置1134へのデータの書き込みと二次記憶装置1134に格納されたデータの読出しとを行う。入出力インタフェース1135は、前景生成サーバ113とその外部の装置との間におけるデータの送受信を行う。以上が、本実施形態におけるシステム構成の内容である。
The
なお、例えば前景生成サーバ113の処理のうち一部をFPGAで行い、別の一部の処理を、CPUを用いたソフトウェア処理によって実現するようにしても良い。また、図14に示した前景生成サーバ113の各構成要素は、単一の電子回路で構成されていてもよいし、複数の電子回路で構成されていてもよい。例えば、前景生成サーバ113は、CPU1131として動作する電子回路を複数備えていてもよい。これら複数の電子回路がCPU1131としての処理を並行して行うことで、前景生成サーバ113の処理速度を向上することができる。
For example, part of the processing of the
画像処理システム100内の他の装置についても同様である。また、上述の実施形態は、画像処理システム100が競技場やコンサートホールなどの施設に設置される場合の例を中心に説明した。施設の他の例としては、例えば、遊園地、公園、競馬場、競輪場、カジノ、プール、スケートリンク、スキー場、ライブハウスなどがある。また、各種施設で行われるイベントは、屋内で行われるものであっても屋外で行われるものであっても良い。また、本実施形態における施設は、一時的に(期間限定で)建設される施設も含む。
Other devices in the
[その他の実施形態]
また、前景生成サーバ113や背景生成システム120、レンダリングシステム130は、内部に物理的に複数のサーバを有し、論理的に1台となるような構成であってもよい。
[Other embodiments]
Also, the
また、上述した実施形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現してもよい。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としてはどのような記憶媒体を用いてもよく、例えばハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリなどを用いてもよい。 Further, in the processing of the above-described embodiments, the system or device may be provided with a storage medium recording program codes of software that embodies each function. Then, the computer (or CPU or MPU) of the system or device may read and execute the program code stored in the storage medium to realize the functions of the above-described embodiments. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Any storage medium may be used as a storage medium for supplying such program code, for example, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a non-volatile memory, or the like may be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現されてもよい。 Moreover, the functions of the above-described embodiments are not only realized by executing the program code read by the computer. Based on the instructions of the program code, an OS (operating system) or the like running on the computer may perform part or all of the actual processing, and the processing may realize the functions of the above-described embodiments.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現されてもよい。 Furthermore, the program code read from the storage medium may be written to a memory included in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU provided in the function expansion board or function expansion unit may perform part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing. .
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
100・・・画像処理システム
110A、110B・・・前景生成システム
120・・・背景生成システム
100...
Claims (14)
第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成手段と、
前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成手段と、
前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段と、
前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群と、
を有し、
前記背景生成手段は、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成する
ことを特徴とする画像処理装置。 An image processing device that generates a virtual viewpoint image,
a first foreground generation means for generating a foreground image based on an image captured by a first camera group composed of one or more cameras installed facing a first position;
Second foreground generation means for generating a foreground image based on an image captured by a second camera group composed of one or more cameras installed toward a second position different from the first position and,
Background generating means for generating a background image of the virtual viewpoint image based on a texture image for a background model generated based on the images captured by the first and second camera groups, and the background model. and
a third camera group composed of one or more cameras installed toward a third position different from the first and second positions;
has
The background generating means generates the texture image for the background model based on an image captured by the third camera group in addition to the images captured by the first and second camera groups. generating said background image further based on
An image processing apparatus characterized by :
ことを特徴とする、請求項1に記載の画像処理装置。 The background generation means generates the texture image for the background model based on the images captured by the first , second , and third camera groups, and synthesizes the generated texture image with the background model. The image processing apparatus according to claim 1, wherein the background image of the virtual viewpoint image is generated by:
前記選択手段により選択された前景生成手段によって生成される前景画像と、前記背景生成手段によって生成された前記背景画像とに基づいて前記仮想視点画像を生成する画像生成手段をさらに有する
ことを特徴とする、請求項1または2に記載の画像処理装置。 selecting means for selecting one of the first and second foreground generating means;
further comprising image generation means for generating the virtual viewpoint image based on the foreground image generated by the foreground generation means selected by the selection means and the background image generated by the background generation means; 3. The image processing apparatus according to claim 1, wherein
ことを特徴とする、請求項3に記載の画像処理装置。 The image generation means generates the virtual viewpoint image by synthesizing the foreground image generated by the foreground generation means selected by the selection means and the background image generated by the background generation means. 4. The image processing apparatus according to claim 3, wherein
ことを特徴とする、請求項3または4に記載の画像処理装置。 5. The image processing according to claim 3, wherein said selection means selects either one of said first and said second foreground generation means according to the position and direction of a virtual viewpoint. Device.
ことを特徴とする、請求項3から5の何れか一項に記載の画像処理装置。 The background generation means converts the texture image generated based on the image of the camera group corresponding to the foreground generation means selected by the selection means to the camera corresponding to the foreground generation means not selected by the selection means. 6. The image processing apparatus according to any one of claims 3 to 5, wherein the background model is combined with a higher weight than the texture image generated based on the images of the group.
前記背景生成手段は、前記分離手段で生成した前記背景画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成する
ことを特徴とする、請求項1から5の何れか一項に記載の画像処理装置。 the camera belonging to the first or second camera group has separating means for separating and generating a foreground image and a background image from the photographed image;
6. The image processing apparatus according to claim 1, wherein said background generation means generates said texture image for said background model based on said background image generated by said separation means. .
ことを特徴とする、請求項1から9の何れか一項に記載の画像処理装置。 10. The camera according to any one of claims 1 to 9 , wherein the third camera group captures an image with a wider angle of view than the images captured by the first and second camera groups. The described image processing device.
第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成ステップと、
前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成ステップと、
前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成ステップと
を有し、
前記背景生成ステップでは、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成する
ことを特徴とする画像処理方法。 An image processing method for generating a virtual viewpoint image,
a first foreground generation step of generating a foreground image based on an image captured by a first camera group composed of one or more cameras installed toward a first position;
a second foreground generation step of generating a foreground image based on an image captured by a second camera group composed of one or more cameras installed toward a second position different from the first position; and,
A background generation step of generating a background image of the virtual viewpoint image based on a texture image for a background model generated based on the images captured by the first and second camera groups, and the background model. and
In the background generation step, in addition to the images captured by the first and second camera groups, one or more cameras installed toward a third position different from the first and second positions generating the background image further based on the texture image for the background model generated based on images taken by a third camera group composed of cameras;
An image processing method characterized by :
ことを特徴とする、請求項11に記載の画像処理方法。 In the background generation step, the texture image for the background model is generated based on the images captured by the first , second , and third camera groups, and the generated texture image is combined with the background model. 12. The image processing method according to claim 11 , wherein the background image of the virtual viewpoint image is generated by:
前記選択ステップにて選択された前記前景生成ステップによって生成される前景画像と、前記背景生成ステップによって生成された前記背景画像とに基づいて前記仮想視点画像を生成する画像生成ステップをさらに有する
ことを特徴とする、請求項12に記載の画像処理方法。 a selection step of selecting one of the first and second foreground generation steps;
further comprising an image generation step of generating the virtual viewpoint image based on the foreground image generated by the foreground generation step selected in the selection step and the background image generated by the background generation step; 13. An image processing method according to claim 12 , characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018200042A JP7233881B2 (en) | 2018-10-24 | 2018-10-24 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018200042A JP7233881B2 (en) | 2018-10-24 | 2018-10-24 | Image processing device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020067815A JP2020067815A (en) | 2020-04-30 |
JP7233881B2 true JP7233881B2 (en) | 2023-03-07 |
Family
ID=70390415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018200042A Active JP7233881B2 (en) | 2018-10-24 | 2018-10-24 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7233881B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115705660A (en) * | 2021-08-13 | 2023-02-17 | 华为技术有限公司 | Image background generation method and device and computer-readable storage medium |
GB202112327D0 (en) * | 2021-08-27 | 2021-10-13 | Mo Sys Engineering Ltd | Rendering image content |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212593A (en) | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | Information processing device, image processing system, information processing method, and program |
JP2018092580A (en) | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | Image generator and method |
-
2018
- 2018-10-24 JP JP2018200042A patent/JP7233881B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212593A (en) | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | Information processing device, image processing system, information processing method, and program |
JP2018092580A (en) | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | Image generator and method |
Also Published As
Publication number | Publication date |
---|---|
JP2020067815A (en) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6429829B2 (en) | Image processing system, image processing apparatus, control method, and program | |
JP6482498B2 (en) | Control device, control method, and program | |
KR102502570B1 (en) | Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with transmission of foreground and background images at different frame rates | |
JP6808357B2 (en) | Information processing device, control method, and program | |
JP6672075B2 (en) | CONTROL DEVICE, CONTROL METHOD, AND PROGRAM | |
JP6415675B1 (en) | Generating apparatus, generating method, and program | |
KR102153985B1 (en) | Apparatus, system, method, and non-transitory computer-readable storage medium for generating virtual viewpoint image | |
US10812770B2 (en) | Image processing system, image processing apparatus, image processing method, and program | |
JP7042571B2 (en) | Image processing device and its control method, program | |
WO2022002181A1 (en) | Free viewpoint video reconstruction method and playing processing method, and device and storage medium | |
JP2019022151A (en) | Information processing apparatus, image processing system, control method, and program | |
EP3857899A1 (en) | Image synthesis | |
JP6827996B2 (en) | Image processing device, control method, and program | |
JP7233881B2 (en) | Image processing device, image processing method and program | |
WO2022001865A1 (en) | Depth map and video processing and reconstruction methods and apparatuses, device, and storage medium | |
JP2008217593A (en) | Subject area extraction device and subject area extraction program | |
JP6790145B2 (en) | Control device, control method, and program | |
JP2019103126A (en) | Camera system, camera control device, camera control method, and program | |
JP6759375B2 (en) | Systems, methods and programs that generate virtual viewpoint images | |
JP6392739B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6632703B2 (en) | CONTROL DEVICE, CONTROL METHOD, AND PROGRAM | |
JP2017102686A (en) | Information acquisition apparatus, information acquisition method, and information acquisition program | |
JP2021018570A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP6450306B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2020160756A (en) | Image generation device, image generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230222 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7233881 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |