JP7233881B2 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7233881B2
JP7233881B2 JP2018200042A JP2018200042A JP7233881B2 JP 7233881 B2 JP7233881 B2 JP 7233881B2 JP 2018200042 A JP2018200042 A JP 2018200042A JP 2018200042 A JP2018200042 A JP 2018200042A JP 7233881 B2 JP7233881 B2 JP 7233881B2
Authority
JP
Japan
Prior art keywords
image
background
foreground
camera
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018200042A
Other languages
Japanese (ja)
Other versions
JP2020067815A (en
Inventor
智裕 矢埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018200042A priority Critical patent/JP7233881B2/en
Publication of JP2020067815A publication Critical patent/JP2020067815A/en
Application granted granted Critical
Publication of JP7233881B2 publication Critical patent/JP7233881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、複数の視点で撮像された複数視点の画像に基づき、任意の仮想視点からの画像を生成する技術に関する。 The present invention relates to a technique for generating an image from an arbitrary virtual viewpoint based on multiple viewpoint images captured from multiple viewpoints.

複数の視点で撮像された複数視点の画像を用いて、任意の仮想視点における仮想視点画像を生成する技術がある。例えば、仮想視点画像を用いると、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することができるので、通常の画像と比較してユーザに高臨場感を与えることができる。 2. Description of the Related Art There is a technique of generating a virtual viewpoint image at an arbitrary virtual viewpoint using images of multiple viewpoints captured at multiple viewpoints. For example, by using a virtual viewpoint image, the highlight scenes of soccer or basketball can be viewed and viewed from various angles, so that it is possible to give the user a high sense of realism compared to normal images.

仮想視点画像の生成及び閲覧は、複数のカメラで撮影した画像をサーバ等の画像処理装置に集約して、前景背景の分離、三次元モデルの生成、レンダリング等の処理を行い、ユーザ端末に仮想視点画像を伝送することで実現される。このとき、仮想視点画像の背景として予め用意したスタジアムなどのモデルデータを用い、前景の形状推定を行い、それらに色を付けることで三次元形状モデルを生成している。 To generate and browse virtual viewpoint images, images captured by multiple cameras are aggregated in an image processing device such as a server, the foreground and background are separated, a 3D model is generated, and processing such as rendering is performed. It is realized by transmitting viewpoint images. At this time, model data of a stadium or the like prepared in advance is used as the background of the virtual viewpoint image, the shape of the foreground is estimated, and a three-dimensional shape model is generated by coloring them.

前景の形状推定精度、すなわち前景の画質をよくするために、フォーカスや向きが注視点に合わせられた各カメラの画角を狭く、光学的に拡大した状態で撮影される。注視点は対象箇所に合わせて複数設けられる。 In order to improve the accuracy of the shape estimation of the foreground, that is, the image quality of the foreground, the angle of view of each camera is narrowed and optically enlarged with the focus and orientation adjusted to the point of interest. A plurality of gaze points are provided according to the target location.

一方、注視点付近では、背景となるスタジアムが画像内に映りこむため、注視点とは無関係に、各カメラの画角を広く、光学的に引きの画でスタジアム全体を撮影する必要がある。 On the other hand, since the background stadium is reflected in the image near the point of interest, it is necessary to widen the angle of view of each camera and capture the entire stadium in an optically sharpened image regardless of the point of interest.

特許文献1には、複数台のプロジェクタが投影先のモデルに対して画像を重畳して表示する技術が記載されている。 Japanese Patent Application Laid-Open No. 2002-200000 describes a technique in which a plurality of projectors superimpose and display images on a model on which the images are projected.

特開2008-70397号公報JP 2008-70397 A

しかしながら、前景画像の生成と背景画像の生成とでカメラに要求される画角が異なっていることから、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することができない場合があった。 However, since the angle of view required for the camera to generate the foreground image and the background image differs, an appropriate background image is generated based on the image captured by the camera used to generate the foreground image. Sometimes it was not possible.

特許文献1の技術では、共通の世界座標パラメータを持つ同期撮影されたカメラ群の画像を、同じく共通の世界座標をもつモデルに対して同期させて投影することができなかった。 With the technique of Patent Document 1, it was not possible to synchronously project images of a group of cameras that have common world coordinate parameters and that have been synchronously photographed onto a model that also has common world coordinates.

本発明は、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することを目的とする。 An object of the present invention is to generate an appropriate background image based on an image captured by a camera used to generate a foreground image.

本発明の一態様に係る画像処理装置は、仮想視点画像を生成する画像処理装置であって、第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成手段と、前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成手段と、前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段と、前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群と、を有し、前記背景生成手段は、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成することを特徴とする。 An image processing apparatus according to an aspect of the present invention is an image processing apparatus that generates a virtual viewpoint image, and is photographed by a first camera group composed of one or more cameras installed facing a first position. a first foreground generating means for generating a foreground image based on the obtained image; and a second camera group composed of one or more cameras installed facing a second position different from the first position. a second foreground generating means for generating a foreground image based on the image captured by the first and second camera groups; a texture image for the background model generated based on the image captured by the first and second camera groups; Background generation means for generating a background image of the virtual viewpoint image based on the background model, and one or more cameras installed facing a third position different from the first and second positions. and a third camera group, wherein the background generating means generates an image captured by the third camera group in addition to the images captured by the first and second camera groups The background image is generated further based on the texture image for the background model generated based on .

本発明によれば、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することができる。 According to the present invention, an appropriate background image can be generated based on an image captured by a camera used for generating a foreground image.

画像処理システムの構成例を示すブロック図Block diagram showing a configuration example of an image processing system 仮想視点画像の生成処理手順例を示すフローチャートFlowchart showing an example of a processing procedure for generating a virtual viewpoint image 撮影システムの概略構成を示す図A diagram showing a schematic configuration of an imaging system 前景生成システムによる撮影範囲を説明するための図Diagram for explaining the shooting range by the foreground generation system 他の前景生成システムによる撮影範囲を説明するための図Diagram for explaining the shooting range by another foreground generation system 背景画像の範囲を説明するための図Diagram for explaining the range of the background image 仮想視点画像のレンダリングの様子を示した模式図Schematic diagram showing how a virtual viewpoint image is rendered 2つの前景生成システムによる撮影範囲と仮想視点レンダリング範囲の関係を示した模式図Schematic diagram showing the relationship between the shooting range and the virtual viewpoint rendering range by two foreground generation systems 画像処理システムの構成例を示すブロック図Block diagram showing a configuration example of an image processing system 2つの前景生成システムによる撮影範囲を示した模式図Schematic diagram showing the imaging range of the two foreground generation systems 画像処理システムの構成例を示すブロック図Block diagram showing a configuration example of an image processing system 仮想視点画像生成処理の手順例を示すフローチャートFlowchart showing a procedure example of virtual viewpoint image generation processing 撮影システムの撮影範囲と、画素の位置および非画像生成範囲を示す模式図Schematic diagram showing the imaging range of the imaging system and the pixel positions and non-imaging areas 前景生成サーバのハードウェア構成例を示す図Diagram showing a hardware configuration example of the foreground generation server

以下、本発明の実施形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、実施形態で説明されている構成要素の組み合わせのすべてが、課題を解決するための手段に必須のものとは限らず、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。なお、本実施形態では、背景画像が仮想視点画像の生成に用いられる例を説明するが、必ずしも仮想視点画像の生成に用いられるものでなくてよい。このため、複数カメラ間の相対的な幾何学的設置条件に縛られるものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention. In addition, not all combinations of the components described in the embodiments are essential to the means for solving the problems, and within the scope of the gist of the invention described in the claims, Various modifications and alterations are possible. In this embodiment, an example in which the background image is used to generate the virtual viewpoint image will be described, but the background image may not necessarily be used to generate the virtual viewpoint image. For this reason, it is not bound by relative geometric installation conditions between multiple cameras.

本明細書において符号の末尾のアルファベットは、同種の構成において個々の構成を識別するために用いている。末尾のアルファベットを省略して記載する場合、個々の構成を特に区別せずに記載しているものとする。 In this specification, alphabetical letters at the end of reference numerals are used to identify individual configurations in similar configurations. When description is made by omitting the alphabet at the end, it is assumed that each configuration is described without particular distinction.

[実施形態1]
本実施形態では、仮想視点画像の生成に用いられる背景画像を生成する形態を説明する。
図1は、本実施形態に係る画像処理システムの全体構成例を示すブロック図である。
[Embodiment 1]
In this embodiment, a form of generating a background image used for generating a virtual viewpoint image will be described.
FIG. 1 is a block diagram showing an example of the overall configuration of an image processing system according to this embodiment.

画像処理システム(仮想視点画像生成システム)100は、前景生成システム110A、110B、背景生成システム120、レンダリングシステム130を有し、カメラで撮影した画像を基に仮想視点画像を生成する。前景生成システム110A、110Bおよび背景生成システム120、レンダリングシステム130はそれぞれ、Ethrenet(登録商標)などのネットワークによって接続されている。なお、本実施形態では2つの前景生成システム110Aおよび110Bを有しているが、本実施形態はこれに限定されるものではなく、2つ以上のより多くの前景生成システム110を有する構成とすることも可能である。 An image processing system (virtual viewpoint image generation system) 100 has foreground generation systems 110A and 110B, a background generation system 120, and a rendering system 130, and generates a virtual viewpoint image based on an image captured by a camera. The foreground generation systems 110A and 110B, the background generation system 120, and the rendering system 130 are each connected by a network such as Ethrenet (registered trademark). Although the present embodiment has two foreground generation systems 110A and 110B, the present embodiment is not limited to this, and may be configured to have two or more foreground generation systems 110. is also possible.

前景生成システム110Aおよび110Bは仮想視点画像の前景画像を生成するために必要なシステムである。前景生成システム110Aと前景生成システム110Bは同様の構成であり、以降、前景生成システム110Aについて説明し、前景生成システム110Bについては説明を省略する。前景生成システム110Aは内部に撮影システム111a~111z、前景生成サーバ113を有する。前景生成システム110Aおよび110Bは、カメラの向きおよび焦点距離を合わせた注視点毎にシステムが構成される。ただし、本実施形態において、複数のカメラの注視点が一致せず、ずれている構成であってよい。 Foreground generation systems 110A and 110B are systems required to generate foreground images of virtual viewpoint images. The foreground generation system 110A and the foreground generation system 110B have the same configuration. Henceforth, the foreground generation system 110A will be described, and the description of the foreground generation system 110B will be omitted. The foreground generation system 110A has imaging systems 111a to 111z and a foreground generation server 113 inside. The foreground generation systems 110A and 110B are configured for each gaze point with the orientation and focal length of the camera adjusted. However, in this embodiment, the gazing points of a plurality of cameras may not match and may be shifted.

撮影システム111は、カメラで仮想視点画像を生成する対象を撮影し、変換を行って得たデジタル画像を各ブロックに転送する機能を実現する。仮想視点画像を生成するため、前景生成システム110の中に同様の構成を持つ複数の撮影システム111があり、本実施形態では111aから111zまで26台の構成であるものとする。ただし、本実施形態はこれに限定されるものではなく、求める仮想視点画像の前景画像の品質が得られるだけの必要な十分な数の撮影システムを有していれば26台より少ない台数または多くの台数で構成されていてもよい。撮影システム111それぞれは内部に撮像部112を有する。 The photographing system 111 realizes a function of photographing an object for generating a virtual viewpoint image with a camera and transferring a digital image obtained by performing conversion to each block. In order to generate a virtual viewpoint image, the foreground generation system 110 includes a plurality of photographing systems 111 having a similar configuration, and in this embodiment, 26 systems 111a to 111z are configured. However, the present embodiment is not limited to this, and as long as a necessary and sufficient number of imaging systems are provided to obtain the desired quality of the foreground image of the virtual viewpoint image, the number of imaging systems is less than or greater than 26. number of units. Each imaging system 111 has an imaging unit 112 therein.

撮像部112は、カメラによって撮影された画像をデジタル画像に変換する機能を有する。また、撮像部112が有するカメラは同期信号を受信可能であり、後述のカメラ制御部117によって同期される。なお、撮影システム111a~111zは同様の機能を有するが、それぞれのカメラについては異なるカメラやレンズなどを用いるなどしてもよい。 The imaging unit 112 has a function of converting an image captured by a camera into a digital image. A camera included in the imaging unit 112 can receive a synchronization signal, and is synchronized by a camera control unit 117, which will be described later. Although the imaging systems 111a to 111z have similar functions, different cameras and lenses may be used for the respective cameras.

前景生成サーバ113は、前景画像生成部114、パラメータ取得部115、前景形状推定部116、カメラ制御部117を有する。前景生成サーバ113は、前景の形状を推定して前景モデルデータを生成し、生成した前景モデルデータをレンダリングシステム130に送信する。前景モデルデータは、前景の三次元形状を表すデータである。 The foreground generation server 113 has a foreground image generation unit 114 , a parameter acquisition unit 115 , a foreground shape estimation unit 116 and a camera control unit 117 . The foreground generation server 113 estimates the shape of the foreground, generates foreground model data, and transmits the generated foreground model data to the rendering system 130 . The foreground model data is data representing the three-dimensional shape of the foreground.

前景画像生成部114は、撮影システム111a~111zで撮影されて変換されたデジタル画像データから前景画像と背景画像を分離し、主な被写体(オブジェクト)である前景画像のみを抽出した前景画像データを生成する。生成された前景画像データは前景形状推定部116に送信される。前景画像は、例えば、画像データから選手などの動作する人物(動体)などを抽出した画像である。オブジェクトは、ボールなどのような物体であってもよい。背景画像は、例えば、芝生などの静止又は静止に近い状態が継続する物体を抽出した画像である。なお、前景画像と背景画像の分離方法は背景差分法に限定されるものではなく、公知の方法を適用可能である。なお、静止物体は、静止または、ほとんど静止している状態が継続している物体を指す。 The foreground image generation unit 114 separates a foreground image and a background image from the digital image data captured and converted by the imaging systems 111a to 111z, and generates foreground image data obtained by extracting only the foreground image that is the main subject (object). Generate. The generated foreground image data is transmitted to foreground shape estimation section 116 . The foreground image is, for example, an image obtained by extracting a moving person (moving body) such as a player from image data. An object may be an object such as a ball. The background image is, for example, an image obtained by extracting an object such as lawn that remains stationary or nearly stationary. Note that the method for separating the foreground image and the background image is not limited to the background subtraction method, and any known method can be applied. A stationary object refers to an object that continues to be stationary or almost stationary.

パラメータ取得部115は、予めキャリブレーションによって取得された、撮像部112のカメラ(以下、撮影システム111のカメラともいう)のカメラパラメータを保有し前景形状推定部116に提供する。カメラパラメータは、カメラの位置や姿勢などを表す外部パラメータと、画素ピッチや画像中心などを表す内部パラメータなどからなる。カメラパラメータは他にレンズによる画像の歪みを表した歪みパラメータなどを含んでもよい。 The parameter acquisition unit 115 holds the camera parameters of the camera of the imaging unit 112 (hereinafter also referred to as the camera of the imaging system 111) acquired by calibration in advance, and provides them to the foreground shape estimation unit 116 . The camera parameters consist of extrinsic parameters representing the position and orientation of the camera, and internal parameters representing the pixel pitch, image center, and the like. The camera parameters may also include distortion parameters representing distortion of the image due to the lens.

前景形状推定部116は、パラメータ取得部115から取得した撮影システム111a~111zのカメラパラメータと、前景画像生成部114から受信した前景画像データを用いて少なくとも前景の三次元形状を推定し、前景モデルデータを生成する。前景の三次元形状を推定する方法としては、例えばVisual Hullと呼ばれる方式などがあるが、本実施形態はこれに限らず、前景の形状を推定するどのような方法を用いてもよい。生成した前景モデルデータは、レンダリングシステム130に送信される。 The foreground shape estimation unit 116 estimates at least the three-dimensional shape of the foreground using the camera parameters of the imaging systems 111a to 111z acquired from the parameter acquisition unit 115 and the foreground image data received from the foreground image generation unit 114, and estimates the foreground model. Generate data. Methods for estimating the three-dimensional shape of the foreground include, for example, a method called Visual Hull, but the present embodiment is not limited to this, and any method for estimating the shape of the foreground may be used. The generated foreground model data is sent to the rendering system 130 .

カメラ制御部117は、撮影システム111a~111zのカメラの撮影タイミングを同期させる信号を撮影システムに送信し、撮影システム111a~111zのカメラの撮影タイミングの同期と共に、撮影の開始および停止の指示を行う。撮影の開始および停止の状態を示す信号は、後述の制御部134に送信される。なお、本実施形態はこれに限らず、同期信号用の信号線を別途有してもよく、また、無線などを用いた同期信号制御を行ってもよい。 The camera control unit 117 transmits a signal for synchronizing the shooting timings of the cameras of the shooting systems 111a to 111z to the shooting systems, synchronizes the shooting timings of the cameras of the shooting systems 111a to 111z, and instructs the start and stop of shooting. . Signals indicating the start and stop states of imaging are transmitted to the control unit 134, which will be described later. Note that this embodiment is not limited to this, and a separate signal line for a synchronization signal may be provided, and synchronization signal control may be performed using radio or the like.

前景生成システム110Bは、前景生成システム110Aと同様の構成と機能をもつシステムである。なお、前景生成システム110Bが有する撮影システム111の数量は、前景生成システム110Aと同数である必要はなく、仮想視点画像の前景を生成するために必要な十分な数の撮影システムを有していればよい。 The foreground generation system 110B is a system having the same configuration and functions as the foreground generation system 110A. The foreground generation system 110B does not need to have the same number of shooting systems 111 as the foreground generation system 110A. Just do it.

背景生成システム120は、パラメータ取得部121、モデル取得部122、背景画像生成部123、合成判断部124、テクスチャ生成部125を有する。背景生成システム120は、撮影システム111で撮影されたデジタル画像データを用いて背景モデルに張り付けるための背景テクスチャ画像を生成する。背景モデルは、背景の三次元形状を表すデータである。 The background generation system 120 has a parameter acquisition unit 121 , a model acquisition unit 122 , a background image generation unit 123 , a composition determination unit 124 and a texture generation unit 125 . The background generation system 120 uses digital image data captured by the imaging system 111 to generate a background texture image to be pasted on the background model. The background model is data representing the three-dimensional shape of the background.

パラメータ取得部121は、パラメータ取得部115と同様の機能を有し、予めキャリブレーションによって取得された撮影システム111のカメラのカメラパラメータを保有しテクスチャ生成部125に提供する。 The parameter acquisition unit 121 has the same function as the parameter acquisition unit 115 , holds the camera parameters of the camera of the imaging system 111 acquired in advance by calibration, and provides the texture generation unit 125 with the camera parameters.

モデル取得部122は、背景をメッシュモデル化した背景メッシュモデルデータを背景モデルとして取得し、テクスチャ生成部125に提供する。例えば、野球やサッカーなどのスポーツを撮影する場合は、そのスポーツが実際に行われているスタジアムのメッシュモデルデータなどが考えられるが、本実施形態はこれに限らず、どのようなメッシュモデルデータを用いてもよい。メッシュモデルとは、例えばCADデータなどの三次元の空間形状の面の集合で表現したデータのことである。背景モデルを表現する形式は、メッシュモデルの形式に限らず、例えは、点群やボクセルなどの他の公知の形式であってもよい。 The model acquisition unit 122 acquires background mesh model data obtained by converting the background into a mesh model as a background model, and provides the texture generation unit 125 with the background model data. For example, when shooting a sport such as baseball or soccer, mesh model data of a stadium where the sport is actually held can be considered. may be used. A mesh model is data such as CAD data expressed by a set of surfaces of a three-dimensional spatial shape. The format for expressing the background model is not limited to the mesh model format, and may be other known formats such as point cloud and voxel.

背景画像生成部123は、撮影システム111a~111zで撮影されたデジタル画像データから前景画像と背景画像を分離し、背景画像のみを抽出した背景画像データを生成する。生成された背景画像データはテクスチャ生成部125に送信される。 The background image generation unit 123 separates the foreground image and the background image from the digital image data captured by the imaging systems 111a to 111z, and generates background image data by extracting only the background image. The generated background image data is sent to the texture generation unit 125 .

合成判断部124は、画像処理システム100内に存在する前景生成システム110を認識する。そして、合成判断部124は、それぞれの前景生成システム110から受信する画像データについて、どの前景生成システムの画像データを用いるか使用可否についてユーザから指示を受け、それらの情報をテクスチャ生成部125に提供する。 The synthesis determination unit 124 recognizes the foreground generation system 110 existing within the image processing system 100 . Then, the synthesis determination unit 124 receives an instruction from the user as to whether or not to use the image data of which foreground generation system for the image data received from each foreground generation system 110 , and provides the information to the texture generation unit 125 . do.

テクスチャ生成部125は、背景画像データを用い、背景メッシュモデルデータのメッシュに対し、カメラパラメータを用いて射影変換を行って投影し合成処理を行う。背景画像データは、合成判断部124から提供された画像データの使用可否の情報を基に、前景生成システム110Aおよび110Bで得たデジタル画像データのうち、使用対象のデジタル画像データから背景画像生成部123で生成されるデータである。背景メッシュモデルデータは、モデル取得部122から提供されるデータである。カメラパラメータは、パラメータ取得部121から提供される。 Using the background image data, the texture generation unit 125 performs projective transformation on the meshes of the background mesh model data using the camera parameters, and performs projection and synthesis processing. The background image data is obtained from the digital image data to be used, among the digital image data obtained by the foreground generation systems 110A and 110B, based on the information about whether or not the image data can be used, which is provided by the composition determination unit 124. 123 generated data. The background mesh model data is data provided from the model acquisition unit 122 . Camera parameters are provided from the parameter acquisition unit 121 .

そして、テクスチャ生成部125は、背景メッシュモデルへの投影と合成により、各メッシュのテクスチャ画像を生成する。すなわち、テクスチャ生成部125は、前景生成システム110Aおよび110Bで得たデジタル画像データを用いて、背景メッシュモデルデータに対する背景テクスチャ画像を生成する。テクスチャ生成部125は、生成した背景テクスチャ画像として背景モデルデータと共にレンダリングシステム130に送信する。テクスチャとは、物体の表面の質感を表現するために張り付ける画像のことである。 Then, the texture generation unit 125 generates a texture image of each mesh by projection onto the background mesh model and synthesis. That is, the texture generator 125 uses the digital image data obtained by the foreground generation systems 110A and 110B to generate a background texture image for the background mesh model data. The texture generation unit 125 transmits the generated background texture image together with the background model data to the rendering system 130 . A texture is an image pasted to express the texture of the surface of an object.

カメラ画像を背景メッシュモデル上に投影する方法としては、例えば、以下の方法が考えられる。あるメッシュ上の4点、例えばメッシュが四角形であればテクスチャ画像上の端部に紐づけて、4点のカメラ画像上での座標とテクスチャ画像の頂点座標の対応から、ホモグラフィを求めて透視変換するなどの方法が考えられる。カメラ画像を透視変換し背景メッシュモデル上に投影した結果、カメラ画像が重複する場合は、それらを合成して画像を生成する。なお、本実施形態はこれに限定されるものではなく、背景画像データをテクスチャ画像上に投影するどのような方法を用いてもよい。 As a method of projecting the camera image onto the background mesh model, for example, the following method is conceivable. Four points on a certain mesh, for example, if the mesh is a quadrilateral, it is linked to the edge of the texture image, and from the correspondence between the coordinates of the four points on the camera image and the vertex coordinates of the texture image, the homography is obtained and perspective is obtained. A method such as conversion is conceivable. When the camera images are overlapped as a result of perspective transformation of the camera images and projection onto the background mesh model, they are combined to generate an image. Note that the present embodiment is not limited to this, and any method of projecting the background image data onto the texture image may be used.

レンダリングシステム130は、レンダリング部131、操作部132、出力部133、制御部134を有する。レンダリングシステム130は、前景生成システム110Aまたは110Bから取得した前景モデルデータ、背景生成システム120から取得した背景モデルデータ、背景テクスチャ画像を用い、ユーザ操作に従って仮想視点画像を生成する。 The rendering system 130 has a rendering section 131 , an operation section 132 , an output section 133 and a control section 134 . The rendering system 130 uses the foreground model data acquired from the foreground generation system 110A or 110B, the background model data acquired from the background generation system 120, and the background texture image to generate a virtual viewpoint image according to user's operation.

レンダリング部131は、前景生成システム110A、110Bから受信した前景モデルデータと、背景生成システム120から受信した背景モデルデータおよび背景テクスチャ画像とを用い、演算によって仮想視点からの画像をレンダリングする。演算としては、例えばCPUまたはGPUなどの演算が挙げられる。また、仮想視点画像の変更操作については後述の操作部132によってユーザからの操作を受け付けることで行われる。 The rendering unit 131 uses the foreground model data received from the foreground generation systems 110A and 110B and the background model data and background texture image received from the background generation system 120 to render an image from a virtual viewpoint by computation. The computation includes, for example, computation by a CPU or GPU. Further, an operation for changing the virtual viewpoint image is performed by receiving an operation from the user through the operation unit 132, which will be described later.

操作部132はキーボードやマウス、ジョイスティックやタッチパッド等の操作部材、或いはファイル入力等の入力手段を有し、ユーザによる仮想視点の変更操作や撮影開始の指示、その他画像処理システム100各部への指示を受け付ける。変更された仮想視点の情報をレンダリング部131に送信する。 The operation unit 132 has operation members such as a keyboard, a mouse, a joystick and a touch pad, or input means such as file input, and is used by the user to change the virtual viewpoint, instruct to start shooting, and other instructions to each unit of the image processing system 100 . accept. Information on the changed virtual viewpoint is transmitted to the rendering unit 131 .

出力部133はDisplay PortやSDIなどの画像信号出力端子と、それらの画像信号を入力して画像として表示するTVやディスプレイ、プロジェクタ装置などの表示装置を有する。出力部133は、レンダリングされた仮想視点画像をユーザが目視で確認できる画像として出力する。なお、本実施形態はこれに限らず、仮想視点画像を静止画または動画として画像データとして出力し、ネットワークへの配信、あるいはストレージデバイスに対して保存するものであってもよい。 The output unit 133 has an image signal output terminal such as a display port or SDI, and a display device such as a TV, a display, or a projector for inputting the image signal and displaying it as an image. The output unit 133 outputs the rendered virtual viewpoint image as an image that the user can visually confirm. Note that the present embodiment is not limited to this, and the virtual viewpoint image may be output as image data as a still image or moving image, and may be distributed to a network or stored in a storage device.

制御部134は、前景生成システム110Aおよび110B、背景生成システム120の各システムと通信し、各種制御を行う。制御部134は、前景生成システム110Aおよび110Bによる前景画像データ、前景モデルデータの生成の開始や停止、背景生成システム120による背景画像データ、背景テクスチャ画像の生成の開始や停止、注視点の切り替え操作等を行う。すなわち、制御部134は、画像処理システム100の各ブロックの制御を行う。 The control unit 134 communicates with the foreground generation systems 110A and 110B and the background generation system 120 to perform various controls. The control unit 134 starts and stops generation of foreground image data and foreground model data by the foreground generation systems 110A and 110B, starts and stops generation of background image data and background texture images by the background generation system 120, and performs gaze point switching operations. etc. That is, the control unit 134 controls each block of the image processing system 100 .

図2は、画像処理システム100による仮想視点画像の生成処理手順例を示すフローチャートである。本フローチャートを用いて本実施形態の画像処理システムの仮想視点画像生成処理について説明する。 FIG. 2 is a flowchart illustrating an example of a virtual viewpoint image generation processing procedure by the image processing system 100 . The virtual viewpoint image generation processing of the image processing system of this embodiment will be described using this flowchart.

図2(a)は、前景生成システム110Aによる前景モデルデータの生成処理手順例を示すフローチャートである。なお、ここでは前景生成システム110Aによる処理に関して説明するが、前景生成システム110Bでも、図2(a)と同様の処理が行われる。以下の各記号Sは、フローチャートにおけるステップであることを意味する。これらは図2以降についても同様である。 FIG. 2A is a flow chart showing an example of the foreground model data generation processing procedure by the foreground generation system 110A. Although processing by the foreground generation system 110A will be described here, the same processing as in FIG. 2A is also performed in the foreground generation system 110B. Each symbol S below means a step in the flow chart. These are the same for FIG. 2 and subsequent figures.

前景生成システム110Aのカメラ制御部117は、後述のS221で制御部134から送信された撮影開始指示の信号を受信する(S201)。 The camera control unit 117 of the foreground generation system 110A receives the signal of the shooting start instruction transmitted from the control unit 134 in S221 described later (S201).

図3は、撮影システムの概略構成を示す図である。図3に示すように、撮影システム111a~111zは、スタジアム300を囲むように設置される。スタジアム300は、本実施形態の背景メッシュモデルデータを示しており、観客席の無いグラウンドのみの平面モデルを用いている。平面モデルは、三次元空間上に平面として表される三次元モデルである。本実施形態では平面モデルを用いた場合を示しているが、本実施形態はこれに限定されるものではなく、立体的な構造を持つモデルであってもよい。 FIG. 3 is a diagram showing a schematic configuration of the imaging system. As shown in FIG. 3, the imaging systems 111a to 111z are installed so as to surround a stadium 300. As shown in FIG. A stadium 300 shows the background mesh model data of this embodiment, and uses a plane model of only the ground without spectator seats. A plane model is a three-dimensional model represented as a plane in a three-dimensional space. Although the present embodiment shows the case of using a plane model, the present embodiment is not limited to this, and a model having a three-dimensional structure may be used.

注視点301は前景生成システム110Aの注視点である。各撮影システム111a~111zのカメラは注視点301の方向に向き、注視点301に焦点が合うように設置される。すなわち、撮影システム111a~111zのカメラの注視点(撮影中心)は、注視点301である。 A gaze point 301 is the gaze point of the foreground generation system 110A. The camera of each photographing system 111a to 111z is directed toward the point of interest 301 and installed so that the point of interest 301 is in focus. That is, the gaze point (shooting center) of the cameras of the imaging systems 111a to 111z is the gaze point 301. FIG.

カメラ制御部117は、撮影システム111a~111zのカメラの撮影タイミングを同期させる(S202)。 The camera control unit 117 synchronizes the shooting timings of the cameras of the shooting systems 111a to 111z (S202).

カメラ制御部117による撮影システム111a~111zのカメラの撮影タイミングが同期すると、カメラ制御部117は、撮影システム111a~111zに対して撮影開始を指示する。撮影システム111a~111zの撮像部112は、カメラで撮影した画像をデジタル画像データに変換し当該デジタル画像データを前景画像生成部114及び背景画像生成部123に送信する。また、同期撮影が開始されると、カメラ制御部117は、同期撮影が開始されたことを示す信号を制御部134に送信する(S203)。 When the imaging timings of the cameras of the imaging systems 111a to 111z are synchronized by the camera control unit 117, the camera control unit 117 instructs the imaging systems 111a to 111z to start imaging. The imaging units 112 of the imaging systems 111 a to 111 z convert images captured by cameras into digital image data, and transmit the digital image data to the foreground image generation unit 114 and the background image generation unit 123 . Further, when the synchronous photographing is started, the camera control unit 117 transmits a signal indicating that the synchronous photographing is started to the control unit 134 (S203).

前景画像生成部114は、撮影システム111a~111zが撮像部112によってカメラで撮影した画像を変換したデジタル画像データから前景画像と背景画像を分離し、背景画像を取り除いて前景画像のみを抽出した前景画像データを生成する。そして、前景画像生成部114は、生成した前景画像データを前景形状推定部116に提供する(S204)。 The foreground image generating unit 114 separates the foreground image and the background image from the digital image data obtained by converting the image captured by the imaging unit 112 by the imaging system 111a to 111z with the camera, removes the background image, and extracts only the foreground image. Generate image data. The foreground image generation unit 114 then provides the generated foreground image data to the foreground shape estimation unit 116 (S204).

前景形状推定部116は、前景画像生成部114から受信した前景画像データと、パラメータ取得部115から取得したカメラパラメータとを用いて前景の形状を推定し、前景モデルデータを生成する(S205)。なお、パラメータ取得部115は、予めキャリブレーションによって取得されたカメラパラメータを本フロー前に保有しているものとする。 The foreground shape estimation unit 116 estimates the shape of the foreground using the foreground image data received from the foreground image generation unit 114 and the camera parameters acquired from the parameter acquisition unit 115, and generates foreground model data (S205). It is assumed that the parameter acquisition unit 115 has camera parameters acquired in advance by calibration before this flow.

前景形状推定部116は、生成した前景モデルデータをレンダリング部131に送信する(S206)。 The foreground shape estimation unit 116 transmits the generated foreground model data to the rendering unit 131 (S206).

図2(b)は、背景生成システム120による背景データの生成処理手順例を示すフローチャートである。
背景生成システム120の合成判断部124は、ユーザによって予め設定された前景生成システム110のいずれの画像データを用いて背景テクスチャ画像を生成するかを取得する(S211)。本実施形態では、前景生成システム110Aおよび110Bのすべての画像データを用いて背景画像データを生成するものとする。
FIG. 2B is a flow chart showing an example of the background data generation processing procedure by the background generation system 120 .
The composition determination unit 124 of the background generation system 120 acquires which image data of the foreground generation system 110 preset by the user is used to generate the background texture image (S211). In this embodiment, background image data is generated using all image data of foreground generation systems 110A and 110B.

背景画像生成部123は、S211で取得した合成判断部124の判断結果に基づき、S203で撮影され変換されたデジタル画像データを前景生成システム110Aまたは110Bから受信する(S212)。例えば、ここでは、前景生成システム110Aからの画像データを受信したものとする。 The background image generation unit 123 receives the digital image data captured and converted in S203 from the foreground generation system 110A or 110B based on the determination result of the composition determination unit 124 acquired in S211 (S212). For example, assume here that image data has been received from the foreground generation system 110A.

合成判断部124は、背景画像生成部123が、背景画像データを生成するデータとして設定されている前景生成システム110Aおよび110Bの全てからデータを取得したかを判断する(S213)。 Synthesis determination unit 124 determines whether background image generation unit 123 has acquired data from all foreground generation systems 110A and 110B set as data for generating background image data (S213).

合成判断部124は、前景生成システム110Aおよび110Bの全てからデータを取得して合成範囲の全てのデータが揃っていると判断すると、処理をS214に移行する。合成判断部124は、前景生成システム110Aおよび110Bの全てからデータを取得しておらず、合成範囲の全てのデータが揃っていないと判断すると、処理をS212に返し、S212とS213の処理を繰り返す。例えば、先のS212では前景生成システム110Aの画像データを受信しているが、前景生成システム110Bの画像データを受信していないため、S212に戻って前景生成システム110Bの画像データの受信を待つことになる。その後、S212で前景生成システム110Bの画像データの受信が完了すると、合成判断部124は、S213では合成判断部124に設定されたすべての前景生成システムの画像データが揃っていると判断し、処理をS214に移行する。 Synthesis determination unit 124 acquires data from all of foreground generation systems 110A and 110B, and when determining that all data in the synthesis range is complete, transitions the process to S214. If the composition determination unit 124 determines that data has not been obtained from all of the foreground generation systems 110A and 110B and all the data in the composition range has not been obtained, the process returns to S212, and the processes of S212 and S213 are repeated. . For example, in S212, the image data of the foreground generation system 110A has been received, but the image data of the foreground generation system 110B has not been received. become. After that, when the reception of the image data of the foreground generation system 110B is completed in S212, the composition determination unit 124 determines in S213 that the image data of all the foreground generation systems set in the composition determination unit 124 is complete, and performs the processing. to S214.

背景画像生成部123は、S212で受信したデジタル画像データを前景画像と背景画像に分離し、背景画像のみを抽出した背景画像データを生成する。そして、背景画像生成部123は、生成した背景画像データをテクスチャ生成部125に提供する(S214)。 The background image generation unit 123 separates the digital image data received in S212 into a foreground image and a background image, and generates background image data by extracting only the background image. The background image generation unit 123 then provides the generated background image data to the texture generation unit 125 (S214).

テクスチャ生成部125は、受信した背景画像データを、モデル取得部122から取得した背景モデルデータに対してカメラパラメータを用いて射影変換を行って投影し、それらを合成することで背景テクスチャ画像を生成する(S215)。なお、テクスチャ生成部125は、カメラパラメータをパラメータ取得部121から取得する。パラメータ取得部121は、予めキャリブレーションによってカメラパラメータを取得し保有しており、本フロー前にカメラパラメータを取得しているものとする。また、モデル取得部122は、背景モデルデータを本フロー前に取得しているものとする。 The texture generation unit 125 projects the background image data received from the model acquisition unit 122 by projectively transforming the background model data acquired from the model acquisition unit 122, and synthesizes them to generate a background texture image. (S215). Note that the texture generation unit 125 acquires camera parameters from the parameter acquisition unit 121 . It is assumed that the parameter acquisition unit 121 acquires and holds camera parameters in advance through calibration, and acquires the camera parameters before this flow. It is also assumed that the model acquisition unit 122 has acquired the background model data before this flow.

図4(a)、(b)は、前景生成システム110Aの撮影システム111a~111zにより得られる撮影範囲を模式的に示した図である。 FIGS. 4A and 4B are diagrams schematically showing the shooting ranges obtained by the shooting systems 111a to 111z of the foreground generation system 110A.

図4(a)は、撮影システム111tで撮影される範囲を示した図である。撮影システム111tによって、当該撮影システム111tが図示された位置から注視点301に焦点を合わせて撮影すると、撮影システム111tの撮影範囲は、注視点301を撮影中心とした領域400で示される範囲となる。すなわち、撮影システム111tの焦点が注視点301に合わされると、撮影システム111tの撮影範囲は、領域400で示される範囲となる。このように、図示された位置から注視点301に焦点を合わせて撮影した撮影システム111a~111zの26つ全ての撮影範囲を合わせると、図4(b)に示すように、全撮影範囲は、注視点301を撮影中心とした第1の領域401となる。第1の領域401は、スタジアム300のほぼ右半分をカバーする。すなわち、背景画像生成部123は、前景生成システム110Aから受信したデジタル画像データを用いて、第1の領域401に該当する背景画像データを生成できる。 FIG. 4A is a diagram showing a range photographed by the photographing system 111t. When the photographing system 111t takes a picture from the position shown in the drawing while focusing on the point of regard 301, the photographing range of the photographing system 111t becomes a range indicated by an area 400 with the point of regard 301 as the photographing center. . That is, when the imaging system 111t is focused on the gaze point 301, the imaging range of the imaging system 111t becomes the range indicated by the area 400. FIG. In this way, when all the 26 imaging ranges of the imaging systems 111a to 111z photographed by focusing on the gaze point 301 from the illustrated position are combined, as shown in FIG. 4(b), the total imaging range is A first area 401 is obtained with the point of gaze 301 as the imaging center. A first area 401 covers approximately the right half of the stadium 300 . That is, the background image generator 123 can generate the background image data corresponding to the first area 401 using the digital image data received from the foreground generation system 110A.

同様に、図5は、前景生成システム110Bの撮影システム111A~111Zにより得られる撮影範囲を模式的に示した図である。注視点501は前景生成システム110Bの注視点である。前景生成システム110Bの撮影システム111A~111Zが図示された位置から注視点501に焦点を合わせて撮影すると、当該撮影システム111A~111Zの全てを合わせた撮影範囲は、注視点501を撮影中心とした第2の領域502となる。第2の領域502は、スタジアム300のほぼ左半分をカバーする。すなわち、背景画像生成部123は、前景生成システム110Bから受信したデジタル画像データを用いて、第2の領域502に該当する背景画像データを生成できる。 Similarly, FIG. 5 is a diagram schematically showing the shooting range obtained by the shooting systems 111A to 111Z of the foreground generation system 110B. Point of regard 501 is the point of regard for foreground generation system 110B. When the photographing systems 111A to 111Z of the foreground generation system 110B focus on the point of interest 501 and photograph from the illustrated position, the total photographing range of the photographing systems 111A to 111Z is centered on the point of interest 501. It becomes the second area 502 . A second region 502 covers approximately the left half of the stadium 300 . That is, the background image generator 123 can generate background image data corresponding to the second area 502 using the digital image data received from the foreground generation system 110B.

本実施形態では、合成判断部124によって前景生成システム110Aおよび前景生成システム110Bの両方が使用されると判断されるため、それらを合わせた背景画像データが生成される。 In the present embodiment, the composition determination unit 124 determines that both the foreground generation system 110A and the foreground generation system 110B are used, so background image data is generated by combining them.

図6は、背景生成システム120によって生成される背景画像の範囲を示した模式図である。前景生成システム110Aおよび110Bの各撮影システムの焦点を注視点301および501に合わせて撮影すると、撮影システムの全てを合わせた撮影範囲は、図4(b)の第1の領域401と図5の第2の領域502を合わせた全領域601となる。全領域601は、スタジアム300全体をカバーする。すなわち、背景生成システム120は、スタジアム300全体をカバーする全領域601に該当する背景画像データを生成できる。 FIG. 6 is a schematic diagram showing the range of the background image generated by the background generation system 120. As shown in FIG. When the imaging systems of the foreground generation systems 110A and 110B are focused on the gazing points 301 and 501 for imaging, the combined imaging range of the imaging systems is the first area 401 in FIG. A total area 601 including the second area 502 is obtained. A total area 601 covers the entire stadium 300 . That is, the background generation system 120 can generate background image data corresponding to the entire area 601 covering the entire stadium 300 .

テクスチャ生成部125は、背景画像生成部123によって生成された背景画像データを、パラメータ取得部121から取得したカメラパラメータを用いて射影変換し、背景モデルデータであるスタジアム300に投影することで背景テクスチャ画像を生成する。そして、テクスチャ生成部125は、背景モデルデータと、生成された背景テクスチャ画像をレンダリング部131に送信する(S216)。 The texture generation unit 125 performs projective transformation on the background image data generated by the background image generation unit 123 using the camera parameters acquired from the parameter acquisition unit 121, and projects the background image data onto the stadium 300, which is the background model data, to generate a background texture. Generate an image. The texture generation unit 125 then transmits the background model data and the generated background texture image to the rendering unit 131 (S216).

図2(c)は、レンダリングシステム130による仮想視点画像の生成処理手順例を示すフローチャートである。
操作部132がユーザにより操作されて、仮想視点画像を生成開始する操作を受け付けると、仮想視点画像の生成開始の操作を受け付けたことを画像処理システム100の各部に対して通知し仮想視点画像生成の開始を指示する(S221)。
FIG. 2(c) is a flowchart showing an example of a processing procedure for generating a virtual viewpoint image by the rendering system 130. As shown in FIG.
When the operation unit 132 is operated by the user and receives an operation to start generating a virtual viewpoint image, it notifies each unit of the image processing system 100 that the operation to start generating a virtual viewpoint image has been received, and generates a virtual viewpoint image. (S221).

レンダリングシステム130の制御部134は、仮想視点画像の生成開始の操作を受け付けたことの通知を操作部132から受け取ると、前景生成システム110Aおよび110Bのカメラ制御部117に対して同期撮影開始を指示する(S222)。同期撮影が開始されると、制御部134は、S203で送信された、同期撮影が開始されたことを示す信号をカメラ制御部117から受信する。 When the control unit 134 of the rendering system 130 receives notification from the operation unit 132 that the operation to start generating the virtual viewpoint image has been received, it instructs the camera control units 117 of the foreground generation systems 110A and 110B to start synchronous shooting. (S222). When the synchronous photographing is started, the control unit 134 receives from the camera control unit 117 the signal indicating that the synchronous photographing has been started, which was transmitted in S203.

レンダリング部131は、S206で生成された前景モデルデータを前景生成システム110Aおよび110Bの前景形状推定部116から受信する(S223)。 The rendering unit 131 receives the foreground model data generated in S206 from the foreground shape estimation units 116 of the foreground generation systems 110A and 110B (S223).

レンダリング部131は、S216で生成された背景モデルデータと背景テクスチャ画像をテクスチャ生成部125から受信する(S224)。 The rendering unit 131 receives the background model data and the background texture image generated in S216 from the texture generation unit 125 (S224).

操作部132は、ユーザによる仮想視点の操作、すなわち、仮想視点座標の変更操作を受け付け、変更された仮想視点座標情報をレンダリング部131に送信する(S225)。 The operation unit 132 receives an operation of the virtual viewpoint by the user, that is, an operation of changing the virtual viewpoint coordinates, and transmits the changed virtual viewpoint coordinate information to the rendering unit 131 (S225).

レンダリング部131は、受信した前景モデルデータと背景モデルデータを用い、操作部132から受信した仮想視点座標を用いてCPUまたはGPUなどの演算によって仮想視点からの画像をレンダリングする(S226)。 The rendering unit 131 uses the received foreground model data and background model data, and uses the virtual viewpoint coordinates received from the operation unit 132 to render the image from the virtual viewpoint by calculation of the CPU, GPU, or the like (S226).

図7は、仮想視点画像のレンダリングの様子を示した模式図である。
仮想視点701は、カメラが設置されていない任意の視点である仮想視点のカメラを表している。この仮想視点701で仮想視点画像としてレンダリングされる範囲を示しているのが仮想視点レンダリング範囲702である。
FIG. 7 is a schematic diagram showing how a virtual viewpoint image is rendered.
A virtual viewpoint 701 represents a virtual viewpoint camera, which is an arbitrary viewpoint at which no camera is installed. A virtual viewpoint rendering range 702 indicates a range rendered as a virtual viewpoint image from the virtual viewpoint 701 .

仮想視点レンダリング範囲702は、前景生成システム110Aの撮影範囲である第1の領域401の範囲を超えた撮影外領域703を有する。撮影外領域703は、黒で塗りつぶされた領域である。撮影外領域703は、前景生成システム110Aのみの画像データを用いて背景テクスチャ画像を生成することはできない。 The virtual viewpoint rendering range 702 has a non-shooting area 703 that exceeds the range of the first area 401, which is the shooting range of the foreground generation system 110A. The non-imaging area 703 is an area filled with black. For the non-shooting area 703, the background texture image cannot be generated using only the image data of the foreground generation system 110A.

図8は、前景生成システム110Aおよび110Bの撮影範囲を合わせた全領域601と仮想視点レンダリング範囲702の関係を示した模式図である。本実施形態では、前景生成システム110Aと110Bの画像データのどちらも使用するため、全領域601の範囲において背景テクスチャ画像が生成される。よって、全領域601はスタジアム300のすべてが撮影範囲に含まれており、仮想視点レンダリング範囲702から見える範囲において、隙間の無い背景テクスチャ画像を生成することが出来る。 FIG. 8 is a schematic diagram showing the relationship between a total area 601 obtained by combining the imaging ranges of the foreground generation systems 110A and 110B and a virtual viewpoint rendering range 702. As shown in FIG. In this embodiment, both the image data of the foreground generation systems 110A and 110B are used, so the background texture image is generated within the range of the entire area 601. FIG. Therefore, the entire area 601 includes the entire stadium 300 in the shooting range, and a background texture image without gaps can be generated in the range visible from the virtual viewpoint rendering range 702 .

レンダリング部131が生成した画像は、出力部133に送られ、ディスプレイなどの表示装置(図示省略)を通してユーザに目視される、あるいは、ファイルなどの画像データとしてユーザに取得される(S227)。 The image generated by the rendering unit 131 is sent to the output unit 133 and viewed by the user through a display device (not shown) such as a display, or acquired by the user as image data such as a file (S227).

以上説明したように、本実施形態によれば、画角を狭く設定したカメラで撮影された画像を基に、適切な背景画像を生成することができる。具体的には、注視点を向いた撮影範囲が限定されたカメラを用いて、仮想視点画像の背景生成の範囲を広げることが出来る。すなわち、複数の注視点毎に前景の形状推定を行う際、新たなカメラを追加することなく、背景生成の範囲を広げることが出来る。 As described above, according to this embodiment, an appropriate background image can be generated based on an image captured by a camera with a narrow angle of view. Specifically, it is possible to widen the background generation range of the virtual viewpoint image by using a camera with a limited shooting range facing the gaze point. That is, when estimating the shape of the foreground for each of a plurality of fixation points, the range of background generation can be expanded without adding a new camera.

(変形例)
以上、本実施形態について述べてきたが、本発明はこれに限定されるものではない。
例えば、本実施形態では、背景生成システム120及びレンダリングシステム130は別のシステムとしているが、同一のシステムとしてもよい。
(Modification)
Although the present embodiment has been described above, the present invention is not limited to this.
For example, in this embodiment, the background generation system 120 and the rendering system 130 are separate systems, but they may be the same system.

注視点を選択するユーザインターフェース(選択手段)を有し、レンダリングシステム130は注視点を選択した前景生成サーバにより生成された前景モデルデータを用いた仮想視点画像を生成してもよい。 Having a user interface (selection means) for selecting a gaze point, the rendering system 130 may generate a virtual viewpoint image using foreground model data generated by a foreground generation server that selects the gaze point.

また、本実施形態では背景生成システム120に対して、前景生成システム110Aおよび前景生成システム110Bの2つの画像データが送られているが、これに限定されない。例えば、操作部132のユーザインターフェースによって、前景生成システム110Aおよび110Bの各々に対して、背景生成システム120への画像データの転送のオンとオフを切り替えることが出来てもよい。その場合、背景生成システム120は、画像データの転送がオンになっている前景生成システム110の画像データを用いて背景テクスチャ画像を生成する。 Also, in the present embodiment, two image data of the foreground generation system 110A and the foreground generation system 110B are sent to the background generation system 120, but the present invention is not limited to this. For example, the user interface of operation unit 132 may allow each of foreground generation systems 110A and 110B to turn on or off the transfer of image data to background generation system 120. FIG. In that case, the background generation system 120 generates a background texture image using the image data of the foreground generation system 110 whose image data transfer is turned on.

また、画像処理システムは、撮影システム111の注視点301および501と異なる注視点に向けて設置された1以上のカメラで構成される第3のカメラ群を有する第3の撮影システムをさらに有してもよい。第3のカメラ群は、前景生成システム110A、110Bが有する撮影システム111のカメラ(第1および第2のカメラ群)によって撮影された画像より広い画角の画像を撮影することが好ましく、スタジアム300全体を撮影することがより好ましい。なお、第3のカメラ群がスタジアム300全体を撮影する場合、第3のカメラ群のカメラの注視点をスタジアム300のほぼ中心に設定することが好ましい。その場合、テクスチャ生成部125は、前景生成システム110A、110Bのカメラ群によって撮影された画像に加えて、第3の撮影システムの第3のカメラ群によって撮影された画像をさらに用いて背景モデルに張り付ける背景テクスチャ画像を生成する。また、テクスチャ生成部125は、前記第3のカメラ群によって撮影された前記画像を、前景生成システム110A、110Bの第1、第2のカメラ群によって撮影された前記画像よりも高い比重で前記テクスチャ画像を生成してもよい。これにより、前景生成システム110A、110Bの第1、第2のカメラ群によって撮影された前記画像のみに基づく場合と比べて、より適切な背景画像を生成できる。 In addition, the image processing system further includes a third imaging system having a third camera group composed of one or more cameras installed toward a gaze point different from the gaze points 301 and 501 of the imaging system 111. may The third camera group preferably captures an image with a wider angle of view than the images captured by the cameras (first and second camera groups) of the imaging system 111 of the foreground generation systems 110A and 110B. It is more preferable to photograph the whole. Note that when the third camera group captures the entire stadium 300 , it is preferable to set the gazing point of the cameras of the third camera group substantially at the center of the stadium 300 . In that case, the texture generation unit 125 further uses images captured by the third camera group of the third imaging system in addition to the images captured by the camera groups of the foreground generation systems 110A and 110B to create the background model. Generate a background texture image to paste. Also, the texture generation unit 125 renders the image captured by the third camera group with a higher weight than the images captured by the first and second camera groups of the foreground generation systems 110A and 110B. An image may be generated. This makes it possible to generate a more appropriate background image than when based only on the images captured by the first and second camera groups of the foreground generation systems 110A and 110B.

また、撮影システム111は歪みパラメータを用いて、画像の歪みを補正する歪み補正部を前景生成サーバ113、または背景生成システム120に有し、撮影した画像データを歪み補正部によって補正処理を行ってもよい。また、歪み補正部は撮影システム111に有していてもよい。 Further, the image capturing system 111 has a distortion correction unit that corrects image distortion using a distortion parameter in the foreground generation server 113 or the background generation system 120, and corrects captured image data by the distortion correction unit. good too. Also, the distortion correction unit may be included in the imaging system 111 .

また、本実施形態では、画像データを撮影システム111から前景生成サーバ113及び背景生成システム120に送信しているが、画像処理システム100が集約サーバを有し、集約サーバにてデータを集約するような形態であってもよい。そして、集約サーバ(振り分け手段)は、当該集約サーバに集約したデータを前景生成システム110Aの前景生成サーバ113と、前景生成システム110Bの前景生成サーバ113と、背景生成システム120とに振り分けてもよい。具体的には、集約サーバは、前景生成システム110Aの前景生成サーバ113に当該前景生成システム110Aの撮影システム111の画像を振り分けてもよい。集約サーバは、前景生成システム110Bの前景生成サーバ113に当該前景生成システム110Bの撮影システム111の画像を振り分けてもよい。集約サーバは、背景生成システム120に前景生成システム110Aの撮影システム111の画像と前景生成システム110Bの撮影システム111の画像を振り分けてもよい。 Further, in the present embodiment, image data is transmitted from the photographing system 111 to the foreground generation server 113 and the background generation system 120. However, if the image processing system 100 has an aggregation server and the aggregation server aggregates the data, may be in any form. Then, the aggregation server (sorting means) may sort the data aggregated by the aggregation server to the foreground generation server 113 of the foreground generation system 110A, the foreground generation server 113 of the foreground generation system 110B, and the background generation system 120. . Specifically, the aggregating server may distribute images of the imaging system 111 of the foreground generation system 110A to the foreground generation server 113 of the foreground generation system 110A. The aggregating server may distribute images of the imaging system 111 of the foreground generation system 110B to the foreground generation server 113 of the foreground generation system 110B. The aggregating server may distribute the image of the imaging system 111 of the foreground generation system 110A and the image of the imaging system 111 of the foreground generation system 110B to the background generation system 120 .

また、画像処理システム100が、ストレージを有するデータベースシステムを備え、前景生成システム110、背景生成システム120、レンダリングシステム130に対してデータベースを介して必要なデータを送受信してもよい。ストレージは、カメラパラメータや背景モデルデータ、前景生成システム110で生成される前景画像データ、背景画像データや前景モデルデータ、背景生成システム120で生成される背景テクスチャ画像などを記憶するのに十分な大容量記憶装置とする。 Further, the image processing system 100 may include a database system having a storage, and transmit and receive necessary data to and from the foreground generation system 110, background generation system 120, and rendering system 130 via the database. The storage is large enough to store camera parameters, background model data, foreground image data generated by foreground generation system 110, background image data and foreground model data, background texture images generated by background generation system 120, and the like. It is a capacitive storage device.

[実施形態2]
本実施形態に係る画像処理システムについて、図9および図10を参照して説明する。
本実施形態では、背景画像データの合成について述べる。なお、本実施形態では、上述した実施形態の画像処理システムと同一の機器については同一の符号を付記しその説明を省略する。
[Embodiment 2]
An image processing system according to this embodiment will be described with reference to FIGS. 9 and 10. FIG.
In this embodiment, synthesis of background image data will be described. It should be noted that, in this embodiment, the same reference numerals are given to the same devices as in the image processing system of the above-described embodiment, and the description thereof will be omitted.

図9は、本実施形態の画像処理システムの構成例を示すブロック図である。
本実施形態の画像処理システム(仮想視点画像生成システム)900は、上述の実施形態と同様、前景生成システム110A、前景生成システム110B、背景生成システム120、レンダリングシステム130を有する。
FIG. 9 is a block diagram showing a configuration example of the image processing system of this embodiment.
An image processing system (virtual viewpoint image generation system) 900 of this embodiment includes a foreground generation system 110A, a foreground generation system 110B, a background generation system 120, and a rendering system 130, as in the above embodiments.

背景生成システム120は、パラメータ取得部121、モデル取得部122、背景画像生成部123、合成判断部124、テクスチャ生成部125に加え、重みづけ判断部901を有する。 The background generation system 120 has a weighting determination unit 901 in addition to the parameter acquisition unit 121 , the model acquisition unit 122 , the background image generation unit 123 , the composition determination unit 124 , the texture generation unit 125 .

重みづけ判断部901は、テクスチャ生成部125が背景メッシュモデル上にカメラ画像(背景画像データ)を射影変換によって投影した際に、メッシュモデル上に投影したカメラ画像(背景画像データ)を合成する重みづけを導出する。すなわち、重みづけ判断部901は、メッシュモデル上に投影したカメラ画像における重複する領域に関し、各カメラ画像の重みづけを導出する。重みづけ判断部901による重みづけ処理は、S216の背景テクスチャ画像を生成する際に実行される。 When the texture generation unit 125 projects the camera image (background image data) onto the background mesh model by projective transformation, the weight determination unit 901 applies a weight for synthesizing the camera image (background image data) projected onto the mesh model. to derive the That is, the weighting determination unit 901 derives the weighting of each camera image with respect to overlapping regions in the camera images projected onto the mesh model. The weighting process by the weighting determination unit 901 is executed when the background texture image is generated in S216.

重みづけ判断部901による重みづけ処理について、図10を用いて説明する。
図10は、前景生成システム110Aおよび110Bの撮影範囲を示した模式図である。
Weighting processing by the weighting determination unit 901 will be described with reference to FIG.
FIG. 10 is a schematic diagram showing the shooting ranges of the foreground generation systems 110A and 110B.

重複領域1001は、前景生成システム110Aによる撮影範囲である第1の領域401と前景生成システム110Bによる撮影範囲である第2の領域502が重複する範囲である。言い換えると、重複領域1001は、前景生成システム110Aおよび110Bのいずれのシステムを用いても背景画像データを生成することが出来る範囲である。 An overlapping area 1001 is an area where the first area 401, which is the imaging range of the foreground generation system 110A, and the second area 502, which is the imaging range of the foreground generation system 110B, overlap. In other words, the overlapping area 1001 is a range in which background image data can be generated using either of the foreground generation systems 110A and 110B.

画素1002は、背景となるメッシュモデル上にて、第1の領域401および第2の領域502が重複する重複領域1001における、ある一点を示している。 A pixel 1002 indicates a point in an overlapping area 1001 where the first area 401 and the second area 502 overlap on the mesh model serving as the background.

画素1002と注視点301の距離1003Aが長さLaであり、画素1002と注視点501の距離1003Bが長さLbであるとする。 Assume that the distance 1003A between the pixel 1002 and the point of interest 301 is La, and the distance 1003B between the pixel 1002 and the point of interest 501 is Lb.

このとき、画素1002に関し、前景生成システム110Aで生成される背景画像データの画素値Xaと前景生成システム110Bで生成される背景画像データの画素値Xbの2つを合成した画素値Xの数値を演算によって導出する。画素値Xの導出方法として、例えば下記のような数式を用いる。 At this time, regarding the pixel 1002, the numerical value of the pixel value X obtained by synthesizing the pixel value Xa of the background image data generated by the foreground generation system 110A and the pixel value Xb of the background image data generated by the foreground generation system 110B is Derived by calculation. As a method of deriving the pixel value X, for example, the following formula is used.

Figure 0007233881000001
Figure 0007233881000001

上記の数式を用いることで、注視点からの距離が近い画素の重みを重くすることができる。画素1002の場合、長さLaと比較して長さLbの方が小さく、画素値Xbの重みづけの方が画素値Xaの重みよりも大きくなる。 By using the above formula, it is possible to weight pixels closer to the point of gaze. In the case of the pixel 1002, the length Lb is smaller than the length La, and the weighting of the pixel value Xb is greater than the weighting of the pixel value Xa.

このように注視点からの距離を用いて重みづけをすることによって、カメラ画像(前景生成システムによるデジタル画像データ)の切り替わり部分において境界線が目立たないように徐々に重みを重くすることが出来る。 By weighting using the distance from the gaze point in this way, it is possible to gradually increase the weight so that the boundary line does not stand out in the switching portion of the camera image (digital image data by the foreground generation system).

本実施形態では、画素値Xを上記数式(1)により導出したが、画素値Xの導出方法はこれに限定されない。例えば、数式(1)の範囲を正規化した値としてもよい。また画素値Xを求める際の画素値Xaおよび画素値Xbの合成の重みづけについては、距離1003Aおよび距離1003Bに基づいて求め、長さLaおよび長さLbのいずれか値の小さな方の重みづけが重くなるように導出されれば良い。
また、合成の重みについては、単純に平均値や中間値を用いる方法でもよい。
In the present embodiment, the pixel value X is derived from the above formula (1), but the method of deriving the pixel value X is not limited to this. For example, it may be a value obtained by normalizing the range of formula (1). Further, the weighting for combining the pixel value Xa and the pixel value Xb when obtaining the pixel value X is obtained based on the distance 1003A and the distance 1003B, and weighting is performed based on the smaller value of the length La or the length Lb. should be derived so as to be heavy.
As for weights for synthesis, a method of simply using an average value or an intermediate value may be used.

また、各前景生成システム110から取得したデジタル画像データについて画質の評価を行い、解像度の高さやコントラストの高さなどの評価を数値化し、その数値によって重みづけを行ってもよい。 Alternatively, the image quality of the digital image data acquired from each foreground generation system 110 may be evaluated, the evaluation of high resolution and high contrast may be quantified, and weighting may be performed based on the numerical values.

また、前景生成システム110で撮影される撮影範囲の一部または全てにおいて、撮影に失敗した画素がある場合、それらの画素の重みを0または0に近い数値としてもよい。 In addition, if there are pixels that fail to be captured in part or all of the imaging range captured by the foreground generation system 110, the weight of those pixels may be set to 0 or a numerical value close to 0.

以上、説明したように、本実施形態によれば、複数の撮影システムによるカメラ画像(デジタル画像データ)において重複領域がある場合に、重みづけ処理を行うことで、切り替えられるカメラ画像間の境界線の生成を抑制できる。 As described above, according to the present embodiment, when there is an overlapping area in camera images (digital image data) obtained by a plurality of imaging systems, weighting processing is performed so that the boundary line between camera images to be switched is generation can be suppressed.

[実施形態3]
本実施形態に係る画像処理システムについて、図11および図12を参照して説明する。
本実施形態では、背景画像データの生成に於いて、生成範囲を指定する方法について述べる。なお、本実施形態では、上述した実施形態の画像処理システムと同一の機器については同一の符号を付記しその説明を省略する。
[Embodiment 3]
An image processing system according to this embodiment will be described with reference to FIGS. 11 and 12. FIG.
In this embodiment, a method of designating a generation range in generating background image data will be described. It should be noted that, in this embodiment, the same reference numerals are given to the same devices as in the image processing system of the above-described embodiment, and the description thereof will be omitted.

図11は、本実施形態の画像処理システムの構成例を示すブロック図である。
本実施形態の画像処理システム(仮想視点画像生成システム)1100は、上述の実施形態と同様、前景生成システム110A、前景生成システム110B、背景生成システム120、レンダリングシステム130を有する。
FIG. 11 is a block diagram showing a configuration example of the image processing system of this embodiment.
An image processing system (virtual viewpoint image generation system) 1100 of this embodiment includes a foreground generation system 110A, a foreground generation system 110B, a background generation system 120, and a rendering system 130, as in the above embodiments.

前景生成システム110Aの撮影システム111aは、撮像部112に加え、前景背景分離部(以下、分離部と記す)1101を有する。 The imaging system 111a of the foreground generation system 110A has a foreground/background separating unit (hereinafter referred to as a separating unit) 1101 in addition to the imaging unit 112 .

背景生成システム120は、パラメータ取得部121、モデル取得部122、合成判断部124、テクスチャ生成部125に加え、範囲指定部(以下、指定部と記す)1102を有する。 The background generation system 120 includes a parameter acquisition unit 121 , a model acquisition unit 122 , a synthesis determination unit 124 , a texture generation unit 125 , and a range designation unit (hereinafter referred to as designation unit) 1102 .

分離部1101は、撮像部112でカメラによって撮影された画像を変換したデジタル画像データから前景画像と背景画像を分離して、前景画像データと背景画像データを生成する。このとき、背景画像生成部123は、後述の指定部1102によって指定される範囲については背景画像データの生成を行わない。 A separating unit 1101 separates a foreground image and a background image from digital image data obtained by converting an image captured by a camera in the imaging unit 112 to generate foreground image data and background image data. At this time, the background image generation unit 123 does not generate background image data for the range designated by the designation unit 1102, which will be described later.

指定部1102は、分離部1101が生成する背景画像データの範囲を指定し、指定された範囲の背景画像データを受信する。受信した背景画像データは、テクスチャ生成部125に送られる。 A designating unit 1102 designates the range of background image data generated by the separating unit 1101, and receives the background image data of the designated range. The received background image data is sent to the texture generator 125 .

図12は、画像処理システム1100による仮想視点画像生成処理のフローチャートである。図12(a)に前景生成システム110Aによる前景データの生成処理手順例のフローを示し、図12(b)に背景生成システム120による背景データの生成処理手順例のフローを示す。なお、ここでは前景生成システム110Aによる処理に関して説明するが、前景生成システム110Bでも、図12(a)と同様の処理が行われる。レンダリングシステム130による仮想視点画像の生成処理手順例を示すフローは、図2(c)に示すフローと同様であり、その説明を省略する。 FIG. 12 is a flowchart of virtual viewpoint image generation processing by the image processing system 1100 . FIG. 12A shows a flow of an example of the foreground data generation processing procedure by the foreground generation system 110A, and FIG. 12B shows a flow of an example of the background data generation processing procedure by the background generation system 120A. Although processing by the foreground generation system 110A will be described here, the same processing as in FIG. 12A is also performed in the foreground generation system 110B. A flow showing an example of the virtual viewpoint image generation processing procedure by the rendering system 130 is the same as the flow shown in FIG.

分離部1101は、撮像部112から取得したデジタル画像データ(撮影データ)を前景画像と背景画像に分離し、前景画像のみを抽出した前景画像データを生成し、生成した前景画像データを前景形状推定部116に提供する(S1201)。 A separating unit 1101 separates digital image data (captured data) acquired from the imaging unit 112 into a foreground image and a background image, generates foreground image data by extracting only the foreground image, and performs foreground shape estimation on the generated foreground image data. It is provided to the unit 116 (S1201).

分離部1101は、撮像部112から取得した撮影データを前景画像と背景画像に分離し、後述のS1211で指定部1102によって指定された範囲に従って、背景画像データを生成する(S1202)。生成した背景画像データは、指定部1102に送信される。 The separating unit 1101 separates the captured data acquired from the imaging unit 112 into a foreground image and a background image, and generates background image data according to the range specified by the specifying unit 1102 in S1211 (described later) (S1202). The generated background image data is transmitted to the designation unit 1102 .

指定部1102は、S211で設定された前景生成システム110A、110Bの使用設定に従い、重複領域について前景生成システム110Aまたは110Bのいずれで生成するかを決定する(S1211)。例えば、指定部102は、仮想視点の位置及び方向に応じて前景生成システム110Aまたは110Bのうち何れか一方を選択する。 The designating unit 1102 determines which of the foreground generation systems 110A and 110B is used to generate the overlap region, according to the use setting of the foreground generation systems 110A and 110B set in S211 (S1211). For example, the designation unit 102 selects one of the foreground generation systems 110A and 110B according to the position and direction of the virtual viewpoint.

指定部1102による背景画像データにおける範囲の指定方法について、図10の重複領域1001を用いて説明する。 A method of specifying a range in the background image data by the specifying unit 1102 will be described using the overlapping area 1001 in FIG. 10 .

重複領域1001は、前景生成システム110Aまたは110Bのいずれでも背景画像データを生成することが出来るため、どちらか一方のみから背景画像データが生成されればよい領域である。実施形態2と同様に、画素1002について重みづけ判断部901で重みづけの演算を行うと、前景生成システム110Aに対応するカメラで得られる画像に対する重みはLb/(La+Lb)となる。前景生成システム110Bに対応するカメラで得られる画像に対する重みはLa/(La+Lb)となる。このとき、La>Lbであるため、前景生成システム110Bで得られる画像の方の重みづけが前景生成システム110Aで得られる画像に対する重みづけと比べて重いことがわかる。指定部1102は、このようにして重みづけによる選択を行う。 The overlapping area 1001 is an area where the background image data can be generated by either one of the foreground generation systems 110A and 110B, because the background image data can be generated by either of them. As in the second embodiment, when weighting determination unit 901 performs weighting calculation for pixel 1002, the weight for the image obtained by the camera corresponding to foreground generation system 110A is Lb/(La+Lb). The weight for the image obtained by the camera corresponding to the foreground generation system 110B is La/(La+Lb). At this time, since La>Lb, it can be seen that the image obtained by the foreground generation system 110B is weighted more heavily than the image obtained by the foreground generation system 110A. The designation unit 1102 performs weighted selection in this way.

指定部1102は、前景生成システム110Bを選択すると、前景生成システム110Aの撮影システム111a~111zの画素1002に該当する箇所について、分離部1101に対し不要な画素値として指定する。 When the foreground generation system 110B is selected, the designation unit 1102 designates to the separation unit 1101 as unnecessary pixel values the locations corresponding to the pixels 1002 of the imaging systems 111a to 111z of the foreground generation system 110A.

図13は、撮影システム111tについて、指定部1102によって背景画像データの生成範囲の指定が行われる様子を示した図である。図13(a)に撮影システム111tの撮影範囲と画素の位置との関係を示し、図13(b)に撮影システム111tの撮影範囲と非画像生成範囲との関係を示す。 FIG. 13 is a diagram showing how the specifying unit 1102 specifies the generation range of the background image data for the imaging system 111t. FIG. 13A shows the relationship between the imaging range of the imaging system 111t and the positions of the pixels, and FIG. 13B shows the relationship between the imaging range of the imaging system 111t and the non-image generation range.

図13(a)に示すように、画素1002は、撮影中心を注視点301に設定した撮影システム111tがスタジアム300を撮影した撮影範囲である領域400で示される範囲内に位置づけられている。図13(a)のように撮影範囲の領域400の中に含まれる画素1002は分離部1101で生成される背景画像データの生成範囲から外される。 As shown in FIG. 13A, the pixel 1002 is positioned within a range indicated by an area 400, which is the shooting range of the stadium 300 shot by the shooting system 111t whose shooting center is set to the gaze point 301. As shown in FIG. As shown in FIG. 13A, pixels 1002 included in the imaging range area 400 are excluded from the background image data generation range generated by the separation unit 1101 .

重複領域1001の各画素について同様の処理を行うと、図13(b)の非画像生成範囲に示す領域1301について背景画像データの生成が行われず、これによって背景画像データを背景生成システムに転送する画像データの転送サイズを減らすことが出来る。 When the same processing is performed for each pixel in the overlapping area 1001, the background image data is not generated for the area 1301 shown in the non-image generation range in FIG. The transfer size of image data can be reduced.

指定部1102は、分離部1101から背景画像データを受信する(S1212)。例えば、ここでは、撮影システム111aの分離部1101からの背景画像データを受信する。 The specifying unit 1102 receives the background image data from the separating unit 1101 (S1212). For example, here, background image data is received from the separating unit 1101 of the imaging system 111a.

指定部1102は、分離部1101から受信した画像データが、合成範囲のデータ全てを受信したか否かを判断する(S1213)。すなわち、指定部1102は、合成判断部124で背景画像データを生成するデータとして設定されている前景生成システム110Aおよび110Bの全てからデータを取得したか否かを判断する。指定部1102は、全てのデータを受信したと判断すると(S1213でYES)、処理をS1214に移行する。指定部1102は、全てのデータを受信していないと判断すると(S1213でNO)、処理をS1212に返し、S1212とS1213の処理を繰り返す。例えば、先のS1212では撮影システム111aのデジタル画像データを受信しているが、その他についてはデジタル画像データを受信していない場合、処理をS1212に返しデジタル画像データを受信するまでを待つことになる。その後、S1212で残る前景生成システムの撮影システム全てから前景生成システムのデジタル画像データの受信が完了すると、指定部1102は、S1213において合成判断部124に設定された全ての背景画像データが揃っていると判断する。この判断結果に基づき、指定部1102は、処理をS1214に移行する。 The designating unit 1102 determines whether or not the image data received from the separating unit 1101 has received all the data of the combining range (S1213). That is, the designating unit 1102 determines whether or not data has been acquired from all of the foreground generation systems 110A and 110B set as data for generating background image data in the composition determination unit 124 . When the specifying unit 1102 determines that all data have been received (YES in S1213), the process proceeds to S1214. If the designation unit 1102 determines that all the data has not been received (NO in S1213), the process returns to S1212, and the processes of S1212 and S1213 are repeated. For example, if the digital image data of the imaging system 111a is received in S1212, but the other digital image data is not received, the process returns to S1212 and waits until the digital image data is received. . After that, when reception of the digital image data of the foreground generation system from all the remaining photographing systems of the foreground generation system is completed in S1212, the designating unit 1102 receives all the background image data set in the synthesis determination unit 124 in S1213. I judge. Based on this determination result, the specifying unit 1102 shifts the processing to S1214.

テクスチャ生成部125は、指定部1102から取得した背景画像データを、モデル取得部122から取得した背景モデルデータに対し、パラメータ取得部121から取得したカメラパラメータを用いて射影変換を行って投影する。投影した画像を合成することで背景テクスチャ画像を生成する(S1214)。 The texture generation unit 125 projects the background image data acquired from the specification unit 1102 by projectively transforming the background model data acquired from the model acquisition unit 122 using the camera parameters acquired from the parameter acquisition unit 121 . A background texture image is generated by synthesizing the projected images (S1214).

以上、重複領域の背景画像データの生成範囲について説明を行ってきたが、本実施形態はこれに限定されるものではない。 Although the generation range of the background image data of the overlapping area has been described above, the present embodiment is not limited to this.

前述した他の重みづけの優先順位方法によって、最も重みづけの高いものが選択されるようにしてもよい。
ユーザ操作によって注視点の選択が行われた場合、重複領域で選択した注視点の撮影範囲を全て選択し、重複している他の注視点については使用しないなどとしてもよい。また、注視点の優先順位をユーザが指定し、指定した優先順位に従って背景画像データの生成範囲を指定してもよい。
The highest weighting may be selected according to other weighting priority methods previously described.
When a point of interest is selected by a user operation, the shooting range of the point of interest selected in the overlapping area may be entirely selected, and other overlapping points of interest may not be used. Alternatively, the user may specify the priority of the gaze point and specify the generation range of the background image data according to the specified priority.

続いて、本実施形態を構成する各装置のハードウェア構成について、より詳細に説明する。上述の通り、本実施形態では、前景生成サーバ113がFPGA及び/又はASICなどのハードウェアを実装し、これらのハードウェアによって、上述した各処理を実行する場合の例を中心に説明した。それは前景生成システム110内の撮影システム111、背景生成システム120、レンダリングシステム130についても同様である。しかしながら、上記装置のうち、少なくとも何れかが、例えば、CPU、DSPなどを用い、ソフトウェア処理によって本実施形態の処理を実行するようにしても良い。 Next, the hardware configuration of each device constituting this embodiment will be described in more detail. As described above, in the present embodiment, the foreground generation server 113 implements hardware such as FPGA and/or ASIC, and an example in which the above-described processes are executed by such hardware has been described. The same applies to the shooting system 111, the background generation system 120, and the rendering system 130 within the foreground generation system 110. FIG. However, at least one of the above devices may use, for example, a CPU, DSP, etc., and execute the processing of the present embodiment by software processing.

図14は、図1に示した機能構成をソフトウェア処理によって実現するための、前景生成サーバ113のハードウェア構成例を示す図である。なお、撮影システム111、背景生成システム120、レンダリングシステム130などの装置も、図14のハードウェア構成となりうる。前景生成サーバ113は、CPU1131と、RAM1132と、ROM1133と、二次記憶装置1134と、入出力インタフェース1135とを有する。これらの構成要素は、バスによって接続され、構成要素間でデータを送受信することが可能である。 FIG. 14 is a diagram showing a hardware configuration example of the foreground generation server 113 for realizing the functional configuration shown in FIG. 1 by software processing. Devices such as the imaging system 111, the background generation system 120, and the rendering system 130 can also have the hardware configuration shown in FIG. The foreground generation server 113 has a CPU 1131 , a RAM 1132 , a ROM 1133 , a secondary storage device 1134 and an input/output interface 1135 . These components are connected by a bus, allowing data to be sent and received between the components.

CPU1131は、RAM1132をワークメモリとして用いて、ROM1133や二次記憶装置1134に格納されたプログラムを実行し、システムバスを介して前景生成サーバ113の各構成要素を統括的に制御する。これにより、図1に示したモジュールが実現されたり、図2(a)に示した処理が実行されたりする。 The CPU 1131 uses the RAM 1132 as a work memory to execute programs stored in the ROM 1133 and the secondary storage device 1134, and comprehensively controls each component of the foreground generation server 113 via the system bus. As a result, the module shown in FIG. 1 is implemented, and the process shown in FIG. 2(a) is executed.

二次記憶装置1134は、前景生成サーバ113で取り扱われる種々のデータが格納される装置であり、例えば、HDD、光ディスクドライブ、フラッシュメモリ等が用いられる。CPU1131は、システムバスを介して、二次記憶装置1134へのデータの書き込みと二次記憶装置1134に格納されたデータの読出しとを行う。入出力インタフェース1135は、前景生成サーバ113とその外部の装置との間におけるデータの送受信を行う。以上が、本実施形態におけるシステム構成の内容である。 The secondary storage device 1134 is a device that stores various data handled by the foreground generation server 113, and uses, for example, an HDD, an optical disk drive, a flash memory, or the like. The CPU 1131 writes data to the secondary storage device 1134 and reads data stored in the secondary storage device 1134 via the system bus. The input/output interface 1135 transmits and receives data between the foreground generation server 113 and external devices. The above is the content of the system configuration in this embodiment.

なお、例えば前景生成サーバ113の処理のうち一部をFPGAで行い、別の一部の処理を、CPUを用いたソフトウェア処理によって実現するようにしても良い。また、図14に示した前景生成サーバ113の各構成要素は、単一の電子回路で構成されていてもよいし、複数の電子回路で構成されていてもよい。例えば、前景生成サーバ113は、CPU1131として動作する電子回路を複数備えていてもよい。これら複数の電子回路がCPU1131としての処理を並行して行うことで、前景生成サーバ113の処理速度を向上することができる。 For example, part of the processing of the foreground generation server 113 may be performed by an FPGA, and another part of the processing may be performed by software processing using a CPU. Further, each component of the foreground generation server 113 shown in FIG. 14 may be composed of a single electronic circuit, or may be composed of a plurality of electronic circuits. For example, the foreground generation server 113 may include multiple electronic circuits that operate as the CPU 1131 . The processing speed of the foreground generation server 113 can be improved by having these multiple electronic circuits perform processing as the CPU 1131 in parallel.

画像処理システム100内の他の装置についても同様である。また、上述の実施形態は、画像処理システム100が競技場やコンサートホールなどの施設に設置される場合の例を中心に説明した。施設の他の例としては、例えば、遊園地、公園、競馬場、競輪場、カジノ、プール、スケートリンク、スキー場、ライブハウスなどがある。また、各種施設で行われるイベントは、屋内で行われるものであっても屋外で行われるものであっても良い。また、本実施形態における施設は、一時的に(期間限定で)建設される施設も含む。 Other devices in the image processing system 100 are the same. Also, in the above-described embodiment, the example in which the image processing system 100 is installed in facilities such as stadiums and concert halls has been mainly described. Other examples of facilities include, for example, amusement parks, parks, racetracks, bicycle racetracks, casinos, swimming pools, skating rinks, ski resorts, and live music venues. Events held at various facilities may be held indoors or outdoors. In addition, the facility in this embodiment also includes a facility constructed temporarily (for a limited period of time).

[その他の実施形態]
また、前景生成サーバ113や背景生成システム120、レンダリングシステム130は、内部に物理的に複数のサーバを有し、論理的に1台となるような構成であってもよい。
[Other embodiments]
Also, the foreground generation server 113, the background generation system 120, and the rendering system 130 may physically have a plurality of servers inside, and may be configured to be logically one unit.

また、上述した実施形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現してもよい。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としてはどのような記憶媒体を用いてもよく、例えばハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリなどを用いてもよい。 Further, in the processing of the above-described embodiments, the system or device may be provided with a storage medium recording program codes of software that embodies each function. Then, the computer (or CPU or MPU) of the system or device may read and execute the program code stored in the storage medium to realize the functions of the above-described embodiments. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Any storage medium may be used as a storage medium for supplying such program code, for example, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a non-volatile memory, or the like may be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現されてもよい。 Moreover, the functions of the above-described embodiments are not only realized by executing the program code read by the computer. Based on the instructions of the program code, an OS (operating system) or the like running on the computer may perform part or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現されてもよい。 Furthermore, the program code read from the storage medium may be written to a memory included in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU provided in the function expansion board or function expansion unit may perform part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing. .

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100・・・画像処理システム
110A、110B・・・前景生成システム
120・・・背景生成システム
100... Image processing systems 110A, 110B... Foreground generation system 120... Background generation system

Claims (14)

仮想視点画像を生成する画像処理装置であって、
第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成手段と、
前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成手段と、
前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段と
前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群と、
を有し、
前記背景生成手段は、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成する
とを特徴とする画像処理装置。
An image processing device that generates a virtual viewpoint image,
a first foreground generation means for generating a foreground image based on an image captured by a first camera group composed of one or more cameras installed facing a first position;
Second foreground generation means for generating a foreground image based on an image captured by a second camera group composed of one or more cameras installed toward a second position different from the first position and,
Background generating means for generating a background image of the virtual viewpoint image based on a texture image for a background model generated based on the images captured by the first and second camera groups, and the background model. and
a third camera group composed of one or more cameras installed toward a third position different from the first and second positions;
has
The background generating means generates the texture image for the background model based on an image captured by the third camera group in addition to the images captured by the first and second camera groups. generating said background image further based on
An image processing apparatus characterized by :
前記背景生成手段は、前記第一前記第二および前記第三のカメラ群によって撮影された前記画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成し、生成したテクスチャ画像を当該背景モデルに合成することで前記仮想視点画像の前記背景画像を生成する
ことを特徴とする、請求項1に記載の画像処理装置。
The background generation means generates the texture image for the background model based on the images captured by the first , second , and third camera groups, and synthesizes the generated texture image with the background model. The image processing apparatus according to claim 1, wherein the background image of the virtual viewpoint image is generated by:
前記第一および前記第二の前景生成手段のうち何れか一方の前景生成手段を選択する選択手段と、
前記選択手段により選択された前景生成手段によって生成される前景画像と、前記背景生成手段によって生成された前記背景画像とに基づいて前記仮想視点画像を生成する画像生成手段をさらに有する
ことを特徴とする、請求項1または2に記載の画像処理装置。
selecting means for selecting one of the first and second foreground generating means;
further comprising image generation means for generating the virtual viewpoint image based on the foreground image generated by the foreground generation means selected by the selection means and the background image generated by the background generation means; 3. The image processing apparatus according to claim 1, wherein
前記画像生成手段は、前記選択手段により選択された前景生成手段によって生成される前景画像と、前記背景生成手段によって生成された前記背景画像とを合成した前記仮想視点画像を生成する
ことを特徴とする、請求項3に記載の画像処理装置。
The image generation means generates the virtual viewpoint image by synthesizing the foreground image generated by the foreground generation means selected by the selection means and the background image generated by the background generation means. 4. The image processing apparatus according to claim 3, wherein
前記選択手段は、仮想視点の位置及び方向に応じて、前記第一および前記第二の前景生成手段のうち何れか一方を選択する
ことを特徴とする、請求項3または4に記載の画像処理装置。
5. The image processing according to claim 3, wherein said selection means selects either one of said first and said second foreground generation means according to the position and direction of a virtual viewpoint. Device.
前記背景生成手段は、前記選択手段によって選択された前景生成手段に対応するカメラ群の前記画像に基づいて生成される前記テクスチャ画像を、前記選択手段によって選択されなかった前景生成手段に対応するカメラ群の前記画像に基づいて生成される前記テクスチャ画像よりも高い比重で前記背景モデルに合成する
ことを特徴とする、請求項3から5の何れか一項に記載の画像処理装置。
The background generation means converts the texture image generated based on the image of the camera group corresponding to the foreground generation means selected by the selection means to the camera corresponding to the foreground generation means not selected by the selection means. 6. The image processing apparatus according to any one of claims 3 to 5, wherein the background model is combined with a higher weight than the texture image generated based on the images of the group.
前記第一の前景生成手段には前記第一のカメラ群の前記画像、前記第二の前景生成手段には前記第二のカメラ群の前記画像、前記背景生成手段には前記第一および前記第二のカメラ群の前記画像を振り分ける振り分け手段を有することを特徴とする、請求項1から6の何れか一項に記載の画像処理装置。 The image of the first camera group for the first foreground generation means, the image of the second camera group for the second foreground generation means, the first and the second camera group for the background generation means, and 7. The image processing apparatus according to any one of claims 1 to 6, further comprising sorting means for sorting the images of the two camera groups. 前記第一または前記第二のカメラ群に属するカメラは、撮影した前記画像から前景画像と背景画像を分離して生成する分離手段を有し、
前記背景生成手段は、前記分離手段で生成した前記背景画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成する
ことを特徴とする、請求項1から5の何れか一項に記載の画像処理装置。
the camera belonging to the first or second camera group has separating means for separating and generating a foreground image and a background image from the photographed image;
6. The image processing apparatus according to claim 1, wherein said background generation means generates said texture image for said background model based on said background image generated by said separation means. .
前記背景生成手段は、前記第三のカメラ群の前記画像に基づいて生成される前記テクスチャ画像を、前記第一および前記第二のカメラ群の前記画像に基づいて生成される前記テクスチャ画像よりも高い比重で前記背景モデルに合成することを特徴とする、請求項1から8の何れか一項に記載の画像処理装置。 The background generating means may reduce the texture image generated based on the image of the third camera group to the texture image generated based on the image of the first and second camera groups. 9. The image processing apparatus according to any one of claims 1 to 8 , wherein the image is synthesized with the background model with high weight. 前記第三のカメラ群は、前記第一および前記第二のカメラ群によって撮影された前記画像より広い画角の画像を撮影する
ことを特徴とする、請求項1から9の何れか一項に記載の画像処理装置。
10. The camera according to any one of claims 1 to 9 , wherein the third camera group captures an image with a wider angle of view than the images captured by the first and second camera groups. The described image processing device.
仮想視点画像を生成する画像処理方法であって、
第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成ステップと、
前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成ステップと、
前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成ステップと
を有し、
前記背景生成ステップでは、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成する
とを特徴とする画像処理方法。
An image processing method for generating a virtual viewpoint image,
a first foreground generation step of generating a foreground image based on an image captured by a first camera group composed of one or more cameras installed toward a first position;
a second foreground generation step of generating a foreground image based on an image captured by a second camera group composed of one or more cameras installed toward a second position different from the first position; and,
A background generation step of generating a background image of the virtual viewpoint image based on a texture image for a background model generated based on the images captured by the first and second camera groups, and the background model. and
In the background generation step, in addition to the images captured by the first and second camera groups, one or more cameras installed toward a third position different from the first and second positions generating the background image further based on the texture image for the background model generated based on images taken by a third camera group composed of cameras;
An image processing method characterized by :
前記背景生成ステップでは、前記第一前記第二および前記第三のカメラ群によって撮影された前記画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成し、生成したテクスチャ画像を当該背景モデルに合成することで前記仮想視点画像の前記背景画像を生成する
ことを特徴とする、請求項11に記載の画像処理方法。
In the background generation step, the texture image for the background model is generated based on the images captured by the first , second , and third camera groups, and the generated texture image is combined with the background model. 12. The image processing method according to claim 11 , wherein the background image of the virtual viewpoint image is generated by:
前記第一および前記第二の前景生成ステップのうち何れか一方の前景生成ステップを選択する選択ステップと、
前記選択ステップにて選択された前記前景生成ステップによって生成される前景画像と、前記背景生成ステップによって生成された前記背景画像とに基づいて前記仮想視点画像を生成する画像生成ステップをさらに有する
ことを特徴とする、請求項12に記載の画像処理方法。
a selection step of selecting one of the first and second foreground generation steps;
further comprising an image generation step of generating the virtual viewpoint image based on the foreground image generated by the foreground generation step selected in the selection step and the background image generated by the background generation step; 13. An image processing method according to claim 12 , characterized in that.
コンピュータを、請求項1から10の何れか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 10 .
JP2018200042A 2018-10-24 2018-10-24 Image processing device, image processing method and program Active JP7233881B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018200042A JP7233881B2 (en) 2018-10-24 2018-10-24 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200042A JP7233881B2 (en) 2018-10-24 2018-10-24 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2020067815A JP2020067815A (en) 2020-04-30
JP7233881B2 true JP7233881B2 (en) 2023-03-07

Family

ID=70390415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200042A Active JP7233881B2 (en) 2018-10-24 2018-10-24 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7233881B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115705660A (en) * 2021-08-13 2023-02-17 华为技术有限公司 Image background generation method and device and computer-readable storage medium
GB202112327D0 (en) * 2021-08-27 2021-10-13 Mo Sys Engineering Ltd Rendering image content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212593A (en) 2016-05-25 2017-11-30 キヤノン株式会社 Information processing device, image processing system, information processing method, and program
JP2018092580A (en) 2016-11-30 2018-06-14 キヤノン株式会社 Image generator and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212593A (en) 2016-05-25 2017-11-30 キヤノン株式会社 Information processing device, image processing system, information processing method, and program
JP2018092580A (en) 2016-11-30 2018-06-14 キヤノン株式会社 Image generator and method

Also Published As

Publication number Publication date
JP2020067815A (en) 2020-04-30

Similar Documents

Publication Publication Date Title
JP6429829B2 (en) Image processing system, image processing apparatus, control method, and program
JP6482498B2 (en) Control device, control method, and program
KR102502570B1 (en) Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with transmission of foreground and background images at different frame rates
JP6808357B2 (en) Information processing device, control method, and program
JP6672075B2 (en) CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JP6415675B1 (en) Generating apparatus, generating method, and program
KR102153985B1 (en) Apparatus, system, method, and non-transitory computer-readable storage medium for generating virtual viewpoint image
US10812770B2 (en) Image processing system, image processing apparatus, image processing method, and program
JP7042571B2 (en) Image processing device and its control method, program
WO2022002181A1 (en) Free viewpoint video reconstruction method and playing processing method, and device and storage medium
JP2019022151A (en) Information processing apparatus, image processing system, control method, and program
EP3857899A1 (en) Image synthesis
JP6827996B2 (en) Image processing device, control method, and program
JP7233881B2 (en) Image processing device, image processing method and program
WO2022001865A1 (en) Depth map and video processing and reconstruction methods and apparatuses, device, and storage medium
JP2008217593A (en) Subject area extraction device and subject area extraction program
JP6790145B2 (en) Control device, control method, and program
JP2019103126A (en) Camera system, camera control device, camera control method, and program
JP6759375B2 (en) Systems, methods and programs that generate virtual viewpoint images
JP6392739B2 (en) Image processing apparatus, image processing method, and image processing program
JP6632703B2 (en) CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JP2017102686A (en) Information acquisition apparatus, information acquisition method, and information acquisition program
JP2021018570A (en) Image processing apparatus, image processing system, image processing method and program
JP6450306B2 (en) Image processing apparatus, image processing method, and image processing program
JP2020160756A (en) Image generation device, image generation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R151 Written notification of patent or utility model registration

Ref document number: 7233881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151