JP2019102056A - Image processing device, information processing method and program - Google Patents

Image processing device, information processing method and program Download PDF

Info

Publication number
JP2019102056A
JP2019102056A JP2018127416A JP2018127416A JP2019102056A JP 2019102056 A JP2019102056 A JP 2019102056A JP 2018127416 A JP2018127416 A JP 2018127416A JP 2018127416 A JP2018127416 A JP 2018127416A JP 2019102056 A JP2019102056 A JP 2019102056A
Authority
JP
Japan
Prior art keywords
image
area
unit
imaging
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018127416A
Other languages
Japanese (ja)
Other versions
JP2019102056A5 (en
JP7195791B2 (en
Inventor
智裕 矢埜
Tomohiro Yano
智裕 矢埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP18208659.5A priority Critical patent/EP3493162A1/en
Priority to US16/202,550 priority patent/US10979684B2/en
Priority to CN201811464278.9A priority patent/CN109874000B/en
Publication of JP2019102056A publication Critical patent/JP2019102056A/en
Publication of JP2019102056A5 publication Critical patent/JP2019102056A5/ja
Application granted granted Critical
Publication of JP7195791B2 publication Critical patent/JP7195791B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an image processing device capable of reducing processing load related to a projection of an image to a model.SOLUTION: With respect to an image to be projected on a surface area which is the surface of a background model, which is a model of the background of a virtual viewpoint image generated on the basis of multiple images captured by multiple capture units, the image processing device determines which images of areas in which captured images included in the multiple images captured by multiple imaging units should be projected, and projects the determined images of the areas included in the images captured by multiple imaging units on the surface area.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an information processing method, and a program.

昨今、複数のカメラ等の撮像装置を異なる位置に配置して多視点で同期的に撮影し、撮影により得られた複数の視点からの画像を用いて、仮想視点画像を生成する技術が注目されている。仮想視点画像とは、仮想的に設定された視点から見たように見える画像である。このような複数の視点からの画像から仮想視点画像を生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが可能となる。複数の視点からの画像に基づく仮想視点画像の生成は、例えば、複数のカメラが撮影した画像に基づいて、前景背景分離、三次元モデル生成、レンダリング等の処理を施すことで実現できる。
特許文献1には、同一の範囲を取り囲むように複数の撮像装置を配置して、その同一の範囲を撮影した画像を用いて、任意の指定に対応する仮想視点画像を生成、表示する技術が開示されている。
上述のような仮想視点画像を生成する技術では、背景となるフィールドを有するスタジアム等の三次元モデルを生成し、そのモデルに画像を投影することで仮想視点画像における背景を生成することができる。それぞれ視点が異なる複数の撮像装置により撮影された複数の画像から生成される仮想視点画像の背景のモデルへ画像を投影するためには、例えば、まず、各撮像装置により撮影された画像を射影変換し合成する。そして、射影変換後に合成された画像を背景のモデルに投影するという処理により行われ得る。
Recently, attention has been focused on a technique for generating virtual viewpoint images by arranging imaging devices such as a plurality of cameras at different positions and synchronously capturing images from multiple viewpoints and using images from multiple viewpoints obtained by imaging. ing. A virtual viewpoint image is an image that looks like viewed from a virtually set viewpoint. According to the technology of generating a virtual viewpoint image from images from such a plurality of viewpoints, for example, it becomes possible to view a highlight scene of soccer or basketball from various angles. Generation of a virtual viewpoint image based on images from a plurality of viewpoints can be realized, for example, by performing processing such as foreground / background separation, three-dimensional model generation, and rendering based on images captured by a plurality of cameras.
In Patent Document 1, there is a technology in which a plurality of imaging devices are arranged so as to surround the same range, and a virtual viewpoint image corresponding to any designation is generated and displayed using an image obtained by capturing the same range. It is disclosed.
In the technology for generating a virtual viewpoint image as described above, a background in a virtual viewpoint image can be generated by generating a three-dimensional model such as a stadium having a field serving as a background and projecting the image onto the model. In order to project an image on a model of the background of a virtual viewpoint image generated from a plurality of images captured by a plurality of imaging devices having different viewpoints, for example, first, projective transformation is performed on the images captured by each imaging device To synthesize. Then, it can be performed by a process of projecting an image synthesized after projective transformation onto a background model.

特開2014−215828号公報JP, 2014-215828, A

しかし、モデルに対する画像の投影に係る処理(例えば、撮像装置により撮影された画像を射影変換する処理や、射影変換された各撮影装置の撮影画像を合成する処理)は、多くのメモリなどのハードウェア資源や多くの演算を必要とするため、これらの処理の負担を軽減するための技術が望まれる。
本発明は、モデルに対する画像の投影に係る処理の負担をより軽減することを目的とする。
However, processing relating to projection of an image onto a model (for example, processing for projective transformation of an image captured by an imaging device and processing for combining a captured image of each projection device subjected to projective transformation) requires hardware such as a large amount of memory Because of the need for hardware resources and a large number of operations, techniques for reducing the burden of these processes are desired.
An object of the present invention is to reduce the burden of processing relating to the projection of an image on a model.

本発明の画像処理装置は、複数の撮影部により撮影される複数の撮影画像に基づいて生成される仮想視点画像の背景のモデルである背景モデルの表面上に存在する領域である表面領域に投影する画像として、前記複数の撮影部により撮影される複数の撮影画像に含まれる何れの撮影画像における何れの領域の画像を投影するかを決定する決定手段と、前記複数の撮影部により撮影される複数の撮影画像に含まれる前記決定手段により決定された領域の画像を、前記表面領域に投影する投影手段と、を有する。   The image processing apparatus according to the present invention projects on a surface area which is an area existing on the surface of a background model which is a model of a background of a virtual viewpoint image generated based on a plurality of photographed images photographed by a plurality of photographing units. Determination means for determining which area of the captured image is to be projected, which is included in the plurality of captured images captured by the plurality of capturing units as the image to be captured; and captured by the plurality of capturing units And projection means for projecting an image of the area determined by the determination means contained in a plurality of photographed images on the surface area.

本発明によれば、モデルに対する画像の投影に係る処理の負担をより軽減することができる。   According to the present invention, it is possible to further reduce the burden of processing relating to the projection of an image on a model.

画像処理システムのシステム構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration of an image processing system. 撮像装置のハードウェア構成等の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an imaging device. サーバ装置のハードウェア構成等の一例を示す図である。It is a figure which shows an example of the hardware constitutions etc. of a server apparatus. 事前処理の一例を示すフローチャートである。It is a flow chart which shows an example of pre-processing. 背景モデルの一例を説明する図である。It is a figure explaining an example of a background model. 撮像装置の配置状況の一例を説明する図である。It is a figure explaining an example of the arrangement situation of an imaging device. 座標変換の一例を説明する図である。It is a figure explaining an example of coordinate conversion. 仮想視点画像の背景生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the background production | generation process of a virtual viewpoint image. 撮像装置による撮影された状況等の一例を示す図である。It is a figure which shows an example of the condition etc. which were image | photographed by the imaging device. 画像の切り出しの一例を説明する図である。It is a figure explaining an example of logging of an image. 撮像装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of an imaging device. サーバ装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a server apparatus. 事前処理の一例を示すフローチャートである。It is a flow chart which shows an example of pre-processing. 背景生成処理の一例を示すフローチャートである。It is a flow chart which shows an example of background generation processing. 領域決定処理の一例を示すフローチャートである。It is a flow chart which shows an example of field decision processing. 撮像装置の撮影範囲の一例を説明する図である。It is a figure explaining an example of the photography range of an imaging device. 投影される画像が撮影されるメッシュの一例を説明する図である。It is a figure explaining an example of the mesh in which the image to be projected is taken. 基準撮像装置と他の撮像装置との位置関係の一例を説明する図である。It is a figure explaining an example of the physical relationship of a standard imaging device and other imaging devices. 基準撮像装置との距離に応じて並べた撮像装置の一例を示す図である。It is a figure which shows an example of the imaging device put in order according to distance with a reference | standard imaging device. 投影される画像が撮影されるメッシュの一例を説明する図である。It is a figure explaining an example of the mesh in which the image to be projected is taken. 事前処理の一例を示すフローチャートである。It is a flow chart which shows an example of pre-processing. 背景生成処理の一例を示すフローチャートである。It is a flow chart which shows an example of background generation processing. 仮想視点と各撮像装置との向きの一例を説明する図である。It is a figure explaining an example of direction with a virtual viewpoint and each imaging device. 不具合を検出した際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of detecting a malfunction.

以下に、本発明の実施の形態の一例を、図面に基づいて詳細に説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail based on the drawings.

<実施形態1>
図1は、仮想視点画像を生成する画像処理システム100のシステム構成の一例を示す図である。画像処理システム100は、仮想視点画像の生成に用いられる画像を撮影し、撮影した画像から仮想視点画像を生成するシステムである。画像処理システム100は、撮像装置101a〜101n、サーバ装置103を含む。撮像装置101a〜101n、サーバ装置103は、通信回線102を介して、相互に通信可能に接続されている。
撮像装置101a〜101nは、ネットワークカメラ等の通信機能を有する撮像装置である。以下では、撮像装置101a〜101nを、撮像装置101と総称する。本実施形態では、撮像装置101は、14個の撮像装置であるとするが、13個以下の撮像装置であってもよいし、15個以上の撮像装置であってもよい。本実施形態では、撮像装置101a〜101nは、スタジアムに配置されているとするが、コンサート会場等の他の場所に配置されていることとしてもよい。サーバ装置103は、パーソナルコンピュータ、サーバ装置、タブレット装置等の情報処理装置である。サーバ装置103は、撮像装置101a〜101nにより撮影された画像を集約し、集約した画像に基づいて、仮想視点画像を生成する。通信回線102は、Ethernet等の通信回線である。なお、サーバ装置103は、複数の装置により構成されてもよい。
First Embodiment
FIG. 1 is a diagram illustrating an example of a system configuration of an image processing system 100 that generates a virtual viewpoint image. The image processing system 100 is a system that captures an image used to generate a virtual viewpoint image, and generates a virtual viewpoint image from the captured image. The image processing system 100 includes imaging devices 101 a to 101 n and a server device 103. The imaging devices 101 a to 101 n and the server device 103 are communicably connected to each other via the communication line 102.
The imaging devices 101a to 101n are imaging devices having a communication function such as a network camera. Hereinafter, the imaging devices 101 a to 101 n are collectively referred to as an imaging device 101. In the present embodiment, the imaging device 101 is assumed to be 14 imaging devices, but may be 13 or less imaging devices or 15 or more imaging devices. In the present embodiment, the imaging devices 101a to 101n are arranged in a stadium, but may be arranged in other places such as a concert hall. The server apparatus 103 is an information processing apparatus such as a personal computer, a server apparatus, and a tablet apparatus. The server device 103 aggregates the images captured by the imaging devices 101a to 101n, and generates a virtual viewpoint image based on the aggregated images. The communication line 102 is a communication line such as Ethernet. The server device 103 may be configured by a plurality of devices.

図2(a)は、撮像装置101それぞれのハードウェア構成の一例である。
撮像装置101は、CPU201、主記憶装置202、補助記憶装置203、ネットワークI/F204、撮影部205を含む。各要素は、システムバス206を介して、相互に通信可能に接続されている。
CPU201は、撮像装置101を制御する中央演算装置である。主記憶装置202は、CPU201のワークエリアやデータの一時的な記憶領域として機能する記憶装置である。主記憶装置202は、Random Access Memory(RAM)等の記憶媒体を用いて実装される。補助記憶装置203は、各種プログラム、各種設定情報、各種画像データ、カメラパラメータの情報等を記憶する記憶装置である。補助記憶装置203は、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等の記憶媒体を用いて実装される。
ネットワークI/F204は、サーバ装置103等の外部の装置との間での通信回線102を介した通信に利用されるインターフェースである。撮影部205は、CMOSセンサ、CCDセンサ等の撮像素子やレンズ等を含み、周囲を撮影する撮影部である。
CPU201が、補助記憶装置203に記憶されたプログラムにしたがって処理を実行することで、図2(b)、11で後述する撮像装置101の機能、図8、14で後述するフローチャートにおける撮像装置101の処理等が実現される。
FIG. 2A illustrates an example of the hardware configuration of each of the imaging devices 101.
The imaging apparatus 101 includes a CPU 201, a main storage device 202, an auxiliary storage device 203, a network I / F 204, and an imaging unit 205. The elements are communicably connected to each other via a system bus 206.
The CPU 201 is a central processing unit that controls the imaging device 101. The main storage device 202 is a storage device that functions as a work area of the CPU 201 and a temporary storage area of data. The main storage device 202 is implemented using a storage medium such as Random Access Memory (RAM). The auxiliary storage device 203 is a storage device that stores various programs, various setting information, various image data, information of camera parameters, and the like. The auxiliary storage device 203 is mounted using a storage medium such as a read only memory (ROM), a hard disk drive (HDD), a solid state drive (SSD) or the like.
The network I / F 204 is an interface used for communication with the external apparatus such as the server apparatus 103 via the communication line 102. The imaging unit 205 is an imaging unit that includes an imaging device such as a CMOS sensor and a CCD sensor, a lens, and the like, and images the surroundings.
The CPU 201 executes the processing according to the program stored in the auxiliary storage device 203, whereby the functions of the imaging device 101 described later in FIGS. 2B and 11 and the functions of the imaging device 101 in the flowcharts described later in FIGS. Processing etc. are realized.

図2(b)は、撮像装置101それぞれの機能構成の一例を示す図である。
撮像装置101は、撮影制御部211、生成部212、送信部213を含む。
撮影制御部211は、撮影部205を制御し、撮影部205内のレンズや撮像素子等によって、光学的に撮像した画像をデジタルデータに変換する。生成部212は、撮影制御部211により撮影された画像から前景と背景とを分離し、前景画像を除いた背景画像を生成する。送信部213は、生成部212により生成された背景画像のデータを、通信回線102を介して、サーバ装置103に送信する。なお、図2(b)に示す機能構成の一部又はすべてをハードウェアにより実現してもよい。このハードウェアの一例としては、ASIC、FPGA、GPU等がある。
FIG. 2B is a diagram illustrating an example of a functional configuration of each of the imaging devices 101.
The imaging apparatus 101 includes an imaging control unit 211, a generation unit 212, and a transmission unit 213.
The imaging control unit 211 controls the imaging unit 205, and converts an optically captured image into digital data by a lens, an imaging element, or the like in the imaging unit 205. The generation unit 212 separates the foreground and the background from the image captured by the imaging control unit 211, and generates a background image excluding the foreground image. The transmission unit 213 transmits the data of the background image generated by the generation unit 212 to the server apparatus 103 via the communication line 102. Note that part or all of the functional configuration shown in FIG. 2B may be realized by hardware. Examples of this hardware include an ASIC, an FPGA, and a GPU.

図3(a)は、サーバ装置103のハードウェア構成の一例を示す図である。
サーバ装置103は、CPU301、主記憶装置302、補助記憶装置303、ネットワークI/F304を含む。各要素は、システムバス305を介して、相互に通信可能に接続されている。
CPU301は、サーバ装置103を制御する中央演算装置である。主記憶装置302は、CPU301のワークエリアやデータの一時的な記憶領域として機能する記憶装置である。主記憶装置302は、RAM等の記憶媒体を用いて実装される。補助記憶装置303は、各種プログラム、各種設定情報、各種画像データ等を記憶する記憶装置である。補助記憶装置303は、ROM、HDD、SSD等の記憶媒体を用いて実装される。ネットワークI/F304は、撮像装置101等の外部の装置との間での通信回線102を介した通信に利用されるインターフェースである。
CPU301が、補助記憶装置303に記憶されたプログラムにしたがって処理を実行することで、図3(b)、12で後述するサーバ装置103の機能、図8、14で後述するフローチャートにおけるサーバ装置103の処理が実現される。また、CPU301が、補助記憶装置303に記憶されたプログラムにしたがって処理を実行することで、図4、13、15、21、22、24で後述するフローチャートの処理等が実現される。
FIG. 3A is a diagram showing an example of the hardware configuration of the server apparatus 103. As shown in FIG.
The server device 103 includes a CPU 301, a main storage device 302, an auxiliary storage device 303, and a network I / F 304. The elements are communicably connected to each other via a system bus 305.
The CPU 301 is a central processing unit that controls the server device 103. The main storage device 302 is a storage device that functions as a work area of the CPU 301 and a temporary storage area of data. The main storage device 302 is implemented using a storage medium such as a RAM. The auxiliary storage device 303 is a storage device that stores various programs, various setting information, various image data, and the like. The auxiliary storage device 303 is mounted using a storage medium such as a ROM, an HDD, or an SSD. The network I / F 304 is an interface used for communication with the external apparatus such as the imaging apparatus 101 via the communication line 102.
The CPU 301 executes the processing according to the program stored in the auxiliary storage device 303, whereby the functions of the server device 103 described later with reference to FIGS. 3B and 12 and the server device 103 in the flowchart described with reference to FIGS. Processing is realized. In addition, the CPU 301 executes the processing according to the program stored in the auxiliary storage device 303, whereby the processing of the flowchart to be described later is realized in FIGS. 4, 13, 15, 21, 22, and 24.

図3(b)は、サーバ装置103の機能構成の一例を示す図である。
サーバ装置103は、画像取得部311、キャリブレーション部312、背景モデル管理部313、座標変換部314、背景テクスチャ決定部315、仮想カメラ制御部316、レンダリング部317を含む。
画像取得部311は、撮像装置101それぞれから通信回線102を介して送信される撮像装置101それぞれにより撮影された画像を取得する。画像取得部311は、取得した画像を、背景テクスチャ決定部315に送信する。
キャリブレーション部312は、撮像装置101それぞれのカメラパラメータを制御する。カメラパラメータとは、撮像装置に関するパラメータであり、撮像装置の位置・姿勢に関するパラメータである外部パラメータと、焦点距離や画素間隔等に関する内部パラメータとを含んでもよい。また、カメラパラメータは、撮影領域を特定するための情報であってもよい。また、カメラパラメータは、外部パラメータと内部パラメータとうち何れか1つのみでもよいし、他のパラメータを含んでもよい。キャリブレーション部312は、例えば、通信回線102を介して、カメラパラメータの変更指示を撮像装置101に送信する。撮像装置101は、送信された指示に応じて自身のカメラパラメータを変更する。また、キャリブレーション部312は、例えば、通信回線102を介して、撮像装置101から、カメラパラメータの情報を受信することができる。キャリブレーション部312は、例えば、補助記憶装置303に、撮像装置101それぞれのカメラパラメータを記憶し管理する。キャリブレーション部312は、管理する撮像装置101のカメラパラメータを、座標変換部314に送信する。
FIG. 3B is a diagram showing an example of a functional configuration of the server apparatus 103. As shown in FIG.
The server apparatus 103 includes an image acquisition unit 311, a calibration unit 312, a background model management unit 313, a coordinate conversion unit 314, a background texture determination unit 315, a virtual camera control unit 316, and a rendering unit 317.
The image acquisition unit 311 acquires an image captured by each of the imaging devices 101 transmitted from each of the imaging devices 101 via the communication line 102. The image acquisition unit 311 transmits the acquired image to the background texture determination unit 315.
The calibration unit 312 controls each camera parameter of the imaging device 101. The camera parameter is a parameter related to the imaging device, and may include an external parameter that is a parameter related to the position and orientation of the imaging device, and an internal parameter related to the focal length and the pixel interval. Also, the camera parameter may be information for specifying a shooting area. Also, the camera parameters may be only one of the external parameters and the internal parameters, or may include other parameters. The calibration unit 312 transmits, for example, an instruction to change a camera parameter to the imaging apparatus 101 via the communication line 102. The imaging apparatus 101 changes its own camera parameters in accordance with the transmitted instruction. The calibration unit 312 can also receive information on camera parameters from the imaging device 101 via the communication line 102, for example. The calibration unit 312 stores and manages camera parameters of each of the imaging devices 101 in the auxiliary storage device 303, for example. The calibration unit 312 transmits the camera parameters of the imaging apparatus 101 to be managed to the coordinate conversion unit 314.

背景モデル管理部313は、画像処理システム100が生成する仮想視点画像における背景となるスタジアム等の構造物等の3次元のメッシュモデルに近似して定義された背景モデルのデータ(以下では、背景モデルデータとする)を管理する。なお、背景モデルデータのデータ構造は、どのようなものであってもよく、点、線分、面等により3次元形状を示すものであってもよい。背景モデルデータは、予め補助記憶装置303に記憶されている。背景モデル管理部313は、管理する背景モデルデータを、背景テクスチャ決定部315、座標変換部314、レンダリング部317に送信する。本実施形態では、背景モデル管理部313は、予め定められた世界座標系を用いて、背景モデルの座標を管理しているとする。
座標変換部314は、キャリブレーション部312から送信されたカメラパラメータに基づいて、世界座標系における背景モデル内の領域を、撮像装置101により撮影される画像内における領域(カメラ座標系における領域)に変換する。また、座標変換部314は、キャリブレーション部312から送信されたカメラパラメータに基づいて、撮像装置101により撮影された画像内におけるカメラ座標系の領域を、世界座標系における背景モデル内の領域に変換する。カメラ座標系とは、撮像装置を基準とした座標系である。また、座標変換部314は、世界座標系と撮像装置101それぞれにおけるカメラ座標系との対応関係(例えば、座標系間の変換パラメータ等)を特定してもよい。その場合、座標変換部314は、特定した対応関係の情報を、背景テクスチャ決定部315に送信する。そして、背景テクスチャ決定部315は、送信された対応情報に基づいて、世界座標系における背景モデル内の領域を、撮像装置101により撮影された画像内におけるカメラ座標系の領域に変換することとなる。また、背景テクスチャ決定部315は、送信された対応情報に基づいて、撮像装置101により撮影された画像内におけるカメラ座標系の領域を、世界座標系における背景モデル内の領域に変換することとなる。
The background model management unit 313 is data of a background model defined by approximating a three-dimensional mesh model of a structure such as a stadium as a background in a virtual viewpoint image generated by the image processing system 100 (hereinafter, background model Manage data). The data structure of the background model data may be anything, and may indicate a three-dimensional shape by a point, a line segment, a surface or the like. Background model data is stored in advance in the auxiliary storage device 303. The background model management unit 313 transmits the background model data to be managed to the background texture determination unit 315, the coordinate conversion unit 314, and the rendering unit 317. In the present embodiment, it is assumed that the background model management unit 313 manages the coordinates of the background model using a predetermined world coordinate system.
The coordinate conversion unit 314 sets an area in the background model in the world coordinate system to an area in the image captured by the imaging device 101 (an area in the camera coordinate system) based on the camera parameters transmitted from the calibration unit 312. Convert. Further, the coordinate conversion unit 314 converts the area of the camera coordinate system in the image captured by the imaging device 101 into the area in the background model in the world coordinate system based on the camera parameters transmitted from the calibration unit 312. Do. The camera coordinate system is a coordinate system based on the imaging device. Further, the coordinate conversion unit 314 may specify the correspondence between the world coordinate system and the camera coordinate system in each of the imaging devices 101 (for example, conversion parameters between coordinate systems). In that case, the coordinate conversion unit 314 transmits information on the specified correspondence to the background texture determination unit 315. Then, based on the transmitted correspondence information, the background texture determination unit 315 converts the area in the background model in the world coordinate system into the area of the camera coordinate system in the image captured by the imaging device 101. . Also, the background texture determination unit 315 converts the area of the camera coordinate system in the image captured by the imaging device 101 into the area in the background model in the world coordinate system based on the transmitted correspondence information. .

背景テクスチャ決定部315は、画像取得部311により取得された画像に基づいて、背景モデルの各メッシュに投影される画像を決定する。
仮想カメラ制御部316は、仮想カメラの情報を管理し、サーバ装置103の操作部を介したユーザによる操作に基づいて、仮想カメラのカメラパラメータを制御する。仮想カメラとは、指定された位置に配置されたとみなされる仮想的な撮像装置である。仮想カメラの情報は、予め補助記憶装置303等に記憶されている。仮想カメラ制御部316は、仮想カメラの情報を、レンダリング部317に送信する。
レンダリング部317は、背景テクスチャ決定部315により決定された画像を背景モデル管理部313から送信された背景モデルの各メッシュに投影する。そして、レンダリング部317は、仮想カメラ制御部316から送信された仮想カメラのカメラパラメータに基づいて、2次元画像としてレンダリングする。これにより、レンダリング部317は、サーバ装置103の操作部を介したユーザの指示に基づいて、指定された任意の視点からの画像を生成することができる。
The background texture determination unit 315 determines an image to be projected on each mesh of the background model based on the image acquired by the image acquisition unit 311.
The virtual camera control unit 316 manages information of the virtual camera, and controls camera parameters of the virtual camera based on an operation by the user via the operation unit of the server apparatus 103. The virtual camera is a virtual imaging device considered to be disposed at a designated position. Information of the virtual camera is stored in advance in the auxiliary storage device 303 or the like. The virtual camera control unit 316 transmits information on the virtual camera to the rendering unit 317.
The rendering unit 317 projects the image determined by the background texture determination unit 315 on each mesh of the background model transmitted from the background model management unit 313. Then, the rendering unit 317 renders as a two-dimensional image based on the camera parameters of the virtual camera transmitted from the virtual camera control unit 316. Thus, the rendering unit 317 can generate an image from an arbitrary designated viewpoint based on an instruction of the user via the operation unit of the server apparatus 103.

判断部318は、画像取得部311により取得された画像から、仮想視点画像の生成に用いられる画像を選択する。補助記憶装置303には、例えば、ピンボケしている画像、露出が適切ではない(例えば、予め定められた範囲内にない)画像、指定された撮像装置により撮影された画像等の特定の画像を、仮想視点画像の生成に用いないことを示す情報が予め記憶されている。判断部318は、例えば、この情報に基づいて、画像取得部311により取得された画像から、仮想視点画像の生成に用いられる画像を選択する。本実施形態では、補助記憶装置303には、撮像装置101のうち指定された撮像装置により撮影された画像を仮想視点画像の生成に用いないことを示す情報が記憶されているとする。また、画像処理システム100は、判断部318により仮想視点画像の生成に用いないと判断された画像を撮影する撮像装置を、存在しないものとして扱うこととしてもよい。
領域決定部319は、判断部318により仮想視点画像の生成に用いられると判断された画像内の領域から、背景テクスチャ決定部315による背景モデルに投影される画像が撮影される領域を決定する。なお、図3(b)に示す機能構成の一部又はすべてをハードウェアにより実現してもよい。このハードウェアの一例としては、ASIC、FPGA、GPU等がある。
The determination unit 318 selects an image used to generate a virtual viewpoint image from the images acquired by the image acquisition unit 311. In the auxiliary storage device 303, for example, a specific image such as an out-of-focus image, an image whose exposure is not appropriate (for example, not within a predetermined range), an image captured by a designated imaging device, etc. Information indicating that the virtual viewpoint image is not used is stored in advance. The determination unit 318 selects an image used to generate a virtual viewpoint image from the image acquired by the image acquisition unit 311 based on this information, for example. In the present embodiment, it is assumed that the auxiliary storage device 303 stores information indicating that an image captured by a designated one of the imaging devices 101 is not used for generation of a virtual viewpoint image. In addition, the image processing system 100 may treat an imaging device that captures an image that is determined not to be used for generating a virtual viewpoint image by the determination unit 318 as one that does not exist.
The area determination unit 319 determines an area in which an image to be projected on the background model by the background texture determination unit 315 is captured from the area in the image determined by the determination unit 318 to be used for generating the virtual viewpoint image. Note that part or all of the functional configuration shown in FIG. 3B may be realized by hardware. Examples of this hardware include an ASIC, an FPGA, and a GPU.

図4は、仮想視点画像の生成の前に画像処理システム100が実行する事前処理の一例を示すフローチャートである。図4の処理により、画像処理システム100は、仮想視点画像の生成する際の背景モデルへの画像の投影処理に係る負担を軽減できる。
S401において、背景テクスチャ決定部315は、背景モデル管理部313から受信した背景モデルデータから背景モデルを構成するメッシュを1つ抽出する。背景モデルの各メッシュは、背景モデルの表面上に存在する領域である表面領域の一例である。図5は、背景モデルの一例を説明する図である。モデル501は、スタジアムの3次元モデルであり、複数のメッシュでフィールドであるグラウンドが表現されている。本実施形態では、背景モデルは、モデル501と同様のスタジアムのモデルとする。しかし、背景モデルは、コンサート会場や、観客席等のモデルであってもよい。背景モデルデータには、グラウンドを構成するメッシュそれぞれについて、頂点座標や面の法線等の情報等が含まれ得る。本実施形態では、背景テクスチャ決定部315は、図4の処理を開始して初めてS401の処理を行う際にメッシュ502を抽出するものとする。なお、S401では、メッシュと異なる単位で、背景モデルの表面の一部の領域を抽出してもよい。
FIG. 4 is a flowchart showing an example of pre-processing performed by the image processing system 100 before generation of a virtual viewpoint image. By the process of FIG. 4, the image processing system 100 can reduce the burden of the process of projecting an image onto a background model when generating a virtual viewpoint image.
In step S <b> 401, the background texture determination unit 315 extracts one mesh constituting the background model from the background model data received from the background model management unit 313. Each mesh of the background model is an example of a surface area which is an area present on the surface of the background model. FIG. 5 is a diagram for explaining an example of a background model. The model 501 is a three-dimensional model of a stadium, and a plurality of meshes represent the ground which is a field. In the present embodiment, the background model is a stadium model similar to the model 501. However, the background model may be a model such as a concert hall or a spectator seat. The background model data may include information such as vertex coordinates and the normal of a surface for each of the meshes constituting the ground. In the present embodiment, it is assumed that the background texture determination unit 315 extracts the mesh 502 when the process of S401 is performed for the first time after the process of FIG. 4 is started. In S401, a partial region of the surface of the background model may be extracted in units different from the mesh.

S402において、背景テクスチャ決定部315は、撮像装置101から1つを選択する。本実施形態では、背景テクスチャ決定部315は、S401の処理の後に初めてS402の処理を行う際に撮像装置101aを選択するとする。
図6は、撮像装置の配置状況の一例を説明する図である。図6の状況は、世界座標系において撮影対象であるスタジアムを示すモデル501と、世界座標系において実際の配置位置に対応する位置に配置された撮像装置101それぞれと、の位置関係を示す。撮像装置101aは、キャリブレーション部312が管理する撮像装置101aのカメラパラメータが示すように、図6に示される位置に配置され、領域601を撮影している。座標変換部314は、世界座標系におけるメッシュ502の座標を、撮像装置101aのカメラ座標系における座標に変換する。
In step S <b> 402, the background texture determination unit 315 selects one from the imaging device 101. In the present embodiment, the background texture determination unit 315 selects the imaging device 101a when performing the process of S402 for the first time after the process of S401.
FIG. 6 is a diagram for explaining an example of the arrangement state of the imaging device. The situation in FIG. 6 shows the positional relationship between a model 501 indicating a stadium to be photographed in the world coordinate system and each of the imaging devices 101 arranged at a position corresponding to the actual arrangement position in the world coordinate system. The imaging device 101a is disposed at the position shown in FIG. 6 and captures an image of the area 601, as indicated by the camera parameters of the imaging device 101a managed by the calibration unit 312. The coordinate conversion unit 314 converts the coordinates of the mesh 502 in the world coordinate system into coordinates in the camera coordinate system of the imaging device 101a.

S403において、座標変換部314は、キャリブレーション部312から送信された撮像装置101aのカメラパラメータに基づいて、以下の処理を行う。即ち、座標変換部314は、世界座標系におけるS401で抽出されたメッシュ502の領域を、撮像装置101aのカメラ座標系における領域に変換する。変換された領域は、撮像装置101aにより撮影される画像内におけるメッシュ502に対応する部分が撮影される領域となる。即ち、座標変換部314は、撮像装置101それぞれにより撮影される各画像内におけるメッシュ502に対応する部分が撮影される領域を特定することとなる。図7を用いて、世界座標系におけるメッシュ502の領域が撮像装置101aのカメラ座標系へ変換された状況を説明する。領域701は、撮像装置101aのカメラ座標系において、撮像装置101aにより撮影される画像全体が占める領域である。図7には、座標変換部314によりメッシュ502の領域を、撮像装置101aのカメラ座標系における領域702に変換された様子が示されている。
S404において、座標変換部314は、撮像装置101全てについて、S401で抽出されたメッシュに対するS403の処理が完了したか否かを判定する。座標変換部314は、撮像装置101全てについて、S401で抽出されたメッシュに対するS403の処理が完了したと判定した場合、S405の処理に進む。座標変換部314は、撮像装置101の中に、S401で抽出されたメッシュに対するS403の処理が完了していない撮像装置があると判定した場合、S402の処理に進む。
In step S403, the coordinate conversion unit 314 performs the following process based on the camera parameters of the imaging apparatus 101a transmitted from the calibration unit 312. That is, the coordinate conversion unit 314 converts the area of the mesh 502 extracted in S401 in the world coordinate system into an area in the camera coordinate system of the imaging device 101a. The converted area is an area where a portion corresponding to the mesh 502 in the image captured by the imaging device 101a is captured. That is, the coordinate conversion unit 314 identifies an area in which a portion corresponding to the mesh 502 in each image captured by each of the imaging devices 101 is captured. The situation in which the area of the mesh 502 in the world coordinate system is converted to the camera coordinate system of the imaging device 101a will be described using FIG. An area 701 is an area occupied by the entire image captured by the imaging device 101 a in the camera coordinate system of the imaging device 101 a. FIG. 7 shows a state in which the area of the mesh 502 is converted by the coordinate conversion unit 314 into an area 702 in the camera coordinate system of the imaging device 101a.
In step S404, the coordinate conversion unit 314 determines whether the process of step S403 on the mesh extracted in step S401 is completed for all the imaging apparatuses 101. If the coordinate conversion unit 314 determines that the process of S403 on the mesh extracted in S401 has been completed for all the imaging apparatuses 101, the process proceeds to the process of S405. If the coordinate conversion unit 314 determines that there is an imaging device for which the process of S403 on the mesh extracted in S401 is not completed among the imaging devices 101, the process proceeds to the process of S402.

S405において、領域決定部319は、S403で撮像装置101それぞれのカメラ座標系に変換されたS401で抽出されたメッシュの領域に基づいて、以下の処理を行う。即ち、領域決定部319は、撮像装置101それぞれにより撮影される複数の画像内の領域から、背景モデルにおけるS401で抽出されたメッシュの部分に投影される画像が撮影される領域を決定する。
領域決定部319は、例えば、S403で撮像装置101それぞれのカメラ座標系に変換されたS401で抽出されたメッシュの領域のうち、撮像装置101それぞれにより撮影される画像内に全て収まっている(画像からはみ出ていない)領域を特定する。そして、領域決定部319は、特定した領域から1つを選択し、選択した領域を、背景モデルにおけるS401で抽出したメッシュの部分に投影される画像が撮影される領域として選択する。即ち、画像処理システム100は、撮像装置101それぞれにより撮影される画像内における選択された領域の画像が、S401で抽出されたメッシュの部分に投影されることとなる。
また、領域決定部319は、例えば、S403で変換された領域のうち、撮像装置101それぞれにより撮影される画像内に全て収まっている領域として最初に特定された領域を特定し、以下の処理を行うこととしてもよい。即ち、領域決定部319は、特定した領域を、S401で抽出されたメッシュの部分に投影される画像が撮影される領域として選択することとしてもよい。
In step S405, the region determination unit 319 performs the following processing based on the region of the mesh extracted in step S401 converted to the camera coordinate system of each of the imaging devices 101 in step S403. That is, the region determination unit 319 determines a region in which an image projected on a portion of the mesh extracted in S401 in the background model is captured from the regions in the plurality of images captured by each of the imaging devices 101.
The region determination unit 319 is, for example, all of the mesh regions extracted in S401 converted to the camera coordinate system of each of the imaging devices 101 in S403, all contained in the image captured by each of the imaging devices 101 (image Identify the area that does not extend from the Then, the region determination unit 319 selects one from the specified regions, and selects the selected region as a region in which an image projected on the portion of the mesh extracted in S401 in the background model is captured. That is, in the image processing system 100, the image of the selected area in the image captured by each of the imaging devices 101 is projected onto the mesh portion extracted in S401.
In addition, for example, the area determination unit 319 identifies an area that is first identified as an area that is all contained in the image captured by each of the imaging devices 101 among the areas converted in S403, and performs the following processing. You may do it. That is, the area determination unit 319 may select the specified area as an area where the image projected on the part of the mesh extracted in S401 is captured.

また、領域決定部319は、例えば、S403で変換された領域のうち、撮像装置101それぞれにより撮影される画像内に全て収まっている領域を特定し、以下の処理を行ってもよい。即ち、領域決定部319は、特定した領域から、領域それぞれの面積(画像内で占有するピクセル数)に基づいて、1つを選択し、選択した領域をS401で抽出したメッシュの部分に投影される画像が撮影される領域として選択してもよい。
例えば、領域決定部319は、S403で変換された領域のうち、撮像装置101それぞれにより撮影される画像内に全て収まっている領域を特定する。そして、領域決定部319は、特定した領域から、面積が最も大きい1つを選択し、選択した領域を、S401で抽出したメッシュの部分に投影される画像が撮影される領域として選択してもよい。この処理により、画像処理システム100は、S401で抽出されたメッシュの部分を、最も大きい解像度で撮影する撮像装置を、その部分に投影される画像を撮影する撮像装置として選択できる。これにより、画像処理システム100は、背景モデルの各メッシュにより精細な画像を投影できることとなる。
また、例えば、領域決定部319は、S403で変換された領域のうち、撮像装置101それぞれにより撮影される画像内に全て収まっている領域を特定する。そして、領域決定部319は、特定した領域から、面積が最も小さい1つを選択し、選択した領域を、S401で抽出したメッシュの部分に投影される画像が撮影される領域として選択してもよい。この処理により、画像処理システム100は、背景モデルの各メッシュに投影される画像のサイズを最小にでき、投影処理に係る処理の負担を軽減できる。また、サーバ装置103が、撮像装置101から背景モデルのメッシュに投影される画像の部分のみを受信する場合、通信回線102の通信帯域を節約できる。また、例えば、領域決定部319は、撮像装置101それぞれにより撮影される画像内に全て収まっている領域のうち複数の領域を401で抽出したメッシュの部分に投影される画像が撮影される領域として特定してもよい。この場合、画像処理システム100は、仮想視点画像を生成する際に、特定された複数の領域に対応する複数の画像を平均化した画像を対応するメッシュに投影してもよい。
以下では、S405で選択された領域の情報を、テクスチャ領域とする。
In addition, the region determination unit 319 may specify, for example, among the regions converted in S403, regions that are all contained in the image captured by each of the imaging devices 101, and may perform the following processing. That is, the area determination unit 319 selects one from the specified areas based on the area of each area (the number of pixels occupied in the image), and projects the selected area onto the mesh portion extracted in S401. You may select as an area | region where an image is taken.
For example, the region determination unit 319 specifies, among the regions converted in S403, regions that are all contained in the image captured by each of the imaging devices 101. Then, the area determination unit 319 selects one having the largest area from the specified areas, and selects the selected area as an area where the image projected on the portion of the mesh extracted in S401 is captured. Good. By this processing, the image processing system 100 can select the imaging device that captures the portion of the mesh extracted in S401 with the largest resolution as the imaging device that captures the image projected onto the portion. Thus, the image processing system 100 can project a fine image by each mesh of the background model.
In addition, for example, the region determination unit 319 specifies, among the regions converted in S403, regions that are all contained in the image captured by each of the imaging devices 101. Then, the area determination unit 319 selects one having the smallest area from the specified areas, and selects the selected area as an area where the image projected on the mesh portion extracted in S401 is to be photographed. Good. By this processing, the image processing system 100 can minimize the size of the image projected on each mesh of the background model, and can reduce the processing load related to the projection processing. In addition, when the server apparatus 103 receives only a part of the image projected from the imaging apparatus 101 to the mesh of the background model, the communication band of the communication line 102 can be saved. Further, for example, the area determination unit 319 is an area in which an image projected on a portion of the mesh extracted at 401 is taken as an area captured from a plurality of areas among the areas all contained in the image captured by each of the imaging devices 101. It may be specified. In this case, when generating the virtual viewpoint image, the image processing system 100 may project an image obtained by averaging a plurality of images corresponding to a plurality of specified areas onto a corresponding mesh.
In the following, the information of the area selected in S405 is taken as a texture area.

S406において、領域決定部319は、背景モデル内の全てのメッシュについて、S402〜S405の処理が完了したか否かを判定する。領域決定部319は、背景モデル内の全てのメッシュについて、S402〜S405の処理が完了したと判定した場合、S407の処理に進み、背景モデル内にS402〜S405の処理が完了していないメッシュがあると判定した場合、S401の処理に進む。
S407において、背景テクスチャ決定部315は、背景モデル内の各メッシュについてS405で選択されたテクスチャ領域の情報(以下では、領域情報とする)を、レンダリング部317に送信する。
図4の処理により、背景モデルに投影される画像を生成する準備が整うこととなる。
In step S406, the region determination unit 319 determines whether the processing in steps S402 to S405 is complete for all meshes in the background model. If the region determination unit 319 determines that the processes of S402 to S405 have been completed for all meshes in the background model, the process proceeds to the process of S407, and meshes for which the processes of S402 to S405 have not been completed in the background model. If it is determined that there is, the process proceeds to the process of S401.
In step S407, the background texture determination unit 315 transmits, to the rendering unit 317, information (hereinafter referred to as region information) of the texture region selected in step S405 for each mesh in the background model.
The process of FIG. 4 is ready to generate an image to be projected onto the background model.

図8は、仮想視点画像の背景生成処理の一例を示すフローチャートである。
S801において、撮像装置101それぞれの撮影制御部211は、被写体を撮影する。
図9は、撮像装置101による撮影された状況等の一例を示す図である。画像901は、撮像装置101aにより撮影された画像である。画像901には、前景として人物902、902、903が写っている。
S802において、撮像装置101それぞれの生成部212は、S801で撮影された画像について、前景と背景とを分離し、前景画像を取り除いた背景画像を生成する。図9の例では、生成部212は、画像901から前景である人物902、902、903を分離し、背景画像905を生成する。生成部212は、例えば、時間方向の動きが閾値以上あるものを前景とする方法等の方法を用いて、前景と背景とを分離する。
S803において、撮像装置101それぞれの送信部213は、S802で生成された背景画像を、通信回線102を介して、サーバ装置103に送信する。
FIG. 8 is a flowchart illustrating an example of background generation processing of a virtual viewpoint image.
In step S801, the imaging control unit 211 of each of the imaging apparatuses 101 captures an object.
FIG. 9 is a diagram illustrating an example of a situation or the like captured by the imaging apparatus 101. An image 901 is an image captured by the imaging device 101a. In the image 901, persons 902, 902, and 903 are shown as the foreground.
In step S802, the generation unit 212 of each of the imaging devices 101 separates the foreground and the background of the image captured in step S801, and generates a background image from which the foreground image has been removed. In the example of FIG. 9, the generation unit 212 separates persons 902, 902, and 903 that are the foreground from the image 901, and generates a background image 905. The generation unit 212 separates the foreground and the background by using, for example, a method such as a method in which the movement in the time direction has a threshold value or more as the foreground.
In step S <b> 803, the transmission unit 213 of each of the imaging apparatuses 101 transmits the background image generated in step S <b> 802 to the server apparatus 103 via the communication line 102.

S804において、背景テクスチャ決定部315は、S803で撮像装置101それぞれにより送信された背景画像に基づいて、仮想視点画像の背景モデルの各メッシュに投影される画像を決定する。本実施形態では、背景テクスチャ決定部315は、S803で送信された背景画像それぞれを、背景モデルの各メッシュに投影される画像を含む画像として決定して、レンダリング部317に送信する。
S805において、レンダリング部317は、S804で送信された背景画像から、図4の処理で生成された領域情報が示す領域の画像を抽出し、抽出した画像を、対応する背景モデルの各メッシュに投影する。レンダリング部317は、例えば、領域情報に基づいて、背景画像の中から、背景モデルの各メッシュに投影される領域を抽出する。そして、レンダリング部317は、抽出した領域の画像を、対応する背景モデルのメッシュに投影する。これにより、背景モデルの各メッシュには、対応する画像が投影されることとなる。
そして、レンダリング部317は、仮想カメラ制御部316から送信された仮想カメラのカメラパラメータに基づいて、背景モデルを仮想カメラの視点から見た画像を生成することで、仮想視点画像を生成する。
In step S804, the background texture determination unit 315 determines an image to be projected on each mesh of the background model of the virtual viewpoint image based on the background image transmitted by each of the imaging apparatuses 101 in step S803. In the present embodiment, the background texture determination unit 315 determines each of the background images transmitted in S803 as an image including an image to be projected on each mesh of the background model, and transmits the image to the rendering unit 317.
In step S805, the rendering unit 317 extracts an image of the area indicated by the area information generated in the process of FIG. 4 from the background image transmitted in step S804, and projects the extracted image on each mesh of the corresponding background model. Do. The rendering unit 317 extracts an area to be projected on each mesh of the background model from the background image, for example, based on the area information. Then, the rendering unit 317 projects the image of the extracted area onto the mesh of the corresponding background model. Thereby, the corresponding image is projected on each mesh of the background model.
Then, the rendering unit 317 generates a virtual viewpoint image by generating an image in which the background model is viewed from the viewpoint of the virtual camera based on the camera parameters of the virtual camera transmitted from the virtual camera control unit 316.

以上、本実施形態では、画像処理システム100は、図4の処理で、撮像装置101それぞれにより撮影される画像内において、予め背景モデルの各メッシュに投影される画像が撮影される領域を決定した。そして、画像処理システム100は、決定した領域で撮影された画像を背景モデルの各メッシュに投影することで、仮想視点画像を生成することとした。このように、画像処理システム100は、背景モデルの各メッシュに、予め決定した領域で撮影された画像を投影することとした。これにより、画像処理システム100は、撮像装置101それぞれにより撮影される複数の画像を射影変換後に合成する処理が低減される。また、画像処理システム100は、撮像装置101それぞれにより撮影される複数の画像を射影変換後に合成し、合成した画像を、背景モデルに投影する場合に比べて、主記憶装置302等のメモリやCPU301の使用率等の処理の負担を軽減できる。
また、画像処理システム100は、予め背景モデルの各メッシュに投影される画像が撮影される領域を決定し、時間経過にしたがって刻々と変化する撮像装置101により撮影される画像のうち、その領域の画像を、背景モデルの各メッシュに投影することとした。これにより、画像処理システム100は、背景モデルの各メッシュへの投影対象の画像である撮像装置101により撮影される画像が時間経過にしたがって刻々と変化する場合でも、主記憶装置302等のメモリやCPU301の使用率等の処理の負担を軽減できることとなる。
As described above, in the present embodiment, the image processing system 100 determines in advance the regions in which the images to be projected on the meshes of the background model are captured in the images captured by the respective imaging devices 101 in the processing of FIG. . Then, the image processing system 100 generates a virtual viewpoint image by projecting an image captured in the determined region onto each mesh of the background model. Thus, the image processing system 100 projects an image captured in a predetermined area on each mesh of the background model. As a result, the image processing system 100 reduces the process of combining a plurality of images captured by each of the imaging devices 101 after projective transformation. In addition, the image processing system 100 combines a plurality of images captured by each of the imaging devices 101 after projective transformation, and combines the images into a memory such as the main storage device 302 or the CPU 301 as compared to the case where the combined image is projected onto a background model. The burden of processing such as the usage rate of
In addition, the image processing system 100 determines in advance an area in which an image to be projected on each mesh of the background model is captured, and in the image captured by the imaging device 101 that changes with time, the area The image was projected onto each mesh of the background model. As a result, the image processing system 100 can maintain the memory of the main storage device 302 or the like even when the image captured by the imaging device 101, which is the image of the projection target onto each mesh of the background model, changes over time. The burden of processing such as the usage rate of the CPU 301 can be reduced.

<実施形態2>
本実施形態では、背景テクスチャ決定部315が背景画像から、背景モデルのメッシュに投影される画像を切り出して、レンダリング部317に送信する場合の画像処理システム100の処理について、説明する。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。また、撮像装置101それぞれのハードウェア構成、機能構成は、実施形態1と同様である。また、サーバ装置103のハードウェア構成、機能構成は、実施形態1と同様である。
Second Embodiment
In the present embodiment, processing of the image processing system 100 in the case where the background texture determination unit 315 cuts out an image to be projected on the mesh of the background model from the background image and transmits the image to the rendering unit 317 will be described.
The system configuration of the image processing system 100 of the present embodiment is the same as that of the first embodiment. Further, the hardware configuration and the functional configuration of each of the imaging devices 101 are the same as in the first embodiment. Furthermore, the hardware configuration and the functional configuration of the server apparatus 103 are the same as in the first embodiment.

図4、8を用いて、本実施形態の画像処理システム100の処理のうち、実施形態1と異なる点について説明する。
本実施形態では、S804で、背景テクスチャ決定部315は、S803で撮像装置101それぞれにより送信された背景画像のうち、図4の処理で決定された領域を示す領域情報が示す領域の画像を切り出す。そして、背景テクスチャ決定部315は、切り出した画像を、仮想視点画像の背景モデルの各メッシュに投影される画像として決定する。背景テクスチャ決定部315は、決定した画像を、レンダリング部317に送信する。
Among the processes of the image processing system 100 according to the present embodiment, differences from the first embodiment will be described with reference to FIGS. 4 and 8.
In the present embodiment, in S804, the background texture determination unit 315 cuts out the image of the area indicated by the area information indicating the area determined in the process of FIG. 4 among the background images transmitted by the imaging device 101 in S803. . Then, the background texture determination unit 315 determines the extracted image as an image to be projected on each mesh of the background model of the virtual viewpoint image. The background texture determination unit 315 transmits the determined image to the rendering unit 317.

図10は、背景テクスチャ決定部315による画像の切り出しの一例を説明する図である。領域1000は、S405までの処理において求められた、撮像装置101aにより撮影された画像内における(撮像装置101aのカメラ座標系における)メッシュ502の領域である領域702を含む矩形領域である。撮像装置101aは、メッシュ502に投影される画像を撮影する撮像装置として判断部318により判断された撮像装置であるとする。背景テクスチャ決定部315は、領域701から領域702が内接する矩形の領域を特定し、特定した領域1001を、切り出し対象の領域として決定する。図10の例では、背景テクスチャ決定部315は、S804で、撮像装置101aにより撮影された画像から生成された背景画像内における領域1001の範囲を切り出し、切り出した画像1002を取得する。
レンダリング部317は、S815で、S804で送信された画像に含まれるメッシュに投影される画像が撮影された領域の画像を、対応する背景モデルの各メッシュに投影する。そして、レンダリング部317は、仮想カメラ制御部316から指定された仮想カメラのカメラパラメータに基づいてレンダリングを行い、仮想視点画像を生成する。
FIG. 10 is a diagram for explaining an example of clipping of an image by the background texture determination unit 315. An area 1000 is a rectangular area including an area 702 which is an area of the mesh 502 (in the camera coordinate system of the imaging device 101a) in the image captured by the imaging device 101a, which is obtained in the processing up to S405. The imaging apparatus 101 a is assumed to be an imaging apparatus determined by the determination unit 318 as an imaging apparatus for capturing an image projected on the mesh 502. The background texture determination unit 315 identifies a rectangular area inscribed from the area 701 to the area 702, and determines the identified area 1001 as an area to be extracted. In the example of FIG. 10, the background texture determination unit 315 cuts out the range of the area 1001 in the background image generated from the image captured by the imaging device 101a in S804, and acquires the cut out image 1002.
In step S815, the rendering unit 317 projects the image of the region where the image projected onto the mesh included in the image transmitted in step S804 is captured onto each mesh of the corresponding background model. Then, the rendering unit 317 performs rendering based on the camera parameters of the virtual camera specified by the virtual camera control unit 316, and generates a virtual viewpoint image.

以上、本実施形態では、背景テクスチャ決定部315は、背景画像から、メッシュに投影される画像を切り出し、切り出した画像をレンダリング部317に送信することとした。これにより、画像処理システム100は、背景画像全体を送信する場合に比べて、背景テクスチャ決定部315からレンダリング部317へ送信されるデータのサイズを低減できる。   As described above, in the present embodiment, the background texture determination unit 315 cuts out the image to be projected on the mesh from the background image, and transmits the cut out image to the rendering unit 317. Thereby, the image processing system 100 can reduce the size of data to be transmitted from the background texture determination unit 315 to the rendering unit 317 as compared to the case where the entire background image is transmitted.

<実施形態3>
本実施形態では、撮像装置101それぞれが、撮像装置101それぞれにより撮影された画像の背景画像から背景モデルの各メッシュに対応する領域の画像を切り出して、サーバ装置103に送信する場合の画像処理システム100の処理を説明する。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。また、撮像装置101それぞれのハードウェア構成は、実施形態1と同様である。また、サーバ装置103のハードウェア構成は、実施形態1と同様である。
Embodiment 3
In the present embodiment, an image processing system in which each of the imaging devices 101 cuts out an image of a region corresponding to each mesh of the background model from the background image of the image captured by each of the imaging devices 101 and transmits it to the server device 103 The process of 100 will be described.
The system configuration of the image processing system 100 of the present embodiment is the same as that of the first embodiment. Further, the hardware configuration of each of the imaging devices 101 is the same as that of the first embodiment. The hardware configuration of the server apparatus 103 is the same as that of the first embodiment.

図11は、本実施形態の撮像装置101それぞれの機能構成の一例を示す図である。
本実施形態の撮像装置101は、切り出し領域受信部1101、切り出し部1102を含む点で、図2(b)と異なる。
切り出し領域受信部1101は、サーバ装置103から、撮像装置101により撮影される画像内の背景モデルの各メッシュに対応する領域の情報を受信する。本実施形態では、S407で、背景テクスチャ決定部315は、領域情報を、その領域情報が示す領域を撮影する撮像装置101に送信する。切り出し領域受信部1101は、この送信された領域情報を、受信する。
切り出し部1102は、切り出し領域受信部1101により受信された領域情報に基づいて、生成部212により生成された背景画像から画像を切り出して、切り出した画像を、送信部213を介して、サーバ装置103に送信する。
FIG. 11 is a diagram showing an example of the functional configuration of each of the imaging devices 101 of the present embodiment.
The imaging apparatus 101 according to the present embodiment differs from that in FIG. 2B in that it includes a cutout area reception unit 1101 and a cutout unit 1102.
The cutout area reception unit 1101 receives, from the server apparatus 103, information on areas corresponding to the meshes of the background model in the image captured by the imaging apparatus 101. In the present embodiment, in step S407, the background texture determination unit 315 transmits the area information to the imaging apparatus 101 that captures an area indicated by the area information. The cutout area receiving unit 1101 receives the transmitted area information.
The cutout unit 1102 cuts out an image from the background image generated by the generation unit 212 based on the area information received by the cutout area reception unit 1101, and transmits the cutout image to the server apparatus 103 via the transmission unit 213. Send to

図12は、本実施形態のサーバ装置103の機能構成の一例を示す図である。
本実施形態のサーバ装置103は、画像取得部311、キャリブレーション部312、背景モデル管理部313、座標変換部314、背景テクスチャ決定部315、仮想カメラ制御部316、レンダリング部317、判断部318、領域決定部319を含む。また、本実施形態のサーバ装置103は、切り出し領域送信部1201を含む。
キャリブレーション部312、背景モデル管理部313、座標変換部314、仮想カメラ制御部316、判断部318、領域決定部319は、図3(b)と同様である。
背景テクスチャ決定部315は、実施形態1と同様の機能に加え、領域情報を、切り出し領域送信部1201を介して撮像装置101それぞれに送信する機能を有する。
切り出し領域送信部1201は、背景テクスチャ決定部315から受信した領域情報を、通信回線102を介して、撮像装置101それぞれに送信する。
画像取得部311は、撮像装置101それぞれから受信した背景画像から切り出された画像を、通信回線102を介して受信し、レンダリング部317に送信する。
レンダリング部317は、画像取得部311により受信された切り出された画像を、背景テクスチャ決定部315から受信した領域情報を用いて、背景モデルの各メッシュに投影し、仮想視点画像を生成する。
FIG. 12 is a diagram showing an example of a functional configuration of the server apparatus 103 according to the present embodiment.
The server apparatus 103 according to the present embodiment includes an image acquisition unit 311, a calibration unit 312, a background model management unit 313, a coordinate conversion unit 314, a background texture determination unit 315, a virtual camera control unit 316, a rendering unit 317, a determination unit 318, A region determination unit 319 is included. Further, the server device 103 according to the present embodiment includes a cutout area transmission unit 1201.
The calibration unit 312, the background model management unit 313, the coordinate conversion unit 314, the virtual camera control unit 316, the determination unit 318, and the area determination unit 319 are the same as those in FIG. 3B.
The background texture determination unit 315 has a function of transmitting area information to each of the imaging devices 101 via the cutout area transmission unit 1201, in addition to the same function as that of the first embodiment.
The cutout area transmission unit 1201 transmits the area information received from the background texture determination unit 315 to each of the imaging devices 101 via the communication line 102.
The image acquisition unit 311 receives an image cut out from the background image received from each of the imaging devices 101 via the communication line 102, and transmits the image to the rendering unit 317.
The rendering unit 317 projects the extracted image received by the image acquisition unit 311 on each mesh of the background model using the area information received from the background texture determination unit 315 to generate a virtual viewpoint image.

図13は、本実施形態の画像処理システム100が仮想視点画像の生成前に実行する事前処理の一例を示すフローチャートである。
図13中のS401〜405の処理は、図4と同様である。図13の処理のうち、図4と異なる点について説明する。
S1301において、切り出し領域送信部1201は、背景テクスチャ決定部315により生成された領域情報を受信し、受信した領域情報を、通信回線102を介して、対応する撮像装置101に送信する。図7の例のように、S405で領域決定部319により領域702が選択された場合、背景テクスチャ決定部315は、図10の領域1001を、切り出し対象の領域として決定し、決定した領域を示す領域情報を、切り出し領域送信部1201に送信する。そして、切り出し領域送信部1201は、領域1001を示す領域情報を、領域1001を撮影する撮像装置101aに送信することとなる。
FIG. 13 is a flowchart showing an example of pre-processing performed by the image processing system 100 according to the present embodiment before generating a virtual viewpoint image.
The processing of S401 to S405 in FIG. 13 is the same as that of FIG. Among the processing of FIG. 13, points different from FIG. 4 will be described.
In step S1301, the cutout area transmission unit 1201 receives the area information generated by the background texture determination unit 315, and transmits the received area information to the corresponding imaging apparatus 101 via the communication line 102. As in the example of FIG. 7, when the area 702 is selected by the area determination unit 319 in S405, the background texture determination unit 315 determines the area 1001 of FIG. 10 as the area to be extracted and indicates the determined area. The area information is transmitted to the cutout area transmission unit 1201. Then, the cutout area transmission unit 1201 transmits the area information indicating the area 1001 to the imaging device 101a that captures the area 1001.

図14は、本実施形態の画像処理システム100が実行する仮想視点画像の背景生成処理の一例を示すフローチャートである。図14中のS801、S802の処理は、図8と同様である。図14の処理のうち、図8と異なる点について説明する。
S1401において、切り出し部1102は、S802で生成された背景画像から、切り出し領域受信部1101により受信された領域情報が示す領域を切り出す。領域情報が、領域1001を示す場合、切り出し部1102は、背景画像から領域1001の範囲を切り出し、画像1002を生成する。
S1402において、送信部213は、S1401で背景画像切り出し部1102により切り出された画像を、サーバ装置103に送信する。
S1403において、レンダリング部317は、S1402で送信された画像を、対応する背景モデルの各メッシュに投影する。そして、レンダリング部317は、仮想カメラ制御部316から指定された仮想カメラのカメラパラメータに基づいてレンダリングを行い、仮想視点画像を生成する。
FIG. 14 is a flowchart illustrating an example of background generation processing of a virtual viewpoint image performed by the image processing system 100 according to the present embodiment. The processes of S801 and S802 in FIG. 14 are the same as those in FIG. Among the processing of FIG. 14, points different from FIG. 8 will be described.
In S1401, the cutout unit 1102 cuts out the area indicated by the area information received by the cutout area receiving unit 1101 from the background image generated in S802. When the area information indicates the area 1001, the cutout unit 1102 cuts out the range of the area 1001 from the background image, and generates the image 1002.
In S1402, the transmission unit 213 transmits the image cut out by the background image cutting unit 1102 in S1401 to the server apparatus 103.
In S1403, the rendering unit 317 projects the image transmitted in S1402 on the meshes of the corresponding background model. Then, the rendering unit 317 performs rendering based on the camera parameters of the virtual camera specified by the virtual camera control unit 316, and generates a virtual viewpoint image.

以上、本実施形態では、実施形態2においてサーバ装置103が行っていた背景画像から背景モデルのメッシュに投影される画像を切り出す処理を、撮像装置101それぞれが実行することとした。これにより、画像処理システム100は、サーバ装置103の処理の負担を軽減させることができる。また、撮像装置101は、背景画像全体でなく、切り出した画像をサーバ装置103に送信することとなる。そのため、画像処理システム100は、通信回線102の通信帯域を節約することができる。   As described above, in the present embodiment, each of the imaging devices 101 executes the processing of cutting out the image projected on the mesh of the background model from the background image performed by the server device 103 in the second embodiment. Thus, the image processing system 100 can reduce the processing load of the server apparatus 103. Further, the imaging apparatus 101 transmits not the entire background image but the clipped image to the server apparatus 103. Therefore, the image processing system 100 can save the communication bandwidth of the communication line 102.

<実施形態4>
本実施形態では、画像処理システム100がS405で撮像装置101それぞれのカメラパラメータに基づいて、領域を決定する処理について、説明する。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。また、撮像装置101それぞれのハードウェア構成、機能構成は、実施形態1と同様である。また、サーバ装置103のハードウェア構成、機能構成は、実施形態1と同様である。
本実施形態の処理は、画像処理システム100が図4のS401〜S406の処理の代わりに図15の処理を行う点で、実施形態1と異なる。実施形態1と異なる点について説明する。
Fourth Embodiment
In the present embodiment, a process in which the image processing system 100 determines an area based on camera parameters of each of the imaging apparatuses 101 in S405 will be described.
The system configuration of the image processing system 100 of the present embodiment is the same as that of the first embodiment. Further, the hardware configuration and the functional configuration of each of the imaging devices 101 are the same as in the first embodiment. Furthermore, the hardware configuration and the functional configuration of the server apparatus 103 are the same as in the first embodiment.
The process of the present embodiment is different from that of the first embodiment in that the image processing system 100 performs the process of FIG. 15 instead of the processes of S401 to S406 of FIG. Points different from the first embodiment will be described.

図15は、本実施形態の領域決定部319による領域決定処理の一例を示すフローチャートである。
S1501において、領域決定部319は、撮像装置101から、背景モデルのメッシュに投影される画像が撮影される領域の決定の基準となる撮像装置を決定する。以下では、背景モデルのメッシュに投影される画像が撮影される領域の決定の基準となる撮像装置を基準撮像装置とする。基準撮像装置は、基準撮影部の一例である。
図16は、撮像装置の撮影範囲の一例を説明する図である。領域601は、図6と同様に、撮像装置101aの背景モデルに対する撮影範囲を示す。領域1601は、撮像装置101の中で最も広角な視野を有する撮像装置101eの背景モデルに対する撮影範囲を示す。本実施形態では、領域決定部319は、S1501で、撮像装置101中で最も広角な視野を有する撮像装置101eを、基準撮像装置として決定する。しかし、領域決定部319は、S1501で、撮像装置101中で最も多くの背景モデルのメッシュに対応する領域を撮影可能な撮像装置を、基準撮像装置として決定することとしてもよい。また、領域決定部319は、S1501で、撮像装置101中で予め定められた撮像装置を、基準撮像装置として決定してもよい。また、領域決定部319は、S1501で、サーバ装置103の操作部を介したユーザの操作に基づいて、指定された撮像装置を、基準撮像装置として決定してもよい。
FIG. 15 is a flowchart showing an example of the area determining process by the area determining unit 319 according to the present embodiment.
In step S <b> 1501, the region determination unit 319 determines, from the imaging device 101, an imaging device serving as a reference of determination of a region where an image projected onto the mesh of the background model is captured. Hereinafter, an imaging device serving as a reference for determining a region in which an image projected onto a mesh of a background model is captured will be referred to as a reference imaging device. The reference imaging device is an example of a reference imaging unit.
FIG. 16 is a diagram for explaining an example of the imaging range of the imaging device. An area 601 indicates the imaging range for the background model of the imaging device 101a, as in FIG. An area 1601 indicates the imaging range for the background model of the imaging device 101 e having the widest field of view in the imaging device 101. In the present embodiment, the region determination unit 319 determines the imaging device 101e having the widest field of view in the imaging device 101 as a reference imaging device in S1501. However, the area determination unit 319 may determine an imaging apparatus capable of capturing an area corresponding to the mesh of the largest number of background models in the imaging apparatus 101 as the reference imaging apparatus in S1501. In addition, the region determination unit 319 may determine an imaging device predetermined in the imaging device 101 as the reference imaging device in S1501. In addition, the region determination unit 319 may determine the designated imaging device as the reference imaging device based on the user's operation via the operation unit of the server device 103 in S1501.

S1502において、領域決定部319は、背景モデルのメッシュのうち、基準撮像装置のカメラ座標系に変換されたメッシュ全体が、基準撮像装置により撮影される画像に含まれることとなるメッシュを特定する。そして、領域決定部319は、S1501で決定した基準撮像装置により撮影される画像中の特定したメッシュそれぞれに対応する領域(メッシュがカメラ座標系に変換された領域)を、そのメッシュそれぞれに投影される画像が撮影される領域として決定する。
図17は、基準撮像装置により投影される画像が撮影されるメッシュの一例を説明する図である。斜線で示された領域1701は、基準撮像装置により投影される画像が撮影されるメッシュの領域である。その他の領域のメッシュは、投影される画像が撮影される領域が決定されていないメッシュである。
S1503において、領域決定部319は、背景モデル内の全てのメッシュについて、投影される画像が撮影される領域が決定されたか否かを判定する。領域決定部319は、背景モデル内の全てのメッシュについて、投影される画像が撮影される領域が決定されたと判定した場合、図15の処理を終了し、S407の処理に進む。また、領域決定部319は、背景モデル内のメッシュの中に、投影される画像が撮影される領域が決定されていないメッシュがあると判定した場合、S1504の処理に進む。
基準撮像装置が撮像装置101eであり、S1502の処理の後、初めてS1503の処理を行う場合、領域決定部319は、図17に示すようにまだ投影される画像が撮影される領域が決定されていないメッシュがあるので、S1503の処理に進むこととなる。
In step S1502, the region determination unit 319 specifies, among the meshes of the background model, meshes that are to be included in the image captured by the reference imaging device as the entire mesh converted into the camera coordinate system of the reference imaging device. Then, the area determination unit 319 projects the areas corresponding to the identified meshes (areas in which the meshes are converted to the camera coordinate system) in the image captured by the reference imaging device determined in S1501 onto the meshes. Is determined as the area in which the image is captured.
FIG. 17 is a view for explaining an example of a mesh on which an image projected by the reference imaging device is captured. A hatched area 1701 is a mesh area on which an image projected by the reference imaging device is captured. The meshes in the other areas are meshes in which the area in which the projected image is to be captured has not been determined.
In step S <b> 1503, the region determination unit 319 determines, for all meshes in the background model, whether a region in which an image to be projected is captured has been determined. If the area determination unit 319 determines that the area in which the projected image is captured is determined for all meshes in the background model, the process of FIG. 15 ends, and the process proceeds to step S407. If the area determination unit 319 determines that there is a mesh in which the area in which the projected image is to be captured is not determined in the meshes in the background model, the process proceeds to the process of S1504.
When the reference imaging apparatus is the imaging apparatus 101e and the process of S1503 is performed for the first time after the process of S1502, the area determining unit 319 determines the area where the image to be projected is still captured as shown in FIG. Since there is no mesh, the process proceeds to the process of S1503.

S1504において、領域決定部319は、基準撮像装置と撮像装置101中の他の撮像装置とのカメラパラメータに基づいて、背景モデルのメッシュに投影される画像が撮影される領域を撮影する撮像装置の候補を選択する。以下では、直近のS1504の処理で選択された撮像装置を、選択撮像装置とする。
図18は、基準撮像装置と他の撮像装置との位置関係の一例を説明する図である。領域決定部319は、基準撮像装置である撮像装置101eの世界座標系における座標(カメラパラメータの1つ)と、他の撮像装置101それぞれの世界座標系における座標と、の距離を取得する。図18の例では、基準撮像装置である撮像装置101eと撮像装置101fとは、距離1801だけ離れている。また、基準撮像装置である撮像装置101eと撮像装置101gとは、距離1802だけ離れている。また、基準撮像装置である撮像装置101eと撮像装置101hとは、距離1803だけ離れている。
図19は、基準撮像装置を除く撮像装置101それぞれを、基準撮像装置との距離が小さい順に並べた表の一例である。図19の例では、基準撮像装置に最も近いのは、撮像装置101fとなっている。そのため、領域決定部319は、図15の処理を開始して、初めてS1504の処理を行う際に、カメラパラメータである世界座標系における座標について、基準撮像装置と最も近い値を有する撮像装置101fを選択する。また、領域決定部319は、以降のS1504の処理を行う際に、これまでS1504で選択していない撮像装置101の中から、カメラパラメータである世界座標系における座標について、基準撮像装置と最も近い値を有する撮像装置を選択することとなる。
In step S1504, the area determination unit 319 captures an area in which an image to be projected on the mesh of the background model is captured based on camera parameters of the reference imaging apparatus and another imaging apparatus in the imaging apparatus 101. Select a candidate. In the following, the imaging device selected in the process of the most recent S1504 is referred to as a selected imaging device.
FIG. 18 is a diagram for explaining an example of the positional relationship between a reference imaging device and another imaging device. The area determination unit 319 acquires the distance between the coordinates (one of the camera parameters) in the world coordinate system of the imaging device 101e which is the reference imaging device and the coordinates in the world coordinate system of each of the other imaging devices 101. In the example of FIG. 18, the imaging device 101 e which is a reference imaging device and the imaging device 101 f are separated by a distance 1801. Further, the imaging device 101e, which is a reference imaging device, and the imaging device 101g are separated by a distance 1802. Further, the imaging device 101e, which is a reference imaging device, and the imaging device 101h are separated by a distance 1803.
FIG. 19 is an example of a table in which each of the imaging devices 101 excluding the reference imaging device is arranged in order of increasing distance from the reference imaging device. In the example of FIG. 19, the image pickup apparatus 101 f is closest to the reference image pickup apparatus. Therefore, when the process of S1504 is performed for the first time after the process of FIG. 15 is started, the area determination unit 319 starts an imaging apparatus 101f having a value closest to the reference imaging apparatus with respect to the coordinates in the world coordinate system that is camera parameters select. Also, when performing the processing of S1504 that follows, the region determination unit 319 is the closest to the reference imaging device with regard to the coordinates in the world coordinate system, which are camera parameters, from among the imaging devices 101 that have not been selected in S1504. An imaging device having a value will be selected.

S1505において、領域決定部319は、背景モデルのメッシュのうち、まだ投影される画像が撮影される領域が決定されていないメッシュのうち、選択撮像装置によりメッシュに対応する領域全体を撮影可能なメッシュを特定する。そして、領域決定部319は、特定したメッシュの領域が選択撮像装置のカメラ座標系に変換された領域を、そのメッシュに投影される画像が撮影される領域として決定する。そして、領域決定部319は、S1503の処理に進む。背景テクスチャ決定部315は、図15の処理により、領域決定部319により決定された領域の情報を、領域情報として、レンダリング部317に送信することとなる。
図20は、投影される画像が選択撮像装置により撮影されるメッシュの一例を説明する図である。図20の例では、選択撮像装置が撮像装置101fである。領域2001は、撮像装置101fの撮影範囲を示す。領域2001に含まれるメッシュのうち、領域1701に含まれないメッシュが、投影される画像が撮像装置fにより撮影されるメッシュとなる。図20の例では、領域2002〜2004それぞれに含まれるメッシュが、投影される画像が撮像装置fにより撮影されるメッシュとなる。
In step S1505, the region determination unit 319 is a mesh that can capture the entire region corresponding to the mesh by the selective imaging device among the meshes of the background model in which the region on which the projected image is not captured is not determined. Identify Then, the area determination unit 319 determines an area in which the specified mesh area is converted to the camera coordinate system of the selected imaging device as an area in which an image projected on the mesh is captured. Then, the region determination unit 319 proceeds to the process of S1503. The background texture determination unit 315 transmits the information on the area determined by the area determination unit 319 as the area information to the rendering unit 317 by the process of FIG.
FIG. 20 is a view for explaining an example of a mesh in which an image to be projected is photographed by the selective imaging device. In the example of FIG. 20, the selected imaging device is the imaging device 101f. An area 2001 indicates the imaging range of the imaging device 101 f. Among meshes included in the area 2001, meshes not included in the area 1701 are meshes on which an image to be projected is captured by the imaging device f. In the example of FIG. 20, the meshes included in each of the areas 2002 to 2004 are meshes on which the projected image is captured by the imaging device f.

以上、本実施形態では、画像処理システム100は、基準撮像装置を決定し、背景モデルのメッシュのうち、対応する領域全体が基準撮像装置により撮影されるメッシュを特定した。そして、画像処理システム100は、特定したメッシュについて、基準撮像装置により撮影される画像内のそれらのメッシュに対応する領域を、それらのメッシュに投影される画像が撮影される領域として決定した。
そして、画像処理システム100は、撮像装置101から1つの撮像装置を、カメラパラメータが基準撮像装置に近いものから順に選択撮像装置として選択していき、以下の処理を行った。即ち、画像処理システム100は、選択撮像装置により撮影される画像内から、背景モデルのメッシュに投影される画像が撮影される領域を決定した。より具体的には、画像処理システム100は、背景モデルのメッシュのうち、投影される画像が撮影される領域が未定であり、対応する領域全体が選択撮像装置により撮影されるメッシュを特定した。そして、画像処理システム100は、特定したメッシュについて、選択撮像装置により撮影される画像内のそれらのメッシュに対応する領域を、それらのメッシュに投影される画像が撮影される領域として決定した。画像処理システム100は、以上の処理を、背景モデル内のメッシュ全てについて、投影される画像が撮影される領域が決定されるまで行った。
これにより、画像処理システム100は、基準撮像装置及び基準撮像装置とカメラパラメータがより近しい撮像装置により、背景モデルのメッシュに投影される画像が撮影されることとなる。そのため、画像処理システム100は、最終的に各メッシュに、より撮影条件の近しい画像が投影されたより自然な背景モデルを生成できる。
As described above, in the present embodiment, the image processing system 100 determines the reference imaging device, and specifies the mesh in which the entire corresponding region is photographed by the reference imaging device among the meshes of the background model. Then, the image processing system 100 determines, for the identified meshes, the regions corresponding to those meshes in the image captured by the reference imaging device as the regions in which the images projected onto those meshes are captured.
Then, the image processing system 100 selects one imaging device from the imaging device 101 as the selected imaging device in order from the camera parameter closest to the reference imaging device as the selected imaging device and performs the following processing. That is, the image processing system 100 determines an area in which an image to be projected on the mesh of the background model is captured from among the images captured by the selective imaging device. More specifically, the image processing system 100 specifies, among meshes of the background model, an area in which a projected image is photographed is not determined, and a mesh in which the entire corresponding area is photographed by the selective imaging device is specified. Then, the image processing system 100 determines, for the identified meshes, the regions corresponding to those meshes in the image captured by the selective imaging device as the regions in which the images projected onto those meshes are captured. The image processing system 100 has performed the above-described processing for all meshes in the background model until the area where the projected image is captured is determined.
As a result, in the image processing system 100, an image projected on the mesh of the background model is captured by the reference imaging device and the imaging device whose camera parameter is closer to that of the reference imaging device. Therefore, the image processing system 100 can generate a more natural background model in which an image closer to imaging conditions is finally projected to each mesh.

また、画像処理システム100は、S1502、S1505で1つの撮像装置が撮影できる全てのメッシュについて、その撮像装置により撮影される画像内から、その全てのメッシュに投影される画像が撮影される領域を決定した。これにより、隣接し合ったより多くのメッシュに、同一の撮像装置により撮影された画像に含まれる画像が投影されることとなる。これにより、画像処理システム100は、メッシュ同士がより自然に連続するような、より自然な背景モデルを生成できる。
本実施形態では、画像処理システム100は、基準撮像装置とその他の撮像装置101との世界座標系における座標に基づいて、背景モデルのメッシュに投影される画像が撮影される領域を決定した。しかし、画像処理システム100は、基準撮像装置とその他の撮像装置101との世界座標系における座標以外のカメラパラメータに基づいて、背景モデルのメッシュに投影される画像が撮影される領域を決定してもよい。例えば、領域決定部319は、S1504で、カメラパラメータである露光値が、より基準撮像装置に近いものから順に選択撮像装置を選択してもよい。また、領域決定部319は、S1504で、カメラパラメータである撮影方向が、より基準撮像装置に近いものから順に選択撮像装置を選択してもよい。
In addition, for all meshes that can be photographed by one imaging device in S1502 and S1505, the image processing system 100 selects, from among the images photographed by the imaging device, regions where the images projected on all the meshes are photographed. Were determined. As a result, an image included in an image captured by the same imaging device is projected onto more adjacent meshes. Thereby, the image processing system 100 can generate a more natural background model in which meshes are more naturally continuous.
In the present embodiment, the image processing system 100 determines the area where the image projected on the mesh of the background model is captured based on the coordinates in the world coordinate system of the reference imaging device and the other imaging devices 101. However, the image processing system 100 determines the area where the image projected on the mesh of the background model is captured based on camera parameters other than the coordinates in the world coordinate system of the reference imaging device and the other imaging devices 101. It is also good. For example, the region determination unit 319 may select the selected imaging device in order from the one closer to the reference imaging device as the exposure value which is the camera parameter in S1504. In addition, in S1504, the region determination unit 319 may select the selected imaging device in order from the one closer to the reference imaging device as the imaging direction which is the camera parameter.

<実施形態5>
本実施形態では、画像処理システム100が、仮想カメラと撮像装置101それぞれとのカメラパラメータに基づいて、背景モデルの各メッシュについて、投影される画像が撮影される領域を決定する処理について述べる。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。また、撮像装置101それぞれのハードウェア構成は、実施形態1と同様である。また、サーバ装置103のハードウェア構成は、実施形態1と同様である。
本実施形態のサーバ装置103の機能構成は、図3の通りである。本実施形態の画像取得部311、キャリブレーション部312、背景モデル管理部313、レンダリング部317は、実施形態1と同様である。
Fifth Embodiment
In the present embodiment, a process will be described in which the image processing system 100 determines, for each mesh of the background model, an area in which an image to be projected is captured, based on camera parameters of each of the virtual camera and the imaging device 101.
The system configuration of the image processing system 100 of the present embodiment is the same as that of the first embodiment. Further, the hardware configuration of each of the imaging devices 101 is the same as that of the first embodiment. The hardware configuration of the server apparatus 103 is the same as that of the first embodiment.
The functional configuration of the server apparatus 103 according to the present embodiment is as shown in FIG. The image acquisition unit 311, the calibration unit 312, the background model management unit 313, and the rendering unit 317 according to the present embodiment are the same as in the first embodiment.

本実施形態の仮想カメラ制御部316は、実施形態1で説明した機能に加えて、仮想カメラのカメラパラメータを、背景テクスチャ決定部315に送信する機能を有する。
キャリブレーション部312は、実施形態1で説明した機能に加えて、背景テクスチャ決定部315に対して、撮像装置101それぞれのカメラパラメータを送信する機能を有する。
背景テクスチャ決定部315は、背景モデル管理部313から取得した背景モデルの各メッシュに対して、キャリブレーション部312から取得したカメラパラメータを使い、画像取得部311から取得した画像上の領域(カメラ座標上の領域)に変換する。そして、背景テクスチャ決定部315は、変換した領域の中から、対応するメッシュに投影さる画像が撮影される領域を決定する。この際、背景テクスチャ決定部315は、最も仮想視点に適切な領域を決定する機能を有する。
In addition to the functions described in the first embodiment, the virtual camera control unit 316 according to the present embodiment has a function of transmitting camera parameters of the virtual camera to the background texture determination unit 315.
The calibration unit 312 has a function of transmitting camera parameters of each of the imaging devices 101 to the background texture determination unit 315, in addition to the functions described in the first embodiment.
The background texture determination unit 315 uses the camera parameters acquired from the calibration unit 312 for each mesh of the background model acquired from the background model management unit 313 to obtain the area on the image acquired from the image acquisition unit 311 (camera coordinates Convert to the upper area). Then, the background texture determination unit 315 determines an area in which an image projected on the corresponding mesh is to be captured from among the converted areas. At this time, the background texture determination unit 315 has a function of determining a region most suitable for the virtual viewpoint.

図21は、本実施形態のサーバ装置103が仮想視点画像を生成する前に行う事前処理の一例を示すフローチャートである。
S2101において、背景テクスチャ決定部315は、撮像装置101の中から1つを選択する。
S2102において、領域決定部319は、S2101で選択された撮像装置を、仮に基準撮像装置として、S1502〜S1505の処理を行うことで、背景モデルの各メッシュについて、投影される画像が撮影される領域を決定する。そして、背景テクスチャ決定部315は、決定した領域の情報を、S2101で選択された撮像装置に対応する領域情報として補助記憶装置303等に記憶する。
S2103において、領域決定部319は、撮像装置101の全てについて、S2102の処理が完了したか否かを判定する。領域決定部319は、撮像装置101の全てについて、S2102の処理が完了したと判定した場合、図21の処理を終了する。また、領域決定部319は、撮像装置101の中に、S2102の処理が完了していないものがあると判定した場合、S2101の処理に進む。
図21の処理により、撮像装置101それぞれについて、対応する領域情報を用意しておくことができる。
FIG. 21 is a flowchart showing an example of pre-processing performed before the server device 103 according to the present embodiment generates a virtual viewpoint image.
In step S <b> 2101, the background texture determination unit 315 selects one of the imaging devices 101.
In step S2102, the region determination unit 319 performs the processing of steps S1502 to S1505 on the assumption that the imaging device selected in step S2101 is a reference imaging device, thereby capturing an image in which a projected image is captured for each mesh of the background model. Decide. Then, the background texture determination unit 315 stores the information of the determined area in the auxiliary storage device 303 or the like as area information corresponding to the imaging device selected in S2101.
In step S <b> 2103, the region determination unit 319 determines whether the processing in step S <b> 2102 is completed for all of the imaging apparatuses 101. If the area determination unit 319 determines that the process of S2102 is completed for all of the imaging apparatuses 101, the area determination unit 319 ends the process of FIG. If the region determination unit 319 determines that some of the imaging apparatuses 101 have not completed the process of S2102, the process proceeds to the process of S2101.
Corresponding area information can be prepared for each of the imaging devices 101 by the process of FIG.

図22は、本実施形態の画像処理システムが行う仮想視点画像の生成処理の一例を示すフローチャートである。本実施形態では、背景モデルのメッシュに投影される画像が撮影される領域の決定の基準となる基準撮像装置を、仮想カメラとする。
S2201において、仮想カメラ制御部316は、サーバ装置103の操作部を介したユーザの操作に基づいて、仮想カメラのカメラパラメータの入力を受付ける。
S2202において、背景テクスチャ決定部315は、S2201で受付けられたカメラパラメータと、キャリブレーション部312から取得したカメラパラメータそれぞれと、に基づいて、以下の処理を行う。即ち、背景テクスチャ決定部315は、S2201で受付けられたカメラパラメータである撮影方向のベクトルと、キャリブレーション部312から取得したカメラパラメータである撮影方向のベクトルと、の内積を求める。図23は、仮想カメラと撮像装置101それぞれの向きの一例を説明する図である。仮想カメラ2301は、ベクトル2302で示した方向を向いた仮想カメラである。ベクトル2302は、長さが1になるように正規化されたベクトルである。ベクトル2303a〜2303nは、撮像装置101それぞれの向きを示す長さ1になるよう正規化されたベクトルである。背景テクスチャ決定部315は、ベクトル2302とベクトル2303a〜2303nそれぞれとの内積を求める。ベクトル2302とベクトル2303a〜2303nそれぞれとは、カメラパラメータである撮影方向を示す情報の一例である。
FIG. 22 is a flowchart showing an example of a process of generating a virtual viewpoint image performed by the image processing system according to the present embodiment. In the present embodiment, a reference imaging device that is a reference for determining a region in which an image projected onto a mesh of a background model is captured is a virtual camera.
In step S <b> 2201, the virtual camera control unit 316 receives an input of camera parameters of the virtual camera based on the user's operation via the operation unit of the server apparatus 103.
In step S <b> 2202, the background texture determination unit 315 performs the following process based on the camera parameters received in step S <b> 2201 and the camera parameters acquired from the calibration unit 312. That is, the background texture determination unit 315 obtains an inner product of the vector of the imaging direction which is the camera parameter accepted in S2201 and the vector of the imaging direction which is the camera parameter acquired from the calibration unit 312. FIG. 23 is a diagram for explaining an example of the directions of the virtual camera and the imaging apparatus 101. The virtual camera 2301 is a virtual camera facing in the direction indicated by the vector 2302. Vector 2302 is a vector normalized to have a length of one. Vectors 2303 a to 2303 n are vectors normalized to have a length of 1 indicating the orientation of each of the imaging devices 101. The background texture determination unit 315 obtains an inner product of the vector 2302 and each of the vectors 2303a to 2303n. Each of the vector 2302 and the vectors 2303 a to 2303 n is an example of information indicating a shooting direction which is a camera parameter.

S2203において、背景テクスチャ決定部315は、S2202で求めた内積のうち、もっとも大きな値に対応する撮像装置101を特定する。図23の例では、背景テクスチャ決定部315は、ベクトル2303a〜2303nのうち、ベクトル2302に最も類似するベクトル2303kを向いている撮像装置101kを特定する。
S2204において、背景テクスチャ決定部315は、S2102で補助記憶装置303等に記憶されたS2203で特定した撮像装置に対応する領域情報を、レンダリング部317に送信する。
S2205において、レンダリング部317は、撮像装置101それぞれにより撮影された画像内のS2204で送信された領域情報が示す画像を、対応する背景モデルの各メッシュに投影する。そして、レンダリング部317は、仮想カメラ制御部316から指定された仮想カメラのカメラパラメータに基づいてレンダリングを行い、仮想視点画像を生成する。
本実施形態では、画像処理システムは、S2203で仮想カメラと撮像装置101それぞれとの向きのベクトルの内積を用いて、撮像装置を特定した。しかし、画像処理システムは、S2202で仮想カメラと撮像装置101それぞれとの座標に基づいて(例えば、仮想カメラと撮像装置101それぞれとの距離に基づいて)、撮像装置を特定してもよい。画像処理システムは、例えば、S2202〜S2203の処理の代わりに、仮想カメラに最も近い撮像装置を特定し、特定した撮像装置に対応する領域情報を用いることとしてもよい。その場合、図23の例では、画像処理システムは、例えば、仮想カメラ2301に最も近い撮像装置101jを特定することとなる。
In step S2203, the background texture determination unit 315 specifies the imaging device 101 corresponding to the largest value among the inner products obtained in step S2202. In the example of FIG. 23, the background texture determination unit 315 specifies an imaging device 101k that is facing the vector 2303k most similar to the vector 2302 among the vectors 2303a to 2303n.
In step S2204, the background texture determination unit 315 transmits, to the rendering unit 317, area information corresponding to the imaging device specified in step S2203 and stored in the auxiliary storage device 303 or the like in step S2102.
In step S2205, the rendering unit 317 projects the image indicated by the area information transmitted in step S2204 in the image captured by each of the imaging devices 101 onto each mesh of the corresponding background model. Then, the rendering unit 317 performs rendering based on the camera parameters of the virtual camera specified by the virtual camera control unit 316, and generates a virtual viewpoint image.
In the present embodiment, the image processing system specifies the imaging device using the inner product of the vectors of the directions of the virtual camera and the imaging device 101 in S2203. However, the image processing system may specify the imaging device based on the coordinates of each of the virtual camera and the imaging device 101 in S2202 (for example, based on the distance between each of the virtual camera and each of the imaging device 101). For example, the image processing system may specify an imaging device closest to the virtual camera and use area information corresponding to the specified imaging device instead of the processing of S2202 to S2203. In that case, in the example of FIG. 23, the image processing system specifies, for example, the imaging device 101j closest to the virtual camera 2301.

以上、本実施形態では、画像処理システムは、撮像装置101のうち、仮想カメラとカメラパラメータである撮影方向が最も近い撮像装置を特定し、特定した撮像装置に応じた領域情報に応じて、背景モデルの各メッシュへの画像の投影を行った。
これにより、画像処理システムは、仮想カメラにより特徴の近い撮像装置に応じた領域情報を用いることができ、仮想カメラにより撮影される仮想視点画像を、より適切な画像とすることができる。
As described above, in the present embodiment, the image processing system identifies the imaging device that is the closest to the virtual camera as the imaging direction among the imaging devices 101, and the background according to the region information corresponding to the identified imaging device. We projected the image to each mesh of the model.
As a result, the image processing system can use area information according to an imaging device having similar features by the virtual camera, and can make the virtual viewpoint image captured by the virtual camera a more appropriate image.

<実施形態6>
本実施形態では、画像処理システム100に含まれる撮像装置101から仮想視点画像の生成に適切な画像を取得することができなくなる不具合が発生した場合に対応するための処理について説明する。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。また、撮像装置101それぞれのハードウェア構成、機能構成は、実施形態1と同様である。また、サーバ装置103のハードウェア構成、機能構成は、実施形態1と同様である。
以下では、本実施形態の処理のうち、実施形態1〜5と異なる点について説明する。
Embodiment 6
In the present embodiment, a process for coping with a case where a defect that prevents acquisition of an image suitable for generating a virtual viewpoint image from the imaging device 101 included in the image processing system 100 occurs will be described.
The system configuration of the image processing system 100 of the present embodiment is the same as that of the first embodiment. Further, the hardware configuration and the functional configuration of each of the imaging devices 101 are the same as in the first embodiment. Furthermore, the hardware configuration and the functional configuration of the server apparatus 103 are the same as in the first embodiment.
In the following, among the processing of the present embodiment, differences from the first to fifth embodiments will be described.

図24は、画像処理システム100が撮像装置101から仮想視点画像の生成に適切な画像を取得することができなくなる不具合を検出した際の処理の一例を示すフローチャートである。図24を用いて、本実施形態の処理について説明する。以下では、撮像装置101から仮想視点画像の生成に適切な画像を取得することができなくなる不具合を、単に不具合とする。不具合には、例えば、撮像装置101の故障、強風による位置・姿勢の変化、鳥・飛来物等との衝突による位置・姿勢の変化、通信回線102の故障(例えば、切断等)、通信回線102の通信帯域の逼迫がある。また、不具合には、撮像装置101においてのピンボケの発生、撮像装置101における露出値の想定外の変動等がある。
画像処理システム100は、図24の処理を、任意のタイミングで実行することができる。画像処理システム100は、例えば、予め定められた間隔で周期的に図24の処理を実行することとしてもよい。
また、画像処理システム100は、予め定められた条件が満たされたことに応じて、図24の処理を実行することとしてもよい。画像処理システム100は、予め定められた条件が満たされたことに応じて、1度だけ、図24の処理を実行することとしてもよいし、条件が満たされる度に繰り返し、図24の処理を実行することとしてもよい。
例えば、画像処理システム100は、予め定められた個数(例えば、1個、10個等)の仮想視点画像が生成されたことに応じて、図24の処理を実行することとしてもよい。また、画像処理システム100は、撮像装置101により背景画像が撮影される度に、図24の処理を実行することとしてもよい。
また、画像処理システム100は、撮像装置101それぞれにより撮影された背景画像の一部又は全部が仮想視点画像の生成に適していないと判断部318により判断された場合、図24の処理を実行することとしてもよい。画像処理システム100は、判断部318によりネットワークI/F304、通信回線102を介した撮像装置101との間の通信に通信トラブルが発生したことが検出されたことに応じて、図24の処理を実行することとしてもよい。
また、画像処理システム100は、サーバ装置103の操作部等を介して、ユーザから不具合の発生を示す情報が入力されたことに応じて、図24の処理を実行することとしてもよい。
FIG. 24 is a flowchart illustrating an example of processing when the image processing system 100 detects a defect that prevents acquisition of an image suitable for generating a virtual viewpoint image from the imaging device 101. The process of the present embodiment will be described with reference to FIG. In the following, the problem that it becomes impossible to acquire an image suitable for generating a virtual viewpoint image from the imaging device 101 is simply referred to as a defect. The defects include, for example, a failure of the imaging device 101, a change in position / posture due to strong wind, a change in position / posture due to a collision with a bird or flying object, etc., a failure (for example, disconnection) of the communication line 102, the communication line 102 There is a tight communication band. Further, the problems include occurrence of defocusing in the imaging device 101, unexpected fluctuation of the exposure value in the imaging device 101, and the like.
The image processing system 100 can execute the process of FIG. 24 at any timing. The image processing system 100 may execute the processing of FIG. 24 periodically at predetermined intervals, for example.
In addition, the image processing system 100 may execute the process of FIG. 24 in response to satisfaction of a predetermined condition. The image processing system 100 may execute the process of FIG. 24 only once in response to the predetermined condition being satisfied, and repeats the process of FIG. 24 each time the condition is satisfied. It is good also as execution.
For example, the image processing system 100 may execute the process of FIG. 24 in response to generation of a predetermined number (for example, one or ten) of virtual viewpoint images. In addition, the image processing system 100 may execute the process of FIG. 24 each time a background image is captured by the imaging device 101.
In addition, the image processing system 100 executes the process of FIG. 24 when the determination unit 318 determines that a part or all of the background image captured by each of the imaging devices 101 is not suitable for generating a virtual viewpoint image. You may do it. In the image processing system 100, the process in FIG. 24 is performed in response to the detection unit 318 detecting that a communication trouble has occurred in communication with the imaging device 101 via the network I / F 304 and the communication line 102. It is good also as execution.
In addition, the image processing system 100 may execute the process of FIG. 24 in response to the information indicating the occurrence of a failure being input from the user via the operation unit of the server apparatus 103 or the like.

S2401において、判断部318は、撮像装置101から仮想視点画像の生成に適切な画像を取得することができなくなる不具合を検出する。
判断部318は、例えば、ネットワークI/F304を介して、撮像装置101から撮像装置101で不具合(例えば、故障、位置・姿勢の変化、ピンボケの発生、露出値の変動等)が生じたことを示す情報を受信することで、不具合を検出する。この場合、撮像装置101は、例えば、自身で生じた不具合(例えば、故障、ピンボケ、露出値の変動、位置・姿勢の変動等)を検知し、検知した故障の情報をサーバ装置103に送信する。
また、判断部318は、予め定められた閾値以上の期間、撮像装置101との通信が途絶えたことを検知することで、不具合を検出することとしてもよい。判断部318は、例えば、予め定められた閾値以上の期間、撮像装置101から通信が確立していることを示すパケットを受信していない場合、撮像装置101との通信が途絶えたことを検知し、不具合を検出することとしてもよい。
また、判断部318は、ユーザによりサーバ装置103の操作部等を介した操作に基づいて、撮像装置101の故障等の不具合が発生したことを示す情報が入力された場合、不具合を検出することとしてもよい。
本実施形態では、主記憶装置302に、現在発生している不具合と、その不具合により適切な背景画像を取得することができない撮像装置と、を示す不具合情報が記憶されている。不具合が発生していない場合、判断部318は、不具合情報として、不具合が発生していないことを示す情報を記憶してもよいし、空の情報を記憶してもよい。
In step S <b> 2401, the determination unit 318 detects a defect that an image suitable for generating a virtual viewpoint image can not be acquired from the imaging device 101.
For example, the determination unit 318 determines that a failure (for example, a failure, a change in position / posture, occurrence of out-of-focus, or a change in exposure value) has occurred in the imaging device 101 via the network I / F 304, for example. By receiving the indicated information, a fault is detected. In this case, the imaging apparatus 101 detects, for example, a failure (for example, a failure, defocus, fluctuation in exposure value, fluctuation in position / posture, etc.) caused by itself, and transmits the detected failure information to the server apparatus 103. .
Alternatively, the determination unit 318 may detect a failure by detecting that the communication with the imaging apparatus 101 is interrupted for a period equal to or greater than a predetermined threshold. For example, when a packet indicating that communication has been established is not received from the imaging device 101 for a period equal to or greater than a predetermined threshold value, the determination unit 318 detects that communication with the imaging device 101 is interrupted. , And may detect a failure.
In addition, the determination unit 318 detects a defect when information indicating that a defect such as a failure of the imaging device 101 has occurred is input based on an operation by the user via the operation unit of the server device 103 or the like. It may be
In the present embodiment, the main storage device 302 stores failure information indicating a failure that is currently occurring and an imaging device that can not acquire an appropriate background image due to the failure. When the failure does not occur, the determination unit 318 may store, as the failure information, information indicating that the failure has not occurred, or may store empty information.

S2402において、判断部318は、S2401で検出した不具合と、補助記憶装置303に記憶された不具合情報が示す不具合と、を比較して、不具合の発生状況に変化があるか否かを判定する。判断部318は、発生している不具合の発生状況に変化があると判定した場合、S2403の処理に進み、発生している不具合の発生状況に変化がないと判定した場合、S2405の処理に進む。
S2403において、判断部318は、主記憶装置302に記憶された不具合情報を、S2401で検出した不具合と、この不具合により適切な背景画像を取得できなくなった撮像装置101と、を示すように更新する。
In S2402, the determination unit 318 compares the defect detected in S2401 with the defect indicated by the defect information stored in the auxiliary storage device 303, and determines whether there is a change in the occurrence status of the defect. If the determination unit 318 determines that there is a change in the occurrence status of the occurring failure, the process proceeds to the processing of S 2403, and if it determines that the occurrence status of the occurring failure does not change, the processing proceeds to the process of S 2405 .
In S 2403, the determination unit 318 updates the defect information stored in the main storage unit 302 so as to indicate the defect detected in S 2401 and the imaging device 101 whose appropriate background image can not be obtained due to the defect. .

S2404の処理は、主記憶装置302に記憶された不具合情報が示す適切な画像を取得できない撮像装置101を用いずに行われる図4の処理である。S2404の処理は、実施形態1の図4の処理と、S402とS404との処理の内容が異なる。S2404の処理におけるS402、S404について説明する。S402において、背景テクスチャ決定部315は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたものから1つを選択する処理を実行する。また、S2404では、S404において、座標変換部314は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたもの全てについて、以下の処理を行う。即ち、座標変換部314は、S401で抽出されたメッシュに対するS403の処理が完了したか否かを判定する処理を実行する処理を行う。座標変換部314は、完了したと判定した場合、S405の処理に進み、完了していないと判定した場合、S402の処理に進む。このようにして、サーバ装置103は、適切な画像を取得できない状態の撮像装置101により撮影される画像を、仮想視点画像の背景モデルのメッシュに投影される画像に用いないようにする。
また、サーバ装置103は、初めて図24の処理を実行する際には、S2402における判定の処理の結果に関わらず、S2404の処理を実行することで、背景画像を生成することとしてもよい。
The process of S2404 is the process of FIG. 4 which is performed without using the imaging device 101 which can not acquire an appropriate image indicated by the defect information stored in the main storage device 302. The processing of S2404 is different from the processing of FIG. 4 of the first embodiment and in the processing of S402 and S404. S402 and S404 in the process of S2404 will be described. In step S <b> 402, the background texture determination unit 315 executes processing for selecting one of the imaging devices 101 excluding the imaging device 101 that can not acquire an appropriate image indicated by the defect information. Further, in S2404, in S404, the coordinate conversion unit 314 performs the following processing on all the imaging devices 101 except the imaging device 101 that can not acquire an appropriate image indicated by the defect information. That is, the coordinate conversion unit 314 performs a process of determining whether the process of S403 on the mesh extracted in S401 is completed. If the coordinate conversion unit 314 determines that the process has been completed, the process proceeds to the process of S405. If it is determined that the process is not completed, the process proceeds to the process of S402. In this manner, the server apparatus 103 does not use an image captured by the imaging apparatus 101 in a state in which an appropriate image can not be acquired, as an image projected on the mesh of the background model of the virtual viewpoint image.
When the server apparatus 103 executes the process of FIG. 24 for the first time, the background image may be generated by executing the process of S2404 regardless of the result of the process of determination in S2402.

また、S2404の処理は、主記憶装置302に記憶された不具合情報が示す適切な画像を取得できない撮像装置101を用いずに行われる図13、15、21の何れかの処理であるとしてもよい。
まず、S2404の処理が、不具合情報が示す適切な画像を取得できない撮像装置101を用いずに行われる図13の処理である場合、S2404の処理は、実施形態3の図13の処理と、S402とS404との処理の内容が異なる。この場合のS2404の処理におけるS402、S404の処理について説明する。S402において、背景テクスチャ決定部315は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたものから1つを選択する処理を実行する。また、S404において、座標変換部314は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたもの全てについて、S401で抽出されたメッシュに対するS403の処理が完了したか否かを判定する処理を実行する。座標変換部314は、完了したと判定した場合、S405の処理に進み、完了していないと判定した場合、S402の処理に進む。
Further, the process of S2404 may be any of the processes of FIGS. 13, 15 and 21 performed without using the imaging apparatus 101 that can not acquire an appropriate image indicated by the defect information stored in the main storage device 302. .
First, when the process of S2404 is the process of FIG. 13 performed without using the imaging apparatus 101 that can not acquire an appropriate image indicated by the defect information, the process of S2404 corresponds to the process of FIG. 13 of the third embodiment and S402. The contents of the processing of step S404 and step S404 are different. The processes of S402 and S404 in the process of S2404 in this case will be described. In step S <b> 402, the background texture determination unit 315 executes processing for selecting one of the imaging devices 101 excluding the imaging device 101 that can not acquire an appropriate image indicated by the defect information. Also, in S404, the coordinate conversion unit 314 completes the process of S403 on the mesh extracted in S401 for all the imaging devices 101 except the imaging device 101 that can not acquire an appropriate image indicated by the defect information. Execute processing to determine whether or not. If the coordinate conversion unit 314 determines that the process has been completed, the process proceeds to the process of S405. If it is determined that the process is not completed, the process proceeds to the process of S402.

次に、S2404の処理が、不具合情報が示す適切な画像を取得できない撮像装置101を用いずに行われる図15の処理である場合、S2404の処理は、実施形態4の図15の処理と、S1501とS1504との処理の内容が異なる。この場合のS2404の処理におけるS1501、S1504の処理について説明する。S1501において、領域決定部319は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたものから基準撮像装置を選択する処理を実行する。また、S1504において、領域決定部319は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたものから選択撮像装置とする撮像装置を選択する処理を実行する。
なお、S2404の処理におけるS1501において、領域決定部319は、不具合情報が示す適切な画像を取得できない撮像装置101を候補から除かずに基準撮像装置を選択してもよい。すなわち、S1501では不具合の生じた撮像装置101が基準撮像装置として選択されてもよい。この場合、S1504においては、不具合の生じた基準撮像装置との位置関係に基づいて、その基準撮像装置以外の撮像装置101の中から選択撮像装置とする撮像装置が選択される。このような撮像装置101の選択方法によれば、不具合の発生に応じて基準撮像装置を変更する場合と比較して、不具合発生の前後で選択撮像装置の変化が少ないため、背景の画像が大きく変化してユーザに違和感を与えてしまうことを抑制できる。
次に、S2404の処理が、不具合情報が示す適切な画像を取得できない撮像装置101を用いずに行われる図21の処理である場合、S2404の処理は、実施形態5の図21の処理と、S2101とS2103との処理の内容が異なる。この場合のS2404の処理におけるS2101、S2103の処理について説明する。S2101において、背景テクスチャ決定部315は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたものから撮像装置を選択する処理を実行する。また、S2103において、領域決定部319は、撮像装置101のうち、不具合情報が示す適切な画像を取得できない撮像装置101を除いたもの全てについて、S2102の処理が完了したか否かを判定する。領域決定部319は、完了したと判定した場合、図21の処理を終了し、完了していないと判定した場合、S2101の処理に進む。
S2405の処理は、S2404の処理で求められた領域情報(背景モデルの各メッシュに投影される画像が撮影される領域(テクスチャ領域)の情報)に基づいて行われる図8の処理である。また、S2402において不具合の発生状況に変化がないと判定された場合、S2405の処理は、過去に実行された図24の処理におけるS2404の処理で求められた領域情報に基づいて行われる。また、S2405の処理は、S2404の処理で求められた領域情報に基づいて行われる図14の処理であるとしてもよい。また、S2405の処理は、S2404の処理で求められた領域情報に基づいて行われる図22の処理であるとしてもよい。
Next, when the process of S2404 is the process of FIG. 15 performed without using the imaging apparatus 101 that can not acquire an appropriate image indicated by the defect information, the process of S2404 is the process of FIG. 15 of the fourth embodiment; The contents of the processing of S1501 and S1504 are different. The processes of S1501 and S1504 in the process of S2404 in this case will be described. In step S <b> 1501, the region determination unit 319 executes a process of selecting a reference imaging device from among the imaging devices 101 excluding the imaging device 101 that can not acquire an appropriate image indicated by the defect information. In step S1504, the region determination unit 319 executes a process of selecting an imaging device to be the selected imaging device from among the imaging devices 101 excluding the imaging device 101 that can not acquire an appropriate image indicated by the defect information.
In S1501 in the process of S2404, the region determination unit 319 may select the reference imaging device without excluding the imaging device 101 that can not acquire an appropriate image indicated by the defect information from the candidates. That is, in step S1501, the imaging apparatus 101 in which a problem occurs may be selected as the reference imaging apparatus. In this case, in S1504, based on the positional relationship with the failed reference imaging device, an imaging device to be the selected imaging device is selected from the imaging devices 101 other than the reference imaging device. According to such a selection method of the imaging device 101, the change in the selected imaging device is small before and after the occurrence of the defect as compared with the case where the reference imaging device is changed according to the occurrence of the defect. It is possible to suppress the change from giving a sense of incongruity to the user.
Next, when the process of S2404 is the process of FIG. 21 performed without using the imaging apparatus 101 that can not acquire an appropriate image indicated by the defect information, the process of S2404 is the process of FIG. 21 of the fifth embodiment; The contents of processing of S2101 and S2103 are different. The processes of S2101 and S2103 in the process of S2404 in this case will be described. In step S <b> 2101, the background texture determination unit 315 executes processing for selecting an imaging device from among the imaging devices 101 excluding the imaging device 101 that can not acquire an appropriate image indicated by the defect information. In step S2103, the region determination unit 319 determines whether the processing in step S2102 is complete for all components of the imaging apparatus 101 except the imaging apparatus 101 that can not acquire an appropriate image indicated by the defect information. If the area determination unit 319 determines that the process has been completed, the process of FIG. 21 ends. If the area determination unit 319 determines that the process is not completed, the process proceeds to step S2101.
The process of S2405 is the process of FIG. 8 performed based on the area information (information of an area (texture area) in which an image projected on each mesh of the background model is captured) obtained in the process of S2404. If it is determined in S2402 that there is no change in the occurrence status of the failure, the process of S2405 is performed based on the area information obtained in the process of S2404 in the process of FIG. 24 performed in the past. Also, the process of S2405 may be the process of FIG. 14 performed based on the area information obtained in the process of S2404. Also, the process of S2405 may be the process of FIG. 22 performed based on the area information obtained in the process of S2404.

以上、本実施形態では、画像処理システム100は、撮像装置101から適切な画像を取得できない不具合を検出した。そして、画像処理システム100は、適切な画像を取得できない撮像装置101により撮影される画像の領域を除いたうえで、背景モデルの各メッシュに投影される画像が撮影される領域を決定した。これにより、画像処理システム100は、不具合が発生した場合でも、背景モデルの各メッシュに対して、適切な画像を取得できる撮像装置101により撮影された画像を投影することで、仮想視点画像の適切な背景画像を生成できる。
また、本実施形態では、不具合が生じた撮像装置101によって、生成可能な背景テクスチャの範囲が狭くなってしまう場合が想定される。例えば、実施形態1についてメッシュ502について、図6では、撮像装置101aによって撮影されている様子が示されている。この場合、メッシュ502は、撮像装置101a以外の撮像装置101の何れにおいても撮影されていない領域に対応するメッシュであったとする。その場合、メッシュ502に投影される画像を撮影することができる撮像装置101が、存在しなくなる。
このような場合、画像処理システム100は、以下のようにしてもよい。画像取得部311は、撮像装置101のそれぞれが正常に動作している際に撮影された最も新しい画像から少なくとも一つ以上の画像を主記憶装置302、補助記憶装置303等に記憶しておく。例えば、撮像装置101aにおける故障等の不具合によって画像の撮影ができなくなり、他の全ての撮像装置101から撮影されなくなる領域が生じたとする。その場合、画像処理システム100は、その領域の画像として、主記憶装置302、補助記憶装置303等に記憶された撮像装置101aにより過去に撮影された画像を用いることとしてもよい。
As described above, in the present embodiment, the image processing system 100 detects a failure that an appropriate image can not be acquired from the imaging device 101. Then, the image processing system 100 excludes the area of the image captured by the imaging device 101 which can not acquire an appropriate image, and determines the area in which the image projected on each mesh of the background model is captured. As a result, the image processing system 100 projects an image captured by the imaging device 101 capable of acquiring an appropriate image on each mesh of the background model even when a failure occurs, thereby making the virtual viewpoint image appropriate Background image can be generated.
Further, in the present embodiment, it is assumed that the range of the background texture that can be generated is narrowed by the imaging device 101 in which the failure has occurred. For example, with regard to the mesh 502 in the first embodiment, FIG. 6 shows that the image is captured by the imaging device 101a. In this case, it is assumed that the mesh 502 is a mesh corresponding to a region which is not photographed in any of the imaging devices 101 other than the imaging device 101a. In that case, there is no imaging device 101 capable of capturing an image projected onto the mesh 502.
In such a case, the image processing system 100 may be as follows. The image acquisition unit 311 stores at least one or more images from the most recent image captured when each of the imaging devices 101 is operating normally, in the main storage device 302, the auxiliary storage device 303, and the like. For example, it is assumed that an area in which imaging can not be performed due to a defect such as a failure in the imaging apparatus 101a and that imaging is not performed by all the other imaging apparatuses 101 is generated. In that case, the image processing system 100 may use, as an image of the area, an image captured in the past by the imaging device 101a stored in the main storage device 302, the auxiliary storage device 303, and the like.

また、あるメッシュに対応する領域を撮影する複数の撮像装置101が存在する場合、画像処理システムは、以下のようにしてもよい。即ち、画像取得部311は、この複数の撮像装置101それぞれが正常に動作している際に撮影された最も新しい画像から少なくとも一つ以上の画像を主記憶装置302、補助記憶装置303等に記憶しておくこととしてもよい。この場合、この複数の撮像装置101の一部において不具合が生じたとしても、画像処理システム100は、残りの撮像装置101により撮影されたその領域の画像を取得できる。また、この複数の撮像装置101の全てにおいて不具合が生じたとしても、画像処理システム100は、その領域の画像として、主記憶装置302、補助記憶装置303等に記憶された撮像装置101aにより過去に撮影された画像を用いることができる。
このように、あるメッシュについて撮影している撮像装置101の全てについて不具合が生じた場合でも、画像処理システム100は、過去に撮影された画像を用いて仮想視点画像の背景画像を生成できる。
このような処理により、画像処理システム100は、どこからも映らなくなってしまった領域が生じた場合でも、背景画像が生成されないことを抑制することができる。
更に、画像処理システム100は、仮想視点画像の生成の前に、撮像装置101それぞれによってあらかじめ撮影を行い、撮影された画像を、主記憶装置302、補助記憶装置303等に予め記憶しておいてもよい。
In addition, when there are a plurality of imaging devices 101 that capture an area corresponding to a certain mesh, the image processing system may be as follows. That is, the image acquisition unit 311 stores at least one or more images from the newest image captured when each of the plurality of imaging devices 101 is operating normally in the main storage device 302, the auxiliary storage device 303, etc. You may do it. In this case, even if a failure occurs in part of the plurality of imaging devices 101, the image processing system 100 can acquire an image of the area captured by the remaining imaging devices 101. In addition, even if a problem occurs in all of the plurality of imaging devices 101, the image processing system 100 may use the imaging device 101a stored in the main storage device 302, the auxiliary storage device 303, or the like as an image of the area in the past. The photographed image can be used.
As described above, even when problems occur in all of the imaging devices 101 capturing a certain mesh, the image processing system 100 can generate a background image of a virtual viewpoint image using an image captured in the past.
By such processing, the image processing system 100 can suppress the generation of the background image even when an area which is not seen from anywhere is generated.
Furthermore, before generating the virtual viewpoint image, the image processing system 100 performs imaging in advance by each of the imaging devices 101, and stores the imaged image in the main storage device 302, the auxiliary storage device 303, and the like in advance. It is also good.

<その他の実施形態>
実施形態1〜6では、サーバ装置103は、単体の情報処理装置であるとした。しかし、サーバ装置103は、複数の情報処理装置により構成されてもよい。その場合、サーバ装置103を構成する情報処理装置それぞれのCPUが、サーバ装置103を構成する情報処理装置それぞれの補助記憶装置等に記憶されたプログラムにしたがって連携して処理を実行することで、以下の機能、処理等が実現される。即ち、図3(b)、12の機能、図8、14のフローチャートにおけるサーバ装置103の処理、図4、13、15、21、22、24のフローチャートの処理等が実現される。
実施形態1〜6において撮像装置101により撮影された画像は、撮影画像の一例である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した画像処理システム100の機能構成の一部又は全てをハードウェアとして撮像装置101、サーバ装置103に実装してもよい。
以上、本発明の実施形態の例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせたり、適宜改良乃至は応用してもよい。
<Other Embodiments>
In the first to sixth embodiments, the server apparatus 103 is a single information processing apparatus. However, the server apparatus 103 may be configured by a plurality of information processing apparatuses. In that case, the CPUs of the information processing apparatuses constituting the server apparatus 103 execute processing in cooperation with each other in accordance with the program stored in the auxiliary storage device or the like of the information processing apparatuses constituting the server apparatus 103. Functions and processing are realized. That is, the functions of FIGS. 3B and 12, the processing of the server apparatus 103 in the flowcharts of FIGS. 8 and 14, and the processing of the flowcharts of FIGS. 4, 13, 15, 21, 22, 24 are realized.
The image captured by the imaging device 101 in the first to sixth embodiments is an example of a captured image.
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
For example, part or all of the functional configuration of the image processing system 100 described above may be implemented as hardware in the imaging apparatus 101 and the server apparatus 103.
As mentioned above, although the example of embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns. The above-described embodiments may be arbitrarily combined, appropriately modified or applied.

100 画像処理システム
101 撮像装置
103 サーバ装置
100 image processing system 101 imaging device 103 server device

Claims (14)

複数の撮影部により撮影される複数の撮影画像に基づいて生成される仮想視点画像の背景のモデルである背景モデルの表面上に存在する領域である表面領域に投影する画像として、前記複数の撮影部により撮影される複数の撮影画像に含まれる何れの撮影画像における何れの領域の画像を投影するかを決定する決定手段と、
前記複数の撮影部により撮影される複数の撮影画像に含まれる前記決定手段により決定された領域の画像を、前記表面領域に投影する投影手段と、
を有する画像処理装置。
As the image projected on the surface area which is an area existing on the surface of the background model which is a model of the background of the virtual viewpoint image generated based on the plurality of photographed images photographed by the plurality of photographing units, the plurality of photographings A determination unit configured to determine which area of the photographed image included in the plurality of photographed images photographed by the unit is to be projected;
Projection means for projecting an image of the area determined by the determination means included in the plurality of photographed images photographed by the plurality of photographing units onto the surface area;
An image processing apparatus having:
前記決定手段は、前記複数の撮影部により撮影される複数の撮影画像内の領域のうち、前記表面領域に対応する複数の領域から、前記複数の領域それぞれの面積に基づいて、前記表面領域に投影される画像の領域を決定する請求項1記載の画像処理装置。   The determination unit is configured to set the surface region to a plurality of regions corresponding to the surface region among the regions in the plurality of photographed images photographed by the plurality of photographing units, based on the respective areas of the plurality of regions. The image processing apparatus according to claim 1, wherein the area of the image to be projected is determined. 前記決定手段は、前記複数の領域から、面積が最も大きい領域を、前記表面領域に投影される画像の領域として、決定する請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit determines an area having the largest area from the plurality of areas as an area of an image projected onto the surface area. 前記決定手段は、前記複数の領域から、面積が最も小さい領域を、前記表面領域に投影される画像の領域として、決定する請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit determines an area having the smallest area from the plurality of areas as an area of an image projected onto the surface area. 前記決定手段は、前記複数の撮影部により撮影される複数の撮影画像内の領域のうち、前記表面領域に対応する複数の領域から、予め定められた基準撮影部と前記複数の撮影部それぞれとのパラメータに基づいて、前記表面領域に投影される画像の領域を決定する請求項1記載の画像処理装置。   The determination unit is configured to determine a predetermined reference imaging unit and a plurality of imaging units from a plurality of regions corresponding to the surface region among the regions in the plurality of photographed images photographed by the plurality of photographing units. The image processing apparatus according to claim 1, wherein the area of the image projected onto the surface area is determined based on the parameters of 前記決定手段は、前記複数の撮影部により撮影される複数の撮影画像内の領域のうち、前記表面領域に対応する複数の領域から、前記複数の領域を撮影する撮影部それぞれと前記基準撮影部との座標に基づいて、前記表面領域に投影される画像の領域を決定する請求項5記載の画像処理装置。   The determination unit is an imaging unit configured to capture the plurality of areas from a plurality of areas corresponding to the surface area among the plurality of areas in the plurality of captured images captured by the plurality of imaging sections, and the reference imaging section The image processing apparatus according to claim 5, wherein the area of the image projected onto the surface area is determined based on the coordinates of. 前記決定手段は、前記複数の撮影部により撮影される複数の撮影画像内の領域のうち、前記表面領域に対応する複数の領域から、前記複数の領域を撮影する撮影部それぞれの撮影方向と前記基準撮影部の撮影方向とに基づいて、前記表面領域に投影される画像の領域を決定する請求項5記載の画像処理装置。   The determination unit is configured to determine, from among a plurality of areas in the plurality of photographed images photographed by the plurality of photographing units, photographing directions of the respective photographing units for photographing the plurality of areas from the plurality of areas corresponding to the surface area. The image processing apparatus according to claim 5, wherein the area of the image projected on the surface area is determined based on a photographing direction of a reference photographing unit. 前記基準撮影部は、前記複数の撮影部のうち、最も視野が広角な撮影部である請求項5乃至7何れか1項記載の画像処理装置。   The image processing apparatus according to any one of claims 5 to 7, wherein the reference photographing unit is a photographing unit having the widest field of view among the plurality of photographing units. 前記基準撮影部は、指定された位置に仮想的に配置される撮影部である請求項5乃至7何れか1項記載の画像処理装置。   The image processing apparatus according to any one of claims 5 to 7, wherein the reference photographing unit is a photographing unit virtually arranged at a designated position. 前記複数の撮影部から、前記複数の撮影部により撮影される複数の撮影画像に含まれる前記決定手段により決定された領域の画像を取得する取得手段を更に有し、
前記投影手段は、前記取得手段により取得された画像を、前記表面領域に投影する請求項1乃至9何れか1項記載の画像処理装置。
The image capturing apparatus further includes acquisition means for acquiring an image of the area determined by the determination means included in the plurality of photographed images photographed by the plurality of photographing units from the plurality of photographing units.
The image processing apparatus according to any one of claims 1 to 9, wherein the projection unit projects the image acquired by the acquisition unit onto the surface area.
前記複数の撮影部により撮影される撮影画像から、前記仮想視点画像の生成に用いられる画像を選択する選択手段を更に有し、
前記決定手段は、前記選択手段により選択された画像内の領域のうち、前記表面領域に対応する領域から、前記表面領域に投影される画像の領域を決定する請求項1乃至10何れか1項記載の画像処理装置。
The image processing apparatus further comprises selection means for selecting an image used to generate the virtual viewpoint image from the photographed images photographed by the plurality of photographing units.
11. The image processing apparatus according to claim 1, wherein the determination unit determines the region of the image projected onto the surface region from the region corresponding to the surface region among the regions in the image selected by the selection unit. Image processing apparatus as described.
前記決定手段は、前記複数の撮影部のうち予め定められた不具合が検出された撮影部以外の撮影部により撮影される撮影画像に含まれる領域から、前記表面領域に投影される画像の領域を決定する請求項1乃至11何れか1項記載の画像処理装置。   The determination unit is configured to set an area of an image projected on the surface area from an area included in a captured image captured by an imaging section other than the imaging section in which a predetermined defect is detected among the plurality of imaging sections. The image processing apparatus according to any one of claims 1 to 11, which determines. 画像処理装置が実行する情報処理方法であって、
複数の撮影部により撮影される複数の撮影画像に基づいて生成される仮想視点画像の背景のモデルである背景モデルの表面上に存在する領域である表面領域に投影する画像として、前記複数の撮影部により撮影される複数の撮影画像に含まれる何れの撮影画像における何れの領域の画像を投影するかを決定する決定ステップと、
前記複数の撮影部により撮影される複数の撮影画像に含まれる前記決定ステップで決定された領域の画像を、前記表面領域に投影する投影ステップと、
を含む情報処理方法。
An information processing method executed by the image processing apparatus;
As the image projected on the surface area which is an area existing on the surface of the background model which is a model of the background of the virtual viewpoint image generated based on the plurality of photographed images photographed by the plurality of photographing units, the plurality of photographings A determination step of determining which area of the captured image included in the plurality of captured images captured by the unit is to be projected;
Projecting the image of the area determined in the determining step included in the plurality of photographed images photographed by the plurality of photographing units onto the surface area;
Information processing method including:
コンピュータを、請求項1乃至12何れか1項記載の画像処理装置の各手段として、機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus in any one of Claims 1-12.
JP2018127416A 2017-12-04 2018-07-04 Image processing device, information processing method and program Active JP7195791B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18208659.5A EP3493162A1 (en) 2017-12-04 2018-11-27 Virtual viewpoint synthesis
US16/202,550 US10979684B2 (en) 2017-12-04 2018-11-28 Image processing apparatus, information processing method, and program for associating an element in a background shape model with an image capturing apparatus
CN201811464278.9A CN109874000B (en) 2017-12-04 2018-12-03 Image processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017232886 2017-12-04
JP2017232886 2017-12-04

Publications (3)

Publication Number Publication Date
JP2019102056A true JP2019102056A (en) 2019-06-24
JP2019102056A5 JP2019102056A5 (en) 2021-08-12
JP7195791B2 JP7195791B2 (en) 2022-12-26

Family

ID=66973893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018127416A Active JP7195791B2 (en) 2017-12-04 2018-07-04 Image processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7195791B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131365A1 (en) * 2019-12-26 2021-07-01 富士フイルム株式会社 Information processing device, method for operating information processing device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072805A (en) * 2004-09-03 2006-03-16 Nippon Hoso Kyokai <Nhk> Three-dimensional model display device and program
US20130016097A1 (en) * 2010-04-02 2013-01-17 Imec Virtual Camera System
JP2017211828A (en) * 2016-05-25 2017-11-30 キヤノン株式会社 Image processing system, image processor, control method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072805A (en) * 2004-09-03 2006-03-16 Nippon Hoso Kyokai <Nhk> Three-dimensional model display device and program
US20130016097A1 (en) * 2010-04-02 2013-01-17 Imec Virtual Camera System
JP2017211828A (en) * 2016-05-25 2017-11-30 キヤノン株式会社 Image processing system, image processor, control method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"自由視点映像生成のための簡易な操作による背景生成手法", 電子情報通信学会技術研究報告, JPN6022016560, 8 December 2006 (2006-12-08), JP, ISSN: 0004765886 *
"講師追跡撮影カメラと平面対象撮影カメラを併用した講義室の高解像度画像合成", 電子情報通信学会論文誌, JPN6022016559, 1 February 2009 (2009-02-01), JP, ISSN: 0004765887 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131365A1 (en) * 2019-12-26 2021-07-01 富士フイルム株式会社 Information processing device, method for operating information processing device, and program
JPWO2021131365A1 (en) * 2019-12-26 2021-07-01
JP7488285B2 (en) 2019-12-26 2024-05-21 富士フイルム株式会社 Information processing device, operation method of information processing device, and program

Also Published As

Publication number Publication date
JP7195791B2 (en) 2022-12-26

Similar Documents

Publication Publication Date Title
JP6434947B2 (en) Imaging system, image processing apparatus, image processing method, and program
KR102246010B1 (en) Image processing apparatus, image processing method and storage medium
JP6786378B2 (en) Information processing equipment, information processing methods and programs
US11557081B2 (en) Image processing apparatus, control method for an image processing apparatus, and medium
KR101210625B1 (en) Method for filling common hole and 3d video system thereof
US11250619B2 (en) Image processing apparatus and method
JP2016213808A (en) Camera selecting method and video distribution system
JP2019088025A (en) Display control apparatus, display control method, and program
JP5886242B2 (en) Image processing apparatus, image processing method, and image processing program
EP2872963B1 (en) Abstract camera pipeline for uniform cross-device control of image capture and processing
JP2013009274A (en) Image processing device, image processing method, and program
JP2014222825A (en) Video processing apparatus and video processing method
JP6606530B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and monitoring system
CN109874000B (en) Image processing apparatus, information processing method, and storage medium
JP2019106145A (en) Generation device, generation method and program of three-dimensional model
JP2013093836A (en) Image capturing apparatus, image processing apparatus, and method thereof
US10674095B2 (en) Image processing apparatus and control method for controlling the same
JP7195791B2 (en) Image processing device, information processing method and program
JP7458713B2 (en) Image processing device, image processing system, control method, and program
US10949713B2 (en) Image analyzing device with object detection using selectable object model and image analyzing method thereof
US9602701B2 (en) Image-pickup apparatus for forming a plurality of optical images of an object, control method thereof, and non-transitory computer-readable medium therefor
EP3926949B1 (en) Control apparatus, control method, and program
JP6335668B2 (en) Imaging apparatus, control method therefor, imaging system, and program
KR20180070234A (en) Apparatus and user device for providing time slice video
WO2018235762A1 (en) Display control device, display control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R151 Written notification of patent or utility model registration

Ref document number: 7195791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151