JP7458713B2 - Image processing device, image processing system, control method, and program - Google Patents

Image processing device, image processing system, control method, and program Download PDF

Info

Publication number
JP7458713B2
JP7458713B2 JP2019091381A JP2019091381A JP7458713B2 JP 7458713 B2 JP7458713 B2 JP 7458713B2 JP 2019091381 A JP2019091381 A JP 2019091381A JP 2019091381 A JP2019091381 A JP 2019091381A JP 7458713 B2 JP7458713 B2 JP 7458713B2
Authority
JP
Japan
Prior art keywords
material data
generation
image
information
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019091381A
Other languages
Japanese (ja)
Other versions
JP2020187529A (en
Inventor
祐矢 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019091381A priority Critical patent/JP7458713B2/en
Publication of JP2020187529A publication Critical patent/JP2020187529A/en
Application granted granted Critical
Publication of JP7458713B2 publication Critical patent/JP7458713B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、仮想視点画像を生成する技術に関するものである。 The present invention relates to a technique for generating virtual viewpoint images.

近年、複数の撮像装置を異なる位置に設置して複数の方向から同期撮影し、当該撮像装置から得られた複数視点画像を用いて、任意の視点に基づく仮想視点画像を生成する技術が注目されている。 In recent years, technology has attracted attention in which multiple imaging devices are installed in different positions to take synchronized images from multiple directions, and the multi-viewpoint images obtained from the imaging devices are used to generate a virtual viewpoint image based on an arbitrary viewpoint. ing.

特許文献1には、複数の撮像装置により撮像された撮像画像と、該撮像画像に基づいて生成される前景テクスチャ画像、背景テクスチャ画像、および三次元モデル等のデータに基づいて仮想視点画像を生成する画像生成装置について記載されている。以降、仮想視点画像を生成するためのデータ(複数の撮像装置により撮像された撮像画像、該撮像画像に基づいて生成される前景テクスチャ画像、背景テクスチャ画像、および三次元モデル等のデータの少なくともいずれかを含む)を、素材データと呼ぶ。 Patent Document 1 describes an image generating device that generates a virtual viewpoint image based on captured images captured by multiple imaging devices, and data such as a foreground texture image, a background texture image, and a three-dimensional model that are generated based on the captured images. Hereinafter, data for generating a virtual viewpoint image (including at least any one of captured images captured by multiple imaging devices, a foreground texture image, a background texture image, and a three-dimensional model that are generated based on the captured images) will be referred to as material data.

特許第06429829号Patent No. 06429829

画像処理装置が素材データを生成して画像生成装置に出力し、画像生成装置が取得した素材データに基づいて仮想視点画像を生成する画像処理システムについて考える。このとき画像生成装置が、取得した素材データがどのような処理を経て生成されたかを認識できないと、仮想視点画像の生成処理あるいは品質に問題が生じる恐れがある。例えば、画像生成装置が、生成する仮想視点画像の品質向上のために、取得した素材データを補正する機能を有しているとする。しかしながら画像処理装置が素材データを生成する処理の中ですでに同様の補正を行っていたとしても、画像生成装置は素材データを取得するだけでは、素材データに対し当該補正の処理がすでに行われたことを認識することができない。その結果画像生成装置側で同じ補正を行うことにより、補正処理が重複し、処理時間の増加等を引き起こす恐れがある。また、補正が必要な素材データに対し画像処理装置が補正を行っていなかった場合も、画像生成装置は当該補正の処理が行われていないことを認識することができない。その結果画像生成装置が素材データに対し適切な補正を行うことができず、仮想視点画像の品質が低下する恐れがある。 Consider an image processing system in which an image processing device generates material data, outputs it to an image generation device, and generates a virtual viewpoint image based on the material data acquired by the image generation device. At this time, if the image generation device cannot recognize what kind of processing has been performed to generate the acquired material data, a problem may arise in the generation process or quality of the virtual viewpoint image. For example, assume that the image generation device has a function of correcting acquired material data in order to improve the quality of the virtual viewpoint image to be generated. However, even if the image processing device has already performed similar corrections in the process of generating material data, the image generation device cannot simply acquire the material data and the correction processing has already been performed on the material data. I can't recognize what happened. As a result, by performing the same correction on the image generation device side, there is a risk that the correction processing will be duplicated, resulting in an increase in processing time, etc. Further, even if the image processing device has not performed correction on material data that requires correction, the image generation device cannot recognize that the correction processing has not been performed. As a result, the image generation device may not be able to perform appropriate correction on the material data, and the quality of the virtual viewpoint image may deteriorate.

本発明は、上記の課題に鑑みてなされたものである。その目的は、素材データの生成時に、素材データに対してどのような処理が行われたかを容易に参照できるようにすることである。 The present invention has been made in view of the above problems. The purpose is to make it possible to easily refer to what kind of processing was performed on the material data when the material data was generated.

本発明に係る画像処理装置は、複数の撮像装置により撮像された複数の撮像画像に基づく仮想視点画像を生成するための素材データを生成する画像処理装置であって、前記素材データを生成する素材データ生成手段と、前記素材データ生成手段により生成された素材データと、該素材データの生成処理に係る生成情報とを関連付けて出力する出力手段とを有し、前記生成情報は、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されたか否かを示す情報を含み、前記出力手段は、前記素材データと前記生成情報とに基づいて仮想視点画像を生成する画像生成装置であって、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されている場合、前記素材データに対し追加処理を実行せず、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されていない場合、前記素材データに対し追加処理を実行する前記画像生成装置に前記素材データと前記生成情報とを関連付けて出力することを特徴とする。 An image processing device according to the present invention is an image processing device that generates material data for generating a virtual viewpoint image based on a plurality of captured images captured by a plurality of imaging devices, the image processing device generating the material data for generating the material data. It has a data generation means, and an output means for correlating and outputting the material data generated by the material data generation means and the generation information related to the generation process of the material data, and the generation information includes the material data generated by the material data generation means. The output means includes information indicating whether a process for generating or a process for correcting the material data has been performed on the material data , and the output means generates a virtual viewpoint image based on the material data and the generation information. The image generation device generates the material data without performing additional processing on the material data, when a process of generating the material data or a process of correcting the material data is performed on the material data. or when the process of correcting the material data is not performed on the material data, outputting the material data and the generated information in association with each other to the image generation device that performs additional processing on the material data. It is characterized by

本発明によれば、素材データの生成時に、素材データに対してどのような処理が行われたかを容易に参照することができるようになる。 According to the present invention, it becomes possible to easily refer to what kind of processing has been performed on the material data when the material data is generated.

画像処理システム100の一部の機能構成を説明するための図Diagram for explaining the functional configuration of part of the image processing system 100 素材データファイルの構成の一例を説明するための図Diagram for explaining an example of the structure of a material data file 素材データファイルの構成の一例を説明するための図Diagram for explaining an example of the structure of a material data file 素材データファイルの構成の一例を説明するための図Diagram for explaining an example of the structure of a material data file 素材データファイルの構成の一例を説明するための図Diagram for explaining an example of the structure of a material data file 素材データファイルの構成の一例を説明するための図FIG. 1 is a diagram for explaining an example of the configuration of a material data file; 素材データファイルの構成の一例を説明するための図FIG. 1 is a diagram for explaining an example of the configuration of a material data file; 画像処理システム100の一部が実行する処理を説明するためのフローチャートFlowchart for explaining processing executed by a part of the image processing system 100 画像処理システム100が有する画像生成装置120の機能構成を説明するための図Diagram for explaining the functional configuration of an image generation device 120 included in the image processing system 100 画像生成装置120が実行する処理を説明するためのフローチャートFlowchart for explaining processing executed by image generation device 120 表示部904が表示する情報の一例を説明するための図Diagram for explaining an example of information displayed on the display unit 904 画像処理システム100が有する画像処理装置110および画像生成装置120のハードウェア構成を説明するための図A diagram for explaining the hardware configuration of an image processing device 110 and an image generation device 120 included in the image processing system 100. 複数の撮像装置101の配置の一例を説明するための図A diagram for explaining an example of the arrangement of a plurality of imaging devices 101

以下、図面を参照しながら本実施形態について説明する。 This embodiment will be described below with reference to the drawings.

(第1の実施形態)
本実施形態における画像処理システム100が有する画像処理装置110および画像生成装置120のハードウェア構成を、図12を用いて説明する。画像生成装置110は、CPU(中央演算装置)1211、ROM(リードオンリーメモリ)1212、RAM(ランダムアクセスメモリ)1213、補助記憶装置1214、表示部1215、操作部1216、通信I/F1217、およびバス1218を有する。
(First embodiment)
The hardware configuration of the image processing device 110 and the image generating device 120 of the image processing system 100 in this embodiment will be described with reference to Fig. 12. The image generating device 110 has a CPU (Central Processing Unit) 1211, a ROM (Read Only Memory) 1212, a RAM (Random Access Memory) 1213, an auxiliary storage device 1214, a display unit 1215, an operation unit 1216, a communication I/F 1217, and a bus 1218.

CPU1211は、ROM1212あるいはRAM1213に格納されているコンピュータプログラムおよびデータを用いて、画像処理装置110の全体を制御する。なお、画像処理装置110がCPU1211とは異なる一または複数の専用のハードウェアを有し、CPU1211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートウェイ)、およびDSP(デジタルシグナルプロセッサ)等がある。ROM1212は、変更を必要としないプログラム等を格納する。RAM1213は、補助記憶装置1214から供給されるプログラムおよびデータ、および通信I/F1217を介して外部から供給されるデータ等を一時記憶する。補助記憶装置1214は、例えばハードディスクドライブ等で構成され、画像データおよび音声データ等の様々なデータを記憶する。 The CPU 1211 controls the entire image processing apparatus 110 using computer programs and data stored in the ROM 1212 or RAM 1213. Note that the image processing device 110 may include one or more dedicated hardware different from the CPU 1211, and the dedicated hardware may execute at least part of the processing by the CPU 1211. Examples of specialized hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gateways), and DSPs (Digital Signal Processors). The ROM 1212 stores programs that do not require modification. The RAM 1213 temporarily stores programs and data supplied from the auxiliary storage device 1214, data supplied from the outside via the communication I/F 1217, and the like. The auxiliary storage device 1214 is configured with, for example, a hard disk drive, and stores various data such as image data and audio data.

表示部1215は、例えば液晶ディスプレイ、あるいはLED等で構成され、ユーザが画像処理装置110を操作するためのGUI(グラフィカルユーザインターフェース)等を表示する。操作部1216は、例えばキーボード、マウス、ジョイスティック、およびタッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU1211に入力する。CPU1211は、表示部1215を制御する表示制御部、および操作部1216を制御する操作制御部として動作する。通信I/F1217は、画像処理装置110の外部の装置との通信に用いられる。例えば、画像処理装置110が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1217に接続される。画像処理装置110が外部の装置と無線通信する機能を有する場合には、通信I/F1217はアンテナを備える。バス1218は、画像処理装置110の各部をつないで情報を伝達する。 The display unit 1215 is configured with, for example, a liquid crystal display or an LED, and displays a GUI (graphical user interface) or the like for the user to operate the image processing device 110. The operation unit 1216 includes, for example, a keyboard, a mouse, a joystick, a touch panel, and the like, and inputs various instructions to the CPU 1211 in response to user operations. The CPU 1211 operates as a display control unit that controls the display unit 1215 and an operation control unit that controls the operation unit 1216. The communication I/F 1217 is used for communication with an external device of the image processing device 110. For example, when the image processing device 110 is connected to an external device by wire, a communication cable is connected to the communication I/F 1217. When the image processing device 110 has a function of wirelessly communicating with an external device, the communication I/F 1217 includes an antenna. A bus 1218 connects each part of the image processing device 110 and transmits information.

本実施形態では、表示部1215と操作部1216が画像処理装置110の内部に存在するものとするが、表示部1215と操作部1216との少なくとも一方が画像処理装置110の外部に別の装置として存在していてもよい。 In this embodiment, the display section 1215 and the operation section 1216 are assumed to exist inside the image processing apparatus 110, but at least one of the display section 1215 and the operation section 1216 is installed outside the image processing apparatus 110 as a separate device. May exist.

以上が、画像処理装置110のハードウェア構成についての説明である。画像生成装置120におけるCPU1221、ROM1222、RAM1223、補助記憶装置1224、表示部1225、操作部1226、通信I/F1227、および、バス1228についても、それぞれ、画像処理装置110におけるCPU1211、ROM1212、RAM1213、補助記憶装置1214、表示部1215、操作部1216、通信I/F1217、および、バス1218と同様の機能を有する。 The above is a description of the hardware configuration of the image processing device 110. The CPU 1221, ROM 1222, RAM 1223, auxiliary storage device 1224, display unit 1225, operation unit 1226, communication I/F 1227, and bus 1228 in the image generation device 120 are also used for the CPU 1211, ROM 1212, RAM 1213, and auxiliary memory in the image processing device 110, respectively. It has the same functions as the storage device 1214, display section 1215, operation section 1216, communication I/F 1217, and bus 1218.

図1は、画像処理システム100の一部の機能構成を説明するための図である。以下、各処理部について説明する。 FIG. 1 is a diagram for explaining the functional configuration of a part of the image processing system 100. Each processing section will be explained below.

撮像装置101は、撮像領域を撮像し、取得した撮像画像を素材データ生成部102に送信する。撮像領域は、例えばサッカーあるいは空手等の競技が行われる競技場、もしくはコンサートあるいは演劇が行われる舞台等である。また、画像処理システム100は複数の撮像装置101を有する。図13は、複数の撮像装置101が配置される一例である。複数の撮像装置101は撮像領域を囲むようにそれぞれ異なる位置に配置され、互いに同期した状態で撮像を行う。また撮像装置101は、ネットワーク等により画像処理装置110と接続されている。なお、複数の撮像装置101は撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、撮像装置101の数は図13に示す例に限定されず、例えば撮像領域をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮像装置101が設置されてもよい。また、望遠カメラと広角カメラ等、機能が異なる撮像装置が設置されていてもよい。 The imaging device 101 images an imaging area and transmits the acquired image to the material data generation unit 102. The imaging area is, for example, a stadium where a competition such as soccer or karate is held, or a stage where a concert or play is held. Further, the image processing system 100 includes a plurality of imaging devices 101. FIG. 13 is an example in which a plurality of imaging devices 101 are arranged. The plurality of imaging devices 101 are arranged at different positions surrounding the imaging area, and perform imaging in synchronization with each other. Further, the imaging device 101 is connected to an image processing device 110 via a network or the like. Note that the plurality of imaging devices 101 do not need to be installed all around the imaging area, and may be installed only in a part of the imaging area depending on restrictions on the installation location. Further, the number of imaging devices 101 is not limited to the example shown in FIG. 13; for example, when the imaging area is a soccer stadium, about 30 imaging devices 101 may be installed around the stadium. . Furthermore, imaging devices with different functions, such as a telephoto camera and a wide-angle camera, may be installed.

素材データ生成部102は、複数の撮像装置101から撮像画像を取得し、該撮像画像に基づいて仮想視点画像を生成するための素材データを生成する。ここで、仮想視点画像とは、撮像領域における任意の視点(仮想視点)からの見えを表す画像である。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した仮想視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した仮想視点に対応する画像なども仮想視点画像に含まれる。また素材データとは、仮想視点画像を生成するためのデータであって、撮像装置101によって撮像された撮像画像、および該撮像画像に基づいて生成されるデータのことを示す。撮像画像に基づいて生成される素材データは、例えば、撮像領域における被写体の三次元モデルデータ、および三次元モデルに色付けするためのテクスチャデータ等のデータである。素材データの種類は、上記のデータに限らない。例えば、撮像画像を撮像した撮像装置101のカメラパラメータが素材データに含まれていてもよい。カメラパラメータは、例えば、撮像装置101の位置、向き、および焦点距離等を示すパラメータである。上記のように、素材データは、仮想視点画像の生成のために必要なデータであり、その種類は限定されない。以下、素材データの生成手法について説明する。 The material data generation unit 102 acquires captured images from the plurality of imaging devices 101, and generates material data for generating a virtual viewpoint image based on the captured images. Here, the virtual viewpoint image is an image representing the view from an arbitrary viewpoint (virtual viewpoint) in the imaging region. The virtual viewpoint image in this embodiment is also called a free viewpoint video, but is not limited to an image corresponding to a virtual viewpoint freely (arbitrarily) designated by the user, and is, for example, a virtual viewpoint image selected by the user from a plurality of candidates. Images corresponding to the viewpoint are also included in the virtual viewpoint image. Further, material data is data for generating a virtual viewpoint image, and refers to a captured image captured by the imaging device 101 and data generated based on the captured image. The material data generated based on the captured image is, for example, data such as three-dimensional model data of the subject in the captured area and texture data for coloring the three-dimensional model. The type of material data is not limited to the above data. For example, camera parameters of the imaging device 101 that captured the captured image may be included in the material data. The camera parameters are, for example, parameters indicating the position, orientation, focal length, etc. of the imaging device 101. As described above, the material data is data necessary for generating a virtual viewpoint image, and its type is not limited. The method of generating material data will be described below.

素材データ生成部102は、取得した複数の撮像画像から、前景領域を抽出した前景画像を生成する。前景とは、撮像領域における位置が変化する被写体(例えば、スタジアム内におけるボール、および選手等)である。撮像領域における前景以外の被写体を背景とする。前景抽出の手法は、例えば前景に対応する被写体がいない状態の撮像領域を撮像した撮像画像と、前景に対応する被写体がいる状態の撮像領域を撮像した撮像画像との差分を取ることにより、前景領域を抽出することができる。前景を抽出する手法については、上記の例に限定されない。素材データ生成部102は、抽出された前景画像を用いて、前景の三次元モデルを生成する。三次元モデルの生成には、例えば公知技術である視体積交差法などの手法が用いられる。ただし、三次元モデルの生成手法には視体積交差法以外の手法が用いられてもよい。素材データ生成部102は、取得した複数の撮像画像、および、撮像画像に基づいて生成した前景画像および三次元モデル等の素材データを保存部104に送信する。 The material data generating unit 102 generates a foreground image by extracting a foreground region from the multiple captured images. The foreground is a subject whose position in the captured image changes (for example, a ball in a stadium, a player, etc.). Subjects other than the foreground in the captured image are used as the background. For example, the foreground can be extracted by taking the difference between a captured image of an image captured in a state where there is no subject corresponding to the foreground and a captured image of an image captured in a state where there is a subject corresponding to the foreground. The method of extracting the foreground is not limited to the above example. The material data generating unit 102 generates a three-dimensional model of the foreground using the extracted foreground image. For example, a method such as a volume intersection method, which is a publicly known technology, is used to generate the three-dimensional model. However, a method other than the volume intersection method may be used to generate the three-dimensional model. The material data generating unit 102 transmits the multiple captured images obtained, and material data such as a foreground image and a three-dimensional model generated based on the captured images to the storage unit 104.

なお、本実施形態においては仮想視点画像における前景を構成する方法として三次元モデル生成方式を使用する例について記載しているが、前景を構成する方法はこれに限らない。例えば、近接する撮像装置101の間に位置する視点から見た被写体を、当該近接する撮像画像101の位置関係に応じて補間および合成することにより、仮想視点画像における前景を構成するモーフィング処理方式が用いられてもよい。また例えば、前景画像を三次元空間上に射影変換することにより、仮想視点画像における前景を構成するビルボーディング方式が用いられてもよい。モーフィング処理方式およびビルボーディング方式、あるいはその他の手法を使用する場合、必要な素材データの種類は三次元モデル生成方式と異なる。この場合についても、素材データ生成部102は必要な素材データの生成を行い、保存部104へ送信する。 Note that although this embodiment describes an example in which a three-dimensional model generation method is used as a method for configuring the foreground in a virtual viewpoint image, the method for configuring the foreground is not limited to this. For example, a morphing processing method can be used to configure the foreground in a virtual viewpoint image by interpolating and composing a subject viewed from a viewpoint located between adjacent imaging devices 101 according to the positional relationship of the adjacent captured images 101. may be used. For example, a billboarding method may be used in which the foreground in the virtual viewpoint image is configured by projectively transforming the foreground image onto a three-dimensional space. When using the morphing processing method, billboarding method, or other methods, the type of material data required is different from the three-dimensional model generation method. In this case as well, the material data generation unit 102 generates necessary material data and transmits it to the storage unit 104.

また、素材データ生成部102は、素材データ生成の過程において、仮想視点画像の品質を向上させるための補正処理を行う。以下、素材データ生成部102が行う補正処理の一例と、それぞれの補正処理の方法について説明する。 In addition, the material data generation unit 102 performs correction processing to improve the quality of the virtual viewpoint image during the material data generation process. Below, an example of the correction processing performed by the material data generation unit 102 and the method of each correction processing are described.

歪補正処理は、撮像装置101が有するレンズの光学的な特性により歪みが生じた撮像画像を補正する補正処理である。素材データ生成部102は、撮像装置101が有するレンズの光学的な特性を示すパラメータをあらかじめ取得しておき、歪みが発生した撮像画像に対しパラメータに応じて演算処理を行うことにより、歪みを補正する。 The distortion correction process is a correction process that corrects a captured image that is distorted due to the optical characteristics of a lens included in the imaging apparatus 101. The material data generation unit 102 acquires in advance parameters indicating the optical characteristics of the lens included in the imaging device 101, and corrects the distortion by performing arithmetic processing on the distorted captured image according to the parameters. do.

ノイズ削減処理は、撮像画像に発生したノイズを削減する補正処理である。撮像画像のノイズは、例えば、撮像領域が暗い場合に撮像装置101の撮像センサーの感度を上げて撮像を行う場合に発生しやすい。素材データ生成部102は、ノイズが発生した撮像画像に対し、バイラテラルフィルタ等を用いたフィルタ処理を行うことにより、ノイズを削減する。 Noise reduction processing is a correction process that reduces noise that occurs in a captured image. Noise in a captured image is likely to occur, for example, when the imaging area is dark and the sensitivity of the imaging sensor of the imaging device 101 is increased to capture the image. The material data generation unit 102 reduces noise by performing filtering processing using a bilateral filter or the like on the captured image in which noise has occurred.

キャリブレーション処理は、複数の撮像装置101が撮像する撮像画像に基づいて、画像処理を用いてカメラパラメータを補正する補正処理である。仮想視点画像は複数の撮像画像に基づいて生成されるため、複数の撮像装置101の位置関係を示すカメラパラメータの精度が高いほど、生成される仮想視点画像の精度も向上する。素材データ生成部102は、複数の撮像装置101から取得した複数の撮像画像に対し、各撮像画像における共通する特徴点を指定する特徴点抽出処理を行う。該指定された共通の特徴点は世界座標における共通の座標である。素材データ生成部102は、共通の座標を利用して当該複数の撮像画像を撮像した複数の撮像装置101の位置関係を把握し、該位置関係に基づいてカメラパラメータを補正する。以上説明したキャリブレーション処理は、撮像領域の撮像の開始時に撮像装置101の位置関係を取得するときに行われる。また画像処理システム100の動作中に撮像装置101が振動等により位置または向き等が変化した場合に、カメラパラメータを補正する目的で行われる。 The calibration process is a correction process that corrects camera parameters using image processing based on captured images captured by the plurality of imaging devices 101. Since the virtual viewpoint image is generated based on a plurality of captured images, the higher the accuracy of the camera parameters indicating the positional relationship of the plurality of imaging devices 101, the higher the accuracy of the generated virtual viewpoint image. The material data generation unit 102 performs a feature point extraction process on a plurality of captured images acquired from a plurality of imaging devices 101 to specify a common feature point in each captured image. The designated common feature point is a common coordinate in world coordinates. The material data generation unit 102 uses common coordinates to grasp the positional relationship of the plurality of imaging devices 101 that have captured the plurality of captured images, and corrects camera parameters based on the positional relationship. The calibration process described above is performed when acquiring the positional relationship of the imaging device 101 at the start of imaging of the imaging area. Further, this is performed for the purpose of correcting camera parameters when the position or orientation of the imaging device 101 changes due to vibration or the like during operation of the image processing system 100.

振動補正処理は、撮像装置101の振動により発生する、撮像画像どうしの位置ずれを補正する処理である。撮像装置101が撮像中に振動することにより、撮像装置101の位置あるいは向きがずれる場合がある。これにより撮像位置がずれるため、撮像装置101が連続して撮像を行ったときに撮像画像どうしの位置ずれが発生する。撮像画像どうしの位置ずれが発生すると、撮像画像に基づいて生成される素材データの品質が低下したり、当該撮像画像を用いて仮想視点画像の動画を生成した時に動画の映像が振動したりする恐れがある。素材データ生成部102は、例えば、撮像装置101が有するジャイロセンサに基づいて振動量を取得したり、連続して撮像した撮像画像を参照し、撮像画像どうしの特徴点のずれに基づいて振動量を算出したりすることが可能である。素材データ生成部102は、取得あるいは算出した振動量に基づいて撮像画像に対し画像処理を行うことにより、撮像画像どうしの位置ずれを補正する。上記は位置ずれが発生した撮像画像に対し補正を行う処理の例であるが、撮像装置101が、撮像画像どうしの位置ずれを発生させないための機能を有していてもよい。撮像画像どうしの位置ずれを発生させないための機能は、例えば、光学式手ぶれ補正機能などがある。撮像装置101が、撮像画像どうしの位置ずれを発生させないための機能を有する場合、撮像装置101は、撮像時に振動補正処理を行ったことを素材データ生成部102へ通知する。 The vibration correction process is a process for correcting positional deviations between captured images caused by vibrations of the imaging device 101. When the imaging device 101 vibrates during imaging, the position or orientation of the imaging device 101 may shift. As a result, the imaging position shifts, so that when the imaging device 101 continuously captures images, the captured images are shifted in position. If a positional shift occurs between captured images, the quality of material data generated based on the captured images may deteriorate, or when a video of a virtual viewpoint image is generated using the captured images, the video image may vibrate. There is a fear. For example, the material data generation unit 102 obtains the amount of vibration based on a gyro sensor included in the imaging device 101, or refers to continuously captured images, and calculates the amount of vibration based on the deviation of feature points between the captured images. It is possible to calculate. The material data generation unit 102 corrects positional deviations between the captured images by performing image processing on the captured images based on the acquired or calculated amount of vibration. Although the above is an example of a process of correcting a captured image in which a positional shift has occurred, the imaging apparatus 101 may have a function to prevent positional shift between captured images. An example of a function for preventing positional deviation between captured images is an optical image stabilization function. If the imaging device 101 has a function to prevent positional deviation between captured images, the imaging device 101 notifies the material data generation unit 102 that vibration correction processing has been performed during imaging.

以上説明したように、素材データ生成部102は素材データの生成過程において素材データの補正処理を行う。上記の説明においては一例として撮像画像およびカメラパラメータの補正処理について述べたが、素材データ生成部102が補正する素材データはこれに限定されない。例えば素材データ生成部102が前景画像を生成した際に、本来であれば背景として分離されるべき領域がノイズとして前景画像に含まれる場合がある。このとき素材データ生成102は、前景以外のノイズを除去する補正処理を行うことが可能である。なお、上記の補正処理の種類及び補正方法は一例であり、素材データ生成部102が他の補正処理を行ったり、他の補正方法を使用したりしてもよい。他の補正処理としては、例えば色情報を補正する色補正処理等がある。また、補正処理は必須の処理ではないため、素材データ生成部102が補正処理を行わずに素材データを生成する場合もある。 As explained above, the material data generation unit 102 performs material data correction processing in the material data generation process. In the above description, correction processing of a captured image and camera parameters was described as an example, but the material data corrected by the material data generation unit 102 is not limited to this. For example, when the material data generation unit 102 generates a foreground image, an area that should normally be separated as a background may be included in the foreground image as noise. At this time, the material data generation 102 can perform correction processing to remove noise other than the foreground. Note that the types of correction processing and correction methods described above are merely examples, and the material data generation unit 102 may perform other correction processing or use other correction methods. Other correction processing includes, for example, color correction processing for correcting color information. Furthermore, since the correction process is not an essential process, the material data generation unit 102 may generate material data without performing the correction process.

生成情報取得部103は、素材データ生成部102が素材データを生成する際の生成処理に係る情報を素材データ生成部102から取得する。生成処理に係る情報(以下、生成情報と呼ぶ)は、画像処理装置110が実行した処理を特定可能な情報である。生成情報は、例えば、素材データ生成部102が素材データ生成処理において行う処理の種別を示す情報、および当該処理を行ったか否かを示す情報等である。素材データ生成部102が行う処理の種別とはすなわち、前景抽出処理、三次元モデル生成処理、歪補正処理やノイズ削減処理等の補正処理、あるいは、上記の処理に用いられる手法を示す情報である。上記の処理は最終的に仮想視点画像を生成するために行われる画像処理であり、後述する画像生成装置120が上記の処理を行う構成であってもよい。しかしながら、画像処理装置110と画像生成装置120との間で何の処理が行われたか、あるいは行われていないかについての整合性をとる必要がある。生成情報を取得することにより、画像生成装置120は生成情報を参照し、仮想視点画像の生成時に行うべき処理を行うことができるようになる。生成情報取得部103は、取得した生成情報を保存部104へ送信する。 The generation information acquisition unit 103 acquires from the material data generation unit 102 information related to generation processing when the material data generation unit 102 generates material data. Information related to the generation process (hereinafter referred to as generation information) is information that can specify the process executed by the image processing apparatus 110. The generation information includes, for example, information indicating the type of processing performed by the material data generation unit 102 in the material data generation processing, information indicating whether the processing has been performed, and the like. The type of processing performed by the material data generation unit 102 is information indicating a foreground extraction process, a three-dimensional model generation process, a correction process such as a distortion correction process or a noise reduction process, or a method used for the above process. . The above processing is image processing performed to finally generate a virtual viewpoint image, and the image generation device 120 described below may be configured to perform the above processing. However, it is necessary to ensure consistency between the image processing device 110 and the image generation device 120 as to what processing has or has not been performed. By acquiring the generation information, the image generation device 120 can refer to the generation information and perform processing that should be performed when generating the virtual viewpoint image. The generation information acquisition unit 103 transmits the acquired generation information to the storage unit 104.

保存部104は、素材データ生成部102および生成情報取得部103から取得した素材データおよび生成情報を保存する。保存部104はストレージデバイスであるとする。保存部104は例えば、Hard Disk Drive(HDD)、Solid State Drive(SSD)、あるいはフラッシュメモリ等により構成される。保存部104は単一のデバイスであってもよいし、複数のデバイスの集合体であってもよい。また保存部104は、複数種類のデバイスにより構成されていてもよいし、ネットワーク上に仮想化されたクラウド上のデバイスでもよい。 The storage unit 104 stores the material data and generation information acquired from the material data generation unit 102 and the generation information acquisition unit 103. It is assumed that the storage unit 104 is a storage device. The storage unit 104 includes, for example, a Hard Disk Drive (HDD), a Solid State Drive (SSD), or a flash memory. The storage unit 104 may be a single device or a collection of multiple devices. Furthermore, the storage unit 104 may be configured of multiple types of devices, or may be a device on a cloud virtualized on a network.

関連付け部105は、保存部104に保存されている素材データと、該素材データの生成処理に係る情報(生成情報)とを関連付ける処理を行い、関連付けを行ったデータを保存部104へ出力する。関連付けの一例として、素材データに対し生成情報をメタデータとして付与した素材データファイルを生成する方法について説明する。 The association unit 105 performs a process of associating the material data stored in the storage unit 104 with information related to the generation process of the material data (generation information), and outputs the associated data to the storage unit 104. As an example of association, a method of generating a material data file in which generation information is added as metadata to material data will be described.

図2は、関連付け部105が生成する素材データファイルの構成の一例を説明するための図である。素材データ201には、素材データ生成部102において生成された前景画像および三次元モデル、および、カメラパラメータ等の素材データが含まれる。素材データ201に付与されるメタデータ202には、素材データ201に含まれる素材データの生成処理に係る生成情報203が含まれる。生成情報203には、素材データの生成時に行われる処理の種類を示す処理情報204と、該処理に係るパラメータ205とが含まれる。処理情報204には、素材データの生成手法あるいは補正処理を示す情報が含まれる。パラメータ205には、対応する処理を行う際に使用された処理パラメータが含まれる。また、処理が行われなかった場合、当該処理を示す処理情報204に対応するパラメータ205には、当該処理が行われなかったことを示すパラメータが含まれる。図2が示す例において、処理Aおよび処理Cは素材データ生成部102によって行われ、処理Bは行われなかったことがわかる。パラメータ205に含まれるパラメータは、例えば、処理が行われなかった場合は「0」になる等、特定の状態と対応付けた符号であってもよい。 2 is a diagram for explaining an example of the configuration of a material data file generated by the association unit 105. The material data 201 includes material data such as a foreground image and a three-dimensional model generated by the material data generation unit 102, and camera parameters. The metadata 202 attached to the material data 201 includes generation information 203 related to the generation process of the material data included in the material data 201. The generation information 203 includes processing information 204 indicating the type of processing performed when generating the material data, and parameters 205 related to the processing. The processing information 204 includes information indicating the generation method or correction process of the material data. The parameters 205 include processing parameters used when performing the corresponding processing. In addition, if a processing is not performed, the parameters 205 corresponding to the processing information 204 indicating the processing include parameters indicating that the processing was not performed. In the example shown in FIG. 2, it can be seen that processing A and processing C were performed by the material data generation unit 102, and processing B was not performed. The parameters included in the parameters 205 may be codes associated with a specific state, such as being "0" when no processing was performed.

図3を用いて、関連付け部105が生成する素材データファイルの構成の別の一例について説明する。素材データ301には素材データが含まれる。また、メタデータ302には素材データ301に含まれる素材データの生成処理に係る生成情報303が含まれる。生成情報303には、素材データの生成時に行われる処理の内容を示す処理情報304と、該処理に係るパラメータ306が格納された場所を示すポインタ情報305とが含まれる。ポインタ情報305が示す場所に、対応する処理に使用されたパラメータ、あるいは処理が行われなかったことを示すパラメータが格納されている。図3のような構成にすることにより、生成情報303を表す符号が固定長となり、素材データの構造が設計しやすくなるという利点がある。 Another example of the structure of the material data file generated by the association unit 105 will be described using FIG. 3. The material data 301 includes material data. Further, the metadata 302 includes generation information 303 related to generation processing of the material data included in the material data 301. The generation information 303 includes processing information 304 indicating the content of the process performed when generating the material data, and pointer information 305 indicating the location where the parameter 306 related to the process is stored. A parameter used in the corresponding process or a parameter indicating that the process was not performed is stored at the location indicated by the pointer information 305. The configuration shown in FIG. 3 has the advantage that the code representing the generated information 303 has a fixed length, making it easier to design the structure of material data.

図4を用いて、関連付け部105が生成する素材データファイルの構成の別の一例について説明する。図4における素材データ401、メタデータ402、生成情報403、および、生成情報403に含まれる処理情報404およびパラメータ405の機能は、それぞれ図2における素材データ201、メタデータ202、生成情報203、処理情報204、パラメータ205と同様である。生成情報403には、処理情報404およびパラメータ405の他に、規格情報406が含まれる。規格情報406は、処理情報404が示す処理の内容について補足する情報である。例えば、ノイズ削減処理という一つの処理であっても各種のアルゴリズムが存在するため、どのアルゴリズムに基づいて補正処理を行ったかを示す情報を付与することで生成処理の内容をより詳細に把握できるようになる。一般的に多く使用される処理は規格が定義されている場合が想定される。したがって、処理情報404が示す処理が規格に基づいた処理である場合、規格情報406には、当該規格を示す情報が含まれる。また処理情報404が示す処理が、一般的な規格で定義されていない、システム独自の処理である場合は、規格情報406には、規格が定義されていない方法に基づく処理であることを示す情報が含まれる。このとき、システム独自の規定が定義されている場合は、当該独自の規定を示す情報が規格情報406に含まれていてもよい。なお、パラメータ405が、図3におけるポインタ情報305と同様の構成になっていてもよい。 Another example of the structure of the material data file generated by the association unit 105 will be explained using FIG. 4. The functions of the material data 401, metadata 402, generation information 403, and processing information 404 and parameters 405 included in the generation information 403 in FIG. This is similar to the information 204 and parameters 205. In addition to processing information 404 and parameters 405, generation information 403 includes standard information 406. Standard information 406 is information that supplements the content of the process indicated by process information 404. For example, since there are various algorithms for a single process, such as noise reduction processing, adding information indicating which algorithm was used to perform the correction process makes it possible to understand the details of the generation process in more detail. become. It is assumed that standards are defined for commonly used processes. Therefore, when the process indicated by the process information 404 is a process based on a standard, the standard information 406 includes information indicating the standard. Furthermore, if the process indicated by the process information 404 is a system-specific process that is not defined by a general standard, the standard information 406 includes information indicating that the process is based on a method for which no standard is defined. is included. At this time, if a system-specific regulation is defined, the standard information 406 may include information indicating the system-specific regulation. Note that the parameter 405 may have the same configuration as the pointer information 305 in FIG. 3.

図5を用いて、関連付け部105が生成する素材データファイルの構成の別の一例について説明する。以降、仮想視点画像を示す単位としてフレームという用語を使用する。すなわち、一つの仮想視点画像が1フレームに対応する。フレームを複数組み合わせることにより、仮想視点画像の動画を生成することもできる。素材データは、1フレーム分の仮想視点画像を生成するためのデータごとにまとめて使用される場合が多いため、素材データと生成情報の関連付けについてもフレーム単位で行うことにより、素材データの扱いが容易になる。図5は、60fps(frame per second)のフレームレートにしたがって素材データが生成される場合の、素材データファイルの構成の一例である。fpsは、フレームレートの単位であり、撮像画像が1秒間に何フレーム分撮像されるかを示す単位である。したがって、1フレーム分の素材データとは、1/60秒に対応する素材データである。素材データ501には、1フレーム分の素材データが含まれる。メタデータ502には、素材データ501に含まれる素材データの生成処理に係る生成情報503が含まれる。生成情報503の構成は、図2における生成情報203、図3における生成情報303、あるいは図4における生成情報403の構成と同様である。また、メタデータ502には、時刻情報504が含まれる。時刻情報504は、素材データ501に含まれる素材データがどの時刻のフレームに対応する素材データなのかを示す情報である。図5の例においては、T=1/60秒とし、撮像タイミング505に示すように、撮像画像がT=1、T=2、・・・のタイミングで撮像されている。素材データ501に含まれる素材データはT=0に対応する素材データであるので、時刻情報504は「T=0」を示す情報となる。時刻情報504のフォーマットとしては、例えば、SMPTE(Society of Motion Picture and Television Engineers)によって規格化されたタイムコード等がある。ただし、フォーマットはこれに限定されない。T=1、T=2、・・・に対応する素材データファイルの構成も、同様の構成となる。図5に示す構成により、例えば任意のフレームのみに対応する素材データを使用したり、連続する複数のフレームに対応する素材データをまとめて使用したりする場合にも、それぞれの素材データに関連付けられた生成情報を参照しやすいという効果がある。 Using FIG. 5, another example of the configuration of the material data file generated by the association unit 105 will be described. Hereinafter, the term frame will be used as a unit indicating a virtual viewpoint image. That is, one virtual viewpoint image corresponds to one frame. By combining a plurality of frames, a video of a virtual viewpoint image can also be generated. Since material data is often used in a lump for each data for generating one frame of a virtual viewpoint image, the material data and the generation information are also associated in units of frames, making it easier to handle the material data. FIG. 5 shows an example of the configuration of a material data file when material data is generated according to a frame rate of 60 fps (frames per second). fps is a unit of frame rate, which indicates how many frames of a captured image are captured per second. Therefore, one frame of material data is material data corresponding to 1/60 seconds. The material data 501 includes one frame of material data. The metadata 502 includes generation information 503 related to the generation process of the material data included in the material data 501. The configuration of the generation information 503 is the same as that of the generation information 203 in FIG. 2, the generation information 303 in FIG. 3, or the generation information 403 in FIG. 4. The metadata 502 also includes time information 504. The time information 504 is information indicating which frame of the time the material data included in the material data 501 corresponds to. In the example of FIG. 5, T=1/60 seconds, and as shown in the imaging timing 505, the captured images are captured at the timings of T=1, T=2, . . . Since the material data included in the material data 501 corresponds to T=0, the time information 504 is information indicating "T=0". As an example of the format of the time information 504, there is a time code standardized by the Society of Motion Picture and Television Engineers (SMPTE). However, the format is not limited to this. The configuration of the material data files corresponding to T=1, T=2, . . . is also the same. The configuration shown in FIG. 5 has the advantage that it is easy to refer to the generation information associated with each piece of material data, even when using material data corresponding to only a specific frame, or when using material data corresponding to multiple consecutive frames together.

図6を用いて、関連付け部105が生成する素材データファイルの構成の別の一例について説明する。図6の例においては、撮影タイミングT=0~T=N-1に対応するフレームの素材データは、同じ生成処理によって生成されたものとする。このとき、T=0~T=N-1に対応する素材データは、同じ生成情報が関連付けられる。したがって、生成情報が同じであるフレームをまとめてフレームセットとし、フレームセットに対し生成情報を関連付ける構成とすることが可能である。フレームセット601には、T=0~T=N-1に対応するフレームの素材データが含まれている。各素材データ602にはメタデータ603が付与されている。メタデータ603には、図5における時刻情報504と同様の時刻情報が含まれており、フレームセットに含まれるフレームがどの撮影タイミングに対応するフレームであるかを区別できるようになっている。フレームセット601に対してもメタデータ604が付与される。メタデータ604には、生成情報605が含まれる。生成情報605の構成は、図2における生成情報203、図3における生成情報303、あるいは図4における生成情報403の構成と同様である。データセット601に対し生成情報605が関連付けられることにより、データセット601に含まれる素材データが、生成情報605によって示される共通の処理によって生成されたことがわかる。また、T=Nにおいて生成情報が変化したとする。生成情報が変化するタイミングは、例えば、素材データの生成処理の内容が変更されたタイミング、あるいは、処理に係るパラメータが変更されたタイミングである。次にT=Mにおいて生成情報が変化するまで、生成情報はT=N~T=M-1において同じとなる。したがって、フレームセット606にはT=N~T=M-1に対応するフレームの素材データが含まれ、フレームセット606に付与されるメタデータ607には変化後の生成情報608が含まれる。以降の撮影タイミングに対応するフレームについても、同様の構成となる。図6のような構成にすることにより、共通する生成処理に対応する素材データを使用することが容易になる。また、フレームセットに生成情報を付与することにより、フレーム一つ一つに生成情報を付与する必要がなくなり、素材データファイルのデータ量が削減される効果がある。 Another example of the structure of the material data file generated by the association unit 105 will be explained using FIG. 6. In the example of FIG. 6, it is assumed that the material data of the frames corresponding to the shooting timings T=0 to T=N-1 are generated by the same generation process. At this time, the material data corresponding to T=0 to T=N-1 are associated with the same generation information. Therefore, it is possible to create a configuration in which frames with the same generation information are grouped together into a frame set, and the generation information is associated with the frame set. The frame set 601 includes material data of frames corresponding to T=0 to T=N-1. Each material data 602 is given metadata 603. The metadata 603 includes time information similar to the time information 504 in FIG. 5, so that it can be distinguished to which shooting timing a frame included in a frame set corresponds. Metadata 604 is also added to the frame set 601. The metadata 604 includes generation information 605. The configuration of generation information 605 is similar to the configuration of generation information 203 in FIG. 2, generation information 303 in FIG. 3, or generation information 403 in FIG. 4. By associating the generation information 605 with the dataset 601, it can be seen that the material data included in the dataset 601 was generated by a common process indicated by the generation information 605. Also, assume that the generated information changes at T=N. The timing at which the generation information changes is, for example, the timing at which the content of the material data generation process is changed, or the timing at which the parameters related to the process are changed. Next, the generation information remains the same from T=N to T=M-1 until the generation information changes at T=M. Therefore, the frame set 606 includes material data of frames corresponding to T=N to T=M-1, and the metadata 607 added to the frame set 606 includes generated information 608 after the change. Frames corresponding to subsequent shooting timings also have a similar configuration. By configuring as shown in FIG. 6, it becomes easy to use material data corresponding to common generation processing. Furthermore, by adding generation information to the frame set, it is no longer necessary to add generation information to each frame, which has the effect of reducing the amount of data in the material data file.

図7を用いて、関連付け部105が生成する素材データファイルの構成の別の一例について説明する。図7に示す素材データファイルは、一定数のフレーム(Nフレーム)をまとめてフレームセットとし、該フレームセットに対して生成情報を関連付ける構成となっている。フレームセット701には、T=0~T=N-1に対応するN個のフレームが含まれる。それぞれのフレームの素材データ702には、メタデータ703が付与される。メタデータ703には、図5における時刻情報504と同様の時刻情報が含まれる。フレームセット701にはメタデータ704が付与され、該メタデータ704には時間範囲情報705および生成情報706が含まれる。生成情報706の構成は、図2における生成情報203、図3における生成情報303、あるいは図4における生成情報403の構成と同様である。時間範囲情報705は、対応する生成情報706がどの撮影タイミングにおける生成情報なのかを示す情報である。例えば、T=0~T=N-1の間における撮影タイミングである、T=n~T=mの間で生成情報が同じである場合、時間範囲情報705は、T=n~T=mの時間範囲を表す情報となる。またこのときの時間範囲情報705に対応する生成情報706には、T=n~T=mに対応する素材データに係る生成情報が含まれる。T=N以降のフレームについても同様に、Nフレームごとにフレームセットが構成され、メタデータが付与される。図7のような構成にすることにより、一定の時間範囲に応じて素材データを使用することが容易になる。 Another example of the structure of the material data file generated by the association unit 105 will be described using FIG. 7. The material data file shown in FIG. 7 has a configuration in which a certain number of frames (N frames) are collectively made into a frame set, and generation information is associated with the frame set. Frame set 701 includes N frames corresponding to T=0 to T=N-1. Metadata 703 is added to the material data 702 of each frame. Metadata 703 includes time information similar to time information 504 in FIG. 5. Metadata 704 is added to the frame set 701, and the metadata 704 includes time range information 705 and generation information 706. The configuration of the generation information 706 is similar to the configuration of the generation information 203 in FIG. 2, the generation information 303 in FIG. 3, or the generation information 403 in FIG. 4. The time range information 705 is information indicating at which imaging timing the corresponding generation information 706 is generated. For example, if the generated information is the same between T=n and T=m, which is the shooting timing between T=0 and T=N-1, the time range information 705 is T=n to T=m. This information represents the time range of . Further, the generation information 706 corresponding to the time range information 705 at this time includes generation information related to material data corresponding to T=n to T=m. Similarly, for frames after T=N, a frame set is constructed every N frames, and metadata is added. By configuring as shown in FIG. 7, it becomes easy to use material data according to a certain time range.

以上説明した素材データファイルの構成の他にも、素材データに基づいて生成される仮想視点画像におけるシーンごとにフレームをまとめたフレームセットを構成し、該フレームセットに生成情報を関連付けてもよい。仮想視点画像におけるシーンは例えば、スポーツの試合に関する仮想視点画像におけるゴールシーン、試合の開始時、あるいは選手交代などがある。シーンの種類はこれに限定されない。仮想視点画像を利用するユーザによって要求されるシーンは異なることが想定されるため、ユーザが要求するシーンに応じてフレームセットの構成を変更してもよい。 In addition to the configuration of the material data file described above, a frame set may be configured in which frames are grouped together for each scene in a virtual viewpoint image generated based on the material data, and generation information may be associated with the frame set. Scenes in the virtual viewpoint image include, for example, a goal scene in a virtual viewpoint image related to a sports match, the start of a match, or a change of players. The type of scene is not limited to this. Since it is assumed that different scenes are requested by users who use virtual viewpoint images, the configuration of the frame set may be changed depending on the scenes requested by the users.

以上説明した素材データファイルを生成することにより、共通のファイルフォーマットに準拠する他の画像処理装置、あるいは他の画像生成装置にも素材データが適用可能になるという効果がある。また、素材データの一部を扱う、あるいはまとめて扱う等の場合に、扱いが容易になるという効果がある。なお、素材データと生成情報とが必ずしも同じファイルである必要はない。例えば、図2から図7におけるメタデータに含まれる情報が、素材データとは別のファイルとして生成されてもよい。また、関連付け部105が行う素材データと生成情報との関連付けの方法は、素材データと生成情報とが紐づけられ、参照可能な状態になっていればよく、上記の方法に限定されない。関連付けが行われた素材データおよび生成情報は、保存部104に出力される。 By generating the material data file as described above, there is an effect that the material data can be applied to other image processing devices or other image generation devices that conform to a common file format. Furthermore, it has the effect of facilitating handling when handling part of the material data or handling them all at once. Note that the material data and the generated information do not necessarily need to be the same file. For example, the information included in the metadata in FIGS. 2 to 7 may be generated as a file separate from the material data. Further, the method of associating the material data and the generated information performed by the associating unit 105 is not limited to the above method, as long as the material data and the generated information are linked and can be referenced. The associated material data and generated information are output to the storage unit 104.

図8は、図1に示す画像処理システム100の一部が実行する処理を説明するためのフローチャートである。CPU1211がプログラムを実行することにより、図8に示す処理が行われる。以降、処理ステップを単にSと表記する。撮像装置101が撮像を開始すると、処理が開始される。S801において、撮像装置101は、撮像領域を撮像する。S802において、素材データ生成部102は、複数の撮像装置101から撮像画像を取得する。S803において、素材データ生成部102は、素材データの生成処理を行い、生成した素材データを保存部104に保存する。このときの素材データ生成部102が行う生成処理は、撮像画像に基づいて素材データを生成する処理と、素材データを生成する過程で行われる補正処理との少なくともいずれかである。S804において、生成情報取得部103は、素材データ生成部102が行った生成処理に係る生成情報を、素材データ生成部102から取得し、取得した生成情報を保存部104に保存する。S805において、関連付け部105は、保存部104に保存された素材データと、該素材データに係る生成情報とを関連付ける処理を行う。上述したように、関連付ける方法は特定の手法に限定されない。S806において、関連付け部105は、関連付けを行った素材データと生成情報とを保存部104に出力する。以上で、処理が終了する。 Figure 8 is a flowchart for explaining the processing executed by a part of the image processing system 100 shown in Figure 1. The processing shown in Figure 8 is performed by the CPU 1211 executing a program. Hereinafter, processing steps are simply denoted as S. When the imaging device 101 starts imaging, the processing starts. In S801, the imaging device 101 captures an imaging area. In S802, the material data generation unit 102 acquires captured images from the multiple imaging devices 101. In S803, the material data generation unit 102 performs a material data generation process and stores the generated material data in the storage unit 104. The generation process performed by the material data generation unit 102 at this time is at least one of a process of generating material data based on the captured image and a correction process performed in the process of generating the material data. In S804, the generation information acquisition unit 103 acquires generation information related to the generation process performed by the material data generation unit 102 from the material data generation unit 102, and stores the acquired generation information in the storage unit 104. In S805, the associating unit 105 performs processing to associate the material data stored in the storage unit 104 with the generation information related to the material data. As described above, the association method is not limited to a specific method. In S806, the associating unit 105 outputs the associated material data and generation information to the storage unit 104. This ends the processing.

なお、本実施形態においては素材データと該素材データに関連付けられた生成情報とを保存部104に出力する場合について説明したが、保存部104を介さずに後述する画像生成装置120に直接出力する構成としてもよい。また、本実施形態においては、保存部104と関連付け部105とが画像処理装置110の内部に含まれているが、保存部104および関連付け部105の一方または両方が画像処理装置110の外部に接続されている構成であってもよい。 Note that in this embodiment, a case has been described in which material data and generation information associated with the material data are output to the storage unit 104, but they may be directly output to the image generation device 120, which will be described later, without going through the storage unit 104. It may also be a configuration. Further, in this embodiment, the storage unit 104 and the association unit 105 are included inside the image processing device 110, but one or both of the storage unit 104 and the association unit 105 are connected to the outside of the image processing device 110. It may be configured as follows.

次に、画像処理システム100が有する画像生成装置120の機能構成について説明する。図9は、画像処理システム100が有する画像生成装置120の機能構成について説明するための図である。以下、各処理部について説明する。 Next, the functional configuration of the image generation device 120 included in the image processing system 100 will be described. FIG. 9 is a diagram for explaining the functional configuration of the image generation device 120 included in the image processing system 100. Each processing section will be explained below.

生成情報抽出部901は、保存部104に保存された素材データに関連付けられた生成情報を取得する。例えば、素材データと生成情報とが一つの素材データファイルとして保存されている場合は、生成情報抽出部901は、素材データファイルから生成情報に関するデータを抽出する処理を行う。生成情報抽出部901は、抽出した生成情報を画像生成部903に送信する。 The generation information extraction unit 901 acquires generation information associated with the material data stored in the storage unit 104. For example, if material data and generation information are stored as one material data file, the generation information extraction unit 901 performs a process of extracting data related to generation information from the material data file. The generation information extraction unit 901 transmits the extracted generation information to the image generation unit 903.

仮想視点指定部902は、ユーザによる操作等に基づき、仮想視点情報を決定する。ここで、仮想視点情報とは、撮像領域内における任意の視点(仮想視点)の位置および向きを示す情報である。仮想視点情報は、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。仮想視点情報の内容は上記に限定されない。例えば、仮想視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。仮想視点指定部902は、例えば、タッチパネル、ボタン、およびキーボード等の、内部または外部に接続される入力装置からの入力を受け付ける。仮想視点指定部902は、ユーザによる入力装置の操作等に基づいて決定される仮想視点の位置および向き等の情報、および、生成される仮想視点画像に対応する時刻等の仮想視点情報を決定し、該仮想視点情報を画像生成部903に送信する。このとき、ユーザによる入力操作によって決定される仮想視点情報に基づいて生成される仮想視点画像は、表示部904に表示される。ユーザは、表示部904に表示される仮想視点画像を見ながら入力操作を行うことができる。 The virtual viewpoint designation unit 902 determines virtual viewpoint information based on operations by the user. Here, the virtual viewpoint information is information indicating the position and orientation of an arbitrary viewpoint (virtual viewpoint) in the imaging area. The virtual viewpoint information is a parameter set including a parameter indicating the three-dimensional position of the virtual viewpoint and a parameter indicating the orientation of the virtual viewpoint in the pan, tilt, and roll directions. The contents of the virtual viewpoint information are not limited to the above. For example, the parameter set as the virtual viewpoint information may include a parameter indicating the size of the field of view (angle of view) of the virtual viewpoint. The virtual viewpoint designation unit 902 accepts input from an input device connected internally or externally, such as a touch panel, a button, or a keyboard. The virtual viewpoint designation unit 902 determines information such as the position and orientation of the virtual viewpoint determined based on operations of the input device by the user, and virtual viewpoint information such as the time corresponding to the virtual viewpoint image to be generated, and transmits the virtual viewpoint information to the image generation unit 903. At this time, the virtual viewpoint image generated based on the virtual viewpoint information determined by the input operation by the user is displayed on the display unit 904. The user can perform input operations while watching the virtual viewpoint image displayed on the display unit 904.

画像生成部903は、保存部104に保存されている素材データ、および、仮想視点指定部902から送信される仮想視点情報に基づいて、仮想視点画像を生成する。このとき、生成情報抽出部901から送信される生成情報に基づいて、追加処理を行うか否かを判断する。追加処理が必要であると判断した場合、画像生成部903は、追加処理を行う。例えば、生成情報に、素材データの生成処理において前景抽出処理が行われていないことを示す情報が含まれているとする。この場合、画像生成部903は追加処理が必要であると判断し、生成情報と関連付けられている素材データに対し前景抽出処理を追加処理として行う。また例えば、生成情報に、歪補正処理が行われたことを示す情報が含まれているとする。この場合、画像生成部903は、歪補正処理を追加で行う必要がないと判断する。 The image generation unit 903 generates a virtual viewpoint image based on the material data stored in the storage unit 104 and the virtual viewpoint information transmitted from the virtual viewpoint designation unit 902. At this time, it is determined whether or not to perform additional processing based on the generation information transmitted from the generation information extraction unit 901. If it is determined that additional processing is necessary, the image generation unit 903 performs the additional processing. For example, it is assumed that the generation information includes information indicating that foreground extraction processing has not been performed in the generation processing of the material data. In this case, the image generation unit 903 determines that additional processing is necessary and performs foreground extraction processing as additional processing on the material data associated with the generation information. Also, for example, it is assumed that the generation information includes information indicating that distortion correction processing has been performed. In this case, the image generation unit 903 determines that it is not necessary to perform additional distortion correction processing.

素材データに係る生成情報がない場合、画像生成部903は素材データがどのような処理を経て生成されたのかを知ることができない。このときに生じる問題点について説明する。例えば、本実施形態においては、画像処理装置110が前景抽出処理を行い、画像生成装置120が前景抽出処理の行われた素材データに基づいて仮想視点画像を生成する。しかしながら別の実施形態として仮想視点画像を生成する装置側で前景抽出処理を行う場合、素材データを生成する装置は、前景抽出処理を行わなくてもよい。素材データを生成する装置と仮想視点画像を生成する装置とで素材データの生成処理の整合性がとれていれば問題はないが、必ずしも整合性が取れた状態であるとは限らない。したがって、例えば前景抽出が行われていないことを画像生成部903が知ることができないと、画像生成部109は前景抽出がされていない素材データを前景抽出済みのデータとして使用し、仮想視点画像の生成ができなくなる恐れがある。また例えば、素材データに対し歪補正処理が行われていることを画像生成部903が知ることができないと、画像生成部109は追加処理として素材データに対し歪補正処理を行う場合がある。この場合、歪補正処理が重複し、仮想視点画像生成全体の処理時間が長くなったり、生成される仮想視点画像の精度が低下したりする恐れがある。また、本実施形態においては三次元モデル生成方式にしたがって素材データを生成する例について記載しているが、画像生成装置が三次元モデル生成方式に対応していない場合なども起こりうる。この場合も、生成情報がなければ、画像生成部903は素材データが何の方式にしたがって生成されたデータなのかを知ることができない。その結果、画像生成部903は仮想視点画像を生成することができなくなる恐れがある。素材データに生成情報が関連付けられることにより、画像生成部903は生成情報を参照することができ、上記のような問題が解決される。また、例えば補正処理のように必須ではない処理について、画像処理部903は生成情報を参照し、処理時間あるいは処理負荷等を考慮して追加処理を行うか否かを判断することも可能である。 If there is no generation information related to material data, the image generation unit 903 cannot know what kind of processing the material data has undergone to be generated. The problems that arise at this time will be explained. For example, in the present embodiment, the image processing device 110 performs foreground extraction processing, and the image generation device 120 generates a virtual viewpoint image based on the material data that has been subjected to the foreground extraction processing. However, as another embodiment, when the foreground extraction process is performed on the side of the device that generates the virtual viewpoint image, the device that generates the material data does not need to perform the foreground extraction process. There is no problem if the material data generation processing is consistent between the device that generates the material data and the device that generates the virtual viewpoint image, but this does not necessarily mean that the device is consistent. Therefore, for example, if the image generation unit 903 cannot know that foreground extraction has not been performed, the image generation unit 109 uses material data that has not been subjected to foreground extraction as foreground extracted data, and generates a virtual viewpoint image. There is a possibility that generation will not be possible. For example, if the image generation unit 903 cannot know that the distortion correction process is being performed on the material data, the image generation unit 109 may perform distortion correction processing on the material data as an additional process. In this case, there is a risk that the distortion correction processing will be repeated, resulting in an increase in the overall processing time for generating the virtual viewpoint image, or a decrease in the accuracy of the generated virtual viewpoint image. Furthermore, although this embodiment describes an example in which material data is generated according to a three-dimensional model generation method, there may be cases where the image generation device does not support the three-dimensional model generation method. In this case as well, without the generation information, the image generation unit 903 cannot know the method by which the material data was generated. As a result, the image generation unit 903 may not be able to generate a virtual viewpoint image. By associating the generation information with the material data, the image generation unit 903 can refer to the generation information, and the above problem is solved. Furthermore, for non-essential processing such as correction processing, the image processing unit 903 can also refer to the generated information and determine whether or not to perform additional processing, taking into account processing time, processing load, etc. .

画像生成部903が行う仮想視点画像の生成処理の一例について説明する。画像生成部903は、仮想視点指定部902から送信された仮想視点情報に基づき、仮想視点画像における被写体の座標を算出する。また画像生成部903は、撮像装置101のカメラパラメータに基づき、実際の撮像領域における被写体の座標を算出する。画像生成部903は、前記算出した被写体の座標と、複数の撮像装置101が撮像する被写体の色とに基づき、色の選定、あるいは複数の色のブレンドを行うことにより、仮想視点画像における被写体の色を決定する。画像生成部903は、決定した仮想視点画像上における被写体の色を、保存部104から取得した三次元モデルに着色することにより、仮想視点画像を生成する。生成された仮想視点画像は、表示部904に表示される。なお、以上説明した仮想視点画像の生成方法は、三次元モデル生成方式を使用した場合の例であるが、三次元モデル生成方式以外の手法を使用する場合の仮想視点画像の生成方法は、この限りではない。 An example of the virtual viewpoint image generation process performed by the image generation unit 903 will be described. The image generation unit 903 calculates the coordinates of the subject in the virtual viewpoint image based on the virtual viewpoint information transmitted from the virtual viewpoint designation unit 902. The image generation unit 903 also calculates the coordinates of the subject in the actual imaging area based on the camera parameters of the imaging device 101. The image generation unit 903 selects a color or blends a plurality of colors based on the calculated coordinates of the subject and the colors of the subject imaged by the plurality of imaging devices 101, thereby determining the color of the subject in the virtual viewpoint image. Decide on the color. The image generation unit 903 generates a virtual viewpoint image by coloring the three-dimensional model acquired from the storage unit 104 with the color of the subject on the determined virtual viewpoint image. The generated virtual viewpoint image is displayed on the display unit 904. Note that the method for generating a virtual viewpoint image explained above is an example when a three-dimensional model generation method is used, but the method for generating a virtual viewpoint image when using a method other than the three-dimensional model generation method is as follows. Not as long.

図10は、画像生成装置120が実行する処理を説明するためのフローチャートである。CPU1221がプログラムを実行することにより、図10に示す処理が行われる。仮想視点指定部1202がユーザによる仮想視点情報を決定するための入力操作等を検出すると、処理が開始される。S1001において、仮想視点指定部902は、ユーザによる入力操作等に基づいて仮想視点情報を決定し、画像生成部903へ送信する。S1002において、画像生成部903は、仮想視点指定部902から取得した仮想視点情報に基づいて、必要な素材データを保存部104から取得する。S1003において、生成情報抽出部901は、画像生成部903が取得した素材データと関連付けられた生成情報を取得し、画像生成部903へ送信する。S1004において、画像生成部903は、取得した生成情報に基づいて、追加処理が必要か否かを判断する。追加処理が必要であると判断した場合、S1005へ処理を進める。追加処理が必要ないと判断した場合、S1006へ処置を進める。S1005において、画像生成部903は、生成情報に基づいて追加処理を行う。S1006において、画像生成部903は、取得した素材データを使用して仮想視点画像を生成し、表示部904へ出力する。S1007において、表示部904は、画像生成部903により出力された仮想視点画像を表示する。S1008において、画像生成処置装置120は、ユーザによる入力操作等に基づいて、仮想視点画像の生成処理を終了するか否かを判断する。仮想視点画像の生成処理を終了すると判断した場合、処理を終了する。終了しないと判断した場合、再度S1001以降の処理を実行する。 FIG. 10 is a flowchart for explaining the processing executed by the image generation device 120. When the CPU 1221 executes the program, the processing shown in FIG. 10 is performed. When the virtual viewpoint specifying unit 1202 detects an input operation or the like by the user to determine virtual viewpoint information, processing is started. In S<b>1001 , the virtual viewpoint specifying unit 902 determines virtual viewpoint information based on the user's input operation, etc., and transmits it to the image generating unit 903 . In S1002, the image generation unit 903 acquires necessary material data from the storage unit 104 based on the virtual viewpoint information acquired from the virtual viewpoint designation unit 902. In S1003, the generation information extraction unit 901 acquires generation information associated with the material data acquired by the image generation unit 903, and transmits it to the image generation unit 903. In S1004, the image generation unit 903 determines whether additional processing is necessary based on the acquired generation information. If it is determined that additional processing is necessary, the process advances to S1005. If it is determined that additional processing is not necessary, the process advances to S1006. In S1005, the image generation unit 903 performs additional processing based on the generation information. In S1006, the image generation unit 903 generates a virtual viewpoint image using the acquired material data and outputs it to the display unit 904. In S1007, the display unit 904 displays the virtual viewpoint image output by the image generation unit 903. In S1008, the image generation processing device 120 determines whether to end the virtual viewpoint image generation processing based on the user's input operation or the like. If it is determined that the virtual viewpoint image generation process is to be finished, the process is finished. If it is determined that the process does not end, the process from S1001 onwards is executed again.

なお、本実施形態においては、表示部904が画像生成装置120の内部に含まれているが、表示部904は画像生成装置120の外部に接続される構成であってもよい。 Note that in this embodiment, the display unit 904 is included inside the image generation device 120, but the display unit 904 may be connected to the outside of the image generation device 120.

以上説明したように、素材データの生成処理に係る生成情報を素材データと関連付けることにより、素材データの生成時の処理内容を知ることができるようになる。また、生成情報を参照することにより、画像生成装置が素材データを用いて仮想視点画像を生成する際に必要な追加処理を行うことができるようになる。 As described above, by associating the generation information related to the process of generating material data with the material data, it becomes possible to know the details of the process at the time of generating the material data. Further, by referring to the generation information, the image generation device can perform additional processing necessary when generating a virtual viewpoint image using material data.

(第2の実施形態)
本実施形態において、素材データおよび該素材データに基づいて生成される仮想視点画像に関する情報をユーザに提供する画像処理システム100について説明する。なお、本実施形態における画像処理システム100のハードウェア構成および機能構成は第1の実施形態と同様であるものとする。また、本実施形態においては、第1の実施形態と処理が異なる部分についてのみ説明を行う。
Second Embodiment
In this embodiment, an image processing system 100 that provides a user with information about material data and a virtual viewpoint image generated based on the material data will be described. Note that the hardware configuration and functional configuration of the image processing system 100 in this embodiment are assumed to be similar to those in the first embodiment. In this embodiment, only parts of the processing that differ from those in the first embodiment will be described.

画像生成部903は、生成情報抽出部902から取得した生成情報に基づき、素材データおよび該素材データに基づいて生成される仮想視点画像に関する情報を表示部904に表示させる。図11は、表示部904が表示する情報の一例を説明するための図である。表示部904は、画像生成部903が生成した仮想視点画像のサムネイル1101、仮想時点画像の品質情報1103~1105、および素材データの生成処理に係る生成情報1106を表示する。画像生成部903は、素材データと、該素材データに関連付けられた生成情報とに基づいて仮想視点画像を生成し、生成した仮想視点画像をサムネイル1101として表示部904に表示させる。このとき、例えば素材データのフォーマットに対応していない等の理由により画像生成部903が仮想視点画像を生成できない場合、仮想視点画像が生成できなかったことを示す情報1102を表示部904に表示させる。また、画像生成部903は、素材データに係る生成情報と、生成情報に基づいて判断した仮想視点画像の品質に関する情報とを、表示部904に表示させる。例えば図11において、品質情報1103は、生成された仮想視点画像の品質が良好であることを表している。仮想視点画像の品質は、素材データの生成時に行われた補正処理の有無、冗長な処理がされていないか、あるいは補正処理に使用されたパラメータが適切であったかどうか等に基づいて判断される。また、品質情報1103に対応する生成情報1106は「歪補正有、ノイズリダクション強、ボクセルサイズ5mm」と表示されている。該生成情報によれば、ユーザは、該当する仮想視点画像は素材データの生成時に歪補正処理およびノイズ削減処理(ノイズリダクション)が行われたこと、また三次元モデルの解像度(ボクセルサイズ)が5mmであることを知ることができる。ここでいう解像度(ボクセルサイズ)は、実空間を単位体積の立方体(ボクセル)で区切った時の、ボクセルの一辺の長さで表される。すなわち、解像度(ボクセルサイズ)が5mmであるとき、三次元モデルは一辺が5mmであるボクセルの集合によって構成される。ただし、解像度の表し方は上記に限定されない。また例えば品質情報1104は、仮想視点画像が生成されたが、品質が所定の基準より低いことを表している。品質情報1105は、画像生成部903が仮想視点画像を生成できなかったことを表している。なお、表示される生成情報1106は、画像生成部903が追加処理を行った場合、該追加処理の結果を反映させた生成情報を表示するようにしてもよい。例えば、生成情報抽出部901が抽出した生成情報が「歪補正処理なし」であったため、画像生成部903が追加処理として歪補正処理を行った場合、表示部904は対応する生成情報1106に「歪補正有」と表示してもよい。 Based on the generation information acquired from the generation information extraction unit 902, the image generation unit 903 causes the display unit 904 to display information regarding the material data and the virtual viewpoint image generated based on the material data. FIG. 11 is a diagram for explaining an example of information displayed by the display unit 904. The display unit 904 displays thumbnails 1101 of virtual viewpoint images generated by the image generation unit 903, quality information 1103 to 1105 of virtual point-in-time images, and generation information 1106 related to material data generation processing. The image generation unit 903 generates a virtual viewpoint image based on the material data and the generation information associated with the material data, and causes the display unit 904 to display the generated virtual viewpoint image as a thumbnail 1101. At this time, if the image generation unit 903 is unable to generate a virtual viewpoint image for a reason such as not being compatible with the format of the material data, information 1102 indicating that the virtual viewpoint image could not be generated is displayed on the display unit 904. . Furthermore, the image generation unit 903 causes the display unit 904 to display generation information regarding the material data and information regarding the quality of the virtual viewpoint image determined based on the generation information. For example, in FIG. 11, quality information 1103 indicates that the quality of the generated virtual viewpoint image is good. The quality of the virtual viewpoint image is determined based on whether or not correction processing was performed when the material data was generated, whether redundant processing was performed, or whether the parameters used in the correction processing were appropriate. Further, the generated information 1106 corresponding to the quality information 1103 is displayed as "distortion correction provided, noise reduction strong, voxel size 5 mm". According to the generation information, the user is informed that the corresponding virtual viewpoint image has been subjected to distortion correction processing and noise reduction processing (noise reduction) when the material data was generated, and that the resolution (voxel size) of the three-dimensional model is 5 mm. You can know that. The resolution (voxel size) here is expressed by the length of one side of a voxel when real space is divided into cubes (voxels) of unit volume. That is, when the resolution (voxel size) is 5 mm, the three-dimensional model is constructed by a set of voxels each side of which is 5 mm. However, the way the resolution is expressed is not limited to the above. For example, quality information 1104 indicates that a virtual viewpoint image has been generated, but the quality is lower than a predetermined standard. Quality information 1105 indicates that the image generation unit 903 was unable to generate a virtual viewpoint image. Note that when the image generation unit 903 performs additional processing, the displayed generated information 1106 may display generated information that reflects the results of the additional processing. For example, if the image generation unit 903 performs distortion correction processing as additional processing because the generation information extracted by the generation information extraction unit 901 is “no distortion correction processing”, the display unit 904 displays the corresponding generation information 1106 as “No distortion correction processing”. It may also be displayed as "Distortion correction available".

以上説明したように、画像生成部903が素材データおよび該素材データに基づいて生成される仮想視点画像に関する情報を表示部904に表示させることにより、ユーザが生成する仮想視点画像を決定する際の補助となる情報を提供することができるようになる。ユーザは、表示された情報を参照しながら、所望の仮想視点画像を生成することができる。 As described above, the image generation unit 903 displays material data and information regarding the virtual viewpoint image generated based on the material data on the display unit 904, so that the user can easily determine the virtual viewpoint image to be generated. It will be possible to provide supporting information. The user can generate a desired virtual viewpoint image while referring to the displayed information.

(その他の実施形態)
上述の実施形態においては、画像処理装置110と画像生成装置120とが別々の装置であるシステムについて説明したが、これに限らない。画像処理装置110および画像生成装置120が同じ装置に含まれていてもよい。また、画像処理装置110または画像生成装置120に含まれる処理部の一部が別の装置として接続されていてもよい。さらに、画像処理装置110の機能が複数の撮像装置101のそれぞれに組み込まれ、画像処理装置110における各処理部と同様の処理を行う構成としてもよい。
(Other embodiments)
In the above embodiment, a system in which the image processing device 110 and the image generation device 120 are separate devices has been described, but the present invention is not limited to this. Image processing device 110 and image generation device 120 may be included in the same device. Further, a part of the processing unit included in the image processing device 110 or the image generation device 120 may be connected as a separate device. Furthermore, the functions of the image processing device 110 may be incorporated into each of the plurality of imaging devices 101 to perform the same processing as each processing unit in the image processing device 110.

また、上述の実施形態においては、生成情報が処理の種別を示す情報および画像処理装置110が当該処理を行ったか否かを示す情報を含む例について説明したが、生成情報に含まれる情報は上記に限らない。例えば画像生成装置120が、画像処理装置110と画像生成装置120との間で行うべき処理についてあらかじめ設定されている場合、生成情報は、画像処理装置110が実行した処理の種別を示す情報のみを含んでいてもよい。画像生成装置120は生成情報を参照することにより、生成情報に含まれていない処理種別については画像処理装置110において実行されていないと判断し、適切な追加処理を行うことができる。また上記の例においては、生成情報は画像処理装置110が実行しなかった処理の種別を示す情報のみを含んでいてもよい。画像生成装置120は、生成情報に含まれていない処理種別については画像処理装置110において実行されたものと判断し、適切な追加処理を行うことができる。上記の例のように、生成情報は、素材データに対して実行された処理を特定可能な情報であればよい。 Further, in the above-described embodiment, an example was described in which the generated information includes information indicating the type of processing and information indicating whether the image processing device 110 has performed the processing, but the information included in the generated information is Not limited to. For example, if the image generation device 120 is set in advance for processing to be performed between the image processing device 110 and the image generation device 120, the generation information may include only information indicating the type of processing executed by the image processing device 110. May contain. By referring to the generation information, the image generation device 120 can determine that processing types not included in the generation information are not being executed in the image processing device 110, and can perform appropriate additional processing. Further, in the above example, the generated information may include only information indicating the type of processing that the image processing device 110 did not execute. The image generation device 120 can determine that processing types not included in the generation information have been executed in the image processing device 110, and can perform appropriate additional processing. As in the above example, the generation information may be any information that allows identification of the processing performed on the material data.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上説明したように、本発明によれば、素材データと該素材データの生成処理に係る生成情報とを関連付けることにより、素材データの生成時にどのような画像処理が行われたか、あるいは行われていないかを知ることができるようになる。また、素材データに関連付けられた生成情報を参照することにより、画像生成装置が素材データを用いて仮想視点画像を生成する際に適切な処理を行うことができるようになる。 As described above, according to the present invention, by associating material data with generation information related to the generation process of the material data, it is possible to determine what kind of image processing was performed or not performed when the material data was generated. You will be able to know if there are any. Further, by referring to the generation information associated with the material data, the image generation device can perform appropriate processing when generating a virtual viewpoint image using the material data.

102 素材データ生成部
103 生成情報取得部
105 関連付け部
110 画像処理装置
102 Material data generation unit 103 Generation information acquisition unit 105 Association unit 110 Image processing device

Claims (16)

複数の撮像装置により撮像された複数の撮像画像に基づく仮想視点画像を生成するための素材データを生成する画像処理装置であって、
前記素材データを生成する素材データ生成手段と、
前記素材データ生成手段により生成された素材データと、該素材データの生成処理に係る生成情報とを関連付けて出力する出力手段と
を有し、
前記生成情報は、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されたか否かを示す情報を含み、
前記出力手段は、前記素材データと前記生成情報とに基づいて仮想視点画像を生成する画像生成装置であって、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されている場合、前記素材データに対し追加処理を実行せず、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されていない場合、前記素材データに対し追加処理を実行する前記画像生成装置に前記素材データと前記生成情報とを関連付けて出力する
ことを特徴とする画像処理装置。
An image processing device that generates material data for generating a virtual viewpoint image based on a plurality of captured images captured by a plurality of imaging devices,
Material data generation means for generating the material data;
an output means that associates and outputs the material data generated by the material data generation means and generation information related to the generation process of the material data;
The generation information includes information indicating whether a process of generating the material data or a process of correcting the material data has been performed on the material data,
The output means is an image generation device that generates a virtual viewpoint image based on the material data and the generation information, and the output means performs a process of generating the material data or a process of correcting the material data on the material data. If the material data has been processed, no additional processing is performed on the material data, and if no processing for generating the material data or processing for correcting the material data has been performed on the material data, additional processing is performed on the material data. An image processing apparatus characterized in that the material data and the generation information are outputted in association with each other to the image generation apparatus that executes the process.
前記素材データは、前記複数の撮像画像、および、該撮像画像に基づいて生成されるデータを含むことを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the material data includes the plurality of captured images and data generated based on the captured images. 前記素材データを生成する処理は、前景抽出処理、あるいは三次元モデル生成処理の少なくともいずれかを含むことを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the process of generating the material data includes at least one of a foreground extraction process and a three-dimensional model generation process. 前記素材データを補正する処理は、歪補正処理、ノイズ削減処理、キャリブレーション処理、および、振動補正処理の少なくともいずれかを含む処理であることを特徴とする請求項1または2に記載の画像処理装置。 The image processing device according to claim 1 or 2, characterized in that the process for correcting the material data includes at least one of distortion correction, noise reduction, calibration, and vibration correction. 前記生成情報は、前記素材データの生成処理に使用された処理パラメータに関する情報を含むことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 5. The image processing apparatus according to claim 1, wherein the generation information includes information regarding processing parameters used in generation processing of the material data. 前記生成情報は、前記素材データの生成処理に使用された処理パラメータが格納された場所を示す情報を含むことを特徴とする請求項5に記載の画像処理装置。 6. The image processing apparatus according to claim 5, wherein the generation information includes information indicating a location where processing parameters used for generation processing of the material data are stored. 前記生成情報は、前記素材データの生成処理に使用された処理の手法を示す情報を含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, wherein the generation information includes information indicating a processing method used to generate the material data. 前記出力手段は、所定のまとまりごとに、前記素材データと前記生成情報とを関連付けて出力することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 8. The image processing apparatus according to claim 1, wherein the output means outputs the material data and the generated information in association with each other for each predetermined group. 前記所定のまとまりは、素材データごと、フレームごと、同じ生成処理ごと、あるいは、一定数のフレームごとのまとまりであることを特徴とする請求項8に記載の画像処理装置。 9. The image processing apparatus according to claim 8, wherein the predetermined group is a group of material data, each frame, the same generation process, or a certain number of frames. 前記出力手段は、前記素材データと前記生成情報とから生成される、素材データファイルを出力することを特徴とする請求項8または9に記載の画像処理装置。 The image processing apparatus according to claim 8 or 9, wherein the output means outputs a material data file generated from the material data and the generation information. 前記追加処理は、前記素材データに実行されていない処理であって、前記素材データを生成する処理または前記素材データを補正する処理であることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 10, characterized in that the additional process is a process that has not been performed on the material data, and is a process for generating the material data or a process for correcting the material data. 前記素材データと、前記素材データと関連付けられた生成情報とを取得する取得手段と、
前記取得手段により取得された前記素材データと前記生成情報とに基づいて仮想視点画像を生成する画像生成手段と
を有する前記画像生成装置と、
請求項1乃至11のいずれか1項に記載の画像処理装置
とを有することを特徴とする画像処理システム。
An acquisition means for acquiring the material data and generation information associated with the material data;
the image generating device having an image generating means for generating a virtual viewpoint image based on the material data and the generation information acquired by the acquisition means;
An image processing system comprising the image processing device according to any one of claims 1 to 11.
前記画像生成手段は、
前記取得手段により取得された前記生成情報に基づいて、前記追加処理を行うか否かを判断することを特徴とする請求項12に記載の画像処理システム。
The image generating means includes:
13. The image processing system according to claim 12, wherein it is determined whether or not to perform the additional processing based on the generation information acquired by the acquisition means.
前記画像生成手段は、前記生成情報を表示手段に表示させるよう制御することを特徴とする請求項12または13に記載の画像処理システム。 14. The image processing system according to claim 12, wherein the image generating means controls the generated information to be displayed on a display means. コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each of the means possessed by the image processing device according to any one of claims 1 to 11. 複数の撮像装置により撮像された複数の撮像画像に基づく仮想視点画像を生成するための素材データを生成する画像処理装置の制御方法であって、
前記素材データを生成する素材データ生成工程と、
前記素材データ生成工程により生成された素材データと、該素材データの生成処理に係る生成情報とを関連付けて出力する出力工程と
を有し、
前記生成情報は、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されたか否かを示す情報を含み、
前記出力工程は、前記素材データと前記生成情報とに基づいて仮想視点画像を生成する画像生成装置であって、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されている場合、前記素材データに対し追加処理を実行せず、前記素材データを生成する処理または前記素材データを補正する処理が前記素材データに実行されていない場合、前記素材データに対し追加処理を実行する前記画像生成装置に前記素材データと前記生成情報とを関連付けて出力する
ことを特徴とする制御方法。
A method for controlling an image processing device that generates material data for generating a virtual viewpoint image based on a plurality of captured images captured by a plurality of imaging devices, the method comprising:
a material data generation step of generating the material data;
an output step of correlating and outputting the material data generated by the material data generation step and generation information related to the generation process of the material data;
The generation information includes information indicating whether a process of generating the material data or a process of correcting the material data has been performed on the material data,
The output step is an image generation device that generates a virtual viewpoint image based on the material data and the generation information, and includes performing a process of generating the material data or a process of correcting the material data on the material data. If the material data has been processed, no additional processing is performed on the material data, and if no processing for generating the material data or processing for correcting the material data has been performed on the material data, additional processing is performed on the material data. A control method characterized in that the material data and the generation information are outputted in association with each other to the image generation device that executes the above.
JP2019091381A 2019-05-14 2019-05-14 Image processing device, image processing system, control method, and program Active JP7458713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019091381A JP7458713B2 (en) 2019-05-14 2019-05-14 Image processing device, image processing system, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019091381A JP7458713B2 (en) 2019-05-14 2019-05-14 Image processing device, image processing system, control method, and program

Publications (2)

Publication Number Publication Date
JP2020187529A JP2020187529A (en) 2020-11-19
JP7458713B2 true JP7458713B2 (en) 2024-04-01

Family

ID=73222757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019091381A Active JP7458713B2 (en) 2019-05-14 2019-05-14 Image processing device, image processing system, control method, and program

Country Status (1)

Country Link
JP (1) JP7458713B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4247081A1 (en) 2020-11-10 2023-09-20 Ntt Docomo, Inc. Terminal, wireless communication method, and base station
CN114785999B (en) * 2022-04-12 2023-12-15 先壤影视制作(上海)有限公司 Real-time virtual shooting synchronous control method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227613A (en) 2010-04-16 2011-11-10 Canon Inc Image processor and method
JP2011230491A (en) 2010-04-30 2011-11-17 Canon Inc Image processing apparatus, image processing method, printing system, and program
JP2019047502A (en) 2018-09-20 2019-03-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019054488A (en) 2017-09-19 2019-04-04 キヤノン株式会社 Providing apparatus, providing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227613A (en) 2010-04-16 2011-11-10 Canon Inc Image processor and method
JP2011230491A (en) 2010-04-30 2011-11-17 Canon Inc Image processing apparatus, image processing method, printing system, and program
JP2019054488A (en) 2017-09-19 2019-04-04 キヤノン株式会社 Providing apparatus, providing method, and program
JP2019047502A (en) 2018-09-20 2019-03-22 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2020187529A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
KR101655078B1 (en) Method and apparatus for generating moving photograph
JP6882868B2 (en) Image processing equipment, image processing method, system
US11095871B2 (en) System that generates virtual viewpoint image, method and storage medium
EP2073539A1 (en) Image processing device, dynamic image reproduction device, and processing method and program in them
EP2872963B1 (en) Abstract camera pipeline for uniform cross-device control of image capture and processing
JP2005216061A (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US20190068955A1 (en) Generation apparatus, generation method, and computer readable storage medium
JP7458713B2 (en) Image processing device, image processing system, control method, and program
JP5952782B2 (en) Image processing apparatus, control method therefor, program, and storage medium
KR20170138800A (en) Method and apparatus for generating image using multi-stiker
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
JP2019036791A (en) Image processing apparatus, image processing system, control method, and program
US20180089842A1 (en) Image processing apparatus, image processing method, and storage medium
JP2018136793A (en) Image processing device, image processing method and program
KR101645427B1 (en) Operation method of camera apparatus through user interface
TWI559762B (en) An image processing apparatus, an image processing method, and a recording medium
JP4689548B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP7240258B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP2021149513A (en) Image processing apparatus, image processing method, and program
JP2016042661A (en) Information processing unit, system, information processing method, and program
US20230269356A1 (en) Video processing apparatus and control method of the same, and storage medium
JP6234200B2 (en) Image processing apparatus, image processing method, and program
JP4767331B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R151 Written notification of patent or utility model registration

Ref document number: 7458713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151