JP2024072122A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024072122A
JP2024072122A JP2022182798A JP2022182798A JP2024072122A JP 2024072122 A JP2024072122 A JP 2024072122A JP 2022182798 A JP2022182798 A JP 2022182798A JP 2022182798 A JP2022182798 A JP 2022182798A JP 2024072122 A JP2024072122 A JP 2024072122A
Authority
JP
Japan
Prior art keywords
subject
dimensional shape
image
image quality
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022182798A
Other languages
Japanese (ja)
Inventor
望 糟谷
Nozomu Kasuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022182798A priority Critical patent/JP2024072122A/en
Priority to US18/504,191 priority patent/US20240161394A1/en
Priority to EP23209344.3A priority patent/EP4372692A1/en
Publication of JP2024072122A publication Critical patent/JP2024072122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

To easily perform quality evaluation of a virtual viewpoint image obtained in setting a virtual viewpoint in a technology for generating a virtual viewpoint image.SOLUTION: An information processing device acquires three-dimensional shape information showing a three-dimensional shape of a subject to be used to generate a virtual viewpoint image of the subject. It specifies image quality of the subject in the picked-up image of the subject by an imaging device. It outputs information showing the image quality of the subject and the three-dimensional shape information of the subject.SELECTED DRAWING: Figure 3

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関し、特に仮想視点画像の生成技術に関する。 The present disclosure relates to an information processing device, an information processing method, and a program, and in particular to a technology for generating virtual viewpoint images.

複数の撮像装置を異なる位置に設置することにより複数視点からの同期撮影を行い、このような撮影により得られた複数視点からの画像を用いて仮想視点画像を生成する技術が注目されている。このような技術によれば、従来は撮像装置が入れなかった視点からの画像を含む、迫力のあるコンテンツを制作することができる。 A technology that is gaining attention is one in which multiple imaging devices are placed in different positions to capture images from multiple viewpoints simultaneously, and then the images from the multiple viewpoints obtained through such capture are used to generate a virtual viewpoint image. This technology makes it possible to create powerful content that includes images from viewpoints that were previously inaccessible to imaging devices.

このような仮想視点画像は、撮像画像群に基づいて被写体の三次元モデルを生成し、この三次元モデルを仮想カメラで撮影する(すなわちレンダリングする)ことにより、生成することができる。特許文献1は、仮想視点画像の生成を行う際に、仮想視点から近い撮像装置によって撮像された画像を選択し、視点に依存して対象物体の色を決定することを提案している。 Such a virtual viewpoint image can be generated by generating a three-dimensional model of the subject based on a group of captured images, and then photographing (i.e., rendering) this three-dimensional model with a virtual camera. Patent Document 1 proposes that when generating a virtual viewpoint image, an image captured by an imaging device close to the virtual viewpoint is selected, and the color of the target object is determined depending on the viewpoint.

特開2001-291116号公報JP 2001-291116 A

仮想視点画像を生成する際には、望ましい仮想視点画像が得られるように視点の位置が決定される。この際には、高い画質の仮想視点画像が得られるように視点の位置を決定することも求められる。しかしながら、各視点における仮想視点画像の画質を評価することは簡単ではなかった。例えば、視点に依存して対象物体の色を決定する方法によれば、高精細な仮想視点画像の生成が可能である一方で、最終的な画質を判定するために仮想視点画像を生成する必要があった。このため、より高品質な仮想視点画像を生成するためには、仮想視点画像の生成と、仮想視点の調整とを繰り返す必要があった。しかも、仮想視点画像の生成には処理時間を要することに加え、仮想視点画像を生成するためには一般に専用の装置が用いられるという課題があった。 When generating a virtual viewpoint image, the position of the viewpoint is determined so that a desirable virtual viewpoint image can be obtained. At this time, it is also necessary to determine the position of the viewpoint so that a virtual viewpoint image of high image quality can be obtained. However, it is not easy to evaluate the image quality of the virtual viewpoint image at each viewpoint. For example, while a method of determining the color of a target object depending on the viewpoint can generate a high-definition virtual viewpoint image, it is necessary to generate a virtual viewpoint image in order to judge the final image quality. For this reason, in order to generate a virtual viewpoint image of higher quality, it is necessary to repeatedly generate the virtual viewpoint image and adjust the virtual viewpoint. Moreover, there is an issue that generating a virtual viewpoint image requires processing time, and a dedicated device is generally used to generate a virtual viewpoint image.

本開示は、仮想視点画像を生成する技術において、仮想視点を設定する際に、得られる仮想視点画像の品質評価を容易に行えるようにすることを目的とする。 The purpose of this disclosure is to make it easy to evaluate the quality of the resulting virtual viewpoint image when setting the virtual viewpoint in a technology for generating virtual viewpoint images.

一実施形態に係る情報処理装置は以下の構成を備える。すなわち、
被写体の仮想視点画像の生成に用いられる、前記被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
撮像装置による前記被写体の撮像画像における、前記被写体の画質を特定する特定手段と、
前記被写体の画質を示す情報と、前記被写体の三次元形状情報と、を出力する出力手段と、
を備えることを特徴とする。
An information processing device according to an embodiment includes the following configuration:
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of the subject, which is used for generating a virtual viewpoint image of the subject;
a determination unit for determining an image quality of the subject in an image captured by an imaging device;
an output means for outputting information indicating the image quality of the subject and three-dimensional shape information of the subject;
The present invention is characterized by comprising:

仮想視点画像を生成する技術において、仮想視点を設定する際に、得られる仮想視点画像の品質評価を容易に行えるようにすることができる。 In a technology for generating a virtual viewpoint image, when setting a virtual viewpoint, it is possible to easily evaluate the quality of the resulting virtual viewpoint image.

一実施形態に係る画像生成システムの概略構成の一例を示す図。FIG. 1 is a diagram showing an example of a schematic configuration of an image generating system according to an embodiment. 一実施形態に係る情報処理装置のハードウェア構成例を示す図。FIG. 2 is a diagram showing an example of the hardware configuration of an information processing apparatus according to an embodiment. 一実施形態に係る情報処理装置の機能構成例を示す図。FIG. 2 is a diagram showing an example of the functional configuration of an information processing device according to an embodiment. 一実施形態に係る情報処理方法のフローチャートの一例を示す図。FIG. 1 is a diagram showing an example of a flowchart of an information processing method according to an embodiment. 一実施形態に係る画質評価方法のフローチャートの一例を示す図。FIG. 1 is a diagram showing an example of a flowchart of an image quality evaluation method according to an embodiment. 三次元形状情報に付与されるテクスチャの一例を示す図。11A and 11B are diagrams showing examples of textures applied to three-dimensional shape information; 三次元形状情報に付与されるテクスチャの一例を示す図。11A and 11B are diagrams showing examples of textures applied to three-dimensional shape information; 画質が担保される領域を説明する図。FIG. 4 is a diagram for explaining an area in which image quality is guaranteed.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the scope of the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

一実施形態に係る情報処理装置は、被写体の三次元形状を示す三次元形状情報に、被写体の撮像画像における、被写体の画質を示す情報を対応付ける。複数の撮像装置によって得られた撮像画像に基づいて仮想視点画像を生成する場合、仮想視点画像上の被写体は、被写体の撮像画像に基づいて生成される。このため、被写体の撮像画像における画質を示す情報は、生成される仮想視点画像の画質の指標として参照することができる。一実施形態においては、仮想視点画像を生成するための専用の画像生成装置を用いることなく、汎用の三次元コンピュータグラフィックス(CG)ツール上で、仮想視点画像の最終的な画質を大まかに可視化することが可能である。 An information processing device according to one embodiment associates information indicating the image quality of a subject in a captured image of the subject with three-dimensional shape information indicating the three-dimensional shape of the subject. When a virtual viewpoint image is generated based on captured images obtained by multiple imaging devices, the subject in the virtual viewpoint image is generated based on the captured image of the subject. Therefore, the information indicating the image quality in the captured image of the subject can be referred to as an index of the image quality of the virtual viewpoint image to be generated. In one embodiment, it is possible to roughly visualize the final image quality of a virtual viewpoint image on a general-purpose three-dimensional computer graphics (CG) tool without using a dedicated image generation device for generating virtual viewpoint images.

被写体の画質を示す情報としては、様々な形態が考えられる。以下では、まず、被写体の画質を示す情報として、テクスチャを用いる場合について説明する。以下の例では、被写体の三次元形状の複数の位置に、被写体の撮像画像における各位置の画質に応じたテクスチャが付与される。 The information indicating the image quality of the subject can take various forms. Below, we will first explain the case where texture is used as information indicating the image quality of the subject. In the following example, textures are assigned to multiple positions on the three-dimensional shape of the subject according to the image quality at each position in the captured image of the subject.

仮想視点画像を生成するための画像生成システム1の例を図1に示す。画像生成システム1においては、撮影対象エリア2内にいる被写体3が、複数の撮像装置10によって撮像される。そして、複数の撮像装置10によって得られた撮像画像に基づいて、仮想視点画像が生成される。複数の撮像装置10は、例えば図1に示すように、被写体3を囲むように配置され、それぞれが異なる撮像位置から撮影対象エリア2の撮像を行う。モデリング装置20は、撮像装置10によって得られた撮像画像を用いて、被写体3の三次元形状を示す三次元形状情報を生成し、データベース30に格納する。レンダリング装置40は、データベース30に格納されている被写体の三次元形状情報を用いて、入力装置50によって指定された仮想視点からの仮想視点画像をレンダリングする。表示装置60は、レンダリング装置40が生成した仮想視点画像を表示する。 An example of an image generation system 1 for generating a virtual viewpoint image is shown in FIG. 1. In the image generation system 1, a subject 3 in a shooting area 2 is captured by a plurality of imaging devices 10. A virtual viewpoint image is generated based on the captured images obtained by the plurality of imaging devices 10. The plurality of imaging devices 10 are arranged to surround the subject 3, for example as shown in FIG. 1, and each captures the shooting area 2 from a different imaging position. The modeling device 20 generates three-dimensional shape information indicating the three-dimensional shape of the subject 3 using the captured images obtained by the imaging devices 10, and stores the information in the database 30. The rendering device 40 renders a virtual viewpoint image from a virtual viewpoint specified by the input device 50 using the three-dimensional shape information of the subject stored in the database 30. The display device 60 displays the virtual viewpoint image generated by the rendering device 40.

情報処理装置100は、データベース30に格納されたデータを用いて後述するように画質の評価を行う。そして、情報処理装置100は、評価された画質を示す情報をデータベース30に出力する。ここで、情報処理装置100は、評価された画質を示す情報を含む、汎用のCGフォーマットに従うCGデータを、データベース30に出力することができる。このとき、ユーザは、情報処理装置100が出力した画質を示す情報を参照しながら、入力装置50を介して仮想視点を指定することができる。入力装置50では、汎用の三次元コンピュータグラフィックス(CG)ツールが動作していてもよい。この場合、入力装置50は、情報処理装置100が出力したCGデータに従う、特定の視点からの仮想視点画像を生成し、ユーザに対して表示することができる。ユーザは、入力装置50によって表示された仮想視点画像を見ながら、レンダリング装置40に生成させる仮想視点画像の仮想視点を指定することができる。 The information processing device 100 evaluates the image quality using the data stored in the database 30 as described below. Then, the information processing device 100 outputs information indicating the evaluated image quality to the database 30. Here, the information processing device 100 can output CG data conforming to a general-purpose CG format, including information indicating the evaluated image quality, to the database 30. At this time, the user can specify a virtual viewpoint via the input device 50 while referring to the information indicating the image quality output by the information processing device 100. A general-purpose three-dimensional computer graphics (CG) tool may be operating in the input device 50. In this case, the input device 50 can generate a virtual viewpoint image from a specific viewpoint according to the CG data output by the information processing device 100 and display it to the user. The user can specify the virtual viewpoint of the virtual viewpoint image to be generated by the rendering device 40 while looking at the virtual viewpoint image displayed by the input device 50.

なお、複数の撮像装置10は、同期した撮像を連続して行うことができる。この場合、画像生成システム1は、時系列の被写体の三次元形状情報を生成することができ、さらに時系列の仮想視点画像、すなわち仮想視点映像を生成することができる。このような構成において、入力装置50は、時系列で位置が変化する仮想視点を指定することができる。このように移動する仮想視点は、仮想カメラパス又はカメラワークとも呼ばれる。 The multiple imaging devices 10 can continuously capture images in a synchronized manner. In this case, the image generation system 1 can generate three-dimensional shape information of a subject in a time series, and can further generate virtual viewpoint images, i.e., virtual viewpoint videos, in a time series. In such a configuration, the input device 50 can specify a virtual viewpoint whose position changes over time. Such a moving virtual viewpoint is also called a virtual camera path or camera work.

図2は、一実施形態に係る情報処理装置100として利用可能なコンピュータのハードウェアの構成例を示すブロック図である。情報処理装置100は、CPU201、ROM202、RAM203、補助記憶装置204、通信I/F205、及びバス206を有する。なお、モデリング装置20及び入力装置50も同様のハードウェアを用いて実現することができる。一方で、情報処理装置100が、ネットワークを介して接続された複数の情報処理装置によって構成されていてもよい。さらに、モデリング装置20、レンダリング装置40、及び入力装置50のうちの1以上が、ネットワークを介して接続された複数の情報処理装置によって構成されていてもよい。 FIG. 2 is a block diagram showing an example of the hardware configuration of a computer that can be used as an information processing device 100 according to an embodiment. The information processing device 100 has a CPU 201, a ROM 202, a RAM 203, an auxiliary storage device 204, a communication I/F 205, and a bus 206. The modeling device 20 and the input device 50 can also be realized using similar hardware. On the other hand, the information processing device 100 may be configured by multiple information processing devices connected via a network. Furthermore, one or more of the modeling device 20, the rendering device 40, and the input device 50 may be configured by multiple information processing devices connected via a network.

ROM202は、変更を必要としないプログラムなどを格納するメモリである。RAM203は、補助記憶装置204から供給されるプログラム又はデータ、及び通信I/F205を介して外部から供給されるデータなどを一時記憶するメモリである。補助記憶装置204は、画像データ又は音声データなどの種々のデータを記憶する。補助記憶装置204は、例えばハードディスクドライブ等のストレージであってもよい。通信I/F205は、情報処理装置100の外部の装置との通信に用いられる。例えば、情報処理装置100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F205に接続される。また、情報処理装置100が外部の装置と無線通信する場合には、通信I/F205はアンテナを備える。バス206は、情報処理装置100が有する各部をつなぎ、情報を伝達する。 The ROM 202 is a memory that stores programs that do not require modification. The RAM 203 is a memory that temporarily stores programs or data supplied from the auxiliary storage device 204, and data supplied from the outside via the communication I/F 205. The auxiliary storage device 204 stores various data such as image data or audio data. The auxiliary storage device 204 may be a storage such as a hard disk drive. The communication I/F 205 is used for communication with an external device of the information processing device 100. For example, when the information processing device 100 is connected to an external device by wire, a communication cable is connected to the communication I/F 205. Also, when the information processing device 100 communicates wirelessly with an external device, the communication I/F 205 is equipped with an antenna. The bus 206 connects each part of the information processing device 100 and transmits information.

このように、CPU201のようなプロセッサは、ROM202又はRAM203のようなメモリに格納されたコンピュータプログラム又はデータを用いて情報処理装置100の全体を制御する。こうして、図3に示す情報処理装置100が有する各処理部の機能が実現される。なお、情報処理装置100は、CPU201とは異なる1又は複数の専用のハードウェアを有していてもよい。この場合、CPU201が行う処理のうちの少なくとも一部を、専用のハードウェアが行うことができる。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などが挙げられる。また、一実施形態に係る情報処理装置100は、例えばネットワークを介して接続された複数の情報処理装置によって構成される情報処理システムによって実現されてもよい。 In this way, a processor such as the CPU 201 controls the entire information processing device 100 using a computer program or data stored in a memory such as the ROM 202 or the RAM 203. In this way, the functions of each processing unit of the information processing device 100 shown in FIG. 3 are realized. The information processing device 100 may have one or more dedicated hardware different from the CPU 201. In this case, at least a part of the processing performed by the CPU 201 can be performed by the dedicated hardware. Examples of the dedicated hardware include an ASIC (application specific integrated circuit), an FPGA (field programmable gate array), and a DSP (digital signal processor). In addition, the information processing device 100 according to one embodiment may be realized by an information processing system composed of multiple information processing devices connected via a network, for example.

本実施形態に係る情報処理装置100の構成の一例を図3に示す。情報処理装置100は、形状取得部310、画角取得部320、評価部330、生成部340、及び出力部350を有する。 An example of the configuration of the information processing device 100 according to this embodiment is shown in FIG. 3. The information processing device 100 has a shape acquisition unit 310, a field of view acquisition unit 320, an evaluation unit 330, a generation unit 340, and an output unit 350.

形状取得部310は、被写体の三次元形状を示す三次元形状情報を取得する。上述のように、この三次元形状情報は被写体の仮想視点画像を生成するために用いられる。形状取得部310が取得する三次元形状情報は、画像生成システム1において生成された三次元形状情報であってもよいし、別途用意された三次元形状情報であってもよい。また、形状取得部310は、仮想の三次元形状情報を取得してもよい。別途用意された三次元形状情報を用いる場合、画像生成システム1に合わせて座標系の変換、例えばスケーリング又は位置姿勢の調整を行うことができる。以下では、三次元形状情報がメッシュモデルである場合について説明する。しかし、三次元形状情報はメッシュモデルに限られず、例えば点群データなどの三次元形状を示す他の情報であってもよい。また、三次元形状情報は、ボクセルの集合体で表現されるボリュームデータであってもよい。 The shape acquisition unit 310 acquires three-dimensional shape information indicating the three-dimensional shape of the subject. As described above, this three-dimensional shape information is used to generate a virtual viewpoint image of the subject. The three-dimensional shape information acquired by the shape acquisition unit 310 may be three-dimensional shape information generated in the image generation system 1, or may be three-dimensional shape information prepared separately. The shape acquisition unit 310 may also acquire virtual three-dimensional shape information. When using three-dimensional shape information prepared separately, it is possible to convert the coordinate system, for example, by scaling or adjusting the position and orientation, in accordance with the image generation system 1. In the following, a case where the three-dimensional shape information is a mesh model will be described. However, the three-dimensional shape information is not limited to a mesh model, and may be other information indicating a three-dimensional shape, such as point cloud data. The three-dimensional shape information may also be volume data expressed by a collection of voxels.

画角取得部320は、画像生成システム1における複数の撮像装置10のそれぞれのパラメータを示す情報を取得する。このパラメータは、撮像装置の位置及び姿勢を表す外部カメラパラメータを含むことができる。また、このパラメータは、撮像装置の焦点距離などを示す内部パラメータを含むことができる。以下では、画角取得部320が取得する撮像装置10のパラメータのことを画角情報と呼ぶ。この画角情報は、撮像装置の画角又は撮像範囲を示すことができる。 The angle of view acquisition unit 320 acquires information indicating the parameters of each of the multiple imaging devices 10 in the image generation system 1. These parameters may include external camera parameters that indicate the position and orientation of the imaging device. These parameters may also include internal parameters that indicate the focal length of the imaging device. Hereinafter, the parameters of the imaging device 10 acquired by the angle of view acquisition unit 320 are referred to as angle of view information. This angle of view information may indicate the angle of view or imaging range of the imaging device.

評価部330は、撮像装置10による被写体の撮像画像における、被写体の画質を特定する。評価部330は、撮像装置10による被写体の撮像画像における、被写体の複数の位置のそれぞれの画質を評価することができる。ここで、評価部330は、撮像装置10による被写体の撮像画像における、被写体の解像度を判定することができる。評価部330は、画角取得部320が取得した画角情報に従って、解像度の判定を行うことができる。評価部330は、複数の撮像装置10のそれぞれによって撮像された撮像画像について、このような画質の評価を行うことができる。こうして、評価部330は、被写体の特定位置がそれぞれの撮像装置にどの程度の解像度で映るのかを判定することができる。そして、評価部330は、判定された解像度に基づいて被写体の画質を評価することができる。評価部330は、このような評価を被写体の各位置について行うことができる。以下に説明する実施形態において、評価部330は、このような評価を、被写体の三次元形状を表すメッシュモデルの各面に対して行う。こうして評価された画質は、レンダリング装置40が生成した仮想視点画像における、被写体の特定位置の画質と近くなると考えられる。 The evaluation unit 330 identifies the image quality of the subject in the image of the subject captured by the imaging device 10. The evaluation unit 330 can evaluate the image quality of each of the multiple positions of the subject in the image of the subject captured by the imaging device 10. Here, the evaluation unit 330 can determine the resolution of the subject in the image of the subject captured by the imaging device 10. The evaluation unit 330 can determine the resolution according to the angle of view information acquired by the angle of view acquisition unit 320. The evaluation unit 330 can perform such image quality evaluation for the captured images captured by each of the multiple imaging devices 10. In this way, the evaluation unit 330 can determine the degree of resolution at which a specific position of the subject is captured by each imaging device. Then, the evaluation unit 330 can evaluate the image quality of the subject based on the determined resolution. The evaluation unit 330 can perform such evaluation for each position of the subject. In the embodiment described below, the evaluation unit 330 performs such evaluation for each surface of a mesh model representing the three-dimensional shape of the subject. The image quality evaluated in this way is considered to be close to the image quality of a specific position of the subject in the virtual viewpoint image generated by the rendering device 40.

生成部340は、評価部330による画質の評価結果に従って、被写体の画質を示す情報を生成する。生成部340は、被写体の複数の位置のそれぞれについて、被写体の画質を示す情報を生成することができる。ここで、生成部340は、複数の撮像装置10のそれぞれによって撮像された撮像画像における被写体の画質に基づいて、被写体の画質を示す情報を生成することができる。また、生成部340は、被写体の画質を示す可視化された情報を生成することができる。可視化された情報は、例えば画像情報又は形状情報であってもよい。例えば、生成部340が生成する被写体の画質を示す情報は、三次元モデルのテクスチャ情報又は三次元モデルの形状情報であってもよい。 The generating unit 340 generates information indicating the image quality of the subject according to the evaluation result of the image quality by the evaluating unit 330. The generating unit 340 can generate information indicating the image quality of the subject for each of a plurality of positions of the subject. Here, the generating unit 340 can generate information indicating the image quality of the subject based on the image quality of the subject in the captured images captured by each of the plurality of imaging devices 10. The generating unit 340 can also generate visualized information indicating the image quality of the subject. The visualized information may be, for example, image information or shape information. For example, the information indicating the image quality of the subject generated by the generating unit 340 may be texture information of a three-dimensional model or shape information of a three-dimensional model.

本実施形態の場合、生成部340は、被写体の画質を示す情報として、三次元モデルのテクスチャを示すテクスチャ情報を生成する。生成部340は、被写体の画質に応じたテクスチャを生成することができる。一実施形態において、テクスチャは要素の繰り返しを含んでいる。この要素は、任意の画像でありうる。このように、テクスチャとしては、繰り返しパターンを用いることができる。そして、要素の大きさは、被写体の画質に応じて選択される。以下の実施形態では、繰り返しパターンのスケールが、画質の評価値に基づいて変更される。 In this embodiment, the generating unit 340 generates texture information indicating the texture of the three-dimensional model as information indicating the image quality of the subject. The generating unit 340 can generate a texture according to the image quality of the subject. In one embodiment, the texture includes repetition of elements. The elements can be any image. In this way, a repeating pattern can be used as the texture. The size of the elements is selected according to the image quality of the subject. In the following embodiment, the scale of the repeating pattern is changed based on the evaluation value of the image quality.

出力部350は、被写体の画質を示す情報と、被写体の三次元形状情報と、を出力する。出力部350は、被写体の画質を示す情報を、三次元形状情報に対応付けて出力してもよい。出力部350は、被写体の複数の位置のそれぞれの画質を示す情報を、三次元形状情報に対応付けて出力することができる。また、出力部350は、被写体の画質を示す可視化された情報を出力することができる。出力部350は、例えば、生成部340が生成したテクスチャのような画像情報を、形状取得部310が取得した三次元形状情報と対応付けて出力することができる。ここで、出力部350は、被写体の画質を示す情報に基づく三次元モデルを表す情報を出力してもよい。例えば、出力部350が出力するデータは、汎用のフォーマットに従うデータであってもよい。汎用フォーマットに従うデータは、例えば、OBJデータとMTLデータの組み合わせ、又はPLYデータなどの、三次元形状情報とテクスチャデータとを併せ持つデータである。出力部350は、三次元形状情報に対応付けて被写体の画質を示す情報を表示する表示部であってもよい。また、出力部350は、外部の装置に情報を出力する機能部であってもよい。 The output unit 350 outputs information indicating the image quality of the subject and three-dimensional shape information of the subject. The output unit 350 may output information indicating the image quality of the subject in association with the three-dimensional shape information. The output unit 350 can output information indicating the image quality of each of a plurality of positions of the subject in association with the three-dimensional shape information. The output unit 350 can also output visualized information indicating the image quality of the subject. The output unit 350 can output image information such as a texture generated by the generation unit 340 in association with the three-dimensional shape information acquired by the shape acquisition unit 310. Here, the output unit 350 may output information representing a three-dimensional model based on information indicating the image quality of the subject. For example, the data output by the output unit 350 may be data that conforms to a general-purpose format. The data that conforms to the general-purpose format is, for example, a combination of OBJ data and MTL data, or data that has both three-dimensional shape information and texture data, such as PLY data. The output unit 350 may be a display unit that displays information indicating the image quality of the subject in association with the three-dimensional shape information. Additionally, the output unit 350 may be a functional unit that outputs information to an external device.

図4は、一実施形態に係る情報処理装置100が行う情報処理方法のフローチャートである。図4に従う処理により、画質の評価が行われる。図4に示す処理は、ROM202に格納され、RAM203に読み出された制御プログラムを、CPU201が実行することにより実現できる。 Figure 4 is a flowchart of an information processing method performed by the information processing device 100 according to one embodiment. Image quality is evaluated by the process shown in Figure 4. The process shown in Figure 4 can be realized by the CPU 201 executing a control program stored in the ROM 202 and read into the RAM 203.

S401では、形状取得部310が三次元形状情報を取得する。形状取得部310は、データベース30に格納された三次元形状情報のファイルを読み込んでもよい。また、形状取得部310は、ネットワークを介して三次元形状情報を受信してもよい。一方で、形状取得部310は、撮像装置10による被写体の撮像画像に基づいて被写体の三次元形状を推定することにより、三次元形状情報を生成してもよい。この場合、形状取得部310は、視体積交差法等に基づいて、複数の撮像装置10による被写体の撮像画像を用いて被写体の三次元形状を生成することができる。 In S401, the shape acquisition unit 310 acquires three-dimensional shape information. The shape acquisition unit 310 may read a file of three-dimensional shape information stored in the database 30. The shape acquisition unit 310 may also receive the three-dimensional shape information via a network. On the other hand, the shape acquisition unit 310 may generate three-dimensional shape information by estimating the three-dimensional shape of the subject based on an image of the subject captured by the imaging device 10. In this case, the shape acquisition unit 310 can generate the three-dimensional shape of the subject using images of the subject captured by multiple imaging devices 10 based on a volume intersection method or the like.

S402では、画角取得部320が複数の撮像装置10の画角情報を取得する。画角取得部320は、画像生成システム1の全ての撮像装置10の画角情報を取得することができる。 In S402, the angle of view acquisition unit 320 acquires the angle of view information of the multiple imaging devices 10. The angle of view acquisition unit 320 can acquire the angle of view information of all imaging devices 10 in the image generation system 1.

S403では、評価部330が、S401で取得された三次元形状情報と、S402で取得された画角情報とに基づいて、被写体の複数の位置のそれぞれについての画質の評価値を算出する。評価部330は、被写体の特定位置についての撮像画像上の解像度を示す評価値を算出することができる。図5は、三次元形状を表す複数の面のそれぞれについて、このような画質の評価を行うための処理フローの一例を示す。 In S403, the evaluation unit 330 calculates an evaluation value of the image quality for each of the multiple positions of the subject based on the three-dimensional shape information acquired in S401 and the angle of view information acquired in S402. The evaluation unit 330 can calculate an evaluation value that indicates the resolution on the captured image for a specific position of the subject. Figure 5 shows an example of a processing flow for performing such an image quality evaluation for each of multiple surfaces representing a three-dimensional shape.

S501では、評価部330が、三次元形状情報であるメッシュモデルの各面のうち、評価値が算出されていない面を選択する。S501で選択された対象面について、以下の処理により評価値が算出される。S501~S505の処理を繰り返すことにより、被写体のメッシュモデルのすべての面について評価値が算出される。なお、評価部330は、図5に従う処理を開始する前に1つの面を細分化してもよい。このような構成により、面が大きいために1つの面内で画質がばらつくことが想定される場合に、画質をより精細に評価することができる。 In S501, the evaluation unit 330 selects, from among the faces of the mesh model, which is the three-dimensional shape information, a face for which an evaluation value has not been calculated. For the target face selected in S501, an evaluation value is calculated by the following process. By repeating the processes of S501 to S505, evaluation values are calculated for all faces of the mesh model of the subject. Note that the evaluation unit 330 may subdivide one face before starting the process according to FIG. 5. With this configuration, it is possible to evaluate image quality more precisely when it is expected that image quality will vary within a single face due to the face being large.

S502では、評価部330が、複数の撮像装置10のうち、対象面に関する画質の評価対象となっていない撮像装置を選択する。 In S502, the evaluation unit 330 selects, from among the multiple image capture devices 10, an image capture device that has not been subject to evaluation of image quality related to the target surface.

S503では、評価部330が、S502で選択された撮像装置からS501で選択した対象面が可視であるかどうかを判定する。対象面が可視ではない場合、例えばメッシュモデルの他の面によって対象面が隠れている場合、処理はS505へ移行する。対象面が可視の場合、処理はS504に移行する。対象面が可視かどうかの判定には、対象面から撮像装置までの距離情報を利用する方法を用いることができる。例えば、以下の方法で、対象面が可視かどうかが判定されてもよい。まず、対象面の三次元位置と、撮像装置の三次元位置との間の距離が算出される。一方で、撮像装置から最も近い被写体までの距離を示すデプスマップにおける、対象面に該当する画素の画素値が取得される。そして、対象面の三次元位置と撮像装置の三次元位置との間の算出距離と、デプスマップにおける対象面に該当する画素の画素値が示す距離との差分が算出される。算出された差分が閾値より小さい場合は、可視と判定される。また、算出された差分が閾値より大きい場合は、可視ではない(不可視である)と判定される。 In S503, the evaluation unit 330 determines whether the target surface selected in S501 is visible from the imaging device selected in S502. If the target surface is not visible, for example, if the target surface is hidden by another surface of the mesh model, the process proceeds to S505. If the target surface is visible, the process proceeds to S504. To determine whether the target surface is visible, a method using distance information from the target surface to the imaging device can be used. For example, the following method may be used to determine whether the target surface is visible. First, the distance between the three-dimensional position of the target surface and the three-dimensional position of the imaging device is calculated. Meanwhile, the pixel value of the pixel corresponding to the target surface in the depth map indicating the distance from the imaging device to the nearest subject is obtained. Then, the difference between the calculated distance between the three-dimensional position of the target surface and the three-dimensional position of the imaging device and the distance indicated by the pixel value of the pixel corresponding to the target surface in the depth map is calculated. If the calculated difference is smaller than a threshold value, it is determined to be visible. Also, if the calculated difference is larger than the threshold value, it is determined to be not visible (invisible).

S504では、評価部330が、S502で選択された撮像装置によって撮像された撮像画像における、対象面に対応する被写体の特定位置の解像度を算出する。解像度は、撮像装置の画角情報と、対象面の位置に基づいて算出することができる。また、解像度は、撮像画像の画素あたりの、被写体の特定位置の物理的な大きさによって表すことができる。例えば、対象面の位置をXt、対象撮像装置の位置をXc、焦点距離をf(pix)とすると、解像度r(mm/pix)は、以下の式に従って算出できる。以下の式において、√(Xt-Xc)はXtとXcとの間の距離を表す。
r[mm/pix]=√(Xt-Xc) /f
In S504, the evaluation unit 330 calculates the resolution of a specific position of the subject corresponding to the target surface in the captured image captured by the imaging device selected in S502. The resolution can be calculated based on the angle of view information of the imaging device and the position of the target surface. The resolution can also be expressed by the physical size of the specific position of the subject per pixel of the captured image. For example, if the position of the target surface is Xt, the position of the target imaging device is Xc, and the focal length is f (pix), the resolution r (mm/pix) can be calculated according to the following formula. In the following formula, √(Xt-Xc) 2 represents the distance between Xt and Xc.
r [mm/pix] = √(Xt-Xc) 2 /f

S505において、対象面に関する画質の評価対象となっていない撮像装置がある場合には、処理はS502に戻る。対象面に関して全ての撮像装置による画質が評価されている場合、処理はS506に移行する。このように、それぞれの撮像装置について、S502~S505の処理は繰り返される。 In S505, if there is an imaging device that has not been evaluated for image quality on the target surface, the process returns to S502. If the image quality of all imaging devices on the target surface has been evaluated, the process proceeds to S506. In this manner, the processes of S502 to S505 are repeated for each imaging device.

S506では、評価部330が、対象面に関して、S504で複数の撮像装置10のそれぞれについて算出した解像度に基づいて、対象面の評価値を決定する。一例として、評価部330は、複数の撮像装置10のそれぞれについて算出した解像度のうち、最も高い解像度を、対象面の評価値として用いることができる。こうして、評価部330は、撮像装置10による被写体の撮像画像における、被写体の特定位置の画質(この例では解像度)を示す評価値を決定することができる。S503では、複数の撮像装置10から、被写体の特定位置が可視である撮像装置が選択されている。したがって、S506では、選択された撮像装置による被写体の撮像画像に基づいて、被写体の特定位置の画質が評価される。 In S506, the evaluation unit 330 determines an evaluation value for the target surface based on the resolution calculated for each of the multiple imaging devices 10 in S504. As an example, the evaluation unit 330 can use the highest resolution among the resolutions calculated for each of the multiple imaging devices 10 as the evaluation value for the target surface. In this way, the evaluation unit 330 can determine an evaluation value indicating the image quality (resolution in this example) of a specific position of the subject in an image of the subject captured by the imaging device 10. In S503, an imaging device in which the specific position of the subject is visible is selected from the multiple imaging devices 10. Therefore, in S506, the image quality of the specific position of the subject is evaluated based on the image of the subject captured by the selected imaging device.

視点に依存して対象物体の色を決定する視点依存レンダリング手法では、三次元形状の特定位置に対する色付けが、特定位置が可視である撮像装置の撮像画像を投影することで行われる。このため、可視である撮像装置による撮像画像の画質が、最終的に得られる仮想視点画像の画質に関係する。また、仮想視点画像の特定位置についての最もよい画質は、複数の撮像画像による撮像画像のうち最も高い画質を持つ撮像画像の画質によって定まる。このために、上記のように決定された評価値は、仮想視点画像の特定位置(すなわち対象面)についての画質を評価するために用いることができる。 In a viewpoint-dependent rendering technique that determines the color of a target object depending on the viewpoint, coloring of a specific position of a three-dimensional shape is performed by projecting an image captured by an imaging device where the specific position is visible. Therefore, the image quality of the image captured by the visible imaging device is related to the image quality of the virtual viewpoint image that is ultimately obtained. Furthermore, the best image quality for a specific position of the virtual viewpoint image is determined by the image quality of the image captured with the highest image quality among multiple captured images. For this reason, the evaluation value determined as described above can be used to evaluate the image quality of a specific position (i.e., the target surface) of the virtual viewpoint image.

一方で、評価値の決定方法は上記の方法には限定されない。仮想視点画像をレンダリングした際の画質を示唆する任意の指標を用いることができる。例えば、評価値は、複数の撮像装置10のそれぞれについて算出した解像度の平均値又は中央値等の統計値であってもよい。さらに、統計値を算出する際に、解像度に対する重み付けを、特定位置(例えば対象面)の法線と、解像度に対応する撮像装置の光軸との間の角度に基づいて行ってもよい。例えば、この法線とこの光軸との角度が小さいほど、重みを大きくすることができる。 On the other hand, the method of determining the evaluation value is not limited to the above method. Any index that indicates the image quality when the virtual viewpoint image is rendered can be used. For example, the evaluation value may be a statistical value such as the average or median of the resolution calculated for each of the multiple image capture devices 10. Furthermore, when calculating the statistical value, the resolution may be weighted based on the angle between the normal to a specific position (e.g., the target surface) and the optical axis of the image capture device corresponding to the resolution. For example, the smaller the angle between the normal and the optical axis, the larger the weight can be.

S507において、三次元形状情報であるメッシュモデルの各面のうち、評価値が算出されていない面がある場合には、処理はS501に戻る。評価値が算出されていない面がない場合には、図5に従う評価値の算出が終了する。このように、それぞれの面について、S501~S507の処理は繰り返される。なお、三次元形状情報が点群等の場合には、点ごとに評価値が算出されてもよいし、点群を構成する複数の点のうち、いくつかの点からなる領域ごとに評価値が算出されてもよい。三次元形状情報がボクセルからなるボリュームデータである場合も、同様に、ボクセルごとに評価値が算出されてもよいし、いくつかのボクセル群ごとに評価値が算出されてもよい。 In S507, if there is any face of the mesh model, which is the three-dimensional shape information, for which an evaluation value has not been calculated, the process returns to S501. If there is no face for which an evaluation value has not been calculated, the calculation of the evaluation value according to FIG. 5 ends. In this manner, the processes of S501 to S507 are repeated for each face. Note that, if the three-dimensional shape information is a point cloud or the like, an evaluation value may be calculated for each point, or an evaluation value may be calculated for each region consisting of several points out of the multiple points that make up the point cloud. Similarly, if the three-dimensional shape information is volume data consisting of voxels, an evaluation value may be calculated for each voxel, or an evaluation value may be calculated for several voxel groups.

S404では、生成部340が、評価部330が算出した評価値に基づいて、被写体の複数の位置のそれぞれの画質に応じたテクスチャを生成する。生成されたテクスチャは、画質の指標として用いられる。図6(A)はテクスチャが含む要素の例を、図6(B)はテクスチャが付与されたメッシュモデルの例を示す。説明を簡単にするため、図6(B)には立方体のメッシュモデルが示されているが、三次元形状は立方体に限定されない。 In S404, the generation unit 340 generates a texture according to the image quality of each of the multiple positions of the subject, based on the evaluation value calculated by the evaluation unit 330. The generated texture is used as an index of image quality. FIG. 6(A) shows an example of elements contained in the texture, and FIG. 6(B) shows an example of a mesh model to which a texture has been applied. For ease of explanation, a cubic mesh model is shown in FIG. 6(B), but the three-dimensional shape is not limited to a cube.

テクスチャは、図6(A)に示すような要素の繰り返しであるパターンを含む。図6(A)に示す要素は「NG」が書かれている画像である。本実施形態において、生成部340は、評価値に従う大きさの要素を含むテクスチャを生成する。ここで、評価値が高いほどテクスチャは小さい要素を含み、評価値が低いほどテクスチャは大きい要素を含む。例えば、生成部340は、テクスチャ座標を下記の式に従う倍率でスケーリングすることで、このようなテクスチャを生成することができる。重みとしては適当な値を設定することができる。
倍率=重み/評価値
The texture includes a pattern that is a repetition of elements as shown in FIG. 6A. The element shown in FIG. 6A is an image with "NG" written on it. In this embodiment, the generation unit 340 generates a texture that includes elements whose size depends on the evaluation value. Here, the higher the evaluation value, the smaller the elements the texture includes, and the lower the evaluation value, the larger the elements the texture includes. For example, the generation unit 340 can generate such a texture by scaling the texture coordinates by a magnification factor according to the following formula. An appropriate value can be set as the weight.
Multiplier = weight/evaluation value

生成部340は、三次元形状情報が示す被写体の三次元形状の各位置について、この位置の画質を示す情報を生成することができる。例えば、生成部340は、メッシュモデルの各面について、評価値に応じたテクスチャを生成することができる。 The generating unit 340 can generate information indicating the image quality at each position of the three-dimensional shape of the subject indicated by the three-dimensional shape information. For example, the generating unit 340 can generate a texture for each face of the mesh model according to the evaluation value.

S405では、出力部350が、被写体の画質を示す情報と、三次元形状情報と、を出力する。出力部350は、被写体の画質を示す情報を、三次元形状情報に対応付けて出力することができる。また、出力部350は、三次元形状情報が示す被写体の三次元形状の各位置に、生成部340が生成したこの位置の画質を示す情報を対応付けることができる。 In S405, the output unit 350 outputs information indicating the image quality of the subject and the three-dimensional shape information. The output unit 350 can output the information indicating the image quality of the subject in association with the three-dimensional shape information. Furthermore, the output unit 350 can associate each position of the three-dimensional shape of the subject indicated by the three-dimensional shape information with information indicating the image quality of this position generated by the generation unit 340.

例えば、出力部350は、被写体の三次元形状と、被写体の三次元形状の複数の位置のそれぞれに付されたテクスチャと、を示す三次元形状情報を出力することができる。本実施形態において、出力部350は、S404で生成部340が生成したテクスチャを、S401で形状取得部310が取得した三次元形状情報に付与する。具体的には、出力部350は、三次元形状情報が示す被写体の三次元形状の複数の位置に、撮像装置による被写体の撮像画像における各位置の画質に応じたテクスチャを付与することができる。例えば、出力部350は、メッシュモデルの各面に、生成部340が生成した、評価値に応じたテクスチャを貼り付けることができる。上述したように、出力部350は、被写体の画質を示す情報及び三次元形状情報を、汎用フォーマットに従うCGデータとして出力することができる。 For example, the output unit 350 can output three-dimensional shape information indicating the three-dimensional shape of the subject and the textures applied to each of the multiple positions of the three-dimensional shape of the subject. In this embodiment, the output unit 350 applies the texture generated by the generation unit 340 in S404 to the three-dimensional shape information acquired by the shape acquisition unit 310 in S401. Specifically, the output unit 350 can apply textures to multiple positions of the three-dimensional shape of the subject indicated by the three-dimensional shape information according to the image quality of each position in the image of the subject captured by the imaging device. For example, the output unit 350 can attach textures generated by the generation unit 340 according to the evaluation value to each surface of the mesh model. As described above, the output unit 350 can output information indicating the image quality of the subject and the three-dimensional shape information as CG data conforming to a general-purpose format.

このように出力部350が出力したCGデータは、汎用のCGツールによって、図6(B)に示すように表示される。面601は、低い評価値を有する面であり、大きなサイズの要素を含むテクスチャが貼り付けられている。一方で面602は、高い評価値を有する面であり、小さいサイズの要素を含むテクスチャが貼り付けられている。 The CG data thus output by the output unit 350 is displayed by a general-purpose CG tool as shown in FIG. 6(B). Surface 601 is a surface with a low evaluation value, and a texture containing large-sized elements is applied to it. On the other hand, surface 602 is a surface with a high evaluation value, and a texture containing small-sized elements is applied to it.

上述のように、ユーザは、入力装置50などを用いて仮想視点画像の仮想視点を指定することができる。情報処理装置100、入力装置50、又はその他の装置は、三次元形状情報に従う被写体の三次元形状と、出力部350が出力した被写体の画質を示す情報と、を表示装置60のような表示装置に表示させる表示制御部(不図示)を有していてもよい。また、情報処理装置100、入力装置50、又はその他の装置は、ユーザから仮想視点画像に対応する仮想視点の指定を受け付ける受付部(不図示)を有していてもよい。このような構成により、ユーザは、被写体の画質を示す情報を確認しながら仮想視点を指定することができる。そして、レンダリング装置40は、被写体の撮像画像、三次元形状情報、及び指定された仮想視点に基づいて、仮想視点画像を生成する。 As described above, the user can specify the virtual viewpoint of the virtual viewpoint image using the input device 50 or the like. The information processing device 100, the input device 50, or other devices may have a display control unit (not shown) that causes a display device such as the display device 60 to display the three-dimensional shape of the subject according to the three-dimensional shape information and the information indicating the image quality of the subject output by the output unit 350. The information processing device 100, the input device 50, or other devices may also have a reception unit (not shown) that receives the specification of the virtual viewpoint corresponding to the virtual viewpoint image from the user. With this configuration, the user can specify the virtual viewpoint while checking the information indicating the image quality of the subject. Then, the rendering device 40 generates a virtual viewpoint image based on the captured image of the subject, the three-dimensional shape information, and the specified virtual viewpoint.

例えば、仮想視点画像のカメラワーク制作者は、出力部350が出力したテクスチャ付きのCGデータを参照しながらカメラワークを作成することができる。このため、特定の仮想視点からみた仮想視点画像の最終画質が破綻するか否かを、カメラワーク制作時に知ることができる。このように、本実施形態によれば、仮想視点を設定する際に、得られる仮想視点画像の品質評価を容易に行うことができる。 For example, the creator of the camerawork for the virtual viewpoint image can create the camerawork while referring to the textured CG data output by the output unit 350. This makes it possible to know at the time of creating the camerawork whether the final image quality of the virtual viewpoint image seen from a particular virtual viewpoint will be compromised. In this way, according to this embodiment, when setting a virtual viewpoint, it is easy to evaluate the quality of the resulting virtual viewpoint image.

具体的には、作成したカメラワークに従う位置の仮想視点から三次元モデルを見た際に、テクスチャ上の要素が視認できる場合には、最終画質が破綻する可能性が高い。一方で、テクスチャ上の要素が視認できない場合には、画質が担保される可能性が高い。例えば、図6(B)では、面602のテクスチャから「NG」の文字が読めないため、仮想視点画像の面602における画質は十分である可能性が高い。しかしながら、面601のテクスチャからは「NG」の文字が読めるため、仮想視点画像の面601における画質が破綻する可能性がある。この場合、カメラワーク制作者は、画質が担保されるように仮想視点を面601から離す、焦点距離を変更することにより視野を広角にする、又は、仮想視点を面602の方へ移動するように、カメラワークを変更することができる。このように、情報処理装置100が出力した被写体の画質を示す情報を用いることで、仮想視点画像をレンダリングすることなく、仮想視点画像の画質が破綻しないように仮想視点を設定することが容易になる。 Specifically, when the three-dimensional model is viewed from a virtual viewpoint at a position according to the created camerawork, if the elements on the texture are visible, the final image quality is likely to be broken. On the other hand, if the elements on the texture are not visible, the image quality is likely to be guaranteed. For example, in FIG. 6B, the character "NG" cannot be read from the texture of the surface 602, so the image quality of the surface 602 of the virtual viewpoint image is likely to be sufficient. However, the character "NG" can be read from the texture of the surface 601, so the image quality of the surface 601 of the virtual viewpoint image may be broken. In this case, the camerawork creator can change the camerawork so that the virtual viewpoint is moved away from the surface 601 so that the image quality is guaranteed, the field of view is made wider by changing the focal length, or the virtual viewpoint is moved toward the surface 602. In this way, by using the information indicating the image quality of the subject output by the information processing device 100, it becomes easy to set the virtual viewpoint so that the image quality of the virtual viewpoint image is not broken without rendering the virtual viewpoint image.

生成部340がS404で生成するテクスチャは、図6に示すような画像である必要はない。テクスチャとしては、ユーザが画質を判断できる助けになる任意のものを用いることができる。例えば、格子模様を要素として有するテクスチャを用いることができる。図7(A)は、格子模様を有するテクスチャの一例を示す。また、図7(B)は、テクスチャが付与された三次元モデルの例を示す。この場合、評価値が高い場合には格子模様が細かくなり、評価値が低い場合には格子模様が粗くなる。このため、画質が担保できる場合には、格子模様がモアレのように見えるために視認しにくくなる。一方で、はっきりと格子が視認できる部分については、画質が担保されないことを知ることができる。 The texture generated by the generation unit 340 in S404 does not need to be an image as shown in FIG. 6. Any texture that helps the user to judge the image quality can be used. For example, a texture having a lattice pattern as an element can be used. FIG. 7(A) shows an example of a texture having a lattice pattern. FIG. 7(B) shows an example of a three-dimensional model to which a texture has been added. In this case, when the evaluation value is high, the lattice pattern becomes fine, and when the evaluation value is low, the lattice pattern becomes coarse. For this reason, when image quality can be guaranteed, the lattice pattern looks like moiré and is difficult to see. On the other hand, it is possible to know that image quality is not guaranteed in areas where the lattice is clearly visible.

ここまで、画質を示す情報としてテクスチャを用いる場合について説明した。三次元形状情報にテクスチャを付与することにより、ユーザは、テクスチャの視認性に基づいて、仮想視点画像の最終的な画質が許容可能か否かを判断することができる。一方で、被写体の画質を示す情報は、被写体の三次元形状の周囲に設定された領域を示す領域情報であってもよい。このような領域の大きさは、被写体の画質に応じて設定することができる。例えば、被写体から所定距離以内の領域を示す情報を三次元形状に付与することができ、ここで、所定距離は、被写体の画質が高いほど短くすることができる。このような領域を示す情報は、ユーザが画質を担保できる範囲を知るために用いることができる。 So far, we have described the case where texture is used as information indicating image quality. By adding texture to the three-dimensional shape information, the user can determine whether the final image quality of the virtual viewpoint image is acceptable or not based on the visibility of the texture. On the other hand, the information indicating the image quality of the subject may be area information indicating an area set around the three-dimensional shape of the subject. The size of such an area can be set according to the image quality of the subject. For example, information indicating an area within a predetermined distance from the subject can be added to the three-dimensional shape, and here the predetermined distance can be made shorter as the image quality of the subject becomes higher. Such information indicating an area can be used to know the range within which the user can ensure image quality.

以下の例では、被写体の三次元形状の複数の位置のそれぞれの周囲に領域が設定される。ここで、被写体の三次元形状の特定位置の周囲に設定された領域は、撮像装置による被写体の撮像画像における、特定位置についての画質を示す情報に応じて設定される。仮想視点がこの領域内にあることは、特定位置についての仮想視点画像の画質が破綻する可能性が高いことを示し、仮想視点がこの領域外にあることは、特定位置についての仮想視点画像の画質が担保される可能性が高いことを示す。 In the following example, an area is set around each of multiple positions on the three-dimensional shape of the subject. Here, the area set around a specific position on the three-dimensional shape of the subject is set according to information indicating the image quality for the specific position in an image of the subject captured by an imaging device. The virtual viewpoint being within this area indicates that there is a high possibility that the image quality of the virtual viewpoint image for the specific position will be compromised, and the virtual viewpoint being outside this area indicates that there is a high possibility that the image quality of the virtual viewpoint image for the specific position will be guaranteed.

また、被写体の三次元形状の周囲に設定される領域は、上記のように被写体の三次元形状の複数の位置のそれぞれの周囲に設定された領域を包含する領域(例えば各領域の和集合)であってもよい。このような包含領域を示す情報、例えば三次元モデル情報を、被写体の三次元形状情報に付与してもよい。このような三次元モデル情報に従って、仮想視点画像の品質が担保されない領域又は品質が担保される領域を判別することができる。このような情報を用いることにより、仮想視点画像の画質を画一的に判断することが可能となる。 The area set around the three-dimensional shape of the subject may be an area that includes the areas set around each of the multiple positions of the three-dimensional shape of the subject as described above (e.g., the union of each area). Information indicating such an inclusion area, such as three-dimensional model information, may be added to the three-dimensional shape information of the subject. According to such three-dimensional model information, it is possible to determine areas where the quality of the virtual viewpoint image is not guaranteed or areas where the quality is guaranteed. By using such information, it becomes possible to uniformly judge the image quality of the virtual viewpoint image.

このような変形例において、評価部330は、さらに仮想視点の焦点距離を示す情報を取得することができる。焦点距離取得部(不図示)が、仮想視点(又は仮想カメラ)の焦点距離を示す情報をユーザから取得してもよい。また、焦点距離取得部(不図示)は、指定された仮想視点の焦点距離を示す情報を入力装置50から取得してもよい。 In such a modified example, the evaluation unit 330 can further acquire information indicating the focal length of the virtual viewpoint. A focal length acquisition unit (not shown) may acquire information indicating the focal length of the virtual viewpoint (or virtual camera) from the user. In addition, the focal length acquisition unit (not shown) may acquire information indicating the focal length of the specified virtual viewpoint from the input device 50.

仮想視点の焦点距離が長い場合、仮想カメラから被写体までの距離が遠くても、仮想視点画像の画質を担保するために要求される、撮像された撮像画像における被写体の解像度は高くなる。一方で、仮想視点の焦点距離が短い場合には、広角の画像が得られるため、仮想視点画像の画質を担保するために要求される、撮像された撮像画像における被写体の解像度は低くなる。そこで、本変形において被写体の三次元形状の周囲に設定される領域の大きさは、仮想視点画像に対応する仮想視点の焦点距離にさらに応じて設定することができる。このように、仮想視点の焦点距離に応じて、仮想視点画像の画質が担保されない領域を示す三次元モデルが生成される。この領域は、仮想視点の焦点距離に応じて変わるため、本変形例で評価部330は事前におおよその焦点距離を取得する。もっとも、評価部330が焦点距離を取得することは必須ではない。例えば、評価部330は、焦点距離の所定値に基づいて被写体の画質を示す情報を生成してもよい。 When the focal length of the virtual viewpoint is long, even if the distance from the virtual camera to the subject is long, the resolution of the subject in the captured image required to ensure the image quality of the virtual viewpoint image is high. On the other hand, when the focal length of the virtual viewpoint is short, a wide-angle image is obtained, so the resolution of the subject in the captured image required to ensure the image quality of the virtual viewpoint image is low. Therefore, in this modification, the size of the area set around the three-dimensional shape of the subject can be set further according to the focal length of the virtual viewpoint corresponding to the virtual viewpoint image. In this way, a three-dimensional model indicating an area where the image quality of the virtual viewpoint image is not guaranteed is generated according to the focal length of the virtual viewpoint. Since this area changes according to the focal length of the virtual viewpoint, in this modification, the evaluation unit 330 acquires an approximate focal length in advance. However, it is not essential for the evaluation unit 330 to acquire the focal length. For example, the evaluation unit 330 may generate information indicating the image quality of the subject based on a predetermined value of the focal length.

生成部340は、評価部330が決定した評価値、及び仮想視点の焦点距離に基づいて、被写体の各位置について、画質が担保される距離を算出する。また、生成部340は、算出した距離に基づいて、仮想視点画像の品質が担保されない領域を示す三次元モデルを生成する。図8は、このようなモデルの例を示す概略図である。図8には、被写体の三次元形状を示す領域90が示されている。生成部340は、被写体の各位置(例えば各対象面)について、画質が担保される距離91を算出する。例えば、生成部340は、距離d=α・e・fにより、距離91を算出することができる。ここで、画質評価値e(mm/pix)は、S506と同様に算出された対象面の評価値である。また、焦点距離f(pix)は仮想視点の焦点距離である。重みαとしては適当な値を設定することができる。 The generating unit 340 calculates the distance at which image quality is guaranteed for each position of the subject based on the evaluation value determined by the evaluating unit 330 and the focal length of the virtual viewpoint. The generating unit 340 also generates a three-dimensional model showing an area where the quality of the virtual viewpoint image is not guaranteed based on the calculated distance. FIG. 8 is a schematic diagram showing an example of such a model. FIG. 8 shows an area 90 showing the three-dimensional shape of the subject. The generating unit 340 calculates the distance 91 at which image quality is guaranteed for each position of the subject (e.g., each target surface). For example, the generating unit 340 can calculate the distance 91 by distance d = α e f. Here, the image quality evaluation value e (mm/pix) is the evaluation value of the target surface calculated in the same way as in S506. The focal length f (pix) is the focal length of the virtual viewpoint. An appropriate value can be set as the weight α.

生成部340は、このように、被写体の各位置(例えば各対象面)から、各位置について算出された距離91以内の領域を判定することができる。そして、生成部340は、各位置について判定された領域を包含する領域92を、画質が担保されない領域として判定することができる。仮想視点が領域92の内部にあることは、仮想視点画像の画質が破綻する恐れがあることを示す。生成部340は、こうして判定された領域を示す三次元モデルを生成することができる。この三次元モデルは、例えば半透過モデルであってもよい。 In this way, the generating unit 340 can determine an area within the distance 91 calculated for each position from each position of the subject (e.g., each target surface). The generating unit 340 can then determine an area 92 that includes the area determined for each position as an area where image quality is not guaranteed. The fact that the virtual viewpoint is inside the area 92 indicates that there is a risk of the image quality of the virtual viewpoint image collapsing. The generating unit 340 can generate a three-dimensional model that indicates the area thus determined. This three-dimensional model may be, for example, a semi-transparent model.

出力部350は、被写体の三次元形状と、被写体の三次元形状の周囲に設定された領域を示す三次元形状と、を示す三次元形状情報を出力することができる。例えば、出力部350は、こうして生成された三次元モデルを被写体の三次元形状情報に対応付けて出力することができる。一例として、出力部350は、被写体の三次元モデルと生成部340が生成した半透過モデルとの双方を含む、汎用フォーマットに従うCGデータを出力することができる。 The output unit 350 can output three-dimensional shape information indicating the three-dimensional shape of the subject and a three-dimensional shape indicating an area set around the three-dimensional shape of the subject. For example, the output unit 350 can output the three-dimensional model thus generated in association with the three-dimensional shape information of the subject. As an example, the output unit 350 can output CG data conforming to a general-purpose format, including both the three-dimensional model of the subject and the semi-transparent model generated by the generation unit 340.

このように出力部350が出力したCGデータは、汎用のCGツールによって、図6(B)に示すように表示される。面601は、低い評価値を有する面であり、大きなサイズの要素を含むテクスチャが貼り付けられている。一方で面602は、高い評価値を有する面であり、小さいサイズの要素を含むテクスチャが貼り付けられている。 The CG data thus output by the output unit 350 is displayed by a general-purpose CG tool as shown in FIG. 6(B). Surface 601 is a surface with a low evaluation value, and a texture containing large-sized elements is applied to it. On the other hand, surface 602 is a surface with a high evaluation value, and a texture containing small-sized elements is applied to it.

ユーザは、上記の半透過モデルのような、仮想視点画像の品質が担保されない領域を示す情報に従って、仮想視点を指定することができる。このため、仮想視点画像の画質が担保されるように仮想視点を指定することが容易となる。例えば、仮想視点画像のカメラワーク制作者は、出力部350が出力したCGデータを見ながら仮想カメラを操作することができる。このとき、領域92内に仮想カメラが入ると仮想カメラからは領域92が不可視になる。また、領域92の外に仮想カメラが出ていると、仮想カメラから領域92は可視である。したがって、領域92が可視となるように仮想カメラを操作することで、仮想視点画像の画質が担保されるようにカメラワークを作成することが可能となる。 The user can specify a virtual viewpoint according to information indicating an area where the quality of the virtual viewpoint image is not guaranteed, such as the semi-transparent model described above. This makes it easy to specify a virtual viewpoint so that the image quality of the virtual viewpoint image is guaranteed. For example, the creator of the camerawork of the virtual viewpoint image can operate a virtual camera while looking at the CG data output by the output unit 350. At this time, when the virtual camera enters area 92, area 92 becomes invisible to the virtual camera. Also, when the virtual camera is outside area 92, area 92 is visible to the virtual camera. Therefore, by operating the virtual camera so that area 92 is visible, it is possible to create camerawork that ensures the image quality of the virtual viewpoint image.

被写体の画質を示す情報は上記のものに限られない。例えば、被写体の画質を示す情報が、三次元モデルとして可視化される情報(例えばテクスチャ又は半透過モデル)である必要はない。例えば、出力部350は、被写体の画質を示す情報を、メタ情報として三次元形状情報に対応付けて出力してもよい。このような被写体の画質を示す情報は、例えば、被写体の各面における、撮像装置ごとの上記の解像度rであってもよいし、被写体の各面についての上記の評価値であってもよいし、被写体の各面について画質が担保される距離91であってもよい。 The information indicating the image quality of the subject is not limited to the above. For example, the information indicating the image quality of the subject does not need to be information visualized as a three-dimensional model (e.g., texture or semi-transparent model). For example, the output unit 350 may output the information indicating the image quality of the subject as meta information in association with the three-dimensional shape information. Such information indicating the image quality of the subject may be, for example, the above-mentioned resolution r for each imaging device on each surface of the subject, the above-mentioned evaluation value for each surface of the subject, or the distance 91 at which image quality is guaranteed for each surface of the subject.

この場合、入力装置50のような仮想視点を指定するための装置(例えばカメラワーク制作装置)は、生成部340と同様の機能を有していてもよい。例えば、この装置は、メタ情報に従って被写体の画質を示す情報(例えばテクスチャ又は半透過モデル)を三次元モデルとともにユーザに対して表示してもよい。一方で、この装置は、メタ情報に従って、指定された仮想視点からの仮想視点画像において画質が担保されるか否かを判定し、判定結果をユーザに通知してもよい。例えば、この装置は、メタ情報に示される、被写体の各面について画質が担保される距離91と、仮想視点から被写体の各面までの距離とに基づいて、仮想視点画像の画質が担保されるか否かを判定することができる。 In this case, a device for specifying a virtual viewpoint such as the input device 50 (e.g., a camerawork production device) may have the same functions as the generation unit 340. For example, this device may display information indicating the image quality of the subject (e.g., a texture or semi-transparent model) to the user together with the three-dimensional model according to the meta-information. On the other hand, this device may determine whether or not image quality is guaranteed in a virtual viewpoint image from a specified virtual viewpoint according to the meta-information, and notify the user of the determination result. For example, this device can determine whether or not image quality of a virtual viewpoint image is guaranteed based on a distance 91 at which image quality is guaranteed for each surface of the subject, which is indicated in the meta-information, and the distance from the virtual viewpoint to each surface of the subject.

なお、形状取得部310がメッシュモデル以外の三次元形状情報を取得した場合であっても、出力部350は三次元形状情報に被写体の画質を示す情報を対応付けることができる。例えば、形状取得部310が点群データを取得した場合、生成部340は各点から距離91以内の領域を判定することができる。また、出力部350は、各領域を包含する領域を示す情報を、三次元形状情報に対応付けることができる。また、出力部350は、点群データに基づいて生成されたメッシュモデルに、上記のようなテクスチャを付与することもできる。なお、出力部350は、被写体の三次元形状情報と、被写体の画質を示す情報とを対応付けて出力しなくてもよい。例えば、出力部350は、被写体の三次元形状情報と被写体の画質を示す情報とを対応付ける情報を別途出力してもよい。また、出力部350は、被写体の三次元形状情報と、被写体の画質を示す情報とを、別のタイミングで出力してもよい。例えば、被写体の三次元形状情報と被写体の画質を示す情報とを対応付ける情報は、タイムコードであってもよい。 Note that even if the shape acquisition unit 310 acquires three-dimensional shape information other than the mesh model, the output unit 350 can associate information indicating the image quality of the subject with the three-dimensional shape information. For example, when the shape acquisition unit 310 acquires point cloud data, the generation unit 340 can determine an area within a distance 91 from each point. Furthermore, the output unit 350 can associate information indicating an area including each area with the three-dimensional shape information. Furthermore, the output unit 350 can also impart the above-mentioned texture to the mesh model generated based on the point cloud data. Note that the output unit 350 does not need to output the three-dimensional shape information of the subject and the information indicating the image quality of the subject in association with each other. For example, the output unit 350 may separately output information that associates the three-dimensional shape information of the subject with the information indicating the image quality of the subject. Furthermore, the output unit 350 may output the three-dimensional shape information of the subject and the information indicating the image quality of the subject at different timings. For example, the information that associates the three-dimensional shape information of the subject with the information indicating the image quality of the subject may be a time code.

ここまで、情報処理装置100を画像生成システム1の一部として説明した。しかしながら、情報処理装置100は、画像生成システム1とは別の単体の装置であってもよい。また、入力装置50のような仮想視点を指定するための装置が、情報処理装置100の機能を有していてもよい。例えば、入力装置50が図3に示す各処理部を有していてもよい。この場合、入力装置50は、生成部340が生成した被写体の画質を示す情報(例えばテクスチャ又は半透過モデル)をユーザに対して表示してもよい。一方で、入力装置50は、生成部340が生成した被写体の画質を示す情報に従って、指定された仮想視点からの仮想視点画像において画質が担保されるか否かを判定し、判定結果をユーザに通知してもよい。 So far, the information processing device 100 has been described as a part of the image generation system 1. However, the information processing device 100 may be a separate device separate from the image generation system 1. In addition, a device for specifying a virtual viewpoint such as the input device 50 may have the functions of the information processing device 100. For example, the input device 50 may have each processing unit shown in FIG. 3. In this case, the input device 50 may display information indicating the image quality of the subject generated by the generation unit 340 (e.g., texture or semi-transparent model) to the user. On the other hand, the input device 50 may determine whether or not the image quality is guaranteed in the virtual viewpoint image from the specified virtual viewpoint according to the information indicating the image quality of the subject generated by the generation unit 340, and notify the user of the determination result.

(その他の実施例)
本技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Examples
The present technology can also be realized by a process in which a program for realizing one or more functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present technology can also be realized by a circuit (e.g., ASIC) for realizing one or more functions.

本明細書の開示は、以下の撮像装置、撮像システム、方法及びプログラムを含む。 The disclosure of this specification includes the following imaging device, imaging system, method, and program.

(項目1)
被写体の仮想視点画像の生成に用いられる、前記被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
撮像装置による前記被写体の撮像画像における、前記被写体の画質を特定する特定手段と、
前記被写体の画質を示す情報と、前記被写体の三次元形状情報と、を出力する出力手段と、
を備えることを特徴とする情報処理装置。
(Item 1)
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of the subject, which is used for generating a virtual viewpoint image of the subject;
a determination unit for determining an image quality of the subject in an image captured by an imaging device;
an output means for outputting information indicating the image quality of the subject and three-dimensional shape information of the subject;
An information processing device comprising:

(項目2)
前記出力手段は、前記被写体の画質を示す可視化された情報を出力することを特徴とする、項目1に記載の情報処理装置。
(Item 2)
2. The information processing device according to item 1, wherein the output means outputs visualized information indicating an image quality of the subject.

(項目3)
前記出力手段は、前記被写体の画質を示す情報に基づく三次元モデルを表す情報を出力することを特徴とする、項目1又は2に記載の情報処理装置。
(Item 3)
3. The information processing device according to item 1 or 2, wherein the output means outputs information representing a three-dimensional model based on information indicating an image quality of the subject.

(項目4)
前記被写体の画質を示す情報は、三次元モデルのテクスチャを示すテクスチャ情報であることを特徴とする、項目1から3のいずれか1項目に記載の情報処理装置。
(Item 4)
4. The information processing device according to any one of items 1 to 3, wherein the information indicating the image quality of the subject is texture information indicating a texture of a three-dimensional model.

(項目5)
前記テクスチャは要素の繰り返しを含み、前記要素の大きさは前記被写体の画質に応じて選択されることを特徴とする、項目4に記載の情報処理装置。
(Item 5)
5. The information processing device according to item 4, wherein the texture includes repetition of elements, and the size of the elements is selected according to the image quality of the subject.

(項目6)
前記出力手段は、前記被写体の三次元形状と、前記被写体の三次元形状の複数の位置のそれぞれに付されたテクスチャと、を示す三次元形状情報を出力し、
前記被写体の三次元形状の特定位置に付されるテクスチャは、前記撮像装置による前記被写体の撮像画像における、前記特定位置についての画質に応じて決定されることを特徴とする、項目1から5のいずれか1項目に記載の情報処理装置。
(Item 6)
the output means outputs three-dimensional shape information indicating a three-dimensional shape of the subject and textures applied to each of a plurality of positions on the three-dimensional shape of the subject;
6. The information processing device according to any one of items 1 to 5, wherein a texture to be applied to a specific position of the three-dimensional shape of the subject is determined according to image quality at the specific position in an image of the subject captured by the imaging device.

(項目7)
前記出力手段は、前記被写体の画質を示す情報として、前記被写体の三次元形状の周囲に設定された領域を示す領域情報を出力し、
前記領域の大きさは前記被写体の画質に応じて設定されることを特徴とする、項目1から3のいずれか1項目に記載の情報処理装置。
(Item 7)
the output means outputs area information indicating an area set around a three-dimensional shape of the subject as information indicating an image quality of the subject;
4. The information processing device according to any one of items 1 to 3, wherein the size of the region is set according to the image quality of the subject.

(項目8)
前記領域の大きさは、前記仮想視点画像に対応する仮想視点の焦点距離にさらに応じて設定されることを特徴とする、項目7に記載の情報処理装置。
(Item 8)
8. The information processing device according to item 7, wherein the size of the region is set further depending on a focal length of a virtual viewpoint corresponding to the virtual viewpoint image.

(項目9)
前記被写体の三次元形状の周囲に設定された領域は、前記被写体の三次元形状の複数の位置のそれぞれの周囲に設定された領域を包含し、
前記被写体の三次元形状の特定位置の周囲に設定された領域は、前記撮像装置による前記被写体の撮像画像における、前記特定位置についての画質を示す情報に応じて設定されていることを特徴とする、項目7又は8に記載の情報処理装置。
(Item 9)
the region set around the three-dimensional shape of the subject includes regions set around each of a plurality of positions of the three-dimensional shape of the subject;
Item 9. The information processing device according to item 7 or 8, characterized in that the area set around the specific position of the three-dimensional shape of the subject is set according to information indicating the image quality of the specific position in the image of the subject captured by the imaging device.

(項目10)
前記出力手段は、前記被写体の三次元形状と、前記被写体の三次元形状の周囲に設定された前記領域を示す三次元形状と、を示す三次元形状情報を出力することを特徴とする、項目7から9のいずれか1項目に記載の情報処理装置。
(Item 10)
The information processing device according to any one of items 7 to 9, characterized in that the output means outputs three-dimensional shape information indicating a three-dimensional shape of the subject and a three-dimensional shape indicating the area set around the three-dimensional shape of the subject.

(項目11)
前記特定手段は、前記撮像装置の画角を示す画角情報に基づいて、前記被写体の画質を特定することを特徴とする、項目1から10のいずれか1項目に記載の情報処理装置。
(Item 11)
11. The information processing device according to any one of items 1 to 10, wherein the specifying unit specifies the image quality of the subject based on angle-of-view information indicating an angle of view of the imaging device.

(項目12)
前記特定手段は、前記撮像装置による前記被写体の撮像画像における、前記被写体の解像度に基づいて、前記被写体の画質を特定することを特徴とする、項目1から11のいずれか1項目に記載の情報処理装置。
(Item 12)
12. The information processing device according to any one of items 1 to 11, wherein the specifying unit specifies image quality of the subject based on a resolution of the subject in an image of the subject captured by the imaging device.

(項目13)
前記特定手段は、前記撮像装置による前記被写体の撮像画像における、前記被写体の複数の位置のそれぞれの画質を特定し、
前記出力手段は、前記被写体の複数の位置のそれぞれの画質を示す情報を、前記三次元形状情報に対応付けて出力することを特徴とする、項目1から12のいずれか1項目に記載の情報処理装置。
(Item 13)
The specifying means specifies image quality at each of a plurality of positions of the subject in an image captured by the imaging device of the subject,
13. The information processing device according to any one of items 1 to 12, wherein the output means outputs information indicating image quality at each of a plurality of positions of the subject in association with the three-dimensional shape information.

(項目14)
前記特定手段は、前記被写体の特定位置の画質を、複数の撮像装置から選択された、前記被写体の特定位置が可視である撮像装置による前記被写体の撮像画像に基づいて特定することを特徴とする、項目1から13のいずれか1項目に記載の情報処理装置。
(Item 14)
The information processing device described in any one of items 1 to 13, characterized in that the identification means identifies the image quality of the specific position of the subject based on an image of the subject captured by an imaging device selected from a plurality of imaging devices in which the specific position of the subject is visible.

(項目15)
前記取得手段は、前記被写体の撮像画像に基づいて前記被写体の三次元形状を推定することにより、前記三次元形状情報を生成することを特徴とする、項目1から14のいずれか1項目に記載の情報処理装置。
(Item 15)
15. The information processing device according to any one of items 1 to 14, wherein the acquisition means generates the three-dimensional shape information by estimating a three-dimensional shape of the subject based on a captured image of the subject.

(項目16)
前記三次元形状情報に従う前記被写体の三次元形状と、前記被写体の画質を示す情報と、を表示装置に表示させる表示制御手段と、
ユーザから前記仮想視点画像に対応する仮想視点の指定を受け付ける受付手段と、をさらに備え、
前記被写体の撮像画像、前記三次元形状情報、及び指定された前記仮想視点に基づいて、前記仮想視点画像が生成されることを特徴とする、項目1から15のいずれか1項目に記載の情報処理装置。
(Item 16)
a display control means for causing a display device to display the three-dimensional shape of the subject according to the three-dimensional shape information and information indicating image quality of the subject;
and a receiving unit for receiving, from a user, a designation of a virtual viewpoint corresponding to the virtual viewpoint image,
16. The information processing device according to any one of items 1 to 15, wherein the virtual viewpoint image is generated based on the captured image of the subject, the three-dimensional shape information, and the designated virtual viewpoint.

(項目17)
被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
前記三次元形状情報が示す前記被写体の三次元形状の複数の位置に、撮像装置による前記被写体の撮像画像における各位置の画質に応じたテクスチャを付与する付与手段と、
を備えることを特徴とする情報処理装置。
(Item 17)
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of a subject;
an applying means for applying a texture to a plurality of positions of the three-dimensional shape of the subject indicated by the three-dimensional shape information according to image quality of each position in an image of the subject captured by an imaging device;
An information processing device comprising:

(項目18)
被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
前記三次元形状情報が示す前記被写体の三次元形状から、撮像装置による前記被写体の撮像画像における前記被写体の画質に応じた範囲内にある領域を示す領域情報を生成する生成手段と、
を備えることを特徴とする情報処理装置。
(Item 18)
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of a subject;
a generating means for generating area information indicating an area within a range corresponding to an image quality of the subject in an image captured by an imaging device of the subject from the three-dimensional shape of the subject indicated by the three-dimensional shape information;
An information processing device comprising:

(項目19)
情報処理装置が行う情報処理方法であって、
被写体の仮想視点画像の生成に用いられる、前記被写体の三次元形状を示す三次元形状情報を取得する工程と、
撮像装置による前記被写体の撮像画像における、前記被写体の画質を特定する工程と、
前記被写体の画質を示す情報と、前記被写体の三次元形状情報と、を出力する工程と、
を備えることを特徴とする情報処理方法。
(Item 19)
An information processing method performed by an information processing device,
acquiring three-dimensional shape information indicating a three-dimensional shape of the subject, the three-dimensional shape information being used to generate a virtual viewpoint image of the subject;
specifying an image quality of the subject in an image captured by an imaging device;
outputting information indicating an image quality of the object and three-dimensional shape information of the object;
An information processing method comprising:

(項目20)
コンピュータを、項目1から18のいずれか1項目に記載の情報処理装置として機能させるためのプログラム。
(Item 20)
19. A program for causing a computer to function as the information processing device according to any one of items 1 to 18.

本開示は上記実施形態に制限されるものではなく、本願の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。 This disclosure is not limited to the above embodiments, and various modifications and variations are possible without departing from the spirit and scope of the present application.

100:情報処理装置、310:形状取得部、320:画角取得部、330:評価部、340:生成部、350:出力部 100: Information processing device, 310: Shape acquisition unit, 320: View angle acquisition unit, 330: Evaluation unit, 340: Generation unit, 350: Output unit

Claims (20)

被写体の仮想視点画像の生成に用いられる、前記被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
撮像装置による前記被写体の撮像画像における、前記被写体の画質を特定する特定手段と、
前記被写体の画質を示す情報と、前記被写体の三次元形状情報と、を出力する出力手段と、
を備えることを特徴とする情報処理装置。
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of the subject, which is used for generating a virtual viewpoint image of the subject;
a determination unit for determining an image quality of the subject in an image captured by an imaging device;
an output means for outputting information indicating the image quality of the subject and three-dimensional shape information of the subject;
An information processing device comprising:
前記出力手段は、前記被写体の画質を示す可視化された情報を出力することを特徴とする、請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the output means outputs visualized information indicating the image quality of the subject. 前記出力手段は、前記被写体の画質を示す情報に基づく三次元モデルを表す情報を出力することを特徴とする、請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the output means outputs information representing a three-dimensional model based on information indicating the image quality of the subject. 前記被写体の画質を示す情報は、三次元モデルのテクスチャを示すテクスチャ情報であることを特徴とする、請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the information indicating the image quality of the subject is texture information indicating the texture of a three-dimensional model. 前記テクスチャは要素の繰り返しを含み、前記要素の大きさは前記被写体の画質に応じて選択されることを特徴とする、請求項4に記載の情報処理装置。 The information processing device according to claim 4, characterized in that the texture includes repetition of elements, and the size of the elements is selected according to the image quality of the subject. 前記出力手段は、前記被写体の三次元形状と、前記被写体の三次元形状の複数の位置のそれぞれに付されたテクスチャと、を示す三次元形状情報を出力し、
前記被写体の三次元形状の特定位置に付されるテクスチャは、前記撮像装置による前記被写体の撮像画像における、前記特定位置についての画質に応じて決定されることを特徴とする、請求項4に記載の情報処理装置。
the output means outputs three-dimensional shape information indicating a three-dimensional shape of the subject and textures applied to each of a plurality of positions on the three-dimensional shape of the subject;
The information processing apparatus according to claim 4 , wherein the texture to be applied to the specific position of the three-dimensional shape of the subject is determined according to the image quality of the specific position in the image of the subject captured by the imaging device.
前記出力手段は、前記被写体の画質を示す情報として、前記被写体の三次元形状の周囲に設定された領域を示す領域情報を出力し、
前記領域の大きさは前記被写体の画質に応じて設定されることを特徴とする、請求項1に記載の情報処理装置。
the output means outputs area information indicating an area set around a three-dimensional shape of the subject as information indicating an image quality of the subject;
The information processing apparatus according to claim 1 , wherein the size of the region is set in accordance with the image quality of the subject.
前記領域の大きさは、前記仮想視点画像に対応する仮想視点の焦点距離にさらに応じて設定されることを特徴とする、請求項7に記載の情報処理装置。 The information processing device according to claim 7, characterized in that the size of the region is set further depending on the focal length of the virtual viewpoint corresponding to the virtual viewpoint image. 前記被写体の三次元形状の周囲に設定された領域は、前記被写体の三次元形状の複数の位置のそれぞれの周囲に設定された領域を包含し、
前記被写体の三次元形状の特定位置の周囲に設定された領域は、前記撮像装置による前記被写体の撮像画像における、前記特定位置についての画質を示す情報に応じて設定されていることを特徴とする、請求項7に記載の情報処理装置。
the region set around the three-dimensional shape of the subject includes regions set around each of a plurality of positions of the three-dimensional shape of the subject;
The information processing device according to claim 7, characterized in that the area set around the specific position of the three-dimensional shape of the subject is set according to information indicating the image quality of the specific position in the image of the subject captured by the imaging device.
前記出力手段は、前記被写体の三次元形状と、前記被写体の三次元形状の周囲に設定された前記領域を示す三次元形状と、を示す三次元形状情報を出力することを特徴とする、請求項7に記載の情報処理装置。 The information processing device according to claim 7, characterized in that the output means outputs three-dimensional shape information indicating the three-dimensional shape of the subject and a three-dimensional shape indicating the area set around the three-dimensional shape of the subject. 前記特定手段は、前記撮像装置の画角を示す画角情報に基づいて、前記被写体の画質を特定することを特徴とする、請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the determination means determines the image quality of the subject based on angle-of-view information indicating the angle of view of the imaging device. 前記特定手段は、前記撮像装置による前記被写体の撮像画像における、前記被写体の解像度に基づいて、前記被写体の画質を特定することを特徴とする、請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the identification means identifies the image quality of the subject based on the resolution of the subject in the image captured by the imaging device. 前記特定手段は、前記撮像装置による前記被写体の撮像画像における、前記被写体の複数の位置のそれぞれの画質を特定し、
前記出力手段は、前記被写体の複数の位置のそれぞれの画質を示す情報を、前記三次元形状情報に対応付けて出力することを特徴とする、請求項1に記載の情報処理装置。
The specifying means specifies image quality at each of a plurality of positions of the subject in an image of the subject captured by the imaging device,
2. The information processing apparatus according to claim 1, wherein said output means outputs information indicating image quality at each of a plurality of positions of said subject in association with said three-dimensional shape information.
前記特定手段は、前記被写体の特定位置の画質を、複数の撮像装置から選択された、前記被写体の特定位置が可視である撮像装置による前記被写体の撮像画像に基づいて特定することを特徴とする、請求項13に記載の情報処理装置。 The information processing device according to claim 13, characterized in that the identification means identifies the image quality of the specific position of the subject based on an image of the subject captured by an imaging device selected from a plurality of imaging devices in which the specific position of the subject is visible. 前記取得手段は、前記被写体の撮像画像に基づいて前記被写体の三次元形状を推定することにより、前記三次元形状情報を生成することを特徴とする、請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the acquisition means generates the three-dimensional shape information by estimating the three-dimensional shape of the subject based on a captured image of the subject. 前記三次元形状情報に従う前記被写体の三次元形状と、前記被写体の画質を示す情報と、を表示装置に表示させる表示制御手段と、
ユーザから前記仮想視点画像に対応する仮想視点の指定を受け付ける受付手段と、をさらに備え、
前記被写体の撮像画像、前記三次元形状情報、及び指定された前記仮想視点に基づいて、前記仮想視点画像が生成されることを特徴とする、請求項1に記載の情報処理装置。
a display control means for causing a display device to display the three-dimensional shape of the subject according to the three-dimensional shape information and information indicating image quality of the subject;
and a receiving unit for receiving, from a user, a designation of a virtual viewpoint corresponding to the virtual viewpoint image,
The information processing apparatus according to claim 1 , wherein the virtual viewpoint image is generated based on the captured image of the subject, the three-dimensional shape information, and the designated virtual viewpoint.
被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
前記三次元形状情報が示す前記被写体の三次元形状の複数の位置に、撮像装置による前記被写体の撮像画像における各位置の画質に応じたテクスチャを付与する付与手段と、
を備えることを特徴とする情報処理装置。
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of a subject;
an applying means for applying a texture to a plurality of positions of the three-dimensional shape of the subject indicated by the three-dimensional shape information according to image quality of each position in an image of the subject captured by an imaging device;
An information processing device comprising:
被写体の三次元形状を示す三次元形状情報を取得する取得手段と、
前記三次元形状情報が示す前記被写体の三次元形状から、撮像装置による前記被写体の撮像画像における前記被写体の画質に応じた範囲内にある領域を示す領域情報を生成する生成手段と、
を備えることを特徴とする情報処理装置。
An acquisition means for acquiring three-dimensional shape information indicating a three-dimensional shape of a subject;
a generating means for generating area information indicating an area within a range corresponding to an image quality of the subject in an image captured by an imaging device of the subject from the three-dimensional shape of the subject indicated by the three-dimensional shape information;
An information processing device comprising:
情報処理装置が行う情報処理方法であって、
被写体の仮想視点画像の生成に用いられる、前記被写体の三次元形状を示す三次元形状情報を取得する工程と、
撮像装置による前記被写体の撮像画像における、前記被写体の画質を特定する工程と、
前記被写体の画質を示す情報と、前記被写体の三次元形状情報と、を出力する工程と、
を備えることを特徴とする情報処理方法。
An information processing method performed by an information processing device,
acquiring three-dimensional shape information indicating a three-dimensional shape of the subject, the three-dimensional shape information being used to generate a virtual viewpoint image of the subject;
specifying an image quality of the subject in an image captured by an imaging device;
outputting information indicating an image quality of the object and three-dimensional shape information of the object;
An information processing method comprising:
コンピュータを、請求項1から18のいずれか1項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as an information processing device according to any one of claims 1 to 18.
JP2022182798A 2022-11-15 2022-11-15 Information processing device, information processing method, and program Pending JP2024072122A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022182798A JP2024072122A (en) 2022-11-15 2022-11-15 Information processing device, information processing method, and program
US18/504,191 US20240161394A1 (en) 2022-11-15 2023-11-08 Information processing apparatus, information processing method, and computer-readable medium
EP23209344.3A EP4372692A1 (en) 2022-11-15 2023-11-13 Information processing apparatus, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022182798A JP2024072122A (en) 2022-11-15 2022-11-15 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024072122A true JP2024072122A (en) 2024-05-27

Family

ID=91194066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022182798A Pending JP2024072122A (en) 2022-11-15 2022-11-15 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2024072122A (en)

Similar Documents

Publication Publication Date Title
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
US20100156901A1 (en) Method and apparatus for reconstructing 3d model
RU2695528C2 (en) Laser scanning data image visualization
US9117278B2 (en) System and method for geometric modeling using multiple data acquisition means
JP5093053B2 (en) Electronic camera
JP7182976B2 (en) Information processing device, information processing method, and program
US10733786B2 (en) Rendering 360 depth content
KR101334187B1 (en) Apparatus and method for rendering
KR20140100656A (en) Point video offer device using omnidirectional imaging and 3-dimensional data and method
KR20170134513A (en) How to Display an Object
JP2019197279A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP2020173529A (en) Information processing device, information processing method, and program
WO2020184174A1 (en) Image processing device and image processing method
US10652514B2 (en) Rendering 360 depth content
EP3573018B1 (en) Image generation device, and image display control device
JP2024072122A (en) Information processing device, information processing method, and program
US20120162215A1 (en) Apparatus and method for generating texture of three-dimensional reconstructed object depending on resolution level of two-dimensional image
JP6564259B2 (en) Image processing apparatus and image processing method
JP7394566B2 (en) Image processing device, image processing method, and image processing program
US20240161394A1 (en) Information processing apparatus, information processing method, and computer-readable medium
JPH09138865A (en) Three-dimensional shape data processor
Hwang et al. Image-based object reconstruction using run-length representation
JP2003216933A (en) Data processing device, storage medium and program
JP2003323636A (en) Three-dimensional supplying device and method and image synthesizing device and method and user interface device
KR102355578B1 (en) Information processing apparatus, program recording medium and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808