JPWO2021048107A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021048107A5
JPWO2021048107A5 JP2022516051A JP2022516051A JPWO2021048107A5 JP WO2021048107 A5 JPWO2021048107 A5 JP WO2021048107A5 JP 2022516051 A JP2022516051 A JP 2022516051A JP 2022516051 A JP2022516051 A JP 2022516051A JP WO2021048107 A5 JPWO2021048107 A5 JP WO2021048107A5
Authority
JP
Japan
Prior art keywords
image
model
processing
quality metric
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022516051A
Other languages
Japanese (ja)
Other versions
JP7527351B2 (en
JP2022548853A (en
Publication date
Priority claimed from EP19196992.2A external-priority patent/EP3792877A1/en
Application filed filed Critical
Publication of JP2022548853A publication Critical patent/JP2022548853A/en
Publication of JPWO2021048107A5 publication Critical patent/JPWO2021048107A5/ja
Application granted granted Critical
Publication of JP7527351B2 publication Critical patent/JP7527351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (20)

シーンのモデルを格納するメモリ回路と、
カメラ構成の複数のカメラポーズに対する仮想キャプチャ画像を生成し、
前記モデルに基づいて前記カメラポーズに対する画像をレンダリングすることによって、前記仮想キャプチャ画像を生成する、
キャプチャ回路と、
前記モデルから前記仮想キャプチャ画像のモデル深度データを生成する深度生成回路と、
第1の処理を実行する第1の合成回路であって、
前記第1の処理は、前記シーンの領域内の複数の試験ポーズに対する第1のビュー画像を生成するように、前記モデル深度データに基づいて前記仮想キャプチャ画像を処理する、
第1の合成回路と、
前記仮想キャプチャ画像に基づいて前記仮想キャプチャ画像に対する推定深度データを生成する深度推定回路と、
第2の処理を実行する第2の合成回路であって、
前記第2の処理は、前記複数の試験ポーズに対する第2のビュー画像を生成するように、前記推定深度データに基づいて前記仮想キャプチャ画像を処理する、
第2の合成回路と、
前記モデルに基づいて前記複数の試験ポーズに対する画像をレンダリングすることによって、前記複数の試験ポーズに対する参照画像を生成する参照回路と、
前記カメラ構成、前記第1の処理、及び前記第2の処理のうちの少なくとも1つに対する品質メトリックを生成する品質回路であって、
前記第1の処理及び前記第2の処理は、前記第1のビュー画像、前記第2のビュー画像、及び前記参照画像の比較を用いる、
品質回路
を備える、装置。
a memory circuit that stores a scene model;
Generate virtual capture images for multiple camera poses of the camera configuration,
generating the virtual capture image by rendering an image for the camera pose based on the model;
a capture circuit,
a depth generation circuit that generates model depth data of the virtual captured image from the model;
A first synthesis circuit that executes a first process,
The first processing processes the virtual captured image based on the model depth data to generate a first view image for a plurality of test poses within a region of the scene.
a first synthesis circuit;
a depth estimation circuit that generates estimated depth data for the virtual capture image based on the virtual capture image;
a second synthesis circuit that executes a second process,
The second processing processes the virtual capture image based on the estimated depth data to generate a second view image for the plurality of test poses.
a second synthesis circuit;
a reference circuit that generates reference images for the plurality of test poses by rendering images for the plurality of test poses based on the model;
A quality circuit that generates a quality metric for at least one of the camera configuration, the first process , and the second process , the quality circuit comprising:
The first processing and the second processing use a comparison of the first view image, the second view image, and the reference image,
A device comprising a quality circuit .
前記第1の処理及び前記第2の処理のうちの少なくとも1つは、前記仮想キャプチャ画像の第1の仮想キャプチャ画像に対する深度マップモデルを生成することを含み、 At least one of the first processing and the second processing includes generating a depth map model for a first virtual capture image of the virtual capture image,
前記第1の処理及び前記第2の処理のうちの少なくとも1つは、前記深度マップモデルを使用して、前記複数の試験ポーズのうちの試験ポーズに、前記第1の仮想キャプチャ画像をビューシフトすることを含む、請求項1に記載の装置。 At least one of the first process and the second process view-shifts the first virtual captured image to a test pose of the plurality of test poses using the depth map model. 2. The apparatus of claim 1, comprising:
前記第1の処理及び前記第2の処理のうちの少なくとも1つは、少なくとも1つの深度モデルを使用して3Dポイントのセットを決定することを含み、 At least one of the first process and the second process includes determining a set of 3D points using at least one depth model;
前記深度モデルは、前記仮想キャプチャ画像から決定され、 the depth model is determined from the virtual captured image;
前記第1の処理及び前記第2の処理のうちの少なくとも1つは、前記仮想キャプチャ画像のうちの少なくとも1つの仮想キャプチャ画像を使用して、各3Dポイントの色を決定することを含み、 At least one of the first process and the second process includes determining a color of each 3D point using at least one of the virtual capture images;
前記第1の処理及び前記第2の処理のうちの少なくとも1つは、前記3Dポイントの投影に基づいて、前記複数の試験ポーズのうちの試験ポーズのための新しい画像を合成することを含む、請求項1に記載の装置。 At least one of the first processing and the second processing includes synthesizing a new image for a test pose of the plurality of test poses based on the projection of the 3D points. A device according to claim 1.
前記品質メトリックは、前記第1のビュー画像に対する第1の品質メトリック、及び前記第2のビュー画像に対する第2の品質メトリックを含む、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the quality metrics include a first quality metric for the first view image and a second quality metric for the second view image. 前記品質回路は、複数のカメラ構成に対する品質メトリックを決定し、 the quality circuit determines quality metrics for a plurality of camera configurations;
前記品質回路は、前記第1の品質メトリック及び前記第2の品質メトリックの両方に応じて、前記複数のカメラ構成の中から選択する、請求項4に記載の装置。 5. The apparatus of claim 4, wherein the quality circuit selects among the plurality of camera configurations depending on both the first quality metric and the second quality metric.
前記品質回路は前記第1の品質メトリックが第1の基準を満たしていること、前記第2の品質メトリックが第2の基準を満たしていること、及び、前記第1の品質メトリックと前記第2の品質メトリックとの差分測定値が、第3の基準を満たしていることの少なくとも1つに応じて、前記複数のカメラ構成の中から、カメラ構成を選択する、請求項に記載の装置。 The quality circuit determines that the first quality metric satisfies a first criterion , that the second quality metric satisfies a second criterion, and that the first quality metric and the first quality metric meet a second criterion. 6. The apparatus of claim 5 , selecting a camera configuration from the plurality of camera configurations in response to at least one of a difference measurement value with a quality metric of 2 satisfying a third criterion. . 前記品質回路は、各第2のビュー画像に対する信号対雑音測定値を生成し、
前記品質回路は、前記第2のビュー画像に対する前記信号対雑音測定値に応じて前記品質メトリックを生成する、請求項1に記載の装置。
the quality circuit generates a signal-to-noise measurement for each second view image;
2. The apparatus of claim 1 , wherein the quality circuit generates the quality metric in response to the signal-to-noise measurements for the second view image.
前記第1の合成回路及び前記第2の合成回路のうちの少なくとも1つの処理は、エンコード及びデコードされた仮想キャプチャ画像に基づいた画像合成の前に、前記仮想キャプチャ画像のエンコード及びデコードを行うことを含む、請求項1に記載の装置。 At least one of the first synthesis circuit and the second synthesis circuit performs encoding and decoding of the virtual capture image before image synthesis based on the encoded and decoded virtual capture image. 2. The apparatus of claim 1 , comprising: 前記第1の処理及び前記第2の処理のうちの少なくとも1つは、前記モデル深度データ及び前記推定深度データのうちの少なくとも一方に基づいた画像合成の前に、前記仮想キャプチャ画像に関連付けられた前記モデル深度データ及び前記推定深度データのうちの少なくとも一方のエンコード及びデコードを行うことを含む、請求項1に記載の装置。 At least one of the first process and the second process is associated with the virtual captured image prior to image synthesis based on at least one of the model depth data and the estimated depth data. The apparatus of claim 1 , comprising encoding and decoding at least one of the model depth data and the estimated depth data. 前記エンコードを行うことは、不可逆的エンコードを行うことを有する、請求項に記載の装置。 The apparatus of claim 8 , wherein the encoding comprises performing lossy encoding. 少なくともいくつかのカメラポーズは、前記複数の試験ポーズのうちの少なくとも一つと同じである、請求項1に記載の装置。 2. The apparatus of claim 1 , wherein at least some camera poses are the same as at least one of the plurality of test poses . 前記カメラポーズよりも10倍以上多い試験ポーズが存在する、請求項1に記載の装置。 2. The apparatus of claim 1 , wherein there are ten times more test poses than the camera poses. カメラ位置は、1次元配置を形成し
試験位置は、2次元又は3次元配置を形成する、請求項1に記載の装置。
The camera positions form a one-dimensional arrangement ,
2. The apparatus of claim 1, wherein the test locations form a two-dimensional or three-dimensional arrangement.
画像キャプチャの品質を評価する方法であって、前記方法は、
シーンのモデルを格納するステップと、
前記モデルに基づいてカメラポーズに対する画像をレンダリングすることによって、カメラ構成の複数の前記カメラポーズに対する仮想キャプチャ画像を生成するステップと、
前記モデルから前記仮想キャプチャ画像に対するモデル深度データを生成するステップと、
前記モデル深度データに基づいて前記仮想キャプチャ画像を処理して、前記シーンの領域内の複数の試験ポーズに対する第1のビュー画像を生成するステップと、
前記仮想キャプチャ画像に基づいて、前記仮想キャプチャ画像に対する推定深度データを生成するステップと、
前記推定深度データに基づいて前記仮想キャプチャ画像を処理して、前記複数の試験ポーズに対する第2のビュー画像を生成するステップと、
前記モデルに基づいて前記複数の試験ポーズに対する画像をレンダリングすることによって、前記複数の試験ポーズに対する参照画像を生成するステップと、
前記カメラ構成、前記第1のビュー画像を生成する処理、及び前記第2のビュー画像を生成する処理のうちの少なくとも1つに対する品質メトリックを生成するステップであって、前記第1のビュー画像を生成する処理及び前記第2のビュー画像を生成する処理は、前記第1のビュー画像、前記第2のビュー画像、及び前記参照画像の比較を使用する、品質メトリックを生成するステップと
を有する、方法。
A method of evaluating the quality of image capture, the method comprising:
storing a model of the scene;
generating virtual captured images for a plurality of camera poses of a camera configuration by rendering images for the camera poses based on the model;
generating model depth data for the virtual captured image from the model;
processing the virtual captured image based on the model depth data to generate a first view image for a plurality of test poses within the region of the scene;
generating estimated depth data for the virtual capture image based on the virtual capture image;
processing the virtual capture image based on the estimated depth data to generate a second view image for the plurality of test poses;
generating reference images for the plurality of test poses by rendering images for the plurality of test poses based on the model;
generating a quality metric for at least one of the camera configuration, the process of generating the first view image, and the process of generating the second view image , the step of: The process of generating and the process of generating the second view image includes the step of generating a quality metric using a comparison of the first view image, the second view image, and the reference image.
A method having .
非一時的媒体に格納されたコンピュータプログラムであって、プロセッサ上で実行されると、請求項14に記載の方法を実行する、コンピュータプログラム。 15. A computer program stored on a non-transitory medium which, when executed on a processor, performs the method of claim 14 . 第1の合成回路による処理及び第2の合成回路による処理のうちの少なくとも1つは、前記仮想キャプチャ画像の第1の仮想キャプチャ画像に対する深度マップモデルを生成することを含み、 At least one of the processing by the first synthesis circuit and the processing by the second synthesis circuit includes generating a depth map model for the first virtual capture image of the virtual capture image,
前記第1の合成回路による処理及び前記第2の合成回路による処理のうちの少なくとも1つは、前記深度マップモデルを使用して、前記複数の試験ポーズのうちの試験ポーズに、前記第1の仮想キャプチャ画像をビューシフトすることを含む、請求項14に記載の方法。 At least one of the processing by the first synthesis circuit and the processing by the second synthesis circuit uses the depth map model to apply the first synthesis circuit to the test pose of the plurality of test poses. 15. The method of claim 14, comprising view shifting the virtual captured image.
第1の合成回路による処理及び第2の合成回路による処理のうちの少なくとも1つは、少なくとも1つの深度モデルを使用して3Dポイントのセットを決定することを含み、 At least one of the processing by the first synthesis circuit and the processing by the second synthesis circuit includes determining a set of 3D points using at least one depth model;
前記深度モデルは、前記仮想キャプチャ画像から決定され、 the depth model is determined from the virtual captured image;
前記第1の合成回路による処理及び前記第2の合成回路による処理のうちの少なくとも1つは、前記仮想キャプチャ画像のうちの少なくとも1つの仮想キャプチャ画像を使用して、各3Dポイントの色を決定することを含み、 At least one of the processing by the first synthesis circuit and the processing by the second synthesis circuit determines the color of each 3D point using at least one of the virtual capture images. including doing;
前記第1の合成回路による処理及び前記第2の合成回路による処理のうちの少なくとも1つは、前記3Dポイントの投影に基づいて、前記複数の試験ポーズのうちの試験ポーズのための新しい画像を合成することを含む、請求項14に記載の方法。 At least one of the processing by the first synthesis circuit and the processing by the second synthesis circuit generates a new image for a test pose of the plurality of test poses based on the projection of the 3D points. 15. The method of claim 14, comprising synthesizing.
前記品質メトリックは、前記第1のビュー画像に対する第1の品質メトリック、及び前記第2のビュー画像に対する第2の品質メトリックを含む、請求項14に記載の方法。 15. The method of claim 14, wherein the quality metrics include a first quality metric for the first view image and a second quality metric for the second view image. 複数のカメラ構成に対する品質メトリックを決定するステップと、 determining quality metrics for multiple camera configurations;
前記第1の品質メトリック及び前記第2の品質メトリックの両方に応じて、前記複数のカメラ構成の中から選択するステップとをさらに有する、請求項18に記載の方法。 19. The method of claim 18, further comprising selecting among the plurality of camera configurations depending on both the first quality metric and the second quality metric.
前記第1の品質メトリックが第1の基準を満たしていること、前記第2の品質メトリックが第2の基準を満たしていること、及び、前記第1の品質メトリックと前記第2の品質メトリックとの差分測定値が、第3の基準を満たしていることの少なくとも1つに応じて、前記複数のカメラ構成の中から、カメラ構成を選択するステップをさらに有する、請求項19に記載の方法。 the first quality metric satisfies a first criterion; the second quality metric satisfies a second criterion; and the first quality metric and the second quality metric 20. The method of claim 19, further comprising selecting a camera configuration from the plurality of camera configurations in response to at least one of the difference measurements of satisfying a third criterion.
JP2022516051A 2019-09-12 2020-09-08 Apparatus and method for assessing the quality of an image capture of a scene - Patents.com Active JP7527351B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19196992.2A EP3792877A1 (en) 2019-09-12 2019-09-12 Apparatus and method for evaluating a quality of image capture of a scene
EP19196992.2 2019-09-12
PCT/EP2020/075045 WO2021048107A1 (en) 2019-09-12 2020-09-08 Apparatus and method for evaluating a quality of image capture of a scene

Publications (3)

Publication Number Publication Date
JP2022548853A JP2022548853A (en) 2022-11-22
JPWO2021048107A5 true JPWO2021048107A5 (en) 2024-03-21
JP7527351B2 JP7527351B2 (en) 2024-08-02

Family

ID=

Similar Documents

Publication Publication Date Title
US8655052B2 (en) Methodology for 3D scene reconstruction from 2D image sequences
JP6351238B2 (en) Image processing apparatus, imaging apparatus, and distance correction method
KR101655078B1 (en) Method and apparatus for generating moving photograph
JP2019125929A5 (en)
KR101136506B1 (en) Image generation method, device, its program and recording medium stored with program
US9589369B2 (en) Method and arrangement for improved image matching
CN112233212A (en) Portrait editing and composition
KR20110086826A (en) Method, apparatus and software for determining motion vectors
WO2017124298A1 (en) Video encoding and decoding method, and inter-frame prediction method, apparatus, and system thereof
JP2023030007A5 (en)
CN110852965A (en) Video illumination enhancement method and system based on generation countermeasure network
JPWO2018225133A1 (en) Image processing apparatus, image processing method, and image processing program
JP2018067106A (en) Image processing system, image processing program, and image processing method
CN111813689B (en) Game testing method, apparatus and medium
JP2019079114A (en) Image processing device, image processing method, and program
JP2019016230A (en) Learning device, image combining device, learning method, image combining method, and program
US11475629B2 (en) Method for 3D reconstruction of an object
JP2021197082A5 (en) Information processing device, information processing method and program
CN115334308B (en) Learning model-oriented coding decision processing method, device and equipment
JPWO2021048107A5 (en)
JP2010250560A (en) Image processing apparatus and method thereof
JP5043849B2 (en) Variable shape motion estimation in video sequences
CN113614791A (en) Dynamic three-dimensional imaging method
US11783493B2 (en) Obtaining high resolution and dense reconstruction of face from sparse facial markers
JP5752011B2 (en) Image processing apparatus, image processing method, program, and storage medium