WO2022124026A1 - Trained model generation method and information processing device - Google Patents

Trained model generation method and information processing device Download PDF

Info

Publication number
WO2022124026A1
WO2022124026A1 PCT/JP2021/042193 JP2021042193W WO2022124026A1 WO 2022124026 A1 WO2022124026 A1 WO 2022124026A1 JP 2021042193 W JP2021042193 W JP 2021042193W WO 2022124026 A1 WO2022124026 A1 WO 2022124026A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual viewpoint
rendering
viewpoint image
error
image
Prior art date
Application number
PCT/JP2021/042193
Other languages
French (fr)
Japanese (ja)
Inventor
尚 小曳
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022124026A1 publication Critical patent/WO2022124026A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to a method of generating a trained model and an information processing device.
  • CG Computer Graphics
  • Patent Document 1 discloses a three-dimensional shape restoration method in which the resolution of shape restoration of an object is sequentially increased by using input images having different resolutions in stages, and the shape of the object is restored in a short time as a whole. ing.
  • the trained model generation method is a method of generating a trained model having a virtual viewpoint image generation unit and a rendering parameter estimation unit, in which the virtual viewpoint image generation unit generates a virtual viewpoint image having a higher resolution than the input image.
  • the rendering parameter estimation unit estimates the rendering parameter using the virtual viewpoint image.
  • an information processing device has a virtual viewpoint image generation unit and a rendering parameter estimation unit.
  • the virtual viewpoint image generation unit generates a virtual viewpoint image having a higher resolution than the input image.
  • the rendering parameter estimation unit estimates rendering parameters using the virtual viewpoint image.
  • FIG. 1 is a diagram showing a configuration example of an information processing apparatus according to the first embodiment of the present disclosure.
  • the information processing device 1 includes a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various circuits.
  • the information processing apparatus 1 includes a virtual viewpoint image generation unit 2 and a rendering parameter estimation unit 3 that function by executing a program stored in a ROM by a CPU using a RAM as a work area.
  • the virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3 included in the information processing device 1 are partially or wholly composed of hardware such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). May be good.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3 included in the information processing device 1 realize or execute the actions of information processing described below, respectively.
  • the internal configuration of the information processing apparatus 1 is not limited to the configuration shown in FIG. 1, and may be any other configuration as long as it is configured to perform information processing described later.
  • the virtual viewpoint image generation unit 2 generates a virtual viewpoint image using the input image and outputs it to the rendering parameter estimation unit 3.
  • the virtual viewpoint image is an image assuming that a subject (hereinafter, may be referred to as an object) reflected in a two-dimensional input image is captured from a virtual viewpoint different from the viewpoint of the input image.
  • a predicted zoom image in which the virtual viewpoint image generation unit 2 becomes a virtual viewpoint image from the input image will be described as an example.
  • the predictive zoom image is an image as if the subject in the input image was zoomed by a camera, and is an image having a higher resolution than the input image.
  • the virtual viewpoint image generation unit 2 can also generate a virtual viewpoint image other than the predicted zoom image. Virtual viewpoint images other than the predictive zoom image will be described later.
  • FIG. 2 is a diagram showing a configuration example of a virtual viewpoint image generation unit according to the first embodiment of the present disclosure.
  • the conversion from a low resolution image to a high resolution image is performed using a technique such as super-resolution.
  • a technique such as super-resolution.
  • a regression problem of a two-dimensional waveform that generates a predicted zoom image from an input image is set, and a gradation value between the predicted zoom image and the correct zoom image is set.
  • a prediction method that minimizes the squared error of the difference between the two is known.
  • the rendering parameter estimation unit 3 in the subsequent stage is a rendering parameter that can reproduce the surface shape of a high-definition object sufficiently higher than the input image when the predicted zoom image generated by the method of minimizing the square error is used. Cannot be estimated.
  • the virtual viewpoint image generation unit 2 includes a generation parameter 20, a generation unit 21, a binary classifier 22, and a similarity calculation unit 23.
  • the generation unit 21 is a trained model machine-learned to generate a predictive zoom image having a distribution similar to the correct zoom image given the distribution of the input image.
  • the machine learning is realized by updating the generation parameter 20 of the generation unit 21 using the output of the binary classifier 22 that identifies whether the input image is sufficiently close to the correct zoom image.
  • the generation unit 21 when the input image is input, the generation unit 21 generates a predicted zoom image which is a virtual viewpoint image of the input image and outputs it to the binary classifier 22.
  • the binary classifier 22 When the predictive zoom image is input from the generation unit 21 and the correct answer predictive zoom image which is the correct answer virtual viewpoint image is input from the outside, the binary classifier 22 has the probability of the classification result of both the predictive zoom image and the correct answer zoom image.
  • the density distributions are calculated as probability density distributions dg and dr, respectively, and output to the similarity calculation unit 23.
  • the similarity calculation unit 23 calculates both the Kullback-Leibler Divergence and the Jensen-Shannon Divergence of the probability density distributions dl and dr as the similarity, and outputs them to the generation unit 21.
  • the generation unit 21 updates the generation parameter 20 so as to minimize the similarity of the probability density distribution pg ⁇ dr input from the similarity calculation unit 23.
  • the Kullback-Leibler Divergence and Jensen-Shannon Divergence are scales indicating that the smaller the value, the closer the characteristics of dl and dr are.
  • the generation unit 21 is realized by a convolutional neural network, and the generation unit 21 updates the generation parameter 20 by an error back propagation method using the similarity as an input.
  • the virtual viewpoint image generation unit 2 generates a predictive zoom image close to the correct answer from the viewpoint of the probability density distribution from the input image, for example, a blurred predictive zoom image obtained by a method that minimizes the square error.
  • a predicted zoom image having a sufficiently higher resolution and closer to the correct answer.
  • the rendering parameter estimation unit 3 in the subsequent stage can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
  • the rendering parameter estimation unit 3 estimates and outputs the rendering parameter of the subject using the predicted zoom image.
  • the rendering parameter may target all rendering parameters used for general CG editing.
  • the surface shape of the object to be rendered which is represented by a three-dimensional point cloud or a mesh, is targeted.
  • the rendering parameter estimation unit 3 estimates a three-dimensional shape using the gradation value or the chromaticity value of the predicted zoom image.
  • a commonly used 3D shape estimation algorithm such as shape from shading.
  • shape from shading a map in the normal direction within a minute grid range corresponding to the pixel size of the input image is calculated by using the adjacent pixel difference of the gradation value, and is output as the surface shape.
  • the virtual viewpoint image generation unit 2 in the previous stage generates a predicted zoom image having a resolution sufficiently higher than that of the input image and is closer to the correct answer, and outputs the predicted zoom image to the rendering parameter estimation unit 3. Then, the rendering parameter estimation unit 3 estimates the rendering parameter using the predicted zoom image input from the virtual viewpoint image generation unit 2. As a result, the rendering parameter estimation unit 3 can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
  • FIG. 3 is a flowchart showing an example of learning processing executed by the virtual viewpoint image generation unit according to the first embodiment of the present disclosure.
  • an input image is first input to the virtual viewpoint image generation unit 2 (step S101).
  • the generation unit 21 generates a predicted zoom image which is a virtual viewpoint image by using the generation parameter 20 and the input image (step S102).
  • the predicted zoom image and the correct zoom image, which is the correct virtual viewpoint image are input to the binary classifier 22 (step S103).
  • the binary classifier 22 calculates the probability density distribution of the binary classification result of the predicted zoom image which is the virtual viewpoint image and the correct zoom image which is the correct virtual viewpoint image as the probability density distribution pg ⁇ prr (step S104). ..
  • the similarity calculation unit 23 calculates the Kullback-Leibler Divergence between the probability density distribution pg and the probability density distribution pr as the similarity with Jensen-Shannon Divergence (step S105).
  • the generation unit 21 updates the generation parameter 20 of the generation unit 21 so as to minimize the similarity (step S106). After that, the virtual viewpoint image generation unit 2 determines whether or not the amount of change in the degree of similarity is equal to or less than the threshold value (step S107).
  • step S107, No when the virtual viewpoint image generation unit 2 determines that the amount of change in the similarity is not equal to or less than the threshold value (step S107, No), the virtual viewpoint image generation unit 2 changes to another input image (step S108), and shifts the process to step S101. Further, when the virtual viewpoint image generation unit 2 determines that the amount of change in the similarity is equal to or less than the threshold value (step S107, Yes), the process ends.
  • FIG. 4 is a flowchart showing an example of rendering parameter estimation processing executed by the information processing apparatus according to the first embodiment of the present disclosure.
  • an input image is first input to the information processing apparatus 1 (step S201).
  • the trained virtual viewpoint image generation unit 2 generates a predicted zoom image which is a virtual viewpoint image by using the input image and the trained generation parameter 20 (step S202).
  • the rendering parameter estimation unit 3 estimates and outputs the rendering parameter using the predicted zoom image (step S203), and ends the process.
  • the virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3 according to the present embodiment may be implemented by any learning algorithm, but it is particularly preferable to realize them by a convolutional neural network.
  • FIG. 5 is a diagram showing a configuration example of the information processing apparatus according to the second embodiment of the present disclosure.
  • the information processing apparatus 1a includes a virtual viewpoint image generation unit 2, a rendering parameter estimation unit 3a, a rendering unit 4, a rendering error calculation unit 5, a rendering parameter error estimation unit 6, and a rendering parameter.
  • the estimation unit update unit 7 is provided.
  • the virtual viewpoint image generation unit 2 generates a predicted zoom image which is a virtual viewpoint image using the input image, and outputs it to the rendering parameter estimation unit 3a and the rendering error calculation unit 5.
  • the rendering parameter estimation unit 3a estimates the rendering parameter using the predicted zoom image which is a virtual viewpoint image and the estimation parameter 30 used for estimating the rendering parameter, and outputs the rendering parameter to the rendering unit 4.
  • the rendering unit 4 renders using the estimated rendering parameters, and outputs the rendering result to the rendering error calculation unit 5.
  • the rendering error calculation unit 5 calculates the rendering error using the predicted zoom image which is a virtual viewpoint image and the rendering result.
  • the rendering parameter error estimation unit 6 calculates the rendering parameter error using the rendering error.
  • the rendering parameter estimation unit update unit 7 calculates the rendering parameter estimation unit update amount using the rendering parameter error, and updates the rendering parameter estimation unit 3a and the estimation parameter 30.
  • the virtual viewpoint image generation unit 2 has the same configuration as the virtual viewpoint image generation unit 2 according to the first embodiment, and performs the same operation. Therefore, duplicate description is omitted here.
  • the rendering parameter estimation unit 3a estimates the rendering parameter using the predicted zoom image which is a virtual viewpoint image and the estimation parameter 30.
  • the rendering parameter may target all rendering parameters used for general CG editing.
  • the rendering unit 4 outputs the rendering result using the estimated rendering parameters. At this time, the rendering unit 4 outputs a rendering result with a two-dimensional gradation value having the same number of pixels as the predicted zoom image by using the estimated rendering parameter.
  • the rendering error calculation unit 5 calculates the rendering error using the predicted zoom image and the rendering result.
  • the rendering error is calculated as the difference information of the two-dimensional gradation values in each pixel between the predicted zoom image and the rendering result.
  • the fact that a difference occurs in the gradation value in each pixel means that the estimation accuracy of the rendering parameter by the rendering parameter estimation unit 3a and the estimation parameter 30 is not sufficient for reconstructing the predicted zoom image. It is information indicating that there is room for update.
  • the high-definition necessary for reconstructing the predicted zoom image is performed by processing the rendering parameter error estimation unit 6 and the rendering parameter estimation unit update unit 7 in the subsequent stage using the calculated rendering error. It is possible to estimate rendering parameters that can reproduce the surface shape of the object.
  • the rendering parameter error estimation unit 6 calculates the rendering parameter error using the rendering error. Then, the rendering parameter estimation unit update unit 7 calculates the rendering parameter estimation unit update amount using the rendering parameter error, and updates the rendering parameter estimation unit 3a and the estimation parameter R.
  • the difference information of the two-dimensional gradation values is reflected in the function for estimating a plurality of rendering parameters in three dimensions.
  • This process is realized by a process of deriving the inverse function of the entire function including the rendering parameter estimation unit 3a and the rendering unit 4 using the difference information of the two-dimensional gradation values as the loss function, and is therefore generally automatic. It is possible to apply a differential algorithm.
  • the entire function is represented by a differentiable convolutional neural network, and the rendering parameter estimation unit 3a and the estimation parameter 30 are subjected to an error back propagation method in which the difference information of the two-dimensional gradation values is input. And update.
  • the difference information of the two-dimensional gradation values of the predicted zoom image and the rendering result in each pixel is used as the rendering error in the previous stage.
  • the rendering parameter estimation unit 3a can be updated so as to estimate the rendering parameter that can reproduce the surface shape of the high-definition object required for reconstructing the predicted zoom image.
  • the trained virtual viewpoint image generation unit 2 generates a predicted zoom image which is a virtual viewpoint image by using the input image and the trained generation parameter 20. (Step S301).
  • the rendering parameter estimation unit 3a estimates the rendering parameter using the predicted zoom image and the estimation parameter 30, and the rendering unit 4 renders using the rendering parameter and outputs the rendering result (step S302). ..
  • the rendering error calculation unit 5 calculates the rendering error using the predicted zoom image which is a virtual viewpoint image and the rendering result (step S303). Subsequently, the rendering parameter error estimation unit 6 calculates the rendering parameter error using the rendering error (step S304).
  • the rendering parameter estimation unit update unit 7 calculates the rendering parameter estimation unit update amount using the rendering parameter error, and updates the rendering parameter estimation unit and the estimation parameter 30 (step S305).
  • the rendering parameter estimation unit 3a determines whether or not the rendering parameter update unit update amount is equal to or less than the threshold value (step S306).
  • the rendering parameter estimation unit 3a determines that the rendering parameter update unit update amount is not equal to or less than the threshold value (step S306, No)
  • the rendering parameter estimation unit 3a changes to another input image (step S307), and shifts the process to step S301. Further, when the rendering parameter estimation unit 3a determines that the rendering parameter update unit update amount is equal to or less than the threshold value (step S306, Yes), the process ends.
  • the information processing apparatus 1a is a rendering parameter estimation unit so that the error between the virtual viewpoint image generated by the virtual viewpoint image generation unit 2 and the rendering result of the rendering unit 4 is minimized. 3a and the estimation parameter 30 can be optimized. As a result, the information processing apparatus 1a can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
  • each part in the present embodiment may be realized by any model / learning algorithm, it is preferable to realize it by combining a convolutional neural network and a differentiable CG renderer.
  • the surface shape of the object to be rendered represented by the three-dimensional point cloud or the mesh and the camera parameters of the rendering camera are targeted.
  • the virtual viewpoint image generation unit 2 in the previous stage calculates a predicted zoom image obtained by zooming the input image, and calculates the surface shape of the object and the camera parameters of the rendering camera from the predicted zoom image to create a virtual image in the predicted zoom image. It is possible to reflect the appropriate zoom amount in the camera parameter estimation of the rendering camera, and as a result, there is an effect that the accuracy of surface shape estimation of the other object is improved.
  • FIG. 7 is a diagram showing a configuration example of the information processing apparatus according to the third embodiment of the present disclosure.
  • the rendering parameter estimation unit 3b of the information processing apparatus 1b includes a camera parameter estimation unit 31 and a surface shape estimation unit 32.
  • the rendering parameter error estimation unit 6b includes a camera parameter error estimation unit 61 and a surface shape error estimation unit 62.
  • the rendering parameter estimation unit update unit 7b includes a camera parameter estimation unit update unit 71 and a surface shape estimation unit update unit 72.
  • the virtual viewpoint image generation unit 2 has the same configuration as the virtual viewpoint image generation unit 2 according to the first embodiment, and performs the same operation. Therefore, duplicate description is omitted here.
  • the camera parameter estimation unit 31 estimates the camera parameters using the predicted zoom image and the estimation parameters used for estimating the camera parameters.
  • the surface shape estimation unit 32 estimates the surface shape of the object using the predicted zoom image and the estimation parameters used for estimating the surface shape.
  • the rendering unit 41 uses the surface shape of the object and the camera parameters to output a rendering result with a two-dimensional gradation value having the same number of pixels as the predicted zoom image. By doing so, there is an effect that the prediction zoom image and the rendering result can be compared in the processing unit in the subsequent stage, and the error can be directly fed back to the rendering parameter estimation unit.
  • the rendering error calculation unit 5 calculates the rendering error using the predicted zoom image and the rendering result.
  • the rendering error is calculated as the difference information of the two-dimensional gradation values in each pixel between the predicted zoom image and the rendering result.
  • the fact that a difference occurs in the gradation value in each pixel means that the camera parameter and surface shape estimation accuracy based on the camera parameter estimation unit 31 and surface shape estimation unit 32 in the previous stage and the estimation parameters re-estimate the predicted zoom image. It is information that is not enough to configure and that there is room for update.
  • the high-definition camera parameters necessary for reconstructing the predicted zoom image by processing the rendering parameter error estimation unit 6b and the rendering parameter estimation unit update unit 7b in the subsequent stage using the rendering error. And it becomes possible to estimate the surface shape.
  • the camera parameter error estimation unit 61 calculates the camera parameter error using the rendering error. Then, the camera parameter estimation unit update unit 71 calculates the camera parameter estimation unit update amount using the camera parameter error, and updates the camera parameter estimation unit 31 and the estimation parameter used for camera parameter estimation.
  • the surface shape error estimation unit 62 calculates the surface shape error using the rendering error. Then, the surface shape estimation unit update unit 72 calculates the surface shape estimation unit update amount using the surface shape error, and updates the surface shape estimation unit 32 and the estimation parameters used for surface shape estimation.
  • the difference information of the two-dimensional gradation values is reflected in the function for estimating a plurality of rendering parameters in three dimensions.
  • This process is realized by a procedure for deriving the inverse function of the entire function including the rendering parameter estimation unit 3b and the rendering unit 41 using the difference information of the two-dimensional gradation values as the loss function, so that it is generally automatic. It is possible to apply a differential algorithm.
  • the entire function is represented by a derivatable convolutional neural network, and the rendering parameter estimation unit 3b and the camera parameter are used by an error back propagation method in which the difference information of the two-dimensional gradation value is input.
  • the estimation parameters used for the estimation of the surface shape and the estimation parameters used for the estimation of the surface shape are updated.
  • the difference information of the two-dimensional gradation values of the predicted zoom image and the rendering result in each pixel is used as the rendering error in the previous stage.
  • the rendering parameter estimation unit can be updated to estimate the rendering parameter that can reproduce the surface shape of the high-definition object required for reconstructing the predicted zoom image.
  • the information processing devices 1, 1a and 1b generate the predicted zoom image of the input image as the virtual viewpoint image
  • the information processing devices 1, 1a and 1b have other virtual viewpoints including the predicted zoom. It is also possible to generate an image.
  • the information processing devices 1, 1a, 1b rotate the virtual viewpoint with respect to the input image in at least one of the yaw direction, the roll direction, and the pitch direction.
  • the generation parameter 20 is learned in advance so as to generate the predicted viewpoint image assuming the case, and the predicted viewpoint image is generated using the learned generation parameter 20, the rendering parameter estimation units 3, 3a, 3b and the rendering. It can be output to the error calculation unit 5. Since the configuration and operation of the other parts are the same as those in the second embodiment or the third embodiment, the description thereof will be omitted.
  • a virtual viewpoint image generation unit 2 By using such a virtual viewpoint image generation unit 2, by generating and using a predicted viewpoint image from another viewpoint that is not in the input image, a virtual viewpoint change in the predicted viewpoint image can be generated by the camera of the rendering camera. Reflecting in the estimation of parameters and the like, the viewpoint dependence of the surface shape estimation of the object is reduced, and it becomes possible to more stably estimate the rendering parameters with higher definition than the input image.
  • the virtual viewpoint image generation unit 2 has a virtual viewpoint image having a higher resolution than the input image in the method of generating the trained model having the virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3.
  • the rendering parameter estimation unit 3 estimates the rendering parameter using the virtual viewpoint image. This makes it possible for the trained model generation method to estimate rendering parameters that can reproduce the surface shape of an object with higher definition than the input image.
  • the virtual viewpoint image generation unit 2 generates a virtual viewpoint image using the input image and the generation parameter 20, and the virtual viewpoint image and the correct virtual viewpoint image are used.
  • the binary classifier 22 identifies whether or not the image is genuine like the correct virtual viewpoint image, and the probability density distribution of the virtual viewpoint image output from the binary classifier 22 and the probability density of the correct virtual viewpoint image. Includes updating the generated parameters to minimize similarity to the distribution.
  • the trained model generation method can estimate rendering parameters that can reproduce the surface shape of a higher-definition object by using the generation parameters optimized by the update.
  • the method of generating the trained model is that the rendering unit 4 generates a rendered image using the estimated rendering parameters, and the rendering error calculation unit 5 calculates the error between the virtual viewpoint image and the rendered image.
  • the rendering parameter error estimation unit 6 estimates the rendering parameter error based on the calculated error between the virtual viewpoint image and the rendered image
  • the rendering parameter estimation unit updating unit 7 estimates the rendering parameter error based on the rendering parameter error. Includes updating the estimation parameter 30 used to estimate the rendering parameters.
  • the trained model generation method estimates the rendering parameters that can reproduce the surface shape of the object with even higher definition by using the estimation parameters optimized by the update by the rendering parameter estimation unit update unit 7. Is possible.
  • the rendering parameter estimation unit 3b estimates the camera parameters used for rendering, estimates the surface shape of the object to be rendered, and the rendering parameter error estimation unit 6b determines the camera parameters.
  • the error of the estimation parameter 30 is estimated
  • the error of the surface shape is estimated
  • the rendering parameter estimation unit update unit 7b updates the camera parameter included in the estimation parameter 30 based on the error of the camera parameter, and the surface. It includes updating the surface shape included in the estimation parameter 30 based on the shape error.
  • the method of generating the trained model includes that the virtual viewpoint image generation unit 2 generates a virtual viewpoint image assuming that the virtual viewpoint is brought closer to the object to be rendered.
  • the trained model generation method can generate a predicted zoom image having a higher resolution than the input image as if the subject in the input image was zoomed by the camera as a virtual viewpoint image.
  • the trained model generation method is when the virtual viewpoint image generation unit 2 rotates the virtual viewpoint with respect to the object to be rendered in at least one of the yaw direction, the roll direction, and the pitch direction. Includes generating a virtual viewpoint image assuming.
  • the trained model generation method is to generate and use a predicted viewpoint image from another viewpoint that is not in the input image. It is possible to reduce the viewpoint dependence of the surface shape estimation of the object by reflecting it in the estimation such as, and to estimate the rendering parameters with higher definition than the input image more stably.
  • the information processing device 1 has a virtual viewpoint image generation unit 2 and a rendering parameter estimation unit 3.
  • the virtual viewpoint image generation unit 2 generates a virtual viewpoint image having a higher resolution than the input image.
  • the rendering parameter estimation unit 3 estimates rendering parameters using a virtual viewpoint image. As a result, the information processing apparatus 1 can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
  • the virtual viewpoint image generation unit 2 has a generation unit 21 and a binary classifier 22.
  • the generation unit 21 generates a virtual viewpoint image using the input image and the generation parameters.
  • the binary classifier 22 uses the virtual viewpoint image and the correct virtual viewpoint image to identify whether or not the virtual viewpoint image is genuine like the correct virtual viewpoint image.
  • the virtual viewpoint image generation unit 2 updates the generation parameter 20 so that the degree of similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier 22 and the probability density distribution of the correct virtual viewpoint image is minimized.
  • the information processing apparatus 1 can estimate rendering parameters that can reproduce the surface shape of a higher-definition object by using the generation parameters optimized by the update.
  • the information processing device 1a has a rendering unit 4, a rendering error calculation unit 5, a rendering parameter error estimation unit 6, and a rendering parameter estimation unit update unit 7.
  • the rendering unit 4 generates a rendered image using the estimated rendering parameters.
  • the rendering error calculation unit 5 calculates an error between the virtual viewpoint image and the rendered image.
  • the rendering parameter error estimation unit 6 estimates the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image.
  • the rendering parameter estimation unit update unit 7 updates the estimation parameters used for estimating the rendering parameters based on the error of the rendering parameters.
  • the information processing apparatus 1a can estimate rendering parameters that can reproduce the surface shape of an even higher-definition object by using the estimation parameters optimized by the update by the rendering parameter estimation unit update unit 7. It will be possible.
  • the rendering parameter estimation unit 3b has a camera parameter estimation unit 31 and a surface shape estimation unit 32.
  • the camera parameter estimation unit 31 estimates the camera parameters used for rendering.
  • the surface shape estimation unit 32 estimates the surface shape of the object to be rendered.
  • the rendering parameter error estimation unit 6b has a camera parameter error estimation unit 61 and a surface shape error estimation unit 62.
  • the camera parameter error estimation unit 61 estimates the camera parameter error.
  • the surface shape error estimation unit 62 estimates the surface shape error.
  • the rendering parameter estimation unit update unit 7b has a camera parameter estimation unit update unit 71 and a surface shape estimation unit update unit 72.
  • the camera parameter estimation unit update unit 71 updates the camera parameters included in the estimation parameters based on the error of the camera parameters.
  • the surface shape estimation unit updating unit 72 updates the surface shape included in the estimation parameters based on the surface shape error.
  • the information processing apparatus 1b can reflect, for example, a virtual zoom amount in the virtual viewpoint image in the camera parameter estimation of the rendering camera, and as a result, the accuracy of the surface shape estimation of the other object is improved. It has the effect of improving.
  • the virtual viewpoint image generation unit 2 generates a virtual viewpoint image assuming that the virtual viewpoint is brought closer to the object to be rendered.
  • the information processing devices 1, 1a, 1b can generate a predicted zoom image having a higher resolution than the input image as if the subject in the input image was zoomed by the camera as a virtual viewpoint image.
  • the virtual viewpoint image generation unit generates a virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. ..
  • the information processing devices 1, 1a, 1b generate and use a predicted viewpoint image from another viewpoint that is not included in the input image, so that, for example, a virtual viewpoint change in the predicted viewpoint image can be generated by the rendering camera. It is possible to reduce the viewpoint dependence of the surface shape estimation of the object by reflecting it in the estimation of the camera parameters and the like, and to more stably estimate the rendering parameters with higher definition than the input image.
  • the present technology can also have the following configurations.
  • Virtual viewpoint image generator and Rendering parameter estimator and In the method of generating a trained model with The virtual viewpoint image generation unit To generate a virtual viewpoint image with higher resolution than the input image, The rendering parameter estimation unit A method of generating a trained model including estimating rendering parameters using the virtual viewpoint image.
  • the virtual viewpoint image generation unit Generating the virtual viewpoint image using the input image and the generation parameters, Using the virtual viewpoint image and the correct virtual viewpoint image, it is possible to identify whether or not the virtual viewpoint image is as genuine as the correct virtual viewpoint image by a binary classifier.
  • the above (1) including updating the generation parameter so that the similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier and the probability density distribution of the correct virtual viewpoint image is minimized.
  • the rendering part Using the estimated rendering parameters to generate a rendered image, The rendering error calculation unit To calculate the error between the virtual viewpoint image and the rendered image, Rendering parameter error estimator Estimating the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image, and Rendering parameter estimation section update section.
  • the rendering parameter estimation unit Estimating the camera parameters used for rendering and Estimating the surface shape of the object to be rendered and The rendering parameter error estimation unit Estimating the error of the camera parameters and Estimating the error of the surface shape and The rendering parameter estimation unit update unit Updating the camera parameters included in the estimation parameters based on the camera parameter error,
  • the method for generating a trained model according to (3) above which includes updating the surface shape included in the estimation parameters based on the surface shape error.
  • the virtual viewpoint image generator The method for generating a trained model according to any one of (1) to (4) above, which includes generating the virtual viewpoint image assuming that the virtual viewpoint is brought close to the object to be rendered.
  • the virtual viewpoint image generator The above (1) including generating the virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. )-(5).
  • a virtual viewpoint image generator that generates a virtual viewpoint image with a higher resolution than the input image, An information processing device having a rendering parameter estimation unit that estimates rendering parameters using the virtual viewpoint image.
  • the virtual viewpoint image generation unit is A generation unit that generates the virtual viewpoint image using an input image and generation parameters, It has a binary classifier that discriminates whether or not the virtual viewpoint image is genuine like the correct virtual viewpoint image by using the virtual viewpoint image and the correct virtual viewpoint image.
  • the generation parameter is updated so that the similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier and the probability density distribution of the correct virtual viewpoint image is minimized.
  • Information processing device (9) A rendering unit that generates a rendered image using the estimated rendering parameters, and a rendering unit. A rendering error calculation unit that calculates an error between the virtual viewpoint image and the rendered image, A rendering parameter error estimation unit that estimates the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image, and a rendering parameter error estimation unit.
  • the information processing apparatus according to (7) or (8) above, which has a rendering parameter estimation unit update unit that updates the estimation parameter used for estimating the rendering parameter based on the error of the rendering parameter.
  • the rendering parameter estimation unit is A camera parameter estimation unit that estimates the camera parameters used for rendering, and a camera parameter estimation unit. It has a surface shape estimation unit that estimates the surface shape of the object to be rendered, and has a surface shape estimation unit.
  • the rendering parameter error estimation unit is A camera parameter error estimation unit that estimates the camera parameter error, and a camera parameter error estimation unit. It has a surface shape error estimation unit that estimates the surface shape error, and has a surface shape error estimation unit.
  • the rendering parameter estimation unit update unit A camera parameter estimation unit update unit that updates the camera parameters included in the estimation parameters based on the camera parameter error, and a camera parameter estimation unit update unit.
  • the information processing apparatus which has a surface shape estimation unit updating unit that updates the surface shape included in the estimation parameter based on the surface shape error.
  • the virtual viewpoint image generator The information processing apparatus according to any one of (7) to (10), which generates the virtual viewpoint image assuming that the virtual viewpoint is brought close to the object to be rendered.
  • the virtual viewpoint image generator The above (7) to (7) to generate the virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered.
  • the information processing apparatus according to any one of 11).

Abstract

The trained model generation method according to the present disclosure is a method for generating a trained model having a virtual viewpoint image generation unit (2) and a rendering parameter estimation unit (3), wherein the method includes the virtual viewpoint image generation unit (2) generating a virtual viewpoint image having a higher resolution than an input image, and the rendering parameter estimation unit (3) estimating a rendering parameter using the virtual viewpoint image.

Description

学習済モデルの生成方法および情報処理装置Trained model generation method and information processing device
 本開示は、学習済モデルの生成方法および情報処理装置に関する。 This disclosure relates to a method of generating a trained model and an information processing device.
 CG(Computer Graphics)レンダリングにおいて、表面形状やカメラパラメータなどのレンダリングパラメータを作成するのには、多くの労力がかかる。そのため、実物を撮影した2次元画像から高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを自動的に推定する機械学習された学習済モデルのニーズが高まっている。 In CG (Computer Graphics) rendering, it takes a lot of labor to create rendering parameters such as surface shape and camera parameters. Therefore, there is an increasing need for a machine-learned trained model that automatically estimates rendering parameters that can reproduce the surface shape of a high-definition object from a two-dimensional image of an actual object.
 例えば、特許文献1には、解像度が段階的に異なる入力画像を用いて順次オブジェクトの形状復元の分解能を高めていき、全体として短時間でオブジェクトの形状を復元する3次元形状復元方法が開示されている。 For example, Patent Document 1 discloses a three-dimensional shape restoration method in which the resolution of shape restoration of an object is sequentially increased by using input images having different resolutions in stages, and the shape of the object is restored in a short time as a whole. ing.
 この3次元形状復元方法では、2次元陰影サンプリング画像データから3次元画像データに基づいて大域的形状復元を行う。その後、先に行った大域的形状復元を初期値として、前回の解像度よりも高い解像度の2次元陰影陰影サンプリング画像データに基づいてより精密な形状復元を行う。 In this 3D shape restoration method, global shape restoration is performed from 2D shadow sampling image data based on 3D image data. After that, with the global shape restoration performed earlier as the initial value, more precise shape restoration is performed based on the two-dimensional shadow shadow sampling image data having a resolution higher than the previous resolution.
 続いて、前回の復元形状を初期値として前回の解像度よりも高い解像度の2次元陰影サンプリング画像データに基づいてさらに精密な形状復元を、目標とする精度の形状復元が行われるまで反復する。 Subsequently, with the previous restored shape as the initial value, more precise shape restoration is repeated based on the two-dimensional shadow sampling image data having a resolution higher than the previous resolution until the shape restoration with the target accuracy is performed.
特開平5-126546号公報Japanese Unexamined Patent Publication No. 5-126546
 しかしながら、上記した3次元形状復元方法では、解像度の異なる入力を用いるが、同一入力に対して疎密サンプリングを行う構成であるため、入力画像よりも高精細な表面形状を推定することはできない。 However, in the above-mentioned three-dimensional shape restoration method, inputs having different resolutions are used, but since the configuration is such that sparse sampling is performed for the same input, it is not possible to estimate a surface shape with higher definition than the input image.
 そこで、本開示では、入力画像よりも高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することができる学習済モデルの生成方法および情報処理装置を提案する。 Therefore, in this disclosure, we propose a learning model generation method and an information processing device that can estimate rendering parameters that can reproduce the surface shape of an object with higher definition than the input image.
 本開示によれば、学習済モデルの生成方法が提供される。学習済モデルの生成方法は、仮想視点画像生成部と、レンダリングパラメータ推定部と、を有する学習済モデルの生成方法において、前記仮想視点画像生成部が、入力画像より高解像度の仮想視点画像を生成することと、前記レンダリングパラメータ推定部が、前記仮想視点画像を用いて、レンダリングパラメータを推定することとを含む。 According to the present disclosure, a method for generating a trained model is provided. The trained model generation method is a method of generating a trained model having a virtual viewpoint image generation unit and a rendering parameter estimation unit, in which the virtual viewpoint image generation unit generates a virtual viewpoint image having a higher resolution than the input image. The rendering parameter estimation unit estimates the rendering parameter using the virtual viewpoint image.
 また、本開示によれば、情報処理装置が提供される。情報処理装置は、仮想視点画像生成部と、レンダリングパラメータ推定部とを有する。仮想視点画像生成部は、入力画像より高解像度の仮想視点画像を生成する。レンダリングパラメータ推定部は、前記仮想視点画像を用いて、レンダリングパラメータを推定する。 Further, according to the present disclosure, an information processing device is provided. The information processing device has a virtual viewpoint image generation unit and a rendering parameter estimation unit. The virtual viewpoint image generation unit generates a virtual viewpoint image having a higher resolution than the input image. The rendering parameter estimation unit estimates rendering parameters using the virtual viewpoint image.
本開示の第1の実施形態に係る情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus which concerns on 1st Embodiment of this disclosure. 本開示の第1の実施形態に係る仮想視点画像生成部の構成例を示す図である。It is a figure which shows the structural example of the virtual viewpoint image generation part which concerns on 1st Embodiment of this disclosure. 本開示の第1の実施形態に係る仮想視点画像生成部が実行する学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process executed by the virtual viewpoint image generation part which concerns on 1st Embodiment of this disclosure. 本開示の第1の実施形態に係る情報処理装置が実行するレンダリングパラメータ推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the rendering parameter estimation process performed by the information processing apparatus which concerns on 1st Embodiment of this disclosure. 本開示の第2の実施形態に係る情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus which concerns on the 2nd Embodiment of this disclosure. 本開示の第2の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process executed by the information processing apparatus which concerns on 2nd Embodiment of this disclosure. 本開示の第3の実施形態に係る情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus which concerns on 3rd Embodiment of this disclosure.
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In each of the following embodiments, the same parts are designated by the same reference numerals, so that overlapping description will be omitted.
[1.第1の実施形態]
[1.1.情報処理装置]
 図1は、本開示の第1の実施形態に係る情報処理装置の構成例を示す図である。情報処理装置1は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。情報処理装置1は、CPUがROMに記憶されたプログラムを、RAMを作業領域として使用して実行することにより機能する仮想視点画像生成部2と、レンダリングパラメータ推定部3とを備える。
[1. First Embodiment]
[1.1. Information processing equipment]
FIG. 1 is a diagram showing a configuration example of an information processing apparatus according to the first embodiment of the present disclosure. The information processing device 1 includes a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various circuits. The information processing apparatus 1 includes a virtual viewpoint image generation unit 2 and a rendering parameter estimation unit 3 that function by executing a program stored in a ROM by a CPU using a RAM as a work area.
 なお、情報処理装置1が備える仮想視点画像生成部2およびレンダリングパラメータ推定部3は、一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。 The virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3 included in the information processing device 1 are partially or wholly composed of hardware such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). May be good.
 情報処理装置1が備える仮想視点画像生成部2およびレンダリングパラメータ推定部3は、それぞれ以下に説明する情報処理の作用を実現または実行する。なお、情報処理装置1の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 The virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3 included in the information processing device 1 realize or execute the actions of information processing described below, respectively. The internal configuration of the information processing apparatus 1 is not limited to the configuration shown in FIG. 1, and may be any other configuration as long as it is configured to perform information processing described later.
 仮想視点画像生成部2は、入力画像を用いて仮想視点画像生成し、レンダリングパラメータ推定部3へ出力する。仮想視点画像は、2次元の入力画像に写る被写体(以下、オブジェクトと称する場合がある)を入力画像の視点とは異なる仮想的な視点から見て撮像したことを想定した画像のことである。 The virtual viewpoint image generation unit 2 generates a virtual viewpoint image using the input image and outputs it to the rendering parameter estimation unit 3. The virtual viewpoint image is an image assuming that a subject (hereinafter, may be referred to as an object) reflected in a two-dimensional input image is captured from a virtual viewpoint different from the viewpoint of the input image.
 ここでは、仮想視点画像生成部2が入力画像から仮想視点画像となる予測ズーム画像を例に挙げて説明する。予測ズーム画像は、入力画像中の被写体に対しカメラでズームしたかのような画像であり、入力画像よりも解像度の高い画像である。仮想視点画像生成部2は、予測ズーム画像以外の仮想視点画像を生成することも可能である。予測ズーム画像以外の仮想視点画像については、後述する。 Here, a predicted zoom image in which the virtual viewpoint image generation unit 2 becomes a virtual viewpoint image from the input image will be described as an example. The predictive zoom image is an image as if the subject in the input image was zoomed by a camera, and is an image having a higher resolution than the input image. The virtual viewpoint image generation unit 2 can also generate a virtual viewpoint image other than the predicted zoom image. Virtual viewpoint images other than the predictive zoom image will be described later.
 ここで、仮想視点画像生成部2が予測ズーム画像生成を行うための学習済モデルの生成方法について、図2を参照して説明する。図2は、本開示の第1の実施形態に係る仮想視点画像生成部の構成例を示す図である。 Here, a method of generating a trained model for the virtual viewpoint image generation unit 2 to generate a predictive zoom image will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of a virtual viewpoint image generation unit according to the first embodiment of the present disclosure.
 一般に、低解像度の画像から高解像度の画像への変換は、超解像のような技術を用いて行われる。例えば、低解像度の画像から高解像度の画像への変換を行う手法として、入力画像から予測ズーム画像を生成する2次元波形の回帰問題を設定し、予測ズーム画像および正解ズーム画像間における階調値の差分の二乗誤差を最小にする予測手法が知られている。 Generally, the conversion from a low resolution image to a high resolution image is performed using a technique such as super-resolution. For example, as a method for converting a low-resolution image to a high-resolution image, a regression problem of a two-dimensional waveform that generates a predicted zoom image from an input image is set, and a gradation value between the predicted zoom image and the correct zoom image is set. A prediction method that minimizes the squared error of the difference between the two is known.
 しかし、二乗誤差(Mean Square Error)を最小とする手法では、低高解像度画像および正解低解像度画像の対を大量に用いて学習するため、平均的な解であるぼやけた予測ズーム画像しか生成できない。 However, in the method that minimizes the square error (Mean Square Error), learning is performed using a large number of pairs of low-high resolution images and correct low-resolution images, so only a blurred predicted zoom image that is an average solution can be generated. ..
 そのため、後段のレンダリングパラメータ推定部3は、二乗誤差を最小とする手法を用いて生成された予測ズーム画像を用いた場合、入力画像よりも十分に高精細オブジェクトの表面形状を再現可能なレンダリングパラメータを推定することはできない。 Therefore, the rendering parameter estimation unit 3 in the subsequent stage is a rendering parameter that can reproduce the surface shape of a high-definition object sufficiently higher than the input image when the predicted zoom image generated by the method of minimizing the square error is used. Cannot be estimated.
 そこで、図2に示すように、本実施形態に係る仮想視点画像生成部2は、生成パラメータ20と、生成部21と、2値分類器22と、類似度算出部23とを備える。生成部21は、入力画像の分布が与えられたときに、正解のズーム画像に似た分布を有する予測ズーム画像を生成するように機械学習された学習済モデルである。 Therefore, as shown in FIG. 2, the virtual viewpoint image generation unit 2 according to the present embodiment includes a generation parameter 20, a generation unit 21, a binary classifier 22, and a similarity calculation unit 23. The generation unit 21 is a trained model machine-learned to generate a predictive zoom image having a distribution similar to the correct zoom image given the distribution of the input image.
 その機械学習は、入力された画像が正解ズーム画像に十分近いか否かを識別する2値分類器22の出力を用いて、生成部21の生成パラメータ20を更新することによって実現される。 The machine learning is realized by updating the generation parameter 20 of the generation unit 21 using the output of the binary classifier 22 that identifies whether the input image is sufficiently close to the correct zoom image.
 具体的には、生成部21は、入力画像が入力されると、入力画像の仮想視点画像である予測ズーム画像を生成して2値分類器22へ出力する。2値分類器22は、生成部21から予測ズーム画像が入力され、外部から正解仮想視点画像である正解予測ズーム画像が入力されると、予測ズーム画像および正解ズーム画像の双方の分類結果の確率密度分布をそれぞれ確率密度分布dg・drとして算出し、類似度算出部23へ出力する。 Specifically, when the input image is input, the generation unit 21 generates a predicted zoom image which is a virtual viewpoint image of the input image and outputs it to the binary classifier 22. When the predictive zoom image is input from the generation unit 21 and the correct answer predictive zoom image which is the correct answer virtual viewpoint image is input from the outside, the binary classifier 22 has the probability of the classification result of both the predictive zoom image and the correct answer zoom image. The density distributions are calculated as probability density distributions dg and dr, respectively, and output to the similarity calculation unit 23.
 類似度算出部23は、確率密度分布dg・drの双方のKullback-Leibler DivergenceやJensen-Shannon Divergenceを類似度として算出し、生成部21へ出力する。生成部21は、類似度算出部23から入力される確率密度分布dg・drの類似度を最小とするように、生成パラメータ20を更新する。なお、Kullback-Leibler DivergenceやJensen-Shannon Divergenceは、その値が小さい程dgとdrの特性が近いことを示す尺度である。 The similarity calculation unit 23 calculates both the Kullback-Leibler Divergence and the Jensen-Shannon Divergence of the probability density distributions dl and dr as the similarity, and outputs them to the generation unit 21. The generation unit 21 updates the generation parameter 20 so as to minimize the similarity of the probability density distribution pg · dr input from the similarity calculation unit 23. The Kullback-Leibler Divergence and Jensen-Shannon Divergence are scales indicating that the smaller the value, the closer the characteristics of dl and dr are.
 このとき、生成パラメータ20の更新は、類似度を損失関数として目的関数(生成部21)の逆関数を求める一般的なアルゴリズムを用いることが望ましい。本実施形態では、生成部21をコンボリューショナルニューラルネットワークで実現し、生成部21は、類似度を入力とした誤差逆伝搬法によって、生成パラメータ20を更新する。 At this time, it is desirable to update the generation parameter 20 by using a general algorithm for obtaining the inverse function of the objective function (generation unit 21) with the similarity as the loss function. In the present embodiment, the generation unit 21 is realized by a convolutional neural network, and the generation unit 21 updates the generation parameter 20 by an error back propagation method using the similarity as an input.
 このように、仮想視点画像生成部2は、入力画像から確率密度分布の観点から正解に近い予測ズーム画像を生成することによって、例えば、二乗誤差を最小とする手法で得られるぼやけた予測ズーム画像と比べて、入力画像よりも十分に高解像度でより正解に近い予測ズーム画像を生成することが可能となる。これにより、後段のレンダリングパラメータ推定部3は、入力画像よりも高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 In this way, the virtual viewpoint image generation unit 2 generates a predictive zoom image close to the correct answer from the viewpoint of the probability density distribution from the input image, for example, a blurred predictive zoom image obtained by a method that minimizes the square error. In comparison with the input image, it is possible to generate a predicted zoom image having a sufficiently higher resolution and closer to the correct answer. As a result, the rendering parameter estimation unit 3 in the subsequent stage can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
 図1へ戻り、レンダリングパラメータ推定部3は、予測ズーム画像を用いて、被写体のレンダリングパラメータを推定し出力する。ここで、レンダリングパラメータとは、一般的なCG編集に使用する全てのレンダリングパラメータを対象としても良い。本実施形態では、レンダリングパラメータのうち、3次元点群やメッシュで表現されるレンダリング対象のオブジェクトの表面形状を対象とする。 Returning to FIG. 1, the rendering parameter estimation unit 3 estimates and outputs the rendering parameter of the subject using the predicted zoom image. Here, the rendering parameter may target all rendering parameters used for general CG editing. In this embodiment, among the rendering parameters, the surface shape of the object to be rendered, which is represented by a three-dimensional point cloud or a mesh, is targeted.
 一例として本実施形態に係るレンダリングパラメータ推定部3は、予測ズーム画像の階調値または色度値を用いて、3次元形状を推定する。3次元形状の推定には、シェイプフロムシェイディングなどの一般的に用いられる3次元形状の推定アルゴリムを適用することが望ましい。一例としてシェイプフロムシェイディングを用いる場合、階調値の隣接画素差分を用いることで、入力画像の画素サイズに相当する微小グリッド範囲内における法線方向のマップを算出し、表面形状として出力する。 As an example, the rendering parameter estimation unit 3 according to the present embodiment estimates a three-dimensional shape using the gradation value or the chromaticity value of the predicted zoom image. For the estimation of the 3D shape, it is desirable to apply a commonly used 3D shape estimation algorithm such as shape from shading. When shape from shading is used as an example, a map in the normal direction within a minute grid range corresponding to the pixel size of the input image is calculated by using the adjacent pixel difference of the gradation value, and is output as the surface shape.
 このように本実施形態では、前段の仮想視点画像生成部2は、入力画像よりも十分に高解像度でより正解に近い予測ズーム画像を生成し、レンダリングパラメータ推定部3へ出力する。そして、レンダリングパラメータ推定部3は、仮想視点画像生成部2から入力される予測ズーム画像を使用してレンダリングパラメータ推定を行う。これにより、レンダリングパラメータ推定部3は、入力画像よりも高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 As described above, in the present embodiment, the virtual viewpoint image generation unit 2 in the previous stage generates a predicted zoom image having a resolution sufficiently higher than that of the input image and is closer to the correct answer, and outputs the predicted zoom image to the rendering parameter estimation unit 3. Then, the rendering parameter estimation unit 3 estimates the rendering parameter using the predicted zoom image input from the virtual viewpoint image generation unit 2. As a result, the rendering parameter estimation unit 3 can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
[1.2.仮想視点画像生成部が実行する学習処理]
 次に、図3を参照して、仮想視点画像生成部2が実行する学習処理について説明する。図3は、本開示の第1の実施形態に係る仮想視点画像生成部が実行する学習処理の一例を示すフローチャートである。
[1.2. Learning process executed by the virtual viewpoint image generator]
Next, the learning process executed by the virtual viewpoint image generation unit 2 will be described with reference to FIG. FIG. 3 is a flowchart showing an example of learning processing executed by the virtual viewpoint image generation unit according to the first embodiment of the present disclosure.
 図3に示すように、仮想視点画像生成部2には、まず、入力画像が入力される(ステップS101)。生成部21は、生成パラメータ20と入力画像とを用いて仮想視点画像である予測ズーム画像を生成する(ステップS102)。 As shown in FIG. 3, an input image is first input to the virtual viewpoint image generation unit 2 (step S101). The generation unit 21 generates a predicted zoom image which is a virtual viewpoint image by using the generation parameter 20 and the input image (step S102).
 その後、予測ズーム画像と正解仮想視点画像である正解のズーム画像とが2値分類器22に入力される(ステップS103)。2値分類器22は、仮想視点画像である予測ズーム画像および正解仮想視点画像である正解のズーム画像の2値分類結果の確率密度分布を、確率密度分布pg・prrとして算出する(ステップS104)。 After that, the predicted zoom image and the correct zoom image, which is the correct virtual viewpoint image, are input to the binary classifier 22 (step S103). The binary classifier 22 calculates the probability density distribution of the binary classification result of the predicted zoom image which is the virtual viewpoint image and the correct zoom image which is the correct virtual viewpoint image as the probability density distribution pg · prr (step S104). ..
 類似度算出部23は、確率密度分布pgおよび確率密度分布pr間のKullback-Leibler DivergenceをJensen-Shannon Divergenceを類似度として算出する(ステップS105)。 The similarity calculation unit 23 calculates the Kullback-Leibler Divergence between the probability density distribution pg and the probability density distribution pr as the similarity with Jensen-Shannon Divergence (step S105).
 生成部21は、類似度を最小とするように生成部21の生成パラメータ20を更新する(ステップS106)。その後、仮想視点画像生成部2は、類似度の変化量が閾値以下か否かを判定する(ステップS107)。 The generation unit 21 updates the generation parameter 20 of the generation unit 21 so as to minimize the similarity (step S106). After that, the virtual viewpoint image generation unit 2 determines whether or not the amount of change in the degree of similarity is equal to or less than the threshold value (step S107).
 そして、仮想視点画像生成部2は、類似度の変化量が閾値以下でないと判定した場合(ステップS107,No)、別の入力画像に変更して(ステップS108)、処理をステップS101へ移す。また、仮想視点画像生成部2は、類似度の変化量が閾値以下であると判定した場合(ステップS107,Yes)、処理を終了する。 Then, when the virtual viewpoint image generation unit 2 determines that the amount of change in the similarity is not equal to or less than the threshold value (step S107, No), the virtual viewpoint image generation unit 2 changes to another input image (step S108), and shifts the process to step S101. Further, when the virtual viewpoint image generation unit 2 determines that the amount of change in the similarity is equal to or less than the threshold value (step S107, Yes), the process ends.
[1.3.情報処理装置が実行するレンダリングパラメータ推定処理]
 次に、図4を参照し、情報処理装置1が実行するレンダリングパラメータ推定処理について説明する。図4は、本開示の第1の実施形態に係る情報処理装置が実行するレンダリングパラメータ推定処理の一例を示すフローチャートである。
[1.3. Rendering parameter estimation process executed by the information processing device]
Next, with reference to FIG. 4, the rendering parameter estimation process executed by the information processing apparatus 1 will be described. FIG. 4 is a flowchart showing an example of rendering parameter estimation processing executed by the information processing apparatus according to the first embodiment of the present disclosure.
 図4に示すように、情報処理装置1には、まず、入力画像が入力される(ステップS201)。続いて、学習済の仮想視点画像生成部2が、入力画像と学習済の生成パラメータ20を用いて、仮想視点画像である予測ズーム画像を生成する(ステップS202)。その後、レンダリングパラメータ推定部3が、予測ズーム画像を用いてレンダリングパラメータを推定して出力し(ステップS203)、処理を終了する。 As shown in FIG. 4, an input image is first input to the information processing apparatus 1 (step S201). Subsequently, the trained virtual viewpoint image generation unit 2 generates a predicted zoom image which is a virtual viewpoint image by using the input image and the trained generation parameter 20 (step S202). After that, the rendering parameter estimation unit 3 estimates and outputs the rendering parameter using the predicted zoom image (step S203), and ends the process.
 なお、本実施形態に係る仮想視点画像生成部2とレンダリングパラメータ推定部3は、どのような学習アルゴリズムによって実装されても構わないが、特にコンボリューショナルニューラルネットワークによって実現するのが好適である。 The virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3 according to the present embodiment may be implemented by any learning algorithm, but it is particularly preferable to realize them by a convolutional neural network.
[2.第2の実施形態]
[2.1.情報処理装置]
 図5は、本開示の第2の実施形態に係る情報処理装置の構成例を示す図である。図5に示すように、情報処理装置1aは、仮想視点画像生成部2と、レンダリングパラメータ推定部3aと、レンダリング部4と、レンダリング誤差算出部5と、レンダリングパラメータ誤差推定部6と、レンダリングパラメータ推定部更新部7を備える。
[2. Second embodiment]
[2.1. Information processing equipment]
FIG. 5 is a diagram showing a configuration example of the information processing apparatus according to the second embodiment of the present disclosure. As shown in FIG. 5, the information processing apparatus 1a includes a virtual viewpoint image generation unit 2, a rendering parameter estimation unit 3a, a rendering unit 4, a rendering error calculation unit 5, a rendering parameter error estimation unit 6, and a rendering parameter. The estimation unit update unit 7 is provided.
 仮想視点画像生成部2は、入力画像を用いて、仮想視点画像である予測ズーム画像を生成し、レンダリングパラメータ推定部3aと、レンダリング誤差算出部5とに出力する。レンダリングパラメータ推定部3aは、仮想視点画像である予測ズーム画像と、レンダリングパラメータの推定に用いられる推定パラメータ30とを用いて、レンダリングパラメータを推定し、レンダリングパラメータをレンダリング部4へ出力する。 The virtual viewpoint image generation unit 2 generates a predicted zoom image which is a virtual viewpoint image using the input image, and outputs it to the rendering parameter estimation unit 3a and the rendering error calculation unit 5. The rendering parameter estimation unit 3a estimates the rendering parameter using the predicted zoom image which is a virtual viewpoint image and the estimation parameter 30 used for estimating the rendering parameter, and outputs the rendering parameter to the rendering unit 4.
 レンダリング部4は、推定されたレンダリングパラメータを用いてレンダリングを行い、レンダリング結果をレンダリング誤差算出部5へ出力する。レンダリング誤差算出部5は、仮想視点画像である予測ズーム画像とレンダリング結果とを用いて、レンダリング誤差を算出する。 The rendering unit 4 renders using the estimated rendering parameters, and outputs the rendering result to the rendering error calculation unit 5. The rendering error calculation unit 5 calculates the rendering error using the predicted zoom image which is a virtual viewpoint image and the rendering result.
 レンダリングパラメータ誤差推定部6は、レンダリング誤差を用いてレンダリングパラメータ誤差を算出する。レンダリングパラメータ推定部更新部7は、レンダリングパラメータ誤差を用いてレンダリングパラメータ推定部更新量を算出し、レンダリングパラメータ推定部3aと推定パラメータ30とを更新する。 The rendering parameter error estimation unit 6 calculates the rendering parameter error using the rendering error. The rendering parameter estimation unit update unit 7 calculates the rendering parameter estimation unit update amount using the rendering parameter error, and updates the rendering parameter estimation unit 3a and the estimation parameter 30.
 以下、情報処理装置1aが備える各部について詳述する。まず、仮想視点画像生成部2は、第1の実施形態に係る仮想視点画像生成部2と同様の構成であり、同様の動作を行うため、ここでは重複する説明を割愛する。 Hereinafter, each part included in the information processing apparatus 1a will be described in detail. First, the virtual viewpoint image generation unit 2 has the same configuration as the virtual viewpoint image generation unit 2 according to the first embodiment, and performs the same operation. Therefore, duplicate description is omitted here.
 レンダリングパラメータ推定部3aは、仮想視点画像である予測ズーム画像と推定パラメータ30とを用いて、レンダリングパラメータを推定する。ここで、レンダリングパラメータとは、一般的なCG編集に使用する全てのレンダリングパラメータを対象としてもよい。 The rendering parameter estimation unit 3a estimates the rendering parameter using the predicted zoom image which is a virtual viewpoint image and the estimation parameter 30. Here, the rendering parameter may target all rendering parameters used for general CG editing.
 レンダリング部4は、推定されたレンダリングパラメータを用いてレンダリング結果を出力する。このとき、レンダリング部4は、推定されたレンダリングパラメータを用いて、予測ズーム画像と同じ画素数を有する2次元の階調値によるレンダリング結果を出力する。 The rendering unit 4 outputs the rendering result using the estimated rendering parameters. At this time, the rendering unit 4 outputs a rendering result with a two-dimensional gradation value having the same number of pixels as the predicted zoom image by using the estimated rendering parameter.
 このようにすることで、後段の処理部において予測ズーム画像とレンダリング結果を比較しその誤差をレンダリングパラメータ推定部3aに直接フィードバックすることが可能になるという効果がある。 By doing so, there is an effect that the predicted zoom image and the rendering result can be compared in the processing unit in the subsequent stage, and the error can be directly fed back to the rendering parameter estimation unit 3a.
 レンダリング誤差算出部5は、予測ズーム画像とレンダリング結果とを用いて、レンダリング誤差を算出する。レンダリング誤差は、予測ズーム画像とレンダリング結果との各画素における2次元の階調値の差分情報として算出される。 The rendering error calculation unit 5 calculates the rendering error using the predicted zoom image and the rendering result. The rendering error is calculated as the difference information of the two-dimensional gradation values in each pixel between the predicted zoom image and the rendering result.
 このとき、各画素で階調値に差分が生じるという事は、レンダリングパラメータ推定部3aと推定パラメータ30とによるレンダリングパラメータの推定精度が予測ズーム画像を再構成するのに十分でなく、両者には更新の余地があることを示す情報となる。 At this time, the fact that a difference occurs in the gradation value in each pixel means that the estimation accuracy of the rendering parameter by the rendering parameter estimation unit 3a and the estimation parameter 30 is not sufficient for reconstructing the predicted zoom image. It is information indicating that there is room for update.
 このため、算出されたレンダリング誤差を用いて後段のレンダリングパラメータ誤差推定部6、および、レンダリングパラメータ推定部更新部7の処理を行うことにより、予測ズーム画像を再構成するために必要な高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 Therefore, the high-definition necessary for reconstructing the predicted zoom image is performed by processing the rendering parameter error estimation unit 6 and the rendering parameter estimation unit update unit 7 in the subsequent stage using the calculated rendering error. It is possible to estimate rendering parameters that can reproduce the surface shape of the object.
 レンダリングパラメータ誤差推定部6は、レンダリング誤差を用いてレンダリングパラメータ誤差を算出する。そして、レンダリングパラメータ推定部更新部7は、レンダリングパラメータ誤差を用いてレンダリングパラメータ推定部更新量を算出し、レンダリングパラメータ推定部3aと推定パラメータRとを更新する。 The rendering parameter error estimation unit 6 calculates the rendering parameter error using the rendering error. Then, the rendering parameter estimation unit update unit 7 calculates the rendering parameter estimation unit update amount using the rendering parameter error, and updates the rendering parameter estimation unit 3a and the estimation parameter R.
 レンダリングパラメータ誤差推定部6、および、レンダリングパラメータ推定部更新部7の処理では、2次元の階調値の差分情報を3次元かつ複数のレンダリングパラメータを推定する関数に反映させる。 In the processing of the rendering parameter error estimation unit 6 and the rendering parameter estimation unit update unit 7, the difference information of the two-dimensional gradation values is reflected in the function for estimating a plurality of rendering parameters in three dimensions.
 この処理は、2次元の階調値の差分情報を損失関数として、レンダリングパラメータ推定部3aとレンダリング部4とを含む全体の関数の逆関数を導出する処理によって実現されるため、一般的な自動微分アルゴリズムを適用することが可能である。 This process is realized by a process of deriving the inverse function of the entire function including the rendering parameter estimation unit 3a and the rendering unit 4 using the difference information of the two-dimensional gradation values as the loss function, and is therefore generally automatic. It is possible to apply a differential algorithm.
 本実施形態では、該全体の関数を微分可能なコンボリューショナルニューラルネットワークで表記し、2次元の階調値の差分情報を入力とした誤差逆伝搬法によって、レンダリングパラメータ推定部3aと推定パラメータ30とを更新する。 In the present embodiment, the entire function is represented by a differentiable convolutional neural network, and the rendering parameter estimation unit 3a and the estimation parameter 30 are subjected to an error back propagation method in which the difference information of the two-dimensional gradation values is input. And update.
 本実施形態のレンダリングパラメータ誤差推定部6、および、レンダリングパラメータ推定部更新部7によれば、前段のレンダリング誤差として予測ズーム画像とレンダリング結果との各画素における2次元の階調値の差分情報を用いることで、予測ズーム画像を再構成するために必要な高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定するようレンダリングパラメータ推定部3aを更新することが可能になるという効果がある。 According to the rendering parameter error estimation unit 6 and the rendering parameter estimation unit update unit 7 of the present embodiment, the difference information of the two-dimensional gradation values of the predicted zoom image and the rendering result in each pixel is used as the rendering error in the previous stage. By using it, there is an effect that the rendering parameter estimation unit 3a can be updated so as to estimate the rendering parameter that can reproduce the surface shape of the high-definition object required for reconstructing the predicted zoom image.
[2.2.情報処理装置が実行する学習処理]
 次に、図6を参照し、情報処理装置1aが実行する処理について説明する。本開示の第2の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。図6に示すように、情報処理装置1aでは、まず、学習済の仮想視点画像生成部2が、入力画像と学習済の生成パラメータ20とを用いて、仮想視点画像である予測ズーム画像を生成する(ステップS301)。
[2.2. Learning process executed by the information processing device]
Next, with reference to FIG. 6, the process executed by the information processing apparatus 1a will be described. It is a flowchart which shows an example of the learning process executed by the information processing apparatus which concerns on 2nd Embodiment of this disclosure. As shown in FIG. 6, in the information processing apparatus 1a, first, the trained virtual viewpoint image generation unit 2 generates a predicted zoom image which is a virtual viewpoint image by using the input image and the trained generation parameter 20. (Step S301).
 続いて、レンダリングパラメータ推定部3aが、予測ズーム画像と推定パラメータ30とを用いてレンダリングパラメータを推定し、レンダリング部4が、レンダリングパラメータを用いてレンダリングを行い、レンダリング結果を出力する(ステップS302)。 Subsequently, the rendering parameter estimation unit 3a estimates the rendering parameter using the predicted zoom image and the estimation parameter 30, and the rendering unit 4 renders using the rendering parameter and outputs the rendering result (step S302). ..
 その後、レンダリング誤差算出部5が、仮想視点画像である予測ズーム画像とレンダリング結果とを用いて、レンダリング誤差を算出する(ステップS303)。続いて、レンダリングパラメータ誤差推定部6が、レンダリング誤差を用いて、レンダリングパラメータ誤差を算出する(ステップS304)。 After that, the rendering error calculation unit 5 calculates the rendering error using the predicted zoom image which is a virtual viewpoint image and the rendering result (step S303). Subsequently, the rendering parameter error estimation unit 6 calculates the rendering parameter error using the rendering error (step S304).
 その後、レンダリングパラメータ推定部更新部7が、レンダリングパラメータ誤差を用いて、レンダリングパラメータ推定部更新量を算出し、レンダリングパラメータ推定部と推定パラメータ30とを更新する(ステップS305)。 After that, the rendering parameter estimation unit update unit 7 calculates the rendering parameter estimation unit update amount using the rendering parameter error, and updates the rendering parameter estimation unit and the estimation parameter 30 (step S305).
 そして、レンダリングパラメータ推定部3aは、レンダリングパラメータ更新部更新量が閾値以下か否かを判定する(ステップS306)。レンダリングパラメータ推定部3aは、レンダリングパラメータ更新部更新量が閾値以下でないと判定した場合(ステップS306,No)、別の入力画像に変更して(ステップS307)、処理をステップS301へ移す。また、レンダリングパラメータ推定部3aは、レンダリングパラメータ更新部更新量が閾値以下であると判定した場合(ステップS306,Yes)、処理を終了する。 Then, the rendering parameter estimation unit 3a determines whether or not the rendering parameter update unit update amount is equal to or less than the threshold value (step S306). When the rendering parameter estimation unit 3a determines that the rendering parameter update unit update amount is not equal to or less than the threshold value (step S306, No), the rendering parameter estimation unit 3a changes to another input image (step S307), and shifts the process to step S301. Further, when the rendering parameter estimation unit 3a determines that the rendering parameter update unit update amount is equal to or less than the threshold value (step S306, Yes), the process ends.
 以上、本実施形態によれば、情報処理装置1aは、仮想視点画像生成部2によって生成される仮想視点画像と、レンダリング部4のレンダリング結果との誤差が最小になるように、レンダリングパラメータ推定部3aおよび推定パラメータ30を最適化できる。これにより、情報処理装置1aは、入力画像よりも高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 As described above, according to the present embodiment, the information processing apparatus 1a is a rendering parameter estimation unit so that the error between the virtual viewpoint image generated by the virtual viewpoint image generation unit 2 and the rendering result of the rendering unit 4 is minimized. 3a and the estimation parameter 30 can be optimized. As a result, the information processing apparatus 1a can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
 尚、本実施形態における各部は、どのようなモデル・学習アルゴリズムによって実現されても構わないが、コンボリューショナルニューラルネットワークと微分可能なCGレンダラとを結合することによって実現するのが好適である。 Although each part in the present embodiment may be realized by any model / learning algorithm, it is preferable to realize it by combining a convolutional neural network and a differentiable CG renderer.
[3.第3の実施形態]
 本実施形態では、レンダリングパラメータのうち、3次元点群やメッシュで表現されるレンダリング対象のオブジェクトの表面形状とレンダリング用カメラのカメラパラメータとを対象とする。
[3. Third Embodiment]
In the present embodiment, among the rendering parameters, the surface shape of the object to be rendered represented by the three-dimensional point cloud or the mesh and the camera parameters of the rendering camera are targeted.
 本実施形態では、前段の仮想視点画像生成部2において入力画像をズームした予測ズーム画像を算出し、そこからオブジェクトの表面形状とレンダリング用カメラのカメラパラメータと算出することにより、予測ズーム画像における仮想的なズーム量をレンダリング用カメラのカメラパラメータ推定に反映することが可能となり、その結果としてもう一方のオブジェクトの表面形状推定の精度が向上するという効果がある。 In the present embodiment, the virtual viewpoint image generation unit 2 in the previous stage calculates a predicted zoom image obtained by zooming the input image, and calculates the surface shape of the object and the camera parameters of the rendering camera from the predicted zoom image to create a virtual image in the predicted zoom image. It is possible to reflect the appropriate zoom amount in the camera parameter estimation of the rendering camera, and as a result, there is an effect that the accuracy of surface shape estimation of the other object is improved.
 図7は、本開示の第3の実施形態に係る情報処理装置の構成例を示す図である。図7に示すように、情報処理装置1bのレンダリングパラメータ推定部3bは、カメラパラメータ推定部31と、表面形状推定部32とを備える。レンダリングパラメータ誤差推定部6bは、カメラパラメータ誤差推定部61と、表面形状誤差推定部62とを備える。 FIG. 7 is a diagram showing a configuration example of the information processing apparatus according to the third embodiment of the present disclosure. As shown in FIG. 7, the rendering parameter estimation unit 3b of the information processing apparatus 1b includes a camera parameter estimation unit 31 and a surface shape estimation unit 32. The rendering parameter error estimation unit 6b includes a camera parameter error estimation unit 61 and a surface shape error estimation unit 62.
 レンダリングパラメータ推定部更新部7bは、カメラパラメータ推定部更新部71と、表面形状推定部更新部72とを備える。仮想視点画像生成部2は、第1の実施形態に係る仮想視点画像生成部2と同様の構成であり、同様の動作を行うため、ここでは重複する説明を割愛する。 The rendering parameter estimation unit update unit 7b includes a camera parameter estimation unit update unit 71 and a surface shape estimation unit update unit 72. The virtual viewpoint image generation unit 2 has the same configuration as the virtual viewpoint image generation unit 2 according to the first embodiment, and performs the same operation. Therefore, duplicate description is omitted here.
 カメラパラメータ推定部31は、予測ズーム画像とカメラパラメータの推定に用いられる推定パラメータとを用いて、カメラパラメータを推定する。表面形状推定部32は、予測ズーム画像と表面形状の推定に用いられる推定パラメータとを用いて、オブジェクトの表面形状を推定する。 The camera parameter estimation unit 31 estimates the camera parameters using the predicted zoom image and the estimation parameters used for estimating the camera parameters. The surface shape estimation unit 32 estimates the surface shape of the object using the predicted zoom image and the estimation parameters used for estimating the surface shape.
 レンダリング部41は、オブジェクトの表面形状とカメラパラメータとを用いて、予測ズーム画像と同じ画素数を有する2次元の階調値によるレンダリング結果を出力する。このようにすることで、後段の処理部において予測ズーム画像とレンダリング結果を比較しその誤差をレンダリングパラメータ推定部に直接フィードバックすることが可能になるという効果がある。 The rendering unit 41 uses the surface shape of the object and the camera parameters to output a rendering result with a two-dimensional gradation value having the same number of pixels as the predicted zoom image. By doing so, there is an effect that the prediction zoom image and the rendering result can be compared in the processing unit in the subsequent stage, and the error can be directly fed back to the rendering parameter estimation unit.
 レンダリング誤差算出部5は、予測ズーム画像とレンダリング結果とを用いて、レンダリング誤差を算出する。レンダリング誤差は、予測ズーム画像とレンダリング結果との各画素における2次元の階調値の差分情報として算出される。 The rendering error calculation unit 5 calculates the rendering error using the predicted zoom image and the rendering result. The rendering error is calculated as the difference information of the two-dimensional gradation values in each pixel between the predicted zoom image and the rendering result.
 このとき、各画素で階調値に差分が生じるという事は、前段のカメラパラメータ推定部31および表面形状推定部32と、推定パラメータとによるカメラパラメータおよび表面形状の推定精度が予測ズーム画像を再構成するのに十分でなく、更新の余地があることを示す情報となる。 At this time, the fact that a difference occurs in the gradation value in each pixel means that the camera parameter and surface shape estimation accuracy based on the camera parameter estimation unit 31 and surface shape estimation unit 32 in the previous stage and the estimation parameters re-estimate the predicted zoom image. It is information that is not enough to configure and that there is room for update.
 このため、該レンダリング誤差を用いて後段のレンダリングパラメータ誤差推定部6b、および、レンダリングパラメータ推定部更新部7bの処理を行うことにより、予測ズーム画像を再構成するために必要な高精細なカメラパラメータおよび表面形状を推定することが可能となる。 Therefore, the high-definition camera parameters necessary for reconstructing the predicted zoom image by processing the rendering parameter error estimation unit 6b and the rendering parameter estimation unit update unit 7b in the subsequent stage using the rendering error. And it becomes possible to estimate the surface shape.
 カメラパラメータ誤差推定部61は、レンダリング誤差を用いてカメラパラメータ誤差を算出する。そして、カメラパラメータ推定部更新部71は、カメラパラメータ誤差を用いてカメラパラメータ推定部更新量を算出し、カメラパラメータ推定部31と、カメラパラメータの推定に用いられる推定パラメータとを更新する。 The camera parameter error estimation unit 61 calculates the camera parameter error using the rendering error. Then, the camera parameter estimation unit update unit 71 calculates the camera parameter estimation unit update amount using the camera parameter error, and updates the camera parameter estimation unit 31 and the estimation parameter used for camera parameter estimation.
 表面形状誤差推定部62は、レンダリング誤差を用いて表面形状誤差を算出する。そして、表面形状推定部更新部72は、表面形状誤差を用いて表面形状推定部更新量を算出し、表面形状推定部32と、表面形状の推定に用いられる推定パラメータとを更新する。 The surface shape error estimation unit 62 calculates the surface shape error using the rendering error. Then, the surface shape estimation unit update unit 72 calculates the surface shape estimation unit update amount using the surface shape error, and updates the surface shape estimation unit 32 and the estimation parameters used for surface shape estimation.
 レンダリングパラメータ誤差推定部6b、および、レンダリングパラメータ推定部更新部7bの処理では、2次元の階調値の差分情報を3次元かつ複数のレンダリングパラメータを推定する関数に反映させる。 In the processing of the rendering parameter error estimation unit 6b and the rendering parameter estimation unit update unit 7b, the difference information of the two-dimensional gradation values is reflected in the function for estimating a plurality of rendering parameters in three dimensions.
 この処理は、2次元の階調値の差分情報を損失関数として、レンダリングパラメータ推定部3bとレンダリング部41とを含む全体の関数の逆関数を導出する手続きによって実現されるため、一般的な自動微分アルゴリズムを適用することが可能である。 This process is realized by a procedure for deriving the inverse function of the entire function including the rendering parameter estimation unit 3b and the rendering unit 41 using the difference information of the two-dimensional gradation values as the loss function, so that it is generally automatic. It is possible to apply a differential algorithm.
 本実施形態では、該全体の関数を微分可能なコンボリューショナルニューラルネットワークで表記し、2次元の階調値の差分情報を入力とした誤差逆伝搬法によって、レンダリングパラメータ推定部3bと、カメラパラメータの推定に用いられる推定パラメータと、表面形状の推定に用いられる推定パラメータとを更新する。 In the present embodiment, the entire function is represented by a derivatable convolutional neural network, and the rendering parameter estimation unit 3b and the camera parameter are used by an error back propagation method in which the difference information of the two-dimensional gradation value is input. The estimation parameters used for the estimation of the surface shape and the estimation parameters used for the estimation of the surface shape are updated.
 本実施形態のレンダリングパラメータ誤差推定部6b、および、レンダリングパラメータ推定部更新部7bによれば、前段のレンダリング誤差として予測ズーム画像とレンダリング結果との各画素における2次元の階調値の差分情報を用いることで、予測ズーム画像を再構成するために必要な高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定するようレンダリングパラメータ推定部を更新することが可能になるという効果がある。 According to the rendering parameter error estimation unit 6b and the rendering parameter estimation unit update unit 7b of the present embodiment, the difference information of the two-dimensional gradation values of the predicted zoom image and the rendering result in each pixel is used as the rendering error in the previous stage. By using it, there is an effect that the rendering parameter estimation unit can be updated to estimate the rendering parameter that can reproduce the surface shape of the high-definition object required for reconstructing the predicted zoom image.
 ここまで、情報処理装置1,1a、1bが仮想視点画像として入力画像の予測ズーム画像を生成する場合について説明してきたが、情報処理装置1,1a、1bは、予測ズームを含むその他の仮想視点画像を生成することも可能である。 Up to this point, the case where the information processing devices 1, 1a and 1b generate the predicted zoom image of the input image as the virtual viewpoint image has been described, but the information processing devices 1, 1a and 1b have other virtual viewpoints including the predicted zoom. It is also possible to generate an image.
 例えば、情報処理装置1,1a、1bは、入力画像に対して仮想視点をヨー(yaw)方向、ロール(roll)方向、およびピッチ(pitch)方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した予測視点画像を生成するよう予め生成パラメータ20を学習しておき、学習済の生成パラメータ20を用いて予測視点画像を生成し、レンダリングパラメータ推定部3,3a,3bおよび、レンダリング誤差算出部5に出力することができる。その他の各部の構成と動作は、第2の実施形態または第3の実施形態と同様であるため説明を割愛する。 For example, the information processing devices 1, 1a, 1b rotate the virtual viewpoint with respect to the input image in at least one of the yaw direction, the roll direction, and the pitch direction. The generation parameter 20 is learned in advance so as to generate the predicted viewpoint image assuming the case, and the predicted viewpoint image is generated using the learned generation parameter 20, the rendering parameter estimation units 3, 3a, 3b and the rendering. It can be output to the error calculation unit 5. Since the configuration and operation of the other parts are the same as those in the second embodiment or the third embodiment, the description thereof will be omitted.
 このような仮想視点画像生成部2を用いることで、入力画像には無い別視点からの予測視点画像を生成して利用することで、予測視点画像における仮想的な視点変化をレンダリング用カメラのカメラパラメータ等の推定に反映してオブジェクトの表面形状推定の視点依存性を低減し、入力画像よりも高精細なレンダリングパラメータをより安定に推定することが可能となる。 By using such a virtual viewpoint image generation unit 2, by generating and using a predicted viewpoint image from another viewpoint that is not in the input image, a virtual viewpoint change in the predicted viewpoint image can be generated by the camera of the rendering camera. Reflecting in the estimation of parameters and the like, the viewpoint dependence of the surface shape estimation of the object is reduced, and it becomes possible to more stably estimate the rendering parameters with higher definition than the input image.
[4.効果]
 学習済モデルの生成方法は、仮想視点画像生成部2と、レンダリングパラメータ推定部3と、を有する学習済モデルの生成方法において、仮想視点画像生成部2が、入力画像より高解像度の仮想視点画像を生成することと、レンダリングパラメータ推定部3が、仮想視点画像を用いて、レンダリングパラメータを推定することとを含む。これにより、学習済モデルの生成方法は、入力画像よりも高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。
[4. effect]
In the method of generating the trained model, the virtual viewpoint image generation unit 2 has a virtual viewpoint image having a higher resolution than the input image in the method of generating the trained model having the virtual viewpoint image generation unit 2 and the rendering parameter estimation unit 3. The rendering parameter estimation unit 3 estimates the rendering parameter using the virtual viewpoint image. This makes it possible for the trained model generation method to estimate rendering parameters that can reproduce the surface shape of an object with higher definition than the input image.
 学習済モデルの生成方法は、仮想視点画像生成部2が、入力画像と生成パラメータ20とを用いて仮想視点画像を生成することと、仮想視点画像と正解仮想視点画像とを用いて、仮想視点画像が正解仮想視点画像と同様に本物らしいか否かを2値分類器22によって識別することと、2値分類器22から出力される仮想視点画像の確率密度分布と正解仮想視点画像の確率密度分布との類似度が最小となるように生成パラメータを更新することとを含む。これにより、学習済モデルの生成方法は、更新によって最適化された生成パラメータを用いることで、さらに高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 As for the method of generating the trained model, the virtual viewpoint image generation unit 2 generates a virtual viewpoint image using the input image and the generation parameter 20, and the virtual viewpoint image and the correct virtual viewpoint image are used. The binary classifier 22 identifies whether or not the image is genuine like the correct virtual viewpoint image, and the probability density distribution of the virtual viewpoint image output from the binary classifier 22 and the probability density of the correct virtual viewpoint image. Includes updating the generated parameters to minimize similarity to the distribution. As a result, the trained model generation method can estimate rendering parameters that can reproduce the surface shape of a higher-definition object by using the generation parameters optimized by the update.
 学習済モデルの生成方法は、レンダリング部4が、推定されたレンダリングパラメータを用いてレンダリング画像を生成することと、レンダリング誤差算出部5が、仮想視点画像とレンダリング画像との誤差を算出することと、レンダリングパラメータ誤差推定部6が、算出された仮想視点画像とレンダリング画像との誤差に基づいてレンダリングパラメータの誤差を推定することと、レンダリングパラメータ推定部更新部7が、レンダリングパラメータの誤差に基づいて、レンダリングパラメータの推定に用いられる推定パラメータ30を更新することとを含む。これにより、学習済モデルの生成方法は、レンダリングパラメータ推定部更新部7による更新によって最適化された推定パラメータを用いることで、より一層高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 The method of generating the trained model is that the rendering unit 4 generates a rendered image using the estimated rendering parameters, and the rendering error calculation unit 5 calculates the error between the virtual viewpoint image and the rendered image. , The rendering parameter error estimation unit 6 estimates the rendering parameter error based on the calculated error between the virtual viewpoint image and the rendered image, and the rendering parameter estimation unit updating unit 7 estimates the rendering parameter error based on the rendering parameter error. Includes updating the estimation parameter 30 used to estimate the rendering parameters. As a result, the trained model generation method estimates the rendering parameters that can reproduce the surface shape of the object with even higher definition by using the estimation parameters optimized by the update by the rendering parameter estimation unit update unit 7. Is possible.
 学習済モデルの生成方法は、レンダリングパラメータ推定部3bが、レンダリングに用いられるカメラパラメータを推定することと、レンダリング対象のオブジェクトの表面形状を推定することと、レンダリングパラメータ誤差推定部6bが、カメラパラメータの誤差を推定することと、表面形状の誤差を推定することと、レンダリングパラメータ推定部更新部7bが、カメラパラメータの誤差に基づいて、推定パラメータ30に含まれるカメラパラメータを更新することと、表面形状の誤差に基づいて、推定パラメータ30に含まれる表面形状を更新することとを含む。これにより、学習済モデルの生成方法は、例えば、仮想視点画像における仮想的なズーム量をレンダリング用カメラのカメラパラメータ推定に反映することが可能となり、その結果としてもう一方のオブジェクトの表面形状推定の精度が向上するという効果がある。 In the method of generating the trained model, the rendering parameter estimation unit 3b estimates the camera parameters used for rendering, estimates the surface shape of the object to be rendered, and the rendering parameter error estimation unit 6b determines the camera parameters. The error of the estimation parameter 30 is estimated, the error of the surface shape is estimated, the rendering parameter estimation unit update unit 7b updates the camera parameter included in the estimation parameter 30 based on the error of the camera parameter, and the surface. It includes updating the surface shape included in the estimation parameter 30 based on the shape error. This makes it possible for the trained model generation method to reflect, for example, the virtual zoom amount in the virtual viewpoint image in the camera parameter estimation of the rendering camera, and as a result, the surface shape estimation of the other object. It has the effect of improving accuracy.
 学習済モデルの生成方法は、仮想視点画像生成部2が、仮想視点をレンダリング対象のオブジェクトに対して近付けた場合を想定した仮想視点画像を生成することを含む。これにより、学習済モデルの生成方法は、仮想視点画像として、入力画像中の被写体に対しカメラでズームしたかのような入力画像よりも高解像度の予測ズーム画像を生成することができる。 The method of generating the trained model includes that the virtual viewpoint image generation unit 2 generates a virtual viewpoint image assuming that the virtual viewpoint is brought closer to the object to be rendered. As a result, the trained model generation method can generate a predicted zoom image having a higher resolution than the input image as if the subject in the input image was zoomed by the camera as a virtual viewpoint image.
 学習済モデルの生成方法は、仮想視点画像生成部2が、仮想視点をレンダリング対象のオブジェクトに対して、ヨー方向、ロール方向、およびピッチ方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した仮想視点画像を生成することを含む。これにより、学習済モデルの生成方法は、入力画像には無い別視点からの予測視点画像を生成して利用することで、例えば、予測視点画像における仮想的な視点変化をレンダリング用カメラのカメラパラメータ等の推定に反映してオブジェクトの表面形状推定の視点依存性を低減し、入力画像よりも高精細なレンダリングパラメータをより安定に推定することが可能となる。 The trained model generation method is when the virtual viewpoint image generation unit 2 rotates the virtual viewpoint with respect to the object to be rendered in at least one of the yaw direction, the roll direction, and the pitch direction. Includes generating a virtual viewpoint image assuming. As a result, the trained model generation method is to generate and use a predicted viewpoint image from another viewpoint that is not in the input image. It is possible to reduce the viewpoint dependence of the surface shape estimation of the object by reflecting it in the estimation such as, and to estimate the rendering parameters with higher definition than the input image more stably.
 情報処理装置1は、仮想視点画像生成部2と、レンダリングパラメータ推定部3とを有する。仮想視点画像生成部2は、入力画像より高解像度の仮想視点画像を生成する。レンダリングパラメータ推定部3は、仮想視点画像を用いて、レンダリングパラメータを推定する。これにより、情報処理装置1は、入力画像よりも高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 The information processing device 1 has a virtual viewpoint image generation unit 2 and a rendering parameter estimation unit 3. The virtual viewpoint image generation unit 2 generates a virtual viewpoint image having a higher resolution than the input image. The rendering parameter estimation unit 3 estimates rendering parameters using a virtual viewpoint image. As a result, the information processing apparatus 1 can estimate rendering parameters that can reproduce the surface shape of the object with higher definition than the input image.
 仮想視点画像生成部2は、生成部21と、2値分類器22とを有する。生成部21は、入力画像と生成パラメータとを用いて仮想視点画像を生成する。2値分類器22は、仮想視点画像と正解仮想視点画像とを用いて、仮想視点画像が正解仮想視点画像と同様に本物らしいか否かを識別する。仮想視点画像生成部2は、2値分類器22から出力される仮想視点画像の確率密度分布と正解仮想視点画像の確率密度分布との類似度が最小となるように生成パラメータ20を更新する。これにより、情報処理装置1は、更新によって最適化された生成パラメータを用いることで、さらに高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 The virtual viewpoint image generation unit 2 has a generation unit 21 and a binary classifier 22. The generation unit 21 generates a virtual viewpoint image using the input image and the generation parameters. The binary classifier 22 uses the virtual viewpoint image and the correct virtual viewpoint image to identify whether or not the virtual viewpoint image is genuine like the correct virtual viewpoint image. The virtual viewpoint image generation unit 2 updates the generation parameter 20 so that the degree of similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier 22 and the probability density distribution of the correct virtual viewpoint image is minimized. As a result, the information processing apparatus 1 can estimate rendering parameters that can reproduce the surface shape of a higher-definition object by using the generation parameters optimized by the update.
 情報処理装置1aは、レンダリング部4と、レンダリング誤差算出部5と、レンダリングパラメータ誤差推定部6と、レンダリングパラメータ推定部更新部7とを有する。レンダリング部4は、推定されたレンダリングパラメータを用いてレンダリング画像を生成する。レンダリング誤差算出部5は、仮想視点画像とレンダリング画像との誤差を算出する。レンダリングパラメータ誤差推定部6は、算出された仮想視点画像とレンダリング画像との誤差に基づいてレンダリングパラメータの誤差を推定する。レンダリングパラメータ推定部更新部7は、レンダリングパラメータの誤差に基づいて、レンダリングパラメータの推定に用いられる推定パラメータを更新する。これにより、情報処理装置1aは、レンダリングパラメータ推定部更新部7による更新によって最適化された推定パラメータを用いることで、より一層高精細なオブジェクトの表面形状を再現可能なレンダリングパラメータを推定することが可能となる。 The information processing device 1a has a rendering unit 4, a rendering error calculation unit 5, a rendering parameter error estimation unit 6, and a rendering parameter estimation unit update unit 7. The rendering unit 4 generates a rendered image using the estimated rendering parameters. The rendering error calculation unit 5 calculates an error between the virtual viewpoint image and the rendered image. The rendering parameter error estimation unit 6 estimates the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image. The rendering parameter estimation unit update unit 7 updates the estimation parameters used for estimating the rendering parameters based on the error of the rendering parameters. As a result, the information processing apparatus 1a can estimate rendering parameters that can reproduce the surface shape of an even higher-definition object by using the estimation parameters optimized by the update by the rendering parameter estimation unit update unit 7. It will be possible.
 レンダリングパラメータ推定部3bは、カメラパラメータ推定部31と、表面形状推定部32とを有する。カメラパラメータ推定部31は、レンダリングに用いられるカメラパラメータを推定する。表面形状推定部32は、レンダリング対象のオブジェクトの表面形状を推定する。レンダリングパラメータ誤差推定部6bは、カメラパラメータ誤差推定部61と、表面形状誤差推定部62とを有する。カメラパラメータ誤差推定部61は、カメラパラメータの誤差を推定する。表面形状誤差推定部62は、表面形状の誤差を推定する。レンダリングパラメータ推定部更新部7bは、カメラパラメータ推定部更新部71と、表面形状推定部更新部72とを有する。カメラパラメータ推定部更新部71は、前記カメラパラメータの誤差に基づいて、推定パラメータに含まれるカメラパラメータを更新する。表面形状推定部更新部72は、前記表面形状の誤差に基づいて、推定パラメータに含まれる表面形状を更新する。これにより、情報処理装置1bは、例えば、仮想視点画像における仮想的なズーム量をレンダリング用カメラのカメラパラメータ推定に反映することが可能となり、その結果としてもう一方のオブジェクトの表面形状推定の精度が向上するという効果がある。 The rendering parameter estimation unit 3b has a camera parameter estimation unit 31 and a surface shape estimation unit 32. The camera parameter estimation unit 31 estimates the camera parameters used for rendering. The surface shape estimation unit 32 estimates the surface shape of the object to be rendered. The rendering parameter error estimation unit 6b has a camera parameter error estimation unit 61 and a surface shape error estimation unit 62. The camera parameter error estimation unit 61 estimates the camera parameter error. The surface shape error estimation unit 62 estimates the surface shape error. The rendering parameter estimation unit update unit 7b has a camera parameter estimation unit update unit 71 and a surface shape estimation unit update unit 72. The camera parameter estimation unit update unit 71 updates the camera parameters included in the estimation parameters based on the error of the camera parameters. The surface shape estimation unit updating unit 72 updates the surface shape included in the estimation parameters based on the surface shape error. As a result, the information processing apparatus 1b can reflect, for example, a virtual zoom amount in the virtual viewpoint image in the camera parameter estimation of the rendering camera, and as a result, the accuracy of the surface shape estimation of the other object is improved. It has the effect of improving.
 仮想視点画像生成部2は、仮想視点をレンダリング対象のオブジェクトに対して近付けた場合を想定した仮想視点画像を生成する。これにより、情報処理装置1,1a,1bは、仮想視点画像として、入力画像中の被写体に対しカメラでズームしたかのような入力画像よりも高解像度の予測ズーム画像を生成することができる。 The virtual viewpoint image generation unit 2 generates a virtual viewpoint image assuming that the virtual viewpoint is brought closer to the object to be rendered. As a result, the information processing devices 1, 1a, 1b can generate a predicted zoom image having a higher resolution than the input image as if the subject in the input image was zoomed by the camera as a virtual viewpoint image.
 仮想視点画像生成部は、仮想視点をレンダリング対象のオブジェクトに対して、ヨー方向、ロール方向、およびピッチ方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した仮想視点画像を生成する。これにより、情報処理装置1,1a,1bは、入力画像には無い別視点からの予測視点画像を生成して利用することで、例えば、予測視点画像における仮想的な視点変化をレンダリング用カメラのカメラパラメータ等の推定に反映してオブジェクトの表面形状推定の視点依存性を低減し、入力画像よりも高精細なレンダリングパラメータをより安定に推定することが可能となる。 The virtual viewpoint image generation unit generates a virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. .. As a result, the information processing devices 1, 1a, 1b generate and use a predicted viewpoint image from another viewpoint that is not included in the input image, so that, for example, a virtual viewpoint change in the predicted viewpoint image can be generated by the rendering camera. It is possible to reduce the viewpoint dependence of the surface shape estimation of the object by reflecting it in the estimation of the camera parameters and the like, and to more stably estimate the rendering parameters with higher definition than the input image.
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
 なお、本技術は以下のような構成も取ることができる。
(1)
 仮想視点画像生成部と、
 レンダリングパラメータ推定部と、
 を有する学習済モデルの生成方法において、
 前記仮想視点画像生成部が、
 入力画像より高解像度の仮想視点画像を生成することと、
 前記レンダリングパラメータ推定部が、
 前記仮想視点画像を用いて、レンダリングパラメータを推定することと
 を含む学習済モデルの生成方法。
(2)
 前記仮想視点画像生成部が、
 入力画像と生成パラメータとを用いて前記仮想視点画像を生成することと、
 前記仮想視点画像と正解仮想視点画像とを用いて、前記仮想視点画像が正解仮想視点画像と同様に本物らしいか否かを2値分類器によって識別することと、
 前記2値分類器から出力される前記仮想視点画像の確率密度分布と前記正解仮想視点画像の確率密度分布との類似度が最小となるように前記生成パラメータを更新することと
 を含む前記(1)に記載の学習済モデルの生成方法。
(3)
 レンダリング部が、
 推定された前記レンダリングパラメータを用いてレンダリング画像を生成することと、
 レンダリング誤差算出部が、
 前記仮想視点画像と前記レンダリング画像との誤差を算出することと、
 レンダリングパラメータ誤差推定部が、
 算出された前記仮想視点画像と前記レンダリング画像との誤差に基づいて前記レンダリングパラメータの誤差を推定することと、
 レンダリングパラメータ推定部更新部が、
 前記レンダリングパラメータの誤差に基づいて、前記レンダリングパラメータの推定に用いられる推定パラメータを更新することと
 を含む前記(1)または(2)に記載の学習済モデルの生成方法。
(4)
 前記レンダリングパラメータ推定部が、
 レンダリングに用いられるカメラパラメータを推定することと、
 レンダリング対象のオブジェクトの表面形状を推定することと、
 前記レンダリングパラメータ誤差推定部が、
 前記カメラパラメータの誤差を推定することと、
 前記表面形状の誤差を推定することと、
 前記レンダリングパラメータ推定部更新部が、
 前記カメラパラメータの誤差に基づいて、推定パラメータに含まれるカメラパラメータを更新することと、
 前記表面形状の誤差に基づいて、推定パラメータに含まれる表面形状を更新することと
 を含む前記(3)に記載の学習済モデルの生成方法。
(5)
 仮想視点画像生成部が、
 仮想視点をレンダリング対象のオブジェクトに対して近付けた場合を想定した前記仮想視点画像を生成すること
 を含む前記(1)~(4)のいずれか一つに記載の学習済モデルの生成方法。
(6)
 仮想視点画像生成部が、
 仮想視点をレンダリング対象のオブジェクトに対して、ヨー方向、ロール方向、およびピッチ方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した前記仮想視点画像を生成すること
 を含む前記(1)~(5)のいずれか一つに記載の学習済モデルの生成方法。
(7)
 入力画像より高解像度の仮想視点画像を生成する仮想視点画像生成部と、
 前記仮想視点画像を用いて、レンダリングパラメータを推定するレンダリングパラメータ推定部と
 を有する情報処理装置。
(8)
 前記仮想視点画像生成部は、
 入力画像と生成パラメータとを用いて前記仮想視点画像を生成する生成部と、
 前記仮想視点画像と正解仮想視点画像とを用いて、前記仮想視点画像が前記正解仮想視点画像と同様に本物らしいか否かを識別する2値分類器とを有し、
 前記2値分類器から出力される前記仮想視点画像の確率密度分布と前記正解仮想視点画像の確率密度分布との類似度が最小となるように前記生成パラメータを更新する
 前記(7)に記載の情報処理装置。
(9)
 推定された前記レンダリングパラメータを用いてレンダリング画像を生成するレンダリング部と、
 前記仮想視点画像と前記レンダリング画像との誤差を算出するレンダリング誤差算出部と、
 算出された前記仮想視点画像と前記レンダリング画像との誤差に基づいて前記レンダリングパラメータの誤差を推定するレンダリングパラメータ誤差推定部と、
 前記レンダリングパラメータの誤差に基づいて、前記レンダリングパラメータの推定に用いられる推定パラメータを更新するレンダリングパラメータ推定部更新部と
 を有する前記(7)または(8)に記載の情報処理装置。
(10)
 前記レンダリングパラメータ推定部は、
 レンダリングに用いられるカメラパラメータを推定するカメラパラメータ推定部と、
 レンダリング対象のオブジェクトの表面形状を推定する表面形状推定部とを有し、
 前記レンダリングパラメータ誤差推定部は、
 前記カメラパラメータの誤差を推定するカメラパラメータ誤差推定部と、
 前記表面形状の誤差を推定する表面形状誤差推定部とを有し、
 前記レンダリングパラメータ推定部更新部は、
 前記カメラパラメータの誤差に基づいて、推定パラメータに含まれるカメラパラメータを更新するカメラパラメータ推定部更新部と、
 前記表面形状の誤差に基づいて、推定パラメータに含まれる表面形状を更新する表面形状推定部更新部と
 を有する
 前記(9)に記載の情報処理装置。
(11)
 仮想視点画像生成部は、
 仮想視点をレンダリング対象のオブジェクトに対して近付けた場合を想定した前記仮想視点画像を生成する
 前記(7)~(10)のいずれか一つに記載の情報処理装置。
(12)
 仮想視点画像生成部は、
 仮想視点をレンダリング対象のオブジェクトに対して、ヨー方向、ロール方向、およびピッチ方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した前記仮想視点画像を生成する
 前記(7)~(11)のいずれか一つに記載の情報処理装置。
The present technology can also have the following configurations.
(1)
Virtual viewpoint image generator and
Rendering parameter estimator and
In the method of generating a trained model with
The virtual viewpoint image generation unit
To generate a virtual viewpoint image with higher resolution than the input image,
The rendering parameter estimation unit
A method of generating a trained model including estimating rendering parameters using the virtual viewpoint image.
(2)
The virtual viewpoint image generation unit
Generating the virtual viewpoint image using the input image and the generation parameters,
Using the virtual viewpoint image and the correct virtual viewpoint image, it is possible to identify whether or not the virtual viewpoint image is as genuine as the correct virtual viewpoint image by a binary classifier.
The above (1) including updating the generation parameter so that the similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier and the probability density distribution of the correct virtual viewpoint image is minimized. ) How to generate the trained model.
(3)
The rendering part
Using the estimated rendering parameters to generate a rendered image,
The rendering error calculation unit
To calculate the error between the virtual viewpoint image and the rendered image,
Rendering parameter error estimator
Estimating the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image, and
Rendering parameter estimation section update section
The method of generating a trained model according to (1) or (2) above, comprising updating the estimation parameters used for estimating the rendering parameters based on the error of the rendering parameters.
(4)
The rendering parameter estimation unit
Estimating the camera parameters used for rendering and
Estimating the surface shape of the object to be rendered and
The rendering parameter error estimation unit
Estimating the error of the camera parameters and
Estimating the error of the surface shape and
The rendering parameter estimation unit update unit
Updating the camera parameters included in the estimation parameters based on the camera parameter error,
The method for generating a trained model according to (3) above, which includes updating the surface shape included in the estimation parameters based on the surface shape error.
(5)
The virtual viewpoint image generator
The method for generating a trained model according to any one of (1) to (4) above, which includes generating the virtual viewpoint image assuming that the virtual viewpoint is brought close to the object to be rendered.
(6)
The virtual viewpoint image generator
The above (1) including generating the virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. )-(5). The method for generating a trained model according to any one of (5).
(7)
A virtual viewpoint image generator that generates a virtual viewpoint image with a higher resolution than the input image,
An information processing device having a rendering parameter estimation unit that estimates rendering parameters using the virtual viewpoint image.
(8)
The virtual viewpoint image generation unit is
A generation unit that generates the virtual viewpoint image using an input image and generation parameters,
It has a binary classifier that discriminates whether or not the virtual viewpoint image is genuine like the correct virtual viewpoint image by using the virtual viewpoint image and the correct virtual viewpoint image.
The generation parameter is updated so that the similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier and the probability density distribution of the correct virtual viewpoint image is minimized. Information processing device.
(9)
A rendering unit that generates a rendered image using the estimated rendering parameters, and a rendering unit.
A rendering error calculation unit that calculates an error between the virtual viewpoint image and the rendered image,
A rendering parameter error estimation unit that estimates the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image, and a rendering parameter error estimation unit.
The information processing apparatus according to (7) or (8) above, which has a rendering parameter estimation unit update unit that updates the estimation parameter used for estimating the rendering parameter based on the error of the rendering parameter.
(10)
The rendering parameter estimation unit is
A camera parameter estimation unit that estimates the camera parameters used for rendering, and a camera parameter estimation unit.
It has a surface shape estimation unit that estimates the surface shape of the object to be rendered, and has a surface shape estimation unit.
The rendering parameter error estimation unit is
A camera parameter error estimation unit that estimates the camera parameter error, and a camera parameter error estimation unit.
It has a surface shape error estimation unit that estimates the surface shape error, and has a surface shape error estimation unit.
The rendering parameter estimation unit update unit
A camera parameter estimation unit update unit that updates the camera parameters included in the estimation parameters based on the camera parameter error, and a camera parameter estimation unit update unit.
The information processing apparatus according to (9) above, which has a surface shape estimation unit updating unit that updates the surface shape included in the estimation parameter based on the surface shape error.
(11)
The virtual viewpoint image generator
The information processing apparatus according to any one of (7) to (10), which generates the virtual viewpoint image assuming that the virtual viewpoint is brought close to the object to be rendered.
(12)
The virtual viewpoint image generator
The above (7) to (7) to generate the virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. The information processing apparatus according to any one of 11).
 1,1a,1b 情報処理装置
 2 仮想視点画像生成部
 20 生成パラメータ
 21 生成部
 22 2値分類器
 23 類似度算出部
 3,3a,3b レンダリングパラメータ推定部
 30 推定パラメータ
 31 カメラパラメータ推定部
 32 表面形状推定部
 4,41 レンダリング部
 5 レンダリング誤差算出部
 6,6b レンダリングパラメータ誤差推定部
 61 カメラパラメータ誤差推定部
 62 表面形状誤差推定部
 7,7b レンダリングパラメータ推定部更新部
 71 カメラパラメータ推定部更新部
 72 表面形状推定部更新部
1,1a, 1b Information processing device 2 Virtual viewpoint image generation unit 20 Generation parameter 21 Generation unit 22 Two-value classifier 23 Similarity calculation unit 3,3a, 3b Rendering parameter estimation unit 30 Estimation parameter 31 Camera parameter estimation unit 32 Surface shape Estimating unit 4,41 Rendering unit 5 Rendering error calculation unit 6,6b Rendering parameter error estimation unit 61 Camera parameter error estimation unit 62 Surface shape error estimation unit 7,7b Rendering parameter estimation unit update unit 71 Camera parameter estimation unit update unit 72 Surface Shape estimation unit update unit

Claims (12)

  1.  仮想視点画像生成部と、
     レンダリングパラメータ推定部と、
     を有する学習済モデルの生成方法において、
     前記仮想視点画像生成部が、
     入力画像より高解像度の仮想視点画像を生成することと、
     前記レンダリングパラメータ推定部が、
     前記仮想視点画像を用いて、レンダリングパラメータを推定することと
     を含む学習済モデルの生成方法。
    Virtual viewpoint image generator and
    Rendering parameter estimator and
    In the method of generating a trained model with
    The virtual viewpoint image generation unit
    To generate a virtual viewpoint image with higher resolution than the input image,
    The rendering parameter estimation unit
    A method of generating a trained model including estimating rendering parameters using the virtual viewpoint image.
  2.  前記仮想視点画像生成部が、
     入力画像と生成パラメータとを用いて前記仮想視点画像を生成することと、
     前記仮想視点画像と正解仮想視点画像とを用いて、前記仮想視点画像が正解仮想視点画像と同様に本物らしいか否かを2値分類器によって識別することと、
     前記2値分類器から出力される前記仮想視点画像の確率密度分布と前記正解仮想視点画像の確率密度分布との類似度が最小となるように前記生成パラメータを更新することと
     を含む請求項1に記載の学習済モデルの生成方法。
    The virtual viewpoint image generation unit
    Generating the virtual viewpoint image using the input image and the generation parameters,
    Using the virtual viewpoint image and the correct virtual viewpoint image, it is possible to identify whether or not the virtual viewpoint image is as genuine as the correct virtual viewpoint image by a binary classifier.
    Claim 1 including updating the generation parameter so that the similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier and the probability density distribution of the correct virtual viewpoint image is minimized. How to generate a trained model as described in.
  3.  レンダリング部が、
     推定された前記レンダリングパラメータを用いてレンダリング画像を生成することと、
     レンダリング誤差算出部が、
     前記仮想視点画像と前記レンダリング画像との誤差を算出することと、
     レンダリングパラメータ誤差推定部が、
     算出された前記仮想視点画像と前記レンダリング画像との誤差に基づいて前記レンダリングパラメータの誤差を推定することと、
     レンダリングパラメータ推定部更新部が、
     前記仮想視点画像と前記レンダリング画像との誤差に基づいて、前記レンダリングパラメータの推定に用いられる推定パラメータを更新することと
     を含む請求項1に記載の学習済モデルの生成方法。
    The rendering part
    Using the estimated rendering parameters to generate a rendered image,
    The rendering error calculation unit
    To calculate the error between the virtual viewpoint image and the rendered image,
    Rendering parameter error estimator
    Estimating the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image, and
    Rendering parameter estimation section update section
    The method for generating a trained model according to claim 1, further comprising updating the estimation parameters used for estimating the rendering parameters based on the error between the virtual viewpoint image and the rendered image.
  4.  前記レンダリングパラメータ推定部が、
     レンダリングに用いられるカメラパラメータを推定することと、
     レンダリング対象のオブジェクトの表面形状を推定することと、
     前記レンダリングパラメータ誤差推定部が、
     前記カメラパラメータの誤差を推定することと、
     前記表面形状の誤差を推定することと、
     前記レンダリングパラメータ推定部更新部が、
     前記カメラパラメータの誤差に基づいて、推定パラメータに含まれるカメラパラメータを更新することと、
     前記表面形状の誤差に基づいて、推定パラメータに含まれる表面形状を更新することと
     を含む請求項3に記載の学習済モデルの生成方法。
    The rendering parameter estimation unit
    Estimating the camera parameters used for rendering and
    Estimating the surface shape of the object to be rendered and
    The rendering parameter error estimation unit
    Estimating the error of the camera parameters and
    Estimating the error of the surface shape and
    The rendering parameter estimation unit update unit
    Updating the camera parameters included in the estimation parameters based on the camera parameter error,
    The method for generating a trained model according to claim 3, further comprising updating the surface shape included in the estimation parameters based on the surface shape error.
  5.  仮想視点画像生成部が、
     仮想視点をレンダリング対象のオブジェクトに対して近付けた場合を想定した前記仮想視点画像を生成すること
     を含む請求項1に記載の学習済モデルの生成方法。
    The virtual viewpoint image generator
    The method for generating a trained model according to claim 1, wherein the virtual viewpoint image is generated assuming that the virtual viewpoint is brought close to the object to be rendered.
  6.  仮想視点画像生成部が、
     仮想視点をレンダリング対象のオブジェクトに対して、ヨー方向、ロール方向、およびピッチ方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した前記仮想視点画像を生成すること
     を含む請求項1に記載の学習済モデルの生成方法。
    The virtual viewpoint image generator
    Claim 1 including generating the virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. How to generate a trained model as described in.
  7.  入力画像より高解像度の仮想視点画像を生成する仮想視点画像生成部と、
     前記仮想視点画像を用いて、レンダリングパラメータを推定するレンダリングパラメータ推定部と
     を有する情報処理装置。
    A virtual viewpoint image generator that generates a virtual viewpoint image with a higher resolution than the input image,
    An information processing device having a rendering parameter estimation unit that estimates rendering parameters using the virtual viewpoint image.
  8.  前記仮想視点画像生成部は、
     入力画像と生成パラメータとを用いて前記仮想視点画像を生成する生成部と、
     前記仮想視点画像と正解仮想視点画像とを用いて、前記仮想視点画像が前記正解仮想視点画像と同様に本物らしいか否かを識別する2値分類器とを有し、
     前記2値分類器から出力される前記仮想視点画像の確率密度分布と前記正解仮想視点画像の確率密度分布との類似度が最小となるように前記生成パラメータを更新する
     請求項7に記載の情報処理装置。
    The virtual viewpoint image generation unit is
    A generation unit that generates the virtual viewpoint image using an input image and generation parameters,
    It has a binary classifier that discriminates whether or not the virtual viewpoint image is genuine like the correct virtual viewpoint image by using the virtual viewpoint image and the correct virtual viewpoint image.
    The information according to claim 7, wherein the generation parameter is updated so that the similarity between the probability density distribution of the virtual viewpoint image output from the binary classifier and the probability density distribution of the correct virtual viewpoint image is minimized. Processing equipment.
  9.  推定された前記レンダリングパラメータを用いてレンダリング画像を生成するレンダリング部と、
     前記仮想視点画像と前記レンダリング画像との誤差を算出するレンダリング誤差算出部と、
     算出された前記仮想視点画像と前記レンダリング画像との誤差に基づいて前記レンダリングパラメータの誤差を推定するレンダリングパラメータ誤差推定部と、
     前記レンダリングパラメータの誤差に基づいて、前記レンダリングパラメータの推定に用いられる推定パラメータを更新するレンダリングパラメータ推定部更新部と
     を有する請求項7に記載の情報処理装置。
    A rendering unit that generates a rendered image using the estimated rendering parameters, and a rendering unit.
    A rendering error calculation unit that calculates an error between the virtual viewpoint image and the rendered image,
    A rendering parameter error estimation unit that estimates the error of the rendering parameter based on the calculated error between the virtual viewpoint image and the rendered image, and a rendering parameter error estimation unit.
    The information processing apparatus according to claim 7, further comprising a rendering parameter estimation unit updating unit that updates the estimation parameter used for estimating the rendering parameter based on the error of the rendering parameter.
  10.  前記レンダリングパラメータ推定部は、
     レンダリングに用いられるカメラパラメータを推定するカメラパラメータ推定部と、
     レンダリング対象のオブジェクトの表面形状を推定する表面形状推定部とを有し、
     前記レンダリングパラメータ誤差推定部は、
     前記カメラパラメータの誤差を推定するカメラパラメータ誤差推定部と、
     前記表面形状の誤差を推定する表面形状誤差推定部とを有し、
     前記レンダリングパラメータ推定部更新部は、
     前記カメラパラメータの誤差に基づいて、推定パラメータに含まれるカメラパラメータを更新するカメラパラメータ推定部更新部と、
     前記表面形状の誤差に基づいて、推定パラメータに含まれる表面形状を更新する表面形状推定部更新部と
     を有する請求項9に記載の情報処理装置。
    The rendering parameter estimation unit is
    A camera parameter estimation unit that estimates the camera parameters used for rendering, and a camera parameter estimation unit.
    It has a surface shape estimation unit that estimates the surface shape of the object to be rendered, and has a surface shape estimation unit.
    The rendering parameter error estimation unit is
    A camera parameter error estimation unit that estimates the camera parameter error, and a camera parameter error estimation unit.
    It has a surface shape error estimation unit that estimates the surface shape error, and has a surface shape error estimation unit.
    The rendering parameter estimation unit update unit
    A camera parameter estimation unit update unit that updates the camera parameters included in the estimation parameters based on the camera parameter error, and a camera parameter estimation unit update unit.
    The information processing apparatus according to claim 9, further comprising a surface shape estimation unit updating unit that updates the surface shape included in the estimation parameter based on the surface shape error.
  11.  仮想視点画像生成部は、
     仮想視点をレンダリング対象のオブジェクトに対して近付けた場合を想定した前記仮想視点画像を生成する
     請求項7に記載の情報処理装置。
    The virtual viewpoint image generator
    The information processing device according to claim 7, wherein the virtual viewpoint image is generated assuming that the virtual viewpoint is brought close to the object to be rendered.
  12.  仮想視点画像生成部は、
     仮想視点をレンダリング対象のオブジェクトに対して、ヨー方向、ロール方向、およびピッチ方向のうち、少なくとも一つ以上の方向に回転させた場合を想定した前記仮想視点画像を生成する
     請求項7に記載の情報処理装置。
    The virtual viewpoint image generator
    The seventh aspect of claim 7 is to generate the virtual viewpoint image assuming that the virtual viewpoint is rotated in at least one of the yaw direction, the roll direction, and the pitch direction with respect to the object to be rendered. Information processing device.
PCT/JP2021/042193 2020-12-08 2021-11-17 Trained model generation method and information processing device WO2022124026A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020203779 2020-12-08
JP2020-203779 2020-12-08

Publications (1)

Publication Number Publication Date
WO2022124026A1 true WO2022124026A1 (en) 2022-06-16

Family

ID=81974381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042193 WO2022124026A1 (en) 2020-12-08 2021-11-17 Trained model generation method and information processing device

Country Status (1)

Country Link
WO (1) WO2022124026A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114937140A (en) * 2022-07-25 2022-08-23 深圳大学 Large-scale scene-oriented image rendering quality prediction and path planning system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (en) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Free-viewpoint image generation method and free-viewpoint image generation system
JP2020119333A (en) * 2019-01-24 2020-08-06 キヤノン株式会社 Image processing method, image processing device, image processing system, imaging device, program, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (en) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Free-viewpoint image generation method and free-viewpoint image generation system
JP2020119333A (en) * 2019-01-24 2020-08-06 キヤノン株式会社 Image processing method, image processing device, image processing system, imaging device, program, and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IWASAKI WATARU, DOBASHI YOSHINORI, YAMAMOTO TSUYOSHI: "A Method of Estimating Rendering Parameters for Clouds Taking into Account Atmospheric Effects", IPSJ SIG TECHNICAL REPORT, vol. 2011-CVIM-179, no. 23, 1 January 2011 (2011-01-01), pages 1 - 6, XP055942273 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114937140A (en) * 2022-07-25 2022-08-23 深圳大学 Large-scale scene-oriented image rendering quality prediction and path planning system
CN114937140B (en) * 2022-07-25 2022-11-04 深圳大学 Large-scale scene-oriented image rendering quality prediction and path planning system

Similar Documents

Publication Publication Date Title
Yang et al. Spatial image steganography based on generative adversarial network
CN111105352B (en) Super-resolution image reconstruction method, system, computer equipment and storage medium
JP2017500651A (en) A method for processing an input low resolution (LR) image into an output high resolution (HR) image
CN112288632B (en) Single image super-resolution method and system based on simplified ESRGAN
US8384715B2 (en) View-dependent rendering of parametric surfaces
US11263356B2 (en) Scalable and precise fitting of NURBS surfaces to large-size mesh representations
CN104952034B (en) Conversion of complex holograms to phase holograms
WO2022124026A1 (en) Trained model generation method and information processing device
CN114049420B (en) Model training method, image rendering method, device and electronic equipment
WO2020170785A1 (en) Generating device and computer program
CN114640885B (en) Video frame inserting method, training device and electronic equipment
US8134557B2 (en) Image processing apparatus and image processing method
JPWO2007122838A1 (en) Super-resolution method and super-resolution program based on hierarchical Bayesian method
US20150145861A1 (en) Method and arrangement for model generation
JP2020014042A (en) Image quality evaluation device, learning device and program
CN104969258A (en) Interpolation method and corresponding device
US9275487B1 (en) System and method for performing non-affine deformations
WO2020022519A1 (en) Image processing device, image processing method, and image processing program
Rezayi et al. Huber Markov random field for joint super resolution
JP5181345B2 (en) Image processing apparatus and image processing method
Kanemura et al. Hyperparameter estimation in Bayesian image superresolution with a compound Markov random field prior
Horváth et al. Novel Image Super-resolution and Denoising Using Implicit Tensor-product B-spline
JP7208314B1 (en) LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
WO2022215163A1 (en) Information processing device, information processing method, and program
Korkmaz et al. Two-stage domain adapted training for better generalization in real-world image restoration and super-resolution

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903130

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21903130

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP