WO2019194282A1 - 画像処理装置および2次元画像生成用プログラム - Google Patents

画像処理装置および2次元画像生成用プログラム Download PDF

Info

Publication number
WO2019194282A1
WO2019194282A1 PCT/JP2019/014985 JP2019014985W WO2019194282A1 WO 2019194282 A1 WO2019194282 A1 WO 2019194282A1 JP 2019014985 W JP2019014985 W JP 2019014985W WO 2019194282 A1 WO2019194282 A1 WO 2019194282A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
evaluation value
data
dimensional
image data
Prior art date
Application number
PCT/JP2019/014985
Other languages
English (en)
French (fr)
Inventor
吉田 一星
Original Assignee
株式会社EmbodyMe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社EmbodyMe filed Critical 株式会社EmbodyMe
Priority to EP19774044.2A priority Critical patent/EP3591620B1/en
Priority to CN201980002055.7A priority patent/CN110546687B/zh
Priority to US16/498,875 priority patent/US10893252B2/en
Priority to ES19774044T priority patent/ES2906626T3/es
Publication of WO2019194282A1 publication Critical patent/WO2019194282A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Definitions

  • the present invention relates to an image processing apparatus and a two-dimensional image generation program, and is particularly suitable for use in an apparatus that generates two-dimensional image data from three-dimensional data of a 3D model.
  • Patent Document 2 discloses that a thumbnail image of a 3D model is created so as to include a feature portion of the 3D model in order to improve the convenience of use and management of the 3D model data.
  • Patent Document 3 A technique is also known in which a 3D model is created from a 2D image and a 2D image is created from a 3D model in both directions (see, for example, Patent Document 3).
  • the image processing apparatus described in Patent Document 3 is intended to enable easy correction to a natural face shape when correcting a captured face image. After generating a 3D model and mapping a captured image of the subject on the surface of the generated 3D model, the shape of the 3D model is deformed. Then, the deformed 3D model is projected in the direction in which the captured image is mapped, and the two-dimensional planar image obtained thereby is used as the processing result image.
  • the image processing apparatus described in Patent Document 3 aims to obtain a two-dimensional image corrected to a natural face shape, so that the two-dimensional image is generated with high quality with a quality of a certain level or higher. It is required to do.
  • the high-precision two-dimensional image referred to here is a two-dimensional image that is not inferior to a photographed image.
  • the present invention has been made to solve such problems, and an object of the present invention is to be able to generate a highly accurate two-dimensional image that is comparable to a photographed image from a 3D model.
  • the present invention provides a 2D image generation unit that generates 2D image data from 3D data in accordance with a predetermined 2D conversion algorithm, and a captured image used as the generated 2D image data and a correct image.
  • An evaluation value calculation unit that calculates an evaluation value representing the closeness to the data, and is calculated each time for the two-dimensional image data generated when the three-dimensional data is input to the 2D image generation unit and the process is repeated.
  • the 2D conversion algorithm of the 2D image generation unit is modified by learning so that the evaluation value is optimized.
  • the generation of 2D image data from 3D data by the 2D image generation unit is repeatedly executed while modifying the 2D conversion algorithm.
  • the 2D conversion algorithm evolves by learning so that the evaluation value calculated each time for the two-dimensional image data generated by the 2D image generation unit is optimized by using highly accurate captured image data as a correct image.
  • FIG. 10 is a block diagram illustrating a functional configuration example when learning is performed by applying the first pattern to the fourth pattern.
  • FIG. 1 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the present embodiment.
  • the image processing apparatus according to the present embodiment includes a 3D data acquisition unit 11, a correct image acquisition unit 12, a 2D image generation unit 13, and an evaluation value calculation unit 14 as its functional configuration.
  • Each of these functional blocks 11 to 14 can be configured by hardware, DSP (Digital Signal Processor), or software.
  • DSP Digital Signal Processor
  • each of the functional blocks 11 to 14 actually includes a CPU, RAM, ROM, etc. of a computer, and is stored in a recording medium such as RAM, ROM, hard disk, or semiconductor memory. Is realized by operating.
  • the 3D data acquisition unit 11 acquires 3D data of a 3D model in which a captured image is mapped on the surface. It is not essential that the 3D data acquired by the 3D data acquisition unit 11 is 3D data of a highly accurate 3D model.
  • the high-accuracy 3D model three-dimensional data is data in which the three-dimensional shape of an object is faithfully represented by the 3D model, and mapping (pasting) of the captured image to the 3D model is accurately performed.
  • the three-dimensional data acquired by the 3D data acquisition unit 11 of the present embodiment may not be highly accurate data so far.
  • the three-dimensional data acquired by the 3D data acquisition unit 11 can be data obtained by converting two-dimensional captured image data into a 3D model using a known technique.
  • the correct image acquisition unit 12 acquires two-dimensional captured image data used as a correct image for learning.
  • the captured image data acquired by the correct image acquisition unit 12 can be captured image data used as a generation source of the three-dimensional data acquired by the 3D data acquisition unit 11.
  • the 2D image generation unit 13 generates 2D image data from the 3D data acquired by the 3D data acquisition unit 11 according to a predetermined 2D conversion algorithm.
  • this 2D conversion algorithm is represented by the symbol “g ()”.
  • the 2D conversion algorithm used here a known algorithm can be used. However, as will be described later, since this 2D conversion algorithm is modified by learning, it is essential that the algorithm be modifiable.
  • modifying the 2D conversion algorithm converts, for example, a value on the three-dimensional space coordinates that specify the three-dimensional data into a value on the two-dimensional space coordinates that specifies the two-dimensional image data.
  • the evaluation value calculation unit 14 calculates an evaluation value representing the closeness between the two-dimensional image data generated by the 2D image generation unit 13 and the captured image data acquired by the correct image acquisition unit 12. Then, the 2D image generation unit 13 inputs the three-dimensional data to the 2D image generation unit 13 so that the evaluation value calculated each time for the two-dimensional image data generated when the process is repeated is optimized.
  • the 2D conversion algorithm is modified by learning.
  • the 2D image generation unit 13 learns the 2D conversion algorithm by applying the following four patterns.
  • 2 to 5 show specific functional configuration examples of the image processing apparatus in the case of performing learning using these four patterns. Hereinafter, learning of the four patterns will be described in order.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration when learning is performed using the first pattern.
  • the learning by the first pattern applies a learning algorithm known as a so-called GAN (Generative Adversarial Network).
  • GAN Generative Adversarial Network
  • the image processing apparatus includes a 2D image generation unit 13A and a first evaluation value calculation unit 14A as a functional configuration for performing learning using the first pattern.
  • the 2D image generation unit 13A corresponds to what is generally called a generator in the GAN.
  • the first evaluation value calculation unit 14A corresponds to what is generally called a discriminator in GAN.
  • the first evaluation value calculation unit 14A includes three-dimensional data acquired by the 3D data acquisition unit 11 (hereinafter referred to as symbol “s”) and captured image data acquired as a correct image by the correct image acquisition unit 12 ( Hereinafter, it is represented by the symbol “x” (sometimes referred to as the correct image x)) or two-dimensional image data generated from the three-dimensional data s by the 2D image generation unit 13A (hereinafter, represented by the symbol “g (s)”). ) In accordance with a predetermined identification algorithm, it is identified whether the input image is the correct image x or the two-dimensional image data g (s) generated by the 2D image generation unit 13A. Is calculated as a first evaluation value (hereinafter represented by the symbol “A”).
  • the image processing apparatus uses the 2D conversion algorithm of the 2D image generation unit 13A so as to maximize the first evaluation value A calculated by the first evaluation value calculation unit 14A using the two-dimensional image data g (s) as an input. Modify.
  • the image processing apparatus receives the two-dimensional image data g (s) as an input, minimizes the first evaluation value A calculated by the first evaluation value calculation unit 14A, and captures image data (correct image) x.
  • the identification algorithm of the first evaluation value calculation unit 14A is modified so as to maximize the first evaluation value A calculated by the first evaluation value calculation unit 14A.
  • Changing the identification algorithm means changing the identification processing logic when identifying whether the input image is the correct image, changing functions and parameters used in the identification processing logic, changing the library used in the identification processing logic, etc. At least one of the following.
  • the first evaluation value A calculated by the first evaluation value calculation unit 14A is minimized using the two-dimensional image data g (s) as an input, and the first evaluation value is calculated using the correct image x as an input.
  • Modifying the identification algorithm of the first evaluation value calculation unit 14A so as to maximize the first evaluation value A calculated by the unit 14A is because the first evaluation value calculation unit 14A corresponding to the classifier , It means learning to enhance the ability to discriminate whether the input image is a correct image or not. If this discrimination capability increases, the first evaluation value calculation unit 14A can identify an image that is slightly different from the correct image as not being the correct image.
  • the 2D conversion algorithm of the 2D image generation unit 13A is modified so as to maximize the first evaluation value A calculated by the first evaluation value calculation unit 14A using the two-dimensional image data g (s) as an input.
  • the 2D image generation unit 13A learns to enhance the ability to generate the two-dimensional image data g (s) that cannot identify whether the first evaluation value calculation unit 14A is a correct image. . If this generation capability increases, the 2D image generation unit 13A can generate two-dimensional image data g (s) that is almost the same as the correct image.
  • the 2D image generation unit 13A (generator) generates the two-dimensional image data g (s) that makes the first evaluation value calculation unit 14A appear as close as possible to the correct image x, and the first evaluation value
  • the calculation unit 14A discriminator learns so that the two-dimensional image data g (s) generated by the 2D image generation unit 13A so as to resemble the correct image and the correct image x can be distinguished as much as possible.
  • the 2D image generation unit 13A can generate two-dimensional image data g (s) indistinguishable from the captured image data x.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration when learning is performed using the second pattern. Learning by the second pattern applies a loss function of a learning algorithm known as so-called style transformation (Neural Style Transfer).
  • the image processing apparatus includes a 2D image generation unit 13B and a second evaluation value calculation unit 14B as a functional configuration for performing learning using the second pattern.
  • the second evaluation value calculation unit 14B has a learned neural network for image classification of two-dimensional image data.
  • the neural network is represented by the symbol “ ⁇ ”
  • each layer of the network is represented by ⁇ _L.
  • the second evaluation value calculation unit 14B includes the captured image data x acquired by the correct image acquisition unit 12 and the two-dimensional image data g generated by the 2D image generation unit 13B in each layer ⁇ _L constituting the neural network ⁇ .
  • the total value or the average value of the difference between the values for each of (s) is calculated as a second evaluation value (hereinafter represented by the symbol “B”).
  • the correct image x acquired by the correct image acquisition unit 12 and the two-dimensional image data g (s) generated by the 2D image generation unit 13B are input to the input layer (first layer) ⁇ _1 of the neural network ⁇ .
  • the In the second hierarchy ⁇ _2 of the neural network ⁇ a feature map is generated by mapping the feature quantity groups extracted from the correct image x and the two-dimensional image data g (s) of the first hierarchy ⁇ _1.
  • the second evaluation value calculation unit 14B calculates the difference between the color value at each pixel of the correct image x and the color value at each pixel of the two-dimensional image data g (s) in the first hierarchy ⁇ _1 of the neural network ⁇ . Or the average value (hereinafter, the sum or average value of the differences may be simply referred to as a difference).
  • the image processing device modifies the 2D conversion algorithm of the 2D image generation unit 13B so as to minimize the second evaluation value B calculated by the second evaluation value calculation unit 14B.
  • the 2D conversion algorithm of the 2D image generation unit 13B is modified so as to minimize the second evaluation value B because the 2D image generation unit 13B has two-dimensional image data g (s) that is hardly different from the correct image x. Means learning to enhance the ability to generate. If this generation capability increases, the 2D image generation unit 13B can generate two-dimensional image data g (s) that is almost the same as the captured image data x.
  • FIG. 4 is a block diagram illustrating an example of a functional configuration when learning is performed using the third pattern. Learning by the fourth pattern applies a learning algorithm known as so-called CycleGAN.
  • the image processing apparatus includes a 2D image generation unit 13 ⁇ / b> C and an evaluation value calculation unit 14 ⁇ / b> C as a functional configuration for performing learning using the third pattern.
  • the evaluation value calculation unit 14C includes a three-dimensional data generation unit 14C-1, a first difference value calculation unit 14C-2, a second difference value calculation unit 14C-3, and a third evaluation value calculation unit 14C-4. .
  • the 3D data generation unit 14C-1 generates 3D data of a 3D model from 2D image data according to a predetermined 3D conversion algorithm.
  • this 3D conversion algorithm is represented by the symbol “f ()”.
  • the 3D conversion algorithm used here a known algorithm can be used. However, as will be described later, since this 3D conversion algorithm is modified by learning, it is essential that the algorithm be modifiable.
  • modifying the 3D conversion algorithm means, for example, converting a value on a two-dimensional space coordinate specifying two-dimensional image data into a value on a three-dimensional space coordinate specifying three-dimensional data. At least one of a change in the conversion processing logic, a change in a function and a parameter used in the conversion processing logic, a change in a library used in the conversion processing logic, and the like.
  • the three-dimensional data generation unit 14C-1 generates three-dimensional data (hereinafter, represented by the symbol “f (x)”) from the captured image data (correct image) x acquired by the correct image acquisition unit 11.
  • three-dimensional data hereinafter represented by the symbol “f (g (s)”
  • f (g (s) three-dimensional data
  • the three-dimensional data f (x) generated by the three-dimensional data generation unit 14C-1 is supplied to the 2D image generation unit 13C, and the three-dimensional data f (g (s)) is supplied to the first difference value calculation unit 14C-2. Supplied.
  • the 2D image generation unit 13C generates 2D image data g (s) from the 3D data s acquired by the 3D data acquisition unit 11 according to a predetermined 2D conversion algorithm. In addition, the 2D image generation unit 13C performs 2D image generation based on the three-dimensional data f (x) generated by the three-dimensional data generation unit 14C-1 from the correct image x acquired by the correct image acquisition unit 11. Two-dimensional image data g (f (x)) is generated according to the conversion algorithm.
  • the 2D image data g (s) generated by the 2D image generation unit 13C is supplied to the 3D data generation unit 14C-1, and the 2D image data g (f (x) ) Is supplied to the second difference value calculation unit 14C-3.
  • the first difference value calculation unit 14C-2 uses the three-dimensional data f (g (s) generated by the three-dimensional data generation unit 14C-1 from the two-dimensional image data g (s) generated by the 2D image generation unit 13C. ) And the three-dimensional data s acquired by the 3D data acquisition unit 11 is calculated as a first difference value.
  • the first difference value can be, for example, the sum or average value of the difference between the color value at each coordinate of the three-dimensional data f (g (s)) and the color value at each coordinate of the three-dimensional data s. It is.
  • the 3D conversion algorithm of the 3D data generation unit 14C-1 is also perfect, the three-dimensional data f (g (s)) and the three-dimensional data s becomes the same, and the first difference value becomes zero.
  • the second difference value calculation unit 14C-3 generates a 2D image based on the 3D data f (x) generated by the 3D data generation unit 14C-1 from the correct image x acquired by the correct image acquisition unit 11.
  • a difference between the two-dimensional image data g (f (x)) generated by the unit 13C and the correct image x acquired by the correct image acquiring unit 11 is calculated as a second difference value.
  • the second difference value can be, for example, the sum or average value of the difference between the color value at each pixel of the two-dimensional image data g (f (x)) and the color value at each pixel of the correct image x. It is.
  • the 2D conversion algorithm of the 2D image generation unit 13C is perfect and the 3D conversion algorithm of the 3D data generation unit 14C-1 is also perfect, the two-dimensional image data g (f (x)) and the correct image x becomes the same, and the second difference value becomes zero.
  • the third evaluation value calculation unit 14C-4 is the sum of the first difference value calculated by the first difference value calculation unit 14C-2 and the second difference value calculated by the second difference value calculation unit 14C-3.
  • the value is calculated as a third evaluation value (hereinafter represented by the symbol “C”).
  • the image processing apparatus uses the 2D conversion algorithm of the 2D image generation unit 13C and the 3D data generation unit 14C-1 so as to minimize the third evaluation value C calculated by the third evaluation value calculation unit 14C-4. Modify the 3D conversion algorithm.
  • the 2D image generation unit 13C modifies the 2D conversion algorithm of the 2D image generation unit 13C and the 3D conversion algorithm of the three-dimensional data generation unit 14C-1 so as to minimize the third evaluation value C.
  • 2D image data g (f (x)) that is almost the same as the three-dimensional data s (which can be said to be correct data of the three-dimensional data) by the three-dimensional data generation unit 14C-1 It means learning to improve the ability to generate non-three-dimensional data f (g (s)). If this generation capability increases, the 2D image generation unit 13C can generate two-dimensional image data g (s) that is hardly different from the photographed image data x.
  • FIG. 5 is a block diagram illustrating an example of a functional configuration when learning is performed using the fourth pattern.
  • the image processing apparatus includes a 2D image generation unit 13D and a fourth evaluation value calculation unit 14D as a functional configuration for performing learning using the fourth pattern.
  • the fourth evaluation value calculation unit 14D calculates a difference between the two-dimensional image data g (s) generated by the 2D image generation unit 13D and the correct image x acquired by the correct image acquisition unit 11 as a fourth evaluation value ( Hereinafter, it is calculated as “D”.
  • the image processing device modifies the 2D conversion algorithm of the 2D image generation unit 13D so as to minimize the fourth evaluation value D calculated by the fourth evaluation value calculation unit 14D.
  • the 2D conversion algorithm of the 2D image generation unit 13D is modified so as to minimize the fourth evaluation value D because the 2D image generation unit 13D has two-dimensional image data g (s) that is hardly different from the correct image x. Means learning to enhance the ability to generate. If this generation capability increases, the 2D image generation unit 13D can generate two-dimensional image data g (s) that is almost different from the captured image data x.
  • the evaluation value calculation unit 14 may be configured to include only one of the first pattern to the fourth pattern shown in FIGS. 2 to 5, or at least two of the first pattern to the fourth pattern. And the 2D conversion algorithm may be modified so as to optimize the evaluation values calculated by the at least two.
  • the first evaluation value A calculated by the first evaluation value calculation unit 14A is minimized by inputting the two-dimensional image data g (s).
  • the identification algorithm of the first evaluation value calculation unit 14A is further modified so as to maximize the first evaluation value A calculated by the first evaluation value calculation unit 14A with the correct image x as an input.
  • the 3D conversion algorithm of the three-dimensional data generation unit 14C-1 is further modified so as to minimize the third evaluation value C.
  • FIG. 6 is a diagram illustrating a functional configuration example of the learning processing unit 14 when all of the first pattern to the fourth pattern are applied. Although the illustration is simplified here, the detailed configuration of each pattern is as shown in FIGS.
  • the 2D image generation unit 13 modifies the 2D conversion algorithm so as to optimize (maximize or minimize) the evaluation values A to D calculated by the evaluation value calculation units 14A to 14D, respectively.
  • the evaluation value calculation unit 14 receives the two-dimensional image data g (s) as an input, minimizes the first evaluation value A calculated by the first evaluation value calculation unit 14A, and receives the correct image x as an input.
  • the identification algorithm of the first evaluation value calculation unit 14A is modified so as to maximize the first evaluation value A calculated by the first evaluation value calculation unit 14A, and the third evaluation value C is minimized.
  • the 3D conversion algorithm of the three-dimensional data generation unit 14C-1 is modified.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

3次元データから所定の2D変換アルゴリズムに従って2次元画像データを生成する2D画像生成部13と、生成された2次元画像データと正解画像として用いる撮影画像データとの近似性を表す評価値を算出する評価値算出部14とを備え、2D画像生成部13による3次元データから2次元画像データの生成を繰り返し実行し、高精度な撮影画像データを正解画像として、2次元画像データについて都度算出される評価値が最適化するように2D変換アルゴリズムを学習することにより、高精度な3Dモデルの3次元データでなくても、3Dモデルから高精度な2次元画像を生成することができるようにする。

Description

画像処理装置および2次元画像生成用プログラム
 本発明は、画像処理装置および2次元画像生成用プログラムに関し、特に、3Dモデルの3次元データから2次元画像データを生成する装置に用いて好適なものである。
 従来、コンピュータグラフィックス分野において、撮影画像から3Dモデルを生成する技術が多数提供されている。その中には、機械学習を用いて、2次元画像から3次元形状を推定するようにした技術も存在する(例えば、特許文献1参照)。
 逆に、3Dモデルから2次元画像を生成する技術も知られている(例えば、特許文献2参照)。この特許文献2には、3次元モデルデータの利用および管理の利便性を向上させるために、3Dモデルの特徴部を含むように3Dモデルのサムネイル画像を作成することが開示されている。
 2次元画像から3Dモデルの作成と、3Dモデルから2次元画像の作成とを双方向で行うようにした技術も知られている(例えば、特許文献3参照)。この特許文献3に記載の画像処理装置は、撮影された顔画像を修正する際に、自然な顔の形に容易に修正することができるようにすることを目的としたものであり、被写体の3Dモデルを生成し、当該生成した3Dモデルの表面に被写体の撮影画像をマッピングした後、3Dモデルの形状を変形する。そして、変形した3Dモデルを、撮影画像をマッピングした方向に射影し、これによって得られた2次元平面画像を処理結果画像とする。
WO06/049147号公報 特開2017-4065号公報 特開2006-4158号公報
 ところで、特許文献2に記載の画像処理装置において作成している2次元画像は、3Dモデルの特徴部を含むサムネイル画像であるから、このサムネイル画像自体を高精度に生成する必要性はそれほど高くない。これに対し、特許文献3に記載の画像処理装置では、自然な顔の形に修正された2次元画像を得ることを目的としているので、2次元画像を一定レベル以上の品質で高精度に生成することが要求される。3Dモデルから高精度な2次元画像を生成したいというニーズは、特許文献3に記載されたユースケース以外にも多く存在する。ここで言う高精度な2次元画像とは、撮影画像と遜色のない2次元画像のことである。
 しかしながら、3Dモデルから2次元画像を生成する場合において、その2次元画像を高精度に生成するためには、従来は3Dモデル自体を高精度に生成する必要があった。また、その3Dモデルに対する撮影画像のマッピング(貼り付け)も正確に行う必要があった。さらに、撮影画像がマッピングされた3Dモデルを2次元画像に変換する際に、特許文献3のように単純な投影を行うだけでは、高精度な2次元画像は得られない。すなわち、現実のあらゆる光の物理現象を忠実にシミュレーションし、そのシミュレーション結果を反映させるように変換処理を行う必要があった。しかしながら、これらの全て満たす処理を実際に行うのは困難であり、3Dモデルから高精度な2次元画像を生成することはできていないというのが実情であった。
 本発明は、このような問題を解決するために成されたものであり、3Dモデルから撮影画像と遜色のない高精度な2次元画像を生成することができるようにすることを目的とする。
 上記した課題を解決するために、本発明は、3次元データから所定の2D変換アルゴリズムに従って2次元画像データを生成する2D画像生成部と、生成された2次元画像データと正解画像として用いる撮影画像データとの近似性を表す評価値を算出する評価値算出部とを備え、3次元データを2D画像生成部に入力して処理を繰り返し行ったときに生成される2次元画像データについて都度算出される評価値が最適化するように、2D画像生成部の2D変換アルゴリズムを学習によって改変するようにしている。
 上記のように構成した本発明によれば、2D画像生成部による3次元データから2次元画像データの生成が、2D変換アルゴリズムを改変しながら繰り返し実行される。このとき、高精度な撮影画像データを正解画像として、2D画像生成部により生成される2次元画像データについて都度算出される評価値が最適化するように、2D変換アルゴリズムが学習により進化してく。これにより、高精度な3Dモデルの3次元データでなくても、3Dモデルから撮影画像と遜色のない高精度な2次元画像を生成することができる。
本実施形態による画像処理装置の機能構成例を示すブロック図である。 第1パターンによる学習を行う場合の機能構成例を示すブロック図である。 第2パターンによる学習を行う場合の機能構成例を示すブロック図である。 第3パターンによる学習を行う場合の機能構成例を示すブロック図である。 第4パターンによる学習を行う場合の機能構成例を示すブロック図である。 第1パターン~第4パターンを適用して学習を行う場合の機能構成例を示すブロック図である。
 以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による画像処理装置の機能構成例を示すブロック図である。図1に示すように、本実施形態の画像処理装置は、その機能構成として、3Dデータ取得部11、正解画像取得部12、2D画像生成部13および評価値算出部14を備えている。これらの各機能ブロック11~14は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11~14は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
 3Dデータ取得部11は、撮影画像が表面にマッピングされた3Dモデルの3次元データを取得する。3Dデータ取得部11が取得する3次元データは、高精度な3Dモデルの3次元データであることは必須でない。ここで、高精度な3Dモデルの3次元データとは、物体の3次元形状を3Dモデルによって忠実に表していて、その3Dモデルに対する撮影画像のマッピング(貼り付け)も正確に行われているデータをいう。本実施形態の3Dデータ取得部11が取得する3次元データは、ここまで高精度なデータでなくてもよい。例えば、3Dデータ取得部11が取得する3次元データは、2次元の撮影画像データを公知の技術により3Dモデルに変換したデータとすることが可能である。
 正解画像取得部12は、学習の正解画像として用いる2次元の撮影画像データを取得する。例えば、正解画像取得部12が取得する撮影画像データは、3Dデータ取得部11により取得される3次元データの生成元として用いられた撮影画像データとすることが可能である。
 2D画像生成部13は、3Dデータ取得部11により取得された3次元データから所定の2D変換アルゴリズムに従って2次元画像データを生成する。なお、この2D変換アルゴリズムを、以下では記号“g()”で表すものとする。ここで用いる2D変換アルゴリズムは、公知のアルゴリズムを用いることが可能である。ただし、後述するように、この2D変換アルゴリズムを学習によって改変するので、改変が可能なアルゴリズムであることを必須とする。
 なお、本実施形態において、2D変換アルゴリズムを改変することは、例えば、3次元データを特定する3次元空間座標上の値を、2次元画像データを特定する2次元空間座標上の値に変換する際の変換処理ロジックの変更や、その変換処理ロジックにおいて用いる関数やパラメータの変更、変換処理ロジックにおいて用いるライブラリの変更などの少なくとも1つを含む。
 評価値算出部14は、2D画像生成部13により生成された2次元画像データと、正解画像取得部12により取得された撮影画像データとの近似性を表す評価値を算出する。そして、2D画像生成部13は、3次元データを2D画像生成部13に入力して処理を繰り返し行ったときに生成される2次元画像データについて都度算出される評価値が最適化するように、2D変換アルゴリズムを学習によって改変する。
 本実施形態では、2D画像生成部13は、以下に示す4つのパターンを適用して2D変換アルゴリズムの学習を行う。図2~図5は、この4つのパターンによる学習を行う場合における画像処理装置の具体的な機能構成例を示している。以下に、4つのパターンの学習を順に説明する。
<第1パターン>
 図2は、第1パターンによる学習を行う場合の機能構成例を示すブロック図である。第1パターンによる学習は、いわゆるGAN(Generative Adversarial Network:敵対的生成ネットワーク)として知られた学習アルゴリズムを適用したものである。図2に示すように、画像処理装置は、第1パターンによる学習を行うための機能構成として、2D画像生成部13Aおよび第1の評価値算出部14Aを備えている。2D画像生成部13Aは、GANにおいて一般的に生成器(generator)と呼ばれるものに相当する。一方、第1の評価値算出部14Aは、GANにおいて一般的に識別器(discriminator)と呼ばれるものに相当する。
 第1の評価値算出部14Aは、3Dデータ取得部11により取得された3次元データ(以下、記号“s”で表す)と、正解画像取得部12により正解画像として取得された撮影画像データ(以下、記号“x”で表す。正解画像xと記すこともある。)または2D画像生成部13Aにより3次元データsから生成された2次元画像データ(以下、記号“g(s)”で表す)とを入力として、所定の識別アルゴリズムに従って、入力された画像が正解画像xであるか、2D画像生成部13Aにより生成された2次元画像データg(s)であるかを識別し、正解画像であると識別される確率を第1の評価値(以下、記号“A”で表す)として算出する。
 画像処理装置は、2次元画像データg(s)を入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最大化するように2D画像生成部13Aの2D変換アルゴリズムを改変する。また、画像処理装置は、2次元画像データg(s)を入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最小化するとともに、撮影画像データ(正解画像)xを入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最大化するように第1の評価値算出部14Aの識別アルゴリズムを改変する。識別アルゴリズムを改変するとは、入力された画像が正解画像か否かを識別する際の識別処理ロジックの変更や、その識別処理ロジックにおいて用いる関数やパラメータの変更、識別処理ロジックにおいて用いるライブラリの変更などの少なくとも1つを含む。
 ここで、2次元画像データg(s)を入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最小化するとともに、正解画像xを入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最大化するように第1の評価値算出部14Aの識別アルゴリズムを改変するというのは、識別器に相当する第1の評価値算出部14Aが、入力される画像が正解画像なのかそうでないのかを識別する能力を高めるように学習することを意味する。この識別能力が高まっていけば、第1の評価値算出部14Aは、正解画像とわずかに異なる画像であっても、それが正解画像ではないと識別することができるようになる。
 一方、2次元画像データg(s)を入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最大化するように2D画像生成部13Aの2D変換アルゴリズムを改変するというのは、2D画像生成部13Aが、第1の評価値算出部14Aが正解画像かどうかを識別できないような2次元画像データg(s)を生成する能力を高めるように学習することを意味する。この生成能力が高まっていけば、2D画像生成部13Aは、正解画像と殆ど相違のない2次元画像データg(s)を生成することができるようになる。
 実際には、2D画像生成部13Aによる学習と、第1の評価値算出部14Aによる学習とを交互に繰り返す。このように、2D画像生成部13A(generator)は、正解画像xにできるだけ近く第1の評価値算出部14Aを騙せるような2次元画像データg(s)を生成し、第1の評価値算出部14A(discriminator)は、2D画像生成部13Aが正解画像に似せようとして生成した2次元画像データg(s)と正解画像xとをできるだけ見分けられるように学習する。これにより、学習が進むと、2D画像生成部13Aは、撮影画像データxと見分けがつかない2次元画像データg(s)を生成することができるようになる。
<第2パターン>
 図3は、第2パターンによる学習を行う場合の機能構成例を示すブロック図である。第2パターンによる学習は、いわゆるスタイル変換(Neural Style Transfer)として知られた学習アルゴリズムの損失関数を適用したものである。図3に示すように、画像処理装置は、第2パターンによる学習を行うための機能構成として、2D画像生成部13Bおよび第2の評価値算出部14Bを備えている。
 第2の評価値算出部14Bは、2次元画像データの画像分類のために学習済みのニューラルネットワークを有する。以下では、ニューラルネットワークを記号“Φ”で表し、当該ネットワークの各階層をΦ_Lで表す。第2の評価値算出部14Bは、当該ニューラルネットワークΦを構成する各階層Φ_Lにおいて、正解画像取得部12により取得された撮影画像データxおよび2D画像生成部13Bにより生成された2次元画像データg(s)のそれぞれに関する値の差の合計値または平均値を第2の評価値(以下、記号“B”で表す)として算出する。
 すなわち、ニューラルネットワークΦの入力層(第1階層)Φ_1には、正解画像取得部12により取得された正解画像xおよび2D画像生成部13Bにより生成された2次元画像データg(s)が入力される。ニューラルネットワークΦの第2階層Φ_2では、第1階層Φ_1の正解画像xおよび2次元画像データg(s)からそれぞれ抽出された特徴量群をマップ化した特徴マップが生成される。ニューラルネットワークΦの第3階層Φ_2では、正解画像xおよび2次元画像データg(s)のそれぞれに対応する第2階層Φ_2の特徴マップからそれぞれ更に抽出された特徴量群をマップ化した特徴マップが生成される。以下同様にして、第3階層以降Φ_L(L=3,4,・・・)において特徴マップが生成される。
 例えば、第2の評価値算出部14Bは、ニューラルネットワークΦの第1階層Φ_1における正解画像xの各ピクセルにおける色の値と2次元画像データg(s) の各ピクセルにおける色の値との差の和または平均値(以下、差の和または平均値を単に差分と称することがある)を算出する。また、第2の評価値算出部14Bは、第2階層以降Φ_L(L=2,3,・・・)のそれぞれにおいて、正解画像xおよび2次元画像データg(s)のそれぞれから生成される特徴マップにおける特徴量群の差の和または平均値(差分)を算出する。そして、各階層Φ_L(L=1,2,3,・・・)において算出した差分を合計し、その合計値または平均値を第2の評価値Bとして算出する。
 画像処理装置は、第2の評価値算出部14Bにより算出される第2の評価値Bを最小化するように2D画像生成部13Bの2D変換アルゴリズムを改変する。第2の評価値Bを最小化するように2D画像生成部13Bの2D変換アルゴリズムを改変するというのは、2D画像生成部13Bが正解画像xと殆ど差のない2次元画像データg(s)を生成する能力を高めるように学習することを意味する。この生成能力が高まっていけば、2D画像生成部13Bは、撮影画像データxと殆ど相違のない2次元画像データg(s)を生成することができるようになる。
<第3パターン>
 図4は、第3パターンによる学習を行う場合の機能構成例を示すブロック図である。第4パターンによる学習は、いわゆるCycleGANとして知られた学習アルゴリズムを適用したものである。図4に示すように、画像処理装置は、第3パターンによる学習を行うための機能構成として、2D画像生成部13Cおよび評価値算出部14Cを備えている。評価値算出部14Cは、3次元データ生成部14C-1、第1差分値算出部14C-2、第2差分値算出部14C-3および第3の評価値算出部14C-4を備えている。
 3次元データ生成部14C-1は、2次元の画像データから3Dモデルの3次元データを所定の3D変換アルゴリズムに従って生成する。なお、この3D変換アルゴリズムを、以下では記号“f()”で表すものとする。ここで用いる3D変換アルゴリズムは、公知のアルゴリズムを用いることが可能である。ただし、後述するように、この3D変換アルゴリズムを学習によって改変するので、改変が可能なアルゴリズムであることを必須とする。
 なお、本実施形態において、3D変換アアルゴリズムを改変することは、例えば、2次元画像データを特定する2次元空間座標上の値を、3次元データを特定する3次元空間座標上の値に変換する際の変換処理ロジックの変更や、その変換処理ロジックにおいて用いる関数やパラメータの変更、変換処理ロジックにおいて用いるライブラリの変更などの少なくとも1つを含む。
 本実施形態では、3次元データ生成部14C-1は、正解画像取得部11により取得された撮影画像データ(正解画像)xから3次元データ(以下、記号“f(x)”で表す)を生成するとともに、2D画像生成部13Cにより3次元データsをもとに生成された2次元画像データg(s)から3次元データ(以下、記号“f(g(s))”で表す)を生成する。3次元データf(g(s))の生成は、3次元データsから生成された2次元画像データg(s)を元の3次元データsに戻す処理に相当する(ただし、s=f(g(s))になるとは限らない)。3次元データ生成部14C-1により生成された3次元データf(x)は2D画像生成部13Cに供給され、3次元データf(g(s))は第1差分値算出部14C-2に供給される。
 2D画像生成部13Cは、3Dデータ取得部11により取得された3次元データsから所定の2D変換アルゴリズムに従って2次元画像データg(s)を生成する。これに加えて、2D画像生成部13Cは、正解画像取得部11により取得された正解画像xから3次元データ生成部14C-1により生成された3次元データf(x)をもとに、2D変換アルゴリズムに従って2次元画像データg(f(x)) を生成する。この2次元画像データg(f(x))の生成は、正解画像xから生成された3次元データf(x)を元の正解画像xに戻す処理に相当する(ただし、x=g(f(x)になるとは限らない)。2D画像生成部13Cにより生成された2次元画像データg(s)は3次元データ生成部14C-1に供給され、2次元画像データg(f(x)) は第2差分値算出部14C-3に供給される。
 第1差分値算出部14C-2は、2D画像生成部13Cにより生成された2次元画像データg(s)から3次元データ生成部14C-1により生成された3次元データf(g(s))と、3Dデータ取得部11により取得された3次元データsとの差を第1差分値として算出する。第1差分値は、例えば、3次元データf(g(s))の各座標における色の値と3次元データsの各座標における色の値との差の和または平均値とすることが可能である。ここで、2D画像生成部13Cの2D変換アルゴリズムが完璧で、かつ、3次元データ生成部14C-1の3D変換アルゴリズムも完璧であれば、3次元データf(g(s))と3次元データsとが同じとなり、第1差分値はゼロとなる。
 第2差分値算出部14C-3は、正解画像取得部11により取得された正解画像xから3次元データ生成部14C-1により生成された3次元データf(x)をもとに2D画像生成部13Cにより生成した2次元画像データg(f(x))と、正解画像取得部11により取得された正解画像xとの差を第2差分値として算出する。第2差分値は、例えば、2次元画像データg(f(x))の各ピクセルにおける色の値と正解画像xの各ピクセルにおける色の値との差の和または平均値とすることが可能である。ここで、2D画像生成部13Cの2D変換アルゴリズムが完璧で、かつ、3次元データ生成部14C-1の3D変換アルゴリズムも完璧であれば、2次元画像データg(f(x))と正解画像xとが同じとなり、第2差分値はゼロとなる。
 第3の評価値算出部14C-4は、第1差分値算出部14C-2により算出された第1差分値と第2差分値算出部14C-3により算出された第2差分値との合計値を第3の評価値(以下、記号“C”で表す)として算出する。
 画像処理装置は、第3の評価値算出部14C-4により算出される第3の評価値Cを最小化するように2D画像生成部13Cの2D変換アルゴリズムおよび3次元データ生成部14C-1の3D変換アルゴリズムを改変する。第3の評価値Cを最小化するように2D画像生成部13Cの2D変換アルゴリズムおよび3次元データ生成部14C-1の3D変換アルゴリズムを改変するというのは、2D画像生成部13Cが正解画像xと殆ど差のない2次元画像データg(f(x))を生成し、かつ、3次元データ生成部14C-1が3次元データs(3次元データの正解データと言えるもの)と殆ど差のない3次元データf(g(s))を生成する能力を高めるように学習することを意味する。この生成能力が高まっていけば、2D画像生成部13Cは、撮影画像データxと殆ど相違のない2次元画像データg(s)を生成することができるようになる。
<第4パターン>
 図5は、第4パターンによる学習を行う場合の機能構成例を示すブロック図である。図5に示すように、画像処理装置は、第4パターンによる学習を行うための機能構成として、2D画像生成部13Dおよび第4の評価値算出部14Dを備えている。
 第4の評価値算出部14Dは、2D画像生成部13Dにより生成された2次元画像データg(s)と正解画像取得部11により取得された正解画像xとの差を第4の評価値(以下、記号“D”で表す)として算出する。
 画像処理装置は、第4の評価値算出部14Dにより算出される第4の評価値Dを最小化するように2D画像生成部13Dの2D変換アルゴリズムを改変する。第4の評価値Dを最小化するように2D画像生成部13Dの2D変換アルゴリズムを改変するというのは、2D画像生成部13Dが正解画像xと殆ど差のない2次元画像データg(s)を生成する能力を高めるように学習することを意味する。この生成能力が高まっていけば、2D画像生成部13Dは、撮影画像データxと殆ど相違のない2次元画像データg(s)を生成することができるようになる。
 なお、評価値算出部14は、図2~図5に示した第1パターン~第4パターンの何れか1つのみを備える構成としてもよいし、第1パターン~第4パターンのうち少なくとも2つを備え、当該少なくとも2つにより算出される評価値をそれぞれ最適化するように2D変換アルゴリズムを改変するようにしてもよい。なお、少なくとも2つの中に第1パターンが含まれる場合には、2次元画像データg(s)を入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最小化するとともに、正解画像xを入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最大化するように第1の評価値算出部14Aの識別アルゴリズムを更に改変する。また、少なくとも2つの中に第3パターンが含まれる場合には、第3の評価値Cを最小化するように3次元データ生成部14C-1の3D変換アルゴリズムを更に改変する。
 図6は、第1パターン~第4パターンを全て適用した場合における学習処理部14の機能構成例を示す図である。なお、ここでは図示を簡略化しているが、各パターンの詳細な構成は、図2~図5に示した通りである。この場合、2D画像生成部13は、各評価値算出部14A~14Dにより算出される各評価値A~Dをそれぞれ最適化(最大化または最小化)するように2D変換アルゴリズムを改変する。また、評価値算出部14は、2次元画像データg(s)を入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最小化するとともに、正解画像xを入力として第1の評価値算出部14Aにより算出される第1の評価値Aを最大化するように第1の評価値算出部14Aの識別アルゴリズムを改変し、第3の評価値Cを最小化するように3次元データ生成部14C-1の3D変換アルゴリズムを改変する。
 なお、2D画像生成部13は、第1パターン~第4パターンのうち少なくとも2つにより算出される評価値をそれぞれ最適化することに代えて、当該少なくとも2つにより算出される評価値を重み付け加算し、その重み付け加算値を最適化するように2D変換アルゴリズムを改変するようにしてもよい。例えば、図6に示す構成において、2D画像生成部13は、H=αA+βB+γC+δD(α,β,γ,δはそれぞれ重み付け係数で、ゼロを含む任意の値に設定可能)なる重み付け評価値Hを算出し、この重み付け評価値Hを最小化するように2D変換アルゴリズムを改変するようにしてよい。
 その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
 11 3Dデータ取得部
 12 正解画像取得部
 13,13A~13D 2D画像生成部
 14 評価値算出部
 14A 第1の評価値算出部
 14B 第2の評価値算出部
 14C-1 3次元データ生成部
 14C-2 第1差分値算出部
 14C-3 第2差分値算出部
 14C-4 第3の評価値算出部
 14D 第4の評価値算出部

Claims (8)

  1.  撮影画像が表面にマッピングされた3Dモデルの3次元データを取得する3Dデータ取得部と、
     正解画像として用いる撮影画像データを取得する正解画像取得部と、
     上記3Dデータ取得部により取得された3次元データから所定の2D変換アルゴリズムに従って2次元画像データを生成する2D画像生成部と、
     上記2D画像生成部により生成された上記2次元画像データと上記正解画像取得部により取得された上記撮影画像データとの近似性を表す評価値を算出する評価値算出部とを備え、
     上記2D画像生成部は、上記3次元データを上記2D画像生成部に入力して処理を繰り返し行ったときに生成される上記2次元画像データについて都度算出される上記評価値が最適化するように、上記2D変換アルゴリズムを学習によって改変することを特徴とする画像処理装置。
  2.  上記評価値算出部は、上記3Dデータ取得部により取得された上記3次元データと、上記正解画像取得部により取得された上記撮影画像データまたは上記2D画像生成部により生成された上記2次元画像データとを入力として、所定の識別アルゴリズムに従って、入力された画像が正解画像であるか、上記2D画像生成部により生成された2次元画像データであるかを識別し、上記正解画像であると識別される確率を第1の評価値として算出する第1の評価値算出部により構成され、
     上記2次元画像データを入力として上記第1の評価値算出部により算出される上記第1の評価値を最大化するように上記2D画像生成部の上記2D変換アルゴリズムを改変し、上記2次元画像データを入力として上記第1の評価値算出部により算出される上記第1の評価値を最小化するとともに、上記撮影画像データを入力として上記第1の評価値算出部により算出される上記第1の評価値を最大化するように上記第1の評価値算出部の上記識別アルゴリズムを改変することを特徴とする請求項1に記載の画像処理装置。
  3.  上記評価値算出部は、上記2次元画像データの画像分類のために学習済みのニューラルネットワークを有し、当該ニューラルネットワークを構成する各階層において上記正解画像取得部により取得された上記撮影画像データおよび上記2D画像生成部により生成された上記2次元画像データのそれぞれに関する値の差の合計値または平均値を第2の評価値として算出する第2の評価値算出部により構成され、
     上記第2の評価値算出部により算出される上記第2の評価値を最小化するように上記2D画像生成部の上記2D変換アルゴリズムを改変することを特徴とする請求項1に記載の画像処理装置。
  4.  上記評価値算出部は、
     画像データから3Dモデルの3次元データを所定の3D変換アルゴリズムに従って生成する3次元データ生成部と、
     上記2D画像生成部により生成された上記2次元画像データから上記3次元データ生成部により生成された3次元データと上記3Dデータ取得部により取得された上記3次元データとの差を第1差分値として算出する第1差分値算出部と、
     上記正解画像取得部により取得された上記撮影画像データから上記3次元データ生成部により生成された3次元データをもとに上記2D画像生成部により生成した2次元画像データと上記正解画像取得部により取得された上記撮影画像データとの差を第2差分値として算出する第2差分値算出部と、
     上記第1差分値算出部により算出された上記第1差分値と上記第2差分値算出部により算出された上記第2差分値との合計値を第3の評価値として算出する第3の評価値算出部とを備え、
     上記第3の評価値算出部により算出される上記第3の評価値を最小化するように上記2D画像生成部の上記2D変換アルゴリズムおよび上記3次元データ生成部の上記3D変換アルゴリズムを改変することを特徴とする請求項1に記載の画像処理装置。
  5.  上記評価値算出部は、上記2D画像生成部により生成された上記2次元画像データと上記正解画像取得部により取得された上記撮影画像データとの差を第4の評価値として算出する第4の評価値算出部により構成され、
     上記第4の評価値算出部により算出される上記第4の評価値を最小化するように上記2D画像生成部の上記2D変換アルゴリズムを改変することを特徴とする請求項1に記載の画像処理装置。
  6.  上記評価値算出部は、
     上記3Dデータ取得部により取得された上記3次元データと、上記正解画像取得部により取得された上記撮影画像データまたは上記2D画像生成部により生成された上記2次元画像データとを入力として、所定の識別アルゴリズムに従って、入力された画像が正解画像であるか、上記2D画像生成部により生成された2次元画像データであるかを識別し、上記正解画像であると識別される確率を第1の評価値として算出する第1の評価値算出部と、
     上記2次元画像データの画像分類のために学習済みのニューラルネットワークを有し、当該ニューラルネットワークを構成する各階層において上記正解画像取得部により取得された上記撮影画像データおよび上記2D画像生成部により生成された上記2次元画像データのそれぞれから生成される特徴量を差の合計値または平均値を第2の評価値として算出する第2の評価値算出部と、
     上記2D画像生成部により生成された上記2次元画像データから所定の3D変換アルゴリズムに従って生成された3次元データと上記3Dデータ取得部により取得された上記3次元データとの差を第1差分値として算出するとともに、上記正解画像取得部により取得された上記撮影画像データから上記所定の3D変換アルゴリズムに従って生成された3次元データをもとに上記2D画像生成部により生成した2次元画像データと上記正解画像取得部により取得された上記撮影画像データとの差を第2差分値として算出し、当該算出した上記第1差分値と上記第2差分値との合計値を第3の評価値として算出する第3の評価値算出部と、
     上記2D画像生成部により生成された上記2次元画像データと上記正解画像取得部により取得された上記撮影画像データとの差を第4の評価値として算出する第4の評価値算出部と、
    のうち少なくとも2つを備え、
     上記少なくとも2つにより算出される評価値をそれぞれ最適化するように上記2D変換アルゴリズムを改変し、上記少なくとも2つの中に上記第1の評価値算出部が含まれる場合には、上記2次元画像データを入力として上記第1の評価値算出部により算出される上記第1の評価値を最小化するとともに、上記撮影画像データを入力として上記第1の評価値算出部により算出される上記第1の評価値を最大化するように上記識別アルゴリズムを更に改変し、上記少なくとも2つの中に上記第3の評価値算出部が含まれる場合には上記第3の評価値を最小化するように上記3D変換アルゴリズムを更に改変することを特徴とする請求項1に記載の画像処理装置。
  7.  上記少なくとも2つにより算出される評価値をそれぞれ最適化することに代えて、上記少なくとも2つにより算出される評価値を重み付け加算し、その重み付け加算値を最適化するように上記2D変換アルゴリズムを改変することを特徴とする請求項6に記載の画像処理装置。
  8.  撮影画像が表面にマッピングされた3Dモデルの3次元データを取得する3Dデータ取得手段、
     正解画像として用いる撮影画像データを取得する正解画像取得手段、
     上記3Dデータ取得手段により取得された3次元データから所定の2D変換アルゴリズムに従って2次元画像データを生成する2D画像生成手段、および
     上記2D画像生成手段により生成された上記2次元画像データと上記正解画像取得手段により取得された上記撮影画像データとの近似性を表す評価値を算出する評価値算出手段を備え、
     上記2D画像生成手段は、上記3次元データを上記2D画像生成手段に入力して処理を繰り返し行ったときに生成される上記2次元画像データについて都度算出される上記評価値が最適化するように、上記2D変換アルゴリズムを学習によって改変するようにコンピュータを機能させるための画像処理用プログラム。
PCT/JP2019/014985 2018-04-06 2019-04-04 画像処理装置および2次元画像生成用プログラム WO2019194282A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19774044.2A EP3591620B1 (en) 2018-04-06 2019-04-04 Image processing device and two-dimensional image generation program
CN201980002055.7A CN110546687B (zh) 2018-04-06 2019-04-04 图像处理装置及二维图像生成用程序
US16/498,875 US10893252B2 (en) 2018-04-06 2019-04-04 Image processing apparatus and 2D image generation program
ES19774044T ES2906626T3 (es) 2018-04-06 2019-04-04 Dispositivo de tratamiento de imágenes y programa de generación de imágenes bidimensionales

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018073826A JP6601825B2 (ja) 2018-04-06 2018-04-06 画像処理装置および2次元画像生成用プログラム
JP2018-073826 2018-04-06

Publications (1)

Publication Number Publication Date
WO2019194282A1 true WO2019194282A1 (ja) 2019-10-10

Family

ID=68100715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/014985 WO2019194282A1 (ja) 2018-04-06 2019-04-04 画像処理装置および2次元画像生成用プログラム

Country Status (6)

Country Link
US (1) US10893252B2 (ja)
EP (1) EP3591620B1 (ja)
JP (1) JP6601825B2 (ja)
CN (1) CN110546687B (ja)
ES (1) ES2906626T3 (ja)
WO (1) WO2019194282A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763231B (zh) 2020-06-08 2024-02-09 北京京东乾石科技有限公司 模型生成方法、图像透视图确定方法、装置、设备及介质
CN112509129B (zh) * 2020-12-21 2022-12-30 神思电子技术股份有限公司 一种基于改进gan网络的空间视场图像生成方法
CN112634128B (zh) * 2020-12-22 2022-06-14 天津大学 一种基于深度学习的立体图像重定向方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004158A (ja) 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
WO2006049147A1 (ja) 2004-11-04 2006-05-11 Nec Corporation 三次元形状推定システム及び画像生成システム
JP2017004065A (ja) 2015-06-04 2017-01-05 キヤノン株式会社 サムネイル画像作成装置、3次元造形システム
US20180012411A1 (en) * 2016-07-11 2018-01-11 Gravity Jack, Inc. Augmented Reality Methods and Devices
JP6276901B1 (ja) * 2017-05-26 2018-02-07 楽天株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643671B2 (en) * 2003-03-24 2010-01-05 Animetrics Inc. Facial recognition system and method
JP5393318B2 (ja) * 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
WO2012025786A1 (en) * 2010-08-24 2012-03-01 Penjani Wallen Mphepo Autostereoscopic 3-dimensional display system
JP6270450B2 (ja) 2013-12-13 2018-01-31 キヤノン株式会社 放射線検出装置、放射線検出システム、及び、放射線検出装置の製造方法
CN103761767A (zh) * 2014-01-02 2014-04-30 华南理工大学 一种基于稀疏数据的三维超声图像快速重建方法
US10451403B2 (en) * 2015-10-23 2019-10-22 The Boeing Company Structure-based camera pose estimation system
US10290119B2 (en) * 2016-09-15 2019-05-14 Sportsmedia Technology Corporation Multi view camera registration

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004158A (ja) 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
WO2006049147A1 (ja) 2004-11-04 2006-05-11 Nec Corporation 三次元形状推定システム及び画像生成システム
JP2017004065A (ja) 2015-06-04 2017-01-05 キヤノン株式会社 サムネイル画像作成装置、3次元造形システム
US20180012411A1 (en) * 2016-07-11 2018-01-11 Gravity Jack, Inc. Augmented Reality Methods and Devices
JP6276901B1 (ja) * 2017-05-26 2018-02-07 楽天株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP3591620A4
SHINDO, TOSHINORI: "With Ken Kutaragi as Outside Director, a Mysterious AI Venture in Ebisu: Automating New Deep Learning ''Generation Models", NIKKEI ROBOTICS, vol. 29, 10 November 2017 (2017-11-10), pages 3 - 12, XP009517286, ISSN: 2189-5783 *

Also Published As

Publication number Publication date
JP6601825B2 (ja) 2019-11-06
US20200092529A1 (en) 2020-03-19
CN110546687B (zh) 2022-05-17
EP3591620A1 (en) 2020-01-08
US10893252B2 (en) 2021-01-12
ES2906626T3 (es) 2022-04-19
JP2019185295A (ja) 2019-10-24
CN110546687A (zh) 2019-12-06
EP3591620B1 (en) 2021-12-15
EP3591620A4 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
JP6441980B2 (ja) 教師画像を生成する方法、コンピュータおよびプログラム
JP7040278B2 (ja) 顔認識のための画像処理装置の訓練方法及び訓練装置
WO2019194282A1 (ja) 画像処理装置および2次元画像生成用プログラム
US20200057831A1 (en) Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
US20230169677A1 (en) Pose Estimation Method and Apparatus
Orts-Escolano et al. 3d surface reconstruction of noisy point clouds using growing neural gas: 3d object/scene reconstruction
JP7294788B2 (ja) 3d配置のタイプに応じた2d画像の分類
WO2020066662A1 (ja) 形状補完装置、形状補完学習装置、方法、及びプログラム
JP2019008571A (ja) 物体認識装置、物体認識方法、プログラム、及び学習済みモデル
CN110838122A (zh) 点云的分割方法、装置及计算机存储介质
CN112509109A (zh) 一种基于神经网络模型的单视图光照估计方法
US20180264736A1 (en) Device for processing data for additive manufacturing
JP2023109570A (ja) 情報処理装置、学習装置、画像認識装置、情報処理方法、学習方法、画像認識方法
KR20230073751A (ko) 레이아웃 기반의 동일 화풍 영상 생성 시스템 및 방법
CN115690359B (zh) 一种点云处理方法、装置、电子设备及存储介质
JP7416170B2 (ja) 学習方法、学習装置、プログラムおよび記録媒体
TW202100951A (zh) 影像匹配方法、及用於執行影像匹配處理的演算系統
US10510177B2 (en) Data processing device
Lee et al. Overfitting control for surface reconstruction
CN117351157B (zh) 单视图三维场景位姿估计方法、系统及设备
WO2022123636A1 (ja) 学習用データ生成装置及び学習用データ生成方法
JP6796850B2 (ja) 物体検出装置、物体検出方法および物体検出プログラム
CN114004856A (zh) 一种深度图像滤波方法、装置、电子设备
JP2023005937A (ja) 機械学習モデルを用いて被判別データのクラス判別処理を実行する方法、情報処理装置、及び、コンピュータープログラム
JP2022014334A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019774044

Country of ref document: EP

Effective date: 20191004

NENP Non-entry into the national phase

Ref country code: DE