JP7457879B1 - Data generation method, program, data generation device, and trained model - Google Patents

Data generation method, program, data generation device, and trained model Download PDF

Info

Publication number
JP7457879B1
JP7457879B1 JP2023547777A JP2023547777A JP7457879B1 JP 7457879 B1 JP7457879 B1 JP 7457879B1 JP 2023547777 A JP2023547777 A JP 2023547777A JP 2023547777 A JP2023547777 A JP 2023547777A JP 7457879 B1 JP7457879 B1 JP 7457879B1
Authority
JP
Japan
Prior art keywords
dimensional
dimensional fractal
fractal
image
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023547777A
Other languages
Japanese (ja)
Inventor
亮 藤田
由人 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP7457879B1 publication Critical patent/JP7457879B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

画像分類のための転移学習に適した学習済みモデルの精度を向上させる。コンピュータが、3次元フラクタルの形状と、3次元空間に配置された3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、3次元フラクタルがレンダリングされた画像を生成することと、3次元フラクタルの形状及びレンダリングパラメータを識別するラベル情報を生成することと、ラベル情報と画像との組をデータとして記録することと、を含む、データ生成方法。A data generation method for improving accuracy of a trained model suitable for transfer learning for image classification, the method comprising: generating, by a computer, an image in which a three-dimensional fractal is rendered based on a shape of the three-dimensional fractal and rendering parameters that set virtual light reflection in the three-dimensional fractal arranged in a three-dimensional space; generating label information that identifies the shape and the rendering parameters of the three-dimensional fractal; and recording a set of the label information and the image as data.

Description

本発明は、データ生成方法、プログラム、データ生成装置、及び学習済みモデルに関する。 The present invention relates to a data generation method, a program, a data generation device, and a learned model.

機械学習を利用した画像分類が様々な用途で用いられている。画像分類のための学習済みモデルは、例えば、画像と画像に対して付与されるラベルとがセットになった学習データに基づいて構築される。用途に応じた画像分類のための学習済みモデルは、例えば、既存の学習済みモデルであるベースモデルを用いて転移学習やファインチューニングを行うことによって生成される。 Image classification using machine learning is used for various purposes. A trained model for image classification is constructed, for example, based on learning data that is a set of an image and a label given to the image. A trained model for image classification according to the purpose is generated by, for example, performing transfer learning or fine tuning using a base model that is an existing trained model.

ベースモデルは、例えば、画像と画像に付与されたラベルとの組を多数有する大規模画像データセット(ImageNet等)を用いて学習された学習済みモデルである。ImageNetは公開されたオープンなデータセットであるが、インターネットから無作為に集められた画像であり、例えば、それらの画像について著作権や肖像権などの懸念がある。 The base model is, for example, a trained model that is trained using a large-scale image dataset (ImageNet, etc.) that has many pairs of images and labels given to the images. ImageNet is an open dataset that has been released to the public, but images are randomly collected from the Internet, and there are concerns over, for example, copyright and portrait rights regarding these images.

非特許文献1には、インターネットから収集した画像ではなく、画像分類のための学習済みモデルを学習させるための画像を、数式に基づいて生成する手法が開示されている。 Non-Patent Document 1 discloses a method of generating images based on mathematical formulas to train a trained model for image classification, instead of images collected from the Internet.

R. Yamada et al., MV-FractalDB: Formula-driven Supervised Learning for Multi-view Image Recognition, “2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)”, 2021, pp. 2076-2083R. Yamada et al., MV-FractalDB: Formula-driven Supervised Learning for Multi-view Image Recognition, “2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)”, 2021, pp. 2076-2083

非特許文献1に記載の手法では、数式に基づいて生成された3次元フラクタルを様々な視点から見た場合の画像が生成される。結果として生成される画像は、例えば、3次元フラクタルの凹凸や立体感を含むものではないため、転移学習の際の入力となる現実世界における撮影画像との差異が大きくなってしまう。したがって、生成された画像を転移学習のベースモデル生成のためのデータセットとして利用するにあたって、現実世界における撮影画像の分類に必要な特徴量の抽出が難しく、ベースモデルの精度については向上の余地がある。In the method described in Non-Patent Document 1, images are generated when a three-dimensional fractal generated based on a mathematical formula is viewed from various viewpoints. The resulting images do not include, for example, the unevenness or three-dimensionality of a three-dimensional fractal, and therefore differ greatly from images captured in the real world that serve as input for transfer learning. Therefore, when using the generated images as a dataset for generating a base model for transfer learning, it is difficult to extract the features required to classify images captured in the real world, and there is room for improvement in the accuracy of the base model.

そこで、本発明は、画像分類のための転移学習に適した学習済みモデルの精度を向上させることを目的とする。 Therefore, an object of the present invention is to improve the accuracy of a trained model suitable for transfer learning for image classification.

本発明の一態様に係るデータ生成方法は、コンピュータが、3次元フラクタルの形状と、3次元空間に配置された3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、3次元フラクタルがレンダリングされた画像を生成することと、3次元フラクタルの形状及びレンダリングパラメータを識別するラベル情報を生成することと、ラベル情報と画像との組をデータとして記録することと、を含む。 In a data generation method according to one aspect of the present invention, a computer generates three-dimensional data based on the shape of a three-dimensional fractal and rendering parameters that set virtual light reflection in a three-dimensional fractal arranged in a three-dimensional space. The method includes generating an image in which a dimensional fractal is rendered, generating label information that identifies the shape and rendering parameters of the three-dimensional fractal, and recording a combination of the label information and the image as data.

この態様によれば、3次元空間に配置された3次元フラクタルにおける仮想的な光の反射がレンダリングパラメータとして設定されて、3次元フラクタルがレンダリングされた画像が生成される。光の反射をレンダリング時に設定することで、3次元フラクタルを含む画像が、現実世界における画像により近い状態を示すようにできる。これにより、画像の分類に必要な特徴量をより抽出可能であり、ベースモデルの精度を向上させることが可能なデータが生成される。According to this aspect, the virtual light reflection in a three-dimensional fractal arranged in a three-dimensional space is set as a rendering parameter, and an image in which the three-dimensional fractal is rendered is generated. By setting the light reflection during rendering, an image including a three-dimensional fractal can be made to show a state closer to an image in the real world. This makes it possible to extract more features necessary for image classification, and generates data that can improve the accuracy of the base model.

上記態様において、レンダリングパラメータは、3次元フラクタルの表面におけるテクスチャを設定するための物体テクスチャ情報を含んでもよい。テクスチャ情報を含めてレンダリングすることで、物体表面のテクスチャの情報を有する画像の分類に用い得る3次元フラクタルの画像が生成可能となる。 In the above aspect, the rendering parameters may include object texture information for setting the texture on the surface of the three-dimensional fractal. By including texture information in the rendering, it is possible to generate a three-dimensional fractal image that can be used to classify images that have information on the texture of the surface of an object.

上記態様において、物体テクスチャ情報は、3次元フラクタルの色を設定するための情報を含んでもよい。モデルの色の情報を含めてレンダリングすることで、色の情報を有する画像の分類に用い得る3次元フラクタルの画像が生成可能となる。 In the above aspect, the object texture information may include information for setting the color of the three-dimensional fractal. By including the color information of the model in rendering, it is possible to generate a three-dimensional fractal image that can be used to classify images that have color information.

上記態様において、レンダリングパラメータは、3次元空間における3次元フラクタルに対する視点を設定するための視点情報を含んでもよい。視点を設定可能とすることで、3次元フラクタルを含む画像が、現実世界における画像により近い状態を示すようにできる。In the above aspect, the rendering parameters may include viewpoint information for setting a viewpoint for the three-dimensional fractal in three-dimensional space. By making it possible to set the viewpoint, the image including the three-dimensional fractal can be made to show a state closer to the image in the real world.

上記態様において、レンダリングパラメータは、3次元空間に配置される光源を設定するための光源情報を含んでもよい。光源を設定可能とすることで、3次元フラクタルを含む画像が、現実世界における画像により近い状態を示すようにできる。In the above aspect, the rendering parameters may include light source information for setting a light source to be placed in the three-dimensional space. By making it possible to set the light source, the image including the three-dimensional fractal can be made to show a state closer to the image in the real world.

上記態様において、データ生成方法は、コンピュータが、3次元フラクタルの形状を設定する物体パラメータに基づいて3次元フラクタルの形状を生成すること、をさらに含んでもよい。この態様によれば、物体パラメータを設定することで、コンピュータが様々な形状を生成することが可能となる。よって、3次元フラクタルを含む画像のバリエーションを増やすことが可能となり、画像の分類に必要な特徴量をより抽出可能にできる。In the above aspect, the data generation method may further include the computer generating a three-dimensional fractal shape based on object parameters that set the three-dimensional fractal shape. According to this aspect, by setting the object parameters, the computer can generate various shapes. This makes it possible to increase the variety of images that include three-dimensional fractals, and makes it easier to extract features required for image classification.

本発明の他の態様に係るプログラムは、コンピュータに、3次元フラクタルの形状と、3次元空間に配置された3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、3次元フラクタルがレンダリングされた画像を生成することと、3次元フラクタルの形状及びレンダリングパラメータを識別するラベル情報を生成することと、を実行させる。 A program according to another aspect of the present invention causes a computer to generate a three-dimensional fractal based on the shape of a three-dimensional fractal and rendering parameters for setting virtual light reflection in a three-dimensional fractal arranged in a three-dimensional space. Generating an image in which a fractal is rendered and generating label information that identifies the shape and rendering parameters of the three-dimensional fractal are executed.

本発明の他の態様に係るデータ生成装置は、3次元フラクタルの形状と、3次元空間に配置された3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、3次元フラクタルがレンダリングされた画像を生成する画像生成部と、3次元フラクタルの形状及びレンダリングパラメータを識別するラベル情報を生成するラベル情報生成部と、ラベル情報と画像との組をデータとして記録するデータ記録部と、を備える。 A data generation device according to another aspect of the present invention generates a three-dimensional fractal based on the shape of the three-dimensional fractal and rendering parameters that set virtual light reflection in the three-dimensional fractal arranged in a three-dimensional space. an image generation unit that generates a rendered image, a label information generation unit that generates label information that identifies the shape of the three-dimensional fractal and rendering parameters, and a data recording unit that records a combination of label information and image as data. and.

本発明の他の態様に係る学習済みモデルは、第1の3次元フラクタルがレンダリングされた第1の画像を入力とし、第1の3次元フラクタルの形状及び第1の3次元フラクタルのレンダリングパラメータを識別する第1のラベル情報を出力とする教師データを用いて学習され、第2の3次元フラクタルがレンダリングされた第2の画像の入力に対し、第2の3次元フラクタルの形状及び第2の3次元フラクタルのレンダリングパラメータを識別する第2のラベル情報を出力するよう、コンピュータを機能させる。A trained model according to another aspect of the present invention is trained using training data in which a first image in which a first three-dimensional fractal is rendered is input, and first label information identifying the shape of the first three-dimensional fractal and rendering parameters of the first three-dimensional fractal is output, and causes a computer to function in response to an input of a second image in which a second three-dimensional fractal is rendered, and to output second label information identifying the shape of the second three-dimensional fractal and rendering parameters of the second three-dimensional fractal.

本発明によれば、画像分類のための転移学習に適した学習済みモデルの精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of a trained model suitable for transfer learning for image classification.

本実施形態に係るデータ生成装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a data generation device according to the present embodiment. 本実施形態に係るデータ生成装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the data generating device according to the present embodiment. 本実施形態に係るデータ生成処理のフローチャートである。7 is a flowchart of data generation processing according to the present embodiment. 本実施形態に係るパラメータリストの一例である。It is an example of the parameter list based on this embodiment. 本実施形態に係る複数の画像の一例である。4 is an example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の一例である。This is an example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の一例である。This is an example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。13 is another example of a plurality of images according to the embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。13 is another example of a plurality of images according to the embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る複数の画像の他の一例である。This is another example of a plurality of images according to the present embodiment. 本実施形態に係る生成されたデータの一例である。13 is an example of generated data according to the embodiment. 本実施形態に係るベースモデル生成処理のフローチャートである。7 is a flowchart of base model generation processing according to the present embodiment.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, those with the same reference numerals have the same or similar configurations.

図1には、本実施形態に係るデータ生成装置101のブロック図が示される。データ生成装置101は、表示部1011、記憶部1012、設定取得部1013、形状生成部1014、画像生成部1015、ラベル情報生成部1016、及びデータ記録部1017を有する。データ生成装置101の各部は後述のハードウェア構成を有するコンピュータ等の情報処理装置において、記憶装置に記憶されたプログラムがプロセッサによって実行されることにより実現することができる。 FIG. 1 shows a block diagram of a data generation device 101 according to this embodiment. The data generation device 101 includes a display section 1011 , a storage section 1012 , a setting acquisition section 1013 , a shape generation section 1014 , an image generation section 1015 , a label information generation section 1016 , and a data recording section 1017 . Each part of the data generation device 101 can be realized by a processor executing a program stored in a storage device in an information processing device such as a computer having a hardware configuration described below.

表示部1011は、データ生成装置101のディスプレイである。記憶部1012は、データ生成装置101での処理に用いられる各種の情報を記憶する。また、記憶部1012には、データ生成装置101によって生成されたデータが記憶される。 The display unit 1011 is a display of the data generation device 101. The storage unit 1012 stores various types of information used in processing by the data generation device 101. Furthermore, data generated by the data generation device 101 is stored in the storage unit 1012.

設定取得部1013は、3次元フラクタルの形状を設定するための物体パラメータ及び3次元フラクタルのレンダリングの条件を設定するためのレンダリングパラメータを取得する。設定取得部1013は、例えば、データ生成装置101によって多数生成され、記憶部1012に記憶されている物体パラメータ及びレンダリングパラメータを取得する。 The setting acquisition unit 1013 acquires object parameters for setting the shape of a three-dimensional fractal and rendering parameters for setting conditions for rendering the three-dimensional fractal. The setting acquisition unit 1013 acquires, for example, a large number of object parameters and rendering parameters generated by the data generation device 101 and stored in the storage unit 1012.

物体パラメータは、3次元空間に配置された3次元フラクタルの位置及び姿勢、3次元フラクタルの種類、フラクタルの計算における反復回数、及びフラクタルのパラメータを含む。レンダリングパラメータは、3次元空間に配置された3次元フラクタルにおける仮想的な光の反射を設定するパラメータである。 The object parameters include the position and orientation of a three-dimensional fractal placed in a three-dimensional space, the type of three-dimensional fractal, the number of iterations in fractal calculation, and fractal parameters. The rendering parameters are parameters for setting virtual light reflection in a three-dimensional fractal arranged in a three-dimensional space.

形状生成部1014は、物体パラメータに基づいて、3次元フラクタルの形状を生成する。形状生成部1014は、例えば、マンデルブロ集合に基づいて生成される3次元フラクタルであるマンデルバルブ(Mandelbulb)を生成する。 The shape generation unit 1014 generates a three-dimensional fractal shape based on the object parameters. The shape generation unit 1014 generates, for example, a Mandelbulb, which is a three-dimensional fractal generated based on the Mandelbrot set.

形状生成部1014は、例えば、マンデルバルブの生成に用いられるパラメータを物体パラメータとして取得する。また、形状生成部1014は、物体パラメータに基づいて生成された3次元空間の点を形状として生成する。 The shape generation unit 1014 obtains, for example, parameters used to generate a Mandel bulb as object parameters. Further, the shape generation unit 1014 generates a point in a three-dimensional space generated based on the object parameters as a shape.

なお、本実施形態では、データ生成装置101が3次元フラクタルの形状を生成することとして説明するが、形状は必ずしもデータ生成装置101によって生成される必要はない。例えば、データ生成装置101とは異なる情報処理装置が物体パラメータに基づいて3次元フラクタルの形状を生成し、データ生成装置101は予め生成された形状を取得するようにしてもよい。In this embodiment, the data generating device 101 is described as generating a three-dimensional fractal shape, but the shape does not necessarily have to be generated by the data generating device 101. For example, an information processing device different from the data generating device 101 may generate a three-dimensional fractal shape based on object parameters, and the data generating device 101 may acquire the shape generated in advance.

画像生成部1015は、形状とレンダリングパラメータとに基づいて、3次元フラクタルを3次元空間においてレンダリングし、レンダリングされた3次元フラクタルの画像を生成する。 The image generation unit 1015 renders a three-dimensional fractal in a three-dimensional space based on the shape and rendering parameters, and generates an image of the rendered three-dimensional fractal.

レンダリングパラメータは、例えば、3次元フラクタルの色を設定するためのモデル色情報、3次元フラクタルの表面におけるテクスチャを設定するための物体テクスチャ情報、3次元空間における3次元フラクタルに対する視点(カメラ位置)を設定するための視点情報、及び3次元空間に配置される光源を設定するための光源情報の少なくとも1つを含む情報である。 Rendering parameters include, for example, model color information for setting the color of the 3D fractal, object texture information for setting the texture on the surface of the 3D fractal, and viewpoint (camera position) for the 3D fractal in the 3D space. This information includes at least one of viewpoint information for setting, and light source information for setting a light source arranged in a three-dimensional space.

ラベル情報生成部1016は、3次元フラクタルの形状及びレンダリングパラメータを識別するラベル情報を生成する。ラベル情報とは、例えば、物体パラメータとレンダリングパラメータとの組であり、個々の画像を識別可能とする情報である。あるいは、ラベル情報は、例えば、形状とレンダリングパラメータとの組であってもよい。なお、ラベル情報は、物体パラメータとレンダリングパラメータとの組に対して、1対1対応で設けられなくともよい。例えば、異なる視点でレンダリングされた共通の3次元フラクタルに対して同じラベル情報が付与されるようにしてもよい。あるいは、例えば、異なるテクスチャに基づいてレンダリングされた共通の3次元フラクタルに対して同じラベル情報が付与されるようにしてもよい。 The label information generation unit 1016 generates label information that identifies the shape and rendering parameters of the three-dimensional fractal. Label information is, for example, a set of object parameters and rendering parameters, and is information that allows individual images to be identified. Alternatively, the label information may be a set of a shape and a rendering parameter, for example. Note that the label information does not have to be provided in a one-to-one correspondence with respect to a set of object parameters and rendering parameters. For example, the same label information may be given to common three-dimensional fractals rendered from different viewpoints. Alternatively, for example, the same label information may be given to common three-dimensional fractals rendered based on different textures.

データ記録部1017は、ラベル情報生成部1016が生成したラベル情報を画像生成部1015が生成した画像に対応付けて、記憶部1012に記録する。 The data recording unit 1017 records the label information generated by the label information generation unit 1016 in the storage unit 1012 in association with the image generated by the image generation unit 1015.

図2を参照してデータ生成装置101のハードウェア構成の一例について説明する。データ生成装置101は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)等のプロセッサ201、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置202、有線又は無線通信を行う通信IF(Interface)203、入力操作を受け付ける入力デバイス204、及び情報の出力を行う出力デバイス205を有する。プロセッサ201,記憶装置202、通信IF203、入力デバイス204、及び出力デバイス205はデータ生成装置101においてデータのやり取りが可能なように接続されている。入力デバイス204は、例えば、キーボード、タッチパネル、又はマウス等である。出力デバイス205は、例えば、ディスプレイである。 An example of the hardware configuration of the data generation device 101 will be described with reference to FIG. 2. The data generation device 101 includes a processor 201 such as a CPU (Central Processing Unit) and a GPU (Graphical Processing Unit), a memory, a storage device 202 such as an HDD (Hard Disk Drive) and/or an SSD (Solid State Drive), and a wired or wireless It has a communication IF (Interface) 203 for communicating, an input device 204 for accepting input operations, and an output device 205 for outputting information. The processor 201, the storage device 202, the communication IF 203, the input device 204, and the output device 205 are connected in the data generation device 101 so that data can be exchanged. The input device 204 is, for example, a keyboard, a touch panel, a mouse, or the like. The output device 205 is, for example, a display.

表示部1011は、データ生成装置101が備える出力デバイス205を用いて実現することができる。記憶部1012は、データ生成装置101が備える記憶装置202を用いて実現することができる。設定取得部1013、形状生成部1014、画像生成部1015、ラベル情報生成部1016、及びデータ記録部1017はデータ生成装置101のプロセッサ201が、記憶装置202に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、HDD、SSD、USBメモリ等の記憶媒体であってもよい。 The display unit 1011 can be realized using the output device 205 included in the data generation device 101. The storage unit 1012 can be realized using the storage device 202 included in the data generation device 101. The setting acquisition unit 1013, shape generation unit 1014, image generation unit 1015, label information generation unit 1016, and data recording unit 1017 are realized by the processor 201 of the data generation device 101 executing a program stored in the storage device 202. can do. Further, the program can be stored in a storage medium. The storage medium storing the program may be a non-transitory computer readable medium. The non-temporary storage medium is not particularly limited, and may be, for example, a storage medium such as an HDD, SSD, or USB memory.

図3から図9を参照して、データ生成装置101における処理について説明する。図3にはデータ生成装置101における処理のフローチャートが示される。 Processing in the data generation device 101 will be described with reference to FIGS. 3 to 9. FIG. 3 shows a flowchart of processing in the data generation device 101.

ステップS301において、設定取得部1013は、データ生成装置101を操作するユーザから物体パラメータを取得する。物体パラメータは、複数の物体パラメータが一括して取得されてもよい。 In step S301, the setting acquisition unit 1013 acquires object parameters from the user operating the data generation device 101. A plurality of object parameters may be acquired at once.

ステップS302において、設定取得部1013は、ユーザからレンダリングパラメータを取得する。レンダリングパラメータは、複数のレンダリングパラメータが一括して取得されてもよい。 In step S302, the setting acquisition unit 1013 acquires rendering parameters from the user. A plurality of rendering parameters may be acquired at once.

ステップS303において、設定取得部1013は、パラメータリストを生成し、記憶部1012に記憶する。図4には、パラメータリストの一例が示される。 In step S303, the setting acquisition unit 1013 generates a parameter list and stores it in the storage unit 1012. FIG. 4 shows an example of a parameter list.

パラメータリストは、「物体パラメータ」、「レンダリングパラメータ」の項目を有する。そして、「レンダリングパラメータ」は、例えば、「物体テクスチャ」、「背景テクスチャ」、「視点」、「光源」、「描画設定」の項目を有する。 The parameter list has items of "object parameters" and "rendering parameters." The "rendering parameters" include, for example, "object texture," "background texture," "viewpoint," "light source," and "rendering settings."

「物体テクスチャ」の項目には、例えば、3次元フラクタルの材質に応じた、3次元フラクタルのテクスチャ(質感)を示す情報が設定される。また、「物体テクスチャ」の項目に記憶される情報は、3次元フラクタルの色(例えば表面の色)を示す情報を含んでいてもよい。「物体テクスチャ」に設定された情報に応じて、3次元フラクタルにおける光の反射状態等が変化する。 In the "Object Texture" item, for example, information is set that indicates the texture (feel) of the three-dimensional fractal according to the material of the three-dimensional fractal. The information stored in the "Object Texture" item may also include information that indicates the color of the three-dimensional fractal (e.g., the color of the surface). The state of light reflection in the three-dimensional fractal, etc. changes according to the information set in the "Object Texture".

「背景テクスチャ」の項目には、例えば、3次元空間における3次元フラクタル以外の部分である背景部分の材質に応じた、背景部分の質感を示す情報が設定される。また、「背景テクスチャ」の項目に記憶される情報は、背景部分の色を示す情報を含んでいてもよい。「背景テクスチャ」に設定された情報に応じて、環境光や背景色等が変化する。 In the "background texture" item, for example, information indicating the texture of the background portion, which corresponds to the material of the background portion that is a portion other than the three-dimensional fractal in the three-dimensional space, is set. Further, the information stored in the "background texture" item may include information indicating the color of the background portion. Ambient light, background color, etc. change depending on the information set in "background texture".

「視点」の項目には、3次元空間に配置された3次元フラクタルを画像化する場合に、3次元空間に配置された3次元フラクタルに対する視点(カメラ位置)を設定するために、視点情報が設定される。視点情報は、例えば、3次元空間に配置されるカメラの画角、カメラの位置、及びカメラの姿勢等を含む。視点を設定可能とすることで、同じ3次元フラクタルに基づく画像であっても、データの特徴量を異ならせることが可能となる。 The "Viewpoint" item contains viewpoint information to set the viewpoint (camera position) for the 3D fractal placed in the 3D space when imaging the 3D fractal placed in the 3D space. Set. The viewpoint information includes, for example, the angle of view of a camera arranged in a three-dimensional space, the position of the camera, the attitude of the camera, and the like. By making it possible to set the viewpoint, it is possible to make the feature amounts of data different even if the images are based on the same three-dimensional fractal.

「光源」の項目には、3次元空間に配置される光源を設定するために、光源情報が設定される。光源情報は例えば、3次元空間における光源の位置、光源の種類、光源の強さなどを示す情報である。光源を設定可能とすることで、同じ3次元フラクタルに基づく画像であっても、データの特徴量を異ならせることが可能となる。 In the "light source" item, light source information is set in order to set a light source arranged in a three-dimensional space. The light source information is, for example, information indicating the position of the light source in a three-dimensional space, the type of the light source, the intensity of the light source, and the like. By making it possible to set the light source, it is possible to make the data feature values different even for images based on the same three-dimensional fractal.

「描画設定」の項目には、生成される画像のサイズや、画像の精度を示す情報が含まれる。ここで、画像の精度とは、細部まで無限に描画が可能である3次元フラクタルにおいて、どの程度の細かさまで3次元フラクタルを描画するかを設定するための情報である。 The "rendering settings" item includes information indicating the size of the generated image and the accuracy of the image. Here, the image accuracy is information for setting how finely a three-dimensional fractal is to be drawn in a three-dimensional fractal that can be drawn in infinite detail.

パラメータリストでは、各パラメータは固定値、ある範囲内の離散値、ある範囲内の連続値として設定される。例えば、画像のサイズは固定値で設定される。また、例えば、「物体パラメータ」におけるフラクタルの種類、フラクタルのパラメータは、ある範囲内の離散値(あるいは連続値)の一つとして設定される。また、例えば、カメラの位置や光源の位置は、ある範囲内の連続値の一つとして設定される。設定取得部1013は、パラメータリストを生成するとき、所定の範囲内の離散値又は連続値をランダムに設定するためのシードに基づいて、ランダムな値を設定してもよい。 In the parameter list, each parameter is set as a fixed value, a discrete value within a certain range, or a continuous value within a certain range. For example, the size of the image is set to a fixed value. Further, for example, the type of fractal and the parameter of the fractal in "object parameter" are set as one of discrete values (or continuous values) within a certain range. Further, for example, the position of the camera and the position of the light source are set as one of continuous values within a certain range. When generating the parameter list, the setting acquisition unit 1013 may set random values based on a seed for randomly setting discrete values or continuous values within a predetermined range.

図4の例では、物体パラメータ「XXX1」に対して、複数のレンダリングパラメータが設定される。また、物体パラメータ「XXX2」に対しても複数のレンダリングパラメータが設定される。このようにデータ生成装置101では、異なる物体パラメータに応じて異なる形状及び形状を有する3次元フラクタルを、異なるレンダリングパラメータに基づいてレンダリングすることで、数式に基づく大規模なデータセットの生成が可能となる。 In the example of FIG. 4, a plurality of rendering parameters are set for the object parameter "XXX1". Further, a plurality of rendering parameters are also set for the object parameter “XXX2”. In this way, the data generation device 101 can generate large-scale data sets based on mathematical formulas by rendering three-dimensional fractals that have different shapes and shapes depending on different object parameters based on different rendering parameters. Become.

なお、データ生成装置101が形状を生成せず、他の情報処理装置から形状を取得する場合、物体パラメータに代えて、取得された形状をパラメータリストに設定してもよい。 In addition, when the data generating device 101 does not generate a shape but acquires a shape from another information processing device, the acquired shape may be set in the parameter list instead of the object parameters.

ステップS304において、形状生成部1014は、パラメータリストを参照し、ある物体パラメータに基づいて、3次元フラクタルの形状を生成する。なお、データ生成装置101が形状を生成せず、他の情報処理装置から形状を取得する場合、ステップS304の処理はスキップされる。 In step S304, the shape generation unit 1014 refers to the parameter list and generates a three-dimensional fractal shape based on a certain object parameter. Note that if the data generation device 101 does not generate a shape but acquires a shape from another information processing device, the process of step S304 is skipped.

ステップS305において、画像生成部1015は、レンダリングパラメータに基づいて、3次元フラクタルをレンダリングし、3次元フラクタルを含む画像を生成する。 In step S305, the image generation unit 1015 renders the three-dimensional fractal based on the rendering parameters, and generates an image including the three-dimensional fractal.

図5A、図5B、図5Cには、ある物体パラメータに基づく形状と、それぞれ異なるレンダリングパラメータとに基づいて生成された画像I11,I12,I13がそれぞれ示される。画像I11,I12,I13は、共通の3次元フラクタルF1が異なる光源位置にある光源から照射された状況がレンダリングされて生成された画像である。例えば、矢印A1,A2,A3で示される箇所は、異なる光の反射の仕方をしていることがわかる。このように、データ生成装置101は、共通の3次元フラクタルから、異なる特徴を有する画像を生成可能である。 5A, 5B, and 5C respectively show images I11, I12, and I13 that are generated based on a shape based on a certain object parameter and different rendering parameters. Images I11, I12, and I13 are images generated by rendering a situation in which a common three-dimensional fractal F1 is illuminated by light sources located at different light source positions. For example, it can be seen that the locations indicated by arrows A1, A2, and A3 reflect light differently. In this way, the data generation device 101 can generate images having different characteristics from a common three-dimensional fractal.

図6A、図6B、図6Cのそれぞれには、図5A、図5B、図5Cの場合とは異なる物体パラメータに基づく形状と、それぞれ異なるレンダリングパラメータとに基づいて生成された画像21,22,23がそれぞれ示される。画像I21,I22,I23は、共通の3次元フラクタルF2が異なる光源位置にある光源から照射された状況がレンダリングされて生成された画像である。図7A、図7B、図7Cにも、ある物体パラメータに基づく形状と、それぞれ異なるレンダリングパラメータとに基づいて生成された画像I31,I32,I33がそれぞれ示される。画像I31,I32,I33は、共通の3次元フラクタルF3が異なる光源位置にある光源から照射された状況がレンダリングされて生成された画像である。 In each of FIGS. 6A, 6B, and 6C, images 21, 22, and 23 are generated based on shapes based on object parameters different from those in FIGS. 5A, 5B, and 5C, and based on different rendering parameters, respectively. are shown respectively. Images I21, I22, and I23 are images generated by rendering a situation in which a common three-dimensional fractal F2 is illuminated by light sources located at different light source positions. 7A, 7B, and 7C also show images I31, I32, and I33 that are generated based on a shape based on a certain object parameter and different rendering parameters, respectively. Images I31, I32, and I33 are images generated by rendering a situation in which a common three-dimensional fractal F3 is illuminated by light sources located at different light source positions.

図8A、図8B、図8Cには、図5の場合と共通の物体パラメータに基づく形状と、それぞれ異なるレンダリングパラメータとに基づいて生成された画像I41,I42,I43がそれぞれ示される。画像I41,I42,I43は、図5に示した3次元フラクタルF1が異なる光源位置にある光源から照射された状況がレンダリングされ、かつ3次元フラクタルF1の一部がズームされて生成された画像である。図8A、図8B、図8Cにおいても、各図の矢印A4,A5,A6で示される箇所は、異なる照らされ方をしていることがわかる。 8A, 8B, and 8C respectively show images I41, I42, and I43 that are generated based on shapes based on object parameters common to those in FIG. 5 and rendering parameters that are different from each other. Images I41, I42, and I43 are images generated by rendering a situation in which the three-dimensional fractal F1 shown in FIG. 5 is illuminated by light sources at different light source positions, and by zooming a part of the three-dimensional fractal F1. be. It can also be seen in FIGS. 8A, 8B, and 8C that the locations indicated by arrows A4, A5, and A6 in each figure are illuminated in different ways.

周期的な構造を有する特徴のある3次元フラクタルを用いることで、3次元フラクタルの一部を拡大した場合であっても、細部の構造の差異に基づいて生じる光の反射の状態の差異が識別し得る画像が生成される。これにより、データ生成装置101は、共通の3次元フラクタルから、異なる特徴を有する画像を生成可能である。よって、データ生成装置101は、より小さな差異を特徴量として抽出可能な画像を生成可能となり、データ生成装置101によって生成された画像を用いて学習された学習モデルの精度がより向上する。 By using a characteristic 3D fractal with a periodic structure, even when a part of the 3D fractal is enlarged, it is possible to identify differences in the state of light reflection that occur based on differences in the detailed structure. A possible image is generated. Thereby, the data generation device 101 can generate images having different characteristics from a common three-dimensional fractal. Therefore, the data generation device 101 can generate images that can extract smaller differences as feature quantities, and the accuracy of the learning model trained using the images generated by the data generation device 101 is further improved.

ステップS306において、ラベル情報生成部1016は、3次元フラクタルの形状及びレンダリングパラメータを識別するラベル情報を生成する。ラベル情報生成部1016は、例えば、画像の生成に用いられた物体パラメータとレンダリングパラメータとに基づいてラベル情報を生成する。In step S306, the label information generating unit 1016 generates label information that identifies the shape and rendering parameters of the three-dimensional fractal. The label information generating unit 1016 generates the label information based on, for example, the object parameters and rendering parameters used to generate the image.

ステップS307において、データ記録部1017は、ラベル情報を画像に対応付けて記憶部1012に記録する。図9には、データ記録部1017が記録したデータセットの一例が示される。 In step S307, the data recording unit 1017 records the label information in association with the image in the storage unit 1012. FIG. 9 shows an example of a data set recorded by the data recording unit 1017.

データセットは「データID」、「画像」、及び「ラベル情報」の項目を有する。「データID」の項目には各データを識別する情報が記憶される。「画像」の項目には、画像生成部1015が生成した各画像が記憶される。「ラベル情報」の項目には、ラベル情報生成部1016が生成したラベル情報が記憶される。例えば、「データID」が「ID101」のデータは、図5の画像11と画像11の生成に用いた物体パラメータ「XXX」及びレンダリングパラメータ「YYY1」に基づくラベル情報とが対応付けられたデータである。 The data set has items of "data ID", "image", and "label information". Information identifying each data is stored in the "data ID" item. Each image generated by the image generation unit 1015 is stored in the “Image” item. The label information generated by the label information generation unit 1016 is stored in the “label information” item. For example, data whose "data ID" is "ID101" is data in which image 11 in FIG. 5 is associated with label information based on the object parameter "XXX" and rendering parameter "YYY1" used to generate image 11. be.

ステップS308において、データ記録部1017は、パラメータリストの全てのパラメータに基づいてラベル情報と画像の組を記録し終えたか否かを判断する。ステップS308で否定判断されると、異なるレンダリングパラメータ又は異なる物体パラメータに基づいて、ステップS304からS307までの処理が繰り返され、画像が記録される。ステップS308において肯定判断されると、データ生成装置101による処理は終了する。In step S308, the data recording unit 1017 determines whether or not the pairs of label information and images have been recorded based on all parameters in the parameter list. If a negative determination is made in step S308, the processes from step S304 to S307 are repeated based on different rendering parameters or different object parameters, and the images are recorded. If a positive determination is made in step S308, the processing by the data generating device 101 ends.

図10を参照して、データ生成装置101によって生成されたデータセットを用いた学習済みモデルの生成について説明する。学習済みモデルの生成は任意の情報処理装置を用いて行うことができる。 With reference to FIG. 10, generation of a trained model using a dataset generated by the data generation device 101 will be described. The trained model can be generated using any information processing device.

ステップS1001において、情報処理装置は、データ生成装置101によって生成されたデータセットを参照する。ステップS1002において、情報処理装置は、データセットにおける各画像の入力に対して、正解のラベル情報を出力するように機械学習を行う。ステップS1003において、情報処理装置は、学習済みベースモデルを例えば情報処理装置の記憶部に記憶する。これにより、データ生成装置101が生成したデータセットを用いることでより多くの特徴量に基づいて学習され、転移学習に適したベースモデルが生成される。 In step S1001, the information processing apparatus refers to the data set generated by the data generation apparatus 101. In step S1002, the information processing apparatus performs machine learning to output correct label information for each input image in the data set. In step S1003, the information processing device stores the trained base model in, for example, a storage unit of the information processing device. Thereby, by using the data set generated by the data generation device 101, learning is performed based on more feature amounts, and a base model suitable for transfer learning is generated.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are intended to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. Each element included in the embodiment, as well as its arrangement, conditions, shape, size, etc., are not limited to those illustrated, and can be changed as appropriate. Further, it is possible to partially replace or combine the structures shown in different embodiments.

101…データ生成装置、1011…表示部、1012…記憶部、1013…設定取得部、1014…形状生成部、1015…画像生成部、1016…ラベル情報生成部、1017…データ記録部 101...Data generation device, 1011...Display section, 1012...Storage section, 1013...Setting acquisition section, 1014...Shape generation section, 1015...Image generation section, 1016...Label information generation section, 1017...Data recording section

Claims (9)

コンピュータが、
3次元フラクタルの形状と、3次元空間に配置された前記3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、前記3次元フラクタルがレンダリングされた画像を生成することと、
前記3次元フラクタルの前記形状及び前記レンダリングパラメータを識別するラベル情報を生成することと、
前記ラベル情報と前記画像との複数の組を、前記画像の入力に対して、前記ラベル情報を出力する学習モデルの機械学習に用いられるデータセットとして記録することと、を含む、データ生成方法。
The computer is
Generating an image in which the three-dimensional fractal is rendered based on the shape of the three-dimensional fractal and rendering parameters that set virtual light reflection in the three-dimensional fractal arranged in a three-dimensional space;
generating label information identifying the shape of the three-dimensional fractal and the rendering parameters;
A data generation method comprising: recording a plurality of sets of the label information and the image as a data set used for machine learning of a learning model that outputs the label information in response to input of the image .
請求項1に記載のデータ生成方法であって、
前記レンダリングパラメータは、前記3次元フラクタルの表面におけるテクスチャを設定するための物体テクスチャ情報を含む、データ生成方法。
2. The data generation method according to claim 1,
A data generation method, wherein the rendering parameters include object texture information for setting a texture on a surface of the three-dimensional fractal.
請求項2に記載のデータ生成方法であって、
前記物体テクスチャ情報は、前記3次元フラクタルの色を設定するための情報を含む、データ生成方法。
The data generation method according to claim 2,
The object texture information includes information for setting a color of the three-dimensional fractal.
請求項1に記載のデータ生成方法であって、
前記レンダリングパラメータは、前記3次元空間における前記3次元フラクタルに対する視点を設定するための視点情報を含む、データ生成方法。
The data generation method according to claim 1,
The rendering parameter includes viewpoint information for setting a viewpoint for the three-dimensional fractal in the three-dimensional space.
請求項1に記載のデータ生成方法であって、
前記レンダリングパラメータは、前記3次元空間に配置される光源を設定するための光源情報を含む、データ生成方法。
The data generation method according to claim 1,
The data generation method, wherein the rendering parameters include light source information for setting a light source arranged in the three-dimensional space.
請求項1に記載のデータ生成方法であって、
前記コンピュータが、前記3次元フラクタルの形状を設定する物体パラメータに基づいて前記3次元フラクタルの前記形状を生成すること、をさらに含む、データ生成方法。
The data generation method according to claim 1,
The data generation method further comprises: the computer generating the shape of the three-dimensional fractal based on object parameters that set the shape of the three-dimensional fractal.
コンピュータに、
3次元フラクタルの形状と、3次元空間に配置された前記3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、前記3次元フラクタルがレンダリングされた画像を生成することと、
前記3次元フラクタルの形状及び前記レンダリングパラメータを識別するラベル情報を生成することと、
前記ラベル情報と前記画像との複数の組を、前記画像の入力に対して、前記ラベル情報を出力する学習モデルの機械学習に用いられるデータセットとして記録することと、を実行させる、プログラム。
to the computer,
Generating an image in which the three-dimensional fractal is rendered based on the shape of the three-dimensional fractal and rendering parameters that set virtual light reflection in the three-dimensional fractal arranged in a three-dimensional space;
generating label information that identifies the shape of the three-dimensional fractal and the rendering parameters;
A program that causes a program to record a plurality of pairs of the label information and the image as a data set used for machine learning of a learning model that outputs the label information in response to input of the image.
3次元フラクタルの形状と、3次元空間に配置された前記3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータとに基づいて、前記3次元フラクタルがレンダリングされた画像を生成する画像生成部と、
前記3次元フラクタルの形状及び前記レンダリングパラメータを識別する識別するラベル情報を生成するラベル情報生成部と、
前記ラベル情報と前記画像との複数の組を、前記画像の入力に対して、前記ラベル情報を出力する学習モデルの機械学習に用いられるデータセットとして記録するデータ記録部と、を備える、データ生成装置。
an image generation unit that generates an image in which the three-dimensional fractal is rendered based on the shape of the three-dimensional fractal and rendering parameters that set virtual light reflection in the three-dimensional fractal arranged in a three-dimensional space; and,
a label information generation unit that generates identifying label information that identifies the three-dimensional fractal shape and the rendering parameters;
a data recording unit that records a plurality of sets of the label information and the image as a data set used for machine learning of a learning model that outputs the label information in response to input of the image; Device.
第1の3次元フラクタルがレンダリングされた第1画像を入力とし、前記第1の3次元フラクタルの形状及び前記第1の3次元フラクタルの3次元空間に配置された前記第1の3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータを識別する第1のラベル情報を出力とする教師データを用いて学習され、
第2の3次元フラクタルがレンダリングされた第2画像の入力に対し、前記第2の3次元フラクタルの形状及び前記第2の3次元フラクタルの前記3次元空間に配置された前記第2の3次元フラクタルにおける仮想的な光の反射を設定するレンダリングパラメータを識別する第2のラベル情報を出力するよう、コンピュータを機能させる学習済みモデル。
A first image in which a first three-dimensional fractal is rendered is input, and the shape of the first three-dimensional fractal and the first three-dimensional fractal arranged in the three-dimensional space of the first three-dimensional fractal are trained using training data whose output is first label information identifying rendering parameters for setting virtual light reflection ;
For inputting a second image in which a second three-dimensional fractal is rendered, the shape of the second three-dimensional fractal and the second three-dimensional fractal arranged in the three-dimensional space of the second three-dimensional fractal. A trained model that causes a computer to function to output second label information that identifies rendering parameters that configure virtual light reflection in the fractal .
JP2023547777A 2023-03-16 2023-03-16 Data generation method, program, data generation device, and trained model Active JP7457879B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023010274 2023-03-16

Publications (1)

Publication Number Publication Date
JP7457879B1 true JP7457879B1 (en) 2024-03-28

Family

ID=90367126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023547777A Active JP7457879B1 (en) 2023-03-16 2023-03-16 Data generation method, program, data generation device, and trained model

Country Status (1)

Country Link
JP (1) JP7457879B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133440A (en) 2000-08-15 2002-05-10 Sony Computer Entertainment Inc Graphic data formation method, graphic formation device, and its constituent component
CN112184873A (en) 2020-10-19 2021-01-05 网易(杭州)网络有限公司 Fractal graph creating method and device, electronic equipment and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133440A (en) 2000-08-15 2002-05-10 Sony Computer Entertainment Inc Graphic data formation method, graphic formation device, and its constituent component
CN112184873A (en) 2020-10-19 2021-01-05 网易(杭州)网络有限公司 Fractal graph creating method and device, electronic equipment and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横井 茂樹 ,コンピュータグラフィックス[II],電子情報通信学会誌 第76巻 第5号,日本,社団法人電子情報通信学会 THE INSTITUTE OF ELECTRONICS,INFORMATION AND COMMUNICATION ENGINEERS,1993年05月25日,第76巻,第5号,529-537

Similar Documents

Publication Publication Date Title
JP6644833B2 (en) System and method for rendering augmented reality content with albedo model
US20230013873A1 (en) Systems and Methods for High Dimensional 3D Data Visualization
US11354826B2 (en) Systems and methods for augmented reality environments and tokens
TWI484444B (en) Non-transitory computer readable medium, electronic device, and computer system for face feature vector construction
KR102612808B1 (en) lighting estimation
US10713471B2 (en) System and method for simulating facial expression of virtual facial model
CN104808956B (en) System and method for controlling display
CN108701352A (en) Amending image using the identification based on three dimensional object model and enhancing
JP7294788B2 (en) Classification of 2D images according to the type of 3D placement
CN112313713A (en) Generating synthetic images and/or training machine learning model(s) based on synthetic images
US20220058857A1 (en) Sub-pixel data simulation system
US20130257856A1 (en) Determining a View of an Object in a Three-Dimensional Image Viewer
US11276202B2 (en) Moving image generation apparatus, moving image generation method, and non-transitory recording medium
CN111047509A (en) Image special effect processing method and device and terminal
CN105549929A (en) Method, Apparatus, and Computer Program Product For Improved Graphics Performance
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2022151742A (en) Image rendering method and apparatus
JP7457879B1 (en) Data generation method, program, data generation device, and trained model
JP2017168081A (en) 3d object localization with descriptor
CN114254501A (en) Large-scale grassland rendering and simulating method
WO2020067204A1 (en) Learning data creation method, machine learning model generation method, learning data creation device, and program
US9588489B2 (en) Computational highlight holography
Grzelec et al. Applications of Reflectance Transformation Imaging (RTI) for Books and Objects on Paper
JP2015156108A (en) Non-linear deformation calculation system and surgical operation simulator
JP6638341B2 (en) Data output regulation device for 3D object modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230808

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R150 Certificate of patent or registration of utility model

Ref document number: 7457879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150