JP2020166473A - Trained model generation device and program and trained model generation system - Google Patents

Trained model generation device and program and trained model generation system Download PDF

Info

Publication number
JP2020166473A
JP2020166473A JP2019065335A JP2019065335A JP2020166473A JP 2020166473 A JP2020166473 A JP 2020166473A JP 2019065335 A JP2019065335 A JP 2019065335A JP 2019065335 A JP2019065335 A JP 2019065335A JP 2020166473 A JP2020166473 A JP 2020166473A
Authority
JP
Japan
Prior art keywords
data
image data
trained model
annotation
generates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019065335A
Other languages
Japanese (ja)
Other versions
JP7267068B2 (en
Inventor
賢太郎 青木
Kentaro Aoki
賢太郎 青木
一史 澤勢
Kazuhito Sawase
一史 澤勢
山田 薫
Kaoru Yamada
薫 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui Knowledge Industry Co Ltd
Original Assignee
Mitsui Knowledge Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui Knowledge Industry Co Ltd filed Critical Mitsui Knowledge Industry Co Ltd
Priority to JP2019065335A priority Critical patent/JP7267068B2/en
Publication of JP2020166473A publication Critical patent/JP2020166473A/en
Application granted granted Critical
Publication of JP7267068B2 publication Critical patent/JP7267068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a trained model generation device and the like that can generate appropriate trained models by using the data to be trained based on the 3D model.SOLUTION: A device comprises an image data generation part 112 that generates pseudo-image data based on the 3D data, an annotation data generation part 114 that generates annotation data based on the 3D data, a learning data generation part 110 that generates data for learning including the pseudo-image data and the annotation data, and a trained model generation part 102 that uses the learning data to generate a learned model for inferring data for output from the input data.SELECTED DRAWING: Figure 3

Description

本開示は、学習済みモデル生成装置等に関する。 The present disclosure relates to a trained model generator and the like.

従来から、機械学習において、学習済みモデルを生成するためには、学習対象となるデータと、学習対象となるデータに対する正解データ(アノテーションデータ)とを含む学習用データ(教師データ、訓練データ)を学習モデルに投入する必要があった。 Conventionally, in machine learning, in order to generate a trained model, learning data (teacher data, training data) including data to be trained and correct answer data (annotation data) for the data to be trained is used. It had to be put into the learning model.

例えば、学習用画像データに正解データを付加することで学習済みモデルを生成する発明(例えば、特許文献1参照)や、サンプル画像と、正解データとを与えることにより学習済みモデルを生成したりする発明(例えば、特許文献2参照)が開示されている。 For example, an invention that generates a trained model by adding correct answer data to training image data (see, for example, Patent Document 1), or a trained model is generated by giving a sample image and correct answer data. The invention (see, for example, Patent Document 2) is disclosed.

特開2018−5640号公報JP-A-2018-5640 特開2010−211468号公報Japanese Unexamined Patent Publication No. 2010-21146

従来は、学習済みモデルを生成するためには、学習用データを利用者が準備する必要があった。学習済みモデルの精度を上げるためには、学習対象となるデータを利用者は大量に準備する必要があった。 Conventionally, in order to generate a trained model, it has been necessary for the user to prepare training data. In order to improve the accuracy of the trained model, the user had to prepare a large amount of data to be trained.

また、学習対象のデータを準備したとしても、学習対象のデータにアノテーションを利用者が与える作業が必要であった。学習対象のデータが膨大になれば、アノテーションを与える作業量も多くなってしまうという問題点があった。 Moreover, even if the data to be learned is prepared, it is necessary for the user to annotate the data to be learned. There is a problem that if the amount of data to be learned becomes enormous, the amount of work to add annotations also increases.

本開示は、3Dモデルに基づいた学習対象のデータを用いることにより、適切な学習済みモデルを生成可能な学習済みモデル生成装置等を提供することを目的とする。 An object of the present disclosure is to provide a trained model generator or the like capable of generating an appropriate trained model by using data of a learning target based on a 3D model.

本開示の一態様に係る学習済みモデル生成装置は、3Dデータに基づいて疑似画像データを生成する画像データ生成部と、3Dデータに基づいてアノテーションデータを生成するアノテーションデータ生成部と、前記疑似画像データと、前記アノテーションデータとを含む学習用データを生成する学習用データ生成部と、前記学習用データを用いて入力用データから出力用データを推論するための学習済みモデルを生成する学習済みモデル生成部と、を備えている。 The trained model generator according to one aspect of the present disclosure includes an image data generation unit that generates pseudo image data based on 3D data, an annotation data generation unit that generates annotation data based on 3D data, and the pseudo image. A training data generation unit that generates training data including data and the annotation data, and a trained model that generates a trained model for inferring output data from input data using the training data. It has a generator.

本開示の一態様に係るプログラムは、コンピュータに、3Dデータに基づいて疑似画像データを生成する画像データ生成機能と、3Dデータに基づいてアノテーションデータを生成するアノテーションデータ生成機能と、前記疑似画像データと、前記アノテーションデータとを含む学習用データを生成する学習用データ生成機能と、前記学習用データを用いて入力用データから出力用データを推論するための学習済みモデルを生成する学習済みモデル生成機能と、を実現させる。 The program according to one aspect of the present disclosure includes an image data generation function that generates pseudo image data based on 3D data, an annotation data generation function that generates annotation data based on 3D data, and the pseudo image data. A training data generation function that generates training data including the annotation data, and a trained model generation that generates a trained model for inferring output data from input data using the training data. Realize the function.

本開示の一態様に係る学習済みモデル生成システムは、3Dデータに基づいて疑似画像データを生成する画像データ生成手段と、3Dデータに基づいてアノテーションデータを生成するアノテーションデータ生成手段と、前記疑似画像データと、前記アノテーションデータとを含む学習用データを生成する学習用データ生成手段と、前記学習用データを用いて入力用データから出力用データを推論するための学習済みモデルを生成する学習済みモデル生成手段と、を備えている。 The trained model generation system according to one aspect of the present disclosure includes an image data generation means that generates pseudo image data based on 3D data, an annotation data generation means that generates annotation data based on 3D data, and the pseudo image. A training data generation means for generating training data including data and the annotation data, and a trained model for generating a trained model for inferring output data from input data using the training data. It is equipped with a generation means.

本開示によれば、3Dモデルに基づいた学習対象となるデータを用いることにより、多くの人手をかけず、短時間で、適切な学習済みモデルを生成することができる。 According to the present disclosure, by using the data to be learned based on the 3D model, it is possible to generate an appropriate trained model in a short time without much manpower.

本実施形態におけるシステム全体を説明するための図である。It is a figure for demonstrating the whole system in this Embodiment. 本実施形態における3Dデータ、疑似画像データ、アノテーションデータとの概要を説明するための図である。It is a figure for demonstrating the outline with 3D data, pseudo image data, and annotation data in this embodiment. 本実施形態における学習済みモデル生成装置の機能構成を説明するための図である。It is a figure for demonstrating the functional structure of the trained model generator in this embodiment. 本実施形態における学習済みモデルを生成する処理を説明するための動作フロー図である。It is operation flow diagram for demonstrating the process of generating the trained model in this embodiment. 本実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in this embodiment. 本実施形態における対象物推論装置の概要を説明するための図である。It is a figure for demonstrating the outline of the object inference apparatus in this embodiment. 本実施形態の変形例を説明するための図である。It is a figure for demonstrating the modification of this embodiment. 別の実施形態を説明するための図である。It is a figure for demonstrating another embodiment.

以下、図面を参照して本発明を実施するための一実施形態について説明する。なお、以下の実施形態は、本発明を説明するための一例であり、特許請求の範囲に記載した発明の技術的範囲が、以下の記載に限定されるものではない。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. The following embodiments are examples for explaining the present invention, and the technical scope of the invention described in the claims is not limited to the following description.

[1.システム構成]
図1は、学習済みモデル生成装置を含むシステムAを説明するための図である。システムAの概要を、以下説明する。システムAは、学習済みモデル生成装置1と、対象物推論装置3とを含んでいる。
[1. System configuration]
FIG. 1 is a diagram for explaining a system A including a trained model generator. The outline of the system A will be described below. The system A includes a trained model generation device 1 and an object inference device 3.

まず、学習済みモデル生成装置1の動作の概要について説明する。利用者やシステムは、学習用データの構造を決定する(10)。学習済みモデル(20)として、どのようなモデルを生成するかが利用者又はシステムにより決定される。 First, an outline of the operation of the trained model generator 1 will be described. The user or system determines the structure of the learning data (10). As the trained model (20), what kind of model is generated is determined by the user or the system.

素材データ(12)は、学習対象となる画像データ(疑似画像データ)を生成するための素材となるデータである。本実施形態では、素材として3Dデータを使用する。3Dデータは、例えば、少なくとも3Dモデルデータを含んでおり、パラメータ、素材の画像データを1又は複数含まれる。 The material data (12) is data that serves as a material for generating image data (pseudo-image data) to be learned. In this embodiment, 3D data is used as a material. The 3D data includes, for example, at least 3D model data, and includes one or more image data of parameters and materials.

3Dモデルデータは、対象物の3Dモデルを生成するためのデータである。例えば、ある座標空間上の座標として、対象物の頂点や、特徴点の座標により構成されている。また、パラメータは、3Dモデルから対象物を生成するときに利用される。例えば、パラメータとしては、対象物の角度、傾き、倍率、色、材質、基準となる座標空間のデータ等が利用可能である。素材の画像データは、対象物のテクスチャ画像(例えば、木目調の画像や、金属の材質を示す画像、結晶の種類に応じた画像等)や、背景画像(例えば、対象物が水中にある場合や、景色の中にある場合等、それらの背景となる画像)等の種々の画像が利用可能である。 The 3D model data is data for generating a 3D model of an object. For example, the coordinates on a certain coordinate space are composed of the coordinates of the vertices of the object and the coordinates of the feature points. The parameters are also used when creating an object from a 3D model. For example, as parameters, the angle, inclination, magnification, color, material, reference coordinate space data, and the like of the object can be used. The image data of the material includes a texture image of the object (for example, a wood grain image, an image showing the metal material, an image according to the type of crystal, etc.) and a background image (for example, when the object is underwater). And various images such as (images that are the background of them, such as when they are in a landscape) are available.

すなわち、3Dデータは、3Dモデルデータを少なくとも含み、更にパラメータを含むことが可能である。また、上述したように素材の画像データは、3Dデータに含まれてもよいし、3Dデータとは別に用意されてもよい。また、3Dデータに必要な情報について、これらのデータに限定されるものではなく、当業者が容易に想到できるものが更に含まれてもよい。 That is, the 3D data may include at least 3D model data and may further include parameters. Further, as described above, the image data of the material may be included in the 3D data, or may be prepared separately from the 3D data. Further, the information required for 3D data is not limited to these data, and may further include information that can be easily conceived by those skilled in the art.

学習済みモデル生成装置1は、学習用データ生成処理(14)を実行することで、素材データ(12)から、利用者又はシステムにより決定された学習データの構造に対応する学習用データ(16)を生成する。学習用データには、画像データ(疑似画像データ)と、正解データであるアノテーションデータとが含まれている。 By executing the learning data generation process (14), the trained model generation device 1 executes the learning data (14), and the learning data (16) corresponding to the structure of the learning data determined by the user or the system from the material data (12). To generate. The learning data includes image data (pseudo-image data) and annotation data which is correct answer data.

本実施形態における画像データ(疑似画像データ)は、静止画像データだけでなく、アニメーションデータや動画像データをも含む概念である。 The image data (pseudo image data) in the present embodiment is a concept that includes not only still image data but also animation data and moving image data.

また、本実施形態におけるアノテーションデータとは、画像データ(実画像データや疑似画像データ)において、その画像データに含まれる対象物の位置を示す座標や、対象物の種類(分類のための番号および名前など)である。 Further, the annotation data in the present embodiment is the coordinates indicating the position of the object included in the image data (real image data or pseudo image data), the type of the object (number for classification, and the number for classification). Name etc.).

例えば、3Dデータに基づいて生成された対象物の相対的な座標が、学習で必要な空間上の座標に変換され、アノテーションデータとなる。 For example, the relative coordinates of the object generated based on the 3D data are converted into the spatial coordinates required for learning and become annotation data.

また、学習済みモデル生成装置1は、学習用データ生成処理として、画像データを生成する画像データ生成処理と、アノテーションデータを生成するアノテーションデータ生成処理とを実行する。 Further, the trained model generation device 1 executes an image data generation process for generating image data and an annotation data generation process for generating annotation data as training data generation processing.

学習済みモデル生成装置1は、画像データ生成処理を実行し、例えば素材データ(12)に含まれている3Dモデルデータや、画像データを利用して疑似画像データを生成する。また、学習済みモデル生成装置1は、アノテーションデータ生成処理を実行し、3Dモデルデータを利用して、疑似画像データに対するアノテーションデータを生成する。 The trained model generation device 1 executes an image data generation process, and generates pseudo image data by using, for example, the 3D model data included in the material data (12) or the image data. Further, the trained model generation device 1 executes an annotation data generation process and uses the 3D model data to generate annotation data for the pseudo image data.

図2は、学習用データ生成処理において生成される疑似画像データと、アノテーションデータとを説明するための図である。例として、本図を参照して、結晶の画像を含む疑似画像データを生成する場合について説明する。 FIG. 2 is a diagram for explaining pseudo image data generated in the learning data generation process and annotation data. As an example, a case where pseudo image data including a crystal image is generated will be described with reference to this figure.

図2(a)は、結晶1つ分の疑似画像データを模式的に示した図である。学習済みモデル生成装置1は、画像データ生成処理を実行し、3Dデータ(3Dモデルデータ)に基づいて疑似画像データを生成する。また、学習済みモデル生成装置1は、画像データ生成処理において、疑似画像データに対して、更に素材データ(12)に含まれている画像データに基づくテクスチャデータを付加してもよい。また、学習済みモデル生成装置1は、画像データ生成処理において、疑似画像データを生成するときに、パラメータによって大きさ、回転、方向等を随時決定してもよい。 FIG. 2A is a diagram schematically showing pseudo image data for one crystal. The trained model generation device 1 executes an image data generation process and generates pseudo image data based on the 3D data (3D model data). Further, the trained model generation device 1 may further add texture data based on the image data included in the material data (12) to the pseudo image data in the image data generation process. Further, the trained model generation device 1 may determine the size, rotation, direction, etc. at any time according to parameters when generating pseudo image data in the image data generation process.

学習済みモデル生成装置1は、アノテーション生成処理を実行し、疑似画像データに対するアノテーションデータを生成する。アノテーションデータは、3Dモデルデータ、パラメータから生成される結晶を対象物とした場合、疑似画像データに含まれる結晶の画像の位置とすることができる。例えば、図2(a)の結晶は、疑似画像データにおいて(x1,y1)−(x2,y2)の位置に存在することを算出することが可能である。 The trained model generation device 1 executes the annotation generation process and generates annotation data for the pseudo image data. The annotation data can be the position of the crystal image included in the pseudo image data when the crystal generated from the 3D model data and the parameters is the object. For example, it is possible to calculate that the crystal of FIG. 2A exists at the position (x1, y1) − (x2, y2) in the pseudo image data.

すなわち、3Dモデルデータは、図2(a)で示される対象物の頂点座標(直方体の場合は少なくとも3点の3次元の座標、その他の立体形状であれば各頂点の3次元の座標)を示している。これを、疑似画像データが含まれる2次元の座標や、3次元の座標として座標変換されたものがアノテーションデータとなる。 That is, the 3D model data includes the coordinates of the vertices of the object shown in FIG. 2 (a) (in the case of a rectangular parallelepiped, at least three three-dimensional coordinates, and in the case of other three-dimensional shapes, the three-dimensional coordinates of each vertex). Shown. Annotation data is obtained by converting this into two-dimensional coordinates including pseudo-image data or three-dimensional coordinates.

これにより、アノテーション生成処理において、例えば図2(b)の疑似画像データに含まれている結晶の位置を示すアノテーションデータを随時生成することが可能となる。例えば、学習済みモデル生成装置1は、アノテーション生成処理は、疑似画像データP10、P12、P14等のアノテーションデータを、3Dモデルデータ、パラメータから生成する。 As a result, in the annotation generation process, for example, annotation data indicating the position of the crystal included in the pseudo image data of FIG. 2B can be generated at any time. For example, in the trained model generation device 1, the annotation generation process generates annotation data such as pseudo image data P10, P12, P14 from 3D model data and parameters.

学習用のAIプログラム(18)は、学習用データ(16)を利用することで学習済みモデル(20)を生成する。ここで、学習用データから、学習済みモデルを生成する方法としては、公知である何れかの機械学習の手法を利用することとする。例えば、機械学習の手法としては、ディープラーニングを活用したクラシフィケーション、セグメンテーション、オブジェクトデテクション、キーポイントデテクションなどといった手法を用いることができる。 The learning AI program (18) generates a trained model (20) by using the learning data (16). Here, as a method of generating a trained model from the training data, any known machine learning method is used. For example, as a machine learning method, a method such as classification, segmentation, object protection, or key point protection utilizing deep learning can be used.

学習済みモデル生成装置1で生成された学習済みモデル(20)は、何れかの装置で利用することができる。なお、本実施形態の学習済みモデルは、人工知能ソフトウエアの一部であるプログラムモジュールとして利用されてもよい。 The trained model (20) generated by the trained model generation device 1 can be used in any device. The trained model of the present embodiment may be used as a program module which is a part of artificial intelligence software.

対象物推論装置3は、入力データから、学習済みモデルを利用することで、入力データを推論した出力データを出力する装置である。例えば、対象物推論装置3では、学習済みモデル生成装置1で生成された学習済みモデル(20)を利用している。 The object inference device 3 is a device that outputs output data inferred from input data by using a trained model from input data. For example, the object inference device 3 uses the trained model (20) generated by the trained model generation device 1.

具体的には、AIプログラム(30)は、入力された入力データ(画像データや、メタデータ等)を認識したり、推論したりする場合に学習済みモデル(20)を利用する。これにより、AIプログラム(30)は、認識した結果データ(34)を出力する(出力データとして出力する)ことができる。 Specifically, the AI program (30) uses the trained model (20) when recognizing or inferring the input input data (image data, metadata, etc.). As a result, the AI program (30) can output the recognized result data (34) (output as output data).

本実施形態によれば、学習用データ(16)を効率的に生成することにより、より適切な学習済みモデル(20)を生成することができる。以下、本実施形態における処理を説明する。 According to this embodiment, a more appropriate trained model (20) can be generated by efficiently generating the training data (16). Hereinafter, the processing in this embodiment will be described.

[2.機能構成]
学習済みモデル生成装置1の機能構成について図3を参照して説明する。
[2. Functional configuration]
The functional configuration of the trained model generator 1 will be described with reference to FIG.

制御部100は、学習済みモデル生成装置1の全体を制御する。制御部100は、記憶部120に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、1又は複数の演算装置(例えば、CPU(Central Processing Unit))により構成されている。 The control unit 100 controls the entire trained model generation device 1. The control unit 100 realizes various functions by reading and executing various programs stored in the storage unit 120, and is composed of one or a plurality of arithmetic units (for example, a CPU (Central Processing Unit)). There is.

また、制御部100は、記憶部120に記憶されているプログラムを実行することにより、以下の機能部として動作する。 Further, the control unit 100 operates as the following functional unit by executing the program stored in the storage unit 120.

また、制御部100は、学習用データを生成する学習用データ生成部110と、学習済みモデルを生成する学習済みモデル生成部102の機能を実現する。 Further, the control unit 100 realizes the functions of the learning data generation unit 110 that generates the learning data and the trained model generation unit 102 that generates the trained model.

学習用データ生成部110は、疑似画像データと、アノテーションデータとに基づいた学習用データを生成する。 The learning data generation unit 110 generates learning data based on the pseudo image data and the annotation data.

画像データ生成部112は、画像データ生成処理を実行する。画像データ生成部112は、学習対象となる疑似画像データを3Dモデルデータ記憶領域122に記憶されている3Dモデルデータに基づき、必要に応じてパラメータを参照して生成する。 The image data generation unit 112 executes the image data generation process. The image data generation unit 112 generates pseudo image data to be learned based on the 3D model data stored in the 3D model data storage area 122 by referring to parameters as necessary.

また、画像データ生成部112は、疑似画像データを生成するとき、更にパラメータ記憶領域124に記憶されているパラメータを利用してもよい。 Further, the image data generation unit 112 may further use the parameters stored in the parameter storage area 124 when generating the pseudo image data.

また、画像データ生成部112は、疑似画像データを生成するとき、更に画像データ記憶領域126に記憶されているテクスチャ画像データや、背景画像データを利用してもよい。 Further, the image data generation unit 112 may further use the texture image data or the background image data stored in the image data storage area 126 when generating the pseudo image data.

具体的には、画像データ生成部112は、質感や、材質等といった属性を疑似画像データ与えるときに、テクスチャ画像データを利用する。 Specifically, the image data generation unit 112 uses the texture image data when giving pseudo image data attributes such as texture and material.

また、画像データ生成部112は、3Dモデルが人間等の場合に、人間の後ろに写っている山や湖といった実画像データを背景画像データとして利用し、疑似画像データを生成してもよい。 Further, when the 3D model is a human being or the like, the image data generation unit 112 may generate pseudo image data by using real image data such as a mountain or a lake behind the human as background image data.

アノテーションデータ生成部114は、アノテーションデータ生成処理を実行する。アノテーションデータ生成部114は、疑似画像データの3Dモデルデータや、パラメータに基づいてアノテーションデータを生成する。 The annotation data generation unit 114 executes the annotation data generation process. The annotation data generation unit 114 generates annotation data based on 3D model data of pseudo image data and parameters.

アノテーションデータ生成部114は、3Dモデルデータに基づいて、疑似画像データに含まれる対象物の位置を求めることができ、当該位置がアノテーションデータとなる。また、アノテーションデータ生成部114は、3Dモデルデータからパラメータを参照して生成された疑似画像データに基づき、アノテーションデータを生成することもできる。 The annotation data generation unit 114 can obtain the position of the object included in the pseudo image data based on the 3D model data, and the position becomes the annotation data. In addition, the annotation data generation unit 114 can also generate annotation data based on the pseudo image data generated by referring to the parameters from the 3D model data.

パラメータ決定部116は、画像データ生成部112が疑似画像データを生成するときに利用するパラメータを決定する。例えば、3Dモデルデータに基づいて、回転、拡大、縮小、反転といった画像処理を施した疑似画像データが生成されるようにパラメータを決定する。また、パラメータ決定部116は、同じ3Dモデルデータであっても、複数回実行することにより、異なるパラメータを決定する。これにより、画像データ生成部112は、異なる疑似画像データを生成することができる。また、アノテーションデータ生成部114も同様に、異なるアノテーションデータを生成することができる。 The parameter determination unit 116 determines the parameters used when the image data generation unit 112 generates pseudo image data. For example, based on the 3D model data, the parameters are determined so that pseudo image data subjected to image processing such as rotation, enlargement, reduction, and inversion is generated. Further, the parameter determination unit 116 determines different parameters by executing the same 3D model data a plurality of times. As a result, the image data generation unit 112 can generate different pseudo image data. Further, the annotation data generation unit 114 can also generate different annotation data in the same manner.

パラメータ決定部116は、利用者がパラメータを任意に決定してもよいし、所定の処理に基づいて決定されてもよい。例えば、一定値毎にパラメータを変えたり、乱数を利用したりしてもよい。 The parameter determination unit 116 may arbitrarily determine the parameter by the user, or may determine the parameter based on a predetermined process. For example, the parameter may be changed for each constant value, or a random number may be used.

学習済みモデル生成部102は、学習用データから学習済みモデルを生成する。学習済みモデル生成部102は、生成した学習モデルを学習済みモデル記憶領域130に記憶する。 The trained model generation unit 102 generates a trained model from the training data. The trained model generation unit 102 stores the generated learning model in the trained model storage area 130.

ここで、本実施形態における学習済みモデルを生成する処理とは、学習用データに基づいて新たに学習済みモデルを生成する処理だけでなく、学習済みモデル記憶領域130に記憶されている学習済みモデルを更新する処理を含むものである。 Here, the process of generating the trained model in the present embodiment is not only the process of generating a new trained model based on the training data, but also the trained model stored in the trained model storage area 130. It includes the process of updating.

記憶部120は、学習済みモデル生成装置1の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部120は、例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等により構成されている。 The storage unit 120 is a functional unit in which various programs and various data necessary for the operation of the trained model generation device 1 are stored. The storage unit 120 is composed of, for example, a semiconductor memory SSD (Solid State Drive), an HDD (Hard Disk Drive), or the like.

3Dモデルデータ記憶領域122は、対象物を含む疑似画像データを生成するための3Dモデルのデータ(3Dモデルデータ)を記憶している。また、パラメータ記憶領域124は、3Dモデルデータに対応するパラメータを記憶している。パラメータ記憶領域124に記憶されるパラメータは、パラメータ決定部116において利用され、新たに決定されたパラメータを記憶する。また、パラメータ記憶領域124が記憶するパラメータは、3Dモデルデータに対応して予めパラメータを記憶してもよいし、3Dモデルデータを読み込んだときにパラメータを記憶してもよい。 The 3D model data storage area 122 stores 3D model data (3D model data) for generating pseudo image data including an object. Further, the parameter storage area 124 stores the parameters corresponding to the 3D model data. The parameters stored in the parameter storage area 124 are used by the parameter determination unit 116, and newly determined parameters are stored. Further, the parameters stored in the parameter storage area 124 may be stored in advance corresponding to the 3D model data, or may be stored when the 3D model data is read.

画像データ記憶領域126は、画像データを記憶する。例えば、画像データ記憶領域126は、疑似画像データ、テクスチャ画像データ、背景画像データといった種々の画像データを記憶することができる。 The image data storage area 126 stores image data. For example, the image data storage area 126 can store various image data such as pseudo image data, texture image data, and background image data.

アノテーションデータ記憶領域128は、疑似画像データに対応するアノテーションデータが記憶される。具体的には、アノテーションデータ生成部114から出力されたアノテーションデータが記憶される。 Annotation data storage area 128 stores annotation data corresponding to pseudo image data. Specifically, the annotation data output from the annotation data generation unit 114 is stored.

この画像データ記憶領域126に記憶されている疑似画像データと、アノテーションデータ記憶領域128に記憶されているアノテーションデータと含んだ情報が、学習用データとなる。 The information including the pseudo image data stored in the image data storage area 126 and the annotation data stored in the annotation data storage area 128 becomes the learning data.

学習済みモデル記憶領域130は、学習済みモデル生成部102から出力された学習済みモデルを記憶する。学習済みモデル記憶領域130は、学習済みモデルが1又は複数記憶されている。 The trained model storage area 130 stores the trained model output from the trained model generation unit 102. The trained model storage area 130 stores one or more trained models.

なお、上述した記憶部120に記憶されるデータ、情報は、学習済みモデル生成装置1に接続された外部の記憶装置、記憶媒体に記憶されてもよいし、通信部160を介して接続されるNAS(Network Attached Storage)や、クラウドサーバ上の記憶領域に記憶されてもよい。 The data and information stored in the storage unit 120 described above may be stored in an external storage device or storage medium connected to the learned model generation device 1, or are connected via the communication unit 160. It may be stored in NAS (Network Attached Storage) or a storage area on a cloud server.

入力部140は、利用者からの操作指示の入力を受け付け、出力部150は利用者に書く指示を出力する。例えば、入力部140は、キーボードやマウスである。また、出力部150は、表示装置(例えば、液晶ディスプレイ等)である。 The input unit 140 receives an input of an operation instruction from the user, and the output unit 150 outputs an instruction to be written to the user. For example, the input unit 140 is a keyboard or a mouse. Further, the output unit 150 is a display device (for example, a liquid crystal display or the like).

また、入力部140、出力部150を一体としてタッチパネルとして構成してもよい。また、入力部140、出力部150は、通常インタフェースとして実装されていればよく、例えば、USB(Universal Serial Bus)に外部の装置を接続することで実現可能である。 Further, the input unit 140 and the output unit 150 may be integrated into a touch panel. Further, the input unit 140 and the output unit 150 may be implemented as normal interfaces, and can be realized by connecting an external device to, for example, USB (Universal Serial Bus).

通信部160は、外部の装置や、サーバ等と通信を行う。例えば、ネットワークインタフェースにより、LAN(Local Area Network)に接続し、他の装置等と通信を行う。また、それ以外にも、無線LANや、LTE(Long Term Evolution)/5G通信により実現してもよい。 The communication unit 160 communicates with an external device, a server, or the like. For example, it connects to a LAN (Local Area Network) by a network interface and communicates with other devices and the like. In addition to that, it may be realized by wireless LAN or LTE (Long Term Evolution) / 5G communication.

また、通信部160は、他にもカメラ装置から画像データを受信したりするインタフェースであってもよい。この場合は、USBやHDMI(登録商標)(High-Definition Multimedia Interface)等のインタフェースで実現される。 In addition, the communication unit 160 may also be an interface for receiving image data from the camera device. In this case, it is realized by an interface such as USB or HDMI (registered trademark) (High-Definition Multimedia Interface).

また、入力部140、出力部150、通信部160は、必要に応じて1又は複数実装すればよく、実装していなくてもよい。 Further, the input unit 140, the output unit 150, and the communication unit 160 may be mounted one or more as necessary, and may not be mounted.

また、クラウド上に設けられた記憶領域に、記憶部120に記憶している各データ、プログラムを記憶することで、ネットワークを経由して、本実施形態の処理を実行する構成、システムとしてもよい。この場合、必要に応じて端末装置からデータ(例えば、3Dモデルデータ、画像データ、パラメータ等)を受信し、学習用データ生成部110、学習済みモデル生成部120がクラウド上で実行されてもよい。 Further, by storing each data and program stored in the storage unit 120 in the storage area provided on the cloud, the processing of the present embodiment may be executed via the network. .. In this case, data (for example, 3D model data, image data, parameters, etc.) may be received from the terminal device as needed, and the learning data generation unit 110 and the trained model generation unit 120 may be executed on the cloud. ..

また、一部の機能はハードウェアで実現されてもよいし、ソフトウエアで実現されてもよい。学習済みモデル生成装置1は、上述した構成以外にも必要な機能を更に備えていてもよい。 In addition, some functions may be realized by hardware or software. The trained model generator 1 may further have necessary functions in addition to the above-described configuration.

[3.処理の流れ]
本実施形態における制御部100(学習済みモデル生成部102)が実行する処理について、図4を参照して説明する。
[3. Process flow]
The process executed by the control unit 100 (learned model generation unit 102) in the present embodiment will be described with reference to FIG.

画像データ生成部112は、3Dモデルデータ記憶領域122から、3Dモデルデータを入力する(ステップS102)。ここで、テクスチャ画像データや、背景画像データ等がある場合、画像データ生成部112は、当該画像データを画像データ記憶領域126から併せて入力する。 The image data generation unit 112 inputs 3D model data from the 3D model data storage area 122 (step S102). Here, when there is texture image data, background image data, or the like, the image data generation unit 112 also inputs the image data from the image data storage area 126.

つづいて、パラメータ決定部116は、パラメータを決定する(ステップS104)。パラメータ決定部116は、3Dモデルデータに対応したパラメータを決定するが、予め決められたパラメータを利用してもよい。なお、3Dモデルデータのみから疑似画像データを生成する場合、パラメータについて利用しなくてもよい。 Subsequently, the parameter determination unit 116 determines the parameter (step S104). The parameter determination unit 116 determines the parameters corresponding to the 3D model data, but predetermined parameters may be used. When generating pseudo image data only from 3D model data, it is not necessary to use the parameters.

なお、画像データ生成部112は、パラメータの扱い(利用方法)については、上述した以外にも他の方法が考えられる。以下、画像データ生成部112におけるパラメータの利用方法について説明する。 In addition to the above, the image data generation unit 112 may consider other methods for handling (using) the parameters. Hereinafter, how to use the parameters in the image data generation unit 112 will be described.

(1)記憶されているパラメータを利用する
画像データ生成部112は、ステップS102において、3Dモデルデータと併せてパラメータを入力する。この場合、パラメータ記憶領域124には、3Dモデルデータに対応するパラメータが記憶されている。パラメータ記憶領域124に記憶されているパラメータを、画像データ生成部112は、ステップS104において随時読み込んで利用する。
(1) Using the stored parameters The image data generation unit 112 inputs the parameters together with the 3D model data in step S102. In this case, the parameter corresponding to the 3D model data is stored in the parameter storage area 124. The image data generation unit 112 reads and uses the parameters stored in the parameter storage area 124 at any time in step S104.

(2)初期パラメータを利用する
画像データ生成部112は、ステップS102において、3Dモデルデータと併せてパラメータを入力する。この場合、パラメータ記憶領域124には、3Dモデルデータに対応するパラメータが記憶されている(初期状態)。また、パラメータ決定部116は、初期状態のパラメータに基づいて、新たなパラメータをステップS104で決定する。画像データ生成部112は、2回目以降は、パラメータ決定部116で決定したパラメータを利用する。なお、パラメータ決定部116は、途中で予め記憶されているパラメータを途中で利用してもよい。
(2) Using the initial parameters The image data generation unit 112 inputs the parameters together with the 3D model data in step S102. In this case, the parameter corresponding to the 3D model data is stored in the parameter storage area 124 (initial state). Further, the parameter determination unit 116 determines a new parameter in step S104 based on the parameter in the initial state. The image data generation unit 112 uses the parameters determined by the parameter determination unit 116 from the second time onward. The parameter determination unit 116 may use the parameters stored in advance on the way.

つづいて、画像データ生成部112は、3Dモデルデータと、決定されたパラメータに基づいて画像データ(疑似画像データ)を生成する(ステップS106)。このとき、テクスチャ画像データや背景画像データ等の素材の画像データがある場合は、画像データ生成部112は、当該素材の画像データも利用する。画像データ生成部112は、生成した疑似画像データを、画像データ記憶領域126に記憶する。なお、上述したようにパラメータを利用しない場合は、3Dモデルデータや、3Dモデルデータと素材の画像データとから疑似画像データを生成する。 Subsequently, the image data generation unit 112 generates image data (pseudo image data) based on the 3D model data and the determined parameters (step S106). At this time, if there is image data of the material such as texture image data or background image data, the image data generation unit 112 also uses the image data of the material. The image data generation unit 112 stores the generated pseudo image data in the image data storage area 126. When the parameters are not used as described above, pseudo image data is generated from the 3D model data or the 3D model data and the image data of the material.

つづいて、アノテーションデータ生成部114は、アノテーションデータ生成処理を実行することにより、3Dデータに基づいてアノテーションデータを生成する(ステップS108)。アノテーションデータ生成部114は、生成したアノテーションデータをアノテーションデータ記憶領域128に記憶する。 Subsequently, the annotation data generation unit 114 generates annotation data based on the 3D data by executing the annotation data generation process (step S108). The annotation data generation unit 114 stores the generated annotation data in the annotation data storage area 128.

つづいて、制御部100(学習用データ生成部110)は、疑似画像データと、アノテーションデータとに基づき、学習用データを生成する(ステップS110)。 Subsequently, the control unit 100 (learning data generation unit 110) generates learning data based on the pseudo image data and the annotation data (step S110).

学習済みモデル生成部102は、学習用データに基づいて学習済みモデルを生成する(ステップS112)。学習済みモデル生成部102は、学習済みモデルを学習済みモデル記憶領域130に記憶する。また、学習済みモデル生成部102は、既に学習済みモデル記憶領域130に学習済みモデルが存在する場合には、更新する処理を行ってもよい。 The trained model generation unit 102 generates a trained model based on the training data (step S112). The trained model generation unit 102 stores the trained model in the trained model storage area 130. Further, the trained model generation unit 102 may perform a process of updating the trained model when the trained model already exists in the trained model storage area 130.

ここで、更に異なるパラメータを利用して学習済みモデルを生成する場合、学習済みモデル生成部102は、ステップS104から処理を繰り返し実行する(ステップS114;Yes→ステップS104)。このとき、パラメータ決定部116は、パラメータをランダムに決定してもよいし、一定量ずつずらして決定してもよい。例えば、パラメータ決定部116は、パラメータの一つとして回転角度を90度ずつずらすようにパラメータを決定してもよい。 Here, when a trained model is generated using further different parameters, the trained model generation unit 102 repeatedly executes the process from step S104 (step S114; Yes → step S104). At this time, the parameter determination unit 116 may determine the parameters at random, or may determine the parameters by shifting them by a fixed amount. For example, the parameter determination unit 116 may determine the parameter as one of the parameters so as to shift the rotation angle by 90 degrees.

ここで、学習済みモデル生成部102は、疑似画像データに基づく学習用データのみで学習済みモデルを生成(更新)しているが、実画像の画像データ(実画像データ)に基づいて学習済みモデルを更新してもよい。 Here, the trained model generation unit 102 generates (updates) the trained model only with the training data based on the pseudo image data, but the trained model is based on the image data (real image data) of the real image. May be updated.

実画像データによる学習用データを生成する場合(ステップS116;Yes)、例えば、制御部100は、通信部160から実画像データを受信し、画像データ記憶領域126に記憶する。この画像データ記憶領域126が記憶している実画像データを処理に利用する。 When generating learning data based on real image data (step S116; Yes), for example, the control unit 100 receives the real image data from the communication unit 160 and stores it in the image data storage area 126. The actual image data stored in the image data storage area 126 is used for processing.

つづいて、アノテーションデータ生成部114は、実画像データに対応するアノテーションデータを作成する(ステップS120)。ここのアノテーションデータは、例えば利用者が実画像データを確認し、アノテーションデータを生成してもよい。また、別の画像認識機能を利用し、アノテーションデータを生成してもよい。 Subsequently, the annotation data generation unit 114 creates annotation data corresponding to the actual image data (step S120). As the annotation data here, for example, the user may confirm the actual image data and generate the annotation data. Further, annotation data may be generated by using another image recognition function.

そして、制御部100(学習用データ生成部110)は、ステップS118で入力された実画像データと、ステップS120で作成されたアノテーションデータとに基づき、学習用データを生成する(ステップS122)。 Then, the control unit 100 (learning data generation unit 110) generates learning data based on the actual image data input in step S118 and the annotation data created in step S120 (step S122).

学習済みモデル生成部102は、ステップS122で生成した学習用データを利用して学習済みモデル生成処理を実行する(ステップS130)。当該処理により、既にステップS112で生成された学習済みモデルが更新されることになる。 The trained model generation unit 102 executes the trained model generation process using the learning data generated in step S122 (step S130). By this process, the trained model already generated in step S112 will be updated.

このように、図4の処理が実行されることにより、疑似画像データに基づく学習済みモデルが生成される。更に、実画像データに基づく学習済みデータが生成されることにより、より精度の高い学習済みモデルが生成されることとなる。 By executing the process of FIG. 4 in this way, a trained model based on the pseudo image data is generated. Further, by generating the trained data based on the actual image data, a trained model with higher accuracy is generated.

図5は、学習用データの画像を示す図である。例えば、従来であれば図5(a)の画像から、作業者が手動でアノテーションを付加する必要があった。 FIG. 5 is a diagram showing an image of learning data. For example, in the past, it was necessary for an operator to manually add annotations from the image of FIG. 5A.

しかし、本実施形態によれば、個別の疑似画像データのアノテーションは自動的に算出されている。したがって、図5(b)に示すように、作業者が手動でアノテーションを付加することなく、自動的にアノテーションデータが生成されることとなる。 However, according to the present embodiment, the annotation of the individual pseudo image data is automatically calculated. Therefore, as shown in FIG. 5B, annotation data is automatically generated without the operator manually adding annotations.

なお、生成された学習済みモデルを利用した対象物推論処理を実行することができる。図6は、対象物推論処理の一例を示す図である。対象物推論処理は、例えば対象物推論装置3のAIプログラム30に含まれる処理である。 It should be noted that the object inference processing using the generated trained model can be executed. FIG. 6 is a diagram showing an example of object inference processing. The object inference process is, for example, a process included in the AI program 30 of the object inference device 3.

入力部1000は、入力データを入力する。入力データとしては、例えば画像データ(入力画像データ)を入力する。つづいて、推論部1100は、学習済みモデル生成部102で生成した学習済みモデル1200とAIプログラム30を利用して、入力画像データから、対象物が入力画像データのどの位置に含まれているかの推論を行う。つづいて、出力部1300は、推論の結果として、対象物が含まれている領域を示すデータや、対象物の種別を出力データとしてする。なお、推論部1100は、画像データに対する対象物によって、対応する学習済みモデル1200とAIプログラム30を使用する。 The input unit 1000 inputs input data. As the input data, for example, image data (input image data) is input. Subsequently, the inference unit 1100 uses the trained model 1200 and the AI program 30 generated by the trained model generation unit 102 to determine the position of the object included in the input image data from the input image data. Make inferences. Subsequently, the output unit 1300 sets the data indicating the area including the object and the type of the object as the output data as a result of the inference. The inference unit 1100 uses the corresponding trained model 1200 and the AI program 30 depending on the object for the image data.

例えば、対象物が人物であれば、推論部1100は画像データに写り込んだ人物について学習した学習済みモデルを用いて、入力部1000に入力された入力画像データについて推論を行う。また、対象物が結晶であれば、入力画像データに含まれている結晶の数、大きさについて推論を行うことができる。このようにして、本実施形態を適用した学習済みモデルを利用することにより、対象物を適切に決定することができる。 For example, if the object is a person, the inference unit 1100 infers the input image data input to the input unit 1000 by using the learned model learned about the person reflected in the image data. Further, if the object is a crystal, it is possible to infer the number and size of crystals included in the input image data. In this way, by using the trained model to which the present embodiment is applied, the object can be appropriately determined.

[4.他の実施形態]
上述した実施形態とは別に、学習済みモデル生成装置、対象物推論装置等をサーバで実現してもよい。図8は、サーバクライアントのモデルを利用したシステムBについて説明する図である。
[4. Other embodiments]
Apart from the above-described embodiment, a trained model generation device, an object inference device, and the like may be realized by a server. FIG. 8 is a diagram illustrating a system B using a server-client model.

例えば、サーバ50は、1又は複数のサーバにより構成されている。サーバ50は、上述した学習済みモデル生成処理(例えば、図4)を実行することができる。 For example, the server 50 is composed of one or more servers. The server 50 can execute the trained model generation process described above (for example, FIG. 4).

端末装置60は、ネットワークNWを介してサーバ装置50に接続する。例えば、学習済みモデル生成処理を、ASP(Application Service Provider)/SaaS(Software as a Service)等のように提供してもよい。例えば、端末装置60はWebブラウザや、専用アプリケーションを利用してサーバ装置50に接続し、学習済みモデル生成処理を実行する。 The terminal device 60 connects to the server device 50 via the network NW. For example, the trained model generation process may be provided such as ASP (Application Service Provider) / SaaS (Software as a Service). For example, the terminal device 60 connects to the server device 50 using a Web browser or a dedicated application, and executes the trained model generation process.

このとき、サーバ装置50は、素材データ12を端末装置60から受信して学習済みモデル20を生成して端末装置60に返してもよい。また、サーバ装置50は、学習済みモデル生成処理で使用する学習用データ16を生成し、端末装置60に返してもよい。この場合、端末装置60は、受信した学習用データ16を利用して学習済みモデルを生成する。すなわち、学習済み生成モデル生成処理は、サーバ装置50と、端末装置60とで実行される。 At this time, the server device 50 may receive the material data 12 from the terminal device 60, generate the learned model 20, and return it to the terminal device 60. Further, the server device 50 may generate the learning data 16 used in the trained model generation process and return it to the terminal device 60. In this case, the terminal device 60 uses the received learning data 16 to generate a trained model. That is, the trained generation model generation process is executed by the server device 50 and the terminal device 60.

また、携帯端末装置70は、ネットワークNWを介してサーバ装置50に接続する。例えば、サーバ装置50において、対象物推論処理が実行されることで、携帯端末装置70は、カメラで撮影した画像に含まれる対象物の推論を行うことができる。 Further, the mobile terminal device 70 connects to the server device 50 via the network NW. For example, when the server device 50 executes the object inference process, the mobile terminal device 70 can infer the object included in the image captured by the camera.

このように、本明細書に記載されている処理、データについては、技術的に矛盾のない範囲で分散して記憶したり、分散して処理したりすることが可能である。すなわち、説明の都合上、学習済みモデル生成装置、対象物推論装置として説明しているが、必ずしも1つの装置で構成されることに限定されるものではない。 As described above, the processes and data described in the present specification can be distributed and stored or distributed and processed within a technically consistent range. That is, for convenience of explanation, it is described as a trained model generation device and an object inference device, but it is not necessarily limited to being composed of one device.

また、学習用データ生成部110や、学習済みモデル生成部102が実行する処理を含む各処理は、アプリケーションで提供されてもよい。例えば、サーバに限られず、市販のコンピュータ(情報処理装置)や、携帯型端末装置(タブレット等)にインストールし、実行することで、学習済みモデル生成装置、対象物推論装置として機能することとなる。 Further, each process including the process executed by the learning data generation unit 110 and the trained model generation unit 102 may be provided by the application. For example, by installing and executing not only a server but also a commercially available computer (information processing device) or a portable terminal device (tablet, etc.), it will function as a trained model generator and an object inference device. ..

[5.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[5. Modification example]
Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and the design and the like within a range not deviating from the gist of the present invention are also within the scope of claims. include.

上述した実施形態において、疑似画像データとして結晶の画像データを一例として説明したが、他の画像データであってもよい。 In the above-described embodiment, the crystal image data has been described as an example as the pseudo image data, but other image data may be used.

例えば、図7は、3Dデータとして動物のデータを示している。この場合、制御部100(学習用データ生成部110)は、動物の3Dデータとして3Dモデルデータ及びパラメータから疑似画像データを生成する。 For example, FIG. 7 shows animal data as 3D data. In this case, the control unit 100 (learning data generation unit 110) generates pseudo image data from the 3D model data and parameters as 3D data of the animal.

また、制御部100は、動物の3Dデータとして3Dモデルデータ及びパラメータに対応する座標をそれぞれ算出する。そして、制御部100(アノテーションデータ生成部114)は、算出した座標が含まれるように、アノテーションデータを生成する。これにより、制御部100(学習用データ生成部110)は、疑似画像データ及びアノテーションデータから、学習用データを生成することができる。このように、疑似画像データとしては、その他にも、人、自動車、建物といった種々のデータを利用できる。 In addition, the control unit 100 calculates the coordinates corresponding to the 3D model data and the parameters as the 3D data of the animal. Then, the control unit 100 (annotation data generation unit 114) generates annotation data so that the calculated coordinates are included. As a result, the control unit 100 (learning data generation unit 110) can generate learning data from the pseudo image data and the annotation data. As described above, various data such as people, automobiles, and buildings can be used as the pseudo image data.

また、上述した実施形態においては、疑似画像データを画像データ記憶領域126に記憶しているが、そのまま学習済みモデル生成部102が利用してもよい。すなわち、疑似画像データは、一時的に記憶部120に記憶されたり、処理の実行時に、その都度生成されたりしてもよい。 Further, in the above-described embodiment, the pseudo image data is stored in the image data storage area 126, but the trained model generation unit 102 may use it as it is. That is, the pseudo image data may be temporarily stored in the storage unit 120, or may be generated each time the process is executed.

また、上述した実施形態において、学習済みモデル生成装置1はサーバ装置等の単体の装置として説明しているが、必要に応じてネットワークに接続されたサーバ装置や、相互に接続された装置に機能を分散させてもよい。3Dモデルを入力し、学習済みモデルが出力される学習済みモデル生成システムとして、実現されればよい。 Further, in the above-described embodiment, the trained model generation device 1 is described as a single device such as a server device, but if necessary, it functions as a server device connected to a network or a device connected to each other. May be dispersed. It may be realized as a trained model generation system in which a 3D model is input and a trained model is output.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等の演算装置を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、ケーブルを介しての接続やネットワークを介しての接続などに関わらず、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, the program that operates in each device in the embodiment is a program that controls an arithmetic unit such as a CPU (a program that causes a computer to function) so as to realize the functions of the above-described embodiment. Then, the information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then various ROMs regardless of the connection via a cable or the connection via a network. It is stored in the storage device of the HDD or SSD, and is read, modified / written by the CPU as needed.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。 Further, in the case of distribution to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server computer is also included in the present invention.

100 制御部
102 学習済みモデル生成部
110 学習用データ生成部
112 画像データ生成部
114 アノテーションデータ生成部
116 パラメータ決定部
120 記憶部
122 3Dモデルデータ記憶領域
124 パラメータ記憶領域
126 画像データ記憶領域
128 アノテーションデータ記憶領域
130 学習済みモデル記憶領域
100 Control unit 102 Learned model generation unit 110 Learning data generation unit 112 Image data generation unit 114 Annotation data generation unit 116 Parameter determination unit 120 Storage unit 122 3D model data storage area 124 Parameter storage area 126 Image data storage area 128 Annotation data Storage area 130 Trained model storage area

Claims (6)

3Dデータに基づいて疑似画像データを生成する画像データ生成部と、
3Dデータに基づいてアノテーションデータを生成するアノテーションデータ生成部と、
前記疑似画像データと、前記アノテーションデータとを含む学習用データを生成する学習用データ生成部と、
前記学習用データを用いて入力用データから出力用データを推論するための学習済みモデルを生成する学習済みモデル生成部と、
を備えたことを特徴とする学習済みモデル生成装置。
An image data generator that generates pseudo image data based on 3D data,
Annotation data generator that generates annotation data based on 3D data,
A learning data generation unit that generates learning data including the pseudo image data and the annotation data.
A trained model generation unit that generates a trained model for inferring output data from input data using the training data, and a trained model generation unit.
A trained model generator characterized by being equipped with.
前記3Dデータは、3Dモデルデータと、パラメータとを含むことを特徴とする請求項1に記載の学習済みモデル生成装置。 The trained model generator according to claim 1, wherein the 3D data includes 3D model data and parameters. 前記疑似画像データを生成するとき及び前記アノテーションデータを生成するときに、前記パラメータを決定するパラメータ決定部を更に備えることを特徴とする請求項2に記載の学習済みモデル生成装置。 The trained model generation device according to claim 2, further comprising a parameter determination unit that determines the parameters when generating the pseudo image data and when generating the annotation data. 実画像データを取得する取得部を更に備え、
前記アノテーションデータ生成部は、前記実画像データに基づいてアノテーションデータを生成し、
前記学習用データ生成部は、更に実画像データと、前記アノテーションデータとを含む学習用データを生成する、
ことを特徴とする請求項1から3の何れか一項に記載の学習済みモデル生成装置。
It also has an acquisition unit that acquires actual image data.
The annotation data generation unit generates annotation data based on the actual image data, and then generates annotation data.
The learning data generation unit further generates learning data including the actual image data and the annotation data.
The trained model generator according to any one of claims 1 to 3, wherein the trained model generator is characterized in that.
コンピュータに、
3Dデータに基づいて疑似画像データを生成する画像データ生成機能と、
3Dデータに基づいてアノテーションデータを生成するアノテーションデータ生成機能と、
前記疑似画像データと、前記アノテーションデータとを含む学習用データを生成する学習用データ生成機能と、
前記学習用データを用いて入力用データから出力用データを推論するための学習済みモデルを生成する学習済みモデル生成機能と、
を実現させるためのプログラム。
On the computer
An image data generation function that generates pseudo image data based on 3D data,
Annotation data generation function that generates annotation data based on 3D data,
A learning data generation function that generates learning data including the pseudo image data and the annotation data, and
A trained model generation function that generates a trained model for inferring output data from input data using the training data, and a trained model generation function.
A program to realize.
3Dデータに基づいて疑似画像データを生成する画像データ生成手段と、
3Dデータに基づいてアノテーションデータを生成するアノテーションデータ生成手段と、
前記疑似画像データと、前記アノテーションデータとを含む学習用データを生成する学習用データ生成手段と、
前記学習用データを用いて入力用データから出力用データを推論するための学習済みモデルを生成する学習済みモデル生成手段と、
を備えたことを特徴とする学習済みモデル生成システム。
Image data generation means that generates pseudo image data based on 3D data,
Annotation data generation means that generates annotation data based on 3D data,
A learning data generation means for generating learning data including the pseudo image data and the annotation data,
A trained model generation means for generating a trained model for inferring output data from input data using the training data, and a trained model generation means.
A trained model generation system characterized by being equipped with.
JP2019065335A 2019-03-29 2019-03-29 Trained model generation device, program and trained model generation system Active JP7267068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019065335A JP7267068B2 (en) 2019-03-29 2019-03-29 Trained model generation device, program and trained model generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065335A JP7267068B2 (en) 2019-03-29 2019-03-29 Trained model generation device, program and trained model generation system

Publications (2)

Publication Number Publication Date
JP2020166473A true JP2020166473A (en) 2020-10-08
JP7267068B2 JP7267068B2 (en) 2023-05-01

Family

ID=72717523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065335A Active JP7267068B2 (en) 2019-03-29 2019-03-29 Trained model generation device, program and trained model generation system

Country Status (1)

Country Link
JP (1) JP7267068B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091170A1 (en) * 2020-10-26 2022-05-05 三菱電機株式会社 Information processing device, learning data creation system, learning data creation method, and learning data creation program
WO2023175648A1 (en) * 2022-03-14 2023-09-21 三菱電機株式会社 Learning image generation device and learning image generation method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011086889A1 (en) * 2010-01-12 2011-07-21 日本電気株式会社 Feature point selection system, feature point selection method and feature point selection program
JP2014199559A (en) * 2013-03-29 2014-10-23 Kddi株式会社 Viewpoint estimation device and sorter learning method therefor
JP2015207105A (en) * 2014-04-18 2015-11-19 Necフィールディング株式会社 Information processor, information processing system, information processing method and program
WO2016157499A1 (en) * 2015-04-02 2016-10-06 株式会社日立製作所 Image processing apparatus, object detection apparatus, and image processing method
JP2018124939A (en) * 2017-02-03 2018-08-09 日本電信電話株式会社 Image synthesizer, image synthesizing method, and image synthesizing program
JP2018163554A (en) * 2017-03-27 2018-10-18 富士通株式会社 Image processing device, image processing method, image processing program, and teacher data generating method
JP2018169690A (en) * 2017-03-29 2018-11-01 日本電信電話株式会社 Image processing device, image processing method, and image processing program
WO2019021456A1 (en) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント Learning device, recognition device, learning method, recognition method, and program
JP2019023858A (en) * 2017-07-21 2019-02-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Learning data generation device, learning data generation method, machine learning method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011086889A1 (en) * 2010-01-12 2011-07-21 日本電気株式会社 Feature point selection system, feature point selection method and feature point selection program
JP2014199559A (en) * 2013-03-29 2014-10-23 Kddi株式会社 Viewpoint estimation device and sorter learning method therefor
JP2015207105A (en) * 2014-04-18 2015-11-19 Necフィールディング株式会社 Information processor, information processing system, information processing method and program
WO2016157499A1 (en) * 2015-04-02 2016-10-06 株式会社日立製作所 Image processing apparatus, object detection apparatus, and image processing method
JP2018124939A (en) * 2017-02-03 2018-08-09 日本電信電話株式会社 Image synthesizer, image synthesizing method, and image synthesizing program
JP2018163554A (en) * 2017-03-27 2018-10-18 富士通株式会社 Image processing device, image processing method, image processing program, and teacher data generating method
JP2018169690A (en) * 2017-03-29 2018-11-01 日本電信電話株式会社 Image processing device, image processing method, and image processing program
JP2019023858A (en) * 2017-07-21 2019-02-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Learning data generation device, learning data generation method, machine learning method, and program
WO2019021456A1 (en) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント Learning device, recognition device, learning method, recognition method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091170A1 (en) * 2020-10-26 2022-05-05 三菱電機株式会社 Information processing device, learning data creation system, learning data creation method, and learning data creation program
JPWO2022091170A1 (en) * 2020-10-26 2022-05-05
JP7179243B2 (en) 2020-10-26 2022-11-28 三菱電機株式会社 Information processing device, learning data creation system, learning data creation method, and learning data creation program
WO2023175648A1 (en) * 2022-03-14 2023-09-21 三菱電機株式会社 Learning image generation device and learning image generation method

Also Published As

Publication number Publication date
JP7267068B2 (en) 2023-05-01

Similar Documents

Publication Publication Date Title
KR102107709B1 (en) Spatial transformer modules
KR102318772B1 (en) Domain Separation Neural Networks
US20190080206A1 (en) Refining Synthetic Data With A Generative Adversarial Network Using Auxiliary Inputs
US10223839B2 (en) Virtual changes to a real object
GB2559446A (en) Generating a three-dimensional model from a scanned object
US11436755B2 (en) Real-time pose estimation for unseen objects
CN101689308B (en) Imparting three-dimensional characteristics in a two-dimensional space
CN110490959B (en) Three-dimensional image processing method and device, virtual image generating method and electronic equipment
JP7294788B2 (en) Classification of 2D images according to the type of 3D placement
KR20200136723A (en) Method and apparatus for generating learning data for object recognition using virtual city model
JP7267068B2 (en) Trained model generation device, program and trained model generation system
US20200117347A1 (en) Unified Digital Content Selection System for Vector and Raster Graphics
JP2023109570A (en) Information processing device, learning device, image recognition device, information processing method, learning method, and image recognition method
KR102026857B1 (en) 3D printing system using 3D modeling authoring tool based on VR technology
US11295493B2 (en) System and method for generating scalar vector graphics image in an imaginary console
US10755459B2 (en) Object painting through use of perspectives or transfers in a digital medium environment
WO2020067204A1 (en) Learning data creation method, machine learning model generation method, learning data creation device, and program
CN114020390A (en) BIM model display method and device, computer equipment and storage medium
EP3330927A1 (en) Method and apparatus for sculpting a 3d model
KR101630257B1 (en) 3D image providing system and providing method thereof
JP2021039563A (en) Program, device, and method for applying label to depth image as teacher data
JP6917140B2 (en) Image processing device
Zhang et al. Image‐inspired haptic interaction
KR102568699B1 (en) Floor-aware Post-processing method for Point Cloud Generated from 360-degree Panoramic Indoor Images
Yasue et al. Developing a Meta-AR Space Construction System and Mapping Coverage Visualization

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150