JP7300828B2 - Learning data generation system, learning data generation method, learning method for machine learning model - Google Patents
Learning data generation system, learning data generation method, learning method for machine learning model Download PDFInfo
- Publication number
- JP7300828B2 JP7300828B2 JP2018240247A JP2018240247A JP7300828B2 JP 7300828 B2 JP7300828 B2 JP 7300828B2 JP 2018240247 A JP2018240247 A JP 2018240247A JP 2018240247 A JP2018240247 A JP 2018240247A JP 7300828 B2 JP7300828 B2 JP 7300828B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- parts
- images
- modified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
特許法第30条第2項適用 「平成30年度 人口知能技術等を活用した先行図形商標調査業務の高度化・効率化実証的研究事業」平成30年7月27日応募Application of Article 30, Paragraph 2 of the Patent Law "Fiscal 2018 Empirical Research Project for Advancement and Efficiency of Prior Design Trademark Searches Utilizing Artificial Intelligence Technology, etc." Application date: July 27, 2018
本発明は、機械学習モデルの学習に用いる学習データを生成する学習データ生成システム、学習データ生成方法、機械学習モデルの学習方法に関する。 The present invention relates to a learning data generation system, a learning data generation method, and a machine learning model learning method for generating learning data used for learning a machine learning model.
従来、複数の種類のパーツ画像からなるイラスト画像(入力画像)を対象に類似画像検索を行なう場合、イラスト画像及び比較対象の比較画像の各々のパーツ画像の図形における局所特徴である注目点をそれぞれ検出している。
そして、イラスト画像及び比較画像の各々において検出された注目点のそれぞれの一致度合いを求め、この一致度合いにより類似性の判定が行なわれる。
例えば、イラスト画像における、外郭形状、骨格形状、構成要素、配置の特徴を抽出し、これらに対して個別に重み付けをすることで、イラスト画像の全体を特徴付ける要素を決定することが開示されている(例えば、特許文献1)。
Conventionally, when similar image retrieval is performed for an illustration image (input image) composed of a plurality of types of parts images, points of interest, which are local features in figures of each parts image of the illustration image and the comparative image to be compared, are respectively Detecting.
Then, the degree of matching between the points of interest detected in each of the illustration image and the comparison image is obtained, and the degree of similarity is determined based on the degree of matching.
For example, it is disclosed that the outline shape, skeletal shape, constituent elements, and arrangement features are extracted from the illustration image, and the elements that characterize the entire illustration image are determined by individually weighting these features. (For example, Patent Document 1).
ところで、この類似性の判定には、識別用の機械学習モデル(識別用機械学習モデル)が用いられることがあり、この識別用の機械学習モデルを学習させるため、大量の学習データが必要となる。
しかし、上述した注目点の比較を行なう判定方法の場合、イラスト画像の真に比較したい、すなわち真に注目したいパーツ画像以外の注目点が検出される虞があり、真に注目したいパーツ画像(象徴パーツ画像)の類似性を判定することが困難である。
By the way, a machine learning model for discrimination (machine learning model for discrimination) may be used for this similarity judgment, and a large amount of learning data is required to train this machine learning model for discrimination. .
However, in the case of the determination method that compares the points of interest described above, there is a risk that points of interest other than the part images that are to be truly compared, i. It is difficult to determine the similarity of parts images).
しかしながら、機械学習モデルを用いた類似画像の検索の場合、他の一般的な多角形や円状の図形あるいは文字が象徴パーツ画像に重なって形成されたイラスト画像もあり、象徴パーツ画像と他の画像とを完全に分離することが困難である。
すなわち、機械学習モデルを用いて、一般的な多角形や円状の図形あるいは文字を分離あるいは除去しようとする場合、モデルの学習に必要な学習データを多数準備することは非常に手間がかかり、また他の図形が重なった部分については象徴パーツ画像からの分離あるいは除去が不完全になることがある。
However, in the case of searching for similar images using machine learning models, there are also illustration images formed by overlapping other general polygonal or circular figures or characters on the symbolic parts image. It is difficult to separate completely from the image.
In other words, when trying to separate or remove general polygonal or circular graphics or characters using a machine learning model, it is very troublesome to prepare a large amount of learning data necessary for learning the model. In addition, separation or removal from the symbol parts image may be imperfect for portions where other graphics are overlapped.
本発明は、このような事情に鑑みてなされたもので、ディープラーニング(Deep Learning)などを用いた機械学習において、それぞれの機械学習モデルの学習に用いる学習データを、容易に多数生成することが可能な学習データ生成システム、学習データ生成方法、機械学習モデルの学習方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and in machine learning using deep learning, etc., it is possible to easily generate a large number of learning data used for learning of each machine learning model. An object of the present invention is to provide a learning data generation system, a learning data generation method, and a learning method for a machine learning model.
この発明は上述した課題を解決するためになされたもので、本発明の学習データ生成システムは、所定の入力画像に対して予め定められたルールによる変更を加えて変更画像を生成する機械学習モデルの学習に使用する学習用入力画像及び学習用変更画像からなる学習データを生成する学習データ生成システムであり、画像の構成要素となるパーツ画像が記憶された複数の画像データベースと、前記画像データベースの各々から前記パーツ画像を選択する選択部と、前記選択部が選択したパーツ画像を組み合わせた複合画像を生成し、前記学習用入力画像とする複合画像生成部と、前記選択部が選択したパーツ画像における特定のパーツ画像からなる前記学習用変更画像を生成する変更画像生成部とを備えることを特徴とする。 The present invention has been made to solve the above-described problems. A learning data generation system according to the present invention is a machine learning model that generates a modified image by modifying a predetermined input image according to a predetermined rule. a learning data generation system for generating learning data consisting of a learning input image and a learning changed image used for learning of a plurality of image databases storing part images serving as constituent elements of an image; a selection unit that selects the parts image from each; a composite image generation unit that generates a composite image combining the parts images selected by the selection unit and is used as the learning input image; and the parts image selected by the selection unit. and a modified image generation unit that generates the modified learning image composed of the specific parts image in the above.
本発明の学習データ生成システムは、前記画像データベースが、前記学習用入力画像に対する視覚印象を観察した際に与える象徴的なパーツ画像である象徴パーツ画像が蓄積された象徴図形データベースと、前記象徴パーツ画像の象徴性を補う、それ自体に象徴性を有さない一般的なパーツ画像である一般パーツ画像が蓄積された一般図形データベースとを含むことを特徴とする。 The learning data generation system of the present invention comprises a symbolic graphic database in which symbolic part images are accumulated, which are symbolic part images given when the visual impression of the input image for learning is observed, in the image database; and a general graphic database in which general parts images, which are general parts images having no symbolism themselves, are stored to supplement the symbolicity of the image.
本発明の学習データ生成システムは、前記画像データベースが、文字を示すパーツ画像である文字パーツ画像が蓄積された文字図形データベースを含むことを特徴とする。 The learning data generation system of the present invention is characterized in that the image database includes a character/graphic database in which character part images, which are part images representing characters, are accumulated.
本発明の学習データ生成システムは、前記学習用入力画像が、前記象徴パーツ画像に加えて、前記一般パーツ画像及び前記文字パーツ画像のいずれか、あるいは双方とから構成され、前記学習用変更画像が、前記学習用入力画像における前記象徴パーツ画像のみが配置されていることを特徴とする。 In the learning data generation system of the present invention, the input image for learning is composed of the symbol parts image and either or both of the general parts image and the character parts image, and the modified learning image is , wherein only the symbol parts image is arranged in the input image for learning.
本発明の学習データ生成システムは、前記パーツ画像の各々の形状を変形する形状拡張部をさらに備えることを特徴とする。 The learning data generation system of the present invention is characterized by further comprising a shape expansion unit that deforms the shape of each part image.
本発明の学習データ生成システムは、前記学習データ生成システムが生成器と識別機とを備え、前記生成器は、前記学習用入力画像から所定の要素を抽出して学習用生成画像を生成する機械学習モデルからなり、前記識別機は、前記学習用入力画像及び前記学習用変更画像からなる学習データ、または、前記学習用入力画像及び前記学習用生成画像からなる学習データの評価を行う機械学習モデルからなる、ことを特徴とする。 In the learning data generation system of the present invention, the learning data generation system includes a generator and a discriminator, and the generator is a machine that extracts predetermined elements from the input image for learning and generates a generated image for learning. a learning model, wherein the classifier evaluates learning data consisting of the learning input image and the learning modified image, or learning data consisting of the learning input image and the learning generated image. It consists of
本発明の学習データ生成システムは、前記機械学習モデルがセマンティックセグメンテーションであり、前記学習用変更画像が前記学習用入力画像における前記パーツ画像の各々の種類が選別され、当該種類を示すラベルを付与する変更が行われていることを特徴とする。 In the learning data generation system of the present invention, the machine learning model is semantic segmentation, the modified image for learning is selected for each type of the parts image in the input image for learning, and a label indicating the type is added. Characterized by changes being made.
本発明の学習データ生成方法は、所定の入力画像に対して予め定められたルールによる変更を加えて変更画像を生成する機械学習モデルの学習に使用する学習用入力画像及び学習用変更画像からなる学習データをコンピュータシステムが生成する学習データ生成方法であり、画像の構成要素となるパーツ画像が記憶された複数の画像データベースの各々から前記パーツ画像を選択する選択過程と、前記選択過程において選択されたパーツ画像を組み合わせた複合画像を生成し、前記学習用入力画像とする複合画像生成過程と、前記選択過程において選択されたパーツ画像における特定のパーツ画像からなる前記学習用変更画像を生成する変更画像生成過程とを含むことを特徴とする。 The learning data generation method of the present invention comprises a learning input image and a learning modified image used for learning a machine learning model that generates a modified image by modifying a predetermined input image according to a predetermined rule. A learning data generation method in which a computer system generates learning data, comprising: a selection process of selecting the parts image from each of a plurality of image databases in which parts images constituting an image are stored; a composite image generation process of generating a composite image by combining the parts images, and using it as the input image for learning; and an image generation process.
本発明の機械学習モデルの学習方法は、所定の入力画像に対して予め定められたルールによる変更を加えて変更画像を生成する機械学習モデルをコンピュータシステムが学習する学習方法であり、画像の構成要素となるパーツ画像が記憶された複数の画像データベースの各々から、前記所定の入力画像の学習用データである学習用入力画像の生成に用いる前記パーツ画像を選択する選択過程と、前記選択過程において選択された前記パーツ画像を組み合わせた複合画像を生成し、前記学習用入力画像とする複合画像生成過程と、前記選択過程において選択されたパーツ画像における特定のパーツ画像からなる学習用変更画像を生成する変更画像生成過程と、前記学習用入力画像を入力することにより、前記学習用変更画像が出力される前記機械学習モデルを学習させる学習過程とを含むことを特徴とする。 The machine learning model learning method of the present invention is a learning method in which a computer system learns a machine learning model that generates a modified image by modifying a predetermined input image according to a predetermined rule. a selection process of selecting the parts image used for generating the learning input image, which is learning data for the predetermined input image, from each of a plurality of image databases storing element parts images; A composite image generation process of generating a composite image by combining the selected part images and using it as the learning input image, and generating a learning modified image composed of a specific part image in the part image selected in the selection process. and a learning process of inputting the learning input image and training the machine learning model outputting the learning modified image.
この発明によれば、ディープラーニング(Deep Learning)等を用いた機械学習において、それぞれの機械学習モデルの学習に用いる学習データを、容易に多数生成することが可能な学習データ生成システム、学習データ生成方法、機械学習モデルの学習方法を提供することができる。 According to the present invention, in machine learning using deep learning or the like, a learning data generation system capable of easily generating a large number of learning data used for learning each machine learning model, and a learning data generation system. A method, a learning method for a machine learning model can be provided.
<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による学習データ生成システムについて説明する。図1は、本発明の第1の実施形態による学習データ生成システムの構成例を示す図である。本実施形態においては、GAN(Generative Adversarial Network)の学習用データの生成を例として説明する。
図1において、本実施形態における学習データ生成システム1は、制御部11、パーツ画像選択部12、文字列生成部13、形状拡張部14、複合画像生成部15、画像表示部16、象徴図形データベース17、一般図形データベース18、文字図形データベース19及び学習用画像データ記憶部20の各々を備えている。また、学習データ生成システム1は、後述する識別機501及び生成器502(図5、図6参照)を含む構成としても良い。
<First embodiment>
A learning data generation system according to a first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration example of a learning data generation system according to a first embodiment of the present invention. In this embodiment, generation of learning data for a GAN (Generative Adversarial Network) will be described as an example.
In FIG. 1, the learning data generation system 1 in this embodiment includes a
制御部11は、図示しない入力手段(キーボード、マウスによる画面選択)から入力される制御信号を、この制御信号の示す制御内容に対応させて、パーツ画像選択部12、文字列生成部13、形状拡張部14、複合画像生成部15及び画像表示部16のそれぞれに出力する。また、制御部11は、外部から供給される象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々を、象徴図形データベース17、一般図形データベース18、文字図形データベース19それぞれに対して書き込んで記憶させる。
The
パーツ画像選択部12は、画像表示部16の表示画面に対して、パーツ画像選択画面を表示する。ここで、パーツ画像は、本実施形態において、組み合わせて一つの複合画像とされた、学習用データにおける学習用入力画像の生成に用いる画像である。本実施形態においては、学習用データは、学習用入力画像及び学習用変更画像の各々の画像データの組として構成されている。
The parts
図2は、本実施形態の学習データ生成システムにおける学習用データの生成の流れを説明する概念図である。図2(a)は、画像表示部16の表示画面における学習用データの画像領域16Sを示している。また、図2(a)は、パーツ画像が何も表示されておらず、画像領域16Sのみが表示されている。この画像領域16Sは、縦及び横の各々の所定のピクセル数により、領域の高さと幅を指定することでサイズが特定される。
図2(b)は、象徴パーツ画像101が作業者により選択され、画像表示部16の表示画面における画像領域16Sの所定の位置に、選択された象徴パーツ画像101が配置された状態を示している。ここで、象徴パーツ画像は、任意の画像を観察した際、観察者が特徴と感じる視覚的印象を与える象徴的な図形の画像データであり、一般パーツ画像に比較して相対的に複雑な形状をした画像である。本実施形態では、複数の象徴パーツ画像が、象徴図形データベース17に予め書き込まれて記憶されている。
FIG. 2 is a conceptual diagram illustrating the flow of learning data generation in the learning data generation system of this embodiment. 2A shows an
FIG. 2(b) shows a state in which the
次に、図2(c)は、一般パーツ画像102が作業者により選択され、画像表示部16の表示画面における画像領域16Sの所定の位置に、選択された一般パーツ画像102が象徴パーツ画像101とともに配置された状態を示している。ここで、一般パーツ画像は、複合画像として学習用入力画像を生成する際、上述した象徴パーツ画像と組み合わせる、観察者が一般的と感じる視覚的印象を与える図形、例えば直線状、曲線状、多角形状や円状の図形の画像データであり、象徴パーツ画像に比較して相対的に単純な形状をした画像である。すなわち、一般パーツ画像は、象徴パーツ画像の象徴性を補う、それ自体に象徴性を有さない一般的な画像である。本実施形態では、複数の一般パーツ画像が、一般図形データベース18に予め書き込まれて記憶されている。
Next, in FIG. 2C, a
そして、図2(d)は、文字パーツ画像103が作業者により選択され、画像表示部16の表示画面における画像領域16Sの所定の位置に、選択された文字パーツ画像103が文字列画像として象徴パーツ画像101及び一般パーツ画像102とともに配置された状態を示している。ここで、文字パーツ画像は、漢字、ひらがな、カタカナ、アルファベット、数字などの一文字の画像であり、複合画像として学習用入力画像を生成する際、上述した象徴パーツ画像と組み合わせられる。また、文字パーツ画像103は、単数あるいは複数により、意味のある単語を示す文字列とされて用いられが、これに限らず意味の無い文字列であってもよい。本実施形態では、所定の文字コード(テキスト形式)に基づき、フォントや色などの文字飾りを指定して生成された文字パーツ画像が、文字図形データベースに予め書き込まれて記憶されている。
FIG. 2D shows that the
本実施形態においては、図2(b)(すなわち、図2(e))が学習用変更画像として用いられ、図2(d)が学習用入力画像として用いられる。すなわち、図2(d)に示す学習用入力画像と、図2(e)に示す学習用変更画像との組により、学習用データ100が構成されている。 In this embodiment, FIG. 2(b) (that is, FIG. 2(e)) is used as the modified image for learning, and FIG. 2(d) is used as the input image for learning. That is, the learning data 100 is composed of a set of the learning input image shown in FIG. 2(d) and the learning modified image shown in FIG. 2(e).
図1に戻り、文字列生成部13は、作業者が文字コードの各々を配列する順に文字列画像を生成する。例えば、図2(d)における「ニゴニゴハウス」の文字列画像は、「ニ」、「ゴ」、「ニ」、「ゴ」、「ハ」、「ウ」、「ス」のそれぞれの文字パーツ画像が順番に配列されて形成される。なお、文字列として配列させる際、この文字列に配列させる文字コードをランダムに指定してもよく、この場合は意味の無い文字列画像が形成される。
また、「ニ」、「ゴ」、「ニ」、「ゴ」、「ハ」、「ウ」、「ス」のそれぞれの文字パーツ画像は、パーツ画像選択部12により作業者の設定により選択される。なお、画像領域16Sにおいて、文字飾りの配置をランダムに指定してもよく、この場合は指定した数の一の文字列から、複数の文字列画像が文字飾りとして形成される。
Returning to FIG. 1, the character
In addition, the character part images of "ni", "go", "ni", "go", "ha", "u", and "su" are selected by the operator's setting by the parts
形状拡張部14は、配置された象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々の図形の形状を変化させる処理を、作業者の入力する条件に対応して行なう。なお、形状拡張部14は、上述した図形の形状を変化させる処理をランダムに行っても良い。
例えば、象徴パーツ画像であれば、拡大、縮小、縦横比、図形を形成する線分の太さなどを変化させる。また、一般パーツ画像においても、拡大、縮小、縦横比、図形を形成する線分の太さなどを変化させる。文字パーツ画像においては、拡大、縮小、縦横比、図形を形成する線分の太さ、フォント、色などを変化させる。なお、形状拡張部14は、上述し文字パーツ画像の形状を変化させる処理を、文字飾りの文字列における文字パーツ画像毎にランダムに行っても良い。
The
For example, in the case of a symbol parts image, enlargement, reduction, aspect ratio, thickness of line segments forming a figure, etc. are changed. In general parts images as well, enlargement, reduction, aspect ratio, thickness of line segments forming figures, etc. are changed. In the character part image, enlargement, reduction, aspect ratio, thickness of line segment forming the figure, font, color, etc. are changed. Note that the
形状拡張部14は、画像領域16S内に配置された象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々の図形の位置を変化させる処理を、作業者が入力する条件に対応して行う。なお、この象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々の図形の位置を変化させる処理は、ランダムに行っても良い。また、図形の位置を変化させる処理をランダムに行う場合、画像領域16Sを複数の区画に分割し、象徴パーツ画像、一般パーツ画像及び文字パーツ画像のいずれかの一の画像が配置された区画とは異なる区画に対し、一の画像と異なる他の画像を配置することで、象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々の重なりを避けるように配置してもよい。
The
複合画像生成部15は、画像領域16S内に配置された、パーツ画像選択部12が選択した象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々を合成して複合画像を生成し、この複合画像を学習用入力画像とする。
そして、複合画像生成部15は、画像領域16Sに対して象徴画像のみが配置された画像を学習用変更画像とし、上記学習用入力画像とともに学習用データを構成し、学習用画像データ記憶部20に対して書き込んで記憶させる。
画像表示部16は、画像表示装置であり、例えば、カラーの液晶パネルである。
The composite
Then, the composite
The
象徴図形データベース17は、象徴パーツ画像の種類に分類される図形の画像が蓄積されているデータベースである。
一般図形データベース18は、一般パーツ画像の種類に分類される図形の画像が蓄積されているデータベースである。
文字図形データベース19は、文字パーツ画像の種類に分類される図形の画像が蓄積されているデータベースである。これら象徴パーツ画像、一般パーツ画像及び文字パーツ画像は、学習用入力画像を構成する際の構成要素として用いられる。
The
The
The character/
学習用画像データ記憶部20は、複合画像生成部15により学習用データが書き込まれて記憶されている。
図3は、学習用画像データ記憶部20に記憶されている学習用データの例を示す図である。図3(a)が学習用入力画像201aと学習用変更画像201bとで学習用データ201が形成されている。図3(b)が学習用入力画像202aと学習用変更画像202bとで学習用データ202が形成されている。図3(c)が学習用入力画像203aと学習用変更画像203bとで学習用データ203が形成されている。図3(d)が学習用入力画像204aと学習用変更画像204bとで学習用データ204が形成されている。
The learning image
FIG. 3 is a diagram showing an example of learning data stored in the learning image
図3(a)及び図3(b)の各々の学習用入力画像は、象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々を用いて形成されている。ただし、図3(a)は、文字列が横方向に配列された文字パーツ画像から形成されている。一方、図3(b)は、文字列が縦方向に配列された文字パーツ画像から形成されている。
図3(c)の学習用入力画像は、象徴パーツ画像と変形された一般パーツ画像とから構成され、文字パーツ画像を含んでいない。
また、図3(d)の学習用入力画像は、象徴パーツ画像と文字パーツ画像が配列して形成された文字列(「山小屋ホテル」の文字列)とから構成され、一般パーツ画像を含んでいない。
Each learning input image in FIGS. 3A and 3B is formed using symbol parts images, general parts images, and character parts images. However, FIG. 3A is formed from character part images in which character strings are arranged in the horizontal direction. On the other hand, FIG. 3B is formed from character part images in which character strings are arranged in the vertical direction.
The input image for learning in FIG. 3(c) is composed of symbol parts images and deformed general parts images, and does not contain character parts images.
The input image for learning in FIG. 3(d) is composed of a symbol part image and a character string formed by arranging character part images (a character string of "Yamagoya Hotel"), and includes a general part image. not present.
上述したように、学習用入力画像は、象徴図形データベース17に記憶されている象徴パーツ画像を核の画像として、一般図形データベース18に記憶されている一般パーツ画像、文字図形データベース19に記憶されている文字パーツ画像のいずれか、あるいは双方を配置した複合画像として形成される。
一方、学習用変更画像は、象徴パーツ画像のみが配置された画像として形成される。
As described above, the learning input images are stored in the general parts image stored in the general
On the other hand, the modified image for learning is formed as an image in which only symbol parts images are arranged.
GANにおいては、機械学習モデルとして、生成器(図6における生成器502)及び識別器(図5及び図6における識別器501)の各々の2種類があり、生成器の機械学習モデルは、入力される学習用入力画像の象徴部分のみを抽出した学習用生成画像として出力する機能(所定のルール)を有する。そして、制御部11は、上記生成器(生成器502)の機械学習モデルから得た学習用生成画像もまた、上記学習用入力画像とともに学習用データを構成し、学習用画像データ記憶部20に対して書き込んで記憶させる。
In GAN, there are two types of machine learning models: a generator (
また、識別機(識別器501)の機械学習モデルは、学習用入力画像と学習用変更画像とからなる学習用データ、または、学習用入力画像と学習用生成画像とからなる学習用データを入力する。そして、上記識別器501は、上記学習用データを入力した際、入力された学習用データが、学習用変更画像(すなわち象徴図形データベース17に格納された象徴パーツ画像のみからなる画像)を含む場合には「本物」と判定し、一方、学習用生成画像(すなわち生成器502により生成された画像)を含む場合には「偽物」と判定する機能を有する。
In addition, the machine learning model of the classifier (classifier 501) receives learning data consisting of a learning input image and a learning modified image, or learning data consisting of a learning input image and a learning generated image. do. When the learning data is input to the
そして、上記機械学習モデル全体(識別器501及び生成器502)としては、学習過程において、既知である学習用画像の「本物」または「偽物」の別(区別)と、識別機501が判定した「本物」または「偽物」の度合とを比較する。識別機501が判定した「偽物」らしさの度合に応じて、識別器501を欺いて判定結果が「本物」となる学習用生成画像を生成器502に生成させるため、識別器501の判定結果の出力値(後述する評価値)が生成器502に対してフィードバックされる。
換言すると、識別機501が「偽物」を「偽物」らしいと判定した場合とは、生成器502が生成した学習用生成画像(学習用入力画像から特徴部と思しき箇所を抽出した画像)の精度が低く、学習用変更画像(最終的に抽出したい特徴部の画像)と異なることを識別機501が容易に識別できる場合、と評価できるため、生成器502の抽出精度を向上させるべく、出力値のフィードバックを行うのである。
Then, as for the entire machine learning model (
In other words, when the
さらに、生成器502の学習が進む(識別器501を欺いて判定結果が「本物」となる学習用生成画像を生成できるようになる)につれて、生成器502が生成した学習用生成画像は、学習用変更画像に徐々に近似していく。この段階に至ると、識別機501は、入力された学習用データの「本物」と「偽物」の別を正しく判定できなくなり、判定を誤る状況となる。
換言すると、識別機501が「偽物」を「本物」と誤って判定した場合とは、生成器502が生成した学習用生成画像の精度が高く、学習用変更画像と異なることが識別機501にとって定かでない場合、と評価できる。このように、識別機501が「偽物」を「本物」と誤って判定する学習用生成画像を生成器502が生成することこそ、生成器502の学習の完了を意味する。
Furthermore, as the learning of the
In other words, when the
そして、上述のように機械学習モデルを機械学習させた学習済モデルである生成器502を用いて、画像の類似性を判定するシステムを構成すれば、未知の一般画像に対して、精度よく画像の特徴部(例えば、抽象パーツ画像に類する抽象的な画像部分)を抽出することが可能となる。
Then, if a system for judging image similarity is configured using the
図4は、GANの学習に用いる学習用データの生成の動作例を示すフローチャートである。
ステップS101:パーツ画像選択部12は、象徴図形データベース17に記憶されている象徴パーツ画像を読み出し、画像表示部16の表示画面における画像領域16Sの近傍の領域に、読み出した象徴パーツ画像の各々を表示する。
FIG. 4 is a flowchart showing an operation example of generating learning data used for GAN learning.
Step S101: The parts
ステップS102:作業者は、画像表示部16の表示画面に表示された象徴パーツ画像の各々を観察し、これらの象徴パーツ画像のなかから、学習用データの生成に使用する象徴パーツ画像を選択する。
そして、作業者は、選択した象徴パーツ画像を、画像領域16Sの所定の位置に移動させて配置する。
Step S102: The operator observes each symbolic part image displayed on the display screen of the
Then, the operator moves the selected symbol parts image to a predetermined position in the
ステップS103:次に、パーツ画像選択部12は、画像表示部16の表示画面に対して、一般パーツ画像の選択を行なうか否かを選択する通知の表示を行なう。
すなわち、パーツ画像選択部12は、学習用入力画像に対して、象徴パーツ画像とともに一般パーツ画像を含めるか否かの判定を、作業者に対して促す。
このとき、作業者は、学習用入力画像に一般パーツ画像を含ませないと判断した場合、一般パーツ画像の選択を行なわないことを示す入力を行なう。一方、作業者は、学習用入力画像に一般パーツ画像を含ませると判断した場合、一般パーツ画像の選択を行なうことを示す入力を行なう。
Step S103: Next, the parts
That is, the parts
At this time, if the operator determines that the general parts image should not be included in the input image for learning, the operator performs an input indicating that the general parts image is not to be selected. On the other hand, when the operator determines that the general parts image should be included in the learning input image, the operator performs an input indicating selection of the general parts image.
そして、パーツ画像選択部12は、作業者が一般パーツ画像を学習用入力画像に配置することを選択した場合、処理をステップS104へ進める。
一方、パーツ画像選択部12は、作業者が一般パーツ画像を学習用入力画像に配置しないことを選択した場合、処理をステップS106へ進める。
Then, when the operator selects to arrange the general parts image in the learning input image, the parts
On the other hand, when the operator selects not to arrange the general parts image in the learning input image, the parts
ステップS104:パーツ画像選択部12は、一般図形データベース18に記憶されている一般パーツ画像を読み出し、画像表示部16の表示画面における画像領域16Sの近傍の領域に、読み出した一般パーツ画像の各々を表示する。
Step S104: The parts
ステップS105:作業者は、画像表示部16の表示画面に表示された一般パーツ画像の各々を観察し、これらの一般パーツ画像のなかから、学習用データの生成に使用する一般パーツ画像を選択する。
そして、作業者は、画像領域16Sにおいてすでに配置されている象徴パーツ画像の位置に対応させて、選択した一般パーツ画像を画像領域16Sの所定の位置に移動させて配置する。
Step S105: The operator observes each of the general parts images displayed on the display screen of the
Then, the operator moves the selected general parts image to a predetermined position in the
ステップS106:パーツ画像選択部12は、画像表示部16の表示画面に対して、文字パーツ画像の選択を行なうか否かを選択する通知の表示を行なう。
すなわち、パーツ画像選択部12は、学習用入力画像に対して、象徴パーツ画像とともに文字パーツ画像を含めるか否かの判定を、作業者に対して促す。
このとき、作業者は、学習用入力画像に文字パーツ画像を含まないと判断した場合、文字パーツ画像の選択を行なわないことを示す入力を行なう。一方、作業者は、学習用入力画像に文字パーツ画像を含ませると判断した場合、文字パーツ画像の選択を行なうことを示す入力を行なう。
Step S106: The parts
That is, the parts
At this time, when the operator determines that the input image for learning does not include the character part image, the operator performs an input indicating that no character part image is to be selected. On the other hand, when the operator determines to include the character part image in the input image for learning, the operator performs an input indicating selection of the character part image.
そして、パーツ画像選択部12は、作業者が文字パーツ画像を学習用入力画像に配置することを選択した場合、処理をステップS107へ進める。
一方、パーツ画像選択部12は、作業者が文字パーツ画像を学習用入力画像に配置しないことを選択した場合、処理をステップS109へ進める。
Then, when the operator selects to arrange the character parts image in the input image for learning, the parts
On the other hand, when the operator selects not to arrange the character parts image in the input image for learning, the parts
ステップS107:パーツ画像選択部12は、文字図形データベース19に記憶されている文字パーツ画像を読み出し、画像表示部16の表示画面における画像領域16Sの近傍の領域に、読み出した文字パーツ画像の各々を表示する。
Step S107: The part
ステップS108:作業者は、画像表示部16の表示画面に表示された文字パーツ画像の各々を観察し、これらの文字パーツ画像のなかから、学習用データの生成に使用する文字パーツ画像を単数あるいは複数個選択する。
そして、文字列生成部13は、作業者が、画像領域16Sにおいてすでに配置されている象徴パーツ画像の位置に対応させて、選択した文字パーツ画像の各々を画像領域16Sの所定の位置に移動させる処理に対応させた文字列(単数で選択した際、一文字の文字列となる)を一つの文字列画像として生成する。
Step S108: The operator observes each of the character part images displayed on the display screen of the
Then, the
ステップS109:複合画像生成部15は、画像表示部16の表示画面における画像領域16S内の画像を合成して複合画像を生成し、この複合画像を学習用入力画像とする。
また、複合画像生成部15は、ステップS102における象徴パーツ画像が配置された画像領域16Sを、学習用変更画像として象徴パーツ画像のみの画像を生成する。
そして、複合画像生成部15は、生成した学習用入力画像及び学習用変更画像の各々を組み合わせて、学習用データとして学習用画像データ記憶部20に対して書き込んで記憶させる。
Step S109: The composite
In addition, the composite
Then, the composite
また、ここで、複合画像生成部15は、象徴パーツ画像、一般パーツ画像及び文字列画像の各々を組み合わせた配置において、画像領域16S内の上下左右の配置位置、それぞれのパーツ画像の重なり具合などのレイアウトパターンの各々を表示し、ユーザが選択したレイアウトパターンに従って、象徴パーツ画像、一般パーツ画像、文字列画像のそれぞれを配置させる構成としても良い。なお、象徴パーツ画像に対して同様の処理を行っても良い。
Further, here, the composite
ステップS110:次に、形状拡張部14は、画像表示部16の表示画面における画像領域16S内の画像を変形する形状拡張処理を行なうか否かの判定を促す通知画像を、画像表示部16の表示画面に表示する。
すなわち、形状拡張部14は、画像領域16S内の画像に対して、例えば一般パーツ画像の変形、文字列画像の変形、一般パーツ画像の画像領域16S内における配置位置の移動、文字列画像の画像領域16S内における配置位置の移動、象徴パーツ画像の画像領域16S内における配置位置の移動などの形状拡張処理を実行するか否かの判定を、作業者に対して促す。なお、象徴パーツ画像に対しても同様に、上述した形状拡張処理を行っても良い。
Step S110: Next, the
That is, the
そして、形状拡張部14は、作業者が画像領域16S内の画像に対して形状拡張処理を実行することを選択した場合、処理をステップS111へ進める。
一方、パーツ画像選択部12は、作業者が画像領域16S内の画像に対して形状拡張処理を実行しないことを選択した場合、処理をステップS112へ進める。
Then, when the operator selects to execute the shape expansion process on the image within the
On the other hand, when the operator selects not to perform the shape expansion process on the image within the
ステップS111:次に、形状拡張部14は、作業者の操作に対応して、画像領域16Sに配置された一般パーツ画像及び文字パーツ画像の各々のいずれかあるいは双方との図形を変形させるデータ拡張処理を行なう。
ここで、データ拡張処理としては、すでに述べたように、一般パーツ画像の変形、文字列画像の変形、一般パーツ画像の画像領域16S内における配置位置の移動、文字列画像の画像領域16S内における配置位置の移動、象徴パーツ画像の画像領域16S内における配置位置の移動などである。
Step S111: Next, the
Here, as described above, the data extension processing includes deformation of the general parts image, deformation of the character string image, movement of the arrangement position of the general parts image within the
一般パーツ画像の変形は、例えば、直線の太さや長さを変えたり(拡大や縮小も含む)、破線、波線、一点鎖線などの線種を変更したり、色を変更したり、あるいは多角形であれば形状を変化させたり、象徴パーツ画像に対する相対位置を変化させたり、反転あるいは回転させたりなどの処理、あるいはこれらの処理の組合せが含まれる。
文字列画像の変形は、例えば、文字パーツ画像の各々のフォントを変えたり、文字列画像を屈曲させたり、文字列における文字パーツ画像を削除したり、文字列における文字パーツ画像の各々の拡大縮小を行なったり、象徴パーツ画像に対する相対位置を変化させたり、反転あるいは回転させたり、文字パーツ画像の間隔の調整などの処理、あるいはこれらの処理の組合せが含まれる。
General part images can be transformed, for example, by changing the thickness and length of straight lines (including enlargement and reduction), changing line types such as dashed lines, wavy lines, and dashed-dotted lines, changing colors, and changing polygons. If so, processing such as changing the shape, changing the position relative to the symbol parts image, reversing or rotating, or a combination of these processing is included.
Transformation of the character string image includes, for example, changing the font of each character part image, bending the character string image, deleting the character part image in the character string, and scaling each character part image in the character string. , changing the relative position with respect to the symbol part image, reversing or rotating the character part image, adjusting the interval between the character part images, or a combination of these processes.
また、象徴パーツ画像の変形は、拡大、縮小、反転あるいは回転させたり、画像領域16S内における配置位置の移動、図形を描画する線種の変更などの処理、あるいはこれらの処理の組合せが含まれる。
上述したデータ拡張処理により、一回配置した画像領域16S内の画像から、多数の変形された学習用入力画像が生成されるため、これを学習用変更画像と組み合わせることで、容易に多数の学習データを生成することができる。
Further, deformation of the symbol parts image includes processing such as enlargement, reduction, inversion or rotation, movement of the arrangement position within the
By the above-described data augmentation processing, a large number of transformed input images for learning are generated from the images in the
ステップS112:複合画像生成部15は、学習データの生成を終了するか否かの判定を促す通知画像を、画像表示部16の表示画面に表示する。
そして、形状拡張部14は、作業者が学習データの生成を終了することを選択した場合、処理を終了する。
一方、パーツ画像選択部12は、作業者が学習データの生成を終了しないことを選択した場合、処理をステップS101へ進める。
Step S112: The composite
Then, when the operator selects to terminate the generation of learning data, the
On the other hand, when the operator selects not to finish generating the learning data, the parts
次に、GANにおける機械学習モデルの学習としては、上述した処理で生成した学習用データを用いて識別器の学習を行なわせる。
図5は、機械学習モデルである識別器の初期学習を説明する概念図である。図5において、識別器501に対して、学習用データ201の学習用入力画像201aと学習用変更画像201b(本物)とを入力し、本物なので識別情報(評価値)を「1」として学習を行なわせる。同様に、識別器501に対して、学習用データ202の学習用入力画像202aと学習用変更画像202b(本物)とを入力し、本物なので識別情報(評価値)を「1」として学習を行なわせる。また、識別器501に対して、学習用データ205として、学習用入力画像205aと、予め準備した学習用生成画像205b(偽物)と入力し、偽物なので識別情報(評価値)を「0」として学習を行なわせる。
この識別器501に対する学習の処理を、学習用画像データ記憶部20に蓄積された多くの学習用データにより行い、初期学習を行なう。
Next, as the learning of the machine learning model in the GAN, learning of the classifier is performed using the learning data generated by the above-described processing.
FIG. 5 is a conceptual diagram illustrating initial learning of a classifier, which is a machine learning model. In FIG. 5, a learning
The learning process for the
図6は、学習データを用いてGANの生成器と識別器との学習を説明する概念図である。図6において、生成器502は識別器501と同様に機械学習モデルであるが、識別器501と真贋判定を行なうのではなく、画像生成を行なう機械学習モデルである。すなわち、本実施形態においては、入力画像から象徴パーツ画像を抜き出し、学習用生成画像に変更する、言い換えると入力画像から一般パーツ画像及び文字パーツ画像の各々を除去する機械学習モデルである。ここで、識別器501は、すでに述べた初期学習が済んでいることを前提としている。
FIG. 6 is a conceptual diagram illustrating learning of a GAN generator and classifier using learning data. In FIG. 6, the
GANの学習としては、学習用データ201における学習用入力画像201aを生成器502へ入力する。これにより、生成器502は、学習用入力画像201aに対して何らかの変更を行ない、変更画像として学習用生成画像201a’を出力する。
そして、識別器501に対して、学習用入力画像201aと学習用変更画像201bとの組からなる学習データ、または学習用入力画像201aと学習用生成画像201a’との組からなる学習データを供給する。
識別器501は、入力(供給)された学習用データが、学習用変更画像(すなわち象徴図形データベース17に格納された象徴パーツ画像のみからなる画像)を含む場合には「本物」と判定して「1」に近い値を評価値として出力し、学習用生成画像(すなわち生成器502により生成された画像)を含む場合には「偽物」と判定して「0」に近い値を評価値として出力する。識別器501は、判定結果の評価値を、生成器502に対して出力する。
For GAN learning, a learning
Then, the
The
生成器502の学習の目的は、識別器501を欺くよう学習用生成画像を、生成器502が作成することであるため、識別器501による学習用生成画像の出力する評価値が「1」となることが望ましい。
そこで、生成器501の学習においては、「本物」を示す「1」と、識別器501の出力した評価値との差分であるロスが小さくなるよう、生成器502のパラメータ(例えば、機械学習モデルにおける関数のパラメータ)の更新を行う。
この学習において、学習用データは、学習用画像データ記憶部20に格納されている学習用データ(学習用入力画像及び学習用生成画像の組)を用いて行なわれる。
Since the purpose of the learning of the
Therefore, in the learning of the
In this learning, learning data (a set of a learning input image and a learning generated image) stored in the learning image
これにより、上述したGANの学習により、生成器502は、徐々に、入力される学習用入力画像から象徴パーツ画像のみを抽出した学習用生成画像を生成するように学習される。
一方、識別器501は、徐々に入力される学習用入力画像と学習用生成画像との比較において、学習用生成画像を偽物と判定できる確率が低下していく。
したがって、理論的には、学習済みのGANにおいては、識別器501が、学習用入力画像と、生成器502が生成した学習用生成画像との真贋判定で50%の割合で、学習用生成画像を本物あるいは偽物と判定する状態まで、識別器501及び生成器502の各々が学習される。なお、実際には、システムの出力値と期待する値との差をロスと呼び、学習回数を繰り返してこのロスを減少させるよう学習を行い、識別機501のロスと生成器502のロスとの、双方の減少幅が収束する状態まで学習を繰り返す。また、識別機501及び生成器502の学習は、学習用生成画像の生成と、生成された学習用生成画像の評価値のフィードバックの繰り返しを所定回数実行した段階で終了するものとしてもよい。
As a result, the
On the other hand, the
Therefore, theoretically, in a trained GAN, the
上述したように、本実施形態によれば、象徴図形データベース17、一般図形データベース18及び文字図形データベース19の各々から、象徴パーツ画像、一般パーツ画像、文字パーツ画像それぞれを選択し、画像表示部16の表示画面における画像領域16Sに配置する処理により、学習用入力画像と学習用変更画像とを組とした学習用データを生成することができるため、GANにおける識別器501及び生成器502の機械学習モデルの学習に用いる学習データを容易に大量に生成することができる。
As described above, according to this embodiment, the symbol parts image, the general parts image, and the character parts image are selected from the
また、本実施形態によれば、画像表示部16の表示画面における画像領域16Sに象徴パーツ画像、一般パーツ画像及び文字パーツ画像の各々を配置して一つの学習用データを作成した後、この配置のレイアウトの変更、あるいは象徴パーツ画像、一般パーツ画像、文字パーツ画像のそれぞれのデータ拡張処理を行なうことにより、作成した学習用データの変形バージョンを生成することにより、学習用データのバリエーションを容易に増加させ、容易に大量の学習用データを得ることができる。
Further, according to the present embodiment, after each of the symbol parts image, the general parts image, and the character parts image is arranged in the
なお、本実施形態においては、各々のパーツ画像の選択(ステップS101、S104、S107)を作業者が行うものとしたが、システム化する(学習データ生成システム1に対して、パーツ画像の選択を予め設定された選択ルールに基づいて行なう機能のアプリケーションを加える)ことで機械的に行ってもよい。この場合、上記選択ルールとしては、例えば、象徴図形データベース17、一般図形データベース18、文字図形データベース18に格納された各々の画像を、順番に選択したり、ランダムに選択したりするものとすればよい。
In this embodiment, the selection of each part image (steps S101, S104, S107) is performed by the operator, but systematization (selection of the part image for the learning data generation system 1 It may be performed mechanically by adding an application of a function performed based on preset selection rules. In this case, as the selection rule, for example, the images stored in the symbolic
また、本実施形態においては、画像領域16Sにおける各々のパーツ画像の配置(ステップS102、S105、S108)を作業者が行うものとしたが、システム化する(学習データ生成システム1に対して、パーツ画像の配置を予め設定された配置ルールに基づいて行なう機能のアプリケーションを加える)ことで機械的に行ってもよい。この場合、上記配置ルールとしては、例えば、画像領域16Sを仮想的に複数の区画に分割し、各々のパーツ画像をそれぞれの区画に順番に配置したり、ランダムに配置したりするものとすればよい。
In addition, in the present embodiment, the placement of each part image in the
また、本実施形態においては、一般パーツ画像の使用、文字パーツ画像の使用の判断(ステップS103、S106)を作業者が行うものとしたが、システム化する(学習データ生成システム1に対して、上記使用の判断を予め設定された使用判断ルールに基づいて行なう機能のアプリケーションを加える)ことで機械的に行ってもよい。この場合、上記使用判断ルールとしては、例えば、各々のパーツ画像を使用するか否かの判断を、ランダムに行うものとすればよい。 In the present embodiment, the operator determines whether to use the general parts image or the character parts image (steps S103 and S106). The determination of use may be performed mechanically by adding an application having a function of performing the determination of use based on preset usage determination rules. In this case, as the usage determination rule, for example, whether or not to use each part image may be randomly determined.
また、本実施形態においては、一般パーツ画像の使用、文字パーツ画像の使用、データ拡張処理の実施の判断(ステップS103、S106、S110)を作業者が行うものとしたが、システム化する(学習データ生成システム1に対して、上記実施の判断を予め設定された実施判断ルールに基づいて行なう機能のアプリケーションを加える)ことで機械的に行ってもよい。この場合、上記実施判断ルールとしては、例えば、一般パーツ画像の使用、文字パーツ画像の使用、データ拡張処理の実施の各々の判断を、ランダムに行うものとすればよい。 In this embodiment, the operator determines whether to use general parts images, to use character parts images, and to perform data extension processing (steps S103, S106, and S110). It may be performed mechanically by adding an application having a function of performing the above-described execution judgment based on a preset execution judgment rule to the data generation system 1 . In this case, as the implementation determination rule, for example, the use of general parts images, the use of character parts images, and the execution of data extension processing may be determined at random.
また、本実施形態においては、画像領域16Sのサイズの特定を所定のピクセル数により高さと幅を指定して行なうものとしたが、システム化する(学習データ生成システム1に対して、上記画像領域16Sのサイズを所定のピクセル数により高さと幅を指定する予め設定されたサイズ指定ルールに基づいて行なう機能のアプリケーションを加える)ことで機械的に行ってもよい。この場合、上記サイズ指定ルールとしては、例えば、高さと幅の各々のピクセル数の値を、ランダムに行うものとすればよい。
In the present embodiment, the size of the
<第2の実施形態>
本発明の第2の実施形態による学習データ生成システムについて説明する。図7は、本発明の第2の実施形態による学習データ生成システムの構成例を示す図である。本実施形態においては、セマンティックセグメンテーションの学習用データの生成を例として説明する。
また、機械学習モデルの一つとして、入力される入力画像から所定の種類の物体の画像を検出するセマンティックセグメンテーション(Semantic Segmentation)がある。セマンティックセグメンテーションは、入力画像の全体や、入力画像画像の一部の検出ではなく、入力画像における画素(あるいはピクセル)の一つ一つに対して、その画素(あるいはピクセル)が示す意味をラベル付けして、入力画像における各物体の画像であるパーツ画像の検出を行なう。
このため、セマンティックセグメンテーションの場合、学習データとしては検出したいパーツ画像に対してラベル付け、すなわちパーツ画像における画素(あるいはピクセル)の各々に、物体の種類を示すラベル付けを行なった学習データを準備する必要がある。
図7において、本実施形態における学習データ生成システム10は、制御部111、パーツ画像選択部112、ラベル付与部113、形状拡張部114、複合画像生成部115、画像表示部116、動物図形データベース117、建物図形データベース118、道路図形データベース119及び学習用画像データ記憶部120の各々を備えている。
<Second embodiment>
A learning data generation system according to a second embodiment of the present invention will be described. FIG. 7 is a diagram showing a configuration example of a learning data generation system according to the second embodiment of the present invention. In this embodiment, generation of training data for semantic segmentation will be described as an example.
Also, as one of machine learning models, there is semantic segmentation for detecting an image of a predetermined type of object from an input image. Semantic segmentation does not detect the entire input image or a part of the input image, but rather labels each pixel (or pixel) in the input image with the meaning that the pixel (or pixel) indicates. Then, parts images, which are images of each object in the input image, are detected.
For this reason, in the case of semantic segmentation, training data is prepared by labeling the part images to be detected, that is, by labeling each pixel (or pixel) in the part image to indicate the type of object. There is a need.
7, the learning
制御部111は、図示しない入力手段(キーボード、マウスによる画面選択)から入力される制御信号を、この制御信号の示す制御内容に対応させて、パーツ画像選択部112、ラベル付与部113、形状拡張部114、複合画像生成部115及び画像表示部116のそれぞれに出力する。また、制御部11は、外部から供給される動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々を、動物図形データベース117、建物図形データベース118、道路図形データベース119それぞれに対して書き込んで記憶させる。本実施形態においては、動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々を組合せて、学習用データを生成する説明を行なっているが、動物パーツ画像、建物パーツ画像、道路パーツ画像のそれぞれは図形の一例であり、学習用データを生成する際の組み合わせる図形はどのような種類を用いてもかまわない。
The
パーツ画像選択部112は、画像表示部116の表示画面に対して、パーツ画像選択画面を表示する。ここで、パーツ画像は、本実施形態において、一例として動物パーツ画像、建物パーツ画像、道路パーツ画像などであり、各々組み合わせて一つの複合画像とする、学習用データにおける学習用入力画像の生成に用いる画像である。本実施形態においては、第1の実施形態と同様に、学習用データは、学習用入力画像及び学習用変更画像の各々の画像データの組として構成されている。
The parts
図8は、本実施形態の学習データ生成システムにおける学習用データの生成の流れを説明する概念図である。図8(a)は、画像表示部116の表示画面における学習用データの画像領域116Sを示している。また、図8(a)は、パーツ画像が何も表示されておらず、画像領域116Sのみが表示されている。
図8(b)は、動物パーツ画像401が作業者により選択され、画像表示部116の表示画面における画像領域116Sの所定の位置に、選択された動物パーツ画像401が配置された状態を示している。ここで、動物パーツ画像は、複合画像として生成される学習用入力画像を生成するためのパーツ画像の一種であり、人間、犬、猫などの動物の図形の画像データである。
FIG. 8 is a conceptual diagram illustrating the flow of learning data generation in the learning data generation system of this embodiment. 8A shows an
FIG. 8B shows a state in which an
次に、図8(c)は、建物パーツ画像402が作業者により選択され、画像表示部116の表示画面における画像領域116Sの所定の位置に、選択された建物パーツ画像402が動物パーツ画像401とともに配置された状態を示している。ここで、建物パーツ画像は、複合画像として学習用入力画像を生成するためのパーツ画像の一種であり、上述した動物パーツ画像と組み合わせる、住宅、工場、スーパーマーケット、ビルディングなどの図形の画像データである。
Next, in FIG. 8C, a
そして、図8(d)は、道路パーツ画像403が作業者により選択され、画像表示部116の表示画面における画像領域116Sの所定の位置に、選択された道路パーツ画像403が動物パーツ画像401及び建物パーツ画像402とともに配置された状態を示している。ここで、道路パーツ画像は、高速道路、農道、歩道、横断歩道、一般道路(複数の車線種類有り)などの図形の画像データである。本実施形態においては、図8(d)が学習用入力画像として用いられる。であり、この学習用入力画像の各パーツにラベルを付加したデータが学習用変更画像として用いられる。
8(d), the
図8(e)は、図8(d)の各パーツ画像を構成するピクセルそれぞれにラベルを付与した画像である。図8(e)においては、ラベルとして各ピクセルの色を付与しており、動物パーツ画像のピクセルを赤色、建物パーツ画像のピクセルを青色、道路パーツ画像のピクセルを黄色としている。
このように、学習用入力画像の各パーツ、すなわち動物パーツ画像の各々のピクセルには動物であることを示すラベル、建物パーツ画像の各々のピクセルには建物であることを示すラベル、道路パーツ画像の各々のピクセルには道路であることを示すラベルを付与する。
本実施形態においては、図8(e)が学習用変更画像であり、この学習用入力画像の各パーツのピクセルそれぞれにラベルを付与した画像データである。
FIG. 8(e) is an image in which labels are assigned to the pixels constituting each parts image in FIG. 8(d). In FIG. 8E, the color of each pixel is given as a label, and the pixel of the animal part image is red, the pixel of the building part image is blue, and the pixel of the road part image is yellow.
In this way, each part of the input image for learning, that is, each pixel of the animal parts image has a label indicating that it is an animal, each pixel of the building parts image has a label that indicates that it is a building, and each pixel of the building parts image has a label indicating that it is a building. Each pixel of is given a label indicating that it is a road.
In the present embodiment, FIG. 8E is a modified image for learning, which is image data in which each pixel of each part of this input image for learning is labeled.
ラベル付与部113は、作業者が選択したパーツ画像(動物パーツ画像、建物パーツ画像、道路パーツ画像)の各々のピクセルに対し、パーツ画像の種別を示すラベルとして、作業者が設定した色を付与する。
The
複合画像生成部115は、作業者が画像表示部116の表示画面における画像領域116Sに配置した動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々を合成して、学習用入力画像を生成する。
また、複合画像生成部115は、作業者が画像表示部116の表示画面における画像領域116Sに配置した、ラベルを付与した動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々を合成して、学習用変更画像を生成する。
そして、複合画像生成部115は、第1の実施形態と同様に、生成した学習用入力画像及び学習用変更画像を組合わせて、学習用データとして学習用画像データ記憶部120に対して書き込んで記憶させる。
The
In addition, the composite
Then, as in the first embodiment, the composite
形状拡張部114は、第1の実施形態と同様に、画像領域116Sに配置された動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々のデータ拡張処理を、作業者の入力にしたがって行なう。
ここで、複合画像生成部115は、形状拡張部114がデータ拡張処理をした画像領域116Sに配置された動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々を合成して、学習用データを形成して学習用データとして学習用画像データ記憶部120に対して書き込んで記憶させる。
As in the first embodiment, the
Here, the composite
動物図形データベース117は、動物パーツ画像の種類に分類される図形の画像が蓄積されているデータベースである。
建物図形データベース118は、建物パーツ画像の種類に分類される図形の画像が蓄積されているデータベースである。
道路図形データベース119は、道路パーツ画像の種類に分類される図形の画像が蓄積されているデータベースである。
学習用画像データ記憶部120は、学習用入力画像及び学習用変更画像の組である学習用データが書き込まれて記憶されている。
The
The
The
In the learning image data storage unit 120, learning data, which is a set of a learning input image and a learning modified image, is written and stored.
図9は、入力される入力画像におけるパーツ画像の種別を判定し、それぞれのパーツ画像におけるピクセルの各々にラベルを付与する機械学習モデルの学習例を説明する概念図である。生成器551は、セマンティックセグメンテーションの機械学習モデルであり、入力される入力画像におけるパーツ画像の種別を判定し、それぞれの判定した種別のパーツ画像におけるピクセルの各々に対してラベルを付与する(所定のルール)。
学習用画像データ記憶部120から順次学習用データを読み出し、学習用入力画像421を生成器551に対して入力し、出力として学習用変更画像422が生成されるように学習を行なう。
FIG. 9 is a conceptual diagram illustrating a learning example of a machine learning model that determines the types of parts images in an input image to be input and assigns a label to each pixel in each parts image. The generator 551 is a semantic segmentation machine learning model that determines the type of the parts image in the input image to be input, and assigns a label to each pixel in the determined type of the parts image (predetermined rule).
The learning data is sequentially read from the learning image data storage unit 120, the learning
すなわち、学習用入力画像421における動物パーツ画像401の各々のピクセルが赤色として出力され、建物パーツ画像402の各々のピクセルが青色として出力され、道路パーツ画像403の各々のピクセルが黄色として出力されるように、作成した学習用データを用いて生成器551を学習させる。
これにより、入力画像における画像の種別を判定し、その画像の種別に対応するラベルを、画像を構成するピクセルの各々に付与する生成器551を学習させることができる。
That is, each pixel of the
Thus, it is possible to train the generator 551 that determines the type of image in the input image and assigns a label corresponding to the type of the image to each pixel that constitutes the image.
上述したように、本実施形態によれば、動物図形データベース117、建物図形データベース118及び道路図形データベース119の各々から、動物パーツ画像、建物パーツ画像、道路パーツ画像それぞれを選択し、画像表示部116の表示画面における画像領域116Sに配置する処理により、学習用入力画像と学習用変更画像とを組とした学習用データを生成することができるため、セマンティックセグメンテーションにおける生成器551の機械学習モデルの学習に用いる学習データを容易に大量に生成することができる。
As described above, according to this embodiment, an animal part image, a building part image, and a road part image are selected from each of the animal
また、本実施形態によれば、パーツ画像(動物パーツ画像、建物パーツ画像、道路パーツ画像)の各々の種別が判っており、パーツ画像のピクセルに対して一括して色などのラベルを付与することにより、従来のようにピクセル毎にラベルを付与する手間がかかる作業を行なう必要が無く、パーツ画像のピクセルの各々に種別を示すラベルを付与することが容易に行える。 Further, according to this embodiment, the types of each part image (animal part image, building part image, road part image) are known, and a label such as a color is assigned to the pixels of the part image collectively. As a result, it is not necessary to perform the labor-intensive task of labeling each pixel as in the conventional art, and it is possible to easily assign a label indicating the type to each pixel of the parts image.
また、本実施形態によれば、画像表示部116の表示画面における画像領域116Sに動物パーツ画像、建物パーツ画像及び道路パーツ画像の各々を配置して一つの学習用データを作成した後、この配置のレイアウトの変更、あるいは動物パーツ画像、建物パーツ画像、道路パーツ画像のそれぞれのデータ拡張処理を行なうことにより、作成した学習用データの変形バージョンを生成することにより、学習用データのバリエーションを容易に増加させ、容易に大量の学習用データを得ることができる。
Further, according to the present embodiment, after each of the animal part image, the building part image, and the road part image is arranged in the
また、図1に示す学習データ生成システム1及び図7に示す学習データ生成システム10の各々の学習用入力画像及び学習用変更画像からなる学習データの生成の処理を行なう機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、インフラ設備の不良の発生の予測値の算出及び各指標値による点検の優先度の算出の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
1 and the learning
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
The "computer system" also includes the home page providing environment (or display environment) if the WWW system is used.
The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. Furthermore, "computer-readable recording medium" refers to a program that dynamically retains programs for a short period of time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It also includes those that hold programs for a certain period of time, such as volatile memories inside computer systems that serve as servers and clients in that case. Further, the program may be for realizing part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail above with reference to the drawings, the specific configuration is not limited to these embodiments, and designs and the like are included within the scope of the gist of the present invention.
1,10…学習データ生成システム
11,111…制御部
12,112…パーツ画像選択部
13…文字列生成部
14,114…形状拡張部
15,115…複合画像生成部
16,116…画像表示部
16S,116S…画像領域
17…象徴図形データベース
18…一般図形データベース
19…文字図形データベース
20,120…学習用画像データ記憶部
117…動物図形データベース
118…建物図形データベース
119…道路図形データベース
Claims (9)
画像の構成要素となるパーツ画像が記憶された複数の画像データベースと、
前記画像データベースの各々から前記パーツ画像を選択する選択部と、
前記選択部が選択したパーツ画像を組み合わせた複合画像を生成し、前記学習用入力画像とする複合画像生成部と、
前記選択部が選択したパーツ画像における特定のパーツ画像からなる前記学習用変更画像を生成する変更画像生成部と
を備えることを特徴とする学習データ生成システム。 A learning data generation system that generates learning data consisting of a training input image and a learning modified image used for learning a machine learning model that generates a modified image by modifying a predetermined input image according to a predetermined rule. and
a plurality of image databases in which part images that are components of images are stored;
a selection unit that selects the parts image from each of the image databases;
a composite image generation unit that generates a composite image obtained by combining the part images selected by the selection unit and uses it as the learning input image;
A learning data generation system, comprising: a modified image generation unit that generates the modified learning image composed of a specific parts image in the parts image selected by the selection unit.
前記学習用入力画像に対する視覚印象を観察した際に与える象徴的なパーツ画像である象徴パーツ画像が蓄積された象徴図形データベースと、
前記象徴パーツ画像の象徴性を補う、それ自体に象徴性を有さない一般的なパーツ画像である一般パーツ画像が蓄積された一般図形データベースと
を含むことを特徴とする請求項1に記載の学習データ生成システム。 The image database is
a symbolic figure database in which symbolic part images, which are symbolic part images given when a visual impression of the input image for learning is observed, are accumulated;
2. The general graphic database in which general parts images, which are general parts images having no symbolism per se, are accumulated to supplement the symbolicity of the symbolic parts images, according to claim 1. Learning data generation system.
文字を示すパーツ画像である文字パーツ画像が蓄積された文字図形データベース
を含むことを特徴とする請求項2に記載の学習データ生成システム。 The image database is
3. The learning data generation system according to claim 2, further comprising a character/graphic database in which character part images, which are part images representing characters, are accumulated.
前記学習用変更画像が、前記学習用入力画像における前記象徴パーツ画像のみが配置されている
ことを特徴とする請求項3に記載の学習データ生成システム。 wherein the input image for learning is composed of the symbol parts image and either or both of the general parts image and the character parts image,
4. The learning data generation system according to claim 3, wherein only the symbol parts image in the input image for learning is arranged in the modified image for learning.
をさらに備えることを特徴とする請求項1から請求項4のいずれか一項に記載の学習データ生成システム。 5. The learning data generation system according to any one of claims 1 to 4, further comprising a shape expansion unit that deforms the shape of each part image.
前記生成器は、前記学習用入力画像から所定の要素を抽出して学習用生成画像を生成する機械学習モデルからなり、
前記識別機は、前記学習用入力画像及び前記学習用変更画像からなる学習データ、または、前記学習用入力画像及び前記学習用生成画像からなる学習データの評価を行う機械学習モデルからなる、
ことを特徴とする請求項1から請求項5のいずれか一項に記載の学習データ生成システム。 The learning data generation system comprises a generator and a discriminator,
The generator comprises a machine learning model that extracts a predetermined element from the input image for learning and generates a generated image for learning,
The classifier comprises a machine learning model that evaluates learning data composed of the input image for learning and the modified image for learning, or learning data composed of the input image for learning and the generated image for learning.
The learning data generation system according to any one of claims 1 to 5, characterized by:
前記学習用変更画像が前記学習用入力画像における前記パーツ画像の各々の種類が選別され、当該種類を示すラベルを付与する変更が行われている
ことを特徴とする請求項1に記載の学習データ生成システム。 the machine learning model is semantic segmentation;
2. The learning data according to claim 1, wherein the modified image for learning is obtained by selecting the type of each of the part images in the input image for learning and adding a label indicating the type. generation system.
画像の構成要素となるパーツ画像が記憶された複数の画像データベースの各々から前記パーツ画像を選択する選択過程と、
前記選択過程において選択されたパーツ画像を組み合わせた複合画像を生成し、前記学習用入力画像とする複合画像生成過程と、
前記選択過程において選択されたパーツ画像における特定のパーツ画像からなる前記学習用変更画像を生成する変更画像生成過程と
を含むことを特徴とする学習データ生成方法。 Learning in which a computer system generates learning data consisting of a training input image and a learning modified image used for learning a machine learning model that generates a modified image by modifying a predetermined input image according to a predetermined rule. A data generation method,
a selection process of selecting a part image from each of a plurality of image databases storing part images that are constituent elements of an image;
A composite image generation step of generating a composite image by combining the part images selected in the selection step and using it as the learning input image;
and a learning data generation method, comprising: a modified image generating step of generating the modified learning image composed of a specific part image in the part images selected in the selecting step.
画像の構成要素となるパーツ画像が記憶された複数の画像データベースの各々から、前記所定の入力画像の学習用データである学習用入力画像の生成に用いる前記パーツ画像を選択する選択過程と、
前記選択過程において選択された前記パーツ画像を組み合わせた複合画像を生成し、前記学習用入力画像とする複合画像生成過程と、
前記選択過程において選択されたパーツ画像における特定のパーツ画像からなる学習用変更画像を生成する変更画像生成過程と、
前記学習用入力画像を入力することにより、前記学習用変更画像が出力される前記機械学習モデルを学習させる学習過程と
を含むことを特徴とする機械学習モデルの学習方法。 A learning method in which a computer system learns a machine learning model that generates a modified image by modifying a predetermined input image according to a predetermined rule,
a selection step of selecting the parts image to be used for generating the learning input image, which is the learning data for the predetermined input image, from each of a plurality of image databases in which the parts images constituting the image are stored;
A composite image generating step of generating a composite image by combining the part images selected in the selection step and using it as the learning input image;
a modified image generation process for generating a learning modified image composed of a specific part image in the part images selected in the selection process;
and a learning step of learning the machine learning model outputting the modified learning image by inputting the learning input image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018240247A JP7300828B2 (en) | 2018-12-21 | 2018-12-21 | Learning data generation system, learning data generation method, learning method for machine learning model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018240247A JP7300828B2 (en) | 2018-12-21 | 2018-12-21 | Learning data generation system, learning data generation method, learning method for machine learning model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020102041A JP2020102041A (en) | 2020-07-02 |
JP7300828B2 true JP7300828B2 (en) | 2023-06-30 |
Family
ID=71139610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018240247A Active JP7300828B2 (en) | 2018-12-21 | 2018-12-21 | Learning data generation system, learning data generation method, learning method for machine learning model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7300828B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954943B2 (en) | 2020-12-21 | 2024-04-09 | Qualcomm Incorporated | Method for generating synthetic data |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017162456A (en) | 2016-03-11 | 2017-09-14 | 株式会社東芝 | Training of restricted deconvolution network for semantic segmentation of road scene |
US20180253865A1 (en) | 2017-03-02 | 2018-09-06 | Adobe Systems Incorporated | Image matting using deep learning |
-
2018
- 2018-12-21 JP JP2018240247A patent/JP7300828B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017162456A (en) | 2016-03-11 | 2017-09-14 | 株式会社東芝 | Training of restricted deconvolution network for semantic segmentation of road scene |
US20180253865A1 (en) | 2017-03-02 | 2018-09-06 | Adobe Systems Incorporated | Image matting using deep learning |
Also Published As
Publication number | Publication date |
---|---|
JP2020102041A (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019369301B2 (en) | Refinement of machine learning engines for automatically generating component-based user interfaces | |
US10614266B2 (en) | Recognition and population of form fields in an electronic document | |
US20210012468A1 (en) | Boundary-aware object removal and content fill | |
US20190026550A1 (en) | Semantic page segmentation of vector graphics documents | |
US10928982B2 (en) | Automatic grouping of user interface elements into components | |
KR20180107764A (en) | Device and Method on Showing Descriptions of the Figure Numbers on Patent Drawings Using Machine Learning Methodology Based on Using Artificial Intelligence Technology | |
JP2008537198A (en) | Intelligent import of information from a foreign application user interface using artificial intelligence | |
US11386589B2 (en) | Method and device for image generation and colorization | |
JP6929322B2 (en) | Data expansion system, data expansion method, and program | |
WO2021233031A1 (en) | Image processing method and apparatus, and device, storage medium, and image segmentation method | |
JP2019133303A (en) | Information processor and information processing program and information processing method | |
CN112784531A (en) | Chinese font and word stock generation method based on deep learning and part splicing | |
JP7300828B2 (en) | Learning data generation system, learning data generation method, learning method for machine learning model | |
CN113128241A (en) | Text recognition method, device and equipment | |
KR20210010602A (en) | Apparatus and method for recognizing character | |
Vaddamanu et al. | Harmonized Banner Creation from Multimodal Design Assets | |
KR102401113B1 (en) | Artificial neural network Automatic design generation apparatus and method using compensation possibility and UX-bit | |
US8683368B2 (en) | Method and apparatus for illustrating progress in achieving a goal in a computer program task | |
Perwej et al. | The State of the Art Handwritten Recognition of Arabic Script Using Simplified Fuzzy ARTMAP and Hidden Markov Models | |
KR102542174B1 (en) | Digital reference book provision system | |
Ko et al. | Font2Fonts: A modified Image-to-Image translation framework for font generation | |
CN110009065A (en) | A kind of calligraphy comparison method based on image binaryzation | |
CN115048096B (en) | Dynamic visualization method and system for data structure | |
KR102539283B1 (en) | Method of generating code using artificial intelligence | |
Akiyama et al. | Synthetic chart image generator: An application for generating chart image datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190111 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7300828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |