JP2020166397A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2020166397A JP2020166397A JP2019064518A JP2019064518A JP2020166397A JP 2020166397 A JP2020166397 A JP 2020166397A JP 2019064518 A JP2019064518 A JP 2019064518A JP 2019064518 A JP2019064518 A JP 2019064518A JP 2020166397 A JP2020166397 A JP 2020166397A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image processing
- unit
- image
- expansion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本開示は、機械学習の学習データを拡張する画像処理装置、画像処理方法、及びプログラムに関する。 The present disclosure relates to image processing devices, image processing methods, and programs that extend learning data for machine learning.
特許文献1には、機械学習で利用する教師データ(学習データ)を生成する画像処理装置について記載されている。機械学習では、学習データの特徴量空間における分布範囲が得られる結果に影響するため、多種多様な学習データを用いることが好ましい。ところが、多種多様な学習データを撮影取得等することは撮影の時間や手間等も必要であることから困難であり、特許文献1に記載されるように、多種多様な学習データを作成する方法が検討されている。
本開示は、データ拡張により機械学習の学習データを追加する際、有効なデータを選択し、有効なデータのみ追加する画像処理装置、画像処理方法、及びプログラムを提供する。 The present disclosure provides an image processing apparatus, an image processing method, and a program that select valid data and add only valid data when adding learning data for machine learning by data expansion.
本開示の画像処理装置は、画像データから拡張対象を特定する特定部と、画像データの拡張対象を画像処理により拡張した拡張データを生成する拡張部と、クラス分類により拡張データのスコアを算出する算出部と、得られたスコアに応じて、拡張データを学習データとして使用するか否かを選択する選択部とを備える。 The image processing apparatus of the present disclosure calculates a score of extended data by class classification, a specific unit that identifies an extended target from image data, an extended unit that generates extended data obtained by expanding the extended target of image data by image processing. It includes a calculation unit and a selection unit that selects whether or not to use the extended data as training data according to the obtained score.
これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。 These general and specific aspects may be realized by systems, methods, and computer programs, and combinations thereof.
本開示の画像処理装置、画像処理方法、及びプログラムによれば、データ拡張により機械学習用の学習データを作成する際、無駄な学習データの増大を防止することができる。 According to the image processing apparatus, the image processing method, and the program of the present disclosure, it is possible to prevent an increase in unnecessary learning data when creating learning data for machine learning by data expansion.
[本開示の基礎となった知見]
近年、様々な分野に機械学習が普及している。機械学習では、学習データの特徴量空間における分布範囲がその結果を左右するため、多種多様な学習データが必要になる。ところが、画像撮影等により学習データを作成することは物理的な問題等から困難である。そのためデータオーギュメンテーション等のデータ拡張が利用されている。
[Findings underlying this disclosure]
In recent years, machine learning has become widespread in various fields. In machine learning, a wide variety of learning data is required because the distribution range of the learning data in the feature space determines the result. However, it is difficult to create learning data by taking an image or the like due to physical problems. Therefore, data extensions such as data augmentation are used.
ところが、データオーギュメンテーションでは、現実として想定し得ない画像データが生成される場合もあり得る。すなわち、データオーギュメンテーション等のデータ拡張の技術では、ランダムパラメータを用いるため、学習データとして、機械学習の精度には無関係なデータが作成される恐れがある。このように機械学習の精度に無関係なデータが作成されると、精度の向上が得られないばかりでなく、学習データの数の増加によって、処理容量が増大する。 However, in data augmentation, image data that cannot be expected in reality may be generated. That is, since a random parameter is used in a data expansion technique such as data augmentation, there is a possibility that data irrelevant to the accuracy of machine learning is created as learning data. When data irrelevant to the accuracy of machine learning is created in this way, not only the accuracy cannot be improved, but also the processing capacity increases due to the increase in the number of learning data.
本開示は、データ拡張により機械学習の学習データを追加する際に、拡張データから有効なデータを選択し、無駄な学習データの増大を防止することができる画像処理装置、画像処理方法及びプログラムを提供する。これにより、不要に多量の学習データを用いるのではなく、処理を効率化させることのできる学習データの利用を実現させることができる。 The present disclosure provides an image processing device, an image processing method, and a program capable of selecting valid data from the extended data and preventing an increase in unnecessary learning data when adding machine learning learning data by data expansion. provide. As a result, it is possible to realize the use of learning data that can improve the processing efficiency, instead of using an unnecessarily large amount of learning data.
[実施形態]
以下に、図面を用いて本開示における実施の形態を、図面を適宜参照しながら説明する。ただし、詳細な説明において、従来技術および実質的に同一の構成に関する説明のうち不必要な部分は省略されることもある。これは、説明を簡単にするためである。また、以下の説明および添付の図面は、当業者が本開示を充分に理解できるよう開示されるのであって、特許請求の範囲の主題を限定することを意図されていない。
[Embodiment]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. However, in the detailed description, unnecessary parts of the description of the prior art and substantially the same configuration may be omitted. This is for the sake of simplicity. In addition, the following description and accompanying drawings are disclosed so that those skilled in the art can fully understand the present disclosure, and are not intended to limit the subject matter of the claims.
本開示に係る、画像処理装置、画像処理方法及びプログラムは、機械学習の学習データを拡張により生成するものである。以下では、画像処理装置は、人物検知のために利用する学習データを拡張する一例で説明する。したがって、以下の説明において、画像処理装置における画像処理の対象は、人物が含まれる画像データである。具体的には、人物が含まれる元画像データの一部について、人物のいずれかの部分のテクスチャを変更した拡張データを生成する例で説明する。 The image processing apparatus, image processing method, and program according to the present disclosure generate learning data for machine learning by extension. In the following, the image processing device will be described as an example of expanding the learning data used for detecting a person. Therefore, in the following description, the target of image processing in the image processing apparatus is image data including a person. Specifically, a part of the original image data including a person will be described with an example of generating extended data in which the texture of any part of the person is changed.
本開示において、「拡張」とは、画像の反転、回転、リサイズ、対象部分の色、テクスチャの変更等を意味する。人物の画像に関する反転、回転、リサイズには、人物の傾きの変更、人物の大きさの変更等がある。人物の大きさの変更には、通常の体格の人物を細め又は太目の体格に変更したり、背を高く又は低く変更したりすることが含まれる。人物の画像の色の変更とは、人物の肌の色の変更や、人物の衣服や持ち物の色の変更を含むものとする。
また、「テクスチャ」とは、画像の見た目の質感を変更することをいい、模様の変更も含むものとする。例えば、人物の画像に関するテクスチャの変更とは、衣服や人物の持ち物の素材、柄、模様等の変更を含むものとする。
In the present disclosure, "extension" means inversion, rotation, resizing, color of the target portion, change of texture, and the like. Inversion, rotation, and resizing of a person's image include changing the tilt of the person and changing the size of the person. Changing the size of a person includes changing a person of normal physique to a thinner or thicker physique, or changing the person to be taller or shorter. Changing the color of a person's image shall include changing the color of the person's skin and changing the color of the person's clothing and belongings.
Further, "texture" means changing the appearance texture of the image, and includes changing the pattern. For example, changing the texture of a person's image includes changing the material, pattern, pattern, etc. of clothing or the person's belongings.
〈画像処理装置〉
画像処理装置1は、図1に示すように、制御部10、記憶部20、通信インタフェース(I/F)21、入力部22及び出力部23等を備える情報処理装置である。
<Image processing device>
As shown in FIG. 1, the
制御部10は、画像処理装置1全体の制御を司るコントローラである。例えば、制御部10は、記憶部20に記憶される画像処理プログラムPを読み出して実行することにより、受付部11、特定部12、拡張部13、算出部14、選択部15及び推定部16としての処理を実現する。また、制御部10は、ハードウェアとソフトウェアの協働により所定の機能を実現するものに限定されず、所定の機能を実現する専用に設計されたハードウェア回路でもよい。すなわち、制御部10は、CPU、MPU、GPU、FPGA、DSP、ASIC等、種々のプロセッサで実現することができる。
The
記憶部20は種々の情報を記録する記録媒体である。記憶部20は、例えば、RAM、ROM、フラッシュメモリ、SSD(Solid State Device)、ハードディスク、その他の記憶デバイス又はそれらを適宜組み合わせて実現される。記憶部20には、制御部10が実行する画像処理プログラムPの他、画像処理のために取得された種々の情報等が格納される。例えば、記憶部20は、画像処理で使用する条件データD1、元画像データD2、画像処理で使用された拡張データD3及び学習データD4を記憶する。
The
通信I/F21は、外部の装置(図示せず)とのデータ通信を可能とするためのインタフェース回路(モジュール)である。入力部22は、操作やデータの入力に利用される操作ボタン、キーボード、マウス、タッチパネル、マイクロフォン等の入力手段である。出力部23は、処理結果やデータの出力に利用されるディスプレイ、スピーカ等の出力手段である。
The communication I /
なお、画像処理装置1は、複数の情報処理装置によって実現されてもよい。また、記憶部20に記憶されるデータの一部は外部の記憶装置に記憶され、外部の記憶装置から読み出して使用する構成であってもよい。
The
条件データD1は、画像処理装置1においてデータ拡張の条件として入力されたデータであり、具体例については後述する。
The condition data D1 is data input as a condition for data expansion in the
元画像データD2は、画像処理装置1においてデータ拡張に利用される画像データである。例えば、図2に示すように、元画像データD2には、被写体として、人物が含まれる。
The original image data D2 is image data used for data expansion in the
拡張データD3は、画像処理装置1において画像処理によって拡張されたデータであり、具体例については後述する。
The extended data D3 is data expanded by image processing in the
学習データD4は、機械学習において教師データとなるデータである。画像処理装置1では、この学習データD4に、画像処理によって拡張された拡張データD3が追加される。
The learning data D4 is data that serves as teacher data in machine learning. In the
受付部11は、画像処理、具体的には、画像データの拡張に利用される条件を受け付ける。また、受付部11は、受け付けた条件を条件データD1として記憶部20に記憶させる。
The
例えば、条件には、特定部12における拡張の対象の特定方法を含むことができる。拡張対象の特定には、画像データのどのような領域を拡張するかを含むことができる。条件には、拡張部13におけるデータの拡張方法を含むことができる。拡張方法としては、画像の反転、回転、リサイズ、テクスチャの変更等を含む。条件には、選択部15における拡張データD3の選択方法を含むことができる。選択方法としては、学習データD4に求めるデータの精度を含む。
For example, the condition can include a method of identifying the target of extension in the
また、受付部11は、拡張の対象となる元画像データを受け付け、記憶部20に元画像データD2として記憶させる。例えば、受付部11は、通信I/F21を介して外部の装置(図示せず)から受信する画像データを元画像データとすることができる。なお、受付部11が受け付ける画像データの数については限定されない。この場合、画像処理装置1は、複数の画像データを処理対象としてもよい。
Further, the
特定部12は、拡張対象の元画像データD2から、拡張の対象を特定する。ここでは、画像データのある領域について、テクスチャを変更した拡張データを生成する例で説明する。このような場合、特定部12は、元画像データD2から拡張の対象の領域を抽出する。また、特定部12は、特定結果を拡張部13に出力する。領域の抽出方法については、既存の領域抽出技術を利用する。例えば、領域抽出技術の一例としては、セマンティックセグメンテーションがあげられる。また、特定部12は、複数の領域抽出技術に対応し、条件データD1に応じて使用する領域抽出技術を選択可能であってもよい。
The
図3は、図2に示す元画像データD2から特定された拡張の対象の領域を示す一例である。図3に示す例では、図2の元画像データD2から人物が着用する下衣であるスカートの部分がマスク領域Mとして抽出されるマスク画像の一例で示すが、特定部12が特定するマスク領域については限定されない。例えば、人物が着用する上衣であるTシャツ等の部分がマスク領域として抽出されてもよい。
FIG. 3 is an example showing an region to be expanded specified from the original image data D2 shown in FIG. In the example shown in FIG. 3, a mask image in which the skirt portion, which is the undergarment worn by a person, is extracted as the mask region M from the original image data D2 in FIG. 2 is shown as an example, but the mask region specified by the
拡張部13は、元画像データD2の拡張対象を画像処理により拡張した拡張データD3を生成する。具体的には、拡張部13は、条件データD1に応じて、元画像データD2に対し、反転、回転、リサイズ、色の変更、テクスチャ変更等の処理を実行する。ここでは、特定部12で特定されたマスク領域Mの色及びテクスチャを変更する例で説明する。拡張部13は、例えば、ランダムパラメータを用いてランダムに選択された色又はテクスチャをマスク領域Mに追加する。データの拡張方法については、既存のデータ拡張技術を利用する。例えば、色やテクスチャを変更するデータ拡張技術の一例としては、アルファブレンディングがあげられる。
The
図4A乃至図4Cは、図3で選択されたマスク領域Mについてランダムに色又はテクスチャが変更された拡張データD3の一例を示す。図4Aは、マスク領域Mの部分の色が変更された例で、図4B及び図4Cは、マスク領域Mの模様が変更された例である。図4A乃至図4Cでは、3パターンの拡張がされた例であるが、拡張部13は、さらに多くのパターンの拡張データD3を生成することが可能であり、例えば、ランダムパラメータを使用して1万パターンの画像データを生成することができる。例えば、拡張部13は、条件データD1で規定された数の拡張データD3を生成する。すなわち、ユーザは、拡張部13に生成させる拡張データD3の数を自由に設定することができる。
4A to 4C show an example of extended data D3 in which the color or texture of the mask region M selected in FIG. 3 is randomly changed. FIG. 4A is an example in which the color of the portion of the mask area M is changed, and FIGS. 4B and 4C are examples in which the pattern of the mask area M is changed. Although 3 patterns of expansion are shown in FIGS. 4A to 4C, the
このとき、条件データD1は、所定の条件で拡張データD3を生成すること、又は生成しないことを含んでもよい。具体的には、拡張データD3においてテクスチャを付与する際に黒色を含まないことを条件としたり、黒色を含むことを条件とすることができる。また、拡張データD3において所定テクスチャを多く含むことを条件としてもよい。具体的には、テクスチャを付与する際に黒色を含む拡張データD3を所定の割合(例えば、50%)で生成するような条件とすることができる。 At this time, the condition data D1 may include generating or not generating the extended data D3 under predetermined conditions. Specifically, when the texture is given in the extended data D3, it can be a condition that black is not included, or it can be a condition that black is included. Further, it may be a condition that the extended data D3 contains a large number of predetermined textures. Specifically, the condition can be such that the extended data D3 including black color is generated at a predetermined ratio (for example, 50%) when the texture is applied.
算出部14は、拡張データD3についてクラス分類の分類スコアを算出する。具体的には、この算出部14は、基準となる学習データによって学習済みのクラス分類器であって、拡張データD3の各クラスの分類スコアを算出する。この算出部14には、既存の分類器を用いることができる。例えば、分類器の一例としては、VGG16やInceptionV3等を利用することができる。
The
なお、算出部14は、入力画像の属性を統計的に網羅した画像群により学習済みであることが好ましい。具体的には、入力画像が「歩行者」の画像である場合、算出部14は、多種多様な「人間」の画像により学習済みである必要がある。また、入力画像が「ニンジン」の画像である場合、算出部14は、多種多様な「野菜」の画像により学習済みである必要がある。さらに、入力画像が「スポーツカー」の画像である場合、算出部14は、多数の多種多様な「自動車」の画像により学習済みである必要がある。ここで、算出部14は、拡張部13で拡張した全ての拡張データD3に対して分類スコアを算出する。なお、仮に、算出部14で学習に使用する学習データとして拡張データD3を追加前の学習データD4を使用する場合、拡張データD3を追加前の学習データD4に類似するデータのスコアが高くなり、最終的にスコアが高いものを選べば過学習、低いものを選んだ場合は全く不必要なデータを選択してしまう可能性がある。したがって、算出部14が学習データとして拡張データD3を追加前の学習データD4を使用することは避けることが好ましい。具体的には、算出部で基準とする学習データは、あくまで自然画像であったり、上述したような例(「歩行者」と「人間」、「ニンジン」と「野菜」、「スポーツカー」と「自動車」等)の関係とする必要がある。
It is preferable that the
図5は、図4Aの拡張データD3から求めた分類スコアの一例を示す。図4Aの拡張データD3は、人物の元画像データD2から得られたものであるため、人物('human')のクラスの分類スコアとして「0.9043」と高い値が算出された。また、画像内の人物が着用する眼鏡('glasses')のクラスの分類スコア及びスカート('skirt')のクラスの分類スコアも高い値が算出された。一方、図5に表される他のクラスは、拡張データD3と関係のないクラスであるため、算出された分類スコアの値は、低いものとなっている。 FIG. 5 shows an example of the classification score obtained from the extended data D3 of FIG. 4A. Since the extended data D3 of FIG. 4A was obtained from the original image data D2 of a person, a high value of "0.9043" was calculated as the classification score of the class of the person ('human'). In addition, high values were calculated for the classification score of the glasses ('glasses') class and the classification score of the skirt ('skirt') worn by the person in the image. On the other hand, since the other classes shown in FIG. 5 are classes unrelated to the extended data D3, the calculated classification score value is low.
選択部15は、拡張部13で生成された拡張データD3について、学習データD4として利用するデータを選択する。具体的には、選択部15は、算出部14で算出された分類スコア及び予め指定された条件に応じて、拡張データD3から学習データD4として利用するデータを選択する。また、選択部15は、選択された拡張データD3を、算出部14の算出結果とともに、学習データD4として記憶部20に記憶させる。
The
《分類スコア》
選択部15は、算出部14で算出した分類スコアを用いて分類するが、分類スコアの利用の方法としては、複数考えられる。具体的には、算出部14で算出した単一のクラスの分類スコアを用いる場合と、算出部14で算出した複数のクラスの分類スコアから新たなスコアを算出して用いる場合が考えられる。また、単一のクラスの分類スコア、または、複数のクラスの分類スコアのいずれを用いるのかは、条件データD1において指定されている。
《Classification score》
The
(1.1)単一のクラスの分類スコアのみを参照する場合
選択部15は、一のクラスの分類スコアを用いて、拡張データD3を選択してもよい。この場合、選択部15は、算出部14で算出された各クラスの分類スコアのうち、条件データD1で指定されるクラスの分類スコアのみを利用する。
(1.1) When Referencing Only the Classification Score of a Single Class The
(1.2)複数のクラスの分類スコアを参照する場合
選択部15は、複数のクラスの分類スコアを用いて、拡張データD3を選択してもよい。この場合、選択部15は、算出部14で算出された各クラスの分類スコアのうち、条件データD1で指定される複数のクラスの分類スコアを用いて新たなスコアを算出して利用する。例えば、選択部15は、以下の式(1)に示すような重み付け加算によって得られた値を新たなスコアとして利用する。
(1.2) When referring to the classification scores of a plurality of classes The
'human_new'
= Whuman * 'human' + Wglasses * 'glasses' + Wskirt * 'skirt'
・・・(1)
ただし、
'human_new': 選択部15で算出する新たなスコア
'human','glasses','skirt': 算出部14で算出した分類スコア
Whuman,Wglasses,Wskirt: 各分類スコアの重み値
とする。
'human_new'
= Whuman *'human' + Wglasses *'glasses' + Wskirt *'skirt'
... (1)
However,
'human_new': New score calculated by
'human','glasses','skirt': Classification score calculated by the
式(1)は、新たに人物のスコアを算出する際に、それぞれ重み値で重み付けされた人物のスコア('human')、眼鏡のスコア('glasses')及びスカート('skirt')のスコアが加算された例である。 Equation (1) is a score of a person weighted by a weight value ('human'), a score of glasses ('glasses'), and a score of a skirt ('skirt'), respectively, when calculating a new person's score. Is an example in which is added.
《選択方法》
選択部15は、分類スコアを用いて拡張データD3を選択するが、選択の方法としては、複数考えられる。この選択方法は、どのような目的で学習データD4を増加させるかによって異なる。具体的には、レアな画像データのみを追加したい場合、よくある画像データのみを追加したい場合、ランダムに選択した画像データを追加した場合等が考えられる。どのような目的で学習データD4に拡張データD3を追加させるのかについては、条件データD1で指定されている。
<< Selection method >>
The
(2.1)レアな画像データのみを追加する場合
例えば、学習データD4にレアな画像データを追加したい場合、分類スコアの低い画像データを追加することが考えられる。レアな画像とは、一般的にあまり想定されない状況の画像である。このような場合、選択部15は、例えば、複数の拡張データD3を降順で並べ、下位となった所定割合(例えば、15%)の拡張データD3を選択し、学習データD4に追加する。ここで利用する、所定の割合は、条件データD1で指定されている。また、ここでは拡張データD3を分類スコアの降順で並べる例で説明したが、昇順で処理しても同様である。
(2.1) When adding only rare image data For example, when it is desired to add rare image data to the training data D4, it is conceivable to add image data having a low classification score. A rare image is an image of a situation that is generally not expected. In such a case, for example, the
その他、選択部15は、指定されたクラスのスコアが所定値以下となる拡張データD3を選択するようにしてもよい。この場合に選択する拡張データD3の数を予め決めておいてもよいし、全てを選択するようにしてもよい。この場合に利用するスコアや選択方法は、条件データD1で指定される。
In addition, the
(2.2)よくある画像データを追加する場合
例えば、学習データD4によくある画像データを追加したい場合、分類スコアの高い画像データを追加することが考えられる。よくある画像とは、一般的に珍しくなく、よく起こりうる状況の画像である。このような場合、選択部15は、複数の拡張データD3を降順で並べ、上位となった所定割合(例えば、15%)の拡張データD3を選択し、学習データD4に追加する。ここで利用する、所定の割合は、条件データD1で指定されている。また、ここでは拡張データD3を分類スコアの降順で並べる例で説明したが、昇順で処理しても同様である。
(2.2) When adding common image data For example, when it is desired to add common image data to the training data D4, it is conceivable to add image data having a high classification score. A common image is an image of a common situation that is not uncommon in general. In such a case, the
その他、選択部15は、指定されたクラスのスコアが所定値以上となる拡張データD3を選択するようにしてもよい。この場合に選択する拡張データD3の数を予め決めておいてもよいし、全てを選択するようにしてもよい。この場合に利用するスコアや選択方法は、条件データD1で指定される。
In addition, the
(2.3)ランダムに選択して追加する場合
例えば、追加する画像データの分類スコアを限定せず、単に、学習データD4を増やすことを目的とする場合、ランダムで学習データD4に画像データを追加する。例えば、拡張部13において1万枚の拡張データD3が生成された場合、選択部15は、全ての拡張データD3を分類スコアの降順で並べ、例えば、上位0〜20%の2000枚からランダムに500枚、上位20〜40%の2000枚からランダムに400枚、上位40〜60%の2000枚からランダムに400枚、上位60〜80%の2000枚からランダムに300枚、上位80〜100%の2000枚からランダムに200枚選択する。これにより、選択部15は、様々なバリエーションの拡張データD3を少ない枚数で学習データD4に追加させることができる。この場合も、拡張データD3をスコアの昇順で並べても同様である。ランダムに拡張データを選択する場合の選択方法については、例えば、予め画像処理プログラムPにおいて規定される。または、選択方法について、条件データD1によって指定可能としてもよい。
(2.3) When randomly selected and added For example, when the purpose is to simply increase the training data D4 without limiting the classification score of the image data to be added, the image data is randomly selected and added to the training data D4. to add. For example, when 10,000 expansion data D3s are generated in the
推定部16は、選択部15によって拡張データD3が追加された後の学習データD4を用いて、テストデータD5のクラス分類を実行する。また、推定部16は、得られた分類スコアを所定の閾値以上と比較し、閾値以上である場合、希望の推定精度の学習データD4が得られたと判定し、所定の閾値以上でない場合、希望の推定精度の学習データD4は得られていないと判定する。例えば、推定部16は、あるクラスの分類スコアと比較する閾値を設定し、このクラスについて得られた分類スコアと比較する。これにより、更新された学習データD4が希望の推定精度で処理を実行可能となったか否かを判定することができる。また、推定部16によって希望の推定精度の学習データD4が得られていないと判定した場合、新たに拡張データD3を作成し、処理を繰り返すことができる。
The
このように、画像処理装置1は、学習データとして使用するための拡張データを生成した際、算出されたスコアに応じて選択された拡張データのみを学習データとして追加することができる。したがって、学習データの無駄な増大を防止することが可能となり、効率的な処理を実現させることができる。
As described above, when the
〈画像処理方法〉
次に、図6及び図7に示すフローチャートを用いて、画像処理装置1で実行される画像処理方法について説明する。
<Image processing method>
Next, the image processing method executed by the
画像処理装置1は、データの拡張に関する条件を受け付ける(S1)。条件は、データ拡張の対象や方法、生成する拡張データの数、拡張データに求める精度等の情報を含む。このとき、画像処理装置1は、受け付けた条件を条件データD1として記憶部20に登録する。
また、画像処理装置1は、元画像データを受け付け、記憶部20に登録する(S2)。
The
Further, the
画像処理装置1は、記憶部20から元画像データD2を読み出し、拡張の対象を特定する(S3)。例えば、画像処理装置1は、拡張対象の領域のマスク領域を特定する画像を生成する。
The
画像処理装置1は、拡張データD3を生成する(S4)。このとき、画像処理装置1は、ステップS1で条件として指定された所定数の拡張データD3を生成し、記憶部20に記憶させる。
The
画像処理装置1は、ステップS4で生成した各拡張データD3について、分類スコアを算出する(S5)。また、画像処理装置1は、算出した分類スコアを各拡張データD3と関連付けて記憶部20に記憶させる。
The
その後、画像処理装置1は、ステップS5で算出した分類スコアを参照して学習データD4に追加する拡張データD3を選択する(S6)。拡張データD3の選択処理については、図7に示すフローチャートを用いて後述する。
After that, the
画像処理装置1は、ステップS6で選択した拡張データD3を学習データD4に追加する(S7)。
The
画像処理装置1は、ステップS7で拡張データD3が追加された新たな学習データD4で学習処理を実行する(S8)。
The
ステップS8で得られた精度が閾値以上でない場合(S9でNO)、希望の学習データD4が得られなかったため、画像処理装置1は、ステップS1に戻り、ステップS1〜S9の処理を繰り返す。なお、同一の条件データD1及び元画像データD2を用いる場合、ステップS3に戻って処理を繰り返してもよい。
If the accuracy obtained in step S8 is not equal to or greater than the threshold value (NO in S9), the desired learning data D4 could not be obtained, so the
ステップS9で得られた精度が閾値以上の場合(S9でNO)、画像処理装置1は、希望の学習データD4が得られたため、終了する。
When the accuracy obtained in step S9 is equal to or greater than the threshold value (NO in S9), the
《選択処理》
図7に示すように、図6のフローチャートのステップS6における選択処理では、画像処理装置1は、まず、複数のクラスの分類スコアを利用するか否かを判定する(S61)。具体的には、画像処理装置1は、記憶部20に記憶される条件データD1の条件を参照して判定する。
<< Selection process >>
As shown in FIG. 7, in the selection process in step S6 of the flowchart of FIG. 6, the
複数のクラスの分類スコアを利用する場合(S61でYES)、画像処理装置1は、複数のクラスの分類スコアを利用して、新たなスコアを算出する(S62)。具体的には、画像処理装置1は、記憶部20に記憶される条件データD1に含まれる算出方法で、新たなスコアを算出する。
When the classification scores of a plurality of classes are used (YES in S61), the
一方、複数のクラスの分類スコアを利用しない場合(S61でNO)、画像処理装置1は、ステップS63に進む。このとき、記憶部20に記憶される条件データD1で指定される一のクラスの分類スコアが利用される。
On the other hand, when the classification scores of the plurality of classes are not used (NO in S61), the
画像処理装置1は、ステップS62で算出した新たなスコア又は、記憶部20に記憶される条件データD1で指定される一のクラスの分類スコアを用いて、記憶部20に記憶される複数の拡張データD3をスコアの降順に並べる(S63)。
The
条件データD1でレアな画像を学習データD4に追加することが指定されているとき(S64でYES)、画像処理装置1は、ステップS63で降順に並べた下位所定割合の拡張データD3を選択する(S65)。ここで、選択する所定の割合も、条件データD1で規定される。
When the condition data D1 specifies that a rare image should be added to the training data D4 (YES in S64), the
レアな画像を学習データD4に追加することが指定されていないとき(S64でYES)、画像処理装置1は、条件データD1でよくある画像を学習データD4に追加することが指定されているか否かを判定する(S66)。
When it is not specified to add a rare image to the training data D4 (YES in S64), whether or not the
条件データD1でよくある画像を学習データD4に追加することが指定されているとき(S66でYES)、ステップS63で降順に並べた上位所定割合の拡張データD3を選択する(S67)。ここで、選択する所定の割合も、条件データD1で規定される。 When it is specified to add a common image to the training data D4 in the condition data D1 (YES in S66), the extended data D3 having a higher predetermined ratio arranged in descending order is selected in step S63 (S67). Here, the predetermined ratio to be selected is also defined by the condition data D1.
一方、条件データD1でよくある画像を学習データD4に追加することが指定されていないとき(S66でNO)、条件データD1で指定された方法で拡張データD3を選択する(S68)。 On the other hand, when it is not specified to add a common image in the condition data D1 to the training data D4 (NO in S66), the extended data D3 is selected by the method specified in the condition data D1 (S68).
いずれかの方法で拡張データD3が選択されると(S65,S67,S68)、図6のフローチャートのステップS7の処理に進む。 When the extended data D3 is selected by any of the methods (S65, S67, S68), the process proceeds to step S7 of the flowchart of FIG.
このように、画像処理装置1は、学習データとして使用するための拡張データを生成した際、算出されたスコアに応じて選択された拡張データのみを学習データとして追加することができる。したがって、学習データの無駄な増大を防止することが可能となり、効率的な処理を実現させることができる。
As described above, when the
[効果及び補足]
以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。そこで、以下、他の実施形態を例示する。
[Effects and supplements]
As described above, the above-described embodiment has been described as an example of the technology disclosed in this application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. are made as appropriate. Therefore, other embodiments will be illustrated below.
《変形例》
(1)クラス分類の精度の向上
算出部14を所望の画像データを用いて予め学習させることで、分類精度を向上させることができる。そのため、追加学習部を設け、多量な画像を保有する外部のデータベース等にアクセスして有効な画像データを取得し、取得した複数の画像データを利用して学習させるようにしてもよい。この場合、追加学習部は、指定された条件の画像データを複数外部の装置等から取得し、取得した画像データを学習データとして学習する。
<< Modification example >>
(1) Improving the accuracy of class classification By training the
(2)推定精度の判定
上述した画像処理装置1では、推定部16は、選択部15によって選択された拡張データD3を追加した学習データD4を用いてテストデータD5で推定したが、受付部11で受け付けた元画像データD2を推定部16で推定し、所定の閾値以上である場合に拡張部13による拡張を実行するようにしてもよい。すなわち、元から条件を満たさない画像データを利用してデータ拡張を実行した場合、得られる拡張データD3について、学習データD4に要求する条件を満たさない可能性が高い。したがって、予め条件を満たす元画像データD2のみ使用することで、不要な処理の実行を防止することができる。具体的には、推定部16は、元画像データD2についてクラス分類により各クラスの分類スコアを求め、所定のクラスについての分類スコアが予め定められる閾値以上である場合に、拡張部13での処理を実行するようにしてもよい。これにより、不要な処理を削減することができ、効率的な学習データD4の追加を実現することができる。
(2) Judgment of estimation accuracy In the
《実施形態の概要》
(1)本開示の画像処理装置は、画像データから拡張対象を特定する特定部と、画像データの拡張対象を画像処理により拡張した拡張データを生成する拡張部と、クラス分類により拡張データのスコアを算出する算出部と、得られたスコアに応じて、拡張データを学習データとして使用するか否かを選択する選択部とを備える。
<< Outline of Embodiment >>
(1) The image processing apparatus of the present disclosure includes a specific unit that identifies an expansion target from image data, an extension unit that generates expansion data obtained by expanding the expansion target of image data by image processing, and a score of the expansion data by classification. It is provided with a calculation unit for calculating the above and a selection unit for selecting whether or not to use the extended data as training data according to the obtained score.
これにより、拡張されたデータを学習データとして使用する際に、スコアに応じて学習データとするか否かを判定するため、学習データの無駄な増大を防止することができる。 As a result, when the expanded data is used as the learning data, it is determined whether or not the expanded data is used as the learning data according to the score, so that it is possible to prevent unnecessary increase of the learning data.
(2)(1)の画像処理装置において、特定部は、画像データから拡張する領域を抽出し、拡張部は、画像データのうち特定部が抽出した領域を拡張してもよい。 (2) In the image processing apparatus of (1), the specific unit may extract an area to be expanded from the image data, and the expansion unit may expand the area extracted by the specific unit from the image data.
これにより、画像データの特定の領域を拡張させた学習データを作成することができる。 As a result, it is possible to create learning data in which a specific area of image data is expanded.
(3)(2)の画像処理装置において、拡張部は、領域の色又はテクスチャを変更してもよい。 (3) In the image processing apparatus of (2), the extension portion may change the color or texture of the area.
これにより、領域の色やテクスチャのみを変更するのみで学習データのバリエーションを増やすことができる。 As a result, the variation of the training data can be increased only by changing only the color and texture of the area.
(4)(2)の画像処理装置において、拡張部は、拡張対象を反転、回転又はリサイズしてもよい。 (4) In the image processing apparatus of (2), the expansion unit may invert, rotate, or resize the expansion target.
これにより、対象を反転、回転リサイズするのみで学習データのバリエーションを増やすことができる。 As a result, the variation of the training data can be increased only by reversing and rotating the target.
(5)(1)の画像処理装置において、選択部は、複数の拡張データをスコアの降順又は昇順で並べたとき、上位又は下位の所定数の拡張データを選択してもよい。 (5) In the image processing apparatus of (1), when a plurality of extended data are arranged in descending or ascending order of the score, the selection unit may select a predetermined number of upper or lower extended data.
これにより、希望の精度の学習をさせることができる。 This makes it possible to learn the desired accuracy.
(6)(1)の画像処理装置において、選択部は、複数の拡張データをスコアの降順又は昇順で並べたとき、スコアによって分類された各範囲から規定数の拡張データを選択してもよい。 (6) In the image processing apparatus of (1), when a plurality of extended data are arranged in descending or ascending order of the score, the selection unit may select a specified number of extended data from each range classified by the score. ..
これにより、希望の精度の学習をさせることができる。 This makes it possible to learn the desired accuracy.
(7)(1)の画像処理装置において、拡張部は、ユーザによって拡張条件が入力されると、当該拡張条件で画像データを処理してもよい。 (7) In the image processing apparatus of (1), when the extension condition is input by the user, the extension unit may process the image data under the extension condition.
これにより、指定された条件の拡張データを生成することが可能となり、希望のバリエーションのデータを生成することができる。 As a result, it is possible to generate extended data under the specified conditions, and it is possible to generate data of a desired variation.
(8)本開示の画像処理方法は、画像データから拡張対象を特定するステップと、画像データの前記拡張対象を画像処理により拡張した拡張データを生成するステップと、クラス分類により前記拡張データのスコアを算出するステップと、得られたスコアに応じて、前記拡張データを学習データとして使用するか否かを選択するステップとを有する。 (8) The image processing method of the present disclosure includes a step of specifying an expansion target from image data, a step of generating expansion data obtained by expanding the expansion target of the image data by image processing, and a score of the expansion data by classification. It has a step of calculating the above and a step of selecting whether or not to use the extended data as training data according to the obtained score.
これにより、拡張されたデータを学習データとして使用する際に、スコアに応じて学習データとするか否かを判定するため、学習データの無駄な増大を防止することができる。 As a result, when the expanded data is used as the learning data, it is determined whether or not the expanded data is used as the learning data according to the score, so that it is possible to prevent unnecessary increase of the learning data.
本開示の全請求項に記載の画像処理装置及び画像処理方法は、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現される。 The image processing apparatus and image processing method described in all claims of the present disclosure are realized by cooperation with hardware resources such as a processor, a memory, and a program.
本開示の画像処理装置及び画像処理方法は、機械学習の学習データの拡張に有用である。 The image processing apparatus and image processing method of the present disclosure are useful for extending learning data of machine learning.
1 画像処理装置
10 制御部
11 受付部
12 特定部
13 拡張部
14 算出部
15 選択部
16 推定部
20 記憶部
21 通信I/F
22 入力部
23 出力部
D1 条件データ
D2 元画像データ
D3 拡張データ
D4 学習データ
1
22
Claims (9)
前記画像データの前記拡張対象を画像処理により拡張した拡張データを生成する拡張部と、
クラス分類により前記拡張データのスコアを算出する算出部と、
得られたスコアに応じて、前記拡張データを学習データとして使用するか否かを選択する選択部と、
を備える画像処理装置。 A specific part that identifies the extension target from the image data,
An extension unit that generates extended data obtained by expanding the expansion target of the image data by image processing,
A calculation unit that calculates the score of the extended data by classification,
A selection unit that selects whether or not to use the extended data as training data according to the obtained score, and
An image processing device comprising.
前記拡張部は、前記画像データのうち前記特定部が抽出した領域を拡張する
請求項1に記載の画像処理装置。 The specific unit extracts an area to be expanded from the image data and
The image processing apparatus according to claim 1, wherein the expansion unit expands a region extracted by the specific unit in the image data.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the expansion unit changes the color or texture of the region.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the expansion unit inverts, rotates, or resizes the expansion target.
請求項1乃至4のいずれか1に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the selection unit selects a predetermined number of upper or lower extended data when the plurality of extended data are arranged in descending or ascending order of the score. ..
請求項1乃至4のいずれか1に記載の画像処理装置。 The selection unit according to any one of claims 1 to 4, wherein when a plurality of the extended data are arranged in descending or ascending order of the score, a specified number of the extended data is selected from each range classified by the score. Image processing equipment.
請求項1乃至6のいずれか1に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the expansion unit processes the image data under the expansion condition when the expansion condition is input by the user.
前記画像データの前記拡張対象を画像処理により拡張した拡張データを生成するステップと、
クラス分類により前記拡張データのスコアを算出するステップと、
得られたスコアに応じて、前記拡張データを学習データとして使用するか否かを選択するステップと、
を有する画像処理方法。 Steps to identify the extension target from the image data and
A step of generating extended data obtained by expanding the extended target of the image data by image processing, and
Steps to calculate the score of the extended data by classification and
A step of selecting whether or not to use the extended data as training data according to the obtained score, and
Image processing method having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064518A JP2020166397A (en) | 2019-03-28 | 2019-03-28 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064518A JP2020166397A (en) | 2019-03-28 | 2019-03-28 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020166397A true JP2020166397A (en) | 2020-10-08 |
Family
ID=72714462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019064518A Pending JP2020166397A (en) | 2019-03-28 | 2019-03-28 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020166397A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124380A1 (en) * | 2020-12-09 | 2022-06-16 | Brother Kogyo Kabushiki Kaisha | Method, system, and non-transitory computer-readable storage medium storing set of computer-readable instructions |
WO2022196293A1 (en) | 2021-03-15 | 2022-09-22 | オムロン株式会社 | Data generation device, data generation method, and program |
JP7175061B1 (en) | 2022-06-29 | 2022-11-18 | 株式会社Novera | Program, information processing device, and method |
WO2022269885A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Learning data collection device, learning data collection method, and learning data collection program |
JP7201270B1 (en) | 2021-10-28 | 2023-01-10 | 望 窪田 | Information processing method, program and information processing device |
WO2023067792A1 (en) * | 2021-10-22 | 2023-04-27 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
WO2024029349A1 (en) * | 2022-08-02 | 2024-02-08 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and recording medium |
US12124534B2 (en) | 2020-12-09 | 2024-10-22 | Brother Kogyo Kabushiki Kaisha | Method for generating a plurality of sets of training image data for training machine learning model |
-
2019
- 2019-03-28 JP JP2019064518A patent/JP2020166397A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12124534B2 (en) | 2020-12-09 | 2024-10-22 | Brother Kogyo Kabushiki Kaisha | Method for generating a plurality of sets of training image data for training machine learning model |
JP7557169B2 (en) | 2020-12-09 | 2024-09-27 | ブラザー工業株式会社 | Method, system, and computer program |
WO2022124380A1 (en) * | 2020-12-09 | 2022-06-16 | Brother Kogyo Kabushiki Kaisha | Method, system, and non-transitory computer-readable storage medium storing set of computer-readable instructions |
WO2022196293A1 (en) | 2021-03-15 | 2022-09-22 | オムロン株式会社 | Data generation device, data generation method, and program |
JP7415082B2 (en) | 2021-06-25 | 2024-01-16 | 三菱電機株式会社 | Learning data collection device, learning data collection method, and learning data collection program |
WO2022269885A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Learning data collection device, learning data collection method, and learning data collection program |
JPWO2022269885A1 (en) * | 2021-06-25 | 2022-12-29 | ||
WO2023067792A1 (en) * | 2021-10-22 | 2023-04-27 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
JP2023065826A (en) * | 2021-10-28 | 2023-05-15 | 望 窪田 | Information processing method, program and information processing apparatus |
JP7201270B1 (en) | 2021-10-28 | 2023-01-10 | 望 窪田 | Information processing method, program and information processing device |
JP2024004581A (en) * | 2022-06-29 | 2024-01-17 | 株式会社Novera | Program, information processor, and method |
JP7175061B1 (en) | 2022-06-29 | 2022-11-18 | 株式会社Novera | Program, information processing device, and method |
WO2024029349A1 (en) * | 2022-08-02 | 2024-02-08 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020166397A (en) | Image processing device, image processing method, and program | |
Su et al. | Scenic photo quality assessment with bag of aesthetics-preserving features | |
US8755623B2 (en) | Image enhancement method, image enhancement device, object detection method, and object detection device | |
TWI537868B (en) | System, method, and computer program product for simultaneously determining settings for a plurality of parameter variations | |
CN111062864A (en) | Animation model scaling method and device, electronic equipment and storage medium | |
KR20110094486A (en) | Method and apparatus for compositing image | |
CN110827373B (en) | Advertisement picture generation method, device and storage medium | |
Wang et al. | Realistic lung nodule synthesis with multi-target co-guided adversarial mechanism | |
CN104112131B (en) | Method and device for generating training samples used for face detection | |
JP3579775B2 (en) | Video generator | |
US11361189B2 (en) | Image generation method and computing device | |
CN115690406A (en) | Background replacing method, device, equipment and storage medium | |
KR20200134813A (en) | Apparatus and method for image processing for machine learning | |
KR20230128943A (en) | An item image reconstruction and synthesis model configured to a generative adversarial network and a training method of the item image reconstruction and synthesis model | |
JP7542199B2 (en) | Neural network, calculation method and program | |
WO2023053364A1 (en) | Information processing device, information processing method, and information processing program | |
TWI733341B (en) | Method and system for image scaling and enhancement | |
Lee et al. | CartoonModes: Cartoon stylization of video objects through modal analysis | |
JP6674498B2 (en) | Game program and game device | |
JP6148426B1 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2023053365A1 (en) | Information processing device, information processing method, and information processing program | |
US20240242416A1 (en) | Real-time rendering generating apparatus, method, and non-transitory computer readable storage medium thereof | |
CN112827175B (en) | Collision frame determination method and device and computer readable storage medium | |
JP2021140481A (en) | Device and program for generating learning data | |
KR101117543B1 (en) | sign estimation system |