JP2020166397A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2020166397A
JP2020166397A JP2019064518A JP2019064518A JP2020166397A JP 2020166397 A JP2020166397 A JP 2020166397A JP 2019064518 A JP2019064518 A JP 2019064518A JP 2019064518 A JP2019064518 A JP 2019064518A JP 2020166397 A JP2020166397 A JP 2020166397A
Authority
JP
Japan
Prior art keywords
data
image processing
unit
image
expansion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019064518A
Other languages
Japanese (ja)
Inventor
優也 田中
Yuya Tanaka
優也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019064518A priority Critical patent/JP2020166397A/en
Publication of JP2020166397A publication Critical patent/JP2020166397A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To prevent wasteful increase in learning data when creating learning data for machine learning by expansion.SOLUTION: An image processing device includes: an identification unit (12) that identifies an expansion target from image data; an expansion unit (13) that generates expansion data obtained by expanding the expansion target of the image data by image processing; a calculation unit (14) that calculates a score of the expansion data by class-classification; and a selection unit (15) that selects whether or not to use the expansion data as learning data according to the obtained score.SELECTED DRAWING: Figure 1

Description

本開示は、機械学習の学習データを拡張する画像処理装置、画像処理方法、及びプログラムに関する。 The present disclosure relates to image processing devices, image processing methods, and programs that extend learning data for machine learning.

特許文献1には、機械学習で利用する教師データ(学習データ)を生成する画像処理装置について記載されている。機械学習では、学習データの特徴量空間における分布範囲が得られる結果に影響するため、多種多様な学習データを用いることが好ましい。ところが、多種多様な学習データを撮影取得等することは撮影の時間や手間等も必要であることから困難であり、特許文献1に記載されるように、多種多様な学習データを作成する方法が検討されている。 Patent Document 1 describes an image processing device that generates teacher data (learning data) used in machine learning. In machine learning, it is preferable to use a wide variety of learning data because it affects the result of obtaining the distribution range of the learning data in the feature space. However, it is difficult to acquire and acquire a wide variety of learning data because it takes time and effort for shooting, and as described in Patent Document 1, a method of creating a wide variety of learning data is available. It is being considered.

特開2018−163554号公報JP-A-2018-163554

本開示は、データ拡張により機械学習の学習データを追加する際、有効なデータを選択し、有効なデータのみ追加する画像処理装置、画像処理方法、及びプログラムを提供する。 The present disclosure provides an image processing apparatus, an image processing method, and a program that select valid data and add only valid data when adding learning data for machine learning by data expansion.

本開示の画像処理装置は、画像データから拡張対象を特定する特定部と、画像データの拡張対象を画像処理により拡張した拡張データを生成する拡張部と、クラス分類により拡張データのスコアを算出する算出部と、得られたスコアに応じて、拡張データを学習データとして使用するか否かを選択する選択部とを備える。 The image processing apparatus of the present disclosure calculates a score of extended data by class classification, a specific unit that identifies an extended target from image data, an extended unit that generates extended data obtained by expanding the extended target of image data by image processing. It includes a calculation unit and a selection unit that selects whether or not to use the extended data as training data according to the obtained score.

これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。 These general and specific aspects may be realized by systems, methods, and computer programs, and combinations thereof.

本開示の画像処理装置、画像処理方法、及びプログラムによれば、データ拡張により機械学習用の学習データを作成する際、無駄な学習データの増大を防止することができる。 According to the image processing apparatus, the image processing method, and the program of the present disclosure, it is possible to prevent an increase in unnecessary learning data when creating learning data for machine learning by data expansion.

本開示に係る画像処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the image processing apparatus which concerns on this disclosure. 拡張の対象とする元画像データの一例である。This is an example of the original image data to be expanded. 拡張の対象とするマスク領域を特定したマスク画像の一例である。This is an example of a mask image in which the mask area to be expanded is specified. 図2の画像データから生成された拡張データの一例である。This is an example of extended data generated from the image data of FIG. 図2の画像データから生成された拡張データの他の例である。It is another example of the extended data generated from the image data of FIG. 図2の画像データから生成された拡張データの他の例である。It is another example of the extended data generated from the image data of FIG. 図4Aの拡張データから算出される分類スコアの一例である。It is an example of the classification score calculated from the extended data of FIG. 4A. 画像処理方法の処理を説明するフローチャートである。It is a flowchart explaining the processing of an image processing method. 図6のフローチャートの選択処理を説明するフローチャートである。It is a flowchart explaining the selection process of the flowchart of FIG.

[本開示の基礎となった知見]
近年、様々な分野に機械学習が普及している。機械学習では、学習データの特徴量空間における分布範囲がその結果を左右するため、多種多様な学習データが必要になる。ところが、画像撮影等により学習データを作成することは物理的な問題等から困難である。そのためデータオーギュメンテーション等のデータ拡張が利用されている。
[Findings underlying this disclosure]
In recent years, machine learning has become widespread in various fields. In machine learning, a wide variety of learning data is required because the distribution range of the learning data in the feature space determines the result. However, it is difficult to create learning data by taking an image or the like due to physical problems. Therefore, data extensions such as data augmentation are used.

ところが、データオーギュメンテーションでは、現実として想定し得ない画像データが生成される場合もあり得る。すなわち、データオーギュメンテーション等のデータ拡張の技術では、ランダムパラメータを用いるため、学習データとして、機械学習の精度には無関係なデータが作成される恐れがある。このように機械学習の精度に無関係なデータが作成されると、精度の向上が得られないばかりでなく、学習データの数の増加によって、処理容量が増大する。 However, in data augmentation, image data that cannot be expected in reality may be generated. That is, since a random parameter is used in a data expansion technique such as data augmentation, there is a possibility that data irrelevant to the accuracy of machine learning is created as learning data. When data irrelevant to the accuracy of machine learning is created in this way, not only the accuracy cannot be improved, but also the processing capacity increases due to the increase in the number of learning data.

本開示は、データ拡張により機械学習の学習データを追加する際に、拡張データから有効なデータを選択し、無駄な学習データの増大を防止することができる画像処理装置、画像処理方法及びプログラムを提供する。これにより、不要に多量の学習データを用いるのではなく、処理を効率化させることのできる学習データの利用を実現させることができる。 The present disclosure provides an image processing device, an image processing method, and a program capable of selecting valid data from the extended data and preventing an increase in unnecessary learning data when adding machine learning learning data by data expansion. provide. As a result, it is possible to realize the use of learning data that can improve the processing efficiency, instead of using an unnecessarily large amount of learning data.

[実施形態]
以下に、図面を用いて本開示における実施の形態を、図面を適宜参照しながら説明する。ただし、詳細な説明において、従来技術および実質的に同一の構成に関する説明のうち不必要な部分は省略されることもある。これは、説明を簡単にするためである。また、以下の説明および添付の図面は、当業者が本開示を充分に理解できるよう開示されるのであって、特許請求の範囲の主題を限定することを意図されていない。
[Embodiment]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. However, in the detailed description, unnecessary parts of the description of the prior art and substantially the same configuration may be omitted. This is for the sake of simplicity. In addition, the following description and accompanying drawings are disclosed so that those skilled in the art can fully understand the present disclosure, and are not intended to limit the subject matter of the claims.

本開示に係る、画像処理装置、画像処理方法及びプログラムは、機械学習の学習データを拡張により生成するものである。以下では、画像処理装置は、人物検知のために利用する学習データを拡張する一例で説明する。したがって、以下の説明において、画像処理装置における画像処理の対象は、人物が含まれる画像データである。具体的には、人物が含まれる元画像データの一部について、人物のいずれかの部分のテクスチャを変更した拡張データを生成する例で説明する。 The image processing apparatus, image processing method, and program according to the present disclosure generate learning data for machine learning by extension. In the following, the image processing device will be described as an example of expanding the learning data used for detecting a person. Therefore, in the following description, the target of image processing in the image processing apparatus is image data including a person. Specifically, a part of the original image data including a person will be described with an example of generating extended data in which the texture of any part of the person is changed.

本開示において、「拡張」とは、画像の反転、回転、リサイズ、対象部分の色、テクスチャの変更等を意味する。人物の画像に関する反転、回転、リサイズには、人物の傾きの変更、人物の大きさの変更等がある。人物の大きさの変更には、通常の体格の人物を細め又は太目の体格に変更したり、背を高く又は低く変更したりすることが含まれる。人物の画像の色の変更とは、人物の肌の色の変更や、人物の衣服や持ち物の色の変更を含むものとする。
また、「テクスチャ」とは、画像の見た目の質感を変更することをいい、模様の変更も含むものとする。例えば、人物の画像に関するテクスチャの変更とは、衣服や人物の持ち物の素材、柄、模様等の変更を含むものとする。
In the present disclosure, "extension" means inversion, rotation, resizing, color of the target portion, change of texture, and the like. Inversion, rotation, and resizing of a person's image include changing the tilt of the person and changing the size of the person. Changing the size of a person includes changing a person of normal physique to a thinner or thicker physique, or changing the person to be taller or shorter. Changing the color of a person's image shall include changing the color of the person's skin and changing the color of the person's clothing and belongings.
Further, "texture" means changing the appearance texture of the image, and includes changing the pattern. For example, changing the texture of a person's image includes changing the material, pattern, pattern, etc. of clothing or the person's belongings.

〈画像処理装置〉
画像処理装置1は、図1に示すように、制御部10、記憶部20、通信インタフェース(I/F)21、入力部22及び出力部23等を備える情報処理装置である。
<Image processing device>
As shown in FIG. 1, the image processing device 1 is an information processing device including a control unit 10, a storage unit 20, a communication interface (I / F) 21, an input unit 22, an output unit 23, and the like.

制御部10は、画像処理装置1全体の制御を司るコントローラである。例えば、制御部10は、記憶部20に記憶される画像処理プログラムPを読み出して実行することにより、受付部11、特定部12、拡張部13、算出部14、選択部15及び推定部16としての処理を実現する。また、制御部10は、ハードウェアとソフトウェアの協働により所定の機能を実現するものに限定されず、所定の機能を実現する専用に設計されたハードウェア回路でもよい。すなわち、制御部10は、CPU、MPU、GPU、FPGA、DSP、ASIC等、種々のプロセッサで実現することができる。 The control unit 10 is a controller that controls the entire image processing device 1. For example, the control unit 10 reads and executes the image processing program P stored in the storage unit 20 to serve as the reception unit 11, the specific unit 12, the expansion unit 13, the calculation unit 14, the selection unit 15, and the estimation unit 16. Achieve the processing of. Further, the control unit 10 is not limited to one that realizes a predetermined function by the cooperation of hardware and software, and may be a hardware circuit specially designed to realize a predetermined function. That is, the control unit 10 can be realized by various processors such as a CPU, MPU, GPU, FPGA, DSP, and ASIC.

記憶部20は種々の情報を記録する記録媒体である。記憶部20は、例えば、RAM、ROM、フラッシュメモリ、SSD(Solid State Device)、ハードディスク、その他の記憶デバイス又はそれらを適宜組み合わせて実現される。記憶部20には、制御部10が実行する画像処理プログラムPの他、画像処理のために取得された種々の情報等が格納される。例えば、記憶部20は、画像処理で使用する条件データD1、元画像データD2、画像処理で使用された拡張データD3及び学習データD4を記憶する。 The storage unit 20 is a recording medium for recording various information. The storage unit 20 is realized by, for example, a RAM, a ROM, a flash memory, an SSD (Solid State Device), a hard disk, another storage device, or a combination thereof as appropriate. In addition to the image processing program P executed by the control unit 10, various information acquired for image processing and the like are stored in the storage unit 20. For example, the storage unit 20 stores the condition data D1 used in the image processing, the original image data D2, the extended data D3 used in the image processing, and the learning data D4.

通信I/F21は、外部の装置(図示せず)とのデータ通信を可能とするためのインタフェース回路(モジュール)である。入力部22は、操作やデータの入力に利用される操作ボタン、キーボード、マウス、タッチパネル、マイクロフォン等の入力手段である。出力部23は、処理結果やデータの出力に利用されるディスプレイ、スピーカ等の出力手段である。 The communication I / F 21 is an interface circuit (module) for enabling data communication with an external device (not shown). The input unit 22 is an input means such as an operation button, a keyboard, a mouse, a touch panel, and a microphone used for operation and data input. The output unit 23 is an output means such as a display or a speaker used for outputting processing results and data.

なお、画像処理装置1は、複数の情報処理装置によって実現されてもよい。また、記憶部20に記憶されるデータの一部は外部の記憶装置に記憶され、外部の記憶装置から読み出して使用する構成であってもよい。 The image processing device 1 may be realized by a plurality of information processing devices. Further, a part of the data stored in the storage unit 20 may be stored in an external storage device and read from the external storage device for use.

条件データD1は、画像処理装置1においてデータ拡張の条件として入力されたデータであり、具体例については後述する。 The condition data D1 is data input as a condition for data expansion in the image processing apparatus 1, and a specific example will be described later.

元画像データD2は、画像処理装置1においてデータ拡張に利用される画像データである。例えば、図2に示すように、元画像データD2には、被写体として、人物が含まれる。 The original image data D2 is image data used for data expansion in the image processing device 1. For example, as shown in FIG. 2, the original image data D2 includes a person as a subject.

拡張データD3は、画像処理装置1において画像処理によって拡張されたデータであり、具体例については後述する。 The extended data D3 is data expanded by image processing in the image processing apparatus 1, and specific examples will be described later.

学習データD4は、機械学習において教師データとなるデータである。画像処理装置1では、この学習データD4に、画像処理によって拡張された拡張データD3が追加される。 The learning data D4 is data that serves as teacher data in machine learning. In the image processing device 1, the extended data D3 expanded by the image processing is added to the learning data D4.

受付部11は、画像処理、具体的には、画像データの拡張に利用される条件を受け付ける。また、受付部11は、受け付けた条件を条件データD1として記憶部20に記憶させる。 The reception unit 11 accepts conditions used for image processing, specifically, expansion of image data. Further, the reception unit 11 stores the received condition as the condition data D1 in the storage unit 20.

例えば、条件には、特定部12における拡張の対象の特定方法を含むことができる。拡張対象の特定には、画像データのどのような領域を拡張するかを含むことができる。条件には、拡張部13におけるデータの拡張方法を含むことができる。拡張方法としては、画像の反転、回転、リサイズ、テクスチャの変更等を含む。条件には、選択部15における拡張データD3の選択方法を含むことができる。選択方法としては、学習データD4に求めるデータの精度を含む。 For example, the condition can include a method of identifying the target of extension in the specific unit 12. The identification of the expansion target can include what kind of area of the image data is to be expanded. The condition can include a method of expanding data in the expansion unit 13. Extension methods include image inversion, rotation, resizing, texture change, and the like. The condition can include a method of selecting the extended data D3 in the selection unit 15. The selection method includes the accuracy of the data required for the learning data D4.

また、受付部11は、拡張の対象となる元画像データを受け付け、記憶部20に元画像データD2として記憶させる。例えば、受付部11は、通信I/F21を介して外部の装置(図示せず)から受信する画像データを元画像データとすることができる。なお、受付部11が受け付ける画像データの数については限定されない。この場合、画像処理装置1は、複数の画像データを処理対象としてもよい。 Further, the reception unit 11 receives the original image data to be expanded and stores it in the storage unit 20 as the original image data D2. For example, the reception unit 11 can use the image data received from an external device (not shown) via the communication I / F 21 as the original image data. The number of image data received by the reception unit 11 is not limited. In this case, the image processing device 1 may process a plurality of image data.

特定部12は、拡張対象の元画像データD2から、拡張の対象を特定する。ここでは、画像データのある領域について、テクスチャを変更した拡張データを生成する例で説明する。このような場合、特定部12は、元画像データD2から拡張の対象の領域を抽出する。また、特定部12は、特定結果を拡張部13に出力する。領域の抽出方法については、既存の領域抽出技術を利用する。例えば、領域抽出技術の一例としては、セマンティックセグメンテーションがあげられる。また、特定部12は、複数の領域抽出技術に対応し、条件データD1に応じて使用する領域抽出技術を選択可能であってもよい。 The identification unit 12 specifies the target of expansion from the original image data D2 of the expansion target. Here, an example of generating extended data with a modified texture will be described for a certain area of image data. In such a case, the specific unit 12 extracts the region to be expanded from the original image data D2. Further, the specific unit 12 outputs the specific result to the expansion unit 13. As for the region extraction method, the existing region extraction technology is used. For example, an example of a region extraction technique is semantic segmentation. Further, the specific unit 12 may correspond to a plurality of region extraction technologies and may be able to select the region extraction technology to be used according to the condition data D1.

図3は、図2に示す元画像データD2から特定された拡張の対象の領域を示す一例である。図3に示す例では、図2の元画像データD2から人物が着用する下衣であるスカートの部分がマスク領域Mとして抽出されるマスク画像の一例で示すが、特定部12が特定するマスク領域については限定されない。例えば、人物が着用する上衣であるTシャツ等の部分がマスク領域として抽出されてもよい。 FIG. 3 is an example showing an region to be expanded specified from the original image data D2 shown in FIG. In the example shown in FIG. 3, a mask image in which the skirt portion, which is the undergarment worn by a person, is extracted as the mask region M from the original image data D2 in FIG. 2 is shown as an example, but the mask region specified by the specific portion 12 is shown. Is not limited. For example, a portion such as a T-shirt, which is a top worn by a person, may be extracted as a mask area.

拡張部13は、元画像データD2の拡張対象を画像処理により拡張した拡張データD3を生成する。具体的には、拡張部13は、条件データD1に応じて、元画像データD2に対し、反転、回転、リサイズ、色の変更、テクスチャ変更等の処理を実行する。ここでは、特定部12で特定されたマスク領域Mの色及びテクスチャを変更する例で説明する。拡張部13は、例えば、ランダムパラメータを用いてランダムに選択された色又はテクスチャをマスク領域Mに追加する。データの拡張方法については、既存のデータ拡張技術を利用する。例えば、色やテクスチャを変更するデータ拡張技術の一例としては、アルファブレンディングがあげられる。 The expansion unit 13 generates the expansion data D3 in which the expansion target of the original image data D2 is expanded by image processing. Specifically, the expansion unit 13 executes processing such as inversion, rotation, resizing, color change, and texture change on the original image data D2 according to the condition data D1. Here, an example of changing the color and texture of the mask area M specified by the specific unit 12 will be described. The extension unit 13 adds, for example, a color or texture randomly selected using a random parameter to the mask area M. As for the data expansion method, the existing data expansion technology is used. For example, alpha blending is an example of a data extension technology that changes colors and textures.

図4A乃至図4Cは、図3で選択されたマスク領域Mについてランダムに色又はテクスチャが変更された拡張データD3の一例を示す。図4Aは、マスク領域Mの部分の色が変更された例で、図4B及び図4Cは、マスク領域Mの模様が変更された例である。図4A乃至図4Cでは、3パターンの拡張がされた例であるが、拡張部13は、さらに多くのパターンの拡張データD3を生成することが可能であり、例えば、ランダムパラメータを使用して1万パターンの画像データを生成することができる。例えば、拡張部13は、条件データD1で規定された数の拡張データD3を生成する。すなわち、ユーザは、拡張部13に生成させる拡張データD3の数を自由に設定することができる。 4A to 4C show an example of extended data D3 in which the color or texture of the mask region M selected in FIG. 3 is randomly changed. FIG. 4A is an example in which the color of the portion of the mask area M is changed, and FIGS. 4B and 4C are examples in which the pattern of the mask area M is changed. Although 3 patterns of expansion are shown in FIGS. 4A to 4C, the expansion unit 13 can generate expansion data D3 of more patterns, for example, 1 using a random parameter. It is possible to generate 10,000 patterns of image data. For example, the expansion unit 13 generates the expansion data D3 in the number specified by the condition data D1. That is, the user can freely set the number of extended data D3 to be generated in the extended unit 13.

このとき、条件データD1は、所定の条件で拡張データD3を生成すること、又は生成しないことを含んでもよい。具体的には、拡張データD3においてテクスチャを付与する際に黒色を含まないことを条件としたり、黒色を含むことを条件とすることができる。また、拡張データD3において所定テクスチャを多く含むことを条件としてもよい。具体的には、テクスチャを付与する際に黒色を含む拡張データD3を所定の割合(例えば、50%)で生成するような条件とすることができる。 At this time, the condition data D1 may include generating or not generating the extended data D3 under predetermined conditions. Specifically, when the texture is given in the extended data D3, it can be a condition that black is not included, or it can be a condition that black is included. Further, it may be a condition that the extended data D3 contains a large number of predetermined textures. Specifically, the condition can be such that the extended data D3 including black color is generated at a predetermined ratio (for example, 50%) when the texture is applied.

算出部14は、拡張データD3についてクラス分類の分類スコアを算出する。具体的には、この算出部14は、基準となる学習データによって学習済みのクラス分類器であって、拡張データD3の各クラスの分類スコアを算出する。この算出部14には、既存の分類器を用いることができる。例えば、分類器の一例としては、VGG16やInceptionV3等を利用することができる。 The calculation unit 14 calculates the classification score of the classification for the extended data D3. Specifically, the calculation unit 14 is a class classifier that has been trained by the reference learning data, and calculates the classification score of each class of the extended data D3. An existing classifier can be used for the calculation unit 14. For example, as an example of the classifier, VGG16, Inception V3 and the like can be used.

なお、算出部14は、入力画像の属性を統計的に網羅した画像群により学習済みであることが好ましい。具体的には、入力画像が「歩行者」の画像である場合、算出部14は、多種多様な「人間」の画像により学習済みである必要がある。また、入力画像が「ニンジン」の画像である場合、算出部14は、多種多様な「野菜」の画像により学習済みである必要がある。さらに、入力画像が「スポーツカー」の画像である場合、算出部14は、多数の多種多様な「自動車」の画像により学習済みである必要がある。ここで、算出部14は、拡張部13で拡張した全ての拡張データD3に対して分類スコアを算出する。なお、仮に、算出部14で学習に使用する学習データとして拡張データD3を追加前の学習データD4を使用する場合、拡張データD3を追加前の学習データD4に類似するデータのスコアが高くなり、最終的にスコアが高いものを選べば過学習、低いものを選んだ場合は全く不必要なデータを選択してしまう可能性がある。したがって、算出部14が学習データとして拡張データD3を追加前の学習データD4を使用することは避けることが好ましい。具体的には、算出部で基準とする学習データは、あくまで自然画像であったり、上述したような例(「歩行者」と「人間」、「ニンジン」と「野菜」、「スポーツカー」と「自動車」等)の関係とする必要がある。 It is preferable that the calculation unit 14 has already been trained by the image group that statistically covers the attributes of the input image. Specifically, when the input image is an image of a "pedestrian", the calculation unit 14 needs to have been trained by a wide variety of images of "humans". Further, when the input image is an image of "carrot", the calculation unit 14 needs to have learned from a wide variety of images of "vegetables". Further, when the input image is an image of a "sports car", the calculation unit 14 needs to have been trained by a large number of various "automobile" images. Here, the calculation unit 14 calculates the classification score for all the extended data D3 expanded by the expansion unit 13. If the learning data D4 before the extension data D3 is added is used as the learning data used for learning by the calculation unit 14, the score of the data similar to the learning data D4 before the extension data D3 is added becomes high. Ultimately, if you choose a high score, you may overfit, and if you choose a low score, you may select completely unnecessary data. Therefore, it is preferable that the calculation unit 14 avoids using the learning data D4 before adding the extended data D3 as the learning data. Specifically, the learning data used as the reference in the calculation unit is just a natural image, or the above-mentioned examples (“pedestrian” and “human”, “carrot” and “vegetable”, “sports car”, etc. It is necessary to have a relationship of "automobile" etc.).

図5は、図4Aの拡張データD3から求めた分類スコアの一例を示す。図4Aの拡張データD3は、人物の元画像データD2から得られたものであるため、人物('human')のクラスの分類スコアとして「0.9043」と高い値が算出された。また、画像内の人物が着用する眼鏡('glasses')のクラスの分類スコア及びスカート('skirt')のクラスの分類スコアも高い値が算出された。一方、図5に表される他のクラスは、拡張データD3と関係のないクラスであるため、算出された分類スコアの値は、低いものとなっている。 FIG. 5 shows an example of the classification score obtained from the extended data D3 of FIG. 4A. Since the extended data D3 of FIG. 4A was obtained from the original image data D2 of a person, a high value of "0.9043" was calculated as the classification score of the class of the person ('human'). In addition, high values were calculated for the classification score of the glasses ('glasses') class and the classification score of the skirt ('skirt') worn by the person in the image. On the other hand, since the other classes shown in FIG. 5 are classes unrelated to the extended data D3, the calculated classification score value is low.

選択部15は、拡張部13で生成された拡張データD3について、学習データD4として利用するデータを選択する。具体的には、選択部15は、算出部14で算出された分類スコア及び予め指定された条件に応じて、拡張データD3から学習データD4として利用するデータを選択する。また、選択部15は、選択された拡張データD3を、算出部14の算出結果とともに、学習データD4として記憶部20に記憶させる。 The selection unit 15 selects the data to be used as the learning data D4 for the expansion data D3 generated by the expansion unit 13. Specifically, the selection unit 15 selects data to be used as learning data D4 from the extended data D3 according to the classification score calculated by the calculation unit 14 and the conditions specified in advance. Further, the selection unit 15 stores the selected extended data D3 in the storage unit 20 as learning data D4 together with the calculation result of the calculation unit 14.

《分類スコア》
選択部15は、算出部14で算出した分類スコアを用いて分類するが、分類スコアの利用の方法としては、複数考えられる。具体的には、算出部14で算出した単一のクラスの分類スコアを用いる場合と、算出部14で算出した複数のクラスの分類スコアから新たなスコアを算出して用いる場合が考えられる。また、単一のクラスの分類スコア、または、複数のクラスの分類スコアのいずれを用いるのかは、条件データD1において指定されている。
《Classification score》
The selection unit 15 classifies using the classification score calculated by the calculation unit 14, and there are a plurality of possible methods for using the classification score. Specifically, it is conceivable to use the classification score of a single class calculated by the calculation unit 14, or to calculate and use a new score from the classification scores of a plurality of classes calculated by the calculation unit 14. Further, whether to use the classification score of a single class or the classification score of a plurality of classes is specified in the condition data D1.

(1.1)単一のクラスの分類スコアのみを参照する場合
選択部15は、一のクラスの分類スコアを用いて、拡張データD3を選択してもよい。この場合、選択部15は、算出部14で算出された各クラスの分類スコアのうち、条件データD1で指定されるクラスの分類スコアのみを利用する。
(1.1) When Referencing Only the Classification Score of a Single Class The selection unit 15 may select the extended data D3 by using the classification score of one class. In this case, the selection unit 15 uses only the classification score of the class specified by the condition data D1 among the classification scores of each class calculated by the calculation unit 14.

(1.2)複数のクラスの分類スコアを参照する場合
選択部15は、複数のクラスの分類スコアを用いて、拡張データD3を選択してもよい。この場合、選択部15は、算出部14で算出された各クラスの分類スコアのうち、条件データD1で指定される複数のクラスの分類スコアを用いて新たなスコアを算出して利用する。例えば、選択部15は、以下の式(1)に示すような重み付け加算によって得られた値を新たなスコアとして利用する。
(1.2) When referring to the classification scores of a plurality of classes The selection unit 15 may select the extended data D3 by using the classification scores of a plurality of classes. In this case, the selection unit 15 calculates and uses a new score using the classification scores of a plurality of classes specified in the condition data D1 among the classification scores of each class calculated by the calculation unit 14. For example, the selection unit 15 uses the value obtained by weighting addition as shown in the following equation (1) as a new score.

'human_new'
= Whuman * 'human' + Wglasses * 'glasses' + Wskirt * 'skirt'
・・・(1)
ただし、
'human_new': 選択部15で算出する新たなスコア
'human','glasses','skirt': 算出部14で算出した分類スコア
Whuman,Wglasses,Wskirt: 各分類スコアの重み値
とする。
'human_new'
= Whuman *'human' + Wglasses *'glasses' + Wskirt *'skirt'
... (1)
However,
'human_new': New score calculated by selection 15
'human','glasses','skirt': Classification score calculated by the calculation unit 14 Whuman, Wglasses, Wskirt: Weight value of each classification score.

式(1)は、新たに人物のスコアを算出する際に、それぞれ重み値で重み付けされた人物のスコア('human')、眼鏡のスコア('glasses')及びスカート('skirt')のスコアが加算された例である。 Equation (1) is a score of a person weighted by a weight value ('human'), a score of glasses ('glasses'), and a score of a skirt ('skirt'), respectively, when calculating a new person's score. Is an example in which is added.

《選択方法》
選択部15は、分類スコアを用いて拡張データD3を選択するが、選択の方法としては、複数考えられる。この選択方法は、どのような目的で学習データD4を増加させるかによって異なる。具体的には、レアな画像データのみを追加したい場合、よくある画像データのみを追加したい場合、ランダムに選択した画像データを追加した場合等が考えられる。どのような目的で学習データD4に拡張データD3を追加させるのかについては、条件データD1で指定されている。
<< Selection method >>
The selection unit 15 selects the extended data D3 using the classification score, and a plurality of selection methods can be considered. This selection method differs depending on the purpose for which the learning data D4 is increased. Specifically, it is conceivable that only rare image data is to be added, only common image data is to be added, or randomly selected image data is added. The purpose of adding the extended data D3 to the training data D4 is specified by the condition data D1.

(2.1)レアな画像データのみを追加する場合
例えば、学習データD4にレアな画像データを追加したい場合、分類スコアの低い画像データを追加することが考えられる。レアな画像とは、一般的にあまり想定されない状況の画像である。このような場合、選択部15は、例えば、複数の拡張データD3を降順で並べ、下位となった所定割合(例えば、15%)の拡張データD3を選択し、学習データD4に追加する。ここで利用する、所定の割合は、条件データD1で指定されている。また、ここでは拡張データD3を分類スコアの降順で並べる例で説明したが、昇順で処理しても同様である。
(2.1) When adding only rare image data For example, when it is desired to add rare image data to the training data D4, it is conceivable to add image data having a low classification score. A rare image is an image of a situation that is generally not expected. In such a case, for example, the selection unit 15 arranges a plurality of extended data D3s in descending order, selects the extended data D3 having a predetermined ratio (for example, 15%) that is lower, and adds it to the learning data D4. The predetermined ratio used here is specified in the condition data D1. Further, although the example in which the extended data D3 is arranged in descending order of the classification score has been described here, the same applies even if the extended data D3 is processed in ascending order.

その他、選択部15は、指定されたクラスのスコアが所定値以下となる拡張データD3を選択するようにしてもよい。この場合に選択する拡張データD3の数を予め決めておいてもよいし、全てを選択するようにしてもよい。この場合に利用するスコアや選択方法は、条件データD1で指定される。 In addition, the selection unit 15 may select the extended data D3 in which the score of the designated class is equal to or less than a predetermined value. In this case, the number of extended data D3 to be selected may be determined in advance, or all may be selected. The score and selection method used in this case are specified in the condition data D1.

(2.2)よくある画像データを追加する場合
例えば、学習データD4によくある画像データを追加したい場合、分類スコアの高い画像データを追加することが考えられる。よくある画像とは、一般的に珍しくなく、よく起こりうる状況の画像である。このような場合、選択部15は、複数の拡張データD3を降順で並べ、上位となった所定割合(例えば、15%)の拡張データD3を選択し、学習データD4に追加する。ここで利用する、所定の割合は、条件データD1で指定されている。また、ここでは拡張データD3を分類スコアの降順で並べる例で説明したが、昇順で処理しても同様である。
(2.2) When adding common image data For example, when it is desired to add common image data to the training data D4, it is conceivable to add image data having a high classification score. A common image is an image of a common situation that is not uncommon in general. In such a case, the selection unit 15 arranges the plurality of extended data D3s in descending order, selects the extended data D3 having a higher predetermined ratio (for example, 15%), and adds it to the learning data D4. The predetermined ratio used here is specified in the condition data D1. Further, although the example in which the extended data D3 is arranged in descending order of the classification score has been described here, the same applies even if the extended data D3 is processed in ascending order.

その他、選択部15は、指定されたクラスのスコアが所定値以上となる拡張データD3を選択するようにしてもよい。この場合に選択する拡張データD3の数を予め決めておいてもよいし、全てを選択するようにしてもよい。この場合に利用するスコアや選択方法は、条件データD1で指定される。 In addition, the selection unit 15 may select the extended data D3 in which the score of the designated class is equal to or higher than a predetermined value. In this case, the number of extended data D3 to be selected may be determined in advance, or all may be selected. The score and selection method used in this case are specified in the condition data D1.

(2.3)ランダムに選択して追加する場合
例えば、追加する画像データの分類スコアを限定せず、単に、学習データD4を増やすことを目的とする場合、ランダムで学習データD4に画像データを追加する。例えば、拡張部13において1万枚の拡張データD3が生成された場合、選択部15は、全ての拡張データD3を分類スコアの降順で並べ、例えば、上位0〜20%の2000枚からランダムに500枚、上位20〜40%の2000枚からランダムに400枚、上位40〜60%の2000枚からランダムに400枚、上位60〜80%の2000枚からランダムに300枚、上位80〜100%の2000枚からランダムに200枚選択する。これにより、選択部15は、様々なバリエーションの拡張データD3を少ない枚数で学習データD4に追加させることができる。この場合も、拡張データD3をスコアの昇順で並べても同様である。ランダムに拡張データを選択する場合の選択方法については、例えば、予め画像処理プログラムPにおいて規定される。または、選択方法について、条件データD1によって指定可能としてもよい。
(2.3) When randomly selected and added For example, when the purpose is to simply increase the training data D4 without limiting the classification score of the image data to be added, the image data is randomly selected and added to the training data D4. to add. For example, when 10,000 expansion data D3s are generated in the expansion unit 13, the selection unit 15 arranges all the expansion data D3s in descending order of the classification score, for example, randomly from the top 0 to 20% of 2000 sheets. 500 sheets, 400 sheets randomly from 2000 sheets of the top 20-40%, 400 sheets randomly from 2000 sheets of the top 40-60%, 300 sheets randomly from 2000 sheets of the top 60-80%, top 80-100% 200 sheets are randomly selected from 2000 sheets. As a result, the selection unit 15 can add various variations of the extended data D3 to the learning data D4 with a small number of sheets. In this case as well, the same applies when the extended data D3 is arranged in ascending order of the score. The selection method when the extended data is randomly selected is defined in advance in, for example, the image processing program P. Alternatively, the selection method may be specified by the condition data D1.

推定部16は、選択部15によって拡張データD3が追加された後の学習データD4を用いて、テストデータD5のクラス分類を実行する。また、推定部16は、得られた分類スコアを所定の閾値以上と比較し、閾値以上である場合、希望の推定精度の学習データD4が得られたと判定し、所定の閾値以上でない場合、希望の推定精度の学習データD4は得られていないと判定する。例えば、推定部16は、あるクラスの分類スコアと比較する閾値を設定し、このクラスについて得られた分類スコアと比較する。これにより、更新された学習データD4が希望の推定精度で処理を実行可能となったか否かを判定することができる。また、推定部16によって希望の推定精度の学習データD4が得られていないと判定した場合、新たに拡張データD3を作成し、処理を繰り返すことができる。 The estimation unit 16 executes the classification of the test data D5 by using the training data D4 after the extension data D3 is added by the selection unit 15. Further, the estimation unit 16 compares the obtained classification score with a predetermined threshold value or more, determines that the learning data D4 having the desired estimation accuracy is obtained when the threshold value or more is equal to or higher than the threshold value, and determines that the learning data D4 having the desired estimation accuracy is not obtained. It is determined that the learning data D4 with the estimation accuracy of is not obtained. For example, the estimation unit 16 sets a threshold value to be compared with the classification score of a certain class and compares it with the classification score obtained for this class. Thereby, it can be determined whether or not the updated learning data D4 can execute the process with the desired estimation accuracy. Further, when the estimation unit 16 determines that the learning data D4 having the desired estimation accuracy has not been obtained, the extended data D3 can be newly created and the process can be repeated.

このように、画像処理装置1は、学習データとして使用するための拡張データを生成した際、算出されたスコアに応じて選択された拡張データのみを学習データとして追加することができる。したがって、学習データの無駄な増大を防止することが可能となり、効率的な処理を実現させることができる。 As described above, when the image processing device 1 generates the extended data to be used as the training data, only the extended data selected according to the calculated score can be added as the training data. Therefore, it is possible to prevent unnecessary increase of learning data, and efficient processing can be realized.

〈画像処理方法〉
次に、図6及び図7に示すフローチャートを用いて、画像処理装置1で実行される画像処理方法について説明する。
<Image processing method>
Next, the image processing method executed by the image processing apparatus 1 will be described with reference to the flowcharts shown in FIGS. 6 and 7.

画像処理装置1は、データの拡張に関する条件を受け付ける(S1)。条件は、データ拡張の対象や方法、生成する拡張データの数、拡張データに求める精度等の情報を含む。このとき、画像処理装置1は、受け付けた条件を条件データD1として記憶部20に登録する。
また、画像処理装置1は、元画像データを受け付け、記憶部20に登録する(S2)。
The image processing device 1 accepts a condition relating to data expansion (S1). The conditions include information such as the target and method of data expansion, the number of extended data to be generated, and the accuracy required for the extended data. At this time, the image processing device 1 registers the received condition as the condition data D1 in the storage unit 20.
Further, the image processing device 1 receives the original image data and registers it in the storage unit 20 (S2).

画像処理装置1は、記憶部20から元画像データD2を読み出し、拡張の対象を特定する(S3)。例えば、画像処理装置1は、拡張対象の領域のマスク領域を特定する画像を生成する。 The image processing device 1 reads the original image data D2 from the storage unit 20 and identifies the target of expansion (S3). For example, the image processing device 1 generates an image that specifies a mask area of an area to be expanded.

画像処理装置1は、拡張データD3を生成する(S4)。このとき、画像処理装置1は、ステップS1で条件として指定された所定数の拡張データD3を生成し、記憶部20に記憶させる。 The image processing device 1 generates the extended data D3 (S4). At this time, the image processing device 1 generates a predetermined number of extended data D3 specified as a condition in step S1 and stores them in the storage unit 20.

画像処理装置1は、ステップS4で生成した各拡張データD3について、分類スコアを算出する(S5)。また、画像処理装置1は、算出した分類スコアを各拡張データD3と関連付けて記憶部20に記憶させる。 The image processing device 1 calculates a classification score for each extended data D3 generated in step S4 (S5). Further, the image processing device 1 stores the calculated classification score in the storage unit 20 in association with each extended data D3.

その後、画像処理装置1は、ステップS5で算出した分類スコアを参照して学習データD4に追加する拡張データD3を選択する(S6)。拡張データD3の選択処理については、図7に示すフローチャートを用いて後述する。 After that, the image processing apparatus 1 refers to the classification score calculated in step S5 and selects the extended data D3 to be added to the learning data D4 (S6). The selection process of the extended data D3 will be described later using the flowchart shown in FIG.

画像処理装置1は、ステップS6で選択した拡張データD3を学習データD4に追加する(S7)。 The image processing device 1 adds the extended data D3 selected in step S6 to the learning data D4 (S7).

画像処理装置1は、ステップS7で拡張データD3が追加された新たな学習データD4で学習処理を実行する(S8)。 The image processing device 1 executes the learning process with the new learning data D4 to which the extended data D3 is added in step S7 (S8).

ステップS8で得られた精度が閾値以上でない場合(S9でNO)、希望の学習データD4が得られなかったため、画像処理装置1は、ステップS1に戻り、ステップS1〜S9の処理を繰り返す。なお、同一の条件データD1及び元画像データD2を用いる場合、ステップS3に戻って処理を繰り返してもよい。 If the accuracy obtained in step S8 is not equal to or greater than the threshold value (NO in S9), the desired learning data D4 could not be obtained, so the image processing apparatus 1 returns to step S1 and repeats the processes of steps S1 to S9. When the same condition data D1 and original image data D2 are used, the process may be repeated by returning to step S3.

ステップS9で得られた精度が閾値以上の場合(S9でNO)、画像処理装置1は、希望の学習データD4が得られたため、終了する。 When the accuracy obtained in step S9 is equal to or greater than the threshold value (NO in S9), the image processing device 1 ends because the desired learning data D4 has been obtained.

《選択処理》
図7に示すように、図6のフローチャートのステップS6における選択処理では、画像処理装置1は、まず、複数のクラスの分類スコアを利用するか否かを判定する(S61)。具体的には、画像処理装置1は、記憶部20に記憶される条件データD1の条件を参照して判定する。
<< Selection process >>
As shown in FIG. 7, in the selection process in step S6 of the flowchart of FIG. 6, the image processing device 1 first determines whether or not to use the classification scores of a plurality of classes (S61). Specifically, the image processing device 1 determines by referring to the condition of the condition data D1 stored in the storage unit 20.

複数のクラスの分類スコアを利用する場合(S61でYES)、画像処理装置1は、複数のクラスの分類スコアを利用して、新たなスコアを算出する(S62)。具体的には、画像処理装置1は、記憶部20に記憶される条件データD1に含まれる算出方法で、新たなスコアを算出する。 When the classification scores of a plurality of classes are used (YES in S61), the image processing apparatus 1 calculates a new score by using the classification scores of the plurality of classes (S62). Specifically, the image processing device 1 calculates a new score by a calculation method included in the condition data D1 stored in the storage unit 20.

一方、複数のクラスの分類スコアを利用しない場合(S61でNO)、画像処理装置1は、ステップS63に進む。このとき、記憶部20に記憶される条件データD1で指定される一のクラスの分類スコアが利用される。 On the other hand, when the classification scores of the plurality of classes are not used (NO in S61), the image processing apparatus 1 proceeds to step S63. At this time, the classification score of one class specified by the condition data D1 stored in the storage unit 20 is used.

画像処理装置1は、ステップS62で算出した新たなスコア又は、記憶部20に記憶される条件データD1で指定される一のクラスの分類スコアを用いて、記憶部20に記憶される複数の拡張データD3をスコアの降順に並べる(S63)。 The image processing device 1 uses the new score calculated in step S62 or the classification score of one class specified in the condition data D1 stored in the storage unit 20, and a plurality of extensions stored in the storage unit 20. The data D3 is arranged in descending order of score (S63).

条件データD1でレアな画像を学習データD4に追加することが指定されているとき(S64でYES)、画像処理装置1は、ステップS63で降順に並べた下位所定割合の拡張データD3を選択する(S65)。ここで、選択する所定の割合も、条件データD1で規定される。 When the condition data D1 specifies that a rare image should be added to the training data D4 (YES in S64), the image processing apparatus 1 selects the extended data D3 having a lower predetermined ratio arranged in descending order in step S63. (S65). Here, the predetermined ratio to be selected is also defined by the condition data D1.

レアな画像を学習データD4に追加することが指定されていないとき(S64でYES)、画像処理装置1は、条件データD1でよくある画像を学習データD4に追加することが指定されているか否かを判定する(S66)。 When it is not specified to add a rare image to the training data D4 (YES in S64), whether or not the image processing device 1 is specified to add a common image in the condition data D1 to the training data D4. (S66).

条件データD1でよくある画像を学習データD4に追加することが指定されているとき(S66でYES)、ステップS63で降順に並べた上位所定割合の拡張データD3を選択する(S67)。ここで、選択する所定の割合も、条件データD1で規定される。 When it is specified to add a common image to the training data D4 in the condition data D1 (YES in S66), the extended data D3 having a higher predetermined ratio arranged in descending order is selected in step S63 (S67). Here, the predetermined ratio to be selected is also defined by the condition data D1.

一方、条件データD1でよくある画像を学習データD4に追加することが指定されていないとき(S66でNO)、条件データD1で指定された方法で拡張データD3を選択する(S68)。 On the other hand, when it is not specified to add a common image in the condition data D1 to the training data D4 (NO in S66), the extended data D3 is selected by the method specified in the condition data D1 (S68).

いずれかの方法で拡張データD3が選択されると(S65,S67,S68)、図6のフローチャートのステップS7の処理に進む。 When the extended data D3 is selected by any of the methods (S65, S67, S68), the process proceeds to step S7 of the flowchart of FIG.

このように、画像処理装置1は、学習データとして使用するための拡張データを生成した際、算出されたスコアに応じて選択された拡張データのみを学習データとして追加することができる。したがって、学習データの無駄な増大を防止することが可能となり、効率的な処理を実現させることができる。 As described above, when the image processing device 1 generates the extended data to be used as the training data, only the extended data selected according to the calculated score can be added as the training data. Therefore, it is possible to prevent unnecessary increase of learning data, and efficient processing can be realized.

[効果及び補足]
以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。そこで、以下、他の実施形態を例示する。
[Effects and supplements]
As described above, the above-described embodiment has been described as an example of the technology disclosed in this application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. are made as appropriate. Therefore, other embodiments will be illustrated below.

《変形例》
(1)クラス分類の精度の向上
算出部14を所望の画像データを用いて予め学習させることで、分類精度を向上させることができる。そのため、追加学習部を設け、多量な画像を保有する外部のデータベース等にアクセスして有効な画像データを取得し、取得した複数の画像データを利用して学習させるようにしてもよい。この場合、追加学習部は、指定された条件の画像データを複数外部の装置等から取得し、取得した画像データを学習データとして学習する。
<< Modification example >>
(1) Improving the accuracy of class classification By training the calculation unit 14 in advance using desired image data, the accuracy of classification can be improved. Therefore, an additional learning unit may be provided to access an external database or the like that holds a large amount of images to acquire effective image data, and the acquired plurality of image data may be used for learning. In this case, the additional learning unit acquires image data under the specified conditions from a plurality of external devices and the like, and learns the acquired image data as learning data.

(2)推定精度の判定
上述した画像処理装置1では、推定部16は、選択部15によって選択された拡張データD3を追加した学習データD4を用いてテストデータD5で推定したが、受付部11で受け付けた元画像データD2を推定部16で推定し、所定の閾値以上である場合に拡張部13による拡張を実行するようにしてもよい。すなわち、元から条件を満たさない画像データを利用してデータ拡張を実行した場合、得られる拡張データD3について、学習データD4に要求する条件を満たさない可能性が高い。したがって、予め条件を満たす元画像データD2のみ使用することで、不要な処理の実行を防止することができる。具体的には、推定部16は、元画像データD2についてクラス分類により各クラスの分類スコアを求め、所定のクラスについての分類スコアが予め定められる閾値以上である場合に、拡張部13での処理を実行するようにしてもよい。これにより、不要な処理を削減することができ、効率的な学習データD4の追加を実現することができる。
(2) Judgment of estimation accuracy In the image processing device 1 described above, the estimation unit 16 estimates with the test data D5 using the training data D4 to which the extended data D3 selected by the selection unit 15 is added, but the reception unit 11 The original image data D2 received in 1 may be estimated by the estimation unit 16, and expansion by the expansion unit 13 may be executed when the original image data D2 is equal to or greater than a predetermined threshold value. That is, when data expansion is executed using image data that does not originally satisfy the conditions, there is a high possibility that the obtained extended data D3 does not satisfy the conditions required for the learning data D4. Therefore, by using only the original image data D2 that satisfies the conditions in advance, it is possible to prevent the execution of unnecessary processing. Specifically, the estimation unit 16 obtains the classification score of each class for the original image data D2 by class classification, and when the classification score for a predetermined class is equal to or higher than a predetermined threshold value, the extension unit 13 processes it. May be executed. As a result, unnecessary processing can be reduced, and efficient addition of learning data D4 can be realized.

《実施形態の概要》
(1)本開示の画像処理装置は、画像データから拡張対象を特定する特定部と、画像データの拡張対象を画像処理により拡張した拡張データを生成する拡張部と、クラス分類により拡張データのスコアを算出する算出部と、得られたスコアに応じて、拡張データを学習データとして使用するか否かを選択する選択部とを備える。
<< Outline of Embodiment >>
(1) The image processing apparatus of the present disclosure includes a specific unit that identifies an expansion target from image data, an extension unit that generates expansion data obtained by expanding the expansion target of image data by image processing, and a score of the expansion data by classification. It is provided with a calculation unit for calculating the above and a selection unit for selecting whether or not to use the extended data as training data according to the obtained score.

これにより、拡張されたデータを学習データとして使用する際に、スコアに応じて学習データとするか否かを判定するため、学習データの無駄な増大を防止することができる。 As a result, when the expanded data is used as the learning data, it is determined whether or not the expanded data is used as the learning data according to the score, so that it is possible to prevent unnecessary increase of the learning data.

(2)(1)の画像処理装置において、特定部は、画像データから拡張する領域を抽出し、拡張部は、画像データのうち特定部が抽出した領域を拡張してもよい。 (2) In the image processing apparatus of (1), the specific unit may extract an area to be expanded from the image data, and the expansion unit may expand the area extracted by the specific unit from the image data.

これにより、画像データの特定の領域を拡張させた学習データを作成することができる。 As a result, it is possible to create learning data in which a specific area of image data is expanded.

(3)(2)の画像処理装置において、拡張部は、領域の色又はテクスチャを変更してもよい。 (3) In the image processing apparatus of (2), the extension portion may change the color or texture of the area.

これにより、領域の色やテクスチャのみを変更するのみで学習データのバリエーションを増やすことができる。 As a result, the variation of the training data can be increased only by changing only the color and texture of the area.

(4)(2)の画像処理装置において、拡張部は、拡張対象を反転、回転又はリサイズしてもよい。 (4) In the image processing apparatus of (2), the expansion unit may invert, rotate, or resize the expansion target.

これにより、対象を反転、回転リサイズするのみで学習データのバリエーションを増やすことができる。 As a result, the variation of the training data can be increased only by reversing and rotating the target.

(5)(1)の画像処理装置において、選択部は、複数の拡張データをスコアの降順又は昇順で並べたとき、上位又は下位の所定数の拡張データを選択してもよい。 (5) In the image processing apparatus of (1), when a plurality of extended data are arranged in descending or ascending order of the score, the selection unit may select a predetermined number of upper or lower extended data.

これにより、希望の精度の学習をさせることができる。 This makes it possible to learn the desired accuracy.

(6)(1)の画像処理装置において、選択部は、複数の拡張データをスコアの降順又は昇順で並べたとき、スコアによって分類された各範囲から規定数の拡張データを選択してもよい。 (6) In the image processing apparatus of (1), when a plurality of extended data are arranged in descending or ascending order of the score, the selection unit may select a specified number of extended data from each range classified by the score. ..

これにより、希望の精度の学習をさせることができる。 This makes it possible to learn the desired accuracy.

(7)(1)の画像処理装置において、拡張部は、ユーザによって拡張条件が入力されると、当該拡張条件で画像データを処理してもよい。 (7) In the image processing apparatus of (1), when the extension condition is input by the user, the extension unit may process the image data under the extension condition.

これにより、指定された条件の拡張データを生成することが可能となり、希望のバリエーションのデータを生成することができる。 As a result, it is possible to generate extended data under the specified conditions, and it is possible to generate data of a desired variation.

(8)本開示の画像処理方法は、画像データから拡張対象を特定するステップと、画像データの前記拡張対象を画像処理により拡張した拡張データを生成するステップと、クラス分類により前記拡張データのスコアを算出するステップと、得られたスコアに応じて、前記拡張データを学習データとして使用するか否かを選択するステップとを有する。 (8) The image processing method of the present disclosure includes a step of specifying an expansion target from image data, a step of generating expansion data obtained by expanding the expansion target of the image data by image processing, and a score of the expansion data by classification. It has a step of calculating the above and a step of selecting whether or not to use the extended data as training data according to the obtained score.

これにより、拡張されたデータを学習データとして使用する際に、スコアに応じて学習データとするか否かを判定するため、学習データの無駄な増大を防止することができる。 As a result, when the expanded data is used as the learning data, it is determined whether or not the expanded data is used as the learning data according to the score, so that it is possible to prevent unnecessary increase of the learning data.

本開示の全請求項に記載の画像処理装置及び画像処理方法は、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現される。 The image processing apparatus and image processing method described in all claims of the present disclosure are realized by cooperation with hardware resources such as a processor, a memory, and a program.

本開示の画像処理装置及び画像処理方法は、機械学習の学習データの拡張に有用である。 The image processing apparatus and image processing method of the present disclosure are useful for extending learning data of machine learning.

1 画像処理装置
10 制御部
11 受付部
12 特定部
13 拡張部
14 算出部
15 選択部
16 推定部
20 記憶部
21 通信I/F
22 入力部
23 出力部
D1 条件データ
D2 元画像データ
D3 拡張データ
D4 学習データ
1 Image processing device 10 Control unit 11 Reception unit 12 Specific unit 13 Expansion unit 14 Calculation unit 15 Selection unit 16 Estimate unit 20 Storage unit 21 Communication I / F
22 Input unit 23 Output unit D1 Condition data D2 Original image data D3 Extended data D4 Learning data

Claims (9)

画像データから拡張対象を特定する特定部と、
前記画像データの前記拡張対象を画像処理により拡張した拡張データを生成する拡張部と、
クラス分類により前記拡張データのスコアを算出する算出部と、
得られたスコアに応じて、前記拡張データを学習データとして使用するか否かを選択する選択部と、
を備える画像処理装置。
A specific part that identifies the extension target from the image data,
An extension unit that generates extended data obtained by expanding the expansion target of the image data by image processing,
A calculation unit that calculates the score of the extended data by classification,
A selection unit that selects whether or not to use the extended data as training data according to the obtained score, and
An image processing device comprising.
前記特定部は、前記画像データから拡張する領域を抽出し、
前記拡張部は、前記画像データのうち前記特定部が抽出した領域を拡張する
請求項1に記載の画像処理装置。
The specific unit extracts an area to be expanded from the image data and
The image processing apparatus according to claim 1, wherein the expansion unit expands a region extracted by the specific unit in the image data.
前記拡張部は、前記領域の色又はテクスチャを変更する
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the expansion unit changes the color or texture of the region.
前記拡張部は、拡張対象を反転、回転又はリサイズする
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the expansion unit inverts, rotates, or resizes the expansion target.
前記選択部は、複数の前記拡張データを前記スコアの降順又は昇順で並べたとき、上位又は下位の所定数の前記拡張データを選択する
請求項1乃至4のいずれか1に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 4, wherein the selection unit selects a predetermined number of upper or lower extended data when the plurality of extended data are arranged in descending or ascending order of the score. ..
前記選択部は、複数の前記拡張データを前記スコアの降順又は昇順で並べたとき、スコアによって分類された各範囲から規定数の前記拡張データを選択する
請求項1乃至4のいずれか1に記載の画像処理装置。
The selection unit according to any one of claims 1 to 4, wherein when a plurality of the extended data are arranged in descending or ascending order of the score, a specified number of the extended data is selected from each range classified by the score. Image processing equipment.
前記拡張部は、ユーザによって拡張条件が入力されると、当該拡張条件で前記画像データを処理する
請求項1乃至6のいずれか1に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, wherein the expansion unit processes the image data under the expansion condition when the expansion condition is input by the user.
画像データから拡張対象を特定するステップと、
前記画像データの前記拡張対象を画像処理により拡張した拡張データを生成するステップと、
クラス分類により前記拡張データのスコアを算出するステップと、
得られたスコアに応じて、前記拡張データを学習データとして使用するか否かを選択するステップと、
を有する画像処理方法。
Steps to identify the extension target from the image data and
A step of generating extended data obtained by expanding the extended target of the image data by image processing, and
Steps to calculate the score of the extended data by classification and
A step of selecting whether or not to use the extended data as training data according to the obtained score, and
Image processing method having.
請求項8に記載の画像処理方法をコンピュータに実行させる画像処理プログラム。 An image processing program that causes a computer to execute the image processing method according to claim 8.
JP2019064518A 2019-03-28 2019-03-28 Image processing device, image processing method, and program Pending JP2020166397A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019064518A JP2020166397A (en) 2019-03-28 2019-03-28 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064518A JP2020166397A (en) 2019-03-28 2019-03-28 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2020166397A true JP2020166397A (en) 2020-10-08

Family

ID=72714462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019064518A Pending JP2020166397A (en) 2019-03-28 2019-03-28 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020166397A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124380A1 (en) * 2020-12-09 2022-06-16 Brother Kogyo Kabushiki Kaisha Method, system, and non-transitory computer-readable storage medium storing set of computer-readable instructions
WO2022196293A1 (en) 2021-03-15 2022-09-22 オムロン株式会社 Data generation device, data generation method, and program
JP7175061B1 (en) 2022-06-29 2022-11-18 株式会社Novera Program, information processing device, and method
WO2022269885A1 (en) * 2021-06-25 2022-12-29 三菱電機株式会社 Learning data collection device, learning data collection method, and learning data collection program
JP7201270B1 (en) 2021-10-28 2023-01-10 望 窪田 Information processing method, program and information processing device
WO2023067792A1 (en) * 2021-10-22 2023-04-27 日本電気株式会社 Information processing device, information processing method, and recording medium
WO2024029349A1 (en) * 2022-08-02 2024-02-08 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and recording medium
US12124534B2 (en) 2020-12-09 2024-10-22 Brother Kogyo Kabushiki Kaisha Method for generating a plurality of sets of training image data for training machine learning model

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12124534B2 (en) 2020-12-09 2024-10-22 Brother Kogyo Kabushiki Kaisha Method for generating a plurality of sets of training image data for training machine learning model
JP7557169B2 (en) 2020-12-09 2024-09-27 ブラザー工業株式会社 Method, system, and computer program
WO2022124380A1 (en) * 2020-12-09 2022-06-16 Brother Kogyo Kabushiki Kaisha Method, system, and non-transitory computer-readable storage medium storing set of computer-readable instructions
WO2022196293A1 (en) 2021-03-15 2022-09-22 オムロン株式会社 Data generation device, data generation method, and program
JP7415082B2 (en) 2021-06-25 2024-01-16 三菱電機株式会社 Learning data collection device, learning data collection method, and learning data collection program
WO2022269885A1 (en) * 2021-06-25 2022-12-29 三菱電機株式会社 Learning data collection device, learning data collection method, and learning data collection program
JPWO2022269885A1 (en) * 2021-06-25 2022-12-29
WO2023067792A1 (en) * 2021-10-22 2023-04-27 日本電気株式会社 Information processing device, information processing method, and recording medium
JP2023065826A (en) * 2021-10-28 2023-05-15 望 窪田 Information processing method, program and information processing apparatus
JP7201270B1 (en) 2021-10-28 2023-01-10 望 窪田 Information processing method, program and information processing device
JP2024004581A (en) * 2022-06-29 2024-01-17 株式会社Novera Program, information processor, and method
JP7175061B1 (en) 2022-06-29 2022-11-18 株式会社Novera Program, information processing device, and method
WO2024029349A1 (en) * 2022-08-02 2024-02-08 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP2020166397A (en) Image processing device, image processing method, and program
Su et al. Scenic photo quality assessment with bag of aesthetics-preserving features
US8755623B2 (en) Image enhancement method, image enhancement device, object detection method, and object detection device
TWI537868B (en) System, method, and computer program product for simultaneously determining settings for a plurality of parameter variations
CN111062864A (en) Animation model scaling method and device, electronic equipment and storage medium
KR20110094486A (en) Method and apparatus for compositing image
CN110827373B (en) Advertisement picture generation method, device and storage medium
Wang et al. Realistic lung nodule synthesis with multi-target co-guided adversarial mechanism
CN104112131B (en) Method and device for generating training samples used for face detection
JP3579775B2 (en) Video generator
US11361189B2 (en) Image generation method and computing device
CN115690406A (en) Background replacing method, device, equipment and storage medium
KR20200134813A (en) Apparatus and method for image processing for machine learning
KR20230128943A (en) An item image reconstruction and synthesis model configured to a generative adversarial network and a training method of the item image reconstruction and synthesis model
JP7542199B2 (en) Neural network, calculation method and program
WO2023053364A1 (en) Information processing device, information processing method, and information processing program
TWI733341B (en) Method and system for image scaling and enhancement
Lee et al. CartoonModes: Cartoon stylization of video objects through modal analysis
JP6674498B2 (en) Game program and game device
JP6148426B1 (en) Image processing apparatus, image processing method, and image processing program
WO2023053365A1 (en) Information processing device, information processing method, and information processing program
US20240242416A1 (en) Real-time rendering generating apparatus, method, and non-transitory computer readable storage medium thereof
CN112827175B (en) Collision frame determination method and device and computer readable storage medium
JP2021140481A (en) Device and program for generating learning data
KR101117543B1 (en) sign estimation system