JP7043742B2 - Learning model creation device - Google Patents

Learning model creation device Download PDF

Info

Publication number
JP7043742B2
JP7043742B2 JP2017100566A JP2017100566A JP7043742B2 JP 7043742 B2 JP7043742 B2 JP 7043742B2 JP 2017100566 A JP2017100566 A JP 2017100566A JP 2017100566 A JP2017100566 A JP 2017100566A JP 7043742 B2 JP7043742 B2 JP 7043742B2
Authority
JP
Japan
Prior art keywords
feature amount
unit
learning model
amount extraction
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017100566A
Other languages
Japanese (ja)
Other versions
JP2018195231A (en
Inventor
望 倉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017100566A priority Critical patent/JP7043742B2/en
Publication of JP2018195231A publication Critical patent/JP2018195231A/en
Application granted granted Critical
Publication of JP7043742B2 publication Critical patent/JP7043742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習の学習モデルを作成する学習モデル作成装置に関する。 The present invention relates to a learning model creation device that creates a learning model for machine learning.

機械学習は、学習データを反復的に学習することで学習モデルを人手を介さずに自動的に生成し、この生成した学習モデルを用いて学習データを分類でき、あるいは、未知のデータの分類を予測できることから、様々な分野に応用され、研究、開発されている。特に、近年では、画像認識の認識精度が高いこと等から、畳み込みニューラルネットワーク(Convolutional Neural Network、以下、「CNN」と適宜に略記する)に代表される深層学習(ディープラーニング、Deep Learning)が注目され、研究、開発されている。 Machine learning automatically generates a learning model by iteratively learning the learning data, and the learning data can be classified using this generated learning model, or the classification of unknown data can be performed. Since it can be predicted, it has been applied to various fields and is being researched and developed. In particular, in recent years, deep learning (deep learning) represented by a convolutional neural network (hereinafter, abbreviated as "CNN") has attracted attention because of its high recognition accuracy of image recognition. Has been researched and developed.

このような機械学習では、学習モデルの生成には、学習データを反復的に学習するため、膨大な演算コスト(計算コスト)がかかってしまう。また、この生成した学習モデルを用いて未知のデータを分析する際でも、学習モデルが大きいと、それだけ演算コストがかかってしまう。特に、近年では、深層学習における学習モデルの層数が増大し、1000層に及ぶ学習モデルも出現している。このため、学習モデルの冗長な情報を取り除くことで学習モデルを適正化する手法が例えば特許文献1に開示されている。 In such machine learning, the generation of a learning model requires a huge calculation cost (calculation cost) because the training data is repeatedly learned. Further, even when analyzing unknown data using this generated learning model, if the learning model is large, the calculation cost will increase accordingly. In particular, in recent years, the number of layers of learning models in deep learning has increased, and learning models with 1000 layers have appeared. Therefore, for example, Patent Document 1 discloses a method of optimizing a learning model by removing redundant information of the learning model.

この特許文献1に開示されたニューラルネットワーク最適化方法は、ニューラルネットワークの構造を最適化する方法であって、(1)ニューラルネットワークの初期構造を第1のニューラルネットワークとして入力するステップと、(2)与えられた第1のニューラルネットワークについて学習データを用いて学習を行うステップであって、評価データを用いて計算される前記第1のニューラルネットワークのコストが最小の第1のコストとなるまで学習を行うステップと、(3)前記第1のニューラルネットワークからランダムにユニットを削除して第2のニューラルネットワークを生成するステップと、(4)前記第2のニューラルネットワークについて学習データを用いて学習を行うステップであって、評価データを用いて計算される前記第2のニューラルネットワークのコストが最小の第2のコストとなるまで学習を行うステップと、(5)前記第1のコストと前記第2のコストとを比較するステップと、(6)前記第2のコストが前記第1のコストより小さいときには、前記第2のニューラルネットワークを前記第1のニューラルネットワーク、前記第2のコストを前記第1のコストとしてステップ(3)~(5)を行い、前記第1のコストが前記第2のコストより小さいときには、ステップ(3)において異なる第2のニューラルネットワークを生成してステップ(4)(5)を行うステップと、(7)ステップ(6)において、前記第1のコストの方が前記第2のコストより小さいとの判断が所定回数連続したときに、前記第1のニューラルネットワークをニューラルネットワークの最適構造と決定するステップと、(8)前記ニューラルネットワークの最適構造を出力するステップと、を備える。このニューラルネットワーク最適化方法は、特許文献1に依れば、汎化能力を向上させ、計算量を減らしたネットワーク構造を自動決定できる。 The neural network optimization method disclosed in Patent Document 1 is a method of optimizing the structure of a neural network, and includes (1) a step of inputting an initial structure of the neural network as a first neural network, and (2). ) A step of learning about a given first neural network using training data, until the cost of the first neural network calculated using the evaluation data becomes the minimum first cost. Steps to generate a second neural network by randomly deleting units from the first neural network, and (4) learning about the second neural network using training data. A step of learning until the cost of the second neural network calculated using the evaluation data becomes the minimum second cost, and (5) the first cost and the second cost. And (6) when the second cost is smaller than the first cost, the second neural network is referred to as the first neural network, and the second cost is referred to as the first cost. Steps (3) to (5) are performed as the cost of, and when the first cost is smaller than the second cost, a different second neural network is generated in step (3) to generate steps (4) and (5). ) And the step (7) (6), when it is determined that the first cost is smaller than the second cost a predetermined number of times, the first neural network is used as a neural network. It is provided with a step of determining the optimum structure of the above and (8) a step of outputting the optimum structure of the neural network. According to Patent Document 1, this neural network optimization method can automatically determine a network structure with improved generalization ability and reduced computational complexity.

特開2015-11510号公報(特許第6042274号公報)Japanese Unexamined Patent Publication No. 2015-11510 (Patent No. 6042274)

ところで、特許文献1に開示されたニューラルネットワーク最適化方法は、ニューラルネットワーク(学習モデルの一例)が最適化されているので、このニューラルネットワークを用いる際には、演算コストが低減される。しかしながら、前記特許文献1に開示されたニューラルネットワーク最適化方法は、最適化されたニューラルネットワークを生成するために、第1および第2のニューラルネットワークを生成する学習のステップ(2)および(4)を、ステップ(7)から、複数回実施する必要があり、最適化されたニューラルネットワークの生成では、演算コストが低減できていない。また、前記特許文献1に開示されたニューラルネットワーク最適化方法は、削除対象をランダムに決定し、第2のニューラルネットワークの評価を第1のコストと第2のコストとの比較で行っているため、削除対象がニューラルネットワークの性能に寄与している可能性があり、最適化されたニューラルネットワークの性能が最適化前に較べて劣化してしまう虞がある。 By the way, in the neural network optimization method disclosed in Patent Document 1, since a neural network (an example of a learning model) is optimized, the calculation cost is reduced when this neural network is used. However, the neural network optimization method disclosed in Patent Document 1 has learning steps (2) and (4) of generating first and second neural networks in order to generate an optimized neural network. It is necessary to carry out a plurality of times from step (7), and the calculation cost cannot be reduced in the generation of the optimized neural network. Further, in the neural network optimization method disclosed in Patent Document 1, the deletion target is randomly determined, and the evaluation of the second neural network is performed by comparing the first cost and the second cost. There is a possibility that the deletion target contributes to the performance of the neural network, and the performance of the optimized neural network may be deteriorated as compared with that before the optimization.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、学習モデルの性能劣化を抑制しつつ、演算コストを低減できる学習モデル作成装置を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a learning model creating device capable of reducing a calculation cost while suppressing performance deterioration of a learning model.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる学習モデル作成装置は、機械学習の学習モデルを生成する学習モデル作成装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、前記特定部は、特徴量抽出部間における独立性の度合いを表す独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。好ましくは、上述の学習モデル作成装置において、前記冗長な特徴量抽出部を特定する際に用いられる特定条件の入力を受け付ける入力部をさらに備え、前記特定部は、前記独立度の低い特徴量抽出部から順に、前記入力部で受け付けた特定条件を満たしている間、前記冗長な特徴量抽出部を特定する。好ましくは、上述の学習モデル作成装置において、前記特定部は、前記複数の特徴量抽出部それぞれについて、当該特徴量抽出部と前記複数の特徴量抽出部から当該特徴量抽出部を除いた残余の特徴量抽出部それぞれとの間で成分同士の差分を求め、この求めた差分の二乗の和を前記独立度として求め、この求めた独立度に基づいて、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。好ましくは、上述の学習モデル作成装置において、前記冗長な特徴量抽出部を特定する際に用いられる特定条件の入力を受け付ける入力部をさらに備え、前記特定部は、前記複数の特徴量抽出部それぞれについて、当該特徴量抽出部と前記複数の特徴量抽出部から当該特徴量抽出部を除いた残余の特徴量抽出部それぞれとの間で成分同士の差分を求め、この求めた差分の二乗の和を前記独立度として求め、この求めた独立度に基づいて、前記独立度の低い特徴量抽出部から順に、前記入力部で受け付けた特定条件を満たしている間、前記冗長な特徴量抽出部を特定する。好ましくは、前記特定条件は、前記冗長な特徴量抽出部として特定される特徴量抽出部の個数である削除設定個数である。ここで、冗長とは、特徴量抽出部が実質的に同じ特徴量を抽出することを言う As a result of various studies, the present inventor has found that the above object can be achieved by the following invention. That is, the learning model creating device according to one aspect of the present invention is a learning model creating device that generates a learning model for machine learning, and the learning model acquires a function of extracting a predetermined feature amount by learning. Equipped with a feature quantity extraction unit of A model improvement unit that creates a new learning model by deleting the feature quantity extraction unit specified by the specific unit from the learning model, and a new learning model created by the model improvement unit. The learning application unit for continuing the learning or analyzing the input sample is provided, and the specific unit identifies the redundant feature quantity extraction unit with priority on maintaining the performance of the learning model, and the specific unit. Specifies the redundant feature amount extraction unit in order from the feature amount extraction unit having a low degree of independence indicating the degree of independence between the feature amount extraction units. Preferably, the above-mentioned learning model creating device further includes an input unit that receives an input of a specific condition used when specifying the redundant feature amount extraction unit, and the specific unit extracts the feature amount with a low degree of independence. In order from the unit, the redundant feature amount extraction unit is specified while the specific conditions accepted by the input unit are satisfied. Preferably, in the above-mentioned learning model creating device, the specific unit is the remainder of the feature quantity extraction unit and the plurality of feature quantity extraction units excluding the feature quantity extraction unit for each of the plurality of feature quantity extraction units. The difference between the components with each feature extraction unit is obtained, the sum of the squares of the obtained differences is obtained as the degree of independence, and based on the obtained degree of independence, the feature amount extraction unit having a low degree of independence is used. In order, the redundant feature amount extraction unit is specified. Preferably, the above-mentioned learning model creating device further includes an input unit that receives an input of a specific condition used when specifying the redundant feature amount extraction unit, and the specific unit is each of the plurality of feature amount extraction units. The difference between the components is obtained between the feature amount extraction unit and each of the remaining feature amount extraction units excluding the feature amount extraction unit from the plurality of feature amount extraction units, and the sum of the squares of the obtained differences is calculated. Is obtained as the degree of independence, and based on the obtained degree of independence, the redundant feature amount extraction unit is used in order from the feature amount extraction unit having the lowest degree of independence while the specific conditions accepted by the input unit are satisfied. Identify. Preferably, the specific condition is the number of deletion settings, which is the number of feature amount extraction units specified as the redundant feature amount extraction unit. Here, the term "redundancy" means that the feature amount extraction unit extracts substantially the same feature amount .

このような学習モデル作成装置は、前記冗長な特徴量抽出部を、独立度の観点から適切に特定できる。上記学習モデル作成装置では、独立度の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。 Such a learning model creating device can appropriately identify the redundant feature amount extraction unit from the viewpoint of the degree of independence. In the learning model creating device, since it is specified from the viewpoint of the degree of independence, the redundant feature amount extraction unit is specified with priority given to reduction of calculation cost.

本発明の他の一態様にかかる学習モデル作成装置は、機械学習の学習モデルを生成する学習モデル作成装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記特定する前記冗長な特徴量抽出部から除外する特徴量抽出部の入力を受け付ける第1入力部をさらに備え、前記特定部は、前記第1入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する。 The learning model creating device according to another aspect of the present invention is a learning model creating device that generates a learning model for machine learning, and the learning model acquires a function of extracting a predetermined feature amount by learning. The feature amount extraction unit is provided, and a redundant feature amount extraction unit is specified from the plurality of feature amount extraction units during training or when an input sample is analyzed using a learning model after learning. A model improvement unit that creates a new learning model by deleting the feature amount extraction unit specified by the specific unit from the learning model, and a new learning model created by the model improvement unit. It is provided with a learning application unit for continuing the learning or analyzing the input sample, and the specific unit identifies the redundant feature amount extraction unit and outputs color information in order to prioritize the maintenance of the performance of the learning model. From the first feature amount extraction unit that extracts the feature amount, the second feature amount extraction unit that extracts the edge information as the feature amount, and the third feature amount extraction unit that extracts the blur information as the feature amount. Further, a first input unit for receiving the input of the feature amount extraction unit to be excluded from the redundant feature amount extraction unit to be specified is further provided, and the specific unit corresponds to the feature amount extraction unit received by the first input unit. The redundant feature amount extraction unit is specified by excluding the quantity extraction unit from the redundant feature amount extraction unit to be specified.

このような学習モデル作成装置は、第1入力部で第1特徴量抽出部を除外するように受け付けた場合には、第1特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置では、第1特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第1入力部で第2特徴量抽出部を除外するように受け付けた場合には、上記学習モデル作成装置は、第2特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置では、第2特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第1入力部で第3特徴量抽出部を除外するように受け付けた場合には、上記学習モデル作成装置は、第3特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置では、第3特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。 When such a learning model creating device accepts the first input unit to exclude the first feature amount extraction unit, the first feature amount extraction unit is excluded and the redundant feature amount extraction unit is specified. Therefore, the first feature amount extraction unit can be left in the learning model after the redundant feature amount extraction unit is deleted. In this case, since the first feature amount extraction unit is left in the learning model creation device, the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model. When the first input unit accepts to exclude the second feature amount extraction unit, the learning model creation device excludes the second feature amount extraction unit and specifies the redundant feature amount extraction unit. The second feature amount extraction unit can be left in the learning model after the redundant feature amount extraction unit is deleted. In this case, since the second feature amount extraction unit is left in the learning model creation device, the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model. When the first input unit accepts to exclude the third feature amount extraction unit, the learning model creation device excludes the third feature amount extraction unit and specifies the redundant feature amount extraction unit. , The third feature amount extraction unit can be left in the learning model after the redundant feature amount extraction unit is deleted. In this case, since the learning model creating device leaves the third feature amount extraction unit, the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model.

本発明の他の一態様にかかる学習モデル作成装置は、機械学習の学習モデルを生成する学習モデル作成装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部の入力を受け付ける第2入力部をさらに備え、前記特定部は、前記第2入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する。 The learning model creating device according to another aspect of the present invention is a learning model creating device that generates a learning model for machine learning, and the learning model acquires a function of extracting a predetermined feature amount by learning. The feature amount extraction unit is provided, and a redundant feature amount extraction unit is specified from the plurality of feature amount extraction units during training or when an input sample is analyzed using a learning model after learning. A model improvement unit that creates a new learning model by deleting the feature amount extraction unit specified by the specific unit from the learning model, and a new learning model created by the model improvement unit. It is provided with a learning application unit for continuing the learning or analyzing the input sample, and the specific unit identifies the redundant feature amount extraction unit and outputs color information in order to prioritize the maintenance of the performance of the learning model. From the first feature amount extraction unit that extracts the feature amount, the second feature amount extraction unit that extracts the edge information as the feature amount, and the third feature amount extraction unit that extracts the blur information as the feature amount. Further, a second input unit that receives the input of the feature amount extraction unit that is preferentially specified as the redundant feature amount extraction unit is further provided, and the specific unit corresponds to the feature amount extraction unit that is received by the second input unit. The redundant feature amount extraction unit is specified by preferentially specifying the quantity extraction unit as the redundant feature amount extraction unit.

このような学習モデル作成装置は、第2入力部で第1特徴量抽出部を優先的に特定するように受け付けた場合には、第1特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第1特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置は、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第1特徴量抽出部を削除(除外)できる。この場合では、上記学習モデル作成装置では、第1特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第2入力部で第2特徴量抽出部を優先的に特定するように受け付けた場合には、上記学習モデル作成装置は、第2特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第2特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置は、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第2特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置では、第2特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第2入力部で第3特徴量抽出部を優先的に特定するように受け付けた場合には、上記学習モデル作成装置は、第3特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第3特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置は、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第3特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置では、第3特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。 When such a learning model creating device receives the second input unit to preferentially specify the first feature amount extraction unit, the first feature amount extraction unit is prioritized and the redundant feature amount extraction unit is extracted. Since the unit is specified, the first feature quantity extraction unit can be excluded from the learning model after the redundant feature quantity extraction unit is deleted. In particular, when the first feature quantity extraction unit becomes noise from the viewpoint of the usage of the learning model, the learning model creation device becomes noise from the learning model after the redundant feature quantity extraction unit is deleted. The feature amount extraction unit can be deleted (excluded). In this case, in the learning model creating device, the first feature amount extraction unit is preferentially deleted, so that the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model. When the second input unit accepts to preferentially specify the second feature amount extraction unit, the learning model creation device gives priority to the second feature amount extraction unit and selects the redundant feature amount extraction unit. Since it is specified, the second feature amount extraction unit can be excluded from the learning model after the redundant feature amount extraction unit is deleted. In particular, when the second feature amount extraction unit becomes noise from the viewpoint of the usage of the learning model, the learning model creating device becomes noise from the learning model after the redundant feature amount extraction unit is deleted. The feature amount extraction unit can be deleted. In this case, in the learning model creating device, the second feature amount extraction unit is preferentially deleted, so that the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model. When the second input unit accepts to preferentially specify the third feature amount extraction unit, the learning model creation device gives priority to the third feature amount extraction unit and selects the redundant feature amount extraction unit. Since it is specified, the learning model after deleting the redundant feature amount extraction unit can be made to not include the third feature amount extraction unit. In particular, when the third feature amount extraction unit becomes noise from the viewpoint of the usage of the learning model, the learning model creating device becomes noise from the learning model after the redundant feature amount extraction unit is deleted. The feature amount extraction unit can be deleted. In this case, in the learning model creating device, the third feature amount extraction unit is preferentially deleted, so that the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model.

本発明にかかる学習モデル作成装は、学習モデルの性能劣化を抑制しつつ、演算コストを低減できる。 The learning model creating device according to the present invention can reduce the calculation cost while suppressing the deterioration of the performance of the learning model.

第1ないし第5実施形態における学習モデル作成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the learning model making apparatus in 1st to 5th Embodiment. 前記学習モデル作成装置における学習適用部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the learning application part in the said learning model creation apparatus. 前記学習モデル作成装置を実装したコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the computer which implemented the said learning model creation apparatus. 学習での、前記学習モデル作成装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the learning model creation apparatus in learning. 分析での、前記学習モデル作成装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the learning model creation apparatus in analysis. 図4および図5それぞれで示す各フローチャートにおける冗長削除処理を示すフローチャートである。It is a flowchart which shows the redundant deletion process in each flowchart shown in FIG. 4 and FIG. 5, respectively. 機械学習の反復回数と特徴量抽出部の総情報量との関係を示す図である。It is a figure which shows the relationship between the number of repetitions of machine learning, and the total amount of information of a feature amount extraction part. 第1実施形態において、寄与度による冗長削除処理を説明するためのである。This is for explaining the redundant deletion process based on the contribution in the first embodiment. 第1実施形態における学習モデル作成装置の効果を説明するための図である。It is a figure for demonstrating the effect of the learning model creation apparatus in 1st Embodiment. 第2実施形態において、差分二乗和による冗長削除処理を説明するためのである。This is for explaining the redundant deletion process by the sum of squared differences in the second embodiment. 第3実施形態において、次元圧縮による冗長削除処理を説明するためのである。This is for explaining the redundant deletion process by dimensional compression in the third embodiment. 第4実施形態における学習モデル作成装置に表示される入出力画面の一例を示す図である。It is a figure which shows an example of the input / output screen displayed on the learning model creation apparatus in 4th Embodiment. 第4実施形態における学習モデル作成装置の効果を説明するための図である。It is a figure for demonstrating the effect of the learning model making apparatus in 4th Embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. It should be noted that the configurations with the same reference numerals in the respective drawings indicate the same configurations, and the description thereof will be omitted as appropriate. In the present specification, when generically referred to, they are indicated by reference numerals without subscripts, and when referring to individual configurations, they are indicated by reference numerals with subscripts.

(第1実施形態)
図1は、第1実施形態における学習モデル作成装置の構成を示すブロック図である。なお、図1には、第2ないし第5実施形態における学習モデル作成装置の構成も示されている。図2は、前記学習モデル作成装置における学習適用部の一構成例を示すブロック図である。図3は、前記学習モデル作成装置を実装したコンピュータの構成を示すブロック図である。
(First Embodiment)
FIG. 1 is a block diagram showing a configuration of a learning model creating device according to the first embodiment. Note that FIG. 1 also shows the configuration of the learning model creating device according to the second to fifth embodiments. FIG. 2 is a block diagram showing a configuration example of a learning application unit in the learning model creation device. FIG. 3 is a block diagram showing a configuration of a computer on which the learning model creation device is mounted.

第1実施形態における学習モデル作成装置Daは、機械学習の学習モデルを生成する装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備える。このような第1実施形態における学習モデル作成装置Daは、例えば、図1に示すように、入力部1と、出力部2と、インターフェース部(IF部)3と、制御処理部4aと、記憶部5とを備える。 The learning model creation device Da in the first embodiment is a device that generates a learning model for machine learning, and the learning model includes a plurality of feature quantity extraction units that acquire a function of extracting a predetermined feature quantity by learning. Be prepared. As shown in FIG. 1, for example, the learning model creating device Da in the first embodiment has an input unit 1, an output unit 2, an interface unit (IF unit) 3, a control processing unit 4a, and a storage unit. A unit 5 is provided.

入力部1は、制御処理部4aに接続され、例えば、学習の開始を指示するコマンドや、学習によって生成した学習モデルを用いて入力サンプル(対象サンプル)の分析を指示するコマンド等の各種コマンド、および、例えば前記冗長な特徴量抽出部を特定する際に用いられる特定条件の入力等の、学習モデルを生成する上で必要な各種データを学習モデル作成装置Daに入力する装置であり、例えば、所定の機能を割り付けられた複数の入力スイッチ、キーボードおよびマウス等である。 The input unit 1 is connected to the control processing unit 4a, and for example, various commands such as a command for instructing the start of learning and a command for instructing the analysis of the input sample (target sample) using the learning model generated by the learning. And, for example, it is a device that inputs various data necessary for generating a learning model, such as input of a specific condition used when specifying the redundant feature amount extraction unit, to the learning model creation device Da, for example. A plurality of input switches, keyboards, mice, etc. to which predetermined functions are assigned.

出力部2は、制御処理部4aに接続され、制御処理部4aの制御に従って、入力部1から入力されたコマンドやデータ、および、当該学習モデル作成装置Daによって生成された学習モデルを用いた分析結果等を出力する装置であり、例えばCRTディスプレイ、LCD(液晶表示装置)および有機ELディスプレイ等の表示装置や、プリンタ等の印刷装置である。 The output unit 2 is connected to the control processing unit 4a, and is analyzed using commands and data input from the input unit 1 and a learning model generated by the learning model creating device Da according to the control of the control processing unit 4a. It is a device that outputs results and the like, and is, for example, a display device such as a CRT display, an LCD (liquid crystal display) and an organic EL display, and a printing device such as a printer.

なお、入力部1および出力部2からタッチパネルが構成されても良い。このタッチパネルを構成する場合において、入力部1は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部2は、表示装置である。このタッチパネルでは、表示装置の表示面上に位置入力装置が設けられ、表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として学習モデル作成装置Daに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い学習モデル作成装置Daが提供される。 A touch panel may be configured from the input unit 1 and the output unit 2. In the case of configuring this touch panel, the input unit 1 is a position input device that detects and inputs an operation position such as a resistance film method or a capacitance method, and the output unit 2 is a display device. In this touch panel, a position input device is provided on the display surface of the display device, one or more input content candidates that can be input to the display device are displayed, and the user touches the display position displaying the input content to be input. Then, the position is detected by the position input device, and the display content displayed at the detected position is input to the learning model creation device Da as the operation input content of the user. With such a touch panel, since the user can intuitively understand the input operation, the learning model creation device Da that is easy for the user to handle is provided.

IF部3は、例えば、外部の機器との間でデータを入出力する回路であり、例えば、シリアル通信方式であるRS-232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。なお、IF部3は、通信網(ネットワーク)を介して外部の機器と通信を行う回路であっても良く、例えば、データ通信カードや、IEEE802.11規格等に従った通信インターフェース回路等であっても良い。 The IF unit 3 is, for example, a circuit for inputting / outputting data to / from an external device, for example, an interface circuit of RS-232C which is a serial communication method, an interface circuit using the Bluetooth (registered trademark) standard, and IrDA. An interface circuit for performing infrared communication such as the (Infrared Data Association) standard, and an interface circuit using the USB (Universal Serial Bus) standard. The IF unit 3 may be a circuit that communicates with an external device via a communication network (network), and may be, for example, a data communication card, a communication interface circuit according to the IEEE802.11 standard, or the like. May be.

記憶部5は、制御処理部4aに接続され、制御処理部4aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、学習モデル作成装置Daの各部1~3、5を当該各部の機能に応じてそれぞれ制御する制御プログラムや、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定プログラムや、前記学習モデルから前記特定プログラムで特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良プログラムや、前記モデル改良プログラムで作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、例えば機械学習に用いられる教師セットや分析の対象となる入力サンプル(対象サンプル)等の、各プログラムを実行する上で必要なデータ等が含まれる。記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部4aのワーキングメモリとなるRAM(Random Access Memory)等を含む。そして、記憶部5は、教師セットや対象サンプルを記憶するために、教師セット記憶部51および対象サンプル記憶部52を機能的に備える。 The storage unit 5 is a circuit connected to the control processing unit 4a and stores various predetermined programs and various predetermined data under the control of the control processing unit 4a. The various predetermined programs include, for example, a control program that controls each part 1 to 3 and 5 of the learning model creation device Da according to the function of each part, and learning during or after learning. When analyzing an input sample using a model, a specific program that specifies a redundant feature amount extraction unit from the plurality of feature amount extraction units, or a feature amount extraction unit specified by the specific program from the learning model. Control of a learning application program that continues the learning or analyzes the input sample with a model improvement program that creates a new learning model by deleting the above, or a new learning model created by the model improvement program. A processing program is included. The various predetermined data include data necessary for executing each program, such as a teacher set used for machine learning and an input sample (target sample) to be analyzed. The storage unit 5 includes, for example, a ROM (Read Only Memory) which is a non-volatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) which is a rewritable non-volatile storage element, and the like. The storage unit 5 includes a RAM (Random Access Memory) or the like that serves as a working memory of the so-called control processing unit 4a that stores data or the like generated during the execution of the predetermined program. Then, the storage unit 5 functionally includes a teacher set storage unit 51 and a target sample storage unit 52 in order to store the teacher set and the target sample.

教師セット記憶部51は、前記教師セットを記憶するものである。前記教師セットは、機械学習によって学習モデルを作成するための予め正解が既知な学習データであり、複数のサンプル(データ)から成る教師データと、前記教師データにおける前記複数のサンプルそれぞれに対応付けられ、当該サンプルの正解を表す複数の正解情報から成る正解ラベルとを備える。これに応じて教師セット記憶部51は、前記教師データを記憶部する教師データ記憶部511と、前記正解ラベルを記憶する正解ラベル記憶部512とを機能的に備える。対象サンプル記憶部52は、前記対象サンプルを記憶するものである。前記教師セットは、例えば、入力部1から入力され、教師セット記憶部51に記憶される。また例えば、前記教師セットを管理するサーバ装置から、あるいは、前記教師セットを記憶(記録)する例えばUSBメモリ等の記録媒体から、IF部3を介して入力され、教師セット記憶部51に記憶される。同様に、前記対象サンプルは、例えば、入力部1から入力され、対象サンプル記憶部52に記憶される。また例えば、前記対象サンプルを管理するサーバ装置から、あるいは、前記対象サンプルを記憶(記録)する例えばUSBメモリ等の記録媒体から、IF部3を介して入力され、対象サンプル記憶部52に記憶される。 The teacher set storage unit 51 stores the teacher set. The teacher set is learning data whose correct answer is known in advance for creating a learning model by machine learning, and is associated with teacher data composed of a plurality of samples (data) and each of the plurality of samples in the teacher data. , A correct answer label composed of a plurality of correct answer information representing the correct answer of the sample. Correspondingly, the teacher set storage unit 51 functionally includes a teacher data storage unit 511 for storing the teacher data and a correct answer label storage unit 512 for storing the correct answer label. The target sample storage unit 52 stores the target sample. The teacher set is input from the input unit 1, for example, and stored in the teacher set storage unit 51. Further, for example, it is input via the IF unit 3 from a server device that manages the teacher set, or from a recording medium such as a USB memory that stores (records) the teacher set, and is stored in the teacher set storage unit 51. To. Similarly, the target sample is input from, for example, the input unit 1 and stored in the target sample storage unit 52. Further, for example, it is input via the IF unit 3 from a server device that manages the target sample, or from a recording medium such as a USB memory that stores (records) the target sample, and is stored in the target sample storage unit 52. To.

制御処理部4aは、学習モデル作成装置Daの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路である。制御処理部4aは、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部4aは、前記制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43aおよびモデル改良部44を機能的に備える。 The control processing unit 4a is a circuit for creating a learning model for machine learning by controlling each unit 1 to 3 and 5 of the learning model creating device Da according to the function of each unit. The control processing unit 4a is configured to include, for example, a CPU (Central Processing Unit) and peripheral circuits thereof. The control processing unit 4a functionally includes a control unit 41, a learning application unit 42, a specific unit 43a, and a model improvement unit 44 by executing the control processing program.

制御部41は、学習モデル作成装置Daの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、学習モデル作成装置Da全体の制御を司るものである。 The control unit 41 controls each unit 1 to 3 and 5 of the learning model creation device Da according to the function of each unit, and controls the entire learning model creation device Da.

特定部43aは、学習中の際に、または、学習後の学習モデルを用いて入力サンプル(対象サンプル)を分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43aは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43aは、学習モデルの性能に寄与する度合いを表す寄与度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。より詳しくは、特定部43aは、まず、学習モデルにおける複数の特徴量抽出部の中から1個の特徴量抽出部を削除することで、試行用の学習モデルを作成する。次に、特定部43aは、この試行用の学習モデルを用いて教師データを分析(分類)する。次に、特定部43aは、この分析結果(分類結果)と、前記教師データに対応する正解ラベルとを突き合わせることによって、試行用の学習モデルの性能を評価する評価値を前記削除した1個の特徴量抽出部に対する寄与度として求める。特定部43aは、このような試行用の学習モデルの作成、それを用いた分析および寄与度の算出の各処理を、学習モデルにおける複数の特徴量抽出部それぞれについて実施し、前記複数の特徴量抽出部それぞれの各寄与度を求める。そして、特定部43aは、寄与度の低い方から順に、前記複数の特徴量抽出部を並べ、予め設定された個数(後述の削除設定個数)になるまで、最下位から順に特徴量抽出部を選定し、この選定した特徴量抽出部を前記冗長な特徴量抽出部として特定する。 The specific unit 43a is a redundant feature amount from a plurality of feature amount extraction units in the learning model when the input sample (target sample) is analyzed during learning or by using the learning model after learning. It specifies the extraction unit. In the present embodiment, the specific unit 43a specifies the redundant feature amount extraction unit with priority given to reduction of calculation cost. More specifically, the specific unit 43a identifies the redundant feature amount extraction unit in order from the feature amount extraction unit having a low contribution degree indicating the degree of contribution to the performance of the learning model. More specifically, the specific unit 43a first creates a learning model for trial by deleting one feature amount extraction unit from the plurality of feature amount extraction units in the learning model. Next, the specific unit 43a analyzes (classifies) the teacher data using this learning model for trial. Next, the specific unit 43a deletes the evaluation value for evaluating the performance of the learning model for trial by collating the analysis result (classification result) with the correct answer label corresponding to the teacher data. It is calculated as the degree of contribution to the feature amount extraction unit. The specific unit 43a performs each process of creating a learning model for such a trial, analysis using the learning model, and calculation of the contribution degree for each of the plurality of feature quantity extraction units in the learning model, and the plurality of feature quantities. Obtain each contribution of each extraction unit. Then, the specific unit 43a arranges the plurality of feature quantity extraction units in order from the one with the lowest contribution, and the feature quantity extraction units are arranged in order from the lowest to the preset number (the number to be deleted to be described later). It is selected, and the selected feature amount extraction unit is specified as the redundant feature amount extraction unit.

モデル改良部44は、学習モデルから特定部43aで特定された特徴量抽出部を削除することによって新たな学習モデルを作成するものである。 The model improvement unit 44 creates a new learning model by deleting the feature amount extraction unit specified by the specific unit 43a from the learning model.

学習適用部42は、モデル改良部44で作成した新たな学習モデルで、学習を継続する、または、入力サンプルを分析するものである。学習適用部42は、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備える学習モデルを用いる機械学習のシステムであれば、任意のシステムであって良い。学習適用部42は、例えば、深層学習のシステムであって良い。特に、画像認識の認識精度が高いことから、学習適用部42は、畳み込みニューラルネットワーク(CNN)が好ましい。 The learning application unit 42 is a new learning model created by the model improvement unit 44, and continues learning or analyzes an input sample. The learning application unit 42 may be any system as long as it is a machine learning system using a learning model including a plurality of feature amount extraction units that acquire a function of extracting a predetermined feature amount by learning. The learning application unit 42 may be, for example, a deep learning system. In particular, since the recognition accuracy of image recognition is high, a convolutional neural network (CNN) is preferable for the learning application unit 42.

一例として、このCNNで構成される学習適用部42は、例えば、図3に示すように、前処理部421と、多層パーセプトロン部422とを備える。 As an example, the learning application unit 42 composed of this CNN includes, for example, a pretreatment unit 421 and a multi-layer perceptron unit 422, as shown in FIG.

前処理部421は、畳み込み層42111(42111-1、・・・、42111-k)およびプーリング層42112(42112-1、・・・、42112-k)を備える前処理セット4211(4211-1、・・・、4211-k)を1または複数k備えて構成される(kは2以上の整数)。前処理セット4211が複数である場合には、これら複数の前処理セット4211は、直列で接続され、複数段の構成となる。前処理部421には、学習するための教師セットや分析(認識、分類、判別)すべき対象サンプルが入力される。ここでは、教師データにおける複数のサンプル、および、対象サンプルは、画像であり、以下、前処理部421に入力される教師データのサンプルおよび対象サンプルを入力画像IPと便宜的に呼称する。 The pretreatment section 421 includes a pretreatment set 4211 (4211-1, 42111-k) including a convolutional layer 42111 (4211-1, ..., 42111-k) and a pooling layer 42112 (4212-1, ..., 42112-k). ..., 4211-k) is configured with one or more k (k is an integer of 2 or more). When there are a plurality of pretreatment sets 4211, these plurality of pretreatment sets 4211 are connected in series to form a plurality of stages. A teacher set for learning and a target sample to be analyzed (recognition, classification, discrimination) are input to the preprocessing unit 421. Here, the plurality of samples in the teacher data and the target sample are images, and hereinafter, the sample of the teacher data and the target sample input to the preprocessing unit 421 are conveniently referred to as an input image IP.

畳み込み層42111は、入力画像IPに対し畳み込み演算を実行する装置である。より具体的には、畳み込み層42111は、入力画像IPに対し所定のカーネル(画像フィルタ)KNで畳み込む(フィルタリングする)。前記カーネルKNは、予め設定された複数であり、これら複数のカーネルKNそれぞれによって入力画像IPが畳み込まれ、カーネルKNの個数に応じた複数の画像(特徴マップ)FMが生成される。カーネルKNが多いほど、入力画像IPにおける様々な特徴を捉えることができる。カーネルKNのサイズは、任意であり、各前処理セット4211ごとに適宜に設定される。CNNでは、学習によってカーネルKNが生成される。すなわち、カーネルKNの各要素(各フィルタ係数)の数値が学習によって自動的に設定される。これによってカーネルKNは、学習によって所定の特徴量を抽出する機能を獲得する。カーネルKNは、特徴量抽出部の一例に相当する。この畳み込み演算によって入力画像IP内のパターンが検出できるようになる。畳み込み層42111は、当該段の前処理セット4211におけるプーリング層42112に接続され、畳み込み演算によって生成された画像である特徴マップFMをこのプーリング層42112へ出力する。 The convolution layer 42111 is a device that executes a convolution operation on the input image IP. More specifically, the convolution layer 42111 convolves (filters) the input image IP with a predetermined kernel (image filter) KN. The kernel KNs are a plurality of preset kernels, and the input image IP is convoluted by each of the plurality of kernel KNs, and a plurality of image (feature map) FMs corresponding to the number of kernel KNs are generated. The more kernel KNs there are, the more various features of the input image IP can be captured. The size of the kernel KN is arbitrary and is appropriately set for each preprocessing set 4211. In CNN, the kernel KN is generated by learning. That is, the numerical value of each element (each filter coefficient) of the kernel KN is automatically set by learning. As a result, the kernel KN acquires a function of extracting a predetermined feature amount by learning. The kernel KN corresponds to an example of the feature amount extraction unit. This convolution operation makes it possible to detect the pattern in the input image IP. The convolution layer 42111 is connected to the pooling layer 42112 in the preprocessing set 4211 of the stage, and outputs the feature map FM, which is an image generated by the convolution operation, to the pooling layer 42112.

プーリング層42112は、マックスプーリング(maxpooling)の処理を実行する装置である。より具体的には、プーリング層42112は、所定サイズの矩形フィルタを特徴マップFM内で所定の画素ずつずらしながら矩形内の最大値を取り出して新たな画像を生成する。このマックスプーリングの処理によって、抽出される特徴の位置感度が低下される。プーリング層42112は、次段の前処理セット4211が存在する場合には、次段の前処理セット4211における畳み込み層42111に接続され、その生成した画像をこの畳み込み層42111へ出力し、次段の前処理セット4211が存在しない場合(すなわち、最終段の前処理セット4211-kにおけるプーリング層42112-kの場合)には、多層パーセプトロン部422に接続され、前記生成した画像を多層パーセプトロン部422へ出力する。 The pooling layer 42112 is a device that performs a max pooling process. More specifically, the pooling layer 42112 takes out the maximum value in the rectangle while shifting the rectangular filter of a predetermined size by a predetermined pixel in the feature map FM, and generates a new image. This max pooling process reduces the positional sensitivity of the extracted features. The pooling layer 42112 is connected to the convolution layer 42111 in the pretreatment set 4211 of the next stage when the pretreatment set 4211 of the next stage is present, and the generated image is output to the convolution layer 42111 of the next stage. When the pretreatment set 4211 does not exist (that is, in the case of the pooling layer 42112-k in the final stage pretreatment set 4211-k), it is connected to the multi-layer perceptron section 422 and the generated image is transferred to the multi-layer perceptron section 422. Output.

多層パーセプトロン部422は、複数の層にニューロンを配置したニューラルネットワークであり、前記ニューラルネットワークによって、前処理部421の処理結果(最終段の前処理セット4211-kにおけるプーリング層42112-kで生成された画像)に基づいて、前処理部421に入力された入力画像IPを認識する装置である。多層パーセプトロン部422は、前記認識の結果ORを出力する。 The multi-layer perceptron unit 422 is a neural network in which neurons are arranged in a plurality of layers, and is generated by the neural network in the processing result of the preprocessing unit 421 (the pooling layer 42112-k in the preprocessing set 4211-k of the final stage). This is a device that recognizes the input image IP input to the preprocessing unit 421 based on the image). The multi-layer perceptron unit 422 outputs the OR as a result of the recognition.

このような学習モデル作成装置Daは、一例では、図3に示すように、CPU11、RAM12、ROM13、ハードディスクドライブ(HDD)14、LCD16、キーボード17、マウス18、USBインターフェース19、および、これらCPU11、RAM12、ROM13、HDD14、LCD16、キーボード17、マウス18およびUSBインターフェース19を相互に接続するバス15を備える、例えば、デスクトップ型やノード型のコンピュータによって構成可能である。 As an example, such a learning model creating device Da includes a CPU 11, a RAM 12, a ROM 13, a hard disk drive (HDD) 14, an LCD 16, a keyboard 17, a mouse 18, a USB interface 19, and these CPUs 11. It can be configured by, for example, a desktop or node-type computer including a bus 15 that interconnects a RAM 12, a ROM 13, an HDD 14, an LCD 16, a keyboard 17, a mouse 18, and a USB interface 19.

次に、本実施形態の動作について説明する。図4は、学習での、前記学習モデル作成装置の動作を示すフローチャートである。図5は、分析での、前記学習モデル作成装置の動作を示すフローチャートである。図6は、図4および図5それぞれで示す各フローチャートにおける冗長削除処理を示すフローチャートである。図7は、機械学習の反復回数と特徴量抽出部の総情報量との関係を示す図である。図7の横軸は、機械学習の反復回数(繰り返し回数)iterであり、その縦軸は、学習モデルにおける特徴量抽出部の総情報量である。図8は、第1実施形態において、寄与度による冗長削除処理を説明するためのである。図9は、第1実施形態における学習モデル作成装置の効果を説明するための図である。 Next, the operation of this embodiment will be described. FIG. 4 is a flowchart showing the operation of the learning model creating device in learning. FIG. 5 is a flowchart showing the operation of the learning model creating device in the analysis. FIG. 6 is a flowchart showing a redundant deletion process in each of the flowcharts shown in FIGS. 4 and 5. FIG. 7 is a diagram showing the relationship between the number of repetitions of machine learning and the total amount of information in the feature amount extraction unit. The horizontal axis of FIG. 7 is the number of iterations (number of iterations) iter of machine learning, and the vertical axis thereof is the total amount of information of the feature amount extraction unit in the learning model. FIG. 8 is for explaining the redundant deletion process based on the contribution in the first embodiment. FIG. 9 is a diagram for explaining the effect of the learning model creating device in the first embodiment.

このような構成の学習モデル作成装置Daは、その電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。その制御処理プログラムの実行によって、制御処理部4aには、制御部41、学習適用部42、特定部43aおよびモデル改良部44が機能的に構成される。 When the power of the learning model creation device Da having such a configuration is turned on, the necessary initialization of each part is executed and the operation is started. By executing the control processing program, the control processing unit 4a is functionally configured with a control unit 41, a learning application unit 42, a specific unit 43a, and a model improvement unit 44.

そして、学習モデルを生成する学習処理では、図4において、学習モデル作成装置Daは、制御処理部4aによって、処理#1から処理#2までの各処理S11、S12、S13が予め設定された学習回数(反復回数)だけ繰り返し、実施され、処理S13で判定された改良タイミングで処理S21aおよび処理S22が実施される。 Then, in the learning process for generating the learning model, in FIG. 4, in FIG. 4, in the learning model creating device Da, the learning in which the processes S11, S12, and S13 from the process # 1 to the process # 2 are preset by the control process unit 4a. The process S21a and the process S22 are executed at the improvement timing determined by the process S13 after being repeated by the number of times (the number of repetitions).

より具体的には、処理S11では、学習モデル作成装置Daは、制御処理部4aの学習適用部42によって、制御変数iが繰り返し回数max_iterより大きいか否かを判定する。前記制御変数iは、処理#1から処理#2までの各処理の繰り返し回数を表す変数である。前記繰り返し回数max_iterは、ユーザ(オペレータ)によって予め設定された教師セットを用いた学習の繰り返し回数(反復回数)であり、例えば100エポックや500エポックや1000エポック等で適宜に設定される。この判定の結果、制御変数iが繰り返し回数max_iterより大きくない場合(No)には、学習中であり、学習適用部42は、次に、処理S12を実行する。一方、前記判定の結果、制御変数iが繰り返し回数max_iterより大きい場合(Yes)には、学習の終了であり、学習適用部42は、この処理#1から処理#2までの各処理の繰り返し処理を抜け出し、次に、処理S14を実行する。 More specifically, in the process S11, the learning model creating device Da determines whether or not the control variable i is larger than the number of repetitions max_itter by the learning application unit 42 of the control processing unit 4a. The control variable i is a variable representing the number of repetitions of each process from process # 1 to process # 2. The repetition number max_itter is the number of repetitions (repetition number) of learning using the teacher set preset by the user (operator), and is appropriately set at, for example, 100 epochs, 500 epochs, 1000 epochs, and the like. As a result of this determination, when the control variable i is not larger than the number of repetitions max_ita (No), learning is in progress, and the learning application unit 42 next executes the process S12. On the other hand, as a result of the determination, when the control variable i is larger than the number of repetitions max_ita (Yes), the learning is completed, and the learning application unit 42 repeats each process from the process # 1 to the process # 2. Then, the process S14 is executed.

処理S12では、学習モデル作成装置Daは、学習適用部42によって、記憶部5の教師セット記憶部51に記憶された教師セット(教師データおよび正解ラベル)を用いて機械学習を実行し、次に、処理S13を実行する。 In the process S12, the learning model creation device Da executes machine learning by the learning application unit 42 using the teacher set (teacher data and correct answer label) stored in the teacher set storage unit 51 of the storage unit 5, and then performs machine learning. , Process S13 is executed.

処理S13では、学習モデル作成装置Daは、制御処理部4aによって、処理S12で生成された学習中の学習モデルから冗長な特徴量抽出部を削除し、学習モデルを改良する改良タイミングであるか否かを判定する。必ず毎エポックごとに冗長な特徴量抽出部を削除する処理を実施すると、学習モデルの性能が劣化する可能性があり、そして、その演算コストが増加するため、このような処理S13で改良タイミングを判定することによって、これらを避けることができる。 In the process S13, the learning model creation device Da deletes the redundant feature amount extraction unit from the learning model being trained generated in the process S12 by the control processing unit 4a, and whether or not it is an improvement timing for improving the learning model. Is determined. If the process of deleting the redundant feature amount extraction unit is always performed for each epoch, the performance of the learning model may deteriorate and the calculation cost increases. Therefore, the improvement timing is adjusted in such process S13. By determining, these can be avoided.

この改良タイミングは、例えば、学習モデル作成装置Daを構成するハードウェアの処理能力、分析処理の種類、予測される学習の進捗具合等に応じてユーザ(オペレータ)によって適宜に決定され、学習モデル作成装置Daに予め入力され設定される。あるいは、1エポックの前後で学習モデルの差分が求められ、この差分が予め設定された所定の閾値以下である場合に、改良タイミングが到来したと自動的に判定される。例えば、所定の教師データを用いて100エポック学習することによって学習モデルが生成される場合、分析処理の種類に対しハードウェアの処理能力が高ければ、最初のエポックが改良タイミングとして設定され、学習モデルが改良されて良く、また例えば、このような場合において、数エポックごとに改良タイミングが設定され、学習モデルが改良されて良い。また例えば、予測される学習の進捗具合が遅ければ、最初の数エポックを避けて、例えば10エポックごとに改良タイミングが設定され、学習モデルが改良されて良い。このように多段的に改良タイミングが設定される場合、図7に示すように、従前の一般的な機械学習では、反復回数(繰り返し回数)iterに依らず、特徴量抽出部の総情報量は、b[Byte]で一定であるが、本実施形態では、任意の反復回数ixの時点で特徴量抽出部の総情報量は、削除設定個数が削除率でαの場合に、α×b[Byte]に削減される。これによって繰り返し学習に要する演算コストが段階的に低減される。さらに、機械学習では、過去の学習モデルとその性能を用いて、正解を導くことができるように学習モデルが改善されていくため、特徴量抽出部の削除によって、その改善のために参照する必要が無くなるので、従前よりもより早く学習モデルが収束できる。このような多段的に改良タイミングを設定する場合、学習モデルにおける実適用上の要求精度が反復回数Reで得られる場合に、前記実適用上の要求精度を勘案して、ix≦Reとなるように、反復回数ixが設定される。 This improvement timing is appropriately determined by the user (operator) according to, for example, the processing capacity of the hardware constituting the learning model creation device Da, the type of analysis processing, the expected progress of learning, and the like, and the learning model is created. It is input and set in advance in the device Da. Alternatively, the difference between the learning models is obtained before and after one epoch, and when this difference is equal to or less than a preset predetermined threshold value, it is automatically determined that the improvement timing has arrived. For example, when a learning model is generated by learning 100 epochs using predetermined teacher data, if the processing power of the hardware is high for the type of analysis processing, the first epoch is set as the improvement timing, and the learning model. May be improved, and for example, in such a case, the improvement timing may be set every few epochs, and the learning model may be improved. Further, for example, if the predicted progress of learning is slow, the learning model may be improved by avoiding the first few epochs and setting the improvement timing every 10 epochs, for example. When the improvement timing is set in multiple stages in this way, as shown in FIG. 7, in the conventional general machine learning, the total amount of information in the feature amount extraction unit is the total amount of information regardless of the number of repetitions (number of repetitions) itter. , B [Byte] is constant, but in the present embodiment, the total amount of information of the feature amount extraction unit at the time of an arbitrary number of repetitions ix is α × b [when the number of deletion settings is α. Byte] is reduced. As a result, the calculation cost required for iterative learning is gradually reduced. Furthermore, in machine learning, the learning model is improved so that the correct answer can be derived using the past learning model and its performance, so it is necessary to refer to it for improvement by deleting the feature quantity extraction unit. Since there is no more, the learning model can converge faster than before. In such a multi-stage improvement timing, when the required accuracy for actual application in the learning model is obtained by the number of iterations Re, the required accuracy for actual application is taken into consideration so that ix ≦ Re. The number of iterations ix is set to.

処理S13の判定の結果、改良タイミングではない場合(No)には、当該エポックの学習が終了し、次のエポックの学習を開始するために、学習モデル作成装置Daは、制御処理部4aによって、制御変数iを1だけインクリメントし(i=i+1)、処理を処理S11に戻す。 As a result of the determination of the process S13, if it is not the improvement timing (No), the learning of the epoch is completed and the learning of the next epoch is started. The control variable i is incremented by 1 (i = i + 1), and the process is returned to the process S11.

一方、前記処理S13の判定の結果、改良タイミングである場合には、学習モデル作成装置Daは、制御処理部4aによって、処理S21aおよび処理S22それぞれを実施した後に、制御変数iを1だけインクリメントし(i=i+1)、処理を処理S11に戻す。処理S21aでは、冗長な特徴量抽出部を削除するために、削除対象の特徴量抽出部を特定する削除対象の特定処理が実行され、処理S22では、処理S21aで特定された特徴量抽出部を学習モデルから削除し、新たな学習モデルを生成する特徴量抽出部の一部の削除処理が実行される。したがって、次のエポックでは、処理S12の機械学習で得られた学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで学習が実施される。これら処理S21aおよび処理S22それぞれについては、後に詳述する。 On the other hand, as a result of the determination of the process S13, when the improvement timing is reached, the learning model creation device Da increments the control variable i by 1 after each of the process S21a and the process S22 is executed by the control process unit 4a. (I = i + 1), the process is returned to the process S11. In the process S21a, in order to delete the redundant feature amount extraction unit, a deletion target specifying process for specifying the feature amount extraction unit to be deleted is executed, and in the process S22, the feature amount extraction unit specified in the process S21a is executed. A part of the feature amount extraction unit that deletes from the learning model and generates a new learning model is deleted. Therefore, in the next epoch, learning is performed by a new learning model in which the redundant feature amount extraction unit is deleted from the learning model obtained by the machine learning of the process S12. Each of these processes S21a and S22 will be described in detail later.

そして、繰り返し回数max_iterの機械学習が実施されると、上述したように、処理S14が実施され、この処理S14では、学習モデル作成装置Daは、制御処理部4aによって、作成された学習モデルを出力し、本処理を終了する。 Then, when machine learning of the number of repetitions max_itter is executed, the process S14 is executed as described above, and in this process S14, the learning model creating device Da outputs the learning model created by the control processing unit 4a. Then, this process is terminated.

一方、入力サンプルを分析する分析処理では、図5において、学習モデル作成装置Daは、制御処理部4aによって、前記削除対象の特定処理S21aを実行し、次に、前記特徴量抽出部の一部の削除処理S22を実行する。これによって当初の学習モデル(例えば機械学習後の学習モデル)より、冗長な特徴量抽出部を削除した新たな学習モデルが作成される。そして、学習モデル作成装置Daは、制御処理部4aの学習適用部42によって、この処理S22で作成された新たな学習モデルで対象サンプルを分析し(S31)、この分析結果を出力し(S32)、本処理を終了する。したがって、前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。 On the other hand, in the analysis process for analyzing the input sample, in FIG. 5, the learning model creating device Da executes the specific process S21a to be deleted by the control process unit 4a, and then a part of the feature amount extraction unit. Deletion process S22 is executed. As a result, a new learning model is created from the original learning model (for example, a learning model after machine learning) by removing the redundant feature amount extraction unit. Then, the learning model creating device Da analyzes the target sample with the new learning model created in the processing S22 by the learning application unit 42 of the control processing unit 4a (S31), and outputs the analysis result (S32). , End this process. Therefore, the analysis of the target sample is performed with a new learning model in which the redundant feature amount extraction unit is deleted from the initial learning model.

次に、前記削除対象の特定処理S21aおよび前記特徴量抽出部の一部の削除処理S22について、より具体的に説明する。 Next, the specific processing S21a to be deleted and the deletion processing S22 of a part of the feature amount extraction unit will be described more specifically.

図6において、学習モデル作成装置Daは、制御処理部4aによって、特定条件を取得する(S41)。前記特定条件は、その一例として、本実施形態では、前記冗長な特徴量抽出部として削除する特徴量抽出部の個数(削除設定個数)である。前記削除設定個数は、例えば数値であるいは特徴量抽出部の総数に対する割合で入力部1から入力され、取得される。前記冗長な特徴量抽出部を削除することによって生成された学習モデルに対する、演算コストの削減量と性能劣化とは、トレードオフの関係にあることから、処理S41で削除設定個数を設定できるように学習モデル作成装置Daを構成することで、ユーザは、このトレードオフの関係を勘案して削除設定個数を設定できる。 In FIG. 6, the learning model creation device Da acquires a specific condition by the control processing unit 4a (S41). As an example, the specific condition is the number of feature quantity extraction units to be deleted as the redundant feature quantity extraction unit (deletion set number) in the present embodiment. The number of deletion settings is input and acquired from the input unit 1, for example, numerically or at a ratio to the total number of feature quantity extraction units. Since there is a trade-off relationship between the amount of reduction in calculation cost and the deterioration of performance for the learning model generated by deleting the redundant feature quantity extraction unit, the number of deletion settings can be set in the process S41. By configuring the learning model creation device Da, the user can set the number of deletion settings in consideration of this trade-off relationship.

続いて、学習モデル作成装置Daは、制御処理部4aによって、処理#111から処理#112までの各処理S42、S43、S44が特徴量抽出部の個数だけ繰り返し、その後、処理S45、処理S46および処理S47の各処理を順次に実施する。 Subsequently, in the learning model creation device Da, each process S42, S43, S44 from process # 111 to process # 112 is repeated by the control process unit 4a by the number of feature amount extraction units, and then the process S45, process S46, and processing S46 and Each process of process S47 is sequentially performed.

より具体的には、処理S42では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、学習モデルからk番目の特徴量抽出部のみを削除する。これによって新たな試行用の学習モデルKが生成される((試行用の学習モデルK)=(学習モデルからk番目の特徴量抽出部のみを削除した学習モデル))。前記学習モデルは、前記学習処理の場合では、図4に示す上述の処理S12で生成された学習モデルであり、前記分析処理の場合では、前記当初の学習モデルである。 More specifically, in the process S42, the learning model creating device Da deletes only the kth feature amount extraction unit from the learning model by the specific unit 43a of the control processing unit 4a. As a result, a new learning model K for trial is generated ((learning model K for trial) = (learning model in which only the k-th feature amount extraction unit is deleted from the learning model)). In the case of the learning process, the learning model is the learning model generated in the above-mentioned process S12 shown in FIG. 4, and in the case of the analysis process, it is the initial learning model.

処理S42に続く処理S43では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、処理S42で生成した試行用の学習モデルKで教師データを分析(判定、分類)する分析処理を実施する。 In the process S43 following the process S42, the learning model creation device Da analyzes (determines, classifies) the teacher data with the trial learning model K generated in the process S42 by the specific unit 43a of the control process unit 4a. implement.

処理S43に続く処理S44では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、試行用の学習モデルKにおける寄与度を求め、kを1だけインクリメントし(k=k+1)、処理を処理S42に戻す。より具体的には、特定部43aは、処理S43で得られた分析結果(分類結果)と、前記教師データに対応する正解ラベルとを突き合わせることによって、試行用の学習モデルKの性能を評価する評価値を前記k番目の特徴量抽出部における寄与度として求める。k番目の特徴量抽出部のみの削除の前後において、前記評価値の劣化が小さいほど、前記寄与度も小さく、前記寄与度の小さい特徴量抽出部は、冗長な特徴量抽出部であると判定できる。前記評価値は、例えば分析処理の種類等により、ユーザが予め適宜に定義する。評価値ACは、例えば、1個のサンプルを2値のいずれかに分類する2値分類で正解ラベルが表される場合、教師データの総サンプル数がNであり、正しく分類できた正解のサンプル数がCである場合には、C/Nで表される(AC=C/N)。また例えば、1個のサンプルを多クラスに分類する多クラス分類で正解ラベルが表される場合には、評価値ACは、教師データの総サンプル数がNであり、正しく分類できた正解のサンプル数がCである場合には、C/Nで表される(AC=C/N)。なお、多クラス分類では、1個のサンプルに対し、各クラスの確率が出力され、最も高い確率を持つクラスが正解であれば、前記サンプルを正しく判別(分析、分類)できたとみなすケースだけでなく、例えば上位3以内の確率を持つクラスが正解であれば、前記サンプルを正しく判別(分析、分類)できたとみなすケースもあり、分析処理の種類に依る。また例えば、回帰問題では、評価値ACは、正解からのズレ量である誤差値で与えられる。 In the process S44 following the process S43, the learning model creation device Da obtains the contribution degree in the learning model K for trial by the specific unit 43a of the control processing unit 4a, increments k by 1 (k = k + 1), and processes. Is returned to the process S42. More specifically, the specific unit 43a evaluates the performance of the learning model K for trial by matching the analysis result (classification result) obtained in the process S43 with the correct answer label corresponding to the teacher data. The evaluation value to be evaluated is obtained as the degree of contribution in the k-th feature amount extraction unit. Before and after the deletion of only the k-th feature amount extraction unit, it is determined that the smaller the deterioration of the evaluation value, the smaller the contribution degree, and the feature amount extraction unit having a small contribution degree is a redundant feature amount extraction unit. can. The evaluation value is appropriately defined in advance by the user depending on, for example, the type of analysis processing. For the evaluation value AC, for example, when the correct answer label is represented by the binary classification that classifies one sample into one of the binary values, the total number of samples of the teacher data is N, and the correct answer sample that can be correctly classified. When the number is C, it is represented by C / N (AC = C / N). Further, for example, when the correct answer label is represented by the multi-class classification that classifies one sample into multiple classes, the evaluation value AC is the correct sample that can be correctly classified because the total number of samples of the teacher data is N. When the number is C, it is represented by C / N (AC = C / N). In multi-class classification, the probability of each class is output for one sample, and if the class with the highest probability is the correct answer, it is only the case that the sample can be correctly discriminated (analyzed and classified). If, for example, a class having a probability within the top 3 is correct, it may be considered that the sample can be correctly discriminated (analyzed and classified), depending on the type of analysis processing. Further, for example, in the regression problem, the evaluation value AC is given as an error value which is an amount of deviation from the correct answer.

そして、このような処理S42ないし処理S44の各処理を学習モデルにおける複数の特徴量抽出部それぞれについて実施することによって複数の特徴量抽出部それぞれにおける複数の寄与度が求められると、続く処理S45では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、寄与度の低い方から順に、前記複数の特徴量抽出部を並べる(ソートする)。これによって前記複数の特徴量抽出部に対する寄与度リストが生成される。その一例が図8に示されている。図8において、その横軸は、寄与度であり、各●印が特徴量抽出部を表している。 Then, when each of the processes S42 to S44 is performed for each of the plurality of feature amount extraction units in the learning model to obtain a plurality of contributions in each of the plurality of feature amount extraction units, the subsequent process S45 The learning model creating device Da arranges (sorts) the plurality of feature quantity extraction units in order from the one with the lowest contribution by the specific unit 43a of the control processing unit 4a. As a result, a contribution list for the plurality of feature quantity extraction units is generated. An example is shown in FIG. In FIG. 8, the horizontal axis is the degree of contribution, and each ● mark represents the feature amount extraction unit.

処理S45に続く処理S46では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、削除対象の特徴量抽出部を特定する特定処理を実施する。寄与度が小さい特徴量抽出部は、学習モデルの性能に対する影響が小さく、冗長な特徴量抽出部であると推定できる。一方、寄与度が大きい特徴量抽出部(例えば図8において破線の囲み内の特徴量抽出部)は、学習モデルの性能に対する影響が大きく、冗長ではない、重要な特徴量抽出部であると推定できる。そこで、本実施形態では、特定部43aは、前記削除設定個数になるまで、最下位から順に特徴量抽出部を選定し、この選定した特徴量抽出部を前記冗長な特徴量抽出部として特定する。すなわち、特定部43aは、前記寄与度の低い特徴量抽出部から順に、前記入力部で受け付けた特定条件を満たしている間、前記冗長な特徴量抽出部を特定する。ユーザによって入力部1から前記削除設定個数として特徴量抽出部の総数に対するx%が入力された場合、最下位から順に図8に示す一点鎖線までの特徴量抽出部が選定され、前記冗長な特徴量抽出部として特定される。これによって学習モデルの性能を維持しつつ、削除可能な特徴量抽出部が特定できる。 In the process S46 following the process S45, the learning model creation device Da performs a specific process of specifying the feature amount extraction unit to be deleted by the specific unit 43a of the control process unit 4a. It can be estimated that the feature amount extraction unit having a small contribution has a small influence on the performance of the learning model and is a redundant feature amount extraction unit. On the other hand, the feature amount extraction unit having a large contribution (for example, the feature amount extraction unit in the boxed line in FIG. 8) is presumed to be an important feature amount extraction unit that has a large influence on the performance of the learning model and is not redundant. can. Therefore, in the present embodiment, the specific unit 43a selects the feature amount extraction unit in order from the lowest to the deletion set number, and specifies the selected feature amount extraction unit as the redundant feature amount extraction unit. .. That is, the specifying unit 43a identifies the redundant feature amount extracting unit in order from the feature amount extracting unit having the lowest contribution while satisfying the specific conditions accepted by the input unit. When the user inputs x% of the total number of feature quantity extraction units as the deletion setting number from the input unit 1, the feature quantity extraction unit from the lowest to the one-dot chain line shown in FIG. 8 is selected, and the redundant feature is selected. Specified as a quantity extractor. As a result, it is possible to identify a feature amount extraction unit that can be deleted while maintaining the performance of the learning model.

処理S46に続く処理S47では、学習モデル作成装置Daは、制御処理部4aのモデル改良部44によって、学習モデルから処理S46で特定部43aによって特定された特徴量抽出部を削除することによって新たな学習モデルを作成し、本処理を終了する。これによって削除した特徴量抽出部の個数だけサイズの小さい新たな学習モデルが作成できる。 In the process S47 following the process S46, the learning model creation device Da is new by the model improvement unit 44 of the control processing unit 4a deleting the feature amount extraction unit specified by the specific unit 43a in the process S46 from the learning model. Create a learning model and end this process. As a result, a new learning model whose size is as small as the number of deleted feature quantity extraction units can be created.

なお、学習適用部42が複数段の構成を持つCNNである場合、上述の処理S41ないし処理S47の各処理は、いずれの段(層)に対して実施されて良く、また、1個の段(層)に対して実施されて良く、また、複数の段(層)に対して実施されて良く、ユーザ(オペレータ)に適宜に設定される。効果的に演算コストを低減できる観点から、上述の処理S41ないし処理S47の各処理は、1段目(1層目)に対して実施されることが好ましい。 When the learning application unit 42 is a CNN having a configuration of a plurality of stages, each of the above-mentioned processes S41 to S47 may be performed on any stage (layer), and one stage may be used. It may be implemented for (layers), or may be implemented for a plurality of stages (layers), and may be appropriately set for the user (operator). From the viewpoint of effectively reducing the calculation cost, it is preferable that each of the above-mentioned processes S41 to S47 is performed on the first stage (first layer).

以上説明したように、第1実施形態における学習モデル作成装置Da、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、複数の特徴量抽出部の中から冗長な特徴量抽出部を特定し、この特定した特徴量抽出部を削除するので、学習モデルの性能劣化を抑制できる。そして、上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、学習中では、特徴量抽出部の削除によってより小さいサイズの新たな学習モデルで学習を進めるので、学習の演算コストを低減できる。また、上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、分析の際には、特徴量抽出部の削除によってより小さいサイズの新たな学習モデルで入力サンプルを分析するので、分析の演算コストを低減できる。したがって、上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、学習モデルの性能劣化を抑制しつつ、演算コストを低減できる。 As described above, the learning model creation device Da in the first embodiment, and the learning model creation method and learning model creation program implemented therein use the learning model during or after learning. When analyzing the input sample, a redundant feature amount extraction unit is specified from a plurality of feature amount extraction units, and the specified feature amount extraction unit is deleted, so that the performance deterioration of the learning model can be suppressed. Then, the learning model creation device Da, the learning model creation method, and the learning model creation program proceed with learning with a new learning model of a smaller size by deleting the feature amount extraction unit during learning, so that the calculation cost of learning is reduced. Can be reduced. In addition, the learning model creation device Da, the learning model creation method, and the learning model creation program analyze the input sample with a new learning model of a smaller size by deleting the feature amount extraction unit at the time of analysis. The calculation cost of can be reduced. Therefore, the learning model creation device Da, the learning model creation method, and the learning model creation program can reduce the calculation cost while suppressing the performance deterioration of the learning model.

図9は、第1実施形態における学習モデル作成装置の効果を説明するための図である。一具体例では、図9に示すように、杉やもみの木等の樹木を写した複数の画像を教師データとしてCNNの学習モデルが従前の手法で作成されると、学習中、あるいは、学習後の学習モデルは、緑色に反応する特徴量抽出部A、右上がりのエッジに反応する特徴量抽出部B、左上がりのエッジに反応する特徴量抽出部Cおよび緑色に反応する特徴量抽出部Mを含む複数の特徴量抽出部を含む。そこで、第1実施形態における学習モデル作成装置Daによって前記教師データを用いて学習モデルを作成すると、特徴量抽出部Aと特徴量抽出部Mとは、一方が冗長な特徴量抽出部であるので、一方の特徴量抽出部が削除され、これによって、よりサイズの小さい学習モデルが作成され、他方の特徴量抽出部が残ることで、学習モデルの性能劣化が抑制される。 FIG. 9 is a diagram for explaining the effect of the learning model creating device in the first embodiment. In one specific example, as shown in FIG. 9, when a CNN learning model is created by the conventional method using a plurality of images of trees such as cedars and fir trees as teacher data, during learning or learning. The later learning model includes a feature amount extraction unit A that reacts to green, a feature amount extraction unit B that reacts to an upward-sloping edge, a feature amount extraction unit C that reacts to an upward-sloping edge, and a feature amount extraction unit that reacts to green. A plurality of feature amount extraction units including M are included. Therefore, when a learning model is created using the teacher data by the learning model creation device Da in the first embodiment, one of the feature amount extraction unit A and the feature amount extraction unit M is a redundant feature amount extraction unit. , One feature quantity extraction unit is deleted, thereby creating a learning model having a smaller size, and the other feature quantity extraction unit remains, so that the performance deterioration of the learning model is suppressed.

また、他の一具体例では、次の環境で実験が実施された。この実験環境は、フレームワークが「caffe」であり、データセットが「The CIFAR-10 dataset」であり、入力画像名が「canis_familiaris_s_001129.png」であり、ネットワーク定義が「AlexNet」である。このような実験環境の下、特徴量抽出部を削除していないオリジナルな学習モデルを用いた場合(削除設定個数が0である場合)、すなわち、本実施形態の学習モデル作成装置Daで改良していない学習モデルを用いた場合では、正解クラスがdogクラスである場合において、分類結果は、58.83%がdogに分類され、23.91%がcatに分類され、7.92%がhorseに分類された。一方、このオリジナルな学習モデルが、本実施形態における学習モデル作成装置Daによって、削除設定個数を特徴量抽出部の総数に対する50%に設定し、AlexNetの第1層に対し前記冗長な特徴量抽出部を削除するように、改良された。なお、AlexNetの第1層における特徴量抽出部(カーネル)は、11×11サイズであり、その総数は、96個である。このように改良された学習モデルを用いた場合では、正解クラスがdogクラスである場合において、分類結果は、63.45%がdogに分類され、26.72%がcatに分類され、3.63%がhorseに分類された。これらを比較すると分かるように、特徴量抽出部が50%削除されても、正解のdogクラスに正しく分類できており、本実施形態における学習モデル作成装置Daは、学習モデルの性能劣化を抑制しつつ、特徴量抽出部の削除によってより小さいサイズの新たな学習モデルを作成できており、演算コストを低減できている。 In another specific example, the experiment was carried out in the following environment. In this experimental environment, the framework is "caffe", the dataset is "The CIFAR-10 dataset", the input image name is "canis_familiaris_s_001129.png", and the network definition is "AlexNet". In such an experimental environment, when an original learning model in which the feature amount extraction unit is not deleted is used (when the number of deletion settings is 0), that is, the learning model creation device Da of the present embodiment is used for improvement. In the case of using a learning model that has not been used, when the correct answer class is the dog class, 58.83% of the classification results are classified as dog, 23.91% are classified as cat, and 7.92% are classified as horse. It was classified into. On the other hand, in this original learning model, the learning model creation device Da in the present embodiment sets the number of deletion settings to 50% of the total number of feature quantity extraction units, and extracts the redundant feature quantity with respect to the first layer of AlexNet. Improved to remove the part. The feature amount extraction unit (kernel) in the first layer of AlexNet has a size of 11 × 11, and the total number is 96. When the learning model improved in this way is used, when the correct answer class is the dog class, 63.45% of the classification results are classified as dog and 26.72% are classified as cat. 63% were classified as horses. As can be seen by comparing these, even if the feature amount extraction unit is deleted by 50%, it can be correctly classified into the correct dog class, and the learning model creation device Da in the present embodiment suppresses the performance deterioration of the learning model. At the same time, by deleting the feature amount extraction unit, a new learning model with a smaller size can be created, and the calculation cost can be reduced.

上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、削除設定個数の入力を受け付ける入力部1を備えるので、ユーザは、トレードオフの関係にある演算コストの削減量と性能劣化とを勘案して削除設定個数を設定できる。 Since the learning model creation device Da, the learning model creation method, and the learning model creation program include an input unit 1 that accepts input of the number of deletion settings, the user can reduce the calculation cost and deteriorate the performance, which are in a trade-off relationship. The number of deletion settings can be set in consideration of.

上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、改良タイミングの入力を受け付ける入力部1を備えるので、ユーザは、例えば、学習モデル作成装置Daを構成するハードウェアの処理能力、分析処理の種類、予測される学習の進捗具合等を勘案して前記タイミングを設定できる。 Since the learning model creation device Da, the learning model creation method, and the learning model creation program include an input unit 1 that accepts input of improvement timing, the user can use, for example, the processing capacity of the hardware constituting the learning model creation device Da. The timing can be set in consideration of the type of analysis processing, the expected progress of learning, and the like.

上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を、寄与度の観点から適切に特定できる。上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムでは、寄与度の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。 The learning model creation device Da, the learning model creation method, and the learning model creation program can appropriately specify the redundant feature amount extraction unit from the viewpoint of contribution. In the learning model creation device Da, the learning model creation method, and the learning model creation program, since the learning model is specified from the viewpoint of the degree of contribution, the redundant feature amount extraction unit is specified with priority given to the reduction of the calculation cost.

次に、別の実施形態について説明する。 Next, another embodiment will be described.

(第2実施形態)
図10は、第2実施形態において、差分二乗和による冗長削除処理を説明するためのである。
(Second Embodiment)
FIG. 10 is for explaining the redundant deletion process by the sum of squared differences in the second embodiment.

第1実施形態における学習モデル作成装置Daは、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定したが、第2実施形態における学習モデル作成装置Dbは、学習モデルにおける複数の特徴量抽出部間における独立性の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定するものである。 The learning model creating device Da in the first embodiment specified the redundant feature amount extracting unit in order from the feature amount extracting unit having the lowest contribution, but the learning model creating device Db in the second embodiment is in the learning model. The redundant feature amount extraction unit is specified in order from the feature amount extraction unit having low independence among the plurality of feature amount extraction units.

このような第2実施形態における学習モデル作成装置Dbは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4bと、記憶部5とを備える。これら第2実施形態における学習モデル作成装置Dbにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。 As shown in FIG. 1, for example, the learning model creating device Db in the second embodiment includes an input unit 1, an output unit 2, an IF unit 3, a control processing unit 4b, and a storage unit 5. Be prepared. The input unit 1, the output unit 2, the IF unit 3 and the storage unit 5 in the learning model creation device Db in the second embodiment are the input unit 1, the output unit 2 and the output unit 2 in the learning model creation device Da in the first embodiment, respectively. Since it is the same as the IF unit 3 and the storage unit 5, the description thereof will be omitted.

制御処理部4bは、学習モデル作成装置Dbの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4bは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43bおよびモデル改良部44を機能的に備える。これら第2実施形態の制御処理部4bにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。 The control processing unit 4b is a circuit for creating a learning model for machine learning by controlling each part 1 to 3 and 5 of the learning model creating device Db according to the function of each part, and is, for example, a CPU and its surroundings. It is configured with a circuit. The control processing unit 4b functionally includes a control unit 41, a learning application unit 42, a specific unit 43b, and a model improvement unit 44 by executing the control processing program. The control unit 41, the learning application unit 42, and the model improvement unit 44 in the control processing unit 4b of the second embodiment are the control unit 41, the learning application unit 42, and the model improvement unit in the control processing unit 4a of the first embodiment, respectively. Since it is the same as 44, the description thereof will be omitted.

特定部43bは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43bは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43bは、学習モデルにおける特徴量抽出部間における独立性の度合いを表す独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43bは、特徴量抽出部間で成分同士の差分を求め、この求めた差分の絶対値の和を前記独立度として求め、この求めた独立度に基づいて、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。より詳しくは、特定部43bは、まず、前記複数の特徴量抽出部それぞれについて、当該特徴量抽出部と前記複数の特徴量抽出部から当該特徴量抽出部を除いた残余の特徴量抽出部それぞれとの間で成分同士の差分を求める。次に、特定部43bは、この求めた各差分の二乗の和(各差分の二乗を全て累積した値)を、前記独立度として求める(独立度=差分二乗和(差分二乗累積値))。差分二乗和が小さいほど、独立度も小さく、前記独立度の小さい特徴量抽出部は、冗長な特徴量抽出部であると判定できる。その一例が図10に示されている。図10の横軸は、特徴量抽出部の一例であるカーネルKNの番号(kernel_num)を示し、その縦軸は、差分二乗和(sum of squares)、すなわち、独立度を示す。そして、特定部43bは、独立度(差分二乗和)の小さい方から順に、前記複数の特徴量抽出部を並べ、予め設定された削除設定個数になるまで、最下位から順に特徴量抽出部を選定し、この選定した特徴量抽出部を前記冗長な特徴量抽出部として特定する。 The specific unit 43b identifies a redundant feature amount extraction unit from a plurality of feature amount extraction units in the learning model during training or when analyzing an input sample using the learning model after learning. It is something to do. In the present embodiment, the specific unit 43b specifies the redundant feature amount extraction unit with priority given to reduction of calculation cost. More specifically, the specific unit 43b identifies the redundant feature amount extraction unit in order from the feature amount extraction unit having a low degree of independence indicating the degree of independence between the feature amount extraction units in the learning model. More specifically, the specific unit 43b obtains the difference between the components between the feature amount extraction units, obtains the sum of the absolute values of the obtained differences as the degree of independence, and based on the obtained degree of independence, the above-mentioned The redundant feature amount extraction unit is specified in order from the feature amount extraction unit having the lowest degree of independence. More specifically, in the specific unit 43b, first, for each of the plurality of feature amount extraction units, the feature amount extraction unit and the residual feature amount extraction unit obtained by removing the feature amount extraction unit from the plurality of feature amount extraction units, respectively. Find the difference between the components with. Next, the specific unit 43b obtains the sum of the squares of the obtained differences (the value obtained by accumulating all the squares of the differences) as the degree of independence (independence = sum of the squares of the differences (cumulative value of the squares of the difference)). The smaller the sum of squared differences, the smaller the degree of independence, and it can be determined that the feature amount extraction unit having a small degree of independence is a redundant feature amount extraction unit. An example is shown in FIG. The horizontal axis of FIG. 10 shows the number (kernel_num) of the kernel KN which is an example of the feature amount extraction unit, and the vertical axis thereof shows the sum of squares (sum of squares), that is, the degree of independence. Then, the specific unit 43b arranges the plurality of feature quantity extraction units in order from the one with the smallest degree of independence (difference squared sum), and the feature quantity extraction units are sequentially arranged from the lowest to the preset deletion set number. It is selected, and the selected feature amount extraction unit is specified as the redundant feature amount extraction unit.

このような第2実施形態における学習モデル作成装置Dbは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43bによる削除対象の特定処理S21bを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。 The learning model creating device Db in such a second embodiment is shown in FIG. Each of the above-mentioned processes is carried out using 4. As a result, a learning model in which the redundant feature amount extraction unit is deleted is created.

一方、分析処理では、第2実施形態における学習モデル作成装置Dbは、特定部43aによる削除対象の特定処理S21aに代え、特定部43bによる削除対象の特定処理S21bを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。 On the other hand, in the analysis process, the learning model creation device Db in the second embodiment performs the deletion target specific process S21b by the specific unit 43b instead of the deletion target specific process S21a by the specific unit 43a. Each of the above-mentioned treatments is carried out using. As a result, the analysis of the target sample is performed with a new learning model in which the redundant feature amount extraction unit is removed from the initial learning model.

この削除対象の特定処理S21bでは、学習モデル作成装置Dbは、特定部43bによって、特徴量抽出部間で成分同士の差分を求め、この求めた差分の絶対値の和を、前記独立性の度合いを表す独立度として求め、この求めた独立度に基づいて、前記複数の特徴量抽出部間における独立性の低い特徴量抽出部から順に、前記削除設定個数になるまで(すなわち、前記入力部で受け付けた特定条件を満たしている間)、前記冗長な特徴量抽出部を特定する。 In the specific processing S21b to be deleted, the learning model creating device Db obtains the difference between the components between the feature amount extraction units by the specific unit 43b, and the sum of the absolute values of the obtained differences is the degree of independence. Based on this determined degree of independence, from the feature amount extraction unit having the lowest independence among the plurality of feature amount extraction units, until the number of deleted features is reached (that is, in the input unit). (While the accepted specific conditions are satisfied), the redundant feature amount extraction unit is specified.

このような第2実施形態における学習モデル作成装置Db、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。 The learning model creation device Db in the second embodiment, and the learning model creation method and the learning model creation program implemented therein are the learning model creation device Da, the learning model creation method, and the learning model in the first embodiment. It has the same effect as the created program.

そして、上記学習モデル作成装置Db、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を、独立度の観点から適切に特定できる。上記学習モデル作成装置Db、学習モデル作成方法および学習モデル作成プログラムでは、独立度の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。 Then, the learning model creation device Db, the learning model creation method, and the learning model creation program can appropriately specify the redundant feature amount extraction unit from the viewpoint of the degree of independence. Since the learning model creation device Db, the learning model creation method, and the learning model creation program are specified from the viewpoint of the degree of independence, the redundant feature amount extraction unit is specified with priority given to reduction of calculation cost.

次に、別の実施形態について説明する。 Next, another embodiment will be described.

(第3実施形態)
図11は、第3実施形態において、次元圧縮による冗長削除処理を説明するためのである。図11Aは、特徴量抽出部の機能をテキストで表した場合の学習モデルを示し、図11Bは、特徴量抽出部の成分をベクトルで表した場合の学習モデルを示し、図11Cは、2次元に圧縮した場合における各特徴量抽出部の分布を示す。
(Third Embodiment)
FIG. 11 is for explaining the redundant deletion process by dimensional compression in the third embodiment. FIG. 11A shows a learning model when the function of the feature quantity extraction unit is represented by text, FIG. 11B shows a learning model when the components of the feature quantity extraction unit are represented by a vector, and FIG. 11C is two-dimensional. The distribution of each feature amount extraction part when compressed to is shown.

第1実施形態における学習モデル作成装置Daは、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定したが、第3実施形態における学習モデル作成装置Dcは、学習モデルにおける複数の特徴量抽出部をグループ分けし、前記複数の特徴量抽出部から各グループを代表する特徴量抽出部を除いた残余の特徴量抽出部を、前記冗長な特徴量抽出部として特定するものである。 The learning model creating device Da in the first embodiment specified the redundant feature amount extracting unit in order from the feature amount extracting unit having the lowest contribution, but the learning model creating device Dc in the third embodiment is in the learning model. A plurality of feature amount extraction units are grouped, and the remaining feature amount extraction unit excluding the feature amount extraction unit representing each group from the plurality of feature amount extraction units is specified as the redundant feature amount extraction unit. Is.

このような第3実施形態における学習モデル作成装置Dcは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4cと、記憶部5とを備える。これら第3実施形態における学習モデル作成装置Dcにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。 As shown in FIG. 1, for example, the learning model creating device Dc in the third embodiment includes an input unit 1, an output unit 2, an IF unit 3, a control processing unit 4c, and a storage unit 5. Be prepared. The input unit 1, the output unit 2, the IF unit 3 and the storage unit 5 in the learning model creation device Dc in the third embodiment are the input unit 1, the output unit 2 and the output unit 2 in the learning model creation device Da in the first embodiment, respectively. Since it is the same as the IF unit 3 and the storage unit 5, the description thereof will be omitted.

制御処理部4cは、学習モデル作成装置Dcの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4cは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43cおよびモデル改良部44を機能的に備える。これら第3実施形態の制御処理部4cにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。 The control processing unit 4c is a circuit for controlling each unit 1 to 3 and 5 of the learning model creation device Dc according to the function of each unit to create a learning model for machine learning. For example, the CPU and its surroundings. It is configured with a circuit. The control processing unit 4c functionally includes a control unit 41, a learning application unit 42, a specific unit 43c, and a model improvement unit 44 by executing the control processing program. The control unit 41, the learning application unit 42, and the model improvement unit 44 in the control processing unit 4c of the third embodiment are the control unit 41, the learning application unit 42, and the model improvement unit in the control processing unit 4a of the first embodiment, respectively. Since it is the same as 44, the description thereof will be omitted.

特定部43cは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43cは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43cは、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、グループを代表する特徴量抽出部を代表特徴量抽出部として選択し、前記複数の特徴量抽出部から前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定することで、前記冗長な特徴量抽出部を特定する。より詳しくは、特定部43cは、まず、前記複数の特徴量抽出部をグループ分けするために、前記複数の特徴量抽出部間で距離を求める。距離が近い特徴量抽出部同士は、互いに類似する特徴量抽出部であると判定できる。前記距離は、特徴量抽出部の成分数に応じた次元で求められても良いが、本実施形態では、特徴量抽出部の次元を低減してから求められる。例えば、特定部43cは、前記複数の特徴量抽出部を主成分分析の手法を用いてその次元を低減する。一例では、図11Aに示す学習モデルの特徴量抽出部が図11Bに示すようにn次元の成分(n個の成分)から成る場合に、主成分分析の手法を用いて第1および第2主成分の2次元に圧縮され、図11Cに示すように、2次元に圧縮された複数の特徴量抽出部が求められる。次に、特定部43cは、低次元化された特徴量抽出部間で距離を求め、その距離が予め設定された所定の閾値(距離判定閾値)以内の特徴量抽出部をグループに纏める。図11Cに示す例では、複数の特徴量抽出部は、7個の第1ないし第7グループGPa~GPgに分けられている。次に、特定部43cは、前記複数のグループそれぞれから、グループを代表する特徴量抽出部を代表特徴量抽出部として選択する。図11Cに示す例では、特定部43cは、各グループGPそれぞれにつて、当該グループの重心位置を求め、この求めた重心位置に距離的に最も近い特徴量抽出部を代表特徴量抽出部として選択する。図11Cに示す例では、第1グループGPaでは、特徴量抽出部Aが代表特徴量抽出部として選択され、第2グループGPbでは、特徴量抽出部Bが代表特徴量抽出部として選択され、第3グループGPcでは、特徴量抽出部Cが代表特徴量抽出部として選択され、第4グループGPdでは、特徴量抽出部Dが代表特徴量抽出部として選択され、第5グループGPeでは、特徴量抽出部Eが代表特徴量抽出部として選択され、第6グループGPfでは、特徴量抽出部Fが代表特徴量抽出部として選択されている。次に、特定部43cは、前記複数の特徴量抽出部から前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する。 The specific unit 43c identifies a redundant feature amount extraction unit from a plurality of feature amount extraction units in the learning model during learning or when analyzing an input sample using the learning model after learning. It is something to do. In the present embodiment, the specific unit 43c specifies the redundant feature amount extraction unit with priority given to reduction of calculation cost. More specifically, the specific unit 43c divides a plurality of feature quantity extraction units in the learning model into a plurality of groups including feature quantity extraction units similar to each other, and features representing the group from each of the plurality of groups. By selecting the amount extraction unit as the representative feature amount extraction unit and specifying the residual feature amount extraction unit excluding the representative feature amount extraction unit from the plurality of feature amount extraction units as the redundant feature amount extraction unit, the above-mentioned Identify redundant feature extraction units. More specifically, the specific unit 43c first obtains a distance between the plurality of feature amount extraction units in order to group the plurality of feature amount extraction units. It can be determined that the feature amount extraction units that are close to each other are feature amount extraction units that are similar to each other. The distance may be obtained in a dimension corresponding to the number of components of the feature amount extraction unit, but in the present embodiment, it is obtained after reducing the dimension of the feature amount extraction unit. For example, the specific unit 43c reduces the dimension of the plurality of feature quantity extraction units by using a method of principal component analysis. In one example, when the feature quantity extraction unit of the learning model shown in FIG. 11A consists of n-dimensional components (n components) as shown in FIG. 11B, the first and second principal components are analyzed using the method of principal component analysis. As shown in FIG. 11C, a plurality of feature quantity extraction units compressed in two dimensions of the components and compressed in two dimensions are required. Next, the specific unit 43c obtains a distance between the reduced-dimensional feature amount extraction units, and groups the feature amount extraction units whose distance is within a predetermined threshold value (distance determination threshold value) set in advance. In the example shown in FIG. 11C, the plurality of feature amount extraction units are divided into seven first to seventh groups GPa to GPg. Next, the specific unit 43c selects a feature amount extraction unit representing the group as the representative feature amount extraction unit from each of the plurality of groups. In the example shown in FIG. 11C, the specific unit 43c obtains the position of the center of gravity of the group for each group GP, and selects the feature amount extraction unit closest to the obtained center of gravity position in terms of distance as the representative feature amount extraction unit. do. In the example shown in FIG. 11C, in the first group GPa, the feature amount extraction unit A is selected as the representative feature amount extraction unit, and in the second group GPb, the feature amount extraction unit B is selected as the representative feature amount extraction unit. In the 3 group GPc, the feature amount extraction unit C is selected as the representative feature amount extraction unit, in the 4th group GPd, the feature amount extraction unit D is selected as the representative feature amount extraction unit, and in the 5th group GPe, the feature amount extraction unit is selected. Part E is selected as the representative feature amount extraction unit, and in the sixth group GPf, the feature amount extraction unit F is selected as the representative feature amount extraction unit. Next, the specific unit 43c specifies the residual feature amount extraction unit excluding the representative feature amount extraction unit from the plurality of feature amount extraction units as the redundant feature amount extraction unit.

なお、第3実施形態では、削除設定個数が設定された場合に、グループ分け後のグループの総数が、特徴量抽出部の総数から削除設定個数を減算した個数となるように、前記距離判定閾値が調整される。これによって、特定部43cは、前記学習モデルにおける複数の特徴量抽出部を前記複数のグループに、前記複数の特徴量抽出部の総数から入力部1で受け付けた削除設定個数を減算した個数になるように、分ける。 In the third embodiment, when the number of deletion settings is set, the distance determination threshold value is such that the total number of groups after grouping is the total number of feature amount extraction units minus the number of deletion settings. Is adjusted. As a result, the specific unit 43c is the number obtained by subtracting the number of deletion settings received by the input unit 1 from the total number of the plurality of feature amount extraction units in the plurality of groups of the plurality of feature amount extraction units in the learning model. So, divide.

このような第3実施形態における学習モデル作成装置Dcは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43cによる削除対象の特定処理S21cを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。 The learning model creating device Dc in such a third embodiment is shown in FIG. Each of the above-mentioned processes is carried out using 4. As a result, a learning model in which the redundant feature amount extraction unit is deleted is created.

一方、分析処理では、第3実施形態における学習モデル作成装置Dcは、特定部43aによる削除対象の特定処理S21aに代え、特定部43cによる削除対象の特定処理S21cを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。 On the other hand, in the analysis process, the learning model creation device Dc in the third embodiment performs the deletion target specific process S21c by the specific unit 43c instead of the deletion target specific process S21a by the specific unit 43a. Each of the above-mentioned treatments is carried out using. As a result, the analysis of the target sample is performed with a new learning model in which the redundant feature amount extraction unit is removed from the initial learning model.

この削除対象の特定処理S21cでは、学習モデル作成装置Dcは、特定部43cによって、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、グループを代表する特徴量抽出部を代表特徴量抽出部として選択し、前記複数の特徴量抽出部から前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する。 In the specific processing S21c to be deleted, the learning model creation device Dc divides a plurality of feature amount extraction units in the learning model into a plurality of groups including feature amount extraction units similar to each other by the specific unit 43c, and the plurality of features are extracted. From each of the groups, the feature amount extraction unit representing the group is selected as the representative feature amount extraction unit, and the residual feature amount extraction unit excluding the representative feature amount extraction unit from the plurality of feature amount extraction units is the redundant feature. Specify as a quantity extractor.

このような第3実施形態における学習モデル作成装置Dc、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。 The learning model creation device Dc in the third embodiment, and the learning model creation method and the learning model creation program implemented therein are the learning model creation device Da, the learning model creation method, and the learning model in the first embodiment. It has the same effect as the created program.

そして、上記学習モデル作成装置Dc、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を、類似の観点から適切に特定できる。上記学習モデル作成装置Dc、学習モデル作成方法および学習モデル作成プログラムでは、類似の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。 Then, the learning model creation device Dc, the learning model creation method, and the learning model creation program can appropriately identify the redundant feature amount extraction unit from a similar viewpoint. Since the learning model creation device Dc, the learning model creation method, and the learning model creation program are specified from the same viewpoint, the redundant feature amount extraction unit is specified with priority given to reduction of calculation cost.

次に、別の実施形態について説明する。 Next, another embodiment will be described.

(第4実施形態)
図12は、第4実施形態における学習モデル作成装置に表示される入出力画面の一例を示す図である。
(Fourth Embodiment)
FIG. 12 is a diagram showing an example of an input / output screen displayed on the learning model creating device according to the fourth embodiment.

第1ないし第3実施形態における学習モデル作成装置Da~Dcは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定するが、第4実施形態における学習モデル作成装置Ddは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定するものである。 The learning model creating devices Da to Dc in the first to third embodiments specify the redundant feature amount extraction unit with priority given to reduction of calculation cost, but the learning model creating device Dd in the fourth embodiment is used for learning. The redundant feature amount extraction unit is specified with priority given to maintaining the performance of the model.

このような第4実施形態における学習モデル作成装置Ddは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4dと、記憶部5とを備える。これら第4実施形態における学習モデル作成装置Ddにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、学習モデルの性能の維持を優先する第1優先項目を入力部1がさらに受け付ける点を除き、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。 As shown in FIG. 1, for example, the learning model creating device Dd in the fourth embodiment includes an input unit 1, an output unit 2, an IF unit 3, a control processing unit 4d, and a storage unit 5. Be prepared. In the input unit 1, the output unit 2, the IF unit 3, and the storage unit 5 in the learning model creation device Dd in the fourth embodiment, the input unit 1 further sets a first priority item for prioritizing the maintenance of the performance of the learning model. Except for the point of acceptance, it is the same as the input unit 1, the output unit 2, the IF unit 3 and the storage unit 5 in the learning model creation device Da in the first embodiment, and thus the description thereof will be omitted.

入力部1は、本実施形態では、上述のように、学習モデルの性能の維持を優先する第1優先項目の入力をさらに受け付ける。前記第1優先項目は、本実施形態では、色情報を前記特徴量として抽出する第1特徴量抽出部(色情報抽出部)、エッジ情報を前記特徴量として抽出する第2特徴量抽出部(エッジ情報抽出部)、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部(ブラー情報抽出部)の中から選択され、前記特定する前記冗長な特徴量抽出部から除外される特徴量抽出部である。この選択される特徴量抽出部は、1個であって良く、あるいは、複数であって良く、あるいは、全てであって良い。前記第1優先項目は、前記特定条件の他の一例である。したがって、入力部1は、前記第1ないし第3特徴量抽出部の中から、前記特定する前記冗長な特徴量抽出部から除外する特徴量抽出部の入力を受け付ける。 In the present embodiment, the input unit 1 further accepts the input of the first priority item that prioritizes the maintenance of the performance of the learning model, as described above. In the present embodiment, the first priority item is a first feature amount extraction unit (color information extraction unit) that extracts color information as the feature amount, and a second feature amount extraction unit that extracts edge information as the feature amount (the first feature amount extraction unit). Features selected from the edge information extraction unit) and the third feature amount extraction unit (blurring information extraction unit) that extracts blur information as the feature amount, and excluded from the redundant feature amount extraction unit to be specified. It is a quantity extraction unit. The selected feature amount extraction unit may be one, may be plural, or may be all. The first priority item is another example of the specific condition. Therefore, the input unit 1 receives the input of the feature amount extraction unit excluded from the redundant feature amount extraction unit to be specified from the first to third feature amount extraction units.

制御処理部4dは、学習モデル作成装置Ddの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4dは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43dおよびモデル改良部44を機能的に備える。これら第4実施形態の制御処理部4dにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。 The control processing unit 4d is a circuit for creating a learning model for machine learning by controlling each unit 1 to 3 and 5 of the learning model creating device Dd according to the function of each unit. For example, the CPU and its surroundings. It is configured with a circuit. The control processing unit 4d functionally includes a control unit 41, a learning application unit 42, a specific unit 43d, and a model improvement unit 44 by executing the control processing program. The control unit 41, the learning application unit 42, and the model improvement unit 44 in the control processing unit 4d of the fourth embodiment are the control unit 41, the learning application unit 42, and the model improvement unit in the control processing unit 4a of the first embodiment, respectively. Since it is the same as 44, the description thereof will be omitted.

特定部43dは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43dは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する。すなわち、特定部43dは、前記冗長な特徴量抽出部として特定された特徴量抽出部が、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部である場合には、前記冗長な特徴量抽出部として特定しない。より詳しくは、例えば、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この寄与度順に並ぶ複数の特徴量抽出部から外され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する。また例えば、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この独立度順に並ぶ複数の特徴量抽出部から外され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して独立度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する。また例えば、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この残余の特徴量抽出部から外され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して残余の特徴量抽出部を特定する。 The specific unit 43d identifies a redundant feature amount extraction unit from a plurality of feature amount extraction units in the learning model during learning or when analyzing an input sample using the learning model after learning. It is something to do. In the present embodiment, the specific unit 43d specifies the redundant feature amount extraction unit with priority given to maintaining the performance of the learning model. More specifically, the specific unit 43d excludes the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 from the redundant feature amount extraction unit to be specified, whereby the redundant feature is described. Identify the quantity extractor. That is, when the feature amount extraction unit specified as the redundant feature amount extraction unit is the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1, the specific unit 43d is said to be redundant. Not specified as a feature amount extraction unit. More specifically, for example, when the redundant feature amount extraction unit is specified in order from the feature amount extraction unit having the lowest contribution, the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 contributes to this. It is removed from the plurality of feature amount extraction units arranged in order of degree, and the specific unit 43d removes the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 and performs the redundancy in order from the feature amount extraction unit having the lowest contribution. Identify a feature amount extraction unit. Further, for example, when the redundant feature amount extraction unit is specified in order from the feature amount extraction unit having the lower degree of independence, the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 is in the order of the independence degree. The specific unit 43d is removed from the plurality of feature quantity extraction units arranged side by side, and the feature quantity extraction unit corresponding to the feature quantity extraction unit received by the input unit 1 is removed, and the redundant features are sequentially described from the feature quantity extraction unit having the lowest degree of independence. Specify the quantity extraction unit. Further, for example, a plurality of feature amount extraction units in the learning model are divided into a plurality of groups consisting of feature amount extraction units similar to each other, and residual feature amount extraction excluding the representative feature amount extraction unit is extracted from each of the plurality of groups. When the unit is specified as the redundant feature amount extraction unit, the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 is removed from the residual feature amount extraction unit, and the specific unit 43d is input. The feature amount extraction unit corresponding to the feature amount extraction unit received in Part 1 is removed, and the residual feature amount extraction unit is specified.

このような第4実施形態における学習モデル作成装置Ddは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43dによる削除対象の特定処理S21dを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。 The learning model creating device Dd in the fourth embodiment is shown in the figure except that in the learning process, the deletion target specific process S21d by the specific unit 43d is performed instead of the deletion target specific process S21a by the specific unit 43a. Each of the above-mentioned processes is carried out using 4. As a result, a learning model in which the redundant feature amount extraction unit is deleted is created.

一方、分析処理では、第4実施形態における学習モデル作成装置Ddは、特定部43aによる削除対象の特定処理S21aに代え、特定部43dによる削除対象の特定処理S21dを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。 On the other hand, in the analysis process, the learning model creating device Dd in the fourth embodiment performs the deletion target specific process S21d by the specific unit 43d instead of the deletion target specific process S21a by the specific unit 43a. Each of the above-mentioned treatments is carried out using. As a result, the analysis of the target sample is performed with a new learning model in which the redundant feature amount extraction unit is removed from the initial learning model.

この削除対象の特定処理S21dでは、学習モデル作成装置Ddは、特定部43dによって、前記第1優先項目を入力部1で受け付け、入力部1で受け付けた前記第1優先項目の特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する。 In the deletion target specific processing S21d, the learning model creation device Dd receives the first priority item in the input unit 1 by the specific unit 43d, and the feature amount extraction unit of the first priority item received by the input unit 1 is used. The redundant feature amount extraction unit is specified by excluding the corresponding feature amount extraction unit from the redundant feature amount extraction unit to be specified.

この第1優先項目の入力は、例えば、図12に示す入出力画面を用いて実施される。図12に示す入出力画面7は、前記特定条件の一例である前記削除設定個数を入力するための削除設定個数入力領域71と、前記特定条件の他の一例である前記第1優先項目を入力するための優先項目入力領域72と、前記冗長な特徴量抽出部を削除する前のオリジナルな学習モデルを特徴量抽出部で表示するためのオリジナル学習モデル表示領域73と、前記冗長な特徴量抽出部を削除した後の学習モデルを特徴量抽出部で表示するための削除後学習モデル表示領域74とを備える。 The input of the first priority item is performed using, for example, the input / output screen shown in FIG. The input / output screen 7 shown in FIG. 12 inputs the deletion setting number input area 71 for inputting the deletion setting number, which is an example of the specific condition, and the first priority item, which is another example of the specific condition. The priority item input area 72 for displaying the original learning model before the redundant feature amount extraction unit is deleted, the original learning model display area 73 for displaying the original learning model in the feature amount extraction unit, and the redundant feature amount extraction unit. A post-deletion learning model display area 74 for displaying the learning model after the section is deleted by the feature amount extraction section is provided.

前記削除設定個数領域71は、図12に示す例では、前記削除設定個数を、特徴量抽出部の総数に対する割合で入力できるように構成されている。より具体的には、前記削除設定個数領域71は、0%から100%までの割合を表すスケールバー711と、スケールバー711上の位置を変更することによって前記割合を指定する割合指定カーソル712と、割合カーソルで指定されている割合を数値で表示する指定割合数値表示領域713とを備える。図12に示す例では、割合指定カーソル712によって、前記削除設定個数は、特徴量抽出部の総数に対し20%に相当する個数である。 In the example shown in FIG. 12, the deletion setting number area 71 is configured so that the deletion setting number can be input as a ratio to the total number of feature amount extraction units. More specifically, the deletion setting number area 71 includes a scale bar 711 representing a ratio from 0% to 100%, and a ratio designation cursor 712 that specifies the ratio by changing the position on the scale bar 711. , A designated ratio numerical display area 713 for displaying the ratio designated by the ratio cursor as a numerical value is provided. In the example shown in FIG. 12, the number of deletion settings is the number corresponding to 20% of the total number of feature amount extraction units by the ratio designation cursor 712.

前記優先項目入力領域72は、図12に示す例では、前記特定する特徴量抽出部からブラー情報を前記特徴量として抽出する第3特徴量抽出部を除外するか除外しないかを指定するための第1チェックボックス721と、前記特定する特徴量抽出部から色情報を前記特徴量として抽出する第1特徴量抽出部を除外するか除外しないかを指定するための第2チェックボックス722と、前記特定する特徴量抽出部からエッジ情報を前記特徴量として抽出する第2特徴量抽出部を除外するか除外しないかを指定するための第3チェックボックス723とを備える。第1チェックボックス721がチェックされると、前記特定する特徴量抽出部からブラー情報を前記特徴量として抽出する第3特徴量抽出部が除外され、したがって、ブラー情報は消さない(削除されない)。第2チェックボックス722がチェックされると、前記特定する特徴量抽出部から色情報を前記特徴量として抽出する第1特徴量抽出部が除外され、したがって、色情報は消さない(削除されない)。第3チェックボックス723がチェックされると、前記特定する特徴量抽出部からエッジ情報を前記特徴量として抽出する第2特徴量抽出部が除外され、したがって、エッジ情報は消さない(削除されない)。図12に示す例では、第3チェックボックス723のみがチェックされている。 In the example shown in FIG. 12, the priority item input area 72 is for designating whether to exclude or not exclude the third feature amount extraction unit that extracts blur information as the feature amount from the feature amount extraction unit to be specified. A first check box 721, a second check box 722 for designating whether to exclude or not to exclude the first feature amount extraction unit that extracts color information as the feature amount from the specified feature amount extraction unit, and the above. It is provided with a third check box 723 for designating whether to exclude or not exclude the second feature amount extraction unit that extracts edge information as the feature amount from the feature amount extraction unit to be specified. When the first check box 721 is checked, the third feature amount extraction unit that extracts the blur information as the feature amount is excluded from the specified feature amount extraction unit, and therefore the blur information is not erased (deleted). When the second check box 722 is checked, the first feature amount extraction unit that extracts color information as the feature amount is excluded from the specified feature amount extraction unit, and therefore the color information is not erased (deleted). When the third check box 723 is checked, the second feature amount extraction unit that extracts edge information as the feature amount is excluded from the specified feature amount extraction unit, and therefore the edge information is not erased (deleted). In the example shown in FIG. 12, only the third check box 723 is checked.

オリジナル学習モデル表示領域73には、図12に示す例では、96個の特徴量抽出部を持つオリジナルな学習モデルが表示され、削除後学習モデル表示領域74には、96個の特徴量抽出部のうちの19個の特徴量抽出部が前記冗長な特徴量抽出部として削除された削除後の学習モデルが表示されている。この前記冗長な特徴量抽出部として削除された特徴量抽出部は、図12では、黒塗りで示されている。このような入出力画面7は、オリジナル学習モデル表示領域73と削除後学習モデル表示領域74とを備えるので、ユーザは、オリジナル学習モデル表示領域73および削除後学習モデル表示領域74それぞれに表示された各特徴量抽出器を見較べながら、前記トレードオフの関係を勘案し、削除設定個数を設定できる。 In the example shown in FIG. 12, the original learning model display area 73 displays an original learning model having 96 feature quantity extraction units, and the deleted learning model display area 74 displays 96 feature quantity extraction units. A learning model after deletion is displayed in which 19 of the feature quantity extraction units are deleted as the redundant feature quantity extraction unit. The feature amount extraction unit deleted as the redundant feature amount extraction unit is shown in black in FIG. 12. Since such an input / output screen 7 includes an original learning model display area 73 and a post-deletion learning model display area 74, the user is displayed in each of the original learning model display area 73 and the post-deletion learning model display area 74. While comparing each feature amount extractor, the number of deletion settings can be set in consideration of the trade-off relationship.

なお、第1ないし第3実施形態における学習モデル作成装置Da~Dcでは、前記優先項目入力領域72を備えない入出力画面7が用いられ、前記削除設定個数が学習モデル作成装置Da~Dcに入力され、設定されて良い。また、入出力画面7において、第1ないし第3チェックボックス721~723の少なくともいずれか1つがチェックされたか否かで、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部を特定するか、演算コストの削減を優先に前記冗長な特徴量抽出部を特定するかの指示の入力が判定されてもよい。 The learning model creation devices Da to Dc in the first to third embodiments use the input / output screen 7 not provided with the priority item input area 72, and the number of deletion settings is input to the learning model creation devices Da to Dc. And may be set. Further, on the input / output screen 7, the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model depending on whether or not at least one of the first to third check boxes 721 to 723 is checked. Alternatively, the input of an instruction as to whether to specify the redundant feature amount extraction unit with priority given to the reduction of the calculation cost may be determined.

このような第4実施形態における学習モデル作成装置Dd、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。 The learning model creation device Dd in the fourth embodiment, and the learning model creation method and the learning model creation program implemented therein are the learning model creation device Da, the learning model creation method, and the learning model in the first embodiment. It has the same effect as the created program.

そして、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、入力部1で受け付けた第1優先項目に対応する性能を維持でき、ユーザの意図に沿った、学習モデルの目的に応じた重要な特徴量抽出部を残して学習モデルの性能を維持できる。入力部1で第1特徴量抽出部(色情報抽出部)を除外するように受け付けた場合には、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、第1特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムでは、第1特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第2特徴量抽出部(エッジ情報抽出部)を除外するように受け付けた場合には、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、第2特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムでは、第2特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第3特徴量抽出部(ブラー情報抽出部)を除外するように受け付けた場合には、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、第3特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムでは、第3特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。 The learning model creation device Dd, the learning model creation method, and the learning model creation program can maintain the performance corresponding to the first priority item received by the input unit 1, and can be used for the purpose of the learning model according to the user's intention. The performance of the learning model can be maintained by leaving the corresponding important feature amount extraction unit. When the input unit 1 is accepted to exclude the first feature amount extraction unit (color information extraction unit), the learning model creation device Dd, the learning model creation method, and the learning model creation program are used to extract the first feature amount. Since the redundant feature amount extraction unit is specified by excluding the unit, the first feature amount extraction unit can be left in the learning model after the redundant feature amount extraction unit is deleted. In this case, since the first feature amount extraction unit is left in the learning model creation device Dd, the learning model creation method, and the learning model creation program, the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model. Will be done. When the input unit 1 is accepted to exclude the second feature amount extraction unit (edge information extraction unit), the learning model creation device Dd, the learning model creation method, and the learning model creation program are used to extract the second feature amount. Since the redundant feature amount extraction unit is specified by excluding the unit, the second feature amount extraction unit can be left in the learning model after the redundant feature amount extraction unit is deleted. In this case, since the second feature amount extraction unit is left in the learning model creation device Dd, the learning model creation method, and the learning model creation program, the redundant feature amount extraction unit is specified with priority given to maintaining the performance of the learning model. Will be done. When the input unit 1 is accepted to exclude the third feature amount extraction unit (blurring information extraction unit), the learning model creation device Dd, the learning model creation method, and the learning model creation program are used to extract the third feature amount. Since the redundant feature amount extraction unit is specified by excluding the unit, the third feature amount extraction unit can be left in the learning model after the redundant feature amount extraction unit is deleted. In this case, since the third feature quantity extraction unit is left in the learning model creation device Dd, the learning model creation method, and the learning model creation program, the redundant feature quantity extraction unit is specified with priority given to maintaining the performance of the learning model. Will be done.

図13は、第4実施形態における学習モデル作成装置の効果を説明するための図である。一具体例では、入力画像の色の差は、着目せずに、エッジ情報が重要である文字認識用の学習モデルを作成する場合、図12に示すように、第3チェックボックス723がチェックされる。これによって、図13に示すように、オリジナルな学習モデルが、黄色に反応する特徴量抽出部A、右上がりのエッジに反応する特徴量抽出部B、左上がりのエッジに反応する特徴量抽出部C、縦方向のエッジに反応する特徴量抽出部D、横方向のエッジに反応する特徴量抽出部E、水色に反応する特徴量抽出部F、赤色に反応する特徴量抽出部Gおよび曲線に反応する特徴量抽出部Mを含む場合、エッジ情報に反応する特徴量抽出部が前記特定する前記冗長な特徴量抽出部から外され、黄色に反応する特徴量抽出部A、水色に反応する特徴量抽出部Fおよび赤色に反応する特徴量抽出部Gが削除され、右上がりのエッジに反応する特徴量抽出部B、左上がりのエッジに反応する特徴量抽出部C、縦方向のエッジに反応する特徴量抽出部D、横方向のエッジに反応する特徴量抽出部Eおよび曲線に反応する特徴量抽出部Mを含む削除後の学習モデルが作成される。これによって、エッジに反応する特徴量抽出部が残ることで、目的に応じた学習モデルが作成される。 FIG. 13 is a diagram for explaining the effect of the learning model creating device in the fourth embodiment. In one specific example, when creating a learning model for character recognition in which edge information is important without paying attention to the color difference of the input image, the third check box 723 is checked as shown in FIG. To. As a result, as shown in FIG. 13, the original learning model has a feature amount extraction unit A that reacts to yellow, a feature amount extraction unit B that reacts to the rising edge to the right, and a feature amount extraction unit that reacts to the edge rising to the left. C, feature amount extraction unit D that reacts to vertical edges, feature amount extraction unit E that reacts to horizontal edges, feature amount extraction unit F that reacts to light blue, feature amount extraction unit G that reacts to red, and curves. When the feature amount extraction unit M that reacts is included, the feature amount extraction unit that reacts to the edge information is removed from the redundant feature amount extraction unit specified, and the feature amount extraction unit A that reacts to yellow and the feature that reacts to light blue. The amount extraction unit F and the feature amount extraction unit G that reacts to red are deleted, and the feature amount extraction unit B that reacts to the rising edge, the feature amount extraction unit C that reacts to the left rising edge, and the feature amount extraction unit C that reacts to the left rising edge react to the vertical edge. A deleted learning model including the feature amount extraction unit D to be performed, the feature amount extraction unit E to react to the lateral edge, and the feature amount extraction unit M to react to the curve is created. As a result, a learning model according to the purpose is created by leaving the feature amount extraction unit that reacts to the edge.

次に、別の実施形態について説明する。 Next, another embodiment will be described.

(第5実施形態)
第1ないし第3実施形態における学習モデル作成装置Da~Dcは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定するが、第5実施形態における学習モデル作成装置Deは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定するものである。
(Fifth Embodiment)
The learning model creating devices Da to Dc in the first to third embodiments specify the redundant feature quantity extraction unit with priority given to reduction of calculation cost, but the learning model creating device De in the fifth embodiment is learning. The redundant feature amount extraction unit is specified with priority given to maintaining the performance of the model.

このような第5実施形態における学習モデル作成装置Deは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4eと、記憶部5とを備える。これら第5実施形態における学習モデル作成装置Deにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、学習モデルの性能の維持を優先する優先項目を入力部1がさらに受け付ける点を除き、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。 As shown in FIG. 1, for example, the learning model creating device De in the fifth embodiment includes an input unit 1, an output unit 2, an IF unit 3, a control processing unit 4e, and a storage unit 5. Be prepared. In the input unit 1, the output unit 2, the IF unit 3, and the storage unit 5 in the learning model creation device De in the fifth embodiment, the input unit 1 further accepts priority items for prioritizing the maintenance of the performance of the learning model. Is the same as the input unit 1, the output unit 2, the IF unit 3 and the storage unit 5 in the learning model creating device Da in the first embodiment, and the description thereof will be omitted.

入力部1は、本実施形態では、上述のように、学習モデルの性能の維持を優先する第2優先項目の入力をさらに受け付ける。前記第2優先項目は、本実施形態では、色情報を前記特徴量として抽出する第1特徴量抽出部(色情報抽出部)、エッジ情報を前記特徴量として抽出する第2特徴量抽出部(エッジ情報抽出部)、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部(ブラー情報抽出部)の中から選択され、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部である。この選択される特徴量抽出部は、1個であって良く、あるいは、複数であって良く、あるいは、全てであって良い。前記第2優先項目は、前記特定条件の他の一例である。したがって、入力部1は、前記第1ないし第3特徴量抽出部の中から、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部の入力を受け付ける。 In the present embodiment, the input unit 1 further accepts the input of the second priority item that prioritizes the maintenance of the performance of the learning model, as described above. In the present embodiment, the second priority item is a first feature amount extraction unit (color information extraction unit) that extracts color information as the feature amount, and a second feature amount extraction unit that extracts edge information as the feature amount (the second feature amount extraction unit). A feature amount selected from the edge information extraction unit) and the third feature amount extraction unit (blur information extraction unit) that extracts blur information as the feature amount, and preferentially specified as the redundant feature amount extraction unit. It is an extraction part. The selected feature amount extraction unit may be one, may be plural, or may be all. The second priority item is another example of the specific condition. Therefore, the input unit 1 receives the input of the feature amount extraction unit that is preferentially specified as the redundant feature amount extraction unit from the first to third feature amount extraction units.

制御処理部4eは、学習モデル作成装置Deの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4eは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43eおよびモデル改良部44を機能的に備える。これら第5実施形態の制御処理部4eにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。 The control processing unit 4e is a circuit for creating a learning model for machine learning by controlling each unit 1 to 3 and 5 of the learning model creation device De according to the function of each unit. For example, the CPU and its surroundings. It is configured with a circuit. The control processing unit 4e functionally includes a control unit 41, a learning application unit 42, a specific unit 43e, and a model improvement unit 44 by executing the control processing program. The control unit 41, the learning application unit 42, and the model improvement unit 44 in the control processing unit 4e of the fifth embodiment are the control unit 41, the learning application unit 42, and the model improvement unit in the control processing unit 4a of the first embodiment, respectively. Since it is the same as 44, the description thereof will be omitted.

特定部43eは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43eは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43eは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する。すなわち、特定部43eは、前記学習モデルにおける特徴量抽出部が、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部である場合には、前記冗長な特徴量抽出部として優先的に特定する。より詳しくは、例えば、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この寄与度順に並ぶ複数の特徴量抽出部から外されて前記冗長な特徴量抽出部として優先的に特定され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して寄与度の低い特徴量抽出部から順に、削除設定個数から前記冗長な特徴量抽出部として優先的に特定された特徴量抽出部の個数だけ差し引いた個数で、前記冗長な特徴量抽出部を特定する。また例えば、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この独立度順に並ぶ複数の特徴量抽出部から外されて前記冗長な特徴量抽出部として優先的に特定され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して独立度の低い特徴量抽出部から順に、削除設定個数から前記冗長な特徴量抽出部として優先的に特定された特徴量抽出部の個数だけ差し引いた個数で、前記冗長な特徴量抽出部を特定する。また例えば、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、前記グループ分け前に、複数の特徴量抽出部から外されて前記冗長な特徴量抽出部として優先的に特定され、特定部43dは、この残余の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する。削除設定個数が設定された場合、削除設定個数から、前記冗長な特徴量抽出部として優先的に特定された特徴量抽出部の個数が減算され、新たな削除設定個数が求められ、グループ分け後のグループの総数が、特徴量抽出部の総数からこの新たな削除設定個数を減算した個数となるように、前記距離判定閾値が調整される。 The specific unit 43e identifies a redundant feature amount extraction unit from a plurality of feature amount extraction units in the learning model during learning or when analyzing an input sample using the learning model after learning. It is something to do. In the present embodiment, the specific unit 43e specifies the redundant feature amount extraction unit with priority given to maintaining the performance of the learning model. More specifically, the specific unit 43e preferentially identifies the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 as the redundant feature amount extraction unit, whereby the redundant feature is described. Identify the quantity extractor. That is, when the feature amount extraction unit in the learning model is the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1, the specific unit 43e has priority as the redundant feature amount extraction unit. Specific to. More specifically, for example, when the redundant feature amount extraction unit is specified in order from the feature amount extraction unit having the lowest contribution, the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 contributes to this. It is removed from the plurality of feature amount extraction units arranged in order of degree and preferentially specified as the redundant feature amount extraction unit, and the specific unit 43d sets the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1. The redundant feature amount extraction unit is the number obtained by subtracting the number of feature amount extraction units preferentially specified as the redundant feature amount extraction unit from the number of deletion settings in order from the feature amount extraction unit with the lowest contribution. To identify. Further, for example, when the redundant feature amount extraction unit is specified in order from the feature amount extraction unit having the lower degree of independence, the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 is in the order of the independence degree. It is removed from the plurality of feature amount extraction units arranged side by side and preferentially specified as the redundant feature amount extraction unit, and the specific unit 43d removes the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1. The redundant feature amount extraction unit is specified by the number obtained by subtracting the number of feature amount extraction units preferentially specified as the redundant feature amount extraction unit from the number of deletion settings in order from the feature amount extraction unit having the lowest degree of independence. do. Further, for example, a plurality of feature amount extraction units in the learning model are divided into a plurality of groups consisting of feature amount extraction units similar to each other, and residual feature amount extraction excluding the representative feature amount extraction unit is extracted from each of the plurality of groups. When the unit is specified as the redundant feature amount extraction unit, the feature amount extraction unit corresponding to the feature amount extraction unit received by the input unit 1 is removed from the plurality of feature amount extraction units before the grouping, and the redundancy unit is removed. The specific unit 43d is preferentially specified as a feature amount extraction unit, and the specific unit 43d divides the residual feature amount extraction unit into a plurality of groups consisting of feature amount extraction units similar to each other, and the representative from each of the plurality of groups. The remaining feature amount extraction unit excluding the feature amount extraction unit is specified as the redundant feature amount extraction unit. When the number of deletion settings is set, the number of feature quantity extraction units preferentially specified as the redundant feature quantity extraction unit is subtracted from the number of deletion settings, a new deletion setting quantity is obtained, and after grouping. The distance determination threshold is adjusted so that the total number of the groups is the total number of the feature amount extraction unit minus the new deletion setting number.

このような第5実施形態における学習モデル作成装置Deは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43eによる削除対象の特定処理S21eを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。 The learning model creating device De in such a fifth embodiment is shown in FIG. Each of the above-mentioned processes is carried out using 4. As a result, a learning model in which the redundant feature amount extraction unit is deleted is created.

一方、分析処理では、第5実施形態における学習モデル作成装置Deは、特定部43aによる削除対象の特定処理S21aに代え、特定部43eによる削除対象の特定処理S21eを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。 On the other hand, in the analysis process, the learning model creation device De in the fifth embodiment performs the deletion target specific process S21e by the specific unit 43e instead of the deletion target specific process S21a by the specific unit 43a. Each of the above-mentioned treatments is carried out using. As a result, the analysis of the target sample is performed with a new learning model in which the redundant feature amount extraction unit is removed from the initial learning model.

この削除対象の特定処理S21eでは、学習モデル作成装置Ddは、特定部43dによって、前記第2優先項目を入力部1で受け付け、入力部1で受け付けた前記第2優先項目の特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する。 In the deletion target specific processing S21e, the learning model creation device Dd receives the second priority item in the input unit 1 by the specific unit 43d, and receives the second priority item in the input unit 1 to the feature amount extraction unit of the second priority item. The redundant feature amount extraction unit is specified by preferentially specifying the corresponding feature amount extraction unit as the redundant feature amount extraction unit.

このような第5実施形態における学習モデル作成装置De、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。 The learning model creation device De in the fifth embodiment, and the learning model creation method and the learning model creation program implemented therein are the learning model creation device Da, the learning model creation method, and the learning model in the first embodiment. It has the same effect as the created program.

そして、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、学習モデルの使用用途に応じてノイズとなる特徴量抽出部を第2優先項目に指定することで、学習モデルの使用用途に応じた性能を維持でき、ユーザの意図に沿った、学習モデルの目的に応じた重要な特徴量抽出部を残して学習モデルの性能を維持できる。入力部1で第1特徴量抽出部(色情報抽出部)を優先的に特定するように受け付けた場合には、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、第1特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第1特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第1特徴量抽出部を削除(除外)できる。この場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムでは、第1特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第2特徴量抽出部(エッジ情報抽出部)を優先的に特定するように受け付けた場合には、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、第2特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第2特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第2特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムでは、第2特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第3特徴量抽出部(ブラー情報抽出部)を優先的に特定するように受け付けた場合には、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、第3特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第3特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第3特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムでは、第3特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。 Then, the learning model creation device De, the learning model creation method, and the learning model creation program use the learning model by designating the feature amount extraction unit that becomes noise according to the usage of the learning model as the second priority item. The performance according to the application can be maintained, and the performance of the learning model can be maintained by leaving an important feature amount extraction unit according to the purpose of the learning model according to the user's intention. When the input unit 1 is accepted to preferentially specify the first feature amount extraction unit (color information extraction unit), the learning model creation device De, the learning model creation method, and the learning model creation program are the first. Since the redundant feature amount extraction unit is specified by giving priority to the feature amount extraction unit, the learning model after deleting the redundant feature amount extraction unit can not include the first feature amount extraction unit. In particular, when the first feature quantity extraction unit becomes noise from the viewpoint of the usage of the learning model, the learning model creation device De, the learning model creation method, and the learning model creation program delete the redundant feature quantity extraction unit. The first feature amount extraction unit, which becomes noise, can be deleted (excluded) from the later learning model. In this case, in the learning model creation device De, the learning model creation method, and the learning model creation program, the first feature quantity extraction unit is preferentially deleted, so that the redundant features are prioritized to maintain the performance of the learning model. The quantity extractor is specified. When the input unit 1 is accepted to preferentially specify the second feature amount extraction unit (edge information extraction unit), the learning model creation device De, the learning model creation method, and the learning model creation program are second. Since the redundant feature amount extraction unit is specified by giving priority to the feature amount extraction unit, the learning model after deleting the redundant feature amount extraction unit can not include the second feature amount extraction unit. In particular, when the second feature quantity extraction unit becomes noise from the viewpoint of the usage of the learning model, the learning model creation device De, the learning model creation method, and the learning model creation program delete the redundant feature quantity extraction unit. The second feature amount extraction unit, which becomes noise, can be deleted from the later learning model. In this case, in the learning model creation device De, the learning model creation method, and the learning model creation program, the second feature quantity extraction unit is preferentially deleted, so that the redundant features are prioritized to maintain the performance of the learning model. The quantity extractor is specified. When the input unit 1 is accepted to preferentially specify the third feature amount extraction unit (blurring information extraction unit), the learning model creation device De, the learning model creation method, and the learning model creation program are the third. Since the redundant feature amount extraction unit is specified by giving priority to the feature amount extraction unit, the learning model after deleting the redundant feature amount extraction unit can not include the third feature amount extraction unit. In particular, when the third feature quantity extraction unit becomes noise from the viewpoint of the usage of the learning model, the learning model creation device De, the learning model creation method, and the learning model creation program delete the redundant feature quantity extraction unit. From the later learning model, the third feature amount extraction unit that becomes noise can be deleted. In this case, in the learning model creation device De, the learning model creation method, and the learning model creation program, the third feature quantity extraction unit is preferentially deleted, so that the redundant features are prioritized to maintain the performance of the learning model. The quantity extractor is specified.

なお、上述の実施形態において、削除設定個数は、次のように設定されても良い。オリジナルな学習モデルにおける削除対象の特徴量抽出部の総量がb[Byte]であり、1[Byte]の特徴量抽出部を処理するために要する演算ステップ数がS[Step/Byte]であり、その1[step]を処理するために要する処理時間がt[s/step]であり、そして、実適用上の要求処理時間がRt[s]である場合に、学習モデルに要求される精度を勘案して、削除設定個数は、削除率αで、α×b×S×t≦Rtとなるように、設定される。 In the above-described embodiment, the number of deletion settings may be set as follows. The total amount of the feature amount extraction unit to be deleted in the original learning model is b [Byte], and the number of calculation steps required to process the feature amount extraction unit of 1 [Byte] is S [Step / Byte]. When the processing time required to process the 1 [step] is t [s / step] and the required processing time in actual application is Rt [s], the accuracy required for the learning model can be obtained. In consideration, the number of deletion settings is set so that the deletion rate α is α × b × S × t ≦ Rt.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been appropriately and sufficiently described through the embodiments with reference to the drawings described above, but those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that it is possible. Therefore, unless the modified or improved form implemented by a person skilled in the art is at a level that deviates from the scope of rights of the claims stated in the claims, the modified form or the improved form is the scope of rights of the claims. It is interpreted to be included in.

Da、Db、Dc、Dd、De 学習モデル作成装置
1 入力部
2 出力部
3 インターフェース部(IF部)
4a、4b、4c、4d、4e 制御処理部
5 記憶部
41 制御部
42 学習適用部
43a、43b、43c、43d、43e 特定部
44 モデル改良部
51 教師セット記憶部
52 対象サンプル記憶部
511 教師データ記憶部
512 正解ラベル記憶部
Da, Db, Dc, Dd, De Learning model creation device 1 Input unit 2 Output unit 3 Interface unit (IF unit)
4a, 4b, 4c, 4d, 4e Control processing unit 5 Storage unit 41 Control unit 42 Learning application unit 43a, 43b, 43c, 43d, 43e Specific unit 44 Model improvement unit 51 Teacher set storage unit 52 Target sample storage unit 511 Teacher data Storage unit 512 Correct label storage unit

Claims (3)

機械学習の学習モデルを生成する学習モデル作成装置であって、
前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、
学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、
前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、
前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、
前記特定部は、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定し、
前記特定部は、特徴量抽出部間における独立性の度合いを表す独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する、
学習モデル作成装置。
A learning model creation device that generates learning models for machine learning.
The learning model includes a plurality of feature quantity extraction units that acquire a function of extracting a predetermined feature quantity by learning.
A specific unit that identifies a redundant feature quantity extraction unit from the plurality of feature quantity extraction units during training or when analyzing an input sample using a learning model after training.
A model improvement unit that creates a new learning model by deleting the feature amount extraction unit specified by the specific unit from the learning model, and a model improvement unit.
A new learning model created by the model improvement unit, provided with a learning application unit for continuing the learning or analyzing the input sample.
The specific unit identifies the redundant feature amount extraction unit with priority given to reduction of calculation cost.
The specific unit identifies the redundant feature amount extraction unit in order from the feature amount extraction unit having a low degree of independence indicating the degree of independence between the feature amount extraction units.
Learning model creation device.
機械学習の学習モデルを生成する学習モデル作成装置であって、
前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、
学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、
前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、
前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、
前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、
色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記特定する前記冗長な特徴量抽出部から除外する特徴量抽出部の入力を受け付ける第1入力部をさらに備え、
前記特定部は、前記第1入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する、
学習モデル作成装置。
A learning model creation device that generates learning models for machine learning.
The learning model includes a plurality of feature quantity extraction units that acquire a function of extracting a predetermined feature quantity by learning.
A specific unit that identifies a redundant feature quantity extraction unit from the plurality of feature quantity extraction units during training or when analyzing an input sample using a learning model after training.
A model improvement unit that creates a new learning model by deleting the feature amount extraction unit specified by the specific unit from the learning model, and a model improvement unit.
A new learning model created by the model improvement unit, provided with a learning application unit for continuing the learning or analyzing the input sample.
The specific unit identifies the redundant feature amount extraction unit with priority given to maintaining the performance of the learning model.
A first feature amount extraction unit that extracts color information as the feature amount, a second feature amount extraction unit that extracts edge information as the feature amount, and a third feature amount extraction unit that extracts blur information as the feature amount. Further, a first input unit for receiving an input of a feature amount extraction unit excluded from the specified redundant feature amount extraction unit is further provided.
The specific unit excludes the feature amount extraction unit corresponding to the feature amount extraction unit received by the first input unit from the redundant feature amount extraction unit to be specified, thereby removing the redundant feature amount extraction unit. Identify,
Learning model creation device.
機械学習の学習モデルを生成する学習モデル作成装置であって、
前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、
学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、
前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、
前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、
前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、
色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部の入力を受け付ける第2入力部をさらに備え、
前記特定部は、前記第2入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する、
学習モデル作成装置。
A learning model creation device that generates learning models for machine learning.
The learning model includes a plurality of feature quantity extraction units that acquire a function of extracting a predetermined feature quantity by learning.
A specific unit that identifies a redundant feature quantity extraction unit from the plurality of feature quantity extraction units during training or when analyzing an input sample using a learning model after training.
A model improvement unit that creates a new learning model by deleting the feature amount extraction unit specified by the specific unit from the learning model, and a model improvement unit.
A new learning model created by the model improvement unit, provided with a learning application unit for continuing the learning or analyzing the input sample.
The specific unit identifies the redundant feature amount extraction unit with priority given to maintaining the performance of the learning model.
A first feature amount extraction unit that extracts color information as the feature amount, a second feature amount extraction unit that extracts edge information as the feature amount, and a third feature amount extraction unit that extracts blur information as the feature amount. Further, a second input unit that accepts the input of the feature amount extraction unit that is preferentially specified as the redundant feature amount extraction unit is further provided.
The specific unit preferentially identifies the feature amount extraction unit corresponding to the feature amount extraction unit received by the second input unit as the redundant feature amount extraction unit, thereby providing the redundant feature amount extraction unit. Identify,
Learning model creation device.
JP2017100566A 2017-05-22 2017-05-22 Learning model creation device Active JP7043742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017100566A JP7043742B2 (en) 2017-05-22 2017-05-22 Learning model creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017100566A JP7043742B2 (en) 2017-05-22 2017-05-22 Learning model creation device

Publications (2)

Publication Number Publication Date
JP2018195231A JP2018195231A (en) 2018-12-06
JP7043742B2 true JP7043742B2 (en) 2022-03-30

Family

ID=64571663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017100566A Active JP7043742B2 (en) 2017-05-22 2017-05-22 Learning model creation device

Country Status (1)

Country Link
JP (1) JP7043742B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112483A (en) * 2019-01-15 2020-07-27 春江 姚 Exterior appearance inspection system, calculation model construction method and calculation model construction program
JP6787444B1 (en) * 2019-05-23 2020-11-18 沖電気工業株式会社 Neural network weight reduction device, neural network weight reduction method and program
JP7171520B2 (en) * 2019-07-09 2022-11-15 株式会社日立製作所 machine learning system
JP7353851B2 (en) * 2019-08-02 2023-10-02 キヤノン株式会社 Systems, methods and programs
JP2023518090A (en) * 2020-03-24 2023-04-27 日本電気株式会社 System, method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109495A (en) 2014-12-03 2016-06-20 タカノ株式会社 Classifier generation device, appearance inspection device, classifier generation method, and program
JP2016133895A (en) 2015-01-16 2016-07-25 キヤノン株式会社 Information processing device, information processing method, and program
JP2016146174A (en) 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 Determination method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109495A (en) 2014-12-03 2016-06-20 タカノ株式会社 Classifier generation device, appearance inspection device, classifier generation method, and program
JP2016133895A (en) 2015-01-16 2016-07-25 キヤノン株式会社 Information processing device, information processing method, and program
JP2016146174A (en) 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 Determination method and program

Also Published As

Publication number Publication date
JP2018195231A (en) 2018-12-06

Similar Documents

Publication Publication Date Title
JP7043742B2 (en) Learning model creation device
CN107408209B (en) System and method for defect classification in semiconductor processing
EP3686848A1 (en) Semantic image synthesis for generating substantially photorealistic images using neural networks
EP3065085B1 (en) Digital image processing using convolutional neural networks
RU2711029C2 (en) Touch classification
US9886669B2 (en) Interactive visualization of machine-learning performance
CN111079639A (en) Method, device and equipment for constructing garbage image classification model and storage medium
CN108009554A (en) A kind of image processing method and device
US11562166B2 (en) Generating shift-invariant neural network feature maps and outputs
CN113272827A (en) Validation of classification decisions in convolutional neural networks
WO2020164278A1 (en) Image processing method and device, electronic equipment and readable storage medium
CN110582783B (en) Training device, image recognition device, training method, and computer-readable information storage medium
US20200380302A1 (en) Data augmentation system, data augmentation method, and information storage medium
US11809519B2 (en) Semantic input sampling for explanation (SISE) of convolutional neural networks
US20210374455A1 (en) Utilizing machine learning and image filtering techniques to detect and analyze handwritten text
CN113919497A (en) Attack and defense method based on feature manipulation for continuous learning ability system
US11615321B2 (en) Techniques for modifying the operation of neural networks
US11810341B2 (en) Method of identifying filters in a neural network, system and storage medium of the same
KS et al. SolveIt: an application for automated recognition and processing of handwritten mathematical equations
Peng et al. Camera captured DIQA with linearity and monotonicity constraints
Naufal et al. Insects identification with convolutional neural network technique in the sweet corn field
Kaya et al. Binary classification of criminal tools from the images of the case using CNN
Pakhira et al. Finding number of clusters using VAT image, PBM index and genetic algorithms
CN109447937B (en) Image processing model determining method and related device thereof
Islam et al. A deep convolutional neural network for Bangla handwritten numeral recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220121

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220228

R150 Certificate of patent or registration of utility model

Ref document number: 7043742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150