JPWO2020065908A1 - Pattern recognition device and pattern recognition method - Google Patents

Pattern recognition device and pattern recognition method Download PDF

Info

Publication number
JPWO2020065908A1
JPWO2020065908A1 JP2020547786A JP2020547786A JPWO2020065908A1 JP WO2020065908 A1 JPWO2020065908 A1 JP WO2020065908A1 JP 2020547786 A JP2020547786 A JP 2020547786A JP 2020547786 A JP2020547786 A JP 2020547786A JP WO2020065908 A1 JPWO2020065908 A1 JP WO2020065908A1
Authority
JP
Japan
Prior art keywords
learning
data
neural network
network type
type classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020547786A
Other languages
Japanese (ja)
Other versions
JP7024881B2 (en
Inventor
高橋 勝彦
勝彦 高橋
博義 宮野
博義 宮野
哲夫 井下
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020065908A1 publication Critical patent/JPWO2020065908A1/en
Application granted granted Critical
Publication of JP7024881B2 publication Critical patent/JP7024881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

パターン認識装置20は、学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、画像データと異なる学習用の画像データが入力されたニューラルネットワーク型識別器の複数の層のうちの1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後のニューラルネットワーク型識別器の識別性能を予測する予測部21と、予測された識別性能に基づいてニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定部22とを備える。 The pattern recognition device 20 is the first learning including the feature amount data output by one of the plurality of layers of the neural network type classifier in which the plurality of layers into which the image data for training is input are connected in a layered manner. The data and the second training data including the feature amount data output by one layer different from one layer of the plurality of layers of the neural network type classifier in which the image data for learning different from the image data is input are A prediction unit 21 that predicts the discrimination performance of the neural network type classifier after being used and learned, and a determination unit 22 that determines the range of layers to be learned of the neural network type classifier based on the predicted discrimination performance. And.

Description

本発明は、パターン認識装置、パターン認識方法およびパターン認識プログラムに関し、特に統計的パターン認識技術を応用したパターン認識装置、パターン認識方法およびパターン認識プログラムに関する。 The present invention relates to a pattern recognition device, a pattern recognition method and a pattern recognition program, and more particularly to a pattern recognition device, a pattern recognition method and a pattern recognition program to which a statistical pattern recognition technique is applied.

ディープラーニングを用いた画像認識技術が、様々な映像監視システムに搭載されている。ディープラーニングでは、例えばニューラルネットワークという計算アルゴリズムが扱われる。 Image recognition technology using deep learning is installed in various video surveillance systems. Deep learning deals with calculation algorithms such as neural networks.

特許文献1〜特許文献4には、ニューラルネットワークに関する技術が記載されている。例えば、特許文献1には、多層ニューラルネットワークを用いた情報処理装置が記載されている。また、特許文献2には、適切な規模のニューラルネットワークを作成できる機械学習装置が記載されている。 Patent Documents 1 to 4 describe techniques related to neural networks. For example, Patent Document 1 describes an information processing apparatus using a multi-layer neural network. Further, Patent Document 2 describes a machine learning device capable of creating a neural network of an appropriate scale.

また、特許文献3には、ニューラルネットワークの構造を最適化することが可能なニューラルネットワーク学習装置が記載されている。また、特許文献4には、文字の全体形状のみならず文字の小領域単位の形状の学習も行い、認識を行うようにしたニューロを使った文字認識装置が記載されている。 Further, Patent Document 3 describes a neural network learning device capable of optimizing the structure of a neural network. Further, Patent Document 4 describes a character recognition device using a neuro that learns not only the overall shape of a character but also the shape of each small area of the character and recognizes the character.

ディープラーニングの実行手順として、特にファインチューニング(fine-tuning) と呼ばれる手順が使用されることが多い。ファインチューニングでは、予め大量の画像データが用いられて学習されたプレトレインド(pre-trained) の辞書が初期値とされ、映像監視システムが本来認識する対象物を示す画像データが追加で学習される。 As a procedure for executing deep learning, a procedure called fine-tuning is often used. In fine tuning, a pre-trained dictionary learned by using a large amount of image data in advance is used as an initial value, and image data indicating an object originally recognized by the video surveillance system is additionally learned. ..

辞書は、例えばニューラルネットワーク等のネットワークモデル、およびネットワークモデルの重みパラメータを含む。対象物を示す画像データが追加で学習されることによって、ネットワークモデルの重みパラメータが修正される。 The dictionary contains network models, such as neural networks, and weight parameters for network models. The weight parameter of the network model is modified by additionally learning the image data indicating the object.

例えば、非特許文献1に、ファインチューニングに関連する技術が記載されている。非特許文献1には、教師なし学習で特徴抽出ネットワークを構築した後、認識対象ラベルが用いられたファインチューニングでネットワーク全体の重みパラメータを調整し直す学習方法が記載されている。 For example, Non-Patent Document 1 describes a technique related to fine tuning. Non-Patent Document 1 describes a learning method in which a feature extraction network is constructed by unsupervised learning and then the weight parameters of the entire network are readjusted by fine tuning using a recognition target label.

また、非特許文献2には、新しい学習データが得られた場合のネットワークの重みパラメータを修正する方法や、新しいクラスのデータが追加された場合の出力層へのニューロンの追加を伴うネットワークの重みパラメータを修正する方法が記載されている。 Further, Non-Patent Document 2 describes a method of modifying the network weight parameter when new training data is obtained, and a network weight accompanied by addition of neurons to the output layer when new class data is added. Describes how to modify the parameters.

学習データや認識対象のクラスが追加された場合、ネットワーク全体の重みパラメータを修正する方法と、ネットワークの出力層に近い2層〜3層の中間層の重みパラメータのみを修正する方法がある。 When the training data or the class to be recognized is added, there is a method of modifying the weight parameter of the entire network and a method of modifying only the weight parameter of the middle layer of the 2nd to 3rd layers close to the output layer of the network.

ネットワーク全体の重みパラメータを修正する方法は、ネットワークの出力層に近い中間層の重みパラメータのみを修正する方法に比べて、高い識別率を有するネットワークを構築できる可能性が理論的に高いという特長を有する。 The method of modifying the weight parameter of the entire network has the advantage that it is theoretically more likely to construct a network with a high discrimination rate than the method of modifying only the weight parameter of the middle layer close to the output layer of the network. Have.

また、ネットワークの出力層に近い中間層の重みパラメータのみを修正する方法は、ネットワーク全体の重みパラメータを修正する方法に比べて、重みパラメータの修正に係る計算量が少ないという特長を有する。 Further, the method of modifying only the weight parameter of the intermediate layer close to the output layer of the network has a feature that the amount of calculation related to the modification of the weight parameter is smaller than the method of modifying the weight parameter of the entire network.

ネットワーク全体の重みパラメータを修正した方が高い識別率を有するネットワークを構築できる可能性が高まる理由は、新たに追加された学習データや認識対象のクラスからの特徴の適切な抽出が、ネットワークの前段部分で実行される可能性が高まるためである。 The reason why it is more likely that a network with a high discrimination rate can be constructed by modifying the weight parameter of the entire network is that the appropriate extraction of features from newly added learning data and the class to be recognized is the first stage of the network. This is because it is more likely to be executed in the part.

よって、計算リソースも学習データも十分に利用可能である場合、学習データや認識対象のクラスが追加されたらネットワーク全体の重みパラメータを修正する方が好ましい。また、少なくとも計算リソースと学習データのどちらかが十分に利用可能でない場合、学習データや認識対象のクラスが追加されたらネットワークの出力層に近い層の重みパラメータのみを修正する方が好ましい。 Therefore, when both the computational resources and the training data are sufficiently available, it is preferable to modify the weight parameters of the entire network when the training data and the class to be recognized are added. Also, if at least one of the computational resources and the training data is not sufficiently available, it is preferable to modify only the weight parameter of the layer close to the output layer of the network when the training data or the class to be recognized is added.

また、学習データは画像データであることが多い。しかし、SVM(Support Vector Machine:サポートベクトルマシン)やLVQ (Learning Vector Quantization:学習ベクトル量子化)識別器の学習において、特徴抽出手段は、識別手段と完全に独立している。よって、特徴抽出手段が出力する単一の特徴量データが、識別手段の学習データとして用いられることも多い。 In addition, the learning data is often image data. However, in the learning of SVM (Support Vector Machine) and LVQ (Learning Vector Quantization) classifiers, the feature extraction means are completely independent of the discriminating means. Therefore, a single feature amount data output by the feature extraction means is often used as learning data of the identification means.

特徴量データは、画像データに比べて使用されてもプライバシ問題が発生しにくいという優位性を有する。すなわち、画像データは記録不可であるが、個人が特定されない程度に抽象化された特徴量データは記録可能であるという要件が学習装置に課せられることも考えられる。 The feature amount data has an advantage that the privacy problem is less likely to occur even if it is used as compared with the image data. That is, it is conceivable that the learning device is required to be able to record the feature amount data abstracted to the extent that the individual is not specified, although the image data cannot be recorded.

上記の要件が学習装置に課せられた場合、学習装置に特徴量データのみが存在し、特徴量データに対応する画像データは記録されていないため存在しないという状況が生じることが考えられる。上記の状況では、ニューラルネットワーク型識別器の異なる層で異なる画像データからそれぞれ抽出された各特徴量データが混合された学習データが用いられる場合がある。 When the above requirement is imposed on the learning device, it is conceivable that there may be a situation in which only the feature amount data exists in the learning device and the image data corresponding to the feature amount data does not exist because it is not recorded. In the above situation, learning data in which each feature amount data extracted from different image data in different layers of the neural network type classifier may be mixed may be used.

特開2018−026040号公報Japanese Unexamined Patent Publication No. 2018-026040 特開2017−182319号公報Japanese Unexamined Patent Publication No. 2017-182319 特開2017−037392号公報Japanese Unexamined Patent Publication No. 2017-037392 特開平07−160830号公報Japanese Unexamined Patent Publication No. 07-160830

P. Sermanet, K. Kavukcuoglu, S. Chintala, and Y. LeCun, "Pedestrian detection with unsupervised multi-stage feature learning," In Proc. International Conference on Computer Vision and Pattern Recognition (CVPR), 2013.P. Sermanet, K. Kavukcuoglu, S. Chintala, and Y. LeCun, "Pedestrian detection with unsupervised multi-stage feature learning," In Proc. International Conference on Computer Vision and Pattern Recognition (CVPR), 2013. Christoph K¨ading, Erik Rodner, Alexander Freytag, and Joachim Denzler, "Fine-tuning Deep Neural Networks in Continuous Learning Scenarios," In ACCV 2016 Workshop on Interpretation and Visualization of Deep Neural Nets, 2016.Christoph K¨ading, Erik Rodner, Alexander Freytag, and Joachim Denzler, "Fine-tuning Deep Neural Networks in Continuous Learning Scenarios," In ACCV 2016 Workshop on Interpretation and Visualization of Deep Neural Nets, 2016.

画像データと特徴量データとが混合された学習データ、またはニューラルネットワーク型識別器の異なる層で異なる画像データからそれぞれ抽出された各特徴量データが混合された学習データが用いられる学習方法には、課題が存在する。以下、学習方法に課題が存在する理由を、図面を参照して説明する。 The training method in which the training data in which the image data and the feature amount data are mixed or the training data in which the feature amount data extracted from different image data in different layers of the neural network type classifier is mixed is used is used. There are challenges. Hereinafter, the reason why there is a problem in the learning method will be described with reference to the drawings.

図11は、ニューラルネットワーク型識別器の一例を示す説明図である。図11は、ニューラルネットワーク型識別器の構造、および特徴量データが抽出される層の位置を示す。図11に示すニューラルネットワーク型識別器は、コンボリューション層と全結合層とが層状に結合されたネットワーク型識別器である。 FIG. 11 is an explanatory diagram showing an example of a neural network type classifier. FIG. 11 shows the structure of the neural network type classifier and the position of the layer from which the feature data is extracted. The neural network type discriminator shown in FIG. 11 is a network type discriminator in which a convolution layer and a fully connected layer are connected in a layered manner.

図11に示すコンボリューション層では、局所領域内でコンボリューションが行われる。また、図11に示すコンボリューション層における各数字は、画像または特徴量等の2次元で表現されるデータの、縦のサイズと横のサイズが掛け合わせられたサイズを示す。例えば、「224x224 」は、縦のサイズが224 (ピクセルまたは個)、横のサイズが224 (ピクセルまたは個)のデータのサイズである。 In the convolution layer shown in FIG. 11, convolution is performed in a local region. Further, each number in the convolution layer shown in FIG. 11 indicates a size obtained by multiplying a vertical size and a horizontal size of data represented in two dimensions such as an image or a feature amount. For example, "224x224" is the size of data with a vertical size of 224 (pixels or pieces) and a horizontal size of 224 (pixels or pieces).

また、図11に示す全結合層のニューロンは、前段の層内の全てのニューロンと結合されている。また、図11に示す全結合層における各数字は、1次元で表現される特徴量データのサイズを示す。例えば、「4096」は、層から出力される特徴量データのサイズが4096(個)であることを意味する。 In addition, the neurons in the fully connected layer shown in FIG. 11 are connected to all the neurons in the previous layer. Further, each number in the fully connected layer shown in FIG. 11 indicates the size of the feature amount data expressed in one dimension. For example, "4096" means that the size of the feature data output from the layer is 4096 (pieces).

図11に示すネットワークの学習が実行される場合、特にファインチューニングが実行される場合、使用可能な学習データの量は、多い方が好ましいと考えられる。また、ネットワークを新しいデータに可能な限り適合させるという観点から、ファインチューニングでネットワークの重みパラメータを可能な限り修正する方が好ましいと考えられる。 When the network learning shown in FIG. 11 is executed, particularly when fine tuning is executed, it is considered that a large amount of training data that can be used is preferable. Also, from the viewpoint of adapting the network to new data as much as possible, it is considered preferable to modify the weight parameter of the network as much as possible by fine tuning.

しかし、ネットワークの重みパラメータが修正されると、修正された重みパラメータを有する層よりも上位の層から抽出された特徴量データは、利用不可能になる。よって、特徴量データが含まれている学習データが利用されている場合、重みパラメータが変更された分だけ利用可能な学習データが減少するという課題が存在する。 However, when the network weight parameter is modified, the feature data extracted from the layer above the layer having the modified weight parameter becomes unavailable. Therefore, when the learning data including the feature amount data is used, there is a problem that the available learning data is reduced by the amount that the weight parameter is changed.

上記のように、ファインチューニングで重みパラメータが修正される層を増やすことと、再利用可能な特徴量データの量を増やすことは、同時に満たされない。よって、再利用可能な特徴量データの量を考慮しながら重みパラメータが修正される層を最適に決定する方法が求められる。特許文献1〜特許文献4、および非特許文献1〜非特許文献2には、上記の決定方法が記載されていない。 As described above, increasing the number of layers in which the weight parameter is modified by fine tuning and increasing the amount of reusable feature data are not satisfied at the same time. Therefore, there is a need for a method of optimally determining the layer in which the weight parameter is modified while considering the amount of reusable feature data. Patent Document 1 to Patent Document 4 and Non-Patent Document 1 to Non-Patent Document 2 do not describe the above-mentioned determination method.

そこで、本発明は、上述した課題を解決する、再利用可能な特徴量データの量を考慮しながらファインチューニングを実行できるパターン認識装置、パターン認識方法およびパターン認識プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a pattern recognition device, a pattern recognition method, and a pattern recognition program capable of performing fine tuning while considering the amount of reusable feature amount data, which solves the above-mentioned problems. ..

本発明によるパターン認識装置は、学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、画像データと異なる学習用の画像データが入力されたニューラルネットワーク型識別器の複数の層のうちの1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後のニューラルネットワーク型識別器の識別性能を予測する予測手段と、予測された識別性能に基づいてニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定手段とを備えることを特徴とする。 The pattern recognition device according to the present invention includes feature data output by one of a plurality of layers of a neural network type classifier in which a plurality of layers into which image data for learning is input are connected in a layered manner. Second training data including one training data and feature amount data output by one layer different from one of the plurality of layers of the neural network type classifier in which image data for learning different from the image data is input. A predictive means for predicting the discrimination performance of the neural network type classifier after learning using and, and a determination means for determining the range of the layer to be learned of the neural network type classifier based on the predicted discriminant performance. It is characterized by having and.

本発明によるパターン認識装置は、複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定手段と、学習用の画像データが入力されたニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いてニューラルネットワーク型識別器を学習する学習手段と、学習された後のニューラルネットワーク型識別器の識別性能を評価する評価手段と、学習されて導出されたニューラルネットワーク型識別器のパラメータを決定された範囲の候補と共に記憶する記憶手段と、評価された識別性能と学習に利用された学習データの数とに基づいて記憶手段からパラメータを選択する選択手段とを備えることを特徴とする。 The pattern recognition device according to the present invention is a neural network type discriminator in which a plurality of layers are connected in a layered manner. The learning means for learning the neural network type classifier using the training data including the feature amount data output by the candidate layer in the determined range of the classifier, and the discriminating performance of the neural network type classifier after learning. The evaluation means to be evaluated, the storage means to store the parameters of the trained and derived neural network type classifier together with the candidates of the determined range, the evaluated discrimination performance and the number of training data used for training. It is characterized by including a selection means for selecting a parameter from a storage means based on the basis.

本発明によるパターン認識方法は、学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、画像データと異なる学習用の画像データが入力されたニューラルネットワーク型識別器の複数の層のうちの1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後のニューラルネットワーク型識別器の識別性能を予測し、予測された識別性能に基づいてニューラルネットワーク型識別器の学習対象の層の範囲を決定することを特徴とする。 The pattern recognition method according to the present invention includes feature data output by one of a plurality of layers of a neural network type classifier in which a plurality of layers into which image data for learning is input are connected in a layered manner. Second training data including one training data and feature amount data output by one layer different from one of the plurality of layers of the neural network type classifier in which image data for learning different from the image data is input. It is characterized in that the discrimination performance of the neural network type classifier after learning is predicted by using and, and the range of the layer to be learned of the neural network type classifier is determined based on the predicted discrimination performance. ..

本発明によるパターン認識方法は、複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定し、学習用の画像データが入力されたニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いてニューラルネットワーク型識別器を学習し、学習された後のニューラルネットワーク型識別器の識別性能を評価し、学習されて導出されたニューラルネットワーク型識別器のパラメータを決定された範囲の候補と共に記憶手段に記憶させ、評価された識別性能と学習に利用された学習データの数とに基づいて記憶手段からパラメータを選択することを特徴とする。 In the pattern recognition method according to the present invention, a candidate for a range of layers to be learned of a neural network type classifier in which a plurality of layers are connected in layers is determined, and an image data for learning is input to the neural network type classifier. The neural network type classifier is trained using the training data including the feature amount data output by the candidate layer in the determined range, and the discriminating performance of the neural network type classifier after the training is evaluated and trained. The derived neural network type classifier parameters are stored in the storage means together with the candidates in the determined range, and the parameters are selected from the storage means based on the evaluated discrimination performance and the number of training data used for training. It is characterized by that.

本発明によるパターン認識プログラムは、コンピュータに、学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、画像データと異なる学習用の画像データが入力されたニューラルネットワーク型識別器の複数の層のうちの1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後のニューラルネットワーク型識別器の識別性能を予測する予測処理、および予測された識別性能に基づいてニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定処理を実行させることを特徴とする。 The pattern recognition program according to the present invention is feature data output by one of a plurality of layers of a neural network type classifier in which a plurality of layers in which image data for learning is input are connected in a layered manner. The first training data including 2 Prediction processing that predicts the discrimination performance of the neural network type classifier after learning using the training data, and the range of the layer to be trained of the neural network type classifier is determined based on the predicted discrimination performance. It is characterized in that the decision processing to be performed is executed.

本発明によるパターン認識プログラムは、コンピュータに、複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定処理、学習用の画像データが入力されたニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いてニューラルネットワーク型識別器を学習する学習処理、学習された後のニューラルネットワーク型識別器の識別性能を評価する評価処理、学習されて導出されたニューラルネットワーク型識別器のパラメータを決定された範囲の候補と共に記憶手段に記憶させる記憶処理、および評価された識別性能と学習に利用された学習データの数とに基づいて記憶手段からパラメータを選択する選択処理を実行させることを特徴とする。 The pattern recognition program according to the present invention is a neural network type discriminator in which a plurality of layers are connected in a layered manner. Learning process to learn the neural network type classifier using the training data including the feature amount data output by the candidate layer in the determined range of the network type classifier, and the discrimination performance of the neural network type classifier after learning. Evaluation processing that evaluates the parameters of the neural network type classifier that has been trained and derived, and storage processing that stores the parameters of the neural network type classifier in the storage means together with the candidates in the determined range, and the evaluated discrimination performance and the training data used for training. It is characterized in that a selection process of selecting a parameter from a storage means based on a number is executed.

本発明によれば、再利用可能な特徴量データの量を考慮しながらファインチューニングを実行できる。 According to the present invention, fine tuning can be performed while considering the amount of reusable feature data.

本発明によるパターン認識装置の第1の実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 1st Embodiment of the pattern recognition apparatus by this invention. 第1の実施形態のパターン認識装置100によるファインチューニング実行処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the fine tuning execution processing by the pattern recognition apparatus 100 of 1st Embodiment. 本発明によるパターン認識装置の第2の実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 2nd Embodiment of the pattern recognition apparatus by this invention. 学習データ記憶手段202に記憶されている学習データの例を示す説明図である。It is explanatory drawing which shows the example of the learning data stored in the learning data storage means 202. ファインチューニングの実行対象の層の範囲と学習データ量との関係の例を示す説明図である。It is explanatory drawing which shows the example of the relationship between the range of the layer to which fine tuning is executed, and the amount of training data. 第2の実施形態のパターン認識装置200によるファインチューニング実行処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the fine tuning execution processing by the pattern recognition apparatus 200 of 2nd Embodiment. 学習データ記憶手段202に記憶されている学習データの他の例を示す説明図である。It is explanatory drawing which shows the other example of the learning data stored in the learning data storage means 202. 本発明によるパターン認識装置のハードウェア構成例を示す説明図である。It is explanatory drawing which shows the hardware configuration example of the pattern recognition apparatus by this invention. 本発明によるパターン認識装置の概要を示すブロック図である。It is a block diagram which shows the outline of the pattern recognition apparatus by this invention. 本発明によるパターン認識装置の他の概要を示すブロック図である。It is a block diagram which shows the other outline of the pattern recognition apparatus by this invention. ニューラルネットワーク型識別器の一例を示す説明図である。It is explanatory drawing which shows an example of the neural network type classifier.

[構成の説明]
実施形態1.
以下、本発明の実施形態を、図面を参照して説明する。図1は、本発明によるパターン認識装置の第1の実施形態の構成例を示すブロック図である。
[Description of configuration]
Embodiment 1.
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a first embodiment of the pattern recognition device according to the present invention.

図1に示すように、パターン認識装置100は、ニューラルネットワーク型識別器101と、第1学習データ記憶手段102と、第2学習データ記憶手段103と、学習手段104とを備える。 As shown in FIG. 1, the pattern recognition device 100 includes a neural network type classifier 101, a first learning data storage means 102, a second learning data storage means 103, and a learning means 104.

上述したように、ファインチューニング用の学習データとして、画像データ以外にニューラルネットワーク型識別器の複数の中間層からの各出力がそれぞれ記録された複数の特徴量データが存在する場合、識別性能と特徴量データの再利用可能性との間にトレードオフの関係がある。 As described above, when there are a plurality of feature data in which each output from a plurality of intermediate layers of the neural network type classifier is recorded in addition to the image data as the training data for fine tuning, the discrimination performance and the feature There is a trade-off relationship with the reusability of quantitative data.

ニューラルネットワーク型識別器の識別性能、および特徴量データの再利用可能性は、ファインチューニングの対象の層の範囲と関連する。本実施形態のパターン認識装置100は、画像データと特徴量データ、または複数種類の特徴量データが学習データとして与えられている場合、ファインチューニング後の識別性能と学習データの再利用可能性の両方を考慮してファインチューニングの対象の層の範囲を決定する。 The discrimination performance of the neural network type classifier and the reusability of the feature data are related to the range of the layer to be fine-tuned. In the pattern recognition device 100 of the present embodiment, when image data and feature data, or a plurality of types of feature data are given as training data, both the discrimination performance after fine tuning and the reusability of the training data are available. Determine the range of layers to be fine-tuned in consideration of.

ニューラルネットワーク型識別器101は、ニューラルネットワークを用いてパターン認識処理を行う識別器である。 The neural network type classifier 101 is a classifier that performs pattern recognition processing using a neural network.

ニューラルネットワークは、例えば局所領域内でコンボリューションが行われるコンボリューション層、局所領域内で指定された性質の値が抽出されるプーリング層、およびニューロンが前段の層内の全てのニューロンと結合された全結合層等が層状に結合されたネットワークである。 A neural network is composed of, for example, a convolution layer in which convolution is performed in a local region, a pooling layer in which a value of a specified property is extracted in the local region, and neurons connected to all neurons in the previous layer. It is a network in which fully connected layers and the like are connected in layers.

本実施形態のニューラルネットワーク型識別器101は、例えば図11に示すニューラルネットワーク型識別器である。また、ニューラルネットワーク型識別器101は、ResNet、GoogleNet 、またはMobileNet 等でもよい。 The neural network type classifier 101 of the present embodiment is, for example, the neural network type classifier shown in FIG. Further, the neural network type classifier 101 may be ResNet, GoogleNet, MobileNet, or the like.

第1学習データ記憶手段102は、第1学習データを記憶する機能を有する。第1学習データには、例えば、学習用の画像データがニューラルネットワーク型識別器101に入力された際に1つの層から出力される特徴量データと、入力された学習用の画像データに対応する正解クラスと、特徴量データが出力された層の識別情報とが含まれる。 The first learning data storage means 102 has a function of storing the first learning data. The first training data corresponds to, for example, the feature amount data output from one layer when the training image data is input to the neural network type classifier 101, and the input training image data. The correct answer class and the identification information of the layer from which the feature data is output are included.

本実施形態の第1学習データは、ニューラルネットワーク型識別器101により事前に生成されている。例えば、図11に示すニューラルネットワーク型識別器の入力層に学習用の画像データが入力された際、中間層L3の有効な状態(発火)のニューロンの値がサンプリングされて特徴量データが生成される。ニューラルネットワーク型識別器101は、生成された特徴量データを基に第1学習データを生成する。The first training data of the present embodiment is generated in advance by the neural network type classifier 101. For example, when image data for learning is input to the input layer of the neural network type classifier shown in FIG. 11, the values of neurons in the effective state (firing) of the intermediate layer L 3 are sampled to generate feature data. Will be done. The neural network type classifier 101 generates the first training data based on the generated feature data.

次いで、第1学習データ記憶手段102には、生成された特徴量データと、入力された学習用の画像データに対応する正解クラスを示す情報と、中間層L3を示す情報とを含む第1学習データが保存される。予め定められた層が入力層であれば、特徴量データの保存は、入力された学習用の画像データの保存と等価になる。Then, the first learning data storage unit 102, first comprises the feature amount data generated, and information indicating the correct class corresponding to the image data for the inputted learning, and information indicating the intermediate layer L 3 1 The training data is saved. If the predetermined layer is an input layer, saving the feature amount data is equivalent to saving the input image data for learning.

第2学習データ記憶手段103は、第2学習データを記憶する機能を有する。第2学習データには、例えば、第1学習データに含まれる特徴量データの生成元である学習用の画像データと異なる画像データがニューラルネットワーク型識別器101に入力された際に出力される特徴量データが含まれる。含まれる特徴量データは、第1学習データに含まれる特徴量データが出力された1つの層と異なる1つの層から出力されるデータである。 The second learning data storage means 103 has a function of storing the second learning data. The second training data includes, for example, features that are output when image data different from the training image data that is the source of the feature data included in the first training data is input to the neural network type classifier 101. Includes quantity data. The feature amount data included is data output from one layer different from the one layer in which the feature amount data included in the first learning data is output.

また、第2学習データには、入力された画像データに対応する正解クラスと、特徴量データが出力された層の識別情報とが、特徴量データと共に含まれる。 Further, the second learning data includes the correct answer class corresponding to the input image data and the identification information of the layer from which the feature amount data is output together with the feature amount data.

第2学習データは、第1学習データと同一構造のデータである。上記のように、第2学習データは、第1学習データに含まれる特徴量データがサンプリングされた層と別の層からサンプリングされた特徴量データを含む。 The second learning data is data having the same structure as the first learning data. As described above, the second training data includes the feature data sampled from the layer in which the feature data included in the first training data is sampled and the feature data sampled from another layer.

また、第1学習データ記憶手段102に記憶されている第1学習データの生成に利用された学習用の画像データは、第2学習データ記憶手段103に記憶されている第2学習データの生成に利用された学習用の画像データと異なる。なお、共通の学習用の画像データを基にそれぞれ生成された第1学習データおよび第2学習データが、各記憶手段に記憶されていてもよい。 Further, the image data for learning used for generating the first learning data stored in the first learning data storage means 102 is used for generating the second learning data stored in the second learning data storage means 103. It is different from the image data for learning used. The first learning data and the second learning data generated based on the common image data for learning may be stored in each storage means.

学習手段104は、第1学習データと第2学習データとを両方用いて、ニューラルネットワーク型識別器101に対してファインチューニングを実行する機能を有する。以下、学習手段104によるファインチューニングの実行方法をいくつか示す。 The learning means 104 has a function of performing fine tuning on the neural network type classifier 101 by using both the first learning data and the second learning data. Hereinafter, some methods of executing fine tuning by the learning means 104 will be shown.

例えば、図11に示す中間層L1から特徴量データF1、中間層L2から特徴量データF2がそれぞれ抽出されたとする。特徴量データF1は第1学習データに、特徴量データF2は第2学習データにそれぞれ含まれている。学習手段104は、第1学習データと第2学習データとを両方用いて、中間層L1よりも上位の層のみに対してファインチューニングを実行してもよい。For example, the feature amount data F 1 from the intermediate layer L 1 shown in FIG. 11, the feature data F 2 from the intermediate layer L 2 is extracted, respectively. The feature data F 1 is included in the first training data, and the feature data F 2 is included in the second training data. The learning means 104 may perform fine tuning only on the layer higher than the intermediate layer L 1 by using both the first learning data and the second learning data.

中間層L1よりも上位の層のみに対してファインチューニングを実行する際、学習手段104は、特徴量データF1を中間層L1へ、特徴量データF2を中間層L2へそれぞれ入力する。学習手段104は、例えば、入力層に画像データが入力された場合と同様に、出力層からの出力と正解ラベルとの二乗和を誤差関数として、バックプロパゲーションで誤差関数の値を減少させるようにネットワークの重みパラメータを修正する。When performing fine tuning only on the layers above the intermediate layer L 1 , the learning means 104 inputs the feature data F 1 into the intermediate layer L 1 and the feature data F 2 into the intermediate layer L 2 . do. The learning means 104 reduces the value of the error function by back propagation, for example, using the sum of squares of the output from the output layer and the correct answer label as the error function, as in the case where the image data is input to the input layer. Modify the network weighting parameter to.

学習手段104は、バックプロパゲーションにおける誤差の逆伝搬を中間層L1で止める。上記の方法によれば、ファインチューニングで重みパラメータが修正される層は、中間層L1よりも上位の層に限られる。しかし、特徴量データF1および特徴量データF2は、ファインチューニングが実行された後のニューラルネットワーク型識別器101においても使用可能なデータになる。Learning means 104 stops the reverse propagation of error in backpropagation an intermediate layer L 1. According to the above method, the layer in which the weight parameter is corrected by fine tuning is limited to the layer higher than the intermediate layer L 1. However, the feature data F 1 and the feature data F 2 become data that can be used in the neural network type classifier 101 after the fine tuning is executed.

また、学習手段104は、上記の方法で中間層L1よりも上位の層のみを学習した後、特徴量データF2を用いて中間層L2よりも上位の層を学習するという2段階でファインチューニングを実行してもよい。Further, the learning means 104 learns only the layer higher than the intermediate layer L 1 by the above method, and then learns the layer higher than the intermediate layer L 2 using the feature data F 2. Fine tuning may be performed.

2段階でファインチューニングを実行する方法によれば、学習手段104は、ニューラルネットワーク型識別器101の、より下位の中間層L2まで学習データに適合させることができる。According to the method of performing fine tuning in two steps, the learning means 104 can adapt the learning data up to the lower intermediate layer L 2 of the neural network type classifier 101.

ただし、一度中間層L2以上の層の重みパラメータが修正されると、中間層L2よりも上位の層からサンプリングされた特徴量データ(本例では特徴量データF1)が、ニューラルネットワーク型識別器101で使用不可能になる。学習データの削減を回避する要請がある場合、本方法は、要請にそぐわない。However, once the weight parameters of the layers above the intermediate layer L 2 are modified, the feature data (feature data F 1 in this example) sampled from the layers above the intermediate layer L 2 becomes a neural network type. It becomes unusable in the classifier 101. If there is a request to avoid the reduction of training data, this method does not meet the request.

第1学習データと第2学習データとを利用してニューラルネットワーク型識別器101に対してファインチューニングを実行する際、学習手段104は、上記のような検討を行った上でファインチューニングの実行対象の層の範囲を決定する。 When performing fine tuning on the neural network type classifier 101 using the first learning data and the second learning data, the learning means 104 is the target of fine tuning after conducting the above examination. Determine the range of layers.

上記の例であれば、学習手段104は、特徴量データF1と特徴量データF2とを用いて中間層L1よりも上位の層のみを学習するか、さらに特徴量データF2のみを用いて中間層L2まで学習するかを、それぞれの識別性能、および学習データの減少量を考慮して決定する。In the above example, the learning means 104 learns only the layer higher than the intermediate layer L 1 by using the feature data F 1 and the feature data F 2 , or further learns only the feature data F 2 . Whether or not to train up to the intermediate layer L 2 by using is determined in consideration of each discrimination performance and the amount of decrease in training data.

上記の識別性能は、学習手段104がファインチューニングを実行する前に予測可能な値である。ニューラルネットワーク型識別器101に対するファインチューニングの実行対象の層の範囲を決定した後、学習手段104は、ニューラルネットワーク型識別器101の決定された範囲に対してファインチューニングを実行する。 The above-mentioned discrimination performance is a value that can be predicted before the learning means 104 performs fine tuning. After determining the range of the layer to be fine-tuned for the neural network type classifier 101, the learning means 104 executes fine-tuning for the determined range of the neural network type classifier 101.

例えば、学習手段104は、以下の計算式で算出されるスコアのうち最大のスコアが算出される範囲を、ファインチューニングの実行対象の層の範囲に決定してもよい。 For example, the learning means 104 may determine the range in which the maximum score is calculated among the scores calculated by the following formulas in the range of the layer to be executed for fine tuning.

(スコア)=(識別性能)−α×(学習データの減少量)・・・式(1) (Score) = (Discrimination performance) -α × (Reduction amount of learning data) ... Equation (1)

ただし、式(1)における定数αは、識別性能の次元と学習データの減少量の次元とを揃えるための定数である。 However, the constant α in the equation (1) is a constant for aligning the dimension of the discrimination performance with the dimension of the reduction amount of the learning data.

また、学習手段104は、第1学習データと第2学習データとを利用して学習を行う。例えば、第1学習データは、学習用の画像データがニューラルネットワーク型識別器101に入力された際に予め定められた層から出力された特徴量データと、入力された学習用の画像データに対応する正解クラスと、特徴量データが出力された層の識別情報との組を含む。 Further, the learning means 104 performs learning by using the first learning data and the second learning data. For example, the first training data corresponds to the feature amount data output from a predetermined layer when the training image data is input to the neural network type classifier 101 and the input training image data. Includes a set of the correct answer class to be used and the identification information of the layer from which the feature data is output.

本実施形態の第1学習データに含まれる特徴量データと第2学習データに含まれる特徴量データは、基本的に同一の画像データを基に生成されたデータではない。よって、本実施形態の学習手段104は、同一の画像データに対する複数種類の特徴量データを生成し、生成された特徴量データを結合した上で識別器の学習を行う一般的な学習手段と異なる。 The feature amount data included in the first training data and the feature amount data included in the second learning data of the present embodiment are not basically data generated based on the same image data. Therefore, the learning means 104 of the present embodiment is different from a general learning means that generates a plurality of types of feature data for the same image data, combines the generated feature data, and then learns the classifier. ..

また、本実施形態の学習手段104は、異なる2つの層からそれぞれ抽出された特徴量データを用いる。しかし、学習手段104は、より多くの層からそれぞれ抽出された特徴量データを併せて学習に用いてもよい。 Further, the learning means 104 of the present embodiment uses feature amount data extracted from two different layers. However, the learning means 104 may also use the feature amount data extracted from each of more layers for learning.

なお、通常教師情報は、最上位層である出力層からの理想的な出力値として与えられる。学習手段104は、ニューラルネットワーク型識別器101の出力層からの出力値と、理想的な出力値との誤差を最小化するように、上位層側から層間のネットワークの重みパラメータを更新する。 Normally, the teacher information is given as an ideal output value from the output layer, which is the uppermost layer. The learning means 104 updates the weight parameter of the network between layers from the upper layer side so as to minimize the error between the output value from the output layer of the neural network type classifier 101 and the ideal output value.

すなわち、学習手段104は、残差が1層ずつ下位の層に伝搬されていく手順でファインチューニングを実行する。よって、本実施形態の学習手段104は、中間の層のみに対するファインチューニングを実行しない。 That is, the learning means 104 executes fine tuning in a procedure in which the residuals are propagated layer by layer to the lower layers. Therefore, the learning means 104 of the present embodiment does not perform fine tuning only on the intermediate layer.

[動作の説明]
以下、本実施形態のパターン認識装置100のファインチューニングを実行する動作を図2を参照して説明する。図2は、第1の実施形態のパターン認識装置100によるファインチューニング実行処理の動作を示すフローチャートである。
[Explanation of operation]
Hereinafter, an operation of executing fine tuning of the pattern recognition device 100 of the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the operation of the fine tuning execution process by the pattern recognition device 100 of the first embodiment.

最初に、学習用の画像データが、ニューラルネットワーク型識別器101に入力される。次いで、ニューラルネットワーク型識別器101の予め定められた1つの層から、特徴量データが出力される。 First, the image data for learning is input to the neural network type classifier 101. Next, feature data is output from one predetermined layer of the neural network type classifier 101.

次いで、ニューラルネットワーク型識別器101は、出力された特徴量データ、入力された学習用の画像データに対応する正解カテゴリを示す情報、および第何層目であるか等の特徴量データが出力された層の位置を示す情報を含む第1学習データを生成する(ステップS101)。ニューラルネットワーク型識別器101は、生成された第1学習データを第1学習データ記憶手段102に保存する。 Next, the neural network type classifier 101 outputs the output feature amount data, the information indicating the correct answer category corresponding to the input learning image data, and the feature amount data such as the number of layers. The first training data including the information indicating the position of the layer is generated (step S101). The neural network type classifier 101 stores the generated first learning data in the first learning data storage means 102.

次いで、ステップS101で入力された学習用の画像データと異なる学習用の画像データが、ニューラルネットワーク型識別器101に入力される。次いで、ニューラルネットワーク型識別器101の第1学習データに関して予め定められた層と異なる層から特徴量データが出力される。 Next, learning image data different from the learning image data input in step S101 is input to the neural network type classifier 101. Next, the feature amount data is output from a layer different from the predetermined layer for the first training data of the neural network type classifier 101.

次いで、ニューラルネットワーク型識別器101は、出力された特徴量データ、入力された学習用の画像データに対応する正解カテゴリを示す情報、および第何層目であるか等の特徴量データが出力された層の位置を示す情報を含む第2学習データを生成する(ステップS102)。ニューラルネットワーク型識別器101は、生成された第2学習データを第2学習データ記憶手段103に保存する。 Next, the neural network type classifier 101 outputs the output feature amount data, the information indicating the correct answer category corresponding to the input learning image data, and the feature amount data such as the number of layers. A second training data including information indicating the position of the layer is generated (step S102). The neural network type classifier 101 stores the generated second learning data in the second learning data storage means 103.

次いで、学習手段104は、ニューラルネットワーク型識別器101に対するファインチューニングの実行対象の層の範囲を決定する(ステップS103)。学習手段104は、第1学習データ記憶手段102に保存されている第1学習データ、および第2学習データ記憶手段103に保存されている第2学習データの両方を利用して決定する。 Next, the learning means 104 determines the range of the layer to be fine-tuned for the neural network type classifier 101 (step S103). The learning means 104 is determined by using both the first learning data stored in the first learning data storage means 102 and the second learning data stored in the second learning data storage means 103.

具体的には、学習手段104は、第1学習データと第2学習データとを用いて予め定められた層よりも上位の層のみを学習するか、さらに第2学習データのみを用いてより下位の層まで学習するかを、それぞれの学習後の識別性能、および学習データの減少量を考慮して決定する。 Specifically, the learning means 104 uses the first learning data and the second learning data to learn only the layer higher than the predetermined layer, or further uses only the second learning data to learn the lower layer. Whether to learn up to the layer of is determined in consideration of the discrimination performance after each learning and the amount of decrease in the learning data.

例えば、学習手段104は、学習後の識別性能を予測し、予測された識別性能を基に式(1)のスコアを算出する。学習手段104は、算出された式(1)のスコアを基に実行対象の層の範囲を決定する。 For example, the learning means 104 predicts the discrimination performance after learning, and calculates the score of the equation (1) based on the predicted discrimination performance. The learning means 104 determines the range of the layer to be executed based on the calculated score of the formula (1).

決定した後、学習手段104は、ニューラルネットワーク型識別器101の決定された範囲に対してファインチューニングを実行する(ステップS104)。ファインチューニングを実行した後、パターン認識装置100は、ファインチューニング実行処理を終了する。 After the determination, the learning means 104 performs fine tuning on the determined range of the neural network type classifier 101 (step S104). After executing the fine tuning, the pattern recognition device 100 ends the fine tuning execution process.

[効果の説明]
本実施形態のパターン認識装置100は、ネットワーク構造で表現されるニューラルネットワーク型識別器101を備える。また、パターン認識装置100は、第1学習データを記憶する第1学習データ記憶手段102と、第2学習データを記憶する第2学習データ記憶手段103とを備える。
[Explanation of effect]
The pattern recognition device 100 of the present embodiment includes a neural network type classifier 101 represented by a network structure. Further, the pattern recognition device 100 includes a first learning data storage means 102 for storing the first learning data and a second learning data storage means 103 for storing the second learning data.

第1学習データは、学習用の画像データがニューラルネットワーク型識別器101に入力された際に1つの層から出力される特徴量データと、入力された学習用の画像データに対応する正解クラスと、特徴量データを出力する層の識別情報とを含む。 The first training data includes feature amount data output from one layer when the training image data is input to the neural network type classifier 101, and a correct answer class corresponding to the input training image data. , Includes the identification information of the layer that outputs the feature amount data.

第2学習データは、第1学習データの生成に使用された学習用の画像データと異なる画像データがニューラルネットワーク型識別器101に入力された際に、第1学習データに含まれる特徴量データを出力した1つの層と異なる層から出力される特徴量データを含む。また、第2学習データは、入力された学習用の画像データに対応する正解クラスと、特徴量データを出力する層の識別情報とを含む。 The second training data is the feature amount data included in the first training data when the image data different from the training image data used for generating the first training data is input to the neural network type classifier 101. Includes feature amount data output from one layer that is output and a layer that is different from the output layer. Further, the second learning data includes a correct answer class corresponding to the input image data for learning and identification information of the layer that outputs the feature amount data.

また、パターン認識装置100は、第1学習データと第2学習データの両方を用いて、ニューラルネットワーク型識別器101に対してファインチューニングを実行する学習手段104を備える。 Further, the pattern recognition device 100 includes a learning means 104 that executes fine tuning on the neural network type classifier 101 by using both the first learning data and the second learning data.

本実施形態のパターン認識装置100は、ファインチューニングで重みパラメータが修正される層の最適な範囲を決定できる。その理由は、学習手段104がファインチューニング後の識別性能と学習データの再利用可能性の2つの観点でファインチューニングの結果を表す指標を算出し、算出された指標に基づいて最適な学習範囲を選択するためである。 The pattern recognition device 100 of the present embodiment can determine the optimum range of the layer in which the weight parameter is corrected by fine tuning. The reason is that the learning means 104 calculates an index representing the result of fine tuning from the two viewpoints of discrimination performance after fine tuning and reusability of learning data, and determines the optimum learning range based on the calculated index. To choose.

実施形態2.
[構成の説明]
次に、本発明によるパターン認識装置の第2の実施形態を、図面を参照して説明する。図3は、本発明によるパターン認識装置の第2の実施形態の構成例を示すブロック図である。
Embodiment 2.
[Description of configuration]
Next, a second embodiment of the pattern recognition device according to the present invention will be described with reference to the drawings. FIG. 3 is a block diagram showing a configuration example of a second embodiment of the pattern recognition device according to the present invention.

図3に示すように、パターン認識装置200は、ニューラルネットワーク型識別器201と、学習データ記憶手段202と、学習手段203と、学習データ選択手段204と、再学習範囲決定手段205と、評価手段206と、再学習結果記憶手段207と、再学習結果選択手段208とを備える。 As shown in FIG. 3, the pattern recognition device 200 includes a neural network type classifier 201, a learning data storage means 202, a learning means 203, a learning data selection means 204, a relearning range determination means 205, and an evaluation means. It includes 206, a re-learning result storage means 207, and a re-learning result selection means 208.

ニューラルネットワーク型識別器201は、ニューラルネットワークを用いてパターン認識処理を行う識別器である。ニューラルネットワーク型識別器201が有する機能は、第1の実施形態のニューラルネットワーク型識別器101が有する機能と同様である。 The neural network type classifier 201 is a classifier that performs pattern recognition processing using a neural network. The function of the neural network type classifier 201 is the same as the function of the neural network type classifier 101 of the first embodiment.

学習データ記憶手段202は、学習用の画像データと、ニューラルネットワーク型識別器201の中間層から出力された特徴量データとを含む学習データを記憶する機能を有する。記憶されている学習データには、第1の実施形態の第1学習データと、第2学習データとが含まれる。なお、学習データには、画像データ、または特徴量データのうちのいずれか1つのみが含まれていてもよい。 The learning data storage means 202 has a function of storing learning data including image data for learning and feature amount data output from the intermediate layer of the neural network type classifier 201. The stored learning data includes the first learning data of the first embodiment and the second learning data. The training data may include only one of the image data and the feature amount data.

学習手段203は、学習データ記憶手段202に記憶されている学習データを用いて、ニューラルネットワーク型識別器201に対してファインチューニングを実行する機能を有する。学習手段203が有する機能は、第1の実施形態の学習手段104が有する機能と同様である。 The learning means 203 has a function of executing fine tuning on the neural network type classifier 201 by using the learning data stored in the learning data storage means 202. The function of the learning means 203 is the same as the function of the learning means 104 of the first embodiment.

学習データ選択手段204は、学習データ記憶手段202に記憶されている学習データの中から、ファインチューニングの実行対象の層よりも下位の層から抽出された特徴量データを含む学習データを選択する機能を有する。 The learning data selection means 204 is a function of selecting learning data including feature amount data extracted from a layer lower than the layer to be executed fine tuning from the learning data stored in the learning data storage means 202. Have.

再学習範囲決定手段205は、ファインチューニングの実行対象の層の範囲(再学習範囲)の候補を1通り以上決定する機能を有する。再学習範囲決定手段205は、ニューラルネットワーク型識別器201を構成する層の中からファインチューニングの実行対象の層の範囲の候補を1通り、または複数通り決定する。 The re-learning range determining means 205 has a function of determining one or more candidates for a range (re-learning range) of a layer to be executed for fine tuning. The re-learning range determining means 205 determines one or a plurality of candidates for the range of the layer to be executed fine tuning from the layers constituting the neural network type classifier 201.

例えば、再学習範囲決定手段205は、図11に示すニューラルネットワーク型識別器に対してファインチューニングの実行対象の層の範囲の候補を「第L1層よりも上位の層」、「第L2層よりも上位の層」、「第L3層よりも上位の層」と3通り決定する。再学習範囲決定手段205は、決定されたファインチューニングの実行対象の層の範囲の候補を示す情報を出力する。For example, re-learning range determining unit 205, "higher layers than the L 1 layer" candidates ranging executed layers of fine-tuned to the neural network discriminator shown in FIG. 11, "the L 2 Top layers "than the layer, to determine three ways" layer higher than the L 3 layer ". The re-learning range determining means 205 outputs information indicating a candidate range of the determined layer to be executed for fine tuning.

学習データ選択手段204は、再学習範囲決定手段205が決定したファインチューニングの実行対象の層の範囲の候補を示す1つの情報に着目する。次いで、学習データ選択手段204は、学習データ記憶手段202に記憶されている学習データのうち、ファインチューニングの実行対象の層の範囲の候補以外から得られた学習データのみ選択する。 The learning data selection means 204 pays attention to one piece of information indicating a candidate of the range of the layer to be executed fine tuning determined by the re-learning range determination means 205. Next, the learning data selection means 204 selects only the learning data obtained from the learning data stored in the learning data storage means 202 other than the candidates in the range of the layer to be executed for fine tuning.

学習データ選択手段204が選択した学習データは、継続して利用可能なデータである。一般的に、継続して利用可能なデータは、多い方が好ましいと考えられる。以下、学習データ選択手段204の具体的な選択方法を、図4を参照して説明する。図4は、学習データ記憶手段202に記憶されている学習データの例を示す説明図である。 The learning data selected by the learning data selection means 204 is continuously available data. In general, it is considered preferable that the amount of continuously available data is large. Hereinafter, a specific selection method of the learning data selection means 204 will be described with reference to FIG. FIG. 4 is an explanatory diagram showing an example of learning data stored in the learning data storage means 202.

図4は、学習データのデータ名と、データの内容とを併せて示す。データの内容は、学習データが画像データ、または特徴量データのいずれかを含むことを示す。学習データが特徴量データを含む場合、データの内容は、特徴量データが抽出されたニューラルネットワーク型識別器201の層も示す。 FIG. 4 shows the data name of the learning data and the content of the data together. The content of the data indicates that the training data includes either image data or feature data. When the training data includes feature data, the content of the data also indicates the layer of the neural network type classifier 201 from which the feature data has been extracted.

図4は、学習データAおよび学習データBが画像データを含むことを示す。また、図4は、学習データCおよび学習データDが中間層L3から抽出された特徴量データを含むことを示す。FIG. 4 shows that the training data A and the training data B include image data. Further, FIG. 4 shows the learning data C and the training data D includes the feature amount data extracted from the intermediate layer L 3.

また、図4は、学習データEおよび学習データFが中間層L2から抽出された特徴量データを含むことを示す。また、図4は、学習データGおよび学習データHが中間層L1から抽出された特徴量データを含むことを示す。Further, FIG. 4 shows that the training data E and the training data F include the feature amount data extracted from the intermediate layer L 2. Also, Figure 4 shows that the training data G and learning data H includes the feature amount data extracted from the intermediate layer L 1.

例えば、入力層が含まれる全ての層を再学習範囲決定手段205がファインチューニングの実行対象の範囲の候補に決定した場合、学習データ選択手段204は、学習データAおよび学習データBをファインチューニングに用いる学習データに選択する。 For example, when the re-learning range determining means 205 determines all the layers including the input layer as candidates for the range to be executed for fine tuning, the learning data selecting means 204 sets the learning data A and the learning data B for fine tuning. Select for the training data to be used.

また、中間層L3以上の層を再学習範囲決定手段205がファインチューニングの実行対象の範囲の候補に決定した場合、学習データ選択手段204は、学習データA、学習データB、学習データC、および学習データDをファインチューニングに用いる学習データに選択する。Further, when the re-learning range determining means 205 determines the intermediate layer L 3 or higher as a candidate for the range to be executed by the fine tuning, the learning data selecting means 204 sets the learning data A, the learning data B, and the learning data C. And the training data D is selected as the training data to be used for fine tuning.

図5は、ファインチューニングの実行対象の層の範囲と学習データ量との関係の例を示す説明図である。図5に示すように、一般的にファインチューニングの実行対象の層の範囲が狭いほど、学習に用いられる学習データ量、およびファインチューニング後に再利用可能な学習データ量は増える。 FIG. 5 is an explanatory diagram showing an example of the relationship between the range of the layer to be executed fine tuning and the amount of training data. As shown in FIG. 5, in general, the narrower the range of the layer to be executed for fine tuning, the larger the amount of learning data used for learning and the amount of learning data that can be reused after fine tuning.

なお、図5は、学習に利用される学習データ量、および再利用可能な学習データ量の変化を定性的に示す。ファインチューニングの実行対象の層の範囲と、学習に利用される学習データ量、およびファインチューニング後に再利用可能な学習データ量との関係は、必ずしも図5に示すように線形関数で表されるわけではない。両者の関係は、学習データ量に含まれる画像データの量、および各層からサンプリングされた特徴量データの量の割合に依存する。 Note that FIG. 5 qualitatively shows changes in the amount of learning data used for learning and the amount of reusable learning data. The relationship between the range of layers to be executed for fine tuning, the amount of training data used for training, and the amount of training data that can be reused after fine tuning is not necessarily represented by a linear function as shown in FIG. is not it. The relationship between the two depends on the amount of image data included in the training data amount and the ratio of the amount of feature amount data sampled from each layer.

評価手段206は、ファインチューニングが実行された後のニューラルネットワーク型識別器201の識別性能を評価する機能を有する。 The evaluation means 206 has a function of evaluating the discrimination performance of the neural network type classifier 201 after fine tuning is executed.

評価手段206は、学習手段203により更新されたニューラルネットワーク型識別器201を用いて、例えば評価データに対するニューラルネットワーク型識別器201の識別性能を求める。識別性能は、例えば正認識率と誤認識率とで表現されてもよい。 The evaluation means 206 uses the neural network type classifier 201 updated by the learning means 203 to obtain, for example, the discrimination performance of the neural network type classifier 201 with respect to the evaluation data. The discrimination performance may be expressed by, for example, a positive recognition rate and a false recognition rate.

再学習結果記憶手段207は、ファインチューニングが実行された後のニューラルネットワーク型識別器201の重みパラメータを示す情報を一時的に記憶する機能を有する。 The re-learning result storage means 207 has a function of temporarily storing information indicating a weight parameter of the neural network type classifier 201 after fine tuning is executed.

再学習結果記憶手段207は、学習手段203により更新されたニューラルネットワーク型識別器201のネットワークの重みパラメータを示す情報を記憶する。また、再学習結果記憶手段207は、評価手段206で求められた識別性能、ファインチューニングの実行対象の層の範囲の候補を示す情報、および学習データ選択手段204が選択した学習データ数を、重みパラメータを示す情報と共に記憶する。 The re-learning result storage means 207 stores information indicating the network weight parameter of the neural network type classifier 201 updated by the learning means 203. Further, the re-learning result storage means 207 weights the discrimination performance obtained by the evaluation means 206, the information indicating the candidate of the range of the layer to be executed fine tuning, and the number of training data selected by the learning data selection means 204. Store with information indicating the parameters.

再学習結果選択手段208は、評価手段206により評価された識別性能と、ファインチューニングが実行された後も利用可能な学習データ量とに基づいて、再学習結果(ファインチューニングの結果)を選択する機能を有する。再学習結果選択手段208は、識別性能と利用可能な学習データ量とが考慮された統一的な指標に基づいて、最適な再学習結果を選択できる。 The relearning result selection means 208 selects a relearning result (fine tuning result) based on the discrimination performance evaluated by the evaluation means 206 and the amount of learning data available even after the fine tuning is executed. Has a function. The re-learning result selection means 208 can select the optimum re-learning result based on a unified index in which the discrimination performance and the amount of training data available are taken into consideration.

すなわち、再学習結果選択手段208は、最良のニューラルネットワーク型識別器201を選出する。具体的には、再学習結果選択手段208は、再学習結果記憶手段207に記憶されているファインチューニングの実行対象の層の範囲の候補毎の識別性能、および学習データ選択手段204が選択した学習データ数に基づいて選出する。 That is, the re-learning result selection means 208 selects the best neural network type classifier 201. Specifically, the re-learning result selection means 208 has the discrimination performance for each candidate of the range of the layer to be executed fine tuning stored in the re-learning result storage means 207, and the learning selected by the learning data selection means 204. Select based on the number of data.

最良のニューラルネットワーク型識別器201の選択基準として、例えば以下に示す基準が考えられる。 As the selection criteria of the best neural network type classifier 201, for example, the following criteria can be considered.

例えば、識別性能の許容範囲が既知である場合、再学習結果選択手段208は、識別性能が許容範囲内である再学習結果の中から、最もファインチューニングの実行対象の層の数が少ない再学習結果を選べばよい。上記の基準で再学習結果を選ぶことによって、再学習結果選択手段208は、再利用可能な学習データ量を最大にできる。 For example, when the permissible range of discrimination performance is known, the re-learning result selection means 208 relearns with the smallest number of layers to be fine-tuned from among the re-learning results whose discriminating performance is within the permissible range. Just choose the result. By selecting the re-learning result based on the above criteria, the re-learning result selection means 208 can maximize the amount of reusable learning data.

また、再学習結果選択手段208は、再利用可能な学習データ量の減少による負の影響が与えられた識別性能を表すスコアを、例えば以下のように計算してもよい。 Further, the re-learning result selection means 208 may calculate a score representing the discrimination performance negatively affected by the decrease in the amount of reusable learning data, for example, as follows.

(スコア)=(識別性能)−α×(学習データの減少量)・・・式(2) (Score) = (Discrimination performance) -α × (Reduction amount of learning data) ... Equation (2)

ただし、式(2)における定数αは、識別性能の次元と学習データの減少量の次元とを揃えるための定数である。再学習結果選択手段208は、最大のスコアを与える再学習結果に対応するニューラルネットワーク型識別器201を選択してもよい。 However, the constant α in the equation (2) is a constant for aligning the dimension of the discrimination performance with the dimension of the reduction amount of the learning data. The re-learning result selection means 208 may select the neural network type classifier 201 corresponding to the re-learning result that gives the maximum score.

また、再利用可能な学習データ量を最大にする場合、再学習結果選択手段208は、最もファインチューニングの実行対象の層の数が少ないニューラルネットワーク型識別器201を選択すればよい。再利用可能な学習データ量を最大にするという基準が当初から明確である場合、再学習範囲決定手段205は、基準に対応する層の範囲のみを示す情報を出力すればよい。 Further, in order to maximize the amount of reusable learning data, the re-learning result selection means 208 may select the neural network type classifier 201 having the smallest number of layers to be executed for fine tuning. When the criterion for maximizing the amount of reusable learning data is clear from the beginning, the re-learning range determining means 205 may output information indicating only the range of the layer corresponding to the criterion.

本実施形態では、識別問題を題材としてパターン認識処理を行うためのニューラルネットワーク型識別器がニューラルネットワーク型識別器201として用いられる例を説明した。しかし、ニューラルネットワーク型識別器201は、識別問題以外の問題を解決するためのネットワーク型識別器でもよい。 In the present embodiment, an example in which a neural network type discriminator for performing pattern recognition processing on a discriminating problem as a subject is used as a neural network type discriminator 201 has been described. However, the neural network type discriminator 201 may be a network type discriminator for solving a problem other than the discrimination problem.

例えば、オブジェクト検知を行うように学習されたネットワーク型識別器や、数値を予測するために回帰問題が学習されたネットワーク型識別器が、ニューラルネットワーク型識別器201でもよい。 For example, the neural network type classifier 201 may be a network type discriminator trained to perform object detection or a network type discriminator trained to perform a regression problem to predict a numerical value.

ニューラルネットワーク型識別器201が識別問題以外の問題を解決するためのネットワーク型識別器である場合、評価手段206が有する機能と再学習結果選択手段208が有する機能のみ変更される。 When the neural network type classifier 201 is a network type classifier for solving a problem other than the discrimination problem, only the function of the evaluation means 206 and the function of the relearning result selection means 208 are changed.

ニューラルネットワーク型識別器201がオブジェクト検知を行うように学習されたネットワーク型識別器である場合、評価手段206は、mAP(mean Average Precision) で検知性能を表してもよいし、誤検知率と検知率とで検知性能を表してもよい。 When the neural network type classifier 201 is a network type classifier learned to perform object detection, the evaluation means 206 may express the detection performance by mAP (mean Average Precision), or the false detection rate and detection. The detection performance may be expressed by the rate.

誤検知率と検知率とで検知性能を表す場合、評価手段206は、誤検知率および検知率の2次元の指標を検知性能という1次元の指標に変換するために、例えば検知率と誤検知率にそれぞれ重みを付けた上で検知率と誤検知率を加算してもよい。 When the detection performance is expressed by the false detection rate and the detection rate, the evaluation means 206 converts the two-dimensional index of the false detection rate and the detection rate into a one-dimensional index called the detection performance, for example, the detection rate and the false detection. The detection rate and the false detection rate may be added after each rate is weighted.

評価手段206は、例えば誤検知率に付けられる重みを負の値にするか、検知率に付けられる重みの絶対値よりも誤検知率に付けられる重みの絶対値を大きくすれば、誤検知に対するペナルティをより大きく勘案できる。 For example, if the weight attached to the false positive rate is set to a negative value or the absolute value of the weight attached to the false positive rate is made larger than the absolute value of the weight attached to the false positive rate, the evaluation means 206 responds to false positives. The penalty can be taken into consideration more.

また、検知性能の許容範囲が既知である場合、再学習結果選択手段208は、検知性能が許容範囲内である再学習結果の中から、最もファインチューニングの実行対象の層の数が少ない再学習結果を選べばよい。上記の基準で再学習結果を選ぶことによって、再学習結果選択手段208は、再利用可能な学習データ量を最大にできる。 Further, when the permissible range of the detection performance is known, the re-learning result selection means 208 relearns with the smallest number of layers to be executed for fine tuning from the re-learning results whose detection performance is within the permissible range. Just choose the result. By selecting the re-learning result based on the above criteria, the re-learning result selection means 208 can maximize the amount of reusable learning data.

また、再学習結果選択手段208は、再利用可能な学習データ量の減少による負の影響が与えられた検知性能を表すスコアを、例えば以下のように計算してもよい。 Further, the re-learning result selection means 208 may calculate a score representing the detection performance negatively affected by the decrease in the amount of reusable learning data, for example, as follows.

(スコア)=(検知性能)−β×(学習データの減少量)・・・式(3) (Score) = (Detection performance) -β × (Reduction amount of learning data) ... Equation (3)

ただし、式(3)における定数βは、検知性能の次元と学習データの減少量の次元とを揃えるための定数である。再学習結果選択手段208は、最大のスコアを与える再学習結果に対応するニューラルネットワーク型識別器201を選択してもよい。 However, the constant β in the equation (3) is a constant for aligning the dimension of the detection performance with the dimension of the reduction amount of the learning data. The re-learning result selection means 208 may select the neural network type classifier 201 corresponding to the re-learning result that gives the maximum score.

また、再利用可能な学習データ量を最大にする場合、再学習結果選択手段208は、最もファインチューニングの実行対象の層の数が少ないニューラルネットワーク型識別器201を選択すればよい。再利用可能な学習データ量を最大にするという基準が当初から明確である場合、再学習範囲決定手段205は、基準に対応する層の範囲のみを示す情報を出力すればよい。 Further, in order to maximize the amount of reusable learning data, the re-learning result selection means 208 may select the neural network type classifier 201 having the smallest number of layers to be executed for fine tuning. When the criterion for maximizing the amount of reusable learning data is clear from the beginning, the re-learning range determining means 205 may output information indicating only the range of the layer corresponding to the criterion.

また、ニューラルネットワーク型識別器201が回帰問題が学習されたネットワーク型識別器である場合、評価手段206は、例えば予測された数値と真値との二乗誤差の逆数等を検知性能の性能値として求めればよい。 Further, when the neural network type classifier 201 is a network type classifier in which the regression problem is learned, the evaluation means 206 uses, for example, the reciprocal of the squared error between the predicted numerical value and the true value as the performance value of the detection performance. Just ask.

なお、上記の説明では、再学習結果選択手段208が識別性能の値や検知性能の値からスコアを算出する式の例として、一次式を示した。しかし、統計的な関係性を高精度に表現することが求められる場合、再学習結果選択手段208は、スコアを算出する式として一次式の代わりに、より高次の計算式を用いてもよい。また、再学習結果選択手段208は、特定のモデル式に基づいてスコアを計算してもよい。 In the above description, a linear expression is shown as an example of an expression in which the re-learning result selection means 208 calculates the score from the value of the discrimination performance and the value of the detection performance. However, when it is required to express the statistical relationship with high accuracy, the re-learning result selection means 208 may use a higher-order calculation formula instead of the linear formula as the formula for calculating the score. .. Further, the re-learning result selection means 208 may calculate the score based on a specific model formula.

[動作の説明]
以下、本実施形態のパターン認識装置200のファインチューニングを実行する動作を図6を参照して説明する。図6は、第2の実施形態のパターン認識装置200によるファインチューニング実行処理の動作を示すフローチャートである。
[Explanation of operation]
Hereinafter, the operation of executing the fine tuning of the pattern recognition device 200 of the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the fine tuning execution process by the pattern recognition device 200 of the second embodiment.

最初に、再学習範囲決定手段205が、ニューラルネットワーク型識別器201に対するファインチューニングの実行対象の層の範囲の候補を決定する(ステップS201)。再学習範囲決定手段205は、決定されたファインチューニングの実行対象の層の範囲の候補を学習データ選択手段204に入力する。 First, the re-learning range determining means 205 determines a candidate for the range of the layer to be fine-tuned for the neural network type classifier 201 (step S201). The re-learning range determining means 205 inputs a candidate of the range of the determined layer to be executed fine tuning into the learning data selecting means 204.

次いで、学習データ選択手段204が、ステップS201で入力された各ファインチューニングの実行対象の層の範囲の候補のうち、1つの範囲の候補に着目する。すなわち、再学習ループに入る(ステップS202)。 Next, the learning data selection means 204 pays attention to one range candidate among the range candidates of the layer to be executed for each fine tuning input in step S201. That is, it enters a re-learning loop (step S202).

学習データ選択手段204は、着目されたファインチューニングの実行対象の層の範囲の候補に対してファインチューニングを実行するために求められる学習データを、学習データ記憶手段202に記憶されている学習データの中から選択する(ステップS203)。学習データ選択手段204は、選択された学習データを学習手段203に入力する。 The learning data selection means 204 stores the learning data required for performing fine tuning on the candidate of the range of the layer to be executed of the fine tuning of interest in the learning data storage means 202. Select from (step S203). The learning data selection means 204 inputs the selected learning data to the learning means 203.

次いで、学習手段203は、ステップS203で選択された学習データを用いて、ニューラルネットワーク型識別器201に対してファインチューニングを実行する(ステップS204)。 Next, the learning means 203 performs fine tuning on the neural network type classifier 201 using the learning data selected in step S203 (step S204).

次いで、評価手段206は、ステップS204で更新されたニューラルネットワーク型識別器201を用いて、評価データに対するニューラルネットワーク型識別器201の識別性能を評価する(ステップS205)。 Next, the evaluation means 206 evaluates the discrimination performance of the neural network type classifier 201 with respect to the evaluation data by using the neural network type classifier 201 updated in step S204 (step S205).

次いで、評価手段206は、ステップS205で評価された識別性能を再学習結果記憶手段207に再学習結果として格納する(ステップS206)。 Next, the evaluation means 206 stores the discrimination performance evaluated in step S205 in the re-learning result storage means 207 as a re-learning result (step S206).

また、学習手段203は、ステップS204で更新されたニューラルネットワーク型識別器201の重みパラメータを示す情報、およびファインチューニングの実行対象の層の範囲の候補を示す情報を、再学習結果記憶手段207に格納されている再学習結果に含める。また、学習データ選択手段204は、選択された学習データ数を、再学習結果記憶手段207に格納されている再学習結果に含める。 Further, the learning means 203 sends the information indicating the weight parameter of the neural network type classifier 201 updated in step S204 and the information indicating the candidate of the range of the layer to be executed fine tuning to the re-learning result storage means 207. Include in the stored relearning results. Further, the learning data selection means 204 includes the selected number of learning data in the re-learning result stored in the re-learning result storage means 207.

パターン認識装置200は、ステップS201で決定された各ファインチューニングの実行対象の層の範囲の候補全てに対してファインチューニングが実行されるまでの間、ステップS203〜ステップS206の処理を繰り返し実行する。各ファインチューニングの実行対象の層の範囲の候補全てに対してファインチューニングが実行された時、パターン認識装置200は、再学習ループを抜ける(ステップS207)。 The pattern recognition device 200 repeatedly executes the processes of steps S203 to S206 until fine tuning is executed for all the candidates of the range of the layer to be executed for each fine tuning determined in step S201. When fine tuning is executed for all the candidates in the range of the layer to be executed for each fine tuning, the pattern recognition device 200 exits the relearning loop (step S207).

次いで、再学習結果選択手段208は、再学習結果記憶手段207に格納されている再学習結果のうち最適な再学習結果を選択する(ステップS208)。最適な再学習結果を選択した後、パターン認識装置200は、ファインチューニング実行処理を終了する。 Next, the re-learning result selection means 208 selects the optimum re-learning result from the re-learning results stored in the re-learning result storage means 207 (step S208). After selecting the optimum relearning result, the pattern recognition device 200 ends the fine tuning execution process.

以下、本実施形態の他の例を、図7を参照して説明する。上記の例のパターン認識装置200は、1種類のニューラルネットワーク型識別器201のみ備える。 Hereinafter, other examples of this embodiment will be described with reference to FIG. 7. The pattern recognition device 200 in the above example includes only one type of neural network type classifier 201.

すなわち、中間層から抽出された特徴量データは、1種類のニューラルネットワーク型識別器に関する特徴量データのみである。換言すると、特徴量データが抽出されたニューラルネットワーク型識別器は、予め1種類に特定された。 That is, the feature data extracted from the intermediate layer is only the feature data related to one type of neural network type classifier. In other words, the neural network type classifier from which the feature data was extracted was specified in advance as one type.

しかし、本実施形態の学習データ記憶手段202には、複数のニューラルネットワーク型識別器からそれぞれ抽出された各特徴量データが、混在して記憶されてもよい。すなわち、パターン認識装置200は、複数種類のニューラルネットワーク型識別器を備えてもよい。パターン認識装置200が複数種類のニューラルネットワーク型識別器を備える場合、各ニューラルネットワーク型識別器は、ネットワーク識別情報をそれぞれ有する。 However, in the learning data storage means 202 of the present embodiment, each feature amount data extracted from each of a plurality of neural network type classifiers may be stored in a mixed manner. That is, the pattern recognition device 200 may include a plurality of types of neural network type classifiers. When the pattern recognition device 200 includes a plurality of types of neural network type classifiers, each neural network type classifier has network identification information.

本変形例では、ニューラルネットワーク型識別器が、ネットワーク識別情報をさらに具備する。ネットワーク識別情報は、各ネットワークのモデル、および各ネットワーク係数を区別可能な情報である。 In this modification, the neural network type classifier further includes network identification information. The network identification information is information that can distinguish each network model and each network coefficient.

すなわち、例えば同じネットワーク構造のニューラルネットワーク型識別器同士であっても各ネットワーク係数が異なる場合、各ニューラルネットワーク型識別器には、それぞれ異なるネットワーク識別情報が割り当てられる。 That is, for example, when the neural network type classifiers having the same network structure have different network coefficients, different network identification information is assigned to each neural network type classifier.

ネットワーク識別情報は、単一の数値、または文字列で表現されてもよい。また、ネットワーク識別情報は、層数、各層の種類、フィルタサイズ、フィルタ係数、ストライド幅、活性化関数等が所定の規則に従って1列の数値列として展開された情報でもよい。 The network identification information may be represented by a single numerical value or a character string. Further, the network identification information may be information in which the number of layers, the type of each layer, the filter size, the filter coefficient, the stride width, the activation function, and the like are expanded as a single numerical string according to a predetermined rule.

各層の種類は、コンボリューション層、プーリング層、フルコネクト層、softmax 層等である。また、フィルタサイズ等の層に関する各情報は、層毎に列挙されてもよい。 The types of each layer are a convolution layer, a pooling layer, a full connect layer, a softmax layer, and the like. In addition, each information about the layer such as the filter size may be listed for each layer.

また、学習データ記憶手段202に記憶されている学習データでは、ニューラルネットワーク型識別器を識別できるネットワーク識別情報と、学習データに含まれる特徴量データが抽出されたニューラルネットワーク型識別器の層の位置を示す情報とが対応付けられている。 Further, in the training data stored in the training data storage means 202, the position of the layer of the neural network type classifier from which the network identification information capable of identifying the neural network type classifier and the feature amount data included in the training data are extracted. Is associated with the information indicating.

具体的には、学習データ記憶手段202に記憶されている画像データと特徴量データのうち特徴量データに関して、特徴量データが抽出されたニューラルネットワーク型識別器のネットワーク識別情報と、特徴量データが抽出された層の位置を示す情報との組が記憶される。 Specifically, regarding the feature amount data among the image data and the feature amount data stored in the learning data storage means 202, the network identification information of the neural network type classifier from which the feature amount data is extracted and the feature amount data are A set with information indicating the position of the extracted layer is stored.

また、1つの特徴量データは、複数のニューラルネットワーク型識別器と対応付けられてもよい。例えば全体の構造が異なるが、入力層から第N層までのネットワーク構造およびネットワークの重みパラメータが共通しているニューラルネットワーク型識別器Aとニューラルネットワーク型識別器Bを、パターン認識装置200が備えているとする。 Further, one feature amount data may be associated with a plurality of neural network type classifiers. For example, the pattern recognition device 200 includes a neural network type discriminator A and a neural network type discriminator B having a common network structure from the input layer to the Nth layer and a network weight parameter, although the overall structure is different. Suppose you are.

ニューラルネットワーク型識別器Aの第N層から抽出された特徴量データが学習データ記憶手段202に記憶されている場合、記憶されている特徴量データには、ニューラルネットワーク型識別器Bの第N層から抽出された特徴量データであることを示す情報も追記される。情報が追記された特徴量データは、異なるファインチューニングに渡って使用される。 When the feature amount data extracted from the Nth layer of the neural network type classifier A is stored in the learning data storage means 202, the stored feature amount data includes the Nth layer of the neural network type classifier B. Information indicating that the feature amount data is extracted from is also added. The feature data to which the information is added is used over different fine tunings.

図7は、学習データ記憶手段202に記憶されている学習データの他の例を示す説明図である。図7は、学習データのデータ名と、データの内容とを併せて示す。 FIG. 7 is an explanatory diagram showing another example of the learning data stored in the learning data storage means 202. FIG. 7 shows the data name of the learning data and the content of the data together.

データの内容は、学習データが画像データ、または特徴量データのいずれかを含むことを示す。学習データが特徴量データを含む場合、データの内容は、特徴量データが抽出されたニューラルネットワーク型識別器のネットワーク識別情報と、特徴量データが抽出された層も示す。 The content of the data indicates that the training data includes either image data or feature data. When the training data includes feature data, the content of the data also indicates the network identification information of the neural network type classifier from which the feature data is extracted and the layer from which the feature data is extracted.

図7は、学習データAおよび学習データBが画像データを含むことを示す。また、図7は、学習データCおよび学習データDが、ネットワーク識別情報N1で識別されるネットワーク型識別器の中間層L3から抽出された特徴量データを含むことを示す。FIG. 7 shows that the training data A and the training data B include image data. Further, FIG. 7 shows that the training data C and the training data D include the feature amount data extracted from the intermediate layer L 3 of the network type classifier identified by the network identification information N 1.

同様に、学習データCおよび学習データDは、ネットワーク識別情報N2で識別されるネットワーク型識別器の中間層L3から抽出された特徴量データ、およびネットワーク識別情報N3で識別されるネットワーク型識別器の中間層L3から抽出された特徴量データを含む。Similarly, the training data C and the training data D are the feature amount data extracted from the intermediate layer L 3 of the network type classifier identified by the network identification information N 2 and the network type identified by the network identification information N 3. Contains feature data extracted from the middle layer L 3 of the classifier.

すなわち、ネットワーク識別情報N1で識別されるネットワーク型識別器の構造、ネットワーク識別情報N2で識別されるネットワーク型識別器の構造、およびネットワーク識別情報N3で識別されるネットワーク型識別器の構造は、入力層から中間層L3まで共通である。That is, the structure of the network type classifier identified by the network identification information N 1 , the structure of the network type classifier identified by the network identification information N 2 , and the structure of the network type classifier identified by the network identification information N 3. are common from the input layer to the intermediate layer L 3.

また、図7は、学習データEおよび学習データFが、ネットワーク識別情報N1で識別されるネットワーク型識別器の中間層L2から抽出された特徴量データ、およびネットワーク識別情報N2で識別されるネットワーク型識別器の中間層L2から抽出された特徴量データを含むことを示す。Further, in FIG. 7, the training data E and the training data F are identified by the feature amount data extracted from the intermediate layer L 2 of the network type classifier identified by the network identification information N 1 and the network identification information N 2. It is shown that the feature data extracted from the intermediate layer L 2 of the network type classifier is included.

すなわち、ネットワーク識別情報N1で識別されるネットワーク型識別器の構造とネットワーク識別情報N2で識別されるネットワーク型識別器の構造は、入力層から中間層L2まで共通である。That is, the structure of the network type classifier identified by the network identification information N 1 and the structure of the network type classifier identified by the network identification information N 2 are common from the input layer to the intermediate layer L 2.

また、図7は、学習データGおよび学習データHが、ネットワーク識別情報N1で識別されるネットワーク型識別器の中間層L1から抽出された特徴量データを含むことを示す。Further, FIG. 7 shows that the learning data G and the learning data H include the feature amount data extracted from the intermediate layer L 1 of the network type classifier identified by the network identification information N 1.

学習データ選択手段204は、再学習範囲決定手段205が決定したファインチューニングの実行対象の層の範囲の候補のうち、1つの範囲の候補に着目する。次いで、学習データ選択手段204は、学習データ記憶手段202に記憶されている学習データのうち、ニューラルネットワーク型識別器のファインチューニングの実行対象の層の範囲の候補以外から得られた学習データのみを選択する。 The learning data selection means 204 pays attention to one range candidate among the range candidates of the layer to be executed fine tuning determined by the re-learning range determination means 205. Next, the training data selection means 204 selects only the training data obtained from the training data stored in the training data storage means 202 other than the candidates of the range of the layer to be fine-tuned by the neural network type classifier. select.

すなわち、本変形例の学習データ選択手段204は、ファインチューニングの実行対象のニューラルネットワーク型識別器を示すネットワーク識別情報と、含まれているネットワーク識別情報が等しい学習データだけを選択する。 That is, the learning data selection means 204 of this modification selects only the learning data in which the network identification information indicating the neural network type classifier to be executed fine tuning and the included network identification information are equal.

従って、本変形例のパターン認識装置200は、様々な撮影地点向けに様々なニューラルネットワーク型識別器が構築されていた場合であっても、構造が同様な範囲で複数のニューラルネットワーク型識別器に対して同じ特徴量データを利用できる。 Therefore, the pattern recognition device 200 of this modification can be used as a plurality of neural network type classifiers within the same range of structure even when various neural network type discriminators are constructed for various shooting points. On the other hand, the same feature data can be used.

以下、各実施形態のパターン認識装置のハードウェア構成の具体例を説明する。図8は、本発明によるパターン認識装置のハードウェア構成例を示す説明図である。 Hereinafter, specific examples of the hardware configuration of the pattern recognition device of each embodiment will be described. FIG. 8 is an explanatory diagram showing a hardware configuration example of the pattern recognition device according to the present invention.

図8に示すパターン認識装置は、CPU(Central Processing Unit )11と、主記憶部12と、通信部13と、補助記憶部14とを備える。また、ユーザが操作するための入力部15や、ユーザに処理結果または処理内容の経過を提示するための出力部16を備えてもよい。 The pattern recognition device shown in FIG. 8 includes a CPU (Central Processing Unit) 11, a main storage unit 12, a communication unit 13, and an auxiliary storage unit 14. Further, an input unit 15 for the user to operate and an output unit 16 for presenting the processing result or the progress of the processing content to the user may be provided.

なお、図8に示すパターン認識装置は、CPU11の代わりにDSP(Digital Signal Processor)を備えてもよい。または、図8に示すパターン認識装置は、CPU11とDSPとを併せて備えてもよい。 The pattern recognition device shown in FIG. 8 may include a DSP (Digital Signal Processor) instead of the CPU 11. Alternatively, the pattern recognition device shown in FIG. 8 may include the CPU 11 and the DSP together.

主記憶部12は、データの作業領域やデータの一時退避領域として用いられる。主記憶部12は、例えばRAM(Random Access Memory)である。 The main storage unit 12 is used as a data work area or a data temporary storage area. The main storage unit 12 is, for example, a RAM (Random Access Memory).

通信部13は、有線のネットワークまたは無線のネットワーク(情報通信ネットワーク)を介して、周辺機器との間でデータを入力および出力する機能を有する。 The communication unit 13 has a function of inputting and outputting data to and from peripheral devices via a wired network or a wireless network (information communication network).

補助記憶部14は、一時的でない有形の記憶媒体である。一時的でない有形の記憶媒体として、例えば磁気ディスク、光磁気ディスク、CD−ROM(Compact Disk Read Only Memory )、DVD−ROM(Digital Versatile Disk Read Only Memory )、半導体メモリが挙げられる。 The auxiliary storage unit 14 is a non-temporary tangible storage medium. Examples of non-temporary tangible storage media include magnetic disks, opto-magnetic disks, CD-ROMs (Compact Disk Read Only Memory), DVD-ROMs (Digital Versatile Disk Read Only Memory), and semiconductor memories.

入力部15は、データや処理命令を入力する機能を有する。入力部15は、例えばキーボードやマウス等の入力デバイスである。 The input unit 15 has a function of inputting data and processing instructions. The input unit 15 is an input device such as a keyboard or a mouse.

出力部16は、データを出力する機能を有する。出力部16は、例えば液晶ディスプレイ装置等の表示装置、またはプリンタ等の印刷装置である。 The output unit 16 has a function of outputting data. The output unit 16 is, for example, a display device such as a liquid crystal display device or a printing device such as a printer.

また、図8に示すように、パターン認識装置において、各構成要素は、システムバス17に接続されている。 Further, as shown in FIG. 8, in the pattern recognition device, each component is connected to the system bus 17.

補助記憶部14は、例えば、学習手段104、学習手段203、学習データ選択手段204、再学習範囲決定手段205、評価手段206、および再学習結果選択手段208を実現するためのプログラムを記憶している。 The auxiliary storage unit 14 stores, for example, a program for realizing the learning means 104, the learning means 203, the learning data selection means 204, the re-learning range determination means 205, the evaluation means 206, and the re-learning result selection means 208. There is.

なお、パターン認識装置は、ハードウェアにより実現されてもよい。例えば、パターン認識装置は、内部に図1に示すような機能を実現するプログラムが組み込まれたLSI(Large Scale Integration )等のハードウェア部品が含まれる回路が実装されてもよい。 The pattern recognition device may be realized by hardware. For example, the pattern recognition device may be equipped with a circuit including hardware components such as an LSI (Large Scale Integration) in which a program for realizing a function as shown in FIG. 1 is incorporated.

また、パターン認識装置は、図8に示すCPU11が各構成要素が有する機能を提供するプログラムを実行することによって、ソフトウェアにより実現されてもよい。 Further, the pattern recognition device may be realized by software by executing a program in which the CPU 11 shown in FIG. 8 provides the functions of each component.

ソフトウェアにより実現される場合、CPU11が補助記憶部14に格納されているプログラムを、主記憶部12にロードして実行し、パターン認識装置の動作を制御することによって、各機能がソフトウェアにより実現される。また、CPU11が、補助記憶部14に格納されている学習データ等を、主記憶部12にロードしてもよい。 When realized by software, each function is realized by software by the CPU 11 loading and executing the program stored in the auxiliary storage unit 14 into the main storage unit 12 and controlling the operation of the pattern recognition device. NS. Further, the CPU 11 may load the learning data or the like stored in the auxiliary storage unit 14 into the main storage unit 12.

また、各構成要素の一部または全部は、汎用の回路(circuitry )または専用の回路、プロセッサ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各構成要素の一部または全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。 Further, a part or all of each component may be realized by a general-purpose circuit (circuitry), a dedicated circuit, a processor, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus. A part or all of each component may be realized by a combination of the above-mentioned circuit or the like and a program.

各構成要素の一部または全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。 When a part or all of each component is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged or distributed. For example, the information processing device, the circuit, and the like may be realized as a form in which each is connected via a communication network, such as a client-and-server system and a cloud computing system.

次に、本発明の概要を説明する。図9は、本発明によるパターン認識装置の概要を示すブロック図である。本発明によるパターン認識装置20は、学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、画像データと異なる学習用の画像データが入力されたニューラルネットワーク型識別器の複数の層のうちの1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後のニューラルネットワーク型識別器の識別性能を予測する予測手段21(例えば、学習手段104)と、予測された識別性能に基づいてニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定手段22(例えば、学習手段104)とを備える。 Next, the outline of the present invention will be described. FIG. 9 is a block diagram showing an outline of the pattern recognition device according to the present invention. The pattern recognition device 20 according to the present invention includes feature amount data output by one of a plurality of layers of a neural network type classifier in which a plurality of layers into which image data for learning is input are connected in a layered manner. The second training including the first training data and the feature amount data output by one layer different from one of the plurality of layers of the neural network type classifier in which image data for learning different from the image data is input. Prediction means 21 (for example, learning means 104) that predicts the discrimination performance of the neural network type classifier after learning using data, and the learning target of the neural network type classifier based on the predicted discrimination performance. It is provided with a determination means 22 (for example, a learning means 104) for determining the range of the layers.

そのような構成により、パターン認識装置は、再利用可能な特徴量データの量を考慮しながらファインチューニングを実行できる。 With such a configuration, the pattern recognition device can perform fine tuning while considering the amount of reusable feature data.

また、パターン認識装置20は、決定された範囲の層が出力する特徴量データを用いてニューラルネットワーク型識別器を学習する学習手段(例えば、学習手段104)を備えてもよい。 Further, the pattern recognition device 20 may include learning means (for example, learning means 104) for learning the neural network type classifier using the feature amount data output by the layers in the determined range.

そのような構成により、パターン認識装置は、再利用可能な特徴量データの量を考慮しながらファインチューニングを実行できる。 With such a configuration, the pattern recognition device can perform fine tuning while considering the amount of reusable feature data.

また、第1学習データは、第1学習データに含まれる特徴量データの生成元である学習用の画像データに対応する正解クラスと、第1学習データに含まれる特徴量データを出力した1つの層を示す情報とを含み、第2学習データは、第2学習データに含まれる特徴量データの生成元である学習用の画像データに対応する正解クラスと、第2学習データに含まれる特徴量データを出力した1つの層を示す情報とを含んでもよい。 Further, the first training data is a correct answer class corresponding to the image data for learning which is the generation source of the feature amount data included in the first training data, and one output of the feature amount data included in the first training data. The second training data includes the information indicating the layer, the correct answer class corresponding to the image data for learning which is the generation source of the feature amount data included in the second training data, and the feature amount included in the second training data. It may include information indicating one layer that outputs data.

そのような構成により、パターン認識装置は、ファインチューニングの精度をより高めることができる。 With such a configuration, the pattern recognition device can further improve the accuracy of fine tuning.

また、学習手段は、第1学習データに含まれる特徴量データの生成元である学習用の画像データと異なる学習用の画像データと、異なる学習用の画像データに対応する正解クラスとを含む第3学習データと、第1学習データとを用いて学習してもよい。 Further, the learning means includes a learning image data different from the learning image data that is a generation source of the feature amount data included in the first learning data, and a correct answer class corresponding to the different learning image data. 3 The learning data and the first learning data may be used for learning.

そのような構成により、パターン認識装置は、より多様なファインチューニングを実行できる。 With such a configuration, the pattern recognition device can perform a wider variety of fine tuning.

また、図10は、本発明によるパターン認識装置の他の概要を示すブロック図である。本発明によるパターン認識装置30は、複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定手段31(例えば、再学習範囲決定手段205)と、学習用の画像データが入力されたニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いてニューラルネットワーク型識別器を学習する学習手段32(例えば、学習手段203)と、学習された後のニューラルネットワーク型識別器の識別性能を評価する評価手段33(例えば、評価手段206)と、学習されて導出されたニューラルネットワーク型識別器のパラメータを決定された範囲の候補と共に記憶する記憶手段34(例えば、再学習結果記憶手段207)と、評価された識別性能と学習に利用された学習データの数とに基づいて記憶手段34からパラメータを選択する選択手段35(例えば、再学習結果選択手段208)とを備える。 Further, FIG. 10 is a block diagram showing another outline of the pattern recognition device according to the present invention. The pattern recognition device 30 according to the present invention includes a determination means 31 (for example, a relearning range determination means 205) for determining a candidate for a range of layers to be learned in a neural network type classifier in which a plurality of layers are connected in layers. Learning means 32 (for example,) for learning a neural network type classifier using learning data including feature amount data output by a layer of candidates in a determined range of the neural network type classifier to which image data for training is input. The parameters of the learning means 203), the evaluation means 33 (for example, the evaluation means 206) for evaluating the discrimination performance of the neural network type classifier after learning, and the learned and derived neural network type classifier are determined. A storage means 34 (for example, a re-learning result storage means 207) that stores with a range of candidates, and a selection that selects a parameter from the storage means 34 based on the evaluated discrimination performance and the number of learning data used for learning. Means 35 (for example, re-learning result selection means 208) are provided.

そのような構成により、パターン認識装置は、再利用可能な特徴量データの量を考慮しながらファインチューニングを実行できる。 With such a configuration, the pattern recognition device can perform fine tuning while considering the amount of reusable feature data.

また、学習データは、学習データに含まれる特徴量データを出力した層を示す情報を含んでもよい。 Further, the learning data may include information indicating the layer that outputs the feature amount data included in the learning data.

そのような構成により、パターン認識装置は、所定の層よりも上位の層から抽出された全ての特徴量データを認識できる。 With such a configuration, the pattern recognition device can recognize all the feature amount data extracted from the layer higher than the predetermined layer.

また、学習データは、学習データに含まれる特徴量データの生成元である学習用の画像データと、特徴量データおよび画像データに対応する正解クラスとを含んでもよい。 Further, the training data may include the image data for learning which is the generation source of the feature amount data included in the training data, and the feature amount data and the correct answer class corresponding to the image data.

そのような構成により、パターン認識装置は、ファインチューニングの精度をより高めることができる。 With such a configuration, the pattern recognition device can further improve the accuracy of fine tuning.

また、学習データは、学習データに含まれる特徴量データを出力したニューラルネットワーク型識別器を示すネットワーク情報を含んでもよい。 Further, the training data may include network information indicating a neural network type classifier that outputs feature data included in the training data.

そのような構成により、パターン認識装置は、複数種類のニューラルネットワーク型識別器に対応できる。 With such a configuration, the pattern recognition device can support a plurality of types of neural network type classifiers.

また、学習手段32は、学習対象のニューラルネットワーク型識別器を示すネットワーク情報を含む学習データを用いて学習してもよい。 Further, the learning means 32 may learn using learning data including network information indicating the neural network type classifier to be learned.

そのような構成により、パターン認識装置は、複数種類のニューラルネットワーク型識別器に対応できる。 With such a configuration, the pattern recognition device can support a plurality of types of neural network type classifiers.

また、記憶手段34は、パラメータと、パラメータを有するニューラルネットワーク型識別器の識別性能と、パラメータが導出された学習に利用された学習データの数とを併せて記憶してもよい。 Further, the storage means 34 may store the parameters, the discrimination performance of the neural network type classifier having the parameters, and the number of learning data used for the learning from which the parameters are derived.

そのような構成により、パターン認識装置は、複数のファインチューニングの結果をまとめて管理できる。 With such a configuration, the pattern recognition device can collectively manage the results of a plurality of fine tunings.

以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.

また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下に限られない。 In addition, some or all of the above embodiments may be described as in the following appendix, but are not limited to the following.

(付記1)学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の前記複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、前記画像データと異なる学習用の画像データが入力された前記ニューラルネットワーク型識別器の前記複数の層のうちの前記1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後の前記ニューラルネットワーク型識別器の識別性能を予測する予測手段と、予測された識別性能に基づいて前記ニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定手段とを備えることを特徴とするパターン認識装置。 (Appendix 1) First training data including feature data output by one of the plurality of layers of a neural network type classifier in which a plurality of layers into which image data for training is input are connected in a layered manner. And the second learning including the feature amount data output by one layer different from the one layer among the plurality of layers of the neural network type classifier to which the image data for learning different from the image data is input. A predictive means for predicting the discrimination performance of the neural network type classifier after learning using data, and a range of layers to be learned of the neural network type classifier are determined based on the predicted discrimination performance. A pattern recognition device comprising a determination means for determining the data.

(付記2)決定された範囲の層が出力する特徴量データを用いてニューラルネットワーク型識別器を学習する学習手段を備える付記1記載のパターン認識装置。 (Appendix 2) The pattern recognition device according to Appendix 1, further comprising a learning means for learning a neural network type classifier using feature data output by layers in a determined range.

(付記3)第1学習データは、前記第1学習データに含まれる特徴量データの生成元である学習用の画像データに対応する正解クラスと、前記第1学習データに含まれる特徴量データを出力した1つの層を示す情報とを含み、第2学習データは、前記第2学習データに含まれる特徴量データの生成元である学習用の画像データに対応する正解クラスと、前記第2学習データに含まれる特徴量データを出力した1つの層を示す情報とを含む付記2記載のパターン認識装置。 (Appendix 3) The first training data includes a correct answer class corresponding to the image data for learning which is a generation source of the feature amount data included in the first learning data, and the feature amount data included in the first learning data. The second learning data includes the information indicating one output layer, the correct answer class corresponding to the image data for learning which is the generation source of the feature amount data included in the second learning data, and the second learning. The pattern recognition device according to Appendix 2, which includes information indicating one layer that outputs feature amount data included in the data.

(付記4)学習手段は、第1学習データに含まれる特徴量データの生成元である学習用の画像データと異なる学習用の画像データと、前記異なる学習用の画像データに対応する正解クラスとを含む第3学習データと、前記第1学習データとを用いて学習する付記3記載のパターン認識装置。 (Appendix 4) The learning means includes a learning image data different from the learning image data that is the source of the feature amount data included in the first learning data, and a correct answer class corresponding to the different learning image data. The pattern recognition device according to Appendix 3, wherein the third learning data including the above and the first learning data are used for learning.

(付記5)複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定手段と、学習用の画像データが入力された前記ニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いて前記ニューラルネットワーク型識別器を学習する学習手段と、学習された後の前記ニューラルネットワーク型識別器の識別性能を評価する評価手段と、学習されて導出された前記ニューラルネットワーク型識別器のパラメータを前記決定された範囲の候補と共に記憶する記憶手段と、評価された識別性能と学習に利用された学習データの数とに基づいて前記記憶手段からパラメータを選択する選択手段とを備えることを特徴とするパターン認識装置。 (Appendix 5) A determination means for determining a candidate for a range of layers to be learned of a neural network type classifier in which a plurality of layers are connected in layers, and the neural network type classifier to which image data for learning is input. Evaluate the learning means for learning the neural network type classifier using the training data including the feature amount data output by the candidate layer in the determined range, and the discrimination performance of the neural network type classifier after learning. Evaluation means to be used, storage means to store the learned and derived parameters of the neural network type classifier together with the candidates in the determined range, and the evaluated discrimination performance and the number of training data used for learning. A pattern recognition device including a selection means for selecting a parameter from the storage means based on the above.

(付記6)学習データは、前記学習データに含まれる特徴量データを出力した層を示す情報を含む付記5記載のパターン認識装置。 (Appendix 6) The pattern recognition device according to Appendix 5, wherein the learning data includes information indicating a layer that outputs the feature amount data included in the learning data.

(付記7)学習データは、前記学習データに含まれる特徴量データの生成元である学習用の画像データと、前記特徴量データおよび前記画像データに対応する正解クラスとを含む付記5または付記6記載のパターン認識装置。 (Appendix 7) The training data includes the image data for learning, which is the generation source of the feature data included in the training data, and the feature data and the correct answer class corresponding to the image data. The pattern recognition device described.

(付記8)学習データは、前記学習データに含まれる特徴量データを出力したニューラルネットワーク型識別器を示すネットワーク情報を含む付記5から付記7のうちのいずれかに記載のパターン認識装置。 (Supplementary note 8) The pattern recognition device according to any one of Supplementary note 5 to Supplementary note 7, wherein the training data includes network information indicating a neural network type classifier that outputs feature amount data included in the training data.

(付記9)学習手段は、学習対象のニューラルネットワーク型識別器を示すネットワーク情報を含む学習データを用いて学習する付記8記載のパターン認識装置。 (Appendix 9) The pattern recognition device according to Appendix 8, wherein the learning means is learning using learning data including network information indicating a neural network type classifier to be learned.

(付記10)記憶手段は、パラメータと、前記パラメータを有するニューラルネットワーク型識別器の識別性能と、前記パラメータが導出された学習に利用された学習データの数とを併せて記憶する付記5から付記9のうちのいずれかに記載のパターン認識装置。 (Appendix 10) The storage means stores the parameters, the discrimination performance of the neural network type classifier having the parameters, and the number of learning data used for learning from which the parameters are derived. The pattern recognition device according to any one of 9.

(付記11)学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の前記複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、前記画像データと異なる学習用の画像データが入力された前記ニューラルネットワーク型識別器の前記複数の層のうちの前記1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後の前記ニューラルネットワーク型識別器の識別性能を予測し、予測された識別性能に基づいて前記ニューラルネットワーク型識別器の学習対象の層の範囲を決定することを特徴とするパターン認識方法。 (Appendix 11) First training data including feature data output by one of the plurality of layers of a neural network type classifier in which a plurality of layers into which image data for training is input are connected in a layered manner. And the second learning including the feature amount data output by one layer different from the one layer among the plurality of layers of the neural network type classifier to which the image data for learning different from the image data is input. Predicting the discriminant performance of the neural network type discriminator after learning using the data, and determining the range of the layer to be trained of the neural network type discriminator based on the predicted discriminant performance. Characteristic pattern recognition method.

(付記12)複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定し、学習用の画像データが入力された前記ニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いて前記ニューラルネットワーク型識別器を学習し、学習された後の前記ニューラルネットワーク型識別器の識別性能を評価し、学習されて導出された前記ニューラルネットワーク型識別器のパラメータを前記決定された範囲の候補と共に記憶手段に記憶させ、評価された識別性能と学習に利用された学習データの数とに基づいて前記記憶手段からパラメータを選択することを特徴とするパターン認識方法。 (Appendix 12) A candidate for a range of layers to be learned of a neural network type classifier in which a plurality of layers are connected in layers is determined, and the neural network type classifier to which image data for learning is input is determined. The neural network type discriminator is trained using the training data including the feature amount data output by the candidate layer of the range, the discrimination performance of the neural network type discriminator after the training is evaluated, and the training is derived. The parameters of the neural network type classifier are stored in the storage means together with the candidates in the determined range, and the parameters are stored from the storage means based on the evaluated discrimination performance and the number of training data used for learning. A pattern recognition method characterized by selection.

(付記13)コンピュータに、学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の前記複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、前記画像データと異なる学習用の画像データが入力された前記ニューラルネットワーク型識別器の前記複数の層のうちの前記1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後の前記ニューラルネットワーク型識別器の識別性能を予測する予測処理、および予測された識別性能に基づいて前記ニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定処理を実行させるためのパターン認識プログラム。 (Appendix 13) A th-th. Includes one training data and feature amount data output by one layer different from the one layer among the plurality of layers of the neural network type classifier to which image data for learning different from the image data is input. Prediction processing that predicts the discrimination performance of the neural network type classifier after learning using the second training data, and the layer to be learned of the neural network type classifier based on the predicted discrimination performance. A pattern recognition program for executing a decision process that determines a range.

(付記14)コンピュータに、複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定処理、学習用の画像データが入力された前記ニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いて前記ニューラルネットワーク型識別器を学習する学習処理、学習された後の前記ニューラルネットワーク型識別器の識別性能を評価する評価処理、学習されて導出された前記ニューラルネットワーク型識別器のパラメータを前記決定された範囲の候補と共に記憶手段に記憶させる記憶処理、および評価された識別性能と学習に利用された学習データの数とに基づいて前記記憶手段からパラメータを選択する選択処理を実行させるためのパターン認識プログラム。 (Appendix 14) A decision process for determining a candidate for a range of layers to be learned by a neural network type classifier in which a plurality of layers are connected in layers, and the neural network type identification in which image data for learning is input to the computer. The learning process for learning the neural network type classifier using the training data including the feature amount data output by the candidate layer in the determined range of the device, and the discrimination performance of the neural network type classifier after learning. Evaluation processing to be evaluated, storage processing to store the learned and derived parameters of the neural network type classifier in the storage means together with the candidates in the determined range, and training data used for the evaluated discrimination performance and learning. A pattern recognition program for executing a selection process for selecting a parameter from the storage means based on the number of.

11 CPU
12 主記憶部
13 通信部
14 補助記憶部
15 入力部
16 出力部
17 システムバス
20、30、100、200 パターン認識装置
21 予測手段
22、31 決定手段
32、104、203 学習手段
33、206 評価手段
34 記憶手段
35 選択手段
101、201 ニューラルネットワーク型識別器
102 第1学習データ記憶手段
103 第2学習データ記憶手段
202 学習データ記憶手段
204 学習データ選択手段
205 再学習範囲決定手段
207 再学習結果記憶手段
208 再学習結果選択手段
11 CPU
12 Main storage unit 13 Communication unit 14 Auxiliary storage unit 15 Input unit 16 Output unit 17 System bus 20, 30, 100, 200 Pattern recognition device 21 Prediction means 22, 31 Determining means 32, 104, 203 Learning means 33, 206 Evaluation means 34 Storage means 35 Selection means 101, 201 Neural network type classifier 102 First learning data storage means 103 Second learning data storage means 202 Learning data storage means 204 Learning data selection means 205 Re-learning range determination means 207 Re-learning result storage means 208 Relearning result selection means

本発明は、パターン認識装置およびパターン認識方に関し、特に統計的パターン認識技術を応用したパターン認識装置およびパターン認識方に関する。 The present invention relates to a pattern recognition apparatus and a pattern recognition how, a pattern recognition apparatus and a pattern recognition how in particular applying statistical pattern recognition techniques.

そこで、本発明は、上述した課題を解決する、再利用可能な特徴量データの量を考慮しながらファインチューニングを実行できるパターン認識装置およびパターン認識方を提供することを目的とする。 The present invention solves the above problems, and an object thereof is to provide a pattern recognition apparatus and a pattern recognition how can perform fine tuning taking into account the amount of reusable feature data.

本発明によるパターン認識装置は、複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定手段と、学習用の画像データが入力されたニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いてニューラルネットワーク型識別器を学習する学習手段と、学習された後のニューラルネットワーク型識別器の識別性能を評価する評価手段と、学習されて導出されたニューラルネットワーク型識別器のパラメータを決定された範囲の候補と共に記憶する記憶手段と、評価された識別性能と学習に利用された学習データの数とに基づいて記憶手段からパラメータを選択する選択手段とを備え、学習データは、その学習データに含まれる特徴量データを出力したニューラルネットワーク型識別器を示すネットワーク情報を含むことを特徴とする。 The pattern recognition device according to the present invention is a neural network type discriminator in which a plurality of layers are connected in a layered manner. The learning means for learning the neural network type classifier using the training data including the feature amount data output by the candidate layer in the determined range of the classifier, and the discriminating performance of the neural network type classifier after learning. Evaluation means to evaluate, storage means to store the parameters of the trained and derived neural network type classifier together with the candidates of the determined range, and the evaluated discrimination performance and the number of training data used for training. The training data includes a selection means for selecting a parameter from the storage means based on the training data, and the training data includes network information indicating a neural network type classifier that outputs the feature amount data included in the training data .

Claims (14)

学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の前記複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、前記画像データと異なる学習用の画像データが入力された前記ニューラルネットワーク型識別器の前記複数の層のうちの前記1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後の前記ニューラルネットワーク型識別器の識別性能を予測する予測手段と、
予測された識別性能に基づいて前記ニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定手段とを備える
ことを特徴とするパターン認識装置。
The first training data including the feature amount data output by one of the plurality of layers of the neural network type classifier in which a plurality of layers into which the image data for training is input are connected in a layered manner, and the image. Used by the second learning data including the feature amount data output by one layer different from the one layer among the plurality of layers of the neural network type classifier to which image data for learning different from the data is input. A predictive means for predicting the discrimination performance of the neural network type classifier after being trained and
A pattern recognition device including a determination means for determining a range of layers to be learned of the neural network type classifier based on predicted discrimination performance.
決定された範囲の層が出力する特徴量データを用いてニューラルネットワーク型識別器を学習する学習手段を備える
請求項1記載のパターン認識装置。
The pattern recognition device according to claim 1, further comprising a learning means for learning a neural network type classifier using feature data output by layers in a determined range.
第1学習データは、前記第1学習データに含まれる特徴量データの生成元である学習用の画像データに対応する正解クラスと、前記第1学習データに含まれる特徴量データを出力した1つの層を示す情報とを含み、
第2学習データは、前記第2学習データに含まれる特徴量データの生成元である学習用の画像データに対応する正解クラスと、前記第2学習データに含まれる特徴量データを出力した1つの層を示す情報とを含む
請求項2記載のパターン認識装置。
The first learning data includes a correct answer class corresponding to the image data for learning that is the generation source of the feature amount data included in the first learning data, and one that outputs the feature amount data included in the first learning data. Including information indicating the layer
The second training data is a correct answer class corresponding to the image data for learning that is the generation source of the feature data included in the second training data, and one that outputs the feature data included in the second training data. The pattern recognition device according to claim 2, which includes information indicating a layer.
学習手段は、第1学習データに含まれる特徴量データの生成元である学習用の画像データと異なる学習用の画像データと、前記異なる学習用の画像データに対応する正解クラスとを含む第3学習データと、前記第1学習データとを用いて学習する
請求項3記載のパターン認識装置。
The learning means includes a third learning image data different from the learning image data that is the generation source of the feature amount data included in the first learning data, and a correct answer class corresponding to the different learning image data. The pattern recognition device according to claim 3, wherein the learning data and the first learning data are used for learning.
複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定手段と、
学習用の画像データが入力された前記ニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いて前記ニューラルネットワーク型識別器を学習する学習手段と、
学習された後の前記ニューラルネットワーク型識別器の識別性能を評価する評価手段と、
学習されて導出された前記ニューラルネットワーク型識別器のパラメータを前記決定された範囲の候補と共に記憶する記憶手段と、
評価された識別性能と学習に利用された学習データの数とに基づいて前記記憶手段からパラメータを選択する選択手段とを備える
ことを特徴とするパターン認識装置。
A determinant that determines a candidate for the range of layers to be trained in a neural network type classifier in which multiple layers are connected in layers,
A learning means for learning the neural network type classifier using learning data including feature data output by a layer of candidates in a determined range of the neural network type classifier to which image data for training is input, and a learning means for learning the neural network type classifier.
An evaluation means for evaluating the discrimination performance of the neural network type classifier after learning, and
A storage means for storing the learned and derived parameters of the neural network type classifier together with the candidates in the determined range, and
A pattern recognition device including a selection means for selecting a parameter from the storage means based on the evaluated discrimination performance and the number of learning data used for learning.
学習データは、前記学習データに含まれる特徴量データを出力した層を示す情報を含む
請求項5記載のパターン認識装置。
The pattern recognition device according to claim 5, wherein the learning data includes information indicating a layer that outputs feature amount data included in the learning data.
学習データは、前記学習データに含まれる特徴量データの生成元である学習用の画像データと、前記特徴量データおよび前記画像データに対応する正解クラスとを含む
請求項5または請求項6記載のパターン認識装置。
The fifth or sixth aspect of claim 5 or 6, wherein the learning data includes an image data for learning which is a generation source of the feature amount data included in the learning data, the feature amount data, and a correct answer class corresponding to the image data. Pattern recognition device.
学習データは、前記学習データに含まれる特徴量データを出力したニューラルネットワーク型識別器を示すネットワーク情報を含む
請求項5から請求項7のうちのいずれか1項に記載のパターン認識装置。
The pattern recognition device according to any one of claims 5 to 7, wherein the learning data includes network information indicating a neural network type classifier that outputs feature data included in the learning data.
学習手段は、学習対象のニューラルネットワーク型識別器を示すネットワーク情報を含む学習データを用いて学習する
請求項8記載のパターン認識装置。
The pattern recognition device according to claim 8, wherein the learning means is learning using learning data including network information indicating a neural network type classifier to be learned.
記憶手段は、パラメータと、前記パラメータを有するニューラルネットワーク型識別器の識別性能と、前記パラメータが導出された学習に利用された学習データの数とを併せて記憶する
請求項5から請求項9のうちのいずれか1項に記載のパターン認識装置。
The storage means according to claims 5 to 9 store the parameters, the discrimination performance of the neural network type classifier having the parameters, and the number of learning data used for learning from which the parameters are derived. The pattern recognition device according to any one of the items.
学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の前記複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、前記画像データと異なる学習用の画像データが入力された前記ニューラルネットワーク型識別器の前記複数の層のうちの前記1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後の前記ニューラルネットワーク型識別器の識別性能を予測し、
予測された識別性能に基づいて前記ニューラルネットワーク型識別器の学習対象の層の範囲を決定する
ことを特徴とするパターン認識方法。
The first training data including the feature amount data output by one of the plurality of layers of the neural network type classifier in which a plurality of layers into which the image data for training is input are connected in a layered manner, and the image. Used by the second learning data including the feature amount data output by one layer different from the one layer among the plurality of layers of the neural network type classifier to which image data for learning different from the data is input. Predicting the discrimination performance of the neural network type classifier after being learned and learned,
A pattern recognition method characterized in that the range of layers to be learned of the neural network type classifier is determined based on the predicted discrimination performance.
複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定し、
学習用の画像データが入力された前記ニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いて前記ニューラルネットワーク型識別器を学習し、
学習された後の前記ニューラルネットワーク型識別器の識別性能を評価し、
学習されて導出された前記ニューラルネットワーク型識別器のパラメータを前記決定された範囲の候補と共に記憶手段に記憶させ、
評価された識別性能と学習に利用された学習データの数とに基づいて前記記憶手段からパラメータを選択する
ことを特徴とするパターン認識方法。
A neural network type classifier in which multiple layers are connected in layers determines a candidate for the range of layers to be trained.
The neural network type classifier is trained using the training data including the feature amount data output by the candidate layer in the determined range of the neural network type classifier to which the image data for training is input.
After being trained, the discrimination performance of the neural network type classifier was evaluated, and
The learned and derived parameters of the neural network type classifier are stored in the storage means together with the candidates in the determined range, and the parameters are stored in the storage means.
A pattern recognition method characterized in that parameters are selected from the storage means based on the evaluated discrimination performance and the number of learning data used for learning.
コンピュータに、
学習用の画像データが入力された複数の層が層状に結合されたニューラルネットワーク型識別器の前記複数の層のうちの1つの層が出力する特徴量データを含む第1学習データと、前記画像データと異なる学習用の画像データが入力された前記ニューラルネットワーク型識別器の前記複数の層のうちの前記1つの層と異なる1つの層が出力する特徴量データを含む第2学習データとが用いられて学習された後の前記ニューラルネットワーク型識別器の識別性能を予測する予測処理、および
予測された識別性能に基づいて前記ニューラルネットワーク型識別器の学習対象の層の範囲を決定する決定処理
を実行させるためのパターン認識プログラム。
On the computer
The first training data including the feature amount data output by one of the plurality of layers of the neural network type classifier in which a plurality of layers into which image data for training is input are connected in a layered manner, and the image. Used by the second learning data including the feature amount data output by one layer different from the one layer among the plurality of layers of the neural network type classifier to which image data for learning different from the data is input. A prediction process for predicting the discrimination performance of the neural network type classifier after being trained, and a determination process for determining the range of layers to be learned of the neural network type classifier based on the predicted discrimination performance. A pattern recognition program for execution.
コンピュータに、
複数の層が層状に結合されたニューラルネットワーク型識別器の学習対象の層の範囲の候補を決定する決定処理、
学習用の画像データが入力された前記ニューラルネットワーク型識別器の決定された範囲の候補の層が出力する特徴量データを含む学習データを用いて前記ニューラルネットワーク型識別器を学習する学習処理、
学習された後の前記ニューラルネットワーク型識別器の識別性能を評価する評価処理、
学習されて導出された前記ニューラルネットワーク型識別器のパラメータを前記決定された範囲の候補と共に記憶手段に記憶させる記憶処理、および
評価された識別性能と学習に利用された学習データの数とに基づいて前記記憶手段からパラメータを選択する選択処理
を実行させるためのパターン認識プログラム。
On the computer
A decision process that determines a candidate for the range of layers to be trained in a neural network type classifier in which multiple layers are connected in layers.
A learning process for learning the neural network type classifier using learning data including feature data output by a layer of candidates in a determined range of the neural network type classifier to which image data for training is input.
Evaluation processing for evaluating the discrimination performance of the neural network type classifier after learning,
Based on the storage process of storing the learned and derived parameters of the neural network type classifier in the storage means together with the candidates of the determined range, and the evaluated discrimination performance and the number of training data used for learning. A pattern recognition program for executing a selection process for selecting a parameter from the storage means.
JP2020547786A 2018-09-28 2018-09-28 Pattern recognition device and pattern recognition method Active JP7024881B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/036217 WO2020065908A1 (en) 2018-09-28 2018-09-28 Pattern recognition device, pattern recognition method, and pattern recognition program

Publications (2)

Publication Number Publication Date
JPWO2020065908A1 true JPWO2020065908A1 (en) 2021-08-30
JP7024881B2 JP7024881B2 (en) 2022-02-24

Family

ID=69950472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020547786A Active JP7024881B2 (en) 2018-09-28 2018-09-28 Pattern recognition device and pattern recognition method

Country Status (2)

Country Link
JP (1) JP7024881B2 (en)
WO (1) WO2020065908A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021179902A (en) * 2020-05-15 2021-11-18 オムロン株式会社 Image inspection device, image inspection method, and learned model creation device
CN112200040A (en) * 2020-09-28 2021-01-08 北京小米松果电子有限公司 Occlusion image detection method, device and medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142766A1 (en) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 Learned model provision method and learned model provision device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142766A1 (en) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 Learned model provision method and learned model provision device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡谷 貴之: "画像認識のための深層学習の研究動向 −畳込みニューラルネットワークとその利用法の発展−", 人工知能, vol. 第31巻 第2号, JPN6018048224, 1 March 2016 (2016-03-01), JP, pages 169 - 179, ISSN: 0004680334 *

Also Published As

Publication number Publication date
WO2020065908A1 (en) 2020-04-02
JP7024881B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
CN110070141B (en) Network intrusion detection method
Wang et al. Deep mixture of experts via shallow embedding
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
US11392846B2 (en) Local-adapted minority oversampling strategy for highly imbalanced highly noisy dataset
CN110852447A (en) Meta learning method and apparatus, initialization method, computing device, and storage medium
WO2019223250A1 (en) Pruning threshold determination method and device, as well as model pruning method and device
US9208374B2 (en) Information processing apparatus, control method therefor, and electronic device
US11068747B2 (en) Computer architecture for object detection using point-wise labels
JP7028322B2 (en) Information processing equipment, information processing methods and information processing programs
CN110826609B (en) Double-current feature fusion image identification method based on reinforcement learning
WO2019102984A1 (en) Learning device and learning method, identification device and identification method, program, and recording medium
JP7024881B2 (en) Pattern recognition device and pattern recognition method
KR101905129B1 (en) Classification method based on support vector machine
Arieshanti et al. Comparative study of bankruptcy prediction models
CN112446888A (en) Processing method and processing device for image segmentation model
US20210073635A1 (en) Quantization parameter optimization method and quantization parameter optimization device
JP2020187417A (en) Physical property prediction device and physical property prediction method
CN111008631A (en) Image association method and device, storage medium and electronic device
CN114154557A (en) Cancer tissue classification method, apparatus, electronic device, and storage medium
CN110705622A (en) Decision-making method and system and electronic equipment
JP6201556B2 (en) Prediction model learning device, prediction model learning method, and computer program
US20200302171A1 (en) Neural network trained by homographic augmentation
CN113822411A (en) Learning method and information processing apparatus
JPWO2019215904A1 (en) Predictive model creation device, predictive model creation method, and predictive model creation program
WO2020059136A1 (en) Decision list learning device, decision list learning method, and decision list learning program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R151 Written notification of patent or utility model registration

Ref document number: 7024881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151