JP2020119048A - DNN selection program, DNN selection method, and information processing apparatus - Google Patents

DNN selection program, DNN selection method, and information processing apparatus Download PDF

Info

Publication number
JP2020119048A
JP2020119048A JP2019007358A JP2019007358A JP2020119048A JP 2020119048 A JP2020119048 A JP 2020119048A JP 2019007358 A JP2019007358 A JP 2019007358A JP 2019007358 A JP2019007358 A JP 2019007358A JP 2020119048 A JP2020119048 A JP 2020119048A
Authority
JP
Japan
Prior art keywords
dnn
data
restorer
learning
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019007358A
Other languages
Japanese (ja)
Other versions
JP7151501B2 (en
Inventor
優 安富
Masaru Yasutomi
優 安富
孝 河東
Takashi Kato
孝 河東
健人 上村
Taketo Uemura
健人 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019007358A priority Critical patent/JP7151501B2/en
Publication of JP2020119048A publication Critical patent/JP2020119048A/en
Application granted granted Critical
Publication of JP7151501B2 publication Critical patent/JP7151501B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To select a more appropriate DNN for new data when there are a plurality of DNNs.SOLUTION: An information processing apparatus 1 learns, for each of a plurality of DNNs, a restorer that restores data input to the DNN from characteristics obtained from an intermediate layer of the DNN based on data different from the data used for learning each of the plurality of DNNs. The information processing apparatus 1 selects, for new data to be determined, a DNN corresponding to the restorer selected based on the data output from each of the plurality of restorers and the new data to be determined.SELECTED DRAWING: Figure 6B

Description

本発明は、DNN選択プログラムなどに関する。 The present invention relates to a DNN selection program and the like.

ディープニューラルネットワーク(DNN:Deep learning Neural Network)を用いて入力データを判別(分類)する技術が知られている(例えば、特許文献1参照)。 A technique for discriminating (classifying) input data using a deep learning neural network (DNN) is known (for example, see Patent Document 1).

複数の学習済みのDNNが存在する状況下で、新たに判別したいデータは、どのDNNが最適であるかを決定したい場合がある。 In a situation where a plurality of learned DNNs exist, it may be desired to determine which DNN is optimal for data to be newly discriminated.

かかる場合に、情報処理装置は、新たなデータに対して、複数のDNNそれぞれから出力されるラベルの確信度に基づいて、適切なDNNを決定することが可能である。 In such a case, the information processing apparatus can determine an appropriate DNN for the new data based on the certainty factor of the label output from each of the plurality of DNNs.

国際公開第2016/132468号International Publication No. 2016/132468

しかしながら、複数のDNNが存在する場合に、新たなデータに対してより適切なDNNを選択することが難しいという問題がある。 However, when there are a plurality of DNNs, it is difficult to select a more suitable DNN for new data.

例えば、未知のデータに対してはどのラベル(クラス)の確信度も低いという仮定が成立する場合には、情報処理装置は、DNNが出力するラベルの確信度に基づきDNNを選択できる。ところが、判別対象のデータとDNNとの関係によっては、ラベルの確信度に基づく選択が適切でない場合が存在することが知られている。すなわち、DNNは、未知のデータに対してもしばしば高い確信度を出力することがあるため、新たなデータに対してより適切なDNNを選択することができないことがある。 For example, when the assumption that the confidence level of any label (class) with respect to unknown data is low holds, the information processing apparatus can select the DNN based on the confidence level of the label output by the DNN. However, it is known that the selection based on the certainty factor of the label may not be appropriate depending on the relationship between the data to be discriminated and the DNN. That is, since the DNN often outputs a high degree of certainty even for unknown data, it may not be possible to select a more appropriate DNN for new data.

本発明は、1つの側面では、複数のDNNが存在する場合に、新たなデータに対してより適切なDNNを選択することを目的とする。 The present invention, in one aspect, aims to select a more suitable DNN for new data when a plurality of DNNs exist.

1つの態様では、DNN選択プログラムは、コンピュータに、複数のDNN(Deep learning Neural Network)それぞれについて、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を、前記複数のDNNそれぞれの学習に用いたデータと異なるデータにより学習し、特定のデータについて、複数の復元器それぞれから出力されるデータおよび前記特定のデータに基づき選択される復元器に対応するDNNを選択する、処理を実行させる。 In one aspect, the DNN selection program causes a computer to restore, for each of a plurality of DNNs (Deep Learning Neural Networks), a restorer that restores data input to the DNN from a feature obtained from an intermediate layer of the DNN. Learning is performed using data different from the data used for learning each DNN, and for specific data, a DNN corresponding to the data output from each of the plurality of restorers and the restorer selected based on the specific data is selected. Let the process run.

1実施態様によれば、複数のDNNが存在する場合に、新たなデータに対してより適切なDNNを選択することが可能となる。 According to one embodiment, when there are a plurality of DNNs, it becomes possible to select a more suitable DNN for new data.

図1は、実施例1に係る情報処理装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram of the configuration of the information processing apparatus according to the first embodiment. 図2は、実施例1に係るDNN選択のアイデアを示す図である。FIG. 2 is a diagram illustrating an idea of DNN selection according to the first embodiment. 図3は、実施例1に係る復元器学習の流れの一例を示す図である。FIG. 3 is a diagram illustrating an example of the flow of the restorer learning according to the first embodiment. 図4は、実施例1に係るDNN選択の流れの一例を示す図である。FIG. 4 is a diagram illustrating an example of the flow of DNN selection according to the first embodiment. 図5Aは、層決定の一例を示す図である。FIG. 5A is a diagram illustrating an example of layer determination. 図5Bは、層決定の別の例を示す図である。FIG. 5B is a diagram showing another example of layer determination. 図6Aは、実施例1と従来技術とのDNN選択の動作の比較を示す図(1)である。FIG. 6A is a diagram (1) showing a comparison of the operation of the DNN selection between the first embodiment and the conventional technique. 図6Bは、実施例1と従来技術とのDNN選択の動作の比較を示す図(2)である。FIG. 6B is a diagram (2) showing a comparison of the operation of the DNN selection between the first embodiment and the conventional technique. 図7は、実施例1に係るDNN選択処理のフローチャートの一例を示す図である。FIG. 7 is a diagram illustrating an example of a flowchart of the DNN selection process according to the first embodiment. 図8は、実施例2に係る情報処理装置の構成を示す機能ブロック図である。FIG. 8 is a functional block diagram of the configuration of the information processing apparatus according to the second embodiment. 図9は、実施例2に係る復元器学習および補助DNN学習の流れの一例を示す図である。FIG. 9 is a diagram illustrating an example of the flow of the restorer learning and the auxiliary DNN learning according to the second embodiment. 図10は、実施例2に係るDNN選択の流れの一例を示す図である。FIG. 10 is a diagram illustrating an example of the flow of DNN selection according to the second embodiment. 図11は、実施例2に係るDNN選択処理のフローチャートの一例を示す図である。FIG. 11 is a diagram illustrating an example of a flowchart of the DNN selection process according to the second embodiment. 図12は、DNN選択プログラムを実行するコンピュータの一例を示す図である。FIG. 12 is a diagram illustrating an example of a computer that executes a DNN selection program.

以下に、本願の開示するDNN選択プログラム、DNN選択方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、本発明は、実施例により限定されるものではない。 Hereinafter, embodiments of the DNN selection program, the DNN selection method, and the information processing device disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited to the examples.

[実施例1に係る情報処理装置の構成]
図1は、実施例1に係る情報処理装置の構成を示す機能ブロック図である。図1に示す情報処理装置1は、複数の学習済みのDNNがある場合に、判別対象の新たなデータに対してどのDNNを適用するかを選択する。
[Configuration of Information Processing Device According to First Embodiment]
FIG. 1 is a functional block diagram of the configuration of the information processing apparatus according to the first embodiment. When there are a plurality of learned DNNs, the information processing apparatus 1 illustrated in FIG. 1 selects which DNN to apply to new data to be determined.

ここで、実施例1に係る情報処理装置1が行うDNN選択のアイデアを、図2を参照して説明する。図2は、実施例1に係るDNN選択のアイデアを示す図である。図2では、DNN−1が、学習済みの犬の種類を判別するDNNであるものとする。かかるDNN−1は、判別対象のデータに対して、犬の種類を判別し、ラベル(ここでは犬種)毎の確信度を出力する。 Here, the idea of the DNN selection performed by the information processing apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an idea of DNN selection according to the first embodiment. In FIG. 2, it is assumed that DNN-1 is the DNN that determines the type of dog that has been learned. The DNN-1 discriminates the type of dog from the discrimination target data, and outputs the certainty factor for each label (here, the dog type).

図2に示すように、DNN−1は、一般に、浅い層で一般的な特徴を、深い層で犬の種類を判別するのに必要な特有な特徴を抽出するように学習する。すなわち、浅い層では、画像に一般的な特徴(エッジなど)が抽出され、深い層では、DNNが担当する犬の種類を判別するのに必要な特徴が抽出され、DNNが担当する犬の種類を判別するのに必要でない情報は、落ちていると考えられる。例えば、犬の種類を判別するDNN−1の深い層では、犬とは異なる猫の種類を判別するために必要な特徴はほぼ残っていないと考えられる。 As shown in FIG. 2, DNN-1 generally learns to extract general features in a shallow layer and specific features required to distinguish a dog type in a deep layer. That is, in the shallow layer, general features (such as edges) are extracted from the image, and in the deep layer, features necessary for distinguishing the type of dog that the DNN is in charge of are extracted, and the dog type that the DNN is in charge of is extracted. Information that is not needed to determine is considered missing. For example, in the deep layer of DNN-1 that discriminates the type of dog, it is considered that almost no features necessary for discriminating the type of cat different from the dog remain.

そこで、情報処理装置1は、判別対象の新たなデータに対して、DNNの深い層でどれだけ判別するために必要な情報が残っているかによって、このDNN−1を選択するのが適当かどうかを見積もる。すなわち、情報処理装置1は、判別対象の新たなデータに対して、判別するためにより適切なDNNを選択する。 Therefore, the information processing device 1 is appropriate for selecting the DNN-1 depending on how much information necessary for the discrimination in the deeper layer of the DNN remains for the new data to be discriminated. Estimate. That is, the information processing device 1 selects a more appropriate DNN for the discrimination with respect to the new data to be discriminated.

複数のDNNから適切なDNNを選択するために、情報処理装置1は、複数のDNNそれぞれについて、DNNに入力するデータを当該DNNの中間層(深い層)から得られる特徴から復元する復元器を学習するようにする。そして、情報処理装置1は、判別対象の新たなデータについて、複数の復元器それぞれから出力されるデータおよび当該新たなデータに基づき選択される復元器に対応するDNNを選択するようにする。 In order to select an appropriate DNN from a plurality of DNNs, the information processing device 1 has a restorer that restores the data input to the DNN from the characteristics obtained from the intermediate layer (deep layer) of the DNN for each of the plurality of DNNs. Try to learn. Then, the information processing apparatus 1 selects the data output from each of the plurality of restorers and the DNN corresponding to the restorer selected based on the new data, for the new data to be determined.

図1に戻って、情報処理装置1は、制御部10および記憶部20を有する。 Returning to FIG. 1, the information processing device 1 has a control unit 10 and a storage unit 20.

制御部10は、CPU(Central Processing Unit)などの電子回路に対応する。そして、制御部10は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部10は、復元器学習部11、復元データ生成部12、DNN選択部13、判別部14および層決定部15を有する。なお、復元器学習部11は、復元器学習部の一例である。DNN選択部13は、DNN選択部の一例である。 The control unit 10 corresponds to an electronic circuit such as a CPU (Central Processing Unit). The control unit 10 has an internal memory for storing programs and control data that define various processing procedures, and executes various processing by these. The control unit 10 includes a restoration device learning unit 11, a restoration data generation unit 12, a DNN selection unit 13, a determination unit 14, and a layer determination unit 15. The restorer learning unit 11 is an example of the restorer learning unit. The DNN selection unit 13 is an example of the DNN selection unit.

記憶部20は、例えば、RAM、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。記憶部20は、データ群21、復元データ22および復元データ(新データ)23を有する。 The storage unit 20 is, for example, a RAM, a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 20 has a data group 21, restored data 22, and restored data (new data) 23.

データ群21は、復元器を学習するために用いられる一般の自然画像などの学習データの集合である。データ群21は、各DNNの学習データと異なる学習データの集合である。 The data group 21 is a set of learning data such as a general natural image used for learning the restorer. The data group 21 is a set of learning data different from the learning data of each DNN.

復元データ22は、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を学習する際に、復元器から出力されるデータであり、複数のDNNそれぞれについてのデータである。 The restored data 22 is the data output from the restorer when learning the restorer that restores the data input to the DNN from the characteristics obtained from the intermediate layer of the DNN, and is the data for each of the plurality of DNNs. ..

復元データ(新データ)23は、判別対象の新たなデータについて、複数の復元器それぞれから出力されるデータである。 The restored data (new data) 23 is the data output from each of the plurality of restorers for the new data to be determined.

復元器学習部11は、複数のDNNそれぞれについて、DNNに対応する復元器を学習する。ここでいう復元器は、DNNの中間層(深い層)から得られる特徴から当該DNNに入力するデータを復元する学習器のことをいう。復元器は、一般のデータを用いて学習するが、各DNNそれぞれの学習に用いたデータと異なるデータを用いて学習する。これは、DNNの学習に用いたデータと復元器の学習に用いるデータとの独立性を担保するためである。 The restorer learning unit 11 learns the restorer corresponding to the DNN for each of the plurality of DNNs. The term "restoring device" as used herein refers to a learning device that restores the data input to the DNN from the characteristics obtained from the intermediate layer (deep layer) of the DNN. The restorer learns using general data, but learns using data different from the data used for learning each DNN. This is to ensure independence between the data used for learning the DNN and the data used for learning the restorer.

例えば、復元器学習部11は、データ群21に含まれるデータを複数のDNNに入力する。復元器学習部11は、複数のDNNの中間層から得られるそれぞれの特徴を抽出し、抽出したそれぞれの特徴を複数のDNNに対応する復元器に入力する。復元器学習部11は、それぞれの復元器から出力される復元データ22と、それぞれのDNNに入力されたデータとを比較し、誤差が小さくなるように、それぞれの復元器を学習する。なお、どの中間層から特徴を抽出するかは、後述する層決定部15によって決定される。 For example, the restorer learning unit 11 inputs the data included in the data group 21 to a plurality of DNNs. The restorer learning unit 11 extracts the respective features obtained from the intermediate layers of the plurality of DNNs and inputs the extracted respective features to the restorers corresponding to the plurality of DNNs. The restorer learning unit 11 compares the restored data 22 output from each restorer with the data input to each DNN, and learns each restorer so that the error becomes small. The intermediate layer from which the feature is extracted is determined by the layer determination unit 15 described later.

復元データ生成部12は、判別対象の新たなデータに対して、DNN、復元器を通して復元データ22を生成する。すなわち、復元データ生成部12は、判別対象の新たなデータをDNNに入力し、DNNの中間層から抽出される特徴を復元器に入力し、復元器から復元データ(新データ)23を出力する。 The restored data generation unit 12 generates restored data 22 for the new data to be determined through the DNN and the restorer. That is, the restored data generation unit 12 inputs new data to be determined to the DNN, inputs the features extracted from the middle layer of the DNN to the restorer, and outputs the restored data (new data) 23 from the restorer. ..

DNN選択部13は、新たなデータについて複数の復元器それぞれから出力されるデータおよび新たなデータに基づき、誤差の最も小さい復元器を選択し、選択した復元器に対応するDNNを選択する。誤差が最も小さければ、対応するDNNの中間層が有効な特徴をより多く持っていることになるので、DNN選択部13は、当該DNNを新たなデータを判別するDNNとして選択する。すなわち、DNN選択部13は、誤差によって新たなデータに対して各DNNが有効な特徴をどれだけ抽出できていたかを見積もる。これにより、確信度は、DNNに入力する未知のデータに対して高くなってしまうことがしばしばあるのに対して、誤差は、DNNに入力する未知のデータに対して大きくなることが期待できる。 The DNN selection unit 13 selects the restorer with the smallest error based on the data output from each of the plurality of restorers and the new data for the new data, and selects the DNN corresponding to the selected restorer. If the error is the smallest, it means that the intermediate layer of the corresponding DNN has more effective features, so the DNN selecting unit 13 selects the DNN as a DNN for discriminating new data. That is, the DNN selection unit 13 estimates how many effective features each DNN has extracted from the new data due to the error. As a result, the confidence factor is often high for unknown data input to the DNN, while the error can be expected to be large for unknown data input to the DNN.

判別部14は、判別対象の新たなデータを、選択されたDNNを用いて判別(分類)する。 The discriminating unit 14 discriminates (classifies) new data to be discriminated using the selected DNN.

ここで、復元器学習部11による復元器学習の流れの一例を、図3を参照して説明する。図3は、実施例1に係る復元器学習の流れの一例を示す図である。図3には、複数のDNNと複数のDNNそれぞれに対応する復元器とが表わされている。複数のDNNとして、犬の種類を判別するDNN−1、猫の種類を判別するDNN−2および鳥の種類を判別するDNN−3が挙げられている。DNN−1に対応する復元器として、復元器−1が挙げられている。DNN−2に対応する復元器として、復元器−2が挙げられている。DNN−3に対応する復元器として、復元器−3が挙げられている。 Here, an example of the flow of the restorer learning by the restorer learning unit 11 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of the flow of the restorer learning according to the first embodiment. FIG. 3 shows a plurality of DNNs and a restorer corresponding to each of the plurality of DNNs. As the plurality of DNNs, DNN-1 for discriminating the type of dog, DNN-2 for discriminating the type of cat, and DNN-3 for discriminating the type of bird are listed. The restorer-1 is mentioned as a restorer corresponding to DNN-1. The restorer-2 is mentioned as a restorer corresponding to DNN-2. The restorer-3 is mentioned as a restorer corresponding to DNN-3.

このような状況の下、復元器学習部11は、データ群21に含まれるデータをDNN−1,DDN−2およびDNN−3に入力する。復元器学習部11は、DNN−1の中間層から得られる特徴を抽出し、抽出した特徴を復元器−1に入力する。復元器学習部11は、DNN−2の中間層から得られる特徴を抽出し、抽出した特徴を復元器−2に入力する。復元器学習部11は、DNN−3の中間層から得られる特徴を抽出し、抽出した特徴を復元器−3に入力する。復元器学習部11は、復元器−1から出力される復元データ22−1と、DNN−1に入力されたデータとを比較し、誤差が小さくなるように、復元器−1を学習する。復元器学習部11は、復元器−2から出力される復元データ22−2と、DNN−2に入力されたデータとを比較し、誤差が小さくなるように、復元器−2を学習する。復元器学習部11は、復元器−3から出力される復元データ22−3と、DNN−3に入力されたデータとを比較し、誤差が小さくなるように、復元器−3を学習する。 Under such a situation, the restorer learning unit 11 inputs the data included in the data group 21 to DNN-1, DDN-2, and DNN-3. The restorer learning unit 11 extracts the features obtained from the intermediate layer of DNN-1 and inputs the extracted features to the restorer-1. The restorer learning unit 11 extracts the features obtained from the intermediate layer of DNN-2 and inputs the extracted features to the restorer-2. The restorer learning unit 11 extracts a feature obtained from the intermediate layer of DNN-3 and inputs the extracted feature to the restorer-3. The restorer learning unit 11 compares the restored data 22-1 output from the restorer-1 with the data input to the DNN-1, and learns the restorer-1 so that the error becomes small. The restorer learning unit 11 compares the restored data 22-2 output from the restorer-2 with the data input to the DNN-2, and learns the restorer-2 so that the error becomes small. The restorer learning unit 11 compares the restored data 22-3 output from the restorer-3 with the data input to the DNN-3, and learns the restorer-3 so that the error becomes small.

ここで、DNN選択部13によるDNN選択の流れの一例を、図4を参照して説明する。図4は、実施例1に係るDNN選択の流れの一例を示す図である。図4には、複数のDNNと複数のDNNそれぞれに対応する学習済みの復元器とが表わされている。複数のDNNとして、犬の種類を判別するDNN−1、猫の種類を判別するDNN−2および鳥の種類を判別するDNN−3が挙げられている。DNN−1に対応する復元器として、復元器−1が挙げられている。DNN−2に対応する復元器として、復元器−2が挙げられている。DNN−3に対応する復元器として、復元器−3が挙げられている。 Here, an example of the flow of DNN selection by the DNN selection unit 13 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of the flow of DNN selection according to the first embodiment. FIG. 4 shows a plurality of DNNs and a learned restorer corresponding to each of the plurality of DNNs. As the plurality of DNNs, DNN-1 for discriminating the type of dog, DNN-2 for discriminating the type of cat, and DNN-3 for discriminating the type of bird are listed. The restorer-1 is mentioned as a restorer corresponding to DNN-1. The restorer-2 is mentioned as a restorer corresponding to DNN-2. The restorer-3 is mentioned as a restorer corresponding to DNN-3.

このような状況の下、復元データ生成部12は、判別対象の新たなデータをDNN−1,DNN−2およびDNN−3に入力する。復元データ生成部12は、DNN−1の中間層から得られる特徴を抽出し、抽出した特徴を復元器−1に入力し、復元データ−1を出力する。復元データ生成部12は、DNN−2の中間層から得られる特徴を抽出し、抽出した特徴を復元器−2に入力し、復元データ−2を出力する。復元データ生成部12は、DNN−3の中間層から得られる特徴を抽出し、抽出した特徴を復元器−3に入力し、復元データ−3を出力する。DNN選択部13は、復元器−1から出力される復元データ−1と、新たなデータとを比較し、誤差を算出する。DNN選択部13は、復元器−2から出力される復元データ−2と、新たなデータとを比較し、誤差を算出する。DNN選択部13は、復元器−3から出力される復元データ−3と、新たなデータとを比較し、誤差を算出する。 Under such a situation, the restored data generation unit 12 inputs new data to be determined to DNN-1, DNN-2 and DNN-3. The restored data generation unit 12 extracts the features obtained from the intermediate layer of DNN-1, inputs the extracted features into the restorer-1, and outputs the restored data-1. The restored data generation unit 12 extracts the features obtained from the intermediate layer of DNN-2, inputs the extracted features to the restorer-2, and outputs the restored data-2. The restored data generation unit 12 extracts the features obtained from the intermediate layer of the DNN-3, inputs the extracted features to the restorer-3, and outputs the restored data-3. The DNN selection unit 13 compares the restored data-1 output from the restorer-1 with the new data, and calculates an error. The DNN selection unit 13 compares the restored data-2 output from the restorer-2 with the new data, and calculates an error. The DNN selection unit 13 compares the restored data-3 output from the restorer-3 with the new data, and calculates an error.

そして、DNN選択部13は、誤差の最も小さい復元器を選択し、選択した復元器に対応するDNNを選択する。ここでは、復元データ−1と新たなデータとの誤差は、0.5と算出される。復元データ−2と新たなデータとの誤差は、0.1と算出される。復元データ−3と新たなデータとの誤差は、1.2と算出される。そこで、DNN選択部13は、誤差の最も小さい復元データ−2を出力した復元器−2を選択し、選択した復元器−2に対応するDNN−2を選択する。 Then, the DNN selection unit 13 selects the restorer with the smallest error and selects the DNN corresponding to the selected restorer. Here, the error between the restored data-1 and the new data is calculated as 0.5. The error between the restored data-2 and the new data is calculated as 0.1. The error between the restored data-3 and the new data is calculated as 1.2. Therefore, the DNN selection unit 13 selects the restorer-2 that outputs the restored data-2 having the smallest error, and selects the DNN-2 corresponding to the selected restorer-2.

つまり、DNN選択部13は、判別対象の新たなデータに対して、DNNの中間層にどれだけ判別に必要な情報が残っているかによって、各DNNの選択が適当かどうかを見積もる。この結果、DNN選択部13は、判別対象の新たなデータに対して、判別するためにより適切なDNNを選択することができる。 That is, the DNN selection unit 13 estimates whether or not the selection of each DNN is appropriate, depending on how much information necessary for the discrimination remains in the middle layer of the DNN for the new data to be discriminated. As a result, the DNN selection unit 13 can select a more appropriate DNN for the discrimination with respect to the new data to be discriminated.

図1に戻って、層決定部15は、DNNの特徴を抽出する中間層を決定する。 Returning to FIG. 1, the layer determination unit 15 determines the intermediate layer from which the features of DNN are extracted.

1つの例では、DNNが畳み込みNN(Neural Network)である場合には、層決定部15は、全結合層の手前の層を、DNNの特徴を抽出する中間層として決定する。手前の層とは、一例として、1個前の層である。ここでいう畳み込みNNとは、畳み込み層、ぷーリング層の繰り返しの後、全結合層が続く構成のDNNのことをいう。 In one example, when the DNN is a convolutional NN (Neural Network), the layer determination unit 15 determines the layer before the fully connected layer as the intermediate layer from which the features of the DNN are extracted. The front layer is, for example, the previous layer. The convolutional NN as used herein refers to a DNN having a configuration in which a convolutional layer and a pulling layer are repeated, and then a total coupling layer is continued.

ここで、層決定部15による層決定の一例を、図5Aを参照して説明する。図5Aは、層決定の一例を示す図である。図5Aには、畳み込みNNとしてDNN−1が表わされているとする。例えば、層決定部15は、DNN−1の全結合層の1つ手前の層を、DNNの特徴を抽出する中間層として決定する。 Here, an example of layer determination by the layer determination unit 15 will be described with reference to FIG. 5A. FIG. 5A is a diagram illustrating an example of layer determination. It is assumed that DNN-1 is represented as the convolutional NN in FIG. 5A. For example, the layer determination unit 15 determines the layer immediately before the fully connected layer of DNN-1 as the intermediate layer from which the features of DNN are extracted.

また、別の例では、DNNのそれぞれの層について復元器が構成される場合に、層決定部15は、以下の処理を行う。すなわち、層決定部15は、それぞれの復元器について、復元器の学習に用いたデータ群21に対する復元誤差の分散が最大となる復元器に対する層を、DNNの特徴を抽出する中間層として決定する。 Further, in another example, when the restorer is configured for each layer of the DNN, the layer determining unit 15 performs the following processing. That is, the layer determination unit 15 determines, for each of the restorers, the layer for the restorer that maximizes the variance of the restore error for the data group 21 used for learning the restorer, as the intermediate layer for extracting the DNN feature. ..

ここで、層決定部15による層決定の別の例を、図5Bを参照して説明する。図5Bは、層決定の別の例を示す図である。図5Bには、DNN−1とDNN−1のそれぞれの層について構成される復元器とが表わされている。例えば、層決定部15は、それぞれの復元器について、復元器の学習に用いたデータ群21に対する復元誤差の分散が最大となる復元器に対する層を、DNNの特徴を抽出する中間層として決定する。復元誤差の分散が最大となる復元器に対する層を中間層として決定するのは、以下の理由による。復元誤差の分散が大きければ、うまく復元できるデータとうまく復元できないデータとが存在することになる。したがって、復元に得意なクラスと不得意なクラスとで復元の良否に差があることとなり、DNNの選択に利用しやすいからである。 Here, another example of layer determination by the layer determination unit 15 will be described with reference to FIG. 5B. FIG. 5B is a diagram showing another example of layer determination. FIG. 5B shows a DNN-1 and a reconstructor configured for each layer of DNN-1. For example, the layer determination unit 15 determines, for each restorer, the layer for the restorer that maximizes the variance of the restore error for the data group 21 used for learning the restorer, as the intermediate layer for extracting the DNN feature. .. The reason why the layer for the restorer that maximizes the variance of the restoration error is determined as the intermediate layer is as follows. If the variance of the restoration error is large, there are data that can be restored well and data that cannot be restored well. Therefore, there is a difference in the quality of restoration between the class that is good at restoration and the class that is not good at restoration, and it is easy to use for the selection of DNN.

ここで、実施例1と従来技術とのDNN選択の動作の比較を、図6Aおよび図6Bを参照して説明する。図6Aおよび図6Bは、実施例1と従来技術とのDNN選択の動作の比較を示す図である。図6Aは、従来技術のDNN選択の動作を示す図である。図6Aには、犬の種類を判別するDNN−1、猫の種類を判別するDNN−2が表わされている。ここで、新たなデータとして猫の画像が各DNNに入力されたとする。 Here, a comparison of the operation of the DNN selection between the first embodiment and the conventional technique will be described with reference to FIGS. 6A and 6B. 6A and 6B are diagrams showing a comparison of the operation of the DNN selection between the first embodiment and the conventional technique. FIG. 6A is a diagram showing a conventional DNN selection operation. FIG. 6A shows DNN-1 for discriminating the type of dog and DNN-2 for discriminating the type of cat. Here, it is assumed that a cat image is input to each DNN as new data.

猫の画像がDNN−1によって判別された場合には、判別結果が、DNN−1の特徴空間の中で、犬種cのクラスに写像されるが、犬種abcの各クラスの境界面から離れた場所であって既に学習された学習データからも離れた場所に写像される。これは、猫画像が犬の種類を判別するDNN−1にとって未知のデータであるので、既に学習された学習データとは離れた場所に写像されるためである。ところが、判別結果が、境界面から離れているので、DNN−1は、高い確信度で犬種cと判定してしまう。 When the image of the cat is discriminated by DNN-1, the discrimination result is mapped to the class of dog breed c in the feature space of DNN-1, but from the boundary surface of each class of dog breed abc. It is mapped to a distant place and a place distant from the already learned learning data. This is because the cat image is unknown data for DNN-1, which discriminates the type of dog, and is therefore mapped to a place apart from the already learned learning data. However, since the determination result is far from the boundary surface, DNN-1 determines that the breed is c with a high degree of certainty.

猫の画像がDNN−2によって判別された場合には、判別結果が、DNN−2の特徴空間の中で、猫種aのクラスに写像されるが、猫種abcの各クラスの境界面に近い場所であって既に学習された学習データと同じような場所に写像される。これは、猫の種類を判別するDNN−2が新たなデータである猫画像を見たことがあるので、既に学習された学習データと同じような場所に写像されるためである。ところが、判別結果が、境界面から近いので、DNN−2は、低い確信度で猫種aと判定してしまう。 When the image of the cat is discriminated by DNN-2, the discrimination result is mapped to the class of cat species a in the feature space of DNN-2, but on the boundary surface of each class of cat species abc. It is mapped to a place close to the same place as the already learned learning data. This is because the DNN-2 that discriminates the type of cat has seen a cat image that is new data, and is therefore mapped to the same place as the already learned learning data. However, since the determination result is close to the boundary surface, DNN-2 determines that it is a cat breed a with a low certainty factor.

したがって、従来技術のDNN選択では、新たなデータが猫の画像であるので、本来はDNN−2が選択されるべきであるが、より高い確信度を出力したDNN−1が選択されてしまう。 Therefore, in the conventional DNN selection, since the new data is a cat image, DNN-2 should be selected originally, but DNN-1 that outputs a higher certainty factor is selected.

これに対して、図6Bは、実施例1のDNN選択の動作を示す図である。図6Bには、図6Aと同様のDNN−1、DNN−2が表わされている。さらに、DNN−1に対応する復元器として、復元器−1が表されている。DNN−2に対応する復元器として、復元器−2が表わされている。復元器−1,2は、復元器学習部11によってDNN−1,2に入力されたデータと復元データとの誤差が小さくなるように既に学習されたものである。ここで、新たなデータとして猫の画像が各DNNに入力されたとする。 On the other hand, FIG. 6B is a diagram showing the operation of the DNN selection according to the first embodiment. 6B shows DNN-1 and DNN-2 similar to FIG. 6A. Furthermore, the restorer-1 is shown as a restorer corresponding to DNN-1. A restorer-2 is shown as a restorer corresponding to DNN-2. The restorers-1 and 2 have already been learned by the restorer learning unit 11 so that the error between the data input to the DNN-1 and DNN and the restored data becomes small. Here, it is assumed that a cat image is input to each DNN as new data.

実施例1に係るDNN選択部13は、DNN−1の中間層から得られる特徴を抽出し、抽出した特徴を復元器−1に入力し、復元器−1から出力される復元画像と、新たなデータである猫の画像とを比較し、誤差を算出する。ここでは、DNN−1は犬種を判別する学習しかしていないため、中間層には、猫についての特徴は残っていない。したがって、DNN選択部13は、誤差として大きい値を算出する。つまり、猫の画像がDNN−1によって判別された場合には、判別結果が、DNN−1の特徴空間の中で、犬種abcの各クラスの境界面から離れた場所であって既に学習された学習データから離れた場所に写像される。従来技術では、未知の画像である猫の画像に対して犬種cの確信度が高くなるが、実施例1に係るDNN選択部13では、未知の画像である猫の画像に対して復元誤差が大きくなる。 The DNN selection unit 13 according to the first embodiment extracts the features obtained from the intermediate layer of the DNN-1, inputs the extracted features to the restorer-1, and outputs the restored image output from the restorer-1 and a new image. The error is calculated by comparing the data with the image of the cat which is various data. Here, since DNN-1 only learns to discriminate dog breeds, the characteristics of cats do not remain in the middle layer. Therefore, the DNN selection unit 13 calculates a large value as the error. That is, when the image of the cat is discriminated by DNN-1, the discrimination result is already learned in the feature space of DNN-1 at a place distant from the boundary surface of each class of dog breed abc. It is mapped to a place apart from the learning data. In the conventional technique, the certainty factor of the dog breed c is higher than the cat image which is the unknown image, but the DNN selecting unit 13 according to the first embodiment restores the error of the cat image which is the unknown image. Will grow.

DNN選択部13は、DNN−2の中間層から得られる特徴を抽出し、抽出した特徴を復元器−2に入力し、復元器−2から出力される復元画像と、新たなデータである猫の画像とを比較し、誤差を算出する。ここでは、DNN−2は猫種を判別する学習をしているため、中間層には、猫についての特徴が残っている。したがって、DNN選択部13は、誤差として復元器―1の場合と比べて小さい値を算出する。つまり、猫の画像がDNN−1によって判別された場合には、判別結果が、猫種aのクラスに写像されるが、猫種abcの各クラスの境界面に近い場所であって既に学習された学習データと同じような場所に写像される。従来技術では、境界面から近くに写像された猫の画像に対して猫種aの確信度が低くなるが、実施例1に係るDNN選択部13では、見分ける学習をした猫の画像に対して復元誤差が小さくなる。 The DNN selection unit 13 extracts the features obtained from the intermediate layer of the DNN-2, inputs the extracted features to the restorer-2, and outputs the restored image output from the restorer-2 and the cat that is new data. Then, the error is calculated by comparing with the image of. Here, since DNN-2 is learning to discriminate the cat species, the features regarding cats remain in the middle layer. Therefore, the DNN selection unit 13 calculates a smaller value as an error than in the case of the restorer-1. That is, when a cat image is discriminated by DNN-1, the discrimination result is mapped to the class of cat species a, but it is already learned at a place near the boundary surface of each class of cat species abc. It is mapped to the same place as the training data. In the conventional technique, the certainty factor of the cat species a is lower than that of the cat image that is mapped close to the boundary surface. However, the DNN selection unit 13 according to the first embodiment performs the learning of the cat image with respect to the cat image. The restoration error becomes small.

したがって、実施例1に係るDNN選択部13は、復元誤差を比較することで、より適切にDNN−2を選択できる。 Therefore, the DNN selection unit 13 according to the first embodiment can select the DNN-2 more appropriately by comparing the restoration errors.

[実施例1に係るDNN選択処理のフローチャート]
図7は、実施例1に係るDNN選択処理のフローチャートの一例を示す図である。
[Flowchart of DNN selection processing according to the first embodiment]
FIG. 7 is a diagram illustrating an example of a flowchart of the DNN selection process according to the first embodiment.

図7に示すように、層決定部15および復元器学習部11は、複数のDNNの中から1つのDNNを選択する(ステップS11)。層決定部15は、選択したDNNのどの中間層から中間特徴量を取るかを決定する(ステップS12)。 As shown in FIG. 7, the layer determination unit 15 and the restorer learning unit 11 select one DNN from a plurality of DNNs (step S11). The layer determination unit 15 determines from which intermediate layer of the selected DNN to take the intermediate feature amount (step S12).

復元器学習部11は、決定した層の中間特徴量を用いて、選択したDNNに対応する復元器を一般データ(データ群21)で学習する(ステップS13)。例えば、復元器学習部11は、データ群21に含まれるデータを選択したDNNに入力する。復元器学習部11は、選択したDNNの中間層から得られる中間特徴量を抽出し、抽出した中間特徴量を選択したDNNに対応する復元器に入力する。復元器学習部11は、復元器から出力される復元データ22と、選択したDNNに入力されたデータとを比較し、誤差が小さくなるように、復元器を学習する。 The restorer learning unit 11 learns the restorer corresponding to the selected DNN with the general data (data group 21) by using the determined intermediate feature amount of the layer (step S13). For example, the restorer learning unit 11 inputs the data included in the data group 21 to the selected DNN. The restorer learning unit 11 extracts the intermediate feature amount obtained from the intermediate layer of the selected DNN, and inputs the extracted intermediate feature amount to the restorer corresponding to the selected DNN. The restorer learning unit 11 compares the restored data 22 output from the restorer with the data input to the selected DNN, and learns the restorer so that the error becomes small.

層決定部15および復元器学習部11は、全てのDNNを選択したか否かを判定する(ステップS14)。全てのDNNを選択していないと判定した場合には(ステップS14;No)、層決定部15および復元器学習部11は、次のDNNを選択すべく、ステップS11に移行する。 The layer determination unit 15 and the restorer learning unit 11 determine whether all DNNs have been selected (step S14). When it is determined that all the DNNs have not been selected (step S14; No), the layer determination unit 15 and the restorer learning unit 11 move to step S11 to select the next DNN.

一方、全てのDNNを選択したと判定した場合には(ステップS14;Yes)、復元データ生成部12は、複数のDNNの中から1つのDNNを選択する(ステップS15)。 On the other hand, when it is determined that all DNNs have been selected (step S14; Yes), the restored data generation unit 12 selects one DNN from the plurality of DNNs (step S15).

復元データ生成部12は、選択したDNNに判別対象の新たなデータを入力し、DNN選択部13は、復元誤差を計算する(ステップS16)。例えば、復元データ生成部12は、新たなデータを選択したDNNに入力する。復元データ生成部12は、選択したDNNの中間層から得られる中間特徴量を抽出し、抽出した中間特徴量を選択したDNNに対応する復元器に入力する。復元データ生成部12は、復元器から復元データ22を出力する。DNN選択部13は、復元器から出力された復元データ22と、新たなデータとを比較し、復元誤差を計算する。 The restored data generation unit 12 inputs new data to be discriminated into the selected DNN, and the DNN selection unit 13 calculates the restored error (step S16). For example, the restored data generation unit 12 inputs new data to the selected DNN. The restored data generation unit 12 extracts the intermediate feature amount obtained from the intermediate layer of the selected DNN, and inputs the extracted intermediate feature amount to the restorer corresponding to the selected DNN. The restored data generator 12 outputs the restored data 22 from the restorer. The DNN selection unit 13 compares the restored data 22 output from the restorer with the new data, and calculates the restoration error.

復元データ生成部12は、全てのDNNを選択したか否かを判定する(ステップS17)。全てのDNNを選択していないと判定した場合には(ステップS17;No)、復元データ生成部12は、次のDNNを選択すべく、ステップS15に移行する。 The restored data generation unit 12 determines whether all DNNs have been selected (step S17). When it is determined that all the DNNs have not been selected (step S17; No), the restored data generation unit 12 proceeds to step S15 to select the next DNN.

一方、全てのDNNを選択したと判定した場合には(ステップS17;Yes)、DNN選択部13は、復元誤差の最も小さい復元器に対応するDNNを選択する(ステップS18)。そして、判別部14は、選択したDNNに判別対象の新たなデータを入力し、判別結果を出力する(ステップS19)。 On the other hand, when it is determined that all the DNNs have been selected (step S17; Yes), the DNN selection unit 13 selects the DNN corresponding to the restorer with the smallest restoration error (step S18). Then, the discrimination unit 14 inputs new data to be discriminated into the selected DNN and outputs the discrimination result (step S19).

[実施例1の効果]
このようにして、情報処理装置1は、複数のDNNそれぞれについて、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を、複数のDNNそれぞれの学習に用いたデータと異なるデータにより学習する。情報処理装置1は、新たなデータについて、複数の復元器それぞれから出力されるデータおよび新たなデータに基づき選択される復元器に対応するDNNを選択する。かかる構成によれば、情報処理装置1は、DNNの中間層から得られる特徴から復元したデータと新たなデータをを用いることで、より適切なDNNを選択することが可能になる。
[Effect of Example 1]
In this manner, the information processing device 1 uses, for each of the plurality of DNNs, a restorer that restores the data to be input to the DNN from the characteristics obtained from the intermediate layer of the DNN and the data used for learning of the plurality of DNNs. Learn with different data. The information processing device 1 selects, for new data, the DNN corresponding to the data output from each of the plurality of restorers and the restorer selected based on the new data. According to this configuration, the information processing device 1 can select a more appropriate DNN by using the data restored from the characteristics obtained from the intermediate layer of the DNN and the new data.

また、情報処理装置1は、複数の復元器それぞれから出力されるデータと、新たなデータとの誤差を算出し、算出した誤差が最小となるデータの復元器に対応するDNNを選択する。かかる構成によれば、情報処理装置1は、復元器から出力されるデータと新たなデータとの誤差を用いることで、より適切なDNNを選択することができる。 Further, the information processing device 1 calculates the error between the data output from each of the plurality of restorers and the new data, and selects the DNN corresponding to the restorer of the data having the smallest calculated error. According to such a configuration, the information processing device 1 can select a more appropriate DNN by using the error between the data output from the decompressor and the new data.

また、情報処理装置1は、中間層として用いる層を、DNNが畳み込みDNNである場合に、全結合層に近い層とする。かかる構成によれば、情報処理装置1は、DNNの特徴を得る中間層を全結合層に近い層とすることで、DNNが担当するタスクそのものの特徴の情報量を見積もることができる。 Further, the information processing device 1 sets the layer used as the intermediate layer to be a layer close to the fully connected layer when the DNN is the convolutional DNN. According to such a configuration, the information processing apparatus 1 can estimate the amount of information of the characteristics of the task itself handled by the DNN by setting the intermediate layer that obtains the characteristics of the DNN as a layer close to the fully connected layer.

また、情報処理装置1は、中間層として用いる層を、DNNのそれぞれの層を用いた場合のそれぞれの復元器について、学習に用いたデータに対する復元誤差の分散が最大となる復元器に対する層とする。かかる構成によれば、情報処理装置1は、復元誤差の分散が大きければ、うまく復元できる場合とうまく復元できない場合とが存在することになるので、復元誤差を用いたDNNの選択に利用することができる。 In addition, the information processing apparatus 1 sets the layer used as the intermediate layer as the layer for the restorer that maximizes the variance of the restore error for the data used for learning for each restorer when each layer of the DNN is used. To do. According to this configuration, the information processing apparatus 1 has a case in which restoration can be performed successfully and a case in which restoration cannot be performed well if the variance of the restoration error is large. You can

ところで、実施例1では、情報処理装置1は、複数のDNNや復元器の規模に差が無い場合に、判別対象の新たなデータに対してどのDNNを適用するかを選択した。すなわち、情報処理装置1は、複数のDNNそれぞれについて、DNNに入力するデータを当該DNNの中間層(深い層)から得られる特徴から復元する復元器を学習する。そして、情報処理装置1は、判別対象の新たなデータについて、複数の復元器それぞれから出力されるデータおよび当該新たなデータに基づき選択される復元器に対応するDNNを選択すると説明した。しかしながら、情報処理装置1は、これに限定されず、複数のDNNや復元器の規模に差が有る場合に、判別対象の新たなデータに対してどのDNNを適用するかを選択するようにしても良い。ここでいうDNNの規模とは、例えば、層の多少や層に属するユニットの多少のことをいう。 By the way, in the first embodiment, the information processing apparatus 1 selects which DNN is to be applied to new data to be discriminated when there is no difference in the scale of the plurality of DNNs and the restorer. That is, the information processing device 1 learns, for each of the plurality of DNNs, a restorer that restores the data input to the DNN from the characteristics obtained from the intermediate layer (deep layer) of the DNN. Then, it is described that the information processing apparatus 1 selects the DNN corresponding to the data output from each of the plurality of restorers and the restorer selected based on the new data for the new data to be determined. However, the information processing apparatus 1 is not limited to this, and when there is a difference in the scale of a plurality of DNNs or a restorer, it is possible to select which DNN to apply to new data to be determined. Is also good. The scale of the DNN here means, for example, the number of layers and the number of units belonging to each layer.

そこで、実施例2では、情報処理装置1は、複数のDNNや復元器の規模に差が有る場合に、判別対象の新たなデータに対してどのDNNを適用するかを選択する情報処理装置1について説明する。 Therefore, in the second embodiment, the information processing apparatus 1 selects which DNN to apply to new data to be determined when the plurality of DNNs and the size of the restorer are different. Will be described.

[実施例2に係る情報処理装置の構成]
図8は、実施例2に係る情報処理装置の構成を示す機能ブロック図である。なお、図1に示す情報処理装置1と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、制御部10に補助DNN学習部31、復元しやすさ計算部32および確信度計算部33を追加した点にある。また、記憶部20のデータ群21をデータ群21Aに変更した点にある。制御部10のDNN選択部13をDNN選択部13Aに変更した点にある。記憶部20にクラス別復元しやすさ41およびクラス別確信度42を追加した点にある。
[Configuration of Information Processing Device According to Second Embodiment]
FIG. 8 is a functional block diagram of the configuration of the information processing apparatus according to the second embodiment. The same components as those of the information processing device 1 shown in FIG. The difference between the first embodiment and the second embodiment is that an auxiliary DNN learning unit 31, a restoration easiness calculation unit 32, and a certainty factor calculation unit 33 are added to the control unit 10. In addition, the data group 21 of the storage unit 20 is changed to a data group 21A. The point is that the DNN selection unit 13 of the control unit 10 is changed to the DNN selection unit 13A. The point is that class-based restoration ease 41 and class-based certainty factor 42 are added to the storage unit 20.

データ群21Aは、復元器および後述する補助DNNを学習するために用いられる一般の自然画像などの学習データの集合であり、ラベル(クラス)付きの学習データの集合である。データ群21Aは、各DNNの学習データと異なる学習データの集合である。なお、データ群21Aは、例えばImageNet(150k images,1000classes)のような様々なデータを備え、クラス数も多いデータであることが望ましい。 The data group 21A is a set of learning data such as a general natural image used for learning a restorer and an auxiliary DNN described later, and is a set of learning data with a label (class). The data group 21A is a set of learning data different from the learning data of each DNN. The data group 21A preferably includes various data such as ImageNet (150k images, 1000classes) and has a large number of classes.

クラス別復元しやすさ41は、復元器のクラス毎の復元のしやすさを示す情報であり、復元器毎に存在する。1つのクラスの復元のしやすさは、例えばデータ群21Aに含まれる当該クラスの複数のデータについて、これらデータとこれらデータの復元器から出力される復元データとの復元誤差の平均値の逆数である。すなわち、復元誤差の平均値が小さければ、復元のしやすさは、大きくなる。復元誤差の平均値が大きければ、復元のしやすさは、小さくなる。クラス別復元しやすさ41は、復元しやすさ計算部32によって生成される。 The class-based restoration ease 41 is information indicating the ease of restoration for each class of the restorer, and is present for each restorer. The easiness of restoration of one class is, for example, the reciprocal of the average value of the restoration error between a plurality of data of the class included in the data group 21A and the restored data output from the restorer of these data. is there. That is, if the average value of the restoration error is small, the ease of restoration becomes large. If the average value of the restoration error is large, the ease of restoration is small. The class-based restoration ease 41 is generated by the restoration ease calculation unit 32.

クラス別確信度42は、新たなデータについて、補助DNNによりクラスを判別させた際に出力されるクラス毎の確信度を示す情報である。ここでいう補助DNNとは、データのクラス(ラベルの種類)を判別する学習器のことをいう。補助DNNは、学習する際、復元器の学習に用いたデータ群21Aに含まれるデータと同じデータを用いて学習する。学習済みの補助DNNは、新たなデータに対して、クラス毎の確信度であるクラス別確信度42を出力する。 The class-wise certainty factor 42 is information indicating the certainty factor for each class, which is output when the class is discriminated by the auxiliary DNN for new data. The auxiliary DNN referred to here is a learning device that discriminates a data class (label type). When learning, the auxiliary DNN learns using the same data as the data included in the data group 21A used for learning the restorer. The learned auxiliary DNN outputs the class-specific confidence 42, which is the confidence for each class, with respect to the new data.

補助DNN学習部31は、データのクラス(ラベルの種類)を判別する補助DNNを学習する。例えば、補助DNN学習部31は、復元器の学習に用いたデータ群21に含まれるデータと同じデータにより学習する。 The auxiliary DNN learning unit 31 learns the auxiliary DNN for discriminating the data class (label type). For example, the auxiliary DNN learning unit 31 learns with the same data as the data included in the data group 21 used for learning the restorer.

復元しやすさ計算部32は、データ群21Aを用いて、複数の学習済みの復元器それぞれのクラス毎の復元のしやすさを計算する。例えば、復元しやすさ計算部32は、データ群21Aに含まれる複数のデータを順次複数のDNNに入力する。以下は、複数のDNNの中の特定のDNNおよび特定のDNNに対応する復元器に着目して、処理の説明をする。復元しやすさ計算部32は、入力したデータについて、特定のDNNの中間層から得られる特徴を抽出し、抽出した特徴を当該DNNに対応する復元器に入力する。復元しやすさ計算部32は、復元器から出力される復元データ22と、特定のDNNに入力されたデータとを比較し、復元誤差を算出する。復元しやすさ計算部32は、特定のDNNに入力されたデータのラベル(クラス)に対応付けて算出された復元誤差を保持する。復元しやすさ計算部32は、複数のデータの他のデータに関しても、特定のDNNについて、それぞれ特定のDNNに入力されたデータのラベル(クラス)に対応付けて算出される復元誤差を保持する。そして、復元しやすさ計算部32は、特定のDNNに対応する復元器について、クラス毎に、復元誤差の平均値の逆数を算出して、クラス別復元しやすさ41を計算する。復元しやすさ計算部32は、複数のDNNの中の他のDNNに対応する復元器についても、同様に、クラス別復元しやすさ41を計算する。 The easiness of restoration calculation unit 32 uses the data group 21A to calculate easiness of restoration for each class of the plurality of learned restorers. For example, the restoration easiness calculation unit 32 sequentially inputs the plurality of data included in the data group 21A to the plurality of DNNs. Hereinafter, the processing will be described by focusing on a specific DNN among a plurality of DNNs and a restorer corresponding to the specific DNN. The restoration easiness calculation unit 32 extracts, from the input data, a feature obtained from the middle layer of a specific DNN, and inputs the extracted feature to the restorer corresponding to the DNN. The restoration easiness calculation unit 32 compares the restoration data 22 output from the restoration device with the data input to the specific DNN to calculate the restoration error. The restoration easiness calculation unit 32 holds the restoration error calculated in association with the label (class) of the data input to the specific DNN. The restoration easiness calculation unit 32 holds the restoration error calculated in association with the label (class) of the data input to the specific DNN for the specific DNN even for other data of the plurality of data. .. Then, the restoration easiness calculation unit 32 calculates the reciprocal 41 of the restoration by class by calculating the reciprocal of the average value of the restoration error for each class for the restoration device corresponding to the specific DNN. The restoration easiness calculation unit 32 similarly calculates the restoration easiness 41 for each class for the restoration devices corresponding to other DNNs among the plurality of DNNs.

確信度計算部33は、判別対象の新たなデータに対して、学習済みの補助DNNを通して、クラス別確信度42を計算する。 The certainty factor calculation unit 33 calculates the class certainty factor 42 for the new data to be discriminated through the learned auxiliary DNN.

DNN選択部13Aは、新たなデータについて、複数の復元器それぞれのクラス別復元しやすさ41とクラス別確信度42とを比較し、最も傾向が類似するクラス別復元しやすさ41の復元器を選択し、選択した復元器に対応するDNNを選択する。なお、クラス別復元しやすさ41とクラス別確信度42との類似度は、例えばコサイン類似度を用いれば良い。クラス別復元しやすさ41は、DNNおよび復元器における、データ群21Aに対する相対的な復元のしやすさの情報を意味する。したがって、DNN選択部13Aは、複数のDNNおよび復元器の規模に差が有る場合であっても、クラス別復元しやすさ41を用いることで、判別対象の新たなデータに対してどのDNNを適用するかを選択できる。 The DNN selection unit 13A compares the class-based restoration ease 41 and the class-based certainty degree 42 of each of the plurality of restorers with respect to the new data, and the restorer having the class-based restoration ease 41 having the most similar tendency. And select the DNN corresponding to the selected restorer. For the similarity between the class-based restoration ease 41 and the class-based certainty factor 42, for example, the cosine similarity may be used. The ease of restoration by class 41 means information on the ease of restoration relative to the data group 21A in the DNN and the restorer. Therefore, the DNN selection unit 13A uses the ease of restoration 41 for each class to determine which DNN to use for new data to be discriminated, even when there is a difference in the scale of the plurality of DNNs and the restoration unit. You can choose whether to apply.

ここで、復元器学習部11による復元器学習および補助DNN学習部31による補助DNN学習の流れの一例を、図9を参照して説明する。図9は、実施例2に係る復元器学習および補助DNN学習の流れの一例を示す図である。なお、復元器学習部11による復元器学習の流れは、図3で説明したので、省略する。 Here, an example of the flow of the restorer learning by the restorer learning unit 11 and the auxiliary DNN learning by the auxiliary DNN learning unit 31 will be described with reference to FIG. 9. FIG. 9 is a diagram illustrating an example of the flow of the restorer learning and the auxiliary DNN learning according to the second embodiment. The flow of the restorer learning by the restorer learning unit 11 has been described with reference to FIG.

図9で示される一般のデータは、データ群21Aの一例である。補助DNN学習部31は、復元器の学習に用いたデータ群21Aに含まれるそれぞれのラベル付きデータを補助DNNに入力する。そして、補助DNN学習部31は、入力したラベル付きデータのラベルの入力に応じて、入力されたデータのラベルの判別結果が、入力されたデータに付されたラベルに近づくように学習する。 The general data shown in FIG. 9 is an example of the data group 21A. The auxiliary DNN learning unit 31 inputs, to the auxiliary DNN, each labeled data included in the data group 21A used for learning the restorer. Then, the auxiliary DNN learning unit 31 learns in accordance with the input of the label of the input labeled data so that the determination result of the label of the input data approaches the label attached to the input data.

ここで、DNN選択部13AによるDNN選択の流れの一例を、図10を参照して説明する。図10は、実施例2に係るDNN選択の流れの一例を示す図である。図10には、複数のDNNと複数のDNNそれぞれに対応する学習済みの復元器と補助DNNとが表わされている。なお、図10では、それぞれの学習済みの復元器のクラス別復元しやすさ41−1,41−2,41−3が、復元しやすさ計算部32によって計算されたものとする。 Here, an example of the flow of DNN selection by the DNN selection unit 13A will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of the flow of DNN selection according to the second embodiment. FIG. 10 shows a plurality of DNNs and a learned restorer and an auxiliary DNN corresponding to each of the plurality of DNNs. In addition, in FIG. 10, it is assumed that the ease of restoration 41-1, 41-2, and 41-3 for each class of the learned restorers are calculated by the ease of restoration calculating unit 32.

このような状況の下、確信度計算部33は、判別対象の新たなデータに対して、学習済みの補助DNNを通して、クラス別確信度42を計算する。そして、DNN選択部13Aは、計算されたクラス別確信度42と、復元器−1のクラス別復元しやすさ41−1とを比較する。DNN選択部13Aは、計算されたクラス別確信度42と、復元器−2のクラス別復元しやすさ41−2とを比較する。DNN選択部13Aは、計算されたクラス別確信度42と、復元器−3のクラス別復元しやすさ41−3とを比較する。そして、DNN選択部13Aは、比較の結果、最も傾向が類似するクラス別復元しやすさ41の復元器を選択する。ここでは、復元器−2が選択される。この結果、DNN選択部13Aは、選択した復元器−2に対応するDNN−2を選択する。すなわち、DNN選択部13Aは、DNN−2が復元しやすいクラスと新たなデータの確信度が高いクラスとが類似するので、DNN−2を適用する。 Under such a situation, the certainty factor calculation unit 33 calculates the certainty factor by class 42 for the new data to be determined through the learned auxiliary DNN. Then, the DNN selection unit 13A compares the calculated class-based certainty factor 42 with the class-based restoration easiness 41-1 of the restorer-1. The DNN selection unit 13A compares the calculated class-based certainty factor 42 with the class-based restoration easiness 41-2 of the restoration unit-2. The DNN selecting unit 13A compares the calculated class-based certainty factor 42 with the class-based restoration ease 41-3 of the restoration unit-3. Then, as a result of the comparison, the DNN selecting unit 13A selects the restorer having the ease of class-based restoration 41 having the most similar tendency. Here, the restorer-2 is selected. As a result, the DNN selection unit 13A selects the DNN-2 corresponding to the selected restorer-2. That is, the DNN selection unit 13A applies DNN-2 because the class in which the DNN-2 is easily restored is similar to the class in which the certainty factor of new data is high.

これにより、DNN選択部13Aは、複数のDNNや復元器の規模に差が有る場合であっても、新たなデータに対してより適切なDNNを選択することが可能となる。 As a result, the DNN selection unit 13A can select a more appropriate DNN for new data even when there is a difference in the scale of the plurality of DNNs and the restorer.

[実施例2に係るDNN選択処理のフローチャート]
図11は、実施例2に係るDNN選択処理のフローチャートの一例を示す図である。
[Flowchart of DNN selection processing according to the second embodiment]
FIG. 11 is a diagram illustrating an example of a flowchart of the DNN selection process according to the second embodiment.

図11に示すように、層決定部15および復元器学習部11は、複数のDNNの中から1つのDNNを選択する(ステップS21)。層決定部15は、選択したDNNのどの中間層から中間特徴量を取るかを決定する(ステップS22)。 As shown in FIG. 11, the layer determination unit 15 and the restorer learning unit 11 select one DNN from the plurality of DNNs (step S21). The layer determination unit 15 determines from which intermediate layer of the selected DNN to take the intermediate feature amount (step S22).

復元器学習部11は、決定した層の中間特徴量を用いて、選択したDNNに対応する復元器を一般データ(データ群21A)で学習する(ステップS23)。例えば、復元器学習部11は、データ群21Aに含まれるデータを選択したDNNに入力する。復元器学習部11は、選択したDNNの中間層から得られる中間特徴量を抽出し、抽出した中間特徴量を選択したDNNに対応する復元器に入力する。復元器学習部11は、復元器から出力される復元データ22と、選択したDNNに入力されたデータとを比較し、誤差が小さくなるように、復元器を学習する。 The restorer learning unit 11 learns the restorer corresponding to the selected DNN with the general data (data group 21A) using the determined intermediate feature amount of the layer (step S23). For example, the restorer learning unit 11 inputs the data included in the data group 21A to the selected DNN. The restorer learning unit 11 extracts the intermediate feature amount obtained from the intermediate layer of the selected DNN, and inputs the extracted intermediate feature amount to the restorer corresponding to the selected DNN. The restorer learning unit 11 compares the restored data 22 output from the restorer with the data input to the selected DNN, and learns the restorer so that the error becomes small.

層決定部15および復元器学習部11は、全てのDNNを選択したか否かを判定する(ステップS24)。全てのDNNを選択していないと判定した場合には(ステップS24;No)、層決定部15および復元器学習部11は、次のDNNを選択すべく、ステップS21に移行する。 The layer determination unit 15 and the restorer learning unit 11 determine whether all DNNs have been selected (step S24). When it is determined that all the DNNs have not been selected (step S24; No), the layer determination unit 15 and the restorer learning unit 11 move to step S21 to select the next DNN.

一方、全てのDNNを選択したと判定した場合には(ステップS24;Yes)、補助DNN学習部31は、ラベル付きの一般データ(データ群21A)で補助DNNを学習する(ステップS25)。 On the other hand, when it is determined that all the DNNs have been selected (step S24; Yes), the auxiliary DNN learning unit 31 learns the auxiliary DNN using the labeled general data (data group 21A) (step S25).

続いて、復元しやすさ計算部32は、複数のDNNの中から1つのDNNを選択する(ステップS26)。復元しやすさ計算部32は、ラベル付きの一般データをDNNと復元器とに通し、クラス毎の復元しやすさを計算する(ステップS27)。例えば、復元しやすさ計算部32は、選択したDNNに対応する復元器について、クラス毎に、復元誤差の平均値の逆数を算出して、クラス別復元しやすさ41を計算する。 Then, the easiness of restoration calculation unit 32 selects one DNN from the plurality of DNNs (step S26). The restoration easiness calculation unit 32 passes the labeled general data through the DNN and the restoration device, and calculates the restoration easiness for each class (step S27). For example, the restoration easiness calculation unit 32 calculates the reversion easiness 41 for each class by calculating the reciprocal of the average value of the restoration error for each class for the restoration device corresponding to the selected DNN.

復元しやすさ計算部32は、全てのDNNを選択したか否かを判定する(ステップS28)。全てのDNNを選択していないと判定した場合には(ステップS28;No)、復元しやすさ計算部32は、次のDNNを選択すべく、ステップS26に移行する。 The restoration easiness calculation unit 32 determines whether all DNNs have been selected (step S28). When it is determined that all the DNNs have not been selected (step S28; No), the restoration easiness calculation unit 32 proceeds to step S26 to select the next DNN.

一方、全てのDNNを選択していたと判定した場合には(ステップS28;Yes)、確信度計算部33は、判別対象の新たなデータを補助DNNに入力し、クラス毎の確信度を計算する(ステップS29)。例えば、確信度計算部33は、判別対象の新たなデータに対して、学習済みの補助DNNを通して、クラス別確信度42を計算する。 On the other hand, when it is determined that all DNNs have been selected (step S28; Yes), the certainty factor calculation unit 33 inputs new data to be determined to the auxiliary DNN and calculates the certainty factor for each class. (Step S29). For example, the certainty factor calculation unit 33 calculates the certainty factor by class 42 for the new data to be determined through the learned auxiliary DNN.

続いて、DNN選択部13Aは、複数のDNNの中から1つのDNNを選択する(ステップS30)。DNN選択部13Aは、選択したDNNのクラス毎の復元しやすさ(クラス別復元しやすさ41)と、計算したクラス毎の確信度(クラス別確信度42)との類似度を計算する(ステップS31)。類似度は、例えば、コサイン類似度である。 Subsequently, the DNN selection unit 13A selects one DNN from the plurality of DNNs (step S30). The DNN selection unit 13A calculates the similarity between the restoration easiness for each class of the selected DNN (class-based restoration easiness 41) and the calculated certainty factor (class certainty factor 42) ( Step S31). The similarity is, for example, the cosine similarity.

DNN選択部13Aは、全てのDNNを選択したか否かを判定する(ステップS32)。全てのDNNを選択していないと判定した場合には(ステップS32;No)、DNN選択部13Aは、次のDNNを選択すべく、ステップS30に移行する。 The DNN selection unit 13A determines whether or not all DNNs have been selected (step S32). When it is determined that all the DNNs are not selected (step S32; No), the DNN selection unit 13A proceeds to step S30 to select the next DNN.

一方、全てのDNNを選択していたと判定した場合には(ステップS32;Yes)、DNN選択部13Aは、類似度の最も高いDNNを選択する(ステップS33)。例えば、DNN選択部13Aは、最も傾向が類似するクラス別復元しやすさ41の復元器を選択し、選択した復元器に対応するDNNを選択する。そして、判別部14は、選択したDNNに判別対象の新たなデータを入力し、判別結果を出力する(ステップS34)。 On the other hand, when it is determined that all DNNs have been selected (step S32; Yes), the DNN selection unit 13A selects the DNN with the highest degree of similarity (step S33). For example, the DNN selecting unit 13A selects a restorer having the ease of restoration 41 for each class, which has the most similar tendency, and selects the DNN corresponding to the selected restorer. Then, the discrimination unit 14 inputs new data to be discriminated into the selected DNN and outputs the discrimination result (step S34).

[実施例2の効果]
このようにして、情報処理装置1は、複数のDNNそれぞれについて、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を、複数のDNNそれぞれの学習に用いたデータと異なるデータにより学習する。情報処理装置1は、データのクラスを判別する補助DNNを復元器の学習に用いたデータと同じデータにより学習する。情報処理装置1は、複数の復元器それぞれのクラス毎の復元のしやすさを示す情報(クラス別復元しやすさ41)と、新たなデータを補助DNNにより学習させた際に出力されるクラス毎の確信度(クラス別確信度42)とを比較する。そして、情報処理装置1は、比較の結果、最も傾向が類似するクラス別復元しやすさ41の復元器に対応するDNNを選択する。かかる構成によれば、情報処理装置1は、複数のDNNや復元器の規模に差が有る場合であっても、新たなデータに対してより適切なDNNを選択することが可能となる。
[Effect of Embodiment 2]
In this way, the information processing apparatus 1 uses, for each of the plurality of DNNs, a restorer that restores the data input to the DNN from the characteristics obtained from the intermediate layer of the DNN, as well as the data used for learning of each of the plurality of DNNs. Learn with different data. The information processing device 1 learns the auxiliary DNN for discriminating the class of data by the same data as the data used for learning the restorer. The information processing apparatus 1 outputs information indicating the ease of restoration for each class of a plurality of restorers (restorability for each class 41) and the class output when new data is learned by the auxiliary DNN. The certainty factor (class certainty factor 42) is compared. Then, as a result of the comparison, the information processing device 1 selects the DNN corresponding to the restorer of the class-based restoration ease 41 having the most similar tendency. With this configuration, the information processing apparatus 1 can select a more suitable DNN for new data even when there is a difference in the scale of the plurality of DNNs and the restorer.

[その他]
なお、図示した情報処理装置1の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、情報処理装置1の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、復元データ生成部12とDNN選択部13とを1つの部として統合しても良い。また、層決定部15を、全結合層の手前の層を中間層として決定する第1の層決定部と、復元誤差の分散を用いて中間層を決定する第2の層決定部とに分離しても良い。また、記憶部20を情報処理装置1の外部装置としてネットワーク経由で接続するようにしても良い。
[Other]
The components of the illustrated information processing apparatus 1 do not necessarily have to be physically configured as illustrated. That is, the specific aspect of the distribution/integration of the information processing device 1 is not limited to that shown in the figure, and all or part of the information processing device 1 may be functionally or physically arranged in arbitrary units according to various loads and usage conditions. It can be distributed and integrated. For example, the restoration data generation unit 12 and the DNN selection unit 13 may be integrated as one unit. Further, the layer determining unit 15 is separated into a first layer determining unit that determines a layer before the fully connected layer as an intermediate layer and a second layer determining unit that determines the intermediate layer by using the variance of the restoration error. You may. Further, the storage unit 20 may be connected as an external device of the information processing device 1 via a network.

また、上記実施例1,2で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した情報処理装置1と同様の機能を実現するDNN選択プログラムを実行するコンピュータの一例を説明する。図12は、DNN選択プログラムを実行するコンピュータの一例を示す図である。 The various processes described in the first and second embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. Therefore, an example of a computer that executes a DNN selection program that realizes the same function as the information processing device 1 illustrated in FIG. 1 will be described below. FIG. 12 is a diagram illustrating an example of a computer that executes a DNN selection program.

図12に示すように、コンピュータ200は、各種演算処理を実行するCPU203と、ユーザからのデータの入力を受け付ける入力装置215と、表示装置209を制御する表示制御部207とを有する。また、コンピュータ200は、記憶媒体からプログラムなどを読取るドライブ装置213と、ネットワークを介して他のコンピュータとの間でデータの授受を行う通信制御部217とを有する。また、コンピュータ200は、各種情報を一時記憶するメモリ201と、HDD(Hard Disk Drive)205を有する。そして、メモリ201、CPU203、HDD205、表示制御部207、ドライブ装置213、入力装置215、通信制御部217は、バス219で接続されている。 As shown in FIG. 12, the computer 200 includes a CPU 203 that executes various arithmetic processes, an input device 215 that receives data input from a user, and a display control unit 207 that controls the display device 209. The computer 200 also includes a drive device 213 that reads a program and the like from a storage medium, and a communication control unit 217 that exchanges data with another computer via a network. The computer 200 also has a memory 201 for temporarily storing various information and an HDD (Hard Disk Drive) 205. The memory 201, the CPU 203, the HDD 205, the display control unit 207, the drive device 213, the input device 215, and the communication control unit 217 are connected by the bus 219.

ドライブ装置213は、例えばリムーバブルディスク210用の装置である。HDD205は、DNN選択プログラム205aおよびDNN選択処理関連情報205bを記憶する。 The drive device 213 is, for example, a device for the removable disk 210. The HDD 205 stores a DNN selection program 205a and DNN selection processing related information 205b.

CPU203は、DNN選択プログラム205aを読み出して、メモリ201に展開し、プロセスとして実行する。かかるプロセスは、情報処理装置1の各機能部に対応する。DNN選択処理関連情報205bは、データ群21、復元データ22および復元データ(新データ)23に対応する。そして、例えばリムーバブルディスク210が、DNN選択プログラム205aなどの各情報を記憶する。 The CPU 203 reads the DNN selection program 205a, loads it into the memory 201, and executes it as a process. Such a process corresponds to each functional unit of the information processing device 1. The DNN selection processing related information 205b corresponds to the data group 21, the restored data 22, and the restored data (new data) 23. Then, for example, the removable disk 210 stores each information such as the DNN selection program 205a.

なお、DNN選択プログラム205aについては、必ずしも最初からHDD205に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、光磁気ディスク、IC(Integrated Circuit)カードなどの「可搬用の物理媒体」に当該プログラムを記憶させておく。そして、コンピュータ200がこれらからDNN選択プログラム205aを読み出して実行するようにしても良い。 The DNN selection program 205a does not necessarily have to be stored in the HDD 205 from the beginning. For example, a "portable physical medium such as a flexible disk (FD), a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), a magneto-optical disk, an IC (Integrated Circuit) card, which is inserted into the computer 200. The relevant program is stored in. Then, the computer 200 may read the DNN selection program 205a from these and execute it.

1 情報処理装置
10 制御部
11 復元器学習部
12 復元データ生成部
13,13A DNN選択部
14 判別部
15 層決定部
31 補助DNN学習部
32 復元しやすさ計算部
33 確信度計算部
20 記憶部
21,21A データ群
22 復元データ
23 復元データ(新データ)
41 クラス別復元しやすさ
42 クラス別確信度
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 10 Control part 11 Restoration learning part 12 Restoration data generation part 13, 13A DNN selection part 14 Discrimination part 15 Layer determination part 31 Auxiliary DNN learning part 32 Restorability calculation part 33 Certainty factor calculation part 20 Storage part 21,21A Data group 22 Restored data 23 Restored data (new data)
41 Ease of restoration by class 42 Confidence by class

Claims (7)

コンピュータに、
複数のDNN(Deep learning Neural Network)それぞれについて、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を、前記複数のDNNそれぞれの学習に用いたデータと異なるデータにより学習し、
特定のデータについて、複数の復元器それぞれから出力されるデータおよび前記特定のデータに基づき選択される復元器に対応するDNNを選択する
処理を実行させるDNN選択プログラム。
On the computer,
For each of a plurality of deep learning neural networks (DNNs), a restorer that restores the data input to the DNN from the characteristics obtained from the middle layer of the DNN is learned by different data from the data used for the learning of each of the plurality of DNNs. Then
A DNN selection program for executing a process of selecting, for specific data, data output from each of a plurality of restorers and a DNN corresponding to the restorer selected based on the specific data.
該選択する処理は、前記複数の復元器それぞれから出力されるデータと、前記特定のデータとの誤差を算出し、算出した誤差が最小となるデータの復元器に対応するDNNを選択する
ことを特徴とする請求項1に記載のDNN選択プログラム。
The selecting process calculates an error between the data output from each of the plurality of decompressors and the specific data, and selects the DNN corresponding to the decompressor of the data having the smallest calculated error. The DNN selection program according to claim 1.
データのクラスを判別する学習器を前記復元器の学習に用いたデータと同じデータにより学習し、
該選択する処理は、前記複数の復元器それぞれのクラス毎の復元のしやすさを示す情報と、前記特定のデータを前記学習器により学習させた際に出力されるクラス毎の確信度とを比較し、最も傾向が類似する情報の復元器に対応するDNNを選択する
ことを特徴とする請求項1に記載のDNN選択プログラム。
A learning device that discriminates a class of data is learned by the same data as the data used for learning the restorer,
The process of selecting includes information indicating the ease of restoration for each class of the plurality of restorers, and confidence for each class output when the specific data is learned by the learning device. The DNN selection program according to claim 1, wherein the DNN corresponding to the restorer of the information having the most similar tendency is selected.
前記中間層として用いる層は、前記DNNが畳み込みDNNである場合に、全結合層に近い層である
ことを特徴とする請求項1に記載のDNN選択プログラム。
The DNN selection program according to claim 1, wherein the layer used as the intermediate layer is a layer close to a fully connected layer when the DNN is a convolutional DNN.
前記中間層として用いる層は、前記DNNのそれぞれの層を用いた場合のそれぞれの復元器について、学習に用いたデータに対する復元誤差の分散が最大となる復元器に対する層である
ことを特徴とする請求項1に記載のDNN選択プログラム。
The layer used as the intermediate layer is a layer for the restorer that maximizes the variance of the restore error with respect to the data used for learning for each restorer when each layer of the DNN is used. The DNN selection program according to claim 1.
複数のDNN(Deep learning Neural Network)それぞれについて、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を、前記複数のDNNそれぞれの学習に用いたデータと異なるデータにより学習し、
特定のデータについて、複数の復元器それぞれから出力されるデータおよび前記特定のデータに基づき選択される復元器に対応するDNNを選択する
処理をコンピュータが実行するDNN選択方法。
For each of a plurality of deep learning neural networks (DNNs), a restorer that restores the data input to the DNN from the characteristics obtained from the middle layer of the DNN is learned by different data from the data used for the learning of each of the plurality of DNNs. Then
A DNN selection method in which a computer executes a process of selecting, for specific data, data output from each of a plurality of restorers and a DNN corresponding to the restorer selected based on the specific data.
複数のDNN(Deep learning Neural Network)それぞれについて、DNNに入力するデータを当該DNNの中間層から得られる特徴から復元する復元器を、前記複数のDNNそれぞれの学習に用いたデータと異なるデータにより学習する復元器学習部と、
特定のデータについて、前記復元器学習部によって学習された複数の復元器それぞれから出力されるデータおよび前記特定のデータに基づき選択される復元器に対応するDNNを選択するDNN選択部と、
を有することを特徴とする情報処理装置。
For each of a plurality of deep learning neural networks (DNNs), a restorer that restores the data input to the DNN from the characteristics obtained from the middle layer of the DNN is learned by different data from the data used for the learning of each of the plurality of DNNs. A restorer learning unit that
A DNN selecting unit that selects the DNN corresponding to the data output from each of the plurality of restorers learned by the restorer learning unit and the restorer selected based on the specific data for the specific data;
An information processing device comprising:
JP2019007358A 2019-01-18 2019-01-18 DNN selection program, DNN selection method and information processing apparatus Active JP7151501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019007358A JP7151501B2 (en) 2019-01-18 2019-01-18 DNN selection program, DNN selection method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007358A JP7151501B2 (en) 2019-01-18 2019-01-18 DNN selection program, DNN selection method and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2020119048A true JP2020119048A (en) 2020-08-06
JP7151501B2 JP7151501B2 (en) 2022-10-12

Family

ID=71890753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007358A Active JP7151501B2 (en) 2019-01-18 2019-01-18 DNN selection program, DNN selection method and information processing apparatus

Country Status (1)

Country Link
JP (1) JP7151501B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132468A1 (en) * 2015-02-18 2016-08-25 株式会社日立製作所 Data evaluation method and device, and breakdown diagnosis method and device
JP2018205920A (en) * 2017-05-31 2018-12-27 富士通株式会社 Learning program, learning method and object detecting apparatus
WO2020129235A1 (en) * 2018-12-21 2020-06-25 株式会社日立ハイテク Image recognition device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132468A1 (en) * 2015-02-18 2016-08-25 株式会社日立製作所 Data evaluation method and device, and breakdown diagnosis method and device
JP2018205920A (en) * 2017-05-31 2018-12-27 富士通株式会社 Learning program, learning method and object detecting apparatus
WO2020129235A1 (en) * 2018-12-21 2020-06-25 株式会社日立ハイテク Image recognition device and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡邊 栄治、尾関 孝史、石川 洋: "階層型ニューラルネットワーク間の競合による画像の領域分割", 映像情報メディア学会技術報告, vol. Vol.27, No.63 , JPN6022036371, 24 October 2003 (2003-10-24), JP, pages 1 - 4, ISSN: 0004861455 *

Also Published As

Publication number Publication date
JP7151501B2 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
Yeo et al. Superpixel-based tracking-by-segmentation using markov chains
JP6423814B2 (en) Document image binarization method
CN109271958B (en) Face age identification method and device
JP6646234B2 (en) Program generation device, program generation method, and generation program
JP6610278B2 (en) Machine learning apparatus, machine learning method, and machine learning program
KR20200145827A (en) Facial feature extraction model learning method, facial feature extraction method, apparatus, device, and storage medium
JP2008217589A (en) Learning apparatus and pattern recognizing apparatus
JP6897749B2 (en) Learning methods, learning systems, and learning programs
JP6158882B2 (en) Generating device, generating method, and generating program
KR20170092595A (en) Neural network structure and a method therto
US20210224647A1 (en) Model training apparatus and method
CN112541580A (en) Semi-supervised domain self-adaption method based on active counterstudy
CN112990427A (en) Apparatus and method for domain adaptive neural network implementation
JP7086878B2 (en) Learning device, learning method, program and recognition device
US20200042883A1 (en) Dictionary learning device, dictionary learning method, data recognition method, and program storage medium
CN115777107A (en) Neural network learning method through automatic encoder and multi-instance learning and computing system for executing neural network learning method
JP7220062B2 (en) LEARNING DATA GENERATION PROGRAM, LEARNING DATA GENERATION DEVICE, AND LEARNING DATA GENERATION METHOD
Chen et al. SnipeDet: Attention-guided pyramidal prediction kernels for generic object detection
JP7438365B2 (en) Learning utilization system, utilization device, learning device, program and learning utilization method
CN113902944A (en) Model training and scene recognition method, device, equipment and medium
JP2020119048A (en) DNN selection program, DNN selection method, and information processing apparatus
US20160358039A1 (en) Apparatus and method for detecting object
JP6606849B2 (en) Discriminator generation device, discriminator generation method, estimation device, estimation method, and program
JP7073171B2 (en) Learning equipment, learning methods and programs
KR102646430B1 (en) Method for learning classifier and prediction classification apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R150 Certificate of patent or registration of utility model

Ref document number: 7151501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150