JP6516531B2 - Clustering device and machine learning device - Google Patents
Clustering device and machine learning device Download PDFInfo
- Publication number
- JP6516531B2 JP6516531B2 JP2015069975A JP2015069975A JP6516531B2 JP 6516531 B2 JP6516531 B2 JP 6516531B2 JP 2015069975 A JP2015069975 A JP 2015069975A JP 2015069975 A JP2015069975 A JP 2015069975A JP 6516531 B2 JP6516531 B2 JP 6516531B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- domain
- transfer
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 96
- 238000012546 transfer Methods 0.000 claims description 190
- 230000007704 transition Effects 0.000 claims description 134
- 238000013526 transfer learning Methods 0.000 claims description 114
- 238000011156 evaluation Methods 0.000 claims description 92
- 238000000605 extraction Methods 0.000 claims description 51
- 239000000284 extract Substances 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 13
- 238000000034 method Methods 0.000 description 30
- 238000003860 storage Methods 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 24
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 11
- 206010027476 Metastases Diseases 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 238000003066 decision tree Methods 0.000 description 9
- 230000009401 metastasis Effects 0.000 description 9
- 239000006185 dispersion Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000007637 random forest analysis Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 238000012854 evaluation process Methods 0.000 description 6
- 238000007635 classification algorithm Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、転移学習を導入した機械学習で用いられるクラスタリング装置及び機械学習装置に関する。 The present invention relates to a clustering apparatus and a machine learning apparatus used in machine learning in which transfer learning is introduced.
画像データから人物を検出する処理や、センサによる計測データの解析処理などに機械学習が用いられている。 Machine learning is used for processing of detecting a person from image data and analysis of measurement data by a sensor.
例えば、監視カメラにより撮影された画像から人物を検出する場合、人物の特徴を学習することにより生成された識別用特徴データが用いられる。具体的には、機械学習装置は、人物が撮影された複数の画像(複数の学習サンプル)を用いて人物の特徴を学習し、学習結果を反映した識別用特徴データを生成する。人物検出装置は、機械学習装置により生成された識別用特徴データを用いて、監視カメラにより撮影された画像から人物を検出する。 For example, when detecting a person from an image captured by a surveillance camera, identification feature data generated by learning the characteristics of the person is used. Specifically, the machine learning apparatus learns the characteristics of a person using a plurality of images (a plurality of learning samples) in which the person is photographed, and generates identification feature data reflecting the learning result. The person detection device detects a person from the image captured by the surveillance camera using the identification feature data generated by the machine learning device.
監視カメラの設置環境が学習サンプルを収集する環境と異なる場合、監視カメラにより撮影される人物の見え方は、学習サンプルにおける人物の見え方と異なる。つまり、監視カメラにより撮影される人物の特徴が、学習サンプルに含まれる人物の特徴と異なる。従って、監視カメラにより生成された画像から人物を検出するにあたって学習サンプルから生成された識別用特徴データを用いた場合、人物の検出精度が低下する。人物の検出精度を向上させる場合、カメラの設置環境に合わせて、膨大な数の学習サンプルを準備しなければならず、コストが増大する。 When the installation environment of the surveillance camera is different from the environment in which the learning sample is collected, the appearance of the person photographed by the surveillance camera is different from the appearance of the person in the learning sample. That is, the feature of the person photographed by the surveillance camera is different from the feature of the person included in the learning sample. Therefore, when the identification feature data generated from the learning sample is used to detect a person from the image generated by the surveillance camera, the detection accuracy of the person decreases. In order to improve the detection accuracy of a person, a huge number of learning samples must be prepared according to the installation environment of the camera, which increases the cost.
そこで、転移学習を導入した機械学習の手法が提案されている。転移学習は、学習サンプルの収集環境と異なる環境から得られたサンプルを事前に学習し、事前学習により得られた検出対象の特徴を、学習サンプルの学習結果に適用(転移)させる手法である。転移学習は、学習サンプルの数を抑制することができるため、識別用特徴データを生成するためのコストを低減することができる。 Therefore, a method of machine learning that introduces transfer learning has been proposed. Transfer learning is a method of learning in advance a sample obtained from an environment different from the collection environment of learning samples, and applying (transferring) the feature of the detection target obtained by the prior learning to the learning result of the learning sample. Since transfer learning can suppress the number of learning samples, the cost for generating identification feature data can be reduced.
転移学習において、事前に学習されるサンプルの集合は、事前ドメインと呼ばれる。事前ドメインの学習結果が転移される対象は、目標ドメインと呼ばれる。監視カメラにより撮影された画像から人物を検出する場合は、目標ドメインは、監視カメラの設置環境に合わせて生成された学習サンプルの集合である。事前ドメインは、監視カメラの設置環境と異なる環境で生成された学習サンプルの集合である。 In transfer learning, a set of samples that are learned in advance is called a prior domain. The target to which the learning result of the prior domain is transferred is called the target domain. When detecting a person from an image captured by a surveillance camera, the target domain is a set of learning samples generated in accordance with the installation environment of the surveillance camera. The pre-domain is a set of learning samples generated in an environment different from the installation environment of the surveillance camera.
転移学習を用いた場合、負の転移と呼ばれる現象が起こることが知られている。負の転移とは、転移学習のために事前に学習する事前ドメインが目標ドメインに含まれるデータと大きく異なるデータを含んでいた場合に、学習の精度が低下する現象である。このため、転移学習を導入した機械学習を実行する前に、転移学習に有効な事前ドメインを特定し、特定した事前ドメインのみを機械学習に用いることが望ましい。 It is known that, when using transfer learning, a phenomenon called negative transfer occurs. Negative transfer is a phenomenon in which the accuracy of learning decreases when the pre-learned in advance for transfer learning includes data significantly different from the data included in the target domain. For this reason, before performing machine learning in which transfer learning is introduced, it is desirable to specify an advance domain effective for transfer learning, and use only the specified advance domain for machine learning.
非特許文献1には、事前ドメインが転移学習に有効であるか否かを判断する方法が開示されている。具体的には、非特許文献1に係る方法は、事前ドメインのみを用いて学習した識別器(事前識別器)と、事前ドメインと目標ドメインとを用いた転移学習を行った識別器(転移識別器)とにサンプルデータをそれぞれ入力する。サンプルデータに対する事前識別器による識別結果が転移識別器による識別結果と同じである場合、この事前ドメインは、転移学習に有効であると判断される。
Non-Patent
この結果、非特許文献1に開示されている方法において、転移学習に有効でないと判断された事前ドメインは、転移学習を導入した機械学習に用いられない。転移学習に導入される予定の事前ドメインの数が1つであり、この事前ドメインが転移学習に有効でないと判断された場合、転移学習を導入した機械学習を実行することができない。
As a result, in the method disclosed in Non-Patent
従って、事前ドメインが転移学習に有効か否かを判断する場合、複数の事前ドメインを予め準備しておくことが望ましい。しかし、収集されたサンプルを人間が1つずつ確認して、複数の事前ドメインを分類する方法は、現実的でない。また、収集されたデータから複数の事前ドメインを効率的に作成する技術は開発されていない。 Therefore, when determining whether a preliminary domain is effective for transfer learning, it is desirable to prepare a plurality of preliminary domains in advance. However, a method in which a human confirms the collected samples one by one and classifies a plurality of prior domains is not realistic. Also, no technology has been developed to efficiently create multiple pre-domains from collected data.
本発明は、上記問題点に鑑み、事前ドメインを作成するために収集された複数のデータから、複数の事前ドメインを効率的に作成する技術を提供することを課題とする。 An object of the present invention is to provide a technique for efficiently creating a plurality of preliminary domains from a plurality of data collected to create preliminary domains in view of the above-mentioned problems.
上記課題を解決するため、請求項1に係る発明は、クラスタリング装置であって、転移学習を導入した機械学習に用いられる複数の転移候補データの各々から特徴を抽出して複数の転移候補特徴データを生成するクラスタリング用特徴抽出部と、前記クラスタリング用特徴抽出部により生成された複数の転移候補特徴データの各々が有する特徴に基づいて、各転移候補特徴データを第1グループ及び第2グループを含む複数のグループに分類する分類部と、前記分類部により前記第1グループに分類された転移候補特徴データの数が所定の分類継続基準値以下である場合、前記第1グループを前記機械学習に用いられる事前ドメインに決定し、前記転移候補特徴データの数が前記分類継続基準値よりも大きい場合、前記第1グループに分類された転移候補特徴データをさらに分類することを決定する事前ドメイン決定部と、を備える。
In order to solve the above problems, the invention according to
請求項2記載の発明は、請求項1に記載のクラスタリング装置であって、事前ドメイン決定部は、前記第1グループに分類された転移候補特徴データの数が所定の破棄基準値よりも小さい場合、前記第1グループを事前ドメインから除外する。
The invention according to claim 2 is the clustering apparatus according to
請求項3記載の発明は、請求項1又は2に記載のクラスタリング装置であって、さらに、前記第1グループに分類された転移候補特徴データの各々が有する特徴量に基づいて、前記第1グループに分類された転移候補特徴データの分散を計算する分散計算部、を備え、前記事前ドメイン決定部は、前記第1グループに分類された転移候補特徴データの数が前記分類継続基準値よりも大きい場合、前記分散計算部により計算された分散を所定の分散基準値と比較し、前記分散計算部により計算された分散が前記分散基準値以下である場合、前記第1グループを事前ドメインに決定する。
The invention according to
請求項4記載の発明は、請求項1ないし3のいずれかに記載のクラスタリング装置であって、前記分類部は、前記第1グループに分類された転移候補特徴データの数が所定の変更基準値よりも大きい場合、前記第1グループに分類された転移候補特徴データを第1の数の下位グループにさらに分類し、前記分類部は、前記第1グループに分類された転移候補特徴データの数が前記変更基準値以下である場合、前記第1グループに分類された転移候補特徴データを前記第1の数よりも小さい第2の数の下位グループに分類する。
The invention according to claim 4 is the clustering apparatus according to any one of
請求項5記載の発明は、請求項1ないし5のいずれかに記載のクラスタリング装置であって、前記分類継続基準値が、前記クラスタリング用特徴抽出部により抽出される転移候補特徴データの次元数に基づいて決定される。
The invention according to
請求項6記載の発明は、転移学習を導入した機械学習を実行して検出対象を学習する機械学習装置であって、前記機械学習に用いられる複数の転移候補データを分類して前記機械学習に用いられる事前ドメインを生成するクラスタリング装置と、前記クラスタリング装置により生成された事前ドメインが前記機械学習に有効であるか否かを評価する事前ドメイン評価装置と、を備え、前記クラスタリング装置は、前記複数の転移候補データの各々から特徴を抽出して複数の転移候補特徴データを生成するクラスタリング用特徴抽出部と、前記クラスタリング用特徴抽出部により生成された複数の転移候補特徴データの各々が有する特徴に基づいて、各転移候補特徴データを第1グループ及び第2グループを含む複数のグループに分類する分類部と、前記分類部により前記第1グループに分類された転移候補特徴データの数が所定の分類継続基準値以下である場合、前記第1グループを前記機械学習に用いられる事前ドメインに決定し、前記転移候補特徴データの数が前記分類継続基準値よりも大きい場合、前記第1グループに分類された転移候補特徴データをさらに分類することを決定する事前ドメイン決定部と、を備え、前記事前ドメイン評価装置は、前記事前ドメイン決定部により前記第1グループが前記事前ドメインに決定された場合、前記第1グループに含まれる転移候補特徴データと、各々が所定の条件下における検出対象の特徴を有する学習用データを含む目標ドメインとを用いて前記機械学習を実行して、前記事前ドメインを評価するための評価用識別器を生成する試行転移学習部と、前記試行転移学習部により生成された試行転移識別部に基づいて、前記第1グループが前記機械学習に有効であるか否かを判断する判断部と、を備える。 The invention according to claim 6 is a machine learning device that executes machine learning in which transfer learning is introduced to learn a detection target, and a plurality of transfer candidate data used for the machine learning are classified and the machine learning is performed. The clustering apparatus includes: a clustering apparatus that generates a pre-domain to be used; and a pre-domain evaluation apparatus that evaluates whether or not the pre-domain generated by the clustering apparatus is effective for the machine learning; A feature extraction unit for clustering which extracts features from each of the transfer candidate data of each to generate a plurality of transfer candidate feature data, and a feature possessed by each of a plurality of transfer candidate feature data generated by the clustering feature extraction unit Classification based on each transition candidate feature data into a plurality of groups including a first group and a second group And, if the number of transfer candidate feature data classified into the first group by the classification unit is equal to or less than a predetermined classification continuation reference value, the first group is determined to be a pre-domain used for the machine learning, A pre-domain determination unit that determines to further classify the transition candidate feature data classified into the first group if the number of metastasis candidate feature data is larger than the classification continuation reference value; The evaluation apparatus, when the first group is determined to be the prior domain by the prior domain determination unit, transfer candidate feature data included in the first group, and a feature to be detected under each of the predetermined conditions Perform the machine learning using a target domain including learning data having a to generate an evaluation discriminator for evaluating the pre-domain A row transfer learning unit, based on the trial transition identification unit generated by the trial transfer learning unit, and a determination portion that the first group to determine whether it is effective in the machine learning.
請求項7記載の発明は、請求項6に記載の機械学習装置であって、前記事前ドメイン評価装置は、さらに、前記目標ドメインに含まれる学習用データの各々が有する特徴を抽出して、学習用特徴データを生成する学習用特徴抽出部、を備え、前記試行転移学習部は、前記学習用特徴データを用いて前記機械学習を実行し、前記学習用特徴抽出部が学習用データから特徴を抽出する条件は、前記クラスタリング用特徴抽出部が前記複数の転移候補データの各々から特徴を抽出する条件と同じである。
請求項8記載の発明は、請求項7に記載の機械学習装置であって、さらに、前記目標ドメインと、前記事前ドメイン評価装置により前記機械学習に有効であると判断された全ての事前ドメインとを用いて前記機械学習を実行して転移識別部を生成する選択学習装置、
を備える。
請求項9記載の発明は、クラスタリング方法であって、転移学習を導入した機械学習に用いられる複数の転移候補データの各々から特徴を抽出して複数の転移候補特徴データを生成するステップと、生成された複数の転移候補特徴データの各々が有する特徴に基づいて、各転移候補特徴データを第1グループ及び第2グループを含む複数のグループに分類するステップと、前記第1グループに分類された転移候補特徴データの数が所定の分類継続基準値以下である場合、前記第1グループを前記機械学習に用いられる事前ドメインに決定するステップと、前記転移候補特徴データの数が前記分類継続基準値よりも大きい場合、前記第1グループに分類された転移候補特徴データをさらに分類することを決定するステップと、を備える。
The invention according to claim 7 is the machine learning device according to claim 6, wherein the prior domain evaluation device further extracts a feature possessed by each of learning data included in the target domain, The trial transition learning unit executes the machine learning using the learning feature data, and the learning feature extraction unit is characterized by the learning data. The conditions for extracting are the same as the conditions for the feature extraction unit for clustering to extract features from each of the plurality of transfer candidate data.
The invention according to claim 8 is the machine learning device according to claim 7, further comprising: the target domain, and all the prior domains judged to be effective for the machine learning by the prior domain evaluation device. And a selection learning device that executes the machine learning to generate a transition identification unit,
Equipped with
The invention according to claim 9 is a clustering method, comprising the steps of: extracting features from each of a plurality of transfer candidate data used for machine learning in which transfer learning is introduced and generating a plurality of transfer candidate feature data; Classifying each of the transfer candidate feature data into a plurality of groups including a first group and a second group based on the features of each of the plurality of transfer candidate feature data, and the transfer classified into the first group When the number of candidate feature data is equal to or less than a predetermined classification continuation reference value, the first group is determined to be a pre-domain used for the machine learning, and the number of transfer candidate feature data is from the classification continuation reference value If it is also large, it is determined to further classify the transition candidate feature data classified into the first group.
請求項10記載の発明は、転移学習を導入した機械学習に用いられる複数の転移候補データの各々を分類するクラスタリング方法をコンピュータに実行させるためのプログラムであって、前記機械学習に用いられる複数の転移候補データの各々から特徴を抽出して複数の転移候補特徴データを生成するステップと、生成された複数の転移候補特徴データの各々が有する特徴に基づいて、各転移候補特徴データを第1グループ及び第2グループを含む複数のグループに分類するステップと、前記第1グループに分類された転移候補特徴データの数が所定の分類継続基準値以下である場合、前記第1グループを前記機械学習に用いられる事前ドメインに決定するステップと、前記転移候補特徴データの数が前記分類継続基準値よりも大きい場合、前記第1グループに分類された転移候補特徴データをさらに分類することを決定するステップと、を備えるクラスタリング方法をコンピュータに実行させるためのプログラムである。
The invention according to
本発明の機械学習装置において、複数の転移候補データから生成された複数の転移候補特徴データは、各々の特徴に基づいて、第1グループ及び第2グループを含む複数のグループに分類される。第1グループに分類された転移候補特徴データの数が分類継続基準値以下である場合、第1グループは、事前ドメインに決定され、転移候補特徴データの数が分類継続基準値よりも大きい場合、第1グループに分類された転移候補特徴データはさらに分類される。これにより、転移学習を導入した機械学習に用いられる事前ドメインを効率的に作成することができる。 In the machine learning apparatus of the present invention, the plurality of transfer candidate feature data generated from the plurality of transfer candidate data are classified into a plurality of groups including a first group and a second group based on the respective features. When the number of transfer candidate feature data classified into the first group is equal to or less than the classification continuation reference value, the first group is determined to be a pre-domain, and the number of transfer candidate feature data is larger than the classification continuation reference value The transfer candidate feature data classified into the first group is further classified. Thereby, it is possible to efficiently create the pre-domain used for machine learning in which transfer learning is introduced.
以下、図面を参照しつつ、本発明の実施の形態を詳しく説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[1.機械学習装置100の構成]
[1.1.全体構成]
図1は、本発明の実施の形態に係る機械学習装置100の構成を示す機能ブロック図である。図1に示す機械学習装置100は、記憶装置400に記憶された複数の転移候補データ41と、記憶装置500に記憶された目標ドメイン50Aとを用いて、転移学習を導入した機械学習を実行する。機械学習装置100は、上記の機械学習の結果として検出対象を識別するための転移識別データ80を生成する。
[1. Configuration of Machine Learning Device 100]
[1.1. overall structure]
FIG. 1 is a functional block diagram showing the configuration of a machine learning apparatus 100 according to an embodiment of the present invention. The machine learning apparatus 100 shown in FIG. 1 executes machine learning in which transfer learning is introduced, using the plurality of
本実施の形態において、検出対象は、人物である。機械学習装置100により生成される転移識別データ80は、人物検出装置(図示省略)がカメラにより撮影された画像から人物を検出するために用いられる。機械学習装置100は、転移識別データ80を生成するための学習アルゴリズムとして、転移学習を導入したランダムフォレストを用いる。従って、転移識別データ80は、複数の決定木により構成されるデータ群である。
In the present embodiment, the detection target is a person. The
記憶装置500は、目標ドメイン50Aを記憶する。目標ドメイン50Aは、所定の条件下における検出対象(人物)の特徴を有する複数の画像のグループである。目標ドメイン50Aは、学習用データ51,51,・・・を含む。学習用データ51は、例えば、俯角0°で人物を撮影した画像である。目標ドメイン50Aは、選択学習装置30が転移学習を導入した機械学習を実行して転移識別データ80を生成する際に用いられる。
The
記憶装置400は、転移候補データ41,41,・・・を記憶する。複数の転移候補データ41は、人物が撮影された画像であり、人物を撮影した画像をインターネット上で検索することにより収集される。転移候補データ41,41,・・・の各々の特徴に基づいて転移候補データ41,41,・・・を分類することにより、事前ドメイン45,45,・・・が生成される。事前ドメイン45,45,・・・のうち、転移学習に有効と判断された事前ドメイン45が、転移識別データ80の生成に用いられる。
The
機械学習装置100は、クラスタリング装置10と、事前ドメイン評価装置20と、選択学習装置30とを備える。
The machine learning device 100 includes a
クラスタリング装置10は、転移候補データ41の各々の特徴に基づいて転移候補データ41を分類して、事前ドメイン45を生成する。
The
事前ドメイン評価装置20は、クラスタリング装置10により生成された事前ドメイン45の各々が転移学習に有効であるか否かを評価する。事前ドメイン評価装置20は、各事前ドメイン45の評価結果を示す評価結果データ253Aを選択学習装置30に出力する。
The preliminary
選択学習装置30は、評価結果データ253Aに基づいて、事前ドメイン45のうち、事前ドメイン評価装置20により転移学習に有効と判断された事前ドメイン45を選択する。選択学習装置30は、選択した事前ドメイン45と、記憶装置500に記憶された目標ドメイン50Aとを用いて、転移学習を導入した機械学習を実行する。その結果、転移識別データ80が生成される。
The
[1.2.クラスタリング装置10の構成]
図2は、図1に示すクラスタリング装置10の構成を示す機能ブロック図である。図2に示すように、クラスタリング装置10は、特徴抽出部11と、分類部12と、分散計算部13と、事前ドメイン決定部14とを備える。
[1.2. Configuration of Clustering Device 10]
FIG. 2 is a functional block diagram showing the configuration of the
クラスタリング装置10は、記憶装置400から複数の転移候補データ41を入力する。特徴抽出部11は、クラスタリング装置10に入力された複数の転移候補データ41の各々からHOG(Histograms of Oriented Gradients)特徴量を抽出して、転移候補データ41の各々に対応する複数の転移候補特徴データ42を生成する。以下、特に説明のない限り、HOG特徴量を単に「特徴量」と記載する。
The
分類部12は、特徴抽出部11から複数の転移候補特徴データ42を入力する。分類部12は、入力した複数の転移候補特徴データ42の各々に含まれる特徴量に基づいて、転移候補特徴データ42を複数のグループに分類する。転移候補特徴データ42の分類には、デンシティフォレスト(Density Forest)と呼ばれるアルゴリズムが用いられる。分類部12は、1本の分類木を作成しながら、複数の転移候補特徴データ42を分類する。分類木を構成するノードの各々が、各グループに対応する。
The
分散計算部13は、各ノードの共分散を計算する。各ノードの共分散は、各ノードに属する転移候補特徴データ42が有する特徴量から計算される。各ノードの共分散は、各ノードに属する転移候補特徴データ42を分類する際に用いられる。また、共分散は、分類木を構成するノードを事前ドメインに決定するか否かを判断するために用いられる。
The
事前ドメイン決定部14は、分類木を構成するノードが事前ドメインとしての条件を満たしているか否かを判断する。判断対象のノードに属する転移候補特徴データ42の数が、予め設定された分類継続基準値以下である場合、事前ドメイン決定部14は、判断対象のノードを事前ドメインに決定する。
The prior
判断対象のノードに属する転移候補特徴データ42の数が、分類継続基準値より大きい場合、事前ドメイン決定部14は、判断対象のノードの共分散を予め設定された分散基準値と比較する。判断対象のノードの共分散が分散基準値以下である場合、事前ドメイン決定部14は、判断対象のノードを事前ドメインに決定する。一方、判断対象のノードの分散が分散基準値より大きい場合、事前ドメイン決定部14は、判断対象のノードに属する転移候補特徴データ42をさらに分類することを決定する。
If the number of transfer
[1.3.事前ドメイン評価装置20の構成]
図3は、図1に示す事前ドメイン評価装置20の構成を示す機能ブロック図である。図3に示すように、事前ドメイン評価装置20は、一時記憶部21と、特徴抽出部22と、試行転移学習部23と、比較学習部24と、評価部25とを備える。
[1.3. Configuration of Prior Domain Evaluation Device 20]
FIG. 3 is a functional block diagram showing the configuration of the preliminary
事前ドメイン評価装置20は、記憶装置400に記憶された目標ドメイン50Aを入力し、クラスタリング装置10により生成された事前ドメイン45を入力する。
The prior
一時記憶部21は、クラスタリング装置10から入力した事前ドメイン45を一時的に記憶する。
The
特徴抽出部22は、事前ドメイン評価装置20に入力された目標ドメイン50Aに含まれる学習用データ51,51,・・・の各々から特徴量を抽出して、各学習用データ51に対応する複数の学習用特徴データ52を生成する。特徴抽出部22により生成された学習用特徴データ52は、目標ドメイン50Bを構成する。
The
試行転移学習部23は、目標ドメイン50Bを特徴抽出部22から取得する。試行転移学習部23は、事前ドメイン45のうちいずれか1つの事前ドメイン(注目事前ドメイン)を評価対象として一時記憶部21から取得する。試行転移学習部23は、取得した目標ドメイン50A及び注目事前ドメインを用いて、注目事前ドメインの転移学習の有効性を評価するための機械学習(試行転移学習)を実行する。転移学習を導入したランダムフォレストが、試行転移学習のアルゴリズムとして用いられる。試行転移学習の結果、注目事前ドメインに対応する試行転移識別部63が生成される。試行転移識別部63の実体は、複数の決定木により構成されるデータ群である。試行転移識別部63は、事前ドメイン45ごとに生成される。
The trial
比較学習部24は、注目事前ドメインのみを利用して、比較用の機械学習(比較学習)を実行する。転移学習が導入されないランダムフォレストが、比較学習のアルゴリズムとして用いられる。比較学習の結果、注目事前ドメインに対応する比較識別部64を生成する。比較識別部64の実体は、複数の決定木を構成するデータ群である。比較識別部64は、事前ドメイン45ごとに生成される。
The
評価部25は、試行転移識別部63及び比較識別部64による各々の識別結果を用いて、注目事前ドメインが転移学習に有効であるか否かを判断する。評価部25は、競合値計算部251と、信頼度計算部252と、転移評価部253とを備える。
The
競合値計算部251は、比較識別部64によるサンプルデータの識別結果を試行転移識別部63によるサンプルデータの識別結果と比較する。サンプルデータは、目標ドメイン50Bに含まれる学習用特徴データ52及び注目事前ドメインに含まれる転移候補特徴データ42のうちいずれかである。競合値計算部251は、比較結果に基づいて、競合値251Aを計算する。競合値251Aは、比較識別部64による識別結果と、試行転移識別部63による識別結果とが一致しない度合いを示す。
The competition
信頼度計算部252は、試行転移識別部63によるサンプルデータの識別結果を用いて、信頼度252Aを計算する。信頼度252Aは、試行転移識別部63による識別結果の信頼性を示す。
The
転移評価部253は、競合値251A及び信頼度252Aに基づいて、注目事前ドメインが転移学習に有効であるか否かを評価する。転移評価部253は、事前ドメイン45の各々の評価を示す評価結果データ253Aを選択学習装置30へ出力する。
The
[1.4.選択学習装置30の構成]
図4は、図1に示す選択学習装置30の構成を示す機能ブロック図である。図4に示すように、選択学習装置30は、事前ドメイン選択部31と、特徴抽出部32と、転移学習部33とを備える。
[1.4. Configuration of Selective Learning Device 30]
FIG. 4 is a functional block diagram showing the configuration of the
事前ドメイン選択部31は、クラスタリング装置10から事前ドメイン45を入力し、評価結果データ253Aを事前ドメイン評価装置20から入力する。事前ドメイン選択部31は、入力した評価結果データ253Aに基づいて、クラスタリング装置10により生成された事前ドメイン45のうち、転移学習に有効と評価された事前ドメイン45を選択する。
The prior
特徴抽出部32は、記憶装置500に記憶された目標ドメイン50Aを取得する。特徴抽出部32は、特徴抽出部22と同様に、取得した目標ドメイン50Aに含まれる学習用データ51,51,・・・の各々から特徴量を抽出して目標ドメイン50Bを生成する。
The
転移学習部33は、目標ドメイン50Bと、事前ドメイン選択部31により選択された事前ドメイン45とを用いて、転移学習を導入した機械学習を実行する。転移学習部33が用いる学習アルゴリズムは、試行転移学習部23が用いる学習アルゴリズムと同じである。転移学習部33は、転移学習を導入した機械学習の結果として、転移識別データ80を生成する。
The
[2.動作概略]
図5は、機械学習装置100の動作の概略を示すフローチャートである。図5に示すように、機械学習装置100において、クラスタリング装置10は、記憶装置400に記憶された転移候補データ41,41,・・・から事前ドメイン45を生成する事前ドメイン生成処理を実行する(ステップS1)。
[2. Outline of operation]
FIG. 5 is a flowchart showing an outline of the operation of the machine learning apparatus 100. As shown in FIG. 5, in the machine learning device 100, the
クラスタリング装置10により生成される事前ドメイン45の数は、特に限定されない。事前ドメイン45の各々は、転移候補データ41から特徴量を抽出することにより生成された転移候補特徴データ42を有する。
The number of
事前ドメイン評価装置20は、クラスタリング装置10により生成された事前ドメイン45の各々が転移学習に有効であるか否かを判断する事前ドメイン評価処理を実行する(ステップS2)。事前ドメイン評価装置20は、ステップS2の結果として、評価結果データ253Aを生成する。評価結果データ253Aは、クラスタリング装置10により生成された事前ドメイン45のうち、転移学習に有効と判断された事前ドメイン45を特定したデータである。
The preliminary
選択学習装置30において、事前ドメイン選択部31は、評価結果データ253Aに基づいて、クラスタリング装置10により生成された事前ドメイン45の中から、転移学習に有効と判断された事前ドメイン45を選択する(ステップS3)。
In the
特徴抽出部32(図4参照)は、記憶装置500から目標ドメイン50Aを取得する。特徴抽出部32は、取得した目標ドメイン50Aに含まれる学習用データ51の各々から特徴量を抽出して、複数の学習用特徴データ52を生成する(ステップS4)。特徴抽出部32により実行される処理は、図3に示す特徴抽出部22により実行される処理と同じである。つまり、特徴抽出部32は、複数の学習用特徴データ52により構成される目標ドメイン50Bを生成する。
The feature extraction unit 32 (see FIG. 4) acquires the
転移学習部33は、事前ドメイン選択部31により選択された事前ドメイン45と、特徴抽出部32により生成された目標ドメイン50Bとを用いて、転移学習を導入した機械学習を実行する(ステップS5)。転移学習部33は、試行転移学習部23が用いる学習アルゴリズムと同じ学習アルゴリズム(転移学習を導入したランダムフォレスト)を用いる。これにより、複数の決定木を示すデータ群である転移識別データ80が生成される。
The
以下、事前ドメイン生成処理(ステップS1)及び事前ドメイン評価処理(ステップS2)が実行される理由を説明する。 Hereinafter, the reason why the prior domain generation process (step S1) and the prior domain evaluation process (step S2) are performed will be described.
図6は、目標ドメイン50B及び転移候補特徴データ42の分布の一例を示す図である。図6は、転移候補特徴データ42及び学習用特徴データ52の特徴量の次元数が2である場合を例にして、転移候補特徴データ42の分布と、目標ドメイン50Bを構成する学習用特徴データ52の分布とを示している。
FIG. 6 is a view showing an example of the distribution of the
目標ドメイン50Bは、学習用データ51から特徴量を抽出することにより生成された学習用特徴データ52を含む。複数の学習用データ51は、上述のように、俯角0°で撮影した人物を含む画像であるため、互いに類似する特徴を有する。従って、図6に示す2次元空間において、学習用特徴データ52のばらつきは小さく、目標ドメイン50Bは、比較的狭い領域に限定される。
The
一方、転移候補特徴データ42の分布は、学習用特徴データ52に比べてばらつきが大きい。転移候補データ41は、インターネット上で検出対象(人物)を検索することにより収集されるため、転移候補データ41の人物の撮影条件は、様々である。転移候補特徴データ42は、転移候補データ41から特徴量を抽出することにより生成される。従って、転移候補特徴データ42は、図6に示す2次元空間全体に広がり、その位置はランダムである。
On the other hand, the distribution of the transfer
ここで、転移学習を導入した機械学習について、画像から人物を検出する場合を例に説明する。転移学習を導入した機械学習では、目標ドメインと、事前ドメインとが予め準備される。目標ドメインは、所定の条件下における検出対象の特徴を有する画像のグループである。本実施の形態において、検出対象は人物であり、所定の条件は、検出対象(人物)が俯角0°で撮影された画像に含まれていることである。 Here, machine learning in which transfer learning is introduced will be described using an example of detecting a person from an image. In machine learning in which transfer learning is introduced, a target domain and a prior domain are prepared in advance. The target domain is a group of images having features to be detected under predetermined conditions. In the present embodiment, the detection target is a person, and the predetermined condition is that the detection target (person) is included in the image captured at a depression angle of 0 °.
事前ドメインは、上記の所定の条件と異なる条件下における検出対象の特徴を有する画像のグループである。事前ドメインは、収集された画像を所定の規則により分類することにより生成される。例えば、収集された各画像の撮影条件がわかっている場合、収集された画像を撮影条件に応じて分類することができる。これにより、事前ドメインは、互いに共通する、又は類似する特徴を有する画像の集合となる。 The pre-domain is a group of images having features to be detected under conditions different from the predetermined conditions described above. The pre-domain is generated by classifying the collected images according to a predetermined rule. For example, when the imaging condition of each acquired image is known, the acquired image can be classified according to the imaging condition. Thus, the pre-domains are a set of images having features common or similar to one another.
機械学習装置が転移学習を導入した機械学習を実行する場合、最初に事前ドメインの学習が行われ、次に目標ドメインの学習が行われる。そして、機械学習装置は、俯角0°で撮影された人物の特徴と共通又は類似する特徴を有する画像を特定し、特定した画像が有する特徴を、目標ドメイン50Bに含まれる画像の学習結果に転移させる。これにより、目標ドメインを構成する画像の数を削減することができるとともに、人物の識別精度を向上させることができる。
When the machine learning apparatus executes machine learning in which transfer learning is introduced, learning of a pre-domain is performed first, and then learning of a target domain is performed. Then, the machine learning apparatus identifies an image having a feature common or similar to the feature of the person photographed at a depression angle of 0 °, and transfers the feature included in the identified image to the learning result of the image included in the
しかし、ある事前ドメインにおける画像の特徴が、目標ドメインにおける画像の特徴と大きく異なる場合、負の転移が発生する。この理由は、この事前ドメインにおける画像の特徴が、転移学習により、目標ドメインにおける画像の学習結果に反映されるためである。この結果、転移学習を導入した機械学習の結果として生成される識別器の精度が低下する。 However, if the image features in one prior domain differ significantly from the image features in the target domain, a negative transition occurs. The reason is that the feature of the image in this prior domain is reflected in the learning result of the image in the target domain by transfer learning. As a result, the accuracy of the classifier generated as a result of machine learning that introduced transfer learning is reduced.
図6に示すように、2次元空間全体に広がる全ての転移候補特徴データ42を1つの事前ドメインとした場合、目標ドメイン50Bの領域から離れた転移候補特徴データ42が、転移学習に用いられることになる。この場合、負の転移が発生する可能性が非常に高い。負の転移の発生を防ぐためには、互いに共通する、又は類似する特徴を有する転移候補特徴データ42同士をまとめることにより、事前ドメイン45を生成し、生成した事前ドメイン45が、転移学習を導入した機械学習に有効であるか否かを判断すればよい。事前ドメイン生成処理(ステップS1)は、互いに共通する、又は類似する特徴を有する転移候補特徴データ42の集合である事前ドメイン45を生成するために実行される。
As shown in FIG. 6, when all transition
図7は、図6に示す転移候補特徴データ42を分類した一例を示す図である。クラスタリング装置10は、図7に示す転移候補特徴データ42を分類することにより、事前ドメイン45A〜45Gを生成する。
FIG. 7 is a view showing an example in which the transfer
事前ドメイン45A〜45Gの中で、事前ドメイン45A及び45Fは、目標ドメイン50Bと重複していない。従って、事前ドメイン45A及び45Fは、転移学習を導入した機械学習に有効でない。また、事前ドメイン45Dは、目標ドメイン50Bと重複しているが、重複している範囲が他の事前ドメインに比べて少ない。従って、事前ドメイン45Dは、負の転移を発生させる可能性があり、転移学習に有効でない。
Among the pre-domains 45A-45G, pre-domains 45A and 45F do not overlap with the
このように、事前ドメイン生成処理(ステップS1)により、負の転移を発生させる可能性がある(転移学習に有効でない)事前ドメインが生成される可能性がある。転移学習を導入した機械学習の結果として生成される転移識別器の精度を向上させるためには、転移学習に有効でない事前ドメインを予め除外しておくことが望ましい。このため、事前ドメイン評価処理(ステップS2)は、事前ドメイン生成処理(ステップS1)により生成された事前ドメイン45A〜45Gの中で、転移学習に有効な事前ドメインを特定するために行われる。
Thus, the pre-domain generation process (step S1) may generate a pre-domain (which is not effective for transfer learning) which may cause negative transfer. In order to improve the accuracy of a transition classifier generated as a result of machine learning in which transition learning is introduced, it is desirable to exclude beforehand a pre-domain that is not effective for transition learning. Therefore, the preliminary domain evaluation process (step S2) is performed to identify the preliminary domain effective for the transfer learning among the
[3.事前ドメイン生成処理(ステップS1)]
図8は、事前ドメイン生成処理(ステップS1)のフローチャートである。図8を参照しながら、記憶装置400に記憶された転移候補データ41,41,・・・から事前ドメイン45を生成するクラスタリング装置10の動作を詳しく説明する。
[3. Prior domain generation processing (step S1)]
FIG. 8 is a flowchart of the prior domain generation process (step S1). The operation of the
[3.1.HOG特徴量の抽出]
クラスタリング装置10は、記憶装置400に記憶された全ての転移候補データ41を取得する。クラスタリング装置10において、特徴抽出部11(図2参照)は、取得した全ての転移候補データ41の各々からHOG特徴量を抽出する(ステップS101)。これにより、全ての転移候補データ41の各々に対応する複数の転移候補特徴データ42が生成される。
[3.1. Extraction of HOG feature value]
The
特徴抽出部11は、転移候補データ41からHOG特徴量を抽出する条件を、例えば、以下のように設定する。転移候補データ41の色チャンネルは、グレースケールに設定される。転移候補データ41のサイズは、縦60ピクセル、横30ピクセルに設定される。
The feature extraction unit 11 sets, for example, the conditions for extracting the HOG feature amount from the
HOG特徴量の抽出時のパラメータとして、セル、ブロック、勾配方向数が設定される。セルは、輝度の勾配方向を計算する単位領域である。ブロックは、輝度の勾配方向のヒストグラムを作成する単位領域である。勾配方向数は、0°以上180°以下の範囲における分割数である。 The number of cells, blocks, and gradient directions are set as parameters at the time of extraction of HOG feature quantities. A cell is a unit area for calculating the gradient direction of luminance. A block is a unit area that creates a histogram in the gradient direction of luminance. The number of gradient directions is the number of divisions in the range of 0 ° to 180 °.
例えば、1セルの大きさは、縦5ピクセル、横5ピクセルに設定される。1ブロックの大きさは、縦3ピクセル、横3ピクセルに設定される。勾配方向数は、9に設定される。勾配方向数が9である場合、各セルの勾配方向は、20°おきに9方向に分割され、9方向のうちいずれかの方向に設定される。この場合、転移候補特徴データ42の次元数は、3240となる。
For example, the size of one cell is set to 5 pixels vertically and 5 pixels horizontally. The size of one block is set to 3 pixels vertically and 3 pixels horizontally. The number of gradient directions is set to nine. When the number of gradient directions is nine, the gradient direction of each cell is divided into nine directions at intervals of 20 °, and is set to one of nine directions. In this case, the number of dimensions of the transfer
[3.2.ルートノード35Rにおける分類可否の判断]
図9は、分類部12により生成される分類木35の初期構造を示す図である。分類部12は、転移候補特徴データ42を分類するためのアルゴリズムとしてデンシティフォレストを用いる。デンシティフォレストを用いる場合、通常であれば、複数の分類木が生成されるが、分類部12は、1本の分類木のみを生成する。
[3.2. Determination of classification availability at the
FIG. 9 is a diagram showing an initial structure of the classification tree 35 generated by the
分類木35は、転移候補特徴データ42が分類部12により分類される過程で形成される。分類木35を構成するノードのうち、所定の条件を満たすノードが、事前ドメインに決定される。
The classification tree 35 is formed in the process in which the transfer
分類部12は、分類木35のルートノード35Rを作成する(ステップS102)。図9に示すノード35A及び35Bは、ステップS102が実行される時点では生成されない。分類部12は、特徴抽出部11により生成された全ての転移候補特徴データ42を、ルートノード35Rに入力する(ステップS103)。ルートノード35Rに入力される転移候補特徴データ42の数は、30000である。
The
次に、事前ドメイン決定部14は、分類木35において、全てのノードを分類対象ノードとして選択したか否かを判断する(ステップS104)。ルートノード35Rが分類対象として選択されていないため(ステップS104においてNo)、事前ドメイン決定部14は、ルートノード35Rを分類対象に選択する(ステップS105)。
Next, the advance
事前ドメイン決定部14は、ステップS106を実行して、ルートノード35Rが事前ドメインとしての条件を満たしているか否かを判断する。具体的には、事前ドメイン決定部14は、ルートノード35Rに属する転移候補特徴データ42の数を取得する。事前ドメイン決定部14は、取得した転移候補特徴データ42の数が予め設定された分類継続基準値より大きいか否かを判断する(ステップS106)。分類継続基準値は、例えば、9270に設定される。
The prior
ルートノード35Rに属する転移候補特徴データ42の数(30000)は、分類継続基準値(9270)より大きい(ステップS106においてYes)。この場合、ルートノード35Rに属する転移候補特徴データ42の数が多すぎるため、ルートノード35Rを事前ドメイン45として用いることができない。
The number (30000) of transition
上述のように、1つの事前ドメインが全ての転移候補特徴データ42を含む場合、転移学習を導入した機械学習により生成される転移識別データ80の精度が低下する。ルートノード35Rは、分類継続基準値よりも多い転移候補特徴データ42を含むため、上記1つの事前ドメインと同様に、目標ドメイン50Bの領域から大きく離れた転移候補特徴データ42を数多く含む。この場合、事前ドメイン決定部14は、ルートノード35Rに属する転移候補特徴データ42を分類する条件の1つが満たされていると判断する。
As described above, when one prior domain includes all the transition
分類継続基準値は、特徴抽出部11により抽出される特徴量の次元数より大きい。例えば、本実施の形態では、分類継続基準値は、転移候補特徴データ42の次元数(3240)の3倍である9720に設定される。 The classification continuation reference value is larger than the number of dimensions of the feature quantity extracted by the feature extraction unit 11. For example, in the present embodiment, the classification continuation reference value is set to 9720, which is three times the number of dimensions (3240) of the transition candidate feature data.
次に、クラスタリング装置10は、ステップS107及びS108を実行して、ルートノード35Rの共分散に基づいて、ルートノード35Rに属する転移候補特徴データ42を分類する条件が満たされているか否かを判断する。
Next, the
事前ドメイン決定部14は、分類対象のノード(ルートノード35R)の共分散44(図3参照)の計算を分類部12に指示する。分類部12は、事前ドメイン決定部14の指示に応じて、分類対象のノード(ルートノード35R)に属する転移候補特徴データ42を分散計算部13に出力する。分散計算部13は、分類部12から出力された転移候補特徴データ42を用いて、分類対象のノードに属する転移候補特徴データ42の特徴量の共分散13Aを計算する。分散計算部13は、計算した共分散13Aを事前ドメイン決定部14に出力する。
The prior
事前ドメイン決定部14は、分散計算部13により計算された共分散13A(ルートノード35Rの共分散)が予め設定された分散基準値よりも大きいか否かを判断する(ステップS108)。共分散13Aは、分散基準値よりも大きいと仮定する(ステップS108においてYes)。
The prior
上述のように、ルートノード35Rは全ての転移候補特徴データ42を含んでおり、全ての転移候補特徴データ42のばらつきは非常に大きい。この場合、共分散44は非常に大きいため、事前ドメイン決定部14は、ルートノード35Rに属する転移候補特徴データ42をさらに分類することができると判断する。事前ドメイン決定部14は、ルートノード35Rに属する転移候補特徴データ42の分類を分類部12に指示する。
As described above, the
[3.3.転移候補特徴データ42の分類]
分類部12は、事前ドメイン決定部14の指示に応じて、ルートノード35Rに属する転移候補特徴データ42を分類するために、ルートノード35Rの子ノードとして、ノード35A及び35Bを生成する(ステップS109)。
[3.3. Classification of transfer candidate feature data 42]
The
分類部12は、ルートノード35Rに属する転移候補特徴データ42を、ステップS109で生成したノード35A及び35Bのいずれかに分類する(ステップS110)。具体的には、下記式(1)に示す目的関数Iに基づいて、転移候補特徴データ42の分類先のノードが決定される。
The
式(1)において、Sは、親ノード(ルートノード35R)である。SLは、2つの子ノードのうち左側のノード(ノード35A)であり、SRは、2つの子ノードのうち右側のノード(ノード35B)である。Λ(S)は、親ノードの共分散であり、Λ(SL)は、左側の子ノードの共分散であり、Λ(SR)は、右側の子ノードの共分散である。
In Formula (1), S is a parent node (
分類部12は、式(1)に示す目的関数Iを計算するために、ルートノード35Rに属する転移候補特徴データ42を暫定的に分類する。具体的には、分類部12は、以下のようにして、転移候補特徴データ42の暫定的な分岐条件を設定する。
The
転移候補特徴データ42の次元数は、3240である。つまり、転移候補特徴データ42は、3240個の特徴量を有する。分類部12は、3240個の特徴量のうち、k番目(0≦k≦3239)の特徴量をランダムに選択し、k番目の特徴量のしきい値をランダムに設定する。これにより、暫定的な分岐条件が設定される。
The number of dimensions of the transfer
分類部12は、設定した分岐条件に基づいて、ルートノード35Rに属する転移候補特徴データ42を、ノード35A又は35Bに暫定的に分類する。分散計算部13は、ノード35Aに分類された転移候補特徴データ42の共分散と、ノード35Bに暫定的に分類された転移候補特徴データ42の共分散とを計算する。ルートノード35Rの共分散は、ステップS105において既に計算されている。分類部12は、これら3つの共分散を用いて、ルートノード35Rの目的関数Iを計算する。
The
分類部12は、ルートノード35Rにおいて複数の分岐条件を設定する。分類部12は、各分岐条件に対応する目的関数Iを計算するために、各分岐条件に基づいて転移候補特徴データ42を暫定的に分類する。暫定的に分類された転移候補特徴データ42に基づいて、各分岐条件における目的関数Iを計算する。分類部12は、計算した複数の目的関数Iの中で最大の目的関数Iを特定する。分類部12は、最大の目的関数Iに対応する分岐条件で、ルートノード35Rに属する転移候補特徴データ42を分類することを決定する。これにより、ルートノード35Rに属する転移候補特徴データ42は、ノード35A及び35Bのいずれかに分類される。
The
図10は、ルートノード35Rに属する転移候補特徴データ42が分類された後における分類木35を示す図である。なお、転移候補特徴データ42のノード35A及び35Bへの分類が終了した時点では、ノード35Bの子ノード(ノード35C及び35D)は、生成されていない。
FIG. 10 is a diagram showing the classification tree 35 after the transfer
ルートノード35Rに属する30000個の転移候補特徴データ42を分類した結果、7000個の転移候補特徴データ42が、ノード35Aに分類される。23000個の転移候補特徴データ42が、ノード35Bに分類される。これにより、ルートノード35Rに属する転移候補特徴データ42を2つの子ノードに分類するステップS110が終了する。
As a result of classifying 30,000 transition
[3.4.ノード35Aにおける判断]
ルートノード35Rに属する転移候補特徴データ42の分類が終了した後に、事前ドメイン決定部14は、分類対象として全てのノードが選択されたか否かを判断する(ステップS104)。事前ドメイン決定部14は、選択されていないノード35A及び35Bが存在するため(ステップS104において、No)、次の判断対象となるノードを前順で選択する(ステップS105)。具体的には、分類部12は、ノード35Aを選択する。
3.4. Decision at
After the classification of the transition
図10に示すように、ノード35Aに属する転移候補特徴データ42の数は、7000である。ノード35Aに属する転移候補特徴データ42の数が、分類継続基準値(9270)以下であるため(ステップS106においてNo)、事前ドメイン決定部14は、ノード35Aを事前ドメイン45に決定する(ステップS111)。つまり、事前ドメイン決定部14は、ノード35Aに属する転移候補特徴データ42をさらに分類しないことを決定し、ノード35Aをリーフノードに設定する。
As shown in FIG. 10, the number of transfer
[3.5.ノード35Bにおける判断]
次に、事前ドメイン決定部14は、ノード35Bを判断対象として選択する(ステップS105)。ノード35Bに属する転移候補特徴データ42の数は、23000であり、分類継続基準値(9270)よりも大きい(ステップS106においてYes)。また、ノード35Bの共分散は、分散基準値よりも大きいと仮定する(ステップS108においてYes)。この場合、事前ドメイン決定部14は、ノード35Bに属する転移候補特徴データ42をさらに分類することを決定する。
[3.5. Decision at
Next, the prior
分類部12は、ノード35Bに対する事前ドメイン決定部14の決定に応じて、ノード35Bの子ノード(ノード35C及び35D)を生成する(ステップS109)。分類部12は、ルートノード35Rにおける転移候補特徴データ42の分類と同様に、ノード35Bに属する転移候補特徴データ42を、ノード35C及び35Dのいずれかに分類する(ステップS110)。
The
図11は、事前ドメイン生成処理(ステップS1)が終了した後の分類木35を示す図である。図11に示すように、ノード35Bに属する転移候補特徴データ42を、ノード35C及び35Dに分類した結果、15000個の転移候補特徴データ42が、ノード35Cに分類され、8000個の転移候補特徴データ42が、ノード35Dに分類される。
FIG. 11 is a diagram showing the classification tree 35 after the prior domain generation processing (step S1) is finished. As shown in FIG. 11, as a result of classifying transition
ノード35Cに属する転移候補特徴データ42の数は、分類継続基準値(9270)よりも大きい(ステップS106においてYes)。また、ノード35Cの共分散が分散基準値よりも大きいと仮定する(ステップS108においてYes)。この場合、事前ドメイン決定部14は、ノード35Cに属する転移候補特徴データ42をさらに分類することを決定する。ノード35Cに属する転移候補特徴データ42の分類については、後述する。
The number of transfer
一方、ノード35Dに属する転移候補特徴データ42の数が分類継続基準値以下であるため(ステップS106においてNo)、事前ドメイン決定部14は、ノード35Dを事前ドメインに決定する。
On the other hand, since the number of transfer
[3.6.転移候補特徴データ42の分類の終了]
分類部12は、ノード35Cの子ノードとしてノード35E及び35Fを生成し(ステップS109)、ノード35Cに属する転移候補特徴データ42をノード35E及び35Fに分類する(ステップS110)。
[3.6. End of classification of transfer candidate feature data 42]
The
ノード35Eに属する転移候補特徴データ42の数は、500であり、分類継続基準値以下である(ステップS106においてNo)。このため、事前ドメイン決定部14は、ノード35Eを事前ドメインに決定する(ステップS111)。
The number of transfer
ノード35Fに属する転移候補特徴データ42の数は、14500であり、分類継続基準値よりも大きい(ステップS106においてYes)。一方、ノード35Fの共分散が、分散基準値よりも小さいと仮定する(ステップS108においてNo)。この場合、事前ドメイン決定部14は、ノード35Fに属する転移候補特徴データ42の特徴量の分布のばらつきが非常に小さいと判断する。例えば、ノード35Fに属する転移候補特徴データ42の大半が、同一の画像から生成される場合が考えられる。この場合、事前ドメイン決定部14は、ノード35Fに含まれる転移候補特徴データ42をさらに分類することができないと判断し、ノード35Fを事前ドメインに決定する(ステップS111)。これにより、分類木35を構成する全てのノードを判断対象として選択したため(ステップS104においてYes)、クラスタリング装置10は、ステップS112に進む。
The number of transfer
[3.7.事前ドメインの除外]
事前ドメイン決定部14は、事前ドメインに決定された各ノードが有する転移候補特徴データ42の数を確認する。事前ドメイン決定部14は、予め設定された破棄基準値以下の数の転移候補特徴データ42を有するノードがある場合、このノードを事前ドメインから除外する(ステップS112)。破棄基準値は、例えば、転移候補特徴データ42の次元数(3240)に設定される。具体的には、事前ドメインに決定されたノード35Eは、転移候補特徴データ42の数が500であるため、事前ドメインから除外される。
[3.7. Advance Domain Exclusion]
The prior
上述のように、学習に用いられる数のデータが次元数よりも少ない場合、生成される識別装置の精度が低下する可能性がある。 As mentioned above, if the number of data used for learning is less than the number of dimensions, the accuracy of the generated identification device may be reduced.
分類継続基準値は、特徴抽出部11により抽出される特徴量の次元数より大きい。機械学習において、学習に用いられるデータの数が学習に用いられるデータの次元数よりも少ない場合、学習に用いられるデータの特徴の学習結果が過大に評価され、転移識別データ80の精度が低下する。このため、本実施の形態では、破棄基準値が、転移候補特徴データ42の次元数である3240に設定される。これにより、事前ドメイン45に属する転移候補特徴データ42の数が、転移候補特徴データ42の次元数より少なくなることを防ぐことができる。
The classification continuation reference value is larger than the number of dimensions of the feature quantity extracted by the feature extraction unit 11. In machine learning, when the number of data used for learning is smaller than the number of dimensions of data used for learning, the learning result of the feature of the data used for learning is overestimated, and the accuracy of the
また、ある事前ドメインに含まれる転移候補特徴データ42の数が、破棄基準値よりも少ない場合、この事前ドメインに含まれる転移候補特徴データ42は、検出対象の特徴を有していない可能性が高い。
In addition, when the number of transfer
例えば、インターネット上で人物の画像を収集する際に、人物以外の物が撮影された画像が転移候補データ41として誤って取得される場合がある。誤って収集された転移候補データ41から生成された転移候補特徴データ42は、人物の特徴を有する転移候補特徴データ42と異なる特徴を有し、転移学習に有効でない。また、検索条件が人物を撮影した画像であるため、人物以外の物が撮影された画像が転移候補データ41の集合において占める割合は、非常に小さいと想定される。
For example, when collecting an image of a person on the Internet, an image in which an object other than the person is photographed may be erroneously acquired as the
従って、あるノードに属する転移候補特徴データ42の数が破棄基準値よりも少ない場合、このノードは、誤って収集された転移候補データ41から生成された転移候補特徴データ42により構成されると考えられる。事前ドメイン決定部14は、破棄基準値以下の数の転移候補特徴データ42を有するノードを、事前ドメインから除外する。
Therefore, when the number of transfer
この結果、図11に示す分類木35において、ノード35A、35D及び35Fが事前ドメイン45に決定される。クラスタリング装置10は、決定された3つの事前ドメイン45を事前ドメイン評価装置20及び選択学習装置30に出力する。
As a result, in the classification tree 35 shown in FIG. 11,
以上説明したように、クラスタリング装置10は、転移候補データ41の各々から特徴を抽出して複数の転移候補特徴データ42を生成し、分類木35を作成する過程で、複数の転移候補特徴データ42を分類木35のノードに分類する。クラスタリング装置10は、ノードに属する転移候補特徴データ42の数が分類継続基準値以下であるか、ノードに属する転移候補特徴データ42の共分散が分散基準値以下である場合、このノードを事前ドメインに決定する。これにより、互いに類似する、又は共通する特徴を有する転移候補特徴データ42により構成される事前ドメインを生成することができる。
As described above, the
[4.事前ドメイン評価処理(ステップS2)]
図12は、図5に示す事前ドメイン評価処理(ステップS2)のフローチャートである。事前ドメイン評価装置20が、ステップS2に示す処理を開始する際に、試行転移識別部63が試行転移学習部23内に生成されておらず、比較識別部64が比較学習部24内に生成されていない。
[4. Prior domain evaluation process (step S2)]
FIG. 12 is a flowchart of the prior domain evaluation process (step S2) shown in FIG. When the prior
[4.1.目標ドメイン50Bの生成]
事前ドメイン評価装置20は、クラスタリング装置10により生成された事前ドメイン45を取得する。具体的には、事前ドメイン評価装置20は、図11に示す分類木35を作成する過程で生成された3つの事前ドメイン45(図11に示すノード35A、35D、35F)を取得する。事前ドメイン評価装置20は、取得した事前ドメイン45を一時記憶部21に記憶する(ステップS201)。
[4.1. Generation of
The prior
以下、ノード35A、35D及び35Fを、それぞれ「事前ドメイン35A」、「事前ドメイン35D」、「事前ドメイン35F」と記載する。
The
特徴抽出部22(図3参照)が、記憶装置500に記憶された目標ドメイン50Aを取得する。特徴抽出部22は、取得した目標ドメイン50Aに含まれる学習用データ51の各々から特徴量を抽出することにより、学習用データ51の各々に対応する複数の学習用特徴データ52を生成する(ステップS202)。これにより、複数の学習用特徴データ52により構成される目標ドメイン50Bが生成される。特徴抽出部22は、生成した目標ドメイン50Bを試行転移学習部23に出力する。
The feature extraction unit 22 (see FIG. 3) acquires the
特徴抽出部22は、特徴抽出部11(図2参照)が転移候補データ41から転移候補特徴データ42を生成する時と同じ条件で、特徴量の抽出を行う。従って、学習用特徴データ52の次元数は、転移候補特徴データ42の次元数と同じ3240である。この理由については後述する。
The
事前ドメイン評価装置20は、一時記憶部21に記憶された事前ドメイン45のうち、転移学習に有効か否かを評価する対象となる事前ドメインを1つ選択する(ステップS203)。具体的には、一時記憶部21に記憶されている事前ドメイン35A、35D及び35Fのうち、最初に事前ドメイン35Aが選択される。
The preliminary
[4.2.比較学習及び試行転移学習]
比較学習部24は、ステップS203において選択された事前ドメイン35Aを入力する。比較学習部24は、入力した事前ドメイン35Aを学習する(ステップS204)。比較学習部24の学習アルゴリズムは、転移学習が導入されていないランダムフォレストである。比較学習部24は、ステップS204を実行することにより、事前ドメイン35Aの学習結果を反映した比較識別部64を生成する。比較識別部64は、複数の決定木の構造を示すデータ群である。
[4.2. Comparative Learning and Trial Transfer Learning]
The
試行転移学習部23は、特徴抽出部22から目標ドメイン50Bを取得し、一時記憶部21から事前ドメイン35Aを取得する。試行転移学習部23は、入力した目標ドメイン50B及び事前ドメイン35Aを用いて、転移学習を導入した機械学習を行う(ステップS205)。試行転移学習部23の学習アルゴリズムは、転移学習を導入したランダムフォレストである。試行転移学習部23は、ステップS205を実行することにより、目標ドメイン50A及び事前ドメイン35Aの学習結果を反映した試行転移識別部63を生成する。試行転移識別部63は、複数の決定木の構成を示すデータ群である。試行転移学習部23において用いられる学習アルゴリズム及びドメインが比較学習部24のものと異なるため、試行転移識別部63の構造は、比較識別部64の構造と異なる。
The trial
[4.3.事前ドメインの評価(ステップS206)]
評価部25は、試行転移学習部23により生成された試行転移識別部63と比較学習部24により生成された比較識別部64とを用いて、評価対象の事前ドメイン35Aが転移学習に有効であるか否かを判断する(ステップS206)。
[4.3. Evaluation of pre-domain (step S206)]
The
評価部25は、転移学習の有効性を判断するために、競合値251A及び信頼度252Aの2種類のパラメータを計算する。評価部25は、信頼度252Aを計算する場合、サンプルグループに含まれるデータの試行転移識別部63による識別結果を利用する。ここで、サンプルグループとは、目標ドメイン50Bに含まれる学習用特徴データ52と、評価対象である事前ドメイン35Aに含まれる転移候補特徴データ42とを合わせた集合である。以下、サンプルグループに含まれるデータを、「サンプルデータ」と記載する。評価部25は、競合値251Aを計算する場合、試行転移識別部63による識別結果に加えて、比較識別部64による識別結果を利用する。
The
[4.3.1.競合値251Aの計算]
競合値計算部251は、試行転移識別部63により生成される各画像のラベルと、比較識別部64により生成される各画像のラベルとの比較結果に基づいて、競合値251Aを計算する。
[4.3.1. Calculation of the
The competition
試行転移識別部63は、サンプルグループに含まれるサンプルデータのうち、いずれか1つを入力する。試行転移識別部63は、サンプルデータに対して人物の識別処理を行い、識別結果を示すラベル73を生成する。ラベル73の値は、例えば、0又は1である。ラベル73が0である場合、ラベル73は、サンプルデータが人物の特徴を含まないことを示す。ラベル73が1である場合、ラベル73は、サンプルデータが人物の特徴を含むことを示す。試行転移識別部63は、生成したラベル73を競合値計算部251に出力する。
The trial
なお、試行転移識別部63は、サンプルデータの識別結果として、ラベル73だけでなく、ラベル73の確からしさを示す確度83を計算する。確度83は、後述する信頼度252Aの計算に用いられる。
The trial
比較識別部64は、試行転移識別部63に入力されたサンプルデータと同じデータを入力する。比較識別部64は、サンプルデータに対して人物の識別処理を行い、識別結果を示すラベル74を生成する。ラベル74の値は、ラベル73と同様に、0又は1である。ラベル74が0である場合、ラベル74は、サンプルデータが人物の特徴を含まないことを示す。ラベル74が1である場合、ラベル74は、サンプルデータが人物の特徴を含むことを示す。比較識別部64は、生成したラベル74を競合値計算部251に出力する。
The
競合値計算部251は、サンプルデータから生成されるラベル73及び74を用いて、競合値251Aを計算する。競合値251Aは、下記式(2)により計算される。
The competition
式(2)において、Ec1は、競合値251Aを示す。Xは、サンプルグループを示す。xは、サンプルグループを構成する要素(サンプルデータ)を示す。M(x)は、要素xから生成されたラベル74を示す。T(x)は、要素xから生成されたラベル73を示す。[M(x)≠T(x)]は、ラベル74とラベル73とが一致しなかったサンプルデータの数を示す。|X|は、サンプルグループXを構成する要素の数である。
In the equation (2), E c1 represents the
式(2)により計算される競合値251Aは、同一のサンプルデータから生成されるラベル73及びラベル74が一致しない確率を示す。競合値251Aは、0以上1以下の数値である。競合値251Aが0に近づくほど、競合値251Aは、転移学習における事前ドメイン35Aの有効性が高いことを示す。一方、競合値251Aが1に近づくほど。転移学習における事前ドメイン35Aの有効性が低いことを示す。
The
目標ドメイン50Bに含まれる学習用特徴データ52と、評価対象の事前ドメイン35Aに含まれる転移候補特徴データ42との相違点が多い場合、事前ドメイン35Aは、転移学習に有効ではない。この場合、競合値251Aは、1に近づく。以下、その理由を説明する。
If there are many differences between the learning feature data 52 included in the
上述のように、比較学習部24は、事前ドメイン35Aのみを学習する。このため、事前ドメイン35Aの学習結果のみが、比較識別部64に反映される。
As described above, the
一方、試行転移識別部63が、目標ドメイン50A及び事前ドメイン35Aとを用いて転移学習を導入した機械学習を実行している。しかし、目標ドメイン50Bに含まれる学習用特徴データ52と、評価対象の事前ドメイン35Aに含まれる転移候補特徴データ42との相違点が多い場合、事前ドメイン35Aに含まれる転移候補特徴データ42の学習結果が、学習用特徴データ52の学習結果に反映されない。つまり、試行転移識別部63と、比較識別部64とは、互いに異なるドメインを学習することにより生成されたと考えることができる。この場合、試行転移識別部63と、比較識別部64との識別結果が一致しない場合が増加し、競合値251Aが増加する。従って、競合値251Aに基づいて、事前ドメイン35Aが転移学習に有効であるか否かを判断することが可能となる。
On the other hand, the trial
[4.3.2.信頼度の計算]
信頼度計算部252は、試行転移識別部63により生成される各画像のラベル73及び確度83に基づいて、信頼度252Aを計算する。信頼度252Aの計算に当たり、比較識別部64によるサンプルデータの識別結果は使用されない。
[4.3.2. Calculation of reliability]
The
試行転移識別部63は、上述のように、サンプルデータに対する人物の識別結果を示すラベル73と、ラベル73の確からしさを示す確度83を生成する。確度83は、0以上1以下の値であり、確度83が1に近づくほど、ラベル73が誤りである可能性が小さくなる。
As described above, the trial
信頼度計算部252は、試行転移識別部63から各サンプルデータのラベル73及び確度83を入力する。信頼度計算部252は、入力した各サンプルデータのラベル73及び確度83を用いて、下記式(3)を計算することにより信頼度252Aを計算する。
The
上記式(3)において、Ec2は、信頼度252Aを示す。xは、上記式(2)と同様に、サンプルグループXを構成する要素(サンプルデータ)を示す。|X|は、サンプルグループXの要素数である。PT(x)は、要素xの確度83を示す。PT(x)は、サンプルデータが試行転移識別部63を構成する各決定木に入力された場合において、サンプルデータが各決定木において到達したリーフノードに設定されたクラスの確率の平均である。T(x)は、要素xのラベル73を示す。yは、人物の存在を示すラベル(y=1)である。つまり、信頼度252Aは、ラベル73がラベルyと一致する場合に算出された確度83の合計値を、サンプルグループXの要素数で除算した値である。信頼度252Aは、0以上1以下の値であり、1に近いほど、転移学習における事前ドメイン35Aの有効性が高いことを示す。
In the above equation (3), E c2 represents the
事前ドメイン35Aの転移候補特徴データ42が、学習用特徴データ52の特徴量と類似する特徴量を有している場合、試行転移学習部23は、試行転移学習により、転移候補特徴データ42の学習結果を学習用特徴データ52の学習結果に転移させる。試行転移識別部63には、学習用特徴データ52と、事前ドメイン35Aの転移候補特徴データ42との学習結果が反映されている。試行転移識別部63は、試行転移学習に用られたサンプルグループの各データに対して識別処理を行った場合、ラベル73は1となり、その確度83も1に近づくと考えられる。従って、学習用特徴データ52と事前ドメイン35Aの転移候補特徴データ42とが類似している場合(事前ドメイン35Aが転移学習において有効である場合)、信頼度252Aは、1に近づく。
When the transfer
[4.3.3.転移評価部253による事前ドメインの評価}
転移評価部253は、競合値251A及び信頼度252Aを入力する。転移評価部253は、入力した競合値251A及び信頼度252Aに基づいて、転移学習における事前ドメイン35Aの有効性を評価する。
[4.3.3. Evaluation of prior domain by metastasis evaluation unit 253}
The
転移評価部253は、下記の式(4)を用いて、総合評価値を計算する。
The
式(4)において、Eは、競合値251A及び信頼度252Aから得られる総合評価値である。事前ドメイン35Aの転移学習における有効性が低下するにつれて、競合値251Aは増加する。一方、信頼度252Aは、逆に低下する。信頼度252Aの傾向を競合値251Aの傾向に合わせるために、1から信頼度252Aを減算した値を、総合評価値の計算に使用している。
In the equation (4), E is a comprehensive evaluation value obtained from the
上記式(4)により計算された総合評価値は、0以上1以下の値であり、転移学習の有効性が高くなるにつれて0に近づく。転移評価部253は、計算された総合評価値が予め設定されたしきい値よりも小さい場合、事前ドメイン35Aが転移学習において有効であると判断する。
The comprehensive evaluation value calculated by the above equation (4) is a value of 0 or more and 1 or less, and approaches 0 as the effectiveness of transfer learning becomes higher. The
[4.4.次の事前ドメインの指定]
事前ドメイン35Aの転移学習における有効性の評価(ステップS206)が終了した後に、事前ドメイン35Aの有効性の評価に用いられた試行転移識別部63及び比較識別部64が削除される(ステップS207)。事前ドメイン35Aに対応する試行転移識別部63及び比較識別部64は、転移学習における他の事前ドメインの有効性の評価で使用されないためである。
[4.4. Specify the following pre-domains]
After the evaluation of the effectiveness of the pre-domain 35A in the transition learning (step S206) is completed, the trial
事前ドメイン評価装置20は、一時記憶部21に記憶されている全ての事前ドメインを選択したか否かを判断する(ステップS208)。全ての事前ドメインを選択していない場合(ステップS208においてNo)、事前ドメイン評価装置20は、選択されていない事前ドメインの転移学習における有効性を評価するために、ステップS203に戻る。これにより、転移学習における事前ドメイン35D及び35Fの有効性が評価される。
The preliminary
[4.5.評価結果データ253Aの生成]
全ての事前ドメインが選択された場合(ステップS208においてYes)、転移評価部253は、事前ドメイン35A、35D及び35Fの各々の評価結果を示す評価結果データ253Aを作成する。転移学習に有効と判断される事前ドメインの数は、特に限定されない。転移評価部253は、作成した評価結果データ253Aを選択学習装置30に出力する。
[4.5. Generation of
When all pre-domains have been selected (Yes in step S208), the
再び、図5を参照する。選択学習装置30において、事前ドメイン選択部31は、評価結果データ253Aに基づいて、クラスタリング装置10により生成された事前ドメイン45の中から、転移学習に有効と判断された事前ドメイン35A、35D及び35Fを選択する(ステップS3)。特徴抽出部32(図4参照)は、記憶装置500から目標ドメイン50Aを取得し、取得した目標ドメイン50Aに含まれる学習用データ51の各々から特徴量を抽出する(ステップS4)。これにより、学習用特徴データ52を含む目標ドメイン50Bが生成される。特徴抽出部32は、特徴抽出部22(図2参照)が学習用データ51から特徴量を抽出する時と同じ条件で、特徴量の抽出を行う。
Refer again to FIG. In the
転移学習部33は、選択された事前ドメイン35A、35D及び35Fと、特徴抽出部32により生成された目標ドメイン50Bとを用いて、転移学習を導入した機械学習を実行する(ステップS5)。これにより、複数の決定木を示すデータ群である転移識別データ80が生成される。
The
以上説明したように、機械学習装置100は、記憶装置400に記憶された転移候補データ41,41,・・・から特徴を抽出して転移候補特徴データ42,42,・・・を生成する。機械学習装置100は、抽出した特徴量に基づいて転移候補特徴データ42,42,・・・を複数のグループに分類する。機械学習装置100は、分類されたグループにおける転移候補特徴データ42の数又は共分散に基づいて、分類されたグループを事前ドメインに決定するか否かを判断する。これにより、転移学習に用いられる事前ドメインを、転移候補データ41から効率的に生成することができる。
As described above, the machine learning apparatus 100 extracts features from the
[変形例]
上記実施の形態において、クラスタリング装置10が、転移候補特徴データ42を分類する際に、デンシティフォレストを用いて分類木35として2分木を生成する場合を例に説明したが、これに限られない。クラスタリング装置10は、k−means法などの他の分類アルゴリズムを用いて、転移候補特徴データ42を分類してもよい。この場合、ステップS109(図8参照)において作成される子ノードの数は、3つ以上であってもよい。
[Modification]
In the above embodiment, when the
また、クラスタリング装置10は、2つ以上の分類アルゴリズムを用いて、転移候補特徴データ42を分類してもよい。例えば、クラスタリング装置10は、分類対象のノードに属する転移候補特徴データ42の数が、分類アルゴリズムの変更を判断するための基準値(アルゴリズム変更基準値)より大きいか否かに基づいて、分類アルゴリズムを決定する。
In addition, the
図13は、k−means法と、デンシティフォレストとを用いて生成された分類木35の一例を示す図である。例えば、アルゴリズム変更基準値が、25000に設定されていると仮定する。 FIG. 13 is a diagram showing an example of the classification tree 35 generated using the k-means method and the density forest. For example, assume that the algorithm change reference value is set to 25000.
ルートノード35Rに属する転移候補特徴データ42の数は、30000であり、アルゴリズム変更基準値よりも大きい。この場合、クラスタリング装置10は、ルートノード35Rの子ノードとして、ノード36A、36B及び36Cを生成する。そして、クラスタリング装置10は、k−means法を用いて、ルートノード35Rに属する転移候補特徴データ42を、ノード36A、36B及び36Cを生成する。
The number of transfer
そして、ノード36A及び36Cに属する転移候補特徴データ42の数は、5000及び8000であり、分類継続基準値(9270)以下である。クラスタリング装置10は、ノード36A及び36Cをそれぞれ事前ドメインに決定する。一方、ノード36Bに属する転移候補特徴データ42の数は、17000であり、分類継続基準値よりも大きい。この場合、クラスタリング装置10は、ノード36Bに属する転移候補特徴データ42をさらに分類する。
Then, the numbers of transfer
ノード36Bに属する転移候補特徴データ42の数(17000)は、アルゴリズム変更基準値(25000)以下であるため、クラスタリング装置10は、ノード36Bに属する転移候補特徴データ42の分類にデンシティフォレストを用いることを決定する。クラスタリング装置10は、ノード36Bの子ノードとして、ノード36D及び36Eを生成し、ノード36Bに属する転移候補特徴データ42を分類する。
Since the number (17000) of transition
このように、分類対象のノードに属する転移候補特徴データ42の数に応じて分類アルゴリズムを切り替えることにより、転移候補特徴データ42の分類を高速に実行することができる。
As described above, by switching the classification algorithm in accordance with the number of transfer
また、上記実施の形態において、選択学習装置30(図4参照)が、特徴抽出部32を備える例を説明したが、これに限られない。選択学習装置30は、事前ドメイン評価装置20(図3参照)が備える特徴抽出部22により生成された目標ドメイン50Bを用いて、転移識別データ80を生成してもよい。また、事前ドメイン評価装置20が、各事前ドメイン45に対応する転移候補データ41から特徴量を抽出して転移候補特徴データ42を生成してもよい。あるいは、選択学習装置30が、転移学習に有効と判断された事前ドメインに対応する転移候補データ41から特徴量を抽出して転移候補特徴データ42を生成してもよい。
Moreover, although the example which the selective learning apparatus 30 (refer FIG. 4) equips with the
いずれの場合においても、クラスタリング装置10、事前ドメイン評価装置20、選択学習装置30の各々において用いられる転移候補特徴データ42は、全て同じ条件で転移候補データ41から特徴量を抽出することにより生成されることが望ましい。同様に、学習用特徴データ52は、全て同じ条件で学習用データ51から特徴量を抽出することにより生成されることが望ましい。以下、その理由について説明する。
In any case, the transition
例えば、クラスタリング装置10と事前ドメイン評価装置20とで特徴量の抽出条件が異なる場合、クラスタリング装置10において生成される転移候補特徴データ42は、事前ドメイン評価装置20において転移候補特徴データ42における分布と異なる分布を有する。目標ドメインと事前ドメインとの位置関係が、クラスタリング装置10において生成される転移候補特徴データ42と、事前ドメイン評価装置20において転移候補特徴データ42とで異なる。この結果、事前ドメイン評価装置20において、クラスタリング装置10で生成された事前ドメインが転移学習で有効であるか否かを判定する精度が低下する。
For example, when the extraction condition of the feature amount differs between the
事前ドメイン評価装置20と、選択学習装置30とで特徴量の抽出条件が異なる場合も同様に、事前ドメイン評価装置20で有効と判断された事前ドメイン45における転移候補特徴データ42の分布が変化する。この結果、選択学習装置30における転移学習を導入した機械学習の学習精度が低下し、転移識別データ80を用いた人物の識別精度が低下する可能性がある。
The distribution of transfer
これに対して、クラスタリング装置10、事前ドメイン評価装置20、及び選択学習装置30における特徴量の抽出条件を揃えることにより、事前ドメインの有効性を評価するときの精度、転移識別データ80を生成するときの学習の精度が低下することを防ぐことができる。
On the other hand, the
上記実施の形態において、試行転移学習部23、比較学習部24及び転移学習部33が、学習アルゴリズムとしてランダムフォレストを用いる場合を例に説明したが、これに限られない。例えば、試行転移学習部23、比較学習部24及び転移学習部33は、ID3(Iterative Dichotomiser 3)や、ブースティング、ニューラルネットワークなどの各種アルゴリズムを用いてもよい。いずれの学習アルゴズムを用いる場合であっても、試行転移学習部23及び転移学習部33は、転移学習を導入した機械学習を実行し、比較学習部24は、転移学習を導入しない機械学習を実行すればよい。
Although the trial
上記実施の形態において、転移評価部253は、競合値251A及び信頼度252Aを乗算することにより、総合評価値を計算する例を説明したが、これに限られない。たとえば、転移評価部253は、競合値251A及び信頼度252Aの合計を総合評価値として計算してもよい。つまり、転移評価部253は、競合値251A及び信頼度252Aを用いて、総合評価値を計算すればよい。
In the above embodiment, although the example in which the
上記実施の形態において、機械学習装置100が、転移候補データ41及び学習用データ51の各々からHOG特徴量を抽出する場合を例にして説明したが、これに限られない。例えば、機械学習装置100は、人物の顔を学習する場合、Haar−like特徴量を抽出してもよい。機械学習装置100は、学習対象に応じて、転移候補データ41及び学習用データ51から抽出する特徴量を適宜変更すればよい。
In the above embodiment, although the machine learning device 100 extracts the HOG feature value from each of the
上記実施の形態において、機械学習装置100が、人物を検出するための転移識別データ80を生成する例を説明したが、これに限られない。学習の対象は、センサにより計測された測定データであってもよい。センサの種類は、特に限定されず、加速度センサ、光センサなどの様々な測定データを使用することができる。例えば、自動車の自動運転を行うために、これらのセンサの測定データを用いるために機械学習を実行してもよい。
Although the machine learning device 100 has described the example in which the
上記実施の形態の機械学習装置100の一部または全部は、集積回路(例えば、LSI、システムLSI等)として実現されるものであってもよい。 A part or all of the machine learning apparatus 100 according to the above-described embodiment may be realized as an integrated circuit (for example, an LSI, a system LSI, etc.).
上記実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Part or all of the processing of each functional block in the above embodiment may be realized by a program. And a part or all of processing of each functional block of the above-mentioned embodiment is performed by central processing unit (CPU) in a computer. Further, programs for performing respective processing are stored in a storage device such as a hard disk or a ROM, and are read out from the ROM or to the RAM and executed.
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施の形態に係る機械学習装置100をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。 Further, each process of the above-described embodiment may be realized by hardware or may be realized by software (including a case where it is realized with an OS (Operating System), middleware, or a predetermined library). Furthermore, it may be realized by mixed processing of software and hardware. Needless to say, when the machine learning apparatus 100 according to the above-described embodiment is realized by hardware, it is necessary to perform timing adjustment for performing each process. In the above embodiment, for the convenience of description, the details of the timing adjustment of various signals generated in the actual hardware design are omitted.
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Further, the order of execution of the processing method in the above embodiment is not necessarily limited to the description of the above embodiment, and the order of execution can be interchanged without departing from the scope of the invention.
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the above-described method and a computer readable recording medium recording the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD, a DVD-ROM, a DVD-RAM, a large capacity DVD, a next-generation DVD, and a semiconductor memory. .
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to one recorded in the recording medium, but may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.
100 機械学習装置
10 クラスタリング装置
11、22、32 特徴抽出部
12 分類部
13 分散計算部
14 事前ドメイン決定部
20 事前ドメイン評価装置
21 一時記憶部
23 試行転移学習部
24 比較学習部
25 評価部
251 競合値計算部
252 信頼度計算部
253 転移評価部
30 選択学習装置
31 事前ドメイン選択部
33 転移学習部
100
Claims (3)
前記機械学習に用いられる複数の転移候補データを分類して前記機械学習に用いられる事前ドメインを生成するクラスタリング装置と、
前記クラスタリング装置により生成された事前ドメインが前記機械学習に有効であるか否かを評価する事前ドメイン評価装置と、
を備え、
前記クラスタリング装置は、
前記複数の転移候補データの各々から特徴を抽出して複数の転移候補特徴データを生成するクラスタリング用特徴抽出部と、
前記クラスタリング用特徴抽出部により生成された複数の転移候補特徴データの各々が有する特徴に基づいて、各転移候補特徴データを第1グループ及び第2グループを含む複数のグループに分類する分類部と、
前記分類部により前記第1グループに分類された転移候補特徴データの数が所定の分類継続基準値以下である場合、前記第1グループを前記機械学習に用いられる事前ドメインに決定し、前記転移候補特徴データの数が前記分類継続基準値よりも大きい場合、前記第1グループに分類された転移候補特徴データをさらに分類することを決定する事前ドメイン決定部と、
を備え、
前記事前ドメイン評価装置は、
前記事前ドメイン決定部により前記第1グループが前記事前ドメインに決定された場合、前記第1グループに含まれる転移候補特徴データと、各々が所定の条件下における検出対象の特徴を有する学習用データを含む目標ドメインとを用いて前記機械学習を実行して、前記事前ドメインを評価するための評価用識別器を生成する試行転移学習部と、
前記試行転移学習部により生成された試行転移識別部に基づいて、前記第1グループが前記機械学習に有効であるか否かを判断する判断部と、
を備える機械学習装置。 A machine learning apparatus that executes machine learning in which transfer learning is introduced to learn a detection target,
A clustering device that classifies a plurality of transfer candidate data used for the machine learning and generates a pre-domain used for the machine learning;
A pre-domain evaluation device that evaluates whether or not the pre-domain generated by the clustering device is effective for the machine learning;
Equipped with
The clustering device
A feature extraction unit for clustering which extracts features from each of the plurality of transfer candidate data and generates a plurality of transfer candidate feature data;
A classification unit that classifies each transfer candidate feature data into a plurality of groups including a first group and a second group based on the features of each of the plurality of transfer candidate feature data generated by the clustering feature extraction unit;
When the number of transfer candidate feature data classified into the first group by the classification unit is equal to or less than a predetermined classification continuation reference value, the first group is determined to be a pre-domain used for the machine learning, and the transfer candidate A pre-domain determination unit that determines to further classify transfer candidate feature data classified into the first group if the number of feature data is larger than the classification continuation reference value;
Equipped with
The prior domain evaluation device
When the first group is determined to be the prior domain by the prior domain determination unit, for learning having transfer candidate feature data included in the first group, and each having a feature to be detected under a predetermined condition A trial transfer learning unit that executes the machine learning using a target domain including data to generate an evaluation discriminator for evaluating the pre-domain;
A determination unit that determines whether the first group is effective for the machine learning based on the trial transfer identification unit generated by the trial transfer learning unit;
Machine learning device comprising:
前記事前ドメイン評価装置は、さらに、
前記目標ドメインに含まれる学習用データの各々が有する特徴を抽出して、学習用特徴データを生成する学習用特徴抽出部、
を備え、
前記試行転移学習部は、前記学習用特徴データを用いて前記機械学習を実行し、
前記学習用特徴抽出部が学習用データから特徴を抽出する条件は、前記クラスタリング用特徴抽出部が前記複数の転移候補データの各々から特徴を抽出する条件と同じである機械学習装置。 The machine learning device according to claim 1 , wherein
The pre-domain evaluator may further:
A learning feature extraction unit that extracts features of each of the learning data included in the target domain and generates learning feature data;
Equipped with
The trial transfer learning unit executes the machine learning using the learning feature data,
The machine learning apparatus, wherein a condition for the feature extraction unit for learning to extract a feature from data for learning is the same as a condition for the feature extraction unit for clustering to extract a feature from each of the plurality of transfer candidate data.
前記目標ドメインと、前記事前ドメイン評価装置により前記機械学習に有効であると判断された全ての事前ドメインとを用いて前記機械学習を実行して転移識別部を生成する選択学習装置、
を備える機械学習装置。 The machine learning apparatus according to claim 2 , further comprising:
A selection learning device that executes the machine learning using the target domain and all pre-domains determined to be effective for the machine learning by the pre-domain evaluating device to generate a transition identification unit;
Machine learning device comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015069975A JP6516531B2 (en) | 2015-03-30 | 2015-03-30 | Clustering device and machine learning device |
PCT/JP2016/059662 WO2016158768A1 (en) | 2015-03-30 | 2016-03-25 | Clustering device and machine learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015069975A JP6516531B2 (en) | 2015-03-30 | 2015-03-30 | Clustering device and machine learning device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016191966A JP2016191966A (en) | 2016-11-10 |
JP6516531B2 true JP6516531B2 (en) | 2019-05-22 |
Family
ID=57245608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015069975A Active JP6516531B2 (en) | 2015-03-30 | 2015-03-30 | Clustering device and machine learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6516531B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11914688B2 (en) | 2019-12-09 | 2024-02-27 | Samsung Electronics Co., Ltd. | Electronic device and controlling method of electronic device for identifying transition suitability of a neural network model included in an external device |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10318889B2 (en) * | 2017-06-26 | 2019-06-11 | Konica Minolta Laboratory U.S.A., Inc. | Targeted data augmentation using neural style transfer |
EP3871154A4 (en) * | 2018-10-23 | 2022-11-09 | The Board of Trustees of the Leland Stanford Junior University | Systems and methods for active transfer learning with deep featurization |
US20220230085A1 (en) * | 2019-05-20 | 2022-07-21 | Nippon Telegraph And Telephone Corporation | Information processing apparatus, generating method, and generating program |
JP7334478B2 (en) * | 2019-06-04 | 2023-08-29 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP7357225B2 (en) * | 2020-03-27 | 2023-10-06 | パナソニックIpマネジメント株式会社 | How to perform inference |
WO2022049691A1 (en) * | 2020-09-03 | 2022-03-10 | 日本電信電話株式会社 | Transfer learning device, transfer learning method, and program |
KR20220114716A (en) | 2021-02-09 | 2022-08-17 | 삼성에스디에스 주식회사 | Method and apparatus for clustering images |
WO2023132384A1 (en) * | 2022-01-06 | 2023-07-13 | 엘지전자 주식회사 | Method for performing transfer learning, communication device, processing device, and storage medium |
CN117441175A (en) * | 2022-05-20 | 2024-01-23 | 株式会社日立高新技术 | Search device, search method, and semiconductor device manufacturing system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006221525A (en) * | 2005-02-14 | 2006-08-24 | Chuden Gijutsu Consultant Kk | Object retrieval system and method |
JP5154975B2 (en) * | 2008-02-26 | 2013-02-27 | 日本電信電話株式会社 | Interest system graph forming apparatus, interest system graph forming method, and interest system graph forming program |
JP5442586B2 (en) * | 2010-11-30 | 2014-03-12 | 日本電信電話株式会社 | Information search apparatus, information search method and program thereof |
JP5430636B2 (en) * | 2011-11-15 | 2014-03-05 | ヤフー株式会社 | Data acquisition apparatus, method and program |
JP6123993B2 (en) * | 2013-03-11 | 2017-05-10 | 日本電気株式会社 | Hierarchical clustering apparatus, hierarchical clustering reconstruction method, and program |
-
2015
- 2015-03-30 JP JP2015069975A patent/JP6516531B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11914688B2 (en) | 2019-12-09 | 2024-02-27 | Samsung Electronics Co., Ltd. | Electronic device and controlling method of electronic device for identifying transition suitability of a neural network model included in an external device |
Also Published As
Publication number | Publication date |
---|---|
JP2016191966A (en) | 2016-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6516531B2 (en) | Clustering device and machine learning device | |
JP6543066B2 (en) | Machine learning device | |
CN108960266B (en) | Image target detection method and device | |
JP4767595B2 (en) | Object detection device and learning device thereof | |
CN106846355B (en) | Target tracking method and device based on lifting intuitive fuzzy tree | |
JP6448325B2 (en) | Image processing apparatus, image processing method, and program | |
CN107145862B (en) | Multi-feature matching multi-target tracking method based on Hough forest | |
JP5880454B2 (en) | Image identification apparatus and program | |
CN111476302A (en) | fast-RCNN target object detection method based on deep reinforcement learning | |
US20090210367A1 (en) | Method for Automatically Characterizing the Behavior of One or More Objects | |
WO2016158768A1 (en) | Clustering device and machine learning device | |
JP6197659B2 (en) | Detection control device, program, and detection system | |
TWI567660B (en) | Multi-class object classifying method and system | |
US20110235901A1 (en) | Method, apparatus, and program for generating classifiers | |
CN110263712A (en) | A kind of coarse-fine pedestrian detection method based on region candidate | |
US9489593B2 (en) | Information processing apparatus and training method | |
CN106815323A (en) | A kind of cross-domain vision search method based on conspicuousness detection | |
CN107103608B (en) | A kind of conspicuousness detection method based on region candidate samples selection | |
Bouachir et al. | Structure-aware keypoint tracking for partial occlusion handling | |
CN110458022A (en) | It is a kind of based on domain adapt to can autonomous learning object detection method | |
CN106326927B (en) | A kind of shoes print new category detection method | |
US20180039822A1 (en) | Learning device and learning discrimination system | |
JP2015232805A (en) | Image processing method, image processor, and image processing program | |
JP6659120B2 (en) | Information processing apparatus, information processing method, and program | |
Bhardwaj et al. | Spectral–spatial active learning with attribute profile for hyperspectral image classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6516531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |