JP2021111299A - Learning device, learning method, learning program, identification device, identification method, and identification program - Google Patents
Learning device, learning method, learning program, identification device, identification method, and identification program Download PDFInfo
- Publication number
- JP2021111299A JP2021111299A JP2020004837A JP2020004837A JP2021111299A JP 2021111299 A JP2021111299 A JP 2021111299A JP 2020004837 A JP2020004837 A JP 2020004837A JP 2020004837 A JP2020004837 A JP 2020004837A JP 2021111299 A JP2021111299 A JP 2021111299A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- important
- similarity
- data
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、学習装置、学習方法、学習プログラム、識別装置、識別方法および識別プログラムに関する。 The present invention relates to a learning device, a learning method, a learning program, an identification device, an identification method and an identification program.
一般に、今日の画像認識などにおいて高い性能を有する多層ニューラルネットワークは、膨大なパラメータと複雑なモデルとによって構成されている。しかし、この種の機械学習によるシステムは、優れた性能を示す一方、ニューラルネットワークの判断根拠の解釈が難しいという課題があった。この課題を解決するため、ニューラルネットワークの判断根拠の説明材料を提示する手法が幾つか提案されている。例えば、入力データに対する類似例をニューラルネットワークの判断根拠の説明材料の例として提示する手法が知られている。 In general, a multi-layer neural network having high performance in today's image recognition and the like is composed of a huge number of parameters and a complicated model. However, while this type of machine learning system exhibits excellent performance, there is a problem that it is difficult to interpret the judgment basis of the neural network. In order to solve this problem, some methods have been proposed to present explanatory materials for the judgment basis of the neural network. For example, there is known a method of presenting a similar example to the input data as an example of an explanatory material for the judgment basis of the neural network.
特許文献1に記載の手法は、主に医用画像の診断において、画像から機械学習によって抽出された画像特徴量に基づいて画像特徴量に対応する症例(類似症例)を症例データベースから検索し、類似症例を提示する手法である。
The method described in
非特許文献1に記載の手法は、画像の分類において、複数の分類クラスそれぞれの典型例(プロトタイプ)を学習し、推論時に識別用データの特徴量と最も類似度の高いプロトタイプをニューラルネットワークの判断根拠の説明材料の例として提示する手法である。かかる手法では、モデル内部に識別用データの特徴量とプロトタイプとの類似度を計算する層が埋め込まれているため、ニューラルネットワークは類似度に基づいた分類を行うように学習する。
The method described in Non-Patent
特許文献2に記載の手法は、非特許文献1に記載の手法と同様に、複数の分類クラスそれぞれの典型例(プロトタイプ)を学習する手法である。しかし、特許文献2の手法は、学習したプロトタイプをそのまま提示するのではなく、プロトタイプに最も近い特徴量を持つデータを学習用データの中から探索し、見つかった学習用データを提示する。このとき、見つかった学習用データ(例えば、画像)の全体ではなく、学習用データの一部が類似部位として提示され得る。
The method described in Patent Document 2 is a method of learning typical examples (prototypes) of each of a plurality of classification classes, similarly to the method described in Non-Patent
しかしながら、特許文献1に記載の手法、および、非特許文献1に記載の手法においては、ニューラルネットワークに入力されるデータの類似例が画像全体として提示される。したがって、かかる手法においては、類似例として提示された画像全体のうち特にどの部位が、ニューラルネットワークに入力されるデータと類似しているのかを解釈することが困難である。
However, in the method described in
非特許文献2に記載の手法においては、特徴空間上で計算された入力画像と類似する範囲(類似範囲)を入力画像と同じ大きさにアップサンプリングすることによって、類似範囲に対応する入力画像における部位を提示することが可能である。しかし、特徴空間上での位置と入力画像上の位置との関係は、単なる拡大関係あるいは縮小関係とは異なる。そのため、ニューラルネットワークは、提示された部位以外の箇所も類似部位として判断している可能性がある。すなわち、非特許文献2に記載の手法では、必ずしも正しい類似部位が提示されるとは限らない。 In the method described in Non-Patent Document 2, a range (similar range) similar to the input image calculated on the feature space is upsampled to the same size as the input image, so that the input image corresponding to the similar range is obtained. It is possible to present the site. However, the relationship between the position on the feature space and the position on the input image is different from the mere enlargement relationship or reduction relationship. Therefore, there is a possibility that the neural network determines a part other than the presented part as a similar part. That is, the method described in Non-Patent Document 2 does not always present the correct similar site.
そこで、ニューラルネットワークの判断根拠のより有用な説明材料を提示することを可能とする技術が提供されることが望まれる。 Therefore, it is desired to provide a technique capable of presenting a more useful explanatory material for the judgment basis of the neural network.
上記問題を解決するために、本発明のある観点によれば、学習用データと正解値とを取得する入力部と、前記学習用データに基づいて1または複数の重要領域を推定する重要領域推定部と、前記学習用データと前記1または複数の重要領域それぞれを示す情報とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、前記類似度に基づいて推論値を出力する推論部と、前記正解値に基づいて前記推論値を評価して評価結果を得る評価部と、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータと前記プロトタイプとの更新を行う更新部と、を備える、学習装置が提供される。 In order to solve the above problem, according to a certain viewpoint of the present invention, an input unit for acquiring learning data and a correct answer value, and an important area estimation for estimating one or more important areas based on the learning data. A trimming processing unit that trims the one or more important regions based on the unit, the learning data, and information indicating each of the one or a plurality of important regions, and outputs the one or a plurality of important regions. A feature extraction unit that extracts a feature amount based on the one or a plurality of important regions and a first neural network, a similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and the like. An inference unit that outputs an inference value based on the similarity, an evaluation unit that evaluates the inference value based on the correct answer value and obtains an evaluation result, and the first neural network based on the evaluation result. A learning device is provided that includes an update unit that updates the weight parameter and the prototype.
前記重要領域推定部は、前記学習用データと第2のニューラルネットワークとに基づいて前記1または複数の重要領域を推定し、前記更新部は、前記評価結果に基づいて前記第2のニューラルネットワークの重みパラメータの更新を行ってもよい。 The important region estimation unit estimates the one or a plurality of important regions based on the learning data and the second neural network, and the update unit estimates the second neural network based on the evaluation result. The weight parameter may be updated.
前記推論部は、前記類似度と第3のニューラルネットワークとに基づいて前記推論値を出力し、前記更新部は、前記評価結果に基づいて前記第3のニューラルネットワークの重みパラメータの更新を行ってもよい。 The inference unit outputs the inference value based on the similarity and the third neural network, and the update unit updates the weight parameter of the third neural network based on the evaluation result. May be good.
前記1または複数の重要領域それぞれのサイズは、可変であってもよい。 The size of each of the one or more important regions may be variable.
前記1または複数の重要領域それぞれのサイズに対して、所定の制約が課されていてもよい。 Predetermined constraints may be imposed on the size of each of the one or more important areas.
前記特徴量のサイズは、可変であってもよい。 The size of the feature amount may be variable.
前記特徴量のチャネル数は、前記プロトタイプのチャネル数と同一であり、前記類似度算出部は、前記特徴量のチャネルデータの1または複数個所それぞれと前記プロトタイプのチャネルデータとの類似度の中で最も高い類似度を、当該チャネルに対応する類似度として前記推論部に出力してもよい。 The number of channels of the feature amount is the same as the number of channels of the prototype, and the similarity calculation unit calculates the similarity between one or more of the channel data of the feature amount and the channel data of the prototype. The highest similarity may be output to the inference unit as the similarity corresponding to the channel.
前記類似度算出部は、複数の学習用データの一部または全部それぞれにおいて、前記推論部に出力した類似度と、前記類似度に対応する特徴量とを、チャネルごとに保存データとして保存し、前記更新部は、前記プロトタイプと最も類似度が高い特徴量を類似特徴量としてチャネルごとに前記保存データから検出し、前記類似特徴量が抽出された学習用データの前記類似特徴量に対応する領域データをチャネルごとに前記プロトタイプに対応付けてもよい。 The similarity calculation unit saves the similarity output to the inference unit and the feature amount corresponding to the similarity in a part or all of the plurality of learning data as storage data for each channel. The update unit detects a feature amount having the highest degree of similarity to the prototype as a similar feature amount from the stored data for each channel, and the region corresponding to the similar feature amount of the learning data from which the similar feature amount is extracted. Data may be associated with the prototype for each channel.
前記更新部は、前記類似特徴量によって前記プロトタイプをチャネルごとに上書きしてもよい。 The update unit may overwrite the prototype for each channel by the similar feature amount.
前記更新部は、学習の途中において、前記類似特徴量によって前記プロトタイプを上書きした場合、前記プロトタイプの更新を停止してもよい。 When the prototype is overwritten by the similar feature amount in the middle of learning, the update unit may stop updating the prototype.
また、本発明の別の観点によれば、学習用データと正解値とを取得することと、前記学習用データに基づいて1または複数の重要領域を推定することと、前記学習用データと前記1または複数の重要領域それぞれを示す情報とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力することと、前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出することと、前記特徴量とプロトタイプとの類似度を算出して出力することと、前記類似度に基づいて推論値を出力することと、前記正解値に基づいて前記推論値を評価して評価結果を得ることと、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータと前記プロトタイプとの更新を行うことと、を含む、学習方法が提供される。 Further, according to another aspect of the present invention, acquisition of training data and correct answer values, estimation of one or more important regions based on the training data, and the training data and the above. Trimming the one or more important areas based on the information indicating each of the one or more important areas to output the one or more important areas, and the one or more important areas and the first Extracting the feature amount based on the neural network of 1, calculating and outputting the similarity between the feature amount and the prototype, outputting the inferred value based on the similarity degree, and the correct answer. A learning method including evaluating the inferred value based on the value to obtain an evaluation result, and updating the weight parameter of the first neural network and the prototype based on the evaluation result. Is provided.
また、本発明の別の観点によれば、コンピュータを、学習用データと正解値とを取得する入力部と、前記学習用データに基づいて1または複数の重要領域を推定する重要領域推定部と、前記学習用データと前記1または複数の重要領域それぞれを示す情報とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、前記類似度に基づいて推論値を出力する推論部と、前記正解値に基づいて前記推論値を評価して評価結果を得る評価部と、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータと前記プロトタイプとの更新を行う更新部と、を備える学習装置として機能させるための学習プログラムが提供される。 Further, according to another aspect of the present invention, the computer is provided with an input unit for acquiring training data and a correct answer value, and an important region estimation unit for estimating one or more important regions based on the training data. A trimming processing unit that trims the one or more important areas based on the learning data and information indicating each of the one or more important areas and outputs the one or more important areas. A feature extraction unit that extracts a feature amount based on the one or a plurality of important regions and a first neural network, a similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and the similarity. An inference unit that outputs an inference value based on the degree, an evaluation unit that evaluates the inference value based on the correct answer value and obtains an evaluation result, and a weight parameter of the first neural network based on the evaluation result. A learning program for functioning as a learning device including an update unit for updating the prototype and the prototype is provided.
また、本発明の別の観点によれば、識別用データと正解値とを取得する入力部と、前記識別用データに基づいて1または複数の重要領域を推定する重要領域推定部と、前記識別用データと前記1または複数の重要領域とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、前記類似度に基づいて推論値を出力する推論部と、学習用データの前記プロトタイプに対応する領域データがチャネルごとに表示されるように制御する表示制御部と、を備える、識別装置が提供される。 Further, according to another aspect of the present invention, the input unit for acquiring the identification data and the correct answer value, the important area estimation unit for estimating one or more important regions based on the identification data, and the identification. A trimming processing unit that trims the one or more important areas based on the data and the one or more important areas and outputs the one or more important areas, and the one or more important areas. A feature extraction unit that extracts a feature amount based on the above-mentioned feature amount and the first neural network, a similarity degree calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and an inferred value based on the similarity degree. An identification device including an inference unit for output and a display control unit for controlling region data corresponding to the prototype of training data to be displayed for each channel is provided.
前記表示制御部は、前記識別用データの前記推論部に出力された類似度に対応する領域に関する情報がチャネルごとに表示されるように制御してもよい。 The display control unit may control so that the information regarding the region corresponding to the similarity output to the inference unit of the identification data is displayed for each channel.
前記表示制御部は、前記推論部に出力された類似度または前記類似度に応じた値がスコアとしてチャネルごとに表示されるように制御してもよい。 The display control unit may control so that the similarity output to the inference unit or a value corresponding to the similarity is displayed as a score for each channel.
前記表示制御部は、前記推論部に出力された類似度の高い順に所定の数だけ前記領域データが表示されるように制御してもよい。 The display control unit may control so that a predetermined number of the area data are displayed in descending order of similarity output to the inference unit.
また、本発明の別の観点によれば、識別用データと正解値とを取得することと、前記識別用データに基づいて1または複数の重要領域を推定することと、前記識別用データと前記1または複数の重要領域とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力することと、前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出することと、前記特徴量とプロトタイプとの類似度を算出して出力することと、前記類似度に基づいて推論値を出力することと、学習用データの前記プロトタイプに対応する領域データがチャネルごとに表示されるように制御することと、を含む、識別方法が提供される。 Further, according to another aspect of the present invention, the identification data and the correct answer value are acquired, one or a plurality of important regions are estimated based on the identification data, and the identification data and the above are described. Trimming the one or more important regions based on the one or more important regions to output the one or more important regions, and the one or more important regions and the first neural network. Extracting the feature amount based on the above, calculating and outputting the similarity between the feature amount and the prototype, outputting the inferred value based on the similarity degree, and the prototype of the training data. Identification methods are provided, including controlling the region data corresponding to the channel to be displayed on a channel-by-channel basis.
また、本発明の別の観点によれば、コンピュータを、識別用データと正解値とを取得する入力部と、前記識別用データに基づいて1または複数の重要領域を推定する重要領域推定部と、前記識別用データと前記1または複数の重要領域とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、前記類似度に基づいて推論値を出力する推論部と、学習用データの前記プロトタイプに対応する領域データがチャネルごとに表示されるように制御する表示制御部と、を備える識別装置として機能させるための識別プログラムが提供される。 Further, according to another aspect of the present invention, the computer is provided with an input unit for acquiring identification data and a correct answer value, and an important region estimation unit for estimating one or more important regions based on the identification data. A trimming processing unit that trims the one or more important areas based on the identification data and the one or more important areas and outputs the one or more important areas, and the one or more important areas. Based on the feature extraction unit that extracts the feature amount based on the important region of the above and the first neural network, the similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and the similarity degree. An identification program for functioning as an identification device including an inference unit that outputs an inference value and a display control unit that controls so that area data corresponding to the prototype of training data is displayed for each channel is provided. NS.
以上説明したように本発明によれば、ニューラルネットワークの判断根拠のより有用な説明材料を提示することを可能とする技術が提供される。 As described above, the present invention provides a technique capable of presenting a more useful explanatory material for the judgment basis of the neural network.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different numbers after the same reference numerals. However, if it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration, only the same reference numerals are given. Further, similar components of different embodiments may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the similar components of different embodiments, only the same reference numerals are given.
(1.実施形態の詳細)
続いて、本発明の実施形態の詳細について説明する。本発明の実施形態では、学習用データと正解値との組み合わせに基づいてニューラルネットワークの学習を行う学習装置10(図1)について説明した後、学習済みのニューラルネットワークと識別用データ(テストデータ)とに基づいて推論値を出力する識別装置20(図10)について説明を行う。
(1. Details of the embodiment)
Subsequently, the details of the embodiment of the present invention will be described. In the embodiment of the present invention, the learning device 10 (FIG. 1) that learns the neural network based on the combination of the training data and the correct answer value will be described, and then the trained neural network and the identification data (test data) will be described. The identification device 20 (FIG. 10) that outputs an inferred value based on the above will be described.
以下では、学習装置10と識別装置20とが同一のコンピュータによって実現される場合を主に想定する。しかし、学習装置10と識別装置20とは、別のコンピュータによって実現されてもよい。かかる場合には、学習装置10によって生成された学習済みのニューラルネットワークが識別装置20に提供される。例えば、学習済みのニューラルネットワークは、学習装置10から識別装置20に記録媒体を介して提供されてもよいし、通信を介して提供されてもよい。
In the following, it is mainly assumed that the
(1−1.学習装置の構成)
まず、本発明の実施形態に係る学習装置10の構成例について説明する。図1は、本発明の実施形態に係る学習装置10の機能構成例を示す図である。図1に示されるように、本発明の実施形態に係る学習装置10は、入力部121と、重要領域推定部122と、トリミング処理部123と、特徴抽出部124と、類似度算出部125と、推論部126と、評価部140と、更新部150とを備える。
(1-1. Configuration of learning device)
First, a configuration example of the
本発明の実施形態では、入力部121と、重要領域推定部122と、トリミング処理部123と、特徴抽出部124と、類似度算出部125と、推論部126とが、ニューラルネットワーク120によって構成される場合を主に想定する。以下では、ニューラルネットワークを「NN」とも表記する。
In the embodiment of the present invention, the
より詳細に、特徴抽出部124は、第1のニューラルネットワーク(以下、「特徴抽出NN」とも表記する。)を含み、重要領域推定部122は、第2のニューラルネットワーク(以下、「重要領域推定NN」とも表記する。)を含み、推論部126は、第3のニューラルネットワーク(以下、「推論NN」とも表記する。)を含む。しかし、入力部121と、重要領域推定部122と、トリミング処理部123と、特徴抽出部124と、類似度算出部125と、推論部126とは、具体的にどのような構成であってもよい。
More specifically, the
これらのブロックは、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。 These blocks include an arithmetic unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and a program stored in a ROM (Read Only Memory) is expanded into a RAM by the arithmetic unit and executed. The function can be realized by the above. At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, these blocks may be composed of dedicated hardware or may be composed of a combination of a plurality of hardware. The data required for the calculation by the arithmetic unit is appropriately stored by a storage unit (not shown).
データセット110、重要領域推定NNの重みパラメータ131、特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133、プロトタイプ134および保存データ160は、図示しない記憶部によって記憶される。かかる記憶部は、RAM(Random Access Memory)、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。
The
初期状態において、重要領域推定NNの重みパラメータ131、特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133、および、プロトタイプ134それぞれには、初期値が設定されている。例えば、これらに設定される初期値は、ランダムな値であってよいが、どのような値であってもよい。例えば、これらに設定される初期値は、あらかじめ学習によって得られた学習済みの値であってもよい。一方、保存データには、初期状態では特に何も設定されていなくてよい。
In the initial state, initial values are set for each of the
(データセット110)
データセット110は、複数の学習用データ(入力データ)と当該複数の学習用データそれぞれの正解値とを含んで構成される。なお、本発明の実施形態では、学習用データが画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、学習用データの種類は特に限定されない。例えば、学習用データは、複数のフレームを含んだ動画像データであってもよいし、音響データであってもよい。
(Data set 110)
The
(入力部121)
入力部121は、データセット110から学習用データおよび正解値の組み合わせを順次に取得する。入力部121は、学習用データおよび正解値の組み合わせを順次に重要領域推定部122およびトリミング処理部123それぞれに出力する。入力部121よりも後段の各ブロックにおいては、前段のブロックからの入力に基づいて順次に各自の処理が繰り返し実行される。
(Input unit 121)
The
なお、例えば、入力部121は、データセット110から学習用データおよび正解値の組み合わせを全部取得し終わった場合には、最初から当該組み合わせを取得し直して再度出力する動作を所定の回数繰り返してよい。かかる場合には、入力部121よりも後段のブロックにおいても、前段のブロックからの再度の入力に基づいて順次に各自の処理が繰り返し実行されてよい。
For example, when the
(重要領域推定部122)
重要領域推定部122は、入力部121から出力された学習用データと重要領域推定NNとに基づいて学習用データから1または複数の重要領域を推定する。より詳細に、重要領域推定部122は、重要領域推定NNに学習用データを入力させたことに基づいて、重要領域推定NNから出力されるデータを1または複数の重要領域それぞれを示す情報(1または複数の重要領域それぞれの位置およびサイズ)として得る。重要領域推定部122は、1または複数の重要領域それぞれを示す情報をトリミング処理部123に出力する。ここで、図2を参照しながら、重要領域推定部122の機能についてより詳細に説明する。
(Important area estimation unit 122)
The important
図2は、重要領域推定部122の機能の詳細を説明するための図である。図2を参照すると、入力部121から出力された学習用データG1が示されており、学習用データG1には、被写体の例として「犬」が写っている。このとき、学習用データG1の正解値は「犬」である場合が想定される。しかし、学習用データG1に写る被写体は「犬」に限定されない。重要領域推定部122は、重要領域推定NNに学習用データG1を入力させ、重みパラメータ131を用いて重要領域推定NNから出力される重要領域R1〜R4それぞれを示す情報(重要領域R1〜R4それぞれの位置およびサイズ)を得る。
FIG. 2 is a diagram for explaining the details of the function of the important
例えば、重要領域推定部122は、学習用データG1からあらかじめ指定された数の重要領域を推定する。なお、重要領域の数は限定されないが、後に説明するプロトタイプの精度を高めるためには、プロトタイプのチャネル数以上であるのが望ましい。しかし、重要領域の数は、プロトタイプのチャネル数よりも少なくてもよい。なお、一般的にチャネルとは、1つの入力データに対してニューラルネットワークが抽出する特徴量の先頭の次元のことであるが、本明細書においては、1または複数の重要領域に対して、特徴抽出部124が抽出する特徴量の先頭の次元をチャネルと呼ぶ。そのため、チャネル数とは1または複数の重要領域の数と一致するものである。
For example, the important
図2には、重要領域推定部122によって、学習用データG1から、重要領域R1(耳)、重要領域R2(目)、重要領域R3(口)、重要領域R4(脚)が推定された例が示されている。すなわち、重要領域推定部122によって4つの重要領域が推定された例が示されている。しかし、重要領域推定部122によって推定される重要領域の数は限定されない。重要領域推定部122によって推定される重要領域の種類も、耳、目、口および脚に限定されない。
FIG. 2 shows an example in which the important area R1 (ear), the important area R2 (eye), the important area R3 (mouth), and the important area R4 (leg) are estimated from the learning data G1 by the important
ここで、学習用データをxとし、学習用データにおける重要領域の位置をtとし、重要領域のサイズをsとし、重要領域推定NNの処理を関数g()とすると、重要領域の位置tと、重要領域のサイズsと、重要領域推定NNの処理を示す関数g()との関係は、下記の数式(1)によって表現され得る。 Here, if the training data is x, the position of the important region in the training data is t, the size of the important region is s, and the processing of the important region estimation NN is the function g (), the position t of the important region is used. , The relationship between the size s of the important region and the function g () indicating the processing of the important region estimation NN can be expressed by the following mathematical formula (1).
s,t=g(x)・・・(1) s, t = g (x) ... (1)
例えば、学習用データが画像データのように2次元データである場合、かつ、重要領域の形状が長方形である場合には、重要領域の位置tは、2次元データにおける長方形の所定点(例えば、長方形の左上の頂点など)の縦軸座標と横軸座標との組み合わせによって表現され得る。重要領域のサイズsは、2次元データにおける長方形の縦横それぞれの長さによって表現される。しかし、重要領域の形状は、長方形に限定されず、他の形状(例えば、円形など)であってもよい。 For example, when the training data is two-dimensional data such as image data, and the shape of the important region is rectangular, the position t of the important region is a predetermined point (for example, for example) of the rectangle in the two-dimensional data. It can be represented by a combination of the vertical axis coordinates and the horizontal axis coordinates of (such as the upper left vertex of a rectangle). The size s of the important area is represented by the length of each of the vertical and horizontal directions of the rectangle in the two-dimensional data. However, the shape of the important region is not limited to a rectangle, and may be another shape (for example, a circle).
重要領域のサイズsは、固定されていてもよいが、固定されていなくてもよい(可変であってもよい)。重要領域のサイズsが可変である場合には、重要領域に基づいて後に提示される類似部位の柔軟性が高まることが期待される。一方、重要領域のサイズsが学習用データと近すぎる場合には、後に重要領域がトリミング処理部123によってトリミングされる意味が薄れてしまう。そこで、重要領域のトリミングが有意義に行われるように、重要領域のサイズに対しては、所定の制約が課されていてもよい。
The size s of the important region may be fixed or may not be fixed (may be variable). When the size s of the important region is variable, it is expected that the flexibility of the similar portion presented later based on the important region is increased. On the other hand, if the size s of the important region is too close to the learning data, the meaning of trimming the important region later by the trimming
例えば、重要領域のサイズsが所定の範囲に収まるよう、g(x)に対して値域が所定の範囲に限定される関数(例えば、シグモイド関数など)が乗じられてもよい。例えば、g(x)に定数とシグモイド関数とが乗じられれば、重要領域のサイズsは、0から定数までに収まるようになる。あるいは、g(x)と定数とのいずれか小さい値が重要領域のサイズsとして採用されれば、重要領域のサイズsは、定数以下に収まるようになる。例えば、これらの定数が、学習用データのサイズに対して所定の割合(例えば、半分など)に設定されれば、重要領域のサイズsは、学習用データのサイズの所定の割合以下のサイズになるように制約を受ける。 For example, a function (for example, a sigmoid function) whose range is limited to a predetermined range may be multiplied by g (x) so that the size s of the important region falls within a predetermined range. For example, if g (x) is multiplied by a constant and a sigmoid function, the size s of the important region will be within the range from 0 to the constant. Alternatively, if the smaller value of g (x) and the constant is adopted as the size s of the important region, the size s of the important region will be within the constant. For example, if these constants are set to a predetermined ratio (for example, half) to the size of the training data, the size s of the important region becomes a size less than or equal to the predetermined ratio of the size of the training data. Be constrained to be.
あるいは、重要領域のサイズs(または重要領域のサイズsの二乗)が損失関数に足し合わされた上で、更新部150によって重要領域推定NNの重みパラメータ131が更新されれば、重要領域のサイズsが小さくなるように学習が行われるようになる。なお、重要領域推定NNの具体的な構成は、特に限定されない。例えば、重要領域推定NNとしては、畳み込みニューラルネットワーク(例えば、上記した非特許文献3に記載されている畳み込みニューラルネットワークなど)が用いられてもよい。
Alternatively, if the size s of the important area (or the square of the size s of the important area) is added to the loss function and the
(トリミング処理部123)
図1に戻って説明を続ける。トリミング処理部123は、入力部121から出力された学習用データG1と、重要領域推定部122から出力された重要領域R1〜R4それぞれを示す情報とに基づいて、学習用データG1の重要領域R1〜R4に対してトリミングを行って重要領域R1〜R4を特徴抽出部124に出力する。ここで、図3を参照しながら、トリミング処理部123の機能についてより詳細に説明する。
(Trimming processing unit 123)
The explanation will be continued by returning to FIG. The trimming
図3は、トリミング処理部123の機能の詳細を説明するための図である。図3を参照すると、入力部121から出力された学習用データG1が示され、重要領域推定部122によって推定された重要領域R1〜R4それぞれを示す情報(重要領域R1〜R4それぞれの位置およびサイズ)が示されている。トリミング処理部123は、学習用データG1から、重要領域R1〜R4に対してトリミングを行う。なお、図3に示されたように、重要領域R1〜R4に対するトリミングは、学習用データG1のうち重要領域R1〜R4以外の領域を除外することを意味し得る。
FIG. 3 is a diagram for explaining the details of the function of the trimming
(特徴抽出部124)
図1に戻って説明を続ける。特徴抽出部124は、トリミング処理部123から出力された重要領域R1〜R4と特徴抽出NNとに基づいて特徴量を抽出する。より詳細に、特徴抽出部124は、特徴抽出NNに重要領域R1〜R4を入力させたことに基づいて、特徴抽出NNから出力されるデータを特徴量として得る。特徴抽出部124は、特徴量を類似度算出部125に出力する。ここで、図4を参照しながら、特徴抽出部124の機能についてより詳細に説明する。
(Feature Extraction Unit 124)
The explanation will be continued by returning to FIG. The
図4は、特徴抽出部124の機能の詳細を説明するための図である。図4を参照すると、トリミング処理部123から出力された重要領域R1〜R4が示されている。特徴抽出部124は、特徴抽出NNに重要領域R1〜R4を入力させ、重みパラメータ132を用いて特徴抽出NNから出力される特徴量F1〜F4を得る。
FIG. 4 is a diagram for explaining the details of the function of the
特徴量F1〜F4それぞれのサイズは、固定されていてもよいが、固定されていなくてもよい(可変であってもよい)。特徴量F1〜F4それぞれのサイズが可変である場合には、特徴量F1〜F4に基づいて後に提示される類似部位の柔軟性が高まることが期待される。なお、特徴量F1〜F4それぞれは、特徴量のチャネルデータに相当する。すなわち、本発明の実施形態では、特徴量のチャネル数が4である場合を主に想定するが、特徴量のチャネル数は限定されない。 The size of each of the feature quantities F1 to F4 may be fixed, but may not be fixed (may be variable). When the size of each of the feature amounts F1 to F4 is variable, it is expected that the flexibility of the similar portion presented later based on the feature amounts F1 to F4 will be increased. Each of the feature amounts F1 to F4 corresponds to the channel data of the feature amount. That is, in the embodiment of the present invention, it is mainly assumed that the number of channels of the feature amount is 4, but the number of channels of the feature amount is not limited.
また、特徴抽出NNの具体的な構成は限定されない。例えば、特徴抽出NNとしては、複数の畳み込み層を含んで構成されたニューラルネットワークが用いられてもよい。 Moreover, the specific configuration of the feature extraction NN is not limited. For example, as the feature extraction NN, a neural network composed of a plurality of convolutional layers may be used.
(類似度算出部125)
図1に戻って説明を続ける。類似度算出部125は、特徴抽出部124から出力された特徴量F1〜F4とプロトタイプ134との類似度を算出する。特徴抽出部124から出力される特徴量F1〜F4の次元とプロトタイプ134の次元とは同じに設定されている。ここでは、特徴量F1〜F4とプロトタイプ134それぞれが、複数チャネルに分かれた二次元データ(すなわち、三次元データ)である場合を想定するが、次元数は限定されない。そして、類似度算出部125は、算出した特徴量F1〜F4とプロトタイプ134との類似度を推論部126に出力する。ここで、図5を参照しながら、類似度算出部125の機能についてより詳細に説明する。
(Similarity calculation unit 125)
The explanation will be continued by returning to FIG. The
図5は、類似度算出部125の機能の詳細を説明するための図である。図5を参照すると、特徴量F1〜F4とプロトタイプP1〜P4とが示されている。プロトタイプP1〜P4それぞれは、プロトタイプのチャネルデータに相当する。すなわち、本発明の実施形態では、プロトタイプのチャネル数が4である場合を主に想定するが、プロトタイプのチャネル数は限定されない。
FIG. 5 is a diagram for explaining the details of the function of the
特徴量F1〜F4のチャネル数とプロトタイプP1〜P4のチャネル数とは、同じに設定されている。これによって、類似度算出部125によって、特徴量F1〜F4とプロトタイプP1〜P4との類似度がチャネルごとに算出され得る。図5に示された例では、類似度算出部125によって、特徴量F1とプロトタイプP1との類似度M1が算出され、特徴量F2とプロトタイプP2との類似度M2が算出され、特徴量F3とプロトタイプP3との類似度M3が算出され、特徴量F4とプロトタイプP4との類似度M4が算出される。
The number of channels of the feature quantities F1 to F4 and the number of channels of the prototypes P1 to P4 are set to be the same. As a result, the
対応するチャネルにおける特徴量とプロトタイプとの類似度は、どのように算出されてもよい。例えば、類似度算出部125は、対応するチャネルにおける特徴量のサイズとプロトタイプのサイズとが同じ場合には、対応するチャネルにおける特徴量とプロトタイプとの類似度を、特徴量とプロトタイプとにおいて対応する要素同士の差分の二乗和(L2ノルム)を用いて算出することができる。例えば、L2ノルムの逆数は、要素同士の差分の二乗和が小さいほど(特徴量とプロトタイプとの距離が近いほど)大きくなるため、類似度として好適に用いられ得る。
The similarity between the feature quantity and the prototype in the corresponding channel may be calculated in any way. For example, when the size of the feature amount in the corresponding channel and the size of the prototype are the same, the
あるいは、対応するチャネルにおける特徴量のサイズは、プロトタイプのサイズよりも大きくてもよい。かかる場合、特徴抽出部124から出力される特徴量のデータ型は、C(チャネル)×H(高さ)×W(幅)と表現され、プロトタイプのデータ型は、C(チャネル)×H’(高さ)×W’(幅)(ただし、H>H’かつW>W’)と表現される。
Alternatively, the size of the feature in the corresponding channel may be larger than the size of the prototype. In such a case, the data type of the feature amount output from the
このとき、特徴量をzとし、特徴量zからプロトタイプpのサイズと同じサイズの切り出し可能な部分的な特徴量をz’とする。そして、類似度算出部125は、特徴量zの1または複数個所それぞれの特徴量z’(すなわち、特徴量zから切り出し可能な部分的な特徴量z’の全部または一部)とプロトタイプpとの類似度の中で最も高い類似度Mを、当該チャネルに対応する類似度として推論部126に出力すればよい。すなわち、類似度Mは、類似度算出部125によって以下の数式(2)に示されるように算出されてよい。
At this time, let z be the feature amount, and let z'be a partial feature amount that can be cut out from the feature amount z and have the same size as the prototype p. Then, the
なお、類似度の算出方法は、かかる例に限定されない。例えば、類似度を算出する関数としては、ニューラルネットワークにおける誤差逆伝播法が適用可能な関数であれば、ニューラルネットワークが解決すべき問題に応じて自由に設定されてよい。類似度算出部125によって更新される保存データ160については後に説明する。
The method of calculating the degree of similarity is not limited to such an example. For example, the function for calculating the similarity may be freely set according to the problem to be solved by the neural network as long as it is a function to which the backpropagation method in the neural network can be applied. The stored
(推論部126)
図1に戻って説明を続ける。推論部126は、類似度算出部125から出力された類似度M1〜M4に基づいて推論を行って推論値を得る。そして、推論部126は、推論値を評価部140に出力する。ここで、図6を参照しながら、推論部126の機能についてより詳細に説明する。
(Inference unit 126)
The explanation will be continued by returning to FIG. The
図6は、推論部126の機能の詳細を説明するための図である。図6を参照すると、類似度算出部125から出力された類似度M1〜M4が示されている。推論部126は、推論NNに類似度M1〜M4を入力させ、重みパラメータ133を用いて推論NNから出力される推論値を得る。なお、本明細書においては、ニューラルネットワークへのデータの入力に基づいてニューラルネットワークから出力されるデータを得ることを広く「推論」と言う。そのため、学習段階においても「推論」という用語が使用される。
FIG. 6 is a diagram for explaining the details of the function of the
推論NNの具体的な構成は、特に限定されない。しかし、推論NNの出力の形式は、学習用データに対応する正解値の形式と合わせて設定されているのがよい。例えば、正解値が分類問題のクラスである場合、推論NNの出力は、クラス数分の長さを有するone−hotベクトルであるとよい。 The specific configuration of the inference NN is not particularly limited. However, the output format of the inference NN should be set in accordance with the format of the correct answer value corresponding to the learning data. For example, when the correct answer value is a class of the classification problem, the output of the inference NN may be a one-hot vector having a length corresponding to the number of classes.
(評価部140)
図1に戻って説明を続ける。評価部140は、入力部121によって取得された正解値に基づいて、推論部126から出力された推論値を評価して評価結果を得る。そして、評価部140は、評価結果を更新部150に出力する。ここで、図7を参照しながら、評価部140の機能についてより詳細に説明する。
(Evaluation unit 140)
The explanation will be continued by returning to FIG. The
図7は、評価部140の機能の詳細を説明するための図である。図7を参照すると、推論部126から出力された推論値が示されている。また、図7を参照すると、入力部121によって取得された正解値が示されている。本発明の実施形態では、評価部140が、正解値と推論値とに応じた損失関数を評価結果として算出する場合を想定する。ここで、本発明の実施形態において用いられる損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、損失関数は、正解値と推論値との差分に基づく平均二乗誤差であってもよい。
FIG. 7 is a diagram for explaining the details of the function of the
(更新部150)
図1に戻って説明を続ける。更新部150は、評価部140から出力された評価結果に基づいて、重要領域推定NNの重みパラメータ131と、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133と、プロトタイプ134との更新を行う。これによって、推論部126から出力される推論値が正解値に近づくように、重要領域推定NNの重みパラメータ131と、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133と、プロトタイプ134とが訓練され得る。ここで、図8を参照しながら、更新部150の機能についてより詳細に説明する。
(Update part 150)
The explanation will be continued by returning to FIG. The
図8は、更新部150の機能の詳細を説明するための図である。図8を参照すると、評価部140から出力された評価結果が示されている。プロトタイプP1〜P4それぞれは、プロトタイプのチャネルデータに相当する。例えば、更新部150は、評価部140から出力された評価結果に基づく誤差逆伝播法(バックプロパゲーション)によって、重要領域推定NNの重みパラメータ131と、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133と、プロトタイプ134とを更新してよい。
FIG. 8 is a diagram for explaining the details of the function of the
本発明の実施形態では、学習装置10によって、プロトタイプと類似する特徴量(類似特徴量)が抽出された学習用データが検出(探索)される場合を想定する。そして、識別装置20において、学習装置10によって検出された学習用データの類似特徴量に対応する領域データが、類似部位として提示される場合を想定する。これによって、類似例全体が提示されるよりも、類似例とテストデータとの類似性が部位ごとに容易に理解されやすくなる。
In the embodiment of the present invention, it is assumed that the
より詳細に、類似度算出部125は、上記したように、複数の学習用データそれぞれに対して特徴量とプロトタイプとの類似度をチャネルごとに算出し、推論部126に出力する。そこで、類似度算出部125は、所定のタイミングで、推論部126に出力した類似度と、当該類似度に対応する当該特徴量とを、チャネルごとに保存データ160として保存する。図8には一例として、プロトタイプP1に対応するチャネルについて、推論部126に出力された複数の類似度(類似度:50、類似度:10、・・・、類似度:20)と、複数の類似度それぞれに対応する特徴量とが保存データ160として保存されている例が示されている。しかし、プロトタイプP2〜P4それぞれに対応するチャネルの特徴量と類似度も同様に保存される。
More specifically, as described above, the
なお、本発明の実施形態では、データセット110を用いた学習装置10による学習が何巡か繰り返し実行された後に(例えば、4回繰り返し実行された後など)、次の巡目(例えば、5巡目など)の類似度と特徴量とが保存される場合を想定する。しかし、類似度と特徴量とが保存されるタイミングは限定されない。類似度算出部125は、学習装置10による学習に用いられた複数の学習用データの一部または全部それぞれにおいて、類似度と特徴量とを保存すればよい。
In the embodiment of the present invention, after the learning by the
類似度算出部125による類似度と特徴量との保存が終わると、更新部150は、プロトタイプP1と最も類似度が高い特徴量を類似特徴量として保存データ160から検出する。図8に示された例では、類似度が「50」の特徴量が類似特徴量として検出される。更新部150は、類似特徴量が抽出された学習用データの当該類似特徴量に対応する領域データを類似部位としてプロトタイプP1に対応付ける。なお、更新部150は、同様に、領域データを類似部位としてプロトタイプP2〜P4にチャネルごとに対応付ける。
When the
なお、プロトタイプ134は、学習が終了するまで、重みパラメータ131〜133とともに誤差逆伝播法(バックプロパゲーション)によって更新され続けてもよい。しかし、本発明の実施形態では、更新部150が、検出した類似特徴量によってプロトタイプ134をチャネルごとに上書きする場合を想定する。これによって、類似度の算出に用いられるプロトタイプ134と、提示される類似部位との間の整合性が向上し得る。かかる整合性の観点から、更新部150は、学習の途中において、類似特徴量によってプロトタイプ134を上書きした場合、プロトタイプ134の更新を停止するのがよい。
The
なお、更新部150は、学習用データに基づく更新が終わるたびに、学習の終了条件が満たされたか否かを判断する。学習の終了条件が満たされていないと判断した場合には、入力部121によって次の学習用データが取得され、重要領域推定部122、トリミング処理部123、特徴抽出部124、類似度算出部125、推論部126、評価部140および更新部150それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部150によって、学習の終了条件が満たされたと判断された場合には、学習が終了される。
The
なお、学習の終了条件は特に限定されず、ニューラルネットワーク120の学習がある程度行われたことを示す条件であればよい。具体的に、学習の終了件は、損失関数の値が閾値よりも小さいという条件を含んでもよい。あるいは、学習の終了条件は、損失関数の値の変化が閾値よりも小さいという条件(損失関数の値が収束状態になったという条件)を含んでもよい。あるいは、学習の終了条件は、重みパラメータの更新が所定の回数行われたという条件を含んでもよい。あるいは、評価部140によって正解値と推論値とに基づいて精度が算出される場合、学習の終了条件は、精度が所定の割合(例えば、90%など)を超えるという条件を含んでもよい。
The learning end condition is not particularly limited as long as it is a condition indicating that the
以上、本発明の実施形態に係る学習装置10の構成例について説明した。
The configuration example of the
(1−2.学習装置の動作)
続いて、本発明の実施形態に係る学習装置10の動作例について説明する。図9は、本発明の実施形態に係る学習装置10の動作例を示すフローチャートである。まず、図9に示されたように、入力部121は、データセット110から学習用データおよび正解値の組み合わせを取得する。また、重要領域推定部122は、重みパラメータ131を取得し、特徴抽出部124は、重みパラメータ132を取得し、推論部126は、重みパラメータ133を取得し、類似度算出部125は、プロトタイプ134を取得する(S11)。
(1-2. Operation of learning device)
Subsequently, an operation example of the
重要領域推定部122は、入力部121から出力された学習用データと重要領域推定NNとに基づいて学習用データから1または複数の重要領域を推定する(S12)。より詳細に、重要領域推定部122は、重要領域推定NNに学習用データを入力させ、重みパラメータ131を用いて重要領域推定NNから出力されるデータを1または複数の重要領域それぞれを示す情報(1または複数の重要領域それぞれの位置およびサイズ)として得る。重要領域推定部122は、1または複数の重要領域それぞれを示す情報をトリミング処理部123に出力する。
The important
トリミング処理部123は、入力部121から出力された学習用データと、重要領域推定部122から出力された1または複数の重要領域それぞれを示す情報とに基づいて、学習用データの1または複数の重要領域に対してトリミングを行う(S13)。そして、トリミング処理部123は、1または複数の重要領域を特徴抽出部124に出力する。
The trimming
特徴抽出部124は、トリミング処理部123から出力された1または複数の重要領域と特徴抽出NNとに基づいて特徴量を抽出する(S14)。より詳細に、特徴抽出部124は、特徴抽出NNに重要領域を入力させ、重みパラメータ132を用いて特徴抽出NNから出力される特徴量を得る。特徴抽出部124は、特徴量を類似度算出部125に出力する。
The
類似度算出部125は、特徴抽出部124から出力された特徴量とプロトタイプ134との類似度を算出する(S15)。推論部126は、類似度算出部125から出力された類似度に基づいて推論を行って推論値を得る(S16)。より詳細に、推論部126は、推論NNに類似度を入力させ、重みパラメータ133を用いて推論NNから出力される推論値を得る。そして、推論部126は、推論値を評価部140に出力する。
The
評価部140は、入力部121によって取得された正解値に基づいて、推論部126から出力された推論値を評価して評価結果を得る(S17)。より詳細に、評価部140は、正解値と推論値とに応じた損失関数を評価結果として算出する。そして、評価部140は、評価結果を更新部150に出力する。更新部150は、評価部140から出力された評価結果に基づいて、重要領域推定NNの重みパラメータ131と、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133と、プロトタイプ134との更新を行う(S18)。
The
更新部150は、学習用データに基づく更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S19)。学習の終了条件が満たされていないと判断した場合には(S19において「NO」)、S11に動作が移行され、入力部121によって次の学習用データが取得され、重要領域推定部122、トリミング処理部123、特徴抽出部124、類似度算出部125、推論部126、評価部140および更新部150それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部150によって、学習の終了条件が満たされたと判断された場合には(S19において「YES」)、学習が終了される。
The
以上、本発明の実施形態に係る学習装置10の動作例について説明した。
The operation example of the
(1−3.識別装置の構成)
続いて、本発明の実施形態に係る識別装置20の構成例について説明する。図10は、本発明の実施形態に係る識別装置20の機能構成例を示す図である。図10に示されるように、本発明の実施形態に係る識別装置20は、学習装置10によって学習された学習済みのニューラルネットワーク120を備える。その他、識別装置20は、表示制御部220および表示部230を備える。
(1-3. Configuration of identification device)
Subsequently, a configuration example of the
表示制御部220は、演算装置を含み、ROMにより記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。
The
表示部230は、ディスプレイによって構成される。テストデータ210、重要領域推定NNの重みパラメータ131、特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133、および、プロトタイプ134は、図示しない記憶部によって記憶される。かかる記憶部は、RAM、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。
The
(テストデータ210)
テストデータ210は、識別用データに相当する。なお、本発明の実施形態では、テストデータ210が、学習用データと同様に、画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、テストデータ210の種類は特に限定されない。例えば、テストデータ210は、学習用データと同様に、複数のフレームを含んだ動画像データであってもよいし、音響データであってもよい。
(Test data 210)
The
(入力部121〜推論部126)
入力部121は、テストデータ210を取得する。入力部121は、テストデータ210を重要領域推定部122およびトリミング処理部123それぞれに出力する。重要領域推定部122は、入力部121から出力されたテストデータ210と重要領域推定NNとに基づいてテストデータ210から1または複数の重要領域を推定する。テストデータ210から1または複数の重要領域を推定する手法は、学習装置10における重要領域推定部122が、学習用データから重要領域を推定する手法と同様である。
(Input unit 121-Inference unit 126)
The
トリミング処理部123は、入力部121から出力されたテストデータと、重要領域推定部122から出力された1または複数の重要領域それぞれを示す情報とに基づいて、テストデータの1または複数の重要領域に対してトリミングを行って1または複数の重要領域を特徴抽出部124に出力する。テストデータ210の1または複数の重要領域に対してトリミングを行う手法は、学習装置10におけるトリミング処理部123が、学習用データの1または複数の重要領域をトリミングする手法と同様である。
The trimming
特徴抽出部124は、トリミング処理部123から出力された1または複数の重要領域と特徴抽出NNとに基づいて特徴量を抽出する。特徴抽出部124が特徴量を抽出する手法は、学習装置10における特徴抽出部124が特徴量を抽出する手法と同様である。類似度算出部125は、特徴抽出部124から出力された特徴量とプロトタイプ134との類似度を算出する。類似度算出部125が類似度を算出する手法は、学習装置10における類似度算出部125が類似度を算出する手法と同様である。
The
推論部126は、類似度算出部125から出力された類似度に基づいて推論を行って推論値を得る。推論部126が推論を行う手法は、学習装置10における推論部126が推論を行う手法と同様である。例えば、テストデータに、被写体として「犬」が写っている場合、テストデータに対応する推論値として「犬」が出力される場合が想定される。このとき、類似例として「犬」の画像全体が提示されることも考えられる。
The
しかし、本発明の実施形態では、識別装置20によって、類似特徴量に対応する領域データが類似部位として提示される場合を想定する。これによって、類似例として「犬」の画像全体が提示されるよりも、類似例とテストデータとの類似性が部位ごとに容易に理解されやすくなる。以下では、類似部位を提示するためのブロックとして、表示制御部220および表示部230の機能について説明する。
However, in the embodiment of the present invention, it is assumed that the
(表示制御部220〜表示部230)
上記したように、プロトタイプと最も類似度が高い特徴量(類似特徴量)が抽出された学習用データの類似特徴量に対応する領域データが類似部位として、チャネルごとにプロトタイプに対応付けられている。そこで、表示制御部220は、学習用データのプロトタイプに対応する類似部位がチャネルごとに表示されるように表示部230を制御する。以下では、類似部位の提示について、図11を参照しながら詳細に説明する。
(
As described above, the region data corresponding to the similar feature amount of the learning data from which the feature amount having the highest degree of similarity to the prototype (similar feature amount) is extracted is associated with the prototype for each channel as a similar part. .. Therefore, the
図11は、類似部位提示画面の例を示す図である。図11を参照すると、類似部位提示画面D1が示されている。表示制御部220は、類似部位提示画面D1が表示部230によって表示されるように表示部230を制御する。類似部位提示画面D1には、テストデータG2が含まれる他、各チャネルに対応する、類似部位R21(耳)、類似部位R22(目)、類似部位R23(口)、類似部位R24(脚)が含まれている。
FIG. 11 is a diagram showing an example of a similar part presentation screen. With reference to FIG. 11, a similar site presentation screen D1 is shown. The
このように、類似部位R21〜R24が提示されることによって、類似例としての「犬」とテストデータG2との類似性が部位ごとに容易に理解されやすくなる。例えば、類似部位R21〜R24に着目すれば、類似例とテストデータG2とが類似している理由がより理解されやすくなる。なお、図11に示された例では、類似部位R21〜R24の全部が表示されているが、表示制御部220は、類似部位R21〜R24の一部のみ(例えば、類似度の高い順に所定の数だけ)を表示部230に表示させてもよい。これによって、推論に対する寄与度が大きいプロトタイプが把握され得る。あるいは、表示制御部220は、類似度の低い順に所定の数だけ)を表示部230に表示させてもよい。これによって、推論に対する寄与度が小さいプロトタイプが把握され得る。
By presenting the similar sites R21 to R24 in this way, the similarity between the "dog" as a similar example and the test data G2 can be easily understood for each site. For example, if attention is paid to the similar parts R21 to R24, it becomes easier to understand the reason why the similar example and the test data G2 are similar. In the example shown in FIG. 11, all of the similar parts R21 to R24 are displayed, but the
さらに、表示制御部220は、テストデータG2の推論部126に出力された類似度に応じた値がスコアとしてチャネルごとに表示されるように表示部230を制御する。スコアが所定の範囲に収まるよう、類似度(例えば、上記の数式(1))に対して値域が所定の範囲に限定される関数(例えば、シグモイド関数など)が乗じられることによってスコアが得られてもよい。あるいは、類似度が無限大に発散しないよう、類似度の分母に対して0以外の定数が加算されることによってスコアが得られてもよい。あるいは、スコアは、類似度そのものであってもよい。
Further, the
類似部位提示画面D1には、類似部位R21に対応するスコアとして「50」が表示され、類似部位R22に対応するスコアとして「20」が表示され、類似部位R23に対応するスコアとして「30」が表示され、類似部位R24に対応するスコアとして「70」が表示されている。このように、スコアが表示されることによって、テストデータG2の領域と類似部位R21〜R24とがどの程度類似しているかが理解されるようになる。 On the similar part presentation screen D1, "50" is displayed as a score corresponding to the similar part R21, "20" is displayed as a score corresponding to the similar part R22, and "30" is displayed as a score corresponding to the similar part R23. It is displayed, and "70" is displayed as a score corresponding to the similar portion R24. By displaying the score in this way, it becomes possible to understand how similar the region of the test data G2 and the similar sites R21 to R24 are.
また、図11に示されるように、表示制御部220は、テストデータG2の推論部126に出力された類似度に対応する領域に関する情報(領域の位置およびサイズ)が表示されるように表示部230を制御するとよい。これによって、テストデータG2のどの領域が類似部位に対応しているかが理解されやすくなる。図11に示された例では、テストデータG2の推論部126に出力された4つの類似度に対応する領域に関する情報R31〜R34が表示されている。
Further, as shown in FIG. 11, the
以上、本発明の実施形態に係る識別装置20の構成例について説明した。
The configuration example of the
(1−4.識別装置の動作)
続いて、本発明の実施形態に係る識別装置20の動作例について説明する。図12は、本発明の実施形態に係る識別装置20の動作例を示すフローチャートである。まず、図12に示されたように、入力部121は、テストデータを取得する。また、重要領域推定部122は、重みパラメータ131を取得し、特徴抽出部124は、重みパラメータ132を取得し、推論部126は、重みパラメータ133を取得し、類似度算出部125は、プロトタイプ134を取得する(S31)。
(1-4. Operation of identification device)
Subsequently, an operation example of the
重要領域推定部122は、入力部121から出力されたテストデータと重要領域推定NNとに基づいてテストデータから1または複数の重要領域を推定する(S32)。より詳細に、重要領域推定部122は、重要領域推定NNにテストデータを入力させ、重みパラメータ131を用いて重要領域推定NNから出力されるデータを1または複数の重要領域それぞれを示す情報(1または複数の重要領域それぞれの位置およびサイズ)として得る。重要領域推定部122は、1または複数の重要領域それぞれを示す情報をトリミング処理部123に出力する。
The important
トリミング処理部123は、入力部121から出力されたテストデータと、重要領域推定部122から出力された1または複数の重要領域それぞれを示す情報とに基づいて、学習用データの1または複数の重要領域に対してトリミングを行う(S33)。そして、トリミング処理部123は、1または複数の重要領域を特徴抽出部124に出力する。
The trimming
特徴抽出部124は、トリミング処理部123から出力された1または複数の重要領域と特徴抽出NNとに基づいて特徴量を抽出する(S34)。より詳細に、特徴抽出部124は、特徴抽出NNに重要領域を入力させ、重みパラメータ132を用いて特徴抽出NNから出力される特徴量を得る。特徴抽出部124は、特徴量を類似度算出部125に出力する。
The
類似度算出部125は、特徴抽出部124から出力された特徴量とプロトタイプ134との類似度を算出する(S35)。推論部126は、類似度算出部125から出力された類似度に基づいて推論を行って推論値を得る(S36)。より詳細に、推論部126は、推論NNに類似度を入力させ、重みパラメータ133を用いて推論NNから出力される推論値を得る。そして、推論部126は、推論値を出力する。
The
さらに、表示制御部220は、学習用データのプロトタイプに対応する類似部位がチャネルごとに表示されるように表示部230を制御する。また、表示制御部220は、テストデータの推論部126に出力された類似度に応じた値がスコアとしてチャネルごとに表示されるように表示部230を制御する(S37)。さらに、表示制御部220は、テストデータの推論部126に出力された類似度に対応する領域に関する情報(領域の位置およびサイズ)が表示されるように表示部230を制御する。
Further, the
以上、本発明の実施形態に係る識別装置20の動作例について説明した。
The operation example of the
(2.ハードウェア構成例)
続いて、本発明の実施形態に係る学習装置10のハードウェア構成例について説明する。ただし、本発明の実施形態に係る識別装置20のハードウェア構成例も同様に実現され得る。
(2. Hardware configuration example)
Subsequently, a hardware configuration example of the
以下では、本発明の実施形態に係る学習装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、学習装置10のハードウェア構成の一例に過ぎない。したがって、学習装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
Hereinafter, as a hardware configuration example of the
図13は、本発明の実施形態に係る学習装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
FIG. 13 is a diagram showing a hardware configuration of an
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
The
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
The
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
The
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。 The communication device 911 is, for example, a communication interface composed of a communication device or the like for connecting to a network. Further, the communication device 911 may support either wireless communication or wired communication.
以上、本発明の実施形態に係る学習装置10のハードウェア構成例について説明した。
The hardware configuration example of the
(3.まとめ)
以上に説明したように、本発明の実施形態によれば、ニューラルネットワークの判断根拠のより有用な説明材料を提示することを可能とする技術が提供される。より詳細に、本発明の実施形態によれば、重要領域がトリミングされて重要領域以外の領域が除外された上で特徴量が抽出され、特徴量とプロトタイプとの類似度が算出される。これによって、プロトタイプと類似する特徴量(類似特徴量)が抽出された学習用データの類似特徴量に対応する類似部位が提示され得る。したがって、類似例全体が提示されるよりも、類似例とテストデータとの類似性が部位ごとに容易に理解されやすくなる。
(3. Summary)
As described above, according to the embodiment of the present invention, there is provided a technique capable of presenting a more useful explanatory material for the judgment basis of the neural network. More specifically, according to the embodiment of the present invention, the important region is trimmed to exclude the region other than the important region, and then the feature amount is extracted, and the similarity between the feature amount and the prototype is calculated. Thereby, a similar part corresponding to the similar feature amount of the learning data from which the feature amount similar to the prototype (similar feature amount) is extracted can be presented. Therefore, the similarity between the similar example and the test data is easier to understand for each site than the whole similar example is presented.
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical ideas described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.
例えば、上記では、識別装置20における表示制御部220が、類似部位、スコア、テストデータの領域に関する情報を表示部230に表示させる場合について主に説明した。しかし、学習装置10が、識別装置20と同様に、学習用データのプロトタイプに対応する類似部位、推論部126に出力された類似度または類似度に応じた値(スコア)、学習用データの推論部126に出力された類似度に対応する領域に関する情報を、チャネルごとに表示部230に表示させてもよい。
For example, in the above description, the case where the
10 学習装置
110 データセット
120 ニューラルネットワーク
121 入力部
122 重要領域推定部
123 トリミング処理部
124 特徴抽出部
125 類似度算出部
126 推論部
131〜133 パラメータ
134 プロトタイプ
140 評価部
150 更新部
160 保存データ
20 識別装置
220 表示制御部
230 表示部
10
Claims (18)
前記学習用データに基づいて1または複数の重要領域を推定する重要領域推定部と、
前記学習用データと前記1または複数の重要領域それぞれを示す情報とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、
前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、
前記類似度に基づいて推論値を出力する推論部と、
前記正解値に基づいて前記推論値を評価して評価結果を得る評価部と、
前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータと前記プロトタイプとの更新を行う更新部と、
を備える、学習装置。 Input part to acquire learning data and correct answer value,
An important area estimation unit that estimates one or more important areas based on the learning data, and an important area estimation unit.
A trimming processing unit that trims the one or more important areas based on the learning data and information indicating each of the one or more important areas and outputs the one or more important areas.
A feature extraction unit that extracts features based on the one or more important regions and the first neural network, and
A similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and
An inference unit that outputs an inference value based on the similarity, and an inference unit.
An evaluation unit that evaluates the inferred value based on the correct answer value and obtains an evaluation result,
Based on the evaluation result, an update unit that updates the weight parameter of the first neural network and the prototype, and an update unit.
A learning device equipped with.
前記更新部は、前記評価結果に基づいて前記第2のニューラルネットワークの重みパラメータの更新を行う、
請求項1に記載の学習装置。 The important region estimation unit estimates the one or a plurality of important regions based on the learning data and the second neural network.
The update unit updates the weight parameter of the second neural network based on the evaluation result.
The learning device according to claim 1.
前記更新部は、前記評価結果に基づいて前記第3のニューラルネットワークの重みパラメータの更新を行う、
請求項1または2に記載の学習装置。 The inference unit outputs the inference value based on the similarity and the third neural network.
The update unit updates the weight parameter of the third neural network based on the evaluation result.
The learning device according to claim 1 or 2.
請求項1〜3のいずれか一項に記載の学習装置。 The size of each of the one or more important regions is variable.
The learning device according to any one of claims 1 to 3.
請求項1〜4のいずれか一項に記載の学習装置。 Predetermined constraints are imposed on the size of each of the one or more important areas.
The learning device according to any one of claims 1 to 4.
請求項1〜5のいずれか一項に記載の学習装置。 The size of the feature amount is variable.
The learning device according to any one of claims 1 to 5.
前記類似度算出部は、前記特徴量のチャネルデータの1または複数個所それぞれと前記プロトタイプのチャネルデータとの類似度の中で最も高い類似度を、当該チャネルに対応する類似度として前記推論部に出力する、
請求項1〜6のいずれか一項に記載の学習装置。 The number of channels of the feature amount is the same as the number of channels of the prototype.
The similarity calculation unit gives the inference unit the highest degree of similarity between one or more of the channel data of the feature amount and the channel data of the prototype as the degree of similarity corresponding to the channel. Output,
The learning device according to any one of claims 1 to 6.
前記更新部は、前記プロトタイプと最も類似度が高い特徴量を類似特徴量としてチャネルごとに前記保存データから検出し、前記類似特徴量が抽出された学習用データの前記類似特徴量に対応する領域データをチャネルごとに前記プロトタイプに対応付ける、
請求項1〜7のいずれか一項に記載の学習装置。 The similarity calculation unit saves the similarity output to the inference unit and the feature amount corresponding to the similarity in a part or all of the plurality of learning data as storage data for each channel.
The update unit detects a feature amount having the highest degree of similarity to the prototype as a similar feature amount from the stored data for each channel, and the region corresponding to the similar feature amount of the learning data from which the similar feature amount is extracted. Associate data with the prototype for each channel,
The learning device according to any one of claims 1 to 7.
請求項8に記載の学習装置。 The update unit overwrites the prototype for each channel with the similar features.
The learning device according to claim 8.
請求項9に記載の学習装置。 When the prototype is overwritten by the similar feature amount in the middle of learning, the update unit stops updating the prototype.
The learning device according to claim 9.
前記学習用データに基づいて1または複数の重要領域を推定することと、
前記学習用データと前記1または複数の重要領域それぞれを示す情報とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力することと、
前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出することと、
前記特徴量とプロトタイプとの類似度を算出して出力することと、
前記類似度に基づいて推論値を出力することと、
前記正解値に基づいて前記推論値を評価して評価結果を得ることと、
前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータと前記プロトタイプとの更新を行うことと、
を含む、学習方法。 Acquiring training data and correct answer values,
Estimating one or more important regions based on the training data,
Trimming the one or more important areas based on the learning data and the information indicating each of the one or more important areas, and outputting the one or more important areas.
Extracting features based on the one or more important regions and the first neural network,
To calculate and output the similarity between the feature amount and the prototype,
To output the inferred value based on the similarity,
To obtain the evaluation result by evaluating the inferred value based on the correct answer value,
Based on the evaluation result, the weight parameter of the first neural network and the prototype are updated, and
Learning methods, including.
学習用データと正解値とを取得する入力部と、
前記学習用データに基づいて1または複数の重要領域を推定する重要領域推定部と、
前記学習用データと前記1または複数の重要領域それぞれを示す情報とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、
前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、
前記類似度に基づいて推論値を出力する推論部と、
前記正解値に基づいて前記推論値を評価して評価結果を得る評価部と、
前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータと前記プロトタイプとの更新を行う更新部と、
を備える学習装置として機能させるための学習プログラム。 Computer,
Input part to acquire learning data and correct answer value,
An important area estimation unit that estimates one or more important areas based on the learning data, and an important area estimation unit.
A trimming processing unit that trims the one or more important areas based on the learning data and information indicating each of the one or more important areas and outputs the one or more important areas.
A feature extraction unit that extracts features based on the one or more important regions and the first neural network, and
A similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and
An inference unit that outputs an inference value based on the similarity, and an inference unit.
An evaluation unit that evaluates the inferred value based on the correct answer value and obtains an evaluation result,
Based on the evaluation result, an update unit that updates the weight parameter of the first neural network and the prototype, and an update unit.
A learning program to function as a learning device equipped with.
前記識別用データに基づいて1または複数の重要領域を推定する重要領域推定部と、
前記識別用データと前記1または複数の重要領域とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、
前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、
前記類似度に基づいて推論値を出力する推論部と、
学習用データの前記プロトタイプに対応する領域データがチャネルごとに表示されるように制御する表示制御部と、
を備える、識別装置。 An input unit that acquires identification data and correct answer values,
An important area estimation unit that estimates one or more important areas based on the identification data, and an important area estimation unit.
A trimming processing unit that trims the one or more important areas based on the identification data and the one or more important areas and outputs the one or more important areas.
A feature extraction unit that extracts features based on the one or more important regions and the first neural network, and
A similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and
An inference unit that outputs an inference value based on the similarity, and an inference unit.
A display control unit that controls so that the area data corresponding to the prototype of the training data is displayed for each channel, and
An identification device.
請求項13に記載の識別装置。 The display control unit controls so that information about a region corresponding to the similarity output to the inference unit of the identification data is displayed for each channel.
The identification device according to claim 13.
請求項13または14に記載の識別装置。 The display control unit controls so that the similarity output to the inference unit or a value corresponding to the similarity is displayed as a score for each channel.
The identification device according to claim 13 or 14.
請求項13〜15のいずれか一項に記載の識別装置。 The display control unit controls so that a predetermined number of the area data are displayed in descending order of similarity output to the inference unit.
The identification device according to any one of claims 13 to 15.
前記識別用データに基づいて1または複数の重要領域を推定することと、
前記識別用データと前記1または複数の重要領域とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力することと、
前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出することと、
前記特徴量とプロトタイプとの類似度を算出して出力することと、
前記類似度に基づいて推論値を出力することと、
学習用データの前記プロトタイプに対応する領域データがチャネルごとに表示されるように制御することと、
を含む、識別方法。 Acquiring identification data and correct answer value,
Estimating one or more important regions based on the identification data
To output the one or more important areas by trimming the one or more important areas based on the identification data and the one or more important areas.
Extracting features based on the one or more important regions and the first neural network,
To calculate and output the similarity between the feature amount and the prototype,
To output the inferred value based on the similarity,
Control so that the area data corresponding to the prototype of the training data is displayed for each channel, and
Identification methods, including.
識別用データと正解値とを取得する入力部と、
前記識別用データに基づいて1または複数の重要領域を推定する重要領域推定部と、
前記識別用データと前記1または複数の重要領域とに基づいて前記1または複数の重要領域に対してトリミングを行って前記1または複数の重要領域を出力するトリミング処理部と、
前記1または複数の重要領域と第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
前記特徴量とプロトタイプとの類似度を算出して出力する類似度算出部と、
前記類似度に基づいて推論値を出力する推論部と、
学習用データの前記プロトタイプに対応する領域データがチャネルごとに表示されるように制御する表示制御部と、
を備える識別装置として機能させるための識別プログラム。
Computer,
An input unit that acquires identification data and correct answer values,
An important area estimation unit that estimates one or more important areas based on the identification data, and an important area estimation unit.
A trimming processing unit that trims the one or more important areas based on the identification data and the one or more important areas and outputs the one or more important areas.
A feature extraction unit that extracts features based on the one or more important regions and the first neural network, and
A similarity calculation unit that calculates and outputs the similarity between the feature amount and the prototype, and
An inference unit that outputs an inference value based on the similarity, and an inference unit.
A display control unit that controls so that the area data corresponding to the prototype of the training data is displayed for each channel, and
An identification program for functioning as an identification device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020004837A JP7210489B2 (en) | 2020-01-16 | 2020-01-16 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020004837A JP7210489B2 (en) | 2020-01-16 | 2020-01-16 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111299A true JP2021111299A (en) | 2021-08-02 |
JP7210489B2 JP7210489B2 (en) | 2023-01-23 |
Family
ID=77060048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004837A Active JP7210489B2 (en) | 2020-01-16 | 2020-01-16 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7210489B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7313501B1 (en) | 2022-03-03 | 2023-07-24 | ソフトバンク株式会社 | Image recognition device, program, image recognition method, and machine learning method |
WO2023148914A1 (en) * | 2022-02-04 | 2023-08-10 | 三菱電機株式会社 | Machine learning device, machine learning system, machine learning method, and machine learning program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016133878A (en) * | 2015-01-16 | 2016-07-25 | 株式会社レイトロン | Image recognition device capable of changing arrangement and combination of windows used in image recognition in accordance with configuration information |
-
2020
- 2020-01-16 JP JP2020004837A patent/JP7210489B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016133878A (en) * | 2015-01-16 | 2016-07-25 | 株式会社レイトロン | Image recognition device capable of changing arrangement and combination of windows used in image recognition in accordance with configuration information |
Non-Patent Citations (3)
Title |
---|
CHAOFAN CHEN, ET AL.: "This Looks Like That: Deep Learning for Interpretable Image Recognition", ARXIV, JPN7021000620, 2019, US, ISSN: 0004576554 * |
RAMPRASAATH R.SELVARAJU, ET AL.: "Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization", ARXIV, JPN7021000621, 2019, ISSN: 0004576556 * |
久保田 智規,外2名: "ディープラーニングによる物体検出において正しく検出できない原因を解析する手法の提案", 電子情報通信学会技術研究報告 VOL.119 NO.317 [ONLINE], vol. 第119巻, JPN6021006896, 2019, JP, ISSN: 0004576555 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023148914A1 (en) * | 2022-02-04 | 2023-08-10 | 三菱電機株式会社 | Machine learning device, machine learning system, machine learning method, and machine learning program |
JP7361999B1 (en) | 2022-02-04 | 2023-10-16 | 三菱電機株式会社 | Machine learning device, machine learning system, machine learning method, and machine learning program |
JP7313501B1 (en) | 2022-03-03 | 2023-07-24 | ソフトバンク株式会社 | Image recognition device, program, image recognition method, and machine learning method |
Also Published As
Publication number | Publication date |
---|---|
JP7210489B2 (en) | 2023-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107492099B (en) | Medical image analysis method, medical image analysis system, and storage medium | |
US20190156204A1 (en) | Training a neural network model | |
JP6516025B2 (en) | Information processing method and information processing apparatus | |
KR20190100011A (en) | Method and apparatus for providing surgical information using surgical video | |
CN106293074B (en) | Emotion recognition method and mobile terminal | |
JP6569047B1 (en) | Learning method, computer program, classifier, and generator | |
KR20200005987A (en) | System and method for diagnosing cognitive impairment using touch input | |
JP2019091454A (en) | Data analysis processing device and data analysis processing program | |
CN113240778B (en) | Method, device, electronic equipment and storage medium for generating virtual image | |
US20160306870A1 (en) | System and method for capture, classification and dimensioning of micro-expression temporal dynamic data into personal expression-relevant profile | |
JP2021111299A (en) | Learning device, learning method, learning program, identification device, identification method, and identification program | |
JP7320280B2 (en) | Label collection device, label collection method and label collection program | |
CN115244495A (en) | Real-time styling for virtual environment motion | |
JP5094775B2 (en) | Case image retrieval apparatus, method and program | |
JP2023527136A (en) | METHOD AND APPARATUS FOR PROVIDING DIAGNOSIS RESULT | |
CN116097320A (en) | System and method for improved facial attribute classification and use thereof | |
JP7236694B2 (en) | Information processing method and information processing system | |
JP2019045929A (en) | Information processing device, information processing method, and program | |
US20230259817A1 (en) | Machine learning pipeline | |
Ankireddy | Assistive diagnostic tool for brain tumor detection using computer vision | |
JP5162512B2 (en) | Multidimensional time series data analysis apparatus and multidimensional time series data analysis program | |
JP6796015B2 (en) | Sequence generator and its control method | |
JP7107340B2 (en) | LEARNING DEVICE, LEARNING METHOD AND PROGRAM | |
Sorour et al. | A Deep Learning System for Detecting Cardiomegaly Disease Based on CXR Image | |
CN115994981B (en) | Three-dimensional automatic deduction method for emergency drilling scheme |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210824 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211118 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220510 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220711 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221129 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230110 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7210489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |