JP7059695B2 - Learning method and learning device - Google Patents

Learning method and learning device Download PDF

Info

Publication number
JP7059695B2
JP7059695B2 JP2018036501A JP2018036501A JP7059695B2 JP 7059695 B2 JP7059695 B2 JP 7059695B2 JP 2018036501 A JP2018036501 A JP 2018036501A JP 2018036501 A JP2018036501 A JP 2018036501A JP 7059695 B2 JP7059695 B2 JP 7059695B2
Authority
JP
Japan
Prior art keywords
learning
processing unit
recognition processing
data set
performance evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018036501A
Other languages
Japanese (ja)
Other versions
JP2019152964A (en
Inventor
啓介 早田
大気 関井
智也 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018036501A priority Critical patent/JP7059695B2/en
Publication of JP2019152964A publication Critical patent/JP2019152964A/en
Application granted granted Critical
Publication of JP7059695B2 publication Critical patent/JP7059695B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、入力データから特徴を抽出し、抽出した特徴を用いて識別を行う認識処理部を機械学習させる学習方法および学習装置に関する。 The present invention relates to a learning method and a learning device for machine learning a recognition processing unit that extracts features from input data and performs identification using the extracted features.

従来から、認識対象データに対して認識処理を行う認識処理部の機械学習が一般的に行われている。このような機械学習の一手法として、例えば、事前に用意した正解付きのデータ(事前学習データ)を用いて認識処理部の学習を行った後、認識処理部を活用する現地(例えば店舗)で得られるデータ(現地データ)を用いて認識処理部の再学習(追加学習)を行う方法がある。この方法は、追加学習を行うことによって、事前学習データのみならず、現地データに対する認識処理部の適合性を向上させて、汎化性を向上させようとする方法である。なお、汎化性とは、機械学習を行ったコンピュータ(例えば認識処理部)の、学習した問いと類似の未学習の問い(入力)についても正しい答え(出力)を導く能力のこと、つまり、学習したデータと類似の入力データについて、学習したデータによる結果と類似の結果を出力する性能のことを指す。上記のように事前学習を行った後に、現地データを用いて追加学習を行う例は、例えば特許文献1でも同様に開示されている。 Conventionally, machine learning of a recognition processing unit that performs recognition processing on recognition target data has been generally performed. As one method of such machine learning, for example, after learning the recognition processing unit using data with a correct answer prepared in advance (pre-learning data), at a site (for example, a store) where the recognition processing unit is used. There is a method of re-learning (additional learning) of the recognition processing unit using the obtained data (local data). This method is a method of improving the adaptability of the recognition processing unit to not only the pre-learning data but also the local data by performing additional learning to improve the generalization. Note that generalization is the ability of a machine-learned computer (for example, a recognition processing unit) to derive a correct answer (output) for an unlearned question (input) similar to a learned question, that is. For input data similar to the trained data, it refers to the ability to output results similar to the results of the trained data. An example of performing additional learning using local data after performing pre-learning as described above is also disclosed in, for example, Patent Document 1.

特開2016-143353号公報(請求項1、段落〔0005〕、〔0006〕、〔0018〕、〔0021〕~〔0043〕、図1等参照)Japanese Unexamined Patent Publication No. 2016-143353 (see claim 1, paragraph [0005], [0006], [0018], [0021] to [0043], FIG. 1 and the like).

ところが、認識処理部の事前学習および追加学習を行う従来の方法では、追加学習後の認識処理部の性能を全く検証していないため、追加学習によって認識処理部の性能が本当に向上したかどうかが不明である。例えば追加学習が過学習になる場合は、実際に学習したデータに対してだけ認識処理部が適合し、未知のデータに対しては適合しなくなるため、汎化性が低下する。認識処理部の性能を検証しない場合、この過学習による認識処理部の性能低下を発見することができない。このため、追加学習によって認識処理部のパラメータ(例えば重み)を無条件で変更(更新)すると、認識処理部の性能低下による汎化性の低下が起こり得る。 However, in the conventional method of performing pre-learning and additional learning of the recognition processing unit, the performance of the recognition processing unit after the additional learning is not verified at all, so whether or not the performance of the recognition processing unit is really improved by the additional learning. It is unknown. For example, when the additional learning becomes overfitting, the recognition processing unit is adapted only to the actually learned data and is not adapted to the unknown data, so that the generalization property is lowered. If the performance of the recognition processing unit is not verified, it is not possible to detect the deterioration in the performance of the recognition processing unit due to this overfitting. Therefore, if the parameters (for example, weights) of the recognition processing unit are unconditionally changed (updated) by additional learning, the generalization property may be reduced due to the performance deterioration of the recognition processing unit.

本発明は、上記の問題点を解決するためになされたもので、その目的は、事前学習および追加学習を行う場合でも、追加学習による認識処理部の性能を検証してからパラメータ更新を行うことにより、追加学習による認識処理部の性能低下を回避して、汎化性を向上させることができる学習方法および学習装置を提供することにある。 The present invention has been made to solve the above problems, and an object thereof is to verify the performance of the recognition processing unit by additional learning and then update the parameters even when pre-learning and additional learning are performed. It is an object of the present invention to provide a learning method and a learning device capable of improving generalization by avoiding deterioration of the performance of the recognition processing unit due to additional learning.

本発明の一側面に係る学習方法は、入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部の機械学習における学習方法であって、事前に入手した正解付きのデータセットAを用いて、前記認識処理部の事前学習を行う事前学習工程(1)と、前記事前学習の後、前記データセットAと、前記データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて、前記認識処理部の追加学習を行う追加学習工程(2)と、前記追加学習による前記認識処理部の性能評価を行う性能評価工程(3)と、前記性能評価の結果に基づいて、前記認識処理部のパラメータを、前記追加学習によって得られたパラメータに更新する更新工程(4)とを含む。 The learning method according to one aspect of the present invention is a learning method in machine learning of a recognition processing unit that extracts features from input data and identifies using the extracted features, and is data with a correct answer obtained in advance. There is no correct answer acquired in the pre-learning step (1) in which the pre-learning of the recognition processing unit is performed using the set A, and in an environment different from the data set A and the data set A after the pre-learning. The additional learning step (2) for performing additional learning of the recognition processing unit, the performance evaluation step (3) for evaluating the performance of the recognition processing unit by the additional learning, and the performance evaluation using the data set B of the above. Based on the result of the above, the update step (4) of updating the parameters of the recognition processing unit to the parameters obtained by the additional learning is included.

本発明の他の側面に係る学習装置は、入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部と、前記認識処理部を機械学習させる学習制御部とを備え、前記学習制御部は、事前に入手した正解付きのデータセットAを用いて事前学習を行った前記認識処理部に対して、前記データセットAと、前記データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて追加学習させた後、前記追加学習による前記認識処理部の性能評価を行い、前記性能評価の結果に基づいて、前記認識処理部のパラメータを、前記追加学習によって得られたパラメータに更新する。 The learning device according to another aspect of the present invention includes a recognition processing unit that extracts features from input data and performs identification using the extracted features, and a learning control unit that causes the recognition processing unit to perform machine learning. The learning control unit was acquired in an environment different from the data set A and the data set A for the recognition processing unit that had been pre-learned using the data set A with the correct answer obtained in advance. After additional learning using the data set B without a correct answer, the performance evaluation of the recognition processing unit is performed by the additional learning, and the parameters of the recognition processing unit are subjected to the additional learning based on the result of the performance evaluation. Update to the parameters obtained by.

上記の学習方法および学習装置によれば、認識処理部の事前学習および追加学習を行うだけでなく、追加学習による性能評価を行い、その結果に基づいてパラメータ更新を行う。これにより、認識処理部の(例えば過学習による)性能低下を回避して、汎化性を向上させることができる。 According to the above learning method and learning device, not only pre-learning and additional learning of the recognition processing unit are performed, but also performance evaluation by additional learning is performed, and parameters are updated based on the results. As a result, it is possible to avoid deterioration in the performance of the recognition processing unit (for example, due to overfitting) and improve generalization.

本発明の実施の形態の学習装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the learning apparatus of embodiment of this invention. 上記学習装置の認識処理部の一構成例を模式的に示す説明図である。It is explanatory drawing which shows typically one configuration example of the recognition processing part of the said learning apparatus. 上記認識処理部の各層を構成するユニットを模式的に示す説明図である。It is explanatory drawing which shows typically the unit which constitutes each layer of the recognition processing part. 上記学習装置を用いた学習方法の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the learning method using the said learning apparatus. 上記認識処理部の事前学習の際のデータの伝播モデルを模式的に示す説明図である。It is explanatory drawing which shows typically the data propagation model at the time of the pre-learning of the recognition processing part. 上記認識処理部の特徴抽出層の追加学習の際のデータの伝播モデルを模式的に示す説明図である。It is explanatory drawing which shows typically the data propagation model at the time of the additional learning of the feature extraction layer of the recognition processing part. 上記特徴抽出層の性能評価の際のデータの伝播モデルを模式的に示す説明図である。It is explanatory drawing which shows typically the data propagation model at the time of the performance evaluation of the said feature extraction layer. 上記認識処理部の識別層の追加学習の際のデータの伝播モデルを模式的に示す説明図である。It is explanatory drawing which shows typically the data propagation model at the time of the additional learning of the identification layer of the recognition processing part. 上記識別層の性能評価の際のデータの伝播モデルを模式的に示す説明図である。It is explanatory drawing which shows typically the data propagation model at the time of performance evaluation of the said identification layer. 上記学習方法による学習後の学習装置において、実際に認識を行う場合のデータの伝播モデルを示す説明図である。It is explanatory drawing which shows the data propagation model at the time of actually performing recognition in the learning apparatus after learning by the said learning method. 上記学習方法の他の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the other processing of the said learning method.

本発明の実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 An embodiment of the present invention will be described below with reference to the drawings. The present invention is not limited to the following contents.

〔学習装置について〕
図1は、本実施形態の学習装置1の概略の構成を示すブロック図である。学習装置1は、入力データに対して所定の処理を行う処理部(例えば後述する認識処理部11に相当)を機械学習させることが可能な装置であり、例えばパーソナルコンピュータ(PC)のような端末装置で構成される。具体的には、学習装置1は、認識処理部11と、記憶部12と、入力部13と、表示部14と、通信部15と、制御部16とを有している。
[About learning device]
FIG. 1 is a block diagram showing a schematic configuration of the learning device 1 of the present embodiment. The learning device 1 is a device capable of machine learning a processing unit (for example, corresponding to a recognition processing unit 11 described later) that performs predetermined processing on input data, and is a terminal such as a personal computer (PC). It consists of devices. Specifically, the learning device 1 has a recognition processing unit 11, a storage unit 12, an input unit 13, a display unit 14, a communication unit 15, and a control unit 16.

制御部16は、学習装置1の各部の動作を制御する中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部12(後述するプログラム記憶部12a)に記憶された動作プログラムに従って動作する。本実施形態では、制御部16は、特に、認識処理部11を機械学習させる学習制御部として機能している。 The control unit 16 is composed of a central processing unit (CPU) that controls the operation of each unit of the learning device 1, and follows an operation program stored in the storage unit 12 (program storage unit 12a described later). Operate. In the present embodiment, the control unit 16 functions as a learning control unit that causes the recognition processing unit 11 to perform machine learning.

認識処理部11は、入力データから特徴を抽出し、抽出した特徴を用いて認識を行う演算装置であり、例えばリアルタイムな画像処理に特化した演算装置であるGPU(Graphics Processing Unit)で構成されている。なお、認識処理部11は、制御部16と同一のまたは別個のCPUで構成されていてもよい。 The recognition processing unit 11 is an arithmetic unit that extracts features from input data and performs recognition using the extracted features. For example, the recognition processing unit 11 is composed of a GPU (Graphics Processing Unit) that is an arithmetic unit specialized in real-time image processing. ing. The recognition processing unit 11 may be configured by the same CPU as the control unit 16 or by a separate CPU.

ここで、上記入力データとしては、例えば店舗に設置された撮像部2(カメラ)での撮影によって取得された画像データ(動画または静止画のデータ)を考えることができる。上記の画像データは、例えば、撮像部2から有線または無線の通信回線(例えばLAN(Local Area Network)やインターネット)を介して学習装置1にリアルタイムで入力される。なお、上記の画像データを一旦、可搬型の記録媒体(光ディスクや不揮発性メモリなど)に記録しておき、図示しない読取装置によって上記記録媒体に記録された画像データを読み取ることにより、上記入力データを学習装置1に取り込むようにしてもよい。なお、認識処理部11の詳細については後述する。 Here, as the input data, for example, image data (video or still image data) acquired by shooting with an image pickup unit 2 (camera) installed in a store can be considered. The above image data is input to the learning device 1 in real time from the image pickup unit 2, for example, via a wired or wireless communication line (for example, a LAN (Local Area Network) or the Internet). The above image data is temporarily recorded on a portable recording medium (optical disk, non-volatile memory, etc.), and the image data recorded on the recording medium is read by a reading device (not shown) to read the input data. May be taken into the learning device 1. The details of the recognition processing unit 11 will be described later.

記憶部12は、プログラム記憶部12aと、学習・評価用データ記憶部12bと、処理用データ記憶部12cとを有している。プログラム記憶部12aは、学習装置1の各部を動作させるための動作プログラムを記憶するメモリである。学習・評価用データ記憶部12bは、認識処理部11の機械学習の際に用いる学習用データ(例えば後述するデータセットA)および性能(品質)評価用のデータ(例えば後述するデータセットC)を記憶するメモリである。処理用データ記憶部12cは、外部(例えば撮像部2)から学習装置1に入力された画像データ(例えば後述するデータセットB)、つまり、認識処理部11の認識処理を活用する現場で取得されて学習装置1に入力されたデータを一時的に格納するメモリである。記憶部12(プログラム記憶部12a、学習・評価用データ記憶部12b、処理用データ記憶部12c)は、例えばハードディスクで構成されるが、その他、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。 The storage unit 12 has a program storage unit 12a, a learning / evaluation data storage unit 12b, and a processing data storage unit 12c. The program storage unit 12a is a memory for storing an operation program for operating each unit of the learning device 1. The learning / evaluation data storage unit 12b stores learning data (for example, data set A described later) and data for performance (quality) evaluation (for example, data set C described later) used in machine learning of the recognition processing unit 11. It is a memory to store. The processing data storage unit 12c is acquired in the field where the image data (for example, data set B described later) input to the learning device 1 from the outside (for example, the imaging unit 2), that is, the recognition processing of the recognition processing unit 11 is utilized. This is a memory for temporarily storing the data input to the learning device 1. The storage unit 12 (program storage unit 12a, learning / evaluation data storage unit 12b, processing data storage unit 12c) is composed of, for example, a hard disk, but in addition, RAM (Random Access Memory) and ROM (Read Only Memory). , An optical disk, a photomagnetic disk, a recording medium such as a non-volatile memory, and the like may be appropriately selected and configured.

入力部13は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成され、例えば学習装置1を操作する操作者による各種の指示入力を受け付ける。表示部14は、認識処理部11での認識結果をはじめとして、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部15は、外部端末(例えばスマートフォンなどの携帯端末や他のPC)と通信するためのインターフェースであり、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。 The input unit 13 is composed of, for example, a keyboard, a mouse, a touch pad, a touch panel, or the like, and receives various instruction inputs by an operator who operates the learning device 1, for example. The display unit 14 is a device that displays various information including the recognition result of the recognition processing unit 11, and is composed of, for example, a liquid crystal display device. The communication unit 15 is an interface for communicating with an external terminal (for example, a mobile terminal such as a smartphone or another PC), and includes an antenna, a transmission / reception circuit, a modulation circuit, a demodulation circuit, and the like.

〔認識処理部の詳細について〕
次に、上記した認識処理部11の詳細について説明する。認識処理部11は、図2に示すように、入力層11a、特徴抽出層11bおよび識別層11cを有する階層型のニューラルネットワークによって構成されている。ニューラルネットワークとは、人間の神経ネットワークを模倣した情報処理システムのことである。ニューラルネットワークにおいて、神経細胞に相当する工学的なニューロンのモデルを、ここではユニットUと呼ぶ。入力層11a、特徴抽出層11bおよび識別層11cは、それぞれ複数のユニットUを有して構成されている。
[Details of the recognition processing unit]
Next, the details of the recognition processing unit 11 described above will be described. As shown in FIG. 2, the recognition processing unit 11 is composed of a hierarchical neural network having an input layer 11a, a feature extraction layer 11b, and an identification layer 11c. A neural network is an information processing system that imitates a human neural network. In a neural network, an engineering neuron model corresponding to a nerve cell is referred to here as a unit U. The input layer 11a, the feature extraction layer 11b, and the identification layer 11c each have a plurality of units U.

入力層11aは、通常、1層からなる。入力層11aの各ユニットUには、例えば1枚の画像を構成する各画素の画像データ(画素値)がそれぞれ入力される。上記画像データは、入力層11aの各ユニットUから特徴抽出層11bにそのまま出力される。 The input layer 11a usually consists of one layer. For example, image data (pixel values) of each pixel constituting one image is input to each unit U of the input layer 11a. The image data is output as it is from each unit U of the input layer 11a to the feature extraction layer 11b.

特徴抽出層11bは、入力データ(入力層11aのデータ)から特徴を抽出して識別層11cに出力する層である。この特徴抽出層11bでは、各ユニットUでの演算により、例えば、入力された画像から人物が映っている領域を抽出する処理が行われる。 The feature extraction layer 11b is a layer that extracts features from the input data (data of the input layer 11a) and outputs the features to the identification layer 11c. In the feature extraction layer 11b, for example, a process of extracting a region in which a person is reflected from an input image is performed by an operation in each unit U.

識別層11cは、特徴抽出層11bが抽出した特徴を用いて識別を行う層である。識別層11cでは、各ユニットUでの演算により、例えば、特徴抽出層11bで抽出された人物の領域から、その人物の姿勢や行動を識別する処理が行われる。 The identification layer 11c is a layer for performing identification using the features extracted by the feature extraction layer 11b. In the identification layer 11c, for example, a process of identifying the posture or behavior of the person is performed from the area of the person extracted by the feature extraction layer 11b by the calculation in each unit U.

上記の特徴抽出層11bおよび識別層11cは、それぞれ複数層によって構成されている。これにより、認識処理部11全体として、ディープニューラルネットワーク(DNN)が構成されている。 The feature extraction layer 11b and the identification layer 11c are each composed of a plurality of layers. As a result, the deep neural network (DNN) is configured as the entire recognition processing unit 11.

ここで、特徴抽出層11bおよび識別層11cを構成する各ユニットUについて説明を補足しておく。上記のユニットUとしては、通常、図3に示すような、多入力1出力の素子が用いられる。信号は一方向にだけ伝わり、ある重み(結合荷重:wi)をつけられて、ユニットUに入力される。この重みによって、階層的に並ぶユニットU・U間の結合の強さが表されるが、上記の重みは、学習によって変化させることができる。ユニットUからは、重みをつけられたそれぞれの入力値(wixi)の総和から閾値θを引いた値Xが応答関数f(X)による変形を受けた後、出力される。つまり、ユニットUの出力値yは、以下の数式で表される。
y=f(X)
ここで、
X=Σ(wixi-θ)
である。なお、応答関数としては、例えばシグモイド関数を用いることができる。
Here, the description of each unit U constituting the feature extraction layer 11b and the identification layer 11c will be supplemented. As the unit U, an element having multiple inputs and one output, as shown in FIG. 3, is usually used. The signal is transmitted in only one direction, is given a certain weight (coupling load: wi), and is input to the unit U. This weight represents the strength of the bond between the units U and U arranged hierarchically, and the above weight can be changed by learning. The value X obtained by subtracting the threshold value θ from the sum of each weighted input value (wixi) is transformed by the response function f (X) and then output from the unit U. That is, the output value y of the unit U is expressed by the following mathematical formula.
y = f (X)
here,
X = Σ (wixi-θ)
Is. As the response function, for example, a sigmoid function can be used.

入力層11aの各ユニットUは、通常、シグモイド特性や閾値をもたず、それゆえ、上述のように入力値がそのまま出力に表れる。一方、識別層11cの最終層(出力層)の各ユニットUは、識別層11cでの識別結果(識別された姿勢や行動に対応するデータ)を出力することになる。 Each unit U of the input layer 11a usually does not have a sigmoid characteristic or a threshold value, and therefore the input value appears as it is in the output as described above. On the other hand, each unit U of the final layer (output layer) of the identification layer 11c outputs the identification result (data corresponding to the identified posture and behavior) in the identification layer 11c.

識別処理部11(階層型ニューラルネットワーク)の学習アルゴリズムとしては、例えば、正解を示す値(データ)と識別層11cからの出力値(データ)との2乗誤差が最小となるように、最急降下法を用いて識別層11cの重みおよび特徴抽出層11bの重みを順次変化させていく誤差逆伝播法(バックプロパゲーション)が用いられる。 As a learning algorithm of the discrimination processing unit 11 (hierarchical neural network), for example, the steepest descent so that the square error between the value indicating the correct answer (data) and the output value (data) from the discrimination layer 11c is minimized. An error backpropagation method (backpropagation) is used in which the weight of the identification layer 11c and the weight of the feature extraction layer 11b are sequentially changed by a method.

〔学習方法について〕
次に、上記構成の学習装置1における学習方法について説明する。図4は、本実施形態の学習方法の処理の流れを示すフローチャートである。本実施形態の学習方法は、認識処理部11の機械学習における学習方法であって、大きく見て、事前学習工程(I)と、第1の学習・評価・更新工程(II)と、第2の学習・評価・更新工程(III)とを含む。これらの各工程は、制御部16の制御のもとで順に行われる。以下、各工程の詳細について説明する。
[About learning method]
Next, the learning method in the learning device 1 having the above configuration will be described. FIG. 4 is a flowchart showing a processing flow of the learning method of the present embodiment. The learning method of the present embodiment is a learning method in machine learning of the recognition processing unit 11, and can be broadly viewed as a pre-learning step (I), a first learning / evaluation / updating step (II), and a second. Including the learning / evaluation / updating process (III) of. Each of these steps is sequentially performed under the control of the control unit 16. Hereinafter, details of each step will be described.

<事前学習工程>
事前学習工程(I)は、認識処理部11の事前学習(オフライン学習)を行う工程(S1)である。S1の工程では、事前に入手した正解付き(教師あり、アノテーションあり)のデータセットAを用いて、認識処理部11の事前学習を行う。ここで、データセットとは、1枚の画像を構成する各画素の画像データ(画素値)を1つの組として、この画像データの複数組分(画像複数枚分)に相当する。上記のデータセットAに含まれる画像データとしては、例えば、認識処理部11が店舗内での顧客の行動認識処理を行う場合において、その店舗(現場)とは異なる場所(例えば店舗から離れたスタジオなど)で予め取得された画像データを考えることができる。データセットAは、学習・評価用データ記憶部12bに予め記憶されており、このデータセットAを活用して事前学習が行われる。
<Pre-learning process>
The pre-learning step (I) is a step (S1) of performing pre-learning (offline learning) of the recognition processing unit 11. In the step of S1, the recognition processing unit 11 is pre-learned using the data set A with the correct answer (with supervised and annotation) obtained in advance. Here, the data set corresponds to a plurality of sets (a plurality of images) of the image data, with the image data (pixel values) of each pixel constituting one image as one set. The image data included in the above data set A includes, for example, a place (for example, a studio away from the store) different from the store (site) when the recognition processing unit 11 performs customer behavior recognition processing in the store. Etc.), and the image data acquired in advance can be considered. The data set A is stored in advance in the learning / evaluation data storage unit 12b, and pre-learning is performed using this data set A.

図5は、事前学習の際のデータの伝播モデルを模式的に示している。データセットAに含まれるデータは、画像1枚ごとに認識処理部11の入力層11aに入力され、入力層11aから特徴抽出層11bに出力される。特徴抽出層11bの各ユニットUでは、入力データに対して重み付きの演算が行われる。この演算により、特徴抽出層11bでは、入力データから特徴(例えば人物の領域)が抽出されるとともに、抽出した特徴を示すデータが、識別層11cに出力される。 FIG. 5 schematically shows a data propagation model during pre-learning. The data included in the data set A is input to the input layer 11a of the recognition processing unit 11 for each image, and is output from the input layer 11a to the feature extraction layer 11b. In each unit U of the feature extraction layer 11b, a weighted operation is performed on the input data. By this calculation, the feature extraction layer 11b extracts features (for example, a person's area) from the input data, and the data indicating the extracted features is output to the identification layer 11c.

識別層11cの各ユニットUでは、入力データに対する重み付きの演算が行われ、これによって、上記特徴に基づく識別(例えば人物の行動の分析)が行われる。識別結果を示すデータは、識別層11cから出力される。 In each unit U of the identification layer 11c, a weighted operation is performed on the input data, whereby identification based on the above characteristics (for example, analysis of the behavior of a person) is performed. The data indicating the identification result is output from the identification layer 11c.

制御部16は、識別層11cの出力値(データ)を、正解を示す値と比較してこれらの誤差(ロス)を算出し、この誤差が小さくなるように、識別層11cの重みおよび特徴抽出層11bの重みを順次変化させる(バックプロパゲーション)。これにより、識別層11cおよび特徴抽出層11bが学習される。 The control unit 16 compares the output value (data) of the identification layer 11c with the value indicating the correct answer, calculates these errors (losses), and extracts the weights and features of the identification layer 11c so that this error becomes small. The weights of the layers 11b are sequentially changed (backpropagation). As a result, the identification layer 11c and the feature extraction layer 11b are learned.

<第1の学習・評価・更新価工程>
第1の学習・評価・更新工程(II)は、特徴抽出層11bの追加学習L1を行う工程(S2)と、追加学習L1による特徴抽出層11bの性能評価E1を行う工程(S3)と、性能評価E1の結果に基づいて、特徴抽出層11bのパラメータ(重み)を、追加学習L1によって得られたパラメータに更新する工程(S4~S6)とを含む。
<First learning / evaluation / renewal price process>
The first learning / evaluation / updating step (II) includes a step (S2) of performing additional learning L1 of the feature extraction layer 11b, a step (S3) of performing performance evaluation E1 of the feature extraction layer 11b by the additional learning L1. A step (S4 to S6) of updating the parameters (weights) of the feature extraction layer 11b to the parameters obtained by the additional learning L1 based on the result of the performance evaluation E1 is included.

(追加学習L1)
S2では、事前学習工程(I)の後、正解付きのデータセットAと、データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて、特徴抽出層11bの追加学習L1を行う。ここで、上記のデータセットBとしては、認識処理部11による認識処理の対象となるデータセットを考えることができ、例えば、認識処理部11が店舗内での顧客の行動認識処理を行う場合には、その店舗(現場)で取得して学習装置1に入力される画像のデータ(店舗内の撮像部2で取得した画像データ)のセットを考えることができる。データセットBは、処理用データ記憶部12cに記憶され、学習・評価用データ記憶部12bに予め記憶された上記のデータセットAとともに、追加学習L1に用いられる。なお、以下での説明の便宜上、データセットBのうち、追加学習L1に用いるデータセットを、データセットB1と称する。
(Additional learning L1)
In S2, after the pre-learning step (I), the additional learning L1 of the feature extraction layer 11b is performed by using the data set A with the correct answer and the data set B without the correct answer acquired in an environment different from the data set A. I do. Here, as the above-mentioned data set B, a data set to be recognized by the recognition processing unit 11 can be considered. For example, when the recognition processing unit 11 performs customer behavior recognition processing in the store. Can consider a set of image data (image data acquired by the image pickup unit 2 in the store) acquired at the store (site) and input to the learning device 1. The data set B is stored in the processing data storage unit 12c, and is used for the additional learning L1 together with the above-mentioned data set A previously stored in the learning / evaluation data storage unit 12b. For convenience of explanation below, among the data sets B, the data set used for the additional learning L1 is referred to as a data set B1.

図6は、特徴抽出層11bの追加学習L1の際のデータの伝播モデルを模式的に示している。S2では、識別層11cの代わりに、識別層11c’を用いる。識別層11c’は、特徴抽出層11bの追加学習L1と、後述する性能評価E1およびパラメータ更新を行うときのみ使用する識別層であり、仮識別層またはデコーダで構成される。仮識別層は、弱教師あり学習用に構成された識別層である。一方、デコーダは、教師なし学習用に構成された層であり、特徴抽出層11bからの出力値を入力値に戻す処理(デコード)を行う。すなわち、弱教師あり学習を行う場合は、識別層11c’として仮識別層が用いられ、教師なし学習を行う場合は、識別層11c’としてデコーダが用いられる。 FIG. 6 schematically shows a data propagation model during the additional learning L1 of the feature extraction layer 11b. In S2, the identification layer 11c'is used instead of the identification layer 11c. The identification layer 11c'is an identification layer used only when the additional learning L1 of the feature extraction layer 11b, the performance evaluation E1 described later, and the parameter update are performed, and is composed of a temporary identification layer or a decoder. The tentative discrimination layer is a discrimination layer configured for learning with weak supervised learning. On the other hand, the decoder is a layer configured for unsupervised learning, and performs a process (decoding) of returning the output value from the feature extraction layer 11b to an input value. That is, when learning with weak supervised learning is performed, a temporary identification layer is used as the discrimination layer 11c', and when learning without supervised learning is performed, a decoder is used as the discrimination layer 11c'.

ここで、弱教師あり学習とは、識別層11c’が出力する出力値に基づいて得られる正解率(スコア)がある閾値以上である場合のみ識別結果を正解とみなして学習を行うことを言う。なお、上記の正解率は、テストデータの数をn個とし、識別結果が正解であった数をa個としたときに、a/nで表現される指標である。 Here, weak supervised learning means that learning is performed by regarding the discrimination result as a correct answer only when the correct answer rate (score) obtained based on the output value output by the discrimination layer 11c'is equal to or higher than a certain threshold value. .. The correct answer rate is an index expressed by a / n when the number of test data is n and the number of correct answers is a.

S2では、データセットAおよびデータセットBを例えば交互に入力層11aに入力しながら追加学習L1を行う。データセットAと併せてデータセットB1を用いて追加学習L1を行うことにより、データセットAのみならず、データセットB1にも、つまり、現場で得られるデータにも特徴抽出層11bを適合させることが可能となる。入力データとして、データセットAを用いる場合、S1の事前学習と同様の手順で、特徴抽出層11bの追加学習L1を行う。 In S2, the additional learning L1 is performed while the data set A and the data set B are alternately input to the input layer 11a, for example. By performing additional learning L1 using the data set B1 together with the data set A, the feature extraction layer 11b is adapted not only to the data set A but also to the data set B1, that is, to the data obtained in the field. Is possible. When the data set A is used as the input data, the additional learning L1 of the feature extraction layer 11b is performed by the same procedure as the pre-learning of S1.

一方、入力データとしてデータセットB1を用いる場合は、以下のようにして特徴抽出層11bの追加学習L1を行う。追加学習L1として弱教師あり学習を行う場合、制御部16は、識別層11c’としての仮識別層の出力値に基づいて得られる正解率が閾値以上であるときに(一定の基準を満足している場合に)、特徴抽出層11bのパラメータ更新を行わず、正解率が閾値未満であるときのみ(一定の基準を満足していない場合のみ)、正解率と閾値との誤差(ロス)が小さくなるように、特徴抽出層11bのパラメータを更新する(重みを変化させる)。また、追加学習L1として教師なし学習を行う場合、制御部16は、デコーダの出力値が元のデータ(入力層11aの入力値)と一致するか否かを判断し、一致する場合は(一定の基準を満足している場合は)、特徴抽出層11bのパラメータ更新を行わず、一致しない場合のみ(一定の基準を満足していない場合のみ)、出力値と入力値との誤差(ロス)が小さくなるように、特徴抽出層11bのパラメータを更新する(重みを変化させる)。これにより、特徴抽出層11bが追加学習される。 On the other hand, when the data set B1 is used as the input data, the additional learning L1 of the feature extraction layer 11b is performed as follows. When supervised learning is performed as additional learning L1, the control unit 16 satisfies a certain criterion when the correct answer rate obtained based on the output value of the provisional identification layer as the identification layer 11c'is equal to or more than the threshold value. ), The parameter of the feature extraction layer 11b is not updated, and the error (loss) between the correct answer rate and the threshold value is found only when the correct answer rate is less than the threshold value (only when a certain standard is not satisfied). The parameters of the feature extraction layer 11b are updated (weights are changed) so as to be smaller. Further, when unsupervised learning is performed as the additional learning L1, the control unit 16 determines whether or not the output value of the decoder matches the original data (input value of the input layer 11a), and if they match (constant). (If the criteria are satisfied), the parameters of the feature extraction layer 11b are not updated, and only if they do not match (only if they do not meet certain criteria), the error (loss) between the output value and the input value. The parameters of the feature extraction layer 11b are updated (weights are changed) so that As a result, the feature extraction layer 11b is additionally learned.

(性能評価E1)
S3の工程では、制御部16が、S2の追加学習L1による特徴抽出層11bの性能評価E1を行う。より具体的には、制御部16は、データセットBに含まれるデータセットB1以外のデータセットB2を用いて、特徴抽出層11bの性能評価E1を行う。なお、特徴抽出層11bの性能評価E1を行う際には、識別層として、S2の追加学習L1で用いたものと同じ識別層11c’(仮識別層またはデコーダ)を用いる。
(Performance evaluation E1)
In the step of S3, the control unit 16 performs the performance evaluation E1 of the feature extraction layer 11b by the additional learning L1 of S2. More specifically, the control unit 16 performs the performance evaluation E1 of the feature extraction layer 11b by using the data set B2 other than the data set B1 included in the data set B. When performing the performance evaluation E1 of the feature extraction layer 11b, the same identification layer 11c'(temporary identification layer or decoder) used in the additional learning L1 of S2 is used as the identification layer.

図7は、特徴抽出層11bの性能評価E1の際のデータの伝播モデルを模式的に示している。S3では、評価用のデータセットB2、すなわち、現場データのうちで追加学習L1の際には用いなかったデータを用い、このデータセットB2のデータを入力層11aに入力する。入力層11aに入力された上記データは、特徴抽出層11bに出力される。特徴抽出層11bでは、入力データに対して重み付きの演算が行われ、その演算結果を示すデータが識別層11c’に出力される。識別層11c’では、特徴抽出層11bから入力されるデータに対して重み付きの演算が行われ、その演算結果を示すデータが、識別層11c’から出力される。 FIG. 7 schematically shows a data propagation model at the time of performance evaluation E1 of the feature extraction layer 11b. In S3, the evaluation data set B2, that is, the data not used in the additional learning L1 among the field data is used, and the data of the data set B2 is input to the input layer 11a. The above data input to the input layer 11a is output to the feature extraction layer 11b. In the feature extraction layer 11b, a weighted operation is performed on the input data, and the data indicating the operation result is output to the identification layer 11c'. In the identification layer 11c', a weighted operation is performed on the data input from the feature extraction layer 11b, and the data indicating the operation result is output from the identification layer 11c'.

S2で弱教師あり学習を行った場合、制御部16は、識別層11c’としての仮識別層の出力値に基づいて得られる正解率がある閾値以上であるか否かを判断することにより、特徴抽出層11bの性能評価E1を行う。例えば、上記正解率が閾値以上である場合には、制御部16は、特徴抽出層11bの性能が一定の基準を満足していると判断する。一方、上記正解率が閾値未満である場合には、制御部16は、特徴抽出層11bの性能が一定の基準を満足していないと判断する。 When learning with weak supervised learning is performed in S2, the control unit 16 determines whether or not the correct answer rate obtained based on the output value of the provisional identification layer as the identification layer 11c'is equal to or higher than a certain threshold value. Performance evaluation E1 of the feature extraction layer 11b is performed. For example, when the correct answer rate is equal to or higher than the threshold value, the control unit 16 determines that the performance of the feature extraction layer 11b satisfies a certain standard. On the other hand, when the correct answer rate is less than the threshold value, the control unit 16 determines that the performance of the feature extraction layer 11b does not satisfy a certain standard.

また、S2で教師なし学習を行った場合、制御部16は、識別層11c’としてのデコーダの出力値が元のデータ(入力層11aの入力値)と一致するか否かを判断することにより、特徴抽出層11bの性能評価E1を行う。例えば、上記出力値が元のデータと一致する場合には、制御部16は、特徴抽出層11bの性能が一定の基準を満足していると判断する。一方、上記出力値が元のデータと一致していない場合には、制御部16は、特徴抽出層11bの性能が一定の基準を満足していないと判断する。 Further, when unsupervised learning is performed in S2, the control unit 16 determines whether or not the output value of the decoder as the identification layer 11c'matches the original data (input value of the input layer 11a). , Performance evaluation E1 of the feature extraction layer 11b is performed. For example, when the output value matches the original data, the control unit 16 determines that the performance of the feature extraction layer 11b satisfies a certain standard. On the other hand, when the output value does not match the original data, the control unit 16 determines that the performance of the feature extraction layer 11b does not satisfy a certain standard.

(特徴抽出層のパラメータ更新)
次に、図4に示すように、制御部16は、S3での性能評価E1の結果に基づいて、特徴抽出層11bのパラメータ更新を行う(S4~S6)。具体的には、S3での性能評価E1の結果が一定の基準を満足している場合には(S4でYes)、特徴抽出層11bのパラメータ更新を行う(S5)。例えば、特徴抽出層11bのパラメータ(例えば重みw1)を、追加学習L1によって得られたパラメータ(例えば重みw1’)に更新する。一方、S3での性能評価E1の結果が一定の基準を満足していない場合には(S4でNo)、制御部16は、特徴抽出層11bのパラメータを、追加学習L1を行う前のパラメータ(例えば重みw1)に維持する(S6)。
(Parameter update of feature extraction layer)
Next, as shown in FIG. 4, the control unit 16 updates the parameters of the feature extraction layer 11b based on the result of the performance evaluation E1 in S3 (S4 to S6). Specifically, when the result of the performance evaluation E1 in S3 satisfies a certain criterion (Yes in S4), the parameter of the feature extraction layer 11b is updated (S5). For example, the parameter of the feature extraction layer 11b (for example, the weight w1) is updated with the parameter (for example, the weight w1') obtained by the additional learning L1. On the other hand, when the result of the performance evaluation E1 in S3 does not satisfy a certain standard (No in S4), the control unit 16 sets the parameter of the feature extraction layer 11b to the parameter before the additional learning L1 (No). For example, the weight is maintained at w1) (S6).

<第2の学習・評価・更新工程>
第2の学習・評価・更新工程(III)は、識別層11cの追加学習L2を行う工程(S7)と、追加学習L2による識別層11cの性能評価E2を行う工程(S8)と、性能評価E2の結果に基づいて、識別層11cのパラメータ(重み)を、追加学習L2によって得られたパラメータに更新する工程(S9~S11)とを含む。
<Second learning / evaluation / update process>
The second learning / evaluation / updating step (III) includes a step of performing additional learning L2 of the identification layer 11c (S7), a step of performing performance evaluation E2 of the identification layer 11c by the additional learning L2 (S8), and performance evaluation. The step (S9 to S11) of updating the parameter (weight) of the identification layer 11c to the parameter obtained by the additional learning L2 based on the result of E2 is included.

(追加学習L2)
S7では、第1の学習・評価・更新工程(II)の後、正解付きのデータセットAを用いて、識別層11cの追加学習L2を行う。図8は、識別層11cの追加学習L2の際のデータの伝播モデルを模式的に示している。S7では、S2~S6で用いた識別層11c’を、S1の事前学習で用いた識別層11cに戻し、事前学習と同様の手順で、識別層11cの追加学習L2を行う。
(Additional learning L2)
In S7, after the first learning / evaluation / updating step (II), the additional learning L2 of the identification layer 11c is performed using the data set A with the correct answer. FIG. 8 schematically shows a data propagation model during the additional learning L2 of the discrimination layer 11c. In S7, the discrimination layer 11c'used in S2 to S6 is returned to the discrimination layer 11c used in the pre-learning of S1, and additional learning L2 of the discrimination layer 11c is performed by the same procedure as the pre-learning.

すなわち、データセットAのデータを、入力層11aを介して特徴抽出層11bに入力する。特徴抽出層11bの各ユニットUでは、入力データに対して重み付きの演算が行われる。この演算により、特徴抽出層11bでは、入力データから特徴が抽出され、抽出した特徴を示すデータが、識別層11cに出力される。識別層11cの各ユニットUでは、入力データに対する重み付きの演算が行われ、これによって、上記特徴に基づく識別が行われる。識別結果を示すデータは、識別層11cから出力される。 That is, the data of the data set A is input to the feature extraction layer 11b via the input layer 11a. In each unit U of the feature extraction layer 11b, a weighted operation is performed on the input data. By this calculation, the feature extraction layer 11b extracts the feature from the input data, and the data indicating the extracted feature is output to the identification layer 11c. In each unit U of the identification layer 11c, a weighted operation is performed on the input data, whereby identification based on the above characteristics is performed. The data indicating the identification result is output from the identification layer 11c.

制御部16は、識別層11cの出力値(データ)を、正解を示す値と比較してこれらの誤差(ロス)を算出し、この誤差が小さくなるように、識別層11cの重みを変化させる(バックプロパゲーション)。これにより、識別層11cが追加学習される。なお、追加学習L2においては、上記誤差が小さくなるように、識別層11cのみならず、特徴抽出層11bの重みを変化させてもよいが、ここでは追加学習を識別層11cまでに留めている(特徴抽出層11bの追加学習を行っていない)。その理由については後述する。 The control unit 16 compares the output value (data) of the identification layer 11c with the value indicating the correct answer, calculates these errors (losses), and changes the weight of the identification layer 11c so that this error becomes small. (Backpropagation). As a result, the identification layer 11c is additionally learned. In the additional learning L2, the weights of not only the identification layer 11c but also the feature extraction layer 11b may be changed so as to reduce the above error, but here, the additional learning is limited to the identification layer 11c. (Additional learning of the feature extraction layer 11b is not performed). The reason will be described later.

(性能評価E2)
S8の工程では、制御部16が、S7の追加学習L2による識別層11cの性能評価E2を行う。より具体的には、制御部16は、データセットCを用いて、識別層11cの性能評価E2を行う。データセットCは、性能評価用として予め用意されたデータセットであり、学習・評価用データ記憶部12bに記憶されている。
(Performance evaluation E2)
In the step of S8, the control unit 16 performs the performance evaluation E2 of the identification layer 11c by the additional learning L2 of S7. More specifically, the control unit 16 performs the performance evaluation E2 of the identification layer 11c using the data set C. The data set C is a data set prepared in advance for performance evaluation, and is stored in the learning / evaluation data storage unit 12b.

図9は、識別層11cの性能評価E2の際のデータの伝播モデルを模式的に示している。S8では、評価用のデータセットCのデータを入力層11aに入力する。入力層11aに入力された上記データは、特徴抽出層11bに出力される。特徴抽出層11bでは、入力データに対して重み付きの演算が行われ、その演算結果を示すデータが識別層11cに出力される。識別層11cでは、特徴抽出層11bから入力されるデータに対して重み付きの演算が行われ、その演算結果を示すデータが、識別層11cから出力される。 FIG. 9 schematically shows a data propagation model at the time of performance evaluation E2 of the identification layer 11c. In S8, the data of the evaluation data set C is input to the input layer 11a. The above data input to the input layer 11a is output to the feature extraction layer 11b. In the feature extraction layer 11b, a weighted operation is performed on the input data, and the data indicating the operation result is output to the identification layer 11c. In the identification layer 11c, a weighted operation is performed on the data input from the feature extraction layer 11b, and the data indicating the calculation result is output from the identification layer 11c.

制御部16は、識別層11cの出力値に基づいて得られる性能値(例えば正解率)がある閾値以上であるか否かを判断することにより、識別層11cの性能評価E2を行う。例えば、制御部16は、上記性能値が閾値以上である場合には、制御部16は、識別層11bの性能が一定の基準を満足していると判断する。一方、上記性能値が閾値未満である場合には、制御部16は、識別層11cの性能が一定の基準を満足していないと判断する。 The control unit 16 performs the performance evaluation E2 of the identification layer 11c by determining whether or not the performance value (for example, the correct answer rate) obtained based on the output value of the identification layer 11c is equal to or higher than a certain threshold value. For example, when the performance value is equal to or higher than the threshold value, the control unit 16 determines that the performance of the identification layer 11b satisfies a certain standard. On the other hand, when the performance value is less than the threshold value, the control unit 16 determines that the performance of the identification layer 11c does not satisfy a certain standard.

(識別層のパラメータ更新)
次に、制御部16は、S8での性能評価E2の結果に基づいて、識別層11cのパラメータ更新を行う(S9~S11)。具体的には、S8での性能評価E2の結果が一定の基準を満足している場合には(S9でYes)、制御部16は、識別層11cのパラメータ更新を行う(S10)。例えば、識別層11cのパラメータ(例えば重みw2)を、追加学習L2によって得られたパラメータ(例えば重みw2’)に更新する。一方、S8での性能評価E2の結果が一定の基準を満足していない場合には(S9でNo)、制御部16は、識別層11cのパラメータを、追加学習L2を行う前のパラメータ(例えば重みw2)に維持する(S11)。
(Parameter update of identification layer)
Next, the control unit 16 updates the parameters of the identification layer 11c based on the result of the performance evaluation E2 in S8 (S9 to S11). Specifically, when the result of the performance evaluation E2 in S8 satisfies a certain criterion (Yes in S9), the control unit 16 updates the parameter of the identification layer 11c (S10). For example, the parameter of the identification layer 11c (for example, the weight w2) is updated with the parameter (for example, the weight w2') obtained by the additional learning L2. On the other hand, when the result of the performance evaluation E2 in S8 does not satisfy a certain standard (No in S9), the control unit 16 sets the parameter of the identification layer 11c to the parameter before the additional learning L2 (for example,). The weight is maintained at w2) (S11).

なお、上記した第2の学習・評価・更新工程(III)では、認識処理部11のうち、識別層11cのみ追加学習L2を行うようにしているが、バックプロパゲーションにより、特徴抽出層11bの追加学習を行うようにしてもよい。そして、性能評価E2に基づくパラメータ更新では、識別層11cに加えて、特徴抽出層11bについてもパラメータ更新を行うようにしてもよい。つまり、第2の学習・評価・更新工程(III)では、追加学習L2およびパラメータ更新の対象を、特徴抽出層11bおよび識別層11cを含む認識処理部11としてもよい。 In the second learning / evaluation / updating step (III) described above, the additional learning L2 is performed only in the identification layer 11c of the recognition processing unit 11, but the feature extraction layer 11b is subjected to backpropagation. Additional learning may be performed. Then, in the parameter update based on the performance evaluation E2, the parameter may be updated not only for the identification layer 11c but also for the feature extraction layer 11b. That is, in the second learning / evaluation / updating step (III), the target of the additional learning L2 and the parameter update may be the recognition processing unit 11 including the feature extraction layer 11b and the identification layer 11c.

ただし、特徴抽出層11bは、第1の学習・評価・更新工程(II)において、データセットAのみならず、データセットBについても適合するように既に追加学習されている。このため、第2の学習・評価・更新工程(III)において、データセットAに基づく追加学習L2を特徴抽出層11bまで行うと、特徴抽出層11bのデータセットBに対する適合性が、データセットAへの適合に引っ張られて低下することが懸念される。したがって、外部から取得したデータへの適合性を向上させる観点では、第2の学習・評価・更新工程(III)での追加学習L2は、識別層11cについてのみ行うことが望ましい。 However, the feature extraction layer 11b has already been additionally learned so as to be compatible not only with the data set A but also with the data set B in the first learning / evaluation / updating step (II). Therefore, in the second learning / evaluation / updating step (III), when the additional learning L2 based on the data set A is performed up to the feature extraction layer 11b, the compatibility of the feature extraction layer 11b with the data set B becomes the data set A. There is a concern that it will be pulled down to fit into. Therefore, from the viewpoint of improving the compatibility with the data acquired from the outside, it is desirable that the additional learning L2 in the second learning / evaluation / updating step (III) is performed only on the identification layer 11c.

なお、上記した第1の学習・評価・更新工程(II)および第2の学習・評価・更新工程(III)は、データセットBの取得と並行して(現場でデータセットBを取得しながら同時に)それぞれ行ってもよいし、データセットBの取得時とは異なるタイミングで(例えば店舗の閉店後に)それぞれ行ってもよい。 The first learning / evaluation / updating step (II) and the second learning / evaluation / updating step (III) described above are performed in parallel with the acquisition of the data set B (while acquiring the data set B at the site). They may be performed at the same time (at the same time), or at different timings (for example, after the store is closed) than when the data set B is acquired.

図10は、上記の学習方法(工程(I)~(III))によって学習された学習装置1を用い、現場(例えば店舗)で得られたデータを入力として実際に認識(例えば顧客の行動認識)を行う場合のデータの伝播モデルを示している。学習装置1の活用時(運用時)には、性能評価E1の結果に応じてパラメータが更新された特徴抽出層11bと、性能評価E2の結果に応じてパラメータが更新された識別層11c(学習専用の識別層11c’ではない)とを用いて、特徴抽出および識別が行われることになる。 FIG. 10 shows, using the learning device 1 learned by the above learning methods (steps (I) to (III)), actually recognizing (for example, customer behavior recognition) by inputting data obtained at a site (for example, a store). ) Is shown. When the learning device 1 is used (during operation), the feature extraction layer 11b whose parameters are updated according to the result of the performance evaluation E1 and the identification layer 11c (learning) whose parameters are updated according to the result of the performance evaluation E2. Feature extraction and identification will be performed using (not the dedicated identification layer 11c').

〔効果〕
以上のように、本実施形態の学習方法は、事前に入手した正解付きのデータセットAを用いて、認識処理部11の事前学習を行う事前学習工程(1)と、事前学習の後、データセットAと、データセットAとは異なる環境で取得されたデータセットBとを用いて、認識処理部11の追加学習を行う追加学習工程(2)と、上記追加学習による認識処理部11の性能評価を行う性能評価工程(3)と、上記性能評価の結果に基づいて、認識処理部11のパラメータを、上記追加学習によって得られたパラメータに更新する更新工程(4)とを含む。なお、事前学習工程(1)は、上述したS1の工程に対応し、追加学習工程(2)は、上述したS2およびS7の各工程に対応し、性能評価工程(3)は、上述したS3およびS8の各工程に対応し、更新工程(4)は、上述したS4~S6およびS9~S11の各工程に対応する。
〔effect〕
As described above, the learning method of the present embodiment includes a pre-learning step (1) in which pre-learning of the recognition processing unit 11 is performed using a data set A with a correct answer obtained in advance, and data after pre-learning. The additional learning step (2) for performing additional learning of the recognition processing unit 11 using the set A and the data set B acquired in an environment different from the data set A, and the performance of the recognition processing unit 11 by the additional learning. It includes a performance evaluation step (3) for evaluation and an update step (4) for updating the parameters of the recognition processing unit 11 to the parameters obtained by the additional learning based on the result of the performance evaluation. The pre-learning step (1) corresponds to the above-mentioned S1 process, the additional learning step (2) corresponds to each of the above-mentioned S2 and S7 processes, and the performance evaluation step (3) corresponds to the above-mentioned S3. And each step of S8, and the update step (4) corresponds to each step of S4 to S6 and S9 to S11 described above.

また、本実施形態の学習装置1は、入力データから特徴を抽出し、抽出した特徴を用いて識別を行う認識処理部11と、認識処理部11を機械学習させる学習制御部としての制御部16とを備え、制御部16は、事前に入手した正解付きのデータセットAを用いて事前学習を行った認識処理部11に対して、データセットAと、データセットAとは異なる環境で取得されたデータセットBとを用いて追加学習させた後、上記追加学習による認識処理部11の性能評価を行い、上記性能評価の結果に基づいて、認識処理部11のパラメータを、上記追加学習によって得られたパラメータに更新する。 Further, the learning device 1 of the present embodiment has a recognition processing unit 11 that extracts features from input data and performs identification using the extracted features, and a control unit 16 as a learning control unit that causes the recognition processing unit 11 to perform machine learning. The control unit 16 is acquired in a different environment from the data set A and the data set A for the recognition processing unit 11 that has been pre-learned using the data set A with the correct answer obtained in advance. After additional learning using the data set B, the performance of the recognition processing unit 11 is evaluated by the additional learning, and the parameters of the recognition processing unit 11 are obtained by the additional learning based on the result of the performance evaluation. Update to the specified parameters.

上記の学習方法および学習装置1の構成によれば、正解付きのデータセットAを用いて認識処理部11の事前学習を行った後、データセットAとデータセットBとを用いて追加学習を行う。これにより、データセットAに対してのみならず、データセットAとは異なる環境で得られたデータセットB(例えば認識処理部11を実際に活用したい現場で得られるデータ)に対しても、認識処理部11の適合性を高めて、汎化性向上を図ることができる。 According to the above learning method and the configuration of the learning device 1, after the pre-learning of the recognition processing unit 11 is performed using the data set A with the correct answer, additional learning is performed using the data set A and the data set B. .. As a result, not only the data set A but also the data set B (for example, the data obtained at the site where the recognition processing unit 11 is actually desired to be used) obtained in an environment different from the data set A is recognized. It is possible to improve the compatibility of the processing unit 11 and improve the generalization.

しかも、追加学習を行った後、認識処理部11の性能評価(検証)を実際に行い、その結果に基づいて認識処理部11のパラメータ更新を行う。これにより、例えば、追加学習によって認識処理部11の性能が実際に向上する場合のみパラメータ更新を行う一方、追加学習(例えば過学習)によって認識処理部11の性能が低下する場合には、パラメータ更新を行わずに追加学習前のパラメータをそのまま維持することができる。したがって、事前学習および追加学習を行う場合でも、認識処理部11の(過学習による)性能低下を回避して、汎化性を向上させることができる。 Moreover, after performing additional learning, the performance evaluation (verification) of the recognition processing unit 11 is actually performed, and the parameters of the recognition processing unit 11 are updated based on the result. As a result, for example, the parameter is updated only when the performance of the recognition processing unit 11 is actually improved by the additional learning, while the parameter is updated when the performance of the recognition processing unit 11 is deteriorated by the additional learning (for example, overfitting). It is possible to keep the parameters before additional learning as they are without performing additional learning. Therefore, even when pre-learning and additional learning are performed, it is possible to avoid deterioration in performance (due to overfitting) of the recognition processing unit 11 and improve generalization.

上記の学習方法において、追加学習工程(2)は、特徴抽出層11bの追加学習L1を行う工程(2a)と、認識処理部11(例えば識別層11c)の追加学習L2を行う工程(2b)とを含む。なお、工程(2a)は、S2の工程に対応し、工程(2b)は、S7の工程に対応する。また、性能評価工程(3)は、追加学習L1による特徴抽出層11bの性能評価E1を行う工程(3a)と、追加学習L2による認識処理部11の性能評価E2を行う工程(3b)とを含む。なお、工程(3a)は、S3の工程に対応し、工程(3b)は、S8の工程に対応する。さらに、更新工程(4)は、性能評価E1の結果に基づいて、特徴抽出層11bのパラメータを、追加学習L1によって得られたパラメータに更新する工程(4a)と、性能評価E2の結果に基づいて、認識処理部11(例えば識別層11c)のパラメータを、追加学習L2によって得られたパラメータに更新する工程(4b)とを含む。なお、工程(4a)は、S4~S6の工程に対応し、工程(4b)は、S9~S11の工程に対応する。そして、本実施形態では、工程(2a)、工程(3a)、工程(4a)、工程(2b)、工程(3b)および工程(4b)を、この順で行う。 In the above learning method, the additional learning step (2) is a step (2a) of performing the additional learning L1 of the feature extraction layer 11b and a step (2b) of performing the additional learning L2 of the recognition processing unit 11 (for example, the identification layer 11c). And include. The step (2a) corresponds to the step of S2, and the step (2b) corresponds to the step of S7. Further, the performance evaluation step (3) includes a step (3a) of performing the performance evaluation E1 of the feature extraction layer 11b by the additional learning L1 and a step (3b) of performing the performance evaluation E2 of the recognition processing unit 11 by the additional learning L2. include. The step (3a) corresponds to the step of S3, and the step (3b) corresponds to the step of S8. Further, the update step (4) is based on the step (4a) of updating the parameters of the feature extraction layer 11b to the parameters obtained by the additional learning L1 based on the results of the performance evaluation E1 and the results of the performance evaluation E2. The step (4b) of updating the parameters of the recognition processing unit 11 (for example, the identification layer 11c) to the parameters obtained by the additional learning L2 is included. The step (4a) corresponds to the steps of S4 to S6, and the step (4b) corresponds to the steps of S9 to S11. Then, in this embodiment, the step (2a), the step (3a), the step (4a), the step (2b), the step (3b), and the step (4b) are performed in this order.

また、上記の学習装置1において、制御部16は、特徴抽出層11bに対して追加学習L1を行った後、追加学習L1による特徴抽出層11bの性能評価E1を行い、性能評価E1の結果に基づいて、特徴抽出層11bのパラメータを、追加学習L1によって得られたパラメータに更新し、続いて、認識処理部11(例えば識別層11c)の追加学習L2を行った後、追加学習L2による認識処理部11の性能評価E2を行い、性能評価E2の結果に基づいて、認識処理部11のパラメータを、追加学習L2によって得られたパラメータに更新する。 Further, in the above learning device 1, the control unit 16 performs additional learning L1 on the feature extraction layer 11b, and then performs performance evaluation E1 of the feature extraction layer 11b by the additional learning L1, and the result of the performance evaluation E1 is obtained. Based on this, the parameters of the feature extraction layer 11b are updated to the parameters obtained by the additional learning L1, and subsequently, the additional learning L2 of the recognition processing unit 11 (for example, the identification layer 11c) is performed, and then the recognition by the additional learning L2. The performance evaluation E2 of the processing unit 11 is performed, and the parameters of the recognition processing unit 11 are updated to the parameters obtained by the additional learning L2 based on the result of the performance evaluation E2.

認識処理部11が特徴抽出層11bと識別層11cとを含む場合において、先に特徴抽出層11bの追加学習L1、性能評価E1およびパラメータ更新を行ってから、識別層11cを含めた認識処理部11の追加学習L2、性能評価E2およびパラメータ更新を行う。これにより、認識処理部11の実際の運用時には(実際に現場データを用いて認識処理を行う際には)、特徴抽出層11bで入力データから適切に抽出された特徴を用いて、識別層11cにて識別を適切に行うことができる。 When the recognition processing unit 11 includes the feature extraction layer 11b and the identification layer 11c, the recognition processing unit including the identification layer 11c is first subjected to additional learning L1, performance evaluation E1 and parameter update of the feature extraction layer 11b. 11 additional learning L2, performance evaluation E2, and parameter update are performed. As a result, during the actual operation of the recognition processing unit 11 (when the recognition processing is actually performed using the field data), the identification layer 11c uses the features appropriately extracted from the input data by the feature extraction layer 11b. Can be properly identified at.

上記の学習方法において、工程(2a)では、データセットBに含まれるデータセットB1を用いて、特徴抽出層11bの追加学習L1を行い、工程(3a)では、データセットBに含まれるデータセットB1以外のデータセットB2を用いて、特徴抽出層11bの性能評価E1を行う。また、上記の学習装置1において、制御部16は、データセットBに含まれるデータセットB1を用いて、特徴抽出層11bの追加学習L1を行う一方、データセットBに含まれるデータセットB1以外のデータセットB2を用いて、特徴抽出層11bの性能評価E1を行う。 In the above learning method, in the step (2a), the additional learning L1 of the feature extraction layer 11b is performed using the data set B1 included in the data set B, and in the step (3a), the data set included in the data set B is performed. Performance evaluation E1 of the feature extraction layer 11b is performed using a data set B2 other than B1. Further, in the above learning device 1, the control unit 16 performs additional learning L1 of the feature extraction layer 11b using the data set B1 included in the data set B, while the control unit 16 other than the data set B1 included in the data set B. The performance evaluation E1 of the feature extraction layer 11b is performed using the data set B2.

特徴抽出層11bの追加学習L1については、データセットBに含まれるデータセットB1を用いて行い、特徴抽出層11bの性能評価E1については、データセットBに含まれるデータセットB1以外のデータセットB2を用いて行うため、追加学習L1で用いたデータ以外のデータを入力とする場合でも、特徴抽出層11bが適切な性能を発揮するかどうか(入力データから特徴を適切に抽出しているかどうか)を評価することができる。このことは、汎化性向上にもつながる。 The additional learning L1 of the feature extraction layer 11b is performed using the data set B1 included in the data set B, and the performance evaluation E1 of the feature extraction layer 11b is performed by the data set B2 other than the data set B1 included in the data set B. Whether or not the feature extraction layer 11b exhibits appropriate performance even when data other than the data used in the additional learning L1 is input (whether or not the features are properly extracted from the input data). Can be evaluated. This also leads to improved generalization.

上記の学習方法において、工程(2b)では、データセットAを用いて、認識処理部11(例えば識別層11c)の追加学習L2を行い、工程(3b)では、予め用意した性能評価用のデータセットCを用いて、認識処理部11の性能評価E2を行う。また、上記の学習装置1において、制御部16は、データセットAを用いて、認識処理部11(例えば識別層11c)の追加学習L2を行う一方、予め用意した性能評価用のデータセットCを用いて、認識処理部11の性能評価E2を行う。 In the above learning method, in the step (2b), the additional learning L2 of the recognition processing unit 11 (for example, the identification layer 11c) is performed using the data set A, and in the step (3b), the data for performance evaluation prepared in advance is performed. The performance evaluation E2 of the recognition processing unit 11 is performed using the set C. Further, in the above learning device 1, the control unit 16 performs additional learning L2 of the recognition processing unit 11 (for example, the identification layer 11c) using the data set A, while the data set C for performance evaluation prepared in advance is used. The performance evaluation E2 of the recognition processing unit 11 is performed using the data.

認識処理部11の追加学習L2を、正解ありのデータセットAを用いて行うことにより、認識処理部11からの出力が正解に近づくように認識処理部11を学習させることができる。また、認識処理部11の性能評価E2を、予め用意した性能評価用のデータセットCを用いて行うことにより、認識処理部11の性能評価を適切に行うことができる。 By performing the additional learning L2 of the recognition processing unit 11 using the data set A with a correct answer, the recognition processing unit 11 can be trained so that the output from the recognition processing unit 11 approaches the correct answer. Further, by performing the performance evaluation E2 of the recognition processing unit 11 using the data set C for performance evaluation prepared in advance, the performance evaluation of the recognition processing unit 11 can be appropriately performed.

上記の学習方法において、工程(4a)では、性能評価E1の結果が一定の基準を満足している場合に、特徴抽出層11bのパラメータ更新を行う(S5)。また、上記の学習装置1において、制御部16は、性能評価E1の結果が一定の基準を満足している場合に、特徴抽出層11bのパラメータ更新を行う。 In the above learning method, in the step (4a), when the result of the performance evaluation E1 satisfies a certain criterion, the parameter of the feature extraction layer 11b is updated (S5). Further, in the learning device 1 described above, the control unit 16 updates the parameters of the feature extraction layer 11b when the result of the performance evaluation E1 satisfies a certain criterion.

性能評価E1の結果が一定の基準を満足している場合には、特徴抽出層11bのパラメータ更新によって、特徴抽出層11bの性能を、追加学習L1の前よりも向上させることができる。 When the result of the performance evaluation E1 satisfies a certain criterion, the performance of the feature extraction layer 11b can be improved as compared with that before the additional learning L1 by updating the parameters of the feature extraction layer 11b.

上記の学習方法において、工程(4a)では、性能評価E1の結果が一定の基準を満足していない場合に、特徴抽出層11bのパラメータを、追加学習L1を行う前のパラメータに維持する(S6)。また、上記の学習装置1において、制御部16は、性能評価E1の結果が一定の基準を満足していない場合に、特徴抽出層11bのパラメータを、追加学習L1を行う前のパラメータに維持する。 In the above learning method, in the step (4a), when the result of the performance evaluation E1 does not satisfy a certain criterion, the parameter of the feature extraction layer 11b is maintained at the parameter before the additional learning L1 (S6). ). Further, in the learning device 1 described above, the control unit 16 maintains the parameters of the feature extraction layer 11b at the parameters before the additional learning L1 when the result of the performance evaluation E1 does not satisfy a certain standard. ..

性能評価E1の結果が一定の基準を満足していない場合には、特徴抽出層11bのパラメータが、追加学習L1を行う前のパラメータに維持されるため、特徴抽出層11bの性能が、追加学習L1(例えば過学習)によって低下するのを回避することができる。 When the result of the performance evaluation E1 does not satisfy a certain standard, the parameter of the feature extraction layer 11b is maintained at the parameter before the additional learning L1, so that the performance of the feature extraction layer 11b is additionally learned. It can be avoided to decrease due to L1 (for example, overfitting).

上記の学習方法において、工程(4b)では、性能評価E2の結果が一定の基準を満足している場合に、認識処理部11(例えば識別層11c)のパラメータ更新を行う(S10)。また、上記の学習装置1において、制御部16は、性能評価E2の結果が一定の基準を満足している場合に、認識処理部(例えば識別層11c)のパラメータ更新を行う。 In the above learning method, in the step (4b), when the result of the performance evaluation E2 satisfies a certain criterion, the parameter of the recognition processing unit 11 (for example, the identification layer 11c) is updated (S10). Further, in the learning device 1 described above, the control unit 16 updates the parameters of the recognition processing unit (for example, the identification layer 11c) when the result of the performance evaluation E2 satisfies a certain standard.

性能評価E2の結果が一定の基準を満足している場合には、認識処理部11のパラメータ更新によって、認識処理部11の性能を、追加学習L2の前よりも向上させることができる。 When the result of the performance evaluation E2 satisfies a certain standard, the performance of the recognition processing unit 11 can be improved as compared with that before the additional learning L2 by updating the parameters of the recognition processing unit 11.

上記の学習方法において、工程(4b)では、性能評価E2の結果が一定の基準を満足していない場合に、認識処理部11(例えば識別層11c)のパラメータを、追加学習L2を行う前のパラメータに維持する(S11)。また、上記の学習装置1において、制御部16は、性能評価E2の結果が一定の基準を満足していない場合に、認識処理部11(例えば識別層11c)のパラメータを、追加学習L2を行う前のパラメータに維持する。 In the above learning method, in the step (4b), when the result of the performance evaluation E2 does not satisfy a certain criterion, the parameters of the recognition processing unit 11 (for example, the identification layer 11c) are set before the additional learning L2 is performed. Maintained as a parameter (S11). Further, in the above learning device 1, when the result of the performance evaluation E2 does not satisfy a certain standard, the control unit 16 performs additional learning L2 on the parameters of the recognition processing unit 11 (for example, the identification layer 11c). Keep the previous parameters.

性能評価E2の結果が一定の基準を満足していない場合には、認識処理部11のパラメータが、追加学習L2を行う前のパラメータに維持されるため、認識処理部11の性能が、追加学習L2(例えば過学習)によって低下するのを回避することができる。 When the result of the performance evaluation E2 does not satisfy a certain standard, the parameter of the recognition processing unit 11 is maintained at the parameter before the additional learning L2, so that the performance of the recognition processing unit 11 is subjected to the additional learning. It can be avoided to decrease due to L2 (for example, overfitting).

上記の学習方法において、工程(2b)では、データセットAを用いた追加学習L2を、識別層11cについてのみ行う。また、上記の学習装置1において、制御部16は、データセットAを用いた追加学習L2を、識別層11cについてのみ行う。 In the above learning method, in the step (2b), the additional learning L2 using the data set A is performed only for the identification layer 11c. Further, in the learning device 1 described above, the control unit 16 performs additional learning L2 using the data set A only on the identification layer 11c.

追加学習L2を識別層11cについてのみ行うことにより、先に追加学習L1によってデータセットBを用いて適切にチューニング(パラメータ調整)された特徴抽出層11bが、正解ありのデータセットAに引っ張られて学習されるのを防ぐことができる。これにより、特徴抽出層11bの過学習を防止して、特徴抽出層11bの性能低下を防止しながら、識別層11cのみを適切に学習させることができる。 By performing the additional learning L2 only on the identification layer 11c, the feature extraction layer 11b that was previously appropriately tuned (parameter adjusted) using the data set B by the additional learning L1 is pulled to the data set A with a correct answer. You can prevent it from being learned. This makes it possible to appropriately learn only the identification layer 11c while preventing overfitting of the feature extraction layer 11b and preventing performance deterioration of the feature extraction layer 11b.

上記の学習方法および学習装置1において、認識処理部11は、ニューラルネットワークで構成されている。この場合、ニューラルネットワークの機械学習によって、認識処理部11の性能(汎化性)を向上させることができる。 In the above learning method and learning device 1, the recognition processing unit 11 is composed of a neural network. In this case, the performance (generalization) of the recognition processing unit 11 can be improved by machine learning of the neural network.

〔プログラムおよび記録媒体〕
本実施形態で説明した学習装置1は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部16)が読み取って実行することにより、学習装置1の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されてプログラム記憶部12aに記憶される。また、上記プログラムは、例えばCD-ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取ってプログラム記憶部12aに記憶する形態であってもよい。
[Programs and recording media]
The learning device 1 described in this embodiment can be configured by, for example, a computer (PC) in which a predetermined program (application software) is installed. By reading and executing the above program by a computer (for example, a control unit 16 as a CPU), each unit of the learning device 1 can be operated to execute each process (each step) described above. Such a program is acquired by downloading from the outside via a network, for example, and is stored in the program storage unit 12a. Further, the program is recorded on a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory), and the computer reads the program from the recording medium and stores it in the program storage unit 12a. There may be.

〔補足〕
図11は、本実施形態の学習方法の他の処理の流れを示すフローチャートである。制御部16は、S3での性能評価E1の結果が一定の基準を満足しているか否かを判断し(S4)、一定の基準を満足していない場合には、S2に戻り、正解付きのデータセットAと、データセットBに含まれるデータセットB1以外のデータセットB3とを用いて、特徴抽出層11bの追加学習L1を再度行うようにしてもよい。性能評価E1の結果が一定の基準を満足していない場合に、特徴抽出層11bの追加学習L1を再度行うことにより、特徴抽出層11bの性能向上を再度試みることができ、これによって汎化性向上が期待できる。
〔supplement〕
FIG. 11 is a flowchart showing the flow of other processes of the learning method of the present embodiment. The control unit 16 determines whether or not the result of the performance evaluation E1 in S3 satisfies a certain standard (S4), and if it does not satisfy a certain standard, returns to S2 and has a correct answer. The additional learning L1 of the feature extraction layer 11b may be performed again using the data set A and the data set B3 other than the data set B1 included in the data set B. When the result of the performance evaluation E1 does not satisfy a certain standard, the performance improvement of the feature extraction layer 11b can be tried again by performing the additional learning L1 of the feature extraction layer 11b again, thereby making the feature extraction layer 11b generalizable. Improvement can be expected.

本実施形態では、認識処理部11をニューラルネットワークで構成した例について説明したが、この構成に限定されるわけではない。例えば、認識処理部11の識別層11cとしは、サポートベクターマシン(SVM:support vector machine)やランダムフォレスト(random forest)などを用いることができ、この場合でも本実施形態で説明した学習方法を適用することが可能である。 In the present embodiment, an example in which the recognition processing unit 11 is configured by a neural network has been described, but the present invention is not limited to this configuration. For example, a support vector machine (SVM), a random forest, or the like can be used as the identification layer 11c of the recognition processing unit 11, and even in this case, the learning method described in the present embodiment is applied. It is possible to do.

〔まとめ〕
本実施形態では、認識処理部11の追加学習L1・L2による学習結果を、評価用のデータを用いて評価し、その評価結果に基づいて各層(特徴抽出層11b、識別層11c)のパラメータ更新を行う。学習結果の評価に基づいて、特徴抽出または識別の精度が向上する見込みであれば、特徴抽出層11bおよび識別層11cのパラメータ更新をそれぞれ行うため、特徴抽出または識別の精度を向上させて、汎化性を向上させることができる。
〔summary〕
In the present embodiment, the learning results by the additional learning L1 and L2 of the recognition processing unit 11 are evaluated using the evaluation data, and the parameters of each layer (feature extraction layer 11b, identification layer 11c) are updated based on the evaluation results. I do. If it is expected that the accuracy of feature extraction or identification will be improved based on the evaluation of the learning result, the parameters of the feature extraction layer 11b and the identification layer 11c will be updated respectively, so that the accuracy of feature extraction or identification will be improved and generalized. It is possible to improve the creativity.

また、特徴抽出層11bと識別層11cとを備えた認識処理部11の機械学習を行うにあたって、事前に集めた正解付きのデータ(データセットA)を用いた学習だけでは、実際に認識(識別)を行う現地のデータ(データセットB)に対する適合性が低く、汎化性を向上させることができない。また、現地のデータは、収集してもアノテーションがなく、識別層11cの出力が正解であるかどうかわからないため、識別層11cの学習には利用できない。しかし、事前に集めた正解付きのデータと併せて、現地のデータも用いて認識処理部11を学習させることにより、用いるデータが多様化し、現地のデータにも合わせた学習が可能となって、汎用性が向上する。つまり、本実施形態のように、事前に入手した正解付きのデータ(データセットA)と、実運用を行う現場で取得されるデータ(データセットB)とを用い、データの組み合わせと学習範囲とを調整しながら、事前学習および追加学習L1・L2を行うことにより、汎化性を向上させることができる。また、正解付きのデータを用いて識別層11cの追加学習を行うことにより、識別の精度を向上させることができる。 Further, in performing machine learning of the recognition processing unit 11 including the feature extraction layer 11b and the identification layer 11c, the actual recognition (identification) is actually performed only by learning using the data with the correct answer (data set A) collected in advance. ) Is poorly compatible with the local data (data set B), and generalization cannot be improved. In addition, the local data cannot be used for learning the discrimination layer 11c because there is no annotation even if it is collected and it is not known whether the output of the discrimination layer 11c is the correct answer. However, by training the recognition processing unit 11 using the local data together with the data with the correct answer collected in advance, the data to be used is diversified, and learning according to the local data becomes possible. Increases versatility. That is, as in the present embodiment, the data with the correct answer (data set A) obtained in advance and the data (data set B) acquired at the site where the actual operation is performed are used to combine the data and the learning range. By performing pre-learning and additional learning L1 and L2 while adjusting the above, generalization can be improved. Further, the accuracy of identification can be improved by performing additional learning of the identification layer 11c using the data with the correct answer.

特に、特徴抽出層11bの追加学習L1は、データセットAおよびデータセットBを用いて行うことで汎化性を向上させ、識別層11cの追加学習L2は、正解付きのデータセットAを用いて行うことで、識別の精度を向上させることができる。また、識別層11cの追加学習L2のときに、特徴抽出層11bの追加学習(パラメータ学習)を行わないようにすることで、特徴抽出層11bのデータセットAへの過学習を抑えることができる。 In particular, the additional learning L1 of the feature extraction layer 11b is performed by using the data set A and the data set B to improve generalization, and the additional learning L2 of the identification layer 11c is performed by using the data set A with a correct answer. By doing so, the accuracy of identification can be improved. Further, by not performing the additional learning (parameter learning) of the feature extraction layer 11b at the time of the additional learning L2 of the identification layer 11c, it is possible to suppress over-learning of the feature extraction layer 11b to the data set A. ..

〔その他〕
以上で説明した本実施形態の学習方法および学習装置は、以下のように表現されてもよい。また、本実施形態で説明した内容は、以下のプログラムおよび記録媒体を含む。
〔others〕
The learning method and learning device of the present embodiment described above may be expressed as follows. In addition, the contents described in this embodiment include the following programs and recording media.

1.入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部の機械学習における学習方法であって、
事前に入手した正解付きのデータセットAを用いて、前記認識処理部の事前学習を行う事前学習工程(1)と、
前記事前学習の後、前記データセットAと、前記データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて、前記認識処理部の追加学習を行う追加学習工程(2)と、
前記追加学習による前記認識処理部の性能評価を行う性能評価工程(3)と、
前記性能評価の結果に基づいて、前記認識処理部のパラメータを、前記追加学習によって得られたパラメータに更新する更新工程(4)とを含むことを特徴とする学習方法。
1. 1. It is a learning method in machine learning of the recognition processing unit that extracts features from input data and identifies using the extracted features.
The pre-learning step (1) in which the recognition processing unit is pre-learned using the data set A with the correct answer obtained in advance, and
After the pre-learning, an additional learning step (2) of performing additional learning of the recognition processing unit using the data set A and the data set B without a correct answer acquired in an environment different from the data set A. )When,
The performance evaluation step (3) for evaluating the performance of the recognition processing unit by the additional learning, and
A learning method comprising an update step (4) for updating a parameter of the recognition processing unit to a parameter obtained by the additional learning based on the result of the performance evaluation.

2.前記認識処理部が、前記入力データから前記特徴を抽出する特徴抽出層と、抽出した前記特徴を用いて識別を行う識別層とを含む場合において、
前記追加学習工程(2)は、前記特徴抽出層の追加学習L1を行う工程(2a)と、前記認識処理部の追加学習L2を行う工程(2b)とを含み、
前記性能評価工程(3)は、前記追加学習L1による前記特徴抽出層の性能評価E1を行う工程(3a)と、前記追加学習L2による前記認識処理部の性能評価E2を行う工程(3b)とを含み、
前記更新工程(4)は、前記性能評価E1の結果に基づいて、前記特徴抽出層のパラメータを、前記追加学習L1によって得られたパラメータに更新する工程(4a)と、前記性能評価E2の結果に基づいて、前記認識処理部のパラメータを、前記追加学習L2によって得られたパラメータに更新する工程(4b)とを含み、
前記工程(2a)、前記工程(3a)、前記工程(4a)、前記工程(2b)、前記工程(3b)および前記工程(4b)を、この順で行うことを特徴とする前記1に記載の学習方法。
2. 2. When the recognition processing unit includes a feature extraction layer that extracts the feature from the input data and an identification layer that performs identification using the extracted feature.
The additional learning step (2) includes a step (2a) of performing the additional learning L1 of the feature extraction layer and a step (2b) of performing the additional learning L2 of the recognition processing unit.
The performance evaluation step (3) includes a step (3a) of performing the performance evaluation E1 of the feature extraction layer by the additional learning L1 and a step (3b) of performing the performance evaluation E2 of the recognition processing unit by the additional learning L2. Including
The update step (4) is a step (4a) of updating the parameters of the feature extraction layer to the parameters obtained by the additional learning L1 based on the result of the performance evaluation E1, and the result of the performance evaluation E2. The step (4b) of updating the parameters of the recognition processing unit to the parameters obtained by the additional learning L2 is included.
2. The above 1 is characterized in that the step (2a), the step (3a), the step (4a), the step (2b), the step (3b), and the step (4b) are performed in this order. Learning method.

3.前記工程(2a)では、前記データセットBに含まれるデータセットB1を用いて、前記特徴抽出層の前記追加学習L1を行い、
前記工程(3a)では、前記データセットBに含まれる前記データセットB1以外のデータセットB2を用いて、前記特徴抽出層の前記性能評価E1を行うことを特徴とする前記2に記載の学習方法。
3. 3. In the step (2a), the additional learning L1 of the feature extraction layer is performed using the data set B1 included in the data set B.
2. The learning method according to 2, wherein in the step (3a), the performance evaluation E1 of the feature extraction layer is performed using a data set B2 other than the data set B1 included in the data set B. ..

4.前記工程(2b)では、前記データセットAを用いて、前記認識処理部の前記追加学習L2を行い、
前記工程(3b)では、予め用意した性能評価用のデータセットCを用いて、前記認識処理部の性能評価E2を行うことを特徴とする前記2または3に記載の学習方法。
4. In the step (2b), the additional learning L2 of the recognition processing unit is performed using the data set A.
The learning method according to 2 or 3, wherein in the step (3b), the performance evaluation E2 of the recognition processing unit is performed using the data set C for performance evaluation prepared in advance.

5.前記工程(4a)では、前記性能評価E1の結果が一定の基準を満足している場合に、前記特徴抽出層のパラメータ更新を行うことを特徴とする前記2から4のいずれかに記載の学習方法。 5. The learning according to any one of 2 to 4, wherein in the step (4a), when the result of the performance evaluation E1 satisfies a certain criterion, the parameter of the feature extraction layer is updated. Method.

6.前記工程(4a)では、前記性能評価E1の結果が一定の基準を満足していない場合に、前記特徴抽出層のパラメータを、前記追加学習L1を行う前のパラメータに維持することを特徴とする前記2から5のいずれかに記載の学習方法。 6. The step (4a) is characterized in that, when the result of the performance evaluation E1 does not satisfy a certain criterion, the parameter of the feature extraction layer is maintained at the parameter before the additional learning L1 is performed. The learning method according to any one of 2 to 5 above.

7.前記工程(4b)では、前記性能評価E2の結果が一定の基準を満足している場合に、前記認識処理部のパラメータ更新を行うことを特徴とする前記2から6のいずれかに記載の学習方法。 7. The learning according to any one of 2 to 6 above, wherein in the step (4b), when the result of the performance evaluation E2 satisfies a certain criterion, the parameter of the recognition processing unit is updated. Method.

8.前記工程(4b)では、前記性能評価E2の結果が一定の基準を満足していない場合に、前記認識処理部のパラメータを、前記追加学習L2を行う前のパラメータに維持することを特徴とする前記2から7のいずれかに記載の学習方法。 8. The step (4b) is characterized in that, when the result of the performance evaluation E2 does not satisfy a certain criterion, the parameter of the recognition processing unit is maintained at the parameter before the additional learning L2 is performed. The learning method according to any one of 2 to 7 above.

9.前記工程(2b)では、前記データセットAを用いた前記追加学習L2を、前記識別層についてのみ行うことを特徴とする前記2から8のいずれかに記載の学習方法。 9. The learning method according to any one of 2 to 8, wherein in the step (2b), the additional learning L2 using the data set A is performed only on the identification layer.

10前記認識処理部は、ニューラルネットワークで構成されていることを特徴とする前記1から9のいずれかに記載の学習方法。 10. The learning method according to any one of 1 to 9, wherein the recognition processing unit is composed of a neural network.

11.入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部と、
前記認識処理部を機械学習させる学習制御部とを備え、
前記学習制御部は、事前に入手した正解付きのデータセットAを用いて事前学習を行った前記認識処理部に対して、前記データセットAと、前記データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて追加学習させた後、前記追加学習による前記認識処理部の性能評価を行い、前記性能評価の結果に基づいて、前記認識処理部のパラメータを、前記追加学習によって得られたパラメータに更新することを特徴とする学習装置。
11. A recognition processing unit that extracts features from input data and uses the extracted features for identification.
The recognition processing unit is provided with a learning control unit for machine learning.
The learning control unit was acquired in a different environment from the data set A and the data set A for the recognition processing unit that had been pre-learned using the data set A with the correct answer obtained in advance. After additional learning using the data set B without a correct answer, the performance evaluation of the recognition processing unit is performed by the additional learning, and the parameters of the recognition processing unit are subjected to the additional learning based on the result of the performance evaluation. A learning device characterized by updating to the parameters obtained by.

12.前記認識処理部は、前記入力データから前記特徴を抽出する特徴抽出層と、抽出した前記特徴を用いて識別を行う識別層とを有しており、
前記学習制御部は、
前記特徴抽出層に対して追加学習L1を行った後、前記追加学習L1による前記特徴抽出層の性能評価E1を行い、前記性能評価E1の結果に基づいて、前記特徴抽出層のパラメータを、前記追加学習L1によって得られたパラメータに更新し、続いて、前記認識処理部の追加学習L2を行った後、前記追加学習L2による前記認識処理部の性能評価E2を行い、前記性能評価E2の結果に基づいて、前記認識処理部のパラメータを、前記追加学習L2によって得られたパラメータに更新することを特徴とする前記11に記載の学習装置。
12. The recognition processing unit has a feature extraction layer that extracts the feature from the input data, and an identification layer that performs identification using the extracted feature.
The learning control unit
After the additional learning L1 is performed on the feature extraction layer, the performance evaluation E1 of the feature extraction layer is performed by the additional learning L1, and the parameters of the feature extraction layer are set based on the result of the performance evaluation E1. After updating to the parameters obtained by the additional learning L1 and subsequently performing the additional learning L2 of the recognition processing unit, the performance evaluation E2 of the recognition processing unit by the additional learning L2 is performed, and the result of the performance evaluation E2. 11. The learning apparatus according to 11 above, wherein the parameters of the recognition processing unit are updated to the parameters obtained by the additional learning L2.

13.前記学習制御部は、前記データセットBに含まれるデータセットB1を用いて、前記特徴抽出層の前記追加学習L1を行う一方、前記データセットBに含まれる前記データセットB1以外のデータセットB2を用いて、前記特徴抽出層の前記性能評価E1を行うことを特徴とする前記12に記載の学習装置。 13. The learning control unit performs the additional learning L1 of the feature extraction layer using the data set B1 included in the data set B, while the data set B2 other than the data set B1 included in the data set B is used. The learning apparatus according to 12 above, wherein the performance evaluation E1 of the feature extraction layer is performed by using the learning apparatus.

14.前記学習制御部は、前記データセットAを用いて、前記認識処理部の前記追加学習L2を行う一方、予め用意した性能評価用のデータセットCを用いて、前記認識処理部の性能評価E2を行うことを特徴とする前記12または13に記載の学習装置。 14. The learning control unit performs the additional learning L2 of the recognition processing unit using the data set A, while performing the performance evaluation E2 of the recognition processing unit using the performance evaluation data set C prepared in advance. 12. The learning device according to 12 or 13, wherein the learning device is performed.

15.前記学習制御部は、前記性能評価E1の結果が一定の基準を満足している場合に、前記特徴抽出層のパラメータ更新を行うことを特徴とする前記12から14のいずれかに記載の学習装置。 15. The learning device according to any one of 12 to 14, wherein the learning control unit updates the parameters of the feature extraction layer when the result of the performance evaluation E1 satisfies a certain criterion. ..

16.前記学習制御部は、前記性能評価E1の結果が一定の基準を満足していない場合に、前記特徴抽出層のパラメータを、前記追加学習L1を行う前のパラメータに維持することを特徴とする前記12から15のいずれかに記載の学習装置。 16. The learning control unit is characterized in that when the result of the performance evaluation E1 does not satisfy a certain criterion, the parameter of the feature extraction layer is maintained at the parameter before the additional learning L1 is performed. The learning device according to any one of 12 to 15.

17.前記学習制御部は、前記性能評価E2の結果が一定の基準を満足している場合に、前記認識処理部のパラメータ更新を行うことを特徴とする前記12から16のいずれかに記載の学習装置。 17. The learning device according to any one of 12 to 16, wherein the learning control unit updates the parameters of the recognition processing unit when the result of the performance evaluation E2 satisfies a certain criterion. ..

18.前記学習制御部は、前記性能評価E2の結果が一定の基準を満足していない場合に、前記認識処理部のパラメータを、前記追加学習L2を行う前のパラメータに維持することを特徴とする前記12から17のいずれかに記載の学習装置。 18. The learning control unit is characterized in that when the result of the performance evaluation E2 does not satisfy a certain criterion, the parameter of the recognition processing unit is maintained at the parameter before the additional learning L2 is performed. The learning device according to any one of 12 to 17.

19.前記学習制御部は、前記データセットAを用いた前記追加学習L2を、前記識別層についてのみ行うことを特徴とする前記12から18のいずれかに記載の学習装置。 19. The learning device according to any one of 12 to 18, wherein the learning control unit performs the additional learning L2 using the data set A only for the identification layer.

20.前記認識処理部は、ニューラルネットワークで構成されていることを特徴とする前記11から19のいずれかに記載の学習装置。 20. The learning device according to any one of 11 to 19, wherein the recognition processing unit is composed of a neural network.

21.前記工程(2a)は、前記工程(4a)において前記性能評価E1の結果が一定の基準を満足していない場合に、前記データセットAと、前記データセットBに含まれる未使用のデータセットB3とを用いて、前記特徴抽出層の追加学習L1を再度行うことを特徴とする前記2から5のいずれかに記載の学習方法。 21. In the step (2a), when the result of the performance evaluation E1 does not satisfy a certain criterion in the step (4a), the data set A and the unused data set B3 included in the data set B are used. The learning method according to any one of 2 to 5, wherein the additional learning L1 of the feature extraction layer is performed again using the above.

22.前記学習制御部は、前記性能評価E1の結果が一定の基準を満足していない場合に、前記データセットAと、前記データセットBに含まれる未使用のデータセットB3とを用いて、前記特徴抽出層の追加学習L1を再度行うことを特徴とする前記12から15のいずれかに記載の学習装置。 22. When the result of the performance evaluation E1 does not satisfy a certain criterion, the learning control unit uses the data set A and the unused data set B3 included in the data set B to perform the feature. The learning apparatus according to any one of 12 to 15, wherein the additional learning L1 of the extraction layer is performed again.

23.前記1~10、21のいずれかに記載の学習方法をコンピュータに実行させるプログラム。 23. A program that causes a computer to execute the learning method according to any one of 1 to 10 and 21.

24.前記23に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。 24. A computer-readable recording medium on which the program according to 23 is recorded.

以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to this, and can be extended or modified without departing from the gist of the invention.

本発明は、入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部の機械学習における学習方法および学習装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used as a learning method and a learning device in machine learning of a recognition processing unit that extracts features from input data and identifies using the extracted features.

1 学習装置
11 認識処理部
11b 特徴抽出層
11c 識別層
16 制御部(学習制御部)
1 Learning device 11 Recognition processing unit 11b Feature extraction layer 11c Identification layer 16 Control unit (learning control unit)

Claims (20)

入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部の機械学習における学習方法であって、
事前に入手した正解付きのデータセットAを用いて、前記認識処理部の事前学習を行う事前学習工程(1)と、
前記事前学習の後、前記データセットAと、前記データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて、前記認識処理部の追加学習を行う追加学習工程(2)と、
前記追加学習による前記認識処理部の性能評価を行う性能評価工程(3)と、
前記性能評価の結果に基づいて、前記認識処理部のパラメータを、前記追加学習によって得られたパラメータに更新する更新工程(4)とを含み、
前記認識処理部が、前記入力データから前記特徴を抽出する特徴抽出層と、抽出した前記特徴を用いて識別を行う識別層とを含む場合において、
前記追加学習工程(2)は、前記特徴抽出層の追加学習L1を行う工程(2a)と、前記認識処理部の追加学習L2を行う工程(2b)とを含み、
前記性能評価工程(3)は、前記追加学習L1による前記特徴抽出層の性能評価E1を行う工程(3a)と、前記追加学習L2による前記認識処理部の性能評価E2を行う工程(3b)とを含み、
前記更新工程(4)は、前記性能評価E1の結果に基づいて、前記特徴抽出層のパラメータを、前記追加学習L1によって得られたパラメータに更新する工程(4a)と、前記性能評価E2の結果に基づいて、前記認識処理部のパラメータを、前記追加学習L2によって得られたパラメータに更新する工程(4b)とを含み、
前記工程(2a)、前記工程(3a)、前記工程(4a)、前記工程(2b)、前記工程(3b)および前記工程(4b)を、この順で行うことを特徴とする学習方法。
It is a learning method in machine learning of the recognition processing unit that extracts features from input data and identifies using the extracted features.
The pre-learning step (1) in which the recognition processing unit is pre-learned using the data set A with the correct answer obtained in advance, and
After the pre-learning, an additional learning step (2) of performing additional learning of the recognition processing unit using the data set A and the data set B without a correct answer acquired in an environment different from the data set A. )When,
The performance evaluation step (3) for evaluating the performance of the recognition processing unit by the additional learning, and
A step (4) of updating the parameters of the recognition processing unit to the parameters obtained by the additional learning based on the result of the performance evaluation is included.
When the recognition processing unit includes a feature extraction layer that extracts the feature from the input data and an identification layer that performs identification using the extracted feature.
The additional learning step (2) includes a step (2a) of performing the additional learning L1 of the feature extraction layer and a step (2b) of performing the additional learning L2 of the recognition processing unit.
The performance evaluation step (3) includes a step (3a) of performing the performance evaluation E1 of the feature extraction layer by the additional learning L1 and a step (3b) of performing the performance evaluation E2 of the recognition processing unit by the additional learning L2. Including
The update step (4) is a step (4a) of updating the parameters of the feature extraction layer to the parameters obtained by the additional learning L1 based on the result of the performance evaluation E1, and the result of the performance evaluation E2. The step (4b) of updating the parameters of the recognition processing unit to the parameters obtained by the additional learning L2 is included.
A learning method characterized in that the step (2a), the step (3a), the step (4a), the step (2b), the step (3b), and the step (4b) are performed in this order.
前記工程(2a)では、前記データセットBに含まれるデータセットB1を用いて、前記特徴抽出層の前記追加学習L1を行い、In the step (2a), the additional learning L1 of the feature extraction layer is performed using the data set B1 included in the data set B.
前記工程(3a)では、前記データセットBに含まれる前記データセットB1以外のデータセットB2を用いて、前記特徴抽出層の前記性能評価E1を行うことを特徴とする請求項1に記載の学習方法。The learning according to claim 1, wherein in the step (3a), the performance evaluation E1 of the feature extraction layer is performed using a data set B2 other than the data set B1 included in the data set B. Method.
前記工程(2b)では、前記データセットAを用いて、前記認識処理部の前記追加学習L2を行い、In the step (2b), the additional learning L2 of the recognition processing unit is performed using the data set A.
前記工程(3b)では、予め用意した性能評価用のデータセットCを用いて、前記認識処理部の性能評価E2を行うことを特徴とする請求項1または2に記載の学習方法。The learning method according to claim 1 or 2, wherein in the step (3b), the performance evaluation E2 of the recognition processing unit is performed using the data set C for performance evaluation prepared in advance.
前記工程(4a)では、前記性能評価E1の結果が一定の基準を満足している場合に、前記特徴抽出層のパラメータ更新を行うことを特徴とする請求項1から3のいずれかに記載の学習方法。The method according to any one of claims 1 to 3, wherein in the step (4a), the parameter of the feature extraction layer is updated when the result of the performance evaluation E1 satisfies a certain criterion. Learning method. 前記工程(4a)では、前記性能評価E1の結果が一定の基準を満足していない場合に、前記特徴抽出層のパラメータを、前記追加学習L1を行う前のパラメータに維持することを特徴とする請求項1から4のいずれかに記載の学習方法。The step (4a) is characterized in that, when the result of the performance evaluation E1 does not satisfy a certain criterion, the parameter of the feature extraction layer is maintained at the parameter before the additional learning L1 is performed. The learning method according to any one of claims 1 to 4. 前記工程(4b)では、前記性能評価E2の結果が一定の基準を満足している場合に、前記認識処理部のパラメータ更新を行うことを特徴とする請求項1から5のいずれかに記載の学習方法。The method according to any one of claims 1 to 5, wherein in the step (4b), when the result of the performance evaluation E2 satisfies a certain criterion, the parameter of the recognition processing unit is updated. Learning method. 前記工程(4b)では、前記性能評価E2の結果が一定の基準を満足していない場合に、前記認識処理部のパラメータを、前記追加学習L2を行う前のパラメータに維持することを特徴とする請求項1から6のいずれかに記載の学習方法。The step (4b) is characterized in that, when the result of the performance evaluation E2 does not satisfy a certain criterion, the parameter of the recognition processing unit is maintained at the parameter before the additional learning L2 is performed. The learning method according to any one of claims 1 to 6. 前記工程(2b)では、前記データセットAを用いた前記追加学習L2を、前記識別層についてのみ行うことを特徴とする請求項1から7のいずれかに記載の学習方法。The learning method according to any one of claims 1 to 7, wherein in the step (2b), the additional learning L2 using the data set A is performed only on the identification layer. 前記認識処理部は、ニューラルネットワークで構成されていることを特徴とする請求項1から8のいずれかに記載の学習方法。The learning method according to any one of claims 1 to 8, wherein the recognition processing unit is composed of a neural network. 請求項1から9のいずれかに記載の学習方法をコンピュータに実行させるプログラム。A program that causes a computer to execute the learning method according to any one of claims 1 to 9. 請求項10に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。A computer-readable recording medium on which the program according to claim 10 is recorded. 入力データから特徴を抽出し、抽出した前記特徴を用いて識別を行う認識処理部と、A recognition processing unit that extracts features from input data and uses the extracted features for identification.
前記認識処理部を機械学習させる学習制御部とを備え、The recognition processing unit is provided with a learning control unit for machine learning.
前記学習制御部は、事前に入手した正解付きのデータセットAを用いて事前学習を行った前記認識処理部に対して、前記データセットAと、前記データセットAとは異なる環境で取得された正解なしのデータセットBとを用いて追加学習させた後、前記追加学習による前記認識処理部の性能評価を行い、前記性能評価の結果に基づいて、前記認識処理部のパラメータを、前記追加学習によって得られたパラメータに更新し、The learning control unit was acquired in a different environment from the data set A and the data set A for the recognition processing unit that had been pre-learned using the data set A with the correct answer obtained in advance. After additional learning using the data set B without a correct answer, the performance of the recognition processing unit is evaluated by the additional learning, and the parameters of the recognition processing unit are subjected to the additional learning based on the result of the performance evaluation. Update to the parameters obtained by
前記認識処理部は、前記入力データから前記特徴を抽出する特徴抽出層と、抽出した前記特徴を用いて識別を行う識別層とを有しており、The recognition processing unit has a feature extraction layer that extracts the feature from the input data, and an identification layer that performs identification using the extracted feature.
前記学習制御部は、The learning control unit
前記特徴抽出層に対して追加学習L1を行った後、前記追加学習L1による前記特徴抽出層の性能評価E1を行い、前記性能評価E1の結果に基づいて、前記特徴抽出層のパラメータを、前記追加学習L1によって得られたパラメータに更新し、続いて、前記認識処理部の追加学習L2を行った後、前記追加学習L2による前記認識処理部の性能評価E2を行い、前記性能評価E2の結果に基づいて、前記認識処理部のパラメータを、前記追加学習L2によって得られたパラメータに更新することを特徴とする学習装置。After performing the additional learning L1 on the feature extraction layer, the performance evaluation E1 of the feature extraction layer is performed by the additional learning L1, and the parameters of the feature extraction layer are set based on the result of the performance evaluation E1. After updating to the parameters obtained by the additional learning L1 and subsequently performing the additional learning L2 of the recognition processing unit, the performance evaluation E2 of the recognition processing unit by the additional learning L2 is performed, and the result of the performance evaluation E2. A learning device characterized in that the parameters of the recognition processing unit are updated to the parameters obtained by the additional learning L2 based on the above.
前記学習制御部は、前記データセットBに含まれるデータセットB1を用いて、前記特徴抽出層の前記追加学習L1を行う一方、前記データセットBに含まれる前記データセットB1以外のデータセットB2を用いて、前記特徴抽出層の前記性能評価E1を行うことを特徴とする請求項12に記載の学習装置。 The learning control unit performs the additional learning L1 of the feature extraction layer using the data set B1 included in the data set B, while the data set B2 other than the data set B1 included in the data set B is used. The learning device according to claim 12, wherein the performance evaluation E1 of the feature extraction layer is performed by using the learning device. 前記学習制御部は、前記データセットAを用いて、前記認識処理部の前記追加学習L2を行う一方、予め用意した性能評価用のデータセットCを用いて、前記認識処理部の性能評価E2を行うことを特徴とする請求項12または13に記載の学習装置。 The learning control unit performs the additional learning L2 of the recognition processing unit using the data set A, while performing the performance evaluation E2 of the recognition processing unit using the performance evaluation data set C prepared in advance. The learning device according to claim 12 or 13, wherein the learning device is performed. 前記学習制御部は、前記性能評価E1の結果が一定の基準を満足している場合に、前記特徴抽出層のパラメータ更新を行うことを特徴とする請求項12から14のいずれかに記載の学習装置。 The learning according to any one of claims 12 to 14, wherein the learning control unit updates the parameters of the feature extraction layer when the result of the performance evaluation E1 satisfies a certain criterion. Device. 前記学習制御部は、前記性能評価E1の結果が一定の基準を満足していない場合に、前記特徴抽出層のパラメータを、前記追加学習L1を行う前のパラメータに維持することを特徴とする請求項12から15のいずれかに記載の学習装置。 The claim is characterized in that, when the result of the performance evaluation E1 does not satisfy a certain criterion, the learning control unit maintains the parameter of the feature extraction layer to the parameter before the additional learning L1 is performed. Item 6. The learning device according to any one of Items 12 to 15. 前記学習制御部は、前記性能評価E2の結果が一定の基準を満足している場合に、前記認識処理部のパラメータ更新を行うことを特徴とする請求項12から16のいずれかに記載の学習装置。 The learning according to any one of claims 12 to 16, wherein the learning control unit updates the parameters of the recognition processing unit when the result of the performance evaluation E2 satisfies a certain criterion. Device. 前記学習制御部は、前記性能評価E2の結果が一定の基準を満足していない場合に、前記認識処理部のパラメータを、前記追加学習L2を行う前のパラメータに維持することを特徴とする請求項12から17のいずれかに記載の学習装置。 The claim is characterized in that, when the result of the performance evaluation E2 does not satisfy a certain criterion, the learning control unit maintains the parameters of the recognition processing unit to the parameters before the additional learning L2 is performed. Item 6. The learning device according to any one of Items 12 to 17. 前記学習制御部は、前記データセットAを用いた前記追加学習L2を、前記識別層についてのみ行うことを特徴とする請求項12から18のいずれかに記載の学習装置。 The learning device according to any one of claims 12 to 18, wherein the learning control unit performs the additional learning L2 using the data set A only for the identification layer. 前記認識処理部は、ニューラルネットワークで構成されていることを特徴とする請求項12から19のいずれかに記載の学習装置。 The learning device according to any one of claims 12 to 19, wherein the recognition processing unit is composed of a neural network.
JP2018036501A 2018-03-01 2018-03-01 Learning method and learning device Active JP7059695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018036501A JP7059695B2 (en) 2018-03-01 2018-03-01 Learning method and learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036501A JP7059695B2 (en) 2018-03-01 2018-03-01 Learning method and learning device

Publications (2)

Publication Number Publication Date
JP2019152964A JP2019152964A (en) 2019-09-12
JP7059695B2 true JP7059695B2 (en) 2022-04-26

Family

ID=67946404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036501A Active JP7059695B2 (en) 2018-03-01 2018-03-01 Learning method and learning device

Country Status (1)

Country Link
JP (1) JP7059695B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7273344B2 (en) * 2019-10-23 2023-05-15 富士通株式会社 Data preprocessing method, data preprocessing device and data preprocessing program
KR102584409B1 (en) * 2019-11-07 2023-10-05 한국전자통신연구원 Method and apparatus for detecting reduction of AI learning model performance
WO2021090473A1 (en) * 2019-11-08 2021-05-14 日本電気株式会社 Object detection device, learning method, and recording medium
CN110971895B (en) * 2019-12-18 2022-07-08 北京百度网讯科技有限公司 Video jitter detection method and device
JP7437738B2 (en) * 2020-01-09 2024-02-26 Awl株式会社 Machine learning system, training dataset generation system, and machine learning program
JP7045410B2 (en) * 2020-03-25 2022-03-31 日東電工株式会社 Image classification program recombination method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017023416A1 (en) 2015-07-31 2017-02-09 Northrop Grumman Systems Corporation System and method for in-situ classifier retraining for malware identification and model heterogeneity
WO2017165551A1 (en) 2016-03-22 2017-09-28 Sri International Systems and methods for speech recognition in unseen and noisy channel conditions

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2962182B2 (en) * 1995-01-31 1999-10-12 フジテック株式会社 Elevator group control device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017023416A1 (en) 2015-07-31 2017-02-09 Northrop Grumman Systems Corporation System and method for in-situ classifier retraining for malware identification and model heterogeneity
WO2017165551A1 (en) 2016-03-22 2017-09-28 Sri International Systems and methods for speech recognition in unseen and noisy channel conditions

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kuniaki Saito et al.,"Asymmetric Tri-training for Unsupervised Domain Adaptation",arXiv.org [online],arXiv:1702.08400v3,米国,Cornell University,2017年,[令和3年9月7日検索],インターネット:<URL: https://arxiv.org/pdf/1702.08400v3>
Muhammad Ghifary et al.,"Deep Reconstruction-Classification Networks for Unsupervised Domain Adaptation",arXiv.org [online],arXiv:1607.03516v2,米国,Cornell University,2016年,pp.1-21,[令和3年9月7日検索],インターネット:<URL: https://arxiv.org/pdf/1607.03516v2>

Also Published As

Publication number Publication date
JP2019152964A (en) 2019-09-12

Similar Documents

Publication Publication Date Title
JP7059695B2 (en) Learning method and learning device
CN113392935B (en) Multi-agent deep reinforcement learning strategy optimization method based on attention mechanism
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
US11704907B2 (en) Depth-based object re-identification
CN108229267B (en) Object attribute detection, neural network training and region detection method and device
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
CN107844784A (en) Face identification method, device, computer equipment and readable storage medium storing program for executing
CN108510194A (en) Air control model training method, Risk Identification Method, device, equipment and medium
KR102548732B1 (en) Apparatus and Method for learning a neural network
KR20180048058A (en) Device and method to train and recognize object based on attribute of object
CN108229673B (en) Convolutional neural network processing method and device and electronic equipment
US20230267381A1 (en) Neural trees
WO2021098255A1 (en) Training method and device for neural network model for protecting privacy and security
WO2020260862A1 (en) Facial behaviour analysis
US11836944B2 (en) Information processing apparatus, information processing method, and storage medium
US11763551B2 (en) Systems and methods for fine tuning image classification neural networks
CN111382410B (en) Face brushing verification method and system
CN114463798A (en) Training method, device and equipment of face recognition model and storage medium
JP7073171B2 (en) Learning equipment, learning methods and programs
US20210049348A1 (en) High Confidence Predicted Profiles for Online Dating Matching Using Continuously Learning Machine Learning Models Trained for each User with Physical and Facial Attributes
Sahba Deep reinforcement learning for object segmentation in video sequences
CN113327212B (en) Face driving method, face driving model training device, electronic equipment and storage medium
JP7347539B2 (en) Foreground extraction device, foreground extraction method, and program
KR102515436B1 (en) Method, device and system for processing face makeup based on artificial intelligence
KR102603914B1 (en) Method, apparatus and system for providing of yoga exercise guide and curriculum using user-costomized anatomy based on image analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R150 Certificate of patent or registration of utility model

Ref document number: 7059695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150