JP7361999B1 - Machine learning device, machine learning system, machine learning method, and machine learning program - Google Patents
Machine learning device, machine learning system, machine learning method, and machine learning program Download PDFInfo
- Publication number
- JP7361999B1 JP7361999B1 JP2023532817A JP2023532817A JP7361999B1 JP 7361999 B1 JP7361999 B1 JP 7361999B1 JP 2023532817 A JP2023532817 A JP 2023532817A JP 2023532817 A JP2023532817 A JP 2023532817A JP 7361999 B1 JP7361999 B1 JP 7361999B1
- Authority
- JP
- Japan
- Prior art keywords
- interest
- region
- learning
- update
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 104
- 238000013526 transfer learning Methods 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000011156 evaluation Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 claims abstract description 9
- 230000000694 effects Effects 0.000 claims description 11
- 230000006872 improvement Effects 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 14
- 238000013500 data storage Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
機械学習装置(10)は、入力データの着目領域(B)を推論するための学習モデルを学習用データ(L)に基づいて生成する通常学習と、前記学習モデルを更新する転移学習とを行う学習部(11、15a)と、前記通常学習の際に、学習モデルを用いて入力データの着目領域を生成し、生成された着目領域を更新前着目領域として更新前着目領域記憶部(13)に保存する生成処理を行い、転移学習の際又は前に、入力された人の知識を用いて入力データの着目領域を更新前着目領域(Bi)から更新後着目領域(Ai)に更新して更新後着目領域記憶部(14)に保存する更新処理を行う着目領域更新部(18)と、更新処理による着目領域の変化を示す類似度距離(di)を計算する着目領域更新評価部(15)と、転移学習の際又は前に、類似度距離に基づいて着目領域更新部(18)に出力される入力データを動的に選択するデータ動的選択部(16)とを有する。The machine learning device (10) performs normal learning in which a learning model for inferring a region of interest (B) of input data is generated based on learning data (L), and transfer learning in which the learning model is updated. a learning section (11, 15a); a pre-update region of interest storage section (13) that generates a region of interest of input data using a learning model during the normal learning, and uses the generated region of interest as a pre-update region of interest; During or before transfer learning, the area of interest of the input data is updated from the area of interest before update (Bi) to the area of interest after update (Ai) using the input person's knowledge. A region-of-interest update section (18) performs update processing to store the updated region-of-interest storage section (14), and a region-of-interest update evaluation section (15) calculates a similarity distance (di) indicating a change in the region of interest due to the update process. ), and a data dynamic selection unit (16) that dynamically selects input data to be output to the region of interest update unit (18) based on the similarity distance during or before transfer learning.
Description
本開示は、機械学習装置、機械学習システム、機械学習方法、及び機械学習プログラムに関する。 The present disclosure relates to a machine learning device, a machine learning system, a machine learning method, and a machine learning program.
深層学習では、学習モデルが着目すべき領域である着目領域を示すAttention Mapを導入することで、学習モデルを用いた推論における予測精度の向上を実現している。着目領域は、学習モデルの学習によって獲得されるが、人手で着目領域を修正する転移学習(すなわち、human-in-the-loop型の学習)を行うことで、学習モデルの性能の向上(予測精度の向上及び解釈性の向上など)を実現させることができる(例えば、特許文献1及び2を参照)。
In deep learning, improvement of prediction accuracy in inference using a learning model is achieved by introducing an Attention Map that indicates a region of interest that a learning model should pay attention to. The region of interest is acquired by learning the learning model, but by performing transfer learning (that is, human-in-the-loop learning) that manually corrects the region of interest, the performance of the learning model can be improved (predicted). (for example, see
しかしながら、転移学習において、大量のデータのうちのどのデータの着目領域を人手で更新すれば学習モデルの性能を効率的に向上させることができるか、は明らかでない。したがって、動画のような大量のデータの着目領域を人手で更新する転移学習において、学習モデルの性能を少ない労力で向上させること(すなわち、転移学習の効率化)が望まれる。 However, in transfer learning, it is not clear which region of data out of a large amount of data should be manually updated to efficiently improve the performance of a learning model. Therefore, in transfer learning that manually updates a region of interest in a large amount of data such as a video, it is desirable to improve the performance of a learning model with less effort (that is, to improve the efficiency of transfer learning).
本開示は、転移学習において生成される学習モデルの性能を効率的に向上させることを可能にする機械学習装置、機械学習システム、機械学習方法、及び機械学習プログラムを提供することを目的とする。 The present disclosure aims to provide a machine learning device, a machine learning system, a machine learning method, and a machine learning program that make it possible to efficiently improve the performance of a learning model generated in transfer learning.
本開示の機械学習装置は、入力データの着目領域を推論するための学習モデルを、予め収集された学習用データに基づいて生成する通常学習と、前記学習モデルを更新する転移学習とを行う学習部と、前記通常学習の際に、前記学習モデルを用いて前記入力データの前記着目領域を生成し、生成された前記着目領域を更新前着目領域として更新前着目領域記憶部に保存する生成処理を行い、前記転移学習の際又は前に、入力された人の知識を用いて前記入力データの前記着目領域を前記更新前着目領域から更新後着目領域に更新して更新後着目領域記憶部に保存する更新処理を行う着目領域更新部と、前記更新処理による前記着目領域の変化を示す類似度距離を計算する着目領域更新評価部と、前記転移学習の際又は前に、前記類似度距離に基づいて前記着目領域更新部に出力される前記入力データを動的に選択するデータ動的選択部と、を有することを特徴とする。 The machine learning device of the present disclosure performs normal learning in which a learning model for inferring a region of interest of input data is generated based on learning data collected in advance, and transfer learning in which the learning model is updated. and a generation process of generating the region of interest of the input data using the learning model during the normal learning, and storing the generated region of interest in a pre-update region of interest storage unit as a pre-update region of interest. During or before the transfer learning, update the region of interest of the input data from the pre-update region of interest to the post-update region of interest using the inputted person's knowledge and store it in the post-update region of interest storage unit. a region of interest update unit that performs an update process to save; a region of interest update evaluation unit that calculates a similarity distance indicating a change in the region of interest due to the update process; and a data dynamic selection section that dynamically selects the input data to be output to the region of interest update section based on the above.
本開示の機械学習方法は、入力データの着目領域を推論するための学習モデルを、予め収集された学習用データに基づいて生成する通常学習と、前記学習モデルを更新する転移学習とを行う機械学習装置によって実施される方法であって、前記通常学習の際に、前記学習モデルを用いて前記入力データの前記着目領域を生成し、生成された前記着目領域を更新前着目領域として更新前着目領域記憶部に保存する生成処理を行い、前記転移学習の際又は前に、入力された人の知識を用いて前記入力データの前記着目領域を前記更新前着目領域から更新後着目領域に更新して更新後着目領域記憶部に保存する更新処理を行うステップと、前記更新処理による前記着目領域の変化を示す類似度距離を計算するステップと、前記転移学習の際又は前に、前記類似度距離に基づいて前記転移学習の対象になる前記入力データを動的に選択するステップと、を有することを特徴とする。 The machine learning method of the present disclosure is a machine that performs normal learning in which a learning model for inferring a region of interest in input data is generated based on learning data collected in advance, and transfer learning in which the learning model is updated. A method implemented by a learning device, wherein during the normal learning, the region of interest of the input data is generated using the learning model, and the generated region of interest is used as the region of interest before update as the region of interest before update. A generation process is performed to store the data in a region storage unit, and during or before the transfer learning, the region of interest of the input data is updated from the pre-update region of interest to the post-update region of interest using the inputted person's knowledge. performing an update process to store the area of interest in the updated area of interest storage unit; calculating a similarity distance indicating a change in the area of interest due to the update process; and calculating the similarity distance during or before the transfer learning. Dynamically selecting the input data to be subjected to the transfer learning based on the method.
本開示の機械学習装置、機械学習システム、機械学習方法、及び機械学習プログラムを用いれば、転移学習において生成される学習モデルの性能を効率的に向上させることができる。 By using the machine learning device, machine learning system, machine learning method, and machine learning program of the present disclosure, it is possible to efficiently improve the performance of a learning model generated in transfer learning.
以下に、実施の形態に係る機械学習装置、機械学習システム、機械学習方法、及び機械学習プログラムを、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。 Below, a machine learning device, a machine learning system, a machine learning method, and a machine learning program according to embodiments will be described with reference to the drawings. The following embodiments are merely examples, and the embodiments can be combined as appropriate and each embodiment can be changed as appropriate.
実施の形態1.
図1は、実施の形態1に係る機械学習装置10の構成(教師あり学習部であるタスク学習部11の構成を含む)を概略的に示す機能ブロック図である。機械学習装置10は、例えば、人の知見を取り入れて行う転移学習を行うことができる学習装置である。機械学習装置10は、例えば、コンピュータである。機械学習装置10は、実施の形態1に係る機械学習方法を実施することができる装置である。機械学習装置10は、タスク学習部11と、動的選択・更新部19とを有している。機械学習装置10は、学習データ記憶部12、更新前着目領域記憶部13、及び更新後着目領域記憶部14に接続されている。機械学習装置10、学習データ記憶部12、更新前着目領域記憶部13、及び更新後着目領域記憶部14は、機械学習システムを構成する。学習データ記憶部12、更新前着目領域記憶部13、及び更新後着目領域記憶部14は、機械学習装置10の内部の記憶装置に設けられてもよい。学習データ記憶部12、更新前着目領域記憶部13、及び更新後着目領域記憶部14は、共通の記憶装置の異なる記憶領域であってもよい。
FIG. 1 is a functional block diagram schematically showing the configuration of a
タスク学習部11は、学習モデル生成部11aと、学習モデル記憶部11bとを有している。学習モデル生成部11aは、入力データと正解データとを含む学習用データLを取得し、学習用データLを用いて、実際の入力データ(例えば、推論プロセスにおいて入力される熱画像データ)から着目領域を推論するための学習モデルMを生成し、学習モデル記憶部11bに記憶させる。転移学習を行うときには、学習モデル生成部11aは、学習用データLと更新後着目領域Aとを用いて学習モデルMを生成し、学習モデル記憶部11bに記憶させる。なお、機械学習装置10は、入力データを取得し、学習モデルMを用いて入力データから得られる推論結果を出力する推論部を備えてもよい。この場合の機械学習装置10は、機械学習・推論装置である。また、推論部は、機械学習装置10とは別のコンピュータに設けられてもよい。
The
学習データ記憶部12は、機械学習の目的に応じて予め収集された学習用データLを記憶し、学習用データLをタスク学習部11に提供する。学習データ記憶部12は、機械学習装置10の外部の記憶装置に設けられてもよい。
The learning
動的選択・更新部19は、タスク学習部11から学習モデルMを取得し、更新前着目領域記憶部13から更新前着目領域Bを取得し、更新後着目領域記憶部14を介してタスク学習部11に更新後着目領域を与える。
The dynamic selection/
動的選択・更新部19は、転移学習を行うときに、学習モデルMによって生成された着目領域に人手(すなわち、介入者としてのユーザ50)によって修正を加えることで得られた更新後着目領域Aiを更新後着目領域記憶部14に与える。更新後着目領域記憶部14に蓄積された更新後着目領域Aは、タスク学習部11に与えられる。ここで、「Ai」は、第i番のデータの更新後着目領域、すなわち、選択された更新後着目領域を示し、「A」は、更新後着目領域記憶部14に蓄積されたすべての更新後着目領域を示す。なお、iは、データを識別するための情報であり、例えば、正の整数である。
When performing transfer learning, the dynamic selection/
図2は、機械学習装置10の構成(動的選択・更新部19の構成を含む)を概略的に示す機能ブロック図である。動的選択・更新部19は、着目領域更新評価部15と、データ動的選択部16と、探索活用調整部17と、着目領域更新部18とを有している。
FIG. 2 is a functional block diagram schematically showing the configuration of the machine learning device 10 (including the configuration of the dynamic selection/update section 19). The dynamic selection/
機械学習装置10は、入力データの着目領域を推論するための学習モデルMを、予め収集された学習用データLに基づいて更新する通常学習と、学習モデルMを更新する転移学習とを行う学習部(類似度学習部15aとタスク学習部11)を有している。動的選択・更新部19は、通常学習の際に、学習部が生成した学習モデルを用いて入力データの着目領域を生成し、生成された着目領域を更新前着目領域として更新前着目領域記憶部13に保存する生成処理を行い、転移学習の際又は前に、入力された人の知識を用いて入力データの着目領域を更新前着目領域Biから更新後着目領域Aiに更新して更新後着目領域記憶部14に保存する更新処理を行う着目領域更新部18を有している。また、動的選択・更新部19は、前記更新処理による着目領域の変化を示す類似度距離diを計算する着目領域更新評価部15と、転移学習の際又は前に、類似度距離diに基づいて着目領域更新部18に出力される入力データを動的に選択するデータ動的選択部16とを有している。The
学習データ記憶部12は、特定のタスクに応じて収集した学習用データLを記憶する。学習データ記憶部12は、例えば、画像分類タスクの場合は、画像データ(例えば、人物画像、医療画像など)と、各画像に対応するクラス番号とのセット(すなわち、学習データセット)を記憶する。学習用データLは、画像に関するデータに限定されず、自然言語に関するデータ又はテーブルデータなどであってもよい。
The learning
タスク学習部11は、学習用データLを入力として取得し、学習用データLに基づいて学習モデルMを学習する。転移学習の際は、タスク学習部11は、学習用データLと更新後着目領域Aとを入力として取得し、学習中又は学習後に、更新前着目領域Bを出力する。つまり、タスク学習部11は、学習モデルMの学習中又は学習後のいずれにおいても、更新前着目領域Bを出力する。また、タスク学習部11が、学習中に更新前着目領域Bを出力するためには、Attention Branch Network(ABN)と呼ばれる既知の方法を採用すればよい。また、タスク学習部11が、学習後に更新前着目領域Bを出力するためには、Local Interpretable Model-agnostic Explanation(LIME)又はClass Activation Mapping(CAM)などのような事後的に着目領域を生成する既知の方法を採用すればよい。
The
更新前着目領域記憶部13は、各データに対応する着目領域(更新前着目領域B)を記憶する。更新後着目領域記憶部14は、各データに対応する更新後着目領域Aを記憶する。なお、選択された更新前着目領域は、Biで示され、選択された更新後着目領域は、Aiで示される。更新前着目領域B及び更新後着目領域Aのデータ構造は自由であるが、人間(すなわち、ユーザ50)にとって解釈可能且つ編集可能な構造であることが望ましい。更新前着目領域B及び更新後着目領域Aのデータ構造の例は、ヒートマップなどである。更新前着目領域B及び更新後着目領域Aは、同一の記憶装置に保存されてもよい。
The pre-update region of
着目領域更新部18は、介入者であるユーザ50が更新作業を行うためのユーザインタフェース(UI)を備える又はUIに接続される。UIは、例えば、キーボード、マウス、タッチパネル、絵を描くためのペイントツール、などの入力装置である。例えば、着目領域更新部18は、ディスプレイに表示された画像において、着目領域の一部を削除(すなわち、縮小)、又は着目領域を追加(すなわち、拡張)、又は着目領域の削除と追加の両方(例えば、着目領域の移動を含む)、の操作を繰り返し行う。このとき、複数の着目領域の各々に重みづけをする処理が可能である。また、重みづけされたデータに関する判定を行うための閾値の導入、重みづけされたデータを用いた補間処理を行うための構成が備えられてもよい。複数の着目領域の各々に重みづけをする処理は、例えば、特許文献2に示されている。着目領域の更新が完了した後に、更新後着目領域記憶部14及び着目領域更新評価部15に更新された着目領域が更新後着目領域Aiとして送られる。
The region of
着目領域更新評価部15は、更新前着目領域Biと更新後着目領域Aiの類似度距離diを計算し、更新前着目領域Biの妥当性を評価する。第i番のデータについての類似度距離diを計算する最も簡単な方法は、更新前着目領域と更新後着目領域の生データに対して二乗誤差を計算する方法である。ただし、画像及び自然言語などのような非構造化データの場合は、意味的な違いを捉えることができないため、生データの代わりに学習モデルMにより獲得した中間特徴を用いて類似度距離diを計算する。類似度距離diの計算には、コサイン類似度又はマハラノビス距離などの任意の距離関数を用いることができる。なお、着目領域更新評価部15の動作の具体例は、図3及び図4を用いて後述される。The region of interest
データ動的選択部16は、着目領域更新評価部15により得られた更新前着目領域の中間特徴と類似度距離diの対応関係を用いて、ユーザ50の更新履歴に基づいて次に更新するべきデータを動的に選択する。はじめに、類似度学習部15aは、上記の対応関係を入出力とする学習モデルを新たに学習する。このとき、類似度学習部15aは、類似度距離diの予測には平均Avだけでなく偏差Dも出力されるようにガウス過程回帰モデルのようなベイズモデルを学習する。最後に、データ動的選択部16は、類似度距離diの平均Avと偏差Dとに基づく獲得関数を最大化するようなデータ点を選ぶ。この処理は、静的なデータ選択方法と併用可能であり、また、一度に選択するデータは単一のデータであっても、複数のデータであってもよい。なお、データ動的選択部16の動作の具体例は、図5を用いて後述される。The data
探索活用調整部17は、獲得関数のハイパーパラメータHを調整することで、“更新前着目領域の妥当性の低さ”と“過去の更新済みデータとの類似度の低さ”のバランスを考慮したデータを選択する。探索活用調整部17の動作の具体例は、図6及び図7を用いて後述される。探索活用調整部17は、予め取得された学習用データLにおける探索を重視するか又は活用を重視するかを示すハイパーパラメータHをデータ動的選択部16に与える。データ動的選択部16は、転移学習の際に、類似度距離di及びハイパーパラメータHに基づいて着目領域更新部18に出力される入力データを動的に選択する。探索活用調整部17は、転移学習の際に、先ず、ハイパーパラメータを、探索を重視した値に設定し、その後、探索を重視した値から活用を重視した値に徐々に変えることが望ましい。By adjusting the hyperparameter H of the acquisition function, the search
図3は、着目領域更新評価部15の動作を示す図である。転移学習において、着目領域更新部18によって更新前着目領域Bi(図3における領域61a、61b)を更新して得られる更新後着目領域Ai(図3における領域62a、62b又は領域63)と、学習モデルMが新たに生成する着目領域(図3における領域64a、64b)との間の差が、ペナルティとなる。したがって、転移学習を行うことで、学習モデルMの性能の向上(すなわち、予測精度及び解釈性の効率的な向上)を促進するためには、更新前着目領域Biの妥当性が低い(すなわち、更新作業による変化が大きい)データを重点的に(すなわち、優先的に)更新することが望ましい。実施の形態1では、更新前着目領域Biの妥当性が低いデータを動的に選択することによって、より少ないデータ数の更新作業で、効率よく学習モデルMの性能を向上させることができる。
FIG. 3 is a diagram showing the operation of the region of interest
図3において、更新後着目領域Ai(正解データ)が例1である場合、領域62a、62bと学習モデルMが生成した着目領域である領域64a、64bとを比較してわかるように、領域62a、62bと領域64a、64bとは、互いに類似した位置に互いに類似した大きさで存在している。この場合は、両者の間の類似度距離diは小さく、両者の間の差であるペナルティは小さく、更新前着目領域Biの妥当性は高いので、更新前着目領域Biを人手で更新する必要性は低い。In FIG. 3, when the updated region of interest Ai (correct data) is Example 1, as can be seen by comparing
図3において、更新後着目領域Ai(正解データ)が例2である場合、領域63と学習モデルMが生成した着目領域である領域64a、64bとを比較してわかるように、領域63と領域64bとは互いに類似しているが、例2の更新後着目領域Aiには領域64aに対応する領域が存在しない。この場合は、両者の間の類似度距離diは大きく、両者の間の差であるペナルティは大きく、更新前着目領域Biの妥当性は低いので、更新前着目領域Biを人手で更新する必要性は高い。In FIG. 3, when the updated region of interest Ai (correct data) is Example 2, as can be seen by comparing the
図3からわかるように、実施の形態1では、転移学習に際して、更新前着目領域Biの妥当性が低いデータを動的に選択して、人手による更新対象とすることによって、効率よく学習モデルMの性能を向上させることができる。 As can be seen from FIG. 3, in the first embodiment, during transfer learning, the learning model M is efficiently performance can be improved.
図4は、機械学習装置10の着目領域更新評価部15の動作を示す図である。図4は、「馬と人」を含む局所的データである更新前着目領域Bi(=xi
before)が、着目領域更新部18によって、「馬」を含む局所的データである更新後着目領域Ai(=xi
after)に更新されること、学習モデルMによって、更新前着目領域Bi(=xi
before)の中間特徴hi
beforeと更新後着目領域Ai(=xi
after)の中間特徴hi
afterとが得られること、これらの中間特徴から類似度距離diが得られることを示している。つまり、着目領域更新評価部15は、着目領域更新部18による更新作業(すなわち、更新処理)による着目領域の変化を、学習モデルMが抽出した中間特徴間の類似度距離diにより定量化する。類似度距離diは、更新前着目領域Bi(=xi
before)の妥当性を表す値である。中間特徴は、画像データからマスクを用いて抽出された着目領域のデータ(局所的データ)の特徴である。類似度距離diは、更新前着目領域Bi(=xi
before)の中間特徴hi
beforeと、着目領域更新部18から与えられる更新後着目領域Ai(=xi
after)の中間特徴hi
afterと、に基づく距離関数fとして、以下の式(1)で表すことができる。ここで、距離関数fは、例えば、コサイン類似度である。FIG. 4 is a diagram showing the operation of the region-of-interest
図5は、データ動的選択部16の動作を示す図である。データ動的選択部16は、未更新データに対して更新前着目領域の妥当性(すなわち、類似度距離diの期待値及び分散)を推測し、次に更新するべきデータ点をベイズ最適化の手法によって選択する。データ動的選択部16は、例えば、全ての未更新データについて獲得関数を計算し、最も値の大きいデータを選択する。FIG. 5 is a diagram showing the operation of the data
図6(A)及び(B)は、探索活用調整部17の動作を示す図である。図6(A)は、ベイズ最適化の例を示す。図6(B)は、獲得関数であるUCB(Upper Confidence Bound)の例を示す。探索活用調整部17は、UCBのハイパーパラメータを調整することで、“更新前着目領域の妥当性の低さ”と“過去の更新済みデータとの類似度が低さ”とのバランスを考慮したデータを選択する。
FIGS. 6A and 6B are diagrams showing the operation of the search
探索活用調整部17は、ベイズ最適化では、獲得関数を最大化する未更新データを次にユーザに提示するデータとして利用する。このとき、獲得関数αt(x)のハイパーパラメータβtを変更することで探索(偏差の大きいデータを重視する場合)と活用(平均の大きいデータを重視する場合)のバランスを制御することができる。ユーザ50は、スライダーなどのようなUIを用いてハイパーパラメータβtを調整し、探索と活用のバランスをとりながら更新作業を進める。例えば、ハイパーパラメータβtの値を徐々に小さくすることで、作業の序盤は探索の重要度を上げて(つまり、活用の重要度を下げて)、作業の終盤では活用の重要度を上げる(つまり、探索の重要度を下げる)ようにデータを選択することができる。探索活用調整部17の動作は、以下の式(2)で表すことができる。In Bayesian optimization, the search
式(2)において、xは、正規確率変数(Gaussian random variable)を示し、αt(x)は、獲得関数としてのGaussian ProcessUCB(GP-UCB)を示し、xnextは、αt(x)が最大になる点を示す。また、μt(x)は、xの予測平均を示し、βtはハイパーパラメータを示し、σt(x)は、xの予測偏差を示す。βtを0に近づければ、探索を重視した設定となり、βtを大きくすれば活用を重視した設定になる。なお、添字tは、イテレーション数を示し、図では添字tを省略している。In equation (2), x represents a Gaussian random variable, α t (x) represents Gaussian Process UCB (GP-UCB) as an acquisition function, and x next represents α t (x) indicates the point where is maximum. Further, μ t (x) indicates the predicted average of x, β t indicates the hyperparameter, and σ t (x) indicates the predicted deviation of x. If β t approaches 0, the setting emphasizes search, and if β t becomes large, the setting emphasizes utilization. Note that the subscript t indicates the number of iterations, and the subscript t is omitted in the figure.
図7(A)及び(B)は、探索活用調整部17の動作を示す図である。ハイパーパラメータの調整は、直観的に行うことはできないため、この調整を人が行うことは容易ではない。活用を極端に重視すれば(図7(A)において、ハイパーパラメータβtを0に近づければ)、更新済みデータの類似度が高い未更新データ(例えば、動画の場合は更新済みフレームの前後のフレーム)ばかり選ばれてしまい、着目領域の更新作業が冗長なものになる。一方で、探索を極端に重視すれば(図7(A)において、ハイパーパラメータβtを過度に大きくすれば)、妥当性の高いデータ(すなわち、ユーザ50が更新する必要性が低いデータ)が選ばれる可能性が高くなり、生成された学習モデルの性能の効率的な向上ができない。そこで、探索活用調整部17は、これらの不適切な未更新データを選択の対象外とするために、新たなハイパーパラメータβtを導入している。具体的には、図7(B)に示されるように、類似度距離diの予測平均μt(x)と予測偏差σt(x)のそれぞれに対して、選択対象外とする未更新データの割合を決定する。図7(B)では、予測平均μt(x)について、下位a%(aは、設定値)のデータを除外することで、ハイパーパラメータβtの上限を決定している。また、図7(B)では、予測偏差σt(x)について、上位b%(bは、設定値)のデータを除外することで、ハイパーパラメータβtの下限を決定している。これは、ハイパーパラメータβtのとりうる値の範囲を制限することに等しい。これにより、獲得関数αt(x)の選択されるデータの範囲が決まる。FIGS. 7A and 7B are diagrams showing the operation of the search
図8は、機械学習装置10の動作を示すフローチャートである。先ず、学習部は、学習用データLを用いて教師あり学習を行って学習モデルMを生成する(ステップS101)。動的選択・更新部19は、学習モデルMを用いて学習用データLについて着目領域を生成する(ステップS102)。最初は、更新1回目であるから(ステップS103においてYES)、動的選択・更新部19は、データを静的に選択して(ステップS108)、着目領域の更新(ステップS106)及び更新結果の評価を行う(ステップS107)。
FIG. 8 is a flowchart showing the operation of the
次に、動的選択・更新部19は、更新継続であれば(ステップS109においてYES)、ハイパーパラメータの調整(ステップS104)、データの動的選択(ステップS105)を経て、動的に選択されたデータの着目領域の更新(ステップS106)及び更新結果の評価を行う(ステップS107)。
Next, if the update is to be continued (YES in step S109), the dynamic selection/
動的選択・更新部19は、動的に選択されたデータについて更新を完了すれば、更新継続を行わず(ステップS109においてNO)、転移学習を行うかどうかを判断する(ステップS110)。転移学習を行うときには(ステップS110においてYES)、タスク学習部11は、学習用データLと更新後着目領域Aとを用いて教師あり学習を行って、学習モデルMを更新する(ステップS101)。その後、動的選択・更新部19は、更新された学習モデルMを用いてすべてのデータについて着目領域を生成する(ステップS102)。次に、動的選択・更新部19は、ハイパーパラメータの調整(ステップS104)、データの動的選択(ステップS105)、選択されたデータの着目領域の更新(ステップS106)、及び更新結果の評価(ステップS107)を、更新継続を終了する(ステップS109においてNO)まで、繰り返す。さらに、動的選択・更新部19は、ステップS101~S107、S109の処理を、転移学習を終了する(ステップS110においてNO)まで、繰り返し行う。
When the dynamic selection/updating
図9は、機械学習装置10のハードウェア構成の例を示す図である。機械学習装置10は、プロセッサ101と、揮発性の記憶装置であるメモリ102と、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)などの不揮発性記憶装置103と、インタフェース104とを有している。メモリ102は、例えば、RAM(Random Access Memory)などの半導体メモリである。機械学習装置10は、外部の装置との通信を行う通信装置を有してもよい。
FIG. 9 is a diagram showing an example of the hardware configuration of the
機械学習装置10の各機能は、処理回路により実現される。処理回路は、専用のハードウェアであっても、メモリ102に格納されるプログラム(例えば、実施の形態に係る機械学習プログラム)を実行するプロセッサ101であってもよい。プロセッサ101は、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、及びDSP(Digital Signal Processor)のいずれであってもよい。
Each function of the
処理回路が専用のハードウェアである場合、処理回路は、例えば、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)などである。 When the processing circuit is dedicated hardware, the processing circuit is, for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
処理回路がプロセッサ101である場合、機械学習方法は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実行される。ソフトウェア及びファームウェアは、プログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することにより、実施の形態1に係る機械学習方法を実施することができる。
When the processing circuit is the
なお、機械学習装置10は、一部を専用のハードウェアで実現し、他の一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらのうちのいずれかの組み合わせによって、上述の各機能を実現することができる。
Note that the
インタフェース104は、他の装置と通信するために用いられる。インタフェース104には、外部の記憶装置105、ディスプレイ106、及びユーザ操作部としての入力装置107、などが接続される。
以上に説明したように、実施の形態1に係る機械学習装置10を用いれば、転移学習において、更新前着目領域Biと学習モデルMが新たに生成する更新後着目領域Aiとの間の差がペナルティとなる。したがって、転移学習による精度向上を促進するためには、更新前着目領域Bの妥当性が低いデータを重点的に更新することが望ましい。実施の形態1に係る機械学習装置10によれば、更新前着目領域Bのうちの、妥当性が低いデータ(すなわち、更新作業による変化が大きく、更新の必要性が高いデータ)を動的に選択するため、より少ないデータ数の更新作業で効率よく学習モデルの性能を向上させることができる。
As explained above, if the
実施の形態2.
図10は、実施の形態2に係る機械学習装置20の構成を概略的に示す機能ブロック図である。図10において、図2に示される構成と同一又は対応する構成には、図2に示される符号と同じ符号が付されている。実施の形態2に係る機械学習装置20は、学習部として、教師あり学習部であるタスク学習部21と教師なし学習部22とを有する点において、図2に示される実施の形態1に係る機械学習装置10と相違する。タスク学習部21と教師なし学習部22は、着目領域更新評価部15において、更新前着目領域の特徴抽出に用いる学習モデルMを学習する。このとき、Principle Component Analysis(PCA)又はAuto-Encoder(AE)などのエンコーダを持つ任意の学習モデルMを用いてもよい。また、教師なし学習部22は、自己教師あり学習を行ってもよい。
FIG. 10 is a functional block diagram schematically showing the configuration of the
タスク学習部21で作成した学習モデルMは、タスクとの関連が大きい特徴をデータから選択的に抽出しているため、学習モデルMは、更新後着目領域Aに含まれる特徴の一部を無視する可能性がある。この学習モデルMを着目領域更新評価部15に利用すると、多様体に沿わない距離(すなわち、「out-of-manifold」である距離)が得られる。この問題を回避するために、教師なし学習部22により作成した学習モデルMを着目領域更新評価部15の特徴抽出器として利用する。
Since the learning model M created by the
図11は、機械学習装置20の動作を示すフローチャートである。図11において、図8に示されるステップと同じ内容のステップには、図8に示される符号と同じ符号が付されている。実施の形態2に係る機械学習装置20の動作は、教師なし学習を行う点(ステップS201)において、実施の形態1に係る機械学習装置10の動作と相違する。他の点に関しは、図11の動作は、図8のものと同様である。
FIG. 11 is a flowchart showing the operation of the
以上に説明したように、実施の形態2に係る機械学習装置20を用いれば、教師なし学習ではタスクに特化しない汎用的な特徴表現が得られる。この特徴表現には更新後の着目領域に関する特徴も含まれているため、着目領域更新評価部に利用すると適切な類似度距離を計算することができる。
As described above, by using the
なお、上記以外に関し、実施の形態2は、実施の形態1と同じである。 Note that the second embodiment is the same as the first embodiment except for the above.
実施の形態3.
図12は、実施の形態3に係る機械学習装置30の構成を概略的に示す機能ブロック図である。図12において、図2に示される構成と同一又は対応する構成には、図2に示される符号と同じ符号が付されている。実施の形態3に係る機械学習装置30は、転移学習の際に、データ動的選択部16に供給される入力データを削減するデータ数削減部31を有する点において、図2に示される実施の形態1に係る機械学習装置10と相違する。Embodiment 3.
FIG. 12 is a functional block diagram schematically showing the configuration of the
データ数削減部31は、クラスタリングなどの教師なし学習を用いてデータ数を削減する。データ数削減部31は、各クラスから一定割合のデータを選択するか、又は、クラスタ単位でデータを選択する。このときに用いられる、クラスタ数又はデータの削減割合などのハイパーパラメータは、事前に設定されていてもよく、又は、データ削減のたびに特定のアルゴリズムに基づいて変更されてもよい。
The data
データ動的選択部16において、全データ(動画の場合は各フレーム)を用いてベイズモデルを作成すること、また全データの獲得関数を計算することは、計算コストが非常に大きい。ガウス過程回帰の場合の計算量は、「O記法」で表すと、データ数Nに対してO(N3)である。そこで、実施の形態3に係る機械学習装置30では、ランダムサンプリング又はクラスタリング、Kernel Interpolation for Scalable Structured Gaussian Processes(KISS-GP)などのアルゴリズムによりデータ数を削減するデータ数削減部31が導入されている。具体的には、データ数削減部31は、着目領域更新評価部15と同様に、タスク学習部11で生成した学習モデルMを用いて、更新前着目領域Bの特徴を抽出し、その中間特徴を入力とする教師なし学習を実行する。In the data
図13は、機械学習装置30の動作を示すフローチャートである。図13において、図8に示されるステップと同じ内容のステップには、図8に示される符号と同じ符号が付されている。実施の形態3に係る機械学習装置30の動作は、データ数の削減の処理を行う点(ステップS301)において、実施の形態1に係る機械学習装置10の動作と相違する。他の点に関しは、図13の動作は、図8のものと同じである。
FIG. 13 is a flowchart showing the operation of the
以上に説明したように、実施の形態3に係る機械学習装置30を用いれば、データ動的選択部16における計算コストを低減でき、マシンパワーのコスト及び介入者の待ち時間を削減できる。
As described above, by using the
なお、上記以外に関し、実施の形態3は、実施の形態1と同じである。 Note that the third embodiment is the same as the first embodiment except for the above.
実施の形態4.
図14は、実施の形態4に係る機械学習装置40の構成及び機械学習システムの構成を概略的に示す機能ブロック図である。図14において、図2に示される構成と同一又は対応する構成には、図2に示される符号と同じ符号が付されている。実施の形態4に係る機械学習システムは、機械学習装置40によって生成された学習モデルMを用いて実行される推論プロセスにおける改善度合いを測定する効果測定部41と、この改善度合いに基づいて、着目領域の更新に関連するハイパーパラメータを決定する更新方法決定部42とを有する点において、図2に示される実施の形態1に係る機械学習システムと相違する。
FIG. 14 is a functional block diagram schematically showing the configuration of the
効果測定部41は、例えば、機械学習装置40によって生成された学習モデルMを用いて実行される推論プロセスにおける予測精度、解釈性、各処理に要した時間、及びリソースに要するコストを取得し、予測精度、解釈性、各処理に要した時間、及びリソースに要するコスト、に対して得られた学習モデルMの改善度合いを測定する。測定対象は、タスク及び作業環境(クラウドソーシングなど)に依存する。学習モデルMの改善度合いは、予測精度、解釈性、各処理に要した時間、及びリソースに要するコストのすべてである必要はなく、これらのうちの1つ又は2つ以上の組み合わせであってもよい。
The
更新方法決定部42は、効果測定部41によって測定された学習モデルMの改善度合い、すなわち、測定された効果に基づいて、着目領域の更新に関連するハイパーパラメータHを決定する。ハイパーパラメータHは、ルールベースで決定されてもよく、又は、最適化されてもよい。決定されたハイパーパラメータHは、機械学習装置40の着目領域更新部18及び探索活用調整部17に自動的に提供される。決定されたハイパーパラメータHは、ディスプレイによってユーザ50に提示され、ユーザ50にハイパーパラメータHの変更を促してもよい。
The update
着目領域の更新作業において、探索と活用の制御パラメータ、着目領域を更新するためのUIデザイン(例えば、着目領域の粒度など)、人手で更新するデータの数、介入者の人数、などの複数のハイパラーパラメータが存在する。ハイパーパラメータは、再学習を繰り返すたびに適切な値に変更されることが望ましい。実施の形態4に係る機械学習システムでは、学習モデルMを用いて実行される推論プロセスにおける学習モデルMの改善度合い測定し、これらの値に基づいてハイパーパラメータHを調整している。 In updating the area of interest, multiple factors such as control parameters for exploration and utilization, UI design for updating the area of interest (e.g. granularity of the area of interest, etc.), number of data to be manually updated, number of interventionists, etc. are required. Hyperparameters exist. It is desirable that the hyperparameters be changed to appropriate values each time relearning is repeated. In the machine learning system according to the fourth embodiment, the degree of improvement of the learning model M in the inference process executed using the learning model M is measured, and the hyperparameter H is adjusted based on these values.
図15は、実施の形態4に係る機械学習システムの動作を示すフローチャートである。図15において、図8に示されるステップと同じ内容のステップには、図8に示される符号と同じ符号が付されている。実施の形態4に係る機械学習システムの動作は、効果測定部41が学習モデルMの改善度合い(すなわち、効果)を測定し(ステップS401)、更新方法決定部42が測定された効果に基づいて、着目領域の更新方法(すなわち、関連するハイパーパラメータH)を決定する(ステップS402)点において、図8の動作と相違する。他の点に関しは、図15の動作は、図8のものと同じである。
FIG. 15 is a flowchart showing the operation of the machine learning system according to the fourth embodiment. In FIG. 15, steps having the same contents as those shown in FIG. 8 are given the same reference numerals as those shown in FIG. In the operation of the machine learning system according to the fourth embodiment, the
以上に説明したように、人手による更新作業に要する負荷とその効果とはトレードオフの関係にあるが実施の形態4に係る機械学習装置40及び機械学習システムを用いれば、両者の良好なバランスがとれた更新作業が可能となる。
As explained above, there is a trade-off relationship between the load required for manual update work and its effect, but if the
なお、上記以外に関し、実施の形態4は、実施の形態1と同じである。 Note that the fourth embodiment is the same as the first embodiment except for the above.
10、20、30、40 機械学習装置、 11 タスク学習部(教師あり学習部)、 11a 学習モデル生成部、 11b 学習モデル記憶部、 12 学習データ記憶部、 13 更新前着目領域記憶部、 14 更新後着目領域記憶部、 15 着目領域更新評価部、 15a 類似度学習部(教師あり学習部)、 16 データ動的選択部、 17 探索活用調整部、 18 着目領域更新部、 19、29、39、49 動的選択・更新部、 21 タスク学習部(教師あり学習部)、 22 教師なし学習部、 31 データ数削減部、 41 効果測定部、 42 更新方法決定部、 50 ユーザ、 A、Ai、xi after 更新後着目領域、 B、Bi、xi before 更新前着目領域、 H、βt ハイパーパラメータ、 di 類似度距離、 L 学習用データ、 M 学習モデル。10, 20, 30, 40 machine learning device, 11 task learning unit (supervised learning unit), 11a learning model generation unit, 11b learning model storage unit, 12 learning data storage unit, 13 pre-update focused area storage unit, 14 update Post-focus area storage unit, 15 Focus area update evaluation unit, 15a Similarity learning unit (supervised learning unit), 16 Data dynamic selection unit, 17 Search utilization adjustment unit, 18 Focus area update unit, 19, 29, 39, 49 dynamic selection/update unit, 21 task learning unit (supervised learning unit), 22 unsupervised learning unit, 31 data number reduction unit, 41 effect measurement unit, 42 update method determination unit, 50 user, A, Ai, x i after updated area of interest, B, Bi, x i before updated area of interest, H, βt hyperparameter, d i similarity distance, L learning data, M learning model.
Claims (9)
前記通常学習の際に、前記学習モデルを用いて前記入力データの前記着目領域を生成し、生成された前記着目領域を更新前着目領域として更新前着目領域記憶部に保存する生成処理を行い、前記転移学習の際又は前に、入力された人の知識を用いて前記入力データの前記着目領域を前記更新前着目領域から更新後着目領域に更新して更新後着目領域記憶部に保存する更新処理を行う着目領域更新部と、
前記更新処理による前記着目領域の変化を示す類似度距離を計算する着目領域更新評価部と、
前記転移学習の際又は前に、前記類似度距離に基づいて前記着目領域更新部に出力される前記入力データを動的に選択するデータ動的選択部と、
を有することを特徴とする機械学習装置。a learning unit that performs normal learning that generates a learning model for inferring a region of interest of input data based on pre-collected learning data; and transfer learning that updates the learning model;
during the normal learning, generating the region of interest of the input data using the learning model, and performing a generation process of storing the generated region of interest in a pre-update region of interest storage unit as a pre-update region of interest; During or before the transfer learning, updating the region of interest of the input data from the pre-update region of interest to the post-update region of interest using the inputted person's knowledge, and storing the updated region of interest in the post-update region of interest storage unit. A region of interest update unit that performs processing;
a region of interest update evaluation unit that calculates a similarity distance indicating a change in the region of interest due to the update process;
a data dynamic selection unit that dynamically selects the input data to be output to the region of interest update unit based on the similarity distance during or before the transfer learning;
A machine learning device characterized by having.
ことを特徴とする請求項1に記載の機械学習装置。The machine learning device according to claim 1, wherein the learning unit is a supervised learning unit.
前記通常学習を行う教師なし学習部と、
前記転移学習を行う教師あり学習部と、
を含む
ことを特徴とする請求項1に記載の機械学習装置。The learning department is
an unsupervised learning section that performs the normal learning;
a supervised learning unit that performs the transfer learning;
The machine learning device according to claim 1, comprising:
ことを特徴とする請求項1から3のいずれか1項に記載の機械学習装置。4. The method according to claim 1, further comprising a data number reduction unit that reduces the input data supplied to the data dynamic selection unit during or before the transfer learning. Machine learning device.
前記データ動的選択部は、前記転移学習の際又は前に、前記類似度距離及び前記ハイパーパラメータに基づいて前記着目領域更新部に出力される前記入力データを動的に選択する
ことを特徴とする請求項1から4のいずれか1項に記載の機械学習装置。further comprising a search and utilization adjustment unit that provides the data dynamic selection unit with a hyperparameter indicating whether to emphasize search or utilization in the learning data acquired in advance;
The data dynamic selection unit dynamically selects the input data to be output to the region of interest updating unit based on the similarity distance and the hyperparameter during or before the transfer learning. The machine learning device according to any one of claims 1 to 4.
ことを特徴とする請求項5に記載の機械学習装置。The search utilization adjustment unit sets the hyperparameter to a value that emphasizes the search during or before the transfer learning, and gradually changes the hyperparameter from the value that emphasizes the search to the value that emphasizes the utilization. The machine learning device according to claim 5.
前記機械学習装置によって生成された前記学習モデルを用いて実行される推論プロセスにおける改善度合いを測定する効果測定部と、
前記改善度合いに基づいて、前記着目領域の更新に関連する前記ハイパーパラメータを決定する更新方法決定部と、
を有することを特徴とする機械学習システム。A machine learning device according to claim 5 or 6,
an effect measurement unit that measures the degree of improvement in an inference process executed using the learning model generated by the machine learning device;
an update method determining unit that determines the hyperparameter related to updating the region of interest based on the degree of improvement;
A machine learning system characterized by having.
前記通常学習の際に、前記学習モデルを用いて前記入力データの前記着目領域を生成し、生成された前記着目領域を更新前着目領域として更新前着目領域記憶部に保存する生成処理を行い、前記転移学習の際又は前に、入力された人の知識を用いて前記入力データの前記着目領域を前記更新前着目領域から更新後着目領域に更新して更新後着目領域記憶部に保存する更新処理を行うステップと、
前記更新処理による前記着目領域の変化を示す類似度距離を計算するステップと、
前記転移学習の際又は前に、前記類似度距離に基づいて前記転移学習の対象になる前記入力データを動的に選択するステップと、
を有することを特徴とする機械学習方法。Machine learning performed by a machine learning device that performs normal learning that generates a learning model for inferring a region of interest in input data based on pre-collected learning data, and transfer learning that updates the learning model. A method,
during the normal learning, generating the region of interest of the input data using the learning model, and performing a generation process of storing the generated region of interest in a pre-update region of interest storage unit as a pre-update region of interest; During or before the transfer learning, updating the region of interest of the input data from the pre-update region of interest to the post-update region of interest using the inputted person's knowledge, and storing the updated region of interest in the post-update region of interest storage unit. a step of performing the processing;
calculating a similarity distance indicating a change in the region of interest due to the update process;
During or before the transfer learning, dynamically selecting the input data to be subjected to the transfer learning based on the similarity distance;
A machine learning method characterized by having the following.
前記通常学習の際に、前記学習モデルを用いて前記入力データの前記着目領域を生成し、生成された前記着目領域を更新前着目領域として更新前着目領域記憶部に保存する生成処理を行い、前記転移学習の際又は前に、入力された人の知識を用いて前記入力データの前記着目領域を前記更新前着目領域から更新後着目領域に更新して更新後着目領域記憶部に保存する更新処理を行うステップと、
前記更新処理による前記着目領域の変化を示す類似度距離を計算するステップと、
前記転移学習の際又は前に、前記類似度距離に基づいて前記転移学習の対象になる前記入力データを動的に選択するステップと、
を実行させることを特徴とする機械学習プログラム。A computer that performs normal learning that generates a learning model for inferring a region of interest of input data based on pre-collected learning data, and transfer learning that updates the learning model,
during the normal learning, generating the region of interest of the input data using the learning model, and performing a generation process of storing the generated region of interest in a pre-update region of interest storage unit as a pre-update region of interest; During or before the transfer learning, updating the region of interest of the input data from the pre-update region of interest to the post-update region of interest using the inputted person's knowledge, and storing the updated region of interest in the post-update region of interest storage unit. a step of processing;
calculating a similarity distance indicating a change in the region of interest due to the update process;
During or before the transfer learning, dynamically selecting the input data to be subjected to the transfer learning based on the similarity distance;
A machine learning program that runs.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/004380 WO2023148914A1 (en) | 2022-02-04 | 2022-02-04 | Machine learning device, machine learning system, machine learning method, and machine learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023148914A1 JPWO2023148914A1 (en) | 2023-08-10 |
JP7361999B1 true JP7361999B1 (en) | 2023-10-16 |
Family
ID=87553409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023532817A Active JP7361999B1 (en) | 2022-02-04 | 2022-02-04 | Machine learning device, machine learning system, machine learning method, and machine learning program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7361999B1 (en) |
TW (1) | TW202333093A (en) |
WO (1) | WO2023148914A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019040233A (en) * | 2017-08-22 | 2019-03-14 | 株式会社 ディー・エヌ・エー | Signal processing device, signal processing method, signal processing program, and data structure |
US20200302337A1 (en) * | 2013-12-23 | 2020-09-24 | Groupon, Inc | Automatic selection of high quality training data using an adaptive oracle-trained learning framework |
JP2021022368A (en) * | 2019-07-25 | 2021-02-18 | 学校法人中部大学 | Image recognition device and training device using neural network |
JP2021111299A (en) * | 2020-01-16 | 2021-08-02 | 沖電気工業株式会社 | Learning device, learning method, learning program, identification device, identification method, and identification program |
US20210383272A1 (en) * | 2020-06-04 | 2021-12-09 | Samsung Electronics Co., Ltd. | Systems and methods for continual learning |
-
2022
- 2022-02-04 WO PCT/JP2022/004380 patent/WO2023148914A1/en active Application Filing
- 2022-02-04 JP JP2023532817A patent/JP7361999B1/en active Active
- 2022-06-21 TW TW111123000A patent/TW202333093A/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200302337A1 (en) * | 2013-12-23 | 2020-09-24 | Groupon, Inc | Automatic selection of high quality training data using an adaptive oracle-trained learning framework |
JP2019040233A (en) * | 2017-08-22 | 2019-03-14 | 株式会社 ディー・エヌ・エー | Signal processing device, signal processing method, signal processing program, and data structure |
JP2021022368A (en) * | 2019-07-25 | 2021-02-18 | 学校法人中部大学 | Image recognition device and training device using neural network |
JP2021111299A (en) * | 2020-01-16 | 2021-08-02 | 沖電気工業株式会社 | Learning device, learning method, learning program, identification device, identification method, and identification program |
US20210383272A1 (en) * | 2020-06-04 | 2021-12-09 | Samsung Electronics Co., Ltd. | Systems and methods for continual learning |
Non-Patent Citations (2)
Title |
---|
OGAWA, N et al.,"Distress Level Classification of Road Infrastructures via CNN Generating Attention Map",2020 IEEE 2nd Global Conference on Life Sciences and Technologies (LifeTech) [online],IEEE,2020年,pp. 97-98,[retrieved on 2022.04.01], Retrieved from the Internet: <URL: https://ieeexplore.ieee.org/document/9081001>, <DOI: 10.1109/LifeTech48969.2020.1570619126> |
OGAWA, N ET AL.: ""Distress Level Classification of Road Infrastructures via CNN Generating Attention Map"", 2020 IEEE 2ND GLOBAL CONFERENCE ON LIFE SCIENCES AND TECHNOLOGIES (LIFETECH) [ONLINE], JPN6022013815, 2020, pages 97 - 98, XP033765714, ISSN: 0005146621, DOI: 10.1109/LifeTech48969.2020.1570619126 * |
Also Published As
Publication number | Publication date |
---|---|
WO2023148914A1 (en) | 2023-08-10 |
TW202333093A (en) | 2023-08-16 |
JPWO2023148914A1 (en) | 2023-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Reyes et al. | Statistical comparisons of active learning strategies over multiple datasets | |
Ferwerda et al. | Kernel-based regularized least squares in R (KRLS) and Stata (krls) | |
Kotsiantis | Bagging and boosting variants for handling classifications problems: a survey | |
JP2020194560A (en) | Causal relationship analyzing method and electronic device | |
Bussaban et al. | A parallel inertial S-iteration forward-backward algorithm for regression and classification problems | |
Celeux et al. | Variable selection in model-based clustering and discriminant analysis with a regularization approach | |
CN117035073B (en) | Future meteorological event prediction method based on hierarchical event development mode induction | |
JP2016194914A (en) | Method and device for selecting mixture model | |
Mi et al. | Concept-cognitive computing system for dynamic classification | |
Ananthi et al. | A thresholding method based on interval-valued intuitionistic fuzzy sets: an application to image segmentation | |
Anderson et al. | Sample, estimate, tune: Scaling bayesian auto-tuning of data science pipelines | |
Wang et al. | Incremental fuzzy association rule mining for classification and regression | |
Chu et al. | Broad minimax probability learning system and its application in regression modeling | |
JP7361999B1 (en) | Machine learning device, machine learning system, machine learning method, and machine learning program | |
JP5929532B2 (en) | Event detection apparatus, event detection method, and event detection program | |
Lu et al. | A Bayesian assumption based forecasting probability distribution model for small samples | |
Li et al. | Empowering multi-class medical data classification by Group-of-Single-Class-predictors and transfer optimization: Cases of structured dataset by machine learning and radiological images by deep learning | |
Li et al. | Improving fuzzy rule interpolation performance with information gain-guided antecedent weighting | |
Roy et al. | Causality inference techniques for in-silico gene regulatory network | |
Culp et al. | On adaptive regularization methods in boosting | |
CN112905166B (en) | Artificial intelligence programming system, computer device, and computer-readable storage medium | |
CN114925622A (en) | Bayesian network structure optimization method and device based on BRKGA algorithm | |
Mülâyim et al. | Fast anytime retrieval with confidence in large-scale temporal case bases | |
Ruiz et al. | A principled approach to network-based classification and data representation | |
Maini et al. | Upgrading the performance of machine learning based chronic disease prediction systems using stacked generalization technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230530 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7361999 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |