JP2018190140A - 学習装置、学習方法、及び学習プログラム - Google Patents

学習装置、学習方法、及び学習プログラム Download PDF

Info

Publication number
JP2018190140A
JP2018190140A JP2017091295A JP2017091295A JP2018190140A JP 2018190140 A JP2018190140 A JP 2018190140A JP 2017091295 A JP2017091295 A JP 2017091295A JP 2017091295 A JP2017091295 A JP 2017091295A JP 2018190140 A JP2018190140 A JP 2018190140A
Authority
JP
Japan
Prior art keywords
learning
data
learning data
data group
ability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017091295A
Other languages
English (en)
Other versions
JP6911498B2 (ja
Inventor
安藤 丹一
Tanichi Ando
丹一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017091295A priority Critical patent/JP6911498B2/ja
Priority to PCT/JP2018/015636 priority patent/WO2018203470A1/en
Publication of JP2018190140A publication Critical patent/JP2018190140A/ja
Application granted granted Critical
Publication of JP6911498B2 publication Critical patent/JP6911498B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機械学習に利用する学習データの不足件数を特定可能な技術を提供する。【解決手段】本発明の一側面に係る学習装置は、複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得する学習データ取得部と、前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築する学習処理部と、前記第1の学習器がサンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記第1の学習器の機械学習に利用した学習データの不足件数の程度を評価する不足件数評価部と、を備える。【選択図】図3

Description

本発明は、学習装置、学習方法、及び学習プログラムに関する。
近年、所定の能力の習得に、ディープラーニング等の機械学習が用いられることがある。例えば、特許文献1には、画像に写る対象物の種類を識別する、人物のライフログデータから当該人物の属性を特定する等の所定の能力を機械学習によりニューラルネットワーク装置に習得させることが開示されている。
特開2016−143094号公報
ニューラルネットワーク等の学習器の機械学習には、習得させる能力に関連する学習データを用いる。十分な件数の学習データを用いて学習器の機械学習を行った場合には、習得させた能力を十分に発揮する学習済み学習器を構築することができる。一方、機械学習に用いる学習データの件数が少ない場合には、習得させた能力を十分に発揮できない学習済み学習器が構築されてしまう可能性がある。例えば、画像に写る対象物の種類を識別する能力を学習器に学習させる場合に、機械学習に用いる学習データの件数が少ないと、学習データ以外の画像に写る対象物に対する学習済み学習器の識別率が目標値よりも低くなってしまう可能性がある。
これに対して、特許文献1では、転移学習において学習データが不足しているか否かを検出する方法が提案されている。具体的には、1以上のラベルなし転移先データをニューラルネットワークに入力したときに、非関連ユニットから出力される評価値が基準範囲から逸脱しているか否かにより学習不足を検出することが提案されている。しかしながら、特許文献1で提案されている方法では、学習データが不足しているか否かを検出することはできても、学習データがどの程度不足しているかを特定することはできなかった。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、機械学習に利用する学習データの不足件数を特定可能な技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る学習装置は、複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得する学習データ取得部と、前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築する学習処理部と、前記第1の学習器がサンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記第1の学習器の機械学習に利用した学習データの不足件数の程度を評価する不足件数評価部と、を備える。
当該構成では、学習データ取得部が、所定の能力の機械学習に利用する第1の学習データ群を取得する。そして、学習処理部が、取得した学習データ群を利用して、学習器の機械学習を実施する。これにより、所定の能力を習得した第1の学習器を構築することができる。加えて、不足件数評価部が、学習済み学習器がサンプルデータに対して所定の能力を発揮した結果に基づいて、機械学習に利用した学習データの不足件数の程度を評価する。すなわち、不足件数評価部による評価により、所定の能力を十分に発揮する学習済み学習器を構築するのに不足している学習データの件数の程度を特定することができる。したがって、当該構成によれば、機械学習に利用する学習データの不足件数を特定することができる。
なお、所定の能力は、機械学習により習得可能なあらゆる種類の能力を含んでよく、例えば、画像に写る対象物の検品を行う能力、利用者の好みに応じて制御対象装置を制御する能力、血圧等の生体データに基づいて対象人物の将来の健康状態を推定する能力、ドライバの写る画像データに基づいて当該ドライバの状態を推定する能力等であってよい。所定の能力を発揮する際に、第1の学習器に入力する入力データは、例えば、画像データ及び生体データの少なくともいずれかであってよい。一方、第1の学習器から出力される出力データは、対象物又は対象人物の状態の推定結果を示すデータであってよい。生体データは、例えば、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示すデータである。
具体例として、所定の能力は、製造ラインで製造される対象物の検品を行う能力であってよい。この場合、第1の学習器に入力する入力データは、対象物を撮影することで得られた画像データであってよく、第1の学習器から出力される出力データは、対象物の検品結果を示すデータであってよい。また、所定の能力は、車両のドライバの状態を推定する能力であってよい。この場合、第1の学習器に入力する入力データは、ドライバを撮影することで得られた画像データ及びドライバから得られた生体データの少なくともいずれかであってよく、第1の学習器から出力される出力データは、ドライバの状態を示すデータであってよい。また、所定の能力は、対象人物の健康状態を推定する能力であってよい。この場合、第1の学習器に入力する入力データは、対象人物から得られた生体データであってよく、第1の学習器から出力される出力データは、対象人物の健康状態(例えば、脳血管疾患、心血管疾患等の疾患を発症する可能性)を示すデータであってよい。また、サンプルデータは、例えば、学習データと同種のデータであり、学習済み学習器に習得させた所定の能力をテストするのに利用可能なデータである。
上記一側面に係る学習装置において、前記学習処理部は、前記第1の学習器の機械学習に利用した前記第1の学習データ群を構成する複数件の学習データのうちの一部で構成された第2の学習データ群を利用して、前記所定の能力を学習した、第2の学習器を更に構築してもよい。そして、前記不足件数評価部は、前記第1の学習データ群及び前記第2の学習データ群それぞれに含まれる学習データの件数の相違と、前記第1の学習器及び前記第2の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合とに基づいて、前記第1の学習器の機械学習に利用した学習データの不足件数の程度を評価してもよい。当該構成によれば、機械学習に利用する学習データの不足件数を比較的に正確に特定することができる。
なお、当該構成では、学習データの件数が相違する複数の学習データ群を利用して、学習データの件数の相違が機械学習の達成度に与える影響を表出させている。つまり、第1の学習データ群及び第2の学習データ群それぞれを利用した機械学習の結果を比較することで、第1の学習データ群と第2の学習データ群との差分となる学習データの機械学習に対する影響具合を表出させている。このような差分の比較は、第1の学習データ群に新たな学習データを追加した第3の学習データ群を利用しても行うことができる。すなわち、本発明では、第1の学習データ群及び第3の学習データ群それぞれを利用した機械学習の結果を比較してもよい。
ただし、学習データの件数の異なる複数の学習データ群を利用した機械学習の結果を比較する場合、第3の学習データ群を利用するよりも、第2の学習データ群を利用する方が好ましい。なぜなら、第3の学習データ群を利用するよりも、第2の学習データ群を利用する方が、所定の能力を十分に発揮する学習済み学習器を速やかに構築することができる可能性が高いからである。すなわち、第2の学習データ群は、新たな学習データを収集する作業を行わなくても、第1の学習データ群から学習データを適宜削除することで、作成することができる。これに対して、第3の学習データを作成するためには、新たな学習データを収集する作業を行うことになる。そのため、第2の学習データ群を利用した場合は、第3の学習データ群を利用する場合に比べて、新たな学習データを収集する作業の回数を削減することができ、これによって、所定の能力を十分に発揮する学習済み学習器を速やかに構築することができる。
上記一側面に係る学習装置において、前記不足件数評価部は、学習データの件数と学習済み学習器が前記所定の能力を発揮する程度との関係を示す指標に、前記第1の学習データ群及び前記第2の学習データ群それぞれに含まれる学習データの件数の相違と、前記第1の学習器及び前記第2の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合とを適用することで、前記学習済み学習器の機械学習に利用した学習データの不足件数の程度を評価してもよい。当該構成によれば、機械学習に利用する学習データの不足件数を比較的に正確に特定することができる。
上記一側面に係る学習装置において、前記不足件数評価部は、前記第1の学習器及び前記第2の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合が所定以下である場合に、前記第1の学習データ群と前記第2の学習データ群との差分となる学習データは前記学習器の機械学習に不要なデータであると評価してもよい。当該構成によれば、機械学習に利用する学習データ群に不要な学習データが含まれているか否かを特定することができる。
上記一側面に係る学習装置において、前記学習データ取得部は、第1の種類に属する複数件の学習データで構成された第1の追加学習データ群と、前記第1の種類とは異なる第2の種類に属する複数件の学習データで構成された第2の追加学習データ群と、を更に取得してもよい。前記学習処理部は、前記学習データ群及び前記第1の追加学習データ群を利用して、前記所定の能力を学習した第3の学習器を更に構築し、かつ前記学習データ群及び前記第2の追加学習データ群を利用して、前記所定の能力を学習した第4の学習器を更に構築してもよい。そして、前記不足件数評価部は、前記第1学習器、第3の学習器及び第4の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合に基づいて、前記第1学習器の機械学習に不足している学習データの種類を特定してもよい。当該構成によれば、機械学習に利用する学習データ群に不足している学習データの種類を特定することができる。
上記一側面に係る学習装置において、前記学習器は、ニューラルネットワークにより構成されてよい。当該構成によれば、学習済み学習器を容易に構築することができる。
上記一側面に係る学習装置において、前記不足件数評価部は、前記学習データ群を構成する学習データの件数及び種類を示す情報を入力すると、前記機械学習に利用する学習データの不足件数の程度を示す情報を出力するように学習を行った学習済みの評価用学習器を用いて、前記機械学習に利用する学習データの不足件数の程度を評価してもよい。当該構成によれば、機械学習に利用する学習データの不足件数を比較的に容易に特定することができる。
上記一側面に係る学習装置において、前記評価用学習器は、前記機械学習に不足している学習データの種類を更に出力するように学習済みであってよい。当該構成によれば、機械学習に利用する学習データ群に不足している学習データの種類を特定することができる。
なお、上記各形態に係る学習装置の別の形態として、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。
例えば、本発明の一側面に係る学習方法は、コンピュータが、複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得するステップと、前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築するステップと、サンプルデータに対して前記所定の能力を発揮するように前記第1の学習器を動作させるステップと、前記第1の学習器が前記サンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記機械学習に利用した学習データの不足件数の程度を評価するステップと、を実行する方法である。
また、例えば、本発明の一側面に係る学習プログラムは、コンピュータに、複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得するステップと、前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築するステップと、サンプルデータに対して前記所定の能力を発揮するように前記第1の学習器を動作させるステップと、前記第1の学習器が前記サンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記機械学習に利用した学習データの不足件数の程度を評価するステップと、を実行させるためのプログラムである。
本発明によれば、機械学習に利用する学習データの不足件数を特定可能な技術を提供することができる。
図1は、実施の形態に係る学習装置の適用場面の一例を模式的に例示する。 図2は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。 図3は、実施の形態に係る学習装置の機能構成の一例を模式的に例示する。 図4は、実施の形態に係る学習データ群と部分学習データ群との関係を模式的に例示する。 図5は、実施の形態に係る学習装置の処理手順の一例を例示する。 図6Aは、学習データの件数と学習済み学習器の能力の程度との関係の一例を示す。 図6Bは、学習データの件数と学習済み学習器の能力の程度との関係の一例を示す。 図7は、変形例に係る学習装置の構成の一例を模式的に例示する。 図8は、変形例に係る学習装置の構成の一例を模式的に例示する。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。例えば、以下では、機械学習により学習器に所定の能力を習得させる場面として、製造ラインを流れる対象物の検品を行う能力をニューラルネットワークに習得させる場面を例示する。しかしながら、機械学習により習得させる所定の能力及び学習器の種類はそれぞれ、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る学習装置1の適用場面の一例を模式的に例示する。
図1に示されるとおり、本実施形態に係る学習装置1は、所定の能力として、製造ラインで製造される対象物6の検品を行う能力の機械学習を行う情報処理装置である。学習装置1は、例えば、カメラ5を利用して、対象物6を撮影することで、複数件の学習データ123で構成される学習データ群122を取得する。
学習データ群122は、学習器であるニューラルネットワーク2に対象物6の検品を行う能力を機械学習させるためのデータ群である。学習装置1は、取得した学習データ群122を利用して、ニューラルネットワーク2の機械学習を実施することで、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク2を構築する。
ただし、構築された学習済みのニューラルネットワーク2は、対象物6の検品を行う能力を十分に発揮できるかどうか不明である。換言すると、構築された学習済みのニューラルネットワーク2が、学習データ群122以外のデータに対して、現場での利用に耐えうる確率で対象物6の検品を正しく行えるかどうか不明である。
そこで、学習装置1に、学習済みのニューラルネットワーク2を利用して、サンプルデータ129に対して対象物6の検品を行う能力を発揮させる。すなわち、学習装置1は、学習済みのニューラルネットワーク2にサンプルデータ129を入力して、サンプルデータ129に基づく対象物6の検品結果を出力するよう学習済みのニューラルネットワーク2を動作させる。そして、学習装置1は、学習済みのニューラルネットワーク2がサンプルデータ129に対して対象物6の検品を行う能力を発揮した結果に基づいて、機械学習に利用した学習データ123の不足件数の程度を評価する。
以上により、学習装置1は、機械学習に利用した学習データ123の不足件数の程度に対する評価を取得する。本実施形態によれば、この評価の結果に基づいて、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのに不足している学習データ123の件数の程度を特定することができる。すなわち、機械学習に利用する学習データ123の不足件数を特定することができる。
加えて、学習データ123の不足件数を特定できることにより、学習データの追加、及び追加した学習データを含む学習データ群を利用したニューラルネットワークの機械学習を繰り返し実施しなくても、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築することができるようになる。したがって、本実施形態によれば、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを速やかに作成することができるようになる。
§2 構成例
[ハードウェア構成]
次に、図2を用いて、本実施形態に係る学習装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る学習装置1のハードウェア構成の一例を模式的に例示する。
図2に示されるとおり、本実施形態に係る学習装置1は、制御部11、記憶部12、外部インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。
制御部11は、ハードウェアプロセッサであるCentral Processing Unit(CPU)、Random Access Memory(RAM)、Read Only Memory(ROM)等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部12は、制御部11で実行される学習プログラム121、ニューラルネットワークの機械学習に利用する、複数件の学習データ123で構成された学習データ群122、学習済みのニューラルネットワークに習得させた能力をテストするためのサンプルデータ129等を記憶する。学習プログラム121は、学習装置1に後述する学習処理(図5)を実行させるためのプログラムである。詳細は後述する。
外部インタフェース13は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、学習装置1は、外部インタフェース13を介して、カメラ5に接続する。カメラ5は、製造ラインで製造される対象物6(例えば、加工食品、機械製品等)を監視するための撮像装置であり、対象物6を撮像可能な位置に適宜配置されている。
入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。
ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体9に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体9の種類に応じて適宜選択されてよい。上記学習プログラム121、学習データ群122、及びサンプルデータ129は、この記憶媒体9に記憶されていてもよい。
記憶媒体9は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置1は、この記憶媒体9から、上記学習プログラム121、学習データ群122、及びサンプルデータ129の少なくとも一つを取得してもよい。
ここで、図2では、記憶媒体9の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体9の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、学習装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。学習装置1は、複数台のコンピュータで構成されてもよい。また、学習装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、Personal Computer(PC)等であってもよい。
[機能構成]
次に、図3を用いて、本実施形態に係る学習装置1の機能構成の一例を説明する。図3は、本実施形態に係る学習装置1の機能構成の一例を模式的に例示する。
学習装置1の制御部11は、記憶部12に記憶された学習プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された学習プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図3に示されるとおり、本実施形態に係る学習装置1は、学習データ取得部111、学習処理部112、及び不足件数評価部113を備えるコンピュータとして動く。
学習データ取得部111は、複数件の学習データ123で構成される学習データ群122であって、所定の能力を学習器に機械学習させるための学習データ群122を取得する。本実施形態では、ニューラルネットワーク2に対象物6の検品を行う能力を習得させるため、各件の学習データ123は、製造ラインを流れる対象物6を写した画像データ1231と、当該対象物6を検品した結果を示す検品結果データ1232とを含んでいる。画像データ1231は入力データとして利用され、検品結果データ1232は教師データとして利用される。
学習処理部112は、取得した学習データ群122を利用して、ニューラルネットワーク2の機械学習を実施することで、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク2を構築する。すなわち、学習処理部112は、学習データ群122に含まれる各件の学習データ123の画像データ1231を入力すると、入力した画像データ1231と対になっている検品結果データ1232に対応する出力値を出力するようにニューラルネットワーク2を学習させる。これにより構築される学習済みのニューラルネットワーク2は、本発明の「第1の学習器」に相当する。また、学習データ群122は、本発明の「第1の学習データ群」に相当する。
不足件数評価部113は、学習済みのニューラルネットワーク2が対象物6の検品を行う能力をサンプルデータ129に対して発揮した結果に基づいて、ニューラルネットワーク2の機械学習に利用した学習データ123の不足件数の程度を評価する。サンプルデータ129は、学習済みのニューラルネットワークに習得させた対象物6の検品を行う能力をテストするのに利用可能なデータであり、例えば、学習データ123と同種のデータであってよい。本実施形態に係るサンプルデータ129は、製造ラインを流れる対象物6を写した画像データ1291と、当該対象物6を検品した結果を示す検品結果データ1292とを含んでいる。
学習データ123の不足件数の程度を評価する方法は、実施の形態に応じて適宜設定可能である。本実施形態では、学習処理部112が、ニューラルネットワーク2の機械学習に利用した学習データ群122を構成する複数件の学習データ123のうちの一部で構成された部分学習データ群124を利用して、ニューラルネットワーク2と同じ構成を有するニューラルネットワーク3の機械学習を実施する。これにより、学習処理部112は、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク3を更に構築する。この学習済みのニューラルネットワーク3は、本発明の「第2の学習器」に相当する。また、部分学習データ群124は、本発明の「第2の学習データ群」に相当する。
ここで、図4を用いて、学習データ群122と部分学習データ群124との関係について説明する。図4は、学習データ群122と部分学習データ群124との関係を模式的に例示する。図4に例示されるとおり、部分学習データ群124は、学習データ群122に包含される。つまり、部分学習データ群124に含まれる学習データXは、学習データ群122にも含まれている。一方で、学習データ群122には、部分学習データ群124に含まれていない学習データYが含まれている。したがって、学習データ群122を利用するニューラルネットワーク2と部分学習データ群124を利用するニューラルネットワーク3との間には、学習データYが含まれているか否かの相違の分だけ、機械学習により習得する対象物6の検品を行う能力に差異が生じ得る。
そこで、不足件数評価部113は、学習データ群122及び部分学習データ群124それぞれに含まれる学習データ123の件数の相違と、学習済みのニューラルネットワーク2及びニューラルネットワーク3それぞれが対象物6の検品を行う能力をサンプルデータ129に対して発揮した結果の相違具合とに基づいて、機械学習に利用した学習データ123の不足件数の程度を評価する。すなわち、本実施形態では、学習データ123の件数の相違(換言すると、学習データ群122が図4の学習データYを含んでいること)が機械学習により習得させる対象物6の検品を行う能力に対して与える影響を表出させる。不足件数評価部113は、対象物6の検品を行う能力に対する学習データ123の件数の表出させた影響度合いに基づいて、機械学習に利用した学習データ123の不足件数の程度を評価する。
次に、各ニューラルネットワーク(2、3)について説明する。図3に示されるとおり、ニューラルネットワーク2は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層21、中間層(隠れ層)22、及び出力層23を備えている。
なお、図3の例では、ニューラルネットワーク2は、1層の中間層22を備えており、入力層21の出力が中間層22の入力となり、中間層22の出力が出力層23の入力となっている。ただし、中間層22の数は1層に限られなくてもよく、ニューラルネットワーク2は、2層以上の中間層22を備えてもよい。
各層21〜23は、1又は複数のニューロンを備えている。例えば、入力層21のニューロンの数は、入力する画像データ(例えば、画像データ1231)の画素数に応じて設定することができる。中間層22のニューロンの数は、実施の形態に応じて適宜設定することができる。また、出力層23のニューロンの数は、対象物6の検品結果の種類数に応じて設定することができる。
隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)は機械学習の結果に基づいて設定される。図3の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。また、機械学習の結果に基づいて、各ニューロンには閾値が設定される。基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。
ニューラルネットワーク3は、ニューラルネットワーク2と同じ構成を有する(例えば、ニューラルネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数が同じ)。すなわち、ニューラルネットワーク3は、入力層31、中間層(隠れ層)32、及び出力層33を備えており、各層31〜33は、上記ニューラルネットワーク2の各層21〜23と同様に構成される。
学習装置1の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、学習装置1の各機能がいずれも汎用のCPUにより実現される例について説明した。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のハードウェアプロセッサにより実現されてもよい。また、学習装置1の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
§3 動作例
次に、図5を用いて、学習装置1の動作例を説明する。図5は、学習装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は、本発明の「学習方法」に相当する。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS101)
ステップS101では、制御部11は、学習データ取得部111として動き、複数件の学習データ123で構成される学習データ群122を取得する。
各件の学習データ123は、例えば、次のようにして作成することができる。すなわち、カメラ5により、製造ラインを流れる対象物6を様々な撮影条件で撮影することで、当該対象物6を写した画像データを取得する。撮影条件は、対象物6の向き、対象物6の姿勢、対象物6の位置、照明の角度、照明の照度、カメラ5の位置、カメラ5の向き、カメラ5の倍率等で設定することができる。次に、取得した画像データに写る対象物6の検品を行う。そして、この対象物6の検品の結果(例えば、良否判定の結果)を示す検品結果データを作成し、作成した検品結果データを取得した画像データに紐付ける。これにより、各件の学習データ123を作成することができる。このような各件の学習データ123の作成は、オペレータ等により手動で行われてもよいし、ロボット等により自動で行われてもよい。
なお、サンプルデータ129も、学習データ123と同様に作成することができる。そのため、画像データ及び検品結果データの組を多数作成し、作成した組の一部を、学習データ群122を構成する学習データ123として利用し、作成した組の残りをサンプルデータ129として利用してもよい。また、このような場合以外にも、取得した複数件の組の一部を、学習データ群122を構成する学習データ123として利用してもよい。
制御部11は、カメラ5を制御して、上記のように複数件の学習データ123を作成することで、学習データ群122を取得してもよい。また、上記の学習データ123の作成は、学習装置1以外の他の情報処理装置によって行われてもよい。この場合、制御部11は、ネットワーク、記憶媒体9等を介して、他の情報処理装置により作成された学習データ群122を取得してもよい。更に、作成された複数件の学習データ123は、Network Attached Storage(NAS)等の他の情報処理装置の記憶装置に格納されていてもよい。この場合、制御部11は、ネットワーク、記憶媒体9等を介して、他の情報処理装置の記憶装置に格納された学習データ群122を取得してもよい。
(ステップS102)
次のステップS102では、制御部11は、学習処理部112として動き、ステップS101で取得した学習データ群122を利用して、ニューラルネットワーク2の機械学習を実施する。すなわち、各件の学習データ123の画像データ1231を入力すると、入力した画像データ1231と対になっている検品結果データ1232に対応する出力値を出力するようにニューラルネットワーク2を学習させる。これにより、制御部11は、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク2を構築する。
具体的には、まず、制御部11は、学習処理を行う対象となるニューラルネットワーク2を用意する。用意するニューラルネットワーク2の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。
次に、制御部11は、ステップS101で取得した学習データ群122に含まれる各件の学習データ123の画像データ1231を入力データとし、検品結果データ1232を教師データとして、ニューラルネットワーク2の学習処理を行う。このニューラルネットワーク2の学習処理には、勾配降下法、確率的勾配降下法等が用いられてよい。
例えば、制御部11は、画像データ1231を入力層21に入力して、順伝搬の方向に各層21〜23に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、ニューラルネットワーク2の出力層23から出力値を得る。次に、制御部11は、出力層23から得た出力値と、入力した画像データ1231の対になっている検品結果データ1232に対応する値との誤差を算出する。続いて、制御部11は、誤差逆伝搬法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部11は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。
制御部11は、学習データ群122に含まれる各件の学習データ123について、出力層23から出力される出力値が対応する検品結果データ1232の値と一致するまでこの一連の処理を繰り返すことにより、ニューラルネットワーク2の機械学習を実施する。これにより、各件の学習データ123の画像データ1231を入力すると、入力した画像データ1231と対になっている検品結果データ1232に対応する出力値を出力する学習済みのニューラルネットワーク2(学習済み学習器)を構築することができる。
(ステップS103)
次のステップS103では、制御部11は、学習処理部112として動き、部分学習データ群124を利用して、ニューラルネットワーク3の機械学習を実施する。これにより、制御部11は、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク3(第2の学習器)を構築する。
なお、本ステップS103は、部分学習データ群124を利用する点を除き、上記ステップS102と同様に実施可能である。制御部11は、学習データ群122から学習データ123を適宜間引くことで、部分学習データ群124を作成することができる。部分学習データ群124に含まれる学習データ123の件数は、実施の形態に応じて適宜設定可能である。
学習前のニューラルネットワーク3は、例えば、上記ニューラルネットワーク2と同様に初期設定される。本ステップS103により、制御部11は、部分学習データ群124に含まれる各件の学習データ123の画像データ1231を入力すると、入力した画像データ1231と対になっている検品結果データ1232に対応する出力値を出力する学習済みのニューラルネットワーク3を構築することができる。
(ステップS104)
次のステップS104では、制御部11は、対象物6の検品を行う能力をサンプルデータ129に対して発揮するように各学習済みのニューラルネットワーク(2、3)を動作させる。すなわち、制御部11は、各学習済みのニューラルネットワーク(2、3)にサンプルデータ129を入力して、対象物6の検品結果を出力するように各学習済みのニューラルネットワーク(2、3)を動作させる。これにより、制御部11は、構築した各学習済みのニューラルネットワーク(2、3)にサンプルデータ129を適用する。
具体的には、制御部11は、サンプルデータ129に含まれる画像データ1291を学習済みのニューラルネットワーク2の入力層21に入力し、順伝搬の方向に各層21〜23に含まれる各ニューロンの発火判定を行うことで、出力層23から出力値を得る。この出力層23から得られる出力値が、検品結果データ1292の値と一致する場合には、学習済みのニューラルネットワーク2は、対象物6の検品を行う能力を正しく発揮できたことになる。
そこで、制御部11は、各件のサンプルデータ129について、出力層23から出力される出力値が検品結果データ1292の値と一致する割合、換言すると、対象物6の検品の正答率を算出する。これにより、制御部11は、学習済みのニューラルネットワーク2が対象物6の検品を行う能力をサンプルデータ129に対して発揮した結果を得る。すなわち、本実施形態では、学習済みのニューラルネットワーク2が対象物6の検品を行う能力をサンプルデータ129に対して発揮した結果は、当該学習済みのニューラルネットワーク2による対象物6の検品の正答率として得ることができる。
学習済みのニューラルネットワーク3についても同様である。すなわち、制御部11は、サンプルデータ129に含まれる画像データ1291を学習済みのニューラルネットワーク3の入力層31に入力し、順伝搬方向の演算処理を行うことで出力層33から得られる出力値と検品結果データ1292の値とが一致するか否かを判定する。これにより、制御部11は、学習済みのニューラルネットワーク3が対象物6の検品を行う能力をサンプルデータ129に対して発揮した結果として、当該学習済みのニューラルネットワーク3による対象物6の検品の正答率を算出する。
(ステップS105)
次のステップS105では、制御部11は、不足件数評価部113として能力し、ステップS104で得られる結果に基づいて、ニューラルネットワーク2の機械学習に利用した学習データ123の不足件数の程度を評価する。
本実施形態では、制御部11は、上記ステップS102及びS103により、学習データ群122を利用した学習済みのニューラルネットワーク2と、部分学習データ群124を利用した学習済みのニューラルネットワーク3とを構築している。そこで、制御部11は、学習データ群122及び部分学習データ群124それぞれに含まれる学習データ123の件数の相違と、各学習済みのニューラルネットワーク(2、3)による対象物6の検品の正答率の相違具合とに基づいて、機械学習に利用した学習データ123の不足件数の程度を評価してもよい。
対象物6の検品を行う能力を十分に発揮できるか否かは、正答率の目標値に基づいて判定してもよい。すなわち、制御部11は、学習済みのニューラルネットワーク2による対象物6の検品の正答率が目標値を超えているか否かによって、対象物6の検品を行う能力を十分に発揮できるか否かを判定してもよい。正答率の目標値は、オペレータの入力、初期設定等により適宜与えられてよい。
例えば、制御部11は、学習済みのニューラルネットワーク2による対象物6の検品の正答率が目標値を超えているか否かを判定する。学習済みのニューラルネットワーク2による対象物6の検品の正答率が目標値を超えている場合には、制御部11は、機械学習に利用した学習データ123の件数に不足はなかったと認定する。一方、学習済みのニューラルネットワーク2による対象物6の検品の正答率が目標値を超えていない場合には、制御部11は、機械学習に利用した学習データ123の件数に不足があったと認定し、不足件数の程度の評価を行う。
学習データ123の不足件数の程度を評価する方法は、実施の形態に応じて適宜設定されてよい。例えば、制御部11は、学習済みのニューラルネットワーク2による対象物6の検品の正答率と目標値との差分を第1の差分として算出する。また、制御部11は、各学習済みのニューラルネットワーク(2、3)による対象物6の検品の正答率の差分を第2の差分として算出する。制御部11は、学習データ群122及び部分学習データ群124それぞれに含まれる学習データ123の件数の差分を第1の差分と第2の差分との比率に適用することで、不足件数の程度を特定してもよい。
また、例えば、図6A及び図6Bに示されるとおり、学習データ123の件数と学習済みのニューラルネットワークが対象物6の検品を行う能力の程度(正答率)との関係を示す指標(以下、「評価指標」とも記載する)が与えられてもよい。図6A及び図6Bはそれぞれ、当該評価指標の一例を模式的に例示する。詳細には、図6Aは、学習データの件数に応じて正答率が単調増加する、正答率の目標値に到達可能な評価指標の一例を示す。一方、図6Bは、正答率の目標値に到達困難な評価指標の一例を示す。各評価指標は、適宜与えられてよい。また、制御部11は、複数件の評価指標を保持してもよい。各評価指標は、所定の関数等により表現可能である。
制御部11は、与えられた評価指標に、学習データ群122及び部分学習データ群124それぞれに含まれる学習データ123の件数の相違と、各学習済みのニューラルネットワーク(2、3)による対象物6の検品の正答率の相違具合とを適用してもよい。これにより、制御部11は、機械学習に利用した学習データ123の不足件数の程度を評価することができる。
具体的には、制御部11は、学習データ群122及び部分学習データ群124それぞれに含まれる学習データ123の件数の相違と、各学習済みのニューラルネットワーク(2、3)による対象物6の検品の正答率の相違(能力の差異)具合とに最も適合する評価指標を特定する。
学習データ群122に含まれる学習データ123が、対象物6の検品を行う能力の機械学習に適切なデータである場合には、学習データ123の件数の相違及び正答率の相違具合は、図6Aで示されるような評価指標に最も適合し得る。このような場合には、制御部11は、評価指標により示される正答率の目標値を達成可能な件数と学習データ群122に含まれる学習データ123の件数との差を不足件数として算出する。これにより、制御部11は、機械学習に利用した学習データ123の不足件数の程度を評価することができる。
一方、学習データ群122に含まれる学習データ123が、対象物6の検品を行う能力の機械学習に適切なデータではない場合には、学習データ123の件数の相違及び正答率の相違具合は、図6Bで示されるような評価指標に最も適合し得る。このような場合には、制御部11は、学習データ群122に新たな学習データを追加しても、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのは困難であると評価することができる。
なお、学習データ群122と部分学習データ群124との差分となる学習データYが対象物6の検品を行う能力にあまり関係がない場合、各学習済みニューラルネットワーク(2、3)がサンプルデータ129に対して対象物6の検品を行う能力を発揮した結果の相違具合が所定以下となるケースが発生し得る。例えば、図6Bで示されるように、各学習済みニューラルネットワーク(2、3)による対象物6の検品の正答率の差が所定値以下であるケースがこれに相当する。このようなケースが発生した場合、制御部11は、学習データ群122と部分学習データ群124との差分となる学習データYは、対象物6の検品を行う能力の機械学習に不要なデータであると評価してもよい。これにより、機械学習に利用する学習データ群122の中から不要な学習データ123を削減し、機械学習の処理の効率化を図ることができる。
(ステップS106)
次のステップS106では、制御部11は、ステップS105で行った評価結果を出力する。例えば、制御部11は、ディスプレイ等の出力装置15に学習データ123の不足件数の程度を示すメッセージを出力することで、機械学習に利用する学習データ123の追加を利用者に促すことができる。また、制御部11は、学習データ群122に新たな学習データを追加しても、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのは困難であることを示すメッセージを出力装置15に出力することで、機械学習に利用する学習データ群の変更を利用者に促すことができる。更に、制御部11は、学習データ群122と部分学習データ群124との差分となる学習データYが対象物6の検品を行う能力の機械学習に不要なデータであることを示すメッセージを出力装置15に出力することで、当該学習データYの削除を利用者に促すことができる。これにより、制御部11は、本動作例に係る学習処理を終了する。
なお、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワーク2を構築することができた場合には、制御部11は、当該学習済みニューラルネットワーク2の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データとして記憶部12に格納してよい。そして、制御部11は、作成した学習結果データを、対象物6の検品を実施する情報処理装置に適宜転送してもよい。
[作用・効果]
以上のように、本実施形態に係る学習装置1、ステップS102及びS103の処理により、学習データ群122及び部分学習データ群124をそれぞれ利用して、学習済みのニューラルネットワーク(2、3)を構築する。そして、学習装置1は、ステップS104の処理により、構築した各学習済みのニューラルネットワーク(2、3)の能力の相違に基づいて、機械学習に利用した学習データ123の不足件数の程度を評価する。本実施形態によれば、この評価の結果に基づいて、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのに不足している学習データ123の件数の程度を特定することができる。
また、本実施形態では、ステップS106の出力処理により、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのに不足している学習データ123の件数を示すことができる。これにより、学習データ123の追加、及び追加した学習データ123を含む学習データ群を利用したニューラルネットワークの機械学習を繰り返し実施しなくても、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築することができるようになる。したがって、本実施形態によれば、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを速やかに作成することができるようになる。
また、本実施形態に係る学習装置1は、学習データ群122及び部分学習データ群124それぞれの機械学習の結果を比較することで、学習データ123の不足件数の程度を評価している。しかしながら、学習データ123の不足件数の程度を評価する方法は、このような例に限定されなくてもよい。本実施形態に係る学習装置1は、学習データ群122に新たな学習データ123を追加した追加学習データ群と学習データ群122との機械学習の結果を比較することで、学習データ123の不足件数の程度を評価してもよい。
ただし、このような評価方法を採用する場合、追加学習データ群を利用するよりも、部分学習データ群124を利用する方が好ましい。なぜなら、追加学習データ群を利用するよりも、部分学習データ群124を利用したほうが、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するまでにかかる作業の効率化を図ることができるからである。すなわち、部分学習データ群124は、新たな学習データ123を収集せずとも、学習データ群122から適宜作成することができる。これに対して、追加学習データ群を作成する場合には、新たな学習データ123の収集を行う分だけ、作業工程が増えてしまう。そのため、追加学習データ群を利用する形態に比べて、部分学習データ群124を利用する本実施形態では、新たな学習データ123を収集する作業回数の増加を抑えることができる分だけ、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを速やかに作成することができるようになる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
上記実施形態では、ニューラルネットワークに学習させる所定の能力として、製造ラインで製造される対象物6の検品を行う能力を例示している。そして、対象物6の検品を行う能力を発揮する際に、学習済みニューラルネットワーク2に入力する入力データは、対象物6を撮影することで得られた画像データであり、学習済みニューラルネットワーク2から出力される出力データは、対象物6の検品結果を示すデータである。しかしながら、ニューラルネットワークに学習させる所定の能力は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。学習データを適宜変更することで、ニューラルネットワークに学習させる所定の能力を適宜変更可能である。
例えば、ニューラルネットワークに学習させる所定の能力は、利用者の好みに応じて制御対象装置を制御する能力、血圧等の生体データに基づいて対象人物の将来の健康状態を推定する能力、ドライバの写る画像データに基づいて当該ドライバの状態を推定する能力等であってよい。この場合、所定の能力を発揮する際に、ニューラルネットワークに入力する入力データは、画像データ及び生体データの少なくともいずれかであってよく、ニューラルネットワークから出力される出力データは、対象物又は対象人物の状態の推定結果を示すデータであってよい。生体データは、例えば、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示すデータである。このような生体データは、心拍計等の生体センサにより取得可能である。
具体例として、利用者の好みに応じて制御対象装置を制御する能力を所定の能力としてニューラルネットワーク2に学習させてもよい。この場合、学習データ及びサンプルデータそれぞれに含まれる入力データは、例えば、制御対象装置の制御に利用する各種情報となる。また、教師データは、例えば、各種情報により示される場面における利用者の好みに応じた制御対象装置に対する制御値となる。このとき、利用者の好みに応じて制御対象装置を制御する能力を発揮する際に、学習済みニューラルネットワーク2に入力する入力データは、制御対象装置の制御に利用する各種情報となり、学習済みニューラルネットワーク2から出力される出力データは、利用者の好みに応じた制御対象装置に対する制御値となる。
また、車両のドライバの状態を推定する能力を所定の能力としてニューラルネットワーク2に学習させてもよい。この場合、学習データ及びサンプルデータそれぞれに含まれる入力データは、ドライバを撮影することで得られた画像データ及びドライバから得られた生体データの少なくともいずれかであってよい。また、教師データは、ドライバの状態(例えば、眠気の度合い、運転の集中度合い等)を示すデータであってよい。このとき、車両のドライバの状態を推定する能力を発揮する際に、学習済みニューラルネットワーク2に入力する入力データは、ドライバを撮影することで得られた画像データ及びドライバから得られた生体データの少なくともいずれかとなり、学習済みニューラルネットワーク2から出力される出力データは、ドライバの状態を示すデータとなる。
また、対象人物の健康状態を推定する能力を所定の能力としてニューラルネットワーク2に学習させてもよい。この場合、学習データ及びサンプルデータそれぞれに含まれる入力データは、対象人物から得られた生体データであってよい。また、教師データは、対象人物の健康状態(例えば、脳血管疾患、心血管疾患等の疾患を発症する可能性)を示すデータであってよい。このとき、対象人物の健康状態を推定する能力を発揮する際に、学習済みニューラルネットワーク2に入力する入力データは、対象人物から得られた生体データとなり、学習済みニューラルネットワーク2から出力される出力データは、対象人物の健康状態を示すデータとなる。
<4.2>
また、上記実施形態では、1種類の部分学習データ群124を利用して、1件の学習済みニューラルネットワーク3を構築している。しかしながら、部分学習データ群124の種類数及び構築する学習済みニューラルネットワーク3の数はそれぞれ、このような例に限定されなくてもよく、複数種類の部分学習データ群124を利用して、複数件の学習済みニューラルネットワーク3を構築してもよい。すなわち、上記実施形態に係る学習装置1の制御部11は、部分学習データ群124を複数パターン用意してもよい。この場合、制御部11は、上記ステップS103において、用意した複数パターンの部分学習データ群124を利用して、複数件の学習済みニューラルネットワーク3を構築する。次に、制御部11は、上記ステップS104において、各学習済みニューラルネットワーク3にサンプルデータ129を適用する。そして、制御部11は、上記ステップS105において、学習済みニューラルネットワーク2及び複数件の学習済みニューラルネットワーク3それぞれにサンプルデータ129を適用した結果に基づいて、機械学習に利用した学習データ123の不足件数の程度を評価する。なお、この場合、各部分学習データ群124は、構成する学習データの件数を相違するようにし、包含関係を有するようにしてもよい。すなわち、学習データ群122から徐々に学習データを減らしていくことで、各部分学習データ群124を作成してもよい。これにより、構成する学習データの件数が最も少ない学習データ群124と学習データ群122との間の状態をその他の部分学習データ群124で表現することができるため、機械学習により習得させる所定の能力に学習データの件数が与える影響を適切に表出させることができる。
<4.3>
また、上記実施形態では、部分学習データ群124により構築した学習済みのニューラルネットワーク3を利用して、機械学習に利用する学習データ123の不足件数の程度を評価している。しかしながら、学習データ123の不足件数の程度を評価する方法は、このような例に限定されなくてもよい。例えば、学習データ群122により構築した学習済みのニューラルネットワーク2による対象物6の検品の正答率のみを評価指標に適用することで、制御部11は、機械学習に利用する学習データ123の不足件数の程度を評価してもよい。すなわち、制御部11は、部分学習データ群124により構築した学習済みのニューラルネットワーク3を利用せずに、機械学習に利用する学習データ123の不足件数の程度を評価してもよい。この場合、上記ステップS103は、省略されてもよい。
<4.4>
また、図7に例示されるように、機械学習に利用する学習データ群に所定の種類に属する学習データを追加することで、機械学習に不足している学習データの種類の評価を行ってもよい。図7は、本変形例に係る学習装置1Aを模式的に例示する。この学習装置1Aでは、学習データ取得部111は、第1の種類に属する複数件の学習データ126で構成された第1の追加学習データ群125と、第1の種類とは異なる第2の種類に属する複数件の学習データ128で構成された第2の追加学習データ群127と、を更に取得する。つまり、本変形例では、学習データ取得部111は、それぞれ異なる種類の学習データで構成される複数の追加学習データ群を取得する。
学習データの属する種類は、学習データを作成する条件のパラメータにより特定可能である。本変形例の場合、学習データは、対象物6の検品を行う能力の機械学習に利用される。そのため、学習データの属する種類は、対象物6の撮影条件の変更パラメータにより特定可能である。例えば、第1の種類に属する学習データ126では、対象物6の角度を変更するようにし、第2の種類に属する学習データ128では、照明の明るさを変更するようにしてもよい。すなわち、第1の種類に属する複数件の学習データ126は、対象物6の角度を所定のピッチで変更し、それ以外の撮影条件を一定にすることで得られる複数件の画像データ1261を用いて作成することができる。第2の種類に属する複数件の学習データ128は、照明の明るさを所定のピッチで変更し、それ以外の撮影条件を一定にすることで得られる複数件の画像データ1281を用いて作成することができる。なお、各検品結果データ(1262、1282)は、上記学習データ123と同様に、紐付けられる各画像データ(1261、1281)に対応して適宜作成される。
学習処理部112は、学習データ群122及び第1の追加学習データ群125を利用して、ニューラルネットワーク40の機械学習を実施する。これにより、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク40を更に構築することができる。構築された学習済みのニューラルネットワーク40は、本発明の「第3の学習器」に相当する。また、学習処理部112は、学習データ群122及び第2の追加学習データ群127を利用して、ニューラルネットワーク41の機械学習を実施する。これにより、対象物6の検品を行う能力を学習した学習済みのニューラルネットワーク41を更に構築することができる。構築された学習済みのニューラルネットワーク41は、本発明の「第4の学習器」に相当する。なお、各ニューラルネットワーク(40、41)は、上記各ニューラルネットワーク(2、3)と同様に構成可能である。
不足件数評価部113は、各学習済みのニューラルネットワーク(40、41)が対象物6の検品を行う能力をサンプルデータ129に対して発揮した結果の相違具合、換言すると、各学習済みのニューラルネットワーク(40、41)による対象物6の検品の正答率の相違具合に基づいて、機械学習に不足している学習データの種類を特定する。例えば、学習済みのニューラルネットワーク41の方が学習済みのニューラルネットワーク40よりも対象物6の検品の正答率が高い場合には、不足件数評価部113は、学習データ群122には、第2の種類に属する学習データ、すなわち、照明の明るさを変更した学習データが不足していると評価することができる。
これらの点を除き、学習装置1Aは、上記学習装置1と同様に構成される。本変形例では、上記ステップS101〜S106の一連の処理を実行した後に、制御部11は、学習データ取得部111として動き、第1の追加学習データ群125及び第2の追加学習データ群127を取得してもよい。第1の追加学習データ群125及び第2の追加学習データ群127の取得は、上記ステップS101内で行われてもよい。次に、制御部11は、学習処理部112として動き、学習データ群122及び第1の追加学習データ群125を利用して、ニューラルネットワーク40の機械学習を実施する。また、制御部11は、学習データ群122及び第2の追加学習データ群127を利用して、ニューラルネットワーク41の機械学習を実施する。当該機械学習の処理は、上記ステップS102及びS103と同様に実施することができる。続いて、制御部11は、上記ステップS104と同様に、各学習済みのニューラルネットワーク(40、41)にサンプルデータ129を適用する。そして、制御部11は、不足件数評価部113として動き、各学習済みのニューラルネットワーク(40、41)による対象物6の検品の正答率の相違具合に基づいて、機械学習に不足している学習データの種類を特定する。
制御部11は、このようにして特定した機械学習に不足している学習データの種類をメッセージとして出力装置15により出力してもよい。これにより、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのに不足している学習データの種類を利用者に示すことができる。したがって、追加する学習データの作成を効率化することができ、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを速やかに作成することができるようになる。特に、追加する学習データの種類を限定せずに追加学習データ群を作成する形態に比べて、本変形例では、不足している学習データの種類を特定できる分だけ、追加する学習データの作成作業の効率化を図ることができる。なお、追加する学習データの種類は、2種類に限られなくてもよい。すなわち、3種類以上の追加学習データ群を利用して、追加する学習データの種類の評価を行ってもよい。
<4.5>
また、図8に例示されるように、上記ステップS105における学習データの不足件数の評価に、ニューラルネットワーク等の評価用学習器を利用してもよい。図8は、本変形例に係る学習装置1Bを模式的に例示する。本変形例に係る学習装置1Bは、学習データの不足件数の評価にニューラルネットワーク7を用いる点を除き、上記学習装置1と同様に構成される。この場合、制御部11は、上記ステップS105において、不足件数評価部113として動き、ニューラルネットワーク7を用いて、学習データ123の不足件数を評価する。
ニューラルネットワーク7は、上記各ニューラルネットワーク(2、3)と同様に構成可能である。本変形例に係るニューラルネットワーク7は、学習データ群を構成する学習データの件数及び種類を示す情報を入力すると、機械学習に利用する学習データの不足件数の程度を示す不足件数評価情報を出力するように学習済みである。学習データの種類は、上記のとおり、画像データの撮影条件により特定可能である。
制御部11は、ステップS101で取得した学習データ群122に含まれる学習データ123の件数及び種類を特定する。そして、上記ステップS105において、制御部11は、特定した学習データ123の件数及び種類を示す情報を学習済みのニューラルネットワーク7の入力層に入力し、順伝搬方向の演算処理を行うことで、不足件数評価情報に対応する出力値を出力層から取得する。この不足件数評価情報により、学習データ123の不足件数の評価を示すことができる。したがって、本変形例によれば、機械学習に利用する学習データの不足件数を比較的に容易に特定することができる。
なお、ニューラルネットワーク7は、機械学習に不足している学習データの種類を更に出力するように学習済みであってよい。このようにすることで、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを構築するのに不足している学習データの種類を利用者に示すことができる。したがって、追加する学習データの作成を効率化することができ、対象物6の検品を行う能力を十分に発揮可能な学習済みのニューラルネットワークを速やかに作成することができるようになる。
<4.6>
また、上記実施形態及び変形例では、各ニューラルネットワーク(2、3、40、41、7)として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、各ニューラルネットワーク(2、3、40、41、7)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク(2、3、40、41、7)には、畳み込み層及びプーリング層を備える畳み込みニューラルネットワークを用いてもよい。また、例えば、入力データとして時系列データを用いる場合、各ニューラルネットワーク(2、3、40、41、7)には、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークが用いられてもよい。なお、各ニューラルネットワーク(2、3、40、41、7)の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
<4.7>
また、上記実施形態及び変形例では、各学習器及び評価用学習器は、ニューラルネットワークにより構成されている。しかしながら、各学習器及び評価用学習器の種類は、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。各学習器及び評価用学習器には、例えば、サポートベクターマシン、自己組織化マップ、強化学習により学習を行う学習器等が用いられてもよい。
(付記1)
ハードウェアプロセッサと、
前記ハードウェアプロセッサで実行するプログラムを保持するメモリと、
を備える学習装置であって、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得するステップと、
取得した前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築するステップと、
サンプルデータに対して前記所定の能力を発揮するように前記第1の学習器を動作させるステップと、
前記第1の学習器が前記サンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記機械学習に利用した学習データの不足件数の程度を評価するステップと、
を実行するように構成される、
学習装置。
(付記2)
ハードウェアプロセッサにより、複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得するステップと、
ハードウェアプロセッサにより、取得した前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築するステップと、
ハードウェアプロセッサにより、サンプルデータに対して前記所定の能力を発揮するように前記第1の学習器を動作させるステップと、
ハードウェアプロセッサにより、前記第1の学習器が前記サンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記機械学習に利用した学習データの不足件数の程度を評価するステップと、
を備える、
学習方法。
1・1A・1B…学習装置、
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
111…学習データ取得部、112…学習処理部、
113…不足件数評価部、
121…学習プログラム、
122…学習データ群、123…学習データ、
1231…画像データ、1232…検品結果データ、
124…部分学習データ群、
125…第1の追加学習データ群、126…(追加の)学習データ、
1261…画像データ、1262…検品結果データ、
127…第2の追加学習データ群、128…(追加の)学習データ、
1281…画像データ、1282…検品結果データ、
129…サンプルデータ、
1291…画像データ、1292…検品結果データ、
2…ニューラルネットワーク、
21…入力層、22……中間層(隠れ層)、23…出力層、
3…ニューラルネットワーク、
31…入力層、32……中間層(隠れ層)、33…出力層、
40・41…ニューラルネットワーク、
5…カメラ、6…対象物、
7…評価用ニューラルネットワーク(評価用学習器)
9…記憶媒体

Claims (14)

  1. 複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得する学習データ取得部と、
    前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築する学習処理部と、
    前記第1の学習器がサンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記第1の学習器の機械学習に利用した学習データの不足件数の程度を評価する不足件数評価部と、
    を備える、
    学習装置。
  2. 前記学習処理部は、前記第1の学習器の機械学習に利用した前記第1の学習データ群を構成する複数件の学習データのうちの一部で構成された第2の学習データ群を利用して、前記所定の能力を学習した、第2の学習器を更に構築し、
    前記不足件数評価部は、前記第1の学習データ群及び前記第2の学習データ群それぞれに含まれる学習データの件数の相違と、前記第1の学習器及び前記第2の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合とに基づいて、前記第1の学習器の機械学習に利用した学習データの不足件数の程度を評価する、
    請求項1に記載の学習装置。
  3. 前記不足件数評価部は、学習データの件数と学習済み学習器が前記所定の能力を発揮する程度との関係を示す指標に、前記第1の学習データ群及び前記第2の学習データ群それぞれに含まれる学習データの件数の相違と、前記第1の学習器及び前記第2の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合とを適用することで、前記第1の学習器の機械学習に利用した学習データの不足件数の程度を評価する、
    請求項2に記載の学習装置。
  4. 前記不足件数評価部は、前記第1の学習器及び前記第2の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合が所定以下である場合に、前記第1の学習データ群と前記第2の学習データ群との差分となる学習データは前記学習器の機械学習に不要なデータであると評価する、
    請求項2又は3に記載の学習装置。
  5. 前記学習データ取得部は、第1の種類に属する複数件の学習データで構成された第1の追加学習データ群と、前記第1の種類とは異なる第2の種類に属する複数件の学習データで構成された第2の追加学習データ群と、を更に取得し、
    前記学習処理部は、
    前記学習データ群及び前記第1の追加学習データ群を利用して、前記所定の能力を学習した第3の学習器を更に構築し、
    前記学習データ群及び前記第2の追加学習データ群を利用して、前記所定の能力を学習した第4の学習器を更に構築し、
    前記不足件数評価部は、前記第3の学習器及び前記第4の学習器それぞれが前記サンプルデータに対して前記所定の能力を発揮した結果の相違具合に基づいて、前記学習済み学習器の機械学習に不足している学習データの種類を特定する、
    請求項1から4のいずれか1項に記載の学習装置。
  6. 前記学習器は、ニューラルネットワークにより構成される、
    請求項1から5のいずれか1項に記載の学習装置。
  7. 前記不足件数評価部は、前記学習データ群を構成する学習データの件数及び種類を示す情報を入力すると、前記機械学習に利用する学習データの不足件数の程度を示す情報を出力するように学習を行った学習済みの評価用学習器を用いて、前記機械学習に利用する学習データの不足件数の程度を評価する、
    請求項1に記載の学習装置。
  8. 前記評価用学習器は、前記機械学習に不足している学習データの種類を更に出力するように学習済みである、
    請求項7に記載の学習装置。
  9. 前記所定の能力を発揮する際に、前記第1の学習器に入力する入力データは、画像データ及び生体データの少なくともいずれかであり、前記第1の学習器から出力される出力データは、対象物又は対象人物の状態の推定結果を示すデータである、
    請求項1から8のいずれか1項に記載の学習装置。
  10. 前記所定の能力は、製造ラインで製造される対象物の検品を行う能力であり、
    前記第1の学習器に入力する入力データは、前記対象物を撮影することで得られた画像データであり、
    前記第1の学習器から出力される出力データは、前記対象物の検品結果を示すデータである、
    請求項9に記載の学習装置。
  11. 前記所定の能力は、車両のドライバの状態を推定する能力であり、
    前記第1の学習器に入力する入力データは、前記ドライバを撮影することで得られた画像データ及び前記ドライバから得られた生体データの少なくともいずれかであり、
    前記第1の学習器から出力される出力データは、前記ドライバの状態を示すデータである、
    請求項9に記載の学習装置。
  12. 前記所定の能力は、対象人物の健康状態を推定する能力であり、
    前記第1の学習器に入力する入力データは、前記対象人物から得られた生体データであり、
    前記第1の学習器から出力される出力データは、前記対象人物の健康状態を示すデータである、
    請求項9に記載の学習装置。
  13. コンピュータが、
    複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得するステップと、
    前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築するステップと、
    サンプルデータに対して前記所定の能力を発揮するように前記第1の学習器を動作させるステップと、
    前記第1の学習器が前記サンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記機械学習に利用した学習データの不足件数の程度を評価するステップと、
    を実行する、
    学習方法。
  14. コンピュータに、
    複数件の学習データで構成され、所定の能力を学習器に機械学習させるための第1の学習データ群を取得するステップと、
    前記第1の学習データ群を利用して、前記学習器の機械学習を実施することで、前記所定の能力を学習した第1の学習器を構築するステップと、
    サンプルデータに対して前記所定の能力を発揮するように前記第1の学習器を動作させるステップと、
    前記第1の学習器が前記サンプルデータに対して前記所定の能力を発揮した結果に基づいて、前記機械学習に利用した学習データの不足件数の程度を評価するステップと、
    を実行させるための学習プログラム。
JP2017091295A 2017-05-01 2017-05-01 学習装置、学習方法、及び学習プログラム Active JP6911498B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017091295A JP6911498B2 (ja) 2017-05-01 2017-05-01 学習装置、学習方法、及び学習プログラム
PCT/JP2018/015636 WO2018203470A1 (en) 2017-05-01 2018-04-16 Learning apparatus, learning method, and learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017091295A JP6911498B2 (ja) 2017-05-01 2017-05-01 学習装置、学習方法、及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2018190140A true JP2018190140A (ja) 2018-11-29
JP6911498B2 JP6911498B2 (ja) 2021-07-28

Family

ID=62092213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017091295A Active JP6911498B2 (ja) 2017-05-01 2017-05-01 学習装置、学習方法、及び学習プログラム

Country Status (2)

Country Link
JP (1) JP6911498B2 (ja)
WO (1) WO2018203470A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095448A (ja) * 2018-12-12 2020-06-18 株式会社日立ソリューションズ データ処理システム、方法、およびプログラム
JP2020155063A (ja) * 2019-03-22 2020-09-24 キヤノン株式会社 情報処理装置、及びその制御方法、プログラム、記憶媒体
JP2020187654A (ja) * 2019-05-16 2020-11-19 株式会社キーエンス 画像検査装置
JP2021005340A (ja) * 2019-06-27 2021-01-14 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
WO2021014823A1 (ja) * 2019-07-24 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2021085188A1 (ja) * 2019-10-29 2021-05-06 ソニー株式会社 バイアス調整装置、情報処理装置、情報処理方法及び情報処理プログラム
US20210295182A1 (en) * 2020-03-23 2021-09-23 Hitachi, Ltd. Machine learning system and machine learning method
JPWO2021053780A1 (ja) * 2019-09-19 2021-11-18 三菱電機株式会社 認知機能推定装置、学習装置、および、認知機能推定方法
WO2021260979A1 (ja) * 2020-06-22 2021-12-30 株式会社日立ソリューションズ データ収集システム
EP4050521A1 (en) 2021-02-26 2022-08-31 Fujitsu Limited Machine learning program, machine learning method, and information processing device
JP2022547758A (ja) * 2019-11-27 2022-11-16 オラクル・インターナショナル・コーポレイション 機械学習および処理された訓練データを用いた非侵入型負荷監視

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI791949B (zh) * 2019-03-15 2023-02-11 日商住友重機械工業股份有限公司 監視裝置、顯示裝置、監視方法及監視程式
CN111493850A (zh) * 2020-04-13 2020-08-07 中国科学院深圳先进技术研究院 一种基于深度神经网络的血压测量方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269351B1 (en) * 1999-03-31 2001-07-31 Dryken Technologies, Inc. Method and system for training an artificial neural network
JP2005100122A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
US20170061329A1 (en) * 2015-08-31 2017-03-02 Fujitsu Limited Machine learning management apparatus and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6435581B2 (ja) 2015-01-29 2018-12-12 パナソニックIpマネジメント株式会社 転移学習装置、転移学習システム、転移学習方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269351B1 (en) * 1999-03-31 2001-07-31 Dryken Technologies, Inc. Method and system for training an artificial neural network
JP2005100122A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
US20170061329A1 (en) * 2015-08-31 2017-03-02 Fujitsu Limited Machine learning management apparatus and method
JP2017049677A (ja) * 2015-08-31 2017-03-09 富士通株式会社 機械学習管理プログラム、機械学習管理装置および機械学習管理方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095448A (ja) * 2018-12-12 2020-06-18 株式会社日立ソリューションズ データ処理システム、方法、およびプログラム
JP2020155063A (ja) * 2019-03-22 2020-09-24 キヤノン株式会社 情報処理装置、及びその制御方法、プログラム、記憶媒体
JP7263074B2 (ja) 2019-03-22 2023-04-24 キヤノン株式会社 情報処理装置、及びその制御方法、プログラム、記憶媒体
JP2020187654A (ja) * 2019-05-16 2020-11-19 株式会社キーエンス 画像検査装置
JP7248496B2 (ja) 2019-05-16 2023-03-29 株式会社キーエンス 画像検査装置
JP2021005340A (ja) * 2019-06-27 2021-01-14 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
JP7353825B2 (ja) 2019-06-27 2023-10-02 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
WO2021014823A1 (ja) * 2019-07-24 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7505495B2 (ja) 2019-07-24 2024-06-25 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN114175082A (zh) * 2019-07-24 2022-03-11 索尼集团公司 信息处理设备、信息处理方法和信息处理程序
JP7031072B2 (ja) 2019-09-19 2022-03-07 三菱電機株式会社 認知機能推定装置、学習装置、および、認知機能推定方法
JPWO2021053780A1 (ja) * 2019-09-19 2021-11-18 三菱電機株式会社 認知機能推定装置、学習装置、および、認知機能推定方法
US11810373B2 (en) 2019-09-19 2023-11-07 Mitsubishi Electric Corporation Cognitive function estimation device, learning device, and cognitive function estimation method
WO2021085188A1 (ja) * 2019-10-29 2021-05-06 ソニー株式会社 バイアス調整装置、情報処理装置、情報処理方法及び情報処理プログラム
JP2022547758A (ja) * 2019-11-27 2022-11-16 オラクル・インターナショナル・コーポレイション 機械学習および処理された訓練データを用いた非侵入型負荷監視
US11636356B2 (en) 2019-11-27 2023-04-25 Oracle International Corporation Non-intrusive load monitoring using machine learning and processed training data
JP7395605B2 (ja) 2019-11-27 2023-12-11 オラクル・インターナショナル・コーポレイション 機械学習および処理された訓練データを用いた非侵入型負荷監視
US11989668B2 (en) 2019-11-27 2024-05-21 Oracle International Corporation Non-intrusive load monitoring using machine learning and processed training data
US20210295182A1 (en) * 2020-03-23 2021-09-23 Hitachi, Ltd. Machine learning system and machine learning method
JP2022002058A (ja) * 2020-06-22 2022-01-06 株式会社日立ソリューションズ データ収集システム
JP7241718B2 (ja) 2020-06-22 2023-03-17 株式会社日立ソリューションズ データ収集システム
WO2021260979A1 (ja) * 2020-06-22 2021-12-30 株式会社日立ソリューションズ データ収集システム
EP4050521A1 (en) 2021-02-26 2022-08-31 Fujitsu Limited Machine learning program, machine learning method, and information processing device

Also Published As

Publication number Publication date
JP6911498B2 (ja) 2021-07-28
WO2018203470A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6911498B2 (ja) 学習装置、学習方法、及び学習プログラム
WO2019176993A1 (ja) 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置
US20190156474A1 (en) Appearance inspection device
JP2018147474A (ja) 学習装置、学習結果利用装置、学習方法及び学習プログラム
WO2021056914A1 (zh) 一种目标检测模型的自动建模方法及装置
CN111612756B (zh) 冠状动脉特异性钙化检测方法及装置
WO2019176989A1 (ja) 検査システム、識別システム、及び学習データ生成装置
Patel Diabetic retinopathy detection and classification using pre-trained convolutional neural networks
CN110458791A (zh) 质量缺陷检测方法和检测设备
CN114864105A (zh) 一种基于社交图网络的动物疾病的预警方法和系统
CN115210724A (zh) 模型生成装置、推断装置、模型生成方法及模型生成程序
CN114730392A (zh) 解析装置、解析方法以及解析程序
CN112869697A (zh) 同时识别糖尿病视网膜病变的分期和病变特征的判断方法
CN114882014A (zh) 基于双模型的眼底图像质量评价方法、装置及相关介质
WO2019176988A1 (ja) 検査システム、識別システム、及び識別器評価装置
KR101878359B1 (ko) 정보기술을 이용한 다중지능 검사 장치 및 방법
WO2019156254A1 (ja) 検査対象の複雑系の状態を推定するシステム
Xu et al. Inception‐LSTM Human Motion Recognition with Channel Attention Mechanism
CN113469977B (zh) 一种基于蒸馏学习机制的瑕疵检测装置、方法、存储介质
Hu et al. The effects of different parameters on the accuracy of deep learning models for predicting US citizen’s life expectancy
JP7429036B2 (ja) 判定装置、モデル生成装置、判定方法及び判定プログラム
JP6326264B2 (ja) 肺疾患判別プログラム、記録媒体及び肺疾患判別方法
Borgli Hyperparameter optimization using Bayesian optimization on transfer learning for medical image classification
JP2003050631A (ja) 異常診断システムの学習データ生成方法、異常診断システムの構築プログラム、異常診断プログラム、異常診断システムの構築装置および異常診断システム
Alodat Analysing and predicting COVID-19 AI tracking using artificial intelligence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6911498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250