JP7005463B2 - 学習装置、学習方法及びプログラム - Google Patents

学習装置、学習方法及びプログラム Download PDF

Info

Publication number
JP7005463B2
JP7005463B2 JP2018182074A JP2018182074A JP7005463B2 JP 7005463 B2 JP7005463 B2 JP 7005463B2 JP 2018182074 A JP2018182074 A JP 2018182074A JP 2018182074 A JP2018182074 A JP 2018182074A JP 7005463 B2 JP7005463 B2 JP 7005463B2
Authority
JP
Japan
Prior art keywords
data
score
inference
learning
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018182074A
Other languages
English (en)
Other versions
JP2020052783A (ja
Inventor
有 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2018182074A priority Critical patent/JP7005463B2/ja
Priority to US16/580,014 priority patent/US11210566B2/en
Publication of JP2020052783A publication Critical patent/JP2020052783A/ja
Application granted granted Critical
Publication of JP7005463B2 publication Critical patent/JP7005463B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の実施形態は、推論システムのための学習装置、学習方法及びプログラムに関する。
従来より、機械学習手法を用いた認識、分類、あるいは予測などを行う推論技術が広く利用されている。
例えば、ニューラルネットワークを利用した推論装置は、学習データを用いて作成された推論モデルを用いて、入力データに対して推論などを行う。教師データとしての学習データがニューラルネットワークに与えられ、そのネットワークにおけるニューロン間の繋がりの強さを示す係数データが算出されて、推論モデルが作成される。
また、推論の精度を高めるために、学習データを追加して、推論モデルのパラメータを更新する必要が生じる場合がある。
しかし、これまでは、熟練した作業員(以下、熟練者という)などにより学習データの選定が行われ、教師データしての学習データを1つずつ追加して学習処理を実行するため、モデルのパラメータ更新に時間が掛かってしまうという問題がある。
また、選択された学習データに、例えば季節変動などにより偏りがあると、推論の精度が低下してしまうという問題がある。
特開2005-107743号公報
そこで、本実施形態は、推論モデルのパラメータ更新時間を短くすると共に、推論の精度の低下を抑制する推論システムのための学習装置、学習方法及びそのためのプログラムを提供することを目的とする。
実施形態の学習装置は、所定の分類空間における複数の分類の中から対象の状態が属する分類を推論する推論モデル学習を行う学習装置であって、前記対象についての複数のデータに対して前記推論モデルを用いた推論を実行し、前記対象の状態が属する各分類に属する確率を算出する推論部と、各データについて、前記複数の分類の各識別境界に対する前記確率の差の関数により、前記各データの前記所定の分類空間における位置の前記各識別境界からの距離に応じた所定のスコアを算出するスコア算出部と、前記複数のデータの中から前記所定のスコアに基づいて前記各識別境界からの距離が近い順にデータを選択し、選択された選択データ以外の残りのデータにおける前記選択データの識別境界と同じ識別境界のデータの前記所定のスコアを前記選択データの識別境界と同じ識別境界からの距離が遠くなるように変更する処理を、前記残りのデータに対して繰り返すスコア変更部と、前記所定のスコアが変更されたデータから前記所定のスコアに基づいて前記各識別境界からの距離が近い順に選択された所定数のデータに対して、前記所定の分類空間におけるラベルを付与するラベル付与部と、前記ラベル付与部において前記ラベルが付与されたデータを前記推論モデルの学習データに追加する学習データ作成部と、前記ラベルが付与されたデータが追加された前記学習データを用いて、前記推論モデルの更新を行うモデル更新部と、を有する。
実施形態に関わる状態監視システムの構成図である。 実施形態に関わる推論装置の構成を示すブロック図である。 実施形態に関わる、推論プログラムにおけるデータの入出力を説明するためのブロック図である。 実施形態に関わる推論の方法を説明するための図である。 実施形態に関わる、学習システムの学習装置のハードウエア構成を示すブロック図である。 実施形態に関わる学習装置の処理の構成を説明するためのブロック図である。 実施形態に関わるデータ評価部の構成を示すブロック図である。 実施形態に関わる、スコア分布のグラフの例を示す図である。 実施形態に関わる、スコア変更部による、3つの分類を規定する分類空間内の点についてのスコアの値の変更を説明するための図である。 実施形態に関わる、学習プログラムの処理の流れの例を示すフロ-チャートである。 実施形態に関わる、前処理の処理の流れの例を示すフローチャートである。 実施形態の変形例1に関わる、学習装置の処理の構成を示すブロック図である。 実施形態の変形例3に関わる、ラベル付与部における、3つの分類を規定する分類空間内の点についてのペナルティの付与の例を説明するための図である。 実施形態の変形例4に関わる、ペナルティの付与を説明するための図である。
以下、図面を参照して実施形態を説明する。
(第1の実施形態)
(全体システムの構成)
図1は、本実施形態に係わる状態監視システムの構成図である。
状態監視システム1は、推論システム2と、学習システム3を含む。ここでは、状態監視システム1は、対象物又は対象(以下、単に対象という)Pの状態が、正常であるか、あるいは異常であるかを、対象OBの画像データに基づき推論して、その推論結果を出力する。推論結果は、対象OBの状態が正常であるかあるいは異常であるか、かつ異常であるときは、予め種類分けされた異常分類のどの分類に属するかを示す情報を含む。すなわち、状態監視システム1は、対象OBを監視し、画像データに基づき、対象OBの状態を分類する分類システムである。
推論システム2と学習システム3は、ネットワーク4を介して通信可能に接続されている。例えば、ネットワーク4は、インターネットであり、学習システム3は、所謂クラウド5上の学習装置6を含む。学習装置6は、ネットワーク4に接続されたサーバであり、高速演算が可能なコンピュータである。
推論システム2は、推論した画像データを保存し管理するデータ管理装置7と接続されている。
(推論システムの構成)
推論システム2は、画像取得部11と、推論装置12と、表示装置13とを含む。
カメラ14は、対象OBを撮像して、動画像の撮像信号を生成し、画像取得部11へ出力する。対象OBは、例えば、工場の製造ラインで製造された部材、製造ラインの製造設備、あるいは対象物が処理されているときの被対象物である。
画像取得部11は、カメラ14から撮像信号を取得し、所定のフォーマットの画像データに変換して推論装置12へ出力する。
推論装置12は、入力された画像データに対して、所定の推論処理を行い、推論結果データを表示装置13に出力するコンピュータである。ここでは、推論は、ニューラルネットワークを利用した推論エンジンにより行われる。推論結果の情報が、表示装置13に表示される。
推論結果は、例えば、対象OBの正常及び異常を判定した判定結果であり、かつ、異常の場合は、判定結果は、例えば、異常1、異常2、等という異常の種類を含む。
状態監視システム1を利用するユーザは、表示装置13に表示された対象OBの分類を見て、対象OBの製造などに係わる設備あるいは機器等に対する必要なアクションを取ることができる。
推論装置12は、対象OBの状態についての分類に関する推論モデルであるモデルMに基づいて、入力された画像データから対象OBの状態がどの分類に属するかを推論する。
モデルMは、画像データが入力される入力層と、複数の隠れ層と、出力層を含むニューラルネットワークのモデルである。ニューラルネットワークにおけるニューロン間の繋がりを強さが、パラメータデータPDとして推論装置12に与えられる。
入力層には、例えば720×480の画像におけるRGBの3つの色データが入力される。入力層に入力された画像データの特徴量データは、複数の隠れ層の一部において抽出される。
なお、画像データの各種の特徴量データが、入力層に入力されるようにしてもよい。
推論装置12のモデルMのパラメータデータPDは、学習システム3において機械学習により算出され、学習システム3から与えられて設定される。
図2は、推論装置12の構成を示すブロック図である。
推論装置12は、プロセッサ21と、プログラム用のメモリ22と、画像データを入力するための入力インターフェース(以下、入力I/Fと略す)23と、推論結果データを出力するための出力インターフェース(以下、出力I/Fと略す)24と、通信インターフェース(以下、通信I/Fと略す)25を有する。
プロセッサ21は、中央処理装置(CPU)、ROM、RAMなどを含み、ROMあるいはメモリ22に格納されたプログラムを読み出して実行するハードウエアである。
メモリ22は、推論プログラムIPなどを記憶するプログラム記憶領域22aと、推論プログラムIPのパラメータデータPDを記憶するパラメータ記憶領域22bを含む記憶装置である。モデルMのパラメータデータPDは、後述するように、学習システム3から送信されて、パラメータ記憶領域22bに格納される。
なお、プログラム記憶領域22aは、後述する前処理部22cのプログラムなど、他のソフトウエアプログラムも記憶する。
プロセッサ21は、入力I/F23から受信した画像データに対して、推論プログラムIPを実行し、出力I/F24を介して推論結果の情報を表示装置13へ出力する。例えば、推論プログラムIPは、1秒毎に、サンプリングされた画像データに対して実行される。
通信I/F25は、推論装置12がネットワーク4を介して学習システム3の学習装置6と通信するための回路である。
また、図2において点線で示すように、推論装置12は、図示しないインターフェースを介してデータ管理装置7と接続されている。
推論装置12において推論に用いられた画像データは、データ管理装置7に転送されて、データ管理装置7のメモリ7aに格納される。すなわち、メモリ7aは、推論プログラムIPにより推論が行われた画像データを格納する画像データ記憶領域を含む記憶装置である。例えば、1秒毎の画像データに対して推論が行われる場合は、推論に用いられた1秒毎の画像データが、メモリ7aに格納される。
メモリ7aに格納された画像データの中から選択された画像データは、後述するように、推論システム2から学習システム3へ定期的に送信される。例えば、1週間毎に、メモリ7aに格納された画像データが、学習システム3へ送信される。
なお、ここでは、データ管理装置7の画像データは、推論装置12を介して学習システム3へ送信されるが、画像データは、データ管理装置7から学習システム3へ直接送信されるようにしてもよい。
さらになお、メモリ7aに格納された画像データの中からユーザにより選択された画像データを、ユーザがマニュアルで学習システム3へ送信することもできる。
メモリ7aに格納された画像データは、学習システム3へ転送されると、消去される。その後、推論に用いられた1秒毎の画像データは、メモリ7aに格納される。
図3は、推論プログラムにおけるデータの入出力を説明するためのブロック図である。推論プログラムIPには、画像取得部11から入力I/F23を介して入力された画像データの特徴量データを抽出する前処理部22cとしての機能が含まれる。
図3に示すように、画像取得部11からの画像データは前処理部22cに入力される。
前処理部22cは、画像データから所定の特徴量などのデータを算出して、出力する。
推論プログラムIPは、パラメータ記憶領域22bから読み出したパラメータデータPDを用いて、前処理部22cから出力されたデータに対して推論を行うプログラムである。推論プログラムIPは、前処理部22cからデータを入力し、ニューラルネットワークを用いた推論モデルであるモデルMを用いて、推論結果の情報を出力する。
推論結果の情報は、例えば、対象OBの画像と、分類毎の確率データと共に、表示装置13に表示される。
モデルMのパラメータデータPDは、上述したように学習システム3から送信される。
(推論方法)
図4は、推論の方法を説明するための図である。
ここでは、説明を簡単にするために、2次元の分類空間における3つの分類の場合の例を説明する。図4において、分類空間において、分類1,2,3は、識別境界L1,L2,L3に基づいて行われる。
推論結果は、図4において点で示されるように、各画像データの分類空間内における座標の位置あるいはベクトルとして与えられる。各点は、各画像データの分類空間内における座標の位置の位置を示す。
図4では、例えば、点P1は、分類1に属し、点P2は、分類2に属し、点P3は、分類3に属している。
また、推論プログラムIPは、各点の座標の各分類に属する確率も算出する。
例えば、点P1の座標は、識別境界L1とL3により規定される分類1の領域に属すると共に、分類空間において他の分類の領域から離れて位置している。その場合、点P1の座標について算出される分類1に属する確率Pr1は高く、分類2に属する確率Pr2及び分類3に属する確率Pr3は共に低い。
また、図4において点P11の座標は、分類1の領域に属するが、分類2の領域にも近く、かつ分類3の領域からは離れて位置している。その場合、その点P11の座標について算出される分類1に属する確率Pr1が最も高く、分類2に属する確率Pr2が確率Pr1の次に高く、かつ分類3に属する確率Pr3は低い。
以上のように、推論プログラムIPは、学習システム3から与えられたパラメータデータPDにより規定されたモデルMを用いて、入力された画像データから対象OBの状態を分類すると共に、各点の座標の各分類に属する確率も算出する。
(学習システムの構成)
学習システム3は、データ管理装置7に蓄積された画像データの中から選択された学習データを用いて、モデルMの複数のパラメータデータPDを学習して算出する。
なお、ここでは、学習システム3は、インターネット上のクラウドシステムとして構築されているが、推論システム2にLANなどの通信ラインにより接続された装置でもよい。例えば、同様の推論を行う推論システム2が複数あるとき、LANなどの通信ラインに接続された1つの学習システム3が、その複数の推論システム2のために、各推論システム2のモデルMのパラメータデータPDを算出するようにしてもよい。
図5は、学習システム3の学習装置6のハードウエア構成を示すブロック図である。
学習装置6は、プロセッサ31と、メモリ32と、通信I/F33と、入出力装置34と、入出力インターフェース(以下、入出力I/Fと略す)35を有する。
プロセッサ31は、中央処理装置(CPU)、ROM、RAMなどを含み、ROMあるいはメモリ32に格納された学習プログラムLPなどを読み出して実行するハードウエアである。
学習により算出されたモデルMの新たなパラメータデータnPDは、後述するように、学習システム3から送信されて、推論装置12のパラメータ記憶領域22bに格納される。
メモリ32は、データ記憶領域32a、プログラム記憶領域32b、パラメータ記憶領域32c及び学習データ記憶領域32dを含む。
データ記憶領域32aには、推論システム2から受信した画像データが記憶され、蓄積される。
プログラム記憶領域32bには、学習プログラムLPなどが記憶される。学習プログラムLPの構成については、後述する。
パラメータ記憶領域32cには、学習により算出されたパラメータデータnPDを記憶する。パラメータ記憶領域32cに記憶されるパラメータデータnPDは、推論システム2のパラメータ記憶領域22bに記憶されたパラメータデータPDと同一である。
学習データ記憶領域32dには、パラメータデータnPDを算出するときに使用した画像データが、学習データとして記憶される。
通信I/F33は、学習装置6がネットワーク4を介して推論システム2の推論装置12と通信するための回路である。
入出力装置34は、表示装置34a、キーボード34b、マウス34c、などを含むユーザインターフェースである。
入出力I/F35は、プロセッサ31と入出力装置34間の各種信号をやり取りするための回路である。
プロセッサ31は、入出力I/F35から受信した指示に基づいて、学習データを用いて学習プログラムLPなどを実行する。学習プログラムLPは、学習により算出されたパラメータデータnPDを、パラメータ記憶領域32cに出力する。
プロセッサ31は、学習装置6において算出された新たなパラメータデータnPDを、ネットワーク4を介して推論装置12に転送する。パラメータデータnPDは、パラメータデータPDとして、推論装置12のパラメータ記憶領域22bに格納される。
熟練者であるユーザは、定期的にあるいは任意のタイミングで、学習装置6の表示装置34aに表示された学習データの画像データに対して教示して教師データを付加して、パラメータデータnPDを算出し、推論装置12のパラメータデータPDを更新することができる。
例えば、推論システム2は、推論に用いた画像データを、一定期間例えば1週間、データ管理装置7に蓄積する。学習装置6は、定期的に例えば1週間毎に、推論に用いられた画像データを、推論システム2から受信する。すなわち、データ記憶領域32aには、過去の画像データに対して追加するように、推論システム2から定期的に受信した画像データが蓄積される。
よって、ユーザは、学習装置3が推論システム2から一定期間の画像データを受信したときに、学習プログラムLPを実行して新たなパラメータデータnPDを送信するようにしてもよいし、学習プログラムLPを実行して得られたスコアScの分布状況などを見て、パラメータデータnPDを算出し、推論装置12のパラメータデータPDを更新するようにしてもよい。
学習データ記憶領域32dに格納される学習データは、モデルMのモデル更新において用いられた画像データである。
図6は、学習装置6の処理の構成を説明するためのブロック図である。
プログラム記憶部32bに格納される学習プログラムLPは、データ評価部41、学習データ作成部42及びモデル更新部43を有している。データ評価部41、学習データ作成部42及びモデル更新部43は、ソフトウエアプログラムである。
データ評価部41は、入出力装置34からユーザの指示に応じて、データ評価を行う。データ評価は、データ記憶領域32aに記憶された画像データに対して推論を行い、推論結果から所定のスコアを算出し、算出したスコアを変更し、変更されたスコアに従って画像データを熟練者に提示して、画像データにラベルを付与させる処理を含む。
学習データ作成部42は、データ評価部41においてラベルが付与された画像データから、学習データを作成し、学習データ記憶領域32dに追加する。
モデル更新部43は、更新された学習データに基づいて、モデルMの新たなパラメータデータnPDを算出し、算出されたパラメータデータnPDをパラメータ記憶領域32cに記憶することによって、パラメータデータnPDを更新する。すなわち、モデル更新部43は、学習データを用いて、モデルMの更新を行う。
また、スコア分布表示部44は、プログラム記憶領域32bに記憶されたプログラムである。スコア分布表示部44は、後述するスコア算出部52により算出されたスコアScの分布を示すグラフを作成して、作成したグラフデータを出力するプログラムである。
図7は、データ評価部41の構成を示すブロック図である。
データ評価部41は、推論部51と、スコア算出部52と、スコア変更部53と、ラベル付与部54とを含む。
推論部51は、推論プログラムIPaを含み、画像データに対して推論プログラムIPaを実行する。推論プログラムIPaは、推論システム2において用いられている推論プログラムIPと同じプログラムであり、パラメータ記憶領域32cに記憶されたパラメータデータnPDを用いて、データ記憶領域32aに格納されている画像データに対して推論を実行する。
推論部51は、各画像データに対して分類付けを行うと共に、各分類に属する確率も算出する。
スコア算出部52は、各画像データについての各分類に属する確率データから、所定のスコアを算出する。
各画像データについての複数の特徴量を入力として、ニューラルネットワークを利用した推論処理により、各画像データの分類が推論される。多次元の分類空間内における点の座標が、識別境界により規定されたどの分類の領域に含まれるかによって、各画像データの分類が推論される。推論において、各点について、各分類に属する確率も算出される。スコアScは、その算出された確率データに基づいて、所定の分類空間における各点の識別境界からの距離の近さを数値化した値である。すなわち、スコアScは、所定の分類空間における各点の識別境界への近さに応じた値であり、距離は、所定の分類空間における各点の識別境界からの距離である。
ここでは説明を簡単にするために、図4の例を説明すると、識別境界L1の右側が分類1の領域であり、識別境界L1の左側が分類2の領域である。図4において、点P11は、識別境界Lの右側に位置しているため、点Pに対応する画像データは、分類1に属すると推論されるが、推論のときに、点P11が分類1に属する確率Pr1と、点Pが分類2に属する確率Pr2も算出される。
スコアScは、多次元空間における各分類に属する確率データに基づいて算出される。図4の例であれば、点P11が分類1に属する確率Pr1と、点P11が分類2に属する確率Pr2が、まず、推論プログラムIPaにより算出される。算出された2つの確率Pr1とPr2の差の関数により、スコアScは、算出される。
例えば、スコアScは、次の式で与えられる。
Sc=f(|Pr1-Pr2|)
ここでは、fは、2つの確率の差の絶対値の関数でかつ、差の小さい程、Scの値が大きくなり、差の大きい程、Scの値が小さくなるような関数である。スコアScは、例えば0.0から1.0の間の値となるように正規化される。簡単な例であれは、fは、2つの確率の差の絶対値の逆数を算出する式である。
点P11が識別境界L1に近いため、点P11のスコアScの値は、大きい。
一方、図4において、分類2に属する点P12は、識別境界L1から離れていてかつ分類2の領域に属するため、確率Pr2は大きく、確率Pr1は小さい。そのため、2つの確率の差が大きいため、スコアScの値は小さくなる。
なお、関数fは、2つの確率の差に応じた線形式でも、非線形式でもよい。
以上のように、スコア算出部52は、データ記憶領域32aに追加された全ての画像データのスコアScを算出する。
上述したスコア分布表示部44は、スコア算出部52において算出された複数の画像データのスコアの値の分布を示すグラフを生成する。
図8は、スコア分布のグラフの例を示す図である。縦軸は、画像データの数の軸であり、横軸は、スコアScの軸である。
図8は、スコアScが0.0から1.0の値を取るとき、複数の画像データについて算出された複数のスコアScの分布を示す。
「0.0」に近い程、当該画像データの分類空間における上位2つの識別境界から距離が遠いことを示し、「1.0」に近い程、当該画像データの分類空間における上位2つの識別界に近いことを示している。
図8において、点線は、スコアScについての所定の閾値THを示し、ユーザは、閾値THよりも大きいスコアScを有する画像データの割合を、グラフから直観的に把握できる。
すなわち、ユーザは、図8のスコアScの分布状態を見て、モデルMの状態を直観的に把握することができる。
以上のように、スコア分布表示部44は、所定のスコアScの分布を表示装置34aに表示するために分布表示データを出力する分布表示データ出力部を構成する。
図7に戻り、算出されたスコアScは、スコア変更部53により更新される。
スコア変更部53は、スコア算出部52において算出して得られた画像データのスコアScを変更する。例えば、スコアScのデータは、データ記憶領域32aに記憶された全ての画像データについて、プロセッサ31のRAMなどのバッファ領域に格納される。
スコア変更部53によりスコア変更は、同じ識別境界に近い点の画像データを学習データとして選出されないように、スコアScの値を変更する。
図9は、スコア変更部53による、3つの分類1,2,3を規定する分類空間内の点についてのスコアScの値の変更を説明するための図である。
ここでは、説明を簡単にするために5つの点のスコアScの例を説明する。図9において、SS1からSS5の各テーブルは、各画像データの分類空間内の各点A,B,C,D,Eについてのスコアと、各点に近い識別境界を示している。スコア変更部53により、各点A,B,C,D,Eについてのスコアは、SS1からSS5へ変更される。
SS1は、スコア算出部52により算出された各点のスコアを示すテーブルである。SS1では、点Aのスコアは、「0.6」であり、識別境界は、分類1と2の識別境界である「1-2」であることが示されている。点Bのスコアは、「0.3」であり、識別境界は、分類1と3の識別境界である「1-3」であることが示されている。他の点C,D,Eのスコアと識別境界も、図9に示すように示されている。
スコア変更部53は、スコアScの値が最も大きな点から順番に選択して、その選択された点以外の残りの点のスコアScの値を変更する処理を繰り返す。
図9の場合、SS1では、点AのスコアScが最も大きいので、スコア変更部53は、点Aを選択する。選択した点Aの識別境界は、「1-2」である。
スコア変更部53は、選択した点Aの識別境界と同じ識別境界の点のスコアScに対してペナルティを与える。ペナルティを与えるとは、例えば、スコアScの値を小さくすることである。
ここでは、ペナルティにより、スコアScの値は、所定値だけ減算される。SS2では、識別境界「1-2」の点Eのスコアは、所定値、ここでは0.5だけ減算されて、「0.0」に変更される。
スコア変更部53は、このようなペナルティを与える処理を実行した後の、点Aを除く残りの点B,C,D,Eの中で、スコアScの値が最も大きな点を選択する。SS2では、点DのスコアScが最も大きいので、スコア変更部53は、点Dを選択する。選択した点Dの識別境界は、「2-3」である。
スコア変更部53は、選択した点Dの識別境界と同じ識別境界の点のスコアScに対してペナルティを与える。
ここでは、ペナルティにより、識別境界「2-3」の点CのスコアScの値が、所定値だけ減算されて、「-0.4」に変更される。
その後、スコア変更部53は、点A、Dを除く残りの点B,C,Eの中で、スコアScの値が最も大きな点を選択する。SS3では、点BのスコアScが最も大きいので、スコア変更部53は、点Bを選択する。選択した点Bの識別境界は、「1-3」である。
スコア変更部53は、選択した点Bの識別境界と同じ識別境界の点のスコアScに対してペナルティを与えるが、残りの点B,C,Eの中に、識別境界が「1-3」の点はないので、ペナルティは与えられない。
その後、スコア変更部53は、点A、B、Dを除く残りの点C,Eの中で、スコアScの値が最も大きな点を選択する。SS4では、点EのスコアScが最も大きいので、スコア変更部53は、点Eを選択する。選択した点Bの識別境界は、「1-2」である。
スコア変更部53は、選択した点Bの識別境界と同じ識別境界の点のスコアScに対してペナルティを与えるが、残りの点Cの識別境界が「1-2」の点はないので、ペナルティは与えられない。
その後、SS5に示すように、スコア変更部53は、点A、B、D、Eを除く残りの点Cを選択する。
以上のように、スコア変更部53は、複数のデータ(ここでは画像データ)に付与された所定のスコアScに基づいて選択された選択データの所定の分類空間における所定の距離、ここでは同じ境界からの距離に応じて、選択データ以外のデータの所定のスコアScを変更する。ここでは、既に学習データとして選択されたデータとの距離が遠くなるように、未選択データのスコアが変更される。
すなわち、スコア変更部53は、同じ識別境界に近い点のスコアScにペナルティを与えて、スコアScの大きな点と同じ識別境界に関する点のスコアを調整する。
図7に戻り、ラベル付与部54は、入出力装置34の表示装置34aに、画像を表示し、ユーザに画像データについて教示させ(すなわちラベルを付与させて)、付与されたラベルすなわち分類のデータを、データ記憶領域32aに記憶された画像データに関連付けて記憶する処理を実行する。
ラベル付与部54は、スコア変更部53において変更されたスコアの高い順に、所定数、例えばk個、の画像データを表示装置34aに表示する。例えば、スコアの高い順に、100個の画像データが、表示装置34aに表示される。
すなわち、ラベル付与部54は、スコアScが変更された画像データを含むデータに対して、所定の分類空間におけるラベルを付与する。
画像データから対象OBの状態を判定することができる匠の作業者である熟練者が、表示装置34aに表示された画像を見て、ラベルすなわち分類の情報を入出力装置34に入力する。
ラベル付与部54は、熟練者が入力した分類すなわちラベルのデータを、画像データに関連付けて、プロセッサ31のRAMなどのバッファに記憶する。
(学習装置の作用)
推論モデルの学習装置6の処理について説明する。学習装置6は、データに基づいて所定の推論を行う推論モデルの学習を行う。
図10は、学習プログラムLPの処理の流れの例を示すフロ-チャートである。
例えば、1週間毎に、推論システム2から1週間分の画像データが学習システム3へ送信されたとき、その画像データの受信のタイミングでユーザにモデル更新処理の実行が促される。ユーザは、表示装置34aに表示された「新しい画像データに対してラベルを付与して下さい」というメッセージを見て、学習装置6に対して学習処理の実行を指示する。
ユーザが入出力装置34を操作して、学習処理の実行を学習装置6へ指示すると、プロセッサ31は、データ記憶領域32aに記憶された全ての画像データに対して推論プログラムIPaによる推論を実行する(ステップ(以下、Sと略す)11)。S11では、各画像データの各分類に属する確率Prが算出される。
プロセッサ31は、推論が実行された各画像データについての前処理を実行する(S12)。
S12の前処理では、スコア算出部52によるスコアScの算出と、スコア変更部53によるスコアScの変更が行われる。スコアScの算出は、上述したように、所定の関数により算出される。スコアScは、各画像データの分類空間における位置の各識別境界に対する近さを示す。ここでは、点が分類空間において識別境界に近い程、スコアScは高く、点が分類空間において識別境界に遠い程、スコアScは低い。
図11は、前処理(S12)の処理の流れの例を示すフローチャートである。
プロセッサ31は、推論により得られた各画像データの確率データから、データ記憶領域32aに記憶された全画像データのスコアを算出する(S21)。
S21の後、プロセッサ31は、スコアScの高い順に画像データを1つ選択する(S22)。
プロセッサ31は、図9に示したように、選択した画像データの識別境界と同じ識別境界のスコアScに対してペナルティを与えることによって、選択した画像データ以外の他の画像データのスコアScを変更する(S23)。
プロセッサ31は、前処理の終了かを判定する(S24)。前処理の終了は、全ての画像データについてS21の選択がされ、スコアの変更をする他の画像データがなくなったか否かにより、判定される。全ての画像データの選択がされていなければ(S24:NO)、処理は、S22に戻る。
全ての画像データの選択がされたとき(S24:YES)、処理は、終了する。
S21のスコアScの算出によりスコアScの高い画像が同じ識別境界に集中していたとしても、スコアScの変更処理により変更後のスコアScの高い画像は、同じ識別境界に集中することがない。
図10に戻り、プロセッサ31は、前処理により変更されたスコアScの高い順に、所定数、例えばk個、の画像データに対する分類付け処理を実行する(S13)。
具体的には、表示装置34aに、変更されたスコアScの高い順に画像データが表示され、熟練者が、その画像を見て、教示して画像データにラベル付けを行う。所定数の画像データが選択され、1つずつ表示装置34aに表示され、熟練者による教示が行われる。
分類付けの後、プロセッサ31は、学習データ作成部42により、学習データを作成する(S14)。学習データは、ディープラーニングのためのデータである。具体的には、プロセッサ31は、データ評価部41においてスコアScが付与され直された画像データの中から所定数の画像データを、データ記憶領域32aから読み出して、学習データとして学習データ記憶領域32dに追加する。
S14により、学習データが学習データ記憶領域32dに追加され、学習データ記憶領域32dには、モデルMの新しいパラメータデータnPDを算出するために用いられる最新の学習データを記憶される。
プロセッサ31は、モデル更新部43により、最新の学習データを用いて、モデルMを更新する(S15)。具体的には、モデル更新部43は、学習データ記憶領域32dに記憶されている学習データを用いて、モデルMのパラメータデータnPDを、逆伝搬法などの手法による算出する。
プロセッサ31は、学習処理を終了するかを判定する(S16)。例えば、終了するか否かの判定は、例えば、さらなる分類付けなどを行うかをユーザに問い合わせて、ユーザにより行われるようにしてもよいし、あるいは、学習データの全スコアScのうち、所定の閾値TH以上の学習データの割合が、所定値以下になったか否か(識別境界から遠い点の画像データの割合が所定値以上になったか否か)の判定により、自動的に行われるようにしてもよい。
学習処理を終了しないときは(S16:NO)、処理は、S13に戻る。
前処理において変更されたスコアScの画像データの中から、残りの未教示の画像データをスコアScの高い順に、所定数、例えばk個、選択して、分類付け(S13)の処理を実行する。
学習処理を終了する場合(S16:YES)、プロセッサ31は、算出してパラメータ記憶領域32cに記憶されているパラメータデータnPDを推論システム2へ送信する(S17)。
以上のように、上述した実施形態によれば、推論の精度を低下させないように、複数の学習データを追加することができるので、推論モデルのパラメータ更新時間を短くすることができる。
従って、上述した実施形態によれば、推論モデルのパラメータ更新時間を短くすると共に、推論の精度の低下を抑制する推論システムのための学習装置、学習方法及びそのためのプログラムを提供することができる。
特に、スコアの変更により、同じ識別境界に近い画像データのスコアが変更されるので、熟練者による教示に使用される画像データは、分類空間において、同じ識別境界に近い画像データを多く含まれないので、熟練者に複数の画像データに対して纏めて教示させることができる。
例えば、季節変動などによりスコアScの高い画像データが同じ識別境界に集中するような場合がある。季節変動などにより、特定の1つの識別境界に近いデータが多くなると、学習の結果、モデルMの推論の全体の識別精度が低下してしまう。
しかし、上述した実施形態の手法によれば、そのような場合であっても、全体の識別精度を低下させることなく、複数の学習データを用いて、短い時間で、かつ精度よく、モデルMを更新できる。
次に、上述した実施形態の変形例について説明する。
(変形例1)
上述した実施形態では、学習データは、ラベルが付与された教師データのみからなるが、熟練者による教示がされていない未教示のデータを含んでいてもよい。
未教示のデータは、画像データのスコアScに基づいて、画像データ記憶領域32aから選択して、学習データとして追加することができる。
図12は、本変形例1に関わる、学習装置6の処理の構成を示すブロック図である。
図12において、実施形態の学習装置6の構成要素と同じ構成要素については、同じ符号を付し説明は省略する。メモリ32は、未教示データ記憶領域32eを含む。
学習データ作成部42Aは、データ記憶領域32aに記憶された画像データの中から、スコアScに基づいて、未教示のデータを抽出して、メモリ32の未教示データ記憶領域32eに格納する。
上述した例であれば、前処理(S12)においてスコアScが付与されるので、学習データ作成部42Aは、そのスコアScの中から、値の小さい、すなわち識別境界から遠い画像データを、所定数、例えばL個、だけ選択し、学習データとして、未教示データ記憶領域32eに追加する。
すなわち、学習データ作成部42Aは、所定のスコアScに基づいて、所定の分類空間における所定の距離が離れたデータを、学習データとして未教示データ記憶領域32eに追加する。ここでは、所定のスコアScが所定値以下のデータが、学習データとされる。
その結果、例えば、最も推論確率の高い分類空間に属する画像データの推論確率において、最も推論確率の高い分類空間の推論確率が100%となり、他の分類空間の推論確率は、0%となるように、モデルMのパラメータデータPDは更新される。
なお、未教示の画像データを、学習データとして未教示データ記憶領域32eに登録するときの、推論確率の設定方法には種々の方法が可能であり、画像データに含まれるノイズ等も考慮して、各分類空間の推定確率を100%又は0%ではなく、20%、30%等の値になるようにしてもよい。
モデル更新部43Aは、学習データ記憶領域32dに記憶された教師データと、未教示データ記憶領域32eに記憶された未教示のデータとを用いて、モデルMのパラメータデータPDを更新する。
変形例1によれば、各分類に属する確率の高いデータも含む学習データが用いられるので、モデルMの推論精度のさらなる向上を図ることができる。
(変形例2)
上述した実施形態では、学習システム3では、ラベル付けは、熟練した作業員が行っているが、センサなどの検出値に応じて、ラベルを自動で付けるようにしてもよい。
例えば、色センサ、ガスセンサなどの出力が所定の値以上になると、所定の分類に対応するラベルを画像データに付与することができる。
例えば、図2において、点線で示すように、推論装置12は、入出力I/F35にセンサ61に接続され、プロセッサ21が、画像データの取得タイミングに関連付けてセンサ61からの検出値を取得する。センサ61の検出値は、メモリ7aに、画像データに関連付けられて記憶され、学習システム3に送信される。
そして、ラベル付与部54は、センサ61の検出値に応じて予め設定されたラベルデータを保持している。ラベル付与部54は、センサ61の検出値に応じて、各画像データに自動的にラベルを付与することができる。
よって、ラベル付与部54により自動的にラベリングができるので、作業効率を高めることができる。
(変形例3)
上述した実施形態では、ラベル付与部54は、前処理において算出され変更されたスコアScの高い順に画像データをユーザに提示しているが、提示された画像データに対して付与されたラベルに応じて、変更されたスコアScをさらに変更するようにしてもよい。
例えば、図10の分類付け(S13)では、ユーザは、提示された画像を見て、その画像データにラベルを付与するが、未選択の画像データの中で、付与されたラベルと同じラベルに属すると推論される画像データのスコアScに対してペナルティが付与されるようにしてもよい。
図13は、本変形例3に関わる、ラベル付与部54における、3つの分類1,2,3を規定する分類空間内の点についてのペナルティの付与の例を説明するための図である。図9と同様に、SS11からSS12の各テーブルは、各画像データの分類空間内の各点A,B,C,D,Eについてのスコアと、各点に近い識別境界と、分類とを示している。
分類は、各分類に属する確率が最も高い分類である。
ラベル付与部54では、最もスコアScの高い画像データがユーザに提示され、ユーザがその画像データに対して分類を付与する。図13では、画像データAに対して分類2が付与されたとする。
その場合、分類2に属すると推論される未教示の画像データのスコアScに対してペナルティ処理が、ここでは、スコアScの値を所定値だけ小さくする処理が実行される。
図13では、SS12に示すように、点Aと同じ分類の点DのスコアScに対してペナルティが付与され、点DのスコアScが小さくされている。
ここでは、ラベル付与部54において、複数の画像データに付与された所定のスコアScに基づいて選択された選択データに付与されたラベルに応じて、選択データ以外のデータの所定のスコアを変更するスコア変更処理が実行される。
すなわち、ラベル付与部54は、ラベルが付与された画像データに対して所定の分類空間における距離が近いデータの所定のスコアScを変更する。
本変形例によれば、ユーザのラベリングにおいて偏りがあった場合に、特定の識別境界あるいは特定の分類にラベリングが集中することを抑制することができる。
(変形例4)
変形例3では、ユーザにより付与されたラベルに応じて、同じラベルのスコアScに対してペナルティが付与されるが、ラベルが付与された画像データの分類空間内の位置に対する距離に応じてペナルティを付与するようにしてもよい。
図14は、本変形例4に関わる、ペナルティの付与を説明するための図である。図14は、図4と同様に、2次元の分類空間における3つの分類の場合の例を示す。
図14において、点P21にラベルが付与されたときは、点P21に最も近い点P22のスコアScに対してペナルティを付与する。
その結果、分類空間内において教師データに最も近い画像データが、学習データとして使用される確率を低くすることができる。
なお、ペナルティは、教師データに最も近い点だけでなく、他の近い画像データに対しても付与するようにしてもよい。
例えば、図14において、点P23と点P21間の距離は、L2で、点P22と点P21間の距離は、L1で、L1<L2であり、点P23は、点P22よりも、点P21に遠い。各距離L1,L2は、所定の分類空間における、選択された画像データの点P21の位置から距離である。
このようなユーザにより教示された画像データの点に近い複数の点に対しては、教師データとの距離に応じたペナルティを付与する。その結果、点P23には、点P22へのペナルティよりも小さいペナルティが与えられる。
なお、この距離に応じたペナルティの付与は、教師データから所定の距離内の点に対して実行するようにしてもよい。すなわち、距離に比例したペナルティを与えるようにしてもよい。あるいは特徴量ベクトルの差に比例したペナルティを与えるようにしてもよい。
すなわち、スコア変更部53は、複数の画像データに付与された所定のスコアScに基づいて選択された選択データの所定の分類空間における所定の距離、ここでは、選択データの位置に対する選択データ以外のデータの距離に応じて、選択データ以外のデータの前記所定のスコアを変更する。
(変形例5)
以上の実施形態及び各変形例では、スコアScの値は、高い程、識別境界に近いことなどを示しているが、小さい程、識別境界などに近いことを示すような値でもよい。
その場合、ラベル付与部54は、スコアScの順に画像データを表示装置34aに表示し、ペナルティは、スコアScの値を大きくするように付与される。
(変形例6)
以上の実施形態及び各変形例は、ニューラルネットワークを利用したディープラーニングための学習装置の例で説明したが、SVM(Support Vector Machine)、線形回帰、ベイジアンネットワーク、ランダムフォレスト、K平均法、遺伝的アルゴリズムなどの他の学習方式の学習装置においても適用可能である。
(変形例7)
また、上述した実施形態及び各変形例では、学習する対象データは、画像データであるが、上述した実施形態及び変形例は、音響データなど他のデータにも適用可能である。
以上のように、上述した実施形態及び変形例によれば、推論モデルのパラメータ更新時間を短くすると共に、推論の精度の低下を抑制する推論システムのための学習装置、学習方法及びそのためのプログラムを提供することができる。
なお、本実施形態及び各変形例においては、学習装置6の各部が、個々の電子回路として構成されていてもよく、または、FPGA(Field Programmable Gate Array)等の集積回路における回路ブロックとして構成されていてもよい。また、本実施形態においては、例えば、学習装置6が2つ以上のCPUを具備して構成されていてもよい。
さらに、以上で説明した動作を実行するプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM等の可搬媒体や、ハードディスク等の記憶媒体に、その全体あるいは一部が記録され、あるいは記憶されている。そのプログラムがコンピュータにより読み取られて、動作の全部あるいは一部が実行される。あるいは、そのプログラムの全体あるいは一部について通信ネットワークを介して流通または提供することができる。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本発明の学習装置を有している状態監視システムを実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として例示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 状態監視システム、2 推論システム、3 学習システム、4 ネットワーク、5 クラウド、6 学習装置、7 データ管理装置、7a メモリ、11 画像取得部、12 推論装置、13 表示装置、14 カメラ、21 プロセッサ、22 メモリ、22a プログラム記憶領域、22b パラメータ記憶領域、22c 前処理部、23 入力インターフェース、24 出力インターフェース、25 通信力インターフェース、31 プロセッサ、32 メモリ、32a データ記憶領域、32b プログラム記憶領域、32c パラメータ記憶領域、32d 学習データ記憶領域、32e 未教示データ記憶領域、33 通信力インターフェース、34 入出力装置、34a 表示装置、34b キーボード、34c マウス、35 入出力インターフェース、41 データ評価部、42、42A 学習データ作成部、43、43A モデル更新部、44 スコア分布表示部、51 推論部、52 スコア算出部、53 スコア変更部、54 ラベル付与部、61 センサ。

Claims (6)

  1. 所定の分類空間における複数の分類の中から対象の状態が属する分類を推論する推論モデル学習を行う学習装置であって、
    前記対象についての複数のデータに対して前記推論モデルを用いた推論を実行し、前記対象の状態が属する各分類に属する確率を算出する推論部と、
    各データについて、前記複数の分類の各識別境界に対する前記確率の差の関数により、前記各データの前記所定の分類空間における位置の前記各識別境界からの距離に応じた所定のスコアを算出するスコア算出部と、
    前記複数のデータの中から前記所定のスコアに基づいて前記各識別境界からの距離が近い順にデータを選択し、選択された選択データ以外の残りのデータにおける前記選択データの識別境界と同じ識別境界のデータの前記所定のスコアを前記選択データの識別境界と同じ識別境界からの距離が遠くなるように変更する処理を、前記残りのデータに対して繰り返すスコア変更部と、
    前記所定のスコアが変更されたデータから前記所定のスコアに基づいて前記各識別境界からの距離が近い順に選択された所定数のデータに対して、前記所定の分類空間におけるラベルを付与するラベル付与部と、
    前記ラベル付与部において前記ラベルが付与されたデータを前記推論モデルの学習データに追加する学習データ作成部と、
    前記ラベルが付与されたデータが追加された前記学習データを用いて、前記推論モデルの更新を行うモデル更新部と、
    を有する、学習装置。
  2. 前記学習データ作成部は、前記所定のスコアが所定値以下のデータを、前記学習データに追加する、請求項に記載の学習装置。
  3. 前記所定のスコアの分布を表示装置に表示するために分布表示データを出力する分布表示データ出力部を、さらに有する、請求項1に記載の学習装置。
  4. 前記学習データは、ディープラーニングのためのデータである、請求項1に記載の学習装置。
  5. 推論部とスコア算出部とスコア変更部とラベル付与部と学習データ作成部とモデル更新部とを具備したコンピュータを用い、所定の分類空間における複数の分類の中から対象の状態が属する分類を推論する推論モデル学習を行う学習方法であって、
    前記推論部により、前記対象についての複数のデータに対して前記推論モデルを用いた推論を実行し、前記対象の状態が属する各分類に属する確率を算出し、
    前記スコア算出部により、各データについて、前記複数の分類の各識別境界に対する前記確率の差の関数により、前記各データの前記所定の分類空間における位置の前記各識別境界からの距離に応じた所定のスコアを算出し、
    前記スコア変更部により、前記複数のデータの中から前記所定のスコアに基づいて前記各識別境界からの距離が近い順にデータを選択し、選択された選択データ以外の残りのデータにおける前記選択データの識別境界と同じ識別境界のデータの前記所定のスコアを前記選択データの識別境界と同じ識別境界からの距離が遠くなるように変更する処理を、前記残りのデータに対して繰り返し
    前記ラベル付与部により、前記所定のスコアが変更されたデータから前記所定のスコアに基づいて前記各識別境界からの距離が近い順に選択された所定数のデータに対して、前記所定の分類空間におけるラベルを付与し、
    前記学習データ作成部により、前記ラベルが付与されたデータを前記推論モデルの学習データに追加し、
    前記モデル更新部により、前記ラベルが付与されたデータが追加された前記学習データを用いて、前記推論モデルの更新を行う、
    学習方法。
  6. 所定の分類空間における複数の分類の中から対象の状態が属する分類を推論する推論モデル学習を行うためのプログラムであって、
    前記対象についての複数のデータに対して前記推論モデルを用いた推論を実行し、前記対象の状態が属する各分類に属する確率を算出する手順と、
    各データについて、前記複数の分類の各識別境界に対する前記確率の差の関数により、前記各データの前記所定の分類空間における位置の前記各識別境界からの距離に応じた所定のスコアを算出する手順と、
    前記複数のデータの中から前記所定のスコアに基づいて前記各識別境界からの距離が近い順にデータを選択し、選択された選択データ以外の残りのデータにおける前記選択データの識別境界と同じ識別境界のデータの前記所定のスコアを前記選択データの識別境界と同じ識別境界からの距離が遠くなるように変更する処理を、前記残りのデータに対して繰り返す手順と、
    前記所定のスコアが変更されたデータから前記所定のスコアに基づいて前記各識別境界からの距離が近い順に選択された所定数のデータに対して、前記所定の分類空間におけるラベルを付与する手順と、
    前記ラベルが付与されたデータを前記推論モデルの学習データに追加する手順と、
    前記ラベルが付与されたデータが追加された前記学習データを用いて、前記推論モデルの更新を行う手順と、
    をコンピュータに実行させるためのプログラム。
JP2018182074A 2018-09-27 2018-09-27 学習装置、学習方法及びプログラム Active JP7005463B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018182074A JP7005463B2 (ja) 2018-09-27 2018-09-27 学習装置、学習方法及びプログラム
US16/580,014 US11210566B2 (en) 2018-09-27 2019-09-24 Training apparatus, training method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182074A JP7005463B2 (ja) 2018-09-27 2018-09-27 学習装置、学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020052783A JP2020052783A (ja) 2020-04-02
JP7005463B2 true JP7005463B2 (ja) 2022-01-21

Family

ID=69946867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182074A Active JP7005463B2 (ja) 2018-09-27 2018-09-27 学習装置、学習方法及びプログラム

Country Status (2)

Country Link
US (1) US11210566B2 (ja)
JP (1) JP7005463B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200202243A1 (en) * 2019-03-05 2020-06-25 Allegro Artificial Intelligence Ltd Balanced federated learning
US11507779B1 (en) * 2020-07-24 2022-11-22 Norfolk Southern Corporation Two-stage deep learning framework for detecting the condition of rail car coupler systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (ja) 1999-11-29 2001-06-08 Hitachi Ltd 欠陥画像の分類方法及びその装置並びにそれを用いた半導体デバイスの製造方法
JP2005107743A (ja) 2003-09-29 2005-04-21 Nec Corp 学習システム
JP2017167834A (ja) 2016-03-16 2017-09-21 セコム株式会社 学習データ選択装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693683B2 (en) * 2004-11-25 2010-04-06 Sharp Kabushiki Kaisha Information classifying device, information classifying method, information classifying program, information classifying system
WO2008102255A1 (en) * 2007-02-23 2008-08-28 Gioacchino La Vecchia System and method for routing tasks to a user in a workforce
US9047562B2 (en) * 2010-01-06 2015-06-02 Nec Corporation Data processing device, information storage medium storing computer program therefor and data processing method
EP2990999A1 (en) * 2014-08-29 2016-03-02 Accenture Global Services Limited A machine-learning system to optimise the performance of a biometric system
US10832162B2 (en) * 2016-09-08 2020-11-10 International Business Machines Corporation Model based data processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (ja) 1999-11-29 2001-06-08 Hitachi Ltd 欠陥画像の分類方法及びその装置並びにそれを用いた半導体デバイスの製造方法
JP2005107743A (ja) 2003-09-29 2005-04-21 Nec Corp 学習システム
JP2017167834A (ja) 2016-03-16 2017-09-21 セコム株式会社 学習データ選択装置

Also Published As

Publication number Publication date
US20200104644A1 (en) 2020-04-02
US11210566B2 (en) 2021-12-28
JP2020052783A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
US10737385B2 (en) Machine learning device, robot system, and machine learning method
KR102012676B1 (ko) 콘텐츠 추천 방법, 장치 및 시스템
US11501161B2 (en) Method to explain factors influencing AI predictions with deep neural networks
US9547818B2 (en) Apparatus and method for learning a model corresponding to time-series moving image/video input data
JP2018195308A (ja) プロセス及び製造業における業績評価指標のデータに基づく最適化のための方法及びシステム
US20190347285A1 (en) Electronic device for determining emotion of user and method for controlling same
US11501215B2 (en) Hierarchical clustered reinforcement machine learning
US11899787B2 (en) Information processing system, inference method, attack detection method, inference execution program and attack detection program
EP3745326A1 (en) Method for determining a plurality of trained machine learning models
US11562567B2 (en) Observed-object recognition system and method
WO2020004049A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7005463B2 (ja) 学習装置、学習方法及びプログラム
CN113642740A (zh) 模型训练方法及装置、电子设备和介质
KR20200080418A (ko) 단말기 및 그의 동작 방법
US20190275672A1 (en) Information processing apparatus and information processing method
JP7363910B2 (ja) 表示方法、表示プログラム及び情報処理装置
KR102507141B1 (ko) 판매자 및 구매자 간의 채팅 기반 it 인프라 장비의 구매 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102340867B1 (ko) 수산물의 판매량을 추정하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
US20210374624A1 (en) Electronic apparatus and method of controlling the same
JP7363912B2 (ja) 表示方法、表示プログラム及び情報処理装置
JP7363911B2 (ja) 表示方法、表示プログラム及び情報処理装置
JP2021077206A (ja) 学習方法、評価装置、及び評価システム
US11900327B2 (en) Evaluation adjustment factoring for bias
US20240249557A1 (en) Systems and methods for determining user intent based on image-captured user actions
EP4414900A1 (en) Learning device, learning method, sensing device, and data collection method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105

R150 Certificate of patent or registration of utility model

Ref document number: 7005463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150