JP6877978B2 - 学習装置、学習方法およびプログラム - Google Patents

学習装置、学習方法およびプログラム Download PDF

Info

Publication number
JP6877978B2
JP6877978B2 JP2016236383A JP2016236383A JP6877978B2 JP 6877978 B2 JP6877978 B2 JP 6877978B2 JP 2016236383 A JP2016236383 A JP 2016236383A JP 2016236383 A JP2016236383 A JP 2016236383A JP 6877978 B2 JP6877978 B2 JP 6877978B2
Authority
JP
Japan
Prior art keywords
data
learning
sensor
sensor data
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016236383A
Other languages
English (en)
Other versions
JP2018092453A (ja
Inventor
青木 教之
教之 青木
中村 暢達
暢達 中村
大輝 横田
大輝 横田
真則 高岡
真則 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Communication Systems Ltd
Original Assignee
NEC Corp
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Communication Systems Ltd filed Critical NEC Corp
Priority to JP2016236383A priority Critical patent/JP6877978B2/ja
Publication of JP2018092453A publication Critical patent/JP2018092453A/ja
Application granted granted Critical
Publication of JP6877978B2 publication Critical patent/JP6877978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習によってデータを学習する学習装置、学習方法およびプログラムに関する。
一般に、複数のセンサから出力される数値データは、数値データのままでデータ分析されたり、データ種別ごとにグラフ化することでデータ分析されたりする。数値で表現されるセンサデータのままでは、重みづけによって注目すべき部分を目立たせることが容易ではなく、一見しただけではデータ特性を掴みづらかった。
特許文献1には、複数の機器から出力された時系列データを処理する機器データ処理装置について開示されている。特許文献1の装置は、第1座標軸に時刻を割り当て、第2座標軸に複数の機器を割り当てることによって座標空間を規定する。そして、特許文献1の装置は、複数の機器から収集された時系列データを、各時系列データの値に応じた輝度値で表示するための画像を生成する。
また、複数のセンサから出力される数値データを機械学習する場合、複数のセンサから出力される数値データごとに学習モデルを作成し、データ種別ごとに学習モデルに入力した結果を判別する必要があった。
特許文献2には、畳み込みニューラルネットワークを用いて、画像データが複数のカテゴリのいずれに属するかを算出する画像処理装置について開示されている。特許文献2の装置は、第1の係数を用いて畳み込み処理を行い、畳み込み処理結果について第2の係数を用いて全結合処理を行うことによって、画像データがいずれのカテゴリに属するのかを算出する。そして、特許文献2の装置は、全結合処理結果について、カテゴリごとに正規化を行う。特許文献2の装置は、第1の係数をカテゴリに対して共通に学習する一方で、第2の係数をカテゴリごとに学習する。
特開2015−215709号公報 特開2016−033806号公報
特許文献1の装置によれば、複数の機器が設置された設備等の状況をユーザにとって把握しやすい画像として提示することが可能となる。そのため、特許文献1の装置によれば、提示された画像を一見するだけで、データの特徴を把握することが可能となる。しかし、特許文献1の装置は、時系列データの値に応じて輝度値を設定するため、一つの機器から時系列データを得るために時間が掛かるという問題点があった。また、特許文献1の装置は、相関度の高い時系列データ同士が近接するように並び替えを行うが、相関度が高くても信号の周期が異なる場合には、画像情報に特徴が表れにくいという問題点があった。
特許文献2の装置によれば、画像データの適切なカテゴリ分類を支援することができる。しかし、特許文献2の装置は、カテゴリごとに画像データを全結合処理するため、カテゴリが多岐に渡る際には演算量が大きくなり、演算時間が増大するという問題点があった。
本発明の目的は、上述の課題を解決するため、複数の数値データをまとめて分析しやすい形式に変換するとともに、複数の数値データを機械学習によって一度に学習することができる学習装置を提供することにある。
本発明の一態様に係る学習装置は、複数のセンサデータを取得して、取得した複数のセンサデータに数値に基づいた画素情報を設定し、設定された画素情報を統合することによって画像データを生成する変換処理手段と、変換処理手段によって生成された画像データを取得して、取得した画像データに教師ラベルを付与することによって学習用データを生成するラベル付与手段と、ラベル付与手段によって生成された学習用データを取得して、学習用データを機械学習して学習モデルを生成し、生成した学習モデルを格納する機械学習エンジンとを備える。
本発明の一態様に係る学習方法は、複数のセンサデータを取得して、取得した複数のセンサデータに数値に基づいた画素情報を設定し、設定した画素情報を統合することによって画像データを生成し、生成した画像データに教師ラベルを付与することによって学習用データを生成し、生成した学習用データを機械学習して学習モデルを生成し、生成した学習モデルを格納する
本発明の一態様に係るプログラムは、複数のセンサデータを取得する処理と、取得した複数のセンサデータに数値に基づいた画素情報を設定する処理と、設定した画素情報を統合することによって画像データを生成する処理と、生成した画像データに教師ラベルを付与することによって学習用データを生成する処理と、生成した学習用データを機械学習して学習モデルを生成する処理と、生成した学習モデルを格納する処理とをコンピュータに実行させる。
本発明によれば、複数の数値データをまとめて分析しやすい形式に変換するとともに、複数の数値データを機械学習によって一度に学習することができる学習装置を提供することが可能になる。
本発明の第1の実施形態に係る学習装置の構成を示すブロック図である。 本発明の第1の実施形態に係る学習装置が用いるセンサデータを格納するセンサデータと複数のセンサとの接続例を示す概念図である。 本発明の第1の実施形態に係る学習装置が備える変換処理手段の構成を示すブロック図である。 本発明の第1の実施形態に係る学習装置が備えるデータ変換手段の構成を示すブロック図である。 本発明の第1の実施形態に係る学習装置が備えるデータ変換手段の動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る学習装置が用いる複数のセンサデータをまとめたテーブルの一例である。 本発明の第1の実施形態に係る学習装置が用いる複数のセンサデータを画像データに変換した一例を示す概念図である。 本発明の第1の実施形態に係る学習装置が用いる複数のセンサデータをまとめたテーブルの別の一例である。 本発明の第1の実施形態に係る学習装置が用いる複数のセンサデータを画像データに変換した別の一例を示す概念図である。 本発明の第1の実施形態に係る学習装置が備えるラベル付与手段の構成を示すブロック図である。 本発明の第1の実施形態に係る学習装置が備える機械学習エンジンの構成を示すブロック図である。 本発明の第2の実施形態に係る学習装置が備えるデータ変換手段の構成を示すブロック図である。 本発明の第2の実施形態に係る学習装置が備えるデータ変換手段の動作の一例を示すフローチャートである。 本発明の第3の実施形態に係る学習装置が備えるデータ変換手段の構成を示すブロック図である。 本発明の第3の実施形態に係る学習装置が備えるデータ変換手段の動作の一例を示すフローチャートである。 本発明の第4の実施形態に係る学習装置の構成を示すブロック図である。 本発明の第4の実施形態に係る学習装置が備える機械学習エンジンの構成を示すブロック図である。 本発明の各実施形態に係るハードウェア構成の一例である。
以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。また、図面中の矢印の向きは、一例を示すものであり、ブロック間の信号の向きを限定するものではない。
(第1の実施形態)
まず、本発明の第1の実施形態に係る学習装置について図面を参照しながら説明する。
図1は、本実施形態の学習装置1の構成を示すブロック図である。図1のように、学習装置1は、変換処理手段10、ラベル付与手段20、機械学習エンジン30を備える。
学習装置1は、センサデータベース50に接続される。学習装置1は、センサデータベース50から複数のセンサデータを取得する。センサデータは、複数のセンサから出力される数値データである。なお、学習装置1とセンサデータベース50とを組み合わせた学習システムを構成してもよい。
例えば、複数のセンサデータは、単一の装置に搭載された複数のセンサから取得されたデータによって構成される。また、例えば、複数のセンサデータは、複数の装置の同様箇所から取得されたデータによって構成される。また、例えば、複数のセンサデータは、特定の環境に配置された複数のセンサによって取得されたデータによって構成される。ただし、本実施形態の学習装置1が扱う複数のセンサデータは、ここで挙げた限りではない。本実施形態の学習装置1が扱う複数のセンサデータは、任意のデータを組み合わせたデータでもよく、必ずしもセンサによって取得されたデータではなくてもよい。
変換処理手段10は、センサデータベース50から複数のセンサデータを取得する。変換処理手段10は、複数のセンサデータの数値に基づいて設定された画素情報を統合することによって画像データを生成する。変換処理手段10は、変換した画像データをラベル付与手段20に出力する。
画素情報とは、画像データを構成する画素ごとに設定される情報である。例えば、画像情報は、輝度情報やRGB(Red-Green-Blue)情報などの情報である。例えば、変換処理手段10は、取得した複数のセンサデータを輝度情報に変換して統合することによって、複数のセンサデータを数値データから画像データの形式に変換する。なお、変換処理手段10は、複数のセンサデータを輝度情報以外の画素情報に変換して統合してもよい。
例えば、変換処理手段10は、PC(Personal Computer)やサーバ等にインストールされたソフトウェアによって実現できる。なお、変換処理手段10は、変換処理を実行する回路によって実現してもよい。
ラベル付与手段20は、変換処理手段10から出力された画像データに学習用の教師ラベルを付与することによって学習用データを生成する。ラベル付与手段20は、生成した学習用データを機械学習エンジン30に出力する。
例えば、ラベル付与手段20は、PCやサーバ等にインストールされたソフトウェアによって実現できる。なお、ラベル付与手段20は、ラベル付与処理を実行する回路によって実現してもよい。
機械学習エンジン30は、ラベル付与手段20から学習用データを取得し、取得した学習用データを機械学習して学習モデルを作成する。
例えば、機械学習エンジン30は、PCやサーバ等にインストールされたソフトウェアによって実現できる。なお、機械学習エンジン30は、機械学習を実行するように設計された専用の装置によって実現してもよい。
本実施形態に係る学習装置1の特徴の一つは、機械学習エンジン30にセンサデータを入力する前に、変換処理手段10によってセンサデータを数値データから画像データに変換することである。
図2は、センサデータベース50が、センサデータ取得手段71を介して複数のセンサ70−1〜nに接続される一例を示すブロック図である(nは自然数)。例えば、複数のセンサ70−1〜nは、機器や設備に搭載されたり、構造物に設置されたり、外部環境に配備されたりし、状況に応じたセンサデータを取得する。例えば、光センサや電磁波センサ、振動センサ、加速度センサ、流量センサ、磁気センサ、電流センサ、電圧センサ、温度センサ、湿度センサ、バイオセンサなどをセンサ70として用いることができる。また、例えば、カメラや赤外線カメラなどをセンサ70として用いることができる。ただし、センサ70の種類は、ここで挙げた限りではなく、学習対象となるデータに合わせて選択される。また、センサデータベース50は、センサから取得されたデータのみならず、任意の数値データを格納できる。
複数のセンサ70−1〜nは、センサデータ取得手段71からの要望に応じて、センサデータをセンサデータ取得手段71に送信する。センサデータ取得手段71は、複数のセンサ70−1〜nから受信したセンサデータをセンサデータベース50に格納する。例えば、センサデータ取得手段71は、複数のセンサ70−1〜nと無線または有線で接続され、ネットワークを介してセンサデータベース50にセンサデータを格納する。また、例えば、センサデータ取得手段71は、ネットワークを介して複数のセンサ70−1〜nからセンサデータを受信し、受信したセンサデータをセンサデータベース50に格納する。センサデータ取得手段71は、センサデータベース50と一体の装置として構成してもよいし、センサデータベース50とは別の装置として構成してもよい。
次に、学習装置1の詳細構成について図面を参照しながら説明する。
〔変換処理手段〕
図3は、変換処理手段10の詳細構成を示すブロック図である。図3のように、変換処理手段10は、入力手段11、データ変換手段13、画像データ出力手段15を有する。本実施形態においては、画素情報として輝度情報を用いる例について説明する。
入力手段11は、センサデータベース50からセンサデータを読み込む。入力手段11は、読み込んだセンサデータをデータ変換手段13に出力する。
データ変換手段13は、入力手段11からセンサデータを取得する。データ変換手段13は、取得した複数のセンサデータを数値データから輝度情報へ変換後、それらの輝度情報を統合して輝度画像に変換する。
画像データ出力手段15は、データ変換手段13によって変換された輝度画像を画像データとして出力する。
〔データ変換手段〕
次に、データ変換手段13の詳細構成について図面を参照しながら説明する。図4は、データ変換手段13の詳細構成を示すブロック図である。図4のように、データ変換手段13は、輝度データ生成手段133、画像生成手段135を有する。輝度データ生成手段133は、画素データ生成手段の一形態である。
輝度データ生成手段133は、複数のセンサデータを数値データから輝度情報へ変換する。輝度データ生成手段133は、数値データであるセンサデータの数値の大きさに合わせて輝度を設定する。
例えば、輝度データ生成手段133は、複数のセンサデータのうち、数値が最大である画素の輝度を0(黒)、数値が最小である画素の輝度を1(白)に設定する。そして、輝度データ生成手段133は、最小値と最大値の間の値に関しては、最小値から最大値にかけて徐々に輝度が変化するように輝度を設定する。そのように輝度を設定すれば、輝度データ生成手段133は、任意の複数のセンサデータに輝度を設定できる。なお、輝度データ生成手段133は、複数のセンサデータのうち、数値が最大である画素の輝度を1(白)、数値が最小である画素の輝度を0(黒)に設定してもよい。また、輝度データ生成手段133は、数値が最大である画素の輝度を0(黒)よりも大きめに設定し、数値が最小である画素の輝度を1(白)よりも小さめに設定することによって、数値の上限および下限を境界値からずらしてもよい。
画像生成手段135は、輝度データ生成手段133によって輝度情報に変換されたセンサデータを統合して画像データに変換する。なお、画像生成手段135は、各輝度情報に変換された各データを、予め設定された組み合わせ方で統合することが好ましい。
ここで、データ変換手段13の動作について図面を参照しながら説明する。図5は、データ変換手段13の動作について説明するためのフローチャートである。なお、図5のフローチャートに沿った説明においては、データ変換手段13を主体として説明する。
図5において、まず、データ変換手段13は、センサデータベース50からセンサデータを取得する(ステップS11)。
次に、データ変換手段13は、センサデータベース50から取得したセンサデータを輝度情報に変換する(ステップS12)。
次に、データ変換手段13は、輝度情報に変換されたセンサデータを統合し、画像データを生成する(ステップS13)。
そして、データ変換手段13は、生成した画像データを出力する(ステップS14)。
以上が、データ変換手段13の動作についての説明である。本実施形態では、データ変換手段13によって生成された画像データを機械学習エンジン30によって学習し、学習モデルを作成する。
〔画像データ〕
ここで、データ変換手段13が生成する画像データについて一例を挙げて説明する。図6は、学習装置1が用いる複数のセンサデータをまとめたテーブルの一例(センサデータテーブル101)である。図6のセンサデータテーブル101は、1〜12の番号が付けられた複数のセンサによって取得されたセンサデータをまとめたものである。例えば、センサデータテーブル101は、所定のタイミングにおいて各センサによって取得されたセンサデータをまとめたものである。
図7は、図6のセンサデータテーブル101に記入されたセンサデータを輝度情報に変換して統合した画像データ201である。図7の例では、センサデータが小さいほど輝度値が小さくなる。図6および図7のように、データ変換手段13は、センサデータを数値データから画像データに変換する。
図7の例では、一次元的な画像データとしてセンサデータを表現したが、二次元的な画像データとしてセンサデータを表現してもよい。図8は、学習装置1が用いる複数のセンサデータをまとめたテーブルの例(センサデータテーブル102)である。図8のセンサデータテーブル102は、1〜12の番号が付けられた複数のセンサによって取得されたセンサデータを時系列でまとめたものである。例えば、センサデータテーブル102は、所定の時間間隔やタイミングで各センサによって取得されたセンサデータをまとめたものである。
図9は、図8のセンサデータテーブル102に記入されたセンサデータを輝度情報に変換して統合した画像データ202である。図9の例では、センサデータが小さいほど輝度値が小さくなる。図8および図9のように、データ変換手段13は、センサデータを数値データから画像データに変換する。図9の画像データ202によれば、各センサによって取得されたセンサデータを統合した一次元的な画像データを二次元的な時系列データとして把握しやすくなる。
〔ラベル付与手段〕
次に、ラベル付与手段20の詳細構成について図面を参照しながら説明する。図10は、ラベル付与手段20の詳細構成を示すブロック図である。なお、ラベル付与手段20は、変換処理手段10に含めるように構成してもよいし、機械学習エンジン30に含めるように構成してもよい。
図10のように、ラベル付与手段20は、画像データ取得手段21、教師ラベル付与手段23、学習用データ出力手段25を有する。
画像データ取得手段21は、変換処理手段10から出力された画像データを取得する。画像データ取得手段21は、取得した画像データを教師ラベル付与手段23に出力する。
教師ラベル付与手段23は、画像データ取得手段21から画像データを取得し、取得した画像データに教師ラベルを付与して学習用データを生成する。教師ラベル付与手段23は、生成した学習用データを学習用データ出力手段25に出力する。
学習用データ出力手段25は、教師ラベル付与手段23から出力された学習用データを取得する。学習用データ出力手段25は、取得した学習用データを機械学習エンジン30に出力する。
以上が、ラベル付与手段20についての説明である。
〔機械学習エンジン〕
次に、機械学習エンジン30の詳細構成について図面を参照しながら説明する。図11は、機械学習エンジン30の詳細構成を示すブロック図である。
図11のように、機械学習エンジン30は、学習用データ取得手段31、学習手段32、学習用モデルデータベース33を有する。なお、本実施形態の機械学習エンジン30においては、機械学習エンジン30が学習用データから学習用モデルを生成し、生成した学習用モデルを格納するところまでを説明するため、学習用モデルを用いて検証データを検証する機能は省略している。学習用モデルを用いて検証データを検証する機能については、後述する第4の実施形態において説明する。
学習用データ取得手段31は、ラベル付与手段20から学習用データを取得する。学習用データ取得手段31は、取得した学習用データを学習手段32に出力する。
学習手段32は、学習用データ取得手段31から出力された学習用データを取得する。学習手段32は、取得した学習用データを用いて学習モデルを生成する。学習手段32は、生成した学習モデルを学習用モデルデータベース33に格納する。
学習用モデルデータベース33は、学習手段32が生成した学習モデルを格納するためのデータベースである。
以上が、機械学習エンジン30についての説明である。
以上のように、本実施形態の学習装置によれば、複数のセンサから出力される数値データを機械学習で学習させる際に、数値データを統合して画像化することで、一度に複数のセンサデータを学習できる。すなわち、本実施形態の学習装置によれば、複数の数値データをまとめて分析しやすい形式に変換するとともに、複数の数値データを機械学習によって一度に学習することができる。
(第2の実施形態)
次に、本発明の第2の実施形態に係る学習装置について図面を参照しながら説明する。本実施形態の学習装置は、データ変換手段が正規化手段を有する点で、第1の実施形態の学習装置1と異なる。以下の説明においては、第1の実施形態と同様の構成・動作・効果に関する説明は省略する。
(構成)
図12は、本実施形態の学習装置が備えるデータ変換手段13−2の構成を示すブロック図である。
図12のように、データ変換手段13−2は、輝度データ生成手段133および画像生成手段135に加えて、正規化手段131を有する。輝度データ生成手段133は、画素データ生成手段の一形態である。
正規化手段131は、読み込んだセンサデータをデータ種別ごとに正規化する。正規化手段131は、データ種別ごとにセンサデータの最大値と最小値とを抽出し、抽出した最大値および最小値に基づいて各種センサデータを正規化する。
例えば、正規化手段131は、各種センサデータを0から1までの範囲内の数値に正規化する。
輝度データ生成手段133は、正規化手段131が正規化したデータを輝度情報へ変換する。このとき、輝度データ生成手段133は、正規化されたセンサデータを輝度情報に変換する。
なお、輝度データ生成手段133は、正規化されたデータを輝度情報へ変換する際に、等間隔で輝度を割り当てずに、特定の範囲内の数値に関して焦点を当てるように重み付けを変えてもよい。
例えば、0から1までの数値範囲において、0.5以上0.6未満のセンサデータの違いを詳細に検証したい場合、0.5以上0.6未満の範囲内に含まれる数値の重み付けを他の範囲と比較して大きくすればよい。また、例えば、0から1までの数値範囲において、0.5以上0.6未満のセンサデータの違いが重要ではない場合、0.5以上0.6未満の範囲内に含まれる数値の重み付けを他の範囲と比較して小さくすればよい。なお、輝度データ生成手段133による重み付けは、第1の実施形態のように正規化されていないセンサデータについて行ってもよい。
画像生成手段135は、輝度データ生成手段133によって数値データから輝度情報に変換されたデータを統合して輝度画像に変換する。
以上が、本実施形態の学習装置が備えるデータ変換手段13−2の構成についての説明である。
(動作)
ここで、データ変換手段13−2の動作について図面を参照しながら説明する。図13は、データ変換手段13−2の動作について説明するためのフローチャートである。なお、図13のフローチャートに沿った説明においては、データ変換手段13−2を主体として説明する。
図13において、まず、データ変換手段13−2は、センサデータベース50からセンサデータを取得する(ステップS21)。
次に、データ変換手段13−2は、センサデータベース50から取得したセンサデータを正規化する(ステップS22)。
次に、データ変換手段13−2は、正規化されたセンサデータを輝度情報に変換する(ステップS23)。
次に、データ変換手段13−2は、輝度情報に変換されたセンサデータを統合し、画像データを生成する(ステップS24)。
そして、データ変換手段13−2は、生成した画像データを出力する(ステップS25)。
以上が、データ変換手段13−2の動作についての説明である。
以上のように、本実施形態の学習装置は、複数のセンサデータを数値データから画像データに変換する際に、輝度情報に変換する前に数値データを正規化する。そして、本実施形態の学習装置は、正規化された数値データを輝度情報に変換するため、輝度の上限と下限とが設定される。そのため、本実施形態の学習装置によれば、数値データが境界値を越えているために違う数値でありながら同じ輝度で表現されることなり、全てのセンサデータを階調的に表現することが可能となる。
(第3の実施形態)
次に、本発明の第3の実施形態に係る学習装置について図面を参照しながら説明する。本実施形態の学習装置は、センサデータの数値を画素情報に変換する際に、輝度情報ではなくRGB(Red-Green-Blue)情報に変換する点で、第2の実施形態の学習装置と異なる。以下の説明においては、第2の実施形態と同様の構成・動作・効果に関する説明は省略する。
(構成)
図14は、本実施形態の学習装置が備えるデータ変換手段13−3の構成を示すブロック図である。
図14のように、データ変換手段13−3は、正規化手段131および画像生成手段135に加えて、RGBデータ生成手段134を有する。RGBデータ生成手段134は、画素データ生成手段の一形態である。
RGBデータ生成手段134は、正規化手段131が正規化したデータをRGB情報へ変換する。このとき、RGBデータ生成手段134は、0〜1の範囲内の数値に正規化されたセンサデータをRGB情報に変換する。例えば、データ種別ごとに割り当てる色を変えて階調表現するように構成すれば、画像変換時の色味を使い分けることができる。
画像生成手段135は、RGBデータ生成手段134によってRGB情報に変換されたデータを統合してRGB画像に変換する。
以上が、本実施形態の学習装置が備えるデータ変換手段13−3の構成についての説明である。
(動作)
ここで、データ変換手段13−3の動作について図面を参照しながら説明する。図15は、データ変換手段13−3の動作について説明するためのフローチャートである。なお、図15のフローチャートに沿った説明においては、データ変換手段13−3を主体として説明する。
図15において、まず、データ変換手段13−3は、センサデータベース50からセンサデータを取得する(ステップS31)。
次に、データ変換手段13−3は、センサデータベース50から取得したセンサデータを正規化する(ステップS32)。
次に、データ変換手段13−3は、正規化されたセンサデータをRGB情報に変換する(ステップS33)。
次に、データ変換手段13−3は、RGB情報に変換されたセンサデータを統合し、画像データを生成する(ステップS34)。
そして、データ変換手段13−3は、生成した画像データを出力する(ステップS35)。
以上が、データ変換手段13−3の動作についての説明である。
以上のように、本実施形態の学習装置は、正規化されたセンサデータを輝度情報ではなく、RGB情報に変換する。そのため、本実施形態の学習装置は、カラー化された画像データから学習モデルを生成できる。本実施形態の学習装置によって生成された学習モデルを用いれば、より情報量の多い学習モデルを生成できるとともに、より直感的に特徴を把握しやすいようにセンサデータを統合できる。
なお、本発明の各実施形態の学習装置は、センサデータを輝度情報やRGB情報以外の色空間を用いて学習用データを生成してもよい。例えば、本発明の各実施形態の学習装置は、CMY(Cyan-Magenta-Yellow)色空間やCMYK(Cyan-Magenta-Yellow-Key plate)色空間などを用いて学習用モデルを生成してもよい。また、本発明の各実施形態の学習装置は、HSV(Hue-Saturation-Value)色空間やHLS(Hue-Luminance-Saturation)色空間などを用いて学習用モデルを生成してもよい。なお、本発明の各実施形態の学習装置は、ここで挙げた色空間に限らず、任意の色空間にセンサデータを当てはめて学習用モデルを生成してもよい。
(第4の実施形態)
次に、本発明の第4の実施形態に係る学習装置について図面を参照しながら説明する。図16は本実施形態の学習装置4の構成を示すブロック図である。本実施形態の学習装置4は、機械学習エンジン30−4が、第1の実施形態の機械学習エンジン30と異なる。本実施形態は、機械学習エンジン30で検証する検証データをセンサデータとしてセンサデータベース50にフィードバックする点が第1の実施形態と異なる。
図17は、本実施形態の学習装置4に含まれる機械学習エンジン30−4の構成を示すブロック図である。機械学習エンジン30−4は、学習用データ取得手段31、学習手段32、学習用モデルデータベース33に加えて、検証データ取得手段34、検証手段35、出力手段36を有する。学習用データ取得手段31、学習手段32、学習用モデルデータベース33については、第1の実施形態に係る学習装置1の機械学習エンジン30と同様であるため、詳細な説明は省略する。
検証データ取得手段34は、機械学習エンジン30−4の学習用モデルデータベース33に格納された学習モデルで検証するための検証データを取得する。検証データ取得手段34は、取得した検証データを検証手段35に出力する。
例えば、検証データ取得手段34は、図2のセンサ70−1〜nによって新たに取得されたセンサデータから生成された学習用データを検証データとして取得する。また、例えば、検証データ取得手段34は、図示しない入力手段から入力されたセンサデータから新たに生成された学習用データを検証データとして取得する。
検証手段35は、検証データ取得手段34から検証データを取得する。検証手段35は、学習用モデルデータベース33に格納された学習モデルを用いて、取得した検証データを検証する。検証手段35は、検証結果を出力手段36に出力する。
例えば、検証手段35は、学習モデルを用いて検証データの異常の有無を検証し、検証結果を出力手段36に出力する。また、例えば、検証手段35は、学習モデルに含まれる学習用データと検証データとを出力手段36を介して外部のモニター(図示しない)に表示させるように構成してもよい。
出力手段36は、検証手段35の検証結果を出力する。
例えば、出力手段36を外部のモニター(図示しない)に接続し、検証結果をモニターに出力するように構成できる。
また、例えば、検証データの元となるセンサデータの最大値または最小値が、学習モデルを生成する際に用いたセンサデータの数値範囲から外れている場合もありうる。その場合、出力手段36は、その検証データの元のセンサデータを含めて学習モデルを生成しなおすために、検証データの元のセンサデータをセンサデータベース50にフィードバックする。このとき、出力手段36は、検証データの元のセンサデータを含めた複数のセンサデータを用いて学習モデルを生成しなおす指示を変換処理手段10に出力する。
すなわち、学習装置4は、機械学習エンジン30−4で検証するセンサデータを入力する際、そのセンサデータ最小値と最大値が、学習モデルを生成する際に用いたセンサデータの数値範囲から外れている場合、丸め込みを行った上で結果判定を行う。なお、学習モデルを生成する際のセンサデータの最小値と最大値は、センサの特性に合わせてその幅を設定可能とすることが好ましい。
以上のように、本実施形態の学習装置によれば、学習モデルを用いて検証データを検証する際に、検証データに応じて学習モデルを再構築することによって精度を向上できる。例えば、本実施形態の学習装置は、検証データの元となるセンサデータの最小値と最大値が、学習モデルを作成した際のセンサデータの数値範囲を超えた場合、検証データの元のデータをセンサデータとしてフィードバックする。
本実施形態の学習装置の効果は、以下の二つにまとめられる。
第1に、本実施形態の学習装置は、複数のセンサデータをデータ検証する場合、複数のセンサデータを一つの画像データに統合することによって、一度にデータ分析することを可能とする。それに付随し、本実施形態の学習装置には、検証データをセンサデータにフィードバックすることによって、判定結果を一意にできるという効果もある。
第2に、本実施形態の学習装置は、数値データで表現される複数のセンサデータを一つに統合して画像化することによって、センサデータを画像データとして比較することを可能とする。それに付随して、本実施形態の学習装置には、利用者が要素の特性を画像として把握できるようになり、機械学習による正常性判別を利用者が行い易くなるという効果もある。
(ハードウェア)
ここで、本実施形態に係る学習装置を実現するハードウェア構成について、図18のコンピュータ90を一例として挙げて説明する。なお、図18のコンピュータ90は、各実施形態の学習装置を実現するための構成例であって、本発明の範囲を限定するものではない。
図18のように、コンピュータ90は、プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95および通信インターフェース96を備える。図18においては、インターフェースをI/F(Interface)と略して表記している。プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95および通信インターフェース96は、バス99を介して互いにデータ通信可能に接続される。また、プロセッサ91、主記憶装置92、補助記憶装置93および入出力インターフェース95は、通信インターフェース96を介して、インターネットやイントラネットなどのネットワークに接続される。
プロセッサ91は、補助記憶装置93等に格納されたプログラムを主記憶装置92に展開し、展開されたプログラムを実行する。本実施形態においては、コンピュータ90にインストールされたソフトウェアプログラムを用いる構成とすればよい。プロセッサ91は、本実施形態に係る学習装置が実行する演算処理や制御処理を実行する。
主記憶装置92は、プログラムが展開される領域を有する。主記憶装置92は、例えばDRAM(Dynamic Random Access Memory)などの揮発性メモリとすればよい。また、MRAM(Magnetoresistive Random Access Memory)などの不揮発性メモリを主記憶装置92として構成・追加してもよい。
補助記憶装置93は、種々のデータを記憶する手段である。補助記憶装置93は、ハードディスクやフラッシュメモリなどのローカルディスクによって構成される。なお、種々のデータを主記憶装置92に記憶させる構成とし、補助記憶装置93を省略することも可能である。
入出力インターフェース95は、コンピュータ90と周辺機器との接続規格に基づいて、コンピュータ90と周辺機器とを接続する装置である。通信インターフェース96は、規格や仕様に基づいて、インターネットやイントラネットなどのネットワークに接続するためのインターフェースである。入出力インターフェース95および通信インターフェース96は、外部機器と接続するインターフェースとして共通化してもよい。
コンピュータ90には、必要に応じて、キーボードやマウス、タッチパネルなどの入力機器を接続できるように構成してもよい。それらの入力機器は、情報や設定の入力に使用される。なお、タッチパネルを入力機器として用いる場合は、表示機器の表示画面が入力機器のインターフェースを兼ねる構成とすればよい。プロセッサ91と入力機器との間のデータ通信は、入出力インターフェース95に仲介させればよい。
通信インターフェース96は、ネットワークを通じて、外部のシステムや装置に接続される。
また、コンピュータ90には、情報を表示するための表示機器を備え付けてもよい。表示機器を備え付ける場合、コンピュータ90には、表示機器の表示を制御するための表示制御装置(図示しない)が備えられていることが好ましい。表示機器は、入出力インターフェース95を介してコンピュータ90に接続すればよい。
また、コンピュータ90には、必要に応じて、リーダライタを備え付けてもよい。リーダライタは、バス99に接続される。リーダライタは、プロセッサ91と図示しない記録媒体(プログラム記録媒体)との間で、記録媒体からのデータ・プログラムの読み出し、コンピュータ90の処理結果の記録媒体への書き込みなどを仲介する。記録媒体は、例えばUSB(Universal Serial Bus)メモリやSD(Secure Digital)カードなどの半導体記録媒体などで実現できる。また、記録媒体は、フレキシブルディスクなどの磁気記録媒体、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光学記録媒体やその他の記録媒体によって実現してもよい。
以上が、本発明の実施形態に係る学習装置を可能とするためのハードウェア構成の一例である。なお、図18のハードウェア構成は、本実施形態に係る学習装置を可能とするためのハードウェア構成の一例であって、本発明の範囲を限定するものではない。また、本実施形態に係る学習装置に関する処理をコンピュータに実行させるプログラムも本発明の範囲に含まれる。さらに、本発明の実施形態に係るプログラムを記録したプログラム記録媒体も本発明の範囲に含まれる。
以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明の学習装置は、データ分析ビジネス分野におけるデータ観察やデータ学習、データ解析に利用できる。
1、4 学習装置
10 変換処理手段
11 入力手段
13 データ変換手段
15 画像データ出力手段
20 ラベル付与手段
21 画像データ取得手段
23 教師ラベル付与手段
25 学習用データ出力手段
30 機械学習エンジン
31 学習用データ取得手段
32 学習手段
33 学習用モデルデータベース
34 検証データ取得手段
35 検証手段
36 出力手段
50 センサデータベース
70 センサ
71 センサデータ取得手段
131 正規化手段
133 輝度データ生成手段
134 RGBデータ生成手段
135 画像生成手段

Claims (10)

  1. 複数のセンサデータを取得して、取得した複数の前記センサデータの数値に基づいた画素情報を設定し、設定された前記画素情報を統合することによって画像データを生成する変換処理手段と、
    前記変換処理手段によって生成された前記画像データを取得して、取得した前記画像データに教師ラベルを付与することによって学習用データを生成するラベル付与手段と、
    前記ラベル付与手段によって生成された学習用データを取得して、前記学習用データを機械学習して学習モデルを生成し、生成した前記学習モデルを格納する機械学習エンジンとを備える学習装置。
  2. 前記変換処理手段は、
    前記センサデータの数値に基づいた前記画素情報を設定する画素データ生成手段と、
    前記画素データ生成手段によって設定された前記画素情報をデータ種別ごとに統合して前記画像データを生成する画像生成手段とを含むデータ変換手段を有する請求項1に記載の学習装置。
  3. 前記データ変換手段は、
    複数の前記センサデータをデータ種別ごとに正規化する正規化手段を備える請求項2に記載の学習装置。
  4. 前記画素データ生成手段は、前記センサデータの数値に基づいた輝度情報を設定する請求項2または3に記載の学習装置。
  5. 前記画素データ生成手段は、前記センサデータの数値に基づいたRGB情報を設定する請求項2または3に記載の学習装置。
  6. 前記機械学習エンジンは、
    前記ラベル付与手段から前記学習用データを取得する学習用データ取得手段と、
    前記学習用データ取得手段によって取得された前記学習用データを機械学習して前記学習モデルを生成する学習手段と、
    前記学習手段によって生成された前記学習モデルが格納される学習用モデルデータベースと、
    検証データを取得する検証データ取得手段と、
    前記学習用モデルデータベースに格納された前記学習モデルを用いて前記検証データを検証する検証手段と、
    前記検証手段による検証結果を出力する出力手段とを有する請求項1乃至5のいずれか一項に記載の学習装置。
  7. 前記出力手段は、
    前記検証データの元となる前記センサデータをセンサデータベースにフィードバックするとともに、前記検証データの元となる前記センサデータを含めた複数の前記センサデータを用いて前記画像データを生成する指示を前記変換処理手段に出力する請求項6に記載の学習装置。
  8. 請求項1乃至7のいずれか一項に記載の学習装置と、
    前記センサデータを格納するセンサデータベースとを備える学習システム。
  9. 複数のセンサデータを取得し、
    取得した複数の前記センサデータに数値に基づいた画素情報を設定し、
    設定した前記画素情報を統合することによって画像データを生成し、
    生成した前記画像データに教師ラベルを付与することによって学習用データを生成し、
    生成した学習用データを機械学習して学習モデルを生成し、
    生成した前記学習モデルを格納する学習方法。
  10. 複数のセンサデータを取得し、
    取得した複数の前記センサデータに数値に基づいた画素情報を設定する処理と、
    設定した前記画素情報を統合することによって画像データを生成する処理と、
    生成した前記画像データに教師ラベルを付与することによって学習用データを生成する処理と、
    生成した学習用データを機械学習して学習モデルを生成する処理と、
    生成した前記学習モデルを格納する処理とをコンピュータに実行させるプログラム。
JP2016236383A 2016-12-06 2016-12-06 学習装置、学習方法およびプログラム Active JP6877978B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016236383A JP6877978B2 (ja) 2016-12-06 2016-12-06 学習装置、学習方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016236383A JP6877978B2 (ja) 2016-12-06 2016-12-06 学習装置、学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018092453A JP2018092453A (ja) 2018-06-14
JP6877978B2 true JP6877978B2 (ja) 2021-05-26

Family

ID=62563869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016236383A Active JP6877978B2 (ja) 2016-12-06 2016-12-06 学習装置、学習方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6877978B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020138479A1 (ja) * 2018-12-28 2020-07-02
CN113383216A (zh) * 2019-02-05 2021-09-10 日本电气株式会社 分析装置、分析方法和程序
JP2021197158A (ja) * 2020-06-15 2021-12-27 三菱パワー株式会社 予兆判定装置、予兆判定システム、予兆判定方法及びプログラム
JP7359313B2 (ja) 2020-08-19 2023-10-11 日本電信電話株式会社 腐食性予測方法および装置
WO2022054407A1 (ja) * 2020-09-08 2022-03-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 行動推定装置、行動推定方法、及び、プログラム
KR102593832B1 (ko) * 2020-12-24 2023-10-26 한국과학기술원 과적합 없는 단일 신경망 기반 다중 도메인 적응 학습을 위한 컴퓨터 시스템, 및 그의 방법
JP2022113523A (ja) * 2021-01-25 2022-08-04 株式会社日本製鋼所 コンピュータプログラム、異常検知方法、異常検知装置、成形機システム及び学習モデル生成方法
JP7069435B1 (ja) 2021-05-31 2022-05-17 三菱電機株式会社 情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015215709A (ja) * 2014-05-09 2015-12-03 株式会社神戸製鋼所 機器データ処理装置及び機器データ処理方法
JP5984153B2 (ja) * 2014-09-22 2016-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、プログラム、及び情報処理方法

Also Published As

Publication number Publication date
JP2018092453A (ja) 2018-06-14

Similar Documents

Publication Publication Date Title
JP6877978B2 (ja) 学習装置、学習方法およびプログラム
JP6870346B2 (ja) データ分析システム、データ分析方法およびプログラム
US20220229621A1 (en) Augmented reality quick-start and user guide
JP6732214B2 (ja) 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム
JP6554900B2 (ja) テンプレート作成装置及びテンプレート作成方法
ATE470912T1 (de) Robuster detektor und deskriptor für einen interessenspunkt
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US11323577B2 (en) Image processing device for creating an album
JP6179224B2 (ja) 画像処理フィルタの作成装置及びその方法
US20180101294A1 (en) Information generating system, information generating device, information generating method, and information generating program
CN104951292A (zh) 数据处理系统及数据处理方法
JP6532762B2 (ja) 情報生成システム、装置、方法、及びプログラム
JP2020135432A (ja) 学習データの生成方法、学習データ生成装置及びプログラム
JP2019086473A (ja) 学習プログラム、検出プログラム、学習方法、検出方法、学習装置および検出装置
WO2020189132A1 (ja) 学習装置、学習方法、コンピュータプログラム及び記録媒体
JP2009075937A (ja) 機器動作設定装置
JP7179633B2 (ja) 計測方法、計測装置、およびプログラム
KR102527605B1 (ko) 다중 아날로그 제어 변수 생성을 위한 다중 뉴럴 네트워크 구성 방법
US10909895B2 (en) Correction system, display panel, display device, correction method, and storage medium
JP2015005018A (ja) 画像処理装置、画像処理方法及びプログラム
WO2018158818A1 (ja) 点検支援装置、点検支援方法および記録媒体
JP2020201077A (ja) アナログインジケータ読取装置、アナログインジケータ読取方法及びプログラム
JP7403253B2 (ja) 学習装置、学習方法および学習プログラム
JP6971271B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2024128124A1 (ja) 学習装置、推定装置、学習方法、推定方法ならびに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210428

R150 Certificate of patent or registration of utility model

Ref document number: 6877978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150