JP2020091756A - 学習方法、学習プログラムおよび学習装置 - Google Patents

学習方法、学習プログラムおよび学習装置 Download PDF

Info

Publication number
JP2020091756A
JP2020091756A JP2018229455A JP2018229455A JP2020091756A JP 2020091756 A JP2020091756 A JP 2020091756A JP 2018229455 A JP2018229455 A JP 2018229455A JP 2018229455 A JP2018229455 A JP 2018229455A JP 2020091756 A JP2020091756 A JP 2020091756A
Authority
JP
Japan
Prior art keywords
learning
data
betch
time
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018229455A
Other languages
English (en)
Other versions
JP7131351B2 (ja
Inventor
友将 角田
Tomoyuki Tsunoda
友将 角田
伊海 佳昭
Yoshiaki Iumi
佳昭 伊海
純司 金児
Junji Kaneko
純司 金児
孝広 齊藤
Takahiro Saito
孝広 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018229455A priority Critical patent/JP7131351B2/ja
Priority to US16/687,925 priority patent/US11410055B2/en
Publication of JP2020091756A publication Critical patent/JP2020091756A/ja
Application granted granted Critical
Publication of JP7131351B2 publication Critical patent/JP7131351B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データの分類精度を向上させることを課題とする。【解決手段】学習装置は、単一のラベルが付与され、当該単一のラベルが付与された期間で動きが変動するデータを取得する。そして、学習装置は、記データを複数の区間に分割した要素ごとにアトラクタを生成する。続いて、学習装置は、生成したアトラクタから要素ごとにベッチ系列を算出する。その後、学習装置は、算出した要素ごとのベッチ系列の集合としての特徴を学習する。【選択図】図1

Description

本発明は、学習方法、学習プログラムおよび学習装置に関する。
時系列データを解析してデータの異常に対応した変化を検知する技術として、TDA(Topological Data Analysis)を用いた解析手法が知られている。例えば、時系列データを入力とし、小区分に区切ったデータから有限個のアトラクタである疑似アトラクタにパーシステントホモロジ変換(PH変換)を実行してベッチ数を算出する。そして、ベッチ数を用いたベッチ系列を特徴ベクトルとして機械学習を実行して学習モデルを生成する。その後、学習済みの学習モデルを用いて、時系列データから異常を検出する。この手法は、データの細かい動きの特徴を抽出することに適しており、例えば歩く、走るなどであれば1歩から数歩分の時間単位でアトラクタを生成することで、特徴を適切に抽出する。
国際公開第2006/137142号 特開平11−142425号公報 特開2018−92349号公報 特開2017−97643号公報
ところで、同一ラベル内でも様々な特徴をもつ時間波形が存在する場合がある。例えば人の作業内容の分類などを対象とした場合、同じ作業を示すラベル内で複数の動作が存在する場合がある。例えば、梱包作業というラベルの中には、箱の組み立て、製品や緩衝材詰め、ラッピングなどの作業詳細が含まれていることがある。このように同一ラベル内に複数の特徴をもつ時間波形が混在する場合、ラベルの単位時間でアトラクタを生成すると各特徴が他の特徴に埋もれてしまい、効果的なベッチ系列を抽出することができず、学習精度が低下する。
図20は、同一ラベル内に複数の作業が混在する例を説明する図である。図20には、1つのラベル「検品作業」に複数の作業詳細「製品Aを引き取る、製品Aの長さを図るなど」が含まれている場合を示す。これらの場合、複数の作業に1つのラベル付けがされているので、同一ラベル内で動きが変動するような状況が存在することになる。したがって、ラベルの単位時間で1アトラクタ、1ベッチ系列に変換するとそれぞれの特徴同士が埋もれてしまい、有益な特徴が得られにくい。
また、異なる複数の形状のアトラクタが重なり合うことで特徴を抽出しにくくなるので、ラベル内の特定箇所のデータの特徴を当該ラベルの特徴とする手法も考えられる。図21は、同一ラベル内の特定箇所から特徴を抽出する例を説明する図である。図21に示すように、ラベル内の最初の数分のデータの特徴を当該ラベルの特徴とすることも考えられる。しかし、特定箇所のデータのみ抽出しても、当該特定がラベル内の代表的な特徴ではない可能性があり、有効とはいえない。また、同じ作業でも作業の区切りとラベルの単位時間とが完全に一致しているとは限らず、特定箇所のデータのみでは分類できない。
なお、作業詳細ごとにラベル付けを行うことも考えられるが、膨大な作業詳細の1つ1つを正確に分類してラベル付けを行うことは、専門家であっても時間がかかり過ぎるので、現実的ではない。
一つの側面では、データの分類精度を向上させることができる学習方法、学習プログラムおよび学習装置を提供することを目的とする。
第1の案では、学習方法は、コンピュータが、単一のラベルが付与され、当該単一のラベルが付与された期間で動きが変動するデータを取得する処理を実行する。学習方法は、コンピュータが、前記データを複数の区間に分割した要素ごとにアトラクタを生成する処理を実行する。学習方法は、コンピュータが、生成したアトラクタから要素ごとにベッチ系列を算出する処理を実行する。学習方法は、コンピュータが、算出した要素ごとのベッチ系列の集合としての特徴を学習する処理を実行する。
一つの側面では、データの学習精度を向上させることができる。
図1は、実施例1にかかる学習装置を説明する図である。 図2は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。 図3は、入力データの一例を示す図である。 図4は、時系列データの一例を示す図である。 図5は、小区間データの一例を示す図である。 図6は、小区間ごとのベッチ系列の一例を示す図である。 図7は、各入力データの特徴量の一例を示す図である。 図8は、学習対象とする時系列データの一例を示す図である。 図9は、パーシステントホモロジについて説明するための図である。 図10は、バーコードデータと生成される連続データとの関係について説明するための図である。 図11は、区間分割と疑似アトラクタの生成を説明する図である。 図12は、特徴量の抽出を説明する図である。 図13は、学習例を説明する図である。 図14は、学習後の分類例を説明する図である。 図15は、学習処理の流れを示すフローチャートである。 図16は、特徴量抽出の別例を説明する図である。 図17は、システム適用例(学習フェーズ)を説明する図である。 図18は、システム適用例(実践フェーズ)を説明する図である。 図19は、ハードウェア構成例を説明する図である。 図20は、同一ラベル内に複数の作業が混在する例を説明する図である。 図21は、同一ラベル内の特定箇所から特徴を抽出する例を説明する図である。
以下に、本願の開示する学習方法、学習プログラムおよび学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる学習装置10を説明する図である。図1に示す学習装置10は、トポロジカルデータ解析を用いてデータを分析する機械学習を実行するコンピュータ装置の一例である。この学習装置10は、時系列データをアトラクタと呼ばれる図形に変換し、TDA処理を用いてその図形の特徴を抽出することで、機械学習等に入力するための特徴量を生成する。
その後、学習装置10は、特徴量を用いて、機械学習や深層学習(ディープラーニング(DL)・Deep Learning)などの学習処理を実行して、学習データを事象ごとに正しく判別(分類)できるように、ニューラルネットワーク(NN:Neural Network)などを学習する。
ここで、同一ラベル内でも様々な特徴をもつ入力データの場合、一般的なTDA処理では、入力データの特徴が正確に抽出できない場合がある。そこで、実施例1にかかる学習装置10は、ラベル付けされた単位時間の入力データを複数の小区間に分割し、小区間ごとにアトラクタを生成し、生成したアトラクタからTDA処理を実行してベッチ系列を算出する。続いて、学習装置10は、算出された複数のベッチ系列にクラスタリングを実行することで、単位時間ごとに複数生成されたベッチ系列の集合としての特徴を特徴ベクトルとして抽出する。このとき、学習装置10は、特徴ベクトルを抽出するクラスタリングのモデルを記憶しておく。そして、学習装置10は、抽出された特徴ベクトルを機械学習へ入力して、学習モデルを構築する。
その後、学習が終了すると、学習装置10は、分類対象データに対して、学習時と同様の処理を実行して特徴ベクトルを抽出する。具体的には、学習装置10は、分類対象データを複数の小区間に分割し、小区間ごとにアトラクタを生成し、生成したアトラクタからTDA処理を実行してベッチ系列を算出する。そして、学習装置10は、学習時に記憶しておいたクラスリングのモデルを用いて、ベッチ系列から特徴ベクトルを抽出する。その後、学習装置10は、分類対象データの特徴ベクトルを、学習済みの学習モデルに入力し、出力結果に基づいて、分類対象データを分類する。
このように、学習装置10は、ラベル付けされた単位時間内に複数の異なる特徴が存在するような分類問題について、単位時間内に存在する特徴の分布を特徴量として抽出することができるので、データの学習精度を向上させることができる。なお、図1では、実施例1では、学習装置10が学習処理と分類処理とを実行する例で説明するが、これに限定されるものではなく、別々の装置で実行することもできる。
[機能構成]
図2は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図2に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、学習データや分類対象データなどを管理装置から受信し、学習結果や分類結果などを管理装置に送信する。
記憶部12は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、設定値DB13、入力データDB14、小区間データDB15、ベッチ系列DB16、特徴量DB17、学習結果DB18、モデルDB19を記憶する。
設定値DB13は、入力データを分割する際の分割数などを記憶するデータベースである。ここで記憶される情報は、任意に設定変更することができる。
入力データDB14は、単一のラベルが付与された入力データ、すなわち単一のラベルが付与された期間で動きが変動する学習データを記憶するデータベースである。図3は、入力データの一例を示す図である。図3に示すように、入力データDB14は、「時刻、ラベル、データ」を対応付けた入力データに関する情報を記憶する。ここで記憶される「時刻」は、データが取得された時刻を示す。「ラベル」は、データに付与される、データの分類先を示す情報である。「データ」は、学習対象のデータである。図3の場合、時刻「10:00から10:10」に取得された、学習データである単位時間分の時系列データにはラベル「ラベルA」が付与されていることを示す。
本実施例においては、学習データの一例として、心拍数の変化を示す時系列データなどの周期的な性質を有する時系列データを用いて説明する。図4は、時系列データの一例を示す図である。図4は心拍数の変化を示す時系列データであり、縦軸が心拍数(beats per minute)を表し、横軸は時間を表す。
なお、ここでは連続データとして心拍数の時系列データを例示したが、このような時系列データに限られるわけではない。例えば、心拍数以外の生体データ(脳波、脈拍或いは体温などの時系列データ)、ウェアラブルセンサのデータ(ジャイロセンサ、加速度センサ或いは地磁気センサなどの時系列データ)等であってもよい。また、金融データ(金利、物価、国際収支或いは株価などの時系列データ)、自然環境のデータ(気温、湿度或いは二酸化炭素濃度などの時系列データ)、又は社会データ(労働統計或いは人口統計などのデータ)等であってもよい。
小区間データDB15は、後述する学習処理部30等によって生成されるデータであって、入力データを小区間に分割した要素ごとのデータである小区間データを記憶するデータベースである。図5は、小区間データの一例を示す図である。図5に示すように、小区間データDB15は、「時刻、ラベル、小区間番号、データ」を対応付けた小区間データに関する情報を記憶する。
ここで記憶される「時刻」は、分割元の入力データが取得された時刻を示す。「ラベル」は、分割元の入力データに付与されるラベルを示す。「小区間番号」は、分割された小区間を識別する識別子である。「データ」は、生成された小区間データを示す。図5の場合、時刻「10:00から10:10」に取得された入力データが複数の小区間分の時系列データに分割されたことを示す。
ベッチ系列DB16は、制御部20によって生成された、各小区間データに対応する各ベッチ系列を記憶するデータベースである。図6は、小区間ごとのベッチ系列の一例を示す図である。図6に示すように、ベッチ系列DB16は、「時刻、ラベル、小区間番号、データ」を対応付けたベッチ系列に関する情報を記憶する。
ここで記憶される「時刻」は、ベッチ系列の生成元である入力データが取得された時刻を示す。「ラベル」は、ベッチ系列の生成元の入力データに付与されるラベルを示す。「小区間番号」は、分割された小区間を識別する識別子である。「データ」は、生成されたベッチ系列を示す。図6の場合、時刻「10:00から10:10」に該当する複数の小区間分の時系列データそれぞれに対して、ベッチ系列が生成されたことを示す。
特徴量DB17は、機械学習へ入力される特徴量を記憶するデータベースである。図7は、各入力データの特徴量の一例を示す図である。図7に示すように、特徴量DB17は、「時刻、ラベル、データ」を対応付けた特徴量に関するデータを記憶する。
ここで記憶される「時刻」は、特徴量の生成元である入力データが取得された時刻を示す。「ラベル」は、特徴量の生成元である入力データに付与されるラベルを示す。「データ」は、生成された特徴量を示す。図7の場合、時刻「10:00から10:10」に取得された「ラベルA」の入力データに対して、1つの特徴量「特徴ベクトル」が生成されたことを示す。
学習結果DB18は、学習結果を記憶するデータベースである。例えば、学習結果DB18は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された各種パラメータを記憶する。
モデルDB19は、ベッチ系列から特徴量を抽出するクラスタリングのモデル(以下では、クラスタモデルと記載する場合がある)を記憶するデータベースである。例えば、モデルDB19は、後述する学習処理部30によって生成されたクラスモデルのパラメータなどを記憶する。
制御部20は、学習装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、学習処理部30と分類処理部40を有する。なお、学習処理部30と分類処理部40は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。
学習処理部30は、分割部31、系列生成部32、生成部33、学習部34を有し、時系列データを分類する学習モデル(分類モデル)を構築する学習処理を実行する処理部である。
分割部31は、入力データを分割する処理部である。具体的には、分割部31は、入力データDB14から各単位時間分の時系列データを、設定値DB13に記憶される分割数の小区間に分割して、小区間データを生成する。そして、分割部31は、分割して得られたデータを小区間データDB15に格納する。
例えば、分割部31は、入力データDB14から、時刻「10:00から10:10」に取得された「単位時間分の時系列データ」を読み出す。そして、分割部31は、「単位時間分の時系列データ」を分割数「N」で分割して、N個の小区間データを生成する。その後、分割部31は、N個の小区間データそれぞれに、小区間番号「1、2、・・・、N」を付与して、小区間データDB15に格納する。
系列生成部32は、小区間データそれぞれに対して、TDA処理を実行してベッチ系列を生成する処理部である。例えば、系列生成部32は、小区間データDB15から時刻「10:00から10:10」に対応する各小区間データを取得する。そして、系列生成部32は、取得した各小区間データからベッチ系列を生成し、時刻「10:00から10:10」および小区間番号に対応付けて、各ベッチ系列をベッチ系列DB16に格納する。
ここで、系列生成部32は、対象となる各小区間データについて、当該小区間データから複数の擬似アトラクタを生成し、複数の疑似アトラクタそれぞれをパーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成する。例えば、系列生成部32は、一般的な手法を用いてベッチ系列を生成することができる。一例を挙げると、系列生成部32は、ベッチ数を計算する半径の区間[rmin,rmax]をm−1等分し、各半径r(i=1,・・・,m)におけるベッチ数B(r)を計算し、ベッチ数を並べた[B(r),B(r),B(r),・・・,B(r)]のベッチ系列を生成する。
図8は、学習対象とする時系列データの一例を示す図である。図9は、パーシステントホモロジについて説明するための図である。図10は、バーコードデータと生成される連続データとの関係について説明するための図である。
図8を用いて、疑似アトラクタの生成について説明する。例えば図8に示すような、関数f(t)(tは時間を表す)で表される連続データを考える。そして、実際の値としてf(1),f(2),f(3),・・・,f(T)が与えられているとする。本実施の形態における疑似アトラクタは、連続データから遅延時間τ(τ≧1)毎に取り出されたN点の値を成分とする、N次元空間上の点の集合である。ここで、Nは埋め込み次元を表し、一般的にはN=3又は4である。例えばN=3且つτ=1である場合、(T−2)個の点を含む以下の疑似アトラクタが生成される。
疑似アトラクタ={(f(1),f(2),f(3))、(f(2),f(3),f(4))、(f(3),f(4),f(5))、・・・、(f(T−2),f(T−1),f(T))}
続いて、系列生成部32は、疑似アトラクタを生成し、パーシステントホモロジ変換を用いてベッチ系列へ変換する。なお、ここで生成されるアトラクタは、有限個の点集合であることから「疑似アトラクタ」と呼ぶこととする。
ここで、「ホモロジ」とは、対象の特徴をm(m≧0)次元の穴の数によって表現する手法である。ここで言う「穴」とはホモロジ群の元のことであり、0次元の穴は連結成分であり、1次元の穴は穴(トンネル)であり、2次元の穴は空洞である。各次元の穴の数はベッチ数と呼ばれる。そして、「パーシステントホモロジ」とは、対象(ここでは、点の集合(Point Cloud))におけるm次元の穴の遷移を特徴付けるための手法であり、パーシステントホモロジによって点の配置に関する特徴を調べることができる。この手法においては、対象における各点が球状に徐々に膨らまされ、その過程において各穴が発生した時刻(発生時の球の半径で表される)と消滅した時刻(消滅時の球の半径で表される)とが特定される。
図9を用いて、パーシステントホモロジをより具体的に説明する。ルールとして、1つの球が接した場合には2つの球の中心が線分で結ばれ、3つの球が接した場合には3つの球の中心が線分で結ばれる。ここでは、連結成分及び穴だけを考える。図9(a)のケース(半径r=0)においては、連結成分のみが発生し、穴は発生していない。図9(b)のケース(半径r=r1)においては、穴が発生しており、連結成分の一部が消滅している。図9(c)のケース(半径r=r)においては、さらに多くの穴が発生しており、連結成分は1つだけ持続している。図9(d)のケース(半径r=r)においては、連結成分の数は1のままであり、穴が1つ消滅している。
パーシステントホモロジの計算過程において、ホモロジ群の元(すなわち穴)の発生半径と消滅半径とが計算される。穴の発生半径と消滅半径とを使用することで、バーコードデータを生成することができる。バーコードデータは穴次元毎に生成されるので、複数の穴次元のバーコードデータを統合することで1塊のバーコードデータが生成できる。連続データは、パーシステントホモロジにおける球の半径(すなわち時間)とベッチ数との関係を示すデータである。
図10を用いて、バーコードデータと生成される連続データとの関係について説明する。上段のグラフはバーコードデータから生成されるグラフであり、横軸が半径を表す。下段のグラフは連続データ(ベッチ系列と記載する場合がある)から生成されるグラフであり、縦軸はベッチ数を表し、横軸は時間を表す。上で述べたように、ベッチ数は穴の数を表しており、例えば上段のグラフにおいて破線に対応する半径の時には存在している穴の数が10であるので、下段のグラフにおいては破線に対応するベッチ数も10である。ベッチ数は、ブロック毎に計数される。なお、下段のグラフは疑似的な時系列データのグラフであるので、横軸の値自体が意味を持つわけではない。
図2に戻り、生成部33は、各単位時間分の時系列データに対応する各小区間データから生成されたベッチ系列を用いて、各単位時間分の時系列データの特徴を示す特徴量を生成する処理部である。例えば、生成部33は、ベッチ系列DB16から、時刻「10:00から10:10」に対応する各ベッチ系列を取得する。そして、生成部33は、時系列データにおいて支配的な動きを特定するために、取得した各ベッチ系列を用いて特徴量を生成する。言い換えると、生成部33は、時系列データにおいて作業内容の割合を特定する情報を生成する。その後、生成部33は、時刻「10:00から10:10」およびラベルに対応付けて、生成した特徴量を特徴量DB17に格納する。
例えば、生成部33は、ラベル毎に小区間数分のベッチ系列ができるので、ベッチ系列の集合としての特徴を抽出し、特徴ベクトルとする。例を挙げると、生成部33は、ラベル毎に、ベッチ系列をクラスタリングしてクラスタ毎の数を計数し、クラスタ毎の数を並べた特徴ベクトルを生成する。
ここで、生成部33は、特徴量を分類するクラスタモデルを生成して、クラスタモデルに関する各種パラメータ等をモデルDB19に格納する。そのクラスタモデルは、分類時に使用される。例えば、生成部33は、各時系列データの各小区間データから生成された各ベッチ系列を用いた教師無学習によって、各ベッチ系列を各クラスタに分類するクラスタモデルを学習する。そして、生成部33は、学習されたクラスタモデルを用いて、各時系列データに対して、対応する各ベッチ系列から特徴ベクトルを生成する。すなわち、生成部33は、どのようなベッチ系列がどのクラスタに分類されるのかを特定できるクラスタモデルを生成する。なお、クラスタモデルの生成手法は、一例であり、一般的なクラスタリング技術を採用することができる。
学習部34は、特徴量を用いて学習処理を実行し、学習モデルを構築する処理部である。例えば、学習部34は、各入力データの特徴量である特徴ベクトルを特徴量DB17から取得して、取得した各特徴ベクトルを機械学習に入力して学習処理を実行する。
例えば、学習部34は、特徴ベクトルに基づき、時系列データの異常候補を抽出することで、時系列データの事象が判別できるように学習する。つまり、学習部34は、ある時系列データを事象A、別の時系列データを事象Bなどのように分類したり、時系列データの中から他とは異なるイベントの発生箇所を検出したりする。そして、学習部34は、時系列データの特徴量から事象が分類できるようにDL等によって学習し、学習結果を学習結果DB18に格納する。学習の結果は、分類結果(すなわちDL学習の出力)を含み、入力から出力を計算する際のニューラルネットワークの各種パラメータが含まれていてもよい。
また、学習手法は、教師無学習、教師有学習、半教師学習など各種の手法を採用することができる。教師無学習の場合、SVM(Support Vector Machine)などを用いることができる。教師有学習の場合、入力データに設定されるラベルと特徴ベクトルとを入力データとして、教師有学習を実行することもできる。
分類処理部40は、分割部41、系列生成部42、生成部43、分類部44を有し、学習済みの学習モデルを用いて、分類対象データの分類を実行する処理部である。なお、分割部41、系列生成部42、生成部43は、分類対象データに対して、分割部31、系列生成部32、生成部33それぞれと同様の処理を実行するので、詳細な説明は省略する。なお、生成部43は、モデルDB19に記憶される各種パラメータを読み出してクラスタモデルを構築し、系列生成部42から生成されたベッチ系列をクラスタモデルに入力して、クラスタモデルが出力する結果を特徴ベクトルとして抽出する。
分類部44は、分類対象データに対応する特徴量(特徴ベクトル)を、学習済みの学習モデルに入力して、分類対象データの分類を実行する処理部である。例えば、分類部44は、学習結果DB18から学習結果のパラメータ等を読み込んで、学習済みの学習モデルを構築する。そして、分類部44は、分割部41、系列生成部42、生成部43等によって生成された分類対象データの特徴ベクトルを、学習済みの学習モデルに入力する。
その後、分類部44は、学習済みの学習モデルの出力結果に基づいて、分類対象データを判別する。例えば、分類部44は、出力結果が事象Aと事象Bのうち事象Aに属する場合は、事象Aに分類し、出力結果として得られる事象Aの確率と事象Bの確率のうち事象Aの確率の方が高い場合は、事象Aに分類する。なお、分類部44は、分類結果をディスプレイなどの表示部に表示したり、管理装置に送信したりする。
[具体例]
次に、図11から図14を用いて具体例を説明する。図11は、区間分割と疑似アトラクタの生成を説明する図である。図12は、特徴量の抽出を説明する図である。図13は、学習例を説明する図である。図14は、学習後の分類例を説明する図である。なお、ここでは、1次のベッチ系列を算出する例で説明する。
具体例で用いる単位時間分の時系列データは、ラベル「検品作業」が付与されており、作業詳細として「製品Aを引き取る」、「製品Aの長さを測る」、「製品Aの重さを量る」、「製品Aを移動する」、「製品Bを引き取る」、「製品Bの長さを測る」、「製品Bの重さを量る」、「製品Bを移動する」が含まれるデータである。
まず、図11に示すように、学習処理部30は、ラベル「検品作業」が付与された単位時間分の時系列データを、予め定められた分割数に分割して、小区間データを生成する。続いて、学習処理部30は、各小区間データから疑似アトラクタを生成し、各小区間データの1次ベッチ系列を生成する。
次に、図12に示すように、学習処理部30は、公知のクラスタリング手法を用いて、学習データの小区間のベッチをまとめてクラスタリングする。例えば、学習処理部30は、クラスタ(1)からクラスタ(N)のN個に分類するクラスタリングを行い、各クラスタに属するベッチ系列の数を計数する。図12の例では、学習処理部30は、クラスタ(1)に属するベッチ系列の数を「9」、クラスタ(2)に属するベッチ系列の数を「6」、クラスタ(3)に属するベッチ系列の数を「4」、クラスタ(4)に属するベッチ系列の数を「0」などと計数する。
その後、学習処理部30は、各クラスタの計数結果を特徴ベクトルとして、機械学習に入力して学習処理を実行する。図12の例では、学習処理部30は、クラスタ(1)に属するベッチ系列の数を「9」、クラスタ(2)に属するベッチ系列の数を「6」、クラスタ(3)に属するベッチ系列の数を「4」、クラスタ(4)に属するベッチ系列の数を「0」などを用いて、特徴ベクトル「9,6,4,0,0,・・」を生成する。そして、学習処理部30は、図11に示したラベル「検品作業」の時系列データの特徴量として特徴ベクトル「9,6,4,0,0,・・」を用いて、機械学習を実行する。
このように、学習処理部30は、分割、ベッチ系列の生成、クラスタリングなどを実行して、各単位時間分の時系列データに対して特徴ベクトルを生成する。図13に示すように、学習処理部30は、ラベル「検品作業」が付与された単位時間分の時系列データに対しては、特徴ベクトル「9,6,4,0,0,・・」を生成し、これを入力として機械学習を実行する。また、学習処理部30は、ラベル「梱包作業」が付与された単位時間分の時系列データに対しては、特徴ベクトル「6,0,0,4,9,・・」を生成し、これを入力として機械学習を実行する。
学習完了後、分類処理部40は、学習済みの学習モデルを用いて分類処理を実行する。例えば、図14に示すように、分類処理部40は、分類対象データに対して、学習処理部30と同様の分割、ベッチ系列の生成、クラスタリングなどを実行して、分類対象データに対応する特徴ベクトル「9,6,4,0,0,・・・」を生成する。そして、分類処理部40は、生成した特徴ベクトル「9,6,4,0,0,・・・」を学習済みの学習モデルに入力して出力結果を得る。その後、分類処理部40は、出力結果に基づいて、分類対象データを「検品作業」などと分類する。
[処理の流れ]
図15は、学習処理の流れを示すフローチャートである。なお、学習後の分類処理も学習処理と同様の流れで実行できるので、詳細な説明は省略する。
図15に示すように、学習処理部30は、処理開始時が指示されると(S101:Yes)、入力データDB14から入力データを読み込む(S102)。
続いて、学習処理部30は、読み込んだ単位時間分の入力データを小区間に分割し(S103)、各小区間データのベッチ系列を生成する(S104)。そして、学習処理部30は、未処理の入力データが存在するか否かを判定する(S105)。
ここで、学習処理部30は、未処理の入力データが存在する場合(S105:Yes)、S102以降を繰り返す。一方、学習処理部30は、未処理の入力データが存在しない場合(S105:No)、各小区間データのベッチ系列から入力データの特徴量を生成する(S106)。
その後、学習処理部30は、ベッチ系列から特徴量を生成する特徴量生成モデルであるクラスタモデルを生成して、クラスタモデルに関する情報をモデルDB19に保存する(S107)。そして、学習処理部30は、各入力データの特徴量を用いて学習処理を実行する(S108)。
[効果]
上述したように、学習装置10は、ラベル付けされた単位時間内に複数の異なる特徴が存在するような分類問題について、単位時間内に存在する特徴の分布を特徴量とすることができる。この結果、学習装置10は、データそのままでは抽出できなかった特徴を抽出することができ、TDAを用いたデータ分析の適用範囲を広げることができる。また、学習装置10は、専門家による細かなラベル付けを抑制することができ、データの分類速度の向上と分類精度の向上を両立させることができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[特徴量の算出]
例えば、実施例1では、小区間データのベッチ系列をクラスタリングして特徴量を抽出する例を説明したが、これに限定されるものではない。例えば、学習装置10は、小区間毎の特徴量の統計量を特徴量とすることもできる。このようにすることで、単位時間内の特徴の変動度合いやランダムな変動を除いた大まかな特徴の傾向を数値化できる。
図16は、特徴量抽出の別例を説明する図である。図16に示すように、学習装置10は、ラベル「検品作業」が付与された単位時間分の時系列データを、予め定められた分割数に分割して、小区間データを生成する。続いて、学習処理部30は、各小区間データから疑似アトラクタを生成し、各小区間データの1次ベッチ系列を生成する。
その後、学習装置10は、各小区間データのベッチ系列の統計量を計算し、ラベル「検品作業」が付与された単位時間分の時系列データの特徴量とすることもできる。特徴量としては、平均、分散、尖度、歪度などを用いることができる。
[適用例]
次に、図17と図18を用いて、実施例1で説明した学習装置10を適用したシステム例を説明する。図17は、システム適用例(学習フェーズ)を説明する図である。図18は、システム適用例(実践フェーズ)を説明する図である。このシステムは、倉庫内作業の作業日報の自動生成を行うシステムである。ここでは、学習処理部30を有する学習装置10と分類処理部40を有する分類装置50とを用いるシステム例で説明する。
図17に示すように、学習装置10は、各作業員(作業員A〜C)が装着するジャイロセンサなどのウェアラブルセンサから無線通信で学習データを収集する。そして、管理者等は、学習データに10分刻みで作業内容を特定するラベル(作業内容ラベル)を設定する。
続いて、学習装置10は、収集したデータを5秒ごとの小区間に分割し、全小区間に対し疑似アトラクタを描画し、ベッチ系列を算出する。そして、学習装置10は、全ベッチ系列でクラスタリングを行い、クラスタリングのモデルCを生成する。その後、学習装置10は、10分ごと(ラベル単位)に120個のベッチ系列ができるので、各クラスタの数を特徴ベクトルとする。そして、学習装置10は、上記特徴ベクトルを全データに対して算出し、SVMで学習して、作業内容を分類する分類モデル(モデルS)を生成する。
学習が完了すると、図18に示すように、分類装置50は、作業員Aが装着するウェアラブルセンサから無線通信でデータを収集する。そして、分類装置50は、収集したデータの10分ごとのデータを5秒ごとに分割する。続いて、分類装置50は、分割された全小区間に対し疑似アトラクタを描画し、ベッチ系列を算出する。
その後、分類装置50は、モデルCを用いて、収集データの10分ごとの各クラスタ数を算出し、特徴ベクトルを作成する。そして、分類装置50は、特徴ベクトルをモデルSに入力して作業内容を分類する。例えば、分類装置50は、作業員Aに対して、9:00から12:00は検品作業、13:00から17:00は梱包作業を行っていたことを特定することができる。
このようにして、分類装置50は、作業員の指定日の10分刻みの作業内容を自動で分類し、分類した結果を表示する作業日報を自動で作成することができる。したがって、作業員が1日の作業を思い出しながら作業日報を記述する手間を省略することができ、正確な作業日報を短時間で生成することができる。
[数値等]
また、上記実施例で用いた数値、ラベルの設定内容、各種設定値、疑似アトラクタの次元数等は、あくまで一例であり、任意に変更することができる。また、入力データや学習方法などもあくまで一例であり、任意に変更することができる。なお、特徴ベクトルは、特徴量の一例であり、ベッチ系列の特徴を示す情報であれば、他の情報を用いることもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習処理と分類処理とを別々の装置で実現することもできる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図19は、ハードウェア構成例を説明する図である。図19に示すように、学習装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図19に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、学習装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、学習処理部30と分類処理部40等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、学習処理部30と分類処理部40等と同様の処理を実行するプロセスを実行する。
このように学習装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、学習装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、学習装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 学習装置
11 通信部
12 記憶部
13 設定値DB
14 入力データDB
15 小区間データDB
16 ベッチ系列DB
17 特徴量DB
18 学習結果DB
19 モデルDB
20 制御部
30 学習処理部
31 分割部
32 系列生成部
33 生成部
34 学習部
40 分類処理部
41 分割部
42 系列生成部
43 生成部
44 分類部

Claims (7)

  1. コンピュータが、
    単一のラベルが付与され、当該単一のラベルが付与された期間で動きが変動するデータを取得し、
    前記データを複数の区間に分割した要素ごとにアトラクタを生成し、
    生成したアトラクタから要素ごとにベッチ系列を算出し、
    算出した要素ごとのベッチ系列の集合としての特徴を学習する
    処理を実行することを特徴とする学習方法。
  2. 前記学習する処理は、前記要素ごとのベッチ系列をクラスタリングし、クラスタリングされた各クラスタに属する前記要素の数を用いた特徴ベクトルを生成し、前記要素ごとの特徴ベクトルを入力として機械学習を実行することを特徴とする請求項1に記載の学習方法。
  3. 前記学習する処理は、前記要素ごとのベッチ系列の統計量として、平均、分散、尖度または歪度のいずれか一つまたは複数を算出し、算出された前記要素ごとの統計量を入力として機械学習を実行することを特徴とする請求項1に記載の学習方法。
  4. 前記取得する処理は、作業員が装着するウェアラブルセンサから単位時間分の時系列データを取得し、
    前記生成する処理は、前記単位時間分の時系列データを複数の区間に分割した要素ごとにアトラクタを生成し、
    前記算出する処理は、前記アトラクタから要素ごとにベッチ系列を算出し、
    前記学習する処理は、前記要素ごとのベッチ系列から特徴量を算出し、前記特徴量を用いて、前記作業員の作業内容を分類する分類モデルを学習することを特徴とする請求項1に記載の学習方法。
  5. 前記作業員の前記ウェアラブルセンサから取得された複数の前記時系列データそれぞれから前記特徴量を算出し、
    算出された各特徴量を、学習済みの前記分類モデルに入力して、各分類結果を取得し、
    前記各分類結果に基づいて、前記作業員の作業日報を生成する処理を、前記コンピュータが実行することを特徴とする請求項4に記載の学習方法。
  6. コンピュータに、
    単一のラベルが付与され、当該単一のラベルが付与された期間で動きが変動するデータを取得し、
    前記データを複数の区間に分割した要素ごとにアトラクタを生成し、
    生成したアトラクタから要素ごとにベッチ系列を算出し、
    算出した要素ごとのベッチ系列の集合としての特徴を学習する
    処理を実行させることを特徴とする学習プログラム。
  7. 単一のラベルが付与され、当該単一のラベルが付与された期間で動きが変動するデータを取得する通信部と、
    前記データを複数の区間に分割した要素ごとにアトラクタを生成し、生成したアトラクタから要素ごとにベッチ系列を算出する系列生成部と、
    算出した要素ごとのベッチ系列の集合としての特徴を生成する生成部と、
    生成した前記特徴を学習する学習部と
    を有することを特徴とする学習装置。
JP2018229455A 2018-12-06 2018-12-06 学習方法、学習プログラムおよび学習装置 Active JP7131351B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018229455A JP7131351B2 (ja) 2018-12-06 2018-12-06 学習方法、学習プログラムおよび学習装置
US16/687,925 US11410055B2 (en) 2018-12-06 2019-11-19 Learning of a feature based on betti sequences obtained from time series data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229455A JP7131351B2 (ja) 2018-12-06 2018-12-06 学習方法、学習プログラムおよび学習装置

Publications (2)

Publication Number Publication Date
JP2020091756A true JP2020091756A (ja) 2020-06-11
JP7131351B2 JP7131351B2 (ja) 2022-09-06

Family

ID=70970255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229455A Active JP7131351B2 (ja) 2018-12-06 2018-12-06 学習方法、学習プログラムおよび学習装置

Country Status (2)

Country Link
US (1) US11410055B2 (ja)
JP (1) JP7131351B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102438656B1 (ko) * 2020-11-27 2022-08-31 주식회사 에이아이비즈 반도체 소자 제조 공정의 공정 업데이트 및 불량 원인 분석 방법
CN114429768B (zh) * 2022-02-25 2024-02-02 腾讯科技(深圳)有限公司 说话人日志模型的训练方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097643A (ja) * 2015-11-25 2017-06-01 富士通株式会社 機械学習プログラム、機械学習方法及び情報処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142425A (ja) 1997-11-10 1999-05-28 Furuno Electric Co Ltd 流速測定装置および超音波診断装置
JP4651667B2 (ja) 2005-06-23 2011-03-16 リオン株式会社 エンジン回転数計測方法及びその装置
EP3298524A4 (en) * 2015-05-22 2019-03-20 CSTS Health Care Inc. THERMODYNAMIC MEASUREMENTS RELATING TO PROTEIN-PROTEIN INTERACTION NETWORKS FOR THE TREATMENT OF CANCER
CN107850586B (zh) * 2015-07-15 2019-11-12 国立大学法人大阪大学 图像解析装置、图像解析方法、图像解析系统、以及存储介质
JP6816481B2 (ja) 2016-12-02 2021-01-20 富士通株式会社 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097643A (ja) * 2015-11-25 2017-06-01 富士通株式会社 機械学習プログラム、機械学習方法及び情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梅田 裕平 他2名: ""トポロジカルデータアナリシスと時系列データ解析への応用"", FUJITSU, vol. 69, no. 4, JPN6019034434, July 2018 (2018-07-01), pages 97 - 103, ISSN: 0004833727 *

Also Published As

Publication number Publication date
US11410055B2 (en) 2022-08-09
US20200184353A1 (en) 2020-06-11
JP7131351B2 (ja) 2022-09-06

Similar Documents

Publication Publication Date Title
JP6606997B2 (ja) 機械学習プログラム、機械学習方法及び情報処理装置
JP6555061B2 (ja) クラスタリングプログラム、クラスタリング方法、および情報処理装置
JP2018195308A (ja) プロセス及び製造業における業績評価指標のデータに基づく最適化のための方法及びシステム
US20140046878A1 (en) Method and system for detecting sound events in a given environment
US10437945B2 (en) Systems and methods for order-of-magnitude viral cascade prediction in social networks
JP2019016209A (ja) 診断装置、診断方法およびコンピュータプログラム
CN107003992B (zh) 用于神经语言行为识别系统的感知联想记忆
CN107111610B (zh) 用于神经语言行为识别系统的映射器组件
JP6952660B2 (ja) 更新支援装置、更新支援方法およびプログラム
Gonzalez-Vidal et al. Beats: Blocks of eigenvalues algorithm for time series segmentation
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JP7131351B2 (ja) 学習方法、学習プログラムおよび学習装置
JP2018503183A (ja) 神経言語挙動認識システム用の語彙解析器
JP2020149466A (ja) 時系列データ監視システム、および時系列データ監視方法
Sürmeli et al. Multivariate time series clustering and its application in industrial systems
JP2020009034A (ja) 業務推定方法、情報処理装置、及び業務推定プログラム
JP7274434B2 (ja) 流用設計支援システム及び流用設計支援方法
Jittawiriyanukoon et al. Simulation for predictive maintenance using weighted training algorithms in machine learning.
US11640553B2 (en) Method for analyzing time-series data based on machine learning and information processing apparatus
Sinaga et al. Prediction measuring local coffee production and marketing relationships coffee with big data analysis support
JP5401885B2 (ja) モデルの構築方法、構築システム及び構築用プログラム
US20200311587A1 (en) Method for extracting features, storage medium, and apparatus for extracting features
JP2018181052A (ja) モデル同定装置、予測装置、監視システム、モデル同定方法および予測方法
US10692256B2 (en) Visualization method, visualization device, and recording medium
Yeh et al. Estimation of a data-collection maturity model to detect manufacturing change

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150