JP6810675B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP6810675B2
JP6810675B2 JP2017221038A JP2017221038A JP6810675B2 JP 6810675 B2 JP6810675 B2 JP 6810675B2 JP 2017221038 A JP2017221038 A JP 2017221038A JP 2017221038 A JP2017221038 A JP 2017221038A JP 6810675 B2 JP6810675 B2 JP 6810675B2
Authority
JP
Japan
Prior art keywords
data
series data
discrimination
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017221038A
Other languages
English (en)
Other versions
JP2019091351A (ja
Inventor
隆慶 成田
隆慶 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Device Ltd
Original Assignee
Tokyo Electron Device Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Device Ltd filed Critical Tokyo Electron Device Ltd
Priority to JP2017221038A priority Critical patent/JP6810675B2/ja
Priority to US16/648,020 priority patent/US11551112B2/en
Priority to CN201880059998.9A priority patent/CN111095309B/zh
Priority to PCT/JP2018/038148 priority patent/WO2019097916A1/ja
Publication of JP2019091351A publication Critical patent/JP2019091351A/ja
Application granted granted Critical
Publication of JP6810675B2 publication Critical patent/JP6810675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
従来、教師データを機械学習することにより判別モデルを生成し、当該判別モデルを利用して、判別対象データのラベルを判別する技術が知られている。このような技術は、例えば、機器に設置されたセンサのセンサデータに基づいて、当該機器の異常を検知するために利用されている。
一般に、判別モデルの生成時には、教師データの前処理(正規化やサイズ調整など)が行われる。同様に、判別対象データのラベルの判別時には、判別対象データの前処理が行われる。データを前処理することにより、判別モデル自体の判別精度や、実際に判別モデルを利用して判別を実行する際の判別精度を向上させることができる。
特開2017−174045号公報
データの適切な前処理方法は、データによって異なる。このため、前処理や前処理方法の構築は、データサイエンティストなどの専門家により行われていた。この結果、判別モデルの生成や、判別対象データのラベルの判別には、多くの手間がかかった。
本発明は、上記の課題に鑑みてなされたものであり、データの前処理を自動化することを目的とする。
一実施形態に係る情報処理装置は、系列データである基準データを基準として、他の系列データを位置合わせする位置合わせ部と、前記他の系列データにおける、前記基準データと対応する部分を、対象データとして抽出する対象データ抽出部と、を備える。
本発明の各実施形態によれば、データの前処理の自動化を実現できる。
判別システムの概略構成の一例を示す図。 モデル生成装置のハードウェア構成の一例を示す図。 モデル生成装置及び判別装置の機能構成の一例を示す図。 系列データDの一例を示す図。 位置合わせされた系列データDの一例を示す図。 図5の各系列データD1〜D24から抽出された対象データを示す図。 図5の系列データD3(基準データD0)及び系列データD4から抽出された対象データをウェーブレット変換した結果を示す図。 モデル生成装置の動作の一例を示すフローチャート。 判別装置の動作の一例を示すフローチャート。
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重畳した説明を省略する。
一実施形態に係る判別システム100について、図1〜図9を参照して説明する。本実施形態に係る判別システム100は、教師データを機械学習することにより判別モデルを生成し、当該判別モデルにより判別対象データのラベルを判別するシステムである。
まず、判別システム100の概略構成について説明する。図1は、判別システム100の概略構成の一例を示す図である。図1の判別システム100は、モデル生成装置1と、判別装置2と、を備える。
モデル生成装置1は、情報処理装置の一例であり、教師データ(ラベルを付与された系列データD)が入力され、当該教師データに基づいて、系列データDのラベルを判別する判別モデルを生成するコンピュータである。モデル生成装置1は、PC(Personal Computer)、サーバ、スマートフォン、タブレット端末、又はマイコンであるが、これに限られない。系列データDは、1つ又は複数のデータを含むレコードが、所定の順序で並べられたものであり、時系列データ、一次元配列に変換された画像データ、及びテキストデータを含む。時系列データは、センサデータ及び音声データを含む。系列データDには、2種類以上のラベルが付与され得る。
判別装置2は、情報処理装置の一例であり、判別対象データ(系列データD)が入力され、当該判別対象データのラベルを、モデル生成装置1が生成した判別モデルを利用して判別するコンピュータである。判別装置2は、PC、サーバ、スマートフォン、タブレット端末、又はマイコンであるが、これに限られない。判別対象データは、ラベルを付与されていてもよいし、ラベルを付与されていなくてもよい。
なお、図1の例では、モデル生成装置1及び判別装置2は、それぞれ異なるコンピュータにより構成されているが、同一のコンピュータにより構成されてもよい。また、判別装置2は、モデル生成装置1が生成した判別モデルとは異なる判別モデルを利用して、系列データDのラベルを判別してもよい。
次に、モデル生成装置1及び判別装置2のハードウェア構成について説明する。図2は、モデル生成装置1のハードウェア構成の一例を示す図である。図2のモデル生成装置1は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、HDD(Hard Disk Drive)104と、入力装置105と、表示装置106と、通信インタフェース107と、バス108と、を備える。
CPU101は、プログラムを実行することにより、モデル生成装置1の各構成を制御し、モデル生成装置1の機能を実現する。
ROM102は、CPU101が実行するプログラムを含む各種のデータを記憶する。
RAM103は、CPU101に作業領域を提供する。
HDD104は、CPU101が実行するプログラムを含む各種のデータを記憶する。
入力装置105は、モデル生成装置1にユーザの操作に応じた情報を入力する。入力装置105は、キーボード、マウス、タッチパネル、及びハードウェアボタンを含む。
表示装置106は、ユーザの操作に応じた画面を表示する。表示装置106は、液晶ディスプレイ、プラズマディスプレイ、及び有機EL(Electro Luminescence)ディスプレイを含む。
通信インタフェース107は、モデル生成装置1を有線又は無線でインターネットやLAN(Local Area Network)などのネットワークに接続する。モデル生成装置1は、ネットワークを介して、判別装置2と接続されてもよい。
バス108は、CPU101、ROM102、RAM103、HDD104、入力装置105、表示装置106、及び通信インタフェース107を相互に接続する。
なお、モデル生成装置1のハードウェア構成は、図2の例に限られない。モデル生成装置1は、CPU101、ROM102、及びRAM103を備える任意の構成で有り得る。また、判別装置2のハードウェア構成は、モデル生成装置1と同様であるため、説明を省略する。
次に、モデル生成装置1及び判別装置2の機能構成について説明する。図3は、モデル生成装置1及び判別装置2の機能構成の一例を示す図である。
まず、モデル生成装置1の機能構成について説明する。図3のモデル生成装置1は、系列データ記憶部11と、基準データ選択部12と、位置合わせ部13と、対象データ抽出部14と、特徴量抽出部15と、モデル生成部16と、を備える。系列データ記憶部11は、ROM102、RAM103、及びHDD104などにより実現される。基準データ選択部12、位置合わせ部13、対象データ抽出部14、特徴量抽出部15、及びモデル生成部16は、CPU101がプログラムを実行することにより実現される。
系列データ記憶部11は、ラベルが付与された系列データD(教師データ)を複数記憶する。各系列データDは、それぞれデータファイルとして保存される。系列データ記憶部11に記憶される各系列データDのサイズは同一であってもよいし、異なってもよい。
図4は、系列データDの一例を示す図である。図4の系列データDは、加速度センサのセンサデータであり、複数のレコードが計測時刻の順に並べられている。各レコードには、x軸方向、y軸方向、及びz軸方向の3つのデータ項目の値(データ)が含まれている。このように、系列データDには、複数のデータ項目が含まれてもよいし、1つのデータ項目が含まれてもよい。系列データ記憶部11には、図4のような系列データDが、ラベルと対応付けて記憶される。
基準データ選択部12は、系列データ記憶部11に記憶された複数の系列データDの中から、基準データD0を選択する。基準データD0は、位置合わせ部13による位置合わせの基準となる系列データDである。基準データ選択部12は、ランダムに基準データD0を選択してもよいし、何らかのアルゴリズムに従って基準データD0を選択してもよい。基準データD0の選択方法は任意である。
一般に、学習対象となる系列データDには、特徴的なパターンが含まれる。しかしながら、系列データDにおけるどのデータ項目に当該パターンが含まれるかはわからない。特徴的なパターンを含まないデータ項目を利用して機械学習を行うと、高精度な判別モデルを生成できないおそれがある。
そこで、図4の例のように、各系列データDに複数のデータ項目が含まれる場合には、基準データ選択部12は、複数のデータ項目の中から、1つ又は複数のデータ項目を基準データD0として選択してもよい。基準データ選択部12は、系列データD間における類似度が最も高いデータ項目や、系列データD間における類似度が閾値以上の1つ又は複数のデータ項目を、基準データD0として選択するのが好ましい。類似度は、相互相関や動的時間伸縮法により算出できる。これにより、基準データ選択部12は、特徴的なパターンが含まれる可能性が高いデータ項目を、基準データD0として選択することができる。
なお、基準データ選択部12は、基準データD0を選択する前に、各系列データDに対して正規化などの前処理を実行してもよい。
位置合わせ部13は、基準データ選択部12により選択された基準データD0を基準として、系列データ記憶部11に記憶された他の系列データDを位置合わせする。基準データ選択部12により、複数のデータ項目の中から、1つ又は複数のデータ項目を基準データD0として選択されている場合には、位置合わせ部13は、他の系列データDにおける、基準データ選択部12により選択されたデータ項目を、基準データD0を基準として位置合わせする。
一般に、学習対象となる系列データDには、特徴的なパターンが含まれる。しかしながら、当該パターンが含まれる位置は、系列データDによって異なる。このため、各系列データDの始点を一致させた状態で機械学習を行うと、各系列データDにおける特徴的なパターンの位置ずれにより、高精度な判別モデルを生成できないおそれがある。
そこで、位置合わせ部13は、各系列データDに含まれる特徴的なパターンの位置が、基準データD0に含まれる特徴的なパターンの位置と一致するように、各系列データDを位置合わせする。具体的には、位置合わせ部13は、基準データD0と他の系列データDとの類似度が高まるように、基準データD0を基準として、他の系列データDの始点を移動させる。この際、位置合わせ部13は、必要に応じてデータの補間や間引きを行ってもよい。類似度は、相互相関や動的時間伸縮法により算出できる。位置合わせ部13は、基準データD0と他の系列データDとの類似度が最大となるように、他の系列データDの始点を移動させるのが好ましい。これにより、位置合わせ部13は、各系列データDにおける特徴的なパターンの位置を、基準データD0に含まれる特徴的なパターンの位置と一致させることができる。
図5は、位置合わせされた系列データDの一例を示す図である。図5の例では、「ok」又は「ng」というラベルを付与された24個の系列データD1〜D24が、系列データD3(基準データD0)を基準として位置合わせされている。図5からわかるように、他の系列データD1,D2,D4〜D24は、基準データD0に対して始点を相対的に移動させることにより、位置合わせされる。
対象データ抽出部14は、位置合わせ部13により位置合わせされた他の系列データDにおける、基準データD0と対応(重複)する部分を、対象データとして抽出する。対象データは、後段の処理で利用される対象となるデータである。対象データ抽出部14により抽出される対象データは、判別モデルを生成するための機械学習に利用されるデータに相当する。
また、対象データ抽出部14は、各系列データDから、同一の部分を対象データとして抽出する。さらに、対象データ抽出部14は、基準データD0から、各系列データDから抽出された対象データと同一の部分を対象データとして抽出する。
この結果、基準データD0及び他の系列データDからそれぞれ、全ての系列データDが重複する部分が対象データとして抽出される。全ての系列データDが重複する部分は、位置合わせされた系列データDのうち始点が最も後ろに位置する系列データDの始点から、位置合わせされた系列データDのうち終点が最も前に位置する系列データDの終点まで、の部分に相当する。
例えば、図5の例では、位置合わせされた系列データDのうち始点が最も後ろに位置する系列データDは系列データD10であり、位置合わせされた系列データDのうち終点が最も前に位置する系列データDは系列データD9である。したがって、各系列データD1〜D24から、系列データD10の始点から系列データD9の終点までの部分(図5における実線で囲まれた部分)が対象データとして抽出される。
図6は、図5の各系列データD1〜D24から抽出された対象データを示す図である。図6からわかるように、対象データは同一のサイズを有するデータとなる。対象データは、特徴的なパターンを位置合わせされた各系列データDの重複部分であるため、当該パターンを含む。後段では、この対象データを利用して処理が行われる。
このように、本実施形態によれば、基準データ選択部12及び位置合わせ部13により、系列データ記憶部11に記憶された、サイズや特徴的なパターンの位置が不揃いの複数の系列データD(教師データ)から、サイズが同一であり、特徴的なパターンが位置合わせされた複数の対象データを自動的に抽出することができる。モデル生成装置1は、この対象データを利用して判別モデルを生成するため、高精度な判別モデルを生成することができる。
特徴量抽出部15は、対象データ抽出部14により抽出された複数の対象データから、それぞれ特徴量を抽出する。特徴量抽出部15は、例えば、ウェーブレット変換、高速フーリエ変換、ローパスフィルタ、ハイパスフィルタなどの方法により特徴量を抽出することができる。特徴量の抽出方法は任意である。
図7は、図5の系列データD3(基準データD0)及び系列データD4から抽出された対象データをウェーブレット変換した結果を示す図である。図7によれば、2つの対象データには類似するパターンが含まれていることがわかる。ウェーブレット変換により、このようなパターンを特徴量として抽出することができる。
モデル生成部16は、特徴量抽出部15が抽出した複数の特徴量と、当該特徴量が抽出された系列データDに付与されたラベルと、の関係を機械学習することにより、系列データDのラベルを判別する判別モデルを生成する。具体的には、モデル生成部16は、予め用意された複数の学習アルゴリズムによりそれぞれ判別モデルを生成し、各学習アルゴリズムにより生成された判別モデルの判別精度を、クロスバリデーションにより計算する。そして、モデル生成部16は、判別精度が最も高い判別モデルを、系列データDのラベルの判別モデルとして出力する。これにより、判別精度が高い判別モデルを自動的に生成することができる。
モデル生成部16は、ランダムフォレスト、サポートベクターマシン、ロジスティック回帰、ディープラーニングなどの、任意の学習アルゴリズムを利用できる。また、ディープラーニングのように、特徴量を抽出できる学習アルゴリズムを利用する場合には、モデル生成部16は、対象データ抽出部14が抽出した複数の対象データと、当該特徴量が抽出された系列データDに付与されたラベルと、の関係を機械学習することにより、系列データDのラベルを判別する判別モデルを生成してもよい。この場合、特徴量抽出部15は不要である。また、モデル生成部16は、特徴量に基づいて判別モデルを生成する学習アルゴリズムと、対象データに基づいて判別モデルを生成する学習アルゴリズムと、を併用してもよい。
次に、判別装置2の機能構成について説明する。図3の判別装置2は、系列データ記憶部21と、判別モデル記憶部22と、位置合わせ部23と、対象データ抽出部24と、特徴量抽出部25と、判別部26と、を備える。系列データ記憶部21及び判別モデル記憶部22は、判別装置2のROM、RAM、及びHDDなどにより実現される。位置合わせ部23、対象データ抽出部24、特徴量抽出部25、及び判別部26は、判別装置2のCPUがプログラムを実行することにより実現される。
系列データ記憶部21は、1つ又は複数の系列データD(判別対象データ)を記憶する。各系列データDは、それぞれデータファイルとして保存される。系列データ記憶部21に記憶される各系列データDのサイズは同一であってもよいし、異なってもよい。また、系列データDには、複数のデータ項目が含まれてもよいし、1つのデータ項目が含まれてもよい。また、系列データDは、ラベルを付与されていてもよいし、ラベルを付与されていなくてもよい。ラベルが付与されていない系列データDを判別対象データとして利用することにより、ラベルが未知の系列データDのラベルを判別することができる。また、ラベルが付与された系列データDを判別対象データとして利用することにより、判別モデルの判別精度を検証することができる。
判別モデル記憶部22は、系列データDのラベルを判別する判別モデルを記憶する。判別モデル記憶部22には、モデル生成装置1が生成した判別モデルが記憶されてもよいし、モデル生成装置1が生成した判別モデルとは異なる判別モデルが記憶されていてもよい。
また、判別モデル記憶部22は、基準データd0を記憶する。基準データd0は、位置合わせ部23による位置合わせの基準となる系列データDである。基準データd0は、特徴的なパターンを含み、かつ、特徴的なパターンと関係のない部分が少ない(サイズが小さい)系列データDであるのが好ましい。したがって、判別モデル記憶部22には、基準データd0として、対象データ抽出部14が基準データD0から抽出した対象データが記憶されるのが好ましい。なお、判別モデル記憶部22には、基準データd0として、対象データ抽出部14が他の系列データDから抽出した対象データが記憶されてもよいし、系列データ記憶部11に記憶された任意の系列データDが記憶されてもよい。
位置合わせ部23は、判別モデル記憶部22に記憶された基準データd0を基準として、系列データ記憶部21に記憶された系列データDを位置合わせする。基準データd0に含まれるデータ項目と、系列データDに含まれるデータ項目と、が異なる場合には、位置合わせ部23は、系列データDにおける、基準データd0と共通のデータ項目を、基準データd0を基準として位置合わせする。
位置合わせ部23は、各系列データDに含まれる特徴的なパターンの位置が、基準データd0に含まれる特徴的なパターンの位置と一致するように、各系列データDを位置合わせする。具体的には、位置合わせ部23は、基準データd0と系列データDとの類似度が高まるように、基準データd0を基準として、系列データDの始点を移動させる。この際、位置合わせ部13は、必要に応じてデータの補間や間引きを行ってもよい。類似度は、相互相関や動的時間伸縮法により算出できる。位置合わせ部23は、基準データd0と系列データDとの類似度が最大となるように、系列データDの始点を移動させるのが好ましい。これにより、位置合わせ部23は、系列データDにおける特徴的なパターンの位置を、基準データd0に含まれる特徴的なパターンの位置と一致させることができる。
なお、位置合わせ部23は、系列データDを位置合わせする前に、系列データDに対して正規化などの前処理を実行してもよい。
対象データ抽出部24は、位置合わせ部23により位置合わせされた系列データDにおける、基準データd0と対応(重複)する部分を、対象データとして抽出する。対象データは、後段の処理で利用される対象となるデータである。対象データ抽出部24により抽出される対象データは、系列データDのラベルの判別に利用されるデータに相当する。
系列データDと基準データd0とが対応(重複)する部分は、基準データd0及び位置合わせされた系列データDのうち始点が後ろに位置する方の始点から、基準データd0及び位置合わせされた系列データDのうち終点が前に位置する方の終点まで、の部分に相当する。後段では、この対象データを利用して処理が行われる。
このように、本実施形態によれば、位置合わせ部23により、系列データ記憶部21に記憶された、サイズや特徴的なパターンの位置が不揃いの系列データD(判別対象データ)から、サイズが同一であり、特徴的なパターンが位置合わせされた対象データを自動的に抽出することができる。判別装置2は、この対象データを利用して系列データDのラベルを判別するため、ラベルを高精度に判別することができる。
特徴量抽出部25は、対象データ抽出部24により抽出された対象データから特徴量を抽出する。特徴量抽出部25は、例えば、ウェーブレット変換、高速フーリエ変換、ローパスフィルタ、ハイパスフィルタなどの方法により特徴量を抽出することができる。特徴量の抽出方法は任意である。
判別部26は、特徴量抽出部25により抽出された特徴量を、判別モデル記憶部22に記憶された判別モデルを入力することにより、系列データDのラベルを判別する。
次に、モデル生成装置1及び判別装置2の動作について説明する。
まず、モデル生成装置1の動作について説明する。図8は、モデル生成装置1の動作の一例を示すフローチャートである。図8の動作は、モデル生成装置1のユーザが、モデル生成装置1に複数の教師データ(ラベルを付与された系列データD)を入力すると開始される。
まず、系列データ記憶部11が、ユーザにより入力された教師データを記憶する(ステップS101)。教師データは、ユーザ端末からネットワークを介して入力されてもよいし、CD−ROMなどの記憶媒体から入力されてもよい。
次に、基準データ選択部12が、系列データ記憶部11から系列データD(教師データ)を読み出し、読み出した系列データDの中から基準データD0を選択する(ステップS102)。基準データ選択部12は、基準データD0の選択を、定期的に実行してもよいし、ユーザからの判別モデルの生成要求に応じて実行してもよいし、系列データ記憶部11に新たな教師データが追加されるたびに実行してもよい。基準データ選択部12は、系列データD及び選択結果(基準データD0として選択された系列データDを示す情報)を位置合わせ部13に通知する。
位置合わせ部13は、基準データ選択部12から選択結果を通知されると、基準データD0を基準として、他の系列データDを位置合わせする(ステップS103)。位置合わせ部13は、系列データD及び位置合わせ結果(位置合わせされた他の系列データDの始点の、基準データD0の始点に対する相対位置を示す情報)を対象データ抽出部14に通知する。
対象データ抽出部14は、位置合わせ結果を通知されると、基準データD0及び他の系列データDから、対象データをそれぞれ抽出する(ステップS104)。対象データ抽出部14は、系列データD及び抽出結果(各系列データDにおける対象データの始点及び終点を示す情報)を特徴量抽出部15に通知する。また、対象データ抽出部14は、基準データD0から抽出した対象データを判別装置2に送信する。判別装置2の判別モデル記憶部22は、対象データを受信すると、当該対象データを新たな基準データd0として記憶する。
特徴量抽出部15は、対象データ抽出部14から抽出結果を通知されると、各対象データから特徴量を抽出する(ステップS105)。特徴量抽出部15は、系列データD及び抽出結果(各対象データから抽出した特徴量)をモデル生成部16に通知する。
モデル生成部16は、特徴量抽出部15から抽出結果を通知されると、系列データ記憶部11から各系列データDのラベルを読み出し、各系列データDの特徴量とラベルとの関係を機械学習し、判別モデルを生成する(ステップS106)。モデル生成部16は、生成した判別モデルを判別装置2に送信する。判別装置2の判別モデル記憶部22は、判別モデルを受信すると、当該判別モデルを新たな判別モデルとして記憶する。
モデル生成装置1は、以上の動作により、判別モデルを自動的に生成することができる。なお、モデル生成装置1は、各工程で得られた結果を表示装置106に表示し、モデル生成装置1のユーザが確認できるようにしてもよい。例えば、表示装置106に、教師データの入力画面、図5のような位置合わせ結果、図6のような対象データの抽出結果、生成された判別モデル、判別モデルの判別精度などを表示することが考えられる。
次に、判別装置2の動作について説明する。図9は、判別装置2の動作の一例を示すフローチャートである。図9の動作は、判別装置2のユーザが、判別装置2に判別対象データ(系列データD)を入力すると開始される。
まず、系列データ記憶部21が、ユーザにより入力された判別対象データを記憶する(ステップS201)。判別対象データは、ユーザ端末からネットワークを介して入力されてもよいし、CD−ROMなどの記憶媒体から入力されてもよい。
次に、位置合わせ部23が、系列データ記憶部21から系列データD(判別対象データ)を読み出し、判別モデル記憶部22から基準データd0を読み出し、基準データd0を基準として、系列データDを位置合わせする(ステップS202)。位置合わせ部23は、系列データDの位置合わせを、定期的に実行してもよいし、ユーザからのラベルの判別要求に応じて実行してもよいし、系列データ記憶部21に新たな判別対象データが追加されるたびに実行してもよい。位置合わせ部23は、系列データD及び位置合わせ結果(位置合わせされた系列データDの始点の、基準データd0の始点に対する相対位置を示す情報)を対象データ抽出部24に通知する。
対象データ抽出部24は、位置合わせ結果を通知されると、系列データDから対象データを抽出する(ステップS203)。対象データ抽出部24は、抽出結果(系列データDにおける対象データの始点及び終点を示す情報)を特徴量抽出部25に通知する。
特徴量抽出部25は、対象データ抽出部24から抽出結果を通知されると、対象データから特徴量を抽出する(ステップS204)。特徴量抽出部25は、抽出結果(対象データから抽出した特徴量)を判別部26に通知する。
判別部26は、特徴量抽出部25から抽出結果を通知されると、判別モデル記憶部22から判別モデルを読み出し、当該判別モデルに特徴量を入力して、系列データのDのラベルを判別する(ステップS205)。
判別装置2は、以上の動作により、系列データDのラベルを自動的に判別することができる。なお、判別装置2は、各工程で得られた結果を表示装置に表示し、判別装置2のユーザが確認できるようにしてもよい。例えば、表示装置に、判別対象データの入力画面、図5のような位置合わせ結果、図6のような対象データの抽出結果、系列データDのラベルの判別結果(系列データDのラベル)などを表示することが考えられる。
以上説明した通り、本実施形態によれば、サイズや特徴的なパターンの位置が不揃いな系列データDの前処理(位置合わせ及びサイズ調整)を自動化することができる。また、複数の教師データから高精度な判別モデルを自動的に生成することができる。また、判別対象データのラベルを自動的に精度よく判別することができる。
例えば、本実施形態に係る判別システム100を、工場などに設置された機器の異常検知に利用する場合について考える。この場合、まず、判別システム100のユーザは、機器の異常を検知するためのセンサ(加速度センサや温度センサなど)を機器に設置し、機器の正常時のセンサデータと、機器の異常時のセンサデータと、を収集する。次に、ユーザは、正常時に収集したセンサデータに「正常」というラベルを付与し、異常時に収集したセンサデータに「異常」というラベルを付与し、教師データとしてモデル生成装置1に入力する。上述の通り、モデル生成装置1は、センサデータ(教師データ)が入力されると、センサデータのラベルが「正常」であるか「異常」であるかを判別する判別モデルを自動的に生成する。すなわち、ユーザは、センサデータの前処理を行うことなく、簡単に判別モデルを手に入れることができる。なお、センサとモデル生成装置1とを直接又はネットワークを介して接続し、センサデータがセンサからモデル生成装置1に自動的に入力されるようにすることも可能である。この場合、入力されたセンサデータに付与すべきラベルをユーザが予め設定しておいてもよい。また、モデル生成部16が、k−means法などの、教師なし学習が可能な学習アルゴリズムを利用して、判別モデルを生成してもよい。
その後、ユーザは、センサデータを判別対象データとして定期的に判別装置2に入力する。上述の通り、判別装置2は、センサデータ(判別対象データ)が入力されると、センサデータのラベルが「正常」であるか「異常」であるかを判別モデルに基づいて自動的に判別する。すなわち、ユーザは、センサデータの前処理を行うことなく、センサデータのラベル(機器の状態)をリアルタイムに簡単に判別することができる。なお、センサと判別装置2とを直接又はネットワークを介して接続し、センサデータがセンサから判別装置2に自動的に入力されるようにすることも可能である。
このように、本実施形態によれば、判別モデルの生成や判別対象データのラベルの判別に要する手間を削減できるため、モデル生成装置1及び判別装置2の製造に要する時間やコストを削減できる。結果として、センサデータなどの系列データDの活用を促進できる。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更可能であり、その応用形態に応じて適切に定めることができる。
1:モデル生成装置
2:判別装置
11:系列データ記憶部
12:基準データ選択部
13:位置合わせ部
14:対象データ抽出部
15:特徴量抽出部
16:モデル生成部
21:系列データ記憶部
22:判別モデル記憶部
23:位置合わせ部
24:対象データ抽出部
25:特徴量抽出部
26:判別部
100:判別システム

Claims (5)

  1. 系列データである基準データを基準として、相互相関により算出される類似度が高くなるよう他の系列データを位置合わせする位置合わせ部と、
    全ての系列データが重複する部分を、対象データとして抽出する対象データ抽出部と、
    複数の前記対象データと、複数の前記対象データから抽出された特徴量と、の少なくとも一方に基づいて、前記系列データのラベルを判別する判別モデルを生成するモデル生成部と
    を備え、
    前記モデル生成部は、予め用意された複数の学習アルゴリズムにより前記判別モデルを生成し、判別精度が最も高い前記判別モデルを出力し、
    前記全ての系列データが重複する部分は、位置合わせされた系列データのうち始点が最も後ろに位置する系列データの始点から、位置合わせされた系列データのうち終点が最も前に位置する系列データの終点まで、の部分である、情報処理装置。
  2. 前記対象データから特徴量を抽出する特徴量抽出部を更に備える
    請求項1に記載の情報処理装置。
  3. 複数の系列データの中から、前記基準データを選択する基準データ選択部を更に備える
    請求項1または請求項2に記載の情報処理装置。
  4. 前記系列データのラベルを判別する判別モデルに基づいて、前記対象データのラベルを判別する判別部を更に備える
    請求項1から請求項までのいずれか1項に記載の情報処理装置。
  5. 系列データである基準データを基準として、相互相関により算出される類似度が高くなるよう他の系列データを位置合わせする位置合わせ工程と、
    全ての系列データが重複する部分を、対象データとして抽出する対象データ抽出工程と、
    複数の前記対象データと、複数の前記対象データから抽出された特徴量と、の少なくとも一方に基づいて、前記系列データのラベルを判別する判別モデルを生成するモデル生成工程と
    をコンピュータに実行させ、
    前記モデル生成工程は、予め用意された複数の学習アルゴリズムにより前記判別モデルを生成し、判別精度が最も高い前記判別モデルを出力し、
    前記全ての系列データが重複する部分は、位置合わせされた系列データのうち始点が最も後ろに位置する系列データの始点から、位置合わせされた系列データのうち終点が最も前に位置する系列データの終点まで、の部分である、プログラム。
JP2017221038A 2017-11-16 2017-11-16 情報処理装置及びプログラム Active JP6810675B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017221038A JP6810675B2 (ja) 2017-11-16 2017-11-16 情報処理装置及びプログラム
US16/648,020 US11551112B2 (en) 2017-11-16 2018-10-12 Information processing apparatus and storage medium
CN201880059998.9A CN111095309B (zh) 2017-11-16 2018-10-12 信息处理装置以及程序产品
PCT/JP2018/038148 WO2019097916A1 (ja) 2017-11-16 2018-10-12 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017221038A JP6810675B2 (ja) 2017-11-16 2017-11-16 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019091351A JP2019091351A (ja) 2019-06-13
JP6810675B2 true JP6810675B2 (ja) 2021-01-06

Family

ID=66539705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017221038A Active JP6810675B2 (ja) 2017-11-16 2017-11-16 情報処理装置及びプログラム

Country Status (4)

Country Link
US (1) US11551112B2 (ja)
JP (1) JP6810675B2 (ja)
CN (1) CN111095309B (ja)
WO (1) WO2019097916A1 (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4136123B2 (ja) * 1998-10-16 2008-08-20 キヤノン株式会社 情報処理装置及び方法及び記憶媒体
JP2003132088A (ja) * 2001-10-22 2003-05-09 Toshiba Corp 時系列データ検索システム
JP2013003706A (ja) * 2011-06-14 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置、方法、及びプログラム
JP5592414B2 (ja) * 2012-01-05 2014-09-17 株式会社日立ハイテクノロジーズ テンプレート評価装置、顕微鏡装置及びプログラム
JP6212134B2 (ja) * 2013-12-02 2017-10-11 富士機械製造株式会社 組立機
WO2016117358A1 (ja) * 2015-01-21 2016-07-28 三菱電機株式会社 検査データ処理装置および検査データ処理方法
US10360215B1 (en) * 2015-03-30 2019-07-23 Emc Corporation Methods and apparatus for parallel evaluation of pattern queries over large N-dimensional datasets to identify features of interest
US10102451B2 (en) * 2015-10-13 2018-10-16 Elekta, Inc. Pseudo-CT generation from MR data using tissue parameter estimation
JP6686593B2 (ja) 2016-03-23 2020-04-22 日本電気株式会社 データ処理装置、データ処理システム、データ処理方法及びプログラム
EP3282588B1 (en) * 2016-08-09 2019-09-25 Siemens Aktiengesellschaft Method, system and program product for data transmission with a reduced data volume
US11069335B2 (en) * 2016-10-04 2021-07-20 Cerence Operating Company Speech synthesis using one or more recurrent neural networks
GB201621434D0 (en) * 2016-12-16 2017-02-01 Palantir Technologies Inc Processing sensor logs
US10783185B2 (en) * 2017-08-30 2020-09-22 Pearson Education, Inc. System and method for automated hybrid sequencing database generation

Also Published As

Publication number Publication date
JP2019091351A (ja) 2019-06-13
US11551112B2 (en) 2023-01-10
CN111095309A (zh) 2020-05-01
CN111095309B (zh) 2024-07-12
WO2019097916A1 (ja) 2019-05-23
US20200279177A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP5830004B2 (ja) 3次元モデル生成装置、3次元モデル生成方法及び3次元モデル生成プログラム
JP2013035539A5 (ja)
US8825824B2 (en) Systems and methods for machine configuration
JP6866930B2 (ja) 生産設備監視装置、生産設備監視方法及び生産設備監視プログラム
WO2019026134A1 (ja) 情報処理装置および情報処理方法
JPWO2016147612A1 (ja) システム、画像認識方法、および、プログラム
JP6276727B2 (ja) 統計モデル作成装置、統計モデル作成方法及び統計モデル作成プログラム
US20140155179A1 (en) Method and apparatus for generating map data based on game log data
EP2135144A1 (en) Machine condition monitoring using pattern rules
JP2016066197A (ja) 分析システム及び分析方法
JP6810675B2 (ja) 情報処理装置及びプログラム
EP3009900A1 (en) Dynamic recommendation of elements suitable for use in an engineering configuration
CN114416256B (zh) 信息处理方法、装置、电子设备及存储介质
US20230161319A1 (en) Computer-implemented method for recognizing an input pattern in at least one time series of a plurality of time series
JP6290777B2 (ja) データ関連情報処理装置及びプログラム
JP6405851B2 (ja) 予兆検知支援プログラム、方法、装置、及び予兆検知プログラム、
US20190265954A1 (en) Apparatus and method for assisting discovery of design pattern in model development environment using flow diagram
JP6854248B2 (ja) 境界探索テスト支援装置および境界探索テスト支援方法
EP3214517A1 (en) Electronic device, system and method
US11372741B2 (en) Information processing apparatus configured to perform debug analysis based on a distributed representation vector for lines of a debug log, method, and non-transitory recording medium
US20170206290A1 (en) Simulation system and simulation method
JP6602280B2 (ja) 計装図データ生成装置、計装図検索システム及びプログラム
JP2017045147A (ja) 情報提供装置、情報提供方法、及びプログラム
JP2016115168A (ja) プログラム、情報処理装置、評価方法
CN105593904A (zh) 对图形对象操作的记录和重放

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201109

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201117

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201211

R150 Certificate of patent or registration of utility model

Ref document number: 6810675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250