JP6950505B2 - 判別プログラム、判別方法および判別装置 - Google Patents

判別プログラム、判別方法および判別装置 Download PDF

Info

Publication number
JP6950505B2
JP6950505B2 JP2017236369A JP2017236369A JP6950505B2 JP 6950505 B2 JP6950505 B2 JP 6950505B2 JP 2017236369 A JP2017236369 A JP 2017236369A JP 2017236369 A JP2017236369 A JP 2017236369A JP 6950505 B2 JP6950505 B2 JP 6950505B2
Authority
JP
Japan
Prior art keywords
interval
data
time series
learning
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017236369A
Other languages
English (en)
Other versions
JP2019105883A (ja
Inventor
裕平 梅田
裕平 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017236369A priority Critical patent/JP6950505B2/ja
Priority to US16/202,577 priority patent/US11625570B2/en
Publication of JP2019105883A publication Critical patent/JP2019105883A/ja
Application granted granted Critical
Publication of JP6950505B2 publication Critical patent/JP6950505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0418Architecture, e.g. interconnection topology using chaos or fractal principles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、判別プログラム、判別方法および判別装置に関する。
時系列データを自動で分類する深層学習(ディープラーニング(DL)・Deep Learning)技術が知られている。また、時系列データには、間欠的にイベントが発生する、いつイベントが発生するかわからない特徴がある点過程時系列データと呼ばれるものが存在する。例えば、点過程時系列データとしては、心拍データ、インターネットなどでの顧客等のアクセス、商品の需要データ、経済取引、地震などのデータがある。点過程時系列データも時系列データであることから、例えば心拍データで病気の有無や眠気度の分類、経済指標で経済状態の分類などのように、分類を行う要望がある。
近年では、点過程時系列データの解析に関する技術として、イベント間の間隔を発生時の値とし、その間隔値を補間して時系列データに変換した後で、周波数解析を行うことにより、発生間隔の特徴を抽出する技術が知られている。また、別の技術として、イベントの発生をポアソン過程等でモデル化し、イベント発生を確率的なものとして扱う技術が知られており、イベントの発生がカオス的であると仮定してカオス時系列の特徴量を求める技術なども知られている。
特開2016−95434号公報 特開2016−42123号公報
しかしながら、上記技術は、分析対象の点過程時系列データが特定のモデルであることを前提に、パラメータを求めることを行っているが、パラメータの値自体からは、分析対象の点過程時系列が当該モデルに合致しているかは判定できない。特にカオス時系列として計算した場合など、同一の点過程時系列であっても、初期値の違いにより全く異なるパラメータが出力される等の現象が生じる。
このように、上記技術では、補間によって情報が改変される場合やイベントの発生間隔が特定のモデルに沿っていることが事前に分かっている必要があるなど、点過程時系列データの判別を行うには問題があり、現実的には難しい。
一つの側面では、モデルに関する前提条件を置かずに判別することができる判別プログラム、判別方法および判別装置を提供することを目的とする。
第1の案では、判別プログラムは、時系列で発生した複数の事象間の隣接発生間隔それぞれを複数の成分として有する間隔ベクトルを生成する処理をコンピュータに実行させる。判別プログラムは、前記時系列において所定数の連続した前記間隔ベクトルから、特定の成分を1組の座標とする局所変動点を生成する処理をコンピュータに実行させる。判別プログラムは、始点となる前記間隔ベクトルが異なる複数の局所変動点に対しパーシステントホモロジ変換を用いることにより、ベッチ系列を生成する処理をコンピュータに実行させる。判別プログラムは、前記ベッチ系列に基づき、前記複数の事象の種別を判別する処理をコンピュータに実行させる。
一実施形態によれば、モデルに関する前提条件を置かずに判別することができる。
図1は、実施例1にかかる判別装置の全体例を説明する図である。 図2は、実施例1にかかる判別装置の機能構成を示す機能ブロック図である。 図3は、点過程時系列データの例を示す図である。 図4は、間隔ベクトルの生成例を説明する図である。 図5は、間隔アトラクタの生成例を説明する図である。 図6は、パーシステントホモロジについて説明するための図である。 図7は、バーコードデータと生成される連続データとの関係について説明するための図である。 図8は、学習処理の流れを示すフローチャートである。 図9は、実験結果を説明する図である。 図10は、実験結果の詳細を説明する図である。 図11は、ハードウェア構成例を説明する図である。
以下に、本願の開示する判別プログラム、判別方法および判別装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる判別装置の全体例を説明する図である。図1に示すように、実施例1にかかる判別装置10は、学習データにデータ分析を行った後に、機械学習や深層学習(ディープラーニング(DL)・Deep Learning)などを用いた判別処理(学習処理)を実行して、学習データを事象ごとに正しく判別(分類)できるように、ニューラルネットワーク(NN:Neural Network)などを学習する。その後、学習結果を適用した学習モデルを用いることで、判別対象データの正確な事象(ラベル)の推定を実現する。
ここで、実施例1で想定する学習データは、例えば心拍データや経済取引のような間欠的にイベントが発生する点過程時系列データである。この学習データは、発生間隔がどのようなモデルに該当するのかも事前に判明しておらず、また、発生間隔がカオス(非線形なルール)に沿っているのかも判明していない。すなわち、従来の学習手法では、正しく判別することが難しいデータである。
このような状態で、判別装置10は、学習データから、時系列で発生した複数のイベント間の隣接発生間隔それぞれを複数の成分として有する間隔ベクトルを生成する。続いて、判別装置10は、時系列において所定数の連続した間隔ベクトルから、特定の成分を1組の座標とする局所変動点を生成する。その後、判別装置10は、始点となる間隔ベクトルが異なる複数の局所変動点に対しパーシステントホモロジ変換を用いることにより、ベッチ(Betti)系列を生成し、ベッチ系列に基づき、学習データの事象の種別を判別する。
つまり、判別装置10は、イベント発生間隔を並べた間隔ベクトルを作成し、間隔ベクトルからアトラクタを作成し、アトラクタからパーシステントホモロジ変換を行って特徴量を生成する。そして、判別装置10は、学習データの特徴量を生成し、この特徴量によって点過程時系列データから事象を判別(分類)する学習を実現するので、モデルに関する前提条件を置かずに判別することができる。なお、判別装置10は、サーバ、パーソナルコンピュータ、タブレットなどのコンピュータ装置の一例である。また、判別装置10と学習モデルによる推定処理を実行する装置とは、別々の装置で実現することもでき、一つの装置で実現することもできる。
[機能構成]
図2は、実施例1にかかる判別装置10の機能構成を示す機能ブロック図である。図2に示すように、判別装置10は、通信部11と記憶部12と制御部20を有する。
通信部11は、他の装置との通信を制御部する処理部であり、例えば通信インタフェースである。例えば、通信部11は、管理者の端末から、処理開始指示を受信する。また、通信部11は、管理者の端末等から、学習データ(入力データ)を受信して学習データDB13に格納する。
記憶部12は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、学習データDB13や学習結果DB14を記憶する。
学習データDB13は、学習対象のデータを記憶するデータベースである。具体的には、学習データDB13は、点過程時系列のデータ(以下では、点過程時系列データと記載する場合がある)を記憶する。図3は、点過程時系列データの例を示す図である。図3に示すように、点過程時系列データは、間欠的にイベントが発生するデータであり、例えば心拍データや地震のデータなどである。なお、図3の横軸は、時間であり、縦軸は、イベントの大きさ(値)である。
学習結果DB14は、学習結果を記憶するデータベースである。例えば、学習結果DB14は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された各種パラメータを記憶する。
制御部20は、判別装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、間隔ベクトル生成部21、間隔アトラクタ生成部22、学習部23を有する。なお、間隔ベクトル生成部21、間隔アトラクタ生成部22、学習部23は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。また、間隔ベクトル生成部21は、第1生成部の一例であり、間隔アトラクタ生成部22は、第2生成部と第3生成部の一例であり、学習部23は、判別部の一例である。
間隔ベクトル生成部21は、時系列で発生した複数のイベント間の隣接発生間隔それぞれを複数の成分として有する間隔ベクトルを生成する処理部である。例えば、間隔ベクトル生成部21は、時間間隔など、特定の条件により区分された区間における「複数のイベント」を対象として処理することができる。より詳細には、間隔ベクトル生成部21は、各点過程時系列データに対し、判断(分類・認識)するデータを時間軸基準で同じ長さでそろえる。そして、間隔ベクトル生成部21は、同じ長さでそろえた各点過程時系列データの一部(以下では、小点過程時系列データと記載する場合がある)に対し、イベントの発生間隔を順に並べたベクトルを作成する。この際、各小点過程時系列データに対して生成される間隔ベクトルの長さはそれぞれ異なる。
図4は、間隔ベクトルの生成例を説明する図である。まず、間隔ベクトル生成部21は、点過程時系列データを学習データDB13から読み出し、例えば1分間隔で小点過程時系列データを抽出する。続いて、図4に示すように、間隔ベクトル生成部21は、小点過程時系列データに対して、データの先頭から最後までを参照し、イベントの発生間隔としてΔt1、Δt2、Δt3・・・Δtnを算出する。その後、間隔ベクトル生成部21は、イベントの発生間隔(Δt1、Δt2、Δt3・・・Δtn)を発生順で並べた間隔ベクトルを生成する。間隔ベクトル生成部21は、上記処理を各小点過程時系列データに対して実行する。
間隔アトラクタ生成部22は、間隔ベクトル生成部21によって生成された間隔ベクトルから、特定の成分を1組の座標とする局所変動点を生成する処理部である。具体的には、間隔アトラクタ生成部22は、各間隔ベクトルから、指定数の隣り合う値を座標とした点とし、取得範囲をスライドさせることで点を複数集めて出来る間隔アトラクタを生成する。なお、隣り合う値の指定数(座標の次元)は任意で決めることができる。
図5は、間隔アトラクタの生成例を説明する図である。図5に示すように、間隔アトラクタ生成部22は、間隔ベクトルの要素であるイベントの発生間隔(Δt1、Δt2、Δt3・・・Δtn)に対して、「Δt1、Δt2、Δt3」を「x,y,z」座標として抽出し、次に「Δt2、Δt3、Δt4」を「x,y,z」座標として抽出する。このように、間隔アトラクタ生成部22は、間隔ベクトルの各要素(成分)をスライドさせて座標を生成する。なお、この例の場合、3次元の要素が取得できなくなるまでスライドさせることもでき、最後の発生間隔がx座標(このときy座標とz座標は0)となるまでスライドを繰り返すこともできる。
学習部23は、始点となる間隔ベクトルが異なる複数の局所変動点に対しパーシステントホモロジ変換を用いることにより、ベッチ系列を生成し、ベッチ系列に基づき、複数の事象の種別を判別する処理部である。具体的には、学習部23は、各小点過程時系列データについて、小点過程時系列データから生成された各間隔アトラクタから疑似アトラクタを生成し、パーシステントホモロジ変換を用いてベッチ系列へ変換する。そして、学習部23は、ベッチ系列を各小点過程時系列データの特徴量として学習し、学習結果を学習結果DB14に格納する。なお、ここで生成されるアトラクタは、有限個の点集合であることから「疑似アトラクタ」と呼ぶこととする。
例えば、学習部23は、特開2017−97643号公報の学習手法を採用することができる。ここで、図6と図7を用いて、特開2017−97643号公報の手法について簡単に説明する。図6は、パーシステントホモロジについて説明するための図であり、図7は、バーコードデータと生成される連続データとの関係について説明するための図である。
まず、「ホモロジ」とは、対象の特徴をm(m≧0)次元の穴の数によって表現する手法である。ここで言う「穴」とはホモロジ群の元のことであり、0次元の穴は連結成分であり、1次元の穴は穴(トンネル)であり、2次元の穴は空洞である。各次元の穴の数はベッチ数と呼ばれる。そして、「パーシステントホモロジ」とは、対象(ここでは、点の集合(Point Cloud))におけるm次元の穴の遷移を特徴付けるための手法であり、パーシステントホモロジによって点の配置に関する特徴を調べることができる。この手法においては、対象における各点が球状に徐々に膨らまされ、その過程において各穴が発生した時刻(発生時の球の半径で表される)と消滅した時刻(消滅時の球の半径で表される)とが特定される。
図6を用いて、パーシステントホモロジをより具体的に説明する。ルールとして、1つの球が接した場合には2つの球の中心が線分で結ばれ、3つの球が接した場合には3つの球の中心が線分で結ばれる。ここでは、連結成分及び穴だけを考える。図6(a)のケース(半径r=0)においては、連結成分のみが発生し、穴は発生していない。図6(b)のケース(半径r=r1)においては、穴が発生しており、連結成分の一部が消滅している。図6(c)のケース(半径r=r2)においては、さらに多くの穴が発生しており、連結成分は1つだけ持続している。図6(d)のケース(半径r=r3)においては、連結成分の数は1のままであり、穴が1つ消滅している。なお、図6に示す各黒い点が各間隔アトラクタに該当する。
パーシステントホモロジの計算過程において、ホモロジ群の元(すなわち穴)の発生半径と消滅半径とが計算される。穴の発生半径と消滅半径とを使用することで、バーコードデータを生成することができる。バーコードデータは穴次元毎に生成されるので、複数の穴次元のバーコードデータを統合することで1塊のバーコードデータが生成できる。連続データは、パーシステントホモロジにおける球の半径(すなわち時間)とベッチ数との関係を示すデータである。
図7を用いて、バーコードデータと生成される連続データとの関係について説明する。上段のグラフはバーコードデータから生成されるグラフであり、横軸が半径を表す。下段のグラフは連続データ(ベッチ系列と記載する場合がある)から生成されるグラフであり、縦軸はベッチ数を表し、横軸は時間を表す。上で述べたように、ベッチ数は穴の数を表しており、例えば上段のグラフにおいて破線に対応する半径の時には存在している穴の数が10であるので、下段のグラフにおいては破線に対応するベッチ数も10である。ベッチ数は、ブロック毎に計数される。なお、下段のグラフは疑似的な時系列データのグラフであるので、横軸の値自体が意味を持つわけではない。
基本的には、同じバーコードデータからは同じ連続データが得られる。すなわち、元の疑似アトラクタが同じであれば同じ連続データが得られる。但し、異なるバーコードデータから同じ連続データが得られるケースが極めて稀に発生する。しかし、或るバーコードデータから生成される連続データと、別のバーコードデータから生成される連続データとの類似関係は、上で述べた稀なケースが発生しなければ、バーコードデータ間の類似関係と等価である。以上から、データ間の距離の定義は変わるものの、バーコードデータから生成される連続データ間の類似関係は、元の連続データ間の類似関係とほぼ等価である。
学習部23は、このようにして得られる連続データの特徴量によって、各小点過程時系列データを事象ごとに分類する。つまり、学習部23は、各小点過程時系列データを事象A、各小点過程時系列データを事象Bなどのように分類する。そして、学習部23は、連続データから事象が分類できるようにDL等によって学習し、学習結果を学習結果DB14に格納する。学習の結果は、連続データの分類結果(すなわちDL学習の出力)を含み、入力から出力を計算する際のニューラルネットワークの各種パラメータが含まれていてもよい。また、本実施の形態の学習は教師有りの学習であってもよいし、教師無しの学習であってもよい。なお、DLに限らず、一般的な機械学習であってもよい。
[処理の流れ]
次に、上述した学習処理について説明する。図8は、学習処理の流れを示すフローチャートである。図8に示す処理が各点過程時系列データについて実行される。図8に示すように、間隔ベクトル生成部21は、点過程時系列データから一定時間の情報を抽出する(S101)。
続いて、間隔ベクトル生成部21は、先頭からの順で1つの期間を選択し(S102)、イベント発生の幅を抽出し(S103)、期間内のイベント発生の幅を順に並べたベクトルである間隔ベクトルを生成する(S104)。
そして、間隔アトラクタ生成部22は、ベクトルに対し、一定セル幅を座標化して、間隔アトラクタを生成する(S105)。続いて、間隔アトラクタ生成部22は、ベクトルの座標化をスライドさせて、点の集合である疑似アトラクタを生成する(S106)。
その後、学習部23は、点の集合のパーシステントホモロジを計算し(S107)、パーシステントホモロジの出力を特徴量として出力する(S108)。この特徴量を用いて学習(事象の判別)が実行される。そして、未処理の期間がある場合は(S109:Yes)、S102以降を繰り返し、未処理の期間がない場合は(S109:No)、処理を終了する。
[効果]
上述したように、判別装置10は、疑似アトラクタとパーシステントホモロジを用いることで、過去何回かのイベント間隔と次の間隔の関係を示す数値の変化のルールを抽出することができる。また、判別装置10は、ルールを抽出していることからカオスであっても確率的なものであっても同一的に扱うことができる。また、判別装置10は、ベクトル化を行うことで、実際の時間軸とは関係なく、イベント発生の順番のみで表現することでイベント間隔のルールの抽出に十分な情報を得ることができる。また、判別装置10は、ベクトルサイズが一定でなくても扱えるパーシステントホモロジを用いて学習を実行できるので、データを改変する必要がない。
このように、判別装置10は、イベント発生の間隔がxt+1=f(x,xt−1,・・・)に沿うことを仮定し、関数fの情報を抽出する。なお、関数fはカオス(非線形)、周期関数(線形)、乱数(統計的)を含む。したがって、判別装置10は、パーシステントホモロジ変換を点系列について、値を見ないで行うことにより、複数のモデルそれぞれで、アトラクタの形式が異なることを利用でき、モデルに関する前提を置かなくても判別が可能である。また、判別装置10は、モデルには依らないので、複数のモデルの特徴を持った点系列についても、判別は可能である。すなわち、判別装置10は、点過程時系列データの学習に際して、発生間隔に関する事前知識がない場合でも、高精度の分類を実現できる。
ここで、実施例1による手法と従来手法との比較を行った実験結果を説明する。まず、実験の条件を説明する。ここでは、イベント発生間隔を以下のように発生し、それぞれでラベルを区別する。「ラベル1:イベント発生間隔を正規分布で発生」、「ラベル2:イベント発生間隔を一様分布(分散大)で発生」、「ラベル3:イベント発生間隔を以下の方程式(式(1))に沿うように発生」、「ラベル4:イベント発生間隔を以下の方程式(式(2))に沿うように発生」。なお、データ数は同数発生することとする。
式(1):x(i)=3.7×x(i−1)×(1−x(i−1))
式(2):x(i)=3.9×x(i−1)×(1−x(i−1))
そして、実施例1による手法と比較する比較手法は、次のようにする。一般手法1は、イベント発生間隔の補間データの周波数(高速フーリエ変換:FFT)をサポートベクターマシン(SVM:Support Vector Machine)で学習および学習結果を用いたラベル推定を行う。一般手法2は、イベント発生間隔のデータの正規分布で近似した距離をもとにサポートベクターマシン(SVM)で学習および学習結果を用いたラベル推定を行う。一般手法2は、イベント発生間隔のデータのカオス情報量をもとにサポートベクターマシン(SVM)で学習および学習結果を用いたラベル推定を行う。
図9は、実験結果を説明する図である。ここでは、各ラベルの点過程系列データを入力して学習し、学習後に、例えば推定対象のラベル1の点過程系列データを入力したときにラベル1と推定できたときを正答と判定し、他のラベルが推定されたときを誤答と判定する。図9に示すように、実施例1による手法では、95%の高精度の正答率であったが、他の手法は低精度の正答率に留まった。
また、一般手法1では、各ラベルの正答率はほぼ25%前後であり、一般手法2では、ラベル1からラベル3については高精度で推定できたがラベル4については全く推定できなかった。一般手法3では、ラベル3とラベル4については高精度で推定できたがラベル1とラベル2については正答率が低かった。これらに対して、実施例1による手法では、各ラベルについて高精度の正答率は得ることができた。
図10は、実験結果の詳細を説明する図である。図10では、正解ラベルと推定ラベルとのマトリックス図を示す。例えば、ラベル1の点過程系列データを、ラベル1と推定した割合、ラベル2と推定した割合、ラベル3と推定した割合、ラベル4と推定した割合を示す。
図10に示すように、一般手法1では、全ラベルがほぼランダムに推定(分類)されたことがわかる。また、一般手法2では、ラベル1やラベル2のような確率的な分布についてはほぼ正確に推定できたが、ラベル3やラベル4のようなカオス発生については推定できず、すべて同じと判断された。一般手法3では、ラベル1やラベル2のような確率的な分布については確率的なものの中でランダムな分類となり、ラベル3やラベル4のようなカオス発生についてはほぼ正確に推定できた。これに対して、実施例1による手法では、ラベル1やラベル2のような確率的な分布についてもほぼ正確に推定でき、ラベル3やラベル4のようなカオス発生についてもほぼ正確に推定できた。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[対象]
例えば、間隔ベクトルの生成処理や判別処理などは、時間間隔など、特定の条件により区分された区間における「複数のイベント」を対象として処理することができる。
[学習手法]
実施例1の学習は、DLに限らずに他の機械学習を採用することができる。また、間隔アトラクタの次元数も任意に設定することができる。なお、学習後に推定対象のデータのラベル推定を行う場合、推定対象のデータに対して、上記間隔ベクトル、間隔アトラクタなどの処理を行って学習モデルに入力する。
[判別手法]
また、点過程時系列データから生成された各小過程時系列データについて、バーコードデータおよび連続データを生成して特徴量を抽出して事象判別を実行する例を説明したが、これに限定されるものではない。例えば、点過程時系列データから生成された各小過程時系列データの各特徴量を時系列でまとめた1つの特徴量を用いて事象判別を実行することもできる。すなわち、点過程時系列データから得られる複数の特徴量を用いた事象判別を実行することもできる。
[ハードウェア]
図11は、ハードウェア構成例を説明する図である。図11に示すように、判別装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図11に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、判別装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、間隔ベクトル生成部21、間隔アトラクタ生成部22、学習部23等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、間隔ベクトル生成部21、間隔アトラクタ生成部22、学習部23等と同様の処理を実行するプロセスを実行する。
このように判別装置10は、プログラムを読み出して実行することで判別方法を実行する情報処理装置として動作する。また、判別装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、判別装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、アイテムを表示する処理部と、選好を推定する処理部とを別々の筐体で実現することもできる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
10 判別装置
11 通信部
12 記憶部
13 学習データDB
14 学習結果DB
20 制御部
21 間隔ベクトル生成部
22 間隔アトラクタ生成部
23 学習部

Claims (6)

  1. 時系列で発生した複数の事象間の隣接発生間隔それぞれを複数の成分として有する間隔ベクトルを生成し、
    前記時系列において所定数の連続した前記間隔ベクトルから、特定の成分を1組の座標とする局所変動点を生成し、
    始点となる前記間隔ベクトルが異なる複数の局所変動点に対しパーシステントホモロジ変換を用いることにより、ベッチ系列を生成し、
    前記ベッチ系列に基づき、前記複数の事象の種別を判別する
    処理をコンピュータに実行させる判別プログラム。
  2. ディープラーニングを用いて、前記複数の事象の種別を判別し、判別結果にしたがってニューラルネットワークを学習する処理を前記コンピュータに実行させる請求項1に記載の判別プログラム。
  3. 前記所定数の連続した前記間隔ベクトルから、発生順に、予め指定した指定数分の成分を1成分ずつずらしながら抽出して、各局所変動点を生成する処理を前記コンピュータに実行させる請求項1に記載の判別プログラム。
  4. 前記指定数の次元空間上の前記各局所変動点の集合である疑似アトラクタを生成し、前記疑似アトラクタに対しパーシステントホモロジ変換を用いることにより、前記間隔ベクトルに対応する前記ベッチ系列を生成する処理を前記コンピュータに実行させる請求項3に記載の判別プログラム。
  5. 時系列で発生した複数の事象間の隣接発生間隔それぞれを複数の成分として有する間隔ベクトルを生成し、
    前記時系列において所定数の連続した前記間隔ベクトルから、特定の成分を1組の座標とする局所変動点を生成し、
    始点となる前記間隔ベクトルが異なる複数の局所変動点に対しパーシステントホモロジ変換を用いることにより、ベッチ系列を生成し、
    前記ベッチ系列に基づき、前記複数の事象の種別を判別する
    処理をコンピュータが実行する判別方法。
  6. 時系列で発生した複数の事象間の隣接発生間隔それぞれを複数の成分として有する間隔ベクトルを生成する第1生成部と、
    前記時系列において所定数の連続した前記間隔ベクトルから、特定の成分を1組の座標とする局所変動点を生成する第2生成部と、
    始点となる前記間隔ベクトルが異なる複数の局所変動点に対しパーシステントホモロジ変換を用いることにより、ベッチ系列を生成する第3生成部と、
    前記ベッチ系列に基づき、前記複数の事象の種別を判別する判別部と
    を有する判別装置。
JP2017236369A 2017-12-08 2017-12-08 判別プログラム、判別方法および判別装置 Active JP6950505B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017236369A JP6950505B2 (ja) 2017-12-08 2017-12-08 判別プログラム、判別方法および判別装置
US16/202,577 US11625570B2 (en) 2017-12-08 2018-11-28 Computer-readable recording medium, determination method, and determination apparatus for classifying time series data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236369A JP6950505B2 (ja) 2017-12-08 2017-12-08 判別プログラム、判別方法および判別装置

Publications (2)

Publication Number Publication Date
JP2019105883A JP2019105883A (ja) 2019-06-27
JP6950505B2 true JP6950505B2 (ja) 2021-10-13

Family

ID=66696271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236369A Active JP6950505B2 (ja) 2017-12-08 2017-12-08 判別プログラム、判別方法および判別装置

Country Status (2)

Country Link
US (1) US11625570B2 (ja)
JP (1) JP6950505B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114547140A (zh) * 2022-01-27 2022-05-27 青岛海尔科技有限公司 行为序列的生成方法及装置、存储介质、电子装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3650572B2 (ja) * 2000-07-07 2005-05-18 日本電信電話株式会社 時系列データの分類装置
US20070036434A1 (en) * 2005-08-15 2007-02-15 Peter Saveliev Topology-Based Method of Partition, Analysis, and Simplification of Dynamical Images and its Applications
JP5463964B2 (ja) * 2010-03-05 2014-04-09 三菱電機株式会社 作業内容推定装置及び作業内容推定方法
JP6241790B2 (ja) 2014-08-15 2017-12-06 日本電信電話株式会社 生成モデル作成装置、推定装置、それらの方法およびプログラム
US20160140438A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification
JP6367691B2 (ja) 2014-11-17 2018-08-01 日本電信電話株式会社 報知音感知・識別装置、報知音感知・識別方法、報知音感知・識別プログラム
JP6606997B2 (ja) * 2015-11-25 2019-11-20 富士通株式会社 機械学習プログラム、機械学習方法及び情報処理装置
JP2017182129A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置。
EP3474742A4 (en) * 2016-06-24 2020-01-08 Analytics For Life Inc. NON-INVASIVE METHOD AND SYSTEM FOR MEASURING MYOCARDIAL ISCHEMIA, IDENTIFICATION, LOCATION AND ESTIMATION OF THE FRACTIONAL FLOW RESERVE (FFR) OF A STENOSIS
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition

Also Published As

Publication number Publication date
JP2019105883A (ja) 2019-06-27
US11625570B2 (en) 2023-04-11
US20190180166A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JP2020518938A (ja) ニューラルネットワークを用いたシーケンスデータの分析
Zorriassatine et al. Using novelty detection to identify abnormalities caused by mean shifts in bivariate processes
EP3364157A1 (en) Method and system of outlier detection in energy metering data
CN111814910B (zh) 异常检测方法、装置、电子设备及存储介质
Sinanović et al. Toward a theory of information processing
JP2013161295A (ja) ラベル付加装置、ラベル付加方法及びプログラム
Lee et al. Assessing the lifetime performance index of exponential products with step-stress accelerated life-testing data
CN112131322B (zh) 时间序列分类方法及装置
CN113254549A (zh) 人物关系挖掘模型的训练方法、人物关系挖掘方法及装置
CN116015837A (zh) 用于计算机网络信息安全的入侵检测方法及系统
JP6954070B2 (ja) 判別プログラム、判別方法および判別装置
EP3923228B1 (en) Data analysis method, device and program
JP6950505B2 (ja) 判別プログラム、判別方法および判別装置
CN114626626A (zh) 一种模型训练方法、装置、存储介质和电子设备
CN117134958B (zh) 用于网络技术服务的信息处理方法及系统
CN112116028B (zh) 模型决策解释实现方法、装置及计算机设备
JP6930195B2 (ja) モデル同定装置、予測装置、監視システム、モデル同定方法および予測方法
JP7040065B2 (ja) 検出プログラム、検出方法および検出装置
AU2015204339A1 (en) Information processing apparatus and information processing program
CN113112414A (zh) 噪声估计方法、噪声估计程序以及噪声估计设备
JP7115247B2 (ja) 機械学習方法、機械学習プログラムおよび機械学習装置
CN115567224A (zh) 一种用于检测区块链交易异常的方法及相关产品
JP6144314B2 (ja) データ分類システム,方法,プログラムおよびその記録媒体
CN111274924A (zh) 一种掌静脉检测模型建模方法、掌静脉检测方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150