JPWO2020049666A1 - 時系列データ処理装置 - Google Patents
時系列データ処理装置 Download PDFInfo
- Publication number
- JPWO2020049666A1 JPWO2020049666A1 JP2020540929A JP2020540929A JPWO2020049666A1 JP WO2020049666 A1 JPWO2020049666 A1 JP WO2020049666A1 JP 2020540929 A JP2020540929 A JP 2020540929A JP 2020540929 A JP2020540929 A JP 2020540929A JP WO2020049666 A1 JPWO2020049666 A1 JP WO2020049666A1
- Authority
- JP
- Japan
- Prior art keywords
- series data
- time
- conversion unit
- partial time
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2477—Temporal data queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2237—Vectors, bitmaps or matrices
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Fuzzy Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
を備える。
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部を使用して、登録対象の複数の第1の部分時系列データセットを複数の第1の特徴ベクトルに変換し、前記複数の第1の部分時系列データセットと前記複数の第1の特徴ベクトルとを対応付けて記憶部に記憶し、
第2の部分時系列データセットを入力し、
前記データ変換部を使用して、前記第2の部分時系列データセットを第2の特徴ベクトルに変換し、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち前記第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する。
コンピュータを、
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
して機能させるためのプログラムを記憶する。
次に本発明の第1の実施形態について図面を参照して詳細に説明する。
図11は、Pairwise loss最小化に基づくモデル学習方法を説明するためのフローチャートである。
図12は、Triplet loss最小化に基づくモデル学習方法を説明するためのフローチャートである。
図13は、本発明の第2の実施形態に係る時系列データ処理装置2のブロック図である。図13を参照すると、時系列データ処理装置2は、入出力部20と、記憶部25と、処理装置26とを含んで構成されている。また、処理装置26は、検索部23とデータ変換部24とを備えている。
[付記1]
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第1の部分時系列データセットを出力する検索部と
を備える時系列データ処理装置。
[付記2]
前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトルである
付記1に記載の時系列データ処理装置。
[付記3]
前記次元数nは、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
付記2に記載の時系列データ処理装置。
[付記4]
前記データ変換部は、
前記第1の部分時系列データセットを入力し、次元数nの実数ベクトルを出力する特徴抽出部と、
前記実数ベクトルを入力し、前記二値ベクトルを出力する二値化部と、を含む
付記2または3に記載の時系列データ処理装置。
[付記5]
前記データ変換部は、
所定のパラメータを有する縦続接続されたT個のLSTMと、
最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層と、を含む
付記4に記載の時系列データ処理装置。
[付記6]
それぞれが部分時系列データセットである複数のトレーニングデータを使用して、前記データ変換部の機械学習を行う学習部を備える
付記5に記載の時系列データ処理装置。
[付記7]
前記学習部は、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように、前記データ変換部の機械学習を行うように構成されている
付記6に記載の時系列データ処理装置。
[付記8]
前記学習部は、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
ペアの一方の前記トレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルとペアの他方の前記トレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ωijと、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度Sijとを計算し、損失関数Lij =−(Sij logΩij+(1‐Sij )log (1‐Ωij )+ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記6または7に記載の時系列データ処理装置。
[付記9]
前記学習部は、
前記複数のトレーニングデータから、アンカーセグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似する正セグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似しない負セグメントである1つの前記トレーニングデータとから成る複数の三つ組を生成し、
前記三つ組毎に、
前記アンカーセグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi aと、前記正セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi pと、前記負セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi nとを計算し、損失関数Li =−Σi=1 N(||fi a‐fi p||2−||fi a‐fi n||2+α)+ +ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記6または7に記載の時系列データ処理装置。
[付記10]
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部を使用して、登録対象の複数の第1の部分時系列データセットを複数の第1の特徴ベクトルに変換し、前記複数の第1の部分時系列データセットと前記複数の第1の特徴ベクトルとを対応付けて記憶部に記憶し、
第2の部分時系列データセットを入力し、
前記データ変換部を使用して、前記第2の部分時系列データセットを第2の特徴ベクトルに変換し、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち前記第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する
時系列データ処理方法。
[付記11]
前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトルである
付記10に記載の時系列データ処理方法。
[付記12]
前記次元数nは、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
付記11に記載の時系列データ処理方法。
[付記13]
前記第1の部分時系列データセットの前記二値ベクトルへの変換では、前記第1の部分時系列データセットを次元数nの実数ベクトルに変換し、次に前記実数ベクトルの各次元を二値化する
付記11または12に記載の時系列データ処理方法。
[付記14]
前記第2の部分時系列データセットの前記実数ベクトルへの変換では、所定のパラメータを有し縦続接続されたT個のLSTMと、最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層とを使用する
付記13に記載の時系列データ処理方法。
[付記15]
前記第1の部分時系列データセットを前記第1の特徴ベクトルに変換する前に、それぞれが部分時系列データセットである複数のトレーニングデータを使用して、前記データ変換部の機械学習を行う
付記14に記載の時系列データ処理方法。
[付記16]
前記学習では、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように、前記データ変換部の機械学習を行う
付記14に記載の時系列データ処理方法。
[付記17]
前記機械学習では、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
ペアの一方の前記トレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルとペアの他方の前記トレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ωijと、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度Sijとを計算し、損失関数Lij =−(Sij logΩij+(1‐Sij )log (1‐Ωij )+ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記15または16に記載の時系列データ処理方法。
[付記18]
前記学習では、
前記複数のトレーニングデータから、アンカーセグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似する正セグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似しない負セグメントである1つの前記トレーニングデータとから成る複数の三つ組を生成し、
前記三つ組毎に、
前記アンカーセグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi aと、前記正セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi pと、前記負セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi nとを計算し、損失関数Li =−Σi=1 N(||fi a‐fi p||2−||fi a‐fi n||2+α)+ +ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記15または16に記載の時系列データ処理方法。
[付記19]
コンピュータを、
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
して機能させるためのプログラムを記憶するコンピュータ読み取り可能な記録媒体。
2…時系列データ処理装置
10…入出力部
11…学習部
12…登録部
13…検索部
14…データ変換部
15…記憶部
20…入出力部
23…検索部
24…データ変換部
25…記憶部
141…RNN層
142…全結合層
143…全結合層
144−1〜144−T…LSTM
145…二値化部
1000…情報処理装置
1001…通信インタフェース部
1002…操作入力部
1003…画面表示部
1004…記憶部
1005…演算処理部
1100…プログラム
Claims (19)
- 複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第1の部分時系列データセットを出力する検索部と
を備える時系列データ処理装置。 - 前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトルである
請求項1に記載の時系列データ処理装置。 - 前記次元数nは、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
請求項2に記載の時系列データ処理装置。 - 前記データ変換部は、
前記第1の部分時系列データセットを入力し、次元数nの実数ベクトルを出力する特徴抽出部と、
前記実数ベクトルを入力し、前記二値ベクトルを出力する二値化部と、を含む
請求項2または3に記載の時系列データ処理装置。 - 前記データ変換部は、
所定のパラメータを有する縦続接続されたT個のLSTMと、
最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層と、を含む
請求項4に記載の時系列データ処理装置。 - それぞれが部分時系列データセットである複数のトレーニングデータを使用して、前記データ変換部の機械学習を行う学習部を備える
請求項5に記載の時系列データ処理装置。 - 前記学習部は、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように、前記データ変換部の機械学習を行うように構成されている
請求項6に記載の時系列データ処理装置。 - 前記学習部は、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
ペアの一方の前記トレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルとペアの他方の前記トレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ωijと、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度Sijとを計算し、損失関数Lij =−(Sij logΩij+(1‐Sij )log (1‐Ωij )+ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
請求項6または7に記載の時系列データ処理装置。 - 前記学習部は、
前記複数のトレーニングデータから、アンカーセグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似する正セグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似しない負セグメントである1つの前記トレーニングデータとから成る複数の三つ組を生成し、
前記三つ組毎に、
前記アンカーセグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi aと、前記正セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi pと、前記負セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi nとを計算し、損失関数Li =−Σi=1 N(||fi a‐fi p||2−||fi a‐fi n||2+α)+ +ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
請求項6または7に記載の時系列データ処理装置。 - 複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部を使用して、登録対象の複数の第1の部分時系列データセットを複数の第1の特徴ベクトルに変換し、前記複数の第1の部分時系列データセットと前記複数の第1の特徴ベクトルとを対応付けて記憶部に記憶し、
第2の部分時系列データセットを入力し、
前記データ変換部を使用して、前記第2の部分時系列データセットを第2の特徴ベクトルに変換し、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち前記第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する
時系列データ処理方法。 - 前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトルである
請求項10に記載の時系列データ処理方法。 - 前記次元数nは、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
請求項11に記載の時系列データ処理方法。 - 前記第1の部分時系列データセットの前記二値ベクトルへの変換では、前記第1の部分時系列データセットを次元数nの実数ベクトルに変換し、次に前記実数ベクトルの各次元を二値化する
請求項11または12に記載の時系列データ処理方法。 - 前記第2の部分時系列データセットの前記実数ベクトルへの変換では、所定のパラメータを有し縦続接続されたT個のLSTMと、最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層とを使用する
請求項13に記載の時系列データ処理方法。 - 前記第1の部分時系列データセットを前記第1の特徴ベクトルに変換する前に、それぞれが部分時系列データセットである複数のトレーニングデータを使用して、前記データ変換部の機械学習を行う
請求項14に記載の時系列データ処理方法。 - 前記学習では、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように、前記データ変換部の機械学習を行う
請求項14に記載の時系列データ処理方法。 - 前記機械学習では、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
ペアの一方の前記トレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルとペアの他方の前記トレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ωijと、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度Sijとを計算し、損失関数Lij =−(Sij logΩij+(1‐Sij )log (1‐Ωij )+ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
請求項15または16に記載の時系列データ処理方法。 - 前記学習では、
前記複数のトレーニングデータから、アンカーセグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似する正セグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似しない負セグメントである1つの前記トレーニングデータとから成る複数の三つ組を生成し、
前記三つ組毎に、
前記アンカーセグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi aと、前記正セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi pと、前記負セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi nとを計算し、損失関数Li =−Σi=1 N(||fi a‐fi p||2−||fi a‐fi n||2+α)+ +ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
請求項15または16に記載の時系列データ処理方法。 - コンピュータを、
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
して機能させるためのプログラムを記憶するコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/032927 WO2020049666A1 (ja) | 2018-09-05 | 2018-09-05 | 時系列データ処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020049666A1 true JPWO2020049666A1 (ja) | 2021-05-13 |
JP7131616B2 JP7131616B2 (ja) | 2022-09-06 |
Family
ID=69723062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020540929A Active JP7131616B2 (ja) | 2018-09-05 | 2018-09-05 | 時系列データ処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7131616B2 (ja) |
WO (1) | WO2020049666A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022003983A1 (ja) * | 2020-07-03 | 2022-01-06 | 日本電気株式会社 | 時系列データ処理方法、時系列データ処理装置、時系列データ処理システム、記録媒体 |
KR102621258B1 (ko) * | 2022-11-22 | 2024-01-05 | 한국전자기술연구원 | 다중 시계열 데이터의 특징점 추출을 통한 시계열 데이터 검색 시스템 및 방법 |
CN117668762B (zh) * | 2024-01-31 | 2024-05-17 | 新疆三联工程建设有限责任公司 | 用于住宅地下渗漏的监测预警系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104754413A (zh) * | 2013-12-30 | 2015-07-01 | 北京三星通信技术研究有限公司 | 基于图像搜索识别电视信号并推荐信息的方法和设备 |
JP2021512437A (ja) * | 2018-02-08 | 2021-05-13 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | システム状態を解析及び修正するための時系列の検索 |
-
2018
- 2018-09-05 WO PCT/JP2018/032927 patent/WO2020049666A1/ja active Application Filing
- 2018-09-05 JP JP2020540929A patent/JP7131616B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104754413A (zh) * | 2013-12-30 | 2015-07-01 | 北京三星通信技术研究有限公司 | 基于图像搜索识别电视信号并推荐信息的方法和设备 |
JP2021512437A (ja) * | 2018-02-08 | 2021-05-13 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | システム状態を解析及び修正するための時系列の検索 |
Non-Patent Citations (2)
Title |
---|
SONG, DONGJIN ET AL.: "Deep r-th Root of Rank Supervised Joint Binary Embedding for Multivariate Time Series Retrieval", PROCEEDINGS OF THE 24TH ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY & DATA MINING, JPN7018003903, 19 July 2018 (2018-07-19), pages 2229 - 2238, XP055691844, ISSN: 0004696955, DOI: 10.1145/3219819.3220108 * |
柏野邦夫、外2名: "マルチモーダルアクティブ探索を用いた画像・音響時系列の高速探索", 電子情報通信学会技術研究報告, vol. 98, no. 274, JPN6018044962, 17 September 1998 (1998-09-17), pages 51 - 58, ISSN: 0004696956 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020049666A1 (ja) | 2020-03-12 |
JP7131616B2 (ja) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200257543A1 (en) | Aggregate Features For Machine Learning | |
US20190340533A1 (en) | Systems and methods for preparing data for use by machine learning algorithms | |
Bernard et al. | Dynamic random forests | |
Singh et al. | A novel soft computing method for engine RUL prediction | |
Pan et al. | Imputation of missing values in time series using an adaptive-learned median-filled deep autoencoder | |
CN113139600A (zh) | 基于联邦学习的智能电网设备异常检测方法和系统 | |
US11380301B2 (en) | Learning apparatus, speech recognition rank estimating apparatus, methods thereof, and program | |
Aparna et al. | Feature selection and extraction in data mining | |
JP7131616B2 (ja) | 時系列データ処理装置 | |
US11822544B1 (en) | Retrieval of frequency asked questions using attentive matching | |
Kongsorot et al. | Multi-label classification with extreme learning machine | |
CN113627471A (zh) | 一种数据分类方法、系统、设备及信息数据处理终端 | |
CN115080587B (zh) | 一种基于知识图谱的电子元器件替代方法、装置及介质 | |
Li et al. | Sparsity learning formulations for mining time-varying data | |
CN112905809B (zh) | 知识图谱学习方法和系统 | |
Ul Rahman et al. | Additive parameter for deep face recognition | |
CN110717116A (zh) | 关系网络的链接预测方法及系统、设备、存储介质 | |
CN116089731B (zh) | 一种缓解灾难性遗忘的在线哈希检索方法及系统 | |
Zhou et al. | Online recommendation based on incremental-input self-organizing map | |
WO2021059527A1 (ja) | 学習装置、学習方法、及び、記録媒体 | |
CN116757280A (zh) | 一种基于图变换网络的知识图谱多元关系链路预测方法 | |
JP2023123247A (ja) | 分類装置、分類方法およびプログラム | |
Xiao et al. | Self-optimizing feature transformation | |
CN114036267A (zh) | 对话方法及系统 | |
Ko et al. | Deep compression of sum-product networks on tensor networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7131616 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |