JP7131616B2 - 時系列データ処理装置 - Google Patents
時系列データ処理装置 Download PDFInfo
- Publication number
- JP7131616B2 JP7131616B2 JP2020540929A JP2020540929A JP7131616B2 JP 7131616 B2 JP7131616 B2 JP 7131616B2 JP 2020540929 A JP2020540929 A JP 2020540929A JP 2020540929 A JP2020540929 A JP 2020540929A JP 7131616 B2 JP7131616 B2 JP 7131616B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- series data
- conversion unit
- data
- partial time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2477—Temporal data queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2237—Vectors, bitmaps or matrices
Description
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
を備える。
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部を使用して、登録対象の複数の第1の部分時系列データセットを複数の第1の特徴ベクトルに変換し、前記複数の第1の部分時系列データセットと前記複数の第1の特徴ベクトルとを対応付けて記憶部に記憶し、
第2の部分時系列データセットを入力し、
前記データ変換部を使用して、前記第2の部分時系列データセットを第2の特徴ベクトルに変換し、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち前記第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する。
コンピュータを、
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
して機能させるためのプログラムを記憶する。
次に本発明の第1の実施形態について図面を参照して詳細に説明する。
図11は、Pairwise loss最小化に基づくモデル学習方法を説明するためのフローチャートである。
図12は、Triplet loss最小化に基づくモデル学習方法を説明するためのフローチャートである。
図13は、本発明の第2の実施形態に係る時系列データ処理装置2のブロック図である。図13を参照すると、時系列データ処理装置2は、入出力部20と、記憶部25と、処理装置26とを含んで構成されている。また、処理装置26は、検索部23とデータ変換部24とを備えている。
[付記1]
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第1の部分時系列データセットを出力する検索部と
を備える時系列データ処理装置。
[付記2]
前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトルである
付記1に記載の時系列データ処理装置。
[付記3]
前記次元数nは、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
付記2に記載の時系列データ処理装置。
[付記4]
前記データ変換部は、
前記第1の部分時系列データセットを入力し、次元数nの実数ベクトルを出力する特徴抽出部と、
前記実数ベクトルを入力し、前記二値ベクトルを出力する二値化部と、を含む
付記2または3に記載の時系列データ処理装置。
[付記5]
前記データ変換部は、
所定のパラメータを有する縦続接続されたT個のLSTMと、
最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層と、を含む
付記4に記載の時系列データ処理装置。
[付記6]
それぞれが部分時系列データセットである複数のトレーニングデータを使用して、前記データ変換部の機械学習を行う学習部を備える
付記5に記載の時系列データ処理装置。
[付記7]
前記学習部は、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように、前記データ変換部の機械学習を行うように構成されている
付記6に記載の時系列データ処理装置。
[付記8]
前記学習部は、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
ペアの一方の前記トレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルとペアの他方の前記トレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ωijと、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度Sijとを計算し、損失関数Lij =-(Sij logΩij+(1‐Sij )log (1‐Ωij )+ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記6または7に記載の時系列データ処理装置。
[付記9]
前記学習部は、
前記複数のトレーニングデータから、アンカーセグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似する正セグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似しない負セグメントである1つの前記トレーニングデータとから成る複数の三つ組を生成し、
前記三つ組毎に、
前記アンカーセグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi aと、前記正セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi pと、前記負セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi nとを計算し、損失関数Li =-Σi=1 N(||fi a‐fi p||2-||fi a‐fi n||2+α)+ +ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記6または7に記載の時系列データ処理装置。
[付記10]
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部を使用して、登録対象の複数の第1の部分時系列データセットを複数の第1の特徴ベクトルに変換し、前記複数の第1の部分時系列データセットと前記複数の第1の特徴ベクトルとを対応付けて記憶部に記憶し、
第2の部分時系列データセットを入力し、
前記データ変換部を使用して、前記第2の部分時系列データセットを第2の特徴ベクトルに変換し、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち前記第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する
時系列データ処理方法。
[付記11]
前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトルである
付記10に記載の時系列データ処理方法。
[付記12]
前記次元数nは、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
付記11に記載の時系列データ処理方法。
[付記13]
前記第1の部分時系列データセットの前記二値ベクトルへの変換では、前記第1の部分時系列データセットを次元数nの実数ベクトルに変換し、次に前記実数ベクトルの各次元を二値化する
付記11または12に記載の時系列データ処理方法。
[付記14]
前記第2の部分時系列データセットの前記実数ベクトルへの変換では、所定のパラメータを有し縦続接続されたT個のLSTMと、最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層とを使用する
付記13に記載の時系列データ処理方法。
[付記15]
前記第1の部分時系列データセットを前記第1の特徴ベクトルに変換する前に、それぞれが部分時系列データセットである複数のトレーニングデータを使用して、前記データ変換部の機械学習を行う
付記14に記載の時系列データ処理方法。
[付記16]
前記学習では、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように、前記データ変換部の機械学習を行う
付記14に記載の時系列データ処理方法。
[付記17]
前記機械学習では、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
ペアの一方の前記トレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルとペアの他方の前記トレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ωijと、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度Sijとを計算し、損失関数Lij =-(Sij logΩij+(1‐Sij )log (1‐Ωij )+ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記15または16に記載の時系列データ処理方法。
[付記18]
前記学習では、
前記複数のトレーニングデータから、アンカーセグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似する正セグメントである1つの前記トレーニングデータと、前記アンカーセグメントに類似しない負セグメントである1つの前記トレーニングデータとから成る複数の三つ組を生成し、
前記三つ組毎に、
前記アンカーセグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi aと、前記正セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi pと、前記負セグメントを前記データ変換部に入力したときの前記全結合層の出力ベクトルfi nとを計算し、損失関数Li =-Σi=1 N(||fi a‐fi p||2-||fi a‐fi n||2+α)+ +ηR(W)が小さくなるように前記データ変換部の前記パラメータを更新する
付記15または16に記載の時系列データ処理方法。
[付記19]
コンピュータを、
複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットと、前記複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルとを対応付けて記憶する記憶部と、
前記記憶部に記憶された前記複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの前記第1の特徴ベクトルを選択し、前記選択した第1の特徴ベクトルに対応する前記第2の部分時系列データセットを出力する検索部と、
して機能させるためのプログラムを記憶するコンピュータ読み取り可能な記録媒体。
2…時系列データ処理装置
10…入出力部
11…学習部
12…登録部
13…検索部
14…データ変換部
15…記憶部
20…入出力部
23…検索部
24…データ変換部
25…記憶部
141…RNN層
142…全結合層
143…全結合層
144-1~144-T…LSTM
145…二値化部
1000…情報処理装置
1001…通信インタフェース部
1002…操作入力部
1003…画面表示部
1004…記憶部
1005…演算処理部
1100…プログラム
Claims (7)
- 複数の時系列データの集合である時系列データセットを所定の時間毎に区切った部分時系列データセットを、前記部分時系列データセットの特徴を示す特徴ベクトルに変換するデータ変換部と、
複数の第1の部分時系列データセットが前記データ変換部によって変換された複数の第1の特徴ベクトルのうち、入力された第2の部分時系列データセットが前記データ変換部によって変換された第2の特徴ベクトルに類似する少なくとも1つの第1の特徴ベクトルに対応する前記第1の部分時系列データセットを出力する検索部と
を備え、
前記データ変換部は、
所定のパラメータを有する縦続接続されたT個(Tは前記部分時系列データセットの時点数)のLSTMと、
最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層と、を含み、
それぞれが部分時系列データセットである複数のトレーニングデータを使用して、機械学習を行う学習部を備え、
前記学習部は、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
前記ペアの一方のトレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルと前記ペアの他方のトレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ω ij と、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度S ij とを計算し、損失関数L ij =-(S ij logΩ ij +(1‐S ij )log (1‐Ω ij )+ηR(W)(ηは学習率、R(W)は前記全結合層の重みパラメータに対する正則化項)が小さくなるように前記データ変換部の前記パラメータを更新する、
時系列データ処理装置。 - 前記第1の特徴ベクトル、および前記第2の特徴ベクトルは、次元数nの二値ベクトル(nは二値ベクトルの次元数)である
請求項1に記載の時系列データ処理装置。 - 前記次元数n(nは二値ベクトルの次元数)は、前記第1の部分時系列データセット、および前記第2の部分時系列データセットに含まれる数値データの総数より少ない
請求項2に記載の時系列データ処理装置。 - 前記データ変換部は、
前記第1の部分時系列データセットを入力し、次元数nの実数ベクトル(nは実数ベクトルの次元数)を出力する特徴抽出部と、
前記実数ベクトルを入力し、前記二値ベクトルを出力する二値化部と、を含む
請求項2または3に記載の時系列データ処理装置。 - 前記学習部は、前記複数のトレーニングデータが、前記複数のトレーニングデータ間の相対的な類似性を維持する複数の特徴ベクトルに変換されるように機械学習する
請求項1に記載の時系列データ処理装置。 - コンピュータが、
それぞれが部分時系列データセットである複数のトレーニングデータを使用して、所定のパラメータを有する縦続接続されたT個(Tは前記部分時系列データセットの時点数)のLSTMと、最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層と、を含むデータ変換部の学習を行い、
複数の時系列データの集合である第1の時系列データセットを所定の時間毎に区切った複数の第1の部分時系列データセットを、学習済みの前記データ変換部を使用して、前記第1の部分時系列データセットの特徴を示す第1の特徴ベクトルに変換し、
入力された第2の部分時系列データセットを、学習済みの前記データ変換部を使用して、前記第2の部分時系列データセットの特徴を示す第2の特徴ベクトルに変換し、
前記第2の特徴ベクトルに類似する少なくとも1つの第1の特徴ベクトルに対応する前記第1の部分時系列データセットを出力し、
前記データ変換部の学習では、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成し、
前記ペア毎に、
前記ペアの一方のトレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルと前記ペアの他方のトレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ω ij と、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度S ij とを計算し、損失関数L ij =-(S ij logΩ ij +(1‐S ij )log (1‐Ω ij )+ηR(W)(ηは学習率、R(W)は前記全結合層の重みパラメータに対する正則化項)が小さくなるように前記データ変換部の前記パラメータを更新する、
時系列データ処理方法。 - コンピュータに、
それぞれが部分時系列データセットである複数のトレーニングデータを使用して、所定のパラメータを有する縦続接続されたT個(Tは前記部分時系列データセットの時点数)のLSTMと、最終段の前記LSTMの出力を入力とする、所定のパラメータを有する全結合層と、を含むデータ変換部の学習を行う処理と、
複数の時系列データの集合である第1の時系列データセットを所定の時間毎に区切った複数の第1の部分時系列データセットを、学習済みの前記データ変換部を使用して、前記第1の部分時系列データセットの特徴を示す第1の特徴ベクトルに変換する処理と、
入力された第2の部分時系列データセットを、学習済みの前記データ変換部を使用して、前記第2の部分時系列データセットの特徴を示す第2の特徴ベクトルに変換する処理と、
前記第2の特徴ベクトルに類似する少なくとも1つの第1の特徴ベクトルに対応する前記第1の部分時系列データセットを出力する処理と、
を行わせ、
前記データ変換部の学習を行う処理では、
前記複数のトレーニングデータから、複数のトレーニングデータのペアを生成する処理と、
前記ペア毎に、
前記ペアの一方のトレーニングデータiを前記データ変換部に入力したときの前記全結合層の出力ベクトルと前記ペアの他方のトレーニングデータjを前記データ変換部に入力したときの前記全結合層の出力ベクトルとの内積Ω ij と、前記ペアの一方の前記トレーニングデータiと前記ペアの他方の前記トレーニングデータjとの間の類似度S ij とを計算し、損失関数L ij =-(S ij logΩ ij +(1‐S ij )log (1‐Ω ij )+ηR(W)(ηは学習率、R(W)は前記全結合層の重みパラメータに対する正則化項)が小さくなるように前記データ変換部の前記パラメータを更新する処理と、
を行わせるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/032927 WO2020049666A1 (ja) | 2018-09-05 | 2018-09-05 | 時系列データ処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020049666A1 JPWO2020049666A1 (ja) | 2021-05-13 |
JP7131616B2 true JP7131616B2 (ja) | 2022-09-06 |
Family
ID=69723062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020540929A Active JP7131616B2 (ja) | 2018-09-05 | 2018-09-05 | 時系列データ処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7131616B2 (ja) |
WO (1) | WO2020049666A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102621258B1 (ko) * | 2022-11-22 | 2024-01-05 | 한국전자기술연구원 | 다중 시계열 데이터의 특징점 추출을 통한 시계열 데이터 검색 시스템 및 방법 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230252038A1 (en) * | 2020-07-03 | 2023-08-10 | Nec Corporation | Time-series data processing method, time-series data processing device, time-series data processing system, and recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104754413A (zh) | 2013-12-30 | 2015-07-01 | 北京三星通信技术研究有限公司 | 基于图像搜索识别电视信号并推荐信息的方法和设备 |
JP2021512437A (ja) | 2018-02-08 | 2021-05-13 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | システム状態を解析及び修正するための時系列の検索 |
-
2018
- 2018-09-05 JP JP2020540929A patent/JP7131616B2/ja active Active
- 2018-09-05 WO PCT/JP2018/032927 patent/WO2020049666A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104754413A (zh) | 2013-12-30 | 2015-07-01 | 北京三星通信技术研究有限公司 | 基于图像搜索识别电视信号并推荐信息的方法和设备 |
JP2021512437A (ja) | 2018-02-08 | 2021-05-13 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | システム状態を解析及び修正するための時系列の検索 |
Non-Patent Citations (2)
Title |
---|
SONG, Dongjin et al.,Deep r-th Root of Rank Supervised Joint Binary Embedding for Multivariate Time Series Retrieval,Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining,ACM,2018年07月19日,pp.2229-2238 |
柏野邦夫、外2名,マルチモーダルアクティブ探索を用いた画像・音響時系列の高速探索,電子情報通信学会技術研究報告,社団法人電子情報通信学会,1998年09月17日,Vol.98, No.274,pp.51-58 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102621258B1 (ko) * | 2022-11-22 | 2024-01-05 | 한국전자기술연구원 | 다중 시계열 데이터의 특징점 추출을 통한 시계열 데이터 검색 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2020049666A1 (ja) | 2020-03-12 |
JPWO2020049666A1 (ja) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dong et al. | Hnhn: Hypergraph networks with hyperedge neurons | |
Zhang et al. | A novel combination forecasting model for wind power integrating least square support vector machine, deep belief network, singular spectrum analysis and locality-sensitive hashing | |
US20190340533A1 (en) | Systems and methods for preparing data for use by machine learning algorithms | |
Dai et al. | Incremental learning using a grow-and-prune paradigm with efficient neural networks | |
Biswas et al. | Active image clustering: Seeking constraints from humans to complement algorithms | |
Liu et al. | Structural network embedding using multi-modal deep auto-encoders for predicting drug-drug interactions | |
Zhang et al. | Hierarchical fuzzy neural networks with privacy preservation for heterogeneous big data | |
Lim et al. | OKVAR-Boost: a novel boosting algorithm to infer nonlinear dynamics and interactions in gene regulatory networks | |
JP7131616B2 (ja) | 時系列データ処理装置 | |
Kongsorot et al. | Multi-label classification with extreme learning machine | |
CN113051440A (zh) | 一种基于超图结构的链路预测方法及系统 | |
KR101467707B1 (ko) | 지식 베이스의 개체 매칭 방법 및 이를 위한 장치 | |
TWI770967B (zh) | 一種神經網路的訓練方法、視頻識別方法及電腦設備和電腦可讀儲存介質 | |
Liang et al. | Cross-temporal snapshot alignment for dynamic networks | |
Ul Rahman et al. | Additive parameter for deep face recognition | |
Singh et al. | A framework to alleviate common problems from recommender system: A case study for technical course recommendation | |
Wang et al. | An improved neural network with random weights using backtracking search algorithm | |
EP2560108A1 (en) | Logical operation system | |
Guerrero et al. | Prediction of press-fit quality via data mining techniques and artificial intelligence | |
Liang et al. | A normalizing flow-based co-embedding model for attributed networks | |
Tasharrofi et al. | DE-GCN: differential evolution as an optimization algorithm for graph convolutional networks | |
Zhang et al. | A selective ensemble learning approach based on evolutionary algorithm | |
Usmanova et al. | Federated Learning and catastrophic forgetting in pervasive computing: demonstration in HAR domain | |
Aljobouri et al. | Performance evaluation of prototype‐based clustering algorithms combined MDL index | |
Ko et al. | Deep compression of sum-product networks on tensor networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7131616 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |