JP6980521B2 - 継続的学習のためのデータメタスケーリング装置及び方法 - Google Patents
継続的学習のためのデータメタスケーリング装置及び方法 Download PDFInfo
- Publication number
- JP6980521B2 JP6980521B2 JP2017254556A JP2017254556A JP6980521B2 JP 6980521 B2 JP6980521 B2 JP 6980521B2 JP 2017254556 A JP2017254556 A JP 2017254556A JP 2017254556 A JP2017254556 A JP 2017254556A JP 6980521 B2 JP6980521 B2 JP 6980521B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- information
- reduction
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000013016 learning Effects 0.000 title claims description 391
- 238000000034 method Methods 0.000 title claims description 134
- 230000009467 reduction Effects 0.000 claims description 219
- 230000008569 process Effects 0.000 claims description 101
- 238000005070 sampling Methods 0.000 claims description 64
- 230000008602 contraction Effects 0.000 claims description 56
- 238000011156 evaluation Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 16
- 230000001186 cumulative effect Effects 0.000 claims description 12
- 230000007786 learning performance Effects 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000003416 augmentation Effects 0.000 claims description 2
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000010801 machine learning Methods 0.000 description 24
- 239000002131 composite material Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 238000005457 optimization Methods 0.000 description 10
- 239000000758 substrate Substances 0.000 description 9
- 238000009825 accumulation Methods 0.000 description 7
- 238000010248 power generation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000011946 reduction process Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000000491 multivariate analysis Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001373 regressive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/17—Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/02—Comparing digital values
- G06F7/023—Comparing digital values adaptive, e.g. self learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
スキーマ情報の抽出、データの縮約、モデル学習、学習履歴の保存、学習履歴の分析、知識増強の手順を自動化するプロセスを行なうことができる。継続的学習は、持続的な知識増強によりデータ縮約のための縮約基準の最適化を自動化できる反復可能な学習過程と定義する。
特定時間間隔または不特定時間間隔で収集されるデータは、時間的属性で表現することができる。従って、時間的属性で表現できるデータの次元は「時間」になる。
本発明の実施形態に係るデータの縮約は、任意のデータが任意のデータ次元で表現されるとき、前記任意のデータ次元において前記任意のデータをサンプリングするプロセスと定義することができる。
サンプリングは、予め定められた基準に応じて1つ以上のデータ次元で代表値を選択するプロセスであり得る。
単一次元基盤のサンプリング処理は、周期的サンプリングプロセス、非周期的サンプリングプロセス、固定ウィンドウ(fixed window)基盤のサンプリングプロセス及びムービングウィンドウ(moving window)基盤のサンプリングプロセスを含むことができる。
複合次元基盤のサンプリングプロセスは、2つ以上のデータ次元で表現されるデータに対して各次元で独立的に単一次元のサンプリングを行なうプロセスである。例えば、或る地域に存在するセンサで収集するデータが、温度、湿度、照度、騒音のうち少なくとも1つを含む属性で構成されており、前記センサは空間的に様々な位置に存在しており、前記センサで測定されたデータは周期的に収集されたり、ユーザーの設定またはセンサで収集するデータの値に応じて非周期的に収集されることができる。このようなデータ収集環境において温度は、全てのセンサに対して位置に関係なく5分と定義される固定ウィンドウ基盤のサンプリングを行い、湿度は特定の位置を基準に7mの間隔と定義される固定ウィンドウ基盤のサンプリングを行い、 照度は湿度と同一の位置でムービングウィンドウサンプリングを行い、騒音は測定された騒音データが一定の基準値以上のデータのみを選択する非周期的サンプリングを行うことができる。
次元変換は、データが表現するデータ次元の構造を変更して新たな次元でのデータを表現する過程であって、例えば、周波数領域変換(frequency domain transform)、多変量分析(multivariate analysis)、非線形次元縮小(nonlinear dimensionality reduction)などが含まれることができる。
サンプリングと次元変換との結合は、サンプリングと次元の変換を順次行なう過程であって、例えば、入力データをサンプリングした後、サンプリングされたデータを次元変換したり、入力データの次元を変換した後、変換された次元で入力データをサンプリングしてデータの数を減らすものであり得る。
縮約基準情報は、データ次元に関する情報とデータ縮約に関する情報とを含む。データ縮約に関する情報は、周期的サンプリングのための基準情報、非周期的サンプリングのための基準情報、固定ウィンドウサンプリングのための基準情報、ムービングウィンドウサンプリングのための基準情報のうち少なくとも1つの情報を含むように構成されることができ、サンプリング基準に関係なく適用される共通基準情報をさらに含むことができる。
本発明では、学習モデルの性能または学習結果の信頼度(または正確性)は、データ縮約の適切性を評価するための指標として使用される。
<知識増強基準情報>
本発明において知識増強基準情報は、縮約基準情報を更新するための基準及び条件を定義する。
反復学習基準情報61のデータ構造は、3つのフィールド(F1〜F3)を含むことができる。第1のフィールド(F1)には、「KA−ID1」のような反復学習基準情報の識別子(Knowledge Augmentation IDentifier)が記録され、第2のフィールド(F2)には、制限しようとする学習基準情報の識別子(LC−ID)が記録され、第3のフィールド(F3)には縮約基準の変動回数が記録されることができる。
縮約基準変動情報63のデータ構造は、5つのフィールド(F1〜F5)を含むことができる。第1のフィールド(F1)には、変動対象に該当する縮約基準情報の識別子(DR−ID)が記録されることができ、第2のフィールド(F2)には、前記識別子(DR−ID)によって識別される縮約基準情報内で変動される変動要素に関する情報が記録されることができ、第3のフィールド(F3)には、第2のフィールド(F2)に記録された変動要素の変動範囲に関する情報が記録されることができ、第4のフィールド(F4)には、前記変動範囲内で特定される変動基準に関する情報が記録されることができ、第5のフィールド(F5)には、前記変動基準を任意で変動させる規則に関する情報が記録されることができる。
10分、15分の固定ウィンドウに拡張または縮小し、10分の30%範囲内で固定ウィンドウのサイズを任意に変更する縮約基準の変動を規定したものである。
反復学習基準の規則による実行が完了すると、履歴累積基準の規則による実行が開始される。
よる良質のエネルギー使用量データを生成することができる。
20:縮約機 30:学習機
40、400:評価機 50、500:メタデータストア
200:多数の縮約機 300:多数の学習機
Claims (17)
- プロセッサは、入力データを他の属性で表現されるように縮約する規則を定義した縮約基準情報、前記縮約データへの学習を制限する規則と学習性能の評価規則を定義した学習基準情報及び前記縮約基準情報を最適化するための規則を定義した知識増強基準情報を設定するステップと、
前記プロセッサは、前記縮約基準情報に基づいて前記入力データを縮約データに縮約するステップと、
前記プロセッサは、前記学習基準情報に基づいて前記縮約データへの学習を行なって学習モデルを生成するステップと、
前記プロセッサは、前記学習基準情報に基づいて前記学習モデルの性能を評価して前記縮約データの適切性を判断するステップと、及び
前記プロセッサは、前記適切性を判断した結果に応じて前記知識増強基準情報に基づいて前記縮約基準情報を更新する知識増強を行なうステップと、
を含む継続的学習のためのデータメタスケーリング方法。 - 前記設定するステップは、多数の属性で表現される前記入力データを前記多数の属性のうち少なくとも1つの属性で表現されるように縮約する規則を定義した前記縮約基準情報を設定するステップを含む請求項1に記載の継続的学習のためのデータメタスケーリング方法。
- 前記設定するステップは、前記入力データが多数の属性で表現されるとき、前記多数の属性のうちいずれか1つの属性を定義するデータ次元を示す情報、前記入力データのサンプリング単位を定義するウィンドウを示す情報、前記ウィンドウの種類を示す情報、前記ウィンドウのサイズを示す情報及び前記ウィンドウ内で代表値を選択する基準を示す情報を含むように構成された前記縮約基準情報を設定するステップを含む請求項1に記載の継続的学習のためのデータメタスケーリング方法。
- 前記設定するステップは、前記入力データの種類を示す情報、前記学習モデルの性能を評価するための学習信頼度の条件を示す情報、前記学習信頼度の計算方法を示す情報及び前記縮約データへの学習の反復回数を制限する前記学習の早期終了条件を示す情報を含むように構成された前記学習基準情報を設定するステップを含む請求項1に記載の継続的学習のためのデータメタスケーリング方法。
- 前記設定するステップは、前記縮約基準情報の変動回数を示す情報、前記縮約基準情報の変動要素を示す情報、前記変動要素の変動範囲を示す情報、前記縮約データへの学習を行なう過程で発生した学習履歴の累積回数を示す情報を含むように構成された前記知識増強基準情報を設定するステップを含む請求項1に記載の継続的学習のためのデータメタスケーリング方法。
- 前記変動要素は、前記入力データのサンプリング単位を定義するウィンドウに関する情報である請求項5に記載のデータメタスケーリング方法。
- 前記ウィンドウに関する情報は、前記ウィンドウのサイズ及びウィンドウ間の間隔を示す情報を含む請求項6に記載のデータメタスケーリング方法。
- 前記縮約するステップは、
前記入力データが多数の属性で表現され、前記多数の属性を多数のデータ次元にそれぞれ定義するとき、
各データ次元で前記入力データを前記入力データの代表値としてサンプリングする第1のプロセス、前記入力データを前記多数のデータ次元で選択された少なくとも1つのデータ次元に変更する第2のプロセス及び前記第1のプロセスと前記第2のプロセスとが結合された第3のプロセスのうちいずれか1つのプロセスによって前記入力データを縮約データに縮約するステップである請求項1に記載のデータメタスケーリング方法。 - 前記第1のプロセスは、
前記入力データを前記入力データの代表値として周期的にサンプリングするプロセスと、
前記入力データを前記入力データの代表値として非周期的にサンプリングするプロセスと、
前記入力データのサンプリング単位を定義するウィンドウが複数であり、複数のウィンドウが重複していない状態で各ウィンドウで代表値を選択する固定ウィンドウ基盤のサンプリングプロセスと、及び
前記複数のウィンドウが重複した状態で各ウィンドウで代表値を選択するムービングウィンドウ基盤のサンプリングプロセスと、
を含む請求項8に記載のデータメタスケーリング方法。 - 前記知識増強を行なうステップは、
前記学習モデルの性能を評価するために計算された学習信頼度が学習基準情報で定義する前記学習性能の評価規則に規定した条件を満たしていない場合、前記知識増強基準情報で定義する前記縮約基準情報の変動要素を示す情報及び前記変動要素の変動範囲に応じて前記縮約基準情報を変更するステップと、及び
前記変更された縮約基準情報に応じて縮約された前記縮約データへの学習を行なって生成された学習モデルの性能が前記学習基準情報に規定する条件を満たすと、前記変更された縮約基準情報を最適の縮約基準情報に更新するステップと、
を含む請求項1に記載のデータメタスケーリング方法。 - 入力データを他の属性で表現されるように縮約する規則を定義した縮約基準情報、前記縮約データへの学習を制限する規則と学習性能の評価規則を定義した学習基準情報及び前記縮約基準情報を最適化するための規則を定義した知識増強基準情報を設定するメタ最適化機と、
前記縮約基準情報に基づいて前記入力データを縮約データに縮約する縮約機と、
前記学習基準情報に基づいて前記縮約デーへの学習を行なって学習モデルを生成する学習機と、及び
前記学習基準情報に基づいて前記学習モデルの性能を評価して前記縮約データの適切性を判断する評価機と、を含み、
前記メタ最適化機は、
前記適切性を判断した結果に応じて前記知識増強基準情報に基づいて前記縮約基準情報を更新するための知識増強を行う継続的学習のためのデータメタスケーリング装置。 - 前記メタ最適化機は、
多数の属性で表現される前記入力データを前記多数の属性のうち少なくとも1つの属性で表現されるように縮約する規則を定義した前記縮約基準情報を設定する請求項11に記載の継続的学習のためのデータメタスケーリング装置。 - 前記メタ最適化機は、
前記入力データが多数の属性で表現されるとき、前記多数の属性うちいずれか1つの属性を定義するデータ次元を示す情報、前記入力データのサンプリング単位を定義するウィンドウを示す情報、前記ウィンドウの種類を示す情報、前記ウィンドウのサイズを示す情報及び前記ウィンドウ内で代表値を選択する基準を示す情報を含むように構成された前記縮約基準情報を設定する請求項11に記載の継続的学習のためのデータメタスケーリング装置。 - 前記メタ最適化機は、
前記入力データの種類を示す情報、前記学習モデルの性能を評価するための学習信頼度の条件を示す情報、前記学習信頼度の計算方法を示す情報及び前記縮約データへの学習の反復回数を制限する前記学習の早期終了条件を示す情報を含むように構成された前記学習基準情報を設定する請求項11に記載の継続的学習のためのデータメタスケーリング装置。 - 前記メタ最適化機は、
前記縮約基準情報の変動回数を示す情報、前記縮約基準情報の変動要素を示す情報、前記変動要素の変動範囲を示す情報、前記縮約データへの学習を行なう過程で発生する学習履歴の累積回数を示す情報を含むように構成された前記知識増強基準情報を設定する請求項11に記載の継続的学習のためのデータメタスケーリング装置。 - 前記変動要素は、
前記入力データのサンプリング単位を定義するウィンドウに関する情報である請求項15に記載のデータメタスケーリング装置。 - 前記メタ最適化機は、
前記学習モデルの性能が前記学習性能の評価規則に規定した条件を満たしていない場合、前記知識増強基準情報で定義する前記縮約基準情報の変動要素及び前記変動要素の変動範囲に応じて前記縮約基準情報を変更し、前記変更された縮約基準情報に応じて縮約された前記縮約データへの学習を行なって生成された前記学習モデルの性能が前記学習基準情報で規定する条件を満たすと、前記変更された縮約基準情報を前記更新された縮約基準情報として保存場所に保存して知識増強を行なう請求項11に記載のデータメタスケーリング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170000690 | 2017-01-03 | ||
KR10-2017-0000690 | 2017-01-03 | ||
KR10-2017-0177880 | 2017-12-22 | ||
KR1020170177880A KR102470145B1 (ko) | 2017-01-03 | 2017-12-22 | 자가 학습을 위한 데이터 메타 스케일링 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018109996A JP2018109996A (ja) | 2018-07-12 |
JP6980521B2 true JP6980521B2 (ja) | 2021-12-15 |
Family
ID=62568047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017254556A Active JP6980521B2 (ja) | 2017-01-03 | 2017-12-28 | 継続的学習のためのデータメタスケーリング装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180189655A1 (ja) |
JP (1) | JP6980521B2 (ja) |
DE (1) | DE102017131259A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101978135B1 (ko) * | 2017-04-28 | 2019-05-15 | 한국전력공사 | 전력설비 데이터 품질 정보 생성 장치 및 방법 |
JP6904186B2 (ja) * | 2017-09-15 | 2021-07-14 | トヨタ自動車株式会社 | 車載装置、情報処理装置、情報処理方法、及びプログラム |
WO2019172956A1 (en) | 2018-03-06 | 2019-09-12 | Tazi AI Systems, Inc. | Continuously learning, stable and robust online machine learning system |
SG10201906345RA (en) * | 2018-07-09 | 2020-02-27 | Tata Consultancy Services Ltd | Method and system for generation of hybrid learning techniques |
JP7172356B2 (ja) * | 2018-09-25 | 2022-11-16 | 日本電気株式会社 | AI(artificial intelligence)実行支援装置、方法、及びプログラム |
CN109800333A (zh) * | 2019-01-02 | 2019-05-24 | 平安科技(深圳)有限公司 | 基于机器学习的报表生成方法、装置和计算机设备 |
JP7050028B2 (ja) * | 2019-03-28 | 2022-04-07 | 株式会社日立製作所 | 計算機システム及び機械学習の制御方法 |
KR102277002B1 (ko) * | 2019-11-04 | 2021-07-13 | 에스케이텔레콤 주식회사 | 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170000690A (ko) | 2015-06-24 | 2017-01-03 | 엘지전자 주식회사 | 전자디바이스 |
-
2017
- 2017-12-22 DE DE102017131259.5A patent/DE102017131259A1/de active Pending
- 2017-12-26 US US15/854,387 patent/US20180189655A1/en not_active Abandoned
- 2017-12-28 JP JP2017254556A patent/JP6980521B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20180189655A1 (en) | 2018-07-05 |
JP2018109996A (ja) | 2018-07-12 |
DE102017131259A1 (de) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6980521B2 (ja) | 継続的学習のためのデータメタスケーリング装置及び方法 | |
Tekouabou et al. | Improving parking availability prediction in smart cities with IoT and ensemble-based model | |
Long et al. | Unified spatial-temporal neighbor attention network for dynamic traffic prediction | |
JP6384065B2 (ja) | 情報処理装置、学習方法、及び、プログラム | |
CN110910659B (zh) | 一种交通流量预测方法、装置、设备以及存储介质 | |
CN112187554B (zh) | 一种基于蒙特卡洛树搜索的运维系统故障定位方法和系统 | |
CN105893669A (zh) | 一种基于数据挖掘的全局仿真性能预测方法 | |
CN113538910A (zh) | 一种自适应的全链条城市区域网络信号控制优化方法 | |
Xu et al. | Traffic speed prediction: spatiotemporal convolution network based on long-term, short-term and spatial features | |
CN114944053A (zh) | 一种基于时空超图神经网络的交通流预测方法 | |
CN113094860A (zh) | 一种基于注意力机制的工控网络流量建模方法 | |
CN115730684A (zh) | 一种基于lstm-cnn模型的空气质量检测系统 | |
CN105740431A (zh) | 一种基于多层周期指数递阶的时序数据预测方法 | |
Yuan et al. | Research on K nearest neighbor non-parametric regression algorithm based on KD-tree and clustering analysis | |
KR102470145B1 (ko) | 자가 학습을 위한 데이터 메타 스케일링 장치 및 방법 | |
Ira et al. | Tuning of multivariable model predictive controllers through expert bandit feedback | |
CN113240219A (zh) | 一种土地利用模拟及预测方法 | |
CN116386312A (zh) | 一种交通量预测模型的构建方法和系统 | |
Jing et al. | RPR: recommendation for passengers by roads based on cloud computing and taxis traces data | |
CN116578858A (zh) | 基于图神经网络的空压机故障预测与健康度评价方法及系统 | |
CN113240904B (zh) | 基于特征融合的交通流预测方法 | |
CN113689694B (zh) | 一种车流量预测方法、装置、设备及可读存储介质 | |
Chen et al. | Daily ETC traffic flow time series prediction based on k-NN and BP neural network | |
Miao et al. | GDENet: graph differential equation network for traffic flow prediction | |
Qiu et al. | CDSTTN: A Data Imputation Method for Cyber-Physical Systems by Causal Dense Spatial-Temporal Transformer Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6980521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |