JP7403909B2 - 系列マイニングモデルの訓練装置の動作方法、系列データの処理装置の動作方法、系列マイニングモデルの訓練装置、系列データの処理装置、コンピュータ機器、及びコンピュータプログラム - Google Patents
系列マイニングモデルの訓練装置の動作方法、系列データの処理装置の動作方法、系列マイニングモデルの訓練装置、系列データの処理装置、コンピュータ機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7403909B2 JP7403909B2 JP2022524007A JP2022524007A JP7403909B2 JP 7403909 B2 JP7403909 B2 JP 7403909B2 JP 2022524007 A JP2022524007 A JP 2022524007A JP 2022524007 A JP2022524007 A JP 2022524007A JP 7403909 B2 JP7403909 B2 JP 7403909B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- sequence
- sub
- samples
- series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005065 mining Methods 0.000 title claims description 290
- 238000012549 training Methods 0.000 title claims description 148
- 238000000034 method Methods 0.000 title claims description 131
- 238000012545 processing Methods 0.000 title claims description 97
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000011017 operating method Methods 0.000 title claims 4
- 239000013598 vector Substances 0.000 claims description 219
- 230000006870 function Effects 0.000 claims description 132
- 230000003068 static effect Effects 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 53
- 238000009826 distribution Methods 0.000 claims description 42
- 238000000605 extraction Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 22
- 230000009467 reduction Effects 0.000 claims description 20
- 238000004088 simulation Methods 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 23
- 238000003860 storage Methods 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 16
- 238000013145 classification model Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000003672 processing method Methods 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000002265 prevention Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004900 laundering Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013618 particulate matter Substances 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 210000002268 wool Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2474—Sequence data queries, e.g. querying versioned data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/03—Credit; Loans; Processing thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Finance (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Fuzzy Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Medical Informatics (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Technology Law (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
ターゲットサービスシナリオにおける第1系列サンプルを取得するステップであって、前記第1系列サンプルには、前記ターゲットサービスシナリオにおける過去系列データが含まれる、ステップと、
前記第1系列サンプルのラベル状態を決定するステップであって、前記第1系列サンプルのラベル状態は、前記第1系列サンプルのラベル情報の具備状況を示すためのものである、ステップと、
前記ラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して、系列マイニングモデルを構築するステップであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける系列データのラベル情報を決定するためのものである、ステップと、
前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練するステップと、を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記第1系列サンプルにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記第1系列サンプルに少なくとも部分的にラベル情報が存在することである、ことを含む。
ターゲットサービスシナリオの系列データを取得するステップと、
前記ターゲットサービスシナリオに対応する系列マイニングモデルを呼び出すステップであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける過去系列データのラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して構築され、前記過去系列データを用いて訓練されたモデルである、ステップと、
前記系列マイニングモデルによって前記系列データを処理することにより、前記系列データのラベル情報を取得するステップと、を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記第1系列サンプルにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記第1系列サンプルに少なくとも部分的にラベル情報が存在することである、ことを含む。
ターゲットサービスシナリオにおける第1系列サンプルを取得するサンプル取得モジュールであって、前記第1系列サンプルには、前記ターゲットサービスシナリオにおける過去系列データが含まれる、サンプル取得モジュールと、
前記第1系列サンプルのラベル状態を決定する状態決定モジュールであって、前記第1系列サンプルのラベル状態は、前記第1系列サンプルのラベル情報の具備状況を示すためのものである、状態決定モジュールと、
前記ラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して、系列マイニングモデルを構築するモデル構築モジュールであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける系列データのラベル情報を決定するためのものである、モデル構築モジュールと、
前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練するモデル訓練モジュールと、を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記第1系列サンプルにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記第1系列サンプルに少なくとも部分的にラベル情報が存在することである、ことを含む。
ターゲットサービスシナリオの系列データを取得するデータ取得モジュールと、
前記ターゲットサービスシナリオに対応する系列マイニングモデルを呼び出すモデル呼び出しモジュールであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける過去系列データのラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して構築され、前記過去系列データを用いて訓練されたモデルである、モデル呼び出しモジュールと、
前記系列マイニングモデルによって前記系列データを処理することにより、前記系列データのラベル情報を取得するラベル決定モジュールと、を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記第1系列サンプルにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記第1系列サンプルに少なくとも部分的にラベル情報が存在することである、ことを含む。
該コンピュータ機器1600は、処理ユニット(例えば、中央処理装置(CPU:Central Processing Unit)、グラフィックス処理ユニット(GPU:Graphics Processing Unit)、及びフィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)など)1601と、ランダムアクセスメモリ(RAM:Random-Access Memory)1602及び読み出し専用メモリ(ROM:Read-Only Memory)1603を含むシステムメモリ1604と、システムメモリ1604及び中央処理装置1601を接続するシステムバス1605と、を備える。該コンピュータ機器1600は、コンピュータ機器内の各デバイス間の情報伝送を助ける基本入出力システム(I/Oシステム:Input Output System)1606と、オペレーティングシステム1613、アプリケーションプログラム1614、及び他のプログラムモジュール1615を記憶するための大容量記憶装置1607と、をさらに備える。
20 第2コンピュータ機器
410 潜在ベクトル抽出ユニット
412 マッピングサブユニット
414 次元削減サブユニット
416 再帰サブユニット
420 再構成ユニット
1300 装置
1310 サンプル取得モジュール
1320 状態決定モジュール
1330 モデル構築モジュール
1340 モデル訓練モジュール
1342 事前訓練サブモジュール
13422 潜在ベクトル抽出ユニット
13424 データ再構成ユニット
13426 第1関数計算ユニット
13428 第1モデル訓練ユニット
1344 第1潜在ベクトル抽出サブモジュール
1346 第1モデル訓練サブモジュール
13462 第2関数計算ユニット
13464 第3関数計算ユニット
13466 第2モデル訓練ユニット
1348 特徴取得モジュール
1349 ベクトル最適化モジュール
1349 ベクトル最適化モジュール
1500 装置
1510 データ取得モジュール
1520 モデル呼び出しモジュール
1530 ラベル決定モジュール
1600 コンピュータ機器
1601 中央処理装置
1602 ランダムアクセスメモリ(RAM:Random-Access Memory)
1603 読み出し専用メモリ(ROM:Read-Only Memory)
1604 システムメモリ
1605 システムバス
1606 基本入出力システム
1607 大容量記憶装置
1608 ディスプレイ
1609 入力デバイス
1610 入出力コントローラ
1611 ネットワークインタフェースユニット
1612 ネットワーク
1613 オペレーティングシステム
1614 アプリケーションプログラム
1615 プログラムモジュール
Claims (17)
- 系列マイニングモデルの訓練装置の動作方法であって、
前記訓練装置は、
サンプル取得モジュールと、
状態決定モジュールと、
モデル構築モジュールと、
モデル訓練モジュールと、
を具備し、前記方法は、
前記サンプル取得モジュールが、ターゲットサービスシナリオにおける第1系列サンプルを取得するステップであって、前記第1系列サンプルには、前記ターゲットサービスシナリオにおける過去系列データが含まれる、ステップと、
前記状態決定モジュールが、前記第1系列サンプルのラベル状態を決定するステップであって、前記第1系列サンプルのラベル状態は、前記第1系列サンプルのラベル情報の具備状況を示すためのものである、ステップと、
前記モデル構築モジュールが、前記ラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して、系列マイニングモデルを構築するステップであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける系列データのラベル情報を決定するためのものである、ステップと、
前記モデル訓練モジュールが、前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練するステップと、
を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記第1系列サンプルにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記第1系列サンプルに少なくとも部分的にラベル情報が存在することである、ことを含む、方法。 - 前記ラベル状態は、前記第1系列サンプルにラベル情報が存在しないことであり、前記系列マイニングモデルは、前記第1サブモデルと、前記第2サブモデルとを含み、
前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練する前記ステップは、
前記第1系列サンプルを用いて、前記第1サブモデルを事前訓練することにより、事前訓練された第1サブモデルを取得するステップと、
前記事前訓練された第1サブモデルによって前記第1系列サンプルを処理することにより、前記第1系列サンプルの潜在ベクトル表現を取得するステップと、
前記第1系列サンプルと、前記第1系列サンプルの潜在ベクトル表現とを用いて、前記事前訓練された第1サブモデルと、前記第2サブモデルとを共同訓練することにより、前記系列マイニングモデルを取得するステップと、
を含む、
請求項1に記載の方法。 - 前記ラベル状態は、前記第1系列サンプルに少なくとも部分的にラベル情報が存在し、且つ、第2系列サンプルの数が第3系列サンプルの数よりも大きいことであり、前記第2系列サンプルは、前記第1系列サンプルのうち、ラベル情報が存在する系列サンプルを指し、前記第3系列サンプルは、前記第1系列サンプルのうち、ラベル情報が存在しない系列サンプルを指し、前記系列マイニングモデルは、前記第1サブモデルと、前記第3サブモデルとを含み、
前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練する前記ステップは、
前記第1系列サンプルを用いて、前記第1サブモデルを事前訓練することにより、事前訓練された第1サブモデルを取得するステップと、
前記事前訓練された第1サブモデルによって前記第2系列サンプルを処理することにより、前記第2系列サンプルの潜在ベクトル表現を取得するステップと、
前記第2系列サンプルと、前記第2系列サンプルの潜在ベクトル表現とを用いて、前記事前訓練された第1サブモデルと、前記第3サブモデルとを共同訓練することにより、前記系列マイニングモデルを取得するステップと、
を含む、
請求項1に記載の方法。 - 前記ラベル状態は、前記第1系列サンプルに少なくとも部分的にラベル情報が存在し、且つ、第2系列サンプルの数が第3系列サンプルの数よりも小さいことであり、前記第2系列サンプルは、前記第1系列サンプルのうち、ラベル情報が存在する系列サンプルを指し、前記第3系列サンプルは、前記第1系列サンプルのうち、ラベル情報が存在しない系列サンプルを指し、前記系列マイニングモデルは、前記第1サブモデルと、前記第2サブモデルと、前記第3サブモデルとを含み、
前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練する前記ステップは、
前記第1系列サンプルを用いて、前記第1サブモデルを事前訓練することにより、事前訓練された第1サブモデルを取得するステップと、
前記事前訓練された第1サブモデルによって前記第2系列サンプルを処理することにより、前記第2系列サンプルの潜在ベクトル表現を取得するステップと、
前記第2系列サンプルと、前記第2系列サンプルの潜在ベクトル表現とを用いて、前記事前訓練された第1サブモデルと、前記第3サブモデルとを共同訓練することにより、共同訓練された第1サブモデルを取得するステップと、
前記共同訓練された第1サブモデルによって前記第3系列サンプルを処理することにより、前記第3系列サンプルの潜在ベクトル表現を取得するステップと、
前記第3系列サンプルと、前記第3系列サンプルの潜在ベクトル表現とを用いて、前記共同訓練された第1サブモデルと、前記第2サブモデルとを共同訓練することにより、前記系列マイニングモデルを取得するステップと、
を含む、
請求項1に記載の方法。 - 前記第1サブモデルは、潜在ベクトル抽出ユニットと、再構成ユニットとを含み、
前記第1系列サンプルを用いて、前記第1サブモデルを事前訓練することにより、事前訓練された第1サブモデルを取得する前記ステップは、
前記潜在ベクトル抽出ユニットによって前記第1系列サンプルを処理することにより、前記第1系列サンプルの潜在ベクトル表現を取得するステップと、
前記再構成ユニットによって前記第1系列サンプルの潜在ベクトル表現を処理することにより、再構成された第1系列サンプルを取得するステップと、
前記第1系列サンプルと、前記再構成された第1系列サンプルとに基づいて、第1損失関数の値を計算するステップであって、前記第1損失関数は、前記第1サブモデルに対応する損失関数を指す、ステップと、
前記第1損失関数の値に基づいて、前記第1サブモデルのパラメータを調整することにより、前記事前訓練された第1サブモデルを取得するステップと、
を含む、
請求項2乃至4のいずれか1項に記載の方法。 - 前記潜在ベクトル抽出ユニットは、マッピングサブユニットと、次元削減サブユニットと、再帰サブユニットとを含み、
前記潜在ベクトル抽出ユニットによって前記第1系列サンプルを処理することにより、前記第1系列サンプルの潜在ベクトル表現を取得する前記ステップは、
前記マッピングサブユニットによって前記第1系列サンプルの特徴情報を取得することにより、前記第1系列サンプルの特徴情報表現を取得するステップと、
前記次元削減サブユニットによって前記第1系列サンプルの特徴情報表現に対して次元削減処理を行うことにより、前記第1系列サンプルの次元削減特徴情報を取得するステップと、
前記再帰サブユニットによって前記第1系列サンプルの次元削減特徴情報の系列間のステップ長跨りの変化法則を学習することにより、前記第1系列サンプルの潜在ベクトル表現を取得するステップと、
を含む、
請求項5に記載の方法。 - 前記事前訓練された第1サブモデルによって前記第1系列サンプルを処理することにより、前記第1系列サンプルの潜在ベクトル表現を取得する前記ステップの後、
前記第1系列サンプルの静的特徴を取得するステップと、
前記第1系列サンプルの静的特徴と、前記第1系列サンプルの潜在ベクトル表現とに基づいて、前記第1系列サンプルの最適化ベクトル表現を取得するステップと、
をさらに含み、
前記第1系列サンプルの最適化ベクトル表現は、前記事前訓練された第1サブモデルと、前記第2サブモデルとを共同訓練するためのものである、
請求項2に記載の方法。 - 前記第1系列サンプルの静的特徴と、前記第1系列サンプルの潜在ベクトル表現とに基づいて、前記第1系列サンプルの最適化ベクトル表現を取得する前記ステップは、
前記第1系列サンプルの静的特徴に対して正則化処理を行うことにより、正則化処理後の静的特徴を取得するステップと、
前記第1系列サンプルの潜在ベクトル表現に対して正規化処理を行うことにより、正規化処理後の潜在ベクトル表現を取得するステップと、
前記正則化処理後の静的特徴と、前記正規化処理後の潜在ベクトル表現とを組み合わせることにより、前記第1系列サンプルの最適化ベクトル表現を取得するステップと、
を含む、
請求項7に記載の方法。 - 前記第1系列サンプルと、前記第1系列サンプルの潜在ベクトル表現とを用いて、前記事前訓練された第1サブモデルと、前記第2サブモデルとを共同訓練することにより、前記系列マイニングモデルを取得する前記ステップは、
第1損失関数の値及び第2損失関数の値を計算するステップであって、前記第1損失関数は、前記第1サブモデルの損失関数を指し、前記第2損失関数は、前記第2サブモデルの損失関数を指す、ステップと、
前記第1損失関数の値と、前記第2損失関数の値と、重み係数の設定とに基づいて、前記系列マイニングモデルの損失関数の値を計算するステップであって、前記重み係数の設定は、前記第1損失関数の重み及び前記第2損失関数の重みに対する設定を指す、ステップと、
前記系列マイニングモデルの損失関数の値に基づいて、前記系列マイニングモデルのパラメータを調整することにより、前記系列マイニングモデルを取得するステップと、
を含む、
請求項2に記載の方法。 - 第2損失関数の値を計算する前記ステップは、
前記第1系列サンプルのk個(前記kは、正の整数)のクラスを決定するステップと、
前記k個のクラスに基づいて、前記第2サブモデルによってk個のクラスター中心を初期化するステップと、
前記第1系列サンプルから前記k個のクラスター中心までの距離を計算することにより、サンプル確率分布を取得するステップであって、前記サンプル確率分布は、前記第1系列サンプルが前記k個のクラスのそれぞれに属する確率を示すためのものである、ステップと、
前記サンプル確率分布に基づいて、シミュレーションサンプル確率分布を計算するステップであって、前記シミュレーションサンプル確率分布は、前記第1系列サンプルにラベル情報が存在する場合、前記第1系列サンプルが前記k個のクラスのそれぞれに属する確率を示すためのものである、ステップと、
前記サンプル確率分布と前記シミュレーションサンプル確率分布との相対エントロピーを前記第2損失関数の値として決定するステップと、
を含む、
請求項9に記載の方法。 - 系列データの処理装置の動作方法であって、
前記処理装置は、
データ取得モジュールと、
モデル呼び出しモジュールと、
ラベル決定モジュールと、
を具備し、前記方法は、
前記データ取得モジュールが、ターゲットサービスシナリオの系列データを取得するステップと、
前記モデル呼び出しモジュールが、前記ターゲットサービスシナリオに対応する系列マイニングモデルを呼び出すステップであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける過去系列データのラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して構築され、前記過去系列データを用いて訓練されたモデルである、ステップと、
前記ラベル決定モジュールが、前記系列マイニングモデルによって前記系列データを処理することにより、前記系列データのラベル情報を取得するステップと、
を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記系列データにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記系列データに少なくとも部分的にラベル情報が存在することである、ことを含む、方法。 - 系列マイニングモデルの訓練装置であって、
ターゲットサービスシナリオにおける第1系列サンプルを取得するサンプル取得モジュールであって、前記第1系列サンプルには、前記ターゲットサービスシナリオにおける過去系列データが含まれる、サンプル取得モジュールと、
前記第1系列サンプルのラベル状態を決定する状態決定モジュールであって、前記第1系列サンプルのラベル状態は、前記第1系列サンプルのラベル情報の具備状況を示すためのものである、状態決定モジュールと、
前記ラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して、系列マイニングモデルを構築するモデル構築モジュールであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける系列データのラベル情報を決定するためのものである、モデル構築モジュールと、
前記第1系列サンプルを用いて、前記系列マイニングモデルを訓練するモデル訓練モジュールと、
を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記第1系列サンプルにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記第1系列サンプルに少なくとも部分的にラベル情報が存在することである、ことを含む、装置。 - 系列データの処理装置であって、
ターゲットサービスシナリオの系列データを取得するデータ取得モジュールと、
前記ターゲットサービスシナリオに対応する系列マイニングモデルを呼び出すモデル呼び出しモジュールであって、前記系列マイニングモデルは、前記ターゲットサービスシナリオにおける過去系列データのラベル状態に基づいて、系列マイニングフレームからサブモデルを選択して構築され、前記過去系列データを用いて訓練されたモデルである、モデル呼び出しモジュールと、
前記系列マイニングモデルによって前記系列データを処理することにより、前記系列データのラベル情報を取得するラベル決定モジュールと、
を含み、
前記系列マイニングフレームは、第1サブモデルと、第2サブモデルと、第3サブモデルとを含み、前記第1サブモデルは、前記系列データの潜在ベクトル表現を取得するためのものであり、前記第2サブモデルは、前記ラベル状態が第1条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第1条件は、前記ラベル状態が、前記系列データにラベル情報が存在しないことである、ことを含み、前記第3サブモデルは、前記ラベル状態が第2条件を満たす場合、前記系列データの潜在ベクトル表現に基づいて、前記系列データのラベル情報を決定するためのものであり、前記第2条件は、前記ラベル状態が、前記系列データに少なくとも部分的にラベル情報が存在することである、ことを含む、装置。 - プロセッサとメモリとを備えるコンピュータ機器であって、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサによりロードされて実行されると、請求項1乃至10のいずれか1項に記載の系列マイニングモデルの訓練装置の動作方法を実現させる、コンピュータ機器。
- プロセッサとメモリとを備えるコンピュータ機器であって、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサによりロードされて実行されると、請求項11に記載の系列データの処理装置の動作方法を実現させる、コンピュータ機器。
- 請求項1乃至10のいずれか1項に記載の系列マイニングモデルの訓練装置の動作方法をコンピュータに実現させるコンピュータプログラム。
- 請求項11に記載の系列データの処理装置の動作方法をコンピュータに実現させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010099547.7 | 2020-02-18 | ||
CN202010099547.7A CN111352965B (zh) | 2020-02-18 | 2020-02-18 | 序列挖掘模型的训练方法、序列数据的处理方法及设备 |
PCT/CN2020/125898 WO2021164317A1 (zh) | 2020-02-18 | 2020-11-02 | 序列挖掘模型的训练方法、序列数据的处理方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023500222A JP2023500222A (ja) | 2023-01-05 |
JP7403909B2 true JP7403909B2 (ja) | 2023-12-25 |
Family
ID=71194077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022524007A Active JP7403909B2 (ja) | 2020-02-18 | 2020-11-02 | 系列マイニングモデルの訓練装置の動作方法、系列データの処理装置の動作方法、系列マイニングモデルの訓練装置、系列データの処理装置、コンピュータ機器、及びコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220215298A1 (ja) |
JP (1) | JP7403909B2 (ja) |
CN (1) | CN111352965B (ja) |
WO (1) | WO2021164317A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111352965B (zh) * | 2020-02-18 | 2023-09-08 | 腾讯科技(深圳)有限公司 | 序列挖掘模型的训练方法、序列数据的处理方法及设备 |
CN112836101A (zh) * | 2021-03-30 | 2021-05-25 | 中国工商银行股份有限公司 | 处理数据的方法、装置、设备、介质和产品 |
CN113360656A (zh) * | 2021-06-29 | 2021-09-07 | 未鲲(上海)科技服务有限公司 | 异常数据检测方法、装置、设备及存储介质 |
CN113987910A (zh) * | 2021-09-18 | 2022-01-28 | 国网江苏省电力有限公司信息通信分公司 | 一种耦合神经网络与动态时间规划的居民负荷辨识方法及装置 |
CN115879524A (zh) * | 2021-09-27 | 2023-03-31 | 华为技术有限公司 | 一种模型训练方法及其相关设备 |
US11599972B1 (en) * | 2021-12-22 | 2023-03-07 | Deep Render Ltd. | Method and system for lossy image or video encoding, transmission and decoding |
CN114462502B (zh) * | 2022-01-06 | 2024-07-12 | 支付宝(杭州)信息技术有限公司 | 一种核身推荐模型训练方法及装置 |
CN114140127B (zh) * | 2022-01-27 | 2022-05-13 | 广州卓远虚拟现实科技有限公司 | 一种基于区块链的支付处理方法及系统 |
CN115327934B (zh) * | 2022-07-22 | 2024-09-24 | 青岛海尔科技有限公司 | 智能家居场景推荐方法、系统、存储介质及电子装置 |
CN116192538B (zh) * | 2023-04-28 | 2023-07-11 | 北京源堡科技有限公司 | 基于机器学习的网络安全评估方法、装置、设备及介质 |
CN117312388B (zh) * | 2023-10-08 | 2024-03-19 | 江苏泰赋星信息技术有限公司 | 一种人工智能模型控制系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016525239A (ja) | 2013-06-24 | 2016-08-22 | サイランス・インコーポレイテッドCylance Inc. | 機械学習を使用した生成的マルチモデルマルチクラス分類および類似度分析のための自動システム |
WO2018134964A1 (ja) | 2017-01-20 | 2018-07-26 | 楽天株式会社 | 画像検索システム、画像検索方法およびプログラム |
WO2019097784A1 (ja) | 2017-11-16 | 2019-05-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7689419B2 (en) * | 2005-09-22 | 2010-03-30 | Microsoft Corporation | Updating hidden conditional random field model parameters after processing individual training samples |
US9792560B2 (en) * | 2015-02-17 | 2017-10-17 | Microsoft Technology Licensing, Llc | Training systems and methods for sequence taggers |
US9875736B2 (en) * | 2015-02-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Pre-training and/or transfer learning for sequence taggers |
US10628506B2 (en) * | 2017-02-17 | 2020-04-21 | Microsoft Technology Licensing, Llc | Using log data to train for automated sourcing |
US10719780B2 (en) * | 2017-03-31 | 2020-07-21 | Drvision Technologies Llc | Efficient machine learning method |
CN109034201B (zh) * | 2018-06-26 | 2022-02-01 | 创新先进技术有限公司 | 模型训练及规则挖掘方法和系统 |
CN108960316B (zh) * | 2018-06-27 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 用于生成模型的方法和装置 |
CN110209807A (zh) * | 2018-07-03 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 一种事件识别的方法、模型训练的方法、设备及存储介质 |
CN109359793B (zh) * | 2018-08-03 | 2020-11-17 | 创新先进技术有限公司 | 一种针对新场景的预测模型训练方法及装置 |
CN109255477B (zh) * | 2018-08-24 | 2022-07-01 | 国电联合动力技术有限公司 | 一种基于深度极限学习机的风速预测方法及其系统和机组 |
CN109583904B (zh) * | 2018-11-30 | 2023-04-07 | 深圳市腾讯计算机系统有限公司 | 异常操作检测模型的训练方法、异常操作检测方法及装置 |
CN109933662B (zh) * | 2019-02-15 | 2021-03-12 | 北京奇艺世纪科技有限公司 | 模型训练方法、信息生成方法、装置、电子设备和计算机可读介质 |
CN110084374A (zh) * | 2019-04-24 | 2019-08-02 | 第四范式(北京)技术有限公司 | 构建基于pu学习的模型的方法、装置及预测方法、装置 |
CN110674854B (zh) * | 2019-09-09 | 2022-05-17 | 东软集团股份有限公司 | 一种图像分类模型训练方法、图像分类方法、装置及设备 |
CN111352965B (zh) * | 2020-02-18 | 2023-09-08 | 腾讯科技(深圳)有限公司 | 序列挖掘模型的训练方法、序列数据的处理方法及设备 |
-
2020
- 2020-02-18 CN CN202010099547.7A patent/CN111352965B/zh active Active
- 2020-11-02 WO PCT/CN2020/125898 patent/WO2021164317A1/zh active Application Filing
- 2020-11-02 JP JP2022524007A patent/JP7403909B2/ja active Active
-
2022
- 2022-03-22 US US17/701,598 patent/US20220215298A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016525239A (ja) | 2013-06-24 | 2016-08-22 | サイランス・インコーポレイテッドCylance Inc. | 機械学習を使用した生成的マルチモデルマルチクラス分類および類似度分析のための自動システム |
WO2018134964A1 (ja) | 2017-01-20 | 2018-07-26 | 楽天株式会社 | 画像検索システム、画像検索方法およびプログラム |
WO2019097784A1 (ja) | 2017-11-16 | 2019-05-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2023500222A (ja) | 2023-01-05 |
CN111352965B (zh) | 2023-09-08 |
WO2021164317A1 (zh) | 2021-08-26 |
US20220215298A1 (en) | 2022-07-07 |
CN111352965A (zh) | 2020-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7403909B2 (ja) | 系列マイニングモデルの訓練装置の動作方法、系列データの処理装置の動作方法、系列マイニングモデルの訓練装置、系列データの処理装置、コンピュータ機器、及びコンピュータプログラム | |
WO2022042002A1 (zh) | 一种半监督学习模型的训练方法、图像处理方法及设备 | |
CN111797893B (zh) | 一种神经网络的训练方法、图像分类系统及相关设备 | |
WO2021063171A1 (zh) | 决策树模型的训练方法、系统、存储介质及预测方法 | |
KR102071582B1 (ko) | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 | |
WO2019011093A1 (zh) | 机器学习模型训练方法和装置、表情图像分类方法和装置 | |
CN111667022A (zh) | 用户数据处理方法、装置、计算机设备和存储介质 | |
KR102548732B1 (ko) | 신경망 학습 방법 및 이를 적용한 장치 | |
CN116415654A (zh) | 一种数据处理方法及相关设备 | |
CN111754596A (zh) | 编辑模型生成、人脸图像编辑方法、装置、设备及介质 | |
US11373117B1 (en) | Artificial intelligence service for scalable classification using features of unlabeled data and class descriptors | |
Rivas | Deep Learning for Beginners: A beginner's guide to getting up and running with deep learning from scratch using Python | |
CN113609337A (zh) | 图神经网络的预训练方法、训练方法、装置、设备及介质 | |
US20230021551A1 (en) | Using training images and scaled training images to train an image segmentation model | |
KR20210136706A (ko) | 전자 장치 및 이의 제어 방법 | |
CN114266897A (zh) | 痘痘类别的预测方法、装置、电子设备及存储介质 | |
CN112749737A (zh) | 图像分类方法及装置、电子设备、存储介质 | |
WO2024175079A1 (zh) | 一种模型的量化方法以及相关设备 | |
CN117708698A (zh) | 一种类别确定方法、装置、设备及存储介质 | |
CN114565964B (zh) | 情绪识别模型的生成方法、识别方法、装置、介质和设备 | |
KR102609946B1 (ko) | 프로그램 코드 처리 장치 및 방법 | |
CN110414515A (zh) | 基于信息融合处理的汉字图像识别方法、装置及存储介质 | |
US20240062064A1 (en) | Artificial Intelligence Computing Systems for Efficiently Learning Underlying Features of Data | |
CN117037230A (zh) | 人脸识别方法、相关设备、存储介质及计算机程序产品 | |
CN117172297A (zh) | 一种数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7403909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |