JP6549332B2 - 機械学習に基づくネットワークモデル構築方法及び装置 - Google Patents
機械学習に基づくネットワークモデル構築方法及び装置 Download PDFInfo
- Publication number
- JP6549332B2 JP6549332B2 JP2018543424A JP2018543424A JP6549332B2 JP 6549332 B2 JP6549332 B2 JP 6549332B2 JP 2018543424 A JP2018543424 A JP 2018543424A JP 2018543424 A JP2018543424 A JP 2018543424A JP 6549332 B2 JP6549332 B2 JP 6549332B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- data processing
- merge
- subnetwork
- processing step
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010276 construction Methods 0.000 title claims description 45
- 238000010801 machine learning Methods 0.000 title claims description 25
- 238000012545 processing Methods 0.000 claims description 258
- 238000000034 method Methods 0.000 claims description 137
- 238000005457 optimization Methods 0.000 claims description 90
- 238000012549 training Methods 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 48
- 238000013528 artificial neural network Methods 0.000 claims description 33
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000000926 separation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000012300 Sequence Analysis Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000005312 nonlinear dynamic Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000012896 Statistical algorithm Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010972 statistical evaluation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/047—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using sets of wires, e.g. crossed wires
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/12—Discovery or management of network topologies
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本出願は、2016年6月2日に申請され“MACHINE LEARNING-BASED NETWORK MODEL BUILDING METHOD AND APPARATUS”と題された中国特許出願第201610389530.9号に対する優先権を主張し、該出願はその全体を参照援用される。
オリジナルネットワークモデルのデータ処理手順と上記データ処理手順において上記オリジナルネットワークモデルにより生成された参照データセットとを取得するステップと、
上記データ処理手順及び上記参照データセットに従い少なくとも1つのサブネットワークを階層的に構築するステップと、
上記参照データセットを使用することにより上記少なくとも1つのサブネットワークに対して最適化訓練を実行するステップと、
ターゲットネットワークモデルを形成するために、上記最適化訓練が実行された上記少なくとも1つのサブネットワークをマージするステップと、
を含む。
上記データ処理手順において上記オリジナルネットワークモデルにより実行された少なくとも1つのデータ処理ステップを取得するステップと、
上記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された操作データを取得するステップと、
上記参照データセットを形成するために、上記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された上記操作データからいくつか又はすべてのデータを抽出するステップと、
を含み、
上記参照データセットは、各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを含む。
各データ処理ステップに相当するサブネットワークのネットワークメイン構造について、予め設定された相当対応関係テーブルを検索するステップと、
各データ処理ステップに対応する入力/出力データの上記少なくとも1つのグループに従い、上記データ処理ステップに相当する上記サブネットワークの入力層構造及び出力層構造を決定するステップと、
各データ処理ステップに相当する上記サブネットワークの上記ネットワークメイン構造、上記入力層構造、及び上記出力層構造に従い、上記データ処理ステップに相当する上記サブネットワークを構築するステップであり、1つのサブネットワークが1つのデータ処理ステップに相当する、ステップと、
を含む。
上記参照データセットから各データ処理ステップに対応する入力/出力データの上記少なくとも1つのグループを順次読み出すステップと、
各データ処理ステップに対応する入力/出力データの上記少なくとも1つのグループを参照し、及びNN訓練最適化アルゴリズムに従い、各データ処理ステップに相当する上記サブネットワークのパラメータに対して最適化調整を実行するステップであり、上記パラメータはネットワークノード、重み、及び訓練レート、のうち少なくとも1つを含む、ステップと、
を含む。
シードネットワークとして上記少なくとも1つのサブネットワークから任意のサブネットワークを選択するステップと、
各データ処理ステップに従い指定されたマージシーケンスを取得し、上記マージシーケンスに従い被マージ対象ネットワークとして上記少なくとも1つのサブネットワークから上記シードネットワーク以外のサブネットワークを選択するステップと、
全結合方式で上記シードネットワークと上記被マージ対象ネットワークとに対してマージ結合を実行するステップと、
上記マージ結合が成功した場合、上記シードネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループと上記被マージ対象ネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループとを参照し、マージ結合を用いて取得されたネットワークのパラメータに対して最適化調整を実行するステップと、
上記ターゲットネットワークモデルを形成するために、上記少なくとも1つのサブネットワークのすべてに対してマージ結合が実行されるまで、シードネットワークとしてマージ結合を用いて取得された上記ネットワークを使用することによりプロセスを反復するステップと、
を含む。
上記マージ結合が失敗した場合、上記シードネットワークと上記被マージ対象ネットワークとの間に中間隠れ層を追加し、上記中間隠れ層を使用することにより全結合方式で上記シードネットワーク及び上記被マージ対象ネットワークに対してマージ結合を実行するステップ、
をさらに含む。
オリジナルネットワークモデルのデータ処理手順と上記データ処理手順において上記オリジナルネットワークモデルにより生成された参照データセットとを取得するように構成された取得モジュールと、
上記データ処理手順及び上記参照データセットに従い少なくとも1つのサブネットワークを階層的に構築するように構成された階層構築モジュールと、
上記参照データセットを使用することにより上記少なくとも1つのサブネットワークに対して最適化訓練を実行するように構成された最適化訓練モジュールと、
ターゲットネットワークモデルを形成するために、上記最適化訓練が実行された上記少なくとも1つのサブネットワークをマージするように構成されたマージモジュールと、
を含む。
上記データ処理手順において上記オリジナルネットワークモデルにより実行された少なくとも1つのデータ処理ステップを取得するように構成されたステップ取得ユニットと、
上記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された操作データを取得するように構成されたデータ取得ユニットと、
上記参照データセットを形成するために、上記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された上記操作データからいくつか又はすべてのデータを抽出するように構成されたサンプリング抽出ユニットと、
を含み、
上記参照データセットは、各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを含む。
各データ処理ステップに相当するサブネットワークのネットワークメイン構造について、予め設定された相当対応関係テーブルを検索するように構成された検索ユニットと、
各データ処理ステップに対応する入力/出力データの上記少なくとも1つのグループに従い、上記データ処理ステップに相当する上記サブネットワークの入力層構造及び出力層構造を決定するように構成された決定ユニットと、
各データ処理ステップに相当する上記サブネットワークの上記ネットワークメイン構造、上記入力層構造、及び上記出力層構造に従い、上記データ処理ステップに相当する上記サブネットワークを構築するように構成された構築ユニットであり、1つのサブネットワークが1つのデータ処理ステップに相当する、構築ユニットと、
を含む。
上記参照データセットから各データ処理ステップに対応する入力/出力データの上記少なくとも1つのグループを順次読み出すように構成された読み出しユニットと、
各データ処理ステップに対応する入力/出力データの上記少なくとも1つのグループを参照し、及びNN訓練最適化アルゴリズムに従い、各データ処理ステップに相当する上記サブネットワークのパラメータに対して最適化調整を実行するように構成された調整ユニットであり、上記パラメータはネットワークノード、重み、及び訓練レート、のうち少なくとも1つを含む、調整ユニットと、
を含む。
シードネットワークとして上記少なくとも1つのサブネットワークから任意のサブネットワークを選択するように構成されたシード選択ユニットと、
各データ処理ステップに従い指定されたマージシーケンスを取得し、上記マージシーケンスに従い被マージ対象ネットワークとして上記少なくとも1つのサブネットワークから上記シードネットワーク以外のサブネットワークを選択するように構成された被マージ対象選択ユニットと、
上記シードネットワークと上記被マージ対象ネットワークとの間の入力層及び出力層を分離するように構成された分離ユニットと、
全結合方式で上記シードネットワーク及び上記被マージ対象ネットワークに対してマージ結合を実行するように構成されたマージ結合ユニットと、
上記マージ結合が成功した場合、上記シードネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループと上記被マージ対象ネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループとを参照し、マージ結合を用いて取得されたネットワークのパラメータに対して最適化調整を実行するように構成された最適化調整ユニットと、
を含み、
上記シード選択ユニットは、上記ターゲットネットワークモデルを形成するために、上記少なくとも1つのサブネットワークのすべてに対してマージ結合が実行されるまで、シードネットワークとしてマージ結合を用いて取得された上記ネットワークを使用することにより、上記被マージ対象選択ユニットと上記分離ユニットと上記マージ結合ユニットと上記最適化調整ユニットとにより実行される対応する処理を反復するようにさらに構成される。
上記マージ結合が失敗した場合、上記シードネットワークと上記被マージ対象ネットワークとの間に中間隠れ層を追加するように構成された追加ユニットであり、それにより、上記マージ結合ユニットは、上記中間隠れ層を使用することにより全結合方式で上記シードネットワーク及び上記被マージ対象ネットワークに対してマージ結合を実行する、追加ユニット、
をさらに含む。
オリジナルネットワークモデルのデータ処理手順と、データ処理手順においてオリジナルネットワークモデルにより生成された参照データセットとを取得するように構成された取得モジュール101、
データ処理手順及び参照データセットに従い少なくとも1つのサブネットワークを階層的に構築するように構成された階層構築モジュール102、
参照データセットを使用することにより少なくとも1つのサブネットワークに対して最適化訓練を実行するように構成された最適化訓練モジュール103、及び、
ターゲットネットワークモデルを形成するために、最適化訓練が実行された少なくとも1つのサブネットワークをマージするように構成されたマージモジュール104。
データ処理手順においてオリジナルネットワークモデルにより実行された少なくとも1つのデータ処理ステップを取得するように構成されたステップ取得ユニット1001、
オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された操作データを取得するように構成されたデータ取得ユニット1002、及び、
オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された操作データから参照データセットを抽出するように構成されたサンプリング抽出ユニット1003であり、参照データセットは、各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを含む、サンプリング抽出ユニット1003。
各データ処理ステップに相当するサブネットワークのネットワークメイン構造について、予め設定された相当対応関係テーブルを検索するように構成された検索ユニット2001、
各データ処理ステップに対応する入力/出力データの少なくとも1つのグループに従い、データ処理ステップに相当するサブネットワークの入力層構造及び出力層構造を決定するように構成された決定ユニット2002、及び、
各データ処理ステップに相当するサブネットワークのネットワークメイン構造、入力層構造、及び出力層構造に従い、データ処理ステップに相当するサブネットワークを構築するように構成された構築ユニット2003であり、1つのサブネットワークは1つのデータ処理ステップに相当する、構築ユニット2003。
参照データセットから各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを順次読み出すように構成された読み出しユニット3001、及び、
各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを参照し、及びNN訓練最適化アルゴリズムに従い、各データ処理ステップに相当するサブネットワークのパラメータに対して最適化調整を実行するように構成された調整ユニット3002であり、パラメータは、ネットワークノード、重み、及び訓練レート、のうち少なくとも1つを含む、調整ユニット3002。
シードネットワークとして少なくとも1つのサブネットワークから任意のサブネットワークを選択するように構成されたシード選択ユニット4001、
予め設定されたマージシーケンスに従い被マージ対象ネットワークとして少なくとも1つのサブネットワークからシードネットワーク以外のサブネットワークを選択するように構成された被マージ対象選択ユニット4002であり、予め設定されたマージシーケンスは、下記:少なくとも1つのデータ処理ステップの実行シーケンス、少なくとも1つのデータ処理ステップの逆実行シーケンス、及び少なくとも1つのサブネットワーク間の構造類似度のシーケンス、のうちいずれか1つを含む、被マージ対象選択ユニット4002、
シードネットワークと被マージ対象ネットワークとの間の入力層及び出力層を分離するように構成された分離ユニット4003、
全結合方式でシードネットワーク及び被マージ対象ネットワークに対してマージ結合を実行するように構成されたマージ結合ユニット4004、及び、
マージ結合が成功した場合にシードネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループと被マージ対象ネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループとを参照し、マージ結合を用いて取得されたネットワークのパラメータに対して最適化調整を実行するように構成された最適化調整ユニット4005。
マージ結合が失敗した場合にシードネットワークと被マージ対象ネットワークとの間に中間隠れ層を追加するように構成された追加ユニット4006であり、それにより、マージ結合ユニット4004は中間隠れ層を使用することにより全結合方式でシードネットワーク及び被マージ対象ネットワークに対してマージ結合を実行する、追加ユニット4006。
Claims (13)
- 機械学習に基づくネットワークモデル構築方法であって、
オリジナルネットワークモデルのデータ処理手順と前記データ処理手順において前記オリジナルネットワークモデルにより生成された参照データセットとを取得するステップと、
前記データ処理手順及び前記参照データセットに従い少なくとも1つのサブネットワークを階層的に構築するステップと、
前記参照データセットを使用することにより前記少なくとも1つのサブネットワークに対して最適化訓練を実行するステップと、
ターゲットネットワークモデルを形成するために、前記最適化訓練が実行された前記少なくとも1つのサブネットワークをマージするステップと、
を含む方法。 - オリジナルネットワークモデルのデータ処理手順と前記データ処理手順において前記オリジナルネットワークモデルにより生成された参照データセットとを取得するステップは、
前記データ処理手順において前記オリジナルネットワークモデルにより実行された少なくとも1つのデータ処理ステップを取得するステップと、
前記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された操作データを取得するステップと、
前記参照データセットを形成するために、前記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された前記操作データからいくつか又はすべてのデータを抽出するステップと、
を含み、
前記参照データセットは、各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを含む、
請求項1に記載の方法。 - 前記データ処理手順及び前記参照データセットに従い少なくとも1つのサブネットワークを階層的に構築するステップは、
各データ処理ステップに相当するサブネットワークのネットワークメイン構造について、予め設定された相当対応関係テーブルを検索するステップと、
各データ処理ステップに対応する入力/出力データの前記少なくとも1つのグループに従い、前記データ処理ステップに相当する前記サブネットワークの入力層構造及び出力層構造を決定するステップと、
各データ処理ステップに相当する前記サブネットワークの前記ネットワークメイン構造、前記入力層構造、及び前記出力層構造に従い、前記データ処理ステップに相当する前記サブネットワークを構築するステップであり、1つのサブネットワークが1つのデータ処理ステップに相当する、ステップと、
を含む、請求項2に記載の方法。 - 前記参照データセットを使用することにより前記少なくとも1つのサブネットワークに対して最適化訓練を実行するステップは、
前記参照データセットから各データ処理ステップに対応する入力/出力データの前記少なくとも1つのグループを順次読み出すステップと、
各データ処理ステップに対応する入力/出力データの前記少なくとも1つのグループを参照し、及びニューラルネットワーク(NN)訓練最適化アルゴリズムに従い、各データ処理ステップに相当する前記サブネットワークのパラメータに対して最適化調整を実行するステップであり、前記パラメータはネットワークノード、重み、及び訓練レート、のうち少なくとも1つを含む、ステップと、
を含む、請求項2又は3に記載の方法。 - ターゲットネットワークモデルを形成するために、前記最適化訓練が実行された前記少なくとも1つのサブネットワークをマージするステップは、
シードネットワークとして前記少なくとも1つのサブネットワークから任意のサブネットワークを選択するステップと、
各データ処理ステップに従い指定されたマージシーケンスを取得し、前記マージシーケンスに従い被マージ対象ネットワークとして前記少なくとも1つのサブネットワークから前記シードネットワーク以外のサブネットワークを選択するステップと、
前記シードネットワークと前記被マージ対象ネットワークとの間の入力層及び出力層を分離するステップと、
全結合方式で前記シードネットワークと前記被マージ対象ネットワークとに対してマージ結合を実行するステップと、
前記マージ結合が成功した場合、前記シードネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループと前記被マージ対象ネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループとを参照し、マージ結合を用いて取得されたネットワークのパラメータに対して最適化調整を実行するステップと、
前記ターゲットネットワークモデルを形成するために、前記少なくとも1つのサブネットワークのすべてに対してマージ結合が実行されるまで、シードネットワークとしてマージ結合を用いて取得された前記ネットワークを使用することによりプロセスを反復するステップと、
を含む、請求項4に記載の方法。 - 前記マージ結合が失敗した場合、前記シードネットワークと前記被マージ対象ネットワークとの間に中間隠れ層を追加し、前記中間隠れ層を使用することにより全結合方式で前記シードネットワーク及び前記被マージ対象ネットワークに対してマージ結合を実行するステップ、
をさらに含む請求項5に記載の方法。 - 機械学習に基づくネットワークモデル構築装置であって、
オリジナルネットワークモデルのデータ処理手順と前記データ処理手順において前記オリジナルネットワークモデルにより生成された参照データセットとを取得するように構成された取得モジュールと、
前記データ処理手順及び前記参照データセットに従い少なくとも1つのサブネットワークを階層的に構築するように構成された階層構築モジュールと、
前記参照データセットを使用することにより前記少なくとも1つのサブネットワークに対して最適化訓練を実行するように構成された最適化訓練モジュールと、
ターゲットネットワークモデルを形成するために、前記最適化訓練が実行された前記少なくとも1つのサブネットワークをマージするように構成されたマージモジュールと、
を含む装置。 - 前記取得モジュールは、
前記データ処理手順において前記オリジナルネットワークモデルにより実行された少なくとも1つのデータ処理ステップを取得するように構成されたステップ取得ユニットと、
前記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された操作データを取得するように構成されたデータ取得ユニットと、
前記参照データセットを形成するために、前記オリジナルネットワークモデルが各データ処理ステップを実行するときに生成された前記操作データからいくつか又はすべてのデータを抽出するように構成されたサンプリング抽出ユニットと、
を含み、
前記参照データセットは、各データ処理ステップに対応する入力/出力データの少なくとも1つのグループを含む、
請求項7に記載の装置。 - 前記階層構築モジュールは、
各データ処理ステップに相当するサブネットワークのネットワークメイン構造について、予め設定された相当対応関係テーブルを検索するように構成された検索ユニットと、
各データ処理ステップに対応する入力/出力データの前記少なくとも1つのグループに従い、前記データ処理ステップに相当する前記サブネットワークの入力層構造及び出力層構造を決定するように構成された決定ユニットと、
各データ処理ステップに相当する前記サブネットワークの前記ネットワークメイン構造、前記入力層構造、及び前記出力層構造に従い、前記データ処理ステップに相当する前記サブネットワークを構築するように構成された構築ユニットであり、1つのサブネットワークが1つのデータ処理ステップに相当する、構築ユニットと、
を含む、請求項8に記載の装置。 - 前記最適化訓練モジュールは、
前記参照データセットから各データ処理ステップに対応する入力/出力データの前記少なくとも1つのグループを順次読み出すように構成された読み出しユニットと、
各データ処理ステップに対応する入力/出力データの前記少なくとも1つのグループを参照し、及びNN訓練最適化アルゴリズムに従い、各データ処理ステップに相当する前記サブネットワークのパラメータに対して最適化調整を実行するように構成された調整ユニットであり、前記パラメータはネットワークノード、重み、及び訓練レート、のうち少なくとも1つを含む、調整ユニットと、
を含む、請求項8又は9に記載の装置。 - 前記マージモジュールは、
シードネットワークとして前記少なくとも1つのサブネットワークから任意のサブネットワークを選択するように構成されたシード選択ユニットと、
各データ処理ステップに従い指定されたマージシーケンスを取得し、前記マージシーケンスに従い被マージ対象ネットワークとして前記少なくとも1つのサブネットワークから前記シードネットワーク以外のサブネットワークを選択するように構成された被マージ対象選択ユニットと、
前記シードネットワークと前記被マージ対象ネットワークとの間の入力層及び出力層を分離するように構成された分離ユニットと、
全結合方式で前記シードネットワーク及び前記被マージ対象ネットワークに対してマージ結合を実行するように構成されたマージ結合ユニットと、
前記マージ結合が成功した場合、前記シードネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループと前記被マージ対象ネットワークに相当するデータ処理ステップに対応する入力/出力データの少なくとも1つのグループとを参照し、マージ結合を用いて取得されたネットワークのパラメータに対して最適化調整を実行するように構成された最適化調整ユニットと、
を含み、
前記シード選択ユニットは、前記ターゲットネットワークモデルを形成するために、前記少なくとも1つのサブネットワークのすべてに対してマージ結合が実行されるまで、シードネットワークとしてマージ結合を用いて取得された前記ネットワークを使用することにより、前記被マージ対象選択ユニットと前記分離ユニットと前記マージ結合ユニットと前記最適化調整ユニットとにより実行される対応する処理を反復するようにさらに構成される、
請求項10に記載の装置。 - 前記マージモジュールは、
前記マージ結合が失敗した場合、前記シードネットワークと前記被マージ対象ネットワークとの間に中間隠れ層を追加するように構成された追加ユニットであり、それにより、前記マージ結合ユニットは、前記中間隠れ層を使用することにより全結合方式で前記シードネットワーク及び前記被マージ対象ネットワークに対してマージ結合を実行する、追加ユニット、
をさらに含む、請求項11に記載の装置。 - コンピュータ読取可能命令を記憶したコンピュータ読取可能記憶媒体であって、前記コンピュータ読取可能命令は少なくとも1つのプロセッサにより実行されて、
請求項1乃至6のうちいずれか1項に記載の機械学習に基づくネットワークモデル構築方法を実行する、コンピュータ読取可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610389530.9 | 2016-06-02 | ||
CN201610389530.9A CN106096727B (zh) | 2016-06-02 | 2016-06-02 | 一种基于机器学习的网络模型构造方法及装置 |
PCT/CN2017/086917 WO2017206936A1 (zh) | 2016-06-02 | 2017-06-02 | 基于机器学习的网络模型构造方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018533153A JP2018533153A (ja) | 2018-11-08 |
JP6549332B2 true JP6549332B2 (ja) | 2019-07-24 |
Family
ID=57447501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018543424A Active JP6549332B2 (ja) | 2016-06-02 | 2017-06-02 | 機械学習に基づくネットワークモデル構築方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11741361B2 (ja) |
EP (1) | EP3467723B1 (ja) |
JP (1) | JP6549332B2 (ja) |
KR (1) | KR102173555B1 (ja) |
CN (1) | CN106096727B (ja) |
WO (1) | WO2017206936A1 (ja) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096727B (zh) * | 2016-06-02 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 一种基于机器学习的网络模型构造方法及装置 |
CN108629413B (zh) * | 2017-03-15 | 2020-06-16 | 创新先进技术有限公司 | 神经网络模型训练、交易行为风险识别方法及装置 |
US11126894B2 (en) * | 2017-06-05 | 2021-09-21 | Siemens Aktiengesellschaft | Method and apparatus for analysing an image |
US20190138929A1 (en) | 2017-07-07 | 2019-05-09 | Darwinai Corporation | System and method for automatic building of learning machines using learning machines |
TWI696971B (zh) * | 2017-12-12 | 2020-06-21 | 浩霆 黃 | 金融商品的相關性預測系統及其方法 |
DE102018109835A1 (de) * | 2018-04-24 | 2019-10-24 | Albert-Ludwigs-Universität Freiburg | Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes |
WO2019211651A1 (en) * | 2018-05-02 | 2019-11-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Placement-aware acceleration of parameter optimization in a predictive model |
CN109034367A (zh) * | 2018-08-22 | 2018-12-18 | 广州杰赛科技股份有限公司 | 神经网络更新方法、装置、计算机设备和可读存储介质 |
CN109167789B (zh) * | 2018-09-13 | 2021-04-13 | 上海海事大学 | 一种云环境LDoS攻击数据流检测方法及系统 |
CN109447273A (zh) * | 2018-09-30 | 2019-03-08 | 深圳市元征科技股份有限公司 | 模型训练方法、广告推荐方法、相关装置、设备及介质 |
JP7115207B2 (ja) * | 2018-10-11 | 2022-08-09 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
KR20200052439A (ko) * | 2018-10-29 | 2020-05-15 | 삼성에스디에스 주식회사 | 딥러닝 모델의 최적화 시스템 및 방법 |
CN111105020B (zh) * | 2018-10-29 | 2024-03-29 | 西安宇视信息科技有限公司 | 特征表示迁移学习方法及相关装置 |
CN111224805A (zh) * | 2018-11-26 | 2020-06-02 | 中兴通讯股份有限公司 | 一种网络故障根因检测方法、系统及存储介质 |
CN111291771B (zh) * | 2018-12-06 | 2024-04-02 | 西安宇视信息科技有限公司 | 对池化层特征优化的方法及装置 |
CN109684087B (zh) * | 2018-12-17 | 2020-01-10 | 中科寒武纪科技股份有限公司 | 运算方法、装置及相关产品 |
CN109685203B (zh) * | 2018-12-21 | 2020-01-17 | 中科寒武纪科技股份有限公司 | 数据处理方法、装置、计算机系统及存储介质 |
CN109726718B (zh) * | 2019-01-03 | 2022-09-16 | 电子科技大学 | 一种基于关系正则化的视觉场景图生成系统及方法 |
CN109684648B (zh) * | 2019-01-14 | 2020-09-01 | 浙江大学 | 一种多特征融合的古今汉语自动翻译方法 |
CN111435432B (zh) * | 2019-01-15 | 2023-05-26 | 北京市商汤科技开发有限公司 | 网络优化方法及装置、图像处理方法及装置、存储介质 |
CN111600734B (zh) * | 2019-02-21 | 2021-11-02 | 烽火通信科技股份有限公司 | 一种网络故障处理模型的构建方法、故障处理方法及系统 |
CN109978024B (zh) * | 2019-03-11 | 2020-10-27 | 北京工业大学 | 一种基于互联模块化神经网络的出水bod预测方法 |
CN110046706B (zh) * | 2019-04-18 | 2022-12-20 | 腾讯科技(深圳)有限公司 | 模型生成方法、装置及服务器 |
GB2596477B (en) * | 2019-04-29 | 2023-02-22 | Landmark Graphics Corp | Hybrid neural network and autoencoder |
CN112994940B (zh) * | 2019-05-29 | 2022-10-18 | 华为技术有限公司 | 一种网络异常检测方法和装置 |
CN110322021B (zh) * | 2019-06-14 | 2021-03-30 | 清华大学 | 大规模网络表征学习的超参数优化方法和装置 |
CN110414570B (zh) * | 2019-07-04 | 2022-01-28 | 北京迈格威科技有限公司 | 图像分类模型生成方法、装置、设备和存储介质 |
CN110570013B (zh) * | 2019-08-06 | 2023-04-07 | 山东省科学院海洋仪器仪表研究所 | 一种单站位在线波周期数据的预测诊断方法 |
US11763157B2 (en) * | 2019-11-03 | 2023-09-19 | Microsoft Technology Licensing, Llc | Protecting deep learned models |
JP7203000B2 (ja) * | 2019-11-12 | 2023-01-12 | Hoya株式会社 | プログラム、情報処理方法及び情報処理装置 |
US11847500B2 (en) | 2019-12-11 | 2023-12-19 | Cisco Technology, Inc. | Systems and methods for providing management of machine learning components |
WO2021134350A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳元戎启行科技有限公司 | 神经网络模型的推理方法、装置、计算机设备和存储介质 |
US11501216B2 (en) | 2020-02-21 | 2022-11-15 | King.Com Ltd. | Computer system, a computer device and a computer implemented method |
CN111584027B (zh) * | 2020-04-30 | 2022-03-11 | 天津大学 | 融合复杂网络和图卷积的脑控康复系统运动想象识别系统 |
CN113780513B (zh) * | 2020-06-10 | 2024-05-03 | 杭州海康威视数字技术股份有限公司 | 网络模型量化、推理方法、装置、电子设备及存储介质 |
CN112150605B (zh) * | 2020-08-17 | 2024-02-02 | 北京化工大学 | 用于mri局部sar估计的膝关节模型构建方法 |
US20220114448A1 (en) * | 2020-10-08 | 2022-04-14 | The University Of Hong Kong | Method and device for transmitting ofdm signal, and method and device for receiving ofdm signal |
KR20220055363A (ko) * | 2020-10-26 | 2022-05-03 | 삼성전자주식회사 | 복수의 모델들 중 어느 하나의 모델을 이용하여 기지국의 네트워크의 상태를 조정하기 위한 상태 제어 파라미터를 제어하는 방법 및 이를 수행하는 전자 장치 |
KR102593844B1 (ko) | 2021-02-25 | 2023-10-25 | 주식회사 인제니오에이아이 | 딥러닝 네트워크 구성 방법, 딥러닝 자동화 플랫폼 서비스 시스템 및 이를 위한 컴퓨터 프로그램 |
CN113378998B (zh) * | 2021-07-12 | 2022-07-22 | 西南石油大学 | 一种基于机器学习的地层岩性随钻识别方法 |
CN113554077A (zh) * | 2021-07-13 | 2021-10-26 | 南京铉盈网络科技有限公司 | 基于多模态神经网络模型的工况评估及业务量预测方法 |
CN113919387A (zh) * | 2021-08-18 | 2022-01-11 | 东北林业大学 | 基于gbdt-lr模型的脑电信号情感识别 |
KR102644593B1 (ko) * | 2021-11-23 | 2024-03-07 | 한국기술교육대학교 산학협력단 | 지능형 디바이스 개발을 위한 ai 분화 기반의 하드웨어 정보에 최적의 지능형 소프트웨어 개발도구 |
CN114492789B (zh) * | 2022-01-25 | 2024-05-14 | 天津工业大学 | 一种数据样本的神经网络模型构建方法及装置 |
US20240205093A1 (en) * | 2022-12-14 | 2024-06-20 | Advanced Micro Devices, Inc. | Network collective offloading cost management |
CN116451099B (zh) * | 2023-06-19 | 2023-09-01 | 浪潮通用软件有限公司 | 一种基于随机遍历的高熵knn聚类方法、设备及介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04190461A (ja) * | 1990-11-26 | 1992-07-08 | Fujitsu Ltd | ニューラルネットワークの構築表示方法 |
JPH05128082A (ja) * | 1991-07-19 | 1993-05-25 | Fujitsu Ltd | 階層ネツトワーク構成データ処理装置とその学習処理方法 |
JP3035106B2 (ja) * | 1993-03-11 | 2000-04-17 | 株式会社東芝 | 大規模情報認識回路 |
JPH0793160A (ja) * | 1993-09-20 | 1995-04-07 | Toshiba Corp | 推論装置 |
US6119112A (en) * | 1997-11-19 | 2000-09-12 | International Business Machines Corporation | Optimum cessation of training in neural networks |
JP3678636B2 (ja) | 2000-08-21 | 2005-08-03 | Necソフト株式会社 | ニューラルネットワークの学習方法 |
WO2007056803A1 (en) | 2005-11-15 | 2007-05-24 | Bernadette Garner | Method for training neural networks |
CN101814160A (zh) * | 2010-03-08 | 2010-08-25 | 清华大学 | 一种基于特征聚类的rbf神经网络建模方法 |
CN103345656B (zh) * | 2013-07-17 | 2016-01-20 | 中国科学院自动化研究所 | 一种基于多任务深度神经网络的数据识别方法及装置 |
CN104751227B (zh) * | 2013-12-31 | 2018-03-06 | 科大讯飞股份有限公司 | 用于语音识别的深度神经网络的构建方法及系统 |
US9870537B2 (en) * | 2014-01-06 | 2018-01-16 | Cisco Technology, Inc. | Distributed learning in a computer network |
CN103729459A (zh) * | 2014-01-10 | 2014-04-16 | 北京邮电大学 | 一种构建情感分类模型的方法 |
CN103838836B (zh) * | 2014-02-25 | 2016-09-28 | 中国科学院自动化研究所 | 基于判别式多模态深度置信网多模态数据融合方法和系统 |
CN106096727B (zh) * | 2016-06-02 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 一种基于机器学习的网络模型构造方法及装置 |
-
2016
- 2016-06-02 CN CN201610389530.9A patent/CN106096727B/zh active Active
-
2017
- 2017-06-02 WO PCT/CN2017/086917 patent/WO2017206936A1/zh active Application Filing
- 2017-06-02 JP JP2018543424A patent/JP6549332B2/ja active Active
- 2017-06-02 EP EP17805881.4A patent/EP3467723B1/en active Active
- 2017-06-02 KR KR1020187013732A patent/KR102173555B1/ko active IP Right Grant
-
2018
- 2018-05-21 US US15/984,754 patent/US11741361B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR102173555B1 (ko) | 2020-11-03 |
KR20180069877A (ko) | 2018-06-25 |
EP3467723B1 (en) | 2021-02-24 |
EP3467723A4 (en) | 2019-04-10 |
EP3467723A1 (en) | 2019-04-10 |
JP2018533153A (ja) | 2018-11-08 |
CN106096727A (zh) | 2016-11-09 |
US11741361B2 (en) | 2023-08-29 |
US20180268296A1 (en) | 2018-09-20 |
CN106096727B (zh) | 2018-12-07 |
WO2017206936A1 (zh) | 2017-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6549332B2 (ja) | 機械学習に基づくネットワークモデル構築方法及び装置 | |
Li et al. | Spatio-temporal graph routing for skeleton-based action recognition | |
JP7122582B2 (ja) | 演算処理装置、並びに文章評価装置、及び文章評価方法 | |
WO2018171717A1 (zh) | 面向神经网络处理器的自动化设计方法和系统 | |
Meng et al. | Semi-supervised heterogeneous fusion for multimedia data co-clustering | |
CN115456160A (zh) | 一种数据处理方法和数据处理设备 | |
Cai et al. | New graph structured sparsity model for multi-label image annotations | |
Zhang et al. | Collective classification via discriminative matrix factorization on sparsely labeled networks | |
US20170344822A1 (en) | Semantic representation of the content of an image | |
CN113886571A (zh) | 实体识别方法、装置、电子设备及计算机可读存储介质 | |
CN113590863A (zh) | 图像聚类方法、装置及计算机可读存储介质 | |
WO2023093689A1 (zh) | 一种计算图优化方法、装置及设备 | |
Liu et al. | Research of animals image semantic segmentation based on deep learning | |
Hamdan et al. | VHDL generator for a high performance convolutional neural network FPGA-based accelerator | |
Magalhães et al. | Creating deep neural networks for text classification tasks using grammar genetic programming | |
CN113128237A (zh) | 一种服务资源的语义表征模型构建方法 | |
CN114995729A (zh) | 一种语音绘图方法、装置及计算机设备 | |
CN114329204A (zh) | 信息推送方法、装置、设备、介质及计算机产品 | |
Babur et al. | Towards statistical comparison and analysis of models | |
US20230259761A1 (en) | Transfer learning system and method for deep neural network | |
Sun et al. | Arctext: A unified text approach to describing convolutional neural network architectures | |
KR20230065017A (ko) | 인공지능 분석 기반 프로그램 소스코드의 요약문 생성 장치 및 방법 | |
Aşiroğlu et al. | A Deep Learning Based Object Detection System for User Interface Code Generation | |
CN110348001A (zh) | 一种词向量训练方法和服务器 | |
KR102608266B1 (ko) | 이미지 생성 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6549332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |