JP6466590B2 - K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 - Google Patents

K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 Download PDF

Info

Publication number
JP6466590B2
JP6466590B2 JP2017548139A JP2017548139A JP6466590B2 JP 6466590 B2 JP6466590 B2 JP 6466590B2 JP 2017548139 A JP2017548139 A JP 2017548139A JP 2017548139 A JP2017548139 A JP 2017548139A JP 6466590 B2 JP6466590 B2 JP 6466590B2
Authority
JP
Japan
Prior art keywords
layer
deep learning
order
learning model
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017548139A
Other languages
English (en)
Other versions
JP2018511871A (ja
Inventor
シェン,イチャン
ワン,チンリン
デン,ハオチアン
ユー,ジアリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Shanghai 3Ntv Network Technology Co Ltd
Original Assignee
Institute of Acoustics CAS
Shanghai 3Ntv Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS, Shanghai 3Ntv Network Technology Co Ltd filed Critical Institute of Acoustics CAS
Publication of JP2018511871A publication Critical patent/JP2018511871A/ja
Application granted granted Critical
Publication of JP6466590B2 publication Critical patent/JP6466590B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、人工知能及びビッグデータの分野に関し、特に、K次数制約を満たす深層学習モデルに基づくビッグデータの処理方法に関する。
ネットワーク技術の急速な発展に伴って、データの容量と多様性が迅速に増加しているが、データ処理用のアルゴリズムの複雑さを改善することは困難であり、ビッグデータを如何に効率良く処理するかが差し迫った課題となっている。個人の経験と手動による操作によってデータ記述、データ注記、特徴選択、特徴抽出、データ処理を行う従来の方法では、ビッグデータの急速に増加するニーズを満たすことが困難である。人工知能技術の急速な発展、特に、深層学習アルゴリズムの画期的な研究は、ビッグデータの処理についての問題を解決するのに価値のある検証の方向性を指し示している。
ヒントン(Hinton)らは、2006年に深層信念ネットワーク用の層ごとの初期化訓練方法を提案した。これは深層学習方法の研究の起点であり、当該方法は数十年にわたって深層ニューラルネットワークの訓練が困難且つ非効率的である状況を打破した。それ以来、深層学習アルゴリズムは従来のアルゴリズムに代わって、画像認識、音声認識、自然言語理解等の分野に幅広く用いられている。深層学習は、人間の脳の階層抽象化をシミュレートし、最下層データを層ごとにマッピングしてより抽象的な特徴を取得することができる。深層学習は、ビッグデータから特徴を自動的に抽出でき、大量のサンプル訓練によって良好な処理効果を図ることができるので、幅広く注目されている。実際、ビッグデータの急速な成長と深層学習の画期的な研究とは互いに補完し合い、一方ではビッグデータの急速な成長のため、大量のデータを効率的に処理する方法が必要となり、他方では深層学習モデルの訓練には大量のサンプルデータが必要となる。要するに、ビッグデータによって深層学習の性能を極限まで高めることができる。
しかしながら、従来の深層学習モデルは、例えば、モデルを拡張させることが困難であること、パラメータの最適化が困難であること、訓練時間が長く且つ推理効率が低いことなど、多くの深刻な問題を抱えている。2013年にベンジオ(Bengio)が発表した概説論文では、従来の深層学習が直面する挑戦や課題がまとめられ、そこには、従来の深層学習モデルの規模を如何に拡張して深層学習モデルを如何により大規模なデータセットに適用するか、パラメータ最適化の困難さを如何に低減させるか、高コストの推理やサンプリングを如何に回避するか、変化要素を如何に解くかなどが含まれている。
本発明は、ビッグデータの適用における従来のニューラルネットワーク深層学習モデルの上記課題を解決すると共に、K次数スパース制約を満たす深層学習モデルを提案することを目的とする。当該モデルは、各層のニューロンノードの順方向の出次数を制約することで、モデルの構造を簡素化し、モデルの訓練速度と汎化能力を向上させ、モデルのパラメータの最適化が困難であるという問題を改善し、当該モデルをビッグデータの処理に適用することで、ビッグデータを処理する困難さを低減させ、ビッグデータの処理速度を向上させることができる。
上記目的を実現するために、本発明は、K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法であって、
グラデーション枝刈り法によって、ラベルなし訓練サンプルを用いてK次数スパース制約を満たす深層学習モデルを構築するステップ1)であって、前記K次数スパース制約はノードK次数スパース制約及び階層K次数スパース制約を含み、前記ノードK次数スパース制約は、モデル中のすべてのノードの順方向の出次数がK以下であり、前記Kの値の範囲が(1,N/H]であることを意味し、ここで、Nは前記深層学習モデル中のすべてのノードの数であり、Hはモデルの隠れ層の層数であり、前記階層K次数スパース制約は、第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であることを意味する、前記ステップ1)と、
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、モデルの各層の重みパラメータを最適化してK次数スパース制約を満たす最適化した深層学習モデルを取得するステップ2)と、
前記K次数スパース制約を満たす最適化した深層学習モデルに処理対象のビッグデータを入力して処理し、最終的に処理結果を出力するステップ3)と、
を含む、K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法を提案する。
上記技術的解決手段において、前記Kの値は、

であり、ここで、dinは前記モデルの入力の次元であり、doutはモデルの出力の次元であり、Hはモデルの隠れ層の層数であり、[]は丸め記号である。
上記技術的解決手段において、前記方法のステップ1)は、
入力層から出力層への順に深層学習モデルの各層に番号付けするステップ101)であって、h=−1に設定され、深層学習モデルが入力層、H個の隠れ層及び出力層を含み、入力層から出力層までに合計H+2層が含まれるように設定されると共に、入力層の番号が0に設定され、1番目の隠れ層の番号が1に設定され、類推によって、出力層の番号がH+1に設定される、前記ステップ101)と、
h=h+1に設定すると共に、第h層と第h+1層のパラメータを初期化するステップ102)と、
ラベルなし訓練サンプルセットY={xi t}を第h層に入力すると共に、第h層と第h+1層のコスト関数を最小化する過程において第h層と第h+1層との間の結合荷重及び第h+1層ノードのバイアス重みを調整するステップ103)と、
第1閾値未満の結合荷重がある場合に、再構築誤差変化の確率関数によって当該結合を削除するか否かを判定するステップ104)であって、重みが第1閾値未満に減衰する結合がある場合に、現在において結合があること及び現在において連結がないことの2種の状況に応じてサンプルを再構築し、再構築誤差変化ΔErを取得し、当該誤差変化の確率関数min[1,exp(−ΔEr/Er)]によって現在における結合を削除するか否かを決定する、ステップ104)と、
第h層のすべてのノードの順方向の出次数がK未満であるか否かを判定し、YESの場合にステップ106)に進み、NOの場合に前記ステップ103)に進むステップ105)と、
h>0の場合に第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であるか否かを判定し、YESの場合にステップ107)に進み、NOの場合に前記ステップ103)に進むステップ106)と、
コスト関数の変化が第2閾値未満であるか否かを判定し、YESの場合にステップ108)に進み、NOの場合に前記ステップ103)に進むステップ107)と、
h>Hが成立するか否かを判定し、YESの場合に前記ステップ1)の処理を終了させ、NOの場合に前記ステップ102)に進むステップ108)と、をさらに含む。
上記技術的解決手段において、前記方法のステップ2)における具体的なプロセスは、
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、入力した訓練サンプルがラベルなしサンプルセットY={xi t}である場合には、サンプルを入力して出力を取得した後、入力に戻し、K次数制約で出力層から入力層への逆再構築を行い、再構築誤差Erを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で各層の重みを調整し、入力した訓練サンプルがラベルありサンプルセットX={xi t,yi t}である場合には、出力とyi tとを比較し、訓練誤差Etを計算し、誤差が閾値未満になるまで、勾配降下又は共役勾配降下の方式で順方向の重みを調整する。
本発明の方法によれば、従来のニューラルネットワークモデルの訓練速度が遅く、パラメータ最適化が困難であるなどの欠点を克服し、深層フィードフォワードニューラルネットワーク、深層信念ネットワークなどの従来のニューラルネットワークモデルの拡張能力、汎化能力及び実行速度を向上させ、教師なし学習の困難さとパラメータ最適化の困難さを低減させ、それにより深層学習アルゴリズムによるビッグデータの処理の困難さを低減させることができる。
階層なしK次数スパースネットワーク及びそのノード次数スパース制約の模式図である。 階層ありK次数スパースネットワーク及びその階層次数スパース制約の模式図である。 本発明に係る次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法のフローチャートである。
まず、本発明に関する概念を説明する。
図1に示すように、階層なしK次数スパースネットワークとは、すべてのノードがノードK次数スパース制約を満たしていることを意味する。ノードK次数スパース制約とは、すべてのノードの順方向の出次数KiがK以下になるまで、ノード間の不要な結合を削除することを意味する。ここで、Kは、設定されたパラメータであり、順方向とは、入力から出力に向かう方向を意味し、隠れ層がある場合には、入力から隠れ層を通過して出力に向かう方向を意味する。
図2に示すように、訓練後の階層ありK次数スパースネットワークとは、すべての層が階層K次数スパース制約を満たしていることを意味する。階層K次数スパース制約とは、隠れ層の階層順方向の出次数、すなわち、単一隠れ層ノードの順方向の出次数の和が入力から出力に向かって単調に減少することを意味する。階層K次数スパース制約の特殊な場合としては、各層中のノードの順方向の出次数が同じである場合に、各層中のノード数と順方向の出次数の積が入力から出力に向かって単調に減少することが挙げられる。
また、上記K次数スパースネットワークの簡単な変形として、ノードK次数スパースネットワークは、

を満たすニューラルネットワークモデルを意味し、階層K次数スパースネットワークは、

を満たすニューラルネットワークモデルを意味し、ノード上限K次数スパースネットワークは、Ki=Kを満たすニューラルネットワークモデルを意味し、階層上限K次数スパースネットワークは、

を満たすニューラルネットワークモデルを意味し、理想的な上限K次数スパースネットワークは、Ki=Kと

とを同時に満たすニューラルネットワークモデルを意味する。これらはいずれも本発明に係る方法に直接適用できる。
以下、数学言語でK次数スパース制約を満たすニューラルネットワークモデルを説明する。
ニューラルネットワークモデルが合計N個のノードを有し、まず全結合の方式でネットワークを形成し、結合していない重みの値をゼロとすると、図1に示すように、任意のノードの出力xjと当該ノードの入力セットX={xi,i=1…N}とが以下の演算規則を満たしている。
ここで、xjは、任意のノードの出力であり、fは、当該ノードの活性化関数であり、bjは、当該ノードのバイアス重みであり、wijは、当該ノードに結合される入力重みであり、値がゼロの重みの存在を許容する。
ニューラルネットワークモデル全体の順方向は、外部入力から出力に向かう方向として定義され、図1に示すように、K次数スパースネットワークにおいて、いずれかのノードの出力がKi(ここで、

である)個のノードに順方向に入力される。
ここで、Kは、ハイパーパラメータであり、通常、全結合時のNよりわずかに小さく又は遥かに小さく、それによりスパース効果を図る。Kの値の範囲は、(1,N/H]であり、Nは、深層学習モデル中のすべてのノードの数であり、Hは、モデル隠れ層の層数であり、好適には、Kの値は、

である。
ここで、dinは、モデルの入力の次元であり、doutは、モデルの出力の次元であり、Hは、モデルの隠れ層の層数であり、[]は丸め記号である。
iはi番目のノードの順方向の出次数で、i=1…Nである。階層ありK次数スパースネットワークである場合、図2に示すように、前記階層K次数スパース制約

を満たす必要がある。
ここで、Ki (j)は、j番目の隠れ層中の任意のノードの順方向の出次数であり、Ki (j+1)は、j+1番目の隠れ層中の任意のノードの順方向の出次数である。
h番目の隠れ層は、任意のノードの出力がKi (h)個のノードに順方向入力され、ここで、

である。
ここで、K(h)はh番目の隠れ層の各ノードの順方向の出次数の最大値であり、K(h)は隠れ層に応じて異なってもよいが、Kの値は一定である。
図3に示すように、本発明は、K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法を提供するものであって、この方法は以下のステップを含む。
ステップ1)グラデーション枝刈り法によって、ラベルなし訓練サンプルを用いてK次数スパース制約を満たす深層学習モデルを構築する。
前記ステップ1)は、
101)入力層から出力層への順に深層学習モデルの各層を番号付けするステップ101)であって、h=−1に設定され、深層学習モデルが入力層、H個の隠れ層及び出力層を含み、入力層から出力層までに合計H+2個の層が含まれるように設定されると共に、入力層の番号が0に設定され、1番目の隠れ層の番号が1に設定され、類推によって、出力層の番号がH+1に設定される、前記ステップ101)と、
102)h=h+1に設定すると共に、第h層と第h+1層のパラメータを初期化するステップ102)と、
103)ラベルなし訓練サンプルセットY={xi t}を第h層に入力すると共に、第h層と第h+1層のコスト関数を最小化する過程において第h層と第h+1層間の結合荷重及び第h+1層ノードのバイアス重みを調整するステップ103)と、
104)第1閾値未満の結合荷重がある場合に、再構築誤差変化の確率関数によって当該結合を削除するか否かを判定するステップ104)であって、重みが第1閾値未満に減衰する結合がある場合に、現在において結合があることと現在において連結がないことの2種の状況に応じてサンプルを再構築し、再構築誤差変化ΔErを取得し、当該誤差変化の確率関数min[1,exp(−ΔEr/Er)]によって現在における結合を削除するか否かを決定する、前記ステップ104)と、
105)第h層のすべてのノードの順方向の出次数がK未満であるか否かを判定し、YESの場合にステップ106)に進み、NOの場合にステップ103)に進むステップ105)と、
106)h>0の場合に第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であるか否かを判定し、YESの場合にステップ107)に進み、NOの場合にステップ103)に進むステップ106)と、
107)コスト関数の変化が第2閾値未満であるか否かを判定し、YESの場合にステップ108)に進み、NOの場合にステップ103)に進むステップ107)と、
108)h>Hが成立するか否かを判定し、YESの場合にステップ1)の処理を終了させ、NOの場合にステップ102)に進むステップ108)と、を更に含む。
ステップ2)前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、モデルの各層の重みパラメータを最適化してK次数スパース制約を満たす最適化した深層学習モデルを取得する。
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、入力した訓練サンプルがラベルなしサンプルセットY={xi t}である場合には、サンプルを入力して出力を取得した後、入力に戻し、K次数制約で出力層から入力層への逆再構築を行い、再構築誤差Erを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で各層の重みを調整し、入力した訓練サンプルがラベルありサンプルセットX={xi t,yi t}である場合には、出力とyi tとを比較し、訓練誤差Etを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で順方向の重みを調整する。
ステップ2)前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、モデルの各層の重みパラメータを最適化してK次数スパース制約を満たす最適化した深層学習モデルを取得する。
ステップ3)前記K次数スパース制約を満たす最適化した深層学習モデルに処理対象のビッグデータを入力して処理し、最終的に処理結果を出力する。
なお、上記実施例は本発明の技術的解決手段を説明するためのものであって、限定するものではない。実施例を参照して本発明を詳細に説明したが、当業者は、本発明の技術的解決手段の精神と範囲を逸脱せずに本発明の技術的解決手段を変更したり同等置換したりすることができ、それらの変更や置換は本発明の特許請求の範囲に属すると理解できる。

Claims (5)

  1. K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法であって、
    グラデーション枝刈り法によって、ラベルなし訓練サンプルを用いてK次数スパース制約を満たす深層学習モデルを構築するステップ1)であって、前記K次数スパース制約はノードK次数スパース制約及び階層K次数スパース制約を含み、前記ノードK次数スパース制約は、モデル中のすべてのノードの順方向の出次数がK以下であり、前記Kの値の範囲が(1,N/H]であることを意味し、ここで、Nは前記深層学習モデル中のすべてのノードの数であり、Hはモデルの隠れ層の層数であり、前記階層K次数スパース制約は、第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であることを意味する、前記ステップ1)と、
    前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、モデルの各層の重みパラメータを最適化してK次数スパース制約を満たす最適化した深層学習モデルを取得するステップ2)と、
    前記K次数スパース制約を満たす最適化した深層学習モデルに処理対象のビッグデータを入力して処理し、最終的に処理結果を出力するステップ3)と、
    を含む、K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。
  2. 前記Kの値は、

    であり、ここで、dinはモデルの入力の次元であり、doutはモデルの出力の次元であり、Hはモデルの隠れ層の層数であり、[]は丸め記号である、請求項1に記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。
  3. 前記処理方法のステップ1)は、
    入力層から出力層への順に深層学習モデルの各層に番号付けするステップ101)であって、h=−1に設定され、深層学習モデルが入力層、H個の隠れ層及び出力層を含み、入力層から出力層までに合計H+2層が含まれるように設定されると共に、入力層の番号が0に設定され、1番目の隠れ層の番号が1に設定され、類推によって、出力層の番号がH+1に設定される、前記ステップ101)と、
    h=h+1に設定すると共に、第h層と第h+1層のパラメータを初期化するステップ102)と、
    ラベルなし訓練サンプルセットY={xi t}を第h層に入力すると共に、第h層と第h+1層のコスト関数を最小化する過程において第h層と第h+1層との間の結合荷重及び第h+1層ノードのバイアス重みを調整するステップ103)と、
    第1閾値未満の結合荷重がある場合に、再構築誤差変化の確率関数によって当該結合を削除するか否かを判定するステップ104)であって、第1閾値未満に減衰する結合荷重がある場合に、現在において結合があること及び現在において結合がないことの2種の状況に応じてサンプルを再構築し、再構築誤差変化ΔErを取得し、当該誤差変化の確率関数min[1,exp(−ΔEr/Er)]によって現在における結合を削除するか否かを決定する、前記ステップ104)と、
    第h層のすべてのノードの順方向の出次数がK未満であるか否かを判定し、YESの場合にステップ106)に進み、NOの場合に前記ステップ103)に進むステップ105)と、
    h>0の場合に第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であるか否かを判定し、YESの場合にステップ107)に進み、NOの場合に前記ステップ103)に進むステップ106)と、
    コスト関数の変化が第2閾値未満であるか否かを判定し、YESの場合にステップ108)に進み、NOの場合に前記ステップ103)に進むステップ107)と、
    h>Hが成立するか否かを判定し、YESの場合に前記ステップ1)の処理を終了させ、NOの場合に前記ステップ102)に進むステップ108)と、
    をさらに含む、請求項1に記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。
  4. 前記処理方法のステップ2)における具体的なプロセスは、
    前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、入力した訓練サンプルがラベルなしサンプルセットY={xi t}である場合には、サンプルを入力して出力を取得した後、入力に戻し、K次数制約で出力層から入力層への逆再構築を行い、再構築誤差Erを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で各層の重みを調整し、入力した訓練サンプルがラベルありサンプルセットX={xi t,yi t}である場合には、出力とyi tとを比較し、訓練誤差Etを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で順方向重みを調整する、請求項3に記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。
  5. 前記K次数スパース制約を満たす深層学習モデルは、ノード上限K次数スパースネットワーク、階層上限K次数スパースネットワーク、及び、理想的な上限K次数スパースネットワークをさらに含み、
    前記ノード上限K次数スパースネットワークは、すべてのノードの順方向の出次数がKとなること、即ち、K =Kを満たすニューラルネットワークモデルであり、
    前記階層上限K次数スパースネットワークは、すべての階層において第j階層のすべてのノードの順方向の出次数の和と第j+1階層のすべてのノードの順方向の出次数の和と等しいこと、即ち、

    を満たすニューラルネットワークモデルであり、
    前記理想的な上限K次数スパースネットワークは、すべてのノードの順方向の出次数がKとなること、及び、すべての階層において第j階層のすべてのノードの順方向の出次数の和と第j+1階層のすべてのノードの順方向の出次数の和と等しいこと、即ち、K =Kと

    とを同時に満たすニューラルネットワークモデルであり、ここで、前記jは階層モデルの層数である、請求項1〜請求項4のいずれか1つに記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。
JP2017548139A 2015-03-13 2015-03-31 K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 Active JP6466590B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510112645.9A CN106033555A (zh) 2015-03-13 2015-03-13 基于满足k度稀疏约束的深度学习模型的大数据处理方法
CN201510112645.9 2015-03-13
PCT/CN2015/075473 WO2016145676A1 (zh) 2015-03-13 2015-03-31 基于满足k度稀疏约束的深度学习模型的大数据处理方法

Publications (2)

Publication Number Publication Date
JP2018511871A JP2018511871A (ja) 2018-04-26
JP6466590B2 true JP6466590B2 (ja) 2019-02-06

Family

ID=56918252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017548139A Active JP6466590B2 (ja) 2015-03-13 2015-03-31 K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法

Country Status (5)

Country Link
US (1) US11048998B2 (ja)
EP (1) EP3282401A4 (ja)
JP (1) JP6466590B2 (ja)
CN (1) CN106033555A (ja)
WO (1) WO2016145676A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6835559B2 (ja) * 2016-12-09 2021-02-24 国立大学法人電気通信大学 プライバシ保護データ提供システム
CN106685546A (zh) * 2016-12-29 2017-05-17 深圳天珑无线科技有限公司 一种无线人体感知的方法及服务器
CN107316024B (zh) * 2017-06-28 2021-06-29 北京博睿视科技有限责任公司 基于深度学习的周界报警算法
CN109284826A (zh) * 2017-07-19 2019-01-29 阿里巴巴集团控股有限公司 神经网络处理方法、装置、设备及计算机可读存储介质
CN108694502B (zh) * 2018-05-10 2022-04-12 清华大学 一种基于XGBoost算法的机器人制造单元自适应调度方法
CN108985382B (zh) * 2018-05-25 2022-07-15 清华大学 基于关键数据通路表示的对抗样本检测方法
CN109033521B (zh) * 2018-06-25 2021-04-20 中南大学 一种新建铁路限制坡度优化决策方法
WO2020020088A1 (zh) * 2018-07-23 2020-01-30 第四范式(北京)技术有限公司 神经网络模型的训练方法和系统以及预测方法和系统
US11468330B2 (en) 2018-08-03 2022-10-11 Raytheon Company Artificial neural network growth
CN110209943B (zh) * 2019-06-04 2021-09-28 成都终身成长科技有限公司 一种单词推送方法、装置及电子设备
CN110390326A (zh) * 2019-06-14 2019-10-29 华南理工大学 一种基于集聚交叉熵损失函数的序列识别方法
CN110287031B (zh) * 2019-07-01 2023-05-09 南京大学 一种减少分布式机器学习通信开销的方法
US11068748B2 (en) 2019-07-17 2021-07-20 Harris Geospatial Solutions, Inc. Image processing system including training model based upon iteratively biased loss function and related methods
US10984507B2 (en) 2019-07-17 2021-04-20 Harris Geospatial Solutions, Inc. Image processing system including training model based upon iterative blurring of geospatial images and related methods
US11417087B2 (en) 2019-07-17 2022-08-16 Harris Geospatial Solutions, Inc. Image processing system including iteratively biased training model probability distribution function and related methods
CN110458337B (zh) * 2019-07-23 2020-12-22 内蒙古工业大学 一种基于c-gru的网约车供需预测方法
CN110533170A (zh) * 2019-08-30 2019-12-03 陕西思科锐迪网络安全技术有限责任公司 一种图形化编程的深度学习神经网络搭建方法
CN110543918B (zh) * 2019-09-09 2023-03-24 西北大学 一种基于正则化与数据增广的稀疏数据处理方法
CN111260121B (zh) * 2020-01-12 2022-04-29 桂林电子科技大学 一种基于深度瓶颈残差网络的城市范围的人流量预测方法
CN111429175B (zh) * 2020-03-18 2022-05-27 电子科技大学 稀疏特征场景下进行点击转化预测的方法
CN112100912A (zh) * 2020-09-08 2020-12-18 长春工程学院 基于满足k度稀疏约束的深度学习模型的数据处理方法
CN112631215B (zh) * 2020-12-10 2022-06-24 东北大学 工业过程运行指标智能预报方法、装置、设备及存储介质
CN112765623B (zh) * 2021-01-15 2022-08-02 浙江科技学院 基于相位恢复算法的光学多图像认证和加密方法
CN113052306B (zh) * 2021-03-04 2022-04-22 华南理工大学 一种基于堆叠式宽度学习模型的在线学习芯片

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511677A (ja) * 2011-03-22 2014-05-19 コーネル・ユニバーシティー 鑑別困難な良性甲状腺病変と悪性甲状腺病変との識別法
US8700552B2 (en) * 2011-11-28 2014-04-15 Microsoft Corporation Exploiting sparseness in training deep neural networks
CN103489033A (zh) 2013-09-27 2014-01-01 南京理工大学 融合自组织映射与概率神经网络的增量式学习方法
CN103530689B (zh) 2013-10-31 2016-01-20 中国科学院自动化研究所 一种基于深度学习的聚类方法
CN103838836B (zh) * 2014-02-25 2016-09-28 中国科学院自动化研究所 基于判别式多模态深度置信网多模态数据融合方法和系统

Also Published As

Publication number Publication date
JP2018511871A (ja) 2018-04-26
WO2016145676A1 (zh) 2016-09-22
EP3282401A4 (en) 2018-05-30
EP3282401A1 (en) 2018-02-14
CN106033555A (zh) 2016-10-19
US20180068216A1 (en) 2018-03-08
US11048998B2 (en) 2021-06-29

Similar Documents

Publication Publication Date Title
JP6466590B2 (ja) K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法
CN110880036B (zh) 神经网络压缩方法、装置、计算机设备及存储介质
CN109102126B (zh) 一种基于深度迁移学习的理论线损率预测模型
Wang et al. Research on Web text classification algorithm based on improved CNN and SVM
CN113905391B (zh) 集成学习网络流量预测方法、系统、设备、终端、介质
CN104751228B (zh) 用于语音识别的深度神经网络的构建方法及系统
CN112070277B (zh) 基于超图神经网络的药物-标靶相互作用预测方法
WO2023115596A1 (zh) 一种基于迁移学习融合模型的桁架应力预测及轻量化方法
CN112215353B (zh) 一种基于变分结构优化网络的通道剪枝方法
CN106779068A (zh) 调整人工神经网络的方法和装置
JP2018511870A (ja) セグメントに基づく二段深層学習モデル用のビッグデータの処理方法
CN111461463B (zh) 一种基于tcn-bp的短期负荷预测方法、系统及设备
CN108427665A (zh) 一种基于lstm型rnn模型的文本自动生成方法
CN106407690B (zh) 一种基于自动深度置信网络的门诊量预测方法及系统
CN103559537B (zh) 一种乱序数据流中基于误差反向传播的模板匹配方法
CN111144027A (zh) 一种基于bp神经网络全特性曲线函数的逼近方法
CN107273971B (zh) 基于神经元显著性的前馈神经网络结构自组织方法
Naik et al. Indian monsoon rainfall classification and prediction using robust back propagation artificial neural network
Xia et al. Efficient synthesis of compact deep neural networks
Gao Study on new evolutionary neural network
Taik et al. Hybrid particle swarm and neural network approach for streamflow forecasting
Chen et al. Pre-shaped fuzzy c-means algorithm (pfcm) for transparent membership function generation
Gao New evolutionary neural networks
Ding et al. Evolving neural network using hybrid genetic algorithm and simulated annealing for rainfall-runoff forecasting
CN116629237B (zh) 基于逐步集成多层注意力的事件表示学习方法及系统

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190109

R150 Certificate of patent or registration of utility model

Ref document number: 6466590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250