TW201935326A - 訓練全連接神經網路的裝置及方法 - Google Patents

訓練全連接神經網路的裝置及方法 Download PDF

Info

Publication number
TW201935326A
TW201935326A TW108104442A TW108104442A TW201935326A TW 201935326 A TW201935326 A TW 201935326A TW 108104442 A TW108104442 A TW 108104442A TW 108104442 A TW108104442 A TW 108104442A TW 201935326 A TW201935326 A TW 201935326A
Authority
TW
Taiwan
Prior art keywords
matrix
block
hessian
positive curvature
curvature
Prior art date
Application number
TW108104442A
Other languages
English (en)
Other versions
TWI736838B (zh
Inventor
陳聖惟
周俊男
張智威
Original Assignee
宏達國際電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏達國際電子股份有限公司 filed Critical 宏達國際電子股份有限公司
Publication of TW201935326A publication Critical patent/TW201935326A/zh
Application granted granted Critical
Publication of TWI736838B publication Critical patent/TWI736838B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

一種計算裝置,用來訓練一全連接神經網路,包含有至少一儲存裝置;以及至少一處理電路,耦接於該至少一儲存裝置。該至少一儲存裝置用來儲存,以及該至少一處理電路被配置來執行儲存於該至少一儲存裝置中的以下指令:計算該全連接神經網路的一區塊對角近似的正曲率海森矩陣;以及根據一期望近似共軛梯度方法,計算該區塊對角近似的正曲率海森矩陣的至少一更新方向。

Description

訓練全連接神經網路的裝置及方法
本發明相關於一種用於計算系統的裝置及方法,尤指一種訓練全連接神經網路的裝置及方法。
神經網路(neural network)被應用來解決幾個應用領域的問題,例如電腦視覺、神經語言(natural language)處理、疾病診斷等。當訓練神經網路時,反向傳播(backpropagation)流程被用來調整神經網路的模型參數。統計梯度下降法(stochastic gradient descent,SGD)、Broyden-Fletcher-Goldfarb-Shanno法及單步正割法(one-step secant)常被用來實現反向傳播(backpropagation)流程。
統計梯度下降法使用函數的一階微分來最小化一函數,在訓練大型模型時相當有效率。然而,梯度的統計性(stochasticity)會降低所有梯度法的收斂速度,使這些梯度法難以快於使用Polyak平均的簡單梯度法。除了梯度法,二階方法(second-order method)在給定點的鄰近範圍內使用損失函數(loss function)的曲率(curvature)資訊,以引導更新方向。由於每次更新可更為精確,以更新疊代(update iteration)來說,二階方法收斂速度快於一階方法。
解決凸最佳化(convex optimization)的問題時,二階方法以比統計梯度下降法少的步數收斂到一全域最小值(global minimum)。然而,訓練神經網路的問題可能是非凸的(non-convex),以及負曲率的問題可能會發生。為了避免這個問題,具有凸準則函數(convex criterion function)的高斯-牛頓(Gauss-Newton)矩陣或費雪(Fisher)矩陣可被用來量測曲率,因為這些矩陣保證正半正定(positive semi-definite,PSD)。
雖然這些矩陣可減輕負曲率的問題,即使對一中等大小的全連接神經網路(fully-connected neural network,FCNN),計算高斯-牛頓矩陣或費雪矩陣仍是困難的。若計算一階梯度需要O(N)複雜度,計算二階梯度需要O(N2 )複雜度。因此,已有幾種方法被用來近似這些矩陣。然而,在計算上,這些矩陣階無法比一階方法有效率。因此,用於全連接神經網路且高計算效率的二階方法仍是亟待解決的問題。
本發明提供了一種方法及其裝置,用來訓練全連接神經網路,以解決上述問題。
本發明揭露一種計算裝置(computing device),用來訓練(train)一全連接神經網路(fully-connected neural network,FCNN),包含有至少一儲存裝置;以及至少一處理電路,耦接於該至少一儲存裝置。該至少一儲存裝置用來儲存,以及該至少一處理電路被配置來執行儲存於該至少一儲存裝置中的以下指令:計算該全連接神經網路的一區塊對角近似的正曲率海森(block-diagonal approximation of a positive-curvature Hessian,BDA-PCH)矩陣;以及根據一期望近似共軛梯度(expectation approximation conjugated gradient,EA-CG)方法,計算該區塊對角近似的正曲率海森矩陣的至少一更新方向(update direction)。
本發明另揭露一種訓練一全連接神經網路的方法,包含有計算該全連接神經網路的一區塊對角近似的正曲率海森矩陣;以及根據一期望近似共軛梯度方法,計算該區塊對角近似的正曲率海森矩陣的至少一更新方向。
第1圖為本發明一計算裝置10的示意圖。計算裝置10可包含有至少一處理電路100、至少一儲存裝置110以及至少一通訊介面裝置120。至少一處理電路100可為一微處理器或一特定應用積體電路(Application-Specific Integrated Circuit,ASIC)。至少一儲存裝置110可為任一資料儲存裝置,用來儲存一程式代碼114,至少一處理電路100可透過至少一儲存裝置110讀取及執行程式代碼114。舉例來說,至少一儲存裝置110可為用戶識別模型(Subscriber Identity Module,SIM)、唯讀式記憶體(Read-Only Memory,ROM)、快閃記憶體(flash memory)、隨機存取記憶體(Random-Access Memory,RAM)、硬碟(hard disk)、光學資料儲存裝置(optical data storage device)、非揮發性儲存裝置(non-volatile storage device)、非暫態電腦可讀取介質(non-transitory computer-readable medium)(例如具體介質(tangible media))等,而不限於此。根據至少一處理電路100的處理結果,至少一通訊介面裝置120被用來傳送及接收訊號(例如資訊、資料、訊息及/或封包)。至少一通訊介面裝置120可為至少一收發器、至少一介面電路或至少一介面板,但不限於此。上述一通訊介面裝置可為通用串列匯流排(Universal Serial Bus,USB)、IEEE 1394、串列先進技術依附(Serial Advanced Technology Attachment,SATA)、整合驅動電子裝置(Integrated Drive Electronics,IDE)、周邊組件互連(Peripheral Component Interconnect,PCI)。
本發明提供一區塊對角近似的正曲率海森(block-diagonal approximation of a positive-curvature Hessian,BDA-PCH)矩陣,其具有記憶體效能。區塊對角近似的正曲率海森矩陣可被應用到任一全連接神經網路(fully-connected neural network,FCNN),其中一啟動函數(activation function)和一準則函數(criterion function)是兩次可微的。區塊對角近似的正曲率海森矩陣可處理非凸(non-convex)準則函數,其不能被高斯-牛頓(Gauss-Newton)方法處理。此外,一期望近似(expectation approximation,EA)與一共軛梯度(conjugated gradient,CG)方法結合,其稱為一期望近似共軛梯度(EA-CG)方法,以推導(derive)用於在一小批量設定(mini-batch setting)中訓練(train)全連接神經網路的更新方向(update directions)。期望近似共軛梯度方法明顯降低了傳統共軛梯度方法的空間複雜度和時間複雜度。
本發明提出了一種訓練一全連接神經網路的二階方法如下:
1. 對於曲率資訊,一正曲率海森矩陣被提出,以改善一高斯-牛頓矩陣,用於訓練具有凸準則函數的一全連接神經網路,以及一非凸情境(non-convex scenario)被克服。
2. 為了推導更新方向,一期望近似共軛梯度方法被提出。因此,由區塊對角近似的正曲率海森方法和期望近似共軛梯度方法組成的二階方法在掛鐘時間(wall clock time)方面收斂得更快,以及比競爭方法(例如隨機梯度下降)具有更好的測試精確度。
關於非凸問題的截斷牛頓(truncated-Newton)方法
一牛頓方法是二階最小化方法中的一種方法,其包含有兩個步驟:(1)計算一海森矩陣;以及(2)求解(solve)用於更新方向的線性方程式的系統。一截斷牛頓方法應用具有受限疊代的一共軛梯度方法到牛頓方法的第二步驟。在以下描述中,首先討論在一凸情境的文本(context)中的截斷牛頓方法。接著,討論截斷牛頓方法的一非凸情境,以及提供奠定被提出的正曲率海森矩陣的基礎的重要特性。
最小化問題如下所示:
, (式1)
其中是一凸及二次可微函數。因為函數的一全域最小值(global minimum)是函數的一階導數為零的點,解可從以下方程式導出:
, (式2)
藉由一給定點進行一泰勒展開(Taylor expansion),一二次多項式用於近似方程式(式1)。接著,方程式(式1)可被表示如下:
, (式3)
其中的一海森矩陣。在應用上述近似後,方程式(式2)可被改寫成以下的線性方程式:
, (式4)
因此,一牛頓方向可根據下式被獲得:
, (式5)
根據以下方程式,可被疊代地(iteratively)獲得:
, (式6)
其中是一步長(step size)。
對於一非凸情境,方程式(式2)的解反映三種可能性中的一種:一局部最小值(local minimum)、一局部最大值及一鞍點(saddle point)。以下引入一重要的概念:藉由分析海森矩陣可獲得在一給定點的曲率資訊。另一方面,在任一的海森矩陣是正半正定(positive semi-definite)。在任一的海森矩陣分別是負半正定(negative semi-definite)及不定(indefinite)。在建立概念後,一特性(Property)可被用來理解如何利用負曲率資訊,以解決負曲率問題。
特性是一非凸及二次可微函數。對於一給定點,假設對於存在一些負特徵值(negative eigenvalues)。再者,被採用,其是對應於的一特徵空間(eigenspace)。若以下方程式被考慮
, (式7)
其中是一凸函數。
根據特性 ,若具有一些負特徵值,方程式(式4)可獲得一局部最大值及一鞍點。為了收斂到一局部最小值,Pos-Eig ( ) 取代,其中Pos-Eig (A) 在概念上被定義是替換A 的負特徵值為非負特徵值,如下式所示:
, (式8)
其中是一給定的純量(scalar),其小於或等於零,以及分別是A 的負特徵值及非負特徵值。細化(refinement)暗示如果,點會遠離(escape)一局部最大值或鞍點。在的情況下,細化代表負特徵值的一特徵空間被忽略(ignore)。如此一來,解不收斂到任一鞍點或任一局部最大值。此外,根據一譜定理(spectral theorem),每一實對稱矩陣(real symmetric matrix)可被對角化(diagonalize)。在本發明的假設下,是一實對稱矩陣。因此,可被分解,以及函數“Pos-Eig”可輕易的被實現。
當在中變數的數量大時,海森矩陣在空間複雜度方面變得難以處理。或者,一共軛梯度方法可被用於求解方程式(式4)。此替代方案只需計算海森矩陣向量乘積,而不需要儲存整個海森矩陣。此外,限制共軛梯度方法的疊代次數,以節省計算成本。
計算海森矩陣
對於二階方法,一區塊海森矩陣(block Hessian matrix)被用於計算(compute)曲率資訊。作為被提出的正曲率海森矩陣的基礎,在以下描述中,用於訓練一全連接神經網路的符號(notations)被敘述,以及用符號表示區塊海森遞迴(recursion)。
全連接神經網路
具有k階層(layer)的一全連接神經網路採用一輸入向量,其中是在一訓練集合(training set)中第i個實例(instance)。對於第i個實例,根據,其他階層中的啟動值(activation values)可被遞歸地(recursively)推導,其中是一啟動函數及可為任一二次可微函數,以及分別是在第t階層中的權重(weights)及偏差(biases)。nt是第t層中神經元(neurons)的數量,其中,以及在每一階層中包含有所有權重及偏差的所有模型參數(model parameters)被表示為,其中。藉由遵從上述符號,具有k階層的一全連接神經網路輸出被表示為
為了訓練全連接神經網路,可為任一兩次可微函數的一損失函數被需要。因此,訓練全連接神經網路可被解釋為解決以下最小化問題:
,(式9)
其中是訓練集合中實例的數量,是第i個實例的一標籤(label),以及是一準則函數。
用於海森矩陣的分層方程式(layer-wise equations)
為了清楚地揭示一區塊海森遞迴,根據前述中定義的符號,一反向傳播(backpropagation)的方程式被表示。偏差項及權重項是分開的,以及在梯度的一反向傳播期間被單獨處理。根據分層方式(layer-wise manner)的方程式,相對於偏差項及權重項的的梯度可被推導。對於第i個實例,方程式如下:
,(式10)
,(式11)
,(式12)
其中是克洛涅克乘積(Kronecker product),以及。同樣地,的海森矩陣相對於偏差項和權重項以分層方式向後傳播。可藉由根據上述方式利用克洛涅克乘積來實現。第i個實例的結果方程式如下:
,(式13)
, (式14)
,(式15)
其中是分元件乘積(element-wise product),,以及的一導數階數(derivative order)是的一分行穿越(column-wise traversal)。此外,值得注意的是,原始區塊海森遞回統一(unify)偏差項和權重項,不同於對這些項的單獨處理。
期望近似(Expectation approximation)
期望近似背後的想法是:具有給定指數之間的一協方差(covariance)很小,因此由於計算效率,根據以下方程式,協方差被忽略:

,(式16)
為了對上述方程式上解釋這個概念,cov-t被定義為,其中“Ele-Cov”表示為一分元件協方差,是元件在中為1的一矩陣。透過cov-t的定義及前述的方程式,近似可被表示如下:

(式17)
其中
接著,以下近似方程式可被獲得:


,
(式18)
其中。原始海森矩陣與方程式(式18)中的近似海森矩陣間的差異被界定如下:

(式19)
其中是啟動函數的一利普希茨常數(Lipschitz constant)。舉例來說,LReLU及Lsigmoid分別是1及0.25。
推導牛頓方向
本發明提出一種用於訓練具有牛頓方向的一全連接神經網路的計算上可行的方法(computationally feasible method)。首先,一正曲率海森矩陣被構建(construct)。接著,基於正曲率海森矩陣,提出一種有效的基於共軛梯度的方法,其結合期望近似以推導多個訓練實例的牛頓方向,稱為期望近似共軛梯度方法。
正曲率海森矩陣
基於分層方程式和期望近似的積分(integration),具有各種大小的區塊矩陣被建構,以及位於海森矩陣的一對角線。區塊對角線矩陣可被表示為。請注意是一區塊對角線矩陣,不是完整的海森矩陣。根據更新方向的三種可能性的敘述,應被修改。因此,取代,以及修改的結果被表示為,其中
, (式20)

, (式21)
. (式22)
可被視為一區塊對角近似的正曲率海森矩陣。任一正曲率海森矩陣保證是正半正定,解釋如下。為了表明是正半正定,應被證明對於任一t皆是正半正定。首先,區塊矩陣被認為是方程式(式20)中的一方陣。若準則函數是凸函數,是一正半正定矩陣。否則,矩陣被分解,以及矩陣的負特徵值被代替。因為不是很大,可被快速地分解以及可被修改為正半正定矩陣。其次,應是一正半正定矩陣,以及是正半正定。因此,的負特徵值形成對角線部分,以及Pos-Eig被執行用於在方程式(式21)中的對角線部分。第三,因為兩個正半正定矩陣的克洛涅克乘積是正半正定,其暗示是正半正定。
透過期望近似共軛梯度方法求解線性方程式
在獲得正曲率海森矩陣後,藉由以下線性方程式,更新方向被更新:
, (式23)
其中以及。在此,因為的權重平均將方程式(式23)的正半正定係數(coefficient)矩陣變為正定,以及使解更穩定,的權重平均及一單位矩陣被使用。因為對角線區塊的特徵,方程式(式23)可被分解如下:
, (式24)
, (式25)
對於。為了求解方程式(式24),藉由直接使用共軛梯度方法來獲得解。對於方程式(式24),因為存儲效率不高,方程式及方程式(式17)被處理為具有給定向量的海森向量乘積,如下式所示:

. (式26)
基於方程式(式26),經由的海森向量乘積被獲得,以及儲存曲率資訊的空間複雜度被降低。
上述內容可被歸納為第2圖的一流程20,可被編譯為程式代碼114。流程20包含有以下步驟:
步驟200:開始。
步驟202:計算該全連接神經網路的一區塊對角近似的正曲率海森矩陣。
步驟204:根據一期望近似共軛梯度方法,計算該區塊對角近似的正曲率海森矩陣的至少一更新方向。
步驟206:結束。
流程20的詳細內容及變化可參考前述,在此不贅述。
需注意的是,雖然以上所述的實施例被陳述以明確說明對應流程的相關運作。本領域具通常知識者當可根據系統需求及/或設計考量結合、修飾或變化以上所述的實施例。
本領域具通常知識者當可依本發明的精神加以結合、修飾及/或變化以上所述的實施例,而不限於此。前述的陳述、步驟及/或流程(包含建議步驟)可透過裝置實現,裝置可為硬體、軟體、韌體(為硬體裝置與電腦指令與資料的結合,且電腦指令與資料屬於硬體裝置上的唯讀軟體)、電子系統、或上述裝置的組合,其中裝置可為計算裝置10。上述流程及實施例(包含相關方程式)可被編譯為程式代碼114。
根據以上所述,本發明提出一正曲率海森矩陣及一期望近似共軛梯度方法,以實現更方便計算的用於訓練一全連接神經網路的二階方法。被提出的正曲率海森矩陣克服訓練具有非凸準則函數的全連接神經網路的問題。此外,期望近似共軛梯度方法提供另一種有效推導更新方向的替代方法。實證研究表明,被提出的正曲率海森矩陣的性能優於現有的曲率近似,以及期望近似共軛梯度方法收斂速度更快,同時具有更好的測試精度。

以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10‧‧‧計算裝置
100‧‧‧至少一處理電路
110‧‧‧至少一儲存裝置
114‧‧‧程式代碼
120‧‧‧至少一通訊介面裝置
20‧‧‧流程
200、202、204、206‧‧‧步驟
第1圖為本發明實施例一計算裝置的示意圖。
第2圖為本發明實施例一流程的流程圖。

Claims (16)

  1. 一種計算裝置(computing device),用來訓練(train)一全連接神經網路(fully-connected neural network,FCNN),包含有: 至少一儲存裝置;以及 至少一處理電路,耦接於該至少一儲存裝置,其中該至少一儲存裝置用來儲存,以及該至少一處理電路被配置來執行儲存於該至少一儲存裝置中的以下指令: 計算該全連接神經網路的一區塊對角近似的正曲率海森(block-diagonal approximation of a positive-curvature Hessian,BDA-PCH)矩陣;以及 根據一期望近似共軛梯度(expectation approximation conjugated gradient,EA-CG)方法,計算該區塊對角近似的正曲率海森矩陣的至少一更新方向(update direction)。
  2. 如請求項1所述的計算裝置,其中藉由在複數個分層方程式(layer-wise equations)上執行至少一期望(expectation),該區塊對角近似的正曲率海森矩陣被計算。
  3. 如請求項2所述的計算裝置,其中該複數個分層方程式包含有在相對於至少一偏差(bias)的複數個階層(layer)的複數個損失函數(loss functions)的一梯度。
  4. 如請求項2所述的計算裝置,其中該複數個分層方程式包含有在相對於至少一權重(weight)的複數個階層的複數個損失函數的一梯度。
  5. 如請求項1所述的計算裝置,其中該區塊對角近似的正曲率海森矩陣包含有相對於至少一偏差的一損失函數的一海森的至少一期望。
  6. 如請求項1所述的計算裝置,其中根據該期望近似共軛梯度方法計算該至少一更新方向的該指令另包含有: 計算該區塊對角近似的正曲率海森矩陣的一權重平均(weighted average)及一單位矩陣(identity matrix)的一線性(linear)方程式;以及 根據該期望近似共軛梯度方法,藉由求解(solve)該線性方程式,計算該至少一更新方向。
  7. 如請求項6所述的計算裝置,其中該線性方程式包含有相對於至少一偏差的該區塊對角近似的正曲率海森矩陣的該權重平均及該單位矩陣。
  8. 如請求項6所述的計算裝置,其中該線性方程式包含有相對於至少一權重的該區塊對角近似的正曲率海森矩陣的該權重平均及該單位矩陣。
  9. 一種訓練(train)一全連接神經網路(fully-connected neural network,FCNN)的方法,包含有: 計算該全連接神經網路的一區塊對角近似的正曲率海森(block-diagonal approximation of a positive-curvature Hessian,BDA-PCH)矩陣;以及 根據一期望近似共軛梯度(expectation approximation conjugated gradient,EA-CG)方法,計算該區塊對角近似的正曲率海森矩陣的至少一更新方向(update direction)。
  10. 如請求項9所述的方法,其中藉由在複數個分層方程式(layer-wise equations)上執行至少一期望(expectation),該區塊對角近似的正曲率海森矩陣被計算。
  11. 如請求項10所述的方法,其中該複數個分層方程式包含有在相對於至少一偏差(bias)的複數個階層(layer)的複數個損失函數(loss functions)的一梯度。
  12. 如請求項10所述的方法,其中該複數個分層方程式包含有在相對於至少一權重(weight)的複數個階層的複數個損失函數的一梯度。
  13. 如請求項9所述的方法,其中該區塊對角近似的正曲率海森矩陣包含有相對於至少一偏差的一損失函數的一海森的至少一第一期望。
  14. 如請求項9所述的方法,其中根據該期望近似共軛梯度方法計算該至少一更新方向的該指令另包含有: 計算該區塊對角近似的正曲率海森矩陣的一權重平均(weighted average)及一單位矩陣(identity matrix)的一線性(linear)方程式;以及 根據該期望近似共軛梯度方法,藉由求解(solve)該線性方程式,計算該至少一更新方向。
  15. 如請求項14所述的方法,其中該線性方程式包含有相對於至少一偏差的該區塊對角近似的正曲率海森矩陣的該權重平均及該單位矩陣。
  16. 如請求項14所述的方法,其中該線性方程式包含有相對於至少一權重的該區塊對角近似的正曲率海森矩陣的該權重平均及該單位矩陣。
TW108104442A 2018-02-09 2019-02-11 訓練全連接神經網路的裝置及方法 TWI736838B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862628311P 2018-02-09 2018-02-09
US62/628,311 2018-02-09
US201862630278P 2018-02-14 2018-02-14
US62/630,278 2018-02-14
US201862673143P 2018-05-18 2018-05-18
US62/673,143 2018-05-18

Publications (2)

Publication Number Publication Date
TW201935326A true TW201935326A (zh) 2019-09-01
TWI736838B TWI736838B (zh) 2021-08-21

Family

ID=65365877

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108104442A TWI736838B (zh) 2018-02-09 2019-02-11 訓練全連接神經網路的裝置及方法

Country Status (4)

Country Link
US (1) US20190251447A1 (zh)
EP (1) EP3525140A1 (zh)
CN (1) CN110135577A (zh)
TW (1) TWI736838B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI786483B (zh) * 2019-12-11 2022-12-11 瑞士商Inait公司 處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US11615285B2 (en) 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
US11651210B2 (en) 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
US11972343B2 (en) 2018-06-11 2024-04-30 Inait Sa Encoding and decoding information

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184551A (zh) * 2011-05-10 2011-09-14 东北大学 结合多种特征匹配和粒子滤波的目标自动跟踪方法及系统
US9036058B2 (en) * 2012-07-12 2015-05-19 Ramot At Tel-Aviv University Ltd. Method and system for reducing chromatic aberration
CN103116706A (zh) * 2013-02-25 2013-05-22 西北工业大学 基于气动非线性与耦合的高速飞行器随控优化方法
US9483728B2 (en) * 2013-12-06 2016-11-01 International Business Machines Corporation Systems and methods for combining stochastic average gradient and hessian-free optimization for sequence training of deep neural networks
CN107392314A (zh) * 2017-06-30 2017-11-24 天津大学 一种基于确定性丢弃连接的深层卷积神经网络方法
CN107392900B (zh) * 2017-07-24 2020-07-28 太原理工大学 一种肺结节图像的多尺度增强方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615285B2 (en) 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
US11972343B2 (en) 2018-06-11 2024-04-30 Inait Sa Encoding and decoding information
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
TWI786483B (zh) * 2019-12-11 2022-12-11 瑞士商Inait公司 處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US11651210B2 (en) 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
US11816553B2 (en) 2019-12-11 2023-11-14 Inait Sa Output from a recurrent neural network

Also Published As

Publication number Publication date
CN110135577A (zh) 2019-08-16
TWI736838B (zh) 2021-08-21
EP3525140A1 (en) 2019-08-14
US20190251447A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
TWI736838B (zh) 訓練全連接神經網路的裝置及方法
WO2018099084A1 (zh) 一种神经网络模型训练方法、装置、芯片和系统
Scardapane et al. Online sequential extreme learning machine with kernels
WO2021208151A1 (zh) 一种模型压缩方法、图像处理方法以及装置
WO2018227800A1 (zh) 一种神经网络训练方法及装置
US10074054B2 (en) Systems and methods for Bayesian optimization using non-linear mapping of input
US20190197404A1 (en) Asychronous training of machine learning model
JP7225614B2 (ja) ディープラーニング分類モデルの訓練装置及び方法
WO2021254114A1 (zh) 构建多任务学习模型的方法、装置、电子设备及存储介质
CN111126668A (zh) 基于图卷积网络的Spark作业时间预测方法和装置
Tsai et al. Learning from label proportions with consistency regularization
WO2021051556A1 (zh) 深度学习权值更新方法、系统、计算机设备及存储介质
Zhang et al. Missing value imputation based on deep generative models
US20210300390A1 (en) Efficient computational inference using gaussian processes
US10061876B2 (en) Bounded verification through discrepancy computations
US10482351B2 (en) Feature transformation device, recognition device, feature transformation method and computer readable recording medium
Advani et al. An equivalence between high dimensional bayes optimal inference and m-estimation
Bui et al. Training deep Gaussian processes using stochastic expectation propagation and probabilistic backpropagation
JP2021149988A (ja) 情報処理装置及び情報処理方法
WO2022247092A1 (en) Methods and systems for congestion prediction in logic synthesis using graph neural networks
KR20190141581A (ko) 데이터 예측을 위한 인공신경망을 학습하는 방법 및 장치
US20210182675A1 (en) Computer Vision Systems and Methods for End-to-End Training of Convolutional Neural Networks Using Differentiable Dual-Decomposition Techniques
WO2020155083A1 (zh) 神经网络的分布式训练方法及装置
Sharir et al. Tractable generative convolutional arithmetic circuits
WO2021244203A1 (zh) 参数优化的方法、电子设备和存储介质