TWI767000B - 產生波形之方法及電腦儲存媒體 - Google Patents
產生波形之方法及電腦儲存媒體 Download PDFInfo
- Publication number
- TWI767000B TWI767000B TW107117284A TW107117284A TWI767000B TW I767000 B TWI767000 B TW I767000B TW 107117284 A TW107117284 A TW 107117284A TW 107117284 A TW107117284 A TW 107117284A TW I767000 B TWI767000 B TW I767000B
- Authority
- TW
- Taiwan
- Prior art keywords
- neural network
- feedforward
- output
- waveform
- input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000003860 storage Methods 0.000 title claims description 9
- 238000013528 artificial neural network Methods 0.000 claims abstract description 195
- 238000012549 training Methods 0.000 claims description 54
- 238000009826 distribution Methods 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 18
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 2
- 230000001143 conditioned effect Effects 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 20
- 238000004590 computer program Methods 0.000 description 13
- 230000003750 conditioning effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000026676 system process Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
- Circuit For Audible Band Transducer (AREA)
- Supply And Distribution Of Alternating Current (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
一種前饋生成神經網路在一單一神經網路推理中產生包含一特定類型之多個輸出樣本之一輸出實例。視情況,可基於一內容背景輸入來調節該產生。例如,該前饋生成神經網路可產生一語音波形,該語音波形係基於一輸入文字片段之語言特徵調節之該文字片段之一言語表達。
Description
本說明書係關於生成神經網路。
神經網路係採用一或多個非線性單元層以針對一所接收輸入預測一輸出之機器學習模型。除一輸出層以外,一些神經網路亦包含一或多個隱藏層。各隱藏層之輸出被用作網路中之下一層(即,下一隱藏層或輸出層)之輸入。網路之各層根據一各自參數集之當前值從一所接收輸入產生一輸出。
一般言之,本說明書描述一種前饋生成神經網路。一前饋生成神經網路係在一單一神經網路推理中產生包含一特定類型之多個輸出樣本之一輸出實例的一神經網路。視情況,可基於一內容背景輸入調節該產生。例如,該前饋生成神經網路可產生一語音波形,該語音波形係基於一輸入文字片段之語言特徵調節之該文字片段之一言語表達。
因此,在一個實施方案中,本說明書描述一種訓練一前饋生成神經網路之方法,該前饋生成神經網路具有複數個前饋參數且經組態以產生基於一第二類型之內容背景輸入調節之一第一類型之輸出實例。各輸出實例包含複數個產生時間步驟之各者處之一各自輸出樣本。該前饋生
成神經網路經組態以接收包括一內容背景輸入之一前饋輸入且處理該前饋輸入以產生一前饋輸出,該前饋輸出針對該等產生時間步驟之各者界定該產生時間步驟處之該輸出樣本之可能值之一各自概率分佈。該訓練包括:獲得一訓練內容背景輸入;使用該前饋生成神經網路根據該等前饋參數之當前值處理包括該訓練內容背景輸入之一訓練前饋輸入以產生一訓練前饋輸出;及使用一受訓練自迴歸生成神經網路處理該訓練內容背景輸入。該受訓練自迴歸生成神經網路已經訓練以針對該複數個產生時間步驟之各者自迴歸地產生一自迴歸輸出,該自迴歸輸出界定基於前述產生時間步驟處之輸出樣本調節之該產生時間步驟處之該輸出樣本之可能值之一概率分佈。該方法進一步包括判定關於該等前饋參數之一第一梯度以最小化一散度損耗。該散度損耗針對該等產生時間步驟之各者取決於從(在)藉由該產生時間步驟之該自迴歸輸出界定之該概率分佈至(與)藉由該訓練前饋輸出界定之該產生時間步驟之該概率分佈(之間)的一第一散度。該方法進一步包括至少部分基於該第一梯度判定對該等前饋參數之該等當前值之一更新。
隨後描述此等方法之優點。一般言之但非必要地,該前饋輸入進一步包括該等產生時間步驟之各者處之一各自雜訊輸入。在一些實施方案中,此促進並行產生一組樣本之輸出分佈,因此比一自迴歸手段快得多。
該第一散度可為例如一KL散度或一Jensen-Shannon散度。該散度損耗可至少部分取決於該等時間步驟之各者處之該等第一散度之一總和。
該訓練可進一步包括獲得該訓練內容背景輸入之一實況輸
出實例且藉由從該等概率分佈取樣而從該訓練前饋輸出產生一預測輸出實例。該預測輸出實例可用於判定該訓練之另一梯度。
因此,該實況輸出實例及該預測輸出實例可界定波形,諸如語音波形。該訓練可接著進一步包括:產生該實況輸出實例之一第一量值譜圖;產生該預測輸出實例之一第二量值譜圖;及判定關於該等前饋參數之一第二梯度以最小化取決於該第一量值譜圖與該第二量值譜圖之間的差異之一量值損耗。判定對該等前饋參數之該等當前值之該更新可包括至少部分基於該第二梯度判定該更新。一量值譜圖可包括例如界定一波形之一振幅、能量或類似量值譜圖(例如表示不同頻帶中之功率)之資料。
另外或替代地,該訓練可包括使用一受訓練特徵產生神經網路處理該實況輸出實例以獲得該實況輸出實例之特徵。該受訓練特徵產生神經網路可為採用一波形作為輸入之一預訓練神經網路。該訓練可進一步包括使用該受訓練特徵產生神經網路處理該預測輸出實例以獲得該預測輸出實例之特徵。該訓練可接著包括判定關於該等前饋參數之一第三梯度以最小化一知覺損耗。該知覺損耗可界定為取決於該實況輸出實例之該等特徵與該預測輸出實例之該等特徵之間的一差異量度之一損耗。判定對該等前饋參數之該等當前值之該更新可包括至少部分基於該第三梯度判定該更新。
特定言之當該等輸出實例包括語音波形時,該特徵產生神經網路可包括一語音辨識神經網路。更一般言之,該特徵產生神經網路可包括一受訓練自迴歸生成神經網路。在此等及其他實施方案中,該等特徵可為該特徵產生網路中之一中間層之輸出。
該訓練可另外或替代地包括:獲得一不同內容背景輸入;
使用該受訓練自迴歸生成神經網路處理該不同內容背景輸入以針對該複數個產生時間步驟之各者獲得一各自不同自迴歸輸出;及判定關於該等前饋參數之一第四梯度以最大化一對比損耗。廣義上,此處之對比損耗界定兩個分佈之間的一相似性量度。因此,該對比損耗可界定為針對該等產生時間步驟之各者至少部分取決於來自藉由該產生時間步驟之該不同自迴歸輸出界定之該概率分佈及藉由該訓練前饋輸出界定之該產生時間步驟之該概率分佈之一第二散度之一損耗。判定對該等前饋參數之該等當前值之該更新可接著包括至少部分基於該第四梯度判定該更新。
本文亦描述一種產生一輸出實例之方法。該方法可包括接收一內容背景輸入且藉由使用已使用如上文描述之一方法訓練之一前饋生成神經網路處理包括該內容背景輸入之一前饋網路輸入而產生一輸出實例。該前饋網路輸入可包含一雜訊輸入。
本文進一步描述一種方法,其包括:接收用以產生一波形之一請求,該波形包括基於表示文字輸入特徵之一調節張量調節之複數個樣本;獲得包含該複數個樣本之各者之一雜訊值之一隨機雜訊向量;及使用一前饋生成神經網路處理該隨機雜訊向量以產生該波形。該前饋生成神經網路可包括卷積神經網路層群組之一序列。可基於該調節張量調節各群組。各群組可經組態以接收一輸入波形且將基於該調節張量調節之該波形變換成一輸出波形。
第一卷積神經網路層群組之該輸入波形可為該隨機雜訊向量。除該第一群組以外的各卷積神經網路層群組之該輸入波形可為緊接在該群組之前的群組之一輸出波形。該所產生波形可為最後卷積神經網路層群組之輸出。
在一些實施方案中,一卷積神經網路層群組可包括具有藉由該調節張量閘控之一啟動功能之一或多個層。例如,該啟動功能可為使該調節張量與一或多個可學習權重卷積之一功能。各卷積層群組可包含各包含一或多個擴展卷積層之一或多個剩餘區塊,從而促進模型化長期因果相依性。例如,在一些實施方案中,各卷積層群組可具有類似於WaveNet(隨後參考)之一結構,但採用一隨機雜訊向量作為輸入。卷積神經網路(CNN)層群組之序列可包括輸入與輸出之間的CNN層群組之一鏈。
該前饋生成神經網路可產生界定該複數個樣本之各者之可能值之一各自概率分佈之一輸出。該處理可進一步包括使用該對應概率分佈選擇該等樣本之各者之一值。
本說明書結合系統及電腦程式組件使用術語「組態」。一或多個電腦之一系統經組態以執行特定操作或動作意謂該系統已安裝於其軟體、韌體、硬體或其等之一組合上,軟體、韌體、硬體或其等之一組合經操作以導致該系統執行操作或動作。一或多個電腦程式經組態以執行特定操作或動作意謂一或多個程式包含當藉由資料處理設備執行時導致該設備執行操作或動作之指令。
可在特定實施例中實施本說明書中描述之標的物,以實現以下優點之一或多者。
自迴歸神經網路藉由在各時間步驟處執行一正向傳送而產生跨多個時間步驟之輸出實例。在一給定時間步驟處,該自迴歸神經網路產生包含於基於已產生之該等輸出樣本調節之該輸出實例中之一新輸出樣本。此可導致一高品質輸出實例但可消耗大量計算資源且花費大量時間,即,因為需要在基於在先前時間步驟處執行之處理調節之較大數目個時間
步驟處執行處理。
另一方面,如本說明書中描述之一前饋生成神經網路可比一自迴歸生成神經網路更快地產生輸出實例同時維持該等所產生輸出實例之一高品質程度。
特定言之,該所描述前饋生成神經網路在一單一推理步驟中產生該輸出實例,即,透過該神經網路之一單一正向傳送。相對於由一自迴歸神經網路消耗之時間,此極大減少產生該輸出實例所需之時間及計算資源量。
另外,由於該前饋神經網路之架構、該神經網路受訓練之方式或兩者,該前饋生成神經網路可產生具有相當於由該受訓練自迴歸神經網路產生之輸出實例之品質之輸出實例。
特定言之,該前饋神經網路可接收作為輸入之一雜訊向量且透過(基於該內容背景輸入調節之)多個卷積神經網路層群組處理該雜訊。由於此架構,可有效地基於該內容背景輸入調節該神經網路以產生一高品質輸出實例。另外,該前饋神經網路可具有比該自迴歸神經網路更少之參數及更小之計算複雜性。例如,該自迴歸神經網路亦可為一卷積神經網路,但可為具有比該前饋神經網路更多之參數之一計算上更複雜神經網路。例如,該自迴歸神經網路可包含該前饋神經網路中不存在之跨越連接、具有比該前饋神經網路更大量之隱藏單元或兩者。儘管如此,該前饋神經網路仍可歸因於本說明書中描述之技術而產生具有相稱品質之輸出實例。
再者,藉由訓練該前饋神經網路以匹配由一受訓練自迴歸神經網路產生之輸出,該前饋神經網路可經訓練以在一小段時間內產生具
有相當於該受訓練自迴歸神經網路之品質之樣本。可視情況使用其他損耗進一步增強該前饋神經網路之該訓練(例如,一量值損耗、一知覺損耗或一對比損耗之一或多者)以在不增加該前饋神經網路之計算佔用面積的情況下改良該受訓練前饋神經網路之效能。
此可允許該前饋神經網路用於在其中產生需要具有低延遲之高品質輸出實例之環境中或在可用於執行該神經網路之計算資源量受限時產生輸出實例。例如,此可在該神經網路經部署於一行動裝置上或具有受限處理功率及記憶體之一專用個人計算裝置(例如,一智慧型揚聲器或其他智慧型裝置)上時發生。
在下文之附圖及描述中提出本說明書之標的物之一或多項實施例之細節。自描述、圖式及發明申請專利範圍將變得明白標的物之其他特徵、態樣及優點。
100:神經網路系統
102:內容背景輸入
104:雜訊
110:前饋生成神經網路
112:輸出實例
120:訓練子系統
130:自迴歸生成神經網路
140:特徵產生神經網路
200:程序
202:步驟
204:步驟
206:步驟
300:程序
302:步驟
304:步驟
306:步驟
400:程序
402:步驟
404:步驟
406:步驟
408:步驟
410:步驟
412:步驟
414:步驟
416:步驟
500:圖
502:前饋輸出
圖1展示一例示性神經網路系統。
圖2係用於產生一輸出實例之一例示性程序之一流程圖。
圖3係用於訓練一前饋生成神經網路之一例示性程序之一流程圖。
圖4係用於判定對前饋參數之當前值之一更新之一例示性程序之一流程圖。
圖5係用於訓練前饋生成神經網路110之自迴歸生成神經網路130之一圖。
各種圖式中之相同元件符號及命名指示相同元件。
圖1展示一例示性神經網路系統100。神經網路系統100係實施為其中可實施下文描述之系統、組件及技術之一或多個位置中之一或多個電腦上之電腦程式之一系統之一實例。
神經網路系統100接收作為輸入之一內容背景輸入102及雜訊104且產生基於內容背景輸入102及雜訊104調節之一輸出實例112。
例如,內容背景輸入102可為文字之語言特徵且輸出實例112可為以言語表達(即,說出)之文字之一波形。即,輸出實例可為特性化波形之一值序列,即,振幅值或壓縮或壓縮擴展振幅值之一序列。
作為另一實例,內容背景輸入102可為文字且輸出實例112可為由文字描述之一影像。
作為又另一實例,內容背景輸入102可為一視訊圖框序列且輸出實例112可為跟隨視訊圖框序列中之最後圖框之一視訊圖框。
特定言之,神經網路系統100包含一前饋生成神經網路110。
前饋生成神經網路110係經組態以接收內容背景輸入102及雜訊104且產生界定輸出實例112之一前饋輸出之一神經網路。
輸出實例112包含多個輸出樣本(即,數值),且前饋生成神經網路110在一單一推理步驟中(即,在透過前饋生成神經網路110之一單一正向傳送中)產生界定多個數值之各者的前饋輸出,且特定言之未基於藉由神經網路110在任何先前推理步驟處執行的任何處理來進行調節。
一般言之,雜訊係包含輸出實例中之樣本之各者之一雜訊值之一隨機雜訊向量。
特定言之,前饋輸出針對輸出實例112中之各樣本界定樣
本之可能值之一各自概率分佈。
例如,針對各樣本,前饋輸出可包含樣本之一預測值及/或樣本之可能值之一分佈的參數。例如,參數可為樣本之可能值之一邏輯分佈的平均值及標準差。因此,在一些實施方案中,前饋輸出針對各樣本包含樣本之一預測值以及一邏輯分佈的平均值及標準差。如下文描述,在其中CNN層群組經堆疊於序列中之處,僅樣本可從一個層群組傳送至下一層群組,且可藉由各群組從個別平均值及標準差輸出來判定總平均值及標準差。在一些其他實施方案中,前饋輸出可不明確包含一預測樣本值,但可從可能樣本值之分佈的參數判定預測樣本值。例如,預測樣本值可經判定為下列項目的總和:(i)樣本之對應雜訊值與樣本之分佈之平均值的乘積;及(ii)樣本的標準差。
當輸出實例係一波形時,前饋生成神經網路110大體上包含卷積神經網路層群組之一序列。基於一調節張量來調節各群組,即,基於內容背景輸入102(例如,提供語音及持續時間資訊之語言特徵)來進行調節。各群組經組態以接收一輸入波形,且將基於調節張量調節之輸入波形變換成一輸出波形。在https://arxiv.org/pdf/1609.03499.pdf可獲得之WAVENET:A GENERATIVE MODEL FOR RAW AUDIO中描述基於一調節張量調節一卷積層,其之全部內容係以引用的方式併入本文中。因此,對於第一卷積層群組,輸入波形係隨機雜訊向量,且對於最後卷積層群組,輸出係界定輸出實例之前饋輸出。
在下文參考圖5更詳細描述前饋生成神經網路110之例示性架構。在下文參考圖2更詳細描述使用前饋生成神經網路110產生一輸出實例。
為了訓練前饋生成神經網路110以產生精確前饋輸出,神經網路系統100亦包含一訓練子系統120,其訓練前饋生成神經網路110以判定前饋生成神經網路110之參數(在本說明書中稱為「前饋參數」)之受訓練值。
一旦已訓練前饋生成神經網路110,網路110便可經部署且用於針對新接收之內容背景輸入產生輸出實例。例如,網路110可在具有受限計算資源或需要憑藉極低延遲產生語音之一使用者裝置(例如,一行動裝置或一專用智慧型裝置)上實施。
特定言之,訓練子系統120使用一受訓練自迴歸生成神經網路130訓練前饋生成神經網路110。
自迴歸生成神經網路130亦經組態以接收與前饋生成神經網路110相同類型之內容背景輸入且產生與由前饋生成神經網路110產生之輸出實例相同類型之輸出實例。然而,自迴歸生成神經網路130經組態以在多個時間步驟內以一自迴歸方式產生一輸出實例中之值,即,產生基於在先前時間步驟處產生之輸出實例中之先前樣本之值調節之輸出實例中之各樣本。
例如,當輸入係語言特徵且輸出係波形時,自迴歸生成神經網路130可為一自迴歸卷積神經網路。在https://arxiv.org/pdf/1609.03499.pdf可獲得之WAVENET:A GENERATIVE MODEL FOR RAW AUDIO中更詳細描述此一自迴歸神經網路之一實例。
一般言之,自迴歸生成神經網路130一旦經訓練,便能夠產生非常高品質輸出。然而,由於前饋神經網路110在一單一傳送中產生
輸出實例,所以前饋神經網路110可能夠產生具有比自迴歸神經網路130低得多的延遲之輸出實例。
如將在下文更詳細描述,當使用自迴歸生成神經網路130訓練前饋神經網路110時,訓練子系統使自迴歸神經網路130之參數之值保持固定且使用由自迴歸神經網路130產生之輸出以評估由前饋神經網路110在訓練期間產生之輸出之品質。
在下文參考圖5更詳細描述自迴歸生成神經網路130之例示性架構。
視情況,訓練子系統120亦使用一特徵產生神經網路140訓練前饋生成神經網路110。
特徵產生神經網路140係經組態以接收與由前饋生成神經網路110及自迴歸生成神經網路130產生之輸出實例相同類型之輸入且產生輸入之特徵作為處理輸入之部分之一神經網路。特徵產生神經網路140大體上可為處理輸入以基於輸入產生一得分、分類或迴歸輸出之任何神經網路。
特定言之,訓練子系統120使用由特徵產生神經網路140產生之特徵來訓練前饋生成神經網路110。特徵可為網路140之輸出層之輸出、網路140之一中間層之輸出或網路140之兩個或兩個以上層之輸出之一組合。
例如,特徵產生神經網路140可為將與輸出實例相同類型之一輸入轉換成與內容背景輸入相同類型之一輸出之一神經網路且特徵可為特徵產生神經網路140之隱藏層之一或多者之輸出。
即,當輸出實例係波形且內容背景資料係文字時,特徵產
生神經網路140可為將一話語之波形轉換成話語之一轉錄之一語音辨識神經網路。
作為另一實例,特徵產生神經網路140及自迴歸生成神經網路130可為相同神經網路且特徵可為自迴歸生成神經網路130之隱藏層之一或多者之輸出,即,並非概率分佈係自迴歸生成神經網路130之輸出層之輸出。
特徵產生神經網路140及自迴歸生成神經網路130兩者在用於訓練前饋神經網路110之前被充分訓練。
在下文參考圖3及圖4更詳細描述訓練前饋生成神經網路110。
圖2係用於使用前饋生成神經網路產生一輸出實例之一例示性程序200之一流程圖。為方便起見,程序200將描述為由定位於一或多個位置中之一或多個電腦之一系統執行。例如,適當程式化之一神經網路系統(例如,圖1之神經網路系統100)可執行程序200。
系統接收呈一調節張量之形式之一內容背景輸入(步驟202)。
系統獲得用於產生輸出實例之雜訊(步驟204)。特定言之,雜訊係包含輸出實例中之樣本之各者之一雜訊值之一隨機雜訊向量。例如,系統可對來自一預定分佈(例如,一邏輯分佈)之雜訊向量中之各雜訊值取樣。
系統使用前饋生成神經網路處理雜訊向量以產生輸出實例(步驟206)。即,系統使用前饋生成神經網路處理雜訊向量,同時基於調節張量調節神經網路。當前饋生成神經網路包含多個卷積層群組之一序列
時,各群組接收一輸入波形且將輸入波形映射至界定一輸出波形之一輸出。對於第一群組,輸入波形係雜訊向量且對於各其他群組,輸入波形係藉由序列中之前述群組之輸出界定之波形。
圖3係用於訓練一前饋生成神經網路之一例示性程序300之一流程圖。為方便起見,程序300將描述為由定位於一或多個位置中之一或多個電腦之一系統執行。例如,適當程式化之一神經網路系統(例如,圖1之神經網路系統100)可執行程序300。
系統獲得規定一受訓練自迴歸生成神經網路之資料(步驟302)。
視情況,系統獲得規定一特徵產生神經網路之資料(步驟304)。如上文描述,特徵產生神經網路可為與自迴歸神經網路相同或不同之一網路。
系統使用受訓練自迴歸生成神經網路及視情況受訓練特徵產生神經網路訓練一前饋生成神經網路(步驟306)。
特定言之,系統訓練前饋生成模型以藉由最佳化至少部分取決於由前饋生成模型產生之概率分佈與由受訓練自迴歸生成神經網路產生之概率分佈之間的一散度之一目標函數而從前饋參數之初始值判定前饋參數之受訓練值。
在訓練期間,系統調整前饋參數之值,同時使自迴歸參數之受訓練值及(若使用)特徵產生參數之受訓練值保持固定。
特定言之,系統訓練前饋生成神經網路以最小化包含一散度損耗及視情況一量值損耗、一知覺損耗或一對比損耗之一或多者之一損耗函數。當損耗函數包含多個損耗時,損耗函數可為損耗之一加權總和。
將在下文參考圖4更詳細描述個別損耗。
圖4係用於判定對前饋參數之當前值之一更新之一例示性程序400之一流程圖。為方便起見,程序400將描述為由定位於一或多個位置中之一或多個電腦之一系統執行。例如,適當程式化之一神經網路系統(例如,圖1之神經網路系統100)可執行程序400。
系統可重複執行程序400以藉由重複調整前饋參數之值而訓練前饋生成神經網路。
系統獲得一訓練內容背景輸入(步驟402)。例如,系統可對一批訓練內容背景輸入取樣且所獲得訓練內容背景輸入可為該批中之輸入之一者。
系統使用前饋生成神經網路根據前饋參數之當前值處理包含訓練內容背景輸入之一訓練前饋輸入以產生界定一輸出實例之一訓練前饋輸出(步驟404)。如上文描述,訓練前饋輸出包含產生時間步驟之各者之一各自概率分佈之參數。
系統使用受訓練自迴歸生成神經網路處理訓練內容背景輸入以針對複數個產生時間步驟之各者產生一各自自迴歸輸出(步驟406)。如上文描述,一給定產生時間步驟之自迴歸輸出亦界定該時間步驟之一概率分佈。在各時間步驟處,系統基於由前饋神經網路產生之輸出實例之對應部分調節自迴歸生成神經網路,即,使得受訓練自迴歸生成神經網路用於為由前饋神經網路產生之輸出實例打分。即,當產生對應於輸出實例中之一給定樣本之自迴歸輸出時,基於訓練內容背景輸入及由前饋神經網路產生之在輸出實例中之給定樣本之前的樣本調節自迴歸生成神經網路。此在圖5中以圖形描述且在隨附描述中更詳細描述。
系統判定關於前饋參數之一散度損耗之一梯度(即,用以最小化散度損耗之一梯度)。散度損耗針對產生時間步驟之各者取決於來自藉由產生時間步驟之自迴歸輸出界定之概率分佈及藉由訓練前饋輸出界定之產生時間步驟之概率分佈之一散度(步驟408)。特定言之,散度損耗可為產生時間步驟之各者之散度之一總和。系統可使用量測一個概率分佈如何從另一概率分佈發散之各種散度量度之任一者。例如,散度可為一KL(Kullback-Leibler)散度。作為另一實例,散度可為一Jensen-Shannon散度。
藉由最小化此散度損耗,系統訓練前饋網路以嘗試在已藉由生成神經網路學習之分佈下匹配其自身樣本之概率。
此處,對於從前饋模型分佈pF提取之每一樣本xt,可並行判定來自自迴歸模型之值pA且接著可藉由從各時間步驟t之pF提取多個不同樣本而評估熵項H(pF,pA)。
當輸出實例係波形時,系統視情況亦判定關於前饋參數之
一量值損耗(亦稱為功率損耗)之一梯度,即,用以最小化關於前饋參數之量值損耗之一梯度(步驟410)。
特定言之,為了判定此梯度,系統獲得訓練內容背景輸入之一實況輸出實例。實況輸出實例係應藉由自迴歸及前饋生成神經網路針對訓練內容背景輸入產生之輸出實例,即,訓練內容背景輸入之一已知輸出。系統接著產生實況訓練實例之一量值譜圖。
系統亦從訓練前饋輸出產生一預測輸出實例,即,藉由對來自產生時間步驟之各者處之概率分佈之一輸出樣本取樣。系統亦產生預測輸出實例之一量值譜圖。
系統接著判定關於取決於實況輸出實例之量值譜圖與預測輸出實例之量值譜圖之間的差異之一量值損耗之前饋參數之一梯度,即,用以鼓勵兩個輸出實例具有類似量值譜圖。此可為例如實況波形及預測波形之短期傅立葉變換(Short Term Fourier Transform)之一方差。包含此一量值損耗項可幫助減小前饋生成模型崩潰至類似低語之一高熵模式之風險。
系統進一步視情況判定關於訓練內容背景輸入之前饋參數之一知覺損耗之一梯度(步驟412)。
為判定此梯度,系統使用受訓練特徵產生神經網路處理實況輸出實例以獲得實況輸出實例之特徵且接著使用受訓練特徵產生神經網路處理預測輸出實例以獲得預測輸出實例之特徵。
系統接著判定用以最小化取決於實況輸出實例之特徵與預測輸出實例之特徵之間的一差異量度之一知覺損耗之一梯度。例如,當特徵係具有尺寸Lk×Ck之一層之輸出時,知覺損耗lossaux可滿足:
其中φk(x)係實況輸出實例之特徵且φ k ()係預測輸出實例之特徵。包含此一知覺損耗項可幫助確保良好特徵表示,例如特徵可包含辨識電話用以處罰較差發音之特徵。
作為另一實例,損耗可為特徵之間的歐幾里德距離(Euclidean distance)。
系統進一步視情況判定關於前饋參數之一對比損耗之一梯度(步驟414)。
為判定此梯度,系統獲得一不同內容背景輸入,即,一內容背景輸入之實況輸出實例係不同於訓練內容背景輸入之實況輸出實例。
系統使用受訓練自迴歸生成神經網路處理不同內容背景輸入,以針對複數個產生時間步驟之各者獲得一各自不同自迴歸輸出。即,系統基於不同內容背景輸入來調節受訓練自迴歸生成神經網路,同時亦繼續基於由前饋神經網路產生之輸出樣本來調節受訓練自迴歸生成神經網路。
系統接著判定關於前饋參數之一梯度,以最大化針對產生時間步驟之各者之至少部分取決於從藉由產生時間步驟之不同自迴歸輸出界定之概率分佈至藉由訓練前饋輸出界定之產生時間步驟之概率分佈之一散度之一對比損耗(或最小化對比損耗之負值)。例如,對比損耗可為調節向量相同時之散度損耗與調節向量不同時之損耗之間之一差異,視情況具有此等項之一相對加權。如同散度損耗,對比損耗可為產生時間步驟之各者之個別散度之一總和,且散度量度可相同於用於散度損耗之散度量度。
因此,除在基於相同資訊來調節前饋模型及自迴歸模型時最小化散度損耗以外,對比損耗亦可在基於不同資訊調節模型時最大化散度損耗。此不利於具有一高概率之波形而無關於調節向量。
系統判定對前饋參數之當前值之一更新(步驟416)。特定言之,系統從散度損耗之梯度及使用時之量值損耗、知覺損耗及對比損耗之梯度來判定更新。如上文描述,當使用多個損耗時,更新係該等損耗之一加權總和。
系統大體上針對一批訓練內容背景輸入中之各訓練內容背景輸入重複程序400以產生對各訓練內容背景輸入之當前值之一各自更新且接著使更新相加以產生一最終更新。系統可接著使用最終更新更新參數之當前值。系統更新當前值之方式取決於系統在更新參數時所使用之最佳化器。例如,當使用隨機梯度下降時,系統可將一學習率應用至最終更新且接著將結果加減至參數之當前值。
圖5係用於訓練前饋生成神經網路110之自迴歸生成神經網路130之一圖500。如圖5中展示,兩個神經網路經組態以產生波形且兩個神經網路之調節輸入102係一文字片段之語言特徵。
另外,如圖5中展示,兩個神經網路係卷積神經網路。特定言之,圖5之簡化實例展示具有一單一擴展卷積層群組之兩個神經網路,其中擴展在群組中之各層之後增大。然而,實際上,兩個神經網路可包含多個擴展卷積層群組之一序列,其中各群組經組態以接收一輸入波形且將基於調節張量(即,基於語言特徵)調節之波形變換成一輸出波形。特定言之,兩個神經網路中之卷積層具有不僅基於藉由該層執行之卷積之輸出調節而且亦基於調節張量調節之閘控啟動功能,如在
https://arxiv.org/pdf/1609.03499.pdf可獲得之WAVENET:A GENERATIVE MODEL FOR RAW AUDIO中描述。即,擴展可在各群組中之最後一層之後重設。在一些情況中,兩個網路亦包含從一給定群組之輸入至給定群組之輸出之剩餘連接。
一般言之,兩個神經網路之架構可為較大程度上相同的。例如,兩個網路可包含相同數目個卷積層群組。然而,前饋生成神經網路110經組態以接收雜訊輸入104,而自迴歸生成神經網路130需要基於一部分產生之輸出實例(圖5之「所產生樣本」)進行調節。因此,前饋生成神經網路110可在一單一推理步驟內產生輸出實例,而自迴歸生成神經網路130需要許多推理步驟來產生一輸出實例。
另外,在一些實施方案中,前饋生成神經網路110之架構在計算上比自迴歸生成神經網路130之架構較不複雜。例如,雖然兩個網路具有相同數目個卷積層群組,但自迴歸生成神經網路130可具有連接各卷積層群組之輸出之跨越連接,而前饋生成神經網路110不具有跨越連接。作為另一實例,前饋生成神經網路110可在網路之閘控及剩餘組件中具有比自迴歸生成神經網路130更少之隱藏單元。
現在參考圖5之實例,在前饋網路110之訓練期間的一給定反覆處,前饋網路110已產生界定包含所產生樣本x0至xi之一輸出實例之一前饋輸出502。例如,如上文描述,前饋輸出502可針對各輸出樣本包含輸出樣本之一所產生值及輸出樣本之可能值之一分佈之參數。作為另一實例,亦如上文描述,前饋輸出502可僅包含分佈之參數且可基於對應雜訊值及參數判定樣本。
接著在一給定產生時間步驟處將由前饋網路110產生之輸
出實例中之所產生樣本x0至xi-1(即,xi之前的所有樣本)作為輸入饋送至自迴歸網路130。在給定產生時間步驟處,自迴歸網路130產生界定輸出實例中之輸出樣本i之可能值之一概率分佈之一自迴歸輸出130。
兩個概率分佈(即,由前饋神經網路110產生之概率分佈及由基於由前饋神經網路110產生之輸出樣本調節之自迴歸神經網路130產生之概率分佈)用於如上文描述般訓練前饋神經網路110而不調整受訓練自迴歸神經網路130。因此,受訓練自迴歸神經網路130用於評估由前饋神經網路110產生之輸出之品質。
本說明書中描述之標的物及功能操作之實施例可依以下各者實施:數位電子電路、有形體現之電腦軟體或韌體、電腦硬體(包含本說明書中揭示之結構及其等結構等效物),或其等之一或多者之組合。本說明書中描述之標的物之實施例可實施為一或多個電腦程式,即,在一有形非暫時性程式載體上編碼以供資料處理設備執行或控制該資料處理設備之操作之電腦程式指令之一或多個模組。替代地或另外,程式指令可在一人工產生的傳播信號(例如,一機器產生電、光學或電磁信號)上編碼,產生該信號以編碼資訊以供傳輸至適當接收器設備從而供一資料處理設備執行。電腦儲存媒體可為一機器可讀儲存裝置、一機器可讀儲存基板、一隨機或串列存取記憶體裝置或其等之一或多者之一組合。
術語「資料處理設備」涵蓋用於處理資料之各種設備、裝置及機器,包含例如一可程式化處理器、一電腦或多個處理器或電腦。設備可包含專用邏輯電路,例如一FPGA(場可程式化閘極陣列)或一ASIC(特定應用積體電路)。設備除包含硬體之外,亦可包含產生所述電腦程式之一執行環境之程式碼,例如構成處理器韌體、一協定堆疊、一資
料庫管理系統、一作業系統或其等之一或多者之一組合之程式碼。
可用任何形式之程式設計語言撰寫一電腦程式(其亦可被稱為或描述為一程式、軟體、一軟體應用程式、一應用程式、一模組、一軟體模組、一指令檔或程式碼),包含編譯或解譯語言或宣告或程序語言;且其可用任何形式予以部署,包含作為一獨立程式或作為一模組、組件、副常式或適用於一運算環境中之其他單元。一電腦程式可(但無需)對應於一檔案系統中之一檔案。一程式可儲存於保存其他程式或資料(例如儲存於一標記語言文件中之一或多個指令檔)之一檔案之一部分中、儲存於專用於所述程式之一單一檔案中或儲存於多個協同檔案(例如儲存一或多個模組、副程式或程式碼之部分之檔案)中。一電腦程式可經部署以在一個電腦上或在定位於一個位置處或跨多個位置分佈且由一通信網路互連之多個電腦上執行。
本說明書中描述之程序及邏輯流程可由一或多個可程式化電腦執行,該一或多個可程式化電腦執行一或多個電腦程式以藉由對輸入資料進行操作及產生輸出而執行功能。亦可藉由專用邏輯電路(例如一FPGA(場可程式化閘極陣列)或一ASIC(特定應用積體電路))執行程序及邏輯流程,且設備亦可實施為該專用邏輯電路。
藉由實例,適用於執行一電腦程式之電腦包含、可基於通用或專用微處理器或兩者,或任何其他種類之中央處理單元。一般言之,一中央處理單元將從一唯讀記憶體或一隨機存取記憶體或兩者接收指令及資料。一電腦之基本元件係用於執行(perform或execute)指令之一中央處理單元及用於儲存指令及資料之一或多個記憶體裝置。一般言之,一電腦亦將包含用於儲存資料之一或多個大容量儲存裝置(例如,磁碟、磁光碟
或光碟),或可操作地耦合以自該大容量儲存裝置接收資料或傳送資料至該大容量儲存裝置,或既自該大容量儲存裝置接收資料亦傳送資料至該大容量儲存裝置。然而,一電腦未必具有此等裝置。而且,一電腦可嵌入另一裝置中,例如一行動電話、一個人數位助理(PDA)、一行動音訊或視訊播放機、一遊戲控制台、一全球定位系統(GPS)接收器或一可攜式儲存裝置(例如一通用串列匯流排(USB)快閃隨身碟)(此處僅列舉一些)。適用於儲存電腦程式指令及資料之電腦可讀媒體包含所有形式之非揮發性記憶體、媒體及記憶體裝置,包含例如半導體記憶體裝置,例如EPROM、EEPROM及快閃記憶體裝置;磁碟,例如內部硬碟或可卸除式磁碟;磁光碟;及CD ROM及DVD-ROM磁碟。處理器及記憶體可藉由專用邏輯電路補充或併入專用邏輯電路中。
為提供與一使用者之互動,本說明書中描述之標的物之實施例可在具有用於顯示資訊給使用者之一顯示裝置(例如一CRT(陰極射線管)或LCD(液晶顯示器)監視器)及一鍵盤及一指標裝置(例如一滑鼠或一軌跡球,使用者可藉由其等提供輸入至電腦)之一電腦上實施。其他類型之裝置亦可用於提供與一使用者之互動;例如,提供至使用者之回饋可為任何形式之感測回饋,例如視覺回饋、聽覺回饋或觸覺回饋;且來自使用者之輸入可經接收為任何形式,包含聲學、語音或觸覺輸入。另外,一電腦可藉由將文件發送至供一使用者使用之一裝置及自該裝置接收文件(例如藉由回應於自一使用者之用戶端裝置上之一網頁瀏覽器接收之請求而將網頁發送至網頁瀏覽器)而與使用者互動。
可在一計算系統中實施本說明書中描述之標的物之實施例,該計算系統包含一後端組件(例如作為一資料伺服器),或包含一中介
軟體組件(例如一應用程式伺服器),或包含一前端組件(例如一用戶端電腦,其具有一圖形使用者介面、一網頁瀏覽器或一應用程式,一使用者可透過其等與本說明書中描述之標的物之一實施方案互動)或一或多個此後端組件、中介軟體組件或前端組件之任何組合。系統之組件可藉由數位資料通信之任何形式或媒體(例如一通信網路)互連。通信網路之實例包含一區域網路(「LAN」)及一廣域網路(「WAN」)(例如網際網路)。
計算系統可包含用戶端及伺服器。一用戶端及伺服器通常彼此遠離且通常透過一通信網路而互動。用戶端與伺服器之關係憑藉在各自電腦上運行且彼此具有一用戶端-伺服器關係之電腦程式而引起。
雖然本說明書含有許多特定實施方案細節,但此等不應被解釋為對本發明之範疇或者可主張之內容之限制,而應當解釋為可特定於本發明之特定實施例之特徵之描述。本說明書中在單獨實施例之內容脈絡中描述之某些特徵亦可在一單一實施例中組合實施。相反地,在一單一實施例之內容脈絡中描述之各種特徵亦可以單獨地或者以任何合適之子組合在多個實施例中實施。再者,儘管上文可將特徵描述為以特定組合起作用且即使最初如此主張,但在一些情況中,來自所主張組合之一或多個特徵可自組合中切除,且所主張組合可關於一子組合或一子組合之變動。
類似地,雖然在圖式中按一特定順序描繪操作,但此不應被理解為要求按所展示之特定順序或循序順序執行此等操作,或執行所有繪示之操作以達成所要結果。在特定境況中,多任務處理及平行處理可為有利的。而且,在上文中描述之實施例中之各種系統模組及組件之分離不應被理解為在所有實施例中皆需要此分離,且應理解所描述之程式組件及系統可大體上一起整合於一單一軟體產品中或封裝至多個軟體產品中。
已描述標的物之特定實施例。其他實施例在下列發明申請專利範圍之範疇內。例如,在發明申請專利範圍中敘述之動作可按一不同順序執行且仍達成所要結果。作為一個實例,在附圖中描繪之程序不必要求所展示之特定順序或連續順序來達成所要結果。在特定實施方案中,多任務處理及平行處理可為有利的。
400:程序
402:步驟
404:步驟
406:步驟
408:步驟
410:步驟
412:步驟
414:步驟
416:步驟
Claims (8)
- 一種產生波形之方法,其包括:接收用以產生一波形之一請求,該波形包括基於表示文字輸入特徵之一調節張量來調節之複數個樣本;獲得包含該複數個樣本之各者之一雜訊值之一隨機雜訊向量;使用一前饋生成神經網路處理該隨機雜訊向量以產生該波形,其中該前饋生成神經網路包括卷積神經網路層群組之一序列,其中基於該調節張量來調節各群組,且其中各群組經組態以接收一輸入波形,且將基於該調節張量所調節之該波形變換成一輸出波形。
- 如請求項1之方法,其中該所產生波形係最後卷積神經網路層群組之輸出。
- 如請求項1或2之方法,其中該第一卷積神經網路層群組之該輸入波形係該隨機雜訊向量。
- 如請求項1或2之方法,其中除該第一群組以外之各卷積神經網路層群組之該輸入波形係緊接在該群組之前的群組之一輸出波形。
- 如請求項1或2之方法,其中該前饋生成神經網路產生界定該複數個樣本之各者之可能值之一各自概率分佈之一輸出,且其中該處理進一步包括使用該對應概率分佈來選擇該等樣本之各者之一值。
- 如請求項1或2之方法,其中各卷積層群組包含各包含一或多個擴展卷積層中的一或多個剩餘區塊。
- 一種儲存有訓練一前饋生成神經網路之指令之電腦儲存媒體,該等指令當藉由一或多個電腦實施時導致該一或多個電腦執行如請求項1至6中任一項之各自方法之操作。
- 一種包含一或多個電腦及一或多個儲存裝置之系統,該等儲存裝置儲存指令當藉由該一或多個電腦實施時導致該一或多個電腦執行如請求項1至6中任一項之各自方法之操作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762509053P | 2017-05-20 | 2017-05-20 | |
US62/509,053 | 2017-05-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201901532A TW201901532A (zh) | 2019-01-01 |
TWI767000B true TWI767000B (zh) | 2022-06-11 |
Family
ID=62217994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107117284A TWI767000B (zh) | 2017-05-20 | 2018-05-21 | 產生波形之方法及電腦儲存媒體 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11934935B2 (zh) |
EP (2) | EP3971786B1 (zh) |
CN (2) | CN117787346A (zh) |
TW (1) | TWI767000B (zh) |
WO (1) | WO2018215404A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11080591B2 (en) | 2016-09-06 | 2021-08-03 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
EP3822863B1 (en) | 2016-09-06 | 2022-11-02 | DeepMind Technologies Limited | Generating audio using neural networks |
EP3767547B1 (en) * | 2016-09-06 | 2024-08-21 | DeepMind Technologies Limited | Processing sequences using convolutional neural networks |
JP6756916B2 (ja) | 2016-10-26 | 2020-09-16 | ディープマインド テクノロジーズ リミテッド | ニューラルネットワークを使用したテキストシーケンスの処理 |
US10621695B2 (en) * | 2017-10-31 | 2020-04-14 | Disney Enterprises, Inc. | Video super-resolution using an artificial neural network |
US10491856B2 (en) * | 2018-03-15 | 2019-11-26 | Disney Enterprises, Inc. | Video frame interpolation using a convolutional neural network |
EP3807823A1 (en) | 2018-06-12 | 2021-04-21 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
CN109817239A (zh) * | 2018-12-24 | 2019-05-28 | 龙马智芯(珠海横琴)科技有限公司 | 语音的降噪方法及装置 |
CN109587362B (zh) * | 2018-12-24 | 2020-06-26 | 龙马智芯(珠海横琴)科技有限公司 | 回声抑制的处理方法和装置 |
MX2021010406A (es) * | 2019-02-28 | 2021-09-21 | Mitsubishi Electric Corp | Dispositivo de procesamiento de datos, sistema de procesamiento de datos, y metodo de procesamiento de datos. |
US11670292B2 (en) * | 2019-03-29 | 2023-06-06 | Sony Corporation | Electronic device, method and computer program |
US11501761B2 (en) | 2019-04-05 | 2022-11-15 | Samsung Electronics Co., Ltd. | Method and apparatus for speech recognition |
US11521592B2 (en) * | 2019-09-24 | 2022-12-06 | Baidu Usa Llc | Small-footprint flow-based models for raw audio |
KR102556096B1 (ko) | 2019-11-29 | 2023-07-18 | 한국전자통신연구원 | 이전 프레임의 정보를 사용한 오디오 신호 부호화/복호화 장치 및 방법 |
US11574093B2 (en) * | 2019-12-20 | 2023-02-07 | Google Llc | Neural reparameterization for optimization of physical designs |
US11295725B2 (en) * | 2020-07-09 | 2022-04-05 | Google Llc | Self-training WaveNet for text-to-speech |
CN117083667A (zh) * | 2021-06-01 | 2023-11-17 | 渊慧科技有限公司 | 预测用于训练语音合成神经网络的频谱表示 |
EP4420117A2 (en) * | 2022-09-07 | 2024-08-28 | Google LLC | Generating audio using auto-regressive generative neural networks |
CN116245962B (zh) * | 2023-03-16 | 2023-12-22 | 新疆量子通信技术有限公司 | 用于无线传输到区块链服务器的数据提取系统及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10867597B2 (en) * | 2013-09-02 | 2020-12-15 | Microsoft Technology Licensing, Llc | Assignment of semantic labels to a sequence of words using neural network architectures |
US9665823B2 (en) | 2013-12-06 | 2017-05-30 | International Business Machines Corporation | Method and system for joint training of hybrid neural networks for acoustic modeling in automatic speech recognition |
WO2016077797A1 (en) | 2014-11-14 | 2016-05-19 | Google Inc. | Generating natural language descriptions of images |
US10186252B1 (en) * | 2015-08-13 | 2019-01-22 | Oben, Inc. | Text to speech synthesis using deep neural network with constant unit length spectrogram |
KR102494139B1 (ko) | 2015-11-06 | 2023-01-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법 |
JP6480644B1 (ja) * | 2016-03-23 | 2019-03-13 | グーグル エルエルシー | マルチチャネル音声認識のための適応的オーディオ強化 |
US20190050710A1 (en) * | 2017-08-14 | 2019-02-14 | Midea Group Co., Ltd. | Adaptive bit-width reduction for neural networks |
-
2018
- 2018-05-21 US US15/985,463 patent/US11934935B2/en active Active
- 2018-05-21 TW TW107117284A patent/TWI767000B/zh active
- 2018-05-22 EP EP21207203.7A patent/EP3971786B1/en active Active
- 2018-05-22 CN CN202311528451.8A patent/CN117787346A/zh active Pending
- 2018-05-22 EP EP18726146.6A patent/EP3593290B1/en active Active
- 2018-05-22 CN CN201880027095.2A patent/CN110546656B/zh active Active
- 2018-05-22 WO PCT/EP2018/063290 patent/WO2018215404A1/en unknown
Non-Patent Citations (1)
Title |
---|
網路文獻 Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, Koray Kavukcuoglu, "WAVENET: A GENERATIVE MODEL FOR RAW AUDIO," September 2016, https://arxiv.org/pdf/1609.03499.pdf WAVENET: A GENERATIVE MODEL FOR RAW AUDIO, WAVENET: A GENERATIVE MODEL FOR RAW AUDIO, WAVENET: A GENERATIVE MODEL FOR RAW AUDIO, WAVENET: A GENERAT * |
Also Published As
Publication number | Publication date |
---|---|
US11934935B2 (en) | 2024-03-19 |
US20180365554A1 (en) | 2018-12-20 |
CN110546656B (zh) | 2023-12-08 |
EP3971786A1 (en) | 2022-03-23 |
WO2018215404A1 (en) | 2018-11-29 |
TW201901532A (zh) | 2019-01-01 |
EP3593290A1 (en) | 2020-01-15 |
EP3593290B1 (en) | 2022-01-26 |
EP3971786B1 (en) | 2024-03-13 |
CN117787346A (zh) | 2024-03-29 |
CN110546656A (zh) | 2019-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI767000B (zh) | 產生波形之方法及電腦儲存媒體 | |
CN109891434B (zh) | 使用神经网络生成音频 | |
US12067476B2 (en) | Mixture of experts neural networks | |
US20200293862A1 (en) | Training action selection neural networks using off-policy actor critic reinforcement learning | |
CN108475505B (zh) | 使用部分条件从输入序列生成目标序列 | |
US11928601B2 (en) | Neural network compression | |
JP2019071080A (ja) | バッチ正規化レイヤ | |
US11887004B2 (en) | Batch renormalization layers | |
WO2019155064A1 (en) | Data compression using jointly trained encoder, decoder, and prior neural networks | |
US11355097B2 (en) | Sample-efficient adaptive text-to-speech | |
US11922281B2 (en) | Training machine learning models using teacher annealing | |
CN116468070A (zh) | 使用规范化的目标输出训练神经网络 | |
US20210089909A1 (en) | High fidelity speech synthesis with adversarial networks | |
CN111699497A (zh) | 使用离散潜变量的序列模型的快速解码 | |
CN114467096A (zh) | 增强基于注意力的神经网络以选择性地关注过去的输入 | |
AU2022292104B2 (en) | Adaptive visual speech recognition | |
CN114999532A (zh) | 模型获取方法、装置、系统、电子设备及存储介质 | |
CN113313183A (zh) | 通过使用能量分值来训练语音合成神经网络 |