TWI484476B - 電腦實作的語音系統及方法 - Google Patents

電腦實作的語音系統及方法 Download PDF

Info

Publication number
TWI484476B
TWI484476B TW099105182A TW99105182A TWI484476B TW I484476 B TWI484476 B TW I484476B TW 099105182 A TW099105182 A TW 099105182A TW 99105182 A TW99105182 A TW 99105182A TW I484476 B TWI484476 B TW I484476B
Authority
TW
Taiwan
Prior art keywords
term memory
word
probability
short
context
Prior art date
Application number
TW099105182A
Other languages
English (en)
Other versions
TW201035968A (en
Inventor
Katsutoshl Ohtsuki
Takashi Umeoka
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of TW201035968A publication Critical patent/TW201035968A/zh
Application granted granted Critical
Publication of TWI484476B publication Critical patent/TWI484476B/zh

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • G06F40/129Handling non-Latin characters, e.g. kana-to-kanji conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams

Description

電腦實作的語音系統及方法
本發明關於統計語言模型的調適性。
輸入方法可用於將語音字串(閱讀)轉換成東亞語言(例如中文、韓文及日文)的顯示字元,並亦可處理筆劃,如繁體中文的字元。由於同音異義字及多種可能的字詞分段,在轉換時會出現混淆。一種輸入方法嘗試要基於一般(例如基線、預設)語言模型及使用者輸入歷史,來解決這種混淆性。對於該使用者輸入歷史的調適可用數種方式進行,例如短期記憶與長期記憶。短期記憶對應於快速調適,而長期記憶對應於調適的穩定性。轉換結果藉由自該短期與長期記憶加入資訊到該一般語言模型來判定。
短期記憶可藉由基於先前使用者選擇的字詞(使用者輸入歷史)增加字詞分數或改變字詞等級來實作。但是,一些字詞在被用過之後並未很快出現,而一些字詞在被用過之後出乎預期地在無法接受的前後文中出現。長期記憶可藉由累積使用者輸入歷史來實作。但是,雖然有利用長期記憶,一些字詞仍出乎預期地在無法接受的前 後文中出現。
以下將提供一簡化的發明內容,藉以提供對於此處一些創新具體實施例之基本瞭解。此發明內容並非詳盡的概述,且其並非要辨識關鍵/重要元件或界定其範圍。其唯一的目的係要以一簡化的型式做為一序言來呈現一些觀念,而更為詳細的說明將在稍後呈現。
所揭示的架構藉由施加適當的限制到長期及短期記憶,而抑制了字詞的出乎預期的出現。快速調適亦藉由利用該限制來實現。
該架構包括一歷史組件,用於藉由輸出轉換結果的一轉換程序,處理使用者輸入歷史來轉換一語音字串,及一調適組件,用於基於在該轉換程序期間施加到影響字詞出現的短期記憶之限制,來調適該轉換程序以合於該使用者輸入歷史。該架構基於前後文相關的機率差異(短期記憶)而執行機率增加,且基於字詞前文之頻率(長期記憶)而執行長期記憶與基線語言模型之間的動態線性內插。
為了完成前述及相關的目的,某些例示性態樣將在此處配合以下描述及附加圖面來說明。這些態樣指明多種方式,其中此處所述的該等原理可被實現,且所有態樣 及其同等者皆係在所主張的標的之範圍內。其它好處及創新特徵將可配合該等圖面由以下的實施方式來更加瞭解。
雖然既有的語音系統之轉換準確性在一般狀況下很高,因為一特定使用者的語言空間不同於該一般性空間,使用者仍會失望。此種現象對於個人名字而言特別明顯,且該等表述喜好自然地根據使用者而改變,因此不能夠由該一般性語言模型處理。
所揭示的架構為一自我調整技術,其中在使用一短期間(例如2-3周)的產品之後,該使用者不再需要打開一候選清單。再者,所揭示的自我調整技術改善了一使用者的工作效能。該架構基於前後文相關的機率差異(短期記憶)而執行機率增加,且基於字詞前文之頻率(長期記憶)而執行長期記憶與基線語言模型之間的動態線性內插。
現在將參考圖面,其中類似的參照編號用於參照到所有類似的元件。在以下的說明中,為了解釋起見,提出許多特定細節,藉以提供對其完整瞭解。但是明顯地該等創新具體實施例可以不使用這些特定細節來實施。在其它實例中,熟知的結構及裝置以方塊圖形式顯示,藉此用於進行其說明。本說明書之意圖係要涵蓋所有落在 所主張標的之精神及範圍內的修正、同等者及變化。
第1圖為根據所揭示的架構之電腦實作的語音系統100。系統100包括歷史組件102,用於藉由輸出轉換結果106的一轉換程序,處理使用者輸入歷史104來轉換語音字串105,及調適組件108,用於基於在該轉換程序期間應用到影響字詞出現的短期記憶112之限制110,來調適該轉換程序以合於該使用者輸入歷史104。
調適組件108基於長期記憶114執行長期記憶114與一基線語言模型之間的動態線性內插。該等限制110在當一字詞並非一候選清單的一第一候選者時,增加該字詞的機率。施加於短期記憶112的該等限制110利用一前後文敏感性的短期記憶雙連字串(bigram)機率。施加於短期記憶112之該等限制110基於一字詞與在一句子中該字詞的前後文增加一機率。該前後文包括相對於在該句子中該字詞之前文與後文。調適組件108包括一學習演算法,其基於一候選清單之一第一候選者與該候選清單的一選擇的候選者之間的差異,執行旗標學習(flag-learning),且在一下一轉換程序中移動該選擇的候選者到一第一轉換結果位置。
第2圖所示為包括第1圖之語音系統100之額外態樣的系統200。系統200包括歷史組件102,用於處理使用者輸入歷史104來藉由轉換程序204轉換語音字串105, 還包括調適組件108,用於基於在轉換程序204期間施加於影響字詞出現的短期記憶112之該等限制110,調適轉換程序204以合於使用者輸入歷史104。
調適組件108基於長期記憶114執行長期記憶114與基線語言模型208之間的動態線性內插。該等限制110在當一字詞並非一候選清單的一第一候選者時,增加該字詞的機率。施加於短期記憶112的該等限制110,利用一前後文敏感性的短期記憶雙連字串機率。施加於短期記憶112之該等限制110基於一字詞與在一句子中該字詞的前後文增加一機率。該前後文包括相對於在該句子中該字詞之前文與後文。調適組件108包括一學習演算法,其基於一候選清單之一第一候選者與該候選清單的一選擇的候選者之間的差異,執行旗標學習,且在一下一轉換程序中移動該選擇的候選者到一第一轉換結果位置。
系統200另包含限制組件206,用於藉由基於前後文相關的機率差異增加一機率來施加該等限制110。限制組件206亦可藉由基於一前後文相關的機率差異增加一機率,施加一或多個該等限制110到長期記憶114。
換言之,語音系統200包括歷史組件102,用於處理使用者輸入歷史104,用以在轉換程序204期間轉換語音字串105,還包括限制組件206,用於在轉換程序204 期間施加一或多個該等限制110到使用者輸入歷史104。歷史104包括短期記憶112與長期記憶114。系統200亦包括調適組件108,用於基於該等限制110調適轉換程序204以合於使用者輸入歷史104。
限制組件206施加一或多個該等限制110到短期記憶112。所施加的該等限制110利用一前後文敏感性短期記憶雙連字串機率,及一或多個限制110到長期記憶114,其基於一前後文相關的機率差異增加一機率。調適組件108基於長期記憶114執行長期記憶114與基線語言模型208之間的動態線性內插。該等限制110在當一字詞並非一候選清單的一第一候選者時增加該字詞的機率。施加於短期記憶112之該等限制110,基於一字詞與在一句子中該字詞的前後文增加一機率。該前後文包括相對於在該句子中該字詞之前文與後文。
下述為用於統計語言模型的快速與穩定調適之該等運算的實施方式。
一輸入語音字串的輸入方法轉換結果可由以下的機率所決定:P(W)=P(W1 |<S>).P(W2 |W1 ).P(W3 |W2 )...P(wN |wN-1 ).P(</S>|WN )
其中W為一句子,其中包括一字詞序列{w1 ,w2 ,w3 ,..., wN-1 ,wN },且<s>與</s>分別為句子開始與句子結束的符號。該等式係用於雙連字串模型,但可用三連字串或更高階的n連字串模型來表示。
由於同音異義字及字詞分段化的混淆性,一輸入語音字串可能有許多種可能的字詞序列W。
一最有可能的候選句子被選擇做為一轉換結果。
每個字詞的機率可被定義成,P (w n |w n -1 )=αP baseline (w n |w n -1 )+βP ltm (w n |w n -1 )+δP stm (w n |w n -1 )
其中α,β,與δ為線性內插係數,其加總成一(α+β+δ=1),Pbaseline (wk | wk-1 )為由該訓練字詞資料庫所估計的一基線雙連字串機率(當第一次使用該輸入方法時,僅有此機率具有一數值),Pltm (wn | wn-1 )為該長期記憶的該雙連字串機率,及Pstm (wn | wn-1 )為該短期記憶的雙連字串機率。該長期記憶的雙連字串機率可由該使用者輸入歷史計算,如下式。
其中Cuser (wn )為該使用者使用字詞wn 的次數,且Cuser (wn-1 ,wn )為該使用者使用該字詞序列wn-1 ,wn 的次數。
短期記憶之雙連字串機率Pstm (wn | wn-1 )在當字詞並非該結果的第一候選者時增加該字詞的機率,但使用者從該候選清單中選擇該字詞。
其中Cuser-sel (wn-1 ,wn )為使用者從該候選清單中選擇該字詞序列wn-1 ,wn 的次數,而M為選擇的最高次數。請注意Cuser-sel (.)不能超過M。
以上的公式可由指數化來一般化,如下式表示:
以下為長期記憶的額外說明。一字詞wn 的線性內插加權α與β根據Cuser (wn-1 )而改變。此代表該等加權根據先前字詞而有所不同。
當Cuser (wn-1 )充份大時,即定義並使用該等目標加權 αtarget 與βtarget 。wn 實際的加權α與β可依下式計算,β=ω.βtarget
α=αtargettarget -β=αtarget +(1-ω).βtarget
第3圖為該加權轉換之示意圖300。示意圖300顯示短期記憶δ、長期記憶β與基線α,與標示為βtarget 的長期記憶及標示為αtarget 的基線之相對垂直範圍分段。示意圖300代表當該字詞使用的次數增加時,於時間t,該長期記憶的加權到達該βtarget
當Cuser (wn-1 )很小時,該長期雙連字串機率趨向於高,並造成字詞的出乎預期之出現。但是,此加權調整會抑制此類副作用。
以下為短期記憶的額外說明。其使用兩種方法,其可獨立或組合使用:一短期記憶雙連字串機率之前後文敏感性使用,及根據該機率差異來增加機率。
對於第一種方法,一短期記憶雙連字串機率之前後文敏感性使用,當後續的字詞序列之選擇的次數為零時,該機率即被視為零。
類似的結果可使用先前的字詞序列而獲得。
這些條件可能依該等字詞的語音部份(Part-of-speech,「POS」)而改變。基於這些條件,該機率增加係根據該前後文,且先前選擇的字詞之出乎預期的出現可被抑制。
至於第二種方法,根據機率差異來增加機率,一個一個增加Cuser-sel (wn-1 ,wn )對一些字詞而言可能不足,但對於其它字詞則太多。Cuser-sel (wn-1 ,wn )的適當增加數目係根據該字詞與該字詞所處的前後文。
該使用者由該候選者選擇該字詞,係因為該句子包括該字詞之機率低於另一個句子包括該字詞之機率。因此,為了在下一次取得該字詞,該句子包括該字詞的該機率必須高於另一個句子包括該字詞的機率(在先前轉換中第一個句子)。
第4圖所示為一快取加權轉換之示意圖400。在另一具體實施例中,一快取加權轉換係使用一線性函數來提供,且該快取加權僅用於該雙連字串快取(雙連快取)。該雙連字串快取加權根據該先前字詞的一單元字串快取(單一快取)量。此代表雙連字串快取機率Pbicache (wi | wi-1 ) 之加權係根據Cunicache (wi-1 )。
該旗標加權δ+ε為固定。該單元字串快取之加權亦為固定,但藉由該稍早的快取加入一偏移值到該單元字串快取總數來降低該等副作用。
旗標學習係視該等機率差異而定。一雙連字串旗標的增加程度,係根據該第一候選者與該選擇的候選者之間所估計的差異量而改變。該選擇的候選者在該周遭前後文為相同時即成為該第一後續轉換結果。
以下的案例可被考慮,且以下的該演算法可涵蓋所有案例。
Case #1:{w a ,w b ,w c }after conversion → {w a ,w x ,w c }after editing
Case #2:{w a ,w b 1 ...w bm ,w c }after conversion → {w a ,w x ,w c }after editing
Case #3:{w a ,w b ,w c }after conversion → {w a ,w x 1 ...w xn ,w c }after editing
Case #4:{w a ,w b 1 ...w bm ,w c )after conversion → {w a ,w x 1 ...w xn ,w c }after editing
提供以下的定義。
P(wb | wa )為學習之前的該字詞雙連字串機率,其包括基線、快取及旗標機率。
P (w b |w a )=α.P baseline (w b |w a )+β.P cache (w b |w a )+γ.P cache (w b )+δ.P flag (w b |w a )+ε.P flag (w b )
PL (wb | wa )為學習之後的該字詞雙連字串機率。快取機率的改變在此為了簡化起見而被忽略,且在學習之後僅有該等旗標機率會改變。
P L (w b |w a )=α.P baseline (w b |w a )+β.P cache (w b |w a )+γ.P cache (w b )+δ.P flag (w b |w a )-1 +ε.P flag (w b )-1
候選字詞之該等旗標數目在學習之後被減一,當一使用者從該候選清單中選擇另一候選者時,該等候選字詞為該等第一候選者。
P L (w x |w a )=α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+δ.P flag (w x |w a )+d +ε.P flag (w x )+1
該等相對應候選字詞的單元字串旗標數目被加一,該等候選字詞係從該候選清單中所選擇。從該候選清單中所選擇的該等相對應候選字詞的單元字串旗標數目被增加,增加數目有待決定。
該演算法方面,在學習之前,該第一候選者與該選擇的候選者之間的大小關係如下式,P (w b |w a ).P (w c |w b )>P (w x |w a ).P (w c |w x )
在學習之後的大小成為,P L (w b |w a ).P L (w c |w b )<P L (w x |w a ).P L (w c |w x )
該等機率PL (wb | wa ).PL (wc | wb )與P(wx | wa ).P(wc | wx )為已知,並需要知道如何計算PL (wx | wa ).PL (wc | wx )。
藉由學習之機率的變化可表示成一指數(或乘冪)。
P L (w x |w a ).P L (w c |w x )=[P (w x |w a ).P (w c |w x )]φ
因此,P L (w b |w a ).P L (w c |w b )<[P (w x |w a ).P (w c |w x )]φ
則φ可如下式計算,
現在由φ計算Pflag (wx | wa )+d
P L (w x |w a ).P L (w c |w x )=[P (w x |w a ).P (w c |w x )]φ =P (w x |w a ) φ P (w c |w x ) φ
如果可滿足以下的等式,即可滿足以上的等式。
P L (w x |w a )=P (w x |w a ) φ and P L (w c |w x )=P (w c |w x ) φ |
考慮PL (wx | wa )=P(wx | wa )φ
P (w x |w a )=α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+δ.P flag (w x |w a )+ε.P flag (w x )
P L (w x |w a )=α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+δ.P flag (w x |w a )+d +ε.P flag (w x )+1
α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+δ.P flag (w x |w a )+d +ε.P flag (w x )+1 =[α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+δ.P flag (w x |w a )+ε.P flag (w x )]φ
δ.P flag (w x |w a )+d =[α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+δ.P flag (w x |w a )+ε.P flag (w x )]φ -[α.P baseline (w x |w a )+β.P cache (w x |w a )+γ.P cache (w x )+ε.P flag (w x )+1 ]
增加量d可基於機率的差異來計算。
P flag (w x |w a )+d -P flag (w x |w a )
該旗標學習機率可藉由對應於該旗標數目來預備。例如該旗標數目的範圍可為8,16或32。當數目愈高時,此演算法即運作地更精確。
以下包括的為一系列的流程圖,其代表用於執行所揭示的架構之創新態樣的示例性方法。為了簡化說明起見,此處顯示一或多種方法,例如以流程圖的型式,並以一系列的動作來顯示及描述,其將可瞭解到該主題發明並不限於動作的順序,根據本發明,一些動作可與此處所顯示及描述之不同順序下發生,及/或與其它動作同步發生。例如,本技藝專業人士將可瞭解到一方法可另外表示成一系列的交互關連的狀態或事件,例如狀態圖。再者,對於一種創新實施而言,在一方法中例示的全部動作並非都一定是所需的。
第5圖所示為一電腦實作的語音方法。在500中,該使用者輸入歷史在一轉換程序期間被處理來轉換一語音字串。在502中,於該轉換程序期間施加限制到該使用者輸入歷史,該歷史包括短期記憶與長期記憶。在504中,該轉換程序基於該等限制被調適以合於該使用者輸 入歷史。
第6圖所示為第5圖之方法的額外態樣。在600中,施加一限制來基於前後文相關的機率差異來增加一機率。在602中,基於該長期記憶,在長期記意與一基線語言模型之間執行動態線性內插。在604中,當該字詞並非一候選清單之一第一候選者時,一字詞的機率被增加。
第7圖所示為第5圖之方法的額外態樣。在700中,施加一限制到該短期記憶,其基於一字詞與在一句子中該字詞的前後文增加一機率。在702中,基於一候選清單的一第一候選者與該候選清單的一選擇的候選者之間的差異,執行旗標學習。在704中,在一下一轉換程序中移動該選擇的候選者到一第一轉換結果位置。
如本申請案中所使用的名詞「組件」及「系統」係要代表一電腦相關的實體,其可為硬體、硬體及軟體的組合、軟體或執行中的軟體。例如,一組件可為(但不限於)在一處理器上運行的一程序、一處理器、一硬碟機、多重儲存驅動器(光學及/或磁性儲存媒體)、一物件、一可執行程式、執行的執行緒、一程式及/或一電腦。藉由例示,在一伺服器上執行的一應用與該伺服器可為一組件。一或多個組件可存在於一程序及/或一執行緒之中,且一組件可位在一電腦上及/或分散在兩個以上的電腦 之間。在此處使用的用語「示例性」係代表做為一示例、實例或例示。在此所述之任何態樣或設計做為「示例性」者並不需要被視為比其它態樣或設計要較佳或較有利。
現在請參照第8圖,所示為根據所揭示的架構用於對於一統計語言模型執行快速及穩定調適的運算系統800之方塊圖。為了提供其多種態樣的額外內容,第8圖及以下的討論係要提供一適當運算系統800之一簡短概略性的描述,其中可以實作多種態樣。當以上的說明係由可在一或多部電腦上運轉的電腦可執行指令的一般性內文中做說明時,本技藝專業人士將可瞭解到一創新具體實施例亦可結合其它程式模組及/或硬體及軟體的組合來實施。
用於實作多種態樣之運算系統800包括電腦802,其具有處理單元804、系統記憶體806及系統匯流排808。處理單元804可為多種商用處理器之任一種,例如單一處理器、多處理器、單一核心單元與多核心單元。再者,本技藝專業人士將可瞭解到本發明方法可利用其它電腦系統組態來實施,其中包括迷你級電腦、主機級電腦、以及個人電腦(例如桌上型、膝上型等)、掌上型運算裝置、以微處理器為主或可程式化的消費性電子產品及類似者,其每一個皆可以在運作上結合於一或多個關聯的裝置。
系統記憶體806可包括揮發性(Volatile,「VOL」)記憶體810(例如隨機存取記憶體(Random access memory,「RAM」)及非揮發性記憶體(Non-volatile,「NON-VOL」)812(例如ROM,EPROM,EEPROM等)。 一基本輸入/輸出系統(Basic input/output system,「BIOS」)可儲存在非揮發性記憶體812中,並包括該等基本例式,其可在電腦802內的組件之間進行資料與信號之傳遞,例如在開機期間。揮發性記憶體810亦可包括一高速RAM,例如用於快取資料的靜態RAM。
系統匯流排808提供系統組件的介面,其包括但不限於記憶體子系統806到處理單元804。系統匯流排808可為數種匯流排結構中任何一種,其另可互連到一記憶體匯流排(可利用一記憶體控制器,也可不用),及一周邊匯流排(例如PCI,PCIe,AGP,LPC等),其可使用多種商用匯流排架構之任何一種。
電腦802另包括儲存子系統814及儲存介面816,用於連接儲存子系統814到系統匯流排808及其它想要的電腦組件。儲存子系統814可包括像是一或多個硬碟機(Hard disk drive,「HDD」)、一磁性軟碟機(Floppy disk drive,「FDD」)、及/或光碟儲存驅動器(例如CD-ROM驅動器、DVD驅動器)。儲存介面816可包括介面技術,例如像是增強型整合磁碟電路(Enhanced integrated drive electronics,「EIDE」)、進階技術附加裝置(Advanced technology attachment,「ATA」)、序列進階技術附加裝置(Serial ATA,「SATA」)及IEEE 1394標準。
一或多個程式及資料可儲存在記憶體子系統806中,可移除式記憶體子系統818(例如來自快閃碟型式技術),及/或儲存子系統814(例如光學、磁性、固態),其包括作業系統820、一或多個應用程式822、其它程式模組824及程式資料826。
一或多個應用程式822、其它程式模組824及程式資料826例如可包括第1圖的系統100與組件,第2圖的系統200與組件,示意圖300與400所代表的關係,由第5-7圖之流程圖所代表的方法。
概言之,程式包括例式、方法、資料結構及其它軟體組件等,其可執行特殊工作或實作特定的抽象資料型態。作業系統820、應用程式822、模組824及/或資料826之所有或部份亦可快取在記憶體中,例如像是非揮發性記憶體810。其要瞭解到所揭示的架構可用多種商用作業系統或作業系統之組合(例如做為虛擬機器)來實作。
儲存子系統814與記憶體子系統(806及818)做為資料、資料結構、電腦可執行指令等之揮發性與非揮發性儲存的電腦可讀取媒體。電腦可讀取媒體可為任何可由 電腦802存取的可用媒體,其包括揮發性與非揮發性媒體,可移除與不可移除式媒體。對於電腦802,該媒體可用一適當的數位格式容納任何資料的儲存。本技藝專業人士應可瞭解到可利用其它種類的電腦可讀取媒體,例如Zip驅動器、磁帶、快閃記憶卡、卡匣及類似者,用於儲存電腦可執行指令來執行所揭示架構之創新方法。
一使用者可使用外部使用者輸入裝置828(例如鍵盤與滑鼠)來與電腦802、程式與資料進行互動。其它外部使用者輸入裝置828可包括一麥克風、一紅外線(Infrared,「IR」)遙控器、搖桿、遊戲手把、相機辨識系統、光筆、觸控螢幕、姿勢系統(例如眼睛移動、頭部移動等),及/或類似者。該使用者可使用電路板上使用者輸入裝置830(例如觸控板、麥克風、鍵盤等)與電腦802、程式及資料進行互動,其中電腦802例如可為一攜帶式電腦。這些及其它輸入裝置透過系統匯流排808經由輸入/輸出(I/O)裝置介面832連接至處理單元804,但可由其它介面連接,例如並列埠、IEEE 1394標準序列埠、遊戲埠、USB埠、IR介面等。I/O裝置介面832亦可使用輸出周邊834,例如印表機、音訊裝置、相機裝置等等,例如音效卡及/或電路板上音訊處理能力。
一或多個繪圖介面836(亦通常稱之為繪圖處理單元 (Graphics processing unit,「GPU」)提供電腦802與外部顯示器838(例如LCD,電漿)及/或電路板上顯示器840(例如用於攜帶式電腦)之間的繪圖與視訊信號。繪圖介面836亦可製造成電腦系統電路板上的一部份。
電腦802經由一有線/無線通訊子系統842使用邏輯連接到一或多個網路及/或其它電腦在一網路化環境(例如IP)中操作。其它的電腦可包括工作站、伺服器、路由器、個人電腦、微處理器式娛樂裝置、一端點裝置或其它共用網路節點,且基本上包括相對於電腦802所述之許多或所有的組件。該等邏輯連接可包括有線/無線連接到一區域網路(Local area network,「LAN」)、一廣域網路(Wide area network,「WAN」)、熱點(hotspot)等等。LAN及WAN網路化環境為辦公室與公司內常見到,其可實施整個企業內的電腦網路,例如企業內網路,其所有可以連接至一全球通訊網路,例如網際網路。
當用於網路化環境中時,電腦802經由一有線/無線通訊子系統842連接至該網路(例如一網路介面轉接器、電路上收發器子系統等),以通訊於有線/無線網路、有線/無線印表機、有線/無線輸入裝置844等。電腦802可以包括一數據機,或具有其它手段來在該網路上建立通訊。在一網路化環境中,相對於電腦802的程式及資料可儲存在遠端記憶體/儲存裝置中,其係關聯於一分散式 系統。其將可瞭解到所示的網路連接為示例性,其可使用在電腦之間建立通訊的其它手段。
電腦802可使用像是IEEE 802.xx家族的標準之無線電技術用於與有線/無線裝置或個體進行通訊,像是可運作地設置成無線通訊之無線裝置(例如IEEE 802.11,空中傳輸調變技術),藉由例如印表機、掃描機、桌上型及/或攜帶式電腦、個人數位助理(Personal digital assistant,「PDA」)、通訊衛星、任何關連於一無線偵測標籤(如服務亭、新聞架、盥洗室)及電話之設備或位置的任何片段。此包括至少熱點用的無線保真度(Wireless Fidelity,「Wi-Fi」),WiMax及藍芽無線技術。因此,該等通訊可為如同與一習用網路之一預先定義的結構,或僅為至少兩個裝置之間的一即插即用通訊。Wi-Fi網路使用稱為IEEE 802.1x(a,b,g等)之無線電技術來提供安全可靠及快速的無線連接。一Wi-Fi網路可用於將電腦彼此連接,連接到網際網路,及連接到有線網路(其使用IEEE 802.3相關的媒體及功能)。
以上所描述的包括所揭示架構的範例。當然,其不可能描述每一項可以想到的組件或方法之組合,但本技藝專業人士應可瞭解另有可能有許多其它的組合及排列。因此,該創新架構係要包含所有這些改變、修正及位在附屬申請專利範圍的精神及範疇內的變化。再者,在實 施方式或申請專利範圍中的用語「包括」,涵蓋之方式係要類似用語「包含」在一申請專利範圍內做為一轉折語時所詮釋的意義。
100‧‧‧語音系統
102‧‧‧歷史組件
104‧‧‧使用者輸入歷史
105‧‧‧語音字串
106‧‧‧轉換結果
108‧‧‧調適組件
110‧‧‧限制
112‧‧‧短期記憶
114‧‧‧長期記憶
200‧‧‧系統
204‧‧‧轉換程序
206‧‧‧限制組件
208‧‧‧基線語言模型
300‧‧‧示意圖
400‧‧‧示意圖
800‧‧‧運算系統
802‧‧‧電腦
804‧‧‧處理單元
806‧‧‧記憶體子系統
808‧‧‧系統匯流排
810‧‧‧揮發性記憶體
812‧‧‧非揮發性記憶體
814‧‧‧儲存子系統
816‧‧‧儲存介面
818‧‧‧可移除式記憶體子系統
820‧‧‧作業系統
822‧‧‧應用程式
824‧‧‧程式模組
826‧‧‧程式資料
828‧‧‧外部使用者輸入裝置
830‧‧‧電路板上使用者輸入裝置
832‧‧‧輸入/輸出裝置介面
834‧‧‧輸出周邊
836‧‧‧繪圖介面
838‧‧‧外部顯示器
840‧‧‧電路板上顯示器
842‧‧‧有線/無線通訊子系統
844‧‧‧網路、電腦、無線周邊、無線輸入裝置
第1圖為根據所揭示的架構之電腦實作的語音系統。
第2圖為包括第1圖之語音系統之額外態樣的系統。
第3圖為該加權轉換之示意圖。
第4圖為一快取加權轉換之示意圖。
第5圖為一電腦實作的語音方法。
第6圖為第5圖之方法的額外態樣。
第7圖為第5圖之方法的額外態樣。
第8圖為根據所揭示的架構用於對於一統計語言模型執行快速及穩定調適的一運算系統之方塊圖。
100...語音系統
102...歷史組件
104...使用者輸入歷史
105...語音字串
106...轉換結果
108...調適組件
110...限制
112...短期記憶
114...長期記憶

Claims (22)

  1. 一種電腦實作的語音系統,其包含下列:一歷史組件,該歷史組件經配置以處理用於由一轉換程序轉換一語音字串的使用者輸入歷史;一調適組件,該調適組件經配置以基於所施加的一或更多個限制來調適該轉換程序以合於該使用者輸入歷史,該使用者輸入歷史包含短期記憶及長期記憶,該短期記憶係前後文相關之機率差異,該長期記憶係一字詞之前文的頻率,其中該調適組件調適該轉換程序以合於該使用者輸入歷史係為了在該轉換程序期間抑制非預期之字詞的出現;及一微處理器,該微處理器經配置以執行電腦可執行指令,該等指令關聯於該歷史組件及該調適組件。
  2. 如申請專利範圍第1項所述之系統,另包含一限制組件,用於藉由基於前後文相關的機率差異增加一機率之方式來施加該等限制。
  3. 如申請專利範圍第1項所述之系統,另包含一限制組件,用於藉由基於前後文相關的機率差異增加一機率之方式來施加一限制到該長期記憶。
  4. 如申請專利範圍第1項所述之系統,其中該調適組件執行該長期記憶與一基線語言模型之間的動態線性內插。
  5. 如申請專利範圍第1項所述之系統,其中當一字詞並非一候選清單之第一候選者時,該限制增加該字詞的機率。
  6. 如申請專利範圍第1項所述之系統,其中施加於該短期記憶的限制利用一前後文敏感性短期記憶雙連字串(bigram)機率。
  7. 如申請專利範圍第1項所述之系統,其中施加於該短期記憶之限制係基於一字詞與在一句子中該字詞的前後文來增加一機率。
  8. 如申請專利範圍第7項所述之系統,其中該前後文包括在該句子中相對於該字詞的前文與後文。
  9. 如申請專利範圍第1項所述之系統,其中該調適組件包括一學習演算法,該學習演算法基於一候選清單之一第一候選者與該候選清單的一所選候選者之間的差異來執行旗標學習(flag-learning),且該學習演算法在一下一轉換程序中移動該所選候選者到一第一轉換結果位置。
  10. 一種電腦實作的語音系統,其包含下列:一歷史組件,該歷史組件經配置以處理用於在一轉換程序期間轉換一語音字串的使用者輸入歷史;一限制組件,該限制組件經配置以在該轉換程序期間施加限制到該使用者輸入歷史,該使用者輸入歷 史包括短期記憶與長期記憶,該短期記憶係前後文相關之機率差異,該長期記憶係一字詞之前文的頻率;一調適組件,該調適組件經配置以基於該等限制,來調適該轉換程序以合於該使用者輸入歷史;及一微處理器,該微處理器經配置以執行電腦可執行指令,該等指令關聯於該歷史組件、該限制組件及該調適組件。
  11. 如申請專利範圍第10項所述之系統,其中該限制組件施加一限制到該短期記憶及該長期記憶,該短期記憶利用一前後文敏感性短期記憶雙連字串(bigram)機率,該長期記憶基於一前後文相關的機率差異增加一機率。
  12. 如申請專利範圍第10項所述之系統,其中該調適組件執行該長期記憶與一基線語言模型之間的動態線性內插。
  13. 如申請專利範圍第10項所述之系統,其中當一字詞並非一候選清單之第一候選者時,該限制增加該字詞的機率。
  14. 如申請專利範圍第10項所述之系統,其中施加於該短期記憶的該限制,基於一字詞與在一句子中該字詞的前後文來增加一機率,該前後文包括在該句子中相對於該字詞的前文與後文。
  15. 如申請專利範圍第10項所述之系統,其中該調適組件包括一學習演算法,該學習演算法根據在一候選清單中之一第一候選者及該候選清單中之一所選候選者之間的一差異來執行旗標學習(flag-learning),且該學習演算法在一下一轉換程序中將該所選候選者移動至一第一轉換結果位置。
  16. 一種電腦實作的語音方法,其包含以下步驟:處理用於在一轉換程序期間轉換一語音字串的使用者輸入歷史;在該轉換程序期間施加限制到該使用者輸入歷史,該使用者輸入歷史包括短期記憶與長期記憶,該短期記憶係前後文相關之機率差異,該長期記憶係一字詞之前文的頻率;及基於該等限制調適該轉換程序以合於該使用者輸入歷史。
  17. 如申請專利範圍第16項所述之方法,另包含下列步驟:施加一限制,其基於前後文相關的機率差異增加一機率。
  18. 如申請專利範圍第16項所述之方法,另包含下列步驟:執行在該長期記憶與一基線語言模型之間的動態線性內插。
  19. 如申請專利範圍第16項所述之方法,另包含下列步 驟:當該字詞並非一候選清單之第一候選者時,增加一字詞的機率。
  20. 如申請專利範圍第16項所述之方法,另包含下列步驟:施加一限制到該短期記憶,其基於一字詞與在一句子中該字詞的前後文增加一機率。
  21. 如申請專利範圍第16項所述之方法,另包含下列步驟:基於一候選清單的一第一候選者與該候選清單的一所選候選者之間的差異,來執行旗標學習(flag-learning);及在一下一轉換程序中,移動該所選候選者到一第一轉換結果位置。
  22. 如申請專利範圍第20項所述之方法,其中該前後文包括在該句子中相對於該字詞的前文及後文。
TW099105182A 2009-03-30 2010-02-23 電腦實作的語音系統及方法 TWI484476B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/413,606 US8798983B2 (en) 2009-03-30 2009-03-30 Adaptation for statistical language model

Publications (2)

Publication Number Publication Date
TW201035968A TW201035968A (en) 2010-10-01
TWI484476B true TWI484476B (zh) 2015-05-11

Family

ID=42785345

Family Applications (1)

Application Number Title Priority Date Filing Date
TW099105182A TWI484476B (zh) 2009-03-30 2010-02-23 電腦實作的語音系統及方法

Country Status (6)

Country Link
US (1) US8798983B2 (zh)
JP (1) JP2012522278A (zh)
KR (1) KR101679445B1 (zh)
CN (1) CN102369567B (zh)
TW (1) TWI484476B (zh)
WO (1) WO2010117688A2 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8688454B2 (en) * 2011-07-06 2014-04-01 Sri International Method and apparatus for adapting a language model in response to error correction
KR101478146B1 (ko) * 2011-12-15 2015-01-02 한국전자통신연구원 화자 그룹 기반 음성인식 장치 및 방법
US8918408B2 (en) * 2012-08-24 2014-12-23 Microsoft Corporation Candidate generation for predictive input using input history
CN102968986B (zh) * 2012-11-07 2015-01-28 华南理工大学 基于长时特征和短时特征的重叠语音与单人语音区分方法
US10726831B2 (en) * 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
US9703394B2 (en) * 2015-03-24 2017-07-11 Google Inc. Unlearning techniques for adaptive language models in text entry
CN108241440B (zh) * 2016-12-27 2023-02-17 北京搜狗科技发展有限公司 一种候选词展示方法和装置
US10535342B2 (en) * 2017-04-10 2020-01-14 Microsoft Technology Licensing, Llc Automatic learning of language models
CN109981328B (zh) * 2017-12-28 2022-02-25 中国移动通信集团陕西有限公司 一种故障预警方法及装置
CN112508197B (zh) * 2020-11-27 2024-02-20 高明昕 人工智能设备的控制方法、控制装置和人工智能设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW283774B (en) * 1994-12-31 1996-08-21 Lin-Shan Lii Intelligently vocal chinese input method and chinese dictation machine
TW200301460A (en) * 2001-12-17 2003-07-01 Asahi Chemicl Ind Voice recognition method, remote control, data terminal device, telephone communication terminal, and voice recognition device
TW200400488A (en) * 2002-06-28 2004-01-01 Samsung Electronics Co Ltd Voice recognition device, observation probability calculating device, complex fast fourier transform calculation device and method, cache device, and method of controlling the cache device
WO2010033384A1 (en) * 2008-09-19 2010-03-25 Dolby Laboratories Licensing Corporation Upstream quality enhancement signal processing for resource constrained client devices
US20110144991A1 (en) * 2009-12-11 2011-06-16 International Business Machines Corporation Compressing Feature Space Transforms

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19708183A1 (de) * 1997-02-28 1998-09-03 Philips Patentverwaltung Verfahren zur Spracherkennung mit Sprachmodellanpassung
WO1999063456A1 (fr) 1998-06-04 1999-12-09 Matsushita Electric Industrial Co., Ltd. Dispositif de preparation de regles de conversion du langage, dispositif de conversion du langage et support d'enregistrement de programme
US7403888B1 (en) * 1999-11-05 2008-07-22 Microsoft Corporation Language input user interface
US6848080B1 (en) * 1999-11-05 2005-01-25 Microsoft Corporation Language input architecture for converting one text form to another text form with tolerance to spelling, typographical, and conversion errors
US7107204B1 (en) * 2000-04-24 2006-09-12 Microsoft Corporation Computer-aided writing system and method with cross-language writing wizard
US7013258B1 (en) * 2001-03-07 2006-03-14 Lenovo (Singapore) Pte. Ltd. System and method for accelerating Chinese text input
US7103534B2 (en) 2001-03-31 2006-09-05 Microsoft Corporation Machine learning contextual approach to word determination for text input via reduced keypad keys
JP4340024B2 (ja) * 2001-06-07 2009-10-07 日本放送協会 統計的言語モデル生成装置および統計的言語モデル生成プログラム
JP4215418B2 (ja) * 2001-08-24 2009-01-28 インターナショナル・ビジネス・マシーンズ・コーポレーション 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム
US20040003392A1 (en) 2002-06-26 2004-01-01 Koninklijke Philips Electronics N.V. Method and apparatus for finding and updating user group preferences in an entertainment system
US20050027534A1 (en) 2003-07-30 2005-02-03 Meurs Pim Van Phonetic and stroke input methods of Chinese characters and phrases
US7542907B2 (en) * 2003-12-19 2009-06-02 International Business Machines Corporation Biasing a speech recognizer based on prompt context
US8019602B2 (en) * 2004-01-20 2011-09-13 Microsoft Corporation Automatic speech recognition learning using user corrections
US7478033B2 (en) * 2004-03-16 2009-01-13 Google Inc. Systems and methods for translating Chinese pinyin to Chinese characters
US7406416B2 (en) * 2004-03-26 2008-07-29 Microsoft Corporation Representation of a deleted interpolation N-gram language model in ARPA standard format
US7606708B2 (en) 2005-02-01 2009-10-20 Samsung Electronics Co., Ltd. Apparatus, method, and medium for generating grammar network for use in speech recognition and dialogue speech recognition
US7379870B1 (en) 2005-02-03 2008-05-27 Hrl Laboratories, Llc Contextual filtering
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
JP4769031B2 (ja) * 2005-06-24 2011-09-07 マイクロソフト コーポレーション 言語モデルを作成する方法、かな漢字変換方法、その装置、コンピュータプログラムおよびコンピュータ読み取り可能な記憶媒体
JP4197344B2 (ja) 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
CN101034390A (zh) 2006-03-10 2007-09-12 日电(中国)有限公司 用于语言模型切换和自适应的装置和方法
US7912700B2 (en) 2007-02-08 2011-03-22 Microsoft Corporation Context based word prediction
US7809719B2 (en) 2007-02-08 2010-10-05 Microsoft Corporation Predicting textual candidates
US8028230B2 (en) 2007-02-12 2011-09-27 Google Inc. Contextual input method
JP4852448B2 (ja) * 2007-02-28 2012-01-11 日本放送協会 誤り傾向学習音声認識装置及びコンピュータプログラム
US20090030687A1 (en) * 2007-03-07 2009-01-29 Cerra Joseph P Adapting an unstructured language model speech recognition system based on usage
CN101286094A (zh) * 2007-04-10 2008-10-15 谷歌股份有限公司 多模式输入法编辑器
WO2009000103A1 (en) 2007-06-25 2008-12-31 Google Inc. Word probability determination
US8010465B2 (en) * 2008-02-26 2011-08-30 Microsoft Corporation Predicting candidates using input scopes
JP5054711B2 (ja) * 2009-01-29 2012-10-24 日本放送協会 音声認識装置および音声認識プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW283774B (en) * 1994-12-31 1996-08-21 Lin-Shan Lii Intelligently vocal chinese input method and chinese dictation machine
TW200301460A (en) * 2001-12-17 2003-07-01 Asahi Chemicl Ind Voice recognition method, remote control, data terminal device, telephone communication terminal, and voice recognition device
TW200400488A (en) * 2002-06-28 2004-01-01 Samsung Electronics Co Ltd Voice recognition device, observation probability calculating device, complex fast fourier transform calculation device and method, cache device, and method of controlling the cache device
WO2010033384A1 (en) * 2008-09-19 2010-03-25 Dolby Laboratories Licensing Corporation Upstream quality enhancement signal processing for resource constrained client devices
TW201028997A (en) * 2008-09-19 2010-08-01 Dolby Lab Licensing Corp Upstream quality enhancement signal processing for resource constrained client devices
US20110144991A1 (en) * 2009-12-11 2011-06-16 International Business Machines Corporation Compressing Feature Space Transforms
TW201133470A (en) * 2009-12-11 2011-10-01 Ibm Compressing feature space transforms

Also Published As

Publication number Publication date
KR101679445B1 (ko) 2016-11-24
CN102369567B (zh) 2013-07-17
US8798983B2 (en) 2014-08-05
CN102369567A (zh) 2012-03-07
WO2010117688A3 (en) 2011-01-13
US20100250251A1 (en) 2010-09-30
TW201035968A (en) 2010-10-01
KR20120018114A (ko) 2012-02-29
WO2010117688A2 (en) 2010-10-14
JP2012522278A (ja) 2012-09-20

Similar Documents

Publication Publication Date Title
TWI484476B (zh) 電腦實作的語音系統及方法
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
EP3549069B1 (en) Neural network data entry system
WO2020114429A1 (zh) 关键词提取模型训练方法、关键词提取方法及计算机设备
US10127902B2 (en) Optimizations to decoding of WFST models for automatic speech recognition
US11574133B2 (en) Method, electronic device, and storage medium for training text generation model
TWI475406B (zh) 取決於上下文之輸入方法
JP6004452B2 (ja) 言語モデル用の学習テキストを選択する方法及び当該学習テキストを使用して言語モデルを学習する方法、並びに、それらを実行するためのコンピュータ及びコンピュータ・プログラム
KR101613626B1 (ko) 스케일된 확률들을 사용한 단어들의 분절
AU2010346493B2 (en) Speech correction for typed input
US20100235780A1 (en) System and Method for Identifying Words Based on a Sequence of Keyboard Events
US20160306783A1 (en) Method and apparatus for phonetically annotating text
JP5932869B2 (ja) N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム
CN112926306B (zh) 文本纠错方法、装置、设备以及存储介质
US20170004820A1 (en) Method for building a speech feature library, and method, apparatus, device, and computer readable storage media for speech synthesis
US11615779B2 (en) Language-agnostic multilingual modeling using effective script normalization
CN111709234A (zh) 文本处理模型的训练方法、装置及电子设备
US11170183B2 (en) Language entity identification
WO2014073206A1 (ja) 情報処理装置、及び、情報処理方法
CN108664141B (zh) 具有文档上下文自学习功能的输入法
US11289095B2 (en) Method of and system for translating speech to text
CN112966513B (zh) 用于实体链接的方法和装置
US20160078013A1 (en) Fault-tolerant input method editor
KR20100069555A (ko) 음성 인식 시스템 및 방법
CN117043858A (zh) 用于执行语音辨识的循环神经网络-换能器模型

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees