TW201409462A - 語意辨識方法 - Google Patents

語意辨識方法 Download PDF

Info

Publication number
TW201409462A
TW201409462A TW101131765A TW101131765A TW201409462A TW 201409462 A TW201409462 A TW 201409462A TW 101131765 A TW101131765 A TW 101131765A TW 101131765 A TW101131765 A TW 101131765A TW 201409462 A TW201409462 A TW 201409462A
Authority
TW
Taiwan
Prior art keywords
transliteration
group
sequence
character
semantic recognition
Prior art date
Application number
TW101131765A
Other languages
English (en)
Inventor
Chih-Cheng Li
Original Assignee
Chung Han Interlingua Knowledge Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chung Han Interlingua Knowledge Co Ltd filed Critical Chung Han Interlingua Knowledge Co Ltd
Priority to TW101131765A priority Critical patent/TW201409462A/zh
Priority to CN201210342128.7A priority patent/CN103680503A/zh
Publication of TW201409462A publication Critical patent/TW201409462A/zh

Links

Landscapes

  • Machine Translation (AREA)

Abstract

一種語意辨識方法,包括下列步驟:接收一語音訊號;將語音訊號辨識為一包含有音譯字元組的音譯字元序列;將音譯字元組之每一個音譯字元轉換為一拼音字母件組;將拼音字母件組予以依序比對於參考拼音字母件組而得到相似度係數;以及依據相似度係數決定對應之參考音譯字元組,藉此改善語音辨識的正確率,使辨識出的語意更接近輸入音訊的原意。

Description

語意辨識方法
本發明係關於一種語音辨識方法,特別是關於一種語意辨識方法。
早先,使用者與電子產品溝通的方式可以使用鍵盤、滑鼠或觸碰螢幕來輸入訊息,而隨著科技的進步,一種較為自然的溝通方式也發展出來,即為語音輸入。使用者利用語音輸入的方式以及電子產品的語音輸出而達到自然對話的效果。而語音輸入的過程大體上如下所述,當聲音藉由類比到數位的轉換而輸入至電腦的內部,並以數值方式儲存後,語音辨識程式將已事先儲存好的聲音樣本與輸入的測試聲音樣本進行比對。比對完成後輸入一個它認為最「像」的聲音樣本序列,就可以知道使用者剛剛唸進去的聲音代表何意,進而能夠控制電器設備作各種事情或其它用途。
語音辨識系統的性能受許多因素的影響,包括不同的人說出的話、說話方式、環境噪音及傳輸信道等等,因此辨識出來的往往會有錯誤,只有音對,而意不對,譬如,「髒話」和「彰化」、「市民大道」和「四名大盜」。甚至是音也不對,譬如,「姓胡」和「幸福」,所以辨識出來的通常只有音的轉譯,而不完全是語意的翻譯。如此一來,當辨識出來的結果已經有誤的情況下,利用文法結構校正的方式來作語意修正的效果是有限的,所以辨識出來的結果上總是會與實際輸入的語音有差。
以習知方式要達到高準確率地語音辨識,必須要建立大量的聲音樣本,譬如男生的聲音樣本、女性的聲音 樣本、同語言不同腔調的聲音樣本等等,而且聲音的檔案比文字的檔案大上許多,比對的過程更是繁雜,導致語音辨識須利用高階電腦比對才有較高的辨識率,也因此難以廣泛使用。
緣此,本發明之目的即是提供一種語意辨識方法,以改善語音辨識的正確率,使辨識音訊出來的語意更接近輸入音訊的原意。
本發明為解決習知技術之問題所採用之技術手段係提供一種語意辨識方法,包括下列步驟:(a)接收一語音訊號;(b)將語音訊號辨識為一音譯字元序列,音譯字元序列包含有至少一個由一音譯字元所組成之音譯字元組;(c)將音譯字元序列之每一個音譯字元組之每一個音譯字元轉換為一拼音字母件組;(d)將音譯字元組之每一個拼音字母件組予以依序比對於一資料庫中之參考音譯字元組之參考拼音字母件組而得到音譯字元組與參考音譯字元組之相似度係數;以及(e)依據分別所得之相似度係數決定音譯字元組於資料庫中所對應之參考音譯字元組。
在本發明的一實施例中,語音訊號係為以非拉丁字母為字母之語音訊號。
在本發明的一實施例中,拼音字母件組係為拉丁字母所拼音組成。
在本發明的一實施例中,步驟(a)更包括:(a1)將語音訊號錄音並取樣;(a2)將語音訊號之取樣轉換為一語音數位資料;以及(a3)將語音數位資料傳送至一辨識裝 置。
在本發明的一實施例中,在步驟(b)與步驟(c)之間,更包括將音譯字元序列之音譯字元組分組之步驟(b1)。
在本發明的一實施例中,步驟(b1)中音譯字元序列之音譯字元組係根據文法結構的分析來分組。
在本發明的一實施例中,步驟(b)更包括給予音譯字元序列之音譯字元組一對應詞性,以及步驟(b1)係依據對應詞性而分組音譯字元序列之音譯字元組。
在本發明的一實施例中,每一個組具有一預設之優先度。
在本發明的一實施例中,步驟(d)係根據每一個組之優先度而從優先度高之組至優先度低之組進行比對。
在本發明的一實施例中,步驟(e)之後更包括一依據音譯字元序列所對應之每一個相似度最高之參考音譯字元組而決定音譯字元序列之對應的功能指令之步驟(f)。
在本發明的一實施例中,步驟(f)之後更包括依據功能指令而輸出一執行資訊之步驟。
在本發明的一實施例中,執行資訊係為一搜尋關鍵字串,搜尋關鍵字串係被輸出至一搜尋引擎進行搜尋。
在本發明的一實施例中,執行資訊係為一控制訊號,控制訊號係被輸出至一執行設備執行作業。
在本發明的一實施例中,當無法決定音譯字元序列之特定的功能指令時,步驟(f)之後更包括下列步驟:(g1)輸出一再確認要求,再確認要求係對音譯字元序列之音譯字元組進行再確認之要求;(g2)接受回應於再確認要求之一再確認訊號;以及(g3)依據音譯字元序列所對應 之每一個參考音譯字元組及再確認訊號而決定音譯字元序列之對應的功能指令。
經由本發明所採用之技術手段,可以提高語音辨識的正確率,並且因為採用的拼音的比對是屬於文字的比對,所以是建立文字的資料庫來比對,而省去建立龐大的聲音樣本資料庫。以及決定音譯字元序列之對應的功能指令,並且依據功能指令而輸出一執行資訊,藉此,在語音輸入的語意若是控制執行設備或是想得到某種資訊時,使得語音輸入的語意被辨識出來而更準確執行。
此外,本發明將音譯字元組進行分組並給予優先度,以及給予對應詞性,在比對流程的執行更有效率。
本發明所採用的具體實施例,將藉由以下之實施例及附呈圖式作進一步之說明。
參閱第1圖及第2圖所示,第1圖係顯示本發明之第一實施例之語意辨識方法之流程圖,第2圖係顯示本發明之第一實施例之語意辨識方法之電子設備之方塊圖。
如圖所示,本發明之第一實施例之語意辨識方法可執行於一電子設備中,用以辨識一輸入音訊之語意,進而給予對應之回應。電子設備100在本實施例中包括一擷取裝置1、一辨識裝置2、一資料庫3、一拼音比對裝置4、以及一輸出單元5。其中擷取裝置1包含一錄音單元11、一取樣單元12及一傳輸單元13,辨識裝置2包含一辨識單元21、一轉換單元22,拼音比對裝置4包含一分組單元41、一拼音轉換單元42及一比對單元 43。
首先,輸入語音訊號(步驟S110)。例如,擷取裝置1中的錄音單元11接收使用者講的一段語音訊號,並且將語音訊號儲存起來(步驟S111)。取樣單元12將語音訊號的背景雜音刪除並且取樣後轉成語音數位資料(步驟S112)。然後傳輸單元13將所取樣的語音數位資料傳送至辨識裝置2(步驟S113)。擷取裝置1可為智慧型手機、個人電腦或智慧型電視等,辨識裝置2可以是遠端伺服器,而傳輸單元13藉著網際網路將取樣的語音數位資料傳送至辨識裝置2。
當取樣的語音數位資料傳送至辨識裝置2後,辨識裝置2運用語音識別技術(Automatic Speech Recognition,ASR)將取樣的語音數位資料與資料庫3中的參考語音數位資料進行比對,而得出最匹配的參考語音數位資料,並且根據所得的參考語音數位資料而取得取樣的語音數位資料所對應的音譯字元序列(步驟S120)。詳細而言,在本實施例中,辨識單元21是利用隱藏式馬可夫模型(Hidden Markov Model,HMM)及類神經網路(Neural Network,N.N.)的方法將取樣的語音數位資料與資料庫3中的參考語音數位資料進行比對,而得到最合適的參考語音數位資料。然後轉換單元22根據最匹配的參考語音數位資料對應的音譯字元而將步驟S110中輸入的語音訊號轉換為所對應的音譯字元序列,其中音譯字元序列包含有至少一個由一音譯字元所組成之音譯字元組。音譯字元主要是由語音訊號的語言所使用的字元,舉例來說,漢語之音譯字元序列主要是由漢字所組成、日語之音譯字元序列主要是由假名與日本漢字所組成,以及韓語之音譯字元序列主要是由 韓字所組成。
透過辨識裝置2運用語音識別技術辨識後而得到的音譯字元序列,會具有基本地字義分組,此分組即為音譯字元組,而不光只是純音譯。舉例來說,輸入的語音訊號為「花蓮的海洋公園」的情況下,其辨識出來的音譯字元序列可能由下列的音譯字元組所組成,「花蓮」、「華麗」、「的」、「海洋」、「公元」、「公園」。如此一來,音譯字元序列可能是「花蓮的海洋公園」、「華麗的海洋公園」或「華麗的海洋公元」等,而不會是「華憐的海楊供圓」等只有純音譯的情況。其中,音譯字元組由至少一個音譯字元所組成,譬如音譯字元組「花蓮」是由兩個音譯字元「花」及「蓮」所組成,而音譯字元組「的」是由一個音譯字元「的」所組成。
接下來,辨識出來的音譯字元序列將傳送至拼音比對裝置4進行拼音轉換與比對。拼音比對裝置4在本實施例中是一伺服器,與語音辨識裝置2和資料庫3以網際網路連接傳輸。拼音比對裝置4之分組單元41將辨識出來的音譯字元序列之音譯字元組進行分組(步驟S122),而且每一個組分別給予一個預設的優先度,使得在比對時可以根據優先度的高低而決定比對的順序。較佳地,在分組之前給予音譯字元序列之音譯字元組一對應詞性(步驟S121),譬如,本實施例中,中文的情況下,音譯字元組的詞性依照簡易中文分詞系統(Simple Chinese Words Segmentation,SCWS)來分組,並主要分成三大類,動詞類、名詞類及其他,而每個類別又包含許多組,例如名詞類又再細分為人名組、地名組、機構團體組、名詞性語素組及其他專名組。
此外,分組的時候,除了利用詞性分組外,還可以 配合文法結構的分析,使得分組時的正確率更高。例如在中文的情況下,一個字元或一個字元組往往有兩種以上的詞性,會使得在步驟S122中依詞性而分組時容易分組錯誤。如此一來,配合文法結構的分析,分組的錯誤率能降低。在本實施例中,在中文的情況下,文法結構是利用中文句結構樹資料庫(Sinica Treebank)來分析。當然,本發明不限於此,詞性分組也可以使用其他資料庫或系統的分組方式,只要能分組即可,而文法結構也可以使用其他資料庫或系統來分析,只要能分析文法即可。
接著,藉由拼音轉換單元42將音譯字元序列之音譯字元組之音譯字元轉換為一拼音字母件組(步驟S130)。詳細而言,在本實施例中,在中文的情況下,較佳地是使用英文字母來作拼音的拼音字母,以及使用漢語拼音系統(Hanyu Pinyin)來記寫中文字讀音。例如,音譯字元組「台北」藉由拼音轉換單元42而轉換成漢語拼音「tai2bei3」(數字代表聲調),其中「tai2」即為音譯字元「台」的拼音字母件組,「bei3」即為音譯字元「北」的拼音字母件組。當然,本發明不限於此,也可以使用拉丁字母或其他表音文字(Phonogram)來作拼音的拼音字母,或是採用通用拼音系統(Tongyong Pinyin)或其他拼音系統,只要能拼出該音譯字元之音即可。
在步驟S130之後,比對單元43將音譯字元組之每一個拼音字母件組予以依序比對於資料庫3中之參考音譯字元組之參考拼音字母件組而得到該音譯字元組與該參考音譯字元組之相似度係數(步驟S140)。詳細而言,藉由比對單元43將音譯字元組之每一個拼音字母 件組和資料庫3中之參考音譯字元組之參考拼音字母件組進行比對,並且根據組的優先度而依序從優先度高的組比對至優先度低的組,舉例來說,「zhao3(找)」、「xiang3zhi1dao4(想知道)」等搜尋字的組的優先度在設定上高於地名或人名的組,在比對時會先將優先度高的組進行資料庫比對,並在高優先度組比對完成後再進行優先度次高的組的資料庫比對,然後依序比對至優先度最低的組,藉此使得比對更有效率。當然,本發明不限於此,在比對的過程中,若是已經比對至一個適當的結果而能進行下一個步驟,則不需要將音譯字元序列之所有音譯字元組去對資料庫3中所有之參考音譯字元組,只要比對的結果可以進行下個步驟即可,譬如,被歸類至助詞組的音譯字元組「的」、「之」及「著」將不進行比對。
在本實施例中,進行比對的方式是計算兩者的編輯距離(Levenshtein distance),然後將得出的編輯距離(L)換算為相似度係數(S),換算的方式為相似度係數S=1/(1+L)。譬如「xing4hu2(姓胡)」和「xing4fu2(幸福)」,「xing4(姓)」和「xing4(幸)」的拼音字母件組完全一樣,則相似度係數S為1/(1+0)=1,而「hu2(胡)」和「fu2(福)」的編輯距離L為1,所以「hu2(胡)」和「fu2(福)」的相似度係數S為1/(1+1)=0.5。而若是比較一個音譯字元組,如「姓胡」和「幸福」,則是兩者的音譯字元組的拼音字母件組一起比對「xing4hu2(姓胡)」和「xing4fu2(幸福)」,其編輯距離L為1,則兩者之相似度係數S為1/(1+1)=0.5。當然,本發明不限於此,也可以利用其他比對方式,或是相似度係數與編輯距離的關係為S=1/(1+2L),只要能求出兩者之 相似度的相似度係數S即可。
然而,因為同一個音譯字元組有時候會具有多重的詞性而可以分配在不同的組進行比對,或是因為語音辨識出來的音譯字元組有誤,僅音譯正確但音譯字元錯誤而分配到錯誤的組,此情況下比對出來的結果得到的相似度係數S可能會不夠好。因此在步驟S140中,可以配合文法結構的分析,將每一個音譯字元組比對資料庫3中一個以上詞性的組,而得到在不同分組的比對下的相似度係數S,最後根據在不同分組情況下,綜合各個音譯字元組的相似度係數S之平均,從而得到最合適的分組方式,而得到音譯字元組之最合適的相似度係數S。舉例來說,輸入的語音訊號為「宜蘭的蜜餞」,而辨識出的音譯字元序列為「依然的密件」,則其音譯字元組的分組分別為「依然」是副詞組,「密件」是名詞組,在比對時會在副詞組中將音譯字元組「依然」之拼音字母件組「yi1ran2」與資料庫3中的參考音譯字元組「依然」之參考拼音字母件組「yi1ran2」比對而得到相似度係數S=1,在名詞組中將音譯字元組「密件」之拼音字母件組「mi4jian4」與資料庫3中的參考音譯字元組「密件」之參考拼音字母件組「mi4jian4」比對而得到相似度係數S=1,其相似度係數之平均為1。接著,將音譯字元組「依然」之拼音字母件組「yi1ran2」與資料庫3中的地名組比對,而得到與資料庫3中參考字元組「宜蘭」之參考拼音字母件組「yi2lan2」的相似度係數S=1/3,然後將音譯字元組「密件」之拼音字母件組「mi4jian4」與資料庫3中的名詞組比對,而得到與資料庫3中參考字元組「蜜餞」之參考拼音字母件組「mi4jian4」的相似度係數S=1,其相似度係數之平均 為2/3。雖然第二次用另一種分組去比對時的相似度係數S之平均較低,但配合文法結構的分析,以及綜合各種分組比對後的相似度係數S之平均,可以得到最合適的分組比對方式,將「依然」分配為地名組進行比對。
接著,依據所得之相似度係數S決定音譯字元組於資料庫3中所對應之參考音譯字元組(步驟S150),詳細而言,在步驟S140中,音譯字元組與資料庫3中參考音譯字元組比對的時候,音譯字元序列之各個音譯字元組依所對應的詞性分的組去比對於資料庫3中所對應的組後,得到各個音譯字元組與參考音譯字元組的相似度係數S,然後決定一個最合適之對應的參考音譯字元組,舉例來說,「依然」與地名組比對後得出與參考字元組「宜蘭」的相似度係數S為1/3,「密件」與名詞組比對後得出與參考字元組「蜜餞」的相似度係數S為1,決定音譯字元組依然所對應的參考音字字元組為「宜蘭」,以及決定音譯字元組「密件」所對應的參考音字字元組為「蜜餞」。如此一來,一般語音辨識所辨識的音譯字元序列之有誤的地方被修正改善了。
再者,依據音譯字元序列所對應之每一個參考音譯字元組而決定音譯字元序列之對應的功能指令(步驟S160)。詳細而言,根據參考音譯字元組所對應的預設指令而決定音譯字元序列之對應的功能指令。舉例來說,參考音譯字元組為「找」、「找尋」、「想知道」、「搜尋」等被歸類為查詢的功能指令,而參考音譯字元組為「開」、「打開」、「開啟」、「啟動」等歸類被為設備控制的功能指令。
進一步而言,在步驟S160後,是否決定出對應的功能指令(步驟S170),若是決定出對應的功能指令,則 輸出單元5依據功能指令而輸出一執行資訊(步驟S180),譬如,當音譯字元組所對應的參考音譯字元組為「搜尋」時,則對應的功能指令即為一搜尋關鍵字串,並且透過輸出單元5輸出至執行設備進行搜尋,並且將搜尋的資料回傳給使用者,舉例來說,使用者說「我想知道台中火車站的位置」,則輸出單元5輸出關鍵字串「台中火車站」至電腦(如google map)進行搜尋,然後將搜尋的結果如台中地圖的資料回傳給使用者。或是,當音譯字元組所對應的參考音譯字元組為「打開」時,則對應的功能指令即為一控制訊號,並且透過輸出單元5輸出至執行設備6執行作業,例如將控制訊號輸出至冷氣,然後將冷氣開啟。如此一來,將接收的語音訊號轉變成回應所搜尋資訊,或是轉變成控制一個電子設備等,即為辨識出語音訊號的語意。
當無法決定音譯字元序列之特定的功能指令時,則輸出單元5輸出再確認要求,再確認要求是對音譯字元序列之音譯字元組進行再確認之要求(步驟S171)。接著再接受回應於再確認要求之一再確認訊號(步驟S172)。然後依據音譯字元序列所對應之每一個參考音譯字元組及再確認訊號而決定音譯字元序列之對應的功能指令(步驟S173)。詳細而言,輸出單元輸出再確認要求可以是透過螢幕顯示的方式顯示一段文字以向使用者確認功能指令,或是透過揚聲器發出一段音訊以向使用者確認功能指令,譬如,螢幕顯示「請再次輸入語音訊號」、或顯示「請問所輸入的語音訊號是髒話還彰化」。當然,本發明不限於此,也可以是振動方式,只要能發出再確認要求即可。
然後使用者根據再確認要求而給予再確認訊號,舉 例來說,智慧型手機的螢幕顯示「髒話」及「彰化」,讓使用者觸碰智慧型手機的螢幕去決定功能指令是要搜尋「髒話」的資訊還是「彰化」的資訊。再者,或是顯示「請再次輸入語音訊號」時,使用者重新輸入一次語音訊號。
接著,若使用者選擇「彰化」,則配合之前的參考音譯字元組,譬如「我想知道」,則決定出功能指令為查詢,而查詢的內容為彰化。若是請使用者再次輸入語音訊號的情況下,則使用者再次輸入語音訊號後進入步驟S110,並且經過上述之本發明辨識方法之流程,而得到再次輸入之語音訊號之參考音譯字元組,並配合之前輸入之語音訊號所得到的參考音譯字元組,而決定出功能指令,然後再依據得到的功能指令而輸出一執行資訊。
參閱第3圖所示,其係顯示本發明之第一實施例之語意辨識之方法之電子設備之示意圖。在實際應用上,在語意辨識的過程中,其較佳地流程如下。首先,擷取裝置1(如智慧型手機)接收並擷取語音訊號,然後傳輸至辨識裝置(如遠端伺服器)2辨識為音譯字元序列。接著,拼音比對裝置4(如遠端伺服器)將音譯字元序列中各個拼音字元組之拼音字元轉換成以拼音字母所組成的拼音字母件組,再與資料庫3中的資料比對而得到音譯字元組與參考音譯字元組的相似度係數S。最後根據得到的相似度係數S而決定出音譯字元組於資料庫3中所對應之參考音譯字元組,然後輸出單元5根據得到的參考音譯字元組所對應的功能指令輸出執行資訊至執行設備6(如電器設備、網路搜尋引擎),在本實施例中輸出的執行資訊為打開電視,當然也可是調整 音量,或是控制其他電器設備。
參閱第4圖及第5圖所示,第4圖係顯示本發明之第一實施例之語意辨識方法之流程圖,第5圖係顯示本發明之第一實施例之語意辨識方法之電子設備之方塊圖。在本實施例中,語音辨識方法之系統100a包含的擷取裝置1、辨識裝置2、資料庫3及拼音比對裝置4設置整合在一起,例如智慧型手機或筆記型電腦。這類型的裝置的效能以及儲存空間比伺服器差,或是為了減少運算的複雜度以達到省電的效果,所以需要降低比對的複雜性、減少比對的時間以及簡化資料庫。因此,本實施例之語意辨識方法較第一實施例的步驟S精簡,不同之處在步驟S120中將輸入的語音訊號轉換音譯字元序列後,接著步驟S130,將音譯字元序列之每一個音譯字元組之每一個音譯字元轉換為拼音字母件組。然後,在步驟S140中將音譯字元組之每一個拼音字母件組予以依序比對於一資料庫中之參考音譯字元組之參考拼音字母件組而得到音譯字元組與參考音譯字元組之相似度係數。然後,接著在步驟S150中依據分別所得之相似度係數決定音譯字元組於資料庫中所對應之參考音譯字元組。最後,將音譯字元序列中每一個音譯字元組所對應的參考音譯字元組輸出(步驟S190)。舉例來說,在個人電腦的使用情況下,當使用者想使用語音輸入方式來取代鍵盤的打字時,因為一般電腦內建的語音辨識的效果有限而導致語音輸入常有錯別字,所以必須要花費大量的時間去校正。因此,利用本實施例之語意辨識方法,可以提高語音輸入的正確率,並且不需要使用龐大的資料庫以及複雜的比對方式,可以單獨在行動裝置上使用而不需與伺服器連線。
藉由本發明之語意辨識方法,能夠在語音辨識後改善辨識的正確率,以及配合音譯字元組所對應之參考音譯字元組的功能指令而去執行對應的動作,進一步的達到辨識出語意的效果。
由以上之實施例可知,本發明所提供之語意辨識方法確具產業上之利用價值,故本發明業已符合於專利之要件。惟以上之敘述僅為本發明之較佳實施例說明,凡精於此項技藝者當可依據上述之說明而作其它種種之改良,惟這些改變仍屬於本發明之發明精神及以下所界定之專利範圍中。
100‧‧‧電子設備
1‧‧‧擷取裝置
11‧‧‧錄音單元
12‧‧‧取樣單元
13‧‧‧傳輸單元
2‧‧‧辨識裝置
21‧‧‧辨識單元
22‧‧‧轉換單元
3‧‧‧資料庫
4‧‧‧拼音比對裝置
41‧‧‧分組單元
42‧‧‧拼音轉換單元
43‧‧‧比對單元
5‧‧‧輸出單元
6‧‧‧執行設備
第1圖係顯示本發明之第一實施例之語意辨識方法之流程圖。
第2圖係顯示應用有本發明之第一實施例之語意辨識方法之電子設備之方塊圖。
第3圖係顯示應用有本發明之第一實施例之語意辨識方法之電子設備之示意圖。
第4圖係顯示本發明之第二實施例之語意辨識方法之流程圖。
第5圖係顯示應用有本發明之第二實施例之語意辨識方法之電子設備之方塊圖。

Claims (14)

  1. 一種語意辨識方法,包括下列步驟:(a)接收一語音訊號;(b)將該語音訊號辨識為一音譯字元序列,該音譯字元序列係包含有至少一個由一音譯字元所組成之音譯字元組;(c)將該音譯字元序列之每一個音譯字元組之每一個音譯字元轉換為一拼音字母件組;(d)將該音譯字元組之每一個拼音字母件組予以依序比對於一資料庫中之參考音譯字元組之參考拼音字母件組而得到該音譯字元組與該參考音譯字元組之相似度係數;以及(e)依據分別所得之該相似度係數決定該音譯字元組於該資料庫中所對應之該參考音譯字元組。
  2. 如申請專利範圍第1項所述之語意辨識方法,其中該語音訊號係為以非拉丁字母為字母之語音訊號。
  3. 如申請專利範圍第1項所述之語意辨識方法,其中該拼音字母件組係為拉丁字母所拼音組成。
  4. 如申請專利範圍第1項所述之語意辨識方法,其中步驟(a)更包括:(a1)將該語音訊號錄音並取樣;(a2)將該語音訊號之取樣轉換為一語音數位資料;以及(a3)將該語音數位資料傳送至一辨識裝置。
  5. 如申請專利範圍第1項所述之語意辨識方法,在步驟(b)與步驟(c)之間,更包括一步驟:(b1)將該音譯字元序列之音譯字元組分組。
  6. 如申請專利範圍第5項所述之語意辨識方法,其中步驟(b1)中該音譯字元序列之音譯字元組係根據文法結構 的分析來分組。
  7. 如申請專利範圍第5項所述之語意辨識方法,其中步驟(b)更包括給予該音譯字元序列之音譯字元組一對應詞性之步驟,以及步驟(b1)係依據該對應詞性而分組該音譯字元序列之音譯字元組。
  8. 如申請專利範圍第5項所述之語意辨識方法,其中該每一個組具有一預設之優先度。
  9. 如申請專利範圍第8項所述之語意辨識方法,其中步驟(d)係根據該每一個組之優先度而從優先度高之組至優先度低之組進行比對。
  10. 如申請專利範圍第1項所述之語意辨識方法,在步驟(e)之後更包括一步驟:(f)依據該音譯字元序列所對應之每一個參考音譯字元組而決定該音譯字元序列之對應的功能指令。
  11. 如申請專利範圍第10項所述之語意辨識方法,在步驟(f)之後更包括依據該功能指令而輸出一執行資訊之步驟。
  12. 如申請專利範圍第11項所述之語意辨識方法,其中該執行資訊係為一搜尋關鍵字串,該搜尋關鍵字串係被輸出至一搜尋引擎進行搜尋。
  13. 如申請專利範圍第11項所述之語意辨識方法,其中該執行資訊係為一控制訊號,該控制訊號係被輸出至一執行設備執行作業。
  14. 如申請專利範圍第10項所述之語意辨識方法,其中當無法決定該音譯字元序列之特定的功能指令時,步驟(f)之後更包括下列步驟:(g1)輸出一再確認要求,該再確認要求係對該音譯字元序列之音譯字元組進行再確認之要求; (g2)接受回應於該再確認要求之一再確認訊號;以及(g3)依據該音譯字元序列所對應之每一個參考音譯字元組及該再確認訊號而決定該音譯字元序列之對應的功能指令。
TW101131765A 2012-08-31 2012-08-31 語意辨識方法 TW201409462A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW101131765A TW201409462A (zh) 2012-08-31 2012-08-31 語意辨識方法
CN201210342128.7A CN103680503A (zh) 2012-08-31 2012-09-14 语义辨识方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101131765A TW201409462A (zh) 2012-08-31 2012-08-31 語意辨識方法

Publications (1)

Publication Number Publication Date
TW201409462A true TW201409462A (zh) 2014-03-01

Family

ID=50317857

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101131765A TW201409462A (zh) 2012-08-31 2012-08-31 語意辨識方法

Country Status (2)

Country Link
CN (1) CN103680503A (zh)
TW (1) TW201409462A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI579830B (zh) * 2015-12-29 2017-04-21 Chunghwa Telecom Co Ltd On the Chinese Text Normalization System and Method of Semantic Cooperative Processing

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102217292B1 (ko) * 2015-02-26 2021-02-18 네이버 주식회사 적어도 하나의 의미론적 유닛의 집합을 음성을 이용하여 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN105206274A (zh) * 2015-10-30 2015-12-30 北京奇艺世纪科技有限公司 一种语音识别的后处理方法及装置和语音识别系统
CN108597537A (zh) * 2018-04-06 2018-09-28 东莞市华睿电子科技有限公司 一种音频信号相似度检测方法
US11861521B2 (en) 2021-12-21 2024-01-02 PolyAI Limited System and method for identification and verification
CN117831573B (zh) * 2024-03-06 2024-05-14 青岛理工大学 基于多模态的语言障碍人群言语录音分析方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1153127C (zh) * 1995-01-26 2004-06-09 李琳山 普通话语音输入和训练方法及普通话听写机
US6064959A (en) * 1997-03-28 2000-05-16 Dragon Systems, Inc. Error correction in speech recognition
CN1361517A (zh) * 2000-12-26 2002-07-31 于泽华 汉字拼音法
WO2004036939A1 (fr) * 2002-10-18 2004-04-29 Institute Of Acoustics Chinese Academy Of Sciences Appareil de communication mobile numerique portable, procede de commande vocale et systeme
CN100358006C (zh) * 2005-04-18 2007-12-26 南京师范大学 地理信息的语音识别方法及其在导航系统中的应用
CN101145289A (zh) * 2007-09-13 2008-03-19 上海交通大学 基于代理技术的远程教育环境中语音答疑系统
CN102254557B (zh) * 2011-07-04 2013-07-24 深圳市车音网科技有限公司 基于自然语音识别的导航方法和系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI579830B (zh) * 2015-12-29 2017-04-21 Chunghwa Telecom Co Ltd On the Chinese Text Normalization System and Method of Semantic Cooperative Processing

Also Published As

Publication number Publication date
CN103680503A (zh) 2014-03-26

Similar Documents

Publication Publication Date Title
US10909969B2 (en) Generation of language understanding systems and methods
CN108304375B (zh) 一种信息识别方法及其设备、存储介质、终端
CN111710333B (zh) 用于生成语音转录的方法和系统
US9047870B2 (en) Context based language model selection
US9123335B2 (en) System apparatus circuit method and associated computer executable code for natural language understanding and semantic content discovery
EP3405912A1 (en) Analyzing textual data
US10290299B2 (en) Speech recognition using a foreign word grammar
US11132108B2 (en) Dynamic system and method for content and topic based synchronization during presentations
TW201409462A (zh) 語意辨識方法
KR101677859B1 (ko) 지식 베이스를 이용하는 시스템 응답 생성 방법 및 이를 수행하는 장치
JP2006053906A (ja) コンピューティングデバイスへの入力を提供するための効率的なマルチモーダル方法
US11257484B2 (en) Data-driven and rule-based speech recognition output enhancement
JP6069157B2 (ja) 情報処理装置、制御方法、及びプログラム
US8401855B2 (en) System and method for generating data for complex statistical modeling for use in dialog systems
KR20130126570A (ko) 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
US7324935B2 (en) Method for speech-based information retrieval in Mandarin Chinese
US20050125224A1 (en) Method and apparatus for fusion of recognition results from multiple types of data sources
US7359858B2 (en) User interface for data access and entry
Wang et al. Voice search
TWM453219U (zh) 語意辨識設備
JP5936588B2 (ja) 情報処理装置、制御方法、及びプログラム
CN113096667A (zh) 一种错别字识别检测方法和系统
JP2015069101A (ja) 情報処理装置、制御方法、及びプログラム
Chien et al. A spoken‐access approach for chinese text and speech information retrieval
JP7297266B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム