TWI508033B - 語言學習方法與裝置以及電腦可讀記錄媒體 - Google Patents

語言學習方法與裝置以及電腦可讀記錄媒體 Download PDF

Info

Publication number
TWI508033B
TWI508033B TW102115082A TW102115082A TWI508033B TW I508033 B TWI508033 B TW I508033B TW 102115082 A TW102115082 A TW 102115082A TW 102115082 A TW102115082 A TW 102115082A TW I508033 B TWI508033 B TW I508033B
Authority
TW
Taiwan
Prior art keywords
sentence
learning
input
phoneme sequence
word
Prior art date
Application number
TW102115082A
Other languages
English (en)
Other versions
TW201441991A (zh
Inventor
Hsi Chun Hsiao
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to TW102115082A priority Critical patent/TWI508033B/zh
Priority to CN201310186263.1A priority patent/CN104123931B/zh
Priority to US14/179,572 priority patent/US10102771B2/en
Publication of TW201441991A publication Critical patent/TW201441991A/zh
Application granted granted Critical
Publication of TWI508033B publication Critical patent/TWI508033B/zh

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)

Description

語言學習方法與裝置以及電腦可讀記錄媒體
本發明是有關於一種語言學習方法與裝置以及電腦可讀記錄媒體。
一般來說,現有的語言學習軟體普遍是由軟體開發商對各個詞彙或單字的發音進行預錄,並根據這些預錄的發音產生相對應的聲學模型。當語言學習者利用此語言學習軟體練習發音時,系統會將所接收到的語音訊號與這些聲學模型進行比對,以判斷語言學習者的發音是否有誤等等。
此種學習機制雖然能判斷語言學習者的發音是否有誤,並輸出發音錯誤的詞或單字。但是,語言學習者並無法透過此種學習機制來得知其發音的具體情況。例如,當使用者不斷地重複將英文單字「play」的發音唸成「pay」的發音時,以往的學習機制並不能快速地指出此一重點,而只會不斷地告知語言學習者其發音有誤或提供正確的發音資訊等。
本發明提供一種語言學習方法與裝置以及電腦可讀記錄媒體,可有效地提升使用者學習外語發音之效率。
本發明提出一種語言學習方法,此方法包括:根據語法規則將來自語音接收器的輸入語音轉換為輸入字句;判斷輸入字句與顯示器所顯示的學習字句是否相同;以及若輸入字句與學習字句不相同,產生包含輸入字句中與學習字句不相同之至少一誤差詞的輔助資訊。
在本發明之一實施例中,上述之根據語法規則將來自語音接收器的輸入語音轉換為輸入字句的步驟包括:取得對應於輸入語音的第一音素序列;以及根據語法規則取得對應於第一音素序列的輸入字句。
在本發明之一實施例中,上述之判斷輸入字句與顯示器所顯示的學習字句是否相同的步驟包括:取得對應於輸入字句的一第二音素序列;判斷第二音素序列是否與對應於學習字句的標準音素序列相同;以及若第二音素序列與標準音素序列不相同,判定輸入字句與學習字句不相同。
在本發明之一實施例中,上述之判斷第二音素序列是否與對應於學習字句的標準音素序列相同的步驟包括:利用一動態時間校正演算法比對第二音素序列與標準音素序列;以及根據動態時間校正演算法的一比對結果判斷第二音素序列與標準音素序 列是否相同。
在本發明之一實施例中,上述之產生包含輸入字句中與學習字句不相同之至少一誤差詞的輔助資訊的步驟包括:根據動態時間校正演算法的比對結果取得第二音素序列與標準音素序列之間的誤差資訊;根據誤差資訊從輸入字句中取得至少一誤差詞以及學習字句中對應於至少一誤差詞的至少一標準詞;以及產生包含至少一誤差詞以及至少一標準詞的輔助資訊。
在本發明之一實施例中,上述之判斷輸入字句與顯示器所顯示的學習字句是否相同的步驟包括:利用一動態時間校正演算法比對輸入字句與學習字句;根據動態時間校正演算法的一比對結果取得輸入字句與學習字句之間的一相同資訊;根據相同資訊將輸入字句中與學習字句相同的至少一正確詞與學習字句中對應於至少一正確詞的至少一標準詞進行對齊;以及若輸入字句與學習字句無法完全對齊,判定輸入字句與學習字句不相同。
在本發明之一實施例中,上述之產生包含輸入字句中與學習字句不相同之至少一誤差詞的輔助資訊的步驟包括:根據學習字句的文法格式將輸入字句劃分為至少一詞組;以及以至少一詞組為單位產生包含至少一誤差詞的輔助資訊。
在本發明之一實施例中,上述之語言學習方法更包括:透過顯示裝置顯示學習字句;以及透過語音接收裝置接收輸入語音。
本發明另提出一種語言學習裝置,包括第一處理器以及 第二處理器。第一處理器用以根據語法規則將輸入語音轉換為輸入字句。第二處理器用以判斷輸入字句與學習字句是否相同,其中若輸入字句與學習字句不相同,第二處理器產生包含輸入字句中與學習字句不相同之至少一誤差詞的輔助資訊。
在本發明之一實施例中,上述之第一處理器取得對應於輸入語音的第一音素序列,並根據語法規則取得對應於第一音素序列的輸入字句。
在本發明之一實施例中,上述之第二處理器取得對應於輸入字句的第二音素序列,並判斷第二音素序列是否與對應於學習字句的標準音素序列相同,其中若第二音素序列與標準音素序列不相同,第二處理器判定輸入字句與學習字句不相同。
在本發明之一實施例中,上述之第二處理器利用動態時間校正演算法比對第二音素序列與標準音素序列,並根據動態時間校正演算法的比對結果判斷第二音素序列與標準音素序列是否相同。
在本發明之一實施例中,若第二音素序列與標準音素序列不相同,第二處理器根據動態時間校正演算法的比對結果取得第二音素序列與標準音素序列之間的誤差資訊,根據誤差資訊從輸入字句中取得至少一誤差詞以及學習字句中對應於至少一誤差詞的至少一標準詞,並產生包含至少一誤差詞以及至少一標準詞的輔助資訊。
在本發明之一實施例中,上述之第二處理器更用以利用 動態時間校正演算法比對輸入字句與學習字句,並根據動態時間校正演算法的比對結果取得輸入字句與學習字句之間的相同資訊,其中第二處理器更用以根據相同資訊將輸入字句中與學習字句相同的至少一正確詞與學習字句中對應於至少一正確詞的至少一標準詞進行對齊,其中若輸入字句與學習字句無法完全對齊,第二處理器判定輸入字句與學習字句不相同。
在本發明之一實施例中,上述之第二處理器更用以根據學習字句的文法格式將輸入字句劃分為至少一詞組,並以至少一詞組為單位產生包含至少一誤差詞的輔助資訊。
在本發明之一實施例中,上述之語言學習裝置更包括顯示器與語音接收器,其中顯示器用以顯示學習字句,並且語音接收器用以接收輸入語音。
從另一角度來看,本發明另提出一種電腦可讀記錄媒體,此電腦可讀記錄媒體儲存多個程式碼,當這些程式碼被載入至處理器後,處理器執行這些程式碼以完成下列步驟:根據語法規則將來自語音接收器的輸入語音轉換為輸入字句;判斷輸入字句與顯示器所顯示的學習字句是否相同;以及若輸入字句與學習字句不相同,產生包含輸入字句中與學習字句不相同之至少一誤差詞的輔助資訊。
基於上述,本發明提出的語言學習方法與裝置以及電腦可讀記錄媒體,可將使用者發出的輸入語音轉換為輸入字句,並透過音素比對或字句比對的方式來判斷輸入字句與顯示器所顯示 的學習字句是否相同。若輸入字句與學習字句不相同時,產生包含輸入字句中與學習字句不相同之誤差詞的輔助資訊。藉此,當使用者觀看此輔助資訊時,使用者可很明確地得知其發音錯誤真正的問題,並讓使用者釐清其是否有將某個單字與另一個單字混淆。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
10‧‧‧語言學習裝置
11‧‧‧顯示器
12‧‧‧儲存媒體
13‧‧‧語音接收器
14‧‧‧第一處理器
15‧‧‧第二處理器
31‧‧‧比對畫面
311、71‧‧‧學習字句
3111~3113、3121~3123‧‧‧音素組
312、72‧‧‧輸入字句
313‧‧‧輔助資訊
321~323‧‧‧功能按鈕
51‧‧‧標準音素序列
511~514、521‧‧‧音素
52‧‧‧第二音素序列
711~713‧‧‧標準詞
721~723‧‧‧正確詞
S202、S204、S206、S208、S210‧‧‧本發明之第一實施例的語言學習方法各步驟
S402、S404、S406、S408、S410、S412、S414、S416、S418、S420、S422‧‧‧本發明之第二實施例的語言學習方法各步驟
S602、S604、S606、S608、S610、S612、S614、S616、S618、S620、S622‧‧‧本發明之第三實施例的語言學習方法各步驟
S802、S804、S806、S808、S810、S812、S814、S816、S818、S820、S822、S824、S826、S828、S830、S832、S834、S836‧‧‧本發明之第四實施例的語言學習方法各步驟
圖1為根據本發明之第一範例實施例所繪示的語言學習裝置的功能方塊圖。
圖2為根據本發明之第一範例實施例所繪示的語言學習方法的流程示意圖。
圖3為根據本發明之第一範例實施例所繪示的輔助資訊的示意圖。
圖4為依據本發明之第二範例實施例所繪示的語言學習方法的流程示意圖。
圖5為根據本發明之第二範例實施例所繪示的比對第二音素序列與標準音素序列的示意圖。
圖6為依據本發明之第三範例實施例所繪示的語言學習方法的流程示意圖。
圖7A為根據本發明之第三範例實施例所繪示的比對輸入字句與學習字句的示意圖。
圖7B為根據本發明之第三範例實施例所繪示的將輸入字句劃分為詞組的示意圖。
圖7C為根據本發明之第三範例實施例所繪示的劃分非屬於片語結構之詞組的示意圖。
圖8為依據本發明之第四範例實施例所繪示的語言學習方法的流程示意圖。
為了提昇語言學習者學習外語(例如,英語、日語或其他語言)之效率,本發明實施例提出一種語言學習方法,可透過一顯示器顯示供使用者學習的學習字句,並接收使用者根據此學習字句所發出的語音。接著,將使用者所發出的語音轉換為相對應的輸入字句,並透過音素(phoneme)比對或字句(sentence)比對等方式來比對此輸入字句與作為發音練習之範例的學習字句,進而產生相對應的輔助資訊或執行預設操作。
此外,本發明實施例更揭示了可用於體現上述語言學習方法的語言學習裝置與電腦可讀記錄媒體。為了使本發明之內容更容易明瞭,以下特舉實施例作為本發明確實能夠據以實施的範例。
[第一範例實施例]
圖1為根據本發明之第一範例實施例所繪示的語言學習裝置的功能方塊圖。請參照圖1,語言學習裝置10可以是個人數位助理(Personal Digital Assistant,PDA)、智慧型手機(smart phone)、筆記型電腦(notebook)、平板電腦(Tablet PC)或桌上型電腦等各式具運算功能的電子裝置。
語言學習裝置10包括顯示器11、儲存媒體12、語音接收器13、第一處理器14以及第二處理器15。
顯示器11例如是液晶顯示器(Liquid Crystal Display,LCD)、發光二極管(Light-Emitting Diode,LED)顯示器、場發射顯示器(Field Emission Display,FED)或其它種類的顯示器。或者,顯示器11也可以是具有觸控功能的顯示器,本發明不對其限制。
儲存媒體12例如是各種非揮發性記憶體(non-volatile)或其組合,例如唯讀記憶體(read-only memory,ROM)及/或快閃記憶體(flash memory)。另外,儲存媒體12另可包括硬碟、光碟或外接式儲存裝置(如記憶卡、隨身碟等)等儲存媒體或其組合,在此並不對儲存媒體12的體現方式加以限制。
在本範例實施例中,儲存媒體12可儲存有一聲學(Acoustic)資料庫與一語法(Grammar)資料庫。此聲學資料庫儲存有多個聲學模型以及對應於這些聲學模型的音素,其中每一個聲學模型對應至一個或多個音素之組合。在此提及的音素可以是發音上的最小單位,例如KK音標、自然發音(Phonics)的音標或注音符號(Phonetic Symbols)等,視實務上的需求而定。此 語法資料庫儲存有多個詞、單字、這些單次或詞常用的語法規則及/或片語結構等資訊。
在本範例實施例中,儲存媒體12的語法資料庫例如是以規則法(method of rules)或統計法(method of statistics)來加以建構。以規則法為例,可將一語言(例如,英語)的所有或常用的語法規則輸入至此語法資料庫中,以建構此語法資料庫。或者,以統計法為例,可透過隨機上下文無關文法(probabilistic context-free grammar,PCFG)來建構統計式的語法資料庫。特別是,對於PCFG來說,其還具有自動學習(learning)機制,而可更加提升使用上的便利性。此外,在一實施例中,聲學資料庫也可以是利用網路上現有的語音資料庫(例如,Google語音資料庫)來取代,且語法資料庫也可利用線上的各文法資料庫來取代,視實務上的需求而定。
語音接收器13例如是麥克風或各式具有語音接收功能的語音接收裝置。第一處理器14與第二處理器15例如是獨立的兩個邏輯電路(logic circuit)或中央處理器(central processing unit,CPU)。或者,第一處理器14與第二處理器15也可以是以同一個中央處理器、晶片組或邏輯電路來實施,本發明不對其限制。
圖2為根據本發明之第一範例實施例所繪示的語言學習方法的流程示意圖。以下將以配合圖1與圖2之方式來說明本範例實施例所述之語言學習方法的各步驟,以及語言學習裝置10的詳細實施方式。
請參照圖1與圖2,當使用者開始進行語言學習時,使用者可觀看由顯示器11顯示的一字句(以下統稱為學習字句)。在步驟S202中,第一處理器14可根據預設的語法規則將來自語音接收器13的輸入語音訊號(以下統稱為輸入語音)轉換為輸入字句。
舉例來說,當第一處理器14接收到來自語音接收器13的輸入語音時,首先,第一處理器14可取得對應於此輸入語音的音素序列(以下統稱為第一音素序列)。例如,第一處理器14可將此輸入語音與儲存媒體12的聲學資料庫中的一個或多個聲學模型進行比對,以取得與此輸入語音最匹配的一個或多個聲學模型。然後,第一處理器14可根據所述一個或多個聲學模型自此聲學資料庫中取得第一音素序列。在本範例實施例中,第一音素序列包括一個或多個音素。
接著,第一處理器14可查詢儲存媒體12的語法資料庫,以根據儲存於語法資料庫中的語法規則取得對應於第一音素序列的輸入字句。特別是,在取得輸入字句的過程中,本範例實施例實質上是將輸入語音經過音素分析、語法分析及/或最佳化處理才得到此輸入字句,因此,所取得的輸入字句已可概略地符合該語言之常用的語法規則或片語結構。以英文作為使用者學習之語言以及以KK音標作為音素格式之範例來看,當第一處理器14根據輸入語音所辨識出的第一音素序列為「kudtu」時,透過查詢語法資料庫,第一處理器14可產生例如是「could to」的輸入字句。其 中,取得第一音素序列(即,「kudtu」)為音素分析的結果,而產生輸入字句(即,「could to」)則為語法分析以及最佳化處理的結果。
接續於步驟S202,在步驟S204中,第二處理器15可判斷第一處理器14所產生的輸入字句與學習字句是否相同。在此提及的學習字句可儲存於儲存媒體12的一學習字句資料庫中,而當使用者欲進行發音練習時,第二處理器15可自儲存媒體12中取出此學習字句,並透過顯示器11將其顯示以供使用者觀看。在本範例實施例中,第二處理器15可直接將此輸入字句與此學習字句進行比對,以判斷此輸入字句與此學習字句是否相同。
若第二處理器15判斷此輸入字句與此學習字句不相同,於步驟S206中,第二處理器15可產生包含此輸入字句中與此學習字句不相同之一個或多個誤差詞的輔助資訊。
舉例來說,圖3為根據本發明之第一範例實施例所繪示的輔助資訊的示意圖。請參照圖3,假設顯示器(例如,顯示器11)所顯示的比對畫面31中,學習字句311有一個詞為「basketball」,但第一處理器14根據使用者的語音所產生的輸入字句312中相對應的詞為「baseball」。此時,第二處理器15會判斷輸入字句312與學習字句311不相同,並產生包括此誤差詞(即,「baseball」)的輔助資訊313。以圖3為例,輔助資訊313例如是「您將學習字句中的“basketball”的發音,誤發為“baseball”的發音」。藉此,使用者可根據此輔助資訊313得知 其誤將「basketball」的發音發成「baseball」的發音,並根據輔助資訊313對發音不正確之處多加練習。
此外,若第二處理器15判斷此輸入字句與此學習字句相同,則於步驟S210中,第二處理器15執行一預設操作。例如,透過顯示器11顯示另一個學習字句等。
換言之,本發明除了會告知使用者其發音有誤以及誤發的音之外,還可進一步的告知使用者其是將某個單字或詞的發音誤發成另一個單字或詞的發音(例如,將「basketball」的發音發成「baseball」的發音)。藉此,不僅可提醒使用者其發音上的盲點,也可同時提供正確的詞與使用者發音錯誤的詞以產生對比資訊(例如,發音類似的「basketball」與「baseball」),進而有效地提升使用者在學習外語時的學習效率。
在此需注意的是,本範例實施例中提及的比對畫面(例如,比對畫面31)及/或輔助資訊(例如,輔助資訊313)還可以包括各種具有輔助學習之功能的資訊。以圖3為例,比對畫面31可包括用於指示學習字句311的發音方式的音素組3111~3113(即,「a I」、「ple」以及「bæsk I tbl」)以及用於指示輸入字句312的發音方式的音素組3121~3123(即,「a I」、「ple」以及「besbl」)等。或者,如圖3所示,比對畫面31也可具有功能按鈕321~323等,本發明不對其限制。例如,當使用者點選功能按鈕321時,可重新學習前一個學習字句。當使用者點選功能按鈕322時,可開始學習下一個學習字句。當使用者點選功能按鈕 323時,可進入設定選單執行各種設定操作。
然而,本發明不以上述實施方式為限。在一範例實施例中,第二處理器還可以利用比對第一音素序列與學習字句的標準音素序列之方式,來判斷使用者的發音是否有誤,並顯示相對應的輔助資訊來輔助使用者對其發音有誤之處進行調整。
[第二範例實施例]
圖4為依據本發明之第二範例實施例所繪示的語言學習方法的流程示意圖。在此請注意,第二範例實施例的硬體架構類似於第一範例實施例的硬體架構,因此,在此不再重複贅述。以下將利用第一範例實施例的元件來說明第二範例實施例。
請參照圖1與圖4,當使用者開始進行語言學習時,使用者觀看由顯示器11顯示的一學習字句(例如,圖3中的學習字句311)。在步驟S402中,語音接收器13接收使用者所發出的輸入語音。接著,在步驟S404中,第一處理器14取得對應於輸入語音的第一音素序列。然後,在步驟S406中,第一處理器14根據儲存於儲存媒體12中的語法規則取得對應於第一音素序列的輸入字句(例如,圖3中的輸入字句312)。步驟S402、步驟S404以及步驟S406之可實施方式可參考上述對於第一範例實施例中步驟S202的說明,故在此不再贅述。
接續於步驟S406,在步驟S408中,第二處理器15會取得對應於步驟S406中產生的輸入字句之音素序列(以下統稱為第二音素序列)。以圖3為例,第二處理器15可自儲存媒體12中取 得輸入字句312中每一個單字或詞所對應的音素組3121~3123(即,「a I」、「ple」以及「besbl」),並將音素組3111~3113進行組合而產生此第二音素序列(例如,「a I plebesbl」)。
然後,於步驟S410中,第二處理器15自儲存媒體12中取得對應於學習字句的標準音素序列。以圖3為例,第二處理器15可將學習字句311的音素組3111~3113組合為標準音素序列(即,「a I plebæsk I tbl」),並利用一動態時間校正演算法(Dynamic Time Warping,DTW)比對此第二音素序列(例如,「a I plebesbl」)與此標準音素序列(例如,「a I plebæsk I tbl)。
特別是,對於大部分的語言來說,當多個單字或詞合併為一個句子時,此句子中部分單字或詞的發音可能會改變。舉例來說,這些發音的改變包括連音、消音、弱音及/或變音等等。若使用者在學習發音時沒有考慮到這些發音的改變,而僅是依據各個單字或詞固定的發音方式來發音,則在未來口語的表達上可能會始終無法更進一步。
因此,於步驟S410中,第二處理器15實質上可適應性地根據單字或詞在句子中不同的位置或組合,而自儲存媒體12中取得並產生符合此句子的整體語法結構的標準音素序列。
接著,於步驟S412中,第二處理器15根據此動態時間校正演算法的比對結果判斷第二音素序列與此標準音素序列是否相同。若第二處理器15判斷第二音素序列與此標準音素序列相同,於步驟S414中,第二處理器15執行一預設操作。例如,透 過顯示器11顯示另一個學習字句等。
圖5為根據本發明之第二範例實施例所繪示的比對第二音素序列與標準音素序列的示意圖。請參照圖5,假設標準音素序列51為「a I plebæsk I tbl」,且第二音素序列52為「a I plebesbl」。在第二處理器15利用上述動態時間校正演算法將標準音素序列51(即,「a I plebæsk I tbl」)與第二音素序列52(即,「a I plebesbl」)進行比對之後,第二處理器15可得知標準音素序列51與第二音素序列52不相同,且造成標準音素序列51與第二音素序列52的音素分別是標準音素序列51中的音素511~514以及第二音素序列52中的音素521。
換言之,根據動態時間校正演算法的比對結果,第二處理器15可得知使用者是將標準音素序列51中音素511(即,「æ」)的音誤發成第二音素序列52中音素521(即,「e」)的音,並漏發了標準音素序列51中音素512~514(即,「k」、「I」、「t」)的音。
承上所述,既然標準音素序列51與第二音素序列52不相同,標準音素序列51所對應的學習字句以及第二音素序列52所對應的輸入字句也不相同,因此,在本範例實施例中,透過比對標準音素序列51以及第二音素序列52,同樣可作為第一範例實施例的步驟S204中判斷學習字句與輸入字句是否相同的技術手段之一。
請再次參照圖4,若第二處理器15判斷第二音素序列與此標準音素序列不相同,則在步驟S416中,第二處理器15可根 據動態時間校正演算法的比對結果取得此第二音素序列與此標準音素序列之間的誤差資訊。例如,以圖5為例,第二處理器15所取得的誤差資訊包括使用者將標準音素序列51中音素511(即,「æ」)的音誤發成第二音素序列52中音素521(即,「e」)的音,並漏發了標準音素序列51中音素512~514(即,「k」、「I」、「t」)的音等等。
接著,在步驟S418中,第二處理器15可根據此誤差資訊從此輸入字句中取得一個或多個誤差詞以及此學習字句中對應於所述一個或多個誤差詞的一個或多個標準詞。例如,以圖5為例,第二處理器15可根據音素511~514取得標準音素序列51所對應之學習字句中的標準詞「basketball」,並根據音素521以及缺少音素512~514的位置取得第二音素序列52所對應之輸入字句中的誤差詞「baseball」。
然後,在步驟S420中,第二處理器15可產生包含所述一個或多個誤差詞以及所述一個或多個標準詞的輔助資訊。例如,以圖3為例,第二處理器15可產生輔助資訊313或其他類似的輔助資訊,在此不再贅述。接著,於步驟S422中,第二處理器15可透過顯示器11顯示此輔助資訊。
然而,本發明仍不以上述實施方式為限。在一範例實施例中,第二處理器還可以透過將輸入字句與學習字句進行中相同的詞進行對齊的方式,來判斷使用者的發音是否有誤,並透過片語結構的方式來呈現比對結果。藉此,可同時達到文法教學以及 以片語作為一個發音單位來練習發音之功效。
[第三範例實施例]
圖6為依據本發明之第三範例實施例所繪示的語言學習方法的流程示意圖。在此請注意,第三範例實施例的硬體架構類似於第一範例實施例的硬體架構,因此,在此不再重複贅述。以下將利用第一範例實施例的元件來說明第三範例實施例。
請參照圖1與圖6,當使用者開始進行語言學習時,使用者可觀看由顯示器11顯示的一學習字句(例如,圖3中的學習字句311)。在步驟S602中,語音接收器13接收使用者所發出的輸入語音。接著,在步驟S604中,第一處理器14取得對應於輸入語音的第一音素序列。然後,在步驟S606中,第一處理器14根據儲存於儲存媒體12中的語法規則取得對應於第一音素序列的輸入字句(例如,圖3中的輸入字句312)。步驟S602、步驟S604以及步驟S606之可實施方式可參考上述對於第一範例實施例中步驟S202的說明,故在此不再贅述。
接續於步驟S606,在步驟S608中,第二處理器15比對此輸入字句與此學習字句。例如,第二處理器15可利用上述動態時間校正演算法將輸入字句與學習字句進行比對。
圖7A為根據本發明之第三範例實施例所繪示的比對輸入字句與學習字句的示意圖。請參照圖7A,假設學習字句71為「Could you turn the volume up a little」,且輸入字句72為「Could to tend to volume of a teacup」。在第二處理器15利用上述動態時 間校正演算法將學習字句71(即,「Could you turn the volume up a little」)與輸入字句72(即,「Could to tend to volume of a teacup」)進行比對之後,第二處理器15可得知輸入字句72中的正確詞721~723與學習字句71中的標準詞711~713皆依序為「Could」、「volume」以及「a」。
請再次參照圖6,接續於步驟S608,於步驟S610中,第二處理器15可根據此動態時間校正演算法的比對結果取得輸入字句與學習字句之間的相同資訊。以圖7A為例,此相同資訊可包含輸入字句72中的正確詞721~723與學習字句71中的標準詞711~713,以及正確詞721~723與標準詞711~713的對應關係。
接著,於步驟S612中,第二處理器15根據此相同資訊將輸入字句中與學習字句相同的一個或多個正確詞與學習字句中對應於所述一個或多個正確詞的一個或多個標準詞進行對齊。以圖7A為例,第二處理器15將輸入字句72中的正確詞721~723依序與學習字句71中的標準詞711~713一對一對齊。
然後,於步驟S614中,第二處理器15判斷此輸入字句與此學習字句是否可完全對齊。若第二處理器15判斷此輸入字句與此學習字句可完全對齊,表示輸入字句與學習字句相同。因此,在步驟S614之後,第二處理器15可接續執行步驟S616,以執行一預設操作。例如,透過顯示器11顯示另一個學習字句等。
另外,若第二處理器15判斷此輸入字句與此學習字句無法完全對齊(例如,圖7A中的輸入字句72中僅正確詞721~723 可與學習字句71中的標準詞711~713對齊),則在步驟S614之後第二處理器15接續執行步驟S618。
在步驟S618中,第二處理器15根據學習字句的文法格式將輸入字句劃分為一個或多個詞組。例如,第二處理器15可查詢儲存媒體12中的語法資料庫,以取得學習字句中符合預設的語法規則之文法格式。
圖7B為根據本發明之第三範例實施例所繪示的將輸入字句劃分為詞組的示意圖。請參照圖7B,透過查詢語法資料庫,第二處理器15可以得知學習字句71包含片語結構731~733,且片語結構731~733分別是「could you」、「volume up」以及「a little」。因此,在本範例實施例中,第二處理器15可根據學習字句71的文法結構對應地將輸入字句72依序劃分為詞組741~743,並且詞組741~743分別是「could you」、「volume of」以及「a teacup」。
請再次參照圖6,接續於步驟S618,在步驟S620中,第二處理器15以所述一個或多個詞組為單位,產生包含一個或多個誤差詞的輔助資訊。然後,在步驟S622中,第二處理器15透過顯示器11顯示此輔助資訊。
舉例來說,下列表1為根據本發明之第三範例實施例所繪示的輔助資訊之表格。請參照圖7B以及表1,若以詞組741~743為單位來看,首先,使用者是將學習字句71中「could you」的音誤發為輸入字句72中「could to」的音,故輔助資訊中可告知使用者其應加強「j」(即,[kd ju]中的「j」)的發音。其次,使用者 也將學習字句71中「volume up」的音誤發為輸入字句72中「volume of」的音,故輔助資訊中可告知使用者其應加強「^p」(即,[v a ljm^p]中的「^p」)的發音。再者,使用者還將學習字句71中「a little」的音誤發為輸入字句72中「a teacup」的音,故輔助資訊中可告知使用者其應加強「l I」與「tl」(即,[e l I tl]中的「l I」與「tl」)的發音。
請再次參照圖6,在步驟S618中,第二處理器15也可將學習字句與輸入字句中沒有被劃分入片語結構中的詞或單字,分別劃分為多個非屬於片語結構之詞組。然後,於步驟S620中,第二處理器15可將多個詞組進行結合,並以這些結合後的詞組為單位產生包含誤差詞的輔助資訊。
舉例來說,圖7C為根據本發明之第三範例實施例所繪示的劃分非屬於片語結構之詞組的示意圖。請參照圖7C,第二處理器15可利用詞組731與732作為邊界,將詞組731與732中間的詞劃分為詞組751(即,非屬於片語結構之詞組)。或者,第二處 理器15也可透過查詢儲存媒體12的語法資料庫來取得詞組751。
然後,第二處理器15可利用詞組741與742作為邊界,將詞組741與742中間的詞劃分為詞組761(即,非屬於片語結構之詞組)。藉此,儘管輸入字句72僅是雜亂的單字或詞之組合,第二處理器15也可系統化地對輸入字句進行整理,以便產生對其進一步的分析或產生其他應用。
例如,下列表2為根據本發明之第三範例實施例所繪示的另一輔助資訊之表格。請參照圖7C以及表2,第二處理器15可另顯示包含將詞組751與732結合以及將詞組761與詞組742結合之輔助資訊。藉此,使用者可根據輔助資訊勤加練習「turn the volume up」的發音,以避免在與外語人士溝通時,使其聽成「tend to volume of」。
然而,本發明仍不以上述實施方式為限。在一範例實施例中,第二處理器還可判斷是否需將輸入字句劃分為多個詞組。若輸入字句無法或不需要被劃分為多個詞組,則使用上述第二範例實施例的實施方式來執行後續的操作。反之,若輸入字句可以被劃分為多個詞組,則可使用上述第三範例實施例的實施方式來 執行後續的操作。藉此,有效地提升本發明在使用上的彈性。
[第四範例實施例]
圖8為依據本發明的第四範例實施例所繪示的語言學習方法的流程示意圖。在此請注意,第四範例實施例的硬體架構類似於第一範例實施例的硬體架構,因此,在此不再重複贅述。以下將利用第一範例實施例的元件來說明第四範例實施例。
請參照圖1與圖8,當使用者開始進行語言學習時,使用者可觀看由顯示器11顯示的一學習字句(例如,圖3中的學習字句311)。在步驟S802中,語音接收器13接收使用者所發出的輸入語音。接著,在步驟S804中,第一處理器14取得對應於輸入語音的第一音素序列。然後,在步驟S806中,第一處理器14根據儲存於儲存媒體12中的語法規則取得對應於第一音素序列的輸入字句(例如,圖3中的輸入字句312)。步驟S802、步驟S804以及步驟S806之可實施方式可參考上述對於第一範例實施例中步驟S202的說明,故在此不再贅述。
值得一提的是,在步驟S808中,第二處理器15會判斷學習字句是否可劃分為多個詞組,以作為是否可將輸入字句劃分為多個詞組的依據。例如,第二處理器15可查詢儲存媒體12的語法資料庫,以取得學習字句的文法格式。然後,第二處理器15根據學習字句的文法格式來判斷學習字句是否包含一個或多個的片語結構。若第二處理器15判斷學習字句沒有包含任何片語結構,第二處理器15判定學習字句不可劃分為多個詞組,並在步驟 S808之後接續執行步驟S810。此外,若第二處理器15判斷學習字句有包含一個或多個片語結構,則第二處理器15判定學習字句可劃分為多個詞組,並在步驟S808之後接續執行步驟S822。
或者,在步驟S808中,第二處理器15也可以根據使用者的選擇操作來選擇要接續執行步驟S810或S822。在此請注意,步驟S810至步驟S836的實施方式已詳細地記載於上述範例實施例中,故在此不再贅述。例如,步驟S810~步驟S820可參考上述步驟S408~步驟S420之實施方式,而步驟S822~步驟S832則可參考上述步驟S608~步驟S620之實施方式。
另一方面,上述範例實施例中提及的語言學習方法各步驟亦可以軟體或韌體的形式來加以實施。例如,本發明另一範例實施例提出一種電腦可讀記錄媒體,其基本概念類似於上述各範例實施例。所述電腦可讀記錄媒體可為任何可儲存資料的資料儲存元件,其儲存多個程式碼,當這些程式碼被載入至處理器後,此處理器執行這些程式碼以完成上述各範例實施例所述之方法步驟及其相關作動。所述電腦可讀記錄媒體可以包括唯讀記憶體(Read-Only Memory,ROM)、快閃記憶體(flash memory)、CD-ROM、磁帶、軟性磁碟、光學資料儲存元件等。所述電腦可讀記錄媒體亦可分佈於網路耦接的電腦系統上,從而可用分佈式方式來儲存及執行上述程式碼。另外,上述微處理器單元可以是嵌入式處理器(embedded processor)或中央處理器(central processing unit,CPU)等,但本發明可實施方式並不對限定於上述。
綜上所述,有別於以往預先給定每個單字或詞一個固定的發音方式,本發明可針對單字或詞在輸入字句中不同的位置及/或排列方式而適應性地調整這些單字或詞的發音方式,讓使用者更為貼近以此語言作為母語的外語人士之發音習慣。當使用者完成每一次的發音練習之後,使用者可根據此輔助資訊而得知其發音需要改進之處或根據預設操作進行下一個發音練習等。此外,透過系統化的將輸入字句與學習字句的文法結構相互對應,本發明還可利用片語或文法結構的觀點來告知使用者如何修正其在讀整個句子或部分句子時的發音。藉此,可有效地提高學習外語時的學習效率。
雖然本發明已以範例實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作些許之更動與潤飾,故本發明之保護範圍當視後附之申請專利範圍所界定者為準。
S202、S204、S206、S208、S210‧‧‧語言學習方法各步驟

Claims (18)

  1. 一種語言學習方法,包括:根據一語法規則將來自一語音接收器的一輸入語音轉換為一輸入字句;判斷該輸入字句與一顯示器所顯示的一學習字句是否相同;以及若該輸入字句與該學習字句不相同,產生包含該輸入字句中與該學習字句不相同之至少一誤差詞的一輔助資訊,其中根據該語法規則將來自該語音接收器的該輸入語音轉換為該輸入字句的步驟包括:取得對應於該輸入語音的一第一音素序列;以及根據該語法規則取得對應於該第一音素序列的該輸入字句,其中判斷該輸入字句與該顯示器所顯示的該學習字句是否相同的步驟包括:取得對應於該輸入字句的一第二音素序列;判斷該第二音素序列是否與對應於該學習字句的一標準音素序列相同;以及若該第二音素序列與該標準音素序列不相同,判定該輸入字句與該學習字句不相同。
  2. 如申請專利範圍第1項所述之語言學習方法,其中判斷該第二音素序列是否與對應於該學習字句的該標準音素序列相同的 步驟包括:利用一動態時間校正演算法比對該第二音素序列與該標準音素序列;以及根據該動態時間校正演算法的一比對結果判斷該第二音素序列與該標準音素序列是否相同。
  3. 如申請專利範圍第2項所述之語言學習方法,其中產生包含該輸入字句中與該學習字句不相同之該至少一誤差詞的該輔助資訊的步驟包括:根據該動態時間校正演算法的該比對結果取得該第二音素序列與該標準音素序列之間的一誤差資訊;根據該誤差資訊從該輸入字句中取得該至少一誤差詞以及該學習字句中對應於該至少一誤差詞的至少一標準詞;以及產生包含該至少一誤差詞以及該至少一標準詞的該輔助資訊。
  4. 如申請專利範圍第1項所述之語言學習方法,其中判斷該輸入字句與該顯示器所顯示的該學習字句是否相同的步驟包括:利用一動態時間校正演算法比對該輸入字句與該學習字句;根據該動態時間校正演算法的一比對結果取得該輸入字句與該學習字句之間的一相同資訊;根據該相同資訊將該輸入字句中與該學習字句相同的至少一正確詞與該學習字句中對應於該至少一正確詞的至少一標準詞進行對齊;以及 若該輸入字句與該學習字句無法完全對齊,判定該輸入字句與該學習字句不相同。
  5. 如申請專利範圍第4項所述之語言學習方法,其中產生包含該輸入字句中與該學習字句不相同之該至少一誤差詞的該輔助資訊的步驟包括:根據該學習字句的一文法格式將該輸入字句劃分為至少一詞組;以及以該至少一詞組為單位產生包含該至少一誤差詞的該輔助資訊。
  6. 如申請專利範圍第1項所述之語言學習方法,更包括:透過該顯示裝置顯示該學習字句;以及透過該語音接收裝置接收該輸入語音。
  7. 一種語言學習裝置,包括:一第一處理器,用以根據一語法規則將一輸入語音轉換為一輸入字句;以及一第二處理器,用以判斷該輸入字句與一學習字句是否相同,其中若該輸入字句與該學習字句不相同,該第二處理器產生包含該輸入字句中與該學習字句不相同之至少一誤差詞的一輔助資訊,其中該第一處理器取得對應於該輸入語音的一第一音素序列,並根據該語法規則取得對應於該第一音素序列的該輸入字句,其中該第二處理器取得對應於該輸入字句的一第二音素序 列,並判斷該第二音素序列是否與對應於該學習字句的一標準音素序列相同,其中若該第二音素序列與該標準音素序列不相同,該第二處理器判定該輸入字句與該學習字句不相同。
  8. 如申請專利範圍第7項所述之語言學習裝置,其中該第二處理器利用一動態時間校正演算法比對該第二音素序列與該標準音素序列,並根據該動態時間校正演算法的一比對結果判斷該第二音素序列與該標準音素序列是否相同。
  9. 如申請專利範圍第8項所述之語言學習裝置,其中若該第二音素序列與該標準音素序列不相同,該第二處理器根據該動態時間校正演算法的該比對結果取得該第二音素序列與該標準音素序列之間的一誤差資訊,根據該誤差資訊從該輸入字句中取得該至少一誤差詞以及該學習字句中對應於至少一誤差詞的至少一標準詞,並產生包含該至少一誤差詞以及該至少一標準詞的該輔助資訊。
  10. 如申請專利範圍第7項所述之語言學習裝置,其中該第二處理器更用以利用一動態時間校正演算法比對該輸入字句與該學習字句,並根據該動態時間校正演算法的一比對結果取得該輸入字句與該學習字句之間的一相同資訊,其中該第二處理器更用以根據該相同資訊將該輸入字句中與該學習字句相同的至少一正確詞與該學習字句中對應於該至少一正確詞的至少一標準詞進行對齊,其中若該輸入字句與該學習字句無法完全對齊,該第二處理 器判定該輸入字句與該學習字句不相同。
  11. 如申請專利範圍第10項所述之語言學習裝置,其中該第二處理器更用以根據該學習字句的一文法格式將該輸入字句劃分為至少一詞組,並以該至少一詞組為單位產生包含該至少一誤差詞的該輔助資訊。
  12. 如申請專利範圍第7項所述之語言學習裝置,更包括一顯示器與一語音接收器,其中該顯示器用以顯示該學習字句,並且該語音接收器用以接收該輸入語音。
  13. 一種電腦可讀記錄媒體,儲存多個程式碼,當該些程式碼被載入至一處理器後,該處理器執行該些程式碼以完成下列步驟:根據一語法規則將來自一語音接收器的一輸入語音轉換為一輸入字句;判斷該輸入字句與一顯示器所顯示的一學習字句是否相同;以及若該輸入字句與該學習字句不相同,產生包含該輸入字句中與該學習字句不相同之至少一誤差詞的一輔助資訊,其中根據該語法規則將來自該語音接收器的該輸入語音轉換為該輸入字句的步驟包括:取得對應於該輸入語音的一第一音素序列;以及根據該語法規則取得對應於該第一音素序列的該輸入字句, 其中判斷該輸入字句與該顯示器所顯示的該學習字句是否相同的步驟包括:取得對應於該輸入字句的一第二音素序列;判斷該第二音素序列是否與對應於該學習字句的一標準音素序列相同;以及若該第二音素序列與該標準音素序列不相同,判定該輸入字句與該學習字句不相同。
  14. 如申請專利範圍第13項所述之電腦可讀記錄媒體,其中判斷該第二音素序列是否與對應於該學習字句的該標準音素序列相同的步驟包括:利用一動態時間校正演算法比對該第二音素序列與該標準音素序列;以及根據該動態時間校正演算法的一比對結果判斷該第二音素序列與該標準音素序列是否相同。
  15. 如申請專利範圍第14項所述之電腦可讀記錄媒體,其中產生包含該輸入字句中與該學習字句不相同之該至少一誤差詞的該輔助資訊的步驟包括:根據該動態時間校正演算法的該比對結果取得該第二音素序列與該標準音素序列之間的一誤差資訊;根據該誤差資訊從該輸入字句中取得該至少一誤差詞以及該學習字句中對應於該至少一誤差詞的至少一標準詞;以及 產生包含該至少一誤差詞以及該至少一標準詞的該輔助資訊。
  16. 如申請專利範圍第13項所述之電腦可讀記錄媒體,其中判斷該輸入字句與該顯示器所顯示的該學習字句是否相同的步驟包括:利用一動態時間校正演算法比對該輸入字句與該學習字句;根據該動態時間校正演算法的一比對結果取得該輸入字句與該學習字句之間的一相同資訊;根據該相同資訊將該輸入字句中與該學習字句相同的至少一正確詞與該學習字句中對應於該至少一正確詞的至少一標準詞進行對齊;以及若該輸入字句與該學習字句無法完全對齊,判定該輸入字句與該學習字句不相同。
  17. 如申請專利範圍第16項所述之電腦可讀記錄媒體,其中產生包含該輸入字句中與該學習字句不相同之該至少一誤差詞的該輔助資訊的步驟包括:根據該學習字句的一文法格式將該輸入字句劃分為至少一詞組;以及以該至少一詞組為單位產生包含該至少一誤差詞的該輔助資訊。
  18. 如申請專利範圍第13項所述之電腦可讀記錄媒體,更包括: 透過該顯示裝置顯示該學習字句;以及透過該語音接收裝置接收該輸入語音。
TW102115082A 2013-04-26 2013-04-26 語言學習方法與裝置以及電腦可讀記錄媒體 TWI508033B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW102115082A TWI508033B (zh) 2013-04-26 2013-04-26 語言學習方法與裝置以及電腦可讀記錄媒體
CN201310186263.1A CN104123931B (zh) 2013-04-26 2013-05-20 语言学习方法与装置以及计算机可读记录媒体
US14/179,572 US10102771B2 (en) 2013-04-26 2014-02-13 Method and device for learning language and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW102115082A TWI508033B (zh) 2013-04-26 2013-04-26 語言學習方法與裝置以及電腦可讀記錄媒體

Publications (2)

Publication Number Publication Date
TW201441991A TW201441991A (zh) 2014-11-01
TWI508033B true TWI508033B (zh) 2015-11-11

Family

ID=51769321

Family Applications (1)

Application Number Title Priority Date Filing Date
TW102115082A TWI508033B (zh) 2013-04-26 2013-04-26 語言學習方法與裝置以及電腦可讀記錄媒體

Country Status (3)

Country Link
US (1) US10102771B2 (zh)
CN (1) CN104123931B (zh)
TW (1) TWI508033B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957310B1 (en) 2012-07-23 2021-03-23 Soundhound, Inc. Integrated programming framework for speech and text understanding with meaning parsing
US11295730B1 (en) 2014-02-27 2022-04-05 Soundhound, Inc. Using phonetic variants in a local context to improve natural language understanding
GB2575423B (en) * 2018-05-11 2022-05-04 Speech Engineering Ltd Computer implemented method and apparatus for recognition of speech patterns and feedback
CN109147419A (zh) * 2018-07-11 2019-01-04 北京美高森教育科技有限公司 基于错误发音检测的语言学习机系统
CN109147404A (zh) * 2018-07-11 2019-01-04 北京美高森教育科技有限公司 一种被错误发音的音标的检测方法及装置
JP7376071B2 (ja) * 2018-09-03 2023-11-08 株式会社アイルビーザワン コンピュータプログラム、発音学習支援方法及び発音学習支援装置
CN109036464B (zh) * 2018-09-17 2022-02-22 腾讯科技(深圳)有限公司 发音检错方法、装置、设备及存储介质
WO2021127976A1 (zh) * 2019-12-24 2021-07-01 广州国音智能科技有限公司 一种可供比对音素选取方法和装置
CN110890095A (zh) * 2019-12-26 2020-03-17 北京大米未来科技有限公司 语音检测方法、推荐方法、装置、存储介质和电子设备
CN111292769A (zh) * 2020-03-04 2020-06-16 苏州驰声信息科技有限公司 一种口语发音的纠音方法、系统、装置、存储介质
CN111583908A (zh) * 2020-04-30 2020-08-25 北京一起教育信息咨询有限责任公司 一种语音数据分析方法及系统
CN111862959B (zh) * 2020-08-07 2024-04-19 广州视琨电子科技有限公司 发音错误检测方法、装置、电子设备及存储介质
CN112634862B (zh) * 2020-12-18 2024-01-23 北京大米科技有限公司 一种信息交互方法、装置、可读存储介质和电子设备
CN113268981B (zh) * 2021-05-27 2023-04-28 咪咕音乐有限公司 一种信息处理方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW325542B (en) * 1994-05-31 1998-01-21 Jiunn-Fa Wang Phrase speech input method
TW200421126A (en) * 2003-04-04 2004-10-16 Inventec Besta Co Ltd System and method for searching a single word in accordance with speech
TW200506764A (en) * 2003-08-05 2005-02-16 Wen-Fu Peng Interactive language learning method with speech recognition
WO2007062529A1 (en) * 2005-11-30 2007-06-07 Linguacomm Enterprises Inc. Interactive language education system and method
CN102376182A (zh) * 2010-08-26 2012-03-14 财团法人工业技术研究院 语言学习系统、语言学习方法及其程序产品

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5487671A (en) * 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
US5963903A (en) * 1996-06-28 1999-10-05 Microsoft Corporation Method and system for dynamically adjusted training for speech recognition
US5995928A (en) * 1996-10-02 1999-11-30 Speechworks International, Inc. Method and apparatus for continuous spelling speech recognition with early identification
GB9802838D0 (en) * 1998-02-10 1998-04-08 Canon Kk Pattern matching method and apparatus
US7149690B2 (en) * 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
JP2002132287A (ja) * 2000-10-20 2002-05-09 Canon Inc 音声収録方法および音声収録装置および記憶媒体
TWI238379B (en) 2001-11-16 2005-08-21 Inventec Besta Co Ltd System and method for language reiterating and correcting pronunciation in a portable electronic device
TW556152B (en) 2002-05-29 2003-10-01 Labs Inc L Interface of automatically labeling phonic symbols for correcting user's pronunciation, and systems and methods
US7299188B2 (en) * 2002-07-03 2007-11-20 Lucent Technologies Inc. Method and apparatus for providing an interactive language tutor
US6535853B1 (en) * 2002-08-14 2003-03-18 Carmen T. Reitano System and method for dyslexia detection by analyzing spoken and written words
US20060004567A1 (en) * 2002-11-27 2006-01-05 Visual Pronunciation Software Limited Method, system and software for teaching pronunciation
US20040176960A1 (en) * 2002-12-31 2004-09-09 Zeev Shpiro Comprehensive spoken language learning system
US20050086705A1 (en) * 2003-08-26 2005-04-21 Jarman Matthew T. Method and apparatus for controlling play of an audio signal
GB0426347D0 (en) 2004-12-01 2005-01-05 Ibm Methods, apparatus and computer programs for automatic speech recognition
JP5120826B2 (ja) * 2005-09-29 2013-01-16 独立行政法人産業技術総合研究所 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム
WO2007134293A2 (en) * 2006-05-12 2007-11-22 Nexidia, Inc. Wordspotting system
US8744856B1 (en) * 2011-02-22 2014-06-03 Carnegie Speech Company Computer implemented system and method and computer program product for evaluating pronunciation of phonemes in a language
US20140120502A1 (en) * 2012-11-01 2014-05-01 Clayton Prince Language learning using electronic book
US9280906B2 (en) * 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW325542B (en) * 1994-05-31 1998-01-21 Jiunn-Fa Wang Phrase speech input method
TW200421126A (en) * 2003-04-04 2004-10-16 Inventec Besta Co Ltd System and method for searching a single word in accordance with speech
TW200506764A (en) * 2003-08-05 2005-02-16 Wen-Fu Peng Interactive language learning method with speech recognition
WO2007062529A1 (en) * 2005-11-30 2007-06-07 Linguacomm Enterprises Inc. Interactive language education system and method
CN102376182A (zh) * 2010-08-26 2012-03-14 财团法人工业技术研究院 语言学习系统、语言学习方法及其程序产品

Also Published As

Publication number Publication date
CN104123931A (zh) 2014-10-29
CN104123931B (zh) 2018-11-23
US20140324433A1 (en) 2014-10-30
TW201441991A (zh) 2014-11-01
US10102771B2 (en) 2018-10-16

Similar Documents

Publication Publication Date Title
TWI508033B (zh) 語言學習方法與裝置以及電腦可讀記錄媒體
US9947317B2 (en) Pronunciation learning through correction logs
US7996209B2 (en) Method and system of generating and detecting confusing phones of pronunciation
KR102390940B1 (ko) 음성 인식을 위한 컨텍스트 바이어싱
US9594744B2 (en) Speech transcription including written text
US20150112685A1 (en) Speech recognition method and electronic apparatus using the method
KR101971513B1 (ko) 전자 장치 및 이의 음성 인식 오류 수정 방법
JP2015026057A (ja) インタラクティブキャラクター基盤の外国語学習装置及び方法
US11437025B2 (en) Cross-lingual speech recognition
KR101819457B1 (ko) 음성 인식 장치 및 시스템
JP2019528470A (ja) 訂正済みタームを使用する音響モデルトレーニング
JP2018155957A (ja) 音声キーワード検出装置および音声キーワード検出方法
US20170076626A1 (en) System and Method for Dynamic Response to User Interaction
JP2018063271A (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法
KR101562222B1 (ko) 발음의 정확도 평가 장치 및 그 방법
JP2013050742A (ja) 音声認識装置および音声認識方法
KR101854369B1 (ko) 음성 인식 서비스를 제공하는 장치 및 그의 오류 발음 검출 능력 향상을 위한 음성 인식 방법
CN111862958A (zh) 发音插入错误检测方法、装置、电子设备及存储介质
JP2012003090A (ja) 音声認識装置および音声認識方法
US20120303368A1 (en) Number-assistant voice input system, number-assistant voice input method for voice input system and number-assistant voice correcting method for voice input system
CN111862959B (zh) 发音错误检测方法、装置、电子设备及存储介质
KR102449181B1 (ko) 전자장치 및 그 제어방법
JP2021089300A (ja) 多言語音声認識およびテーマ−意義素解析方法および装置
JP6509308B1 (ja) 音声認識装置およびシステム
US20230186898A1 (en) Lattice Speech Corrections