JP2016536652A - Real-time speech evaluation system and method for mobile devices - Google Patents

Real-time speech evaluation system and method for mobile devices Download PDF

Info

Publication number
JP2016536652A
JP2016536652A JP2016550920A JP2016550920A JP2016536652A JP 2016536652 A JP2016536652 A JP 2016536652A JP 2016550920 A JP2016550920 A JP 2016550920A JP 2016550920 A JP2016550920 A JP 2016550920A JP 2016536652 A JP2016536652 A JP 2016536652A
Authority
JP
Japan
Prior art keywords
voice
evaluation
text data
speech
pronunciation score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016550920A
Other languages
Japanese (ja)
Other versions
JP6541673B2 (en
Inventor
翌 王
翌 王
暉 林
暉 林
哲人 胡
哲人 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Liulishuo Information Technology Co ltd
Original Assignee
Shanghai Liulishuo Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Liulishuo Information Technology Co ltd filed Critical Shanghai Liulishuo Information Technology Co ltd
Publication of JP2016536652A publication Critical patent/JP2016536652A/en
Application granted granted Critical
Publication of JP6541673B2 publication Critical patent/JP6541673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

本発明は、モバイル機器におけるリアルタイム音声評価システム及び方法を開示した。システムは、評価待ち音声の音声データを収集するのに用いる収集モジュール(110)と、収集モジュール(110)が収集して得た音声データをテキストデータとして認識するのに用いる識別モジュール(130)と、識別モジュール(130)が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得るのに用いるマッチングモジュール(150)と、予め定義された評価ポリシー及びマッチングモジュール(150)がマッチングして得たマッチング結果に基づいて、評価待ち音声中の少なくとも1つの文字又は文字列の発音スコア、及び/又は評価待ち音声の発音スコアを得て、且つ出力するのに用いる評価モジュール(170)と、を備える。音声評価システムをモバイル機器において完成させることにより、モバイル機器のネットワークに対する依存性を減少させるだけでなく、そのうえ、ユーザにリアルタイム音声評価のフィードバックができ、ユーザの体験効果を高めることができる。The present invention discloses a real-time speech evaluation system and method in a mobile device. The system includes a collection module (110) used for collecting voice data of voices waiting for evaluation, and an identification module (130) used for recognizing voice data collected by the collection module (110) as text data. A matching module (150) used for matching the text data obtained by recognition by the identification module (130) with the text data of the voice sample in the voice sample repository, and obtaining a matching result, a predefined evaluation policy, and Based on the matching result obtained by matching by the matching module (150), the pronunciation score of at least one character or character string in the evaluation waiting speech and / or the pronunciation score of the evaluation waiting speech is obtained and output. And an evaluation module (170) used for the above. By completing the voice evaluation system in the mobile device, not only can the dependence of the mobile device on the network be reduced, but also the user can be fed back with real-time voice evaluation, and the user experience effect can be enhanced.

Description

本発明は、コンピュータ技術分野に関し、特に、モバイル機器におけるリアルタイム音声評価システム及び方法に関する。   The present invention relates to the field of computer technology, and more particularly, to a real-time voice evaluation system and method in a mobile device.

従来の音声評価システムの多くは、コンピュータをクライアントとし、ユーザがコンピュータに接続されたマイクで録音をし、音声データをネットワークを介してサーバにアップロードし、且つサーバで実行されるアルゴリズムによって評価し、評価アルゴリズムは計算リソース(CPUリソース・メモリリソース・記憶リソース)に比較的余裕のあるサーバのコンピュータで稼動している。   Many of the conventional voice evaluation systems use a computer as a client, a user records with a microphone connected to the computer, uploads voice data to a server via a network, and evaluates by an algorithm executed on the server. The evaluation algorithm is operated on a computer of a server having a relatively large computing resource (CPU resource, memory resource, storage resource).

モバイル機器の普及に伴い、ユーザがコンピュータクライアントからモバイル機器クライアントへ変わり始めた。評価システムのクライアントをモバイル機器に移行する際、以下のような解決方式が多く採用されている。すなわち、モバイル機器クライアントから音声データを収集し、ネットワークを介して音声データをサーバに送り、サーバ上で実行されている音声評価アルゴリズムで評価し、評価した結果をネットワークを介してモバイル機器クライアントに返信する。   With the proliferation of mobile devices, users have begun to change from computer clients to mobile device clients. When migrating evaluation system clients to mobile devices, the following solutions are often used. In other words, voice data is collected from the mobile device client, the voice data is sent to the server via the network, evaluated by the voice evaluation algorithm executed on the server, and the evaluation result is returned to the mobile device client via the network. To do.

従来の技術はネットワークが接続されていることに依存している。ある面では、ネットワークを介して音声データを送信するのに流量がかかり、ある面では、モバイル機器がどんな時間においても信頼性の高いネットワークに接続されているわけではない。以上の2点いずれも、音声評価システムにマイナスなユーザ体験を与え易く、且つ、音声評価システムサーバの構築及びメンテナンスに余分なコストを増加させる。   The conventional technology relies on the network being connected. In some aspects, sending voice data over a network is expensive, and in some aspects, mobile devices are not connected to a reliable network at any time. Both of the above two points easily give a negative user experience to the voice evaluation system, and increase the extra cost for the construction and maintenance of the voice evaluation system server.

本発明は、以上のような課題に鑑みてなされたものであり、上述する問題または一部の問題を解決するために、モバイル機器におけるリアルタイム音声評価システム及び方法を提供する。   The present invention has been made in view of the above problems, and provides a real-time speech evaluation system and method in a mobile device in order to solve the above-mentioned problems or some problems.

音声評価システムをモバイル機器において完成させることで、音声評価システムがネットワークに対する依存性を低減させ、モバイル機器及びサーバのメッセージ伝送の流量損失を減少させることができるだけでなく、そのうえ、ユーザにリアルタイム音声評価のフィードバックをすることもできる。よって、いつでも何処でも当該音声評価システムを用いて音声練習ができ、ユーザの体験効果を高めることができる。   By completing the voice evaluation system on the mobile device, the voice evaluation system can not only reduce the dependency on the network, reduce the flow loss of mobile device and server message transmission, but also the user real-time voice evaluation You can also give feedback. Therefore, voice practice can be performed anytime and anywhere using the voice evaluation system, and the user experience effect can be enhanced.

本発明の一実施例によれば、モバイル機器におけるリアルタイム音声評価システムを提供している。当該システムは、評価待ち音声の音声データを収集するために用いる収集モジュールと、収集モジュールが収集した音声データをテキストデータと認識する識別モジュールと、識別モジュールが認識したテキストデータ及び音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得るためのマッチングモジュールと、予め定義された評価ポリシーと前記マッチングモジュールによって得られたマッチング結果を用い、評価待ち音声の少なくとも1つの文字又は文字列の発音スコア、及び/又は評価待ち音声の発音スコアを得て、且つ出力するための評価モジュールと、を備える。ここで、評価待ち音声の中には少なくとも1文字の音声または文字列の音声を含む。   According to one embodiment of the present invention, a real-time speech evaluation system in a mobile device is provided. The system is in a collection module used to collect voice data of evaluation-waiting voice, an identification module that recognizes voice data collected by the collection module as text data, and text data and voice sample storage recognized by the identification module. Matching with text data of voice samples and using a matching module for obtaining matching results, a predefined evaluation policy and a matching result obtained by the matching module, and using at least one character or character string of voice to be evaluated And an evaluation module for obtaining and outputting a pronunciation score and / or a pronunciation score of a voice awaiting evaluation. Here, the evaluation-waiting voice includes at least one letter voice or a character string voice.

好ましくは、そのシステムは、前記音声サンプル庫にある音声サンプルのテキストデータを表示するために用いる表示モジュールをさらに備える。   Preferably, the system further comprises a display module used to display text data of the audio samples in the audio sample repository.

前記収集モジュールは、前記表示モジュールが表示した音声サンプル庫にある音声サンプルのテキストデータに基づいて入力された評価待ち音声としての音声データをさらに収集することに用いる。   The collection module is used to further collect voice data as an evaluation waiting voice input based on the text data of the voice sample in the voice sample store displayed by the display module.

好ましくは、システムは、評価モジュールから出力された前記評価待ち音声の発音スコア、及び/又は前記評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを、予め定義された発音のスコア閾値と比較するためのスコア比較モジュールと、前記評価待ち音声の発音スコアが予め定義された発音スコア閾値より低い場合、前記表示モジュールが表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低いテキストデータにマークを付け、及び/又は、前記評価待ち音声に文字又は文字列の発音スコアが予め定義された発音スコア閾値より低い場合、前記表示モジュールが表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低い文字又は文字列にマークを付けるのに用いるマーキングモジュールをさらに備える。   Preferably, the system uses the pronunciation score of the speech waiting for evaluation output from the evaluation module and / or the pronunciation score of at least one character or character string in the speech awaiting evaluation as a predefined pronunciation score threshold. If the pronunciation comparison score of the score comparison module for comparison and the speech waiting for evaluation is lower than the predefined pronunciation score threshold, the pronunciation score is determined from the predefined pronunciation score threshold among the text data displayed by the display module. A mark is applied to low text data, and / or if the pronunciation score of a character or character string is lower than a predefined pronunciation score threshold value in the voice to be evaluated, a pronunciation score is selected from the text data displayed by the display module. A marker used to mark characters or strings that are below the predefined pronunciation score threshold. -A king module.

好ましくは、マッチングモジュールはさらに、Levenshtein Distance編集距離アルゴリズムに基づいて、前記識別モジュールに認識されたテキストデータを、音声サンプル庫にある音声サンプルのテキストデータとマッチング演算を行い、マッチング結果を得る。   Preferably, the matching module further performs a matching operation on the text data recognized by the identification module with the text data of the voice sample in the voice sample repository based on the Levenshtein Distance editing distance algorithm to obtain a matching result.

好ましくは、予め定義された評価ポリシーは、認識して得たテキストデータが音声サンプル庫にある音声サンプルのテキストデータとマッチングする場合、音声データに基づいて認識して得たテキストデータ中の文字又は文字列の事後確率を評価待ち音声中の文字又は文字列の発音スコアとし、評価待ち音声中の全ての文字または文字列の発音スコアの平均スコアを評価待ち音声の発音スコアとする。   Preferably, when the predefined evaluation policy matches the text data obtained by recognition with the text data of the voice sample in the voice sample store, the character in the text data obtained by recognition based on the voice data or The a posteriori probability of the character string is defined as the pronunciation score of the character or character string in the evaluation waiting speech, and the average score of the pronunciation scores of all the characters or character strings in the evaluation waiting speech is defined as the pronunciation score of the evaluation waiting speech.

好ましくは、システムは、前記音声サンプル庫を記憶するのに用いるストレージモジュールを更に備える。但し、前記音声サンプル庫には少なくとも1つの音声サンプルが含まれている。   Preferably, the system further comprises a storage module used to store the audio sample repository. However, at least one audio sample is included in the audio sample store.

本発明のもう一つの実施例によれば、端末機器におけるリアルタイム音声評価方法をさらに提供する。それは、前記評価待ち音声の音声データを収集するステップと、収集した音声データをテキストデータとして認識するステップと、認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得るステップと、予め定義される評価ポリシーと前記マッチング結果に従って、前記評価待ち音声中の少なくとも1つの文字又は文字列の発音スコア、及び/又は前記評価待ち音声の発音スコアを得て、且つ出力するステップと、を含む。但し、前記評価待ち音声の中には少なくとも1文字の音声または文字列の音声を含む。   According to another embodiment of the present invention, a real-time speech evaluation method in a terminal device is further provided. It includes the steps of collecting voice data of the awaiting evaluation voice, recognizing the collected voice data as text data, matching the text data obtained by recognition with the text data of the voice sample in the voice sample warehouse, Obtaining a matching result; according to a predefined evaluation policy and the matching result, obtaining a pronunciation score of at least one character or character string in the evaluation waiting speech and / or a pronunciation score of the evaluation waiting speech; And outputting. However, the evaluation waiting voice includes at least one letter voice or a string voice.

好ましくは、前記評価待ち音声の音声データを収集するステップの前に、前記方法は、音声サンプル中にある音声サンプルのテキストデータを表示するステップをさらに含む。   Preferably, prior to the step of collecting voice data of the voice waiting for evaluation, the method further comprises displaying text data of the voice sample in the voice sample.

これに応じて、前記評価待ち音声の音声データを収集するステップは、ユーザが表示した音声サンプル庫中にある音声サンプルのテキストデータに基づいて入力した前記評価待ち音声としての音声データを収集することである。   In response, the step of collecting the voice data of the evaluation waiting voice collects the voice data as the evaluation waiting voice input based on the text data of the voice sample in the voice sample storage displayed by the user. It is.

好ましくは、この方法は、出力された前記評価待ち音声の発音スコア、及び/又は前記評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを、予め定義された発音のスコア閾値と比較するステップと、前記評価待ち音声の発音スコアが予め定義された発音スコア閾値より低い場合、表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低いテキストデータにマークを付け、及び/又は、評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアが予め定義された発音スコア閾値より低い場合、表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低い文字又は文字列にマークを付けるステップをさらに含む。   Preferably, the method compares the output pronunciation score of the speech to be evaluated and / or the pronunciation score of at least one character or character string in the speech to be evaluated with a predefined pronunciation score threshold. And, if the pronunciation score of the speech awaiting evaluation is lower than a predefined pronunciation score threshold, mark the text data whose pronunciation score is lower than the predefined pronunciation score threshold from the displayed text data, and / or Alternatively, when the pronunciation score of at least one character or character string in the speech waiting for evaluation is lower than a predefined pronunciation score threshold, the character whose pronunciation score is lower than the predefined pronunciation score threshold from the displayed text data or The method further includes marking the character string.

好ましくは、前記認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし,マッチング結果を得るステップは、Levenshtein Distance編集距離アルゴリズムに基づいて、前記認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチング演算を行い、マッチング結果を得ることである。   Preferably, the step of matching the text data obtained by the recognition with the text data of the voice sample in the voice sample store and obtaining the matching result is based on the Levenshtein Distance edit distance algorithm. Is matched with the text data of the voice sample in the voice sample store to obtain a matching result.

本発明の実施例において、モバイル機器におけるリアルタイム音声評価システムを介して評価待ち音声の音声データを収集し、収集した音声データをテキストデータとして認識し、認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングして、マッチング結果を得る。さらに予め定義された評価ポリシー及びマッチング結果に基づいて、評価待ち音声の発音スコア、及び/又は評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを得て、且つ出力する。音声評価システムをモバイル機器のクライアント端末において完成することにより、モバイル機器のネットワークに対する依存性を低減し、モバイル機器及びサーバのメッセージ伝送の流量損失を減少させるだけでなく、そのうえ、ユーザにリアルタイム音声評価のフィードバックをすることができる。よって、いつでも何処でも当該音声評価システムを用いて音声練習ができる効果が得られる。   In an embodiment of the present invention, voice data of an evaluation waiting voice is collected through a real-time voice evaluation system in a mobile device, the collected voice data is recognized as text data, and the text data obtained by the recognition is stored in a voice sample store. Matching with text data of a certain audio sample, a matching result is obtained. Further, based on the predefined evaluation policy and matching result, the pronunciation score of the speech awaiting evaluation and / or the pronunciation score of at least one character or character string in the speech awaiting evaluation is obtained and output. Completing the voice evaluation system at the client terminal of the mobile device not only reduces the dependence of the mobile device on the network, reduces the flow loss of message transmission of the mobile device and server, but also provides real-time voice evaluation to the user You can give feedback. Therefore, there is an effect that voice practice can be performed anytime and anywhere using the voice evaluation system.

上記説明は、本発明の概要であり、本発明の技術手段を明確に理解するために、明細書に記載する内容に従って実施すればよい。さらに、本発明の前記ならびに他の目的や特徴や利点をより分かりやすくするために、以下本発明の実施形態をもって説明する。   The above description is an outline of the present invention, and in order to clearly understand the technical means of the present invention, it may be carried out according to the contents described in the specification. Furthermore, in order to make the aforementioned and other objects, features, and advantages of the present invention easier to understand, embodiments of the present invention will be described below.

下記の好ましい実施形態の詳細な説明を読むことにより、各種のその他の効果は本分野の技術者にとって明らかになったであろう。図面は好ましい実施形態を表示するだけに用いられ、本発明を限定するものではない。各図において、同じ参考符号で同じ部品を示す。
本発明の実施例に基づくモバイル機器におけるリアルタイム音声評価システム100を模式的に示すブロック図である。 本発明の実施例に基づくモバイル機器におけるリアルタイム音声評価方法200を模式的に示すフローチャートである。
Various other advantages will become apparent to those skilled in the art upon reading the following detailed description of the preferred embodiment. The drawings are only used to illustrate preferred embodiments and are not intended to limit the invention. In each drawing, the same reference numerals denote the same parts.
It is a block diagram which shows typically the real-time audio | voice evaluation system 100 in the mobile device based on the Example of this invention. 6 is a flowchart schematically showing a real-time speech evaluation method 200 in a mobile device according to an embodiment of the present invention.

次は、図を参考に本開示の例示性実施例をより詳しく説明する。図をもって本開示の例示性実施例を表示しているが、本開示に述べた方式に拘らず、色々なやり方で本発明を実現すればよいと理解してほしい。逆に、これらの実施例を提供したのは、本開示をよりよく理解してもらい、且つ本明細書に開示された技術範囲を本分野の技術者により完全に伝えるためである。   Next, exemplary embodiments of the present disclosure will be described in more detail with reference to the drawings. While illustrative examples of the present disclosure are shown with figures, it should be understood that the present invention may be implemented in various ways, regardless of the scheme described in the present disclosure. Conversely, these examples are provided in order to provide a better understanding of the present disclosure and to fully convey the technical scope disclosed herein to those skilled in the art.

理解すべきは、本分野の技術者が本明細書に明確な説明や記述がなくても、本発明に含まれる本発明の精神・原理及び範囲内における各構造の実現を見出せることである。   It should be understood that a person skilled in the art can find the realization of each structure within the spirit, principle, and scope of the present invention included in the present invention without any clear explanation or description in the present specification.

本明細書に記述されたすべての例及び条件付き言語は皆説明や教示を目的としたものであり、発明者の従来技術への貢献的な原理と概念を読者に深く理解させるためのものであって、これらの具体的な例及び条件に制限しない。   All examples and conditional languages described herein are for illustrative and teaching purposes only and are intended to give the reader a deep understanding of the principles and concepts that contribute to the prior art of the inventor. Thus, the present invention is not limited to these specific examples and conditions.

本明細書に記述された本発明の原理、各方面及び各実施例又は具体例のあらゆる解釈や説明はその構造上及び機能上における等価物又は等効果物をすべて含むことを意味する。また、このような等価物又は等効果物はいま既知の並びに将来開発される等価物又は等効果物を含むべきであり、つまり、いかなる構造であっても、同じ機能の開発成果を実行されるのである。   Any interpretation or description of the principles, aspects, and examples or specific examples of the invention described herein is meant to include all equivalents or equivalents in structure and function thereof. Also, such equivalents or equivalents should include known and future developed equivalents or equivalents, i.e., any structure can carry out the development of the same function. It is.

本分野の技術者は、明細書添付図面に表示されるブロック図が本発明を実現するための構造又は回路を示す模式図だと理解すべきである。同様に、明細書添付図面に表示されるいかなるフローチャート図などは実際に各種コンピュータ又はプロセッサにより実行される各処理を表示しており、図面にこれらのコンピュータ又はプロセッサを明確に示したか否かは関係しないと理解すべきである。   Those skilled in the art should understand that the block diagram displayed in the accompanying drawings is a schematic diagram showing a structure or a circuit for realizing the present invention. Similarly, any flowcharts and the like displayed in the drawings attached to the specification show the processes actually executed by various computers or processors, and whether or not these computers or processors are clearly shown in the drawings is related. Should not be understood.

請求項の範囲において、機能の限定されたモジュールを実行するのに用いるということは、該機能を実行するためのあらゆる実施形態が含まれ、例えば(a)該機能の回路コンデンサの組み合わせ、または(b)いかなる形のソフトウェアを実行するのを含むことで、ファームウェア及びマイクロコードなどが含まれ、それが適当な回路と組み合わせて、機能実現のソフトウェアを実行するのに用いる。各モジュールで提供された機能が請求項の主張した実施形態と組み合わせることによって、これらの機能を提供できるいずれのモジュール・部品またはコンデンサが請求項に限定されたモジュールと等価であると理解すべきである。   Within the scope of the claims, use to perform a module with limited function includes any embodiment for performing the function, for example (a) a combination of circuit capacitors of the function, or ( b) Including execution of any form of software, including firmware and microcode, etc., used in combination with appropriate circuitry to execute the software that implements the function. It should be understood that any module / part or capacitor capable of providing these functions is equivalent to a module defined in the claims by combining the functions provided in each module with the claimed embodiments of the claims. is there.

明細書の中の術語「実施例」は該実施例に合わせて説明した特徴や構造などが本発明における少なくとも1つの実施例に含まれていることを意味し、従って、明細書の随所に出てくる術語「実施例において」は必ずしも同じ実施例を指すとは限らない。   The term “example” in the specification means that the features, structures, and the like described in accordance with the example are included in at least one embodiment of the present invention, and therefore appear in various places in the specification. The coming term “in the embodiment” does not necessarily refer to the same embodiment.

図1が示す通り、本発明実施例のモバイル機器におけるリアルタイム音声評価システム100に基づいて、主には収集モジュール110と、識別モジュール130と、マッチングモジュール150と評価モジュール170を備えることができる。理解すべきは、図1に表示された各モジュールの接続関係が例示するものだけであり、本分野の技術者が他の接続関係を採用することができ、その接続関係を採用して本発明の機能が実現できればよい。   As shown in FIG. 1, based on the real-time speech evaluation system 100 in the mobile device according to the embodiment of the present invention, a collection module 110, an identification module 130, a matching module 150, and an evaluation module 170 can be mainly provided. It should be understood that the connection relationships of the modules shown in FIG. 1 are only examples, and engineers in this field can adopt other connection relationships. It is only necessary to realize the function.

本明細書において、各モジュールの機能は専用ハードウェアの使用、又は適切なソフトウェアと組み合わせて処理を行うハードウェアの使用によって実現できる。このようなハードウェア又は専用のハードウェアは、専用集積回路(ASIC)と、各種その他の回路と、各種プロセッサなどを備えることができる。プロセッサによって実現する場合、該機能は個別専用のプロセッサ・個別共有プロセッサ・又は複数独立のプロセッサ(そのうちいくつか共有される可能性がある)により提供できる。また、プロセッサがただソフトウェアを実行できるハードウェアだと理解すべきではなく、デジタルシグナルプロセッサ(DSP)に限らないハードウェア・ソフトウェアを記憶するための読み取り専用ストレージロム(ROM)・ランダムアクセスメモリ(RAM)及び非揮発性ストレージデバイスが暗に備えられるのである。   In this specification, the function of each module can be realized by using dedicated hardware or using hardware that performs processing in combination with appropriate software. Such hardware or dedicated hardware can include a dedicated integrated circuit (ASIC), various other circuits, various processors, and the like. When implemented by a processor, the functions can be provided by dedicated processors, individually shared processors, or multiple independent processors, some of which may be shared. Also, it should not be understood that the processor is just hardware capable of executing software, and is a read-only storage ROM (ROM) / random access memory (RAM) for storing hardware and software that is not limited to a digital signal processor (DSP). ) And non-volatile storage devices are implicitly provided.

本発明の実施例によれば、収集モジュール110は、評価待ち音声の音声データを収集するのに用い、その評価待ち音声の中に少なくとも1つの文字の音声又は文字列の音声を含む。好ましくは、評価待ち音声の中に中国語の単語・英語の単語・アラビア数字のいずれの一種類又は多種類の組み合わせを含み、理解すべきは、本発明の実施例に評価待ち音声の言語種類に限定しないことである。   According to an embodiment of the present invention, the collection module 110 is used to collect voice data of voices waiting for evaluation, and includes voices of at least one character or character strings in the voices waiting for evaluation. Preferably, the evaluation-waiting speech includes one or more combinations of Chinese words, English words, and Arabic numerals, and it should be understood that the language type of the evaluation-waiting speech is an embodiment of the present invention. It is not limited to.

本発明の実施例において、収集モジュール110は評価待ち音声を登録し、評価待ち音声の音声データを保存する役割を果たす。好ましくは、該収集モジュール110は従来のマイクであってもよく、ユーザがマイクを通してシステム100に評価待ち音声を入力する。例えば、評価待ち音声の内容は以下の英語「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo. 」であってもよい。好ましくは、システム100は収集モジュール110を介して評価待ち音声の音声データを.wav形式の音声ファイルに転換且つ保存する。そのWAV形式はつまり音声波形ファイル形式である。理解すべきは、本発明の実施例に収集モジュール110の具体的な構造に限定しないことである。   In the embodiment of the present invention, the collection module 110 plays a role of registering the evaluation waiting voice and storing the voice data of the evaluation waiting voice. Preferably, the collection module 110 may be a conventional microphone, and the user inputs an awaiting evaluation voice to the system 100 through the microphone. For example, the content of the awaiting evaluation voice may be the following English “Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.”. Preferably, the system 100 converts and stores the voice data of the voice waiting for evaluation into a voice file in the .wav format via the collection module 110. That WAV format is an audio waveform file format. It should be understood that the embodiments of the present invention are not limited to the specific structure of the collection module 110.

本発明の実施例によれば、識別モジュール130は、収集モジュール110が収集した音声データをテキストデータとして認識するのに用いる。   According to an embodiment of the present invention, the identification module 130 is used to recognize the voice data collected by the collection module 110 as text data.

つまり、識別モジュール130を介して上記例で説明した評価待ち音声の音声データを以下のテキストデータWELCOME TO LIU LI SHUO! MY NAME IS PETER. I'M AN ENGLISH TEACHER AT LIU LI SHUOとして認識できる。   That is, the voice data of the evaluation waiting voice described in the above example can be recognized as the following text data WELCOME TO LIU LI SHUO! MY NAME IS PETER.

好ましくは、本発明の実施例において、識別モジュール130が採用する音声認識モデルは混合ガウス分布を出力確率分布とする隠れマルコフモデル(Hidden Markov Model,HMM)である。   Preferably, in the embodiment of the present invention, the speech recognition model employed by the identification module 130 is a hidden Markov model (HMM) having a mixed Gaussian distribution as an output probability distribution.

識別モジュール130は、定点演算を行って収集モジュール110が収集した音声データをテキストデータとして認識する。例えば、以下の方式で定点演算を行う。もちろんこれに限らない。   The identification module 130 performs fixed point calculation and recognizes the voice data collected by the collection module 110 as text data. For example, the fixed point calculation is performed by the following method. Of course, it is not limited to this.

方式1、従来の音声認識アルゴリズムにおいて、浮動小数点演算が多くあり、定点DSP(定点DSPが完成したのは整数演算又は小数点演算であり、データフォーマットにはデータコードを含まず、通常定点DSPは16ビットまたは24ビットのデータ幅がある)を用いて浮動小数点演算ができ、そして数のスケーリング法を用いて浮動点数を固定点数に転換する。数のスケーリング法はつまり小数点が定点における位置を決めることである。Q表示法は常用のスケーリング法であり、その表示仕組みは、定点数をx、浮動点数をyとし、Q表示法の定点数と浮動点数の転換関係は、浮動点数yを定点数xに転換し、x=(int)y×2Q である。 Method 1, conventional speech recognition algorithm has many floating point operations, fixed point DSP (fixed point DSP is completed by integer operation or decimal point operation, data format does not include data code, and normal fixed point DSP is 16 Can be used to perform floating point operations, and a number scaling method is used to convert a floating point number to a fixed point number. The number scaling method is to determine the position of the decimal point at a fixed point. Q display method is a regular scaling method, the display mechanism is fixed point number x and floating point number is y, and the conversion relationship between fixed point number and floating point number in Q display method is to convert floating point number y to fixed point number x then, it is x = (int) y × 2 Q.

方式2、(1)アルゴリズム構造を定義及び簡略する。(2)量子化必要の関数中のキー変数を確定する。(3)キー変数の統計情報を収集する。(4)キー変数の正確な表示を確定する。(5)その他の変数の定点フォーマットを確定する。   Method 2, (1) Define and simplify the algorithm structure. (2) Determine key variables in functions that require quantization. (3) Collect statistical information of key variables. (4) Determine the correct display of key variables. (5) Determine the fixed point format for other variables.

これにより、本発明の実施例において定点演算を用いて一般的な浮動小数点を代替することができ、且つ整数で一般的な浮動小数点を代替して認識結果の出力確率を代表する。本発明の実施例において定点演算を用いることができ、該定点演算は浮動小数点演算に対して多くのパラメータを定義する必要がないため、識別モジュール130は少ないシステムリソース(CPUリソース、メモリリソース、ストレージリソース)を占用の情況下で認識過程を完成させることができる。理解すべきは、本発明の実施例において、識別モジュール130が文字認識に採用する認識モデルの具体的なタイプに限定しないことである。   Thus, in the embodiment of the present invention, a general floating point can be replaced by using a fixed point operation, and the general floating point is replaced by an integer to represent the output probability of the recognition result. Since the fixed point operation can be used in the embodiment of the present invention, and the fixed point operation does not need to define many parameters for the floating point operation, the identification module 130 has few system resources (CPU resource, memory resource, storage). The recognition process can be completed under the circumstances of occupying resources. It should be understood that the embodiment of the present invention is not limited to the specific type of recognition model that the identification module 130 employs for character recognition.

本発明の実施例によれば、マッチングモジュール150は、識別モジュール130が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得る。   According to the embodiment of the present invention, the matching module 150 matches the text data obtained by the recognition module 130 with the text data of the voice sample stored in the voice sample repository, and obtains a matching result.

好ましくは、本発明の実施例において音声サンプル庫にある音声サンプルのテキストデータは予め音声サンプル庫に保存したテキストデータであってもよく、例えば、予め以下のテキストデータ「WELCOME TO LIU LI SHUO! MY NAME IS PETER. I'M AN ENGLISH TEACHER AT LIU LI SHUO」を音声サンプル庫に保存する。   Preferably, in the embodiment of the present invention, the text data of the audio sample in the audio sample store may be text data previously stored in the audio sample store. For example, the following text data “WELCOME TO LIU LI SHUO! Save NAME IS PETER. I'M AN ENGLISH TEACHER AT LIU LI SHUO in the audio sample store.

好ましくは、本発明の実施例において、マッチングモジュール150はさらに、Levenshtein Distance編集距離アルゴリズムに基づいて、識別モジュール130が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチング演算を行い、マッチング結果を得る。そのうち、該マッチング結果は、識別モジュール130が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングすることと、識別モジュール130が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングしないことが含まれてもよい。理解すべきは、本発明の実施例においてマッチングモジュール150が採用されたマッチングアルゴリズムに限定しないことである。   Preferably, in the embodiment of the present invention, the matching module 150 further performs a matching operation on the text data obtained by the recognition module 130 based on the Levenshtein Distance edit distance algorithm and the text data of the voice sample in the voice sample repository. To obtain matching results. Among them, the matching result is obtained by matching the text data obtained by the recognition module 130 with the text data of the voice sample in the voice sample store, and the text data obtained by the recognition module 130 by using the voice sample store. May not be matched with the text data of the audio sample in It should be understood that the present invention is not limited to the matching algorithm in which the matching module 150 is employed in the embodiment of the present invention.

本発明の実施例によれば,評価モジュール170は、予め定義された評価ポリシー及びマッチングモジュール150がマッチングして得たマッチング結果に基づいて、評価待ち音声中の少なくとも1つの文字又は文字列の発音スコア、及び/又は評価待ち音声の発音スコアを得て、且つ出力することに用いる。   According to the embodiment of the present invention, the evaluation module 170 generates the pronunciation of at least one character or character string in the evaluation-waiting speech based on the predefined evaluation policy and the matching result obtained by the matching module 150 matching. It is used to obtain and output a score and / or a pronunciation score of a voice waiting for evaluation.

好ましくは、本発明の実施例において、予め定義された評価ポリシーは、認識して得たテキストデータが音声サンプル庫にある音声サンプルのテキストデータとマッチングする場合、認識して得たテキストデータ中の文字又は文字列の事後確率を評価待ち音声中の文字又は文字列の発音スコアとし、及び評価待ち音声中の全ての文字又は文字列の発音スコアの平均スコアを評価待ち音声の発音スコアとする。   Preferably, in the embodiment of the present invention, when the predefined evaluation policy matches the text data obtained by recognition with the text data of the voice sample in the voice sample store, The a posteriori probability of the character or character string is set as the pronunciation score of the character or character string in the evaluation waiting speech, and the average score of the pronunciation scores of all the characters or character strings in the evaluation waiting speech is set as the pronunciation score of the evaluation waiting speech.

好ましくは、本発明の実施例において、音声データが認識して得た文字又は文字列の事後確率がp(0〜1)であることに基づいて、該文字又は文字列の発音スコアはp×100である。   Preferably, in the embodiment of the present invention, the pronunciation score of the character or character string is p × based on the fact that the posterior probability of the character or character string obtained by recognition of the speech data is p (0 to 1). 100.

上記挙げた英語文を例として、評価モジュール170を介して全体の英語文「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」の発音スコア、及び/又は上記英語文の中の各単語の発音スコアを得ることができる。つまり、本発明の実施例においてセンテンスや単語で構成されたユニグラム言語モデル(unigram language model)を使用してもよい。   Taking the English sentence listed above as an example, the overall English sentence “Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.” The pronunciation score of each word in the above English sentence can be obtained. That is, in the embodiment of the present invention, a unigram language model composed of sentences and words may be used.

本発明の実施例によれば、前記モバイル機器におけるリアルタイム音声評価システム100は1つ又は複数のオプションモジュールをさらに備えることによって、追加または付加機能の実現ができる。但し、これらのオプションモジュールは本発明の目的実現には必ずしも不可欠なものではなく、本発明の実施例によれば、モバイル機器におけるリアルタイム音声評価システム100はこれらのオプションモジュールが備えられない場合でも、本発明の目的実現ができる。これらのオプションモジュールは図1に表示されなくても、上記各モジュール間との接続関係は本分野の技術者が下記の教示によって容易に見出せる。   According to an embodiment of the present invention, the real-time voice evaluation system 100 in the mobile device may further include one or a plurality of option modules, thereby realizing additional or additional functions. However, these optional modules are not necessarily indispensable for realizing the object of the present invention. According to the embodiment of the present invention, the real-time speech evaluation system 100 in a mobile device does not include these optional modules. The object of the present invention can be realized. Even if these optional modules are not displayed in FIG. 1, the connection relationship between the modules can be easily found by a person skilled in the art by the following teaching.

好ましくは、本発明の実施例において、システム100は、音声サンプル庫にある音声サンプルのテキストデータを表示するのに用いる表示モジュールをさらに備え、例えば以下の英語文「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」を表示する。   Preferably, in an embodiment of the present invention, the system 100 further comprises a display module used to display the text data of the audio sample in the audio sample repository, for example, the following English sentence “Welcome to Liu Li shuo! My name” is Peter. I'm an English teacher at Liu Li shuo. "

これに応じて、収集モジュール110は、ユーザが表示モジュールに表示された音声サンプル庫にある音声サンプルのテキストデータに基づいて入力した評価待ち音声としての音声データを収集するのにさらに用いる。   In response to this, the collection module 110 is further used to collect voice data as an evaluation-waiting voice input based on the text data of the voice sample in the voice sample store displayed on the display module by the user.

つまり、収集モジュール110はユーザが朗読した以下の英語文「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」の音声データを収集する。   That is, the collection module 110 collects voice data of the following English sentence “Welcome to Liu Li shuo! My name is Peter. I ’m an English teacher at Liu Li shuo.” Read by the user.

好ましくは、本発明の実施例において、システム100はスコア比較モジュール及びマーキングモジュールをさらに備え、そのうち、
上記スコア比較モジュールは評価モジュール170が出力した評価待ち音声の発音スコア、及び/又は評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを、予め定義された発音スコア閾値と比較するのに用い、好ましくは、予め定義された発音スコア閾値を 60スコアに設定することができ、理解すべきは、本発明の実施例においてその具体的な値に限定しないことである。
Preferably, in an embodiment of the present invention, the system 100 further comprises a score comparison module and a marking module, of which
The score comparison module compares the pronunciation score of the evaluation waiting speech output by the evaluation module 170 and / or the pronunciation score of at least one character or character string in the evaluation standby speech with a predefined pronunciation score threshold. In use, preferably, the predefined pronunciation score threshold can be set to 60 scores, and it should be understood that it is not limited to that particular value in the embodiments of the present invention.

マーキングモジュールは、評価待ち音声の発音スコアが予め定義された発音スコア閾値より低い場合、表示モジュールが表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低いテキストデータにマークを付け、及び/又は、評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアが予め定義された発音スコア閾値より低い場合、表示モジュールが表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低い文字又は文字列にマークを付けるのに用いる。   The marking module marks text data whose pronunciation score is lower than the predefined pronunciation score threshold from among the text data displayed by the display module when the pronunciation score of the speech waiting for evaluation is lower than the predefined pronunciation score threshold. And / or when the pronunciation score of at least one character or character string in the waiting voice for evaluation is lower than a predefined pronunciation score threshold, the pronunciation score having a predefined pronunciation score from the text data displayed by the display module Used to mark a character or character string below the score threshold.

上記に挙げた英語文を例として、スコア比較モジュールが比較して「Welcome」の発音スコアが予め定義された発音スコア閾値より低いと分かった場合、全体の英語文の中から「Welcome」にマークを付けることができ、好ましくは、「Welcome」の色を赤に設定することである。   Taking the English sentence listed above as an example, if the score comparison module compares and finds that the pronunciation score of "Welcome" is lower than the predefined pronunciation score threshold, mark "Welcome" in the entire English sentence The “Welcome” color is preferably set to red.

好ましくは、本発明の実施例において、システム100は、音声サンプル庫を記憶するのに用いるストレージモジュールをさらに備える。但し、音声サンプル庫には少なくとも1つの音声サンプルを含み、例えば下記の音声サンプル「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」である。   Preferably, in an embodiment of the present invention, the system 100 further comprises a storage module used to store the audio sample store. However, the audio sample store includes at least one audio sample, for example, the following audio sample "Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo."

本発明の実施例を通して、音声評価システムをモバイル機器のクライアント端末において完成することにより、モバイル機器のネットワークに対する依存性を低減し、モバイル機器及びサーバのメッセージ伝送の流量損失を減少させるだけでなく、そのうえ、ユーザにリアルタイム音声評価のフィードバックをすることができる。よって、いつでも何処でも当該音声評価システムを用いて音声練習ができる効果が得られる。   Through the embodiments of the present invention, not only reducing the dependency of the mobile device on the network and reducing the flow loss of message transmission of the mobile device and the server by completing the voice evaluation system at the client terminal of the mobile device, In addition, real-time voice evaluation feedback can be provided to the user. Therefore, there is an effect that voice practice can be performed anytime and anywhere using the voice evaluation system.

本発明のもう一つの実施例によれば、前記の本発明の実施例によるモバイル機器におけるリアルタイム音声評価システム100に対応して、本発明は端末機器におけるリアルタイム音声評価方法200をさらに提供する。   According to another embodiment of the present invention, corresponding to the above-described real-time voice evaluation system 100 in a mobile device according to the embodiment of the present invention, the present invention further provides a real-time voice evaluation method 200 in a terminal device.

図2は、本発明の実施例に基づくモバイル機器におけるリアルタイム音声評価方法200を模式的に示すフローチャートである。図2の示す通り、前記方法200はステップS210・S230・S250・S270を含み、方法200はステップS210から始まり、そのうち、評価待ち音声の音声データを収集する。その評価待ち音声中に少なくとも1つの文字の音声又は文字列の音声を含み、好ましくは、評価待ち音声の中に中国語の単語・英語の単語・アラビア数字のいずれの一種類又は多種類の組み合わせを含み、理解すべきは、本発明の実施例において評価待ち音声の言語種類に限定しないことである。   FIG. 2 is a flowchart schematically showing a real-time speech evaluation method 200 in a mobile device according to an embodiment of the present invention. As shown in FIG. 2, the method 200 includes steps S210, S230, S250, and S270, and the method 200 starts from step S210, in which voice data of voices waiting for evaluation is collected. The voice waiting for evaluation includes voice of at least one character or character string, and preferably one or more combinations of Chinese words, English words, Arabic numerals in the voice waiting for evaluation It should be understood that the present invention is not limited to the language type of the voice waiting for evaluation in the embodiment of the present invention.

好ましくは、ユーザがマイクを通してシステム100に評価待ち音声を入力することができる。例えば、評価待ち音声の内容は以下の英語「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」であってもよい。好ましくは、システム100は収集モジュール110を介して評価待ち音声の音声データを.wav形式の音声ファイルに転換且つ保存する。そのWAV形式はつまり音声波形ファイル形式である。   Preferably, a user can input an evaluation waiting voice to the system 100 through a microphone. For example, the content of the awaiting evaluation voice may be the following English “Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.” Preferably, the system 100 converts and stores the voice data of the voice waiting for evaluation into a voice file in the .wav format via the collection module 110. That WAV format is an audio waveform file format.

その後、ステップS230において、収集した音声データをテキストデータに認識する。つまり、ステップS230を通して、上記例で説明した評価待ち音声の音声データを以下のテキストデータWELCOME TO LIU LI SHUO! MY NAME IS PETER. I'M AN ENGLISH TEACHER AT LIU LI SHUOに認識する。   Thereafter, in step S230, the collected voice data is recognized as text data. That is, through step S230, the voice data of the voice waiting for evaluation described in the above example is recognized by the following text data WELCOME TO LIU LI SHUO! MY NAME IS PETER.

好ましくは、本発明の実施例において、採用した音声認識モデルは混合ガウス分布を出力確率分布とする隠れマルコフモデル(Hidden Markov Model,HMM)である。つまり、本発明の実施例において定点演算を用いて一般的な浮動小数点を代替し、且つ整型数で一般的な浮動小数点を代替して認識結果の出力確率を代表する。理解すべきは、本発明の実施例において文字認識が採用する認識モデルの具体的なタイプに限定しないことである。   Preferably, in the embodiment of the present invention, the employed speech recognition model is a hidden Markov model (HMM) having a mixed Gaussian distribution as an output probability distribution. In other words, in the embodiment of the present invention, a general floating point is substituted by using a fixed point operation, and the general floating point is substituted by an integer number to represent the output probability of the recognition result. It should be understood that the embodiment of the present invention is not limited to the specific type of recognition model employed by character recognition.

その後、ステップS250において、認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得る。   Thereafter, in step S250, the recognized text data is matched with the text data of the voice sample in the voice sample box, and a matching result is obtained.

好ましくは、本発明の実施例において音声サンプル庫にある音声サンプルのテキストデータは予め音声サンプル庫に保存したテキストデータであってもよく、例えば予め以下のテキストデータWELCOME TO LIU LI SHUO! MY NAME IS PETER. I'M AN ENGLISH AT LIU LI SHUOを音声サンプル庫に保存する。   Preferably, in the embodiment of the present invention, the text data of the audio sample in the audio sample store may be text data previously stored in the audio sample store. For example, the following text data WELCOME TO LIU LI SHUO! MY NAME IS Save PETER. I'M AN ENGLISH AT LIU LI SHUO in the audio sample store.

好ましくは、本発明の実施例において、ステップS250には、Levenshtein Distance編集距離アルゴリズムに基づいて、認識して得たテキストデータを、音声サンプル庫にある音声サンプルのテキストデータとマッチング演算を行い、マッチング結果を得る。例えば、該マッチング結果は、認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングしないことを含む。理解すべきは、本発明の実施例においてマッチングアルゴリズムに限定しないことである。   Preferably, in the embodiment of the present invention, in step S250, the text data obtained by recognizing based on the Levenshtein Distance editing distance algorithm is subjected to matching operation with the text data of the voice sample in the voice sample warehouse, and matching is performed. Get results. For example, the matching result includes not matching the text data obtained by recognition with the text data of the voice sample in the voice sample store. It should be understood that the embodiments of the present invention are not limited to matching algorithms.

その後、ステップS270において、予め定義された評価ポリシー及び前記マッチング結果に基づいて、評価待ち音声中の少なくとも1つの文字又は文字列的発音スコア、及び/又は評価待ち音声の発音スコアを得て、且つ出力する。   Thereafter, in step S270, based on a predefined evaluation policy and the matching result, obtain at least one character or string-like pronunciation score in the evaluation pending speech and / or a pronunciation score of the evaluation pending speech, and Output.

好ましくは、本発明の実施例において、予め定義された評価ポリシーは、認識して得たテキストデータが音声サンプル庫にある音声サンプルのテキストデータとマッチングする場合、認識して得たテキストデータ中の文字又は文字列の事後確率を評価待ち音声中の文字又は文字列の発音スコアとし、及び評価待ち音声中の全ての文字又は文字列の発音スコアの平均スコアを評価待ち音声の発音スコアとする。
好ましくは、本発明の実施例において、音声データが認識して得た文字又は文字列の事後確率がp(0〜1)であることに基づいて、該文字又は文字列の発音スコアはp×100である。
Preferably, in the embodiment of the present invention, when the predefined evaluation policy matches the text data obtained by recognition with the text data of the voice sample in the voice sample store, The a posteriori probability of the character or character string is set as the pronunciation score of the character or character string in the evaluation waiting speech, and the average score of the pronunciation scores of all the characters or character strings in the evaluation waiting speech is set as the pronunciation score of the evaluation waiting speech.
Preferably, in the embodiment of the present invention, the pronunciation score of the character or character string is p × based on the fact that the posterior probability of the character or character string obtained by recognition of the speech data is p (0 to 1). 100.

上記挙げた英語文を例として、ステップS270を通して全体の英語文「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」の発音スコア、及び/又は上記英語文の中の各単語の発音スコアを得ることができる。つまり、本発明の実施例においてセンテンスや単語で構成されたユニグラム言語モデル(unigram language model)を使用してもよい。   Taking the English sentence listed above as an example, the pronunciation score of the entire English sentence “Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.” And / or the above English sentence through step S270 The pronunciation score of each word in can be obtained. That is, in the embodiment of the present invention, a unigram language model composed of sentences and words may be used.

本発明の実施例によれば、前記モバイル機器におけるリアルタイム音声評価方法200は、1つ又は複数のオプションステップをさらに含むことによって、追加または付加機能の実現ができる。但し、これらのオプションステップは本発明の目的実現には必ずしも不可欠なものではなく、本発明の実施例によれば、モバイル機器におけるリアルタイム音声評価方法200はこれらのオプションステップが含まれない場合でも、本発明の目的実現ができる。これらのオプションステップは図2に表示されなくても、上記各ステップ間との実行順序は本分野の技術者が下記の教示によって容易に見出すことができる。指摘しておきたいのは、特別の説明がない限り、これらのオプションステップ及び上記ステップの実行順序は実際の必要によって選択できる。   According to an embodiment of the present invention, the real-time speech evaluation method 200 in the mobile device can realize additional or additional functions by further including one or more optional steps. However, these optional steps are not necessarily indispensable for realizing the object of the present invention. According to the embodiment of the present invention, the real-time speech evaluation method 200 in a mobile device does not include these optional steps. The object of the present invention can be realized. Even if these optional steps are not displayed in FIG. 2, the order of execution between the above steps can be easily found by a person skilled in the art by the following teaching. It should be pointed out that these optional steps and the order of execution of these steps can be selected according to actual needs unless otherwise specified.

好ましくは、方法200は、音声サンプル庫にある音声サンプルのテキストデータのテキストデータを表示するステップをさらに含み、例えば以下の英語文「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo.」を表示する。   Preferably, the method 200 further includes the step of displaying text data of the text data of the voice sample in the voice sample repository, for example, the following English sentence “Welcome to Liu Li shuo! My name is Peter. teacher at Liu Li shuo. "is displayed.

これに応じて、前記評価待ち音声の音声データを収集するステップ(S210)は、ユーザが表示された音声サンプル庫中にある音声サンプルに基づいて入力した前記評価待ち音声としての音声データを収集する。   In response to this, the step (S210) of collecting the voice data of the evaluation waiting voice collects the voice data as the evaluation waiting voice inputted based on the voice sample in the displayed voice sample storage. .

つまり、ステップS210を通してユーザが朗読する以下の英語文「Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo」の音声データを収集する。   That is, voice data of the following English sentence “Welcome to Liu Li shuo! My name is Peter. I'm an English teacher at Liu Li shuo” read by the user through step S210 is collected.

好ましくは、方法200は、出力した評価待ち音声の発音スコア、及び/又は評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを、予め定義された発音スコア閾値と比較するステップをさらに含む。好ましくは、予め定義された発音スコア閾値を 60スコアに設定する。理解すべきは、本発明の実施例においてその具体的な値に限定しないことである。   Preferably, the method 200 further includes the step of comparing the pronunciation score of the output waiting speech and / or the pronunciation score of at least one character or character string in the waiting speech to a predefined pronunciation score threshold. . Preferably, the predefined pronunciation score threshold is set to 60 scores. It should be understood that the embodiments of the present invention are not limited to specific values.

前記評価待ち音声の発音スコアが予め定義された発音スコア閾値より低い場合、表示されたテキストデータの中から発音スコアが予め定義された発音スコア閾値より低いテキストデータにマークを付け、及び/又は、評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアが予め定義された発音スコア閾値より低い場合、表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低い文字又は文字列にマークを付ける。   If the pronunciation score of the speech awaiting evaluation is lower than a predefined pronunciation score threshold, mark the text data whose pronunciation score is lower than the predefined pronunciation score threshold from the displayed text data, and / or When the pronunciation score of at least one character or character string in the evaluation waiting speech is lower than a predefined pronunciation score threshold, the character or character string whose pronunciation score is lower than the predefined pronunciation score threshold among the displayed text data Mark the.

上記に挙げた英語文を例として、比較して「Welcome」の発音スコアが予め定義された発音スコア閾値より低いと分かった場合、全体の英語文の中から「Welcome」にマークを付けることができ、好ましくは、「Welcome」の色を赤に設定することである。   Using the English sentences listed above as an example, if it is found that the pronunciation score of "Welcome" is lower than the predefined pronunciation score threshold, "Welcome" may be marked from the entire English sentence Preferably, the color of “Welcome” is set to red.

上記各方法にかかる実施例は上記各機器にかかる実施例に対応しているため、各方法の実施例についてはこれ以上詳しく説明しない。   Since the embodiment according to each method corresponds to the embodiment according to each device, the embodiment of each method will not be described in detail.

本明細書において、具体的な細部を多く説明した。しかし、理解すべきは、本発明の実施例はこれらの詳細な説明がなくても実施できる。いくつの実施例において、公知の方法・構造及び技術を詳細に明示しなかったのは、読者に本明細書の原理に対する理解を混同させないためである。   In this specification, a number of specific details have been described. However, it should be understood that embodiments of the invention may be practiced without these detailed descriptions. In some embodiments, well-known methods, structures and techniques have not been shown in detail in order not to confuse the reader with an understanding of the principles herein.

本分野の技術者が理解すべきは、各実施例における装置の中のモジュールを適切に変えることができ、且つ、それらを該実施例と異なる1つまたは複数の装置の中に設置することができるのである。実施例の中の若干モジュールを1つのモジュール又はニュット或は組合体に組み合わせて、また、それらを複数のサブモジュール又はサブユニット或はサブ組合体に分けることができる。特徴及び/又は反発し合う処理の場合を除けば、いかなる組み合わせを採用し、本明細書に公開されたいかなる方法のすべてのステップ及びいかなる装置のすべてのモジュールを組み合わせることができる。さらに明確な陳述がない限り、本説明書の中に公開された各特徴は、すべて提供された同様・等価・類似する目的の代替特徴を用いて代替することができる。   It should be understood by those skilled in the art that the modules in the devices in each embodiment can be appropriately changed and that they can be installed in one or more devices different from the embodiments. It can be done. Some modules in the embodiments can be combined into one module or nut or combination, and they can be divided into multiple sub-modules or subunits or sub-combinations. Except for the case of features and / or repulsive processes, any combination can be employed and all steps of any method disclosed herein and all modules of any apparatus can be combined. Unless otherwise stated explicitly, each feature disclosed in this document may be replaced with alternative features for similar, equivalent, and similar purposes provided.

本発明の各装置における実施例は、ハードウェアで実現でき、又は、1つ又は複数のプロセッサ上で実行されるソフトモジュールで実現でき、又は、それらの組み合わせで実現できる。本分野の技術者が理解すべきは、実施する際にマイクロプロセサ又はデジタルシグナルプロセッサ(DSP)を用いて、本発明実施例における装置の一部又は全部のモジュールの一部又は全部機能によって実現できることである。本発明はさらにここで説明した方法を実行するための装置プログラムの実現もできる(例えば、コンピュータプログラム及びコンピュータプログラム製品)。   Embodiments in each apparatus of the present invention can be realized by hardware, can be realized by a software module executed on one or a plurality of processors, or a combination thereof. It should be understood by those skilled in the art that a part or all of functions of some or all of the modules in the embodiment of the present invention can be realized by using a microprocessor or a digital signal processor (DSP). It is. The present invention can also implement apparatus programs for executing the methods described herein (eg, computer programs and computer program products).

注意すべきことは、上記の実施例は本発明を説明するものであり、本発明を制限するものではない。本分野の技術者は添付の権利請求の範囲をはずれない前提で、色々な代替実施例を設けられる。権利請求範囲の中で、特徴の並べる順番は特徴の特定の順位を意味しない。特に、方法での権利請求範囲の中での各ステップの順番はこれらのステップが該順番によって実行すべきことを意味しない。逆に、これらのステップは、いずれの適切な順序で実行してもよい。同様に、装置権利請求範囲の中での各モジュールの実行順番も、権利請求範囲中の各モジュールの順番の制限を受けるべきではなく、いずれの適切な順序で実行してもよい。権利請求範囲において、括弧内の参考になるいかなる文言を権利請求範囲への制限だと理解すべきではない。術語「含む」は、権利請求範囲の中に並べていないモジュールまたはステップの存在を排除しない。モジュールまたはステップという術語前の「1」又は「1つ」は、複数のこのようなモジュール又はステップの存在を排除しない。本発明は若干異なるモジュールを含んだハードウェア又は適切なプログラミングのコンピュータ若しくはプロセッサによって実現することができる。若干のモジュールを列挙した装置権利請求範囲の中で、これらのモジュール中の若干項は同一のハードウェアモジュールを介して実現することができる。術語「第一」・「第二」・「第三」などの使用はいかなる順序を表示せず、これらの術語を名称として解釈できる。術語「接続」・「カプラ」などは本明細書にて使用する際、いかなる期待する形式で操作可能な接続すると定義する。例えば、機械的・電子的・デジタル的・シミュレーション的・直接的・間接的に、ソフトウェア・ハードウェアなどの方式で接続を行う。   It should be noted that the above examples are illustrative of the invention and are not intended to limit the invention. Those skilled in the art will be provided with various alternative embodiments, provided that they do not depart from the scope of the appended claims. In the claims, the order in which features are arranged does not mean a specific order of features. In particular, the order of the steps in a method claim does not mean that the steps should be performed in that order. Conversely, these steps may be performed in any suitable order. Similarly, the execution order of the modules in the device claim should not be limited by the order of the modules in the claim, and may be executed in any appropriate order. In the claims, you should not understand any reference in parentheses as a limitation to the claims. The term “comprising” does not exclude the presence of modules or steps that are not listed in a claim. A “1” or “one” before the term module or step does not exclude the presence of a plurality of such modules or steps. The present invention can be implemented by hardware including slightly different modules or by a suitably programmed computer or processor. Within the device claim that enumerates some modules, some of these modules can be implemented via the same hardware module. The use of the terms “first”, “second”, “third”, etc. does not indicate any order, and these terms can be interpreted as names. The terms “connection”, “coupler”, etc., as used herein, are defined as connections that can be operated in any expected form. For example, the connection is performed by a method such as software, hardware, etc., mechanically, electronically, digitally, simulationally, directly or indirectly.

Claims (10)

モバイル機器におけるリアルタイム音声評価システム(100)であって、
評価待ち音声の音声データを収集するのに用いる収集モジュール(110)と、
前記収集モジュール(110)が収集して得た音声データをテキストデータとして認識するのに用いる識別モジュール(130)と、
識別モジュール(130)が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得るのに用いるマッチングモジュール(150)と、
予め定義された評価ポリシー及び前記マッチングモジュール(150)がマッチングして得たマッチング結果に基づいて、前記評価待ち音声中の少なくとも1つの文字又は文字列の発音スコア、及び/又は前記評価待ち音声の発音スコアを得て、且つ出力するのに用いる評価モジュール(170)を備え、
前記評価待ち音声の中には少なくとも1つの文字又は文字列の音声を含むことを特徴とするモバイル機器におけるリアルタイム音声評価システム。
A real-time voice evaluation system (100) in a mobile device,
A collection module (110) used to collect voice data of voices waiting for evaluation;
An identification module (130) used for recognizing voice data collected by the collection module (110) as text data;
A matching module (150) used for matching the text data obtained by recognition by the identification module (130) with the text data of the voice sample in the voice sample repository and obtaining a matching result;
Based on a predefined evaluation policy and a matching result obtained by matching by the matching module (150), a pronunciation score of at least one character or character string in the evaluation waiting speech and / or the evaluation waiting speech An evaluation module (170) used to obtain and output a pronunciation score;
The real-time speech evaluation system in a mobile device, wherein the evaluation-waiting speech includes at least one character or speech of a character string.
前記システムは、前記音声サンプル庫にある音声サンプルのテキストデータを表示するのに用いる表示モジュールをさらに備え、
前記収集モジュール(110)は、ユーザが前記表示モジュールに表示された音声サンプル庫中にある音声サンプルに基づいて入力した、評価待ち音声としての音声データを収集するのにさらに用いることを特徴とする請求項1に記載のモバイル機器におけるリアルタイム音声評価システム。
The system further comprises a display module used to display text data of audio samples in the audio sample repository,
The collection module (110) is further used to collect voice data as a voice to be evaluated, which is input based on a voice sample in a voice sample storage displayed on the display module by a user. The real-time audio | voice evaluation system in the mobile device of Claim 1.
前記評価モジュール(170)が出力した評価待ち音声の発音スコア、及び/又は前記評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを、予め定義された発音スコア閾値と比較するのに用いるスコア比較モジュールと、
前記評価待ち音声の発音スコアが予め定義された発音スコア閾値より低い場合、表示モジュールが表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低いテキストデータにマークを付け、及び/又は、
評価待ち音声中の文字又は文字列の発音スコアが予め定義された発音スコア閾値より低い場合、前記表示モジュールが表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低い文字又は文字列にマークを付けるのに用いるマーキングモジュールをさらに備えることを特徴とする請求項2に記載のモバイル機器におけるリアルタイム音声評価システム。
The pronunciation score of the evaluation pending speech output by the evaluation module (170) and / or the pronunciation score of at least one character or character string in the evaluation pending speech is used to compare with a predefined pronunciation score threshold. A score comparison module;
If the pronunciation score of the speech waiting for evaluation is lower than a predefined pronunciation score threshold, mark the text data whose pronunciation score is lower than the predefined pronunciation score threshold from the text data displayed by the display module, and / or Or
When the pronunciation score of the character or character string in the voice waiting for evaluation is lower than a predefined pronunciation score threshold, the character or character whose pronunciation score is lower than the predefined pronunciation score threshold among the text data displayed by the display module The real-time speech evaluation system for a mobile device according to claim 2, further comprising a marking module used to mark the column.
前記マッチングモジュール(150)は、Levenshtein Distance編集距離アルゴリズムに基づいて、前記識別モジュール(130)が認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチング演算を行い、マッチング結果を得るのにさらに用いることを特徴とする請求項1に記載のモバイル機器におけるリアルタイム音声評価システム。   Based on the Levenshtein Distance edit distance algorithm, the matching module (150) performs a matching operation on the text data obtained by the identification module (130) and the text data of the voice sample in the voice sample store, and performs a matching result. The real-time speech evaluation system in a mobile device according to claim 1, further used to obtain 前記予め定義された評価ポリシーは、認識して得たテキストデータが音声サンプル庫にある音声サンプルのテキストデータとマッチングする場合、音声データに基づいて認識して得たテキストデータ中の文字又は文字列の事後確率を評価待ち音声中の文字又は文字列の発音スコアとし、評価待ち音声中の全ての文字または文字列の発音スコアの平均スコアを評価待ち音声の発音スコアとすることを特徴とする請求項1ないし請求項4のいずれか1つに記載のモバイル機器におけるリアルタイム音声評価システム。   When the predefined evaluation policy matches the text data obtained by recognition with the text data of the voice sample in the voice sample store, the character or the character string in the text data obtained by recognition based on the voice data The a posteriori probability is a pronunciation score of a character or character string in the speech waiting for evaluation, and an average score of the pronunciation scores of all characters or character strings in the speech awaiting evaluation is used as the pronunciation score of the speech waiting for evaluation. The real-time audio | voice evaluation system in the mobile device as described in any one of Claims 1 thru | or 4. 前記音声サンプル庫を記憶するのに用いるストレージモジュールを更に備え、前記音声サンプル庫には少なくとも1つの音声サンプルが含まれていることを特徴とする請求項1ないし請求項4のいずれか1つに記載のモバイル機器におけるリアルタイム音声評価システム。   5. The storage device according to claim 1, further comprising a storage module used to store the sound sample store, wherein the sound sample store includes at least one sound sample. A real-time voice evaluation system for the described mobile device. 端末機器におけるリアルタイム音声評価方法(200)であって、
評価待ち音声の音声データを収集するステップ(S210)と、
収集した音声データをテキストデータに識別するステップ(S230)と、
認識して得たテキストデータを、音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得るステップ(S250)と、
予め定義された評価ポリシー及び前記マッチング結果に基づいて、前記評価待ち音声中の少なくとも1つの文字又は文字列的発音スコア、及び/又は前記評価待ち音声の発音スコアを得て、且つ出力するステップ(S270)を含み、
前記評価待ち音声中少なくとも1つの文字の音声又は文字列の音声を含むことを特徴とする端末機器におけるリアルタイム音声評価方法。
A real-time voice evaluation method (200) in a terminal device,
Collecting voice data of voice to be evaluated (S210);
Identifying the collected voice data as text data (S230);
Matching the text data obtained by the recognition with the text data of the voice sample in the voice sample warehouse and obtaining a matching result (S250);
Obtaining and outputting at least one character or string-like pronunciation score in the evaluation pending speech and / or the pronunciation score of the evaluation pending speech based on a predefined evaluation policy and the matching result ( S270),
A real-time voice evaluation method in a terminal device, comprising: a voice of at least one character or a voice of a character string in the evaluation waiting voice.
前記評価待ち音声の音声データを収集するステップ(S210)の前に、前記方法は、音声サンプル中にある音声サンプルのテキストデータを表示するステップをさらに含み、
前記評価待ち音声の音声データを収集するステップ(S210)は、
ユーザが表示された音声サンプル庫中にある音声サンプルに基づいて入力した、評価待ち音声としての音声データを収集するステップであることを特徴とする請求項7に記載の端末機器におけるリアルタイム音声評価方法。
Prior to the step (S210) of collecting voice data of the voice waiting for evaluation, the method further includes displaying text data of the voice sample in the voice sample;
The step (S210) of collecting voice data of the evaluation waiting voice includes
8. The real-time voice evaluation method in a terminal device according to claim 7, wherein the voice data is input as voices waiting for evaluation, which are input based on voice samples in the voice sample box displayed by the user. .
出力された前記評価待ち音声の発音スコア、及び/又は前記評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアを、予め定義された発音のスコア閾値と比較するステップと、
前記評価待ち音声の発音スコアが予め定義された発音スコア閾値より低い場合、表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低いテキストデータにマークを付けるステップと、及び/又は、評価待ち音声中の少なくとも1つの文字又は文字列の発音スコアが予め定義された発音スコア閾値より低い場合、表示したテキストデータの中から発音スコアが予め定義された発音スコア閾値より低い文字又は文字列にマークを付けるステップをさらに含むことを特徴とする請求項8に記載の端末機器におけるリアルタイム音声評価方法。
Comparing the output pronunciation score of the speech to be evaluated and / or the pronunciation score of at least one character or character string in the speech to be evaluated to a predefined pronunciation score threshold;
Marking the text data whose pronunciation score is lower than the predefined pronunciation score threshold from among the displayed text data when the pronunciation score of the speech waiting for evaluation is lower than the predefined pronunciation score threshold; and / or When the pronunciation score of at least one character or character string in the waiting voice for evaluation is lower than a predefined pronunciation score threshold, the character or character whose pronunciation score is lower than the predefined pronunciation score threshold among the displayed text data 9. The method for evaluating real-time speech in a terminal device according to claim 8, further comprising the step of marking the column.
前記認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチングし、マッチング結果を得るステップは、
Levenshtein Distance編集距離アルゴリズムに基づいて、認識して得たテキストデータを音声サンプル庫にある音声サンプルのテキストデータとマッチング演算を行い、マッチング結果を得ることを特徴とする請求項7ないし請求項9のいずれか1つに記載の端末機器におけるリアルタイム音声評価方法。
The step of matching the text data obtained by the recognition with the text data of the voice sample in the voice sample warehouse and obtaining a matching result,
10. The text data obtained by recognizing based on the Levenshtein Distance editing distance algorithm is matched with the text data of the voice sample in the voice sample box to obtain a matching result. The real-time audio | voice evaluation method in the terminal device as described in any one.
JP2016550920A 2013-10-30 2014-10-28 Real time voice evaluation system and method in mobile device Active JP6541673B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310524873.8A CN104599680B (en) 2013-10-30 2013-10-30 Real-time spoken evaluation system and method in mobile device
CN201310524873.8 2013-10-30
PCT/CN2014/089644 WO2015062465A1 (en) 2013-10-30 2014-10-28 Real-time oral english evaluation system and method on mobile device

Publications (2)

Publication Number Publication Date
JP2016536652A true JP2016536652A (en) 2016-11-24
JP6541673B2 JP6541673B2 (en) 2019-07-10

Family

ID=53003339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016550920A Active JP6541673B2 (en) 2013-10-30 2014-10-28 Real time voice evaluation system and method in mobile device

Country Status (5)

Country Link
US (1) US20160253923A1 (en)
EP (1) EP3065119A4 (en)
JP (1) JP6541673B2 (en)
CN (1) CN104599680B (en)
WO (1) WO2015062465A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110634471A (en) * 2019-09-21 2019-12-31 龙马智芯(珠海横琴)科技有限公司 Voice quality inspection method and device, electronic equipment and storage medium

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9911410B2 (en) * 2015-08-19 2018-03-06 International Business Machines Corporation Adaptation of speech recognition
CN105513612A (en) * 2015-12-02 2016-04-20 广东小天才科技有限公司 Language vocabulary audio processing method and device
US10950235B2 (en) * 2016-09-29 2021-03-16 Nec Corporation Information processing device, information processing method and program recording medium
CN108154735A (en) * 2016-12-06 2018-06-12 爱天教育科技(北京)有限公司 Oral English Practice assessment method and device
CN107578778A (en) * 2017-08-16 2018-01-12 南京高讯信息科技有限公司 A kind of method of spoken scoring
CN108053839B (en) * 2017-12-11 2021-12-21 广东小天才科技有限公司 Language exercise result display method and microphone equipment
CN108831212B (en) * 2018-06-28 2020-10-23 深圳语易教育科技有限公司 Auxiliary device and method for oral teaching
CN109493852A (en) * 2018-12-11 2019-03-19 北京搜狗科技发展有限公司 A kind of evaluating method and device of speech recognition
US11640767B1 (en) * 2019-03-28 2023-05-02 Emily Anna Bridges System and method for vocal training
CN110349583A (en) * 2019-07-15 2019-10-18 高磊 A kind of Game education method and system based on speech recognition
CN110797049B (en) * 2019-10-17 2022-06-07 科大讯飞股份有限公司 Voice evaluation method and related device
CN110827794B (en) * 2019-12-06 2022-06-07 科大讯飞股份有限公司 Method and device for evaluating quality of voice recognition intermediate result
CN111415684B (en) * 2020-03-18 2023-12-22 歌尔微电子股份有限公司 Voice module testing method and device and computer readable storage medium
WO2022003104A1 (en) * 2020-07-01 2022-01-06 Iliescu Alexandru System and method for interactive and handsfree language learning

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175095A (en) * 2000-12-08 2002-06-21 Tdk Corp Pronunciation learning system
US20060111902A1 (en) * 2004-11-22 2006-05-25 Bravobrava L.L.C. System and method for assisting language learning
JP2006208644A (en) * 2005-01-27 2006-08-10 Toppan Printing Co Ltd Server system and method for measuring linguistic speaking ability
WO2006134759A1 (en) * 2005-06-15 2006-12-21 Waseda University Sentence evaluating device and sentence evaluating program
JP2007148170A (en) * 2005-11-29 2007-06-14 Cai Media Kyodo Kaihatsu:Kk Foreign language learning support system
JP2010282058A (en) * 2009-06-05 2010-12-16 Tokyobay Communication Co Ltd Method and device for supporting foreign language learning

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002231045A1 (en) * 2000-12-18 2002-07-01 Digispeech Marketing Ltd. Method of providing language instruction and a language instruction system
JP2006133521A (en) * 2004-11-05 2006-05-25 Kotoba No Kabe Wo Koete:Kk Language training machine
US20090087822A1 (en) * 2007-10-02 2009-04-02 Neurolanguage Corporation Computer-based language training work plan creation with specialized english materials
CN101246685B (en) * 2008-03-17 2011-03-30 清华大学 Pronunciation quality evaluation method of computer auxiliary language learning system
GB2458461A (en) * 2008-03-17 2009-09-23 Kai Yu Spoken language learning system
CN101551947A (en) * 2008-06-11 2009-10-07 俞凯 Computer system for assisting spoken language learning
CN101739869B (en) * 2008-11-19 2012-03-28 中国科学院自动化研究所 Priori knowledge-based pronunciation evaluation and diagnosis system
CN101551952A (en) * 2009-05-21 2009-10-07 无敌科技(西安)有限公司 Device and method for evaluating pronunciation
US9361908B2 (en) * 2011-07-28 2016-06-07 Educational Testing Service Computer-implemented systems and methods for scoring concatenated speech responses
CN102800314B (en) * 2012-07-17 2014-03-19 广东外语外贸大学 English sentence recognizing and evaluating system with feedback guidance and method
WO2014039828A2 (en) * 2012-09-06 2014-03-13 Simmons Aaron M A method and system for reading fluency training
CN103065626B (en) * 2012-12-20 2015-03-11 中国科学院声学研究所 Automatic grading method and automatic grading equipment for read questions in test of spoken English

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175095A (en) * 2000-12-08 2002-06-21 Tdk Corp Pronunciation learning system
US20060111902A1 (en) * 2004-11-22 2006-05-25 Bravobrava L.L.C. System and method for assisting language learning
JP2006208644A (en) * 2005-01-27 2006-08-10 Toppan Printing Co Ltd Server system and method for measuring linguistic speaking ability
WO2006134759A1 (en) * 2005-06-15 2006-12-21 Waseda University Sentence evaluating device and sentence evaluating program
JP2007148170A (en) * 2005-11-29 2007-06-14 Cai Media Kyodo Kaihatsu:Kk Foreign language learning support system
JP2010282058A (en) * 2009-06-05 2010-12-16 Tokyobay Communication Co Ltd Method and device for supporting foreign language learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
小野 正貴 外1名: "音声認識・言語理解システムを用いた音声対話コーパスの収集とその利用", 電子情報通信学会技術研究報告 VOL.109 NO.355, vol. 第109巻 第355号, JPN6018025032, 14 December 2009 (2009-12-14), JP, pages 213 - 218, ISSN: 0003832973 *
河原 達也 外1名: "音声情報処理技術を用いた外国語学習支援", 電子情報通信学会論文誌 VOL.J96−D NO.7, vol. 第499号, JPN6018025034, 1 July 2013 (2013-07-01), JP, pages 1549 - 1565, ISSN: 0003832974 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110634471A (en) * 2019-09-21 2019-12-31 龙马智芯(珠海横琴)科技有限公司 Voice quality inspection method and device, electronic equipment and storage medium
CN110634471B (en) * 2019-09-21 2020-10-02 龙马智芯(珠海横琴)科技有限公司 Voice quality inspection method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
US20160253923A1 (en) 2016-09-01
CN104599680B (en) 2019-11-26
EP3065119A1 (en) 2016-09-07
EP3065119A4 (en) 2017-04-19
WO2015062465A1 (en) 2015-05-07
JP6541673B2 (en) 2019-07-10
CN104599680A (en) 2015-05-06

Similar Documents

Publication Publication Date Title
JP6541673B2 (en) Real time voice evaluation system and method in mobile device
CN107195295B (en) Voice recognition method and device based on Chinese-English mixed dictionary
CN107301860B (en) Voice recognition method and device based on Chinese-English mixed dictionary
JP6909832B2 (en) Methods, devices, equipment and media for recognizing important words in audio
JP6251958B2 (en) Utterance analysis device, voice dialogue control device, method, and program
US10114809B2 (en) Method and apparatus for phonetically annotating text
JP5901001B1 (en) Method and device for acoustic language model training
CN107729313B (en) Deep neural network-based polyphone pronunciation distinguishing method and device
WO2018223796A1 (en) Speech recognition method, storage medium, and speech recognition device
WO2020258502A1 (en) Text analysis method and apparatus, computer apparatus and computer storage medium
CN111145733B (en) Speech recognition method, speech recognition device, computer equipment and computer readable storage medium
KR20110038474A (en) Apparatus and method for detecting sentence boundaries
JP6495792B2 (en) Speech recognition apparatus, speech recognition method, and program
CN110335608B (en) Voiceprint verification method, voiceprint verification device, voiceprint verification equipment and storage medium
WO2020037921A1 (en) Expression picture prompting method and apparatus, computer device, and storage medium
KR102017229B1 (en) A text sentence automatic generating system based deep learning for improving infinity of speech pattern
JP2020507165A (en) Information processing method and apparatus for data visualization
CN109408175B (en) Real-time interaction method and system in general high-performance deep learning calculation engine
CN111126084A (en) Data processing method and device, electronic equipment and storage medium
CN112559725A (en) Text matching method, device, terminal and storage medium
CN108845682B (en) Input prediction method and device
JP5954836B2 (en) Ununderstood sentence determination model learning method, ununderstood sentence determination method, apparatus, and program
CN114758649B (en) Voice recognition method, device, equipment and medium
US20220122586A1 (en) Fast Emit Low-latency Streaming ASR with Sequence-level Emission Regularization
CN115512692A (en) Voice recognition method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190611

R150 Certificate of patent or registration of utility model

Ref document number: 6541673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250