JP2008040344A - Speech evaluating device - Google Patents

Speech evaluating device Download PDF

Info

Publication number
JP2008040344A
JP2008040344A JP2006217300A JP2006217300A JP2008040344A JP 2008040344 A JP2008040344 A JP 2008040344A JP 2006217300 A JP2006217300 A JP 2006217300A JP 2006217300 A JP2006217300 A JP 2006217300A JP 2008040344 A JP2008040344 A JP 2008040344A
Authority
JP
Japan
Prior art keywords
sound
data
voice
voice data
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006217300A
Other languages
Japanese (ja)
Other versions
JP5092311B2 (en
Inventor
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006217300A priority Critical patent/JP5092311B2/en
Publication of JP2008040344A publication Critical patent/JP2008040344A/en
Application granted granted Critical
Publication of JP5092311B2 publication Critical patent/JP5092311B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology enabling a user to easily grasp the result of speech evaluation even in an environment without a display. <P>SOLUTION: A control section 11 of a speech evaluating device 1 compares the features of model speech data and the features of trainee speech data and, according to the result of the comparison, specifies an indication section. Then, in the model speech data, the control section 11 extends the model speech data corresponding to the specified indication section in the time base direction and changes the power of the model speech data corresponding to the indication section so that the sound volume of the model speech corresponding to the indication section will be increased. Further, the control section 11 inserts a silence interval immediately before and after the indication section. From a loud speaker 17, the model speech expressed by the processed model speech data is emitted. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音声評価装置に関する。   The present invention relates to a voice evaluation apparatus.

音声評価の分野においては、お手本として準備された音声データとユーザがそのお手本を模して発音した音声データの類似度を比較することによって発音の巧拙を評価する装置が提案されている。例えば、特許文献1に記載された発音採点装置は、まず、お手本として準備しておいた語学教材の音声をスピーカから放音し、その音声を模してユーザが発音した音声をマイクロフォン等を介して収録する。そして、収録した音声を分析して発音の巧拙を評価し、評価結果をディスプレイに表示するようになっている。
特開2000−347560号公報
In the field of speech evaluation, there has been proposed a device that evaluates the skill of pronunciation by comparing the similarity between speech data prepared as a model and voice data that the user has created by simulating the model. For example, in the pronunciation scoring device described in Patent Document 1, first, the sound of a language teaching material prepared as a model is emitted from a speaker, and the sound that the user pronounces by imitating the sound is transmitted via a microphone or the like. To record. The recorded voice is analyzed to evaluate the skill of pronunciation, and the evaluation result is displayed on the display.
JP 2000-347560 A

しかしながら、この種の装置では、車の中や、ほかの事をしながらなどのディスプレイを見ることができない環境下では、結果を把握することができなかった。
本発明は上述した背景の下になされたものであり、ディスプレイのない環境でも、語学採点の結果をユーザが把握しやすい技術を提供することを目的とする。
However, with this type of device, the results could not be grasped in an environment where the display could not be seen, such as in a car or while doing other things.
The present invention has been made under the above-described background, and an object thereof is to provide a technique that allows a user to easily understand the result of language scoring even in an environment without a display.

本発明の好適な態様である音声評価装置は、音声を表す第1の音声データを記憶する第1の音声データ記憶手段と、収音した音声を表す第2の音声データを出力する収音手段と、前記第1の音声データ記憶手段に記憶された前記第1の音声データの特徴と前記収音手段から出力される第2の音声データの特徴とを比較し、該比較結果に基づいて指摘区間を特定する指摘区間特定手段と、前記第1の音声データにおいて、前記指摘区間特定手段により特定された指摘区間に対応する音声データの表す音声の態様と該指摘区間以外の区間に対応する音声データの表す音声の態様とが異なるように、該第1の音声データを加工する音声データ加工手段と、前記音声データ加工手段により加工された第1の音声データの表す音声を、放音手段に放音させる放音制御手段とを備える。   A speech evaluation apparatus according to a preferred aspect of the present invention includes a first speech data storage unit that stores first speech data representing speech, and a sound collection unit that outputs second speech data representing the collected speech. And the feature of the first sound data stored in the first sound data storage means and the feature of the second sound data output from the sound collecting means, and pointed out based on the comparison result A pointing section specifying means for specifying a section; and a voice mode represented by voice data corresponding to the pointing section specified by the pointing section specifying means in the first voice data and a voice corresponding to a section other than the pointing section The sound data processing means for processing the first sound data and the sound expressed by the first sound data processed by the sound data processing means are sent to the sound emitting means so that the sound mode represented by the data is different. Sound emission And a sound emission control unit that.

この態様において、前記音声データ加工手段は、前記第1の音声データのうちの前記指摘区間特定手段により特定された指摘区間に対応する音声データを時間軸方向に伸長又は圧縮してもよい。
また、この態様において、前記音声データ加工手段は、前記第1の音声データのうちの前記指摘区間特定手段により特定された指摘区間に対応する音声データの表す音声のピッチが高くなるように、該第1の音声データを加工してもよい。
また、この態様において、前記音声データ加工手段は、前記第1の音声データのうちの前記指摘区間特定手段により特定された指摘区間の直前及び直後の少なくともいずれか一方に、無音区間を挿入してもよい。
In this aspect, the voice data processing means may expand or compress the voice data corresponding to the indicated section specified by the indicated section specifying means in the first voice data in the time axis direction.
Further, in this aspect, the voice data processing means is configured so that a pitch of voice represented by voice data corresponding to the indicated section specified by the specified section specifying means in the first voice data is increased. The first audio data may be processed.
Further, in this aspect, the voice data processing means inserts a silent section immediately before or immediately after the indicated section specified by the indicated section specifying means in the first voice data. Also good.

また、本発明の好適な態様である音声評価装置は、音声を表す第1の音声データから、前記音声に含まれる各音素の発音開始タイミングを特定する発音開始タイミング特定手段と、前記発音開始タイミング特定手段により特定された発音開始タイミング付近においてエンベロープが大となる楽音データを生成する楽音データ生成手段と、前記楽音データ生成手段により生成された楽音データの表す音を、放音手段に放音させる放音制御手段とを備える。   In addition, the speech evaluation apparatus according to a preferred aspect of the present invention includes a sounding start timing specifying unit that specifies the sounding start timing of each phoneme included in the sound from the first sound data representing the sound, and the sounding start timing. Tone data generating means for generating tone data having a large envelope near the sounding start timing specified by the specifying means, and causing the sound emitting means to emit the sound represented by the tone data generated by the tone data generating means Sound emission control means.

また、本発明の好適な態様である音声評価装置は、音声を表す第1の音声データから、該第1の音声データの表す音声のピッチを検出するピッチ検出手段と、前記第1の音声データから、該音声データの表す音声の音量を検出する音量検出手段と、前記ピッチ検出手段により検出されたピッチと前記音量検出手段により検出された音量とに基づいて、前記音声に含まれる音素毎に、該音素の発音開始タイミング及び発音終了タイミングを示す音素データを生成する音素データ生成手段と、前記ピッチ検出手段により検出されたピッチと前記音素データ生成手段により生成された音素データの示す発音開始タイミング及び発音終了タイミングとに基づいて楽音データを生成する楽音データ生成手段と、前記楽音データ生成手段により生成された楽音データの表す音を、放音手段に放音させる放音制御手段とを備える。   The speech evaluation apparatus according to a preferred aspect of the present invention includes a pitch detection unit that detects a pitch of speech represented by the first speech data from first speech data representing speech, and the first speech data. From the volume detection means for detecting the volume of the voice represented by the voice data, and for each phoneme included in the voice based on the pitch detected by the pitch detection means and the volume detected by the volume detection means A phoneme data generating means for generating phoneme data indicating a sounding start timing and a sounding end timing of the phoneme; a pitch detected by the pitch detecting means; and a sounding start timing indicated by the phoneme data generated by the phoneme data generating means And tone data generating means for generating tone data based on the sound generation end timing, and the tone data generating means The sound represented by the sound data, and a sound output control means for sounding the sound emitting means.

上述した態様において、前記放音制御手段は、前記第1の音声データの表す音声と前記楽音データの表す音とを、両者の時間軸が一致するように前記放音手段に放音させてもよい。
また、上述した態様において、前記第1の音声データを記憶する第1の音声データ記憶手段と、収音し、収音した音声を表す第2の音声データを出力する収音手段と、前記第1の音声データの特徴と前記収音手段から出力される第2の音声データの特徴とを比較し、該比較結果に基づいて指摘区間を特定する指摘区間特定手段と、前記楽音データにおいて前記指摘区間特定手段により特定された指摘区間に対応するデータを時間軸方向に伸長又は圧縮するタイムストレッチ手段とを備え、前記放音制御手段は、前記タイムストレッチ手段により伸長又は圧縮された楽曲データの表す音を、前記放音手段に放音させてもよい。
In the above-described aspect, the sound emission control means may cause the sound emission means to emit the sound represented by the first sound data and the sound represented by the musical sound data so that the time axes of both coincide. Good.
In the above-described aspect, the first sound data storage means for storing the first sound data, the sound collecting means for collecting and outputting the second sound data representing the picked up sound, and the first Comparing the characteristics of the first voice data with the characteristics of the second voice data output from the sound collecting means, and specifying the indicated section based on the comparison result; and the indication in the musical sound data Time stretch means for extending or compressing data corresponding to the indicated section specified by the section specifying means in the time axis direction, and the sound emission control means represents the music data expanded or compressed by the time stretch means The sound may be emitted by the sound emitting means.

本発明によれば、ディスプレイのない環境であっても、語学採点の結果をユーザが把握しやすくすることができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it is an environment without a display, it can make it easy for a user to grasp | ascertain the result of language scoring.

以下、図面を参照して、本発明の実施形態について説明する。
<A:構成>
図1は、本実施形態である音声評価装置1のハードウェア構成の一例を示すブロック図である。音声評価装置1は、ポータブルミュージックプレーヤなどの装置であり、語学学習を支援する語学学習支援装置として機能する。図において、制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)を備え、ROM又は記憶部12に記憶されているコンピュータプログラムを読み出して実行することにより、音声評価装置1の各部を制御する。記憶部12は、制御部11によって実行されるプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。表示部13は、液晶表示パネルを備え、制御部11による制御のもとに各種の画像を表示する。操作部14は、再生キーや採点キーなどの各種のキーを備え、練習者による操作に応じた操作信号を制御部11に出力する。マイクロフォン15は、音声を収音して収音した音声を表す音声信号(アナログデータ)を出力する収音手段である。音声処理部16は、マイクロフォン15が出力する音声信号(アナログデータ)をデジタルデータに変換して制御部11に出力する。また、スピーカ17に出力する音声をデジタルデータからアナログデータに変換する。スピーカ17は、音声処理部16から出力される音声信号に応じた強度で放音する放音手段である。なお、スピーカ17に代えて、耳に装着可能なイヤホンやヘッドフォンを放音手段として用いることもできる。
Embodiments of the present invention will be described below with reference to the drawings.
<A: Configuration>
FIG. 1 is a block diagram illustrating an example of a hardware configuration of a voice evaluation device 1 according to the present embodiment. The voice evaluation device 1 is a device such as a portable music player, and functions as a language learning support device that supports language learning. In the figure, the control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and reads and executes a computer program stored in the ROM or the storage unit 12. Control each part of the speech evaluation apparatus 1. The storage unit 12 is a storage unit for storing a program executed by the control unit 11 and data used at the time of execution, and is, for example, a hard disk device. The display unit 13 includes a liquid crystal display panel and displays various images under the control of the control unit 11. The operation unit 14 includes various keys such as a reproduction key and a scoring key, and outputs an operation signal corresponding to the operation by the practitioner to the control unit 11. The microphone 15 is a sound collecting unit that collects sound and outputs a sound signal (analog data) representing the picked up sound. The audio processing unit 16 converts an audio signal (analog data) output from the microphone 15 into digital data and outputs the digital data to the control unit 11. Also, the sound output to the speaker 17 is converted from digital data to analog data. The speaker 17 is a sound emitting unit that emits sound with an intensity corresponding to the sound signal output from the sound processing unit 16. Note that, instead of the speaker 17, an earphone or a headphone that can be worn on the ear can be used as the sound emitting means.

記憶部12は、図示のように、お手本音声データ記憶領域12aと練習者音声データ記憶領域12bと楽音波形記憶領域12cとを備えている。お手本音声データ記憶領域12aには、英語発音のお手本として予め収録されたお手本音声信号を表す音声データ(以下、「お手本音声データ」という)が記憶されている。お手本音声データは、WAVE形式やMP3(MPEG1 Audio Layer-3)形式などのデータ形式である。このお手本音声データ記憶領域12aには、複数の例文(例えば、「One centimeter is tem millimeters.」など)について発音されたお手本データが、例文毎に記憶されている。練習者音声データ記憶領域12bには、マイクロフォン15によって収音されて音声処理部16でデジタルデータに変換された音声データ(以下、「練習者音声データ」という)が記憶される。この練習者音声データも、WAVE形式やMP3形式などのデータ形式である。楽音波形記憶領域12cには、例えばギター、ピアノ等の楽器の演奏音に対応する波形のサンプル値からなる波形情報(ウェーブテーブル)が記憶されている。なお、この波形情報は、ギターやピアノの演奏音に対応する波形に限らず、例えばドラムなど、他のどのような楽器の演奏音に対応する波形のサンプル値からなる波形情報であってもよい。また、楽器の演奏音に限らず、単なる電子音に対応する波形のサンプル値からなる波形情報であってもよい。   As shown in the figure, the storage unit 12 includes a model voice data storage area 12a, a trainer voice data storage area 12b, and a musical tone waveform storage area 12c. In the model voice data storage area 12a, voice data representing a model voice signal recorded in advance as a model of English pronunciation (hereinafter referred to as “model voice data”) is stored. The model audio data is a data format such as WAVE format or MP3 (MPEG1 Audio Layer-3) format. In the model voice data storage area 12a, model data pronounced for a plurality of example sentences (for example, “One centimeter is tem millimeters”) is stored for each example sentence. In the trainer voice data storage area 12b, voice data collected by the microphone 15 and converted into digital data by the voice processing unit 16 (hereinafter referred to as “practice voice data”) is stored. This practicer voice data is also in a data format such as WAVE format or MP3 format. In the musical sound waveform storage area 12c, waveform information (wave table) composed of sample values of waveforms corresponding to performance sounds of musical instruments such as guitars and pianos is stored. The waveform information is not limited to the waveform corresponding to the performance sound of the guitar or piano, but may be waveform information including sample values of the waveform corresponding to the performance sound of any other instrument such as a drum. . The waveform information is not limited to the performance sound of a musical instrument, and may be waveform information including a sample value of a waveform corresponding to a simple electronic sound.

図2は、音声評価装置1のソフトウェア構成の一例を示すブロック図である。図2に示す分析部111,採点部112,フィードバック内容制御部113,楽音生成部114,音声加工部115,混合部116は、制御部11がROM又は記憶部12に記憶されたコンピュータプログラムを実行することによって実現される。なお、図中の矢印は、データの流れを概略的に示したものである。   FIG. 2 is a block diagram illustrating an example of a software configuration of the voice evaluation device 1. 2, the analysis unit 111, the scoring unit 112, the feedback content control unit 113, the musical tone generation unit 114, the voice processing unit 115, and the mixing unit 116 are executed by the control unit 11 executing a computer program stored in the ROM or the storage unit 12. It is realized by doing. The arrows in the figure schematically show the flow of data.

図2において、分析部111は、お手本音声データと練習者音声データとから、所定時間長(例えば、「10msec」)のフレーム単位で、ピッチ、パワー、スペクトルを検出する。スペクトルの検出にはFFT(Fast Fourier Transform)が用いられる。本実施形態においては、お手本音声データ(又は練習者音声データ)のピッチ、パワー、スペクトルを、お手本音声データ(又は練習者音声データ)の「特徴」と呼ぶ。
また、分析部111は、お手本音声データと練習者音声データとから検出された両者のスペクトルに基づいて、両者の対応関係を求める。お手本音声と練習者音声とは時間的に前後にずれている可能性がある。このようにお手本音声と練習者音声とが時間的に前後にずれている場合であっても、両者を対応付けられるようにするため、練習者音声データの時間軸を伸縮させる時間正規化(DTW:Dynamic Time Warping)を行い、両者の時間軸を合わせる。このDTWを行うための手法としては、この実施形態ではDP(Dynamic Programming:動的計画法)を用いる。
分析部111は、お手本音声データから検出したお手本音声の特徴を表すデータ(お手本ピッチデータ、お手本スペクトルデータ、お手本パワーデータ)と、練習者音声データから検出した練習者音声の特徴を表すデータ(練習者スペクトルデータ,練習者ピッチデータ,練習者パワーデータ)、および対応付け結果を表す対応データを、採点部112及びフィードバック内容制御部113に出力する。
In FIG. 2, the analysis unit 111 detects pitch, power, and spectrum in frame units of a predetermined time length (for example, “10 msec”) from the model voice data and the practice person voice data. FFT (Fast Fourier Transform) is used for spectrum detection. In the present embodiment, the pitch, power, and spectrum of the model voice data (or the practicer voice data) are referred to as “features” of the model voice data (or the practicer voice data).
Moreover, the analysis part 111 calculates | requires both correspondence based on the spectrum of both detected from model audio | voice data and practitioner audio | voice data. There is a possibility that the model voice and the practitioner voice are shifted back and forth in time. In this way, even if the model voice and the trainer voice are shifted forward and backward in time, time normalization (DTW) is performed so that the time axis of the trainer voice data is expanded and contracted so that they can be associated with each other. : Dynamic Time Warping) and adjust the time axis of both. As a technique for performing this DTW, DP (Dynamic Programming) is used in this embodiment.
The analysis unit 111 includes data (model pitch data, model spectrum data, model power data) representing the characteristics of the model voice detected from the model voice data, and data (practice) representing the characteristics of the trainer voice detected from the trainer voice data. Trainer spectrum data, practitioner pitch data, practitioner power data) and correspondence data representing the association result are output to the scoring unit 112 and the feedback content control unit 113.

採点部112は、お手本音声データの特徴と練習者音声データの特徴とを比較し、その比較結果に基づいて採点を行う。この採点は、例えば、ピッチ、パワー、スペクトルのそれぞれの特徴について比較を行い、それぞれの特徴毎に採点を行ってもよく、また、単位区間毎(小節毎、フレーズ毎)に特徴を比較し、単位区間毎に採点を行ってもよい。
また、採点部112は、比較結果に基づいて、練習者が練習すべき区間を示す指摘区間特定する。指摘区間の特定方法としては、例えば、採点部112は、お手本音声データの特徴と練習者音声データの特徴とを、単位区間毎(例えば、小節毎、フレーズ毎)に比較し、その隔たりが予め定められた閾値以上である区間を指摘区間として特定する。具体的には、例えば、採点部112は、お手本音声データのピッチと練習者音声データのピッチとの差が閾値以上である区間を指摘区間として特定する。採点部112は、採点結果と指摘区間とを示す採点結果データを、フィードバック内容制御部113に出力する。
The scoring unit 112 compares the characteristics of the model voice data with the characteristics of the practitioner voice data, and scores based on the comparison result. For example, this scoring may be performed for each feature of pitch, power, and spectrum, and may be scored for each feature. Also, the features may be compared for each unit section (for each measure and for each phrase) Scoring may be performed for each unit section.
In addition, the scoring unit 112 specifies an indicated section indicating a section where the practitioner should practice based on the comparison result. As a method for identifying the indicated section, for example, the scoring unit 112 compares the characteristics of the model voice data and the characteristics of the practitioner voice data for each unit section (for example, for each measure, for each phrase), A section that is equal to or greater than a predetermined threshold is identified as an indicated section. Specifically, for example, the scoring unit 112 identifies a section where the difference between the pitch of the model voice data and the pitch of the trainee voice data is equal to or greater than a threshold value as the indication section. The scoring unit 112 outputs scoring result data indicating the scoring result and the indicated section to the feedback content control unit 113.

フィードバック内容制御部113は、採点部112で生成された採点結果を用いて、どのようなフィードバックを行うかの内容を決定し、決定した内容を示すフィードバックデータを楽音生成部114及び音声加工部115の少なくともいずれか一方に出力する。音声評価装置1が行うフィードバック処理は、「ピッチフィードバック処理」、「リズムフィードバック処理」、「加工音声フィードバック処理」の3種類に大別される。「ピッチフィードバック処理」は、お手本音声のピッチを練習者にフィードバックする処理である。「リズムフィードバック処理」は、お手本音声のリズムを練習者にフィードバックする処理である。「加工音声フィードバック処理」は、練習者が間違った箇所が練習者に分かり易いようにお手本音声を加工してユーザにフィードバックする処理である。
フィードバック内容制御部113は、採点部112で生成された採点結果を用いて、どのフィードバックを行うかを決定する。具体的には、例えば、ピッチの採点結果が悪いと判断した場合には、フィードバック内容制御部113は、ピッチフィードバック処理を行うことを決定し、一方、リズムの採点結果が悪いと判断した場合には、フィードバック内容制御部113は、リズムフィードバック処理を行うと決定する。また、区間毎(小節毎、フレーズ毎)の採点結果を参照し、採点結果が悪い区間について、加工音声フィードパック処理を行うと決定してもよい。要するに、採点部112で生成された採点結果を用いて、どのフィードバック処理を行うかを決定すればよい。フィードバック内容制御部113がどのフィードバック処理を行うかを決定する方法は様々であり、その決定方法は設計等に応じて変更可能である。
フィードバック内容制御部113は、「ピッチフィードバック処理」又は「リズムフィードバック処理」を行うと決定した場合には、フィードバックデータを楽音生成部114に出力し、一方、「加工音声フィードバック処理」を行うと決定した場合には、フィードバックデータを音声加工部115に出力する。
The feedback content control unit 113 uses the scoring result generated by the scoring unit 112 to determine the content of what kind of feedback is to be performed, and provides feedback data indicating the determined content as the musical sound generating unit 114 and the sound processing unit 115. Is output to at least one of The feedback processing performed by the speech evaluation apparatus 1 is broadly classified into three types: “pitch feedback processing”, “rhythm feedback processing”, and “processed speech feedback processing”. The “pitch feedback process” is a process of feeding back the pitch of the model voice to the practitioner. The “rhythm feedback process” is a process for feeding back the rhythm of the model voice to the practitioner. The “processed voice feedback process” is a process of processing a model voice and feeding it back to the user so that the practitioner can easily understand the wrong part.
The feedback content control unit 113 uses the scoring result generated by the scoring unit 112 to determine which feedback is to be performed. Specifically, for example, when it is determined that the pitch scoring result is bad, the feedback content control unit 113 determines to perform the pitch feedback processing, and when it is determined that the rhythm scoring result is bad. The feedback content control unit 113 determines to perform rhythm feedback processing. Moreover, you may determine with reference to the scoring result for every area (every measure, every phrase), and performing a process audio | voice feed pack process about the area where a scoring result is bad. In short, it is only necessary to determine which feedback processing is to be performed using the scoring result generated by the scoring unit 112. There are various methods for determining which feedback processing the feedback content control unit 113 performs, and the determination method can be changed according to the design or the like.
When the feedback content control unit 113 determines to perform “pitch feedback processing” or “rhythm feedback processing”, the feedback content control unit 113 outputs feedback data to the musical sound generation unit 114, while determining to perform “processed voice feedback processing”. If so, feedback data is output to the voice processing unit 115.

楽音生成部114は、フィードバック内容制御部113に指定された内容で、音声の分析結果を用いて、ピッチ・リズムなどの問題箇所とその内容をユーザに知らせるための楽音を生成し、生成した楽音データを混合部116に出力する。フィードバック内容制御部113から出力されたフィードバックデータが、「ピッチフィードバック処理」を示すデータである場合には、楽音生成部114は、分析部111によって検出されたピッチとパワーとに基づいて、お手本音声に含まれる音素毎に、該音素の発音開始タイミング、発音終了タイミング、及びピッチベンド情報を含むMIDI(Musical Instruments Digital Interface)データ(音素データ)を生成する。次いで、楽音生成部114は、生成したMIDIデータに含まれる発音開始タイミング、発音終了タイミング及びピッチベンド情報に基づいて楽音データを生成する。楽音データの生成は、楽音波形記憶領域12cに記憶された楽音波形を用いて行われる。この処理によって、お手本音声を模したギターの演奏音やピアノの演奏音など、お手本音声を模した楽音を表す楽音データが生成される。   The musical sound generation unit 114 generates a musical sound for notifying the user of a problem location such as pitch / rhythm and the content using the analysis result of the voice with the content specified by the feedback content control unit 113, and the generated musical sound Data is output to the mixing unit 116. When the feedback data output from the feedback content control unit 113 is data indicating “pitch feedback processing”, the musical sound generation unit 114 performs the model voice based on the pitch and power detected by the analysis unit 111. MIDI (Musical Instruments Digital Interface) data (phoneme data) including the sound generation start timing, sound generation end timing, and pitch bend information is generated for each phoneme included in the phoneme. Next, the musical sound generation unit 114 generates musical sound data based on the sound generation start timing, sound generation end timing, and pitch bend information included in the generated MIDI data. The musical sound data is generated using the musical sound waveform stored in the musical sound waveform storage area 12c. By this process, musical sound data representing musical sounds simulating model sounds, such as guitar performance sounds simulating model sounds and piano performance sounds, is generated.

一方、フィードバック内容制御部113から供給されるフィードバックデータが「リズムフィードバック処理」を示すデータである場合には、楽音生成部114は、お手本音声データから、お手本音声データの表す音声に含まれる各音素の発音開始タイミングを特定する。発音開始タイミングは、お手本音声に400Hz〜4kHzのバンドパスフィルタをかけて、閾値を超えた箇所の先頭を発音開始タイミングとして検出してもよく、また、発音開始時のスペクトルを予め検出しておき、お手本音声に対してスペクトル分析を行って該当するバンドのデータのみを加算することによって発音開始タイミングを検出してもよい。発音タイミングを検出すると、楽音生成部114は、楽音波形記憶部12cに記憶された楽音波形を用いて、特定した発音開始タイミング付近においてエンベロープが大となる楽音データを生成する。   On the other hand, when the feedback data supplied from the feedback content control unit 113 is data indicating “rhythm feedback processing”, the musical sound generation unit 114 detects each phoneme included in the voice represented by the model voice data from the model voice data. Specify the start timing of the sound. The sounding start timing may be detected by applying a band pass filter of 400 Hz to 4 kHz to the model voice to detect the beginning of the portion exceeding the threshold as the sounding start timing, and detecting the spectrum at the time of sounding start in advance. The sound generation start timing may be detected by performing spectrum analysis on the model voice and adding only the data of the corresponding band. When the tone generation timing is detected, the tone generation unit 114 uses the tone waveform stored in the tone waveform storage unit 12c to generate tone data having a large envelope near the specified tone generation start timing.

図3は、生成される楽音データの内容の一例を説明するための図である。図3(a)は、お手本音声の音素毎のピッチと発音タイミングとを示す図である。図において、時刻t1,t2,t3,t4,t5,t6は、お手本音声に含まれる音素の発音開始タイミングを示している。同図(b),(c)は、生成される楽音データの内容の一例を示す図である。楽音生成部114は、同図(b)や(c)に示すような、発音開始タイミングt1,t2,t3,t4,t5,t6付近においてエンベロープが大となる楽音データを生成する。   FIG. 3 is a diagram for explaining an example of the contents of the musical tone data to be generated. FIG. 3A is a diagram showing the pitch and sound generation timing for each phoneme of the model voice. In the figure, times t1, t2, t3, t4, t5, and t6 indicate the sounding start timing of phonemes included in the model voice. FIGS. 7B and 7C are diagrams showing an example of the contents of the musical tone data to be generated. The musical tone generation unit 114 generates musical tone data having a large envelope in the vicinity of the sound generation start timings t1, t2, t3, t4, t5, and t6, as shown in FIGS.

音声加工部115は、フィードバック内容制御部113に指定された内容で、音声の分析結果と元の音声を用いて、問題箇所とその内容をユーザに知らせるための加工音声を生成する。この実施形態においては、音声加工部115は、お手本音声データにおいて、採点部112により特定された指摘区間に対応するお手本音声データを、予め定められた比率(120%、など)で時間軸方向に伸長する。また、音声加工部115は、採点部112により特定された指摘区間に対応するお手本音声の音量が大きくなるように、指摘区間に対応するお手本音声データのパワーを変更する。更に、音声加工部115は、採点部112により特定された指摘区間の直前と直後に無音区間を挿入する。
例えば、「One centimeter is ten millimeters.」という一文を練習した場合であって、「centimeter」に対応する区間が指摘区間であると採点部112によって特定された場合には、音声加工部115は、「centimeter」に対応する音声データを、時間軸方向に伸長するとともに音量が大きくなるようにパワーを変更する。時間軸方向に伸長されることによって、指摘区間の音声は間のびした音声となるから、練習者は、放音される音声を聞き分けることによって指摘区間を認識することができる。また、音声加工部115は、「centimeter」に対応する区間の直前と直後に無音区間を挿入する。
音声加工部115は、加工した音声データを、混合部116に出力する。
The voice processing unit 115 generates the processed voice for notifying the user of the problem location and the content using the voice analysis result and the original voice with the contents specified by the feedback content control unit 113. In this embodiment, the voice processing unit 115 sets the model voice data corresponding to the indicated section specified by the scoring unit 112 in the model voice data in the time axis direction at a predetermined ratio (120%, etc.). Elongate. In addition, the voice processing unit 115 changes the power of the model voice data corresponding to the pointed section so that the volume of the model voice corresponding to the pointed section specified by the scoring unit 112 is increased. Furthermore, the voice processing unit 115 inserts a silent section immediately before and immediately after the indicated section specified by the scoring unit 112.
For example, when a sentence “One centimeter is ten millimeters” is practiced, and the section corresponding to “centimeter” is identified by the scoring unit 112 as an indicated section, the voice processing unit 115 The power is changed so that the audio data corresponding to “centimeter” is expanded in the time axis direction and the volume is increased. By extending in the time axis direction, the voice in the indicated section becomes a skipped voice, so that the practitioner can recognize the indicated section by listening to the emitted sound. In addition, the sound processing unit 115 inserts a silent section immediately before and after the section corresponding to “centimeter”.
The voice processing unit 115 outputs the processed voice data to the mixing unit 116.

混合部116は、楽音生成部114から出力される楽音データと音声加工部115から出力される音声データとを混合してフィードバック用音声データを生成し、音声処理部16に出力する。
このとき、決定されたフィードバック処理が「加工音声フィードバック処理」である場合には、楽音生成部114は楽音生成処理を行わず、楽音データは出力されないから、この場合は、混合部116は、混合処理を行わず、音声加工部115から出力されたお手本音声データを、音声処理部16に出力する。
The mixing unit 116 mixes the musical tone data output from the musical tone generation unit 114 and the audio data output from the audio processing unit 115 to generate feedback audio data, and outputs the feedback audio data to the audio processing unit 16.
At this time, if the determined feedback process is “processed voice feedback process”, the tone generation unit 114 does not perform the tone generation process, and no tone data is output. In this case, the mixing unit 116 Without performing the process, the model voice data output from the voice processing unit 115 is output to the voice processing unit 16.

<B:実施形態の動作>
次に、この実施形態の動作を説明する。まず、練習者は、音声評価装置1の操作部14を操作して、お手本音声を再生する旨を指示する。操作部14は、操作された内容に応じた操作信号を制御部11に出力する。
図4は、音声評価装置1の制御部11が行う処理の流れを示すフローチャートである。制御部11は、操作部14から出力される操作信号に応じて、お手本音声を再生する(ステップS1)。すなわち、制御部11は、お手本音声データをお手本音声データ記憶領域12aから読み出して音声処理部16に供給する。音声処理部16は、お手本音声データをD/A変換し、アナログ信号をスピーカ17に供給する。スピーカ17は、供給される音声信号(アナログ信号)に応じて放音する。
<B: Operation of Embodiment>
Next, the operation of this embodiment will be described. First, the practitioner operates the operation unit 14 of the voice evaluation device 1 to instruct to reproduce the model voice. The operation unit 14 outputs an operation signal corresponding to the operated content to the control unit 11.
FIG. 4 is a flowchart showing a flow of processing performed by the control unit 11 of the voice evaluation device 1. The control unit 11 reproduces the model voice according to the operation signal output from the operation unit 14 (step S1). That is, the control unit 11 reads out the model voice data from the model voice data storage area 12a and supplies it to the voice processing unit 16. The voice processing unit 16 D / A converts the model voice data and supplies an analog signal to the speaker 17. The speaker 17 emits sound according to the supplied audio signal (analog signal).

練習者は、スピーカ17から放音されるお手本音声を参考にして、発音を行う。このとき、練習者の音声はマイクロフォン15によって収音されて音声信号に変換され、音声処理部16へと出力される。音声処理部16によってA/D変換された練習者音声データは、録音開始からの経過時間を表す情報と共に、練習者音声データ記憶領域12bに時系列に記憶(録音)されていく(ステップS2)。   The practitioner makes a pronunciation with reference to the model voice emitted from the speaker 17. At this time, the voice of the practitioner is picked up by the microphone 15 and converted into a voice signal, which is output to the voice processing unit 16. The trainer speech data A / D converted by the speech processing unit 16 is stored (recorded) in time series in the trainer speech data storage area 12b together with information indicating the elapsed time from the start of recording (step S2). .

練習者は、発音を終えると、操作部14の採点キーを押下する。操作部14は、操作された内容に応じた操作信号を制御部11に出力し、制御部11は、操作部14から出力される操作信号に応じて採点処理を行う。まず、制御部11は、上述した分析部111の処理を行う。すなわち、制御部11は、お手本音声データ記憶領域12aに記憶されたお手本音声データから特徴(ピッチ、スペクトル、パワー)を検出するとともに、練習者音声データ記憶領域12bに記憶された練習者音声データからも同様に特徴(ピッチ、スペクトル、パワー)を検出する(ステップS3)。次いで、制御部11は、上述した採点部112の処理を行う。すなわち、お手本音声データの特徴と練習者音声データの特徴とを比較し、該比較結果に基づいて採点を行うと共に、指摘区間を特定する(ステップS4)。   After completing the pronunciation, the practitioner presses the scoring key of the operation unit 14. The operation unit 14 outputs an operation signal corresponding to the operated content to the control unit 11, and the control unit 11 performs scoring processing according to the operation signal output from the operation unit 14. First, the control unit 11 performs the processing of the analysis unit 111 described above. That is, the control unit 11 detects features (pitch, spectrum, power) from the model voice data stored in the model voice data storage area 12a, and from the trainer voice data stored in the trainer voice data storage area 12b. Similarly, features (pitch, spectrum, power) are detected (step S3). Subsequently, the control part 11 performs the process of the scoring part 112 mentioned above. That is, the characteristics of the model voice data are compared with the characteristics of the practitioner voice data, scoring is performed based on the comparison result, and the indicated section is specified (step S4).

次いで、制御部11は、上述したフィードバック内容制御部113の処理を行う。すなわち、制御部11は、採点結果に基づいて、どのようなフィードバックを行うかの内容を決定する(ステップS5)。   Subsequently, the control part 11 performs the process of the feedback content control part 113 mentioned above. That is, the control part 11 determines the content of what kind of feedback is performed based on a scoring result (step S5).

次いで、制御部11は、採点結果に従って、上述した楽音生成部114及び音声加工部115の少なくともいずれか一方の処理を行って、お手本音声から別の音声を生成又は加工する(ステップS6)。   Next, the control unit 11 performs at least one of the above-described musical sound generation unit 114 and the voice processing unit 115 according to the scoring result, and generates or processes another voice from the model voice (step S6).

次いで、制御部11は、上述した混合部116の処理、すなわち、楽音データと加工された音声データとの混合処理を行い、楽音データと加工された音声データとを混合して、音声処理部16に供給し、音声処理部16は制御部11から供給されたデータをD/A変換し、スピーカ17に供給する。スピーカ17は、供給された音声信号に応じて、楽音と加工されたお手本音声とを、両者の時間軸が一致するように放音する(ステップS7)。   Next, the control unit 11 performs the processing of the mixing unit 116 described above, that is, the mixing process of the musical sound data and the processed voice data, and mixes the musical sound data and the processed voice data, thereby processing the voice processing unit 16. The audio processing unit 16 D / A converts the data supplied from the control unit 11 and supplies it to the speaker 17. In response to the supplied audio signal, the speaker 17 emits the musical sound and the processed model voice so that their time axes coincide (step S7).

具体的には、「ピッチフィードバック処理」が行われた場合には、スピーカ17からはお手本音声を模した楽音(ギターの演奏音など)とお手本音声とが放音される。お手本音声は言葉として意味を成すものであるから、お手本音声を聴いたとしても、言葉の意味内容に気をとられてイントネーションを認識し難い場合がある。これに対し本実施形態においては、お手本音声を模した楽器音が放音されるから、練習者は、お手本音声のイントネーション(ピッチの変化)をより認識し易くなる。   Specifically, when the “pitch feedback process” is performed, a musical sound (such as a guitar performance sound) imitating a model voice and a model voice are emitted from the speaker 17. Since the model voice makes sense as a word, even if you listen to the model voice, it may be difficult to recognize intonation due to the meaning of the word. On the other hand, in this embodiment, since the instrument sound imitating the model voice is emitted, the practitioner can more easily recognize the intonation (pitch change) of the model voice.

また、「リズムフィードバック処理」が行われた場合には、スピーカ17からは、お手本音声に含まれる各音素の発音開始タイミング付近においてエンベロープが大となる楽音(ドラムの演奏音など)が放音される。これにより、お手本音声の各音素の発音開始タイミングを強調して練習者に聴かせることができ、練習者は、お手本音声のリズムをより認識し易くなる。   Further, when the “rhythm feedback processing” is performed, musical sounds (such as drum performance sounds) having a large envelope are emitted from the speaker 17 near the sounding start timing of each phoneme included in the model voice. The As a result, it is possible to emphasize the pronunciation start timing of each phoneme of the model voice and allow the practitioner to listen to it, and the practitioner can more easily recognize the rhythm of the model voice.

また、「加工音声フィードバック処理」が行われた場合には、スピーカ17からは、指摘区間を時間軸方向に伸長されるとともに指摘区間の前後に無音区間が挿入された音声が放音される。例えば、「One centimeter is ten millimeters.」という例文であって「centimeter」に対応する区間が指摘区間である場合には、「One」の音声が放音された後、一旦ポーズ(無音区間)が入り、ポーズの後に、「One」よりも大きい音量でかつ間延びした音声で「centimeter」の音声が放音され、その後一旦ポーズ(無音区間)が入った後に、「is ten millimeters.」の音声が放音される。これにより、指摘区間に対応する「centimeter」の音声を強調して練習者に聴かせることができ、練習者は、放音される音声を聴くことで指摘区間を把握することが容易となる。   Further, when the “processed voice feedback process” is performed, the speaker 17 emits a sound in which the indicated section is extended in the time axis direction and a silent section is inserted before and after the indicated section. For example, in the example sentence “One centimeter is ten millimeters.” And the section corresponding to “centimeter” is the indicated section, after the voice of “One” is emitted, the pause (silent section) is temporarily After entering and pausing, the sound of “centimeter” is emitted with a volume that is louder than “One” and extended, and then after a pause (silent interval) is entered, the sound of “is ten millimeters.” Sound is emitted. Thus, the voice of “centimeter” corresponding to the indicated section can be emphasized and heard by the practitioner, and the practitioner can easily grasp the indicated section by listening to the emitted sound.

このように、この実施形態においては、採点結果に応じて、加工されたお手本音声が放音されるから、練習者は、採点結果が表示されなくても、語学採点の結果を把握することができる。
また、この実施形態においては、お手本音声の抑揚・リズムなどが強調されてフィードバックされるから、練習者は、お手本音声の抑揚やリズムをより認識しやすくなる。
Thus, in this embodiment, since the processed example voice is emitted according to the scoring result, the practitioner can grasp the language scoring result even if the scoring result is not displayed. it can.
Further, in this embodiment, since the inflection / rhythm of the model voice is emphasized and fed back, the practitioner can more easily recognize the inflection / rhythm of the model voice.

<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態においては、制御部11は、どのようなフィードバックを行うかの内容を、採点された採点結果を用いて決定した。どのようなフィードバックを行うかの決定方法は、これに限らず、例えば常にお手本音声を加工してフィードバックを行う、といったように、予め定められたフィードバック方法でフィードバック処理を行ってもよい。また、音声評価装置1の使用者が、操作部14を操作することによってフィードバックの内容を指定する設定情報を入力し(図2に鎖線で図示)、制御部11が入力された設定情報に基づいてどのようなフィードバックを行うかを決定してもよい。
<C: Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.
(1) In embodiment mentioned above, the control part 11 determined the content of what kind of feedback was performed using the scored score result. The method for determining what kind of feedback is performed is not limited to this. For example, the feedback processing may be performed by a predetermined feedback method, for example, a model voice is always processed to perform feedback. Further, the user of the voice evaluation device 1 inputs setting information for specifying the content of feedback by operating the operation unit 14 (illustrated by a chain line in FIG. 2), and the control unit 11 is based on the input setting information. You may decide what kind of feedback you want to give.

(2)上述した実施形態においては、音声加工部115は、指摘区間に対応するお手本音声データを時間軸方向に伸長するとともに、音量を大きくし、更に、指摘区間の直前と直後に無音区間を挿入した。音声加工部115は、これら全ての加工処理を行う必要はなく、例えば指摘区間に対応するお手本音声データを時間軸方向に伸長する処理のみを行ってもよく、また、指摘区間の直前と直後に無音区間を挿入する処理のみを行ってもよい。
また、加工処理は、上述したものに限らず、例えば、指摘区間に対応するお手本音声データを時間軸方向に圧縮(80%に圧縮、など)する処理でもよい。圧縮する場合には、指摘区間の音声は他の区間の音声と比較して早口になるから、この場合も、練習者は、放音される音声を聴くことで指摘区間を認識することができる。また、採点部112により特定された指摘区間に対応するお手本音声データの表す音声のピッチが高くなるように、お手本音声データを加工してもよい。また、音声データのうちの特定された指摘区間の直前及び直後の少なくともいずれか一方に、無音区間を挿入することによってお手本音声データを加工してもよい。
要するに、制御部11が、特定された指摘区間に対応するお手本音声データの表す音声の放音の態様と該指摘区間以外の区間に対応する音声データの表す音声の放音の態様とが異なるように、お手本音声データを加工すればよい。
(2) In the above-described embodiment, the voice processing unit 115 expands the model voice data corresponding to the indicated section in the time axis direction, increases the volume, and further sets the silent section immediately before and immediately after the indicated section. Inserted. The voice processing unit 115 does not need to perform all of these processing processes. For example, the voice processing unit 115 may perform only the process of extending the model voice data corresponding to the indicated section in the time axis direction, and immediately before and after the indicated section. You may perform only the process which inserts a silence area.
Further, the processing process is not limited to the above-described process, and may be, for example, a process of compressing the model voice data corresponding to the indicated section in the time axis direction (compressed to 80%). In the case of compression, the voice of the indicated section becomes a quick mouth compared with the voice of the other sections, and in this case, the practitioner can recognize the indicated section by listening to the emitted sound. . Further, the model voice data may be processed so that the pitch of the voice represented by the model voice data corresponding to the indicated section specified by the scoring unit 112 is increased. Further, the model voice data may be processed by inserting a silent section immediately before and immediately after the specified indication section of the voice data.
In short, the control unit 11 is configured such that the sound emission mode represented by the model voice data corresponding to the specified indication interval is different from the sound emission manner represented by the audio data corresponding to the interval other than the indication interval. In addition, the model voice data may be processed.

(3)上述した実施形態においては、「ピッチフィードバック処理」又は「リズムフィードバック処理」が選択された場合には、混合部116は、楽音生成部114から出力される楽音データと、音声加工部115から出力されるお手本音声データとを混合して音声処理部16に出力した。楽音データとお手本音声データとは必ずしも混合する必要はなく、楽音生成部114から出力された楽音データのみを音声処理部16に出力してもよい。この場合は、楽音生成部114で生成された楽音データの表す楽音のみがスピーカ17から放音される。この場合も、練習者は、スピーカ17から放音される楽音を聴くことで、音声のリズムやピッチを把握しやすい。 (3) In the above-described embodiment, when “pitch feedback processing” or “rhythm feedback processing” is selected, the mixing unit 116 and the sound processing unit 115 output the musical sound data output from the musical sound generation unit 114. Is mixed with the model voice data output from the voice signal to the voice processing unit 16. The musical sound data and the model voice data are not necessarily mixed, and only the musical sound data output from the musical sound generation unit 114 may be output to the voice processing unit 16. In this case, only the musical sound represented by the musical sound data generated by the musical sound generating unit 114 is emitted from the speaker 17. Also in this case, the practitioner can easily grasp the rhythm and pitch of the sound by listening to the musical sound emitted from the speaker 17.

また、「ピッチフィードバック処理」又は「リズムフィードバック処理」において、制御部11が、お手本音声データと練習者音声データとを比較し、該比較結果に基づいて指摘区間を特定し、特定した指摘区間に対応する楽音データを、時間軸方向に伸長または圧縮してもよい。指摘区間の特定は、上述した実施形態の「加工音声フィードバック処理」において説明した特定方法と同様の方法で行えばよい。この場合は、「加工音声フィードバック処理」と同様に、指摘区間に対応する楽音が強調されて放音されるから、練習者は、ディスプレイ(表示装置)が無くても、放音される楽音を聴くことで、指摘区間を把握することができる。
なお、指摘区間に対する加工処理は、時間軸方向の伸長(又は圧縮)処理に限らず、例えば指摘区間の音量を大きくするなどの処理であってもよく、要するに、指摘区間に対応する楽音データの表す楽音の放音の態様と該指摘区間以外の区間に対応する楽音データの表す楽音の放音の態様とが異なるように、楽音データを加工すればよい。
Further, in the “pitch feedback process” or the “rhythm feedback process”, the control unit 11 compares the model voice data and the trainer voice data, specifies the indicated section based on the comparison result, and determines the specified indicated section. The corresponding musical sound data may be expanded or compressed in the time axis direction. The specified section may be specified by a method similar to the specifying method described in the “processed voice feedback process” of the above-described embodiment. In this case, similar to the “processed voice feedback process”, the musical sound corresponding to the indicated section is emphasized and emitted, so that the practitioner can play the musical sound that is emitted even without a display (display device). By listening, it is possible to grasp the indicated section.
Note that the processing for the indicated section is not limited to the expansion (or compression) process in the time axis direction, and may be, for example, a process for increasing the volume of the indicated section. The musical sound data may be processed so that the musical sound emission mode to be represented differs from the musical sound emission mode represented by the musical sound data corresponding to the section other than the indicated section.

(4)上述した実施形態においては、ポータブルミュージックプレーヤである音声評価装置について説明したが、音声評価装置はこれらに限らず、携帯電話端末や、ポータブルゲーム機器、パーソナルコンピュータなどの装置であってもよい。また、液晶ディスプレイなどの表示装置を備える装置の場合には、表示装置に採点結果を表示するとともに、音声フィードバックも行って、効果を増加してもよい。 (4) In the above-described embodiment, the voice evaluation device that is a portable music player has been described. However, the voice evaluation device is not limited to these, and may be a device such as a mobile phone terminal, a portable game device, or a personal computer. Good. In the case of a device including a display device such as a liquid crystal display, the scoring result may be displayed on the display device and voice feedback may also be performed to increase the effect.

(5)上述した実施形態においては、音声評価装置を語学学習のために用いた形態について説明した。本発明を用いる形態はこれに限らず、例えば、歌唱練習のために用いてもよい。この場合は、お手本となる歌唱者の歌唱音声を表す音声データをお手本音声データとしてお手本音声データ記憶領域12aに記憶し、練習者の歌唱音声を収音して採点する。
また、楽器の演奏練習のために用いてもよい。この場合は、お手本音声データとして模範となる演奏者の演奏音を表す音声データをお手本音声データとしてお手本音声データ記憶領域に記憶し、練習者の演奏音を収音して採点する。
(5) In the above-described embodiment, the form in which the speech evaluation apparatus is used for language learning has been described. The form using this invention is not restricted to this, For example, you may use for singing practice. In this case, the voice data representing the singing voice of the singer who serves as a model is stored as the model voice data in the model voice data storage area 12a, and the singing voice of the practitioner is collected and graded.
Moreover, you may use for the performance practice of a musical instrument. In this case, voice data representing the performance sound of the performer as a model voice data is stored in the model voice data storage area as model voice data, and the performance sound of the practitioner is collected and scored.

(6)上述した実施形態においては、楽音データ全体とお手本音声データ全体とを混合した。これに代えて、楽音データとお手本音声データとの一部分を部分的に混合してもよい。例えば、楽音データとお手本音声データの指摘区間に対応するデータを混合して放音してもよい。
また、上述した実施形態においては、練習者が操作部14の採点キーを押下すると、制御部11が採点処理を行ってフィードバック処理を行うようにした。採点処理及びフィードバック処理を行うトリガは採点キーの押下に限らず、練習者の音声を収音し終えてから所定時間経過後(例えば、3秒後)に、採点処理及びフィードバック処理を行って、フィードバック音声を放音してもよい。
(6) In the embodiment described above, the entire musical sound data and the entire model voice data are mixed. Instead, a part of the musical sound data and the model voice data may be partially mixed. For example, the sound data and the data corresponding to the indicated section of the model voice data may be mixed and emitted.
Further, in the above-described embodiment, when the practitioner presses the scoring key of the operation unit 14, the control unit 11 performs the scoring process and performs the feedback process. The trigger for performing the scoring process and the feedback process is not limited to the pressing of the scoring key, and after a predetermined time has elapsed since the sound of the trainee has been collected (for example, after 3 seconds), the scoring process and the feedback process are performed, Feedback sound may be emitted.

(7)上述した実施形態では、音声評価装置1が、同実施形態に係る機能の全てを実現するようになっていた。これに対し、通信ネットワークで接続された2以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態の音声評価装置1を実現してもよい。例えば、マイクロフォンやスピーカを備える携帯電話端末と、加工機能を備える専用のコンピュータ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。 (7) In the above-described embodiment, the voice evaluation device 1 realizes all the functions according to the embodiment. On the other hand, two or more devices connected via a communication network may share the above functions, and a system including the plurality of devices may realize the voice evaluation device 1 of the same embodiment. For example, it may be configured as a system in which a mobile phone terminal including a microphone and a speaker and a dedicated computer device having a processing function are connected via a communication network.

(8)上述した実施形態における音声評価装置1の制御部11によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、RAM、ROMなどの記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由で音声評価装置1にダウンロードさせることも可能である。 (8) The program executed by the control unit 11 of the speech evaluation apparatus 1 in the above-described embodiment is recorded on a recording medium such as a magnetic tape, a magnetic disk, a flexible disk, an optical recording medium, a magneto-optical recording medium, a RAM, and a ROM. Can be provided in the state. It is also possible to download the voice evaluation apparatus 1 via a network such as the Internet.

音声評価装置1のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the audio | voice evaluation apparatus. 音声評価装置1のソフトウェア構成を示すブロック図である。3 is a block diagram showing a software configuration of the voice evaluation device 1. FIG. 楽音データの内容の一例を示す図である。It is a figure which shows an example of the content of musical tone data. 制御部11が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the control part 11 performs.

符号の説明Explanation of symbols

1…音声評価装置、11…制御部、12…記憶部、13…表示部、14…操作部、15…マイクロフォン、16…音声処理部、17…スピーカ、111…分析部、112…採点部、113…フィードバック内容制御部、114…楽音生成部、115…音声加工部、116…混合部。 DESCRIPTION OF SYMBOLS 1 ... Voice evaluation apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ... Display part, 14 ... Operation part, 15 ... Microphone, 16 ... Voice processing part, 17 ... Speaker, 111 ... Analysis part, 112 ... Scoring part, 113 ... Feedback content control unit, 114 ... Musical sound generation unit, 115 ... Audio processing unit, 116 ... Mixing unit.

Claims (8)

音声を表す第1の音声データを記憶する第1の音声データ記憶手段と、
収音した音声を表す第2の音声データを出力する収音手段と、
前記第1の音声データ記憶手段に記憶された前記第1の音声データの特徴と前記収音手段から出力される第2の音声データの特徴とを比較し、該比較結果に基づいて指摘区間を特定する指摘区間特定手段と、
前記第1の音声データにおいて、前記指摘区間特定手段により特定された指摘区間に対応する音声データの表す音声の態様と該指摘区間以外の区間に対応する音声データの表す音声の態様とが異なるように、該第1の音声データを加工する音声データ加工手段と、
前記音声データ加工手段により加工された第1の音声データの表す音声を、放音手段に放音させる放音制御手段と
を備えることを特徴とする音声評価装置。
First voice data storage means for storing first voice data representing voice;
Sound collection means for outputting second sound data representing the collected sound;
The feature of the first voice data stored in the first voice data storage means is compared with the feature of the second voice data output from the sound pickup means, and the indicated section is determined based on the comparison result. An indication section identification means to identify;
In the first voice data, the voice mode represented by the voice data corresponding to the pointed section specified by the pointed section specifying unit is different from the voice mode represented by the voice data corresponding to a section other than the pointed section. Voice data processing means for processing the first voice data;
A sound evaluation device comprising: sound emission control means for causing the sound emission means to emit the sound represented by the first sound data processed by the sound data processing means.
前記音声データ加工手段は、前記第1の音声データのうちの前記指摘区間特定手段により特定された指摘区間に対応する音声データを時間軸方向に伸長又は圧縮する
ことを特徴とする請求項1に記載の音声評価装置。
The voice data processing means expands or compresses the voice data corresponding to the indicated section specified by the indicated section specifying means in the first voice data in the time axis direction. The speech evaluation apparatus described.
前記音声データ加工手段は、前記第1の音声データのうちの前記指摘区間特定手段により特定された指摘区間に対応する音声データの表す音声のピッチが高くなるように、該第1の音声データを加工する
ことを特徴とする請求項1に記載の音声評価装置。
The voice data processing means processes the first voice data so that a pitch of voice represented by voice data corresponding to the indicated section specified by the indicated section specifying means of the first voice data is increased. The voice evaluation device according to claim 1, wherein the voice evaluation device is processed.
前記音声データ加工手段は、前記第1の音声データのうちの前記指摘区間特定手段により特定された指摘区間の直前及び直後の少なくともいずれか一方に、無音区間を挿入する
ことを特徴とする請求項1に記載の音声評価装置。
The voice data processing means inserts a silent section immediately before and immediately after the indicated section specified by the specified section specifying means in the first voice data. The speech evaluation apparatus according to 1.
音声を表す第1の音声データから、前記音声に含まれる各音素の発音開始タイミングを特定する発音開始タイミング特定手段と、
前記発音開始タイミング特定手段により特定された発音開始タイミング付近においてエンベロープが大となる楽音データを生成する楽音データ生成手段と、
前記楽音データ生成手段により生成された楽音データの表す音を、放音手段に放音させる放音制御手段と
を備えることを特徴とする音声評価装置。
Sound generation start timing specifying means for specifying the sound generation start timing of each phoneme included in the sound from the first sound data representing the sound;
Musical sound data generating means for generating musical sound data having a large envelope in the vicinity of the sound generation start timing specified by the sound generation start timing specifying means;
A sound evaluation device comprising: sound emission control means for causing the sound emission means to emit a sound represented by the musical sound data generated by the musical sound data generation means.
音声を表す第1の音声データから、該第1の音声データの表す音声のピッチを検出するピッチ検出手段と、
前記第1の音声データから、該音声データの表す音声の音量を検出する音量検出手段と、
前記ピッチ検出手段により検出されたピッチと前記音量検出手段により検出された音量とに基づいて、前記音声に含まれる音素毎に、該音素の発音開始タイミング及び発音終了タイミングを示す音素データを生成する音素データ生成手段と、
前記ピッチ検出手段により検出されたピッチと前記音素データ生成手段により生成された音素データの示す発音開始タイミング及び発音終了タイミングとに基づいて楽音データを生成する楽音データ生成手段と、
前記楽音データ生成手段により生成された楽音データの表す音を、放音手段に放音させる放音制御手段と
を備えることを特徴とする音声評価装置。
Pitch detection means for detecting the pitch of the voice represented by the first voice data from the first voice data representing the voice;
Volume detection means for detecting the volume of the sound represented by the sound data from the first sound data;
Based on the pitch detected by the pitch detection means and the volume detected by the volume detection means, phoneme data indicating the sound generation start timing and the sound generation end timing is generated for each phoneme included in the speech. Phoneme data generation means;
Musical sound data generating means for generating musical sound data based on the pitch detected by the pitch detecting means and the sounding start timing and the sounding end timing indicated by the phoneme data generated by the phoneme data generating means;
A sound evaluation device comprising: sound emission control means for causing the sound emission means to emit a sound represented by the musical sound data generated by the musical sound data generation means.
前記放音制御手段は、前記第1の音声データの表す音声と前記楽音データの表す音とを、両者の時間軸が一致するように前記放音手段に放音させる
ことを特徴とする請求項5又は6に記載の音声評価装置。
The sound emission control means causes the sound emission means to emit a sound represented by the first sound data and a sound represented by the musical sound data so that their time axes coincide with each other. The voice evaluation device according to 5 or 6.
前記第1の音声データを記憶する第1の音声データ記憶手段と、
収音し、収音した音声を表す第2の音声データを出力する収音手段と、
前記第1の音声データの特徴と前記収音手段から出力される第2の音声データの特徴とを比較し、該比較結果に基づいて指摘区間を特定する指摘区間特定手段と、
前記楽音データにおいて前記指摘区間特定手段により特定された指摘区間に対応するデータを時間軸方向に伸長又は圧縮するタイムストレッチ手段と
を備え、
前記放音制御手段は、前記タイムストレッチ手段により伸長又は圧縮された楽曲データの表す音を、前記放音手段に放音させる
ことを特徴とする請求項5又は6に記載の音声評価装置。
First voice data storage means for storing the first voice data;
Sound collection means for collecting and outputting second sound data representing the collected sound;
Comparing the feature of the first voice data with the feature of the second voice data output from the sound pickup means, and specifying the indicated section based on the comparison result;
Time stretching means for expanding or compressing data corresponding to the indicated section specified by the indicated section specifying means in the musical sound data in the time axis direction,
The sound evaluation apparatus according to claim 5 or 6, wherein the sound emission control unit causes the sound emission unit to emit a sound represented by the music data expanded or compressed by the time stretch unit.
JP2006217300A 2006-08-09 2006-08-09 Voice evaluation device Expired - Fee Related JP5092311B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006217300A JP5092311B2 (en) 2006-08-09 2006-08-09 Voice evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006217300A JP5092311B2 (en) 2006-08-09 2006-08-09 Voice evaluation device

Publications (2)

Publication Number Publication Date
JP2008040344A true JP2008040344A (en) 2008-02-21
JP5092311B2 JP5092311B2 (en) 2012-12-05

Family

ID=39175385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006217300A Expired - Fee Related JP5092311B2 (en) 2006-08-09 2006-08-09 Voice evaluation device

Country Status (1)

Country Link
JP (1) JP5092311B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262090A (en) * 2009-05-01 2010-11-18 Nintendo Co Ltd Learning support program and learning support device
CN114515138A (en) * 2022-01-06 2022-05-20 福州市星康朗语教育科技有限公司 Language disorder assessment and correction system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736458A (en) * 1993-07-24 1995-02-07 Yamaha Corp Attack effect device
JPH0822238A (en) * 1994-07-08 1996-01-23 Mitsubishi Jimu Kikai Hanbai Kk Language training system effectively utilizing quadruple time characteristic of english
JPH10116020A (en) * 1996-10-14 1998-05-06 Kenzo Nakada Method for learning foreign language by voice and teaching material for learning foreign language by voice used for the method
JPH11143346A (en) * 1997-11-05 1999-05-28 Seiko Epson Corp Method and device for evaluating language practicing speech and storage medium storing speech evaluation processing program
JP2001042758A (en) * 1999-08-04 2001-02-16 Kenzo Nakada Voice of foreign language learning method and voice of foreign language learning materials to be used for the method
JP2006139162A (en) * 2004-11-15 2006-06-01 Yamaha Corp Language learning system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736458A (en) * 1993-07-24 1995-02-07 Yamaha Corp Attack effect device
JPH0822238A (en) * 1994-07-08 1996-01-23 Mitsubishi Jimu Kikai Hanbai Kk Language training system effectively utilizing quadruple time characteristic of english
JPH10116020A (en) * 1996-10-14 1998-05-06 Kenzo Nakada Method for learning foreign language by voice and teaching material for learning foreign language by voice used for the method
JPH11143346A (en) * 1997-11-05 1999-05-28 Seiko Epson Corp Method and device for evaluating language practicing speech and storage medium storing speech evaluation processing program
JP2001042758A (en) * 1999-08-04 2001-02-16 Kenzo Nakada Voice of foreign language learning method and voice of foreign language learning materials to be used for the method
JP2006139162A (en) * 2004-11-15 2006-06-01 Yamaha Corp Language learning system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262090A (en) * 2009-05-01 2010-11-18 Nintendo Co Ltd Learning support program and learning support device
CN114515138A (en) * 2022-01-06 2022-05-20 福州市星康朗语教育科技有限公司 Language disorder assessment and correction system

Also Published As

Publication number Publication date
JP5092311B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
KR100949872B1 (en) Song practice support device, control method for a song practice support device and computer readable medium storing a program for causing a computer to excute a control method for controlling a song practice support device
JP2008026622A (en) Evaluation apparatus
JP2007256617A (en) Musical piece practice device and musical piece practice system
JP2008139426A (en) Data structure of data for evaluation, karaoke machine, and recording medium
JP2007232750A (en) Karaoke device, control method and program
JP2007310204A (en) Musical piece practice support device, control method, and program
JP5598516B2 (en) Voice synthesis system for karaoke and parameter extraction device
JP2007233077A (en) Evaluation device, control method, and program
JP2007322934A (en) Singing practice device, karaoke device, and program
JP5346114B1 (en) Educational device and method for music expression and music performance evaluation device
JP5092311B2 (en) Voice evaluation device
JP2009169103A (en) Practice support device
JP3588596B2 (en) Karaoke device with singing special training function
JP2006251697A (en) Karaoke device
JP4862413B2 (en) Karaoke equipment
JP2008040260A (en) Musical piece practice assisting device, dynamic time warping module, and program
JP6252420B2 (en) Speech synthesis apparatus and speech synthesis system
JP2003015672A (en) Karaoke device having range of voice notifying function
JP2007322933A (en) Guidance device, production device for data for guidance, and program
JP4501874B2 (en) Music practice device
JP2022065554A (en) Method for synthesizing voice and program
JP2007225916A (en) Authoring apparatus, authoring method and program
JP4553013B2 (en) Karaoke equipment
JP4369118B2 (en) Karaoke equipment
JP2007233078A (en) Evaluation device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees