JPS617868A - Enunciation training apparatus - Google Patents

Enunciation training apparatus

Info

Publication number
JPS617868A
JPS617868A JP59128612A JP12861284A JPS617868A JP S617868 A JPS617868 A JP S617868A JP 59128612 A JP59128612 A JP 59128612A JP 12861284 A JP12861284 A JP 12861284A JP S617868 A JPS617868 A JP S617868A
Authority
JP
Japan
Prior art keywords
vocal
pattern
voice
vocalization
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59128612A
Other languages
Japanese (ja)
Inventor
裕二 木島
奈良 泰弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP59128612A priority Critical patent/JPS617868A/en
Publication of JPS617868A publication Critical patent/JPS617868A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は4発声訓練者の発声の安定性を判定評価し1表
示する発声訓練装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a vocal training device that determines and evaluates the stability of the vocalizations of four vocal trainees and displays the results in one form.

語学訓練用、アクセントの矯正用等に使用されている発
声訓練装置は一般に磁気テープ等に記録された手本とな
る音声データを再往し、その音声データを開いて発声訓
練者が発声することにより訓練する方法が実施されてい
る。
Vocal training devices used for language training, accent correction, etc. generally replay sample audio data recorded on magnetic tape, etc., and the vocal trainer opens the audio data and speaks. A method of training has been implemented.

これらの訓練方法を一歩前進させたものとしては2発声
訓練者の発声パターンと手本の発声パターンとを比較表
示し1手本の発声パターンと良く似た発声パターンとな
るように発声法を変化させ訓練する方法がある。
A step forward in these training methods is to compare and display the vocal patterns of the 2nd vocal trainee and the vocal pattern of the model, and then change the vocalization method so that it becomes a vocal pattern that is very similar to the vocal pattern of the 1st model. There is a way to train them.

いずれの場合も、その訓練効果の評価・判断は発声訓練
者自身が行うものであるため9発声訓練者自身の判断が
甘かったり1間違っていれば正しい発声の仕方がなされ
ない状態で訓練されてしまう。そこで2発声の仕方が正
しくしかも安定したものかどうかの客観的な判断機能を
有し、効率的に発声訓練が可能な発声訓練装置の実用化
が要望されていた。
In either case, the evaluation and judgment of the effectiveness of the training is made by the vocal trainee himself, so if the vocal trainee's own judgment is poor or incorrect, the training may be performed without the correct vocalization. Put it away. Therefore, it has been desired to put into practical use a vocal training device that can objectively determine whether the vocalization method is correct and stable, and can perform vocal training efficiently.

〔従来の技術〕[Conventional technology]

従来技術として2発声訓練者の発声パターンと手本の発
声パターンとを比較表示する機能を有する発声訓練装置
を例に取り説明する。
As a conventional technique, a vocal training device having a function of comparing and displaying the vocal pattern of two vocal trainees and the vocal pattern of a model will be explained as an example.

第2図は表示機能を存する従来の発声訓練装置を示す。FIG. 2 shows a conventional vocal training device having a display function.

尚図中において、aば発声単元を区分するラベル、bは
発声単元のピンチパターン、Cは発声単元の音声データ
、dは手本の音声パターン。
In the figure, a is a label for classifying a vocal unit, b is a pinch pattern of a vocal unit, C is voice data of a vocal unit, and d is a model voice pattern.

eは訓練者の音声パターンをそれぞれ示す。e indicates each trainee's voice pattern.

又第2図は。Also, Figure 2.

訓練用発声単元の指定やパターンの変更等を行うキーボ
ード1゜ 発声訓練者の発声音を入力するマイクロホン2゜音声を
再生する音声再生器3゜ 装置全体の動作を制御する制御部4゜ 音声データの特徴(ピンチパターン)を抽出する特徴抽
出部5゜ 手本となる音声パターンを記憶している音声パターン記
憶部6゜ 手本音声パターンと発声訓練者の音声パターンとを比較
表示する表示装置7゜ から構成されている。
1. Keyboard for specifying training vocal units, changing patterns, etc. 2. Microphone for inputting voice trainee's vocalizations 2. Audio player for reproducing audio 3. Control unit for controlling the operation of the entire device 4. Audio data A feature extraction unit 5 for extracting features (pinch patterns); a voice pattern storage unit 6 for storing a model voice pattern; a display device 7 for comparing and displaying the model voice pattern and the voice pattern of the voice trainer. It is composed of ゜.

本説明で取り扱う音響情報としてはピッチパターンとし
、音声パターン記憶部6には手本となるあらゆる発声音
の音声データC及びそれらのピッチパターンbが格納さ
れている。又表示装置7の表示部分は手本音声パターン
表示部分dと発声訓練者の音声パターン表示部分eとに
分かれているものとする。
The acoustic information handled in this explanation is a pitch pattern, and the audio pattern storage unit 6 stores audio data C of all kinds of model vocalizations and their pitch patterns b. It is also assumed that the display section of the display device 7 is divided into a model voice pattern display section d and a voice training person's voice pattern display section e.

この発声訓練装置を使用して標準発声の訓練をする場合
、キーボード1の指定で発声を訓練する言葉(本例では
「東京」)の音声パターン(ピンチパターンb)を音声
パターン記憶部6から取り出し1表示装置7の手本音声
パターン表示部分dに表示する。
When practicing standard pronunciation using this voice training device, the voice pattern (pinch pattern b) of the word to be trained to voice (in this example, "Tokyo") is retrieved from the voice pattern storage unit 6 by specifying on the keyboard 1. 1 is displayed on the model voice pattern display section d of the display device 7.

次に発声訓練者が手本の発声をまねて同じ°く「東京」
と発声すると5この音声が分析され発声訓練者の音声の
ピッチパターンが発声訓練者の音声パターン表示部分e
に並列表示される。発声訓練者は両ピッチパターンを見
比べて違いを観察し。
Next, the vocal trainer imitates the model vocalization and repeats "Tokyo" in the same way.
5 This voice is analyzed and the pitch pattern of the voice trainee's voice is displayed in the voice pattern display section e of the voice trainee.
are displayed in parallel. Vocal trainers compare both pitch patterns and observe the differences.

違う部分があると判断すると改めて「東京」と発声し、
新しいピッチパターンと見比べる。
When he decides that there is a difference, he says ``Tokyo'' again, and
Compare it with the new pitch pattern.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上述のように、従来は毎回の発声を分析したピッチパタ
ーンを表示するのみであるため、良く僚たピッチパター
ンが現れた後、その発声法が本当に習得されたかどうか
については、繰り返し発声してみて発声訓練者自身が納
得した時点で自主的に判断していた。
As mentioned above, conventional methods only display the pitch pattern that is analyzed each time you speak, so once a well-crafted pitch pattern appears, you can check whether you have really mastered the vocalization method by trying it out repeatedly. The voice trainees made their own decisions when they were satisfied.

しかし、上述のように客観的な判断でないため7手本発
声にもとすく標準発声を本当に安定して発声出来るよう
になったかどうか判明しないと言う問題点があった。
However, as mentioned above, since it is not an objective judgment, there is a problem in that it is not clear whether or not the student has really become able to produce standard pronunciations stably after using the seven model pronunciations.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、上記問題点を解消した新規な発声訓練装置を
実現することを目的としたものであり。
The present invention aims to realize a new vocal training device that solves the above-mentioned problems.

該問題点は1発声訓練者の複数回の発声パターンを記憶
する記憶手段と、前記記憶手段に記憶されている発声パ
ターンを統計処理する統計処理手段と、前記統計処理手
段による統計値をもとにして該発声訓練者の発声の安定
性を判定評価する判定手段とを設けてなる本発明による
発声訓練装置により解決される。
The problem is that there is a storage means for storing a plurality of vocalization patterns of one voice trainee, a statistical processing means for statistically processing the vocalization patterns stored in the storage means, and a method based on statistical values by the statistical processing means. The problem is solved by the voice training device according to the present invention, which is provided with a determining means for determining and evaluating the stability of the voice of the voice trainee.

〔作用〕[Effect]

即ち2発声訓練の成果を客観的に判定するためのある闇
値を設定して置き1発声訓練者の複数回の発声ピンチパ
ターンを発声訓練者の最新の発声ピッチパターンと比較
して相違(距離)を求め。
In other words, a certain dark value is set to objectively judge the results of vocal training, and the difference (distance) is determined by comparing the multiple vocal pinch patterns of one vocal trainee with the latest vocal pitch pattern of the vocal trainee. ).

これらの距離の分散を求める。Find the variance of these distances.

この分散値が設定されている閾値を下回った時。When this variance value falls below the set threshold.

始めて安定した成果があったものと判定表示する。It is judged and displayed that stable results have been achieved for the first time.

〔実施例〕〔Example〕

以下本発明の要旨を第1図に示す実施例により具体的に
説明する。
The gist of the present invention will be specifically explained below with reference to an embodiment shown in FIG.

第1図は本発明に係る発声訓練装置の一実施例を示すブ
ロックダイヤグラムを示す。尚図中において、fは闇値
表示部分3gは分散値表示部分。
FIG. 1 shows a block diagram showing one embodiment of a vocal training device according to the present invention. In the figure, f is the dark value display portion and 3g is the dispersion value display portion.

hは判定結果表示部分をそれぞれ示す。h indicates a determination result display portion, respectively.

尚全図を通じて同一記号は同一対象物又は内容を示す。The same symbols indicate the same objects or contents throughout the figures.

本実施例は第2図で説明した従来の構成部分と。This embodiment uses the conventional components explained in FIG.

発声が安定であると判定出来る分散値の限界を規定して
いる闇値記憶部8゜ 分散値が闇値以内にあるかどうかの判定を行う判足部9
゜ 音声データのピッチパターン間の距離を計算する距離計
算部10゜ 距離計算部10で計算した複数の旧算値の分散状態を計
算する分散計算部11゜ 発声訓練者の複数回の音声データのピッチパターンを格
納するピッチパターンバノフア12゜とから構成されて
いる。
A dark value storage section 8 defines the limit of the variance value that can be used to determine that the vocalization is stable.A reading section 9 determines whether the variance value is within the dark value.
゜Distance calculation section 10゜Calculates the distance between pitch patterns of voice data ゜Dispersion calculation section 11゜Calculates the dispersion state of a plurality of old calculation values calculated by the distance calculation section 10゜Dispersion calculation section 11゜Distribution calculation section 11゜Calculates the dispersion state of a plurality of old calculation values calculated by the distance calculation section 10゜Distribution calculation section 11゜Distribution calculation section 11゜Calculates the dispersion state of a plurality of old calculation values calculated by the distance calculation section 10 It consists of a pitch pattern vanofa 12° for storing pitch patterns.

尚本実施例での表示装置7は手本音声データのピンチパ
ターン、発声訓練者の音声データのピ。
In this embodiment, the display device 7 displays a pinch pattern of the model voice data and a picture of the voice data of the vocal trainee.

チパターン、闇値1分散度9判定結果等を表示するもの
とする。又本実施例では「東京」の発声を訓練するもの
とする。
The distribution pattern, dark value 1 dispersion degree 9 judgment results, etc. shall be displayed. Also, in this embodiment, it is assumed that the user is trained to pronounce "Tokyo".

キーボード1の指定人力により、「東京」の手本音声デ
ータCによるピ・ノチパターンbが表示部W7に表示さ
れ、同時に手本音声データCが音声再生部3から出力さ
れる。発声訓練者が手本音声データCの発声をまねて「
東京」と発声すると。
By the specified manual input on the keyboard 1, the pi-nochi pattern b based on the model voice data C of "Tokyo" is displayed on the display section W7, and at the same time, the model voice data C is outputted from the voice reproduction section 3. The vocal trainer imitates the vocalization of model voice data C and says,
When you say "Tokyo".

その音声データが特徴抽出部5で分析され2分析結果が
手本音声データCのピッチパターンbと並べて表示され
る。
The voice data is analyzed by the feature extraction section 5, and the two analysis results are displayed side by side with the pitch pattern b of the model voice data C.

発声訓練者は両パターンを見比べて、その相違を観察し
、改めて「東京」と発声すると表示装置7上の発声訓練
者のパターンは、新しい発声データを分析したパターン
に置き換わる。
The voice trainer compares both patterns, observes the difference, and utters "Tokyo" again, and the voice trainer's pattern on the display device 7 is replaced with a pattern obtained by analyzing the new voice data.

発声訓練者は「東京」の発声を繰り返し行い。The voice trainer repeatedly uttered ``Tokyo.''

自分のパターンが手本音声データのパターンに似てくる
ように発声法を工夫し1手本音声データCのパターンb
に似ていると判断した時点で、その時の発声法を確認す
るために何度か繰り返し発声する。
I devised my vocalization method so that my own pattern resembled the pattern of the model audio data, and then used pattern b of the model audio data C.
Once you have determined that it is similar to , repeat it several times to confirm the way you pronounce it at that time.

ピッチパターンバノフア12は、上記の状態で繰り返し
発声した最新のパターンと、それ以前の数回分のピッチ
パターンを記憶しているため、ピッチパターンハンフア
12の記憶しているデータから最新のパターンと、それ
以前の数回分のパターンとの距離をそれぞれ距離計算部
10で求め、これらの距離の分散を分散計算部11で求
める。
Since the pitch pattern bannohua 12 stores the latest pattern repeatedly uttered in the above state and the pitch patterns of several times before that, the latest pattern can be retrieved from the data stored in the pitch pattern bannohua 12. The distance calculation unit 10 calculates the distance between the pattern and the previous several patterns, and the variance calculation unit 11 calculates the variance of these distances.

この分散値が闇値記憶部8に予め設定記憶しである闇値
を下回った時、安定な発声が行われるようになったと判
定部9が判定する。この判定は新しい発声が行われる毎
に行い、又閾値1分散値。
When this variance value falls below a dark value that is preset and stored in the dark value storage unit 8, the determining unit 9 determines that stable vocalization has started. This determination is made every time a new utterance is made, and the threshold is 1 variance.

判定結果は表示装置7上のf、g、h部分にそれぞれ表
示され、新しい発声が行われるごとに更新される。
The determination results are displayed in sections f, g, and h on the display device 7, and are updated each time a new utterance is made.

発声訓練者が発声法を模索中は1回ごとに発声パターン
が大きく変わるので分散値が大きくなり。
When a vocal trainer is searching for a vocal method, the vocal pattern changes greatly each time, so the variance value becomes large.

不安定と判定されるが1発声法を見つけて繰り返し練習
を始めると1分散値が小さくなりやがて安定と判定され
るようになり、安定と判定が表示されれば「東京」の発
声法が習得されたとして5次の音声の訓練に移る。
It is judged to be unstable, but if you find a vocalization method and start practicing repeatedly, the 1 variance value will become smaller and eventually it will be judged as stable. If stable is displayed, you will have mastered the vocalization method for "Tokyo". Let's move on to the 5th order voice training.

尚閾値は発声訓練者の希望により、変更することが可能
である。
Note that the threshold value can be changed according to the wishes of the voice trainer.

次に他の実施例について説明する。Next, other embodiments will be described.

第3図は本発明に係る発声訓練装置の他の実施例を示す
。尚図中において、e′は訓練者の発声で正しいと指導
者から判定された時の音声パターン、r′は平均闇値表
示部分、f″は分散闇値表示部分、jは平均値表示部分
をそれぞれ示す。
FIG. 3 shows another embodiment of the vocal training device according to the present invention. In the figure, e' is the voice pattern of the trainer's utterance that is judged to be correct by the instructor, r' is the average darkness value display part, f'' is the distributed darkness value display part, and j is the average value display part. are shown respectively.

第1図番こ示ず実施例は発声訓練者がはじめから独習に
て訓練することを想定したものであるが。
The embodiment shown in Figure 1, whose number is not shown, is intended for use by a vocal trainer who is self-studying from the beginning.

本実施例は指導者が一旦発声訓練者の発声を判定した後
1発声訓練者が自習すると言う場合を想定したものであ
る。
This embodiment is based on the assumption that the instructor once judges the utterances of the voice trainee and then the voice trainee studies on his or her own.

本実施例は第1図の構成部分のうち。This embodiment is of the constituent parts shown in FIG.

分散計算部12が距離計算部10が計算した値の平均値
と分散値を計算する平均・分散計算部13゜闇値記憶部
8が平均値の闇値と分散値の闇値とを記憶している平均
・分散闇値記憶部14゜に変更されたのみで、他の部分
は同一構成となっζいる。
A variance calculation unit 12 calculates the average value and variance value of the values calculated by the distance calculation unit 10.An average/variance calculation unit 13°.A dark value storage unit 8 stores the dark value of the average value and the dark value of the variance value. The only difference is that the average/dispersion value storage section 14° has been changed, and the other parts have the same configuration.

尚音声パターン記憶部6に記憶されている内容も手本音
声データパターンから、指導者が正しいと判定した発声
訓練者の音声データパターンが記   憶されている。
The contents stored in the voice pattern storage section 6 also include the voice data patterns of the voice trainee who are determined to be correct by the instructor from the model voice data patterns.

又表示装置7での表示内容も第1図の実施例の表示であ
る闇値9分散値に加えて。
Also, the display contents on the display device 7 are in addition to the darkness value 9 dispersion value that is displayed in the embodiment of FIG.

平均値の闇値1分散値の闇値、平均値2分散値をf’、
f″、  j部分にそれぞれ表示するようにした。
The dark value of the average value, the dark value of 1 variance value, the average value 2 variance value, f',
It is now displayed in the f″ and j parts respectively.

本実施例は指導老に正しいと判定された音声データパタ
ーンと1発声訓練者が自習により発声した数回の発声パ
ターンとの距離計算を行い、その平均値と分散値を求め
、それぞれの闇値と比較して闇値より下回る時、正しい
と判定された音声データパターンが安定して発声出来る
ようになったと判定する。
This example calculates the distance between the voice data pattern determined to be correct by the instructor and the vocalization patterns uttered several times by one voice trainee during self-study, calculates the average value and variance value, and calculates the darkness value of each. When the value is lower than the darkness value, it is determined that the voice data pattern determined to be correct can now be uttered stably.

〔発明の効果〕〔Effect of the invention〕

以上のような本発明によれば2発声訓練者の発声訓練効
果を発声の安定性を尺度として1客観的に評価すること
により高い訓練効果が得られると言う効果がある。
According to the present invention as described above, a high training effect can be obtained by objectively evaluating the vocal training effect of a vocal trainee using the stability of vocalization as a measure.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る発声訓練装置の一実施例を示すブ
ロックダイヤグラム。 第2図は表示機能を有する従来の発声訓練装置。 第3図は本発明に係る発声訓練装置の他の実施例をそれ
ぞれ示す。 図において。 1はキーボード、    2はマイクロホン。 3は音声再生部、    4は制御部。 5は特徴抽出部、    6は音声パターン記憶部7は
表示装置、     8は闇値記憶部。 9ば判定部、10は距離計算部。 11は分散計算部。 】2はピッチパターンバッファ部。 13は平均・分散計算部1 14は平均・分散闇値記憶部。 をそれぞれ示す。 奉l酊 艶2図
FIG. 1 is a block diagram showing an embodiment of a vocal training device according to the present invention. FIG. 2 shows a conventional vocal training device with a display function. FIG. 3 shows other embodiments of the vocal training device according to the present invention. In fig. 1 is the keyboard, 2 is the microphone. 3 is an audio playback section, and 4 is a control section. 5 is a feature extraction section; 6 is a voice pattern storage section; 7 is a display device; and 8 is a dark value storage section. 9 is a determination section, and 10 is a distance calculation section. 11 is a distributed calculation section. ]2 is a pitch pattern buffer section. 13 is an average/variance calculation unit 1; 14 is an average/variance value storage unit; are shown respectively. Blessed with drunkenness 2

Claims (1)

【特許請求の範囲】[Claims] 発声された音声データを分析し、音響情報を抽出して発
声パターンを作成する機能と、前記機能により抽出作成
された前記発声パターンを表示する機能とを備えてなる
装置において、発声訓練者の複数回の発声パターンを記
憶する記憶手段と、前記記憶手段に記憶されている発声
パターンを統計処理する統計処理手段と、前記統計処理
手段による統計値をもとにして該発声訓練者の発声の安
定性を判定評価する判定手段とを設けたことを特徴とす
る発声訓練装置。
In an apparatus comprising a function of analyzing uttered voice data, extracting acoustic information and creating a vocalization pattern, and a function of displaying the vocalization pattern extracted and created by the function, a plurality of voice trainers storage means for storing the vocalization patterns of the vocal trainee; statistical processing means for statistically processing the vocalization patterns stored in the storage means; and stabilization of the vocalization of the vocal trainee based on the statistical values by the statistical processing means. 1. A vocal training device comprising a determination means for determining and evaluating gender.
JP59128612A 1984-06-22 1984-06-22 Enunciation training apparatus Pending JPS617868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59128612A JPS617868A (en) 1984-06-22 1984-06-22 Enunciation training apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59128612A JPS617868A (en) 1984-06-22 1984-06-22 Enunciation training apparatus

Publications (1)

Publication Number Publication Date
JPS617868A true JPS617868A (en) 1986-01-14

Family

ID=14989090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59128612A Pending JPS617868A (en) 1984-06-22 1984-06-22 Enunciation training apparatus

Country Status (1)

Country Link
JP (1) JPS617868A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133090A (en) * 2005-11-09 2007-05-31 Yamaha Corp Voice feature amount calculation apparatus
US8192886B2 (en) 2008-03-06 2012-06-05 Honda Motor Co., Ltd. Fuel cell stack with power collecting terminals
US8268505B2 (en) 2007-01-25 2012-09-18 Honda Motor Co., Ltd. Fuel cell system
JP2012234201A (en) * 2012-08-02 2012-11-29 Yamaha Corp Voice feature amount calculation device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133090A (en) * 2005-11-09 2007-05-31 Yamaha Corp Voice feature amount calculation apparatus
US8268505B2 (en) 2007-01-25 2012-09-18 Honda Motor Co., Ltd. Fuel cell system
US8192886B2 (en) 2008-03-06 2012-06-05 Honda Motor Co., Ltd. Fuel cell stack with power collecting terminals
JP2012234201A (en) * 2012-08-02 2012-11-29 Yamaha Corp Voice feature amount calculation device

Similar Documents

Publication Publication Date Title
Bernstein et al. Automatic evaluation and training in English pronunciation.
USRE37684E1 (en) Computerized system for teaching speech
US20080027731A1 (en) Comprehensive Spoken Language Learning System
EP1205898A2 (en) Technique for mentoring pre-readers and early readers
US20040166480A1 (en) Language learning system and method with a visualized pronunciation suggestion
US20060057545A1 (en) Pronunciation training method and apparatus
JP2002503353A (en) Reading aloud and pronunciation guidance device
JP2001159865A (en) Method and device for leading interactive language learning
WO2006136061A1 (en) Measurement and presentation of spoken language fluency
KR101992372B1 (en) Learning system and method using sentence input and voice input of the learner
US4460342A (en) Aid for speech therapy and a method of making same
US20040176960A1 (en) Comprehensive spoken language learning system
KR101822026B1 (en) Language Study System Based on Character Avatar
Rachmawati et al. Male and female students’ perception on the use of popular song to improve students’ vocabulary mastery
JPS617868A (en) Enunciation training apparatus
WO1999013446A1 (en) Interactive system for teaching speech pronunciation and reading
CN114944089A (en) Remote education training system and method based on user behavior analysis
JP6155102B2 (en) Learning support device
JPH10268753A (en) Computer-readable recording medium recording chinese learning program, and chinese learning device
KR101105888B1 (en) English Training Approach to Repeat Ehglish Sentence Pronunciation that has the Same Phonetic Patterns
CN111508523A (en) Voice training prompting method and system
TWI281649B (en) System and method of dictation learning for correcting pronunciation
JP2000347560A (en) Pronunciation marking device
JPS6148885A (en) Vocalization training apparatus
JPH02302787A (en) Automatic conversation practice device