JPS60163078A - Speech training apparatus - Google Patents

Speech training apparatus

Info

Publication number
JPS60163078A
JPS60163078A JP59017171A JP1717184A JPS60163078A JP S60163078 A JPS60163078 A JP S60163078A JP 59017171 A JP59017171 A JP 59017171A JP 1717184 A JP1717184 A JP 1717184A JP S60163078 A JPS60163078 A JP S60163078A
Authority
JP
Japan
Prior art keywords
training
training model
utterance
speech
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59017171A
Other languages
Japanese (ja)
Other versions
JPH0133831B2 (en
Inventor
広沢 和豊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP59017171A priority Critical patent/JPS60163078A/en
Publication of JPS60163078A publication Critical patent/JPS60163078A/en
Publication of JPH0133831B2 publication Critical patent/JPH0133831B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は発話に伴う音声の特徴信号を抽出し、2 ゝ− 表示装置に上記特徴信号とその訓練モデルを対比表示し
て発話訓練を行う発話訓練装置に関するものである。
[Detailed Description of the Invention] Industrial Application Field The present invention is a speech training method in which speech training is performed by extracting feature signals of speech accompanying speech, and comparing and displaying the feature signals and its training model on a display device. It is related to the device.

従来例の構成とその問題点 近年、発話に対する発声器官の特徴抽出技術の向上、視
覚表示技術の向−トにより、実時間で特徴抽出ならびに
視覚表示を行って発話訓練を行う発話訓練装置が種々考
案されている。
Configuration of conventional examples and their problems In recent years, due to improvements in technology for extracting features of the vocal organs for speech and advances in visual display technology, there are various speech training devices that perform speech training by extracting features and visually displaying them in real time. It has been devised.

従来このような発話訓練装置においては、あらかじめ作
成された訓練すべき一つの全話語の訓練モデルを一つの
発話語毎に順次表示装置の画面の一区画にロードして表
示しておき、抽出した発話者の特徴抽出データを前記モ
デルの同一時間軸に対比表示して訓練を行っていた。前
記発話訓練モデルは発話語毎に設けられたものであり、
建学者の発話の基本的なものとされるモデルであり、例
えば、言語訓練士などによって作成されるものである。
Conventionally, in such speech training devices, a training model for all spoken words to be trained, created in advance, is loaded and displayed in a section of the screen of the display device in sequence for each spoken word. Training was performed by comparing and displaying the speaker's feature extraction data on the same time axis of the model. The utterance training model is provided for each utterance word,
This is a model that is considered to be the basic utterance of a founder, and is created by, for example, a language trainer.

発話訓練においては人の発声のあい捷いさから、モデル
と発話者の特徴抽出データとが全く同一で3 べ− なくとも、ある程度の近似化が為されれば、発話明瞭度
や了解度があがる。
In speech training, due to the sharpness of human speech, even if the model and the speaker's feature extraction data are exactly the same, if a certain degree of approximation is achieved, speech intelligibility and intelligibility will improve. .

上記のような従来の発話訓練装置においては、一つの発
話語に一つの固定したデータの訓練モデルを設けている
が、訓練の初期段階では、複雑な訓練モデルのどの部位
に着目して訓練すべきか、あるいは最終的にどの程度の
近似化を行えば良いのかが判別しにくいという問題点を
有している。
In conventional speech training devices such as those mentioned above, one fixed data training model is provided for each spoken word, but in the initial stage of training, it is difficult to focus on which part of the complex training model to train. The problem is that it is difficult to determine whether the approximation is accurate or how much approximation should be performed in the end.

発明の目的 本発明は上記従来の問題点を解消するもので、一つの発
話語に対して複数の訓練モデルを生成するモデル生成手
段を設けて、発話者の障害レベルや発話訓練の進展度に
応じて上記訓練モデルを可変とl〜、発話者自身でも容
易に訓練を進め得る発話訓練装置を提供することを目的
とする。
OBJECT OF THE INVENTION The present invention solves the above-mentioned conventional problems by providing model generation means that generates a plurality of training models for one spoken word, and by providing model generation means that generates a plurality of training models for one spoken word. It is an object of the present invention to provide a speech training device in which the training model can be varied according to the needs of the speaker and the speaker himself/herself can easily proceed with the training.

発明の構成 本発明は、発話者の発話特徴データと訓練モデルとの一
致度判定信号に」:す、発話の基本訓練モデルに対して
難易度の低い訓練モデルから難易度の高い訓練モデルを
順次生成する訓練モデル生成部と、発話者の発話特徴を
抽出する発話特徴抽出部と、前記訓練モデル生成部より
生成された訓練モデルと前記発話特徴抽出部で抽出され
た発話特徴データとを比較する比較部と、前記比較部の
比較データを入力とし、−発話の所定時間内の一致度判
定を行い、その一致度判定結果を前記訓練モデル生成部
に送出する一致度判定部とを備えた発話訓練装置であり
、発話者の訓練の進展度に応じて訓練モデルを可変にす
ることにより、発話者自身でも容易に訓練を進めること
ができるものである。
Structure of the Invention The present invention provides a signal for determining the degree of agreement between the utterance feature data of a speaker and a training model. A training model generation unit that generates a training model, an utterance feature extraction unit that extracts utterance features of a speaker, and a comparison between the training model generated by the training model generation unit and the utterance feature data extracted by the utterance feature extraction unit. an utterance comprising: a comparing section; and a matching degree determining section that receives the comparison data of the comparing section as input, - determines the degree of matching within a predetermined time of the utterance, and sends the matching degree determination result to the training model generating section. It is a training device, and by changing the training model according to the progress of the speaker's training, the speaker can easily proceed with the training himself/herself.

実施例の説明 第1図は本発明の実施例における発話訓練装置の構成を
示すブロック図である。第1図において、1は発話の基
本訓練モデルに対してφIt易度の低い訓練モデルから
難易度の高い訓練モデルを順次生成する訓練モデル生成
部、2は発話者の発話特徴を抽出する発話特徴抽出部で
あって、ここでは省略しているが、発話者の各部の発声
器官に装着された例えば、喉頭振動センサや鼻振動セン
サ等の6 <− 検出信号より喉頭振動や鼻振動等の発話特徴の抽出を行
うものである。3は訓練モデル生成部1より生成された
訓練モデルと発話特徴抽出部2の特徴抽出データとの比
較を行う比較部、4は例えば、−発話語相尚の所定時間
(例えば、2.5秒や6秒)内の比較部3の比較結果か
ら一発話語における訓練モデルと特徴抽出データとの一
致度判定を行う一致度判定部、6は前記訓練モデル、前
記発話特徴抽出データならびに前記一致度判定結果を表
示装置に表示制御する為の表示制御部、6はCRT等の
表示装置である。
DESCRIPTION OF THE EMBODIMENTS FIG. 1 is a block diagram showing the configuration of a speech training device according to an embodiment of the present invention. In FIG. 1, 1 is a training model generation unit that sequentially generates training models from low to high difficulty φIt for the basic training model of utterance, and 2 is an utterance feature that extracts the utterance features of the speaker. The extraction unit, which is omitted here, extracts utterances such as laryngeal vibrations and nasal vibrations from the detection signals of laryngeal vibration sensors, nasal vibration sensors, etc., which are attached to the vocal organs of each part of the speaker. This is used to extract features. 3 is a comparison unit that compares the training model generated by the training model generation unit 1 and the feature extraction data of the utterance feature extraction unit 2; 6 is a matching degree determining unit that determines the matching degree between the training model and the feature extraction data in one utterance based on the comparison result of the comparing unit 3 within 6 seconds); 6 is the training model, the utterance feature extraction data, and the matching degree; A display control unit 6 is a display device such as a CRT for displaying the determination result on a display device.

第2図から第4図は本実施例の発話訓練装置の表示画面
の一例を示すもので、第2図は発話語の基本訓練モデル
の波形表示例であって、例えば言語訓練士などによって
予め作成されているものである。第3図(a)から(C
)は第2図の基本訓練モデルの波形表示例に対して、(
a)から(C)に向かって訓練モデルとしての難易度を
高くしていったものである。すなわち、第3図(a)に
おいては波形の特徴点として発話の始点31.終点32
や、変化点33゜34.35の5ケ所に発話の目標を設
定したものであり、発話者の特徴抽出データは同一座標
上の上記目標を擬っていく」:うに訓練を進めるもので
ある。
2 to 4 show an example of the display screen of the speech training device of this embodiment, and FIG. 2 is an example of the waveform display of the basic training model of the spoken language. It has been created. Figures 3(a) to (C
) is for the waveform display example of the basic training model in Figure 2.
The difficulty level as a training model is increased from a) to (C). That is, in FIG. 3(a), the starting point 31. of the utterance is the characteristic point of the waveform. End point 32
The goal of speech is set at five locations, such as 33° and 34.35 points of change, and the speaker's feature extraction data imitates the above goals at the same coordinates. .

第3図(b)は同図(−)に対してさらに難易度を大き
くしたもので、変化点のそれぞれの中点36.37に目
標を設定したものである。
FIG. 3(b) is a version with a higher level of difficulty than the one shown in FIG.

第3図(C)は第2図の基本訓練モデルに最も近似した
もので、このレベルの発話目標をある程度、擬ることか
できれば、訓練目的が達成されるという一つのレベルで
ある。
FIG. 3(C) most closely approximates the basic training model shown in FIG. 2, and is a level in which the training objective can be achieved if the utterance target at this level can be imitated to some extent.

第4図(a)から(C)は、第3図と同様に第2図の基
本訓練モデルの波形表示例に対して、(−)から(C)
に向かって訓練モデルとしての難易度を高くしていった
もので、この場合、難易度を基本訓練モデルを中心とし
た幅Wによって示した一例である。
Figures 4 (a) to (C) show (-) to (C) for the waveform display example of the basic training model in Figure 2, similar to Figure 3.
In this case, the difficulty level is expressed as a width W centered on the basic training model.

第1図に示すように構成された本実施例の発話訓練装置
について、以下その動作を第3図の表示例ならびに第6
図の動作を示すフロチャートと共に示す。
Regarding the speech training device of this embodiment configured as shown in FIG. 1, its operation will be described below as shown in the display example in FIG.
It is shown together with a flowchart showing the operation of the figure.

7 <− (イ)・・・・・・第1図においては省略しているが、
訓練スタート処理要求によって本処理は開始する。
7 <- (a)... Although omitted in Figure 1,
This process is started by a training start process request.

(ロ)・・・・・・訓練モデル生成部1より、難易度の
最も低い第3図(a)に示すような第1ステツプの訓練
モデルが比較部3に送出されると共に表示制御部6に送
出される。
(b) The training model generator 1 sends the first step training model with the lowest difficulty level as shown in FIG. 3(a) to the comparison unit 3 and the display control unit 6 will be sent to.

(ハ)・・・・・・表示制御部5は上記訓練モデルを表
示装置6の表示画面に表示する。
(c)...The display control unit 5 displays the training model on the display screen of the display device 6.

に)・・・・・・表示制御部5ならびに一散層判定部4
は初期化されて、表示制御部6は発話特徴抽出部2によ
り抽出される特徴抽出データの表示開始端点を前記訓練
モデルと同一座標−」−の起点である画面の左端点に七
ノド1〜、−散層判定部4は一致度の積算計数値を0に
セットする。
)...Display control unit 5 and uniform layer determination unit 4
is initialized, and the display control unit 6 sets the display start end point of the feature extraction data extracted by the utterance feature extraction unit 2 to the left end point of the screen, which is the starting point of the same coordinates as the training model. , - The scattering determination unit 4 sets the cumulative count value of the degree of coincidence to zero.

(ホ)・・・・・・予め定められたサンプリング周期に
よって表示制御部6は発話特徴抽出部2の特徴抽出デー
タを入力して表示装置6の表示画向上(この場合、第3
図体)に相当)特開昭GO−163078(3) の同一時間41+に表示する。またこのサンプリングタ
イミング信号は比較部3ならびに一散層判定部4に送出
される。
(E)...The display control section 6 inputs the feature extraction data of the speech feature extraction section 2 at a predetermined sampling period to improve the display image of the display device 6 (in this case, the third
Displayed at the same time 41+ of Japanese Patent Application Laid-Open No. 163078 (3). Further, this sampling timing signal is sent to the comparison section 3 and the uniform layer determination section 4.

(へ)・・・・・・比較部3は−J−記サンプリングタ
イミング信号によって、その時点での訓練モデルの目標
点(31〜36)と発話特徴データとの比較を行い、そ
の比較結果を一散層判定部4に送出する。
(f)...The comparison unit 3 compares the target points (31 to 36) of the training model at that time with the utterance feature data using the -J- sampling timing signal, and compares the comparison results. It is sent to the uniform layer determination section 4.

(ト)・・・・・・−散層判定部4は前記比較結果を判
定し、訓練モデル目標データ(Dm)と発話特徴データ
(Dr)が一致した場合、−散層計数部(力に分岐し、
不一致の場合、−散層表示部(1刀にスキップする。
(G) ...... - The scattering determination section 4 judges the comparison result, and if the training model target data (Dm) and the utterance feature data (Dr) match, - the scattering counting section (force branch,
If there is a mismatch, -Scattered layer display section (skip to 1 sword).

(ト)・・・・・・−散層判定部4は前記(Dm)と(
D、)が一致した場合、−散層旧教レジスタに1を増加
させていく。
(g)...-The diffused layer determination unit 4 determines the above (Dm) and (
D, ) match, 1 is incremented in the -dispersed old church register.

(男・・・・・・表示制御部6は前記−散層計数レジス
タの値を表示装置6の表示画面の一部(第3図38)に
表示する。
(Male) The display control section 6 displays the value of the -dispersed layer count register on a part of the display screen of the display device 6 (FIG. 3 38).

C)・・・・・・表示制御部5は、−発話語の所定のフ
レ9 <−ゞ 一人の終了を判定し、未終了の時は、前記0うから(I
J)の処理が繰返され、特徴データは第3図(a)の表
示中のモデルの右方向(すなわち時間軸)を擬っていく
C)...The display control unit 5 determines whether the predetermined frame 9 of the uttered word is finished, and if it is not finished, the display control unit 5 displays the above 0 Ukara (I
The process J) is repeated, and the feature data imitates the right direction (ie, the time axis) of the model being displayed in FIG. 3(a).

Qす・・・・・・−発話語の所定のフレームが終了した
時、表示制御部5は一散層判定部4に終了指令を与え、
−散層判定部4はそれまでに計数した一致度計数レジス
タ(イ)の値を訓練モデル生成部1に送出する。訓練モ
デル生成部1では前記(6)の値とその訓練ステップに
おける要求−散層但)との値を比較する。
Q... - When a predetermined frame of the spoken word ends, the display control section 5 gives an end command to the uniform layer determination section 4,
- The scattered layer determination section 4 sends the value of the coincidence count register (a) counted so far to the training model generation section 1. The training model generation unit 1 compares the value of (6) above with the value of the request-dispersion in the training step.

(7)・・・・・・訓練モデル生成部1は前記(イ)と
但)との比較判定を行い、(K)〈(6)の場合、その
ステップにおける訓練目標が達成されていないことを判
定し、表示制御部5にそれを通知する。表示制御部5は
これによって前記(ハ)の同一ステップの訓練モデルの
再表示から(ヲ)の処理を繰返す。
(7)...The training model generation unit 1 makes a comparison judgment between the above (a) and proviso, and if (K)<(6), the training goal at that step has not been achieved. is determined and the display control unit 5 is notified of the determination. The display control unit 5 thereby repeats the process from (c) redisplaying the training model in the same step to (w).

(ワ)・・・・・・(イ)≧(R)の場合、訓練モデル
生成部1はそ1o \− のステップの訓練の終了を判定し、同−発話語における
次のステップの訓練モデルの有無を判定する。
(W)... (B) In the case of ≧ (R), the training model generation unit 1 determines the end of the training of step 1o \-, and creates a training model for the next step in the same utterance. Determine the presence or absence of.

(イ))・・・・・・次ステツプの訓練モデルが有る場
合、訓練モデル生成部1けそのモデルを比較部3ならび
に表示制御部5に送出する。この場合の次ステツプモデ
ルとは第3図(1))の表示例のものであり、以下第3
図(C)の表示例のステップへと順次移行する。表示制
御部5は次ステツプモデルがロードされると、再び(ハ
)からの処理が繰返される。
(a))...If there is a training model for the next step, the training model generation section 1 sends the model to the comparison section 3 and display control section 5. The next step model in this case is the display example shown in Figure 3 (1).
The process proceeds sequentially to the steps in the display example shown in FIG. When the next step model is loaded, the display control unit 5 repeats the process from (c) again.

(→・・・・・・次ステツプのモデルが無い場合、次の
新しい発話語の訓練処理へ移行する。
(→...If there is no model for the next step, move on to training processing for the next new spoken word.

訓練モデル目標と発話特徴データの比較判定について第
3図(−)の表示例と共に詳述する。基本訓練波形30
の線−にに設けられた訓練目標31〜36に対して発話
者の発話が図中の点線39のようになされたとすると、
図よりわかるように目標点5意中4点の一致が得られて
いる。この場合の11 <−:’ 一致とは、目標点(斜線丸)に対して一度でも特徴デー
タが重なった時をいう。
The comparison and determination of the training model target and the utterance feature data will be described in detail with reference to the display example shown in FIG. 3 (-). Basic training waveform 30
Assuming that the speaker's utterances are made as shown by the dotted line 39 in the figure with respect to the training targets 31 to 36 set on the line -,
As can be seen from the figure, 4 out of 5 target points matched. In this case, 11 <-:' matching refers to when the feature data overlaps the target point (hatched circle) even once.

第6図QOの要求−散層は必ずしも100%でなくても
、例えば難易度の高い場合はso%で良い。
Figure 6 QO requirements - The scattering does not necessarily have to be 100%, for example, if the difficulty level is high, it may be so%.

以上のように本実施例によれば、同一の発話語に対して
複数の訓練モデルを生成する訓練モデル生成部を設ける
こと−より、訓練の進展度に応じて段階を踏んで順次高
度な訓練へと進めることができる。
As described above, according to this embodiment, by providing a training model generation unit that generates a plurality of training models for the same spoken word, advanced training can be performed step by step according to the progress of training. You can proceed to.

なお、本実施例において、訓練モデルの目標として、斜
線丸Oの図形を使用しているが、これをさらに草の図形
とし、発話者の特徴データとして馬の図形を用いて前記
馬の図形が草を食べていくようにアニメーションゲーム
的な娯楽性をもたせても良い。この時、第3図の38の
一致度計数は必ずしも表示する必要はない。
In this example, the shape of a diagonal circle O is used as the target of the training model, but this is further changed to the shape of grass, and the shape of a horse is used as the feature data of the speaker. It is also possible to provide entertainment like an animation game, such as eating grass. At this time, the coincidence degree count 38 in FIG. 3 does not necessarily need to be displayed.

発明の効果 本発明の発話訓練装置は、発話者の発話特徴データと訓
練モデルとの一致度判定信号により、発話の基本訓練モ
デルに対し、難易度の低い訓練モデルから難易度の高い
訓練モデルを順次生成する訓練モデル生成部と、発話者
の発話特徴を抽出する発話特徴抽出部と、前記訓練モデ
ル生成部より生成された訓練モデルと前記発話特徴抽出
部で抽出された発話特徴データとを比較する比較部と、
前記比較データを入力とし、−発話相当の所定時間内の
一致度判定を行い、その−散層判定結果を前記訓練モデ
ル生成部に送出する一致判定部を設けることにより、発
話訓練の初期段階から順次ステップを踏んで、訓練の進
展度に応じて訓練モデルがかわるので、発話者自身でも
容易に訓練の初期段階から最終段階に向けて訓練を進め
ていくことができ、その実用的効果は大きい。
Effects of the Invention The speech training device of the present invention selects a training model from a low difficulty training model to a high difficulty training model for a basic training model of speech, based on a signal for determining the degree of agreement between the speech feature data of the speaker and the training model. A training model generation unit that sequentially generates a training model, an utterance feature extraction unit that extracts utterance features of a speaker, and a comparison between the training model generated by the training model generation unit and the utterance feature data extracted by the utterance feature extraction unit. a comparison section to
By providing a match determination section that takes the comparison data as input, performs a match determination within a predetermined time period corresponding to the utterance, and sends the scattered layer determination results to the training model generation section, the training model can be trained from the initial stage. Since the training model changes according to the progress of training through sequential steps, speakers themselves can easily progress through the training from the initial stage to the final stage, which has a great practical effect. .

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例における発話訓練装置の構成
を示すブロック図、第2図は発話の基本訓練モデルの表
示例を示す図、第3図a −Cは同−発話語に対する複
数のステップにおける訓練モデルの表示例を示す図、第
4図a〜Cは第3図a〜Cと同様な訓練モデルの別の表
示例を示す図、13 \−7” 第5図は本発明の一実施例のフローチャート図である。 1・・・・・・訓練モデル生成部、2・・・・・・発語
特徴抽出部、3・・・・・・比較部、4・・・・・・−
散層判定部、5・・・・・・表示制御部、6・・・・・
・表示装置。 特許出願人 工業技術院長 川 1)裕 部第2図 第 3 ― 第 4 囚 (a−) (b)
FIG. 1 is a block diagram showing the configuration of a speech training device according to an embodiment of the present invention, FIG. 2 is a diagram showing a display example of a basic speech training model, and FIGS. Figures 4a-C are diagrams showing other display examples of the training model similar to those in Figures 3a-C, It is a flowchart diagram of one embodiment. 1... Training model generation unit, 2... Speech feature extraction unit, 3... Comparison unit, 4...・・−
Diffused layer determination section, 5...Display control section, 6...
・Display device. Patent applicant: Director of the Agency of Industrial Science and Technology Kawa 1) Hirobe Figure 2 Prisoners 3-4 (a-) (b)

Claims (1)

【特許請求の範囲】[Claims] 発話者の発話特徴データと訓練モデルとの一致度判定信
号により、発話の基本訓練モデルに対し、難易度の低い
訓練モデルから難易度の高い訓練モデルを順次生成する
訓練モデル生成部と、発話者の発話特徴を抽出する発話
特徴抽出部と、前記訓練モデル生成扁より生成された削
1練モデルと前記発話特徴抽出部で抽出された発話特徴
データとを比較する比較部と、前記比較部の比較データ
を入力とし、−発話の所定時間内の一致度判定を行い、
その一致度判定結果を前記訓練モデル生成部に送出する
一致度判定部とを具備し、発話訓練の進展度に応じて訓
練モデルを可変とすることを特徴とする発話訓練装置。
a training model generation unit that sequentially generates training models from less difficult to more difficult based on a basic training model of utterances based on a match degree determination signal between the speaker's utterance feature data and the training model; a utterance feature extraction unit that extracts the utterance features of the utterance feature; a comparison unit that compares the reduction model generated by the training model generator with the utterance feature data extracted by the utterance feature extraction unit; Taking the comparison data as input, - determining the degree of matching within a predetermined time period of the utterance;
A speech training device comprising: a matching degree determining section that sends the matching degree determining result to the training model generating section, and making the training model variable according to the progress of speech training.
JP59017171A 1984-02-03 1984-02-03 Speech training apparatus Granted JPS60163078A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59017171A JPS60163078A (en) 1984-02-03 1984-02-03 Speech training apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59017171A JPS60163078A (en) 1984-02-03 1984-02-03 Speech training apparatus

Publications (2)

Publication Number Publication Date
JPS60163078A true JPS60163078A (en) 1985-08-24
JPH0133831B2 JPH0133831B2 (en) 1989-07-14

Family

ID=11936505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59017171A Granted JPS60163078A (en) 1984-02-03 1984-02-03 Speech training apparatus

Country Status (1)

Country Link
JP (1) JPS60163078A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61158365A (en) * 1984-12-28 1986-07-18 松下電器産業株式会社 Adaptive type enunciation training apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3520022B2 (en) * 2000-01-14 2004-04-19 株式会社国際電気通信基礎技術研究所 Foreign language learning device, foreign language learning method and medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61158365A (en) * 1984-12-28 1986-07-18 松下電器産業株式会社 Adaptive type enunciation training apparatus

Also Published As

Publication number Publication date
JPH0133831B2 (en) 1989-07-14

Similar Documents

Publication Publication Date Title
Zhang et al. Speech emotion recognition using deep convolutional neural network and discriminant temporal pyramid matching
CN106205633B (en) It is a kind of to imitate, perform practice scoring system
CN109949783B (en) Song synthesis method and system
US7299188B2 (en) Method and apparatus for providing an interactive language tutor
Tseng et al. Cohesion in film
JP2003504646A (en) Systems and methods for training phonological recognition, phonological processing and reading skills
Emmerson et al. Expanding the Horizon of Electroacoustic Music Analysis
CN110600013B (en) Training method and device for non-parallel corpus voice conversion data enhancement model
WO2010086447A2 (en) A method and system for developing language and speech
CN111354332A (en) Singing voice synthesis method and device
Shuster et al. The use of visual feedback to elicit correct/r
CN110246488A (en) Half optimizes the phonetics transfer method and device of CycleGAN model
US20150111183A1 (en) Information processing apparatus and information processing method
US20210319712A1 (en) Language learning system utilizing component unit, more segmented than phoneme, or various games
CN111554303B (en) User identity recognition method and storage medium in song singing process
CN105895079A (en) Voice data processing method and device
US20150371630A1 (en) Information processing apparatus and information processing method
JPS60163078A (en) Speech training apparatus
CN109326175B (en) Vocal music training auxiliary system
CN110349567A (en) The recognition methods and device of voice signal, storage medium and electronic device
CN111276113B (en) Method and device for generating key time data based on audio
JP2002159741A (en) Game device and information storage medium
WO2001082291A1 (en) Speech recognition and training methods and systems
CN111695777A (en) Teaching method, teaching device, electronic device and storage medium
Athanasopoulos et al. King's speech: pronounce a foreign language with style

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term