JPS60158490A - Musical tone generator with voice input - Google Patents

Musical tone generator with voice input

Info

Publication number
JPS60158490A
JPS60158490A JP59013076A JP1307684A JPS60158490A JP S60158490 A JPS60158490 A JP S60158490A JP 59013076 A JP59013076 A JP 59013076A JP 1307684 A JP1307684 A JP 1307684A JP S60158490 A JPS60158490 A JP S60158490A
Authority
JP
Japan
Prior art keywords
output
data
pitch
circuit
pitch data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59013076A
Other languages
Japanese (ja)
Other versions
JPH0261760B2 (en
Inventor
豊太郎 時本
和幸 黒沢
進 高島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP59013076A priority Critical patent/JPS60158490A/en
Priority to US06/583,091 priority patent/US4633748A/en
Priority to DE19843407078 priority patent/DE3407078A1/en
Priority to GB08405013A priority patent/GB2138988B/en
Publication of JPS60158490A publication Critical patent/JPS60158490A/en
Priority to US07/453,040 priority patent/USRE33739E/en
Publication of JPH0261760B2 publication Critical patent/JPH0261760B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は音声のピッチデータを抽出することにより楽音
を発生する電子楽器に係り、特に音声の高変化に高速に
追従するようにした音声人力による楽音発生装置に関す
る。
[Detailed Description of the Invention] [Technical Field of the Invention] The present invention relates to an electronic musical instrument that generates musical tones by extracting voice pitch data, and particularly relates to an electronic musical instrument that generates musical tones by extracting voice pitch data, and particularly relates to an electronic musical instrument that generates musical tones by extracting voice pitch data, and particularly relates to an electronic musical instrument that generates musical tones by extracting voice pitch data, and particularly relates to an electronic musical instrument that generates musical tones by extracting voice pitch data, and particularly relates to an electronic musical instrument that generates musical tones by extracting voice pitch data. The present invention relates to a musical tone generator.

〔従来技術〕[Prior art]

電子技術の進歩により、電子的に楽音波形を発生し、ス
ピーカにより楽音を発生ずることが可能となった。この
前述した装置は一般的に電子楽器と呼ばれている。この
電子楽器は鍵によって発生すべき楽音を選択する方法が
一般的であり、さらにレバースイッチ等によってピアノ
の音や他の楽器の音を指定して発生ずることかできる。
Advances in electronic technology have made it possible to generate musical sound waveforms electronically and to produce musical tones through speakers. This aforementioned device is generally called an electronic musical instrument. Generally, electronic musical instruments use keys to select the musical tones to be generated, and furthermore, lever switches or the like can be used to specify and generate piano tones or the tones of other musical instruments.

〔従来技術の問題点〕[Problems with conventional technology]

前述したようにこの電子楽器は鍵によって楽音を選択す
るので、演奏するためにはピアノの技術やその鍵の操作
の練習を必要としていた。換言するならば簡単に例えば
人の歌に対応して伴奏するようなことばできず、電子楽
器を操作する技術を有する者にのみそのようなことが可
能であった。
As mentioned above, this electronic musical instrument uses keys to select musical tones, so in order to play it, it is necessary to practice piano skills and how to operate the keys. In other words, it was not possible to simply accompany someone's song, and only those who had the skills to operate electronic musical instruments could do such a thing.

即ら従来の鍵によって操作する電子楽器は簡単に誰にで
も演奏することができないという問題を有していた。
That is, conventional electronic musical instruments operated by keys have a problem in that they cannot be easily played by anyone.

〔発明の「1的〕 本発明は前記問題点をM決するものであり、電子楽器の
傑作技術を有さなくても簡単に1榮作して演奏や伴奏を
することができる電子楽器を供給するために、特に音声
入力データから適りJな楽音を発生させるための音声人
力による楽音発):1′1.装置を提供することを目的
とする。
[Object 1 of the Invention] The present invention solves the above-mentioned problems, and provides an electronic musical instrument that can be easily created, played, and accompanied by one without having to have masterful electronic musical instrument technology. In particular, an object of the present invention is to provide a device for generating musical tones by manual voice input for generating appropriate musical tones from voice input data.

〔発明の構成〕[Structure of the invention]

上記目的は本発明によれは少くとも音声の開始部分と終
了部う(の時間的位置を検出する検出手段と、前記音声
のピッチデータを1111出する抽出1段と、該ピ・7
チデータに対して異なった加圧を行なう複数の加工手段
と、検出された前記各時間的位置に対応して前記複数の
加工手段の加二Lピッチデータを順次選択する手段と2
 この選択手段から出力される加]ニピノヂデークに基
すいて楽音を発1゜する楽音発)4二手段とを有するこ
とを特徴とする。
According to the present invention, the above objects include detecting means for detecting the temporal position of at least the start and end portions of a voice; an extraction stage for outputting pitch data of the voice;
a plurality of machining means for applying different pressures to the pitch data; and means for sequentially selecting L pitch data of the plurality of machining means corresponding to each of the detected temporal positions;
The present invention is characterized in that it has a musical tone generation means for generating musical tones based on the output from the selection means and the musical tone output from the selection means.

〔発明の実施例〕[Embodiments of the invention]

本発明は従来のように鍵によって楽音の音階とり・イミ
ングを選択するのではなく1人間か音声によって楽音の
音階とタイミングを5えるようにしたちのζある。
In the present invention, instead of selecting the scale and timing of a musical note using a key as in the past, the scale and timing of a musical note can be adjusted by one person or voice.

第1図は本発明の実施例の回路構成図であり。FIG. 1 is a circuit diagram of an embodiment of the present invention.

音声入力に対応して楽音を発生ずる電子楽器の構成を示
している。音声を電気信号に変換するマイク1」ボン1
の出力は前処理部2に加わる。前処理部2の出力はピン
チ抽出部3に接続される。ピッチ抽出部3の出力はラッ
チ4を介してプ「1セノザ((/])U)Jに加わる。
This figure shows the configuration of an electronic musical instrument that generates musical tones in response to audio input. Microphone 1 that converts audio into electrical signals Bon 1
The output is applied to the preprocessing section 2. The output of the preprocessing section 2 is connected to the pinch extraction section 3. The output of the pitch extractor 3 is applied to the p'1senosa((/])U)J via the latch 4.

ブロセソリ5の出力υ、1ピッチ抽111部3.記憶部
6.エラー除去部7.移動平均演算部8.フラグ作成部
9に接続されている。
Output υ of Brosesori 5, 1 pitch extraction 111 part 3. Storage section 6. Error removal section 7. Moving average calculation unit 8. It is connected to the flag creation section 9.

記憶部6の出力はエラー除去部7とピッチデータ制御部
IOに、コーラ−除去部7の出力は移動平均演算部8と
ピッチデータ制御部10にそれぞれ加わる。移動平均演
算部8の出力はビノチテーータ制御部10とコーlジェ
ネL・−タ11に接続される。
The output of the storage section 6 is applied to the error removal section 7 and the pitch data control section IO, and the output of the chorus removal section 7 is applied to the moving average calculation section 8 and the pitch data control section 10, respectively. The output of the moving average calculation section 8 is connected to a binochitator control section 10 and a co-generator L--ta 11.

又ピッチデータ制御g+++oの出力もローlシフーネ
レータ11に接続される。ヨー1ジエネレータ11の出
力は楽右発生部12に接続され、その楽音発生部12の
出力は電気信℃を75に変換″3るスピーカ13に接続
される。
The output of the pitch data control g+++o is also connected to the low l shifter 11. The output of the yaw 1 generator 11 is connected to a musical tone generating section 12, and the output of the musical tone generating section 12 is connected to a speaker 13 which converts the electric signal to 75 degrees centigrade.

マ・イクロボン1て電気信司に変換された音声信号は前
処理部2に加わり、前処理がなされる。この前処理は第
1には例えば1コーパスフイルタ(1゜PF)等によっ
て帯域外の信号の除ノkを行なう。
The audio signal converted into electric signal by the microbone 1 is applied to a preprocessing section 2, where it is preprocessed. In this preprocessing, first, signals outside the band are removed using, for example, a 1 corpus filter (1° PF).

この帯域外の除去は次段によ、ってなされるピノ千抽出
の誤動作を防止するためになされ?〕のである。
This out-of-band removal is done to prevent malfunctions in the pinot extraction performed by the next stage. ].

さらに前処理は第2にはオートマチノクケインコンレコ
ール回路によって11域外が除去された入力音声信号を
特定の振幅値になるように増幅する。
Furthermore, the second pre-processing is to amplify the input audio signal, from which the outside of the 11 range has been removed, to a specific amplitude value by means of an automatic knock-in con-recall circuit.

第3には前述の特定の振幅値となった入力音声信号をア
ナログ/デジタル変換回路によってデジタルデータに変
換する。前述の特定の振幅値になるような増幅は、この
アナ1コグ/デジタル変換回路の出力ヒフ1−敗を有効
にするためになされるものである。
Third, the input audio signal having the above-mentioned specific amplitude value is converted into digital data by an analog/digital conversion circuit. The above-mentioned amplification to achieve the specific amplitude value is performed in order to make the output high 1-loss of this analog 1 cog/digital conversion circuit effective.

前処理部2て処理された音声信司即もデジタル音声信号
はピンチ抽出部3に加わる。ピッチ抽出部3はプlコセ
ソザ(CPIJ)5の制御によ−って人力音声信号の基
本周波数のピッチを抽出する。ピッチ抽出部3は2例え
ば特願昭58−31284月、特願昭58−31285
号、特願昭58−31286号の各公報に詳細が記載さ
れているが、音声データ量子化回路、音階抽出回路、3
値相関処理回路を有し、これらの回路に、)、っ−ζピ
ッチ抽出を行なう。データ量子化回路υJ音声デジタル
デークの最大値と最小値を特定時間に亘−2て順次求め
、その最大値、最小値を用いて例えば3値化ずイ)ため
のそれぞれのスレッシボールドレ・\ルを決定する。そ
してそのスレッシボールドで入力信すを3値化する。音
階抽出回路は前述の音声デシタルテークを用いて3値化
した音声3値化データを抽出する音階に対応さ−Uて遅
延させ、その遅延データと入カアーータとを乗算する回
路である。この回路によって時間に関する相関が取られ
る。このデータは単に遅延データと入力データとの虫な
る時間に関する相関を表わすものであり、このデータを
更に処理し−ζピノ千の抽出を行なう。ごの抽出を行な
うのが前述した3値相関処理回路である。3値相関処理
回路はピッチ抽出を行なうためのウィンド処理等を行な
・)回路である。即ち、抽出する音階に対応して前述の
音階抽出回路より複数のデータが出力されるの−1この
3値相関処理回路でその複数のデータをウィンド処理、
換言するならば音階に関係し2て重め伺+3を行ない、
さらにそれを9,1を定時間(1フレーム)累算する。
The digital audio signal processed by the preprocessing section 2 is then applied to the pinch extraction section 3. The pitch extractor 3 extracts the pitch of the fundamental frequency of the human voice signal under the control of a processor (CPIJ) 5. The pitch extracting section 3 uses 2, for example, Japanese Patent Application No. 58-31284, Japanese Patent Application No. 58-31285.
The details are described in the respective publications of No. 58-31286 and Japanese Patent Application No. 58-31286.
It has a value correlation processing circuit, and performs ), -ζ pitch extraction on these circuits. The data quantization circuit υJ sequentially obtains the maximum and minimum values of the audio digital data at -2 over a specific period of time, and uses the maximum and minimum values to perform ternarization (for example). \Determine. Then, the input signal is ternarized using the threshold value. The scale extraction circuit is a circuit that delays audio ternary data that has been ternarized using the audio digital take by -U corresponding to the scale to be extracted, and multiplies the delayed data by the input signal. This circuit provides time correlation. This data simply represents the correlation in terms of time between the delayed data and the input data, and is further processed to perform extractions. The above-mentioned ternary correlation processing circuit performs the extraction. The ternary correlation processing circuit is a circuit that performs window processing etc. for pitch extraction. That is, the above-mentioned scale extraction circuit outputs a plurality of data corresponding to the scale to be extracted.-1 This ternary correlation processing circuit performs window processing on the plurality of data.
In other words, it is related to the musical scale, and it is 2 and then the weight is +3.
Furthermore, 9.1 is accumulated for a fixed time (one frame).

そして、その累算値(遅延時間に対応した累算値)の中
から最大値をめ。
Then, find the maximum value among the accumulated values (accumulated values corresponding to the delay time).

その最大値に対応した遅延時間よりピッチをめ出力する
。この出力は入力した音声(高調波を含む)の基本波の
ピッチに関係し人:データである。
The pitch is determined based on the delay time corresponding to the maximum value and output. This output is data related to the pitch of the fundamental wave of the input voice (including harmonics).

前述のピッチ抽出部3より出力されたピッチデータはラ
ッチ4.プ11セノリ〜5を介し゛(記憶部6に格納さ
れる。その後このピッチデータはピッチテーク制御部1
0に転送されるき共に、エラ 財、央部7−・転送され
る。エラー除去部7は記憶部6に格納されたデータを用
いて特定なピッチデータの変化特に1フレームQこおい
てのめ例えば1オクタ一ブ以上の変化を検IJIL、そ
の変化が検出された時はそのデータを変化する前のデー
タにちど」−)、:めの回路0ごある。尚、急激な音階
の変化もあり′)るが、エラー除去n137においては
2フレーム以」二連続してピッチテークが急激に変化し
た場合は。
The pitch data output from the pitch extraction section 3 described above is sent to the latch 4. The pitch data is stored in the storage unit 6 via the pitch control unit 11 through the pitch control unit 5.
While being transferred to 0, the error goods are transferred to the central part 7-. The error removing unit 7 uses the data stored in the storage unit 6 to detect a change in specific pitch data, especially a change of one octave or more in one frame Q, and when that change is detected. There is a circuit 0 where the data is the same as the data before it is changed. It should be noted that there may be sudden changes in the pitch, but in error removal n137, if the pitch take changes suddenly for two consecutive frames or more.

」、記動作4.1行なわないようにしており1 この時
にば1フレーJカ遅れてデータが変化するようになされ
ている。エラー除去部7においてjフレームエ。
'', operation 4.1 is not performed, and at this time, the data changes with a delay of one frame. The error removing unit 7 removes frame j.

ラー除去されたデータはピノヂデーク制御部10へ転送
されると共Qこ移動平均演算部8において平均がなされ
る。そし、てその出力としては複数の平均化処理を行な
ったものが出力される。即し第1の111力としてエラ
ー除去部7から入力し、た各ピ。
The data from which errors have been removed are transferred to the pinpoint index control section 10 and averaged at the moving average calculation section 8. Then, the output obtained by performing a plurality of averaging processes is output. That is, each pin inputted from the error removal unit 7 as the first 111 force.

チデータに対して現在を含む過去4フL−−Aにわたる
加算平均を行なっノこものが出力される。また第2の出
力としく各ピッチテークに幻して現在を含む過去6ソレ
ー11と、1つ前の加算平均出力とに対して適当に重め
イ」りを行なって加算平均しノこものが出力される。例
えば過去Gフレームと、■一つ前の加算平均出力値を2
倍した値とを累算し平均したものであり、ごれ(J見が
り上ヒステリシスを持たせた8フレーJ・移動平均出力
となっている。
An average is performed on the current data over the past four frames L--A including the current one, and a result is output. In addition, as a second output, the past 6 solenoids 11 including the current one for each pitch take, and the previous summation average output are appropriately weighted and averaged. Output. For example, the past G frame and the previous addition average output value are 2
The multiplied values are accumulated and averaged, resulting in an 8-frame J/moving average output with hysteresis.

そしてこれらの処理はフレームイυに入力するピッチテ
ークを順次格納するシフ1L・シスタと累! :3.u
なとによって行なわれる。
These processes are combined with shift 1L and sister, which sequentially stores the pitch take input to frame iυ! :3. u
It is carried out by Nato.

このようにしてi17均化されたデータG;I移りJ平
均演算部8より出力され、ピッチテーク制御t:++ 
1. 。
In this way, the i17 equalized data G; I shift J is output from the average calculating section 8, and the pitch take control t:++
1. .

に加わり楽音を発生するための処理かなされ?)。Is there any processing required to generate musical tones? ).

換言するならばnIJ述しノこエラ 除去1)1(7は
外部卸8音等によってピッチ抽出の1ソし一−−i、の
y)の誤動作を検出し、除去する回路であり、ピンチ抽
出の誤動作の結果によるステップ的な大きなデータの変
化を除去するものもある。そして移動平均演算部8は入
力音声等の1故妙なピッ千変化によるピッチの誤抽出の
テークの微妙変化侃ニゲ1し′(複数の平均化処理によ
っ−で適切にピッチテークタの変化を安定化さ−lる回
路である。特に上記ヒステリシス(J8フレーJ・移動
平均によって定電的に抽出される特定の音階口近で各フ
レーム毎の抽出データか1音階程度の幅で細かく振れる
のを防いでいる。
In other words, it is a circuit that detects and removes malfunctions of nIJ and error removal 1) 1 (7 is 1 so, 1, y of pitch extraction by external wholesaler 8 sounds, etc.), and eliminates it in a pinch. Some remove large step changes in data as a result of extraction malfunctions. Then, the moving average calculation unit 8 appropriately stabilizes changes in the pitch taker due to a slight change in pitch erroneous extraction due to strange pitch changes in the input audio, etc. (by performing multiple averaging processes). In particular, it is a circuit that allows the above hysteresis (J8 Frame J, the fact that the extracted data for each frame fluctuates finely with a width of about one scale around a specific scale that is electrostatically extracted by the moving average. Preventing.

人間の声は歌に限らず子音、母音を打している。The human voice is not limited to singing; it also makes consonants and vowels.

母音の基本波のピンチは多く含まれているが、子音にお
いては非雷に少ないものかある。この為。
There are many fundamental wave pinches in vowels, but there are fewer pinches in consonants. For this reason.

子音のめを発生している間(例えば”SA”を発生ずる
場合には°′S゛を発生している間)は基本波のピンチ
は誤って抽出されることがある。これらの誤抽出による
楽音の誤動作をなりシ、入力した音声の音階になるよう
にするのがピンチデータ。
While producing a consonant (for example, while producing °'S' when producing "SA"), a pinch of the fundamental wave may be erroneously extracted. Pinch data eliminates these malfunctions of musical tones caused by erroneous extraction and makes them match the scale of the input voice.

制御10である。そしてこの制御部は音声パワーや音声
入力検出等のデータを用い一乙記1.a部6に格納され
ているデータやエラー除去部7の出力テークあるいば移
動平均演算部8の出力データを選択して出力する。
Control 10. This control unit uses data such as audio power and audio input detection to perform the following 1. The data stored in section a 6, the output take of error removal section 7, or the output data of moving average calculation section 8 are selected and output.

ヨー1ジエネレータ11は前述のピンチ制御部10の出
力を楽音発生部12において発生ずべき楽音のツー1−
即し楽音データに変換する回路である。
The yaw 1 generator 11 converts the output of the pinch control section 10 into a musical tone to be generated in the musical tone generating section 12.
This circuit converts the data into musical sound data.

前述したビノヂ抽出部3.記憶部6.エラー除去部7.
移動平均演算部8はプ1コセソザ5の制御によってなさ
れる。またピッチデータ制御部10゜コードジェネレー
タ11はフラグ作成部9を介してプロセ・ノザ5によっ
て制御される。換言するならば、プロセノザ5によって
フラグ作成部9にフラグ等がセットされ、そのフラグに
よって前述のピノ子データ制御部10.コー1、ジェネ
し・−タ11が動作する。
The above-mentioned binoji extraction section 3. Storage section 6. Error removal section 7.
The moving average calculation unit 8 is controlled by the processor 5. Further, the pitch data control unit 10° code generator 11 is controlled by the processor 5 via the flag generation unit 9. In other words, a flag or the like is set in the flag creation section 9 by the processor 5, and the aforementioned pinoko data control section 10. The motor 1 and generator 11 operate.

コートジェネレータ11の出力即ち変換データは楽音発
生部12に加わり、スピーカ13により出力されるべく
楽音の指定を行なう。換言するならば、楽音発生部12
ではツー1ジ、ヱネレータ11の変換データによって指
定される楽音電気信号(アナ1コグ)を発生し、スピー
カ13にそれを加える。その結果、スピーカ13より人
力音声に対応した楽音が発生するのである。
The output of the code generator 11, ie, the converted data, is applied to the musical tone generator 12, and specifies the musical tone to be output by the speaker 13. In other words, the musical tone generator 12
Then, the second generator 11 generates a musical tone electrical signal (analog 1 cog) specified by the conversion data of the generator 11 and applies it to the speaker 13. As a result, the speaker 13 generates a musical tone corresponding to the human voice.

第1図に示した回路は音声入力に対応して楽音を発生す
る電子楽器の構成を表し7たものであり。
The circuit shown in FIG. 1 represents the configuration of an electronic musical instrument that generates musical tones in response to audio input.

以下にさらに詳しく述べる回路によってこの電子楽器が
可能となる。
This electronic musical instrument is made possible by the circuitry described in more detail below.

本発明は第1図の本発明の実施例の特にピッチデータ制
御部10に関する。
The invention particularly relates to the pitch data control section 10 of the embodiment of the invention shown in FIG.

以下ピッチデータ制fffll !Jl≦IOについて
詳細に説明を行′なう。
Below is the pitch data system fffll! Jl≦IO will be explained in detail.

人間の声は発声の始めなどにおいては、特定のピッチで
発音しようとしてもそのピンチが安定しないことが多い
。また前述したように子音の部分などにおいては、ピン
チが不明確なので誤抽出が多くなる。
At the beginning of a human voice's utterance, even if an attempt is made to pronounce it at a specific pitch, the pitch is often unstable. Moreover, as mentioned above, in consonant parts, the pinch is unclear, so erroneous extraction is common.

一方前記移動平均演算部8におけるヒステリシス何移動
平均出力は、定常的な音階に対するピソーチテークの安
定化には有効であるが、始まりの部分の変化の大きな部
分に対しては有効ではない。
On the other hand, the hysteresis moving average output in the moving average calculating section 8 is effective for stabilizing pisochitake for a steady scale, but is not effective for a portion with large changes at the beginning.

また前記エラー除去部7の出力は、1フレームのピッチ
データのエラー除去を適切に行うことができ、音階の急
激な変化にも追従できるが、音声の先頭部分の非定常な
変化には追従できない。さらに前記移動平均演算部8に
おける4フレーム移動平均出力は上記2つの出力の中間
の性質を有する。
Furthermore, the output of the error removing section 7 can appropriately remove errors from one frame of pitch data and can follow sudden changes in musical scale, but cannot follow irregular changes at the beginning of the audio. . Furthermore, the 4-frame moving average output from the moving average calculating section 8 has a property intermediate between the above two outputs.

そこで9発声が始まってから例えば最初の1〜3フレー
ムでは記憶部6からの未処理のピッチデータをそのまま
コートジェネレータ11へ出力する。
Therefore, for example, in the first 1 to 3 frames after the start of nine utterances, the unprocessed pitch data from the storage section 6 is output as is to the court generator 11.

そして次の4〜7フレームはエラー除去部7を通してピ
ッチデータを出力する。
For the next 4 to 7 frames, pitch data is outputted through the error removing section 7.

さらに7次の8〜11フレームまでは移動平均演算部8
からの4フレーム移動平均出力を出力する。
Furthermore, the moving average calculation unit 8
Outputs the 4-frame moving average output from .

そして12フレーム目1グ降は同演算部8のヒステリシ
ス付8フレーム移動平均出力を出力するようとする。ご
のようにすることによって発声の始まりから定常部分に
移行するに従って、適切に処理されたピッチデータが選
択的に」〜 I’ジェネレータ11へ出力される。
Then, for the 12th frame and the first step, the 8-frame moving average output with hysteresis of the calculation unit 8 is outputted. As the vocalization progresses from the beginning to the steady state, suitably processed pitch data is selectively output to the "~I' generator 11.

また1人間の発声において例えばパトソ”と発音するよ
うな場合、” t’ ”の定常部分から“′ソ゛に移る
時に、゛ソ゛の始まり部分に子音があるためにその部分
においてピッチデータが途切れてしまう場合がある。し
かし実際に楽音をパドソ°゛と発声させる場合には1“
と゛′ソ゛が途切れずに。
In addition, when one person pronounces, for example, "patoso", when moving from the steady part of "t'" to "'so", there is a consonant at the beginning of "so", so the pitch data is interrupted at that part. It may be stored away. However, when actually making a musical note sound like padoso゛゛, 1"
and ``so'' without interruption.

なめらかにつながることか望ましい。そごで、子音部分
が検出されたら、その部分点それに続く1・〜3フレー
J・の母音部分は、子音部分の直前のピッチデータを続
りで出力する。その後4〜7フレーム目移行は子音部分
でピッチが途切れていてピンチの変化が大きくなる場合
かあるので、前記発音のbr;めの部分にり1する処理
と同様に各処理部からのビ、ヂデータを選択的にコード
ジェネレータ11−・出力さ、I!る。
It is desirable that it connects smoothly. When a consonant part is detected at that point, the pitch data immediately before the consonant part is output as a continuation of the vowel part of the 1. to 3rd frames J. following that part point. After that, in the transition from the 4th to the 7th frame, the pitch may be interrupted in the consonant part and the change in pinch may be large, so similar to the process of adding 1 to the br; The data is selectively output from the code generator 11-.I! Ru.

−に記動作をピッチデータ制御部10で実現するために
、フラグ作成部9 (第1図)において各種フラグが作
成される。この作成される各種フラグは1パワーフラグ
PF、相関値フラグCF、キーオンフラグK OF 、
キーアタックフラグI(ΔTF。
In order to realize the operations described in - by the pitch data control section 10, various flags are created in the flag creation section 9 (FIG. 1). The various flags created are 1 power flag PF, correlation value flag CF, key-on flag K OF,
Key attack flag I (ΔTF.

キーオフフラグK OF Fより成る。まずパワーフラ
グPFについて説明する。
It consists of a key-off flag K OF F. First, the power flag PF will be explained.

前記ピッチ抽出部3からはラッチ4を介してプ+:+ 
f!7ジ・5に、ビノヂデータの他に各アレーン、毎の
3値量子化データのパワー(3値量了化データの2乗値
の1〕し・−ム内におりる累算値)が出力される。この
パワー値がある闇値を越えた時に。
From the pitch extraction section 3, the output signal is output via a latch 4.
f! In addition to the binozi data, the power of the ternary quantized data for each arene (accumulated value that falls within the square value of the ternary amount quantized data) is output in 7th and 5th. be done. When this power value exceeds a certain darkness value.

パワーフラグPFがハイレー\ル(−以下I+という)
となる。そしてこのパワーフラグPFは子音、母音を問
わずに音声の存在する指標となる。
Power flag PF is high rail (-hereinafter referred to as I+)
becomes. This power flag PF serves as an indicator of the presence of speech regardless of whether it is a consonant or a vowel.

次に前記ピッチ抽出部3からはピッチに対応する遅延時
間における最大相関値がラッチ4を介してプl’J (
!フチ5に出力される。そしてこの最大相関値がある闇
値を越えた時に相関値フラグCFが11となる。この相
関値フラグCFはピッチの存在の度合を示すもので、母
音などにおいてはCFはHとなるが、子音又は無音の時
にはCFは1」−レヘル(以下1.という)となる。
Next, from the pitch extracting section 3, the maximum correlation value in the delay time corresponding to the pitch is sent via the latch 4 to Pl'J (
! It is output to the border 5. When this maximum correlation value exceeds a certain dark value, the correlation value flag CF becomes 11. This correlation value flag CF indicates the degree of presence of pitch; in the case of a vowel, etc., the CF is H, but in the case of a consonant or silence, the CF is 1''-leher (hereinafter referred to as 1.).

次にキーオンフラグI< OFは楽器として発音状態に
なっていることを示すフラグであり、前記パワーフラグ
PFと相関値フラグCFがj(に11となった時にI−
iとなり、J(にLとなった時に1、となる。
Next, the key-on flag I<OF is a flag indicating that the instrument is in the sounding state, and when the power flag PF and the correlation value flag CF become j(to 11), the key-on flag I
i, and when J( becomes L, it becomes 1.

その他の時は変化しない。キーアタックフラグKA ’
T’ FはキーオンフラグK O)−”が11吉なる始
めの1り1コツクだに月−1となる。ま人:キー」フッ
ラグKOF Fばキーオンフラグ+< o Irが1.
となる始めの1り1:1ツクだb月■となる。
No change at other times. Key attack flag KA'
T'F is the key-on flag KOF) -" is 11 auspicious beginnings, and the month is -1. True: Key" flag KOF F is the key-on flag + < o Ir is 1.
The first number is 1:1, which is b month■.

これら2つのフラグは発音の始めと終わりを示す指標と
なる。なお2以上のフラグ作成動作は各フLノーム毎に
行われるため、全てフレーム間隔の時間幅をもっアレー
ン・りlコックφイ によって同期がとられる。
These two flags serve as indicators indicating the beginning and end of pronunciation. Note that since two or more flag creation operations are performed for each frame, they are all synchronized by an array signal having a time width of a frame interval.

以上5つのフラグによって発音の開始フレーム。The start frame of pronunciation is determined by the above five flags.

子音フレーム、発音の終了フレームの判別が行われる。Consonant frames and pronunciation end frames are determined.

すなわち発音の開始フレームはキーアタックフラグに’
ATFが11となるフレームであり1発音の終了フレー
ムはキーオフフラグKOFFが11となる直前のフレー
ムである。また子音フレームはパワーフラグPF及びキ
ーオンフラグKOFがJ−1、相関値フラグCFがLと
なるフレームである。
In other words, the start frame of the sound is set to the key attack flag.
This is the frame in which the ATF becomes 11, and the end frame of one sound generation is the frame immediately before the key-off flag KOFF becomes 11. Further, the consonant frame is a frame in which the power flag PF and key-on flag KOF are J-1, and the correlation value flag CF is L.

上記フラグを基にして前記ピッチデータ制御動作を実現
するために、ピッチ制御部10において。
In the pitch control section 10 to realize the pitch data control operation based on the flag.

発音開始フレームから11フレームめまでをカウントす
るカウンタΔNC(14,)及び、子音フレームの次の
フレームから11フレームめまでをカウントするカウン
タSNC(15)の2つのカウンタが用いられている。
Two counters are used: a counter ΔNC (14,) that counts from the pronunciation start frame to the 11th frame, and a counter SNC (15) that counts from the frame following the consonant frame to the 11th frame.

しかして、記憶部6 (第1図)からの未処理ピッチデ
ータN1はラッチ18及びケート26を介してラッチ2
2に接続される。エラー除去部7 (第1図)からのピ
ノチテークN2ばラッチ19及びゲート27を介してラ
ッチ22に接続される。
Thus, the unprocessed pitch data N1 from the storage section 6 (FIG. 1) is transferred to the latch 2 through the latch 18 and gate 26.
Connected to 2. Pinoch take N2 from the error remover 7 (FIG. 1) is connected to the latch 22 via the latch 19 and gate 27.

移動平均演算部8からの4フレーム移動平均出力ピソチ
データN4はラッチ20及びゲート28を介してラッチ
22に接続される。また同じく移動平均演算図8からの
ヒステリシス伺移動平均出力ピンヂデータNθはラッチ
21及びゲート29を介してラッチ22に接続される。
The 4-frame moving average output pisochi data N4 from the moving average calculating section 8 is connected to the latch 22 via the latch 20 and the gate 28. Similarly, the hysteresis moving average output pinge data Nθ from the moving average calculation FIG. 8 is connected to the latch 22 via the latch 21 and gate 29.

ラッチ22の出力はコードジェネレータ11 (第1図
)へ出力される共に、ラッチ23.ゲー1−30を介し
て自身の入力へフィードバックされる。フラグ作成部9
(第1図)からのキーオンフラグKOFはアンド回路3
1及び32を介して1 それぞれカウンタ14及びカウ
ンタ15のカウントイネーブル人力ENに入力する。さ
らにこの信号KOFはインバータ46を介してオア回路
44に入力する。フラグ作成部、9からのパワーフラグ
PF及び相関値フラグCFは共に、ナンド回路45に入
力し、その出力はオア回路36及び39を介して、それ
ぞれカウンタ14及び15のカウントリセット人力Rに
入力すると共に、オア回路44に入力する。またフラグ
作成部9からのキーアタックフラグKATF、及びオア
回路37を介したカウンタ14の各ビン1〜出力はオア
回路35.及びアンド回路31を介してカウンタ14の
カウントイネーブル人力ENに入力する。一方フラグ作
成部9からの相関値フラグCFはフレームク1:Iツク
φ卆によって動作するラッチ24に、そしてその出力は
う・ノチ25に接続される。ラッチ24の出力及びイン
ノ\−・夕4Bを介したランチ25の出力はアンド回路
34に人力する。
The output of latch 22 is output to code generator 11 (FIG. 1), and latch 23. It is fed back to its own input via game 1-30. Flag creation section 9
The key-on flag KOF from (Figure 1) is AND circuit 3
1 and 32 to the count enable human power EN of counter 14 and counter 15, respectively. Furthermore, this signal KOF is input to the OR circuit 44 via an inverter 46. Both the power flag PF and the correlation value flag CF from the flag generation unit 9 are input to the NAND circuit 45, and the output thereof is input to the count reset manual R of the counters 14 and 15 via OR circuits 36 and 39, respectively. It is also input to the OR circuit 44. Further, the key attack flag KATF from the flag creation section 9 and the output from each bin 1 of the counter 14 via the OR circuit 37 are output from the OR circuit 35. and is inputted to the count enable manual power EN of the counter 14 via the AND circuit 31. On the other hand, the correlation value flag CF from the flag generating section 9 is connected to a latch 24 operated by the frame clock 1:I block φ, and its output is connected to a latch 25. The output of the latch 24 and the output of the lunch 25 via the input terminal 4B are input to the AND circuit 34.

テント回路34の出力及びオア回路40を介したカウン
タ15の各ビット出力ばオア回路38及びアンド回路3
2を介して、カウンタ15のカウントイネーブル人力E
Nに入力する。カウンタ14及びカウンタ15はフレー
ムクロックψ、によってカウントを行ない、その各ヒン
ト出力はそれぞれ論理回路16及び17に入力する。1
6及び17において各カウント値が0のときにHとなる
出力49及び54は、共にオア回路41及びアント回路
33を介してゲート29を制御する。このときアンド回
路33の他方の入力にはオア回路44の出力がインバー
タ47を介して入力する。
The output of the tent circuit 34 and each bit output of the counter 15 via the OR circuit 40 are the OR circuit 38 and the AND circuit 3.
2, the counter 15 counts enable human power E
Enter N. Counter 14 and counter 15 count based on frame clock ψ, and their respective hint outputs are input to logic circuits 16 and 17, respectively. 1
Outputs 49 and 54, which become H when each count value is 0 in 6 and 17, both control the gate 29 via the OR circuit 41 and the ant circuit 33. At this time, the output of the OR circuit 44 is input to the other input of the AND circuit 33 via the inverter 47.

論理回路16においてカウント値が1〜3の時に■]と
なる出力50はケー1−26を制御し、また論理回路1
7においてカウント値が1〜3の時とHとなる出力55
ばオア回路44に入力する。論理回路16及び17にお
いてカラン]・値が4〜7の時にHとなる出力51及び
56はオア回路42を介してゲート27を制御する。さ
らに、論理回路16及び17においてカウント値が8〜
IIの時に11となる出力52及び57はオア回路43
を介してゲート28を制御する。また論理回路16及び
17においてカウント値が12になった時にHとなる出
力53及び58は、それぞれオア回路36及び39を介
してカウンタ14及び15のリセノ仁入力Rに入力する
。一方、オア回路44の出力はゲート30を制御する。
When the count value is 1 to 3 in the logic circuit 16, the output 50 which becomes ■] controls the case 1-26, and also controls the logic circuit 1.
7, the output 55 becomes H when the count value is 1 to 3.
input to the OR circuit 44. In the logic circuits 16 and 17, the outputs 51 and 56, which become H when the value is 4 to 7, control the gate 27 via the OR circuit 42. Further, in the logic circuits 16 and 17, the count value is 8 to
Outputs 52 and 57 which become 11 when II is OR circuit 43
The gate 28 is controlled via the gate 28. Further, outputs 53 and 58 which become H when the count value reaches 12 in the logic circuits 16 and 17 are input to the inputs R of the counters 14 and 15 via OR circuits 36 and 39, respectively. On the other hand, the output of the OR circuit 44 controls the gate 30.

以上のような構成のピンチ制御部10によって前記ピッ
チデータ制御を行なうための動作について、第3図を併
用しながら説明を行う。
The operation for performing the pitch data control by the pinch control section 10 having the above configuration will be explained with reference to FIG. 3.

第3図は各フラグと2つのカウンタ14及び15、及び
ピッチデータ制御部10からコート′ジェネレータII
へ出力されるピッチデータとの関係を示すタイミングチ
ャートである。ます音声力く入力することによってPF
が■(となる。2フレーム遅れてCF力月]となる(こ
の遅延は回路構成りこよるものである)。続いて2フレ
ームの遅延でKOFがI]となり、同時にKATFが1
フレームだけI−1となる。そしてKATFが11とな
り、KOF。
FIG. 3 shows each flag, two counters 14 and 15, and a code generator II from the pitch data control section 10.
3 is a timing chart showing the relationship between the pitch data and the pitch data output to. PF by inputting voice more forcefully
becomes ■(with a delay of 2 frames, CF Rikitsu) (this delay depends on the circuit configuration). Then, with a delay of 2 frames, KOF becomes I], and at the same time, KATF becomes 1
Only the frame becomes I-1. Then KATF becomes 11 and KOF.

PF、CFが共に■]であることを条件に、カウンタ1
4がカウントを開始する。この条件はメ′ア回路35及
びアン1回路31を介してカウントイネーブル人力EN
がHとなることにより成立する。
Counter 1 on the condition that both PF and CF are ■]
4 starts counting. This condition is determined by the count enable manual input via the main circuit 35 and the un1 circuit 31.
This holds true when becomes H.

またカウントを開始するK A i’ FはLとなるが
Also, K A i' F, which starts counting, becomes L.

カウンタの出力の4 bitのうち少なくとも1bit
が[Iとなるのでオア回路37の出力は11となり。
At least 1 bit out of 4 bits of counter output
becomes [I, so the output of the OR circuit 37 becomes 11.

オア回路35及びアンド回路31を介してカウントイネ
ーブル入力ENがHとなりカウントを継続する。このカ
ウント動作によって連続的に抽出データが選択されて出
力される。
The count enable input EN becomes H via the OR circuit 35 and the AND circuit 31 and continues counting. Extracted data is continuously selected and output by this counting operation.

次にこのカウンタ14のカウント値が1〜3の時は、ゲ
ート26を開いてう・ノチ18に入力している記1.9
部6 (第1図)からの未処理のピッチデータNIをラ
ッチ22を介して選択的にコートジェネレーク11へ出
力する。この動作は論理回路16の出力50がHとなる
ことによって実現される。次にカウント値が4〜7の時
は、論理回路16の出力51が11となり、オフ回路4
2を介してゲート270制御端子に加わるのでゲート2
7が開き、ラッチ19に入力しているエラー除去部7か
らのピッチデータN2をラッチ22に選択的に出力する
。さらにカウント値が8〜11の時はゲート28が開き
、ラッチ20に入力している移動平均演算部8からの4
フレーム移動平均出力ヒ7ソチテータNdを選択的にう
・ノチ22に出力する。
Next, when the count value of this counter 14 is 1 to 3, the gate 26 is opened and input is made to the notch 18.
The unprocessed pitch data NI from the section 6 (FIG. 1) is selectively outputted to the court generator 11 via the latch 22. This operation is realized by the output 50 of the logic circuit 16 becoming H. Next, when the count value is 4 to 7, the output 51 of the logic circuit 16 becomes 11, and the off circuit 4
2 to the gate 270 control terminal, so gate 2
7 opens, and the pitch data N2 from the error removing section 7 input to the latch 19 is selectively output to the latch 22. Furthermore, when the count value is 8 to 11, the gate 28 is opened and the 4
The frame moving average output histitator Nd is selectively outputted to the back 22.

この動作は論理回路16の出力52がtlとなりオア回
路43を介してゲート28の制御端子に14が加わるこ
とによってなされる。
This operation is performed when the output 52 of the logic circuit 16 becomes tl and 14 is applied to the control terminal of the gate 28 via the OR circuit 43.

そしてカウンタ14のカウント値が12になった時点で
出力53がHとなりオア回路36を介してカウンタ14
はクリヤされカウントを終了する。
Then, when the count value of the counter 14 reaches 12, the output 53 becomes H and is output to the counter 14 via the OR circuit 36.
is cleared and the count ends.

それ以降は、PF、CF、KOFが共に11であること
を条件にゲート29が開き、ラッチ21に入力している
移動平均演算部8からのヒステリシスイ」8フレーム移
動平均出力ピノチデータN8を選択的にランチ22に出
力する。この動作はオア回路41を介した出力49及び
、ナンド回路45.。
After that, the gate 29 is opened on the condition that PF, CF, and KOF are all 11, and the 8-frame moving average output pinoch data N8 is selectively outputted from the moving average calculation unit 8 input to the latch 21. It will be output on Lunch 22. This operation is performed by outputting an output 49 via an OR circuit 41 and a NAND circuit 45 . .

オア回路44.インバータ47を介した出力がHとなり
、これによってアンl、回路33がI]となり。
OR circuit 44. The output through the inverter 47 becomes H, which causes the circuit 33 to become I].

それがゲート29の制御端子に加わることで実現される
This is achieved by applying it to the control terminal of gate 29.

次にキーオン状態(KOFが旧において子音フレームが
検出された場合、すなわちPFがH。
Next, when a consonant frame is detected in the key-on state (KOF is old), that is, PF is H.

CF力月−となった場合には、ゲー130が開きその直
前のフレームのピッチテークBN(第2図の場合Nθ)
を選択的にラッチ22へ出力する。この動作はナンド回
路45及びオア回路44が■4となり、ケート30の制
御端子に加わる事で実現される。そして子音フレームが
終了し9次の発音フレームになった時カウンタ15がカ
ウントを開始する。すなわちKOFがHの状態でCFが
Hに立上がるとカウンタ15がカラン)・を開始する。
When the CF Rikigetsu is -, the game 130 opens and the pitch take BN of the frame immediately before that (Nθ in the case of Fig. 2) is displayed.
is selectively output to the latch 22. This operation is realized by connecting the NAND circuit 45 and the OR circuit 44 to the control terminal of the gate 30. Then, when the consonant frame ends and the ninth pronunciation frame arrives, the counter 15 starts counting. That is, when CF rises to H while KOF is at H, the counter 15 starts counting.

この動作はラッチ24及びインバータ48を介したラッ
チ25によって1アレーン、に対応したパルスかアンド
回路34.オア回路38を介してカウンタ15のカウン
トイネーブル人力ENに入力することで実現される。
This operation is performed by the latch 24 and the latch 25 via the inverter 48 to generate a pulse corresponding to the AND circuit 34. This is realized by inputting it to the count enable manual power EN of the counter 15 via the OR circuit 38.

そしてカウントが開始されると、オア回路40゜48及
びアンド回路32を介してカウントイネーブル人力EN
がIIとなり、カウントを継続する。
When counting starts, the count enable manual input signal is input via the OR circuit 40.48 and the AND circuit 32.
becomes II and continues counting.

次にカウント値が1〜3の時は子音フレームの時のピッ
チデータBNを引き続き選択的にラッチ22に出力する
。この動作は論理回路15の出力55が■4となりオア
回路44を介してゲート30が開くことで実現される。
Next, when the count value is 1 to 3, the pitch data BN for the consonant frame is selectively output to the latch 22. This operation is realized when the output 55 of the logic circuit 15 becomes 4 and the gate 30 is opened via the OR circuit 44.

次にカウント値が4〜7の時は、カウンタ14の時と同
様にゲート27を開き、ピッチデータN2を選択的にラ
ッチ22に出力する。これは出力56がHとなりゲート
27が開くことにより実現される。
Next, when the count value is 4 to 7, the gate 27 is opened in the same way as the counter 14, and the pitch data N2 is selectively output to the latch 22. This is realized by the output 56 becoming H and the gate 27 opening.

さらにカウント値が8〜11の時は同様にゲート28が
開き、ピッチガータN4を選択的にラッチ22に11.
1力Jる。ごれは出力57かIIとなりゲー1〜28が
開くごとで実現される。そしてカラン1値か11を越え
たフL−−−Aではやはり同様に出力58によってカウ
ンタ15の出力iJクリア、され。
Further, when the count value is between 8 and 11, the gate 28 similarly opens, and the pitch gutter N4 is selectively set to the latch 22 to 11.
1 power Juru. The dirt becomes output 57 or II and is realized every time games 1 to 28 are opened. Then, when the number 1 exceeds 11, the output iJ of the counter 15 is similarly cleared by the output 58.

力・“ノン1を終了する。そしてその1我ケー129が
開きピッチテークN8を選択的にう、チ22に出力する
。ごの動作は出力54がT−1となりゲー1−29が開
くごとで実現される。
Power/Non 1 is completed.Then, the first key 129 opens and selectively outputs the pitch take N8 to the second gear 22.The operation is as follows every time the output 54 becomes T-1 and the first gear 1-29 opens. Realized.

最後に発音の最後の部分においてCFに続いてPFがI
、となり、KOFが2フレーム遅れてLとなるまでは1
発音が不安定に続いている可能性があるので1ゲート3
0が開きやはりその直前のアレーン\のピッチデータB
N(第2図の場合N e )を選択的にラッチ22に出
力する。
Finally, in the last part of the pronunciation, PF is followed by I.
, and 1 until KOF reaches L with a delay of 2 frames.
1 gate 3 as the pronunciation may continue to be unstable.
0 opens, and pitch data B of Arene\ just before that
N (N e in the case of FIG. 2) is selectively output to the latch 22.

このシ」作はチン1゛回路45及びオア回路44を介し
−ζヶ−1−30が開くことで実現される。
This operation is realized by opening -ζ-1-30 through the circuit 45 and the OR circuit 44.

第4図はカウンタ14及び15のカウンタ値と選択され
るピッチテークの種類との関係をまとめて示したもので
ある。それぞれの力Y′ノン夕においてカウント値が1
へ3の時、カウンタ14にオンいてば発音の始まりなの
で、未処理ピノ−y−テークN1が選択される。またカ
ウンタ15において一子音に続くフレームなので子音の
直前のフし・−ノ、のピッチテークBNが選択される。
FIG. 4 collectively shows the relationship between the counter values of the counters 14 and 15 and the type of pitch take to be selected. The count value is 1 at each force Y'
When it is 3, if the counter 14 is on, it means the beginning of sound generation, so the unprocessed pinot-y-take N1 is selected. Furthermore, since the frame follows one consonant, the counter 15 selects the pitch take BN of Fushi - -no immediately before the consonant.

さらに1発音の始まりの部分の力・:ノント値4〜7.
8〜11においては、未処理のピッチテーク1フレーJ
・のエラー除去を行なったピッチテーク4フレームの移
動平均を施したピッチテーク、ヒステリシス(18フレ
ーム移nJ乎均を施したピッチデータの順に選択的に採
用するようにしているので、非定宙な変化及び子音部分
の両方に対して。
Furthermore, the force at the beginning of each pronunciation: nont value 4 to 7.
8 to 11, unprocessed pitch take 1 frame J
・Pitch take with error removed Pitch take with moving average of 4 frames, pitch data with hysteresis (18 frames shifted) are selectively adopted in this order, so irregular changes and for both consonant parts.

誤抽出の少ないピッチテークをヨー1′ジエネレータ1
1へ供給することがてきイ)。また子音部分及び発音の
終わりの部分においては、ピッチテークが途切れること
なく、なめらかに接続されるノこめ。
Yaw 1' generator 1 for pitch take with less erroneous extraction
1). Also, in the consonant part and the final part of the pronunciation, the pitch take is seamless and connected smoothly.

コードジェネレータ11゛ζ作成される音階の変化が自
然なものになる。尚9本発明の実施例においては相関値
フラグCFオフを子音部分としているが、これば子音部
分に限らず2例えば楽器より発生ずる音階の変化時等も
これにり1応する。
The changes in the scale created by the chord generator 11'ζ become natural. In the embodiment of the present invention, the correlation value flag CF off is set for consonant parts, but this applies not only to consonant parts, but also to changes in scales generated by musical instruments, for example.

〔発明の効果〕〔Effect of the invention〕

本発明によれば音声入力に対してディジタル式ピンチ抽
出器によってピッチを抽出し、各抽出情報から発音の始
まり及び終わりの部分、又は子音部分などを適切に判別
することができ、それに従って楽音発生のためのピッチ
データを適切に選択することができる。
According to the present invention, the pitch is extracted from the voice input using a digital pinch extractor, and the beginning and end of pronunciation, the consonant part, etc. can be appropriately determined from each extracted information, and musical sounds are generated accordingly. It is possible to appropriately select pitch data for

本発明によれば音声で楽音を入力できるため。According to the present invention, musical tones can be input by voice.

指などによる訓練を必要とせず、楽音を制711できる
Musical sounds can be controlled without the need for finger training.

またディジクル式であるため、ディジタル式音源チップ
VCO(電圧制御発振器)なとb節屯に接続できる。
Furthermore, since it is a digital type, it can be connected to a digital sound source chip such as a VCO (voltage controlled oscillator).

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明による実施例の全体的な回路構成図、第
2図は第1図のピッチデータ制御部の詳細な回!i’/
)措成図、第3図は本発明の動作タイミングチャート、
第4図はカウンタΔNC(14) 。 5NC(15)のカウント値と選択ピッチデータのf!
類との関係図である。 10=−ピンチテーク制falli7B、 14 、 
15・・・カウンタ、 16.17・・・論理回路、 
]、8.19.20.21,22,23.24、.25
・・ ラッヂ、 2G、27゜28.2’9.30・・
・ゲート 特許出願人 カシオ計算機株式会社 代理人弁理士 大 菅 義 之 第3図 第4図
FIG. 1 is an overall circuit configuration diagram of an embodiment according to the present invention, and FIG. 2 is a detailed circuit diagram of the pitch data control section of FIG. 1. i'/
) Figure 3 is an operation timing chart of the present invention.
FIG. 4 shows the counter ΔNC (14). 5NC (15) count value and selected pitch data f!
It is a diagram of the relationship with the class. 10=-pinch take system falli7B, 14,
15...Counter, 16.17...Logic circuit,
], 8.19.20.21, 22, 23.24, . 25
・・Rudge, 2G, 27゜28.2'9.30・・
・Gate patent applicant Yoshiyuki Osuga, patent attorney for Casio Computer Co., Ltd. Figure 3 Figure 4

Claims (5)

【特許請求の範囲】[Claims] (1)少くとも音声の開始部分と終了部分の時間的位置
を検出する検出手段と、前記音声のピッチデータを抽出
する抽出手段と、該ピッチデータに対して異なった加工
を行なう複数の加工手段と。 検出された前記各時間的位置に一対応して前記複数の加
工手段の加工ピッチデータを順次選択する手段と、ごの
選択手段から出力される加工ピッチデータに基づいて楽
音を発生ずる楽音発生手段とを有することを特徴とする
音声入力による楽音発生装置。
(1) A detection means for detecting the temporal position of at least the start and end portions of audio, an extraction means for extracting pitch data of the audio, and a plurality of processing means for performing different processing on the pitch data. and. means for sequentially selecting machining pitch data of the plurality of machining means in correspondence with each of the detected temporal positions; and musical sound generating means for generating musical tones based on the machining pitch data output from each selection means. 1. A musical sound generation device using voice input, characterized in that it has the following.
(2)前記検出手段は前記抽出手段の出力の変化分が特
定(a以」二であることを検出し、前記変化点の時間的
位置をめる抽出変化検出手段を有することを特徴とする
特許請求の範囲第1項記載の音声入力による楽音発生装
置。
(2) The detecting means includes extraction change detecting means for detecting that the amount of change in the output of the extracting means is a specific value (a or more) and determining the temporal position of the point of change. A musical tone generating device using voice input according to claim 1.
(3)前記選択手段は前記音声の開始部分の時間的位置
と前記抽出変化検出手段より得られる時間的位置との少
くとも一方の直後の時間的位置からカウントを開始する
カウンタと、該カウンタのカウント出力結果に従って前
記加工ピッチデータを選択する手段とを有することを特
徴とする特許請求の範囲第2項記載の音声入力による楽
音発生装置。
(3) The selection means includes a counter that starts counting from a temporal position immediately after at least one of the temporal position of the start portion of the audio and the temporal position obtained by the extracted change detection means; 3. The musical tone generating device according to claim 2, further comprising means for selecting the processed pitch data according to a count output result.
(4)前記選択手段は音声の終了部分あるいは前記抽出
変化検出手段より得られる時間的位置の少くとも一方の
直後の時間的位置の直前の部分の加工ピッチデータを継
続的に出力する手段を有することを特徴とする特許請求
の範囲第2項記載の音声入力による楽音発生装置。
(4) The selection means has means for continuously outputting the processed pitch data of the end part of the audio or the part immediately before the temporal position immediately after at least one of the temporal positions obtained by the extracted change detection means. A musical tone generating device according to claim 2, characterized in that the musical tone generating device uses voice input.
(5)前記複数の加工手段はば抽出データのエラー除去
手段と抽出データの平均処理手段であることを特徴とす
る特許請求の範囲第1項記載の音声入力による楽音発生
装置。
(5) The musical sound generation device according to claim 1, wherein the plurality of processing means are extracted data error removal means and extracted data averaging means.
JP59013076A 1983-02-27 1984-01-27 Musical tone generator with voice input Granted JPS60158490A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP59013076A JPS60158490A (en) 1984-01-27 1984-01-27 Musical tone generator with voice input
US06/583,091 US4633748A (en) 1983-02-27 1984-02-23 Electronic musical instrument
DE19843407078 DE3407078A1 (en) 1983-02-27 1984-02-27 ELECTRONIC MUSIC INSTRUMENT
GB08405013A GB2138988B (en) 1983-02-27 1984-02-27 Electronic musical instrument
US07/453,040 USRE33739E (en) 1983-02-27 1989-12-12 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59013076A JPS60158490A (en) 1984-01-27 1984-01-27 Musical tone generator with voice input

Publications (2)

Publication Number Publication Date
JPS60158490A true JPS60158490A (en) 1985-08-19
JPH0261760B2 JPH0261760B2 (en) 1990-12-20

Family

ID=11823062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59013076A Granted JPS60158490A (en) 1983-02-27 1984-01-27 Musical tone generator with voice input

Country Status (1)

Country Link
JP (1) JPS60158490A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01312595A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH01312596A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH01312598A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH01312597A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH0298A (en) * 1987-10-14 1990-01-05 Casio Comput Co Ltd Frequency controller

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0298A (en) * 1987-10-14 1990-01-05 Casio Comput Co Ltd Frequency controller
JPH01312595A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH01312596A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH01312598A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JPH01312597A (en) * 1988-06-10 1989-12-18 Casio Comput Co Ltd Electronic musical instrument
JP2759149B2 (en) * 1988-06-10 1998-05-28 カシオ計算機株式会社 Music control device

Also Published As

Publication number Publication date
JPH0261760B2 (en) 1990-12-20

Similar Documents

Publication Publication Date Title
USRE33739E (en) Electronic musical instrument
JPH08335091A (en) Voice recognition device, voice synthesizer, and voice recognizing/synthesizing device
JPS60158490A (en) Musical tone generator with voice input
JP2876861B2 (en) Automatic transcription device
De Mori A descriptive technique for automatic speech recognition
US4937869A (en) Phonemic classification in speech recognition system having accelerated response time
JP3523382B2 (en) Voice recognition device and voice recognition method
JPS58147798A (en) Voice synthesizer
CN108573689B (en) Electronic musical instrument, musical sound generating method, and recording medium
JPS6050600A (en) Rule synthesization system
JPS60192993A (en) Musical sound generator by inputting voice
JPS60158493A (en) Error remover
Paulus Acoustic modelling of drum sounds with hidden markov models for music transcription
JPS5812000A (en) Voice synthesizer with voiceless plosive
JPS59176782A (en) Digital sound apparatus
JPH0413200A (en) Karaoke recorded instrumental accompaniment) device provided with voicing function
JPH03123399A (en) Voice recognizing device
Gagnon et al. A high level musical score alignment technique based on fuzzy logic and dtw
JP5503484B2 (en) Speech synthesis apparatus and speech synthesis program
JPS60158492A (en) Running mean computing unit
JP2000029487A (en) Speech data converting and restoring apparatus using phonetic symbol
JP2001312290A (en) Voice synthesizing device
JPH04242290A (en) Performance information generation device
JPS58209796A (en) Voice message identification system
JPS626299A (en) Electronic singing apparatus

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term