JPH071429B2 - Chord generator - Google Patents

Chord generator

Info

Publication number
JPH071429B2
JPH071429B2 JP59048640A JP4864084A JPH071429B2 JP H071429 B2 JPH071429 B2 JP H071429B2 JP 59048640 A JP59048640 A JP 59048640A JP 4864084 A JP4864084 A JP 4864084A JP H071429 B2 JPH071429 B2 JP H071429B2
Authority
JP
Japan
Prior art keywords
pitch
data
chord
processing
pitch data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59048640A
Other languages
Japanese (ja)
Other versions
JPS60192993A (en
Inventor
豊太郎 時本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP59048640A priority Critical patent/JPH071429B2/en
Publication of JPS60192993A publication Critical patent/JPS60192993A/en
Publication of JPH071429B2 publication Critical patent/JPH071429B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 入力波形信号のピッチを抽出し、このピッチデータに従
って、和音を発生させる和音発生装置に関する。
Description: TECHNICAL FIELD The present invention relates to a chord generating device that extracts a pitch of an input waveform signal and generates a chord according to the pitch data.

〔従来技術〕[Prior art]

電子技術の進歩により,電子的に楽音波形を発生し,ス
ピーカにより楽音を発生することが可能となった。この
前述した装置は一般的には電子楽器と呼ばれている。こ
の電子楽器は鍵によって発生すべき楽音を選択する方法
が一般的であり,さらにレバースイッチ等によってピア
ノの音や他の楽器の音を指定して発生することができ
る。
Advances in electronic technology have made it possible to generate musical tone waveforms electronically and to produce musical tones using speakers. The above-mentioned device is generally called an electronic musical instrument. This electronic musical instrument generally uses a key to select a musical tone to be generated, and a lever switch or the like can be used to specify a piano sound or another musical instrument sound.

〔従来技術の問題点〕[Problems of conventional technology]

このように従来の電子鍵盤楽器を演奏するには相当の技
術を必要とする。特に、鍵盤の複数の鍵を押えなければ
ならない和音演奏は、初心者には極めて困難である。そ
こで、別の演奏形態として、音声等の入力波形信号のピ
ッチを抽出して、抽出されたピッチ及び指定された任意
の和音の種類とを基に和音構成音を生成することによ
り、和音演奏を行えるようにすることが提案された。
Thus, playing a conventional electronic keyboard instrument requires a considerable amount of technology. In particular, playing chords that require pressing a plurality of keys on the keyboard is extremely difficult for a beginner. Therefore, as another performance mode, a pitch of an input waveform signal such as a voice is extracted, and a chord constituent tone is generated based on the extracted pitch and a designated arbitrary chord type, thereby performing a chord performance. It was suggested to be able to do it.

このような方法によれば、演奏者が鍵盤を操作する必要
がなく、初心者でも簡単に和音演奏が行うことができる
ようになる。
According to such a method, the performer does not need to operate the keyboard, and even a beginner can easily perform a chord performance.

しかしながら、入力波形信号から抽出されたピッチは、
ノイズやゆらぎを有しているため、不自然な音高変更が
生じやすい。しかもこうしたノイズやゆらぎは、抽出が
開始されてからの時間経過に伴って発生態様が変化する
ことが知られている。
However, the pitch extracted from the input waveform signal is
Since it has noise and fluctuations, unnatural pitch changes are likely to occur. Moreover, it is known that such noises and fluctuations change their generation modes with the lapse of time after the start of extraction.

〔発明の目的〕[Object of the Invention]

本発明の目的は、抽出されたピッチ及び指定された和音
の種類に基づいて和音演奏を行うことのできる和音発生
装置において、抽出されたピッチに含まれるノイズやゆ
らぎの影響を除去して不自然な音高変更を防止すること
を目的とする。
An object of the present invention is, in a chord generating device capable of playing a chord based on the extracted pitch and the type of a specified chord, removes the influence of noise and fluctuation included in the extracted pitch, and makes it unnatural. The purpose of this is to prevent changes in pitch.

〔発明の構成〕[Structure of Invention]

本発明は上記目的を達成するために、 入力波形信号のピッチデータを抽出する抽出手段と、 前記抽出手段にて抽出されたピッチデータに対し、当該
抽出されたピッチデータの変化に基づいて夫々異なる加
工処理を施して加工ピッチデータを得る加工処理手段
と、 複数の和音の種類の中から任意の和音の種類を指定する
入力操作手段と、 前記加工処理手段からの加工ピッチデータにて表わされ
る音高で前記和音の根音を発生するように指定する根音
指定手段と、 前記入力操作手段にて指定された和音の種類に基づいて
前記根音当該和音の他の複数の構成音との夫々の音高差
に対応する複数の音高差データを出力する出力手段と、 この出力手段から出力する前記音高差データと前記加工
処理手段からの加工ピッチデータと演算して当該和音の
構成音の夫々のピッチデータを得る演算手段と、 この演算手段にて求められた夫々のピッチデータにて表
わされる音高で前記他の複数の構成音を発生するように
指定する構成音指定手段と、 を具備したことを特徴とする。
In order to achieve the above-mentioned object, the present invention differs from the extraction means for extracting the pitch data of the input waveform signal, and the pitch data extracted by the extraction means, based on the change in the extracted pitch data. Processing means for performing processing to obtain processing pitch data, input operation means for designating an arbitrary chord type from a plurality of chord types, and a sound represented by the processing pitch data from the processing means. A root note designating means for designating to generate a root note of the chord at a high pitch, and the root note based on the type of the chord specified by the input operation means, and a plurality of other constituent notes of the chord. Output means for outputting a plurality of pitch difference data corresponding to the pitch difference, and the pitch difference data output from the output means and the processing pitch data from the processing means to calculate the corresponding chord Calculating means for obtaining pitch data of each of the synthesized sounds, and constituent sound designating means for designating to generate the other plurality of constituent sounds at pitches represented by the respective pitch data obtained by the calculating means. And is provided.

〔発明の実施例〕Example of Invention

第1図は本発明の実施例の回路構成図であり,音声入力
に対応して楽音を発生する電子楽器の構成を示してい
る。音声を電気信号に変換するマイクロホン1の出力は
前処理部2に加わる。前処理部2の出力はピッチ抽出部
3に接続される。ピッチ抽出部3の出力はラッチ4を介
してプロセッサ(CPU)5に加わる。プロセッサ5の出
力はピッチ抽出部3,記憶部6,エラー除去部7,移動平均演
算部8,フラグ作成部9に接続されている。記憶部6の出
力はエラー除去部7とピッチデータ制御部10に,エラー
除去部7の出力は移動演算制御部10に,エラー除去部7
の出力は移動演算部8とピッチデータ制御部10にそれぞ
れ加わる。
FIG. 1 is a circuit configuration diagram of an embodiment of the present invention, showing a configuration of an electronic musical instrument which generates a musical sound in response to a voice input. The output of the microphone 1 for converting voice into an electric signal is applied to the preprocessing unit 2. The output of the preprocessing unit 2 is connected to the pitch extraction unit 3. The output of the pitch extraction unit 3 is applied to the processor (CPU) 5 via the latch 4. The output of the processor 5 is connected to the pitch extraction unit 3, the storage unit 6, the error removal unit 7, the moving average calculation unit 8, and the flag creation unit 9. The output of the storage unit 6 is sent to the error removal unit 7 and the pitch data control unit 10, and the output of the error removal unit 7 is sent to the movement calculation control unit 10 and the error removal unit 7
Is applied to the movement calculation unit 8 and the pitch data control unit 10, respectively.

移動演算部8の出力は,ピッチデータ制御部10に接続さ
れる。
The output of the movement calculation unit 8 is connected to the pitch data control unit 10.

ピッチデータ制御部10の出力は外部制御部14に接続され
る。又フラグ作成部9の出力はピッチデータ制御部10を
外部制御部14に接続される。外部制御部14にはキー入力
部5の出力が接続されており,外部制御部14の出力はコ
ードジェネレータ11に接続される。
The output of the pitch data control unit 10 is connected to the external control unit 14. The output of the flag creating section 9 connects the pitch data control section 10 to the external control section 14. The output of the key input unit 5 is connected to the external control unit 14, and the output of the external control unit 14 is connected to the code generator 11.

コードジェネレータ11の出力は楽音発生部12に接続さ
れ,その楽音発生部12の出力は電気信号を音に変換する
スピーカ13に接続される。
The output of the code generator 11 is connected to the musical sound generating unit 12, and the output of the musical sound generating unit 12 is connected to the speaker 13 which converts an electric signal into a sound.

マイクロホン1で電気信号に変換された音声信号は前処
理部2に加わり,前処理がなされる。この前処理は第1
には例えばローパスフィルタ(LPF)等によって帯域外
の信号の除去を行う。この帯域外の除去は次段によって
なされるピッチ抽出の誤動作は防止するためになされる
ものである。さらに前処理は第2にはオートマチックゲ
インコントロール回路によって帯域外が除去された入力
音声信号を特定の振幅値になるように増幅する。
The voice signal converted into an electric signal by the microphone 1 is added to the pre-processing unit 2 and pre-processed. This pretreatment is the first
For example, a signal outside the band is removed by a low pass filter (LPF) or the like. The removal out of the band is performed in order to prevent a malfunction of pitch extraction performed by the next stage. Further, in the preprocessing, secondly, the input audio signal from which the out-of-band is removed by the automatic gain control circuit is amplified to have a specific amplitude value.

第3には前述の特定の振幅値となった入力音声信号をア
ナログ/デジタル変換回路によってデジタルデータに変
換する。前述の特定の振幅値になるような増幅は,この
アナログ/データ変換回路の出力ビット数を有効にする
ためになされるものである。
Thirdly, the input audio signal having the above-mentioned specific amplitude value is converted into digital data by the analog / digital conversion circuit. The amplification to obtain the above-mentioned specific amplitude value is made to make the number of output bits of this analog / data conversion circuit effective.

前処理部2で処理された音声信号即ちデジタル音声信号
はピッチ抽出部3に加わる。ピッチ抽出部3はプロセッ
サ(CPU)5の制御によって入力音声信号の基本周波数
のピッチを抽出する。ピッチ抽出部3は詳細は特願昭58
−31284,特願昭58−31285,特願昭58−31286に記載され
ているが,音声データ量子化回路,音階抽出回路,3値相
関処理回路を有し,これらの回路によってピッチ抽出を
行なう。データ量子化回路は音声デジタルデータの最大
値と最小値を特定時間に亘って順次求め,その最大値,
最小値を用いて例えば3値化するためのそれぞれのスレ
ッシホールドレベルを決定する。そしてそのスレッシホ
ールドで入力信号を例えば3値化する。音階抽出回路は
前述の音声デジタルデータを用いて3値化した音声3値
化データを抽出する音階に対応させて遅延させ,その遅
延データと入力データとを乗算する回路である。この回
路によって時間に関する相関が取られる。このデータは
単に遅延データと入力データとの単なる時間に関する相
関を表すものであり,このデータを更に処理してピッチ
の抽出を行なう。この抽出を行なうのが前述した3値相
関処理回路である。3値相関処理回路はピッチ抽出を行
なうためのウインド処理等を行なう回路である。即ち,
抽出する音階に対応して前述の音階抽出回路より複数の
データが抽出されるので,この3値相関処理回路でその
複数のデータをウインド処理,換言するならば音階に関
係して重み付けを行ない,さらにそれを特定時間(1フ
レーム)累算する。そして,その累算値(遅延時間に対
応した累算値)の中から最大値を求め,その最大値に対
応した遅延時間よりピッチを求め出力する。この出力は
入力した音声(高調波を含む)の基本波のピッチに関係
したデータである。
The voice signal processed by the preprocessing unit 2, that is, the digital voice signal is added to the pitch extraction unit 3. The pitch extraction unit 3 extracts the pitch of the fundamental frequency of the input voice signal under the control of the processor (CPU) 5. Details of the pitch extraction unit 3 are Japanese Patent Application No. Sho 58.
-31284, Japanese Patent Application No. 58-31285, Japanese Patent Application No. 58-31286 have a voice data quantization circuit, a scale extraction circuit, and a three-value correlation processing circuit, and pitch extraction is performed by these circuits. . The data quantization circuit sequentially finds the maximum and minimum values of audio digital data over a specific time, and then determines the maximum value,
Using the minimum value, for example, each threshold level for ternarization is determined. Then, the input signal is ternarized, for example, by the threshold. The scale extraction circuit is a circuit for delaying the tone ternary data that has been ternarized using the above-mentioned voice digital data in correspondence with the tone scale from which it is extracted, and multiplying the delay data and the input data. This circuit correlates over time. This data simply represents the time-related correlation between the delay data and the input data, and this data is further processed to extract the pitch. The above-described ternary correlation processing circuit performs this extraction. The ternary correlation processing circuit is a circuit that performs window processing for pitch extraction. That is,
Since a plurality of data are extracted from the above-mentioned scale extraction circuit corresponding to the scale to be extracted, this ternary correlation processing circuit performs window processing on the plurality of data, in other words, performs weighting in relation to the scale, Further, it is accumulated for a specific time (1 frame). Then, the maximum value is obtained from the accumulated value (accumulated value corresponding to the delay time), and the pitch is obtained and output from the delay time corresponding to the maximum value. This output is data related to the pitch of the fundamental wave of the input voice (including harmonics).

前述のピッチ抽出部3より出力されたピッチデータはラ
ッチ4,プロセッサ5を介して記憶部6に格納される。こ
の後このピッチデータはピッチデータ制御部10に転送さ
れると共に,エラー除去部7へ転送される。エラー除去
部7は記録部6に格納されたデータを用いて特定なピッ
チデータの変化特に1フレームにおいてのみ例えば1オ
クターブ以上の変化を検出し,その変化が検出された時
はそのデータを変化する前のデータにもどすための回路
である。尚,急激な音階の変化もありうるが,エラー除
去部7においては2フレーム以上連続してピッチデータ
が急激に変化した場合は,上記動作は行なわないように
しており,この時には1フレーム遅れでデータが変化す
るようになされている。エラー除去部7において1フレ
ームエラー除去されたエータはピチデータ制御部10へ転
送されると共に移動平均演算部8において平均がなされ
る。そしてその出力としては複数の平均化処理を行なっ
たものが出力される。即ち第1の出力としてエラー除去
部7から入力した各ピッチデータに対して現在を含む過
去4フレームにわたる加算平均を行なったものが出力さ
れる。また第2の出力として各ピッチデータに対して現
在を含む過去6フレームと,1つ前の加算平均出力とに対
して適当に重み付けを行なって加算平均したものが出力
される。例えば過去6フレームと,1つ前の加算平均出力
値を2倍した値とを累積し平均したものであり,これは
見かけ上ヒステリシスを持たせた8フレーム移動平均出
力となっている。そしてこれらの処理はフレーム毎に入
力するピッチデータを順次格納するシフトレジスタと累
算器などによって行なわれる。
The pitch data output from the pitch extraction unit 3 is stored in the storage unit 6 via the latch 4 and the processor 5. After this, this pitch data is transferred to the pitch data control unit 10 and also to the error removing unit 7. The error removing unit 7 uses the data stored in the recording unit 6 to detect a change in specific pitch data, particularly a change of, for example, one octave or more only in one frame, and changes the data when the change is detected. This is a circuit for returning to the previous data. Although there may be a sudden change in the scale, the error removing section 7 does not perform the above operation when the pitch data changes rapidly for two or more consecutive frames. At this time, there is a delay of one frame. The data is changing. The data from which one frame error has been removed by the error removing unit 7 is transferred to the Pichi data control unit 10 and averaged by the moving average calculation unit 8. Then, as its output, the one obtained by performing a plurality of averaging processes is output. That is, as the first output, a value obtained by performing arithmetic mean on each of the pitch data input from the error removing unit 7 over the past four frames including the present is output. Further, as the second output, the past 6 frames including the present for each pitch data and the addition average output immediately before are appropriately weighted and added and averaged. For example, the past 6 frames and a value obtained by doubling the previous addition average output value are accumulated and averaged, and this is an 8-frame moving average output with apparent hysteresis. Then, these processes are performed by a shift register and an accumulator which sequentially store the pitch data input for each frame.

このようにして平均化されたデータは移動平均演算部8
より出力され,ピッチデータ制御部10に加わり楽音を発
生するための処理がなされる。換言するならば前述した
エラー除去部7は外部雑音等によってピッチ抽出の1フ
レームのみの誤動作を検出し,除去する回路であり,ピ
ッチ抽出の誤動作の結果によるステップ的な大きなデー
タの変化を除去するものもある。そして移動平均演算部
8は入力音声等の微妙なピッチ変化によるピッチ誤抽出
のデータの微妙変化に対して複数の平均化処理によって
適切にピッチデータの変化を安定化させる回路である。
特に上記ヒステリシス付8フレーム移動平均によって定
常的に抽出される特定の音階付近で各フレーム毎の抽出
データが1音階程度の幅で細かく振れるのを防いでい
る。
The data averaged in this way is used as the moving average calculator 8
Then, the pitch data control unit 10 is added to perform processing for generating a musical tone. In other words, the above-mentioned error removing unit 7 is a circuit for detecting and eliminating a malfunction of only one frame of pitch extraction due to external noise or the like, and eliminating a large stepwise change in data due to the result of the malfunction of pitch extraction. There are also things. The moving average calculator 8 is a circuit that appropriately stabilizes a change in pitch data by a plurality of averaging processes against a subtle change in pitch mis-extraction data due to a subtle pitch change in an input voice or the like.
In particular, it is possible to prevent the extracted data for each frame from fluctuating in a width of about one scale in the vicinity of a specific scale that is constantly extracted by the moving average with 8 frames with hysteresis.

人間の声は歌に限らず子音,母音を有している。母音の
基本波のピッチは多く含まれているが,子音においては
非常に少ないものがある。この為,子音のみを発生して
いる間(例えば“SA"を発生する場合には“S"を発生し
ている間)は基本波のピッチは誤って抽出されることが
ある。これら誤抽出による楽音の誤動作をなくし,入力
した音声の音階になるようにするのがピッチデータ制御
10である。そしてこの制御部は音声パワーやフラグ作成
部9から出力される音声入力検出等のデータを用いて,
記録部6に格納されているデータやエラー除去部7の出
力データや移動平均演算部8の出力データを選択して出
力する。
Human voices have not only songs but consonants and vowels. Although the pitch of the fundamental wave of vowels is large, there are very few consonants. Therefore, the pitch of the fundamental wave may be erroneously extracted while only the consonant is being generated (for example, when "SA" is being generated, "S" is being generated). Pitch data control is to eliminate the erroneous operation of musical tones caused by these erroneous extractions so that the scale of the input voice is achieved.
Is 10. Then, this control unit uses data such as voice power and voice input detection output from the flag generation unit 9,
The data stored in the recording unit 6, the output data of the error removal unit 7 and the output data of the moving average calculation unit 8 are selected and output.

外部制御部14はピッチデータ制御部10から出力されたピ
ッチデータを,キー入力部15から出力されるデータとフ
ラグ作成部9からの制御データに基づいて,コードジェ
ネレータ11へ出力する回路である。例えばキー入力部15
で選択されたコード即ち和音データに従ったデータを発
生してコードジェネレータ11へ出力する。換言すれば楽
音を発生するためのリズムのタイミングと,メジャーコ
ード,マイナーコード,セブンスコードなどの和音コー
ドの選択をキー入力部15でマニュアルによって行い,そ
れに従った制御を行なうのが外部制御部14である。
The external control unit 14 is a circuit that outputs the pitch data output from the pitch data control unit 10 to the code generator 11 based on the data output from the key input unit 15 and the control data from the flag creating unit 9. For example, the key input unit 15
Generates data according to the chord selected in step 1, that is, the chord data, and outputs it to the chord generator 11. In other words, the rhythm timing for generating musical tones and chord chords such as major chords, minor chords, and seventh chords are manually selected by the key input unit 15, and the external control unit 14 performs control according to the manual operation. Is.

コードジェネレータ11は前述の外部制御部14の出力を楽
音発生部12において発生すべき楽音のコード即ち楽音デ
ータに変換する回路である。
The code generator 11 is a circuit that converts the output of the external control unit 14 into a code of a musical tone to be generated in the musical tone generating unit 12, that is, musical tone data.

前述したピッチ抽出部3,記録部6,エラー除去部7,移動平
均演算部8はプロセッサ5の制御によってなされる。
The pitch extraction unit 3, recording unit 6, error removal unit 7, and moving average calculation unit 8 described above are controlled by the processor 5.

コードジェネレータ11の出力即ち変換データは楽音発生
部12に加わり,スピーカ13により出力されるべく楽音の
指定を行う。換言するならば,楽音発生部12ではコード
ジェネレータ11を変換データによって指定される楽音電
気信号(アナログ)を発生し,スピーカ13にそれを加え
る。
The output of the code generator 11, that is, the converted data, is added to the musical tone generating section 12 and the musical tone is designated so as to be output by the speaker 13. In other words, the tone generator 12 causes the code generator 11 to generate a tone electrical signal (analog) specified by the conversion data, and adds it to the speaker 13.

以上のようにしてマイク1から入力された入力音声のピ
ッチとキー入力部15におけるキー入力の和音データとリ
ズムタイミングに対応した楽音がスピーカ13より発生す
る。即ち音高は入力音声により入力し,楽音の発生タイ
ミングや和音の選択は鍵により入力するというように役
割分担をさせることによって,わずかの操作で複雑な音
作りと可能としている。
As described above, the speaker 13 generates musical tones corresponding to the pitch of the input voice input from the microphone 1, the chord data of the key input in the key input unit 15, and the rhythm timing. That is, the pitch is input by the input voice, and the generation timing of the musical tone and the selection of the chord are input by the key, thereby making it possible to create a complicated sound with a few operations.

第1図に示した回路は音声入力に対応して楽音を発生す
る電子信号の構成を表わしたものであり,以下にさらに
詳しく述べる回路によってこの電子楽器が可能となる。
The circuit shown in FIG. 1 shows the structure of an electronic signal for generating a musical tone in response to a voice input, and this electronic musical instrument can be realized by the circuit described in more detail below.

第2図は本発明による外部制御部14及びキー入力部15の
詳細な回路構成図である。ピッチデータ制御部10の出力
はラッチ16を介して加算回路17の一方に入力に接続され
る。キー入力部15はアタックキー30,メジャーコード31,
マイナーコードキー32,及びセブンスコードキー33を有
し,その出力はエンコーダ18を介してフラグレジスタ19
に接続される。フラグレジスタ19の並列出力はリードオ
ンメモリ20へのアドレス入力となると共に,オア回路23
への入力となる。リードオンリメモリ20の出力は,フレ
ーククロックφfで制御されるカウンタ21を介して移調
音作成用リードオンリーメモリ22へのスタートアドレス
入力となる。リードオンリメモリ22の出力は加算回路17
の他方の入力に接続される。またオア回路23の出力はフ
レームクロックφfで制御されるラッチ24に接続され
る。ラッチ24の出力はフレームクロックφfで制御され
るラッチ25に接続されると共に,アンド回路26に接続さ
れ,又インバータ28を介してアンド回路27に接続され
る。同様にラッチ25の出力はアンド回路27に接続される
と共に,インバータ29を介してアンド回路26に接続され
る。また,オア回路23の出力は,フレークロックφfで
制御されるラッチ24に接続される。アンド回路26の出力
であるキーオン信号KONはラッチ16の制御端子に接続さ
れると共に,コードジェネレータ11へ接続される。また
アンド回路27の出力であるキーオフ信号KOFFはコードジ
ェネレータ11へ接続される。さらに加算回路17の出力も
コードジェネレータ11を介して楽音発生部12へ接続され
る。
FIG. 2 is a detailed circuit configuration diagram of the external control unit 14 and the key input unit 15 according to the present invention. The output of the pitch data control unit 10 is connected to one input of the adder circuit 17 via the latch 16. The key input section 15 is an attack key 30, a major code 31,
It has a minor code key 32 and a seventh code key 33, the output of which is passed through the encoder 18 to the flag register 19
Connected to. The parallel output of the flag register 19 becomes an address input to the read-on memory 20, and the OR circuit 23
Will be input to. The output of the read-only memory 20 becomes the start address input to the read-only memory 22 for transposing tone generation via the counter 21 controlled by the flake clock φf. The output of the read-only memory 22 is the adder circuit 17
Connected to the other input of. The output of the OR circuit 23 is connected to the latch 24 controlled by the frame clock φf. The output of the latch 24 is connected to the latch 25 controlled by the frame clock φf, connected to the AND circuit 26, and also connected to the AND circuit 27 via the inverter 28. Similarly, the output of the latch 25 is connected to the AND circuit 27 and also connected to the AND circuit 26 via the inverter 29. The output of the OR circuit 23 is connected to the latch 24 controlled by the frame clock φf. The key-on signal KON output from the AND circuit 26 is connected to the control terminal of the latch 16 and the code generator 11. The key-off signal KOFF output from the AND circuit 27 is connected to the code generator 11. Further, the output of the adding circuit 17 is also connected to the musical sound generating section 12 via the code generator 11.

以上のような構成において,まずキー入力部15において
アタックキー30が押された場合について説明する。アタ
ックキー30は楽音発生部12において和音を発生させず、
マイク1(第1図)から入力した音声のピッチに対応し
た1音階のみを発生させる場合のリズムタイミングをと
るための鍵である。操作としては演奏者が音声で発生す
べき楽音の高さを与えながら,アタックキー30で発生の
タイミングを与える。これによってまずマイク1(第1
図)から入力された音声からピッチが抽出され,各処理
がなされた後ピッチデータ制御部10から,ピッチデータ
が出力される。なお,これらの抽出処理は,1フレーム
(例えば12mesc)毎になされる。この時演奏者がアタッ
クキーを押さなければ,キー入力部15からはデータが出
力されないためオア回路23の出力はローベルのままであ
る。よってラッチ24及び25の内容はローベルであり,ア
ンド回路26の出力であるキーオン信号KONはローベルの
ままとなる。従ってラッチ16にはピッチデータは入力さ
れず楽音は発生されない。次に演奏者がアタックキー30
を押すと,キー入力部15からの出力信号がエンコーダ18
でコード化され,フラグレジスタ19へ出力される。この
内容はオール“0"ではない値にコード化され,オア回路
23の出力ハイレベルとなる。そしてこの信号はフレーム
クロックφf(1フレームを12mescとすれば,12msec毎
のクロック)によってラッチ24に取り込まれる。この時
ラッチ25には1フレームの前のラッチ24の内容が取り込
まれる。従ってアタックキー30が押されると,まず始め
にラッチ24の内容がハイレベル,ラッチ25の内容がロー
レベルとなる。これによってアンド回路26がオンとなり
キーオン信号KONがハイレベルとなる。これによってピ
ッチデータ制御部10からのピッチデータがキーオン信号
KONの立ち上がりでラッチ16に取り込まれ,その立ち上
がりで出力が現われる。換言すればアタックキー30が押
されると,ラッチ24の内容がハイレベル,ラッチ25の内
容がローベレルとなり,これによって始めてピッチデー
タがキーオン信号KONによって入力される。すなわちキ
ーオン信号KONは鍵が押されたことを示す信号であり,
従来の鍵盤式の電式楽器で鍵が押されたのと同じ効果と
なる。
First, the case where the attack key 30 is pressed in the key input unit 15 in the above configuration will be described. The attack key 30 does not generate chords in the musical tone generator 12,
This is a key for taking rhythm timing when only one scale corresponding to the pitch of the voice input from the microphone 1 (Fig. 1) is generated. As an operation, the performer gives the timing of generation with the attack key 30 while giving the pitch of the musical sound to be generated by voice. As a result, first microphone 1 (first
Pitch is extracted from the voice input from FIG. 1), and after each process is performed, pitch data control unit 10 outputs pitch data. Note that these extraction processes are performed for each frame (for example, 12mesc). If the performer does not press the attack key at this time, no data is output from the key input unit 15, and the output of the OR circuit 23 remains low. Therefore, the contents of the latches 24 and 25 are low level, and the key-on signal KON output from the AND circuit 26 remains low level. Therefore, no pitch data is input to the latch 16 and no musical sound is generated. Next is the attack key 30
When is pressed, the output signal from the key input section 15
Are encoded by and output to the flag register 19. This content is coded to a value that is not all "0", and the OR circuit
23 output goes high. Then, this signal is taken into the latch 24 by the frame clock φf (clock of 12 msec if one frame is 12 mesc). At this time, the latch 25 takes in the contents of the latch 24 one frame before. Therefore, when the attack key 30 is pressed, first, the contents of the latch 24 become high level and the contents of the latch 25 become low level. As a result, the AND circuit 26 is turned on and the key-on signal KON becomes high level. As a result, the pitch data from the pitch data control unit 10 becomes the key-on signal.
It is taken into the latch 16 at the rising edge of KON, and the output appears at the rising edge. In other words, when the attack key 30 is pressed, the content of the latch 24 becomes high level and the content of the latch 25 becomes low level, whereby the pitch data is first input by the key-on signal KON. That is, the key-on signal KON is a signal indicating that a key has been pressed,
This has the same effect as pressing a key on a conventional keyboard-type electric musical instrument.

この時アタックキー30が押されている間リードオンリメ
モリ20及び22はアクセスされるが,リードオンリメモリ
20の内容がカウンタ21にロードされカウント値がフレー
ムクロックで変化するが,この時のデータで指定された
リードオンリメモリ22の内容は“0"であるのでラッチ16
のの出力ピッチデータは加算回路17からそのままコード
ジェネレータ11へ出力される。
At this time, the read-only memories 20 and 22 are accessed while the attack key 30 is being pressed.
The content of 20 is loaded into the counter 21, and the count value changes with the frame clock. However, since the content of the read-only memory 22 designated by the data at this time is “0”, the latch 16
The output pitch data of is output from the adding circuit 17 to the code generator 11 as it is.

これによってピッチデータに対応した楽音コードが発生
し,楽音発生部12で所定の楽音が発生される。次にアタ
ックキー30が押されたままだとフラグレジスタ19の内容
は同じデータとなり,オア回路23の出力はハイレベルの
ままとなる。これによってフレームクロックφfで書き
変えられるラッチ24及び25の内容は共にハイレベルとな
る。従ってアンド回路26はオフとなり,キーオン信号KO
Nはローレベルとなる。従ってラッチ16には新しいピッ
チデータが入力されず,キーオン信号KONがハイレベル
となった時に取り込まれたピッチデータがそのまま出力
されるので,コードジェネレータ11は同じ楽音データを
発生し続ける。換言すれば,アタックキー30が押されて
いる間は,同じ楽音でデータを発生し続ける。
As a result, a tone code corresponding to the pitch data is generated, and the tone generator 12 generates a predetermined tone. Next, if the attack key 30 is still pressed, the contents of the flag register 19 become the same data, and the output of the OR circuit 23 remains high level. As a result, the contents of the latches 24 and 25, which are rewritten by the frame clock φf, both become high level. Therefore, the AND circuit 26 is turned off, and the key-on signal KO
N becomes low level. Therefore, new pitch data is not input to the latch 16 and the pitch data taken in when the key-on signal KON becomes high level is output as it is, so that the chord generator 11 continues to generate the same tone data. In other words, while the attack key 30 is being pressed, data is continuously generated with the same musical sound.

そして次にアタックキー30が離されるとフラグレジスタ
19の内容は“0"となり,オア回路23の出力はローレベル
となる。これによってラッチ24の内容はローレベルとな
る。この時ラッチ25の内容は1フレーム前のラッチ24の
内容なのでハイレベルとなる。このよってアンド回路27
がオンとなり,キーオフ信号KOFFがハイレベルとなる。
この信号がコードジェネレータ11へ送られ,楽音の発生
を終了する。すなわちキーオフ信号KOFFはアタックキー
30が離されたことに示す信号である。以上のようにして
楽音の音高はピッチデータによって与えられ,その発生
タイミングはアタックキー30によって与えられて対応し
た楽音が発生される。この場愛ピッチ抽出部3(第1
図)によっいて抽出されたピッチデータは,前記アタッ
クキー30が押されているか否かにかかわらず,エラー除
去部7及び移動平均演算部7などで各処理がなされピッ
チデータ制御部70から抽出される。この状態においてア
タックキー30が押されたか否かによって,キーオン,キ
ーオフ,又は押されたままかどうかが判断され,そのタ
イミングで楽音コードが発生される。従って演奏者は音
を出すタイミングとアタックキー30を押すタイミングを
うまく合わせることによって,さまざまな楽音を発生さ
せることができる。
Then, when the attack key 30 is released next time, the flag register
The content of 19 becomes "0", and the output of the OR circuit 23 becomes low level. This causes the contents of latch 24 to go low. At this time, the content of the latch 25 is high because it is the content of the latch 24 one frame before. This is the AND circuit 27
Turns on and the key-off signal KOFF goes high.
This signal is sent to the code generator 11, and the generation of the musical sound is completed. That is, the key-off signal KOFF is the attack key
This is a signal indicating that 30 has been released. As described above, the pitch of the musical tone is given by the pitch data, and its generation timing is given by the attack key 30 to generate the corresponding musical tone. This place love pitch extraction unit 3 (first
The pitch data extracted according to the drawing) is extracted from the pitch data control unit 70 by the error removal unit 7 and the moving average calculation unit 7 regardless of whether the attack key 30 is pressed or not. To be done. In this state, it is determined whether the attack key 30 is pressed or not, and it is determined whether the key is on, the key is off, or the key is still pressed, and a tone code is generated at that timing. Therefore, the player can generate various musical tones by properly matching the timing of producing a sound and the timing of pressing the attack key 30.

次にメジャーコードキー31,マイナーコードキー32,又は
セブンスコードキー33等が押された場合について説明す
る。これらのキーは楽音の発生タイミングを作り出すと
いうことについてはアタックキー30と全く同じ動作を示
す。ただし同時にメジャーコード,マイナーコード,又
はセブンスコードの和音の楽音コードを作り出すことが
できる。今,例えばメジャーコードキー31が押された場
合について説明する。この鍵がキーオン,キーオフ,又
は押されたままであるかどうかは,アタックキー30の場
合と同様にオア回路23,ラッチ24,25,アンド回路26,27な
どによって判断される。この時フラグレジスタ19にはメ
ジャーコードキー31がコード化された内容が取り込まれ
ている。そしてこの内容はリードオンリーメモリ20のア
ドレス入力となる。そしてそのアドレスにおけるリード
オンリメモリ20の内容は移調音作成用リードオンリメモ
リ22のメジャーコード作成データが格納されている先頭
アドレスとなる。例えばリードオンリメモリ22には100
番地「0」,101番地「+8」,102番地「+14」,103番地
「+24」という。
Next, a case where the major chord key 31, the minor chord key 32, the seventh chord key 33, or the like is pressed will be described. These keys exhibit exactly the same operation as the attack key 30 in that they generate the timing of musical tone generation. However, at the same time, a major chord, a minor chord, or a tone code of a chord of the 7th chord can be created. Now, a case where the major chord key 31 is pressed will be described. Whether the key is key-on, key-off, or kept pressed is determined by the OR circuit 23, the latches 24, 25, the AND circuits 26, 27, etc., as in the case of the attack key 30. At this time, the flag register 19 stores the encoded contents of the major chord key 31. Then, this content becomes an address input of the read-only memory 20. Then, the content of the read-only memory 20 at that address becomes the head address where the major chord creation data of the transpose sound creation read-only memory 22 is stored. For example, read-only memory 22 has 100
It is called address "0", address 101 "+8", address 102 "+14", address 103 "+24".

メジャーコード作成用のデータが格納されている。今,
メジャーコードキー31が押されると,コードレジスタ19
の内容によってリードオンリメモリ20からは“100"が出
力される。そしてフレームクロックφfによってその値
がカウンタ21にロードされる。これによってリードオン
リメモリ22からは100番地の内容“0"が読み出され,加
算回路17に出力される。今,キーオン信号KONはハイレ
ベルとなっているのでラッチ16からはピッチデータが出
力しており,そのデータとリードオンリメモリ22の出力
とが加算回路17によって加算される。今,リードオンリ
メモリ22の出力は“0"なのでラッチ16からのピッチデー
タがそのままコードジェネレータ11へ出力される。次に
同じフレーム(例えば12msec)内の時分割クロックφt
によってカウンタ21の内容が+1され、その内容は“10
1"となる。これによりリードオンリメモリ22からは101
番地の内容“+8"が読み出され,加算回路17に出力され
る。この時ラッチ16からは同じピッチデータが出力され
たままなので,そのピッチデータに+8された値がコー
トジェネレータ11へ出力される。このようにして102番
地,103番地の内容が同一ヒレーム内の時分割クロックφ
tで順次読み出され,ピッチデータに加算されコードジ
ェネレータ11へ時分割的に出力される。すなわち1フレ
ーム間に,入力されるピッチデータの他に,それに+8,
+14,及び+24加算されたデータがコードジェネレータ1
1へ時分割的に出力される。この場合,入力されるピッ
チデータは周波数の情報としてではなく,1オクターブを
24段階の音程に分割し,この1オクターブ内の番号とし
て与えられている。すなわち音階が半音上がるとピッチ
データは+2増える。従って例えば今ピッチデータとし
て音階“C"を表わすデータ“0"が与えられると,同一フ
レーム内でそのピッチデータ“0"の他に“+8",“+1
4",“+24"なるデータがコードジェネレータ11へ時分割
的に出力される。これらのデータはすなわち音階“C",
“E",“G",“C"(1オクターブアップ)を表わしてい
る。そしてこれらは“C"を基準音としてメジャーコード
の和音を表わしている。換言すれば入力されるピッチデ
ータに対してメジャーコードの関係にある複数のコード
を表わすデータが加算回路17において時分割的に作成さ
れコードジェネレータ11へ与えられる。これによってコ
ードジェネレータ11からは和音コードが発生され,楽音
発生部12において和音の楽音が発生される。この時和音
の発生のタイミングはアタックキー30の場合と全く同様
に,メジャーコードキー31をオン又はオフするタイミン
グで決定される。当然和音の基準音のピッチデータは音
声によってマイク1(第1図)から与えられる。
Stores data for creating major chords. now,
When the major code key 31 is pressed, the code register 19
"100" is output from the read-only memory 20 depending on the contents of. Then, the value is loaded into the counter 21 by the frame clock φf. As a result, the content “0” at address 100 is read from the read-only memory 22 and output to the adder circuit 17. Since the key-on signal KON is now at the high level, the pitch data is output from the latch 16, and the data and the output of the read-only memory 22 are added by the adder circuit 17. Since the output of the read only memory 22 is "0", the pitch data from the latch 16 is output to the code generator 11 as it is. Next, time division clock φt in the same frame (for example, 12 msec)
The counter 21 is incremented by 1 and its content is changed to "10.
1 ". This means 101 from read only memory 22.
The content "+8" of the address is read and output to the adder circuit 17. At this time, the same pitch data is still output from the latch 16, so the value obtained by adding +8 to the pitch data is output to the coat generator 11. In this way, the contents of addresses 102 and 103 are time-division clock φ in the same frame.
The data is sequentially read at t, added to the pitch data, and output to the code generator 11 in a time division manner. That is, in addition to the input pitch data, +8,
Data generated by +14 and +24 is code generator 1
Output to 1 in a time-sharing manner. In this case, the input pitch data is 1 octave, not as frequency information.
It is divided into 24 steps and given as a number within this one octave. That is, pitch data increases by +2 when the scale increases by a semitone. Therefore, for example, when the data "0" representing the scale "C" is given as the pitch data, "+8", "+1" in addition to the pitch data "0" in the same frame.
The data "4", "+24" is output to the chord generator 11 in a time division manner. These data are the scale "C",
Represents "E", "G", "C" (1 octave up). And these represent chords of major chords with "C" as the reference note. In other words, data representing a plurality of chords having a major chord relationship with the input pitch data is created in the adder circuit 17 in a time division manner and given to the chord generator 11. As a result, a chord code is generated from the chord generator 11, and a chord musical tone is generated in the musical tone generating section 12. At this time, the timing at which the chord is generated is determined by the timing at which the major chord key 31 is turned on or off, just as in the case of the attack key 30. Naturally, the pitch data of the reference sound of the chord is given by voice from the microphone 1 (FIG. 1).

次にマイナーコードキー32が押された場合は,フラグレ
ジスタ19の内容はマイナーコードキー32と表わすコード
となる。これによりリードオンリメモリ20からは,マイ
ナーコード作成データが格納されているリードオンリメ
モリ22の先頭アドレス(例えば104番地)が読み出さ
れ,フレームクロックφfによってその値がカウンタ21
にロードされる。そしてメジャーコードキー31の場合と
同様に,マイナーコード作成データが同一フレーム内で
リードオンリメモリ22から時分割的に順次読み出され,
加算回路17において基準音のピッチデータに対してマイ
ナーコードの関係にある複数のコードが作成され,コー
ドジェネレータ11へ時分割的に出力される。セブンスコ
ードキー33が押された場合も全く同様にしてセブンスコ
ードが作成される。
Next, when the minor code key 32 is pressed, the content of the flag register 19 becomes a code represented as the minor code key 32. As a result, the start address (for example, address 104) of the read-only memory 22 in which the minor code creation data is stored is read from the read-only memory 20, and the value is counted by the frame clock φf in the counter 21.
Loaded in. Then, as in the case of the major code key 31, the minor code creation data is sequentially read from the read-only memory 22 in a time division manner in the same frame,
A plurality of chords having a minor chord relationship with the pitch data of the reference tone are created in the adding circuit 17, and are output to the chord generator 11 in a time division manner. When the Seventh code key 33 is pressed, the Seventh code is created in exactly the same manner.

以上のようにして各和音表わすコードキーが押される
と,音声入力されたピッチデータを基準音とする各和音
コードが作成され,各和音コードキーとオン又はオフす
るタイミングで和音の楽音を発生させることが可能とな
る。
When the chord key representing each chord is pressed as described above, each chord code is created with the pitch data input as voice as the reference note, and a tone of the chord is generated at the timing of turning on or off with each chord code key. It becomes possible.

なお,本発明の実施例においてはキー入力として,アタ
ックキー,メジャーコードキー,マイナーコードキー,
セブンスコードキーの場合に限定したが,他にオクター
ブ変換キー(単純に+24すればよい),移調キーなども
考えられ,それらに対応したデータをリードオンリメモ
リに格納しておくことによって,さまざまな機能をもた
せることが可能である。
In addition, in the embodiment of the present invention, as an input key, an attack key, a major chord key, a minor chord key,
Although limited to the case of the 7th code key, other octave conversion keys (simply +24), transposing keys, etc. can be considered, and various data can be stored in the read-only memory by storing the corresponding data. It is possible to have a function.

〔発明の効果〕〔The invention's effect〕

本発明によれば、抽出されたピッチデータに対して、複
数の異なる加工処理の中からいずれかの加工処理を当該
ピッチデータの変化に基づいて選択して施し、この加工
されたピッチデータに基づく音高を和音の根音としたの
和音を生成することにより、抽出されたピッチデータに
含まれる不自然な音高変更の原因となるノイズやゆらぎ
を除去することが可能となる。とくに、こうしたノイズ
やゆらぎは、ピッチ抽出開始から時間経過に従ってその
発生態様が変化するが、本発明においては、異なる加工
処理の中から、その変化に合わせて加工処理を選択して
施すことにより、より的確にノイズまたはゆらぎが除去
できるようになる。
According to the present invention, for the extracted pitch data, one of a plurality of different processing operations is selected and applied based on the change of the pitch data, and based on the processed pitch data. By generating a chord whose pitch is the root of the chord, it is possible to remove noise and fluctuation included in the extracted pitch data that cause an unnatural pitch change. In particular, such noise and fluctuations, the generation mode thereof changes with the lapse of time from the start of pitch extraction, but in the present invention, by selecting and applying a processing process according to the change from different processing processes, Noise or fluctuation can be removed more accurately.

しかも和音を構成する根音以外の他の構成音は、指定さ
れた和音の種類に基づいて得られた根音との音高差を表
わす音高差データと加工ピッチデータとに基づいて演算
して求めるようにしているため、簡単に種々の和音が発
生できるようになる。また入力波形信号のピッチ変更
で、根音も変化させることができて演奏効果の向上がは
かれ、しかもデータ処理が数値演算が行え、構成も簡単
化することができる。
Moreover, other constituent tones other than the root tones that compose the chord are calculated based on the pitch difference data representing the pitch difference from the root note obtained based on the specified chord type and the processing pitch data. Therefore, various chords can be easily generated. Moreover, the root note can be changed by changing the pitch of the input waveform signal, and the performance effect can be improved. Moreover, the data processing can be performed by numerical calculation, and the configuration can be simplified.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明による実施例の全体的な回路構成図,第
2図は本発明による外部制御部及びキー入力部の詳細な
回路構成図である。 14……外部制御部,15……キー入力部,16,24,25……ラッ
チ,17……加算回路,18……エンコーダ,19……フラグレ
ジスタ,20,22……リードオンリメモリ,27……カウンタ,
30……アタックキー,31……メジャーコードキー,32……
ナイナーコードキー,33……セブンスコードキー.
FIG. 1 is an overall circuit configuration diagram of an embodiment according to the present invention, and FIG. 2 is a detailed circuit configuration diagram of an external control unit and a key input unit according to the present invention. 14 …… External control part, 15 …… Key input part, 16,24,25 …… Latch, 17 …… Adding circuit, 18 …… Encoder, 19 …… Flag register, 20,22 …… Read only memory, 27 ……counter,
30 …… Attack key, 31 …… Major code key, 32 ……
Nainer code key, 33 …… Seventh code key.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】入力波形信号のピッチデータを抽出する抽
出手段と、 前記抽出手段にて抽出されたピッチデータに対し、当該
抽出されたピッチデータの変化に基づいて夫々異なる加
工処理を選択的に施して加工ピッチデータを得る加工処
理手段と、 複数の和音の種類の中から任意の和音の種類を指定する
入力操作手段と、 前記加工処理手段からの加工ピッチデータにて表わされ
る音高で前記和音の根音を発生するように指定する根音
指定手段と、 前記入力操作手段にて指定された和音の種類に基づいて
前記根音当該和音の他の複数の構成音との夫々の音高差
に対応する複数の音高差データを出力する出力手段と、 この出力手段から出力する前記音高差データと前記加工
処理手段からの加工ピッチデータとを演算して当該和音
の構成音の夫々のピッチデータを得る演算手段と、 この演算手段にて求められた夫々のピッチデータにて表
わされる音高で前記他の複数の構成音を発生するように
指定する構成音指定手段と、 を具備したことを特徴とする和音発生装置。
1. Extraction means for extracting pitch data of an input waveform signal, and selectively processing different pitches on the pitch data extracted by the extraction means based on changes in the extracted pitch data. Processing means for performing processing to obtain processing pitch data, input operation means for designating an arbitrary chord type from a plurality of chord types, and a pitch indicated by the processing pitch data from the processing processing means. Pitch of each of the root note designating means for designating to generate a root note of the chord, and the root note based on the type of the chord specified by the input operation means Output means for outputting a plurality of pitch difference data corresponding to the difference, and the pitch difference data output from the output means and the processing pitch data from the processing means to calculate each of the constituent sounds of the chord. A calculation means for obtaining the pitch data; and a constituent sound designating means for designating to generate the other plurality of constituent sounds at the pitches represented by the respective pitch data obtained by the calculation means. A chord generating device characterized in that
【請求項2】前記加工処理手段は、夫々異なる加工処理
として、前記抽出手段からのピッチデータの急激な変化
を除去する処理及び過去に抽出されたピッチデータと現
在抽出されたピッチデータとの平均値を現在のピッチデ
ータとする処理とを当該抽出されたピッチデータの変化
に基づいて施すように構成することを特徴とする特許請
求の範囲第1項記載の和音発生装置。
2. The processing means, as different processing operations, removes abrupt changes in the pitch data from the extraction means and averages the past extracted pitch data and the currently extracted pitch data. The chord generating device according to claim 1, characterized in that the processing for setting the value as the current pitch data is performed based on the change of the extracted pitch data.
JP59048640A 1984-03-14 1984-03-14 Chord generator Expired - Lifetime JPH071429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59048640A JPH071429B2 (en) 1984-03-14 1984-03-14 Chord generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59048640A JPH071429B2 (en) 1984-03-14 1984-03-14 Chord generator

Publications (2)

Publication Number Publication Date
JPS60192993A JPS60192993A (en) 1985-10-01
JPH071429B2 true JPH071429B2 (en) 1995-01-11

Family

ID=12808967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59048640A Expired - Lifetime JPH071429B2 (en) 1984-03-14 1984-03-14 Chord generator

Country Status (1)

Country Link
JP (1) JPH071429B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2519441B2 (en) * 1987-01-14 1996-07-31 ローランド 株式会社 Chorus effect device
JP2712346B2 (en) * 1987-10-14 1998-02-10 カシオ計算機株式会社 Frequency control device
JPH01173098A (en) * 1987-12-28 1989-07-07 Komunikusu:Kk Electronic musical instrument
JP5560742B2 (en) * 2010-02-02 2014-07-30 ヤマハ株式会社 Program for realizing electronic music apparatus and harmony sound generation method
JP5560759B2 (en) * 2010-02-17 2014-07-30 ヤマハ株式会社 Program for realizing electronic music apparatus and harmony sound generation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS49122730A (en) * 1973-03-26 1974-11-25
JPS5124129U (en) * 1974-08-07 1976-02-21

Also Published As

Publication number Publication date
JPS60192993A (en) 1985-10-01

Similar Documents

Publication Publication Date Title
USRE33739E (en) Electronic musical instrument
CN112382257B (en) Audio processing method, device, equipment and medium
US4706537A (en) Tone signal generation device
JP2879948B2 (en) Audio processing device
KR900007892B1 (en) Sound generator for electronic musical instrument
US4691608A (en) Waveform normalizer for electronic musical instrument
JPH071429B2 (en) Chord generator
US5710387A (en) Method for recognition of the start of a note in the case of percussion or plucked musical instruments
CN108573689B (en) Electronic musical instrument, musical sound generating method, and recording medium
JPH0261760B2 (en)
JP2001117578A (en) Device and method for adding harmony sound
JP3001353B2 (en) Automatic transcription device
JPS6211357B2 (en)
JPS61248096A (en) Electronic musical instrument
JPH0652480B2 (en) Input device for electronic musical instruments
JP2882028B2 (en) MIDI code generator
JP2653456B2 (en) Automatic music transcription method and device
JP2722482B2 (en) Tone generator
JPS60158493A (en) Error remover
JP3262981B2 (en) Audio processing device
JP2003263155A (en) Frequency analyzer and acoustic signal encoding device
JP3262100B2 (en) Audio processing device
JP2604414B2 (en) Automatic music transcription method and device
Fabiani et al. Expressive modifications of musical audio recordings: preliminary results
JP2003255930A (en) Encoding method for sound signal