JP2001092450A - Method for generating/processing audio file - Google Patents

Method for generating/processing audio file

Info

Publication number
JP2001092450A
JP2001092450A JP26661799A JP26661799A JP2001092450A JP 2001092450 A JP2001092450 A JP 2001092450A JP 26661799 A JP26661799 A JP 26661799A JP 26661799 A JP26661799 A JP 26661799A JP 2001092450 A JP2001092450 A JP 2001092450A
Authority
JP
Japan
Prior art keywords
audio
performance information
audio file
time
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26661799A
Other languages
Japanese (ja)
Inventor
Tadashi Yamanaka
正 山中
Hiroko Mejika
寛子 女鹿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland Corp
Original Assignee
Roland Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland Corp filed Critical Roland Corp
Priority to JP26661799A priority Critical patent/JP2001092450A/en
Publication of JP2001092450A publication Critical patent/JP2001092450A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To directly convert the music data to the audio data without performing the music data. SOLUTION: This method is provided with a first step setting a sampling frequency, a second step setting a tempo, a third step successively reading in performance information, a fourth step successively converting the performance information successively read in by the third step to the audio data answering to the sampling frequency set by the first step and the tempo set by the second step and a fifth step successively storing the audio data successively converted by the fourth step in a file, and generating the audio file performed with the tempo set by the second step when the audio data are reproduced with the sampling frequency set by the first step.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、オーディオ・ファ
イルの生成処理方法に関し、さらに詳細には、中央処理
装置(CPU)などのような汎用の演算処理手段を備え
たパーソナル・コンピュータやワーク・ステーションな
どの汎用のコンピュータ上において、ソフトウェアによ
りシンセサイザを構築する際に用いて好適なオーディオ
・ファイルの生成処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio file generation processing method, and more particularly, to a personal computer or a work station provided with general-purpose processing means such as a central processing unit (CPU). The present invention relates to a method for generating an audio file suitable for use when constructing a synthesizer by software on a general-purpose computer such as a computer.

【0002】[0002]

【従来の技術】従来、楽音を形成するためには、楽音形
成用の専用のハードウェア、所謂、電子楽器を用いるこ
とが必要であった。
2. Description of the Related Art Conventionally, in order to form musical tones, it has been necessary to use dedicated hardware for producing musical tones, so-called electronic musical instruments.

【0003】ところが、近年、汎用のコンピュータに高
性能のCPUが搭載されることに伴って、専用のハード
ウェアを用いることなしにソフトウェアによりシンセサ
イザを構築して楽音形成および効果の付与を行うことが
提案されている(例えば、特開平7−168575号公
報など。)。
However, in recent years, as a high-performance CPU is mounted on a general-purpose computer, a synthesizer can be constructed by software without using dedicated hardware to form a musical tone and to give an effect. It has been proposed (for example, JP-A-7-168575).

【0004】こうした汎用のコンピュータ上でソフトウ
ェアにより構築されるシンセサイザ(以下、「ソフトウ
ェア・シンセサイザ」と適宜称する。)においては、S
MF(Standard MIDI File:スタン
ダード・ミディ・ファイル)などのような発音開始指示
データならびに発音停止指示データと時間データとの組
み合わせよりなる演奏情報(以下、「ミュージック・デ
ータ」と適宜称する。)が入力されると、当該入力され
たミュージック・データはソフトウェア・シンセサイザ
により、所定のサンプリング周波数の一連のサンプル時
刻における振幅値であるオーディオ・ファイルに変換さ
れる。
In a synthesizer constructed by software on such a general-purpose computer (hereinafter, appropriately referred to as “software synthesizer”), S
Performance information (hereinafter, appropriately referred to as "music data") composed of a combination of sounding start instruction data and sounding stop instruction data and time data such as MF (Standard MIDI File) is input. Then, the input music data is converted by the software synthesizer into an audio file which is an amplitude value at a series of sampling times at a predetermined sampling frequency.

【0005】そして、入力されたミュージック・データ
から変換されたオーディオ・データは、コンピュータに
搭載されているサウンド機能によってオーディオ出力信
号に変換され、スピーカーを介して聴取し得る楽音とし
て空間に放音されることになる。
[0005] The audio data converted from the input music data is converted into an audio output signal by a sound function mounted on the computer, and is emitted to a space as a musical sound audible through a speaker. Will be.

【0006】ところで、上記したようなソフトウェア・
シンセサイザにおいて、入力されたミュージック・デー
タを変換したオーディオ・データを記憶したオーディオ
・ファイルを生成するためには、オーディオ・データを
サウンド機能によってオーディオ出力信号に変換した後
に、ソフトウェア・シンセサイザとは別の、オーディオ
出力信号を録音してオーディオ・ファイルに変換するア
プリケーション・ソフトウェアを用いなければならなか
った。
[0006] By the way, the software
In order to generate an audio file that stores audio data obtained by converting input music data in a synthesizer, the audio data is converted into an audio output signal by a sound function, and then a separate file from the software synthesizer is generated. However, application software that records the audio output signal and converts it into an audio file had to be used.

【0007】このため、オーディオ・ファイルを生成す
るための時間は、少なくとも実際の演奏時間(以下、
「実時間」と適宜称する。)以上必要となり、オーディ
オ・ファイルを生成するため作業性に劣るという問題点
があった。
For this reason, the time for generating the audio file is at least the actual playing time (hereinafter, referred to as the actual playing time).
It is referred to as "real time" as appropriate. ), And there is a problem that the workability is inferior because an audio file is generated.

【0008】[0008]

【発明が解決しようとする課題】本発明は、上記したよ
うな従来の技術の有する問題点に鑑みてなされたもので
あり、その目的とするところは、ミュージック・データ
を演奏するのではなく、直接オーディオ・データに変換
することができるようにしたオーディオ・ファイルの生
成処理方法を提供しようとするものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and has as its object to play music data instead of playing it. An object of the present invention is to provide an audio file generation processing method which can be directly converted into audio data.

【0009】このことにより、CPUの能力が高い場合
には、実際の演奏時間よりも早くオーディオ・ファイル
を生成記憶することができ、また、複雑な処理、例え
ば、単位時間当たりに生成する楽音の数が多い場合や、
複雑な効果を付与する場合に、実時間では実現できない
処理も時間をかけて行うことにより、高品位な楽音、演
奏をオーディオ・ファイルとして記憶することができる
ようにしようとするものである。
Thus, when the performance of the CPU is high, it is possible to generate and store an audio file earlier than the actual playing time, and it is also necessary to perform complicated processing, for example, to generate a musical sound per unit time. If the number is large,
When a complicated effect is to be applied, processing that cannot be realized in real time is performed over a long period of time so that high-quality musical sounds and performances can be stored as audio files.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明によるオーディオ・ファイルの生成処理方法
は、サンプリング周波数やテンポなどの設定されたパラ
メータに基づいて、演奏情報から直接的にオーディオ・
ファイルを生成するものである。
In order to achieve the above object, an audio file generation processing method according to the present invention provides an audio file generation method that directly outputs audio data from performance information based on set parameters such as a sampling frequency and a tempo.・
Generate a file.

【0011】即ち、本発明のうち請求項1に記載の発明
は、サンプリング周波数を設定する第1のステップと、
テンポを設定する第2のステップと、演奏情報を順次読
み込む第3のステップと、上記第3のステップによって
順次読み込まれた演奏情報を、上記第1のステップによ
って設定されたサンプリング周波数および上記第2のス
テップで設定されたテンポに対応するオーディオ・デー
タに順次変換する第4のステップと、上記第4のステッ
プによって順次変換されたオーディオ・データを順次フ
ァイルに記憶して、当該オーディオ・データを上記第1
のステップによって設定されたサンプリング周波数で再
生したときに、上記第2のステップによって設定された
テンポで演奏されるオーディオ・ファイルを生成する第
5のステップとを有するようにしたものである。
That is, according to the first aspect of the present invention, a first step of setting a sampling frequency;
A second step of setting a tempo, a third step of sequentially reading performance information, and the performance information sequentially read in the third step are combined with the sampling frequency and the second frequency set in the first step. A fourth step of sequentially converting the audio data into the audio data corresponding to the tempo set in the step, and storing the audio data sequentially converted in the fourth step in a file, and storing the audio data in the file. First
And a fifth step of generating an audio file to be played at the tempo set in the second step when the reproduction is performed at the sampling frequency set in the second step.

【0012】ここで、上記した第1のステップ、第2の
ステップならびに第3のステップの処理の順番は、第1
のステップ→第2のステップ→第3のステップの順番に
限られることなしに、ソフトウェア・プログラムの設計
上の都合に応じて任意の順番に変更してもよい。
Here, the order of the processing of the first step, the second step, and the third step is as follows.
The order of the steps is not limited to the order of the second step to the third step, and may be changed to an arbitrary order according to the design convenience of the software program.

【0013】また、本発明によるオーディオ・ファイル
の生成処理方法は、所定時間分の演奏情報を読み出して
オーディオ・データに変換し、変換したオーディオ・デ
ータをファイルに記憶してオーディオ・ファイルを生成
するという処理を繰り返し行うことにより、演奏情報か
ら直接的にオーディオ・ファイルを生成するものであ
る。
Further, in the audio file generation processing method according to the present invention, performance information for a predetermined time is read and converted into audio data, and the converted audio data is stored in a file to generate an audio file. Is repeated to generate an audio file directly from the performance information.

【0014】即ち、本発明のうち請求項2に記載の発明
は、所定時間分の演奏情報を読み込む第1のステップ
と、上記第1のステップによって読み込んだ所定時間分
の演奏情報をオーディオ・データに変換する第2のステ
ップと、上記第2のステップにおける上記所定時間分の
オーディオ・データの変換が終了すると、上記第1のス
テップにおける上記所定時間分の演奏情報の読み込みを
開始させる第3のステップと、上記第2のステップにお
いて変換したオーディオ・データを記憶してオーディオ
・ファイルを生成する第4のステップとを有するように
したものである。
That is, according to a second aspect of the present invention, a first step of reading performance information for a predetermined time, and playing the performance information for a predetermined time read in the first step in audio data. When the conversion of the audio data for the predetermined time in the second step is completed, the reading of the performance information for the predetermined time in the first step is started. And a fourth step of storing the audio data converted in the second step and generating an audio file.

【0015】ここで、上記した第3のステップと第4の
ステップとの処理の順番は、第3のステップ→第4のス
テップの順番に限られることなしに、ソフトウェア・プ
ログラムの設計上の都合に応じて、第4のステップ→第
3のステップの順番にしてもよい。
Here, the order of the processing of the third step and the fourth step is not limited to the order of the third step → the fourth step. , The order of the fourth step → the third step may be adopted.

【0016】[0016]

【発明の実施の形態】以下、添付の図面を参照しなが
ら、本発明によるオーディオ・ファイルの生成処理方法
の実施の形態の一例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of an audio file generation processing method according to the present invention will be described in detail with reference to the accompanying drawings.

【0017】図1は、本発明によるオーディオ・ファイ
ルの生成処理方法を実施可能な、典型的な汎用のコンピ
ュータのハードウェア構成を示すブロック図である。
FIG. 1 is a block diagram showing a hardware configuration of a typical general-purpose computer capable of implementing an audio file generation processing method according to the present invention.

【0018】この図1に示す汎用のコンピュータは、極
めて一般的な構成を備えており、バス(BUS)10を
介して、全体の制御を行うCPU12と、各種のパラメ
ータなどを記憶したランダム・アクセス・メモリ(RA
M)よりなるメモリ(Memory)14と、ハード・
ディスク(Hard Disk)26の制御を行うディ
スク・コントローラ(Disk Controler)
16と、ディスプレイ装置(display)28にお
ける表示を制御する表示機能の処理を行うビデオ・カー
ド(Video Card)18と、キーボード(ke
ybord)30ならびにマウス(mouse)32の
インターフェースであるI/Oカード(I/O Car
d)20と、演奏情報から変換されたオーディオ・デー
タをオーディオ出力信号に変換してオーディオ出力(A
udio Out)として外部へ出力するサウンド機能
の処理を行うサウンド・カード(Sound Car
d)22と、図示しない外部のMIDI機器のインター
フェースであるMIDIインターフェース(MIDI
I/F)24とが接続されている。
The general-purpose computer shown in FIG. 1 has a very general configuration, and has a CPU 12 for performing overall control via a bus (BUS) 10 and a random access memory for storing various parameters and the like.・ Memory (RA
M) and a hard disk
Disk controller for controlling the hard disk 26
16, a video card 18 for processing a display function for controlling display on a display device 28, and a keyboard ke
I / O Card (I / O Car) which is an interface of the Ybord 30 and the mouse 32
d) 20; converting the audio data converted from the performance information into an audio output signal and outputting the audio output signal (A
A sound card (Sound Car) that processes a sound function to be output to the outside as audio out (audio Out)
d) 22 and a MIDI interface (MIDI) which is an interface of an external MIDI device (not shown).
(I / F) 24 is connected.

【0019】以下、上記した各構成のうち本発明の実施
に関連するものについて、適宜に説明するものとする。
Hereinafter, of the above-described components, those relating to the implementation of the present invention will be described appropriately.

【0020】まず、メモリ14は、キーボード30ある
いはマウス32によって設定される各種パラメータなど
が記憶されるものである。なお、キーボード30あるい
はマウス32によって設定される各種パラメータについ
ては、後述するものとする。
First, the memory 14 stores various parameters set by the keyboard 30 or the mouse 32 and the like. Various parameters set by the keyboard 30 or the mouse 32 will be described later.

【0021】次に、サウンド・カード22は、コンピュ
ータのサウンド機能の処理を行うものであり、本発明に
よるオーディオ・ファイルの生成処理方法において生成
されるオーディオ・データからオーディオ出力信号を生
成するものである。
Next, the sound card 22 processes the sound function of the computer, and generates an audio output signal from the audio data generated by the audio file generation processing method according to the present invention. is there.

【0022】また、MIDIインターフェース24は、
図示しない外部のMIDI機器が接続されるインターフ
ェースであり、外部のMIDI機器によって生成された
MIDIメッセージなどのリアルタイムの演奏情報(以
下、「リアルタイム演奏情報」と適宜称する。)が入力
されるものである。
The MIDI interface 24 is
An interface to which an external MIDI device (not shown) is connected, to which real-time performance information such as a MIDI message generated by the external MIDI device (hereinafter, appropriately referred to as “real-time performance information”) is input. .

【0023】さらに、ハード・ディスク26は、SMF
などのような発音開始指示データならびに発音停止指示
データと時間データとの組み合わせよりなる演奏情報、
即ち、ミュージック・データが格納されているものであ
る。なお、ハード・ディスク26に格納されているミュ
ージック・データを処理する際には、処理対象のミュー
ジック・データはメモリ14へ一旦転送されて、メモリ
14から読み出されて使用されることになる。
Further, the hard disk 26 has an SMF
Performance information consisting of a combination of pronunciation start instruction data and pronunciation stop instruction data and time data such as
That is, music data is stored. When processing the music data stored in the hard disk 26, the music data to be processed is temporarily transferred to the memory 14 and read out from the memory 14 for use.

【0024】次に、キーボード30ならびにマウス32
は、ディスプレイ装置28の画面上において所望の位置
や数値を選択して、後述する各種パラメータを設定する
ための操作子であり、このキーボード30あるいはマウ
ス32によって設定されたパラメータの内容はメモリ1
4に記憶されるものである。
Next, the keyboard 30 and the mouse 32
Are operators for selecting a desired position or numerical value on the screen of the display device 28 and setting various parameters described later. The contents of the parameters set by the keyboard 30 or the mouse 32 are stored in the memory 1
4 is stored.

【0025】ここで、設定される各種のパラメータに
は、MIDIインターフェース24に入力されるリアル
タイム演奏情報やミュージック・データを所定のテンポ
で演奏する実時間演奏モードに使用するパラメータと、
ミュージック・データを直接オーディオ・ファイルに変
換するオーディオ・ファイル生成モードに使用されるパ
ラメータとがある。
Here, various parameters to be set include real-time performance information input to the MIDI interface 24 and parameters used in a real-time performance mode for playing music data at a predetermined tempo.
There are parameters used in an audio file generation mode for directly converting music data to an audio file.

【0026】次に、ディスプレイ装置28は、例えば、
液晶表示装置(LCD)により構成されるものであり、
ディスプレイ装置28には、シンセサイザ・プログラム
のGUI(Graphic User Interfa
ce:グラフィック・ユーザー・インターフェース)部
分が表示されるものである。
Next, the display device 28 is, for example,
A liquid crystal display (LCD),
The display device 28 includes a GUI (Graphic User Interface) of a synthesizer program.
ce: Graphic user interface) is displayed.

【0027】図2には、実時間演奏モードにおいて用い
られるパラメータをディスプレイ装置28に表示する際
の表示例が示されており、図3には、オーディオ・ファ
イル生成モードおいて用いられるパラメータをディスプ
レイ装置28に表示する際の表示例が示されている。
FIG. 2 shows a display example in which parameters used in the real-time performance mode are displayed on the display device 28. FIG. 3 shows parameters used in the audio file generation mode. A display example when displaying on the device 28 is shown.

【0028】即ち、ディスプレイ装置28には、図2に
示すように、実時間演奏モードにおいて用いられるパラ
メータとして、サンプリング周波数を示す「サンプリン
グ周波数」のエリア40と、エフェクトを示す「エフェ
クト」のエリア42と、最大発音数を示す「最大発音
数」のエリア44と、CPUの最大の占有率を示す「最
大のCPU占有率」のエリア46と、ハード・ディスク
26に格納されたミュージック・データのうちで現在処
理対象とされているミュージック・データのファイル名
を示す「入力ミュージック・データ・ファイル名」のエ
リア48と、上記した各パラメータの設定を取り消すた
めの「CANCEL」のエリア49とが表示されるもの
である。
That is, as shown in FIG. 2, the display device 28 has, as parameters used in the real-time playing mode, an "sampling frequency" area 40 indicating a sampling frequency and an "effect" area 42 indicating an effect. And an area 44 of "maximum number of sounds" indicating the maximum number of sounds, an area 46 of "maximum number of CPUs" indicating the maximum occupancy of the CPU, and music data stored in the hard disk 26. The area 48 of the "input music data file name" indicating the file name of the music data which is the current processing target, and the area 49 of "CANCEL" for canceling the setting of each parameter described above are displayed. Things.

【0029】ここで、サンプリング周波数としては「1
1KHz」、「22KHz」、「44KHz」が設定さ
れており、エフェクトとしては「リバーブ」、「コーラ
ス」、「ディレイ」、「フィルタ」が設定されている。
Here, the sampling frequency is "1".
"1 KHz", "22 KHz", and "44 KHz" are set, and "Reverb", "Chorus", "Delay", and "Filter" are set as effects.

【0030】なお、図2には、キーボード30あるいは
マウス32によって、「サンプリング周波数」のエリア
40においてサンプリング周波数として「44KHz」
が選択され、「エフェクト」のエリア42においてエフ
ェクトとして「リバーブ」および「コーラス」が選択さ
れ、「最大発音数」のエリア44において最大発音数と
して「64」が設定され、「最大のCPU占有率」のエ
リア46において最大のCPU占有率として「80
(%)」が設定された状態が示されている。
In FIG. 2, the sampling frequency “44 KHz” is set in the “sampling frequency” area 40 by the keyboard 30 or the mouse 32.
Is selected, "Reverb" and "Chorus" are selected as effects in the "Effects" area 42, "64" is set as the maximum number of sounds in the "Maximum number of sounds" area 44, and "Maximum CPU occupancy rate" is set. "In the area 46 of" 80 "
(%) "Is set.

【0031】また、ディスプレイ装置28には、図3に
示すように、オーディオ・ファイル生成モードにおいて
用いられるパラメータたるサンプリング周波数を示す
「サンプリング周波数」のエリア50と、エフェクトを
示す「エフェクト」のエリア51と、最大発音数を示す
「最大発音数」のエリア52と、キーを示す「キー」の
エリア53と、テンポを示す「テンポ」のエリア54
と、ハード・ディスク26に格納されたミュージック・
データのうちで現在処理対象とされているミュージック
・データのファイル名を示す「入力ミュージック・デー
タ・ファイル名」のエリア55と、生成されるオーディ
オ・データが格納されるオーディオ・ファイルのファイ
ル名を示す「出力オーディオ・ファイル名」のエリア5
6と、生成されるオーディオ・データの圧縮方法を示す
「圧縮方法」のエリア57と、上記した各パラメータの
設定を取り消すための「CANCEL」のエリア58
と、オーディオ・ファイルを生成する処理の開始を指示
するための「START」のエリア59とが表示される
ものである。
As shown in FIG. 3, an area 50 of "sampling frequency" indicating a sampling frequency, which is a parameter used in the audio file generation mode, and an area 51 of "effect" indicating an effect, as shown in FIG. , A “maximum pronunciation” area 52 indicating the maximum number of pronunciations, a “key” area 53 indicating the key, and a “tempo” area 54 indicating the tempo
And the music stored in the hard disk 26
The area 55 of the “input music data file name” indicating the file name of the music data currently being processed among the data, and the file name of the audio file in which the generated audio data is stored. Area 5 of "output audio file name" shown
6, an area 57 of "compression method" indicating the compression method of the generated audio data, and an area 58 of "CANCEL" for canceling the setting of each parameter described above.
And a "START" area 59 for instructing the start of the process of generating an audio file.

【0032】ここで、サンプリング周波数としては「1
1KHz」、「22KHz」、「44KHz」が設定さ
れており、エフェクトとしては「リバーブ」、「コーラ
ス」、「ディレイ」、「フィルタ」が設定されており、
圧縮方法としては「ATRAC」、「MP3」、「MP
EG」、「PCM」が設定されている。
Here, the sampling frequency is "1".
"1 KHz", "22 KHz" and "44 KHz" are set, and "Reverb", "Chorus", "Delay" and "Filter" are set as effects.
As compression methods, "ATRAC", "MP3", "MP
EG "and" PCM "are set.

【0033】なお、図3には、キーボード30あるいは
マウス32によって、「サンプリング周波数」のエリア
50においてサンプリング周波数として「44KHz」
が選択され、「エフェクト」のエリア51においてエフ
ェクトとして「リバーブ」、「コーラス」、「ディレ
イ」、「フィルタ」が選択され、「最大発音数」のエリ
ア52において最大発音数として「64」が設定され、
「キー」のエリア53において中位のキーが設定され、
「テンポ」のエリア54において中位のテンポが設定さ
れ、「圧縮方法」のエリア57において圧縮方法として
「ATRAC」が選択された状態が示されている。
FIG. 3 shows that the keyboard 30 or the mouse 32 uses the sampling frequency “44 KHz” in the “sampling frequency” area 50.
Is selected, "Reverb", "Chorus", "Delay", and "Filter" are selected as effects in the "Effects" area 51, and "64" is set as the maximum number of sounds in the "Maximum number of sounds" area 52. And
In the "key" area 53, a middle key is set,
The middle tempo is set in the area 54 of “tempo”, and “ATRAC” is selected as the compression method in the area 57 of “compression method”.

【0034】そして、このコンピュータの操作者は、上
記したようなディスプレイ装置28の表示(図2ならび
に図3参照)を参照しながらキーボード30あるいはマ
ウス32を用いて、実時間演奏モードにおいて用いられ
るパラメータとしてサンプリング周波数、エフェクト、
最大発音数ならびに最大CPU占有率を設定し、オーデ
ィオ・ファイル生成モードおいて用いられるパラメータ
としてサンプリング周波数、エフェクト、最大発音数、
キー、テンポならびに圧縮方法を設定するものである。
Then, the operator of the computer uses the keyboard 30 or the mouse 32 while referring to the display on the display device 28 (see FIGS. 2 and 3) as described above to set parameters used in the real-time performance mode. As sampling frequency, effects,
The maximum number of pronunciations and the maximum CPU occupancy are set, and the sampling frequency, effect, maximum number of pronunciations,
The key, tempo, and compression method are set.

【0035】図4には、上記した汎用コンピュータ(図
1参照)における本発明によるオーディオ・ファイルの
生成処理方法を実現するシンセサイザ・プログラムの全
体構成を概念的に表すブロック図が示されている。
FIG. 4 is a block diagram conceptually showing the overall structure of a synthesizer program for realizing the audio file generation processing method according to the present invention in the general-purpose computer (see FIG. 1).

【0036】このシンセサイザ・プログラムは、MID
Iメッセージのようなリアルタイム演奏情報を所定時間
分格納して当該リアルタイム演奏情報を後述するシンセ
・エンジン64に出力するQUE(キュー)60と、S
MFのようなミュージック・データを読み出して当該ミ
ュージック・データを後述するシンセ・エンジン64に
出力するシーケンサ部62と、QUE60ならびにシー
ケンサ部62から出力された演奏情報を入力してオーデ
ィオ・データに変換した後に出力部66へ出力するシン
セ・エンジン64と、シンセ・エンジン64から出力さ
れたオーディオ・データをサウンド・カード22かオー
ディオ・ファイルかのいずれかに出力する出力部66
と、実時間演奏モードにおける制御を行うリアルタイム
制御部70と、オーディオ・ファイル生成モードにおけ
る制御を行うオーディオ変換制御部72と、実時間演奏
モードやオーディオ・ファイル生成モードにおいて用い
られるパラメータを設定情報としてシーケンサ部62、
シンセ・エンジン64ならびに出力部66に出力する設
定部74とにより構成されている。
This synthesizer program has an MID
A QUE (queue) 60 for storing real-time performance information such as an I message for a predetermined time and outputting the real-time performance information to a synth engine 64 described later;
A sequencer unit 62 that reads out music data such as MF and outputs the music data to a synth engine 64 to be described later, and the QUE 60 and performance information output from the sequencer unit 62 are input and converted into audio data. A synth engine 64 for outputting to the output unit 66 later, and an output unit 66 for outputting audio data output from the synth engine 64 to either the sound card 22 or an audio file
A real-time control unit 70 for controlling in a real-time performance mode, an audio conversion control unit 72 for controlling in an audio file generation mode, and parameters used in the real-time performance mode and the audio file generation mode as setting information. Sequencer section 62,
It comprises a synth engine 64 and a setting section 74 for outputting to an output section 66.

【0037】以下、上記した各構成について、さらに詳
細に説明すると、まず、設定部74は、上記したように
して、このコンピュータの操作者がディスプレイ装置2
8の表示(図2ならびに図3参照)を参照しながらキー
ボード30あるいはマウス32を用いて設定してメモリ
14に記憶された各種のパラメータを、シーケンサ部6
2、シンセ・エンジン64ならびに出力部66に設定情
報として出力するものである。
Hereinafter, each of the above-described components will be described in more detail. First, the setting unit 74 allows the operator of the computer to operate the display device 2 as described above.
8 (see FIGS. 2 and 3), various parameters set using the keyboard 30 or the mouse 32 and stored in the memory 14 are transmitted to the sequencer unit 6.
2. Output as setting information to the synth engine 64 and the output unit 66.

【0038】なお、設定部74によって、各種パラメー
タのうちのキー、テンポならびに入力ミュージック・デ
ータ・ファイル名はシーケンサ部62に出力され、サン
プリング周波数、エフェクト、最大発音数ならびに最大
CPU占有率はシンセ・エンジン64に出力され、出力
オーディオ・ファイル名ならびに圧縮方法は出力部66
に出力されるものである。
The setting section 74 outputs the key, tempo, and input music data file name of the various parameters to the sequencer section 62. The sampling frequency, effects, maximum number of sounds, and maximum CPU occupancy are calculated by the synth. The output audio file name and the compression method are output to the engine 64 and the output unit 66
Is output to

【0039】また、設定部74においては、実時間演奏
モードとオーディオ・ファイル生成モードとで、同種の
パラメータであってもそれぞれ異なったパラメータ値の
設定をすることができるようになされている。
The setting section 74 can set different parameter values for the same kind of parameter in the real-time performance mode and the audio file generation mode.

【0040】次に、リアルタイム制御部70は、QUE
60にリアルタイム演奏情報が入力された旨を制御信号
1によりQUE60から通知されると、所定時間(この
実施の形態においては、「所定時間」は「10ms(1
0ミリ秒)」である。)毎にQUE60とシンセ・エン
ジン64に割り込みをかけて、演奏情報をシンセ・エン
ジン64に送ってオーディオ・データを生成させる制御
を行う。
Next, the real-time control unit 70
When the QUE 60 is notified by the control signal 1 that the real-time performance information has been input to the control unit 60, the predetermined time (in this embodiment, the “predetermined time” is “10 ms (1
0 ms). ), Interrupts the QUE 60 and the synth engine 64 to send performance information to the synth engine 64 to generate audio data.

【0041】また、リアルタイム制御部70は、シーケ
ンサ部62に演奏情報が入力された旨を制御信号2によ
りシーケンサ部62から通知されると、所定時間(この
実施の形態においては、「所定時間」は「10ms(1
0ミリ秒)」である。)毎にシーケンサ部62とシンセ
・エンジン64に割り込みをかけて、演奏情報をシンセ
・エンジン64に送ってオーディオ・データを生成させ
る制御を行う。
When the real-time control unit 70 is notified from the sequencer unit 62 by the control signal 2 that the performance information has been input to the sequencer unit 62, the real-time control unit 70 sets a predetermined time (in this embodiment, "predetermined time"). Is "10ms (1
0 ms). ), The sequencer section 62 and the synth engine 64 are interrupted, and the performance information is sent to the synth engine 64 to control the generation of audio data.

【0042】即ち、リアルタイム制御部70は、10m
sec毎の定期的なタイマー割り込み信号として、QU
E60に格納されている10msec分のリアルタイム
演奏情報のシンセ・エンジン64への出力を指示する制
御信号1をQUE60に対して出力し、また、10ms
ec毎の定期的なタイマー割り込み信号として、ミュー
ジック・データから生成された10msec分の演奏情
報のシンセ・エンジン64への出力を指示する制御信号
2をシーケンサ部62に対して出力し、さらに、QUE
60から出力された制御信号1やシーケンサ部62から
出力された制御信号2を入力すると、演奏情報から10
msec分のオーディオ・データの生成を指示する制御
信号3をシンセ・エンジン64に対して出力することで
実時間演奏モードにおける制御を行なうものである。
That is, the real-time control unit 70
QUA as a periodic timer interrupt signal every second
The control signal 1 instructing the output of the real-time performance information for 10 msec stored in E60 to the synth engine 64 is output to the QUE 60, and the control signal 1 is output for 10 ms.
As a periodic timer interrupt signal for each ec, a control signal 2 for instructing the synth engine 64 to output the performance information for 10 msec generated from the music data to the synth engine 64 is output to the sequencer unit 62.
When the control signal 1 output from the control signal 60 and the control signal 2 output from the sequencer unit 62 are input, 10
The control in the real-time performance mode is performed by outputting a control signal 3 instructing the generation of msec of audio data to the synth engine 64.

【0043】また、オーディオ変換制御部72は、オー
ディオ・ファイル生成処理モードにおいて、シンセ・エ
ンジン64からの制御信号3を制御信号2としてシーケ
ンサ部62へ送って、次の演奏情報の読み取りを指示す
るものであり、また、処理開始時は制御信号3をシンセ
・エンジン64へ送って処理の開始を指示する。
In the audio file generation processing mode, the audio conversion control section 72 sends the control signal 3 from the synth engine 64 to the sequencer section 62 as the control signal 2 to instruct reading of the next performance information. When the processing is started, the control signal 3 is sent to the synth engine 64 to instruct the start of the processing.

【0044】即ち、オーディオ変換制御部72は、シン
セ・エンジン64から出力された制御信号3を入力する
と、ミュージック・データから生成された10msec
分の演奏情報のシンセ・エンジン64への出力を指示す
る制御信号2をシーケンサ部62に対して出力し、シー
ケンサ部62から出力された制御信号2を入力すると、
演奏情報から10msec分のオーディオ・データの生
成を指示する制御信号3をシンセ・エンジン64に対し
て出力することでオーディオ・ファイル生成モードにお
ける制御を行うものである。
That is, when the control signal 3 output from the synth engine 64 is input, the audio conversion control section 72 receives 10 msec generated from the music data.
When the control signal 2 instructing the output of the performance information of the minute to the synth engine 64 is output to the sequencer section 62 and the control signal 2 output from the sequencer section 62 is input,
The control in the audio file generation mode is performed by outputting a control signal 3 instructing the generation of audio data for 10 msec from the performance information to the synth engine 64.

【0045】そして、QUE60は、MIDIインター
フェース24を介して図示しない外部のMIDI機器か
ら入力されるMIDIメッセージのようなリアルタイム
演奏情報を入力し、当該リアルタイム演奏情報を所定時
間(この実施の形態においては、「所定時間」は「10
ms(10ミリ秒)」である。)分格納するとともに、
リアルタイム演奏情報がQUE60に入力されたことを
リアルタイム制御部70に通知する制御信号1をリアル
タイム制御部70に出力するものである。
The QUE 60 inputs real-time performance information such as a MIDI message input from an external MIDI device (not shown) via the MIDI interface 24 and transmits the real-time performance information for a predetermined time (in this embodiment, , The “predetermined time” is “10
ms (10 milliseconds). " ) And store
The control signal 1 for notifying the real-time control unit 70 that the real-time performance information has been input to the QUE 60 is output to the real-time control unit 70.

【0046】また、QUE60は、制御信号1としてリ
アルタイム制御部70からの所定時間(この実施の形態
においては、「所定時間」は「10ms(10ミリ
秒)」である。)毎の定期的な割り込み信号を入力する
と、QUE60に格納されている10ms分のリアルタ
イム演奏情報をシンセ・エンジン64に出力するもので
ある。
Further, the QUE 60 periodically transmits the control signal 1 every predetermined time from the real-time control unit 70 (in this embodiment, the “predetermined time” is “10 ms (10 milliseconds)”). When an interrupt signal is input, the real-time performance information for 10 ms stored in the QUE 60 is output to the synth engine 64.

【0047】次に、シーケンサ部62は、ハード・ディ
スク26に格納されているような予め用意されている演
奏情報と、設定部74から出力されるパラメータたるキ
ー、テンポならびに入力ミュージック・データ・ファイ
ル名の設定情報と、制御信号2とが入力されるものであ
る。
Next, the sequencer unit 62 stores performance information prepared in advance such as stored on the hard disk 26, keys such as parameters output from the setting unit 74, a tempo, and an input music data file. The name setting information and the control signal 2 are input.

【0048】そして、シーケンサ部62は、実時間演奏
モードにおいては、設定情報の入力ミュージック・デー
タ・ファイル名で指定されるハード・ディスク26内の
ファイルのミュージック・データ、即ち、演奏情報を読
み出して入力し、当該演奏情報を所定時間(この実施の
形態においては、「所定時間」は「10ms(10ミリ
秒)」である。)分格納するとともに、演奏情報がシー
ケンサ部62に入力されたことをリアルタイム制御部7
0に通知する制御信号2をリアルタイム制御部70に出
力するものである。
In the real-time performance mode, the sequencer 62 reads out music data of a file in the hard disk 26 specified by the input music data file name of the setting information, that is, the performance information. Input and store the performance information for a predetermined time (in this embodiment, the “predetermined time” is “10 ms (10 milliseconds)”), and the performance information is input to the sequencer unit 62. Real-time control unit 7
The control signal 2 for notifying 0 is output to the real-time control unit 70.

【0049】また、シーケンサ部62は、制御信号2と
してリアルタイム制御部70からの所定時間(この実施
の形態においては、「所定時間」は「10ms(10ミ
リ秒)」である。)毎の定期的な割り込み信号を入力す
ると、シーケンサ部62に格納されている10ms分の
演奏情報をシンセ・エンジン64に出力するものであ
る。
Further, the sequencer section 62 periodically sends the control signal 2 as a control signal 2 from the real-time control section 70 every predetermined time (in this embodiment, the “predetermined time” is “10 ms (10 milliseconds)”). When a typical interrupt signal is input, 10 ms of performance information stored in the sequencer section 62 is output to the synth engine 64.

【0050】一方、シーケンサ部62は、オーディオ・
ファイル生成モードにおいては、設定情報の入力ミュー
ジック・データ・ファイル名で指定されるハード・ディ
スク26内のファイルのミュージック・データ、即ち、
演奏情報を読み出して入力し、当該演奏情報を所定時間
(この実施の形態においては、「所定時間」は「10m
s(10ミリ秒)」である。)分格納するとともに、演
奏情報がシーケンサ部62に入力されたことをオーディ
オ変換制御部72に通知する制御信号2をオーディオ変
換制御部72に出力するものである。
On the other hand, the sequencer section 62
In the file generation mode, music data of a file in the hard disk 26 specified by the input music data file name of the setting information, that is,
The performance information is read and input, and the performance information is stored for a predetermined time (in this embodiment, the "predetermined time" is "10 m
s (10 milliseconds) ". ) And outputs a control signal 2 to the audio conversion control unit 72 to notify the audio conversion control unit 72 that the performance information has been input to the sequencer unit 62.

【0051】また、シーケンサ部62は、制御信号2と
してオーディオ変換制御部72からの割り込み信号を入
力すると、シーケンサ部62に格納されている10ms
分の演奏情報から設定情報のキーならびにテンポに応じ
た演奏情報を生成して、シンセ・エンジン64に出力す
るものである。さらに、シーケンサ部62は、シーケン
サ部62において設定情報のキーならびにテンポに応じ
た演奏情報の生成が開始されたことをオーディオ変換制
御部72に通知する制御信号2をオーディオ変換制御部
72に出力するものである。
When the sequencer section 62 receives an interrupt signal from the audio conversion control section 72 as the control signal 2, the sequencer section 62 stores the 10 ms signal stored in the sequencer section 62.
The performance information corresponding to the key of the setting information and the tempo is generated from the performance information of the minute and output to the synth engine 64. Further, the sequencer section 62 outputs to the audio conversion control section 72 a control signal 2 for notifying the audio conversion control section 72 that the sequencer section 62 has started generating the performance information in accordance with the key of the setting information and the tempo. Things.

【0052】次に、図5には、シンセ・エンジン64の
構成を概念的に表すブロック図が示されている。
Next, FIG. 5 is a block diagram conceptually showing the structure of the synth engine 64.

【0053】このシンセ・エンジン64は、アサイナ8
2を含む演奏情報解読・制御部80と、演奏情報解読・
制御部80の後段に設けられた複数のボイス・チャンネ
ル84と、複数のボイス・チャンネル84が読み出す波
形を記憶する波形テーブル86と、複数のボイス・チャ
ンネル84の後段に設けられた複数のエフェクト処理・
ミキサ処理部88とから構成されるものである。
The synth engine 64 is assigned to the assigner 8
2 including the performance information decryption / control unit 80
A plurality of voice channels 84 provided at a subsequent stage of the control unit 80, a waveform table 86 storing waveforms read out by the plurality of voice channels 84, and a plurality of effect processing provided at a subsequent stage of the plurality of voice channels 84・
And a mixer processing unit 88.

【0054】なお、ボイス・チャンネル84には、波形
テーブル86から波形を読み出す波形テーブル読出部8
4aと、TVF(Time Variable Fil
ter:時変フィルター)84bと、TVA(Time
Variable Amplifier:時変アン
プ)84cと、定位制御部(Pan)84dと、増幅部
84eと、エンベロープ発生部(Env)84fと、L
FO84gとが設けられている。
The voice table 84 has a waveform table reading section 8 for reading a waveform from a waveform table 86.
4a and TVF (Time Variable Fill File)
ter: time-varying filter) 84b and TVA (Time
Variable Amplifier (time-varying amplifier) 84c, a localization control unit (Pan) 84d, an amplification unit 84e, an envelope generation unit (Env) 84f, and L
FO84g.

【0055】そして、シンセ・エンジン64には、QU
E60ならびにシーケンサ部62から出力された演奏情
報と、設定部74から出力されるパラメータたるサンプ
リング周期、エフェクト、最大発音数ならびに最大CP
U占有率の設定情報と、制御信号3とが入力されること
になる。
Then, the synth engine 64 has
The performance information output from the E60 and the sequencer unit 62, the sampling period, the effect, the maximum number of sounds, and the maximum CP which are the parameters output from the setting unit 74.
The setting information of the U occupancy and the control signal 3 are input.

【0056】このシンセ・エンジン64は、実時間演奏
モードにおいては、リアルタイム制御部70からの制御
信号3を入力すると、設定情報のサンプリング周期、エ
フェクト、最大発音数ならびに最大CPU占有率に従っ
て、QUE60ならびにシーケンサ部62から出力され
た演奏情報から10msec分のオーディオ・データを
生成し、当該生成されたオーディオ・データを出力部6
6に出力するとともに、シンセ・エンジン64において
オーディオ・データの生成が終了したことをリアルタイ
ム制御部70に通知する制御信号3をリアルタイム制御
部70に出力するものである。
In the real-time performance mode, when the control signal 3 from the real-time control unit 70 is input, the synth engine 64 changes the QUE 60 and the QUE 60 according to the sampling cycle of the setting information, the effect, the maximum number of sounds, and the maximum CPU occupancy. Audio data for 10 msec is generated from the performance information output from the sequencer section 62 and the generated audio data is output to the output section 6.
6, and outputs a control signal 3 to the real-time control unit 70 for notifying the real-time control unit 70 that the generation of audio data in the synth engine 64 has been completed.

【0057】なお、演奏情報からオーディオ・データを
生成するに際しては、具体的には、演奏情報が演奏情報
解読・制御部80に入力されると、演奏情報のうちの発
音情報(例えば、音色設定、ノート・オン(発音指
示)、ノート・オフ(発音停止指示)など)がアサイナ
82によって該当するボイス・チャンネル84に設定さ
れ、一方、設定情報のエフェクトのコントロール・コマ
ンドなどはエフェクト・ミキサ処理部88に設定され
る。
To generate audio data from the performance information, specifically, when the performance information is input to the performance information decoding and control unit 80, the sound information (for example, tone color setting) of the performance information is output. , Note-on (sound-instruction instruction), note-off (sound-off instruction), and the like are set to the corresponding voice channel 84 by the assigner 82, while the control commands and the like for the effect of the setting information are stored in the effect mixer processing unit. It is set to 88.

【0058】そして、上記した設定がなされたボイス・
チャンネル84における処理と、上記した設定がなされ
たエフェクト・ミキサ部88における処理とによって演
奏情報からオーディオ・データが生成されるものであ
る。
Then, the voice with the above settings is set.
The audio data is generated from the performance information by the processing in the channel 84 and the processing in the effect mixer unit 88 set as described above.

【0059】また、シンセ・エンジン64は、オーディ
オ・ファイル生成モードにおいては、オーディオ変換制
御部72からの制御信号3を入力すると、設定情報のサ
ンプリング周期、エフェクトならびに最大発音数に従っ
て、シーケンサ部62から出力された演奏情報から10
msec分のオーディオ・データを生成し、当該生成さ
れたオーディオ・データを出力部66に出力するととも
に、シンセ・エンジン64においてオーディオ・データ
の生成が終了したことをオーディオ・データ変換制御部
に通知する制御信号3をオーディオ変換制御部72に出
力するものである。
In the audio file generation mode, the synth engine 64 receives the control signal 3 from the audio conversion control unit 72, and receives the control signal 3 from the sequencer unit 62 according to the sampling cycle of the setting information, the effect, and the maximum number of sounds. 10 from the output performance information
msec of audio data is generated, the generated audio data is output to the output unit 66, and the completion of the generation of the audio data in the synth engine 64 is notified to the audio data conversion control unit. The control signal 3 is output to the audio conversion control section 72.

【0060】なお、オーディオ・ファイル生成モードに
おいて演奏情報からオーディオ・データを生成するに際
しては、具体的には、上記した実時間演奏モードにおけ
る演奏情報からオーディオ・データを生成する場合と同
様であるので、その詳細な説明は省略する。
The generation of audio data from the performance information in the audio file generation mode is specifically the same as the generation of audio data from the performance information in the real-time performance mode. , And a detailed description thereof will be omitted.

【0061】そして、出力部66は、実時間演奏モード
においては、シンセ・エンジン64から出力されたオー
ディオ・データ、即ち、シンセ・エンジン64において
QUE60ならびにシーケンサ部62から出力された演
奏情報から生成されたオーディオ・データを、サウンド
・カード22に出力するものである。
In the real time performance mode, the output section 66 is generated from audio data output from the synth engine 64, that is, from the QUE 60 and the performance information output from the sequencer section 62 in the synth engine 64. The audio data is output to the sound card 22.

【0062】また、出力部66は、オーディオ・ファイ
ル生成モードにおいては、シンセ・エンジン64から出
力されたオーディオ・データ、即ち、シンセ・エンジン
64においてシーケンサ部62から出力された演奏情報
から生成されたオーディオ・データを、設定部74から
出力されたパラメータたる圧縮方法の設定情報で指定さ
れる圧縮方法で圧縮し、出力オーディオ・ファイル名の
設定情報で指定されるファイル名のオーディオ・ファイ
ルに出力するものである。
In the audio file generation mode, the output section 66 is generated from audio data output from the synth engine 64, that is, performance information output from the sequencer section 62 in the synth engine 64. The audio data is compressed by the compression method specified by the compression method setting information, which is a parameter output from the setting unit 74, and is output to an audio file having the file name specified by the output audio file name setting information. Things.

【0063】なお、オーディオ・ファイルは、例えば、
メモリ14に設定されており、必要に応じてハード・デ
ィスク26などへ転送することができる。
The audio file is, for example,
It is set in the memory 14 and can be transferred to the hard disk 26 or the like as needed.

【0064】以上の構成において、図7乃至図8に示す
フローチャートを参照しながら、本発明によるオーディ
オ・ファイルの生成処理について説明することとする。
In the above configuration, the audio file generation processing according to the present invention will be described with reference to the flowcharts shown in FIGS.

【0065】ここで、本発明によるオーディオ・ファイ
ルの生成処理の概要を説明しておくと、図6(a)に示
すような演奏情報のうちの10msec分の演奏情報か
らオーディオ・ファイルが生成される場合は、実時間以
上の時間が必要とされるようなことはなく、CPU10
の能力に応じて、図6(b)に示すように実時間と比べ
て短い時間でオーディオ・ファイルを生成することが可
能となるものである。
Here, the outline of the audio file generation processing according to the present invention will be described. An audio file is generated from performance information for 10 msec among the performance information as shown in FIG. In such a case, the time longer than the real time is not required, and the CPU 10
6B, it is possible to generate an audio file in a shorter time than in real time, as shown in FIG. 6B.

【0066】図7には、シンセサイザ・プログラムのメ
イン・ルーチンのフローチャートが示されており、この
メイン・ルーチンは、ソフトウェア・シンセサイザの起
動時に実行されるものである。
FIG. 7 shows a flowchart of the main routine of the synthesizer program. This main routine is executed when the software synthesizer is started.

【0067】このメイン・ルーチンにおいては、まず、
ステップS702の処理において、シンセサイザ・プロ
グラムの実時間演奏モードならびにオーディオ・ファイ
ル生成モードにおいて用いられる各種パラメータの初期
化が行われる。
In this main routine, first,
In the process of step S702, various parameters used in the real-time performance mode and the audio file generation mode of the synthesizer program are initialized.

【0068】そして、ステップS702の処理を終了す
ると、ステップS704の処理に進んで、ミュージック
・データを演奏するか否かが判断される。
When the processing in step S702 ends, the flow advances to the processing in step S704 to determine whether or not to play music data.

【0069】このステップS704の判断処理におい
て、ミュージック・データを演奏すると判断された場合
には、ハード・ディスク26に格納されているミュージ
ック・データのような予め用意されている演奏情報がシ
ンセサイザ・プログラムに入力されており、ステップS
706の処理に進む。
If it is determined in step S704 that the music data is to be played, prepared performance information such as music data stored in the hard disk 26 is stored in the synthesizer program. Has been entered in step S
The process proceeds to 706.

【0070】一方、ステップS704の判断処理におい
て、ミュージック・データを演奏しないと判断された場
合には、MIDIインターフェース24を介してMID
Iメッセージなどのリアルタイム演奏情報がシンセサイ
ザ・プログラムに入力されており、ステップS708の
処理に進む。
On the other hand, if it is determined in step S704 that the music data is not to be played, the MID
The real-time performance information such as the I message has been input to the synthesizer program, and the process proceeds to step S708.

【0071】ステップS706の処理においては、ステ
ップS704の処理において演奏すると判断されたミュ
ージック・データを実時間で演奏するか否か、即ち、キ
ーボード30およびマウス32によってディスプレイ装
置28の画面上の「START」のエリア59(図3参
照)が選択されていて、シンセサイザ・プログラムのモ
ードがオーディオ・ファイル生成モードにモード設定さ
れているか否かが判断される。
In the process of step S706, it is determined whether or not the music data determined to be played in the process of step S704 is to be played in real time, that is, "START" on the screen of the display device 28 by the keyboard 30 and the mouse 32. Area 59 (see FIG. 3) is selected, and it is determined whether or not the mode of the synthesizer program is set to the audio file generation mode.

【0072】このステップS706の判断処理におい
て、ステップS704の処理において演奏すると判断さ
れたミュージック・データを実時間で演奏すると判断さ
れた場合、即ち、キーボード30およびマウス32によ
ってディスプレイ装置28の画面上の「START」の
エリア59(図3参照)が選択されてなくて、シンセサ
イザ・プログラムのモードが実時間演奏モードである場
合には、ステップS708の処理に進む。
In the determination processing of step S706, when it is determined that the music data determined to be played in the processing of step S704 is to be played in real time, that is, the keyboard 30 and the mouse 32 are used to display on the screen of the display device 28. If the “START” area 59 (see FIG. 3) has not been selected and the synthesizer program mode is the real-time performance mode, the process proceeds to step S708.

【0073】一方、このステップS706の判断処理に
おいて、ステップS704において演奏すると判断され
たミュージック・データを実時間で演奏しないと判断さ
れた場合、即ち、キーボード30およびマウス32によ
ってディスプレイ装置28の画面上の「START」の
エリア59(図3参照)が選択されていて、シンセサイ
ザ・プログラムのモードがオーディオ・ファイル生成モ
ードである場合には、ステップS710の処理に進む。
On the other hand, if it is determined in step S 706 that the music data determined to be played in step S 704 is not to be played in real time, that is, the keyboard 30 and the mouse 32 are used to display on the screen of the display device 28. If the "START" area 59 (see FIG. 3) is selected and the mode of the synthesizer program is the audio file generation mode, the process proceeds to step S710.

【0074】そして、ステップS708の処理において
は、入力された演奏情報に基づいて、サウンド・カード
22において実時間でオーディオ出力信号が生成され
る。
In the process of step S708, an audio output signal is generated in the sound card 22 in real time based on the input performance information.

【0075】つまり、ステップS702→ステップS7
04→ステップS708の処理と進むことで、MIDI
メッセージなどのリアルタイム演奏情報からオーディオ
出力信号が生成される実時間演奏モードにおける処理が
行われる。
That is, step S702 → step S7
04 → By proceeding to the processing of step S708, the MIDI
Processing in a real-time performance mode in which an audio output signal is generated from real-time performance information such as a message is performed.

【0076】具体的には、リアルタイム制御部70から
制御信号1によって、QUE60に格納されていた10
msec分のリアルタイム演奏情報がシンセ・エンジン
64に出力され、その後、リアルタイム制御部70から
制御信号3によって、サンプリング周期、エフェクト、
最大発音数ならびに最大CPU占有率などパラメータ
(図2参照)に従った10msec分のオーディオ・デ
ータがシンセ・エンジン64において生成され、そし
て、当該オーディオ・データが出力部66からサウンド
・カード22に出力されてオーディオ出力信号が生成さ
れるものであり、こうした処理を処理すべき演奏情報が
なくなるまで繰り返し実行する。
Specifically, according to the control signal 1 from the real-time control unit 70, the 10
msec of real-time performance information is output to the synth engine 64, and thereafter, the sampling period, effect,
Audio data for 10 msec is generated in the synth engine 64 in accordance with parameters such as the maximum number of sounds and the maximum CPU occupancy (see FIG. 2), and the audio data is output from the output unit 66 to the sound card 22. Thus, an audio output signal is generated, and such processing is repeatedly executed until there is no performance information to be processed.

【0077】また、ステップS702→ステップS70
4→ステップS706→ステップS708と進むこと
で、ミュージック・データのような予め用意されている
演奏情報からオーディオ出力信号が生成される実時間演
奏モードにおける処理が行われる。
Step S702 → Step S70
By proceeding from step 4 to step S706 and step S708, processing in a real-time performance mode in which an audio output signal is generated from previously prepared performance information such as music data is performed.

【0078】具体的には、リアルタイム制御部70から
の制御信号2によって、シーケンサ部62においてミュ
ージック・データから生成された10msec分の演奏
情報がシンセ・エンジン64に出力され、その後、リア
ルタイム制御部70から制御信号3によって、サンプリ
ング周期、エフェクト、最大発音数ならびに最大CPU
占有率などパラメータ(図2参照)に従った10mse
c分のオーディオ・データがシンセ・エンジン64にお
いて生成され、そして、当該オーディオ・データが出力
部66からサウンド・カード22に出力されてオーディ
オ出力信号が生成されるものであり、こうした処理を処
理すべき演奏情報がなくなるまで繰り返し実行する。
More specifically, according to the control signal 2 from the real-time control unit 70, the performance information for 10 msec generated from the music data in the sequencer unit 62 is output to the synth engine 64, and thereafter, the real-time control unit 70 , Control cycle 3, sampling period, effect, maximum number of sounds and maximum CPU
10 ms according to parameters such as occupancy (see Fig. 2)
The audio data for c is generated in the synth engine 64, and the audio data is output from the output unit 66 to the sound card 22 to generate an audio output signal. The process is repeatedly executed until there is no more performance information.

【0079】そして、ステップS708において、全て
の演奏情報の処理を行い、処理すべき演奏情報がなくな
った場合には、このメイン・ルーチンを終了する。
In step S708, all the performance information is processed, and when there is no more performance information to be processed, the main routine ends.

【0080】一方、ステップS710においては、オー
ディオ・ファイル生成処理が行われるものであり、図8
には、このメイン・ルーチンのサブ・ルーチンとして、
ステップS710において実行されるオーディオ・ファ
イル生成処理ルーチンが示されている。
On the other hand, in step S710, an audio file generation process is performed.
Contains the following subroutines of this main routine:
An audio file generation processing routine executed in step S710 is shown.

【0081】こうして、ステップS702→ステップS
704→ステップS706→ステップS710と進み、
ステップS710の処理を終了すると、ミュージック・
データのような予め用意されている演奏情報からオーデ
ィオ・ファイルが生成されるオーディオ・ファイル生成
モードにおける処理が行われて、このメイン・ルーチン
を終了する。
Thus, step S702 → step S702
704 → step S706 → step S710,
When the process of step S710 ends, the music
The processing in the audio file generation mode in which an audio file is generated from performance information prepared in advance such as data is performed, and this main routine ends.

【0082】次に、図8に示すオーディオ・ファイル生
成処理ルーチンについて説明すると、まず、ステップS
802において、設定情報の入力ミュージック・データ
・ファイル名で指定されるミュージック・データに関し
て、10msec分のミュージック・データをシーケン
サ部62に読み込ませる。
Next, the audio file generation processing routine shown in FIG. 8 will be described.
In step 802, the sequencer unit 62 reads 10 msec of music data specified by the input music data file name in the setting information.

【0083】そして、ステップS802の処理を終了す
ると、ステップS804の処理に進んで、全てのミュー
ジック・データをオーディオ・ファイルに変換できたか
否かが判断される。
When the processing in step S802 is completed, the flow advances to step S804 to determine whether all music data has been converted to an audio file.

【0084】このステップS804の判断処理におい
て、全てのミュージック・データをオーディオ・ファイ
ルに変換できたと判断された場合には、設定情報の入力
ミュージック・データ・ファイル名で指定されるファイ
ル内には、オーディオ・ファイルに変換されていないミ
ュージック・データが存在しないので、このオーディオ
・ファイルの生成処理ルーチンを終了してメイン・ルー
チンへリターンする。
If it is determined in step S804 that all the music data has been converted to an audio file, the file specified by the input music data file name in the setting information contains: Since there is no music data that has not been converted to the audio file, the audio file generation processing routine is terminated, and the process returns to the main routine.

【0085】一方、このステップS804の判断処理に
おいて、全てのミュージック・データをオーディオ・フ
ァイルに変換できていないと判断された場合には、設定
情報の入力ミュージック・データ・ファイル名で指定さ
れるファイル内には、オーディオ・ファイルに変換され
ていないミュージック・データが存在するのでステップ
S806に進んで、オーディオ変換処理を行なう。
On the other hand, if it is determined in step S804 that all the music data has not been converted to an audio file, the file specified by the input music data file name in the setting information is determined. Since there is music data that has not been converted into an audio file, the flow advances to step S806 to perform audio conversion processing.

【0086】このステップS806におけるオーディオ
変換処理においては、具体的には、オーディオ変換制御
部72からの制御信号2によって、ステップS802に
おいてシーケンサ部62に読み込んだミュージック・デ
ータからキーならびにテンポなどのパラメータ(図3参
照)に従った10msec分の演奏情報がシンセ・エン
ジン64に出力され、その後、オーディオ変換制御部7
2からの制御信号3によって、サンプリング周期、エフ
ェクトならびに最大発音数などのパラメータ(図3参
照)に従った10msec分のオーディオ・データがシ
ンセ・エンジン64において生成され、そして、当該オ
ーディオ・データが出力部66から圧縮方法や出力オー
ディオ・ファイル名などのパラメータ(図3参照)に従
ってオーディオ・ファイルに出力されるものである。
In the audio conversion processing in step S806, specifically, the control signal 2 from the audio conversion control section 72 converts the music data read into the sequencer section 62 in step S802 into parameters such as keys and tempos. The performance information for 10 msec according to FIG. 3) is output to the synth engine 64, and thereafter, the audio conversion control unit 7
In accordance with the control signal 3 from the control unit 2, audio data for 10 msec is generated in the synth engine 64 in accordance with parameters (see FIG. 3) such as a sampling period, an effect, and a maximum number of sounds, and the audio data is output. The data is output from the unit 66 to an audio file according to parameters such as a compression method and an output audio file name (see FIG. 3).

【0087】そして、ステップS806を終了するとス
テップS802に戻り、ステップS802乃至ステップ
S806の処理を繰り返すことになる。
When step S806 is completed, the process returns to step S802, and the processes in steps S802 to S806 are repeated.

【0088】つまり、ステップS804において、全て
のミュージック・データをオーディオ・ファイルに変換
できたと判断されない限りは、ステップS802乃至ス
テップS806の処理が繰り返し実行されることにな
り、全てのミュージック・データをオーディオ・ファイ
ルに変換することができる。
That is, unless it is determined in step S804 that all the music data has been converted to an audio file, the processing of steps S802 to S806 is repeatedly executed, and all the music data is converted to an audio file.・ Can be converted to a file.

【0089】従って、生成されたオーディオ・ファイル
に記憶されたオーディオ・データを読み出してデジタル
/アナログ(D/A)変換を行うことにより、楽音が生
成されることになる。
Therefore, by reading out the audio data stored in the generated audio file and performing digital / analog (D / A) conversion, a musical tone is generated.

【0090】そして、生成されたオーディオ・ファイル
が再生される場合において、オーディオ・ファイル生成
モードにおいて設定情報として設定されたサンプリング
周波数で再生したときには、オーディオ・ファイル生成
モードにおいて設定情報として設定されたテンポで演奏
されることになる。
When the generated audio file is reproduced, when the reproduction is performed at the sampling frequency set as the setting information in the audio file generation mode, the tempo set as the setting information in the audio file generation mode is used. Will be played.

【0091】また、生成されたオーディオ・ファイルが
再生される場合には、オーディオ・ファイルを生成する
際に用いたパラメータ(図3参照)に従って再生される
だけではなく、別途に実時間演奏に際してのパラメータ
(図2参照)を設定することにより、当該設定されたパ
ラメータに従って再生することもできるものである。
When the generated audio file is reproduced, it is not only reproduced according to the parameters used for generating the audio file (see FIG. 3), but also separately for real-time performance. By setting the parameters (see FIG. 2), it is also possible to reproduce according to the set parameters.

【0092】上記したようにして、本発明によるオーデ
ィオ・ファイルの生成処理方法においては、オーディオ
変換制御部72の制御によってオーディオ・ファイル生
成モードにおける処理が行われ、演奏情報からオーディ
オ出力信号を生成することなく直接的にオーディオ・フ
ァイルが生成されるので、CPUの能力に応じて、実時
間演奏の時間と比べて短い時間でオーディオ・ファイル
を生成することができるようになる。
As described above, in the audio file generation processing method according to the present invention, the processing in the audio file generation mode is performed under the control of the audio conversion control section 72, and the audio output signal is generated from the performance information. Since the audio file is generated directly without any processing, the audio file can be generated in a shorter time than the time of the real-time performance according to the capacity of the CPU.

【0093】また、本発明によるオーディオ・ファイル
の生成処理方法においては、CPUの能力が低いような
場合であっても、時間をかけて処理することにより、当
該低いCPUの能力の範囲に制限されることなく演奏情
報の内容の全てをオーディオ・ファイルとして生成する
ことができる。
Further, in the audio file generation processing method according to the present invention, even if the CPU has a low capacity, the processing is performed over a long period of time, so that the processing is limited to the range of the low CPU capacity. All of the contents of the performance information can be generated as an audio file without any need.

【0094】つまり、実時間演奏においてはCPUの能
力が不足し、ボイス数などが不足することにより演奏情
報の内容に忠実な演奏が困難な場合でも、オーディオ・
ファイルを生成するに際してはパラメータを高品質な値
に独立して設定できるので(図3参照)、高品位なオー
ディオ・ファイルを得ることができるようになる。
That is, even if the performance of the CPU is insufficient in real-time performance and the number of voices is insufficient, it is difficult to perform faithfully in the content of the performance information.
When a file is generated, parameters can be independently set to high-quality values (see FIG. 3), so that a high-quality audio file can be obtained.

【0095】なお、上記した実施の形態においては、設
定される各種のパラメータは図2ならびに図3において
示されるものとしたが、これに限られるものではないこ
とは勿論であり、ビット長などその他のパラメータ設定
するようにしてもよい。
In the above embodiment, various parameters to be set are shown in FIG. 2 and FIG. 3. However, it is needless to say that the parameters are not limited to these, and May be set.

【0096】また、上記した実施の形態においては、Q
UE60に入力されるMIDIメッセージのようなリア
ルタイム演奏情報からは、オーディオ・ファイルは生成
されないようにしたが、これに限られるものではないこ
とは勿論であり、QUE60に入力されるMIDIメッ
セージのようなリアルタイム演奏情報から、オーディオ
・ファイルが生成されるようにしてもよく、その際に
は、リアルタイムの演奏情報がオーディオ変換制御部7
2の制御を受けるような構成の変更などを行えばよい。
In the above-described embodiment, Q
Although the audio file is not generated from the real-time performance information such as the MIDI message input to the UE 60, the present invention is not limited to this. Of course, the audio file is not limited to this. An audio file may be generated from the real-time performance information. In this case, the real-time performance information is stored in the audio conversion control unit 7.
The configuration may be changed to receive the control of step 2.

【0097】[0097]

【発明の効果】本発明は、以上説明したように構成され
ているので、ミュージック・データを演奏するのではな
く、直接オーディオ・データに変換するという優れた効
果を奏する。
Since the present invention is configured as described above, the present invention has an excellent effect that music data is not directly played but directly converted into audio data.

【0098】このことにより、CPUの能力が高い場合
には、実際の演奏時間よりも早くオーディオ・ファイル
を生成記憶することができ、また、複雑な処理、例え
ば、単位時間当たりに生成する楽音の数が多い場合や、
複雑な効果を付与する場合に、実時間では実現できない
処理も時間をかけて行うことにより、高品位な楽音、演
奏をオーディオ・ファイルとして記憶することができる
ようになる。
Thus, when the performance of the CPU is high, it is possible to generate and store an audio file earlier than the actual playing time, and it is also possible to perform complicated processing, for example, to generate a musical sound per unit time. If the number is large,
When a complicated effect is applied, processing that cannot be realized in real time is also performed over time, so that high-quality musical sounds and performances can be stored as audio files.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明によるオーディオ・ファイルの生成処理
方法を実施可能な、典型的な汎用のコンピュータのハー
ドウェア構成を示すブロック図である。
FIG. 1 is a block diagram showing a hardware configuration of a typical general-purpose computer capable of implementing an audio file generation processing method according to the present invention.

【図2】実時間演奏モードにおいて用いられるパラメー
タをディスプレイ装置に表示する際の表示例を示す説明
図である。
FIG. 2 is an explanatory diagram showing a display example when parameters used in a real-time performance mode are displayed on a display device.

【図3】オーディオ・ファイル生成モードおいて用いら
れるパラメータをディスプレイ装置に表示する際の表示
例を示す説明図である。
FIG. 3 is an explanatory diagram showing a display example when parameters used in an audio file generation mode are displayed on a display device.

【図4】本発明によるオーディオ・ファイルの生成処理
方法を実現するシンセサイザ・プログラムの全体構成を
概念的に表すブロック図である。
FIG. 4 is a block diagram conceptually showing an overall configuration of a synthesizer program for realizing an audio file generation processing method according to the present invention.

【図5】シンセ・エンジンの構成を概念的に表すブロッ
ク図である。
FIG. 5 is a block diagram conceptually showing a configuration of a synth engine.

【図6】(a)は、演奏情報の進行時間を示す説明図で
あり、(b)は、本発明によるオーディオ・ファイル生
成処理時間を示す説明図であり、
FIG. 6 (a) is an explanatory diagram showing a progress time of performance information, FIG. 6 (b) is an explanatory diagram showing an audio file generation processing time according to the present invention,

【図7】メイン・ルーチンのフローチャートである。FIG. 7 is a flowchart of a main routine.

【図8】オーディオ・ファイル生成処理ルーチンのフロ
ーチャートである。
FIG. 8 is a flowchart of an audio file generation processing routine.

【符号の説明】[Explanation of symbols]

10 バス 12 中央処理装置(CPU) 14 メモリ 16 ディスク・コントローラー 18 ビデオ・カード 20 I/Oカード 22 サウンド・カード 24 MIDIインターフェース 26 ハード・ディスク 28 ディスプレイ 30 キーボード 32 マウス 40、50 サンプリング周波数のエリア 42、51 エフェクトのエリア 44、52 最大発音数のエリア 46 最大CPU占有率のエリア 48、55 入力ミュージック・データ・ファイル名の
エリア 49、58 CANCELのエリア 53 キーのエリア 54 テンポのエリア 56 出力オーディオ・ファイル名のエリア 57 圧縮方法のエリア 59 STARTのエリア 60 QUE 62 シーケンサ部 64 シンセ・エンジン 66 出力部 70 リアルタイム制御部 72 オーディオ変換制御部 74 設定部 80 演奏情報解読・制御部 82 アサイナ 84 ボイス・チャンネル 86 波形テーブル 88 エフェクト処理・ミキサ処理部
10 Bus 12 Central Processing Unit (CPU) 14 Memory 16 Disk Controller 18 Video Card 20 I / O Card 22 Sound Card 24 MIDI Interface 26 Hard Disk 28 Display 30 Keyboard 32 Mouse 40, 50 Sampling Frequency Area 42, 51 area for effects 44, 52 area for maximum pronunciation 46 area for maximum CPU occupancy 48, 55 area for input music data file name 49, 58 area for CANCEL 53 area for key 54 area for tempo 56 output audio file Name area 57 Compression method area 59 START area 60 QUE 62 Sequencer section 64 Synth engine 66 Output section 70 Real-time control section 72 Audio conversion Control unit 74 setting unit 80 play information interpreter and control unit 82 assigner 84 voice channels 86 wavetable 88 effects processing and mixing processor

フロントページの続き Fターム(参考) 5D378 AD59 BB01 BB02 BB10 BB12 BB15 BB22 GG22 JB04 JC09 MM12 MM16 MM21 MM62 MM65 QQ06 QQ08 QQ32 QQ34 TT13 TT14 TT19 Continued on the front page F-term (reference) 5D378 AD59 BB01 BB02 BB10 BB12 BB15 BB22 GG22 JB04 JC09 MM12 MM16 MM21 MM62 MM65 QQ06 QQ08 QQ32 QQ34 TT13 TT19 TT19

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 サンプリング周波数を設定する第1のス
テップと、 テンポを設定する第2のステップと、 演奏情報を順次読み込む第3のステップと、 前記第3のステップによって順次読み込まれた演奏情報
を、前記第1のステップによって設定されたサンプリン
グ周波数および前記第2のステップで設定されたテンポ
に対応するオーディオ・データに順次変換する第4のス
テップと、 前記第4のステップによって順次変換されたオーディオ
・データを順次ファイルに記憶して、該オーディオ・デ
ータを前記第1のステップによって設定されたサンプリ
ング周波数で再生したときに、前記第2のステップによ
って設定されたテンポで演奏されるオーディオ・ファイ
ルを生成する第5のステップとを有するオーディオ・フ
ァイルの生成処理方法。
1. A first step of setting a sampling frequency, a second step of setting a tempo, a third step of sequentially reading performance information, and a step of reading performance information sequentially read by the third step. A fourth step of sequentially converting audio data corresponding to the sampling frequency set in the first step and the tempo set in the second step, and audio sequentially converted in the fourth step Data is sequentially stored in a file, and when the audio data is reproduced at the sampling frequency set in the first step, an audio file played at the tempo set in the second step is stored. Audio file generation processing method having a fifth step of generation
【請求項2】 所定時間分の演奏情報を読み込む第1の
ステップと、 前記第1のステップによって読み込んだ所定時間分の演
奏情報をオーディオ・データに変換する第2のステップ
と、 前記第2のステップにおける前記所定時間分のオーディ
オ・データの変換が終了すると、前記第1のステップに
おける前記所定時間分の演奏情報の読み込みを開始させ
る第3のステップと、 前記第2のステップにおいて変換したオーディオ・デー
タを記憶してオーディオ・ファイルを生成する第4のス
テップとを有するオーディオ・ファイルの生成処理方
法。
2. A first step of reading performance information of a predetermined time, a second step of converting the performance information of the predetermined time read in the first step into audio data, and When the conversion of the audio data for the predetermined time in the step is completed, a third step of starting reading the performance information for the predetermined time in the first step, and an audio data converted in the second step. And a fourth step of generating an audio file by storing data.
JP26661799A 1999-09-21 1999-09-21 Method for generating/processing audio file Pending JP2001092450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26661799A JP2001092450A (en) 1999-09-21 1999-09-21 Method for generating/processing audio file

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26661799A JP2001092450A (en) 1999-09-21 1999-09-21 Method for generating/processing audio file

Publications (1)

Publication Number Publication Date
JP2001092450A true JP2001092450A (en) 2001-04-06

Family

ID=17433313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26661799A Pending JP2001092450A (en) 1999-09-21 1999-09-21 Method for generating/processing audio file

Country Status (1)

Country Link
JP (1) JP2001092450A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080285953A1 (en) * 2004-06-01 2008-11-20 Nobukazu Kurauchi Reproduction Apparatus, Reproduction Processing Circuit, Reproduction Method, Reproduction Program, and Computer-Readable Record Medium with Reproduction Program
JP2014074781A (en) * 2012-10-03 2014-04-24 Yamaha Corp Audio file generation program and audio file generation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080285953A1 (en) * 2004-06-01 2008-11-20 Nobukazu Kurauchi Reproduction Apparatus, Reproduction Processing Circuit, Reproduction Method, Reproduction Program, and Computer-Readable Record Medium with Reproduction Program
JP2014074781A (en) * 2012-10-03 2014-04-24 Yamaha Corp Audio file generation program and audio file generation device

Similar Documents

Publication Publication Date Title
JPH0816169A (en) Sound formation, sound formation device and sound formation controller
JPH0772879A (en) Background chorus reproducing device in karaoke device
JPH0744183A (en) Karaoke playing device
JP4561636B2 (en) Musical sound synthesizer and program
JP4802857B2 (en) Musical sound synthesizer and program
JP3625880B2 (en) Sound generator
JPH07121181A (en) Sound information processor
JP2001092450A (en) Method for generating/processing audio file
JP4802947B2 (en) Performance method determining device and program
JP3928725B2 (en) Music signal generator and legato processing program
JPH10319961A (en) Sound generating timing controller
JP3778361B2 (en) Sound source device and electronic device equipped with sound source device
JPH10207465A (en) Method of generating musical sound and device therefor
JPH10187172A (en) Karaoke device
JP3148803B2 (en) Sound source device
JP3166670B2 (en) Karaoke device and automatic performance device
JP2767173B2 (en) Sound effect device
JP3405170B2 (en) Music synthesizer
JPH09230881A (en) Karaoke device
JP3166671B2 (en) Karaoke device and automatic performance device
JPH10222165A (en) Sound effect adding device
JP2000163072A (en) Pitch controller for waveform reproducing device
JPH0863154A (en) Electronic musical instrument having localized movement feeling reproducing function
JP2972364B2 (en) Musical information processing apparatus and musical information processing method
JPH02192259A (en) Output device for digital music information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080527