JP3322209B2 - Sound source system and storage medium using computer software - Google Patents

Sound source system and storage medium using computer software

Info

Publication number
JP3322209B2
JP3322209B2 JP10394698A JP10394698A JP3322209B2 JP 3322209 B2 JP3322209 B2 JP 3322209B2 JP 10394698 A JP10394698 A JP 10394698A JP 10394698 A JP10394698 A JP 10394698A JP 3322209 B2 JP3322209 B2 JP 3322209B2
Authority
JP
Japan
Prior art keywords
tone
monitoring
signal
module
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10394698A
Other languages
Japanese (ja)
Other versions
JPH11288290A (en
Inventor
英之 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP10394698A priority Critical patent/JP3322209B2/en
Priority to US09/281,167 priority patent/US6040516A/en
Publication of JPH11288290A publication Critical patent/JPH11288290A/en
Application granted granted Critical
Publication of JP3322209B2 publication Critical patent/JP3322209B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/007Real-time simulation of G10B, G10C, G10D-type instruments using recursive or non-linear techniques, e.g. waveguide networks, recursive algorithms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S84/00Music
    • Y10S84/09Filtering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S84/00Music
    • Y10S84/10Feedback

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータソフ
トウェアを用いて楽音を合成する音源システムおよび該
コンピュータソフトウェアを記憶した記憶媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a tone generator system for synthesizing a musical tone using computer software, and a storage medium storing the computer software.

【0002】[0002]

【従来の技術】従来、コンピュータソフトウェアを用い
て楽音を合成する音源システムの一つとして、自然楽器
の発音メカニズム(物理現象)をシミュレートし、当該
自然楽器の音色の楽音を合成する物理モデル音源と呼ば
れるものが知られている(たとえば特開平2−2938
98号公報参照)。
2. Description of the Related Art Conventionally, as one of sound source systems for synthesizing musical tones using computer software, a physical model sound source that simulates a sounding mechanism (physical phenomenon) of a natural musical instrument and synthesizes a musical tone of the tone of the natural musical instrument. What is known as (for example, Japanese Unexamined Patent Publication No.
No. 98).

【0003】物理モデル音源は、具体的には、自然楽器
の発音メカニズムを次のようにしてシミュレートする。
The physical model sound source specifically simulates the sounding mechanism of a natural musical instrument as follows.

【0004】すなわち、シミュレートすべき自然楽器
が、たとえば管楽器の場合には、演奏者の息圧に相当す
る信号(励振信号)を発生させ、この息圧が管内を通っ
て楽音信号になるまでの物理現象を、少なくとも励振信
号の遅延およびループによりシミュレートする。
That is, when the natural musical instrument to be simulated is, for example, a wind instrument, a signal (excitation signal) corresponding to the breath pressure of the player is generated, and the breath pressure passes through the tube until it becomes a musical tone signal. Is simulated by at least a delay of an excitation signal and a loop.

【0005】また、シミュレートすべき自然楽器が弦楽
器の場合には、演奏者の弓速度および弓圧によって弦に
発生する初期振動に相当する信号(励振信号)を発生さ
せ、この初期振動によって発生した弦振動が弦を振動さ
せて楽音信号になるまでの物理現象を、少なくとも励振
信号の遅延およびループによりシミュレートする。
When the natural musical instrument to be simulated is a stringed musical instrument, a signal (excitation signal) corresponding to the initial vibration generated in the string by the bow speed and bow pressure of the player is generated, and the signal is generated by the initial vibration. A physical phenomenon until the vibrating string vibrates the string to become a tone signal is simulated by at least a delay of the excitation signal and a loop.

【0006】このように、物理モデル音源は、少なくと
も励振信号を遅延しループさせることによって、自然楽
器の発音メカニズムをシミュレートしているので、コン
ピュータソフトウェアによって容易に物理モデル音源を
実現することができ、実際に製品化されている。
As described above, the physical model sound source simulates the sounding mechanism of the natural musical instrument by delaying and looping at least the excitation signal, so that the physical model sound source can be easily realized by computer software. Has actually been commercialized.

【0007】[0007]

【発明が解決しようとする課題】しかし、上記従来の物
理モデル音源、すなわちコンピュータソフトウェアによ
って実現した物理モデル音源では、ほぼ演算のみによっ
て楽音を発生させるためにその演算量は多く、また、同
時発音数を多くすればするほど演算量は増大するため、
CPUの能力が向上した現在においても、この演算量は
CPUにとって多大な負荷となっている。この事情は、
物理モデル音源が楽音出力を行っていないとき、すなわ
ち無音のときでもほとんど変化なく、CPUにはある一
定以上の演算負荷が常時かかっている。したがって、物
理モデル音源の起動時、実行時には、無音状態であるに
も拘わらず、他のアプリケーションプログラムを同時に
起動、実行させることができない場合があった。
However, in the above-mentioned conventional physical model sound source, that is, a physical model sound source realized by computer software, a musical tone is generated almost only by calculation, so that the amount of calculation is large and the number of simultaneous sounds is large. As the number of computations increases, the computational complexity increases.
Even today, when the performance of the CPU has been improved, the amount of calculation is a great load on the CPU. This situation is
Even when the physical model sound source is not outputting a musical sound, that is, when there is no sound, there is almost no change, and a certain or more calculation load is constantly applied to the CPU. Therefore, when the physical model sound source is activated and executed, it may not be possible to simultaneously activate and execute another application program despite the silent state.

【0008】また、CPUに対する演算負荷について
は、物理モデル音源以外のソフト音源(コンピュータソ
フトウェアを用いて楽音を合成する音源)であっても、
程度の差はあるものの問題になっており、たとえばFM
音源方式のソフト音源に対して、本願出願人は、特願平
8−246942において、CPUの演算負荷を減少さ
せる手法を開示した。具体的には、楽音の出力波形を監
視し、その振幅レベルが所定の閾値より小さくなったと
きに、所定の波形生成ブロック(ソフトウェアによって
記述されるブロック)における演算を停止して、CPU
の演算量を減少させている。
[0008] Regarding the calculation load on the CPU, even if the sound source is a soft sound source other than the physical model sound source (a sound source that synthesizes a musical tone using computer software),
It has been a problem, albeit to a different degree.
The applicant of the present application has disclosed a method of reducing the computational load on a CPU in Japanese Patent Application No. 8-246942 for a sound source type soft sound source. More specifically, the output waveform of the musical tone is monitored, and when the amplitude level of the output waveform becomes smaller than a predetermined threshold value, the calculation in a predetermined waveform generation block (a block described by software) is stopped, and the CPU is stopped.
Is reduced.

【0009】この手法を単純に物理モデル音源に適用し
て、楽音の出力状態を監視し、無音状態になったとき
に、物理モデル音源処理を停止することにより、CPU
の演算負荷を低減させることも考えられる。
By simply applying this method to the physical model sound source, monitoring the output state of the musical sound, and stopping the physical model sound source processing when the sound becomes silent, the CPU
It is also conceivable to reduce the calculation load of.

【0010】しかし、物理モデル音源では、上述のよう
に、少なくとも励振信号の遅延およびループによって楽
音を発生させるため、楽音の出力状態のみを監視して物
理モデル音源処理を停止すると、発音指示から楽音信号
出力までの遅延時間により、出力状態は無音の状態であ
っても、発音指示はなされているという場合があり、こ
の場合には、当該楽音信号の合成演算の途中で演算が停
止され、演奏者の意図した楽音が発音されない虞があっ
た。
However, in the physical model sound source, as described above, since a tone is generated at least by delaying and looping the excitation signal, if only the output state of the tone is monitored and the physical model sound source processing is stopped, the tone is changed from the sounding instruction to the tone. Depending on the delay time until the signal is output, there may be a case where the sounding is instructed even if the output state is a silent state.In this case, the operation is stopped during the synthesis operation of the musical tone signal and the performance is stopped. There is a possibility that the musical tone intended by the user may not be pronounced.

【0011】本発明は、この点に着目してなされたもの
であり、ソフト音源として、たとえば物理モデル音源を
採用したときに、真に無音な状態を検出して、物理モデ
ル音源処理を停止することにより、CPUに対する演算
負荷を低減化することが可能な音源システムおよび記憶
媒体を提供することを目的とする。
The present invention has been made in view of this point, and when a physical model sound source is adopted as a software sound source, a truly silent state is detected and the physical model sound source processing is stopped. Accordingly, it is an object of the present invention to provide a sound source system and a storage medium that can reduce a calculation load on a CPU.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するた
め、本発明の音源システムは、楽音信号の発生要求に応
て励振信号を発生するとともに、該発生した励振信号
を少なくとも遅延およびループさせることにより楽音信
号を生成する楽音生成モジュールと、前記楽音信号の発
生要求の有無を監視する第1の監視モジュールと、前記
楽音生成モジュールによって生成された楽音信号の有無
を監視する第2の監視モジュールと、前記第1の監視モ
ジュールによって楽音信号の発生要求がなされていない
ことが検出され、かつ、前記第2の監視モジュールによ
って楽音信号が生成されていないことが検出されたとき
に、前記楽音生成モジュールの実行を停止する停止モジ
ュールとを有するコンピュータソフトウェアを用いた音
源システムであって、前記第1の監視モジュールによる
監視のタイミングと前記第2の監視モジュールによる監
視のタイミングとの間に、前記楽音生成モジュール内の
遅延量に応じた時間差を設けることを特徴とする。
To achieve the above object, according to an aspect of the sound source system of the present invention is to generate excited oscillation signal in response to the occurrence request tone signals, thereby at least delay and loop excitation signal the occurrence A tone generation module for generating a tone signal, a first monitoring module for monitoring the presence or absence of the tone signal generation request, and a second monitoring module for monitoring the presence or absence of the tone signal generated by the tone generation module. When the first monitoring module detects that a request for generation of a tone signal has not been made and the second monitoring module detects that a tone signal has not been generated, a sound system using the Turkey computer software having a a stop module to stop execution of the module By the first monitoring module
Monitoring timing and monitoring by the second monitoring module
Between the visual timing and the tone generation module
It is characterized by providing a time difference according to the delay amount.

【0013】ここで、楽音合成モジュールとしては、物
理モデル音源が典型例であるが、これに限る必要はな
い。励振信号の発生要求から楽音信号の生成までに時間
遅れが生ずる楽音合成モジュールに対して、本発明は有
効である。第1の監視モジュールによる励振信号の発生
要求の監視方法は、たとえば、発生要求に関連する情報
をバッファに記憶し、その値が“0”か否かを監視する
方法が挙げられる。もちろん、これに限らず、発生要求
の有無を監視できる方法であればどのような方法でもよ
い。第2の監視モジュールによる楽音信号の監視方法
も、第1の監視モジュールでの監視方法と同様に各種方
法が考えられる。停止モジュールは、楽音合成モジュー
ル内に位置するように構成してもよいし、楽音合成モジ
ュール外に位置するように構成してもよい(以下、請求
項が変わっても同様)。
Here, a physical model sound source is a typical example of the tone synthesis module, but it is not limited to this. The present invention is effective for a tone synthesizing module in which a time delay occurs from the generation of an excitation signal to the generation of a tone signal. As a method of monitoring the generation request of the excitation signal by the first monitoring module, for example, there is a method of storing information related to the generation request in a buffer and monitoring whether the value is “0”. Of course, the present invention is not limited to this, and any method may be used as long as it can monitor the presence or absence of an occurrence request. Various monitoring methods of the tone signal by the second monitoring module are conceivable as in the monitoring method by the first monitoring module. The stop module may be configured to be located inside the tone synthesis module, or may be configured to be located outside the tone synthesis module (the same applies to the following claims).

【0014】また、上記目的を達成するために、本発明
の記憶媒体は、楽音信号の発生要求に応じて励振信号を
発生するとともに、該発生した励振信号を少なくとも遅
延およびループさせることにより楽音信号を生成する楽
生成モジュールと、前記励振信号の有無を監視する第
1の監視モジュールと、前記楽音生成モジュールによっ
て生成された楽音信号の有無を監視する第2の監視モジ
ュールと、前記第1の監視モジュールによって励振信号
生されていないことが検出され、かつ、前記第2の
監視モジュールによって楽音信号が生成されていないこ
とが検出されたときに、前記楽音生成モジュールの実行
を停止する停止モジュールとを含むことを特徴とする。
[0014] In order to achieve the above object, the storage medium of the present invention is to generate excited oscillation signal in response to the occurrence request tone signal, tone by at least delay and loop excitation signal the occurrence a musical tone generating module for generating a signal, a first monitoring module for monitoring the presence or absence of the excitation signal, and a second monitoring module for monitoring the presence or absence of the tone signal generated by the tone generating module, the first Signal excited by the monitoring module
Including but is detected that not occur, and the when it is detected that the tone signal is not generated by the second monitoring module, and a stop module to stop execution of the tone generating module It is characterized by the following.

【0015】また、上記目的を達成するため、本発明の
音源システムは、楽音信号の発生要求に応じて励振信号
を発生するとともに、該発生した励振信号を少なくとも
遅延およびループさせることにより楽音信号を生成する
楽音生成モジュールと、前記励振信号の有無を監視する
第1の監視モジュールと、前記楽音生成モジュールによ
って生成された楽音信号の有無を監視する第2の監視モ
ジュールと、前記第1の監視モジュールによって励振信
号が発生されていないことが検出され、かつ、前記第2
の監視モジュールによって楽音信号が生成されていない
ことが検出されたときに、前記楽音生成モジュールの実
行を停止する停止モジュールとを有することを特徴とす
る。
In order to achieve the above object, the present invention
The tone generator system generates an excitation signal in response to a tone signal generation request.
And at least the generated excitation signal is
Generates a tone signal by delaying and looping
Monitoring a tone generation module and the presence or absence of the excitation signal
A first monitoring module and the tone generation module.
Monitoring mode for monitoring the presence or absence of a tone signal generated by
And the excitation signal by the first monitoring module.
Signal has not been generated, and the second
Sound signal is not generated by the monitoring module
Is detected, the tone generation module is executed.
And a stop module for stopping the line.
You.

【0016】さらに、好ましくは、前記楽音生成モジュ
ールによって生成される楽音信号の特性に応じて前記第
1および第2の監視モジュールにおける監視の条件を変
更することを特徴とする。
Further, preferably, the monitoring conditions in the first and second monitoring modules are changed according to the characteristics of the tone signal generated by the tone generating module.

【0017】ここで、楽音信号の特性の例としては、当
該楽音信号の音高、音高周期、音色等が挙げられる。監
視の条件とは、たとえば、バッファを用いて監視してい
る場合には、そのバッファ長や、バッファ内の監視範囲
等である。
Here, examples of the characteristics of the tone signal include a pitch, a pitch period, a tone color, and the like of the tone signal. The monitoring conditions include, for example, when monitoring is performed using a buffer, the buffer length, a monitoring range in the buffer, and the like.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0019】図1は、本発明の一実施の形態に係る音源
システムを実現するハードウェアの概略構成を示す図で
ある。本システムは、最も典型的な一例として汎用のパ
ーソナルコンピュータにより実現され、そのメイン制御
部としてはCPU3が使用され、該CPU3の制御の下
で、OS(Operating System)、演奏制御アプリケーシ
ョンプログラム、楽音合成アプリケーションプログラム
および該楽音合成アプリケーションプログラム以外のそ
の他のプログラムが並行して実行される。
FIG. 1 is a diagram showing a schematic configuration of hardware for realizing a sound source system according to an embodiment of the present invention. This system is realized by a general-purpose personal computer as the most typical example, and a CPU 3 is used as a main control unit. Under the control of the CPU 3, an OS (Operating System), a performance control application program, a musical tone synthesis application program, and the like. An application program and other programs other than the tone synthesis application program are executed in parallel.

【0020】同図において、CPU3には、外部からの
MIDI(Musical Instrument Digital Interface)メ
ッセージを入力したり、MIDIメッセージを外部に出
力したりするMIDIインターフェースMIDII/F
1、タイマ割込み時間や各種時間を計時するタイマ2、
各種制御プログラムやテーブルデータ(音色データライ
ブラリを含む)等を記憶するROM(リードオンリメモ
リ)4、前記選択されたMIDIファイルや各種入力情
報および演算結果等を一時的に記憶するRAM(ランダ
ムアクセスメモリ)5、たとえば鍵盤やホイール、ジョ
イスティック等の演奏操作子7、たとえばキーボードや
マウス等の設定操作子8、たとえば大型LCDやCRT
等の各種情報等を表示するディスプレイ9、CPU3が
実行する各種制御プログラムを含む各種アプリケーショ
ンプログラムや各種データ等を記憶する、たとえばフロ
ッピディスクドライブ、ハードディスクドライブ、CD
−ROM(Compact Disc Read-Only Memory)ドライ
ブ、MO(Magneto Optical)ドライブ等の外部記憶装
置10、および、通信ネットワーク101を介して、た
とえばサーバコンピュータ102とデータの送受信を行
う通信インターフェース(I/F)14が、データおよ
びアドレスバス6を介して接続されている。
In FIG. 1, a CPU 3 receives a MIDI (Musical Instrument Digital Interface) message from the outside and a MIDI interface MIDII / F for outputting a MIDI message to the outside.
1. Timer 2, which measures the timer interrupt time and various times,
ROM (read only memory) 4 for storing various control programs and table data (including a tone color data library); RAM (random access memory) for temporarily storing the selected MIDI file, various input information, operation results, and the like 5) Performance operators 7 such as a keyboard, a wheel, a joystick and the like, setting operators 8 such as a keyboard and a mouse, and a large LCD or CRT, for example.
A display 9 for displaying various information such as a floppy disk drive, a hard disk drive, and a CD for storing various application programs including various control programs executed by the CPU 3 and various data.
An external storage device 10 such as a ROM (Compact Disc Read-Only Memory) drive, an MO (Magneto Optical) drive, and a communication interface (I / F) for transmitting and receiving data to and from the server computer 102 via the communication network 101, for example. ) 14 are connected via the data and address bus 6.

【0021】また、データおよびアドレスバス6には、
拡張インターフェース(I/F)&拡張バス15を介し
て、デジタル楽音信号をアナログ楽音信号に変換するD
AC(Digital-to-Analog Converter)12が接続され
ている。そして、DAC12は、その楽音信号出力を音
響に変換するための、たとえばアンプやスピーカ等から
なるサウンドシステム13に接続されている。
The data and address bus 6 includes:
D for converting a digital tone signal to an analog tone signal via an extension interface (I / F) & extension bus 15
An AC (Digital-to-Analog Converter) 12 is connected. The DAC 12 is connected to a sound system 13 for converting an output of the musical sound signal into sound, for example, including an amplifier and a speaker.

【0022】DAC12は、CODEC(COder-DECode
r)と呼ばれるハードウェアの一部の機能に相当する。
CODECは、出力すべき楽音信号(アナログ信号)の
基になるデジタル楽音信号を記憶するバッファを備え、
CPU3は、ソフト音源プログラム(少なくとも物理モ
デル音源プログラムを含む)に従って合成した楽音信号
を、このバッファに順次送出する。そして、CODEC
は、この記憶されたデジタル楽音信号を所定のタイミン
グで順次読み出し、D/A変換を施した後に、サウンド
システム13に送出する。すなわち、本実施の形態で
は、楽音信号をすべてCPU3で合成するようにしてい
るため、音源部11は必要ない。しかし、これに限ら
ず、音源部11を設けて、楽音信号の合成の一部を音源
部11に分担させるようにしてもよい。
The DAC 12 is a CODEC (COder-DECode
It corresponds to some functions of hardware called r).
The CODEC includes a buffer for storing a digital tone signal which is a basis of a tone signal (analog signal) to be output,
The CPU 3 sequentially sends out tone signals synthesized according to the software sound source program (including at least the physical model sound source program) to this buffer. And CODEC
, Sequentially reads out the stored digital musical tone signals at a predetermined timing, performs D / A conversion, and sends out the digital tone signals to the sound system 13. That is, in the present embodiment, since all the tone signals are synthesized by the CPU 3, the tone generator 11 is not required. However, the present invention is not limited to this, and the sound source unit 11 may be provided, and a part of the synthesis of the tone signal may be shared by the sound source unit 11.

【0023】外部記憶装置10内の、たとえばハードデ
ィスクには、前記OSやユーティリティソフト等のソフ
トウェアの他に、ソフト音源を実現するためのソフトウ
ェアと、その他のアプリケーションソフトが記憶されて
いる。
For example, a hard disk in the external storage device 10 stores software for realizing a software sound source and other application software, in addition to the software such as the OS and utility software.

【0024】通信I/F14は、LAN(ローカルエリ
アネットワーク)やインターネット、電話回線等の通信
ネットワーク101に接続されており、該通信ネットワ
ーク101を介して、サーバコンピュータ102と接続
される。外部記憶装置10内のハードディスクに上記各
プログラムや各種パラメータが記憶されていない場合に
は、通信I/F14は、サーバコンピュータ102から
プログラムやパラメータをダウンロードするために用い
られる。クライアントとなるコンピュータ(本実施の形
態の音源システム)は、通信I/F14及び通信ネット
ワーク101を介してサーバコンピュータ102へとプ
ログラムやパラメータのダウンロードを要求するコマン
ドを送信する。サーバコンピュータ102は、このコマ
ンドを受け、要求されたプログラムやパラメータを、通
信ネットワーク101を介してコンピュータへと配信
し、コンピュータが通信I/F101を介して、これら
プログラムやパラメータを受信して外部記憶装置10内
のハードディスクに蓄積することにより、ダウンロード
が完了する。
The communication I / F 14 is connected to a communication network 101 such as a LAN (local area network), the Internet, and a telephone line, and is connected to the server computer 102 via the communication network 101. When the above-described programs and various parameters are not stored in the hard disk in the external storage device 10, the communication I / F 14 is used to download the programs and parameters from the server computer 102. A computer serving as a client (sound source system according to the present embodiment) transmits a command for requesting download of a program or parameter to server computer 102 via communication I / F 14 and communication network 101. The server computer 102 receives the command, distributes the requested program or parameter to the computer via the communication network 101, and the computer receives the program or parameter via the communication I / F 101, and By accumulating the data on the hard disk in the device 10, the download is completed.

【0025】この他、外部コンピュータ等との間で直接
データのやりとりを行うためのインターフェースを備え
てもよい。
In addition, an interface for directly exchanging data with an external computer or the like may be provided.

【0026】図2は、本実施の形態の音源システムの機
能を視覚的に表した図であり、物理モデル音源に関連す
るもののみが図示されている。
FIG. 2 is a diagram visually showing the function of the sound source system of the present embodiment, and shows only those related to the physical model sound source.

【0027】本実施の形態の音源システムは、複数種類
の音源方式(たとえば、物理モデル音源、FM(Freque
ncy Modulation)音源、PCM(Pulse Code Modulatio
n)音源等)によって複数種類の楽音を発生し、合成す
ることができるように構成されている。そして、本発明
の特徴は、物理モデル音源が選択されているときの音源
制御にあるため、図2には、物理モデル音源に関連する
機能のみが図示されている。以下、図2に基づいて、本
実施の形態の音源システムの機能を説明する。
The sound source system according to the present embodiment includes a plurality of types of sound source systems (for example, a physical model sound source, an FM (Freque
ncy Modulation sound source, PCM (Pulse Code Modulatio)
n) a plurality of musical tones are generated by a sound source or the like and can be synthesized. Since the feature of the present invention resides in sound source control when a physical model sound source is selected, FIG. 2 shows only functions related to the physical model sound source. Hereinafter, the function of the sound source system according to the present embodiment will be described with reference to FIG.

【0028】本実施の形態の音源システムは、操作子情
報、演奏曲データおよびMIDIメッセージ等を入力す
る入力部21と、入力部21から入力された各種情報に
基づいて演奏制御情報を発生する演奏制御アプリケーシ
ョンと、該発生した演奏制御情報に基づいて楽音信号を
合成する楽音合成アプリケーションと、OSと、このO
Sのシステム管理部にその一部機能が任されている楽音
合成管理部とによって、主として構成されている。
The sound source system according to the present embodiment has an input section 21 for inputting operator information, performance music data, MIDI messages and the like, and a performance for generating performance control information based on various information input from the input section 21. A control application; a tone synthesis application for synthesizing a tone signal based on the generated performance control information; an OS;
It is mainly constituted by a tone synthesis management section, whose function is partially delegated to the system management section of S.

【0029】入力部21は、入力するデータ(情報)の
種類に応じて前記MIDII/F1、CPU3、演奏操
作子7および設定操作子8等のいずれかに相当する。す
なわち、入力部21は、操作子情報を入力するときには
演奏操作子7に相当し、演奏曲データを入力するときに
はCPU3に相当し、MIDIメッセージを入力すると
きにはMIDII/F1に相当する。
The input unit 21 corresponds to one of the MIDII / F1, the CPU 3, the performance operator 7, the setting operator 8, and the like according to the type of data (information) to be input. That is, the input unit 21 corresponds to the performance operator 7 when inputting operator information, corresponds to the CPU 3 when inputting music piece data, and corresponds to MIDII / F1 when inputting a MIDI message.

【0030】演奏制御アプリケーションは、楽音合成の
基礎になる各種パーメータを設定して供給するパラメ
ータ設定供給部22と、楽音合成を開始する契機を与え
るとともにその楽音合成の基礎になる演奏操作情報を供
給する演奏操作情報供給部23とにより構成されてい
る。パラメータ設定供給部22は、入力部21からの入
力データに基づいて各種パラメータを設定し、演奏操作
情報供給部23に供給するとともに、楽音合成アプリケ
ーションおよび楽音合成管理部に供給する。演奏操作情
報供給部23は、入力部21からの入力データおよびパ
ラメータ設定供給部22からの供給パラメータに基づい
て演奏操作情報を生成し、楽音合成アプリケーションお
よび楽音合成管理部に供給する。演奏操作情報は、具体
的には、シミュレートすべき自然楽器として管楽器が選
択されたときには、音高情報、息圧情報、アンブシュア
情報(吹奏時の唇などの動きの情報)、管内で起こる乱
気流(呼気ノイズ)量等であり、シミュレートすべき自
然楽器として弦楽器が選択されたときには、音高情報、
弦に対する弓の位置、弓圧、弓速度等である。
The performance control applications, the performance operation information and parameter setting supply unit 22 supplies the set various parametric Meta underlying the tone synthesis, underlying the tone synthesis with providing an opportunity to start a musical tone synthesizing And a performance operation information supply unit 23 for supplying the same. The parameter setting and supply unit 22 sets various parameters based on the input data from the input unit 21 and supplies the parameters to the performance operation information supply unit 23 and also to the tone synthesis application and the tone synthesis management unit. The performance operation information supply unit 23 generates performance operation information based on the input data from the input unit 21 and the supply parameters from the parameter setting supply unit 22, and supplies the generated performance operation information to the tone synthesis application and the tone synthesis management unit. Specifically, when a wind instrument is selected as a natural instrument to be simulated, the performance operation information includes pitch information, breath pressure information, embouchure information (information on movement of the lips and the like during blowing), and turbulence generated in the pipe. (Expired noise) amount, etc. When a stringed instrument is selected as a natural instrument to be simulated, pitch information,
The position of the bow relative to the string, bow pressure, bow speed, etc.

【0031】なお、図中、白抜きの矢印は、パラメータ
が伝達されることを意味し、黒塗りの矢印は、演奏操作
情報が伝達されることを意味し、網掛けの矢印は、デジ
タル楽音信号が伝送されることを意味している。
In the drawing, white arrows indicate that parameters are transmitted, black arrows indicate that performance operation information is transmitted, and shaded arrows indicate digital musical sounds. It means that the signal is transmitted.

【0032】楽音合成アプリケーションは、励振信号を
発生させる励振部24および励振信号を含む各種信号の
遅延およびループを行うことによって共鳴振動体(たと
えば、自然楽器の弦楽器や管楽器)をシミュレートする
共鳴振動体シミュレート部25からなる物理モデル音源
部と、該物理モデル音源部によって生成された楽音信号
に必要に応じてエンベロープや各種効果を付与して出力
すべき楽音信号を合成する出力合成部26とによって構
成されている。出力合成部26は、合成された楽音信号
を記憶するための出力バッファを備えている。
The tone synthesis application is configured to generate an excitation signal by an excitation unit 24 and a resonance oscillator that simulates a resonance oscillator (for example, a string instrument or a wind instrument of a natural instrument) by delaying and looping various signals including the excitation signal. A physical model sound source section comprising a body simulation section 25; and an output synthesis section 26 for synthesizing a tone signal to be output by adding an envelope or various effects to the tone signal generated by the physical model tone section as necessary. It is constituted by. The output synthesizer 26 has an output buffer for storing the synthesized tone signal.

【0033】パラメータ設定供給部22からの供給パラ
メータは、励振部24、共鳴振動体シミュレート部25
および出力合成部26に供給される。励振部24には、
演奏操作情報供給部23からの演奏操作子情報も供給さ
れ、励振部24は、これらの情報に基づいて励振信号を
生成し、共鳴振動体シミュレート部25および出力合成
部26に供給する。
The supply parameters from the parameter setting supply section 22 are supplied to the excitation section 24, the resonance vibration body simulation section 25
And an output synthesizing unit 26. The excitation unit 24 includes
The performance operation information from the performance operation information supply unit 23 is also supplied, and the excitation unit 24 generates an excitation signal based on the information and supplies the excitation signal to the resonance vibrating unit simulation unit 25 and the output synthesis unit 26.

【0034】共鳴振動体シミュレート部25は、励振部
24からの励振信号を、供給パラメータに応じた遅延量
で遅延させるとともに、供給パラメータに応じた態様で
ループさせることにより、目的の自然楽器の発音メカニ
ズムをシミュレートして楽音信号を生成する。このよう
にして生成した楽音信号のうち、所定位置から検出した
楽音信号を励振部24にフィードバックし、他の所定位
置から検出した楽音信号を出力合成部26に供給する。
The resonance vibrator simulating unit 25 delays the excitation signal from the excitation unit 24 by a delay amount according to the supply parameter, and loops the excitation signal in a mode according to the supply parameter, thereby obtaining the desired natural musical instrument. Simulate the sounding mechanism to generate a tone signal. Among the tone signals thus generated, the tone signal detected from a predetermined position is fed back to the excitation unit 24, and the tone signal detected from another predetermined position is supplied to the output synthesis unit 26.

【0035】出力合成部26は、上述のようにして生成
された楽音信号に、前記供給されたパラメータ等に応じ
てエンベロープや各種効果を施して出力すべき楽音信号
を合成し、出力バッファに記憶する。出力バッファに記
憶された楽音信号は、所定のタイミングで読み出され
て、前記拡張I/F&拡張バス15を介してDAC12
に送出され、前記CODECのバッファに記憶される。
The output synthesizing section 26 synthesizes a tone signal to be output by applying an envelope and various effects to the tone signal generated as described above in accordance with the supplied parameters and the like, and stores the tone signal in an output buffer. I do. The tone signal stored in the output buffer is read out at a predetermined timing, and is read out from the DAC 12 via the extension I / F & extension bus 15.
And stored in the CODEC buffer.

【0036】出力合成部26から出力された楽音信号
は、楽音合成管理部にも供給される。楽音合成管理部
は、合成された楽音信号を管理するためのもので、楽音
信号を格納する出力バッファ27と演奏操作情報供給部
23からの演奏操作情報を格納する入力バッファ28と
を備えている。本実施の形態では、この出力バッファ2
7および入力バッファ28に格納されたデータを監視
し、該データが所定の条件を満たしたときに、楽音合成
アプリケーションのタスクを制御する。より具体的に
は、物理モデル音源部での楽音生成処理を停止する。
The tone signal output from the output synthesizer 26 is also supplied to a tone synthesizer. The tone synthesis manager manages synthesized tone signals, and includes an output buffer 27 for storing tone signals and an input buffer 28 for storing performance operation information from the performance operation information supply unit 23. . In the present embodiment, the output buffer 2
7 and the data stored in the input buffer 28, and when the data satisfies a predetermined condition, the task of the tone synthesis application is controlled. More specifically, the tone generation processing in the physical model sound source unit is stopped.

【0037】なお、出力バッファ27および入力バッフ
ァ28は、前記RAM5上に確保され、いわゆるリング
バッファとして動作するように構成されている。出力バ
ッファ27および入力バッファ28としての領域の確保
は、図5を用いて後述するメインルーチンを起動したと
きの初期化処理で行うようにすればよい。もちろん、こ
れに限らず、音源関連ソフトウェアを起動するときや、
演奏を開始するときなど、出力バッファ27および入力
バッファ28を必要とするときに領域の確保を行うよう
にしてもよい。
The output buffer 27 and the input buffer 28 are secured on the RAM 5 and configured to operate as a so-called ring buffer. The areas as the output buffer 27 and the input buffer 28 may be secured by an initialization process when a main routine described later with reference to FIG. 5 is started. Of course, not limited to this, when starting sound source related software,
The area may be secured when the output buffer 27 and the input buffer 28 are required, such as when starting a performance.

【0038】また、本実施の形態では、楽音合成管理部
によってソフトウェアアプリケーション(楽音合成アプ
リケーション)のタスク制御を行うため、楽音合成管理
部は、OS内のシステム管理部の機能の一部を使用する
ようにしている。すなわち、楽音合成管理部は、アプリ
ケーションプログラムというよりは、ドライバに近いプ
ログラムである。もちろん、これに限らず、アプリケー
ションプログラムとして構成してもよいし、OSが提供
する機能のみを用いて構成するようにしてもよい。
In this embodiment, since the task control of the software application (tone synthesis application) is performed by the tone synthesis manager, the tone synthesizer uses a part of the function of the system manager in the OS. Like that. That is, the tone synthesis manager is a program closer to a driver than an application program. Of course, the present invention is not limited to this, and may be configured as an application program, or may be configured using only the functions provided by the OS.

【0039】図3は、入力(監視)バッファ28および
出力(監視)バッファ27を監視する方法を説明するた
めの図である。
FIG. 3 is a diagram for explaining a method of monitoring the input (monitoring) buffer 28 and the output (monitoring) buffer 27.

【0040】同図に示すように、入力バッファ28およ
び出力バッファ27はともに、複数個のバッファからな
り、図示例では、最新のデータがバッファの左端に位置
している。すなわち、バッファの右に位置するほど、デ
ータはより古いことになる。
As shown in the figure, both the input buffer 28 and the output buffer 27 are composed of a plurality of buffers. In the illustrated example, the latest data is located at the left end of the buffer. That is, the further to the right of the buffer, the older the data.

【0041】入力バッファ28(たとえばn個ある)の
うちの1つのバッファで、領域a1が設けられているバ
ッファは、シミュレートすべき自然楽器としてリコーダ
(縦笛)が選択されたときに、前記演奏情報供給部23
が供給した息圧情報が格納されたバッファである。出力
バッファ27(たとえば2個ある)の1つのバッファ
で、領域A1が設けられたバッファは、前記楽音合成部
26が合成した楽音信号出力が格納されたバッファであ
る。そして、領域a1および領域A1は、この領域の範
囲内のデータを監視することを示している。すなわち、
入力バッファ28に対しては、その一部についてデータ
の監視を行い、出力バッファ27に対しては、その全体
についてデータの監視を行う。このように、入力バッフ
ァ28の一部に対してデータの監視を行うようにしたの
は、無音状態を判断するにはそれで十分だからである。
また、1点でなくある領域に対してデータの監視を行う
ようにしたのは、息圧情報が供給されてから、対応する
楽音信号が出力バッファ27に格納されるまでに時間遅
れがあるからである。さらに、出力バッファ27の全体
に対してデータの監視を行うようにしたのは、合成され
る楽音信号の周期を考慮していないために、どの範囲の
領域を監視すればよいかが分からないからである。した
がって、合成される楽音信号の周期の最大値が分かれ
ば、その周期分の領域を監視すればよい。以上のよう
に、合成する楽音の音色、音高(周期)に応じて、バッ
ファの数や長さ、監視領域などを制御する場合は楽音の
発生状態の監視精度の向上が期待できる。
One of the input buffers 28 (for example, n buffers) provided with the area a1 is provided when the recorder (vertical flute) is selected as a natural instrument to be simulated. Performance information supply unit 23
Is a buffer in which the supplied breath pressure information is stored. One of the output buffers 27 (for example, two buffers) in which the area A1 is provided is a buffer in which the tone signal output synthesized by the tone synthesizer 26 is stored. The area a1 and the area A1 indicate that data within the area is monitored. That is,
The input buffer 28 monitors data for a part of the data, and the output buffer 27 monitors data for the entire data. The reason why the data is monitored for a part of the input buffer 28 is that it is enough to determine the silent state.
The reason why the data is monitored for a certain area instead of one point is that there is a time delay from when the breath pressure information is supplied to when the corresponding tone signal is stored in the output buffer 27. It is. Further, the reason why the data is monitored for the entire output buffer 27 is that it is not known which area should be monitored because the period of the tone signal to be synthesized is not taken into account. is there. Therefore, if the maximum value of the cycle of the tone signal to be synthesized is known, the area corresponding to the cycle may be monitored. As described above, when the number and length of the buffers and the monitoring area are controlled in accordance with the tone color and pitch (period) of the musical tone to be synthesized, an improvement in the monitoring accuracy of the musical tone generation state can be expected.

【0042】図4は、出力バッファ27に対しても、デ
ータを監視する領域を設けるようにした例を示す図であ
り、(a)は、その監視領域を設けた1つの出力バッフ
ァを示し、(b)は、(a)の出力バッファに格納され
る各種波形を示している。
FIG. 4 is a diagram showing an example in which an area for monitoring data is also provided in the output buffer 27. FIG. 4A shows one output buffer provided with the monitoring area. (B) shows various waveforms stored in the output buffer of (a).

【0043】(b)において、斜線領域は、合成される
楽音信号がこの領域内にすべて含まれることを示してい
る。このため、(a)に示すように、この領域に相当す
る周期Tp分の領域A1に対して、出力バッファ27を
監視するだけで、無音状態を正確に判定することができ
る。
In (b), the hatched area indicates that all the tone signals to be synthesized are included in this area. For this reason, as shown in (a), the silent state can be accurately determined only by monitoring the output buffer 27 for the area A1 corresponding to the period Tp corresponding to this area.

【0044】なお、図4の例では、発音の可能性のある
楽音の周期の最大値に応じてバッファの領域を決定する
ようにしたが、これに限らず、発音の可能性のある楽音
のうち特定のもの、または、条件(「低い音3つまでの
平均値」、「最低音と最高音の和」等)に基づいて選択
されたものに応じてバッファ領域を決定するようにして
もよい。また、簡単化のためにバッファ長、監視領域等
を所定のものに固定してもよい。
In the example shown in FIG. 4, the buffer area is determined according to the maximum value of the period of a musical tone that may sound, but the present invention is not limited to this. The buffer area may be determined according to a specific one or a condition selected based on a condition (“average value of up to three low tones”, “sum of lowest and highest sounds”, etc.). Good. For simplification, the buffer length, the monitoring area, and the like may be fixed to predetermined ones.

【0045】図3に戻り、入力バッファ28の2つのバ
ッファのうち、領域b1が設けられているバッファは、
シミュレートすべき自然楽器としてバイオリンが選択さ
れたときに、演奏情報供給部23が供給した弓速度が格
納されたバッファであり、領域b2が設けられているバ
ッファは、演奏情報供給部23が供給した弓圧力が格納
されたバッファである。そして、出力バッファ27の2
つのバッファのうち、領域B1が設けられたバッファ
は、前記楽音合成部26が合成した2つの楽音信号出力
のうちの一方が格納されたバッファであり、領域B2が
設けられたバッファは、他方の楽音信号出力が格納され
たバッファである。
Referring back to FIG. 3, of the two buffers of the input buffer 28, the buffer provided with the area b1 is:
When the violin is selected as a natural instrument to be simulated, the buffer stores the bow speed supplied by the performance information supply unit 23. The buffer provided with the area b2 is supplied by the performance information supply unit 23. The buffer in which the bow pressure is stored. Then, 2 of the output buffer 27
Of the two buffers, the buffer provided with the area B1 is a buffer in which one of the two tone signal outputs synthesized by the tone synthesizer 26 is stored, and the buffer provided with the area B2 is the other. This is a buffer in which a tone signal output is stored.

【0046】ここで、領域b1および領域b2がとも
に、入力バッファ28の中間の一部に設けられているの
は、バイオリンの場合には、楽音の合成までに、前記リ
コーダの場合よりも長い時間遅れが生じるために、最新
の入力データまで監視する必要がないからである。ま
た、領域b2が領域b1を含むように設けられているの
は、バイオリン演奏において多くの場合は、弓圧が発生
した後に弓速度が発生するからである。また、出力バッ
ファ27の全体に対してデータの監視を行うようにした
のは、リコーダの場合と同様の理由からであり、図4で
説明したように、出力バッファ27に対してもその一部
を監視するようにしてもよい。
Here, the reason that both the area b1 and the area b2 are provided in the middle part of the input buffer 28 is that, in the case of a violin, it takes a longer time to synthesize a musical tone than in the case of the recorder. This is because there is no need to monitor up to the latest input data due to the delay. The reason that the region b2 is provided so as to include the region b1 is that in many cases in the violin performance, the bow speed is generated after the bow pressure is generated. The reason why data is monitored for the entire output buffer 27 is the same as in the case of the recorder, and as described in FIG. May be monitored.

【0047】本実施の形態では、データの監視は、入力
バッファ28および出力バッファ27ともに、真にデー
タが入力されていない状態(データ値が“0”)か否か
を判断することによって行っている。
In this embodiment, data monitoring is performed by judging whether or not both the input buffer 28 and the output buffer 27 are in a state where no data is truly input (data value is “0”). I have.

【0048】もちろん、監視方法はこれに限らず、バッ
ファ内またはバッファ内所定領域内で、データ値が
“0”でないデータがあるか否かを監視し、1つでも
“0”でないデータが検出されたときに、有音状態と判
定するようにしてもよいし、データ値が“0”でない個
数を検出し、この個数が所定値より多いときに、有音状
態と判定するようにしてもよい。また、各データのレベ
ルを検出し、所定の閾値を超えるデータがあったとき
に、有音状態と判定するようにしてもよい。さらに、各
データの平均値(実効値)、その絶対値の累算値(積分
値)等を算出し、所定の閾値を超えるときに、有音状態
と判定するようにしてもよい。また、対象となる波形の
所定の周波数成分に対してのみ上記判定を行うようにし
てもよい。特定の周波数成分を決定する手法としては、
たとえば、FFT(Fast Fourier Transformation)に
よる分析を行い、その分析結果であるスペクトルやその
パワーで決定するようにすればよい。さらに別の手法と
しては、楽音のピッチを検出して、基本波や倍音の含有
量を算出し、その算出結果に基づいて決定するようにし
てもよい。
Of course, the monitoring method is not limited to this, and it is monitored whether or not there is data having a data value other than "0" in the buffer or a predetermined area in the buffer, and at least one data which is not "0" is detected. In this case, the sound state may be determined, or the number of data values other than "0" may be detected, and if the number is greater than a predetermined value, the sound state may be determined. Good. Alternatively, the level of each data may be detected, and when there is data exceeding a predetermined threshold, the sound state may be determined. Further, an average value (effective value) of each data, an accumulated value (integral value) of its absolute value, and the like may be calculated, and when the data exceeds a predetermined threshold value, the sound state may be determined. Alternatively, the above determination may be made only for a predetermined frequency component of the target waveform. As a method of determining a specific frequency component,
For example, an analysis by FFT (Fast Fourier Transformation) may be performed, and the determination may be made based on the spectrum or power as the analysis result. As still another method, the pitch of the musical tone may be detected, the content of the fundamental wave or the overtone may be calculated, and the content may be determined based on the calculation result.

【0049】なお、本実施の形態では、楽音合成管理部
内の出力バッファ27を監視するようにしたが、これに
限らず、前記出力合成部26内の出力バッファを監視す
るようにしてもよいし、前記CODEC内のバッファを
監視するようにしてもよい。また、物理モデル音源で
は、必ず遅延演算処理がなされるため、この遅延後の信
号を直接監視して、出力バッファを省略するようにして
もよい。
In the present embodiment, the output buffer 27 in the tone synthesis manager is monitored. However, the present invention is not limited to this. The output buffer in the output synthesizer 26 may be monitored. , The buffer in the CODEC may be monitored. Also, since the physical model sound source always performs the delay calculation process, the signal after this delay may be directly monitored and the output buffer may be omitted.

【0050】また、励振部24や共鳴振動体シミュレー
ト部25内の(楽音)信号を監視するようにしてもよ
い。さらに、複数箇所の信号を監視し、所定の判断基準
で楽音信号(発生)の有無を判断するようにしてもよ
い。
The (tone) signal in the excitation unit 24 and the resonance vibrating unit simulation unit 25 may be monitored. Further, signals at a plurality of locations may be monitored to determine the presence or absence of a tone signal (generation) based on a predetermined criterion.

【0051】図5は、本実施の形態の音源システム、特
に前記CPU3が実行するメインルーチンの手順を示す
フローチャートである。
FIG. 5 is a flow chart showing the procedure of the main routine executed by the sound source system of this embodiment, in particular, the CPU 3.

【0052】同図において、本メインルーチンは、たと
えば電源スイッチ(図示せず)が押されたとき(システ
ムスタート時)に起動され、まず、ROM4等に格納さ
れている初期化プログラムを実行し、この初期化プログ
ラムによって指定されるOS等を、たとえば前記外部記
憶装置10から読み出す等の初期化処理を実行する(ス
テップS1)。
In this figure, the main routine is started, for example, when a power switch (not shown) is pressed (at the time of system start), and first executes an initialization program stored in the ROM 4 or the like. An initialization process such as reading the OS or the like specified by the initialization program from the external storage device 10 is executed (step S1).

【0053】次に、前記読み出されたOSを起動する起
動処理を実行する(ステップS2)。この起動処理に
は、各種ドライバの起動処理、たとえば音源ドライバの
ロードおよび起動を行う起動処理が含まれる。
Next, a boot process for booting the read OS is executed (step S2). The start-up processing includes start-up processing of various drivers, for example, start-up processing for loading and starting a sound source driver.

【0054】続くステップS3では、各種タスクのうち
いずれかのタスクの指示等のタスク管理を行うタスク管
理処理(システムモニタ)を実行し、ステップS4で
は、このタスク管理処理で指示されたタスクに対応する
処理に処理を移行させるタスクセレクト処理を実行す
る。
In the following step S3, a task management process (system monitor) for performing task management such as instructing any one of the various tasks is executed. In step S4, a task corresponding to the task designated in the task management process is executed. Task selection processing for shifting the processing to the processing to be performed.

【0055】タスク管理処理では、次の3種類のタスク
のうちいずれかのタスクが指示され、タスクセレクト処
理では、該指示されたタスクに対応する処理が選択され
て移行される。
In the task management process, one of the following three types of tasks is specified, and in the task selection process, the process corresponding to the specified task is selected and transferred.

【0056】1)ユーザインタフェースに関連するタス
ク 2)アプリケーションに関連するタスク 3)ドライバに関連するタスク ここで、1)のユーザインタフェースに関連するタスク
とは、ユーザ(演奏者)が、たとえばディスプレイ9上
に表示されたアイコンを選択して、対応するアプリケー
ションソフトウェアを起動するタスク等をいう。
1) Tasks related to the user interface 2) Tasks related to the application 3) Tasks related to the driver Here, the tasks related to the user interface of 1) are as follows. This means a task or the like for selecting an icon displayed above and starting the corresponding application software.

【0057】前記ステップS4のタスクセレクト処理
で、1)の範疇のタスクが指示されたときには、そのタ
スクに対応する新規タスクを起動する起動操作処理を実
行した(ステップS5)後に、前記ステップS3に戻
る。
When a task in the category of 1) is designated in the task selecting process in step S4, a starting operation process for starting a new task corresponding to the task is executed (step S5), and then the process proceeds to step S3. Return.

【0058】また、ステップS4のタスクセレクト処理
で、2)の範疇のタスクが指示されたときには、そのタ
スクに対応するアプリケーションプログラムに処理を移
行させる。図示例では、2個のアプリケーションプログ
ラムが起動されており、指定されたタスクに応じていず
れかのアプリケーションプログラムが選択される。すな
わち、アプリケーション1が指定されたときには、自動
演奏プログラムに処理が移行し、該自動演奏プログラム
の手順に従って演奏情報が発生する(ステップS6)。
そして、アプリケーション2が指定されたときには、操
作演奏インターフェースプログラムに処理が移行し、こ
のとき、演奏者が演奏操作子を操作したときには、当該
操作子に対応する情報が入力される(ステップS7)。
When a task in the category 2) is specified in the task selection process in step S4, the process is shifted to an application program corresponding to the task. In the illustrated example, two application programs are activated, and one of the application programs is selected according to a designated task. That is, when the application 1 is designated, the processing shifts to an automatic performance program, and performance information is generated according to the procedure of the automatic performance program (step S6).
Then, when the application 2 is designated, the processing shifts to the operation performance interface program. At this time, when the player operates the performance operator, information corresponding to the operator is input (step S7).

【0059】なお、アプリケーションプログラムの個数
は、“2”に限る必要はなく、OSやRAM5の容量に
応じた個数のアプリケーションプログラムを起動でき
る。
The number of application programs need not be limited to "2", and the number of application programs corresponding to the capacity of the OS or the RAM 5 can be started.

【0060】さらに、ステップS4のタスクセレクト処
理で、3)の範疇のタスクが指示されたときには、その
タスクに対応するドライバプログラムに処理を移行させ
る。図示例では、2個のドライバプログラムが起動され
ており、指定されたタスクに応じていずれかのドライバ
プログラムが選択される。すなわち、ドライバ1が指定
されたときには、物理モデル音源処理に処理が移行し、
該物理モデル音源プログラムの手順に従ってメロディ音
が生成される(ステップS8)。そして、ドライバ2が
指定されたときには、楽音波形合成処理に処理が移行
し、該楽音波形合成処理プログラム(この楽音波形合成
処理は、本実施の形態では、伴奏音を生成するための、
物理モデル音源以外のその他の音源処理、および該生成
された伴奏音にエフェクトを施すとともに、複数個の伴
奏音をミキシングするエフェクト付与&ミキシング処理
から構成されている)の手順に従って伴奏音が生成され
る(ステップS9)。
Further, when a task in the category of 3) is designated in the task selection process in step S4, the process is shifted to a driver program corresponding to the task. In the illustrated example, two driver programs are activated, and one of the driver programs is selected according to a designated task. That is, when the driver 1 is specified, the processing shifts to the physical model sound source processing,
A melody sound is generated according to the procedure of the physical model sound source program (step S8). Then, when the driver 2 is designated, the processing shifts to the musical tone waveform synthesis processing, and the musical tone waveform synthesis processing program (this musical tone waveform synthesis processing in this embodiment is used to generate an accompaniment sound.
An accompaniment sound is generated in accordance with the procedure of sound source processing other than the physical model sound source, and an effect applied to the generated accompaniment sound and an effect adding & mixing process of mixing a plurality of accompaniment sounds). (Step S9).

【0061】なお、ドライバプログラムの個数も、
“2”に限る必要はなく、OSに応じた個数のアプリケ
ーションプログラムを起動できる。
The number of driver programs is also
The number of application programs is not limited to “2” and can be activated in a number corresponding to the OS.

【0062】図6は、前記ステップS3のタスク管理処
理の詳細な手順を示すフローチャートである。
FIG. 6 is a flowchart showing a detailed procedure of the task management process in step S3.

【0063】同図において、まず、これから切り換える
べきタスクの指定および該タスクへ処理を移行させるタ
イミングを判定する(ステップS11)。
In the figure, first, a task to be switched is specified and a timing for shifting the processing to the task is determined (step S11).

【0064】次に、物理モデル音源が音源ドライバとし
てロードされているか否かを判別し(ステップS1
2)、ロードされているときには、物理モデル音源処理
の実行タイミングであるか否かを判別する(ステップS
13)。
Next, it is determined whether or not the physical model sound source is loaded as a sound source driver (step S1).
2) If loaded, it is determined whether or not it is time to execute the physical model sound source processing (step S).
13).

【0065】ステップS13で、物理モデル音源処理の
実行タイミングのときには、選択されている音色に対応
する入力バッファ(群)内の信号状態をチェックし(ス
テップS14)、次いで、出力バッファ(群)内の信号
状態をチェックする(ステップS15)。このステップ
S15において、信号状態のチェックは、出力バッファ
が少数個のみである場合にはすべての出力バッファに対
して行うようにし、出力バッファが多数個ある場合に
は、選択されている音色に対応する出力バッファのみに
対して行うようにすればよい。
At step S13, when it is time to execute the physical model sound source processing, the signal state in the input buffer (group) corresponding to the selected timbre is checked (step S14), and then the output buffer (group) is checked. Is checked (step S15). In this step S15, the signal state check is performed for all output buffers when there are only a small number of output buffers, and when there are many output buffers, it corresponds to the selected tone. It is sufficient to perform the process only for the output buffer to be executed.

【0066】図7は、バッファ内の信号状態をチェック
する処理の詳細な手順を示すフローチャートであり、前
記ステップS14およびS15では、この処理がそれぞ
れ個別に実行される。
FIG. 7 is a flowchart showing the detailed procedure of the process of checking the signal state in the buffer. In steps S14 and S15, this process is executed individually.

【0067】図7において、監視対象バッファ(ステッ
プS14では入力バッファであり、ステップS15では
出力バッファである)内の信号のレベル値が所定値以下
であるか否かを判別し、信号レベル値が所定値以下のと
きには、「無信号」状態と判定し(ステップS22)、
一方、信号レベル値が所定値より大きいときには、「信
号有り」状態と判定する(ステップS23)。
In FIG. 7, it is determined whether or not the level value of a signal in a monitoring target buffer (an input buffer in step S14 and an output buffer in step S15) is equal to or less than a predetermined value. If the value is equal to or less than the predetermined value, it is determined that the state is "no signal" (step S22).
On the other hand, when the signal level value is larger than the predetermined value, it is determined that the signal is present (step S23).

【0068】なお、監視対象バッファが複数個あるとき
には、監視対象バッファを切り換えながら、その個数分
上記処理を繰り返す。
When there are a plurality of monitored buffers, the above processing is repeated by the number of monitored buffers while switching the monitored buffers.

【0069】図6に戻り、ステップS16では、チェッ
クした各バッファすべてが「無信号」状態であるか否か
を判別し、すべてが「無信号」状態のときには、物理モ
デル音源処理の実行を不許可に設定し(ステップS1
7)、一方、いずれかのバッファが「無信号」状態でな
いときには、物理モデル音源処理の実行を許可に設定す
る(ステップS17)。これにより、「不許可」が設定
されたときには、前記ステップS11で物理モデル音源
処理が指定されず、一方、「許可」が設定されたときに
は、ステップS11で物理モデル音源処理が指定される
ようになる。
Returning to FIG. 6, in step S16, it is determined whether or not all the checked buffers are in the "no signal" state. If all of the buffers are in the "no signal" state, execution of the physical model sound source processing is not performed. Set to allow (step S1
7) On the other hand, if any of the buffers is not in the “no signal” state, the execution of the physical model sound source processing is set to be permitted (step S17). Thus, when "disallowed" is set, the physical model sound source processing is not specified in step S11, while when "permitted" is set, the physical model sound source processing is specified in step S11. Become.

【0070】一方、前記ステップS12で、物理モデル
音源がロードされていないとき、または、前記ステップ
S13で、物理モデル音源処理の実行タイミングでない
ときには、他のタスク管理処理を実行した(ステップS
19)後に、本タスク管理処理を終了する。
On the other hand, if the physical model sound source has not been loaded in step S12, or if it is not the execution timing of the physical model sound source process in step S13, another task management process is executed (step S12).
19) Later, the task management process ends.

【0071】図8は、バッファ更新処理の手順を示すフ
ローチャートである。本処理は、前記タイマ2が所定時
間(たとえば、5msec)毎に発生するタイマ割込信
号に応じて起動され、実行される。
FIG. 8 is a flowchart showing the procedure of the buffer update process. This process is started and executed in response to a timer interrupt signal generated by the timer 2 every predetermined time (for example, 5 msec).

【0072】同図において、まず、入力バッファを更新
すべきタイミングであるか否かを判別し(ステップS3
1)、更新すべきタイミングのときには、入力バッファ
の内容を更新する(ステップS32)一方、更新すべき
タイミングでないときには、ステップS32をスキップ
する。
In the figure, first, it is determined whether or not it is time to update the input buffer (step S3).
1) When it is time to update, the contents of the input buffer are updated (step S32), while when it is not the time to update, step S32 is skipped.

【0073】次に、出力バッファを更新すべきタイミン
グであるか否かを判別し(ステップS33)、更新すべ
きタイミングのときには、出力バッファの内容を更新す
る(ステップS34)一方、更新すべきタイミングでな
いときには、ステップS34をスキップして、本バッフ
ァ更新処理を終了する。
Next, it is determined whether or not it is time to update the output buffer (step S33). If it is time to update the output buffer, the contents of the output buffer are updated (step S34). If not, step S34 is skipped and the buffer update processing ends.

【0074】ステップS32,S34で、各入力/出力
バッファの更新は、更新すべき時点の信号(演奏操作情
報供給部23からの演奏操作情報および出力合成部26
からの楽音信号)をそのまま最新データとして格納する
ようにしてもよいし、この信号を加工した後最新データ
として格納するようにしてもよい。加工の方法は、たと
えば、絶対値や平均値をとったり、フィルタ演算を施し
たりする方法が考えられる。
In steps S32 and S34, each input / output buffer is updated by a signal at the time of updating (the performance operation information from the performance operation information supply unit 23 and the output synthesis unit 26).
May be stored as it is as the latest data, or the signal may be processed and then stored as the latest data. As a processing method, for example, a method of taking an absolute value or an average value or performing a filter operation can be considered.

【0075】このように、本実施の形態では、合成され
た楽音信号の有無に加え、該楽音信号を合成する要求の
有無を監視し、両者が無いときに限って、すなわち真に
無音の状態であるときに限って、物理モデル音源処理の
実行を停止するようにしたので、演奏者の意図と異なら
ない範囲内で、CPUに対する演算負荷を低減化するこ
とができる。
As described above, in this embodiment, the presence / absence of a request for synthesizing the tone signal is monitored in addition to the presence / absence of the synthesized tone signal. Since the execution of the physical model sound source processing is stopped only when, the calculation load on the CPU can be reduced within a range not different from the intention of the player.

【0076】次に、他の実施の形態の音源システムを説
明する。
Next, a sound source system according to another embodiment will be described.

【0077】本実施の形態の音源システムは、上述した
音源システムに対して、物理モデル音源処理の実行を停
止するか否かの判別を行う位置が異なるのみであるの
で、その相違点についてのみ説明する。
The sound source system of the present embodiment differs from the above-described sound source system only in the position for determining whether or not to stop the execution of the physical model sound source processing. Therefore, only the differences will be described. I do.

【0078】すなわち、本実施の形態の音源システムと
前記実施の形態の音源システムとは、前記図5のメイン
ルーチン中、ステップS3のタスク管理処理およびステ
ップS8の物理モデル音源処理の一部が異なっている。
以下、まず物理モデル音源処理、次にタスク管理処理の
順序で、その相違点を説明する。
That is, the tone generator system of the present embodiment is different from the tone generator system of the above embodiment in part of the task management processing in step S3 and the physical model tone processing in step S8 in the main routine of FIG. ing.
Hereinafter, the differences will be described in the order of the physical model sound source processing and then the task management processing.

【0079】図9は、本実施の形態の音源システムが実
行する物理モデル音源処理の詳細な手順を示すフローチ
ャートである。
FIG. 9 is a flowchart showing a detailed procedure of the physical model sound source processing executed by the sound source system of this embodiment.

【0080】同図において、まず、物理モデル音源で合
成すべき音色が指定されているか否かを判別し(ステッ
プS41)、当該音色が指定されていないときには、直
ちに本物理モデル音源処理を終了する一方、当該音色が
指定されているときには、ステップS42に進む。
In the figure, first, it is determined whether or not a timbre to be synthesized by a physical model sound source is specified (step S41). If the timbre is not specified, the physical model sound source processing is immediately terminated. On the other hand, when the timbre is designated, the process proceeds to step S42.

【0081】ステップS42〜S44の各処理は、それ
ぞれ、前記図6で説明したステップS14〜S16と同
様であるので、その説明を省略する。
The processes in steps S42 to S44 are the same as those in steps S14 to S16 described with reference to FIG. 6, and a description thereof will be omitted.

【0082】ステップS44で、チェックしたバッファ
のうちいずれかのバッファが「無信号」状態でないとき
には、物理モデル音源による楽音合成演算処理、すなわ
ち物理モデル音源アルゴリズム本体を実行する(ステッ
プS45)一方、チェックした各バッファすべてが「無
信号」状態のときには、ステップS45をスキップし
て、本物理モデル音源処理を終了する。
In step S44, if any of the checked buffers is not in the "no signal" state, the tone synthesis operation by the physical model sound source, that is, the physical model sound source algorithm itself is executed (step S45). When all the buffers thus obtained are in the "no signal" state, step S45 is skipped, and the physical model sound source processing ends.

【0083】このように、真に無音の状態の監視を、物
理モデル音源処理内で行うようにしたので、タスク管理
処理では、この監視を行う必要がない。したがって、本
実施の形態のタスク管理処理は、図6のタスク管理処理
からこの監視処理を省略したものを使用すればよい。具
体的には、図6のステップS14〜S17を省略する。
As described above, since the monitoring of the true silent state is performed in the physical model sound source processing, it is not necessary to perform the monitoring in the task management processing. Therefore, the task management process of the present embodiment may use the task management process of FIG. 6 in which this monitoring process is omitted. Specifically, steps S14 to S17 in FIG. 6 are omitted.

【0084】本実施の形態においても、前記実施の形態
と同様に、合成された楽音信号の有無に加え、該楽音信
号を合成する要求の有無を監視し、両者が無いときに限
って、物理モデル音源処理の実行を停止するようにした
ので、演奏者の意図と異ならない範囲内で、CPUに対
する演算負荷を低減化することができる。
In the present embodiment, similarly to the above-described embodiment, in addition to the presence / absence of a synthesized tone signal, the presence / absence of a request for synthesizing the tone signal is monitored. Since the execution of the model sound source processing is stopped, the calculation load on the CPU can be reduced within a range not different from the intention of the player.

【0085】なお、両実施の形態では、物理モデル音源
を例に挙げて説明したが、本発明は、合成要求に対して
楽音信号の合成が遅延するすべての音源に対して有効で
あるため、この種の音源であれば、物理モデル音源に限
る必要はない。現時点では、本発明は、特に物理モデル
音源に有効であるというに過ぎない。このように、本発
明を適用可能な音源が複数個起動されて楽音が合成され
ている場合には、各音源毎に、前述した無音状態の監視
を行うようにすればよい。
In both embodiments, the physical model sound source has been described as an example. However, the present invention is effective for all sound sources in which synthesis of a tone signal is delayed in response to a synthesis request. This type of sound source does not need to be limited to a physical model sound source. At present, the present invention is only effective especially for a physical model sound source. As described above, when a plurality of sound sources to which the present invention can be applied are activated and musical sounds are synthesized, the above-described silent state may be monitored for each sound source.

【0086】また、無音状態の監視は、両実施の形態で
は、入力信号(演奏操作情報)と出力信号(楽音信号)
とを個別に監視するようにしたが、これに限らず、各信
号を何らかの演算等によって結合した結果を監視するよ
うにしてもよい。さらに、本発明を適用可能な音源が複
数個起動されて楽音が合成されている場合には、発音チ
ャンネルまたはそのグループ毎に監視したり、各チャン
ネルに対する入出力信号を結合した結果を監視するよう
にしてもよい。
In both embodiments, the monitoring of the silent state is carried out by input signals (performance operation information) and output signals (tone signals).
Are individually monitored, but the present invention is not limited to this, and the result obtained by combining the respective signals by some operation or the like may be monitored. Further, when a plurality of sound sources to which the present invention can be applied are activated and a tone is synthesized, monitoring is performed for each sounding channel or group thereof, or the result of combining input / output signals for each channel is monitored. It may be.

【0087】なお、監視するバッファ長や範囲は、両実
施の形態では、固定(出力バッファのバッファ長を変更
する例は、図4に示されている)にしたが、これに限ら
ず、音色、音色グループ(楽器の種類)、音高周期Tp
等に応じて変更するようにしてもよい。
The buffer length and range to be monitored are fixed in both embodiments (an example of changing the buffer length of the output buffer is shown in FIG. 4). However, the present invention is not limited to this. , Tone group (type of musical instrument), pitch period Tp
It may be changed according to the above.

【0088】また、発音音高に応じてバッファ内の監視
範囲を加減制御するようにしてもよい。たとえば、音高
の高い、すなわち周期が短くなるに従って監視範囲を短
くなるようにする。これにより、無音状態の判定精度を
向上させることができるとともに、監視処理に対するC
PUの負荷を軽減させることができる。
Further, the monitoring range in the buffer may be controlled in accordance with the tone pitch. For example, the monitoring range is made shorter as the pitch is higher, that is, as the period becomes shorter. As a result, the accuracy of determining a silent state can be improved, and C
The load on the PU can be reduced.

【0089】さらに、監視バッファの位置と監視する信
号の種類との対応、各バッファの容量、監視範囲等を設
定できるようにしたり、その設定値を音色パラメータと
して記憶できるようにしたりしてもよい。
Further, the correspondence between the position of the monitoring buffer and the type of signal to be monitored, the capacity of each buffer, the monitoring range, and the like may be set, or the set values may be stored as tone parameters. .

【0090】また、両実施の形態では、汎用コンピュー
タによって本発明を実現した例を説明したが、その実現
態様は、これに限らず、たとえば、電子楽器、アミュー
ズメント機器(ゲームやカラオケが典型例)、各種家電
機器等、ソフト音源を実行可能なものであれば、どのよ
うなものであってもよい。
Further, in both embodiments, an example has been described in which the present invention is realized by a general-purpose computer. However, the present invention is not limited to this. For example, electronic musical instruments, amusement equipment (games and karaoke are typical examples) Any device that can execute a software sound source, such as various home electric appliances, may be used.

【0091】なお、上述した両実施の形態の機能を実現
するソフトウェアのプログラムを記録した記憶媒体を、
システムまたは装置に供給し、そのシステムまたは装置
のコンピュータ(またはCPU3やMPU)が記憶媒体
に格納されたプログラムを読出し実行することによって
も、本発明の目的が達成されることは云うまでもない。
A storage medium storing a software program for realizing the functions of the above-described embodiments is
It is needless to say that the object of the present invention can be achieved also by supplying the program to a system or an apparatus and causing a computer (or CPU 3 or MPU) of the system or the apparatus to read and execute a program stored in a storage medium.

【0092】この場合、記憶媒体から読出されたプログ
ラム自体が本発明の新規な機能を実現することになり、
そのプログラムを記憶した記憶媒体は本発明を構成する
ことになる。
In this case, the program itself read from the storage medium realizes the novel function of the present invention,
The storage medium storing the program constitutes the present invention.

【0093】プログラムを供給するための記憶媒体とし
ては、たとえば、ハードディスク、CD−ROM,M
O,MD,フロッピーディスク、CD−R(CD- Record
able)、磁気テープ、不揮発性のメモリカード、ROM
などを用いることができる。また、他のMIDI機器1
00や通信ネットワーク101を介してサーバコンピュ
ータ102からプログラムが供給されるようにしてもよ
い。
Examples of a storage medium for supplying the program include a hard disk, a CD-ROM,
O, MD, floppy disk, CD-R (CD-Record
able), magnetic tape, nonvolatile memory card, ROM
Etc. can be used. Also, another MIDI device 1
The program may be supplied from the server computer 102 via the communication network 101 or the communication network 101.

【0094】また、コンピュータが読出したプログラム
を実行することにより、上述した各実施の形態の機能が
実現されるだけでなく、そのプログラムの指示に基づ
き、コンピュータ上で稼働しているOSなどが実際の処
理の一部または全部を行い、その処理によって上述した
実施の形態の機能が実現される場合も含まれることは云
うまでもない。
When the computer executes the readout program, not only the functions of the above-described embodiments are realized, but also the OS or the like running on the computer is actually executed based on the instructions of the program. It goes without saying that a part or all of the above-described processing is performed, and the functions of the above-described embodiments are realized by the processing.

【0095】さらに、記憶媒体から読出されたプログラ
ムが、コンピュータに挿入された機能拡張ボードやコン
ピュータに接続された機能拡張ユニットに備わるメモリ
に書込まれた後、そのプログラムの指示に基づき、その
機能拡張ボードや機能拡張ユニットに備わるCPU3な
どが実際の処理の一部または全部を行い、その処理によ
って上述した各実施の形態の機能が実現される場合も含
まれることは云うまでもない。
Further, after the program read from the storage medium is written into the memory provided on the function expansion board inserted into the computer or the function expansion unit connected to the computer, the program is executed based on the instructions of the program. It goes without saying that the CPU 3 provided in the expansion board or the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0096】[0096]

【発明の効果】以上説明したように、本発明によれば、
第1の監視モジュールによって楽音信号の発生要求がな
されていないことが検出され、かつ、第2の監視モジュ
ールによって楽音信号が生成されていないことが検出さ
れたときに、楽音生成モジュールの実行が停止するの
で、真に無音の状態が検出されたときにのみ、楽音生成
モジュールの実行が停止し、これにより、演奏者の意図
と異ならない範囲内で、CPUに対する演算負荷を低減
化することが可能となる効果を奏する。
As described above, according to the present invention,
When the first monitoring module detects that a tone signal generation request has not been made and the second monitoring module detects that a tone signal has not been generated, execution of the tone generation module is stopped. Therefore, the execution of the tone generation module is stopped only when a truly silent state is detected, thereby reducing the calculation load on the CPU within a range not different from the intention of the player. It has the following effects.

【0097】また、好ましくは、前記第1の監視モジュ
ールによる監視のタイミングと前記第2の監視モジュー
ルによる監視のタイミングとの間に、前記楽音合成モジ
ュール内の遅延量に応じた時間差を設けるようにしたの
で、無音の状態の検出精度をより向上させることができ
る。
[0097] Preferably, a time difference is provided between the timing of monitoring by the first monitoring module and the timing of monitoring by the second monitoring module in accordance with the amount of delay in the tone synthesis module. Therefore, the detection accuracy of the silent state can be further improved.

【0098】さらに、好ましくは、前記楽音生成モジュ
ールによって生成される楽音信号の特性に応じて前記第
1および第2の監視モジュールにおける監視の条件を変
更するようにしたので、無音の状態の検出精度をさらに
向上させることができる。
More preferably, the monitoring conditions in the first and second monitoring modules are changed in accordance with the characteristics of the tone signal generated by the tone generating module. Can be further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態に係る音源システムを実
現するハードウェアの概略構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of hardware for realizing a sound source system according to an embodiment of the present invention.

【図2】図1の音源システムの機能を視覚的に表した図
である。
FIG. 2 is a diagram visually illustrating functions of the sound source system of FIG. 1;

【図3】図2の入力(監視)バッファおよび出力(監
視)バッファを監視する方法を説明するための図であ
る。
FIG. 3 is a diagram for explaining a method of monitoring an input (monitoring) buffer and an output (monitoring) buffer of FIG. 2;

【図4】図3の出力バッファに対しても、データを監視
する領域を設けるようにした例を示す図である。
FIG. 4 is a diagram showing an example in which an area for monitoring data is provided in the output buffer of FIG. 3;

【図5】図1の音源システムが実行するメインルーチン
の手順を示すフローチャートである。
FIG. 5 is a flowchart showing a procedure of a main routine executed by the sound source system of FIG. 1;

【図6】図5のタスク管理処理の詳細な手順を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing a detailed procedure of a task management process of FIG. 5;

【図7】バッファ内の信号状態をチェックする処理の詳
細な手順を示すフローチャートである。
FIG. 7 is a flowchart illustrating a detailed procedure of a process of checking a signal state in a buffer.

【図8】バッファ更新処理の手順を示すフローチャート
である。
FIG. 8 is a flowchart illustrating a procedure of a buffer update process.

【図9】他の実施の形態の音源システムが実行する物理
モデル音源処理の詳細な手順を示すフローチャートであ
る。
FIG. 9 is a flowchart illustrating a detailed procedure of a physical model sound source process executed by a sound source system according to another embodiment.

【符号の説明】[Explanation of symbols]

2 タイマ 3 CPU 4 ROM 5 RAM 7 演奏操作子 8 設定操作子 10 外部記憶装置 2 timer 3 CPU 4 ROM 5 RAM 7 performance operator 8 setting operator 10 external storage device

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10H 1/02 G10H 1/18 101 G10H 7/08 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 7 , DB name) G10H 1/02 G10H 1/18 101 G10H 7/08

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 楽音信号の発生要求に応じて励振信号を
発生するとともに、該発生した励振信号を少なくとも遅
延およびループさせることにより楽音信号を生成する楽
生成モジュールと、 前記楽音信号の発生要求の有無を監視する第1の監視モ
ジュールと、 前記楽音生成モジュールによって生成された楽音信号の
有無を監視する第2の監視モジュールと、 前記第1の監視モジュールによって楽音信号の発生要求
がなされていないことが検出され、かつ、前記第2の監
視モジュールによって楽音信号が生成されていないこと
が検出されたときに、前記楽音生成モジュールの実行を
停止する停止モジュールとを有するコンピュータソフト
ウェアを用いた音源システムであって、 前記第1の監視モジュールによる監視のタイミングと前
記第2の監視モジュールによる監視のタイミングとの間
に、前記楽音生成モジュール内の遅延量に応じた時間差
を設けることを特徴とするコンピュータソフトウェアを
用いた音源システム
1. A with generating a excitation oscillation signal in response to the occurrence request tone signal, a tone generation module that generates a musical tone signal by at least delay and loop excitation signal the occurred generation request of the musical tone signal a first monitoring module for monitoring the presence or absence of a second monitoring module for monitoring the presence or absence of the tone signal generated by said tone generation module, generating a request tone signal has not been made by the first monitoring module use it is detected and, when the tone signal by the second monitoring module has been detected that they are not generated, a Turkey computer software having a a stop module to stop execution of the tone generating module The sound source system , the timing of the monitoring by the first monitoring module and the timing before the monitoring.
Between the timing of monitoring by the second monitoring module and
A time difference corresponding to the delay amount in the tone generation module.
Computer software characterized by providing
Sound source system used .
【請求項2】 楽音信号の発生要求に応じて励振信号を2. An excitation signal is generated according to a tone signal generation request.
発生するとともに、該発生した励振信号を少なくとも遅And at least delay the generated excitation signal.
延およびループさせることにより楽音信号を生成する楽Music that generates a tone signal by extending and looping
音生成モジュールと、A sound generation module; 前記励振信号の有無を監視する第1の監視モジュールA first monitoring module for monitoring the presence or absence of the excitation signal
と、When, 前記楽音生成モジュールによって生成された楽音信号のThe tone signal generated by the tone generation module
有無を監視する第2の監視モジュールと、A second monitoring module for monitoring presence / absence; 前記第1の監視モジュールによって励振信号が発生されAn excitation signal is generated by the first monitoring module
ていないことが検出され、かつ、前記第2の監視モジュHas not been detected, and the second monitoring module
ールによって楽音信号が生成されていないことが検出さDetected that no tone signal was generated by the
れたときに、前記楽音生成モジュールの実行を停止するExecution of the tone generation module is stopped when
停止モジュールとを有することを特徴とするコンピューComputer having a stop module
タソフトウェアを用いた音源システム。Sound source system using software.
【請求項3】 前記楽音生成モジュールによって生成さ
れる楽音信号の特性に応じて前記第1および第2の監視
モジュールにおける監視の条件を変更することを特徴と
する請求項1または2のいずれかに記載のコンピュータ
ソフトウェアを用いた音源システム。
3. The monitoring condition of the first and second monitoring modules is changed according to characteristics of a tone signal generated by the tone generating module. A sound source system using the described computer software.
【請求項4】 楽音信号の発生要求に応じて励振信号を
発生するとともに、該発生した励振信号を少なくとも遅
延およびループさせることにより楽音信号を生成する楽
生成モジュールと、 前記励振信号の有無を監視する第1の監視モジュール
と、 前記楽音生成モジュールによって生成された楽音信号の
有無を監視する第2の監視モジュールと、 前記第1の監視モジュールによって励振信号生さ
ていないことが検出され、かつ、前記第2の監視モジュ
ールによって楽音信号が生成されていないことが検出さ
れたときに、前記楽音生成モジュールの実行を停止する
停止モジュールとを含む、コンピュータが実現できるプ
ログラムを格納した記憶媒体。
Wherein while generating the excitation oscillation signal in response to the occurrence request tone signal, a tone generation module that generates a musical tone signal by at least delay and loop excitation signal the occurrence, Mu chromatic of the excitation signal a first monitoring module that monitors, and a second monitoring module for monitoring the presence or absence of the tone signal generated by the tone generating module, the excitation signal by the first monitoring module may not occur And a stop module for stopping the execution of the tone generation module when the second monitoring module detects that the tone signal has not been generated. Storage medium.
JP10394698A 1998-03-31 1998-03-31 Sound source system and storage medium using computer software Expired - Fee Related JP3322209B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10394698A JP3322209B2 (en) 1998-03-31 1998-03-31 Sound source system and storage medium using computer software
US09/281,167 US6040516A (en) 1998-03-31 1999-03-30 Tone generation system using computer software and storage medium storing the computer software

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10394698A JP3322209B2 (en) 1998-03-31 1998-03-31 Sound source system and storage medium using computer software

Publications (2)

Publication Number Publication Date
JPH11288290A JPH11288290A (en) 1999-10-19
JP3322209B2 true JP3322209B2 (en) 2002-09-09

Family

ID=14367616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10394698A Expired - Fee Related JP3322209B2 (en) 1998-03-31 1998-03-31 Sound source system and storage medium using computer software

Country Status (2)

Country Link
US (1) US6040516A (en)
JP (1) JP3322209B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535772B1 (en) * 1999-03-24 2003-03-18 Yamaha Corporation Waveform data generation method and apparatus capable of switching between real-time generation and non-real-time generation
JP4025501B2 (en) * 2000-03-03 2007-12-19 株式会社ソニー・コンピュータエンタテインメント Music generator
US7264473B1 (en) 2001-02-13 2007-09-04 Microsoft Corporation Replaceable faceplates for peripheral devices
US6686904B1 (en) * 2001-03-30 2004-02-03 Microsoft Corporation Wheel reporting method for a personal computer keyboard interface
CN100421151C (en) * 2003-07-30 2008-09-24 扬智科技股份有限公司 Adaptive multistage stepping sequence switch method
US8901406B1 (en) 2013-07-12 2014-12-02 Apple Inc. Selecting audio samples based on excitation state

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0769701B2 (en) * 1989-05-09 1995-07-31 ヤマハ株式会社 Musical tone signal generator
JP3141789B2 (en) * 1996-08-30 2001-03-05 ヤマハ株式会社 Sound source system using computer software

Also Published As

Publication number Publication date
US6040516A (en) 2000-03-21
JPH11288290A (en) 1999-10-19

Similar Documents

Publication Publication Date Title
JPH1165558A (en) Parameter display device and music synthesizer
JP3630075B2 (en) Sub-melody generation apparatus and method, and storage medium
US7375274B2 (en) Automatic accompaniment apparatus, method of controlling the apparatus, and program for implementing the method
US6576826B2 (en) Tone generation apparatus and method for simulating tone effect imparted by damper pedal
JPH09152877A (en) Text display device
JPH11126070A (en) Musical sound generating method
JP3322209B2 (en) Sound source system and storage medium using computer software
US7557288B2 (en) Tone synthesis apparatus and method
US7271330B2 (en) Rendition style determination apparatus and computer program therefor
JP3221314B2 (en) Musical sound synthesizer and method
JP3149708B2 (en) Music synthesizer
US6754351B1 (en) Music apparatus with dynamic change of effects
US6444890B2 (en) Musical tone-generating apparatus and method and storage medium
US5841054A (en) Musical tone synthesizing apparatus having competibility of tone color parameters for different systems
JP3141789B2 (en) Sound source system using computer software
US7663050B2 (en) Automatic accompaniment apparatus, method of controlling the same, and program for implementing the method
JPH1195751A (en) Musical sound signal generating method for multiple sound sources, multisound source device, and medium having program recorded
JP2002297139A (en) Playing data modification processor
JP3632744B2 (en) Sound generation method
JP3324409B2 (en) Music processing method and apparatus
JPH10207465A (en) Method of generating musical sound and device therefor
JP3716701B2 (en) Sound channel assignment method and apparatus
JP3223827B2 (en) Sound source waveform data generation method and apparatus
JP3085696B2 (en) Music synthesizer
JP3627590B2 (en) Sound generation method

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080628

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090628

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100628

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100628

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110628

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120628

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120628

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130628

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140628

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees