WO2001065536A1 - Generateur de sons musicaux - Google Patents

Generateur de sons musicaux Download PDF

Info

Publication number
WO2001065536A1
WO2001065536A1 PCT/JP2001/001682 JP0101682W WO0165536A1 WO 2001065536 A1 WO2001065536 A1 WO 2001065536A1 JP 0101682 W JP0101682 W JP 0101682W WO 0165536 A1 WO0165536 A1 WO 0165536A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
data
processing
processor
note data
Prior art date
Application number
PCT/JP2001/001682
Other languages
English (en)
French (fr)
Inventor
Toru Morita
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to MXPA01011129A priority Critical patent/MXPA01011129A/es
Priority to AU36085/01A priority patent/AU3608501A/en
Priority to EP01908305A priority patent/EP1217604B1/en
Priority to BR0104870-8A priority patent/BR0104870A/pt
Priority to AT01908305T priority patent/ATE546810T1/de
Priority to KR1020017013666A priority patent/KR20020000878A/ko
Priority to CA002370725A priority patent/CA2370725A1/en
Publication of WO2001065536A1 publication Critical patent/WO2001065536A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • G10H7/004Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof with one or more auxiliary processor in addition to the main processing unit

Definitions

  • the present invention relates to a musical sound generation technique, and particularly to a technique for generating sound data in a distributed manner between hardware and software.
  • a computer-controlled tone generator that reads a musical score and outputs the sound indicated in the musical score data is known.
  • a computer controls a sound processor dedicated to sound processing to synthesize sounds, performs D / A conversion, and then sounds a speaker.
  • the present invention performs the following processing. That is, a part of the score data is fetched, and the first digital data is output based on the fetched score data. This processing is performed by the sound synthesis circuit. The other part of the received score data is read, and second digital data is generated based on the read score data. This process is performed by the processor that reads the program that describes the process. Then, the first and second digital data are converted into analog signals. This processing is performed by a D / A converter.
  • FIG. 1 is an explanatory diagram showing a hardware configuration of a tone generator according to an embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing an example of note data stored in a buffer in the embodiment according to the present invention.
  • FIG. 3 is an explanatory diagram illustrating an example of note data stored in a buffer according to the embodiment of the present invention.
  • FIG. 4 is an explanatory diagram showing operation timings of the main CPU and the sub CPU in the embodiment according to the present invention.
  • FIG. 5 is an explanatory diagram showing an example of the PCM data stored in the buffer 240 in the embodiment according to the present invention.
  • BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
  • FIG. 1 is a diagram showing a hardware configuration of a tone generator according to an embodiment of the present invention. It is preferable that the musical sound generating device according to the present embodiment is applied to an entertainment device which receives an external input operation and outputs sound and images.
  • the tone generator includes a main CPU (Central Processing Unit) 110, a memory 120, an image processor 130, a sub CPU 210, and a sound processor. And a memory 230, a noise source 240, and a speaker 300.
  • the main CPU 110, the memory 120, and the image processor 130 are connected by the high-speed bus 150, and the sub CPU 210 and the sound processor 22 are connected.
  • a memory 230, and a note 240 are connected by a low-speed bus 250.
  • a high-speed bus 150 and a low-speed bus 250 are connected via a bus interface 240.
  • the memory 120 stores a sound library 310 and a sound source file 330.
  • the memory 230 stores a sound library 320 and a musical score data 340.
  • the buffer 240 includes an MC area 241 for storing data to be transferred from the sub CPU 210 to the main CPU 110, and a sub CP SP area 2 42 for storing data to be transferred from U210 to sound processor 222, and PCM data 350 for transfer from main CPU 110 to sound processor And a PCM area 2 4 3 for storing
  • the main CPU 110 operates with a period of 60 Hz.
  • the main CPU 110 may have a processing capability of about 300 MIPS.
  • the main CPU 110 mainly performs processing for image output and controls the image processor 130.
  • 1/60 second is defined as one cycle based on a clock signal generated by a clock generator (not shown), and predetermined image output processing is performed within each cycle.
  • Fig. 4 (a) illustrates this situation.
  • the main CPU 110 performs image-related processing G every 1/60 second. If the processing to be performed within that cycle ends early, the processing is not performed until the next cycle arrives. Using the idle time B, the processing related to the sound output described below is performed (see Fig. 4 (c)).
  • Processing related to sound output is performed by reading a predetermined program from the sound library 310. The details are described below.
  • the main CPU 110 reads the note data 350 from the MC area 24 1 of the buffer 24. Based on the read data, the main CPU 110 synthesizes the sound, and the PCM (Pulse Code
  • the note data 350 is, for example, text data including a description of a timbre and a sound state of the timbre as shown in FIGS. Note de is one of the following: sounding sound, stopping sound, and sound to be pronounced Indicates the state of the sound for at least one of the pitches.
  • the note data 350 is generated by the sub CPU 210 and stored in the MC area 241 or the SP area 242 of the buffer 240.
  • the note data 350 is composed of blocks 351 output by the sub CPU 210 in each cycle.
  • the example of note data shown in Fig. 2 is divided into four blocks.
  • P0 90
  • the PCM data 360 is obtained by synthesizing a sound file corresponding to the sound state of each part shown in the note data 350 from the sound source file 330, and synthesizing it. It is encoded. As shown in FIG. 5, the PCM data 360 is generated by dividing the note data 350 into blocks 365 corresponding to the respective data blocks 351, and the noise is generated. Is stored in the PCM area 243 of the key 240.
  • the image processor 130 performs a process for displaying an image on a display device (not shown) under the control of the main CPU 110.
  • the sub CPU 210 operates with a period of 240 Hz to 48 Hz.
  • the sub CPU 210 for example, one having a processing capacity of about 30 MIPS may be used.
  • a predetermined program is read from the sound library 320 and executed.
  • the sub CPU 210 reads the musical score data 340 from the memory 230 and generates musical note data 350 as shown in FIGS.
  • the generated note data 350 is stored in the buffer 240.
  • the note data to be processed by the main CPU 110 is transferred to the MC area 241, and the note data to be processed by the sound processor 220 is processed by the SP area 24. Go to 2, note
  • the sound processor 220 generates a sound to be output to the speaker 300 under the control of the sub CPU 210.
  • the sound processor 220 includes a sound synthesis circuit 221 and a 0/8 conversion circuit 222.
  • the sound synthesizing circuit 2 21 reads the note data 350 generated by the sub CPU 210 from the SP area 242 and outputs the PCM data 360 of the encoded synthesized sound.
  • the D / A conversion circuit 222 converts the PCM data 360 generated by the sound synthesis circuit 222 and the PCM data 360 generated by the main CPU 110 into analog voltage signals. Convert it and output it to speaker 300.
  • the sound libraries 310 and 320 store a module of a program for performing processing for outputting a sound by the musical sound generating device.
  • a module of a program for performing processing for outputting a sound by the musical sound generating device.
  • an input processing module that reads music score data 340
  • a sound synthesis processing module that synthesizes sound
  • a sound processor control module that controls a sound processor
  • file processing file processing
  • echo processing etc.
  • Special effects module for adding special effects.
  • the sound source file 330 stores sound source data as a basis for synthesizing various sounds of various musical instruments and the like.
  • the musical score data 340 is data obtained by incorporating information expressed in the music score into a combo.
  • the operation timing of the main CPU 110 and the sub CPU 210 will be described with reference to FIG. In each of the diagrams shown in FIG. 4, the horizontal axis represents time.
  • FIG. 4A is a timing chart showing a state where the main CPU 110 is performing only the processing G on the image.
  • the main CPU 110 operates periodically at 1/60. From the starting point A of each cycle, image processing to be processed within the cycle starts. Then, when the processing is completed, the main CPU 110 does not perform the processing until the next period comes. In other words, a free time B (shaded area in the figure) is created in CPU.
  • FIG. 4B is a timing chart showing a state in which the sub CPU 210 performs only the generation / output processing S of the note data 350.
  • the sub CPU 210 operates in a 1 Z 240 second cycle.
  • processing to be processed within the cycle is started from the starting point A of each cycle.
  • the idle time B of CPU becomes B until the next cycle comes.
  • the note data 350 generated by the sub CPU 210 is processed directly by the sound processor 220, and after the main CPU 110 processes it, the sound processor 200 Some are forwarded to
  • FIG. 4 (c) is a timing chart when the main CPU 110 performs sound synthesis processing in the idle time B.
  • the period T 2 will be described Te convex example.
  • Note de Isseki 3 5 0 sub CPU 2 1 0 is generated during the period t 3 ⁇ t 6 is Bruno, stored in Ffa 2 4 0.
  • note data 350 stored in MC area 24 1 is shown. See Figure 2.
  • the main CPU 110 reads the note data 350 of the four blocks 351, and performs predetermined processing.
  • the main CPU 110 refers to the time code and performs the generation processing P of the PCM data 360 for the block 35 1 unit in the order of the time code.
  • data for four cycles of the sub CPU 210 is processed within one cycle of the main CPU 110, data for the four cycles can be processed collectively.
  • batch processing it is originally possible to synthesize sounds with an accuracy of 1/240 seconds, but this is reduced to 1/60 seconds.
  • by performing the process of generating the PCM data for each block it is possible to prevent a decrease in accuracy.
  • an interrupt is issued from the sub CPU 210 to temporarily suspend the processing relating to the image and perform the PCM data generation processing P. You may let them. However, in this case, the processing efficiency of the image-related processing decreases. Therefore, as described above, if the PCM data generation processing is collectively performed after the completion of the image-related processing, the processing can be performed without reducing the efficiency of the image-related processing.
  • the main CPU 110 stores the PCM data 360 in the PCM area 243 of the buffer 240 for each block 361.
  • the block 3601 of the PCM data 350 corresponds to the block 351 of the note data 350.
  • the data amount of the PCM data 360 stored in the PCM area 423 becomes the sound of the speaker 300 When converted to the time output from, this corresponds to a data amount of 1/60 seconds or more.
  • the sound processor 220 operates in the same cycle as the sub processor 210. Therefore, it operates here at a period of 1/240 seconds.
  • the sound synthesis circuit 2 2 1 reads one block 3 5 1 of the note data 3 5 0 from the 3 region 2 4 2 and generates PCM data 3 6
  • the generated PCM data 360 is converted into an analog voltage signal by the D / A conversion circuit 222.
  • the D / A conversion circuit 222 reads 1 block 365 of 365 and converts it into an analog voltage signal.
  • the PCM data synthesized by the sound synthesizing circuit 221 of the sound processor 222 is combined with the PCM data.
  • the PCM data synthesized by the software in the main CPU 110 can be output together.
  • a musical sound can be generated by combining software processing and hardware processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

明細書 楽音発生装置 技術分野 本発明は、 楽音発生技術にかかり、 特に音データの生成をハ ドウエアとソ フ ト ウヱァに分散して行う技術に関する。 景技術 楽譜デ一夕を読み込んで、 その楽譜データに示された音を出 力する、 コンピュータ制御の楽音発生装置が知られている。 こ の楽音発生装置では、 通常、 コ ン ピュータが音響処理専用のサ ゥン ドプロセッサを制御して音の合成を行い、 D / A変換した 後、 スピーカを鳴ら している。
しかしながら、 ユーザニーズの高ま り等から、 よ り リアルな 臨場感あるサゥン ドが求められるようになってきている。 従来 の技術では、 サウン ドプロセッサを新たに設計し、 新しいハー ドウエアを製造して楽音発生装置に搭載すればかかるニーズに 対応できる。 ところが、 新しいハー ドウェアの開発にはコス ト および時間がかかる。 従って、 ハー ドウェアで対応することは 容易ではない。
一方、 すべての処理をソフ ト ゥヱァで行う と、 処理に要する 時間がかかりすぎて、 音が遅れるという問題がある。 これは、 画像と音を組み合わせて出力するようなときは、 特に問題とな る。 発明の閧示 本発明は、 ソフ ト ウエア処理とハー ドウェア処理とを組み合 わせた楽音発生技術を提供することを目的とする。
前記目的を達成するため、 本発明では以下の処理を行う。 す なわち、 楽譜データのうちの一部を取り込み、 当該取り込んだ 楽譜データに基づいて、 第 1 のデジタルデ一夕を出力する。 こ の処理は音合成回路で行う。 受け付けた楽譜デ一夕のうちの他 の一部を読み込み、 当該読み込んだ楽譜デ一夕に基づいて、 第 2のデジタルデータを生成する。 この処理は、 当該処理を記述 したプログラムを読み込んだプロセッサで行う。 そして、 第 1 および第 2のデジタルデータを、 アナログ信号に変換する。 こ の処理は、 D / A変換器で行う。 図面の簡単な説明 図 1 は、 本発明に係る実施形態における楽音発生装置のハー ドウエア構成を示す説明図である。
図 2は、 本発明に係る実施形態におけるバッファに記憶され ている音符データの例を示す説明図である。
図 3は、 本発明に係る実施形態におけるバッ フ ァに記憶され ている音符データの例を示す説明図である。
図 4は、 本発明に係る実施形態におけるメイ ン C P Uとサブ C P Uの動作タイ ミ ングを示す説明図である。 図 5は、 本発明に係る実施形態におけるバッフ ァ 2 4 0に記 憶されている P CMデータの例を示す説明図である。 発明を実施するための最良の形態 以下、 本発明の実施形態について、 図面を用いて説明する。 図 1は、 本発明の実施形態に係る楽音発生装置におけるハー ドウエア構成を示す図である。 本実施形態にかかる楽音発生装 置は、 外部からの入力操作を受付けて、 音と画像を出力するェ ン夕一ティ ンメ ン ト装置に適用すると好適である。
本実施形態に係る楽音発生装置は、 メイ ン C P U (Central Processing Unit) 1 1 0 と、 メ モ リ 1 2 0 と、 画像プロセ ッサ 1 3 0 と、 サブ C P U 2 1 0と、 サウン ドプロセ ッサ 2 2 0 と、 メモ リ 2 3 0と、 ノ ソ フ ァ 2 4 0 と、 スピーカ 3 0 0とを備え る。 そして、 メイ ン C P U 1 1 0 と、 メモ リ 1 2 0と、 画像プ 口セ ッサ 1 3 0 とが高速バス 1 5 0で接続され、 サブ C P U 2 1 0 と、 サウン ドプロセ ッサ 2 2 0と、 メモ リ 2 3 0 と、 ノ ツ フ ァ 2 4 0 とが低速バス 2 5 0で接続されている。 さ らに、 高 速バス 1 5 0と低速バス 2 5 0 とが、 バスイ ンターフ ェース 2 4 0を介して接続されている。
メモ リ 1 2 0には、 サウン ドライ ブラ リ 3 1 0、 および、 音 源フ アイノレ 3 3 0が記憶されている。 メモ リ 2 3 0には、 サゥ ン ドライ ブラ リ 3 2 0、 および、 楽譜デ一夕 3 4 0が記憶され ている。
ノ'ッ フ ァ 24 0には、 サブ C P U 2 1 0からメ イ ン C P U 1 1 0へ転送するデータを格納する M C領域 2 4 1 と、 サブ C P U 2 1 0からサゥン ドプロセ ッサ 2 2 0へ転送するデータを格 納する S P領域 2 4 2 と、 メイ ン C P U 1 1 0からサウン ドプ 口セ ッサへ転送する P CMデータ 3 5 0を記憶する P CM領域 2 4 3とを有する。
メイ ン C P U 1 1 0は、 6 0 H zの周期で動作する。 メ イ ン C P U 1 1 0は、 例えば、 処理能力が 3 0 0 M I P S程度のも のを用いてもよい。 本楽音発生装置をエンタテイ ンメ ン ト装置 に適用したとき、 メイ ン C P U 1 1 0は、 主に画像出力のため の処理を行い、 画像プロセ ッサ 1 3 0を制御する。 つま り、 図 示しないク ロ ッ ク発生器が発生するク ロ ッ ク信号に基づき、 1 / 6 0秒を 1周期と し、 各周期内で所定の画像出力の処理を行 う。 その様子を図示したものが、 図 4 ( a) である。 メ イ ン C P U 1 1 0は、 1 / 6 0秒ごとに画像関係の処理 Gを行う。 そ の周期内で行うべき処理が早く終わった場合には、 次の周期が 到来するまで処理を行わない。 この空き時間 Bを利用 して、 以 下に説明する音響出力に関する処理を行う (図 4 ( c ) 参照) 。
音響出力に関する処理は、 サウン ドライ ブラ リ 3 1 0から所 定のプログラムを読み込んで実行する。 以下、 その詳細につい て説明する。
メイ ン C P U 1 1 0は、 ノ、'ッ フ ァ 2 4 0の M C領域 2 4 1か ら音符データ 3 5 0を読み込む。 読み込んだデータに基づいて、 メイ ン C P U 1 1 0は音を合成し、 P CM (Pulse Code
Modulation) デ一夕を生成する。 音符デ一夕 3 5 0とは、 例え ば、 図 2および 3に示すような、 音色および、 その音色につい ての音の状態を示す記述を含むテキス トデータである。 音符デ 一夕は、 たとえば、 音の発音、 音の停止、 および、 発音する音 の高さのうちの、 少なく ともいずれかに関する音の状態を示す。 音符データ 3 5 0は、 サブ C P U 2 1 0が生成して、 ノ ッファ 2 4 0の M C領域 2 4 1 または S P領域 2 4 2に格納する。 音 符デ一夕 3 5 0は、 サブ C P U 2 1 0が各周期において出力す るブロ ック 3 5 1 に構成される。
図 2に示す音符データの例は、 4つのブロ ックに分割されて いる。 各ブロ ック 3 5 1 には、 少なく とも、 当該ブロ ックの大 きさを示す" Data size=XX"と、 当該ブロ ックが生成された時刻 を示す" Time code=NN"という記述が含まれる。 このタイムコー ドが示す時刻は、 ミ リ秒単位に表される。 ただし、 この時刻は 他の音符デ一夕との相対的な時刻を把握するためのものであ り、 現実の時刻と一致している必要はない。 また、 タイムコー ドの 代り に、 データの生成された順序を判別可能なシ リアル番号を 用いてもよい。
さ らにデ一夕ブロ ック 3 5 1 aに含まれる "Program Change P0=2" 、 "Program Change Pl=80" は、 それぞれ 「パー ト 0 に は識別子が 2の楽器を設定する」 、 「パー ト 1 には識別子が 8 0の楽器を設定する」 という意味である。 また、 "Volume
P0=90"、 "Volume Pl = 100"は、 それぞれ 「パー ト 0の音量を 9 0 とする」 、 「パー ト 1の音量を 1 0 0 とする」 という意味であ る。
図 3のデ一夕ブロ ック 3 5 l bに含まれる" Key on P0=60"、 "Key on P 1=64"は、 それぞれ、 「パー ト 0を 6 0 という音 (中 央 ド) で鳴らす」 、 「パー ト 0 を 6 4 という音 (中央ミ) で鳴 らす」 という意味である。 データブロ ック 3 5 1 cに含まれる "Key on PI二 67"は、 「パー ト 1 を 6 7 という音 (中央ソ) で鳴 らす」 という意味である。 デ一夕ブロ ック 3 5 1 dに含まれる "Key off P0=60"、 "Key off Pl=64"は、 それぞれ、 「パー ト 0 の 6 0 という音 (中央 ) の出力を停止する」 、 「パー ト 0の 6 4 という音 (中央ミ ) の出力を停止する」 という意味である。 これらの音符デ一夕 3 5 0は、 サブ C P U 2 1 0が生成して、 ノ ソ フ ァ 2 4 0の M C領域 2 4 1 に格納する。
P C Mデータ 3 6 0 とは、 音符データ 3 5 0に示された各パ ー ト ごとの音の状態に相当する音デ一夕を、 音源フ ァ イ ル 3 3 0から取り 出して合成し、 符号化したものである。 P C Mデー 夕 3 6 0は、 図 5に示すように、 音符データ 3 5 0の各デ一夕 ブロ ック 3 5 1 に対応したブロ ッ ク 3 6 1 に分けて生成され、 ノ ' ッ フ ァ 2 4 0の P C M領域 2 4 3に格納される。
画像プロセ ッサ 1 3 0は、 メ イ ン C P U 1 1 0の制御下で、 図示しない表示装置に画像を表示させるための処理を行う。
サブ C P U 2 1 0は、 2 4 0 H z〜 4 8 O H zの周期で動作 する。 サブ C P U 2 1 0は、 例えば、 処理能力が 3 0 M I P S 程度のものを用いても よい。 以下の各処理は、 いずれもサゥン ドライ ブラ リ 3 2 0から所定のプログラムを読み込んで実行す る。
サブ C P U 2 1 0は、 メモ リ 2 3 0から楽譜データ 3 4 0 を 読み込んで、 図 2および図 3に示すような音符データ 3 5 0を 生成する。 生成した音符デ一夕 3 5 0は、 ノ ヅ フ ァ 2 4 0へ格 納される。 そのう ち、 メイ ン C P U 1 1 0が処理すべき音符デ 一夕 3 5 0は M C領域 2 4 1へ、 サウン ドプロセ ッサ 2 2 0が 処理すべき音符データ 3 5 0は S P領域 2 4 2へ、 それぞれ記
ΊΒされる。 ここで、 例えば、 サウン ドプロセ ッサ 2 2 0が処理すべき音 符デ一夕 3 5 0は、 ベースサゥン ドに関するものと してもよい。 メイ ン C P U 1 1 0が処理すべき音符データ 3 5 0は、 メ ロデ ィ一ライ ンに関するもの、 または、 特殊効果を必要とする処理 に関するものと しても よい。
サウン ドプロセ ッサ 2 2 0は、 サブ C P U 2 1 0の制御下で、 スピーカ 3 0 0に出力させる音の生成を行う。 具体的には、 サ ゥン ドプロセ ッサ 2 2 0は、 音合成回路 2 2 1 と、 0 /八変換 回路 2 2 2 とを備える。 音合成回路 2 2 1 は、 サブ C P U 2 1 0が生成した音符データ 3 5 0 を S P領域 2 4 2から読み込ん で、 符号化された合成音の P C Mデータ 3 6 0 を出力する。 D /A変換回路 2 2 2は、 音合成回路 2 2 1 が生成した P C Mデ 一夕 3 6 0および、 メイ ン C P U 1 1 0が生成した P C Mデ一 夕 3 6 0 をアナログの電圧信号に変換して、 これをス ピーカ 3 0 0へ出力する。
サウン ドライ ブラ リ 3 1 0、 3 2 0は、 本楽音発生装置で音 を出力するための処理を行う プログラムのモジュールが格納さ れている。 例えば、 楽譜データ 3 4 0の読み込み等を行う入力 処理モジュール、 音の合成を行う音合成処理モジュール、 サゥ ン ドプロセ ッサを制御するサゥン ドプロセ ッサ制御モジュール、 フィ ル夕処理や、 エコー処理等の特殊効果をつけるための特殊 効果モジュール等が含まれる。
音源フ ァイル 3 3 0は、 さまざまな楽器等のさまざまな音を 合成するための基となる音源データを記憶している。
楽譜データ 3 4 0は、 音楽の譜面で表された情報を、 コンビ ユー夕上に取り こんだデータである。 次に、 メイ ン C P U 1 1 0とサブ C P U 2 1 0の動作夕イ ミ ングについて、 図 4を用いて説明する。 図 4に示すいずれの図 も、 横軸は時間を表す。
図 4 ( a) は、 メイ ン C P U 1 1 0が画像に関する処理 Gだ けを行っているときの様子を示すタイ ミ ングチヤ一トである。 メイ ン C P U 1 1 0は、 1 / 6 0で周期的に動作する。 各周期 の起点 Aから当該周期内で処理すべき画像処理を開始する。 そ して、 その処理が終了すると、 メイ ン C P U 1 1 0は、 次の周 期が来るまで処理を行わない。 すなわち、 C P Uに空き時間 B (図中の斜線部分) ができる。
図 4 ( b ) は、 サブ C P U 2 1 0が音符データ 3 5 0の生 成 · 出力処理 Sだけを行っているときの様子を示すタイ ミ ング チャー トである。 ここでは、 サブ C P U 2 1 0が、 1 Z 2 4 0 秒周期で動作する場合を考える。 サブ C P U 2 1 0においても、 メイ ン C P U 1 1 0 と同様に、 各周期の起点 Aから当該周期内 で処理すべき処理を開始する。 そして、 音符デ一夕の生成およ び出力が終了すると、 次の周期が来るまで C P Uの空き時間 B となる。 なお、 サブ C P U 2 1 0が生成する音符デ一夕 3 5 0 は、 サウン ドプロセッサ 2 2 0が直接処理するものと、 メイ ン C P U 1 1 0が処理した後、 サウン ドプロセ ッサ 2 0 0へ転送 されるものがある。
図 4 ( c ) は、 メイ ン C P U 1 1 0が空き時間 Bに音合成処 理を行う場合のタイ ミ ングチャー トである。 周期 T2を例にとつ て説明する。 周期 t 3〜 t 6の間にサブ C P U 2 1 0が生成した 音符デ一夕 3 5 0が、 ノ、ッファ 2 4 0に格納されている。 この うち、 M C領域 2 4 1に記憶されている音符データ 3 5 0を図 2に示す。 メイ ン C P U 1 1 0はこの 4つのブロ ック 3 5 1の 音符データ 3 5 0を読み込み、 所定の処理を行う。
このと き、 メ イ ン C P U 1 1 0は、 タイ ムコー ドを参照して タイ ムコー ドの順番に、 ブロ ッ ク 3 5 1単位に、 P C Mデ一夕 3 6 0の生成処理 Pを行う。 ここで、 サブ C P U 2 1 0の 4周 期分のデータをメイ ン C P U 1 1 0の 1周期内で処理するため、 当該 4周期分のデータを一括して処理するこ とも可能である。 しかし、 一括処理する と、 本来、 1 / 2 4 0秒の精度で音の合 成を行う こ とが可能であるのに、 それが 1 / 6 0秒の精度に低 下する。 上記のよう に、 各ブロ ッ ク単位に P CMデータの生成 処理を行う こ とで、 精度の低下を防止するこ とができる。
また、 メ イ ン C P U 1 1 0が画像に関する処理 Gを行ってい る最中に、 サブ C P U 2 1 0から割込みをかけて、 画像関連の 処理を一時中断させて P CMデータ生成処理 Pを行わせても よ い。 ただし、 この場合は画像関連処理の処理効率が低下する。 従って、 上記のよう に、 画像関連処理が終了 した後に、 ま とめ て P C Mデータ生成処理を行う と、 画像関連処理の効率を低下 させずに処理するこ とができる。
メイ ン C P U 1 1 0は、 P CMデータ 3 6 0をブロ ック 3 6 1ごとに、 ノ'ッ フ ァ 2 4 0の P C M領域 2 4 3に記憶する。 P CMデ一夕 3 6 0のブロ ッ ク 3 6 1は、 音符デ一夕 3 5 0のブ ロ ック 3 5 1に対応する。 また、 メイ ン C P U 1 1 0が 1周期 の処理を終えた時点で、 P CM領域 4 2 3に格納されている P CMデータ 3 6 0のデータ量は、 音と してス ピーカ 3 0 0から 出力される時間に換算する と、 1 /6 0秒以上のデータ量に相 当する。 サウン ドプロセッサ 2 2 0は、 サブプロセ ッサ 2 1 0 と同一 周期で動作する。 従って、 ここでは 1 / 2 4 0秒周期で動作す る。 各周期において、 音合成回路 2 2 1 が 3 ?領域 2 4 2から、 音符データ 3 5 0の 1 ブロ ック 3 5 1 を読み込んで、 P C Mデ 一夕 3 6 0 を生成する。 生成された P C Mデータ 3 6 0は、 D / A変換回路 2 2 2でアナログの電圧信号に変換される。
同様に、 各周期において、 音符領域 2 4 3から P C Mデータ
3 6 0の 1 ブロ ック 3 6 1 を読み込んで、 D/A変換回路 2 2 2がアナロ グの電圧信号に変換する。
ここで、 S P領域 2 4 2から取り込むデータ と、 音符領域 2
4 3から取り込むデータは、 同期をと る必要がある。 も とも と、 サブ C P U 2 1 0から出力された時点では同期がとれていた。 しかし、 音符領域 2 4 3のデ一夕は、 メ イ ン C P U 1 1 0での 処理を経ているため、 この処理に要した時間だけ送れている。 このため、 S P領域 2 4 2からの読み込みは、 所定の時間だけ 遅らせて行う。
以上説明したように、 本実施形態に係る楽音発生装置によ り、 サウン ドプロセ ッサ 2 2 0では、 サウン ドプロセ ッサ 2 2 0の 音合成回路 2 2 1が合成処理を行った P C Mデータ と、 メイ ン C P U 1 1 0でソフ ト ウェアによって合成された P C Mデータ を合わせて出力するこ とができる。
さ らに、 ソフ ト ウェアの処理は、 比較的容易に追加、 削除、 変更等を行う こ とができるため、 さまざまなバリエーショ ンの 音を出力するこ とができる。 また、 エコーやフ ィ ル夕等の一時 的に行う特殊効果処理、 または、 サウン ドプロセ ッサには実装 されていない特殊機能に関する処理をメイ ン C P U 1 1 0が行 い、 ベースサゥン ド等の恒常的な処理をサゥン ドプロセッサ 2 2 0が実行することで、 負荷を分散すると同時に、 高品質の音 を出力できる。 産業上の利用可能性 本発明によれば、 ソ フ トウエア処理とハー ドウェア処理とを 組み合わせて、 楽音を発生させることができる。

Claims

請求の範囲
1 . 第 1 の処理系と、 第 2の処理系と、 サウン ドプロセッサ と、 を備える楽音発生装置において、
前記第 1 の処理系は、
楽譜データを読み込む読み込み手段と、
前記楽譜デ一夕を変換して、 一以上の音色について、 当該各 音色における音の状態を示す音符データを生成する音符データ 生成手段と、
前記生成した音符データを、 サウン ドプロセッサが処理する 第 1 の音符デ一夕と、 第 2 の処理系が処理する第 2の音符デ一 夕とに分けて、 それぞれ出力する出力手段と、 を備え、
前記第 2の処理系は、
前記第 1 の処理系が出力した第 2の音符デ一夕を読み込む読 み込み手段と、
前記読み込んだ第 2の音符データに基づいて、 複数の音色を 合成した第 1の合成音データを生成する音合成手段と、
前記第 1の合成音データを出力する出力手段と、 を備え、 前記サゥン ドプロセッサは、 前記第 1の処理系の制御下にお いて、
前記第 1 の処理系が出力した第 1の音符デ一夕を読み込んで、 当該音符デ一夕に基づいて、 複数の音色を合成した第 2の合成 音データを生成する変換回路と、 前記第 1及び第 2の合成音 データを合わせて発音をするスピーカと、 を備える ことを特 徴とする楽音発生装置。
2 . 請求項 1記載の楽音発生装置において、
前記第 1 および第 2の処理系は、 いずれも、 周期的に動作す るものであ り、 かつ、 前記第 1の処理系は、 前記第 2の処理系 よ り も短い周期で動作し、
前記音符データ生成手段は、 前記第 1の処理系の各周期にお いて、 前記音符データを生成し、
前記出力手段は、 前記第 1の処理系の一周期内で生成された 音符デ一夕を一つのブロ ックと し、 かつ、 当該各ブロ ックに、 生成順序が判別可能な識別情報を含めて出力し、
前記合成音生成手段は、 前記第 2の処理系の一周期内で、 複 数の前記ブロックに含まれる音符デ一夕に基づいて、 前記第 1 の合成音デ一夕を生成する
ことを特徴とする楽音発生装置。
3 . 請求項 2記載の楽音発生装置において、
前記合成音生成手段は、
前記各プロックの前記生成された順序が判別可能な識別情報 に基づいて、 ブロ ックごとに、 生成された順に、 前記第 1 の合 成音データを生成することを特徴とする楽音発生装置。
4 . 請求項 2および 3のいずれか一項に記載の楽音発生装置 において、
前記生成された順序が判別可能な識別情報は、 生成された時 刻を示す時刻情報であることを特徴とする楽音発生装置。
5 . 請求項 1 から 4のいずれか一項に記載の楽音発生装置に おいて、
前記第 1 の音符デ一夕は、 ベースサウン ドに関する音符デー 夕であ り、
前記第 2の音符データは、 メ ロディ ーライ ンに関する音符デ —夕である
こ とを特徴とする楽音発生装置。
6 . 楽譜データを受け付けて、 楽音発生装置を制御する楽音 発生制御装置において、
前記楽譜データの一部を取り込み、 当該取り込んだ一部の楽 譜デ一夕に基づいて、 第 1 のデジタルデータを出力する音合成 回路と、
前記楽譜データの他の一部を読み込み、 当該読み込んだ他の 一部の楽譜データに基づいて、 第 2のデジタルデータを生成す る処理を含むコ ン ピュータ プログラムを読み込んで、 当該処理 を実行するプロセ ッサと、
前記第 1 および第 2 のデジタルデ一夕を、 アナ口グ信号に変 換して、 前記楽音発生装置へ出力する D / A変換器と、 を備え る
こ とを特徴とする楽音発生制御装置。
7 . 第 1 のプロセ ッサと、 第 2のプロセ ッサと、 サウン ドプ 口セ ッサと、 を備える楽音発生装置における楽音発生方法であ つて、
前記第 1 のプロセ ッサは、
楽譜データを読み込む読み込み処理と、 前記楽譜データを変換して、 一以上の音色について、 当該各 音色における音の状態を示す音符デ一夕を生成する音符デ一夕 生成処理と、
前記生成した音符データを、 サゥン ドプロセッサが処理する 第 1 の音符データと、 第 2のプロセッサが処理する第 2の音符 デ一夕とを、 それぞれ出力する処理と、 を実行し、
前記第 2のプロセッサは、
前記第 1 のプロセッサが出力した第 2の音符データを読み込 む読み込み処理と、
前記読み込んだ第 2の音符データに基づいて、 複数の音色を 合成した第 1 の合成音データを生成する音合成処理と、
前記第 1 の合成音データを出力する処理と、 を実行し、 前記サゥン ドプロセ ッサは、 前記第 1のプロセッサの制御下 において、
前記第 1 のプロセッサが出力した第 1の音符データを読み込 んで、 当該音符データに基づいて、 複数の音色を合成した第 2 の合成音デ一夕を生成する処理と、 前記第 1及び第 2の合成 音デ一夕を合わせてスピーカに発音させる処理と、 を備える ことを特徴とする楽音発生方法。
8 . 請求項 1記載の楽音発生装置を備えたエンターティ ンメ ン ト装置。
9 . 音響処理と音響処理以外の他の処理とを、 周期的に動作 するプロセ ッサの一周期内で実行する方法であって、
前記他の処理を実行し、 当該他の処理の実行が完了した後、 前記音響処理を実行することを特徴とする音響処理の実行方法。
1 0 . 請求項 9記載の音響処理の実行方法であって、
前記音響処理は、 複数の処理単位に分割されていて、
前記他の処理は、 単一の処理単位であり、
前記複数の処理単位に分割された音響処理は、 前記単一の処 理単位からなる他の処理の実行が完了した後、 当該処理単位ご とに実行することを特徴とする音響処理の実行方法。
1 1 . 周期的に動作するプロセ ッサを備える音響処理装置で あって、
前記プロセッサは、
音響処理を実行する音響処理と、 音響処理以外の他の処理を 実行する他の処理とを、 当該プロセッサの一周期内で実行し、 前記音響処理は、 前記他の処理の実行が完了した後に実行す ることを特徴とする音響処理装置。
1 2 . 請求項 1 1記載の音響処理装置であって、
前記音響処理は、 複数の処理単位に分割されていて、
前記他の処理は、 単一の処理単位であり、
前記プロセッサは、
前記複数の処理単位に分割された音響処理は、 前記単一の処 理単位からなる他の処理の実行が完了した後、 当該処理単位ご とに実行することを特徴とする音響処理装置。
1 3 . 請求項 1記載の楽音発生装置において、 前記音符データは、
音の発音、 音の停止、 および、 発音する音の高さのう ちの、 少な く ともいずれかに関する音の状態を示すことを特徴とする ; 楽音発生装置。
PCT/JP2001/001682 2000-03-03 2001-03-05 Generateur de sons musicaux WO2001065536A1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
MXPA01011129A MXPA01011129A (es) 2000-03-03 2001-03-05 Generador de sonido musical.
AU36085/01A AU3608501A (en) 2000-03-03 2001-03-05 Musical sound generator
EP01908305A EP1217604B1 (en) 2000-03-03 2001-03-05 Musical sound generator
BR0104870-8A BR0104870A (pt) 2000-03-03 2001-03-05 Gerador de som musical, aparelho que recebe dados de registro musical e que controla um gerador de som musical, processos de gerar um som musical em um gerador de som musical e de realizar um primeiro processamento relacionado a um processamento acústico e um segundo processamento relacionado a outro processamento diferente de acústico, sistema de entretenimento, e, aparelho de processamento acústico
AT01908305T ATE546810T1 (de) 2000-03-03 2001-03-05 Musiktonerzeuger
KR1020017013666A KR20020000878A (ko) 2000-03-03 2001-03-05 악음 발생장치
CA002370725A CA2370725A1 (en) 2000-03-03 2001-03-05 Musical sound generator

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000-59347 2000-03-03
JP2000059347 2000-03-03
JP2000344904A JP4025501B2 (ja) 2000-03-03 2000-11-13 楽音発生装置
JP2000-344904 2000-11-13

Publications (1)

Publication Number Publication Date
WO2001065536A1 true WO2001065536A1 (fr) 2001-09-07

Family

ID=26586767

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/001682 WO2001065536A1 (fr) 2000-03-03 2001-03-05 Generateur de sons musicaux

Country Status (12)

Country Link
US (1) US6586667B2 (ja)
EP (1) EP1217604B1 (ja)
JP (1) JP4025501B2 (ja)
KR (1) KR20020000878A (ja)
CN (1) CN1363083A (ja)
AT (1) ATE546810T1 (ja)
AU (1) AU3608501A (ja)
BR (1) BR0104870A (ja)
CA (1) CA2370725A1 (ja)
MX (1) MXPA01011129A (ja)
TW (1) TW582021B (ja)
WO (1) WO2001065536A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6407267B1 (en) 1999-10-25 2002-06-18 H. Lundbeck A/S Method for the preparation of citalopram

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085127A (ja) * 2001-09-11 2003-03-20 Seiko Epson Corp デュアルバスを有する半導体装置、デュアルバスシステム及びメモリ共有デュアルバスシステム並びにそれを用いた電子機器
CN1567425B (zh) * 2003-06-12 2010-04-28 凌阳科技股份有限公司 可降低中央处理器负载的音讯合成的方法与系统
KR100712707B1 (ko) * 2005-05-27 2007-05-02 부덕실업 주식회사 배출수 내부 저장형 부동 급수주
KR100780473B1 (ko) * 2005-09-13 2007-11-28 알루텍 (주) 차량 방호 구조물
US7467982B2 (en) * 2005-11-17 2008-12-23 Research In Motion Limited Conversion from note-based audio format to PCM-based audio format
JP2007163845A (ja) * 2005-12-14 2007-06-28 Oki Electric Ind Co Ltd 音源システム
GB0821459D0 (en) * 2008-11-24 2008-12-31 Icera Inc Active power management
JP2011242560A (ja) * 2010-05-18 2011-12-01 Yamaha Corp セッション端末及びネットワークセッションシステム
CN107146598B (zh) * 2016-05-28 2018-05-15 浙江大学 一种多音色混合的智能演奏系统和方法
KR102384270B1 (ko) 2020-06-05 2022-04-07 엘지전자 주식회사 마스크 장치
KR102418745B1 (ko) 2020-06-30 2022-07-11 엘지전자 주식회사 마스크 장치
KR102460798B1 (ko) 2020-06-30 2022-10-31 엘지전자 주식회사 마스크 장치
KR20220018245A (ko) 2020-08-06 2022-02-15 슈어엠주식회사 전동팬을 구비한 기능성 마스크

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348396A (ja) * 1990-12-29 1992-12-03 Casio Comput Co Ltd 楽音波形発生装置
JPH09185372A (ja) * 1995-12-28 1997-07-15 Yamaha Corp 電子楽器の制御回路
JPH09244650A (ja) * 1996-03-05 1997-09-19 Yamaha Corp 楽音合成装置及び方法
JPH10228519A (ja) * 1998-02-16 1998-08-25 Yamaha Corp 楽譜自動認識装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2062424B (en) * 1979-10-31 1983-04-07 British Broadcasting Corp Bradcast teletext system
JP2667818B2 (ja) * 1986-10-09 1997-10-27 株式会社日立製作所 トランザクション処理方法
US4995035A (en) * 1988-10-31 1991-02-19 International Business Machines Corporation Centralized management in a computer network
JPH0680499B2 (ja) * 1989-01-13 1994-10-12 インターナショナル・ビジネス・マシーンズ・コーポレーション マルチプロセッサ・システムのキャッシュ制御システムおよび方法
US5333266A (en) * 1992-03-27 1994-07-26 International Business Machines Corporation Method and apparatus for message handling in computer systems
US5393926A (en) * 1993-06-07 1995-02-28 Ahead, Inc. Virtual music system
US5495607A (en) * 1993-11-15 1996-02-27 Conner Peripherals, Inc. Network management system having virtual catalog overview of files distributively stored across network domain
US5539895A (en) * 1994-05-12 1996-07-23 International Business Machines Corporation Hierarchical computer cache system
US5434994A (en) * 1994-05-23 1995-07-18 International Business Machines Corporation System and method for maintaining replicated data coherency in a data processing system
CN1912885B (zh) * 1995-02-13 2010-12-22 英特特拉斯特技术公司 用于安全交易管理和电子权利保护的系统和方法
US5655081A (en) * 1995-03-08 1997-08-05 Bmc Software, Inc. System for monitoring and managing computer resources and applications across a distributed computing environment using an intelligent autonomous agent architecture
JP3501385B2 (ja) * 1995-04-13 2004-03-02 株式会社日立製作所 ジョブ実行順序決定方法
JP3293434B2 (ja) * 1995-10-23 2002-06-17 ヤマハ株式会社 楽音発生方法
JPH09212352A (ja) * 1996-01-31 1997-08-15 Hitachi Software Eng Co Ltd プログラム開発支援システム
US5754752A (en) * 1996-03-28 1998-05-19 Tandem Computers Incorporated End-to-end session recovery
US5852724A (en) * 1996-06-18 1998-12-22 Veritas Software Corp. System and method for "N" primary servers to fail over to "1" secondary server
US5787442A (en) * 1996-07-11 1998-07-28 Microsoft Corporation Creating interobject reference links in the directory service of a store and forward replication computer network
US5787247A (en) * 1996-07-12 1998-07-28 Microsoft Corporation Replica administration without data loss in a store and forward replication enterprise
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US5781912A (en) * 1996-12-19 1998-07-14 Oracle Corporation Recoverable data replication between source site and destination site without distributed transactions
JP3719297B2 (ja) 1996-12-20 2005-11-24 株式会社デンソー 冷媒不足検出装置
US5987504A (en) * 1996-12-31 1999-11-16 Intel Corporation Method and apparatus for delivering data
US6166314A (en) * 1997-06-19 2000-12-26 Time Warp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3741400B2 (ja) 1998-03-06 2006-02-01 月島機械株式会社 排ガス脱硫方法および装置
JP3322209B2 (ja) * 1998-03-31 2002-09-09 ヤマハ株式会社 コンピュータソフトウェアを用いた音源システムおよび記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348396A (ja) * 1990-12-29 1992-12-03 Casio Comput Co Ltd 楽音波形発生装置
JPH09185372A (ja) * 1995-12-28 1997-07-15 Yamaha Corp 電子楽器の制御回路
JPH09244650A (ja) * 1996-03-05 1997-09-19 Yamaha Corp 楽音合成装置及び方法
JPH10228519A (ja) * 1998-02-16 1998-08-25 Yamaha Corp 楽譜自動認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6407267B1 (en) 1999-10-25 2002-06-18 H. Lundbeck A/S Method for the preparation of citalopram

Also Published As

Publication number Publication date
JP2001318671A (ja) 2001-11-16
EP1217604A4 (en) 2009-05-13
CN1363083A (zh) 2002-08-07
EP1217604B1 (en) 2012-02-22
BR0104870A (pt) 2002-05-14
ATE546810T1 (de) 2012-03-15
MXPA01011129A (es) 2002-06-04
KR20020000878A (ko) 2002-01-05
US6586667B2 (en) 2003-07-01
CA2370725A1 (en) 2001-09-07
EP1217604A1 (en) 2002-06-26
JP4025501B2 (ja) 2007-12-19
AU3608501A (en) 2001-09-12
US20010029833A1 (en) 2001-10-18
TW582021B (en) 2004-04-01

Similar Documents

Publication Publication Date Title
WO2001065536A1 (fr) Generateur de sons musicaux
JP3293434B2 (ja) 楽音発生方法
JP5915420B2 (ja) 楽音発生装置、楽音発生方法、電子楽器及びプログラム
JPH09258737A (ja) コンピュータソフトウェアを用いた音源システム
JP3221314B2 (ja) 楽音合成装置及び方法
JP2773648B2 (ja) 電子楽器及び自動演奏装置
JP4096952B2 (ja) 楽音発生装置
JP2797142B2 (ja) 電子楽器用処理装置
JP2005099857A (ja) 楽音発生装置
JP3152156B2 (ja) 楽音発生システム、楽音発生装置および楽音発生方法
JP3928725B2 (ja) 楽音信号発生装置及びレガート処理プログラム
JP3060920B2 (ja) ディジタル信号処理装置
JP3723973B2 (ja) 音源装置
JP3257400B2 (ja) エフェクト装置
JPH10207465A (ja) 楽音発生方法および楽音発生装置
JP3705203B2 (ja) 楽音発生方法
WO2001065535A1 (fr) Generateur de sons musicaux
JP3275678B2 (ja) 楽音発生方法および装置
JP3741047B2 (ja) 音源装置
JP3693046B2 (ja) 楽音発生装置
JP3789358B2 (ja) 電子音発生方法及び装置、それを用いた携帯機器
JP2006091460A (ja) 音源用波形データの決定装置
JPS6079398A (ja) 演奏システム
JPH08221066A (ja) 電子楽器の制御装置
JPH09269774A (ja) 楽音発生装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 01800379.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AU BR CA CN KR MX NZ RU SG

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 1020017013666

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: PA/a/2001/011129

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2370725

Country of ref document: CA

Ref document number: 2370725

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 515831

Country of ref document: NZ

WWE Wipo information: entry into national phase

Ref document number: 2001908305

Country of ref document: EP

Ref document number: 36085/01

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 1020017013666

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001908305

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1020017013666

Country of ref document: KR