WO2002097787A1 - Appareil de reproduction de musique et procede et terminal correspondants - Google Patents

Appareil de reproduction de musique et procede et terminal correspondants Download PDF

Info

Publication number
WO2002097787A1
WO2002097787A1 PCT/JP2002/004951 JP0204951W WO02097787A1 WO 2002097787 A1 WO2002097787 A1 WO 2002097787A1 JP 0204951 W JP0204951 W JP 0204951W WO 02097787 A1 WO02097787 A1 WO 02097787A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
time
event
duration
sound source
Prior art date
Application number
PCT/JP2002/004951
Other languages
English (en)
French (fr)
Inventor
Yasuyuki Muraki
Original Assignee
Yamaha Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corporation filed Critical Yamaha Corporation
Priority to KR1020037010438A priority Critical patent/KR100591378B1/ko
Priority to US10/469,724 priority patent/US7102070B2/en
Publication of WO2002097787A1 publication Critical patent/WO2002097787A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/571Waveform compression, adapted for music synthesisers, sound banks or wavetables
    • G10H2250/591DPCM [delta pulse code modulation]
    • G10H2250/595ADPCM [adaptive differential pulse code modulation]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones

Definitions

  • the present invention relates to a music reproducing apparatus and method capable of generating a melody sound suitable for a portable terminal device.
  • FIG. 13 shows an example of the configuration of this tone reproducing apparatus.
  • a CPU Central Processing Unit
  • MIDI Musical Instrument Digital Interface
  • SMAF Synthetic Music Mobile Application Format
  • the sound source hardware section 115 is provided with a sound source section 133 composed of a sequencer 132 and a hardware.
  • the sequencer 132 includes a decoder 1332a for converting sequence data composed of MIDI data and SMAF data into control data of a format unique to the tone generator 1333, and a control data And a time management unit 132b for controlling the reproduction time of the musical tone in accordance with the time management information.
  • duration data indicating a time interval between events included in the control data and a gate indicating a sounding period are included.
  • the time management unit 132b gives the decoder 132a a command to output control data for musical sound reproduction.
  • the decoder 1332a outputs the control data to the tone generator 1333.
  • the tone generator 133 generates and outputs a musical tone based on the supplied control data. As a result, a musical tone is reproduced.
  • FIG. 14 shows the processing when the absolute time at the time of musical sound reproduction is shown on the horizontal axis.
  • the events (1) to (4) shown in FIG. 14 indicate events processed by the sequencer 132, and the event (1) for which the duration data is set to "1" is an absolute event.
  • the event (2) in which the duration data from the event (1) is set to “1” is regarded as the processing to be performed at the timing of the time "1", and the event (2) in which the absolute time is "2"
  • the event (3) for which the duration data from event (2) is set to “1” is the process to be performed at the absolute time “3”.
  • Event (4) in which the duration data from event (3) is set to “5” is the processing to be performed at the timing of absolute time “8”. In this case, the processing of the event (1) to the event (4) is to be completed by the start time of the processing of the event to be performed next. Based on this processing, the sound source unit 13
  • the tone of the tone reproduced by step 3 is taken as the sequence data. Note that the absolute time is recorded in unit time.
  • event (1) it takes too much time to process event (1), and cannot be processed within the unit time as shown in event (1) 'shown in the lower part of FIG. If it is processed up to “2”, the timing of absolute time “2”
  • the event (2) to be processed at the absolute time “3” is processed at the timing of the absolute time "3”, and the event (2) to be processed at the absolute time “3” is also performed.
  • (3) is processed at the timing of the absolute time “4”
  • the event (4) to be performed at the timing of the absolute time “8” is absolute. Processing is performed at a timing of “9 J. In other words, if processing cannot be completed within the unit time, subsequent events will be delayed and processed.
  • the control data is supplied to the sound source section 13 3 later than the time at which the control data should be supplied to the sound source section 13 3.
  • the timing of pronunciation of subsequent musical tones was delayed.
  • images are displayed in synchronization with the incoming melody, the housing of the mobile phone is vibrated, and various buttons are blinked. If the sounding timing of the musical sound is delayed in such a case, the synchronization with the musical sound will be lost.
  • the present invention provides a musical sound reproducing apparatus and method capable of returning musical sound generation timing to the original timing even when the processing takes time and the sounding timing is delayed. It is another object of the present invention to provide a portable terminal device having such a musical sound reproducing device. Disclosure of the invention
  • the present invention comprises event information representing the content of an event, and duration information representing the time at which the event occurs in a time interval from the previous event.
  • a tone reproducing apparatus for reproducing a tone based on performance data, wherein the duration information in the sequentially supplied performance data is integrated, and event information corresponding to the duration information is provided.
  • Counter means for indicating the time at which a musical tone is generated based on
  • a time counter means indicating an absolute time for counting up at intervals, and a force count value of the time counter means is greater than or equal to a count value of the additional force counter means.
  • Data generation means for generating control data from the event information corresponding to the duration information integrated in the performance data, and reproducing a tone based on the control data.
  • a musical sound reproducing device comprising: a sound source means;
  • the musical sound reproducing device of the present invention further comprises a temporary storage means and a system control means for performing processing other than the musical sound reproduction processing as main processing.
  • the system control means It is preferable that the performance data is sequentially transferred to the temporary storage means by a predetermined amount, and the performance data is sequentially read from the temporary storage means.
  • the present invention is a portable terminal device provided with the musical sound reproducing device having the above configuration, wherein the system control means executes portable terminal function processing as main processing.
  • the system control means executes portable terminal function processing as main processing.
  • the musical sound reproducing device is configured to provide the performance data when the count value of the time counter means becomes equal to or greater than the count value of the addition counter means.
  • a temporary storage means control means for reading out from the temporary storage means and transferring the data to the data generation means.
  • the present invention provides a performance comprising event information indicating the content of an event, and duration information indicating the time at which the event occurs in a time interval from the previous event.
  • the control when the force count value of the time force counter means becomes equal to or greater than the count value of the additional force counter means, the control generated from the corresponding event information. Since the data is supplied to the sound source means, even if the time at which the control data is given is temporarily delayed during the reproduction of the musical sound, the control data is then sent to the sound source at the time indicated by the duration information Can be supplied. As a result, the sounding timing of the musical tone reproduced by the tone generator can be restored.
  • FIG. 1 is a diagram showing a configuration example of an embodiment in a case where the present invention is applied to a mobile phone having a musical sound reproducing device.
  • FIG. 2 is a diagram showing a configuration example of a musical sound reproducing device according to an embodiment of the present invention.
  • Fig. 3 is a diagram showing the data structure of the SM F format and the data structure of the score track chunk in the data structure.
  • FIG. 4 is a diagram showing a data structure of a sequence data chunk in a score track chunk in SMAF format.
  • FIG. 5 is a diagram showing sequence data in an example of SMAF data on a time axis.
  • FIG. 6 is a diagram showing an example of sequence data in the musical sound reproducing device.
  • FIG. 7 is a diagram showing the timing of processing in the musical sound reproducing device.
  • Fig. 8 shows another example of the timing of processing in the musical sound reproducing device.
  • FIG. 9 is a flowchart of the playback process in the music playback device.
  • FIG. 10 is a flowchart of the absolute time update process in the playback process of the musical sound playback device.
  • Fig. 11 is a flowchart of the control register write processing in the reproduction processing of the musical sound reproducing apparatus.
  • Fig. 12 is a flowchart of the sound generation process in the reproduction process of the musical sound reproducing device.
  • FIG. 13 is a diagram showing a configuration example of a conventional tone reproduction device.
  • FIG. 14 is a diagram showing an example of processing timing in a conventional tone reproducing apparatus.
  • FIG. 1 shows a configuration example of an embodiment in which the present invention is applied to a mobile phone having a musical sound reproducing device.
  • the mobile phone 1 shown in FIG. 1 includes an antenna 25 which is generally retractable, and can be connected to the base station 2 by a wireless line.
  • the antenna 25 is connected to a communication unit 13 having a modulation / demodulation function.
  • Central Processing Unit (CPU) 10 is a telephone function program. This is a system control unit that controls the operation of each unit of the mobile phone 1 by executing a program, and indicates the elapsed time during operation and generates a timer interrupt at specific time intervals. It has a timer. Further, the CPU 10 transfers the music content data to the sound source hardware section 15 by a predetermined amount at the time of playing a musical sound such as an incoming call.
  • RAM I 1 is an area for storing music content data, which is a distribution format downloaded from a download center or the like connected via the base station 2, and the like. This is a RAM (Random Access Memory) in which the work area of the CPU 10 is set.
  • the ROM 12 stores various types of transmission / incoming telephone function programs executed by the CPU 10 ⁇ programs for processing related to musical sound reproduction and various data such as preset music content data.
  • R 0 M Read Only Memory
  • the communication unit 13 demodulates a signal received by the antenna 25 and modulates a signal to be transmitted and supplies the modulated signal to the antenna 25.
  • the received signal demodulated by the communication unit 13 is decoded by the voice processing unit (codeano decoder) 14, and the speech signal input from the microphone 21 is compression-coded by the voice processing unit 14. Is done.
  • the audio processing unit 14 performs high-efficiency compression encoding / decoding of audio, and includes, for example, a CELP (Code Excited LPC) system and an ADPCM (adaptive differential PCM encoding) type coder / decoder.
  • the sound source hardware section 15 emits a reception signal from the voice processing section 14 from the reception speed 22 and reproduces the music content data by reproducing the music content data. Hold music can be generated and output.
  • the incoming melody is emitted from the incoming call speaker 23 and the hold tone is mixed with the received signal and emitted from the receiver speaker 22.
  • the format of music content data is MIDI (Musical Instrument Digital Interface) format, which is convenient for distribution ⁇ SMAF (Synthetic Music Mobile Application Format).
  • the air unit 15 converts the music content data of these formats into control data of the format specific to the sound source hardware air unit 15 and reproduces the data. I have.
  • the CPU 10 converts the music content data into format control data unique to the sound source hardware section 15 and stores it in the RAM 11, which is read out from the RAM 11 during playback. Then, the sound may be supplied to the sound source hardware section 15.
  • the sound source hardware section 15 is provided with an FIF 0 for temporarily storing a predetermined amount of music content data.
  • This FIF 0 may be a storage capacity that can store music content data for one song.However, if the storage capacity is too small to store music content data for one song, the FIF 0 When a predetermined amount of free area is generated, the tone generator hardware section 15 sends a FIF 0 data request signal to the CPU 10 and the CPU 10 stores the FIF 0 data request signal in the RAM 11 or R 0 M 12. The continuation of the music content data may be read out and transferred to the sound source window section 15. In this case, a small-capacity FIFO may be used. It is also possible to play music with music content data that has a large data volume.
  • the interface (I / F) 16 is no. It is an interface for downloading music content data and the like from external devices 20 such as a personal computer.
  • the input unit 17 is an input means including dial buttons “0” to “9” provided in the mobile phone 1 and various buttons.
  • the display unit 18 is a display unit that displays a menu for a telephone function and a display according to operation of a button such as a dial button.
  • the vibrator 19 is a vibrator for notifying a user of an incoming call by vibrating the main body of the mobile phone 1 instead of a ring tone at the time of an incoming call.
  • Each function block exchanges data etc. via the bus 24.
  • FIG. 2 shows the configuration of the device.
  • the receiving speaker 22, the receiving speaker 23, and the configuration related thereto are omitted.
  • the CPU 10 and the sound source hardware unit 15 and RAM I 1 in the figure exchange data via a bus 24.
  • the RAM I 1 stores filed music content data of MDI or SMAF.
  • the RAM 11 can store downloaded music content data and music content data read from the external device 20 for a plurality of songs.
  • FIG. 3 (a) the SMAF data has a chunk structure, and the contents information chunk (Contents Info Chunk) 40 and the SCO It is composed of chunks such as Attack Chunk (Score Track Chunk) 41 and PCM Audio Track Chunk (PCM Audio Track Chunk) 42.
  • the content information chunk 40 is a chunk containing content information and definitions
  • the scoretrack chunk 41 stores a sound source sequence track. This is a channel
  • the PCM audio track 42 is a compressed PCM-type audio such as ADP CM, MP3 (MPEG audio layer 3), TwinVQ, etc. This is a chunk that stores in the event format.
  • the data structure of the score track chunk 41 is shown in Fig. 3 (b).
  • the score track 41 is composed of data such as a format type and a sequence type. It is composed of chunks such as a setup data chunk 43 and a sequence data chunk 44.
  • the format type data defines the actual format of this chunk This is a status and can be defined as, for example, a handy phone 'standard.
  • the sequence type data indicates one of two types of sequence data, and there are a stream sequence type and a sub sequence type.
  • the setup data chunk 43 stores chord data and effect settings, and the sequence data chunk 44 stores sequence data used as actual performance data. It is.
  • the sequence data consists of one-byte duration data and two- or three-note event data. And are alternately arranged.
  • the event data always precedes the duration data.
  • the duration data is time information indicating a time interval between an event arranged before the event and an event arranged after the event.
  • the event includes a note message (Note Message) for controlling the pronunciation and a control message (Control Message) ⁇ for controlling the volume and the modulation.
  • There are events such as Exclusive Message that can send unique information.
  • the note message includes a channel number (Channel Number) indicating a sounding channel specified as shown in the figure, and a note number (Note Number) indicating a pitch to be sounded.
  • a note number indicating a pitch to be sounded.
  • And consists of data of a gate time (Gatetime) indicating a sounding period.
  • Sequence data consisting of duration data 1 to duration data 3 and event data 1 to event data 3 shown in FIG. 4 is represented on the time axis as shown in FIG. .
  • event 1, event 2, and event 3 shown in event data 1 to event data 3 are If the note message is ON, event 1 starts sounding when the time shown in duration data 1 has elapsed. Also, when the time indicated by the gate time 1 has elapsed since the start of the sound generation by the event 1, the sound generation by the event 1 is stopped. Then, after the time indicated by the duration data 1 has elapsed, the sound generation by the event 2 is started when the time indicated by the duration data 2 has elapsed.
  • the sound source hardware section 15 shown in FIG. 2 includes a FIF 030 for temporarily storing a predetermined amount of sequence data, and the FIF 0300 is read from the RAM 11 under the control of the CPU 10.
  • the stored predetermined amount of sequence data b is stored.
  • the CPU 10 supplies the write signal c to the FIF 0 control unit 31, and the FIFO control unit 31 to which the write signal c has been supplied transmits the write signal c to the position of the address given to the FIF 0 30.
  • the sequence data b read from the RAM 11 is written to the RAM.
  • the FIFO control unit 31 supplies the read signal address d and the FIFO 3 to which the read signal no address d is supplied.
  • the FIF 030 reads out the sequence data e at the given address position and supplies it to the sequencer section 32.
  • the FIF 030 becomes a first-in first-out storage means capable of storing, for example, 32 bytes of sequence data. Is read sequentially from the sequence data written in the.
  • the FIF 030 sends a FIFO data request signal to the CPU 10 Requesting that the subsequent sequence data f be transferred to the FIFO 30.
  • the sequencer unit 32 in the sound source hardware unit 15 includes a decoder 32 a for converting the supplied sequence data into sound source control data of a format specific to the sound source unit 33, A register light control unit 32 e for writing sound source control data for tone reproduction to the sound source control register of the sound source unit 33, a duration addition counter 32 b, and an absolute time counter And a time management unit for controlling the reproduction time of the musical sound composed of the data 32c and the comparison circuit 32d. Then, the sequence data e read from the FIF 0300 is converted into sound source control data in the decoder 32a, and the duration data f_1 in the data is supplied to the Duration addition counter 32b. The event data f12 is supplied to the register write control unit 32e.
  • the first duration data f-1 is the duration information as shown in FIG. 4, the first duration data f is output from the decoder 32a. Then, the duration data 1-1 is supplied to the Duratio addition counter 32b.
  • the Duration addition counter 32b the duration data f-1 indicating the time interval between the supplied events is added to the current value of the Duration addition counter 32b. That is, in the Duration addition counter 32b, the duration data, which is a relative time value, is integrated, and the occurrence time of the corresponding event is indicated by the absolute time from the start of music playback. It will be.
  • the absolute time counter 32c constituting the time management unit, when the reproduction of the musical sound is started, powers up every unit time and sets the absolute time from the start of the reproduction. Counter.
  • the absolute time counter 32c may be made to count up by a timer interrupt generated at a unit time interval. Then, the absolute time counter 32c supplies the count value h from the absolute time counter 32c from the start of reproduction of the musical tone to the comparison circuit 32d. .
  • the comparison circuit 32 d is supplied with a count value (duration absolute time value) g from the Duration addition counter 32 b to which the duration data has been added. The comparison circuit 32d compares the count value (duration absolute time value) g with the count value h.
  • the absolute time counter 32c counts up every unit time, and when the count value h becomes greater than or equal to the count value g, the comparison circuit 3 2 d applies a significant comparison result i to the FIF 0 control unit 31.
  • the significant comparison result i means that the time indicated by the added duration data has been reached, and the FIF 0 control unit 31 receiving this receives the duration from the FIF 0 30.
  • the next sequence data corresponding to the yod data is read and supplied to the decoder 32a.
  • the sequence data supplied to the decoder 32a is the event information following the duration information of the duration data and the duration information following the duration information.
  • the sequence data is converted to sound source control data in the decoder 32a.
  • the event data f — 2 in the sound source control data output from the decoder 32 a is supplied to the register light control unit 32 e, and the duty in the output sound source control data is output.
  • the first data 1 is added to the count value of the Duration addition counter 32b.
  • the register write control section 32e performs control to write the event data into the sound source control register built in the sound source section 33. Specifically, this event data is controlled.
  • the tone generator 33 outputs the tone reproduction data k based on the written tone data j of the tone generator control register. To supply. With this, when the time indicated by the duration data elapses, a musical tone based on the event data corresponding to the duration data is reproduced and emitted from the speaker 34. It becomes.
  • the comparison circuit 32d applies the significant comparison result i to the FIF0 control unit 31.
  • the FIF 0 control unit 31 receiving the significant comparison result i reads the next sequence data from the FIF 0 30 and supplies it to the decoder 32 a.
  • the supplied sequence data is event information that follows the duration information of the duration data, and the duration information that follows the duration information.
  • the 32a converts the supplied sequence data into sound source control data, and supplies event data f-12 in the sound source control data output from the decoder 32a to the register write control unit 32e.
  • the next duration data f — 1 output and output is added to the count value in the Duration addition counter 32b.
  • the sound source in the event data supplied to the register write control unit 32 e. The radiator is written as the write data j to the register at the address position indicated by the address information of the event data of the sound source control register.
  • the tone generator section 33 generates the tone reproduction data k based on the written write data j of the tone generator control register. Supplied to peak power 3 4.
  • the above processing is repeatedly performed until the processing of the sequence data is completed. That is, every time the time indicated by the duration data elapses, the next event data is read out from the FIF 030, a musical tone based on the read out event data is reproduced, and the next event data is reproduced.
  • the duration data which indicates the timing at which a musical tone is generated based on the tone data, is added to the counter value of the Duration addition counter 32b, and the musical tone is reproduced.
  • the data is played back sequentially at each timing that reaches the time indicated by the Yon data.
  • FIG. Description will be made with reference to FIG. 7 or FIG. 9 assuming that data is read from FIF 0330.
  • the first event data is "01” indicating that the duration information indicates one unit time
  • the duration data "0" output from the decoder 32a is used.
  • “1” is added to the count value of the Duration addition counter 32b, and the count value becomes “1”.
  • the absolute time counter 32 counts up by “1”, and when the count value becomes “1”, the Duration addition counter is counted.
  • the count value of 32b and the absolute time counter 32c become equal, indicating that the time indicated by the duration data has been reached.
  • a significant comparison result i is output from the comparison circuit 32 d to the FIF 0 control unit 31, and the event information of “timbre setting 1” is output from the FIFO 30 under the control of the FIFO control unit 31.
  • the next duration information “00” is read.
  • Event information for setting tone for read channel 1 The “timbre setting 1” is converted into event data of an address corresponding to the timbre parameter in the decoder 32a and supplied to the register light control section 32e.
  • the timbre parameter for setting the timbre of channel 1 to the tone generator control register position indicated by the address of the event data in the tone generator 33 is written by the register write controller 32e. Is written as data j.
  • the tone color of channel 1 reproduced by the sound source section 33 is set.
  • the duration coasting information read from FIF 03 0 is “0 0”, and the duration addition counter 32 b added with this duration data is a count-up. Instead, it remains at “1”. As a result, the count value of the Duration addition counter 32b is still equal to the count value of the absolute time counter 32c, which is significant from the comparison circuit 32d. The comparison result i is still output. Therefore, the FIFO control unit 31 reads out the event information of the next “timbre setting 2” from the FIFO 30 and controls to read out the next duration information “0 0”. The event information “Tone setting 2” for setting the tone in the read channel 2 is converted into event data of the address corresponding to the tone parameter in the decoder 32 a, and the register write control is performed.
  • the meter is written as write data j.
  • the timbre of channel 2 reproduced by the sound source section 3 3 is set.
  • Such processing is performed continuously when the duration information read from FIF 030 under the control of the FIF 0 control unit 31 is “0 0”.
  • the tone setting process of channel 1 or channel N shown in (1) is performed continuously. That is, channel 1 or channel As shown in FIG. 7, the processing for setting the timbre of N is performed continuously from the timing of the absolute time “1”.
  • the duration information “01” is read from the FIF 030 and supplied to the decoder 32a. Become so. Then, the duration data "01” output from the decoder 32a is added to the count value of the Duration addition counter 32b, and the Duration addition counter 32b is set to 1 The count is incremented by "1” corresponding to the unit time, the count value becomes "2”, and the comparison result i output is stopped. If one unit time elapses after waiting here, the absolute time counter 3 2 c is counted up by “1” to “2”, and the Duration addition counter 3 2 Count value of b and absolute time counter
  • the event information of “Volume setting” is read from FIF030 and the next duration information “01” is read.
  • the read event information of the volume setting is converted into event data of an address corresponding to a volume and a parameter in the decoder 32a, and the register light control unit 32 e.
  • the register write control unit 32 e sets a polynomial value at the sound source control register position indicated by the address of the event data in the sound source unit 33. No ,.
  • the parameter is written as write data j.
  • the volume of the musical tone reproduced by the sound source section 33 becomes the set volume.
  • the volume setting process shown by (2) in FIG. 6 is processed at the timing of the absolute time “2” as shown in FIG.
  • the duration information “01J” read from FIF030 is supplied to the decoder 32a. You. Then, the duration data “01” output from the decoder 32a is added to the count value of the Duration addition counter 32b, and the Duration addition power counter 32 is added. b is counted up by “1”, which is equivalent to one unit time, to “3”, and the comparison result i output is stopped. When one unit time elapses after waiting here, the absolute time counter 3 2c is counted up to ⁇ 3 '', and the count value of the Duration addition counter 3 2b is counted.
  • the tone generator 33 reproduces the musical tone having the pitch indicated by the key-on parameter with the previously set tone and volume.
  • the key-on process indicated by (3) in FIG. 6 is processed at the timing of the absolute time “3” as shown in FIG.
  • the duration information “05” read from the FIF 330 is supplied to the decoder 32 a. Then, the duration "05” output from the decoder 32a is added to the count value of the Duration addition counter 32b, and the duration addition counter 3 The count value of 2b is counted up by "5", which is equivalent to 5 unit times, to "8", and the comparison result i output stops. Is done.
  • the count value of the absolute time counter 32c is counted up to "8", and the Duration addition counter 3 2b
  • the count value of the absolute time counter 32 c becomes equal to the count value of the absolute time counter 32 c again, and the comparison circuit 32 d outputs a significant comparison result i. Become.
  • the event information of the next “Key OFF” is read from the FIF 030 under the control of the FIF 0 control unit 31.
  • the read key-off event information is converted into key-off parameters and event data of the address corresponding to the key-off parameters in the decoder 32a, and is supplied to the register light control section 32e. .
  • the write data j including the key-off parameter is written by the register write control section 32 e into the tone generator control register position indicated by the address of the event data in the tone generator section 33. It is. As a result, the key is turned off by the sound source section 33. The currently sounding tone indicated by the lamella is keyed off and muted. In other words, the key-off processing indicated by (4) in FIG. 6 is processed at the timing of the absolute time “8” as shown in FIG.
  • the tone generator hardware section 1 is used. If the processing speed in step 5 is slow, the entire tone setting process shown in (1) may not be completed in one unit time, but may take up to the next unit time. In this case, as described with reference to FIG. 14, the sounding timing of the subsequent musical tones may be delayed in the conventional musical sound reproducing device. However, in the musical sound reproducing device according to the present invention, the sounding timing of subsequent musical sounds can be restored. Therefore, an image is displayed on the display unit 18 in synchronization with the incoming call message reproduced by the sound source hardware window unit 15 on the mobile phone 1, or the housing of the mobile phone 1 is vibrated. Even when the various buttons in the input section 17 are blinking, the ringing melody Since the ringing delay can be undone, the synchronization with the incoming melody can be undone.
  • the volume setting process shown in (2) is performed following the tone setting process shown in (1), and the volume setting process shown in (2) is performed.
  • the frame setting process will end before the absolute time “3” is reached.
  • the timing of the key-on processing shown in (3) and the processing of the key-off processing shown in (4) are performed in the original timing, and the generation of musical tones is performed.
  • the sound (silence) timing can be restored.
  • FIG. 9 shows a flowchart of the reproduction processing executed in the sound source hardware section 15 in the musical sound reproducing apparatus according to the present embodiment.
  • step SI the count values of the duration addition counter 32b and the absolute time counter 32c are reset, and the sound source control register in the sound source section is reset.
  • Initialization processing for initializing the sound source hardware part 15 such as setting the default value or default value is performed.
  • step S2 the tone generation processing of step S3, and the absolute time update processing of step S4 are performed in parallel.
  • the processing of step S2 or step S3 is repeatedly executed until the processing of the sequence data is completed or a stop instruction is issued, whereby a reproduced musical tone based on the sequence data is output. Become so.
  • the process of reading event information from FIF030 and writing the converted write event data to the tone generator control register is an absolute time clock. It is repeatedly executed each time the count value of the counter 32c becomes equal to or greater than the count value of the Duration addition counter 32b.
  • the tone reproduction process based on the tone generator parameters read from the tone generator control register is repeatedly executed every time the tone generator parameters are written to the tone generator control register. I have.
  • the absolute time update process of step S4 the process of counting up the absolute time counter 32c one by one is executed every time one unit time elapses. I have.
  • a flowchart showing the absolute time updating process is shown in FIG. When the absolute time update process shown in Fig.
  • step S10 one unit time, which is a fixed time, has elapsed in step S10. Is determined.
  • the process is returned immediately after the reproduction process step S1, but if it is determined that the predetermined time has elapsed, the process proceeds to step S11.
  • the count value of the absolute time counter 32c set to "0" by the initial reset processing is incremented, and the count value is set to "1". Up.
  • the process returns and the absolute time update process is repeatedly executed, and the absolute time counter 32c is incremented each time a predetermined time elapses, and the absolute time counter 32c is incremented.
  • the count value starts to count up.
  • the sequence data is read from the FIF 030 in step S20.
  • the read first sequence data is the duration information
  • the duration data output from the decoder 32a is initialized in step S21. Therefore, the value is added to the Duration addition counter 32b set to "0".
  • step S22 the count value of the absolute time counter 32c is compared with the count value of the Duration addition counter 32b. If it is not determined that the count value of the counter 32c is equal to or greater than the count value of the Duration addition counter 32b, the process waits.
  • step S 23 a significant comparison result i is applied to the FIF 0 control unit 31, and the event corresponding to the duration data from the FIF 0 30 Information is read.
  • the read event information is converted by the decoder 32a into format control data unique to the sound source unit 33, and is supplied to the register light control unit 32e.
  • step S24 the sound source parameter in the control data is written into the control data at the register position indicated by the address in the evening.
  • the process returns after step S1 of the reproduction processing. As a result, it is ready to be able to reproduce the musical tone according to the control data.
  • Fig. 12 shows a flowchart showing the sound generation process.
  • the tone generator parameters are written to the tone generator control register by the control register write processing. Then, the sound processing is started when the quasi-melting for reproducing the musical tone is completed. Then, in step S30, the sound source parameters are read from the sound source control register, and then the data is processed based on the sound source parameters read in step S31. Is executed. In this case, if the sound source parameter is a key-on parameter, data processing for reproducing a musical tone having a pitch indicated by the key-on parameter at a set tone or volume is performed. Subsequently, the data processed in step S32 is output.
  • the reproduction data k of the musical sound to be reproduced is output. It will be.
  • the processing of step S32 is completed, the process returns after step S1 of the reproduction processing.
  • the tone reproduction apparatus of the present embodiment described above is applied to the above-mentioned portable telephone which is a portable terminal apparatus, but the present invention is not limited to this, and a portable information device capable of outputting a tone is provided. Also, it can be applied to portable personal computers capable of outputting musical sounds. Further, the music content data may be reproduced in synchronization with the text or image content.
  • the decoder 32 of the sound source hardware unit 15 may be used.
  • the sequence data is converted into control data of a format specific to the tone generator 33.However, when the CPU 10 has a margin, the sequence data is Is converted into control data of a format specific to the sound source section 33 and stored in the RAM 11, and the control data is read out from the RAM 11 at the time of reproduction, and is transmitted to the sound source hardware section 15. You may supply them.
  • the processing amount of the entire sequencer section 32 is reduced, and the In order to reduce the processing time of data relating to the reproduction of musical sounds in the section 32, the conversion processing by the CPU 10 and the count of the absolute time counter 32c described above are performed.
  • the count value of the Duration addition counter 32b becomes equal, the event data is supplied from the FIF030 to the register light control unit 32e.
  • the sound generation (silence) timing of the musical sound is achieved. As a result, it is possible to provide a music sound reproducing device that is less likely to cause a delay.
  • the sound source section 33 in the sound source hardware section 15 can be constituted by a frequency modulation type sound source, that is, an FM sound source.
  • FM sound sources use harmonics generated by frequency modulation to synthesize musical tones, and can generate a waveform with harmonic components including non-harmonic sounds with a relatively simple circuit. .
  • FM sound sources can generate a wide range of musical tones, from synthesized sounds of natural musical instruments to electronic sounds.
  • the FM sound source uses an oscillator called an operator that oscillates a sine wave equivalently.
  • an FM sound source is configured by cascading a first operator and a second operator. be able to.
  • the FM sound source can be configured such that the operator's own output is fed back and input.
  • the sound source method of the sound source section 33 in the sound source hardware section 15 is not limited to the FM sound source method, but may be a waveform memory sound source (PCM sound source, ADPCM sound source) method, or a physical sound source method.
  • PCM sound source PCM sound source
  • ADPCM sound source ADPCM sound source
  • a model sound source method or the like can be used, and a sound source can be a hardware sound source using a DSP or the like.
  • the event information corresponding to the time counter means is obtained.
  • the control data generated is supplied to the sound source means, so even if the time at which the control data is given is temporarily delayed during the reproduction of the musical tone, the control data is thereafter supplied at the time indicated by the duration information. Control data can be supplied to the sound source section. As a result, the sounding timing of the musical tone reproduced by the tone generator can be restored.
  • the mobile phone to which the present invention is applied displays an image in synchronization with the incoming call message, vibrates the housing of the mobile phone, or blinks various buttons, Since the sounding timing delay of the musical tone can be undone, the synchronization with the musical tone can be undone.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephone Function (AREA)

Description

明 細 書 楽音再生装置及び方法、 並びに携帯端末装置 技術分野
本発明は、 携帯端末装置に適用 して好適なメ ロディ 音を生成可能な楽 音再生装置及び方法に関する ものである。 背景技術
従来の楽音再生装置の一例と して、 ハー ドウ アを用いて楽音を生成 する よ う に した楽音再生装置があった。
この楽音再生装置の構成例を第 1 3 図に示す。 第 1 3 図において、 C P U (Central Processing Unit) 1 1 0 は、 M I D I (Musical Instrument Digital Interface)デー タ や、 後述する S M A F (Synthetic Music Mobile Application Format)データ等の音楽コ ンテ ンツデータ 1 1 1 を音源ハー ドウ エア部 1 1 5 に供給している。 この場合、 M I D I デー タや S MA Fデ一タ は外部から転送されたデータであった り 、 記憶手段から読み出 されたデータ と される。 音源ハー ドウ ェア部 1 1 5 には、 シーケ ンサ 1 3 2 とハー ドゥ ヱァからなる音源部 1 3 3 が備え られている。 シーケ ン サ 1 3 2 は、 M I D I データや S MA Fデータからなる シーケンスデー タ を音源部 1 3 3 に固有のフ ォ ーマツ トの制御データ に変換するデコー ダ 1 3 2 a と、 制御データ 中の時間管理情報に従って、 楽音の再生時間 を制御する時間管理部 1 3 2 b と を有している。
このよ う に構成された楽音再生装置においては、楽音を再生する際に、 制御データ中に含まれているィベン ト とィベン ト の時間間隔を示すデュ レーシ ョ ンデータや、 発音期間を示すゲー ト タ イ ムデータ に基づく タ イ ミ ングにおいて、 時間管理部 1 3 2 b がデコーダ 1 3 2 a に楽音再生用 の制御データ出力の指示を与えている。 これ受けて、 デコーダ 1 3 2 a は、 制御データ を音源部 1 3 3 に出力する。 音源部 1 3 3 では、 供給さ れた制御データ に基づいて楽音を生成して出力する。 これによ り 、 楽音 が再生される よ う になる。
と ころで、 従来の楽音再生装置においては、 シーケ ンサ 1 3 2 が音楽 コ ンテ ン ツデー タの変換およ び時間管理を行っている こ とから、 例えば 同時刻において多 く のイベン トが生じている場合には、 シーケンサ 1 3 2 の処理量が多 く な り 、 単位時間内に処理し きれない場合が生じる。 例 えば、 楽音再生時の絶対時間を横軸と して示した際の処理の様子を第 1 4 図に示す。 第 1 4 図に示す(1 )〜(4)はシーケンサ 1 3 2 において処理 されるイベン ト を示してお り 、 デュ レーシ ヨ ンデータが 「 1 」 と された イ ベン ト(1 )は、 絶対時間 「 1 」 のタイ ミ ングで行う べき処理と され、 イベン ト(1 )からのデュ レ ^シ ヨ ンデータが 「 1 」 と されたイベン ト(2) は絶対時間 「 2 」 の タイ ミ ン グで行う べき処理と され、 イ ベ ン ト (2)か らのデュ レーシ ョ ンデータが「 1」 と されたィベン ト(3)は絶対時間 「 3」 のタ イ ミ ングで行う べき処理と され、 ィベン ト(3)からのデュ レーシ ョ ンデー タが 「 5」 と されたイ ベン ト(4)は絶対時間 「 8」 のタ イ ミ ング で行う べき処理と される。 この場合、 イ ベン ト (1 )ないしイ ベ ン ト (4)の 処理は次に行う ィベン トの処理の開始時間までに終了する もの と されて お り 、 この処理に基づいて音源部 1 3 3 によ り再生される楽音の発音夕 イ ミ ングは、 シーケンスデータ通り と される。 なお、 絶対時間は単位時 間毎に刻まれている。
しか しながら、 イ ベ ン ト (1 )の処理に時間がかか り 過ぎて第 1 4 図の 下段に示すイ ベン ト (1 )' のよ う に単位時間内に処理し きれず絶対時間 「 2」 までかかって処理されたとする と、 絶対時間 「 2」 のタイ ミ ング で処理されるべき イ ベン ト (2)は絶対時間 「 3 」 のタ イ ミ ングで処理さ れる よ う にな り 、 さ ら に絶対時間 「 3」 のタ イ ミ ングで行うべき ィベン ト(3)は絶対時間 「 4」 のタ イ ミ ングで処理される よ う にな り 、 さ ら に 絶対時間 「 8 」 の タ イ ミ ン グで行うべき イ ベ ン ト(4)は絶対時間 「 9 J のタ イ ミ ングで処理される よ う になる。 すなわち、 単位時間内に処理し きれない場合は以降のイベン ト はそれぞれ遅延されて処理される よ う に なってしま う よ う になる。 この結果、 単位時間内に処理しきれない場合 は、 制御データ を音源部 1 3 3 に与えるべき時刻から遅れて音源部 1 3 3 に制御データが与え られる こ と とな り 、 以降の楽音の発音タ イ ミ ング が遅れて しま う という 問題点があった。 特に、 携帯電話機においては着 信メ ロディ と同期させて画像を表示させた り 、 携帯電話機の筐体を振動 させた り 各種ボタ ンを点滅させる こ とが行われてお り 、 このよ う な場合 に楽音の発音タ イ ミ ングが遅れて しま う と、 楽音との同期がずれて しま う こ とになる。
そこで、 本発明は、 処理に時間がかかり発音タ イ ミ ングが遅れる状況 と なって も、 楽音の発生タ イ ミ ングを本来のタイ ミ ングに戻すこ とので き る楽音再生装置及び方法、 およ び、 このよ う な楽音再生装置を備える 携帯端末装置を提供する こ と を目的と している。 発明の開示
上記目的を達成するために、 本発明は、 イ ベン ト の内容を表すィ ベン ト情報と、 ィベン トが生起する時刻を前ィベン ト との時間間隔で表すデ ユ レーシ ョ ン情報とからなる演奏データ に基づいて楽音再生を行う 楽音 再生装置であつて、 順次供給される前記演奏デー タにおける前記デュレ —シ ヨ ン情報を積算して、 該デュ レーシ ヨ ン情報に対応するイベン ト情 報に基づ く 楽音を発生させる時刻を示す加算カ ウ ンタ手段と、 単位時間 間隔でカ ウ ン ト ア ッ プする絶対時間を示す時間カ ウ ンタ手段と、 前記時 間カ ウ ン タ手段の力 ゥ ン ト値が前記加算力 ゥ ン タ手段のカ ウ ン ト値以上 と なった際に、 前記演奏データ における積算された前記デュ レ一シ ヨ ン 情報に対応する前記イ ベン ト情報から制御データ を生成するデータ生成 手段と、 該制御データ に基づいた楽音を再生する音源手段と を備える こ と を特徴とする楽音再生装置を提供する。
本発明の楽音再生装置は、 一時記憶手段と、 楽音再生処理以外の処理 をメ イ ン処理とするシステム制御手段と をさ らに備え、 楽音再生する時 には、 前記システム制御手段が、 前記一時記憶手段に所定量ずつの前記 演奏デー タ を順次転送し、 前記一時記憶手段から順次前記演奏デー タ を 読み出すよ う にするのが好ま しい。
上記目的を達成するために、 本発明は、 上記構成の楽音再生装置を備 える携帯端末装置であって、 前記シス テム制御手段は、 携帯端末機能処 理をメ イ ン処理と して実行する こ と を特徴とする携帯端末装置を提供す る o
本発明の好ま しい形態によれば、 楽音再生装置は、 前記時間カ ウ ン タ 手段のカ ウ ン ト値が前記加算カ ウ ンタ手段のカ ウ ン ト値以上と なった際 に前記演奏データ を前記一時記憶手段から読み出 して前記デー タ生成手 段に転送する一時記憶手段制御手段と を更に備える こ と を特徴とする。 上記目的を達成するために、 本発明は、 イ ベン ト の内容を表すィベン ト情報と、 ィベン トが生起する時刻を前ィベン ト と の時間間隔で表すデ ユ レーシ ョ ン情報とからなる演奏データに基づいて楽音再生を行う 楽音 再生方法であって、 順次供給される前記演奏デー タ における前記デュ レ ーシ ヨ ン情報を積算して、 該デュ レ一シ ヨ ン情報に対応する ィベン ト情 報に基づく 楽音を発生させる時刻を求め、 単位時間毎にカ ウ ン ト ア ッ プ して絶対時間を求めるステ ッ プと、 前記求めた絶対時間が前記求めた楽 音を発生させる時刻以降を示したと き に、 前記演奏データ における積算 された前記デュ レ一シ ョ ン情報に対応する前記ィベン ト情報から制御デ 一タ を生成するステツ プと、 音源手段によ り該制御デ一タ に基づいた楽 音を再生するステッ プと を備える こ と を特徴とする楽音再生装置を提供 する。
上記本発明の構成によれば、 時間力 ゥ ンタ手段の力 ゥ ン ト値が加算力 ゥ ン タ手段のカ ウ ン ト値以上となった際に、 対応するィベン ト情報から 生成された制御デ一タ を音源手段に供給する よ う に したので、 楽音再生 の途中において制御データ を与える時刻が一時的に遅れても、 その後は デュ レーシ ョ ン情報が示す時刻で制御データ を音源部に供給する こ とが でき る。 これによ り 、 音源部によ り再生される楽音の発音タイ ミ ングを 元に戻すこ とができ る よ う になる。
従って、 携帯電話機において着信メ 口ディ と同期させて画像を表示さ せた り 、 携帯電話機の筐体を振動させた り各種ボタ ンを点滅させる よ う に していても、 楽音の発音タ イ ミ ングの遅れを元に戻すこ とができ るの で、 楽音との同期を元に戻すこ とができ る よ う になる。 図面の簡単な説明
第 1 図 本発明を楽音再生装置を備える携帯電話機に適用 した場合の 実施の形態の構成例を示す図である。
第 2 図 本発明の実施の形態にかかる楽音再生装置の構成例を示す図 である。
第 3 図 S M A F フ ォーマ ッ ト のデー タ構造と、 そのデータ構造中の スコア ト ラ ッ クチャ ンクのデータ構造を示す図である。
第 4 図 S M A F フ ォーマッ ト におけるス コア ト ラ ッ クチャ ンク 中の シーケンスデータチャ ンクのデータ構造を示す図である。 第 5 図 S M A Fデータの一例における シーケ ンスデ一'タ を時間軸上 で表した図である。
第 6 図 楽音再生装置における シーケ ンスデー タの一例を示す図であ る。
第 7 図 楽音再生装置における処理のタイ ミ ングを示す図である。 第 8 図 楽音再生装置における処理のタイ ミ ングの他の例を示す図で める。
第 9 図 楽音再生装置における再生処理のフローチヤ一ト である。 第 1 0 図 楽音再生装置の再生処理における絶対時間更新処理のフロ 一チヤ 一 ト である。
第 1 1 図 楽音再生装置の再生処理における制御レジス タ ライ ト処理 のフ ローチヤ一ト である。
第 1 2 図 楽音再生装置の再生処理における発音処理のフ ロ ーチ ヤ一 ト である。
第 1 3 図 従来の楽音再生装置の構成例を示す図である。
第 1 4 図 従来の楽音再生装置における処理のタ イ ミ ングの例を示す 図である 発明を実施するための最良の形態
以下、 本発明の実施の形態を図面を参照して詳細に説明する。
本発明を楽音再生装置を備える携帯電話機に適用 した場合の実施の形 態の構成例を第 1 図に示す。
第 1 図に示す携帯電話機 1 は、 一般に リ ト ラク タ ブルと されたアンテ ナ 2 5 を備えてお り 、基地局 2 と無線回線によ り接続可能と されている。 ア ンテナ 2 5 は変調 ' 復調機能を有する通信部 1 3 に接続されている。 中央処理装置(Central Processing Unit: C P U ) 1 0 は、 電話機能プログ ラム を実行する こ と によ り携帯電話機 1 の各部の動作を制御する システ ム制御部であ り 、 動作時の経過時間を示した り 、 特定の時間間隔でタ イ マ割込を発生する タ イマを備えている。 また、 C P U 1 0は着信時等の 楽音再生時に音楽コ ンテ ンツデータ を所定量ずつ音源ハ一ドウ エア部 1 5 に転送 している。 R AM I 1 は基地局 2 を介して接続したダウ ンロー ドセ ン タ ー等から ダウ ンロ ー ドされた配信フ ォ ーマ ツ ト と された音楽コ ンテ ンッ デー タ の格納エリ アや、 C P U 1 0のワ ー ク エリ ア等が設定さ れる R A M (Random Access Memory)である。 R OM 1 2は C P U 1 0が 実行する送信や着信の各種電話機能プログラムゃ楽音再生関連処理等の プロ グラ ムや、 プリ セ ッ ト された音楽コ ンテ ンツデータ等の各種デー タ が格納されている R 0 M(Read Only Memory)である。
また、 通信部 1 3 は、 アンテナ 2 5で受信された信号の復調を行う と 共に、 送信する信号を変調してア ンテナ 2 5 に供給している。 通信部 1 3で復調された受話信号は、 音声処理部 (コーダノデコーダ) 1 4 にお いて復号され、 マイ ク 2 1 から入力された通話信号は音声処理部 1 4 に おいて圧縮符号化される。 音声処理部 1 4は、 音声を高能率圧縮符号化 /復号化してお り 、 例えば C E L P (Code Excited LPC)系や A D P C M (適応差分 P C M符号化) 方式のコーダ/デコーダを備えている。 音源 ハー ドウ ヱァ部 1 5は、 音声処理部 1 4からの受話信号を受話用ス ピー 力 2 2から放音した り 、 音楽コ ンテ ンツデータ を再生する こ と によ り 着 信メ ロディ 、 保留音を生成して出力する こ とができ る。 なお、 着信メ ロ ディ は着信用ス ピー力 2 3から放音され、 保留音は受話信号と ミ キシ ン グされて受話用ス ピーカ 2 2から放音される。
また、 音楽コ ンテ ンツデータのフ ォ ーマツ ト は配信するに便利な M I D I (Musical Instrument Digital Interface)フ ォ ー マ ツ ト ゃ S M A F (Synthetic Music Mobile Application Format)と されてお り 、 音源ハ一 ドウ エア部 1 5 がこれらのフ ォ ーマツ ト の音楽コ ンテ ンツデータ を音源ハー ドウ エア部 1 5 に固有なフ ォ ーマ ッ ト の制御デー タ に変換して、 再生す る よ う に している。 また、 C P U 1 0 が音楽コ ンテ ンツデータ を音源ハ — ドウ エア部 1 5 に固有なフ ォ ーマツ トの制御データ に変換して R A M 1 1 に記憶しておき、 再生時に R A M 1 1 から読み出 して音源ハー ドウ エア部 1 5 に供給する よ う に して も よい。 音源ハー ドウ ヱァ部 1 5 は、 内部に所定量の音楽コ ンテ ンツデータ を一時記憶する F I F 0が設けら れている。 この F I F 0は一曲分の音楽コ ンテンツデー タが記憶でき る 記憶容量と されても よいが、 記憶容量が小さ く 一曲分の音楽コ ンテ ンッ デー タ を記憶でき ない場合は、 F I F 0に所定量の空きエリ アが生 じた 際に、 音源ハー ドウェア部 1 5が F I F 0データ リ ク エス ト信号を C P U 1 0 に与え、 C P U 1 0 が R A M 1 1 あるいは R 0 M 1 2 に記憶され ている音楽コ ンテ ンツデー タ の続き を読み出 して音源ハ ^" ドウ ヱァ部 1 5 に転送する よ う に しても よい。 このよ う にする と、 小さい容量の F I F O を用いても大き なデータ量と される音楽コ ンテ ンツデータの楽曲を 再生する こ とができ る よ う になる。
さ ら に、 イ ンタ フェース ( I / F ) 1 6 は、 ノ、。一ソナルコ ン ピュータ 等の外部機器 2 0 から音楽コ ンテ ンツデータ等をダウ ンロー ドする ため のイ ン タ フ ェースである。 入力部 1 7 は携帯電話機 1 に備えられた 「 0」 から 「 9」 のダイ ヤルポタ ンや各種ポタ ンから構成される入力手段であ る。 表示部 1 8 は電話機能のメニューや、 ダイヤルボタ ン等のボタ ンの 操作に応じた表示がされる表示器である。 バイ ブレータ 1 9 は、 着信時 に着信音に代えて携帯電話機 1 の本体を振動させる こ と に よ り 、 着信を ユーザに知らせるバイ ブレータである。 なお、 各機能ブロ ッ ク はバス 2 4 を介してデータ等の授受を行っている。
次に、 本発明の実施の形態にかかる携帯電話機 1 における楽音再生装 置の構成を第 2 図に示す。 ただし、 第 2 図では、 受話用ス ピー カ 2 2 , 着信用ス ピーカ 2 3 およびそれに関連する構成を省略して示している。 なお、 図中の C P U 1 0 と音源ハー ドウェア部 1 5及び R AM I 1 とは 図示されていないがバス 2 4 を介してデータの授受を行っている。
第 2図に示す本発明の楽音再生装置において、 R AM I 1 にはフ ア イ ル化された M I D Iや S M A Fの音楽コ ンテ ンツデータが格納されてい る。 この R A M 1 1 には、 ダウ ンロー ドした音楽コ ンテ ンツデータや外 部機器 2 0 から読み出 した音楽コ ンテ ンッデータが複数曲分記憶可能と されている。
こ こで、 S MA Fフ ォ ーマ ッ ト について説明する。 S MA Fフ ォ ーマ ッ ト のデータ構造を第 3 図および第 4 図に示す。 第 3 図 ( a ) に示すよ う に S M A Fデー タ は、 チ ャ ン ク (Chunk)構造と さ れてお り 、 コ ンテ ン ッ情報チ ヤ ン ク (Contents Info Chunk) 4 0 、 ス コ ア ト ラ ッ ク チ ャ ン ク (Score Track Chunk) 4 1 、 P C Mオ ー ディ オ ト ラ ッ ク チ ャ ン ク (PCM Audio Track Chunk) 4 2等のチャ ン ク から構成されている。 コ ンテ ン ツ 情報チャ ンク 4 0 は、 コ ンテ ンツ の情報や定義を含むチャ ンクであ り 、 ス コ ア ト ラ ッ ク チャ ン ク 4 1 は、 音源シーケ ンス ト ラ ッ ク を格納するチ ヤ ン ク であ り 、 P CMオーディ オ ト ラ ッ クチ ャ ン ク 4 2は、 A D P CM や M P 3 (MPEG audio layer 3)、 TwinVQ等の圧縮された P CM系のォー ディ ォ発音をイ ベン ト形式で格納するチャ ンクである。
ス コ ア ト ラ ッ ク チャ ンク 4 1 のデー タ構造を第 3 図 ( b ) に示す。 こ の図に示すよ う に、 ス コア ト ラ ッ クチ ャ ンク 4 1 は、 フ ォ ーマ ッ ト タイ プ(Format Type), シーケ ンス タ イ プ(Sequence Type)等のデー タ と、 セ ッ ト ア ッ プデー タ チ ャ ンク(Setup Data Chunk) 4 3 、 シーケ ンス デー タ チ ヤ ンク(Sequence Data Chunk) 4 4等のチャ ンクから構成されてレ、る。 フ ォ ーマ ツ ト タ イ プデー タ は、 このチャ ンクの実フ ォ ーマ ツ ト を定義する ステータスであ り 、 例えばハンディ フ ォ ン ' ス タ ンダー ド等と定義する こ とができ る。 シーケンス タイ プデータは、 2種類のシーケ ンスデータ のいずれかのタ イ プを示してお り 、 タ イ プにはス ト リ ームシーケンス タ イ ブとサブシーケンス タイ プとがある。 セッ ト ア ッ プデータチャ ンク 4 3 は、 音色デー タやエフヱク ト設定等を格納するチャ ンクであ り 、 シ一 ケンスデータチャ ンク 4 4 は、 実演奏データ と されるシーケンスデータ を格納するチャ ン クである。
次に、 シーケンスデータチャ ンク 4 4 に格納される シーケンスデータ のデータ構造を第 4 図に示す。 この図に示すよ う に、 シーケ ンスデータ は、 1 ノ イ ト のデュ レーシ ヨ ン(Duration)デ一 夕 と、 2 ノ イ ト あるいは 3 ノ イ ト と される イ ベ ン ト (Event)デー タ とが交互に配列されて構成さ れている。 この場合、 イベン ト データの前には必ずデュ レーシ ヨ ンデー 夕が存在する も のと されている。 デュ レーシ ヨ ンデータ は、 その前に配 置されたィベン ト とその後に配置されたィベン ト との時間間隔を表す時 間情報である。 また、 イベン ト には、 発音を制御する ノ ー ト メ ッ セージ (Note Message)、 ボリ ュームやモジュ レーシ ョ ン等を コ ン ト ロールする コ ン ト ロールメ ッ セージ(Control Message) ^ メ ーカ独自の情報を送る こ とのでき るェクス クルーシブメ ッ セージ(Exclusive Message)等のィベン トがある。 さ ら に、 ノ ー ト メ ッ セージは、 図示する よ う に指定される発 音チャ ンネルを示すチ ャ ンネルナ ンノ (Channel Number)、 発音する音高 を示す ノ ー ト ナ ンノ (Note Number)、 発音期間 を 示すゲー ト タ イ ム (Gatetime)の各データから構成される。
第 4 図に示すデュ レーシ ョ ンデータ 1 〜デュ レーシ ョ ンデータ 3 とィ ベン ト データ 1 〜イベン ト データ 3 からなる シーケ ンスデータ を時間軸 上で示すと第 5 図に示すよ う に表される。 例えば、 イ ベン ト データ 1 〜 イ ベン ト データ 3 に示すイ ベン ト 1 , イベン ト 2 , イ ベン ト 3 をノ ー ト オンのノ 一 ト メ ッ セージとする と、 デュ レーシ ョ ンデータ 1 に示す時間 が経過した時点でイ ベン ト 1 によ る発音が開始される。 また、 イ ベン ト 1 によ る発音が開始されてからゲー ト タ イ ム 1 に示す時間が経過した時 点でイベン ト 1 によ る発音は停止される。 そ して、 デュ レーシ ヨ ンデー タ 1 に示す時間が経過した時点から、 さ ら にデュ レーシ ョ ンデ一タ 2 に 示す時間が経過した時点でィベン ト 2 によ る発音が開始される。ついで、 ィベン ト 2 によ る発音が開始されてからゲー ト タ イ ム 2 に示す時間が経 過した時点でイベン ト 2 による発音は停止される。 さ らに、 デュ レーシ ョ ンデータ 2 に示す時間が経過した時点から、 デュ レーシ ヨ ンデー タ 3 に示す時間が経過した時点でイベン ト 3 によ る発音が開始される。 つい で、 ィベン ト 3 によ る発音が開始されてからゲー ト タ イ ム 3 に示す時間 が経過した時点でィベン ト 3 による発音は停止される。以下の説明では、 第 2 図に示す本発明の楽音再生装置が第 4 図に示すシーケ ンスデー タ を 再生する もの と して説明する。
第 2 図に示す音源ハー ドウヱァ部 1 5 は、 所定量のシーケンスデータ を一時記憶する F I F 0 3 0 を備え、 F I F 0 3 0 には C P U 1 0 の制 御の基で R A M 1 1 から読み出された所定量のシーケ ンスデー タ b が記 憶される。 この際に、 C P U 1 0 は F I F 0制御部 3 1 にライ ト信号 c を与え、 ラ イ ト信号 c を与えられた F I F O制御部 3 1 は、 F I F 0 3 0 の与え られたア ドレスの位置に R A M 1 1 から読み出されたシーケン スデー タ b を書き込むよ う に している。 そ して、 C P U 1 0 の指示で楽 音再生が開始された時には、 F I F O制御部 3 1 はリ ー ド信号 ア ドレ ス d を与え、 リ 一 ド信号ノア ド レス d を与え られた F I F O 3 0 は、 与 え られたァ ドレスの位置のシーケ ンスデータ e を読み出 してシーケンサ 部 3 2 に供給する。 これによ り 、 F I F 0 3 0 はシーケンスデータ を、 例えば 3 2 ヮー ド分格納でき る先入れ先出 し方式の記憶手段と され、 先 に書き込まれたシーケンスデータから順次読み出される よ う にされる。 また、 F I F 0 3 0 からシーケンスデータが読み出されて設定された所 定量の空きエリ アが F I F 0 3 0 に発生した際には、 F I F 0 3 0 は F I F Oデータ リ クエス ト信号を C P U 1 0 に送 り 、 続く シーケ ンスデ一 タ f を F I F O 3 0 に転送する よ う に要求している。 これによ り 、 小さ い容量の F I F 0 3 0 を用いても大き なデー タ量と される シーケンスデ ータの楽曲を再生するこ とができ るよ う になる。
音源ハー ドウヱァ部 1 5 におけるシーケ ンサ部 3 2 は、 供給されたシ 一ケ ンスデータ を音源部 3 3 に固有のフ ォ ーマ ツ ト の音源制御デー タ に 変換するデコーダ 3 2 a と、 音源部 3 3 の音源制御レジス タ に楽音再生 用 の音源制御デー タ を書 き 込む レ ジス タ ラ イ ト 制御部 3 2 e と 、 Duration 加算カ ウ ン タ 3 2 b、 絶対時間カ ウ ン タ 3 2 c および比較回路 3 2 dからなる楽音の再生時間を制御する時間管理部と を備えている。 そして、 F I F 0 3 0 から読み出されたシーケ ンスデータ e はデコーダ 3 2 a において音源制御データ に変換されるが、 その内のデュレーシ ョ ンデー タ f _ 1 は Duration加算カ ウ ンタ 3 2 b に供給され、 イベン ト デ ータ f 一 2 はレジス タ ライ ト制御部 3 2 e に供給される。 先頭のデュレ ーシ ョ ンデータ f - 1 は第 4 図に示されている よ う にデュ レーシ ョ ン情 報と なるから、 デコーダ 3 2 aからは最初にデュ レ一シ ヨ ンデータ f が 出力さ れる よ う にな り 、 このデュレーシ ヨ ンデー タ ί — 1 は Duratio 加算カ ウ ン タ 3 2 b に供給される。 Duration 加算カ ウ ンタ 3 2 b では、 供給されたィベン ト と ィベン ト の時間間隔を示すデュレーシ ョ ンデータ f — 1 が、 現在の Duration 加算カ ウ ンタ 3 2 b の値に加算される。 す なわち、 Duration 加算カ ウ ンタ 3 2 b においては、 相対時間値と される デュ レーシ ヨ ンデータが積算されて、 対応する イ ベン ト の生起時間が楽 音再生開始からの絶対時間で示される こ と になる。 また、 時間管理部を構成している絶対時間カ ウ ン タ 3 2 c は、 楽音の 再生が開始される と単位時間毎に力 ゥ ン ト ア ツ プして再生開始からの絶 対時間を示すカ ウ ン タ と される。 この場合、 絶対時間カ ウ ンタ 3 2 c は 単位時間間隔で発生する タイマ割込によ り カ ウ ン ト ア ッ プする よ う に し ても よい。 そして、 絶対時間カ ウ ンタ 3 2 c は、 楽音を再生開始してか らの絶対時間カ ウ ン タ 3 2 c から のカ ウ ン ト値 h を比較回路 3 2 d に供 給している。 比較回路 3 2 d には、 デュ レー シ ヨ ンデー タ を加算 した Duration 加算カ ウ ンタ 3 2 b からのカ ウ ン ト値 (デュ レーシ ヨ ン絶対時 間値) gが供給されてお り 、 比較回路 3 2 d においてカ ウ ン ト値 (デュ レーシ ヨ ン絶対時間値) g と カ ウ ン ト値 h とが比較される。 こ こで、、 絶 対時間カ ウ ンタ 3 2 c が単位時間毎にカ ウ ン ト ア ッ プして、 カ ウ ン ト値 hがカ ウ ン ト値 g以上となる と、 比較回路 3 2 d は有意の比較結果 i を F I F 0制御部 3 1 に印加する。 有意の比較結果 i は加算されたデュ レ —シ ョ ンデータが示す時刻に達したこ と を意味してお り 、 これを受けた F I F 0制御部 3 1 は、 F I F 0 3 0 から当該デュ レーシ ヨ ンデー タ に 対応する次のシ一ケンスデータ を読み出 してデコーダ 3 2 a に供給する。
この と き デコーダ 3 2 a に供給されたシーケンスデータは、 当該デュ レ一シ ヨ ンデー タのデュ レーシ ヨ ン情報に続 く イベン ト情報と さ ら に続 く デュ レー シ ヨ ン情報であ り 、 このシーケ ンスデータ はデコー ダ 3 2 a において音源制御データ に変換される。 そ して、 デコーダ 3 2 a から出 力される音源制御データ中のイベン ト データ f — 2 はレジス タ ラ イ ト制 御部 3 2 e に供給され、 前記出力される音源制御データ中のデュレーシ ヨ ンデー タ ί一 1 は Duration 加算カ ウ ン タ 3 2 b のカ ウ ン ト値に加算 される。 レジス タ ライ ト制御部 3 2 e では、 イベン ト デ^"タ を音源部 3 3 に内蔵されている音源制御レジス タ に書き込む制御を行っている。 具 体的には、 このイ ベン ト デー タ は中の音源パラ メ ー タが、 ラ イ ト デー タ j と して音源制御レジスタのィベン ト データのァ ドレス情報で示される ア ドレス位置のレジス タ に書き込まれる。 音源部 3 3 の音源制御レジス タ にライ ト データ j が書き込まれる と、 音源部 3 3 は書き込まれた音源 制御レジス タのライ ト データ j に基づいて、 楽音再生データ k をス ピー 力 3 4 に供給する。 これによ り 、 デュ レーシ ヨ ンデータが示す時間が経 過した際に、 そのデュ レーシ ョ ンデー タに対応するィベン トデー タ に基 づく 楽音が再生されてス ピー力 3 4 から放音される よ う になる。
そ して、絶対時間カ ウ ンタ 3 2 c が単位時間毎にカ ウ ン ト ア ッ プして、 絶対時間カ ウ ン ト値 hが再度力ゥ ン ト値 g以上と なる と、 さ ら に加算さ れたデュ レーシ ヨ ンデータが示す時刻に達したこ と になる。 そこで、 比 較回路 3 2 d は有意の比較結果 i を F I F 0制御部 3 1 に印加する。 有 意の比較結果 i を受けた F I F 0制御部 3 1 は、 F I F 0 3 0 から次の シーケンスデータ を読み出 してデコーダ 3 2 a に供給する。 供給された シーケンスデータは、 前記デュ レーシ ョ ンデータのデュ レーシ ョ ン情報 に続く イベン ト情報と さ らに続く デュ レーシ ヨ ン情報であ り 、 デコーダ
3 2 a は供給されたシーケンスデータ を音源制御データ に変換して、 デ コーダ 3 2 a から出力される音源制御データ 中のイベン ト データ f 一 2 はレジス タ ライ ト制御部 3 2 e に供給され、 出力される次のデュ レーシ ヨ ンデー タ f — 1 は Duration 加算カ ウ ンタ 3 2 b において、 そのカ ウ ン ト値に加算される。 また、 レジス タ ライ ト制御部 3 2 e に供給された イベン ト データ における音源ノ、。ラメ ータがラ イ ト データ j と して、 音源 制御レジス タのィベン ト データのァ ドレス情報で示されるァ ドレス位置 のレジス タ に書き込まれる。 音源部 3 3 の音源制御レジス タ にラ イ ト デ 一 夕 j が書き込まれる と、 音源部 3 3 は書き込まれた音源制御レジス タ のラ イ ト データ j に基づいて、 楽音再生データ kがス ピー力 3 4 に供給 される。 これによ り 、 デュ レーシ ョ.ンデータが示す時間が経過した際に、 その デュ レ一シ ョ ンデータ に対応する ィベン トデータ に基づく 楽音が再生さ れてス ピーカ 3 4から放音される よ う になる。
上記した処理は当該シーケ ンスデータの処理が終了する まで繰り 返し 行われる。 すなわち、 デュ レーシ ョ ンデータで示す時間が経過する毎に、 次のイベン トデータが F I F 0 3 0 から読み出されて、 読み出されたィ ベン ト データ に基づく 楽音が再生される と共に、 次のィベン ト デー タ に 基づ く 楽音を発音させる タ イ ミ ン グを示すデュ レー シ ヨ ンデー タ が Duration 加算カ ウ ンタ 3 2 b のカ ウ ン タ値に加算されて、 楽音がデュ レ ーシ ヨ ンデータで示される時刻に達する タ イ ミ ング毎に順次再生されて レ、 く よ う になる。
このよ う な処理のタ イ ミ ングの具体例を、 第 6 図に示すシーケンスデ 一タカ?F I F 0 3 0から読み出される ものと して、 第 7 図ない し図 9 を 参照しながら説明する。
第 6 図に示すシーケンスデータ において、 最初のイベン ト データ はデ ユ レー シ ヨ ン情報が 1 単位時間を示す 「 0 1 」 と され、 デコーダ 3 2 a がら出力 されたデュ レーシ ヨ ンデー タ 「 0 1 」 が Duration 加算カ ウ ン タ 3 2 b のカ ウ ン ト値に加算されて、 そのカ ウ ン ト値は 「 1 」 と なる。 ここで、 1単位時間経過して絶対時間カ ウ ン タ 3 2 じ が 「 1」 だけカ ウ ン ト ア ッ プし、 カ ウ ン ト値が 「 1」 となる と、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値と絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値とが等し く な り 、 デュ レーシ ヨ ンデータが示す時刻に達したこ と になる。 そこで、 比 較回路 3 2 dから有意の比較結果 i が F I F 0制御部 3 1 に出力され、 F I F O制御部 3 1 の制御によ り F I F O 3 0 から 「音色設定 1 」 のィ ベン ト情報が読み出される と共に、 次のデュ レーシ ヨ ン情報 「 0 0」 が 読み出される。 読み出されたチャ ンネル 1 に音色を設定するィベン ト情 報 「音色設定 1 」 は、 デコーダ 3 2 a において音色パラメ ータ と対応す るア ドレスのイベン ト データ に変換されてレジス タ ラ イ ト制御部 3 2 e に供給される。 そして、 レジスタ ライ ト制御部 3 2 e によ り 、 音源部 3 3 におけるィベン ト データのァ ドレスで示される音源制御レジス タ位置 に、 チャ ンネル 1 の音色を設定する音色パラメ ー タがラ イ ト データ j と して書き込まれる。 これによ り 、 音源部 3 3 で再生されるチャ ンネル 1 の音色が設定される よ う になる。
また、 F I F 0 3 0 から読み出されたデュ レーシ ョ ン惰報は 「 0 0」 であ り 、 このデュ レーシ ヨ ンデータ を加算した Duration 加算カ ウ ンタ 3 2 b はカ ウ ン ト ア ッ プされず 「 1」 のま ま となる。 この結果、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値と絶対時間カ ウ ンタ 3 2 c のカ ウ ン ト 値と は依然と して等し く 、 比較回路 3 2 dから有意の比較結果 i が依然 と して出力されるよ う になる。 従って、 F I F O制御部 3 1 は F I F O 3 0 から次の 「音色設定 2」 のイベン ト情報を読み出すと共に、 次のデ ユ レーシ ヨ ン情報 「 0 0」 を読み出す制御を行う 。 読み出されたチャ ン ネル 2 に音色を設定するイベン ト情報 「音色設定 2」 は、 デコーダ 3 2 a において音色パラメ ータ と対応する ァ ドレスのィベン トデータ に変換 されてレジス タ ライ ト制御部 3 2 e に供給される。 そ して、 レジス タ ラ ィ ト制御部 3 2 e によ り 、 音源部 3 3 におけるイベン ト データのァ ドレ スで示される音源制御レジス タ位置に、 チャ ンネル 2 の音色を設定する 音色パラ メ ータがライ ト データ j と して書き込まれる。 これによ り 、 音 源部 3 3 で再生されるチャ ンネル 2 の音色が設定される よ う になる。 こ のよ う な処理は、 F I F 0制御部 3 1 の制御によ り F I F 0 3 0 から読 み出されるデュ レーシ ヨ ン情報が 「 0 0」 の場合は連続して行われ、 第 6 図に(1 )で示すチャ ンネル 1 ない しチャ ンネル Nの音色設定処理が連 続して行われる よ う になる。 すなわち、 チャ ンネル 1 ないしチャ ンネル Nの音色設定処理は、 第 7 図に示すよ う に絶対時間 「 1 」 のタ イ ミ ング から連続して処理される よ う になる。
そ して、 チャ ンネル Nの音色設定のィ ベン ト情報が読み出される際に は、 デュ レーシ ヨ ン情報 「 0 1」 が F I F 0 3 0 から読み出されてデコ ーダ 3 2 a に供給される よ う になる。 そ して、 デコーダ 3 2 a から出力 されたデュ レーシ ヨ ンデータ 「 0 1 」 は、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値に加算され、 Duration 加算カ ウ ンタ 3 2 b は 1単位時間に 相当する 「 1」 だけカ ウ ン ト ア ッ プされてカ ウ ン ト値は 「 2」 とな り 、 比較結果 i 出力は停止される。 こ こで待機されて 1 単位時間が経過する と、 絶対時間カ ウ ン タ 3 2 c が 「 1」 だけカ ウ ン ト ア ッ プされて 「 2 」 と な り 、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値と絶対時間カ ウ ンタ
3 2 c のカ ウ ン ト値とが再度等し く なつて、 比較回路 3 2 dから有意の 比較結果 i が再び出力される よ う になる。 これによ り 、 F I F O制御部
3 1 の制御に よ り F I F 0 3 0 から 「Volume 設定」 のィベン ト情報が 読み出される と共に、 次のデュ レーショ ン情報 「 0 1 」 が読み出される。 読み出されたボリ ューム設定のイ ベン ト情報は、 デコーダ 3 2 a におい てボリ ュームノ、'ラメ ータ と対応するァ ドレスのィベン ト データ に変換さ れてレジス タ ラ イ ト制御部 3 2 e に供給される。 そ して、 レジス タ ライ ト制御部 3 2 e によ り 、 音源部 3 3 における イベン ト データのア ドレス で示される音源制御レジス タ位置に、 ポリ ユ ーム値を設定するボリ ユ ー ム ノ、。ラメ —タがライ ト データ j と して書き込まれる。 これによ り 、 音源 部 3 3 で再生される楽音の音量が設定された音量になる。 すなわち、 第 6 図に(2)で示すボリ ュ一ム設定処理は、 第 7 図に示すよ う に絶対時間 「 2」 のタイ ミ ングで処理される よ う になる。
そ して、 「 Volume 設定」 のイベン ト情報と同時に F I F 0 3 0 から 読み出されたデュ レーシ ヨ ン情報 「 0 1 J はデコーダ 3 2 a に供給され る。 そ して、 デコーダ 3 2 aから出力されたデュ レ一シ ヨ ンデータ 「 0 1 」 は、 Duration加算カ ウ ンタ 3 2 b のカ ウ ン ト値に加算され、 Duration 加算力 ゥ ン タ 3 2 b は 1単位時間に相当する 「 1 」 だけカ ウ ン ト ア ッ プ されて 「 3」 と な り 、 比較結果 i 出力は停止される。 こ こで待機されて 1 単位時間経過する と、 絶対時間カ ウ ン タ 3 2 c が 「 3」 にカ ウ ン ト ァ ッ プされ、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値と絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値とが再度等し く なつて、 比較回路 3 2 d から有意 の比較結果 i が再ぴ出力される よ う になる。 これによ り 、 F I F O制御 部 3 1 の制御に よ り F I F 0 3 0 から 「 Key ON (キーオ ン) 」 の ィ ベン ト情報が読み出される と共に、 次のデュ レ一シ ヨ ン情報 「 0 5」 が 読み出される。 読み出されたキーオンのイベン ト情報は、 デコーダ 3 2 a においてキーオンパラメ ータ と対応するァ ドレスのィベン ト デー タ に 変換されてレジス タ ラ イ ト制御部 3 2 e に供給される。 そして、 レジス 夕 ラ イ ト制御部 3 2 e によ り 、 音源部 3 3 におけるイベン ト データのァ ド レスで示される音源制御レジス タ位置に、 キ一オンパラメ ータからな る ラ イ ト データ j が書き込まれる。 これによ り 、 音源部 3 3 に よ り キー オ ンパラ メ ータで示される音高の楽音が、 先に設定された音色と音量で 再生される よ う になる。 すなわち、 第 6 図に(3)で示すキーオン処理は、 第 7 図に示すよ う に絶対時間 「 3 」 のタ イ ミ ングで処理される よ う にな る。
そ して、 「 Key ON (キーオン) 」 のイ ベン ト情報と 同時に F I F 0 3 0 から読み出されたデュ レーシ ヨ ン情報 「 0 5」 はデコーダ 3 2 a に 供給される。 そ して、 デコーダ 3 2 aから出力されたデュ レーシ ヨ ンデ 一 夕 「 0 5」 は、 Duration加算カ ウ ンタ 3 2 b のカ ウ ン ト値に加算され、 Duration 加算カ ウ ン タ 3 2 b の カ ウ ン ト 値は 5 単位時間 に相当する " 5 " だけカ ウ ン ト ア ッ プされて 「 8」 とな り 、 比較結果 i 出力は停止 される。 ここで待機されて 5単位時間経過する と、 絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値が 「 8」 にカ ウ ン ト ア ッ プされて、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値と絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値とが再 度等し く なって、 比較回路 3 2 dから有意の比較結果 i が出力される よ う になる。 これによ り 、 F I F 0制御部 3 1 の制御によ り F I F 0 3 0 から次の 「Key OFF (キーオフ) 」 のイベン ト情報が読み出される。 読 み出されたキ一オフのイベン ト情報は、 デコーダ 3 2 a においてキーォ フパラメ ータ と対応するァ ドレスのィベン ト データ に変換されてレジス タ ラ イ ト制御部 3 2 e に供給される。 そ して、 レジスタ ライ ト制御部 3 2 e によ り 、 音源部 3 3 における イベン ト データのア ドレスで示される 音源制御レジス タ位置に、 キーオフパラメ ータからなる ライ ト デー タ j が書き込まれる。 これによ り 、 音源部 3 3 によ り キーオフノ、。ラ メ 一 夕で 示される発音中の楽音が、 キーオフされて消音される よ う になる。 すな わち、 第 6 図に(4)で示すキ一オフ処理は、 第 7 図に示すよ う に絶対時 間 「 8」 のタ イ ミ ングで処理される よ う になる。
と こ ろで、 第 6 図に(1 )で示す音色設定処理はチ ャ ン ネル 1 ない しチ ヤ ンネル Nの Nチャ ンネル分と されている こ とから、 音源ハ ー ドウ ヱァ 部 1 5 における処理速度が遅い場合は、 (1 )で示す音色設定処理の全て が 1単位時間で終了せず、 次の単位時間までかかる こ とがある。 この場 合、 従来の楽音再生装置では第 1 4 図を参照して説明 したよ う に以降の 楽音の発音タ イ ミ ングが遅れて しま う場合が生じる。 しかしながら、 本 発明にかかる楽音再生装置においては、 以降の楽音の発音タ イ ミ ングを 元に戻すこ とができ る。 従って、 携帯電話機 1 において音源ハ ー ドウ ヱ ァ部 1 5 で再生される着信メ 口ディ と同期させて表示部 1 8 に画像を表 示させた り 、 携帯電話機 1 の筐体を振動させた り 入力部 1 7 における各 種ポタ ンを点滅させる よ う に していても、 着信メ ロディ の発音タイ ミ ン グの遅れを元に戻すこ とができ るので、 着信メ ロディ との同期を元に戻 すこ とができ る よ う になる。
すなわち、 第 8 図に示すよ う に(1)で示す処理の処理時間が絶対時間 「 2」 までかかった場合であって も、 絶対時間カ ウ ンタ 3 2 c が絶対時 間 「 2」 のタ イ ミ ングにおいてカ ウ ン ト値は 「 2」 にカ ウ ン ト ア ッ プさ れる。 する と、 Duration 加算カ ウ ンタ 3 2 b のカ ウ ン ト値と絶対時間力 ゥ ンタ 3 2 c のカ ウ ン ト値とが等し く な り 、 比較回路 3 2 dから有意の 比較結果 i が出力される よ う になる。 この場合、 F I F 0制御部 3 1 の 制御 に よ り F I F 0 3 0 か ら 次のィ ベ ン ト デー タ であ る (2)で示す 「 Volume 設定」 のイ ベン ト情報が読み出される と共に、 次のデュ レー シ ヨ ン情報 「 0 1 」 が読み出されるのであるが、 未だ(1 )で示す音色設 定処理のィベン トが F I F 0 3 0 から全て読み出されていない。 このた め、 (1 )で示す音色設定処理のイ ベン ト デー タが F I F 0 3 0 から全て 読み出されしだい、 (2)で示す 「 Volume 設定」 のイベン ト情報と、 次の デュ レーシ ヨ ン情報 「 0 1 」 が引 き続いて読み出される よ う になる。 従 つて、 第 8 図に示すよ う に(2)で示すボリ ューム設定処理は、 (1 )で示す 音色設定処理に引 き続いて行われる よ う にな り 、 (2)で示すポリ ユ ーム 設定処理は絶対時間 「 3」 の時刻に達する前に終了する よ う になる。 こ れに よ り 、 (3)で示すキーオ ン処理おょ ぴ(4)で示すキーオ フ処理の処理 タ イ ミ ングは本来のタ イ ミ ングにおいて行われる よ う にな り 、 楽音の発 音 (消音) タ イ ミ ングを元に戻すこ とができ る よ う になる。
次に、 本実施の形態にかかる楽音再生装置における音源ハ ー ドウ エア 部 1 5 で実行される再生処理のフロ一チヤ一ト を第 9 図に示す。
楽音再生装置が適用されている携帯電話機において、 着信を報知する メ ロディ を楽音再生装置が再生する よ う に設定されている場合は、 着信 があった際に楽音再生指示が行われて第 9 図に示す再生処理がス ター ト される。 そして、 ステ ッ プ S I にて Duration 加算カ ウ ンタ 3 2 b 、 絶 対時間カ ウ ンタ 3 2 c のカ ウ ン ト値がリ セッ 卜 される と共に音源部内の 音源制御レジス タがリ セ ッ ト あるいはデフ ォ ル ト値と される等の、 音源 ハ ー ドウ ヱァ部 1 5 を初期化する初期化処理が行われる。 次いで、 ステ ッ プ S 2 の制御レジス タ処理, ス テ ッ プ S 3 の発音処理, ステ ッ プ S 4 の絶対時間更新処理が並列して行われる。 このス テ ッ プ S 2 ない しステ ッ プ S 3 の処理は、 シーケンスデータの処理が終了、 あるいは停止指示 される まで繰り返し実行され、 これによ り シーケ ンスデータ に基づく再 生楽音が出力される よ う になる。
なお、 ステッ プ S 2 の制御レジスタ処理では、 F I F 0 3 0 からィべ ン ト情報を読み出 してィベン ト情報を変換したライ ト データ を音源制御 レ ジス タ に書き込む処理を、 絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値が Duration 加算カ ウ ン タ 3 2 b のカ ウ ン ト値以上となる毎に繰り返し実行 している。 また、 ステ ッ プ S 3 の発音処理では、 音源制御レジス タから 読み出 した音源パラメ ータ に基づく 楽音再生処理を、 音源パラ メ ー タが 音源制御レジス タ に書き込まれる毎に繰り返し実行している。 さ ら に、 ス テ ッ プ S 4 の絶対時間更新処理では、 絶対時間カ ウ ンタ 3 2 c を 1 ず つカ ウ ン ト ア ツ プする処理を、 一単位時間経過する毎に実行している。 次に、 絶対時間更新処理を示すフ ローチャー ト を第 1 0 図に示す。 楽音の再生開始が指示されて初期化処理が行われた後に、 第 1 0 図に 示す絶対時間更新処理が開始される と、 ステ ッ プ S 1 0 において一定時 間である一単位時間経過したか否かが判定される。 こ こで、 一定時間経 過していない場合はそのま ま再生処理のステ ッ プ S 1 の後にリ ターンさ れるが、 一定時間経過したと判定される と、 ステ ッ プ S 1 1 に進み初期 ィ匕処理によ り 「 0」 と された絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値がィ ン ク リ メ ン ト され、 そのカ ウ ン ト値が 「 1 」 にカ ウ ン ト ア ッ プする。 次 いで、 リ ターン して絶対時間更新処理が繰り返し実行され、 一定時間経 過する毎に絶対時間カ ウ ンタ 3 2 c がイ ンク リ メ ン ト されて、 絶対時間 カ ウ ン タ 3 2 c のカ ウ ン ト値がカ ウ ン ト ア ッ プしてい く よ う になる。 次に、 制御レジス タ ライ ト処理を示すフ ロ ーチャー ト を第 1 1 図に示 す。
楽音の再生開始が指示されて初期化処理が行われた後に、 制御レジス タ ライ ト処理が開始される と、 ステッ プ S 2 0 にて F I F 0 3 0 からシ 一ケ ンスデータが読み出される。 この場合、 読み出された先頭のシーケ ンスデー タはデュ レ一シ ヨ ン情報であ り 、 ステッ プ S 2 1 にてデコーダ 3 2 a から出力されるデュ レ一シ ヨ ンデータ を初期化処理によ り 「 0」 と された Duration 加算カ ウ ン タ 3 2 b に加算する。 次いで、 ステ ッ プ S 2 2 にて絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値と Duration 加算カ ウ ン タ 3 2 b のカ ウ ン ト値とが比較されるが、 絶対時間カ ウ ン タ 3 2 c の カ ウ ン ト値が Duration 加算カ ウ ン タ 3 2 b のカ ウ ン ト値以上と判定さ れない場合は、 待機される。 そして、 上述した絶対時間更新処理によ り 絶対時間カ ウ ン タ 3 2 c のカ ウ ン ト値がカ ウ ン ト ア ッ プして、 Duration 加算カ ウ ン タ 3 2 b のカ ウ ン ト値以上になったと判定される と、 ステ ツ プ S 2 3 に進み有意の比較結果 i が F I F 0制御部 3 1 に印加されて、 F I F 0 3 0 からデュ レーシ ョ ンデータに対応するィベン ト情報が読み 出される。 この読み出されたイベン ト情報はデコーダ 3 2 a において音 源部 3 3 特有のフ ォ ーマツ ト の制御デ >~タ に変換されて レジス タ ラ イ ト 制御部 3 2 e に供給される。 そして、 ステッ プ S 2 4 において、 制御デ —夕中のア ドレスで示される レジス タ位置に制御データ における音源パ ラメ ータが書き込まれる よ う になる。 ステッ プ S 2 4 の処理が終了する と再生処理のステッ プ S 1 の後に リ ターンされる。 これによ り 、 制御デ 一夕 に応じた楽音を再生する こ とができ る準備ができたこ と になる。 次に、 発音処理を示すフ ローチャー ト を第 1 2 図に示す。
楽音の再生開始が指示されて音源部 3 3 の音源制御レジスタの初期化 処理が行われた後に、 制御レジス タ ラ イ ト処理によ り音源制御 レジス タ に音源パラ メ ータが書き込まれる と、 楽音を再生する準傭が整ったこ と にな り発音処理が開始される。 そ して、 ステ ッ プ S 3 0 にて音源制御レ ジス タから音源パラメ ータが読み出され、 次いで、 ステ ッ プ S 3 1 にて 読み出された音源パラ メ ー タ に基づく データ処理が実行される。 こ の場 合、 音源パラ メ ータがキーオ ンパラ メ ー タ の場合は、 設定されている音 色や音量で該キーォンパラメ ータで示される音高の楽音を再生するデー 夕処理が行われる。 続いて、 ステ ッ プ S 3 2 にてデータ処理されたデ一 タが出力されるが、 音源パラメ ータがキーオンパラメ ータの場合は、 再 生すべき楽音の再生データ kが出力される よ う になる。 ステッ プ S 3 2 の処理が終了する と再生処理のステツ プ S 1 の後にリ ターンされる。 以上説明 した本実施の形態の楽音再生装置は、 携帯端末装置である上 記した携帯電話機に適用されたが、 本発明はこれに限られる も のではな く 、 楽音を出力可能な携帯情報機器や、 楽音を出力可能な携帯型パーソ ナルコ ン ピュータ等に適用する こ とができ る。 更に、 テキス トや画像コ ンテンッに同期して音楽コ ンテンツデータ を再生する よ う に しても よい, また、 以上説明した実施の形態では、 音源ハー ドウェア部 1 5 のデコ ーダ 3 2 a においてシーケンスデータ を音源部 3 3 に固有のフ ォ ーマ ツ トの制御データ に変換する よ う に したが、 C P U 1 0 に余裕がある と き に、 C P U 1 0 によ ってシーケ ンスデータ を音源部 3 3 に固有なフ ォ ー マツ トの制御データ に変換させて R A M 1 1 に記憶させておき、 再生時 に R A M 1 1 から制御データ を読み出 して音源ハー ドウヱァ部 1 5 に供 給する よ う に して も よ い。
これによ り 、 シーケンサ部 3 2全体の処理量が低減され、 シーケ ンサ 部 3 2 における楽音の再生に関わるデータの処理時間を短縮させる こ と ができ る ため、 該 C P U 1 0 によ る変換処理と、 上述した絶対時間力 ゥ ン タ 3 2 c のカ ウ ン ト値が D u r a t i o n加算カ ウ ン タ 3 2 b のカ ウ ン ト値が等し く なった場合における、 ィベン トデータの F I F 0 3 0 か らの レジス タ ラ イ ト制御部 3 2 e への供給処理及びレジス タ ラ イ ト制御 部 3 2 e によ る ライ ト デ一 タ j の音源制御レジス タへの書き込み処理と を組み合わせる こ と によ って、 楽音の発音 (消音) タ イ ミ ングに閧 して、 よ り遅れの生じに く い楽音再生装置とするこ とができ る。
また、 音源ハー ドウ ェア部 1 5 における音源部 3 3 は、 周波数変調方 式の音源、 すなわち F M音源によ り構成する こ とができ る。 F M音源は、 周波数変調によ って生じる高調波を楽音の合成に利用 したも のであ り 、 比較的簡単な回路で非調和音を含む高調波成分を持つ波形を発生する こ とができ る。 F M音源は、 自然楽器の合成音から電子音まで幅広い楽音 を発生する こ とができ る。 F M音源では、 正弦波を等価的に発振するォ ペレーダと称される発振器を用いてお り 、 例えば第 1 のオペレータ と第 2 のオペレータ と を縦続接続する こ と によ り F M音源を構成する こ とが でき る。 また、 オペレータ における 自 らの出力を フ ィ ー ドバッ ク して入 力する よ う に しても F M音源を構成する こ とができ る。
さ ら にまた、 音源ハ ー ドウ ヱァ部 1 5 における音源部 3 3 の音源方式 は、 F M音源方式に限る も のではな く 、 波形メ モ リ音源 ( P C M音源、 A D P C M音源) 方式、 物理モデル音源方式等とする こ とができ、 音源 の構成と しては D S P等を用いたハー ドウェア音源とするこ とができ る。 産業上の利用可能性
本発明は以上説明したよ う に、 時間カ ウ ン タ手段の力 ゥ ン ト値が加算 カ ウ ン タ手段のカ ウ ン ト値以上と なった際に、 対応する イベン ト情報か ら生成された制御デ一タ を音源手段に供給する よ う に したので、 楽音再 生の途中において制御データ を与える時刻が一時的に遅れて も、 その後 はデュ レーシ ヨ ン情報が示す時刻で制御デー タ を音源部に供給する こ と ができ る。 これによ り 、 音源部によ り 再生される楽音の発音タ イ ミ ング を元に戻すこ とができ る よ う になる。
従って、 本発明が適用された携帯電話機において着信メ 口ディ と 同期 させて画像を表示させた り 、 携帯電話機の筐体を振動させた り各種ボタ ンを点滅させる よ う に していても、 楽音の発音タ イ ミ ングの遅れを元に 戻すこ とができ るので、 楽音との同期を元に戻すこ とができ る よ う にな る。

Claims

請 求 の 範 囲
1 . イ ベン ト の内容を表すイベン ト情報と、 イ ベ ン ト が生起する時刻 を前ィベン ト と の時間間隔で表すデュ レーシ ョ ン情報とからなる演奏デ ータ に基づいて楽音再生を行う 楽音再生装置であって、
順次供給される前記演奏データ における前記デュ レーシ ョ ン情報を積 算して、 該デュ レーシ ョ ン情報に対応するイベン ト情報に基づく 楽音を 発生させる時刻を示す加算力ゥ ンタ手段と、
単位時間間隔でカ ウ ン ト ア ッ プする絶対時間を示す時間カ ウ ン タ手段 と、
前記時間カ ウ ン タ手段の力 ゥ ン ト値が前記加算力 ゥ ン タ手段のカ ウ ン ト値以上となつた際に、 前記演奏データにおける積算された前記デュ レ ーシ ヨ ン情報に対応する前記ィベン ト情報から制御データ を生成するデ 一タ生成手段と、
該制御デ一タ に基づいた楽音を再生する音源手段と
を備える こ と を特徴とする楽音再生装置。
2 . 一時記憶手段と、 楽音再生処理以外の処理をメ イ ン処理とする シ ステム制御手段と をさ らに備え、 楽音再生する時には、 前記システム制 御手段が、 前記一時記憶手段に所定量ずつの前記演奏データ を順次転送 し、 前記一時記憶手段から順次前記演奏デー タ を読み出すこ と を特徴と する請求項 1 記載の楽音再生装置。
3 . 請求項 2 に記載の楽音再生装置を備える携帯端末装置であつて、 前記シス テム制御手段は、 携帯端末機能処理をメ イ ン処理と して実行 する こ と を特徴とする携帯端末装置。
4 . 前記時間カ ウ ン タ手段のカ ウ ン ト値が前記加算カ ウ ン タ手段の力 ゥ ン ト値以上と なつた際に前記演奏データ を前記一時記憶手段から読み 出 して前記データ生成手段に転送する一時記憶手段制御手段と を更に備える こ と を特徴とする請求項 2 記載の楽音再生装置。
5 . イ ベン ト の内容を表すイ ベン ト情報と、 イ ベ ン ト が生起する時刻 を前イベン ト との時間間隔で表すデュ レーシ ョ ン情報とからなる演奏デ —夕 に基づいて楽音再生を行う 楽音再生方法であって、
順次供給される前記演奏データ における前記デュ レーシ ョ ン情報を積 算して、 該デュ レーシ ヨ ン情報に対応するィベン ト情報に基づく 楽音を 発生させる時刻を求め、
単位時間毎にカ ウ ン ト ア ッ プして絶対時間を求めるステッ プと、 前記求めた絶対時間が前記求めた楽音を発生させる時刻以降を示した と き に、 前記演奏デー タ における積算された前記デュ レ一シ ョ ン情報に 対応する前記ィベン ト情報から制御データ を生成するステッ プと、 音源 手段によ り該制御データ に基づいた楽音を再生するステ ッ プと
を備える こ と を特徴とする楽音再生方法。
PCT/JP2002/004951 2001-05-25 2002-05-22 Appareil de reproduction de musique et procede et terminal correspondants WO2002097787A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020037010438A KR100591378B1 (ko) 2001-05-25 2002-05-22 악음 재생 장치와 방법, 및 휴대 단말 장치
US10/469,724 US7102070B2 (en) 2001-05-25 2002-05-22 Musical tone reproducing apparatus and method and portable terminal apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001-156623 2001-05-25
JP2001156623A JP3862061B2 (ja) 2001-05-25 2001-05-25 楽音再生装置および楽音再生方法ならびに携帯端末装置

Publications (1)

Publication Number Publication Date
WO2002097787A1 true WO2002097787A1 (fr) 2002-12-05

Family

ID=19000614

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/004951 WO2002097787A1 (fr) 2001-05-25 2002-05-22 Appareil de reproduction de musique et procede et terminal correspondants

Country Status (6)

Country Link
US (1) US7102070B2 (ja)
JP (1) JP3862061B2 (ja)
KR (1) KR100591378B1 (ja)
CN (1) CN100550129C (ja)
TW (1) TW556149B (ja)
WO (1) WO2002097787A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1662102B (zh) * 2004-02-24 2010-06-02 雅马哈株式会社 事件数据再现装置和方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642039B2 (ja) * 2001-05-25 2005-04-27 ヤマハ株式会社 楽音再生装置および携帯端末装置
JP4702689B2 (ja) * 2003-12-26 2011-06-15 ヤマハ株式会社 音楽コンテンツ利用装置及びプログラム
US7265655B2 (en) * 2004-06-02 2007-09-04 Research In Motion Ltd. Handheld computing device with power-saving notification
US20060068843A1 (en) * 2004-09-30 2006-03-30 Macronix International Co., Ltd. Mobile audio platform architecture and method thereof
CN101151073B (zh) * 2005-02-03 2010-12-22 索尼株式会社 声音再现装置、声音再现方法和声音再现程序
JP2006251084A (ja) * 2005-03-08 2006-09-21 Oki Electric Ind Co Ltd Midi演奏方法
US20060293089A1 (en) * 2005-06-22 2006-12-28 Magix Ag System and method for automatic creation of digitally enhanced ringtones for cellphones
JP4876490B2 (ja) * 2005-09-01 2012-02-15 ヤマハ株式会社 音楽再生装置
US20080082624A1 (en) * 2006-09-28 2008-04-03 Phison Electronics Corp. Portable storage device with audio auto-playback function and operation procedure thereof
JP2008191473A (ja) * 2007-02-06 2008-08-21 Sanyo Electric Co Ltd 音データ処理装置
EP2362376A3 (en) 2010-02-26 2011-11-02 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for modifying an audio signal using envelope shaping
KR102201745B1 (ko) * 2014-05-20 2021-01-12 엘지전자 주식회사 터보 칠러 및 이를 포함하는 칠러 시스템
JP6435751B2 (ja) * 2014-09-29 2018-12-12 ヤマハ株式会社 演奏記録再生装置、プログラム
JP6743843B2 (ja) * 2018-03-30 2020-08-19 カシオ計算機株式会社 電子楽器、演奏情報記憶方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5357046A (en) * 1992-01-24 1994-10-18 Kawai Musical Inst. Mfg. Co., Ltd. Automatic performance apparatus and method
US6150598A (en) * 1997-09-30 2000-11-21 Yamaha Corporation Tone data making method and device and recording medium
JP2001051678A (ja) * 1999-08-05 2001-02-23 Yamaha Corp 楽曲再生装置および楽曲再生方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187155A (ja) 1996-12-20 1998-07-14 Yamaha Corp カラオケ装置
JP3409642B2 (ja) 1997-05-20 2003-05-26 ヤマハ株式会社 自動演奏装置、自動演奏データ処理方法及び電子的情報記憶媒体
JP2000056759A (ja) 1998-08-04 2000-02-25 Casio Comput Co Ltd シーケンスデータ処理装置、及びコンピュータ読み取り可能な記録媒体
JP2000187483A (ja) 1998-12-22 2000-07-04 Canon Inc 画像表示装置
TW495735B (en) 1999-07-28 2002-07-21 Yamaha Corp Audio controller and the portable terminal and system using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5357046A (en) * 1992-01-24 1994-10-18 Kawai Musical Inst. Mfg. Co., Ltd. Automatic performance apparatus and method
US6150598A (en) * 1997-09-30 2000-11-21 Yamaha Corporation Tone data making method and device and recording medium
JP2001051678A (ja) * 1999-08-05 2001-02-23 Yamaha Corp 楽曲再生装置および楽曲再生方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1662102B (zh) * 2004-02-24 2010-06-02 雅马哈株式会社 事件数据再现装置和方法

Also Published As

Publication number Publication date
JP3862061B2 (ja) 2006-12-27
US20040069120A1 (en) 2004-04-15
CN100550129C (zh) 2009-10-14
US7102070B2 (en) 2006-09-05
CN1543638A (zh) 2004-11-03
KR100591378B1 (ko) 2006-06-19
TW556149B (en) 2003-10-01
JP2002351466A (ja) 2002-12-06
KR20030091983A (ko) 2003-12-03

Similar Documents

Publication Publication Date Title
JP3874235B2 (ja) 楽曲再生装置および携帯端末装置
JP3279304B2 (ja) 楽曲再生装置および楽曲再生機能を備える携帯電話装置
WO2002097787A1 (fr) Appareil de reproduction de musique et procede et terminal correspondants
JP3675362B2 (ja) 楽音生成装置および携帯端末装置
KR100578588B1 (ko) 악곡 재생장치
JP2000224269A (ja) 電話機および電話システム
JP3722015B2 (ja) 楽音生成装置
JP2001112061A (ja) コンテンツデータ配布方法および電話端末装置
JP3575368B2 (ja) 携帯電話機
JP2002169564A (ja) 音源システム
JP2001356784A (ja) 端末装置
TW580818B (en) Phone termination device
TW594671B (en) Musical tone playing device and portable termnal device
JP3893894B2 (ja) 携帯端末装置
JP3982532B2 (ja) 楽音再生装置および携帯端末装置
JP2005107547A (ja) 楽音生成装置および携帯端末装置
JP2002055182A (ja) アラーム時計のアラーム設定方法とダウンロード機能付アラーム時計装置
JP2003018248A (ja) 携帯通信端末およびサーバ装置
JP2005229511A (ja) 楽音生成装置
JP2001177605A (ja) 携帯電話装置
JP2005108253A (ja) コンテンツデータ配布方法および楽曲再生装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AU BA BB BG BR BZ CA CN CO CR CU CZ DM DZ EE GD GE HR HU ID IL IN IS KR LC LK LR LT LV MA MG MK MN MX NO NZ PH PL RO SG SI SK TT UA US UZ VN YU ZA

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020037010438

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10469724

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 02807677X

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020037010438

Country of ref document: KR

122 Ep: pct application non-entry in european phase
WWG Wipo information: grant in national office

Ref document number: 1020037010438

Country of ref document: KR