WO2006043380A1 - 発音方法、音源回路、それを用いた電子回路および電子機器 - Google Patents

発音方法、音源回路、それを用いた電子回路および電子機器 Download PDF

Info

Publication number
WO2006043380A1
WO2006043380A1 PCT/JP2005/016906 JP2005016906W WO2006043380A1 WO 2006043380 A1 WO2006043380 A1 WO 2006043380A1 JP 2005016906 W JP2005016906 W JP 2005016906W WO 2006043380 A1 WO2006043380 A1 WO 2006043380A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound source
audio data
sound
control unit
information
Prior art date
Application number
PCT/JP2005/016906
Other languages
English (en)
French (fr)
Inventor
Shigehide Yano
Yoshihisa Tanaka
Original Assignee
Rohm Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co., Ltd filed Critical Rohm Co., Ltd
Priority to US11/666,147 priority Critical patent/US20080123867A1/en
Priority to JP2006542280A priority patent/JPWO2006043380A1/ja
Priority to EP05783672A priority patent/EP1814357A1/en
Publication of WO2006043380A1 publication Critical patent/WO2006043380A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/301Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/021Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/025Computing or signal processing architecture features
    • G10H2230/031Use of cache memory for electrophonic musical instrument processes, e.g. for improving processing capabilities or solving interfacing problems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Definitions

  • the present invention relates to a sound generation method for generating audio data subjected to effect processing, a sound source circuit, an electronic circuit using the sound source circuit, and an electronic apparatus.
  • Patent Document 1 uses a pair of speakers and two signal channels to synthesize a sound field. The technology is disclosed. In that sound field, the user can perceive the sound source to appear somewhere on the sphere surrounding the user's head located at the center of the sphere.
  • Such acoustic processing is performed by, for example, sound that diverges spatial position force close to the user's head, or sound that moves toward or away from the user with time, or at the ear of the user. It is said to be effective for whispering human voices.
  • Patent Document 1 Special Table 2001-511995
  • Some portable terminals such as mobile phones are equipped with a sound source circuit composed of a sound source LSI (Large Scale Integration) that generates a melody for notifying an incoming call.
  • a sound source circuit composed of a sound source LSI (Large Scale Integration) that generates a melody for notifying an incoming call.
  • MIDI registered trademark
  • the sound generation timing is set by a time management command in the data. Therefore, how long it will sound after the data has been written to the memory in the tone generator circuit, software such as a sequencer executed on the tone generator circuit. Wear is difficult to recognize.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a sound generation method capable of suppressing the synchronization between effect processing such as position adjustment of a virtual sound source in a sound field and sound generation. Another object of the present invention is to provide a sound source circuit, an electronic circuit using the same, and an electronic device.
  • a sound generation method includes a step of decoding a sound generation timing of audio data, a step of adding information indicating the sound generation timing to the audio data, and referring to the information Corresponding to the sounding timing acquired in this manner, and effect processing on the audio data to be sounded.
  • Another embodiment of the present invention is also a pronunciation method.
  • This method includes a step of decoding a change of a virtual sound source in the reproduction sound field by audio data, a step of adding information indicating the change of the virtual sound source to the audio data, and a change of the virtual sound source obtained by referring to the information.
  • the “change in virtual sound source” may include a change due to virtual sound source switching or virtual sound source movement.
  • the synchronization deviation between the position adjustment and the sound generation is suppressed. It can be done.
  • Yet another embodiment of the present invention is a sound source circuit.
  • This tone generator circuit is linked with a storage unit for storing information indicating sound generation timing and audio data, and an effect processing unit for effect processing on the audio data stored in the storage unit, and performs control for sounding the processed audio data.
  • Yet another embodiment of the present invention is also a sound source circuit.
  • This sound source circuit stores information indicating changes in the virtual sound source in the reproduced sound field and audio data, and position adjustment for adjusting the position of the virtual sound source in the reproduced sound field in the audio data stored in the storage unit.
  • a control unit that causes the position-adjusted audio data to sound in cooperation with the unit. When the control unit detects the information, the control unit notifies the position adjustment unit that the information has been detected.
  • the control unit may send an interrupt signal corresponding to the information to the position adjustment unit via a dedicated signal line. According to this aspect, the synchronization deviation between the position adjustment and the sound generation can be suppressed without affecting the input / output of the audio data between the control unit and the position adjustment unit.
  • the control unit detects at least one piece of information indicating a change in each virtual sound source, and uses a dedicated unit corresponding to each virtual sound source.
  • An interrupt signal corresponding to the information may be sent to the position adjustment unit via the signal line.
  • the control unit may embed the information in an empty part in the audio data sent to the position adjustment unit. If the “audio data” includes multiple channels, it may be embedded in the empty channel. According to this aspect, even if a dedicated signal line is not provided, a synchronization shift between the position adjustment and the sound generation can be suppressed.
  • Yet another embodiment of the present invention is an electronic circuit.
  • This electronic circuit includes the above-described tone generator circuit and an effect processing unit that performs an effect process on audio data. According to this aspect, it is possible to realize an electronic circuit that can suppress a synchronization shift between effect processing and sound generation.
  • Yet another embodiment of the present invention is an electronic circuit.
  • This electronic circuit is the above-described tone generator circuit.
  • a position adjusting unit that adjusts the position of the virtual sound source in the reproduced sound field in the audio data. According to this aspect, it is possible to realize an electronic circuit that can suppress the synchronization shift between the position adjustment process of the virtual sound source in the reproduced sound field and the sound generation.
  • Yet another embodiment of the present invention is an electronic device.
  • This electronic apparatus includes a speaker and the electronic circuit of the above-described mode for generating a sound by using a speaker. According to this aspect, it is possible to realize an electronic device that can suppress a synchronization shift between the effect processing and the sound generation.
  • FIG. 1 is a diagram showing a schematic configuration of a tone generator circuit according to Embodiment 1.
  • FIG. 2 is a diagram showing control timing related to a sound source circuit.
  • (A) shows the conventional control timing, and (b) shows the control timing according to the first embodiment.
  • FIG. 3 is a diagram showing a configuration of an electronic device equipped with a sound source LSI according to Embodiment 1 and an electronic circuit including a 3D positioning unit.
  • FIG. 4 is a diagram for explaining stereo expansion processing.
  • (A) shows a sound that has not been subjected to the conventional stereo expansion process
  • (b) shows a sound that has been subjected to the stereo expansion process according to the first embodiment.
  • FIG. 5 is a flowchart showing processing procedures of the tone generator circuit and the 3D positioning unit according to the first embodiment.
  • FIG. 6 is a diagram showing an example of waveform transition of each signal shown in FIG.
  • FIG. 7 is a diagram showing a schematic configuration of a sound source circuit according to Embodiment 2.
  • FIG. 8 is a diagram showing a configuration of an electronic device equipped with an electronic circuit including a sound source LSI and a 3D positioning unit according to Embodiment 2.
  • FIG. 9 is a diagram showing an example of waveform transition of each signal shown in FIG.
  • FIG. 10 is a timing chart showing an example of signals transmitted to the 3D positioning unit via the audio IZF as well as the control unit power.
  • FIG. 11 is a diagram illustrating an example of waveform transition of each signal according to the third embodiment.
  • FIG. 1 is a diagram showing a schematic configuration of a tone generator circuit 100 according to the first embodiment.
  • a 3D positioning unit that adjusts the perceived position of the virtual sound source in the three-dimensional sound field.
  • the 3D positioning unit 210 performs an effect process for applying a special effect to each audio data so that the sound of an airplane can be heard from above and the sound of a car can be heard from near the ground.
  • the CPU such as an application processor provided outside the tone generator circuit 100 sends audio data to the FIFO (First-In First-Out) memory in the tone generator circuit 100 via a CPU interface (hereinafter referred to as CPUIZF) 10.
  • the audio data can be described in MIDI format or ADPCM (Adaptive Differential Pulse Code Modulation) format.
  • MIDI data is written to the FIFO memory 20 as an example.
  • MIDI data records music information as a combination of timbre, length, strength, special effects, etc.
  • the CPU decodes the time management command in the audio data, and when the audio data is reproduced, the timing for switching the perceived position of the virtual sound source in the three-dimensional space in the generated sound field Is identified. Then, in order to indicate the switching timing, data called Callback message is known in the audio data. Insert into a predetermined position, such as the part of the sense position switching, and write to the FIFO memory 20
  • the FIFO memory 20 is a memory that outputs data that has been input in advance in the order of input.
  • the tone generator sequencer 34 is software for processing and playing back MIDI data, and may be executed by the CPU.
  • the tone generator sequencer 34 reproduces the MIDI data in the FIFO memory 20 and produces a sound such as a speaker (not shown).
  • the sound source sequencer 34 generates an interrupt signal MIDIINT when it detects a Callback message when processing data in the FIFO memory 20.
  • This interrupt signal MIDIINT is output to the application processor 200 of FIG. By using the interrupt signal MIDIINT, the sound generation timing by the sound sequencer 34 and the 3D positioning processing by the 3D positioning unit 210 are synchronized.
  • FIG. 2 is a diagram showing the control timing related to the tone generator circuit 100.
  • the audio data representing the sound of the aircraft and the audio data representing the sound of the car are first written into the FIFO memory 20.
  • FIG. 2 (a) is an example in the case where the technique according to the first embodiment is not used.
  • the tone generator sequencer 34 sounds the audio data in the FIFO memory 20 according to the order.
  • the period from when audio data is written in FIFO memory until the audio data is played varies depending on the amount of time management commands such as Tempo in the MIDI data. It also changes depending on the tune.
  • the sound source sequencer 34 cannot predict the time period tl from when audio data representing car sound is stored in the FIFO memory 20 until the audio data is generated. Therefore, the sound source sequencer 34 cannot predict the timing of switching to the sound of an airplane sound vehicle.
  • position A indicates a position corresponding to the sound of the airplane, for example, a position above the sound field centered on the user
  • position B indicates a position corresponding to the sound of the car, for example, the user.
  • the position below the sound field For example, as shown in Fig. 2 (a), when the timing of switching between position A and position B is matched to the timing of switching to audio data representing the sound of a car in the FIFO memory 20 sound source There is a period t2 that is out of sync with the sounding switching timing by the sequencer 34. During this period t2, the sound of the airplane can be heard from the position of the car traveling on the ground, and is not synchronized with the image imagined by the user.
  • FIG. 2B is an example in the case of using the technique according to the first embodiment.
  • the tone generator sequencer 34 detects a Callback message in synchronization with the sounding timing of MIDI data, it generates an interrupt signal MIDIINT to the application processor 200 that executes 3D positioning processing.
  • the 3D positioning unit 210 can synchronize with the sound generation timing of the tone generator sequencer 34 by using this interrupt signal MIDIINT. Therefore, in FIG. 2 (b), the 3D positioning unit 210 can switch from position A to position B in synchronization with the timing when the sound source sequencer 34 switches the sound output of the airplane to the sound of the car.
  • FIG. 3 is a diagram showing a configuration of an electronic device 400 equipped with an electronic circuit 300 including a tone generator LSI 110 and an application processor 200.
  • the sound source LSI 110 is realized by an integrated circuit in which the above-described sound source circuit 100 is provided in one chip.
  • the application processor 200 provided outside the tone generator LSI 110 writes audio data into the FIFO memory 20 in the tone generator LSI 110 via the CPU I / F 10.
  • the application processor 200 includes a 3D positioning unit 210 and firmware 220.
  • the 3D positioning unit 210 decodes the time management command in the audio data and reproduces the audio data, the timing for switching the perceived position of the virtual sound source in the three-dimensional space by the audio data Is identified. Then, in order to indicate the switching timing of the virtual sound source, data called a Callback message is inserted at a predetermined position such as a switching portion of the audio data representing the sound of the airplane and the audio data representing the sound of the car in the audio data. Then, write to the FIFO memory 20.
  • the control unit 30 performs various effect processing on the audio data read from the FIFO memory 20 and causes the read audio data to sound.
  • the control unit 30 performs sequence processing on the audio data and converts it into digital data as an audio interface.
  • Application hereinafter referred to as audio IZF 40 to the application processor 200.
  • the 3D positioning unit 210 is a block realized mainly by the cooperation of the application processor 200 and the 3D positioning firmware 220.
  • the control unit 30 or 3D positioning unit 210 is integrated into one chip! /, Or even! /.
  • the 3D positioning unit 210 performs 3D positioning processing on the audio data transferred from the control unit 30 via the audio IZF 40 and returns the audio data to the control unit 30.
  • the signal BCLK is a signal for outputting a clock for synchronizing in bit units to the application processor 200.
  • the signal LRCLK is a signal that gives the timing of one-time data transfer, and can indicate which data is on the left or right channel.
  • the signal SDO is a signal for the control unit 30 to output audio data serially to the application processor 200.
  • the signal SDI is a signal for serially outputting audio data from the application processor 200 to the control unit 30. Standards such as I2S can be used for signals exchanged with signal BCLK, signal RCLK, signal SDO, and signal SDI.
  • the control unit 30 includes a stereo extension unit 32.
  • the stereo extension unit 32 adds the opposite phase of the signal of the left channel to the signal of the right channel and vice versa, thereby creating a sound field that is wide for the user.
  • the user perceives the sound output from the right speech force mainly with the right ear.
  • the reverse is also true. Then, the sound output from the right channel and the sound output from the left channel can be separated, and the sound field can be expanded.
  • the stereo extension unit 32 performs the above-described stereo extension process on the audio data 3D-positioned by the 3D positioning unit 210.
  • a pair of speakers 62 and 64 and headphones (not shown) are provided as a user interface, this is applied to the speakers 62 and 64 and headphones.
  • the control unit 30 detects the Callback message in the data read from the FIFO memory 20, the control unit 30 outputs an interrupt signal MIDIINT to the application processor 200.
  • the interrupt signal MIDIINT is output from the control unit 30 to the application processor 200.
  • the interrupt signal MIDIINT is a signal for transmitting to the application processor 200 a control signal indicating the switching timing of the perceived position of the virtual sound source.
  • Two digital analog converters ⁇ (hereinafter referred to as DAC) 52 and 54 convert the audio digital signals of the left and right channels output from the control unit 30 into analog signals, respectively, and convert the left and right speakers. Output to 62 and 64. If headphones (not shown) are connected to a device such as a mobile terminal, they are also output to the headphones. The pair of speakers 62 and 64 output audio signals of the left and right channels.
  • FIG. 4 is a diagram for explaining the stereo expansion process.
  • FIG. 4 (a) is an example in the case where the technique according to the first embodiment is not used.
  • a portable electronic device such as a mobile phone or a portable game machine
  • Sensed and difficult to produce a stereo sense is an example in the case where the technique according to the first embodiment is not used.
  • FIG. 4 (b) is an example in the case of using the technique according to the first embodiment.
  • FIG. 5 is a flowchart showing processing procedures of the tone generator circuit 100 and the application processor 200 according to the first embodiment.
  • the sound source circuit 100 in FIG. 1 will be described in the form of cooperation with the application processor 200 in FIG.
  • the flow on the left side of this flowchart shows the operation timing of the application processor 200, and the flow on the right side shows the operation timing of the tone generator circuit 100 as a hardware resource.
  • the application processor 200 sets a Callback message in the MIDI data (S10).
  • the post-processing selection value is also set as the post-processing selection message following the Callback message.
  • the post-processing selection value is a value indicating how MIDI data is output from the tone generator circuit 100.
  • the Callback message and the post-processing detection value are continuously set in the FIFO memory 20 in the tone generator circuit 100 (S30).
  • the sound source sequencer 34 reads the data in the FIFO memory 20 and detects a Callback message (S32). Then, the interrupt signal MIDIINT output to the application processor 200 is set to a low level.
  • the sound source sequencer 34 detects the post-processing selection message after detecting the Callback message (S34).
  • the post-processing selection message instructs the application processor 200 to output MIDI data to be subjected to the 3D positioning process via the serial IZF between the tone generator sequencer 34 and the application processor 200.
  • the application processor 200 acquires a Callback status by detecting a Callback message indicating the timing of the 3D positioning process from the interrupt signal MIDIINT (S12).
  • the 3D positioning unit 210 executes an interrupt routine when the interrupt signal MIDIINT becomes low level.
  • the interrupt routine sets a mask so that MIDI data is not output from the tone generator circuit 100 side to the application processor 200 side (S14).
  • the 3D positioning unit 210 is set to clear the interrupt from the sound source circuit 100 (S16), and starts the 3D positioning process (S18).
  • the sound source sequencer 34 clears the Callback message by the interrupt signal MIDIINT in response to the interrupt clear setting from the application processor 200 (S 36).
  • the 3D positioning section 210 cancels the mask applied in the interrupt routine (S20).
  • the tone generator sequencer 34 can send MIDI data to the application processor 200 via the serial IZF, and starts sending MIDI data (S38).
  • the period from the detection of the previous post-processing selection message to the sending of this MIDI data can be set to about 4 ms.
  • the 3D positioning unit 210 performs a 3D positioning process on the MIDI data transmitted via the serial IZF (S22).
  • the tone generator sequencer 34 can sound the MIDI data that has been effect-processed in this way.
  • FIG. 6 is a diagram showing an example of waveform transitions of the signal LRCLK, the signal SDO, and the interrupt signal MIDIINT shown in FIG.
  • the signal LRCLK is a periodic repetitive waveform
  • the unit period of the repetitive waveform is the unit period for data transfer.
  • a signal SDO indicates audio data input to the application processor 200.
  • the audio data representing the sound of an airplane is input twice, and then the audio data representing the sound of a car is input twice.
  • the interrupt signal MIDIINT is an interrupt signal to the application processor 200.
  • the synchronization timing between the sound generation timing and the 3D positioning process is reduced. It is possible to suppress the situation where the sound image is localized at an unexpected position.
  • FIG. 7 is a diagram showing a schematic configuration of the tone generator circuit 100 according to the second embodiment.
  • the second embodiment provides a technique for synchronizing the sound generation timing of the sound source circuit 100 with the position adjustment timing by the 3D positioning unit 210 that adjusts the perceived positions of a plurality of virtual sound sources in a three-dimensional sound field.
  • the 3D positioning unit 210 performs an effect process on audio data representing a plurality of virtual sound sources so that each virtual sound source can be heard with a predetermined place force in the sound field in a sound in which sounds from the plurality of virtual sound sources are mixed.
  • the configuration of the tone generator circuit 100 according to the second embodiment is basically the same as the configuration according to the first embodiment. Hereinafter, differences will be described.
  • the CPU provided outside writes the audio data to the FIFO memory 20 in the tone generator circuit 100 via the CPU I / F 10.
  • the CPU decodes the time management command in the audio data and The switching timing of the perceived position in the three-dimensional space of each virtual sound source in the audio data playback sound field is specified. Then, in order to indicate the switching timing of the perceived position of these virtual sound sources in the three-dimensional space, each Callback message BOX such as Callback message 1, Callback message 2,. And write to FIFO memory 20.
  • the tone generator sequencer 34 When processing the data in the FIFO memory 20, the tone generator sequencer 34 generates an interrupt signal 3DINT corresponding to the detected Callback message when detecting any Callback message.
  • Callback message 1 corresponds to interrupt signal 3DINT1
  • Callback message 2 corresponds to interrupt signal 3DINT2.
  • a 3DINT line dedicated to each Callback message is arranged in the application processor 200 that performs 3D positioning processing from the sound source circuit 100, and the sound source sequencer 34 corresponds to the detected Callback message. Then, the interrupt signal 3DINT1 or the interrupt signal 3DINT2 is transmitted to the application processor 200.
  • FIG. 8 is a diagram showing a configuration of an electronic device 400 equipped with the electronic circuit 300 including the sound source LSI 110 and the abrasion processor 200 according to the second embodiment.
  • the tone generator LSI 110 and the application processor 200 according to the second embodiment are basically the same as the configuration of FIG. 3 described in the first embodiment. The differences are described below.
  • the 3D positioning unit 210 decodes the command related to time management in the audio data, and specifies the switching timing of the positions of the plurality of virtual sound sources in the reproduction sound field of the audio data in the three-dimensional space. Then, in order to indicate the timing of switching the positions of these virtual sound sources in the three-dimensional space, the Callback message and! /, ⁇ data are inserted into the switching positions of the respective positions in the audio data. Write to FIFO memory 20.
  • control unit 30 and the application processor 200 are connected by a plurality of interrupt signal lines. In Figure 8, up to three are clearly shown, but the number is not limited to three.
  • the control unit 30 detects any Callback message in the data read from the FIFO memory 20, the control unit 30 sends the interrupt signal 3DINT1 and interrupt to the application processor 200 via the corresponding interrupt signal line. Outputs signal 3DINT2 and interrupt signal 3DINT3.
  • FIG. 9 is a diagram illustrating an example of waveform transition of the signal LRCLK, the signal SDO, the signal 3DINT1, and the signal 3DINT2 shown in FIG.
  • the sound of mixed airplane and UFO sounds is switched to the mixed sound of cars and missiles along the way.
  • Signal RCLK and signal SDO are the same as those in FIG. Figure 9 shows that audio data representing the sound of a mixture of airplane and UFO is input twice, and then audio data representing the sound of a mixture of car and missile is input twice.
  • Interrupt signal 3DINT1 and interrupt signal 3DINT2 are interrupt signals to application processor 200.
  • a plurality of Callback messages are prepared, and dedicated signal lines for transmitting interrupt signals corresponding to the plurality of Callback messages are provided to the application processor 200, respectively.
  • the application processor 200 can store the received information without missing it. The processing by the 3D positioning unit 210 can be executed without fail.
  • the timing information is transmitted to the empty channel in the audio data without providing a dedicated signal line for sending the Callback message from the sound source circuit 100 to the application processor 200.
  • Embedded sound source circuit 100 and a Provides technology to synchronize with the Precise Processor 200.
  • the configurations of the sound source LSI 110 and the application processor 200 according to the third embodiment are basically the same as the configurations of FIG. 3 described in the first embodiment. Hereinafter, the difference will be described in that an interrupt signal line that connects the control unit 30 and the application processor 200 is not provided.
  • FIG. 10 is a timing chart showing an example of signals transmitted from the control unit 30 to the application processor 200 via the audio IZF 40.
  • the control unit 30 serially transmits audio data using the signal SDO in the I2S format.
  • signal LRCLK indicates the data transfer timing for one time. Transfer data once a cycle.
  • I2S format 64 bits or 128 bits can be transferred at a time.
  • the signal BCLK indicates the transmission timing of unit bits. Note that the stripe region in the figure indicates the omitted part of the data string.
  • FIG. 10 a total of 128 bits of data can be exchanged with the left channel Lch 64 bits and the right channel Rch 64 bits per cycle of the signal LRCLK.
  • the signal S DO indicates that eight types of 16-bit data can be transmitted in one transfer, and the bit string below the signal SD O indicates the data actually transferred.
  • audio data is written to channel 1 CH 1 and channel 5 CH5.
  • Figure 10 shows an example when there is only one virtual sound source in the sound field. When there are multiple virtual sound sources in the sound field, other channel channels are also used.
  • Fig. 10 information for timing the sound generation timing of audio data and the timing of 3D positioning processing of the audio data is written to 3 channels CH3.
  • the 3D positioning unit 210 can acquire the timing for switching the perceived position of the virtual sound source in the three-dimensional sound field with reference to this timing information.
  • FIG. 11 is a diagram illustrating an example of waveform transitions of the signal LRCLK and the signal SDO according to the third embodiment.
  • the sound of the airplane illustrated in Fig. 2 is switched to the sound of a car along the way. Is.
  • the signal SDO indicates audio data input to the application processor 200.
  • the audio data representing the sound of an airplane is input twice, and then the audio data representing the sound of a car is input once.
  • the above timing information is embedded in an empty channel of the audio data for one time.
  • the tone generator LSI 110 and the application processor 200 are configured by different LSI chips. Therefore, an example has been described in which audio data is exchanged between the tone generator LSI 110 and the application processor 200 through a serial interface in which it is difficult to arrange a large number of signal lines while suppressing the circuit scale.
  • the entire electronic circuit 300 may be integrated into one chip.
  • a large number of signal lines can be arranged between the sound source LSI 110 and the application processor 200 without increasing the circuit scale as in the case where the application processor 200 is provided outside. Therefore, audio data between the sound source LSI 110 and the application processor 200 may be exchanged through a parallel interface.
  • a dedicated signal line for transmitting the timing information described in Embodiment 3 may be provided. According to this, it is possible to increase the signal speed while suppressing the circuit scale.
  • control unit 30 executes the 3D positioning function and the stereo expansion function.
  • effect functions such as a reverb function and a chorus function may be executed.
  • the interrupt processing described in Embodiments 1 and 2 and the timing information embedding technique described in Embodiment 3 can be similarly applied. The This makes it possible to synchronize the sound generation timing of audio data with the processing timing of various effect functions.
  • the present invention can be applied to the field of electronic equipment that reproduces audio data after effect processing.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)

Abstract

 音場内における仮想音源の位置調整のようなエフェクト処理と発音との同期ずれを抑制する。音源回路100において、FIFOメモリ20は、再現音場内の仮想音源の変化を示す情報およびオーディオデータを記憶する。制御部30は、FIFOメモリ20に記憶されたオーディオデータに、その再現音場内の仮想音源の位置調整を行う3Dポジショニング部210と連携し、位置調整されたオーディオデータを発音させる。制御部30は、上記情報を検出すると、3Dポジショニング部210に通知する。その際、専用の信号線を介して、その情報に対応した割込信号を3Dポジショニング部210に送出してもよい。

Description

明 細 書
発音方法、音源回路、それを用いた電子回路および電子機器
技術分野
[0001] 本発明は、エフェクト処理したオーディオデータを発音するための発音方法、音源 回路、それを用いた電子回路および電子機器に関する。
背景技術
[0002] 携帯電話機の高機能化に伴い、音質への要求も高まっている。そこで、携帯電話 などの携帯端末にステレオスピーカが搭載されるようになってきている。ただ、そのよ うな携帯端末の狭い筐体では、ステレオスピーカを内蔵しても、その発音に良質なス テレオ感を得ることは難 、。
[0003] 一方、ユーザの左右の耳を利用して 3次元音場を再生するオーディオ信号処理技 術として、特許文献 1は、 1対のスピーカおよび 2つの信号チャンネルだけを使用する 音場の合成技術について開示している。その音場では、球体の中心に位置するユー ザの頭を囲む球体上のどこかに音源が現れるよう、ユーザに知覚させることができる
[0004] このような音響処理は、例えばユーザの頭に近接した空間位置力 発散するような 音、または時間と共にユーザに向力つて、もしくは離れるように移動する音、またはュ 一ザの耳元にささやく人の声、などに効果的であるとしている。
特許文献 1 :特表 2001— 511995号公報
発明の開示
発明が解決しょうとする課題
[0005] 携帯電話などの携帯端末には、着信を知らせるためのメロディなどを発音する音源 LSI (Large Scale Integration)などで構成された音源回路が搭載されているものがあ る。このような音源回路の発音データが MIDI (登録商標)データ(Musical Instrument s Digital Interface)などの場合、そのデータ内の時間管理コマンドによって、発音タイ ミングが設定される。したがって、音源回路内のメモリにそのデータが書き込まれた後 、どのくらいの時間で発音するかを、音源回路上で実行されるシーケンサなどのソフト ウェアは認知することが難しい。このような音源回路と、上述したような音場内で音源 の知覚位置を調整するためのエンジンとが連携する場合、当該音源回路による発音 と当該エンジンによる位置調整とが同期ずれを起こし、予期せぬ位置に音像を定位 してしまう可能性がある。
[0006] 本発明はこうした状況に鑑みてなされたものであり、その目的は、音場内における 仮想音源の位置調整のようなエフェクト処理と発音との同期ずれを抑制することが可 能な発音方法、音源回路、それを用いた電子回路および電子機器を提供することに ある。
課題を解決するための手段
[0007] 上記課題を解決するために、本発明のある態様の発音方法は、オーディオデータ の発音タイミングを解読するステップと、発音タイミングを示す情報をオーディオデー タに加えるステップと、前記情報を参照して取得した発音タイミングに対応して、発音 すべきオーディオデータにエフェクト処理するステップと、を備える。
[0008] この態様によると、発音タイミングを示す情報を参照してエフェクト処理することによ り、エフェクト処理と発音との間の同期ずれを抑制することができる。
[0009] 本発明の別の態様もまた、発音方法である。この方法は、オーディオデータによる 再現音場内の仮想音源の変化を解読するステップと、仮想音源の変化を示す情報 をオーディオデータに加えるステップと、前記情報を参照して取得した仮想音源の変 化に対応して、発音すべきオーディオデータの再現音場内の仮想音源の位置調整 を行うステップと、を備える。「仮想音源の変化」には、仮想音源の切り替わり、仮想音 源の移動による変化が含まれてもよい。
[0010] この態様〖こよると、仮想音源の変化を示す情報を参照して、再現音場内の仮想音 源の位置調整を行うことにより、この位置調整と発音との間の同期ずれを抑制するこ とがでさる。
[0011] 本発明のさらに別の態様は、音源回路である。この音源回路は、発音タイミングを 示す情報およびオーディオデータを記憶する記憶部と、記憶部に記憶されたオーデ ィォデータにエフェクト処理するエフェクト処理部と連携し、処理されたオーディオデ ータを発音させる制御部と、を備える。制御部は、前記情報を検出すると、エフェクト 処理部にその情報を検出したことを通知する。
[0012] この態様によると、発音タイミングを示す情報をエフェクト処理部に通知することによ り、エフェクト処理と発音との間の同期ずれを抑制することができる。
[0013] 本発明のさらに別の態様もまた、音源回路である。この音源回路は、再現音場内の 仮想音源の変化を示す情報およびオーディオデータを記憶する記憶部と、記憶部に 記憶されたオーディオデータに、その再現音場内の仮想音源の位置調整を行う位置 調整部と連携し、位置調整されたオーディオデータを発音させる制御部と、を備える 。制御部は、前記情報を検出すると、位置調整部にその情報を検出したことを通知 する。
[0014] この態様によると、再現音場内の仮想音源の変化を示す情報を位置調整部に通知 することにより、位置調整と発音との同期ずれを抑制することができる。
[0015] 制御部は、専用の信号線を介して、前記情報に対応した割込信号を位置調整部に 送出してもよい。この態様によると、制御部と位置調整部とのオーディオデータの入 出力に影響を与えずに、位置調整と発音との同期ずれを抑制することができる。
[0016] 制御部は、再現音場内に複数の仮想音源が設定された場合、それぞれの仮想音 源の変化を示す情報の少なくとも一つ以上を検出すると、それぞれの仮想音源に対 応した専用の信号線を介して、前記情報に対応した割込信号を位置調整部に送出 してもよい。この態様〖こよると、音場内に複数の仮想音源があり、それぞれが独立して 変化する場合でも、割込信号の頻発による誤動作を抑制することができる。
[0017] 制御部は、位置調整部に送出するオーディオデータ内の空き部分に前記情報を埋 め込んでもよい。「オーディオデータ」が複数チャンネルを含む場合、その空きチャン ネルに埋め込んでもよい。この態様〖こよると、専用の信号線を設けなくても、位置調 整と発音との同期ずれを抑制することができる。
[0018] 本発明のさらに別の態様は、電子回路である。この電子回路は、上述した音源回路 と、オーディオデータにエフェクト処理するエフェクト処理部とを備える。この態様によ ると、エフェクト処理と発音との間の同期ずれを抑制することができる電子回路を実現 することができる。
[0019] 本発明のさらに別の態様は、電子回路である。この電子回路は、上述した音源回路 と、オーディオデータに、その再現音場内の仮想音源の位置調整を行う位置調整部 とを備える。この態様によると、再現音場内の仮想音源の位置調整処理と発音との間 の同期ずれを抑制することができる電子回路を実現することができる。
[0020] 本発明のさらに別の態様は、電子機器である。この電子機器は、スピーカと、スピー 力に発音させるための上述した態様の電子回路を備える。この態様によると、エフエタ ト処理と発音との間の同期ずれを抑制することができる電子機器を実現することがで きる。
[0021] なお、以上の構成要素の任意の組合せ、本発明の表現を装置、方法、システム、コ ンピュータプログラム、それが記録された記録媒体などの間で変換したものもまた、本 発明の態様として有効である。
発明の効果
[0022] 本発明によれば、エフェクト処理と発音との同期ずれを抑制することができる。
図面の簡単な説明
[0023] [図 1]実施形態 1に係る音源回路の概略構成を示す図である。
[図 2]音源回路に係る制御タイミングを示す図である。(a)は、従来の制御タイミングを 示し、(b)は、実施形態 1に係る制御タイミングを示す。
[図 3]実施形態 1に係る音源 LSIと 3Dポジショニング部を含む電子回路を搭載した電 子機器の構成を示す図である。
[図 4]ステレオ拡張処理を説明するための図である。(a)は、従来のステレオ拡張処 理がされていない発音を示し、(b)は、実施形態 1に係るステレオ拡張処理がなされ た発音を示す。
[図 5]実施形態 1に係る音源回路と 3Dポジショニング部の処理手順を示すフローチヤ ートである。
[図 6]図 3に示した各信号の波形遷移の一例を示す図である。
[図 7]実施形態 2に係る音源回路の概略構成を示す図である。
[図 8]実施形態 2に係る音源 LSIと 3Dポジショニング部を含む電子回路を搭載した電 子機器の構成を示す図である。
[図 9]図 8に示した各信号の波形遷移の一例を示す図である。 [図 10]制御部力もオーディオ IZFを介して、 3Dポジショニング部に伝送される信号 の一例を示すタイミングチャートである。
[図 11]実施形態 3に係る各信号の波形遷移の一例を示す図である。
符号の説明
[0024] 10 CPUI/F, 20 FIFOメモリ、 30 制御部、 32 ステレオ拡張部、 34 音源シーケンサ、 40 オーディオ IZF、 52、 54 DAC、 62、 64 スピーカ、 1 00 音源回路、 110 音源 LSI、 200 アプリケーションプロセッサ、 210 3Dポ ジショユング部、 300 電子回路、 400 電子機器。
発明を実施するための最良の形態
[0025] (実施形態 1)
図 1は、実施形態 1に係る音源回路 100の概略構成を示す図である。実施形態 1は 、音源 LSI110などで構成される音源回路 100の発音タイミングと、 3次元音場にお ける仮想音源の知覚位置を調整するエンジン (以下、 3Dポジショニング部という。)に よる位置調整タイミングとの同期をとるための技術を提供する。 3Dポジショニング部 2 10は、例えば、飛行機の音なら頭上から聞こえるよう、車の音なら地面近くから聞こえ るよう、それぞれのオーディオデータに特殊効果を施すためのエフェクト処理を行う。
[0026] まず、実施形態 1の概略を説明する。音源回路 100の外部に設けられるアプリケー シヨンプロセッサなどの CPUは、 CPUインタフェース(以下、 CPUIZFと表記する。) 10を介して、オーディオデータを音源回路 100内の FIFO (First- In First- Out)メモリ 20に書き込む。上記オーディオデータは、 MIDIフォーマットや ADPCM (Adaptive Differential Pulse Code Modulation)フォーマットなどで記述することができる。図 1で は、一例として MIDIデータを FIFOメモリ 20に書き込んでいる。 MIDIデータは、楽 曲の情報を、音色、音の長さ、強さ、特殊効果などの組み合わせとして記録している
[0027] 上記 CPUは、上記オーディオデータ内の時間管理に関するコマンドを解読し、そ のオーディオデータを再生した際、生成される音場における仮想音源の 3次元空間 上の知覚位置を切り替えるためのタイミングを特定する。そして、その切り替わりタイミ ングを示すために、 Callbackメッセージというデータを当該オーディオデータ内の知 覚位置の切り替わりの部分などの所定の位置に挿入して、 FIFOメモリ 20に書き込む
[0028] FIFOメモリ 20は、先に入力されたデータをその入力順にしたカ^、、先に出力する メモリである。音源シーケンサ 34は、 MIDIデータの加工、再生などを行うソフトウェア であり、上記 CPUにより実行されてもよい。音源シーケンサ 34は、 FIFOメモリ 20の MIDIデータを再生し、図示しないスピーカなど力も発音させている。また、音源シー ケンサ 34は、 FIFOメモリ 20内のデータを処理する際、 Callbackメッセージを検出す ると、割込信号 MIDIINTを発生させる。この割込信号 MIDIINTは図 3のアプリケー シヨンプロセッサ 200に出力される。割込信号 MIDIINTを使用することにより、音源 シーケンサ 34による発音タイミングと、 3Dポジショニング部 210による 3Dポジショ- ング処理との同期がとられる。
[0029] 図 2は、音源回路 100に係る制御タイミングを示す図である。図 2では、まず、飛行 機の音を表すオーディオデータと、車の音を表すオーディオデータ力FIFOメモリ 20 に書き込まれる。
[0030] 図 2 (a)は、実施形態 1に係る技術を用いな 、場合の例である。音源シーケンサ 34 は、 FIFOメモリ 20内のオーディオデータをその順番にしたがって発音していく。 FIF Oメモリ内にオーディオデータが書き込まれてから、そのオーディオデータが発音す るまでの期間は、 MIDIデータの場合、その MIDIデータ内の Tempoなどの時間管 理コマンドの量により変化する。また、曲調などによっても変化する。図 2では、音源 シーケンサ 34は、車の音を表すオーディオデータが FIFOメモリ 20内に記憶されて から、そのオーディオデータが発音するまでの期間 tlを予測することができない。し たがって、音源シーケンサ 34は、飛行機の音力 車の音に切り替わるタイミングを予 測することができない。
[0031] 図 2中、ポジション Aは飛行機の音に対応した位置、例えばユーザを中心にした音 場の上方の位置を示し、ポジション Bは車の音に対応した位置、例えばそのユーザを 中心にした音場の下方の位置を示す。例えば図 2 (a)のように、ポジション Aとポジシ ヨン Bとの切り替わりタイミングを FIFOメモリ 20での飛行機の音を表すオーディオデ 一タカ 車の音を表すオーディオデータへの切り替わりタイミングに合わせると、音源 シーケンサ 34による発音の切り替わりタイミングとずれる期間 t2が生じる。この期間 t2 は、飛行機の音が地面を走行する車の位置から聞こえるようになり、ユーザの想像し て 、る映像と同期しな 、ことになる。
[0032] これに対し、図 2 (b)は、実施形態 1に係る技術を用いた場合の例である。音源シー ケンサ 34は、 MIDIデータの発音タイミングと同期して!/、る Callbackメッセージを検 出すると、 3Dポジショニング処理を実行するアプリケーションプロセッサ 200に割込 信号 MIDIINTを発生させる。 3Dポジショニング部 210は、この割込信号 MIDIINT を利用して、音源シーケンサ 34の発音タイミングと同期をとることができる。したがって 、図 2 (b)では、音源シーケンサ 34が飛行機の発音力も車の発音に切り替えるタイミ ングに同期して、 3Dポジショニング部 210は、ポジション Aからポジション Bに切り替 えることができる。
[0033] 以下、実施形態 1を詳細に説明する。図 3は、音源 LSI110とアプリケーションプロ セッサ 200を含む電子回路 300を搭載した電子機器 400の構成を示す図である。音 源 LSI110は、上述した音源回路 100をワンチップィ匕した集積回路で実現したもので ある。音源 LSI110の外部に設けられるアプリケーションプロセッサ 200は、 CPUI/ F10を介して、オーディオデータを音源 LSI110内の FIFOメモリ 20に書き込む。ァ プリケーシヨンプロセッサ 200は、 3Dポジショニング部 210およびファームウェア 220 を含む。
[0034] 3Dポジショニング部 210は、上記オーディオデータ内の時間管理に関するコマンド を解読し、そのオーディオデータを再生した際、そのオーディオデータによる仮想音 源の 3次元空間上の知覚位置を切り替えるためのタイミングを特定する。そして、その 仮想音源の切り替わりタイミングを示すために、 Callbackメッセージというデータを当 該オーディオデータ内の飛行機の音を表すオーディオデータと車の音を表すオーデ ィォデータの切り替わりの部分などの所定の位置に挿入して、 FIFOメモリ 20に書き 込む。
[0035] 制御部 30は、 FIFOメモリ 20から読み出したオーディオデータに各種エフェクト処 理を施したり、読み出したオーディオデータを発音させたりする。制御部 30は、ォー ディォデータをシーケンス処理して、デジタルデータとして、オーディオインターフエ ース(以下、オーディオ IZFと表記する。)40を介してアプリケーションプロセッサ 200 に受け渡す。
[0036] 3Dポジショニング部 210は、主に、上記アプリケーションプロセッサ 200と 3Dポジシ ョユング用のファームウェア 220との連携により実現されるブロックである。制御部 30 または 3Dポジショニング部 210はワンチップ化されて!/、てもよ!/、。 3Dポジショニング 部 210は、オーディオ IZF40を介して制御部 30から受け渡されたオーディオデータ に 3次元ポジショニング処理を施し、制御部 30に返す。
[0037] 図 3では、アプリケーションプロセッサ 200と、オーディオ IZF40との間では 4本の 信号 BCLK、信号 LRCLK、信号 SDOおよび信号 SDIが入出力される。信号 BCL Kは、ビット単位の同期をとるためのクロックをアプリケーションプロセッサ 200に出力 する信号である。信号 LRCLKは、 1回のデータ受け渡しタイミングを与える信号であ り、左右どちらのチャンネルのデータであるのかを示すことができる。信号 SDOは、制 御部 30力もアプリケーションプロセッサ 200にシリアルにオーディオデータを出力す るための信号である。信号 SDIは、逆にアプリケーションプロセッサ 200から制御部 3 0にシリアルにオーディオデータを出力するための信号である。信号 BCLK、信号し RCLK、信号 SDOおよび信号 SDIでやりとりされる信号は、 I2S (アイ.スクェア.エス )などの規格を用いることができる。
[0038] 制御部 30は、ステレオ拡張部 32を含む。ステレオ拡張部 32は、例えば、右のチヤ ンネルの信号に、左のチャンネルの信号の反位相をカ卩え、その逆も同様に処理する ことにより、ユーザにとって広がりのある音場を作り出す。右のスピーカから出力される 音を、左のスピーカから出力される音で打ち消すと、ユーザは主に右の耳で、右のス ピー力から出力される音を知覚することになる。逆も同様である。そうすると、右のチヤ ンネルで出力する音と、左のチャンネルで出力する音を分離することができ、音場を 拡張することができる。
[0039] ステレオ拡張部 32は、 3Dポジショニング部 210により 3Dポジションングされたォー ディォデータに対して、上述したようなステレオ拡張処理を施す。ユーザインタフエ一 スとして、 1対のスピーカ 62、 64と図示しないヘッドフォンが設けられている場合、ス ピー力 62、 64とヘッドフォンに対して施す。 [0040] また、制御部 30は、 FIFOメモリ 20から読み出したデータに上記 Callbackメッセ一 ジを検出すると、アプリケーションプロセッサ 200に割込信号 MIDIINTを出力する。 図 3では、制御部 30からアプリケーションプロセッサ 200に、割込信号 MIDIINTが 出力される。割込信号 MIDIINTは、上記仮想音源の知覚位置の切り替わりタイミン グを示す制御信号をアプリケーションプロセッサ 200に伝送するための信号である。
[0041] 2つのデジタルアナログ変^ ^ (以下、 DACという。 ) 52、 54は、制御部 30から出 力された左右のチャンネルのオーディオデジタル信号をそれぞれアナログ信号に変 換して、左右のスピーカ 62、 64に出力する。なお、図示しないヘッドフォンなどが携 帯端末などの機器に接続されている場合、ヘッドフォンにも出力する。 1対のスピーカ 62、 64は、左右のチャンネルのオーディオ信号を出力する。
[0042] 図 4は、ステレオ拡張処理を説明するための図である。図 4 (a)は、実施形態 1に係 る技術を用いな 、場合の例である。携帯電話機や携帯型ゲーム機などの携帯型の 電子機器の場合、その電子機器の筐体の大きさの制約から、 1対のスピーカ 62、 64 の間の距離を長くすることが難しい。したがって、図 4 (a)に示すように、左右のスピー 力 62、 64からの発音が混じり合ってしまい、 1対のスピーカ 62、 64を設けても、同じ 場所から発音されて 、るように感知され、ステレオ感を出すことが難 、。
[0043] これに対し、図 4 (b)は、実施形態 1に係る技術を用いた場合の例である。左右のチ ヤンネルにステレオ拡張処理を施すことにより、あたかも 1対のスピーカ 62、 64の間 に十分な距離を確保されているようなステレオ感を出すことができる。
[0044] 図 5は、実施形態 1に係る音源回路 100とアプリケーションプロセッサ 200の処理手 順を示すフローチャートである。図 1の音源回路 100が図 3のアプリケーションプロセ ッサ 200と連携する形態で説明する。このフローチャートの左側の流れは、アプリケー シヨンプロセッサ 200の動作タイミングを示し、右側の流れは、ハードウェア資源として の音源回路 100の動作タイミングを示す。
[0045] まず、アプリケーションプロセッサ 200は、 Callbackメッセージを MIDIデータ内に 設定する(S10)。その際、その Callbackメッセージに続けて後処理選択値も後処理 選択メッセージとして設定する。後処理選択値とは、音源回路 100から MIDIデータ をどのように出力するかを指し示す値である。 [0046] この設定により、音源回路 100内の FIFOメモリ 20に、 Callbackメッセージと後処理 検出値が連続して設定されることになる(S30)。次に、音源シーケンサ 34は、 FIFO メモリ 20内のデータを読み出していくと、 Callbackメッセージを検出する(S32)。す ると、アプリケーションプロセッサ 200に出力される割込信号 MIDIINTをローレベル に設定する。
[0047] 音源シーケンサ 34は、 Callbackメッセージを検出した後に、後処理選択メッセージ を検出する(S34)。後処理選択メッセージは、音源シーケンサ 34とアプリケーション プロセッサ 200とのシリアル IZFを介してアプリケーションプロセッサ 200に 3Dポジシ ョユング処理の対象となる MIDIデータを出力するよう命令するものである。
[0048] アプリケーションプロセッサ 200は、割込信号 MIDIINTから、 3Dポジショニング処 理のタイミングを示す Callbackメッセージを検出することにより、 Callbackステータス を取得する(S12)。 3Dポジショニング部 210は、割込信号 MIDIINTがローレベル になると、割込ルーチンを実行する。割込ルーチンは、音源回路 100側からアプリケ ーシヨンプロセッサ 200側に MIDIデータが出力されないよう、マスク設定する(S14) 。 3Dポジショニング部 210は、音源回路 100からの割込をクリアするよう設定し (S16 ) , 3Dポジショニング処理を開始する(S18)。
[0049] 音源シーケンサ 34は、アプリケーションプロセッサ 200からの割込クリア設定に対応 して、割込信号 MIDIINTによる Callbackメッセージをクリアする(S 36)。 3Dポジショ ユング部 210は、上記割込ルーチンの中でかけたマスクを解除する(S20)。マスクが 解除されると、音源シーケンサ 34は、シリアル IZFを介してアプリケーションプロセッ サ 200に MIDIデータの送出が可能となり、 MIDIデータの送出を開始する(S38)。 先の後処理選択メッセージの検出からこの MIDIデータの送出までの期間は、 4mse c程度に設定することができる。
[0050] 3Dポジショニング部 210は、シリアル IZFを介して送られてくる上記 MIDIデータに 、 3Dポジショニング処理を施す(S22)。音源シーケンサ 34は、このようにエフェクト 処理がなされた MIDIデータを発音することができるようになる。
[0051] 以上、発音するタイミングを示す Callbackメッセージを FIFOメモリ 20に積み込み、 アプリケーションプロセッサ 200への割込信号を発生させる手順を説明した。この点、 MIDIデータに限らず、 ADPCMデータなどに対しても同様の手順を適用することが 可能である。
[0052] 図 6は、図 3に示した信号 LRCLK、信号 SDO、および割込信号 MIDIINTの波形 遷移の一例を示す図である。この例は、図 2で例示した飛行機の音力も途中で車の 音に切り替わるものである。信号 LRCLKは、周期的な繰り返し波形であり、その繰り 返し波形の単位周期がデータ受け渡しの単位周期となる。信号 SDOは、アプリケー シヨンプロセッサ 200に入力されるオーディオデータを示す。図 6では、飛行機の音を 表すオーディオデータが 2回入力され、その後に車の音を表すオーディオデータが 2 回入力された様子を示す。割込信号 MIDIINTは、アプリケーションプロセッサ 200 への割込信号である。図 6では、この割込信号 MIDIINTのハイレベルからローレべ ルへの立ち下がりエッジで、飛行機の音への 3Dポジショニング処理による音像の定 位場所から、車の音に対する音像の定位場所に切り替わるタイミングを 3Dポジショ- ング部 210に通知している。
[0053] 以上説明したように実施形態 1によれば、 Callbackメッセージを 3Dポジショニング 部との同期信号に利用することにより、音源シーケンサが発音する際、発音タイミング と、 3Dポジショニング処理との同期ずれを抑制し、予期せぬ位置に音像を定位して しまう事態を回避することができる。
[0054] (実施形態 2)
図 7は、実施形態 2に係る音源回路 100の概略構成を示す図である。実施形態 2は 、音源回路 100の発音タイミングと、 3次元音場における複数の仮想音源の知覚位置 を調整する 3Dポジショニング部 210による位置調整タイミングとの同期をとるための 技術を提供する。 3Dポジショニング部 210は、複数の仮想音源からの発音が混じつ た音において、それぞれの仮想音源を音場内の所定の場所力 聞こえるよう、それら 複数の仮想音源を表すオーディオデータにエフェクト処理を施す。
[0055] 実施形態 2に係る音源回路 100の構成は、実施形態 1に係る構成と基本的に同様 の構成である。以下、相違点について説明する。外部に設けられる CPUは、 CPUI /F 10を介して、オーディオデータを音源回路 100内の FIFOメモリ 20に書き込む。 当該 CPUは、上記オーディオデータ内の時間管理に関するコマンドを解読し、その オーディオデータの再生音場における複数の仮想音源の 3次元空間上の知覚位置 の切り替わりタイミングをそれぞれ特定する。そして、それら仮想音源の 3次元空間上 の知覚位置の切り替わりタイミングを示すために、 Callbackメッセージ 1、 Callbackメ ッセージ 2· · ·といった各 Callbackメッセージ BOXを当該オーディオデータ内のその 知覚位置の切り替わりの部分などに挿入して、 FIFOメモリ 20に書き込む。
[0056] 音源シーケンサ 34は、 FIFOメモリ 20内のデータを処理する際、いずれかの Callb ackメッセージを検出すると、検出した Callbackメッセージに対応する割込信号 3DI NTを発生させる。 Callbackメッセージ 1には、割込信号 3DINT1が対応し、 Callba ckメッセージ 2には、割込信号 3DINT2が対応する。実施形態 2では、音源回路 10 0から 3Dポジショニング処理を実行するアプリケーションプロセッサ 200に、各 Callba ckメッセージ専用の 3DINT線が配されており、音源シーケンサ 34は、検出した Call backメッセージに対応する 3DINT線を介して、アプリケーションプロセッサ 200に割 込信号 3DINT1または割込信号 3DINT2を伝送する。
[0057] 以下、実施形態 2を詳細に説明する。図 8は、実施形態 2に係る音源 LSI110とアブ リケーシヨンプロセッサ 200を含む電子回路 300を搭載した電子機器 400の構成を 示す図である。実施形態 2に係る音源 LSI110およびアプリケーションプロセッサ 200 は、実施形態 1で説明した図 3の構成と基本的に同様である。以下、相違点を説明す る。
[0058] 3Dポジショニング部 210は、上記オーディオデータ内の時間管理に関するコマンド を解読し、そのオーディオデータの再生音場における複数の仮想音源の 3次元空間 上の位置の切り替わりタイミングをそれぞれ特定する。そして、それら仮想音源の 3次 元空間上の位置の切り替わりタイミングを示すために、 Callbackメッセージと!/、ぅデ ータを当該オーディオデータ内のそれぞれの位置の切り替わりの部分などに挿入し て、 FIFOメモリ 20に書き込む。
[0059] 制御部 30とアプリケーションプロセッサ 200とは、複数の割込信号線で結ばれてい る。図 8では、 3本まで明示しているが 3本に限るものではない。制御部 30は、 FIFO メモリ 20から読み出したデータにいずれかの Callbackメッセージを検出すると、対応 する割込信号線を介してアプリケーションプロセッサ 200に割込信号 3DINT1、割込 信号 3DINT2、割込信号 3DINT3を出力する。
[0060] 図 9は、図 8に示した信号 LRCLK、信号 SDO、信号 3DINT1、および信号 3DIN T2の波形遷移の一例を示す図である。この例は、飛行機および UFOの音が混在し た音から、途中で車およびミサイルの音が混在した音に切り替わるものである。信号し RCLKおよび信号 SDOは、図 6の説明と同様である。図 9では、飛行機および UFO の音が混ざった音を表すオーディオデータが 2回入力され、その後に車およびミサィ ルの音が混ざった音を表すオーディオデータが 2回入力された様子を示す。割込信 号 3DINT1および割込信号 3DINT2は、アプリケーションプロセッサ 200への割込 信号である。
[0061] 図 9では、割込信号 3DINT1のハイレベルからローレベルへの立ち下がりエッジで 、飛行機の音への 3Dポジショニング処理による音像の定位場所から、車の音に対す る 3Dポジショニング処理による音像の定位場所に切り替わるタイミングを 3Dポジショ ユング部 210に通知している。同様に、割込信号 3DINT2のハイレベルからローレ ベルへの立ち下がりエッジで、 UFOの音への 3Dポジショニング処理による音像の定 位場所から、ミサイルの音に対する 3Dポジショニング処理による音像の定位場所に 切り替わるタイミングを 3Dポジショニング部 210に通知している。
[0062] 以上説明したように実施形態 2によれば、 Callbackメッセージを複数用意し、アプリ ケーシヨンプロセッサ 200に複数の Callbackメッセージに対応する割込信号を送出 するための専用の信号線をそれぞれ設けたことにより、複数音を音場内の複数箇所 に定位させる際に、特定の信号線に対する割込信号の頻発を抑制することができる 。すなわち、並列処理できるように、 Callbackメッセージを複数設けて、複数の Callb ackメッセージに対応した信号線を複数設けることにより、アプリケーションプロセッサ 200は、受け取った情報を取りこぼすことなぐ蓄えておくことができ、 3Dポジショニン グ部 210による処理を必ず実行することができる。
[0063] (実施形態 3)
実施形態 3は、実施形態 1および 2のように、音源回路 100からアプリケーションプロ セッサ 200に Callbackメッセージを送出するための専用の信号線を設けずに、ォー ディォデータ内の空きチャンネルにタイミング情報を埋め込んで、音源回路 100とァ プリケーシヨンプロセッサ 200との同期を取る技術を提供する。実施形態 3に係る音 源 LSI110とアプリケーションプロセッサ 200の構成は、実施形態 1で説明した図 3の 構成と基本的に同様である。以下、相違点を説明すると、制御部 30とアプリケーショ ンプロセッサ 200とを繋ぐ割込信号線を設けない点が異なる。
[0064] 図 10は、制御部 30からオーディオ IZF40を介して、アプリケーションプロセッサ 20 0に伝送される信号の一例を示すタイミングチャートである。制御部 30は、オーディオ データを I2Sフォーマットで信号 SDOによりシリアル伝送している。図 10において、 信号 LRCLKは、 1回分のデータ受け渡しタイミングを示す。 1周期に 1回、データを 受け渡す。 I2Sフォーマットでは、 1回に 64ビットまたは 128ビットを受け渡すことがで きる。信号 BCLKは、単位ビットの伝送タイミングを示す。なお、図内のストライプ領域 は、データ列の省略した箇所を示す。
[0065] 図 10では、信号 LRCLKの 1周期あたり、左チャンネル Lch64ビット、右チャンネル Rch64ビットで計 128ビットのデータを受け渡すことができる。信号 LRCLKの 1周期 のデータに、 1チャンネルあたり 16ビットで、 8チャンネルを設定した例である。信号 S DOは、 1回の受け渡しで、 16ビットのデータを 8種類送出できることを示し、信号 SD Oの下のビット列は、実際に受け渡してるデータを示す。図 10では、 1チャンネル CH 1と、 5チャンネル CH5にオーディオデータが書き込まれている。図 10は、音場内に おける仮想音源が一つの場合の例であり、音場内の仮想音源が複数の場合、他の チャンネル CHも使用される。
[0066] 上記した DAC52、 54に 16ビット用のものを使用する場合、左右のチャンネルを合 わせて 32ビットのデータを、信号 LRCLKの 1周期あたりに受け渡せれば足りる。そこ で、図 10のように空きチャンネルができることになる。図 10では、オーディオデータの 発音タイミングと、そのオーディオデータの 3Dポジショニング処理とのタイミングをとる ための情報を、 3チャンネル CH3に書き込んでいる。 3Dポジショニング部 210は、こ のタイミング情報を参照して、 3次元音場内における仮想音源の知覚位置を切り替え るタイミングを取得することができる。
[0067] 図 11は、実施形態 3に係る信号 LRCLK、および信号 SDOの波形遷移の一例を 示す図である。この例は、図 2で例示した飛行機の音力 途中で車の音に切り替わる ものである。信号 SDOは、アプリケーションプロセッサ 200に入力されるオーディオデ ータを示す。図 11では、飛行機の音を表すオーディオデータが 2回入力され、その 後に車の音を表すオーディオデータが 1回入力された様子を示す。図 11では、車の 音を表すオーディオデータの始めの受け渡しの際に、その 1回分のオーディオデー タの空きチャンネルに上記タイミング情報を埋め込んでいる。
[0068] 以上説明したように実施形態 3によれば、音源回路 100からアプリケーションプロセ ッサ 200に伝送されるオーディオデータの空きチャンネルに、同期をとるためのメッセ ージを埋め込むことにより、割込処理により生成される信号を伝送するための信号線 を用いなくとも、すなわち簡素な構成で、オーディオデータの発音タイミングとそのォ 一ディォデータの 3Dポジショニング処理との同期をとることができる。
[0069] 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それ らの各構成要素や各処理プロセスの組合せに 、ろ 、ろな変形例が可能なこと、また そうした変形例も本発明の範囲にあることは当業者に理解されるところである。
[0070] 実施形態では、図 3および図 8に示したように、音源 LSI110とアプリケーションプロ セッサ 200とを別の LSIチップで構成する例を説明した。したがって、音源 LSI110と アプリケーションプロセッサ 200との間に回路規模を抑えながら、多数の信号線を配 することが難しぐシリアルインタフェースでオーディオデータをやりとりする例を説明 した。この点、電子回路 300全体をワンチップ化してもよい。この場合、アプリケーショ ンプロセッサ 200を外部に設けた場合のように、回路規模を大きくせずに多数の信号 線を、音源 LSI110とアプリケーションプロセッサ 200との間に配することが可能にな る。したがって、音源 LSI110とアプリケーションプロセッサ 200との間のオーディオデ ータをパラレルインタフェースでやりとりしてもよい。さら〖こ、実施形態 3で説明したタイ ミング情報を伝送するための専用の信号線を設けてもよい。これによれば、回路規模 を抑えながら、信号を高速ィ匕することができる。
[0071] また、実施形態では、制御部 30は、 3Dポジショニング機能、およびステレオ拡張機 能を実行した。この点、それら機能に限らず、リバーブ機能、コーラス機能などのエフ ェクト機能を実行してもよい。実施形態 1、 2で説明した割込処理や、実施形態 3で説 明した空きチャンネルへのタイミング情報埋め込み技術を同様に適用することができ る。これにより、オーディオデータの発音タイミングと、各種エフェクト機能の処理タイミ ングとの同期をとることができる。
産業上の利用可能性
本発明は、オーディオデータをエフェクト処理して再生する電子機器の分野に適用 することができる。

Claims

請求の範囲
[1] オーディオデータの発音タイミングを解読するステップと、
前記発音タイミングを示す情報を前記オーディオデータに加えるステップと、 前記情報を参照して取得した前記発音タイミングに対応して、発音すべきオーディ ォデータにエフェクト処理するステップと、
を備えることを特徴とする発音方法。
[2] オーディオデータによる再現音場内の仮想音源の変化を解読するステップと、 前記仮想音源の変化を示す情報を前記オーディオデータに加えるステップと、 前記情報を参照して取得した前記仮想音源の変化に対応して、発音すべきオーデ ィォデータの再現音場内の仮想音源の位置調整を行うステップと、
を備えることを特徴とする発音方法。
[3] 発音タイミングを示す情報およびオーディオデータを記憶する記憶部と、
前記記憶部に記憶されたオーディオデータにエフェクト処理するエフェクト処理部と 連携し、処理されたオーディオデータを発音させる制御部と、を備え、
前記制御部は、前記情報を検出すると、前記エフェクト処理部に前記情報を検出し たことを通知することを特徴とする音源回路。
[4] 再現音場内の仮想音源の変化を示す情報およびオーディオデータを記憶する記 憶部と、
前記記憶部に記憶されたオーディオデータに、その再現音場内の仮想音源の位 置調整を行う位置調整部と連携し、位置調整されたオーディオデータを発音させる 制御部と、を備え、
前記制御部は、前記情報を検出すると、前記位置調整部に前記情報を検出したこ とを通知することを特徴とする音源回路。
[5] 前記制御部は、専用の信号線を介して、前記情報に対応した割込信号を前記位置 調整部に送出することを特徴とする請求項 4に記載の音源回路。
[6] 前記制御部は、前記再現音場内に複数の仮想音源が設定された場合、それぞれ の仮想音源の変化を示す情報の少なくとも一つ以上を検出すると、それぞれの仮想 音源に対応した専用の信号線を介して、前記情報に対応した割込信号を前記位置 調整部に送出することを特徴とする請求項 4に記載の音源回路。
[7] 前記制御部は、前記位置調整部に送出するオーディオデータ内の空き部分に前 記情報を埋め込むことを特徴とする請求項 4に記載の音源回路。
[8] 請求項 3から 7の 、ずれかに記載の音源回路であって、
同一半導体基板に一体集積化されたことを特徴とする音源回路。
[9] 請求項 3に記載の音源回路と、
前記オーディオデータにエフェクト処理するエフェクト処理部と、
を備えることを特徴とする電子回路。
[10] 請求項 4力 8の 、ずれかに記載の音源回路と、
前記オーディオデータに、その再現音場内の仮想音源の位置調整を行う位置調整 部と、
を備えることを特徴とする電子回路。
[11] スピーカと、
前記スピーカから発音させるための請求項 9または 10記載の電子回路を備えること を特徴とする電子機器。
PCT/JP2005/016906 2004-10-21 2005-09-14 発音方法、音源回路、それを用いた電子回路および電子機器 WO2006043380A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/666,147 US20080123867A1 (en) 2004-10-21 2005-09-14 Sound Producing Method, Sound Source Circuit, Electronic Circuit Using Same, and Electronic Device
JP2006542280A JPWO2006043380A1 (ja) 2004-10-21 2005-09-14 発音方法、音源回路、それを用いた電子回路および電子機器
EP05783672A EP1814357A1 (en) 2004-10-21 2005-09-14 Sound producing method, sound source circuit, electronic circuit using same, and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-307352 2004-10-21
JP2004307352 2004-10-21

Publications (1)

Publication Number Publication Date
WO2006043380A1 true WO2006043380A1 (ja) 2006-04-27

Family

ID=36202803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/016906 WO2006043380A1 (ja) 2004-10-21 2005-09-14 発音方法、音源回路、それを用いた電子回路および電子機器

Country Status (7)

Country Link
US (1) US20080123867A1 (ja)
EP (1) EP1814357A1 (ja)
JP (1) JPWO2006043380A1 (ja)
KR (1) KR20070070166A (ja)
CN (1) CN101019465A (ja)
TW (1) TW200614848A (ja)
WO (1) WO2006043380A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9301069B2 (en) * 2012-12-27 2016-03-29 Avaya Inc. Immersive 3D sound space for searching audio
US9892743B2 (en) 2012-12-27 2018-02-13 Avaya Inc. Security surveillance via three-dimensional audio space presentation
US10203839B2 (en) 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US9838824B2 (en) 2012-12-27 2017-12-05 Avaya Inc. Social media processing with three-dimensional audio
CN104635578B (zh) * 2015-01-08 2017-05-17 江苏杰瑞科技集团有限责任公司 一种声纳听觉指示电路
US9843948B2 (en) * 2015-03-18 2017-12-12 T-Mobile Usa, Inc. Pathway-based data interruption detection
US11475872B2 (en) * 2019-07-30 2022-10-18 Lapis Semiconductor Co., Ltd. Semiconductor device
CN113555033A (zh) * 2021-07-30 2021-10-26 乐鑫信息科技(上海)股份有限公司 语音交互系统的自动增益控制方法、装置及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160549A (ja) * 1995-12-04 1997-06-20 Hitachi Ltd 三次元音響提示方法および装置
JPH10143151A (ja) * 1996-01-30 1998-05-29 Pfu Ltd 指揮装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2294854B (en) * 1994-11-03 1999-06-30 Solid State Logic Ltd Audio signal processing
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160549A (ja) * 1995-12-04 1997-06-20 Hitachi Ltd 三次元音響提示方法および装置
JPH10143151A (ja) * 1996-01-30 1998-05-29 Pfu Ltd 指揮装置

Also Published As

Publication number Publication date
JPWO2006043380A1 (ja) 2008-05-22
EP1814357A1 (en) 2007-08-01
US20080123867A1 (en) 2008-05-29
KR20070070166A (ko) 2007-07-03
CN101019465A (zh) 2007-08-15
TW200614848A (en) 2006-05-01

Similar Documents

Publication Publication Date Title
WO2006043380A1 (ja) 発音方法、音源回路、それを用いた電子回路および電子機器
JP3915585B2 (ja) データ生成方法、プログラム、記録媒体およびデータ生成装置
US20020189426A1 (en) Portable mixing recorder and method and program for controlling the same
WO1999040566A1 (fr) Procede et appareil de traitement de signaux numeriques, procede et appareil de generation de donnees de commande et support pour programme d'enregistrement
EP1217604B1 (en) Musical sound generator
JPH06268774A (ja) カラオケ制御装置
JPH11296167A (ja) サウンド再生装置及び記録媒体
CN100481876C (zh) 卡拉ok系统的视频及音频同步化装置
US7385129B2 (en) Music reproducing system
JP2002132271A (ja) 音楽配信システムおよび音楽配信方法
KR200447608Y1 (ko) 디에스피를 이용한 가라오케용 고음질 멀티채널 오디오 시스템
JP3754286B2 (ja) データ記録方法及びデータ記録装置
JP5069199B2 (ja) 遠隔デュエット方法、遠隔デュエットシステム、遠隔デュエットプログラムおよび遠隔デュエットプログラムを記録した記録媒体
JP3804536B2 (ja) 楽音再生記録装置、記録装置及び記録方法
US11418883B2 (en) Audio interface apparatus and recording system
US20210134256A1 (en) Midi events synchronization system, method and device
JP2005092191A (ja) 楽曲シーケンスデータのデータ交換フォーマット、音源システム及び楽曲ファイル作成ツール
JP2003050591A (ja) 演奏出力装置
JP2982563B2 (ja) Midi編集装置
KR0181483B1 (ko) 미디데이터와 코러스 데이터 합성방법
KR100270625B1 (ko) 콤팩트디스크 가요반주기에서의 엠펙 오디오 합성장치
KR101619878B1 (ko) I2s 전송 방식을 이용하여 dsd 오디오 파일을 재생하기 위한 장치 및 그 방법
WO2020208811A1 (ja) 再生制御装置、プログラムおよび再生制御方法
JP2002221971A (ja) カラオケ装置
JP4267513B2 (ja) カラオケ録音装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006542280

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 200580030875.5

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020077007377

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2005783672

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11666147

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2005783672

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11666147

Country of ref document: US