WO2023182003A1 - 電子楽器 - Google Patents

電子楽器 Download PDF

Info

Publication number
WO2023182003A1
WO2023182003A1 PCT/JP2023/009378 JP2023009378W WO2023182003A1 WO 2023182003 A1 WO2023182003 A1 WO 2023182003A1 JP 2023009378 W JP2023009378 W JP 2023009378W WO 2023182003 A1 WO2023182003 A1 WO 2023182003A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
signal
speaker
phase
listening point
Prior art date
Application number
PCT/JP2023/009378
Other languages
English (en)
French (fr)
Inventor
孝紘 大野
健太 井奥
健治 石塚
健一 田宮
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2023182003A1 publication Critical patent/WO2023182003A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Definitions

  • the present disclosure relates to electronic musical instruments.
  • Patent Document 1 discloses a technique for controlling the latency and frequency response (amplitude characteristics and phase characteristics) of an FIR (Finite Impulse Response) filter.
  • FIR Finite Impulse Response
  • one aspect of the present disclosure aims to adjust the amplitude spectrum of sound reaching a listening point from a plurality of speakers to have flat characteristics over a wide range within the audible band.
  • an electronic musical instrument includes: an operation reception unit that accepts performance operations; a first speaker installed above the operation reception unit; a second speaker installed below the section; a signal generating section that generates an original signal according to the performance operation received by the operation receiving section; a signal processing unit that generates a sound signal; and a signal processing unit that drives the first speaker to emit a first sound corresponding to the first sound signal, and drives the first speaker to emit a second sound corresponding to the second sound signal. and a drive unit that drives the second speaker, and the signal processing includes adjusting the phase of at least one of the first sound signal and the second sound signal, thereby adjusting the phase of the first sound signal at a predetermined listening point.
  • the method includes adjustment processing for bringing the phase of the sound and the phase of the second sound at the listening point closer to each other within an audible band.
  • An electronic musical instrument includes an operation reception unit that receives a performance operation, a signal generation unit that generates an original signal according to the performance operation received by the operation reception unit, and a signal processing unit that performs signal processing on the original signal. a signal processing unit that generates a first sound signal and a second sound signal; and a first speaker installed above the operation reception unit so as to emit a first sound according to the first sound signal.
  • the signal processing by adjusting the phase of at least one of the first sound signal and the second sound signal, the phase of the first sound at a predetermined listening point and the phase of the second sound at the listening point are within an audible band. This includes adjustment processing to bring the values closer to each other.
  • FIG. 3 is a front view and a side view of the electronic musical instrument.
  • FIG. 1 is a block diagram illustrating the electrical configuration of an electronic musical instrument.
  • FIG. 2 is a block diagram illustrating the functional configuration of an electronic musical instrument.
  • FIG. 3 is an explanatory diagram of a first frequency band and a second frequency band. This is the amplitude spectrum observed at the listening point.
  • FIG. 2 is a block diagram of an FIR filter. 3 is a flowchart of processing executed by the control device.
  • FIG. 3 is an explanatory diagram of the effects of the embodiment.
  • FIG. 2 is a block diagram illustrating the configuration of a signal processing section in a second embodiment.
  • FIG. 1 is a front view and a side view of an electronic musical instrument 100 according to a first embodiment.
  • the electronic musical instrument 100 is an electronic keyboard instrument that includes a keyboard 11 and a housing 12. Note that in the following description, three axes (X-axis, Y-axis, and Z-axis) that are orthogonal to each other are assumed.
  • the X-axis is an axis extending in the left-right direction (width direction) of the electronic musical instrument 100.
  • the Y-axis is an axis extending in the front-rear direction (depth direction) of the electronic musical instrument 100.
  • the Z-axis is an axis extending in the vertical direction (height direction) of the electronic musical instrument 100.
  • the Z axis corresponds to the vertical axis.
  • the keyboard 11 is composed of a plurality of keys 13 (white keys and black keys) corresponding to different pitches.
  • the plurality of keys 13 are arranged along the X axis. That is, the direction of the X-axis is the longitudinal direction of the keyboard 11.
  • the performer U plays a desired piece of music by sequentially operating each of the plurality of keys 13. That is, the keyboard 11 is an operation receiving section that receives performance operations by the player U. Performance operations include, for example, key depression and key release.
  • a reference plane C is assumed.
  • the reference plane C is a plane of symmetry of the electronic musical instrument 100.
  • the plane of symmetry is a virtual plane on which the electronic musical instrument 100 is symmetrical.
  • the reference plane C is a virtual plane orthogonal to the X-axis, and passes through the midpoint of the keyboard 11 in the direction of the X-axis.
  • the housing 12 is a structure that supports the keyboard 11.
  • the housing 12 includes a right arm tree 121, a left arm tree 122, a shelf board 123, an upper front board 124, a lower front board 125, and a top board 126 (roof).
  • the shelf board 123 is a plate-like member that supports the keyboard 11 from below.
  • a keyboard 11 and a shelf board 123 are installed between the right arm tree 121 and the left arm tree 122.
  • the upper front plate 124 and the lower front plate 125 are flat plates forming the front surface of the housing 12, and are installed parallel to the XZ plane.
  • the upper front plate 124 is located above the keyboard 11, and the lower front plate 125 is located below the keyboard 11.
  • the top plate 126 is a flat plate that constitutes the top surface of the housing 12.
  • FIG. 2 is a block diagram illustrating the electrical configuration of the electronic musical instrument 100.
  • the electronic musical instrument 100 includes a control device 21, a storage device 22, a detection device 23, and a playback device 24.
  • the control device 21 and the storage device 22 constitute a control system 20 that controls the operation of the electronic musical instrument 100.
  • the control system 20 is mounted on the electronic musical instrument 100, but the control system 20 may be configured separately from the electronic musical instrument 100.
  • the control system 20 may be realized by an information device such as a smartphone or a tablet terminal.
  • the control device 21 is one or more processors that control the operation of the electronic musical instrument 100. Specifically, for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), SPU (Sound Processing Unit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), or ASIC (Application Specific Integrated Circuit).
  • the control device 21 is configured by one or more types of processors such as the following.
  • the storage device 22 is one or more memories that store programs executed by the control device 21 and various data used by the control device 21.
  • a known recording medium such as a semiconductor recording medium and a magnetic recording medium, or a combination of multiple types of recording media is used as the storage device 22.
  • a portable recording medium that can be attached to and detached from the electronic musical instrument 100 or a recording medium that can be accessed by the control device 21 via a communication network (for example, cloud storage) may be used as the storage device 22. good.
  • the detection device 23 is a sensor unit that detects operations performed by the player U on the keyboard 11. Specifically, the detection device 23 outputs performance information E specifying the key 13 operated by the performer U among the plurality of keys 13 forming the keyboard 11.
  • the performance information E is, for example, MIDI (Musical Instrument Digital Interface) event data that specifies a number corresponding to the key 13 operated by the performer U.
  • the playback device 24 emits sound according to the player U's operations on the keyboard 11.
  • the reproduction device 24 includes a first speaker 31 and a second speaker 32.
  • the first speaker 31 and the second speaker 32 are installed in the housing 12.
  • the first speaker 31 is installed on the upper front plate 124 of the housing 12. That is, the first speaker 31 is located at a higher position than the keyboard 11 in the Z-axis direction.
  • the second speaker 32 is installed on the lower front plate 125 of the housing 12. That is, the second speaker 32 is located at a lower position than the keyboard 11 in the Z-axis direction.
  • the first speaker 31 is installed above the keyboard 11, and the second speaker 32 is installed below the keyboard 11.
  • the keyboard 11 is located between the first speaker 31 and the second speaker 32 when viewed from the Y-axis direction.
  • the first speaker 31 and the second speaker 32 they will be collectively referred to as "speaker 3."
  • the first speaker 31 is a stereo speaker including a first left speaker 31L and a first right speaker 31R.
  • the first left speaker 31L and the first right speaker 31R are installed on the upper front plate 124 with the central axis of the diaphragm parallel to the Y-axis.
  • the first left speaker 31L and the first right speaker 31R are installed with an interval in the X-axis direction.
  • the first left speaker 31L is located on the left side of the reference plane C
  • the first right speaker 31R is located on the right side of the reference plane C.
  • the first left speaker 31L and the first right speaker 31R are located at the same distance from the reference plane C.
  • the second speaker 32 is a stereo speaker including a second left speaker 32L and a second right speaker 32R.
  • the second left speaker 32L and the second right speaker 32R are installed on the lower front plate 125 with the central axis of the diaphragm parallel to the Y-axis.
  • the second left speaker 32L and the second right speaker 32R are installed on the lower front plate 125 with an interval in the X-axis direction.
  • the second left speaker 32L is located on the left side of the reference plane C
  • the second right speaker 32R is located on the right side of the reference plane C.
  • the second left speaker 32L and the second right speaker 32R are located at the same distance from the reference plane C.
  • the space (upper front plate 124) where the first left speaker 31L and the first right speaker 31R are installed is narrower than the space (lower front plate 125) where the second left speaker 32L and second right speaker 32R are installed.
  • the first left speaker 31L and the first right speaker 31R have a smaller diameter than the second left speaker 32L and the second right speaker 32R.
  • there is a sound frequency band B1 that can be emitted by the first speaker 31 hereinafter referred to as "first frequency band”
  • second frequency band a sound frequency band that can be emitted by the second speaker 32
  • the first frequency band B1 and the second frequency band B2 are within the audible band.
  • the audible band is, for example, in the range of 20 Hz or more and 20 kHz or less.
  • the first frequency band B1 is a band higher than the second frequency band B2.
  • the first frequency band B1 and the second frequency band B2 partially overlap with each other. That is, a portion of the first frequency band B1 and a portion of the second frequency band B2 overlap with each other.
  • the frequency b1 at the lower end of the first frequency band B1 is located within the second frequency band B2
  • the frequency b2 at the upper end of the second frequency band B2 is located within the first frequency band B1.
  • FIG. 4 shows a frequency band W in which the first frequency band B1 and the second frequency band B2 mutually overlap (hereinafter referred to as "overlapping band").
  • the overlapping band W is a frequency band of a predetermined width within the audible band.
  • the listening point P is a point where the sound emitted from each speaker 3 is mainly heard, and is set at a position spaced apart from the housing 12 of the electronic musical instrument 100.
  • the listening point P is a point corresponding to the head of the player U who plays the electronic musical instrument 100.
  • the midpoint of both ear holes for a player U of standard height is exemplified as the listening point P. That is, the listening point P is located in front of the electronic musical instrument 100 (in the positive direction of the Y-axis).
  • the position of the listening point P on the X-axis is within the range Rx.
  • the range Rx includes the reference plane C and has a width of about 1 m (for example, the reference plane C ⁇ 0.5 m).
  • the listening point P is located on the reference plane C.
  • the position of the listening point P on the Y-axis is within a range Ry spaced apart from the electronic musical instrument 100 in the positive direction of the Y-axis.
  • the range Ry is, for example, a range where the distance from the front end of the keyboard 11 is 1 m or less.
  • the front end of the keyboard 11 is the end of each white key located in the positive direction of the Y-axis.
  • the position of the listening point P on the Z-axis is within a range Rz spaced apart in the positive direction of the Z-axis from the floor surface on which the electronic musical instrument 100 is installed (hereinafter referred to as the "installation surface").
  • the range Rz is, for example, a range in which the distance from the installation surface is 1 m or more and 1.5 m or less.
  • the observed values at a plurality of listening points arranged within the above range may be averaged.
  • the observed values may be weighted and averaged so that the measured value at the listening point near the center of the range is given more weight.
  • a plurality of listening points may be arranged so that the center of the range is densely arranged.
  • the listening point P is located above the keyboard 11. That is, the listening point P is located higher than the surface of the keyboard 11. Therefore, the distance D1 from the first speaker 31 to the listening point P is different from the distance D2 from the second speaker 32 to the listening point P. Specifically, distance D2 exceeds distance D1 (D2>D1).
  • control device 21 has a plurality of functions (signal generation unit 41 , signal processing section 42, and driving section 43).
  • the signal generation unit 41 generates the original signal Q0.
  • the original signal Q0 is a sound signal corresponding to a performance operation received from the player U by the keyboard 11.
  • the original signal Q0 is a stereo signal composed of two left and right channels.
  • the signal generation section 41 is a MIDI sound source that generates an original signal Q0 according to the performance information E outputted by the detection device 23. That is, the original signal Q0 is a signal representing the waveform of one or more pitches corresponding to the keys 13 operated by the performer U.
  • the signal generation unit 41 is, for example, a software sound source realized by the control device 21 executing a sound source program, or a hardware sound source realized by an electronic circuit dedicated to generating the original signal Q0.
  • the signal processing unit 42 generates a first sound signal Q1 and a second sound signal Q2 by signal processing the original signal Q0.
  • the first sound signal Q1 is a stereo signal composed of two left and right channels.
  • the second sound signal Q2 is a stereo signal composed of two left and right channels.
  • the drive unit 43 drives the playback device 24. Specifically, the drive unit 43 drives the first speaker 31 so as to emit a sound (hereinafter referred to as "first sound") according to the first sound signal Q1. Further, the drive unit 43 drives the second speaker 32 so as to emit a second sound (hereinafter referred to as "second sound”) according to the second sound signal Q2.
  • first sound a sound
  • second sound a second sound
  • the drive unit 43 includes a D/A converter that converts the first sound signal Q1 and the second sound signal Q2 from digital to analog, and an amplifier that amplifies the first sound signal Q1 and the second sound signal Q2. and.
  • the drive unit 43 outputs a first output signal O1 generated from the first sound signal Q1 to the first speaker 31, and outputs a second output signal O2 generated from the second sound signal Q2 to the second speaker 32.
  • the first output signal O1 is a stereo signal of two left and right channels representing the waveform of the first sound
  • the second output signal O2 is a stereo signal of two left and right channels representing the waveform of the second sound.
  • the first speaker 31 emits the first sound in the first frequency band B1
  • the second speaker 32 emits the second sound in the second frequency band B2.
  • FIG. 5 shows the amplitude spectrum of the sound observed at the listening point P.
  • the amplitude spectrum F1 of the first sound reaching the listening point P from the first speaker 31 and the amplitude spectrum F2 of the second sound reaching the listening point P from the second speaker 32 are illustrated in FIG.
  • Comparative ratio 1 is a form in which signal processing by the signal processing unit 42 is not performed. That is, in Comparative Example 1, the original signal Q0 is commonly supplied to the first speaker 31 and the second speaker 32.
  • the first sound emitted from the first speaker 31 reaches the listening point P after being reflected on the surface of the upper front plate 124 or the surface of the keyboard 11, etc.
  • the second sound emitted from the second speaker 32 reaches the listening point P after being reflected on the surface of the lower front plate 125, the lower surface of the shelf board 123, the installation surface, etc. That is, due to the difference in the positional relationship (i.e., asymmetry) of each speaker 3 with respect to the keyboard 11, the transfer characteristics from the first speaker 31 to the listening point P and the transfer characteristics from the second speaker 32 to the listening point P are different. differ.
  • the distance D1 from the first speaker 31 to the listening point P is different from the distance D2 from the second speaker 32 to the listening point P. Furthermore, the phase characteristics of the first speaker 31 and the second speaker 32 are different due to differences in the size or mechanical/electrical characteristics of the diaphragms. That is, even when a common signal is supplied to the first speaker 31 and the second speaker 32, the frequency characteristics of the sound radiated by the first speaker 31 and the sound radiated by the second speaker 32 are different.
  • phase characteristics differ due to a complex combination of various factors including the phase characteristics of .
  • a common original signal Q0 is supplied to the first speaker 31 and the second speaker 32
  • the phase characteristics of the first sound at the listening point P and the phase characteristics of the first sound at the listening point P are significantly different.
  • the signal processing performed by the signal processing unit 42 of the first embodiment is to adjust the phase of at least one of the first sound signal Q1 and the second sound signal Q2, thereby adjusting the phase of the first sound at the listening point P and the phase of the first sound at the listening point P. This process brings the phase of the second sound in P closer to each other within the audible band.
  • the specific configuration and operation of the signal processing section 42 will be described in detail below.
  • the signal processing section 42 in FIG. 3 includes a first filter 421 and a second filter 422.
  • the first filter 421 generates the first sound signal Q1 by processing the original signal Q0.
  • the second filter 422 generates a second sound signal Q2 by processing the original signal Q0.
  • Each of the first filter 421 and the second filter 422 includes a FIR (Finite Impulse Response) filter 50 illustrated in FIG. 6 .
  • the FIR filter 50 includes (N-1) delay sections 51[1] to 51[N-1], N multiplication sections 52[1] to 52[N], and one addition section 53. .
  • the original signal Q0 is input as the signal A[1] to the first stage delay unit 51[1].
  • the signal A[n+1] output from the delay section 51[n] is supplied to the next stage delay section 51[n+1] and multiplication section 52[n+1].
  • Adder 53 adds N signals B[1] to B[N] generated by each multiplier 52[n].
  • the adder 53 of the first filter 421 generates the first sound signal Q1
  • the adder 53 of the second filter 422 generates the second sound signal Q2.
  • the FIR filter 50 is a filter that convolves a plurality of coefficients (ie, a predetermined frequency response) on a signal to be processed.
  • the signal processing by the signal processing unit 42 includes bandpass filter processing, delay processing, and adjustment processing.
  • Each of the bandpass filter processing, delay processing, and adjustment processing is realized by one or both of the first filter 421 and the second filter 422. That is, the bandpass filter processing, delay processing, and adjustment processing are realized by the FIR filter 50 illustrated in FIG.
  • Bandpass filter processing is processing that makes the frequency band of the first sound signal Q1 and the frequency band of the second sound signal Q2 different.
  • the band filter processing includes a process in which the first filter 421 extracts the component of the first frequency band B1 from the first sound signal Q1, and a process in which the second filter 422 extracts the component in the second frequency band B2 from the second sound signal Q2. and a process of extracting the components of.
  • the bandpass filter processing includes processing for suppressing peaks in the frequency responses of the first speaker 31 and the second speaker 32 (equalizing processing). As described above, the first frequency band B1 and the second frequency band B2 overlap each other within the overlapping band W.
  • the frequency band of the first sound signal Q1 and the first frequency band B1 of the first speaker 31 may be different. Further, the frequency band of the second sound signal Q2 and the second frequency band B2 of the second speaker 32 may be different. Note that the process of suppressing peaks in the frequency responses of the first speaker 31 and the second speaker 32 may be performed as signal processing separate from the bandpass filter process.
  • the delay process is a process of delaying one of the first sound signal Q1 and the second sound signal Q2 with respect to the other.
  • the delay process is a first delay caused by the difference between the distance D1 from the first speaker 31 to the listening point P and the distance D2 from the second speaker 32 to the listening point P (hereinafter referred to as "distance difference").
  • This is a process for reducing the phase difference between the sound and the second sound.
  • the phase difference between the first sound and the second sound due to the distance difference is the slope of the phase difference in the overlapping band W.
  • the distance D2 from the second speaker 32 to the listening point P exceeds the distance D1 from the first speaker 31 to the listening point P (D2>D1).
  • the first sound signal Q1 is delayed with respect to the second sound signal Q2 by a time length corresponding to the distance difference (D2-D1).
  • the adjustment process adjusts the phase of at least one of the first sound signal Q1 and the second sound signal Q2, so that the phase of the first sound at the listening point P and the phase of the second sound at the listening point P are within the audible band.
  • This is a process of bringing the two parts closer to each other. That is, the fine phase difference remaining between the two phases whose slopes have been made almost the same by the delay processing approaches zero in the impulse response by the adjustment processing.
  • the adjustment process adjusts the phase of at least one of the first sound signal Q1 and the second sound signal Q2 to create an overlapping band in which the first frequency band B1 and the second frequency band B2 mutually overlap.
  • the adjustment process is a process of bringing the phase of the first sound and the phase of the second sound closer to each other at each frequency within the overlapping band W.
  • N coefficients K[1] to K[N] in each of the first filter 421 and the second filter 422 are set so that conditions 1 to 3 below are satisfied.
  • N coefficients K[1] to K[N] are set according to the observation results.
  • the frequency response of the transmission system from the input of the original signal Q0 to the signal processing unit 42 to the listening point P (observation point) is observed.
  • N coefficients K[1] to K[N] are stored in the storage device 22.
  • - Condition 1 band filter processing: The frequency band of the first sound signal Q1 and the frequency band of the second sound signal Q2 are different.
  • - Condition 2 delay processing: The first sound signal Q1 is delayed with respect to the second sound signal Q2 by a delay time corresponding to the distance difference (D2-D1).
  • Condition 3 (adjustment process): The phase of the first sound at the listening point P and the phase of the second sound at the listening point P approach each other within the overlapping band W (ideally, they match).
  • the specific procedure for setting the N coefficients K[1] to K[N] is as follows. (1) Determine the characteristics of bandpass filter processing and measure the frequency responses of the two transmission systems. (2) Regarding the phase components of the observed two-frequency response, calculate the phase difference in the overlapping band W. (3) Depending on the slope of the phase difference, determine the side to which a delay is to be added and its time length. (4) Depending on the overall flat phase difference after delay adjustment, determine an impulse response that brings the difference closer to zero. (5) Determine N coefficients K[1] to K[N] from the characteristics, delay characteristics, and impulse response of the bandpass filter.
  • FIG. 7 is a flowchart of the processing executed by the control device 21. For example, the process shown in FIG. 7 is started when the player U operates the keyboard 11.
  • the control device 21 When the process starts, the control device 21 (signal generation unit 41) generates the original signal Q0 according to the performance operation by the player U (S1).
  • the control device 21 (signal processing section 42) generates a first sound signal Q1 and a second sound signal Q2 by signal processing on the original signal Q0 (S2).
  • the signal processing includes bandpass filter processing, delay processing, and adjustment processing.
  • the control device 21 (driving unit 43) drives the first speaker 31 to emit a first sound according to the first sound signal Q1, and to emit a second sound according to the second sound signal Q2.
  • the second speaker 32 is driven (S3).
  • the phase characteristics of the first sound at the listening point P and the phase characteristics of the second sound at the listening point P are significantly different. Therefore, there is a possibility that the component of a specific frequency of the first sound and the component of that frequency of the second sound weaken each other at the listening point P, and the sound pressure perceived by the performer U locally decreases at the frequency. There is. In the above situation, a large dip occurs in the volume heard by the performer U at a specific frequency due to the interference of sounds from the upper and lower speakers.
  • the phase of the first sound reaching the listening point P from the first speaker 31 and the phase of the second sound reaching the listening point P from the second speaker 32 are Adjustment processing is performed to bring these closer to each other within the audible band. Therefore, as understood from the amplitude spectrum Ft of the first embodiment, a local decrease in sound pressure caused by interference between the first sound and the second sound is suppressed. That is, the amplitude spectrum Ft of the sound reaching the listening point P from the first speaker 31 and the second speaker 32 can be adjusted to have a flat characteristic over a wide range within the audible band. Therefore, it is possible to reduce the dip in the volume heard by the performer U at a specific frequency.
  • the first embodiment is an embodiment in which signal processing including adjustment processing is realized by the FIR filter 50.
  • Comparative Example 2 in FIG. 5 is a form in which signal processing (specifically, bandpass filter processing and delay processing) that does not include adjustment processing is realized using an IIR (Infinite Impulse Response) filter.
  • IIR Infinite Impulse Response
  • the local decrease in sound pressure caused by interference between the first sound and the second sound is improved by signal processing using an IIR filter when compared with Comparative Example 1.
  • the phase cannot be freely adjusted. Therefore, in Comparison Example 2, a local decrease in sound pressure due to interference between the first sound and the second sound is still observed at the listening point P, as indicated by the arrow in FIG. That is, in Comparative Example 2, it is not possible to sufficiently reduce the dip at a specific frequency in the volume heard by the performer U.
  • signal processing including adjustment processing is realized by the FIR filter 50.
  • the FIR filter 50 by adjusting N coefficients K[1] to K[N], the phase for each frequency can be changed with high precision. That is, it is possible to bring the phase of the first sound and the phase of the second sound close to each other with high precision over a wide range within the audible band. Therefore, as understood from FIG. 5, according to the first embodiment, a local decrease in sound pressure caused by interference between the first sound and the second sound is suppressed compared to Comparative Example 2. . That is, according to the first embodiment, it is possible to sufficiently reduce the dip at a specific frequency in the volume heard by the performer U.
  • the first sound signal Q1 is Alternatively, a delay is added to the second sound signal Q2 (delay processing). Therefore, despite the configuration in which the distance D1 and the distance D2 are different, it is possible to bring the phase of the first sound and the phase of the second sound close to each other at the listening point P with high precision.
  • FIG. 8 shows the results of observing the sound pressure in the space in front of the electronic musical instrument 100. Specifically, FIG. 8 illustrates the distribution of sound pressure within the reference plane C for each of Comparative Example 2 and the first embodiment. Observation results are also listed for each of a plurality of frequencies (500Hz, 800Hz, 1200Hz) within the audible band.
  • the dark gradation area is an area where the absolute value of sound pressure is large within the range of negative numbers
  • the light gradation area is an area where the absolute value of sound pressure is large within the range of positive numbers.
  • the change in sound pressure over time is sufficiently small compared to the surrounding regions. That is, in comparison example 2, an area ⁇ occurs where the volume heard by the performer U is locally low.
  • the sound pressure changes over a wide range around the listening point P over time. That is, according to the first embodiment, the occurrence of a region ⁇ where the volume locally decreases is suppressed.
  • Comparison Example 2 As can be understood from the measurement results at 800 Hz, there are areas of high sound pressure (light gradation) and areas of low sound pressure (dark gradation) on the circumference around the electronic musical instrument 100. There is a mixture of That is, in Comparative Example 2, the wavefront of the sound emitted from the electronic musical instrument 100 is in a disordered state. Therefore, there is a problem in that the volume perceived by the player U changes even if the player U's head moves slightly. In contrast to Comparison 2, only one of a high sound pressure region and a low sound pressure region exists on the circumference around the electronic musical instrument 100 in the first embodiment.
  • the wavefront of the sound emitted from the electronic musical instrument 100 travels in a concentrically aligned state. Therefore, even if the player U's head moves slightly, the volume perceived by the player U is unlikely to change. Further, for example, a listener located behind the performer U (in the positive direction of the Y-axis) can also hear the performance sound in the same way as the performer U.
  • FIG. 9 is a block diagram illustrating the configuration of the signal processing section 42 in the second embodiment.
  • the signal processing section 42 of the second embodiment includes a delay section 423 in addition to a first filter 421 and a second filter 422 similar to those of the first embodiment.
  • the delay unit 423 is an element that implements the above-described delay processing. That is, the delay unit 423 reduces the phase difference between the first sound and the second sound caused by the distance difference between the distance D1 and the distance D2.
  • the delay unit 423 delays the original signal Q0 by a delay time corresponding to the distance difference (D2-D1) between the distance D2 and the distance D1.
  • the larger the distance difference (D2-D1) the larger the delay time by the delay unit 423 is set.
  • the original signal Q0 after being delayed by the delay section 423 is supplied to the first filter 421. That is, the delay unit 423 delays the first sound signal Q1 with respect to the second sound signal Q2.
  • the difference in the phase characteristics between the first sound and the second sound at the listening point P includes the difference in the transfer characteristics from each speaker to the listening point P, including the distance difference (D2-D1), and the difference in the phase characteristics between each speaker.
  • the FIR filter 50 in the second embodiment functions to reduce the difference in phase between the first sound and the second sound due to differences in transfer characteristics, differences in phase characteristics of each speaker, and the like. That is, in the first embodiment, both the delay processing and the adjustment processing are implemented by the FIR filter 50, whereas in the second embodiment, the delay processing is implemented by the delay section 423, and the adjustment processing is implemented by the FIR filter 50. This is realized by
  • the same effects as in the first embodiment are achieved in the second embodiment as well. Furthermore, in the second embodiment, since the delay processing is implemented by the delay unit 423, the scale of the FIR filter 50 can be reduced. Specifically, the number of taps of the FIR filter 50 is reduced, and as a result, the consumption of resources (for example, the amount of calculation, memory, and power) in the electronic musical instrument 100 is reduced.
  • the configuration in which the electronic musical instrument 100 includes the first speaker 31 and the second speaker 32 is illustrated, but a configuration in which the electronic musical instrument 100 further includes another speaker 3 is also assumed.
  • the number of speakers 3 (number of channels) included in the electronic musical instrument 100 is arbitrary. Among the plurality of speakers 3, one speaker 3 located above the keyboard 11 corresponds to a "first speaker”, and one speaker 3 located below the keyboard 11 corresponds to a "second speaker”.
  • the first speaker 31 has a smaller diameter than the second speaker 32, but the diameter between the first speaker 31 and the second speaker 32 can be set arbitrarily. be.
  • a configuration in which the first speaker 31 has a larger diameter than the second speaker 32, or a configuration in which the first speaker 31 and the second speaker 32 have the same diameter is also assumed.
  • the listening point P is not limited to a point corresponding to the head of the performer U.
  • a position corresponding to the listener's head is exemplified as the listening point P.
  • the listening point P is comprehensively expressed as a point where the first sound and the second sound are to be heard, and has a predetermined positional relationship with respect to the electronic musical instrument 100 (especially each speaker 3). It is also expressed as a point located in
  • the signal processing including bandpass filter processing, delay processing, and adjustment processing is realized by the FIR filter 50, but the above signal processing can be performed using other formats such as an IIR filter. It may be realized by a filter. That is, Comparative Example 2 described above is included within the scope of the present disclosure.
  • Electronic musical instruments to which the present disclosure is applied are not limited to the electronic keyboard instruments exemplified in each of the above embodiments.
  • the present disclosure is applicable to various electronic musical instruments such as electronic percussion instruments or electronic wind instruments.
  • the "operation reception unit" is comprehensively expressed as an element that accepts performance operations, and the keyboard 11 in each of the above embodiments is an example of the "operation reception unit.”
  • the concept of the "operation reception section" includes a head that the player U hits with a striking member (for example, a stick) in an electronic percussion instrument, a key that the player U operates in an electronic wind instrument, and the like.
  • the functions of the electronic musical instrument 100 (control system 20) according to each of the above-mentioned embodiments are performed by the cooperation between one or more processors constituting the control device 21 and the program stored in the storage device 22.
  • the programs exemplified above may be provided in a form stored in a computer-readable recording medium and installed on a computer.
  • the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but any known recording medium such as a semiconductor recording medium or a magnetic recording medium is used. Also included are recording media in the form of.
  • non-transitory recording medium includes any recording medium excluding transitory, propagating signals, and does not exclude volatile recording media. Furthermore, in a configuration in which a distribution device distributes a program via a communication network, a recording medium that stores a program in the distribution device corresponds to the above-mentioned non-transitory recording medium.
  • An electronic musical instrument includes an operation reception part that receives a performance operation, a first speaker installed above the operation reception part, and a first speaker installed below the operation reception part. a second speaker installed in the second speaker, a signal generation unit that generates an original signal according to the performance operation received by the operation reception unit, and generates a first sound signal and a second sound signal by signal processing the original signal. a signal processing unit that drives the first speaker to emit a first sound corresponding to the first sound signal, and a second speaker that drives the first speaker to emit a second sound corresponding to the second sound signal.
  • the signal processing includes adjusting the phase of at least one of the first sound signal and the second sound signal, thereby adjusting the phase of the first sound at a predetermined listening point and the phase of the first sound at a predetermined listening point. This includes adjustment processing for bringing the phase of the second sound at the listening point closer to each other within the audible band.
  • adjustment processing is performed to bring the phase of the first sound reaching the listening point from the first speaker and the phase of the second sound reaching the listening point from the second speaker closer to each other within the audible band. be done. Therefore, the possibility that the sound pressure at a specific frequency will locally decrease due to interference between the first sound and the second sound at the listening point is reduced. That is, the amplitude spectrum of the sound reaching the listening point from the first speaker and the second speaker can be adjusted to have flat characteristics over a wide range within the audible band.
  • the "operation reception unit” is, for example, a keyboard that accepts key presses by the user in an electronic keyboard instrument, a head that the user hits with a striking member (for example, a stick) in an electronic percussion instrument, or a key that the user operates in an electronic wind instrument. etc. are included in the concept of "operation reception unit".
  • “Above the operation reception section” means that the position of the first speaker in the vertical direction is higher than the operation reception section, and is not limited to being directly above the operation reception section.
  • “below the operation reception section” means that the position of the second speaker in the vertical direction is lower than the operation reception section, and is not limited to being directly below the operation reception section.
  • the sound emitted from the first speaker reaches the listening point after being reflected, for example, at the operation reception section or an element located above it.
  • the sound emitted from the second speaker reaches the listening point after being reflected, for example, at the operation reception section or an element located below it.
  • the "original signal” is a signal that represents a sound waveform in response to an operation on the operation reception unit.
  • a signal representing a waveform of a sound with a pitch specified by an operation on the operation reception unit and a signal representing a waveform of a sound generated in response to an operation on the operation reception unit are exemplified as the “original signal”.
  • the concept of "original signal” also includes an operation signal (for example, a MIDI signal) representing the content of a performance operation.
  • the first sound signal and the second sound signal are two systems of signals generated from the original signal.
  • the relationship between the first sound signal and the second sound signal is arbitrary.
  • the first sound signal and the second sound signal are signals with different frequency bands.
  • the first sound signal and the second sound signal may be signals having common frequency characteristics.
  • a “listening point” is a point that has a specific spatial or planar positional relationship with respect to the electronic musical instrument. Specifically, the point where the head of the performer who performs the performance operation is located, the point where the head of the listener who listens to the sound of the electronic musical instrument is located (for example, a point behind the performer), etc. ⁇ listening point''. For example, the point of the ear canal of the performer or the listener or the midpoint between the left and right ear canals is exemplified as the "listening point.” For example, in a keyboard instrument, a “listening point” is assumed to be within a plane that passes through the center of the keyboard in the longitudinal direction and is perpendicular to the longitudinal direction.
  • the operation reception unit accepts a performance operation by a player
  • the listening point is a point corresponding to the head of the player.
  • the amplitude spectrum of the sound heard by the player of the electronic musical instrument can be adjusted to have flat characteristics over a wide range within the audible band.
  • the adjustment process is realized using an FIR filter.
  • An FIR filter can change the phase of a signal for each frequency with higher accuracy than, for example, an IIR filter. Therefore, according to the configuration in which the adjustment process is realized by an FIR filter, it is possible to bring the phase of the first sound and the phase of the second sound close to each other with high precision over a wide range within the audible band.
  • the FIR filter is a filter that convolves a signal to be processed with a plurality of coefficients (ie, a predetermined frequency response). A plurality of coefficients of the FIR filter are set so that the phase of the first sound and the phase of the second sound approach each other at the listening point.
  • a first distance from the first speaker to the listening point is different from a second distance from the second speaker to the listening point
  • the signal processing includes delay processing for delaying one of the first sound signal and the second sound signal.
  • the first sound signal or the second sound signal is transmitted to the first sound signal or the second sound signal for a time period corresponding to the difference between the first distance from the first speaker to the listening point and the second distance from the second speaker to the listening point. A delay is given. Therefore, even in a configuration where the first distance and the second distance are different, it is possible to bring the phase of the first sound and the phase of the second sound close to each other with high precision at the listening point.
  • the delay time due to delay processing is affected by various factors in a complex manner, such as the relationship between the phase characteristics of the first speaker and the phase characteristics of the second speaker, and the difference between the first distance and the second distance.
  • the operation reception unit is a keyboard on which a plurality of keys are arranged, and the first speaker is configured to output the first sound in a first frequency band. radiating, the second speaker emits the second sound in a second frequency band, the first frequency band and the second frequency band partially overlap each other, and the adjustment process includes: By adjusting the phase of at least one of the first sound signal and the second sound signal, the first sound signal at the listening point is This is a process of bringing the phase of the sound and the phase of the second sound at the listening point closer to each other.
  • the amplitude spectrum of musical tones that a player of a keyboard instrument listens to while playing can be adjusted to have a flat characteristic over a wide range within the audible band.
  • An electronic musical instrument includes: an operation reception unit that accepts a performance operation; a signal generation unit that generates an original signal according to the performance operation received by the operation reception unit; a signal processing section that generates a first sound signal and a second sound signal through signal processing of the signal; and a signal processing section that is installed above the operation reception section so as to emit a first sound corresponding to the first sound signal.
  • the signal processing adjusts the phase of at least one of the first sound signal and the second sound signal, thereby adjusting the phase of the first sound at a predetermined listening point and the phase of the second sound at the listening point. This includes an adjustment process that brings the signals closer to each other within the audible band.
  • Second speaker 32L...Second left speaker, 32R...Second right speaker, 41...Signal generation section, 42...Signal processing section, 421...First filter, 422...Second filter, 423...Delay section, 43...Drive section, 50 ...FIR filter, 51[1] to 51[N-1]...delay section, 52[1] to 52[N]...multiplication section, 53...addition section.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Stereophonic System (AREA)

Abstract

電子楽器100は、演奏操作を受付ける鍵盤と、鍵盤に対して上方に設置された第1スピーカ31と、鍵盤11に対して下方に設置された第2スピーカ32と、鍵盤が受付けた演奏操作に応じた原信号Q0を生成する信号生成部41と、原信号Q0に対する信号処理により第1音信号Q1と第2音信号Q2とを生成する信号処理部42と、第1音信号Q1に応じた第1音を放射するように第1スピーカ31を駆動し、第2音信号Q2に応じた第2音を放射するように第2スピーカ32を駆動する駆動部43とを具備し、信号処理は、第1音信号Q1および第2音信号Q2の少なくとも一方の位相を調整することで、所定の受聴点における第1音の位相と受聴点における第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む。

Description

電子楽器
 本開示は、電子楽器に関する。
 音響信号の周波数特性を制御するための各種の技術が従来から提案されている。例えば特許文献1には、FIR(Finite Impulse Response)フィルタのレイテンシおよび周波数レスポンス(振幅特性および位相特性)を制御する技術が開示されている。
特開2021-57734号公報
 ところで、例えば鍵盤楽器等の電子楽器においては、演奏者による演奏操作に対応する音が複数のスピーカから放射される。スピーカから放射された音が演奏者等の受聴者の耳に到達するまでの伝達特性は、スピーカ毎に相違する。したがって、各スピーカから受聴者の耳に到達する音が相互に弱め合い、受聴者が知覚する音圧が特定の周波数において局所的に低下する可能性がある。以上の事情を考慮して、本開示のひとつの態様は、複数のスピーカから受聴点に到達する音の振幅スペクトルを、可聴帯域内の広範囲にわたりフラットな特性に調整することを目的とする。
 以上の課題を解決するために、本開示のひとつの態様に係る電子楽器は、演奏操作を受付ける操作受付部と、前記操作受付部に対して上方に設置された第1スピーカと、前記操作受付部に対して下方に設置された第2スピーカと、前記操作受付部が受付けた演奏操作に応じた原信号を生成する信号生成部と、前記原信号に対する信号処理により第1音信号と第2音信号とを生成する信号処理部と、前記第1音信号に応じた第1音を放射するように前記第1スピーカを駆動し、前記第2音信号に応じた第2音を放射するように前記第2スピーカを駆動する駆動部とを具備し、前記信号処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、所定の受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む。
 本開示の他の態様に係る電子楽器は、演奏操作を受付ける操作受付部と、前記操作受付部が受付けた演奏操作に応じた原信号を生成する信号生成部と、前記原信号に対する信号処理により第1音信号と第2音信号とを生成する信号処理部と、前記第1音信号に応じた第1音を放射するように、前記操作受付部に対して上方に設置された第1スピーカを駆動し、前記第2音信号に応じた第2音を放射するように、前記操作受付部に対して下方に設置された第2スピーカを駆動する駆動部とを具備し、前記信号処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、所定の受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む。
電子楽器の正面図および側面図である。 電子楽器の電気的な構成を例示するブロック図である。 電子楽器の機能的な構成を例示するブロック図である。 第1周波数帯域および第2周波数帯域の説明図である。 受聴点において観測される振幅スペクトルである。 FIRフィルタのブロック図である。 制御装置が実行する処理のフローチャートである。 実施形態の効果の説明図である。 第2実施形態における信号処理部の構成を例示するブロック図である。
A:第1実施形態
 図1は、第1実施形態に係る電子楽器100の正面図および側面図である。電子楽器100は、鍵盤11と筐体12とを具備する電子鍵盤楽器である。なお、以下の説明においては、相互に直交する3軸(X軸,Y軸,Z軸)を想定する。X軸は、電子楽器100の左右方向(幅方向)に延在する軸線である。Y軸は、電子楽器100の前後方向(奥行方向)に延在する軸線である。Z軸は、電子楽器100の上下方向(高さ方向)に延在する軸線である。Z軸は鉛直軸に相当する。
 鍵盤11は、相異なる音高に対応する複数の鍵13(白鍵および黒鍵)で構成される。複数の鍵13は、X軸に沿って配列される。すなわち、X軸の方向は、鍵盤11の長手方向である。演奏者Uは、複数の鍵13の各々を順次に操作することで所望の楽曲を演奏する。すなわち、鍵盤11は、演奏者Uによる演奏操作を受付ける操作受付部である。演奏操作は、例えば押鍵および離鍵である。なお、以下の説明においては、基準面Cを想定する。基準面Cは、電子楽器100の対称面である。対称面は、電子楽器100が面対称となる仮想的な平面である。具体的には、基準面Cは、X軸に直交する仮想的な平面であり、X軸の方向における鍵盤11の中点を通過する。
 筐体12は、鍵盤11を支持する構造体である。具体的には、筐体12は、右腕木121と左腕木122と棚板123と上前板124と下前板125と天板126(屋根)とを具備する。棚板123は、鍵盤11を下方から支持する板状部材である。右腕木121と左腕木122との間に鍵盤11および棚板123が設置される。上前板124および下前板125は、筐体12の前面を構成する平板材であり、XZ平面に平行に設置される。上前板124は鍵盤11の上方に位置し、下前板125は鍵盤11の下方に位置する。天板126は、筐体12の天面を構成する平板材である。
 図2は、電子楽器100の電気的な構成を例示するブロック図である。電子楽器100は、制御装置21と記憶装置22と検出装置23と再生装置24とを具備する。制御装置21および記憶装置22は、電子楽器100の動作を制御する制御システム20を構成する。なお、第1実施形態においては、制御システム20が電子楽器100に搭載された形態を例示するが、制御システム20は電子楽器100とは別体で構成されてもよい。例えばスマートフォンまたはタブレット端末等の情報装置により、制御システム20が実現されてもよい。
 制御装置21は、電子楽器100の動作を制御する単数または複数のプロセッサである。具体的には、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより、制御装置21が構成される。
 記憶装置22は、制御装置21が実行するプログラムと、制御装置21が使用する各種のデータとを記憶する単数または複数のメモリである。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置22として利用される。なお、例えば、電子楽器100に対して着脱される可搬型の記録媒体、または、制御装置21が通信網を介してアクセス可能な記録媒体(例えばクラウドストレージ)が、記憶装置22として利用されてもよい。
 検出装置23は、鍵盤11に対する演奏者Uからの操作を検出するセンサユニットである。具体的には、検出装置23は、鍵盤11を構成する複数の鍵13のうち演奏者Uが操作した鍵13を指定する演奏情報Eを出力する。演奏情報Eは、例えば演奏者Uが操作した鍵13に対応する番号を指定するMIDI(Musical Instrument Digital Interface)のイベントデータである。
 再生装置24は、鍵盤11に対する演奏者Uからの操作に応じた音を放射する。図3に例示される通り、再生装置24は、第1スピーカ31と第2スピーカ32とを具備する。第1スピーカ31および第2スピーカ32は筐体12に設置される。図1に例示される通り、第1スピーカ31は、筐体12の上前板124に設置される。すなわち、第1スピーカ31は、Z軸の方向において鍵盤11よりも高い位置にある。他方、第2スピーカ32は、筐体12の下前板125に設置される。すなわち、第2スピーカ32は、Z軸の方向において鍵盤11よりも低い位置にある。以上の説明から理解される通り、第1スピーカ31は鍵盤11の上方に設置され、第2スピーカ32は鍵盤11の下方に設置される。すなわち、Y軸の方向からみて第1スピーカ31と第2スピーカ32との間に鍵盤11が位置する。なお、以下の説明において第1スピーカ31と第2スピーカ32とを特に区別する必要がない場合には両者を「スピーカ3」と総称する。
 第1スピーカ31は、第1左スピーカ31Lと第1右スピーカ31Rとを含むステレオスピーカである。第1左スピーカ31Lおよび第1右スピーカ31Rは、振動板の中心軸がY軸に平行な状態で上前板124に設置される。第1左スピーカ31Lと第1右スピーカ31Rとは、X軸の方向に間隔をあけて設置される。具体的には、電子楽器100の正面からみて、第1左スピーカ31Lは基準面Cの左側に位置し、第1右スピーカ31Rは基準面Cの右側に位置する。第1左スピーカ31Lおよび第1右スピーカ31Rは、基準面Cから等距離に位置する。
 第2スピーカ32は、第2左スピーカ32Lと第2右スピーカ32Rとを含むステレオスピーカである。第2左スピーカ32Lおよび第2右スピーカ32Rは、振動板の中心軸がY軸に平行な状態で下前板125に設置される。第2左スピーカ32Lと第2右スピーカ32Rとは、X軸の方向に間隔をあけて下前板125に設置される。具体的には、電子楽器100の正面からみて、第2左スピーカ32Lは基準面Cの左側に位置し、第2右スピーカ32Rは基準面Cの右側に位置する。第2左スピーカ32Lおよび第2右スピーカ32Rは、基準面Cから等距離に位置する。
 第1左スピーカ31Lおよび第1右スピーカ31Rが設置されるスペース(上前板124)は、第2左スピーカ32Lおよび第2右スピーカ32Rが設置されるスペース(下前板125)よりも狭い。以上の事情を考慮して、第1左スピーカ31Lおよび第1右スピーカ31Rは、第2左スピーカ32Lおよび第2右スピーカ32Rと比較して小口径である。図4に例示される通り、第1スピーカ31が放射可能な音の周波数帯域(以下「第1周波数帯域」という)B1と、第2スピーカ32が放射可能な音の周波数帯域(以下「第2周波数帯域」という)B2とは相違する。第1周波数帯域B1および第2周波数帯域B2は、可聴帯域内の帯域である。可聴帯域は、例えば20Hz以上かつ20kHz以下の範囲である。
 第1周波数帯域B1は第2周波数帯域B2よりも高域側の帯域である。第1周波数帯域B1と第2周波数帯域B2とは、相互に部分的に重複する。すなわち、第1周波数帯域B1の一部と第2周波数帯域B2の一部とが相互に重複する。具体的には、第1周波数帯域B1の下端の周波数b1は、第2周波数帯域B2内に位置し、第2周波数帯域B2の上端の周波数b2は、第1周波数帯域B1内に位置する。図4には、第1周波数帯域B1と第2周波数帯域B2とが相互に重複する周波数帯域(以下「重複帯域」という)Wが図示されている。重複帯域Wは可聴帯域内の所定幅の周波数帯域である。
 図1に例示される通り、第1スピーカ31および第2スピーカ32に対して所定の関係にある地点(以下「受聴点」という)Pを想定する。受聴点Pは、各スピーカ3から放射される音が主に受聴される地点であり、電子楽器100の筐体12から離間した位置に設定される。具体的には、受聴点Pは、電子楽器100を演奏する演奏者Uの頭部に対応する地点である。例えば、標準的な身長の演奏者Uにおける両耳孔の中点が受聴点Pとして例示される。すなわち、受聴点Pは電子楽器100の前方(Y軸の正方向)に位置する。
 X軸上における受聴点Pの位置は、範囲Rx内にある。範囲Rxは、基準面Cを含む1m程度の横幅(例えば基準面C±0.5m)の範囲である。例えば、受聴点Pは基準面C上に位置する。また、Y軸上における受聴点Pの位置は、電子楽器100からY軸の正方向に離間した範囲Ry内にある。範囲Ryは、例えば鍵盤11の前端からの距離が1m以下の範囲である。鍵盤11の前端とは、各白鍵のうちY軸の正方向に位置する端部である。また、Z軸上における受聴点Pの位置は、電子楽器100が設置される床面(以下「設置面」という)からZ軸の正方向に離間した範囲Rz内にある。範囲Rzは、例えば設置面からの距離が1m以上かつ1.5m以下の範囲である。後述する位相等の調整のための音の測定においては、以上の範囲(Rx,Ry,Rz)内に配置された複数の受聴点における観測値の平均をとってもよい。その際、範囲内の中央に近い受聴点での測定値が重視されるよう、観測値を重み付け平均してもよい。または、範囲内の中央が密になるよう複数の受聴点を配置してもよい。
 以上に説明した通り、受聴点Pは鍵盤11の上方に位置する。すなわち、受聴点Pは、鍵盤11の表面よりも高い位置にある。したがって、第1スピーカ31から受聴点Pまでの距離D1と、第2スピーカ32から受聴点Pまでの距離D2とは相違する。具体的には、距離D2は距離D1を上回る(D2>D1)。
 図3に例示される通り、制御装置21は、記憶装置22に記憶されたプログラムを実行することで、演奏者Uの演奏操作に応じた音を放射するための複数の機能(信号生成部41,信号処理部42,駆動部43)を実現する。
 信号生成部41は、原信号Q0を生成する。原信号Q0は、鍵盤11が演奏者Uから受付けた演奏操作に応じた音信号である。原信号Q0は、左右2チャンネルで構成されるステレオ信号である。例えば、信号生成部41は、検出装置23が出力する演奏情報Eに応じた原信号Q0を生成するMIDI音源である。すなわち、原信号Q0は、演奏者Uが操作した鍵13に対応する1以上の音高の音の波形を表す信号である。信号生成部41は、例えば制御装置21が音源プログラムを実行することで実現されるソフトウェア音源、または、原信号Q0の生成に専用される電子回路により実現されるハードウェア音源である。
 信号処理部42は、原信号Q0に対する信号処理により第1音信号Q1と第2音信号Q2とを生成する。第1音信号Q1は、左右2チャンネルで構成されるステレオ信号である。同様に、第2音信号Q2は、左右2チャンネルで構成されるステレオ信号である。
 駆動部43は、再生装置24を駆動する。具体的には、駆動部43は、第1音信号Q1に応じた音(以下「第1音」という)を放射するように第1スピーカ31を駆動する。また、駆動部43は、第2音信号Q2に応じた音(以下「第2音」という)第2音を放射するように第2スピーカ32を駆動する。
 具体的には、駆動部43は、第1音信号Q1および第2音信号Q2をデジタルからアナログに変換するD/A変換器と、第1音信号Q1および第2音信号Q2を増幅する増幅器とを具備する。駆動部43は、第1音信号Q1から生成した第1出力信号O1を第1スピーカ31に出力し、第2音信号Q2から生成した第2出力信号O2を第2スピーカ32に出力する。第1出力信号O1は、第1音の波形を表す左右2チャンネルのステレオ信号であり、第2出力信号O2は、第2音の波形を表す左右2チャンネルのステレオ信号である。以上の例示の通り、第1スピーカ31は、第1周波数帯域B1の第1音を放射し、第2スピーカ32は、第2周波数帯域B2の第2音を放射する。
 図5は、受聴点Pにおいて観測される音の振幅スペクトルである。第1スピーカ31から受聴点Pに到達する第1音の振幅スペクトルF1と、第2スピーカ32から受聴点Pに到達する第2音の振幅スペクトルF2とが、図5には図示されている。対比例1は、信号処理部42による信号処理が実行されない形態である。すなわち、対比例1においては、原信号Q0が第1スピーカ31および第2スピーカ32に対して共通に供給される。
 第1スピーカ31から放射される第1音は、上前板124の表面または鍵盤11の表面等において反射してから受聴点Pに到達する。他方、第2スピーカ32から放射される第2音は、下前板125の表面、棚板123の下面または設置面等において反射してから受聴点Pに到達する。すなわち、鍵盤11に対する各スピーカ3の位置関係の相違(すなわち非対称性)に起因して、第1スピーカ31から受聴点Pまでの伝達特性と第2スピーカ32から受聴点Pまでの伝達特性とは相違する。また、前述の通り、第1スピーカ31から受聴点Pまでの距離D1と、第2スピーカ32から受聴点Pまでの距離D2とは相違する。さらに、振動板のサイズまたは機械的・電気的特性の相違に起因して、第1スピーカ31と第2スピーカ32との間では位相特性が相違する。すなわち、第1スピーカ31と第2スピーカ32とに共通の信号を供給した場合でも、第1スピーカ31による放射音と第2スピーカ32による放射音との間では周波数特性が相違する。
 以上の通り、受聴点Pに到達する第1音と第2音との間では、各スピーカ3から受聴点Pまでの伝達特性と、各スピーカ3から受聴点Pまでの距離と、スピーカ3自体の位相特性とを含む多様な要素に複合的に起因して位相特性が相違する。第1スピーカ31と第2スピーカ32とに共通の原信号Q0が供給される対比例1においては、以上の相違に起因して、受聴点Pにおける第1音の位相特性と受聴点Pにおける第2音の位相特性とが顕著に相違する。第1実施形態の信号処理部42が実行する信号処理は、第1音信号Q1および第2音信号Q2の少なくとも一方の位相を調整することで、受聴点Pにおける第1音の位相と受聴点Pにおける第2音の位相とを可聴帯域内において相互に近付ける処理である。信号処理部42の具体的な構成および動作について以下に詳述する。
 図3の信号処理部42は、第1フィルタ421と第2フィルタ422とを具備する。第1フィルタ421は、原信号Q0を処理することで第1音信号Q1を生成する。第2フィルタ422は、原信号Q0を処理することで第2音信号Q2を生成する。第1フィルタ421および第2フィルタ422の各々は、図6に例示されるFIR(Finite Impulse Response)フィルタ50を含む。
 FIRフィルタ50は、(N-1)個の遅延部51[1]~51[N-1]とN個の乗算部52[1]~52[N]と1個の加算部53とを含む。各遅延部51[n](n=1~N-1)は、信号A[n]を所定の時間だけ遅延させることで信号A[n+1]を生成する。第1段目の遅延部51[1]には、原信号Q0が信号A[1]として入力される。遅延部51[n]が出力する信号A[n+1]は、次段の遅延部51[n+1]と乗算部52[n+1]とに供給される。
 各乗算部52[n](n=1~N)は、信号A[n]に係数K[n]を乗算することで信号B[n]を生成する。加算部53は、各乗算部52[n]が生成するN個の信号B[1]~B[N]を加算する。第1フィルタ421の加算部53により第1音信号Q1が生成され、第2フィルタ422の加算部53により第2音信号Q2が生成される。以上の説明から理解される通り、FIRフィルタ50は、処理対象の信号に対して複数の係数(すなわち所定の周波数レスポンス)を畳込むフィルタである。
 信号処理部42による信号処理は、帯域フィルタ処理と遅延処理と調整処理とを含む。帯域フィルタ処理と遅延処理と調整処理との各々は、第1フィルタ421および第2フィルタ422の一方または双方により実現される。すなわち、帯域フィルタ処理と遅延処理と調整処理とは、図6に例示したFIRフィルタ50により実現される。
 帯域フィルタ処理は、第1音信号Q1の周波数帯域と第2音信号Q2の周波数帯域とを相違させる処理である。具体的には、帯域フィルタ処理は、第1フィルタ421により第1音信号Q1から第1周波数帯域B1の成分を抽出する処理と、第2フィルタ422により第2音信号Q2から第2周波数帯域B2の成分を抽出する処理とを含む。また、帯域フィルタ処理は、以上の処理に加えて、第1スピーカ31および第2スピーカ32の周波数応答におけるピークを抑制する処理(イコライジング処理)を含む。前述の通り、第1周波数帯域B1と第2周波数帯域B2とは、重複帯域W内において相互に重複する。なお、第1音信号Q1の周波数帯域と第1スピーカ31の第1周波数帯域B1とは相違してもよい。また、第2音信号Q2の周波数帯域と第2スピーカ32の第2周波数帯域B2とは相違してもよい。なお、第1スピーカ31および第2スピーカ32の周波数応答におけるピークを抑制する処理は、帯域フィルタ処理とは別個の信号処理として実行されてよい。
 遅延処理は、第1音信号Q1および第2音信号Q2の一方を他方に対して遅延させる処理である。具体的には、遅延処理は、第1スピーカ31から受聴点Pまでの距離D1と第2スピーカ32から受聴点Pまでの距離D2との差異(以下「距離差」という)に起因した第1音と第2音との位相差を低減するための処理である。具体的には、距離差に起因した第1音と第2音との位相差は、重複帯域Wにおける位相差の傾きである。前述の通り、第2スピーカ32から受聴点Pまでの距離D2は、第1スピーカ31から受聴点Pまでの距離D1を上回る(D2>D1)。以上の距離差を考慮して、第1実施形態の遅延処理においては、距離差(D2-D1)に応じた時間長だけ、第1音信号Q1を第2音信号Q2に対して遅延させる。
 調整処理は、第1音信号Q1および第2音信号Q2の少なくとも一方の位相を調整することで、受聴点Pにおける第1音の位相と受聴点Pにおける第2音の位相とを可聴帯域内において相互に近付ける処理である。すなわち、遅延処理で傾きがほぼ同じにされた2位相に残る細かい位相差が、調整処理によりインパルス応答でゼロに近付く。具体的には、調整処理は、第1音信号Q1および第2音信号Q2の少なくとも一方の位相を調整することで、第1周波数帯域B1と第2周波数帯域B2とが相互に重複する重複帯域W内において、受聴点Pにおける第1音の位相と受聴点Pにおける第2音の位相とを相互に近付ける。すなわち、調整処理は、重複帯域W内の各周波数において第1音の位相と第2音の位相とを近付ける処理である。
 帯域フィルタ処理と遅延処理と調整処理との各々の条件は、第1フィルタ421および第2フィルタ422の各々におけるN個の係数K[1]~K[N]に応じて制御される。第1実施形態においては、以下の条件1から条件3が成立するように、第1フィルタ421および第2フィルタ422の各々におけるN個の係数K[1]~K[N]が設定される。具体的には、電子楽器100の設計の段階において、第1スピーカ31および第2スピーカ32の各々から受聴点Pに到達する音を観測し、以下の条件1から条件3が成立するように、観測結果に応じてN個の係数K[1]~K[N]が設定される。例えば、信号処理部42に対する原信号Q0の入力から受聴点P(観測点)までの伝達系の周波数応答が観測される。N個の係数K[1]~K[N]は記憶装置22に記憶される。・条件1(帯域フィルタ処理):第1音信号Q1の周波数帯域と第2音信号Q2の周波数帯域とが相違する。・条件2(遅延処理): 距離差(D2-D1)に応じた遅延時間だけ第1音信号Q1を第2音信号Q2に対して遅延させる。・条件3(調整処理): 受聴点Pにおける第1音の位相と受聴点Pにおける第2音の位相とが重複帯域W内において相互に近付く(理想的には一致する)。
 N個の係数K[1]~K[N]を設定するための具体的な手順は以下の通りである。(1)帯域フィルタ処理の特性を決定し、2つの伝達系の周波数応答を測定する。(2)観測された2周波数応答の位相成分に関し、重複帯域Wでの位相差分を算出する。(3)その位相差分の傾きに応じて、遅延を入れる側及びその時間長を決定する。(4)遅延調整後の全体的にはフラットな位相差分に応じて、その差分をゼロに近づけるインパルス応答を決定する。(5)帯域フィルタの特性、遅延特性およびインパルス応答から、N個の係数K[1]~K[N]を決定する。
 図7は、制御装置21が実行する処理のフローチャートである。例えば演奏者Uによる鍵盤11の操作を契機として図7の処理が開始される。
 処理が開始されると、制御装置21(信号生成部41)は、演奏者Uによる演奏操作に応じた原信号Q0を生成する(S1)。制御装置21(信号処理部42)は、原信号Q0に対する信号処理により第1音信号Q1および第2音信号Q2を生成する(S2)。信号処理は、前述の通り、帯域フィルタ処理と遅延処理と調整処理とを含む。制御装置21(駆動部43)は、第1音信号Q1に応じた第1音を放射するように第1スピーカ31を駆動し、第2音信号Q2に応じた第2音を放射するように第2スピーカ32を駆動する(S3)。
 図5を参照して、第1実施形態の効果を説明する。前述の通り、対比例1においては、受聴点Pにおける第1音の位相特性と受聴点Pにおける第2音の位相特性とが顕著に相違する。したがって、第1音の特定の周波数の成分と第2音の当該周波数の成分とが受聴点Pにおいて相互に弱め合い、演奏者Uが知覚する音圧が当該周波数において局所的に低下する可能性がある。以上の状況においては、演奏者Uが受聴する音量に、特定の周波数で、上下のスピーカからの音の干渉に起因する大きなディップが生じる。
 対比例1とは対照的に、第1実施形態においては、第1スピーカ31から受聴点Pに到達する第1音の位相と、第2スピーカ32から受聴点Pに到達する第2音の位相とを、可聴帯域内において相互に近付ける調整処理が実行される。したがって、第1実施形態の振幅スペクトルFtから理解される通り、第1音と第2音との干渉に起因した音圧の局所的な低下が抑制される。すなわち、第1スピーカ31および第2スピーカ32から受聴点Pに到達する音の振幅スペクトルFtを、可聴帯域内の広範囲にわたりフラットな特性に調整できる。したがって、演奏者Uが受聴する音量の特定の周波数におけるディップを低減できる。
 第1実施形態は、調整処理を含む信号処理をFIRフィルタ50により実現した形態である。他方、図5の対比例2は、調整処理を含まない信号処理(具体的には帯域フィルタ処理および遅延処理)をIIR(Infinite Impulse Response)フィルタにより実現した形態である。対比例2においては、IIRフィルタを利用した信号処理により、第1音と第2音との干渉に起因した音圧の局所的な低下は、対比例1と比較すれば改善される。しかし、IIRフィルタにおいては、位相の自由な調整ができない。したがって、対比例2においては、図5に矢印で示される通り、第1音と第2音との干渉に起因した音圧の局所的な低下が受聴点Pにおいて依然として観測される。すなわち、対比例2では、演奏者Uが受聴する音量の特定の周波数におけるディップを充分に低減できない。
 第1実施形態においては、前述の通り、調整処理を含む信号処理がFIRフィルタ50により実現される。FIRフィルタ50においては、N個の係数K[1]~K[N]を調整することで、周波数毎の位相を高精度に変更できる。すなわち、第1音の位相と第2音の位相とを、可聴帯域内の広範囲にわたり高精度に近付けることが可能である。したがって、図5から理解される通り、第1実施形態によれば、第1音と第2音との干渉に起因した音圧の局所的な低下が、対比例2と比較して抑制される。すなわち、第1実施形態によれば、演奏者Uが受聴する音量の特定の周波数におけるディップを充分に低減できる。
 また、第1実施形態においては、第1スピーカ31から受聴点Pまでの距離D1と第2スピーカ32から受聴点Pまでの距離D2との距離差に応じた時間長だけ、第1音信号Q1または第2音信号Q2に遅延が付与される(遅延処理)。したがって、距離D1と距離D2とが相違する構成にも関わらず、第1音の位相と第2音の位相とを受聴点Pにおいて高精度に近付けることが可能である。
 図8は、電子楽器100の前方の空間において音圧を観測した結果である。具体的には、図8には、対比例2および第1実施形態の各々について、基準面C内における音圧の分布が図示されている。可聴帯域内の複数の周波数(500Hz,800Hz,1200Hz)の各々について観測結果が併記されている。濃階調の領域は、負数の範囲内で音圧の絶対値が大きい領域であり、淡階調の領域は、正数の範囲内で音圧の絶対値が大きい領域である。
 対比例2について図示された領域αにおいては、音圧の経時的な変化が周囲の領域と比較して充分に小さい。すなわち、対比例2においては、演奏者Uが受聴する音量が局所的に小さい領域αが発生する。対比例2とは対照的に、第1実施形態においては、受聴点Pの周囲の広範囲にわたり音圧が経時的に変化する。すなわち、音量が局所的に低下する領域αの発生が、第1実施形態によれば抑制される。
 また、対比例2においては、特に800Hzの測定結果から把握される通り、電子楽器100の周囲の円周上に音圧が高い領域(淡階調)と音圧が低い領域(濃階調)とが混在する。すなわち、対比例2においては、電子楽器100の放射音の波面が乱雑な状態にある。したがって、演奏者Uの頭部が少し移動しただけで、演奏者Uが知覚する音量が変化するという課題がある。対比例2とは対照的に、第1実施形態における電子楽器100の周囲の円周上には、音圧が高い領域および音圧が低い領域の一方のみが存在する。すなわち、第1実施形態においては、電子楽器100の放射音の波面が同心円状に整合した状態で進行する。したがって、演奏者Uの頭部が少し移動しただけでは、演奏者Uが知覚する音量は変化し難い。また、例えば演奏者Uの後方(Y軸の正方向)に位置する受聴者も演奏者Uと同様に演奏音を聴取できる。
B:第2実施形態
 第2実施形態を説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明と同様の符号を流用して各々の詳細な説明を適宜に省略する。
 図9は、第2実施形態における信号処理部42の構成を例示するブロック図である。第2実施形態の信号処理部42は、第1実施形態と同様の第1フィルタ421および第2フィルタ422に加えて遅延部423を含む。遅延部423は、前述の遅延処理を実現する要素である。すなわち、遅延部423は、距離D1と距離D2との距離差に起因した第1音と第2音との位相の相違を低減する。
 具体的には、遅延部423は、距離D2と距離D1との距離差(D2-D1)等に応じた遅延時間だけ原信号Q0を遅延させる。例えば、距離差(D2-D1)が大きいほど、遅延部423による遅延時間は大きい数値に設定される。遅延部423による遅延後の原信号Q0が第1フィルタ421に供給される。すなわち、遅延部423は、第1音信号Q1を第2音信号Q2に対して遅延させる。
 前述の通り、受聴点Pにおける第1音と第2音との位相特性の相違には、距離差(D2-D1)を含む、各スピーカから受聴点Pまでの伝達特性の相違や、各スピーカ自体の位相特性の相違等の種々の事情が、複合的に影響する。第2実施形態におけるFIRフィルタ50は、伝達特性の相違および各スピーカの位相特性の相違等に起因した第1音と第2音との位相の相違が低減されるように機能する。すなわち、第1実施形態においてはFIRフィルタ50により遅延処理および調整処理の双方が実現されるのに対し、第2実施形態においては、遅延処理が遅延部423により実現され、調整処理がFIRフィルタ50により実現される。
 第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態においては、遅延処理が遅延部423により実現されるから、FIRフィルタ50の規模を縮小できる。具体的には、FIRフィルタ50のタップ数が削減され、結果的に電子楽器100におけるリソース(例えば演算量、メモリおよび電力)の消費が削減される。
C:変形例
 以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。前述の実施形態および以下に例示する変形例から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態においては、電子楽器100が第1スピーカ31と第2スピーカ32とを具備する構成を例示したが、電子楽器100が他のスピーカ3をさらに具備する構成も想定される。電子楽器100が具備するスピーカ3の個数(チャンネル数)は任意である。複数のスピーカ3のうち鍵盤11の上方に位置する1個のスピーカ3が「第1スピーカ」に相当し、鍵盤11の下方に位置する1個のスピーカ3が「第2スピーカ」に相当する。「第1スピーカ」から受聴点に到達する第1音の位相と「第2スピーカ」から受聴点に到達する第2音の位相とが調整処理により相互に近付く構成であれば、他のスピーカ3から受聴点に到達する音の位相と、第1音または第2音の位相との関係は不問である。
(2)前述の各形態においては、第1スピーカ31が第2スピーカ32よりも小口径である形態を例示したが、第1スピーカ31と第2スピーカ32との間の口径の大小は任意である。例えば第1スピーカ31が第2スピーカ32よりも大口径である形態、または第1スピーカ31と第2スピーカ32とが同口径である形態も想定される。
(3)受聴点Pは、演奏者Uの頭部に対応する地点に限定されない。例えば、演奏者Uの背後に位置する受聴者が演奏を聴取する場合を想定すると、受聴者の頭部に対応する位置が受聴点Pとして例示される。以上の例示から理解される通り、受聴点Pは、第1音および第2音が受聴されるべき地点として包括的に表現され、電子楽器100(特に各スピーカ3)に対して所定の位置関係にある地点とも表現される。
(4)前述の各形態においては、帯域フィルタ処理と遅延処理と調整処理とを含む信号処理がFIRフィルタ50により実現される形態を例示したが、以上の信号処理はIIRフィルタ等の他の形式のフィルタにより実現されてもよい。すなわち、前述の対比例2は、本開示の範囲に包含される。
(5)本開示が適用される電子楽器は、前述の各形態において例示した電子鍵盤楽器に限定されない。例えば、電子打楽器または電子管楽器等の種々の電子楽器に本開示は適用される。「操作受付部」は、演奏操作を受付ける要素として包括的に表現され、前述の各形態における鍵盤11は「操作受付部」の一例である。例えば、電子打楽器において演奏者Uが打撃部材(例えばスティック)により打撃するヘッド、または、電子管楽器において演奏者Uが操作するキー等が、「操作受付部」の概念には包含される。
(6)前述の各形態に係る電子楽器100(制御システム20)の機能は、前述の通り、制御装置21を構成する単数または複数のプロセッサと、記憶装置22に記憶されたプログラムとの協働により実現される。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記録媒体が、前述の非一過性の記録媒体に相当する。
D:付記
 以上に例示した形態から、例えば以下の構成が把握される。
 本開示のひとつの態様(態様1)に係る電子楽器は、演奏操作を受付ける操作受付部と、前記操作受付部に対して上方に設置された第1スピーカと、前記操作受付部に対して下方に設置された第2スピーカと、前記操作受付部が受付けた演奏操作に応じた原信号を生成する信号生成部と、前記原信号に対する信号処理により第1音信号と第2音信号とを生成する信号処理部と、前記第1音信号に応じた第1音を放射するように前記第1スピーカを駆動し、前記第2音信号に応じた第2音を放射するように前記第2スピーカを駆動する駆動部とを具備し、前記信号処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、所定の受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む。
 以上の態様においては、第1スピーカから受聴点に到達する第1音の位相と、第2スピーカから受聴点に到達する第2音の位相とを、可聴帯域内において相互に近付ける調整処理が実行される。したがって、受聴点における第1音と第2音との干渉に起因して特定の周波数における音圧が局所的に低下する可能性が低減される。すなわち、第1スピーカおよび第2スピーカから受聴点に到達する音の振幅スペクトルを、可聴帯域内の広範囲にわたりフラットな特性に調整できる。
 「操作受付部」は、例えば、電子鍵盤楽器において利用者による押鍵を受付ける鍵盤、電子打楽器において利用者が打撃部材(例えばスティック)により打撃するヘッド、または、電子管楽器において利用者が操作するキー等が、「操作受付部」の概念に包含される。
 「操作受付部に対して上方」とは、鉛直方向における第1スピーカの位置が操作受付部に対して高いことを意味し、操作受付部の直上には限定されない。同様に、「操作受付部に対して下方」とは、鉛直方向における第2スピーカの位置が操作受付部に対して低いことを意味し、操作受付部の直下には限定されない。第1スピーカから放射された音は、例えば操作受付部またはその上方に位置する要素において反射してから受聴点に到達する。また、第2スピーカから放射された音は、例えば操作受付部またはその下方に位置する要素において反射してから受聴点に到達する。
 「原信号」は、操作受付部に対する操作に応じた音の波形を表す信号である。例えば、操作受付部に対する操作で指定された音高の音の波形を表す信号、操作受付部に対する操作を契機として発生する音の波形を表す信号が、「原信号」として例示される。また、演奏操作の内容を表す操作信号(例えばMIDI信号)も「原信号」の概念には包含される。
 第1音信号および第2音信号は、原信号から生成される2系統の信号である。第1音信号と第2音信号との関係は任意である。例えば、第1音信号と第2音信号とは周波数帯域が相異なる信号である。ただし、第1音信号と第2音信号とは周波数特性が共通する信号でもよい。
 「受聴点」は、電子楽器に対して空間的または平面的に特定の位置関係にある地点である。具体的には、演奏操作を実行する演奏者の頭部が位置する地点、電子楽器の演奏音を聴取する受聴者の頭部が位置する地点(例えば演奏者の後方の地点)等が、「受聴点」として例示される。例えば、演奏者または受聴者の耳孔の地点または左右の耳孔の中点が、「受聴点」として例示される。例えば鍵盤楽器においては、鍵盤の長手方向における中心を通過し当該長手方向に直交する平面内に「受聴点」が想定される。
 態様1の具体例(態様2)において、前記操作受付部は、演奏者による演奏操作を受付け、前記受聴点は、前記演奏者の頭部に対応する地点である。以上の態様によれば、電子楽器の演奏者が受聴する音の振幅スペクトルを、可聴帯域内の広範囲にわたりフラットな特性に調整できる。
 態様1または態様2の具体例(態様3)において、前記調整処理は、FIRフィルタを用いて実現される。FIRフィルタは、例えばIIRフィルタと比較して周波数毎の信号の位相を高精度に変更できる。したがって、調整処理がFIRフィルタにより実現される形態によれば、第1音の位相と第2音の位相とを、可聴帯域内の広範囲にわたり高精度に近付けることが可能である。なお、FIRフィルタは、処理対象の信号に対して複数の係数(すなわち所定の周波数レスポンス)を畳込むフィルタである。受聴点において第1音の位相と第2音の位相とが相互に近付くように、FIRフィルタの複数の係数が設定される。
 態様1から態様3の何れかの具体例(態様4)において、前記第1スピーカから前記受聴点までの第1距離と、前記第2スピーカから前記受聴点までの第2距離とは相違し、前記信号処理は、前記第1音信号および前記第2音信号の一方を遅延させる遅延処理を含む。以上の構成によれば、第1スピーカから受聴点までの第1距離と第2スピーカから受聴点までの第2距離との差異に応じた時間長だけ、第1音信号または第2音信号に遅延が付与される。したがって、第1距離と第2距離とが相違する構成でも、第1音の位相と第2音の位相とを受聴点において高精度に近付けることが可能である。
 遅延処理による遅延時間には、第1スピーカの位相特性と第2スピーカの位相特性との関係、および、第1距離と第2距離との差異等、様々な要素が複合的に影響する。
 態様1から態様4の何れかの具体例(態様5)において、前記操作受付部は、複数の鍵が配列された鍵盤であり、前記第1スピーカは、第1周波数帯域の前記第1音を放射し、前記第2スピーカは、第2周波数帯域の前記第2音を放射し、前記第1周波数帯域と前記第2周波数帯域とは、相互に部分的に重複し、前記調整処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、前記第1周波数帯域と前記第2周波数帯域とが相互に重複する重複帯域内において、前記受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを相互に近付ける処理である。以上の構成によれば、鍵盤楽器の演奏者が演奏に並行して受聴する楽音の振幅スペクトルを、可聴帯域内の広範囲にわたりフラットな特性に調整できる。
 本開示のひとつの態様(態様6)に係る電子楽器は、演奏操作を受付ける操作受付部と、前記操作受付部が受付けた演奏操作に応じた原信号を生成する信号生成部と、前記原信号に対する信号処理により第1音信号と第2音信号とを生成する信号処理部と、前記第1音信号に応じた第1音を放射するように、前記操作受付部に対して上方に設置された第1スピーカを駆動し、前記第2音信号に応じた第2音を放射するように、前記操作受付部に対して下方に設置された第2スピーカを駆動する駆動部とを具備し、前記信号処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、所定の受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む。
100…電子楽器、11…鍵盤、12…筐体、121…右腕木、122…左腕木、123…棚板、124…上前板、125…下前板、126…天板、13…鍵、20…制御システム、21…制御装置、22…記憶装置、23…検出装置、24…再生装置、31…第1スピーカ、31L…第1左スピーカ、31R…第1右スピーカ、32…第2スピーカ、32L…第2左スピーカ、32R…第2右スピーカ、41…信号生成部、42…信号処理部、421…第1フィルタ、422…第2フィルタ、423…遅延部、43…駆動部、50…FIRフィルタ、51[1]~51[N-1]…遅延部、52[1]~52[N]…乗算部、53…加算部。

Claims (7)

  1.  演奏操作を受付ける操作受付部と、
     前記操作受付部に対して上方に設置された第1スピーカと、
     前記操作受付部に対して下方に設置された第2スピーカと、
     前記操作受付部が受付けた演奏操作に応じた原信号を生成する信号生成部と、
     前記原信号に対する信号処理を実行することで第1音信号と第2音信号とを生成する信号処理部と、
     前記第1音信号に応じた第1音を放射するように前記第1スピーカを駆動し、前記第2音信号に応じた第2音を放射するように前記第2スピーカを駆動する駆動部とを具備し、
     前記信号処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、所定の受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む
     電子楽器。
  2.  前記操作受付部は、演奏者による演奏操作を受付け、
     前記受聴点は、前記演奏者の頭部に対応する地点である
     請求項1の電子楽器。
  3.  前記調整処理は、FIRフィルタを用いて実現される
     請求項1または請求項2の電子楽器。
  4.  前記第1スピーカから前記受聴点までの第1距離と、前記第2スピーカから前記受聴点までの第2距離とは相違し、
     前記信号処理は、前記第1音信号および前記第2音信号の一方を遅延させる遅延処理を含む
     請求項1から請求項3の何れかの電子楽器。
  5.  前記操作受付部は、複数の鍵が配列された鍵盤である
     請求項1から請求項4の何れかの電子楽器。
  6.  前記第1スピーカは、第1周波数帯域の前記第1音を放射し、
     前記第2スピーカは、第2周波数帯域の前記第2音を放射し、
     前記第1周波数帯域と前記第2周波数帯域とは、相互に部分的に重複し、
     前記調整処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、前記第1周波数帯域と前記第2周波数帯域とが相互に重複する重複帯域内において、前記受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを相互に近付ける処理である
     請求項1から請求項5の何れかの電子楽器。
  7.  演奏操作を受付ける操作受付部と、
     前記操作受付部が受付けた演奏操作に応じた原信号を生成する信号生成部と、
     前記原信号に対する信号処理により第1音信号と第2音信号とを生成する信号処理部と、
     前記第1音信号に応じた第1音を放射するように、前記操作受付部に対して上方に設置された第1スピーカを駆動し、前記第2音信号に応じた第2音を放射するように、前記操作受付部に対して下方に設置された第2スピーカを駆動する駆動部とを具備し、
     前記信号処理は、前記第1音信号および前記第2音信号の少なくとも一方の位相を調整することで、所定の受聴点における前記第1音の位相と前記受聴点における前記第2音の位相とを可聴帯域内において相互に近付ける調整処理を含む
     電子楽器。
PCT/JP2023/009378 2022-03-24 2023-03-10 電子楽器 WO2023182003A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022048218A JP2023141738A (ja) 2022-03-24 2022-03-24 電子楽器
JP2022-048218 2022-03-24

Publications (1)

Publication Number Publication Date
WO2023182003A1 true WO2023182003A1 (ja) 2023-09-28

Family

ID=88101321

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/009378 WO2023182003A1 (ja) 2022-03-24 2023-03-10 電子楽器

Country Status (2)

Country Link
JP (1) JP2023141738A (ja)
WO (1) WO2023182003A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101599U (ja) * 1991-02-07 1992-09-02 株式会社河合楽器製作所 電子楽器用音場発生装置
JPH0550899U (ja) * 1991-12-06 1993-07-02 オンキヨー株式会社 音響再生装置
JPH1011055A (ja) * 1996-06-18 1998-01-16 Kawai Musical Instr Mfg Co Ltd 電子鍵盤楽器
JP2001272981A (ja) * 2000-03-27 2001-10-05 Kawai Musical Instr Mfg Co Ltd 電子楽器の共鳴音発生装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101599U (ja) * 1991-02-07 1992-09-02 株式会社河合楽器製作所 電子楽器用音場発生装置
JPH0550899U (ja) * 1991-12-06 1993-07-02 オンキヨー株式会社 音響再生装置
JPH1011055A (ja) * 1996-06-18 1998-01-16 Kawai Musical Instr Mfg Co Ltd 電子鍵盤楽器
JP2001272981A (ja) * 2000-03-27 2001-10-05 Kawai Musical Instr Mfg Co Ltd 電子楽器の共鳴音発生装置

Also Published As

Publication number Publication date
JP2023141738A (ja) 2023-10-05

Similar Documents

Publication Publication Date Title
JP4300194B2 (ja) 音響再生装置、音響再生方法および音響再生プログラム
WO2014034555A1 (ja) 音声信号再生装置、方法、プログラム、及び記録媒体
WO2006038380A1 (ja) 立体音響再生装置
JP4036140B2 (ja) 音出力システム
US7572970B2 (en) Digital piano apparatus, method for synthesis of sound fields for digital piano, and computer-readable storage medium
JP2886402B2 (ja) ステレオ信号発生装置
WO2023182003A1 (ja) 電子楽器
JP4791613B2 (ja) 音声調整装置
US6925426B1 (en) Process for high fidelity sound recording and reproduction of musical sound
EP2566195B1 (en) Speaker apparatus
JPH0937399A (ja) ヘッドホン装置
JP2008134421A (ja) カラオケ装置
JP3271532B2 (ja) 電気弦楽器の音像定位装置
KR101179876B1 (ko) 음향 재생 장치
JP2008134422A (ja) カラオケ装置
WO2023181431A1 (ja) 音響システムおよび電子楽器
JP4845407B2 (ja) リファレンスフィルタの生成方法
JP3177714B2 (ja) 多次元パンニング効果装置
JPH04328796A (ja) 電子楽器
JP2007295634A (ja) 音出力システム
JP2001272981A (ja) 電子楽器の共鳴音発生装置
JP2017175417A (ja) 音響再生装置
GB2113448A (en) Single channel sound system for an electronic musical instrument
JPH1011055A (ja) 電子鍵盤楽器
KR101269873B1 (ko) 음향 재생 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23774602

Country of ref document: EP

Kind code of ref document: A1