WO2007029500A1 - 音声出力装置および方法、プログラム、並びに部屋 - Google Patents

音声出力装置および方法、プログラム、並びに部屋 Download PDF

Info

Publication number
WO2007029500A1
WO2007029500A1 PCT/JP2006/316487 JP2006316487W WO2007029500A1 WO 2007029500 A1 WO2007029500 A1 WO 2007029500A1 JP 2006316487 W JP2006316487 W JP 2006316487W WO 2007029500 A1 WO2007029500 A1 WO 2007029500A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio signal
signal
audio
vibrator
sound
Prior art date
Application number
PCT/JP2006/316487
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Junichi Shima
Akihiko Arimitsu
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020087005048A priority Critical patent/KR101256538B1/ko
Priority to EP06782940A priority patent/EP1921886A4/en
Priority to US12/064,964 priority patent/US20090268929A1/en
Publication of WO2007029500A1 publication Critical patent/WO2007029500A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Definitions

  • the present invention relates to an audio output device and method, a program, and a room, and particularly relates to an audio output device and method that outputs audio, a program, and a room.
  • a screen speaker device is also used which plays the role of a screen for partitioning or blinding a room at the same time as the function of the speaker.
  • the vibrator 13-1 is attached to the vibration member 14 1
  • the vibrator 13-2 is attached to the vibration member 14 2.
  • the vibrator 13-1 is based on an audio signal supplied from the signal processing unit 12-1 and subjected to predetermined signal processing on the audio collected by the microphone 11-1, and the vibration material 14 1 The sound is output by vibrating.
  • the vibrator 13-2 receives a sound signal, which is supplied from the signal processing section 12-2 and subjected to predetermined signal processing on the sound collected by the microphone 112. Based on this, sound is output by vibrating the vibrating material 142.
  • one vibrator outputs sound by vibrating one vibration member.
  • waterproof speaker power with vibration material attached to the ceiling panel or wall panel of the bathroom, and bathroom bathtub apron, wall panels in the vicinity of the bathtub, counter and ceiling panels, etc.
  • acoustic reproduction device characterized in that a mid-high sound is reproduced by a water-proof speaker and a bass member is reproduced by vibrating the member in the bathroom by the actuator (for example, Patent Document 1).
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-157642
  • the conventional screen speaker device does not have a microphone suitable for collecting sound. There was a problem that the sound of the direction could not be output.
  • the sound collected by the microphone 11 1 is input to the vibrator 13-1, so that the vibrating material 14-1 is vibrated to output the sound, and the microphone
  • the sound collected by the mouthphone 11 2 is input to the vibrator 13-2 to vibrate the vibration member 14-2 and output the sound.
  • the sound reproducing device disclosed in Japanese Patent Laid-Open No. 2001-157642 cannot output sound in a direction in which no microphone is present during sound collection, and is not a general room and a bathroom.
  • medium and high sounds were reproduced with a waterproof speaker, and low sounds were reproduced by vibrating a member with an actuator attached to a member inside the bathroom.
  • the present invention has been made in view of such a situation, and can appropriately oscillate each part of a wide range of a vibration material to generate respective partial force sounds. Is.
  • One aspect (first aspect) of the present invention is an audio output device that converts each of the first audio signal and the second audio signal into audio and outputs the audio, and vibrates the audio.
  • a vibration material that outputs the vibration material, a first vibrator that is attached to the vibration material and vibrates the vibration material based on the first audio signal, and a predetermined interval from the first vibrator.
  • a second vibrator that is attached to the diaphragm and vibrates the vibration material based on the second sound signal.
  • a predetermined signal for each of the first audio signal and the second audio signal Processing means for performing processing can be further provided.
  • the processing means may comprise delay processing means for delaying each of the first audio signal and the second audio signal.
  • the processing means may include filter processing means for allowing a predetermined frequency band component to pass among components of the first audio signal and the second audio signal.
  • the processing means may include gain adjustment processing means for adjusting gains of the first audio signal and the second audio signal.
  • One aspect of the present invention includes a vibration material that outputs the sound by vibration, the vibration material attached to the vibration material, and the vibration material is attached to the vibration material based on the first sound signal.
  • a first vibrator that vibrates, and a second vibration that is attached to the diaphragm so as to have a predetermined distance from the first vibrator and that vibrates the vibrating material based on the second audio signal.
  • This is an audio output method (program) in which a child is arranged and predetermined signal processing is performed on each of the first audio signal and the second audio signal.
  • the vibration material that outputs the sound by vibration, the vibration material attached to the vibration material, and based on the first sound signal, A first vibrator that vibrates a material, a first vibrator that is attached to the diaphragm so as to have a predetermined distance from the first vibrator, and that vibrates the vibration material based on the second audio signal. 2 vibrators are provided.
  • One aspect of the present invention includes a vibration material that outputs the sound by vibration, and the vibration material that is attached to the vibration material and vibrates based on the first sound signal. And a second vibration that is attached to the diaphragm so as to have a predetermined distance from the first vibrator, and that vibrates the vibration member based on a second audio signal. It is a room that is cut by a wall made up of children.
  • Processing means for performing predetermined signal processing on each of the first audio signal and the second audio signal may be further provided.
  • Detection means for detecting a position of a user is further provided, and the processing means is configured to detect each of the first audio signal and the second audio signal based on the detected position. Thus, predetermined signal processing can be performed.
  • a vibration material that outputs the sound by vibration, and the vibration material that is attached to the vibration material and is based on a first sound signal.
  • FIG. 1 is a diagram for explaining a conventional screen speaker device.
  • FIG. 2 is a diagram showing the appearance of a screen speaker device.
  • FIG. 3 is a block diagram showing a configuration of an embodiment of a screen speaker device to which the present invention is applied.
  • FIG. 4 is a diagram for explaining an example of attaching a microphone.
  • FIG. 5 is a diagram showing a configuration of an embodiment of a room to which the present invention is applied.
  • FIG. 6 is a diagram illustrating a vibrator attached to a vibration material.
  • Fig. 7 is a view of the vibration member of Fig. 6 when viewed from the front.
  • FIG. 8 is a diagram for explaining details of delay processing.
  • FIG. 9 is a diagram for explaining the details of filter processing.
  • FIG. 10 is a diagram illustrating details of a filter processing unit.
  • FIG. 11 is a diagram for explaining details of a gain adjustment unit.
  • FIG. 12 is a diagram for explaining a vibrating surface.
  • FIG. 13 is a diagram for explaining expansion of a range of a vibrating surface.
  • FIG. 14 is a flowchart for explaining audio output processing.
  • FIG. 15 is a flowchart illustrating details of the signal processing of FIG.
  • FIG. 16 is a block diagram showing an example of the configuration of a personal computer
  • FIG. 2 is a diagram showing the appearance of the screen speaker device 21. As shown in FIG. 1
  • the partition speaker device 21 is an example of the audio output device of the present invention that plays the role of a partition at the same time as the function of the speaker.
  • the partition speaker device 21 is configured to include the vibration members 26A to 26C and the vibrators 27A to 27F.
  • Each of the vibration materials 26A to 26C is, for example, a plaster board, a wood such as MDF (Medium Density Fiberboard), an aluminum plate, a carbon or acrylic resin, or a material such as glass. Formed. Further, each of the vibration members 26A to 26C may be formed of a composite material in which different materials are combined (laminated).
  • each of the vibration materials 26A to 26C a plurality of vibrators (two vibrators in FIG. 2) are attached, for example, in a horizontal row in the figure.
  • the vibrator 27A, the vibrator 27B, and the vibratory material 26B are respectively provided with the vibrator 27C and the vibrator 27D, and the vibratory material 26C is attached with the vibrator 27E and the vibrator 27F in a horizontal row in the figure.
  • Each of the vibrators 27A to 27F is also supplied with a signal processing unit force to be described later. By vibrating each of the vibration members 26A to 26C according to the signal, each of the vibration members 26A to 26C outputs sound. That is, the partition speaker device 21 serves as a speaker that converts a voice signal into a voice.
  • each of the vibrators 27A to 27F is detachably disposed at a predetermined position in accordance with the vibration characteristics of each of the vibration members 26A to 26C.
  • the partition speaker device 21 fixes three vibration members 26A to 26C.
  • the number of vibration members is not limited to three. One or more can be detachably fixed. Further, in the partition speaker device 21, since the vibration material can be freely removed, the user can change the thickness (depth) of the vibration material to a desired thickness.
  • vibrating material 26A to 26C when it is not necessary to individually distinguish the vibrating materials 26A to 26C, they are simply referred to as the vibrating material 26, and when the vibrators 27A to 27F do not need to be individually distinguished, This is simply referred to as vibrator 27.
  • FIG. 3 is a block diagram showing a configuration of an embodiment of the partition speaker device 21 to which the present invention is applied.
  • a microphone described later is connected to each of the audio input terminals 41 1 to 41 N, and each of the audio input terminals 41-1 to 41-N is an audio signal of audio collected by the microphone. Therefore, the sound signal input from the microphone is supplied to the signal processing unit 42.
  • the signal processing unit 42 is also configured with a force such as a DSP (Digital Signal Processor) or an MPU (Micro Processing Unit). Based on the control of the control unit 43, the signal processing unit 42 performs predetermined processing on the audio signal to which each force of the audio input terminals 41-1 to 41-N is input, and the audio signal obtained by the processing Is supplied to each of the vibrators 27-1 to 27-M.
  • a force such as a DSP (Digital Signal Processor) or an MPU (Micro Processing Unit).
  • the control unit 43 controls the signal processing unit 42 by supplying a control signal to the signal processing unit 42.
  • the control unit 43 generates a control signal according to the signal supplied from the sensor 44 that detects the viewing position of the user, and supplies the generated control signal to the signal processing unit 42.
  • the senor 44 is powered by, for example, a mat sensor, a microphone array, or a video camera provided on the floor, and detects the position where the user is viewing based on the audio signal or the video signal.
  • Each of the vibrators 27-1 to 27-M vibrates the vibration member 26 to which the vibrator 27-1 to 27-M is attached based on the audio signal supplied from the signal processing unit 42. As a result, the vibration member 26 outputs sound.
  • the signal processing unit 42 includes a signal selection unit 51, a main processing unit 52, and a delay processing unit 53-1 to 53-.
  • filter processing units 54-1 to 54 -M filter processing units 54-1 to 54 -M, and gain adjustment units 55-1 to 55 -M.
  • the signal selection unit 51 based on the control signal from the control unit 43, is connected to the audio input terminals 41-1 to 4-4.
  • the signal selection unit 51 supplies audio signals input from the audio input terminals 41-1 to 41-N to the processing unit 52.
  • the processing unit 52 performs predetermined processing on the audio signal supplied from the signal selection unit 51. Based on the control of the signal selection unit 51, the processing unit 52 performs processing of the audio signal that has been subjected to predetermined processing on the delay processing units 53-1 to 53-M that perform signal processing on the transducer that is the supply destination. !
  • the main processing unit 52 performs, for example, processing for removing noise from the audio signal.
  • the processing unit 52 supplies the audio signals input from the audio input terminals 41-1 to 41-N as they are without performing predetermined processing under the control of the signal selection unit 51.
  • the delay processing unit 53-1 to 53-M which performs signal processing for the previous transducer, may be supplied to the offset!
  • the delay processing unit 53-1 Based on the control signal supplied from the control unit 43, the delay processing unit 53-1 performs predetermined processing on the audio signal supplied from the processing unit 52, and the processed audio. Signal This is supplied to the filter processing unit 54-1.
  • the delay processing unit 53-1 is a control that indicates the amount of delay supplied from the control unit 43 according to the viewing position of the user. Based on the control signal, the audio signal supplied from the processing unit 52 is subjected to processing for delaying by a predetermined delay amount (delay processing). The delay processing unit 53-1 supplies the audio signal subjected to the delay processing to the filter processing unit 54-1.
  • the delay processing unit 52-2 performs an audio signal on the audio signal supplied from the main processing unit 52 based on the control signal supplied from the control unit 43.
  • the audio signal subjected to the delay processing is supplied to the filter processing unit 54-2.
  • Each of the delay processing units 53-3 to 53-M is based on a control signal supplied from the control unit 43, and is an audio signal supplied from the processing unit 52. Then, the audio signal is delayed, and the audio signal subjected to the delay process is supplied to each of the filter processing units 54-3 to 54-M.
  • the filter processing unit 54-1 performs a predetermined process on the audio signal supplied from the delay processing unit 53-1 based on the control signal supplied from the control unit 43 and performs the process. Is supplied to the gain adjuster 55-1.
  • the filter processing unit 54-1 is based on the control signal supplied from the control unit 43, from the delay processing unit 54-1. Filter processing to pass or block the audio signal of a predetermined frequency band with a filter such as FIR (Finite Impulse Response) filter and IIR (Infinite Impulse Response) filter for the supplied audio signal Apply.
  • the filter processing unit 54-1 supplies the audio signal subjected to the filter processing to the gain adjusting unit 55-1.
  • the filter processing unit 54-2 uses the control signal supplied from the control unit 43 to generate an audio signal supplied from the delay processing unit 53-2. Applying filter processing to pass or block the audio signal of the predetermined frequency band, filter The processed audio signal is supplied to the gain adjustment unit 55-2.
  • Each of the filter processing units 54-3 to 54-M is similar to the filter processing unit 54-1, and based on the control signal supplied from the control unit 43, the delay processing units 53-3 to 53-M.
  • Each of the audio signals supplied from each of them is subjected to a filter process for passing or blocking an audio signal in a predetermined frequency band, and the filtered audio signal is subjected to a gain adjusting unit. Supply to each of 55-3 to 55-M.
  • the gain adjustment unit 55-1 Based on the control signal supplied from the control unit 43, the gain adjustment unit 55-1 performs a predetermined process on the audio signal supplied from the filter processing unit 54-1, and performs the process. The obtained audio signal is supplied to vibrator 27-1.
  • a force that is a predetermined process performed by the gain adjustment unit 55-1 for example, the gain adjustment unit 55
  • the gain adjustment unit 55-1 supplies the sound signal subjected to the gain adjustment process to the vibrator 27-1.
  • the gain adjustment unit 55-2 performs the following operation on the audio signal supplied from the filter processing unit 54-2 based on the control signal supplied from the control unit 43. Performs gain adjustment processing that limits the range of the audio signal level to be output, and supplies the audio signal that has been subjected to gain adjustment processing to vibrator 27-2.
  • each of the gain adjustment units 55-3 to 55-M is based on the control signal supplied from the control unit 43, and the filter processing units 54-3 to 54-.
  • Each of M's power A gain adjustment process that limits the range of the output audio signal level is applied to the supplied audio signal, and the audio signal that has been subjected to the gain adjustment process is converted into a transducer 27-3 to 2 7 M Supply to each of the.
  • the signal processing unit 42 performs predetermined signal processing. By doing so, it is possible to weight the sound signal supplied to the vibrator 27 and output the desired sound to the diaphragm 26.
  • delay processing units 53-1 to 53-M when it is not necessary to individually distinguish the delay processing units 53-1 to 53-M, they are simply referred to as the delay processing unit 53, and the filter processing units 54-1 to 54-M are referred to as delay processing units 53-1. When there is no need to distinguish between them, they are simply referred to as a filter processing unit 54, and when it is not necessary to distinguish between the gain adjustment units 55-1 to 55-M, they are simply referred to as gain adjustment units 55.
  • voice input terminals 41-1 to 41-N when it is not necessary to individually distinguish the voice input terminals 41-1 to 41-N, they are simply referred to as voice input terminals 41.
  • each of the delay processing unit 53, the filter processing unit 54, and the gain adjustment unit 55 is applied to the audio signal supplied to each of the transducers 27-1 to 27-M.
  • the delay processing unit 53 is described by being divided into delay processing units 53-1 to 53-M, and the filter processing unit 54 is a filter processing unit. 54-1 to 54-M, and the gain adjusting unit 55 is divided into the gain adjusting units 55-1 to 55-M.
  • each of the gain adjusting unit 55 and the gain adjusting unit 55 is a processing unit (for example, a delay unit).
  • the processing unit 53, the filter processing unit 54, or the gain adjustment unit 55) may perform the processing collectively.
  • a plurality of microphones are connected to the audio input terminal 41 that inputs an audio signal to the signal processing unit 42, and the signal processing unit 42 is an audio signal of a sound collected by these microphones. In this case, predetermined signal processing is performed.
  • FIG. 4 is a diagram for explaining an example of attaching a microphone when the microphone is connected to the audio input terminal 41.
  • each of the audio input terminals 41-1 to 41-6 has a microphone 71-1 to 71-6 through each of the cables 72-1 to 72-6.
  • Each of the microphones 71-1 to 71-6 is connected to a microphone stand. It is fixed by 73.
  • Each of the microphones 71-1 to 71-6 collects sound and converts the collected sound into an audio signal. Each of the microphones 71-1 to 71-6 outputs the converted audio signal to each of the audio input terminals 41-1 to 41-6 via each of the cables 72-1 to 72-6.
  • the microphones 71-1 to 71-6 are directed in six directions to collect sound from the six directions, and the collected sound signals are connected to the cables 72-1 to 72-6 and the sound.
  • the signal is input to the signal processing unit 42 via each of the input terminals 41-1 to 41-6.
  • the force of collecting sound from six microphones in six directions is collected from an arbitrary direction by a plurality of microphones, not limited to six. You may do so.
  • the microphones may be arranged at arbitrary positions that do not need to be arranged on concentric circles.
  • each of the microphones 71-1 to 71-6 is connected to the audio input terminal 41-1 to 41-6 via each of the cables 72-1 to 72-6. Therefore, the present invention is not limited to this, and the present invention is not limited to this.
  • a recording device that records microphone-recorded sound can be used as a sound input terminal 41. Let's make it connect to ⁇ .
  • the microphones 71-1 to 71-6 do not need to be individually distinguished, they are simply referred to as the microphone 71 and the cables 72-1 to 72-6 are individually distinguished. If there is no need to do this, it is simply referred to as cable 72.
  • the partition speaker device 21 of the present invention can be configured to be a wall of a room. That is, by providing the partition speaker device 21 as a wall of the room, the wall can partition the room and output sound.
  • FIG. 5 is a diagram showing a configuration of an embodiment of the room 81 to which the present invention is applied.
  • the room 81 is an example of a room according to the present invention configured by the plurality of partition speaker devices 21 serving as a wall of the room. That is, in the room 81 in which the screen speaker device 21 is provided as a wall, the wall can partition the room and output sound.
  • the example in FIG. 5 is a view as seen from above, and a space surrounded by each of the partition speaker devices 21-1 to 21-12 is a room 81.
  • FIG. 5 is a diagram in which the upper force of the room 81 is also viewed. Therefore, in each of the partition speaker devices 21-1 to 21-12, a black square represents a diaphragm, and the diaphragm When attached, the two white squares represent the vibrator!
  • the 12 screen speaker devices 21 are connected in the horizontal direction and are expressed as follows. Actually, as shown in the example of FIG. 2, the vibration material is also connected in the vertical direction, and the number of vibration materials and vibrators is arbitrary.
  • the room 81 includes the screen speaker devices 21-1 to 21-3, the screen speaker devices 21-4 to 21-6, the screen speaker devices 21-7 to 21-9, and the screen speaker devices 21-10 to 21-. 1 2 It is composed of 4 faces. That is, the four surfaces surrounding the four sides of the room 81 are each composed of three screen speaker devices 21.
  • Each of the partition speaker devices 21-1 to 21-12 serves as a partition (wall) as well as the function of the speaker, like the partition speaker device 21. That is, each of the partition force devices 21-1 to 21-12 can output a variety of sounds by increasing the number of vibrating materials in the vertical direction or adjusting the thickness of the vibrating materials.
  • the force described as being surrounded by four surfaces of the room 81 is not limited to four surfaces, and at least one surface may be provided in the present invention.
  • the present invention is not limited to three screen speaker devices, and at least one screen speaker device is provided on at least one surface. I'll do it.
  • a microphone 71 is connected to each of the sound input terminals 41-1 to 41-N, and each of the sound input terminals 41-1 to 41-N is used for the sound collected by the microphone 71.
  • An audio signal that is input from the microphone 71 is supplied to the signal processing unit 42.
  • the signal processing unit 42 applies, for example, the delay processing and filtering processing described above to the audio signals input from the audio input terminals 41-1 to 41-N. Or perform predetermined processing such as gain adjustment processing, and the audio signal obtained by the processing is attached to each of the screen speaker devices 21-1 to 21-12! Supply to each of the.
  • Each of the vibrators 27-1 to 27-24 is arranged at a predetermined position according to the vibration characteristics of each of the vibration members 26-1 to 26-12, and is supplied from the signal processing unit 42. Based on the audio signal, each of the vibrating materials 26-1 to 26-12 is vibrated.
  • Each of the vibration members 26-1 to 26-12 outputs sound by being vibrated by each of the vibrators 27-1 to 27-24. That is, when each of the vibration members 26-1 to 26-12 is configured to surround the four sides of the room 81 as shown in the example of FIG. 5, the entire room 81 becomes a sound field.
  • control unit 43 controls the signal processing performed by the signal processing unit 42 based on the position of the user in the room 81 detected by the sensor 44, so that the position at which the user is present.
  • the sound field is controlled to optimize the sound.
  • the room 81 is configured by connecting the partition speaker devices 21-1 to 21-12, the sound field of the entire room can be controlled. Further, the room 81 can output a sound that is optimal for the position where the user is located by detecting the position where the user is located by the sensor 44.
  • the vibrator number and the input signal number depend on the position of the room 81.
  • the room 81 can rotate the sound to the position where the user is viewing based on the sound field map. it can.
  • the signal selection unit 51 of the signal processing unit 42 performs audio based on the control signal including the information of the sound field map supplied from the control unit 43. Select one of the vibrators 27-1 to 27-24 as the supply destination of the audio signal to which the forces of the input terminals 41-1 to 41-N are also input, and supply the audio signal to the selected transducer. Control to be paid. As a result, the room 81 can rotate at the rotation angle corresponding to the number of audio signals input from the audio input terminals 41-1 to 41-N.
  • each of the delay processing unit 53, the filter processing unit 54, and the gain adjustment unit 55 performs predetermined processing based on a control signal including information on a sound field map supplied from the control unit 43.
  • vibrators 27-1 to 27-24 when it is not necessary to individually distinguish the vibrators 27-1 to 27-24, they are simply referred to as vibrators 27, and the vibrating materials 26-1 to 26-12 are individually designated. When it is not necessary to distinguish, it is simply called the vibration material 26.
  • FIG. 6 is a diagram for explaining the vibrator 27 attached to the vibration member 26.
  • the signal processing unit 42-1 performs predetermined processing on the audio signal input from the microphone 71-1, and outputs the processed audio signal to the vibrator 27-2 and the vibrator 27. — Supply to each of the three.
  • the signal processing unit 42-2 performs a predetermined process on the audio signal input from the microphone 71-2, and the processed audio signal. Is supplied to each of the vibrator 27-4 and the vibrator 27-5.
  • Each of the vibrators 27-2 to 27-5 is disposed at a predetermined position of the vibration members 26-1 to 26-3, and is supplied from either the signal processing unit 42-1 or the signal processing unit 42-2. Based on the supplied audio signal, sound is output by vibrating any of the vibration materials 26-1 to 26-3.
  • the vibrator 26-2 is equipped with two vibrators 27-3 and 27-4, and the vibrator 27-3 and That of vibrator 27-4
  • Each of the microphones 71-1 and the microphones is vibrated by vibrating the vibrating material 26-2.
  • Fig. 7 is a view of the vibrating member 26-2 of Fig. 6 as viewed from the front.
  • the vibrator 27-3 is based on the audio signal A supplied from the signal processing unit 42-1, for example, a vibration wave indicated by a dotted line with a triple circle centered on the vibrator 27-3 in FIG. Like a, vibrating material 26—
  • the vibrator 27-4 is based on the audio signal B supplied from the signal processing unit 42-2, for example, a triple circle dotted line centering on the vibrator 27-4 in FIG. As shown in the vibration wave b, the vibration material
  • the composite wave c indicated by the arc-shaped dotted line in Fig. 7 is a wave generated by combining the vibration wave a and the vibration wave b on the vibration material 26-2.
  • the vibrator that vibrates the vibrating material 26-2 is not provided at the position where the composite wave c is generated, but the composite wave c
  • the composite wave c has a vibrator at a position intermediate between the vibrator 27-3 and the vibrator 27-4, and the virtual vibrator vibrates the vibration material 26-2. By doing so, it becomes a sound wave (sound) (hereinafter also referred to as an intermediate sound) output to the vibration member 26-2.
  • sound sound
  • the sound collected by the plurality of microphones is synthesized at an arbitrary position on the diaphragm, which is not mixed in the air, so that the position where the microphone is provided.
  • the plurality of vibrators 27, which are only required to be mounted 27, are to be placed at predetermined positions according to the characteristics of the vibration member 26.
  • the position is the position where the composite wave c is generated
  • the composite wave c can be generated at a desired position of the vibration member 26 by the signal processing unit 42 performing a predetermined process. That is, The signal processing unit 42 supplies a sound signal that has undergone predetermined processing to the vibrator 27, physically outputs the sound to the vibration member 26, and generates a synthesized wave c at a desired position. It is possible to output a desired positional force intermediate sound.
  • the delay processing unit 53 performs delay processing on the audio signal of the sound collected by the microphone 71 based on the control signal indicating the delay amount supplied from the control unit 43.
  • the force that is a control signal indicating the delay amount supplied from the control unit 43 is defined as the delay amount D1
  • the delay amount for the transducer 27-4 is defined as the delay amount D2.
  • each of the delay amount D1 and the delay amount D2 is calculated as the force of each of the equations (1) and (2).
  • V represents the propagation speed of the vibration member 26, and a represents a value (adjustment amount) for adjusting the delay amount when a plurality of vibration members 26 are provided.
  • the propagation velocity V differs depending on the material of the vibrating material 26, and therefore it is necessary to change the value for each material.
  • the adjustment amount ⁇ is a value for adjusting the delay amount between the vibration members 26 according to the position of the user, for example.
  • control signal supplied from the control unit 43 includes information indicating the delay amount D1 and the delay amount D2, and the delay processing unit 53 uses the delay amount D1 and the delay amount D2 as a basis. In addition, a delay process is performed on the audio signal collected by the microphone 71.
  • the filter processing unit 54 Based on the control signal supplied from the control unit 43, the filter processing unit 54 applies a predetermined frequency to the audio signal collected by the microphone 71 using a filter such as an FIR filter or an IIR filter. Performs filtering to pass or block audio signals in the band.
  • a filter such as an FIR filter or an IIR filter. Performs filtering to pass or block audio signals in the band.
  • the filter processing unit 54 is provided at a high position.
  • the force of 26-1 and vibration material 26 3 are set so that high-frequency sound (high sound) is output, and vibration material 26-2 and vibration material 26-4 installed at low positions Enable to output low frequency sound (low, sound).
  • the four vibration members arranged in the vertical 2 X horizontal 2 directions are referred to as the vibration materials 26-1 to 26-4, and these are shown.
  • the four vibrators attached to each of the four vibrating materials are called vibrators 27-1 to 27-4.
  • FIG. 10 is a diagram for explaining the details of the filter processing unit 54.
  • the filter processing unit 54 uses, for example, a high-pass filter (HPF (High Pass Filter)) and a low-pass filter (LPF (Low Pass Filter) from the filter coefficient bank 101. )), Or a filter coefficient such as a band pass filter (BPF (Band Pass Filter)).
  • HPF High Pass Filter
  • LPF Low Pass Filter
  • BPF Band Pass Filter
  • the filter processing unit 54-1 uses the filter coefficient bank 101 for the audio signal C of the sound collected by the microphone 71 based on the control signal supplied from the control unit 43.
  • the high-pass filter which is the obtained coefficient, passes only the audio signal C having a frequency equal to or higher than the cut-off frequency, and attenuates the audio signal C having a frequency equal to or lower than the cut-off frequency.
  • the vibrator 27-1 then outputs a high-frequency sound by vibrating the vibration material 26-1 based on the sound signal C supplied from the filter processing unit 54-1.
  • the filter processing unit 54-2 acquires from the filter coefficient bank 101 the audio signal C of the sound collected by the microphone 71 based on the control signal supplied from the control unit 43. Audio signal C with a frequency lower than the cutoff frequency Only, and the audio signal C having a frequency equal to or higher than the cut-off frequency is attenuated so that the filtered audio signal C is transmitted to the vibrator 27-2 (via the gain adjusting unit 55-2).
  • the vibrator 27-2 vibrates the vibration material 26-2 based on the audio signal C supplied from the filter processing unit 54-2, thereby outputting low-frequency sound.
  • the filter processing unit 54-3 is based on the control signal supplied from the control unit 43, and the audio signal D of the sound collected by the microphone 71 is obtained.
  • the high-pass filter which is the coefficient obtained from the filter coefficient bank 101, is subjected to filter processing, and the filtered audio signal D is transmitted through the gain adjustment unit 55-3.
  • the vibrator 27-3 vibrates the vibration material 26-3 on the basis of the audio signal D supplied from the filter processing unit 54-3.
  • the filter processing unit 54-4 converts the sound signal D of the sound collected by the microphone 71 based on the control signal supplied from the control unit 43, similarly to the filter processing unit 54-2.
  • the low-pass filter which is the coefficient obtained from the filter coefficient bank 101, is used to perform the filtering process, and the filtered audio signal D is obtained (via the gain adjusting unit 55-4).
  • the vibrator 27-4 vibrates the vibration material 26-4 based on the audio signal D supplied from the filter processing unit 54-4, thereby generating a low frequency sound.
  • the voice is output.
  • the characteristics of the vibration member 26 differ depending on the thickness of each vibration member 26 and the position where the vibrator 27 is attached.
  • the sound signal is subjected to a predetermined filtering process so that it is in charge of the optimum band for each vibration material 26 (for example, the band where the volume is loudest or the band where the frequency characteristics are flattened).
  • the frequency band input to each vibration member 26 is limited.
  • FIG. 11 is a diagram for explaining the details of the gain adjusting unit 55. As shown in FIG. 11
  • the gain adjustment unit 55 acquires the gain coefficient from the gain coefficient bank 111 based on the control signal supplied from the control unit 43.
  • the gain adjustment unit 55 performs gain adjustment processing corresponding to the gain coefficient acquired from the gain coefficient bank 111 on the audio signal collected by the microphone 71.
  • the gain coefficient includes, for example, a coefficient that changes linearly, a coefficient that changes logarithmically, or a coefficient that changes nonlinearly according to the auditory characteristics of the user.
  • the range of the level of the output audio signal is limited by adjusting the gain of the input audio signal, and the audio signal subjected to the gain adjustment processing is supplied to the vibrator 27.
  • the vibrator 27 outputs a sound by vibrating the vibration member 26 based on the sound signal whose gain is adjusted supplied from the gain adjusting unit 55.
  • the vibrators 27-1 to 27-4 are placed on the vibration member 26 as shown in the example of FIG.
  • the signal processing unit 42 performs the delay processing, filtering processing, gain adjustment processing, etc., as described above, so that an oblique line in the figure centering on an arbitrary position on the vibration member 26. It can be controlled to output intermediate sounds of a plurality of audio signals from the surface 121 shown.
  • the signal processing unit 42 performs delay processing, filtering processing, or gain adjustment processing on each of the audio signals E to H input to the microphones 71-1 to 71-4, for example.
  • the processed audio signals E to H are supplied to the transducers 27-1 to 27-4, respectively.
  • Each of the vibrators 27-1 to 27-4 generates an intermediate sound from the surface 121 by vibrating the vibration member 26 in accordance with each of the audio signals E to H supplied from the signal processing unit 42. Output.
  • each of the vibrators 27-1 to 27-4 is attached to the end of the vibration member 26. Is desirable.
  • each of the vibrator 27-1 and the vibrator 27-2 has the vibrator 27-1 attached to the left end of the vibration material 26 and the vibrator 27-2 By attaching it to the right end in Fig. 26, the range of the surface 121 in Fig. 12 can be expanded.
  • step S11 the microphone 71 collects sound and converts the collected sound into a sound signal.
  • the microphone 71 supplies the audio signal to the signal processing unit 42 by outputting the converted audio signal to the audio input terminal 41 via the cable 72.
  • step S11 the six microphones 71-1 to 71-6 (Fig. 4) arranged concentrically each collect sound and convert the collected sound into an audio signal.
  • the converted audio signal is supplied to the signal processing unit 42 via the cable 72 and the audio input terminal 41.
  • step S12 the signal processing unit 42 converts the audio signal collected by the microphone 71 based on the control of the control unit 43 into the audio signal input from the audio input terminal 41. Then, a predetermined process is performed, and an audio signal obtained by the process is supplied to the vibrator 26.
  • step S12 the signal processing unit 42 performs delay processing on the audio signal to which the power of each of the microphones 71-1 to 71-6 is supplied under the control of the control unit 43.
  • the audio signal collected by the microphone 71-1 is supplied to the vibrator 27-1.
  • the signal processing unit 42 is an audio signal collected by each of the microphones 71-2 to 71-6 under the control of the control unit 43, and performs signal processing. The sound signal thus supplied is supplied to each of the vibrators 27-2 to 27-6.
  • the screen speaker device 21-1 is composed of a diaphragm 26-1, a vibrator 27-1 and a vibrator 27-2.
  • — 2 is composed of diaphragm 26-2, vibrator 27-3 and vibrator 27-4, and screen speaker device 2 1-3 is composed of diaphragm 26-3, vibrator 27-5 and vibration
  • the signal processing unit 42 is an audio signal collected by each of the microphones 71-1 to 71-6, and the processed audio signal is transmitted to the diaphragm. This is supplied to each of the vibrators 27-1 to 27-6 attached to each of the 26-1 to 26-3. Details of signal processing will be described later.
  • step S13 the vibrator 27 vibrates the vibration member 26 based on the audio signal supplied from the signal processing unit 42.
  • the vibrator 27-1 is an audio signal of the sound collected by the microphone 71-1, and is based on the audio signal supplied from the signal processing unit 42.
  • each of the vibrators 27-2 to 27-6 is an audio signal of the sound collected by each of the microphones 72-2 to 71-6, and is supplied from the signal processing unit 42. Based on the signal, each of the vibration materials 26— 1 to 26-3 to which they are attached is vibrated.
  • step S14 the vibration member 26 is vibrated by the vibrator 27, thereby outputting a sound, and the process ends.
  • the vibrating material 26-1 is composed of the vibrator 27-1 and the vibrator 27.
  • the vibrating material 26-1 vibrates in response to the sound signal that the vibrator 27-1 collects with the microphone 71-1 and the sound that the vibrator 27-2 collects with the microphone 71-2. Since it vibrates in response to the signal, as described above, these vibrations are synthesized on the diaphragm 26-1 to generate an intermediate sound. That is, this intermediate sound is not directly collected by the microphone, but is assumed to be collected between the microphone 71-1 and the microphone 71-2.
  • the vibrating material 26-2 is caused to vibrate by the vibrator 27-3 and the vibrator 27-4 in the same manner as the vibrating material 26-1, whereby the microphone 71-3 and the microphone port The sound collected by each of the phones 71-4 is output.
  • the vibrating material 26-2 is vibrated by the sound signal from the microphone 7 1-3 of the vibrator 27-3 and the microphone 71- of the vibrator 27-4.
  • the vibration caused by the audio signal from 4 is synthesized on the vibrating material 26-2 to generate an intermediate sound that is assumed to be collected between the microphone 71-3 and the microphone mouthphone 71-4. .
  • the vibrating material 26-3 is caused to vibrate by the vibrator 27-5 and the vibrator 27-6, respectively, in the same manner as the vibrating material 26-1.
  • the sound collected by each of the headphone 71-6 is output.
  • the vibrating material 26-3 is vibrated by the sound signal from the microphone 7 1-5 of the vibrator 27-5 and the microphone 71- of the vibrator 27-6.
  • the vibration generated by the audio signal from 6 is synthesized on the vibrating material 26-3, thereby generating an intermediate sound that is assumed to be collected between the microphone 71-5 and the microphone mouthphone 71-6. .
  • each of the partition speaker devices 21-1 to 21-3 is collected between the microphones as well as the sounds collected by the microphones 71-1 to 71-6.
  • Voice intermediate sound
  • the audio signals collected by the microphones 71-1 to 71-6 are supplied to the vibrators 27-1 to 27-6 for easy understanding.
  • the present invention is not limited to this.
  • the audio signals collected by the microphones 71-1 to 71-6 are respectively transmitted to the transducers 27-1 to 27-24 in FIG. Be sure to match the microphones placed on the concentric circles.
  • step S21 the signal selection unit 51 performs the audio based on the control signal from the control unit 43.
  • the transducer 27 is selected as the supply destination of the audio signal input from the input terminal 41, and the processing unit 52 is controlled so that the audio signal is supplied to the selected transducer 27.
  • step S21 the signal selection unit 51, the signal selection unit 51, based on the control signal from the control unit 43, the audio signal input from each of the audio input terminals 41 1 to 416.
  • the vibrators 27-1 to 27-6 are selected, and the sound signals collected by the microphones 71-1 to 71-6 are selected as the selected vibrators 27-1 to 27-6.
  • This processing unit 52 is controlled so as to be supplied to each of 27-6.
  • step S22 the main processing unit 52 performs predetermined processing such as processing for removing noise of the audio signal on the audio signal supplied from the signal selection unit 51. Based on the control of the signal selection unit 51, the processing unit 52 supplies the audio signal that has been subjected to the predetermined processing to the delay processing unit 53 that performs signal processing on the transducer that is the supply destination.
  • predetermined processing such as processing for removing noise of the audio signal on the audio signal supplied from the signal selection unit 51.
  • the processing unit 52 supplies the audio signal that has been subjected to the predetermined processing to the delay processing unit 53 that performs signal processing on the transducer that is the supply destination.
  • step S22 the processing unit 52 removes noise from the audio signals collected by the microphones 71-1 to 71-6 supplied from the signal selection unit 51.
  • the processed audio signal is supplied to each of the delay processing units 53-1 to 5 36.
  • step S23 the delay processing unit 53 performs processing for delaying the audio signal on the audio signal supplied from the processing unit 52 based on the control signal supplied from the control unit 43.
  • the processed audio signal is supplied to the filter processing unit 54.
  • each of the delay processing units 53-1 to 53-6 is connected to the microphone 71-1 supplied from the processing unit 52 based on the control signal supplied from the control unit 43.
  • delay processing is performed on the audio signal collected by the sound, and the delayed audio signal is supplied to each of the filter processing units 54-1 through 54-6.
  • step S24 the filter processing unit 54 passes an audio signal in a predetermined frequency band with respect to the audio signal supplied from the delay processing unit 53 based on the control signal supplied from the control unit 43. Filtering processing is performed to prevent or block the sound signal, and the filtered audio signal is supplied to the gain adjusting unit 55.
  • each of the filter processing units 54-1 to 54-6 is Based on the control signal supplied from the control unit 43, the audio signal supplied from each of the delay processing units 53-1 to 53-6 is subjected to filter processing, and the filtered audio signal is processed. Supply to each of the gain adjustment units 55-1 to 55-6.
  • step S25 the gain adjustment unit 55 sets the output audio signal level range for the audio signal supplied from the filter processing unit 54 based on the control signal supplied from the control unit 43.
  • a limiting gain adjustment process is performed, and the audio signal subjected to the gain adjustment process is supplied to the vibrator 27, the process returns to the process of step S12 in FIG. 14, and the processes after step S13 are executed.
  • each of the gain adjustment units 55-1 to 55-6 is based on the control signal supplied from the control unit 43, and each of the filter processing units 54-1 to 54-6. Then, a gain adjustment process is performed on the audio signal supplied from this, and the audio signal subjected to the gain adjustment process is supplied to each of the vibrators 27-1 to 27-6.
  • the signal processing unit 42 can perform different signal processing for each audio signal supplied to the vibrator 27. Therefore, in order to generate an intermediate sound, a more suitable audio signal is vibrated. Can be supplied to child 27.
  • the sound collected by two or more microphones is synthesized on a vibrating material that is not mixed in the air, so that the sound at the collected position is combined with the microphone. It is also possible to output sound that is assumed to exist in between. Further, according to the present invention, when the walls of the room are connected by the screen speaker device, the position where the user is viewing is detected by the sensor, so that there is a sense of presence regardless of the viewing position of the user. A sound field can be created.
  • the so-called sweet spot can be widened and the hollow can be prevented by synthesizing the sound on the diaphragm by surrounding the wall of the room with the partition speaker device. .
  • FIG. 16 is a diagram showing an example of the internal configuration of a general-purpose personal computer 201.
  • a CPU (Central Processing Unit) 211 executes various processes according to a program stored in a ROM (Read Only Memory) 212 or a program loaded from a recording unit 218 to a RAM (Random Access Memory) 213.
  • the RAM 213 also appropriately stores data necessary for the CPU 211 to execute various processes.
  • the CPU 211, ROM 212, and RAM 213 are connected to each other via a bus 214.
  • An input / output interface 215 is also connected to the bus 214.
  • the input / output interface 215 includes an input unit 216 including buttons, switches, a keyboard or a mouse, a display such as a cathode ray tube (CRT) or a liquid crystal display (LCD), and a speaker.
  • An output unit 217, a recording unit 218 including a hard disk, and a communication unit 219 including a modem and a terminal adapter are connected.
  • the communication unit 219 performs communication processing via a network including the Internet.
  • a drive 220 is also connected to the input / output interface 215 as necessary, and a removable medium 211 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to read the force.
  • the recorded computer program is recorded.
  • a recording medium that records a program that is installed in a computer and is ready to be executed by the computer is distributed to provide a program to the user separately from the main body of the apparatus.
  • Magnetic discs including flexible discs
  • optical discs including compact disc-read only memories (CD-ROMs), DVDs (digital versatile discs)
  • magneto-optical discs MD (mini-discs)) -Disc) (including registered trademarks)
  • removable media 211 consisting of semiconductor memory, etc. It is composed of a ROM 212 on which a program is recorded or a hard disk included in the recording unit 218, which is provided to the user in a state where it is pre-installed in the device body.
  • a program for executing the above-described series of processing is performed by wired or wireless communication with a local area network, the Internet, digital satellite broadcasting, or the like via an interface such as a router or a modem as necessary. Make sure that it is installed on the computer via the medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic Arrangements (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)

Abstract

本発明は、振動材の広い範囲のそれぞれの部分を適切に振動させて、それぞれの部分から音声を発することができるようにする音声出力装置および方法、プログラム、並びに部屋に関する。振動材26Aは、振動することで音声を出力する。振動子27Aは、振動材26Aに装着され、第1の音声信号に基づいて、振動材26Aを振動させ、振動材27Bは、振動子27Aと所定の間隔となるように振動板26Aに装着され、第2の音声信号に基づいて、振動材26Aを振動させることで、振動材26Aの広い範囲のそれぞれの部分を適切に振動させて、それぞれの部分から音声を発することができるようになる。本発明は、音声出力装置および部屋に適用できる。

Description

明 細 書
音声出力装置および方法、プログラム、並びに部屋
技術分野
[0001] 本発明は音声出力装置および方法、プログラム、並びに部屋に関し、特に、音声を 出力する音声出力装置および方法、プログラム、並びに部屋に関する。
背景技術
[0002] スピーカの機能と同時に、部屋を仕切ったり、目隠ししたりする衝立としての役割も 果たす衝立スピーカ装置が利用されて 、る。
[0003] 従来の衝立スピーカ装置は、図 1に示すように、振動材 14 1に振動子 13— 1が 装着され、振動材 14 2に振動子 13— 2が装着される。
[0004] 振動子 13— 1は、信号処理部 12— 1から供給される、マイクロホン 11—1が集音し た音声に所定の信号処理が施された音声信号を基に、振動材 14 1を振動させるこ とにより、音声を出力させる。また、振動子 13— 2は、振動子 13— 1と同様に、信号処 理部 12— 2から供給される、マイクロホン 11 2が集音した音声に所定の信号処理 を施された音声信号を基に、振動材 14 2を振動させることにより、音声を出力させ る。
[0005] 以上のようにして、従来の衝立スピーカ装置は、 1つの振動子が 1枚の振動材を振 動させることにより音声を出力する。
[0006] また、浴室の天井パネルもしくは壁パネルに取り付けられる振動材を有する防水ス ピー力と、浴室のバスタブエプロン、バスタブ近傍の壁パネル、カウンター及び天井 パネル等のバスタブ以外の浴室内部材に取り付けられるァクチユエ一タとを備え、防 水スピーカで中高音を再生すると共に、ァクチユエータで浴室内部材を振動させて 低音を再生することを特徴とする音響再生装置もある (例えば、特許文献 1)。
[0007] 特許文献 1 :特開 2001— 157642号公報
発明の開示
発明が解決しょうとする課題
[0008] しかしながら、従来の衝立スピーカ装置は、集音時にマイクロホンが向いていない 方向の音声を出力させることができないという問題があった。
[0009] 例えば、従来の衝立スピーカ装置では、マイクロホン 11 1で集音された音声は振 動子 13— 1に入力されることにより、振動材 14— 1を振動させて音声を出力し、マイク 口ホン 11 2で集音された音声は振動子 13— 2に入力されることにより、振動材 14 —2を振動させて音声を出力する。このような方法であると、マイクロホン 11—1とマイ クロホン 11― 2との中間に存在した音声を再生することができず、マイクロホン 11 - 1 およびマイクロホン 11 2のそれぞれから集音された音声を離散的に配置した音場 となり、ユーザは、その場にいるような臨場感を得ることはできな力つた。
[0010] また、特開 2001— 157642号公報に開示されている音響再生装置は、集音時に マイクロホンの存在しない方向の音を出力することができず、また、一般的な部屋で はなく浴室を前提とすることで、防水スピーカで中高音を再生し、浴室内部の部材に 取り付けられたァクチユエータで部材を振動させることにより低音を再生していた。
[0011] さらに、一般的なスピーカにおいては、 2つのスピーカの間の音声を作り出す場合、 空気中で 2つのスピーカの音声を混ぜ合わせることにより作り出すため、いわゆるスィ 一トスポットを少しでも外れてしまうと、ユーザにとって違和感のある音声となったり、 中抜けと称される、スピーカ間の音声が欠落したような現象が発生してしまう可能性 かあつた。
[0012] 本発明はこのような状況に鑑みてなされたものであり、振動材の広い範囲のそれぞ れの部分を適切に振動させて、それぞれの部分力 音声を発することができるように するものである。
課題を解決するための手段
[0013] 本発明の一側面 (第 1の側面)は、第 1の音声信号および第 2の音声信号のそれぞ れを音声に変換して出力する音声出力装置において、振動することで前記音声を出 力する振動材と、前記振動材に装着され、前記第 1の音声信号に基づいて、前記振 動材を振動させる第 1の振動子と、前記第 1の振動子と所定の間隔となるように前記 振動板に装着され、前記第 2の音声信号に基づいて、前記振動材を振動させる第 2 の振動子とを備える音声出力装置である。
[0014] 前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信号 処理を行う処理手段をさらに備えることができる。
[0015] 前記処理手段は、前記第 1の音声信号および前記第 2の音声信号のそれぞれを遅 延させる遅延処理手段を備えることができる。
[0016] 前記処理手段は、前記第 1の音声信号および前記第 2の音声信号のそれぞれの 成分のうち、所定の周波数帯域成分を通過させるフィルタ処理手段を備えることがで きる。
[0017] 前記処理手段は、前記第 1の音声信号および前記第 2の音声信号のそれぞれのゲ インを調整するゲイン調整処理手段を備えることができる。
[0018] 本発明の一側面 (第 1の側面)は、振動することで前記音声を出力する振動材と、 前記振動材に装着され、前記第 1の音声信号に基づいて、前記振動材を振動させる 第 1の振動子と、前記第 1の振動子と所定の間隔となるように前記振動板に装着され 、前記第 2の音声信号に基づいて、前記振動材を振動させる第 2の振動子とを配置 し、前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信 号処理を行う音声出力方法 (プログラム)である。
[0019] 本発明の一側面 (第 1の側面)においては、振動することで前記音声を出力する振 動材と、前記振動材に装着され、前記第 1の音声信号に基づいて、前記振動材を振 動させる第 1の振動子と、前記第 1の振動子と所定の間隔となるように前記振動板に 装着され、前記第 2の音声信号に基づいて、前記振動材を振動させる第 2の振動子 とが設けられている。
[0020] 本発明の一側面 (第 2の側面)は、振動することで前記音声を出力する振動材と、 前記振動材に装着され、第 1の音声信号に基づいて、前記振動材を振動させる第 1 の振動子と、前記第 1の振動子と所定の間隔となるように前記振動板に装着され、第 2の音声信号に基づ 、て、前記振動材を振動させる第 2の振動子とからなる壁で仕 切られている部屋である。
[0021] 前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信号 処理を行う処理手段をさらに備えることができる。
[0022] ユーザの位置を検出する検出手段をさらに備え、前記処理手段は、検出した前記 位置に基づいて、前記第 1の音声信号および前記第 2の音声信号のそれぞれに対し て、所定の信号処理を行うことができる。
[0023] 四方が前記壁で囲まれて!/、るようにすることができる。
[0024] 本発明の一側面 (第 2の側面)においては、振動することで前記音声を出力する振 動材と、前記振動材に装着され、第 1の音声信号に基づいて、前記振動材を振動さ せる第 1の振動子と、前記第 1の振動子と所定の間隔となるように前記振動板に装着 され、第 2の音声信号に基づいて、前記振動材を振動させる第 2の振動子とからなる 壁で仕切られている。
発明の効果
[0025] 以上のように、本発明の一側面 (第 1の側面)によれば、振動材の広い範囲のそれ ぞれの部分を適切に振動させて、それぞれの部分力も音声を発することができる。
[0026] 本発明の一側面 (第 2の側面)によれば、振動材による壁の広い範囲のそれぞれの 部分を適切に振動させて、それぞれの部分力 音声を発することができる。
図面の簡単な説明
[0027] [図 1]従来の衝立スピーカ装置を説明する図である。
[図 2]衝立スピーカ装置の外観を示す図である。
[図 3]本発明を適用した衝立スピーカ装置の一実施の形態の構成を示すブロック図 である。
[図 4]マイクロホンの取り付け例を説明する図である。
[図 5]本発明を適用した部屋の一実施の形態の構成を示す図である。
[図 6]振動材に取り付ける振動子について説明する図である。
[図 7]図 6の振動材を正面力 見た場合の図である。
[図 8]遅延処理の詳細について説明する図である。
[図 9]フィルタ処理の詳細について説明する図である。
[図 10]フィルタ処理部の詳細を説明する図である。
[図 11]ゲイン調整部の詳細について説明する図である。
[図 12]振動する面について説明する図である。
[図 13]振動する面の範囲の拡大について説明する図である。
[図 14]音声出力の処理を説明するフローチャートである。 [図 15]図 14の信号処理の詳細を説明するフローチャートである。
[図 16]パーソナルコンピュータの構成の例を示すブロック図である
符号の説明
[0028] 21, 21— 1乃至 21— 12 衝立スピーカ装置, 26, 26A乃至 26C, 26— 1乃至 2 6— 12 振動材, 27, 27A乃至 27F, 27—1乃至 27— M 振動子, 41, 41 1 乃至 41 N 音声入力端子, 42, 42— 1, 42— 2 信号処理部, 43 制御部, 44 センサ, 51 信号選択部, 52 本処理部, 53, 53— 1乃至 53— M ディレ ィ処理部, 54, 54— 1乃至 54— M フィルタ処理部, 55, 55— 1乃至 55— M ゲイン調整部, 71, 71— 1乃至 71— 6 マイクロホン, 72, 72— 1乃至 72— 6 ケ 一ブル, 101 フィルタ係数バンク, 111 ゲイン係数バンク
発明を実施するための最良の形態
[0029] 以下、図面を参照しながら本発明の実施の形態について説明する。
[0030] 図 2は、衝立スピーカ装置 21の外観を示す図である。
[0031] 衝立スピーカ装置 21は、スピーカの機能と同時に、衝立としての役割も果たす、本 発明の音声出力装置の一例である。
[0032] 衝立スピーカ装置 21は、振動材 26A乃至 26Cおよび振動子 27A乃至 27Fを含む ようにして構成される。
[0033] 振動材 26A乃至 26Cのそれぞれは、例えば、石膏ボード、 MDF (Medium Density Fiberboard)などの木材、アルミプレート、カーボン、若しくはアクリルなどの榭脂、また はガラスなどの素材力ゝら板状に形成される。また、振動材 26A乃至 26Cのそれぞれ は、異なる素材を組み合わせた (積層させた)複合材料により形成するようにしてもよ い。
[0034] また、振動材 26A乃至 26Cの振動材には、それぞれ複数の振動子(図 2では 2つ の振動子)が、例えば、図中横一列に取り付けられており、振動材 26Aには、振動子 27Aおよび振動子 27B、振動材 26Bには、振動子 27Cおよび振動子 27D、振動材 26Cには、振動子 27Eおよび振動子 27Fが図中横一列にそれぞれ取り付けられて いる。
[0035] 振動子 27A乃至 27Fのそれぞれは、後述する信号処理部力も供給されてくる音声 信号に応じて、振動材 26A乃至 26Cのそれぞれを振動させることで、振動材 26A乃 至 26Cのそれぞれは、音声を出力する。すなわち、衝立スピーカ装置 21は、音声信 号を音声に変換するスピーカとしての役割を果たす。
[0036] また、振動子 27A乃至 27Fのそれぞれは、振動材 26A乃至 26Cのそれぞれの振 動特性にしたがって、所定の位置に着脱自在に配置される。
[0037] なお、図 2の例において、衝立スピーカ装置 21は、振動材 26A乃至 26Cの 3枚の 振動材を固定しているが、本発明においては、振動材の数は 3枚に限らず、 1または 複数枚、着脱自在に固定することができる。また、衝立スピーカ装置 21においては、 振動材を自由に取り外すことができるので、ユーザは、振動材の厚み (奥行)を、所望 の厚さに変更することも可能となる。
[0038] また、以下の説明において、振動材 26A乃至 26Cを個々に区別する必要がない場 合、単に、振動材 26と称し、振動子 27A乃至 27Fを個々に区別する必要がない場 合、単に、振動子 27と称する。
[0039] 図 3は、本発明を適用した衝立スピーカ装置 21の一実施の形態の構成を示すプロ ック図である。
[0040] 図 2に示す場合と同様の部分には、同一の符号が付してあり、その説明は (適宜) 省略する。
[0041] 音声入力端子 41 1乃至 41 Nのそれぞれには、例えば、後述するマイクロホン が接続され、音声入力端子 41— 1乃至 41— Nのそれぞれは、マイクロホンにより集 音された音声の音声信号であって、マイクロホン力 入力されてくる音声信号を信号 処理部 42に供給する。
[0042] 信号処理部 42は、例えば、 DSP (Digital Signal Processor)または MPU (Micro Proce ssing Unit)など力も構成される。信号処理部 42は、制御部 43の制御の基に、音声入 力端子 41 - 1乃至 41—Nのそれぞれ力も入力されてくる音声信号に、所定の処理を 施し、処理により得られた音声信号を振動子 27— 1乃至 27— Mのそれぞれに供給 する。
[0043] 制御部 43は、信号処理部 42に制御信号を供給することにより、信号処理部 42を 制御する。 [0044] また、制御部 43は、ユーザの視聴位置を検出するセンサ 44から供給されてくる信 号に応じて制御信号を生成し、生成した制御信号を信号処理部 42に供給する。
[0045] なお、センサ 44は、例えば、床に設けたマットセンサ、マイクアレイ、またはビデオ力 メラなど力 なり、音声信号または映像信号に基づいて、ユーザが視聴している位置 を検出する。
[0046] 振動子 27— 1乃至 27— Mのそれぞれは、信号処理部 42から供給された音声信号 を基に、自分が装着されている振動材 26を振動させる。その結果、振動材 26は、音 声を出力することになる。
[0047] 信号処理部 42は、信号選択部 51、本処理部 52、ディレイ処理部 53— 1乃至 53—
M、フィルタ処理部 54— 1乃至 54— M、およびゲイン調整部 55— 1乃至 55— Mを 含むようにして構成される。
[0048] 信号選択部 51は、制御部 43からの制御信号を基に、音声入力端子 41— 1乃至 4
1—Nのそれぞれから入力されてくる音声信号の供給先として、振動子 27— 1乃至 2
7— Mのいずれかを選択し、音声信号が選択された振動子に供給されるよう本処理 部 52を制御する。
[0049] また、信号選択部 51は、音声入力端子 41— 1乃至 41— Nのそれぞれから入力さ れてくる音声信号を、本処理部 52に供給する。
[0050] 本処理部 52は、信号選択部 51から供給される音声信号に対して、所定の処理を 施す。本処理部 52は、信号選択部 51の制御の基に、所定の処理が施された音声信 号を、供給先となる振動子に対する信号処理を行うディレイ処理部 53— 1乃至 53— Mの!、ずれかに供給する。
[0051] ここで、本処理部 52が行う所定の処理であるが、本処理部 52は、例えば、音声信 号のノイズを除去する処理などを行う。また、本処理部 52は、信号選択部 51の制御 の基に、所定の処理を行わずに、音声入力端子 41—1乃至 41— Nのそれぞれから 入力されてくる音声信号を、そのまま、供給先となる振動子に対する信号処理を行う ディレイ処理部 53— 1乃至 53— Mの 、ずれかに供給するようにしてもよ!、。
[0052] ディレイ処理部 53— 1は、制御部 43から供給される制御信号を基に、本処理部 52 から供給される音声信号に対して、所定の処理を施し、処理が施された音声信号を フィルタ処理部 54— 1に供給する。
[0053] ここで、ディレイ処理部 53— 1が行う所定の処理である力 例えば、ディレイ処理部 53— 1は、制御部 43から供給された、ユーザの視聴位置に応じた遅延量を示す制 御信号を基に、本処理部 52から供給される音声信号に対して、所定の遅延量だけ 遅延させる処理 (遅延処理)を施す。ディレイ処理部 53— 1は、遅延処理が施された 音声信号をフィルタ処理部 54— 1に供給する。
[0054] ディレイ処理部 53— 2は、ディレイ処理部 53— 1と同様に、制御部 43から供給され る制御信号を基に、本処理部 52から供給される音声信号に対して、音声信号を遅延 させる処理を施し、遅延処理が施された音声信号をフィルタ処理部 54— 2に供給す る。
[0055] ディレイ処理部 53— 3乃至 53— Mのそれぞれは、ディレイ処理部 53— 1と同様に、 制御部 43から供給される制御信号を基に、本処理部 52から供給される音声信号に 対して、音声信号を遅延させる処理を施し、遅延処理が施された音声信号をフィルタ 処理部 54— 3乃至 54— Mのそれぞれに供給する。
[0056] なお、ディレイ処理部 53— 1乃至 53— Mのそれぞれが行う遅延処理の詳細は後述 する。
[0057] フィルタ処理部 54— 1は、制御部 43から供給される制御信号を基に、ディレイ処理 部 53— 1から供給される音声信号に対して、所定の処理を施し、処理が施された音 声信号をゲイン調整部 55— 1に供給する。
[0058] ここで、フィルタ処理部 54— 1が行う所定の処理である力 例えば、フィルタ処理部 54— 1は、制御部 43から供給された制御信号を基に、ディレイ処理部 54— 1から供 給される音声信号に対して、 FIR (Finite Impulse Response)フィルタや IIR (Infinite Imp ulse Response)フィルタなどのフィルタにより、所定の周波数帯域の音声信号を通過 させたり、阻止したりするフィルタ処理を施す。フィルタ処理部 54— 1は、フィルタ処理 が施された音声信号をゲイン調整部 55— 1に供給する。
[0059] フィルタ処理部 54— 2は、フィルタ処理部 54— 1と同様に、制御部 43から供給され る制御信号を基に、ディレイ処理部 53— 2から供給される音声信号に対して、所定の 周波数帯域の音声信号を通過させたり、阻止したりするフィルタ処理を施し、フィルタ 処理が施された音声信号をゲイン調整部 55— 2に供給する。
[0060] フィルタ処理部 54— 3乃至 54— Mのそれぞれは、フィルタ処理部 54— 1と同様に、 制御部 43から供給される制御信号を基に、ディレイ処理部 53— 3乃至 53— Mのそ れぞれから供給される音声信号に対して、所定の周波数帯域の音声信号を通過さ せたり、阻止したりするフィルタ処理を施し、フィルタ処理が施された音声信号をゲイ ン調整部 55— 3乃至 55— Mのそれぞれに供給する。
[0061] なお、フィルタ処理部 54— 1乃至 54— Mのそれぞれが行うフィルタ処理の詳細は 後述する。
[0062] ゲイン調整部 55— 1は、制御部 43から供給される制御信号を基に、フィルタ処理部 54— 1から供給される音声信号に対して、所定の処理を施し、処理が施された音声 信号を振動子 27— 1に供給する。
[0063] ここで、ゲイン調整部 55— 1が行う所定の処理である力 例えば、ゲイン調整部 55
1は、制御部 43から供給された制御信号を基に、フィルタ処理部 54— 1から供給さ れる音声信号に対して、入力されてくる音声信号を基にゲインを調整し、出力する音 声信号のレベルの範囲を制限するゲイン調整処理を施す。ゲイン調整部 55— 1は、 ゲイン調整処理が施された音声信号を振動子 27— 1に供給する。
[0064] ゲイン調整部 55— 2は、ゲイン調整部 55— 1と同様に、制御部 43から供給された 制御信号を基に、フィルタ処理部 54— 2から供給される音声信号に対して、出力する 音声信号レベルの範囲を制限するゲイン調整処理を施し、ゲイン調整処理が施され た音声信号を振動子 27— 2に供給する。
[0065] ゲイン調整部 55— 3乃至 55— Mのそれぞれは、ゲイン調整部 55— 1と同様に、制 御部 43から供給された制御信号を基に、フィルタ処理部 54— 3乃至 54— Mのそれ ぞれ力 供給される音声信号に対して、出力する音声信号レベルの範囲を制限する ゲイン調整処理を施し、ゲイン調整処理が施された音声信号を振動子 27— 3乃至 2 7 Mのそれぞれに供給する。
[0066] なお、ゲイン調整部 55— 3乃至 55— Mのそれぞれが行うゲイン調整処理の詳細は 後述する。
[0067] このように、衝立スピーカ装置 21にお 、ては、信号処理部 42が所定の信号処理を 行うことにより、振動子 27に供給する音声信号に重み付けをし、振動板 26に所望の 音声を出力させることができる。
[0068] なお、以下の説明において、ディレイ処理部 53— 1乃至 53— Mを個々に区別する 必要がない場合、単に、ディレイ処理部 53と称し、フィルタ処理部 54— 1乃至 54— Mを個々に区別する必要がない場合、単に、フィルタ処理部 54と称し、ゲイン調整部 55— 1乃至 55— Mを個々に区別する必要がない場合、単に、ゲイン調整部 55と称 する。
また、音声入力端子 41— 1乃至 41— Nを個々に区別する必要がない場合、単に、 音声入力端子 41と称する。
[0069] さらにまた、上述した例においては、振動子 27— 1乃至 27— Mのそれぞれに供給 される音声信号に対して、ディレイ処理部 53、フィルタ処理部 54、およびゲイン調整 部 55のそれぞれが所定の処理を施すとして説明したが、本発明においては、全ての 処理を施す必要はなぐ例えば、音声信号に対して、ディレイ処理部 53による遅延処 理のみを施すようにしてもょ 、。
[0070] さらに、上述した例においては、説明を分かり易くするために、ディレイ処理部 53は 、ディレイ処理部 53— 1乃至 53— Mに分けて説明し、フィルタ処理部 54は、フィルタ 処理部 54— 1乃至 54— Mに分けて説明し、ゲイン調整部 55は、ゲイン調整部 55— 1乃至 55— Mに分けて説明した力 本発明においては、それぞれを 1つの処理部( 例えば、ディレイ処理部 53、フィルタ処理部 54、またはゲイン調整部 55)にまとめて 処理を行うようにしてもよい。
[0071] ところで、信号処理部 42に音声信号を入力する音声入力端子 41には、例えば、複 数のマイクロホンが接続され、信号処理部 42は、それらのマイクロホンが集音した音 声の音声信号に対して、所定の信号処理を施すことになる。
[0072] 図 4は、マイクロホンを音声入力端子 41に接続させた場合における、マイクロホンの 取り付け例を説明する図である。
[0073] 音声入力端子 41— 1乃至 41— 6のそれぞれには、図 4の例に示すように、ケープ ル 72—1乃至 72— 6のそれぞれを介して、マイクロホン 71— 1乃至 71— 6のそれぞ れが接続され、マイクロホン 71— 1乃至 71— 6のそれぞれは、マイクロフォンスタンド 73により固定されている。
[0074] マイクロホン 71— 1乃至 71— 6のそれぞれは、音声を集音し、集音した音声を音声 信号に変換する。マイクロホン 71— 1乃至 71— 6のそれぞれは、ケーブル 72— 1乃 至 72— 6のそれぞれを介して、変換した音声信号を音声入力端子 41— 1乃至 41— 6のそれぞれに出力する。
[0075] このように、マイクロホン 71— 1乃至 71— 6は、 6方向に向けられることにより 6方向 から集音し、集音した音声の音声信号を、ケーブル 72— 1乃至 72— 6と音声入力端 子 41— 1乃至 41—6とのそれぞれを介して、信号処理部 42に入力することになる。
[0076] なお、図 4の例では、 6本のマイクロホンを 6方向に向けて集音した力 本発明にお いては、 6本に限らず、複数のマイクロフホンにより任意の方向から集音するようにし てもよい。また、マイクロホンの配置である力 図 4の例で示したように、同心円上に配 置する必要はなぐ任意の位置に配置してよい。
[0077] さらに、図 4の例では、マイクロホン 71— 1乃至 71— 6のそれぞれを、ケーブル 72 —1乃至 72— 6のそれぞれを介して、音声入力端子 41— 1乃至 41— 6に接続させる ことにより、マイクロホンにより集音される音声をリアルタイムで処理することが可能とな る力 本発明はそれに限らず、例えば、マイクロホン力 録音した音声を記録している 録音装置などを、音声入力端子 41に接続させるようにしてもょ ヽ。
[0078] また、以下の説明においては、マイクロホン 71— 1乃至 71— 6を個々に区別する必 要がない場合、単に、マイクロホン 71と称し、ケーブル 72— 1乃至 72— 6を個々に区 別する必要がない場合、単に、ケーブル 72と称する。
[0079] ところで、本発明の衝立スピーカ装置 21は、部屋の壁となるように構成することがで きる。すなわち、衝立スピーカ装置 21を部屋の壁として設けることにより、壁は、部屋 を仕切る役割を果たすとともに、音声を出力させることもできる。
[0080] 図 5は、本発明を適用した部屋 81の一実施の形態の構成を示す図である。
[0081] 図 3に示す場合と同様の部分には、同一の符号が付してあり、その説明は (適宜) 省略する。
[0082] 部屋 81は、複数の衝立スピーカ装置 21が部屋の壁となることにより構成される、本 発明の部屋の一例である。 [0083] すなわち、衝立スピーカ装置 21が壁として設けられている部屋 81では、壁は、部屋 を仕切る役割を果たすとともに、音声を出力させることができる。図 5の例は、上側か ら見た場合の図となるので、衝立スピーカ装置 21— 1乃至 21— 12のそれぞれにより 囲まれた空間が部屋 81となる。
[0084] なお、図 5は、部屋 81を上側力も見た図となるので、衝立スピーカ装置 21— 1乃至 21— 12のそれぞれにおいては、黒色の四角が振動板を表現し、その振動板に装着 されて 、る 2つの白色の四角が振動子を表現して!/、る。
[0085] また、部屋 81は、衝立スピーカ装置 21により四方を囲まれるように構成されるので 、 12台の衝立スピーカ装置 21が横方向に連結されて 、るように表現されて 、るが、 実際には、図 2の例で示したように、縦方向にも振動材が連結されており、振動材ぉ よび振動子のそれぞれの数は任意である。
[0086] 部屋 81は、衝立スピーカ装置 21— 1乃至 21— 3、衝立スピーカ装置 21— 4乃至 2 1— 6、衝立スピーカ装置 21— 7乃至 21— 9、衝立スピーカ装置 21— 10乃至 21— 1 2の 4つの面により構成されている。すなわち、部屋 81の四方を囲む 4つの面は、そ れぞれ 3つの衝立スピーカ装置 21により構成される。
[0087] 衝立スピーカ装置 21— 1乃至 21— 12のそれぞれは、衝立スピーカ装置 21と同様 に、スピーカの機能と同時に、衝立 (壁)としての役割も果たす。すなわち、衝立スピ 一力装置 21— 1乃至 21— 12のそれぞれは、振動材を縦方向に増やしたり、振動材 の厚みを調節したりすることにより、多様な音声を出力させることができる。
[0088] なお、図 5の例では、部屋 81は、 4つの面に囲まれているとして説明した力 本発明 においては、 4つの面に限らず、少なくとも 1つの面が設けられていればよい。また、 1 つの面を 3つの衝立スピーカ装置により構成されるとして説明したが、本発明におい ては、 3つの衝立スピーカ装置に限らず、少なくとも 1つの面に 1つの衝立スピーカ装 置が設けられて 、ればよ 、。
[0089] 音声入力端子 41— 1乃至 41— Nのそれぞれには、例えば、マイクロホン 71が接続 され、音声入力端子 41— 1乃至 41— Nのそれぞれは、マイクロホン 71により集音さ れた音声の音声信号であって、マイクロホン 71から入力されてくる音声信号を信号処 理部 42に供給する。 [0090] 信号処理部 42は、制御部 43の制御の基に、音声入力端子 41— 1乃至 41— Nの それぞれから入力されてくる音声信号に、例えば、上述した、遅延処理、フィルタ処 理、またはゲイン調整処理などの所定の処理を施し、処理により得られた音声信号を 衝立スピーカ装置 21— 1乃至 21— 12のそれぞれに装着されて!、る振動子 27— 1乃 至 27 - 24のそれぞれに供給する。
[0091] 振動子 27— 1乃至 27— 24のそれぞれは、振動材 26— 1乃至 26— 12のそれぞれ の振動特性にしたがって、所定の位置に配置されており、信号処理部 42から供給さ れる音声信号を基に、振動材 26— 1乃至 26— 12のそれぞれを振動させる。
[0092] 振動材 26— 1乃至 26— 12のそれぞれは、振動子 27— 1乃至 27— 24のそれぞれ により振動させられることで、音声を出力する。すなわち、振動材 26— 1乃至 26— 12 のそれぞれは、図 5の例で示すように、部屋 81の四方を囲むようにして構成されてい る場合、部屋 81全体が音場となる。
[0093] また、制御部 43は、センサ 44により検出された、部屋 81の中にいるユーザの位置 に基づいて、信号処理部 42が行う信号処理を制御することにより、ユーザのいる位 置での音声が最適になるように音場を制御する。
[0094] このように、部屋 81は、衝立スピーカ装置 21—1乃至 21—12を連結させて部屋を 構成しているので、部屋全体の音場を制御することができる。また、部屋 81は、ユー ザのいる位置をセンサ 44により検出することにより、ユーザのいる位置に最適となる 音声を出力することができる。
[0095] 例えば、ユーザが、タツチパネルリモコンや、ジョイステックなどを操作して、部屋 81 の音場を回転させるようにした場合、部屋 81の位置に応じて、振動子番号、入力信 号番号、遅延量、フィルタ番号、またはゲイン値などを音場マップとして予め保持して おくことにより、部屋 81は、その音場マップに基づいて、ユーザが視聴している位置 に音声を回転させることができる。
[0096] 部屋 81の音場を回転させる方法としては、例えば、信号処理部 42の信号選択部 5 1が、制御部 43から供給される音場マップの情報を含む制御信号を基に、音声入力 端子 41 - 1乃至 41—Nのそれぞれ力も入力されてくる音声信号の供給先として、振 動子 27— 1乃至 27— 24のいずれかを選択し、音声信号が選択された振動子に供 給されるように制御する。その結果、部屋 81は、音声入力端子 41— 1乃至 41— Nの それぞれから入力されてくる音声信号の数の回転角度で回転することができる。
[0097] また、ディレイ処理部 53、フィルタ処理部 54、およびゲイン調整部 55のそれぞれは 、制御部 43から供給される音場マップの情報を含む制御信号を基に、所定の処理を 行うことにより、原理的には、回転角度が小さくなるので、よりなめらかな回転が可能と なる。
[0098] なお、以下の説明においては、振動子 27— 1乃至 27— 24を個々に区別する必要 がない場合、単に、振動子 27と称し、振動材 26— 1乃至 26— 12を個々に区別する 必要がない場合、単に、振動材 26と称する。
[0099] 図 6は、振動材 26に取り付ける振動子 27について説明する図である。
[0100] なお、図 2乃至図 5のそれぞれに示す場合と同様の部分には、同一の符号が付し てあり、その説明は (適宜)省略する。また、図 6の例では、説明を分かり易くするため に、 2本のマイクロホンにより集音した場合について説明する。さらに、 2本のマイクロ ホンにより集音した音声の音声信号を、信号処理部 42— 1および信号処理部 42— 2 のそれぞれに入力するように表現されている力 信号処理部 42— 1および信号処理 部 42— 2のそれぞれは、上述した、信号処理部 42と同様の処理を行う。
[0101] 信号処理部 42— 1は、マイクロホン 71— 1から入力されてくる音声信号に対して、 所定の処理を施し、処理が施された音声信号を、振動子 27— 2および振動子 27— 3 のそれぞれに供給する。
[0102] 信号処理部 42— 2は、信号処理部 42— 1と同様に、マイクロホン 71— 2から入力さ れてくる音声信号に対して、所定の処理を施し、処理が施された音声信号を、振動 子 27— 4および振動子 27— 5のそれぞれに供給する。
[0103] 振動子 27— 2乃至 27— 5のそれぞれは、振動材 26— 1乃至 26— 3の所定の位置 に配置され、信号処理部 42— 1および信号処理部 42— 2のいずれかから供給される 音声信号を基に、振動材 26— 1乃至 26— 3のいずれ力を振動させることにより、音声 を出力させる。
[0104] すなわち、振動材 26— 2には、図 6の例で示すように、振動子 27— 3および振動子 27— 4の 2つの振動子が装着されており、振動子 27— 3および振動子 27— 4のそれ ぞれは、振動材 26— 2を振動させることにより、マイクロホン 71— 1およびマイクロホン
71— 2のそれぞれで集音された音声を出力させる。
[0105] 図 7は、図 6の振動材 26— 2を正面から見た場合の図である。
[0106] 振動子 27— 3は、信号処理部 42— 1から供給される音声信号 Aを基に、例えば、 図 7の振動子 27— 3を中心とした 3重円の点線で示す振動波 aのように、振動材 26—
2を振動させることにより、振動材 26— 2に音声を出力させる。
[0107] また、振動子 27— 4は、信号処理部 42— 2から供給される音声信号 Bを基に、例え ば、図 7の振動子 27— 4を中心とした 3重円の点線で示す振動波 bのように、振動材
26 - 2を振動させることにより、振動材 26— 2に音声を出力させる。
[0108] 図 7の弧状の点線で示す合成波 cは、振動波 aと振動波 bとが、振動材 26— 2上で 合成されることにより、発生した波である。すなわち、合成波 cが発生している位置に は、振動材 26— 2を振動させる振動子は設けられていないが、合成波 cは、振動子 2
7— 3と振動子 27— 4とが振動材 26— 2を振動させることにより発生する振動波から つくられることになる。
[0109] 換言すれば、合成波 cは、振動子 27— 3と振動子 27— 4との中間となる位置に振動 子が存在し、その仮想的な振動子が振動材 26— 2を振動させることにより、振動材 2 6— 2に出力させた音波 (音声)(以下、中間音とも称する)となる。
[0110] このように、本発明においては、複数のマイクロホンにより集音した音声を、空気中 で混ぜ合わせるのではなぐ振動板上の任意の位置で合成させることで、マイクロホ ンが設けられた位置における音声とともに、マイクロホン間に存在したと想定される中 間音も出力させることができる。その結果、音源が離散的に配置されていない、その 場にいるような臨場感のある音場をつくりだすことができる。
[0111] なお、上述した例においては、 1枚の振動材 26— 2に、 2つの振動子 27— 3と振動 子 27— 4とが装着されるとして説明した力 最低 2つ以上の振動子 27が装着されて いればよぐそれらの複数の振動子 27は、振動材 26の特性に応じて、所定の位置に 酉己置されること〖こなる。
[0112] また、合成波 cを発生させる位置であるが、信号処理部 42が所定の処理を行うこと により、振動材 26の所望の位置に合成波 cを発生させることができる。すなわち、信 号処理部 42は、所定の処理が施された音声信号を振動子 27に供給して、物理的に 振動材 26に音声を出力させて、所望の位置に合成波 cを発生させることにより、所望 の位置力 中間音を出力させることが可能となる。
[0113] 図 8の例で示すように、振動材 26— 2上の、振動子 27— 3から距離 L1だけ図中右 側に離れ、振動子 27— 4から距離 L2だけ図中左側に離れている位置 91から合成波 cを発生させたい場合、信号処理部 42のディレイ処理部 53、フィルタ処理部 54、お よびゲイン調整部 55のそれぞれは、マイクロホン 71が集音した音声の音声信号に対 して、所定の信号処理を行う。
[0114] ディレイ処理部 53は、制御部 43から供給された遅延量を示す制御信号を基に、マ イク口ホン 71により集音された音声の音声信号に対して、遅延処理を行う。
[0115] ここで、制御部 43から供給される遅延量を示す制御信号である力 例えば、振動子 27— 3に対する遅延量を遅延量 D1とし、振動子 27— 4に対する遅延量を遅延量 D2 とした場合、遅延量 D1および遅延量 D2のそれぞれは、式(1)および式(2)のそれぞ れ力 算出される。
[0116] Dl= (L2-Ll) /2 X v+ a · · · (1)
[0117] D2= (Ll-L2) /2 X v+ a · · · (2)
[0118] 但し、 Vは、振動材 26の伝搬速度を示し、 aは、複数枚の振動材 26を設けた場合 に遅延量を調整する値 (調整量)を示す。なお、伝搬速度 Vは、振動材 26の材質によ り異なるので、材質毎に値を変える必要がある。また、調整量 αは、複数枚の振動材 26を設けた場合、例えば、ユーザの位置に応じて、振動材 26間で遅延量を調整す る値となる。
[0119] すなわち、制御部 43から供給される制御信号には、遅延量 D1および遅延量 D2を 示す情報が含まれており、ディレイ処理部 53は、それらの遅延量 D1および遅延量 D2 を基に、マイクロホン 71が集音した音声信号に対して、遅延処理を行う。
[0120] フィルタ処理部 54は、制御部 43から供給された制御信号を基に、マイクロホン 71 により集音された音声の音声信号に対して、 FIRフィルタや IIRフィルタなどのフィルタ により、所定の周波数帯域の音声信号を通過させたり、阻止したりするフィルタ処理 を行う。 [0121] 図 9の例で示すように、振動材 26を垂直方向に 2列に並べた場合(図 9では縦 2 X 横 2)、フィルタ処理部 54は、高い位置に設けられた振動材 26— 1および振動材 26 3のそれぞれ力 は、高い周波数の音声 (高い音)が出力されるようにし、低い位置 に設けられた振動材 26 - 2および振動材 26—4のそれぞれからは、低 、周波数の 音声 (低 、音)が出力されるようにする。
[0122] なお、図 9の例では、説明を分力り易くするために、縦 2 X横 2に並べられた 4枚の 振動材を、振動材 26— 1乃至 26— 4と称し、それらの 4枚の振動材にそれぞれ装着 された 4つの振動子を、振動子 27— 1乃至 27— 4と称して説明する。
[0123] 図 10は、フィルタ処理部 54の詳細を説明する図である。
[0124] なお、図 3に示す場合と同様の部分には、同一の符号が付してあり、その説明は( 適宜)省略する。
[0125] フィルタ処理部 54は、制御部 43から供給された制御信号を基に、フィルタ係数バ ンク 101から、例えば、ハイパスフィルタ(HPF (High Pass Filter) )、ローパスフィルタ( LPF (Low Pass Filter) )、またはバンドパスフィルタ(BPF (Band Pass Filter) )などのフ ィルタ係数を取得する。フィルタ処理部 54は、マイクロホン 71により集音された音声 の音声信号に対して、フィルタ係数バンク 101から取得したフィルタ係数に応じたフィ ルタ処理を行う。
[0126] すなわち、フィルタ処理部 54— 1は、制御部 43から供給された制御信号を基に、マ イク口ホン 71により集音された音声の音声信号 Cに対して、フィルタ係数バンク 101 力 取得した係数であるハイパスフィルタにより、遮断周波数以上の周波数の音声信 号 Cのみを通過させ、遮断周波数以下の周波数の音声信号 Cを減衰させることで、フ ィルタ処理が施された音声信号 C を (ゲイン調整部 55— 1を介して、)振動子 27—
HPF
1に供給する。そして、振動子 27— 1は、フィルタ処理部 54— 1から供給された音声 信号 C を基に、振動材 26— 1を振動させることにより、高い周波数の音声を出力さ
HPF
せる。
[0127] また、フィルタ処理部 54— 2は、制御部 43から供給された制御信号を基に、マイク 口ホン 71により集音された音声の音声信号 Cに対して、フィルタ係数バンク 101から 取得した係数であるローパスフィルタにより、遮断周波数以下の周波数の音声信号 C のみを通過させ、遮断周波数以上の周波数の音声信号 Cを減衰させることで、フィル タ処理が施された音声信号 C を (ゲイン調整部 55— 2を介して、)振動子 27— 2に
LPF
供給する。そして、振動子 27— 2は、フィルタ処理部 54— 2から供給された音声信号 C を基に、振動材 26— 2を振動させることにより、低い周波数の音声を出力させる し PF
[0128] さらにまた、フィルタ処理部 54— 3は、フィルタ処理部 54— 1と同様に、制御部 43か ら供給された制御信号を基に、マイクロホン 71により集音された音声の音声信号 Dに 対して、フィルタ係数バンク 101から取得した係数であるハイパスフィルタによりフィル タ処理を施し、フィルタ処理が施された音声信号 D を (ゲイン調整部 55— 3を介し
HPF
て、)振動子 27— 3に供給する。そして、振動子 27— 3は、フィルタ処理部 54— 3から 供給された音声信号 D を基に、振動材 26— 3を振動させることにより、高い周波数
HPF
の音声を出力させる。
[0129] また、フィルタ処理部 54— 4は、フィルタ処理部 54— 2と同様に、制御部 43から供 給された制御信号を基に、マイクロホン 71により集音された音声の音声信号 Dに対し て、フィルタ係数バンク 101から取得した係数であるローパスフィルタによりフィルタ処 理を施し、フィルタ処理が施された音声信号 D を (ゲイン調整部 55— 4を介して、 )
LPF
振動子 27— 4に供給する。そして、振動子 27— 4は、フィルタ処理部 54— 4から供給 された音声信号 D を基に、振動材 26— 4を振動させることにより、低い周波数の音
LPF
声を出力させる。
[0130] すなわち、複数枚の振動材 26を利用する場合、それぞれの振動材 26の厚さゃ材 質、振動子 27を取り付ける位置により、振動材 26の特性が異なるので、フィルタ処理 部 54は、それぞれの振動材 26で最適となる帯域 (例えば、最も音量の大きく出る帯 域や、最も周波数特性がフラットになる帯域など)を受け持つように、音声信号に対し て、所定のフィルタ処理を施して、それぞれの振動材 26に入力される周波数の帯域 を制限する。
[0131] 図 11は、ゲイン調整部 55の詳細について説明する図である。
[0132] なお、図 3に示す場合と同様の部分には、同一の符号が付してあり、その説明は( 適宜)省略する。 [0133] ゲイン調整部 55は、制御部 43から供給された制御信号を基に、ゲイン係数バンク 1 11から、ゲイン係数を取得する。ゲイン調整部 55は、マイクロホン 71により集音され た音声の音声信号に対して、ゲイン係数バンク 111から取得したゲイン係数に応じた ゲイン調整処理を行う。
[0134] ここで、ゲイン係数には、例えば、線形に変化する係数、対数で変化する係数、ま たはユーザの聴覚特性に合わせて非線形に変化する係数などがあり、ゲイン調整部 55は、それらの係数により、入力されてくる音声信号に対して、ゲインを調整すること により出力する音声信号のレベルの範囲を制限し、ゲイン調整処理が施された音声 信号を振動子 27に供給する。そして、振動子 27は、ゲイン調整部 55から供給される ゲインが調整された音声信号を基に、振動材 26を振動させることにより、音声を出力 させる。
[0135] すなわち、振動材 26は、その材質により振動材内部の振動の減衰率が異なるので 、図 8の例に示すように、特定の位置である位置 91の振動を最大にし、その位置 91 に音声信号 Aと音声信号 Bとの中間音をつくり出す場合、材質の減衰率に応じてゲイ ンを調整すること〖こなる。
[0136] ところで、振動材 26には、複数の振動子 27を所望の位置に取り付けることができる ので、図 12の例に示すように、振動材 26上に振動子 27— 1乃至 27— 4のそれぞれ を取り付ける場合、信号処理部 42は、上述した、遅延処理、フィルタ処理、またはゲ イン調整処理などを行うことで、振動材 26上の任意の位置を中心とした、図中の斜線 で示す面 121から複数の音声信号の中間音を出力するように制御することができる。
[0137] すなわち、信号処理部 42は、例えば、マイクロホン 71— 1乃至 71— 4のそれぞれ 力 入力された音声信号 E乃至 Hのそれぞれに対して、遅延処理、フィルタ処理、ま たはゲイン調整処理などの所定の処理を施し、処理を施した音声信号 E乃至 Hのそ れぞれを振動子 27— 1乃至 27— 4のそれぞれに供給する。
[0138] 振動子 27— 1乃至 27— 4のそれぞれは、信号処理部 42から供給される音声信号 E乃至 Hのそれぞれに応じて、振動材 26を振動させることにより、面 121から中間音 を出力させる。
[0139] また、このとき、振動子 27— 1乃至 27— 4のそれぞれは、振動材 26の端に取り付け るのが望ましい。例えば、振動子 27— 1および振動子 27— 2のそれぞれは、図 13の 例で示すように、振動子 27— 1を振動材 26の図中左端に取り付け、振動子 27— 2を 振動子 26の図中右端に取り付けることにより、図 12の面 121の範囲を拡大させること ができる。
[0140] なお、振動子 27— 3および振動子 27— 4のそれぞれにおいても、振動材 26の端に 取り付けることにより、振動材 26上の任意の位置を中心とした面 121の範囲を拡大さ せることができる。
[0141] このように、振動材 26上の任意の位置を中心とした面 121から、複数の信号源 (例 えば、音声信号 E乃至 H)の中間音が出力するように制御することにより、上述した音 場の回転をより滑らかに行うことが可能となる。
[0142] 次に、図 14のフローチャートを参照して、衝立スピーカ装置 21が行う、音声出力の 処理について説明する。
[0143] ステップ S11において、マイクロホン 71は、音声を集音し、集音した音声を音声信 号に変換する。マイクロホン 71は、ケーブル 72を介して、変換した音声信号を音声 入力端子 41に出力することで、音声信号を信号処理部 42に供給する。
[0144] 例えば、ステップ S11において、同心円上に配置された 6本のマイクロホン 71— 1 乃至 71—6 (図 4)は、それぞれ、音声を集音し、集音した音声を音声信号に変換し、 変換した音声信号を、ケーブル 72および音声入力端子 41を介して、信号処理部 42 に供給する。
[0145] ステップ S12において、信号処理部 42は、制御部 43の制御の基に、マイクロホン 7 1が集音した音声の音声信号であって、音声入力端子 41から入力されてくる音声信 号に、所定の処理を施し、処理により得られた音声信号を振動子 26に供給する。
[0146] 例えば、ステップ S12において、信号処理部 42は、制御部 43の制御の基に、マイ クロホン 71— 1乃至 71—6のそれぞれ力も供給されてくる音声信号に対して、遅延処 理、フィルタ処理、またはゲイン調整処理などの処理を施し、信号処理が施された音 声信号のうち、マイクロホン 71— 1により集音された音声の音声信号を振動子 27— 1 に供給する。また、同様に、信号処理部 42は、制御部 43の制御の基に、マイクロホ ン 71— 2乃至 71—6のそれぞれにより集音された音声信号であって、信号処理が施 された音声信号を、振動子 27— 2乃至 27— 6のそれぞれに供給する。
[0147] すなわち、図 5の例で示すように、衝立スピーカ装置 21— 1が、振動板 26— 1と、振 動子 27— 1および振動子 27— 2とから構成され、衝立スピーカ装置 21— 2が、振動 板 26— 2と、振動子 27— 3および振動子 27— 4とから構成され、衝立スピーカ装置 2 1—3が、振動板 26— 3と、振動子 27— 5および振動子 27— 6とから構成されている 場合、信号処理部 42は、マイクロホン 71— 1乃至 71— 6のそれぞれが集音した音声 信号であって、信号処理が施された音声信号を、振動板 26— 1乃至 26— 3のそれぞ れに装着された、振動子 27—1乃至振動子 27— 6のそれぞれに供給する。信号処 理の詳細については後述する
[0148] ステップ S 13において、振動子 27は、信号処理部 42から供給される音声信号を基 に、振動材 26を振動させる。
[0149] 例えば、ステップ S13において、振動子 27— 1は、マイクロホン 71— 1が集音した 音声の音声信号であって、信号処理部 42から供給される音声信号を基に、振動材 2 6—1を振動させる。また、同様に、振動子 27— 2乃至 27— 6のそれぞれは、マイクロ ホン 72— 2乃至 71— 6のそれぞれが集音した音声の音声信号であって、信号処理 部 42から供給される音声信号を基に、それぞれが装着されている振動材 26— 1乃 至 26 - 3のそれぞれを振動させる。
[0150] ステップ S14において、振動材 26は、振動子 27により振動させられることにより、音 声を出力して、処理は終了する。
[0151] 例えば、ステップ S14において、振動材 26— 1は、振動子 27— 1および振動子 27
2のそれぞれにより振動させられることにより、マイクロホン 71— 1およびマイクロホ ン 71— 2のそれぞれが集音した音声を出力する。
[0152] このとき、振動材 26— 1は、振動子 27— 1がマイクロホン 71—1で集音された音声 信号により振動し、振動子 27— 2がマイクロホン 71— 2で集音された音声信号により 振動するので、上述したように、それらの振動が振動板 26— 1上で合成することによ り、中間音を発生させる。すなわち、この中間音は、マイクロホンで直接集音していな いが、マイクロホン 71— 1とマイクロホン 71— 2との間で集音されたと想定される音声 となる。 [0153] また、例えば、振動材 26— 2は、振動材 26— 1と同様に、振動子 27— 3および振動 子 27— 4のそれぞれにより振動させられることにより、マイクロホン 71— 3およびマイク 口ホン 71—4のそれぞれが集音した音声を出力する。
[0154] このとき、振動材 26— 2は、振動材 26— 1と同様に、振動子 27— 3のマイクロホン 7 1—3からの音声信号による振動と、振動子 27— 4のマイクロホン 71— 4からの音声 信号による振動とが、振動材 26— 2上で合成することにより、マイクロホン 71— 3とマ イク口ホン 71— 4との間で集音されたと想定される中間音を発生させる。
[0155] さらに、例えば、振動材 26— 3は、振動材 26— 1と同様に、振動子 27— 5および振 動子 27— 6のそれぞれにより振動させられることにより、マイクロホン 71— 5およびマ イク口ホン 71— 6のそれぞれが集音した音声を出力する。
[0156] このとき、振動材 26— 3は、振動材 26— 1と同様に、振動子 27— 5のマイクロホン 7 1—5からの音声信号による振動と、振動子 27— 6のマイクロホン 71— 6からの音声 信号による振動とが、振動材 26— 3上で合成することにより、マイクロホン 71— 5とマ イク口ホン 71— 6との間で集音されたと想定される中間音を発生させる。
[0157] このように、衝立スピーカ装置 21— 1乃至 21— 3のそれぞれは、マイクロホン 71— 1 乃至 71— 6のそれぞれにより集音された音声はもちろん、各マイクロホンの間で集音 されたと想定される音声(中間音)も出力することが可能となる。その結果、本発明に おいては、マイクロホンなどの音源が離散的に配置されていない、その場にいるよう な臨場感のある音場を作り出すことができる。
[0158] なお、図 14の例では、説明をわかり易くするために、マイクロホン 71— 1乃至 71— 6のそれぞれにより集音された音声の音声信号を、振動子 27— 1乃至 27— 6に供給 するとして説明した力 本発明はそれに限らず、例えば、マイクロホン 71— 1乃至 71 —6のそれぞれにより集音された音声の音声信号を、図 5の振動子 27— 1乃至 27— 24のそれぞれに供給するようにして、同心円上に配置されたマイクロホンと対応させ るようにしてちょい。
[0159] 次に、図 14のステップ S12の信号処理の詳細について、図 15のフローチャートを 参照して説明する。
[0160] ステップ S21において、信号選択部 51は、制御部 43からの制御信号を基に、音声 入力端子 41から入力されてくる音声信号の供給先として、振動子 27を選択し、音声 信号が選択された振動子 27に供給されるよう本処理部 52を制御する。
[0161] 例えば、ステップ S21において、信号選択部 51は、信号選択部 51は、制御部 43か らの制御信号を基に、音声入力端子 41 1乃至 41 6のそれぞれから入力されてく る音声信号の供給先として、振動子 27— 1乃至 27— 6のそれぞれを選択し、マイクロ ホン 71— 1乃至 71— 6のそれぞれが集音した音声の音声信号が、選択された振動 子 27— 1乃至 27— 6のそれぞれに供給されるように本処理部 52を制御する。
[0162] ステップ S22において、本処理部 52は、信号選択部 51から供給される音声信号に 対して、例えば、音声信号のノイズを除去する処理などの所定の処理を施す。本処 理部 52は、信号選択部 51の制御を基に、所定の処理が施された音声信号を、供給 先となる振動子に対する信号処理を行うディレイ処理部 53に供給する。
[0163] 例えば、ステップ S22において、本処理部 52は、信号選択部 51から供給される、 マイクロホン 71— 1乃至 71—6のそれぞれが集音した音声の音声信号に対して、ノィ ズを除去する処理を施し、処理が施された音声信号を、ディレイ処理部 53— 1乃至 5 3 6のそれぞれに供給する。
[0164] ステップ S23において、ディレイ処理部 53は、制御部 43から供給される制御信号を 基に、本処理部 52から供給される音声信号に対して、音声信号を遅延させる処理を 施し、遅延処理が施された音声信号をフィルタ処理部 54に供給する。
[0165] 例えば、ステップ S23において、ディレイ処理部 53— 1乃至 53— 6のそれぞれは、 制御部 43から供給される制御信号を基に、本処理部 52から供給される、マイクロホ ン 71— 1乃至 71— 6のそれぞれが集音した音声の音声信号に対して遅延処理を施 し、遅延処理が施された音声信号をフィルタ処理部 54— 1乃至 54— 6のそれぞれに 供給する。
[0166] ステップ S24において、フィルタ処理部 54は、制御部 43から供給される制御信号を 基に、ディレイ処理部 53から供給される音声信号に対して、所定の周波数帯域の音 声信号を通過させたり、阻止したりするフィルタ処理を施し、フィルタ処理が施された 音声信号をゲイン調整部 55に供給する。
[0167] 例えば、ステップ S24において、フィルタ処理部 54—1乃至 54— 6のそれぞれは、 制御部 43から供給される制御信号を基に、ディレイ処理部 53— 1乃至 53— 6のそれ ぞれから供給される音声信号に対してフィルタ処理を施し、フィルタ処理が施された 音声信号をゲイン調整部 55— 1乃至 55— 6のそれぞれに供給する。
[0168] ステップ S25において、ゲイン調整部 55は、制御部 43から供給された制御信号を 基に、フィルタ処理部 54から供給される音声信号に対して、出力する音声信号レべ ルの範囲を制限するゲイン調整処理を施し、ゲイン調整処理が施された音声信号を 振動子 27に供給して、処理を図 14のステップ S 12の処理に戻し、ステップ S 13以降 の処理を実行させる。
[0169] 例えば、ステップ S25において、ゲイン調整部 55— 1乃至 55— 6のそれぞれは、制 御部 43から供給された制御信号を基に、フィルタ処理部 54— 1乃至 54— 6のそれぞ れから供給される音声信号に対してゲイン調整処理を施し、ゲイン調整処理が施さ れた音声信号を振動子 27— 1乃至 27— 6のそれぞれに供給する。
[0170] このように、信号処理部 42は、振動子 27に供給される音声信号ごとに異なる信号 処理を施すことができるので、中間音を発生させるために、より適した音声信号を振 動子 27に供給することができる。
[0171] 以上のように、本発明によれば、振動材の広い範囲のそれぞれの部分を適切に振 動させて、それぞれの部分力も音声を発することができる。その結果、より臨場感のあ る音声を出力することができる。
[0172] また、本発明によれば、 2本以上のマイクロホンで集音した音声を、空気中で混ぜ 合わせるのではなぐ振動材上で合成させることにより、集音した位置における音声と ともに、マイクロホン間に存在したと想定される音声も出力させることができる。さらに、 本発明によれば、部屋の壁を衝立スピーカ装置により連結して構成した場合、ユー ザの視聴している位置をセンサにより検出することにより、ユーザの視聴位置に関係 なく臨場感のある音場をつくることができる。
[0173] また、本発明によれば、部屋の壁を衝立スピーカ装置で囲んで音声を振動板上で 合成させることにより、いわゆるスイートスポットを広げることができるとともに、中抜け を防止することちできる。
[0174] 上述した一連の処理は、ハードウェアにより実行させることもできる力 ソフトウェア により実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、 そのソフトウェアを構成するプログラム力 専用のハードウェアに組み込まれているコ ンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行 することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインス トールされる。
[0175] 図 16は、汎用のパーソナルコンピュータ 201の内部の構成例を示す図である。 CP U (Central Processing Unit) 211は、 ROM (Read Only Memory) 212に記憶されてい るプログラム、または記録部 218から RAM (Random Access Memory) 213にロードさ れたプログラムに従って各種の処理を実行する。 RAM213にはまた、 CPU211が各 種の処理を実行する上において必要なデータなども適宜記憶される。
[0176] CPU211, ROM212,および RAM213は、バス 214を介して相互に接続されている 。このバス 214にはまた、入出力インタフェース 215も接続されている。
[0177] 入出力インタフェース 215には、ボタン、スィッチ、キーボードあるいはマウスなどで 構成される入力部 216、 CRT (Cathode Ray Tube)や LCD (Liquid Crystal Display)な どのディスプレイ、並びにスピーカなどで構成される出力部 217、ハードディスクなど で構成される記録部 218、およびモデムやターミナルアダプタなどで構成される通信 部 219が接続されている。通信部 219は、インターネットを含むネットワークを介して 通信処理を行う。
[0178] 入出力インタフェース 215にはまた、必要に応じてドライブ 220が接続され、磁気デ イスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどよりなるリムーバブルメ ディア 211が適宜装着され、そこ力 読み出されたコンピュータプログラム力 記録部 218〖こインス卜一ノレされる。
[0179] コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプロ グラムを記録する記録媒体は、図 16に示されるように、装置本体とは別に、ユーザに プログラムを提供するために配布される、プログラムが記録されて ヽる磁気ディスク( フレキシブルディスクを含む)、光ディスク(CD- ROM (Compact Disc-Read Only Mem ory)、 DVD(Digital Versatile Disc)を含む)、光磁気ディスク (MD(Mini-Disc) (登録商 標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 211により構成さ れるだけでなぐ装置本体にあら力じめ組み込まれた状態でユーザに提供される、プ ログラムが記録されている ROM212または記録部 218に含まれるハードディスクなど で構成される。
[0180] さらに、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデ ムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタ ル衛星放送と 、つた、有線または無線の通信媒体を介してコンピュータにインスト一 ノレされるようにしてちょい。
[0181] なお、本明細書にぉ 、て、記録媒体に格納されるプログラムを記述するステップは 、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的 に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
[0182] また、本発明の実施の形態は、上述した実施の形態に限定されるものではなぐ本 発明の要旨を逸脱しな 、範囲にぉ 、て種々の変更が可能である。

Claims

請求の範囲
[1] 第 1の音声信号および第 2の音声信号のそれぞれを音声に変換して出力する音声 出力装置において、
振動することで前記音声を出力する振動材と、
前記振動材に装着され、前記第 1の音声信号に基づいて、前記振動材を振動させ る第 1の振動子と、
前記第 1の振動子と所定の間隔となるように前記振動板に装着され、前記第 2の音 声信号に基づいて、前記振動材を振動させる第 2の振動子と
を備える音声出力装置。
[2] 前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信号 処理を行う処理手段をさらに備える
請求項 1の音声出力装置。
[3] 前記処理手段は、
前記第 1の音声信号および前記第 2の音声信号のそれぞれを遅延させる遅延処 理手段を備える
請求項 2の音声出力装置。
[4] 前記処理手段は、
前記第 1の音声信号および前記第 2の音声信号のそれぞれの成分のうち、所定 の周波数帯域成分を通過させるフィルタ処理手段を備える
請求項 2の音声出力装置。
[5] 前記処理手段は、
前記第 1の音声信号および前記第 2の音声信号のそれぞれのゲインを調整する ゲイン調整処理手段を備える
請求項 2の音声出力装置。
[6] 第 1の音声信号および第 2の音声信号のそれぞれを音声に変換して出力する音声 出力装置の音声出力方法において、
振動することで前記音声を出力する振動材と、
前記振動材に装着され、前記第 1の音声信号に基づいて、前記振動材を振動させ る第 1の振動子と、
前記第 1の振動子と所定の間隔となるように前記振動板に装着され、前記第 2の音 声信号に基づいて、前記振動材を振動させる第 2の振動子と
を配置し、
前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信号 処理を行う
音声出力方法。
[7] 第 1の音声信号および第 2の音声信号のそれぞれを音声に変換して出力する音声 出力装置のコンピュータに、音声出力処理を行わせるプログラムにおいて、 振動することで前記音声を出力する振動材と、
前記振動材に装着され、前記第 1の音声信号に基づいて、前記振動材を振動させ る第 1の振動子と、
前記第 1の振動子と所定の間隔となるように前記振動板に装着され、前記第 2の音 声信号に基づいて、前記振動材を振動させる第 2の振動子と
を配置し、
前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信号 処理を行う
プログラム。
[8] 振動することで前記音声を出力する振動材と、前記振動材に装着され、第 1の音声 信号に基づいて、前記振動材を振動させる第 1の振動子と、前記第 1の振動子と所定 の間隔となるように前記振動板に装着され、第 2の音声信号に基づいて、前記振動 材を振動させる第 2の振動子とからなる壁で仕切られている部屋。
[9] 前記第 1の音声信号および前記第 2の音声信号のそれぞれに対して、所定の信号 処理を行う処理手段をさらに備える
請求項 8の部屋。
[10] ユーザの位置を検出する検出手段をさらに備え、
前記処理手段は、検出した前記位置に基づいて、前記第 1の音声信号および前記 第 2の音声信号のそれぞれに対して、所定の信号処理を行う 請求項 9の部屋
四方が前記壁で囲まれて 、る 請求項 8の部屋。
PCT/JP2006/316487 2005-09-02 2006-08-23 音声出力装置および方法、プログラム、並びに部屋 WO2007029500A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020087005048A KR101256538B1 (ko) 2005-09-02 2006-08-23 음성 출력 장치, 음성 출력 방법, 기록 매체, 및 방
EP06782940A EP1921886A4 (en) 2005-09-02 2006-08-23 LANGUAGE EQUIPMENT AND METHOD, PROGRAM AND ROOM
US12/064,964 US20090268929A1 (en) 2005-09-02 2006-08-23 Voice output device and method, program, and room

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-254400 2005-09-02
JP2005254400A JP4923488B2 (ja) 2005-09-02 2005-09-02 音声出力装置および方法、並びに部屋

Publications (1)

Publication Number Publication Date
WO2007029500A1 true WO2007029500A1 (ja) 2007-03-15

Family

ID=37835624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/316487 WO2007029500A1 (ja) 2005-09-02 2006-08-23 音声出力装置および方法、プログラム、並びに部屋

Country Status (6)

Country Link
US (1) US20090268929A1 (ja)
EP (1) EP1921886A4 (ja)
JP (1) JP4923488B2 (ja)
KR (1) KR101256538B1 (ja)
CN (1) CN101253803A (ja)
WO (1) WO2007029500A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012156865A (ja) * 2011-01-27 2012-08-16 Toshiba Corp 音場制御装置及び方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4867752B2 (ja) * 2007-03-29 2012-02-01 ヤマハ株式会社 スピーカ装置
US8340327B2 (en) * 2009-06-11 2012-12-25 Magna International Inc. Home theater
DK179070B1 (en) * 2015-12-11 2017-10-02 Bang & Olufsen As Sound radiating entity
CN105933834B (zh) * 2016-03-21 2021-10-19 东莞市乐莱电子有限公司 一种振动发声结构及其制备工艺
CN106817667A (zh) * 2016-11-30 2017-06-09 努比亚技术有限公司 一种实现立体声的方法、装置及移动终端
CN107592588B (zh) * 2017-07-18 2020-07-10 科大讯飞股份有限公司 声场调节方法及装置、存储介质、电子设备
JP7553230B2 (ja) * 2019-09-26 2024-09-18 大日本印刷株式会社 音響システムを有する室内構造

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02122796A (ja) * 1988-10-31 1990-05-10 Matsushita Electric Ind Co Ltd スピーカ装置
GB2265519A (en) 1992-03-19 1993-09-29 Jonathan Neil Smith Flat monopole loudspeaker
WO1995007394A1 (en) 1993-09-08 1995-03-16 Wenger Corporation Acoustical virtual environment
WO1999037118A1 (fr) * 1998-01-16 1999-07-22 Sony Corporation Haut-parleur et appareil electronique utilisant un haut-parleur
JPH11215578A (ja) * 1998-01-23 1999-08-06 Sony Corp パネル型スピーカ装置
JP2000092578A (ja) * 1998-09-09 2000-03-31 Fujitsu Ltd スピーカ装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL134979A (en) * 2000-03-09 2004-02-19 Be4 Ltd A system and method for optimizing three-dimensional hearing
US20030107478A1 (en) * 2001-12-06 2003-06-12 Hendricks Richard S. Architectural sound enhancement system
US7292702B2 (en) * 2003-04-29 2007-11-06 Dimensional Communications, Inc. In-wall speaker system method and apparatus
JP2004343481A (ja) * 2003-05-16 2004-12-02 Alps Electric Co Ltd パネルスピーカ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02122796A (ja) * 1988-10-31 1990-05-10 Matsushita Electric Ind Co Ltd スピーカ装置
GB2265519A (en) 1992-03-19 1993-09-29 Jonathan Neil Smith Flat monopole loudspeaker
WO1995007394A1 (en) 1993-09-08 1995-03-16 Wenger Corporation Acoustical virtual environment
WO1999037118A1 (fr) * 1998-01-16 1999-07-22 Sony Corporation Haut-parleur et appareil electronique utilisant un haut-parleur
JPH11215578A (ja) * 1998-01-23 1999-08-06 Sony Corp パネル型スピーカ装置
JP2000092578A (ja) * 1998-09-09 2000-03-31 Fujitsu Ltd スピーカ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1921886A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012156865A (ja) * 2011-01-27 2012-08-16 Toshiba Corp 音場制御装置及び方法
US9497562B2 (en) 2011-01-27 2016-11-15 Kabushiki Kaisha Toshiba Sound field control apparatus and method

Also Published As

Publication number Publication date
EP1921886A1 (en) 2008-05-14
KR101256538B1 (ko) 2013-04-19
CN101253803A (zh) 2008-08-27
EP1921886A4 (en) 2010-12-01
KR20080049726A (ko) 2008-06-04
JP4923488B2 (ja) 2012-04-25
JP2007068074A (ja) 2007-03-15
US20090268929A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5417352B2 (ja) 音場制御装置及び方法
WO2007029500A1 (ja) 音声出力装置および方法、プログラム、並びに部屋
JP2673002B2 (ja) スピーカシステム
JP5192799B2 (ja) 表示装置設置用パネル
US20220150628A1 (en) Bass optimization for audio systems and devices
US20060023898A1 (en) Apparatus and method for producing sound
WO2000014997A1 (fr) Haut-parleur
CN110073675B (zh) 具有用于反射声音投射的全频向上发声驱动器的音频扬声器
US5321756A (en) Loudspeaker system with sonically powered drivers and centered feedback loudspeaker connected thereto
US20220277723A1 (en) Noise reduction device and method
KR101052938B1 (ko) 사운드 생성을 위한 장치 및 방법
KR102392460B1 (ko) 소음 제거 장치 및 방법
JP2023065649A (ja) 制御された指向性を伴うコンパクトスピーカーシステム
JPH03505511A (ja) 多次元ステレオ音響再生システム
JPH03169200A (ja) テレビ受信機
US10645486B1 (en) Loudspeaker system with passive radiators
JP2009194924A (ja) サウンドを発生させるための装置および方法
AU2008200358B2 (en) Electrical and electronic musical instruments
Toole Maximizing Loudspeaker Performance in Rooms
GB2422265A (en) Distributed mode and pistonic loudspeaker arrangements
JP2007201682A (ja) 音声処理装置および方法、並びにプログラム
EP3881316A1 (en) Loudspeaker system with overhead sound image generating elevation module
JP2009189027A (ja) サウンドを発生させるための装置および方法
Hoffmann LOUDSPEAKER
Kelloniemi et al. Plane Wave Loudspeaker with Signal Processing Enhancements

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680031703.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12064964

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006782940

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087005048

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE