WO2020044728A1 - 指向性制御システム - Google Patents

指向性制御システム Download PDF

Info

Publication number
WO2020044728A1
WO2020044728A1 PCT/JP2019/023310 JP2019023310W WO2020044728A1 WO 2020044728 A1 WO2020044728 A1 WO 2020044728A1 JP 2019023310 W JP2019023310 W JP 2019023310W WO 2020044728 A1 WO2020044728 A1 WO 2020044728A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
speaker
data
unit
directivity
Prior art date
Application number
PCT/JP2019/023310
Other languages
English (en)
French (fr)
Inventor
正信 則行
太田 裕之
旭 増
Original Assignee
株式会社ドリーム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ドリーム filed Critical 株式会社ドリーム
Priority to US17/254,197 priority Critical patent/US11089403B1/en
Priority to JP2020540086A priority patent/JP6979665B2/ja
Publication of WO2020044728A1 publication Critical patent/WO2020044728A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21JFORGING; HAMMERING; PRESSING METAL; RIVETING; FORGE FURNACES
    • B21J5/00Methods for forging, hammering, or pressing; Special equipment or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21JFORGING; HAMMERING; PRESSING METAL; RIVETING; FORGE FURNACES
    • B21J5/00Methods for forging, hammering, or pressing; Special equipment or accessories therefor
    • B21J5/06Methods for forging, hammering, or pressing; Special equipment or accessories therefor for performing particular operations
    • B21J5/08Upsetting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21KMAKING FORGED OR PRESSED METAL PRODUCTS, e.g. HORSE-SHOES, RIVETS, BOLTS OR WHEELS
    • B21K3/00Making engine or like machine parts not covered by sub-groups of B21K1/00; Making propellers or the like
    • B21K3/04Making engine or like machine parts not covered by sub-groups of B21K1/00; Making propellers or the like blades, e.g. for turbines; Upsetting of blade roots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K13/00Thermometers specially adapted for specific purposes
    • G01K13/02Thermometers specially adapted for specific purposes for measuring temperature of moving fluids or granular materials capable of flow
    • G01K13/024Thermometers specially adapted for specific purposes for measuring temperature of moving fluids or granular materials capable of flow of moving gases
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2200/00Indexing scheme relating to amplifiers
    • H03F2200/03Indexing scheme relating to amplifiers the amplifier being designed for audio applications
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/20Power amplifiers, e.g. Class B amplifiers, Class C amplifiers
    • H03F3/24Power amplifiers, e.g. Class B amplifiers, Class C amplifiers of transmitter output stages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • H04R7/06Plane diaphragms comprising a plurality of sections or layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation

Definitions

  • the disclosure in this specification relates to a directivity control system that forms various sound fields via a plurality of speaker units.
  • Patent Document 1 when sound is output to an audience at a large venue, an acoustic system that forms a desired sound field by arranging a plurality of speakers has been proposed (for example, see Patent Document 1).
  • the sound system includes a plurality of speaker units each having a plurality of speakers arranged and formed, a connection unit that connects the plurality of speaker units at a predetermined angle, A connection posture detection unit that detects an angle between adjacent speaker units connected by the connection unit as a connection posture, and a set sound emission direction and the detected connection posture, based on each of the plurality of speaker units.
  • the configuration is such that control means is provided for controlling the sound emission direction by setting the delay amount of the audio signal supplied to the speaker.
  • the plurality of speaker units are connected in a predetermined posture relationship, and a sound field is formed in accordance with each connection posture.
  • Optimum directivity control can be performed according to That is, a desired sound field can be formed by the above configuration.
  • a plurality of assembly units each including an acoustic transducer and a module controller are provided, and each module controller performs a wavefront synthesis using an audio signal and related data for the acoustic transducer of each assembly unit.
  • a distributed structure device has been proposed which uses an approach and is configured to activate an acoustic transducer in each assembly unit by means of an activation signal corresponding to said synthesis (see, for example, US Pat.
  • the sound field of the sound source can be reproduced in a predetermined space where the audience is located by a plurality of acoustic transducers (loudspeakers).
  • Patent Literature 1 is configured to mechanically rotate a plurality of planar speaker units at a predetermined rotation angle ⁇ , and has a disadvantage that the structure is complicated. That is, it is necessary to provide a connection member having a connection projection and an insertion hole correlated therewith in each planar speaker unit, which complicates the structure, increases the weight of the entire speaker unit, and deteriorates transportability. There was a problem.
  • the acoustic system is provided with a driving device for mechanically rotating the plurality of planar speaker units in order to reduce the manual work load, the work load is reduced.
  • a drive is incurred for mechanically operating the unit.
  • the desired sound field is large, it is necessary to output the audio signal over a wide area.
  • the load of turning and transporting the flat speaker unit is increased.
  • the speaker unit is defined as a panel or rod in which a plurality of speakers are arranged and formed, and is a unit that can rotate at the rotation angle ⁇ . Is a unit of a panel and a rod, and thus each speaker is in a fixed state. Therefore, the directivity cannot be controlled for each speaker. If a mechanism equivalent to the connection member is provided for each speaker, high-precision directivity control is possible.However, operating such a speaker-unit control with the mechanical structure requires manufacturing cost, weight, It cannot be said to be a practical solution from any viewpoint such as workload. Therefore, the prior art has a problem that directivity control with high accuracy is difficult.
  • the position of the target on the sound receiving side is fluid, such as when providing acoustic data while tracking a moving audience, it is necessary to rotate the flat speaker unit every time the target moves, and the acoustic data is It was difficult to provide.
  • Patent Literature 2 since the position of the virtual sound source can be changed sufficiently quickly by the module controller, the above-described problem of Patent Literature 1 is solved. However, there is a problem that the sound of the sound source cannot freely reach the desired sound receiving position.
  • an object of the present disclosure is to form a desired sound field with a plurality of loudspeakers, to easily control the directivity of acoustic data, and to form a sound field with high accuracy. It is an object of the present invention to provide a speaker directivity control system that can be freely and timely operated.
  • the directivity control system disclosed in the present specification is configured such that, for a plurality of speaker units that are fixedly connected, a control signal that sets a directivity angle sets each of the speaker units to the directivity angle.
  • the virtual speaker array is calculated by calculating virtual delay time data when sound of a sound source is output in the virtual array, and outputting the sound of the sound source by output data reflecting the delay time data.
  • the main feature of the present invention is to form a desired sound field without mechanically rotating the, but in a fixed state.
  • the directivity control system disclosed in this specification is a directivity control system that forms various sound fields via a plurality of speaker units, A speaker block in which the plurality of speaker units are fixedly connected in a predetermined arrangement and grouped; An interface unit that receives an acoustic signal for outputting a sound of a sound source for each of a plurality of speaker units configuring the speaker block and a control signal that sets the directional angle to be output, From each control signal received by the interface unit, a computing unit that calculates virtual delay time data of each of the speaker units virtually arranged at each of the set directional angles, Acoustic data processing unit that generates acoustic data from each acoustic signal received by the interface unit, and generates output data from each acoustic data and the delay time data corresponding to each acoustic data, An amplification unit that amplifies the output data to output to each of the speaker units, A predetermined sound field is formed by the speaker block by outputting the output data from the amplifying unit via the speaker units
  • the sound field is formed by calculating the delay time from the virtual directivity angle and causing the sound of the sound source to reach a desired sound receiving position without mechanically rotating the speaker unit itself. Can be.
  • the delay time is at least composed of the control signal and horizontal directional angle data and vertical directional angle data with reference to the installation position of the speaker unit.
  • the calculation may be performed by adding the horizontal delay time data calculated from the directivity angle of the direction and the vertical delay time data calculated from the vertical directivity angle.
  • the computing unit calculates a characteristic correction amount for at least one of a volume and a frequency characteristic corresponding to each of the calculated delay time data, and the acoustic data processing unit calculates the acoustic data and the delay time Output data may be generated from the calculated characteristic correction amount data together with the data.
  • the directivity is controlled by the delay time data without physically moving the speaker unit, such as turning, so that the sound pressure is compared with the case where the distance corresponding to the calculated delay time is physically moved. And the phase shift may occur. Therefore, the characteristic correction amount may be calculated so that the sound of the sound source is actually output at the directional angle corresponding to the delay time data.
  • the sound data processing unit is configured to, based on the delay time data calculated by the calculation unit, direct at least the sound of the sound source straight, diffuse, or concentrate from the speaker block in a predetermined directional direction to a predetermined sound receiving position. Generate output data that can reach.
  • the interface unit receives a plurality of different sound signals corresponding to a plurality of different sound sources, receives a control signal corresponding to a different directional angle set for each of the sound sources, and the sound data processing unit Different output data may be generated according to the signal and each control signal.
  • At least a sensor for detecting any one of a wind direction and a wind speed or a temperature of a sound field that outputs the output data calculates change amount data based on the data detected by the sensor, and the delay time The data may be recalculated based on the calculated change amount data.
  • the crowd behavior analysis unit to be measured, and the occurrence of the event is determined, and when the directional angle specifying the area is measured, a control signal corresponding to the measured directional angle is generated, and the event occurs.
  • An input unit for generating the sound signal by a sound source directed to an area may be provided.
  • information can be provided in a timely manner to the crowd in the area where the event causing the behavior of the crowd has occurred.
  • a storage unit for previously storing data of a directional angle set for causing the sound of the sound source to reach a predetermined sound receiving position, and reading data of a predetermined directional angle from the storage unit Then, the readout data of the directional angle may be automatically received by the interface unit.
  • the speaker unit may be at least a multi-cell type flat speaker or a single cone type full-range speaker.
  • a speaker array may be formed in which a plurality of the speaker blocks are fixedly arranged and arranged, and the directivity of the entire array can be controlled by controlling the directivity of the speaker blocks.
  • the arrangement of the speaker units may be at least planar, cylindrical, or spherical over the entire speaker block or the entire speaker array.
  • the sound field can be flexibly formed according to the installation environment.
  • the loudspeaker directivity control system disclosed in the present specification can easily control the directivity of acoustic data in order to form a desired sound field with a plurality of speakers, and can freely form a sound field with high accuracy. This has the effect of enabling timely operation.
  • directivity can be controlled by calculating virtual delay time data of speaker units virtually arranged at a predetermined directivity angle without physically moving the speaker itself, so that various angles can be controlled.
  • the setting can be made easily and quickly.
  • FIG. 1 is a schematic configuration diagram of the directivity control system disclosed in this specification.
  • FIG. 2 is a block diagram of a system controller and a power amplifier constituting the directivity control system disclosed in this specification.
  • FIG. 3 is a flowchart of the directivity control process of the calculation unit.
  • FIG. 4 is a processing block diagram of an acoustic data processing unit for giving different directivities to a plurality of sound sources.
  • FIG. 5 is a diagram illustrating a control mode by the directivity control system disclosed in this specification, in which a) illustrates a straight-forward mode, b) illustrates a concentrated mode, and c) illustrates a diffusion mode.
  • FIG. 6 is a diagram showing an embodiment in which the directivity control system disclosed in the specification is used in a concert hall.
  • FIG. 6A shows a speaker array divided into two parts, and the sound of another sound source is separated from each.
  • FIG. 4B is a diagram illustrating an example of outputting to two regions
  • FIG. 5B is a diagram illustrating an example of outputting the sound of another sound source from one speaker array to two regions
  • FIG. 9 is a diagram illustrating an example in which sound from a sound source is output to three regions.
  • reference numeral 1 denotes a system controller constituting the directivity control system disclosed in this specification.
  • the system controller 1 receives an input of a sound or the like from the sound source
  • the system controller 1 transmits a control signal for directivity control together with an acoustic signal to the power amplifier 3 via the transmission path 2.
  • the sound signal is a concept including a sound signal from a sound source other than a sound in addition to a sound signal.
  • the system controller 1 can transmit sound signals and control signals of a plurality of channels through one transmission path.
  • the transmission path 2 may be a wired line or a wireless line.
  • a LAN cable is used for the transmission path 2
  • the system controller 1 has six channels
  • one of four twisted pair wires in the LAN cable can be used for a control signal and three for a sound signal.
  • the sound signal is digitally transmitted, two channels can be transmitted in a pair, so that the sound signal of six channels can be transmitted with one LAN cable.
  • the power amplifier 3 digitally processes the sound signal and the control signal by a built-in DSP (Digital Signal Processor) as described later.
  • a plurality of power amplifiers 3 (3a to 3n) are connected to the system controller 1, and the power amplifiers 3a to 3n control a plurality of speaker blocks 4a to 4n constituting the speaker array 4, respectively.
  • the speaker block 4a includes speaker units 4a01 to 4a16
  • the speaker block 4n includes speaker units 4n01 to 4n16. That is, the plurality of speaker units are fixedly connected and grouped in a predetermined arrangement to form a speaker block, and further, the plurality of speaker blocks are fixedly connected to form a speaker array.
  • the speaker blocks 4a to 4n16 to which the speaker units 4a01 to 4a16 are fixedly connected in the vertical and horizontal directions are formed to form the speaker block 4n to which the speaker blocks 4a01 to 4n16 are fixedly connected.
  • the speaker array 4 is formed by block-fixed connection.
  • the number of fixed connections and fixed connections is not intended to be limited to the present embodiment.
  • the whole shape formed by the fixed connection and the fixed connection is arranged in a plane, but may be formed in a cylindrical shape or a spherical shape. Further, the components in the speaker block may be divided into separate housings.
  • the speaker unit may be composed of any of a multi-cell type flat speaker, a single cone type full-range speaker, and the like. However, in the present embodiment, the speaker unit will be described below based on a multi-cell type planar speaker. I do.
  • a planar speaker drives the entire surface to generate a plane wave, the sound pressure is less attenuated by distance, and the sound focus is at infinity. Therefore, it is suitable for forming various sound fields via a plurality of speaker units.
  • the speaker unit since one speaker unit reproduces the entire frequency band, there is no deviation in directivity depending on the frequency band. Furthermore, by adopting a planar speaker in the following points, accurate directivity control becomes possible. That is, since the speaker unit has a structure in which the speaker unit is formed as a speaker block, radiation of uncorrelated sound between speaker units, such as divided vibration, is small, the diaphragm of the speaker unit is flat, and sound is generated anywhere in the diaphragm. The point that the radiating position of the speaker unit can be output with the same phase sound, and that the sound radiated to the rear of the speaker unit does not affect other speaker units by dividing the enclosure for each speaker unit. A configuration other than a planar speaker such as a single cone type full-range speaker is also possible.)
  • Both the speaker block and the speaker array are configured as described above, so they can be set to any size according to the environment where the desired sound field is formed, such as the installation site, and can be easily installed and removed It is also possible to use it temporarily.
  • FIG. 2 is a block diagram of the system controller 1 and the power amplifier 3a. Although FIG. 2 illustrates the power amplifier 3a for convenience of description, as described with reference to FIG. 1, the power amplifier is connected to each speaker block. A plurality of power amplifiers 3a to 3n (32 in the present embodiment) are connected through the power amplifier 2.
  • the system controller 1 selects a plurality of types of directivity patterns, that is, data in which a directivity angle is set, and inputs the data as a control signal.
  • the input may be performed by a personal computer connected to the system controller 1 by WiFi or USB.
  • the audio signal can be input from a plurality of channels (6 channels in the present embodiment).
  • control signal and the acoustic signal are transmitted from the system controller 1 to the power amplifier 3a via the transmission path 2.
  • the control signal and the acoustic signal transmitted by the interface unit 31a are received.
  • the calculation unit 32a calculates virtual delay time data of each speaker unit virtually arranged at each of the set directional angles. That is, the arithmetic unit 32a includes at least a CPU (Central Processor Unit) and a memory (not shown), and calculates delay time data by the CPU from a control signal read to the memory.
  • a CPU Central Processor Unit
  • a memory not shown
  • Each sound signal received by the interface unit 31a is passed to a sound data processing unit 33a (DSP) to generate sound data, and to output data from each sound data and the delay time data corresponding to each sound data. Generate.
  • DSP sound data processing unit 33a
  • the generated output data is amplified by the amplifying unit 34a for output to each of the speaker units 4a01, 4a02 to 4a16.
  • the amplifying section 34a includes 34a01, 34a02 to 34a16 corresponding to the speaker units 4a01, 4a02 to 4a16, respectively. That is, the power amplifier 3a is independent for each speaker unit, and can control the directivity of each speaker unit vertically, horizontally, and later by digital signal processing of each control signal and audio signal, as described later. .
  • the processing in the acoustic data processing unit 33a that is, the calculation of various parameters such as the calculation of delay time data related to the DSP processing is all performed in the speaker block (the power amplifier 3a in the speaker block). It is only necessary to transmit the control signal relating to the set angle and the acoustic signal obtained from the sound source, and control can be performed with a small amount of data. Can be changed.
  • the form of the system controller 1 is not limited as long as it includes the configuration described above. Therefore, an existing personal computer may be used instead, or a speaker block itself may be provided with operation knobs and sensors for directivity control.
  • a predetermined sound field can be formed by the speaker block 4a by outputting the output data from the amplifying unit 34a via the speaker units 4a01, 4a02 to 4a16.
  • the delay time data may be calculated in consideration of the positional relationship between the front and rear of the speaker unit.
  • the control signal used in the calculation of the delay time data in the calculation unit 32a is composed of at least horizontal directional angle data and vertical directional angle data based on the installation position of the speaker unit.
  • the calculation unit 32a adds the delay time data to the horizontal delay time data calculated from the horizontal directional angle data and the vertical delay time data calculated from the vertical directional angle data. calculate.
  • the horizontal direction angle data at S2 may be vertical direction angle data
  • the vertical direction angle data at S3 may be horizontal direction angle data.
  • the horizontal and vertical delay times of each speaker unit are added (S4).
  • the delay time data in the horizontal direction (X-axis direction) and the delay time data in the vertical direction (Y-axis direction) it is possible to perform fine directivity control such as turning vertically and horizontally. More specifically, for the horizontal direction, the delay time is separately calculated at the upper end and the lower end of each speaker unit, and for the vertical direction, the delay time is separately calculated at the left end and the right end of each speaker unit, The intermediate portion may be calculated by interpolation.
  • the calculation unit 32a may calculate the characteristic correction amount for at least one of the volume and frequency characteristics corresponding to the calculated delay time data (S5).
  • the characteristic correction amount is calculated, and this is reflected in the delay data. Good.
  • Each sound data is received by the sound data processing unit 33a from a plurality of different sound sources As1, As2 to Asn via the system controller 1, the transmission path 2, and the interface unit 31a of the power amplifier 3a (not shown).
  • the received sound data are combined with the delay time data and the characteristic correction amount data described with reference to FIG.
  • the signals are output to the amplifiers 34a01, 34a02 to 34a16 corresponding to the speaker block 4a described in FIG.
  • the sound quality adjustments 33a1, 33a2 to 33an for the sound sources As1, As2 to Asn are not processes directly involved in directivity control such as adjustment of frequency characteristics.
  • the delay processing 33a1-01d and the characteristic correction processing 33a1-01c corresponding to the amplifier 34a01 are performed.
  • delay processing 33a1-02d and characteristic correction processing 33a1-02c corresponding to the amplification section 34a02, and delay processing 33a1-16d and characteristic correction processing 33a1-16c corresponding to the amplification section 34a16 are performed.
  • delay processing 33a2-01d and characteristic correction processing 33a2-01c corresponding to the amplifier 34a01 are performed.
  • a delay process 33a2-02d and a characteristic correction process 33a2-02c corresponding to the amplifier 34a02, and a delay process 33a2-16d and a characteristic correction process 33a2-16c corresponding to the amplifier 34a16 are performed.
  • the delay processing 33an-01d and the characteristic correction processing 33an-01c corresponding to the amplifier 34a01 are performed.
  • a delay process 33an-02d and a characteristic correction process 33an-02c corresponding to the amplifier 34a02, and a delay process 33an-16d and a characteristic correction process 33an-16c corresponding to the amplifier 34a16 are performed.
  • the output data sent to the amplifying unit 34a01 includes delay processing 33a1-01d and characteristic correction processing 33a1-01c for the sound source As1, delay processing 33a2-01d and characteristic correction processing 33a2-01c for the sound source As2, and sound processing Asn. These are three data of delay processing 33an-01d and characteristic correction processing 33an-01c.
  • the output data sent to the amplifying unit 34a02 includes the delay processing 33a1-02d and the characteristic correction processing 33a1-02c for the sound source As1, the delay processing 33a2-02d and the characteristic correction processing 33a2-02c for the sound source As2, and the sound processing Asn.
  • the output data sent to the amplifying section 34a16 includes delay processing 33a1-16d and characteristic correction processing 33a1-16c for the sound source As1, delay processing 33a2-16d and characteristic correction processing 33a2-16c for the sound source As2, and sound processing Asn.
  • a delay process 33an-16d and a characteristic correction process 33an-16c are performed, and these three data are synthesized in a synthesis process 33a-16.
  • FIG. 5 schematically illustrates a speaker array 4 arranged in a plane, a virtual speaker array 4v virtually arranged based on delay time data, and a sound receiving position R.
  • FIG. 5 is a top view of the speaker array 4 and the virtual speaker array 4v, and is an explanatory diagram in the case where the directivity angle in the horizontal direction (X-axis direction) is controlled with respect to the installation position of the speaker array 4.
  • the directional angle in the vertical direction (Y-axis direction) with respect to the installation position can be similarly controlled.
  • the actual control adds the delay time data corresponding to the directivity angles in the X-axis direction and the Y-axis direction, and outputs the sound of the sound source as if the virtual speaker array 4v is controlled in three dimensions. I do.
  • FIG. 5A shows a form of directivity control when the directivity angles and the directivity directions at both ends of the speaker array 4 are the same.
  • the sound emission surface of the virtual speaker array 4v is quasi-rotated as it is in the back direction with any one of the both ends of the speaker array 4 as the central axis so that the sound emission surface of the virtual speaker array 4v is directed in the directional direction.
  • the delay time data of each speaker unit may be calculated such that the entire surface emits sound straight to the sound receiving position R.
  • FIG. 5B shows a form of directivity control in a case where sound reception positions from the speaker array 4 are concentrated at one point.
  • the virtual speaker array 4v is pseudo-rotated in the back direction around one of the ends of the speaker array 4 as a central axis so that the sound emission surface of the virtual speaker array 4v is directed to one point in the directivity direction, that is, the sound receiving position R.
  • the virtual speaker array 4v is arranged in an arc shape so as to form a fan shape centered on the sound receiving position R, and the delay time data of each speaker unit is concentrated so as to emit sound at the sound receiving position R. May be calculated.
  • FIG. 5C shows directivity control when the light is diffused from the speaker array 4 toward the sound receiving position R, and the focus F1 on the side opposite to the diffusion direction is located in the width direction of the speaker array 4.
  • the virtual back side of the virtual speaker array 4v is pseudo-rotated in the back direction around one of both ends of the speaker array 4 so that the back side opposite to the sound emission surface faces the focal point F1.
  • the virtual speaker array 4v is arranged in an arc shape so as to form a fan shape centered on the focal point F1, and the delay of each speaker unit is diffused so that the sound emitting surface is diffused to the sound receiving position R and emits sound. Time data may be calculated.
  • the focal point F is an intersection point where a perpendicular line is drawn from the tangent line at both ends of the virtual speaker array 4v toward the back side.
  • FIG. 5D shows directivity control in the case where the light is diffused from the speaker array 4 toward the sound receiving position R, and the focus F2 on the side opposite to the diffusion direction is located outside the width direction of the speaker array 4. It is an aspect of. Also in this case, the arrangement of the virtual speaker array 4v is the same as that of FIG. 5C, but the center may be set so as to be located outside the width direction of the speaker array 4.
  • FIG. 5 is a typical example of the mode of directivity control, but various controls can be performed by applying these. For example, it is possible to set different directivities on the four sides of the speaker array 4 in the upper, lower, left, and right directions. It is also possible to set such that
  • the sound does not reach the lower part of the balcony, the ceiling, etc. in a music hall etc., and the sound is reflected only by outputting to the audience seats
  • the desired sound field can be easily set by directing, concentrating, and diffusing the radiation direction of the sound, freely controlling the directivity angle, and emitting sound only to a selected location in a free direction. can do.
  • the directivity control system disclosed in the present specification includes at least a detection sensor unit (not shown) that detects any one of a temperature of a sound field that outputs the output data and a wind direction and a wind speed.
  • the configuration may be such that the delay time data is calculated based on data detected by the detection sensor unit.
  • the detection sensor unit is connected to the system controller 1, and various sensor signals detected by the detection sensor unit are transmitted to the power amplifier 3 via the transmission path 2 together with the control signal and the acoustic signal. The calculation may be performed by the calculation unit 32a.
  • the delay time data may be calculated by the following formula.
  • the delay time data is recalculated by the above formula, and the directivity control is executed in real time in response to the change in temperature over time. Good.
  • a vector corresponding to the detected data is calculated by the following formula, and delay time data is calculated based on the vector. do it.
  • the deviation due to the wind force may be corrected by a vector operation.
  • the correction based on the data detected by the temperature sensor and the correction based on the data detected by the wind direction / wind speed sensor have been individually described, but the detection sensor unit includes a temperature sensor and a wind direction / wind speed sensor. Based on the correction, the delay time data may be calculated.
  • At least an event is analyzed and determined from the behavior of the crowd detected by the monitoring sensor configured by the acoustic sensor and the image sensor, and the area in which the event occurs is specified, and the area is directed to the specified area.
  • a crowd behavior analysis unit that measures a directivity angle, and when the occurrence of the event is determined and a directivity angle that specifies the area is measured, a control signal corresponding to the measured directivity angle is generated, and the event is generated.
  • the angle of the position of the crowd viewed from the installation position of the speaker array is calculated based on the position information of the crowd (such as longitude and latitude obtained using GPS or the like) obtained by the monitoring sensor and the crowd behavior analysis.
  • the calculated data is transferred to the calculation unit 32a of the power amplifier 3 included in the speaker array, and the calculated data is set.
  • the optimal sound source is reproduced at the position of the crowd to automatically perform evacuation guidance and congestion mitigation, for example. Can be done
  • a human sensor is installed at a place where the voice guidance or the like is required, and a position detected by the human sensor is detected.
  • a directional angle for outputting the sound of the sound source such as the voice guide, and a registration unit of the voice guide or the like in which the sound source to be output at such a position is stored, reading of the voice guide or the like registered in the registration unit and reproduction of the voice data.
  • a human sensor unit that detects human access to a plurality of sound fields, and a registration unit that registers control signals for each directional angle for outputting individual sound signals corresponding to the plurality of sound fields and sound of a sound source.
  • an acoustic signal and a control signal corresponding to the detected sound field are read from a registration unit and transmitted to the interface unit. It may be configured to have a reproduction processing unit.
  • the directivity control system disclosed in this specification when a directivity angle is input, the directivity can be changed within 100 ms, for example, so that the above-mentioned fluid sound receiving target is delayed. Tracking can be performed without any problem. In addition, such a function can be used in conjunction with a moving image.
  • the directivity control system disclosed in the present specification can simultaneously output a plurality of sound sources with a plurality of different directivities in a single system. It is not necessary to install a system corresponding to the number in the small area.
  • a storage unit for storing in advance a data of a directional angle set to make the sound of the sound source reach a predetermined sound receiving position, and reads data of a predetermined directional angle from the storage unit Then, the data of the directional angle read out by the interface unit 31a may be automatically received.
  • An LED (light-emitting diode) display unit may be provided on the output surface of the speaker unit, and an image generation unit that displays an image linked to the sound of the sound source may be provided.
  • the video generation unit may have a configuration in which image data is transmitted from the system controller 1 to the power amplifier 3 and provided in the power amplifier 3 or a configuration external to the power amplifier 3.
  • the flat speaker unlike the cone type speaker, even if the LED display unit is attached, the image is not disturbed by the vibration of the speaker itself, so that the speaker unit itself can be a good screen.
  • FIG. 6 is a diagram showing an embodiment when the directivity control system is used in a concert hall.
  • the speaker array on the stage is divided into two parts and arranged on the left and right sides, and the sound of another sound source (for example, English on the right side, Japanese on the left side) is output from each speaker array to two of the seats. It is possible to output to the areas AF1 and AF2. For example, the audience who wants to listen in English may be guided to the right seat, and the audience who wants to listen in Japanese may be guided to the left seat.
  • (B) is a diagram illustrating an example in which the sound of another sound source is output from one speaker array to two regions, AF3 and AF4.
  • the application is the same as that of the case (a), but is suitable for use in a narrow venue where the speaker array cannot be divided and installed.
  • FIG. (C) is a diagram showing an example in which the sound of another sound source is output from one speaker array to three regions. As shown in (b), in addition to the left and right areas AF5 and AF6, the sound of a sound source different from those of the areas AF5 and AF6 can be output only to the area AF7 near the center.
  • the directivity control system disclosed in the present specification even within the same venue not partitioned by soundproof walls or the like, outputs sound of a predetermined sound source only to a desired area,
  • the sound of the sound source different from the sound of the sound source can be output to another area adjacent to the sound source, and the sound of the sound source output to the adjacent area can be controlled so as not to be mixed. That is, the directivity control system can provide a sound field that achieves long-distance and clarity by controlling the three-dimensional directivity of each speaker constituting the speaker array.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)

Abstract

複数のスピーカで所望の音場を形成するために、簡易に音響データの指向性を制御できるとともに、高い精度の音場形成を自在に操作可能とするスピーカの指向性制御システムを提供することを目的とする。 固定接続された複数のスピーカユニットに対して、指向角度を設定した制御信号から、前記各スピーカユニットを前記指向角度で仮想配列し、かかる仮想配列で出力された場合の仮想的な遅延時間データを算出し、かかる遅延時間データを反映した出力データによって出力することにより、前記スピーカユニットを機械的に回動させずに、固定状態のままで、所望の音場を形成する。

Description

指向性制御システム
 本明細書における開示は、複数のスピーカユニットを介して多様な音場を形成する指向性制御システムに関するものである。
 例えば、大きな会場で聴衆に向けて音声出力する場合に、複数のスピーカを配列形成し、所望の音場を形成する音響システムが提案されている(例えば、特許文献1参照。)
 前記特許文献1にかかる先行技術によれば、当該音響システムは、それぞれに複数のスピーカが配列形成された複数のスピーカユニットと、該複数のスピーカユニットを所定の角度で接続する接続手段と、該接続手段により接続される隣り合うスピーカユニット同士のなす角度を接続姿勢として検出する接続姿勢検出手段と、設定された放音方向と検出された接続姿勢とに基づき、前記複数のスピーカユニット毎の各スピーカに供給する音声信号の遅延量を設定することにより、放音方向を制御する制御手段を備えた構成となっている。
 この構成によれば、複数のスピーカユニットが所定の姿勢関係で接続されるとともに、各接続姿勢に応じた音場形成が行われるので、設置自由度が高く、且つ設置状態と求められる音場とに応じて最適な指向性制御を行うことができる。すなわち、前記構成によって、所望の音場を形成することができる。
 ところで、音響トランスデューサとモジュールコントローラから構成された組立ユニットを複数有し、各モジュールコントローラは、前記各組立ユニットの音響トランスデューサのために、音声信号と関連データを使って波面の合成を実行するモデルベース手法を使用し、前記合成に対応する作動信号によって、各組立ユニット内で音響トランスデューサを作動させるように設定されている分散構造装置が提案されている(例えば、特許文献2参照。)
 この構成によれば、波面合成の原理に基づき、複数の音響トランスデューサ(スピーカ)によって、音源の音場を聴衆がいる所定空間で再現させることができる。
特開2006-157857号公報 米国特許第9,716,961号明細書
 しかしながら、特許文献1にかかる先行技術は、複数の平面スピーカユニットを所定の回動角θで機械的に回動するように構成されており、構造が複雑になるという不都合があった。すなわち、各平面スピーカユニットに、接続用突起とこれに相関する挿嵌孔を備える接続部材を設ける必要があり、構造が複雑になるとともに、スピーカユニット全体の重量が増し、運搬性が悪くなるという問題があった。
 また、隣り合う平面スピーカユニット同士のなす角度を所望の接続姿勢にするためには、手動で動かす必要があり、設営の作業負荷が大きくなるという不都合があった。仮に、前記手動による作業負荷を軽減するために、前記音響システムが、前記複数の平面スピーカユニットを機械的に回動させるための駆動装置を備えた場合、前記作業負荷は軽減されるものの、スピーカユニットを機械的に作動させるための駆動装置のコストが発生する。特に、所望の音場が大きい場合、前記音声信号を広域に出力する必要がある。この場合、前記平面スピーカユニットを構成する平板スピーカの数を増やそうとすると、全体の高さ、重量ともに増加し、平面スピーカユニットの回動、運搬等の負荷が大きくなるという問題があった。
 さらに、前記先行技術の各実施形態において開示されている構成によれば、スピーカユニットとは、複数のスピーカを配列形成したパネル、ロッドとして定義されており、前記回動角θで回動できる単位は、パネル、ロッド単位であることから、個々のスピーカは固定された状態である。したがって、スピーカ単位で指向性を制御できない構成になっている。仮に、スピーカ単位で前記接続部材相当の機構を設ければ、高い精度の指向性制御が可能であるが、かかるスピーカ単位の制御を前記機械的な構造で作動させるのは、製造コスト、重量、作業負荷等、いずれの観点からも現実的な解決手段とは言えない。したがって、前記先行技術では、高い精度の指向性制御が難しいという課題があった。
 たとえば、移動する聴衆をトラッキングしながら音響データを提供する場合など、受音側のターゲットの位置が流動的な場合、前記平面スピーカユニットをターゲットが動く都度回動させる必要が生じ、適時に音響データを提供することが困難であった。
 特許文献2にかかる先行技術では、モジュールコントローラによって十分に迅速に仮想音源の位置を変更することができるため、特許文献1の前記問題点は解消するが、仮想音源によって再現するための装置であり、所望の受音位置に、音源の音声を自在に到達させることができないという問題があった。
 上記課題を解消させるために、本明細書における開示の目的は、複数のスピーカで所望の音場を形成するために、簡易に音響データの指向性を制御できるとともに、高い精度の音場形成を自在かつ適時に操作可能とするスピーカの指向性制御システムを提供することを目的とする。
 上記目的を達成させるために、本明細書で開示される指向性制御システムは、固定接続された複数のスピーカユニットに対して、指向角度を設定した制御信号によって、前記各スピーカユニットを前記指向角度で仮想配列し、かかる仮想配列で音源の音を出力した場合の仮想的な遅延時間データを算出し、かかる遅延時間データを反映した出力データによって前記音源の音を出力することにより、前記スピーカユニットを機械的に回動させずに、固定状態のままで、所望の音場を形成することを最も主要な特徴とする。
 すなわち、本明細書で開示される指向性制御システムは、複数のスピーカユニットを介して多様な音場を形成する指向性制御システムであって、
前記複数のスピーカユニットを所定の配列によって固定接続し、グループ化したスピーカブロックと、
前記スピーカブロックを構成する複数のスピーカユニットごとに音源の音を出力するための音響信号と前記出力する指向角度を設定した制御信号とを受け付けるインターフェース部と、
前記インターフェース部で受け付けた各制御信号から、前記設定された各指向角度で仮想配列された前記各スピーカユニットの仮想的な遅延時間データを算出する演算部と、
前記インターフェース部で受け付けた各音響信号から音響データを生成するとともに、各音響データと各音響データに対応する前記遅延時間データとから出力データを生成する音響データ処理部と、
前記出力データを前記各スピーカユニットに出力するために増幅する増幅部と、を有し、
前記増幅部から前記各スピーカユニットを介して前記各出力データを出力することにより、前記スピーカブロックによって所定の音場を形成することを特徴とする。
 この構成によれば、スピーカユニット自体を機械的に回動させることなく、仮想的な指向角度から遅延時間を算出して所望の受音位置に音源の音を到達させて音場を形成することができる。
 前記遅延時間は、少なくとも、前記制御信号を前記スピーカユニットの設置位置を基準として水平方向の指向角度データと垂直方向の指向角度データとから構成し、前記演算部において、前記遅延時間データを前記水平方向の指向角度から算出された水平方向遅延時間データと前記垂直方向の指向角度から算出された垂直方向遅延時間データとを加算することによって算出すればよい。
 この構成によれば、前記水平方向(X軸方向)及び前記垂直方向(Y軸方向)によって細かな指向角度を指定することが可能であるとともに、算出式も2項式であることから、算出処理のスループットが短くすることができる。
 前記演算部は、少なくとも、算出された前記各遅延時間データに対応する音量、周波数特性のいずれか一つについて特性補正量を算出し、前記音響データ処理部は、前記各音響データ、各遅延時間データとともに、前記算出された各特性補正量データから出力データを生成するようにしてもよい。
 本システムでは、スピーカユニットを回動など、物理的に動かさずに、遅延時間データによって指向性を制御するため、算出された遅延時間に相当する距離を物理的に動かした場合に比べて音圧が高くなり、位相のずれが生じる可能性がある。そこで、現実に前記遅延時間データに対応する指向角度で音源の音が出力されているようにするために、前記特性補正量を算出すればよい。
 前記音響データ処理部は、前記演算部で算出される遅延時間データによって、前記スピーカブロックから所定の指向方向に向けて、少なくとも、前記音源の音を直進、拡散又は集中させて所定の受音位置に到達可能な出力データを生成する。
 かかる構成により、音の放射を自在に制御して所望の位置に音源の音を到達させることが可能となる。
 前記インターフェース部は、複数の異なる音源に対応した複数の異なる音響信号を受け付けるとともに、前記各音源に設定された異なる指向角度に対応する制御信号を受け付け、前記音響データ処理部は、前記異なる各音響信号及び各制御信号に応じて各々異なる出力データを生成するように構成してもよい。
 この構成によれば、複数チャンネルにおいて、チャンネル数に対応する異なる音源を異なる指向性で同時に出力することが可能になる。
 少なくとも、前記出力データを出力する音場の風向風速又は温度のいずれか一つを検知するセンサを備え、前記演算部は、前記センサによって検知されたデータによって変化量データを算出し、前記遅延時間データを前記算出された変化量データに基づいて再算出してもよい。
 この構成によれば、音が伝播するときに、音場の環境によって空気吸収などによる音圧が変化するのを補正することができる。
 少なくとも音響センサ及び画像センサから構成された監視センサによって検知された群衆の行動からイベントを解析及び判定するとともに、前記イベントが発生しているエリアを特定し、特定されたエリアに向けた指向角度を測定する群衆行動解析部と、前記イベントの発生が判定され、前記エリアを特定する指向角度が測定されると、前記測定された指向角度に対応する制御信号を生成するとともに、前記イベントが発生したエリアに向けた音源によって、前記音響信号を生成する入力部と、を有する構成としてもよい。
 この構成によれば、群衆の行動の原因となったイベントが発生したエリアにいる群衆に対して、適時に情報を提供することができる。
 所定の音場において、所定の受音位置に前記音源の音を到達させるために設定された指向角度のデータを予め記憶させる記憶部を有し、前記記憶部から所定の指向角度のデータを読み出すと、自動的に前記インターフェース部で前記読み出された指向角度のデータが受け付けられるようにしてもよい。
 この構成によれば、予め指向角度が特定されている音場では、指向性制御に必要なデータの入力を簡易に行うことができる。
 前記スピーカユニットは、少なくとも、マルチセル型の平面スピーカ又はシングルコーン型のフルレンジスピーカであればよい。
 前記スピーカブロックを複数固定結合して配列したスピーカアレイを形成し、前記スピーカブロックの指向性制御によって前記アレイ全体で指向性を制御可能とする構成であってもよい。
 この構成によれば、大規模な音場での指向性の制御を容易かつ細やかに行うことができる。
 前記スピーカユニットの配列が、少なくとも、前記スピーカブロック又は前記スピーカアレイ全体で平面状、円筒状、球面状であってもよい。
 この構成によれば、設置環境に応じて柔軟に音場形成ができる。
 本明細書で開示されるスピーカの指向性制御システムは、複数のスピーカで所望の音場を形成するために、簡易に音響データの指向性を制御できるとともに、高い精度の音場形成を自在かつ適時に操作することが可能になるという効果を奏する。
 特に、スピーカ自体を物理的に動かすことなく、所定の指向角度で仮想配列されたスピーカユニットの仮想的な遅延時間データを算出することにより、指向性の制御を行うことができるので、多様な角度の設定が必要な場合であっても、簡易かつ迅速に設定することができるという効果を奏する。
図1は、本明細書で開示される指向性制御システムの概略構成図である。 図2は、本明細書で開示される指向性制御システムを構成するシステムコントローラ及びパワーアンプのブロック構成図である。 図3は、演算部の指向性制御処理フロー図である。 図4は、複数の音源ごとに異なる指向性を持たせるための音響データ処理部における処理ブロック図である。 図5は、本明細書で開示される指向性制御システムによる制御態様を示した図であり、a)は直進態様を示した図、b)は集中態様を示した図、c)は拡散態様(焦点がシステムの幅の内側にある場合)を示した図、d)は拡散態様(焦点がシステムの幅の外側にある場合)を示した図である。 図6は、明細書で開示される指向性制御システムをコンサート会場で使用した場合の実施例を示した図であり、(a)は、スピーカアレイを2分割して各々から別音源の音を2つの領域に出力する例を示した図、(b)は、1つのスピーカアレイから別音源の音を2つの領域に出力する例を示した図、(c)は、1つのスピーカアレイから別音源の音を3つの領域に出力する例を示した図である。
 以下、図面を参照しながら本開示を実施するための形態を説明する。先に説明した実施形態に対応する構成要素を後続の実施形態が有する場合には、同一の符号を付して重複する説明を省略する。また、各実施形態において構成の一部のみを説明している場合、当該構成の他の部分については先行して説明した実施形態の参照符号を使用する場合がある。各実施形態で具体的に組み合わせが可能であることを明示していない場合でも、特に当該組み合わせに支障が生じなければ、実施形態同士を部分的に組み合わせることも可能である。
 図1を参照して、1は、本明細書で開示される指向性制御システムを構成するシステムコントローラである。システムコントローラ1は、音源Asから音声等の入力を受けると、伝送路2を介して、音響信号とともに指向性制御のための制御信号をパワーアンプ3に伝送する。ここで、音響信号とは、音声信号のほか、音声以外の音源からの音信号を含む概念である。システムコントローラ1は、複数チャンネルの音響信号と制御信号を1本の伝送路で伝送可能である。なお、伝送路2は、有線回線、無線回線のいずれでもよい。例えば、伝送路2にLANケーブルを使用すると、システムコントローラ1が6チャンネルの場合、LANケーブル内のツイストペア線4対のうち、1対を制御信号、3対を音響信号に使用することができる。音響信号は、デジタル伝送した場合、1対で2チャンネル伝送可能であることから、LANケーブル1本で6チャンネルの音響信号を伝送することができる。
 パワーアンプ3は、後述するように、内蔵するDSP(Desital Signal Processor)によって前記音響信号及び制御信号をデジタル信号処理する。パワーアンプ3は、システムコントローラ1に対して複数台(3a乃至3n)接続されており、各パワーアンプ3a乃至3nは、スピーカアレイ4を構成する複数のスピーカブロック4a乃至4nをそれぞれ制御する。
 スピーカブロック4aは、スピーカユニット4a01乃至4a16から構成され、スピーカブロック4nは、スピーカユニット4n01乃至4n16で構成されている。すなわち、複数のスピーカユニットは、所定の配列によって固定接続してグループ化し、スピーカブロックを形成し、さらに、複数のスピーカブロックを固定結合することにより、スピーカアレイを形成する。本実施の形態では、例示的に、縦横ともに4つのスピーカユニット4a01乃至4a16を固定接続したスピーカブロック4a乃至スピーカユニット4n01乃至4n16を固定接続したスピーカブロック4nを形成し、スピーカブロック4a乃至4nを32ブロック固定結合してスピーカアレイ4を形成している。ただし、固定接続、固定結合する数は、本実施の形態に限定する趣旨ではない。また、固定接続、固定結合して形成する全体形状も、本実施の形態では、平面状に配列しているが、円筒状、球面状に形成するものであってもよい。さらに、スピーカブロック内の構成要素を分割して別筐体にしてもよい。
 スピーカユニットは、マルチセル型の平面スピーカ、シングルコーン型のフルレンジスピーカなどいずれで構成されていても良いが、本実施の形態では、以下、マルチセル型の平面スピーカで構成されたスピーカユニットに基づいて説明する。
 平面スピーカは、全面を駆動し平面波を発生させ、距離による音圧の減衰が少なく、音の焦点は無限遠点である。従って、複数のスピーカユニットを介して多様な音場を形成する場合に好適である。
 また、一つのスピーカユニットで全周波数帯域を再生しているため、周波数帯域によって指向性のずれが無い。さらに、以下の点で、平面スピーカを採択することにより、正確な指向性制御が可能となる。すなわち、スピーカユニットをスピーカブロックとして形成する構造を有するため、分割振動等、スピーカユニット間で相関のない音の放射が小さい点、スピーカユニットの振動板が平面で、振動板内のどの場所でも音の放射位置が同一位相音で出力できる点、スピーカユニットごとにエンクロージャを分けることで、スピーカユニット後方に放射される音が他のスピーカユニットに影響を与えない点(なお、この点については、前記シングルコーン型のフルレンジスピーカ等、平面スピーカ以外でも可能な構成ではある。)、などである。
 スピーカブロック、スピーカアレイとも、上記のような構成となっているため、設置会場など、所望する音場を形成する環境に合わせて自由な大きさを設定できるとともに、設置、撤去が簡単であることから仮設での使用も可能である。
 図2は、システムコントローラ1及びパワーアンプ3aのブロック構成図である。図2は、説明の便宜上、パワーアンプ3aで説明しているが、図1で説明したように、パワーアンプは、各スピーカブロックと接続されているため、実際にはシステムコントローラ1に、伝送路2を介して複数のパワーアンプ3a乃至3n(本実施の形態では32個)接続されている。
 システムコントローラ1は、複数種類の指向性パターン、すなわち、指向角度を設定したデータを選択し、制御信号として入力する。入力は、システムコントローラ1とWiFi又はUSBで接続されたパーソナルコンピュータによって行えばよい。また、音響信号は、複数チャンネル(本実施の形態では6ch)からの入力が可能である。
 前記制御信号及び音響信号は、システムコントローラ1から伝送路2を介してパワーアンプ3aに伝送される。パワーアンプ3aでは、インターフェース部31aで前記伝送された制御信号及び音響信号が受け付けられる。
 インターフェース部31aで各制御信号を受け付けると、演算部32aは、前記設定された各指向角度で仮想配列された各スピーカユニットの仮想的な遅延時間データを算出する。すなわち、演算部32aは、少なくとも、CPU(Central Processor Unit)とメモリ(図示せず)とから構成され、メモリに読み出された制御信号から、CPUによって遅延時間データを算出する。
 インターフェース部31aで受け付けた各音響信号は、音響データ処理部33a(DSP)に受け渡され、音響データを生成するとともに、各音響データと各音響データに対応する前記遅延時間データとから出力データを生成する。
 生成された前記出力データは、増幅部34aで、スピーカユニット4a01、4a02乃至4a16ごとに出力するために増幅される。増幅部34aは、スピーカユニット4a01、4a02乃至4a16各々に対応して34a01、34a02乃至34a16から構成される。すなわち、パワーアンプ3aは、スピーカユニットごとに独立しており、各制御信号及び音響信号のデジタル信号処理により、後述するように、上下左右に各スピーカユニットの指向性を制御することが可能となる。
 音響データ処理部33aにおける処理、すなわち、DSP処理に関する遅延時間データの算出等、各種パラメータの計算は、すべてスピーカブロック内(スピーカブロック内のパワーアンプ3a)で行うため、システムコントローラ1は、指向性の設定角度に関する前記制御信号と音源から得られる音響信号を伝送するだけでよく、少ないデータ量で制御を行うことができ、スピーカアレイ4を大規模にしても、低速の回線でリアルタイムに指向性を変えることが可能となる。
 なお、システムコントローラ1は、前記説明した構成を含むものであれば、形態は限定されない。したがって、既存のパーソナルコンピュータで代用してもよく、さらには、スピーカブロック自体に指向性制御用の操作つまみ、センサ類を装備させた形態で代用してもよい。
 以上、増幅部34aからスピーカユニット4a01、4a02乃至4a16を介して前記各出力データを出力することにより、スピーカブロック4aによって所定の音場を形成することができる。
 なお、前記した通り、固定接続、固定結合の配列を円筒状、球面状に形成する場合、スピーカユニットの前後の位置関係を考慮して、前記遅延時間データの算出を行えばよい。
 ところで、演算部32aにおいて、遅延時間データの算出で使用する前記制御信号は、少なくとも、スピーカユニットの設置位置を基準として、水平方向の指向角度データと垂直方向の指向角度データとから構成される。そして、演算部32aは、前記遅延時間データを前記水平方向の指向角度データから算出された水平方向遅延時間データと前記垂直方向の指向角度データから算出された垂直方向遅延時間データとを加算して算出する。
 以下、図3を使って、演算部32aの指向性制御処理フローを説明する。前記インターフェース部31aで制御信号を受け付ける(受信する)と(S1のY)、制御信号の水平方向指向角度データから各スピーカユニットの遅延時間を算出する(S2)。なお、制御信号の受信が確認されるまで、前記S1判断はループする(S1のN)。
 水平方向指向角度から各スピーカユニットの遅延時間を算出した後、垂直方向指向角度データから各スピーカユニットの遅延時間を算出する(S3)。なお、S2の水平方向指向角度データを垂直方向指向角度データとし、S3の垂直方向指向角度データを水平方向指向角度データとしてもよい。
 次いで、各スピーカユニットの水平方向と垂直方向の遅延時間を加算する(S4)。以上の通り、水平方向(X軸方向)と垂直方向(Y軸方向)の遅延時間データを単純に加算することで、縦横に回動するような細かな指向性制御が可能になる。なお、より具体的には、水平方向については、各スピーカユニットの上端と下端で別々に遅延時間を算出し、垂直方向については、各スピーカユニットの左端と右端で別々に遅延時間を算出し、各々中間部分は補間で算出すればよい。
 なお、以上のほか、演算部32aは、少なくとも、算出された前記各遅延時間データに対応する音量、周波数特性のいずれか一つについて特性補正量を算出するようにしてもよい(S5)。上記の通り、遅延時間データによって指向性を制御するため、算出された遅延時間に相当する距離を物理的に動かした場合に比べて音圧が高くなり、さらには、位相のずれが生じる可能性がある。そこで、現実に前記遅延時間データに対応する物理的な指向角度で音源の音が出力されているようにするために、前記特性補正量を算出し、これを遅延データに反映させるようにすればよい。
 各スピーカユニットの遅延時間データと特性補正量データとを対応する音響信号の音響データ処理に移行させる(S6)。
 次に、複数の音源ごとに異なる指向性を持たせる処理を例として、図4を使って、音響データ処理部33aの処理を説明する。
 複数の異なる音源As1、As2乃至Asnから、システムコントローラ1、伝送路2及びパワーアンプ3aのインターフェース部31aを介して(図示せず)、音響データ処理部33aで各音響データが受信される。
 受信された各音響データは、音質調整後、図3で説明した遅延時間データ、特性補正量データとともに合成される。以下、具体的に、図2で説明したスピーカブロック4aに対応する増幅部34a01、34a02乃至34a16に出力する場合を例として説明する。なお、音源As1、As2乃至Asnに対する音質調整33a1、33a2乃至33anは、例えば、周波数特性の調整など直接指向制御に関与する処理ではない。
 まず、音源As1については、増幅部34a01に対応する遅延処理33a1-01dと特性補正処理33a1-01cが行われる。同様にして、増幅部34a02に対応する遅延処理33a1-02dと特性補正処理33a1-02c、増幅部34a16に対応する遅延処理33a1-16dと特性補正処理33a1-16cも行われる。
 次に、音源As2については、増幅部34a01に対応する遅延処理33a2-01dと特性補正処理33a2-01cが行われる。同様にして、増幅部34a02に対応する遅延処理33a2-02dと特性補正処理33a2-02c、増幅部34a16に対応する遅延処理33a2-16dと特性補正処理33a2-16cも行われる。
 同様に、音源Asnについては、増幅部34a01に対応する遅延処理33an-01dと特性補正処理33an-01cが行われる。同様にして、増幅部34a02に対応する遅延処理33an-02dと特性補正処理33an-02c、増幅部34a16に対応する遅延処理33an-16dと特性補正処理33an-16cも行われる。
 各々の音源As1、As2乃至Asnの遅延処理、特性補正処理が終わると、各遅延処理、特性補正処理が合成処理33a―01において合成される。すなわち、増幅部34a01に送られる出力データは、音源As1についての遅延処理33a1-01d及び特性補正処理33a1-01c、音源As2についての遅延処理33a2-01d及び特性補正処理33a2-01c、音源Asnについての遅延処理33an-01d及び特性補正処理33an-01cの3つのデータである。
 同様に、増幅部34a02に送られる出力データは、音源As1についての遅延処理33a1-02d及び特性補正処理33a1-02c、音源As2についての遅延処理33a2-02d及び特性補正処理33a2-02c、音源Asnについての遅延処理33an-02d及び特性補正処理33an-02cであり、これら3つのデータを合成処理33a―02において合成する。また、増幅部34a16に送られる出力データは、音源As1についての遅延処理33a1-16d及び特性補正処理33a1-16c、音源As2についての遅延処理33a2-16d及び特性補正処理33a2-16c、音源Asnについての遅延処理33an-16d及び特性補正処理33an-16cであり、これら3つのデータを合成処理33a―16において合成する。
 以上の通り、システムコントローラ1のチャンネルごとに指向性を制御し、各増幅部34a01、34a02乃至34a16の手前で合成(ミキシング)することにより、チャンネルごとに異なる指向性の制御を行うことができる。
 以下、図5を使って、本明細書で開示される指向性制御システムによる制御態様を説明する。図5では、平面状に配列されたスピーカアレイ4と遅延時間データによって仮想配列された仮想スピーカアレイ4v及び受音位置Rを使って模式的に説明する。なお、図5は、スピーカアレイ4、仮想スピーカアレイ4vの上面図であり、スピーカアレイ4の設置位置に対して、水平方向(X軸方向)の指向角度を制御する場合の説明図であるが、前記設置位置に対して、垂直方向(Y軸方向)の指向角度も同様に制御可能である。実際の制御は、前記説明の通り、X軸方向とY軸方向の指向角度に対応する遅延時間データを加算し、仮想スピーカアレイ4vが3次元で制御されているようにして音源の音を出力する。
 図5(a)は、スピーカアレイ4の両端の指向角度、指向方向が同じ場合の指向性制御の態様である。この場合は、仮想スピーカアレイ4vの放音面が、指向方向に向かうように、スピーカアレイ4の両端辺のいずれかを中心軸として背面方向にそのまま擬似回転した状態で仮想スピーカアレイ4vの放音面全体が直進的に受音位置Rに放音するように各スピーカユニットの遅延時間データを算出すればよい。
 図5(b)は、スピーカアレイ4から受音位置が一点に集中する場合の指向性制御の態様である。この場合は、仮想スピーカアレイ4vの放音面が、指向方向の一点、すなわち、受音位置Rに向かうように、スピーカアレイ4の両端のいずれかを中心軸として背面方向にそのまま擬似回転させる。さらに、かかる状態で仮想スピーカアレイ4vを、受音位置Rを中心とした扇状を形成するように弧状配列させて、受音位置Rに集中して放音するように各スピーカユニットの遅延時間データを算出すればよい。
 図5(c)は、スピーカアレイ4から受音位置Rに向けて拡散する場合であって、拡散方向と反対側の焦点F1が、スピーカアレイ4の幅方向内に位置する場合の指向性制御の態様である。この場合は、仮想スピーカアレイ4vの放音面と反対側の背面が、前記焦点F1に向かうように、スピーカアレイ4の両端のいずれかを中心軸として背面方向にそのまま擬似回転させる。さらに、かかる状態で仮想スピーカアレイ4vを、焦点F1を中心とした扇状を形成するように弧状配列させて、放音面が受音位置Rに拡散して放音するように各スピーカユニットの遅延時間データを算出すればよい。なお、この場合、焦点Fは、仮想スピーカアレイ4vの両端部の接線から前記背面側方向に垂線を引いた交点になる。
 図5(d)は、スピーカアレイ4から受音位置Rに向けて拡散する場合であって、拡散方向と反対側の焦点F2が、スピーカアレイ4の幅方向外に位置する場合の指向性制御の態様である。この場合も、仮想スピーカアレイ4vの配列は、図5(c)と同じであるが、前記中心がスピーカアレイ4の幅方向外に位置するように設定すればよい。
 図5は、指向性制御の態様の典型例であるが、これらを応用して多様な制御が可能となる。たとえば、スピーカアレイ4の上下左右4辺で異なる指向性を設定することが可能であり、また、スピーカアレイ4の放音面手前は狭指向性とし、放音面から離れたところでは広指向性となるような設定も可能である。
 さらに、スピーカアレイ4の四隅、各辺の任意の箇所に別々の指向角度を設定し、その間の各パラメータ(遅延時間データ等)を補間することで複雑な形状の指向性を実現することもできる。また、スピーカアレイ4の一部領域のみを使用して放音することも可能である。
 また、例えば、音場を形成する会場内のエリアごとに異なる言語を放送することで、音楽ホールなどでバルコニーの下部、天井などに音が到達しないようにし、客席のみに音を出すことで反射を低減し、音の明瞭度をあげるような使い方、会場を複数のエリアに分け、異なる音波でカバーすることで、エリア内におけるスピーカアレイからの距離の差異を小さくし、音圧の均一化を図るような使い方、なども可能である。
 以上の通り、音の放射方向を直進、集中、拡散させて、指向角度を自由に制御し、自由な方向に任意の選択した箇所にのみ放音することで、所望の音場を簡単に設定することができる。
 <変形例>
 なお、本明細書で開示される指向性制御システムは、少なくとも、前記出力データを出力する音場の温度又は風向風速のいずれか一つを検知する検知センサ部(図示せず)を備え、前記検知センサ部によって検知されたデータに基づいて、前記遅延時間データを算出する構成としてもよい。具体的には、前記検知センサ部は、システムコントローラ1に接続され、検知センサ部で検知された各種センサ信号は、前記制御信号、音響信号とともに、伝送路2を介してパワーアンプ3に伝送され、演算部32aで前記算出をするように構成すればよい。
 なお、前記算出は、例えば、前記検知センサ部で、温度センサによってデータが検知された場合、下記計算式によって遅延時間データを算出すればよい。
Figure JPOXMLDOC01-appb-M000001
 すなわち、音速は、温度(変数)によって変化し、指向角度のずれが生じる。そこで、温度センサで温度の変化が検知された場合に、前記計算式によって遅延時間データを再算出し、経時的な気温の変化に対応して、リアルタイムで指向性制御を実行するようにすればよい。
 また、前記算出は、例えば、前記検知センサ部で、風向風速センサによってデータが検知された場合、下記計算式によって検知されたデータに対応するベクトルを算出し、これに基づいて遅延時間データを算出すればよい。
Figure JPOXMLDOC01-appb-M000002
 すなわち、音源から受音位置までの間に風が吹く場合、空気粒子の振動で伝達される音は、風向・風速に応じて目的とした受音位置からずれが生じる。そこで、かかる風力によるずれをベクトル演算によって補正すればよい。
 以上、温度センサによって検知されたデータに基づく補正及び風向風速センサによって検知されたデータに基づく補正を個別に説明したが、前記検知センサ部は、温度センサ、風向風速センサから検知された各データに基づいて、複合的に補正して、遅延時間データを算出するようにしてもよい。
 また、少なくとも、音響センサ及び画像センサから構成された監視センサによって検知された群衆の行動からイベントを解析及び判定するとともに、前記イベントが発生しているエリアを特定し、特定されたエリアに向けた指向角度を測定する群衆行動解析部と、前記イベントの発生が判定され、前記エリアを特定する指向角度が測定されると、前記測定された指向角度に対応する制御信号を生成するとともに、前記イベントが発生したエリアに向けた音源によって、前記音響信号を生成する入力部と、を有する構成としてもよい。
 すなわち、前記監視センサと群衆行動解析によって得られる群衆の位置情報(GPS等を利用して得られる経緯度など)から、スピーカアレイの設置位置から見た前記群衆の位置の角度を前記群衆行動解析部で算出し、算出されたデータをスピーカアレイが有するパワーアンプ3の演算部32aに転送して設定すると同時に、前記群衆の位置で最適な音源を再生することで例えば避難誘導、混雑緩和を自動的に行うことができる。
 さらに、例えば、博物館などで展示物の説明など狭小エリアで複数の異なる音声案内等が必要な場合、かかる音声案内等が必要な場所に人感センサを設置し、前記人感センサが検知する位置へ前記音声案内等の音源の音を出力するための指向角度とかかる位置で出力する音源を記憶させた音声案内等の登録部、登録部に登録された音声案内等の読出し及び音声データを再生する再生部を組み合わせることにより、人感センサが人の展示物へのアクセスを検知したときに、本明細書で開示される指向性制御システムに指向角度を設定し、音源を再生するようにしてもよい。すなわち、複数の音場に人のアクセスを検知する人感センサ部と、前記複数の音場に対応する個別の音響信号及び音源の音を出力する各指向角度の制御信号を登録する登録部と、を備え、前記複数の音場のうち、前記人感センサ部によって前記アクセスを検知すると、前記検知された音場に対応する音響信号及び制御信号を登録部から読み出し、前記インターフェース部に送信する再生処理部を有する構成としてもよい。
 本明細書で開示される指向性制御システムにおいて、指向角度を入力すると、例えば、100ms以内で指向性を変更することができるので、前記のような流動的な受音ターゲットに対して、遅延することなく追尾(トラッキング)することができる。また、かかる機能によって、動画と連動した使い方も可能になる。
 以上の通り、本明細書で開示される指向性制御システムは、単一のシステムで、複数の音源を異なる複数の指向性で同時に出力することができるので、複数の前記群衆の位置、複数の前記狭小エリアに対して、その数に対応するシステムを設置する必要はない。
 所定の音場において、所定の受音位置に前記音源の音を到達させるために設定される指向角度のデータを予め記憶させる記憶部を有し、前記記憶部から所定の指向角度のデータを読み出すと、自動的に前記インターフェース部31aで前記読み出された指向角度のデータが受け付けられるようにしてもよい。
 前記スピーカユニットの前記出力する面にLED(発光ダイオード)表示部を設置し、前記音源の音に連動した映像を表示させる映像生成部を有する構成としてもよい。前記映像生成部は、例えば、システムコントローラ1からパワーアンプ3に画像データを送信し、パワーアンプ3内に設ける構成、又は、パワーアンプ3に外付けされた構成とすればよい。特に、平面スピーカの場合、コーン型スピーカと異なり、LED表示部を取り付けても、スピーカ自体の振動によって映像が乱れることもないため、スピーカユニット自体を良好なスクリーンとすることが可能になる。
 図6は、指向性制御システムをコンサート会場で使用した場合の実施例を示した図である。図6(a)は、ステージ上のスピーカアレイを2分割して左右に配置し、各々のスピーカアレイから別音源の音(例えば、右側は英語、左側は日本語など。)を客席の2つの領域AF1、AF2に出力することが可能である。たとえば、右側の席に、英語での聴取を希望する観客を誘導し、左側の席に、日本語での聴取を希望する観客を誘導すればよい。
 (b)は、1つのスピーカアレイから別音源の音を2つの領域、AF3、AF4に出力する例を示した図である。用途としては、(a)の場合と同様であるが、スピーカアレイを分割して設置できない狭い会場の場合などに好適な使い方である。
 (c)は、1つのスピーカアレイから別音源の音を3つの領域に出力する例を示した図である。(b)のように、左右の領域AF5、AF6のほか、中央部手前部分の領域AF7にのみ、領域AF5、AF6とは異なる音源の音を出力することができる。
 以上の通り、本明細書で開示する指向性制御システムは、防音壁などで仕切られていない同一会場内であっても、所望の領域にのみ、所定の音源の音を出力すると同時に、前記領域に隣接する別領域には、前記音源の音とは別の音源の音を出力することができ、隣接する領域に出力された音源の音が、混在しないように制御することができる。すなわち、指向性制御システムは、スピーカアレイを構成する各スピーカを三次元指向性制御することにより、遠達性、明瞭性を実現する音場を提供することができる。
 この明細書で開示された技術は、前記実施形態に制限されない。すなわち、例示的に示された実施形態と、それらに基づく当業者による変形態様を包含する。また、一つの実施形態と他の実施形態との間における部品、要素の置き換え、または組み合わせを包含する。さらに、開示される技術的範囲は、実施形態の記載に限定されない。開示される技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内での全ての変更を含むものである。
 1  システムコントローラ
 2  伝送路
 3  パワーアンプ
 4  スピーカアレイ
 4a スピーカブロック

Claims (13)

  1.  複数のスピーカユニットを介して多様な音場を形成する指向性制御システムであって、
    前記複数のスピーカユニットを所定の配列によって固定接続し、グループ化したスピーカブロックと、
    前記スピーカブロックを構成する複数のスピーカユニットごとに音源の音を出力するための音響信号と前記出力する指向角度を設定した制御信号とを受け付けるインターフェース部と、
    前記インターフェース部で受け付けた各制御信号から、前記設定された各指向角度で仮想配列された前記各スピーカユニットの仮想的な遅延時間データを算出する演算部と、
    前記インターフェース部で受け付けた各音響信号から音響データを生成するとともに、各音響データと各音響データに対応する前記遅延時間データとから出力データを生成する音響データ処理部と、
    前記出力データを前記各スピーカユニットに出力するために増幅する増幅部と、を有し、
    前記増幅部から前記各スピーカユニットを介して前記各出力データを出力することにより、前記スピーカブロックによって所定の音場を形成する指向性制御システム。
  2.  前記制御信号は、少なくとも、前記スピーカユニットの設置位置を基準として水平方向の指向角度データと垂直方向の指向角度データとから構成され、前記演算部は、前記遅延時間データを前記水平方向の指向角度から算出された水平方向遅延時間データと前記垂直方向の指向角度から算出された垂直方向遅延時間データとを加算して算出する請求項1記載の指向性制御システム。
  3.  前記演算部は、少なくとも、算出された前記各遅延時間データに対応する音量、周波数特性のいずれか一つについて特性補正量を算出し、前記音響データ処理部は、前記各音響データ、前記各遅延時間データとともに、前記算出された各特性補正量データから出力データを生成する請求項1又は請求項2記載の指向性制御システム。
  4.  前記音響データ処理部は、前記演算部で算出される前記遅延時間データによって、前記スピーカブロックから所定の指向方向に向けて、少なくとも、前記音源の音声を直進、拡散又は集中させて所定の受音位置に到達可能な出力データを生成する請求項1から請求項3までのいずれか1項に記載の指向性制御システム。
  5.  前記インターフェース部は、複数の異なる音源に対応した複数の異なる音響信号を受け付けるとともに、前記各音源に設定された異なる指向角度に対応する制御信号を受け付け、前記音響データ処理部は、前記異なる各音響信号及び各制御信号に応じて各々異なる出力データを生成する請求項1から請求項4までのいずれか1項に記載の指向性制御システム。
  6.  少なくとも、前記出力データを出力する音場の風向風速又は温度のいずれか一つを検知するセンサを備え、前記演算部は、前記センサによって検知されたデータによって変化量データを算出し、前記遅延時間データを前記算出された変化量データに基づいて算出する請求項1から請求項5までのいずれか1項に記載の指向性制御システム。
  7.  少なくとも、音響センサ及び画像センサから構成された監視センサによって検知された群衆の行動からイベントを解析及び判定するとともに、前記イベントが発生しているエリアを特定し、特定されたエリアに向けた指向角度を測定する群衆行動解析部と、前記イベントの発生が判定され、前記エリアを特定する指向角度が測定されると、前記測定された指向角度に対応する制御信号を生成するとともに、前記イベントが発生したエリアに向けた音源によって、前記音響信号を生成する入力部と、を有する請求項1から請求項6までのいずれか1項に記載の指向性制御システム。
  8.  複数の音場に人のアクセスを検知する人感センサ部と、前記複数の音場に対応する個別の音響信号及び音源の音を出力する各指向角度の制御信号を登録する登録部と、を備え、
    前記複数の音場のうち、前記人感センサ部によって前記アクセスを検知すると、前記検知された音場に対応する音響信号及び制御信号を登録部から読み出し、前記インターフェース部に送信する再生処理部を有する請求項1から請求項6までのいずれか1項に記載の指向性制御システム。
  9.  所定の音場において、所定の受音位置に前記音源の音を到達させるために設定される指向角度のデータを予め記憶させる記憶部を有し、前記記憶部から所定の指向角度のデータを読み出すと、自動的に前記インターフェース部で前記読み出された指向角度のデータが受け付けられる請求項1から請求項8までのいずれか1項に記載の指向性制御システム。
  10.  前記スピーカユニットが、少なくとも、マルチセル型の平面スピーカ又はシングルコーン型のフルレンジスピーカである請求項1から請求項9までのいずれか1項に記載の指向性制御システム。
  11.  前記スピーカブロックを複数固定結合して配列したスピーカアレイを形成し、前記スピーカブロックの指向性制御によって前記スピーカアレイ全体で指向性を制御可能とする請求項1から請求項10までのいずれか1項に記載の指向性制御システム。
  12.  前記スピーカユニットの配列が、少なくとも、前記スピーカブロック又は前記スピーカアレイ全体で平面状、円筒状、球面状である請求項11記載の指向性制御システム。
  13.  前記スピーカユニットの前記出力する面にLED表示部を設置し、前記LED表示部に、前記音源の音に連動した映像を表示させる映像生成部を有する請求項1から請求項12までのいずれか1項に記載の指向性制御システム。
PCT/JP2019/023310 2018-08-31 2019-06-12 指向性制御システム WO2020044728A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/254,197 US11089403B1 (en) 2018-08-31 2019-06-12 Directivity control system
JP2020540086A JP6979665B2 (ja) 2018-08-31 2019-06-12 指向性制御システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018163341 2018-08-31
JP2018-163341 2018-08-31

Publications (1)

Publication Number Publication Date
WO2020044728A1 true WO2020044728A1 (ja) 2020-03-05

Family

ID=69642905

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023310 WO2020044728A1 (ja) 2018-08-31 2019-06-12 指向性制御システム

Country Status (3)

Country Link
US (1) US11089403B1 (ja)
JP (1) JP6979665B2 (ja)
WO (1) WO2020044728A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285709A (ja) * 1999-03-29 2000-10-13 Toyoda Gosei Co Ltd サウンドイルミネーション装置
JP2009231980A (ja) * 2008-03-19 2009-10-08 Yamaha Corp スピーカアレイシステム
JP2012085340A (ja) * 1999-09-29 2012-04-26 1 Ltd 音響指向方法および装置
WO2012169095A1 (ja) * 2011-06-08 2012-12-13 パナソニック株式会社 音声信号処理装置および音声信号処理方法
JP2016524862A (ja) * 2013-05-31 2016-08-18 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 空間的に選択的なオーディオ再生装置及び方法
JP2017500785A (ja) * 2013-11-22 2017-01-05 アップル インコーポレイテッド ハンズフリー・ビームパターン構成
JP2017532898A (ja) * 2014-09-26 2017-11-02 アップル インコーポレイテッド 設定可能なゾーンを有するオーディオシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4591145B2 (ja) 2004-10-27 2010-12-01 ヤマハ株式会社 音響システム
DE102013013377A1 (de) 2013-08-10 2015-02-12 Advanced Acoustic Sf Gmbh Dezentraler Aufbau eines Wellenfeldsynthese Systems
WO2015187715A1 (en) * 2014-06-03 2015-12-10 Dolby Laboratories Licensing Corporation Passive and active virtual height filter systems for upward firing drivers
DE102015209196A1 (de) * 2014-09-08 2016-03-10 Robert Bosch Gmbh Verfahren zur seriellen Übertragung eines Rahmens über ein Bussystem von einem Sender zu mindestens einem Empfänger und Teilnehmern eines Bussystems
JP6543957B2 (ja) * 2015-02-26 2019-07-17 ヤマハ株式会社 スピーカアレイ装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285709A (ja) * 1999-03-29 2000-10-13 Toyoda Gosei Co Ltd サウンドイルミネーション装置
JP2012085340A (ja) * 1999-09-29 2012-04-26 1 Ltd 音響指向方法および装置
JP2009231980A (ja) * 2008-03-19 2009-10-08 Yamaha Corp スピーカアレイシステム
WO2012169095A1 (ja) * 2011-06-08 2012-12-13 パナソニック株式会社 音声信号処理装置および音声信号処理方法
JP2016524862A (ja) * 2013-05-31 2016-08-18 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 空間的に選択的なオーディオ再生装置及び方法
JP2017500785A (ja) * 2013-11-22 2017-01-05 アップル インコーポレイテッド ハンズフリー・ビームパターン構成
JP2017532898A (ja) * 2014-09-26 2017-11-02 アップル インコーポレイテッド 設定可能なゾーンを有するオーディオシステム

Also Published As

Publication number Publication date
US11089403B1 (en) 2021-08-10
US20210250688A1 (en) 2021-08-12
JPWO2020044728A1 (ja) 2021-09-24
JP6979665B2 (ja) 2021-12-15

Similar Documents

Publication Publication Date Title
CN111213387B (zh) 在空间中定位声音信号的扬声器系统和耳机
JP5640911B2 (ja) スピーカアレイ装置
JP3826423B2 (ja) スピーカ装置
JP4449998B2 (ja) アレイスピーカ装置
ES2606678T3 (es) Presentación de sonido reflejado para audio con base de objeto
JP4949638B2 (ja) オーディオ信号供給装置
US9942659B2 (en) Loudspeaker transducer arrangement for directivity control
US9549277B2 (en) Method for efficient sound field control of a compact loudspeaker array
JP2004172786A (ja) オーディオ信号の再生方法および再生装置
EP3062536B1 (en) Speaker array apparatus
US8351639B2 (en) Multi-directional sound emission system
EP3381200B1 (en) Loudspeaker device or system with controlled sound fields
ES2897929T3 (es) Método y aparato para proporcionar distribuciones de sonido personalizadas.
JP2010258653A (ja) サラウンドシステム
JP2011010224A (ja) 超指向性スピーカ
GB2473968A (en) Loudspeaker array configuration with 3D plot/display
JP2008154130A (ja) 音場測定装置
US20230319459A1 (en) Loudspeaker apparatus, loudspeaker system, display panel and systems thereof
JP2004179711A (ja) スピーカ装置および音響再生方法
US9648413B2 (en) Loudspeaker system
WO2020044728A1 (ja) 指向性制御システム
US6766033B2 (en) Modular bass arraying
KR101637095B1 (ko) 음향 방향 지시 유닛을 구비한 스피커 장치
JP2006191285A (ja) アレイスピーカシステムおよびそのオーディオ信号処理装置
JP2002291086A (ja) スピーカー装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19854911

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020540086

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19854911

Country of ref document: EP

Kind code of ref document: A1