WO2020004460A1 - 超音波コントローラ、超音波スピーカ、及び、プログラム - Google Patents

超音波コントローラ、超音波スピーカ、及び、プログラム Download PDF

Info

Publication number
WO2020004460A1
WO2020004460A1 PCT/JP2019/025370 JP2019025370W WO2020004460A1 WO 2020004460 A1 WO2020004460 A1 WO 2020004460A1 JP 2019025370 W JP2019025370 W JP 2019025370W WO 2020004460 A1 WO2020004460 A1 WO 2020004460A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
control
speaker
focal point
sound pressure
Prior art date
Application number
PCT/JP2019/025370
Other languages
English (en)
French (fr)
Inventor
陽一 落合
貴之 星
Original Assignee
ピクシーダストテクノロジーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピクシーダストテクノロジーズ株式会社 filed Critical ピクシーダストテクノロジーズ株式会社
Publication of WO2020004460A1 publication Critical patent/WO2020004460A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to an ultrasonic controller, an ultrasonic speaker, and a program.
  • Ultrasonic speakers that emit ultrasonic waves having directivity are known.
  • An ultrasonic speaker can generate an audible sound in a specific range.
  • the focus is set near the listener's ear. Therefore, it is desirable for the ultrasonic speaker to suppress the sound pressure of the ultrasonic wave.
  • Japanese Patent Application Laid-Open No. 2003-23689 discloses a technique for suppressing grating lobes in order to suppress the sound pressure of ultrasonic waves.
  • JP-A-2003-23689 the audible sound beam in an unintended direction can be suppressed, but the ultrasonic distribution around the focal point is not intended. In this case, a high sound pressure area is formed around the focal point.
  • the high sound pressure area causes abnormal noise for listeners around the focal point. Also, since the high sound pressure area expands the area where the audible sound is generated, it is difficult to locally generate the audible sound.
  • the conventional ultrasonic speaker cannot control the ultrasonic distribution around the focal point.
  • An object of the present invention is to control the ultrasonic distribution around the focal point.
  • An ultrasonic controller that controls a vibrator array having a plurality of ultrasonic vibrators that emit ultrasonic waves focused on at least one focal point at an arbitrary position in space, Means for calculating focus coordinates of the focus and control point coordinates of at least one control point, The sound pressure of the control point is lower than the sound pressure of the focal point, Based on the focal point coordinates and the control point coordinates, comprising means for generating control parameters for controlling each ultrasonic transducer, Based on the control parameters of each ultrasonic transducer, comprising means for individually controlling each ultrasonic transducer so as to emit ultrasonic waves focused on the focal point, It is an ultrasonic controller.
  • FIG. 1 is a system configuration diagram of an audio system according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of the audio system of FIG. 1.
  • FIG. 2 is a schematic configuration diagram of the ultrasonic speaker of FIG. 1. It is an explanatory view of the outline of the present embodiment.
  • FIG. 2 is an explanatory diagram of a control principle of the ultrasonic controller in FIG. 1.
  • FIG. 3 is an explanatory diagram of a method of determining an oscillation timing of the ultrasonic speaker of FIG.
  • FIG. 3 is an explanatory diagram of a method of determining an oscillation timing of the ultrasonic speaker of FIG.
  • FIG. 9 is an explanatory diagram of an operation example 1 of the ultrasonic speaker of the present embodiment.
  • FIG. 1 is a system configuration diagram of an audio system according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of the audio system of FIG. 1.
  • FIG. 2 is a schematic configuration diagram of the ultrasonic speaker of FIG
  • FIG. 9 is a diagram illustrating a sound source formed in Operation Example 1 of FIG. 8.
  • FIG. 9 is an explanatory diagram of Operation Example 2 of the ultrasonic speaker of the present embodiment.
  • FIG. 11 is a diagram illustrating a sound source formed in Operation Example 2 of FIG. 10.
  • 5 is a flowchart of a process of controlling the audio system according to the embodiment.
  • FIG. 13 is a schematic diagram of sound pressure information and first surround pan parameters referred to in the processing of FIG. 12.
  • FIG. 13 is a schematic diagram of sound pressure information divided into a first frequency band to a third frequency band in the processing of FIG. 12.
  • FIG. 13 is a schematic diagram of a second surround pan parameter generated in the processing of FIG. 12.
  • FIG. 18 is an explanatory diagram of the operation and effect of Modification Example 5.
  • FIG. 1 is a system configuration diagram of the audio system of the present embodiment.
  • FIG. 2 is a block diagram showing a configuration of the audio system of FIG.
  • an audio system 1 is installed in a use environment SP.
  • the audio system 1 is located in front of the listener L.
  • the audio system 1 includes an ultrasonic controller 10, an ultrasonic speaker 21, a loudspeaker 22, a sound source 23, a camera 24, a position detector 25, and a woofer 26.
  • the ultrasonic controller 10 is an example of an information processing device that controls a speaker set (the ultrasonic speaker 21, the loudspeaker 22, and the woofer 26).
  • the ultrasonic controller 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS Operating System
  • program-Application program that executes information processing (for example, a control application that controls the audio system 1)
  • the data includes, for example, the following data.
  • ⁇ Database referred to in information processing ⁇ Data obtained by executing information processing (that is, execution result of information processing)
  • the processor 12 is configured to realize the function of the ultrasonic controller 10 by activating the program stored in the storage device 11.
  • Processor 12 is an example of a computer.
  • the input / output interface 13 receives an input signal from an input device (a sound source 23, a camera 24, and a position detection unit 25) connected to the ultrasonic controller 10, and outputs an output device (ultrasonic) connected to the ultrasonic controller 10. It is configured to output an output signal to the acoustic speaker 21 and the loudspeaker 22).
  • an input device a sound source 23, a camera 24, and a position detection unit 25
  • an output device ultrasonic
  • the communication interface 14 is configured to control communication between the ultrasonic controller 10 and a server (not shown).
  • the ultrasonic speaker 21 is configured to emit an ultrasonic wave under the control of the ultrasonic controller 10.
  • the loudspeaker 22 and the woofer 26 are configured to generate an audible sound under the control of the ultrasonic controller 10.
  • the sound source 23 is configured to provide an audio signal to the ultrasonic controller 10.
  • the sound source 23 includes the following. ⁇ TV ⁇ Audio media player (cassette player, CD (Compact Disc) player, DVD (Digital Versatile Disc) player, Blu-ray disc player) ⁇ Digital audio player
  • the camera 24 is configured to acquire image information of the use environment SP.
  • the camera 24 is, for example, a CMOS (Complementary @ MOS) camera.
  • the position detection unit 25 is configured to detect a position of a person.
  • the position detection unit 25 is, for example, an infrared sensor.
  • the infrared sensor irradiates infrared light and receives reflected light of the infrared light, and generates an electric signal according to the reflected light. Thereby, the position of the person is detected.
  • FIG. 3 is a schematic configuration diagram of the ultrasonic speaker of FIG.
  • a cover 21a (FIG. 3A) is arranged on the radiation surface of the ultrasonic speaker 21.
  • the radiation surface (FIG. 3B) on the housing 21b is exposed.
  • a transducer array FA including N (N is an integer of 2 or more) ultrasonic transducers TR is arranged on the radiation surface.
  • the ultrasonic transducer TR (n) (n is an integer of 1 to N) is arranged on an XZ plane (hereinafter, referred to as “array plane”).
  • the ultrasonic speaker 21 includes a drive unit (not shown) that drives each ultrasonic transducer TR (n).
  • the drive unit individually drives each ultrasonic transducer TR (n).
  • Each ultrasonic transducer TR (n) generates an ultrasonic wave by oscillating according to the driving of the driving unit.
  • Ultrasonic waves emitted from each ultrasonic transducer TR (n) propagate in space and are focused at a focal point in space. The focused ultrasound waves form an audible sound source.
  • FIG. 4 is an explanatory diagram of the outline of the present embodiment.
  • FIG. 5 is an explanatory diagram of the control principle of the ultrasonic controller in FIG.
  • the sound source 23 supplies an audio signal to the ultrasonic controller 10.
  • the ultrasonic controller 10 inputs position information (x0, y0, z0) regarding a position in a space where a sound source is to be formed.
  • the position information (x0, y0, z0) is given to the ultrasonic controller 10 by at least one of the following, for example. -Instructions of an operator who operates the ultrasonic controller 10-Input signals input from input devices (at least one of the sound source 23, the camera 24, and the position detection unit 25)-Signal patterns of audio signals
  • the ultrasonic controller 10 calculates the focal coordinates (xfp, yfp, zfp) of at least one focal point FP and the control point coordinates (xcp (m) of at least one control point CP (m). , Ycp (m), zcp (m)).
  • m is an identifier (a positive integer) of the control point CP.
  • the control point CP is a point at which the sound pressure of the ultrasonic wave is lower than the sound pressure of the ultrasonic wave focused on the focal point FP.
  • the sound pressure of the ultrasonic wave focused on the focal point FP (hereinafter referred to as “focus sound pressure”) is SPfp
  • the sound pressure of the ultrasonic wave at the control point CP (hereinafter referred to as “control point sound pressure”) is SPcp.
  • the ultrasonic controller 10 forms a control point CP having a control point sound pressure SPcp smaller than the focus sound pressure SPfp in the space, in addition to the focus FP.
  • SPcp The sound pressure of the ultrasonic wave focused on the focal point FP
  • the ultrasonic controller 10 controls each ultrasonic transducer TR (n) based on the focal point coordinates (xfp, yfp, zfp) and the control point coordinates (xcp (m), ycp (m), zcp (m)). Generate the parameter PAR (n).
  • the control parameter PAR (n) includes at least one of the oscillation amplitude A (n) and the oscillation phase P (n) of the ultrasonic transducer TR (n).
  • the ultrasonic controller 10 outputs a control parameter PAR (n) to each ultrasonic transducer TR (n).
  • Each ultrasonic transducer TR (n) oscillates according to the control parameter PAR (n).
  • ultrasonic waves USW based on the control parameter PAR (n) are emitted from the transducer array FA.
  • the ultrasonic wave USW emitted from the transducer array FA is focused at the focal point FP.
  • the space in which the focus FP is formed acts as a sound source.
  • the ultrasonic waves radiated from the transducer array FA weaken each other at the control point CP, and therefore, the ultrasonic waves radiate in the area (hereinafter referred to as “control area”) CA in the space where the control point CP (m) is formed. Sound pressure is reduced. This allows the listener L to hear the audible sound only in the vicinity of the focal point FP, and to reduce the sound pressure of the ultrasonic waves at positions other than the focal point FP around the focal point FP. .
  • the ultrasonic speaker 21 emits an ultrasonic wave modulated by a predetermined modulation method.
  • the modulation method is, for example, one of the following. • AM (Amplitude Modulation) modulation • FM (Frequency Modulation) modulation • PM (Phase Modulation) modulation
  • the ultrasonic controller 10 gives an oscillation phase difference to the ultrasonic waves radiated from each ultrasonic transducer TR (n) by individually controlling the oscillation timing of the plurality of ultrasonic transducers TR (n).
  • the focal position and the number of focal points depend on the oscillation phase difference. That is, the ultrasonic speaker 21 can change the focal position and the number of focal points by controlling the oscillation phase difference.
  • FIG. 6 and 7 are explanatory diagrams of a method of determining the oscillation timing of the ultrasonic speaker of FIG.
  • the storage device 11 stores coordinates (xtr (n), ytr (n), ytr (n), and the relative position of the ultrasonic transducer TR (n) on the transducer array FA with respect to a reference point (for example, the center) of the transducer array FA. ztr (n)) is stored. n is an identifier (positive integer) of the ultrasonic transducer TR.
  • the processor 12 when the operator operating the ultrasonic controller 10 gives an instruction for designating the focal point FP, the processor 12 causes the focal point coordinates (xfp, yfp, zfp) is determined.
  • the processor 12 stores the coordinates (xtr (n), ytr (n), ztr (n)) of the ultrasonic transducer TR (n) stored in the storage device 11, the focal coordinates (xfp, yfp, zfp), ,
  • the focal length r (n) between the ultrasonic transducer TR (n) and the focal point FP is calculated.
  • the processor 12 executes the acoustic hologram calculation using the focal coordinates (xfp, yfp, zfp) as an input, so that, for example, the focal sound pressure SPfp becomes maximum and the sound pressure of the control area within a predetermined range of the focal point FP is reduced.
  • the control point coordinates (xcp (m), ycp (m), zcp (m)) of the control point CP (m) to be minimized; the control point sound pressure SPcp (m) of the control point CP (m); To determine.
  • the processor 12 stores the coordinates (xtr (n), ytr (n), ztr (n)) of the ultrasonic transducer TR (n) stored in the storage device 11 and the control point coordinates (xcp (m), ycp ( m), zcp (m)) and the control point sound pressure SPcp (m) based on the control point distance q (n, m) between the ultrasonic transducer TR (n) and each control point CP (m). ) Is calculated.
  • the processor 12 generates a time difference between the oscillation timing of the (n + 1) th ultrasonic transducer TR (n + 1) to oscillate and the oscillation timing of the nth ultrasonic transducer TR (n) (hereinafter, referred to as “oscillation time difference”).
  • ⁇ T (n + 1) is calculated using a function of the focal point coordinates and the control point coordinates (for example, Equation 2).
  • the oscillation time difference ⁇ T is, for example, a function of the focal length, the control point distance, and the sound speed.
  • ⁇ T (n + 1) f (r (n + 1), q (n + 1), c) (Equation 2) -C: Sound velocity-Focal length: r (n + 1) Control point distance: q (n + 1)
  • the processor 12 calculates the focal coordinates (xfp, yfp, zfp), the control point coordinates (xcp (m), ycp (m), zcp (m)) and the coordinates (xtr) stored in the storage device 11. (N + 1), ytr (n + 1), ztr (n + 1)) are used to calculate the oscillation time difference ⁇ T (n + 1) of each ultrasonic transducer TR (n + 1). The processor 12 supplies a drive signal to each ultrasonic transducer TR (n + 1) according to the oscillation time difference ⁇ T (n + 1).
  • Each ultrasonic transducer TR oscillates with a time difference according to the drive signal.
  • the ultrasonic waves radiated from each ultrasonic transducer TR have an oscillation phase difference corresponding to the oscillation time difference ⁇ T, and thus are focused at the focal point FP.
  • the ultrasonic controller 10 individually controls the oscillation amplitudes A (n) of the plurality of ultrasonic transducers TR (n) so that the oscillation amplitude difference between the ultrasonic waves radiated from each ultrasonic transducer TR (n) is increased.
  • the focal position and the number of focal points, and the control point position and the number of control points depend on the oscillation amplitude difference. That is, the ultrasonic speaker 21 can change the focal position and the number of focal points and the control point position and the number of control points by controlling the oscillation amplitude difference.
  • the processor 12 performs the acoustic hologram calculation using the focal coordinates (xfp, yfp, zfp) as an input, similarly to the first example of the generation of the control parameters, thereby controlling the control point coordinates (xcp (m), ycp ( m), zcp (m)) and the control point sound pressure SPcp (m).
  • the processor 12 calculates the control point distance q (n, m) as in the first example of generating the control parameters.
  • the processor 12 calculates the oscillation amplitude difference ⁇ A (n + 1) between the oscillation amplitude A (n + 1) of the ultrasonic transducer TR (n + 1) and the oscillation amplitude A (n) of the ultrasonic transducer TR (n) by using Expression 3. Use and calculate.
  • the oscillation amplitude difference ⁇ A is a function of the focal length, the control point distance, the control point sound pressure SPcp (m), and the sound speed.
  • ⁇ A (n + 1) g (r (n + 1), q (n + 1), SPcp (m), c) (Equation 3) -C: Sound velocity-Focal length: r (n + 1) Control point distance: q (n + 1) -Control point sound pressure: SPcp (m)
  • the processor 12 calculates the focal coordinates (xfp, yfp, zfp), the control point coordinates (xcp (m), ycp (m), zcp (m)) and the coordinates (xtr) stored in the storage device 11.
  • N + 1), ytr (n + 1), ztr (n + 1)) and the control point sound pressure SPcp (m) are used to calculate the oscillation amplitude difference ⁇ A (n + 1) of each ultrasonic transducer TR (n + 1).
  • the processor 12 supplies a drive signal to each ultrasonic transducer TR (n + 1) according to the oscillation amplitude difference ⁇ A (n + 1).
  • Each ultrasonic transducer TR oscillates at the same time according to the drive signal.
  • the ultrasonic waves radiated from each ultrasonic transducer TR have an oscillation amplitude difference ⁇ A, and are focused at the focal point FP.
  • the ultrasonic controller 10 generates a control parameter by a combination of the first example and the second example of the generation of the control parameter. That is, the ultrasonic controller 10 calculates the focal coordinates (xfp, yfp, zfp), the control point coordinates (xcp (m), ycp (m), zcp (m)), and the coordinates (xtr) stored in the storage device 11. (N + 1), ytr (n + 1), ztr (n + 1)) and the control point sound pressure SPcp (m), the oscillation time difference ⁇ T (n + 1) and oscillation amplitude difference of each ultrasonic transducer TR (n + 1). Calculate ⁇ A (n + 1).
  • an oscillation phase difference and an oscillation amplitude difference are given to the ultrasound radiated from each ultrasound transducer TR.
  • the focal position and the number of focal points depend on the combination of the oscillation phase difference and the oscillation amplitude difference. That is, the ultrasonic speaker 21 can change the focal position and the focal number by controlling the combination of the oscillation phase difference and the oscillation amplitude difference.
  • the processor 12 calculates at least one of the oscillation time difference ⁇ T and the oscillation amplitude difference ⁇ A of each ultrasonic transducer TR.
  • the processor 12 supplies a drive signal to each ultrasonic transducer TR according to at least one of the oscillation time difference ⁇ T and the oscillation amplitude difference ⁇ A.
  • the ultrasonic waves radiated from each ultrasonic transducer TR have an oscillation phase difference corresponding to the oscillation time difference ⁇ T, and thus are focused at the focal point FP. I do.
  • each ultrasonic transducer TR oscillates at an oscillation amplitude corresponding to the drive signal
  • the ultrasonic waves emitted from each ultrasonic transducer TR have an oscillation amplitude difference ⁇ A, and are focused at the focal point FP.
  • the ultrasonic waves focused at the focal point FP form a sound source.
  • An audible sound is generated from this sound source. That is, the ultrasonic speaker 21 can form an audible sound source at an arbitrary position in space.
  • the distribution of the audible range in which the listener L can hear the audible sound is defined by a combination of the focal point coordinates (xfp, yfp, zfp) and the control point coordinates (xcp (m), ycp (m), zcp (m)). Accordingly, the processor 12 can change the audible range by adjusting at least one of the oscillation phase difference and the oscillation amplitude difference of the ultrasonic wave.
  • FIG. 8 is an explanatory diagram of an operation example 1 of the ultrasonic speaker of the present embodiment.
  • FIG. 9 is a diagram showing a sound source formed in the first operation example of FIG. In the operation example 1, an ultrasonic wave is focused on one focal point.
  • the ultrasonic speaker 21 of the operation example 1 emits an ultrasonic wave USW1 having at least one of an oscillation phase difference and an oscillation amplitude difference.
  • the ultrasonic wave USW1 is focused at a focal point FP1 separated from the center of the transducer array FA by a focal distance d1.
  • the ultrasonic speaker 21 forms a point sound source SS1 at the focal point FP1, and forms a control area CA formed by the control points CP (m) around the point sound source SS1.
  • the point sound source SS1 is formed at the ear of the listener L
  • the control area CA is formed around the ear of the listener L.
  • the sound pressure of the ultrasonic waves weakens.
  • the listener L can hear the audible sound from the point sound source SS1 without being affected by the sound pressure of the ultrasonic wave in the control area CA.
  • the size of the point sound source SS1 can be suppressed (that is, the point sound source SS1 is formed only in a limited range).
  • FIG. 10 is an explanatory diagram of Operation Example 2 of the ultrasonic speaker according to the present embodiment.
  • FIG. 11 is a diagram illustrating a sound source formed in Operation Example 2 of FIG. In the operation example 2, the ultrasonic waves are focused on a plurality of focal points.
  • the ultrasonic speakers 21 of the operation example 2 emit ultrasonic waves USW2a and USW2b having an oscillation phase difference corresponding to a time difference of vibration.
  • the ultrasonic wave USW2a is focused at a focal point FP2a away from the center of the transducer array FA by a focal distance d2a.
  • the ultrasonic wave USW2b is focused at a focal point FP2b separated from the center of the transducer array FA by a focal distance d2b.
  • the ultrasonic speaker 21 forms point sound sources SS2a and SS2b at the focal points FP2a and FP2b, respectively, and forms control areas CAa and CAb around the point sound sources SS2a and SS2b.
  • the focal point FP2a is located at the ear of the listener L1
  • the point sound source SS2a is formed at the ear of the listener L1
  • the control area CAa is formed around the ear of the listener L1.
  • the sound pressure of the ultrasonic wave focused on the focal point FP2a weakens.
  • the focal point FP2b When the focal point FP2b is located at the ear of the listener L2, the point sound source SS2b is formed at the ear of the listener L2, and the control area CAb is formed at the side of the listener L2 where the circumference of the ear weakens. In the control area CAb, the sound pressure of the ultrasonic wave focused on the focal point FP2b weakens. In this case, the listener L1 can hear the audible sound from the point sound source SS2a without being affected by the sound pressure of the ultrasonic waves in the control areas CAa and CAb.
  • the listener L2 can hear the audible sound from the point sound source SS2b without being affected by the sound pressure of the ultrasonic waves in the control areas CAa and CAb. Further, the size of the point sound sources SS2a and SS2b can be suppressed (that is, the point sound sources SS2a and SS2b are formed only in a limited range).
  • the ultrasonic speaker 21 can form a point sound source at three or more focal points. In this case, a control area is formed around each focal point.
  • FIG. 12 is a flowchart of a process of controlling the audio system according to the present embodiment.
  • FIG. 13 is a schematic diagram of sound pressure information and first surround pan parameters referred to in the processing of FIG.
  • FIG. 14 is a schematic diagram of sound pressure information divided into the first to third frequency bands in the processing of FIG.
  • FIG. 15 is a schematic diagram of the second surround pan parameter generated in the process of FIG.
  • the sound source 23 outputs an audio signal (S200). Specifically, the sound source 23 encodes the audio signal and outputs the signal to the ultrasonic controller 10.
  • the audio signal includes sound pressure information of a sound to be reproduced (FIG. 13A) and a first surround pan parameter (FIG. 13B).
  • FIG. 13A is an example of sound pressure information.
  • the horizontal axis is frequency (Hz) and the vertical axis is sound pressure (dB).
  • FIG. 13B is an example of the first surround pan parameter in the 5.1ch surround mode.
  • the first surround pan parameters include the center speaker (C), the right front speaker (R), the left front speaker (L), the right surround speaker (RS), the left surround speaker (LS), and the sound pressure of the woofer (LFE). (Ie, panning).
  • the ultrasonic controller 10 acquires the use environment information (S100).
  • the processor 12 generates layout information indicating the layout of the usage environment SP.
  • the layout information includes information indicating a three-dimensional size of the use environment SP and information indicating a three-dimensional shape.
  • the camera 24 captures image information of the usage environment SP.
  • the processor 12 generates layout information indicating the layout of the usage environment SP by applying three-dimensional modeling to the image information captured by the camera 24, and stores the layout information in the storage device 11.
  • the processor 12 stores the layout information (for example, three-dimensional CAD data) of the usage environment SP in the storage device 11 via the input / output interface 13 or the communication interface 14.
  • the position detection unit 25 detects the position of a person by irradiating infrared rays and receiving reflected light of the infrared rays.
  • the processor 12 specifies the relative position by generating three-dimensional coordinates indicating the relative position of the listener L with respect to the ultrasonic speaker 21 based on the electric signal generated by the position detection unit 25.
  • the ultrasonic controller 10 executes input of an audio signal (S101). Specifically, the processor 12 inputs the audio signal output from the sound source 23 in step S200.
  • the ultrasonic controller 10 executes decoding of the audio signal (S102). Specifically, the processor 12 extracts sound pressure information (FIG. 13A) and first surround pan parameters (FIG. 13B) from the audio signal by decoding the audio signal. The processor 12 stores the sound pressure information and the first surround pan parameter in the storage device 11.
  • the processor 12 extracts sound pressure information (FIG. 13A) and first surround pan parameters (FIG. 13B) from the audio signal by decoding the audio signal.
  • the processor 12 stores the sound pressure information and the first surround pan parameter in the storage device 11.
  • step S102 the ultrasonic controller 10 determines a focus position and a control point position (S103).
  • the processor 12 transmits the listener L to the ultrasonic speaker 21 based on the detection result of the position detection unit 25 in step S100. Specify relative position. The processor 12 determines the positions of the focus FP1 and the control point CP (m) in FIG. 9 based on the specified relative position.
  • the processor 12 determines an ultra-high level based on the detection result of the position detection unit 25 in step S100.
  • the relative position of the listener L with respect to the acoustic speaker 21 is specified.
  • the processor 12 determines the positions of the plurality of focal points FP2a and FP2b in FIG. 11 and the position of the control point CP (m) based on the specified relative position.
  • the processor 12 when the user inputs a user instruction for designating the position of the focal point through the input / output interface 13 in step S100, the processor 12 returns the focal point FP1 of FIG. 9 based on the user instruction. And the position of the control point CP (m) is determined.
  • the ultrasonic controller 10 executes generation of a second surround pan parameter (S104). Specifically, the processor 12 divides the frequency characteristics of the sound wave level information stored in the storage device 11 in step S102 into first to third frequency bands B1 to B3 (FIG. 14).
  • the first frequency band B1 is a frequency band equal to or higher than the first frequency threshold TH1.
  • the processor 12 determines the first frequency band B1 based on the output characteristics of the ultrasonic speaker 21.
  • the processor 12 adjusts the sound pressure of the ultrasonic speaker 21 so that the sound pressure of the ultrasonic speaker 21 becomes the highest and the sound pressure of the woofer 26 becomes the lowest for the frequency components constituting the first frequency band B1.
  • the sound pressure of the loudspeaker 22 and the sound pressure of the woofer 26 are determined.
  • the second frequency band B2 is a frequency band between the second frequency threshold TH2 and the first frequency threshold TH1.
  • the processor 12 determines the second frequency band B2 based on the output characteristics of the loudspeaker 22.
  • the processor 12 adjusts the sound pressure of the ultrasonic speaker 21 so that the sound pressure of the loudspeaker 22 becomes the highest and the sound pressure of the woofer 26 becomes the lowest for the frequency components constituting the second frequency band B2, The sound pressure of the loudspeaker 22 and the sound pressure of the woofer 26 are determined.
  • the third frequency band B3 is a frequency band equal to or less than the second frequency threshold TH2.
  • the processor 12 determines the third frequency band B3 based on the output characteristics of the woofer 26.
  • the processor 12 adjusts the sound pressure of the ultrasonic speaker 21 so that the sound pressure of the woofer 26 becomes the highest and the sound pressure of the ultrasonic speaker 21 becomes the lowest for the frequency components constituting the third frequency band B3. ,
  • the sound pressure of the loudspeaker 22 and the sound pressure of the woofer 26 are determined.
  • the processor 12 generates a second surround pan parameter (FIG. 15) based on the determined sound pressure (the sound pressure of the ultrasonic speaker 21, the sound pressure of the loudspeaker 22, and the sound pressure of the woofer 26).
  • the second surround pan parameter in FIG. 15 includes an ultrasonic speaker (US), a right front speaker (R), a left front speaker (L), a right surround speaker (RS), a left surround speaker (LS), and a woofer (LFE). 3) (that is, panning of the speaker components including the ultrasonic speaker 21).
  • FIG. 15A shows an example of the second surround pan parameter when the sound pressure of the first frequency band B1 is higher than the sound pressure of the second frequency band B2.
  • the loudspeaker 22 (the right front speaker (R), the left front speaker ( L), the right surround speaker (RS), and the left surround speaker (LS)) have a higher sound pressure than the ultrasonic speaker (US). That is, when the sound pressure of the first frequency band B1 is higher than the sound pressure of the second frequency band B2, the ultrasonic controller 10 emphasizes the sound of the ultrasonic speaker 21 over the sound of the loudspeaker 22.
  • FIG. 15B shows an example of the second surround pan parameter when the sound pressure of the first frequency band B1 is lower than the sound pressure of the second frequency band B2.
  • the loudspeaker 22 (the right front speaker (R), the left front speaker ( L), the right surround speaker (RS), and the left surround speaker (LS)) have a lower sound pressure than the ultrasonic speaker (US). That is, when the sound pressure of the first frequency band B1 is lower than the sound pressure of the second frequency band B2, the ultrasonic controller 10 emphasizes the sound of the loudspeaker 22 over the sound of the ultrasonic speaker 21.
  • the ultrasonic controller 10 determines a modulation level (S105). Specifically, the processor 12 performs modulation based on the sound pressure of the ultrasonic speaker (US) among the second surround pan parameters determined in step S104, and the focus position and the control point position determined in step S103. The level (for example, the AM modulation level of the ultrasonic wave radiated from the ultrasonic speaker 21) is determined.
  • step S105 the ultrasonic controller 10 executes an acoustic hologram calculation (S106).
  • the processor 12 sets the distribution of the oscillation phase difference corresponding to the phase distribution for forming the focal point FP and the control point CP at the focal position and the control point position determined at step S103 (hereinafter, referred to as the distribution).
  • An acoustic hologram calculation for obtaining “phase difference distribution” is performed.
  • the processor 12 determines the oscillation timing of each ultrasonic transducer TR (n) based on the phase difference distribution obtained by the acoustic hologram calculation.
  • the processor 12 performs an acoustic hologram calculation to obtain an amplitude distribution for forming the focus FP and the control point CP at the focus position and the control point position determined in step S103, respectively. .
  • the processor 12 determines the oscillation amplitude of each ultrasonic transducer TR (n) based on the amplitude distribution obtained by the acoustic hologram calculation.
  • step S105 the ultrasonic controller 10 generates a speaker control signal (S107).
  • the processor 12 determines, among the second surround pan parameters, the sound pressure of the ultrasonic speaker (US), at least one of the oscillation phase difference and the oscillation amplitude determined in step S106, and the modulation determined in step S105. Based on the level, a first speaker control signal (an example of “control parameter”) for controlling the ultrasonic speaker 21 is generated.
  • the processor 12 determines the sound pressure of the right front speaker (R), the left front speaker (L), the right surround speaker (RS), and the left surround speaker (LS) among the second surround pan parameters determined in step S104. Based on this, a second speaker control signal for controlling the loudspeaker 22 is generated.
  • the processor 12 generates a third speaker control signal for controlling the woofer 26 based on the sound pressure of the woofer (LFE) among the second surround pan parameters.
  • the processor 12 outputs the first to third speaker control signals to the ultrasonic speaker 21, the loudspeaker 22, and the woofer 26, respectively.
  • the ultrasonic speaker 21 emits an ultrasonic wave based on the first speaker control signal.
  • the ultrasonic waves emitted from the ultrasonic speaker 21 converge at the focal point FP determined in step S103, and weaken each other at the control point CP.
  • the focused ultrasound forms an audible sound source at the focal point FP. That is, the sound source formed at the focal point FP generates an audible sound.
  • the loudspeaker 22 and the woofer 26 generate audible sounds using the loudspeaker 22 and the woofer 26 as sound sources based on the second speaker control signal and the third speaker control signal, respectively.
  • the sound source 23 repeatedly executes the process of step S200 until the reproduction ends (S201-NO).
  • the ultrasonic controller 10 repeatedly executes the processing of steps S100 to S107 until the reproduction ends (S108-NO).
  • the audio system 1 can construct a surround environment according to the use environment SP, the position of the person, and the audio signal output from the sound source 23.
  • the focal position, the position of the control point, the number of focal points, and the number of control points of the ultrasonic speaker 21 are variable, restrictions on the use environment SP (for example, the layout of the use environment SP, the use environment SP) Listener L can be made to listen to a wider variety of sounds without receiving obstacles existing in the vehicle and the position of a person).
  • depth the size of the focal point in the radial direction
  • the depth of the point sound source is limited regardless of the focal length r (n). Can be. That is, a point sound source can be formed regardless of the focal length r (n).
  • Modification 1 is an example in which the transducer array FA has a curved surface shape.
  • the transducer array FA of the first modification is formed on a curved array surface having a variable curvature.
  • An actuator for example, a variable arm
  • the actuator is configured to change a curvature (ie, a curved shape) of the array surface.
  • the curvature of the array surface changes, the oscillation phase difference of the ultrasonic waves radiated from the transducer array FA also changes.
  • the first speaker control signal generated in step S107 includes a drive signal for driving the actuator.
  • the actuator changes the curvature of the array surface based on the drive signal.
  • the same effect as that of the present embodiment can be obtained even when the ultrasonic speaker 21 that gives the ultrasonic wave an oscillation phase difference by changing the curvature of the array surface is used.
  • the ultrasonic speaker 21 that gives the ultrasonic wave an oscillation phase difference by changing the curvature of the array surface is used.
  • the ultrasonic wave is focused on a single focal point (for example, the focal point FP1 in FIG. 8)
  • the sound pressure of the ultrasonic wave focused at the focal point is determined. Can be raised.
  • Modification 2 is an example in which a surround environment is constructed using a plurality of ultrasonic speakers 21.
  • the audio system 1 of the second modification includes a plurality of ultrasonic speakers 21.
  • steps S103 and S104 the processor 12 individually determines the focal positions, the positions of the control points, and the sound pressures of the plurality of ultrasonic speakers 21 based on the relative positions of each ultrasonic speaker 21 and the listener L.
  • the sound pressure of the audible sound from the sound source formed by the focused ultrasonic waves can be increased. Further, even if the number of ultrasonic waves focused at the focal point FP increases, by forming the control area CA around the focal point FP, the area where audible sound is generated can be narrowed. As a result, a more diverse surround environment can be constructed.
  • Modification 3 is an example in which the audible range is dynamically changed.
  • the storage device 11 stores an algorithm in which the relationship between the volume of the reproduced sound and the range of the control point area based on the focus is defined.
  • the processor 12 refers to the algorithm stored in the storage device 11 and At least one of the oscillation amplitude A (n) and the oscillation phase P (n) of the ultrasonic wave radiated from TR (n) is changed. In this case, the operator can arbitrarily change the audible range of the sound from the ultrasonic speaker 21.
  • the processor 12 outputs the oscillation phase P (n) or the oscillation amplitude A (n) of each ultrasonic transducer TR (n) according to the position of the person detected by the position detection unit 25. Change). For example, when the position detection unit 25 detects the position of the specific listener L, the processor 12 calculates the control point coordinates such that the positions of the listeners L other than the specific listener L are excluded from the audible range. In this case, only the specific listener L can hear the sound from the ultrasonic speaker 21.
  • the storage device 11 stores an algorithm that defines the relationship between the volume of the environmental sound and the range of the control point area based on the focus.
  • the ultrasonic controller 10 includes a sensor (not shown) for detecting the volume of the environmental sound.
  • the processor 12 adjusts the oscillation amplitude A (n) and the oscillation phase P (n) of each ultrasonic transducer TR (n) so that the audible range is kept uniform according to the sound volume detected by the sensor. Determine at least one. In this case, even if the environmental sound changes, the audible range can be maintained.
  • the ultrasonic controller 10 controls the oscillation amplitude A (n) and the oscillation phase P (n) of each ultrasonic transducer TR (n) according to the audio signal supplied from the sound source 23. Is determined. For example, if the first surround pan parameter included in the audio signal indicates a surround pan suitable for a wide audible range, the processor 12 changes the oscillation amplitude A (n) and the oscillation phase P (n) so that the audible range is widened. decide. If the first surround pan parameter indicates a surround pan suitable for a narrow audible range, the processor 12 determines the oscillation amplitude A (n) and the oscillation phase P (n) such that the audible range is narrowed. In this case, the audible range can be changed according to the sound to be reproduced.
  • the audible range can be dynamically changed according to an external factor of the ultrasonic speaker 21.
  • Modification 4 Modification 4 will be described.
  • Modification Example 4 is an example in which an ultrasonic wave is focused on a focal point FP without generating a difference in oscillation time between the ultrasonic transducers TR (n).
  • the processor 12 calculates the oscillation amplitude difference ⁇ A (n + 1) between the oscillation amplitude A (n + 1) of the ultrasonic transducer TR (n + 1) and the oscillation amplitude A (n) of the ultrasonic transducer TR (n) by using Expression 4. Use and calculate.
  • the oscillation amplitude difference ⁇ A is a function of the focal length and the speed of sound.
  • ⁇ A (n + 1) h (r (n + 1), c) (Equation 4) -C: Sound velocity-Focal length: r (n + 1)
  • the processor 12 uses each of the focal coordinates (xfp, yfp, zfp) and the coordinates (xtr (n + 1), ytr (n + 1), ztr (n + 1)) stored in the storage device 11.
  • An oscillation amplitude difference ⁇ A (n + 1) of the ultrasonic transducer TR (n + 1) is calculated.
  • the processor 12 supplies a drive signal to each ultrasonic transducer TR (n + 1) according to the oscillation amplitude difference ⁇ A (n + 1).
  • Each ultrasonic transducer TR oscillates at the same time according to the drive signal.
  • the ultrasonic waves radiated from each ultrasonic transducer TR have an oscillation amplitude difference ⁇ A, and are focused at the focal point FP.
  • the ultrasonic waves can be focused on the focal point FP without generating the oscillation time difference ⁇ T between the ultrasonic transducers TR.
  • Modification 5 controls the phase difference between the sound pressure distribution of the ultrasonic wave focused on the focal point FP and the sound pressure distribution of the ultrasonic wave at each control point CP (m) (hereinafter, referred to as “control point phase difference”). This is an example.
  • FIG. 16 is an explanatory diagram of the operation and effect of the fifth modification.
  • the control point coordinates (xcp (m), ycp (m), zcp (m) are determined in consideration of the following conditions. The priority of the following conditions is determined according to the use of the ultrasonic speaker 21.
  • Dependent. A change in the sound pressure distribution of the focal point FP (specifically, the shape of the main lobe of the ultrasonic wave focused on the focal point FP) caused by the control point CP is equal to or less than a certain value.
  • the change in the sound pressure of the focal point FP (specifically, the peak value of the main lobe of the ultrasonic wave focused on the focal point FP) caused by the control point CP is not more than a certain value.
  • Condition 3) The sound pressure of the control point CP is lower than the sound pressure of the focus FP (specifically, the peak value of the main lobe of the ultrasonic wave focused on the focus FP).
  • the ultrasonic controller 10 of Modification 5 determines the control point coordinates (xcp (m), ycp (m), zcp (m) that meet the above conditions 1 to 3.
  • the processor 12 controls the control point coordinates (xcp (m), ycp (m), zcp (m)) and the control point sound similarly to the first example of the generation of the control parameter.
  • the control point phase difference ⁇ SPcp (m) is determined in addition to the pressure SPcp (m).
  • the control point phase difference ⁇ SPcp (m) is defined as a phase (hereinafter, referred to as “focus phase”) Pfp of the ultrasonic wave focused on the focal point FP and a phase of the control point CP (m) (hereinafter, referred to as “control point phase”) Pcp ( m).
  • the processor 12 calculates the oscillation time difference ⁇ T (n + 1) using a function of the focal point coordinates and the control point coordinates (for example, Equation 5).
  • the oscillation time difference ⁇ T is, for example, a function of the focal length, the control point distance, the control point phase difference, and the sound speed.
  • ⁇ T (n + 1) f (r (n + 1), q (n + 1), ⁇ SPcp (m), c) (Equation 5)
  • -C Sound velocity-Focal length: r (n + 1)
  • Control point phase difference ⁇ SPcp (m)
  • the processor 12 controls the control point coordinates (xcp (m), ycp (m), zcp (m)) and the control point sound similarly to the first example of the generation of the control parameter.
  • the control point amplitude difference ⁇ Acp (m) is determined.
  • the control point amplitude difference ⁇ Acp (m) is the amplitude (hereinafter referred to as “focal amplitude”) Afp of the ultrasonic wave focused on the focal point FP and the amplitude of the control point CP (m) (hereinafter referred to as “control point amplitude”) Acp ( m).
  • the processor 12 calculates the oscillation amplitude difference ⁇ A (n + 1) using Expression 7.
  • the oscillation amplitude difference ⁇ A is a function of the focal length, the control point distance, the control point sound pressure SPcp (m), the control point amplitude difference ⁇ Acp (m), and the sound speed.
  • ⁇ A (n + 1) g (r (n + 1), q (n + 1), SPcp (m), ⁇ Acp (m), c) (Equation 7) -C: Sound velocity-Focal length: r (n + 1) Control point distance: q (n + 1) -Control point sound pressure: SPcp (m) Control point amplitude difference: ⁇ Acp (m)
  • the horizontal axis in FIG. 16 is the Y coordinate, and the vertical axis is the sound pressure.
  • the solid line is the sound pressure distribution of the ultrasonic wave focused on the focal point FP when the control point CP is not set.
  • the broken line is the sound pressure distribution of the ultrasonic wave focused on the focal point FP when the control point CP is set.
  • the sound pressure distribution when the control point CP is set is longer than the sound pressure distribution when the control point CP is not set in the radiation direction (Y direction) of the ultrasonic wave with respect to the focal point FP. (That is, the depth of the focal point FP) becomes shorter.
  • the sound pressure distribution MLfp1 of the focal point FP when the control point CP is set is more localized than the sound pressure distribution MLfp0 of the focal point FP when the control point CP is not set.
  • control point coordinates (xcp (m), ycp (m), and zcp (m) are determined so as to satisfy the conditions 1 to 3. This is a condition. This is synonymous with controlling the control point phase difference so as to satisfy conditions 1 to 3. As a result, a localized sound pressure distribution MLfp1 near the focal point FP can be formed, and the control point CP can be controlled. Can be minimized.
  • a first aspect of the present embodiment is: An ultrasonic controller 10 that controls a transducer array FA having a plurality of ultrasonic transducers TR (n) that emit ultrasonic waves focused on at least one focal point at an arbitrary position in space, Means for calculating the focal coordinates of the focal point and the control point coordinates of at least one control point (for example, the processor 12 executing the processing of step S103);
  • the control point sound pressure SPcp is lower than the focus sound pressure SPfp, Means for generating a control parameter for controlling each ultrasonic transducer TR (n) based on the focal point coordinates and the control point coordinates (for example, the processor 12 executing the processing of step S107);
  • the control point is a point where the sound pressure of the ultrasonic wave is lower than the sound pressure of the ultrasonic wave focused on the focal point, Means for individually controlling each of the ultrasonic transducers TR (n) based on the control parameters of each of the ultrasonic transducers TR (n) so as to emit
  • the sound pressure of the ultrasonic wave focused on the focal point in the control point region weakens. This makes it possible to control the ultrasonic distribution around the focal point. As a result, the listener L can hear the audible sound from the point sound source without being affected by the sound pressure of the ultrasonic wave in the control area. Further, the size of the point sound source can be suppressed (that is, the point sound source is formed only in the intended area).
  • a second aspect of the present embodiment is:
  • the generating means generates control parameters such that ultrasonic waves radiated from each ultrasonic transducer TR (n) are weakened at a control point.
  • a third aspect of the present embodiment is: The calculating means calculates focus coordinates and control point coordinates based on the position of the person.
  • a point sound source corresponding to the position of a person (for example, a listener) can be formed.
  • a fourth aspect of the present embodiment is:
  • the control parameter includes at least one of an oscillation amplitude and an oscillation phase.
  • a fifth aspect of the present embodiment is:
  • the controlling means is the ultrasonic controller 10 that generates the oscillation phase difference of the ultrasonic waves emitted by the transducer array FA by individually controlling the oscillation timing of the plurality of ultrasonic transducers TR (n).
  • the sound pressure of each ultrasonic transducer TR (n) can be used up to the upper limit.
  • a sixth aspect of the present embodiment includes: The controlling means generates an oscillation phase difference of ultrasonic waves emitted from the transducer array FA by changing a curvature of an array surface of the transducer array FA including a plurality of ultrasonic transducers TR (n).
  • the same effect as in the first aspect can be obtained even when the transducer array FA has a curved surface.
  • a seventh aspect of the present embodiment is: A means for acquiring usage environment information regarding the usage environment (for example, the processor 12 executing the processing of step S100);
  • the calculating means is the ultrasonic controller 10 which further calculates the focal point coordinates and the control point coordinates with further reference to the use environment information.
  • the seventh aspect it is possible to form a point sound source according to the use environment.
  • An eighth aspect of the present embodiment is: An ultrasonic speaker 21 connectable to the ultrasonic controller 10 according to any of the above, A plurality of ultrasonic transducers TR (n), An ultrasonic speaker 21 including a drive unit that individually drives a plurality of ultrasonic transducers TR (n) under the control of the ultrasonic controller 10.
  • a ninth aspect of the present embodiment is: This is a program for causing a computer (for example, the processor 12) to function as each unit described in any of the above.
  • the storage device 11 may be connected to the ultrasonic controller 10 via the network NW.
  • the speaker component (combination of the ultrasonic speaker 21, the loudspeaker 22, and the woofer 26) in FIG. 2 is an example. This embodiment is also applicable to the following speaker components.
  • the ultrasonic speaker 21 alone that is, a speaker component that does not include a speaker other than the ultrasonic speaker 21 (the loudspeaker 22 and the woofer 26 in FIG. 2)
  • the camera 24 may detect the relative position of the listener L instead of the position detection unit 25. For example, the camera 24 acquires the image information of the listener L.
  • the processor 12 applies feature amount analysis based on the feature amount of a person to the image information acquired by the camera 24. Thereby, the position of the person in the image information (the position in the image space) is specified.
  • the processor 12 specifies the relative position by generating three-dimensional coordinates indicating the relative position of the listener L with respect to the ultrasonic speaker 21 based on the specified position in the image space.
  • the ultrasonic speaker 21 may detect the relative position of the listener L instead of the position detection unit 25.
  • an ultrasonic sensor that detects a reflected wave of an ultrasonic wave emitted by the ultrasonic transducer TR is provided.
  • the processor 12 emits ultrasonic waves by driving the ultrasonic transducer TR.
  • the ultrasonic wave is reflected on the listener L.
  • the ultrasonic sensor detects a reflected wave from the listener L.
  • the processor 12 estimates the relative position of the listener L based on the time from when the ultrasonic wave is emitted until the reflected wave is detected by the ultrasonic sensor.
  • the ultrasonic speaker 21 can be similarly applied to a case where the ultrasonic transducer TR (n) vibrates simultaneously with different oscillation amplitudes and a case where the ultrasonic vibrator TR (n) vibrates with a time difference and different oscillation amplitudes.
  • the control point CP is at least one of a null point at which the sound pressure of the ultrasonic wave becomes zero and a point at which the sound pressure of the ultrasonic wave is lower than that of the ultrasonic wave focused on the focal point FP.
  • audio system 10 ultrasonic controller 11: storage device 12: processor 13: input / output interface 14: communication interface 21: ultrasonic speaker 21 a: cover 21 b: housing 22: loudspeaker 23: sound source 24: camera 25: position Detector 26: Woofer

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Transducers For Ultrasonic Waves (AREA)

Abstract

空間上の任意の位置の少なくとも1つの焦点に集束する超音波を放射する振動子アレイを制御する超音波コントローラは、焦点の焦点座標と、少なくとも1つの制御点の制御点座標と、を計算する手段を備え、制御点の音圧は、焦点の音圧より低く、焦点座標及び制御点座標に基づいて、各超音波振動子を制御する制御パラメータを生成する手段を備え、各超音波振動子の制御パラメータに基づいて、焦点に集束する超音波を放射するように、各超音波振動子を個別に制御する手段を備える。

Description

超音波コントローラ、超音波スピーカ、及び、プログラム
 本発明は、超音波コントローラ、超音波スピーカ、及び、プログラムに関する。
 指向性を有する超音波を放射する超音波スピーカが知られている。超音波スピーカは、特定の範囲に可聴音を発生させることができる。特に、特定の焦点で集束する超音波を放射することにより、焦点に点音源を形成可能な超音波スピーカが注目されている。
 一般に、焦点は、リスナの耳の近くに設定される。そのため、超音波スピーカには、超音波の音圧を抑えることが望ましい。
 例えば、特開2003-23689号公報には、超音波の音圧を抑えるために、グレーティングローブを抑制する技術が開示されている。
 しかし、特開2003-23689号公報では、意図しない方向への可聴音ビームを抑制することはできるが、焦点周辺の超音波分布を意図した分布にするものではない。この場合、焦点周辺に、高音圧領域が形成される。
 高音圧領域は、焦点周辺のリスナにとって、異音の原因になる。
 また、高音圧領域は可聴音が発生する領域を拡げるため、局所的に可聴音を発生させることが難しい。
 このように、従来の超音波スピーカでは、焦点周辺の超音波分布を制御することができない。
 本発明の目的は、焦点周辺の超音波分布を制御することである。
 本発明の一態様は、
 空間上の任意の位置の少なくとも1つの焦点に集束する超音波を放射する複数の超音波振動子を有する振動子アレイを制御する超音波コントローラであって、
 前記焦点の焦点座標と、少なくとも1つの制御点の制御点座標と、を計算する手段を備え、
  前記制御点の音圧は、前記焦点の音圧より低く、
 前記焦点座標及び前記制御点座標に基づいて、各超音波振動子を制御する制御パラメータを生成する手段を備え、
 各超音波振動子の制御パラメータに基づいて、前記焦点に集束する超音波を放射するように、各超音波振動子を個別に制御する手段を備える、
超音波コントローラである。
 本発明によれば、焦点周辺の超音波分布を制御することができる。
本実施形態のオーディオシステムのシステム構成図である。 図1のオーディオシステムの構成を示すブロック図である。 図1の超音波スピーカの概略構成図である。 本実施形態の概要の説明図である。 図1の超音波コントローラの制御の原理の説明図である。 図1の超音波スピーカの発振タイミングの決定方法の説明図である。 図1の超音波スピーカの発振タイミングの決定方法の説明図である。 本実施形態の超音波スピーカの動作例1の説明図である。 図8の動作例1において形成される音源を示す図である。 本実施形態の超音波スピーカの動作例2の説明図である。 図10の動作例2において形成される音源を示す図である。 本実施形態のオーディオシステムの制御の処理のフローチャートである。 図12の処理において参照される音圧情報及び第1サラウンドパンパラメータの概略図である。 図12の処理において第1周波数帯域~第3周波数帯域に分割される音圧情報の概略図である。 図12の処理において生成される第2サラウンドパンパラメータの概略図である。 変形例5の作用効果の説明図である。
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)オーディオシステムの構成
 オーディオシステムの構成について説明する。図1は、本実施形態のオーディオシステムのシステム構成図である。図2は、図1のオーディオシステムの構成を示すブロック図である。
 図1に示すように、使用環境SPにオーディオシステム1が設置される。オーディオシステム1は、リスナLの前方に位置する。
 図2に示すように、オーディオシステム1は、超音波コントローラ10と、超音波スピーカ21と、ラウドスピーカ22と、音源23と、カメラ24と、位置検出部25と、ウーファ26と、を備える。
 超音波コントローラ10は、スピーカセット(超音波スピーカ21、ラウドスピーカ22、及び、ウーファ26)を制御
する情報処理装置の一例である。
 超音波コントローラ10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、を備える。
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・情報処理を実行するアプリケーション(例えば、オーディオシステム1を制御する制御用アプリケーション)のプログラム
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、超音波コントローラ10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
 入出力インタフェース13は、超音波コントローラ10に接続される入力デバイス(音源23、カメラ24、及び、位置検出部25)から入力信号を受け付け、且つ、超音波コントローラ10に接続される出力デバイス(超音波スピーカ21及びラウドスピーカ22)に出力信号を出力するように構成される。
 通信インタフェース14は、超音波コントローラ10とサーバ(不図示)との間の通信を制御するように構成される。
 超音波スピーカ21は、超音波コントローラ10の制御に従って、超音波を放射するように構成される。
 ラウドスピーカ22及びウーファ26は、超音波コントローラ10の制御に従って、可聴音を発生させるように構成される。
 音源23は、超音波コントローラ10にオーディオ信号を与えるように構成される。音源23は、以下のものを含む。
 ・テレビ
 ・オーディオメディアプレーヤ(カセットプレーヤ、CD(Compact Disc)プレーヤ、DVD(Digital Versatile Disc)プレーヤ、ブルーレイディスクプレーヤ)
 ・デジタルオーディオプレーヤ
 カメラ24は、使用環境SPの画像情報を取得するように構成される。カメラ24は、例えば、CMOS(Complementary MOS)カメラである。
 位置検出部25は、人の位置を検出するように構成される。
 位置検出部25は、例えば、赤外線センサである。赤外線センサは、赤外線を照射し、且つ、赤外線の反射光を受光すると、反射光に応じて電気信号を生成する。これにより、人の位置が検出される。
(1-1)超音波スピーカの構成
 本実施形態の超音波スピーカの構成について説明する。図3は、図1の超音波スピーカの概略構成図である。
 図3に示すように、超音波スピーカ21の放射面には、カバー21a(図3A)が配置されている。カバー21aを取り外すと、筐体21b上の放射面(図3B)が露出する。
 放射面には、N個(Nは2以上の整数)の超音波振動子TRを含む振動子アレイFAが配置される。超音波振動子TR(n)(nは1~Nの整数)は、XZ平面(以下「アレイ面」という)に配置される。
 超音波スピーカ21は、各超音波振動子TR(n)を駆動する駆動部(不図示)を備える。駆動部は、各超音波振動子TR(n)を個別に駆動する。各超音波振動子TR(n)は、駆動部の駆動に従い発振することにより、超音波を発生させる。各超音波振動子TR(n)から放射された超音波は、空間上を伝播し、空間上の焦点で集束する。焦点で集束した超音波は、可聴音の音源を形成する。
(2)本実施形態の概要
 本実施形態の概要について説明する。図4は、本実施形態の概要の説明図である。図5は、図1の超音波コントローラの制御の原理の説明図である。
 図4に示すように、音源23は、オーディオ信号を超音波コントローラ10に与える。
 超音波コントローラ10は、音源を形成すべき空間上の位置に関する位置情報(x0、y0、z0)を入力する。
 位置情報(x0、y0、z0)は、例えば、以下の少なくとも1つによって超音波コントローラ10に与えられる。
 ・超音波コントローラ10を操作するオペレータの指示
 ・入力デバイス(音源23、カメラ24、及び、位置検出部25の少なくとも1つ)から入力される入力信号
 ・オーディオ信号の信号パターン
 超音波コントローラ10は、入力された位置情報に基づいて、少なくとも1つの焦点FPの焦点座標(xfp、yfp、zfp)と、少なくとも1つの制御点CP(m)の制御点座標(xcp(m)、ycp(m)、zcp(m))と、を計算する。mは、制御点CPの識別子(正の整数)である。制御点CPとは、焦点FPに集束する超音波の音圧より超音波の音圧が低い点である。焦点FPに集束する超音波の音圧(以下「焦点音圧」という)をSPfpと、制御点CPの超音波の音圧(以下「制御点音圧」という)をSPcpとは、式1の関係を満たす。つまり、超音波コントローラ10は、焦点FP以外に、焦点音圧SPfpより小さい制御点音圧SPcpを有する制御点CPを空間上に形成する。
 0≦SPcp/SPfp<1 …(式1)
 超音波コントローラ10は、焦点座標(xfp、yfp、zfp)及び制御点座標(xcp(m)、ycp(m)、zcp(m))に基づいて、各超音波振動子TR(n)の制御パラメータPAR(n)を生成する。制御パラメータPAR(n)は、超音波振動子TR(n)の発振振幅A(n)及び発振位相P(n)の少なくとも1つを含む。
 超音波コントローラ10は、各超音波振動子TR(n)に制御パラメータPAR(n)を出力する。
 各超音波振動子TR(n)は、制御パラメータPAR(n)に従って発振する。その結果、振動子アレイFAから、制御パラメータPAR(n)に基づく超音波USWが放射される。振動子アレイFAから放射された超音波USWは、焦点FPで集束する。これにより、焦点FPが形成された空間が音源として振る舞う。
 一方、振動子アレイFAから放射された超音波は、制御点CPでは互いに弱め合うので、制御点CP(m)が形成された空間上の領域(以下「制御領域」という)CAでは超音波の音圧が低減される。これにより、リスナLに対して、焦点FPの近傍でのみ可聴音を聴かせることができ、且つ、焦点FPの周辺において、焦点FP以外の位置での超音波の音圧を低減することができる。
(3)超音波スピーカの制御
 本実施形態の超音波スピーカの制御について説明する。
(3-1)超音波スピーカの制御パラメータの生成
 本実施形態の超音波スピーカの制御パラメータの生成について説明する。
 超音波スピーカ21は、所定の変調方式で変調した超音波を放射する。
 変調方式は、例えば、以下の何れかである。
 ・AM(Amplitude Modulation)変調
 ・FM(Frequency Modulation)変調
 ・PM(Phase Modulation)変調
(3-1-1)制御パラメータの生成の第1例
 本実施形態の制御パラメータの生成の第1例について説明する。
 超音波コントローラ10は、複数の超音波振動子TR(n)の発振タイミングを個別に制御することにより、各超音波振動子TR(n)から放射される超音波に発振位相差を与える。焦点位置及び焦点数は、この発振位相差に依存する。つまり、超音波スピーカ21は、発振位相差を制御することにより、焦点位置及び焦点数を変化させることができる。
 本実施形態の超音波スピーカ21の発振位相差の形成方法について説明する。図6~図7は、図1の超音波スピーカの発振タイミングの決定方法の説明図である。
 記憶装置11には、振動子アレイFAの基準点(例えば、中心)に対する超音波振動子TR(n)の振動子アレイFA上の相対位置を示す座標(xtr(n),ytr(n),ztr(n))が記憶されている。nは、超音波振動子TRの識別子(正の整数)である。
 例えば、超音波コントローラ10を操作するオペレータが、焦点FPを指定するための指示を与えると、プロセッサ12は、図6に示すように、基準点に対する焦点FPの相対位置を示す焦点座標(xfp,yfp,zfp)を決定する。
 プロセッサ12は、記憶装置11に記憶された超音波振動子TR(n)の座標(xtr(n),ytr(n),ztr(n))と、焦点座標(xfp,yfp,zfp)と、に基づいて、超音波振動子TR(n)と焦点FPとの焦点距離r(n)を計算する。
 プロセッサ12は、焦点座標(xfp,yfp,zfp)を入力として用いて音響ホログラム計算を実行することにより、例えば、焦点音圧SPfpが最大となり、且つ、焦点FP所定範囲の制御領域の音圧が最小となるような制御点CP(m)の制御点座標(xcp(m)、ycp(m)、zcp(m))と、制御点CP(m)の制御点音圧SPcp(m)と、を決定する。
 プロセッサ12は、記憶装置11に記憶された超音波振動子TR(n)の座標(xtr(n),ytr(n),ztr(n))と、制御点座標(xcp(m),ycp(m),zcp(m))と、制御点音圧SPcp(m)と、に基づいて、超音波振動子TR(n)と各制御点CP(m)との制御点距離q(n,m)を計算する。
 プロセッサ12は、n+1番目に発振させる超音波振動子TR(n+1)の発振タイミングと、n番目に発振させる超音波振動子TR(n)との発振タイミングとの時間差(以下「発振時間差」という)ΔT(n+1)を、焦点座標及び制御点座標の関数(例えば、式2)を用いて、計算する。式2に示すように、発振時間差ΔTは、例えば、焦点距離、制御点距離、及び、音速の関数である。
 ΔT(n+1)=f(r(n+1),q(n+1),c) …(式2)
 ・c:音速
 ・焦点距離:r(n+1)
 ・制御点距離:q(n+1)
 上記のとおり、プロセッサ12は、焦点座標(xfp,yfp,zfp)と、制御点座標(xcp(m)、ycp(m)、zcp(m))と、記憶装置11に記憶された座標(xtr(n+1),ytr(n+1),ztr(n+1))と、を用いて、各超音波振動子TR(n+1)の発振時間差ΔT(n+1)を計算する。プロセッサ12は、この発振時間差ΔT(n+1)に従い、各超音波振動子TR(n+1)に駆動信号を供給する。
 各超音波振動子TRは、この駆動信号に応じて時間差で発振する。各超音波振動子TRから放射された超音波は、発振時間差ΔTに応じた発振位相差を有するので、焦点FPで集束する。
(3-1-2)制御パラメータの生成の第2例
 本実施形態の制御パラメータの生成の第2例について説明する。
 超音波コントローラ10は、複数の超音波振動子TR(n)の発振振幅A(n)を個別に制御することにより、各超音波振動子TR(n)から放射される超音波に発振振幅差を与える。焦点位置及び焦点数、並びに、制御点位置及び制御点数は、この発振振幅差に依存する。つまり、超音波スピーカ21は、発振振幅差を制御することにより、焦点位置及び焦点数、制御点位置及び制御点数を変化させることができる。
 本実施形態の超音波スピーカ21の発振振幅差の形成方法について説明する。
 プロセッサ12は、制御パラメータの生成の第1例と同様に、焦点座標(xfp,yfp,zfp)を入力として用いて音響ホログラム計算を実行することにより、制御点座標(xcp(m)、ycp(m)、zcp(m))と、制御点音圧SPcp(m)と、を決定する。
 プロセッサ12は、制御パラメータの生成の第1例と同様に、制御点距離q(n,m)を計算する。
 プロセッサ12は、超音波振動子TR(n+1)の発振振幅A(n+1)と、超音波振動子TR(n)の発振振幅A(n)との発振振幅差ΔA(n+1)を、式3を用いて、計算する。式3に示すように、発振振幅差ΔAは、焦点距離、制御点距離、制御点音圧SPcp(m)、及び、音速の関数である。
 ΔA(n+1)=g(r(n+1),q(n+1),SPcp(m),c) …(式3)
 ・c:音速
 ・焦点距離:r(n+1)
 ・制御点距離:q(n+1)
 ・制御点音圧:SPcp(m)
 上記のとおり、プロセッサ12は、焦点座標(xfp,yfp,zfp)と、制御点座標(xcp(m)、ycp(m)、zcp(m))と、記憶装置11に記憶された座標(xtr(n+1),ytr(n+1),ztr(n+1))と、制御点音圧SPcp(m)と、を用いて、各超音波振動子TR(n+1)の発振振幅差ΔA(n+1)を計算する。プロセッサ12は、この発振振幅差ΔA(n+1)に従い、各超音波振動子TR(n+1)に駆動信号を供給する。
 各超音波振動子TRは、この駆動信号に応じて同時に発振する。各超音波振動子TRから放射された超音波は、発振振幅差ΔAを有するので、焦点FPで集束する。
(3-1-3)制御パラメータの生成の第3例
 本実施形態の制御パラメータの生成の第3例について説明する。
 超音波コントローラ10は、制御パラメータの生成の第1例及び第2例の組合せによって、制御パラメータを生成する。つまり、超音波コントローラ10は、焦点座標(xfp,yfp,zfp)と、制御点座標(xcp(m)、ycp(m)、zcp(m))と、記憶装置11に記憶された座標(xtr(n+1),ytr(n+1),ztr(n+1))と、制御点音圧SPcp(m)と、を用いて、各超音波振動子TR(n+1)の発振時間差ΔT(n+1)及び発振振幅差ΔA(n+1)を計算する。
 複数の超音波振動子TRの発振位相及び発振振幅の組合せを個別に制御することにより、各超音波振動子TRから放射される超音波に発振位相差及び発振振幅差を与える。焦点位置及び焦点数は、この発振位相差及び発振振幅差の組合せに依存する。つまり、超音波スピーカ21は、発振位相差及び発振振幅差の組合せを制御することにより、焦点位置及び焦点数を変化させることができる。
(3-1-4)制御パラメータの生成の小括
 上記のとおり、プロセッサ12は、各超音波振動子TRの発振時間差ΔT及び発振振幅差ΔAの少なくとも1つを計算する。プロセッサ12は、発振時間差ΔT及び発振振幅差ΔAの少なくとも1つに従い、各超音波振動子TRに駆動信号を供給する。
 各超音波振動子TRがこの駆動信号に応じた時間差で発振する場合、各超音波振動子TRから放射された超音波は、発振時間差ΔTに応じた発振位相差を有するので、焦点FPで集束する。
 各超音波振動子TRがこの駆動信号に応じた発振振幅で発振する場合、各超音波振動子TRから放射された超音波は、発振振幅差ΔAを有するので、焦点FPで集束する。
 焦点FPで集束した超音波は、音源を形成する。この音源から、可聴音が発生する。つまり、超音波スピーカ21は、空間上の任意の位置に可聴音の音源を形成することができる。
 制御点CP(m)の数が多いほど、焦点FPのサイズは小さくなる(つまり、より局所的な焦点FPが形成される)。焦点FPのサイズが小さくなるほど、焦点FPに形成された音源からの可聴音を聴き取ることができる領域が小さくなる。これにより、焦点FPに近い領域で聴き取ることができるが、焦点FPから遠い領域では聴き取ることができない可聴音の音源を空間上の任意の焦点FPに形成することができる。
 リスナLが可聴音を聴き取れる可聴範囲の分布は、焦点座標(xfp,yfp、zfp)及び制御点座標(xcp(m),ycp(m)、zcp(m))の組合せによって規定される。
 従って、プロセッサ12は、超音波の発振位相差及び発振振幅差の少なくとも1つを調整することにより、可聴範囲を変化させることができる。
(3-2)超音波スピーカの動作例
 本実施形態の超音波スピーカ21の動作例について説明する。
(3-2-1)動作例1(単焦点)
 本実施形態の超音波スピーカ21の動作例1について説明する。図8は、本実施形態の超音波スピーカの動作例1の説明図である。図9は、図8の動作例1において形成される音源を示す図である。動作例1では、1つの焦点に超音波を集束させる。
 図8に示すように、動作例1の超音波スピーカ21からは、発振位相差及び発振振幅差の少なくとも1つを有する超音波USW1が放射される。超音波USW1は、振動子アレイFAの中心から焦点距離d1だけ離れた焦点FP1で集束する。
 図9に示すように、超音波スピーカ21は、焦点FP1に点音源SS1を形成し、且つ、点音源SS1の周囲に制御点CP(m)によって構成される制御領域CAを形成する。
 例えば、焦点FP1がリスナLの耳元に位置する場合、点音源SS1はリスナLの耳元に形成され、且つ、制御領域CAはリスナLの耳の周辺に形成される。制御領域CAでは、超音波の音圧が弱め会う。
 この場合、リスナLは、制御領域CAにおける超音波の音圧の影響を受けることなく、点音源SS1からの可聴音を聴くことができる。
 また、点音源SS1のサイズを抑制する(つまり、限られた範囲にのみ点音源SS1を形成する)ことができる。
(3-2-2)動作例2(複焦点)
 本実施形態の超音波スピーカ21の動作例2について説明する。図10は、本実施形態の超音波スピーカの動作例2の説明図である。図11は、図10の動作例2において形成される音源を示す図である。動作例2では、複数の焦点に超音波を集束させる。
 図10に示すように、動作例2の超音波スピーカ21からは、振動の時間差に応じた発振位相差を有する超音波USW2a及びUSW2bが放射される。
 超音波USW2aは、振動子アレイFAの中心から焦点距離d2aだけ離れた焦点FP2aで集束する。
 超音波USW2bは、振動子アレイFAの中心から焦点距離d2bだけ離れた焦点FP2bで集束する。
 図11に示すように、超音波スピーカ21は、焦点FP2a及びFP2bに、それぞれ、点音源SS2a及びSS2bを形成し、且つ、点音源SS2a及びSS2bの周囲に制御領域CAa及びCAbを形成する。
 例えば、焦点FP2aがリスナL1の耳元に位置する場合、点音源SS2aはリスナL1の耳元に形成され、且つ、制御領域CAaはリスナL1の耳の周辺に形成される。制御領域CAaでは、焦点FP2aに集束する超音波の音圧が弱め合う。
 焦点FP2bがリスナL2の耳元に位置する場合、点音源SS2bはリスナL2の耳元に形成され、且つ、制御領域CAbはリスナL2の耳の周弱め合う辺に形成される。制御領域CAbでは、焦点FP2bに集束する超音波の音圧が弱め合う。
 この場合、リスナL1は、制御領域CAa及びCAbにおける超音波の音圧の影響を受けることなく、点音源SS2aからの可聴音を聴くことができる。一方、リスナL2は、制御領域CAa及びCAbにおける超音波の音圧の影響を受けることなく、点音源SS2bからの可聴音を聴くことができる。
 また、点音源SS2a及びSS2bのサイズを抑制する(つまり、限られた範囲にのみ点音源SS2a及びSS2bを形成する)ことができる。
 なお、超音波スピーカ21は、3個以上の焦点に点音源を形成することも可能である。この場合、各焦点の周囲に、制御領域が形成される。
(4)オーディオシステムの制御
 本実施形態のオーディオシステムの制御について説明する。図12は、本実施形態のオーディオシステムの制御の処理のフローチャートである。図13は、図12の処理において参照される音圧情報及び第1サラウンドパンパラメータの概略図である。図14は、図12の処理において第1周波数帯域~第3周波数帯域に分割される音圧情報の概略図である。図15は、図12の処理において生成される第2サラウンドパンパラメータの概略図である。
 ステップS200の後、音源23は、オーディオ信号の出力(S200)を実行する。
 具体的には、音源23は、オーディオ信号をエンコードし、超音波コントローラ10に出力する。
 オーディオ信号は、再生すべき音の音圧情報(図13A)と、第1サラウンドパンパラメータ(図13B)と、を含む。
 図13Aは、音圧情報の例である。横軸が周波数(Hz)であり、縦軸が音圧(dB)である。
 図13Bは、5.1chサラウンドモードの第1サラウンドパンパラメータの例である。第1サラウンドパンパラメータは、センタスピーカ(C)、右フロントスピーカ(R)、左フロントスピーカ(L)、右サラウンドスピーカ(RS)、左サラウンドスピーカ(LS)、及び、ウーファ(LFE)の音圧のバランス(つまり、パンニング)を示す。
 超音波コントローラ10は、使用環境情報の取得(S100)を実行する。
 具体的には、プロセッサ12は、使用環境SPのレイアウトを示すレイアウト情報を生成する。レイアウト情報は、使用環境SPの3次元のサイズを示す情報と、3次元形状を示す情報と、を含む。
 一例として、カメラ24は、使用環境SPの画像情報を撮像する。プロセッサ12は、カメラ24によって撮像された画像情報に三次元モデリングを適用することにより、使用環境SPのレイアウトを示すレイアウト情報を生成し、記憶装置11に記憶する。
 別の例として、プロセッサ12は、入出力インタフェース13又は通信インタフェース14を介して、使用環境SPのレイアウト情報(例えば、3次元CADデータ)を記憶装置11に記憶する。
 位置検出部25は、赤外線を照射し、且つ、赤外線の反射光を受光することにより、人の位置を検出する。
 プロセッサ12は、位置検出部25が生成した電気信号に基づいて、超音波スピーカ21に対するリスナLの相対位置を示す三次元座標を生成することにより、当該相対位置を特定する。
 ステップS100及びS200の後、超音波コントローラ10は、オーディオ信号の入力(S101)を実行する。
 具体的には、プロセッサ12は、ステップS200で音源23から出力されたオーディオ信号を入力する。
 ステップS101の後、超音波コントローラ10は、オーディオ信号のデコード(S102)を実行する。
 具体的には、プロセッサ12は、オーディオ信号をデコードすることにより、オーディオ信号から、音圧情報(図13A)と、第1サラウンドパンパラメータ(図13B)と、を取り出す。
 プロセッサ12は、音圧情報と、第1サラウンドパンパラメータと、を記憶装置11に記憶する。
 ステップS102の後、超音波コントローラ10は、焦点位置及び制御点位置の決定(S103)を実行する。
 第1例として、ステップS100で位置検出部25によって1人のリスナLが検出された場合、プロセッサ12は、ステップS100で位置検出部25の検出結果に基づいて、超音波スピーカ21に対するリスナLの相対位置を特定する。
 プロセッサ12は、特定した相対位置に基づいて、図9の焦点FP1及び制御点CP(m)の位置を決定する。
 第2例として、ステップS100で位置検出部25によって複数(例えば、2人)のリスナL1及びU2が検出された場合、プロセッサ12は、ステップS100で位置検出部25の検出結果に基づいて、超音波スピーカ21に対するリスナLの相対位置を特定する。
 プロセッサ12は、特定した相対位置に基づいて、図11の複数の焦点FP2a及びFP2b、並びに、制御点CP(m)の位置を決定する。
 第3例として、ステップS100において、ユーザが、入出力インタフェース13を介して、焦点の位置を指定するためのユーザ指示を入力した場合、プロセッサ12は、ユーザ指示に基づいて、図9の焦点FP1及び制御点CP(m)の位置を決定する。
 ステップS103の後、超音波コントローラ10は、第2サラウンドパンパラメータの生成(S104)を実行する。
 具体的には、プロセッサ12は、ステップS102で記憶装置11に記憶した音波レベル情報の周波数特性を第1周波数帯域B1~第3周波数帯域B3に分割する(図14)。
 図14に示すように、第1周波数帯域B1は、第1周波数閾値TH1以上の周波数帯域である。
 プロセッサ12は、超音波スピーカ21の出力特性に基づいて第1周波数帯域B1を決定する。
 プロセッサ12は、第1周波数帯域B1を構成する周波数成分について、超音波スピーカ21の音圧が最も高くなり、且つ、ウーファ26の音圧が最も低くなるように、超音波スピーカ21の音圧と、ラウドスピーカ22の音圧と、ウーファ26の音圧と、を決定する。
 第2周波数帯域B2は、第2周波数閾値TH2と第1周波数閾値TH1との間の周波数帯域である。
 プロセッサ12は、ラウドスピーカ22の出力特性に基づいて第2周波数帯域B2を決定する。
 プロセッサ12は、第2周波数帯域B2を構成する周波数成分について、ラウドスピーカ22の音圧が最も高くなり、且つ、ウーファ26の音圧が最も低くなるように、超音波スピーカ21の音圧と、ラウドスピーカ22の音圧と、ウーファ26の音圧と、を決定する。
 第3周波数帯域B3は、第2周波数閾値TH2以下の周波数帯域である。
 プロセッサ12は、ウーファ26の出力特性に基づいて第3周波数帯域B3を決定する。
 プロセッサ12は、第3周波数帯域B3を構成する周波数成分について、ウーファ26の音圧が最も高くなり、且つ、超音波スピーカ21の音圧が最も低くなるように、超音波スピーカ21の音圧と、ラウドスピーカ22の音圧と、ウーファ26の音圧と、を決定する。
 プロセッサ12は、決定した音圧(超音波スピーカ21の音圧、ラウドスピーカ22の音圧、及び、ウーファ26の音圧)に基づいて、第2サラウンドパンパラメータ(図15)を生成する。
 図15の第2サラウンドパンパラメータは、超音波スピーカ(US)、右フロントスピーカ(R)、左フロントスピーカ(L)、右サラウンドスピーカ(RS)、左サラウンドスピーカ(LS)、及び、ウーファ(LFE)の音圧のバランス(つまり、超音波スピーカ21を含むスピーカコンポーネントのパンニング)を示している。
 図15Aは、第1周波数帯域B1の音圧が第2周波数帯域B2の音圧より高い場合の第2サラウンドパンパラメータの例を示している。
 図15Aに示すように、第1周波数帯域B1の音圧が第2周波数帯域B2の音圧より高い場合の第2サラウンドパンパラメータでは、ラウドスピーカ22(右フロントスピーカ(R)、左フロントスピーカ(L)、右サラウンドスピーカ(RS)、及び、左サラウンドスピーカ(LS))の音圧より、超音波スピーカ(US)の音圧が高い。
 つまり、第1周波数帯域B1の音圧が第2周波数帯域B2の音圧より高い場合、超音波コントローラ10は、ラウドスピーカ22の音より超音波スピーカ21の音を強調する。
 図15Bは、第1周波数帯域B1の音圧が第2周波数帯域B2の音圧より低い場合の第2サラウンドパンパラメータの例を示している。
 図15Aに示すように、第1周波数帯域B1の音圧が第2周波数帯域B2の音圧より低い場合の第2サラウンドパンパラメータでは、ラウドスピーカ22(右フロントスピーカ(R)、左フロントスピーカ(L)、右サラウンドスピーカ(RS)、及び、左サラウンドスピーカ(LS))の音圧より、超音波スピーカ(US)の音圧が低い。
 つまり、第1周波数帯域B1の音圧が第2周波数帯域B2の音圧より低い場合、超音波コントローラ10は、超音波スピーカ21の音よりラウドスピーカ22の音を強調する。
 ステップS104の後、超音波コントローラ10は、変調レベルの決定(S105)を実行する。
 具体的には、プロセッサ12は、ステップS104で決定した第2サラウンドパンパラメータのうち超音波スピーカ(US)の音圧と、ステップS103で決定した焦点位置及び制御点位置と、に基づいて、変調レベル(例えば、超音波スピーカ21から放射される超音波のAM変調レベル)を決定する。
 ステップS105の後、超音波コントローラ10は、音響ホログラム計算(S106)を実行する。
 ステップS106の第1例では、プロセッサ12は、ステップS103で決定した焦点位置及び制御点位置に、それぞれ、焦点FP及び制御点CPを形成するための位相分布に対応する発振位相差の分布(以下「位相差分布」という)を得るための音響ホログラム計算を実行する。
 プロセッサ12は、音響ホログラム計算によって得られた位相差分布に基づいて、各超音波振動子TR(n)の発振タイミングを決定する。
 ステップS106の第2例では、プロセッサ12は、ステップS103で決定した焦点位置及び制御点位置に、それぞれ、焦点FP及び制御点CPを形成するための振幅分布を得るための音響ホログラム計算を実行する。
 プロセッサ12は、音響ホログラム計算によって得られた振幅分布に基づいて、各超音波振動子TR(n)の発振振幅を決定する。
 ステップS105の後、超音波コントローラ10は、スピーカ制御信号の生成(S107)を実行する。
 具体的には、プロセッサ12は、第2サラウンドパンパラメータのうち、超音波スピーカ(US)の音圧と、ステップS106で決定した発振位相差及び発振振幅の少なくとも1つと、ステップS105で決定した変調レベルと、に基づいて、超音波スピーカ21を制御するための第1スピーカ制御信号(「制御パラメータ」の一例)を生成する。
 プロセッサ12は、ステップS104で決定した第2サラウンドパンパラメータのうち、右フロントスピーカ(R)、左フロントスピーカ(L)、右サラウンドスピーカ(RS)、及び、左サラウンドスピーカ(LS)の音圧に基づいて、ラウドスピーカ22を制御するための第2スピーカ制御信号を生成する。
 プロセッサ12は、第2サラウンドパンパラメータのうち、ウーファ(LFE)の音圧に基づいて、ウーファ26を制御するための第3スピーカ制御信号を生成する。
 プロセッサ12は、第1スピーカ制御信号~第3スピーカ制御信号を、それぞれ、超音波スピーカ21、ラウドスピーカ22、及び、ウーファ26に出力する。
 超音波スピーカ21は、第1スピーカ制御信号に基づいて、超音波を放射する。超音波スピーカ21から放射された超音波は、ステップS103で決定された焦点FPで集束し、且つ、制御点CPで互いに弱め合う。集束した超音波は、焦点FPに可聴音の音源を形成する。つまり、焦点FPに形成された音源は、可聴音を発生させる。
 ラウドスピーカ22及びウーファ26は、それぞれ、第2スピーカ制御信号及び第3スピーカ制御信号に基づいて、自身を音源とする可聴音を発生させる。
 音源23は、再生が終了するまで(S201-NO)、ステップS200の処理を繰り返し実行する。
 超音波コントローラ10は、再生が終了するまで(S108-NO)、ステップS100~S107の処理を繰り返し実行する。
 これにより、オーディオシステム1は、使用環境SPと、人の位置と、音源23から出力されるオーディオ信号と、に応じたサラウンド環境を構築することができる。
 特に、オーディオシステム1では、超音波スピーカ21の焦点位置、制御点の位置、焦点数、及び、制御点数が可変であるので、使用環境SPの制約(例えば、使用環境SPのレイアウト、使用環境SP内に存在する障害物、及び、人の位置)を受けずに、より多様な音をリスナLに聴かせることができる。
 一般に、制御点を形成しない場合、焦点距離r(n)が長くなるほど、焦点の放射方向のサイズ(以下「奥行き」という)が大きくなるため、焦点に形成される点音源の奥行きも大きくなる。これに対して、本実施形態によれば、少なくとも1つの焦点に集束する超音波の音圧が制御点により弱め合うので、焦点距離r(n)にかかわらず、点音源の奥行きを制限することができる。つまり、焦点距離r(n)にかかわらず、点音源を形成することができる。
(5)変形例
 本実施形態の変形例について説明する。
(5-1)変形例1
 変形例1について説明する。変形例1は、振動子アレイFAが曲面形状を有する例である。
 変形例1の振動子アレイFAは、可変曲率を有する曲面形状のアレイ面上に形成される。
 超音波スピーカ21には、アクチュエータ(例えば、可変アーム)が接続される。アクチュエータは、アレイ面の曲率(つまり、曲面形状)を変えるように構成される。アレイ面の曲率が変わると、振動子アレイFAから放射される超音波の発振位相差も変化する。
 具体的には、ステップS107で生成される第1スピーカ制御信号は、アクチュエータを駆動するための駆動信号を含む。
 アクチュエータは、駆動信号に基づいて、アレイ面の曲率を変える。
 変形例1によれば、アレイ面の曲率を変えることにより超音波に発振位相差を与える超音波スピーカ21を用いる場合にも、上記本実施形態と同様の効果が得られる。
 特に、単一の焦点(例えば、図8の焦点FP1)に超音波を集束させる場合、複数の超音波振動子TRの放射方向が当該焦点を向くので、当該焦点で集束する超音波の音圧を上げることができる。
(5-2)変形例2
 変形例2について説明する。変形例2は、複数の超音波スピーカ21を用いてサラウンド環境を構築する例である。
 変形例2のオーディオシステム1は、複数の超音波スピーカ21を備える。
 プロセッサ12は、ステップS103及びS104において、各超音波スピーカ21とリスナLの相対位置に基づいて、複数の超音波スピーカ21の焦点位置、制御点の位置、及び音圧を個別に決定する。
 変形例2によれば、本実施形態に比べて、焦点FPで集束する超音波が増えるので、集束する超音波により形成された音源からの可聴音の音圧を上げることができる。また、焦点FPで集束する超音波が増えたとしても、焦点FPの周囲に制御領域CAを形成することにより、可聴音が発生する領域を絞ることができる。その結果、より多様なサラウンド環境を構築することができる。
(5-3)変形例3
 変形例3について説明する。変形例3は、可聴範囲を動的に変化させる例である。
 変形例3の第1例では、記憶装置11には、再生音の音量と、焦点を基準とする制御点領域の範囲との関係が規定されたアルゴリズムが記憶されている。
 プロセッサ12は、オーディオシステム1のオペレータ(例えば、リスナL)の指示(例えば、音量を変化させるための操作)を受け付けると、記憶装置11に記憶されたアルゴリズムを参照して、各超音波振動子TR(n)から放射される超音波の発振振幅A(n)及び発振位相P(n)の少なくとも1つを変更する。
 この場合、オペレータは、超音波スピーカ21による音の可聴範囲を任意に変更することができる。
 変形例3の第2例では、プロセッサ12は、位置検出部25によって検出された人の位置に応じて、各超音波振動子TR(n)の発振位相P(n)又は発振振幅A(n)を変更する。例えば、位置検出部25が特定のリスナLの位置を検出した場合、プロセッサ12は、特定のリスナL以外のリスナLの位置が可聴範囲から除外されるように、制御点座標を計算する。
 この場合、特定のリスナLにのみ、超音波スピーカ21による音を聴かせることができる。
 変形例3の第3例では、記憶装置11には、環境音の音量と、焦点を基準とする制御点領域の範囲との関係が規定されたアルゴリズムが記憶されている。
 超音波コントローラ10は、環境音の音量を検出するセンサ(不図示)を備える。プロセッサ12は、当該センサによって検出された音量に応じて、可聴範囲が一律に保たれるように、各超音波振動子TR(n)の発振振幅A(n)及び発振位相P(n)の少なくとも1つを決定する。
 この場合、環境音が変化しても、可聴範囲を維持することができる。
 変形例3の第4例では、超音波コントローラ10は、音源23から与えられたオーディオ信号に応じて、各超音波振動子TR(n)の発振振幅A(n)及び発振位相P(n)の少なくとも1つを決定する。例えば、オーディオ信号に含まれる第1サラウンドパンパラメータが広い可聴範囲に適したサラウンドパンを示す場合、プロセッサ12は、可聴範囲が広がるように、発振振幅A(n)及び発振位相P(n)を決定する。第1サラウンドパンパラメータが狭い可聴範囲に適したサラウンドパンを示す場合、プロセッサ12は、可聴範囲が狭まるように、発振振幅A(n)及び発振位相P(n)を決定する。
 この場合、再生される音に応じて可聴範囲を変更することができる。
 変形例3によれば、超音波スピーカ21の外部要因に応じて、可聴範囲を動的に変化させることができる。
(5-4)変形例4
 変形例4について説明する。変形例4は、各超音波振動子TR(n)の発振時間差を発生させることなく、超音波を焦点FPに集束させる例である。
 プロセッサ12は、超音波振動子TR(n+1)の発振振幅A(n+1)と、超音波振動子TR(n)の発振振幅A(n)との発振振幅差ΔA(n+1)を、式4を用いて、計算する。式4に示すように、発振振幅差ΔAは、焦点距離及び音速の関数である。
 ΔA(n+1)=h(r(n+1),c) …(式4)
 ・c:音速
 ・焦点距離:r(n+1)
 上記のとおり、プロセッサ12は、焦点座標(xfp,yfp,zfp)と、記憶装置11に記憶された座標(xtr(n+1),ytr(n+1),ztr(n+1))と、を用いて、各超音波振動子TR(n+1)の発振振幅差ΔA(n+1)を計算する。プロセッサ12は、この発振振幅差ΔA(n+1)に従い、各超音波振動子TR(n+1)に駆動信号を供給する。
 各超音波振動子TRは、この駆動信号に応じて同時に発振する。各超音波振動子TRから放射された超音波は、発振振幅差ΔAを有するので、焦点FPで集束する。
 変化例4によれば、各超音波振動子TRの発振時間差ΔTを発生させることなく、焦点FPに超音波を集束させることができる。
(5-5)変形例5
 変形例5について説明する。変形例5は、焦点FPに集束する超音波の音圧分布と、各制御点CP(m)における超音波の音圧分布との間の位相差(以下「制御点位相差」という)を制御する例である。図16は、変形例5の作用効果の説明図である。
 変形例5では、以下の条件を考慮して、制御点座標(xcp(m)、ycp(m)、zcp(m)を決定する。以下の条件の優先順位は、超音波スピーカ21の用途に依存する。
(条件1)制御点CPに起因する焦点FPの音圧分布(具体的には、焦点FPに集束する超音波のメインローブの形状)の変化が一定以下であること。
(条件2)制御点CPに起因する焦点FPの音圧(具体的には、焦点FPに集束する超音波のメインローブのピーク値)の変化が一定以下であること。
(条件3)制御点CPの音圧が焦点FPの音圧(具体的には、焦点FPに集束する超音波のメインローブのピーク値)より小さいこと。
 変形例5の超音波コントローラ10は、上記条件1~条件3を適合する制御点座標(xcp(m)、ycp(m)、zcp(m)を決定する。
 変形例5の第1例では、プロセッサ12は、制御パラメータの生成の第1例と同様に、制御点座標(xcp(m)、ycp(m)、zcp(m))、及び、制御点音圧SPcp(m)に加えて、制御点位相差ΔSPcp(m)を決定する。制御点位相差ΔSPcp(m)とは、焦点FPに集束する超音波の位相(以下「焦点位相」という)Pfpと、制御点CP(m)の位相(以下「制御点位相」という)Pcp(m)との差である。
 プロセッサ12は、発振時間差ΔT(n+1)を、焦点座標及び制御点座標の関数(例えば、式5)を用いて、計算する。式5に示すように、発振時間差ΔTは、例えば、焦点距離、制御点距離、制御点位相差、及び、音速の関数である。
 ΔT(n+1)=f(r(n+1),q(n+1),ΔSPcp(m),c)…(式5)
 ・c:音速
 ・焦点距離:r(n+1)
 ・制御点距離:q(n+1)
 ・制御点位相差:ΔSPcp(m)
 変形例5の第2例では、プロセッサ12は、制御パラメータの生成の第1例と同様に、制御点座標(xcp(m)、ycp(m)、zcp(m))、及び、制御点音圧SPcp(m)に加えて、制御点振幅差ΔAcp(m)を決定する。制御点振幅差ΔAcp(m)とは、焦点FPに集束する超音波の振幅(以下「焦点振幅」という)Afpと、制御点CP(m)の振幅(以下「制御点振幅」という)Acp(m)との差である。
 プロセッサ12は、式7を用いて発振振幅差ΔA(n+1)を計算する。式7に示すように、発振振幅差ΔAは、焦点距離、制御点距離、制御点音圧SPcp(m)、制御点振幅差ΔAcp(m)、及び、音速の関数である。
 ΔA(n+1)=g(r(n+1),q(n+1),SPcp(m), ΔAcp(m),c) …(式7)
 ・c:音速
 ・焦点距離:r(n+1)
 ・制御点距離:q(n+1)
 ・制御点音圧:SPcp(m)
 ・制御点振幅差:ΔAcp(m)
 図16の横軸はY座標であり、且つ、縦軸は音圧である。実線は、制御点CPを設定しない場合の焦点FPに集束する超音波の音圧分布である。破線は、制御点CPを設定する場合の焦点FPに集束する超音波の音圧分布である。
 制御点CPは、ステップS103において、焦点FP(Y=yfp)から所定距離だけシフトした位置(Y=ycp)に設定されている。
 図16に示すように、制御点CPを設定しない場合、Y>yfpの領域において、音圧分布がなだらかに減衰する。
 一方、Y=ycpの位置における音圧がゼロになるような制御点CPを設定する場合、Y>Yfpの領域において、音圧分布の減衰が急峻になる。
 換言すると、制御点CPを設定しない場合の音圧分布に比べて、制御点CPを設定する場合の音圧分布の方が、焦点FPを基準として超音波の放射方向(Y方向)における長さ(つまり、焦点FPの奥行き)が短くなる。この結果、制御点CPを設定する場合の焦点FPの音圧分布MLfp1は、制御点CPを設定しない場合の焦点FPの音圧分布MLfp0より局在化する。
 このように、変形例5によれば、条件1~条件3に適合するように、制御点座標(xcp(m)、ycp(m)、zcp(m)が決定される。このことは、条件1~条件3に適合するように、制御点位相差を制御することと同義である。その結果、焦点FP付近に局在化した音圧分布MLfp1を形成することができ、且つ、制御点CPの設定に起因する影響を最小限に留めることができる。
(6)本実施形態の小括
 本実施形態について小括する。
 本実施形態の第1態様は、
 空間上の任意の位置の少なくとも1つの焦点に集束する超音波を放射する複数の超音波振動子TR(n)を有する振動子アレイFAを制御する超音波コントローラ10であって、
 焦点の焦点座標と、少なくとも1つの制御点の制御点座標と、を計算する手段(例えば、ステップS103の処理を実行するプロセッサ12)を備え、
  制御点の音圧SPcpは、焦点の音圧SPfpより低く、
 焦点座標及び制御点座標に基づいて、各超音波振動子TR(n)を制御する制御パラメータを生成する手段(例えば、ステップS107の処理を実行するプロセッサ12)を備え、
  制御点は、焦点に集束する超音波の音圧より、超音波の音圧が低い点であり、
 各超音波振動子TR(n)の制御パラメータに基づいて、焦点に集束する超音波を放射するように、各超音波振動子TR(n)を個別に制御する手段(例えば、ステップS107の処理を実行するプロセッサ12)を備える、超音波コントローラ10。
 第1態様によれば、制御点領域において焦点に集束する超音波の音圧が弱め合う。これにより、焦点周辺の超音波分布を制御することができる。
 その結果、リスナLは、制御領域における超音波の音圧の影響を受けることなく、点音源からの可聴音を聴くことができる。
 また、点音源のサイズを抑制する(つまり、意図した領域にのみ点音源を形成する)ことができる。
 本実施形態の第2態様は、
 生成する手段は、制御点において、各超音波振動子TR(n)から放射される超音波が弱め合うように、制御パラメータを生成する、
超音波コントローラ10である。
 本実施形態の第3態様は、
 計算する手段は、人の位置に基づいて、焦点座標及び制御点座標を計算する、
超音波コントローラ10である。
 第3態様によれば、人(例えば、リスナ)の位置に応じた点音源を形成することができる。
 本実施形態の第4態様は、
 制御パラメータは、発振振幅及び発振位相の少なくとも1つを含む、
超音波コントローラ10である。
 本実施形態の第5態様は、
 制御する手段は、複数の超音波振動子TR(n)の発振タイミングを個別に制御することにより、振動子アレイFAが放射する超音波の発振位相差を生成する、超音波コントローラ10である。
 第5態様によれば、点音源を形成するために、各超音波振動子TR(n)の音圧の上限まで利用することができる。
 本実施形態の第6態様は、
 制御する手段は、複数の超音波振動子TR(n)から構成される振動子アレイFAのアレイ面の曲率を変えることにより、振動子アレイFAが放射する超音波の発振位相差を生成する、
超音波コントローラ10である。
 第6態様によれば、振動子アレイFAが曲面を有する場合であっても、第1態様と同様の効果を得ることができる。
 本実施形態の第7態様は、
 使用環境に関する使用環境情報を取得する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
 計算する手段は、使用環境情報を更に参照して、焦点座標及び制御点座標を計算する、超音波コントローラ10である。
 第7態様によれば、使用環境に応じた点音源を形成することができる。
 本実施形態の第8態様は、
 上記の何れかに記載の超音波コントローラ10と接続可能な超音波スピーカ21であって、
 複数の超音波振動子TR(n)を備え、
 超音波コントローラ10の制御に従って、複数の超音波振動子TR(n)を個別に駆動する駆動部を備える、超音波スピーカ21である。
 本実施形態の第9態様は、
 コンピュータ(例えば、プロセッサ12)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
(7)その他の変形例
 その他の変形例について説明する。
 記憶装置11は、ネットワークNWを介して、超音波コントローラ10と接続されてもよい。
 図2のスピーカコンポーネント(超音波スピーカ21、ラウドスピーカ22、及び、ウーファ26の組合せ)は一例である。本実施形態は、以下のスピーカコンポーネントにも適用可能である。
 ・超音波スピーカ21単体(つまり、超音波スピーカ21以外のスピーカ(図2のラウドスピーカ22及びウーファ26)を含まないスピーカコンポーネント)
 ・図2に示されていないスピーカ(例えば、サブウーファ)を含むスピーカコンポーネント
 カメラ24が、位置検出部25の代わりに、リスナLの相対位置を検出しても良い。
 例えば、カメラ24が、リスナLの画像情報を取得する。
 プロセッサ12が、カメラ24が取得した画像情報に対して、人の特徴量に基づく特徴量解析を適用する。これにより、画像情報における人の位置(画像空間上の位置)が特定される。
 プロセッサ12は、特定した画像空間上の位置に基づいて、超音波スピーカ21に対するリスナLの相対位置を示す三次元座標を生成することにより、当該相対位置を特定する。
 超音波スピーカ21が、位置検出部25の代わりに、リスナLの相対位置を検出しても良い。
 例えば、超音波振動子TRが放射する超音波の反射波を検出する超音波センサを備える。
 ステップS100において、プロセッサ12は、超音波振動子TRを駆動することにより、超音波を放射させる。超音波は、リスナLに反射する。
 超音波センサは、リスナLからの反射波を検出する。
 プロセッサ12は、超音波を放射してから、超音波センサによって反射波が検出されるまでの時間に基づいて、リスナLの相対位置を推定する。
 超音波スピーカ21の動作例では、超音波振動子TR(n)が時間差で振動する例を示したが、本実施形態はこれに限られない。超音波スピーカ21は、超音波振動子TR(n)が、同時に異なる発振振幅で振動する場合、及び、時間差で、且つ、異なる発振振幅で振動する場合にも、同様に適用可能である。
 制御点CPは、超音波の音圧がゼロになるヌル点、及び、超音波の音圧が焦点FPに集束する超音波より低い点の少なくとも1つである。
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1     :オーディオシステム
10    :超音波コントローラ
11    :記憶装置
12    :プロセッサ
13    :入出力インタフェース
14    :通信インタフェース
21    :超音波スピーカ
21a   :カバー
21b   :筐体
22    :ラウドスピーカ
23    :音源
24    :カメラ
25    :位置検出部
26    :ウーファ

Claims (9)

  1.  空間上の任意の位置の少なくとも1つの焦点に集束する超音波を放射する複数の超音波振動子を有する振動子アレイを制御する超音波コントローラであって、
     前記焦点の焦点座標と、少なくとも1つの制御点の制御点座標と、を計算する手段を備え、
      前記制御点の音圧は、前記焦点の音圧より低く、
     前記焦点座標及び前記制御点座標に基づいて、各超音波振動子を制御する制御パラメータを生成する手段を備え、
     各超音波振動子の制御パラメータに基づいて、前記焦点に集束する超音波を放射するように、各超音波振動子を個別に制御する手段を備える、
    超音波コントローラ。
  2.  前記生成する手段は、前記制御点において、各超音波振動子から放射される超音波が弱め合うように、前記制御パラメータを生成する、
    請求項1に記載の超音波コントローラ。
  3.  前記計算する手段は、人の位置に基づいて、前記焦点座標及び前記制御点座標を計算する、
    請求項1又は2に記載の超音波コントローラ。
  4.  前記制御パラメータは、発振振幅及び発振位相の少なくとも1つを含む、
    請求項1~3の何れかに記載の超音波コントローラ。
  5.  前記制御する手段は、前記複数の超音波振動子の発振タイミングを個別に制御することにより、前記振動子アレイが放射する超音波の発振位相差を生成する、
    請求項1~4の何れかに記載の超音波コントローラ。
  6.  前記制御する手段は、複数の超音波振動子から構成される振動子アレイのアレイ面の曲率を変えることにより、前記振動子アレイが放射する超音波の発振位相差を生成する、
    請求項1~5の何れかに記載の超音波コントローラ。
  7.  使用環境に関する使用環境情報を取得する手段を備え、
     前記計算する手段は、前記使用環境情報を更に参照して、前記焦点座標及び前記制御点座標を計算する、
    請求項1~6の何れかに記載の超音波コントローラ。
  8.  請求項1~7の何れかに記載の超音波コントローラと接続可能な超音波スピーカであって、
     複数の超音波振動子を備え、
     前記超音波コントローラの制御に従って、前記複数の超音波振動子を個別に駆動する駆動部を備える、超音波スピーカ。
  9.  コンピュータを、請求項1~7の何れかに記載の各手段として機能させるためのプログラム。
PCT/JP2019/025370 2018-06-29 2019-06-26 超音波コントローラ、超音波スピーカ、及び、プログラム WO2020004460A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018124543A JP2021166318A (ja) 2018-06-29 2018-06-29 超音波コントローラ、超音波スピーカ、及び、プログラム
JP2018-124543 2018-06-29

Publications (1)

Publication Number Publication Date
WO2020004460A1 true WO2020004460A1 (ja) 2020-01-02

Family

ID=68986567

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/025370 WO2020004460A1 (ja) 2018-06-29 2019-06-26 超音波コントローラ、超音波スピーカ、及び、プログラム

Country Status (2)

Country Link
JP (1) JP2021166318A (ja)
WO (1) WO2020004460A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230416515A1 (en) 2020-11-30 2023-12-28 Ps Japan Corporation Styrene-based resin composition and molded article thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150382129A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Driving parametric speakers as a function of tracked user location
JP6330098B1 (ja) * 2017-10-03 2018-05-23 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、プログラム、超音波スピーカ、音源装置
JP6329679B1 (ja) * 2017-10-03 2018-05-23 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、超音波スピーカ、オーディオシステム、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150382129A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Driving parametric speakers as a function of tracked user location
JP6330098B1 (ja) * 2017-10-03 2018-05-23 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、プログラム、超音波スピーカ、音源装置
JP6329679B1 (ja) * 2017-10-03 2018-05-23 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、超音波スピーカ、オーディオシステム、及びプログラム

Also Published As

Publication number Publication date
JP2021166318A (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
JP6906027B2 (ja) 触覚フィードバックを調整するための方法および装置
JP5139577B2 (ja) フィルタ特性を生成する装置および方法
KR101702330B1 (ko) 근거리 및 원거리 음장 동시제어 장치 및 방법
JP2019523498A (ja) オーディオコンテンツをユーザに送出するための触覚システム
JP2007124129A (ja) 音響再生装置および音響再生方法
WO2018045112A1 (en) Dynamic augmentation of real-world sounds into a virtual reality sound mix
WO2019069743A1 (ja) オーディオコントローラ、超音波スピーカ、及び、オーディオシステム
JP6329679B1 (ja) オーディオコントローラ、超音波スピーカ、オーディオシステム、及びプログラム
WO2020004460A1 (ja) 超音波コントローラ、超音波スピーカ、及び、プログラム
JP7095863B2 (ja) 音響システム、音響処理方法、及びプログラム
JP5720158B2 (ja) バイノーラル録音された音信号の再生方法および再生装置
JP6330098B1 (ja) オーディオコントローラ、プログラム、超音波スピーカ、音源装置
US20230017323A1 (en) Generating an audio signal associated with a virtual sound source
JP2019068396A (ja) オーディオコントローラ、プログラム、超音波スピーカ、音源装置
JP2021175145A (ja) パラメトリックスピーカのコントローラ、パラメトリックスピーカの制御方法、およびプログラム
JP7317396B2 (ja) オーディオコントローラ、オーディオシステム、プログラム、及び、オーディオ制御方法
JP2020088737A (ja) スピーカ装置
JP2021145236A (ja) オーディオコントローラおよびオーディオ制御プログラム
JP6661186B1 (ja) 超音波スピーカ
JP7095857B2 (ja) 音響システム、音響処理方法、及びプログラム
JP2021177607A (ja) オーディオコントローラ、プログラム、及び、パラメトリックスピーカの制御方法
WO2021002162A1 (ja) オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法
JP2021180470A (ja) 指向性スピーカ、音響システム、及び、プログラム
SE2151202A1 (en) An acoustic system and method for controlling acoustic energy emitted from a parametric acoustic transducer array
CN116668936A (zh) 扬声器控制

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19827577

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 01.04.2021)

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 19827577

Country of ref document: EP

Kind code of ref document: A1