WO2021002162A1 - オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法 - Google Patents

オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法 Download PDF

Info

Publication number
WO2021002162A1
WO2021002162A1 PCT/JP2020/022784 JP2020022784W WO2021002162A1 WO 2021002162 A1 WO2021002162 A1 WO 2021002162A1 JP 2020022784 W JP2020022784 W JP 2020022784W WO 2021002162 A1 WO2021002162 A1 WO 2021002162A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
directional
listener
sound
audio controller
Prior art date
Application number
PCT/JP2020/022784
Other languages
English (en)
French (fr)
Inventor
信之 伊東
Original Assignee
ピクシーダストテクノロジーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピクシーダストテクノロジーズ株式会社 filed Critical ピクシーダストテクノロジーズ株式会社
Publication of WO2021002162A1 publication Critical patent/WO2021002162A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to an audio controller, a program, a directional speaker, and a method for controlling the directional speaker.
  • the ultrasonic speaker is configured to reproduce sound in the audible range (hereinafter referred to as "audible sound”) by emitting an ultrasonic beam. Since the ultrasonic beam is a sound wave having high directivity (hereinafter referred to as "directional sound wave"), a sound source can be formed in a specific region.
  • audible sound sound in the audible range
  • directional sound wave sound wave having high directivity
  • Japanese Patent Application Laid-Open No. 2012-29096 discloses a technique in which a specific listener can selectively hear an audible sound by reflecting an ultrasonic wave with a structure and then advancing it toward a listener. ..
  • JP2012-29096 when ultrasonic waves are reflected by a structure and then travel toward the listener, the listener perceives a sound image at the position of the reflection point closest to itself. Therefore, Japanese Patent Application Laid-Open No. 2012-29096 cannot provide anything other than the experience of perceiving a sound image at the position of the reflection point closest to the listener. In other words, there are few variations in the acoustic experience.
  • An object of the present invention is to expand the variation of the acoustic experience using directional sound waves.
  • One aspect of the present invention is An audio controller that controls a directional speaker with variable radiation sound pressure and radiation angle of directional sound waves. Based on the combination of the three-dimensional layout of the used space in which the directional speaker is used, the position of the directional speaker in the used space, the position of the listener in the used space, and the target sound image direction to be perceived by the listener.
  • FIG. 1 is a functional block diagram of the audio system of the present embodiment.
  • the audio system 1 includes an audio controller 10 and a parametric speaker 30.
  • the parametric speaker 30 (an example of a "directional speaker”) reproduces an audible sound by emitting a directional sound wave (for example, an ultrasonic beam) using the principle of parametric vibration generated in the air by the directional sound wave. It is configured as follows.
  • the audio controller 10 is configured to control the parametric speaker 30.
  • the audio controller 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
  • the program includes, for example, the following program. -OS (Operating System) program-Application program that executes control processing of the parametric speaker 30
  • the data includes, for example, the following data.
  • -Database referenced in information processing-Data obtained by executing information processing that is, the execution result of information processing
  • the processor 12 is an example of a computer that realizes the function of the audio controller 10 by activating the program stored in the storage device 11.
  • the processor 12 is, for example, at least one of the following. ⁇ CPU (Central Processing Unit) ⁇ GPU (Graphic Processing Unit) ⁇ ASIC (Application Specific Integrated Circuit) ⁇ FPGA (Field Programmable Array)
  • the functions of the audio controller 10 include, for example, the following. -A function to generate a monitor control signal for controlling the monitor MT-A function to generate a speaker control signal for controlling the parametric speaker 30-A function to output a speaker control signal to the parametric speaker 30 via the communication interface 14.
  • the input / output interface 13 is configured to acquire a user's instruction from an input device connected to the audio controller 10 and output information to an output device connected to the audio controller 10.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, a microphone, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 14 is configured to control communication between the audio controller 10 and the parametric speaker 30.
  • the parametric speaker 30 includes a drive unit 32, a communication interface 34, a plurality of ultrasonic vibrators 35, and a direction changing mechanism 36.
  • the drive unit 32 drives a drive signal (hereinafter referred to as “oscillator drive signal”) for driving the ultrasonic vibrator 35 and a direction changing mechanism 36 according to the speaker control signal output from the audio controller 10. It is configured to generate a drive signal (hereinafter referred to as “mechanism drive signal”).
  • oscilator drive signal a drive signal for driving the ultrasonic vibrator 35 and a direction changing mechanism 36 according to the speaker control signal output from the audio controller 10. It is configured to generate a drive signal (hereinafter referred to as “mechanism drive signal”).
  • the communication interface 34 is configured to control communication between the parametric speaker 30 and the audio controller 10.
  • the plurality of ultrasonic vibrators 35 are configured to radiate an ultrasonic beam by vibrating based on a vibrator drive signal generated by the drive unit 32.
  • the direction changing mechanism 36 is configured to change the radiation direction of ultrasonic waves (for example, the direction of the radiation surface 35a) based on the mechanism drive signal generated by the drive unit 32.
  • the direction changing mechanism 36 is, for example, an actuator.
  • FIG. 2 is an explanatory diagram of an outline of the direction changing mechanism 36 of FIG.
  • the plurality of ultrasonic transducers 35 are arranged, for example, on the radiation surface 35a defined by the XY plane.
  • the plurality of ultrasonic vibrators 35 vibrate, ultrasonic waves are radiated in the normal direction (Z direction) of the XY plane.
  • the direction changing mechanism 36 pivotally supports the radial surface 35a at the support point 36a.
  • the radial surface 35a is configured to be fixed in the X direction at the support point 36a and to change the directions in the Y and Z directions. As a result, the radiation direction of the ultrasonic waves radiated from the plurality of ultrasonic vibrators 35 changes.
  • FIG. 3 is an explanatory diagram of an outline of the present embodiment.
  • the audio controller 10 has a three-dimensional layout of the used space SP, a position of the parametric speaker 30 (hereinafter referred to as “speaker position”), a position of the listener TL (hereinafter referred to as “target position”), and the like.
  • the path of the ultrasonic beam is specified based on the target sound image direction information regarding the direction of the sound image to be perceived by the speaker TL (hereinafter referred to as "target sound image direction").
  • the direction of the sound image includes, for example, at least one of the following. ⁇ Direction of sound source perceived by listener TL ⁇ Direction of arrival of audible sound perceived by listener TL
  • the audio controller 10 determines the radiation angle ⁇ of the parametric speaker 30 so that the ultrasonic beam travels along the specified path.
  • the audio controller 10 generates a speaker control signal according to the determined radiation angle ⁇ .
  • the audio controller 10 transmits the generated speaker control signal to the parametric speaker 30.
  • the parametric speaker 30 emits an ultrasonic beam in the direction of the radiation angle ⁇ corresponding to the speaker control signal transmitted from the audio controller 10.
  • the listener TL can localize a desired sound image via the ultrasonic beam emitted from the parametric speaker 30.
  • FIG. 4 is an explanatory diagram of a usage space in which the parametric speaker of the present embodiment is arranged.
  • the three-dimensional coordinates are represented by the coordinate system in the used space SP.
  • the parametric speaker 30 is arranged at the speaker position POSs (xs, ys, zs).
  • the listener TL exists at the target position POSt (xt, yt, zt).
  • FIG. 5 is an explanatory diagram of a first example of the operation of the parametric speaker of the present embodiment.
  • the path PA1 of the first example of the operation of the parametric speaker 30 of the present embodiment is a path that reaches the target position POSt after the ultrasonic beam emitted from the parametric speaker 30 is reflected by any of the reflecting members RM1 to RM4. .. FIG. 5 shows an example in which ultrasonic waves are reflected by the reflecting member RM3.
  • the listener TL perceives a sound image at the reflection position POSr (xr, yr, zr). That is, the listener TL sounds as if an audible sound is sounding at the reflection position POSr (xr, yr, zr).
  • FIG. 6 is an explanatory diagram of a second example of the operation of the parametric speaker of the present embodiment.
  • the path PA2 of the second example of the operation of the parametric speaker 30 of the present embodiment after the ultrasonic beam emitted from the parametric speaker 30 is reflected by any of the reflecting members RM1 to RM4, the path PA2 is in a direction different from the target position POSt. It is a path that goes toward you.
  • FIG. 6 shows an example in which ultrasonic waves are reflected by the reflecting member RM3.
  • the listener TL perceives a sound image at the reflection position POSr (xr, yr, zr). That is, the listener TL sounds as if an audible sound is sounding at the reflection position POSr (xr, yr, zr).
  • FIG. 7 is an explanatory diagram of a third example of the operation of the parametric speaker of the present embodiment.
  • the path PA3 of the third example of the operation of the parametric speaker 30 of the present embodiment is a path in which the ultrasonic beam emitted from the parametric speaker 30 travels toward the target position POSt.
  • the listener TL perceives a sound image near its own ear. In other words, the listener TL sounds as if an audible sound is being heard near the ear.
  • FIG. 8 is an explanatory diagram of a fourth example of operation of the parametric speaker of the present embodiment.
  • the path PA4 of the fourth example of the operation of the parametric speaker 30 of the present embodiment is a path in which the ultrasonic beam emitted from the parametric speaker 30 travels in a direction different from the target position POSt.
  • the listener TL perceives the sound image at substantially the same position as the speaker position POSs (xs, ys, zs).
  • FIG. 9 is a diagram showing a data structure of the spatial information data table of the present embodiment.
  • the spatial information data table of FIG. 9 is stored in, for example, the storage device 11.
  • Spatial information is stored in the spatial information data table.
  • the spatial information is three-dimensional layout information relating to the three-dimensional layout of the used space SP.
  • the spatial information data table includes a "coordinates" field. Each field is associated with each other.
  • Coordinate information is stored in the "coordinates" field.
  • the coordinate information represents, for example, three-dimensional coordinates that define a region (for example, a start point and an end point) of a reflective member existing in the used space SP.
  • the coordinate information is represented by, for example, a used space coordinate system whose origin is an arbitrary position in the used space SP (for example, the point Po (0, 0, 0) in FIG. 3).
  • FIG. 10 is a sequence diagram of control of the audio system of the present embodiment.
  • FIG. 11 is a detailed flowchart of the spatial simulation of FIG.
  • FIG. 12 is a diagram showing an example of a screen displayed in the process of FIG.
  • the audio controller 10 executes the acquisition of simulation conditions (S110). Specifically, the processor 12 displays the screen P10 (FIG. 12) on the display.
  • the screen P10 includes the operation object B10 and the field objects F10a to F10d.
  • the field objects F10a to F10d receive user instructions for designating simulation conditions.
  • the field object F10a is an object that receives a user instruction for designating the coordinates (an example of "speaker position information") of Ps (hereinafter referred to as "speaker position") of the parametric speaker 30.
  • the field object F10b is an object that receives a user instruction for designating the coordinates (an example of "target position information") of the position (hereinafter referred to as "target position”) Pt of the listener TL.
  • the field object F10c is an object that accepts a user instruction for designating the direction Psi of the sound image SI (hereinafter referred to as “sound image direction”).
  • the field object F10d is an object that receives a user instruction for designating the volume.
  • the operation object B10 is an object that receives a user instruction for starting the reproduction of the audible sound by the parametric speaker 30.
  • the user inputs the coordinates of the speaker position POSs in the field object F10a, the coordinates of the target position POSt in the field object F10b, the target sound image direction in the field object F10c, and the desired volume in the field object F10d.
  • the processor 12 stores the information (coordinates of speaker position POSs, coordinates of target position POSt, target sound image direction information, and volume information) input to the field objects F10a to F10d. Store in 11.
  • the audio controller 10 executes the acquisition of the voice input signal (S111). Specifically, the processor 12 acquires an audio input signal of audio content from the sound source device SS.
  • step S111 the audio controller 10 executes the spatial simulation (S112) according to the flowchart of FIG.
  • the audio controller 10 executes the identification of the used space (S1120). Specifically, the processor 12 specifies the three-dimensional structure of the used space SP with reference to the spatial information data table (FIG. 9) stored in the storage device 11.
  • the three-dimensional structure includes, for example, the following. ⁇ Three-dimensional size ⁇ Position of reflective member RM
  • the audio controller 10 executes the calculation of the sound pressure distribution (S1121).
  • the storage device 11 stores the spatial transmission model.
  • the spatial transmission model describes the correlation between the radiated sound pressure Vout, the three-dimensional structure of the used space SP, the speaker position Ps, the target position Pt, and the sound pressure distribution for each path formed in the used space SP. ..
  • the processor 12 inputs the spatial information obtained in step S1120 and the information (speaker position information and target position information) obtained in S110 into the spatial transmission model, so that each combination of radiated sound pressure Vout and path Calculate the sound pressure distribution of.
  • the audio controller 10 executes path selection (S1122).
  • the storage device 11 stores a sound image perception model.
  • the sound image perception model the correlation between the distribution of sound pressure and the direction of the sound image SI perceived by the listener TL (hereinafter referred to as "perceived sound image direction") is described.
  • the processor 12 calculates the radiated sound pressure Vout and the perceived sound image direction for each pass by inputting the distribution of the sound pressure for each combination of the radiated sound pressure Vout and the path obtained in step S1121 into the sound image perception model.
  • the processor 12 compares the calculation result (perceived sound image direction) with the sound image direction corresponding to the user instruction obtained in step S110 (hereinafter referred to as “instructed sound image direction”), and thereby perceives corresponding to the indicated sound image direction. Select the radiated sound pressure Vout and path corresponding to the sound image direction.
  • the "perceived sound image direction corresponding to the indicated sound image direction” is, for example, at least one of the following. -Perceived sound image direction that matches the indicated sound image direction-Perceived sound image direction included in a predetermined range with reference to the indicated sound image direction
  • the audio controller 10 executes speaker control (S113).
  • the processor 12 corresponds to the selected path by referring to the combination of the radiated sound pressure (hereinafter referred to as “selected radiated sound pressure”) Vout and the path (hereinafter referred to as “selected path”) obtained in step S1122. Determine the radiation angle ⁇ to be used.
  • the processor 12 generates a speaker control signal for emitting an ultrasonic beam at the selective radiation sound pressure Vout obtained in step S1122 in the direction of the determined radiation angle ⁇ .
  • the processor 12 supplies the generated speaker control signal to the parametric speaker 30.
  • the parametric speaker 30 performs the radiation direction change (S130). Specifically, the drive unit 32 generates a mechanism drive signal for reproducing the radiation angle ⁇ corresponding to the speaker control signal transmitted from the audio controller 10.
  • the direction changing mechanism 36 changes the direction of the radiation surface to a direction corresponding to the radiation angle ⁇ in response to the mechanism drive signal generated by the drive unit 32.
  • the parametric speaker 30 executes directional sound wave emission (S131). Specifically, the drive unit 32 generates an oscillator drive signal for radiating an ultrasonic beam having a selective radiation sound pressure Vout corresponding to the speaker control signal transmitted from the audio controller 10. A voltage is applied to each ultrasonic oscillator 35 according to the oscillator drive signal generated by the drive unit 32. Each ultrasonic oscillator 35 vibrates according to the applied voltage.
  • the ultrasonic beam emitted in step S131 travels along the selection path.
  • a virtual sound source is formed on the path.
  • This virtual sound source forms the distribution of the sound pressure obtained in S1121 in the used space SP.
  • the sound image can be localized in the desired sound image direction with respect to the listener TL.
  • FIG. 13 is an explanatory diagram of an outline of a modified example.
  • the sensor 50 is configured to detect the position of the listener TL (target position POSt (xt, yt, zt)).
  • the sensor 50 is, for example, at least one of the following. ⁇ Infrared sensor ⁇ Image sensor ⁇ Ultrasonic sensor
  • the audio controller 10 executes a spatial simulation (S112) at predetermined time intervals using the target position POSt (xt, yt, zt) detected by the sensor 50.
  • the ultrasonic beam emitted from the parametric speaker 30 travels along the selection path (FIG. 13B). As a result, the listener TL can perceive the desired sound image localization while moving in the used space SP.
  • the first aspect of this embodiment is An audio controller 10 that controls a directional speaker (for example, a parametric speaker 30) having a variable radiation sound pressure and radiation angle. Based on the combination of the three-dimensional layout of the usage space in which the directional speaker is used, the position of the directional speaker in the usage space, the position of the listener in the usage space, and the target sound image direction to be perceived by the listener, the directional speaker A means for determining a combination of radiation sound pressure and radiation angle (for example, a processor 12 for executing step S112) is provided.
  • the combination of the radiation sound pressure and the radiation angle of the directional speaker is determined based on the combination of the three-dimensional layout of the used space, the position of the directional speaker, the position of the listener TL, and the target sound image direction. .. This makes it possible to expand the variation of the acoustic experience using directional sound waves.
  • a second aspect of this embodiment includes means for identifying a three-dimensional layout (eg, a processor 12 that executes step S110).
  • a means for identifying the position of the directional speaker for example, a processor 12 for executing step S110
  • a means for identifying the position of the listener for example, a processor 12 that executes step S110
  • the audio controller 10 10.
  • this makes it possible to expand the variation of the acoustic experience using directional sound waves.
  • the third aspect of this embodiment is The means of deciding Calculate the propagation distance of ultrasonic waves from the position of the directional speaker to the position of the sound image, Determine the radiated sound pressure of a directional speaker based on the propagation distance, The audio controller 10.
  • the radiated sound pressure is determined based on the propagation distance of the ultrasonic wave from the position of the directional speaker to the position of the sound image. This makes it possible to expand the variation of the acoustic experience using directional sound waves.
  • the fourth aspect of this embodiment is A means for selecting a reflection position for reflecting a directional sound wave based on a combination of a directional speaker position, a listener position, and a target sound image is provided.
  • the reflection position for reflecting the directional sound wave is determined based on the combination of the position of the directional speaker, the position of the listener, and the target sound image direction. This makes it possible to expand the variation of the acoustic experience using directional sound waves.
  • a fifth aspect of this embodiment is A means (for example, a processor 12 for executing step S113) for changing the direction of the radiation surface of the directional speaker according to the determined radiation angle is provided.
  • the direction of the radiation surface of the directional speaker changes according to the determined radiation angle. This makes it possible to expand the variation of the acoustic experience using directional sound waves.
  • the sixth aspect of this embodiment is A means for changing the position of the directional speaker according to the determined radiation angle (for example, the processor 12 that executes step S113) is provided.
  • the position of the directional speaker changes according to the determined radiation angle. This makes it possible to expand the variation of the acoustic experience using directional sound waves.
  • the audio controller 10 may execute step S113 after selecting the path from the start to the end of the reproduction of the audible sound (that is, the entire voice input signal) in step S112 (FIG. 10).
  • the audio controller 10 uses the sound.
  • the parametric speaker 30 may be controlled after selecting the combination of the radiated sound pressure Vout and the path in consideration of the displacement of the first position information (xt, yt, zt) of the listener TL.
  • the audio controller 10 may execute the spatial simulation while reproducing the audible sound in step S112 (FIG. 10).
  • FIG. 1 shows an example in which the parametric speaker 30 is used alone, the scope of application of this embodiment is not limited to this. This embodiment is also applicable to the case where the parametric speaker 30 is used in combination with other types of speakers (for example, a loudspeaker and a woofer) (that is, an example in which the parametric speaker 30 is used in a surround system).
  • other types of speakers for example, a loudspeaker and a woofer
  • Audio system 10 Audio controller 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 30: Parametric speaker 32: Drive unit 34: Communication interface 35: Ultrasonic transducer 35a: Radiation surface 36: Direction change Mechanism 36a: Support point 50: Sensor

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)

Abstract

指向性音波の放射音圧及び放射角が可変な指向性スピーカを制御するオーディオコントローラは、指向性スピーカが使用される使用空間の3次元レイアウトを特定する手段を備え、使用空間における指向性スピーカの位置を特定する手段を備え、使用空間におけるリスナの位置を特定する手段を備え、3次元レイアウト、指向性スピーカの位置、リスナの位置、及び、リスナに知覚させるべき目標音像方向の組合せに基づいて、指向性スピーカの放射音圧及び放射角の組合せを決定する手段を備える。

Description

オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法
 本発明は、オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法に関する。
 超音波スピーカは、超音波ビームを放射することにより、可聴域の音(以下「可聴音」という)を再生するように構成される。超音波ビームは高い指向性を有する音波(以下「指向性音波」という)であるので、特定の領域に音源を形成することができる。
 例えば、特開2012-29096号公報には、超音波を構造物で反射させた後、リスナに向かって進行させることにより、特定のリスナに可聴音を選択的に聴かせる技術が開示されている。
 特開2012-29096号公報のように、超音波が構造物で反射した後にリスナに向かって進行する場合、リスナは、自身に最も近い反射点の位置に音像を知覚する。そのため、特開2012-29096号公報では、リスナに最も近い反射点の位置に音像を知覚させる体験以外は提供することができない。つまり、音響体験のバリエーションが少ない。
 本発明の目的は、指向性音波を用いた音響体験のバリエーションを広げることである。
 本発明の一態様は、
 指向性音波の放射音圧及び放射角が可変な指向性スピーカを制御するオーディオコントローラであって、
 前記指向性スピーカが使用される使用空間の3次元レイアウト、前記使用空間における前記指向性スピーカの位置、前記使用空間におけるリスナの位置、及び、前記リスナに知覚させるべき目標音像方向の組合せに基づいて、前記指向性スピーカの放射音圧及び放射角の組合せを決定する手段を備える、
オーディオコントローラである。
図1のオーディオシステムの機能ブロック図である。 図1の方向変更機構36の概要の説明図である。 本実施形態の概要の説明図である。 本実施形態のパラメトリックスピーカが配置された使用空間の説明図である。 本実施形態のパラメトリックスピーカの作動の第1例の説明図である。 本実施形態のパラメトリックスピーカの作動の第2例の説明図である。 本実施形態のパラメトリックスピーカの作動の第3例の説明図である。 本実施形態のパラメトリックスピーカの作動の第4例の説明図である。 本実施形態の空間情報データテーブルのデータ構造を示す図である。 本実施形態のオーディオシステムの制御のシーケンス図である。 図10の空間シミュレーションの詳細なフローチャートである。 図10の処理において表示される画面の例を示す図である。 変形例の概要の説明図である。
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)オーディオシステムの構成
 本実施形態のオーディオシステムの構成を説明する。図1は、本実施形態のオーディオシステムの機能ブロック図である。
 図1に示すように、オーディオシステム1は、オーディオコントローラ10と、パラメトリックスピーカ30と、を備える。
 パラメトリックスピーカ30(「指向性スピーカ」の一例)は、指向性音波(例えば、超音波ビーム)を放射することにより、指向性音波によって空気中に生じるパラメトリック振動の原理を用いて可聴音を再生するように構成される。
 オーディオコントローラ10は、パラメトリックスピーカ30を制御するように構成される。
(1-1)オーディオコントローラの構成
 図1を参照して、オーディオコントローラ10の構成を説明する。
 図1に示すように、オーディオコントローラ10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・パラメトリックスピーカ30の制御処理を実行するアプリケーションのプログラム
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、オーディオコントローラ10の機能を実現するコンピュータの一例である。プロセッサ12は、例えば、以下の少なくとも1つである。
 ・CPU(Central Processing Unit)
 ・GPU(Graphic Processing Unit)
 ・ASIC(Application Specific Integrated Circuit)
 ・FPGA(Field Programmable Array)
 オーディオコントローラ10の機能は、例えば、以下を含む。
 ・モニタMTを制御するためのモニタ制御信号を生成する機能
 ・パラメトリックスピーカ30を制御するためのスピーカ制御信号を生成する機能
 ・通信インタフェース14を介して、パラメトリックスピーカ30にスピーカ制御信号を出力する機能
 入出力インタフェース13は、オーディオコントローラ10に接続される入力デバイスからユーザの指示を取得し、かつ、オーディオコントローラ10に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、マイクロフォン、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース14は、オーディオコントローラ10とパラメトリックスピーカ30との間の通信を制御するように構成される。
(1-2)パラメトリックスピーカの構成
 図1を参照して、パラメトリックスピーカ30の構成を説明する。
 図1に示すように、パラメトリックスピーカ30は、駆動部32と、通信インタフェース34と、複数の超音波振動子35と、方向変更機構36と、を備える。
 駆動部32は、オーディオコントローラ10から出力されたスピーカ制御信号に従って、超音波振動子35を駆動させるための駆動信号(以下「振動子駆動信号」という)と、方向変更機構36を駆動させるための駆動信号(以下「機構駆動信号」という)と、を生成するように構成される。
 通信インタフェース34は、パラメトリックスピーカ30とオーディオコントローラ10との間の通信を制御するように構成される。
 複数の超音波振動子35は、駆動部32によって生成された振動子駆動信号に基づいて振動することにより、超音波ビームを放射するように構成される。
 方向変更機構36は、駆動部32によって生成された機構駆動信号に基づいて超音波の放射方向(例えば、放射面35aの向き)を変更するように構成される。方向変更機構36は、例えば、アクチュエータである。
(1-2-1)方向変更機構の概要
 本実施形態の方向変更機構36の概要を説明する。図2は、図1の方向変更機構36の概要の説明図である。
 図2Aに示すように、複数の超音波振動子35は、例えば、XY平面で規定される放射面35a上に配置される。複数の超音波振動子35が振動すると、XY平面の法線方向(Z方向)に向かって超音波が放射される。
 図2Bに示すように、方向変更機構36は、支持点36aで放射面35aを軸支する。
 図2Cに示すように、放射面35aは、支持点36aにおいて、X方向に固定され、且つ、Y方向及びZ方向の向きを変えるように構成される。これにより、複数の超音波振動子35から放射される超音波の放射方向が変わる。
(2)本実施形態の概要
 本実施形態の概要を説明する。図3は、本実施形態の概要の説明図である。
 図3に示すように、オーディオコントローラ10は、使用空間SPの3次元レイアウトと、パラメトリックスピーカ30の位置(以下「スピーカ位置」という)と、リスナTLの位置(以下「ターゲット位置」という)と、リスナTLに知覚させるべき音像の方向(以下「目標音像方向」という)に関する目標音像方向情報と、に基づいて、超音波ビームのパスを特定する。音像の方向は、例えば、以下の少なくとも1つを含む。
 ・リスナTLが知覚する音源の方向
 ・リスナTLが知覚する可聴音の到来方向
 オーディオコントローラ10は、特定したパスに沿って超音波ビームが進行するように、パラメトリックスピーカ30の放射角θを決定する。
 オーディオコントローラ10は、決定した放射角θに応じたスピーカ制御信号を生成する。
 オーディオコントローラ10は、生成したスピーカ制御信号をパラメトリックスピーカ30に送信する。
 パラメトリックスピーカ30は、オーディオコントローラ10から送信されたスピーカ制御信号に対応する放射角θの方向に超音波ビームを放射する。
 これにより、リスナTLは、パラメトリックスピーカ30から放射された超音波ビームを介して、所望の音像を定位させることができる。
(3)パラメトリックスピーカの作動例
 本実施形態のパラメトリックスピーカ30の作動例を説明する。図4は、本実施形態のパラメトリックスピーカが配置された使用空間の説明図である。
 以下の説明において、3次元座標は、使用空間SP内の座標系で表現される。
 図4に示すように、パラメトリックスピーカ30は、スピーカ位置POSs(xs,ys,zs)に配置される。
 リスナTLは、ターゲット位置POSt(xt,yt,zt)に存在する。
 使用空間SPには、複数の反射部材RM1~RM4が存在する。
(3-1)パラメトリックスピーカの作動の第1例
 本実施形態のパラメトリックスピーカ30の作動の第1例を説明する。図5は、本実施形態のパラメトリックスピーカの作動の第1例の説明図である。
 本実施形態のパラメトリックスピーカ30の作動の第1例のパスPA1は、パラメトリックスピーカ30から放射された超音波ビームが反射部材RM1~RM4の何れかで反射した後、ターゲット位置POStに達するパスである。
 図5は、超音波が反射部材RM3で反射する例を示している。この場合、リスナTLは、反射位置POSr(xr,yr,zr)に音像を知覚する。つまり、リスナTLには、反射位置POSr(xr,yr,zr)で可聴音が鳴っているように聴こえる。
(3-2)パラメトリックスピーカの作動の第2例
 本実施形態のパラメトリックスピーカ30の作動の第2例を説明する。図6は、本実施形態のパラメトリックスピーカの作動の第2例の説明図である。
 本実施形態のパラメトリックスピーカ30の作動の第2例のパスPA2は、パラメトリックスピーカ30から放射された超音波ビームが反射部材RM1~RM4の何れかで反射した後、ターゲット位置POStとは異なる方向に向かって進行するパスである。
 図6は、超音波が反射部材RM3で反射する例を示している。この場合、リスナTLは、反射位置POSr(xr,yr,zr)に音像を知覚する。つまり、リスナTLには、反射位置POSr(xr,yr,zr)で可聴音が鳴っているように聴こえる。
(3-3)パラメトリックスピーカの作動の第3例
 本実施形態のパラメトリックスピーカ30の作動の第3例を説明する。図7は、本実施形態のパラメトリックスピーカの作動の第3例の説明図である。
 本実施形態のパラメトリックスピーカ30の作動の第3例のパスPA3は、パラメトリックスピーカ30から放射された超音波ビームがターゲット位置POStに向かって進行するパスである。
 この場合、リスナTLは、自身の耳元に音像を知覚する。つまり、リスナTLには、耳元で可聴音が鳴っているように聴こえる。
(3-4)パラメトリックスピーカの作動の第4例
 本実施形態のパラメトリックスピーカ30の作動の第4例を説明する。図8は、本実施形態のパラメトリックスピーカの作動の第4例の説明図である。
 本実施形態のパラメトリックスピーカ30の作動の第4例のパスPA4は、パラメトリックスピーカ30から放射された超音波ビームがターゲット位置POStとは異なる方向に向かって進行するパスである。
 この場合、リスナTLは、スピーカ位置POSs(xs,ys,zs)と略同一の位置に音像を知覚する。
(4)空間情報データテーブルのデータ構造
 本実施形態の空間情報データテーブルのデータ構造を説明する。図9は、本実施形態の空間情報データテーブルのデータ構造を示す図である。
 図9の空間情報データテーブルは、例えば、記憶装置11に記憶されている。
 空間情報データテーブルには、空間情報が格納される。空間情報とは、使用空間SPの3次元レイアウトに関する3次元レイアウト情報である。
 空間情報データテーブルは、「座標」フィールドを含む。各フィールドは、互いに関連付けられている。
 「座標」フィールドには、座標情報が格納される。座標情報は、例えば、使用空間SPに存在する反射部材の領域(例えば、始点及び終点)を規定する3次元座標を表す。座標情報は、例えば、使用空間SPにおける任意の位置(例えば、図3の点Po(0,0,0))を原点とする使用空間座標系で表現される。
(5)オーディオシステムの制御
 本実施形態のオーディオシステム1の制御を説明する。図10は、本実施形態のオーディオシステムの制御のシーケンス図である。図11は、図10の空間シミュレーションの詳細なフローチャートである。図12は、図10の処理において表示される画面の例を示す図である。
 図10に示すように、オーディオコントローラ10は、シミュレーション条件の取得(S110)を実行する。
 具体的には、プロセッサ12は、画面P10(図12)をディスプレイに表示する。
 画面P10は、操作オブジェクトB10と、フィールドオブジェクトF10a~F10dと、を含む。
 フィールドオブジェクトF10a~F10dは、シミュレーション条件を指定するためのユーザ指示を受け付ける。
 フィールドオブジェクトF10aは、パラメトリックスピーカ30の位置(以下「スピーカ位置」という)Psの座標(「スピーカ位置情報」の一例)を指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF10bは、リスナTLの位置(以下「ターゲット位置」という)Ptの座標(「対象位置情報」の一例)を指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF10cは、音像SIの方向(以下「音像方向」という)Psiを指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF10dは、音量を指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB10は、パラメトリックスピーカ30による可聴音の再生を開始させるためのユーザ指示を受け付けるオブジェクトである。
 ユーザが、フィールドオブジェクトF10aにスピーカ位置POSsの座標を入力し、フィールドオブジェクトF10bにターゲット位置POStの座標を入力し、フィールドオブジェクトF10cに目標音像方向を入力し、フィールドオブジェクトF10dに所望の音量を入力し、且つ、操作オブジェクトB10を操作すると、プロセッサ12は、フィールドオブジェクトF10a~F10dに入力された情報(スピーカ位置POSsの座標、ターゲット位置POStの座標、目標音像方向情報、及び、音量情報)を記憶装置11に記憶する。
 オーディオコントローラ10は、音声入力信号の取得(S111)を実行する。
 具体的には、プロセッサ12は、音源装置SSから、オーディオコンテンツの音声入力信号を取得する。
 ステップS111の後、オーディオコントローラ10は、図11のフローチャートに従って、空間シミュレーション(S112)を実行する。
 図6に示すように、オーディオコントローラ10は、使用空間の特定(S1120)を実行する。
 具体的には、プロセッサ12は、記憶装置11に記憶された空間情報データテーブル(図9)を参照して、使用空間SPの3次元構造を特定する。3次元構造は、例えば、以下を含む。
 ・3次元サイズ
 ・反射部材RMの位置
 ステップS1120の後、オーディオコントローラ10は、音圧分布の計算(S1121)を実行する。
 具体的には、記憶装置11には、空間伝達モデルが記憶されている。空間伝達モデルには、放射音圧Vout、使用空間SPの3次元構造、スピーカ位置Ps、対象位置Pt、及び、使用空間SPに形成されるパス毎の音圧の分布の相関関係が記述される。
 プロセッサ12は、ステップS1120で得られた空間情報と、S110で得られた情報(スピーカ位置情報及び対象位置情報)と、を空間伝達モデルに入力することにより、放射音圧Vout及びパスの組合せ毎の音圧の分布を計算する。
 ステップS1121の後、オーディオコントローラ10は、パス選択(S1122)を実行する。
 具体的には、記憶装置11には、音像知覚モデルが記憶されている。音像知覚モデルには、音圧の分布、及び、リスナTLが知覚する音像SIの方向(以下「知覚音像方向」という)の相関関係が記述されている。
 プロセッサ12は、ステップS1121で得られた放射音圧Vout及びパスの組合せ毎の音圧の分布を音像知覚モデルに入力することにより、放射音圧Vout及びパス毎の知覚音像方向を計算する。
 プロセッサ12は、計算結果(知覚音像方向)と、ステップS110で得られたユーザ指示に対応する音像方向(以下「指示音像方向」という)と、を比較することにより、指示音像方向に該当する知覚音像方向に対応する放射音圧Vout及びパスを選択する。「指示音像方向に該当する知覚音像方向」とは、例えば、以下の少なくとも1つである。
 ・指示音像方向と一致する知覚音像方向
 ・指示音像方向を基準として所定範囲に含まれる知覚音像方向
 ステップS1122の後、オーディオコントローラ10は、スピーカの制御(S113)を実行する。
 具体的には、プロセッサ12は、ステップS1122で得られた放射音圧(以下「選択放射音圧」という)Vout及びパス(以下「選択パス」という)の組合せを参照して、選択パスに対応する放射角θを決定する。
 プロセッサ12は、決定された放射角θの向きに、ステップS1122で得られた選択放射音圧Voutで、超音波ビームを放射するためのスピーカ制御信号を生成する。
 プロセッサ12は、生成されたスピーカ制御信号をパラメトリックスピーカ30に供給する。
 ステップS113の後、パラメトリックスピーカ30は、パラメトリックスピーカ30は、放射方向の変更(S130)を実行する。
 具体的には、駆動部32は、オーディオコントローラ10から送信されたスピーカ制御信号に対応する放射角θを再現するための機構駆動信号を生成する。
 方向変更機構36は、駆動部32によって生成された機構駆動信号に応じて、放射面の向きを放射角θに対応する方向に変更する。
 ステップS130の後、パラメトリックスピーカ30は、指向性音波の放射(S131)を実行する。
 具体的には、駆動部32は、オーディオコントローラ10から送信されたスピーカ制御信号に対応する選択放射音圧Voutの超音波ビームを放射するための振動子駆動信号を生成する。
 各超音波振動子35には、駆動部32によって生成された振動子駆動信号に応じて電圧が印加される。各超音波振動子35は、印加された電圧に応じて振動する。
 本実施形態によれば、ステップS131で放射された超音波ビームは、選択パスに沿って進行する。その結果、当該パス上に仮想音源が形成される。この仮想音源は、使用空間SPに、S1121で得られた音圧の分布を形成する。これにより、リスナTLに対して、所望の音像方向に音像を定位させることができる。
(6)変形例
 本実施形態の変形例を説明する。変形例は、リスナTLが移動する場合の例である。図13は、変形例の概要の説明図である。
 図13Aに示すように、本実施形態に対する変形例の相違点は、以下のとおりである。
 ・リスナTLが移動する点
 ・使用空間SPにセンサ50が配置される点
 センサ50は、リスナTLの位置(ターゲット位置POSt(xt,yt,zt))を検出するように構成される。センサ50は、例えば、以下の少なくとも1つである。
 ・赤外線センサ
 ・イメージセンサ
 ・超音波センサ
 オーディオコントローラ10は、所定時間毎に、センサ50によって検出されたターゲット位置POSt(xt,yt,zt)を用いて、空間シミュレーション(S112)を実行する。
 パラメトリックスピーカ30から放射された超音波ビームは、選択パスに沿って進行する(図13B)。その結果、リスナTLは、使用空間SP内を移動しながら、所望の音像定位を知覚することができる。
 変形例によれば、リスナTLが移動する場合であっても、本実施形態と同様の効果を得ることができる。
(7)付記
 本実施形態の第1態様は、
 放射音圧及び放射角が可変な指向性スピーカ(例えば、パラメトリックスピーカ30)を制御するオーディオコントローラ10であって、
 指向性スピーカが使用される使用空間の3次元レイアウト、使用空間における指向性スピーカの位置、使用空間におけるリスナの位置、及び、リスナに知覚させるべき目標音像方向の組合せに基づいて、指向性スピーカの放射音圧及び放射角の組合せを決定する手段(例えば、ステップS112を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
 第1態様によれば、使用空間の3次元レイアウト、指向性スピーカの位置、リスナTLの位置、及び、目標音像方向の組合せに基づいて指向性スピーカの放射音圧及び放射角の組合せを決定する。これにより、指向性音波を用いた音響体験のバリエーションを広げることができる。
 本実施形態の第2態様は、3次元レイアウトを特定する手段(例えば、ステップS110を実行するプロセッサ12)を備え、
 指向性スピーカの位置を特定する手段(例えば、ステップS110を実行するプロセッサ12)を備え、
 リスナの位置を特定する手段(例えば、ステップS110を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
 第2態様によれば、これにより、指向性音波を用いた音響体験のバリエーションを広げることができる。
 本実施形態の第3態様は、
 決定する手段は、
  指向性スピーカの位置から音像の位置までの超音波の伝搬距離を計算し、
  伝搬距離に基づいて、指向性スピーカの放射音圧を決定する、
オーディオコントローラ10である。
 第3態様によれば、指向性スピーカの位置から音像の位置までの超音波の伝搬距離に基づいて放射音圧が決まる。これにより、指向性音波を用いた音響体験のバリエーションを広げることができる。
 本実施形態の第4態様は、
 指向性スピーカの位置、リスナの位置、及び、目標音像の組合せに基づいて、指向性音波を反射させる反射位置を選択する手段を備える、
オーディオコントローラ10である。
 第4態様によれば、指向性スピーカの位置、リスナの位置、及び、目標音像方向の組合せに基づいて、指向性音波を反射させる反射位置が決まる。これにより、指向性音波を用いた音響体験のバリエーションを広げることができる。
 本実施形態の第5態様は、
 決定された放射角に応じて、指向性スピーカの放射面の方向を変更する手段(例えば、ステップS113を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
 第5態様によれば、決定された放射角に応じて、指向性スピーカの放射面の方向が変わる。これにより、指向性音波を用いた音響体験のバリエーションを広げることができる。
 本実施形態の第6態様は、
 決定された放射角に応じて、指向性スピーカの位置を変更する手段(例えば、ステップS113を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
 第6態様によれば、決定された放射角に応じて、指向性スピーカの位置が変わる。これにより、指向性音波を用いた音響体験のバリエーションを広げることができる。
(8)その他の変形例
 その他の変形例を説明する。
 オーディオコントローラ10は、ステップS112(図10)において、可聴音の再生の開始から終了までの間(つまり、音声入力信号の全体)のパスを選択した後、ステップS113を実行しても良い。
 特に、図13に示すように、リスナTLの移動経路が予め特定可能な場合(例えば、レールに沿って移動する移動体にリスナTLが乗車している場合)には、オーディオコントローラ10は、音声入力信号の全体について、リスナTLの第1位置情報(xt,yt,zt)の変位を考慮して放射音圧Vout及びパスの組合せを選択した後、パラメトリックスピーカ30を制御しても良い。
 オーディオコントローラ10は、ステップS112(図10)において、可聴音を再生しながら空間シミュレーションを実行しても良い。
 図1では、パラメトリックスピーカ30を単体で用いる例を示したが、本実施形態の適用範囲はこれに限られない。本実施形態は、パラメトリックスピーカ30を他種のスピーカ(例えば、ラウドスピーカ及びウーファ)と組み合わせて用いる場合(つまり、パラメトリックスピーカ30をサラウンドシステムに使用する例)にも適用可能である。
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1     :オーディオシステム
10    :オーディオコントローラ
11    :記憶装置
12    :プロセッサ
13    :入出力インタフェース
14    :通信インタフェース
30    :パラメトリックスピーカ
32    :駆動部
34    :通信インタフェース
35    :超音波振動子
35a   :放射面
36    :方向変更機構
36a   :支持点
50    :センサ

Claims (9)

  1.  指向性音波の放射音圧及び放射角が可変な指向性スピーカを制御するオーディオコントローラであって、
     前記指向性スピーカが使用される使用空間の3次元レイアウト、前記使用空間における前記指向性スピーカの位置、前記使用空間におけるリスナの位置、及び、前記リスナに知覚させるべき目標音像方向の組合せに基づいて、前記指向性スピーカの放射音圧及び放射角の組合せを決定する手段を備える、
    オーディオコントローラ。
  2.  前記3次元レイアウトを特定する手段を備え、
     前記指向性スピーカの位置を特定する手段を備え、
     前記リスナの位置を特定する手段を備える、
    請求項1に記載のオーディオコントローラ。
  3.  前記決定する手段は、
      前記指向性スピーカの位置から音像の位置までの指向性音波の伝搬距離を計算し、
      前記伝搬距離に基づいて、前記指向性スピーカの放射音圧を決定する、
    請求項1又は請求項2に記載のオーディオコントローラ。
  4.  前記指向性スピーカの位置、前記リスナの位置、及び、前記目標音像方向の組合せに基づいて、指向性音波を反射させる反射位置を選択する手段を備える、
    請求項1~請求項3の何れかに記載のオーディオコントローラ。
  5.  前記決定された放射角に応じて、前記指向性スピーカの放射面の方向を変更する手段を備える、
    請求項1~請求項4の何れかに記載のオーディオコントローラ。
  6.  前記決定された放射角に応じて、前記指向性スピーカの位置を変更する手段を備える、
    請求項1~請求項5の何れかに記載のオーディオコントローラ。
  7.  コンピュータを、請求項1~請求項6の何れかに記載の各手段として機能させるためのプログラム。
  8.  指向性音波の放射音圧及び放射角が可変な指向性スピーカであって、
     前記指向性スピーカが使用される使用空間の3次元レイアウト、前記使用空間における前記指向性スピーカの位置、前記使用空間におけるリスナの位置、及び、前記リスナに知覚させるべき目標音像方向の組合せに応じた放射音圧及び放射角で、指向性音波を放射することにより、可聴音を再生する、
    指向性スピーカ。
  9.  指向性音波の放射音圧及び放射角が可変な指向性スピーカの制御方法であって、
     指向性スピーカが使用される使用空間の3次元レイアウト、使用空間における指向性スピーカの位置、使用空間におけるリスナの位置、及び、リスナに知覚させるべき目標音像方向の組合せに基づいて、指向性スピーカの放射音圧及び放射角の組合せを決定するステップを備える、
    方法。
PCT/JP2020/022784 2019-07-01 2020-06-10 オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法 WO2021002162A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019123016A JP2022123157A (ja) 2019-07-01 2019-07-01 オーディオコントローラ及びプログラム
JP2019-123016 2019-07-01

Publications (1)

Publication Number Publication Date
WO2021002162A1 true WO2021002162A1 (ja) 2021-01-07

Family

ID=74100566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022784 WO2021002162A1 (ja) 2019-07-01 2020-06-10 オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法

Country Status (2)

Country Link
JP (1) JP2022123157A (ja)
WO (1) WO2021002162A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154610A1 (ja) * 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2019069743A1 (ja) * 2017-10-03 2019-04-11 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、超音波スピーカ、及び、オーディオシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154610A1 (ja) * 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2019069743A1 (ja) * 2017-10-03 2019-04-11 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、超音波スピーカ、及び、オーディオシステム

Also Published As

Publication number Publication date
JP2022123157A (ja) 2022-08-24

Similar Documents

Publication Publication Date Title
JP6906027B2 (ja) 触覚フィードバックを調整するための方法および装置
JP6760960B2 (ja) 空間内で少なくとも物体の位置を検出する方法およびシステム
US10796540B2 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method
JP2006258442A (ja) 位置検出システム、スピーカシステムおよびユーザ端末装置
US10746872B2 (en) System of tracking acoustic signal receivers
WO2019069743A1 (ja) オーディオコントローラ、超音波スピーカ、及び、オーディオシステム
JP6329679B1 (ja) オーディオコントローラ、超音波スピーカ、オーディオシステム、及びプログラム
WO2021002162A1 (ja) オーディオコントローラ、プログラム、指向性スピーカ、及び、指向性スピーカの制御方法
JPWO2021002191A1 (ja) オーディオコントローラ、オーディオシステム、プログラム、及び、複数の指向性スピーカの制御方法
JP2021177607A (ja) オーディオコントローラ、プログラム、及び、パラメトリックスピーカの制御方法
JP4484570B2 (ja) 音響情報処理装置、音響情報提供方法
JP7095863B2 (ja) 音響システム、音響処理方法、及びプログラム
JP2021061497A (ja) オーディオコントローラ、指向性スピーカの制御方法、プログラム
JP7082829B2 (ja) 制御装置及びプログラム
JP6330098B1 (ja) オーディオコントローラ、プログラム、超音波スピーカ、音源装置
WO2021024692A1 (ja) オーディオコントローラ、オーディオシステム、プログラム、及び、オーディオ制御方法
JP2021072488A (ja) オーディオコントローラおよびオーディオ制御プログラム
JP2021145236A (ja) オーディオコントローラおよびオーディオ制御プログラム
JP2021175145A (ja) パラメトリックスピーカのコントローラ、パラメトリックスピーカの制御方法、およびプログラム
JP2005244578A (ja) 超音波スピーカを備えたサウンドシステム及びその制御方法
WO2021241421A1 (ja) 音処理方法、音処理装置、および、音処理プログラム
JP7095857B2 (ja) 音響システム、音響処理方法、及びプログラム
JP2021076952A (ja) 超音波コントローラおよび制御プログラム
JP2019068396A (ja) オーディオコントローラ、プログラム、超音波スピーカ、音源装置
WO2022051076A1 (en) Dynamically changing audio properties

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20834758

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20834758

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP