JP2007274061A - Sound image localizer and av system - Google Patents
Sound image localizer and av system Download PDFInfo
- Publication number
- JP2007274061A JP2007274061A JP2006093943A JP2006093943A JP2007274061A JP 2007274061 A JP2007274061 A JP 2007274061A JP 2006093943 A JP2006093943 A JP 2006093943A JP 2006093943 A JP2006093943 A JP 2006093943A JP 2007274061 A JP2007274061 A JP 2007274061A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- video
- speaker
- sound image
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Stereophonic System (AREA)
Abstract
Description
この発明は、スピーカアレイを用いて、映像、特に映像内の物体と同期した音声を形成する装置に関する。 The present invention relates to an apparatus that uses a speaker array to form a video, particularly a sound synchronized with an object in the video.
従来より、映像に付随した音声を、映像に合わせて広がりを持たせて再生するために、2チャンネルステレオや5.1チャンネルサラウンド等のオーディオシステムが実用化されている。 2. Description of the Related Art Conventionally, audio systems such as 2-channel stereo and 5.1-channel surround have been put to practical use in order to reproduce audio accompanying a video with a spread according to the video.
一方、近年のパソコンゲームやテレビゲーム機では、より正確に、映像に登場する物体(キャラクタやオブジェクト)の位置に、その物体が発する音声の音像を定位させる技術が提案されている(例えば特許文献1)。特許文献1の装置では、左右の耳のそれぞれ上下に配置されるスピーカを有するステレオヘッドホンを用い、音像を上下方向に定位させることができるようにしている。
しかしながら、特許文献1の装置は、従来のステレオヘッドホンに比べて、音像を上下方向に定位させることができるが、音像に遠近感や奥行き感を持たせることは不可能であった。また、特許文献1の装置は、ヘッドホンを用いることが必須であり、室内に設置したスピーカセットを用いて音像を定位させることができなかった。
However, the device of
そこで、この発明は、スピーカアレイを用いて、映像、特に映像内の物体の移動と同期した音声を立体的に定位させる装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide a device that uses a speaker array to stereoscopically localize a video, particularly a sound synchronized with the movement of an object in the video.
本発明は、上述の課題を解決するための手段を以下のように構成している。 In the present invention, means for solving the above-described problems are configured as follows.
(1)本発明は、
映像に含まれる物体に関連付けられた音声信号、および、前記物体の前記映像内での位置情報を入力する入力部と、
アレイ状に配列された複数のスピーカを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカに入力するタイミングを制御する定位制御部と、を備えた音像定位装置であることを特徴とする。
(1) The present invention
An audio signal associated with an object included in the video, and an input unit for inputting positional information of the object in the video;
A control unit for controlling a speaker array having a plurality of speakers arranged in an array, wherein a timing at which the audio signal is input to each speaker so as to form an audio beam focused on the position indicated by the position information A sound image localization apparatus including a localization control unit to control.
本発明では、入力部が前記物体の前記映像内での位置情報を入力しており、アレイ状に配置したスピーカに音声を出力している。また、前記位置情報が示す位置と前記アレイスピーカの配置位置に基づき前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカに入力するタイミングを制御する。これにより、スピーカアレイから音声を出力すると、前記仮想音源から広がってスピーカアレイに到達した音声を再現することができ、前記物体の前記映像内での位置情報が示す位置に、音像定位させることができる。 In the present invention, the input unit inputs position information of the object in the video, and outputs sound to speakers arranged in an array. In addition, the timing at which the audio signal is input to each speaker is controlled so that the sound beam is focused on the position indicated by the position information based on the position indicated by the position information and the arrangement position of the array speaker. Thus, when sound is output from the speaker array, the sound that has spread from the virtual sound source and reaches the speaker array can be reproduced, and the sound image can be localized at the position indicated by the position information of the object in the video. it can.
また、本発明によれば、この音像定位は、天井や壁といった機械的な要素を必要とすることなく任意の位置に設定することが可能となる。さらに、この装置によれば、ドップラー効果等の効果音を模擬的に作り出すのではなく、音像定位の結果として、ドップラー効果を正確に再現できる。 Further, according to the present invention, the sound image localization can be set at an arbitrary position without requiring mechanical elements such as a ceiling and a wall. Furthermore, according to this apparatus, the Doppler effect can be accurately reproduced as a result of the sound image localization, instead of simulating the sound effect such as the Doppler effect.
なお、音声信号を入力するタイミングの制御は、例えば、各スピーカへの出力について、物体の映像内での位置情報から仮想音源の位置を計算し、この仮想音源の位置から各スピーカアレイまでの距離を音速で除算したディレイ量で、音声信号を遅延させて出力することにより実現できる。
また、本発明では、「入力部」を通って音声信号の入力、位置情報の入力が信号処理部により処理されれば、これらの入力は、外部記憶部(ハードディスク、光磁気ディスク等)に格納されているものでも良く、また通信回線を通じて提供されるストリーミングデータでも良い。またこの「入力部」は、例えば一時記憶装置(メモリ)とすることができる。
The control of the timing of inputting the audio signal is performed by, for example, calculating the position of the virtual sound source from the position information in the video of the object for the output to each speaker, and the distance from the position of the virtual sound source to each speaker array. This can be realized by delaying and outputting the audio signal by a delay amount obtained by dividing by the sound speed.
In the present invention, if an input of an audio signal and an input of position information are processed by the signal processing unit through the “input unit”, these inputs are stored in an external storage unit (hard disk, magneto-optical disk, etc.). Or streaming data provided through a communication line. The “input unit” may be a temporary storage device (memory), for example.
(2)本発明は、
前記定位制御部は、さらに、前記音声信号を各スピーカに入力するレベルを制御することを特徴とする。
(2) The present invention
The localization control unit further controls a level at which the audio signal is input to each speaker.
本発明は、前記音声信号を各スピーカに入力するレベルを制御しているので、より正確に音像を定位させることができる。 Since the present invention controls the level at which the audio signal is input to each speaker, the sound image can be localized more accurately.
(3)本発明は、
前記位置情報は、前記映像を表示する表示画面の奥行き方向の距離情報を含むことを特徴とする。
(3) The present invention
The position information includes distance information in a depth direction of a display screen that displays the video.
本発明は、前記位置情報が奥行き方向の距離情報を含むので、従来では得られなかった奥行き間がある音像定位が可能となる。また、前述したドップラー効果による周波数の変調は、奥行き方向に物体が移動した場合の方が強くなるから、音像定位が立体的になる。 In the present invention, since the position information includes distance information in the depth direction, it is possible to perform sound image localization with a depth that has not been obtained conventionally. Further, since the frequency modulation by the Doppler effect described above becomes stronger when the object moves in the depth direction, the sound image localization becomes three-dimensional.
(4)本発明は、
前記入力部は、映像に含まれる複数の物体に各々関連付けられた音声信号、および前記物体の前記映像内での位置情報を入力し、
前記定位制御部は、前記複数の物体に対して前記位置情報が示す位置に基づき前記音声ビームを各々生成し、これらを合成することを特徴とする。
(4) The present invention
The input unit inputs an audio signal associated with each of a plurality of objects included in a video, and position information of the object in the video,
The localization control unit generates the sound beams based on the positions indicated by the position information with respect to the plurality of objects, and combines them.
本発明は、複数の物体の前記映像内での位置情報に基づき、音声ビームを生成するので、これらの音声ビームの合成した出力をアレイスピーカから放音すれば、複数の物体の仮想音源の位置に定位した音声を同時に放音することができる。これにより、これらの物体に関連付けられた音声が定位している仮想音源の位置に相対的な違いが生じるから、音像定位がより立体的になる。 Since the present invention generates an audio beam based on position information of a plurality of objects in the video, if the synthesized output of these audio beams is emitted from the array speaker, the positions of the virtual sound sources of the plurality of objects It is possible to simultaneously emit sound that has been localized. Thereby, since a relative difference occurs in the position of the virtual sound source where the sound associated with these objects is localized, the sound image localization becomes more three-dimensional.
(5)本発明は、
物体を含む映像信号を出力すると共に、前記物体の前記映像信号内での位置情報を出力する映像出力部と、前記映像信号に同期して、前記物体に関連付けられた音声信号を出力する音声出力部と、
前記映像信号を入力して、映像を表示する表示部と、
前記表示部と並べて設置され、アレイ状に配列された複数のスピーカを有するスピーカアレイと、(1)〜(4)のいずれかに記載の音像定位装置と、を備えたコンテンツ再生装置であることを特徴とする。
(5) The present invention
A video output unit that outputs a video signal including an object and outputs position information of the object in the video signal, and an audio output that outputs an audio signal associated with the object in synchronization with the video signal And
A display unit for inputting the video signal and displaying the video;
A content reproduction device comprising: a speaker array having a plurality of speakers arranged side by side with the display unit; and the sound image localization device according to any one of (1) to (4). It is characterized by.
本発明のコンテンツ再生装置は、映像出力部が出力する映像信号に同期して、音声出力部が前記物体に関連付けられた音声信号を、映像上の位置に合わせて、前記位置情報の位置に焦点を結ぶ音声ビームをスピーカアレイに出力するから、映像上の位置に合わせて、音像定位させることができる。 In the content playback apparatus of the present invention, the audio output unit focuses the audio signal associated with the object on the position of the position information in accordance with the position on the video in synchronization with the video signal output by the video output unit. Is output to the speaker array, so that the sound image can be localized according to the position on the video.
本発明によれば、映像内の物体の位置に基づいた正確な音像定位が可能となる。また、この音像定位は、天井や壁といった機械的な要素を必要とすることなく任意の位置に設定可能となる。また、この装置によれば、ドップラー効果等の効果音を模擬的に作り出すのではなく、前記ディレイ設定のためのパラメータ、音量の減衰を設定するためのパラメータ等に基づく正確な音像定位の結果として、ドップラー効果を正確に再現できる。 According to the present invention, accurate sound image localization based on the position of an object in a video can be performed. The sound image localization can be set at an arbitrary position without requiring mechanical elements such as a ceiling and a wall. Also, according to this device, as a result of accurate sound image localization based on the parameters for setting the delay, the parameters for setting the attenuation of the volume, and the like, instead of simulating the sound effect such as the Doppler effect. The Doppler effect can be accurately reproduced.
<第1の実施形態のAVシステムの概略の説明>
図1を用いて、本実施形態の音像定位装置10を含むAVシステム1についての概略を説明する。図1は、本実施形態であるAVシステム1の外観と構成を表す図である。図1(A)はAVシステム1の正面図、図1(B)は、AVシステム1の平面図である。
このAVシステム1は、コンテンツ再生装置2、音像定位装置10、複数のスピーカSPi(i=1〜N)からなるスピーカアレイ11、表示器12を備える。スピーカアレイ11および表示器12の正面から視聴者100が視聴している。
<Overview of AV System of First Embodiment>
An outline of the
The
コンテンツ再生装置2は、映像信号を表示器12に出力すると共に、位置情報を音像定位装置10に出力する。映像と音声を同時に出力するコンテンツ再生装置2としては、例えば、ゲームプログラムや映画等の映像、音声を含むコンテンツを出力するPCやTV等、遠隔会議装置等が挙げられる。音像定位装置10は、表示器12に映し出される物体105A、105Bの位置から算出した仮想音源位置を焦点とする音声ビームをスピーカアレイ11に出力する。スピーカアレイ11は、これらの仮想音源から発せられ、スピーカアレイ11に到達した音声を再現する。これにより、スピーカアレイ11は、これらの仮想音源の音像を定位させる。表示器12は、1または複数の物体105A、105B等を含む画像104を表示する。
The
<第1の実施形態のAVシステムの構成の説明>
図1、図2を用いて、第1の実施形態のAVシステムについて説明する。図1は、前述の通り、このAVシステムの外観と構成を表す図である。図2は、図1に示すAVシステム1に含まれる音像定位装置10の内部構成図である。
<Description of Configuration of AV System of First Embodiment>
The AV system according to the first embodiment will be described with reference to FIGS. FIG. 1 is a diagram showing the appearance and configuration of this AV system as described above. FIG. 2 is an internal configuration diagram of the sound
まず、図1を用いて、AVシステム1の外観について説明する。図1(A)に示すように、このAVシステム1はコンテンツ再生装置2、音像定位装置10、スピーカアレイ11、表示器12を備える。スピーカアレイ11は、複数のスピーカSPi(i=1〜N)を備えており、音像定位装置10は、スピーカSPi(i=1〜N)のそれぞれに対応した音声出力系統を有している。
表示器12は、例えば、プラズマディスプレイ、液晶ディスプレイ等で構成されており、コンテンツ再生装置より出力された映像、特に動画を表示する。
なお、図1では、音像定位装置10は、スピーカアレイ11や表示器12とは別個の筐体として構成しているが、スピーカアレイ11や表示器12と同一の音像定位装置筐体に入るものとして構成してもよい。
First, the external appearance of the
The
In FIG. 1, the sound
次に、図1(B)の平面図を用いて、スピーカアレイ11のそれぞれのスピーカSPi(i=1〜N)の音声出力系統の制御方法の概要について説明する。図1(A)で示した物体105A、105Bは、コンテンツ再生装置2より出力された画像104に含まれるものであり、コンテンツ再生装置2からはこれら物体の位置の情報(以下、「位置情報」という。)が音像定位装置10に出力される。この物体105A、105Bの位置情報を基に音像定位装置10では、それぞれ仮想音源101A、101Bを設定する。そして、音像定位装置10は、スピーカアレイ11から視聴者100が聴取する音声(実際の波面103で図示)が、図1(B)に示すように、あたかも表示器12の奥側に位置する仮想音源101A、101Bから音声が出力されるように(仮想の波面102で図示)、音像を定位させる。この音像定位を実現するため、音像定位装置10は、スピーカアレイ11のスピーカSPi(i=1〜N)のそれぞれに入力する音声信号のタイミングを制御する。この音声信号を入力するタイミングの制御は、時間遅れ(位相遅れ)特性(以下「ディレイ」という。)、音量、周波数特性を調整して、これらのスピーカSPiから音声103を出力する。これにより、仮想音源101A、101Bの位置に音像を定位させることができる。
Next, an outline of a method for controlling the audio output system of each speaker SPi (i = 1 to N) of the
次に図2を用いて音像定位装置10の内部構成について説明する。音像定位装置10は、入力部4と、パラメータ算出部5と、信号処理部6と、D/A変換器DACi(i=1〜N)と、アンプAMPi(i=1〜N)と、これらの動作を統括制御する制御部7を備えている。また、音像定位装置10の外部に設けたコンテンツ再生装置2には、外部プログラム111と外部記憶部31と、外部プログラム111を動作させる図示しないCPUを備えている。
Next, the internal configuration of the sound
入力部4は、各信号を入力するインタフェースおよび入力した信号を格納するバッファを有している。入力部4には、インターネット、コンテンツ再生装置などが接続されている。入力部4は、これらから、音声信号41、位置情報42を入力し、バッファ内にこれらのデータを一時的に格納する。
The
音声信号41は、外部記憶部31、外部プログラム111、インターネットを通じて入力された音声信号であって、図1(A)に示すような画像104と同期して出力されるディジタル音声信号のデータである。また、この音声信号41は、図1(A)に示すような画像104内の物体105A、105Bごとに入力される。
位置情報42は、図1(A)に示すようなコンテンツ再生装置2によって出力される位置情報である。
The
The
図2のパラメータ算出部5は、計算部で構成する。パラメータ算出部5は、入力部4に入力された位置情報42に基づいて、図1(A)で示したような仮想音源101A、101Bの位置を設定し、ディレイパラメータ51と、音量調整パラメータ52と、高域減衰パラメータ53を計算し、入力部4に蓄えるか、または信号処理部6にこれらのパラメータを出力する。
The
図2のパラメータ算出部5内で計算するディレイパラメータ51は、物体ごと、スピーカSPiごとに設定する。図1(B)に示すような物体105Aについて、図1(A)に示すような仮想音源101AからスピーカSPiそれぞれまでの距離を計算し、この距離に基づく音声の伝達の遅延を計算して、スピーカSPiごとにディレイを設定する。図1(A)の例であれば、画像104に登場する物体105Bについても、図1(B)の仮想音源101BからスピーカSPiそれぞれまでの距離を計算して行なう。
音量調整パラメータ52は、この音声の伝達距離により音量が減少する分を考慮して、スピーカSPiごとに音量の減少量を計算する。また、物体すべてについてこの減少量を計算する。
高域減衰パラメータ53は、仮想音源101AとスピーカSPiとの距離、またはスピーカアレイ11の並びと仮想音源101Aとの角度に基づいて高域を減衰させるパラメータであり、物体ごと、スピーカSPiごとに設定する。
The
The
The high
なお、ディレイパラメータ51、音量調整パラメータ52、高域減衰パラメータ53は、それぞれの物体の移動に伴い、仮想音源とスピーカSPi(i=1〜N)との距離が変動するので、パラメータ算出部5は、各パラメータの値を更新する。
Note that the
信号処理部6は、音声信号41のディジタル音声信号データを加工して、スピーカSPiごとに出力するデータを計算する。信号処理部6には、音声信号が映像信号と同期して入力される。信号処理部6は、物体105A、105Bごとに入力した音声信号41を、前述したパラメータ算出部5のディレイパラメータ51、音量調整パラメータ52、高域減衰パラメータ53それぞれに基づいて、スピーカSPiの音声出力系統に送るディジタル音声信号のデータを生成する。信号処理部6は、ディレイパラメータ51に基づくディレイを行なうディジタルフィルタDFi(i=1〜N)(後述、図3参照。)と音量調整パラメータ52、高域減衰パラメータ53に基づくゲイン調整Gi(i=1〜N)(後述、図3参照。)を備える。また、このようにして生成したデータは、物体が複数ある場合には、後述の図4で説明するように、物体105A、105Bごとのディジタル音声信号のデータを加算して出力する。
The
D/A変換器DACi(i=1〜N)は、D/A変換用ICチップで構成でき、信号処理部6で生成したディジタル音声信号データをアナログ音声信号に変換し、それぞれ、アンプAMPi(i=1〜N)に出力する。
アンプAMPi(i=1〜N)は、例えば、FET等の増幅段等で構成できる。アンプAMPi(i=1〜N)は、外付けのAVアンプでも良い。D/A変換器DACiで出力したアナログ音声信号を増幅してスピーカSPiに送る。
スピーカSPi(i=1〜N)は、スピーカアレイまたは、3つ以上のスピーカを並べたユニットが必要であり、それぞれ独立の音声信号を入力する。そして、アンプAMPi(i=1〜N)で増幅したアナログ音声信号を音声に変換する。
制御部7は、例えばCPU等で構成され、音像定位装置10の内部構成のそれぞれの部分を制御する。
The D / A converter DACi (i = 1 to N) can be configured by a D / A conversion IC chip, converts the digital audio signal data generated by the
The amplifier AMPi (i = 1 to N) can be configured by an amplification stage such as an FET, for example. The amplifier AMPi (i = 1 to N) may be an external AV amplifier. The analog audio signal output from the D / A converter DACi is amplified and sent to the speaker SPi.
The speakers SPi (i = 1 to N) require a speaker array or a unit in which three or more speakers are arranged, and input independent audio signals. Then, the analog audio signal amplified by the amplifier AMPi (i = 1 to N) is converted into audio.
The
外部プログラム111は、コンテンツ再生装置2内で動作する。外部プログラム111を実行すると、この外部プログラム111または別のプログラムによるコンテンツの再生と同時に、音声信号41を外部記憶部31から読み出して入力部4に出力し、位置情報42を計算して入力部4に出力する。
The
外部記憶部31は、ハードディスク、光ディスク装置で構成し、入力部4に音声信号41を入力する。
The
ここで、図2で示した構成のうち、外部プログラム111、音声信号41、位置情報42について、AVシステム1の用途別に2つの例を挙げて具体的に説明する。
《ゲームプログラムをPCで実行させる場合》
コンテンツ再生装置2は、例えば、PCに接続するサウンドボードで構成でき、このPCでゲームプログラムを実行させる場合がある。ゲームプログラムは、図2に示す外部プログラム111に相当し、ゲームプログラムはその内部で計算した映像上の物体(キャラクタやオブジェクトを含む)の位置情報42を入力部4に出力し、入力部4は、位置情報42を一時的に格納する。またゲームプログラムからは音声信号41A、42Bが、図1(A)に示すような画像104内の物体105A、105Bに対応する効果音の音声として出力される。この音声信号41は、ゲームプログラムの実行時に、効果音を発する命令を受けて、入力部4に格納する。
Here, in the configuration shown in FIG. 2, the
<< When running a game program on a PC >>
The
《PC上のコンテンツ再生プログラムでディジタルコンテンツを再生する場合》
コンテンツ再生装置2は、上述の通り例えば、PC(パーソナルコンピュータ)に接続するサウンドボードで構成でき、PC上のコンテンツ再生プログラムで画像と音声を再生する場合がある。このコンテンツ再生プログラムでディジタルコンテンツを再生する場合であれば、台詞や物体の音声を音声信号41として入力する。コンテンツ再生プログラムは、外部プログラム111に相当する。また、コンテンツ再生プログラムからは、音声信号41に対応する画像に対応して、時系列的に物体の動作、移動、停止に同期した位置情報42が入力部4に入力される。
<< When playing back digital contents with a content playback program on a PC >>
As described above, the
<信号処理部の動作説明>
次に図3を用いて、信号処理部6の動作をさらに詳細に説明する。図3は、本実施形態の音像定位装置の内部のパラメータ算出部5、信号処理部6の構成図であり、図1(B)の物体105Aに対応する仮想音源101Aについて示している。また、図2で示したD/A変換器DACi(i=1〜N)、アンプAMPi(i=1〜N)は、省略しており、図1、図2で示したスピーカの出力系統の数Nは、図3では8個としている。ただし、本実施形態のAVシステム1ではスピーカ出力系統の数Nは、8個に限らず実行できる。
図3に示すように、信号処理部6には、複数のディジタルフィルタDFi(i=1〜8)と、ゲイン調整Gi(i=1〜8)を設けている。
<Description of operation of signal processor>
Next, the operation of the
As shown in FIG. 3, the
ディジタルフィルタDFi(i=1〜8)は、図1(A)の仮想音源101A(図3にも図示。)からスピーカSPi(i=1〜8)までのそれぞれの距離Li([m]、i=1〜8)による伝播時間に相当する遅延時間を設定し、それぞれのディジタルフィルタDFiに入力される音声信号に対してディレイをかけて出力する。このディレイの算出はパラメータ算出部5で行なうが、この算出は、Liを音速で除算することにより行なう。前述の通り、映像信号と、信号処理部6に入力される音声信号を同期させているので、音声信号に対してディレイをかけて出力すると、映像に登場する物体の奥行きに応じて音声信号の到達時間に差がでて、音声に奥行き感を出すことができる。
The digital filter DFi (i = 1 to 8) is a distance Li ([m], each distance from the
物体105Aが映像内で移動した場合、図2のパラメータ算出部5は、その物体105Aの位置から逐次的に仮想音源101Aの位置を決定しているから、結果的に仮想音源101Aの位置が変動し、これにより距離Liは、時間的に変動することになる。したがって時間と共にディレイが変動することになれば、音の粗密が変化するから、音像定位の結果として、ドップラー効果を正確に再現できる。
また、ゲイン調整Gi(i=1〜8)は、パラメータ算出部5が音量調整パラメータ52を計算したものを信号処理部6が設定する。音量は、距離Li(i=1〜8)の2乗に反比例するから、基準音量を定めて、
基準音量×1[m]/距離Li2[m]
により算出する。さらに、図2の高域減衰パラメータ53により、高域を減衰させる周波数特性フィルタを畳み込み演算する。前述の通り、パラメータ算出部5では、高域減衰パラメータ53を計算しており、高域減衰パラメータ53は、仮想音源101AとスピーカSPiとの距離Li、またはスピーカアレイ11の並びと仮想音源101Aとの角度に基づいて高域を減衰させるパラメータである。高域減衰パラメータ53で算出する高域の減衰量は、例えば、スピーカSPiの並んでいる面SFと、各スピーカSPiから見た仮想音源101Aの方向との間の角度αi(i=1〜8)を用いて、周波数のフラットな部分に対して、
(cos(αi)×1[m]/距離Li2[m])倍
により算出する。
When the
In addition, the gain adjustment Gi (i = 1 to 8) is set by the
Reference volume x 1 [m] / distance Li 2 [m]
Calculated by Further, the frequency characteristic filter that attenuates the high frequency is convolved with the high
It is calculated by (cos (αi) × 1 [m] / distance Li 2 [m]) times.
なお、スピーカアレイ11と、表示器12は、必ずしも、図1で示したように一体である必要はない。
Note that the
また、本実施形態の音像定位装置10を含むAVシステム1の応用として、スピーカアレイ11を設置する位置を音像定位装置10の表示器12より前方に設置する場合には、さらに、その距離に対応して、前記入力部4は、視聴者の聴取方向のスピーカと表示器との間の距離の入力を受け付ける構成も可能である。例えば、スピーカと表示器12の聴取方向の距離を音像定位装置10に入力して、距離Li(i=1〜N)に加える設定を制御部7に指示を与える図示しない操作部から行なう。この場合、前記パラメータ計算部5は、当該距離分のディレイを前記仮想音源の位置にあわせてスケールを調整したディレイ量を音源を前記仮想音源の位置と前記各スピーカとの距離分のディレイに付加して、前記ディレイ設定のためのパラメータを算出する。
表示器12と、スピーカSPiの距離を考慮して、ディレイをかけるので、表示器12とスピーカSPiの設置の自由度を高めることができる。例えば、表示器12に写っている物体105Aが大きく写っている場合には、物体の前記仮想音源の位置は近くなり、小さく写っている場合には、前記仮想音源の位置は遠くなるが、その遠近感は、視聴者の聴取方向のスピーカと表示器との間の距離のスケールと必ずしも一致しない場合がある。このような場合に、視聴者の聴取方向のスピーカと表示器との間の距離を音速で除算したディレイを付加すれば、表示装置に対して奥行き方向の音像を再現することができる。
Further, as an application of the
Since a delay is applied in consideration of the distance between the
<物体が複数登場する場合のパラメータ算出部、信号処理部の動作の説明>
次に、図4を用いて、物体が映像に複数登場する場合のパラメータ算出部5、信号処理部6の動作について説明する。図4は、図1で示した物体105A、105Bをそれぞれ登場させる場合の、本実施形態の音像定位装置の内部のパラメータ算出部5、信号処理部6の構成図を示す。
図4に示すように、右側には、図3と同様、物体105Aに対する仮想音源101Aと、音声信号41Aと、この音声信号41Aを加工して、この仮想音源101Aを定位させるのに必要な、ディジタルフィルタDFAi(i=1〜8)、ゲイン調整GAi(i=1〜8)を備えている。
<Description of operation of parameter calculation unit and signal processing unit when multiple objects appear>
Next, operations of the
As shown in FIG. 4, on the right side, similar to FIG. 3, the
また、図4に示すように、物体105Bに対応して、図3で示した構成に対して、物体105Bに対する仮想音源101Bと、音声信号41Bと、この音声信号41Bを加工して、この仮想音源101Bを定位させるのに必要なディジタルフィルタDFBi(i=1〜8)、ゲイン調整GBi(i=1〜8)をさらに備えている。
なお、図4で示す符号は、物体105A、105Bの「A」、「B」に対応して、ディジタルフィルタDFiに対してDFAi、DFBi、ゲイン調整Giに対応して、GAi、GBiを付している。
図4に示す構成では、図3で説明したものと同様にして、これら仮想音源101A、101Bの定位に必要なディジタル音声出力の計算をそれぞれスピーカSPiごとに、DFAi、DFBi、GAi、GBiにより行なっている。さらに、加算部ADDi(i=1〜8)は、これら計算したディジタル音声出力を互いに加えている。これにより、物体105A、105Bが独立に移動した場合にも、それぞれ独立に音像定位させることができる。
Also, as shown in FIG. 4, corresponding to the
The codes shown in FIG. 4 correspond to “A” and “B” of the
In the configuration shown in FIG. 4, in the same manner as described with reference to FIG. 3, the calculation of the digital audio output necessary for localization of the
なお、物体(105A、105Bを含む。)を3個以上登場させる場合には、図3で示した構成を3つ以上設けて、その出力信号を加算部ADDiにより加算する。 When three or more objects (including 105A and 105B) appear, three or more configurations shown in FIG. 3 are provided, and the output signals are added by the adder ADDi.
<物体が移動する場合のパラメータ算出部、信号処理部の動作フロー>
次に図5を用いて、物体が移動する場合のパラメータ算出部5、信号処理部6の動作フローを説明する。図5はこのフローを表す図である。
図5のS1では、図1(A)、図3、図4で示したような仮想音源101A、101Bの位置が変動したか判断する。この位置が変動した場合には、YとなりS2に進む。変動しない場合には、Nとなり現状のディレイ等のパラメータ51、52、53を維持する。
S1における判断では、仮想音源101A、101Bの座標の変動は、図2で示したように、パラメータ算出部5で設定するが、この変動は、本来的には位置情報42の変動に基づいている。
<Operation flow of parameter calculation unit and signal processing unit when object moves>
Next, the operation flow of the
In S1 of FIG. 5, it is determined whether the positions of the
In the determination in S1, the change in the coordinates of the
図5のS2では、図3、図4で示したようにして、仮想音源101AとスピーカSPi(i=1〜N)との距離Li(i=1〜N)(仮想音源101Bも同様。)を再計算する。
S3では、図3で説明したようにして、求めた距離Liから、パラメータ算出部5は、ディレイパラメータ51、音量調整パラメータ52、高域減衰パラメータ53等のパラメータを算出する。
S4では、S3で求めた各パラメータを再設定する。
In S2 of FIG. 5, as shown in FIGS. 3 and 4, the distance Li (i = 1 to N) between the
In S3, the
In S4, each parameter obtained in S3 is reset.
以上、図5で示した動作フローにより、物体105A、105Bが移動する場合にも、その移動に基づいて、それぞれの音像を定位できる。
As described above, according to the operation flow shown in FIG. 5, even when the
<ディジタルフィルタの具体的な構成>
次に、図6を用いて、ディジタルフィルタDFi(i=1〜N)の具体的な構成を説明する。図6は、本実施形態の音像定位装置のディジタルフィルタの具体的な構成図である。図3、図4で示したディジタルフィルタDFiは、実際には、リングバッファ62上での書き込み、読み出しにより実現される。
<Specific configuration of digital filter>
Next, a specific configuration of the digital filter DFi (i = 1 to N) will be described with reference to FIG. FIG. 6 is a specific configuration diagram of the digital filter of the sound image localization apparatus of the present embodiment. The digital filter DFi shown in FIGS. 3 and 4 is actually realized by writing and reading on the
図6に示すように、リングバッファ62は、複数のデータ区画63に区分けされたメモリ上に設定したバッファである。このバッファはディジタル音声信号の入出力に対応できるよう高速で動作する必要がある。データ区画63には、それぞれ1つのサンプルデータを入出力する。
As shown in FIG. 6, the
図6のリングバッファ62へのサンプルデータの書き込みは、図2の入力部4に入力された音声信号を、書き込み位置64からデータ書き込み経路65に沿って、データ区画63を巡回してリング状にサンプルデータの書き込みを繰り返す。
The sample data is written into the
図6のリングバッファ62からのサンプルデータの読み込みは、読み取り位置TAPi(i=1〜N)を設けて、リングバッファ62上に書き込まれたサンプルデータをそれぞれ読み出すことにより行なう。この読み取り位置TAPiの読み出し経路66は、データ書き込み経路65と同じ方向である。読み取り位置TAPiで読み出したサンプルデータは、図3で示したようなゲイン調整Gi(i=1〜N)に送られる。
Reading of the sample data from the
図6の読み取り位置TAPiでの読み出しは、それぞれ、書き込み位置64に対して所定のディレイ量で読み取り位置TAPiを遅延させて読み出しを行なう。このディレイの量は、前述の図2、図3で説明したようにパラメータ算出部5で算出したディレイパラメータ51の値である。このディレイの量は、物体105Aの位置の変動によって変動する。即ち、図1、図2で説明したように物体105Aの位置が変動すれば、図5のS1で説明したように、パラメータ算出部5により仮想音源101Aの位置を変動させることになる。そして、この移動は一瞬で移動するのではなく、ある速度をもって移動することになるから、パラメータ算出部5で設定するディレイパラメータ51は、刻々と変動することになる。このディレイパラメータ51の変動により、物体105Aが静止している場合の通常のサンプリング速度よりも速い、または遅い速度で読み取り位置TAPiを移動させることになる。そうすると、このような読み取り位置TAPiの移動速度の変動により、周波数の変調が起こり、ドップラー効果が生じる。このドップラー効果は、従来行なわれていたような後付けしたような効果音ではなく、音像定位を正確に行なった結果生じるものであり、速度の変化によっても周波数が変動するものである。
The reading at the reading position TAPi in FIG. 6 is performed by delaying the reading position TAPi with respect to the
なお、以上、図6で説明したような読み取り位置TAPiの移動速度を変動させるとD/A変換器DACiのサンプリング速度の整数倍とならず小数点が生じる。この場合は、さらに細かいサンプリング速度に対応するよう、ディジタルフィルタで補間することができる。また、この小数点を単純に四捨五入して出力することも可能である。 As described above, when the moving speed of the reading position TAPi as described with reference to FIG. 6 is changed, a decimal point is generated instead of an integral multiple of the sampling speed of the D / A converter DACi. In this case, interpolation can be performed with a digital filter so as to correspond to a finer sampling rate. It is also possible to output by rounding off the decimal point.
また、物体105A、105Bを3個以上登場させる場合には、図6で示したリングバッファを3つ以上設けて、その出力信号系統を加算部ADDiによりスピーカ毎に加算する。
When three or
<本実施形態の応用に係るAVシステムの説明>
次に、図7を用いて、本実施形態のAVシステム1の応用として、物体ごとに効果音を出力するものであって、予め定まったストーリ展開をもった映画等のディジタルコンテンツ、およびこのディジタルコンテンツに用いる音像定位装置について説明する。図7は、本実施形態の音像定位装置10の応用に係る音像定位装置10Aを表す図である。なお、図2で示したものと同じ部分は、同様の符号を付して重複する説明は省略する。
図7に示すように、音像定位装置10Aにおいて、DVD等に記録されたディジタルコンテンツは、図2で説明したようなパラメータ算出部5で逐一計算したディレイパラメータ51、音量調整パラメータ52、高域減衰パラメータ53がすでに計算されて、外部記憶部31に記録されている。外部プログラム111は、この記録されたデータを音像定位パラメータ45として入力することにより、図7に示すような音像定位装置10は、これらのパラメータを読み取ってスピーカSPi(i=1〜N)に出力する。これにより、図2で示したAVシステム1と同様に、コンテンツ再生システムより出力される音声信号を、映像に映し出される物体に対応する仮想音源の位置に音像定位させることができる。
<Description of AV system according to application of this embodiment>
Next, referring to FIG. 7, as an application of the
As shown in FIG. 7, in the sound
<他の発明>
また、以下の発明も考えられる。
(A)本発明は、
前記定位制御部は、
前記仮想音源の位置と前記各スピーカとの距離または角度に基づく高域の減衰を設定するためのパラメータを計算することを特徴とする。
<Other inventions>
The following inventions are also conceivable.
(A) The present invention
The localization control unit includes:
A parameter for setting a high-frequency attenuation based on a distance or angle between the position of the virtual sound source and each speaker is calculated.
このように構成すれば、物体の音像について高域の減衰を考慮しているので、物体間の遠近感をさらに正確に音声で表現できる。 With this configuration, since the high-frequency attenuation is taken into consideration for the sound image of the object, the perspective between the objects can be expressed more accurately by voice.
(B)本発明は、
入力部に格納された、映像に含まれる物体に関連付けられた音声信号、および、前記物体の前記映像内での位置情報を用いて、
アレイ状に配列された複数のスピーカを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカに入力するタイミングを制御する定位制御ステップをコンピュータに実行させる、音像定位プログラムである。
(B) The present invention
Using the audio signal associated with the object included in the video stored in the input unit, and the position information of the object in the video,
A control unit for controlling a speaker array having a plurality of speakers arranged in an array, wherein a timing at which the audio signal is input to each speaker so as to form an audio beam focused on the position indicated by the position information A sound image localization program that causes a computer to execute a localization control step to be controlled.
このように構成して本発明のプログラムを実行させると、(1)と同様の効果を奏する。 When configured as described above and executing the program of the present invention, the same effect as (1) is obtained.
(C)本発明は、
前記(B)に記載の音像定位プログラムに対して、
前記定位制御ステップは、さらに、
メモリに記憶された視聴者の聴取方向のスピーカと表示器との間の距離の入力のデータを用いて、
当該距離分のディレイを前記仮想音源の位置と前記各スピーカとの距離分のディレイに付加してディレイ設定のためのパラメータを算出し、これに基づいて、前記音声信号を各スピーカに入力するタイミングを制御する、
音像定位プログラムであることを特徴とする。
(C) The present invention
For the sound image localization program described in (B) above,
The localization control step further includes:
Using the input data of the distance between the speaker and the display in the listening direction stored in the memory,
Timing for inputting the audio signal to each speaker based on the delay setting parameter calculated by adding the delay for the distance to the delay for the distance between the virtual sound source position and each speaker. To control the
It is a sound image localization program.
本発明は、メモリに記憶された視聴者の聴取方向のスピーカと表示器との間の距離の入力のデータを用いて、当該距離分のディレイを前記仮想音源の位置と前記各スピーカとの距離分のディレイに付加してディレイ設定のためのパラメータを算出するので、このディレイ設定のためのパラメータに基づいて前記音声信号を各スピーカに入力するタイミングを制御するから、表示器とスピーカとの距離に差がある場合でも、(B)の効果を奏することができる。 The present invention uses the input data of the distance between the speaker in the listening direction of the viewer and the display stored in the memory, and delays the distance corresponding to the position of the virtual sound source and the distance between each speaker. Since the delay setting parameter is calculated in addition to the minute delay, the timing for inputting the audio signal to each speaker is controlled based on the delay setting parameter. Even if there is a difference between the two, the effect of (B) can be achieved.
1−AVシステム、 10−音像定位装置、 10A−音像定位装置
11−スピーカアレイ、 12−表示器
2−コンテンツ再生装置、 31−外部記憶部、 4−入力部
41−音声信号、 41A−音声信号、 41B−音声信号、 42−位置情報入力
45−音像定位パラメータ、 5−パラメータ算出部、 51−ディレイパラメータ
52−音量調整パラメータ、 53−高域減衰パラメータ
6−信号処理部、 62−リングバッファ
63−データ区画、 64−書き込み位置
65−データ書き込み経路、 66−読み出し経路、 7−制御部
100−視聴者、 101A−仮想音源、 101B−仮想音源
102−仮想の波面、 103−実際の波面、 104−画像、 105A−物体
105B−物体、 111−外部プログラム
SPi(i=1〜N)−スピーカ、 Gi(i=1〜N)−ゲイン調整
GAi(i=1〜N)−ゲイン調整、 GBi(i=1〜N)−ゲイン調整
AMPi(i=1〜N)−アンプ、 DFi(i=1〜N)−ディジタルフィルタ
DFAi(i=1〜N)−ディジタルフィルタ、
DFBi(i=1〜N)−ディジタルフィルタ
DACi(i=1〜N)−D/A変換器
TAPi(i=1〜N)−読み取り位置、 ADDi(i=1〜N)−加算部
1-AV system, 10-sound image localization device, 10A-sound image localization device 11-speaker array, 12-display 2-content playback device, 31-external storage unit, 4-input unit 41-audio signal, 41A-
DFBi (i = 1 to N) -digital filter DACi (i = 1 to N) -D / A converter TAPi (i = 1 to N) -reading position, ADDi (i = 1 to N) -adder
Claims (5)
アレイ状に配列された複数のスピーカを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置と前記アレイスピーカの配置位置に基づき設定された仮想音源位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカに入力するタイミングを制御する定位制御部と、を備えた音像定位装置。 An audio signal associated with an object included in the video, and an input unit for inputting positional information of the object in the video;
A control unit that controls a speaker array having a plurality of speakers arranged in an array, and a sound beam that focuses on a position indicated by the position information and a virtual sound source position set based on an arrangement position of the array speaker; A sound image localization apparatus comprising: a localization control unit that controls timing of inputting the audio signal to each speaker.
前記定位制御部は、前記複数の物体に対して前記位置情報が示す位置に基づき前記音声ビームを各々生成し、これらを合成する請求項1〜3のいずれかに記載の音像定位装置。 The input unit inputs an audio signal associated with each of a plurality of objects included in a video, and position information of the object in the video,
The sound image localization apparatus according to claim 1, wherein the localization control unit generates the sound beams based on positions indicated by the position information with respect to the plurality of objects, and synthesizes the sound beams.
前記映像信号を入力して、映像を表示する表示部と、
前記表示部と並べて設置され、アレイ状に配列された複数のスピーカを有するスピーカアレイと、
請求項1〜請求項4のいずれかに記載の音像定位装置と、
を備えたAVシステム。 A video output unit that outputs a video signal including an object and outputs position information of the object in the video signal, and an audio output that outputs an audio signal associated with the object in synchronization with the video signal And
A display unit for inputting the video signal and displaying the video;
A speaker array having a plurality of speakers installed side by side with the display unit and arranged in an array,
The sound image localization apparatus according to any one of claims 1 to 4,
AV system equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006093943A JP2007274061A (en) | 2006-03-30 | 2006-03-30 | Sound image localizer and av system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006093943A JP2007274061A (en) | 2006-03-30 | 2006-03-30 | Sound image localizer and av system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007274061A true JP2007274061A (en) | 2007-10-18 |
Family
ID=38676451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006093943A Pending JP2007274061A (en) | 2006-03-30 | 2006-03-30 | Sound image localizer and av system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007274061A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009116800A3 (en) * | 2008-03-20 | 2009-11-12 | Park Seung-Min | Display device with object-oriented stereo sound coordinate display |
JP2010045432A (en) * | 2008-08-08 | 2010-02-25 | Yamaha Corp | Speaker array device, data structure, and optical disk |
JP2010126348A (en) * | 2008-12-01 | 2010-06-10 | Mitsubishi Electric Corp | Elevator sound control device, elevator acoustic system, and elevator device |
KR101038101B1 (en) | 2010-03-23 | 2011-06-01 | 박승민 | Method of generating audio information for 2-dimension array speaker and recording medium for the same |
KR101038102B1 (en) | 2010-03-23 | 2011-06-01 | 박승민 | Method of generating audio information for 2-dimension array speaker and recording medium for the same |
KR101038099B1 (en) | 2010-03-23 | 2011-06-01 | 박승민 | Method of generating audio information for 2-dimension array speaker and recording medium for the same |
JP2011119867A (en) * | 2009-12-01 | 2011-06-16 | Sony Corp | Video and audio device |
JP2011124974A (en) * | 2009-12-09 | 2011-06-23 | Korea Electronics Telecommun | Sound field reproducing apparatus and method using loudspeaker arrays |
JP2011199707A (en) * | 2010-03-23 | 2011-10-06 | Sharp Corp | Audio data reproduction device, and audio data reproduction method |
CN102281425A (en) * | 2010-06-11 | 2011-12-14 | 华为终端有限公司 | Method and device for playing audio of far-end conference participants and remote video conference system |
WO2012029790A1 (en) * | 2010-09-02 | 2012-03-08 | シャープ株式会社 | Video presentation apparatus, video presentation method, and storage medium |
WO2012105183A1 (en) | 2011-02-02 | 2012-08-09 | Necカシオモバイルコミュニケーションズ株式会社 | Audio output device |
JP2012238967A (en) * | 2011-05-10 | 2012-12-06 | Nippon Hoso Kyokai <Nhk> | Sound image localization improving device |
JP2013051686A (en) * | 2012-09-18 | 2013-03-14 | Sharp Corp | Video presentation apparatus, video presentation method, video presentation program, and storage medium |
RU2491763C1 (en) * | 2009-09-10 | 2013-08-27 | Долби Интернешнл Аб | Improving audio signal of fm stereophonic radio receiver by using parametric stereophonic coding |
CN103888274A (en) * | 2014-03-18 | 2014-06-25 | 华为技术有限公司 | Communication method and device of sub meetings in virtual meeting |
KR101410977B1 (en) | 2013-05-31 | 2014-07-01 | 한국산업은행 | Apparatus and method for designating speaker corresponding to object |
KR101469104B1 (en) * | 2013-05-31 | 2014-12-04 | 한국산업은행 | Apparatus and method for designating speaker channel corresponding to object |
RU2559748C2 (en) * | 2009-07-30 | 2015-08-10 | Сони Корпорейшн | Display and audio output device |
CN106576132A (en) * | 2014-08-29 | 2017-04-19 | 华为技术有限公司 | Sound image playing method and device |
WO2020213375A1 (en) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | Display device, control method, and program |
CN112470490A (en) * | 2018-07-30 | 2021-03-09 | 索尼公司 | Information processing apparatus, information processing system, information processing method, and program |
CN112911354A (en) * | 2019-12-03 | 2021-06-04 | 海信视像科技股份有限公司 | Display apparatus and sound control method |
-
2006
- 2006-03-30 JP JP2006093943A patent/JP2007274061A/en active Pending
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009116800A3 (en) * | 2008-03-20 | 2009-11-12 | Park Seung-Min | Display device with object-oriented stereo sound coordinate display |
KR100934928B1 (en) * | 2008-03-20 | 2010-01-06 | 박승민 | Display Apparatus having sound effect of three dimensional coordinates corresponding to the object location in a scene |
US8953824B2 (en) | 2008-03-20 | 2015-02-10 | The Korea Development Bank | Display apparatus having object-oriented 3D sound coordinate indication |
RU2495539C2 (en) * | 2008-03-20 | 2013-10-10 | Соник Тиер Инк. | Display device with object-oriented 3-dimensional representation of sound origin coordinates |
JP2010045432A (en) * | 2008-08-08 | 2010-02-25 | Yamaha Corp | Speaker array device, data structure, and optical disk |
JP2010126348A (en) * | 2008-12-01 | 2010-06-10 | Mitsubishi Electric Corp | Elevator sound control device, elevator acoustic system, and elevator device |
RU2559748C2 (en) * | 2009-07-30 | 2015-08-10 | Сони Корпорейшн | Display and audio output device |
RU2491763C1 (en) * | 2009-09-10 | 2013-08-27 | Долби Интернешнл Аб | Improving audio signal of fm stereophonic radio receiver by using parametric stereophonic coding |
JP2011119867A (en) * | 2009-12-01 | 2011-06-16 | Sony Corp | Video and audio device |
JP2011124974A (en) * | 2009-12-09 | 2011-06-23 | Korea Electronics Telecommun | Sound field reproducing apparatus and method using loudspeaker arrays |
US8855340B2 (en) | 2009-12-09 | 2014-10-07 | Electronics And Telecommunications Research Institute | Apparatus for reproducting wave field using loudspeaker array and the method thereof |
KR101038099B1 (en) | 2010-03-23 | 2011-06-01 | 박승민 | Method of generating audio information for 2-dimension array speaker and recording medium for the same |
KR101038102B1 (en) | 2010-03-23 | 2011-06-01 | 박승민 | Method of generating audio information for 2-dimension array speaker and recording medium for the same |
KR101038101B1 (en) | 2010-03-23 | 2011-06-01 | 박승민 | Method of generating audio information for 2-dimension array speaker and recording medium for the same |
JP2011199707A (en) * | 2010-03-23 | 2011-10-06 | Sharp Corp | Audio data reproduction device, and audio data reproduction method |
CN102281425A (en) * | 2010-06-11 | 2011-12-14 | 华为终端有限公司 | Method and device for playing audio of far-end conference participants and remote video conference system |
US9025002B2 (en) | 2010-06-11 | 2015-05-05 | Huawei Device Co., Ltd. | Method and apparatus for playing audio of attendant at remote end and remote video conference system |
JP2012054829A (en) * | 2010-09-02 | 2012-03-15 | Sharp Corp | Device, method and program for video image presentation, and storage medium |
WO2012029790A1 (en) * | 2010-09-02 | 2012-03-08 | シャープ株式会社 | Video presentation apparatus, video presentation method, and storage medium |
WO2012105183A1 (en) | 2011-02-02 | 2012-08-09 | Necカシオモバイルコミュニケーションズ株式会社 | Audio output device |
US9215523B2 (en) | 2011-02-02 | 2015-12-15 | Nec Corporation | Audio output device |
JP2012238967A (en) * | 2011-05-10 | 2012-12-06 | Nippon Hoso Kyokai <Nhk> | Sound image localization improving device |
JP2013051686A (en) * | 2012-09-18 | 2013-03-14 | Sharp Corp | Video presentation apparatus, video presentation method, video presentation program, and storage medium |
KR101469104B1 (en) * | 2013-05-31 | 2014-12-04 | 한국산업은행 | Apparatus and method for designating speaker channel corresponding to object |
KR101410977B1 (en) | 2013-05-31 | 2014-07-01 | 한국산업은행 | Apparatus and method for designating speaker corresponding to object |
CN103888274A (en) * | 2014-03-18 | 2014-06-25 | 华为技术有限公司 | Communication method and device of sub meetings in virtual meeting |
CN106576132A (en) * | 2014-08-29 | 2017-04-19 | 华为技术有限公司 | Sound image playing method and device |
CN112470490A (en) * | 2018-07-30 | 2021-03-09 | 索尼公司 | Information processing apparatus, information processing system, information processing method, and program |
EP3833044A4 (en) * | 2018-07-30 | 2021-10-13 | Sony Group Corporation | Information processing device, information processing system, information processing method, and program |
CN112470490B (en) * | 2018-07-30 | 2023-04-11 | 索尼公司 | Information processing apparatus, information processing system, information processing method, and program |
WO2020213375A1 (en) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | Display device, control method, and program |
CN112911354A (en) * | 2019-12-03 | 2021-06-04 | 海信视像科技股份有限公司 | Display apparatus and sound control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007274061A (en) | Sound image localizer and av system | |
RU2719283C1 (en) | Method and apparatus for reproducing three-dimensional sound | |
JP7367785B2 (en) | Audio processing device and method, and program | |
JP5410682B2 (en) | Multi-channel signal reproduction method and apparatus for multi-channel speaker system | |
JP2007266967A (en) | Sound image localizer and multichannel audio reproduction device | |
EP2922313B1 (en) | Audio signal processing device and audio signal processing system | |
EP0813351B1 (en) | Sound generator synchronized with image display | |
KR100551605B1 (en) | Method and device for projecting sound sources onto loudspeakers | |
US7978860B2 (en) | Playback apparatus and playback method | |
US20130028424A1 (en) | Method and apparatus for processing audio signal | |
JP2006270409A (en) | Device, method, and program for reproducing sound | |
US20050182608A1 (en) | Audio effect rendering based on graphic polygons | |
RU2735095C2 (en) | Audio processing device and method, and program | |
US10547962B2 (en) | Speaker arranged position presenting apparatus | |
KR20200087130A (en) | Signal processing device and method, and program | |
KR102527336B1 (en) | Method and apparatus for reproducing audio signal according to movenemt of user in virtual space | |
JP2009044261A (en) | Device for forming sound field | |
WO2017209196A1 (en) | Speaker system, audio signal rendering apparatus, and program | |
JP2012257144A (en) | Game sound field generation device | |
KR102388361B1 (en) | 3d moving image playing method, 3d sound reproducing method, 3d moving image playing system and 3d sound reproducing system | |
US20140219458A1 (en) | Audio signal reproduction device and audio signal reproduction method | |
CA3044260A1 (en) | Augmented reality platform for navigable, immersive audio experience | |
JP5621188B2 (en) | Speaker array device, data structure, and optical disk | |
KR20210151792A (en) | Information processing apparatus and method, reproduction apparatus and method, and program | |
Grigoriou et al. | Binaural mixing using gestural control interaction |