JP2007266967A - Sound image localizer and multichannel audio reproduction device - Google Patents
Sound image localizer and multichannel audio reproduction device Download PDFInfo
- Publication number
- JP2007266967A JP2007266967A JP2006088832A JP2006088832A JP2007266967A JP 2007266967 A JP2007266967 A JP 2007266967A JP 2006088832 A JP2006088832 A JP 2006088832A JP 2006088832 A JP2006088832 A JP 2006088832A JP 2007266967 A JP2007266967 A JP 2007266967A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- sound
- audio
- channel
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Stereophonic System (AREA)
Abstract
Description
映像と共にマルチチャンネルの音声を再生する場合に、センタチャンネルの音声信号を、映像に合わせて定位を制御する装置に関する。 The present invention relates to an apparatus for controlling the localization of a center channel audio signal in accordance with video when multi-channel audio is reproduced together with video.
従来、映画館の映像システムや、ホームシアター装置では、映像と共にマルチチャンネルの音声を出力する装置が実用化されている。このような装置では、さまざまな効果音がマルチチャンネルの音声として前方のみならず後方等からも出力されている。そして、映像に登場する人物の台詞等は、正面前方の1点に設定されたセンタチャンネルから出力されている。 2. Description of the Related Art Conventionally, in movie theater video systems and home theater devices, devices that output multi-channel audio along with video have been put to practical use. In such an apparatus, various sound effects are output as multi-channel sound not only from the front but also from the rear. The dialogue of the person appearing in the video is output from the center channel set at one point in front of the front.
また、さらに臨場感を高めるため、画像の中の物体(キャラクタ、自然物を含む)に同期して音声の音像定位を付与する装置が開示されている(例えば、特許文献1、2参照。)。
In addition, in order to further enhance the sense of reality, an apparatus that provides sound image localization in synchronization with an object (including a character and a natural object) in an image is disclosed (for example, see
特許文献1では、音響反射板を兼ねたスクリーンと指向性を持ったスピーカを用いて構成される画像連動型音声再生方式が開示されている。この特許文献には、スクリーン上に投影された発音体の点にスピーカの指向性が合うようにスピーカの向きを変化させ、その発音体から発生している音声を再生する旨の記載がある。
特許文献2には、多数個のスピーカをマトリクス状に埋め込んだスクリーンを用い、発音体の投射位置にあるスピーカを駆動させる旨の記載がある。特許文献3は、特許文献2と同様であるが、スクリーン自体を振動板として振動させるものが開示されている。
Japanese Patent Application Laid-Open No. 2004-228561 describes that a speaker at a projection position of a sounding body is driven using a screen in which a large number of speakers are embedded in a matrix. Patent Document 3 is similar to
しかしながら、従来文献の構成ではなお十分でなかった。
特許文献1では、一つの発音体の音声を単体の指向性スピーカで再現するため、人物位置の奥行きの違いが再現できず、音像定位が平面的にならざるを得ない問題があった。また、音響反射板を兼ねたスクリーンを用いなければならず、スクリーンの材質形状などが限定されてしまう問題があった。
However, the configuration of the conventional literature is still not sufficient.
In
また、特許文献2、3の構成では、単に、スクリーン上の物体にあわせて、その位置に相当するスピーカの駆動部を駆動させても、奥行きの違いが表現できず、音像定位が平面的にならざるを得ない問題があった。
Further, in the configurations of
そこで、本発明は、映像内の物体に同期させて立体的に音像を定位させ、臨場感を向上させることができる装置、プログラムの提供を目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus and a program that can improve a sense of reality by locating a sound image in three dimensions in synchronization with an object in a video.
本発明は、上述の課題を解決するための手段を以下のように構成している。 In the present invention, means for solving the above-described problems are configured as follows.
(1)本発明は、
センタチャンネルを含み映像信号に同期したマルチチャンネル音声信号、および、前記映像信号によって表示される映像内での前記センタチャンネルの音声信号の発生位置を示す位置情報を入力する入力部と、
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ再生装置である。
(1) The present invention
A multi-channel audio signal that includes a center channel and is synchronized with the video signal; and an input unit that inputs position information indicating a generation position of the audio signal of the center channel in the video displayed by the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so that an audio beam is focused on a position indicated by the position information. A localization control unit for controlling the timing of input to
Is a multi-channel audio playback device.
本発明では、入力部はセンタチャンネルを含み映像信号に同期したマルチチャンネル音声信号、および、前記映像信号によって表示される映像内での前記センタチャンネルの音声信号の発生位置を示す位置情報を入力する。定位制御部は、この音声信号を出力するセンタスピーカは、画像の中の通常1点で台詞等の音声を出力し、臨場感に欠けるきらいがあるが、本発明は、位置情報の入力を受け付けており、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御するから、映像信号に同期して正確な音像定位が可能となる。 In the present invention, the input unit inputs a multi-channel audio signal that includes a center channel and is synchronized with the video signal, and position information that indicates a generation position of the audio signal of the center channel in the video displayed by the video signal. . In the localization control unit, the center speaker that outputs this audio signal usually outputs speech such as speech at one point in the image and lacks a sense of reality. However, the present invention accepts input of position information. Since the timing at which the audio signal of the center channel is input to each speaker unit is controlled so that the audio beam is focused on the position indicated by the position information, accurate sound image localization can be performed in synchronization with the video signal. It becomes possible.
また、本発明によれば、この音像定位の位置を、天井や壁といった機械的な要素を必要とすることなく、任意の位置に設定することが可能である。さらに、この装置によれば、ドップラー効果等の効果音を模擬的に作り出すのではなく、正確な音像定位の結果として、ドップラー効果等を正確に表現できる。 Further, according to the present invention, the position of the sound image localization can be set to an arbitrary position without requiring mechanical elements such as a ceiling or a wall. Furthermore, according to this apparatus, the Doppler effect or the like can be accurately expressed as a result of accurate sound image localization, instead of simulating the sound effect such as the Doppler effect.
なお、本発明では、「入力部」を通って音声信号の入力、位置情報の入力が信号処理部により処理されれば、これらの入力は、外部記憶部(ハードディスク、光磁気ディスク等)に格納されているものでも良く、また通信回線を通じて提供されるストリーミングデータでも良い。またこの「入力部」は例えば一時記憶装置(メモリ)とすることができる。
また、本発明は、音像定位装置に関するものであり、映画館、ホームシアターで使用するもの等の限定をしておらず、これらに使用する装置を含む。
In the present invention, if an input of an audio signal and an input of position information are processed by the signal processing unit through the “input unit”, these inputs are stored in an external storage unit (hard disk, magneto-optical disk, etc.). Or streaming data provided through a communication line. The “input unit” may be a temporary storage device (memory), for example.
The present invention also relates to a sound image localization device, and is not limited to those used in movie theaters and home theaters, but includes devices used for these devices.
(2)本発明は、
映像信号と、この映像信号に同期した音声信号を入力する入力部と、
前記映像信号に基づき、前記音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えた、音像定位装置である。
(2) The present invention
An input unit for inputting a video signal and an audio signal synchronized with the video signal;
A generation position estimation unit that estimates a generation position of the audio signal based on the video signal;
A control unit that controls a speaker array having a plurality of speaker units arranged in an array, and inputs the audio signal to each speaker unit so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling timing;
Is a sound image localization apparatus.
本発明は、(1)の構成のように位置情報が与えられているような構成でなく、発生位置推定部が前記信号の発生位置を推定する。また、定位制御部は、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記音声信号を、スピーカアレイの各スピーカユニットに入力するタイミングを制御するので、音声入力に位置情報が与えられていない音声入力が入力された場合でも、映像信号に同期して、前記音声信号の発生位置に前記音声信号を立体的に定位させることができる。 In the present invention, the position information is not provided as in the structure (1), but the generation position estimation unit estimates the generation position of the signal. Further, the localization control unit controls the timing at which the audio signal is input to each speaker unit of the speaker array so that the audio beam is focused on the estimated generation position. Even when an audio input that is not given is input, the audio signal can be stereoly localized at the position where the audio signal is generated in synchronization with the video signal.
(3)本発明は、
映像信号と、センタチャンネルを含み前記映像信号に同期したマルチチャンネル音声信号入力チャンネルの音声信号を入力する入力部と、
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
前記映像信号に基づき、前記センタチャンネルの音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ装置である。
(3) The present invention
An input unit for inputting a video signal and an audio signal of a multi-channel audio signal input channel including a center channel and synchronized with the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A generation position estimation unit that estimates a generation position of the audio signal of the center channel based on the video signal;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling the timing of input to
Is a multi-channel audio device.
本発明は、(1)の構成のように位置情報が与えられているような構成でなく、発生位置推定部が前記信号の発生位置を推定する。このような推定をしているので、センタチャンネル用の音声入力に位置情報が与えられていない音声入力が入力された場合でも前記信号の発生位置を推定するので(1)と同様の効果を奏する。 In the present invention, the position information is not provided as in the structure (1), but the generation position estimation unit estimates the generation position of the signal. Since such an estimation is performed, the generation position of the signal is estimated even when an audio input for which position information is not given is input to the audio input for the center channel. .
(4)本発明は、前記スピーカアレイは、前記映像信号に基づく映像が表示されるスクリーン面に配置されている。 (4) In the present invention, the speaker array is arranged on a screen surface on which an image based on the image signal is displayed.
このように構成すれば、画面上に現れる物体に同期して、画面上の物体に近接した位置から音声が出力されるようにすることができる。また、従来文献と異なり、以上の構成の効果を奏するから、スクリーンの後方の仮想音源からスクリーンに広がった音像定位を出力することができる。したがって、立体的に音像を定位させることができる。 If comprised in this way, a sound can be output from the position close | similar to the object on a screen synchronizing with the object which appears on a screen. Also, unlike the conventional literature, the effect of the above configuration is achieved, so that it is possible to output the sound image localization spread on the screen from the virtual sound source behind the screen. Therefore, the sound image can be localized three-dimensionally.
本発明によれば、画面上に現れる物体に同期して、単に音像定位を画面上の1点に投影するのではなく、前記仮想音源から広がった音像を再現することができるから、立体的に音像を定位させることができる。 According to the present invention, in synchronism with an object appearing on the screen, a sound image spread from the virtual sound source can be reproduced instead of simply projecting the sound image localization to one point on the screen. Sound image can be localized.
<第1の実施形態のシアターシステムの説明>
図面を参照して、第1の実施形態のシアターシステムの構成を説明する。図1はこの構成を示している。このシアターシステムは、映像信号およびマルチチャンネルの音声信号を入力して再生するものである。
図1に示すように、視聴者999の前方に、映像を映し出すスクリーン6と、アレイ状にスピーカSPi(i=1〜N)を配置した正面スピーカアレイ2とを備える。また、視聴者999の斜め前方に左前スピーカSPL、右前スピーカSPRを備える。また、視聴者999の前方または斜め前方に低音スピーカSPWを備える。また、後方の上方または前方の机の上に設置されたプロジェクタ3と、斜め後方に左後スピーカSPLR、右後スピーカSPRRを備える。さらに、入力部11に各種信号100〜102を入力して、以上のスピーカおよびプロジェクタを制御する制御装置10を備える。以下それぞれの構成について説明する。
<Description of Theater System of First Embodiment>
The configuration of the theater system according to the first embodiment will be described with reference to the drawings. FIG. 1 shows this configuration. This theater system inputs and reproduces video signals and multi-channel audio signals.
As shown in FIG. 1, a
スクリーン6は、プロジェクタ3から出力された画像を映し出す。
プロジェクタ3は、電気信号を光に変換して出力する投影素子を備え、制御装置10を通した映像信号100の電気信号を光に変換し、スクリーン6に映し出す。
The
The projector 3 includes a projection element that converts an electric signal into light and outputs the light. The projector 3 converts the electric signal of the
スピーカSPL、SPR、SPLR、SPRR、SPWおよび正面スピーカアレイ2のスピーカSPi(i=1〜N)は、例えばダイナミックスピーカで構成でき、制御装置10から出力された電気信号を音声に変換する。ここで、スピーカSPL、SPR、SPLR、SPRRは、広い周波数帯域をカバーできるように複数のスピーカユニットからなるスピーカシステムで構成しても良い。また、SPWは、低音を補強するための低音用スピーカで構成する。
The speakers SPL, SPR, SPLR, SPRR, SPW and the speakers SPi (i = 1 to N) of the
図1の正面スピーカアレイ2は、マルチチャンネルの音声信号のうちのセンタチャンネルの音声信号を出力する。このセンタチャンネルの音声信号には、映像で表示される物体の音声、登場人物の台詞等が含まれている。
The
また、スピーカSPL、SPR、SPLR、SPRRには、マルチチャンネルの音声信号102のうちのそれぞれ1chずつが割り当てられている。また、スピーカSPWには、各チャンネルから抽出された重低音信号が入力される。 Further, one channel of each of the multi-channel audio signals 102 is assigned to the speakers SPL, SPR, SPLR, and SPRR. In addition, a heavy bass signal extracted from each channel is input to the speaker SPW.
ここで、入力信号100、101、102について説明する。映像信号100は、動画の映像であり、アナログの映像信号であってもディジタルの映像信号であってもよい。MPEGなどの画像データを入力する。音源位置情報101は、映像信号100のうちの所定の物体、即ちセンタチャンネルにその音声が割り当てられている物体や人物の位置を示す情報であり、画面上の座標(x,y)のみならず奥行き方向の座標(z)を含む3次元の情報である。この情報は映像信号に同期して刻々入力される。また、この位置情報101は、スクリーン6の中心を原点とする極座標系の情報であってもよい。さらにはこれらの座標系の組み合わせであっても良い。音声信号102は、マルチチャンネルの音声信号であり、上述したスピーカそれぞれに対応している。
Here, the input signals 100, 101, and 102 will be described. The
次に、図2、図3を用いて、上記シアターシステムにおけるセンタチャンネルの定位制御について説明する。 Next, center channel localization control in the theater system will be described with reference to FIGS.
図2は、センタチャンネルの音声の定位位置の概念の説明する図である。スクリーン6には、プロジェクタ3により入力部に投影された映像信号による映画等の映像が映し出される。同図には、映し出された映像中に人物104が含まれている。この人物104が話す台詞等は、センタチャンネルに割り当てられている。そこで本実施形態のシアターシステム1では、センタチャンネル音声信号を人物104の位置に定位させる。
FIG. 2 is a diagram for explaining the concept of the localization position of the sound of the center channel. On the
人物104の位置情報は、映像信号に同期して音源位置情報として入力される。この音源位置情報101は、(X,Y,Z)の3次元座標で与えられる。図2に示すように、X座標は左右方向、Y座標は高さ方向、Z座標は、スクリーン6からの奥行きを表している。制御装置10は、この仮想音源VS(X,Y,Z)にセンタチャンネルの音像を定位するため、センタチャンネルの音声信号が仮想音源VSから放出されるような波面を正面スピーカアレイ2により形成する。
The position information of the person 104 is input as sound source position information in synchronization with the video signal. The sound
次に、図3を用いて、仮想音源VSの音像定位を再現する方法について説明する。まず、図3(A)を用いて音波の伝わり方について説明する。図3(A)に示すように、波面91が、仮想音源VSから出力されたものであれば、波面91は、仮想音源VSを中心として、一様に同じ円状に拡散していく。即ち、仮想音源VSからの伝搬距離が一定のRの位置90では、いずれの位置においても仮想音源VSからの到達時間は同じであり、音量も同じ、また、周波数特性(特に高域の減衰)も同じである。
Next, a method for reproducing the sound image localization of the virtual sound source VS will be described with reference to FIG. First, how to transmit sound waves will be described with reference to FIG. As shown in FIG. 3A, if the
次に、図3(B)を用いて図3(A)で示した仮想音源VSからの音波の伝わり方を正面のスピーカアレイで再現するための方法を説明する。図3(B)に示すように、各SPiから音声の波面109i(i=1〜N)が出力されている。仮想音源VSから各SPiまでの距離が互いに異なるから、前述図3(A)で説明したような「仮想音源VSから一様に拡散する」定位を再現するには、各SPiから上述の位置90までの距離92i(i=1〜N)=R−Liを音速で除算した到達時間差を考慮して、音声を出すタイミング、即ちディレイ量を調整する必要がある。また、例えば距離92Nが他の距離92iより短いとすれば、スピーカSPNの音量は、位置90で聴取した場合に音量が等しくなるよう、音量を絞る必要がある。さらに、周波数特性は、仮想音源VSからの傾き角度や、仮想音源VSからの距離伝搬距離Li(i=1〜N)の2乗に比例させるなどして、高域を減衰するようにする。このようにディレイ量、音量、周波数特性を調整すれば、スピーカSPi(i=1〜N)で合成された波面911は、仮想音源VSから伝搬された音声の波面91(図3(A)で図示。)を再現することになり、センタチャンネルを仮想音源VSに定位させることができる。
Next, a method for reproducing the way of transmission of sound waves from the virtual sound source VS shown in FIG. 3A with the front speaker array will be described with reference to FIG. As shown in FIG. 3B, the sound wave front 109i (i = 1 to N) is output from each SPi. Since the distances from the virtual sound source VS to each SPi are different from each other, in order to reproduce the localization “uniformly diffusing from the virtual sound source VS” as described above with reference to FIG. In consideration of the arrival time difference obtained by dividing the distance 92i (i = 1 to N) = R−Li by the sound speed, it is necessary to adjust the timing of outputting sound, that is, the delay amount. For example, if the
なお、このような仮想音源VSを焦点として拡散する音声信号を「放音ビーム」ということにする。 Note that an audio signal that spreads with the virtual sound source VS as a focal point is referred to as a “sound emission beam”.
次に、図4を用いて、制御装置10の内部構成について説明する。制御装置10は、図1で示したように、各種の信号を入力する入力部11と、入力部11から入力した信号を加工して各スピーカに出力する信号を処理する信号処理装置5と、前述した音源位置情報101に基づいて正面スピーカアレイ2の各スピーカSPi(i=1〜N)に出力する音声を調整するためのパラメータを計算するパラメータ計算部12とを備える。
Next, the internal configuration of the
入力部11は、各信号を入力するインターフェースと、入力信号を格納する、読み書き可能なバッファを有している。入力部11には、インターネット、VTR等の各種AV機器等が接続されている。
The
信号処理装置5(2点鎖線の枠内)は、DSP等で構成され機能的に以下の処理ブロックを備える。即ち、センタチャンネル音声信号1021を順次加工する遅延器52i(i=1〜N)とゲイン調整器53i(i=1〜N)とイコライザ54i(i=1〜N)と、前述したD/A変換器56i(i=1〜N)を備える。また、遅延器52i(i=1〜N)の遅延状態を制御する遅延制御装置51を備える。また、センタチャンネル以外のチャンネルの信号1022を加工して出力するための左右チャンネル入力用信号処理部581とD/A変換器591とを備える。また、各チャンネルから抽出された低音音声信号1023を加工する低音音声入力用信号処理部582とD/A変換器592とを備える。
The signal processing device 5 (inside the two-dot chain line) is configured by a DSP or the like and functionally includes the following processing blocks. That is, a delay unit 52i (i = 1 to N), a gain adjuster 53i (i = 1 to N), an equalizer 54i (i = 1 to N) for sequentially processing the center
遅延器52i(i=1〜N)は、リング状に読み書きを行うメモリであるリングバッファ等で構成され、遅延制御装置51の制御により正面音声信号1021に対して所定の遅延を与えて、スピーカSPi(i=1〜N)に出力する。
The delay device 52i (i = 1 to N) is configured by a ring buffer or the like that is a memory that reads and writes in a ring shape, and gives a predetermined delay to the
ゲイン調整器53i(i=1〜N)は、ビットのシフトを行う機能を備え、パラメータ計算部12のパラメータ出力であるゲイン調整情報106に基づいて、図3で説明したように遅延器52i(i=1〜N)の出力の音量を調整する。この調整は、後述するパラメータ計算部12が計算した値に基づいて行う。
イコライザ54i(i=1〜N)は、音声信号にFIRフィルタを畳み込み演算する機能を備え、図3で説明したように高域の周波数を調整する。このFIRフィルタの係数は、信号処理装置5の外部に設けたパラメータ計算部12で計算したFIRのパラメータからなるイコライザ情報107を入力して行う。
The gain adjuster 53i (i = 1 to N) has a bit shift function, and based on the
The equalizer 54i (i = 1 to N) has a function of performing a convolution operation on the audio signal with the FIR filter, and adjusts the high frequency as described with reference to FIG. The coefficients of the FIR filter are obtained by inputting
D/A変換器56i(i=1〜N)は、前述のようにD/A変換器用ICで構成する。イコライザ54i(i=1〜N)のディジタル音声出力をアナログ音声出力に変換する。 The D / A converter 56i (i = 1 to N) is constituted by the D / A converter IC as described above. The digital audio output of the equalizer 54i (i = 1 to N) is converted into an analog audio output.
なお、D/A変換器56i(i=1〜N)と正面スピーカアレイ2との間には、これらの音声信号を増幅するアンプを備えるが、図4では図示を省略している。
Note that an amplifier that amplifies these audio signals is provided between the D / A converter 56i (i = 1 to N) and the
遅延制御装置51は、信号処理装置5全体を処理するDSPの機能の一部として構成するか、または演算機能を有するICを備える。遅延制御装置51は、パラメータ計算部12により計算した遅延速度に基づいて、遅延器52i(i=1〜N)の読み出し位置、サンプリング速度を制御し、遅延量情報105を遅延器52i(i=1〜N)に出力する。
The
図4の左右チャンネル信号処理部581は、センタチャンネル以外のチャンネルの信号1022を加工してD/A変換器59に出力するものであり、前述の遅延器52i、ゲイン調整器53i、イコライザ54iと同様の構成を備える。ただし、この左右チャンネル信号処理部581は前述の52i、53iと異なり、必ずしもパラメータ計算部12の計算結果に基づいてこのサラウンド入力1022を加工する必要はない。
The left and right channel
D/A変換器591は、D/A変換器56i(i=1〜N)と同様の構成を備え、左右チャンネル信号処理部581の各ディジタル音声出力をアナログ音声出力に変換する。
The D /
図4の低音音声入力用信号処理部582は、低音音声信号1023を加工してD/A変換器59に出力するものであり、前述の遅延器52i、ゲイン調整器53i、イコライザ54iと同様の構成を備える。
また、D/A変換器592は、D/A変換器56i(i=1〜N)と同様の構成を備え、低音音声入力用信号処理部582のディジタル音声出力をアナログ音声出力に変換する。
The bass sound input
The D /
パラメータ計算部12は、各種パラメータを計算するためのICと、この計算に用いる制御データ(例えば音速等のデータ)を格納するROMを備える。または、ICの代わりに制御装置10にCPUを備えて、このCPUの1機能として構成しても良い。前述のとおり、パラメータ計算部12は、音源位置情報101に基づいて正面スピーカアレイ2の各スピーカSPi(i=1〜N)に出力する音声を調整するためのパラメータを計算する。
The
次に、図5、図6を用いて、パラメータ計算部12のパラメータ設定処理について説明する。
Next, the parameter setting process of the
図5で示すような仮想音源VSの定位を実現するためには、前述図3で説明したように、仮想音源VSから拡散した音声の波面が均等になるように、合成された波面911を出力する必要がある。そのため、遅延器52i(i=1〜N)は、入力部11に入力された信号にディレイをかけて音声を出力するタイミングを調整する。ゲイン調整器53i(i=1〜N)は、音量を調整する。イコライザ54i(i=1〜N)は、高域の周波数を調整する。パラメータ計算部12は、これら52i、53i、54iを制御して仮想音源VSを焦点とする放音ビームを出力するためのパラメータを生成する。
In order to realize the localization of the virtual sound source VS as shown in FIG. 5, as described in FIG. 3, the synthesized
なお、図4の左右チャンネル信号処理部581は、クロストークキャンセルやモデル頭部伝達関数を用いて、所定の方向の位置に音像定位させるようにしても良い。
Note that the left and right channel
図6(A)は、図1に示す正面スピーカアレイ2を上から見た平面図であり、正面スピーカアレイ2より奥側に設定した仮想音源VSの位置関係を表している。図6(B)は、図6(A)で示した位置関係を基にしてパラメータ設定の具体的な値の例を示す。
FIG. 6A is a plan view of the
図6(A)に示す伝搬距離Li(i=1〜N)は、前述の図2、図3、図5で示した距離に対応しており、角度αi(i=1〜N)は、仮想音源VSと正面スピーカアレイ2との角度である。パラメータ計算部12は、音源位置情報101に基づいて、仮想音源VSの位置を決定し、仮想音源VSの座標値X、Y、Zを得る。そして、これを基に図6(A)で示すような伝搬距離Li(i=1〜N)[m]、即ち、前述で設定した仮想音源VSと、正面スピーカアレイ2の各スピーカSPiとの伝搬距離Li(i=1〜N)を計算する。また、受信側ユニット1Bと仮想音源VSとの角度を計算する(図4では真上から見た角度になっているが、実際はスピーカSPiとの角度αi(i=1〜N)を計算する)。
The propagation distance Li (i = 1 to N) shown in FIG. 6A corresponds to the distance shown in FIG. 2, FIG. 3, and FIG. 5, and the angle αi (i = 1 to N) is This is the angle between the virtual sound source VS and the
次に、以上の図6(A)の距離の計算結果を基にして、図6(B)で示すように、パラメータ算出部32のパラメータを設定する。
ディレイ量設定121では、伝搬距離Li(i=1〜N)を音速で除算することにより、時間遅れを計算して設定する。このディレイ量を伝搬距離Li[m]を音速V[m/s]で除算した値とする(図中、マイナスで表記している。)。なお、図3ではこのディレイ量R−Liを音速で除算するとして説明したが、相対的にはこの定数Rは無視できる。
Next, as shown in FIG. 6B, parameters of the parameter calculation unit 32 are set based on the distance calculation result of FIG.
In the delay amount setting 121, the time delay is calculated and set by dividing the propagation distance Li (i = 1 to N) by the speed of sound. This delay amount is set to a value obtained by dividing the propagation distance Li [m] by the sound velocity V [m / s] (indicated by minus in the figure). In FIG. 3, the delay amount R-Li is described as being divided by the sound speed, but the constant R is relatively negligible.
図6の音量設定122では、音量は距離の2乗に反比例するから、予め定めた基準の音量volumeを距離伝搬距離Li(i=1〜N)で除算して計算する。SP1については、音量設定は、基準音量volume×1[m]/伝搬距離Li2[m]とすることができる。 In the sound volume setting 122 in FIG. 6, the sound volume is inversely proportional to the square of the distance. Therefore, the predetermined reference sound volume is divided by the distance propagation distance Li (i = 1 to N). For SP1, the volume setting can be set to the reference volume volume × 1 [m] / propagation distance Li 2 [m].
また、図6(B)の周波数特性を調整する高域ゲイン設定123には、各スピーカSPiに届く音声の高域は、高域の指向性によって、減衰するからこの減衰分を考慮して、減衰するような周波数特性のフィルタのパラメータを設定することができる。SP1については、高域のイコライザレベルを、例えば、周波数領域でのゲインの平均レベルの(cosαi)倍とすることができる。 In addition, in the high frequency gain setting 123 for adjusting the frequency characteristics of FIG. 6B, the high frequency of the sound reaching each speaker SPi is attenuated by the directivity of the high frequency, so that this attenuation is taken into consideration. It is possible to set a filter parameter having a frequency characteristic that attenuates. For SP1, the high-frequency equalizer level can be (cosαi) times the average gain level in the frequency domain, for example.
次に、図7を用いて、第1の実施形態のシステムの遅延器52i(i=1〜N)(図4参照。)の構成をさらに具体的に説明する。図7は、この遅延器の構成をリングバッファで行う場合の構成図を示す。音声信号入力1021は、そのデータが読み書き可能なメモリで構成する入力部11に格納されており、入力部11内部のこれとは別区画の一部にリングバッファ111を設けるか、またはリングバッファ111は、信号処理装置5内部に設けた読み書き可能なメモリとする。遅延制御装置51は、リングバッファ111をデータ区画112に示すようなデータアドレス区画に区切り、正面音声信号1021をこのデータアドレス区画に書き込みを行う。このデータ区画112の書き込み位置511は、音声信号のサンプリング周波数で読み出し経路514に沿って512の方向にリング状に順次書き込みを行う。また、リングバッファ111に書き込まれたデータの読み出しは、遅延制御装置51が、この書き込みアドレスに対して所定の遅延をかけて、読み出し位置TAPi(i=1〜N)から読み出しを行う。これにより、1つの正面音声信号1021に対しディレイがかかった複数の音声信号を読み出すことができる。この遅延制御装置51が読み出したデータは、図4で示したようにゲイン調整器53i(i=1〜N)に入力される。
Next, the configuration of the delay device 52i (i = 1 to N) (see FIG. 4) of the system of the first embodiment will be described in more detail with reference to FIG. FIG. 7 shows a configuration diagram when the delay device is configured by a ring buffer. The
図7に示す書き込み位置511に対する読み出し位置TAPiの遅延量は、前述図6で説明したディレイ量設定121の遅延量であり、遅延制御装置51が読み出し位置TAPiの移動513i(i=1〜N)をそれぞれ制御する。なお、この制御は、図4で示した遅延制御装置51が遅延量情報105を与えることに相当する。
The delay amount of the read position TAPi with respect to the
図7の読み出し位置TAPi(i=1〜N)の移動513iは、図2で示した人物104が静止しているときは、遅延制御装置51は、正面音声信号1021が書き込まれるサンプリング速度と同じ速度で読み出す。他方、人物104(人物に限らず物体でも良い。)が移動するときは、この移動に伴いパラメータ計算部12は、仮想音源VSの位置を変動させることになるから、図6で示したディレイ量設定121で仮想音源VSとスピーカSPi(i=1〜N)の伝搬距離Li(i=1〜N)が変動する。これにより、書き込み位置511に対する読み出し位置読み出し位置TAPiの遅延量が時間と共に変動するから、結果的に正面音声信号1021が書き込まれるサンプリング速度と異なった速度で読み出すことになり、仮想音源VSから発せされる音声のトーンが上下する。このようにして、本実施形態のシステムによれば、正確な音像定位の結果として音源の移動に伴うドップラー効果を表現することができる。
The movement 513i of the reading position TAPi (i = 1 to N) in FIG. 7 is the same as the sampling speed at which the
<第1の実施形態の応用>
なお、図7で説明した人物104の移動時の音声信号の読み出しは、アドレスの移動513iを変化させて行う。このようにアドレスの移動513iを変化させるときは、アドレスが小数部を持つため、このアドレス値に近接するアドレスのデータを補間計算して求める。
<Application of the first embodiment>
Note that the reading of the audio signal when the person 104 moves as described with reference to FIG. 7 is performed by changing the address movement 513i. Thus, when changing the address movement 513i, since the address has a fractional part, the data of the address close to this address value is obtained by interpolation calculation.
また、本実施形態の装置では、マルチチャンネルの音声信号は図4の構成に限らないが、少なくとも正面音声信号1021を備え、かつ全体として入力がマルチチャンネル、即ち3チャンネル以上であることが必要である。図1では、実スピーカをこのマルチチャンネル分配置した図を示したが、後述のサラウンド入力用信号処理部58でクロストークキャンセル処理をする等により、サラウンド入力1022を前方のスピーカSPR、SPLの2chにミックスダウンする構成でも良い。
Further, in the apparatus of the present embodiment, the multi-channel audio signal is not limited to the configuration shown in FIG. 4, but it is necessary that at least the
また、図1の正面スピーカアレイ2は、スクリーン6の下に設置しても良いし、スクリーン6の周囲(左右、上下)に設置しても良い。
Further, the
<第2の実施形態>
次に、図8を用いて、第1の実施形態のシステムの応用に係る第2の実施形態のシアターシステムについて説明する。図8は、このシアターシステムの制御装置の内部構成を示す。このシステムでは、音源位置情報101を外部から入力する代わりに、発音位置推定装置15を設けてパラメータ計算部12に入力する点が異なる。その他の点は、以上図1〜図7を用いて説明したことと同様なので、同じ符号を用いて以上の説明を準用する。
<Second Embodiment>
Next, a theater system according to a second embodiment related to application of the system according to the first embodiment will be described with reference to FIG. FIG. 8 shows the internal configuration of the control device of this theater system. In this system, instead of inputting the sound
図8の発音位置推定装置15は、発音位置推定装置15の動作のプログラムを格納するROMと、映像信号100のデータを処理するRAMと、このプログラムを実行するICまたはCPUを備える(図示省略)。
The sound generation
図8の発音位置推定装置15は、映像信号100を取り込んで、画像解析を行い、図2で示した人物104の位置を推定し、その情報を把握して、パラメータ計算部12に与える。人物の認識は顔判定等の手法で行えばよく、顔や身体の大きさで奥行き方向の距離(z座標)を推定することも可能である。また、動いている物体の位置を画像解析により把握してパラメータ計算部12に与えることも考えられる。
The sound generation
<第2の実施形態の応用>
なお、映像信号100のデータを画像処理するためのRAMは、読み書き可能なメモリで構成する入力部11内部の区画の一部に設けてもよい。また、発音位置推定装置15の動作プログラムを実行するICは、制御装置10に備えたDSPやCPUと共用であっても良い。
<Application of Second Embodiment>
Note that the RAM for image processing of the data of the
<第3の実施形態>
次に、図9を用いて、第1、第2の実施形態のシステムの応用に係る第3の実施形態のシアターシステムを示す。第3の実施形態のシアターシステムは、正面スピーカアレイ2に相当するアレイ状に配置したスピーカSPi(i=1〜N)を、スクリーン6の裏側に設けた点が異なる。その他の点は、以上図1〜図8を用いて説明したことと同様なので、同じ符号を用いて以上の説明を準用する。
<Third Embodiment>
Next, the theater system of the third embodiment according to the application of the system of the first and second embodiments will be described with reference to FIG. The theater system of the third embodiment is different in that speakers SPi (i = 1 to N) arranged in an array corresponding to the
図9に示す第3の実施形態では、スクリーン6の周囲に置いた正面スピーカアレイ2と異なり、図2で示した人物104と完全に一致させることができる。また、以上の説明、特に図2、図3の説明で示したように、人物104の位置に基づいて、パラメータ計算部12が仮想音源VSの位置を設定している。さらに、図6で示したようなパラメータ設定により、図3(B)で示したようにアレイ状に配置されたスピーカSPi(i=1〜N)で合成された音声は、仮想音源VSから拡散された音声そのままを再現することになる。したがって、本実施形態は、先に掲げた特許文献2、3が単に人物104と一致する位置のスピーカを切り替えて出力するのと異なり、立体的な音像定位を実現できる。
In the third embodiment shown in FIG. 9, unlike the
<第3の実施形態の応用>
なお、図9で示すスピーカSPi(i=1〜N)は、裏側にダイナミックスピーカを埋め込んでも良いし、また、特許文献3のように背面に複数の独立したボイスコイルを配置して、スクリーン自体を振動板としてもよい。
<Application of Third Embodiment>
Note that the speaker SPi (i = 1 to N) shown in FIG. 9 may be embedded with a dynamic speaker on the back side, and a plurality of independent voice coils are arranged on the back side as in Patent Document 3, and the screen itself. May be a diaphragm.
1−シアターシステム、 10−制御装置、 11−入力部
111−リングバッファ、 112−データ区画、 12−パラメータ計算部
121−ディレイ量設定、 122−音量設定、 123−高域ゲイン設定
15−発音位置推定装置、 2−正面スピーカアレイ、 3−プロジェクタ
5−信号処理装置、 51−遅延制御装置、 511−書き込み位置
512−移動、 513i(i=1〜N)−移動、 514−読み出し経路
52i(i=1〜N)−遅延器、 53i(i=1〜N)−ゲイン調整器
54i(i=1〜N)−イコライザ、 56i(i=1〜N)−D/A変換器
581−左右チャンネル入力用信号処理部、 582−低音音声入力用信号処理部
591−D/A変換器、 592−D/A変換器、 6−スクリーン
SPi(i=1〜N)−スピーカ、 SPL−左前スピーカ
SPR−右前スピーカ、 SPLR−左後スピーカ、 SPRR−右後スピーカ
SPW−低音スピーカ、 Li(i=1〜N)−伝搬距離
VS−仮想音源、 αi(i=1〜N)−角度
TAPi(i=1〜N)−読み出し位置
100−映像信号、 101−音源位置情報、 102−音声信号
1021−センタチャンネル音声信号
1022−センタチャンネル以外のチャンネルの信号、 1023−低音音声信号
104−人物、 105−遅延量情報、 106−ゲイン調整情報
107−イコライザ情報、 109i(i=1〜N)−波面
911−合成された波面、 92i(i=1〜N)−距離、 999−視聴者
1-theater system, 10-control device, 11-input unit 111-ring buffer, 112-data partition, 12-parameter calculation unit 121-delay amount setting, 122-volume setting, 123-high-frequency gain setting 15-sound generation position Estimating device, 2-front speaker array, 3-projector 5-signal processing device, 51-delay control device, 511-writing position 512-movement, 513i (i = 1 to N) -movement, 514-reading path 52i (i = 1-N) -delay device, 53i (i = 1-N) -gain adjuster 54i (i = 1-N) -equalizer, 56i (i = 1-N) -D / A converter 581-left and right channels Signal processing unit for input, 582-Signal processing unit for bass sound input 591-D / A converter, 592-D / A converter, 6-screen SPi (i = 1 to N) Speaker, SPL-Left front speaker SPR-Right front speaker, SPLR-Left rear speaker, SPRR-Right rear speaker SPW-Low tone speaker, Li (i = 1-N) -Propagation distance VS-Virtual sound source, αi (i = 1-N) ) -Angle TAPi (i = 1 to N) -reading position 100-video signal, 101-sound source position information, 102-audio signal 1021-center channel audio signal 1022-signal other than the center channel, 1023-bass audio signal 104-person, 105-delay information, 106-gain adjustment information 107-equalizer information, 109i (i = 1-N) -wavefront 911-combined wavefront, 92i (i = 1-N) -distance, 999- Audience
Claims (4)
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ再生装置。 A multi-channel audio signal that includes a center channel and is synchronized with the video signal; and an input unit that inputs position information indicating a generation position of the audio signal of the center channel in the video displayed by the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so that an audio beam is focused on a position indicated by the position information. A localization control unit for controlling the timing of input to
Multi-channel audio playback device.
前記映像信号に基づき、前記音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えた、音像定位装置。 An input unit for inputting a video signal and an audio signal synchronized with the video signal;
A generation position estimation unit that estimates a generation position of the audio signal based on the video signal;
A control unit that controls a speaker array having a plurality of speaker units arranged in an array, and inputs the audio signal to each speaker unit so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling timing;
Sound image localization device with
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
前記映像信号に基づき、前記センタチャンネルの音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ再生装置。 An input unit for inputting a video signal and an audio signal of a multi-channel audio signal input channel including a center channel and synchronized with the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A generation position estimation unit that estimates a generation position of the audio signal of the center channel based on the video signal;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling the timing of input to
Multi-channel audio playback device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006088832A JP2007266967A (en) | 2006-03-28 | 2006-03-28 | Sound image localizer and multichannel audio reproduction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006088832A JP2007266967A (en) | 2006-03-28 | 2006-03-28 | Sound image localizer and multichannel audio reproduction device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007266967A true JP2007266967A (en) | 2007-10-11 |
Family
ID=38639524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006088832A Pending JP2007266967A (en) | 2006-03-28 | 2006-03-28 | Sound image localizer and multichannel audio reproduction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007266967A (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278381A (en) * | 2008-05-14 | 2009-11-26 | Nippon Hoso Kyokai <Nhk> | Acoustic signal multiplex transmission system, manufacturing device, and reproduction device added with sound image localization acoustic meta-information |
WO2010020162A1 (en) * | 2008-08-19 | 2010-02-25 | 深圳华为通信技术有限公司 | Method, communication device and communication system for controlling sound focusing |
JP2011071685A (en) * | 2009-09-25 | 2011-04-07 | Nec Corp | Video and audio processing system, video and audio processing method and program |
JP2011124974A (en) * | 2009-12-09 | 2011-06-23 | Korea Electronics Telecommun | Sound field reproducing apparatus and method using loudspeaker arrays |
US20110221975A1 (en) * | 2010-03-09 | 2011-09-15 | Homare Kon | Audiovisual apparatus |
JP2011254359A (en) * | 2010-06-03 | 2011-12-15 | Yamaha Corp | Sound playback system |
JP2012054829A (en) * | 2010-09-02 | 2012-03-15 | Sharp Corp | Device, method and program for video image presentation, and storage medium |
JP2012119738A (en) * | 2010-11-29 | 2012-06-21 | Sony Corp | Information processing apparatus, information processing method and program |
JP4981995B1 (en) * | 2011-04-28 | 2012-07-25 | パイオニア株式会社 | Audio signal processing apparatus and audio signal processing program |
JP2012235456A (en) * | 2012-04-20 | 2012-11-29 | Pioneer Electronic Corp | Voice signal processing device, and voice signal processing program |
US8755543B2 (en) | 2010-03-23 | 2014-06-17 | Dolby Laboratories Licensing Corporation | Techniques for localized perceptual audio |
WO2014161309A1 (en) * | 2013-08-19 | 2014-10-09 | 中兴通讯股份有限公司 | Method and apparatus for mobile terminal to implement voice source tracking |
WO2015025858A1 (en) * | 2013-08-19 | 2015-02-26 | ヤマハ株式会社 | Speaker device and audio signal processing method |
JP2015062269A (en) * | 2013-08-19 | 2015-04-02 | ヤマハ株式会社 | Speaker device |
JP2015126358A (en) * | 2013-12-26 | 2015-07-06 | ヤマハ株式会社 | Speaker device |
JP2015126359A (en) * | 2013-12-26 | 2015-07-06 | ヤマハ株式会社 | Speaker device |
JP2015128208A (en) * | 2013-12-27 | 2015-07-09 | ヤマハ株式会社 | Speaker device |
WO2015073454A3 (en) * | 2013-11-14 | 2015-07-09 | Dolby Laboratories Licensing Corporation | Screen-relative rendering of audio and encoding and decoding of audio for such rendering |
JP2015188179A (en) * | 2014-03-27 | 2015-10-29 | フォスター電機株式会社 | Acoustic reproduction device |
CN106576132A (en) * | 2014-08-29 | 2017-04-19 | 华为技术有限公司 | Sound image playing method and device |
US9674609B2 (en) | 2013-08-19 | 2017-06-06 | Yamaha Corporation | Speaker device and audio signal processing method |
WO2018155234A1 (en) * | 2017-02-24 | 2018-08-30 | ソニー株式会社 | Control device, control method, program, and projection system |
US10158958B2 (en) | 2010-03-23 | 2018-12-18 | Dolby Laboratories Licensing Corporation | Techniques for localized perceptual audio |
US10200804B2 (en) | 2015-02-25 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Video content assisted audio object extraction |
CN110554647A (en) * | 2019-09-10 | 2019-12-10 | 广州安衡电子科技有限公司 | processing method and system for synchronizing moving image and sound image |
CN110602424A (en) * | 2019-08-28 | 2019-12-20 | 维沃移动通信有限公司 | Video processing method and electronic equipment |
CN112135226A (en) * | 2020-08-11 | 2020-12-25 | 广东声音科技有限公司 | Y-axis audio reproduction method and Y-axis audio reproduction system |
CN112806024A (en) * | 2018-08-23 | 2021-05-14 | Dts公司 | Reflected sound for non-acoustic screens |
CN112911354A (en) * | 2019-12-03 | 2021-06-04 | 海信视像科技股份有限公司 | Display apparatus and sound control method |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06209500A (en) * | 1992-11-18 | 1994-07-26 | Sanyo Electric Co Ltd | Digital audio signal processing unit |
JP2002199498A (en) * | 2000-12-25 | 2002-07-12 | Victor Co Of Japan Ltd | Method for localizing sound image of sound source and game machine for localizing sound image, and recording medium recording sound image localization program, and transmitting method for the program |
JP2003284196A (en) * | 2002-03-20 | 2003-10-03 | Sony Corp | Sound image localizing signal processing apparatus and sound image localizing signal processing method |
JP2004056262A (en) * | 2002-07-17 | 2004-02-19 | Sony Corp | Acoustic system |
JP2004179711A (en) * | 2002-11-25 | 2004-06-24 | Sony Corp | Loudspeaker system and sound reproduction method |
JP2004193877A (en) * | 2002-12-10 | 2004-07-08 | Sony Corp | Sound image localization signal processing apparatus and sound image localization signal processing method |
JP2004312355A (en) * | 2003-04-07 | 2004-11-04 | Yamaha Corp | Sound field controller |
WO2004114725A1 (en) * | 2003-06-24 | 2004-12-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Wave field synthesis device and method for driving an array of loudspeakers |
JP2005051660A (en) * | 2003-07-31 | 2005-02-24 | Onkyo Corp | Video signal and audio signal reproduction system |
JP2005086486A (en) * | 2003-09-09 | 2005-03-31 | Alpine Electronics Inc | Audio system and audio processing method |
JP2006060610A (en) * | 2004-08-20 | 2006-03-02 | Yamaha Corp | Sound-reproducing device and sound beam reflection position correcting method for the sound reproducing device |
-
2006
- 2006-03-28 JP JP2006088832A patent/JP2007266967A/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06209500A (en) * | 1992-11-18 | 1994-07-26 | Sanyo Electric Co Ltd | Digital audio signal processing unit |
JP2002199498A (en) * | 2000-12-25 | 2002-07-12 | Victor Co Of Japan Ltd | Method for localizing sound image of sound source and game machine for localizing sound image, and recording medium recording sound image localization program, and transmitting method for the program |
JP2003284196A (en) * | 2002-03-20 | 2003-10-03 | Sony Corp | Sound image localizing signal processing apparatus and sound image localizing signal processing method |
JP2004056262A (en) * | 2002-07-17 | 2004-02-19 | Sony Corp | Acoustic system |
JP2004179711A (en) * | 2002-11-25 | 2004-06-24 | Sony Corp | Loudspeaker system and sound reproduction method |
JP2004193877A (en) * | 2002-12-10 | 2004-07-08 | Sony Corp | Sound image localization signal processing apparatus and sound image localization signal processing method |
JP2004312355A (en) * | 2003-04-07 | 2004-11-04 | Yamaha Corp | Sound field controller |
WO2004114725A1 (en) * | 2003-06-24 | 2004-12-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Wave field synthesis device and method for driving an array of loudspeakers |
JP2007507121A (en) * | 2003-06-24 | 2007-03-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | Wavefront synthesis apparatus and loudspeaker array driving method |
JP2005051660A (en) * | 2003-07-31 | 2005-02-24 | Onkyo Corp | Video signal and audio signal reproduction system |
JP2005086486A (en) * | 2003-09-09 | 2005-03-31 | Alpine Electronics Inc | Audio system and audio processing method |
JP2006060610A (en) * | 2004-08-20 | 2006-03-02 | Yamaha Corp | Sound-reproducing device and sound beam reflection position correcting method for the sound reproducing device |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278381A (en) * | 2008-05-14 | 2009-11-26 | Nippon Hoso Kyokai <Nhk> | Acoustic signal multiplex transmission system, manufacturing device, and reproduction device added with sound image localization acoustic meta-information |
WO2010020162A1 (en) * | 2008-08-19 | 2010-02-25 | 深圳华为通信技术有限公司 | Method, communication device and communication system for controlling sound focusing |
JP2011071685A (en) * | 2009-09-25 | 2011-04-07 | Nec Corp | Video and audio processing system, video and audio processing method and program |
KR101268779B1 (en) * | 2009-12-09 | 2013-05-29 | 한국전자통신연구원 | Apparatus for reproducing sound field using loudspeaker array and the method thereof |
JP2011124974A (en) * | 2009-12-09 | 2011-06-23 | Korea Electronics Telecommun | Sound field reproducing apparatus and method using loudspeaker arrays |
US8855340B2 (en) | 2009-12-09 | 2014-10-07 | Electronics And Telecommunications Research Institute | Apparatus for reproducting wave field using loudspeaker array and the method thereof |
US20110221975A1 (en) * | 2010-03-09 | 2011-09-15 | Homare Kon | Audiovisual apparatus |
US9110366B2 (en) * | 2010-03-09 | 2015-08-18 | Homare Kon | Audiovisual apparatus |
US9172901B2 (en) | 2010-03-23 | 2015-10-27 | Dolby Laboratories Licensing Corporation | Techniques for localized perceptual audio |
US9544527B2 (en) | 2010-03-23 | 2017-01-10 | Dolby Laboratories Licensing Corporation | Techniques for localized perceptual audio |
US10158958B2 (en) | 2010-03-23 | 2018-12-18 | Dolby Laboratories Licensing Corporation | Techniques for localized perceptual audio |
US10499175B2 (en) | 2010-03-23 | 2019-12-03 | Dolby Laboratories Licensing Corporation | Methods, apparatus and systems for audio reproduction |
US8755543B2 (en) | 2010-03-23 | 2014-06-17 | Dolby Laboratories Licensing Corporation | Techniques for localized perceptual audio |
US10939219B2 (en) | 2010-03-23 | 2021-03-02 | Dolby Laboratories Licensing Corporation | Methods, apparatus and systems for audio reproduction |
US11350231B2 (en) | 2010-03-23 | 2022-05-31 | Dolby Laboratories Licensing Corporation | Methods, apparatus and systems for audio reproduction |
JP2011254359A (en) * | 2010-06-03 | 2011-12-15 | Yamaha Corp | Sound playback system |
JP2012054829A (en) * | 2010-09-02 | 2012-03-15 | Sharp Corp | Device, method and program for video image presentation, and storage medium |
JP2012119738A (en) * | 2010-11-29 | 2012-06-21 | Sony Corp | Information processing apparatus, information processing method and program |
WO2012147196A1 (en) * | 2011-04-28 | 2012-11-01 | パイオニア株式会社 | Sound signal processing device and sound signal processing program |
JP4981995B1 (en) * | 2011-04-28 | 2012-07-25 | パイオニア株式会社 | Audio signal processing apparatus and audio signal processing program |
JP2012235456A (en) * | 2012-04-20 | 2012-11-29 | Pioneer Electronic Corp | Voice signal processing device, and voice signal processing program |
WO2015025858A1 (en) * | 2013-08-19 | 2015-02-26 | ヤマハ株式会社 | Speaker device and audio signal processing method |
WO2014161309A1 (en) * | 2013-08-19 | 2014-10-09 | 中兴通讯股份有限公司 | Method and apparatus for mobile terminal to implement voice source tracking |
JP2015062269A (en) * | 2013-08-19 | 2015-04-02 | ヤマハ株式会社 | Speaker device |
US10038963B2 (en) | 2013-08-19 | 2018-07-31 | Yamaha Corporation | Speaker device and audio signal processing method |
US9674609B2 (en) | 2013-08-19 | 2017-06-06 | Yamaha Corporation | Speaker device and audio signal processing method |
WO2015073454A3 (en) * | 2013-11-14 | 2015-07-09 | Dolby Laboratories Licensing Corporation | Screen-relative rendering of audio and encoding and decoding of audio for such rendering |
JP2017503375A (en) * | 2013-11-14 | 2017-01-26 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Audio versus screen rendering and audio encoding and decoding for such rendering |
US9813837B2 (en) | 2013-11-14 | 2017-11-07 | Dolby Laboratories Licensing Corporation | Screen-relative rendering of audio and encoding and decoding of audio for such rendering |
JP2015126359A (en) * | 2013-12-26 | 2015-07-06 | ヤマハ株式会社 | Speaker device |
JP2015126358A (en) * | 2013-12-26 | 2015-07-06 | ヤマハ株式会社 | Speaker device |
JP2015128208A (en) * | 2013-12-27 | 2015-07-09 | ヤマハ株式会社 | Speaker device |
JP2015188179A (en) * | 2014-03-27 | 2015-10-29 | フォスター電機株式会社 | Acoustic reproduction device |
CN106576132A (en) * | 2014-08-29 | 2017-04-19 | 华为技术有限公司 | Sound image playing method and device |
US10200804B2 (en) | 2015-02-25 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Video content assisted audio object extraction |
JPWO2018155234A1 (en) * | 2017-02-24 | 2019-12-19 | ソニー株式会社 | Control device, control method, program, and projection system |
WO2018155234A1 (en) * | 2017-02-24 | 2018-08-30 | ソニー株式会社 | Control device, control method, program, and projection system |
US20200050355A1 (en) * | 2017-02-24 | 2020-02-13 | Sony Corporation | Control device, control method, program, and projection system |
US10860205B2 (en) | 2017-02-24 | 2020-12-08 | Sony Corporation | Control device, control method, and projection system |
CN112806024A (en) * | 2018-08-23 | 2021-05-14 | Dts公司 | Reflected sound for non-acoustic screens |
CN112806024B (en) * | 2018-08-23 | 2024-01-26 | Dts公司 | Reflected sound for non-acoustic screens |
CN110602424A (en) * | 2019-08-28 | 2019-12-20 | 维沃移动通信有限公司 | Video processing method and electronic equipment |
CN110554647A (en) * | 2019-09-10 | 2019-12-10 | 广州安衡电子科技有限公司 | processing method and system for synchronizing moving image and sound image |
CN112911354A (en) * | 2019-12-03 | 2021-06-04 | 海信视像科技股份有限公司 | Display apparatus and sound control method |
CN112135226A (en) * | 2020-08-11 | 2020-12-25 | 广东声音科技有限公司 | Y-axis audio reproduction method and Y-axis audio reproduction system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007266967A (en) | Sound image localizer and multichannel audio reproduction device | |
JP7367785B2 (en) | Audio processing device and method, and program | |
JP4819823B2 (en) | Acoustic system driving apparatus, driving method, and acoustic system | |
JP4633870B2 (en) | Audio signal processing method | |
JP5533248B2 (en) | Audio signal processing apparatus and audio signal processing method | |
JP4273343B2 (en) | Playback apparatus and playback method | |
JP2007274061A (en) | Sound image localizer and av system | |
KR20170106063A (en) | A method and an apparatus for processing an audio signal | |
JP6246922B2 (en) | Acoustic signal processing method | |
US11122381B2 (en) | Spatial audio signal processing | |
JP2006507727A (en) | Audio reproduction system and method for reproducing an audio signal | |
JP2024120097A (en) | Information processing device and method, playback device and method, and program | |
KR102388361B1 (en) | 3d moving image playing method, 3d sound reproducing method, 3d moving image playing system and 3d sound reproducing system | |
KR100955328B1 (en) | Apparatus and method for surround soundfield reproductioin for reproducing reflection | |
JP2007333813A (en) | Electronic piano apparatus, sound field synthesizing method of electronic piano and sound field synthesizing program for electronic piano | |
WO1997004620A1 (en) | Headphone device | |
JP2005286828A (en) | Audio reproducing apparatus | |
JP2006325170A (en) | Acoustic signal converter | |
US11665498B2 (en) | Object-based audio spatializer | |
US11924623B2 (en) | Object-based audio spatializer | |
JP2991452B2 (en) | Sound signal reproduction device | |
WO2023210699A1 (en) | Sound generation device, sound reproduction device, sound generation method, and sound signal processing program | |
Ranjan | 3D audio reproduction: natural augmented reality headset and next generation entertainment system using wave field synthesis | |
US20240135953A1 (en) | Audio rendering method and electronic device performing the same | |
JP2005184140A (en) | Stereophonic sound recording method, stereophonic sound reproducing method, and stereophonic sound reproducing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110405 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110405 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120327 |