JP2007266967A - Sound image localizer and multichannel audio reproduction device - Google Patents

Sound image localizer and multichannel audio reproduction device Download PDF

Info

Publication number
JP2007266967A
JP2007266967A JP2006088832A JP2006088832A JP2007266967A JP 2007266967 A JP2007266967 A JP 2007266967A JP 2006088832 A JP2006088832 A JP 2006088832A JP 2006088832 A JP2006088832 A JP 2006088832A JP 2007266967 A JP2007266967 A JP 2007266967A
Authority
JP
Japan
Prior art keywords
speaker
sound
audio
channel
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006088832A
Other languages
Japanese (ja)
Inventor
Norifumi Ukai
訓史 鵜飼
Makoto Tanaka
田中  良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006088832A priority Critical patent/JP2007266967A/en
Publication of JP2007266967A publication Critical patent/JP2007266967A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device capable of making a sound image synchronize with an object in a video and localizing the sound image in three dimensions, and enhancing presence, and its program. <P>SOLUTION: This device is provided with a controller for dealing with the sound signals of multichannels, a projector 3, a screen 6 for displaying an image of the projector 3 on, and a frontal speaker array 2. The controller is provided with a signal processor and a parameter computation portion. The signal processor processes a frontal sound input out of the sound signals of these multichannels, and outputs it to the speaker array 2. The parameter computation portion takes in information on a sound source position synchronized with a figure 104 in a video input and determines the coordinates (X, Y, Z) of a virtual sound source VS, and moreover set a delay amount, a volume, and parameters of high-frequency attenuation on the basis of the travelling distance Li(i=1 to N) up to a speaker SPi(i=1 to N) of the speaker array 2 from the virtual source VS. Based on this setting, the signal processor processes the front sound input. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

映像と共にマルチチャンネルの音声を再生する場合に、センタチャンネルの音声信号を、映像に合わせて定位を制御する装置に関する。   The present invention relates to an apparatus for controlling the localization of a center channel audio signal in accordance with video when multi-channel audio is reproduced together with video.

従来、映画館の映像システムや、ホームシアター装置では、映像と共にマルチチャンネルの音声を出力する装置が実用化されている。このような装置では、さまざまな効果音がマルチチャンネルの音声として前方のみならず後方等からも出力されている。そして、映像に登場する人物の台詞等は、正面前方の1点に設定されたセンタチャンネルから出力されている。   2. Description of the Related Art Conventionally, in movie theater video systems and home theater devices, devices that output multi-channel audio along with video have been put to practical use. In such an apparatus, various sound effects are output as multi-channel sound not only from the front but also from the rear. The dialogue of the person appearing in the video is output from the center channel set at one point in front of the front.

また、さらに臨場感を高めるため、画像の中の物体(キャラクタ、自然物を含む)に同期して音声の音像定位を付与する装置が開示されている(例えば、特許文献1、2参照。)。   In addition, in order to further enhance the sense of reality, an apparatus that provides sound image localization in synchronization with an object (including a character and a natural object) in an image is disclosed (for example, see Patent Documents 1 and 2).

特許文献1では、音響反射板を兼ねたスクリーンと指向性を持ったスピーカを用いて構成される画像連動型音声再生方式が開示されている。この特許文献には、スクリーン上に投影された発音体の点にスピーカの指向性が合うようにスピーカの向きを変化させ、その発音体から発生している音声を再生する旨の記載がある。
特許文献2には、多数個のスピーカをマトリクス状に埋め込んだスクリーンを用い、発音体の投射位置にあるスピーカを駆動させる旨の記載がある。特許文献3は、特許文献2と同様であるが、スクリーン自体を振動板として振動させるものが開示されている。
特許2714647号公報 特開平4−115692号公報 実開平5−38639号公報
Patent Document 1 discloses an image-linked sound reproduction method that is configured using a screen that also serves as an acoustic reflector and a directional speaker. This patent document describes that the direction of the speaker is changed so that the directivity of the speaker matches the point of the sounding body projected on the screen, and the sound generated from the sounding body is reproduced.
Japanese Patent Application Laid-Open No. 2004-228561 describes that a speaker at a projection position of a sounding body is driven using a screen in which a large number of speakers are embedded in a matrix. Patent Document 3 is similar to Patent Document 2, but discloses that the screen itself vibrates as a diaphragm.
Japanese Patent No. 2714647 JP-A-4-115692 Japanese Utility Model Publication No. 5-38639

しかしながら、従来文献の構成ではなお十分でなかった。
特許文献1では、一つの発音体の音声を単体の指向性スピーカで再現するため、人物位置の奥行きの違いが再現できず、音像定位が平面的にならざるを得ない問題があった。また、音響反射板を兼ねたスクリーンを用いなければならず、スクリーンの材質形状などが限定されてしまう問題があった。
However, the configuration of the conventional literature is still not sufficient.
In Patent Document 1, since the sound of one sounding body is reproduced by a single directional speaker, the difference in the depth of the person position cannot be reproduced, and the sound image localization has to be planar. In addition, a screen that also serves as an acoustic reflector must be used, and there is a problem that the material shape of the screen is limited.

また、特許文献2、3の構成では、単に、スクリーン上の物体にあわせて、その位置に相当するスピーカの駆動部を駆動させても、奥行きの違いが表現できず、音像定位が平面的にならざるを得ない問題があった。   Further, in the configurations of Patent Documents 2 and 3, simply by driving a speaker driving unit corresponding to the position according to an object on the screen, the difference in depth cannot be expressed, and the sound image localization is planar. There was a problem that had to be done.

そこで、本発明は、映像内の物体に同期させて立体的に音像を定位させ、臨場感を向上させることができる装置、プログラムの提供を目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus and a program that can improve a sense of reality by locating a sound image in three dimensions in synchronization with an object in a video.

本発明は、上述の課題を解決するための手段を以下のように構成している。 In the present invention, means for solving the above-described problems are configured as follows.

(1)本発明は、
センタチャンネルを含み映像信号に同期したマルチチャンネル音声信号、および、前記映像信号によって表示される映像内での前記センタチャンネルの音声信号の発生位置を示す位置情報を入力する入力部と、
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ再生装置である。
(1) The present invention
A multi-channel audio signal that includes a center channel and is synchronized with the video signal; and an input unit that inputs position information indicating a generation position of the audio signal of the center channel in the video displayed by the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so that an audio beam is focused on a position indicated by the position information. A localization control unit for controlling the timing of input to
Is a multi-channel audio playback device.

本発明では、入力部はセンタチャンネルを含み映像信号に同期したマルチチャンネル音声信号、および、前記映像信号によって表示される映像内での前記センタチャンネルの音声信号の発生位置を示す位置情報を入力する。定位制御部は、この音声信号を出力するセンタスピーカは、画像の中の通常1点で台詞等の音声を出力し、臨場感に欠けるきらいがあるが、本発明は、位置情報の入力を受け付けており、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御するから、映像信号に同期して正確な音像定位が可能となる。   In the present invention, the input unit inputs a multi-channel audio signal that includes a center channel and is synchronized with the video signal, and position information that indicates a generation position of the audio signal of the center channel in the video displayed by the video signal. . In the localization control unit, the center speaker that outputs this audio signal usually outputs speech such as speech at one point in the image and lacks a sense of reality. However, the present invention accepts input of position information. Since the timing at which the audio signal of the center channel is input to each speaker unit is controlled so that the audio beam is focused on the position indicated by the position information, accurate sound image localization can be performed in synchronization with the video signal. It becomes possible.

また、本発明によれば、この音像定位の位置を、天井や壁といった機械的な要素を必要とすることなく、任意の位置に設定することが可能である。さらに、この装置によれば、ドップラー効果等の効果音を模擬的に作り出すのではなく、正確な音像定位の結果として、ドップラー効果等を正確に表現できる。   Further, according to the present invention, the position of the sound image localization can be set to an arbitrary position without requiring mechanical elements such as a ceiling or a wall. Furthermore, according to this apparatus, the Doppler effect or the like can be accurately expressed as a result of accurate sound image localization, instead of simulating the sound effect such as the Doppler effect.

なお、本発明では、「入力部」を通って音声信号の入力、位置情報の入力が信号処理部により処理されれば、これらの入力は、外部記憶部(ハードディスク、光磁気ディスク等)に格納されているものでも良く、また通信回線を通じて提供されるストリーミングデータでも良い。またこの「入力部」は例えば一時記憶装置(メモリ)とすることができる。
また、本発明は、音像定位装置に関するものであり、映画館、ホームシアターで使用するもの等の限定をしておらず、これらに使用する装置を含む。
In the present invention, if an input of an audio signal and an input of position information are processed by the signal processing unit through the “input unit”, these inputs are stored in an external storage unit (hard disk, magneto-optical disk, etc.). Or streaming data provided through a communication line. The “input unit” may be a temporary storage device (memory), for example.
The present invention also relates to a sound image localization device, and is not limited to those used in movie theaters and home theaters, but includes devices used for these devices.

(2)本発明は、
映像信号と、この映像信号に同期した音声信号を入力する入力部と、
前記映像信号に基づき、前記音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えた、音像定位装置である。
(2) The present invention
An input unit for inputting a video signal and an audio signal synchronized with the video signal;
A generation position estimation unit that estimates a generation position of the audio signal based on the video signal;
A control unit that controls a speaker array having a plurality of speaker units arranged in an array, and inputs the audio signal to each speaker unit so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling timing;
Is a sound image localization apparatus.

本発明は、(1)の構成のように位置情報が与えられているような構成でなく、発生位置推定部が前記信号の発生位置を推定する。また、定位制御部は、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記音声信号を、スピーカアレイの各スピーカユニットに入力するタイミングを制御するので、音声入力に位置情報が与えられていない音声入力が入力された場合でも、映像信号に同期して、前記音声信号の発生位置に前記音声信号を立体的に定位させることができる。   In the present invention, the position information is not provided as in the structure (1), but the generation position estimation unit estimates the generation position of the signal. Further, the localization control unit controls the timing at which the audio signal is input to each speaker unit of the speaker array so that the audio beam is focused on the estimated generation position. Even when an audio input that is not given is input, the audio signal can be stereoly localized at the position where the audio signal is generated in synchronization with the video signal.

(3)本発明は、
映像信号と、センタチャンネルを含み前記映像信号に同期したマルチチャンネル音声信号入力チャンネルの音声信号を入力する入力部と、
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
前記映像信号に基づき、前記センタチャンネルの音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ装置である。
(3) The present invention
An input unit for inputting a video signal and an audio signal of a multi-channel audio signal input channel including a center channel and synchronized with the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A generation position estimation unit that estimates a generation position of the audio signal of the center channel based on the video signal;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling the timing of input to
Is a multi-channel audio device.

本発明は、(1)の構成のように位置情報が与えられているような構成でなく、発生位置推定部が前記信号の発生位置を推定する。このような推定をしているので、センタチャンネル用の音声入力に位置情報が与えられていない音声入力が入力された場合でも前記信号の発生位置を推定するので(1)と同様の効果を奏する。   In the present invention, the position information is not provided as in the structure (1), but the generation position estimation unit estimates the generation position of the signal. Since such an estimation is performed, the generation position of the signal is estimated even when an audio input for which position information is not given is input to the audio input for the center channel. .

(4)本発明は、前記スピーカアレイは、前記映像信号に基づく映像が表示されるスクリーン面に配置されている。   (4) In the present invention, the speaker array is arranged on a screen surface on which an image based on the image signal is displayed.

このように構成すれば、画面上に現れる物体に同期して、画面上の物体に近接した位置から音声が出力されるようにすることができる。また、従来文献と異なり、以上の構成の効果を奏するから、スクリーンの後方の仮想音源からスクリーンに広がった音像定位を出力することができる。したがって、立体的に音像を定位させることができる。   If comprised in this way, a sound can be output from the position close | similar to the object on a screen synchronizing with the object which appears on a screen. Also, unlike the conventional literature, the effect of the above configuration is achieved, so that it is possible to output the sound image localization spread on the screen from the virtual sound source behind the screen. Therefore, the sound image can be localized three-dimensionally.

本発明によれば、画面上に現れる物体に同期して、単に音像定位を画面上の1点に投影するのではなく、前記仮想音源から広がった音像を再現することができるから、立体的に音像を定位させることができる。   According to the present invention, in synchronism with an object appearing on the screen, a sound image spread from the virtual sound source can be reproduced instead of simply projecting the sound image localization to one point on the screen. Sound image can be localized.

<第1の実施形態のシアターシステムの説明>
図面を参照して、第1の実施形態のシアターシステムの構成を説明する。図1はこの構成を示している。このシアターシステムは、映像信号およびマルチチャンネルの音声信号を入力して再生するものである。
図1に示すように、視聴者999の前方に、映像を映し出すスクリーン6と、アレイ状にスピーカSPi(i=1〜N)を配置した正面スピーカアレイ2とを備える。また、視聴者999の斜め前方に左前スピーカSPL、右前スピーカSPRを備える。また、視聴者999の前方または斜め前方に低音スピーカSPWを備える。また、後方の上方または前方の机の上に設置されたプロジェクタ3と、斜め後方に左後スピーカSPLR、右後スピーカSPRRを備える。さらに、入力部11に各種信号100〜102を入力して、以上のスピーカおよびプロジェクタを制御する制御装置10を備える。以下それぞれの構成について説明する。
<Description of Theater System of First Embodiment>
The configuration of the theater system according to the first embodiment will be described with reference to the drawings. FIG. 1 shows this configuration. This theater system inputs and reproduces video signals and multi-channel audio signals.
As shown in FIG. 1, a screen 6 for displaying an image and a front speaker array 2 in which speakers SPi (i = 1 to N) are arranged in an array are provided in front of a viewer 999. In addition, a left front speaker SPL and a right front speaker SPR are provided diagonally forward of the viewer 999. Further, a bass speaker SPW is provided in front of or obliquely forward of the viewer 999. Further, the projector 3 installed on the rear upper part or on the front desk is provided with the left rear speaker SPLR and the right rear speaker SPRR obliquely rearward. Furthermore, the control apparatus 10 which inputs the various signals 100-102 to the input part 11, and controls the above speaker and projector is provided. Each configuration will be described below.

スクリーン6は、プロジェクタ3から出力された画像を映し出す。
プロジェクタ3は、電気信号を光に変換して出力する投影素子を備え、制御装置10を通した映像信号100の電気信号を光に変換し、スクリーン6に映し出す。
The screen 6 displays the image output from the projector 3.
The projector 3 includes a projection element that converts an electric signal into light and outputs the light. The projector 3 converts the electric signal of the video signal 100 that has passed through the control device 10 into light and displays the light on the screen 6.

スピーカSPL、SPR、SPLR、SPRR、SPWおよび正面スピーカアレイ2のスピーカSPi(i=1〜N)は、例えばダイナミックスピーカで構成でき、制御装置10から出力された電気信号を音声に変換する。ここで、スピーカSPL、SPR、SPLR、SPRRは、広い周波数帯域をカバーできるように複数のスピーカユニットからなるスピーカシステムで構成しても良い。また、SPWは、低音を補強するための低音用スピーカで構成する。   The speakers SPL, SPR, SPLR, SPRR, SPW and the speakers SPi (i = 1 to N) of the front speaker array 2 can be composed of, for example, dynamic speakers, and convert the electrical signal output from the control device 10 into sound. Here, the speakers SPL, SPR, SPLR, and SPRR may be configured by a speaker system including a plurality of speaker units so as to cover a wide frequency band. The SPW is composed of a bass speaker for reinforcing the bass.

図1の正面スピーカアレイ2は、マルチチャンネルの音声信号のうちのセンタチャンネルの音声信号を出力する。このセンタチャンネルの音声信号には、映像で表示される物体の音声、登場人物の台詞等が含まれている。   The front speaker array 2 in FIG. 1 outputs a center channel audio signal among multi-channel audio signals. The audio signal of the center channel includes the sound of the object displayed in the video, the dialogue of the characters, and the like.

また、スピーカSPL、SPR、SPLR、SPRRには、マルチチャンネルの音声信号102のうちのそれぞれ1chずつが割り当てられている。また、スピーカSPWには、各チャンネルから抽出された重低音信号が入力される。   Further, one channel of each of the multi-channel audio signals 102 is assigned to the speakers SPL, SPR, SPLR, and SPRR. In addition, a heavy bass signal extracted from each channel is input to the speaker SPW.

ここで、入力信号100、101、102について説明する。映像信号100は、動画の映像であり、アナログの映像信号であってもディジタルの映像信号であってもよい。MPEGなどの画像データを入力する。音源位置情報101は、映像信号100のうちの所定の物体、即ちセンタチャンネルにその音声が割り当てられている物体や人物の位置を示す情報であり、画面上の座標(x,y)のみならず奥行き方向の座標(z)を含む3次元の情報である。この情報は映像信号に同期して刻々入力される。また、この位置情報101は、スクリーン6の中心を原点とする極座標系の情報であってもよい。さらにはこれらの座標系の組み合わせであっても良い。音声信号102は、マルチチャンネルの音声信号であり、上述したスピーカそれぞれに対応している。   Here, the input signals 100, 101, and 102 will be described. The video signal 100 is a video image, and may be an analog video signal or a digital video signal. Input image data such as MPEG. The sound source position information 101 is information indicating the position of a predetermined object in the video signal 100, that is, an object or person whose sound is assigned to the center channel, and not only the coordinates (x, y) on the screen. This is three-dimensional information including the coordinate (z) in the depth direction. This information is input every moment in synchronization with the video signal. The position information 101 may be information in a polar coordinate system with the center of the screen 6 as the origin. Further, a combination of these coordinate systems may be used. The audio signal 102 is a multi-channel audio signal and corresponds to each of the above-described speakers.

次に、図2、図3を用いて、上記シアターシステムにおけるセンタチャンネルの定位制御について説明する。   Next, center channel localization control in the theater system will be described with reference to FIGS.

図2は、センタチャンネルの音声の定位位置の概念の説明する図である。スクリーン6には、プロジェクタ3により入力部に投影された映像信号による映画等の映像が映し出される。同図には、映し出された映像中に人物104が含まれている。この人物104が話す台詞等は、センタチャンネルに割り当てられている。そこで本実施形態のシアターシステム1では、センタチャンネル音声信号を人物104の位置に定位させる。   FIG. 2 is a diagram for explaining the concept of the localization position of the sound of the center channel. On the screen 6, an image such as a movie by the image signal projected on the input unit by the projector 3 is displayed. In the figure, a person 104 is included in the projected video. The dialogue spoken by the person 104 is assigned to the center channel. Therefore, in the theater system 1 of this embodiment, the center channel audio signal is localized at the position of the person 104.

人物104の位置情報は、映像信号に同期して音源位置情報として入力される。この音源位置情報101は、(X,Y,Z)の3次元座標で与えられる。図2に示すように、X座標は左右方向、Y座標は高さ方向、Z座標は、スクリーン6からの奥行きを表している。制御装置10は、この仮想音源VS(X,Y,Z)にセンタチャンネルの音像を定位するため、センタチャンネルの音声信号が仮想音源VSから放出されるような波面を正面スピーカアレイ2により形成する。   The position information of the person 104 is input as sound source position information in synchronization with the video signal. The sound source position information 101 is given by three-dimensional coordinates (X, Y, Z). As shown in FIG. 2, the X coordinate represents the horizontal direction, the Y coordinate represents the height direction, and the Z coordinate represents the depth from the screen 6. The control device 10 uses the front speaker array 2 to form a wavefront such that the center channel sound signal is emitted from the virtual sound source VS in order to localize the sound image of the center channel on the virtual sound source VS (X, Y, Z). .

次に、図3を用いて、仮想音源VSの音像定位を再現する方法について説明する。まず、図3(A)を用いて音波の伝わり方について説明する。図3(A)に示すように、波面91が、仮想音源VSから出力されたものであれば、波面91は、仮想音源VSを中心として、一様に同じ円状に拡散していく。即ち、仮想音源VSからの伝搬距離が一定のRの位置90では、いずれの位置においても仮想音源VSからの到達時間は同じであり、音量も同じ、また、周波数特性(特に高域の減衰)も同じである。   Next, a method for reproducing the sound image localization of the virtual sound source VS will be described with reference to FIG. First, how to transmit sound waves will be described with reference to FIG. As shown in FIG. 3A, if the wavefront 91 is output from the virtual sound source VS, the wavefront 91 diffuses uniformly in the same circle around the virtual sound source VS. That is, at the R position 90 where the propagation distance from the virtual sound source VS is constant, the arrival time from the virtual sound source VS is the same at any position, the sound volume is the same, and the frequency characteristics (particularly high-frequency attenuation). Is the same.

次に、図3(B)を用いて図3(A)で示した仮想音源VSからの音波の伝わり方を正面のスピーカアレイで再現するための方法を説明する。図3(B)に示すように、各SPiから音声の波面109i(i=1〜N)が出力されている。仮想音源VSから各SPiまでの距離が互いに異なるから、前述図3(A)で説明したような「仮想音源VSから一様に拡散する」定位を再現するには、各SPiから上述の位置90までの距離92i(i=1〜N)=R−Liを音速で除算した到達時間差を考慮して、音声を出すタイミング、即ちディレイ量を調整する必要がある。また、例えば距離92Nが他の距離92iより短いとすれば、スピーカSPNの音量は、位置90で聴取した場合に音量が等しくなるよう、音量を絞る必要がある。さらに、周波数特性は、仮想音源VSからの傾き角度や、仮想音源VSからの距離伝搬距離Li(i=1〜N)の2乗に比例させるなどして、高域を減衰するようにする。このようにディレイ量、音量、周波数特性を調整すれば、スピーカSPi(i=1〜N)で合成された波面911は、仮想音源VSから伝搬された音声の波面91(図3(A)で図示。)を再現することになり、センタチャンネルを仮想音源VSに定位させることができる。   Next, a method for reproducing the way of transmission of sound waves from the virtual sound source VS shown in FIG. 3A with the front speaker array will be described with reference to FIG. As shown in FIG. 3B, the sound wave front 109i (i = 1 to N) is output from each SPi. Since the distances from the virtual sound source VS to each SPi are different from each other, in order to reproduce the localization “uniformly diffusing from the virtual sound source VS” as described above with reference to FIG. In consideration of the arrival time difference obtained by dividing the distance 92i (i = 1 to N) = R−Li by the sound speed, it is necessary to adjust the timing of outputting sound, that is, the delay amount. For example, if the distance 92N is shorter than the other distances 92i, it is necessary to reduce the volume of the speaker SPN so that the volume is equal when listening at the position 90. Further, the high frequency is attenuated by making the frequency characteristic proportional to the inclination angle from the virtual sound source VS or the square of the distance propagation distance Li (i = 1 to N) from the virtual sound source VS. If the delay amount, volume, and frequency characteristics are adjusted in this way, the wavefront 911 synthesized by the speakers SPi (i = 1 to N) becomes the wavefront 91 of the sound propagated from the virtual sound source VS (FIG. 3A). The center channel can be localized to the virtual sound source VS.

なお、このような仮想音源VSを焦点として拡散する音声信号を「放音ビーム」ということにする。   Note that an audio signal that spreads with the virtual sound source VS as a focal point is referred to as a “sound emission beam”.

次に、図4を用いて、制御装置10の内部構成について説明する。制御装置10は、図1で示したように、各種の信号を入力する入力部11と、入力部11から入力した信号を加工して各スピーカに出力する信号を処理する信号処理装置5と、前述した音源位置情報101に基づいて正面スピーカアレイ2の各スピーカSPi(i=1〜N)に出力する音声を調整するためのパラメータを計算するパラメータ計算部12とを備える。   Next, the internal configuration of the control device 10 will be described with reference to FIG. As shown in FIG. 1, the control device 10 includes an input unit 11 that inputs various signals, a signal processing device 5 that processes a signal input from the input unit 11 and outputs a signal output to each speaker, And a parameter calculator 12 that calculates parameters for adjusting the sound output to each speaker SPi (i = 1 to N) of the front speaker array 2 based on the sound source position information 101 described above.

入力部11は、各信号を入力するインターフェースと、入力信号を格納する、読み書き可能なバッファを有している。入力部11には、インターネット、VTR等の各種AV機器等が接続されている。   The input unit 11 has an interface for inputting each signal and a readable / writable buffer for storing the input signal. Various AV devices such as the Internet and VTR are connected to the input unit 11.

信号処理装置5(2点鎖線の枠内)は、DSP等で構成され機能的に以下の処理ブロックを備える。即ち、センタチャンネル音声信号1021を順次加工する遅延器52i(i=1〜N)とゲイン調整器53i(i=1〜N)とイコライザ54i(i=1〜N)と、前述したD/A変換器56i(i=1〜N)を備える。また、遅延器52i(i=1〜N)の遅延状態を制御する遅延制御装置51を備える。また、センタチャンネル以外のチャンネルの信号1022を加工して出力するための左右チャンネル入力用信号処理部581とD/A変換器591とを備える。また、各チャンネルから抽出された低音音声信号1023を加工する低音音声入力用信号処理部582とD/A変換器592とを備える。   The signal processing device 5 (inside the two-dot chain line) is configured by a DSP or the like and functionally includes the following processing blocks. That is, a delay unit 52i (i = 1 to N), a gain adjuster 53i (i = 1 to N), an equalizer 54i (i = 1 to N) for sequentially processing the center channel audio signal 1021, and the D / A described above. A converter 56i (i = 1 to N) is provided. In addition, a delay control device 51 that controls the delay state of the delay device 52i (i = 1 to N) is provided. Also, a left / right channel input signal processing unit 581 and a D / A converter 591 for processing and outputting a signal 1022 of a channel other than the center channel are provided. Further, a bass sound input signal processing unit 582 and a D / A converter 592 for processing the bass sound signal 1023 extracted from each channel are provided.

遅延器52i(i=1〜N)は、リング状に読み書きを行うメモリであるリングバッファ等で構成され、遅延制御装置51の制御により正面音声信号1021に対して所定の遅延を与えて、スピーカSPi(i=1〜N)に出力する。   The delay device 52i (i = 1 to N) is configured by a ring buffer or the like that is a memory that reads and writes in a ring shape, and gives a predetermined delay to the front audio signal 1021 under the control of the delay control device 51, and the speaker Output to SPi (i = 1 to N).

ゲイン調整器53i(i=1〜N)は、ビットのシフトを行う機能を備え、パラメータ計算部12のパラメータ出力であるゲイン調整情報106に基づいて、図3で説明したように遅延器52i(i=1〜N)の出力の音量を調整する。この調整は、後述するパラメータ計算部12が計算した値に基づいて行う。
イコライザ54i(i=1〜N)は、音声信号にFIRフィルタを畳み込み演算する機能を備え、図3で説明したように高域の周波数を調整する。このFIRフィルタの係数は、信号処理装置5の外部に設けたパラメータ計算部12で計算したFIRのパラメータからなるイコライザ情報107を入力して行う。
The gain adjuster 53i (i = 1 to N) has a bit shift function, and based on the gain adjustment information 106 that is a parameter output of the parameter calculation unit 12, as described with reference to FIG. The output volume of i = 1 to N) is adjusted. This adjustment is performed based on a value calculated by a parameter calculation unit 12 described later.
The equalizer 54i (i = 1 to N) has a function of performing a convolution operation on the audio signal with the FIR filter, and adjusts the high frequency as described with reference to FIG. The coefficients of the FIR filter are obtained by inputting equalizer information 107 including FIR parameters calculated by the parameter calculation unit 12 provided outside the signal processing device 5.

D/A変換器56i(i=1〜N)は、前述のようにD/A変換器用ICで構成する。イコライザ54i(i=1〜N)のディジタル音声出力をアナログ音声出力に変換する。   The D / A converter 56i (i = 1 to N) is constituted by the D / A converter IC as described above. The digital audio output of the equalizer 54i (i = 1 to N) is converted into an analog audio output.

なお、D/A変換器56i(i=1〜N)と正面スピーカアレイ2との間には、これらの音声信号を増幅するアンプを備えるが、図4では図示を省略している。   Note that an amplifier that amplifies these audio signals is provided between the D / A converter 56i (i = 1 to N) and the front speaker array 2, but illustration thereof is omitted in FIG.

遅延制御装置51は、信号処理装置5全体を処理するDSPの機能の一部として構成するか、または演算機能を有するICを備える。遅延制御装置51は、パラメータ計算部12により計算した遅延速度に基づいて、遅延器52i(i=1〜N)の読み出し位置、サンプリング速度を制御し、遅延量情報105を遅延器52i(i=1〜N)に出力する。   The delay control device 51 is configured as a part of a DSP function for processing the entire signal processing device 5 or includes an IC having a calculation function. The delay control device 51 controls the reading position and sampling rate of the delay unit 52i (i = 1 to N) based on the delay rate calculated by the parameter calculation unit 12, and the delay amount information 105 is stored in the delay unit 52i (i = 1 to N).

図4の左右チャンネル信号処理部581は、センタチャンネル以外のチャンネルの信号1022を加工してD/A変換器59に出力するものであり、前述の遅延器52i、ゲイン調整器53i、イコライザ54iと同様の構成を備える。ただし、この左右チャンネル信号処理部581は前述の52i、53iと異なり、必ずしもパラメータ計算部12の計算結果に基づいてこのサラウンド入力1022を加工する必要はない。   The left and right channel signal processing unit 581 in FIG. 4 processes the signal 1022 of the channels other than the center channel and outputs the processed signal 1022 to the D / A converter 59. The delay unit 52i, the gain adjuster 53i, the equalizer 54i, It has the same configuration. However, unlike the above-described 52i and 53i, the left and right channel signal processing unit 581 does not necessarily need to process the surround input 1022 based on the calculation result of the parameter calculation unit 12.

D/A変換器591は、D/A変換器56i(i=1〜N)と同様の構成を備え、左右チャンネル信号処理部581の各ディジタル音声出力をアナログ音声出力に変換する。   The D / A converter 591 has the same configuration as the D / A converter 56i (i = 1 to N), and converts each digital audio output of the left and right channel signal processing unit 581 into an analog audio output.

図4の低音音声入力用信号処理部582は、低音音声信号1023を加工してD/A変換器59に出力するものであり、前述の遅延器52i、ゲイン調整器53i、イコライザ54iと同様の構成を備える。
また、D/A変換器592は、D/A変換器56i(i=1〜N)と同様の構成を備え、低音音声入力用信号処理部582のディジタル音声出力をアナログ音声出力に変換する。
The bass sound input signal processing unit 582 in FIG. 4 processes the bass sound signal 1023 and outputs the processed signal to the D / A converter 59, and is similar to the delay unit 52i, the gain adjuster 53i, and the equalizer 54i described above. It has a configuration.
The D / A converter 592 has a configuration similar to that of the D / A converter 56i (i = 1 to N), and converts the digital sound output of the bass sound input signal processing unit 582 into an analog sound output.

パラメータ計算部12は、各種パラメータを計算するためのICと、この計算に用いる制御データ(例えば音速等のデータ)を格納するROMを備える。または、ICの代わりに制御装置10にCPUを備えて、このCPUの1機能として構成しても良い。前述のとおり、パラメータ計算部12は、音源位置情報101に基づいて正面スピーカアレイ2の各スピーカSPi(i=1〜N)に出力する音声を調整するためのパラメータを計算する。   The parameter calculation unit 12 includes an IC for calculating various parameters and a ROM for storing control data (for example, data such as sound speed) used for the calculation. Alternatively, a CPU may be provided in the control device 10 instead of the IC, and this may be configured as one function of this CPU. As described above, the parameter calculation unit 12 calculates parameters for adjusting the sound output to each speaker SPi (i = 1 to N) of the front speaker array 2 based on the sound source position information 101.

次に、図5、図6を用いて、パラメータ計算部12のパラメータ設定処理について説明する。   Next, the parameter setting process of the parameter calculation unit 12 will be described with reference to FIGS.

図5で示すような仮想音源VSの定位を実現するためには、前述図3で説明したように、仮想音源VSから拡散した音声の波面が均等になるように、合成された波面911を出力する必要がある。そのため、遅延器52i(i=1〜N)は、入力部11に入力された信号にディレイをかけて音声を出力するタイミングを調整する。ゲイン調整器53i(i=1〜N)は、音量を調整する。イコライザ54i(i=1〜N)は、高域の周波数を調整する。パラメータ計算部12は、これら52i、53i、54iを制御して仮想音源VSを焦点とする放音ビームを出力するためのパラメータを生成する。   In order to realize the localization of the virtual sound source VS as shown in FIG. 5, as described in FIG. 3, the synthesized wave front 911 is output so that the wave front of the sound diffused from the virtual sound source VS becomes uniform. There is a need to. For this reason, the delay unit 52i (i = 1 to N) adjusts the timing of outputting the sound by delaying the signal input to the input unit 11. The gain adjuster 53i (i = 1 to N) adjusts the volume. The equalizer 54i (i = 1 to N) adjusts the high frequency. The parameter calculation unit 12 controls these 52i, 53i, and 54i to generate a parameter for outputting a sound emission beam that focuses on the virtual sound source VS.

なお、図4の左右チャンネル信号処理部581は、クロストークキャンセルやモデル頭部伝達関数を用いて、所定の方向の位置に音像定位させるようにしても良い。   Note that the left and right channel signal processing unit 581 in FIG. 4 may perform sound image localization at a position in a predetermined direction using crosstalk cancellation or a model head related transfer function.

図6(A)は、図1に示す正面スピーカアレイ2を上から見た平面図であり、正面スピーカアレイ2より奥側に設定した仮想音源VSの位置関係を表している。図6(B)は、図6(A)で示した位置関係を基にしてパラメータ設定の具体的な値の例を示す。   FIG. 6A is a plan view of the front speaker array 2 shown in FIG. 1 as viewed from above, and shows the positional relationship of the virtual sound source VS set on the back side of the front speaker array 2. FIG. 6B shows an example of specific values for parameter setting based on the positional relationship shown in FIG.

図6(A)に示す伝搬距離Li(i=1〜N)は、前述の図2、図3、図5で示した距離に対応しており、角度αi(i=1〜N)は、仮想音源VSと正面スピーカアレイ2との角度である。パラメータ計算部12は、音源位置情報101に基づいて、仮想音源VSの位置を決定し、仮想音源VSの座標値X、Y、Zを得る。そして、これを基に図6(A)で示すような伝搬距離Li(i=1〜N)[m]、即ち、前述で設定した仮想音源VSと、正面スピーカアレイ2の各スピーカSPiとの伝搬距離Li(i=1〜N)を計算する。また、受信側ユニット1Bと仮想音源VSとの角度を計算する(図4では真上から見た角度になっているが、実際はスピーカSPiとの角度αi(i=1〜N)を計算する)。   The propagation distance Li (i = 1 to N) shown in FIG. 6A corresponds to the distance shown in FIG. 2, FIG. 3, and FIG. 5, and the angle αi (i = 1 to N) is This is the angle between the virtual sound source VS and the front speaker array 2. The parameter calculation unit 12 determines the position of the virtual sound source VS based on the sound source position information 101 and obtains the coordinate values X, Y, and Z of the virtual sound source VS. Based on this, the propagation distance Li (i = 1 to N) [m] as shown in FIG. 6A, that is, the virtual sound source VS set above and each speaker SPi of the front speaker array 2 The propagation distance Li (i = 1 to N) is calculated. Also, the angle between the receiving side unit 1B and the virtual sound source VS is calculated (in FIG. 4, the angle is seen from directly above, but the angle αi (i = 1 to N) with the speaker SPi is actually calculated). .

次に、以上の図6(A)の距離の計算結果を基にして、図6(B)で示すように、パラメータ算出部32のパラメータを設定する。
ディレイ量設定121では、伝搬距離Li(i=1〜N)を音速で除算することにより、時間遅れを計算して設定する。このディレイ量を伝搬距離Li[m]を音速V[m/s]で除算した値とする(図中、マイナスで表記している。)。なお、図3ではこのディレイ量R−Liを音速で除算するとして説明したが、相対的にはこの定数Rは無視できる。
Next, as shown in FIG. 6B, parameters of the parameter calculation unit 32 are set based on the distance calculation result of FIG.
In the delay amount setting 121, the time delay is calculated and set by dividing the propagation distance Li (i = 1 to N) by the speed of sound. This delay amount is set to a value obtained by dividing the propagation distance Li [m] by the sound velocity V [m / s] (indicated by minus in the figure). In FIG. 3, the delay amount R-Li is described as being divided by the sound speed, but the constant R is relatively negligible.

図6の音量設定122では、音量は距離の2乗に反比例するから、予め定めた基準の音量volumeを距離伝搬距離Li(i=1〜N)で除算して計算する。SP1については、音量設定は、基準音量volume×1[m]/伝搬距離Li[m]とすることができる。 In the sound volume setting 122 in FIG. 6, the sound volume is inversely proportional to the square of the distance. Therefore, the predetermined reference sound volume is divided by the distance propagation distance Li (i = 1 to N). For SP1, the volume setting can be set to the reference volume volume × 1 [m] / propagation distance Li 2 [m].

また、図6(B)の周波数特性を調整する高域ゲイン設定123には、各スピーカSPiに届く音声の高域は、高域の指向性によって、減衰するからこの減衰分を考慮して、減衰するような周波数特性のフィルタのパラメータを設定することができる。SP1については、高域のイコライザレベルを、例えば、周波数領域でのゲインの平均レベルの(cosαi)倍とすることができる。   In addition, in the high frequency gain setting 123 for adjusting the frequency characteristics of FIG. 6B, the high frequency of the sound reaching each speaker SPi is attenuated by the directivity of the high frequency, so that this attenuation is taken into consideration. It is possible to set a filter parameter having a frequency characteristic that attenuates. For SP1, the high-frequency equalizer level can be (cosαi) times the average gain level in the frequency domain, for example.

次に、図7を用いて、第1の実施形態のシステムの遅延器52i(i=1〜N)(図4参照。)の構成をさらに具体的に説明する。図7は、この遅延器の構成をリングバッファで行う場合の構成図を示す。音声信号入力1021は、そのデータが読み書き可能なメモリで構成する入力部11に格納されており、入力部11内部のこれとは別区画の一部にリングバッファ111を設けるか、またはリングバッファ111は、信号処理装置5内部に設けた読み書き可能なメモリとする。遅延制御装置51は、リングバッファ111をデータ区画112に示すようなデータアドレス区画に区切り、正面音声信号1021をこのデータアドレス区画に書き込みを行う。このデータ区画112の書き込み位置511は、音声信号のサンプリング周波数で読み出し経路514に沿って512の方向にリング状に順次書き込みを行う。また、リングバッファ111に書き込まれたデータの読み出しは、遅延制御装置51が、この書き込みアドレスに対して所定の遅延をかけて、読み出し位置TAPi(i=1〜N)から読み出しを行う。これにより、1つの正面音声信号1021に対しディレイがかかった複数の音声信号を読み出すことができる。この遅延制御装置51が読み出したデータは、図4で示したようにゲイン調整器53i(i=1〜N)に入力される。   Next, the configuration of the delay device 52i (i = 1 to N) (see FIG. 4) of the system of the first embodiment will be described in more detail with reference to FIG. FIG. 7 shows a configuration diagram when the delay device is configured by a ring buffer. The audio signal input 1021 is stored in the input unit 11 constituted by a memory that can read and write the data, and the ring buffer 111 is provided in a part of the input unit 11 that is separate from this, or the ring buffer 111. Is a readable / writable memory provided in the signal processing device 5. The delay control device 51 divides the ring buffer 111 into data address sections as shown in the data section 112, and writes the front audio signal 1021 into the data address section. The writing position 511 of the data section 112 is sequentially written in a ring shape in the direction of 512 along the reading path 514 at the sampling frequency of the audio signal. In addition, when the data written in the ring buffer 111 is read, the delay control device 51 reads from the read position TAPi (i = 1 to N) with a predetermined delay with respect to the write address. As a result, a plurality of audio signals delayed with respect to one front audio signal 1021 can be read. The data read by the delay control device 51 is input to the gain adjuster 53i (i = 1 to N) as shown in FIG.

図7に示す書き込み位置511に対する読み出し位置TAPiの遅延量は、前述図6で説明したディレイ量設定121の遅延量であり、遅延制御装置51が読み出し位置TAPiの移動513i(i=1〜N)をそれぞれ制御する。なお、この制御は、図4で示した遅延制御装置51が遅延量情報105を与えることに相当する。   The delay amount of the read position TAPi with respect to the write position 511 shown in FIG. 7 is the delay amount of the delay amount setting 121 described with reference to FIG. 6, and the delay control device 51 moves the read position TAPi 513i (i = 1 to N). To control each. This control corresponds to the delay control device 51 shown in FIG.

図7の読み出し位置TAPi(i=1〜N)の移動513iは、図2で示した人物104が静止しているときは、遅延制御装置51は、正面音声信号1021が書き込まれるサンプリング速度と同じ速度で読み出す。他方、人物104(人物に限らず物体でも良い。)が移動するときは、この移動に伴いパラメータ計算部12は、仮想音源VSの位置を変動させることになるから、図6で示したディレイ量設定121で仮想音源VSとスピーカSPi(i=1〜N)の伝搬距離Li(i=1〜N)が変動する。これにより、書き込み位置511に対する読み出し位置読み出し位置TAPiの遅延量が時間と共に変動するから、結果的に正面音声信号1021が書き込まれるサンプリング速度と異なった速度で読み出すことになり、仮想音源VSから発せされる音声のトーンが上下する。このようにして、本実施形態のシステムによれば、正確な音像定位の結果として音源の移動に伴うドップラー効果を表現することができる。   The movement 513i of the reading position TAPi (i = 1 to N) in FIG. 7 is the same as the sampling speed at which the front audio signal 1021 is written when the person 104 shown in FIG. 2 is stationary. Read at speed. On the other hand, when the person 104 (not limited to a person may be an object) moves, the parameter calculation unit 12 changes the position of the virtual sound source VS along with this movement, so the delay amount shown in FIG. In the setting 121, the propagation distance Li (i = 1 to N) between the virtual sound source VS and the speaker SPi (i = 1 to N) varies. As a result, the delay amount of the reading position reading position TAPi with respect to the writing position 511 fluctuates with time. As a result, reading is performed at a speed different from the sampling speed at which the front audio signal 1021 is written, and is emitted from the virtual sound source VS. The audio tone goes up and down. Thus, according to the system of this embodiment, the Doppler effect accompanying the movement of the sound source can be expressed as a result of accurate sound image localization.

<第1の実施形態の応用>
なお、図7で説明した人物104の移動時の音声信号の読み出しは、アドレスの移動513iを変化させて行う。このようにアドレスの移動513iを変化させるときは、アドレスが小数部を持つため、このアドレス値に近接するアドレスのデータを補間計算して求める。
<Application of the first embodiment>
Note that the reading of the audio signal when the person 104 moves as described with reference to FIG. 7 is performed by changing the address movement 513i. Thus, when changing the address movement 513i, since the address has a fractional part, the data of the address close to this address value is obtained by interpolation calculation.

また、本実施形態の装置では、マルチチャンネルの音声信号は図4の構成に限らないが、少なくとも正面音声信号1021を備え、かつ全体として入力がマルチチャンネル、即ち3チャンネル以上であることが必要である。図1では、実スピーカをこのマルチチャンネル分配置した図を示したが、後述のサラウンド入力用信号処理部58でクロストークキャンセル処理をする等により、サラウンド入力1022を前方のスピーカSPR、SPLの2chにミックスダウンする構成でも良い。   Further, in the apparatus of the present embodiment, the multi-channel audio signal is not limited to the configuration shown in FIG. 4, but it is necessary that at least the front audio signal 1021 is provided and the input as a whole is multi-channel, that is, three or more channels. is there. Although FIG. 1 shows a diagram in which real speakers are arranged for the multi-channel, the surround input 1022 is set to 2ch of the front speakers SPR and SPL by performing a crosstalk cancellation process or the like by a surround input signal processing unit 58 described later. It may be configured to mix down.

また、図1の正面スピーカアレイ2は、スクリーン6の下に設置しても良いし、スクリーン6の周囲(左右、上下)に設置しても良い。   Further, the front speaker array 2 of FIG. 1 may be installed under the screen 6 or may be installed around the screen 6 (left and right, up and down).

<第2の実施形態>
次に、図8を用いて、第1の実施形態のシステムの応用に係る第2の実施形態のシアターシステムについて説明する。図8は、このシアターシステムの制御装置の内部構成を示す。このシステムでは、音源位置情報101を外部から入力する代わりに、発音位置推定装置15を設けてパラメータ計算部12に入力する点が異なる。その他の点は、以上図1〜図7を用いて説明したことと同様なので、同じ符号を用いて以上の説明を準用する。
<Second Embodiment>
Next, a theater system according to a second embodiment related to application of the system according to the first embodiment will be described with reference to FIG. FIG. 8 shows the internal configuration of the control device of this theater system. In this system, instead of inputting the sound source position information 101 from the outside, a sound generation position estimation device 15 is provided and input to the parameter calculation unit 12. Since the other points are the same as those described with reference to FIGS. 1 to 7, the above description is applied mutatis mutandis using the same reference numerals.

図8の発音位置推定装置15は、発音位置推定装置15の動作のプログラムを格納するROMと、映像信号100のデータを処理するRAMと、このプログラムを実行するICまたはCPUを備える(図示省略)。   The sound generation position estimation apparatus 15 of FIG. 8 includes a ROM that stores a program for the operation of the sound generation position estimation apparatus 15, a RAM that processes data of the video signal 100, and an IC or CPU that executes the program (not shown). .

図8の発音位置推定装置15は、映像信号100を取り込んで、画像解析を行い、図2で示した人物104の位置を推定し、その情報を把握して、パラメータ計算部12に与える。人物の認識は顔判定等の手法で行えばよく、顔や身体の大きさで奥行き方向の距離(z座標)を推定することも可能である。また、動いている物体の位置を画像解析により把握してパラメータ計算部12に与えることも考えられる。   The sound generation position estimation device 15 in FIG. 8 takes in the video signal 100 and performs image analysis, estimates the position of the person 104 shown in FIG. 2, grasps the information, and gives it to the parameter calculation unit 12. Human recognition may be performed by a method such as face determination, and the distance (z coordinate) in the depth direction can be estimated based on the size of the face or body. It is also conceivable that the position of a moving object is grasped by image analysis and given to the parameter calculation unit 12.

<第2の実施形態の応用>
なお、映像信号100のデータを画像処理するためのRAMは、読み書き可能なメモリで構成する入力部11内部の区画の一部に設けてもよい。また、発音位置推定装置15の動作プログラムを実行するICは、制御装置10に備えたDSPやCPUと共用であっても良い。
<Application of Second Embodiment>
Note that the RAM for image processing of the data of the video signal 100 may be provided in a part of the section inside the input unit 11 configured by a readable / writable memory. Further, the IC that executes the operation program of the sound generation position estimation device 15 may be shared with the DSP or CPU provided in the control device 10.

<第3の実施形態>
次に、図9を用いて、第1、第2の実施形態のシステムの応用に係る第3の実施形態のシアターシステムを示す。第3の実施形態のシアターシステムは、正面スピーカアレイ2に相当するアレイ状に配置したスピーカSPi(i=1〜N)を、スクリーン6の裏側に設けた点が異なる。その他の点は、以上図1〜図8を用いて説明したことと同様なので、同じ符号を用いて以上の説明を準用する。
<Third Embodiment>
Next, the theater system of the third embodiment according to the application of the system of the first and second embodiments will be described with reference to FIG. The theater system of the third embodiment is different in that speakers SPi (i = 1 to N) arranged in an array corresponding to the front speaker array 2 are provided on the back side of the screen 6. Since the other points are the same as those described with reference to FIGS. 1 to 8 above, the above description is applied mutatis mutandis using the same reference numerals.

図9に示す第3の実施形態では、スクリーン6の周囲に置いた正面スピーカアレイ2と異なり、図2で示した人物104と完全に一致させることができる。また、以上の説明、特に図2、図3の説明で示したように、人物104の位置に基づいて、パラメータ計算部12が仮想音源VSの位置を設定している。さらに、図6で示したようなパラメータ設定により、図3(B)で示したようにアレイ状に配置されたスピーカSPi(i=1〜N)で合成された音声は、仮想音源VSから拡散された音声そのままを再現することになる。したがって、本実施形態は、先に掲げた特許文献2、3が単に人物104と一致する位置のスピーカを切り替えて出力するのと異なり、立体的な音像定位を実現できる。   In the third embodiment shown in FIG. 9, unlike the front speaker array 2 placed around the screen 6, it can be completely matched with the person 104 shown in FIG. 2. Further, as shown in the above description, particularly in the description of FIGS. 2 and 3, the parameter calculation unit 12 sets the position of the virtual sound source VS based on the position of the person 104. Further, by the parameter setting as shown in FIG. 6, the sound synthesized by the speakers SPi (i = 1 to N) arranged in an array as shown in FIG. 3B is diffused from the virtual sound source VS. The reproduced voice is reproduced as it is. Therefore, this embodiment can realize three-dimensional sound image localization, unlike Patent Documents 2 and 3 listed above, which simply switch and output a speaker at a position that matches the person 104.

<第3の実施形態の応用>
なお、図9で示すスピーカSPi(i=1〜N)は、裏側にダイナミックスピーカを埋め込んでも良いし、また、特許文献3のように背面に複数の独立したボイスコイルを配置して、スクリーン自体を振動板としてもよい。
<Application of Third Embodiment>
Note that the speaker SPi (i = 1 to N) shown in FIG. 9 may be embedded with a dynamic speaker on the back side, and a plurality of independent voice coils are arranged on the back side as in Patent Document 3, and the screen itself. May be a diaphragm.

第1の実施形態のシアターシステムの構成を示す。The structure of the theater system of 1st Embodiment is shown. 第1の実施形態のシアターシステムの概念図を示す。The conceptual diagram of the theater system of 1st Embodiment is shown. スピーカアレイを用いて、仮想音源の音像定位を再現する方法を表す図を示す。The figure showing the method of reproducing the sound image localization of a virtual sound source using a speaker array is shown. 第1の実施形態のシアターシステムの制御装置の内部構成を示す。The internal structure of the control apparatus of the theater system of 1st Embodiment is shown. 第1の実施形態のシステムにおける仮想音源VS、スピーカSPi(i=1〜N)間の距離と各種パラメータ設定の方法を説明する図を示す。The figure explaining the method of the distance between the virtual sound source VS and the speaker SPi (i = 1-N) in the system of 1st Embodiment, and various parameter setting is shown. 第1の実施形態のシステムにおける仮想音源VS、スピーカSPi(i=1〜N)間の距離、角度から各種パラメータを設定する実施例を示す。An example in which various parameters are set from the distance and angle between the virtual sound source VS and the speakers SPi (i = 1 to N) in the system of the first embodiment will be described. 第1の実施形態のシステムにおける遅延器の構成をリングバッファで行う場合の構成図を示す。The block diagram in the case of performing the structure of the delay device in the system of 1st Embodiment with a ring buffer is shown. 第1の実施形態の応用に係る第2の実施形態のシアターシステムの制御装置の内部構成を示す。The internal structure of the control apparatus of the theater system of 2nd Embodiment which concerns on the application of 1st Embodiment is shown. 第1、第2の実施形態のシステムの応用に係る第3の実施形態のシアターシステムを示す。The theater system of 3rd Embodiment which concerns on the application of the system of 1st, 2nd embodiment is shown.

符号の説明Explanation of symbols

1−シアターシステム、 10−制御装置、 11−入力部
111−リングバッファ、 112−データ区画、 12−パラメータ計算部
121−ディレイ量設定、 122−音量設定、 123−高域ゲイン設定
15−発音位置推定装置、 2−正面スピーカアレイ、 3−プロジェクタ
5−信号処理装置、 51−遅延制御装置、 511−書き込み位置
512−移動、 513i(i=1〜N)−移動、 514−読み出し経路
52i(i=1〜N)−遅延器、 53i(i=1〜N)−ゲイン調整器
54i(i=1〜N)−イコライザ、 56i(i=1〜N)−D/A変換器
581−左右チャンネル入力用信号処理部、 582−低音音声入力用信号処理部
591−D/A変換器、 592−D/A変換器、 6−スクリーン
SPi(i=1〜N)−スピーカ、 SPL−左前スピーカ
SPR−右前スピーカ、 SPLR−左後スピーカ、 SPRR−右後スピーカ
SPW−低音スピーカ、 Li(i=1〜N)−伝搬距離
VS−仮想音源、 αi(i=1〜N)−角度
TAPi(i=1〜N)−読み出し位置
100−映像信号、 101−音源位置情報、 102−音声信号
1021−センタチャンネル音声信号
1022−センタチャンネル以外のチャンネルの信号、 1023−低音音声信号
104−人物、 105−遅延量情報、 106−ゲイン調整情報
107−イコライザ情報、 109i(i=1〜N)−波面
911−合成された波面、 92i(i=1〜N)−距離、 999−視聴者
1-theater system, 10-control device, 11-input unit 111-ring buffer, 112-data partition, 12-parameter calculation unit 121-delay amount setting, 122-volume setting, 123-high-frequency gain setting 15-sound generation position Estimating device, 2-front speaker array, 3-projector 5-signal processing device, 51-delay control device, 511-writing position 512-movement, 513i (i = 1 to N) -movement, 514-reading path 52i (i = 1-N) -delay device, 53i (i = 1-N) -gain adjuster 54i (i = 1-N) -equalizer, 56i (i = 1-N) -D / A converter 581-left and right channels Signal processing unit for input, 582-Signal processing unit for bass sound input 591-D / A converter, 592-D / A converter, 6-screen SPi (i = 1 to N) Speaker, SPL-Left front speaker SPR-Right front speaker, SPLR-Left rear speaker, SPRR-Right rear speaker SPW-Low tone speaker, Li (i = 1-N) -Propagation distance VS-Virtual sound source, αi (i = 1-N) ) -Angle TAPi (i = 1 to N) -reading position 100-video signal, 101-sound source position information, 102-audio signal 1021-center channel audio signal 1022-signal other than the center channel, 1023-bass audio signal 104-person, 105-delay information, 106-gain adjustment information 107-equalizer information, 109i (i = 1-N) -wavefront 911-combined wavefront, 92i (i = 1-N) -distance, 999- Audience

Claims (4)

センタチャンネルを含み映像信号に同期したマルチチャンネル音声信号、および、前記映像信号によって表示される映像内での前記センタチャンネルの音声信号の発生位置を示す位置情報を入力する入力部と、
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記位置情報が示す位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ再生装置。
A multi-channel audio signal that includes a center channel and is synchronized with the video signal; and an input unit that inputs position information indicating a generation position of the audio signal of the center channel in the video displayed by the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so that an audio beam is focused on a position indicated by the position information. A localization control unit for controlling the timing of input to
Multi-channel audio playback device.
映像信号と、この映像信号に同期した音声信号を入力する入力部と、
前記映像信号に基づき、前記音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えた、音像定位装置。
An input unit for inputting a video signal and an audio signal synchronized with the video signal;
A generation position estimation unit that estimates a generation position of the audio signal based on the video signal;
A control unit that controls a speaker array having a plurality of speaker units arranged in an array, and inputs the audio signal to each speaker unit so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling timing;
Sound image localization device with
映像信号と、センタチャンネルを含み前記映像信号に同期したマルチチャンネル音声信号入力チャンネルの音声信号を入力する入力部と、
前記センタチャンネル以外の音声信号をそれぞれ対応するスピーカに出力する左右チャンネル出力部と、
前記映像信号に基づき、前記センタチャンネルの音声信号の発生位置を推定する発生位置推定部と、
アレイ状に配列された複数のスピーカユニットを有するスピーカアレイを制御する制御部であって、前記推定された発生位置に焦点を結ぶ音声ビームとなるように、前記センタチャンネルの音声信号を各スピーカユニットに入力するタイミングを制御する定位制御部と、
を備えたマルチチャンネルオーディオ再生装置。
An input unit for inputting a video signal and an audio signal of a multi-channel audio signal input channel including a center channel and synchronized with the video signal;
Left and right channel output units for outputting audio signals other than the center channel to the corresponding speakers;
A generation position estimation unit that estimates a generation position of the audio signal of the center channel based on the video signal;
A control unit for controlling a speaker array having a plurality of speaker units arranged in an array, wherein each speaker unit receives an audio signal of the center channel so as to form an audio beam focused on the estimated generation position. A localization control unit for controlling the timing of input to
Multi-channel audio playback device.
前記スピーカアレイは、前記映像信号に基づく映像が表示されるスクリーン面に配置されている請求項1または請求項3のいずれかに記載のマルチチャンネルオーディオ再生装置。   4. The multi-channel audio reproduction device according to claim 1, wherein the speaker array is disposed on a screen surface on which an image based on the image signal is displayed.
JP2006088832A 2006-03-28 2006-03-28 Sound image localizer and multichannel audio reproduction device Pending JP2007266967A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006088832A JP2007266967A (en) 2006-03-28 2006-03-28 Sound image localizer and multichannel audio reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006088832A JP2007266967A (en) 2006-03-28 2006-03-28 Sound image localizer and multichannel audio reproduction device

Publications (1)

Publication Number Publication Date
JP2007266967A true JP2007266967A (en) 2007-10-11

Family

ID=38639524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006088832A Pending JP2007266967A (en) 2006-03-28 2006-03-28 Sound image localizer and multichannel audio reproduction device

Country Status (1)

Country Link
JP (1) JP2007266967A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278381A (en) * 2008-05-14 2009-11-26 Nippon Hoso Kyokai <Nhk> Acoustic signal multiplex transmission system, manufacturing device, and reproduction device added with sound image localization acoustic meta-information
WO2010020162A1 (en) * 2008-08-19 2010-02-25 深圳华为通信技术有限公司 Method, communication device and communication system for controlling sound focusing
JP2011071685A (en) * 2009-09-25 2011-04-07 Nec Corp Video and audio processing system, video and audio processing method and program
JP2011124974A (en) * 2009-12-09 2011-06-23 Korea Electronics Telecommun Sound field reproducing apparatus and method using loudspeaker arrays
US20110221975A1 (en) * 2010-03-09 2011-09-15 Homare Kon Audiovisual apparatus
JP2011254359A (en) * 2010-06-03 2011-12-15 Yamaha Corp Sound playback system
JP2012054829A (en) * 2010-09-02 2012-03-15 Sharp Corp Device, method and program for video image presentation, and storage medium
JP2012119738A (en) * 2010-11-29 2012-06-21 Sony Corp Information processing apparatus, information processing method and program
JP4981995B1 (en) * 2011-04-28 2012-07-25 パイオニア株式会社 Audio signal processing apparatus and audio signal processing program
JP2012235456A (en) * 2012-04-20 2012-11-29 Pioneer Electronic Corp Voice signal processing device, and voice signal processing program
US8755543B2 (en) 2010-03-23 2014-06-17 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
WO2014161309A1 (en) * 2013-08-19 2014-10-09 中兴通讯股份有限公司 Method and apparatus for mobile terminal to implement voice source tracking
WO2015025858A1 (en) * 2013-08-19 2015-02-26 ヤマハ株式会社 Speaker device and audio signal processing method
JP2015062269A (en) * 2013-08-19 2015-04-02 ヤマハ株式会社 Speaker device
JP2015126358A (en) * 2013-12-26 2015-07-06 ヤマハ株式会社 Speaker device
JP2015126359A (en) * 2013-12-26 2015-07-06 ヤマハ株式会社 Speaker device
JP2015128208A (en) * 2013-12-27 2015-07-09 ヤマハ株式会社 Speaker device
WO2015073454A3 (en) * 2013-11-14 2015-07-09 Dolby Laboratories Licensing Corporation Screen-relative rendering of audio and encoding and decoding of audio for such rendering
JP2015188179A (en) * 2014-03-27 2015-10-29 フォスター電機株式会社 Acoustic reproduction device
CN106576132A (en) * 2014-08-29 2017-04-19 华为技术有限公司 Sound image playing method and device
US9674609B2 (en) 2013-08-19 2017-06-06 Yamaha Corporation Speaker device and audio signal processing method
WO2018155234A1 (en) * 2017-02-24 2018-08-30 ソニー株式会社 Control device, control method, program, and projection system
US10158958B2 (en) 2010-03-23 2018-12-18 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
US10200804B2 (en) 2015-02-25 2019-02-05 Dolby Laboratories Licensing Corporation Video content assisted audio object extraction
CN110554647A (en) * 2019-09-10 2019-12-10 广州安衡电子科技有限公司 processing method and system for synchronizing moving image and sound image
CN110602424A (en) * 2019-08-28 2019-12-20 维沃移动通信有限公司 Video processing method and electronic equipment
CN112135226A (en) * 2020-08-11 2020-12-25 广东声音科技有限公司 Y-axis audio reproduction method and Y-axis audio reproduction system
CN112806024A (en) * 2018-08-23 2021-05-14 Dts公司 Reflected sound for non-acoustic screens
CN112911354A (en) * 2019-12-03 2021-06-04 海信视像科技股份有限公司 Display apparatus and sound control method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209500A (en) * 1992-11-18 1994-07-26 Sanyo Electric Co Ltd Digital audio signal processing unit
JP2002199498A (en) * 2000-12-25 2002-07-12 Victor Co Of Japan Ltd Method for localizing sound image of sound source and game machine for localizing sound image, and recording medium recording sound image localization program, and transmitting method for the program
JP2003284196A (en) * 2002-03-20 2003-10-03 Sony Corp Sound image localizing signal processing apparatus and sound image localizing signal processing method
JP2004056262A (en) * 2002-07-17 2004-02-19 Sony Corp Acoustic system
JP2004179711A (en) * 2002-11-25 2004-06-24 Sony Corp Loudspeaker system and sound reproduction method
JP2004193877A (en) * 2002-12-10 2004-07-08 Sony Corp Sound image localization signal processing apparatus and sound image localization signal processing method
JP2004312355A (en) * 2003-04-07 2004-11-04 Yamaha Corp Sound field controller
WO2004114725A1 (en) * 2003-06-24 2004-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Wave field synthesis device and method for driving an array of loudspeakers
JP2005051660A (en) * 2003-07-31 2005-02-24 Onkyo Corp Video signal and audio signal reproduction system
JP2005086486A (en) * 2003-09-09 2005-03-31 Alpine Electronics Inc Audio system and audio processing method
JP2006060610A (en) * 2004-08-20 2006-03-02 Yamaha Corp Sound-reproducing device and sound beam reflection position correcting method for the sound reproducing device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209500A (en) * 1992-11-18 1994-07-26 Sanyo Electric Co Ltd Digital audio signal processing unit
JP2002199498A (en) * 2000-12-25 2002-07-12 Victor Co Of Japan Ltd Method for localizing sound image of sound source and game machine for localizing sound image, and recording medium recording sound image localization program, and transmitting method for the program
JP2003284196A (en) * 2002-03-20 2003-10-03 Sony Corp Sound image localizing signal processing apparatus and sound image localizing signal processing method
JP2004056262A (en) * 2002-07-17 2004-02-19 Sony Corp Acoustic system
JP2004179711A (en) * 2002-11-25 2004-06-24 Sony Corp Loudspeaker system and sound reproduction method
JP2004193877A (en) * 2002-12-10 2004-07-08 Sony Corp Sound image localization signal processing apparatus and sound image localization signal processing method
JP2004312355A (en) * 2003-04-07 2004-11-04 Yamaha Corp Sound field controller
WO2004114725A1 (en) * 2003-06-24 2004-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Wave field synthesis device and method for driving an array of loudspeakers
JP2007507121A (en) * 2003-06-24 2007-03-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Wavefront synthesis apparatus and loudspeaker array driving method
JP2005051660A (en) * 2003-07-31 2005-02-24 Onkyo Corp Video signal and audio signal reproduction system
JP2005086486A (en) * 2003-09-09 2005-03-31 Alpine Electronics Inc Audio system and audio processing method
JP2006060610A (en) * 2004-08-20 2006-03-02 Yamaha Corp Sound-reproducing device and sound beam reflection position correcting method for the sound reproducing device

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278381A (en) * 2008-05-14 2009-11-26 Nippon Hoso Kyokai <Nhk> Acoustic signal multiplex transmission system, manufacturing device, and reproduction device added with sound image localization acoustic meta-information
WO2010020162A1 (en) * 2008-08-19 2010-02-25 深圳华为通信技术有限公司 Method, communication device and communication system for controlling sound focusing
JP2011071685A (en) * 2009-09-25 2011-04-07 Nec Corp Video and audio processing system, video and audio processing method and program
KR101268779B1 (en) * 2009-12-09 2013-05-29 한국전자통신연구원 Apparatus for reproducing sound field using loudspeaker array and the method thereof
JP2011124974A (en) * 2009-12-09 2011-06-23 Korea Electronics Telecommun Sound field reproducing apparatus and method using loudspeaker arrays
US8855340B2 (en) 2009-12-09 2014-10-07 Electronics And Telecommunications Research Institute Apparatus for reproducting wave field using loudspeaker array and the method thereof
US20110221975A1 (en) * 2010-03-09 2011-09-15 Homare Kon Audiovisual apparatus
US9110366B2 (en) * 2010-03-09 2015-08-18 Homare Kon Audiovisual apparatus
US9172901B2 (en) 2010-03-23 2015-10-27 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
US9544527B2 (en) 2010-03-23 2017-01-10 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
US10158958B2 (en) 2010-03-23 2018-12-18 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
US10499175B2 (en) 2010-03-23 2019-12-03 Dolby Laboratories Licensing Corporation Methods, apparatus and systems for audio reproduction
US8755543B2 (en) 2010-03-23 2014-06-17 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
US10939219B2 (en) 2010-03-23 2021-03-02 Dolby Laboratories Licensing Corporation Methods, apparatus and systems for audio reproduction
US11350231B2 (en) 2010-03-23 2022-05-31 Dolby Laboratories Licensing Corporation Methods, apparatus and systems for audio reproduction
JP2011254359A (en) * 2010-06-03 2011-12-15 Yamaha Corp Sound playback system
JP2012054829A (en) * 2010-09-02 2012-03-15 Sharp Corp Device, method and program for video image presentation, and storage medium
JP2012119738A (en) * 2010-11-29 2012-06-21 Sony Corp Information processing apparatus, information processing method and program
WO2012147196A1 (en) * 2011-04-28 2012-11-01 パイオニア株式会社 Sound signal processing device and sound signal processing program
JP4981995B1 (en) * 2011-04-28 2012-07-25 パイオニア株式会社 Audio signal processing apparatus and audio signal processing program
JP2012235456A (en) * 2012-04-20 2012-11-29 Pioneer Electronic Corp Voice signal processing device, and voice signal processing program
WO2015025858A1 (en) * 2013-08-19 2015-02-26 ヤマハ株式会社 Speaker device and audio signal processing method
WO2014161309A1 (en) * 2013-08-19 2014-10-09 中兴通讯股份有限公司 Method and apparatus for mobile terminal to implement voice source tracking
JP2015062269A (en) * 2013-08-19 2015-04-02 ヤマハ株式会社 Speaker device
US10038963B2 (en) 2013-08-19 2018-07-31 Yamaha Corporation Speaker device and audio signal processing method
US9674609B2 (en) 2013-08-19 2017-06-06 Yamaha Corporation Speaker device and audio signal processing method
WO2015073454A3 (en) * 2013-11-14 2015-07-09 Dolby Laboratories Licensing Corporation Screen-relative rendering of audio and encoding and decoding of audio for such rendering
JP2017503375A (en) * 2013-11-14 2017-01-26 ドルビー ラボラトリーズ ライセンシング コーポレイション Audio versus screen rendering and audio encoding and decoding for such rendering
US9813837B2 (en) 2013-11-14 2017-11-07 Dolby Laboratories Licensing Corporation Screen-relative rendering of audio and encoding and decoding of audio for such rendering
JP2015126359A (en) * 2013-12-26 2015-07-06 ヤマハ株式会社 Speaker device
JP2015126358A (en) * 2013-12-26 2015-07-06 ヤマハ株式会社 Speaker device
JP2015128208A (en) * 2013-12-27 2015-07-09 ヤマハ株式会社 Speaker device
JP2015188179A (en) * 2014-03-27 2015-10-29 フォスター電機株式会社 Acoustic reproduction device
CN106576132A (en) * 2014-08-29 2017-04-19 华为技术有限公司 Sound image playing method and device
US10200804B2 (en) 2015-02-25 2019-02-05 Dolby Laboratories Licensing Corporation Video content assisted audio object extraction
JPWO2018155234A1 (en) * 2017-02-24 2019-12-19 ソニー株式会社 Control device, control method, program, and projection system
WO2018155234A1 (en) * 2017-02-24 2018-08-30 ソニー株式会社 Control device, control method, program, and projection system
US20200050355A1 (en) * 2017-02-24 2020-02-13 Sony Corporation Control device, control method, program, and projection system
US10860205B2 (en) 2017-02-24 2020-12-08 Sony Corporation Control device, control method, and projection system
CN112806024A (en) * 2018-08-23 2021-05-14 Dts公司 Reflected sound for non-acoustic screens
CN112806024B (en) * 2018-08-23 2024-01-26 Dts公司 Reflected sound for non-acoustic screens
CN110602424A (en) * 2019-08-28 2019-12-20 维沃移动通信有限公司 Video processing method and electronic equipment
CN110554647A (en) * 2019-09-10 2019-12-10 广州安衡电子科技有限公司 processing method and system for synchronizing moving image and sound image
CN112911354A (en) * 2019-12-03 2021-06-04 海信视像科技股份有限公司 Display apparatus and sound control method
CN112135226A (en) * 2020-08-11 2020-12-25 广东声音科技有限公司 Y-axis audio reproduction method and Y-axis audio reproduction system

Similar Documents

Publication Publication Date Title
JP2007266967A (en) Sound image localizer and multichannel audio reproduction device
JP7367785B2 (en) Audio processing device and method, and program
JP4819823B2 (en) Acoustic system driving apparatus, driving method, and acoustic system
JP4633870B2 (en) Audio signal processing method
JP5533248B2 (en) Audio signal processing apparatus and audio signal processing method
JP4273343B2 (en) Playback apparatus and playback method
JP2007274061A (en) Sound image localizer and av system
KR20170106063A (en) A method and an apparatus for processing an audio signal
JP6246922B2 (en) Acoustic signal processing method
US11122381B2 (en) Spatial audio signal processing
JP2006507727A (en) Audio reproduction system and method for reproducing an audio signal
JP2024120097A (en) Information processing device and method, playback device and method, and program
KR102388361B1 (en) 3d moving image playing method, 3d sound reproducing method, 3d moving image playing system and 3d sound reproducing system
KR100955328B1 (en) Apparatus and method for surround soundfield reproductioin for reproducing reflection
JP2007333813A (en) Electronic piano apparatus, sound field synthesizing method of electronic piano and sound field synthesizing program for electronic piano
WO1997004620A1 (en) Headphone device
JP2005286828A (en) Audio reproducing apparatus
JP2006325170A (en) Acoustic signal converter
US11665498B2 (en) Object-based audio spatializer
US11924623B2 (en) Object-based audio spatializer
JP2991452B2 (en) Sound signal reproduction device
WO2023210699A1 (en) Sound generation device, sound reproduction device, sound generation method, and sound signal processing program
Ranjan 3D audio reproduction: natural augmented reality headset and next generation entertainment system using wave field synthesis
US20240135953A1 (en) Audio rendering method and electronic device performing the same
JP2005184140A (en) Stereophonic sound recording method, stereophonic sound reproducing method, and stereophonic sound reproducing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110405

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120327