JP2008311718A - Sound image localization controller, and sound image localization control program - Google Patents

Sound image localization controller, and sound image localization control program Download PDF

Info

Publication number
JP2008311718A
JP2008311718A JP2007155056A JP2007155056A JP2008311718A JP 2008311718 A JP2008311718 A JP 2008311718A JP 2007155056 A JP2007155056 A JP 2007155056A JP 2007155056 A JP2007155056 A JP 2007155056A JP 2008311718 A JP2008311718 A JP 2008311718A
Authority
JP
Japan
Prior art keywords
sound
input level
gain
channel
delay time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007155056A
Other languages
Japanese (ja)
Inventor
Jitsuki Haishi
実希 羽石
Shota Morikawa
将太 森川
Toshiko Murata
寿子 村田
Takuma Suzuki
琢磨 鈴木
Yoshihisa Fujinami
喜久 藤浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007155056A priority Critical patent/JP2008311718A/en
Publication of JP2008311718A publication Critical patent/JP2008311718A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate the unclearness of words and the addition of excessive reverberant sound and to express surround sound naturally and richly when arranging 2 channel speakers more closely to a listener than a normal position. <P>SOLUTION: When the speakers 42FL and 42FR are arranged more closely to the listener 41 than the normal position, an input signal analysis means 1 detects the input level of the audio signals of multiple channels at every prescribed interval of time, and a parameter setting means 2 decides whether or not the input level of this time is higher than the input level of the previous time by a prescribed value or more, sets the gain and/or delay time of rear reverberant sound to a value corresponding to the input level of this time when it is not higher, sets the gain and/or delay time of the rear reverberant sound to a value corresponding to the level in which the input level of the previous time and the prescribed value are added when it is higher, and controls a rear reverberant sound addition means 8. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、音場モードに応じた直接音、初期反射音及び後部残響音を生成する音像定位制御装置及び音像定位制御プログラムに関する。   The present invention relates to a sound image localization control device and a sound image localization control program that generate a direct sound, an initial reflection sound, and a rear reverberation sound according to a sound field mode.

従来、AV(Audio/Video)アンプなどでは,再生音声信号をディジタル信号処理することにより、例えばあたかもコンサートホールで聞いているかのような音場を実現している。音場モードとしては、大ホールモード、小ホールモード、野外モードなどの各種のモードが知られている。このような音場を実現するには、例えば、古くは残響成分をリバーブ処理により付加したり、ホールの反射音状況をあらかじめ計算し、方向別の反射音をFIR(Finite Impulse Response)フィルタの係数として、各チャンネルの音声にフィルタ処理することにより音場感を演出しているものがある。   Conventionally, in an AV (Audio / Video) amplifier or the like, a sound field as if listening to a concert hall, for example, is realized by digitally processing a reproduced audio signal. Various modes such as a large hall mode, a small hall mode, and an outdoor mode are known as sound field modes. In order to realize such a sound field, for example, a reverberation component is added by reverberation in the old days, a reflected sound situation of a hole is calculated in advance, and a reflected sound for each direction is a coefficient of an FIR (Finite Impulse Response) filter. As described above, a sound field feeling is produced by filtering the sound of each channel.

実際には図10に示すように、元の音(直接音S0)に対して所定期間遅延された位置に初期反射音S1が加えられ、さらに所定期間後に後部残響音S2が加えられる。元の音に対する後部残響音S2の遅延時間はプリディレイと称され、残響時間や、副残響音の付加、細かなレベル調整などを行うことが可能で、幅広い音作りができる。また、スピーカの無いところから音が鳴っているように聞こえさせる方法として、いわゆる音像定位技術が確立している。例えば下記の特許文献1では、リアスピーカが無い場合に、左右一対のリアサラウンド信号のチャンネル毎に頭部伝達関数に基づいたフィルタ係数が設定されたコンボルバを有する音像定位手段を備え、この音像定位手段を介した左右一対のリアサラウンド信号を左右一対の前面ステレオ信号に加算し、受聴者に対し略左右対称な後方位置にそれぞれ音像定位させている。   Actually, as shown in FIG. 10, the initial reflected sound S1 is added at a position delayed by a predetermined period with respect to the original sound (direct sound S0), and the rear reverberant sound S2 is further added after a predetermined period. The delay time of the rear reverberation sound S2 with respect to the original sound is referred to as pre-delay, and it is possible to perform reverberation time, addition of sub-reverberation sound, fine level adjustment, etc., so that a wide range of sounds can be created. In addition, a so-called sound image localization technique has been established as a method for making it sound as if sound is being emitted from a place without a speaker. For example, in the following Patent Document 1, when there is no rear speaker, a sound image localization unit having a convolver in which a filter coefficient based on a head-related transfer function is set for each channel of a pair of left and right rear surround signals is provided. The pair of left and right rear surround signals via the means is added to the pair of left and right front stereo signals, and the sound images are localized at rear positions that are substantially symmetrical to the listener.

一方、ニアフィールドリスニングと呼ばれる試聴方法がある(例えば下記の非特許文献1)。これは視聴者と2チャネルのスピーカ間の距離を極端に短くし、スピーカを視聴者に近接して設置することで、小音量で再生・視聴を行うリスニング方式である。マルチチャンネルスピーカの配置についてはITU−RBS775−1で規定されているが、ニアフィールドリスニングには明確な規定はなく、例えば下記の非特許文献1では、ニアフィールドリスニングの距離の目安として、およそ自分の手のひらが左右のスピーカに届くくらいの距離、としている。2チャネルのスピーカを近接して設置しているため、収録されている音声そのものを聞く際にも、また音像定位処理を行った視聴においても、視聴部屋の反射などの影響を少なくすることができる、効果的な視聴方法である。
特開平8−265899号公報(要約書) stereo「無敵の小音量再生」(音楽乃友社)、2005年2月号
On the other hand, there is a listening method called near-field listening (for example, Non-Patent Document 1 below). This is a listening method in which the distance between the viewer and the two-channel speaker is extremely shortened, and the speaker is placed close to the viewer so that playback and viewing can be performed at a low volume. The arrangement of multi-channel speakers is defined in ITU-RBS 775-1, but there is no clear definition for near-field listening. For example, in Non-Patent Document 1 below, as an indication of the distance for near-field listening, The distance that the palm of the hand can reach the left and right speakers. Since two-channel speakers are installed close to each other, it is possible to reduce the influence of reflection in the viewing room, even when listening to the recorded sound itself or when viewing with sound image localization processing. It is an effective viewing method.
JP-A-8-265899 (abstract) stereo “Unbeatable low volume playback” (Music Notosha), February 2005 issue

しかしながら、ニアフィールドリスニングで音像定位制御を行うとき、2チャネルのスピーカが近くにあることで音像定位処理を行っても距離感が出しにくく、距離感を出すために残響効果を付加する必要がある。残響効果を付加する際には、先に述べた初期反射音S1と後部残響音S2が用いられるが、マルチチャンネル音声を用いた音像定位では、こういった残響効果のほか、2個のスピーカにサラウンドを再現するための多くの情報が集まるため、音質の劣化や、残響過多によるセリフの不明瞭などが問題となる。   However, when performing sound image localization control by near-field listening, it is difficult to produce a sense of distance even if sound image localization processing is performed due to the proximity of a 2-channel speaker, and it is necessary to add a reverberation effect to produce a sense of distance. . When the reverberation effect is added, the early reflection sound S1 and the rear reverberation sound S2 described above are used. In sound image localization using multi-channel sound, in addition to the reverberation effect, two speakers are used. Since a lot of information for reproducing the surround sound is collected, there are problems such as deterioration of sound quality and unclearness of lines due to excessive reverberation.

本発明は上記従来技術の問題点に鑑み、聴取者に対して2チャネルのスピーカを通常位置より近接して配置してマルチチャネル信号を音像定位して再生する場合に、セリフの不明瞭さや過剰な残響音の付加を無くし、自然かつ豊かにサラウンド音を表現することができる音像定位制御装置及び音像定位制御プログラムを提供することを目的とする。   In view of the above-described problems of the prior art, the present invention has an unclearness or excessiveness of speech when a multi-channel signal is localized and reproduced by arranging a 2-channel speaker closer to the listener than the normal position. An object of the present invention is to provide a sound image localization control device and a sound image localization control program capable of eliminating surround sound and adding natural and rich surround sound.

本発明は上記目的を達成するために、ステレオ再生を行うための左右のスピーカを通常の再生位置より視聴者に近接した位置に配置してマルチチャネルのオーディオ信号を再生するための音声定位制御装置であって、
前記マルチチャネルのオーディオ信号の入力レベルを所定時間毎に検出する入力レベル検出手段と、
前記入力レベル検出手段により検出された今回の入力レベルが前回の入力レベルより所定値以上大きいか否かを判断し、大きくない場合に後部残響音のゲイン及び/又は遅延時間を前記今回の入力レベルに応じた値に設定し、大きい場合に前記後部残響音のゲイン及び/又は遅延時間を前記前回の入力レベルと所定値を加算したレベルに応じた値に設定する後部残響音制御手段とを、
有する。
In order to achieve the above object, the present invention provides a sound localization control apparatus for reproducing multi-channel audio signals by arranging left and right speakers for stereo reproduction at positions closer to the viewer than normal reproduction positions. Because
Input level detecting means for detecting the input level of the multi-channel audio signal every predetermined time;
It is determined whether or not the current input level detected by the input level detection means is greater than a predetermined value by a predetermined value or more. If not, the gain and / or delay time of the rear reverberant sound is determined as the current input level. A rear reverberation control means for setting the gain and / or delay time of the rear reverberation sound to a value according to a level obtained by adding the previous input level and a predetermined value when large,
Have.

また、本発明は上記目的を達成するために、ステレオ再生を行うための左右のスピーカを通常の再生位置より視聴者に近接した位置に配置してマルチチャネルのオーディオ信号を再生するための音声定位制御プログラムであって、
前記マルチチャネルのオーディオ信号の入力レベルを所定時間ごとに検出する入力レベル検出ステップと、
前記入力レベル検出手段により検出された今回の入力レベルが前回の入力レベルより所定値以上大きいか否かを判断し、大きくない場合に後部残響音のゲイン及び/又は遅延時間を前記今回の入力レベルに応じた値に設定し、大きい場合に前記後部残響音のゲイン及び/又は遅延時間を前記前回の入力レベルと所定値を加算したレベルに応じた値に設定する後部残響音制御ステップとを、
コンピュータに実行させる。
In order to achieve the above object, the present invention provides a sound localization for reproducing multi-channel audio signals by arranging left and right speakers for stereo reproduction at positions closer to the viewer than normal reproduction positions. A control program,
An input level detecting step for detecting an input level of the multi-channel audio signal at predetermined time intervals;
It is determined whether or not the current input level detected by the input level detection means is greater than a predetermined value by a predetermined value or more. If not, the gain and / or delay time of the rear reverberant sound is determined as the current input level. A rear reverberation control step for setting the gain and / or delay time of the rear reverberation sound to a value corresponding to a level obtained by adding the previous input level and a predetermined value when the value is large,
Let the computer run.

本発明によれば、前方の2チャネルのスピーカが通常のステレオ再生位置より視聴者に近接した位置に配置してマルチチャネル信号を音像定位して再生する場合に、今回の入力レベルが前回の入力レベルより所定値以上大きいか否かを判断し、大きくない場合に後部残響音のゲイン及び/又は遅延時間を前記今回の入力レベルに応じた値に設定し、大きい場合に前記後部残響音のゲイン及び/又は遅延時間を前記前回の入力レベルと所定値を加算したレベルに応じた値に設定するので、セリフの不明瞭さや過剰な残響音の付加を無くし、自然かつ豊かにサラウンド音を表現することができる。   According to the present invention, when the front two-channel speaker is arranged at a position closer to the viewer than the normal stereo reproduction position and the multi-channel signal is localized and reproduced, the current input level is the previous input level. It is determined whether or not it is greater than a predetermined value above the level, and if not larger, the rear reverberation gain and / or delay time is set to a value corresponding to the current input level, and if larger, the rear reverberation gain is set. And / or delay time is set to a value corresponding to the level obtained by adding the predetermined value to the previous input level, so that the ambiguity of the lines and the addition of excessive reverberation are eliminated, and the surround sound is expressed naturally and richly. be able to.

以下、図面を参照して本発明の実施の形態について説明する。図1は本発明に係る音像定位制御装置の第1の実施の形態を示すブロック図である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of a sound image localization control apparatus according to the present invention.

図1は一例として、5.1チャンネルサラウンド方式の各オーディオ信号である入力信号FLch、Cch、FRch、SLch、SRch、LFEchをFLch、FRch、LFEchの2.1チャンネルにダウンミックス(LFEchはスルー)して出力する装置を示している。5.1チャンネルサラウンド方式のスピーカシステムは、図2(a)に示すような位置で、視聴者41、ディスプレイ43に対して各チャネルのスピーカ42FL、42C、42FR、42SL、42SR、42LFEが配置される。また、2.1チャンネルの通常位置のスピーカシステムは、図2(b)に示すように前方のみのスピーカ42FL、42FR、42LFEが使用される(以下、通常位置)。それに対し、本発明におけるニアフィールドリスニング方式の2.1チャネルのスピーカシステムは、図3に示すように、スピーカ42FL、42FR、42LFEをディスプレイ43から離して視聴者41に近接して配置する(以下、ニア位置)。LFEchのスピーカ42LFE(サブウーハ)の配置位置は任意であるが、より小音量で利用するために、図3では視聴者41に近接して配置している。   As an example, FIG. 1 shows that 5.1 channel surround audio signals, ie, input signals FLch, Cch, FRch, SLch, SRch, and LFEch are downmixed to 2.1 channels of FLch, FRch, and LFEch (LFEch is through). The output device is shown. In the 5.1 channel surround speaker system, speakers 42FL, 42C, 42FR, 42SL, 42SR, and 42LFE of each channel are arranged with respect to the viewer 41 and the display 43 at the position shown in FIG. The Further, as shown in FIG. 2B, the speaker system of the normal position of the 2.1 channel uses only the front speakers 42FL, 42FR, 42LFE (hereinafter, “normal position”). On the other hand, in the near-field listening 2.1 channel speaker system according to the present invention, as shown in FIG. 3, the speakers 42FL, 42FR, and 42LFE are arranged away from the display 43 and close to the viewer 41 (hereinafter referred to as the viewer 41). , Near position). The arrangement position of the LFEch speaker 42LFE (subwoofer) is arbitrary, but is arranged close to the viewer 41 in FIG.

図1において、DVDプレイヤ(不図示)などから再生されて入力端子12を介して入力した前記の5.1チャンネルのオーディオ信号のうち、LFEchを除く5チャンネルのオーディオ信号は、入力解析手段1を経由して伝達特性付加手段5に印加される。LFEchのオーディオ信号は、伝達特性付加手段5、加算手段9、クロストークキャンセル手段11を経由することなく振幅増幅手段11を介して、スピーカシステム13を構成するLFEchのスピーカ42LFEに印加される。   In FIG. 1, among the 5.1 channel audio signals reproduced from a DVD player (not shown) and the like and input via the input terminal 12, the 5 channel audio signals excluding LFEch are input to the input analysis means 1. Via, it is applied to the transfer characteristic adding means 5. The LFEch audio signal is applied to the LFEch speaker 42LFE constituting the speaker system 13 through the amplitude amplifying unit 11 without passing through the transfer characteristic adding unit 5, the adding unit 9, and the crosstalk canceling unit 11.

伝達特性付加手段5は、図10に示す直接音S0、初期反射音S1、後部残響音S2をそれぞれ処理する直接音処理手段6、初期反射音処理手段7、後部残響音処理手段8を有する。パラメータ情報保持手段3には、LFEchを除く5チャンネルのオーディオ信号に対して、図10に示す直接音S0、初期反射音S1、後部残響音S2を各種の音場モードに応じた音場を生成するためのパラメータ(ゲイン、遅延時間)が保持されている。スピーカ位置/音場モード設定手段4により、ある音場モードが設定されると、その設定された音場モードに応じたパラメータがパラメータ情報保持手段3から読み出されてパラメータ設定手段2により直接音処理手段6、初期反射音処理手段7、残響音処理手段8に設定される。   The transfer characteristic adding means 5 includes direct sound processing means 6, initial reflected sound processing means 7, and rear reverberation sound processing means 8 for processing the direct sound S0, initial reflected sound S1, and rear reverberation sound S2 shown in FIG. The parameter information holding means 3 generates a sound field corresponding to various sound field modes from the direct sound S0, the initial reflection sound S1, and the rear reverberation sound S2 shown in FIG. 10 for the five-channel audio signal excluding LFEch. Parameters (gain, delay time) are stored. When a certain sound field mode is set by the speaker position / sound field mode setting unit 4, a parameter corresponding to the set sound field mode is read from the parameter information holding unit 3 and directly sounded by the parameter setting unit 2. The processing unit 6, the initial reflection sound processing unit 7, and the reverberation sound processing unit 8 are set.

直接音処理手段6、初期反射音処理手段7、残響音処理手段8により処理された5チャンネルのオーディオ信号は、加算手段9によりFLch、FRchの2チャンネルにダウンミックスされる。次いで、この2チャンネルのオーディオ信号は、クロストークキャンセル処理手段10によりクロストークがキャンセルされた後、振幅増幅手段11を介して、スピーカシステム13を構成するFLch、FRchのスピーカ42FL、42FRに印加される。   The 5-channel audio signals processed by the direct sound processing means 6, the early reflection sound processing means 7, and the reverberation sound processing means 8 are downmixed by the adding means 9 into 2 channels of FLch and FRch. Next, after the crosstalk is canceled by the crosstalk cancellation processing means 10, the two-channel audio signals are applied to the FLch and FRch speakers 42 FL and 42 FR constituting the speaker system 13 via the amplitude amplification means 11. The

上記構成において、スピーカ位置/音場モード設定手段4により図2(b)に示す「通常位置」が設定されている場合、スピーカ位置/音場モード設定手段4により設定された音場モードに応じたパラメータとして、「通常位置」で再生した場合に各チャネルの仮想音源がその方向から聞こえるような直接音S0のゲインG0及び遅延時間D0と、初期反射音S1のゲインG1及び遅延時間D1と、後部残響音S2のゲインG2及び遅延時間D3がパラメータ情報保持手段3から読み出されて、パラメータ設定手段2によりそれぞれ直接音処理手段6、初期反射音処理手段7、残響音処理手段8に設定される。他方、スピーカ位置/音場モード設定手段4により図3に示す「ニア位置」が設定されている場合、直接音処理手段6、初期反射音処理手段7には、「ニア位置」で再生した場合に各チャネルの仮想音源がその方向から聞こえるような直接音S0のゲインG0及び遅延時間D0と、初期反射音のゲインG1及び遅延時間D1がパラメータ情報保持手段3から読み出されてパラメータ設定手段2により設定されるが、残響音処理手段8には以下のようにゲインG2’及び遅延時間D2’が設定される。   In the above configuration, when the “normal position” shown in FIG. 2B is set by the speaker position / sound field mode setting unit 4, the sound field mode is set according to the sound field mode set by the speaker position / sound field mode setting unit 4. As parameters, the gain G0 and delay time D0 of the direct sound S0 such that the virtual sound source of each channel can be heard from that direction when reproduced at the “normal position”, the gain G1 and delay time D1 of the initial reflected sound S1, The gain G2 and delay time D3 of the rear reverberant sound S2 are read from the parameter information holding means 3, and set by the parameter setting means 2 to the direct sound processing means 6, the initial reflected sound processing means 7, and the reverberation sound processing means 8, respectively. The On the other hand, when the “near position” shown in FIG. 3 is set by the speaker position / sound field mode setting means 4, the direct sound processing means 6 and the initial reflected sound processing means 7 are reproduced at the “near position”. In addition, the gain G0 and delay time D0 of the direct sound S0, and the gain G1 and delay time D1 of the initial reflected sound, such that the virtual sound source of each channel can be heard from that direction, are read from the parameter information holding means 3 and parameter setting means 2 However, a gain G2 ′ and a delay time D2 ′ are set in the reverberation sound processing means 8 as follows.

「ニア位置」が設定されている場合、5チャンネルのオーディオ信号が入力解析手段1に入力され、チャンネルごとに入力レベルLの解析を行う。入力解析手段1から出力された結果は、パラメータ設定手段2に渡される。入力信号解析からパラメータ設定への流れを示すフローチャートを図4に示す。まずオーディオ信号が入力されると、一定のサンプル数を1フレームとして、現フレームfでの全チャンネル入力信号の最大レベルLmax(f)を検出する(ステップ101)。   When the “near position” is set, the audio signal of 5 channels is input to the input analysis means 1 and the input level L is analyzed for each channel. The result output from the input analysis unit 1 is passed to the parameter setting unit 2. FIG. 4 is a flowchart showing the flow from input signal analysis to parameter setting. First, when an audio signal is input, the maximum level Lmax (f) of all channel input signals in the current frame f is detected with a certain number of samples as one frame (step 101).

本発明では、「ニア位置」が設定されている場合、全チャンネル入力信号の最大レベルLmaxを元に後部残響音S2のパラメータ(遅延時間D2’、ゲインG2’)を設定する。ここで、連続するフレームで最大レベルLmaxの差Δが大きいと、急激に後部残響音S2の変化が起きるため不自然さを感じてしまう。そこで、前フレームとの最大レベル差を比較する。ステップ102では、現フレームfの最大レベルLmax(f)と前フレームf−1との最大レベルLmax(f-1)の差Δ(=Lmax(f)−Lmax(f-1))を基準値THと比較する。ここでの基準値THは、スピーカ位置設定/音場モード設定手段4により設定されたスピーカ位置(通常位置/ニア位置)と音場モード(大ホール、小ホールなど)により決定され、「ニア位置」が設定されている場合、急激な後部残響音S2の変化が起きない値にあらかじめ設定されている。   In the present invention, when the “near position” is set, the parameters (delay time D2 ′, gain G2 ′) of the rear reverberation sound S2 are set based on the maximum level Lmax of all channel input signals. Here, if the difference Δ between the maximum levels Lmax is large in consecutive frames, the rear reverberation sound S2 is suddenly changed, which causes unnaturalness. Therefore, the maximum level difference from the previous frame is compared. In step 102, the difference Δ (= Lmax (f) −Lmax (f−1)) between the maximum level Lmax (f) of the current frame f and the maximum level Lmax (f−1) of the previous frame f−1 is a reference value. Compare with TH. The reference value TH here is determined by the speaker position (normal position / near position) set by the speaker position setting / sound field mode setting means 4 and the sound field mode (large hall, small hall, etc.). "Is set to a value that does not cause a sudden change in the rear reverberation sound S2.

ステップ102において前フレームとの最大レベル差Δが基準値THより小さい場合は、その最大レベルLmax(f)を取得し、この最大レベルLmax(f)に最適な、後部残響音S2のパラメータD2’、G2’を設定する(ステップ103)。他方、ステップ102において前フレームとの最大レベル差Δが基準値THより大きい場合、すなわち、
Lmax(f)−Lmax(f-1)>TH
である場合には、現フレームの最大レベルLmax(f)と前フレームの最大レベルLmax(f-1)とのスムージング処理を行う(ステップ104)。スムージング処理では、例えば
Lmax(f)‘−Lmax(f-1)=TH
とし、次いで、このスムージング処理された後の最大レベルLmax(f)‘に最適な、後部残響音S2のパラメータD2’、G2’を設定する(ステップ103)。これにより、「ニア位置」では前フレームとの最大レベル差Δが基準値THより大きい場合、Lmax(f)‘(<Lmax(f))により、後部残響音S2のゲインG2’を小さくしたり、遅延時間D2’を短くする。そして、後部残響音S2のパラメータD2’、G2’の設定を1フレームごとに行う(ステップ105)。
When the maximum level difference Δ from the previous frame is smaller than the reference value TH in step 102, the maximum level Lmax (f) is acquired, and the parameter D2 ′ of the rear reverberation sound S2 optimum for the maximum level Lmax (f) is obtained. , G2 ′ is set (step 103). On the other hand, if the maximum level difference Δ from the previous frame is larger than the reference value TH in step 102, that is,
Lmax (f) -Lmax (f-1)> TH
If it is, smoothing processing is performed between the maximum level Lmax (f) of the current frame and the maximum level Lmax (f-1) of the previous frame (step 104). In the smoothing process, for example, Lmax (f) ′ − Lmax (f−1) = TH
Then, parameters D2 ′ and G2 ′ of the rear reverberation sound S2 optimum for the maximum level Lmax (f) ′ after the smoothing process are set (step 103). Accordingly, when the maximum level difference Δ from the previous frame is larger than the reference value TH at the “near position”, the gain G2 ′ of the rear reverberation sound S2 can be reduced by Lmax (f) ′ (<Lmax (f)). The delay time D2 ′ is shortened. Then, the parameters D2 ′ and G2 ′ of the rear reverberation sound S2 are set for each frame (step 105).

また、「ニア位置」が設定されている場合に例えば全体的に静かなシーンであるとき、つまり最大レベルLmaxが低いときは、過多な後部残響音S2が付加されることを防ぐため、後部残響音S2のゲインG2’を抑え目にし、遅延時間D2’を短く設定することで、シーンに応じた音場感を得ることができる。   Further, when the “near position” is set, for example, when the scene is generally quiet, that is, when the maximum level Lmax is low, the rear reverberation sound S2 is prevented from being added in order to prevent the rear reverberation sound S2 from being added. By reducing the gain G2 ′ of the sound S2 and setting the delay time D2 ′ to be short, a sound field feeling corresponding to the scene can be obtained.

ここで、音場を再現するための伝達特性Tは、5チャンネルの各々から視聴者の左耳、及び右耳への計10本の伝達特性が必要であり、さらにそのそれぞれが直接音S0、初期反射音S1、後部残響音S2に分けられる。ここでは、後部残響音S2には図5に示すように、遅延器(遅延時間τ1、τ2、τ3、τ4、τ5、τ6)と増幅器(ゲインG21、G22、G23、G24、G25、G26、G27、G28)により、くし型フィルタ21、22、23、24が4段、全域通過フィルタ25、26が2段で構成された残響音処理手段8を用いている。パラメータ設定手段2では、入力信号解析手段1で解析されたレベルを元に後部残響音S2を生成するためのパラメータとして、例えば図5における遅延パラメータ(τ1〜τ6)とゲインパラメータ(G21〜G28)などを残響音処理手段8に設定する。音場モード設定手段4では、選択された音場モードに応じて、パラメータ情報保持手段3から直接音S0のゲインG0及び遅延時間D0と、初期反射音のゲインG1及び遅延時間D1と、後部残響音S2のゲインG2及び遅延時間D2を読み出して伝達特性付加手段5へ渡す。また、図5ではくし型フィルタ4段、全域通過フィルタ2段の構成を示してあるが、音場モードに合わせて、くし形フィルタを2段にするなどの設定を行っても良い。   Here, the transfer characteristics T for reproducing the sound field require a total of ten transfer characteristics from each of the five channels to the viewer's left and right ears, and each of them has a direct sound SO, It is divided into an initial reflected sound S1 and a rear reverberant sound S2. Here, as shown in FIG. 5, the rear reverberation sound S2 includes delay devices (delay times τ1, τ2, τ3, τ4, τ5, τ6) and amplifiers (gains G21, G22, G23, G24, G25, G26, G27). , G28), the reverberation processing means 8 is used in which the comb filters 21, 22, 23, 24 are configured in four stages and the all-pass filters 25, 26 are configured in two stages. In the parameter setting means 2, as parameters for generating the rear reverberation sound S2 based on the level analyzed by the input signal analysis means 1, for example, delay parameters (τ1 to τ6) and gain parameters (G21 to G28) in FIG. Are set in the reverberation processing means 8. In the sound field mode setting means 4, the gain G 0 and delay time D 0 of the direct sound S 0, the gain G 1 and delay time D 1 of the initial reflected sound, and the rear reverberation from the parameter information holding means 3 according to the selected sound field mode. The gain G2 and delay time D2 of the sound S2 are read and transferred to the transfer characteristic adding means 5. In addition, although FIG. 5 shows a configuration of four comb filters and two allpass filters, settings such as two comb filters may be performed in accordance with the sound field mode.

ここで、伝達特性付加手段5は、直接音処理手段6、初期反射音処理手段7及び残響音付加手段8に分けられるが、直接音処理手段6では、伝達特性Tのうち音源からどこにも反射せず視聴者の耳まで到達する直接音S0と呼ばれる成分についての処理を行う。ここでは直接音S0の成分は、音質を重視するため、無響室などの反射の少ない部屋で測定されたものが適しており、あらかじめ直接音処理手段6内に複数のデータを保持している。処理に利用するデータは、選択された音場モードに合わせてパラメータ情報保持手段3よりデータが選ばれ、ゲインG0及び遅延値D0が決定される。   Here, the transfer characteristic adding means 5 is divided into a direct sound processing means 6, an early reflection sound processing means 7 and a reverberation sound adding means 8. The direct sound processing means 6 reflects anywhere from the sound source in the transfer characteristics T. Instead, a process for a component called direct sound S0 that reaches the viewer's ear is performed. Here, the component of the direct sound S0 attaches importance to sound quality, so that the component measured in a room with little reflection such as an anechoic room is suitable, and a plurality of data are stored in the direct sound processing means 6 in advance. . Data used for processing is selected from the parameter information holding means 3 in accordance with the selected sound field mode, and the gain G0 and the delay value D0 are determined.

また、初期反射音処理手段7では、初期反射音S1と呼ばれる、音源から床を除いた壁や天井などに反射して視聴者の耳まで到達する最初の反射音であり、直接音S0から100ms以内に到達する成分についての処理を行う。初期反射音S1は直接音S0とは異なり、反射を利用するものであるので、ある程度の反射のある部屋で測定された伝達特性から、直接音成分S0を取り除いたものを利用する。直接音処理手段6と同様に、あらかじめ初期反射音処理手段7内に複数のデータを保持しており、処理に利用するデータは選択された音場モードにあわせたパラメータ情報保持手段3よりデータが選ばれ、ゲインG1及び遅延値D1が決定される。   The initial reflected sound processing means 7 is an initial reflected sound called initial reflected sound S1, which is the first reflected sound that reaches the viewer's ear after being reflected from the sound source to the wall or ceiling excluding the floor, and is 100ms from the direct sound S0. The process is performed for components that reach within. Since the initial reflected sound S1 is different from the direct sound S0 and uses reflection, a sound obtained by removing the direct sound component S0 from the transfer characteristic measured in a room with some reflection is used. Similar to the direct sound processing means 6, a plurality of data are held in advance in the initial reflected sound processing means 7, and the data used for processing is stored by the parameter information holding means 3 in accordance with the selected sound field mode. The gain G1 and the delay value D1 are determined.

設定された音場を再現するための空間情報を伝達特性付加手段5によって付加された5チャンネルのオーディオ信号は、2チャンネル再生により音像定位を行うため、視聴者の左耳及び右耳への信号として加算器9によりそれぞれ加算され、次いで、クロストークキャンセル処理手段10によってクロストークキャンセル処理される。クロストークキャンセル処理とは、2チャンネルスピ−カによって、実音源とは別の場所にあたかも音源があるかの如く音像を定位させる手法である。音源Xを所望の位置に定位させたい場合には、あらかじめ実頭やダミ−ヘッドで測定した頭部伝達関数(HRTF)をFIRデジタルフィルタの係数とし、音源Xの信号に畳み込み演算処理をする。スピーカにより再生音声を聞く場合には、右チャンネルのスピーカから受聴者の左耳に届く再生音声の成分と、左チャンネルのスピーカから受聴者の右耳に届く再生音声の成分が無視できない程度に必ず存在する。このため、2スピーカ再生により三次元的な音場を適正に得るためには、左右の各チャンネルの音響信号からクロストーク成分を除去し、これにより、あたかも受聴者に対してはクロストークの無い音声が左右の各スピーカから届いているように聞かせることが必要である。これがクロストークキャンセル処理である。   Since the 5-channel audio signal to which the spatial information for reproducing the set sound field is added by the transfer characteristic adding means 5 performs sound image localization by 2-channel reproduction, signals to the viewer's left and right ears Are added by the adder 9, and then the crosstalk cancellation processing is performed by the crosstalk cancellation processing means 10. The crosstalk canceling process is a technique for localizing a sound image as if there is a sound source at a place different from the actual sound source by a 2-channel speaker. When it is desired to localize the sound source X at a desired position, the head-related transfer function (HRTF) measured in advance with a real head or a dummy head is used as a coefficient of the FIR digital filter, and the signal of the sound source X is subjected to convolution calculation processing. When listening to the playback sound through the speaker, make sure that the playback sound component that reaches the listener's left ear from the right channel speaker and the playback sound component that reaches the listener's right ear cannot be ignored from the left channel speaker. Exists. For this reason, in order to properly obtain a three-dimensional sound field by two-speaker reproduction, the crosstalk component is removed from the acoustic signals of the left and right channels, so that there is no crosstalk for the listener. It is necessary to make the audio sound heard from the left and right speakers. This is the crosstalk cancellation process.

図6はその一例で、最も基本的なクロストークキャンセル処理の原理図である。図中のhLL(t)、hLR(t)、hRL(t)、hRR(t)は、2つのスピーカ(図のl(t)、r(t))と左右の耳(図のpl(t),pr(t))との関係から成り立つ頭部伝達関数であり、
d(t)=1/((hLL(t)×hRR(t)−hRL(t)×hLR(t))
である。これにより、図中の関係が成り立つ耳の位置(制御点、と呼ぶ)で、左耳にはLch信号、右耳にはRch信号が再現される。ニアフィールドシステムでは、2つのスピーカを視聴者に近接して設置するため、2つのスピーカと左右の耳との関係から成り立つ頭部伝達関数に、再生システムにあわせた位置で測定した頭部伝達関数を利用する。ここで、pl(t),pr(t)はすでに伝達特性を付加され、2チャンネルに加算された信号が入力されている。これにより、クロストークキャンセル処理されたオーディオ信号を振幅増幅手段11によって増幅し、2.1チャンネルのスピーカシステム13で再生すれば、5.1チャンネルサラウンドが再現できる。
FIG. 6 is an example of this and is a principle diagram of the most basic crosstalk cancellation processing. In the figure, h LL (t), h LR (t), h RL (t), and h RR (t) are two speakers (l (t) and r (t) in the figure) and left and right ears (figure P l (t), p r (t))
d (t) = 1 / ((h LL (t) × h RR (t) −h RL (t) × h LR (t))
It is. As a result, the Lch signal is reproduced for the left ear and the Rch signal is reproduced for the right ear at the position of the ear (referred to as a control point) where the relationship in FIG. In the near field system, since two speakers are installed close to the viewer, the head-related transfer function measured at a position corresponding to the reproduction system is added to the head-related transfer function consisting of the relationship between the two speakers and the left and right ears. Is used. Here, p l (t) and p r (t) have already been added with transfer characteristics, and a signal added to the two channels is input. As a result, 5.1 channel surround can be reproduced by amplifying the audio signal subjected to the crosstalk cancellation processing by the amplitude amplifying means 11 and reproducing it by the 2.1 channel speaker system 13.

LFE信号は、上記した全ての処理を通さずサブウーハ(スピーカ42LFE)に利用されるが、図7に示すようにサブウーハを利用しないで2チャネルのスピーカ42FL、42FRのみを利用する場合、図8に示すようにアッテネータ14を通過した後、L、R信号に加算される。   The LFE signal is used for the subwoofer (speaker 42LFE) without passing through all the above-described processing. However, when only the 2-channel speakers 42FL and 42FR are used without using the subwoofer as shown in FIG. As shown, after passing through the attenuator 14, it is added to the L and R signals.

<第2の実施の形態>
前述した第1の実施の形態では、全チャンネルの最大レベルを検出する手法について述べた。第2の実施の形態として、センター信号のみ独立して設定する手法について説明する。図3、図7に示すように本発明のニアフィールドリスニング方式では、視聴者に近接してスピーカ42FL、42FRを設置するため、ディスプレイ43の映像とスピーカ42FL、42FR間の距離差が生まれてしまう。そのため、距離感を出すために初期反射音S1及び後部残響音S2が重要となる。しかし、入力オーディオ信号のうちセンター信号には、通常セリフが割り振られていることが多いため、初期反射音S1及び後部残響音S2が大きい場合、セリフの明瞭度が悪化したり、シーンに相応しくない響きが付いたりということが考えられる。そのため、セリフの明瞭度を上げるためセンタチャンネルに付加する後部残響音S2のゲインG2’及び遅延値D2’を、他の4チャンネルとは独立して設定することも考えられる。
<Second Embodiment>
In the first embodiment described above, the technique for detecting the maximum level of all channels has been described. As a second embodiment, a method for setting only the center signal independently will be described. As shown in FIGS. 3 and 7, in the near field listening method of the present invention, the speakers 42FL and 42FR are installed close to the viewer, so that a distance difference between the image of the display 43 and the speakers 42FL and 42FR is generated. . Therefore, the initial reflected sound S1 and the rear reverberation sound S2 are important for providing a sense of distance. However, since the center signal is usually assigned to the center signal of the input audio signal, when the initial reflected sound S1 and the rear reverberation sound S2 are large, the intelligibility of the speech deteriorates or is not suitable for the scene. It is possible that there is a sound. Therefore, it is conceivable to set the gain G2 ′ and the delay value D2 ′ of the rear reverberation sound S2 added to the center channel independently of the other four channels in order to increase the clarity of the lines.

センターチャンネルを他の4チャンネルと独立する場合の、入力信号解析からパラメータ設定手段2への流れを示すフローチャートを図9に示す。「ニア位置」が設定されている場合、まず5チャネルのオーディオ信号が入力されると、一定のサンプル数を1フレームとして、1フレームでの各チャンネルの入力信号の最大レベルLmaxを検出する(ステップ111)。次にセンターチャンネルの最大レベルLmax(C)と、他の4チャンネルの最大レベルLmax(4)との比較を行う(ステップ112)。   FIG. 9 is a flowchart showing the flow from the input signal analysis to the parameter setting means 2 when the center channel is independent of the other four channels. When “near position” is set, first, when an audio signal of 5 channels is input, the maximum level Lmax of the input signal of each channel in one frame is detected with a certain number of samples as one frame (step) 111). Next, the maximum level Lmax (C) of the center channel is compared with the maximum level Lmax (4) of the other four channels (step 112).

ステップ112において、センタチャンネルの最大レベルLmax(C)が、他の4チャンネルの最大レベルLmax(4)より大きかった場合は、センタチャンネルの最大レベルLmax(C)を利用し、現フレームfの最大レベルLmax(C,f)と前のフレームf−1の最大レベルLmax(C,f-1)との差Δが開きすぎないよう、この最大レベル差Δと基準値THを比較する(ステップ114)。最大レベル差Δが基準値THより小さい場合は、その現フレームの最大レベルLmax(C,f)を取得し(ステップ115)、取得した最大レベルLmax(C,f)に最適なパラメータ設定をパラメータ設定手段2により1フレームごとに行う(ステップ117)。ここでの基準値THも音場モードにより決定される。また、ステップ114において最大レベル差Δが基準値THより大きい場合は、例えば
Lmax(C,f)‘−Lmax(C,f-1)=TH
となるように、前フレームの最大レベルとのスムージング処理を行う(ステップ116)。そして、スムージング処理された後の最大レベルLmax(C,f)‘を取得し(ステップ115)、この最大レベルLmax(C,f)’に最適なパラメータ設定をパラメータ設定手段2により1フレームごとに行う(ステップ117)。
In step 112, if the maximum level Lmax (C) of the center channel is larger than the maximum level Lmax (4) of the other four channels, the maximum level Lmax (C) of the center channel is used to The maximum level difference Δ is compared with the reference value TH so that the difference Δ between the level Lmax (C, f) and the maximum level Lmax (C, f-1) of the previous frame f-1 does not open too much (step 114). ). If the maximum level difference Δ is smaller than the reference value TH, the maximum level Lmax (C, f) of the current frame is acquired (step 115), and the optimum parameter setting for the acquired maximum level Lmax (C, f) is set as a parameter. This is performed for each frame by the setting means 2 (step 117). The reference value TH here is also determined by the sound field mode. In step 114, if the maximum level difference Δ is larger than the reference value TH, for example, Lmax (C, f) ′ − Lmax (C, f−1) = TH
Then, the smoothing process with the maximum level of the previous frame is performed (step 116). Then, the maximum level Lmax (C, f) ′ after the smoothing process is obtained (step 115), and the parameter setting means 2 sets the optimum parameter setting for the maximum level Lmax (C, f) ′ for each frame. Perform (step 117).

ステップ112においてセンタチャンネルの最大レベルLmax(C)の方が、他の4チャンネルの最大レベルLmax(4)より小さかった場合は、センタチャンネルと他の4チャンネルとのレベル差
Δ=Lmax(4)−Lmax(C)
を取得し(ステップ113)。次いで、パラメータ設定手段2に引き割らす(ステップ117)。また、センタチャンネルの最大レベルLmax(C)の方が大きかった場合と同様に、4チャンネルの現フレームfと前フレームf−1との最大レベル差=Δ(f)−Δ(f-1)を比較する(ステップ114)。最大レベル差=Δ(f)−Δ(f-1)が基準値THより小さい場合は、そのフレームfの最大レベルLmax(4,f)を取得し(ステップ115)、その最大レベルLmax(4,f)に最適なパラメータ設定をパラメータ設定手段2により1フレームごとに行う(ステップ117)。
If the maximum level Lmax (C) of the center channel is smaller than the maximum level Lmax (4) of the other four channels in step 112, the level difference between the center channel and the other four channels Δ = Lmax (4) -Lmax (C)
Is obtained (step 113). Next, it is assigned to the parameter setting means 2 (step 117). Similarly to the case where the maximum level Lmax (C) of the center channel is larger, the maximum level difference between the current frame f and the previous frame f-1 of the four channels = Δ (f) −Δ (f−1). Are compared (step 114). When the maximum level difference = Δ (f) −Δ (f−1) is smaller than the reference value TH, the maximum level Lmax (4, f) of the frame f is acquired (step 115), and the maximum level Lmax (4 , f) optimal parameter setting is performed for each frame by the parameter setting means 2 (step 117).

パラメータ設定手段2は、入力信号解析手段1から渡された最大レベルLmax(4)と、センタチャンネルと他4チャンネルとのレベル差Δ=Lmax(4)−Lmax(C)を元に、後部残響音S2のパラメータ設定を行う。センタ信号のレベルが小さい場合、センタ信号の明瞭度が下がりセリフが聞き取りにくくなる現象が起こるが、他チャンネルとのレベル差Δを取得していることで後部残響音S2のバランスを考え、他のチャンネルも通常より抑えたゲイン設定を行うことにより、セリフの明瞭度を悪化させることなく、自然なサラウンド感を得ることができる。 The parameter setting means 2 is based on the maximum level Lmax (4) passed from the input signal analysis means 1 and the level difference Δ = Lmax (4) −Lmax (C) between the center channel and the other four channels. Set the parameters of the sound S2. When the level of the center signal is small, the phenomenon that the clarity of the center signal decreases and the speech becomes difficult to hear occurs, but considering the balance of the rear reverberation sound S2 by acquiring the level difference Δ with other channels, By setting the gain for the channel to be lower than usual, a natural surround feeling can be obtained without degrading the clarity of the speech.

本発明に係る音像定位制御装置の第1の実施の形態を示すブロック図である。1 is a block diagram showing a first embodiment of a sound image localization control device according to the present invention. 5.1チャンネルスピーカシステムと通常位置の2.1チャンネルスピーカシステムを示す構成図である。It is a block diagram which shows a 5.1 channel speaker system and the 2.1 channel speaker system of a normal position. 2.1チャンネルスピーカシステムを視聴者に近接した構成図である。It is a block diagram in which the 2.1 channel speaker system was close to the viewer. 本発明に係る処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on this invention. 図1の後部残響音生成手段を示す構成図である。It is a block diagram which shows the rear reverberation sound production | generation means of FIG. 図1のクロストークキャンセル処理を示す構成図である。It is a block diagram which shows the crosstalk cancellation process of FIG. 2チャンネルスピーカシステムを視聴者に近接した構成図である。It is a block diagram which adjoined the viewer with the 2-channel speaker system. 2チャンネルの音像定位制御装置を示すブロック図である。It is a block diagram which shows the sound image localization control apparatus of 2 channels. 第2の実施の形態の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of 2nd Embodiment. 直接音と、初期反射音と後部残響音を示す説明図である。It is explanatory drawing which shows a direct sound, an early reflection sound, and a rear reverberation sound.

符号の説明Explanation of symbols

1 入力信号解析手段
2 パラメータ設定手段
3 パラメータ情報保持手段
4 スピーカ位置/音場モード設定手段
5 伝達特性付加手段
6 直接音処理手段
7 初期反射音処理手段
8 後部残響音付加手段
9 加算器
10 クロストークキャンセル処理手段
11 振幅増幅手段
41 視聴者
42FL、42FR スピーカ
DESCRIPTION OF SYMBOLS 1 Input signal analysis means 2 Parameter setting means 3 Parameter information holding means 4 Speaker position / sound field mode setting means 5 Transfer characteristic addition means 6 Direct sound processing means 7 Initial reflection sound processing means 8 Rear reverberation sound addition means 9 Adder 10 Cross Talk cancellation processing means 11 Amplitude amplification means 41 Viewer 42FL, 42FR Speaker

Claims (2)

ステレオ再生を行うための左右のスピーカを通常の再生位置より視聴者に近接した位置に配置してマルチチャネルのオーディオ信号を再生するための音声定位制御装置であって、
前記マルチチャネルのオーディオ信号の入力レベルを所定時間毎に検出する入力レベル検出手段と、
前記入力レベル検出手段により検出された今回の入力レベルが前回の入力レベルより所定値以上大きいか否かを判断し、大きくない場合に後部残響音のゲイン及び/又は遅延時間を前記今回の入力レベルに応じた値に設定し、大きい場合に前記後部残響音のゲイン及び/又は遅延時間を前記前回の入力レベルと所定値を加算したレベルに応じた値に設定する後部残響音制御手段とを、
有する音像定位制御装置。
An audio localization control device for reproducing a multi-channel audio signal by arranging left and right speakers for stereo reproduction at a position closer to the viewer than a normal reproduction position,
Input level detecting means for detecting the input level of the multi-channel audio signal every predetermined time;
It is determined whether or not the current input level detected by the input level detection means is greater than a predetermined value by a predetermined value or more. If not, the gain and / or delay time of the rear reverberant sound is determined as the current input level. A rear reverberation control means for setting the gain and / or delay time of the rear reverberation sound to a value according to a level obtained by adding the previous input level and a predetermined value when large,
A sound image localization control device.
ステレオ再生を行うための左右のスピーカを通常の再生位置より視聴者に近接した位置に配置してマルチチャネルのオーディオ信号を再生するための音声定位制御プログラムであって、
前記マルチチャネルのオーディオ信号の入力レベルを所定時間毎に検出する入力レベル検出ステップと、
前記入力レベル検出手段により検出された今回の入力レベルが前回の入力レベルより所定値以上大きいか否かを判断し、大きくない場合に後部残響音のゲイン及び/又は遅延時間を前記今回の入力レベルに応じた値に設定し、大きい場合に前記後部残響音のゲイン及び/又は遅延時間を前記前回の入力レベルと所定値を加算したレベルに応じた値に設定する後部残響音制御ステップとを、
コンピュータに実行させる音像定位制御プログラム。
An audio localization control program for reproducing a multi-channel audio signal by arranging left and right speakers for stereo reproduction closer to the viewer than a normal reproduction position,
An input level detecting step for detecting an input level of the multi-channel audio signal at predetermined time intervals;
It is determined whether or not the current input level detected by the input level detection means is greater than a predetermined value by a predetermined value or more. If not, the gain and / or delay time of the rear reverberant sound is determined as the current input level. A rear reverberation control step for setting the gain and / or delay time of the rear reverberation sound to a value corresponding to a level obtained by adding the previous input level and a predetermined value when the value is large,
A sound image localization control program to be executed by a computer.
JP2007155056A 2007-06-12 2007-06-12 Sound image localization controller, and sound image localization control program Withdrawn JP2008311718A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007155056A JP2008311718A (en) 2007-06-12 2007-06-12 Sound image localization controller, and sound image localization control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007155056A JP2008311718A (en) 2007-06-12 2007-06-12 Sound image localization controller, and sound image localization control program

Publications (1)

Publication Number Publication Date
JP2008311718A true JP2008311718A (en) 2008-12-25

Family

ID=40238967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007155056A Withdrawn JP2008311718A (en) 2007-06-12 2007-06-12 Sound image localization controller, and sound image localization control program

Country Status (1)

Country Link
JP (1) JP2008311718A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010288262A (en) * 2009-05-14 2010-12-24 Yamaha Corp Signal processing apparatus
JP2011009842A (en) * 2009-06-23 2011-01-13 Sony Corp Audio signal processing device, and audio signal processing method
JP2011205687A (en) * 2011-06-09 2011-10-13 Pioneer Electronic Corp Audio regulator
JP2013085119A (en) * 2011-10-07 2013-05-09 Sony Corp Audio-signal processing device, audio-signal processing method, program, and recording medium
US8831231B2 (en) 2010-05-20 2014-09-09 Sony Corporation Audio signal processing device and audio signal processing method
US9232336B2 (en) 2010-06-14 2016-01-05 Sony Corporation Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus
US9432793B2 (en) 2008-02-27 2016-08-30 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
JP2019033472A (en) * 2017-08-04 2019-02-28 ハーマン インターナショナル インダストリーズ インコーポレイテッド Adjusting perceived elevation of audio image on solid cinema screen
JPWO2019078034A1 (en) * 2017-10-20 2020-11-12 ソニー株式会社 Signal processing equipment and methods, and programs
US11805383B2 (en) 2017-10-20 2023-10-31 Sony Group Corporation Signal processing device, method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9432793B2 (en) 2008-02-27 2016-08-30 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
JP2010288262A (en) * 2009-05-14 2010-12-24 Yamaha Corp Signal processing apparatus
JP2011009842A (en) * 2009-06-23 2011-01-13 Sony Corp Audio signal processing device, and audio signal processing method
US8873761B2 (en) 2009-06-23 2014-10-28 Sony Corporation Audio signal processing device and audio signal processing method
US8831231B2 (en) 2010-05-20 2014-09-09 Sony Corporation Audio signal processing device and audio signal processing method
US9232336B2 (en) 2010-06-14 2016-01-05 Sony Corporation Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus
JP2011205687A (en) * 2011-06-09 2011-10-13 Pioneer Electronic Corp Audio regulator
JP2013085119A (en) * 2011-10-07 2013-05-09 Sony Corp Audio-signal processing device, audio-signal processing method, program, and recording medium
JP2019033472A (en) * 2017-08-04 2019-02-28 ハーマン インターナショナル インダストリーズ インコーポレイテッド Adjusting perceived elevation of audio image on solid cinema screen
JP7299675B2 (en) 2017-08-04 2023-06-28 ハーマン インターナショナル インダストリーズ インコーポレイテッド Adjusting the perceived height of the sound image on a solid movie screen
JPWO2019078034A1 (en) * 2017-10-20 2020-11-12 ソニー株式会社 Signal processing equipment and methods, and programs
US11749252B2 (en) 2017-10-20 2023-09-05 Sony Group Corporation Signal processing device, signal processing method, and program
US11805383B2 (en) 2017-10-20 2023-10-31 Sony Group Corporation Signal processing device, method, and program

Similar Documents

Publication Publication Date Title
KR101567461B1 (en) Apparatus for generating multi-channel sound signal
KR101368859B1 (en) Method and apparatus for reproducing a virtual sound of two channels based on individual auditory characteristic
JP2008311718A (en) Sound image localization controller, and sound image localization control program
KR100608025B1 (en) Method and apparatus for simulating virtual sound for two-channel headphones
US8477951B2 (en) Front surround system and method of reproducing sound using psychoacoustic models
JP4819823B2 (en) Acoustic system driving apparatus, driving method, and acoustic system
JP6620235B2 (en) Apparatus and method for sound stage expansion
KR100677629B1 (en) Method and apparatus for simulating 2-channel virtualized sound for multi-channel sounds
US9607622B2 (en) Audio-signal processing device, audio-signal processing method, program, and recording medium
KR20050060789A (en) Apparatus and method for controlling virtual sound
JP2008522483A (en) Apparatus and method for reproducing multi-channel audio input signal with 2-channel output, and recording medium on which a program for doing so is recorded
JP2005223713A (en) Apparatus and method for acoustic reproduction
JPWO2010076850A1 (en) Sound field control apparatus and sound field control method
WO2008023178A1 (en) Methods and devices for audio upmixing
JP5118267B2 (en) Audio signal reproduction apparatus and audio signal reproduction method
KR20120067294A (en) Speaker array for virtual surround rendering
EP2484127A1 (en) An apparatus
JP2003230198A (en) Sound image localization control device
WO2019198314A1 (en) Audio processing device, audio processing method, and program
US9872121B1 (en) Method and system of processing 5.1-channel signals for stereo replay using binaural corner impulse response
US20200059750A1 (en) Sound spatialization method
JP2005157278A (en) Apparatus, method, and program for creating all-around acoustic field
JP4951985B2 (en) Audio signal processing apparatus, audio signal processing system, program
JP2007336080A (en) Sound compensation device
JP2008154083A (en) Sound field reproducing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907