JP2011119867A - Video and audio device - Google Patents

Video and audio device Download PDF

Info

Publication number
JP2011119867A
JP2011119867A JP2009273800A JP2009273800A JP2011119867A JP 2011119867 A JP2011119867 A JP 2011119867A JP 2009273800 A JP2009273800 A JP 2009273800A JP 2009273800 A JP2009273800 A JP 2009273800A JP 2011119867 A JP2011119867 A JP 2011119867A
Authority
JP
Japan
Prior art keywords
sound image
processing unit
audio
sound
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009273800A
Other languages
Japanese (ja)
Other versions
JP5597975B2 (en
Inventor
Hiroshi Masuda
浩 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009273800A priority Critical patent/JP5597975B2/en
Publication of JP2011119867A publication Critical patent/JP2011119867A/en
Application granted granted Critical
Publication of JP5597975B2 publication Critical patent/JP5597975B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a video and audio device which can achieve a sense of units of a voice and a video using a small number of loudspeakers. <P>SOLUTION: The device includes: a display unit 60 displaying the video; loudspeakers 20 which generate the voice corresponding to the video; and a voice processing unit 15 which generates voice signals to be supplied to the loudspeakers 20 by a predetermined processing. The voice processing unit 15 is composed including a voice image localization processing unit 30 which generates voice signals so as to establish a localizing position of the image of the voice in an arbitrary position on the screen of the display unit 60. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像を表示し音声を発生する映像音響装置に関する。   The present invention relates to an audiovisual apparatus that displays video and generates sound.

ホームシアターセットなどの映像音響装置には、左チャンネル用スピーカと右チャンネル用スピーカに加えて、サラウンド用スピーカなどを設けるものがある。このような映像音響装置では、多くのスピーカを設けることにより、音像の定位位置を制御することができるようになり、臨場感が大きく向上する。ここで、音像の定位位置とは、視聴者が感じる仮想的な音源の位置である。例えば、特許文献1には、多くのスピーカを設け、音像の定位位置の制御を行うことにより、臨場感の向上を図る映像音響装置が提案されている。   Some audiovisual apparatuses such as home theater sets are provided with a surround speaker in addition to a left channel speaker and a right channel speaker. In such an audiovisual apparatus, by providing many speakers, the localization position of the sound image can be controlled, and the sense of reality is greatly improved. Here, the localization position of the sound image is the position of the virtual sound source that the viewer feels. For example, Patent Document 1 proposes an audiovisual apparatus that is provided with many speakers and controls the localization position of a sound image to improve the sense of reality.

特開平02−59000号公報Japanese Patent Laid-Open No. 02-59000

ところで、映像音響装置の臨場感を向上するために、部屋に多くのスピーカを設けた場合、しばしば部屋の概観が損なわれる。また、例えば、テレビセットに複数のスピーカを内蔵する場合においても、近年のテレビセットの薄型デザインや狭額縁デザインの傾向にあっては、十分な効果が得られるようなスピーカ配置が難しくなってきている。   By the way, when many speakers are provided in the room in order to improve the sense of reality of the audiovisual apparatus, the appearance of the room is often impaired. Further, for example, even when a plurality of speakers are built in a television set, it is difficult to arrange the speakers so as to obtain a sufficient effect in the recent trend of thin design and narrow frame design of the television set. Yes.

一方、単に左チャンネル用スピーカと右チャンネル用スピーカの2つのスピーカを有するような映像音響装置においても、スピーカ配置への制約は存在する。一般に、映像音響装置では、音像の定位位置を画面の中央付近に配置するために、画面をはさんで左右対称の位置にスピーカを配置するのが望ましいが、例えばスピーカ内蔵のテレビセットにはデザイン上の制約があり、また、例えばホームシアターシステムには部屋の広さや部屋への配置に関する制約があり、いずれの場合においてもスピーカ配置の自由度が低くなってしまう。これにより、スピーカは、例えばディスプレイの下部など、上記した音響の観点からの望ましい配置とは異なるようにしばしば配置されることとなる。このような映像音響装置を用いて音声や映像を視聴した場合、スピーカから出力される音声の音像の定位位置と、映像が表示されるディスプレイの位置が一致しないため、音声と映像との一体感が損なわれ、視聴者に違和感を与えることとなる。   On the other hand, even in an audiovisual apparatus having only two speakers, a left channel speaker and a right channel speaker, there is a restriction on the speaker arrangement. In general, in audiovisual equipment, it is desirable to place speakers at symmetrical positions across the screen in order to place the localization position of the sound image near the center of the screen. For example, a home theater system has restrictions on the size of the room and the arrangement in the room, and in any case, the degree of freedom of speaker arrangement becomes low. As a result, the speakers are often placed differently from the desired placement from the acoustic point of view, such as the lower part of the display. When viewing audio or video using such an audiovisual device, the localization position of the audio image output from the speaker and the position of the display on which the video is displayed do not match. Will be damaged, giving viewers a sense of incongruity.

本発明はかかる問題点に鑑みてなされたもので、その目的は、スピーカの数をできるだけ少なくすることにより、装置デザインやスピーカ配置の自由度を確保しつつ、音声と映像との一体感を確保できる映像音響装置を提供することにある。   The present invention has been made in view of such problems, and its purpose is to ensure a sense of unity between audio and video while ensuring the degree of freedom in device design and speaker placement by minimizing the number of speakers. An object of the present invention is to provide an audiovisual apparatus capable of performing the above.

本発明の映像音響装置は、映像を表示する表示部と、映像に対応した音声を発生するスピーカと、所定の処理によりスピーカに供給する音声信号を生成する音声処理部とを備えている。上記音声処理部は、音声の音像の定位位置を表示部の画面上の任意の位置に設定するような音声信号を生成する音像定位処理部を含んでいる。   The audiovisual apparatus of the present invention includes a display unit that displays video, a speaker that generates audio corresponding to the video, and an audio processing unit that generates an audio signal to be supplied to the speaker through predetermined processing. The audio processing unit includes a sound image localization processing unit that generates an audio signal that sets the localization position of the sound image of the audio to an arbitrary position on the screen of the display unit.

本発明の映像音響装置では、映像が表示部に表示され、その映像に対応した音声がスピーカから発生する。その際、音像定位処理部は、音声の音像の定位位置を表示部の画面上の任意の位置に設定する。これにより、音像の定位位置と映像の表示位置を一致させることもできる。   In the audiovisual apparatus of the present invention, the video is displayed on the display unit, and sound corresponding to the video is generated from the speaker. At that time, the sound image localization processing unit sets the localization position of the sound image of the voice to an arbitrary position on the screen of the display unit. Thereby, the localization position of the sound image can be matched with the display position of the video.

スピーカは、表示部の上部または下部に複数配置されていてもよい。その際、音像定位処理部は、表示部の上部または下部のうち、一方に低い周波数の音声成分の音像を定位し、他方に高い周波数の音声成分の音像を定位する。この場合でも、上記音像定位処理部は、音像の定位位置を表示部の画面上の任意の位置、例えば中央部に設定することができる。   A plurality of speakers may be arranged above or below the display unit. At that time, the sound image localization processing unit localizes the sound image of the low frequency sound component on one of the upper part and the lower part of the display unit and the sound image of the high frequency sound component on the other side. Even in this case, the sound image localization processing unit can set the localization position of the sound image to an arbitrary position on the screen of the display unit, for example, the center.

本発明の映像音響装置では、表示部と視聴者との相対的な位置関係を測定する位置関係測定手段をさらに有し、音像定位処理部が、その測定された位置関係に基づいて音像の定位位置を制御するようにしてもよい。また、音像定位処理部は、映像の内容に基づいて音像の定位位置を制御するようにしてもよい。   The audiovisual apparatus of the present invention further includes a positional relationship measuring unit that measures a relative positional relationship between the display unit and the viewer, and the sound image localization processing unit is configured to localize the sound image based on the measured positional relationship. The position may be controlled. The sound image localization processing unit may control the localization position of the sound image based on the content of the video.

音像定位処理部は、音声のうち、所定の周波数よりも高い周波数の音声成分の音像の定位位置を制御することが望ましい。その場合、この所定の周波数は、音声の周波数帯域に基づいてあらかじめ設定されてもよいし、音声の周波数帯域を測定する周波数帯域測定手段を設け、その周波数帯域に基づいて求めるものでもよい。さらに、その所定の周波数よりも高い周波数の音声成分の左右の音声信号の間に位相差を生じさせるようにしてもよい。また、その所定の周波数よりも低い周波数の音声成分を遅延させるようにしてもよい。   It is desirable that the sound image localization processing unit controls the localization position of a sound image of a voice component having a frequency higher than a predetermined frequency in the voice. In this case, the predetermined frequency may be set in advance based on the frequency band of the voice, or may be obtained based on the frequency band provided with a frequency band measuring unit that measures the frequency band of the voice. Further, a phase difference may be generated between the left and right audio signals of the audio component having a frequency higher than the predetermined frequency. Moreover, you may make it delay the audio | voice component of a frequency lower than the predetermined frequency.

本発明の映像音響装置によれば、音声の音像の定位位置を表示部の画面上の任意の位置に設定できるようにしたので、音声と映像との一体感を改善でき、視聴者に違和感を与えないようにすることができる。   According to the audiovisual apparatus of the present invention, since the localization position of the sound image of the sound can be set to an arbitrary position on the screen of the display unit, the sense of unity between the sound and the video can be improved, and the viewer feels uncomfortable. You can avoid giving.

本発明に係る音像定位の概念の一例を表す概念図である。It is a conceptual diagram showing an example of the concept of the sound image localization which concerns on this invention. 本発明の第1の実施の形態に係る映像音響装置の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the audiovisual apparatus which concerns on the 1st Embodiment of this invention. 図2に示した音像定位処理部の一構成例を表すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a sound image localization processing unit illustrated in FIG. 2. 図3に示した位相シフト部の一構成例を表すブロック図と、その特性例を表す特性図である。FIG. 4 is a block diagram illustrating a configuration example of a phase shift unit illustrated in FIG. 3 and a characteristic diagram illustrating a characteristic example thereof. 図3に示した仮想音像処理部の一構成例を表すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of a virtual sound image processing unit illustrated in FIG. 3. 図2に示した映像音響装置において、音響伝達関数を説明するための模式図である。FIG. 3 is a schematic diagram for explaining an acoustic transfer function in the audiovisual apparatus shown in FIG. 2. 図2に示した映像音響装置において、視聴者と表示部との位置関係を表す模式図である。FIG. 3 is a schematic diagram illustrating a positional relationship between a viewer and a display unit in the audiovisual apparatus illustrated in FIG. 2. 図2に示した映像音響装置において、音像の定位位置を表す模式図である。FIG. 3 is a schematic diagram showing a localization position of a sound image in the audiovisual apparatus shown in FIG. 2. 図2に示した映像音響装置において、音像の定位位置の変更を表す模式図である。FIG. 3 is a schematic diagram illustrating a change in the localization position of a sound image in the audiovisual apparatus illustrated in FIG. 2. 図2に示した映像音響装置において、ユーザーインターフェースの一例を表す図である。FIG. 3 is a diagram illustrating an example of a user interface in the audiovisual apparatus illustrated in FIG. 2. 本発明の第1の実施の形態の第1の変形例に係る音像定位処理部の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the sound image localization process part which concerns on the 1st modification of the 1st Embodiment of this invention. 本発明の第1の実施の形態の第2の変形例に係る音像定位処理部の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the sound image localization process part which concerns on the 2nd modification of the 1st Embodiment of this invention. 本発明の第1の実施の形態の第3の変形例に係る音像定位処理部の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the sound image localization process part which concerns on the 3rd modification of the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る映像音響装置の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the audiovisual apparatus which concerns on the 2nd Embodiment of this invention. 図14に示した視聴者検出部の一動作例を表す流れ図である。15 is a flowchart illustrating an operation example of a viewer detection unit illustrated in FIG. 14. 図14に示した視聴者検出部の一動作例を表す模式図である。FIG. 15 is a schematic diagram illustrating an operation example of the viewer detection unit illustrated in FIG. 14. 本発明の第3の実施の形態に係る映像音響装置の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the audiovisual apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る映像音響装置の一構成例を表すブロック図である。It is a block diagram showing the example of 1 structure of the audiovisual apparatus which concerns on the 4th Embodiment of this invention.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.音像定位の概念
2.第1の実施の形態
3.第2の実施の形態
4.第3の実施の形態
5.第4の実施の形態
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The description will be given in the following order.
1. 1. Concept of sound image localization First Embodiment 3. FIG. Second embodiment 4. Third embodiment 5. Fourth embodiment

<1.音像定位の概念>
図1は、本発明に係る音像定位の概念を表すものである。この例では、表示部60の下方に配置されたスピーカ20L,20Rから出力される音声が、視聴者にとってどのように聞こえるかを示している。
<1. Concept of sound image localization>
FIG. 1 shows the concept of sound image localization according to the present invention. This example shows how the sound output from the speakers 20L and 20R arranged below the display unit 60 can be heard by the viewer.

通常、スピーカ20L,20Rから発生した音声は、スピーカ20L,20Rの方向から聞こえる。この例では、音声は表示部60の下方から聞こえることになる。つまり、視聴者にとっては、映像が表示される表示部60の方向と、音声が発生するスピーカ20L,20Rの方向が異なっている。よって、例えば、表示部60に映像として表示されている話し手の音声が、話し手が存在しえない表示部60の下方から聞こえることにより、視聴者は違和感を覚えることとなる。   Usually, the sound generated from the speakers 20L and 20R is heard from the direction of the speakers 20L and 20R. In this example, the sound can be heard from below the display unit 60. That is, for the viewer, the direction of the display unit 60 where the video is displayed is different from the direction of the speakers 20L and 20R where the sound is generated. Therefore, for example, when the voice of the speaker displayed as a video on the display unit 60 is heard from below the display unit 60 where no speaker can exist, the viewer feels uncomfortable.

本発明の映像音響装置は、後述するように、低い周波数成分の音声をスピーカ20L,20Rから出力するとともに、高い周波数成分の音声に対しては、あたかもツイータ(仮想ツイータ21L,21R)が画面の上方に配置されているように音声信号処理することにより、視聴者が感じる音源(音像7L,7R)の位置(音像の定位位置)を表示部60の画面上に設定するものである。なお、以下では、スピーカ20L,20Rの総称としてスピーカ20を適宜用い、仮想ツイータ21L,21Rの総称として仮想ツイータ21を適宜用い、音像7L,7Rの総称として音像7を適宜用いるものとする。   As will be described later, the audiovisual apparatus of the present invention outputs low frequency component audio from the speakers 20L and 20R, and for high frequency component audio, the tweeters (virtual tweeters 21L and 21R) appear on the screen. By performing the audio signal processing as arranged above, the position of the sound source (sound images 7L and 7R) that the viewer feels (the position of the sound image) is set on the screen of the display unit 60. In the following, the speaker 20 is appropriately used as a general term for the speakers 20L and 20R, the virtual tweeter 21 is appropriately used as a general term for the virtual tweeters 21L and 21R, and the sound image 7 is appropriately used as a general term for the sound images 7L and 7R.

<2.第1の実施の形態>
[構成例]
(全体構成例)
図2は、本発明の第1の実施の形態に係る映像音響装置の一構成例を表すものである。映像音響装置1は、音声処理部15と、スピーカ20と、映像処理部17と、表示部60とを備えている。
<2. First Embodiment>
[Configuration example]
(Overall configuration example)
FIG. 2 shows a configuration example of the audiovisual apparatus according to the first embodiment of the present invention. The audiovisual apparatus 1 includes an audio processing unit 15, a speaker 20, a video processing unit 17, and a display unit 60.

音声処理部15は、所定の音声信号処理を行う回路であり、後述する音像の定位位置を設定する音像定位処理部30を含み、例えばオーディオDSPにより構成される。音声処理部15には、音源/映像源11より、信号Lin(左チャンネル用信号)、信号Rin(右チャンネル用信号)、信号SLin(サラウンド左チャンネル用信号)、信号SRin(サラウンド右チャンネル用信号)、信号Cin(センターチャンネル用信号)、信号Win(低音用信号)を含む、最大5.1チャンネルのPCM(Pulse Code Modulation)音声信号(デジタル信号)が供給される。音源/映像源11は、例えば、テレビのチューナや、DVDなどのプレーヤに対応する。音源/映像源11から出力される音声信号がアナログ信号の場合には、その音声信号は、A/D変換回路12によりデジタル信号に変換し、SW14等を介して音声処理部15に供給される。一方、音源/映像源11から出力される音声信号がデジタル信号の場合には、その音声信号は、例えばデコーダ13によりデコードされ、SW14等を介して音声処理部15に供給される。SW14は、音声信号の供給元(A/D変換回路12およびデコーダ13)を選択するためのスイッチである。音声処理部15は、入力信号に対して所定の音声信号処理を行い、信号Lout(左チャンネル用信号)および信号Rout(右チャンネル用信号)からなる2チャンネルのPCM音声信号を出力する。   The audio processing unit 15 is a circuit that performs predetermined audio signal processing, and includes a sound image localization processing unit 30 that sets a localization position of a sound image, which will be described later, and is configured by an audio DSP, for example. The sound processor 15 receives from the sound source / video source 11 a signal Lin (left channel signal), a signal Rin (right channel signal), a signal SLin (surround left channel signal), and a signal SRin (surround right channel signal). ), A signal Cin (center channel signal), and a signal Win (bass signal), a maximum 5.1 channel PCM (Pulse Code Modulation) audio signal (digital signal) is supplied. The sound source / video source 11 corresponds to, for example, a TV tuner or a DVD player. When the audio signal output from the sound source / video source 11 is an analog signal, the audio signal is converted into a digital signal by the A / D conversion circuit 12 and supplied to the audio processing unit 15 via the SW 14 or the like. . On the other hand, when the audio signal output from the sound source / video source 11 is a digital signal, the audio signal is decoded by, for example, the decoder 13 and supplied to the audio processing unit 15 via the SW 14 or the like. The SW 14 is a switch for selecting an audio signal supply source (A / D conversion circuit 12 and decoder 13). The audio processing unit 15 performs predetermined audio signal processing on the input signal, and outputs a 2-channel PCM audio signal composed of a signal Lout (left channel signal) and a signal Rout (right channel signal).

スピーカ20(スピーカ20L,20R)は、音声処理部15において音声信号処理された音声信号に基づき、音声を出力するものである。スピーカ20には、音声処理部15の出力信号Lout,Routが、D/A変換回路16によりアナログ信号に変換され、図示しないアンプにより増幅された後に供給される。スピーカ20Lは、音声処理部15の出力信号Loutに基づいて音声を出力し、スピーカ20Rは、音声処理部15の出力信号Routに基づいて音声を出力する。このスピーカ20は、図1において、表示部60の下部に配置されている。つまり、この例では、スピーカ20は、表示部60の画面をはさんで配置されていない。   The speaker 20 (speakers 20L and 20R) outputs sound based on the sound signal processed by the sound processing unit 15. Output signals Lout and Rout of the audio processing unit 15 are converted to analog signals by the D / A conversion circuit 16 and amplified by an amplifier (not shown). The speaker 20L outputs sound based on the output signal Lout of the sound processing unit 15, and the speaker 20R outputs sound based on the output signal Rout of the sound processing unit 15. The speaker 20 is disposed below the display unit 60 in FIG. That is, in this example, the speaker 20 is not disposed across the screen of the display unit 60.

映像処理部17は、音源/映像源11から供給された映像信号に対して、所定の映像信号処理を行う回路である。   The video processing unit 17 is a circuit that performs predetermined video signal processing on the video signal supplied from the sound source / video source 11.

表示部60は、映像処理部17において映像信号処理された映像信号に基づき、表示を行うデバイスである。表示部60は、表示ドライバ18により駆動される。   The display unit 60 is a device that performs display based on the video signal processed by the video signal processing unit 17. The display unit 60 is driven by the display driver 18.

上述した、デコーダ13、音声処理部15、D/A変換回路16、映像処理部17、および表示ドライバ18は、コントローラ19により制御されている。   The decoder 13, the audio processing unit 15, the D / A conversion circuit 16, the video processing unit 17, and the display driver 18 described above are controlled by the controller 19.

(音像定位処理部30)
図3は、音像定位処理部30の一構成例を表すものである。音像定位処理部30は、入力信号Lin,Rinを低い周波数成分と高い周波数成分とに分離し、それぞれに対して別々の処理を行った後に再度足し合わせることにより、音像の定位位置が上昇した音声信号を生成し、出力信号Lout,Routとして出力する回路である。
(Sound image localization processing unit 30)
FIG. 3 illustrates a configuration example of the sound image localization processing unit 30. The sound image localization processing unit 30 separates the input signals Lin and Rin into a low frequency component and a high frequency component, performs separate processing on each of them, and adds them again, thereby increasing the sound image localization position. This circuit generates a signal and outputs it as output signals Lout and Rout.

音像定位処理部30は、低域通過フィルタ(LPF;Low Pass Filter)31L,31Rと、遅延部32L,32Rと、高域通過フィルタ(HPF;High Pass Filter)34L,34Rと、位相シフト部35と、位相反転部36と、仮想音像処理部40と、アンプ37L,37Rと、加算器33L,33Rとを備えている。低域通過フィルタ31L,31R、および遅延部32L,32Rは、入力信号Lin,Rinのうち低い周波数成分に対して処理を行い、高域通過フィルタ34L,34R、位相シフト部35、位相反転部36、仮想音像処理部40、アンプ37L,37Rは、入力信号Lin,Rinのうち高い周波数成分に対して処理を行うようになっている。   The sound image localization processing unit 30 includes low-pass filters (LPF) 31L and 31R, delay units 32L and 32R, high-pass filters (HPF) 34L and 34R, and a phase shift unit 35. A phase inversion unit 36, a virtual sound image processing unit 40, amplifiers 37L and 37R, and adders 33L and 33R. The low-pass filters 31L and 31R and the delay units 32L and 32R process low frequency components of the input signals Lin and Rin, and the high-pass filters 34L and 34R, the phase shift unit 35, and the phase inversion unit 36. The virtual sound image processing unit 40 and the amplifiers 37L and 37R process high frequency components of the input signals Lin and Rin.

低域通過フィルタ31Lは、供給された入力信号Linのうちの低い周波数成分を通過させるフィルタであり、低域通過フィルタ31Rは、供給された入力信号Rinのうちの低い周波数成分を通過させるフィルタである。低域通過フィルタ31L,31Rのカットオフ周波数は、例えば6〜10[kHz]程度に設定される。低域通過フィルタ31L,31Rの次数は4次以上が望ましい。   The low-pass filter 31L is a filter that passes a low frequency component of the supplied input signal Lin, and the low-pass filter 31R is a filter that passes a low frequency component of the supplied input signal Rin. is there. The cut-off frequency of the low-pass filters 31L and 31R is set to about 6 to 10 [kHz], for example. The order of the low-pass filters 31L and 31R is preferably 4th or higher.

遅延部32Lは、低域通過フィルタ31Lから供給された信号を遅延させて出力し、遅延部32Rは、低域通過フィルタ31Rから供給された信号を遅延させて出力するものである。遅延部32L,32Rの遅延量は、例えば1〜3[msec]程度に設定される。これにより、遅延部32L,32Rは、後述するように、低い周波数成分の信号を高い周波数成分の信号よりも遅れさせるように機能する。   The delay unit 32L delays and outputs the signal supplied from the low-pass filter 31L, and the delay unit 32R delays and outputs the signal supplied from the low-pass filter 31R. The delay amount of the delay units 32L and 32R is set to about 1 to 3 [msec], for example. As a result, the delay units 32L and 32R function to delay the low frequency component signal from the high frequency component signal, as will be described later.

高域通過フィルタ34Lは、供給された入力信号Linのうちの高い周波数成分を通過させるフィルタであり、高域通過フィルタ34Rは、供給された入力信号Rinのうちの高い周波数成分を通過させるフィルタである。高域通過フィルタ34L,34Rのカットオフ周波数は、低域通過フィルタ31L,31Rと同様に、例えば6〜10kHz程度に設定される。高域通過フィルタ34L,34Rの次数は4次以上が望ましい。   The high-pass filter 34L is a filter that passes high frequency components of the supplied input signal Lin, and the high-pass filter 34R is a filter that passes high frequency components of the supplied input signal Rin. is there. The cutoff frequency of the high-pass filters 34L and 34R is set to about 6 to 10 kHz, for example, similarly to the low-pass filters 31L and 31R. The order of the high-pass filters 34L and 34R is preferably 4th or higher.

位相シフト回路35は、高域通過フィルタ34L,34Rから供給される信号に対して、それぞれ異なる量の位相シフトを行う機能を有する。   The phase shift circuit 35 has a function of performing different amounts of phase shift on the signals supplied from the high-pass filters 34L and 34R.

図4(A)は、位相シフト回路35の一構成例を表すものであり、図4(B)は、位相シフト回路35の位相特性の一例を表すものである。位相シフト回路35は、APF(All Pass Filter)35L,35Rを有する。APF35Lは、高域通過フィルタ34Lから供給された信号に対して、振幅を一定に保ったまま位相のみを変化させて出力するフィルタであり、APF35Rは、高域通過フィルタ34Rから供給された信号に対して、振幅を一定に保ったまま位相のみを変化させて出力するフィルタである。APF35L,35Rは、例えば、図4(B)に示したような特性L1,L2を有し、APF35LとAPF35Rとで異なる特性をもっている。具体的には、例えば、APF35Lが特性L1のような位相特性を有するとともに、APF35Rが特性L2のような位相特性を有することにより、APF35Lの出力信号の位相がAPF35Rの出力信号の位相よりも進むようになっている。もしくは、APF35Lが特性L2のような位相特性を有するとともに、APF35Rが特性L1のような位相特性を設定し、APF35Lの出力信号の位相がAPF35Rの出力信号の位相よりも遅れるようにしてもよい。これにより、視聴者は、最終的にスピーカ20L,20Rから出力される音声に対して、左右方向の広がりを感じるようになる。APF35L,35Rの次数はどのようなものでもよく、例えば1次や2次が利用可能である。   4A shows an example of the configuration of the phase shift circuit 35, and FIG. 4B shows an example of the phase characteristic of the phase shift circuit 35. The phase shift circuit 35 includes APFs (All Pass Filters) 35L and 35R. The APF 35L is a filter that outputs the signal supplied from the high-pass filter 34L by changing only the phase while keeping the amplitude constant, and the APF 35R is the signal supplied from the high-pass filter 34R. On the other hand, it is a filter that changes and outputs only the phase while keeping the amplitude constant. The APFs 35L and 35R have, for example, characteristics L1 and L2 as shown in FIG. 4B, and the APF 35L and the APF 35R have different characteristics. Specifically, for example, when the APF 35L has a phase characteristic such as the characteristic L1, and the APF 35R has a phase characteristic such as the characteristic L2, the phase of the output signal of the APF 35L advances from the phase of the output signal of the APF 35R. It is like that. Alternatively, the APF 35L may have a phase characteristic such as the characteristic L2, and the APF 35R may set a phase characteristic such as the characteristic L1, so that the phase of the output signal of the APF 35L is delayed from the phase of the output signal of the APF 35R. As a result, the viewer feels the spread in the left-right direction with respect to the sound finally output from the speakers 20L and 20R. Any order of the APFs 35L and 35R may be used. For example, a primary or secondary order can be used.

位相反転部36は、位相シフト部35から供給される信号に対して、そのまま出力するか、もしくは位相を180度ずらして(位相反転して)出力するかを選択する機能を有する。これにより、位相反転部36は、最終的にスピーカ20L,20Rから出力される音声に対して、視聴者がより広がりを感じるような条件を選択する機能を有する。   The phase inversion unit 36 has a function of selecting whether to output the signal supplied from the phase shift unit 35 as it is, or to output the signal by shifting the phase by 180 degrees (phase inversion). Thereby, the phase inverting unit 36 has a function of selecting a condition that makes the viewer feel more spacious with respect to the sound finally output from the speakers 20L and 20R.

位相シフト回路35における遅延量の調整や、位相反転部36における位相反転動作の選択は、図示しない制御線により、外部より設定することができるようになっている。   Adjustment of the delay amount in the phase shift circuit 35 and selection of the phase inversion operation in the phase inversion unit 36 can be set from the outside by a control line (not shown).

仮想音源処理部40は、位相反転部36から供給される信号LVin,RVinに対して、仮想音像処理を行い、それぞれ仮想ツイータ21L,21Rに対応する位置に音像の定位位置が設定された音声信号を生成し、出力信号LVout、RVoutとして出力する機能を有している。   The virtual sound source processing unit 40 performs virtual sound image processing on the signals LVin and RVin supplied from the phase inverting unit 36, and an audio signal in which the localization position of the sound image is set at a position corresponding to the virtual tweeters 21L and 21R, respectively. Are generated and output as output signals LVout and RVout.

アンプ37Lは、仮想音源処理部40から供給される信号LVoutを増幅する利得Kvtlのアンプであり、アンプ37Rは、仮想音源処理部40から供給される信号RVoutを増幅する利得Kvtrのアンプである。これらのアンプの利得Kvtl,Kvtrを設定することにより、音像定位処理部30は、後述するように、最終的にスピーカ20L,20Rから出力される音声の音像の定位位置を、スピーカ20L,20Rの位置から上昇させ、例えば表示部60の画面の中央付近など、任意の位置に設定することができる。なお、以下では、アンプ37L,37Rの総称としてアンプ37を適宜用い、利得Kvtl,Kvtrの総称として利得Kvtを適宜用いるものとする。   The amplifier 37L is an amplifier having a gain Kvtl for amplifying the signal LVout supplied from the virtual sound source processing unit 40, and the amplifier 37R is an amplifier having a gain Kvtr for amplifying the signal RVout supplied from the virtual sound source processing unit 40. By setting the gains Kvtl and Kvtr of these amplifiers, the sound image localization processing unit 30 finally determines the localization position of the sound image of the sound output from the speakers 20L and 20R, as will be described later. It can be raised from the position and set at an arbitrary position, for example, near the center of the screen of the display unit 60. In the following description, the amplifier 37 is appropriately used as a general term for the amplifiers 37L and 37R, and the gain Kvt is appropriately used as a general term for the gains Kvtl and Kvtr.

加算器33Lは、遅延部32Lの出力信号とアンプ37Lの出力信号とを加算する回路であり、加算器33Rは、遅延部32Rの出力信号とアンプ37Rの出力信号とを加算する回路である。   The adder 33L is a circuit that adds the output signal of the delay unit 32L and the output signal of the amplifier 37L, and the adder 33R is a circuit that adds the output signal of the delay unit 32R and the output signal of the amplifier 37R.

(仮想音像処理部40)
図5は、仮想音像処理部40の一構成例を表すものである。仮想音像処理部40は、フィルタ401〜404,407〜410と、加算器405,406,411,412とを備えている。
(Virtual sound image processing unit 40)
FIG. 5 illustrates a configuration example of the virtual sound image processing unit 40. The virtual sound image processing unit 40 includes filters 401 to 404 and 407 to 410 and adders 405, 406, 411 and 412.

フィルタ401〜404は、それぞれ音響伝達関数Hφ1L、Hφ1R、Hφ2L、Hφ2R(後述)をもつフィルタであり、いわゆるバイノーラル化処理に用いられるものである。具体的には、フィルタ401は、入力信号LVinに対して音響伝達関数Hφ1Lを用いてフィルタ処理し、フィルタ402は、入力信号LVinに対して音響伝達関数Hφ1Rを用いてフィルタ処理し、フィルタ403は、入力信号RVinに対して音響伝達関数Hφ2Rを用いてフィルタ処理し、フィルタ404は、入力信号RVinに対して音響伝達関数Hφ2Lを用いてフィルタ処理するようになっている。音響伝達関数Hφ1L、Hφ1R、Hφ2L、Hφ2Rは、例えば、図示しないメモリに記憶されている。   Filters 401 to 404 are filters having acoustic transfer functions Hφ1L, Hφ1R, Hφ2L, and Hφ2R (described later), respectively, and are used for so-called binaural processing. Specifically, the filter 401 filters the input signal LVin using the acoustic transfer function Hφ1L, the filter 402 filters the input signal LVin using the acoustic transfer function Hφ1R, and the filter 403 The input signal RVin is filtered using the acoustic transfer function Hφ2R, and the filter 404 filters the input signal RVin using the acoustic transfer function Hφ2L. The acoustic transfer functions Hφ1L, Hφ1R, Hφ2L, and Hφ2R are stored in a memory (not shown), for example.

加算器405,406は、フィルタ401〜404の出力を加算する回路である。具体的には、加算器405は、フィルタ401の出力信号とフィルタ404の出力信号とを加算し、フィルタ406は、フィルタ402の出力信号とフィルタ403の出力信号とを加算するようになっている。   Adders 405 and 406 are circuits for adding the outputs of the filters 401 to 404. Specifically, the adder 405 adds the output signal of the filter 401 and the output signal of the filter 404, and the filter 406 adds the output signal of the filter 402 and the output signal of the filter 403. .

フィルタ407〜410は、音響伝達関数Hθ1L、Hθ1R、Hθ2L、Hθ2R(後述)に基づいて求められる伝達関数G1〜G4(後述)をもつフィルタであり、スピーカ20L,20Rからの音声の出力時に生じる空間的クロストークを補償するためのいわゆるクロストーク補償処理に用いられるものである。具体的には、フィルタ407は、加算器405の出力信号に対して伝達関数G1を用いてフィルタ処理し、フィルタ408は、加算器405の出力信号に対して伝達関数G2を用いてフィルタ処理し、フィルタ409は、加算器406の出力信号に対して伝達関数G3を用いてフィルタ処理し、フィルタ410は、加算器406の出力信号に対して伝達関数G4を用いてフィルタ処理するようになっている。伝達関数G1〜G4は、例えば、図示しないメモリに記憶されている。   The filters 407 to 410 are filters having transfer functions G1 to G4 (described later) obtained based on the acoustic transfer functions Hθ1L, Hθ1R, Hθ2L, and Hθ2R (described later), and are generated when sound is output from the speakers 20L and 20R. This is used for so-called crosstalk compensation processing for compensating for crosstalk. Specifically, the filter 407 filters the output signal of the adder 405 using the transfer function G1, and the filter 408 filters the output signal of the adder 405 using the transfer function G2. The filter 409 filters the output signal of the adder 406 using the transfer function G3, and the filter 410 filters the output signal of the adder 406 using the transfer function G4. Yes. The transfer functions G1 to G4 are stored in a memory (not shown), for example.

加算器411,412は、フィルタ407〜410の出力を加算する回路である。具体的には、加算器411は、フィルタ407の出力信号とフィルタ410の出力信号とを加算し、出力信号LVoutとして出力するものであり、フィルタ412は、フィルタ408の出力信号とフィルタ409の出力信号とを加算し、出力信号RVoutとして出力するものである。   Adders 411 and 412 are circuits for adding the outputs of the filters 407 to 410. Specifically, the adder 411 adds the output signal of the filter 407 and the output signal of the filter 410 and outputs the result as an output signal LVout. The filter 412 outputs the output signal of the filter 408 and the output of the filter 409. The signals are added together and output as an output signal RVout.

(音響伝達関数)
次に、音響伝達関数とその求め方について、説明する。
(Acoustic transfer function)
Next, the acoustic transfer function and how to find it will be described.

図6は、音響伝達関数を説明するための模式図である。図6において、(A)は、仮想ツイータ21L,21Rの位置に配置されたスピーカ22L,22Rから音声を出力した状態を示し、(B)は、スピーカ20L,20Rから音声を出力した状態を示す。   FIG. 6 is a schematic diagram for explaining the acoustic transfer function. 6A shows a state in which sound is output from the speakers 22L and 22R arranged at the positions of the virtual tweeters 21L and 21R, and FIG. 6B shows a state in which sound is output from the speakers 20L and 20R. .

表示部60の前の視聴者9は、図6(A)に示したように、スピーカ22Lから出力された音声を、左の耳で感じるとともに、右の耳でも感じる。つまり、スピーカ22Lに係る音響伝達関数には、視聴者9から位置ベクトルφ1の位置に配置されたスピーカ22Lから出力された音声が視聴者9の左の耳に伝わるまでの伝達関数Hφ1Lと、スピーカ20Lから出力された音声が視聴者9の右の耳に伝わるまでの伝達関数Hφ1Rの2つが存在する。   As shown in FIG. 6A, the viewer 9 in front of the display unit 60 feels the sound output from the speaker 22L with the left ear and the right ear. That is, the acoustic transfer function related to the speaker 22L includes the transfer function Hφ1L until the sound output from the speaker 22L arranged at the position of the position vector φ1 from the viewer 9 is transmitted to the left ear of the viewer 9, and the speaker. There are two transfer functions Hφ1R until the sound output from 20L is transmitted to the right ear of the viewer 9.

同様に、視聴者9は、スピーカ22Rから出力された音声を、右の耳で感じるとともに、左の耳でも感じる。つまり、スピーカ22Rに係る音響伝達関数には、視聴者9から位置ベクトルφ2の位置に配置されたスピーカ22Rから出力された音声が視聴者9の右の耳に伝わるまでの伝達関数Hφ2Rと、スピーカ22Rから出力された音声が視聴者9の左の耳に伝わるまでの伝達関数Hφ2Lの2つが存在する。   Similarly, the viewer 9 feels the sound output from the speaker 22R with the right ear and the left ear. That is, the acoustic transfer function related to the speaker 22R includes the transfer function Hφ2R until the sound output from the speaker 22R arranged at the position of the position vector φ2 from the viewer 9 is transmitted to the right ear of the viewer 9, and the speaker. There are two transfer functions Hφ2L until the sound output from 22R is transmitted to the left ear of the viewer 9.

これらは、スピーカ20L,20Rから音声が出力された場合においても、全く同じである。すなわち、図6(B)に示したように、スピーカ20Lに係る音響伝達関数には、視聴者9から位置ベクトルθ1の位置に配置されたスピーカ20Lから出力された音声が視聴者9の左の耳に伝わるまでの伝達関数Hθ1Lと、スピーカ20Lから出力された音声が視聴者9の右の耳に伝わるまでの伝達関数Hθ1Rの2つが存在する。そして、スピーカ20Rに係る音響伝達関数には、視聴者9から位置ベクトルθ2の位置に配置されたスピーカ20Rから出力された音声が視聴者9の右の耳に伝わるまでの伝達関数Hθ2Rと、スピーカ20Rから出力された音声が視聴者9の左の耳に伝わるまでの伝達関数Hθ2Lの2つが存在する。   These are exactly the same even when sound is output from the speakers 20L and 20R. That is, as shown in FIG. 6B, in the acoustic transfer function related to the speaker 20L, the sound output from the speaker 20L arranged at the position of the position vector θ1 from the viewer 9 is the left of the viewer 9. There are two transfer functions, Hθ1L until the sound is transmitted to the ear and the transfer function Hθ1R until the sound output from the speaker 20L is transmitted to the right ear of the viewer 9. The acoustic transfer function related to the speaker 20R includes a transfer function Hθ2R until the sound output from the speaker 20R arranged at the position of the position vector θ2 from the viewer 9 is transmitted to the right ear of the viewer 9, and the speaker. There are two transfer functions Hθ2L until the sound output from 20R is transmitted to the left ear of the viewer 9.

これらの音響伝達関数は、スピーカ20L,20R,22L,22Rからそれぞれ出力されたインパルス音を、視聴者9の左右の耳元でインパルス応答として測定することにより求めることができる。例えば、音響伝達関数Hφ1Lは、スピーカ22Lから出力されたインパルス音を、視聴者9の左の耳元でインパルス応答として測定することにより求められる。また、音響伝達関数Hθ2Rは、スピーカ20Rから出力されたインパルス音を、視聴者9の右の耳元でインパルス応答として測定することにより求められる。すなわち、視聴者9の耳元で測定したインパルス応答が、インパルス音を出力したスピーカ20L,20R,22L,22Rの位置から視聴者9の耳元までの音響伝達関数に相当することとなる。   These acoustic transfer functions can be obtained by measuring impulse sounds output from the speakers 20L, 20R, 22L, and 22R as impulse responses at the left and right ears of the viewer 9, respectively. For example, the acoustic transfer function Hφ1L is obtained by measuring the impulse sound output from the speaker 22L as an impulse response at the left ear of the viewer 9. The acoustic transfer function Hθ2R is obtained by measuring the impulse sound output from the speaker 20R as an impulse response at the right ear of the viewer 9. That is, the impulse response measured at the ear of the viewer 9 corresponds to an acoustic transfer function from the position of the speakers 20L, 20R, 22L, and 22R that output the impulse sound to the ear of the viewer 9.

図5に示したフィルタ401〜404の音響伝達関数Hφ1L,Hφ1R,Hφ2L,Hφ2Rは、以上のようにして求めた音響伝達関数を用いることができる。また、図5に示したフィルタ407〜410の伝達関数G1〜G4は、以上のようにして求めた音響伝達関数Hθ1L,Hθ1R,Hθ2L,Hθ2Rを次式に代入して得られたものを用いることができる。

Figure 2011119867
The acoustic transfer functions Hφ1L, Hφ1R, Hφ2L, and Hφ2R of the filters 401 to 404 shown in FIG. 5 can use the acoustic transfer functions obtained as described above. Further, the transfer functions G1 to G4 of the filters 407 to 410 shown in FIG. 5 are obtained by substituting the acoustic transfer functions Hθ1L, Hθ1R, Hθ2L, and Hθ2R obtained as described above into the following equations. Can do.
Figure 2011119867

仮想音像処理部40は、以上のようにして求めた伝達関数が設定されたフィルタ401〜404,407〜410を用いることにより、高い周波数成分の音声に関して、仮想ツイータ21の位置に音像の定位位置を設定することができる。これにより、音像定位処理部30は、低い周波数成分の音声についてはスピーカ20の位置に音像の定位位置を設定し、高い周波数成分の音声に関しては、仮想ツイータ21の位置に音像の定位位置を設定し、結果として、音声全体の音像の定位位置をスピーカ20の位置から表示部60の中央付近に上昇させるようになっている。   The virtual sound image processing unit 40 uses the filters 401 to 404 and 407 to 410 in which the transfer functions obtained as described above are set, so that the position of the sound image is positioned at the position of the virtual tweeter 21 with respect to the high frequency component sound. Can be set. Thereby, the sound image localization processing unit 30 sets the localization position of the sound image at the position of the speaker 20 for the low frequency component sound, and sets the localization position of the sound image at the position of the virtual tweeter 21 for the sound of the high frequency component. As a result, the localization position of the sound image of the entire sound is raised from the position of the speaker 20 to the vicinity of the center of the display unit 60.

[動作および作用]
続いて、本実施の形態の映像音響装置1の動作および作用について説明する。
[Operation and Action]
Next, the operation and action of the audiovisual apparatus 1 of the present embodiment will be described.

(全体動作概要)
音源/映像源11は、音声信号および映像信号を出力する。映像処理部17は、音源/映像源11から供給された映像信号に基づいて、所定の映像処理を行う。表示ドライバ18は、映像処理部17から供給された映像信号に基づいて、表示部60を駆動するための駆動信号を生成する。表示部60は、表示ドライバ18から供給された駆動信号に基づき表示を行う。
(Overview of overall operation)
The sound source / video source 11 outputs an audio signal and a video signal. The video processing unit 17 performs predetermined video processing based on the video signal supplied from the sound source / video source 11. The display driver 18 generates a drive signal for driving the display unit 60 based on the video signal supplied from the video processing unit 17. The display unit 60 performs display based on the drive signal supplied from the display driver 18.

A/D変換回路12は、音源/映像源11からアナログ信号の音声信号が供給された場合に、その信号をデジタル信号に変換する。デコーダ13は、音源/映像源11からデジタル信号の音声信号が供給された場合に、その信号をデコードする。SW14は、A/D変換回路12から出力される音声信号とデコーダ13から出力される音声信号とを選択し、音声処理部15に供給する。音声処理部15は、入力された音声信号に対して、所定の音声信号処理を行う。特に、音声処理部15の音像定位処理部30は、入力された音声信号を低い周波数成分と高い周波数成分とに分離し、低い周波数成分に対しては遅延処理を行い、高い周波数成分に対しては仮想音像処理を行った後に、それぞれを再度足し合わせることにより、音像の定位位置をスピーカ20の位置から表示部60の中央付近に上昇させるような音声信号を生成し出力する。D/A変換回路16は、音声処理部15から出力されたデジタル形式の音声信号をアナログ信号に変換する。スピーカ20は、D/A変換回路16から供給されたアナログ信号に基づいて、音声を出力する。   When an analog audio signal is supplied from the sound source / video source 11, the A / D conversion circuit 12 converts the signal into a digital signal. When the audio signal of the digital signal is supplied from the sound source / video source 11, the decoder 13 decodes the signal. The SW 14 selects the audio signal output from the A / D conversion circuit 12 and the audio signal output from the decoder 13 and supplies the selected audio signal to the audio processing unit 15. The audio processing unit 15 performs predetermined audio signal processing on the input audio signal. In particular, the sound image localization processing unit 30 of the audio processing unit 15 separates the input audio signal into a low frequency component and a high frequency component, performs a delay process on the low frequency component, and performs an operation on the high frequency component. After performing the virtual sound image processing, each of them is added again to generate and output an audio signal that raises the localization position of the sound image from the position of the speaker 20 to the vicinity of the center of the display unit 60. The D / A conversion circuit 16 converts the digital audio signal output from the audio processing unit 15 into an analog signal. The speaker 20 outputs sound based on the analog signal supplied from the D / A conversion circuit 16.

(音像の定位位置の設定)
次に、音像の定位位置の設定について説明する。
(Sound image localization position setting)
Next, setting of the localization position of the sound image will be described.

図7は、視聴者と表示部との位置関係を表す模式図である。図7において、(A)は、視聴者が表示部の正面から映像を見る状態を示し、(B)は、視聴者が表示部を見上げて映像を見る状態を示し、(C)は、視聴者が表示部を見下ろして映像を見る状態を示す。   FIG. 7 is a schematic diagram showing the positional relationship between the viewer and the display unit. 7A shows a state in which the viewer views the video from the front of the display unit, FIG. 7B shows a state in which the viewer looks up the display unit and looks at the video, and FIG. 7C shows the viewing. Shows a state in which a person looks down at the display section and looks at an image.

一般に、視聴者は、必ずしも表示部の映像を正面から見るとは限らない。すなわち、視聴者9は、表示部60の正面から映像を見る場合(図7(A))のほか、表示部60を見上げて映像を見る場合(図7(B))や、表示部60を見下ろして映像を見る場合(図7(C))がありえる。これらのケースは、例えば、視聴者が床に座って映像を見る場合や、椅子に座って映像を見る場合などに対応する。よって、例えば、視聴者9が表示部60の正面から映像を見る場合を想定して、音像の定位位置が表示部60の中央付近になるように音像上昇量Sを設定しても、表示部60を見上げて映像を見る場合や、表示部60を見下ろして映像を見る場合には、音像の定位位置が表示部60の中央付近からずれてしまう。つまり、図7に示したように、視聴者9と表示部60との相対的な位置関係によって、音像の定位位置を画面の中央に設定するための最適な音像上昇量Sは異なる。特に、図7に示したように、視聴者が表示部60を見上げて映像を見る場合の音像上昇量Sb(図7(B))や、表示部60を見下ろして映像を見る場合の音像上昇量Sc(図7(C))は、視聴者が表示部60を正面から映像を見る場合の音像上昇量Sa(図7(A))よりも少ないものとなる。   In general, the viewer does not always view the video on the display unit from the front. That is, the viewer 9 views the video from the front of the display unit 60 (FIG. 7A), looks up the display unit 60 and looks at the video (FIG. 7B), or displays the display unit 60. There may be a case where the video is viewed from below (FIG. 7C). These cases correspond to, for example, a case where a viewer sits on the floor and watches a video, or a seat sits on a chair and watches a video. Therefore, for example, assuming that the viewer 9 views the video from the front of the display unit 60, even if the sound image increase amount S is set so that the localization position of the sound image is near the center of the display unit 60, the display unit When the video is viewed while looking up at 60, or when the video is viewed while looking down at the display unit 60, the localization position of the sound image is shifted from the vicinity of the center of the display unit 60. That is, as shown in FIG. 7, the optimum sound image increase amount S for setting the localization position of the sound image at the center of the screen differs depending on the relative positional relationship between the viewer 9 and the display unit 60. In particular, as shown in FIG. 7, the sound image increase amount Sb (FIG. 7B) when the viewer looks up at the display unit 60 and looks at the video, or the sound image rise when the viewer looks down at the display unit 60 and looks at the video. The amount Sc (FIG. 7C) is smaller than the sound image increase amount Sa (FIG. 7A) when the viewer views the video from the front of the display unit 60.

映像音響装置1は、このように、視聴者9と表示部60との相対的な位置関係が異なる場合でも、音像の定位位置を表示部60の画面の中央に設定できるようにするため、音像上昇量Sを調整することができる。   In this way, the audiovisual apparatus 1 can set the localization position of the sound image at the center of the screen of the display unit 60 even when the relative positional relationship between the viewer 9 and the display unit 60 is different. The amount of increase S can be adjusted.

以下に、音像上昇量Sの調整方法を説明する。   A method for adjusting the sound image increase amount S will be described below.

図8は、視聴者がスピーカの正面にいる場合の音像の定位位置を表す模式図である。図8において、(A)は、音像の定位位置が表示部60の中央付近にある状態を示し、(B)は、音像の定位位置が表示部60の中央付近よりも低い状態を示す。   FIG. 8 is a schematic diagram showing the localization position of the sound image when the viewer is in front of the speaker. 8A shows a state where the localization position of the sound image is near the center of the display unit 60, and FIG. 8B shows a state where the localization position of the sound image is lower than the vicinity of the center of the display unit 60.

音像上昇量Sは、仮想ツイータ21が擬似的に出力する音量とスピーカ20が出力する音量との音量バランスに応じて変化する。具体的には、スピーカ20の音量をある値に固定して、音像定位処理部30のアンプ37の利得Kvtを変化させると、利得Kvtがαより大きい場合には(Kvt>α)、音像の定位位置が画面の中央よりも高いところに設定され、利得Kvtがαより小さい場合には(Kvt<α)、音像の定位位置が画面の中央よりも低いところに設定される。ここで、αは、音像の定位位置が表示部60の画面の中央付近になるようなアンプ37の利得である。   The sound image increase amount S changes according to the volume balance between the volume output by the virtual tweeter 21 and the volume output by the speaker 20. Specifically, when the volume of the speaker 20 is fixed to a certain value and the gain Kvt of the amplifier 37 of the sound image localization processing unit 30 is changed, if the gain Kvt is greater than α (Kvt> α), the sound image When the localization position is set higher than the center of the screen and the gain Kvt is smaller than α (Kvt <α), the localization position of the sound image is set lower than the center of the screen. Here, α is the gain of the amplifier 37 such that the localization position of the sound image is near the center of the screen of the display unit 60.

次に、アンプ37の利得Kvtの具体的な設定方法について説明する。   Next, a specific method for setting the gain Kvt of the amplifier 37 will be described.

まず、図8(A)に示したように、音像の定位位置が表示部60の画面の中央付近になるようなアンプ37の利得αを求め、そのときの、音像の定位位置A、視聴者9の位置B、およびスピーカ20の位置Cが成す角ABCの角度γ0を求める。この利得αおよび角度γ0を用いると、図8(B)に示したような任意の角度γの方向に音像の定位位置を設定するために必要なアンプ37の利得Kvtは、次式で表される。

Figure 2011119867
First, as shown in FIG. 8A, the gain α of the amplifier 37 is obtained so that the localization position of the sound image is near the center of the screen of the display unit 60, and the localization position A of the sound image and the viewer at that time are obtained. The angle γ0 of the angle ABC formed by the position B of 9 and the position C of the speaker 20 is obtained. When this gain α and angle γ0 are used, the gain Kvt of the amplifier 37 necessary for setting the localization position of the sound image in the direction of an arbitrary angle γ as shown in FIG. The
Figure 2011119867

映像音響装置1では、表示部との相対的な位置関係(例えば、図7(A)〜(C))に応じて、式(2)に基づいて角度γに対するアンプ37の利得Kvtを設定することにより、音像の定位位置を表示部60の画面の中央付近に設定することが可能となる。以下に、その具体例を示す。   In the audiovisual apparatus 1, the gain Kvt of the amplifier 37 with respect to the angle γ is set based on Expression (2) according to the relative positional relationship with the display unit (for example, FIGS. 7A to 7C). Thus, the localization position of the sound image can be set near the center of the screen of the display unit 60. The specific example is shown below.

図9は、視聴者が表示部を見上げて映像を見る状態における、アンプ37の利得Kvtの設定方法を説明するための模式図である。この例では、表示部が表示部60Dの位置から表示部60の位置に移動した場合において、音像の定位位置を表示部60の中央付近に設定するための方法を示している。   FIG. 9 is a schematic diagram for explaining a method of setting the gain Kvt of the amplifier 37 in a state where the viewer looks up at the display unit and looks at the video. This example shows a method for setting the localization position of the sound image near the center of the display unit 60 when the display unit moves from the position of the display unit 60D to the position of the display unit 60.

まず、表示部が表示部60Dの位置に配置され、さらに音像の定位位置が表示部60Dの画面の中央付近に設定されたときの、アンプ37の利得αおよび角度γ0を求める。ここで、視聴者9とスピーカ20Dを結ぶ線をx軸とする。   First, the gain α and the angle γ0 of the amplifier 37 when the display unit is arranged at the position of the display unit 60D and the localization position of the sound image is set near the center of the screen of the display unit 60D are obtained. Here, the line connecting the viewer 9 and the speaker 20D is taken as the x-axis.

次に、表示部が表示部60の位置に配置され、さらに音像の定位位置が表示部60の画面の中央付近に設定されたときの角度γを求める。ここで、視聴者9とスピーカ20Rを結ぶ線をx2軸とする。   Next, the angle γ when the display unit is arranged at the position of the display unit 60 and the localization position of the sound image is set near the center of the screen of the display unit 60 is obtained. Here, the line connecting the viewer 9 and the speaker 20R is taken as the x2 axis.

次に、仮想的に配置された表示部60Rを導入する。表示部60Rは、図9に示したように、表示部60Dを、x軸がx2軸と一致するように、視聴者9を中心に角度δだけ回転させて配置されたものである。x2軸に係る表示部60Rでは、x2軸から角度γ0の方向が、表示部60Rの画面の中央付近となる。一方、x2軸に係る表示部60では、x2軸から角度γの方向が、表示部60の画面の中央付近となる。このx2軸から角度γの方向は、表示部60Rにおいては、その画面の中央付近よりやや低い部分に対応する。つまり、仮想的に配置された表示部60Rにおいて、音像の定位位置を画面の中央付近(角度γ0に対応)より低いところ(角度γに対応)に設定することにより、音像の定位位置が表示部60の画面の中央付近に設定されるようになる。   Next, the virtually arranged display unit 60R is introduced. As shown in FIG. 9, the display unit 60R is arranged by rotating the display unit 60D by an angle δ about the viewer 9 so that the x axis coincides with the x2 axis. In the display unit 60R related to the x2 axis, the direction of the angle γ0 from the x2 axis is near the center of the screen of the display unit 60R. On the other hand, in the display unit 60 related to the x2 axis, the direction of the angle γ from the x2 axis is near the center of the screen of the display unit 60. The direction of the angle γ from the x2 axis corresponds to a portion slightly lower than the vicinity of the center of the screen in the display unit 60R. That is, in the virtually arranged display unit 60R, the localization position of the sound image is set to a position (corresponding to the angle γ) lower than the vicinity of the center of the screen (corresponding to the angle γ0). 60 is set near the center of the screen.

式(2)に示した、任意の角度γの方向に音像の定位位置を設定できる利得Kvtを求める方法は、この場合にも適用することができる。すなわち、図9において、表示部が表示部60の位置に配置されたとき、音像の定位位置が表示部60の画面の中央付近に設定するために必要なアンプ37の利得Kvtは、上記利得α、および角度γ,γ0を式(2)に代入することにより求めることができる。なお、図9では、表示部が、視聴者が見上げる方向に移動した場合を示したが、視聴者が見下ろす方向に移動した場合でも全く同様である。   The method of obtaining the gain Kvt that can set the localization position of the sound image in the direction of the arbitrary angle γ shown in the equation (2) can also be applied in this case. That is, in FIG. 9, when the display unit is arranged at the position of the display unit 60, the gain Kvt of the amplifier 37 necessary for setting the localization position of the sound image near the center of the screen of the display unit 60 is the gain α , And the angles γ and γ0 can be obtained by substituting them into the equation (2). Although FIG. 9 shows the case where the display unit moves in the direction in which the viewer looks up, the same is true even if the display unit moves in the direction in which the viewer looks down.

このようにして、映像音響装置1は、角度γに対するアンプ37の利得Kvtを設定することができる。よって、視聴者が、表示部との相対的な位置関係(例えば、図7(A)〜(C))に関する情報を映像音響装置1に入力することにより、映像音響装置1は、その情報に基づいてアンプ37の利得Kvtを設定し、音像の定位位置を表示部60の画面の中央付近に設定することが可能となる。この場合、視聴者は、例えば角度γを入力するようにしてもよいし、音像上昇量Sが角度γに応じて決まることを利用して、例えば音像上昇量Sを用いるようにしても良い。   In this way, the audiovisual apparatus 1 can set the gain Kvt of the amplifier 37 with respect to the angle γ. Therefore, when the viewer inputs information regarding the relative positional relationship with the display unit (for example, FIGS. 7A to 7C) to the audiovisual apparatus 1, the audiovisual apparatus 1 includes the information. Based on this, the gain Kvt of the amplifier 37 is set, and the localization position of the sound image can be set near the center of the screen of the display unit 60. In this case, the viewer may input the angle γ, for example, or may use the sound image increase amount S by utilizing the fact that the sound image increase amount S is determined according to the angle γ.

図10は、視聴者と表示部との相対的な位置関係を入力するためのユーザーインターフェースの一例を表すものである。映像音響装置1は、例えば、このような情報を表示部60に表示し、視聴者と表示部との相対的な位置関係に関する情報を入力することができる。その情報の入力は、例えば、連続的に条件を設定できるスライダを用いて入力するようにしてもよいし、大・中・小など、離散的な条件の中から選択することにより入力するようにしてもよい。   FIG. 10 shows an example of a user interface for inputting the relative positional relationship between the viewer and the display unit. For example, the audiovisual apparatus 1 can display such information on the display unit 60 and input information on the relative positional relationship between the viewer and the display unit. The information may be input using, for example, a slider that can set conditions continuously, or by selecting from discrete conditions such as large, medium, and small. May be.

(遅延部32L,32Rの作用)
一般に、人間は、いわゆる先行音効果として知られているように、最初に両耳に到達した一部の音声によって、その音声全体が発生した方向を認識する。よって、図1において、例えば、視聴者が感じる音声のうち、音像の定位位置が表示部60の中央付近にある一部の音声が、視聴者に最初に到達するようにすれば、視聴者は、その音声全体が表示部60の中央付近から発生したと感じるようになる。
(Operation of delay units 32L and 32R)
Generally, as is known as a so-called preceding sound effect, a human recognizes the direction in which the entire sound is generated by a part of the sound that first reaches both ears. Therefore, in FIG. 1, for example, if a part of the sound whose sound image localization position is near the center of the display unit 60 reaches the viewer first among the sounds that the viewer feels, Then, the user feels that the entire sound is generated from the vicinity of the center of the display unit 60.

映像音響装置1の音声定位処理部30は、上述したように、供給された音声信号を低い周波数成分と高い周波数成分とに分け、高い周波数成分に対してのみ、仮想音源処理部40により仮想音源処理を行い、その音像の定位位置を上昇するように設定している。一方、低い周波数成分に対しては、音声定位処理部30は、遅延部32L,32Rにより遅延処理を行っている。つまり、映像音響装置1は、この高い周波数成分の音声を最初にスピーカ20から出力させ、やや遅れて低い周波数成分の音声をスピーカ20から出力させている。これにより、視聴者は、音像の定位位置が上昇した、高い周波数成分の音声を最初に感じることとなり、その位置から音声が発生したと感じるようになる。   As described above, the audio localization processing unit 30 of the audiovisual apparatus 1 divides the supplied audio signal into a low frequency component and a high frequency component, and the virtual sound source processing unit 40 performs the virtual sound source only for the high frequency component. Processing is performed and the localization position of the sound image is set to rise. On the other hand, for low frequency components, the sound localization processing unit 30 performs delay processing by the delay units 32L and 32R. That is, the audiovisual apparatus 1 first outputs the high frequency component sound from the speaker 20, and outputs the low frequency component sound from the speaker 20 with a slight delay. As a result, the viewer first feels the sound of the high frequency component in which the localization position of the sound image has risen, and feels that the sound has been generated from that position.

以上のように、遅延部32L,32Rは、仮想音源処理部40による音像の定位位置の上昇を際立たせ、その効果を最大限に引き出すように機能する。   As described above, the delay units 32L and 32R function to highlight the rise in the localization position of the sound image by the virtual sound source processing unit 40 and maximize the effect.

[効果]
以上のように本実施の形態では、表示部の下部に配置されたスピーカから出力された音声の音像の定位位置を上昇させて、表示部の画面の中央付近に設定するようにしたので、音像の定位位置と映像の表示位置が一致することにより、視聴者に違和感を与えないようにすることができる。
[effect]
As described above, in the present embodiment, the localization position of the sound image of the sound output from the speaker arranged at the lower part of the display unit is raised and set near the center of the screen of the display unit. By matching the localization position and the video display position, it is possible to prevent the viewer from feeling uncomfortable.

特に、本実施の形態では、仮想音源処理部40が音像の定位位置を上昇させるようにしたので、音像の定位位置を上昇させるためのスピーカを装置に追加する必要がなくなり、装置の小型化を実現することができる。   In particular, in the present embodiment, since the virtual sound source processing unit 40 increases the localization position of the sound image, there is no need to add a speaker for increasing the localization position of the sound image to the apparatus, thereby reducing the size of the apparatus. Can be realized.

また、本実施の形態では、音像上昇量Sを調整できるようにしたので、視聴者と表示部との相対的な位置関係に応じて、音像の定位位置が表示部の画面の中央付近となるような最適な設定にすることができる。   In the present embodiment, since the sound image increase amount S can be adjusted, the localization position of the sound image is near the center of the screen of the display unit according to the relative positional relationship between the viewer and the display unit. It is possible to make such an optimal setting.

また、本実施の形態では、音像上昇量Sをアンプ37L,37Rの利得Kvtl,Kvtrにより設定するようにしたので、例えば、複数の音響伝達関数のセットを準備し切り替えることにより音像上昇量Sを調整する方法に比べて、音響伝達関数をするためのメモリ量を削減することができる。   In this embodiment, since the sound image increase amount S is set by the gains Kvtl and Kvtr of the amplifiers 37L and 37R, for example, the sound image increase amount S is set by preparing and switching a plurality of sets of acoustic transfer functions. Compared to the adjusting method, the amount of memory for performing the acoustic transfer function can be reduced.

さらに、本実施の形態では、音声信号の低い周波数成分を遅延させるようにしたので、先行音効果により、仮想音源処理部40の音像の定位位置の上昇の効果を最大限に引き出すことができる。   Furthermore, in this embodiment, since the low frequency component of the audio signal is delayed, the effect of increasing the localization position of the sound image of the virtual sound source processing unit 40 can be maximized by the preceding sound effect.

[変形例1−1]
上記実施の形態では、音像定位処理部30は、図3に示したように、位相シフト部35および位相反転部36を設けたが、これに限定されるものではなく、例えば位相シフト部35のみ、もしくは位相反転部36のみを設けてもよいし、図11に示したように、位相シフト部35と位相反転部36の両方を設けなくてもよい。音像定位処理部30Aは、位相シフト部35と位相反転部36の両方を有しておらず、高域通過フィルタ34L,34Rの出力信号は仮想音源処理部40に直接供給されている。
[Modification 1-1]
In the above embodiment, the sound image localization processing unit 30 is provided with the phase shift unit 35 and the phase inversion unit 36 as shown in FIG. 3, but is not limited to this. For example, only the phase shift unit 35 is provided. Alternatively, only the phase inversion unit 36 may be provided, or both the phase shift unit 35 and the phase inversion unit 36 may not be provided as shown in FIG. The sound image localization processing unit 30A does not include both the phase shift unit 35 and the phase inversion unit 36, and the output signals of the high-pass filters 34L and 34R are directly supplied to the virtual sound source processing unit 40.

[変形例1−2]
上記実施の形態では、音像定位処理部30では、図3に示したように、位相シフト部35を位相反転部36の前段に配置したが、これに限定されるものではなく、例えば、位相シフト部35と位相反転部36とを入れ替えて、位相シフト部35を位相反転部36の後段に配置してもよい。また、位相シフト部35および位相反転部36は、仮想音源処理部40の前段に配置したが、これに限定されるものではなく、例えば、仮想音源処理部40の後段に配置してもよい。
[Modification 1-2]
In the above embodiment, in the sound image localization processing unit 30, as shown in FIG. 3, the phase shift unit 35 is arranged in front of the phase inversion unit 36, but the present invention is not limited to this. The phase shifter 35 may be arranged at the subsequent stage of the phase inverter 36 by exchanging the unit 35 and the phase inverter 36. Moreover, although the phase shift unit 35 and the phase inversion unit 36 are arranged in the preceding stage of the virtual sound source processing unit 40, the present invention is not limited to this, and may be arranged in the subsequent stage of the virtual sound source processing unit 40, for example.

[変形例1−3]
上記実施の形態では、音像定位処理部30では、図3に示したように、信号Lin,Rinからなる2チャンネルの音声信号を入力としたが、これに限定されるものではない。例えば、図12に示したように、5チャンネルの音声信号を入力とし、2チャンネルにダウンミックスした後に、音像定位処理を行うようにしてもよい。音像定位処理部30Bは、信号Lin、信号Rin、信号SLin、信号SRin、信号Cinを入力とし、それぞれをアンプ51L,51R,51SL,51SR,51Cにより増幅した後、加算器52L,52R供給して2チャンネルの音声信号にダウンミックスし、音像定位処理を行っている。
[Modification 1-3]
In the above embodiment, as shown in FIG. 3, the sound image localization processing unit 30 inputs the two-channel audio signal composed of the signals Lin and Rin, but the present invention is not limited to this. For example, as shown in FIG. 12, a sound image localization process may be performed after an audio signal of 5 channels is input and downmixed to 2 channels. The sound image localization processing unit 30B receives the signal Lin, the signal Rin, the signal SLin, the signal SRin, and the signal Cin, amplifies them by the amplifiers 51L, 51R, 51SL, 51SR, and 51C, and then supplies the adders 52L and 52R. It is downmixed to a 2-channel audio signal and performs sound image localization processing.

また、例えば、図13に示したように、5チャンネルの音声信号を入力とし、信号Lin、信号Rin、信号SLinを2チャンネルの音声信号に変更して音像定位処理を行うとともに、信号SLin、信号SRinに対しては通常のバーチャルサラウンド処理を行うようにしてもよい。音像定位処理部30Cは、信号Lin、信号Rin、信号Cinをアンプ51L,51R,51Cによりそれぞれ増幅した後、加算器52L,52Rに供給して2チャンネルの音声信号に変更し、音像定位処理を行っている。また、音像定位処理部30Cは、信号SLin、信号SRinをアンプ51SL,51SRによりそれぞれ増幅した後、遅延部53SL,53SRを介して3次元処理部54に供給する。音像定位処理部30Cは、3次元処理部54においてバーチャルサラウンド処理が行った後、その出力信号をアンプ55SL,55SRで増幅し、加算器56L,56Rにより音像定位処理結果と合成している。   Further, for example, as shown in FIG. 13, a sound signal localization process is performed by changing a signal Lin, a signal Rin, and a signal SLin to a two-channel sound signal by inputting a five-channel sound signal and performing a signal SLin, Ordinary virtual surround processing may be performed for SRin. The sound image localization processing unit 30C amplifies the signal Lin, the signal Rin, and the signal Cin by the amplifiers 51L, 51R, and 51C, respectively, supplies them to the adders 52L and 52R, changes the sound signals to two-channel audio signals, and performs sound image localization processing. Is going. The sound image localization processing unit 30C amplifies the signal SLin and the signal SRin by the amplifiers 51SL and 51SR, respectively, and then supplies the amplified signal SLin and the signal SRin to the three-dimensional processing unit 54 via the delay units 53SL and 53SR. After the virtual surround processing is performed in the three-dimensional processing unit 54, the sound image localization processing unit 30C amplifies the output signal by the amplifiers 55SL and 55SR, and synthesizes the result with the sound image localization processing result by the adders 56L and 56R.

[その他の変形例]
上記実施の形態では、スピーカ20を表示部60の下部に配置したが、これに限定されるものではなく、例えば、表示部の上部に配置してもよい。この場合でも、この配置に対応した音響伝達関数を用いることにより、仮想音源処理部40は、音像の定位位置を設定することができる。
[Other variations]
In the above-described embodiment, the speaker 20 is arranged at the lower part of the display unit 60. However, the present invention is not limited to this. For example, the speaker 20 may be arranged at the upper part of the display unit. Even in this case, the virtual sound source processing unit 40 can set the localization position of the sound image by using an acoustic transfer function corresponding to this arrangement.

上記実施の形態では、音像定位処理部30の低域通過フィルタ31L,31Rおよび高域通過フィルタ34L,34Rのカットオフ周波数を所定の周波数に設定したが、例えば、視聴者がこのカットオフ周波数を変更できるようにしてもよい。これにより、例えば、可聴音域の異なる様々な年齢の視聴者に対しても、それぞれに対して最適なカットオフ周波数を設定でき、音声と映像との一体感を改善できる。   In the above embodiment, the cut-off frequencies of the low-pass filters 31L and 31R and the high-pass filters 34L and 34R of the sound image localization processing unit 30 are set to predetermined frequencies. For example, the viewer sets this cut-off frequency. You may make it changeable. Thereby, for example, it is possible to set an optimal cutoff frequency for viewers of various ages with different audible sound ranges, and to improve the sense of unity between audio and video.

<3.第2の実施の形態>
次に、本発明の第2の実施の形態に係る映像音響装置について説明する。本実施の形態は、視聴者と表示部との相対的な位置関係を測定する手段を新たに設け、これに基づいて音像の定位位置を制御するようにしたものである。なお、上記第1の実施の形態に係る映像音響装置と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
<3. Second Embodiment>
Next, an audiovisual apparatus according to the second embodiment of the present invention will be described. In the present embodiment, a means for measuring the relative positional relationship between the viewer and the display unit is newly provided, and the localization position of the sound image is controlled based on this means. In addition, the same code | symbol is attached | subjected to the component substantially the same as the audiovisual apparatus which concerns on the said 1st Embodiment, and description is abbreviate | omitted suitably.

[構成例]
図14は、本発明の第2の実施の形態に係る映像音響装置の一構成例を表すものである。映像音響装置2は、カメラ71と、視聴者検出部72とを備えている。その他の構成は、上記第1の実施の形態(図2)と同様である。
[Configuration example]
FIG. 14 shows a configuration example of an audiovisual apparatus according to the second embodiment of the present invention. The audiovisual apparatus 2 includes a camera 71 and a viewer detection unit 72. Other configurations are the same as those in the first embodiment (FIG. 2).

カメラ71は、視聴者と表示部60との相対的な位置関係を測定するために設けられたものであり、例えば表示部60の画面の下部の中央に、視聴者を視野に捕らえるように配置されている。   The camera 71 is provided to measure the relative positional relationship between the viewer and the display unit 60. For example, the camera 71 is arranged at the center of the lower portion of the screen of the display unit 60 so as to catch the viewer in the field of view. Has been.

視聴者検出部72は、カメラ71から供給される情報を基に、視聴者と表示部60との相対的な位置関係を求め、その結果を音声処理部15の音像定位処理部30に供給する。これにより、音像定位処理部30は、第1の実施の形態と同様に、その位置関係に基づいて音像の定位位置が表示部60の画面の中央付近になるように設定する。   The viewer detection unit 72 obtains the relative positional relationship between the viewer and the display unit 60 based on the information supplied from the camera 71 and supplies the result to the sound image localization processing unit 30 of the audio processing unit 15. . As a result, the sound image localization processing unit 30 sets the localization position of the sound image to be near the center of the screen of the display unit 60 based on the positional relationship, as in the first embodiment.

ここで、カメラ71および視聴者検出部72は、本発明における「位置関係測定手段」の一具体例に対応する。   Here, the camera 71 and the viewer detection unit 72 correspond to a specific example of “positional relationship measuring means” in the present invention.

[動作および作用]
(視聴者検出部72の動作)
次に、図15、図16を参照して、視聴者検出部72の動作を説明する。
[Operation and Action]
(Operation of the viewer detection unit 72)
Next, the operation of the viewer detection unit 72 will be described with reference to FIGS. 15 and 16.

図15は、視聴者検出部72における視聴者検出動作の流れ図を表すものである。図16は、最近接視聴者と表示部60との相対的な位置関係を表すものであり、(A)は正面から見た場合を示し、(B)は側面から見た場合を示す。なお、図15に示した流れ図の開始時点において、変数nはn=1に初期化されているものとする。また、表示部60は、図16(A)に示したように、幅wと高さhをもつものとする。   FIG. 15 shows a flowchart of the viewer detection operation in the viewer detection unit 72. FIG. 16 shows the relative positional relationship between the closest viewer and the display unit 60, where (A) shows the case viewed from the front, and (B) shows the case viewed from the side. Note that the variable n is initialized to n = 1 at the start of the flowchart shown in FIG. The display unit 60 has a width w and a height h as shown in FIG.

まず、視聴者検出部72は、図15に示したように、カメラ71から供給された情報に基づいて、表示部60の前の視聴者の数Nを検出する(S1)。   First, the viewer detection unit 72 detects the number N of viewers in front of the display unit 60 based on the information supplied from the camera 71 as shown in FIG. 15 (S1).

次に、S2,S3,S31において、視聴者検出部72は、カメラ71の位置を原点Oとして、S1で検出された全視聴者の位置座標を検出する。具体的には、まず、S1で検出された視聴者のうちのある視聴者に対して、その位置座標Pn(xn,yn,zn)を求める(S2)。次に、変数nと視聴者数Nとを比較する(S3)。比較結果が一致しなかった場合には、nをインクリメントし(S31)、再度S2を実施する。S3において比較結果が一致した場合にはS4に進む。   Next, in S2, S3, and S31, the viewer detection unit 72 detects the position coordinates of all the viewers detected in S1 with the position of the camera 71 as the origin O. Specifically, first, the position coordinates Pn (xn, yn, zn) are obtained for a certain viewer among the viewers detected in S1 (S2). Next, the variable n is compared with the number of viewers N (S3). If the comparison results do not match, n is incremented (S31), and S2 is performed again. If the comparison results match in S3, the process proceeds to S4.

次に、S4において、視聴者検出部72は、S1で検出された視聴者のうち、一番表示部60に近い視聴者(最近接視聴者)を、S2で得られた各視聴者の位置座標に基づいて判定する。   Next, in S4, the viewer detection unit 72 selects the viewer (the closest viewer) closest to the display unit 60 among the viewers detected in S1, and determines the position of each viewer obtained in S2. Determine based on the coordinates.

次に、視聴者検出部72は、S4で判定された最近接視聴者の位置座標P(x,y,z)を基に、角度γを求める。この角度γは、以下のように表される(S5)。

Figure 2011119867
Next, the viewer detection unit 72 obtains the angle γ based on the position coordinates P (x, y, z) of the closest viewer determined in S4. This angle γ is expressed as follows (S5).
Figure 2011119867

次に、視聴者検出部72は、S5で求められた角度γを基に、音像定位処理部30のアンプ37の利得Kvtを求める(S6)。アンプ37の利得Kvtは、第1の実施の形態で説明した式(2)を用いて求めることができる。   Next, the viewer detection unit 72 determines the gain Kvt of the amplifier 37 of the sound image localization processing unit 30 based on the angle γ determined in S5 (S6). The gain Kvt of the amplifier 37 can be obtained using the equation (2) described in the first embodiment.

以上で、視聴者検出動作は終了する。その後、音像定位処理部30のアンプ37は、S6で求められた利得Kvtに設定される。この一連の動作が所定の期間ごとに繰り返し行われることにより、映像音響装置2は、常に音像の定位位置が表示部60の中央付近になるように制御することができる。   This completes the viewer detection operation. Thereafter, the amplifier 37 of the sound image localization processing unit 30 is set to the gain Kvt obtained in S6. By repeating this series of operations every predetermined period, the audiovisual apparatus 2 can always control the localization position of the sound image to be near the center of the display unit 60.

[効果]
以上のように本実施の形態では、視聴者と表示部との相対的な位置関係を測定し、それに応じて音像の定位位置を制御するようにしたので、視聴者による設定を必要とすることなく、音声と映像との一体感を改善できる。
[effect]
As described above, in this embodiment, since the relative positional relationship between the viewer and the display unit is measured and the localization position of the sound image is controlled accordingly, the setting by the viewer is required. It can improve the sense of unity between audio and video.

本実施の形態では、音声と映像との不一致を最も感じやすい、一番表示部60に近い視聴者の位置座標に基づいて音像の定位位置を制御するようにしたので、全ての視聴者に対して、音声と映像との一体感を改善できる。   In the present embodiment, since the localization position of the sound image is controlled based on the position coordinates of the viewer closest to the display unit 60 that most easily feel the discrepancy between the audio and the video, This improves the sense of unity between audio and video.

上記実施の形態では、カメラ71を表示部60の下部の中央に配置したが、これに限定されるものではなく、例えば、表示部60の上部の中央などに配置してもよい。   In the above embodiment, the camera 71 is arranged at the center of the lower part of the display unit 60. However, the present invention is not limited to this. For example, the camera 71 may be arranged at the center of the upper part of the display unit 60.

<4.第3の実施の形態>
次に、本発明の第3の実施の形態に係る映像音響装置について説明する。本実施の形態は、映像および音声を解析し、表示部60の画面内において音声が発生している座標を判定する手段を新たに設け、これに基づいて、音像の定位位置を制御するようにしたものである。なお、上記第1および第2の実施の形態に係る映像音響装置と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
<4. Third Embodiment>
Next, an audiovisual apparatus according to the third embodiment of the present invention will be described. In the present embodiment, a means for analyzing the video and audio and determining coordinates where the audio is generated in the screen of the display unit 60 is newly provided, and based on this, the localization position of the sound image is controlled. It is a thing. Note that components that are substantially the same as those of the audiovisual apparatus according to the first and second embodiments are denoted by the same reference numerals, and description thereof is omitted as appropriate.

図17は、本発明の第3の実施の形態に係る映像音響装置の一構成例を表すものである。映像音響装置3は、映像解析部81を備えている。その他の構成は、上記第1および第2の実施の形態と同様である。   FIG. 17 illustrates a configuration example of an audiovisual apparatus according to the third embodiment of the present invention. The audiovisual apparatus 3 includes a video analysis unit 81. Other configurations are the same as those in the first and second embodiments.

映像解析部81は、映像処理部17から供給される映像信号、および音声信号Lin,Rinに基づいて、その映像上における音声を発している人物などの音声発生源を特定し、表示部60の画面内におけるその音声発生源の座標を求める機能を有している。その結果に基づいて、音像定位処理部30のアンプ37の利得Kvtが設定され、音像の定位位置が、表示部60の画面内におけるその音声を発している箇所に設定される。   Based on the video signal and audio signals Lin and Rin supplied from the video processing unit 17, the video analysis unit 81 specifies an audio generation source such as a person who is generating audio on the video, and the display unit 60 It has a function for obtaining the coordinates of the sound source in the screen. Based on the result, the gain Kvt of the amplifier 37 of the sound image localization processing unit 30 is set, and the localization position of the sound image is set at a position where the sound is emitted in the screen of the display unit 60.

以上のように本実施の形態では、映像上の音声発生源の位置に音像の定位位置を設定するようにしたので、音声と映像との一体感を改善でき、視聴者に臨場感を与えることができる。   As described above, in this embodiment, since the localization position of the sound image is set at the position of the sound source on the video, it is possible to improve the sense of unity between the sound and the video and to give the viewer a sense of realism. Can do.

上記実施の形態では、映像解析部81は、映像信号および音声信号Lin,Rinに基づいて、その映像上の音声発生源を特定するようにしたが、これに限定されるものではなく、例えば、さらに音声信号SLin,SRin,Cin,Winを用いてもよい。   In the above embodiment, the video analysis unit 81 specifies the audio generation source on the video based on the video signal and the audio signals Lin and Rin. However, the present invention is not limited to this. For example, Furthermore, audio signals SLin, SRin, Cin, Win may be used.

上記実施の形態では、映像および音声を解析して、その映像上の音声発生源を特定するようにしたが、これに限定されるものではなく、例えば、映像のみにより、その映像上の音声発生源を特定するようにしてもよい。   In the above embodiment, video and audio are analyzed to specify the sound source on the video. However, the present invention is not limited to this. For example, sound generation on the video is generated only by the video. The source may be specified.

<5.第4の実施の形態>
次に、本発明の第4の実施の形態に係る映像音響装置について説明する。本実施の形態は、音声の周波数帯域を求める手段を新たに設け、これに基づいて、音像定位処理部30の低域通過フィルタ31L,31Rおよび高域通過フィルタ34L,34Rのカットオフ周波数を動的に設定するようにしたものである。なお、上記第1〜第3の実施の形態に係る映像音響装置と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
<5. Fourth Embodiment>
Next, an audiovisual apparatus according to the fourth embodiment of the present invention will be described. In this embodiment, a means for obtaining the frequency band of sound is newly provided, and based on this, the cutoff frequencies of the low-pass filters 31L and 31R and the high-pass filters 34L and 34R of the sound image localization processing unit 30 are adjusted. It is intended to be set automatically. In addition, the same code | symbol is attached | subjected to the substantially same component as the audiovisual apparatus concerning the said 1st-3rd embodiment, and description is abbreviate | omitted suitably.

図18は、本発明の第4の実施の形態に係る映像音響装置の一構成例を表すものである。映像音響装置4は、周波数帯域解析部91を備えている。その他の構成は、上記第1〜第3の実施の形態と同様である。ここで、周波数帯域解析部91は、本発明における「周波数帯域測定手段」の一具体例に対応する。   FIG. 18 shows a configuration example of an audiovisual apparatus according to the fourth embodiment of the present invention. The audiovisual apparatus 4 includes a frequency band analysis unit 91. Other configurations are the same as those in the first to third embodiments. Here, the frequency band analyzing unit 91 corresponds to a specific example of “frequency band measuring means” in the present invention.

周波数帯域解析部91は、音声信号Lin,Rinに基づいて、その音声信号の周波数帯域を求める。その結果に基づいて、音像定位処理部30の低域通過フィルタ31L,31Rおよび高域通過フィルタ34L,34Rのカットオフ周波数が、例えばその周波数帯域の中心周波数になるように、動的に設定される。   The frequency band analysis unit 91 obtains the frequency band of the audio signal based on the audio signals Lin and Rin. Based on the result, the cutoff frequencies of the low-pass filters 31L and 31R and the high-pass filters 34L and 34R of the sound image localization processing unit 30 are dynamically set so as to be, for example, the center frequency of the frequency band. The

低域通過フィルタ31L,31Rおよび高域通過フィルタ34L,34Rのカットオフ周波数が固定の場合には、例えば、主に低めの音で構成される音声に対応する音声信号が音像定位処理部30に供給されたときと、主に高めの音で構成される音声に対応する音声信号が音像定位処理部30に供給されたときとで、カットオフ周波数より低い周波数成分の音量と高い周波数成分の音量とのバランスが異なるため、音像の定位位置が変化することになる。   When the cut-off frequencies of the low-pass filters 31L and 31R and the high-pass filters 34L and 34R are fixed, for example, an audio signal corresponding to audio mainly composed of lower sounds is sent to the sound image localization processing unit 30. The volume of the frequency component lower than the cutoff frequency and the volume of the higher frequency component when the audio signal corresponding to the audio mainly composed of higher sounds is supplied to the sound image localization processing unit 30 The position of the sound image changes because the balance is different.

つまり、主に低めの音で構成される音声に対応する音声信号が音像定位処理部30に供給されたときは、例えばその音声の周波数帯域の中心周波数がカットオフ周波数より低い場合において、低域通過フィルタ31L,31Rから出力される低い周波数成分の音量が高域通過フィルタ34L,34Rから出力される高い周波数成分の音量よりも多くなる。よって、高い周波数成分の信号に対して仮想音源処理部40で行われる仮想音源処理の効果が相対的に弱くなるため、音像の定位位置は表示部60の中央付近よりも低めとなる。   That is, when an audio signal corresponding to audio mainly composed of lower sounds is supplied to the sound image localization processing unit 30, for example, when the center frequency of the frequency band of the audio is lower than the cutoff frequency, The volume of the low frequency component output from the pass filters 31L and 31R is larger than the volume of the high frequency component output from the high pass filters 34L and 34R. Therefore, the effect of the virtual sound source processing performed by the virtual sound source processing unit 40 with respect to a signal having a high frequency component is relatively weak, so that the localization position of the sound image is lower than that near the center of the display unit 60.

また、主に高めの音で構成される音声に対応する音声信号が音像定位処理部30に供給されたときは、例えばその音声の周波数帯域の中心周波数がカットオフ周波数より高い場合において、低域通過フィルタ31L,31Rから出力される低い周波数成分の音量が高域通過フィルタ34L,34Rから出力される高い周波数成分の音量よりも多くなる。よって、高い周波数成分の信号に対して仮想音源処理部40で行われる仮想音源処理の効果が相対的に強くなるため、音像の定位位置は表示部60の中央付近よりも高めとなる。   Further, when an audio signal corresponding to audio mainly composed of higher sounds is supplied to the sound image localization processing unit 30, for example, when the center frequency of the frequency band of the audio is higher than the cutoff frequency, The volume of the low frequency component output from the pass filters 31L and 31R is larger than the volume of the high frequency component output from the high pass filters 34L and 34R. Therefore, since the effect of the virtual sound source processing performed by the virtual sound source processing unit 40 is relatively strong with respect to a signal having a high frequency component, the localization position of the sound image is higher than that near the center of the display unit 60.

一方、音像定位処理部30の低域通過フィルタ31L,31Rおよび高域通過フィルタ34L,34Rのカットオフ周波数が、音声の周波数帯域に基づいて動的に設定される場合には、様々な音域を持つ音源に対しても、適切なカットオフ周波数が設定されるため、表示部60の画面における音像の定位位置をほぼ一定に保つことができる。   On the other hand, when the cutoff frequencies of the low-pass filters 31L and 31R and the high-pass filters 34L and 34R of the sound image localization processing unit 30 are dynamically set based on the frequency band of sound, various sound ranges are set. Since an appropriate cut-off frequency is set for the sound source, the sound image localization position on the screen of the display unit 60 can be kept substantially constant.

以上のように本実施の形態では、供給される音声信号に応じて、低域通過フィルタおよび高域通過フィルタのカットオフ周波数を動的に設定するようにしたので、様々な音域を持つ音源に対しても、音像の定位位置をほぼ一定に保つことができる。   As described above, according to the present embodiment, the cutoff frequency of the low-pass filter and the high-pass filter is dynamically set according to the supplied audio signal. In contrast, the localization position of the sound image can be kept almost constant.

上記実施の形態では、周波数帯域解析部91は、音声信号Lin,Rinに基づいて周波数帯域を求めるようにしたが、これに限定されるものではなく、例えば、音声信号Lin,Rinのほか、音声信号SLin,SRin,Cin,Winも用いて周波数帯域を求めるようにしてもよい。   In the above embodiment, the frequency band analyzing unit 91 obtains the frequency band based on the audio signals Lin and Rin. However, the present invention is not limited to this. For example, in addition to the audio signals Lin and Rin, The frequency band may be obtained using the signals SLin, SRin, Cin, and Win.

以上、いくつかの実施の形態を挙げて本発明を説明したが、本発明はこれらの実施の形態には限定されず、種々の変形が可能である。   Although the present invention has been described with reference to some embodiments, the present invention is not limited to these embodiments, and various modifications can be made.

例えば、第2〜第4の各実施の形態では、第1の実施の形態と同様に、音像定位処理部30の位相シフト部35および位相反転部36のどちらか一方、もしくは両方を省いてもよい。   For example, in each of the second to fourth embodiments, similarly to the first embodiment, either or both of the phase shift unit 35 and the phase inversion unit 36 of the sound image localization processing unit 30 may be omitted. Good.

例えば、第2〜第4の各実施の形態では、第1の実施の形態と同様に、音像定位処理部30の位相シフト部35および位相反転部36を入れ替えてもよい。また、音像定位処理部30の位相シフト部35および位相反転部36を、仮想音源処理部40の後段に配置してもよい。   For example, in each of the second to fourth embodiments, the phase shift unit 35 and the phase inversion unit 36 of the sound image localization processing unit 30 may be interchanged as in the first embodiment. Further, the phase shift unit 35 and the phase inversion unit 36 of the sound image localization processing unit 30 may be arranged at the subsequent stage of the virtual sound source processing unit 40.

例えば、第2〜第4の各実施の形態では、第1の実施の形態と同様に、音像定位処理部30への入力信号を、5チャンネルの音声信号を入力としてもよい。   For example, in each of the second to fourth embodiments, similarly to the first embodiment, an input signal to the sound image localization processing unit 30 may be input as a 5-channel audio signal.

例えば、第2〜第4の各実施の形態では、第1の実施の形態と同様に、スピーカ20を表示部の上部に配置してもよい。   For example, in each of the second to fourth embodiments, similarly to the first embodiment, the speaker 20 may be arranged on the upper part of the display unit.

例えば、第2および第3の実施の形態では、第1の実施の形態と同様に、音像定位処理部30の低域通過フィルタ31L,31Rおよび高域通過フィルタ34L,34Rのカットオフ周波数を、視聴者が設定できるようにしてもよい。   For example, in the second and third embodiments, similarly to the first embodiment, the cutoff frequencies of the low-pass filters 31L and 31R and the high-pass filters 34L and 34R of the sound image localization processing unit 30 are set as follows. The viewer may be able to set.

1〜4…映像音響装置、7,7L,7R…音像、9…視聴者、11…音源/映像源、12…AD変換回路、13…デコーダ、14…SW、15…音声処理部、16…DAコンバータ、17…映像処理部、18…表示ドライバ、19…コントローラ、20,20L,20R、22L,22R…スピーカ、21,21L,21R…仮想ツイータ、30,30A,30B,30C…音像定位処理部、31L,31R…低域通過フィルタ(LPF)、32L,32R,53SL,53SR…遅延部、33L,33R,405,406,411,412,52L,52R,56L,56R…加算器、34L,34R…高域通過フィルタ(HPF)、35…位相シフト部、35L,35R…APF,36…位相反転部、37,37L,37R,51L,51R,51SL,51SR,51C,55SL,55SR…アンプ、40…仮想音源処理部、54…3次元処理部、60…表示部、71…カメラ、72…視聴者検出部、81…映像解析部、91…周波数帯域解析部、401〜404,407〜410…フィルタ、Hφ1L,Hφ1R,Hφ2L,Hφ2R,Hθ1L,Hθ1R,Hθ2L,Hθ2R…音響伝達関数、G1〜G4…伝達関数、Lin,Rin,SLin,SRin,Cin,Win,Lout,Rout,LVin,RVin,LVout,RVout…信号、S,S0,Sa,Sb,Sc…音像上昇量、γ,γ0…角度   DESCRIPTION OF SYMBOLS 1-4 ... Audio visual apparatus, 7, 7L, 7R ... Sound image, 9 ... Viewer, 11 ... Sound source / video source, 12 ... AD converter circuit, 13 ... Decoder, 14 ... SW, 15 ... Audio processing part, 16 ... DA converter, 17 ... Video processing unit, 18 ... Display driver, 19 ... Controller, 20, 20L, 20R, 22L, 22R ... Speaker, 21, 21L, 21R ... Virtual tweeter, 30, 30A, 30B, 30C ... Sound image localization processing Part, 31L, 31R ... low pass filter (LPF), 32L, 32R, 53SL, 53SR ... delay part, 33L, 33R, 405, 406, 411, 412, 52L, 52R, 56L, 56R ... adder, 34L, 34R: High pass filter (HPF), 35: Phase shift unit, 35L, 35R: APF, 36: Phase inversion unit, 37, 37L, 37R, 51L, 5 R, 51SL, 51SR, 51C, 55SL, 55SR ... amplifier, 40 ... virtual sound source processing unit, 54 ... three-dimensional processing unit, 60 ... display unit, 71 ... camera, 72 ... viewer detection unit, 81 ... video analysis unit, 91: frequency band analysis unit, 401-404, 407-410 ... filter, Hφ1L, Hφ1R, Hφ2L, Hφ2R, Hθ1L, Hθ1R, Hθ2L, Hθ2R ... acoustic transfer function, G1-G4 ... transfer function, Lin, Rin, SLin, SRin, Cin, Win, Lout, Rout, LVin, RVin, LVout, RVout ... signal, S, S0, Sa, Sb, Sc ... sound image increase, γ, γ0 ... angle

Claims (10)

映像を表示する表示部と、
前記映像に対応した音声を発生するスピーカと、
所定の処理により、前記スピーカに供給する音声信号を生成する音声処理部と
を備え、
前記音声処理部は、前記音声の音像の定位位置を前記表示部の画面上の任意の位置に設定するような音声信号を生成する音像定位処理部を含む
映像音響装置。
A display unit for displaying images;
A speaker for generating audio corresponding to the video;
An audio processing unit that generates an audio signal to be supplied to the speaker by a predetermined process;
The audio processing unit includes a sound image localization processing unit that generates an audio signal that sets a localization position of the sound image of the audio to an arbitrary position on a screen of the display unit.
前記スピーカが前記表示部の上部または下部に複数配置されている
請求項1に記載の映像音響装置。
The audiovisual apparatus according to claim 1, wherein a plurality of the speakers are arranged above or below the display unit.
前記音像定位処理部は、前記表示部の上部または下部のうち、一方に低い周波数の音声成分の音像を定位し、他方に高い周波数の音声成分の音像を定位する
請求項2に記載の映像音響装置。
3. The audiovisual apparatus according to claim 2, wherein the sound image localization processing unit localizes a sound image of a low frequency audio component on one of the upper part and the lower part of the display unit, and localizes a sound image of a high frequency audio component on the other side. apparatus.
前記表示部と視聴者との相対的な位置関係を測定する位置関係測定手段をさらに有し、
前記音像定位処理部は、その測定された位置関係に基づいて前記音像の定位位置を制御する
請求項1に記載の映像音響装置。
A positional relationship measuring means for measuring a relative positional relationship between the display unit and the viewer;
The audiovisual apparatus according to claim 1, wherein the sound image localization processing unit controls a localization position of the sound image based on the measured positional relationship.
前記音像定位処理部は、前記映像の内容に基づいて前記音像の定位位置を制御する
請求項1に記載の映像音響装置。
The video / audio apparatus according to claim 1, wherein the sound image localization processing unit controls a localization position of the sound image based on content of the video.
前記音像定位処理部は、前記音声のうち、所定の周波数よりも高い周波数の音声成分の音像の定位位置を制御する
請求項1に記載の映像音響装置。
The audiovisual apparatus according to claim 1, wherein the sound image localization processing unit controls a localization position of a sound image of an audio component having a frequency higher than a predetermined frequency in the audio.
前記所定の周波数は、音声の周波数帯域に基づいてあらかじめ設定される
請求項6に記載の映像音響装置。
The audiovisual apparatus according to claim 6, wherein the predetermined frequency is preset based on an audio frequency band.
音声の周波数帯域を測定する周波数帯域測定手段をさらに有し、
前記所定の周波数は、前記周波数帯域に基づいて求められる
請求項6に記載の映像音響装置。
It further has a frequency band measuring means for measuring the frequency band of voice,
The audiovisual apparatus according to claim 6, wherein the predetermined frequency is obtained based on the frequency band.
前記音像定位処理部は、さらに、前記所定の周波数よりも高い周波数の音声成分の左右の音声信号の間に位相差を生じさせる
請求項6に記載の映像音響装置。
The audiovisual apparatus according to claim 6, wherein the sound image localization processing unit further generates a phase difference between left and right audio signals of an audio component having a frequency higher than the predetermined frequency.
前記音像定位処理部は、さらに、前記所定の周波数よりも低い周波数の音声成分を遅延させる
請求項6に記載の映像音響装置。
The audiovisual apparatus according to claim 6, wherein the sound image localization processing unit further delays an audio component having a frequency lower than the predetermined frequency.
JP2009273800A 2009-12-01 2009-12-01 Audiovisual equipment Expired - Fee Related JP5597975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009273800A JP5597975B2 (en) 2009-12-01 2009-12-01 Audiovisual equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009273800A JP5597975B2 (en) 2009-12-01 2009-12-01 Audiovisual equipment

Publications (2)

Publication Number Publication Date
JP2011119867A true JP2011119867A (en) 2011-06-16
JP5597975B2 JP5597975B2 (en) 2014-10-01

Family

ID=44284686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009273800A Expired - Fee Related JP5597975B2 (en) 2009-12-01 2009-12-01 Audiovisual equipment

Country Status (1)

Country Link
JP (1) JP5597975B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201559A (en) * 2012-03-23 2013-10-03 Yamaha Corp Sound signal processing device
WO2014119526A1 (en) * 2013-01-30 2014-08-07 ヤマハ株式会社 Sound-emitting device and sound-emitting method
KR20140128567A (en) * 2013-04-27 2014-11-06 인텔렉추얼디스커버리 주식회사 Audio signal processing method
JP2016513931A (en) * 2013-03-29 2016-05-16 サムスン エレクトロニクス カンパニー リミテッド Audio apparatus and audio providing method thereof
JP2016521532A (en) * 2013-05-16 2016-07-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Audio processing apparatus and method
JP2021040858A (en) * 2019-09-10 2021-03-18 株式会社藤商事 Game machine and sound data generation method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05300596A (en) * 1992-04-17 1993-11-12 Nippon Hoso Kyokai <Nhk> Multi-channel sound reproducing device
JP2000059893A (en) * 1998-08-06 2000-02-25 Nippon Hoso Kyokai <Nhk> Hearing aid device and its method
JP2003092799A (en) * 2001-09-18 2003-03-28 Sony Corp Acoustic processor
WO2006009058A1 (en) * 2004-07-16 2006-01-26 Matsushita Electric Industrial Co., Ltd. Sound image localization device
JP2006279247A (en) * 2005-03-28 2006-10-12 Denon Ltd Acoustic reproducing apparatus
JP2007274061A (en) * 2006-03-30 2007-10-18 Yamaha Corp Sound image localizer and av system
JP2007288677A (en) * 2006-04-19 2007-11-01 Sony Corp Audio signal processing apparatus, audio signal processing method and audio signal processing program
JP2008502200A (en) * 2004-06-04 2008-01-24 サムスン エレクトロニクス カンパニー リミテッド Wide stereo playback method and apparatus
JP2008109209A (en) * 2006-10-23 2008-05-08 Sony Corp Output control system and method, output controller and method, and program
WO2009078176A1 (en) * 2007-12-19 2009-06-25 Panasonic Corporation Video/audio output system
WO2009101778A1 (en) * 2008-02-14 2009-08-20 Panasonic Corporation Audio reproduction device and audio and video reproduction system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05300596A (en) * 1992-04-17 1993-11-12 Nippon Hoso Kyokai <Nhk> Multi-channel sound reproducing device
JP2000059893A (en) * 1998-08-06 2000-02-25 Nippon Hoso Kyokai <Nhk> Hearing aid device and its method
JP2003092799A (en) * 2001-09-18 2003-03-28 Sony Corp Acoustic processor
JP2008502200A (en) * 2004-06-04 2008-01-24 サムスン エレクトロニクス カンパニー リミテッド Wide stereo playback method and apparatus
WO2006009058A1 (en) * 2004-07-16 2006-01-26 Matsushita Electric Industrial Co., Ltd. Sound image localization device
JP2006279247A (en) * 2005-03-28 2006-10-12 Denon Ltd Acoustic reproducing apparatus
JP2007274061A (en) * 2006-03-30 2007-10-18 Yamaha Corp Sound image localizer and av system
JP2007288677A (en) * 2006-04-19 2007-11-01 Sony Corp Audio signal processing apparatus, audio signal processing method and audio signal processing program
JP2008109209A (en) * 2006-10-23 2008-05-08 Sony Corp Output control system and method, output controller and method, and program
WO2009078176A1 (en) * 2007-12-19 2009-06-25 Panasonic Corporation Video/audio output system
WO2009101778A1 (en) * 2008-02-14 2009-08-20 Panasonic Corporation Audio reproduction device and audio and video reproduction system

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201559A (en) * 2012-03-23 2013-10-03 Yamaha Corp Sound signal processing device
US20150373454A1 (en) * 2013-01-30 2015-12-24 Yamaha Corporation Sound-Emitting Device and Sound-Emitting Method
WO2014119526A1 (en) * 2013-01-30 2014-08-07 ヤマハ株式会社 Sound-emitting device and sound-emitting method
CN104956687A (en) * 2013-01-30 2015-09-30 雅马哈株式会社 Sound-emitting device and sound-emitting method
US9986361B2 (en) 2013-03-29 2018-05-29 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
JP2016513931A (en) * 2013-03-29 2016-05-16 サムスン エレクトロニクス カンパニー リミテッド Audio apparatus and audio providing method thereof
US9549276B2 (en) 2013-03-29 2017-01-17 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
JP2018057031A (en) * 2013-03-29 2018-04-05 サムスン エレクトロニクス カンパニー リミテッド Audio apparatus and audio providing method thereof
US20180279064A1 (en) 2013-03-29 2018-09-27 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
US10405124B2 (en) 2013-03-29 2019-09-03 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
KR20140128567A (en) * 2013-04-27 2014-11-06 인텔렉추얼디스커버리 주식회사 Audio signal processing method
KR102148217B1 (en) * 2013-04-27 2020-08-26 인텔렉추얼디스커버리 주식회사 Audio signal processing method
JP2016521532A (en) * 2013-05-16 2016-07-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Audio processing apparatus and method
JP2021040858A (en) * 2019-09-10 2021-03-18 株式会社藤商事 Game machine and sound data generation method
JP7014758B2 (en) 2019-09-10 2022-02-01 株式会社藤商事 Pachinko machine, sound data generation method

Also Published As

Publication number Publication date
JP5597975B2 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
EP2664165B1 (en) Apparatus, systems and methods for controllable sound regions in a media room
US8494189B2 (en) Virtual sound source localization apparatus
JP5597975B2 (en) Audiovisual equipment
US7978860B2 (en) Playback apparatus and playback method
JP5366827B2 (en) Audiovisual output system
JP2005197896A (en) Audio signal supply apparatus for speaker array
WO2008047833A1 (en) Sound image positioning device, sound image positioning system, sound image positioning method, program, and integrated circuit
JP2007510334A (en) Multi-channel audio surround sound system from front loudspeakers
EP2282556A2 (en) Display device and audio output device
KR20070064644A (en) Multi-channel audio control
US8848952B2 (en) Audio reproduction apparatus
JP6263471B2 (en) Audiovisual equipment
US8411884B2 (en) Audio reproduction device and audio-video reproduction system
JP5776597B2 (en) Sound signal processing device
JP2006033847A (en) Sound-reproducing apparatus for providing optimum virtual sound source, and sound reproducing method
JP2007081928A (en) Av amplifier apparatus
JP2009260458A (en) Sound reproducing device and video image sound viewing/listening system containing the same
JP2008312096A (en) Acoustic playback apparatus, and television receiver
KR100713666B1 (en) Virtual sound source device and acoustic device comprising the same
JP5843705B2 (en) Audio control device, audio reproduction device, television receiver, audio control method, program, and recording medium
JPH0851698A (en) Surround signal processor and video and audio reproducing device
JP2004357075A (en) Video audio reproducing device
US7502477B1 (en) Audio reproducing apparatus
JP3740780B2 (en) Multi-channel playback device
JP4918098B2 (en) Sound image localization processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

LAPS Cancellation because of no payment of annual fees