JP2018121309A - Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program - Google Patents

Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program Download PDF

Info

Publication number
JP2018121309A
JP2018121309A JP2017013612A JP2017013612A JP2018121309A JP 2018121309 A JP2018121309 A JP 2018121309A JP 2017013612 A JP2017013612 A JP 2017013612A JP 2017013612 A JP2017013612 A JP 2017013612A JP 2018121309 A JP2018121309 A JP 2018121309A
Authority
JP
Japan
Prior art keywords
audio data
output
audio
sound
channels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017013612A
Other languages
Japanese (ja)
Inventor
米丸 政司
Masashi Yonemaru
政司 米丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017013612A priority Critical patent/JP2018121309A/en
Publication of JP2018121309A publication Critical patent/JP2018121309A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily realize multi-channel sound reproduction environment.SOLUTION: A sound data generation unit (111) of a sound processing apparatus (11) generates audio data for each of a plurality of output channel speakers including: a sound bar (12) in which a plurality of speaker groups for outputting sound data for each output channel is arranged in the lateral direction; and a sound bar (13) in which the plurality of speaker groups are arranged in the lateral direction by downmixing audio data of a plurality of input channels.SELECTED DRAWING: Figure 1

Description

本発明は、音声処理装置、音声出力装置、テレビジョン受像機、音声処理方法、プログラム、及び、プログラムの記録媒体に関する。   The present invention relates to an audio processing device, an audio output device, a television receiver, an audio processing method, a program, and a program recording medium.

実用放送が開始予定の高度BS放送においては、映像の高解像度化だけでなく、音声に関しても22.2ch(以下、chは「チャンネル」を示す)という高度な立体音響信号を送信している。これらの放送にて送られてくる22.2ch及び他chの音声信号を再現させるためには、22個のSP(以下、SPは「スピーカ」を示す)及び2個の低域SPを所定の位置に設置し、SPを駆動するために24chのアンプが必要である。   In advanced BS broadcasting, which is scheduled to start practical broadcasting, not only high-resolution video, but also high-quality stereophonic signals of 22.2 ch (hereinafter, “ch” indicates “channel”) are transmitted for audio. In order to reproduce the audio signals of 22.2 ch and other ch sent in these broadcasts, 22 SPs (hereinafter SP stands for “speaker”) and 2 low-frequency SPs are specified. A 24ch amplifier is required to install the SP and drive the SP.

上記の立体音響信号をより容易に再生するために、5.1ch等の一般的なサラウンド信号に変換する手法が提示されている。例えば、非特許文献1には、22.2ch信号を一般的な5.1ch信号にダウンミックスさせる変換式が開示されている。   In order to more easily reproduce the above stereophonic signal, a technique for converting it into a general surround signal such as 5.1ch has been proposed. For example, Non-Patent Document 1 discloses a conversion formula for downmixing a 22.2 channel signal to a general 5.1 channel signal.

特許5604365号公報(2012年12月06日公開)Japanese Patent No. 5604365 (published December 06, 2012) 特許5852325号公報(2012年12月06日公開)Japanese Patent No. 5852325 (December 06, 2012)

ARIB SRTD−B32 第2部(2016年12月9日改訂)ARIB SRTD-B32 Part 2 (Revised on December 9, 2016)

非特許文献1の手法は立体音響効果をより重視した変換手法ではないという問題がある。すなわち、22.2chで多くの情報を送出している上層チャネル、及び、前面チャネルの信号がより少ないチャンネルへとマージされることにより、平面的なサラウンド音像は再現しているものの、立体感、前面音像の厚み等が薄れてしまう。   The method of Non-Patent Document 1 has a problem that it is not a conversion method that emphasizes the stereophonic effect. In other words, although the upper layer channel that sends a lot of information in 22.2ch and the front channel signal are merged into fewer channels, a planar surround sound image is reproduced, The thickness of the front sound image is reduced.

また、特許文献1及び2には、22.2chの重要なデータである前面チャンネルの情報を重視しつつ、サラウンドチャンネルの信号も上層のSPと、中層のSPとに分けることにより、高さ方向(立体感)の音声再生を実現する多チャンネルスピーカ装置が開示されている。ただし、特許文献1及び2の技術は、テレビ画面の周囲に専用スピーカを配置し、当該専用スピーカに応じた音声処理を施すものである。   Patent Documents 1 and 2 emphasize the information on the front channel, which is important 22.2ch data, and also divide the surround channel signal into an upper layer SP and a middle layer SP, thereby increasing the height direction. A multi-channel speaker device that realizes (stereoscopic) sound reproduction is disclosed. However, in the techniques of Patent Documents 1 and 2, a dedicated speaker is arranged around the television screen, and audio processing according to the dedicated speaker is performed.

一方、近年、DolbyAtmos等、立体音像の再現が求められている。本来の22.2chは立体音像の情報を十分に持っているので、その立体音像の情報を生かしながら、専用スピーカを用いることなく、一般家庭でも立体音像を容易に実現する手法が求められている。   On the other hand, in recent years, reproduction of a three-dimensional sound image such as DolbyAtmos has been demanded. Since the original 22.2ch has sufficient information about the three-dimensional sound image, there is a need for a method for easily realizing the three-dimensional sound image even in a general home without using a dedicated speaker while making use of the information on the three-dimensional sound image. .

本発明の一態様は、多チャンネルの音声の再生環境を容易に実現することを目的とする。   An object of one embodiment of the present invention is to easily realize a multi-channel audio reproduction environment.

上記の課題を解決するために、本発明の一態様に係る音声処理装置は、複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する音声処理装置において、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーとを含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、上記複数の入力チャンネルの音声データをダウンミックスすることによって生成する音声データ生成部を備えている。   In order to solve the above problems, an audio processing device according to an aspect of the present invention is an audio processing device that generates audio data of a plurality of output channels by downmixing audio data of a plurality of input channels. A first sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction, and a first sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction. And an audio data generation unit that generates audio data for each of a plurality of output channel speakers including two sound bars by downmixing the audio data of the plurality of input channels.

上記の課題を解決するために、本発明の一態様に係る音声処理方法は、複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する音声処理方法であって、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーとを含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、上記複数の入力チャンネルの音声データをダウンミックスすることによって生成する音声データ生成ステップを含んでいる。   In order to solve the above problem, an audio processing method according to an aspect of the present invention is an audio processing method for generating audio data of a plurality of output channels by downmixing audio data of a plurality of input channels. The first sound bar in which a plurality of speaker groups that output audio data for each output channel are arranged in the horizontal direction, and the plurality of speaker groups that output audio data in each output channel are arranged in the horizontal direction. A sound data generating step of generating sound data for each of the plurality of output channel speakers including the second sound bar by downmixing the sound data of the plurality of input channels.

本発明の一態様によれば、多チャンネルの音声の再生環境を容易に実現することができるとの効果を奏する。   According to one aspect of the present invention, it is possible to easily realize a multi-channel audio reproduction environment.

本発明の実施形態1に係る音声出力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the audio | voice output apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係るテレビジョン受像機の外観を示す正面図である。It is a front view which shows the external appearance of the television receiver which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る音声処理装置が取得する22.2chの音声データのスピーカ位置を示す図である。It is a figure which shows the speaker position of the 22.2ch audio | voice data which the audio | voice processing apparatus which concerns on Embodiment 1 of this invention acquires. 本発明の実施形態1に係る音声処理装置が生成する14.2chの音声データのスピーカ位置を示す図である。It is a figure which shows the speaker position of 14.2ch audio | voice data which the audio | voice processing apparatus which concerns on Embodiment 1 of this invention produces | generates. 本発明の実施形態1に係るに係るダウンミックスの計算式を示す図である。It is a figure which shows the calculation formula of the downmix which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る14.2chの音声データを、7.1chを有するサウンドバー2個を上下に配置して再生した場合に生成される音場を模式的に示す図である。It is a figure which shows typically the sound field produced | generated when the audio | voice data of 14.2ch which concern on Embodiment 1 of this invention are arrange | positioned and reproduced | regenerated two sound bars which have 7.1ch up and down. 本発明の実施形態1に係る14.2chの音声データを、7.1chを有するサウンドバー2個を上下に配置して再生した場合に生成される音場を模式的に示す図である。It is a figure which shows typically the sound field produced | generated when the audio | voice data of 14.2ch which concern on Embodiment 1 of this invention are arrange | positioned and reproduced | regenerated two sound bars which have 7.1ch up and down. 本発明の実施形態2に係る音声処理装置が生成する10.2chの音声データのスピーカ位置を示す図である。It is a figure which shows the speaker position of 10.2ch audio | voice data which the audio | voice processing apparatus which concerns on Embodiment 2 of this invention produces | generates. 本発明の実施形態2に係るダウンミックスの計算式を示す図である。It is a figure which shows the calculation formula of the downmix which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る音声処理装置が生成する8.1chの音声データのスピーカ位置を示す図である。It is a figure which shows the speaker position of the audio | voice data of 8.1ch which the audio | voice processing apparatus which concerns on Embodiment 3 of this invention produces | generates. 本発明の実施形態3に係るダウンミックスの計算式を示す図である。It is a figure which shows the calculation formula of the downmix which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る8.1chの音声データを、3chを有するサウンドバー1個と、5.1chを有するサウンドバー1個とを配置して再生した場合に生成される音場を模式的に示す図である。Schematic of a sound field generated when an audio data of 8.1ch according to Embodiment 3 of the present invention is reproduced by arranging one sound bar having 3ch and one sound bar having 5.1ch. FIG.

〔実施形態1〕
以下、本発明の実施形態1について、詳細に説明する。
Embodiment 1
Hereinafter, Embodiment 1 of the present invention will be described in detail.

(音声出力装置1の構成)
図1は、本実施形態に係る音声出力装置1の構成を示すブロック図である。音声出力装置1は、音声処理装置11と、サウンドバー(第1のサウンドバー)12と、サウンドバー(第2のサウンドバー)13とを備えている。
(Configuration of audio output device 1)
FIG. 1 is a block diagram showing a configuration of an audio output device 1 according to the present embodiment. The audio output device 1 includes an audio processing device 11, a sound bar (first sound bar) 12, and a sound bar (second sound bar) 13.

音声処理装置11は、複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する。音声処理装置11は、音声データ生成部111を備えている。音声データ生成部111は、サウンドバー12及び13を含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、複数の入力チャンネルの音声データをダウンミックスすることによって生成する。   The audio processing device 11 generates audio data of a plurality of output channels by downmixing audio data of a plurality of input channels. The audio processing device 11 includes an audio data generation unit 111. The audio data generation unit 111 generates audio data for each of the plurality of output channel speakers including the sound bars 12 and 13 by downmixing the audio data of the plurality of input channels.

サウンドバー12は、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる。サウンドバー13は、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる。   The sound bar 12 is formed by arranging a plurality of speaker groups that output audio data for each output channel in the horizontal direction. The sound bar 13 is formed by arranging a plurality of speaker groups that output audio data for each output channel in the horizontal direction.

(テレビジョン受像機2の外観)
図2は、本実施形態に係るテレビジョン受像機2の外観を示す正面図である。テレビジョン受像機2は、音声出力装置1を備えている。図2に示すように、テレビジョン受像機2の前面には、サウンドバー12、13及び画面14が配置されている。サウンドバー12は、画面14の上側に配置されている。サウンドバー13は、画面14の下側に配置されている。
(Appearance of television receiver 2)
FIG. 2 is a front view showing an appearance of the television receiver 2 according to the present embodiment. The television receiver 2 includes an audio output device 1. As shown in FIG. 2, sound bars 12 and 13 and a screen 14 are arranged on the front surface of the television receiver 2. The sound bar 12 is disposed on the upper side of the screen 14. The sound bar 13 is disposed on the lower side of the screen 14.

(音声処理装置11の処理)
音声処理装置11は、22.2chの音声データを取得し、ダウンミックスすることによって、14.2chの音声データを生成する。
(Processing of the voice processing device 11)
The audio processing device 11 acquires 22.2 ch audio data and downmixes to generate 14.2 ch audio data.

以下の説明では、音声データの各チャンネルと当該チャンネルが想定するスピーカ位置とを同じ記号を用いて説明する。   In the following description, each channel of audio data and the speaker position assumed by the channel will be described using the same symbols.

図3は、本実施形態に係る音声処理装置11が取得する22.2chの音声データが想定するスピーカ位置を示す図である。図3に示すように、22.2chの音声データは、前に配置された11個のSP(TpFL、TpFC、TpFR、FL、FLC、FC、FRC、FR、BtFL、BtFC、BtFR)、中間に配置された5個のSP(TpSiL、TpC、TpSiR、SiL、SiR)、後ろに配置された6個のSP(TpBL、TpBC、TpBR、BL、BC、BR)から出力されることが想定されている。また、22.2chの音声データの各チャンネルは、上層である9ch(TpFL、TpFC、TpFR、TpSiL、TpC、TpSiR、TpBL、TpBC、TpBR)、中層である10ch(FL、FLC、FC、FRC、FR、SiL、SiR、BL、BC、BR)、下層である5ch(BtFL、BtFC、BtFR、LFE1、LFE2)に分類される。   FIG. 3 is a diagram illustrating speaker positions assumed by 22.2 ch audio data acquired by the audio processing device 11 according to the present embodiment. As shown in FIG. 3, the 22.2ch audio data is composed of 11 SPs (TpFL, TpFC, TpFR, FL, FLC, FC, FRC, FR, BtFL, BtFC, BtFR) arranged in the middle. It is assumed that the data is output from five arranged SPs (TpSiL, TpC, TpSiR, SiL, SiR) and six SPs arranged behind (TpBL, TpBC, TpBR, BL, BC, BR). Yes. In addition, each channel of the 22.2 ch audio data has 9 ch (TpFL, TpFC, TpFR, TpSiL, TpC, TpSiR, TpBL, TpBC, TpBR) as the upper layer, and 10 ch (FL, FLC, FC, FRC, middle layer) as the upper layer. FR, SiL, SiR, BL, BC, BR) and the lower 5ch (BtFL, BtFC, BtFR, LFE1, LFE2).

なお、ウーハ0.2chの音声データには、下層の2ch(LFE1、LFE2)が対応する。   It should be noted that the lower layer 2ch (LFE1, LFE2) corresponds to the woofer 0.2ch audio data.

図4は、本実施形態に係る音声処理装置11が生成する14.2chの音声データのスピーカ位置を示す図である。図4に示すように、14.2chの音声データは、前に配置された6個のSP(FL_Tp、FC_Tp、FR_Tp、FL_Bt、FC_Bt、FR_Bt)、中間に配置された4個の仮想SP(SL_Tp、SR_Tp、SL_Bt、SR_Bt)、後ろに配置された4個の仮想SP(SBL_Tp、SBR_Tp、SBL_Bt、SBR_Bt)を出力位置として出力される。図4において、仮想SPは破線の輪郭により示される。   FIG. 4 is a diagram illustrating speaker positions of 14.2 ch audio data generated by the audio processing device 11 according to the present embodiment. As shown in FIG. 4, the 14.2ch audio data includes six SPs (FL_Tp, FC_Tp, FR_Tp, FL_Bt, FC_Bt, FR_Bt) arranged in front and four virtual SPs (SL_Tp) arranged in the middle. , SR_Tp, SL_Bt, SR_Bt), and four virtual SPs (SBL_Tp, SBR_Tp, SBL_Bt, SBR_Bt) arranged behind are output as output positions. In FIG. 4, the virtual SP is indicated by a dashed outline.

音声出力装置1は、7.1chを有するサウンドバー2個を上下に配置し、対となる2個のウーハを下層に配置することにより、14.2chの音声データを出力可能である。ここで、2個のサウンドバーのうちより上層に配置されたサウンドバーをSoundBar_Tpと表し、より下層に配置されたサウンドバーをSoundBar_Btと表す。   The audio output device 1 can output 14.2 ch audio data by arranging two sound bars having 7.1 ch above and below and arranging two woofers in a lower layer. Here, of the two sound bars, the sound bar arranged in the upper layer is represented as SoundBar_Tp, and the sound bar arranged in the lower layer is represented as SoundBar_Bt.

サウンドバー(SoundBar_Tp)は、図4に示すように、SBL_Tp、SL_Tp、FL_Tp、FC_Tp、FR_Tp、SR_Tp、SBR_Tpの7個のチャンネルのそれぞれに対応した音声を再生するスピーカ群を有している。図4は、各々のチャンネルに対応したスピーカを個別に有する例を示す。ここで、図4において破線で示した各チャンネル(SL_Tp、SR_Tp、SBL_Tp、SBR_Tp(計4つ))は、仮想SP(SL_Tp、SR_Tp、SBL_Tp、SBR_Tp)を出力位置とするものであり、サウンドバー(SoundBar_Tp)の対応する仮想スピーカを再生するためのスピーカ群を有する。   As shown in FIG. 4, the sound bar (SoundBar_Tp) has a speaker group that reproduces sound corresponding to each of the seven channels of SBL_Tp, SL_Tp, FL_Tp, FC_Tp, FR_Tp, SR_Tp, and SBR_Tp. FIG. 4 shows an example in which speakers corresponding to each channel are individually provided. Here, each channel (SL_Tp, SR_Tp, SBL_Tp, SBR_Tp (four in total)) indicated by a broken line in FIG. 4 has a virtual SP (SL_Tp, SR_Tp, SBL_Tp, SBR_Tp) as an output position. A speaker group for reproducing a virtual speaker corresponding to (SoundBar_Tp) is included.

同様に、サウンドバー(SoundBar_Bt)は、図4に示すように、SBL_Bt、SL_Bt、FL_Bt、FC_Bt、FR_Bt、SR_Bt、SBR_Btの7個のチャンネルのそれぞれに対応した音声を再生するスピーカ群を有している。図4は、各々のチャンネルに対応したスピーカを個別に有する例を示す。ここで、図4において破線で示した各チャンネル(SL_Bt、SR_Bt、SBL_Bt、SBR_Bt(計4つ))は、上述の仮想SP(SL_Bt、SR_Bt、SBL_Bt、SBR_Bt)に対応するものであり、サウンドバー(SoundBar_Bt)の対応する仮想スピーカを再生するためのスピーカ群を有する。   Similarly, as shown in FIG. 4, the sound bar (SoundBar_Bt) has a group of speakers that reproduce sound corresponding to each of the seven channels SBL_Bt, SL_Bt, FL_Bt, FC_Bt, FR_Bt, SR_Bt, and SBR_Bt. Yes. FIG. 4 shows an example in which speakers corresponding to each channel are individually provided. Here, each channel (SL_Bt, SR_Bt, SBL_Bt, SBR_Bt (four in total)) indicated by broken lines in FIG. 4 corresponds to the above-mentioned virtual SP (SL_Bt, SR_Bt, SBL_Bt, SBR_Bt), and the sound bar A speaker group for reproducing the virtual speaker corresponding to (SoundBar_Bt) is provided.

音声出力装置1は、上記のように構成されるスピーカを駆動するアンプを備える。   The audio output device 1 includes an amplifier that drives the speaker configured as described above.

音声処理装置11において、音声データ生成部111は、複数の入力チャンネルの上層の音声データを、複数の出力チャンネルの上層の音声データにダウンミックスし、複数の入力チャンネルの中層の音声データを、複数の出力チャンネルの中層の音声データにダウンミックスし、複数の入力チャンネルの下層の音声データを、複数の出力チャンネルの中層の音声データに併合する。   In the audio processing device 11, the audio data generation unit 111 downmixes the upper layer audio data of the plurality of input channels into the upper layer audio data of the plurality of output channels, and converts the plurality of middle layer audio data of the plurality of input channels into a plurality. The audio data in the lower layer of the plurality of input channels is merged with the audio data in the lower layer of the plurality of output channels.

22.2chの音声データを14.2chの音声データにダウンミックスする場合に、音声データ生成部111は、22.2chの上層9chの音声データを14.2chの上層7chの音声データ(SBL_Tp、SL_Tp、FL_Tp、FC_Tp、FR_Tp、SR_Tp、SBR_Tp)にダウンミックスする。音声データ生成部111は、22.2chの中層10chの音声データを14.2chの中層7chの音声データ(SBL_Bt、SL_Bt、FL_Bt、FC_Bt、FR_Bt、SR_Bt、SBR_Bt)にダウンミックスする。音声データ生成部111は、22.2chの下層3chの音声データを14.2chの中層7chの音声データに併合する。   When the 22.2 ch audio data is downmixed to the 14.2 ch audio data, the audio data generation unit 111 converts the 22.2 ch upper layer 9 ch audio data into the 14.2 ch upper layer 7 ch audio data (SBL_Tp, SL_Tp , FL_Tp, FC_Tp, FR_Tp, SR_Tp, SBR_Tp). The audio data generation unit 111 downmixes the 22.2 ch middle layer 10 ch audio data to the 14.2 ch middle layer 7 ch audio data (SBL_Bt, SL_Bt, FL_Bt, FC_Bt, FR_Bt, SR_Bt, SBR_Bt). The audio data generation unit 111 merges the audio data of the lower layer 3ch of 22.2 ch into the audio data of the middle layer 7 ch of 14.2 ch.

図5は、本実施形態に係るダウンミックスの計算式を示す図である。   FIG. 5 is a diagram showing a calculation formula for downmix according to the present embodiment.

音声データ生成部111は、中層の分配係数を調整することにより、音声の厚み感を表現する。a、k、v、v、w、wは、一般的な係数である。 The audio data generation unit 111 expresses the sense of thickness of the audio by adjusting the distribution coefficient of the middle layer. a, k, v 1 , v 2 , w 1 , w 2 are general coefficients.

係数aは、ダウンミックス処理時にデータがオーバーフローしないようにするために設定される係数であり、0から1の間の値が任意に設定される。係数kは、サラウンドチャンネルゲイン係数であり、放送により送られてくる係数である。v、vは垂直方向係数(上下分配)であり、0から1の値がそれぞれ任意に設定される。また、上記垂直方向係数の関係は、v+v=1となる。w、wは、水平方向係数であり、0から1の値がそれぞれ任意に設定される。また、上記水平方向係数の関係は、w+w=1となる。これらの係数は、上下SPの位置(サウンドバー設置位置、テレビ画面サイズ)に合わせて、拡がり感を最適化するために任意に設定可能とする。 The coefficient a is a coefficient that is set to prevent data from overflowing during the downmix process, and a value between 0 and 1 is arbitrarily set. The coefficient k is a surround channel gain coefficient, and is a coefficient sent by broadcasting. v 1 and v 2 are vertical direction coefficients (vertical distribution), and values from 0 to 1 are arbitrarily set. The relationship between the vertical direction coefficients is v 1 + v 2 = 1. w 1 and w 2 are horizontal coefficients, and values from 0 to 1 are arbitrarily set. Further, the relationship between the horizontal direction coefficients is w 1 + w 2 = 1. These coefficients can be arbitrarily set in order to optimize the feeling of expansion according to the positions of the upper and lower SPs (sound bar installation position, television screen size).

式1〜7は、14.2chの中層の音声データの計算式である。式1に示すように、音声データ生成部111は、FL、FLC、及び、BtFLを用いて、FL_Btを生成する。式2に示すように、音声データ生成部111は、FR、FRC、及び、BtFRを用いて、FR_Btを生成する。式3に示すように、音声データ生成部111は、FC、FRC、FLC、及び、BtFCを用いて、FC_Btを生成する。式4に示すように、音声データ生成部111は、SiLを用いて、SL_Btを生成する。式5に示すように、音声データ生成部111は、SiRを用いて、SR_Btを生成する。式6に示すように、音声データ生成部111は、BL、及び、BCを用いて、SBL_Btを生成する。
式7に示すように、音声データ生成部111は、BR、及び、BCを用いて、SBR_Btを生成する。
Formulas 1 to 7 are formulas for the 14.2 ch middle-layer audio data. As shown in Expression 1, the audio data generation unit 111 generates FL_Bt using FL, FLC, and BtFL. As shown in Expression 2, the audio data generation unit 111 generates FR_Bt using FR, FRC, and BtFR. As shown in Expression 3, the audio data generation unit 111 generates FC_Bt using FC, FRC, FLC, and BtFC. As shown in Expression 4, the audio data generation unit 111 generates SL_Bt using SiL. As shown in Expression 5, the audio data generation unit 111 generates SR_Bt using SiR. As shown in Expression 6, the audio data generation unit 111 generates SBL_Bt using BL and BC.
As shown in Expression 7, the audio data generation unit 111 generates SBR_Bt using BR and BC.

式8に示すように、音声データ生成部111は、22.2chのLFE1を用いて、14.2chのLFE1を生成する。   As shown in Expression 8, the audio data generation unit 111 generates 14.2 ch LFE1 using 22.2 ch LFE1.

式9〜15は、14.2chの上層の音声データの計算式である。式9に示すように、音声データ生成部111は、FL、FLC、及び、TpFLを用いて、FL_Tpを生成する。式10に示すように、音声データ生成部111は、FR、FRC、及び、TpFRを用いて、FR_Tpを生成する。式11に示すように、音声データ生成部111は、FC、FRC、FLC、TpFC、及び、TpCを用いて、FC_Tpを生成する。式12に示すように、音声データ生成部111は、TpSiLを用いて、SL_TPを生成する。式13に示すように、音声データ生成部111は、TpSiRを用いて、SR_Tpを生成する。式14に示すように、音声データ生成部111は、TpBL、TpBC、及び、TpCを用いて、SBL_Tpを生成する。式15に示すように、音声データ生成部111は、TpBR、TpBC、及び、TpCを用いて、SBR_Tpを生成する。   Expressions 9 to 15 are calculation formulas for upper layer audio data of 14.2ch. As shown in Expression 9, the audio data generation unit 111 generates FL_Tp using FL, FLC, and TpFL. As shown in Expression 10, the audio data generation unit 111 generates FR_Tp using FR, FRC, and TpFR. As shown in Expression 11, the audio data generation unit 111 generates FC_Tp using FC, FRC, FLC, TpFC, and TpC. As shown in Expression 12, the audio data generation unit 111 generates SL_TP using TpSiL. As shown in Expression 13, the audio data generation unit 111 generates SR_Tp using TpSiR. As shown in Expression 14, the audio data generation unit 111 generates SBL_Tp using TpBL, TpBC, and TpC. As shown in Expression 15, the audio data generation unit 111 generates SBR_Tp using TpBR, TpBC, and TpC.

式16に示すように、音声データ生成部111は、22.2chのLFE2を用いて、14.2chのLFE2を生成する。   As shown in Expression 16, the audio data generation unit 111 generates 14.2 ch LFE2 using 22.2 ch LFE2.

図6は、本実施形態に係る14.2chの音声データを7chを有するサウンドバー2個を上下に配置して再生した場合に生成される音場を模式的に示す図である。   FIG. 6 is a diagram schematically showing a sound field generated when the 14.2 ch audio data according to the present embodiment is reproduced by arranging two sound bars having 7 ch above and below.

図6において、SF_SoundBar_Tpは、サウンドバー(SoundBar_Tp)によって生成される音場を模式的に示しており、SF_SoundBar_Btは、サウンドバー(SoundBar_Bt)によって生成される音場を模式的に示している。   In FIG. 6, SF_SoundBar_Tp schematically shows a sound field generated by the sound bar (SoundBar_Tp), and SF_SoundBar_Bt schematically shows a sound field generated by the sound bar (SoundBar_Bt).

〔実施形態1の変形例〕
図7は、本実施形態の変形例に係る14.2chの音声データを、7chを有するサウンドバー2個を上下に配置して再生した場合に生成される音場を模式的に示す図である。図7に示すように、本変形例では、リアスピーカ3を後ろに配置する。リアスピーカ3は、4ch(SBL_Tp、SBR_Tp、SBL_Bt、SBR_Bt)の音源となる。
[Modification of Embodiment 1]
FIG. 7 is a diagram schematically illustrating a sound field generated when 14.2 ch audio data according to a modification of the present embodiment is reproduced by arranging two sound bars having 7 ch above and below. . As shown in FIG. 7, in this modification, the rear speaker 3 is arranged behind. The rear speaker 3 is a sound source of 4ch (SBL_Tp, SBR_Tp, SBL_Bt, SBR_Bt).

リアスピーカ3が配置されることにより、図6では仮想SPだったSBL_Tp、SBR_Tp、SBL_Bt、SBR_Btをリアスピーカ3が受け持つので、音声データ生成部111が上記4chの音声データをリアスピーカ3用に生成する。これにより、リア音像が強化される。リアスピーカ3には、例えば、無線スピーカが用いられる。   Since the rear speaker 3 is arranged, the rear speaker 3 takes charge of the SBL_Tp, SBR_Tp, SBL_Bt, and SBR_Bt, which are virtual SPs in FIG. 6, so the audio data generation unit 111 generates the above 4ch audio data for the rear speaker 3. To do. Thereby, a rear sound image is strengthened. As the rear speaker 3, for example, a wireless speaker is used.

リアスピーカ3は、音声データとして、SBL_Tp及びSBL_Btを合成したLを出力するとともに、SBR_Tp及びSBR_Btを合成したRを出力するステレオスピーカとして構成することも可能である。これにより、一般的な無線接続のステレオスピーカをリアスピーカ3として使用することが可能になる。   The rear speaker 3 can also be configured as a stereo speaker that outputs L as a combination of SBL_Tp and SBL_Bt as audio data and outputs R as a combination of SBR_Tp and SBR_Bt. As a result, a general wirelessly connected stereo speaker can be used as the rear speaker 3.

〔実施形態1の効果〕
上記の構成によれば、音声処理装置11は、2個のサウンドバー12、13を用いることにより、多チャンネルの音声の再生環境を容易に実現することができる。特に、22.2chの音声データを14.2chの音声データにダウンミックスする場合に、22.2chの上層の音声データを、14.2の上層の音声データにダウンミックスし、22.2chの中層及び下層の音声データを、14.2chの中層の音声データにダウンミックス及び併合するので、22.2chの3層(上中下)の音声データを、2個のサウンドバー12、13(上中)で容易に再現することができる。
[Effect of Embodiment 1]
According to the above configuration, the sound processing apparatus 11 can easily realize a multi-channel sound reproduction environment by using the two sound bars 12 and 13. In particular, when 22.2 ch audio data is downmixed to 14.2 ch audio data, 22.2 ch upper layer audio data is downmixed to 14.2 upper layer audio data, and 22.2 ch middle layer Since the audio data of the lower layer and the lower layer are downmixed and merged with the audio data of the upper layer of 14.2 ch, the audio data of the 22.2 ch of the third layer (upper middle lower) is converted into two sound bars 12, 13 (upper middle ) Can be easily reproduced.

〔実施形態2〕
本発明の実施形態2について、図8〜図9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The second embodiment of the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

音声処理装置11は、22.2chの音声データを取得し、ダウンミックスすることによって、10.2chの音声データを生成する。   The audio processing device 11 acquires 22.2 ch audio data and downmixes to generate 10.2 ch audio data.

図8は、本実施形態に係る音声処理装置11が生成する10.2chの音声データのスピーカ位置を示す図である。図8に示すように、10.2chの音声データは、前に配置された6個のSP(FL_Tp、FC_Tp、FR_Tp、FL_Bt、FC_Bt、FR_Bt)、後ろに配置された4個の仮想SP(SL_Tp、SR_Tp、SL_Bt、SR_Bt)を出力位置として出力される。図8において、仮想SPは破線の輪郭により示される。   FIG. 8 is a diagram showing speaker positions of 10.2 ch audio data generated by the audio processing device 11 according to the present embodiment. As shown in FIG. 8, 10.2 ch audio data is composed of six SPs (FL_Tp, FC_Tp, FR_Tp, FL_Bt, FC_Bt, FR_Bt) arranged in front and four virtual SPs (SL_Tp) arranged behind. , SR_Tp, SL_Bt, SR_Bt) are output as output positions. In FIG. 8, the virtual SP is indicated by a dashed outline.

音声出力装置1は、5.1chを有するサウンドバー2個を上下に配置し、2個のウーハを下層に配置することにより、10.2chの音声データを出力可能である。ここで、2個のサウンドバーのうちより上層に配置されたサウンドバーをSoundBar_Tpと表し、より下層に配置されたサウンドバーをSoundBar_Btと表す。   The audio output device 1 can output 10.2 ch audio data by arranging two sound bars having 5.1 ch up and down and arranging two woofers in the lower layer. Here, of the two sound bars, the sound bar arranged in the upper layer is represented as SoundBar_Tp, and the sound bar arranged in the lower layer is represented as SoundBar_Bt.

サウンドバー(SoundBar_Tp)は、図8に示すように、SL_Tp、FL_Tp、FC_Tp、FR_Tp、SR_Tpの5個のチャンネルのそれぞれに対応した音声を再生するスピーカ群を有している。図8は、各々のチャンネルに対応したスピーカを個別に有する例を示す。ここで、図8において破線で示した各チャンネル(SL_Tp、SR_Tp(計2つ))は、仮想SP(SL_Tp、SR_Tp)を出力位置とするものであり、サウンドバー(SoundBar_Tp)の有する2つのサラウンドスピーカ群から個別に出力される。   As shown in FIG. 8, the sound bar (SoundBar_Tp) has a speaker group that reproduces sound corresponding to each of the five channels SL_Tp, FL_Tp, FC_Tp, FR_Tp, and SR_Tp. FIG. 8 shows an example in which speakers corresponding to each channel are individually provided. Here, each channel (SL_Tp, SR_Tp (two in total)) indicated by a broken line in FIG. 8 has a virtual SP (SL_Tp, SR_Tp) as an output position, and two surrounds included in the sound bar (SoundBar_Tp). Output individually from the speaker group.

同様に、サウンドバー(SoundBar_Bt)は、図8に示すように、SL_Bt、FL_Bt、FC_Bt、FR_Bt、SR_Btの5個のチャンネルのそれぞれに対応した音声を再生するスピーカ群を有している。図8は、各々のチャンネルに対応したスピーカを個別に有する例を示す。ここで、図8において破線で示した各チャンネル(SL_Bt、SR_Bt(計2つ))は、上述の仮想SP(SL_Bt、SR_Bt)に対応するものであり、サウンドバー(SoundBar_Bt)の有する2つのサラウンドスピーカ群から個別に出力される。   Similarly, as shown in FIG. 8, the sound bar (SoundBar_Bt) has a speaker group that reproduces sound corresponding to each of the five channels SL_Bt, FL_Bt, FC_Bt, FR_Bt, and SR_Bt. FIG. 8 shows an example in which speakers corresponding to each channel are individually provided. Here, each channel (SL_Bt, SR_Bt (two in total)) indicated by a broken line in FIG. 8 corresponds to the above-described virtual SP (SL_Bt, SR_Bt), and two surrounds that the sound bar (SoundBar_Bt) has. Output individually from the speaker group.

音声出力装置1は、上記のように構成されるスピーカを駆動するアンプを備える。   The audio output device 1 includes an amplifier that drives the speaker configured as described above.

22.2chの音声データを10.2chの音声データにダウンミックスする場合に、音声データ生成部111は、22.2chの上層9chの音声データを10.2chの上層5chの音声データ(SL_Tp、FL_Tp、FC_Tp、FR_Tp、SR_Tp)にダウンミックスする。音声データ生成部111は、22.2chの中層10chの音声データを10.2chの中層5chの音声データ(SL_Bt、FL_Bt、FC_Bt、FR_Bt、SR_Bt)にダウンミックスする。音声データ生成部111は、22.2chの下層3chの音声データを10.2chの中層3chの音声データ(FL_Bt、FC_Bt、FR_Bt)に併合する。   When 22.2 ch audio data is downmixed to 10.2 ch audio data, the audio data generation unit 111 converts 22.2 ch upper layer 9 ch audio data into 10.2 ch upper layer 5 ch audio data (SL_Tp, FL_Tp , FC_Tp, FR_Tp, SR_Tp). The audio data generation unit 111 downmixes the 22.2 ch middle layer 10 ch audio data to 10.2 ch middle layer 5 ch audio data (SL_Bt, FL_Bt, FC_Bt, FR_Bt, SR_Bt). The audio data generation unit 111 merges the audio data of the 22.2 ch lower layer 3 ch into the 10.2 ch middle layer 3 ch audio data (FL_Bt, FC_Bt, FR_Bt).

図9は、本実施形態に係るダウンミックスの計算式を示す図である。   FIG. 9 is a diagram showing a calculation formula for downmix according to the present embodiment.

音声データ生成部111は、中層の分配係数を調整することにより、音声の厚み感を表現する。a、k、v、v、w、wは、一般的な係数である。 The audio data generation unit 111 expresses the sense of thickness of the audio by adjusting the distribution coefficient of the middle layer. a, k, v 1 , v 2 , w 1 , w 2 are general coefficients.

係数aは、ダウンミックス処理時にデータがオーバーフローしないようにするために設定される係数であり、0から1の間の値が任意に設定される。係数kは、サラウンドチャンネルゲイン係数であり、放送により送られてくる係数である。v、vは垂直方向係数(上下分配)であり、0から1の値がそれぞれ任意に設定される。また、上記垂直方向係数の関係は、v+v=1となる。w、wは、水平方向係数であり、0から1の値がそれぞれ任意に設定される。また、上記水平方向係数の関係は、w+w=1となる。これらの係数は、上下SPの位置(サウンドバー設置位置、テレビ画面サイズ)に合わせて、拡がり感を最適化するために任意に設定可能とする。 The coefficient a is a coefficient that is set to prevent data from overflowing during the downmix process, and a value between 0 and 1 is arbitrarily set. The coefficient k is a surround channel gain coefficient, and is a coefficient sent by broadcasting. v 1 and v 2 are vertical direction coefficients (vertical distribution), and values from 0 to 1 are arbitrarily set. The relationship between the vertical direction coefficients is v 1 + v 2 = 1. w 1 and w 2 are horizontal coefficients, and values from 0 to 1 are arbitrarily set. Further, the relationship between the horizontal direction coefficients is w 1 + w 2 = 1. These coefficients can be arbitrarily set in order to optimize the feeling of expansion according to the positions of the upper and lower SPs (sound bar installation position, television screen size).

式17〜21は、10.2chの中層の音声データの計算式である。式17に示すように、音声データ生成部111は、FL、SiL、FLC、及び、BtFLを用いて、FL_Btを生成する。式18に示すように、音声データ生成部111は、FR、SiR、FRC、及び、BtFRを用いて、FR_Btを生成する。式19に示すように、音声データ生成部111は、FC、FRC、FLC、及び、BtFCを用いて、FC_Btを生成する。式20に示すように、音声データ生成部111は、BL、BC、及び、SiLを用いて、SL_Btを生成する。式21に示すように、音声データ生成部111は、BR、BC、及び、SiRを用いて、SR_Btを生成する。   Expressions 17 to 21 are calculation formulas for 10.2 ch middle-layer audio data. As shown in Expression 17, the audio data generation unit 111 generates FL_Bt using FL, SiL, FLC, and BtFL. As shown in Expression 18, the audio data generation unit 111 generates FR_Bt using FR, SiR, FRC, and BtFR. As shown in Expression 19, the audio data generation unit 111 generates FC_Bt using FC, FRC, FLC, and BtFC. As shown in Expression 20, the audio data generation unit 111 generates SL_Bt using BL, BC, and SiL. As shown in Expression 21, the audio data generation unit 111 generates SR_Bt using BR, BC, and SiR.

式22に示すように、音声データ生成部111は、22.2chのLFE1を用いて、10.2chのLFE1を生成する。   As shown in Expression 22, the audio data generation unit 111 generates 10.2 ch LFE1 using 22.2 ch LFE1.

式23〜27は、10.2chの上層の音声データの計算式である。
式23に示すように、音声データ生成部111は、FL、FLC、TpFL、及び、TpSiLを用いて、FL_Tpを生成する。式24に示すように、音声データ生成部111は、FR、FRC、TpFR、及び、TpSiRを用いて、FR_Tpを生成する。
式25に示すように、音声データ生成部111は、FC、FRC、FLC、TpFC及び、TpCを用いて、FC_Tpを生成する。式26に示すように、音声データ生成部111は、TPBL、TpBC、TpC、及び、TpSiLを用いて、SL_Tpを生成する。式27に示すように、音声データ生成部111は、TpBR、TpBC、TpC、及び、を用いて、を生成する。
Expressions 23 to 27 are calculation formulas for upper layer audio data of 10.2 ch.
As shown in Expression 23, the audio data generation unit 111 generates FL_Tp using FL, FLC, TpFL, and TpSiL. As shown in Expression 24, the audio data generation unit 111 generates FR_Tp using FR, FRC, TpFR, and TpSiR.
As shown in Expression 25, the audio data generation unit 111 generates FC_Tp using FC, FRC, FLC, TpFC, and TpC. As shown in Expression 26, the audio data generation unit 111 generates SL_Tp using TPBL, TpBC, TpC, and TpSiL. As shown in Expression 27, the audio data generation unit 111 generates TpBR, TpBC, TpC, and so on.

式28に示すように、音声データ生成部111は、22.2chのLFE2を用いて、14.2chのLFE2を生成する。   As shown in Expression 28, the audio data generation unit 111 generates 14.2 ch LFE2 using 22.2 ch LFE2.

〔実施形態2の効果〕
上記の構成によれば、音声処理装置11は、2個のサウンドバー12、13を用いることにより、多チャンネルの音声の再生環境を容易に実現することができる。特に、22.2chの音声データを10.2chの音声データにダウンミックスする場合に、22.2chの上層の音声データを、10.2chの上層の音声データにダウンミックスし、22.2chの中層及び下層の音声データを、10.2chの中層の音声データにダウンミックス及び併合するので、22.2chの3層(上中下)の音声データを、2個のサウンドバー12、13(上中)で容易に再現することができる。
[Effect of Embodiment 2]
According to the above configuration, the sound processing apparatus 11 can easily realize a multi-channel sound reproduction environment by using the two sound bars 12 and 13. In particular, when 22.2 ch audio data is downmixed to 10.2 ch audio data, 22.2 ch upper layer audio data is downmixed to 10.2 ch upper layer audio data, and 22.2 ch middle layer Since the audio data of the lower layer and the lower layer are downmixed and merged into the audio data of the middle layer of 10.2 ch, the audio data of the 22.2 ch of the third layer (upper middle and lower) is converted into two sound bars 12, 13 (upper middle ) Can be easily reproduced.

〔実施形態3〕
本発明の実施形態3について、図10〜図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
It will be as follows if Embodiment 3 of this invention is demonstrated based on FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

音声処理装置11は、22.2chの音声データを取得し、ダウンミックスすることによって、8.1chの音声データを生成する。   The audio processing device 11 acquires 22.2 ch audio data and downmixes to generate 8.1 ch audio data.

図10は、本実施形態に係る音声処理装置11が生成する8.1chの音声データのスピーカ位置を示す図である。図10に示すように、8.1chの音声データは、前に配置された6個のSP(FL_Tp、FC_Tp、FR_Tp、FL_Bt、FC_Bt、FR_Bt)、後ろに配置された2個の仮想SP(SL_Bt、SR_Bt)を出力位置として出力される。図10において、仮想SPは破線の輪郭により示される。   FIG. 10 is a diagram illustrating the speaker position of the 8.1ch audio data generated by the audio processing device 11 according to the present embodiment. As shown in FIG. 10, 8.1ch audio data is composed of six SPs (FL_Tp, FC_Tp, FR_Tp, FL_Bt, FC_Bt, FR_Bt) arranged in front and two virtual SPs (SL_Bt) arranged behind. , SR_Bt) is output as an output position. In FIG. 10, the virtual SP is indicated by a dashed outline.

本実施形態では、サウンドバー2個がテレビジョン受像機2に内蔵されている。音声出力装置1は、3chを有するサウンドバーと、5.1chを有するサウンドバーとを上下に配置し、1個のウーハを下層に配置することにより、8.1chの音声データを出力可能である。ここで、2個のサウンドバーのうち、より上層に配置されたサウンドバーをSoundBar_Tpと表し、より下層に配置されたサウンドバーをSoundBar_Btと表す。   In the present embodiment, two sound bars are built in the television receiver 2. The audio output device 1 can output 8.1ch audio data by arranging a sound bar having 3ch and a sound bar having 5.1ch above and below, and arranging one woofer in the lower layer. . Here, of the two sound bars, the sound bar arranged in the upper layer is represented as SoundBar_Tp, and the sound bar arranged in the lower layer is represented as SoundBar_Bt.

サウンドバー(SoundBar_Tp)は、図10に示すように、FL_Tp、FC_Tp、FR_Tpの3個のチャンネルのそれぞれに対応した音声を再生するスピーカ群を有している。図10は、各々のチャンネルに対応したスピーカを個別に有する例を示す。   As shown in FIG. 10, the sound bar (SoundBar_Tp) has a speaker group that reproduces sound corresponding to each of the three channels FL_Tp, FC_Tp, and FR_Tp. FIG. 10 shows an example in which speakers corresponding to each channel are individually provided.

サウンドバー(SoundBar_Bt)は、図10に示すように、SL_Bt、FL_Bt、FC_Bt、FR_Bt、SR_Btの5個のチャンネルのそれぞれに対応した音声を再生するスピーカ群を有している。図10は、各々のチャンネルに対応したスピーカを個別に有する例を示す。ここで、図10において破線で示した各チャンネル(SL_Bt、SR_Bt(計2つ))は、仮想SP(SL_Bt、SR_Bt)に対応するものであり、サウンドバー(SoundBar_Bt)の有する2つのサラウンドスピーカ群から個別に出力される。   As shown in FIG. 10, the sound bar (SoundBar_Bt) has a speaker group that reproduces sound corresponding to each of the five channels SL_Bt, FL_Bt, FC_Bt, FR_Bt, and SR_Bt. FIG. 10 shows an example in which speakers corresponding to each channel are individually provided. Here, each channel (SL_Bt, SR_Bt (two in total)) indicated by a broken line in FIG. 10 corresponds to a virtual SP (SL_Bt, SR_Bt), and two surround speaker groups included in the sound bar (SoundBar_Bt). Are output individually.

音声出力装置1は、上記のように構成されるスピーカを駆動するアンプを備える。   The audio output device 1 includes an amplifier that drives the speaker configured as described above.

22.2chの音声データを8.1chの音声データにダウンミックスする場合に、音声データ生成部111は、22.2chの上層9chの音声データを8.1chの上層3chの音声データ(FL_Tp、FC_Tp、FR_Tp)にダウンミックスする。音声データ生成部111は、22.2chの中層10chの音声データを8.1chの中層5chの音声データ(SL_Bt、FL_Bt、FC_Bt、FR_Bt、SR_Bt)にダウンミックスする。音声データ生成部111は、22.2chの下層3chの音声データを10.2chの中層3chの音声データ(FL_Bt、FC_Bt、FR_Bt)に併合する。   When the 22.2 ch audio data is downmixed to the 8.1 ch audio data, the audio data generation unit 111 converts the 22.2 ch upper layer 9 ch audio data into the 8.1 ch upper layer 3 ch audio data (FL_Tp, FC_Tp , FR_Tp). The audio data generation unit 111 downmixes the audio data of the 22.2 ch middle layer 10 ch to the 8.1 ch middle layer 5 ch audio data (SL_Bt, FL_Bt, FC_Bt, FR_Bt, SR_Bt). The audio data generation unit 111 merges the audio data of the 22.2 ch lower layer 3 ch into the 10.2 ch middle layer 3 ch audio data (FL_Bt, FC_Bt, FR_Bt).

図11は、本実施形態に係るダウンミックスの計算式を示す図である。   FIG. 11 is a diagram showing a calculation formula for downmix according to the present embodiment.

音声データ生成部111は、中層の分配係数を調整することにより、音声の立体感、厚み感を表現する。a、k、v、v、w、wは、一般的な係数である。 The sound data generation unit 111 expresses a three-dimensional sound and a feeling of thickness by adjusting the middle layer distribution coefficient. a, k, v 1 , v 2 , w 1 , w 2 are general coefficients.

係数aは、ダウンミックス処理時にデータがオーバーフローしないようにするために設定される係数であり、0から1の間の値が任意に設定される。係数kは、サラウンドチャンネルゲイン係数であり、放送により送られてくる係数である。v、vは垂直方向係数(上下分配)であり、0から1の値がそれぞれ任意に設定される。また、上記垂直方向係数の関係は、v+v=1となる。w、wは、水平方向係数であり、0から1の値がそれぞれ任意に設定される。また、上記水平方向係数の関係は、w+w=1となる。これらの係数は、上下SPの位置(サウンドバー設置位置、テレビ画面サイズ)に合わせて、拡がり感を最適化するために任意に設定可能とする。 The coefficient a is a coefficient that is set to prevent data from overflowing during the downmix process, and a value between 0 and 1 is arbitrarily set. The coefficient k is a surround channel gain coefficient, and is a coefficient sent by broadcasting. v 1 and v 2 are vertical direction coefficients (vertical distribution), and values from 0 to 1 are arbitrarily set. The relationship between the vertical direction coefficients is v 1 + v 2 = 1. w 1 and w 2 are horizontal coefficients, and values from 0 to 1 are arbitrarily set. Further, the relationship between the horizontal direction coefficients is w 1 + w 2 = 1. These coefficients can be arbitrarily set in order to optimize the feeling of expansion according to the positions of the upper and lower SPs (sound bar installation position, television screen size).

式29〜33は、8.1chの中層の音声データの計算式である。式29に示すように、音声データ生成部111は、FL、SiL、FLC、及び、BtFLを用いて、FL_BTを生成する。式30に示すように、音声データ生成部111は、FR、SiR、FRC、及び、BtFRを用いて、FR_Btを生成する。式31に示すように、音声データ生成部111は、FC、FRC、FLC、及び、BtFCを用いて、FC_Btを生成する。式32に示すように、音声データ生成部111は、BL、BC、SiL、TpBL、TpBC、TpC、及び、TpSiLを用いて、SL_Btを生成する。式33に示すように、音声データ生成部111は、BR、BC、SiR、TpBR、TpBC、TpC、及び、TpSiRを用いて、SR_Btを生成する。   Expressions 29 to 33 are calculation formulas for middle-layer audio data of 8.1ch. As shown in Expression 29, the audio data generation unit 111 generates FL_BT using FL, SiL, FLC, and BtFL. As shown in Expression 30, the audio data generation unit 111 generates FR_Bt using FR, SiR, FRC, and BtFR. As shown in Expression 31, the audio data generation unit 111 generates FC_Bt using FC, FRC, FLC, and BtFC. As shown in Expression 32, the audio data generation unit 111 generates SL_Bt using BL, BC, SiL, TpBL, TpBC, TpC, and TpSiL. As shown in Expression 33, the audio data generation unit 111 generates SR_Bt using BR, BC, SiR, TpBR, TpBC, TpC, and TpSiR.

式34に示すように、音声データ生成部111は、LFE1、及び、LFE2を用いて、LFEを生成する。   As shown in Expression 34, the audio data generation unit 111 generates LFE using LFE1 and LFE2.

式35〜37は、8.1chの上層の音声データの計算式である。式35に示すように、音声データ生成部111は、FL、FLC、TpFL、及び、TpSiLを用いて、FL_Tpを生成する。式36に示すように、音声データ生成部111は、FR、FRC、TpFR、及び、TpSiRを用いて、FR_Tpを生成する。式37に示すように、音声データ生成部111は、FC、FRC、FLC、TpFC、及び、TpCを用いて、FC_Tpを生成する。   Expressions 35 to 37 are calculation formulas of the upper layer audio data of 8.1ch. As shown in Expression 35, the audio data generation unit 111 generates FL_Tp using FL, FLC, TpFL, and TpSiL. As shown in Expression 36, the audio data generation unit 111 generates FR_Tp using FR, FRC, TpFR, and TpSiR. As shown in Expression 37, the audio data generation unit 111 generates FC_Tp using FC, FRC, FLC, TpFC, and TpC.

〔実施形態3の変形例〕
図12は、本実施形態に係る8.1chの音声データを、3chを有するサウンドバー1個と、5.1chを有するサウンドバー1個とを配置して再生した場合に生成される音場を模式的に示す図である。図12において、SF_SoundBar_Btは、サウンドバー(SoundBar_Bt)によって生成される音場を模式的に示している。
[Modification of Embodiment 3]
FIG. 12 shows a sound field generated when audio data of 8.1ch according to the present embodiment is reproduced by arranging one sound bar having 3ch and one sound bar having 5.1ch. It is a figure shown typically. In FIG. 12, SF_SoundBar_Bt schematically shows a sound field generated by a sound bar (SoundBar_Bt).

図12に示すように、リアスピーカ3が後ろに配置される。リアスピーカ3は、2ch(SL_Bt、SR_Bt)の音源となる。   As shown in FIG. 12, the rear speaker 3 is arranged behind. The rear speaker 3 is a sound source of 2ch (SL_Bt, SR_Bt).

リアスピーカ3が配置されることにより、仮想SPだったSL_Bt、SR_Btをリアスピーカ3が受け持つので、音声データ生成部111が上記2chの音声データをリアスピーカ3用に生成する。これにより、リア音像が強化される。リアスピーカ3には、例えば、無線スピーカが用いられる。   By arranging the rear speaker 3, the rear speaker 3 takes charge of SL_Bt and SR_Bt, which are virtual SPs, so the audio data generation unit 111 generates the above-mentioned 2ch audio data for the rear speaker 3. Thereby, a rear sound image is strengthened. As the rear speaker 3, for example, a wireless speaker is used.

〔実施形態3の効果〕
上記の構成によれば、音声処理装置11は、2個のサウンドバー12、13を用いることにより、多チャンネルの音声の再生環境を容易に実現することができる。特に、22.2chの音声データを8.1chの音声データにダウンミックスする場合に、22.2chの上層の音声データを、8.1chの上層の音声データにダウンミックスし、22.2chの中層及び下層の音声データを、8.1chの中層の音声データにダウンミックス及び併合するので、22.2chの3層(上中下)の音声データを、2個のサウンドバー12、13(上中)で容易に再現することができる。
[Effect of Embodiment 3]
According to the above configuration, the sound processing apparatus 11 can easily realize a multi-channel sound reproduction environment by using the two sound bars 12 and 13. In particular, when 22.2ch audio data is downmixed to 8.1ch audio data, 22.2ch upper audio data is downmixed to 8.1ch upper audio data, and 22.2ch middle Since the audio data of the lower layer and the lower layer are downmixed and merged into the audio data of the middle layer of 8.1ch, the audio data of the 22.2ch three layers (upper middle and lower) are converted into two sound bars 12, 13 (upper middle ) Can be easily reproduced.

〔ソフトウェアによる実現例〕
音声処理装置11の制御ブロック(音声データ生成部111)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control block (audio data generation unit 111) of the audio processing device 11 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or using a CPU (Central Processing Unit). It may be realized by software.

後者の場合、音声処理装置11は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the voice processing device 11 includes a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU). Alternatively, a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る音声処理装置(11)は、複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する音声処理装置において、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーとを含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、上記複数の入力チャンネルの音声データをダウンミックスすることによって生成する音声データ生成部(111)を備えている。
[Summary]
The sound processing device (11) according to the first aspect of the present invention is a sound processing device that generates sound data of a plurality of output channels by downmixing sound data of a plurality of input channels. And a second sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction. An audio data generation unit (111) is provided that generates audio data for each of the plurality of output channel speakers including the audio data of the plurality of input channels by downmixing the audio data.

上記の構成によれば、2個のサウンドバーを用いることにより、多チャンネルの音声の再生環境を容易に実現することができる。   According to the above configuration, a multi-channel audio reproduction environment can be easily realized by using two sound bars.

本発明の態様2に係る音声処理装置は、上記態様1において、上記音声データ生成部が、上記複数の入力チャンネルの上層の音声データを、上記複数の出力チャンネルの上層の音声データにダウンミックスし、上記複数の入力チャンネルの中層の音声データを、上記複数の出力チャンネルの中層の音声データにダウンミックスし、上記複数の入力チャンネルの下層の音声データを、上記複数の出力チャンネルの中層の音声データに併合してもよい。   In the audio processing device according to aspect 2 of the present invention, in the above aspect 1, the audio data generation unit downmixes the audio data in the upper layer of the plurality of input channels to the audio data in the upper layer of the plurality of output channels. The audio data in the middle layer of the plurality of input channels is downmixed to the audio data in the middle layer of the plurality of output channels, and the audio data in the lower layer of the plurality of input channels is converted into the audio data in the middle layer of the plurality of output channels. May be merged.

上記の構成によれば、複数の入力チャンネルの上層の音声データを、複数の出力チャンネルの上層の音声データにダウンミックスし、複数の入力チャンネルの中層及び下層の音声データを、複数の出力チャンネルの中層の音声データにダウンミックス及び併合するので、複数の入力チャンネルの3層(上中下)の音声データを、2個のサウンドバー(上中)で容易に再現することができる。   According to the above configuration, the upper layer audio data of the plurality of input channels is downmixed to the upper layer audio data of the plurality of output channels, and the middle layer and lower layer audio data of the plurality of input channels are converted to the plurality of output channels. Since down-mixing and merging with the middle layer audio data, the third layer (upper middle and lower) voice data of a plurality of input channels can be easily reproduced with two sound bars (upper middle).

本発明の態様3に係る音声処理装置は、上記態様2において、上記音声データ生成部が、22.2chの音声データを14.2chの音声データにダウンミックスする場合に、上記複数の入力チャンネルの上層9chの音声データを、上記複数の出力チャンネルの上層7chの音声データにダウンミックスし、上記複数の入力チャンネルの中層10chの音声データを、上記複数の出力チャンネルの中層7chの音声データにダウンミックスし、上記複数の入力チャンネルの下層3chの音声データを、上記複数の出力チャンネルの中層7chの音声データに併合してもよい。   The sound processing apparatus according to aspect 3 of the present invention is the sound processing apparatus according to aspect 2, in which, when the sound data generation unit downmixes the 22.2 ch audio data to the 14.2 ch audio data, The upper layer 9ch audio data is downmixed to the upper layer 7ch audio data of the plurality of output channels, and the middle layer 10ch audio data of the plurality of input channels is downmixed to the middle layer 7ch audio data of the plurality of output channels. The lower layer 3ch audio data of the plurality of input channels may be merged with the middle layer 7ch audio data of the plurality of output channels.

上記の構成によれば、22.2chの音声データを14.2chの音声データにダウンミックスする場合に、3層(上中下)の音声データを、2個のサウンドバー(上中)で容易に再現することができる。   According to the above configuration, when down-mixing 22.2 ch audio data to 14.2 ch audio data, the three layers (upper, middle and lower) of audio data can be easily obtained with two sound bars (upper, middle) Can be reproduced.

本発明の態様4に係る音声出力装置(1)は、上記態様1〜3の何れかの音声処理装置(11)と、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバー(12)と、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバー(13)と、を備えている。   An audio output device (1) according to an aspect 4 of the present invention includes the audio processing device (11) according to any one of the above aspects 1 to 3, and a plurality of speaker groups that output audio data for each output channel arranged in the horizontal direction. And a second sound bar (13) in which a plurality of speaker groups that output audio data for each output channel are arranged in the horizontal direction.

上記の構成によれば、2個のサウンドバーを用いることにより、多チャンネルの音声をダウンミックスして出力することができる。   According to the above configuration, multi-channel audio can be downmixed and output by using two sound bars.

本発明の態様5に係るテレビジョン受像機(2)は、上記態様4に係る音声出力装置を備えている。   The television receiver (2) according to aspect 5 of the present invention includes the audio output device according to aspect 4 described above.

本発明の態様6に係る音声処理方法は、複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する音声処理方法であって、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーとを含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、上記複数の入力チャンネルの音声データをダウンミックスすることによって生成する音声データ生成ステップを含んでいる。   An audio processing method according to aspect 6 of the present invention is an audio processing method for generating audio data of a plurality of output channels by downmixing audio data of a plurality of input channels, wherein the audio data for each output channel is generated. A first sound bar in which a plurality of speaker groups to be output are arranged in a horizontal direction; and a second sound bar in which a plurality of speaker groups to output audio data for each output channel are arranged in a horizontal direction. A sound data generating step of generating sound data for each of the plurality of output channel speakers by downmixing the sound data of the plurality of input channels;

本発明の各態様に係る音声処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記音声処理装置が備える各部(ソフトウェア要素)として動作させることにより上記音声処理装置をコンピュータにて実現させる音声処理装置のプログラム、及び、それを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The speech processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, the speech processing apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the speech processing apparatus. The program of the voice processing apparatus to be realized in this way and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

1 音声出力装置
11 音声処理装置
12 サウンドバー(第1のサウンドバー)
13 サウンドバー(第2のサウンドバー)
111 音声データ生成部
2 テレビジョン受像機
DESCRIPTION OF SYMBOLS 1 Audio | voice output apparatus 11 Audio | voice processing apparatus 12 Sound bar (1st sound bar)
13 Sound bar (second sound bar)
111 Audio data generator 2 Television receiver

Claims (8)

複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する音声処理装置において、
出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーとを含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、上記複数の入力チャンネルの音声データをダウンミックスすることによって生成する音声データ生成部
を備えていることを特徴とする音声処理装置。
In an audio processing device that generates audio data of a plurality of output channels by downmixing audio data of a plurality of input channels,
A first sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction, and a first sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction. And an audio data generator for generating audio data for each of a plurality of output channel speakers including two sound bars by downmixing the audio data of the plurality of input channels. Processing equipment.
上記音声データ生成部は、
上記複数の入力チャンネルの上層の音声データを、上記複数の出力チャンネルの上層の音声データにダウンミックスし、
上記複数の入力チャンネルの中層の音声データを、上記複数の出力チャンネルの中層の音声データにダウンミックスし、
上記複数の入力チャンネルの下層の音声データを、上記複数の出力チャンネルの中層の音声データに併合する、
ことを特徴とする請求項1に記載の音声処理装置。
The voice data generation unit
Downmix the upper layer audio data of the plurality of input channels to the upper layer audio data of the plurality of output channels,
Downmix the middle layer audio data of the plurality of input channels to the middle layer audio data of the plurality of output channels,
Merging lower layer audio data of the plurality of input channels with middle layer audio data of the plurality of output channels;
The speech processing apparatus according to claim 1.
上記音声データ生成部は、
22.2chの音声データを14.2chの音声データにダウンミックスする場合に、
上記複数の入力チャンネルの上層9chの音声データを、上記複数の出力チャンネルの上層7chの音声データにダウンミックスし、
上記複数の入力チャンネルの中層10chの音声データを、上記複数の出力チャンネルの中層7chの音声データにダウンミックスし、
上記複数の入力チャンネルの下層3chの音声データを、上記複数の出力チャンネルの中層7chの音声データに併合する、
ことを特徴とする請求項2に記載の音声処理装置。
The voice data generation unit
When downmixing 22.2ch audio data to 14.2ch audio data,
Downmixing the upper layer 9ch audio data of the plurality of input channels to the upper layer 7ch audio data of the plurality of output channels,
Downmixing the middle layer 10ch audio data of the plurality of input channels to the middle layer 7ch audio data of the plurality of output channels,
The audio data of the lower layer 3ch of the plurality of input channels are merged with the audio data of the middle layer 7ch of the plurality of output channels.
The speech processing apparatus according to claim 2.
請求項1から3の何れか1項に記載の音声処理装置と、
出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、
出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーと、
を備えていることを特徴とする音声出力装置。
The voice processing device according to any one of claims 1 to 3,
A first sound bar in which a plurality of speaker groups that output audio data for each output channel are arranged in a horizontal direction;
A second sound bar in which a plurality of speaker groups that output audio data for each output channel are arranged in a horizontal direction;
An audio output device comprising:
請求項4に記載の音声出力装置を備えていることを特徴とするテレビジョン受像機。   A television receiver comprising the audio output device according to claim 4. 複数の入力チャンネルの音声データをダウンミックスすることによって、複数の出力チャンネルの音声データを生成する音声処理方法であって、
出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第1のサウンドバーと、出力チャンネル毎の音声データを出力する複数のスピーカ群が横方向に配列されてなる第2のサウンドバーとを含む複数の出力チャンネル用スピーカのそれぞれに対する音声データを、上記複数の入力チャンネルの音声データをダウンミックスすることによって生成する音声データ生成ステップ
を含んでいることを特徴とする音声処理方法。
An audio processing method for generating audio data of a plurality of output channels by downmixing audio data of a plurality of input channels,
A first sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction, and a first sound bar in which a plurality of speaker groups for outputting audio data for each output channel are arranged in the horizontal direction. And an audio data generation step for generating audio data for each of a plurality of output channel speakers including two sound bars by downmixing the audio data of the plurality of input channels. Processing method.
請求項1から3の何れか1項に記載の音声処理装置としてコンピュータを機能させるためのプログラムであって、上記音声データ生成部としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the speech processing apparatus according to any one of claims 1 to 3, wherein the program causes the computer to function as the speech data generation unit. 請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2017013612A 2017-01-27 2017-01-27 Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program Pending JP2018121309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017013612A JP2018121309A (en) 2017-01-27 2017-01-27 Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017013612A JP2018121309A (en) 2017-01-27 2017-01-27 Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program

Publications (1)

Publication Number Publication Date
JP2018121309A true JP2018121309A (en) 2018-08-02

Family

ID=63045513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017013612A Pending JP2018121309A (en) 2017-01-27 2017-01-27 Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program

Country Status (1)

Country Link
JP (1) JP2018121309A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529273A (en) * 2019-04-16 2022-06-20 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Lower layer regeneration
JP7461156B2 (en) 2020-02-13 2024-04-03 シャープ株式会社 Audio processing device, audio output device, television receiver, audio processing method, program, and computer-readable recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529273A (en) * 2019-04-16 2022-06-20 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Lower layer regeneration
JP7330290B2 (en) 2019-04-16 2023-08-21 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Audio processor, audio system, method and program for playing multi-channel audio
JP7461156B2 (en) 2020-02-13 2024-04-03 シャープ株式会社 Audio processing device, audio output device, television receiver, audio processing method, program, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
KR102322104B1 (en) Audio signal procsessing apparatus and method for sound bar
JP5174527B2 (en) Acoustic signal multiplex transmission system, production apparatus and reproduction apparatus to which sound image localization acoustic meta information is added
KR102149411B1 (en) Apparatus and method for generating audio data, apparatus and method for playing audio data
WO2014199536A1 (en) Audio playback device and method therefor
JP2006033847A (en) Sound-reproducing apparatus for providing optimum virtual sound source, and sound reproducing method
JP2018121309A (en) Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program
JP5843705B2 (en) Audio control device, audio reproduction device, television receiver, audio control method, program, and recording medium
JP2009071406A (en) Wavefront synthesis signal converter and wavefront synthesis signal conversion method
KR20200011522A (en) Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
JP2018121310A (en) Audio processing device, audio output device, television receiver, audio processing method, program, and recording medium for program
CN105163239B (en) The holographic three-dimensional sound implementation method of the naked ears of 4D
JP6204683B2 (en) Acoustic signal reproduction device, acoustic signal creation device
JP7107727B2 (en) Speech processing device, speech processing method, program, and program recording medium
JPWO2016039168A1 (en) Audio processing apparatus and method
JP2008219562A (en) Sound signal generating apparatus, sound field reproducing apparatus, sound signal generating method, and computer program
JP2015076857A (en) Up-mix device, sound reproduction device, sound amplification device and program
JP5743003B2 (en) Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method
JP5590169B2 (en) Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method
JP6204680B2 (en) Acoustic signal reproduction device, acoustic signal creation device
KR102370348B1 (en) Apparatus and method for providing the audio metadata, apparatus and method for providing the audio data, apparatus and method for playing the audio data
KR101421201B1 (en) Method and apparatus for encoding/decoding scalable digital audio using uncompressed audio channel data and compressed audio channel data
JP6905411B2 (en) Channel number converter and program
JP6306958B2 (en) Acoustic signal conversion device, acoustic signal conversion method, and acoustic signal conversion program
JP2008219563A (en) Sound signal generating apparatus, sound field reproducing apparatus, sound signal generating method, and computer program
KR101454343B1 (en) Method and apparatus for encoding/decoding scalable digital audio using direct audio channel data and undirect audio channel data