JP2005006018A - Stereophonic acoustic signal coding device, method, and program - Google Patents

Stereophonic acoustic signal coding device, method, and program Download PDF

Info

Publication number
JP2005006018A
JP2005006018A JP2003166934A JP2003166934A JP2005006018A JP 2005006018 A JP2005006018 A JP 2005006018A JP 2003166934 A JP2003166934 A JP 2003166934A JP 2003166934 A JP2003166934 A JP 2003166934A JP 2005006018 A JP2005006018 A JP 2005006018A
Authority
JP
Japan
Prior art keywords
signal
sound
stereophonic
encoding
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003166934A
Other languages
Japanese (ja)
Other versions
JP4124702B2 (en
Inventor
Yasushige Nakayama
靖茂 中山
Kaoru Watanabe
馨 渡辺
Tomoyasu Komori
智康 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2003166934A priority Critical patent/JP4124702B2/en
Publication of JP2005006018A publication Critical patent/JP2005006018A/en
Application granted granted Critical
Publication of JP4124702B2 publication Critical patent/JP4124702B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereophonic acoustic signal coding device, method, and program which suppress the information quantity of acoustic signals to be transmitted, without losing the feeling of presence such as the feeling of a sound image being stationary. <P>SOLUTION: The stereophonic acoustic signal coder 1 combines a plurality of acoustic signals to generate a stereophonic acoustic signal causing an acoustic effect with a stereophonic feeling in reproduction and codes the stereophonic acoustic signal. It comprises a filter analyzer 3 for analyzing the frequency component of the acoustic signal, an information generator 5 for generating acoustic signal-related information, a signal composer 7 for composing a stereophonic acoustic signal, a stereophonic acoustic signal bit allotment coder 9 for coding the stereophonic acoustic signal, a data coder 11 for coding sound source position data, a multiplexer 13 for multiplexing coded data, and an output unit 15 for outputting multiplexed data formed into a stream. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、立体感のある音響効果を生じさせる立体音響信号を生成し、符号化する立体音響信号符号化装置、立体音響信号符号化方法および立体音響信号符号化プログラムに関する。
【0002】
【従来の技術】
従来、音像(音源に対応してつくられた音場の空間的な広がり)の方向性、距離感を再現するために、複数の音響信号を合成して立体感のある音響効果を生じさせる立体音響信号を生成して、この生成した立体音響信号を符号化する技術として、例えば、特許文献1に記載されている「音像再生システム」がある。
【0003】
この音像再生システムは、3次元音像の符号化方法(立体音響信号を符号化する方法)によって、送信側から音響信号とこの音源の位置や向き等の情報である補助情報とを送信している。この音像再生システムでは、当該補助情報が当該音響信号の増加に伴って増加してしまい、送信側から送信する情報量が増加してしまう。このため、この音像再生システムでは、受信側(再生側)のスピーカアレイの距離制御および方向感制御に用いる距離制御信号および方向感制御信号を送信側で符号化する際に使用する制御信号テーブルと、受信側で復号化する際に使用する制御信号テーブルとを共通化することで、補助情報の情報量の増加を抑制している。
【0004】
【特許文献1】
特開2001−346297号公報(段落13−段落29、第1図)
【0005】
【発明が解決しようとする課題】
しかしながら、従来の音響再生システムでは、補助情報の情報量の増加を抑制することはできるが、送信する音響信号の情報量を抑制する対策が施されていないので、音響信号数に比例して音響信号の情報量が増加してしまうという問題がある。
【0006】
ただし、従来の音響再生システムでは、送信する音響信号の情報量を抑制しようとすると、受信側で当該音響信号を再生する際に、音像の定位感(音源が特定される位置、距離感)等の臨場感を損なうおそれが生じるという問題がある。
【0007】
そこで、本発明の目的は前記した従来の技術が有する課題を解消し、音像の定位感等の臨場感を損なうことなく、送信する音響信号の情報量を抑制することができる立体音響信号符号化装置、立体音響信号符号化方法および立体音響信号符号化プログラムを提供することにある。
【0008】
【課題を解決するための手段】
本発明は、前記した目的を達成するため、以下に示す構成とした。
請求項1記載の立体音響信号符号化装置は、再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する立体音響信号符号化装置であって、フィルタ分析手段と、音響信号関連情報生成手段と、立体音響信号合成手段と、立体音響信号ビット割当符号化手段と、位置データ符号化手段と、多重化手段と、多重化データ出力手段と、を備える構成とした。
【0009】
かかる構成によれば、立体音響信号符号化装置は、フィルタ分析手段によって、各音源から入力された音響信号を時間周波数変換して、音響信号に含まれている周波数成分を分析し、また、音響信号関連情報生成手段によって、音響信号の音源の位置を示す位置データに基づいて、音響信号の組み合わせに関する情報である音響信号関連情報を生成する。なお、フィルタ分析手段は、音響信号にDCT(離散コサイン変換)を施すものであり、音響信号周波数は、DCT係数である。続いて、この立体音響信号符号化装置は、立体音響信号合成手段によって、音響信号関連情報に基づいて、音響信号の周波数成分を合成して、立体音響信号とし、立体音響信号ビット割当符号化手段によって、合成した立体音響信号に所定のビットを割り当てて符号化して、符号化立体音響データとし、さらに、位置データ符号化手段によって、位置データを符号化して符号化位置データとする。そして、この立体音響信号符号化装置は、多重化手段によって、符号化位置データと符号化立体音響データとを多重化して、多重化データとし、多重化データ出力手段によって、多重化データを出力する。なお、この多重化データを出力する際に、当該多重化データをストリーム化した多重化データストリームを生成して出力してもよい。
【0010】
請求項2記載の立体音響信号符号化装置は、再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する立体音響信号符号化装置であって、フィルタ分析手段と、音響信号関連情報生成手段と、立体音響信号合成手段と、フィルタ合成手段と、分解音響信号符号化手段と、位置データ符号化手段と、データ出力手段と、を備える構成とした。
【0011】
かかる構成によれば、立体音響信号符号化装置は、フィルタ分析手段によって、各音源から入力された音響信号を時間周波数変換して、音響信号に含まれている周波数を分析し、また、音響信号関連情報生成手段によって、音響信号の音源の位置を示す位置データに基づいて、音響信号の組み合わせに関する情報である音響信号関連情報を生成する。続いて、この立体音響信号符号化装置は、立体音響信号合成手段によって、音響信号関連情報に基づいて、音響信号の周波数成分毎に合成して、立体音響信号とし、この立体音響信号をフィルタ合成手段によって分解した分解音響信号とする。そして、この立体音響信号符号化装置は、分解音響信号符号化手段によって、分解音響信号を符号化した符号化分解音響データとし、位置データ符号化手段によって、位置データを符号化した符号化位置データとした後、データ出力手段によって、符号化分解音響データおよび符号化位置データを出力する。
【0012】
請求項3記載の立体音響信号符号化装置は、請求項1または請求項2に記載の立体音響信号符号化装置において、前記音源を識別する音源番号が前記音源毎に付されており、前記音響信号関連情報生成手段は、方向一致組合せ抽出手段と、音源距離差計算手段と、合成帯域変換データ記録手段と、音響信号関連情報生成出力手段と、を有している構成とした。
【0013】
かかる構成によれば、立体音響信号符号化装置の音響信号関連情報生成手段では、方向一致組合せ抽出手段によって、音源の方向が一致している音響信号の各音源の音源番号が位置データに基づいて抽出され、音源距離差計算手段によって、方向一致組合抽出手段で抽出された音源信号に係る音源同士の距離差が計算される。そして、この音響信号関連情報生成手段では、音響信号関連情報生成出力手段によって、合成帯域変換データ記録手段に予め記録されている音源同士の距離差と周波数とを関連付けた合成帯域変換データ、距離差、位置データおよび音源番号に基づいて、音響信号関連情報を生成して出力する。
【0014】
請求項4記載の立体音響信号符号化方法は、再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する立体音響信号符号化方法であって、フィルタ分析ステップと、音響信号関連情報生成ステップと、立体音響信号合成ステップと、立体音響信号ビット割当符号化ステップと、位置データ符号化ステップと、多重化ステップと、多重化データ出力ステップと、を含むものとした。
【0015】
かかる手順によれば、立体音響信号符号化方法は、フィルタ分析ステップにおいて、音響信号を時間周波数変換して、音響信号の周波数成分を分析し、音響信号関連情報生成ステップにおいて、音響信号の音源の位置を示す位置データに基づいて、音響信号の組み合わせに関する情報である音響信号関連情報を生成する。続いて、この立体音響信号符号化方法は、立体音響信号合成ステップにおいて、音響信号関連情報に基づいて、音響信号の周波数成分毎に合成して、立体音響信号とし、立体音響信号ビット割当符号化ステップにおいて、立体音響信号に所定のビットを割り当てて符号化した符号化立体音響データとし、位置データ符号化ステップにおいて、位置データを符号化した符号化位置データとする。そして、この立体音響信号符号化方法は、多重化ステップにおいて、符号化位置データと符号化立体音響データとを多重化した多重化データとし、この多重化データを、多重化データ出力ステップにおいて、出力する。
【0016】
請求項5記載の立体音響信号符号化プログラムは、再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する装置を、フィルタ分析手段、音響信号関連情報生成手段、立体音響信号合成手段、立体音響信号ビット割当符号化手段、位置データ符号化手段、多重化手段、多重化データ出力手段、として機能させる構成とした。
【0017】
かかる構成によれば、立体音響信号符号化プログラムは、フィルタ分析手段で、音響信号を時間周波数変換して、音響信号の周波数成分を分析し、音響信号関連情報生成手段で、音響信号の音源の位置を示す位置データに基づいて、音響信号の組み合わせに関する情報である音響信号関連情報を生成する。続いて、この立体音響信号符号化プログラムは、音響信号関連情報に基づいて、音響信号の周波数成分毎に合成した立体音響信号とし、立体音響信号ビット割当符号化手段で、合成した立体音響信号に所定のビットを割り当てて符号化して、符号化立体音響データとし、位置データ符号化手段で、位置データを符号化して、符号化位置データとする。そして、この立体音響信号符号化プログラムは、多重化手段で、符号化位置データと符号化立体音響データとを多重化した多重化データとし、この多重化データを多重化データ出力手段で出力する。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
この実施の形態では、二つの実施の形態について、立体音響信号符号化装置の構成、動作を説明し(第一実施形態の構成を図1、動作を図2、第二実施形態の構成を図3、動作を図4)、続いて、音源の位置を示す音源位置データについて説明し(図5を使用)、最後に、音源の距離差と周波数との関連を示した合成帯域変換データについて説明する(図6を使用)。
【0019】
(立体音響信号符号化装置の構成[第一実施形態])
図1に立体音響信号符号化装置のブロック図を示す。この図1に示すように、立体音響信号符号化装置1は、音像(音源に対応してつくられた音場の空間的な広がり)の方向性、距離感を再現するために、複数の音源から発せられた音響信号を合成して、当該音源の立体的な距離感(奥行き、立体感のある音響効果)を再生する際に生じさせる立体音響信号を生成した後、符号化するもので、フィルタ分析部3と、音響信号関連情報生成部5と、立体音響信号合成部7と、立体音響信号ビット割当符号化部9と、音源位置データ符号化部11と、多重化部13と、多重化データストリーム生成出力部15とを備えている。
【0020】
なお、一般に、音像の距離感は、ラウドネス(音の大きさ)、直接音と間接音とのパワー比(以下、直間比とする)、周波数特性等を手がかりとして得られることが知られている。また、一般的な試聴環境(無響音室ではなく残響音が存在する環境)では、直間比が距離判断の突出した手がかりとなることが知られている。しかし、直間比によって音像の距離判断をする場合、音源から発せられる音響信号の全ての周波数帯域が一様に寄与するのではなく、ある周波数帯域においては殆ど音像の距離判断に寄与しないことが実験によって確認された。そこで、この立体音響信号符号化装置1では、音像の距離判断に殆ど寄与しない周波数帯域を音響信号毎に結合して、情報量を削減する処理を行っている。
【0021】
また、音響信号を符号化する場合、周波数帯域を制限することが伝送容量の増加を抑制するのに有効であることが知られているので、この立体音響信号符号化装置1では、立体音響信号ビット割当符号化部9で、周波数帯域を制限して音響信号を符号化している(詳細は後記する)。
【0022】
フィルタ分析部3は、複数の音源(A、B、C)から入力された音響信号にどのような周波数成分が含まれているかを分析するスペクトル解析を行うもので、当該音響信号を時間周波数変換した音響信号の周波数成分(この実施の形態では、DCT係数[離散コサイン変換したもの])を出力するものである。すなわち、フィルタ分析部3では、それぞれの音響信号を、一定サンプル毎にフレーム分割した後で、時間周波数変換、例えば、MDCT(Modified Discrete Cosine Transform)を行っている。時間周波数に変換された音響信号は、臨界帯域(例えば、ツヴィッカー著「心理音響学」西村書店 P74表1参照)毎に周波数帯域に分割される(サブバンド処理が施される)。このフィルタ分析部3が特許請求の範囲に記載したフィルタ分析手段に相当するものである。
【0023】
音響信号関連情報生成部5は、音源の位置(仮想的な聴取者の位置を原点とした場合の三次元空間における相対的な位置)を示す音源位置データに基づいて、音響信号から立体音響信号を合成する際の、音響信号の組み合わせに関する情報である音響信号関連情報を生成するもので、方向一致組合せ抽出手段17と、音源距離差計算手段19と、合成帯域変換データ記録手段21と、音響信号関連情報生成出力手段23とを備えている。この音響信号関連情報生成部5が特許請求の範囲に記載した音響信号関連情報生成手段に相当するものである。
【0024】
なお、音源には、それぞれの音源を識別するための音源番号が付されている。そして、この音源番号と、仮想的な聴取者を原点とした場合の三次元空間における位置を示す座標(x,y,z)との対が一つのデータとして当該装置1で取り扱われている。この図1に示したように、音響信号Aの音源の音源番号はPaであり、音源位置データはPa(xa,ya,za)(図示せず)であり、音響信号Bの音源の音源番号はPbであり、音源位置データはPb(xb,yb,zb)(図示せず)であり、音響信号Cの音源の音源番号はPcであり、音源位置データはPc(xc,yc,zc)(図示せず)である。
【0025】
方向一致組合せ抽出手段17は、音源位置データに基づいて、音源の方向が一致している音源同士を組み合わせて抽出するものである。例えば、仮想的な聴取者の位置を原点とした場合、この原点から右方向に位置する音源同士の組み合わせがつくられ(探索され)、各音源の音源番号が抽出される。なお、この方向一致組合抽出手段17によって音源の方向が一致しているとの判断は、原点から各音源に向けて直線を引いて(原点と各音源とを直線で結んで)、この直線の傾きが近似している場合である。
【0026】
音源距離差計算手段19は、方向一致組合せ抽出手段17によって、方向が一致しているものとして抽出された音源同士の距離差(相対距離差)を、音源位置データに基づいて計算して、この距離差を音源番号と共に、音響信号関連情報生成出力手段23に出力するものである。音源同士の距離差の計算は、簡便な測量法(距離測定方法)に従って行っている。
【0027】
合成帯域変換データ記録手段21は、符号化された立体音響信号(符号化立体音響データ)を受信した受信側(再生側)で、当該立体音響信号によって、音像の距離感を生じさせるために、各音響信号を発生させる音源同士の距離差と周波数との関係を設定した(関連付けた)合成帯域変換データを記録するものである。この合成帯域変換データの詳細については後記する(図6を使用)。
【0028】
音響信号関連情報生成出力手段23は、音源距離差計算手段19から出力された音源番号および距離差と、合成帯域変換データ記録手段21に記録されている合成帯域変換データとに基づいて、音響信号関連情報を生成して、立体音響信号合成部7に出力するものである。音響信号関連情報は、フィルタ分析部3で各音源からの音響信号が音響信号周波数に変換されたものを立体音響信号合成部7で立体音響信号に合成する際に利用されるものであり、また、この音響信号関連情報は、受信側(再生側)で再生した場合に立体的な音響効果を生じさせるための補助情報となるものである。
【0029】
立体音響信号合成部7は、フィルタ分析部3で分析された音響信号周波数を、音響信号関連情報に基づいて、インテンシティ合成するものである。このインテンシティ合成の例としては、ISO/IEC 13818−7 MPEG2 advanced Audio Codingの手法が挙げられる。この立体音響信号合成部7でインテンシティ合成されたものを立体音響信号とする。この立体音響信号合成部7が特許請求の範囲に記載した立体音響信号合成手段に相当するものである。
【0030】
立体音響信号ビット割当符号化部9は、立体音響信号合成部7でインテンシティ合成された立体音響信号に所定のビット数を割り当てて符号化して、符号化立体音響データとして多重化部13に出力するものである。この立体音響信号ビット割当符号化部9が特許請求の範囲に記載した立体音響信号ビット割当符号化手段に相当するものである。
【0031】
音源位置データ符号化部11は、音源位置データを符号化して、符号化位置データとして多重化部13に出力するものである。この音源位置データ符号化部11における音源位置データの符号化方法は、特開2001−346297号公報に開示されている位置データ符号化器によって符号化する方法と同様な方法(音源毎の位置データを補助情報として符号化する方法)である。この音源位置データ符号化部11が特許請求の範囲に記載した位置データ符号化手段に相当するものである。
【0032】
多重化部13は、立体音響信号ビット割当符号化部9で符号化された符号化立体音響データと、音源位置データ符号化部11で符号化された符号化位置データとを多重化した多重化データとして、多重化データストリーム生成出力部15に出力するものである。この多重化部13が特許請求の範囲に記載した多重化手段に相当するものである。
【0033】
多重化データストリーム生成出力部15は、多重化部13で多重化された多重化データをストリーム化して多重化データストリームとして出力するものである。この多重化データストリーム生成出力部15が特許請求の範囲に記載した多重化データ出力手段に相当するものである。
【0034】
この立体音響信号符号化装置1によれば、フィルタ分析部3によって、各音源から入力された音響信号が時間周波数変換されて、音響信号の周波数成分が分析され、また、音響信号関連情報生成部5によって、音響信号の音源の位置を示す音源位置データに基づいて、音響信号の組み合わせに関する情報である音響信号関連情報が生成される。続いて、立体音響信号合成部7によって、音響信号関連情報に基づいて、音響信号の周波数成分毎に合成されて、立体音響信号とされ、立体音響信号ビット割当符号化部9によって、合成された立体音響信号に所定のビットが割り当てられて符号化されて、符号化立体音響データとされ、さらに、音源位置データ符号化部11によって、音源位置データが符号化されて符号化位置データとされる。そして、多重化部13によって、符号化位置データと符号化立体音響データとが多重化されて、多重化データとされ、多重化データストリーム生成出力部15によって、多重化データがストリーム化されて、多重化データストリームが生成され、出力される。このため、音源からの方向と同方向の音源同士の距離差とを参照して生成された音響信号関連情報に基づいて、音響信号を立体音響信号に合成しているので、音像の定位感等の臨場感を損なうことなく、また、音源の数が増加しても、当該音源に関する情報が音響信号関連情報によって一元的に纏められているので、送信する音響信号の情報量を抑制することができる。
【0035】
(立体音響信号符号化装置の動作[第一実施形態])
次に、図2に示すフローチャートを参照して、立体音響信号符号化装置1の動作を説明する(適宜、図1参照)。
【0036】
まず、立体音響信号符号化装置1のフィルタ分析部3に音響信号(A、B、C)が入力され、このフィルタ分析部3において時間周波数変換され、音響信号周波数とされる(S1)。また、音響信号(A、B、C)に対応する音源位置データ(Pa、Pb、Pc)が、立体音響信号符号化装置1の音響信号関連情報生成部5に入力され、この音響位置データ(音源番号、音源の座標)と、合成帯域変換データ記録手段21に記録されている合成帯域変換データとに基づいて、音響信号関連情報が生成される(S2)。
【0037】
そして、フィルタ分析部3にて変換された音響信号周波数が立体音響信号合成部7で、音響信号関連情報生成部5にて生成された音響信号関連情報に基づいて、立体音響信号にインテンシティ合成される(S3)。そして、この立体音響信号が立体音響信号ビット割当符号化部9で、所定のビット数が割り当てられて符号化され、符号化立体音響データとされる(S4)。
【0038】
また、音源位置データが音源位置データ符号化部11で符号化され、符号化音源位置データとされる(S5)。そして、多重化部13で、これら符号化立体音響データおよび符号化音源位置データが多重化され、多重化データとされる(S6)。この多重化部13で多重化された多重化データが多重化データストリーム生成出力部15でストリーム化され、多重化データストリームとして出力される(S7)。
【0039】
(立体音響信号符号化装置の構成[第二実施形態])
次に、図3に立体音響信号符号化装置のブロック図を示す。この図3に示すように、立体音響信号符号化装置31は、立体音響信号符号化装置1と同様に、音像の方向性、距離感を再現するために、複数の音源から発せられた音響信号を合成して、当該音源の立体的な距離感を再生する際に生じさせる立体音響信号を生成した後、符号化するもので、フィルタ分析部3と、音響信号関連情報生成部5と、立体音響信号合成部7と、音源位置データ符号化部11と、フィルタ合成部33と、分解音響信号符号化部35と、出力部37とを備えている。なお、立体音響信号符号化装置1の各構成と同様な構成は同一の名称符号を付して、その説明を省略する。
【0040】
フィルタ合成部33は、立体音響信号合成部7で合成された立体音響信号を分解して、分解音響信号に変換するものである。分解音響信号は、既存の音響符号化器に適合する音響信号であり、それぞれの音響信号には音響信号関連情報が付されていない。このフィルタ合成部33が特許請求の範囲に記載したフィルタ合成手段に相当するものである。
【0041】
分解音響信号符号化部35は、フィルタ合成部33で分解された分解音響信号を符号化して、符号化分解音響データとして、出力部37に出力するものである。この分解音響信号符号化部35が特許請求の範囲に記載した分解音響信号符号化手段に相当するものである。
【0042】
出力部37は、分解音響信号符号化部35にて符号化された符号化分解音響データと、音源位置データ符号化部11にて符号化された符号化位置データとを外部に出力するものである。この出力部37が特許請求の範囲に記載したデータ出力手段に相当するものである。
【0043】
この立体音響信号符号化装置31によれば、フィルタ分析部3によって、各音源から入力された音響信号が時間周波数変換されて、音響信号の周波数成分が分析される。また、音響信号関連情報生成部35によって、音響信号の音源の位置を示す音源位置データに基づいて、音響信号の組み合わせに関する情報である音源信号関連情報が生成される。続いて、立体音響信号合成部7によって、音響信号関連情報に基づいて、音響信号の周波数成分毎に合成され、立体音響信号とされ、この立体音響信号がフィルタ合成部33によって分解された分解音響信号とされ、分解音響信号符号化部35によって、分解音響信号が符号化された符号化分解音響データとされる。さらに、音源位置データ符号化部11によって、音源位置データが符号化された符号化位置データとされた後、出力部37によって、符号化分解音響データおよび符号化位置データが出力される。このため、音源からの方向と同方向の音源同士の距離差とを参照して生成された音響信号関連情報に基づいて、音響信号を立体音響信号に合成しているので、音像の定位感等の臨場感を損なうことがない。また、フィルタ合成部33で立体音響信号を分解音響信号に分解しているので、既存の音響信号符号化器に対応した形式で送信することができる。
【0044】
(立体音響信号符号化装置の動作[第二実施形態])
次に、図4に示すフローチャートを参照して、立体音響信号符号化装置31の動作を説明する(適宜、図3参照)。
【0045】
まず、立体音響信号符号化装置31のフィルタ分析部3に音響信号(A、B、C)が入力され、このフィルタ分析部3において時間周波数変換され、音響信号の周波数成分とされる(S11)。また、音響信号(A、B、C)に対応する音源位置データ(Pa、Pb、Pc)が、立体音響信号符号化装置31の音響信号関連情報生成部5に入力され、この音響位置データ(音源番号、音源の座標)と、合成帯域変換データ記録手段21に記録されている合成帯域変換データとに基づいて、音響信号関連情報が生成される(S12)。
【0046】
そして、フィルタ分析部3にて変換された音響信号の周波数成分が立体音響信号合成部7で、音響信号関連情報生成部5にて生成された音響信号関連情報に基づいて、立体音響信号にインテンシティ合成される(S13)。そして、この立体音響信号がフィルタ合成部33で分解音響信号に分解され、分解音響信号符号化部35に出力される(S14)。続いて、この分解音響信号が分解音響信号符号化部35で符号化分解音響データに符号化される(S15)。
【0047】
また、音源位置データが音源位置データ符号化部11で符号化され、符号化音源位置データとされる(S16)。そして、出力部37で、これら符号化分解音響データおよび符号化音源位置データが出力される(S17)。
【0048】
(音源位置データについて)
次に、図5を参照して、音源位置データについて説明する。
この図5に示すように、複数の音源位置データである、音源a、音源b、音源cおよび音源dは、仮想的な聴取者を中心(原点)とした曲座標によって表されている。音源位置データは、音源番号が2bit(2ビット)、距離方向のインデックスが7bit(7ビット)および左右方向のインデックスが7bit(7ビット)の合計16bit(16ビット)で構成されている。距離方向のインデックスは、0.5m〜10mの距離を128分割したものであり、左右方向のインデックスは360度を3度毎に120分割したものである。
【0049】
図5に示したように、例えば、距離方向のインデックスおよび左右方向のインデックスが「00011110001010」である場合、距離方向のインデックスは「0001111」であり、この2進数を10進数にすると「15」となり、{(10−0.5)/128}×(15+1)≒1.2mとなり、また、左右方向のインデックスは「0001010」であり、この2進数を10進数にすると「10」となり、3度×10=30度(聴取位置から右へ30度)となる。
【0050】
つまり、音源位置データは、16ビットのデータとして表現され、最上位ビット(MSB)の2ビットで音源を特定する音源番号が表現されており、次の7ビットで距離表現、その次の7ビットで方向表現がなされているものである。この音源位置データの左右方向のインデックスが立体音響信号符号化部1、31の音響信号関連情報生成部の方向一致組合せ抽出手段17で抽出される。すなわち、全ての音源位置データから左右方向のインデックスを表現した7ビット(最下位ビット(LSB)を含む位置にある)を抜き出して、各左右方向のインデックスの比較を行って、すべてのビットが一致したものから音源番号の組を抽出する。
【0051】
そして、音源距離差計算手段19では、方向が一致している音源番号の組み合わせの中から距離方向のインデックスを表現した7ビットをそれぞれ抜き出して差分をとり、方向が一致している音源同士の距離差を計算している。その後、音響信号関連情報生成手段23では、音源番号の組と、距離差と、音源位置データと、合成帯域変換データ記録手段21に記録されている合成帯域変換データとに基づいて、音響信号関連情報(合成すべき周波数帯域を示したもの)を生成して出力している。
【0052】
(合成帯域変換データについて)
最後に、図6を参照して、合成帯域変換データについて説明する。
図6に示したように、合成帯域変換データは、組み合わせられる音源番号の組の中で、距離の近い音源毎に(図6中、近い音源の距離)1個のファイル(図6中、距離差を横軸に、周波数を縦軸にとった表)として構成されているものである。なお、各ファイルは、音源同士の距離差と周波数とが関連付けられている。
【0053】
以上、一実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。
例えば、立体音響信号符号化装置1、31の各構成の処理を汎用的なコンピュータ言語で記述した立体音響信号符号化プログラムとみなすことや、各構成の処理を一つずつの過程ととられた立体音響信号符号化方法とみなすことは可能である。これらの場合、立体音響信号符号化装置1、31と同様の効果を得ることができる。
【0054】
【発明の効果】
請求項1、4、5記載の発明によれば、音源からの方向と同方向の音源同士の距離差とを参照して生成された音響信号関連情報に基づいて、音響信号を立体音響信号に合成しているので、音像の定位感等の臨場感を損なうことがない。また、音源の数が増加しても、当該音源に関する情報が音響信号関連情報によって一元的に纏められているので、送信する音響信号の情報量を抑制することができる。
【0055】
請求項2記載の発明によれば、音源からの方向と同方向の音源同士の距離差とを参照して生成された音響信号関連情報に基づいて、音響信号を立体音響信号に合成しているので、音像の定位感等の臨場感を損なうことがない。また、立体音響信号を分解音響信号に分解しているので、既存の音響信号符号化器に対応した形式で送信することができる。
【0056】
請求項3記載の発明によれば、音源の方向が一致している音響信号の各音源の音源番号が位置データに基づいて抽出され、当該音源信号に係る音源同士の距離差が計算される。音源同士の距離差と周波数とを関連付けた合成帯域変換データ、距離差、位置データおよび音源番号に基づいて、音響信号関連情報が生成されているので、立体音響信号を再生する際に音像の定位感等の臨場感を損なうことがない。また、音源の数が増加しても、当該音響信号関連情報によって一元的に纏められているので、送信する音響信号の情報量を抑制することができる。
【図面の簡単な説明】
【図1】本発明による一実施の形態である立体音響信号符号化装置のブロック図である。
【図2】図1に示した立体音響信号符号化装置の動作を説明したフローチャートである。
【図3】本発明による他の実施の形態である立体音響信号符号化装置のブロック図である。
【図4】図3に示した立体音響信号符号化装置の動作を説明したフローチャートである。
【図5】音源位置データを説明した図である。
【図6】合成帯域変換データを説明した図である。
【符号の説明】
1、31 立体音響信号符号化装置
3 フィルタ分析部(フィルタ分析手段)
5 音響信号関連情報生成部(音響信号関連情報生成手段)
7 立体音響信号合成部(立体音響信号合成手段)
9 立体音響信号ビット割当符号化部(立体音響信号ビット割当符号化手段)
11 音源位置データ符号化部(位置データ符号化手段)
13 多重化部(多重化手段)
15 多重化データストリーム生成出力部(多重化データ出力手段)
17 方向一致組合せ抽出手段
19 音源距離差計算手段
21 合成帯域変換データ記録手段
23 音響信号関連情報生成出力手段
33 フィルタ合成部(フィルタ合成手段)
35 分解音響信号符号化部(分解音響信号符号化手段)
37 出力部(データ出力手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a stereophonic signal encoding device, a stereoacoustic signal encoding method, and a stereoacoustic signal encoding program that generate and encode a stereoacoustic signal that produces a stereoscopic effect.
[0002]
[Prior art]
Conventionally, in order to reproduce the directionality and sense of distance of a sound image (spatial expanse of a sound field created corresponding to a sound source), a solid that generates a three-dimensional sound effect by combining multiple sound signals As a technique for generating an audio signal and encoding the generated stereophonic signal, for example, there is a “sound image reproduction system” described in Patent Document 1.
[0003]
This sound image reproduction system transmits an acoustic signal and auxiliary information, which is information such as the position and orientation of the sound source, from the transmission side by a three-dimensional sound image encoding method (a method of encoding a stereophonic sound signal). . In this sound image reproduction system, the auxiliary information increases as the acoustic signal increases, and the amount of information transmitted from the transmission side increases. Therefore, in this sound image reproduction system, a control signal table used when encoding a distance control signal and a direction control signal used for distance control and direction control of a speaker array on the reception side (reproduction side) on the transmission side, and By sharing the control signal table used when decoding on the receiving side, an increase in the amount of auxiliary information is suppressed.
[0004]
[Patent Document 1]
JP 2001-346297 A (paragraph 13-paragraph 29, FIG. 1)
[0005]
[Problems to be solved by the invention]
However, in the conventional sound reproduction system, an increase in the amount of auxiliary information can be suppressed, but no measures are taken to suppress the amount of information in the transmitted sound signal. There is a problem that the amount of signal information increases.
[0006]
However, in the conventional sound reproduction system, if the information amount of the sound signal to be transmitted is to be suppressed, when the sound signal is reproduced on the receiving side, the sense of localization of the sound image (position where the sound source is specified, sense of distance), etc. There is a problem in that there is a risk of impairing the sense of reality.
[0007]
Accordingly, the object of the present invention is to solve the problems of the conventional techniques described above, and to encode the stereophonic sound signal that can suppress the information amount of the sound signal to be transmitted without impairing the sense of reality such as the sense of localization of the sound image. An apparatus, a stereophonic signal encoding method, and a stereoacoustic signal encoding program are provided.
[0008]
[Means for Solving the Problems]
In order to achieve the above-described object, the present invention has the following configuration.
The stereophonic signal encoding device according to claim 1 generates a stereoacoustic signal that produces a three-dimensional acoustic effect upon reproduction by synthesizing a plurality of acoustic signals, and encodes the stereoacoustic signal. A stereophonic signal encoding apparatus, comprising: a filter analysis unit, an acoustic signal related information generation unit, a stereoacoustic signal synthesis unit, a stereoacoustic signal bit allocation encoding unit, a position data encoding unit, and a multiplexing unit. And multiplexed data output means.
[0009]
According to such a configuration, the stereophonic sound signal encoding device performs time-frequency conversion on the sound signal input from each sound source by the filter analysis unit, analyzes the frequency component included in the sound signal, and Based on the position data indicating the position of the sound source of the sound signal, the signal related information generating means generates sound signal related information that is information related to the combination of the sound signals. The filter analysis means performs DCT (Discrete Cosine Transform) on the acoustic signal, and the acoustic signal frequency is a DCT coefficient. Subsequently, the stereophonic signal encoding device synthesizes the frequency components of the sound signal based on the sound signal related information by the stereoacoustic signal combining means to form a stereoacoustic signal, and the stereoacoustic signal bit allocation encoding means. Thus, a predetermined bit is assigned to the synthesized stereophonic signal and encoded to obtain encoded stereoacoustic data. Further, the position data encoding means encodes the position data into encoded position data. Then, this stereophonic signal encoding device multiplexes the encoded position data and the encoded stereoacoustic data by the multiplexing means to obtain multiplexed data, and outputs the multiplexed data by the multiplexed data output means. . When outputting the multiplexed data, a multiplexed data stream obtained by streaming the multiplexed data may be generated and output.
[0010]
The stereophonic signal encoding device according to claim 2 generates a stereoacoustic signal that generates a three-dimensional acoustic effect upon reproduction by synthesizing a plurality of acoustic signals, and encodes the stereoacoustic signal. A stereophonic signal encoding device, comprising: filter analysis means; acoustic signal related information generation means; stereophonic signal synthesis means; filter synthesis means; decomposition acoustic signal encoding means; position data encoding means; And a data output means.
[0011]
According to such a configuration, the stereophonic sound signal encoding device performs time-frequency conversion on the sound signal input from each sound source by the filter analysis unit, analyzes the frequency included in the sound signal, and Based on the position data indicating the position of the sound source of the sound signal, the related information generating means generates sound signal related information that is information related to the combination of the sound signals. Subsequently, the stereophonic signal encoding device synthesizes the stereoacoustic signal for each frequency component of the acoustic signal based on the acoustic signal related information by the stereoacoustic signal synthesizing unit, and generates a stereoacoustic signal. It is set as the decomposition | disassembly acoustic signal decomposed | disassembled by the means. And this stereophonic sound signal encoding apparatus is set as encoded decomposed acoustic data obtained by encoding the decomposed acoustic signal by the decomposed acoustic signal encoding means, and encoded position data obtained by encoding the position data by the position data encoding means. After that, the encoded decomposition acoustic data and the encoded position data are output by the data output means.
[0012]
The stereophonic signal encoding device according to claim 3 is the stereoacoustic signal encoding device according to claim 1 or 2, wherein a sound source number for identifying the sound source is assigned to each sound source, and the sound The signal related information generation means includes a direction matching combination extraction means, a sound source distance difference calculation means, a combined band conversion data recording means, and an acoustic signal related information generation output means.
[0013]
According to such a configuration, in the acoustic signal related information generating unit of the stereophonic signal encoding device, the sound source number of each sound source of the sound signal in which the direction of the sound source matches is determined based on the position data by the direction matching combination extracting unit. The extracted sound source distance difference calculation means calculates the distance difference between the sound sources related to the sound source signal extracted by the direction matching combination extraction means. In the acoustic signal related information generating means, the synthetic band conversion data, the distance difference, in which the acoustic signal related information generation output means associates the distance difference between the sound sources recorded in advance in the synthetic band conversion data recording means and the frequency. The sound signal related information is generated and output based on the position data and the sound source number.
[0014]
The stereophonic signal encoding method according to claim 4 generates a stereoacoustic signal that generates a stereoscopic effect when reproducing by synthesizing a plurality of acoustic signals, and encodes the stereoacoustic signal. A stereophonic signal encoding method, comprising: a filter analysis step, an acoustic signal related information generation step, a stereoacoustic signal synthesis step, a stereoacoustic signal bit allocation encoding step, a position data encoding step, and a multiplexing step. And a multiplexed data output step.
[0015]
According to this procedure, the stereophonic sound signal encoding method performs time-frequency conversion of the sound signal in the filter analysis step, analyzes the frequency component of the sound signal, and generates the sound source of the sound signal in the sound signal related information generation step. Based on the position data indicating the position, acoustic signal related information that is information related to the combination of acoustic signals is generated. Subsequently, in the stereophonic signal encoding method, in the stereoacoustic signal synthesis step, based on the acoustic signal related information, the stereoacoustic signal is synthesized for each frequency component of the acoustic signal to obtain a stereoacoustic signal, and stereoacoustic signal bit allocation encoding is performed. In the step, encoded stereophonic data is obtained by assigning a predetermined bit to the stereoacoustic signal and encoded, and in the position data encoding step, the encoded position data is encoded position data. Then, this stereophonic signal encoding method uses multiplexed data obtained by multiplexing the encoded position data and the encoded stereoacoustic data in the multiplexing step, and outputs the multiplexed data in the multiplexed data output step. To do.
[0016]
The stereophonic signal encoding program according to claim 5 generates a stereoacoustic signal that produces a three-dimensional acoustic effect when reproduced by synthesizing a plurality of acoustic signals, and encodes the stereoacoustic signal. A configuration in which the apparatus functions as a filter analysis unit, an acoustic signal related information generation unit, a stereophonic signal synthesis unit, a stereophonic signal bit allocation encoding unit, a position data encoding unit, a multiplexing unit, and a multiplexed data output unit; did.
[0017]
According to such a configuration, the stereophonic sound signal encoding program performs time-frequency conversion of the sound signal by the filter analysis unit, analyzes the frequency component of the sound signal, and generates a sound source of the sound signal by the sound signal related information generation unit. Based on the position data indicating the position, acoustic signal related information that is information related to the combination of acoustic signals is generated. Subsequently, the stereophonic signal encoding program generates a stereoacoustic signal synthesized for each frequency component of the acoustic signal based on the acoustic signal related information, and the stereoacoustic signal bit allocation encoding means Predetermined bits are allocated and encoded to obtain encoded stereophonic data, and the position data encoding means encodes the position data to generate encoded position data. Then, the stereophonic signal encoding program is multiplexed data obtained by multiplexing the encoded position data and the encoded stereoacoustic data by the multiplexing means, and the multiplexed data is output by the multiplexed data output means.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In this embodiment, the configuration and operation of the stereophonic signal encoding apparatus will be described for two embodiments (the configuration of the first embodiment is shown in FIG. 1, the operation is shown in FIG. 2, and the configuration of the second embodiment is shown). 3. Next, the operation will be described with reference to FIG. 4), and the sound source position data indicating the position of the sound source will be described (using FIG. 5). (Use FIG. 6).
[0019]
(Configuration of Stereo Acoustic Signal Encoding Device [First Embodiment])
FIG. 1 shows a block diagram of a stereophonic signal encoding apparatus. As shown in FIG. 1, the stereophonic sound signal encoding device 1 includes a plurality of sound sources in order to reproduce the directionality and the sense of distance of a sound image (spatial expanse of a sound field created corresponding to the sound source). Is generated by synthesizing the sound signal emitted from the sound source and generating a three-dimensional sound signal that is generated when reproducing the three-dimensional sense of distance (depth, three-dimensional sound effect) of the sound source. Filter analysis unit 3, acoustic signal related information generation unit 5, stereophonic signal synthesis unit 7, stereophonic signal bit allocation encoding unit 9, sound source position data encoding unit 11, multiplexing unit 13, and multiplexing The data stream generation output unit 15 is provided.
[0020]
In general, it is known that the sense of distance of a sound image can be obtained from clues such as loudness (volume of sound), power ratio between direct sound and indirect sound (hereinafter referred to as direct ratio), frequency characteristics, and the like. Yes. Further, it is known that in a general listening environment (an environment in which a reverberation sound exists instead of an anechoic sound room), the direct ratio is a clue that makes the distance determination prominent. However, when determining the distance of the sound image by the direct ratio, not all the frequency bands of the acoustic signal emitted from the sound source contribute uniformly, but may hardly contribute to the determination of the distance of the sound image in a certain frequency band. Confirmed by experiment. In view of this, the stereophonic signal encoding apparatus 1 performs processing for reducing the amount of information by combining frequency bands that hardly contribute to sound image distance determination for each acoustic signal.
[0021]
Further, when encoding an audio signal, it is known that limiting the frequency band is effective in suppressing an increase in transmission capacity. The bit allocation encoding unit 9 encodes the acoustic signal by limiting the frequency band (details will be described later).
[0022]
The filter analysis unit 3 performs spectrum analysis for analyzing what frequency components are included in the acoustic signals input from a plurality of sound sources (A, B, C). The frequency component of the acoustic signal (in this embodiment, DCT coefficient [discrete cosine transformed]) is output. That is, the filter analysis unit 3 performs time-frequency conversion, for example, MDCT (Modified Discrete Cosine Transform), after each acoustic signal is divided into frames for each predetermined sample. The acoustic signal converted into the time frequency is divided into frequency bands (subband processing is performed) for each critical band (see, for example, Psychacoustics by Zwicker, P74 Table 1). The filter analysis unit 3 corresponds to the filter analysis means described in the claims.
[0023]
The sound signal related information generation unit 5 generates a stereo sound signal from the sound signal based on the sound source position data indicating the position of the sound source (relative position in the three-dimensional space when the position of the virtual listener is the origin). For generating acoustic signal related information, which is information related to the combination of acoustic signals when synthesizing the signal, direction matching combination extracting means 17, sound source distance difference calculating means 19, synthesized band conversion data recording means 21, acoustic Signal-related information generation output means 23. The acoustic signal related information generating unit 5 corresponds to the acoustic signal related information generating means described in the claims.
[0024]
A sound source number for identifying each sound source is attached to the sound source. A pair of the sound source number and the coordinates (x, y, z) indicating the position in the three-dimensional space when the virtual listener is the origin is handled as one piece of data by the apparatus 1. As shown in FIG. 1, the sound source number of the sound source of the acoustic signal A is Pa, the sound source position data is Pa (xa, ya, za) (not shown), and the sound source number of the sound source of the acoustic signal B is Is Pb, the sound source position data is Pb (xb, yb, zb) (not shown), the sound source number of the sound source of the acoustic signal C is Pc, and the sound source position data is Pc (xc, yc, zc). (Not shown).
[0025]
The direction coincidence combination extracting means 17 extracts sound sources whose sound source directions are the same based on the sound source position data. For example, when the position of the virtual listener is the origin, a combination of sound sources located in the right direction from the origin is created (searched), and the sound source number of each sound source is extracted. The direction matching combination extracting means 17 determines that the sound source directions are the same by drawing a straight line from the origin toward each sound source (connecting the origin and each sound source with a straight line) This is a case where the slope is approximate.
[0026]
The sound source distance difference calculation means 19 calculates the distance difference (relative distance difference) between the sound sources extracted by the direction matching combination extraction means 17 as having the same direction based on the sound source position data. The distance difference is output to the sound signal related information generating / outputting means 23 together with the sound source number. The distance difference between the sound sources is calculated according to a simple surveying method (distance measuring method).
[0027]
The combined band conversion data recording means 21 is a receiving side (reproducing side) that has received the encoded stereophonic signal (encoded stereoacoustic data). Synthetic band conversion data in which the relationship between the distance difference between the sound sources that generate each acoustic signal and the frequency is set (associated) is recorded. Details of the combined band conversion data will be described later (using FIG. 6).
[0028]
The acoustic signal related information generating / outputting unit 23 generates an acoustic signal based on the sound source number and the distance difference output from the sound source distance difference calculating unit 19 and the synthesized band conversion data recorded in the synthesized band conversion data recording unit 21. The related information is generated and output to the stereophonic sound signal synthesis unit 7. The acoustic signal related information is used when the acoustic signal from each sound source converted into the acoustic signal frequency by the filter analysis unit 3 is synthesized into the stereoscopic acoustic signal by the stereoscopic acoustic signal synthesis unit 7, and The acoustic signal related information is auxiliary information for producing a three-dimensional acoustic effect when reproduced on the reception side (reproduction side).
[0029]
The three-dimensional acoustic signal synthesis unit 7 synthesizes the intensity of the acoustic signal frequency analyzed by the filter analysis unit 3 based on the acoustic signal related information. As an example of the intensity synthesis, there is a method of ISO / IEC 13818-7 MPEG2 advanced Audio Coding. The sound synthesized by the stereophonic signal synthesizing unit 7 is defined as a stereoacoustic signal. This stereophonic signal synthesizing unit 7 corresponds to the stereoacoustic signal synthesizing means described in the claims.
[0030]
The stereophonic signal bit allocation encoding unit 9 allocates and encodes a predetermined number of bits to the stereoacoustic signal intensity-combined by the stereoacoustic signal synthesis unit 7 and outputs the encoded stereoacoustic data to the multiplexing unit 13. To do. This stereophonic signal bit allocation encoding unit 9 corresponds to the stereoacoustic signal bit allocation encoding means described in the claims.
[0031]
The sound source position data encoding unit 11 encodes sound source position data and outputs the encoded position data to the multiplexing unit 13 as encoded position data. The sound source position data encoding method in the sound source position data encoding unit 11 is similar to the method of encoding by the position data encoder disclosed in Japanese Patent Laid-Open No. 2001-346297 (position data for each sound source). Is encoded as auxiliary information). The sound source position data encoding unit 11 corresponds to the position data encoding means described in the claims.
[0032]
The multiplexing unit 13 multiplexes the encoded stereophonic data encoded by the stereoacoustic signal bit allocation encoding unit 9 and the encoded position data encoded by the sound source position data encoding unit 11. The data is output to the multiplexed data stream generation / output unit 15. The multiplexing unit 13 corresponds to multiplexing means described in the claims.
[0033]
The multiplexed data stream generation / output unit 15 converts the multiplexed data multiplexed by the multiplexing unit 13 into a stream and outputs it as a multiplexed data stream. The multiplexed data stream generation / output unit 15 corresponds to the multiplexed data output means described in the claims.
[0034]
According to this stereophonic signal encoding apparatus 1, the filter signal analysis unit 3 performs time-frequency conversion on the sound signal input from each sound source and analyzes the frequency component of the sound signal, and the sound signal related information generation unit. 5, the sound signal related information that is information relating to the combination of the sound signals is generated based on the sound source position data indicating the position of the sound source of the sound signal. Subsequently, the stereophonic signal synthesizer 7 synthesizes each frequency component of the sound signal based on the sound signal related information to form a stereoacoustic signal, which is synthesized by the stereophonic signal bit allocation encoding unit 9. A predetermined bit is assigned to the stereophonic signal and encoded to be encoded stereoacoustic data. Further, the sound source position data encoding unit 11 encodes the sound source position data to be encoded position data. . Then, the encoded position data and the encoded stereophonic data are multiplexed by the multiplexing unit 13 to be multiplexed data, and the multiplexed data is streamed by the multiplexed data stream generation output unit 15, A multiplexed data stream is generated and output. For this reason, since the sound signal is synthesized into the stereophonic sound signal based on the sound signal related information generated by referring to the direction from the sound source and the distance difference between the sound sources in the same direction, the localization of the sound image, etc. Even if the number of sound sources increases without sacrificing the presence of the sound source, the information on the sound sources is centralized by the sound signal related information, so that the amount of information of the sound signals to be transmitted can be suppressed. it can.
[0035]
(Operation of Stereo Acoustic Signal Encoding Device [First Embodiment])
Next, the operation of the stereophonic signal encoding apparatus 1 will be described with reference to the flowchart shown in FIG. 2 (see FIG. 1 as appropriate).
[0036]
First, acoustic signals (A, B, C) are input to the filter analysis unit 3 of the stereophonic signal encoding device 1, and the frequency analysis is performed in the filter analysis unit 3 to obtain the acoustic signal frequency (S1). Further, sound source position data (Pa, Pb, Pc) corresponding to the acoustic signals (A, B, C) is input to the acoustic signal related information generation unit 5 of the stereoscopic acoustic signal encoding device 1, and this acoustic position data ( Sound signal related information is generated based on the sound source number and the sound source coordinates) and the composite band conversion data recorded in the composite band conversion data recording means 21 (S2).
[0037]
Then, the sound signal frequency converted by the filter analysis unit 3 is intensity-synthesized into the stereophonic sound signal based on the sound signal related information generated by the sound signal related information generating unit 5 by the stereophonic sound signal synthesizing unit 7. (S3). Then, this stereophonic signal is encoded by the stereoacoustic signal bit allocation encoding unit 9 with a predetermined number of bits allocated and is set as encoded stereoacoustic data (S4).
[0038]
Further, the sound source position data is encoded by the sound source position data encoding unit 11 to be encoded sound source position data (S5). Then, in the multiplexing unit 13, the encoded stereophonic data and the encoded sound source position data are multiplexed to obtain multiplexed data (S6). The multiplexed data multiplexed by the multiplexing unit 13 is streamed by the multiplexed data stream generation / output unit 15 and output as a multiplexed data stream (S7).
[0039]
(Configuration of Stereo Acoustic Signal Encoding Device [Second Embodiment])
Next, FIG. 3 shows a block diagram of the stereophonic signal encoding apparatus. As shown in FIG. 3, the stereophonic signal encoding device 31 is similar to the stereoacoustic signal encoding device 1, in order to reproduce the directionality of the sound image and the sense of distance, the acoustic signals emitted from a plurality of sound sources. Are generated, and a stereophonic signal generated when reproducing the three-dimensional sense of distance of the sound source is generated, and then encoded. The filter analysis unit 3, the acoustic signal related information generation unit 5, An acoustic signal synthesis unit 7, a sound source position data encoding unit 11, a filter synthesis unit 33, a decomposition acoustic signal encoding unit 35, and an output unit 37 are provided. In addition, the same name code | symbol is attached | subjected to the structure similar to each structure of the stereophonic sound signal encoding apparatus 1, and the description is abbreviate | omitted.
[0040]
The filter synthesis unit 33 decomposes the stereophonic signal synthesized by the stereoacoustic signal synthesis unit 7 and converts it into a decomposed acoustic signal. The decomposed acoustic signal is an acoustic signal suitable for an existing acoustic encoder, and no acoustic signal related information is attached to each acoustic signal. The filter synthesis unit 33 corresponds to the filter synthesis means described in the claims.
[0041]
The decomposed acoustic signal encoding unit 35 encodes the decomposed acoustic signal decomposed by the filter synthesizing unit 33 and outputs it to the output unit 37 as encoded decomposed acoustic data. The decomposed acoustic signal encoding unit 35 corresponds to the decomposed acoustic signal encoding means described in the claims.
[0042]
The output unit 37 outputs the encoded decomposed acoustic data encoded by the decomposed acoustic signal encoding unit 35 and the encoded position data encoded by the sound source position data encoding unit 11 to the outside. is there. The output unit 37 corresponds to the data output means described in the claims.
[0043]
According to the three-dimensional acoustic signal encoding device 31, the filter analysis unit 3 performs time-frequency conversion on the acoustic signal input from each sound source, and analyzes the frequency component of the acoustic signal. In addition, the sound signal related information generation unit 35 generates sound source signal related information that is information related to a combination of sound signals based on sound source position data indicating the position of the sound source of the sound signal. Subsequently, the stereophonic signal synthesizing unit 7 synthesizes each frequency component of the sound signal based on the sound signal related information to obtain a stereoacoustic signal, and the stereophonic signal is decomposed by the filter synthesizing unit 33. It is set as a signal, and it is set as the encoding decomposition acoustic data by which the decomposition acoustic signal was encoded by the decomposition acoustic signal encoding part 35. Further, after the sound source position data encoding unit 11 converts the sound source position data into encoded position data, the output unit 37 outputs encoded decomposition acoustic data and encoded position data. For this reason, since the sound signal is synthesized into the stereophonic sound signal based on the sound signal related information generated by referring to the direction from the sound source and the distance difference between the sound sources in the same direction, the localization of the sound image, etc. There is no loss of realism. Further, since the stereophonic signal is decomposed into the decomposed acoustic signal by the filter combining unit 33, it can be transmitted in a format corresponding to the existing acoustic signal encoder.
[0044]
(Operation of Stereo Acoustic Signal Encoding Device [Second Embodiment])
Next, the operation of the stereophonic sound signal encoding device 31 will be described with reference to the flowchart shown in FIG. 4 (see FIG. 3 as appropriate).
[0045]
First, an acoustic signal (A, B, C) is input to the filter analysis unit 3 of the stereophonic signal encoding device 31, and the filter analysis unit 3 performs time-frequency conversion to obtain a frequency component of the acoustic signal (S11). . Further, sound source position data (Pa, Pb, Pc) corresponding to the acoustic signals (A, B, C) is input to the acoustic signal related information generating unit 5 of the three-dimensional acoustic signal encoding device 31, and the acoustic position data ( Sound signal related information is generated based on the sound source number and the sound source coordinates) and the composite band conversion data recorded in the composite band conversion data recording means 21 (S12).
[0046]
Then, the frequency component of the sound signal converted by the filter analysis unit 3 is converted into a stereophonic sound signal based on the sound signal related information generated by the sound signal related information generating unit 5 by the stereo sound signal synthesizing unit 7. The city is synthesized (S13). Then, this stereophonic signal is decomposed into a decomposed acoustic signal by the filter synthesizing unit 33 and output to the decomposed acoustic signal encoding unit 35 (S14). Subsequently, the decomposed acoustic signal is encoded into encoded decomposed acoustic data by the decomposed acoustic signal encoding unit 35 (S15).
[0047]
Further, the sound source position data is encoded by the sound source position data encoding unit 11 to be encoded sound source position data (S16). The output unit 37 outputs the encoded and decomposed acoustic data and the encoded sound source position data (S17).
[0048]
(About sound source position data)
Next, sound source position data will be described with reference to FIG.
As shown in FIG. 5, the sound source a, the sound source b, the sound source c, and the sound source d, which are a plurality of sound source position data, are represented by music coordinates with the virtual listener as the center (origin). The sound source position data is composed of a total of 16 bits (16 bits) including a sound source number of 2 bits (2 bits), an index in the distance direction of 7 bits (7 bits), and an index in the horizontal direction of 7 bits (7 bits). The index in the distance direction is obtained by dividing a distance of 0.5 m to 10 m into 128, and the index in the left and right direction is obtained by dividing 360 degrees into 120 parts every 3 degrees.
[0049]
As shown in FIG. 5, for example, when the index in the distance direction and the index in the left and right direction are “00011110001010”, the index in the distance direction is “0001111”. If this binary number is converted to a decimal number, “15” is obtained. , {(10−0.5) / 128} × (15 + 1) ≈1.2 m, and the index in the horizontal direction is “0001010”. When this binary number is converted to a decimal number, “10” is obtained. X10 = 30 degrees (30 degrees to the right from the listening position).
[0050]
That is, the sound source position data is expressed as 16-bit data, and the sound source number for specifying the sound source is expressed by 2 bits of the most significant bit (MSB), the distance is expressed by the next 7 bits, and the next 7 bits. The direction expression is made by. An index in the left-right direction of the sound source position data is extracted by the direction matching combination extraction unit 17 of the acoustic signal related information generation unit of the stereophonic sound signal encoding units 1 and 31. That is, 7 bits (in the position including the least significant bit (LSB)) representing the left and right direction index are extracted from all sound source position data, and the left and right direction index is compared, and all the bits match. A set of sound source numbers is extracted from the result.
[0051]
Then, the sound source distance difference calculation means 19 extracts 7 bits each representing the index of the distance direction from the combination of the sound source numbers having the same direction, takes the difference, and calculates the distance between the sound sources having the same direction. The difference is calculated. Thereafter, the acoustic signal related information generating means 23 performs the acoustic signal related based on the set of the sound source numbers, the distance difference, the sound source position data, and the synthesized band conversion data recorded in the synthesized band converted data recording means 21. Information (indicating the frequency band to be synthesized) is generated and output.
[0052]
(About synthetic band conversion data)
Finally, the synthesized band conversion data will be described with reference to FIG.
As shown in FIG. 6, the combined band conversion data is one file (distance in FIG. 6) for each sound source having a short distance (distance of close sound sources in FIG. 6) in the set of sound source numbers to be combined. The difference is shown on the horizontal axis and the frequency is shown on the vertical axis. Each file is associated with a distance difference between the sound sources and a frequency.
[0053]
As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to this.
For example, the processing of each component of the stereophonic signal encoding devices 1 and 31 is regarded as a stereoacoustic signal encoding program described in a general-purpose computer language, or the processing of each component is taken as a single process. It can be regarded as a stereophonic signal encoding method. In these cases, the same effects as those of the stereophonic sound signal encoding devices 1 and 31 can be obtained.
[0054]
【The invention's effect】
According to the first, fourth, and fifth aspects of the present invention, the acoustic signal is converted into the three-dimensional acoustic signal based on the acoustic signal related information generated by referring to the direction from the sound source and the distance difference between the sound sources in the same direction. Since they are synthesized, the sense of reality such as the localization of the sound image is not impaired. Moreover, even if the number of sound sources increases, information related to the sound sources is centralized by the sound signal related information, so that the information amount of the sound signals to be transmitted can be suppressed.
[0055]
According to the second aspect of the present invention, the acoustic signal is synthesized with the three-dimensional acoustic signal based on the acoustic signal related information generated by referring to the direction from the sound source and the distance difference between the sound sources in the same direction. Therefore, the sense of reality such as the sense of localization of the sound image is not impaired. Further, since the stereophonic signal is decomposed into the decomposed acoustic signal, it can be transmitted in a format corresponding to the existing acoustic signal encoder.
[0056]
According to the third aspect of the present invention, the sound source number of each sound source of the sound signal in which the directions of the sound sources coincide is extracted based on the position data, and the distance difference between the sound sources related to the sound source signal is calculated. Sound signal-related information is generated based on synthesized band conversion data, distance difference, position data, and sound source number that correlates the distance difference and frequency between sound sources. There is no loss of realism such as feeling. Moreover, even if the number of sound sources increases, the information amount of the sound signal to be transmitted can be suppressed because the sound signal related information is unified.
[Brief description of the drawings]
FIG. 1 is a block diagram of a stereophonic sound signal encoding apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the stereophonic signal encoding apparatus shown in FIG.
FIG. 3 is a block diagram of a stereophonic sound signal encoding apparatus according to another embodiment of the present invention.
4 is a flowchart for explaining the operation of the stereophonic signal encoding apparatus shown in FIG. 3;
FIG. 5 is a diagram illustrating sound source position data.
FIG. 6 is a diagram illustrating combined band conversion data.
[Explanation of symbols]
1, 31 Stereophonic signal encoding apparatus
3 Filter analysis section (filter analysis means)
5 Acoustic signal related information generating unit (acoustic signal related information generating means)
7 Stereophonic sound signal synthesis unit (stereosonic signal synthesis means)
9 Stereophonic signal bit allocation encoding unit (stereoacoustic signal bit allocation encoding means)
11 Sound source position data encoding unit (position data encoding means)
13 Multiplexer (Multiplexing means)
15 Multiplexed data stream generation output unit (multiplexed data output means)
17 Direction matching combination extraction means
19 Sound source distance difference calculation means
21 Synthetic band conversion data recording means
23 Sound signal related information generating / outputting means
33 Filter synthesis unit (filter synthesis means)
35 Decomposed acoustic signal encoding unit (decomposed acoustic signal encoding means)
37 Output section (data output means)

Claims (5)

再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する立体音響信号符号化装置であって、
前記音響信号を時間周波数変換して、前記音響信号の周波数成分を分析するフィルタ分析手段と、
前記音響信号の音源の位置を示す位置データに基づいて、前記音響信号の組み合わせに関する情報である音響信号関連情報を生成する音響信号関連情報生成手段と、
この音響信号関連情報生成手段によって生成した音響信号関連情報に基づいて、前記周波数成分毎に合成した立体音響信号とする立体音響信号合成手段と、
この立体音響信号合成手段によって合成した立体音響信号に所定のビットを割り当てて符号化した符号化立体音響データとする立体音響信号ビット割当符号化手段と、
前記位置データを符号化した符号化位置データとする位置データ符号化手段と、
前記符号化位置データと前記符号化立体音響データとを多重化した多重化データとする多重化手段と、
この多重化手段によって多重化した多重化データを出力する多重化データ出力手段と、
を備えることを特徴とする立体音響信号符号化装置。
A stereophonic sound signal encoding device that generates a stereophonic signal that produces a three-dimensional sound effect upon reproduction by synthesizing a plurality of sound signals and encodes the stereoacoustic signal,
Filter analysis means for performing time-frequency conversion of the acoustic signal and analyzing a frequency component of the acoustic signal;
Based on position data indicating the position of the sound source of the acoustic signal, acoustic signal related information generating means for generating acoustic signal related information that is information related to the combination of the acoustic signals;
Stereo sound signal synthesizing means based on the sound signal related information generated by the sound signal related information generating means, and a stereo sound signal synthesized for each frequency component;
Stereophonic signal bit assignment encoding means for encoding stereophonic data obtained by assigning and encoding predetermined bits to the stereoacoustic signal synthesized by the stereoacoustic signal synthesis means;
Position data encoding means for encoding the position data into encoded position data;
Multiplexing means for making multiplexed data obtained by multiplexing the encoded position data and the encoded stereophonic data;
Multiplexed data output means for outputting multiplexed data multiplexed by the multiplexing means;
A stereophonic signal encoding device comprising:
再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する立体音響信号符号化装置であって、
前記音響信号を時間周波数変換して、前記音響信号の周波数成分を分析するフィルタ分析手段と、
前記音響信号の音源の位置を示す位置データに基づいて、前記音響信号の組み合わせに関する情報である音響信号関連情報を生成する音響信号関連情報生成手段と、
この音響信号関連情報生成手段によって生成した音響信号関連情報に基づいて、前記周波数成分毎に合成した立体音響信号とする立体音響信号合成手段と、
この立体音響信号合成手段によって合成した立体音響信号を分解した分解音響信号とするフィルタ合成手段と、
このフィルタ合成手段によって分解した分解音響信号を符号化した符号化分解音響データとする分解音響信号符号化手段と、
前記位置データを符号化した符号化位置データとする位置データ符号化手段と、
前記符号化分解音響データおよび前記符号化位置データを出力するデータ出力手段と、
を備えることを特徴とする立体音響信号符号化装置。
A stereophonic sound signal encoding device that generates a stereophonic signal that produces a three-dimensional sound effect upon reproduction by synthesizing a plurality of sound signals and encodes the stereoacoustic signal,
Filter analysis means for performing time-frequency conversion of the acoustic signal and analyzing a frequency component of the acoustic signal;
Based on position data indicating the position of the sound source of the acoustic signal, acoustic signal related information generating means for generating acoustic signal related information that is information related to the combination of the acoustic signals;
Stereo sound signal synthesizing means based on the sound signal related information generated by the sound signal related information generating means, and a stereo sound signal synthesized for each frequency component;
Filter synthesizing means for decomposing the stereophonic signal synthesized by the stereophonic sound signal synthesizing means,
Decomposed acoustic signal encoding means for encoding encoded decomposition acoustic data obtained by encoding the decomposed acoustic signal decomposed by the filter synthesis means;
Position data encoding means for encoding the position data into encoded position data;
Data output means for outputting the encoded decomposition acoustic data and the encoded position data;
A stereophonic signal encoding device comprising:
前記音源を識別する音源番号が当該音源毎に付されており、
前記音響信号関連情報生成手段は、
前記位置データに基づいて、前記音源の方向が一致している音響信号の各音源の音源番号を抽出する方向一致組合せ抽出手段と、
この方向一致組合せ抽出手段で抽出された音源番号に係る音源同士の距離差を計算する音源距離差計算手段と、
前記音源同士の距離差と、周波数とを関連付けた合成帯域変換データを予め記録している合成帯域変換データ記録手段と、
この合成帯域変換データ記録手段に記録されている合成帯域変換データ、前記距離差、前記位置データおよび前記音源番号に基づいて、前記音響信号関連情報を生成して出力する音響信号関連情報生成出力手段と、
を有していることを特徴とする請求項1または請求項2に記載の立体音響信号符号化装置。
A sound source number for identifying the sound source is attached to each sound source,
The acoustic signal related information generating means is
Based on the position data, direction matching combination extraction means for extracting the sound source number of each sound source of the sound signal in which the direction of the sound source matches,
A sound source distance difference calculating means for calculating a distance difference between sound sources related to the sound source numbers extracted by the direction matching combination extracting means;
Synthetic band conversion data recording means for pre-recording synthetic band conversion data that associates the distance difference between the sound sources and the frequency;
Acoustic signal related information generating / outputting means for generating and outputting the acoustic signal related information based on the synthesized band converted data, the distance difference, the position data, and the sound source number recorded in the synthesized band converted data recording means. When,
The stereophonic sound signal encoding device according to claim 1, wherein the stereophonic signal encoding device is provided.
再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する立体音響信号符号化方法であって、
前記音響信号を時間周波数変換して、前記音響信号の周波数成分を分析するフィルタ分析ステップと、
前記音響信号の音源の位置を示す位置データに基づいて、前記音響信号の組み合わせに関する情報である音響信号関連情報を生成する音響信号関連情報生成ステップと、
この音響信号関連情報生成ステップにおいて生成した音響信号関連情報に基づいて、前記周波数成分毎に合成した立体音響信号とする立体音響信号合成ステップと、
この立体音響信号合成ステップにおいて合成した立体音響信号に所定のビットを割り当てて符号化した符号化立体音響データとする立体音響信号ビット割当符号化ステップと、
前記位置データを符号化した符号化位置データとする位置データ符号化ステップと、
前記符号化位置データと前記符号化立体音響データとを多重化した多重化データとする多重化ステップと、
この多重化ステップにおいて多重化した多重化データを出力する多重化データ出力ステップと、
を含むことを特徴とする立体音響信号符号化方法。
A stereophonic signal encoding method for generating a stereophonic signal that produces a three-dimensional sound effect upon reproduction by synthesizing a plurality of acoustic signals and encoding the stereoacoustic signal,
A filter analysis step of time-frequency converting the acoustic signal to analyze a frequency component of the acoustic signal;
An acoustic signal related information generating step for generating acoustic signal related information, which is information related to a combination of the acoustic signals, based on position data indicating a position of a sound source of the acoustic signal;
Based on the acoustic signal related information generated in the acoustic signal related information generating step, a stereophonic sound signal synthesizing step that is a stereophonic signal synthesized for each frequency component;
A stereophonic signal bit assignment encoding step for encoding stereophonic data obtained by assigning and encoding predetermined bits to the stereoacoustic signal synthesized in the stereoacoustic signal synthesis step;
A position data encoding step of setting the position data as encoded position data;
A multiplexing step in which the encoded position data and the encoded stereophonic data are multiplexed data;
A multiplexed data output step for outputting multiplexed data multiplexed in this multiplexing step;
A stereophonic signal encoding method comprising:
再生する際に立体感のある音響効果を生じさせる立体音響信号を、複数の音響信号を合成して生成し、当該立体音響信号を符号化する装置を、
前記音響信号を時間周波数変換して、前記音響信号の周波数を分析するフィルタ分析手段、
前記音響信号の音源の位置を示す位置データに基づいて、前記音響信号の組み合わせに関する情報である音響信号関連情報を生成する音響信号関連情報生成手段、
この音響信号関連情報生成手段によって生成した音響信号関連情報に基づいて、前記周波数成分毎に合成した立体音響信号とする立体音響信号合成手段、
この立体音響信号合成手段によって合成した立体音響信号に所定のビットを割り当てて符号化した符号化立体音響データとする立体音響信号ビット割当符号化手段、
前記位置データを符号化した符号化位置データとする位置データ符号化手段、
前記符号化位置データと前記符号化立体音響データとを多重化した多重化データとする多重化手段、
この多重化手段によって多重化した多重化データを出力する多重化データ出力手段、
として機能させることを特徴とする立体音響信号符号化プログラム。
A device that generates a stereophonic signal that generates a three-dimensional sound effect when reproducing by synthesizing a plurality of acoustic signals, and encodes the stereoacoustic signal.
Filter analysis means for analyzing the frequency of the acoustic signal by time-frequency converting the acoustic signal;
Acoustic signal related information generating means for generating acoustic signal related information, which is information related to a combination of the acoustic signals, based on position data indicating a position of a sound source of the acoustic signal;
Stereo sound signal synthesizing means based on the sound signal related information generated by the sound signal related information generating means, and a stereo sound signal synthesized for each frequency component,
Stereophonic signal bit allocation encoding means for encoding stereoacoustic data encoded by assigning predetermined bits to the stereoacoustic signal synthesized by the stereoacoustic signal synthesis means;
Position data encoding means for encoding the position data into encoded position data;
Multiplexing means for making multiplexed data in which the encoded position data and the encoded stereophonic data are multiplexed,
Multiplexed data output means for outputting multiplexed data multiplexed by the multiplexing means;
A three-dimensional sound signal encoding program characterized by being made to function as:
JP2003166934A 2003-06-11 2003-06-11 Stereo sound signal encoding apparatus, stereo sound signal encoding method, and stereo sound signal encoding program Expired - Fee Related JP4124702B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003166934A JP4124702B2 (en) 2003-06-11 2003-06-11 Stereo sound signal encoding apparatus, stereo sound signal encoding method, and stereo sound signal encoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003166934A JP4124702B2 (en) 2003-06-11 2003-06-11 Stereo sound signal encoding apparatus, stereo sound signal encoding method, and stereo sound signal encoding program

Publications (2)

Publication Number Publication Date
JP2005006018A true JP2005006018A (en) 2005-01-06
JP4124702B2 JP4124702B2 (en) 2008-07-23

Family

ID=34092932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003166934A Expired - Fee Related JP4124702B2 (en) 2003-06-11 2003-06-11 Stereo sound signal encoding apparatus, stereo sound signal encoding method, and stereo sound signal encoding program

Country Status (1)

Country Link
JP (1) JP4124702B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508157A (en) * 2005-09-13 2009-02-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Audio encoding
JP2009527970A (en) * 2006-02-21 2009-07-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Audio encoding and decoding
JP2010521115A (en) * 2007-03-09 2010-06-17 エルジー エレクトロニクス インコーポレイティド Audio signal processing method and apparatus
US8422688B2 (en) 2007-09-06 2013-04-16 Lg Electronics Inc. Method and an apparatus of decoding an audio signal
US8463413B2 (en) 2007-03-09 2013-06-11 Lg Electronics Inc. Method and an apparatus for processing an audio signal
JP2014236259A (en) * 2013-05-31 2014-12-15 富士通株式会社 Sound source management device, sound source management method, and sound source management system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508157A (en) * 2005-09-13 2009-02-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Audio encoding
JP2009527970A (en) * 2006-02-21 2009-07-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Audio encoding and decoding
US9009057B2 (en) 2006-02-21 2015-04-14 Koninklijke Philips N.V. Audio encoding and decoding to generate binaural virtual spatial signals
US9865270B2 (en) 2006-02-21 2018-01-09 Koninklijke Philips N.V. Audio encoding and decoding
US10741187B2 (en) 2006-02-21 2020-08-11 Koninklijke Philips N.V. Encoding of multi-channel audio signal to generate encoded binaural signal, and associated decoding of encoded binaural signal
JP2010521115A (en) * 2007-03-09 2010-06-17 エルジー エレクトロニクス インコーポレイティド Audio signal processing method and apparatus
US8359113B2 (en) 2007-03-09 2013-01-22 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8463413B2 (en) 2007-03-09 2013-06-11 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8594817B2 (en) 2007-03-09 2013-11-26 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8422688B2 (en) 2007-09-06 2013-04-16 Lg Electronics Inc. Method and an apparatus of decoding an audio signal
US8532306B2 (en) 2007-09-06 2013-09-10 Lg Electronics Inc. Method and an apparatus of decoding an audio signal
JP2014236259A (en) * 2013-05-31 2014-12-15 富士通株式会社 Sound source management device, sound source management method, and sound source management system

Also Published As

Publication number Publication date
JP4124702B2 (en) 2008-07-23

Similar Documents

Publication Publication Date Title
KR102131748B1 (en) Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
TWI443647B (en) Methods and apparatuses for encoding and decoding object-based audio signals
TWI544479B (en) Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program usin
TWI395204B (en) Audio decoder applying audio coding using downmix, audio object encoder, multi-audio-object encoding method, method for decoding a multi-audio-object gram with a program code for executing the method thereof.
RU2406166C2 (en) Coding and decoding methods and devices based on objects of oriented audio signals
JP5337941B2 (en) Apparatus and method for multi-channel parameter conversion
CN101542595B (en) For the method and apparatus of the object-based sound signal of Code And Decode
US20120134511A1 (en) Multichannel audio coder and decoder
RU2007120634A (en) STEREOPHONICALLY COMPATIBLE MULTI-CHANNEL SOUND ENCRYPTION
JP2011066868A (en) Audio signal encoding method, encoding device, decoding method, and decoding device
JP6526153B2 (en) Method for compressing high order Ambisonics (HOA) signals, method for decompressing compressed HOA signals, device for compressing HOA signals and device for decompressing compressed HOA signals
JP2005517987A (en) Parametric audio coding
MX2008012315A (en) Methods and apparatuses for encoding and decoding object-based audio signals.
KR20090104674A (en) Method and apparatus for generating side information bitstream of multi object audio signal
CN111145766A (en) Method and apparatus for decoding a compressed Higher Order Ambisonics (HOA) representation and medium
KR20070001139A (en) An audio distribution system, an audio encoder, an audio decoder and methods of operation therefore
US20050004791A1 (en) Perceptual noise substitution
EP1932239A1 (en) Method and apparatus for encoding/decoding
JP4124702B2 (en) Stereo sound signal encoding apparatus, stereo sound signal encoding method, and stereo sound signal encoding program
KR20070108312A (en) Method and apparatus for encoding/decoding an audio signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees