JP2009524104A - 信号デコーディング方法及び装置 - Google Patents

信号デコーディング方法及び装置 Download PDF

Info

Publication number
JP2009524104A
JP2009524104A JP2008551198A JP2008551198A JP2009524104A JP 2009524104 A JP2009524104 A JP 2009524104A JP 2008551198 A JP2008551198 A JP 2008551198A JP 2008551198 A JP2008551198 A JP 2008551198A JP 2009524104 A JP2009524104 A JP 2009524104A
Authority
JP
Japan
Prior art keywords
signal
parameter
information
control information
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008551198A
Other languages
English (en)
Other versions
JP5161109B2 (ja
Inventor
オ オー,ヒェン
スク パン,ヒー
スー キム,ドン
ヒュン リム,ジェ
ウォン ジュン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020060097319A external-priority patent/KR20070081735A/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Priority claimed from PCT/KR2007/000348 external-priority patent/WO2007083958A1/en
Publication of JP2009524104A publication Critical patent/JP2009524104A/ja
Application granted granted Critical
Publication of JP5161109B2 publication Critical patent/JP5161109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)

Abstract

【課題】本発明は、オブジェクトパラメータを受信する段階と、前記オブジェクトパラメータをパーシングし、オブジェクト情報を抽出する段階と、ユーザーコントロール情報、デフォルトコントロール情報、装置コントロール情報、及び装置情報のうち一つ以上を含むコントロール情報、及び前記オブジェクト情報を用いてコントロールパラメータを生成する段階と、前記オブジェクトパラメータ及び前記コントロールパラメータを用いて、出力信号におけるオブジェクトの位置とレベルを決定するレンダリングパラメータ生成する段階と、を含む信号デコーディング方法を提供する。
【解決手段】本発明によれば、オーディオ信号の空間的特性(聞き手の仮想位置、特定ソースの仮想位置)を変化させたり空間的特性を新しく付与したりする等、オーディオ信号をコントロールでき、デコーダーの装置情報(例:出力可能チャンネルの数)に符合する出力信号を生成できる。

Description

本発明は、信号のデコーディング方法及び装置に関するものであり、より詳細には、オーディオ信号をデコーディングする方法及びその装置に関するものである。
一般的に、オーディオ信号は、エンコーディング装置で生成されたレンダリングパラメータ(例:チャネル間のレベル情報)を用いたダウンミックス信号のレンダリングから出力信号(例:マルチチャネルオーディオ信号)を生成するデコーディングされる。
このようにエンコーディング装置で生成されたレンダリングパラメータをそのままレンダリングするために用いる場合、デコーディング装置では、デコーダーの装置情報(例:出力可能なチャネルの数)による出力信号を生成することができず、オーディオ信号の空間的な特性を変化させることができず、オーディオ信号に空間的な特性を与えることができない。具体的に、デコーダーの出力可能なチャネルの数(例:2個)に符合するチャネル数のオーディオ信号を生成することができず、聴者の仮想位置を舞台上や客席の一番後側に変化させることができず、特定のソース信号(例:ピアノ信号)の仮想位置(例:左側)を与えることができない。
本発明は、上記のような問題点を解決するためになされたもので、その目的は、オーディオ信号の空間的特性(聴者の仮想位置、特定ソースの仮想位置)を変化/付与するようにオーディオ信号を制御することができる信号のエンコーディング/デコーディング方法及び装置を提供することにある。
本発明の他の目的は、デコーダーの出力可能なチャネル情報(装置情報)に符合する出力信号を生成することができる信号のエンコーディング/デコーディング方法及び装置を提供することにある。
上記のような目的を達成するために、本発明に係る信号デコーディング方法は、少なくとも一つのオブジェクト信号に対応するレベル情報を含むオブジェクトパラメータを受信する段階と;前記オブジェクトパラメータに制御パラメータを適用して、前記オブジェクト信号に対応するレベル情報を出力チャネルに対応するレベル情報に変換する段階と;前記オブジェクト信号をダウンミックスしたオブジェクトダウンミックス信号を制御するために、前記出力チャネルに対応するレベル情報を含むレンダリングパラメータを生成する段階と;を含む。
本発明によると、前記オブジェクト信号は、チャネル信号又はソース信号を含むことができる。
本発明によると、前記オブジェクトパラメータは、オブジェクトレベル情報及びオブジェクト間の相関関係情報のうちの一つ以上を含むことができる。
本発明によると、前記オブジェクト信号がチャネル信号である場合、前記オブジェクトレベル情報は、チャネル間のレベル差を含むことができる。
本発明によると、前記オブジェクト信号がソース信号である場合、前記オブジェクトレベル情報は、ソース間のレベル情報を含むことができる。
本発明によると、前記制御パラメータは、制御情報を用いて生成されたものである。
本発明によると、前記制御情報は、エンコーディング装置から受信された制御情報、ユーザー制御情報、デフォルト制御情報、装置制御情報、及び装置情報のうちの少なくとも一つを含むことができる。
本発明によると、前記制御情報は、HRTFフィルタ情報、オブジェクト位置情報、及びオブジェクトレベル情報のうちの少なくとも一つに該当するものである。
本発明によると、前記オブジェクト信号がチャネル信号である場合、前記制御情報は、聴者の仮想位置情報及びマルチチャネルスピーカーの仮想位置情報のうちの少なくとも一つを含むことができる。
本発明によると、前記オブジェクト信号がソース信号である場合、前記制御情報は、ソース信号のレベル情報及びソース信号の仮想位置情報のうちの少なくとも一つを含むものである。
本発明によると、前記制御パラメータは、前記オブジェクトパラメータに基づいたオブジェクト情報を用いて生成されるものである。
本発明によると、少なくとも一つのオブジェクト信号に基づいたオブジェクトダウンミックス信号を受信する段階と;前記レンダリングパラメータを前記オブジェクトダウンミックス信号に適用して出力信号を生成する段階と;をさらに含むものである。
上記のような目的を達成するために、少なくとも一つのオブジェクト信号に対応するレベル情報を含むオブジェクトパラメータを受信するオブジェクトパラメータ受信部と;前記オブジェクトパラメータに制御パラメータを適用して、前記オブジェクト信号に対応するレベル情報を出力チャネルに対応するレベル情報に変換し、前記オブジェクト信号をダウンミックスしたオブジェクトダウンミックス信号を制御するために、前記出力チャネルに対応するレベル情報を含むレンダリングパラメータを生成するレンダリングパラメータ生成部と;を含む信号デコーディング装置が提供される。
本発明によると、少なくとも一つのオブジェクト信号に基づいたオブジェクトダウンミックス信号に前記レンダリングパラメータを適用して出力信号を生成するレンダリング部をさらに含むことができる。
本発明によると、前記レンダリングパラメータをエンコーディングしてレンダリングパラメータビットストリームを生成するレンダリングパラメータエンコーディング部をさらに含むことができる。
本発明は、以下の効果を提供する。
先ず、オブジェクトパラメータを変換する際に制御情報及び/又は装置情報を考慮するので、聴者の仮想位置又はソースの仮想位置を多様に変化させることができ、出力可能なチャネルの数に符合する出力信号を生成することができる。
次に、出力信号を生成した後、出力信号に空間的特性を付与又は変形するのでなく、オブジェクトパラメータを変換した後、この変換されたオブジェクトパラメータ(レンダリングパラメータ)を適用して出力信号を生成するので、計算量を著しく低下させることができる。
以下、添付された図面を参照して、本発明の実施例を詳細に説明する。本明細書及び特許請求の範囲に使用された用語や単語は、通常的又は辞典的な意味に限定して解析してはならなく、発明者が自身の発明を最善の方法で説明するために用語の概念を適切に定義できるとの原則に立脚して、本発明の技術的思想に符合する意味と概念に解析すべきである。したがって、本明細書に記載された実施例及び図面に示した構成は、本発明の最も好ましい一実施例に過ぎないもので、本発明の技術的思想を全て代弁するものでないので、本出願時点において、これらに取って代わる多様な均等物及び変形例があり得ることを理解すべきである。
本発明は、オブジェクトダウンミックス信号の空間的特性を変換するか、オブジェクトダウンミックス信号に空間的特性を与えるか、デコーダーの装置情報によってオーディオ信号を変形するなどのように、オブジェクトダウンミックス信号を制御するために、制御パラメータを用いてオブジェクトパラメータを変換してレンダリングパラメータを生成する。ここで、オブジェクトダウンミックス信号(以下、「ダウンミックス信号」)は、複数のオブジェクト信号(チャネル信号又は複数のソース信号)がダウンミックスから生成される。したがって、このダウンミックス信号にレンダリングパラメータを適用して出力信号を生成することができる。
図1は、本発明の一実施例に係る信号エンコーディング装置及び信号デコーディング装置の構成を示した図である。図1を参照すると、信号エンコーディング装置100は、ダウンミキシング部110、オブジェクトパラメータ抽出部120、及び制御情報生成部130を含むことができ、信号デコーディング装置200は、受信部210、制御パラメータ生成部220、レンダリングパラメータ生成部230、及びレンダリング部240を含むことができる。
信号エンコーディング装置100のダウンミキシング部110は、複数のオブジェクト信号をダウンミックスしてオブジェクトダウンミックス信号(以下、ダウンミックス信号(DX))を生成する。ここで、オブジェクト信号とは、チャネル信号又はソース信号であるが、ここで、ソース信号は、特定の楽器の信号である。
オブジェクトパラメータ抽出部120は、複数のオブジェクト信号からオブジェクトパラメータを抽出する。オブジェクトパラメータは、オブジェクトレベル情報、オブジェクト間の相関関係情報を含むが、オブジェクト信号がチャネル信号である場合、オブジェクトレベル情報は、チャネル間のレベル差CLDを含むことができ、オブジェクト信号がソース信号である場合、オブジェクトレベル情報は、ソース間のレベル情報を含むことができる。
制御情報生成部130は、一つ以上の制御情報を生成する。制御情報は、聴者の仮想位置を変更するか、マルチチャネルスピーカーの仮想位置を変更するか、又はソース信号に空間的特性を与えるための情報として、HRTFフィルタ情報、オブジェクト位置情報、オブジェクトレベル情報などを含むことができる。具体的に、オブジェクト信号がチャネル信号である場合、制御情報は、聴者の仮想位置情報、マルチチャネルスピーカーの仮想位置情報などであり、オブジェクト信号がソース信号である場合、制御情報は、ソース信号のレベル情報、ソース信号の仮想位置情報などである。
一方、聴者の仮想位置を変更する場合、特定の聴者の仮想位置に対応して一つの制御情報が生成される。また、ソース信号に空間的特性を与える場合、特定モード(例:ライブモード、クラブバンドモード、カラオケモード、ジャズモード、リズム強調モードなど)に対応して一つの制御情報が生成される。制御情報は、各ソース信号をそれぞれ調節するとともに、各ソース信号のうちの一つ以上のソース信号(グループソース信号)を一括的に調節するためのものであるが、例えば、リズム強調モードである場合、各ソース信号のうちリズム楽器と関連した各ソース信号を一括的に調節することができる。ここで、一括的であることは、各ソース信号に同一のパラメータを適用するのでなく、多様なソース信号をそれぞれ同時に調節することを意味する。制御情報生成部130は、このような制御情報を生成した後、制御情報の個数(すなわち、音響効果の個数)、フラグ、制御情報を含む制御情報ビットストリームを生成することができる。
信号デコーディング装置200の受信部210は、ダウンミックス受信部211、オブジェクトパラメータ受信部212、制御情報受信部213を含むことができるが、それぞれダウンミックス信号DX、オブジェクトパラメータOP、制御情報CIを受信する。一方、受信部210は、受信された信号に多重分離(demuxing)、パーシング又はデコーディングなどをさらに行うこともできる。
オブジェクトパラメータ受信部212は、オブジェクトパラメータOPからオブジェクト情報OIを抽出する。オブジェクト信号がソース信号である場合、オブジェクト情報は、ソースの個数、ソースの種類、ソースのインデックスなどを含むことができる。オブジェクト信号がチャネル信号である場合、オブジェクト情報は、チャネル信号のツリー構造(例:5−1−5構造)などを含むことができる。オブジェクトパラメータ受信部212は、抽出されたオブジェクト情報OIを制御パラメータ生成部220に入力する。
制御パラメータ生成部220は、制御情報、装置情報DI、オブジェクト情報OIのうちの一つ以上を用いて制御パラメータCPを生成する。制御情報は、上記の制御情報生成部130の説明で述べたように、HRTFフィルタ情報、オブジェクト位置情報、オブジェクトレベル情報などを含むことができ、前記オブジェクト信号がチャネル信号である場合、聴者の仮想位置情報及びマルチチャネルスピーカーの仮想位置情報のうちの少なくとも一つを含むことができ、オブジェクト信号がソース信号である場合、ソース信号のレベル情報及びソース信号の仮想位置情報を含むことができる。さらに、広い意味の制御情報は、装置情報DIを含む概念である。
一方、制御情報は、その出処別に多様な類型があり得るが、1)制御情報生成部130によって生成されて受信された制御情報(CI)、2)使用者によって入力されたユーザー制御情報(UCI)、3)制御パラメータ生成部220によって自発的に生成された装置制御情報(図示せず)、4)信号デコーディング装置に保存されているデフォルト制御情報(DCI)などがある。制御パラメータ生成部220は、特定のダウンミックス信号に関して受信された制御情報CI、ユーザー制御情報UCI、装置制御情報、デフォルト制御情報DCIのうちの一つを選択して制御パラメータを生成することができるが、選択された制御情報は、a)制御パラメータ生成部220によって任意に選択された制御情報であるか、b)使用者によって選択された制御情報である。
装置情報DIは、デコーディング装置200に保存されている情報として、出力可能なチャネルの数などを含む。この装置情報DIは、広義の制御情報に含まれる。
オブジェクト情報OIは、ダウンミックス信号にダウンミックスされた一つ以上のオブジェクト信号に関する情報として、オブジェクトパラメータ受信部212によって入力されたオブジェクト情報である。
レンダリングパラメータ生成部230は、制御パラメータCPを用いてオブジェクトパラメータOPを変換することで、レンダリングパラメータRPを生成する。一方、レンダリングパラメータ生成部230は、相関関係を用いて立体音響(stereophony)が出力信号に付加されるようにするレンダリングパラメータRPを生成することができるが、この内容に関する具体的な説明は、後述することにする。
レンダリング部240は、レンダリングパラメータRPを用いてダウンミックス信号DXをレンダリングして出力信号を生成する。ここで、ダウンミックス信号DXは、信号エンコーディング装置100のダウンミキシング部110によって生成されたものであるか、使用者によって任意的にダウンミックスされたダウンミックス信号である。
図2は、本発明の他の実施例に係る信号デコーディング装置の構成を示した図である。本発明の他の実施例に係る信号デコーディング装置は、図1に示した本発明の一実施例に係る信号デコーディング装置200のうちA領域の拡張例として、レンダリングパラメータエンコーディング部232及びレンダリングパラメータデコーディング部234をさらに備えている。一方、レンダリングパラメータデコーディング部234及びレンダリング部240は、レンダリングパラメータエンコーディング部232を含む信号デコーディング装置200とは別個の装置として具現される。
レンダリングパラメータエンコーディング部232は、レンダリングパラメータ生成部230で生成されたレンダリングパラメータをエンコーディングし、レンダリングパラメータビットストリームRPBを生成する。
レンダリングパラメータデコーディング部234は、レンダリングパラメータビットストリームRPBをデコーディングし、デコーディングされたレンダリングパラメータをレンダリング部240に入力する。
レンダリング部240は、レンダリングパラメータデコーディング部234によってデコーディングされたレンダリングパラメータを用いてダウンミックス信号DXをレンダリングし、出力信号を生成する。
本発明の一実施例及び他の実施例に係るデコーディング装置は、上記のような構成要素を備えている。以下、1)オブジェクト信号がチャネル信号である場合、2)オブジェクト信号がソース信号である場合に関して一層具体的に説明する。
1. チャネル信号である場合(空間的特性の変形)
オブジェクト信号がチャネル信号である場合、オブジェクトパラメータは、チャネル間のレベル情報及びチャネル間の相関関係を含むことができるが、制御パラメータを用いてこのチャネル間のレベル情報(及びチャネル間の相関関係)を変換することで、レンダリングパラメータに変換されたチャネル間のレベル情報(及びチャネル間の相関関係)を生成することができる。
このようにレンダリングパラメータの生成に用いられる制御パラメータは、装置情報、制御情報、又は装置情報及び制御情報を用いて生成されたものであるが、以下、装置情報を考慮する場合、制御情報を考慮する場合、及び装置情報及び制御情報を全て考慮する場合に関してそれぞれ説明する。
1−1.装置情報を考慮する場合(スケーラブル)
制御パラメータ生成部220が装置情報DIのうち出力可能なチャネルの数を用いて制御パラメータを生成すると、レンダリング部240によって生成された出力信号は、出力可能なチャネルの数と同一のチャネル数を有する出力信号を生成することができる。以下、このような制御パラメータを用いて、オブジェクトパラメータOPのうちチャネル間のレベル差(及びチャネル間の相関関係)を変換することで、変換されたチャネル間のレベル差を生成する内容に関して説明する。具体的に、出力可能なチャネルの数が2で、オブジェクトパラメータOPが5−1−5ツリー構造に該当する場合に関して説明する。
図3は、5−1−5ツリー構造である場合、チャネル間のレベル差と変換されたチャネル間のレベル差との関係を示した図である。チャネル間のレベル差及びチャネル間の相関関係が5−1−5ツリー構造に符合する場合、図3の左側に示すように、チャネル間のレベル差CLDはそれぞれCLD乃至CLDであり、チャネル間の相関関係ICCはそれぞれICC乃至ICC(図示せず)である。例えば、左側チャネルL及び右側チャネルRのレベル差はCLDであり、チャネル間の相関関係はICCである。
一方、図3の右側に示すように、出力可能なチャネルの数が2である場合(すなわち、左側トータルチャネルLt及び右側トータルチャネルRtである場合)、変換されたチャネル間のレベル差及び変換されたチャネル間の相関関係であるCLDα及びICCαは、チャネル間のレベル差CLD乃至CLD、及びチャネル間の相関関係ICC乃至ICC(図示せず)を用いて表すことができる。
Figure 2009524104
LtはLのパワーで、PRtはRのパワーである。
Figure 2009524104
Figure 2009524104
ここで、
Figure 2009524104
数式4及び数式3を数式2に代入し、数式2を数式1に代入すると、チャネル間のレベル差CLD乃至CLDを用いて変換されたチャネル間のレベル差CLDαを表現することができる。
Figure 2009524104
Figure 2009524104
Figure 2009524104
数式7及び数式3を数式6に代入し、数式6及び数式2を数式5に代入すると、チャネル間のレベル差CLD乃至CLD、及びチャネル間の相関関係ICC、ICCを用いて変換されたチャネル間の相関関係ICCαを表現することができる。
1−2.制御情報を考慮する場合
制御パラメータ生成部220が制御情報を用いて制御パラメータを生成する場合、レンダリング部240によって生成された出力信号は、多様な音響効果を出すことができる。例えば、大衆音楽公演の場合、客席で聞く音響効果を出すこともでき、舞台上で聞く音響効果を出すこともできる。
図4は、ITU勧告案によるスピーカーの配置で、図5及び図6は、立体音響効果による仮想スピーカーの位置である。ITU勧告案による場合、図4に示すように、スピーカーの位置が該当の地点(例えば、距離及び角度)に位置すべきであり、聴取者は、中間地点に位置すべきである。
聴者が図4に示した地点に位置した状態で、図5に示した地点に位置した場合と同一の効果を出すためには、観客の喊声を含むサラウンドチャネルLs’,Rs’のゲインを減らし、角度を後方側に移動し、左側チャネルL’及び右側チャネルR’を聴者の耳の前に位置させればよい。図6に示した地点に位置した場合と同一の効果を出すためには、特に、左側チャネルL’とセンターチャネルC’との間の角度を減らし、左側チャネルL’及びセンターチャネルC’のゲインを高めればよい。
このようにするために、スピーカーの位置(L、R、Ls、Rs、C)から聴者の位置までに対応する音響経路(H、H、H、HLs、HRs)の逆関数を通過させた後、仮想スピーカーの位置(L’、R’、Ls’、Rs’、C’)に対応する音響経路(HL’、HR’、HC’、HLs’、HRs’)を通過させることができる。すなわち、左側チャネル信号の場合、下記のように表現される。
Figure 2009524104
もし HL’が多数個存在する場合、すなわち、多様な音響効果が存在する場合、数式8は次のように表現される。
Figure 2009524104
ここで、Hx_tot-_i(xは任意のチャネル)に対応する制御情報は、エンコーディング装置の制御情報生成部130又は制御パラメータ生成部220で生成される。
以下、オブジェクトパラメータ(特に、チャネル間のレベル差CLD)を変換するによって音響効果を変化させる原理に対して具体的に説明する。
図7は、各スピーカー間の仮想音源の位置を示した図である。一般的に、任意のチャネル信号xは、次の数式10のようにゲインgを有する。
Figure 2009524104
ここで、xはi番目のチャネルの入力信号であり、gはi番目のチャネルのゲインであり、xは音源信号である。
図7を見ると、仮想音源VSと法線との角度がψで、二つのチャネル(ch1及びch2)間の角度が2ψ0で、チャネル1(ch1)及びチャネル2(ch2)のゲインがそれぞれg1、g2であるとき、次のような関係式が成立する。
Figure 2009524104
数式11によると、g1及びg2を調節することで、仮想音源VSの位置ψを変化させることができる。g1及びg2は、各チャネル間のレベル差CLDに依存するので、結果的に、チャネル間のレベル差CLDを調節することによって仮想音源VSの位置を変化させることができる。
1−3.装置情報及び制御情報を全て考慮する場合
制御パラメータ生成部240は、装置情報及び制御情報を全て考慮して制御パラメータを生成することができる。デコーダーの出力可能なチャネルの数がMである場合、制御パラメータ生成部220は、入力された制御情報CI,UCI,DCIのうち出力可能なチャネルの数Mに符合する制御情報を選択し、又は、出力可能なチャネルの数Mに符合する制御パラメータを自体的に生成することができる。
例えば、ダウンミックス信号のツリー構造が5−1−5であり、出力可能なチャネルの数が2である場合、制御パラメータ生成部220は、入力された制御情報CI,UCI,DCIからステレオチャネルに符合する制御情報を選択し、又は、ステレオチャネルに符合する制御パラメータを生成することができる。
上記のような方法で、制御パラメータは、装置情報及び制御情報を全て考慮して生成される。
2. ソース信号である場合
オブジェクト信号がソース信号である場合、オブジェクトパラメータは、ソース間のレベル情報を含むことができる。オブジェクトパラメータをそのまま用いてレンダリングする場合、出力信号は、複数のソース信号になるが、この複数のソース信号は空間的特性を持たない。
このオブジェクトパラメータに空間的特性を与えるために、オブジェクトパラメータを変換してレンダリングパラメータを生成するにおいて、制御情報を考慮することができる。もちろん、チャネルの信号の場合と同様に、制御情報のみならず、装置情報(出力可能なチャネルの個数)をさらに考慮することもできる。
このように各ソース信号に空間的特性が与えられると、各ソース信号は、多様な効果を出すように再生される。例えば、図8に示すように、ボーカルVは左側で再生され、ドラムDは中間で再生され、キーボードKは右側で再生される。また、図9に示すように、ボーカルVとドラムDは中間で再生され、キーボードKは左側で再生される。
このように空間的特性を与えることで、ソース信号を所望の地点に位置させた後、ソース信号に所望の立体音響を与えるために相関関係ICを用いる方法に関して説明する。
2−1.相関関係ICを用いた立体音響の付与
人が音の方向を知覚することは、二つの耳に聞こえる音のレベル差(Interaural Intensity/Level difference;IID/ILD)、二つの耳に聞こえる音の時間遅延(Interaural Time Difference;ITD)によるものである。そして、二つの耳に聞こえる音の相関関係(Interaural Cross−correlation;IC)によって立体感を知覚するようになる。
一方、二つの耳に聞こえる音の相関関係ICは、次のように定義される。
Figure 2009524104
ここで、x及びxは各チャネル信号であり、E[x]はxチャネルのエネルギーである。
一方、チャネル信号に立体音響を加えることで、数式10を次の式のように変形することができる。
Figure 2009524104
ここで、aは元の信号成分に掛けられる利得であり、sはi番目のチャネル信号に加えられる立体音響である。一方、αi及びgはαi(k)及びg(k)の簡略化された表現である。
ここで、立体音響Sはデコリレーターを使用して生成されたものであるが、デコリレーターにはオールパスフィルタが使用される。一方、立体音響が加えられるとしても、振幅パニングの法則(Amplitude panning’s Law)が満足されるべきであるので、数式13でgは式全体に適用される。
一方、sは、相関関係ICを調節するための値として、チャネルごとに独立的な値が使用されることもあるが、次の式のように代表的な立体音響の値とチャネル別利得との掛け算として表現される。
Figure 2009524104
ここで、βiはi番目のチャネル信号の利得であり、s(k)は代表的な立体音響の値である。
また、下記のような多様な立体音響の組み合わせで構成されることもある。
Figure 2009524104
ここで、z(k)は、任意の立体音響の値で、βi、χi及びδiは、それぞれ立体音響に対するi番目のチャネル信号の利得である。
立体音響の値(s(k)又はz(k))(以下、s(k))はチャネル信号xとの相関関係が低い信号であるので、立体音響の値s(k)は、チャネル信号xとの相関関係ICがほぼ0に近いものである。すなわち、立体音響の値(s(k)又はz(k))は、x(k)(又はx(k))を考慮すべきである。すなわち、理想的にはチャネル信号と立体音響との相関関係が0であるので、次のように表現される。
Figure 2009524104
ここで、立体音響の値s(k)を構成するためには多様な信号処理技法が用いられるが、1)ノイズ成分で構成し、2)時間軸でx(k)にノイズを加え、3)周波数軸でx(k)の大きさ成分にノイズを加え、4)x(k)の位相成分にノイズを加え、5)x(k)のエコー(echo)成分を用い、6)上記の方法を適切に組み合わせて用いることができる。また、ノイズを付加するためには、信号の大きさ情報を用いて加えられるノイズの量を調節し、又は、心理音響モデルを使用して認知されていない大きさを加える。
一方、立体音響の値s(k)は、次のような条件を満足すべきである。
条件:チャネル信号に立体音響の値を加えるとしても、チャネル信号のパワーはそのまま維持されるべきである。(すなわち、xのパワーとxi_newパワーが同一であるべきである。)
上記の条件を満足するために、xとxi_newは、上記の数式10及び数式13で表現された通りであるので、次の式を満足すべきである。
Figure 2009524104
一方、数式17の右辺は、次のように展開される。
Figure 2009524104
したがって、数式18を数式17に代入すると、次のように整理される。
Figure 2009524104
上記の条件を満足するためには、数式19を満足すべきであるが、数式19を満足するαiは、次の式の通りである。
Figure 2009524104
ここで、sが数式14のように表現され、sのパワーがxのパワーと同一であると仮定するとき、数式20は次のように整理される。
Figure 2009524104
一方、cosθ+sinθ=1であるので、数式21は、次の式のように表現される。
Figure 2009524104
すなわち、上記の条件を満足するためのsは、x1_newが数式13で表現され、sが数式14で表現され、sのパワーがxのパワーと同一であると仮定するとき、数式22を満足するものである。
一方、 x1_newとx2_newとの相関関係は、次のように展開される。
Figure 2009524104
もし、上記の仮定のように、sとxのパワーと同一であると仮定するとき、数式23は、次のように整理される。
Figure 2009524104
一方、数式21を適用すると、数式24は、次の式のように表現される。
Figure 2009524104
すなわち、数式25を満足するθ及びθを用いてx1_new、x2_newを求めることができる。
このような方法は、単一音源xを有して振幅パニングの法則を用いる場合のみならず、独立した音源x,xを有する場合にも同一の方法を適用して、相関関係値ICを所望の程度に調節することによって立体感を向上又は減少させることができる。
以上のように、本発明は、限定された実施例と図面によって説明されたが、本発明は、これによって限定されるものでなく、本発明の属する技術分野で通常の知識を有する者によって、本発明の技術思想と特許請求の範囲の均等範囲内で多様な修正及び変形が可能である。
本発明は、使用者の必要(聴者の仮想位置、ソースの仮想位置)又は使用者の環境(出力可能なチャネルの数)に適するように、オーディオ信号を多様に変換させて再生するために用いられる。
本発明は、ゲームなどのコンテンツ提供者がコンテンツの特性によって多様な再生モードを使用者に提供するために用いられる。
本発明の一実施例に係る信号エンコーディング装置及び信号デコーディング装置の構成図である。 本発明の他の実施例に係る信号デコーディング装置の構成図である。 5−1−5ツリー構造である場合、チャネル間のレベル差と変換されたチャネル間のレベル差との関係を示した図である。 ITU勧告案によるスピーカーの配置を示した図である。 立体音響効果による仮想スピーカーの位置を示した図である。 立体音響効果による仮想スピーカーの位置を示した図である。 各スピーカー間の仮想音源の位置を示した図である。 ソース信号の仮想位置を示した図である。 ソース信号の仮想位置を示した図である。

Claims (12)

  1. オブジェクトパラメータを受信する段階と、
    前記オブジェクトパラメータをパーシングし、オブジェクト情報を抽出する段階と、
    ユーザーコントロール情報、デフォルトコントロール情報、装置コントロール情報、及び装置情報のうちの一つ以上を含むコントロール情報、及び前記オブジェクト情報を用いてコントロールパラメータを生成する段階と、
    前記オブジェクトパラメータ及び前記コントロールパラメータを用いて、出力信号におけるオブジェクトの位置とレベルを決定するレンダリングパラメータを生成する段階と、
    を含むことを特徴とする信号デコーディング方法。
  2. 前記レンダリングパラメータは、オブジェクト信号を複数チャンネルの出力信号にマッピングするものであることを特徴とする、請求項1に記載の信号デコーディング方法。
  3. 少なくとも一つのオブジェクト信号に基づいたオブジェクトダウンミックス信号を受信する段階と、
    前記レンダリングパラメータを前記オブジェクトダウンミックス信号に適用し、出力信号を生成する段階と、
    をさらに含むことを特徴とする、請求項1に記載の信号デコーディング方法。
  4. 前記オブジェクトパラメータは一つ以上のオブジェクト信号に該当するものであり、
    前記オブジェクト信号がソース信号である場合、前記コントロールパラメータは、前記ソース信号の仮想位置又は前記ソース信号のレベルに該当することを特徴とする、請求項1に記載の信号デコーディング方法。
  5. 前記コントロールパラメータは、一つ以上のソース信号を一括的に調節するためのものであることを特徴とする、請求項1に記載の信号デコーディング方法。
  6. 前記レンダリングパラメータは、相関関係を用いて前記出力信号に立体音響が付加されるようにするためのものであることを特徴とする、請求項1に記載の信号デコーディング方法。
  7. 前記立体音響とオブジェクトダウンミックス信号との相関関係が略‘0’であることを特徴とする、請求項6に記載の信号デコーディング方法。
  8. 前記立体音響は、出力信号のパワーに影響を与えないことを特徴とする、請求項6に記載の信号デコーディング方法。
  9. 前記立体音響は、オールパスフィルタ方式でデコーリレートされた信号であることを特徴とする、請求項6に記載の信号デコーディング方法。
  10. オブジェクトパラメータを受信し、前記オブジェクトパラメータをパーシングしてオブジェクト情報を抽出するオブジェクトパラメータ受信部と、
    ユーザーコントロール情報、デフォルトコントロール情報、装置コントロール情報、及び装置情報のうちの一つ以上を含むコントロール情報、及び前記オブジェクト情報を用いてコントロールパラメータを生成するコントロールパラメータ生成部と、
    前記オブジェクトパラメータ及び前記コントロールパラメータを用いて、出力信号におけるオブジェクトの位置とレベルを決定するレンダリングパラメータ生成するレンダリングパラメータ生成部と、
    を備えることを特徴とする信号デコーディング装置。
  11. 少なくとも一つのオブジェクト信号に基づいたオブジェクトダウンミックス信号に前記レンダリングパラメータを適用し、出力信号を生成するレンダリング部をさらに備えることを特徴とする、請求項10に記載の信号デコーディング装置。
  12. 前記レンダリングパラメータをエンコーディングし、レンダリングパラメータビットストリームを生成するレンダリングパラメータエンコーディング部をさらに備えることを特徴とする、請求項10に記載の信号デコーディング装置。
JP2008551198A 2006-01-19 2007-01-19 信号デコーディング方法及び装置 Active JP5161109B2 (ja)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US75998006P 2006-01-19 2006-01-19
US60/759,980 2006-01-19
US77255506P 2006-02-13 2006-02-13
US60/772,555 2006-02-13
US78717206P 2006-03-30 2006-03-30
US60/787,172 2006-03-30
US79143206P 2006-04-13 2006-04-13
US60/791,432 2006-04-13
KR10-2006-0097319 2006-10-02
KR1020060097319A KR20070081735A (ko) 2006-02-13 2006-10-02 오디오 신호의 인코딩/디코딩 방법 및 장치
US86525606P 2006-11-10 2006-11-10
US60/865,256 2006-11-10
PCT/KR2007/000348 WO2007083958A1 (en) 2006-01-19 2007-01-19 Method and apparatus for decoding a signal

Publications (2)

Publication Number Publication Date
JP2009524104A true JP2009524104A (ja) 2009-06-25
JP5161109B2 JP5161109B2 (ja) 2013-03-13

Family

ID=39648941

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008551197A Active JP5147727B2 (ja) 2006-01-19 2007-01-19 信号デコーディング方法及び装置
JP2008551198A Active JP5161109B2 (ja) 2006-01-19 2007-01-19 信号デコーディング方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008551197A Active JP5147727B2 (ja) 2006-01-19 2007-01-19 信号デコーディング方法及び装置

Country Status (5)

Country Link
US (2) US8296155B2 (ja)
EP (2) EP1974344A4 (ja)
JP (2) JP5147727B2 (ja)
KR (3) KR20080087909A (ja)
WO (1) WO2007083957A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010536299A (ja) * 2007-08-13 2010-11-25 エルジー エレクトロニクス インコーポレイティド リミキシング能力を有する向上したオーディオ
JP2011509591A (ja) * 2008-01-01 2011-03-24 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011509589A (ja) * 2008-01-01 2011-03-24 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011510589A (ja) * 2008-01-23 2011-03-31 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011518353A (ja) * 2008-04-16 2011-06-23 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2013514696A (ja) * 2009-12-17 2013-04-25 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9426596B2 (en) 2006-02-03 2016-08-23 Electronics And Telecommunications Research Institute Method and apparatus for control of randering multiobject or multichannel audio signal using spatial cue
SG175632A1 (en) * 2006-10-16 2011-11-28 Dolby Sweden Ab Enhanced coding and parameter representation of multichannel downmixed object coding
JP5337941B2 (ja) * 2006-10-16 2013-11-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マルチチャネル・パラメータ変換のための装置および方法
JP5220840B2 (ja) * 2007-03-30 2013-06-26 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート マルチチャネルで構成されたマルチオブジェクトオーディオ信号のエンコード、並びにデコード装置および方法
CN102968994B (zh) * 2007-10-22 2015-07-15 韩国电子通信研究院 多对象音频解码方法和设备
WO2009066959A1 (en) * 2007-11-21 2009-05-28 Lg Electronics Inc. A method and an apparatus for processing a signal
KR101061129B1 (ko) 2008-04-24 2011-08-31 엘지전자 주식회사 오디오 신호의 처리 방법 및 이의 장치
WO2010008198A2 (en) 2008-07-15 2010-01-21 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US8452430B2 (en) 2008-07-15 2013-05-28 Lg Electronics Inc. Method and an apparatus for processing an audio signal
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
KR101137361B1 (ko) * 2009-01-28 2012-04-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
US8255821B2 (en) * 2009-01-28 2012-08-28 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
WO2010087627A2 (en) * 2009-01-28 2010-08-05 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
KR101283783B1 (ko) * 2009-06-23 2013-07-08 한국전자통신연구원 고품질 다채널 오디오 부호화 및 복호화 장치
CN102484547A (zh) 2009-09-01 2012-05-30 松下电器产业株式会社 数字广播发送装置、数字广播接收装置以及数字广播收发系统
CN102473417B (zh) 2010-06-09 2015-04-08 松下电器(美国)知识产权公司 频带扩展方法、频带扩展装置、集成电路及音频解码装置
EP2943952A1 (en) * 2013-01-14 2015-11-18 Koninklijke Philips N.V. Multichannel encoder and decoder with efficient transmission of position information
EP2879131A1 (en) * 2013-11-27 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder, encoder and method for informed loudness estimation in object-based audio coding systems
CN109996166B (zh) * 2014-01-16 2021-03-23 索尼公司 声音处理装置和方法、以及程序
MX357405B (es) 2014-03-24 2018-07-09 Samsung Electronics Co Ltd Metodo y aparato de reproduccion de señal acustica y medio de grabacion susceptible de ser leido en computadora.
WO2015147435A1 (ko) * 2014-03-25 2015-10-01 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 시스템 및 방법
WO2015147433A1 (ko) * 2014-03-25 2015-10-01 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 장치 및 방법
KR102343453B1 (ko) * 2014-03-28 2021-12-27 삼성전자주식회사 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR102302672B1 (ko) 2014-04-11 2021-09-15 삼성전자주식회사 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
AU2016312404B2 (en) * 2015-08-25 2020-11-26 Dolby International Ab Audio decoder and decoding method
CN116709161A (zh) 2016-06-01 2023-09-05 杜比国际公司 将多声道音频内容转换成基于对象的音频内容的方法及用于处理具有空间位置的音频内容的方法
KR102561371B1 (ko) 2016-07-11 2023-08-01 삼성전자주식회사 디스플레이장치와, 기록매체

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236499A (ja) * 2000-12-06 2002-08-23 Matsushita Electric Ind Co Ltd 音楽信号圧縮装置、音楽信号圧縮伸張装置及び前処理制御装置
JP2006050241A (ja) * 2004-08-04 2006-02-16 Matsushita Electric Ind Co Ltd 復号化装置
WO2006050112A2 (en) * 2004-10-28 2006-05-11 Neural Audio Corp. Audio spatial environment engine

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2004A (en) * 1841-03-12 Improvement in the manner of constructing and propelling steam-vessels
US5166685A (en) * 1990-09-04 1992-11-24 Motorola, Inc. Automatic selection of external multiplexer channels by an A/D converter integrated circuit
US5632005A (en) * 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
DE4217276C1 (ja) 1992-05-25 1993-04-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung Ev, 8000 Muenchen, De
DE4236989C2 (de) 1992-11-02 1994-11-17 Fraunhofer Ges Forschung Verfahren zur Übertragung und/oder Speicherung digitaler Signale mehrerer Kanäle
DE69428939T2 (de) 1993-06-22 2002-04-04 Deutsche Thomson-Brandt Gmbh Verfahren zur Erhaltung einer Mehrkanaldekodiermatrix
EP0637191B1 (en) 1993-07-30 2003-10-22 Victor Company Of Japan, Ltd. Surround signal processing apparatus
ATE208120T1 (de) * 1994-02-25 2001-11-15 Henrik Moller Binaurale synthese, kopfbezogene übertragungsfunktion, und ihre verwendung
JP3397001B2 (ja) 1994-06-13 2003-04-14 ソニー株式会社 符号化方法及び装置、復号化装置、並びに記録媒体
US5703584A (en) * 1994-08-22 1997-12-30 Adaptec, Inc. Analog data acquisition system
JPH0875945A (ja) * 1994-09-06 1996-03-22 Fujitsu Ltd 導波路型光デバイスの構造およびその製造方法
JPH08123494A (ja) 1994-10-28 1996-05-17 Mitsubishi Electric Corp 音声符号化装置、音声復号化装置、音声符号化復号化方法およびこれらに使用可能な位相振幅特性導出装置
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
JPH08202397A (ja) 1995-01-30 1996-08-09 Olympus Optical Co Ltd 音声復号化装置
JP3088319B2 (ja) 1996-02-07 2000-09-18 松下電器産業株式会社 デコード装置およびデコード方法
US6711266B1 (en) 1997-02-07 2004-03-23 Bose Corporation Surround sound channel encoding and decoding
US6307941B1 (en) 1997-07-15 2001-10-23 Desper Products, Inc. System and method for localization of virtual sound
ATE501606T1 (de) 1998-03-25 2011-03-15 Dolby Lab Licensing Corp Verfahren und vorrichtung zur verarbeitung von audiosignalen
US6574339B1 (en) * 1998-10-20 2003-06-03 Samsung Electronics Co., Ltd. Three-dimensional sound reproducing apparatus for multiple listeners and method thereof
JP3346556B2 (ja) 1998-11-16 2002-11-18 日本ビクター株式会社 音声符号化方法及び音声復号方法
KR100416757B1 (ko) 1999-06-10 2004-01-31 삼성전자주식회사 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법
KR20010009258A (ko) 1999-07-08 2001-02-05 허진호 가상 멀티 채널 레코딩 시스템
US6864913B2 (en) 1999-12-23 2005-03-08 Harry L. Tarnoff Method and apparatus for a reconfigurable digital processor for film conversion
US6973130B1 (en) 2000-04-25 2005-12-06 Wee Susie J Compressed video signal including information for independently coded regions
WO2004019656A2 (en) 2001-02-07 2004-03-04 Dolby Laboratories Licensing Corporation Audio channel spatial translation
JP3566220B2 (ja) 2001-03-09 2004-09-15 三菱電機株式会社 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法
US7583805B2 (en) 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
US20030120966A1 (en) 2001-12-21 2003-06-26 Moller Hanan Z. Method for encoding/decoding a binary signal state in a fault tolerant environment
CN1288625C (zh) 2002-01-30 2006-12-06 松下电器产业株式会社 音频编码与解码设备及其方法
EP1341160A1 (en) 2002-03-01 2003-09-03 Deutsche Thomson-Brandt Gmbh Method and apparatus for encoding and for decoding a digital information signal
EP1500084B1 (en) 2002-04-22 2008-01-23 Koninklijke Philips Electronics N.V. Parametric representation of spatial audio
JP4296752B2 (ja) * 2002-05-07 2009-07-15 ソニー株式会社 符号化方法及び装置、復号方法及び装置、並びにプログラム
TWI233606B (en) 2002-05-22 2005-06-01 Sanyo Electric Co Decode device
AU2003244932A1 (en) 2002-07-12 2004-02-02 Koninklijke Philips Electronics N.V. Audio coding
US7555434B2 (en) * 2002-07-19 2009-06-30 Nec Corporation Audio decoding device, decoding method, and program
EP1554716A1 (en) 2002-10-14 2005-07-20 Koninklijke Philips Electronics N.V. Signal filtering
WO2004036548A1 (en) 2002-10-14 2004-04-29 Thomson Licensing S.A. Method for coding and decoding the wideness of a sound source in an audio scene
US20060120534A1 (en) 2002-10-15 2006-06-08 Jeong-Il Seo Method for generating and consuming 3d audio scene with extended spatiality of sound source
EP1552723A4 (en) 2002-10-15 2010-02-17 Korea Electronics Telecomm APPARATUS AND METHOD FOR ADAPTING AUDIO SIGNAL TO THE PREFERENCE OF A USER
KR100917464B1 (ko) 2003-03-07 2009-09-14 삼성전자주식회사 대역 확장 기법을 이용한 디지털 데이터의 부호화 방법,그 장치, 복호화 방법 및 그 장치
JP4617644B2 (ja) * 2003-07-18 2011-01-26 ソニー株式会社 符号化装置及び方法
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
RU2374703C2 (ru) 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
KR100459274B1 (ko) 2004-04-30 2004-12-03 주식회사 에이로직스 영상 압축 및 복원방법과 그 장치
KR100636144B1 (ko) * 2004-06-04 2006-10-18 삼성전자주식회사 오디오 신호 부호화/복호화 장치 및 방법
SE0402650D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236499A (ja) * 2000-12-06 2002-08-23 Matsushita Electric Ind Co Ltd 音楽信号圧縮装置、音楽信号圧縮伸張装置及び前処理制御装置
JP2006050241A (ja) * 2004-08-04 2006-02-16 Matsushita Electric Ind Co Ltd 復号化装置
WO2006050112A2 (en) * 2004-10-28 2006-05-11 Neural Audio Corp. Audio spatial environment engine

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6010003160; Christor Faller, Frank Baumgarte: 'Binaural Cue Coding - Part II: Schemes and Applications' IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING VOL.11, NO.6, 200311, P.520-531, IEEE *
JPN6011027249; Christof Faller, Frank Baumgarte: 'EFFICIENT REPRESENTATION OF SPATIAL AUDIO USING PERCEPTUAL PARAMETRIZATION' Proceedings of the 2001 IEEE Workshop on the Applications of Signal Processing to Audio and Acoustic , 20011021, p.199-202 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010536299A (ja) * 2007-08-13 2010-11-25 エルジー エレクトロニクス インコーポレイティド リミキシング能力を有する向上したオーディオ
US8295494B2 (en) 2007-08-13 2012-10-23 Lg Electronics Inc. Enhancing audio with remixing capability
JP2011509591A (ja) * 2008-01-01 2011-03-24 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011509589A (ja) * 2008-01-01 2011-03-24 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011509590A (ja) * 2008-01-01 2011-03-24 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011509588A (ja) * 2008-01-01 2011-03-24 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011510589A (ja) * 2008-01-23 2011-03-31 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2011518353A (ja) * 2008-04-16 2011-06-23 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP2013514696A (ja) * 2009-12-17 2013-04-25 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法
US9196257B2 (en) 2009-12-17 2015-11-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal

Also Published As

Publication number Publication date
KR20080086445A (ko) 2008-09-25
KR20080042128A (ko) 2008-05-14
KR101366291B1 (ko) 2014-02-21
US8239209B2 (en) 2012-08-07
KR100885700B1 (ko) 2009-02-26
JP5147727B2 (ja) 2013-02-20
US20080319765A1 (en) 2008-12-25
US8296155B2 (en) 2012-10-23
JP5161109B2 (ja) 2013-03-13
EP1974344A4 (en) 2011-06-08
EP1974343A1 (en) 2008-10-01
EP1974344A1 (en) 2008-10-01
US20090006106A1 (en) 2009-01-01
WO2007083957A1 (en) 2007-07-26
JP2009524103A (ja) 2009-06-25
KR20080087909A (ko) 2008-10-01
EP1974343A4 (en) 2011-05-04

Similar Documents

Publication Publication Date Title
JP5161109B2 (ja) 信号デコーディング方法及び装置
RU2510906C2 (ru) Устройство и способ генерирования выходных звуковых сигналов посредством использования объектно-ориентированных метаданных
Engdegard et al. Spatial audio object coding (SAOC)—the upcoming MPEG standard on parametric object based audio coding
RU2558612C2 (ru) Декодер аудиосигнала, способ декодирования аудиосигнала и компьютерная программа с использованием ступеней каскадной обработки аудиообъектов
TWI443647B (zh) 用以將以物件為主之音訊信號編碼與解碼之方法與裝置
JP5646699B2 (ja) マルチチャネル・パラメータ変換のための装置および方法
US20170125030A1 (en) Spatial audio rendering and encoding
US8213622B2 (en) Binaural sound localization using a formant-type cascade of resonators and anti-resonators
JP5238707B2 (ja) オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置
TWI322630B (en) Device and method for generating an encoded stereo signal of an audio piece or audio datastream,and a computer program for generation an encoded stereo signal
US20120039477A1 (en) Audio signal synthesizing
JP2005229612A (ja) 聴覚情景の後部残響音ベースの合成
Breebaart et al. Spatial audio object coding (SAOC)-the upcoming MPEG standard on parametric object based audio coding
JP2010538572A (ja) オーディオ信号デコーディング方法及び装置
JP2008513845A (ja) 音声データを処理するシステム及び方法、プログラム要素並びにコンピュータ読み取り可能媒体
CN101361115A (zh) 解码信号的方法和装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121018

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121213

R150 Certificate of patent or registration of utility model

Ref document number: 5161109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250