JP6121052B2 - マルチメディア信号処理方法および装置 - Google Patents

マルチメディア信号処理方法および装置 Download PDF

Info

Publication number
JP6121052B2
JP6121052B2 JP2016515421A JP2016515421A JP6121052B2 JP 6121052 B2 JP6121052 B2 JP 6121052B2 JP 2016515421 A JP2016515421 A JP 2016515421A JP 2016515421 A JP2016515421 A JP 2016515421A JP 6121052 B2 JP6121052 B2 JP 6121052B2
Authority
JP
Japan
Prior art keywords
subband
signal
filter
channel
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016515421A
Other languages
English (en)
Other versions
JP2016534586A (ja
Inventor
ヒョンオ オ
ヒョンオ オ
テキョ リ
テキョ リ
Original Assignee
ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド
ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド, ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド filed Critical ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド
Publication of JP2016534586A publication Critical patent/JP2016534586A/ja
Application granted granted Critical
Publication of JP6121052B2 publication Critical patent/JP6121052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0223Computation saving measures; Accelerating measures
    • H03H17/0227Measures concerning the coefficients
    • H03H17/0229Measures concerning the coefficients reducing the number of taps
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0248Filters characterised by a particular frequency response or filtering method
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0248Filters characterised by a particular frequency response or filtering method
    • H03H17/0264Filter sets with mutual related characteristics
    • H03H17/0266Filter banks
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0248Filters characterised by a particular frequency response or filtering method
    • H03H17/0264Filter sets with mutual related characteristics
    • H03H17/0272Quadrature mirror filters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H21/00Adaptive networks
    • H03H21/0012Digital adaptive filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Description

本発明は、マルチメディア信号を効果的に再生するための信号処理方法および装置に関し、より詳しくは、複数のサブバンドを有するマルチメディア信号のフィルタリングを低演算量で実現するためのマルチメディア信号処理方法および装置に関する。
マルチチャネル信号をステレオで聴取するためのバイノーラルレンダリング(binaural rendering)は、ターゲットフィルタの長さが増加するほど多くの演算量が求められるという問題がある。特に、録音室の特性を反映したBRIR(Binaural Room Impulse Response)フィルタを用いる場合、その長さは48,000〜96,000サンプルに達したりもする。ここで、22.2チャネルフォーマットのように入力チャネル数が増加すれば、その演算量は莫大である。
i番目のチャネルの入力信号をxi(n)、該チャネルの左、右BRIRフィルタを各々bi L(n)、bi R(n)、出力信号をyL(n)、yR(n)とすれば、バイノーラルフィルタリング(binaural filtering)は次のような式で表すことができる。
(数式1)
ここで、*はコンボリューション(convolution)を意味する。上記の時間−ドメインコンボリューションは一般的に高速フーリエ変換(Fast Fourier Transform、FFT)に基づいた高速コンボリューション(fast convolution)を用いて行われる。高速コンボリューションを用いてバイノーラルレンダリングを行う場合、入力チャネル数に該当する回数のFFTと出力チャネル数に該当する回数の逆高速フーリエ変換(Inverse FFT)を実行しなければならない。その上、マルチチャネルオーディオコーデックのようにリアルタイム再生環境の場合にディレイを考慮しなければならないため、ブロック単位(block−wise)の高速コンボリューションを実行しなければならず、これは全体長さに対して単に高速コンボリューションを実行した時よりさらに多くの演算量を消耗する。
しかし、大半のコード体系(coding scheme)は周波数ドメインで行われ、一部のコード体系(例えば、HE−AAC、USACなど)の場合、復号化過程の最後の段階がQMFドメインで行われる。よって、上記の数式1のようにバイノーラルフィルタリングが時間ドメインで行われる場合、チャネル数だけのQMF合成(QMF synthesis)のための演算がさらに必要であるために非常に非効率的である。よって、バイノーラルレンダリングをQMFドメインにおいて直接実行する場合に利得がある。
本発明は、マルチチャネルあるいはマルチオブジェクト信号をステレオで再生するにおいて、原信号のような立体感を保存するためのバイノーラルレンダリングにおいて多くの演算量を必要とするフィルタリング過程を音質損失を最小化し、且つ、非常に低い演算量で実現することを目的とする。
また、本発明は、入力信号そのものに歪みがある場合、高品質フィルタを介して歪みの拡散が発生することを最小化することを目的とする。
また、本発明は、非常に長い長さを有するFIR(Finite Impulse Response)フィルタをさらに小さい長さのフィルタに実現することを目的とする。
さらに、本発明は、縮約されたFIRフィルタを用いたフィルタリングの実行時、抜け落ちたフィルタ係数によって損傷した部分の歪みを最小化することを目的とする。
前記のような課題を解決するために、本発明は、次のようなオーディオ信号処理方法およびオーディオ信号処理装置を提供する。
先ず、本発明は、マルチチャネルまたはマルチオブジェクト信号を含むマルチオーディオ信号を受信するステップ;前記マルチオーディオ信号のフィルタリングのための切断されたサブバンドフィルタ係数を受信するステップ、前記切断されたサブバンドフィルタ係数は前記マルチオーディオ信号のバイノーラルフィルタリングのためのBRIR(Binaural Room Impulse Response)フィルタ係数から得られたサブバンドフィルタ係数の少なくとも一部分であり、前記切断されたサブバンドフィルタ係数の長さは該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて決められ、少なくとも一つの前記切断されたサブバンドフィルタ係数の長さは他サブバンドの切断されたサブバンドフィルタ係数の長さと異なる;および前記マルチオーディオ信号の各サブバンド信号に対応する前記切断されたサブバンドフィルタ係数を用いて前記サブバンド信号をフィルタリングするステップ;を含むことを特徴とするオーディオ信号処理方法を提供する。
また、マルチチャネルまたはマルチオブジェクト信号を含むマルチオーディオ信号に対するバイノーラルレンダリングを行うためのオーディオ信号処理装置であって、前記マルチオーディオ信号は各々複数のサブバンド信号を含み、前記各サブバンド信号に対する直接音および初期反射音パートのレンダリングを行うための高速コンボリューション部;および前記各サブバンド信号に対する後期残響パートのレンダリングを行うための後期残響生成部を含み、前記高速コンボリューション部は前記マルチオーディオ信号のフィルタリングのための切断されたサブバンドフィルタ係数を受信し、前記切断されたサブバンドフィルタ係数は前記マルチオーディオ信号のバイノーラルフィルタリングのためのBRIR(Binaural Room Impulse Response)フィルタ係数から得られたサブバンドフィルタ係数の少なくとも一部分であり、前記切断されたサブバンドフィルタ係数の長さは該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて決められ、少なくとも一つの前記切断されたサブバンドフィルタ係数の長さは他サブバンドの切断されたサブバンドフィルタ係数の長さと異なる、前記マルチオーディオ信号の各サブバンド信号に対応する前記切断されたサブバンドフィルタ係数を用いて前記サブバンド信号をフィルタリングすることを特徴とするオーディオ信号処理装置を提供する。
この時、前記特性情報は該サブバンドフィルタ係数の第1残響時間情報を含み、前記フィルタ次数情報は各サブバンド別に一つの値を有することを特徴とする。
また、前記切断されたサブバンドフィルタの長さは2の累乗の倍数値を有することを特徴とする。
本発明の実施形態によれば、前記複数のサブバンドフィルタ係数および複数のサブバンド信号は各々既に設定された周波数バンドを基準にした低周波数の第1サブバンドグループと高周波数の第2サブバンドグループとを含み、前記フィルタリングするステップは前記第1サブバンドグループの切断されたサブバンドフィルタ係数およびサブバンド信号に対して行われることを特徴とする。
また、本発明の実施形態によれば、前記フィルタリングするステップは該サブバンドフィルタ係数の第1残響時間情報に少なくとも部分的に基づいて切断されたフロントサブバンドフィルタ係数を用いて行われ、前記サブバンドフィルタ係数のうちの前記フロントサブバンドフィルタ係数以後の区間に対応する前記サブバンド信号の残響処理ステップをさらに含むことを特徴とする。
この時、前記残響処理ステップは、各サブバンドに対するダウンミックスサブバンドフィルタ係数を受信するステップ、前記ダウンミックスサブバンドフィルタ係数は該サブバンドの各チャネル別または各オブジェクト別のリヤサブバンドフィルタ係数を組み合わせて生成され、前記リヤサブバンドフィルタ係数は該サブバンドフィルタ係数のうちの前記フロントサブバンドフィルタ係数以後の区間から得られる;前記各サブバンドに対するダウンミックスサブバンド信号を生成するステップ、前記ダウンミックスサブバンド信号は該サブバンドの各チャネル別または各オブジェクト別のサブバンド信号をダウンミックスして生成される;および前記ダウンミックスサブバンド信号とそれに対応する前記ダウンミックスサブバンドフィルタ係数を用いて2チャネルの左、右サブバンド残響信号を生成するステップを含むことを特徴とする。
本発明の一実施形態によれば、前記ダウンミックスサブバンド信号はモノサブバンド信号であり、前記ダウンミックスサブバンドフィルタ係数は該サブバンド信号に対する残響部のエネルギー減少特性を反映し、前記フィルタリングされたモノサブバンド信号に対する非相関(decorrelation)信号を生成するステップ;および前記フィルタリングされたモノサブバンド信号と前記非相関信号間の加重和を行って2チャネルの左、右信号を生成するステップをさらに含むことを特徴とする。
本発明の他の実施形態によれば、マルチチャネルまたはマルチオブジェクト信号を含むマルチオーディオ信号を受信するステップ、前記マルチオーディオ信号は各々複数のサブバンド信号を含み、前記複数のサブバンド信号は既に設定された周波数バンドを基準にした低周波数の第1サブバンドグループの信号と高周波数の第2サブバンドグループの信号を含む;前記第2サブバンドグループの各サブバンド信号に対応する少なくとも一つのパラメータを受信するステップ、前記少なくとも一つのパラメータは前記第2サブバンドグループの各サブバンド信号に対応するBRIR(Binaural Room Impulse Response)サブバンドフィルタ係数から抽出される;前記受信されたパラメータを用いて前記第2サブバンドグループのサブバンド信号に対してタップ−ディレイラインフィルタリングを行うステップ;を含むことを特徴とするオーディオ信号処理方法を提供する。
また、マルチチャネルまたはマルチオブジェクト信号を含むマルチオーディオ信号に対するバイノーラルレンダリングを行うためのオーディオ信号処理装置であって、前記マルチオーディオ信号は各々複数のサブバンド信号を含み、前記複数のサブバンド信号は既に設定された周波数バンドを基準にした低周波数の第1サブバンドグループの信号と高周波数の第2サブバンドグループの信号とを含み、前記第1サブバンドグループの各サブバンド信号に対するレンダリングを行うための高速コンボリューション部;および前記第2サブバンドグループの各サブバンド信号に対するレンダリングを行うためのタップ−ディレイラインプロセッシング部を含み、前記タップ−ディレイラインプロセッシング部は前記第2サブバンドグループの各サブバンド信号に対応する少なくとも一つのパラメータを受信し、前記少なくとも一つのパラメータは前記第2サブバンドグループの各サブバンド信号に対応するBRIR(Binaural Room Impulse Response)サブバンドフィルタ係数から抽出され、前記受信されたパラメータを用いて前記第2サブバンドグループのサブバンド信号に対してタップ−ディレイラインフィルタリングを行うことを特徴とするオーディオ信号処理装置を提供する。
この時、前記パラメータは該BRIRサブバンドフィルタ係数に対する一つのディレイ情報および前記ディレイ情報に対応する一つのゲイン情報を含むことを特徴とする。
本発明の実施形態によれば、前記タップ−ディレイラインフィルタリングは前記パラメータを用いたワン−タップ−ディレイラインフィルタリングであることを特徴とする。
また、前記ディレイ情報は前記BRIRサブバンドフィルタ係数のうち最大ピークに対する位置情報を示すことを特徴とする。
また、前記ディレイ情報はQMFドメインにおいてサンプル単位の整数値を有することを特徴とする。
また、前記ゲイン情報は複素数値を有することを特徴とする。
本発明の一実施形態によれば、前記フィルタリングされたマルチオーディオ信号を各サブバンド別に2チャネルの左、右サブバンド信号に合算するステップ;前記合算された左、右サブバンド信号を前記第1サブバンドグループのマルチオーディオ信号から生成された左、右サブバンド信号と結合するステップ;および前記結合された左、右サブバンド信号を各々QMF合成するステップ;をさらに含むことを特徴とする。
本発明のまた他の実施形態によれば、複数のサブバンドを有するマルチメディア信号を受信するステップ;前記マルチメディア信号の各サブバンド信号のフィルタリングのための少なくとも一つの原型(proto−type)フィルタ係数を受信するステップ;前記原型フィルタ係数を複数のサブバンドフィルタ係数に変換するステップ;前記各サブバンドフィルタ係数を該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて切断するステップ、少なくとも一つの前記切断されたサブバンドフィルタ係数の長さは他サブバンドの切断されたサブバンドフィルタ係数の長さと異なる;および前記各サブバンド信号に対応する前記切断されたサブバンドフィルタ係数を用いて前記マルチメディア信号をフィルタリングするステップ;を含むことを特徴とするマルチメディア信号処理方法を提供する。
また、複数のサブバンドを有するマルチメディア信号処理装置であって、前記マルチメディア信号の各サブバンド信号のフィルタリングのための少なくとも一つの原型(proto−type)レンダリングフィルタ係数を受信し、前記原型フィルタ係数を複数のサブバンドフィルタ係数に変換し、前記各サブバンドフィルタ係数を該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて切断し、少なくとも一つの前記切断されたサブバンドフィルタ係数の長さは他サブバンドの切断されたサブバンドフィルタ係数の長さと異なる、パラメータ化部;および前記マルチメディア信号を受信し、前記各サブバンド信号に対応する前記切断されたサブバンドフィルタ係数を用いて前記マルチメディア信号をフィルタリングするレンダリングユニット;を含むことを特徴とするマルチメディア信号処理装置を提供する。
この時、前記マルチメディア信号はマルチチャネルまたはマルチオブジェクト信号を含み、前記原型フィルタ係数は時間ドメインのBRIRフィルタ係数であることを特徴とする。
また、前記特性情報は該サブバンドフィルタ係数のエネルギー減衰時間情報を含み、前記フィルタ次数情報は各サブバンド別に一つの値を有することを特徴とする。
本発明のまた他の実施形態によれば、マルチチャネルまたはマルチオブジェクト信号を含むマルチオーディオ信号を受信するステップ、前記マルチオーディオ信号は各々複数のサブバンド信号を含み、前記複数のサブバンド信号は既に設定された周波数バンドを基準にした低周波数の第1サブバンドグループの信号と高周波数の第2サブバンドグループの信号とを含む;前記第1サブバンドグループの前記マルチオーディオ信号のフィルタリングのための切断されたサブバンドフィルタ係数を受信するステップ、前記切断されたサブバンドフィルタ係数は前記マルチオーディオ信号のバイノーラルフィルタリングのためのBRIR(Binaural Room Impulse Response)フィルタ係数から得られた第1サブバンドグループのサブバンドフィルタ係数の少なくとも一部分であり、前記切断されたサブバンドフィルタ係数の長さは該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて決められる;および前記切断されたサブバンドフィルタ係数を用いて前記第1サブバンドグループのサブバンド信号をフィルタリングするステップ;前記第2サブバンドグループの各サブバンド信号に対応する少なくとも一つのパラメータを受信するステップ、前記少なくとも一つのパラメータは前記第2サブバンドグループの各サブバンド信号に対応するサブバンドフィルタ係数から抽出される;および前記受信されたパラメータを用いて前記第2サブバンドグループのサブバンド信号に対してタップ−ディレイラインフィルタリングを行うステップ;を含むことを特徴とするオーディオ信号処理方法を提供する。
また、マルチチャネルまたはマルチオブジェクト信号を含むマルチオーディオ信号に対するバイノーラルレンダリングを行うためのオーディオ信号処理装置であって、前記マルチオーディオ信号は各々複数のサブバンド信号を含み、前記複数のサブバンド信号は既に設定された周波数バンドを基準にした低周波数の第1サブバンドグループの信号と高周波数の第2サブバンドグループの信号とを含み、前記第1サブバンドグループの各サブバンド信号に対するレンダリングを行うための高速コンボリューション部;および前記第2サブバンドグループの各サブバンド信号に対するレンダリングを行うためのタップ−ディレイラインプロセッシング部を含み、前記高速コンボリューション部は前記第1サブバンドグループの前記マルチオーディオ信号のフィルタリングのための切断されたサブバンドフィルタ係数を受信し、前記切断されたサブバンドフィルタ係数は前記マルチオーディオ信号のバイノーラルフィルタリングのためのBRIR(Binaural Room Impulse Response)フィルタ係数から得られた第1サブバンドグループのサブバンドフィルタ係数の少なくとも一部分であり、前記切断されたサブバンドフィルタ係数の長さは該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて決められ、前記切断されたサブバンドフィルタ係数を用いて前記第1サブバンドグループのサブバンド信号をフィルタリングし、前記タップ−ディレイラインプロセッシング部は前記第2サブバンドグループの各サブバンド信号に対応する少なくとも一つのパラメータを受信し、前記少なくとも一つのパラメータは前記第2サブバンドグループの各サブバンド信号に対応するBRIR(Binaural Room Impulse Response)サブバンドフィルタ係数から抽出され、前記受信されたパラメータを用いて前記第2サブバンドグループのサブバンド信号に対してタップ−ディレイラインフィルタリングを行うことを特徴とするオーディオ信号処理装置を提供する。
この時、前記第1サブバンドグループのサブバンド信号をフィルタリングして生成された2チャネルの左、右サブバンド信号と前記第2サブバンドグループのサブバンド信号をタップ−ディレイラインフィルタリングして生成された2チャネルの左、右サブバンド信号を結合するステップ;および前記結合された左、右サブバンド信号を各々QMF合成するステップ;をさらに含むことを特徴とする。
本発明の実施形態によれば、マルチチャネルあるいはマルチオブジェクト信号に対するバイノーラルレンダリングの実行時に音質の損失を最小化し、且つ、演算量を画期的に減らすことができる。
本発明の実施形態によれば、従来の低電力装置においてリアルタイム処理が不可能であったマルチチャネルあるいはマルチオブジェクトオーディオ信号に対する高音質のバイノーラルレンダリングが可能となるようにする。
本発明の実施形態によるオーディオ信号デコーダを示すブロック図である。 本発明の一実施形態によるバイノーラルレンダラーの各構成を示すブロック図である。 本発明に係るオーディオ信号処理装置の様々な実施形態を示す図である。 本発明に係るオーディオ信号処理装置の様々な実施形態を示す図である。 本発明に係るオーディオ信号処理装置の様々な実施形態を示す図である。 本発明に係るオーディオ信号処理装置の様々な実施形態を示す図である。 本発明に係るオーディオ信号処理装置の様々な実施形態を示す図である。 本発明の実施形態によるバイノーラルレンダリングのためのFIRフィルタ生成方法を示す図である。 本発明の実施形態によるバイノーラルレンダリングのためのFIRフィルタ生成方法を示す図である。 本発明の実施形態によるバイノーラルレンダリングのためのFIRフィルタ生成方法を示す図である。 本発明のP−パートレンダリング部の様々な実施形態を示す図である。 本発明のP−パートレンダリング部の様々な実施形態を示す図である。 本発明のP−パートレンダリング部の様々な実施形態を示す図である。 本発明のP−パートレンダリング部の様々な実施形態を示す図である。 本発明のQTDLプロセッシングの様々な実施形態を示す図である。 本発明のQTDLプロセッシングの様々な実施形態を示す図である。
本明細書で用いられる用語は本発明における機能を考慮して可能な限り現在広く用いられる一般的な用語を選択しているが、これは当分野における技術者の意図、慣例または新しい技術の出現などによって異なりうる。また、特定の場合には出願人が任意に選定した用語もあり、この場合には該発明の説明の部分でその意味を記載することにする。よって、本明細書で用いられる用語は、単純な用語の名称でなく、その用語が有した実質的な意味と本明細書の全般にわたった内容に基づいて解釈しなければならないということを明らかにしておく。
図1は、本発明の実施形態によるオーディオ信号デコーダを示すブロック図である。本発明のオーディオ信号デコーダは、コアデコーダ10、レンダリングユニット20、ミキサー30、およびポストプロセッシングユニット40を含む。
先ず、コアデコーダ10は、スピーカ(loudspeaker)チャネル信号、個別(discrete)オブジェクト信号、オブジェクトダウンミックス信号および事前−レンダリングされた(pre−rendered)信号などを復号化する。一実施形態によれば、前記コアデコーダ10においては、USAC(Unified Speech and Audio Coding)ベースのコーデックが用いられることができる。コアデコーダ10は、受信されたビットストリームを復号化してレンダリングユニット20に伝達する。
レンダリングユニット20は、コアデコーダ10によって復号化された信号を再生レイアウト(reproduction layout)情報を用いてレンダリングする。レンダリングユニット20は、フォーマットコンバータ22、オブジェクトレンダラー24、OAMデコーダ25、SAOCデコーダ26およびHOAデコーダ28を含むことができる。レンダリングユニット20は、復号化された信号のタイプに応じて前記構成のうちいずれか一つを用いてレンダリングを行う。
フォーマットコンバータ22は、送信されたチャネル信号を出力スピーカチャネル信号に変換する。すなわち、フォーマットコンバータ22は、送信されたチャネル構成(configuration)と再生しようとするスピーカチャネル構成間の変換を行う。仮に、出力スピーカチャネルの個数(例えば、5.1チャネル)が送信されたチャネルの個数(例えば、22.2チャネル)より少ないかまたは送信されたチャネル構成と再生しようとするチャネル構成が異なる場合、フォーマットコンバータ22は送信されたチャネル信号に対するダウンミックスを行う。本発明のオーディオ信号デコーダは、入力チャネル信号と出力スピーカチャネル信号間の組み合わせを用いて最適のダウンミックスマトリックスを生成し、前記マトリックスを用いてダウンミックスを行うことができる。本発明の実施形態によれば、フォーマットコンバータ22が処理するチャネル信号には事前−レンダリングされたオブジェクト信号が含まれることができる。一実施形態によれば、オーディオ信号の符号化前に少なくとも一つのオブジェクト信号が事前−レンダリングされてチャネル信号にミックス(mix)できる。このようにミックスされたオブジェクト信号は、チャネル信号と共にフォーマットコンバータ22によって出力スピーカチャネル信号に変換されることができる。
オブジェクトレンダラー24およびSAOCデコーダ26は、オブジェクトベースのオーディオ信号に対するレンダリングを行う。オブジェクトベースのオーディオ信号には、個別オブジェクトウェーブフォームとパラメトリックオブジェクトウェーブフォームが含まれることができる。個別オブジェクトウェーブフォームの場合、各オブジェクト信号はモノフォニック(monophonic)ウェーブフォームでエンコーダに提供され、エンコーダは単一チャネルエレメント(Single Channel Elements、SCEs)を用いて各オブジェクト信号を送信する。パラメトリックオブジェクトウェーブフォームの場合、複数のオブジェクト信号が少なくとも一つのチャネル信号にダウンミックスされ、各オブジェクトの特徴とこれら間の関係がSAOC(Spatial Audio Object Coding)パラメータで表現される。オブジェクト信号はダウンミックスされてコアコーデックで符号化され、この時に生成されるパラメトリック情報が共にデコーダに送信される。
一方、個別オブジェクトウェーブフォームまたはパラメトリックオブジェクトウェーブフォームがオーディオ信号デコーダに送信される時、それに対応する圧縮されたオブジェクトメタデータが共に送信されることができる。オブジェクトメタデータは、オブジェクト属性を時間と空間単位で量子化して3次元空間における各オブジェクトの位置およびゲイン値を指定する。レンダリングユニット20のOAMデコーダ25は圧縮されたオブジェクトメタデータを受信し、それを復号化してオブジェクトレンダラー24および/またはSAOCデコーダ26に伝達する。
オブジェクトレンダラー24は、オブジェクトメタデータを用いて各オブジェクト信号を与えられた再生フォーマットに応じてレンダリングする。この時、各オブジェクト信号は、オブジェクトメタデータに基づいて特定の出力チャネルにレンダリングされることができる。SAOCデコーダ26は、復号化されたSAOC送信チャネルとパラメトリック情報からオブジェクト/チャネル信号を復元する。前記SAOCデコーダ26は、再生レイアウト情報とオブジェクトメタデータに基づいて出力オーディオ信号を生成することができる。このように、オブジェクトレンダラー24およびSAOCデコーダ26はオブジェクト信号をチャネル信号にレンダリングすることができる。
HOAデコーダ28は、HOA(Higher Order Ambisonics)信号およびHOA付加情報を受信し、それを復号化する。HOAデコーダ28は、チャネル信号やオブジェクト信号を別途の数式でモデリングしてサウンドシーン(sound scene)を生成する。生成されたサウンドシーンにおいてスピーカがある空間上の位置を選択すれば、スピーカチャネル信号にレンダリングが行われることができる。
一方、図1には示されていないが、レンダリングユニット20の各構成要素にオーディオ信号が伝達される時、前処理過程としてダイナミックレンジ制御(Dynamic Range Control、DRC)が行われることができる。DRCは再生するオーディオ信号の動的範囲を一定レベルに制限することであり、既に設定された閾値(threshold)より小さい音はより大きく、既に設定された閾値より大きい音はより小さく調整する。
レンダリングユニット20によって処理されたチャネルベースのオーディオ信号およびオブジェクトベースのオーディオ信号はミキサー30に伝達される。ミキサー30は、チャネルベースのウェーブフォームとレンダリングされたオブジェクトウェーブフォームのディレイ(delay)を調整し、それをサンプル単位で合算する。ミキサー30によって合算されたオーディオ信号はポストプロセッシングユニット40に伝達される。
ポストプロセッシングユニット40は、スピーカレンダラー100とバイノーラルレンダラー200とを含む。スピーカレンダラー100は、ミキサー30から伝達されたマルチチャネルおよび/またはマルチオブジェクトオーディオ信号を出力するためのポストプロセッシングを行う。このようなポストプロセッシングには、ダイナミックレンジ制御(DRC)、音量正規化(Loudness Normalization、LN)およびピークリミッタ(Peak Limiter、PL)などが含まれることができる。
バイノーラルレンダラー200は、マルチチャネルおよび/またはマルチオブジェクトオーディオ信号のバイノーラルダウンミックス信号を生成する。バイノーラルダウンミックス信号は、各入力チャネル/オブジェクト信号が3次元上に位置した仮想の音源によって表現されるようにする2チャネルのオーディオ信号である。バイノーラルレンダラー200は、スピーカレンダラー100に供給されるオーディオ信号を入力信号として受信することができる。バイノーラルレンダリングはBRIR(Binaural Room Impulse Response)フィルタに基づいて行われ、時間ドメインまたはQMFドメイン上で行われることができる。実施形態によれば、バイノーラルレンダリングの後処理過程として、前述したダイナミックレンジ制御(DRC)、音量正規化(LN)およびピークリミッタ(PL)などがさらに行われることができる。
図2は、本発明の一実施形態によるバイノーラルレンダラーの各構成を示すブロック図である。図示したように、本発明の実施形態によるバイノーラルレンダラー200は、BRIRパラメータ化部210、高速コンボリューション部230、後期残響生成部240、QTDLプロセッシング部250、およびミキサー&コンバイナ260を含むことができる。
バイノーラルレンダラー200は、様々なタイプの入力信号に対するバイノーラルレンダリングを行って、3Dオーディオヘッドホン信号(すなわち、3Dオーディオ2チャネル信号)を生成する。この時、入力信号は、チャネル信号(すなわち、スピーカチャネル信号)、オブジェクト信号およびHOA信号のうち少なくとも一つを含むオーディオ信号であってもよい。本発明の他の実施形態によれば、バイノーラルレンダラー200が別途のデコーダを含む場合、前記入力信号は、前述したオーディオ信号の符号化されたビットストリームであってもよい。バイノーラルレンダリングは、復号化された入力信号をバイノーラルダウンミックス信号に変換して、ヘッドホンで聴取時にサラウンド音響を体験することができるようにする。
本発明の実施形態によれば、バイノーラルレンダラー200は、入力信号に対するバイノーラルレンダリングをQMFドメイン上で行うことができる。例えば、バイノーラルレンダラー200は、QMFドメインのマルチチャネル(N channels)信号を受信し、QMFドメインのBRIRサブバンドフィルタを用いて前記マルチチャネル信号に対するバイノーラルレンダリングを行うことができる。QMF分析フィルタバンクを通過したi番目のチャネルのk番目のサブバンド(subband)信号をxk,i(l)、サブバンドドメインにおける時間インデックスをlとすれば、QMFドメインにおけるバイノーラルレンダリングは次のような式で表すことができる。
(数式2)
ここで、m∈{L,R}であり、bk,i m(l)は時間ドメインBRIRフィルタをQMFドメインのサブバンドフィルタに変換したものである。
すなわち、バイノーラルレンダリングは、QMFドメインのチャネル信号またはオブジェクト信号を複数のサブバンド信号に分け、各サブバンド信号をそれに対応するBRIRサブバンドフィルタとコンボリューションした後に合算する方法により行われることができる。
BRIRパラメータ化部210は、QMFドメインにおけるバイノーラルレンダリングのためにBRIRフィルタ係数を変換および編集し、各種パラメータを生成する。先ず、BRIRパラメータ化部210は、マルチチャネルまたはマルチオブジェクトに対する時間ドメインBRIRフィルタ係数を受信し、それをQMFドメインBRIRフィルタ係数に変換する。この時、QMFドメインBRIRフィルタ係数は、複数の周波数バンドに各々対応する複数のサブバンドフィルタ係数を含む。本発明において、サブバンドフィルタ係数は、QMF変換されたサブバンドドメインの各BRIRフィルタ係数を示す。本明細書において、サブバンドフィルタ係数はBRIRサブバンドフィルタ係数と称することもできる。BRIRパラメータ化部210は、QMFドメインの複数のBRIRサブバンドフィルタ係数を各々編集し、編集されたサブバンドフィルタ係数を高速コンボリューション部230などに伝達することができる。本発明の実施形態によれば、BRIRパラメータ化部210はバイノーラルレンダラー200の一構成要素として含まれてもよく、別途の装置として備えられてもよい。一実施形態によれば、BRIRパラメータ化部210を除いた高速コンボリューション部230、後期残響生成部240、QTDLプロセッシング部250、およびミキサー&コンバイナ260を含む構成がバイノーラルレンダリングユニット220に分類されることができる。
一実施形態によれば、BRIRパラメータ化部210は、仮想再生空間の少なくとも一つの位置に対応するBRIRフィルタ係数を入力として受信することができる。前記仮想再生空間の各位置はマルチチャネルシステムの各スピーカ位置に対応する。一実施形態によれば、BRIRパラメータ化部210が受信した各BRIRフィルタ係数は、バイノーラルレンダラー200の入力信号の各チャネルまたは各オブジェクトに直接マッチングされることができる。その反面、本発明の他の実施形態によれば、前記受信された各BRIRフィルタ係数は、バイノーラルレンダラー200の入力信号に独立した構成(configuration)を有することができる。すなわち、BRIRパラメータ化部210が受信したBRIRフィルタ係数のうち少なくとも一部はバイノーラルレンダラー200の入力信号に直接マッチングされなくてもよく、受信されたBRIRフィルタ係数の個数は入力信号のチャネルおよび/またはオブジェクトの総数より小さいか大きくてもよい。
本発明の実施形態によれば、BRIRパラメータ化部210は、バイノーラルレンダラー200の入力信号の各チャネルまたは各オブジェクトに対応するBRIRフィルタ係数を変換および編集してバイノーラルレンダリングユニット220に伝達することができる。前記対応するBRIRフィルタ係数は、各チャネルまたは各オブジェクトに対するマッチングBRIRまたはフォールバック(fallback)BRIRであってもよい。BRIRマッチングは、仮想再生空間上で各チャネルまたは各オブジェクトの位置をターゲットとするBRIRフィルタ係数が存在するか否かによって決定される。仮に、入力信号の各チャネルまたは各オブジェクトの位置のうち少なくとも一つをターゲットとするBRIRフィルタ係数が存在する場合、該BRIRフィルタ係数は入力信号のマッチングBRIRであってもよい。しかし、特定チャネルまたはオブジェクトの位置をターゲットとするBRIRフィルタ係数が存在しない場合、バイノーラルレンダリングユニット220は該チャネルまたはオブジェクトと最も類似する位置をターゲットとするBRIRフィルタ係数を該チャネルまたはオブジェクトに対するフォールバックBRIRとして提供することができる。
一方、本発明の他の実施形態によれば、BRIRパラメータ化部210は、受信されたBRIRフィルタ係数の全体を変換および編集してバイノーラルレンダリングユニット220に伝達することができる。この時、入力信号の各チャネルまたは各オブジェクトに対応するBRIRフィルタ係数(または、編集されたBRIRフィルタ係数)の選別作業は、バイノーラルレンダリングユニット220で行われることができる。
バイノーラルレンダリングユニット220は高速コンボリューション部230、後期残響生成部240およびQTDLプロセッシング部250を含み、マルチチャネルおよび/またはマルチオブジェクト信号を含むマルチオーディオ信号を受信する。本明細書では、マルチチャネルおよび/またはマルチオブジェクト信号を含む入力信号をマルチオーディオ信号と称することにする。図2では一実施形態によりバイノーラルレンダリングユニット220がQMFドメインのマルチチャネル信号を受信するものとして示されているが、バイノーラルレンダリングユニット220の入力信号には時間ドメインマルチチャネル信号およびマルチオブジェクト信号などが含まれることができる。また、バイノーラルレンダリングユニット220が別途のデコーダをさらに含む場合、前記入力信号は前記マルチオーディオ信号の符号化されたビットストリームであってもよい。それに加え、本明細書ではマルチオーディオ信号に対するBRIRレンダリングを行うケースを基準に本発明を説明するが、本発明はこれに限定されるものではない。すなわち、本発明で提供する特徴はBRIRでない他種類のレンダリングフィルタに適用されてもよく、マルチオーディオ信号でない単一チャネルまたは単一オブジェクトのオーディオ信号に対して適用されてもよい。
高速コンボリューション部230は、入力信号とBRIRフィルタ間の高速コンボリューションを行って、入力信号に対する直接音(direct sound)と初期反射音(early reflection)を処理する。このために、高速コンボリューション部230は、切断された(truncated)BRIRを用いて高速コンボリューションを行うことができる。切断されたBRIRは各サブバンド周波数に従属的に切断された複数のサブバンドフィルタ係数を含み、BRIRパラメータ化部210によって生成される。この時、各切断されたサブバンドフィルタ係数の長さは該サブバンドの周波数に従属的に決定される。高速コンボリューション部230は、サブバンドに応じて互いに異なる長さを有する切断されたサブバンドフィルタ係数を用いることによって、周波数ドメインにおける可変次数(variable order)フィルタリングを行うことができる。すなわち、各周波数バンド別にQMFドメインサブバンドオーディオ信号とそれに対応するQMFドメインの切断されたサブバンドフィルタ間の高速コンボリューションが行われることができる。本明細書において、直接音および初期反射音(Direct sound & Early reflection、D&E)パートはF(front)−パートと称することができる。
後期残響生成部240は、入力信号に対する後期残響(late reverberation)信号を生成する。後期残響信号は、高速コンボリューション部230で生成された直接音および初期反射音以後の出力信号を示す。後期残響生成部240は、BRIRパラメータ化部210から伝達された各サブバンドフィルタ係数から決定された残響時間情報に基づいて入力信号を処理することができる。本発明の実施形態によれば、後期残響生成部240は、入力オーディオ信号に対するモノまたはステレオダウンミックス信号を生成し、生成されたダウンミックス信号に対する後期残響処理を行うことができる。本明細書において、後期残響(Late Reverberation、LR)パートはP(parametric)−パートと称することができる。
QTDL(QMF domain Tapped Delay Line)プロセッシング部250は、入力オーディオ信号のうちの高周波数バンドの信号を処理する。QTDLプロセッシング部250は、高周波数バンドの各サブバンド信号に対応する少なくとも一つのパラメータをBRIRパラメータ化部210から受信し、受信されたパラメータを用いてQMFドメインにおいてタップ−ディレイラインフィルタリングを行う。本発明の実施形態によれば、バイノーラルレンダラー200は既に設定された定数または既に設定された周波数バンドに基づいて入力オーディオ信号を低周波数バンド信号と高周波数バンド信号に分離し、低周波数バンド信号は高速コンボリューション部230および後期残響生成部240において、高周波数バンド信号はQTDLプロセッシング部250において各々処理することができる。
高速コンボリューション部230、後期残響生成部240およびQTDLプロセッシング部250は、各々2チャネルのQMFドメインサブバンド信号を出力する。ミキサー&コンバイナ260は、高速コンボリューション部230の出力信号、後期残響生成部240の出力信号、およびQTDLプロセッシング部250の出力信号を結合してミキシングを行う。この時、出力信号の結合は、2チャネルの左、右出力信号に対して各々別途に行われる。バイノーラルレンダラー200は、結合された出力信号をQMF合成して時間ドメインの最終出力オーディオ信号を生成する。
以下、各図面を参照して図2の高速コンボリューション部230、後期残響生成部240、QTDLプロセッシング部250、およびこれらの組み合わせに対する様々な実施形態を具体的に説明する。
図3〜図7は、本発明に係るオーディオ信号処理装置の様々な実施形態を示している。本発明において、オーディオ信号処理装置は、狭義の意味としては、図2に示されたバイノーラルレンダラー200またはバイノーラルレンダリングユニット220を指し示すことができる。しかし、本発明において、オーディオ信号処理装置は、広義の意味としては、バイノーラルレンダラーを含む図1のオーディオ信号デコーダを指し示すことができる。図3〜図7に示された各バイノーラルレンダラーは、説明の便宜のため、図2に示されたバイノーラルレンダラー200の一部構成だけを示すことができる。また、以下、本明細書ではマルチチャネル入力信号に対する実施形態を主に記述するが、別途の言及がない場合、チャネル、マルチチャネルおよびマルチチャネル入力信号は各々オブジェクト、マルチオブジェクトおよびマルチオブジェクト入力信号を含む概念として用いられることができる。それのみならず、マルチチャネル入力信号は、HOA復号およびレンダリングされた信号を含む概念として用いられることもできる。
図3は、本発明の一実施形態によるバイノーラルレンダラー200Aを示している。BRIRを用いたバイノーラルレンダリングを一般化すれば、M個のチャネルを有するマルチチャネルの入力信号に対してO個の出力信号を得るためのM−to−Oプロセッシングである。バイノーラルフィルタリングは、この過程で各々の入力チャネルと出力チャネルに対応するフィルタ係数を用いたフィルタリングとみなすことができる。図3において、原本フィルタセットHは、各チャネル信号のスピーカ位置から左、右の耳の位置までの伝達関数を意味する。このような伝達関数中、一般的な聴音空間、すなわち、残響がある空間で測定したものをBinaural Room Impulse Response(BRIR)と呼ぶ。その反面、再生空間の影響がないように無響室で測定したものをHead Related Impulse Response(HRIR)といい、それに対する伝達関数をHead Related Transfer Function(HRTF)と呼ぶ。よって、BRIRは、HRTFとは異なり、方向情報だけでなく、再生空間の情報を共に含んでいる。一実施形態によれば、HRTFと人工残響器(artificial reverberator)を用いてBRIRを代えることもできる。本明細書ではBRIRを用いたバイノーラルレンダリングについて説明するが、本発明はこれに限定されず、様々な形態のFIRフィルタを用いたバイノーラルレンダリングにも同様に適用可能である。一方、BRIRは前述したように96K個のサンプル長さを有することができ、マルチチャネルバイノーラルレンダリングはM*O個の互いに異なるフィルタを用いて行われるので高演算量の処理過程が要求される。
本発明の実施形態によれば、BRIRパラメータ化部210は、演算量の最適化のために原本フィルタセットHから変形されたフィルタ係数を生成することができる。BRIRパラメータ化部210は、原本フィルタ係数をF(front)−パート係数とP(parametric)−パート係数に分離する。ここで、F−パートは直接音および初期反射音(D&E)パートを示し、P−パートは後期残響(LR)パートを示す。例えば、96Kサンプル長さを有する原本フィルタ係数は前の4Kサンプルまでだけを切断したF−パートと、残りの92Kサンプルに対応する部分であるP−パートに各々分離することができる。
バイノーラルレンダリングユニット220は、BRIRパラメータ化部210からF−パート係数およびP−パート係数を各々受信し、それを用いてマルチチャネル入力信号をレンダリングする。本発明の実施形態によれば、図2に示された高速コンボリューション部230はBRIRパラメータ化部210から受信されたF−パート係数を用いてマルチオーディオ信号をレンダリングし、後期残響生成部240はBRIRパラメータ化部210から受信されたP−パート係数を用いてマルチオーディオ信号をレンダリングすることができる。すなわち、高速コンボリューション部230と後期残響生成部240は、各々、本発明のF−パートレンダリング部とP−パートレンダリング部に対応する。一実施形態によれば、F−パートレンダリング(F−パート係数を用いたバイノーラルレンダリング)は通常のFIR(Finite Impulse Response)フィルタで実現され、P−パートレンダリング(P−パート係数を用いたバイノーラルレンダリング)はパラメトリックな方法で実現されることができる。一方、ユーザーまたは制御システムによって提供される複雑度−クォリティー制御入力は、F−パートおよび/またはP−パートに生成される情報を決めるのに用いられることができる。
図4は、本発明の他の実施形態によるバイノーラルレンダラー200Bであり、F−パートレンダリングを実現するより詳細な方法を示している。説明の便宜のため、図4ではP−パートレンダリング部は省略した。また、図4ではQMFドメインで実現されたフィルタを示しているが、本発明はこれに限定されず、他ドメインのサブバンドプロセッシングに全て適用可能である。
図4を参照すれば、F−パートレンダリングは、QMFドメイン上で高速コンボリューション部230によって行われることができる。QMFドメイン上におけるレンダリングのために、QMF分析部222は、時間ドメイン入力信号x0、x1、…x_M−1をQMFドメイン信号X0、X1、…X_M−1に変換する。この時、入力信号x0、x1、…x_M−1はマルチチャネルオーディオ信号、例えば、22.2チャネルスピーカに対応するチャネル信号であってもよい。QMFドメインは全64個のサブバンドを用いることができるが、本発明はこれに限定されるものではない。一方、本発明の一実施形態によれば、QMF分析部222は、バイノーラルレンダラー200Bにおいて省略されてもよい。SBR(Spectral Band Replication)を用いるHE−AACやUSACの場合、QMFドメインにおいてプロセッシングを行うため、バイノーラルレンダラー200Bは、QMF分析なしで直ちにQMFドメイン信号X0、X1、…X_M−1を入力として受信することができる。よって、このようにQMFドメイン信号を直接入力として受信する場合、本発明に係るバイノーラルレンダラーにおいて用いるQMFは、以前処理部(例えば、SBR)において用いるQMFと同一であることを特徴とする。QMF合成部244は、バイノーラルレンダリングが行われた2チャネルの左、右信号Y_L、Y_RをQMF合成して時間ドメインの2チャネル出力オーディオ信号yL、yRを生成する。
図5〜図7は、各々、F−パートレンダリングとP−パートレンダリングを共に行うバイノーラルレンダラー200C,200D,200Eの実施形態を示している。図5〜図7の実施形態において、F−パートレンダリングはQMFドメイン上で高速コンボリューション部230によって行われ、P−パートレンダリングはQMFドメインまたは時間ドメイン上で後期残響生成部240によって行われる。図5〜図7の実施形態において、以前の図面の実施形態と重複する部分については具体的な説明は省略する。
図5を参照すれば、バイノーラルレンダラー200Cは、F−パートレンダリングおよびP−パートレンダリングを全てQMFドメインにおいて行うことができる。すなわち、バイノーラルレンダラー200CのQMF分析部222は、時間ドメイン入力信号x0、x1、…x_M−1をQMFドメイン信号X0、X1、…X_M−1に変換して、各々、高速コンボリューション部230および後期残響生成部240に伝達する。高速コンボリューション部230および後期残響生成部240は、QMFドメイン信号X0、X1、…X_M−1をレンダリングして、各々、2チャネルの出力信号Y_L、Y_RおよびY_Lp、Y_Rpを生成する。この時、高速コンボリューション部230および後期残響生成部240は、BRIRパラメータ化部210によって受信したF−パートフィルタ係数およびP−パートフィルタ係数を各々用いてレンダリングを行うことができる。F−パートレンダリングの出力信号Y_L、Y_RとP−パートレンダリングの出力信号Y_Lp、Y_Rpは、ミキサー&コンバイナ260において左、右チャネル別に結合されてQMF合成部224に伝達される。QMF合成部224は、入力された2チャネルの左、右信号をQMF合成して時間ドメインの2チャネル出力オーディオ信号yL、yRを生成する。
図6を参照すれば、バイノーラルレンダラー200Dは、QMFドメインにおいてF−パートレンダリングを、時間ドメインにおいてP−パートレンダリングを各々行うことができる。バイノーラルレンダラー200DのQMF分析部222は、時間ドメイン入力信号をQMF変換して高速コンボリューション部230に伝達する。高速コンボリューション部230は、QMFドメイン信号をF−パートレンダリングして2チャネルの出力信号Y_L、Y_Rを生成する。QMF合成部224は、F−パートレンダリングの出力信号を時間ドメイン出力信号に変換してミキサー&コンバイナ260に伝達する。一方、後期残響生成部240は、時間ドメイン入力信号を直接受信してP−パートレンダリングを行う。P−パートレンダリングの出力信号yLp、yRpは、ミキサー&コンバイナ260に伝達される。ミキサー&コンバイナ260は、時間ドメイン上でF−パートレンダリング出力信号およびP−パートレンダリング出力信号を各々結合して時間ドメインの2チャネル出力オーディオ信号yL、yRを生成する。
図5と図6の実施形態ではF−パートレンダリングおよびP−パートレンダリングが各々並列(parallel)に行われる反面、図7の実施形態によれば、バイノーラルレンダラー200EはF−パートレンダリングとP−パートレンダリングを各々順次(sequential)に行うことができる。すなわち、高速コンボリューション部230はQMF変換された入力信号をF−パートレンダリングし、F−パートレンダリングされた2チャネル信号Y_L、Y_RはQMF合成部224において時間ドメイン信号に変換された後、後期残響生成部240に伝達される。後期残響生成部240は、入力された2チャネル信号に対するP−パートレンダリングを行って、時間ドメインの2チャネル出力オーディオ信号yL、yRを生成する。
図5〜図7は各々F−パートレンダリングとP−パートレンダリングを行う一実施形態を示すものであり、各図面の実施形態を組み合わせまたは変形してバイノーラルレンダリングを行うことができる。例えば、各実施形態において、バイノーラルレンダラーは入力されたマルチオーディオ信号の各々に対して個別的にP−パートレンダリングを行うこともできるが、入力信号を2チャネルの左、右信号またはモノ信号にダウンミックスした後にダウンミックス信号に対するP−パートレンダリングを行うこともできる。
<周波数ドメイン可変次数フィルタリング(Variable Order Filtering in Frequency−domain、VOFF)>
図8〜図10は、本発明の実施形態によるバイノーラルレンダリングのためのFIRフィルタ生成方法を示している。本発明の実施形態によれば、QMFドメインにおけるバイノーラルレンダリングのために、QMFドメインの複数のサブバンドフィルタに変換されたFIRフィルタが用いられることができる。この時、F−パートレンダリングには、各サブバンド周波数に従属的に切断されたサブバンドフィルタが用いられることができる。すなわち、バイノーラルレンダラーの高速コンボリューション部は、サブバンドに応じて互いに異なる長さを有する切断されたサブバンドフィルタを用いることによって、QMFドメインにおける可変次数フィルタリングを行うことができる。以下で説明する図8〜図10のフィルタ生成の実施形態は図2のBRIRパラメータ化部210によって行われることができる。
図8は、バイノーラルレンダリングに用いられるQMFドメインフィルタの各QMFバンドに応じた長さの一実施形態を示している。図8の実施形態において、FIRフィルタはI個のQMFサブバンドフィルタに変換され、FiはQMFサブバンドiの切断されたサブバンドフィルタを示す。QMFドメインは全64個のサブバンドを用いることができるが、本発明はこれに限定されるものではない。また、Nは原本サブバンドフィルタの長さ(タップ数)を示し、切断されたサブバンドフィルタの長さは各々N1、N2、N3で示す。この時、長さN、N1、N2およびN3はダウンサンプルされたQMFドメインにおけるタップ数を示す。
本発明の実施形態によれば、各サブバンドに応じて互いに異なる長さ(N1、N2、N3)を有する切断されたサブバンドフィルタがF−パートレンダリングに用いられることができる。この時、切断されたサブバンドフィルタは原本サブバンドフィルタにおいて切断された前部(front)のフィルタであり、フロントサブバンドフィルタと称することができる。また、原本サブバンドフィルタの切断以後の後部(rear)はリヤサブバンドフィルタと称することができ、P−パートレンダリングに用いられることができる。
BRIRフィルタを用いたレンダリングの場合、各サブバンド別のフィルタ次数(すなわち、フィルタ長さ)は、原本BRIRフィルタから抽出されたパラメータ、例えば、各サブバンドフィルタ別の残響時間(Reverberation Time、RT)情報、EDC(Energy Decay Curve)値、エネルギー減衰時間情報などに基づいて決定されることができる。各周波数別に空気中での減衰、壁および天井の材質に応じた吸音程度が異なる音響的な特性のため、残響時間は周波数に応じて互いに異なりうる。一般的には、低周波数の信号であるほど残響時間が長いという特性を有する。残響時間が長ければ、FIRフィルタの後部に多くの情報が残っていることを意味するため、該フィルタを長く切断して用いることが残響情報を正しく伝達するのに好ましい。よって、本発明の各切断されたサブバンドフィルタの長さは、該サブバンドフィルタから抽出された特性情報(例えば、残響時間情報)に少なくとも部分的に基づいて決定される。
切断されたサブバンドフィルタの長さは様々な実施形態に応じて決定されることができる。先ず、一実施形態によれば、各サブバンドは複数のグループに分類され、分類されたグループに応じて各切断されたサブバンドフィルタの長さが決定されることができる。図8の例示によれば、各サブバンドは3つの区域(Zone 1、Zone 2、Zone 3)に分類されることができ、低周波数に該当するZone 1の切断されたサブバンドフィルタは高周波数に該当するZone 2およびZone 3の切断されたサブバンドフィルタより長いフィルタ次数(すなわち、フィルタ長さ)を有することができる。また、高周波数の区域に行くほど、該当区域の切断されたサブバンドフィルタのフィルタ次数は次第に減る。
本発明の他の実施形態によれば、各切断されたサブバンドフィルタの長さは、原本サブバンドフィルタの特性情報に応じて各サブバンド別に独立におよび可変的に決定されることができる。各切断されたサブバンドフィルタの長さは該サブバンドで決定された切断長さに基づいて決定され、隣り合うまたは他サブバンドの切断されたサブバンドフィルタの長さに影響を受けない。例えば、Zone 2の一部あるいは全部の切断されたサブバンドフィルタの長さがZone 1の少なくとも一つの切断されたサブバンドフィルタの長さより長くてもよい。
本発明のまた他の実施形態によれば、複数のグループに分類されたサブバンドのうち一部に対してのみ周波数ドメイン可変次数フィルタリングが行われることができる。すなわち、分類された少なくとも2個のグループのうち一部のグループに属したサブバンドに対してのみ互いに異なる長さを有する切断されたサブバンドフィルタが生成されることができる。一実施形態によれば、切断されたサブバンドフィルタが生成されるグループは、既に設定された定数または既に設定された周波数バンドに基づいて低周波数バンドに分類されたサブバンドグループ(例えば、Zone 1)であってもよい。
切断されたフィルタの長さは、オーディオ信号処理装置が取得した追加的な情報、例えば、デコーダの複雑度(complexity)、複雑度レベル(プロファイル)、または要求されるクォリティー情報に基づいて決定されることができる。複雑度は、オーディオ信号処理装置のハードウェアリソース(resource)に応じて決定されるか、またはユーザーが直接入力した値に応じて決定されることができる。クォリティーは、ユーザーの要求に応じて決定されるか、またはビットストリームを通じて送信された値またはビットストリームに含まれた他の情報を参照して決定されることができる。また、クォリティーは送信されるオーディオ信号の品質を推定した値に応じて決定されることもでき、例えば、ビットレートが高いほど、より高いクォリティーとみなすことができる。この時、各切断されたサブバンドフィルタの長さは複雑度およびクォリティーに応じて比例的に増加してもよく、各バンド別に互いに異なる比率で変化してもよい。また、各切断されたサブバンドフィルタの長さは、後述するFFTなどの高速プロセッシングによる追加的な利得を得るために、それに対応する大きさ単位、例えば、2の累乗の倍数に決定されることができる。その反面、切断されたサブバンドフィルタの決定された長さが実際のサブバンドフィルタの全長より長い場合、切断されたサブバンドフィルタの長さは実際のサブバンドフィルタの長さに調整されることができる。
BRIRパラメータ化部は、前述した実施形態に応じて決定された各切断されたサブバンドフィルタに対応する切断されたサブバンドフィルタ係数(F−パート係数)を生成し、それを高速コンボリューション部に伝達する。高速コンボリューション部は、切断されたサブバンドフィルタ係数を用いて、マルチオーディオ信号の各サブバンド信号に対する周波数ドメイン可変次数フィルタリングを行う。
図9は、バイノーラルレンダリングに用いられるQMFドメインフィルタの各QMFバンド別の長さの他の実施形態を示している。図9の実施形態において、図8の実施形態と同一または相応する部分については重複的な説明は省略する。
図9の実施形態において、Fi_L、Fi_Rは各々QMFサブバンドiのF−パートレンダリングに用いられる切断されたサブバンドフィルタ(フロントサブバンドフィルタ)を示し、PiはQMFサブバンドiのP−パートレンダリングに用いられるリヤサブバンドフィルタを示す。Nは原本サブバンドフィルタの長さ(タップ数)を示し、NiFおよびNiPは各々サブバンドiのフロントサブバンドフィルタおよびリヤサブバンドフィルタの長さを示す。前述したように、NiFおよびNiPはダウンサンプルされたQMFドメインにおけるタップ数を示す。
図9の実施形態によれば、フロントサブバンドフィルタだけでなくリヤサブバンドフィルタの長さも原本サブバンドフィルタから抽出されたパラメータに基づいて決定されることができる。すなわち、各サブバンドのフロントサブバンドフィルタおよびリヤサブバンドフィルタの長さは、該サブバンドフィルタから抽出された特性情報に少なくとも部分的に基づいて決定される。例えば、フロントサブバンドフィルタの長さは該サブバンドフィルタの第1残響時間情報に基づいて、リヤサブバンドフィルタの長さは第2残響時間情報に基づいて決定されることができる。すなわち、フロントサブバンドフィルタは原本サブバンドフィルタにおいて第1残響時間情報に基づいて切断された前部のフィルタであり、リヤサブバンドフィルタはフロントサブバンドフィルタ以後の区間として第1残響時間と第2残響時間との間の区間に対応する後部のフィルタである。一実施形態によれば、第1残響時間情報はRT20、第2残響時間情報はRT60であることができるが、本発明はこれに限定されるものではない。
第2残響時間以内には、初期反射音パートから後期残響パートに転換される部分が存在する。すなわち、決定性(deterministic characteristic)を有する区間から推計的特性(stochastic characteristic)を有する区間に転換される地点が存在し、全体バンドのBRIRの観点でこの地点をミキシングタイムと呼ぶ。ミキシングタイム以前の区間の場合、各位置別に方向性を提供する情報が主に存在し、これはチャネル別に固有である。その反面、後期残響パートの場合、チャネル別に共通した特徴を有するため、複数のチャネルを一度に処理することが効率的である。よって、サブバンド別のミキシングタイムを推定して、ミキシングタイム以前に対してはF−パートレンダリングによって高速コンボリューションを行い、ミキシングタイム以後に対してはP−パートレンダリングによって各チャネル別の共通した特性が反映されたプロセッシングを行うことができる。
しかし、ミキシングタイムを推定することは知覚的(perceptual)な観点で偏向(bias)によるエラーが発生しうる。よって、正確なミキシングタイムを推定して該当境界を基準にF−パートとP−パートに分けて処理することよりは、F−パートの長さを最大限長くして高速コンボリューションを行うことがクォリティーの観点では優れる。よって、F−パートの長さ、すなわち、フロントサブバンドフィルタの長さは、複雑度−クォリティー制御に応じてミキシングタイムに該当する長さより長いかまたは短くなってもよい。
それに加え、各サブバンドフィルタの長さを減らすために、前述したように切断する方法の他にも、特定サブバンドの周波数応答が単調な(monotonic)場合、該サブバンドのフィルタを低い次数に減少させるモデリングが可能である。代表的な方法としては周波数サンプリングを用いたFIRフィルタモデリングがあり、最小二乗の観点で最小化されるフィルタをデザインすることができる。
本発明の実施形態によれば、各サブバンド別のフロントサブバンドフィルタおよび/またはリヤサブバンドフィルタの長さは、該サブバンドの各チャネルに対して同一の値を有することができる。BRIRには測定上のエラーが存在し、残響時間を推定するにも偏向などの誤差要素が存在する。よって、このような影響を減らすために、チャネル間またはサブバンド間の相互関係に基づいてフィルタの長さが決定されることができる。一実施形態によれば、BRIRパラメータ化部は、同一のサブバンドの各チャネルに対応するサブバンドフィルタから各々第1特性情報(例えば、第1残響時間情報)を抽出し、抽出された第1特性情報を組み合わせて該サブバンドに対する一つのフィルタ次数情報(または、第1切断地点情報)を取得することができる。該サブバンドの各チャネル別のフロントサブバンドフィルタは、前記取得されたフィルタ次数情報(または、第1切断地点情報)に基づいて同一の長さを有するように決定されることができる。同様に、BRIRパラメータ化部は、同一のサブバンドの各チャネルに対応するサブバンドフィルタから各々第2特性情報(例えば、第2残響時間情報)を抽出し、抽出された第2特性情報を組み合わせて該サブバンドの各チャネルに対応するリヤサブバンドフィルタに共通に適用される第2切断地点情報を取得することができる。ここで、フロントサブバンドフィルタは原本サブバンドフィルタにおいて第1切断地点情報に基づいて切断された前部のフィルタであり、リヤサブバンドフィルタはフロントサブバンドフィルタ以後の区間として第1切断地点と第2切断地点との間の区間に対応する後部のフィルタである。
一方、本発明の他の実施形態によれば、特定サブバンドグループのサブバンドに対してはF−パートプロセッシングのみ行われることができる。この時、該サブバンドに対して第1切断地点までのフィルタだけを用いてプロセッシングが行われれば、全体サブバンドフィルタを用いてプロセッシングが行われる時に比べて、処理されるフィルタのエネルギー差によってユーザが知覚できる水準の歪みが発生しうる。このような歪みを防止するために、該サブバンドフィルタにおいてプロセッシングに用いられない領域、すなわち、第1切断地点以後の領域に対するエネルギー補償が行われることができる。前記エネルギー補償は、F−パート係数(フロントサブバンドフィルタ係数)に該サブバンドフィルタの第1切断地点までのフィルタパワーを分け、望む領域のエネルギー、例えば、該サブバンドフィルタの全体パワーを乗ずることによって実行可能である。よって、F−パート係数のエネルギーが全体サブバンドフィルタのエネルギーと同一になるように調整されることができる。また、BRIRパラメータ化部からP−パート係数が送信されたにもかかわらず、バイノーラルレンダリングユニットでは複雑度−クォリティー制御に基づいてP−パートプロセッシング行わなくてもよい。この場合、バイノーラルレンダリングユニットは、P−パート係数を用いてF−パート係数に対する前記エネルギー補償を行うことができる。
前述した方法によるF−パートプロセッシングにおいて、各サブバンド別に異なる長さを有する切断されたサブバンドフィルタのフィルタ係数は、一つの時間領域フィルタ(すなわち、proto−typeフィルタ)から得られる。すなわち、一つの時間領域フィルタを複数のQMFサブバンドフィルタに変換し、各サブバンドに対応するフィルタの長さを可変させたものであるため、各切断されたサブバンドフィルタは一つの原型フィルタから得られたものである。
BRIRパラメータ化部は、前述した実施形態に応じて決定された各フロントサブバンドフィルタに対応するフロントサブバンドフィルタ係数(F−パート係数)を生成し、それを高速コンボリューション部に伝達する。高速コンボリューション部は、受信されたフロントサブバンドフィルタ係数を用いて、マルチオーディオ信号の各サブバンド信号に対する周波数ドメイン可変次数フィルタリングを行う。また、BRIRパラメータ化部は、前述した実施形態によって決定された各リヤサブバンドフィルタに対応するリヤサブバンドフィルタ係数(P−パート係数)を生成し、それを後期残響生成部に伝達することができる。後期残響生成部は、受信されたリヤサブバンドフィルタ係数を用いて、各サブバンド信号に対する残響処理を行うことができる。本発明の実施形態によれば、BRIRパラメータ化部は、各チャネル別のリヤサブバンドフィルタ係数を組み合わせてダウンミックスサブバンドフィルタ係数(ダウンミックスP−パート係数)を生成し、それを後期残響生成部に伝達することができる。後述するように、後期残響生成部は、受信されたダウンミックスサブバンドフィルタ係数を用いて2チャネルの左、右サブバンド残響信号を生成することができる。
図10は、バイノーラルレンダリングに用いられるFIRフィルタ生成方法のまた他の実施形態を示している。図10の実施形態において、図8および図9の実施形態と同一または相応する部分については重複的な説明は省略する。
図10を参照すれば、QMF変換された複数のサブバンドフィルタは複数のグループに分類され、分類された各グループ別に互いに異なるプロセッシングが適用されることができる。例えば、複数のサブバンドは、既に設定された周波数バンド(QMFバンドi)を基準にした低周波数の第1サブバンドグループ(Zone 1)と、高周波数の第2サブバンドグループ(Zone 2)に分類されることができる。この時、第1サブバンドグループの入力サブバンド信号に対してはF−パートレンダリングが、第2サブバンドグループの入力サブバンド信号に対しては後述するQTDLプロセッシングが行われることができる。
よって、BRIRパラメータ化部は、第1サブバンドグループの各サブバンド別にフロントサブバンドフィルタ係数を生成し、それを高速コンボリューション部に伝達する。高速コンボリューション部は、受信されたフロントサブバンドフィルタ係数を用いて第1サブバンドグループのサブバンド信号に対するF−パートレンダリングを行う。実施形態により、第1サブバンドグループのサブバンド信号に対するP−パートレンダリングが後期残響生成部によってさらに行われることもできる。また、BRIRパラメータ化部は、第2サブバンドグループの各サブバンドフィルタ係数から少なくとも一つのパラメータを取得し、それをQTDLプロセッシング部に伝達する。QTDLプロセッシング部は、取得されたパラメータを用いて、後述するように第2サブバンドグループの各サブバンド信号に対するタップ−ディレイラインフィルタリングを行う。本発明の実施形態によれば、第1サブバンドグループと第2サブバンドグループを区分する既に設定された周波数(QMFバンドi)は事前に定められた定数値に基づいて決定されてもよく、送信されたオーディオ入力信号のビット列特性に応じて決定されてもよい。例えば、SBRを用いるオーディオ信号の場合、第2サブバンドグループがSBRバンドに対応するように設定されることができる。
本発明の他の実施形態によれば、複数のサブバンドは、既に設定された第1周波数バンド(QMFバンドi)および第2周波数バンド(QMFバンドj)に基づいて3個のサブバンドグループに分類されることもできる。すなわち、複数のサブバンドは、第1周波数バンドより小さいかまたは同一な低周波数区域である第1サブバンドグループ(Zone 1)、第1周波数バンドより大きく第2周波数バンドより小さいかまたは同一な中間周波数区域である第2サブバンドグループ(Zone 2)、および第2周波数バンドより大きい高周波数区域である第3サブバンドグループ(Zone 3)に分類されることができる。この時、第1サブバンドグループのサブバンド信号および第2サブバンドグループのサブバンド信号に対しては前述したように各々F−パートレンダリングおよびQTDLプロセッシングが行われてもよく、第3サブバンドグループのサブバンド信号に対してはレンダリングが行われなくてもよい。
<後期残響レンダリング>
次に、図11〜図14を参照して本発明のP−パートレンダリングの様々な実施形態について説明する。すなわち、QMFドメインにおいてP−パートレンダリングを行う図2の後期残響生成部240の様々な実施形態が図11〜図14を参照して説明される。図11〜図14の実施形態において、マルチチャネル入力信号はQMFドメインのサブバンド信号として受信されると仮定する。よって、図11〜図14の各構成、すなわち、デコリレータ241、サブバンドフィルタリング部242、ICマッチング部243、ダウンミックス部244およびエネルギー減衰マッチング部246のプロセッシングは各QMFサブバンド別に行われることができる。図11〜図14の実施形態において、以前の図面の実施形態と重複する部分については具体的な説明は省略する。
前述した図8〜図10の実施形態において、P−パートに対応するPi(P1、P2、P3、…)は周波数可変切断に応じて除去された各サブバンドフィルタの後部分に該当し、通常、後期残響に対する情報を含んでいる。複雑度−クォリティー制御に応じてP−パートの長さは各サブバンドフィルタの切断された地点以後の全体フィルタとして定義されてもよく、該サブバンドフィルタの第2残響時間情報を参照してより小さい長さとして定義されてもよい。
P−パートレンダリングは各チャネル別に独立に行われてもよく、ダウンミックスされたチャネルに対して行われてもよい。また、P−パートレンダリングは既に設定されたサブバンドグループ別にまたは各サブバンド別に互いに異なるプロセッシングを通じて適用されてもよく、全体サブバンドに対して同一なプロセッシングとして適用されてもよい。この時、P−パートに適用可能なプロセッシングとしては、入力信号に対するエネルギー減少補償、タップ−ディレイラインフィルタリング、IIR(Infinite Impulse Response)フィルタを用いたプロセッシング、人工残響器(artificial reverberator)を用いたプロセッシング、FIIC(Frequency−independent Interaural Coherence)補償、FDIC(Frequency−dependent Interaural Coherence)補償などが含まれることができる。
一方、P−パートに対するパラメトリック(parametric)プロセッシングのためには、大きく2つの特徴、すなわち、EDR(Energy Decay Relief)とFDIC(Frequency−dependent Interaural Coherence)の特徴を保存することが重要である。先ず、P−パートをエネルギー観点で観察すれば、各チャネル別にEDRが同一または類似することが分かる。各チャネルが共通したEDRを有しているため、全てのチャネルを一つまたは二つのチャネルにダウンミックスした後、ダウンミックスされたチャネルに対するP−パートレンダリングを行うことはエネルギー観点で妥当である。この時、M個のチャネルに対してM回のコンボリューションを実行しなければならないP−パートレンダリングの演算を、M−to−Oダウンミックスと1回(または、2回)のコンボリューションに減らすことによって相当な演算量の利得を提供することができる。
次に、P−パートレンダリングにおいてFDICを補償する過程が必要である。FDICを推定する方法には色々なものがあるが、次のような数式が用いられることができる。
(数式3)
ここで、Hm(i,k)はインパルス応答hm(n)のSTFT(Short Time Fourier Transform)係数、nは時間インデックス、iは周波数インデックス、kはフレームインデックス、mは出力チャネルインデックス(L,R)を示す。また、分子の関数R(x)は入力xの実数値を出力し、x*はxの複素共役(complex conjugate)値を示す。前記数式において、分子の部分は実数値の代わりに絶対値を取る関数に置換されることもできる。
一方、本発明において、バイノーラルレンダリングはQMFドメインで行われるため、FDICは次のような数式で定義されることもできる。
(数式4)
ここで、iはサブバンドインデックス、kはサブバンドにおける時間インデックス、hm(i,k)はBRIRのサブバンドフィルタを示す。
後期残響パートのFDICはBRIRがレコーディングされる時に二つのマイクロホンの位置に主に影響を受けるパラメータとして、スピーカの位置、すなわち、方向と距離には影響を受けない。聴取者の頭を球(sphere)と仮定した時、BRIRの理論的なFDIC(ICideal)は次のような数式を満たすことができる。
(数式5)
ここで、rは聴取者の両耳間の距離、すなわち、二つのマイクロホン間の距離であり、kは周波数インデックスである。
複数チャネルのBRIRを用いたFDICを分析すれば、F−パートに主に含まれた初期反射音は各チャネル別に非常に異なることが分かる。すなわち、F−パートのFDICはチャネル別に非常に異なるように変化する。一方、高周波数帯域の場合、FDICが非常に大きく変化するが、これはエネルギーが速く減殺する高周波数帯域信号の特性上大きな測定誤差が発生するためであり、チャネル別に平均を取る場合、FDICはほぼ0に収斂する。その反面、P−パートの場合にも測定誤差によってチャネル別FDICの差が発生するが、平均的に数式5のようなシンク関数に収斂することを確認することができる。本発明の実施形態によれば、前述したような特性に基づいてP−パートレンダリングのための後期残響生成部を実現することができる。
図11は、本発明の一実施形態による後期残響生成部240Aを示している。図11の実施形態によれば、後期残響生成部240Aは、サブバンドフィルタリング部242およびダウンミックス部244a,244bを含むことができる。
サブバンドフィルタリング部242は、P−パート係数を用いて、マルチチャネル入力信号X0、X1、…、X_M−1を各サブバンド別にフィルタリングする。P−パート係数は前述したようにBRIRパラメータ化部(図示せず)から受信され、サブバンド別に互いに異なる長さを有するリヤサブバンドフィルタの係数を含むことができる。サブバンドフィルタリング部242は、各周波数別にQMFドメインサブバンド信号とそれに対応するQMFドメインのリヤサブバンドフィルタ間の高速コンボリューションを行う。この時、リヤサブバンドフィルタの長さは前述したようにRT60に基づいて決定されるが、複雑度−クォリティー制御に応じてRT60より大きいかまたは小さい値に設定されることもできる。
マルチチャネル入力信号は、サブバンドフィルタリング部242によって、各々、左チャネル信号のX_L0、X_L1、…、X_L_M−1と右チャネル信号のX_R0、X_R1、…、X_R_M−1にレンダリングされる。ダウンミックス部244a,244bは、レンダリングされた複数の左チャネル信号と複数の右チャネル信号を各々左、右チャネル別にダウンミックスして2チャネルの左、右出力信号Y_Lp、Y_Rpを生成する。
図12は、本発明の他の実施形態による後期残響生成部240Bを示している。図12の実施形態によれば、後期残響生成部240Bは、デコリレータ241、ICマッチング部243、ダウンミックス部244a,244bおよびエネルギー減衰マッチング部246a,246bを含むことができる。また、後期残響生成部240Bのプロセッシングのために、BRIRパラメータ化部(図示せず)は、IC推定部213およびダウンミックスサブバンドフィルタ生成部216を含むことができる。
図12の実施形態によれば、後期残響生成部240Bは、後期残響パートのチャネル別のエネルギー減衰(energy decay)特性が同一であることを利用して演算量を減少させることができる。すなわち、後期残響生成部240Bは、各マルチチャネル信号に対する非相関およびIC(Interaural Coherence)調整を行い、調整された各チャネル別の入力信号および非相関信号を左、右チャネル信号にダウンミックスした後、ダウンミックスされた信号のエネルギー減衰を補償して2チャネルの左、右出力信号を生成する。より具体的には、デコリレータ241は、各マルチチャネル入力信号X0、X1、…、X_M−1に対する非相関信号D0、D1、…、D_M−1を生成する。デコリレータ241は両耳間のコヒーレンス(coherence)を調整するための一種の前処理器であって、位相ランダマイザ(phase randomizer)が用いられてもよく、演算量の効率のために90度単位で入力信号の位相を変えてもよい。
一方、BRIRパラメータ化部(図示せず)のIC推定部213は、IC値を推定してバイノーラルレンダリングユニット(図示せず)に伝達する。バイノーラルレンダリングユニットは受信されたIC値をメモリ255に格納することができ、ICマッチング部243に伝達する。ICマッチング部243はBRIRパラメータ化部からIC値を直接受信することもでき、メモリ255に既に格納されたIC値を取得することもできる。各チャネル別の入力信号および非相関信号は、ICマッチング部243において、左チャネル信号のX_L0、X_L1、…、X_L_M−1と右チャネル信号のX_R0、X_R1、…、X_R_M−1にレンダリングされる。ICマッチング部243は、IC値を参照して各チャネル別に非相関信号と本来の入力信号間の加重和を行い、それによって二つのチャネル信号間のコヒーレンスを調整する。この時、各チャネル別の入力信号はサブバンドドメインの信号であるため、前述したFDICのマッチングが可能である。本来のチャネル信号をX、非相関チャネル信号をD、該サブバンドのICをφとした時、ICマッチングが行われた左、右チャネル信号X_L、X_Rは次の数式のように表すことができる。
(数式6)
(複号同順)
ダウンミックス部244a,244bは、ICマッチングによってレンダリングされた複数の左チャネル信号と複数の右チャネル信号を各々左、右チャネル別にダウンミックスして、2チャネルの左、右レンダリング信号を生成する。次に、エネルギー減衰マッチング部246a,246bは、2チャネルの左、右レンダリング信号のエネルギー減衰を各々反映して、2チャネルの左、右出力信号Y_Lp、Y_Rpを生成する。エネルギー減衰マッチング部246a,246bは、ダウンミックスサブバンドフィルタ生成部216から得られたダウンミックスサブバンドフィルタ係数を用いてエネルギー減衰マッチングを行う。ダウンミックスサブバンドフィルタ係数は、該サブバンドの各チャネル別のリヤサブバンドフィルタ係数の組み合わせによって生成される。例えば、ダウンミックスサブバンドフィルタ係数は、該サブバンドに対して各チャネル別のリヤサブバンドフィルタ係数の二乗振幅応答の平均にルートを取ったサブバンドフィルタ係数を含むことができる。よって、ダウンミックスサブバンドフィルタ係数は、該サブバンド信号に対する後期残響パートのエネルギー減少特性を反映する。ダウンミックスサブバンドフィルタ係数は実施形態によってモノまたはステレオにダウンミックスされたダウンミックスサブバンドフィルタ係数を含むことができ、FDICと同様にBRIRパラメータ化部から直接受信されるか、またはメモリ225に既に格納された値から得ることができる。M個のチャネルのうちk番目のチャネルにおけるF−パートが切断されたBRIRをBRIRk、k番目のチャネルにおけるN番目のサンプルまでの切断されたBRIRをBRIRT,k、N番目のサンプル以後の切断された部分のエネルギーを補償したダウンミックスサブバンドフィルタ係数をBRIREとすれば、BRIREは次のような数式を用いて求めることができる。
(数式7)
図13は、本発明のまた他の実施形態による後期残響生成部240Cを示している。図13の後期残響生成部240Cの各構成は図12の実施形態で説明された後期残響生成部240Bの各構成と同様であってもよく、各構成間のデータ処理順序が一部異なる。
図13の実施形態によれば、後期残響生成部240Cは、後期残響パートの各チャネル別FDICが同一であることを利用して演算量をさらに減少させることができる。すなわち、後期残響生成部240Cは、各マルチチャネル信号を左、右チャネル信号にダウンミックスし、ダウンミックスされた左、右チャネル信号のICを調整した後、調整された左、右チャネル信号に対するエネルギー減衰を補償して2チャネルの左、右出力信号を生成することができる。
より具体的には、デコリレータ241は、各マルチチャネル入力信号X0、X1、…、X_M−1に対する非相関信号D0、D1、…、D_M−1を生成する。次に、ダウンミックス部244a,244bは、マルチチャネル入力信号および非相関信号を各々ダウンミックスして、2チャネルダウンミックス信号X_DMX、D_DMXを生成する。ICマッチング部243は、IC値を参照して2チャネルダウンミックス信号を加重和し、それによって二つのチャネル信号間のコヒーレンスを調整する。エネルギー減衰補償部246a,246bは、ICマッチング部243によってICマッチングが行われた左、右チャネル信号X_L、X_Rの各々に対するエネルギー補償を行って、2チャネルの左、右出力信号X_Lp、Y_Rpを生成する。この時、エネルギー補償に用いられるエネルギー補償情報には、各サブバンドに対するダウンミックスサブバンドフィルタ係数が含まれることができる。
図14は、本発明のまた他の実施形態による後期残響生成部240Dを示している。図14の後期残響生成部240Dの各構成は図12および図13の実施形態で説明された後期残響生成部240B,240Cの各構成と同一であってもよいが、より簡略化された特徴を有する。
先ず、ダウンミックス部244は、マルチチャネル入力信号X0、X1、…、X_M−1を各サブバンド別にダウンミックスして、モノダウンミックス信号(すなわち、モノサブバンド信号)X_DMXを生成する。エネルギー減衰マッチング部246は、生成されたモノダウンミックス信号に対するエネルギー減衰を反映する。この時、エネルギー減衰を反映するために、各サブバンドに対するダウンミックスサブバンドフィルタ係数が用いられることができる。次に、デコリレータ241は、エネルギー減衰が反映されたモノダウンミックス信号の非相関信号D_DMXを生成する。ICマッチング部243は、エネルギー減衰が反映されたモノダウンミックス信号と非相関信号をFDIC値を参照して加重和し、それによって2チャネルの左、右出力信号Y_Lp、Y_Rpを生成する。図14の実施形態によれば、エネルギー減衰マッチングをモノダウンミックス信号(X_DMX)に対して1回のみ実行するので演算量をさらに節約することができる。
<高周波数バンドのQTDLプロセッシング>
次に、図15および図16を参照して本発明のQTDLプロセッシングの様々な実施形態について説明する。すなわち、QMFドメインにおいてQTDLプロセッシングを行う図2のQTDLプロセッシング部250の様々な実施形態が図15および図16を参照して説明される。図15および図16の実施形態において、マルチチャネル入力信号はQMFドメインのサブバンド信号として受信されると仮定する。よって、図15および図16の実施形態において、タップ−ディレイラインフィルタおよびワン−タップ−ディレイラインフィルタは各QMFサブバンド別にプロセッシングを行うことができる。また、QTDLプロセッシングは、前述したように既に設定された定数または既に設定された周波数バンドに基づいて分類された高周波数バンドの入力信号に対してのみ行われることができる。仮に、入力オーディオ信号にSBR(Spectral Band Replication)が適用された場合、前記高周波数バンドはSBRバンドに対応する。図15および図16の実施形態において、以前の図面の実施形態と重複する部分については具体的な説明は省略する。
高周波数帯域の効率的な符号化のために用いられるSBR(Spectral Band Replication)は、低ビット率の符号化時に高周波数帯域の信号を捨てることによって狭くなったバンド幅を再び拡張して、原信号程度のバンド幅を確保するための道具である。この時、高周波数帯域は符号化されて送信される低周波数帯域の情報とエンコーダによって送信した高周波数帯域信号の付加情報を活用して生成される。しかし、SBRを用いて生成された高周波数成分は不正確な高調波(harmonic)の生成によって歪みが発生しうる。また、SBRバンドは高周波数帯域であり、前述したように該周波数帯域の残響時間は非常に短い。すなわち、SBRバンドのBRIRサブバンドフィルタは有効情報が少なく、速い減衰率を有する。よって、SBR帯域に準ずる高周波数帯域に対するBRIRレンダリングは、コンボリューションを行うことよりは有効な少数のタップを用いてレンダリングを行うことが音質のクォリティーに対比して演算量の側面で非常に効果的である。
図15は、本発明の一実施形態によるQTDLプロセッシング部250Aを示している。図15の実施形態によれば、QTDLプロセッシング部250Aは、タップ−ディレイラインフィルタを用いて、マルチチャネル入力信号X0、X1、…、X_M−1に対するサブバンド別のフィルタリングを行う。タップ−ディレイラインフィルタは、各チャネル信号に対して既に設定された少数のタップだけコンボリューションを行う。この時に用いられる少数のタップは、該サブバンド信号に対応するBRIRサブバンドフィルタ係数から直接抽出されたパラメータに基づいて決定されることができる。前記パラメータは、タップ−ディレイラインフィルタに用いられる各タップに対するディレイ(delay)情報およびそれに対応するゲイン(gain)情報を含む。
タップ−ディレイラインフィルタに用いられるタップ数は、複雑度−クォリティー制御に応じて決定されることができる。QTDLプロセッシング部250Aは、既に決められたタップ数に基づいて、各チャネルおよびサブバンド別に該タップ数に対応するパラメータ(ゲイン情報、ディレイ情報)セットをBRIRパラメータ化部から受信する。この時、受信されるパラメータセットは該サブバンド信号に対応するBRIRサブバンドフィルタ係数から抽出され、様々な実施形態に応じて決定されることができる。例えば、該BRIRサブバンドフィルタ係数の複数のピークのうち絶対値の大きさ順、実数値の大きさ順、または虚数値の大きさ順に前記既に決められたタップ数だけ抽出されたピークの各々に対するパラメータのセットが受信されることができる。この時、各パラメータのディレイ情報は該ピークの位置情報を示し、QMFドメインにおいてサンプル単位の整数値を有する。また、ゲイン情報は、該ディレイ情報に対応するピークの大きさに基づいて決定される。この時、ゲイン情報は、サブバンドフィルタ係数における該ピーク値そのものが用いられてもよいが、全体サブバンドフィルタ係数に対するエネルギー補償が行われた後の該ピークの加重値が用いられてもよい。前記ゲイン情報は、該ピークに対する実数加重値および虚数加重値を共に用いて得られ、よって複素数値を有する。
タップ−ディレイラインフィルタによってフィルタリングされた複数のチャネル信号は、各サブバンド別に2チャネルの左、右出力信号Y_L、Y_Rに合算される。一方、QTDLプロセッシング部250Aの各タップ−ディレイラインフィルタで用いられるパラメータはバイノーラルレンダリングの初期化過程でメモリに格納されることができ、パラメータの抽出のための追加的な演算なしでQTDLプロセッシングが行われることができる。
図16は、本発明の他の実施形態によるQTDLプロセッシング部250Bを示している。図16の実施形態によれば、QTDLプロセッシング部250Bは、ワン−タップ−ディレイラインフィルタを用いて、マルチチャネル入力信号X0、X1、…、X_M−1に対するサブバンド別のフィルタリングを行う。ワン−タップ−ディレイラインフィルタは、各チャネル信号に対して1個のタップにおいてのみコンボリューションを行うものとして理解することができる。この時に用いられるタップは、該サブバンド信号に対応するBRIRサブバンドフィルタ係数から直接抽出されたパラメータに基づいて決定されることができる。前記パラメータは、前述したようにBRIRサブバンドフィルタ係数から抽出されたディレイ情報およびそれに対応するゲイン情報を含む。
図16において、L_0、L_1、…L_M−1は各々M個のチャネルから左耳へのBRIRに対するディレイを示し、R_0、R_1、…、R_M−1は各々M個のチャネルから右耳へのBRIRに対するディレイを示す。この時、ディレイ情報は、該BRIRサブバンドフィルタ係数のうちの絶対値の大きさ順、実数値の大きさ順、または虚数値の大きさ順に最大ピークに対する位置情報を示す。また、図16において、G_L_0、G_L_1、…、G_L_M−1は左チャネルの各ディレイ情報に対応するゲインを示し、G_R_0、G_R_1、…、G_R_M−1は各々右チャネルの各ディレイ情報に対応するゲインを示す。前述したように、各ゲイン情報は、該ディレイ情報に対応するピークの大きさに基づいて決定される。この時、ゲイン情報はサブバンドフィルタ係数における該ピーク値そのものが用いられてもよいが、全体サブバンドフィルタ係数に対するエネルギー補償が行われた後の該ピークの加重値が用いられてもよい。前記ゲイン情報は該ピークに対する実数加重値および虚数加重値を共に用いて得られ、よって複素数値を有する。
図15の実施形態のように、ワン−タップ−ディレイラインフィルタによってフィルタリングされた複数のチャネル信号は、各サブバンド別に2チャネルの左、右出力信号Y_L、Y_Rに合算される。また、QTDLプロセッシング部250Bの各ワン−タップ−ディレイラインフィルタで用いられるパラメータはバイノーラルレンダリングの初期化過程でメモリに格納されることができ、パラメータの抽出のための追加的な演算なしでQTDLプロセッシングが行われることができる。
以上では本発明を具体的な実施形態によって説明したが、当業者であれば、本発明の趣旨および範囲を逸脱することなく修正、変更をすることができる。すなわち、本発明はマルチオーディオ信号に対するバイノーラルレンダリングの実施形態について説明したが、本発明はオーディオ信号だけでなくビデオ信号を含む様々なマルチメディア信号にも同様に適用および拡張することができる。よって、本発明の詳細な説明および実施形態から本発明が属する技術分野に属した者が容易に類推できるものは本発明の権利範囲に属すると解釈される。
前述したように、発明の実施のための最善の形態に関する事項を記述した。
本発明は、様々な形態のオーディオ信号処理装置およびビデオ信号処理装置などを含むマルチメディア信号処理装置に適用されることができる。

Claims (8)

  1. 複数のサブバンドを有するマルチメディア信号を受信するステップ;
    前記マルチメディア信号の各サブバンド信号のフィルタリングのための少なくとも一つの原型(proto−type)フィルタ係数を受信するステップ;
    前記原型フィルタ係数を複数のサブバンドフィルタ係数に変換するステップ;
    前記各サブバンドフィルタ係数を該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて切断するステップ、少なくとも一つの前記切断されたサブバンドフィルタ係数の長さは他サブバンドの切断されたサブバンドフィルタ係数の長さと異なる;および
    前記各サブバンド信号に対応する前記切断されたサブバンドフィルタ係数を用いて前記マルチメディア信号をフィルタリングするステップ;
    を含むことを特徴とするマルチメディア信号処理方法。
  2. 前記切断されたサブバンドフィルタの長さは2の累乗の倍数値を有することを特徴とする、請求項1に記載のマルチメディア信号処理方法。
  3. 前記マルチメディア信号はマルチチャネルまたはマルチオブジェクト信号を含み、
    前記原型フィルタ係数は時間ドメインのBRIRフィルタ係数であることを特徴とする、請求項1に記載のマルチメディア信号処理方法。
  4. 前記マルチメディア信号はマルチチャネルまたはマルチオブジェクト信号を含み、
    前記特性情報は該サブバンドフィルタ係数のエネルギー減衰時間情報を含み、前記フィルタ次数情報は各サブバンド別に一つの値を有することを特徴とする、請求項1に記載のマルチメディア信号処理方法。
  5. 複数のサブバンドを有するマルチメディア信号処理装置であって、
    前記マルチメディア信号の各サブバンド信号のフィルタリングのための少なくとも一つの原型(proto−type)レンダリングフィルタ係数を受信し、前記原型フィルタ係数を複数のサブバンドフィルタ係数に変換し、前記各サブバンドフィルタ係数を該サブバンドフィルタ係数から抽出された特性情報を少なくとも部分的に用いて得られたフィルタ次数情報に基づいて切断し、少なくとも一つの前記切断されたサブバンドフィルタ係数の長さは他サブバンドの切断されたサブバンドフィルタ係数の長さと異なる、パラメータ化部;および
    前記マルチメディア信号を受信し、前記各サブバンド信号に対応する前記切断されたサブバンドフィルタ係数を用いて前記マルチメディア信号をフィルタリングするレンダリングユニット;
    を含むことを特徴とするマルチメディア信号処理装置。
  6. 前記切断されたサブバンドフィルタの長さは2の累乗の倍数値を有することを特徴とする、請求項5に記載のマルチメディア信号処理装置。
  7. 前記マルチメディア信号はマルチチャネルまたはマルチオブジェクト信号を含み、
    前記原型フィルタ係数は時間ドメインのBRIRフィルタ係数であることを特徴とする、請求項5に記載のマルチメディア信号処理装置。
  8. 前記マルチメディア信号はマルチチャネルまたはマルチオブジェクト信号を含み、
    前記特性情報は該サブバンドフィルタ係数のエネルギー減衰時間情報を含み、前記フィルタ次数情報は各サブバンド別に一つの値を有することを特徴とする、請求項5に記載のマルチメディア信号処理装置。
JP2016515421A 2013-09-17 2014-09-17 マルチメディア信号処理方法および装置 Active JP6121052B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361878638P 2013-09-17 2013-09-17
US61/878,638 2013-09-17
KR10-2013-0125936 2013-10-22
KR20130125936 2013-10-22
US201361894442P 2013-10-23 2013-10-23
US61/894,442 2013-10-23
PCT/KR2014/008679 WO2015041478A1 (ko) 2013-09-17 2014-09-17 멀티미디어 신호 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2016534586A JP2016534586A (ja) 2016-11-04
JP6121052B2 true JP6121052B2 (ja) 2017-04-26

Family

ID=52689083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016515421A Active JP6121052B2 (ja) 2013-09-17 2014-09-17 マルチメディア信号処理方法および装置

Country Status (9)

Country Link
US (7) US10469969B2 (ja)
EP (6) EP3048816B1 (ja)
JP (1) JP6121052B2 (ja)
KR (6) KR101815082B1 (ja)
CN (4) CN105659630B (ja)
BR (1) BR112016005956B8 (ja)
CA (3) CA3122726C (ja)
ES (1) ES2932422T3 (ja)
WO (3) WO2015041478A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11665482B2 (en) 2011-12-23 2023-05-30 Shenzhen Shokz Co., Ltd. Bone conduction speaker and compound vibration device thereof
CN109166588B (zh) 2013-01-15 2022-11-15 韩国电子通信研究院 处理信道信号的编码/解码装置及方法
WO2014112793A1 (ko) 2013-01-15 2014-07-24 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
KR101815082B1 (ko) 2013-09-17 2018-01-04 주식회사 윌러스표준기술연구소 멀티미디어 신호 처리 방법 및 장치
WO2015058818A1 (en) * 2013-10-22 2015-04-30 Huawei Technologies Co., Ltd. Apparatus and method for compressing a set of n binaural room impulse responses
CN108449704B (zh) 2013-10-22 2021-01-01 韩国电子通信研究院 生成用于音频信号的滤波器的方法及其参数化装置
DE102013223201B3 (de) * 2013-11-14 2015-05-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Komprimieren und Dekomprimieren von Schallfelddaten eines Gebietes
CN104681034A (zh) * 2013-11-27 2015-06-03 杜比实验室特许公司 音频信号处理
US9832589B2 (en) 2013-12-23 2017-11-28 Wilus Institute Of Standards And Technology Inc. Method for generating filter for audio signal, and parameterization device for same
US9832585B2 (en) 2014-03-19 2017-11-28 Wilus Institute Of Standards And Technology Inc. Audio signal processing method and apparatus
CN108307272B (zh) 2014-04-02 2021-02-02 韦勒斯标准与技术协会公司 音频信号处理方法和设备
CN105448312B (zh) * 2014-06-12 2019-02-19 华为技术有限公司 音频同步播放方法、装置及系统
US9838819B2 (en) * 2014-07-02 2017-12-05 Qualcomm Incorporated Reducing correlation between higher order ambisonic (HOA) background channels
CN108141685B (zh) * 2015-08-25 2021-03-02 杜比国际公司 使用呈现变换参数的音频编码和解码
EP3174316B1 (en) * 2015-11-27 2020-02-26 Nokia Technologies Oy Intelligent audio rendering
US10142755B2 (en) * 2016-02-18 2018-11-27 Google Llc Signal processing methods and systems for rendering audio on virtual loudspeaker arrays
US10492016B2 (en) * 2016-09-29 2019-11-26 Lg Electronics Inc. Method for outputting audio signal using user position information in audio decoder and apparatus for outputting audio signal using same
US10492018B1 (en) 2016-10-11 2019-11-26 Google Llc Symmetric binaural rendering for high-order ambisonics
CN106454643A (zh) * 2016-12-03 2017-02-22 邯郸学院 一种补偿频率可调的音频播放器
US9992602B1 (en) 2017-01-12 2018-06-05 Google Llc Decoupled binaural rendering
US10158963B2 (en) 2017-01-30 2018-12-18 Google Llc Ambisonic audio with non-head tracked stereo based on head position and time
US10009704B1 (en) 2017-01-30 2018-06-26 Google Llc Symmetric spherical harmonic HRTF rendering
DE102017102988B4 (de) 2017-02-15 2018-12-20 Sennheiser Electronic Gmbh & Co. Kg Verfahren und Vorrichtung zur Verarbeitung eines digitalen Audiosignals für binaurale Wiedergabe
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
US10939222B2 (en) * 2017-08-10 2021-03-02 Lg Electronics Inc. Three-dimensional audio playing method and playing apparatus
US11200906B2 (en) 2017-09-15 2021-12-14 Lg Electronics, Inc. Audio encoding method, to which BRIR/RIR parameterization is applied, and method and device for reproducing audio by using parameterized BRIR/RIR information
CN117475983A (zh) 2017-10-20 2024-01-30 索尼公司 信号处理装置、方法和存储介质
KR102585667B1 (ko) 2017-10-20 2023-10-06 소니그룹주식회사 신호 처리 장치 및 방법, 그리고 프로그램
US10499153B1 (en) * 2017-11-29 2019-12-03 Boomcloud 360, Inc. Enhanced virtual stereo reproduction for unmatched transaural loudspeaker systems
WO2019199040A1 (ko) * 2018-04-10 2019-10-17 가우디오랩 주식회사 메타데이터를 이용하는 오디오 신호 처리 방법 및 장치
JP7137694B2 (ja) 2018-09-12 2022-09-14 シェンチェン ショックス カンパニー リミテッド 複数の音響電気変換器を有する信号処理装置
CN114303395A (zh) * 2019-09-03 2022-04-08 杜比实验室特许公司 具有解相关分量的音频滤波器组
CN110853658B (zh) * 2019-11-26 2021-12-07 中国电影科学技术研究所 音频信号的下混方法、装置、计算机设备及可读存储介质
CN112336380A (zh) * 2020-10-29 2021-02-09 成都信息工程大学 一种基于Golay码的超声弹性成像应变估计方法
CN112770227B (zh) * 2020-12-30 2022-04-29 中国电影科学技术研究所 音频处理方法、装置、耳机和存储介质
US11568884B2 (en) * 2021-05-24 2023-01-31 Invictumtech, Inc. Analysis filter bank and computing procedure thereof, audio frequency shifting system, and audio frequency shifting procedure
KR102652643B1 (ko) * 2021-06-09 2024-03-29 코클 아이엔씨 오디오 음질 변환 장치 및 그의 제어방법
CN116095595B (zh) * 2022-08-19 2023-11-21 荣耀终端有限公司 音频处理方法和装置

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5329587A (en) 1993-03-12 1994-07-12 At&T Bell Laboratories Low-delay subband adaptive filter
US5371799A (en) 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
DE4328620C1 (de) * 1993-08-26 1995-01-19 Akg Akustische Kino Geraete Verfahren zur Simulation eines Raum- und/oder Klangeindrucks
US5757931A (en) * 1994-06-15 1998-05-26 Sony Corporation Signal processing apparatus and acoustic reproducing apparatus
JP2985675B2 (ja) * 1994-09-01 1999-12-06 日本電気株式会社 帯域分割適応フィルタによる未知システム同定の方法及び装置
IT1281001B1 (it) * 1995-10-27 1998-02-11 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio.
JP4627880B2 (ja) 1997-09-16 2011-02-09 ドルビー ラボラトリーズ ライセンシング コーポレイション リスナーの周囲にある音源の空間的ひろがり感を増強するためのステレオヘッドホンデバイス内でのフィルタ効果の利用
US6668061B1 (en) * 1998-11-18 2003-12-23 Jonathan S. Abel Crosstalk canceler
FI118247B (fi) 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
US8311809B2 (en) * 2003-04-17 2012-11-13 Koninklijke Philips Electronics N.V. Converting decoded sub-band signal into a stereo signal
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
US7680289B2 (en) 2003-11-04 2010-03-16 Texas Instruments Incorporated Binaural sound localization using a formant-type cascade of resonators and anti-resonators
US7949141B2 (en) 2003-11-12 2011-05-24 Dolby Laboratories Licensing Corporation Processing audio signals with head related transfer function filters and a reverberator
KR100595202B1 (ko) * 2003-12-27 2006-06-30 엘지전자 주식회사 디지털 오디오 워터마크 삽입/검출 장치 및 방법
US7486498B2 (en) * 2004-01-12 2009-02-03 Case Western Reserve University Strong substrate alloy and compressively stressed dielectric film for capacitor with high energy density
WO2005086139A1 (en) 2004-03-01 2005-09-15 Dolby Laboratories Licensing Corporation Multichannel audio coding
KR100634506B1 (ko) 2004-06-25 2006-10-16 삼성전자주식회사 저비트율 부호화/복호화 방법 및 장치
US7720230B2 (en) 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
KR100617165B1 (ko) * 2004-11-19 2006-08-31 엘지전자 주식회사 워터마크 삽입/검출 기능을 갖는 오디오 부호화/복호화장치 및 방법
US7715575B1 (en) 2005-02-28 2010-05-11 Texas Instruments Incorporated Room impulse response
EP1740016B1 (en) * 2005-06-28 2010-02-24 AKG Acoustics GmbH Method for the simulation of a room impression and/or sound impression
US8027477B2 (en) 2005-09-13 2011-09-27 Srs Labs, Inc. Systems and methods for audio processing
EP1927264B1 (en) 2005-09-13 2016-07-20 Koninklijke Philips N.V. Method of and device for generating and processing parameters representing hrtfs
EP1927266B1 (en) 2005-09-13 2014-05-14 Koninklijke Philips N.V. Audio coding
JP4938015B2 (ja) 2005-09-13 2012-05-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元音声を生成する方法及び装置
US8443026B2 (en) 2005-09-16 2013-05-14 Dolby International Ab Partially complex modulated filter bank
US7917561B2 (en) 2005-09-16 2011-03-29 Coding Technologies Ab Partially complex modulated filter bank
US8811627B2 (en) 2005-10-26 2014-08-19 Nec Corporation Echo suppressing method and apparatus
JP4637725B2 (ja) * 2005-11-11 2011-02-23 ソニー株式会社 音声信号処理装置、音声信号処理方法、プログラム
WO2007080211A1 (en) 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
CN101361118B (zh) * 2006-01-19 2011-07-27 Lg电子株式会社 处理媒体信号的方法和装置
PL1989920T3 (pl) 2006-02-21 2010-07-30 Koninl Philips Electronics Nv Kodowanie i dekodowanie dźwięku
KR100754220B1 (ko) * 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
WO2007106553A1 (en) 2006-03-15 2007-09-20 Dolby Laboratories Licensing Corporation Binaural rendering using subband filters
FR2899423A1 (fr) * 2006-03-28 2007-10-05 France Telecom Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme.
FR2899424A1 (fr) 2006-03-28 2007-10-05 France Telecom Procede de synthese binaurale prenant en compte un effet de salle
KR101244910B1 (ko) * 2006-04-03 2013-03-18 삼성전자주식회사 시분할 입체 영상 디스플레이 장치 및 그 구동 방법
EP1853092B1 (en) * 2006-05-04 2011-10-05 LG Electronics, Inc. Enhancing stereo audio with remix capability
US8374365B2 (en) * 2006-05-17 2013-02-12 Creative Technology Ltd Spatial audio analysis and synthesis for binaural reproduction and format conversion
EP3236587B1 (en) * 2006-07-04 2018-11-21 Dolby International AB Filter system comprising a filter converter and a filter compressor and method for operating the filter system
US7876903B2 (en) 2006-07-07 2011-01-25 Harris Corporation Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
EP1885154B1 (en) * 2006-08-01 2013-07-03 Nuance Communications, Inc. Dereverberation of microphone signals
US9496850B2 (en) 2006-08-04 2016-11-15 Creative Technology Ltd Alias-free subband processing
ES2873254T3 (es) 2006-10-25 2021-11-03 Fraunhofer Ges Forschung Aparato y procedimiento para la generación de valores de subbanda de audio de valor complejo
JP5270566B2 (ja) 2006-12-07 2013-08-21 エルジー エレクトロニクス インコーポレイティド オーディオ処理方法及び装置
KR20080076691A (ko) * 2007-02-14 2008-08-20 엘지전자 주식회사 멀티채널 오디오신호 복호화방법 및 그 장치, 부호화방법및 그 장치
KR100955328B1 (ko) 2007-05-04 2010-04-29 한국전자통신연구원 반사음 재생을 위한 입체 음장 재생 장치 및 그 방법
US8140331B2 (en) 2007-07-06 2012-03-20 Xia Lou Feature extraction for identification and classification of audio signals
KR100899836B1 (ko) 2007-08-24 2009-05-27 광주과학기술원 실내 충격응답 모델링 방법 및 장치
WO2009046223A2 (en) 2007-10-03 2009-04-09 Creative Technology Ltd Spatial audio analysis and synthesis for binaural reproduction and format conversion
AU2008309951B8 (en) * 2007-10-09 2011-12-22 Dolby International Ab Method and apparatus for generating a binaural audio signal
CN101136197B (zh) * 2007-10-16 2011-07-20 得理微电子(上海)有限公司 基于时变延迟线的数字混响处理器
KR100971700B1 (ko) * 2007-11-07 2010-07-22 한국전자통신연구원 공간큐 기반의 바이노럴 스테레오 합성 장치 및 그 방법과,그를 이용한 바이노럴 스테레오 복호화 장치
US8125885B2 (en) 2008-07-11 2012-02-28 Texas Instruments Incorporated Frequency offset estimation in orthogonal frequency division multiple access wireless networks
CN103561378B (zh) * 2008-07-31 2015-12-23 弗劳恩霍夫应用研究促进协会 双耳信号的信号生成
TWI475896B (zh) 2008-09-25 2015-03-01 Dolby Lab Licensing Corp 單音相容性及揚聲器相容性之立體聲濾波器
EP2175670A1 (en) 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
KR20100062784A (ko) 2008-12-02 2010-06-10 한국전자통신연구원 객체 기반 오디오 컨텐츠 생성/재생 장치
WO2010091077A1 (en) 2009-02-03 2010-08-12 University Of Ottawa Method and system for a multi-microphone noise reduction
EP2237270B1 (en) 2009-03-30 2012-07-04 Nuance Communications, Inc. A method for determining a noise reference signal for noise compensation and/or noise reduction
US20120039477A1 (en) 2009-04-21 2012-02-16 Koninklijke Philips Electronics N.V. Audio signal synthesizing
JP4893789B2 (ja) 2009-08-10 2012-03-07 ヤマハ株式会社 音場制御装置
US9432790B2 (en) * 2009-10-05 2016-08-30 Microsoft Technology Licensing, Llc Real-time sound propagation for dynamic sources
EP2365630B1 (en) 2010-03-02 2016-06-08 Harman Becker Automotive Systems GmbH Efficient sub-band adaptive fir-filtering
MY154204A (en) 2010-03-09 2015-05-15 Fraunhofer Ges Forschung Apparatus and method for processing an imput audio signal using cascaded filterbanks
KR101844511B1 (ko) 2010-03-19 2018-05-18 삼성전자주식회사 입체 음향 재생 방법 및 장치
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US8693677B2 (en) 2010-04-27 2014-04-08 Freescale Semiconductor, Inc. Techniques for updating filter coefficients of an adaptive filter
KR101819027B1 (ko) * 2010-08-06 2018-01-17 삼성전자주식회사 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체
NZ587483A (en) * 2010-08-20 2012-12-21 Ind Res Ltd Holophonic speaker system with filters that are pre-configured based on acoustic transfer functions
RU2551817C2 (ru) * 2010-09-16 2015-05-27 Долби Интернешнл Аб Гармоническое преобразование на основе блока поддиапазонов, усиленное перекрестными произведениями
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
FR2966634A1 (fr) * 2010-10-22 2012-04-27 France Telecom Codage/decodage parametrique stereo ameliore pour les canaux en opposition de phase
EP2464146A1 (en) 2010-12-10 2012-06-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decomposing an input signal using a pre-calculated reference curve
US9462387B2 (en) 2011-01-05 2016-10-04 Koninklijke Philips N.V. Audio system and method of operation therefor
EP2541542A1 (en) 2011-06-27 2013-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a measure for a perceived level of reverberation, audio processor and method for processing a signal
EP2503800B1 (en) * 2011-03-24 2018-09-19 Harman Becker Automotive Systems GmbH Spatially constant surround sound
JP5704397B2 (ja) 2011-03-31 2015-04-22 ソニー株式会社 符号化装置および方法、並びにプログラム
CN103548077B (zh) 2011-05-19 2016-02-10 杜比实验室特许公司 参数化音频编译码方案的取证检测
EP2530840B1 (en) * 2011-05-30 2014-09-03 Harman Becker Automotive Systems GmbH Efficient sub-band adaptive FIR-filtering
KR101809272B1 (ko) * 2011-08-03 2017-12-14 삼성전자주식회사 다 채널 오디오 신호의 다운 믹스 방법 및 장치
EP3253079B1 (en) 2012-08-31 2023-04-05 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
US20140270189A1 (en) 2013-03-15 2014-09-18 Beats Electronics, Llc Impulse response approximation methods and related systems
US9674632B2 (en) 2013-05-29 2017-06-06 Qualcomm Incorporated Filtering with binaural room impulse responses
EP2840811A1 (en) 2013-07-22 2015-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for processing an audio signal; signal processing unit, binaural renderer, audio encoder and audio decoder
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
KR101815082B1 (ko) 2013-09-17 2018-01-04 주식회사 윌러스표준기술연구소 멀티미디어 신호 처리 방법 및 장치
CN108449704B (zh) 2013-10-22 2021-01-01 韩国电子通信研究院 生成用于音频信号的滤波器的方法及其参数化装置
US9832589B2 (en) 2013-12-23 2017-11-28 Wilus Institute Of Standards And Technology Inc. Method for generating filter for audio signal, and parameterization device for same
US9832585B2 (en) 2014-03-19 2017-11-28 Wilus Institute Of Standards And Technology Inc. Audio signal processing method and apparatus
JP6084264B1 (ja) 2015-09-28 2017-02-22 Kyb株式会社 スプール弁装置

Also Published As

Publication number Publication date
EP3048815A1 (en) 2016-07-27
WO2015041477A1 (ko) 2015-03-26
KR20170110738A (ko) 2017-10-11
CN108200530B (zh) 2020-06-12
EP3048815B1 (en) 2020-11-11
EP4120699A1 (en) 2023-01-18
EP3048816B1 (en) 2020-09-16
CN105659630B (zh) 2018-01-23
KR102159990B1 (ko) 2020-09-25
BR112016005956B1 (pt) 2022-06-07
US20200021936A1 (en) 2020-01-16
KR20180004317A (ko) 2018-01-10
KR101815082B1 (ko) 2018-01-04
BR112016005956A2 (ja) 2017-09-05
US9584943B2 (en) 2017-02-28
KR102215129B1 (ko) 2021-02-10
KR20160052575A (ko) 2016-05-12
CA3122726C (en) 2023-05-09
JP2016534586A (ja) 2016-11-04
CA3122726A1 (en) 2015-03-26
CN105706467B (zh) 2017-12-19
WO2015041478A1 (ko) 2015-03-26
CN105659630A (zh) 2016-06-08
US10469969B2 (en) 2019-11-05
ES2932422T3 (es) 2023-01-19
WO2015041476A1 (ko) 2015-03-26
EP3048816A1 (en) 2016-07-27
US20180227692A1 (en) 2018-08-09
CN105706468A (zh) 2016-06-22
KR101815079B1 (ko) 2018-01-04
US20160219388A1 (en) 2016-07-28
EP3048814A1 (en) 2016-07-27
KR101782916B1 (ko) 2017-09-28
EP3048814B1 (en) 2019-10-23
US9961469B2 (en) 2018-05-01
KR20160048832A (ko) 2016-05-04
KR20160074458A (ko) 2016-06-28
US9578437B2 (en) 2017-02-21
BR112016005956B8 (pt) 2022-07-12
EP3048816A4 (en) 2017-05-31
US20160198281A1 (en) 2016-07-07
KR102163266B1 (ko) 2020-10-08
KR20180004316A (ko) 2018-01-10
US11622218B2 (en) 2023-04-04
CN105706467A (zh) 2016-06-22
EP3767970B1 (en) 2022-09-28
US20160249149A1 (en) 2016-08-25
CA2924458C (en) 2021-08-31
CN105706468B (zh) 2017-08-11
US10455346B2 (en) 2019-10-22
US20210337335A1 (en) 2021-10-28
CN108200530A (zh) 2018-06-22
EP3048815A4 (en) 2017-05-31
CA3194257A1 (en) 2015-03-26
US20160234620A1 (en) 2016-08-11
EP3806498B1 (en) 2023-08-30
CA2924458A1 (en) 2015-03-26
EP3806498A1 (en) 2021-04-14
EP3767970A1 (en) 2021-01-20
EP3048814A4 (en) 2017-05-31
US11096000B2 (en) 2021-08-17

Similar Documents

Publication Publication Date Title
JP6121052B2 (ja) マルチメディア信号処理方法および装置
JP6151866B2 (ja) オーディオ信号のフィルタ生成方法およびそのためのパラメータ化装置
KR101804744B1 (ko) 오디오 신호 처리 방법 및 장치
KR102216657B1 (ko) 오디오 신호 처리 방법 및 장치
KR102230308B1 (ko) 멀티미디어 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170328

R150 Certificate of patent or registration of utility model

Ref document number: 6121052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S303 Written request for registration of pledge or change of pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316303

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316805

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R314531

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S804 Written request for registration of cancellation of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314803

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250