JP6330034B2 - 適応的なオーディオ・コンテンツの生成 - Google Patents
適応的なオーディオ・コンテンツの生成 Download PDFInfo
- Publication number
- JP6330034B2 JP6330034B2 JP2016521520A JP2016521520A JP6330034B2 JP 6330034 B2 JP6330034 B2 JP 6330034B2 JP 2016521520 A JP2016521520 A JP 2016521520A JP 2016521520 A JP2016521520 A JP 2016521520A JP 6330034 B2 JP6330034 B2 JP 6330034B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- audio content
- channel
- signal
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003044 adaptive effect Effects 0.000 title claims description 86
- 238000000034 method Methods 0.000 claims description 100
- 230000005236 sound signal Effects 0.000 claims description 65
- 238000000354 decomposition reaction Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 16
- 230000003595 spectral effect Effects 0.000 claims description 15
- 238000001228 spectrum Methods 0.000 claims description 14
- 230000002123 temporal effect Effects 0.000 claims description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 description 18
- 238000000605 extraction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000000513 principal component analysis Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 230000036962 time dependent Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 230000006854 communication Effects 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/07—Synergistic effects of band splitting and sub-band processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S5/00—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation
- H04S5/005—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation of the pseudo five- or more-channel type, e.g. virtual surround
Description
本願は2013年6月18日に出願された中国特許出願第201310246711.2号および2013年7月8日に出願された米国仮特許出願第61/843,643号の優先権の利益を主張するものである。両出願の内容はここに参照によってその全体において組み込まれる。
本発明は概括的にはオーディオ信号処理に、より具体的には、適応的なオーディオ・コンテンツの生成に関する。
ここで、absは絶対値関数を表わす。次いで、分解された信号成分を解析することによって、拡散性(diffusivity)または周囲性(ambiance)の確率が計算されてもよい。具体的には、より大きなzは、拡散性についてのより小さな確率を示す。zスコアに基づいて、拡散性についての確率は、正規化された累積分布関数(cdf)/相補誤差関数(erfc)に基づくヒューリスティックな仕方で計算されうる。
一方、チャネルcについての拡散性についての確率は次のように更新される:
pc=max(pc,p)
pc+1=max(pc+1,pc)
最終的な拡散性オーディオ信号をAc、最終的な指向性オーディオ信号をScと表わす。こうして、各チャネルcについて、
Ac=Xc・pc
Sc=Xc・(1−pc)
となる。
g0=βcos(α')
g1=βsin(α')
ここで、g0およびg1は二つのチャネルの振幅を表わし、βはオーディオ・オブジェクトの振幅を表わし、α'は二つのチャネルの間のその方位角を表わす。対応して、g0およびg1に基づいて、方位角α'は次のように計算されてもよい:
α'=argtan((g1−g0)/(g1+g0))+π/4
こうして、オーディオ・オブジェクトの方位角αを推定するために、最高の振幅をもつ上位二つのチャネルがまず検出されてもよく、これら二つのチャネルの間の方位角α'が推定される。次いで、選択された二つのチャネルのインデックスに基づいて、マッピング関数がα'に適用されて、最終的な軌跡パラメータαを得てもよい。推定されたメタデータは、空間的軌跡の点で、源オーディオ・コンテンツのもとの創造的な意図の近似的な基準を与えうる。
〔EEE1〕
適応的なオーディオ・コンテンツを生成する方法であって:チャネル・ベースの源オーディオ・コンテンツから少なくとも一つのオーディオ・オブジェクトを抽出する段階と;少なくとも部分的に前記少なくとも一つのオーディオ・オブジェクトに基づいて前記適応的なオーディオ・コンテンツを生成する段階とを含む、方法。
〔EEE2〕
前記少なくとも一つのオーディオ・オブジェクトを抽出する段階が、前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解し;前記指向性オーディオ信号から前記少なくとも一つのオーディオ・オブジェクトを抽出することを含む、EEE1記載の方法。
〔EEE3〕
前記源オーディオ・コンテンツを分解することが:前記源オーディオ・コンテンツに対して信号成分分解を実行し;分解された信号成分を解析することによって拡散性の確率を計算し;前記拡散性の確率に基づいて前記源オーディオ・コンテンツを分解することを含む、EEE2記載の方法。
〔EEE4〕
前記源オーディオ・コンテンツが複数のチャネルを含み、前記信号成分分解が:前記複数のチャネルの間の相関を計算することによって共分散行列を計算し;前記共分散行列に対して固有ベクトル分解を実行して固有ベクトルおよび固有値を取得し;付随する固有値の対の間の差に基づいて前記拡散性の確率を計算することを含む、EEE3記載の方法。
〔EEE5〕
前記拡散性の確率がp=erfc(−z/√2)として計算され、ここで、z=abs(λc−λc+1)/(λc+λc+1)であり、λ1>λ2>λ3>…>λCは固有ベクトルであり、absは絶対値関数を表わし、erfcは相補誤差関数を表わす、EEE4記載の方法。
〔EEE6〕
チャネルcについての拡散性についての前記確率を pc=max(pc,p)およびpc+1=max(pc+1,pc)として更新する段階をさらに含む、EEE5記載の方法。
〔EEE7〕
前記共分散行列を平滑化する段階をさらに含む、EEE4ないし6のうちいずれか一項記載の方法。
〔EEE8〕
前記拡散性オーディオ信号が前記源オーディオ・コンテンツに前記拡散性の確率を乗算することによって得られ、前記指向性オーディオ信号が前記源オーディオ・コンテンツから前記拡散性オーディオ信号を減算することによって得られる、EEE3ないし7のうちいずれか一項記載の方法。
〔EEE9〕
前記信号成分分解が、方向、位置、拡散性、直接音対残響比、オン/オフセット同期、調波性変調、ピッチ、ピッチ揺動、顕著性、部分ラウドネス、反復性のうちの少なくとも一つを含む、空間的一貫性およびスペクトル連続性の手がかりに基づいて実行される、EEE3ないし8のうちいずれか一項記載の方法。
〔EEE10〕
前記少なくとも一つのオーディオ・オブジェクトをマージ、分離、接続、分割、位置変更、形状変更、レベル調整すること;前記少なくとも一つのオーディオ・オブジェクトについての時間依存利得およびチャネル依存利得を更新すること;前記少なくとも一つのオーディオ・オブジェクトおよび利得に対してエネルギーが保存されるダウンミックスを適用して、モノ・オブジェクト・トラックを生成すること;および前記オーディオ・ベッドに残差信号を組み込むことのうちの少なくとも一つを含む再オーサリング・プロセスにおいて前記少なくとも一つのオーディオ・オブジェクトを操作する段階をさらに含む、EEE1ないし9のうちいずれか一項記載の方法。
〔EEE11〕
前記適応的なオーディオ・コンテンツに関連付けられるメタデータを推定する段階をさらに含む、請求項1ないし10のうちいずれか一項記載の方法。
〔EEE12〕
前記適応的なオーディオ・コンテンツを生成する段階が、前記適応的なオーディオ・コンテンツに関連付けられた前記メタデータを編集することを含む、EEE11記載の方法。
〔EEE13〕
前記メタデータを編集することが、前記少なくとも一つのオーディオ・オブジェクトの時間依存利得およびチャネル依存利得に基づいて空間位置/軌跡メタデータを推定し直すことを含む、EEE12記載の方法。
〔EEE14〕
前記空間メタデータが、前記少なくとも一つのオーディオ・オブジェクトの時間依存かつチャネル依存の利得に基づいて推定される、EEE13記載の方法。
〔EEE15〕
前記空間メタデータがα=argtan((G・A1−G・A0)/(G・A1+G・A0))+π/4として推定され、Gは前記少なくとも一つのオーディオ・オブジェクトの前記時間依存利得を表わし、A0およびA1は、種々のチャネルのうちでの前記少なくとも一つのオーディオ・オブジェクトの上位二つの最も高いチャネル依存の利得を表わす、EEE14記載の方法。
〔EEE16〕
空間位置メタデータおよびあらかじめ定義されたヘミスフィア形状が、推定された二次元空間位置を前記あらかじめ定義されたヘミスフィア形状にマッピングすることによって三次元軌跡を自動的に生成するために使われる、EEE11ないし15のうちいずれか一項記載の方法。
〔EEE17〕
顕著性/エネルギー・メタデータを参照することによって連続的な仕方で前記少なくとも一つのオーディオ・オブジェクトの参照エネルギー利得を自動的に生成する段階をさらに含む、EEE11ないし16のうちいずれか一項記載の方法。
〔EEE18〕
前記源オーディオ・コンテンツを周囲アップミックスすることによって高さチャネルを生成する段階と;前記高さチャネルおよび前記源オーディオ・コンテンツのサラウンド・チャネルからチャネル・ベースのオーディオ・ベッドを生成する段階とをさらに含む、EEE11ないし17のうちいずれか一項記載の方法。
〔EEE19〕
前記高さチャネルおよび前記サラウンド・チャネルにエネルギーが保存される因子を乗算することによって前記オーディオ・ベッドに対する利得制御を適用して、周囲の知覚されるヘミスフィア高さを修正する段階をさらに含む、EEE18記載の方法。
〔EEE20〕
EEE1ないし19のうちいずれか一項記載の方法の段階を実行するよう構成されたユニットを有する、適応的なオーディオ・コンテンツを生成するシステム。
いくつかの態様を記載しておく。
〔態様1〕
適応的なオーディオ・コンテンツを生成する方法であって:
チャネル・ベースの源オーディオ・コンテンツから少なくとも一つのオーディオ・オブジェクトを抽出する段階と;
少なくとも部分的に前記少なくとも一つのオーディオ・オブジェクトに基づいて前記適応的なオーディオ・コンテンツを生成する段階とを含む、
方法。
〔態様2〕
前記少なくとも一つのオーディオ・オブジェクトを抽出する段階が:
前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解し;
前記指向性オーディオ信号から前記少なくとも一つのオーディオ・オブジェクトを抽出することを含む、
態様1記載の方法。
〔態様3〕
前記源オーディオ・コンテンツを分解することが:
前記源オーディオ・コンテンツに対して信号成分分解を実行し;
分解された信号成分を解析することによって拡散性の確率を計算することを含む、
態様2記載の方法。
〔態様4〕
前記少なくとも一つのオーディオ・オブジェクトを抽出する段階が:
前記源オーディオ・コンテンツにおける複数のフレームのそれぞれについて、同じオーディオ・オブジェクトを含むチャネルを識別し、総合するスペクトル分解を実行し;
前記複数のフレームを横断して識別され、総合されたチャネルの時間的合成を実行して、時間に沿った前記少なくとも一つのオーディオ・オブジェクトを形成することを含む、
態様1ないし3のうちいずれか一項記載の方法。
〔態様5〕
前記同じオーディオ・オブジェクトを含むチャネルを識別し、総合することが:
前記複数のフレームのそれぞれについて、周波数範囲を複数のサブバンドに分解し;
前記複数のサブバンドの間の包絡およびスペクトル形状の少なくとも一方の類似性に基づいて、同じオーディオ・オブジェクトを含むチャネルを識別し、総合することを含む、
態様4記載の方法。
〔態様6〕
前記源オーディオ・コンテンツからチャネル・ベースのオーディオ・ベッドを生成する段階をさらに含み、
前記適応的なオーディオ・コンテンツを生成する段階が、前記少なくとも一つのオーディオ・オブジェクトおよび前記オーディオ・ベッドに基づいて前記適応的なオーディオ・コンテンツを生成することを含む、
態様1ないし5のうちいずれか一項記載の方法。
〔態様7〕
前記オーディオ・ベッドを生成する段階が:
前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解し;
前記拡散性オーディオ信号から前記オーディオ・ベッドを生成することを含む、
態様6記載の方法。
〔態様8〕
前記オーディオ・ベッドを生成する段階が:
前記源オーディオ・コンテンツを周囲アップミックスすることによって少なくとも一つの高さチャネルを生成する段階と;
前記源オーディオ・コンテンツのチャネルおよび前記少なくとも一つの高さチャネルから前記オーディオ・ベッドを生成する段階とを含む、
態様6または7記載の方法。
〔態様9〕
前記適応的なオーディオ・コンテンツに関連付けられるメタデータを推定する段階をさらに含む、
態様1ないし8のうちいずれか一項記載の方法。
〔態様10〕
前記適応的なオーディオ・コンテンツを生成する段階が、前記適応的なオーディオ・コンテンツに関連付けられた前記メタデータを編集することを含む、態様9記載の方法。
〔態様11〕
前記メタデータを編集することが、前記適応的なオーディオ・コンテンツの利得を制御することを含む、態様10記載の方法。
〔態様12〕
前記適応的なオーディオ・コンテンツを生成する段階が、前記少なくとも一つのオーディオ・オブジェクトの再オーサリングを実行することを含み、前記再オーサリングが:
前記少なくとも一つのオーディオ・オブジェクトのうちで少なくとも部分的に重なっているオーディオ・オブジェクトを分離すること;
前記少なくとも一つのオーディオ・オブジェクトに関連付けられた属性を修正すること;および
前記少なくとも一つのオーディオ・オブジェクトを対話的に操作することのうちの少なくとも一つを含む、
態様1ないし11のうちいずれか一項記載の方法。
〔態様13〕
適応的なオーディオ・コンテンツを生成するシステムであって:
チャネル・ベースの源オーディオ・コンテンツから少なくとも一つのオーディオ・オブジェクトを抽出するよう構成されたオーディオ・オブジェクト抽出器と;
少なくとも部分的には前記少なくとも一つのオーディオ・オブジェクトに基づいて前記適応的なオーディオ・コンテンツを生成するよう構成された適応オーディオ生成器とを有する、
システム。
〔態様14〕
前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解するよう構成された信号分解器をさらに有しており、
前記オーディオ・オブジェクト抽出器は、前記指向性オーディオ信号から前記少なくとも一つのオーディオ・オブジェクトを抽出するよう構成されている、
態様13記載のシステム。
〔態様15〕
前記信号分解器は:
前記源オーディオ・コンテンツに対して信号成分分解を実行するよう構成された成分分解器と;
分解された信号成分を解析することによって拡散性の確率を計算するよう構成された確率計算器とを有する、
態様14記載のシステム。
〔態様16〕
前記オーディオ・オブジェクト抽出器は:
前記源オーディオ・コンテンツにおける複数のフレームのそれぞれについてスペクトル合成を実行して、同じオーディオ・オブジェクトを含むチャネルを識別して総合するよう構成されたスペクトル合成器と;
前記複数のフレームを横断して前記識別および総合されたチャネルの時間的合成を実行して、時間に沿った前記少なくとも一つのオーディオ・オブジェクトを形成するよう構成された時間的合成器とを有する、
態様13ないし15のうちいずれか一項記載のシステム。
〔態様17〕
前記スペクトル合成器は、前記複数のフレームのそれぞれについて、周波数範囲を複数のサブバンドに分割するよう構成された周波数分割器を有しており、
前記スペクトル合成器は、前記複数のサブバンドの間の、包絡およびスペクトル形状の少なくとも一方の類似性に基づいて、同じオーディオ・オブジェクトを含むチャネルを識別し、総合するよう構成されている、
態様16記載のシステム。
〔態様18〕
前記源オーディオ・コンテンツからチャネル・ベースのオーディオ・ベッドを生成するよう構成されたオーディオ・ベッド生成器をさらに有しており、
前記適応オーディオ生成器は、前記少なくとも一つのオーディオ・オブジェクトおよび前記オーディオ・ベッドに基づいて前記適応的なオーディオ・コンテンツを生成するよう構成されている、
態様13ないし17のうちいずれか一項記載のシステム。
〔態様19〕
前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解するよう構成された信号分解器をさらに有しており、
前記オーディオ・ベッド生成器は、前記拡散性オーディオ信号から前記オーディオ・ベッドを生成するよう構成されている、
態様18記載のシステム。
〔態様20〕
前記オーディオ・ベッド生成器が:
前記源オーディオ・コンテンツを周囲アップミックスすることによって少なくとも一つの高さチャネルを生成するよう構成された高さチャネル生成器を有しており、
前記オーディオ・ベッド生成器は、前記源オーディオ・コンテンツのチャネルおよび前記少なくとも一つの高さチャネルから前記オーディオ・ベッドを生成するよう構成されている、
態様18または19記載のシステム。
〔態様21〕
前記適応的なオーディオ・コンテンツに関連するメタデータを推定するよう構成されたメタデータ推定器をさらに有する、
態様13ないし20のうちいずれか一項記載のシステム。
〔態様22〕
前記適応的なオーディオ・コンテンツに関連する前記メタデータを編集するよう構成されたメタデータ編集器をさらに有する、
態様21記載のシステム。
〔態様23〕
前記メタデータ編集器は、前記適応的なオーディオ・コンテンツの利得を制御するよう構成された利得コントローラを有する、態様22記載のシステム。
〔態様24〕
前記適応オーディオ生成器は、前記少なくとも一つのオーディオ・オブジェクトに対して再オーサリングを実行するよう構成された再オーサリング・コントローラを有しており、前記再オーサリング・コントローラは:
前記少なくとも一つのオーディオ・オブジェクトのうちの少なくとも部分的に重なり合っているオーディオ・オブジェクトを分離するよう構成されたオブジェクト分離器;
前記少なくとも一つのオーディオ・オブジェクトに関連付けられた属性を修正するよう構成された属性修正器;および
前記少なくとも一つのオーディオ・オブジェクトを対話的に操作するよう構成されたオブジェクト操作器のうちの少なくとも一つを有する、
態様13ないし23のうちいずれか一項記載のシステム。
〔態様25〕
態様1ないし12のうちいずれか一項記載の方法を実行するためのプログラム・コードを含むコンピュータ・プログラムが機械可読媒体上に有体に具現されているコンピュータ・プログラム・プロダクト。
Claims (15)
- チャネル・ベースの源オーディオ・コンテンツから適応的なオーディオ・コンテンツを生成する方法であって:
前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解する段階と;
前記指向性オーディオ信号から少なくとも一つのオーディオ・オブジェクトを抽出する段階と;
前記拡散性オーディオ信号からチャネル・ベースのオーディオ・ベッドを生成する段階と;
少なくとも部分的に前記少なくとも一つのオーディオ・オブジェクトおよび前記オーディオ・ベッドに基づいて前記適応的なオーディオ・コンテンツを生成する段階とを含む、
方法。 - 前記チャネル・ベースの源オーディオ・コンテンツがサラウンド5.1またはサラウンド7.1フォーマットである、請求項1記載の方法。
- 前記源オーディオ・コンテンツを分解することが:
前記源オーディオ・コンテンツに対して信号成分分解を実行し;
分解された信号成分を解析することによって拡散性の確率を計算することを含む、
請求項1または2記載の方法。 - 前記少なくとも一つのオーディオ・オブジェクトを抽出する段階が:
前記源オーディオ・コンテンツにおける複数のフレームのそれぞれについて、同じオーディオ・オブジェクトを含むチャネルを識別し、総合するスペクトル分解を実行し;
前記複数のフレームを横断して識別され、総合されたチャネルの時間的合成を実行して、時間に沿った前記少なくとも一つのオーディオ・オブジェクトを形成することを含む、
請求項1ないし3のうちいずれか一項記載の方法。 - 前記同じオーディオ・オブジェクトを含むチャネルを識別し、総合することが:
前記複数のフレームのそれぞれについて、周波数範囲を複数のサブバンドに分解し;
前記複数のサブバンドの間の包絡およびスペクトル形状の少なくとも一方の類似性に基づいて、同じオーディオ・オブジェクトを含むチャネルを識別し、総合することを含む、
請求項4記載の方法。 - 前記オーディオ・ベッドを生成する段階が:
前記源オーディオ・コンテンツを周囲アップミックスすることによって少なくとも一つの高さチャネルを生成する段階と;
前記源オーディオ・コンテンツのチャネルおよび前記少なくとも一つの高さチャネルから前記オーディオ・ベッドを生成する段階とを含む、
請求項1ないし5のうちいずれか一項記載の方法。 - 前記適応的なオーディオ・コンテンツに関連付けられるメタデータを推定する段階をさらに含む、
請求項1ないし6のうちいずれか一項記載の方法。 - 前記適応的なオーディオ・コンテンツを生成する段階が、前記適応的なオーディオ・コンテンツに関連付けられた前記メタデータを編集することを含む、請求項7記載の方法。
- 前記メタデータを編集することが、前記適応的なオーディオ・コンテンツの利得を制御することを含む、請求項8記載の方法。
- 前記適応的なオーディオ・コンテンツを生成する段階が、前記少なくとも一つのオーディオ・オブジェクトの再オーサリングを実行することを含み、前記再オーサリングが:
前記少なくとも一つのオーディオ・オブジェクトのうちで少なくとも部分的に重なっているオーディオ・オブジェクトを分離すること;
前記少なくとも一つのオーディオ・オブジェクトに関連付けられた属性を修正すること;および
前記少なくとも一つのオーディオ・オブジェクトを対話的に操作することのうちの少なくとも一つを含む、
請求項1ないし9のうちいずれか一項記載の方法。 - チャネル・ベースの源オーディオ・コンテンツから適応的なオーディオ・コンテンツを生成するシステムであって:
前記源オーディオ・コンテンツを指向性オーディオ信号および拡散性オーディオ信号に分解するよう構成された信号分解器と;
前記指向性オーディオ信号から少なくとも一つのオーディオ・オブジェクトを抽出するよう構成されたオーディオ・オブジェクト抽出器と;
前記拡散性オーディオ信号からチャネル・ベースのオーディオ・ベッドを生成するよう構成されたオーディオ・ベッド生成器と;
少なくとも部分的には前記少なくとも一つのオーディオ・オブジェクトおよび前記オーディオ・ベッドに基づいて前記適応的なオーディオ・コンテンツを生成するよう構成された適応オーディオ生成器とを有する、
システム。 - 前記チャネル・ベースの源オーディオ・コンテンツがサラウンド5.1またはサラウンド7.1フォーマットである、
請求項11記載のシステム。 - 前記信号分解器は:
前記源オーディオ・コンテンツに対して信号成分分解を実行するよう構成された成分分解器と;
分解された信号成分を解析することによって拡散性の確率を計算するよう構成された確率計算器とを有する、
請求項11または12記載のシステム。 - 前記オーディオ・オブジェクト抽出器は:
前記源オーディオ・コンテンツにおける複数のフレームのそれぞれについてスペクトル合成を実行して、同じオーディオ・オブジェクトを含むチャネルを識別して総合するよう構成されたスペクトル合成器と;
前記複数のフレームを横断して前記識別および総合されたチャネルの時間的合成を実行して、時間に沿った前記少なくとも一つのオーディオ・オブジェクトを形成するよう構成された時間的合成器とを有する、
請求項11ないし13のうちいずれか一項記載のシステム。 - 請求項1ないし10のうちいずれか一項記載の方法を実行するためのプログラム・コードを含むコンピュータ・プログラムが機械可読媒体上に有体に具現されているコンピュータ・プログラム・プロダクト。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310246711.2A CN104240711B (zh) | 2013-06-18 | 2013-06-18 | 用于生成自适应音频内容的方法、系统和装置 |
CN201310246711.2 | 2013-06-18 | ||
US201361843643P | 2013-07-08 | 2013-07-08 | |
US61/843,643 | 2013-07-08 | ||
PCT/US2014/042798 WO2014204997A1 (en) | 2013-06-18 | 2014-06-17 | Adaptive audio content generation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016526828A JP2016526828A (ja) | 2016-09-05 |
JP2016526828A5 JP2016526828A5 (ja) | 2017-04-27 |
JP6330034B2 true JP6330034B2 (ja) | 2018-05-23 |
Family
ID=52105190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016521520A Active JP6330034B2 (ja) | 2013-06-18 | 2014-06-17 | 適応的なオーディオ・コンテンツの生成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9756445B2 (ja) |
EP (2) | EP3716654A1 (ja) |
JP (1) | JP6330034B2 (ja) |
CN (1) | CN104240711B (ja) |
HK (1) | HK1220803A1 (ja) |
WO (1) | WO2014204997A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015190864A1 (ko) * | 2014-06-12 | 2015-12-17 | 엘지전자(주) | 고속 인터페이스를 이용하여 객체 기반 오디오 데이터를 처리하는 방법 및 장치 |
CN105336335B (zh) | 2014-07-25 | 2020-12-08 | 杜比实验室特许公司 | 利用子带对象概率估计的音频对象提取 |
US10321256B2 (en) | 2015-02-03 | 2019-06-11 | Dolby Laboratories Licensing Corporation | Adaptive audio construction |
CN105992120B (zh) * | 2015-02-09 | 2019-12-31 | 杜比实验室特许公司 | 音频信号的上混音 |
CN105989852A (zh) * | 2015-02-16 | 2016-10-05 | 杜比实验室特许公司 | 分离音频源 |
CN105989845B (zh) | 2015-02-25 | 2020-12-08 | 杜比实验室特许公司 | 视频内容协助的音频对象提取 |
DE102015203855B3 (de) * | 2015-03-04 | 2016-09-01 | Carl Von Ossietzky Universität Oldenburg | Vorrichtung und Verfahren zum Ansteuern des Dynamikkompressors und Verfahren zum Ermitteln von Verstärkungswerten für einen Dynamikkompressor |
CN106162500B (zh) * | 2015-04-08 | 2020-06-16 | 杜比实验室特许公司 | 音频内容的呈现 |
WO2017157427A1 (en) * | 2016-03-16 | 2017-09-21 | Huawei Technologies Co., Ltd. | An audio signal processing apparatus and method for processing an input audio signal |
US10863297B2 (en) | 2016-06-01 | 2020-12-08 | Dolby International Ab | Method converting multichannel audio content into object-based audio content and a method for processing audio content having a spatial position |
CN109219847B (zh) * | 2016-06-01 | 2023-07-25 | 杜比国际公司 | 将多声道音频内容转换成基于对象的音频内容的方法及用于处理具有空间位置的音频内容的方法 |
US11096004B2 (en) | 2017-01-23 | 2021-08-17 | Nokia Technologies Oy | Spatial audio rendering point extension |
US10531219B2 (en) * | 2017-03-20 | 2020-01-07 | Nokia Technologies Oy | Smooth rendering of overlapping audio-object interactions |
US11074036B2 (en) | 2017-05-05 | 2021-07-27 | Nokia Technologies Oy | Metadata-free audio-object interactions |
US9820073B1 (en) | 2017-05-10 | 2017-11-14 | Tls Corp. | Extracting a common signal from multiple audio signals |
US11395087B2 (en) | 2017-09-29 | 2022-07-19 | Nokia Technologies Oy | Level-based audio-object interactions |
US11322164B2 (en) * | 2018-01-18 | 2022-05-03 | Dolby Laboratories Licensing Corporation | Methods and devices for coding soundfield representation signals |
GB2571572A (en) | 2018-03-02 | 2019-09-04 | Nokia Technologies Oy | Audio processing |
CN109640242B (zh) * | 2018-12-11 | 2020-05-12 | 电子科技大学 | 音频源分量及环境分量提取方法 |
JP2022521694A (ja) | 2019-02-13 | 2022-04-12 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオオブジェクトクラスタリングのための適応型音量正規化 |
AU2020319893A1 (en) * | 2019-08-01 | 2022-02-10 | Dolby Laboratories Licensing Corporation | Systems and methods for covariance smoothing |
JP2023500265A (ja) * | 2019-11-05 | 2023-01-05 | ソニーグループ株式会社 | 電子デバイス、方法およびコンピュータプログラム |
CN111831249A (zh) * | 2020-07-07 | 2020-10-27 | Oppo广东移动通信有限公司 | 音频播放方法、装置、存储介质及电子设备 |
WO2023076039A1 (en) * | 2021-10-25 | 2023-05-04 | Dolby Laboratories Licensing Corporation | Generating channel and object-based audio from channel-based audio |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10344638A1 (de) | 2003-08-04 | 2005-03-10 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum Erzeugen, Speichern oder Bearbeiten einer Audiodarstellung einer Audioszene |
US7412380B1 (en) * | 2003-12-17 | 2008-08-12 | Creative Technology Ltd. | Ambience extraction and modification for enhancement and upmix of audio signals |
JP4966981B2 (ja) | 2006-02-03 | 2012-07-04 | 韓國電子通信研究院 | 空間キューを用いたマルチオブジェクト又はマルチチャネルオーディオ信号のレンダリング制御方法及びその装置 |
ATE527833T1 (de) | 2006-05-04 | 2011-10-15 | Lg Electronics Inc | Verbesserung von stereo-audiosignalen mittels neuabmischung |
KR100917843B1 (ko) * | 2006-09-29 | 2009-09-18 | 한국전자통신연구원 | 다양한 채널로 구성된 다객체 오디오 신호의 부호화 및복호화 장치 및 방법 |
US9565509B2 (en) | 2006-10-16 | 2017-02-07 | Dolby International Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
MX2009003564A (es) | 2006-10-16 | 2009-05-28 | Fraunhofer Ges Forschung | Aparato y metodo para transformacion de parametro multicanal. |
DE102006050068B4 (de) * | 2006-10-24 | 2010-11-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm |
EP3712888A3 (en) * | 2007-03-30 | 2020-10-28 | Electronics and Telecommunications Research Institute | Apparatus and method for coding and decoding multi object audio signal with multi channel |
KR100942143B1 (ko) | 2007-09-07 | 2010-02-16 | 한국전자통신연구원 | 기존 오디오 포맷의 오디오 장면 정보를 유지하는 wfs재생 방법 및 그 장치 |
EP2210427B1 (en) | 2007-09-26 | 2015-05-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for extracting an ambient signal |
GB0720473D0 (en) * | 2007-10-19 | 2007-11-28 | Univ Surrey | Accoustic source separation |
EP2146522A1 (en) | 2008-07-17 | 2010-01-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating audio output signals using object based metadata |
US8351612B2 (en) | 2008-12-02 | 2013-01-08 | Electronics And Telecommunications Research Institute | Apparatus for generating and playing object based audio contents |
RU2558612C2 (ru) * | 2009-06-24 | 2015-08-10 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Декодер аудиосигнала, способ декодирования аудиосигнала и компьютерная программа с использованием ступеней каскадной обработки аудиообъектов |
CN102171754B (zh) * | 2009-07-31 | 2013-06-26 | 松下电器产业株式会社 | 编码装置以及解码装置 |
KR101805212B1 (ko) * | 2009-08-14 | 2017-12-05 | 디티에스 엘엘씨 | 객체-지향 오디오 스트리밍 시스템 |
MY165328A (en) * | 2009-09-29 | 2018-03-21 | Fraunhofer Ges Forschung | Audio signal decoder, audio signal encoder, method for providing an upmix signal representation, method for providing a downmix signal representation, computer program and bitstream using a common inter-object-correlation parameter value |
MY153337A (en) * | 2009-10-20 | 2015-01-29 | Fraunhofer Ges Forschung | Apparatus for providing an upmix signal representation on the basis of a downmix signal representation,apparatus for providing a bitstream representing a multi-channel audio signal,methods,computer program and bitstream using a distortion control signaling |
EP2360681A1 (en) | 2010-01-15 | 2011-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for extracting a direct/ambience signal from a downmix signal and spatial parametric information |
GB2485979A (en) * | 2010-11-26 | 2012-06-06 | Univ Surrey | Spatial audio coding |
TWI530201B (zh) * | 2010-12-03 | 2016-04-11 | 弗勞恩霍夫爾協會 | 經由自抵達方向估值提取幾何資訊之聲音擷取技術 |
KR20140027954A (ko) | 2011-03-16 | 2014-03-07 | 디티에스, 인코포레이티드 | 3차원 오디오 사운드트랙의 인코딩 및 재현 |
RU2564681C2 (ru) * | 2011-07-01 | 2015-10-10 | Долби Лабораторис Лайсэнзин Корпорейшн | Способы и системы синхронизации и переключения для системы адаптивного звука |
AU2012279357B2 (en) * | 2011-07-01 | 2016-01-14 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
JP2013062640A (ja) * | 2011-09-13 | 2013-04-04 | Sony Corp | 信号処理装置、信号処理方法、およびプログラム |
-
2013
- 2013-06-18 CN CN201310246711.2A patent/CN104240711B/zh active Active
-
2014
- 2014-06-17 US US14/900,117 patent/US9756445B2/en active Active
- 2014-06-17 WO PCT/US2014/042798 patent/WO2014204997A1/en active Application Filing
- 2014-06-17 JP JP2016521520A patent/JP6330034B2/ja active Active
- 2014-06-17 EP EP20168895.9A patent/EP3716654A1/en active Pending
- 2014-06-17 EP EP14736576.1A patent/EP3011762B1/en active Active
-
2016
- 2016-07-23 HK HK16108834.5A patent/HK1220803A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
HK1220803A1 (zh) | 2017-05-12 |
WO2014204997A1 (en) | 2014-12-24 |
US9756445B2 (en) | 2017-09-05 |
EP3716654A1 (en) | 2020-09-30 |
EP3011762B1 (en) | 2020-04-22 |
CN104240711A (zh) | 2014-12-24 |
CN104240711B (zh) | 2019-10-11 |
US20160150343A1 (en) | 2016-05-26 |
EP3011762A1 (en) | 2016-04-27 |
JP2016526828A (ja) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6330034B2 (ja) | 適応的なオーディオ・コンテンツの生成 | |
US11470437B2 (en) | Processing object-based audio signals | |
JP6668366B2 (ja) | オーディオ源の分離 | |
US10638246B2 (en) | Audio object extraction with sub-band object probability estimation | |
US10362426B2 (en) | Upmixing of audio signals | |
JP7362826B2 (ja) | メタデータ保存オーディオ・オブジェクト・クラスタリング | |
JP2018511974A (ja) | ビデオ・コンテンツに支援されたオーディオ・オブジェクト抽出 | |
JP6654195B2 (ja) | オーディオ・コンテンツからの投影ベースのオーディオ・オブジェクト抽出 | |
CN106385660B (zh) | 处理基于对象的音频信号 | |
WO2023160782A1 (en) | Upmixing systems and methods for extending stereo signals to multi-channel formats |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6330034 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |