JP2017508175A - オーディオ・コンテンツの空間的誤差メトリック - Google Patents
オーディオ・コンテンツの空間的誤差メトリック Download PDFInfo
- Publication number
- JP2017508175A JP2017508175A JP2016544661A JP2016544661A JP2017508175A JP 2017508175 A JP2017508175 A JP 2017508175A JP 2016544661 A JP2016544661 A JP 2016544661A JP 2016544661 A JP2016544661 A JP 2016544661A JP 2017508175 A JP2017508175 A JP 2017508175A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- output
- frame
- objects
- spatial error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 98
- 230000015556 catabolic process Effects 0.000 claims description 38
- 238000006731 degradation reaction Methods 0.000 claims description 38
- 238000012360 testing method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 35
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 5
- 230000036962 time dependent Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 17
- 230000036961 partial effect Effects 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 16
- 239000013598 vector Substances 0.000 description 13
- 238000012800 visualization Methods 0.000 description 11
- 230000005484 gravity Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 238000009877 rendering Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013442 quality metrics Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000012372 quality testing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24C—DOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
- F24C15/00—Details
- F24C15/20—Removing cooking fumes
- F24C15/2028—Removing cooking fumes using an air curtain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/008—Visual indication of individual signal levels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Stereophonic System (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本願は2014年1月9日に出願されたスペイン国特許出願第P201430016号および2014年3月11日に出願された米国仮特許出願第61/951,048号の優先権を主張するものである。各出願の内容はここに参照によってその全体において組み込まれる。
本発明は、概括的にはオーディオ信号処理に関し、より詳細にはオーディオ・オブジェクトのフォーマット変換、レンダリング、クラスタリング、リミックスまたは組み合わせに関連する空間的誤差メトリックおよびオーディオ品質劣化を決定することに関する。
1.全般的概観
2.オーディオ・オブジェクト・クラスタリング
3.空間的複雑さ解析器
4.空間的誤差メトリック
4.1 フレーム内オブジェクト位置誤差
4.2 フレーム内オブジェクト・パン誤差
4.3 重要度で重み付けされた誤差メトリック
4.4 規格化された誤差メトリック
4.5 フレーム間空間的誤差
5.主観的オーディオ品質の予測
6.空間的誤差および空間的複雑さの視覚化
7.例示的なプロセス・フロー
8.実装機構――ハードウェアの概観
9.等価物、拡張、代替その他
。
この概観は、本発明の実施形態のいくつかの側面の基本的な記述を提示する。この概観は該実施形態の諸側面の包括的ないし網羅的な要約ではないことは注意しておくべきである。さらに、この概観は、該実施形態の何らかの特に有意な側面もしくは要素を特定するものと理解されることも、特に該実施形態の、一般には本発明の、何らかの範囲を画定するものと理解されることも、意図されていないことを注意しておくべきである。この概観は単に、その例示的実施形態に関係するいくつかの概念を凝縮された単純化された形式で提示するものであり、単に後続の例示的な諸実施形態のより詳細な説明への概念的な導入部として理解されるべきである。
オーディオ・オブジェクトは、聴取空間(または環境)における特定の物理的位置(単数または複数)から発していると知覚されうる個々の音要素またはその集合と考えられることができる。オーディオ・オブジェクトの例は:オーディオ・プロダクション・セッションにおけるトラックの任意のものを含むが、それに限定されない。オーディオ・オブジェクトは静的(たとえば定常的)であるまたは動的である(たとえば動いている)ことができる。オーディオ・オブジェクトは、一つまたは複数の音要素を表わすオーディオ・サンプル・データとは別個のメタデータを含む。メタデータは、所与の時点における(たとえば一つまたは複数のフレームにおける、フレームの一つまたは複数の部分における、など)音要素のうち一つまたは複数のものの一つまたは複数の位置(たとえば、動的なまたは固定された重心位置、聴取空間におけるスピーカーの固定された位置、周囲効果を表わす一つ、二つまたはそれ以上の動的なまたは固定された位置の集合など)を定義する位置メタデータを含む。いくつかの実施形態では、オーディオ・オブジェクトが再生されるとき、該オーディオ・オブジェクトは、実際の再生環境に存在しているスピーカーを使って、その位置メタデータに従ってレンダリングされ、必ずしも、オーディオ・オブジェクトを下流のオーディオ・デコーダのためのオーディオ信号にエンコードする上流のオーディオ・エンコーダが想定した参照オーディオ・チャネル構成のあらかじめ定義された物理的チャネルに出力されるのではない。
yj(n,m)=Σigijxi(n,m) (1)
ここで、gij(m)はオブジェクトiのクラスターjへの利得係数を表わす。出力クラスターyj(n,m)における不連続を回避するため、クラスタリング動作は、フレームを横断したgij(m)の変化を補間するために、窓掛けされた部分的に重複するフレームに対して実行されることができる。本稿での用法では、利得係数は、特定の入力オーディオ・オブジェクトの一部の、特定の出力クラスターへの配分を表わす。いくつかの実施形態では、オーディオ・オブジェクト・クラスタリング・プロセス(106)は、式(1)に従って入力オーディオ・オブジェクトを出力クラスターにマッピングするための複数の利得係数を生成するよう構成されていてもよい。代替的、追加的または任意的に、利得係数gij(m)は、補間された利得係数gij(n,m)を生成するためにサンプル(n)を横断して補間されてもよい。代替的に、利得係数は周波数依存であることができる。そのような実施形態では、入力オーディオは、好適なフィルタバンクを使って周波数帯域に分割され、可能性としては、分割された各オーディオに利得係数の異なるセットが適用される。
図2は、フレーム内空間的誤差解析器204、フレーム間空間的誤差解析器206、オーディオ品質解析器208、ユーザー・インターフェース・モジュール210などといったいくつかのコンピュータ実装されるモジュールを有する例示的な空間的複雑さ解析器200を示している。図2に示されるように、空間的複雑さ解析器200は、オーディオ・オブジェクト・データ202を受領/収集するよう構成される。該オーディオ・オブジェクト・データが、一組の入力オーディオ・オブジェクト(たとえば図1の102など)と該入力オーディオ・オブジェクトが変換された一組の出力クラスター(たとえば図1の104など)とに関する空間的誤差およびオーディオ品質劣化について解析されるべきものである。オーディオ・オブジェクト・データ202は、入力オーディオ・オブジェクト(102)についてのメタデータ、出力クラスター(104)についてのメタデータ、入力オーディオ・オブジェクト(102)を式(1)に示されるように出力クラスター(104)にマッピングする利得係数、入力オーディオ・オブジェクト(102)の部分ラウドネス、入力オーディオ・オブジェクト(102)のオブジェクト重要性、入力オーディオ・オブジェクト(102)のコンテンツ種別、入力オーディオ・オブジェクト(102)のコンテンツ種別の確率のうちの一つまたは複数を含む。
単一のフレームにおけるまたは複数の隣り合うフレームにおける全体的な空間的誤差に基づいて、複数の空間的誤差メトリックが計算されうる。全体的な空間的誤差メトリックおよび/または全体的なオーディオ品質劣化を決定/推定することにおいて、オブジェクト重要性は主要な役割を果たすことができる。無音である、比較的静かであるまたは他のオーディオ・オブジェクトによって(たとえばラウドネス、空間的隣接性などの点で)(部分的に)マスクされるオーディオ・オブジェクトは、現在シーンにおいて優勢なオーディオ・オブジェクトより、オーディオ・オブジェクト・クラスタリングのアーチファクトが可聴になる前のより大きな空間的誤差を受けることがありうる。例解の目的で、いくつかの実施形態では、インデックスiをもつオーディオ・オブジェクトは対応するオブジェクト重要性(Niと記される)をもつ。このオブジェクト重要性は、オブジェクト重要性推定器(図1の110)によって:知覚的ラウドネス・モデルに基づく、オーディオ・オブジェクトの、オーディオ・ベッドおよび他のオーディオ・オブジェクトに対する部分ラウドネス、ダイアログである確率のような意味的情報などの任意のものを含むがそれに限られないいくつかの属性に基づいて生成されてもよい。オーディオ・コンテンツの動的な性質を与えられて、i番目のオーディオ・オブジェクトのオブジェクト重要性Ni(m)は典型的には時間の関数として、たとえばフレーム・インデックスm(これは論理的に、メディア再生時間などのような時間を表わすまたはそのような時間にマッピングされる)の関数として変化する。加えて、オブジェクト重要性メトリックは、オブジェクトのメタデータに依存してもよい。そのような依存性の例は、オブジェクトの位置または移動速度に基づくオブジェクト重要性の修正である。
フレーム内空間的誤差メトリックの一つは、オブジェクト位置誤差に関係し、フレーム内オブジェクト位置誤差メトリックと表わされてもよい。
式(2)で表わされるオーディオ・オブジェクトの位置誤差が0である場合(たとえば出力クラスターの凸包内など)であっても、オーディオ・オブジェクトは、クラスタリングおよびレンダリング後には、クラスタリングなしで直接オーディオ・オブジェクトをレンダリングするのと比べて、かなり異なって聞こえることがある。これは、クラスター重心のどれもオーディオ・オブジェクトの位置の近傍に位置をもたず、よってオーディオ・オブジェクト(たとえばオーディオ・オブジェクトを表わすサンプル・データ部分、信号など)がさまざまな出力クラスターの間で分配される場合に起こりうる。フレームmにおけるi番目のオーディオ・オブジェクトのフレーム内オブジェクト・パン誤差に関係する誤差メトリックは、次式によって表わされてもよい。
いくつかの実施形態では、空間的複雑さ解析器(200)は、シーン内の各オーディオ・オブジェクトの個々のオブジェクト誤差メトリック(たとえばEi、Fiなど)を、(たとえば部分ラウドネスNiなどに基づいて決定される)オブジェクト重要性に関して重み付けするよう構成される。オブジェクト重要性、部分ラウドネスNiなどは、受領されたオーディオ・オブジェクト・データ(202)から、空間的複雑さ解析器(200)によって推定または決定されてもよい。それぞれのオブジェクト重要性によって重み付けされたオブジェクト誤差メトリックは、合計されて、次式に示されるように、シーン内のすべてのオーディオ・オブジェクトについての全体的な誤差メトリックを生成することができる:
式(4)および(5)における規格化されていない誤差メトリックは、次式に示されるように、全体的なラウドネスまたはオブジェクト重要性をもって規格化されることができる:
いくつかの実施形態では、時間的に隣り合うフレームにおける変化に関係した空間的誤差メトリックが計算されてもよく、本稿ではフレーム間空間的誤差メトリックと称されることがある。これらのフレーム間空間的誤差メトリックは、隣り合うフレームのそれぞれにおける空間的誤差(たとえばフレーム内空間的誤差)が非常に小さいまたはさらには0でありうる状況において使用されてもよいが、それに限定されない。フレーム内空間的誤差が小さくても、フレーム間でのオブジェクトからクラスターへの割り当ての変更は、たとえばあるフレームから次のフレームへの補間の際に生じる空間的誤差に起因して、可聴のアーチファクトを生じることがある。
1.gi→jを0に初期化する。gi(m)およびgj(m+1)が0より大きければ、(i,j)の各対についてdi→jを計算する。
2.最小距離をもつ重心対(i*,j*)を選択する。ここで、重心対(i*,j*)は以前に選択されたことがないものである。
3.利得フロー値を
4.
5.更新されたgi、gjのすべてが0であれば停止する。そうでなければ、上記のステップ2に進む。
いくつかの実施形態では、本稿に記載される空間的誤差メトリックの一つ、いくつかまたは全部が、空間的誤差メトリックが計算されるもとになった一つまたは複数のフレームの知覚されるオーディオ品質(たとえば、MUSHRA試験、MOS試験などのような知覚されるオーディオ品質の試験に関係するオーディオ品質)を予測するために使用されてもよい。トレーニング・データセット(たとえば、代表的なオーディオ・コンテンツ要素または抜粋の集合など)が、空間的誤差メトリックと複数のユーザーから集められた主観的なオーディオ品質の測定との間の相関(たとえば、負の値が、空間的誤差が大きいほどユーザーにより測定された主観的オーディオ品質が低くなることを反映するなど)を決定するために使われてもよい。トレーニング・データセットに基づいて決定された相関は、予測パラメータを決定するために使用されてもよい。これらの予測パラメータは、一つまたは複数のフレーム(たとえば非トレーニング・データなど)から計算された空間的誤差メトリックに基づいて、該一つまたは複数のフレームの知覚されるオーディオ品質の一つまたは複数の指標を生成するために使われてもよい。複数の空間的誤差メトリック(たとえば、フレーム内オブジェクト位置誤差、フレーム内オブジェクト・パン誤差など)が主観的オーディオ品質を予測するために使われるいくつかの実施形態では、主観的なオーディオ品質(たとえば、トレーニング・データセットに基づいて複数のユーザーに関してMUSHRA試験を通じて測定されたもの)と比較的高い相関(たとえば比較的大きな絶対値をもつ負の値など)をもつ空間的誤差メトリック(たとえばフレーム内オブジェクト・パン誤差メトリックなど)が、前記複数の空間的誤差メトリック(たとえば、フレーム内オブジェクト位置誤差、フレーム内オブジェクト・パン誤差など)の間で比較的高い重み値を与えられてもよい。本稿に記載される技法が、これらの技法によって決定される一つまたは複数の空間的誤差メトリックに基づいてオーディオ品質を予測する他の方法とともに機能するよう構成されることができることを注意しておくべきである。
いくつかの実施形態では、一つまたは複数のフレームについて本稿に記載される技法のもとで決定される一つまたは複数の空間的誤差メトリックは、前記一つまたは複数のフレームにおけるオーディオ・オブジェクトおよび/またはオーディオ・クラスターの属性(たとえばラウドネス、位置など)と一緒に、ディスプレイ(たとえばコンピュータ画面、ウェブ・ページなど)上に前記一つまたは複数のフレームにおけるオーディオ・コンテンツの空間的複雑さの視覚化を提供するために使われてもよい。視覚化は、VUメーター、オーディオ・オブジェクトおよび/または出力クラスターの(たとえば2D、3Dなどの)視覚化、棒グラフ、他の好適な手段などといった幅広い多様なグラフィック・ユーザー・インターフェース構成要素〔コンポーネント〕を用いて提供されてもよい。いくつかの実施形態では、空間的複雑さの全体的指標が、たとえば空間的オーサリングもしくは変換プロセスが実行されている際、そのようなプロセスが実行された後などに、ディスプレイ上に提供される。
図6は、例示的なプロセス・フローを示している。いくつかの実施形態では、一つまたは複数のコンピューティング装置またはユニット(たとえば図2の空間的複雑さ解析器200など)がこのプロセス・フローを実行してもよい。
ある実施形態によれば、本稿に記載される技法は、一つまたは複数の特殊目的コンピューティング装置によって実装される。特殊目的コンピューティング装置は、本技法を実行するよう固定構成とされていてもよいし、あるいは本技法を実行するよう持続的にプログラムされた、一つまたは複数の特定用途向け集積回路(ASIC)またはフィールド・プログラマブル・ゲート・アレイ(FPGA)のようなデジタル電子デバイスを含んでいてもよいし、あるいはファームウェア、メモリ、他の記憶または組み合わせにおけるプログラム命令に従って本技法を実行するようプログラムされた一つまたは複数の汎用ハードウェア・プロセッサを含んでいてもよい。そのような特殊目的コンピューティング装置は、カスタムの固定構成論理、ASICまたはFPGAをカスタムのプログラミングと組み合わせて本技法を達成してもよい。特殊目的コンピューティング装置はデスクトップ・コンピュータ・システム、ポータブル・コンピュータ・システム、ハンドヘルド装置、ネットワーキング装置または本技法を実装するために固定構成および/またはプログラム論理を組み込んでいる他の任意の装置であってもよい。
以上の明細書では、本発明の例示的実施形態について、実装によって変わりうる数多くの個別的詳細に言及しつつ述べてきた。このように、何が本発明であるか、何が出願人によって本発明であると意図されているかの唯一にして排他的な指標は、この出願に対して付与される特許の請求項の、その後の訂正があればそれも含めてかかる請求項が特許された特定の形のものである。かかる請求項に含まれる用語について本稿で明示的に記載される定義があったとすればそれは請求項において使用される当該用語の意味を支配する。よって、請求項に明示的に記載されていない限定、要素、属性、特徴、利点もしくは特性は、いかなる仕方であれかかる請求項の範囲を限定すべきではない。よって、明細書および図面は制約する意味ではなく例示的な意味で見なされるべきものである。
Claims (33)
- 一つまたは複数のフレームにおける入力オーディオ・コンテンツに存在している複数のオーディオ・オブジェクトを判別する段階と;
前記一つまたは複数のフレームにおける出力オーディオ・コンテンツに存在している複数の出力クラスターを判別する段階であって、前記入力オーディオ・コンテンツにおける前記複数のオーディオ・オブジェクトが前記出力オーディオ・コンテンツにおける前記複数の出力クラスターに変換される、段階と;
少なくとも部分的には前記複数のオーディオ・オブジェクトの位置メタデータおよび前記複数の出力クラスターの位置メタデータに基づいて、一つまたは複数の空間的誤差メトリックを計算する段階とを含む、
一つまたは複数のコンピューティング装置によって実行される方法。 - 前記一つまたは複数の空間的誤差メトリックは少なくとも部分的にはオブジェクト重要度に依存する、請求項1記載の方法。
- 前記オブジェクト重要度が、前記複数のオーディオ・オブジェクトにおけるオーディオ・データ、前記複数の出力クラスターにおけるオーディオ・データ、前記複数のオーディオ・オブジェクトにおけるメタデータまたは前記複数の出力クラスターにおけるメタデータの一つまたは複数を解析することから得られる、請求項2記載の方法。
- 前記オブジェクト重要度の少なくとも一部がユーザー入力に基づいて決定される、請求項2記載の方法。
- 前記複数のオーディオ・オブジェクトにおける少なくとも一つのオーディオ・オブジェクトが前記複数の出力クラスターにおける二つ以上の出力クラスターに配分される、請求項1記載の方法。
- 前記複数のオーディオ・オブジェクトにおける少なくとも一つのオーディオ・オブジェクトが、前記複数の出力クラスターにおける出力クラスターに割り当てられる、請求項1記載の方法。
- 前記入力オーディオ・コンテンツにおける前記複数のオーディオ・オブジェクトを前記出力クラスターにおける前記複数の出力クラスターに変換することによって引き起こされる知覚的オーディオ品質劣化を、前記一つまたは複数の空間的誤差メトリックに基づいて決定する段階をさらに含む、
請求項1記載の方法。 - 前記知覚的オーディオ品質劣化は、知覚的オーディオ品質試験に関係する一つまたは複数の予測された試験スコアによって表わされる、請求項7記載の方法。
- 前記一つまたは複数の空間的誤差メトリックは:フレーム内空間的誤差メトリックまたはフレーム間空間的誤差メトリックの少なくとも一方を含む、請求項1記載の方法。
- 前記フレーム内空間的誤差メトリックは:フレーム内オブジェクト位置誤差メトリック、フレーム内オブジェクト・パン誤差メトリック、重要度で重み付けされたフレーム内オブジェクト位置誤差メトリック、重要度で重み付けされたフレーム内オブジェクト・パン誤差メトリック、規格化されたフレーム内オブジェクト位置誤差メトリックまたは規格化されたフレーム内オブジェクト・パン誤差メトリックのうちの少なくとも一つを含む、請求項9記載の方法。
- 前記フレーム間空間的誤差メトリックは:利得係数フローに基づくフレーム間空間的誤差メトリックまたは利得係数フローに基づかないフレーム間空間的誤差メトリックのうちの少なくとも一つを含む、請求項9記載の方法。
- 前記フレーム間空間的誤差メトリックのそれぞれは二つ以上の異なるフレームに関して計算される、請求項9記載の方法。
- 前記複数のオーディオ・オブジェクトは複数の利得係数を介して前記複数の出力クラスターに関係する、請求項1記載の方法。
- 前記フレームのそれぞれは、前記入力オーディオ・コンテンツにおけるある時間セグメントおよび前記出力オーディオ・コンテンツにおける第二の時間セグメントに対応し、前記出力オーディオ・コンテンツにおける前記第二の時間セグメントに存在する出力クラスターは、前記入力オーディオ・コンテンツにおける前記第一の時間セグメントに存在するオーディオ・オブジェクトによってマッピングされる、請求項1記載の方法。
- 前記一つまたは複数のフレームが二つの連続するフレームを含む、請求項1記載の方法。
- 前記複数のオーディオ・オブジェクトのうちのオーディオ・オブジェクトまたは聴取空間内の前記複数の出力クラスターにおける出力クラスターの一つまたは複数を表わす一つまたは複数のユーザー・インターフェース構成要素を構築する段階と;
前記一つまたは複数のユーザー・インターフェース構成要素をユーザーに対して表示させる段階とをさらに含む、
請求項1記載の方法。 - 前記一つまたは複数のユーザー・インターフェース構成要素におけるあるユーザー・インターフェース構成要素は、前記複数のオーディオ・オブジェクトのうちのあるオーディオ・オブジェクトを表わし;該オーディオ・オブジェクトは前記複数の出力クラスターにおける一つまたは複数の出力クラスターにマッピングされ;前記ユーザー・インターフェース構成要素の少なくとも一つの視覚的特徴が前記オーディオ・オブジェクトの前記一つまたは複数の出力クラスターへのマッピングに関係した一つまたは複数の空間的誤差の総量を表わす、請求項16記載の方法。
- 前記一つまたは複数のユーザー・インターフェース構成要素は、三次元(3D)形式での聴取空間の表現を有する、請求項16記載の方法。
- 前記一つまたは複数のユーザー・インターフェース構成要素は、二次元(2D)形式での聴取空間の表現を有する、請求項16記載の方法。
- 前記複数のオーディオ・オブジェクトにおけるオーディオ・オブジェクトのそれぞれのオブジェクト重要性、前記複数の出力クラスターにおける出力クラスターのそれぞれのオブジェクト重要性、前記複数のオーディオ・オブジェクトにおけるオーディオ・オブジェクトのそれぞれのラウドネス、前記複数の出力クラスターにおける出力クラスターのそれぞれのラウドネス、前記複数のオーディオ・オブジェクトにおけるオーディオ・オブジェクトのそれぞれの、発話もしくはダイアログ・コンテンツの確率、前記複数の出力クラスターにおける出力クラスターの発話もしくはダイアログ・コンテンツの確率のうちの一つまたは複数を表わす一つまたは複数のユーザー・インターフェース構成要素を構築する段階と;
前記一つまたは複数のユーザー・インターフェース構成要素をユーザーに対して表示させる段階とをさらに含む、
請求項1記載の方法。 - 前記一つまたは複数の空間的誤差メトリックまたは少なくとも部分的には前記一つまたは複数の空間的誤差メトリックに基づいて決定された一つまたは複数の予測された試験スコアの一つまたは複数を表わす一つまたは複数のユーザー・インターフェース構成要素を構築する段階と;
前記一つまたは複数のユーザー・インターフェース構成要素をユーザーに対して表示させる段階とをさらに含む、
請求項1記載の方法。 - 変換プロセスが前記入力オーディオ・コンテンツにおいて存在する時間依存のオーディオ・オブジェクトを、前記出力クラスターをなす時間依存の出力クラスターに変換し、前記一つまたは複数のユーザー・インターフェース構成要素は、前記一つまたは複数のフレームを含み前記一つまたは複数のフレームまでの過去の時間区間について前記変換プロセスにおいて生じる最悪のオーディオ品質劣化の視覚的指示を含む、請求項21記載の方法。
- 前記一つまたは複数のユーザー・インターフェース構成要素は、前記一つまたは複数のフレームを含み前記一つまたは複数のフレームまでの過去の時間区間について変換プロセスにおいて生じるオーディオ品質劣化がオーディオ品質劣化閾値を超えたことの視覚的指示を含む、請求項21記載の方法。
- 前記一つまたは複数のユーザー・インターフェース構成要素は、前記一つまたは複数のフレームにおけるオーディオ品質劣化を示す高さをもつ垂直の棒を含み、前記垂直の棒は前記一つまたは複数のフレームにおけるオーディオ品質劣化に基づいてカラーコーディングされる、請求項21記載の方法。
- 前記複数の出力クラスターにおけるある出力クラスターは、前記複数のオーディオ・オブジェクトにおける二つ以上のオーディオ・オブジェクトによってマッピングされる部分を含む、請求項1記載の方法。
- 前記複数のオーディオ・オブジェクトにおけるオーディオ・オブジェクトまたは前記複数の出力クラスターにおける出力クラスターの少なくとも一つが、時間とともに変化する動的位置をもつ、請求項1記載の方法。
- 前記複数のオーディオ・オブジェクトにおけるオーディオ・オブジェクトまたは前記複数の出力クラスターにおける出力クラスターの少なくとも一つが、時間とともに変化しない固定した位置をもつ、請求項1記載の方法。
- 前記入力オーディオ・コンテンツまたは前記出力オーディオ・コンテンツの少なくとも一つは、オーディオのみ信号またはオーディオビジュアル信号の一方の一部である、請求項1記載の方法。
- 前記入力オーディオ・コンテンツを前記出力オーディオ・コンテンツに変換する変換プロセスに対する変更を指定するユーザー入力を受領する段階と;
前記ユーザー入力を受領するのに応答して、前記入力オーディオ・コンテンツを前記出力オーディオ・コンテンツに変換する前記変換プロセスに対する前記変更を引き起こす段階とをさらに含む、
請求項1記載の方法。 - 当該方法が、前記変換プロセスが前記入力オーディオ・コンテンツを前記出力オーディオ・コンテンツに変換している間に並行して実行される、請求項29記載の方法。
- 請求項1ないし30のうちいずれか一項記載の方法を実行するよう構成されたメディア処理システム。
- 請求項1ないし30のうちいずれか一項記載の方法を実行するよう構成された、プロセッサを有する装置。
- 一つまたは複数のプロセッサによって実行されたときに、請求項1ないし30のうちいずれか一項記載の方法の実行を引き起こすソフトウェア命令を記憶している非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201430016 | 2014-01-09 | ||
ESP201430016 | 2014-01-09 | ||
US201461951048P | 2014-03-11 | 2014-03-11 | |
US61/951,048 | 2014-03-11 | ||
PCT/US2015/010126 WO2015105748A1 (en) | 2014-01-09 | 2015-01-05 | Spatial error metrics of audio content |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017508175A true JP2017508175A (ja) | 2017-03-23 |
JP2017508175A5 JP2017508175A5 (ja) | 2018-02-15 |
JP6518254B2 JP6518254B2 (ja) | 2019-05-22 |
Family
ID=52469071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016544661A Active JP6518254B2 (ja) | 2014-01-09 | 2015-01-05 | オーディオ・コンテンツの空間的誤差メトリック |
Country Status (5)
Country | Link |
---|---|
US (1) | US10492014B2 (ja) |
EP (1) | EP3092642B1 (ja) |
JP (1) | JP6518254B2 (ja) |
CN (1) | CN105900169B (ja) |
WO (1) | WO2015105748A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018198789A1 (ja) * | 2017-04-26 | 2018-11-01 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
JP2020519950A (ja) * | 2017-05-09 | 2020-07-02 | ドルビー ラボラトリーズ ライセンシング コーポレイション | マルチチャネル空間的オーディオ・フォーマット入力信号の処理 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105432098B (zh) | 2013-07-30 | 2017-08-29 | 杜比国际公司 | 针对任意扬声器布局的音频对象的平移 |
CN105336335B (zh) | 2014-07-25 | 2020-12-08 | 杜比实验室特许公司 | 利用子带对象概率估计的音频对象提取 |
CN112802496A (zh) | 2014-12-11 | 2021-05-14 | 杜比实验室特许公司 | 元数据保留的音频对象聚类 |
EP4156180A1 (en) | 2015-06-17 | 2023-03-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Loudness control for user interactivity in audio coding systems |
EP3332557B1 (en) * | 2015-08-07 | 2019-06-19 | Dolby Laboratories Licensing Corporation | Processing object-based audio signals |
CN106385660B (zh) * | 2015-08-07 | 2020-10-16 | 杜比实验室特许公司 | 处理基于对象的音频信号 |
US10278000B2 (en) | 2015-12-14 | 2019-04-30 | Dolby Laboratories Licensing Corporation | Audio object clustering with single channel quality preservation |
US9949052B2 (en) | 2016-03-22 | 2018-04-17 | Dolby Laboratories Licensing Corporation | Adaptive panner of audio objects |
CN109479178B (zh) * | 2016-07-20 | 2021-02-26 | 杜比实验室特许公司 | 基于呈现器意识感知差异的音频对象聚集 |
WO2018017394A1 (en) * | 2016-07-20 | 2018-01-25 | Dolby Laboratories Licensing Corporation | Audio object clustering based on renderer-aware perceptual difference |
US11601552B2 (en) | 2016-08-24 | 2023-03-07 | Gridspace Inc. | Hierarchical interface for adaptive closed loop communication system |
US11715459B2 (en) | 2016-08-24 | 2023-08-01 | Gridspace Inc. | Alert generator for adaptive closed loop communication system |
US10861436B1 (en) * | 2016-08-24 | 2020-12-08 | Gridspace Inc. | Audio call classification and survey system |
US11721356B2 (en) | 2016-08-24 | 2023-08-08 | Gridspace Inc. | Adaptive closed loop communication system |
BR112019021897A2 (pt) * | 2017-04-25 | 2020-05-26 | Sony Corporation | Dispositivo e método de processamento de sinal, e, programa |
US11128977B2 (en) | 2017-09-29 | 2021-09-21 | Apple Inc. | Spatial audio downmixing |
US10628486B2 (en) * | 2017-11-15 | 2020-04-21 | Google Llc | Partitioning videos |
WO2019106221A1 (en) * | 2017-11-28 | 2019-06-06 | Nokia Technologies Oy | Processing of spatial audio parameters |
CN108984628B (zh) * | 2018-06-20 | 2020-01-24 | 北京达佳互联信息技术有限公司 | 内容描述生成模型的损失值获取方法及装置 |
KR20210076145A (ko) * | 2018-11-02 | 2021-06-23 | 돌비 인터네셔널 에이비 | 오디오 인코더 및 오디오 디코더 |
KR20240046634A (ko) * | 2019-03-29 | 2024-04-09 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 예측 코딩에서 저비용 에러 복구를 위한 방법 및 장치 |
CN110493649B (zh) * | 2019-09-12 | 2021-08-20 | 重庆市群众艺术馆 | 基于群众满意度的文化馆数字资源加工方法 |
EP4073792A1 (en) * | 2019-12-09 | 2022-10-19 | Dolby Laboratories Licensing Corp. | Adjusting audio and non-audio features based on noise metrics and speech intelligibility metrics |
CN113096671B (zh) * | 2020-01-09 | 2022-05-13 | 齐鲁工业大学 | 一种大容量音频文件可逆信息隐藏方法及系统 |
US11704087B2 (en) * | 2020-02-03 | 2023-07-18 | Google Llc | Video-informed spatial audio expansion |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050114121A1 (en) * | 2003-11-26 | 2005-05-26 | Inria Institut National De Recherche En Informatique Et En Automatique | Perfected device and method for the spatialization of sound |
JP2010511190A (ja) * | 2006-11-24 | 2010-04-08 | エルジー エレクトロニクス インコーポレイティド | オブジェクトベースオーディオ信号の符号化及び復号化方法並びにその装置 |
JP2011209588A (ja) * | 2010-03-30 | 2011-10-20 | Fujitsu Ltd | ダウンミクス装置およびダウンミクス方法 |
JP2012525600A (ja) * | 2009-04-28 | 2012-10-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | ダウンミックス信号表現に基づいたアップミックス信号表現の供給のための一つ以上の調整されたパラメータを供給するための装置、オブジェクト関連のパラメトリック情報を用いたオーディオ信号デコーダ、オーディオ信号トランスコーダ、オーディオ信号エンコーダ、オーディオビットストリーム、方法およびコンピュータ・プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7617099B2 (en) * | 2001-02-12 | 2009-11-10 | FortMedia Inc. | Noise suppression by two-channel tandem spectrum modification for speech signal in an automobile |
EP1399917B1 (en) * | 2001-06-08 | 2005-09-21 | Philips Electronics N.V. | Editing of audio signals |
KR100479478B1 (ko) | 2002-07-26 | 2005-03-31 | 연세대학교 산학협력단 | 객체별 중요도를 고려한 객체 기반의 트랜스코딩 방법 및그 장치 |
US8363865B1 (en) | 2004-05-24 | 2013-01-29 | Heather Bottum | Multiple channel sound system using multi-speaker arrays |
CN101485202B (zh) * | 2005-05-11 | 2013-10-30 | 高通股份有限公司 | 一种用于统一的错误隐匿框架的方法及设备 |
US8509313B2 (en) * | 2006-10-10 | 2013-08-13 | Texas Instruments Incorporated | Video error concealment |
UA94117C2 (ru) | 2006-10-16 | 2011-04-11 | Долби Свиден Ав | Усовершенстованное кодирование и отображение параметров многоканального кодирования микшированных объектов |
KR20090110323A (ko) | 2007-01-04 | 2009-10-21 | 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 | 비디오 신호를 인코딩하는 방법 및 시스템 |
AU2008215232B2 (en) | 2007-02-14 | 2010-02-25 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
US7945119B2 (en) | 2007-06-26 | 2011-05-17 | Microsoft Corporation | Optimizing character rendering |
US8295494B2 (en) | 2007-08-13 | 2012-10-23 | Lg Electronics Inc. | Enhancing audio with remixing capability |
WO2009049896A1 (en) | 2007-10-17 | 2009-04-23 | Fraunhofer-Fesellschaft Zur Förderung Der Angewandten Forschung E.V. | Audio coding using upmix |
GB2459012A (en) * | 2008-03-20 | 2009-10-14 | Univ Surrey | Predicting the perceived spatial quality of sound processing and reproducing equipment |
US8189799B2 (en) | 2009-04-09 | 2012-05-29 | Harman International Industries, Incorporated | System for active noise control based on audio system output |
CN101547000B (zh) * | 2009-05-08 | 2011-05-04 | 炬力集成电路设计有限公司 | 一种信号转换电路、数模转换装置和音频输出设备 |
CN101582262B (zh) * | 2009-06-16 | 2011-12-28 | 武汉大学 | 一种空间音频参数帧间预测编解码方法 |
US9119011B2 (en) | 2011-07-01 | 2015-08-25 | Dolby Laboratories Licensing Corporation | Upmixing object based audio |
US9479886B2 (en) * | 2012-07-20 | 2016-10-25 | Qualcomm Incorporated | Scalable downmix design with feedback for object-based surround codec |
JP6186435B2 (ja) | 2012-08-07 | 2017-08-23 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ゲームオーディオコンテンツを示すオブジェクトベースオーディオの符号化及びレンダリング |
CN104885151B (zh) | 2012-12-21 | 2017-12-22 | 杜比实验室特许公司 | 用于基于感知准则呈现基于对象的音频内容的对象群集 |
-
2015
- 2015-01-05 US US15/110,371 patent/US10492014B2/en active Active
- 2015-01-05 WO PCT/US2015/010126 patent/WO2015105748A1/en active Application Filing
- 2015-01-05 CN CN201580004002.0A patent/CN105900169B/zh active Active
- 2015-01-05 JP JP2016544661A patent/JP6518254B2/ja active Active
- 2015-01-05 EP EP15700522.4A patent/EP3092642B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050114121A1 (en) * | 2003-11-26 | 2005-05-26 | Inria Institut National De Recherche En Informatique Et En Automatique | Perfected device and method for the spatialization of sound |
JP2010511190A (ja) * | 2006-11-24 | 2010-04-08 | エルジー エレクトロニクス インコーポレイティド | オブジェクトベースオーディオ信号の符号化及び復号化方法並びにその装置 |
JP2012525600A (ja) * | 2009-04-28 | 2012-10-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | ダウンミックス信号表現に基づいたアップミックス信号表現の供給のための一つ以上の調整されたパラメータを供給するための装置、オブジェクト関連のパラメトリック情報を用いたオーディオ信号デコーダ、オーディオ信号トランスコーダ、オーディオ信号エンコーダ、オーディオビットストリーム、方法およびコンピュータ・プログラム |
JP2011209588A (ja) * | 2010-03-30 | 2011-10-20 | Fujitsu Ltd | ダウンミクス装置およびダウンミクス方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018198789A1 (ja) * | 2017-04-26 | 2018-11-01 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
JPWO2018198789A1 (ja) * | 2017-04-26 | 2020-03-05 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
JP7160032B2 (ja) | 2017-04-26 | 2022-10-25 | ソニーグループ株式会社 | 信号処理装置および方法、並びにプログラム |
JP2022188258A (ja) * | 2017-04-26 | 2022-12-20 | ソニーグループ株式会社 | 信号処理装置および方法、並びにプログラム |
US11574644B2 (en) | 2017-04-26 | 2023-02-07 | Sony Corporation | Signal processing device and method, and program |
US11900956B2 (en) | 2017-04-26 | 2024-02-13 | Sony Group Corporation | Signal processing device and method, and program |
JP7459913B2 (ja) | 2017-04-26 | 2024-04-02 | ソニーグループ株式会社 | 信号処理装置および方法、並びにプログラム |
JP2020519950A (ja) * | 2017-05-09 | 2020-07-02 | ドルビー ラボラトリーズ ライセンシング コーポレイション | マルチチャネル空間的オーディオ・フォーマット入力信号の処理 |
JP7224302B2 (ja) | 2017-05-09 | 2023-02-17 | ドルビー ラボラトリーズ ライセンシング コーポレイション | マルチチャネル空間的オーディオ・フォーマット入力信号の処理 |
Also Published As
Publication number | Publication date |
---|---|
US10492014B2 (en) | 2019-11-26 |
EP3092642B1 (en) | 2018-05-16 |
WO2015105748A1 (en) | 2015-07-16 |
JP6518254B2 (ja) | 2019-05-22 |
CN105900169A (zh) | 2016-08-24 |
EP3092642A1 (en) | 2016-11-16 |
CN105900169B (zh) | 2020-01-03 |
US20160337776A1 (en) | 2016-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6518254B2 (ja) | オーディオ・コンテンツの空間的誤差メトリック | |
TWI653627B (zh) | 用以估計通道間時間差的裝置及方法與相關電腦程式 | |
US10332529B2 (en) | Determining the inter-channel time difference of a multi-channel audio signal | |
US11138989B2 (en) | Sound quality prediction and interface to facilitate high-quality voice recordings | |
US11190898B2 (en) | Rendering scene-aware audio using neural network-based acoustic analysis | |
KR102132500B1 (ko) | 조화성 기반 단일 채널 음성 품질 추정 기법 | |
CN104471640B (zh) | 基于对象的环绕声编码解码器的具有反馈的可缩放降混设计 | |
US9761229B2 (en) | Systems, methods, apparatus, and computer-readable media for audio object clustering | |
MX2013013261A (es) | Asignacion de bits, codificacion y decodificacion de audio. | |
US9936328B2 (en) | Apparatus and method for estimating an overall mixing time based on at least a first pair of room impulse responses, as well as corresponding computer program | |
Narbutt et al. | Ambiqual: Towards a quality metric for headphone rendered compressed ambisonic spatial audio | |
CN110024421A (zh) | 用于自适应控制去相关滤波器的方法和装置 | |
JPWO2018198789A1 (ja) | 信号処理装置および方法、並びにプログラム | |
CN106233112B (zh) | 信号编码方法和设备以及信号解码方法和设备 | |
CN107077855A (zh) | 信号编码方法和装置以及信号解码方法和装置 | |
Yang et al. | Steganalysis of joint codeword quantization index modulation steganography based on codeword Bayesian network | |
US10734006B2 (en) | Audio coding based on audio pattern recognition | |
JP7380834B2 (ja) | 音信号ダウンミックス方法、音信号符号化方法、音信号ダウンミックス装置、音信号符号化装置、プログラム及び記録媒体 | |
US20210191687A1 (en) | Inter-channel audio feature measurement and usages | |
JP2017515154A (ja) | 音声符号化方法および関連装置 | |
Zhang et al. | Incorporating phase-encoded spectrum masking into speaker-independent monaural source separation | |
Kim et al. | Immersive virtual reality audio rendering adapted to the listener and the room | |
EP3843428A1 (en) | Inter-channel audio feature measurement and display on graphical user interface | |
CN116978360A (zh) | 语音端点检测方法、装置和计算机设备 | |
CN101872613A (zh) | 一种基于数字家庭的地理信息的可听化表达方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6518254 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |