JP2004528599A - オーディトリーイベントに基づく特徴付けを使ったオーディオの比較 - Google Patents

オーディトリーイベントに基づく特徴付けを使ったオーディオの比較 Download PDF

Info

Publication number
JP2004528599A
JP2004528599A JP2003500891A JP2003500891A JP2004528599A JP 2004528599 A JP2004528599 A JP 2004528599A JP 2003500891 A JP2003500891 A JP 2003500891A JP 2003500891 A JP2003500891 A JP 2003500891A JP 2004528599 A JP2004528599 A JP 2004528599A
Authority
JP
Japan
Prior art keywords
audio signal
characterization
audio
characterizations
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003500891A
Other languages
English (en)
Other versions
JP4272050B2 (ja
Inventor
クロケット、ブレット・ジー
スミザズ、マイケル・ジェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2002/004317 external-priority patent/WO2002084645A2/en
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2004528599A publication Critical patent/JP2004528599A/ja
Application granted granted Critical
Publication of JP4272050B2 publication Critical patent/JP4272050B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Auxiliary Devices For Music (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Stereophonic System (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Television Systems (AREA)

Abstract

ひとつのオーディオ信号がもうひとつ別のオーディオ信号から生成されたものか、2つのオーディオ信号は同じオーディオ信号から生成されたものかを決定するための方法で、前記オーディオ信号の縮減された情報による特徴付け同士の比較を行い、前記特徴付けはオーディトリーシーンアナリシスに基づく。この比較において、オーディオ信号における時間差又は時間遅れの影響を、当該特徴付けから削除し又は当該特徴付けにおいて最小化し(5−1)、類似の程度を計算し(5−2)、類似の程度を閾値と比較する。1つの代案では、2つの特徴付けの相互相関により時間差又は時間遅れの影響を削除し又は最小化する。他の代案では、周波数領域のような時間遅れの影響とは無関係な領域に当該特徴付けを変換することにより、時間差又は時間遅れの影響を削除し又は最小化する。両方の場合は共に、類似の程度を相関係数を計算することにより計算する。

Description

【技術分野】
【0001】
本発明は、オーディオ信号に関する。とりわけ、本発明は、オーディオ信号の特徴づけと、特徴付けを使って、ひとつのオーディオ信号がもうひとつ別のオーディオ信号から生成されたものか、2つのオーディオ信号は同じオーディオ信号から生成されたものかを決定することに関する。
【背景技術】
【0002】
サウンドを別の音として感じる単位に分割することは、「オーディトリーイベントアナリシス」又は「オーディトリーシーンアナリシス」(「ASA」)と呼ばれることもある。オーディトリーシーンアナリシスの幅広い議論は、Albert S. Bregmanの「Auditory Scene Analysis - The Perceptual Organization of Sound」マサチューセッツ工科大学、1991年、第4版、2001年、第2MITプレスペーパーバック版に公開されている。加えて、Bhadkamkar他の米国特許6,002,776,1999年12月14日でも、1976年に発行された「prior art work related to sound separation by auditory scene analysis」を引用している。しかし、Bhadkamkar他の特許は、オーディトリーシーンアナリシスの実用的な採用の意欲を失わせるものであり、「オーディトリーシーンアナリシスを必要とする技術は、人間の聴覚処理のモデルという観点から科学的には興味があるものの、現時点ではコンピュータに対する要望が非常に強すぎ、特別なものなので、基本的な処理がなされるまでオーディオ分割の実用的な技術と考えることはできない。」と結論付けている。
【0003】
Bregmanは文中に「オーディオが音色、高さ、大きさ、又は(小さい範囲で)空間的な位置が突然変化したとき、別々の単位として聞こえる。」(Auditory Scene Analysis - The perceptual Organization of Sound, 469ページ)。Bregmanは、例えば周波数が別々であるとき、たくさんのオーディオが同時に流れたときのオーディオの認知について議論している。
【0004】
オーディオからの特性や特徴を抽出する多くの異なった方法がある。特徴や特性が適切に定義されているという条件で、これらの抽出は、自動的な処理工程にて実行される。例えば「ISO/IEC JTC1/SC 29/WG 11」(MPEG)は、現時点ではMPEG-7標準の一部としてのさまざまなオーディオ記述子の標準となりつつある。このような方法に共通する欠点は、ASAを無視していることである。このような方法は、高さ、大きさ、パワー、和音構成、及びスペクトルフラットネスのような古典的な信号処理変数を繰り返し探求するものである。このような変数は、有益な情報をもたらすものではあるが、人間の認知により別のものと知覚される成分に分けて信号を個性化するものではない。
【0005】
オーディトリーシーンアナリシスは、成分を人間の認知に従って別のものと識別することで、人間の聴覚と似た方法でオーディオ信号を個性化する試みである。このような方法を開発することで、これまで人間の補助を必要としていた仕事を正確に自動的な処理工程で実行することができる。
【0006】
別のものと認識される成分を特定することで、信号そのもの全てより実質的には少ない情報を用いてオーディオ信号の一意的な識別が可能となる。オーディトリーイベントに基づくコンパクトで一意的な識別は、例えば、もうひとつ別の信号からコピーされた(又は、同じ音源の信号から別の信号としてコピーされた)信号の識別のために採用され得る。
【発明の開示】
【0007】
オーディオ信号を特定するために用いることができるオーディオ信号の、一意的で縮減された情報による特徴付けを発生させる方法を記載する。特徴付けは、オーディオ信号の「サイン」又は「指紋」と考えることもできる。本発明によれば、オーディトリーシーンアナリシス(ASA)は、オーディオ信号の特徴付けの基準として、オーディトリーイベントの特定を実行する。理想的には、オーディトリーシーンアナリシスは、オーディオについて、低ビットレートのコーディングやラウドスピーカーを通じて音響的に伝達されるような処理がなされた後でも、人間のリスナーに認識されると思われるオーディトリーイベントを特定する。オーディオ信号は、オーディトリーイベントの境界域や、代案的に、各オーディトリーイベントの優勢な周波数サブ帯域により特徴付けられる。その結果得られた情報パターンは、他のこのようなオーディオの指紋やサインと比較することができるコンパクトなオーディオの指紋やサインを構成する。少なくとも各サインの部分が(要求に対して確信の持てる程度に)同じである場合の判定は、各サインが生成された、関係するオーディオ信号の部分は、同じものから生成された、又は、同じオーディオ信号から生成されたものであることを示している。
【0008】
本発明によるオーディトリーシーンアナリシスの方法は、オーディトリーイベント情報に基づくサインを比較することにより、特に音楽についての2つのオーディオ信号を速く正確に比較する方法を提供する。ASAは、オーディオ信号の間の類似性認識におけるそれほど本質的でない(高さ、大きさ、音量、調波構成のような)特徴を抽出する従来の特徴抽出法と比べて、類似性認識における本質的な情報又は特徴を抽出する。ASAの使用は、低ビットコーディングやラウドスピーカーを通して伝達されるアコースティックのような、かなり処理を施された材料における類似性を見つける機会を向上する。
【0009】
本発明は、アナログ領域でもディジタル領域でも(又はこの2つの組み合わせでも)原則として実施可能であるが、本発明の実際の実施例では、オーディオ信号はデータのブロックにおけるサンプルとして表現され、ディジタル領域において処理される。
【0010】
図1Aを参照すると、オーディトリーシーンアナリシス2は、オーディオ信号に関する「サイン」又は「指紋」を生成するために、そのオーディオ信号に適用される。ここでは、関心のある2つのオーディオ信号が対象である。これらは、一方は他方から得られたものであるか、又は両方とも前もって同じ音源から得られたものである場合は類似するだろうが、このことはあらかじめ分かってはいない。したがって、オーディトリーシーンアナリシスは両方の信号に適用される。簡単のために図1AではASAを1つの信号にのみ適用した場合を示す。図1Bに示すように、2つの信号に対するサインであるサイン1とサイン2は、相関値を発生する相関又は相関関数4に適用される。ユーザーは、確信の持てる程度についての要求事項として、2つのサインが同じである部分の最低限度である、最低相関値を設定することができる。実際には、2つのサインはデータとして記憶される。1つの実際的な応用例では、サインの1つは、例えば、音楽的な作品の公認されていないコピーから生成されたもので、もう1つのサインは、公認されていないコピーのサインが、要求された程度に確信が持てるまで一致する、データベースにある(各サインが著作権者の音楽作品から生成された)たくさんのサインのうちの、1つである。このことは、機械により自動的に実施されてもよいが、このような機械の詳細は本発明の範囲外である。
【0011】
このサインは、オーディオ信号を表現するが、実質的には、生成されたオーディオ信号より短いので(すなわち、さらにコンパクトであるか又はビット数が少ないので)、2つの信号の類似性(又は非類似性)はオーディオ信号同士の類似性から決定するのに比べてはるかに早く決定することができる。
【0012】
図1Aおよび1Bの詳細は、さらに以下に述べる。
【0013】
本発明の特徴によれば、オーディオを別のものと認識される時間的区分、又は「オーディトリーイベント」に分割するための、コンピュータによる効率的な処理が提供される。
【0014】
認識されたオーディトリーイベントの始まり又は終わりの有力な指標は、スペクトル内容の変化の中にあると考えられる。音色と高さの変化と、付随的な結果としての大きさの変化を検出するために、本発明の特徴によるオーディオイベント検出処理は、時間に関するスペクトル内容の変化を検出する。代案的に、本発明の更なる特徴によれば、時間に関するスペクトル内容の変化の検出では検出されない時間に関する振幅の変化も検出することとしてもよい。
【0015】
最低限コンピュータに要求される実施において、処理は、オーディオ信号の全周波数帯域(全帯域幅オーディオ)、又は、実質的に全周波数帯域(実際の実施例では、帯域制限フィルターがスペクトルの両端に適用される)を分析してオーディオを時間区分に分割し、もっとも音の大きいオーディオ信号成分に最大の重み付けを与える。このやり方は、小さな時間スケール(20msec以下)では耳は与えられた時間における単一のオーディトリーイベントに関心を集中させる傾向にあるという、サイコアコースティックな現象の利点を生かしている。このことは、多数のイベントが同時に起こったとしても、1つの成分がもっとも顕著な成分として認識される傾向にあり、単一のイベントが起こったかのように各々処理されることを示している。この効果の利点を生かして、処理されるオーディオの複雑さに対応してオーディトリーイベントの検出もまた可能とする。例えば、もし入力オーディオ信号が単一の楽器で演奏されていたならば、特定されるオーディオイベントは、おそらく単一の調子で演奏されたものとなるだろう。入力音声信号も同様に、発話の各成分、例えば母音と子音は、おそらく単一のオーディオ成分として特定されるだろう。ドラムビートや多数の楽器と音声による音楽のように、オーディオの複雑性が増大したとき、オーディトリーイベントは、その時々の最も顕著な(すなわち、音の大きい)オーディオ成分を特定する。代わりに、この「最も顕著な」オーディオ成分は、聴覚閾値や周波数応答を考慮に入れて決めてもよい。
【0016】
状況に応じて、本発明のさらなる特徴に従い、コンピュータが非常に複雑になるが、処理において、全帯域幅より、離散的な周波数帯域(固定又は動的に決定された又は固定と動的な決定の両方の帯域)における時間に関してスペクトル構成の変化を考慮に入れてもよい。この代案的な方法は、特定の時間で単一の信号の流れだけが認識されるとみなすよりむしろ、異なる周波数帯域の1つ以上のオーディオの流れを考慮に入れるものである。
【0017】
オーディオを区分するための本発明の特徴に従った、コンピュータを使った効率的で単純な方法ではあるが、この方法はオーディトリーイベントを特定するのに有益であることが分かった。
【0018】
本発明によるオーディトリーイベントの検出方法を、オーディオ波形の時間領域を時間間隔又はブロックに分割することにより実行してもよく、分割の後、離散フーリエ変換(DFT)(スピードを加速するため高速フーリエ変換(FFT)として実行される)のような、フィルターバンク又は時間−周波数変換を用いて、各ブロックのデータを周波数領域に変換する。各ブロックのスペクトル内容の振幅は、振幅の変化による影響を削除又は縮減するために正規化しておくことができる。結果として現れる周波数領域は、特定のブロックにおけるオーディオのスペクトル内容(周波数の関数としての振幅)の表示を提供する。連続するブロックにおけるスペクトル内容は、比較され、閾値より大きな変化は、オーディトリーイベントの時間的開始点又は時間的終点を表示するとみなすことができる。
【0019】
コンピュータの複雑化を最低限に抑えるために、好ましくは全周波数帯域のスペクトラム(平均的な質のミュージックシステムでは50Hzから15kHzまでとなるだろう)又は、実質的に全周波数帯域(例えば、非常に低周波や高周波の部分を除外するフィルターにより定義される帯域)について、時間領域におけるオーディオ波形のただ1つの周波数帯域を処理してもよい。
【0020】
以下に述べるように周波数領域におけるデータは正規化されることが好ましい。周波数領域のデータが正規化されるために必要とする程度により、振幅の表示が与えられる。従って、もし、この程度を変化させたとき、あらかじめ定められた閾値を超えると、イベントの境界とみなされる部分が多くなりすぎてしまう。スペクトルの変化により決められたイベントの開始点と終点と振幅の変化により決められたものとは、OR条件により結合し、両方のタイプの変化から得られたイベントの境界を特定してもよい。
【0021】
実際の実施例では、サンプル値により表現されるオーディオはブロックに分けられ、各オーディトリーイベントの時間的開始点及び時間的終点の境界は、時間領域におけるオーディオ波形が分割されるブロックの境界と一致する必要がある。実時間処理からの要求(ブロックを大きくすれば処理負荷は低くなる)とイベント位置の分解能(ブロックが小さいほうが、オーディトリーイベントの位置に関する詳細な情報が得られる)との間には二律背反の関係がある。
【0022】
さらなる選択として、前に示唆したように、コンピュータによる処理が複雑となってしまうが、時間領域における単一の周波数帯域における波形のスペクトル内容に対して処理を行う代わりに、時間領域の波形のスペクトルを周波数領域に変換する前に、2以上の周波数帯域に分割してもよい。周波数帯域の各々について周波数領域に変換し、そしてそれが独立のチャンネルであるかのように処理することができる。そして、得られたイベントの境界は、OR条件で結合し、そのチャンネルにおけるイベントの境界を定義することができる。多数の周波数帯域は、固定しても、状況に応じて変更することとしても、あるいは固定と状況に応じての変更とを組み合わせてもよい。例えば、オーディオノイズ低減その他の技術に用いられるトラッキングフィルター技術を、状況に応じて周波数帯域を決めるため(例えば、800Hzと2kHzにおける同時的な主正弦波を、この2つの周波数を中心にした、状況適応的な帯域とする)に採用してもよい。
【0023】
オーディトリーシーンアナリシスをもたらす他の技術を、本発明におけるオーディトリーイベントを特定するために採用してもよい。
【発明を実施するための最良の形態】
【0024】
本発明の実用的な実施例では、44.1kHzのサンプリングレートの入力オーディオにおいて約11.6msecに相当する、512個のサンプルからなるブロック内で処理されるサンプルにより、オーディオ信号が表現される。最短の認識可能なオーディトリーイベント(約20msec)より短い継続時間のブロック長さが望ましい。本発明の特徴は、このような実用的な実施例に限定されないことは了解されている。本発明は本質的に、オーディトリーイベントに先立ってオーディオをサンプルブロックに編成したり、一定長さのブロックを提供したりすることを必要としない。しかし、複雑性を最低限にするために、512個のサンプル(又は他の2の累乗個のサンプル)からなる固定長さのブロックが、3つの主な理由により有効である。第1に、実時間処理のアプリケーションにとって受け入れ可能な、十分短い待ち時間を提供するからである。第2に、フーリエ変換(FFT)分析に有効な2の累乗個のサンプルだからである。第3に、役に立つオーディトリーシーンアナリシスを実施するために適当な大きさの窓サイズを提供するからである。
【0025】
以下の議論で、この入力信号は、〔−1,1〕の範囲の振幅を持つデータであると仮定する。
【0026】
〈オーディトリーシーンアナリシス(図1A)〉
入力データのブロック化に引き続き(図示せず)、入力信号はオーディトリーイベントに分割され、各々は、図1Aの処理2(「オーディトリーシーンアナリシス」)において別のものと認識される傾向にある。オーディトリーシーンアナリシスは、前述のオーディトリーシーンアナリシス(ASA)処理により実行される。しかし、オーディトリーシーンアナリシスを実施するのに適当な1つの方法が、以下に詳細に述べられる。本発明は、ASAを実行するための他の有効な技術を採用してもよい。
【0027】
図2は、図1Aのオーディトリーシーンアナリシス処理として用いられる本発明の技術に従った処理の概要を示す。ASAステップ又はプロセスは3つの概略サブステップからなる。最初のサブステップ2−1(「スペクトル分析の実行」)は、オーディオ信号を取り上げ、それをブロックに分割し、ブロックのそれぞれについてスペクトルプロファイル又はスペクトル内容を計算する。スペクトル分析により、オーディオ信号を短時間の周波数領域内に変換する。これは、変換又は帯域パスフィルターの列のどちらかを基礎として、(人間の耳の特性によく近似させた、バークスケールやクリティカルバンドのような)直線的又は曲線的周波数空間のどちらかにおいて、フィルターバンクを用いて実行される。どんなフィルターバンクであっても、時間と周波数との間には二律背反関係が存在する。時間分解能を大きくし、従って時間間隔を短くすれば、周波数分解能が低くなる。周波数分解能を大きくし、従ってサブ帯域を小さくすれば、時間間隔が長くなる。
【0028】
第1のサブステップ2−1では、連続するオーディオ信号の時間区分におけるスペクトル内容の計算を行う。実用的な実施例では、以下に述べるように、ASAブロックサイズは512個のサンプルの入力オーディオ信号である(図3)。第2のサブステップ2−2では、ブロックとブロックとの間のスペクトル内容の違いを決定する(「スペクトルプロファイルの差異の計測」)。このように、第2のサブステップは、連続するオーディオ信号の時間区分同士のスペクトル内容の違いを計算する。第3のサブステップ2−3(「オーディトリーイベントの境界位置の特定」)では、あるスペクトラルプロファイルのブロックと次のスペクトラルプロファイルのブロックとの差が閾値より大きいとき、そのブロックの境界はオーディトリーイベントの境界と見なす。このようにして、連続する時間区分間でスペクトラルプロファイルの内容同士の差が閾値を超えたとき、第3のサブステップは、この連続する時間区分間にオーディトリーイベントの境界を設定する。上記で論じた通り、認識されたオーディトリーイベントの開始点又は終点の強力な指標はスペクトル内容の変更点であると考えられる。イベント境界の位置はサインとして保存される。随意的な処理ステップ2−4(「優勢なサブ帯域の特定」)では、スペクトル分析を用い、これもまたサインの一部として保存される優勢な周波数のサブ帯域を特定する。
【0029】
この実施例では、オーディトリーイベントの境界は最低限のスペクトラルプロファイルブロック長さ(この例では512個のサンプル)を持ったスペクトラルプロファイルのブロックの整数倍の長さを持ったオーディトリーイベントとして定義する。原則的には、イベント境界をそのように限定する必要はない。
【0030】
オーディオ区分の重複する部分又は重複しない部分のいずれか一方は、窓化され入力オーディオのスペクトラルプロファイルを計算するために用いられる。重複によりオーディトリーイベントの位置の細かい分解能が得られ、また、トランジエントのようなイベントを見逃すことが少なくなると思われる。しかし、時間分解能があがるにつれて、周波数分解能は下がる。また重複により、コンピューターの複雑性は増大する。図3は、窓化され離散フーリエ変換(DFT)により周波数領域に変換された、重複のない512個のサンプルブロックを概念的に表したものである。各ブロックは窓化され、例えばDFT、好ましくは速度を上げるため高速フーリエ変換(FFT)を用いて周波数領域に変換される。
【0031】
以下の変数を入力ブロックのスペクトルプロファイルの計算に使うことができる。
N =入力信号のサンプル数
M =スペクトルプロファイルの計算に使われる窓内のサンプル数
P =スペクトル計算の重複サンプル数
Q =計算されたスペクトル窓/領域数
原則として、どんな整数を上記変数として使ってもよい。しかし、スペクトルプロファイルの計算に標準的なFFTを使うことができるように、Mは2の累乗にしておけば、計算はもっと効率的になる。オーディトリーシーンアナリシス処理における実際の実施例では、上掲の変数は以下のように定められる。
M =512サンプル(又は、44.1kHzで11.6msec)
P =0サンプル
上掲の変数は実験により求められたもので、おおむね、オーディトリーイベントの位置と継続時間について十分な精度を満たすとみなされることが分かった。しかし、Pの値を256サンプル(50%重複)にすることは、見つけにくいイベントを特定するのに有益であることが分かっている。窓関数に起因するスペクトラルアーティファクトを最小限にするために多くの異なるタイプの窓関数が使われるが、スペクトラルプロファイルの計算に使われる窓関数は、Mポイント・ハニング、カイザー・ベッセルその他の適当なもので、非方形の窓関数が望ましい。広範囲にわたる試験の結果、広い範囲のオーディオ素材にわたって優れた成果をあげたことから、上記値とハニング窓を選択した。非方形の窓は、低周波の内容が優勢なオーディオ信号の処理に望ましい。方形窓は、イベントの不適切な検出の原因になるスペクトルアーティファクトを作る。全体として重複/付加する処理を、制限を一定レベルで設けるようなコーディックでないアプリケーションは、ここでは適用されず、窓は時間/周波数分解能やストップバンドの排除のような特徴により選ぶことができる。
【0032】
サブステップ2−1(図2)で、M個のサンプルのブロックは、Mポイント・ハニング、カイザー・ベッセルその他の適当な窓関数にてデータが窓化されて計算することができ、M・ポイント高速フーリエ変換を用いて周波数領域に変換され、FFT係数の振幅が計算される。結果出てきたデータは、最大振幅を単位と定めるように正規化され、正規化されたM個の数値は対数領域に変換される。これらの数値群は対数領域に変換する必要はないが、変換することはサブステップ2−2での差異の大きさの計算を簡単にする。さらに、対数領域は人間の聴覚システムの対数領域での特性と親密な整合性がある。対数領域における値はマイナス無限大からゼロまでである。実際の実施例では、最小リミット値がこのレンジに重ねあわされる。すなわち、リミット値を例えば−60dBに固定、あるいは、高周波数では小さい静かな音の可聴性が低いことを反映して、周波数に依存した値にすることができる。(正の周波数と同様に負も示すFFTにおいて、数値群をM/2個のサイズに減らすことも可能なことに注意すべきである)。
【0033】
サブステップ2−2では、隣り合うサブブロックのスペクトルの間の差異の大きさの計算を行う。各ロックについて、サブステップ2−1からのM(対数)個のスペクトル係数の各々を先行するサブブロックの対応する係数から減算し、その差異の大きさを計算する(符号は無視する)。これらのM個の差異は加算されひとつの数となる。すべてのオーディオ信号に対して、結果はQ個の正数群となり、数値が大きければ大きいほど、サブブロックのスペクトルが、先のサブブロックとは異なっている。差異の大きさの計算値は、和の計算で用いたスペクトル係数の数で、この差異の計算値を割ることによりスペクトル係数ごとの平均差異を示させることも可能である(この場合はM個の係数)。
【0034】
サブステップ2−3では、サブステップ2−2で計算した差異の数値群に閾値を適用することでオーディトリーイベントの境界の位置を定義する。差異が閾値を上回っていると判断したとき、スペクトルの変化は新しいイベントの信号を送るのに十分だと判断され、ブロック数の変化はイベントの境界として記録される。上記で与えられたM及びPと(サブステップ2−1の)dB単位で表した対数領域での値に対して、閾値は、FFT強度全体と比較する場合(鏡像部分も含む)は、2500に設定され、FFT強度の半分と比較される場合(先に注記したように、FFTは正の周波数と同様に負も示す。従って、FFTの強度については、一方は他方の鏡像となる)は、1250に設定される。この値は、試験的に選ばれたものであり、好適なオーディトリーイベントの検出をもたらす。この変数値はイベントの検出を減らしたり(閾値を増大する)、増やしたり(閾値を減少する)することために変更が可能である。この現実的な実施例の詳細は必須条件ではない。連続する時間区分間の相違を計算し、このような連続する時間区分間でのスペクトルプロファイルの内容の相違が閾値を超えたとき、連続する時間区分間の各々の境界にオーディトリーイベントの境界を設定するような、連続するオーディオ信号の時間区分のスペクトルの内容を計算する他の方法を適用してもよい。
【0035】
(大きさがM個のサンプルで)Q個のブロックから構成されるオーディオ信号に対する、図1Aの2の機能であるオーディトリーシーンアナリシス処理の出力は、q=0,1,...,Q−1からなるオーディトリーイベントの境界の位置を示す情報の配列B(q)となる。ブロックサイズM=512サンプル、重複がP=0サンプルそして、信号サンプリングレートが44.1kHzに対して、オーディトリーシーンアナリシス処理2は、1秒間に約86の値を出力する。配列B(q)は、基本的な形では優勢なサブ帯域情報を任意に付加しないで、オーディオ信号のサインがオーディトリーイベントの境界の列を代表する配列B(q)となるように、サインとして保存される。
【0036】
2つの違った信号に対するオーディトリーシーンアナリシスの結果の一例を図4Aと4Bに示す。上図、図4Aは、オーディトリーイベントの境界がサンプル1024個目と1536個目のところに特定されたオーディトリーシーン処理の結果を示している。下図、4Bは、イベントの境界がサンプル1024個目、2048個目および3072個目のところに特定されたものを示している。
【0037】
〈優勢なサブ帯域の特定(任意的)〉
各ブロックに対し、ASA処理(図2に示す)において任意に付加されたステップはブロック(各ブロックにおけるデータの周波数領域への変換は、周波数サブ帯域に分割された情報をもたらす)の優勢な「サブ帯域」であることを示すオーディオ信号から情報を引き出す。このブロック毎の情報はオーディトリーイベント毎の情報に変換され、優勢な周波数のサブ帯域が各オーディトリーイベントにおいて特定される。各オーディトリーイベントに対するこの情報は、オーディトリーイベントの境界に加えて他の情報とともに(以下に説明する)相関処理を提供する。
【0038】
優勢な(最も振幅の大きい)サブ帯域は、人間の耳がもっとも感度の高い周波数帯域又は範囲内の、例えば3又は4の複数のサブ帯域から選ぶことができる。代案的に、他の条件をサブ帯域の選定に使ってもよい。スペクトルは例えば3つのサブ帯域に分割される。好ましいサブ帯域の周波数範囲は、
サブ帯域1 301Hzから560Hz
サブ帯域2 560Hzから1938Hz
サブ帯域3 1938Hzから9948Hz
である。
【0039】
優勢なサブ帯域を決定するために、スペクトル振幅の自乗(又はスペクトルのパワーマグニチュード)が各サブ帯域において加算される。このサブ帯域毎の加算結果が算出されてもっとも大きなものが選ばれる。重み付けは、各サブ帯域での合計をそのサブ帯域のスペクトル値の数で割るという形式を取る。あるいは、その代わり、他より重要な帯域を強調するために、付加又は乗算するような形をとってもよい。これは、あるサブ帯域が他のサブ帯域より平均的にはエネルギーを持っているが、聴覚的には重要ではない場合に有効である。
【0040】
Q個のブロックからなるオーディオ信号を考える、優勢なサブ帯域処理の出力は、各ブロック(q=0,1,...,Q−1)の優勢なサブ帯域を表す情報の配列DS(q)となる。配列DS(q)は、配列B(q)と共にサインの中に保存されることが好ましい。このようにして、任意的な優勢なサブ帯域の情報と共に、オーディオ信号のサインは、各々オーディトリーイベントの境界の列と各ブロック内の優勢な周波数サブ帯域の列を表す配列B(q)と配列DS(q)の2つとなる。このように、理想的な例では、2つの配列は(3つの優勢なサブ帯域があるケースでは)以下のような値となる。
【0041】
10100010010000010 (イベント境界)
11222211133333311 (優勢なサブ帯域)
ほとんどの場合、優勢なサブ帯域は、この例に示すように、各オーディトリーイベント内において同じとなるか、又は、イベント内のすべてのブロックが一様でない場合は、平均値となる。このように、優勢なサブ帯域は、各オーディトリーイベント内で決定され、配列DS(q)は、同じ優勢なサブ帯域がイベント内の各ブロックに割り当てられるように修正され得る。
【0042】
〈相関〉
あるサインが他の保存されたサインと同じなのか似ているのかの決定は、相関関係又は相関処理により実行される。相関関数又は相関処理は2つのサインを比較してその類似性を決定する。これは、図5に示したように2ステップで行ってもよい。ステップ5−1で、サインの遅れ又は時間的なずれの影響を最低限にし、ステップ5−2で、サイン同士の類似の程度を計算する。
【0043】
最初に説明したステップ5−1では、2つのサイン間での遅れの影響を最低限にする。このような遅れはオーディオ信号に慎重に付け加えられたものかもしれないし、信号処理又は/及び低ビットレートのオーディオコーディングの結果による可能性もある。この処理による出力は、類似性の程度を計算するのに適当な形に修正した2つのサインとなる。
【0044】
次に説明したステップ5−2では、類似性の程度を量的に見つけるために2つの修正されたサインを比較する。この類似性の程度は、サインが要求レベルと同じか違うかを決定するための閾値と比較される。2つの適切な相関処理と関数が記載される。それらのどちらか一方、又は他の適当な相関処理又は関数が本発明の一部として適用される。
【0045】
〈第1の相関処理又は関数〉
〈時間遅延の影響の除去〉
この相関関数又は処理は、2つの領域が各サイン中でもっともよく似た部分であり同じ長さを持つような各サインから、1つの領域又は部分を分離する。図6A−Dに例示したように、分離された領域は2つのサインの間における完全に重複する部分又は、重複する領域より小さい部分でありえる。
【0046】
好ましいのは、2つのサインから完全に重複する部分を用いる方法である。いくつかの例が図6に示されている。2つのサインが重複する領域は、1つのサインの終点からと他のサインの開始点からの部分となる(図6B及び6C)。もしサインが他のサインより小さければ、2つのサインの重複する領域は、小さなサインの全部と大きなサインの一部となる(図6A及び6D)。
【0047】
2つのデータ配列から共通の領域を分離する多くの方法がある。標準の数学的技法は、データ配列から時間差や遅れの程度を見つけるのに相互相関を用いる必要がある。2つのデータにおける各配列の開始点が揃っていれば、時間差や遅れはゼロであるといえる。2つのデータにおける各配列の開始点が揃っていなければ、時間差や遅れはゼロではない。相互相関は、2つのデータ配列間の時間差や遅れの程度を計算し、この程度は1つの配列(相互相関関数の出力)として保存される。相互相関の列におけるピーク値を表す時間差や遅れは、他方のデータ配列に対する一方のデータ配列の時間差や遅れと考えられる。以下の段落は数学的な形でこのような相関方法を表現する。
【0048】
(長さN)をサイン1からの1つの配列とし、S(長さN)をサイン2からの1つの配列とする。最初に配列RE1E2の相関を計算する(例えば John G. Proakis, Dimitris G. Manolakis,Digital Signal Processing: Principles, Algorithms, and Applications, Macmillan Publishing Company, 1992, ISBN 0-02-396815-X参照)。
【数1】
Figure 2004528599
【0049】
相互相関は、実行時間短縮のため標準的なFFTに基づく技術を用いて計算することが好ましい。SとSは両方とも結び付けられるので、RE1E2はN+N−1の長さを持つ。SとSは似ていると想定して、RE1E2における最大成分に対応する遅れlは、Sに対する遅れSを表す。
【数2】
Figure 2004528599
【0050】
この時間差は遅れを表すので、サインSとSとの共通の空間的な領域又は空間的に重複する部分をS´とS´として 保持し、各々同じ長さN12を持つ。
【0051】
方程式で表されるように、サインSとSの重複する部分S´とS´は以下のように定義される。
【数3】
Figure 2004528599
【0052】
長さS´とS´は、
【数4】
Figure 2004528599
【0053】
〈第1の相関処理又は関数〉
〈類似の程度〉
このステップでは、2つのサインにおける量的な類似の程度を見つけるために2つのサインを比較する。これには、相関係数を用いる方法が望ましい(式5)。これは標準的な教科書にある方法である(William Mendenhall, Dennis D. Wackerly, Richard L. Sheaffer,Mathematical Statistics with Applications: Fourth Edition, Duxbury Press, 1990, ISBN 0-534-92026-8)。
【数5】
Figure 2004528599
ここでσとσとは各々S´とS´の標準偏差である。
【0054】
´とS´の共分散は以下で定義される
【数6】
Figure 2004528599
ここで、μとμは各々のS´とS´平均値である。
【0055】
相関係数ρは、−1≦ρ≦1の範囲にあり、ここで−1と1は完全な相関関係を意味する。好ましくは、正しく一致していることを示すために、閾値をこの値の絶対値に適用するのがよい。
【数7】
Figure 2004528599
【0056】
実際には、排除と検出の誤りを許容できる程度にするために、(多くのサインのトレーニングセットにより)閾値が調整される。
【0057】
最初の相関処理又は関数は、大きな不均衡又は遅れがあるサイン、及び一方のサインが他方のサインに比べて長さが著しく短いサインに適用するのが好ましい。
【0058】
〈第2の相関処理又は関数〉
〈時間遅延の影響の除去〉
第2の相関処理又は関数は、サインを、現状の時間領域から、時間遅れの影響とは無関係な領域に変換する。この方法は結果的に、直接相関処理又は比較ができるような、同じ長さの2つの修正されたサインを、もたらす。
【0059】
このような変換の方法はたくさんある。好ましいのは離散フーリエ変換(DFT)である。信号のDFTは振幅と位相に分割することができる。(DFTへの入力)信号の空間的な移動又は時間的な遅れはDFTの位相を変化させるが振幅は変化させない。このように、信号のDFTの振幅は信号の時間的不変量と考えられる。
【0060】
DFTのこの特性により、2つのサインの各々を時間的不変量に変換することができる。もし両方のサインが同じ長さなら、DFTの振幅はサイン毎に直接DFTの振幅を計算することができ、その結果は修正されたサインとして保存される。もしサインの各々の長さが異なる場合は、DFT計算の前に、長いほうのサインが短いほうのサインの長さと同じになるよう端を切り捨てるか、又は、長いほうのサインと同じ長さになるよう短いほうのサインにゼロを加え或いは拡張がなされる。以下の段落は数学的な形式でこの方法を表現するものである。
【0061】
(長さN)をサイン1からの1つの配列とし、S(長さN)をサイン2からの1つの配列とする。最初に長いほうのサインの端を切り捨てるか、又は、短いほうのサインにゼロを加え、両方のサインを同じ長さNにする。変換されたサインS´とS´は、以下のとおり、振幅にDFTを施すことにより生成される。
【数8】
Figure 2004528599
【0062】
実際には、DFTの計算の前に各サインがその平均値を減算しておくことは有益である。離散的フーリエ変換を行う前にサインS1´とS2´に窓関数を適用してもよいが、実際には、最適な結果を生む窓関数は何も見つかっていない。
【0063】
〈第2の相関処理又は関数〉
〈類似の程度〉
この類似の程度を計測するステップでは、2つのサインにおける量的な類似の程度を見つけるために2つのサインを比較する。これには、相関係数を用いる方法が望ましい(式9)。これは標準的な教科書にある方法である(William Mendenhall, Dennis D. Wackerly, Richard L. Sheaffer,Mathematical Statistics with Applications: Fourth Edition, Duxbury Press, 1990, ISBN 0-534-92026-8)。
【数9】
Figure 2004528599
ここでσとσとは各々S´とS´の標準偏差である。
【0064】
´とS´の共分散は以下で定義される
【数10】
Figure 2004528599
ここで、μとμは各々のS´とS´平均値である。
【0065】
相関係数ρは、−1≦ρ≦1の範囲にあり、ここで−1と1は完全な相関関係を意味する。好ましくは、正しく一致していることを示すために、閾値をこの値の絶対値に適用するのがよい。
【数11】
Figure 2004528599
【0066】
実際には、排除と検出の誤りを許容できる程度にするために、(多くのサインのトレーニングセットにより)閾値が調整される。
【0067】
実際に適用する場合においては、多くのサインは「知られた」オーディオ内容を表すサインのライブラリーの形式で一緒に保存される。この状態で、サインの平均値を計算し、比較している2つのサインの各々からこのサインの平均値を減算することにより、サイン同士を区別する能力は改善される。
【0068】
例えば、W個のサイン、S´からSw−1´、を持つデータベースが与えられたとすると、サインの平均値は以下のように計算される。
【数12】
Figure 2004528599
【0069】
2つのサインを比べるとき、(一方のサインがライブラリー内になかったとしても)共分散を計算する前に、双方のサインからサインの平均値が減算される。共分散は、
【数13】
Figure 2004528599
となる。ここでμとμは各々のS´−SMEAN´及びS´−SMEAN´の平均値となる。
【0070】
第2の相関処理又は関数は、小さな誤配列又は遅れ持つサインに対して、及び、長さが同じくらいのサインに対して適用するのが好ましい。このときは、第1の相関処理又は関数より著しく速く処理する。しかしある情報は(DFTで位相を放棄するため)本質的に失われてしまうので、類似の程度についての精度が少し劣る。
【0071】
〈応用例〉
先に簡単に説明した通り、本発明の応用例として検索可能なオーディオのデータベースが挙げられる。例えばレコード会社における歌曲のデータベースなどである。ライブラリーからすべての歌曲についてサインを算出すことができ、このサインをデータベースに保存することが可能となる。本発明は、サインを算出し、出処不明な歌曲の正体を特定するためにデータベース中のすべてのサインと非常にすばやく比較することで、由来のわからない歌曲を受け入れる手段を提供する。
【0072】
実際には、類似の程度についての精度(又は信頼度)は比較するサインのサイズに比例する。サインが長ければ長いほど、比較に用いられるデータ量が増えるので、類似性の程度についての信頼性又は精度は大きくなる。約30秒以上のオーディオから生成されるサインにより十分区別できることがわかっている。
【0073】
〈結論〉
本発明及びその様々な特徴に基づく変更又は修正による他の実施形態は、当業者にとって明らかであり、本発明は具体的に記載された実施の形態に限定されないことは了解されるべきである。従って、あらゆる変更や修正又は本質的な思想とここに開示され、請求された原則的な基本原理と均等なものは本発明の範囲に含まれる。
【0074】
本発明とその種々の特徴は、ディジタル信号処理装置、プログラムされた汎用ディジタルコンピュータ及び/又は専用ディジタルコンピュータのソフトウエアの機能により実行することができる。アナログ信号とディジタル信号の流れは適当なハードウエアにより、及び/又はソフトウエア及び/又はファームウエアの機能として実行されよう。
【図面の簡単な説明】
【0075】
【図1】図1Aは、本発明による、オーディオ信号からサインを抽出することを示したフローチャートである。オーディオ信号は、たとえば音楽を表現するもの(例えば、音楽作品や歌)でもよい。図1Bは、本発明による、2つのサインの相関を図示したフローチャートである。
【図2】図2は、本発明による、オーディオイベントの位置を抽出し、状況に応じて、オーディオ信号から優勢なサブ帯域を抽出することを図示したフローチャートである。
【図3】図3は、本発明よる、スペクトル分析のステップを表した概念図である。
【図4】図4Aと4Bは、本発明による、複数のオーディオイベントの位置又はイベントの境界を示した理想的なオーディオ波形である。
【図5】図5は、本発明における図2の相関4に従い、2つのサインの相関をさらに詳細に示したフローチャートである。
【図6】図6A−Dは、本発明による、サインの配列の例を描いた、信号を表現する概念的な概要図である。図は尺度を合わせていない。サンプル値により表現されるディジタルオーディオ信号の場合、横軸は、各サインの配列に記録された離散値の時間的な順番を表す。

Claims (13)

  1. ひとつのオーディオ信号がもうひとつ別のオーディオ信号から生成されたものか、2つのオーディオ信号は同じオーディオ信号から生成されたものかを決定するための方法であって、
    前記オーディオ信号の縮減された情報による特徴付け同士の比較を含み、
    前記縮減された情報による特徴付けはオーディトリーシーンアナリシスに基づくものである、前記方法
  2. 前記比較は、
    オーディオ信号における時間差又は時間遅れの影響を、当該特徴付けから削除し又は当該特徴付けにおいて最小化し、
    類似の程度を計算し、
    当該類似の程度を閾値と比較することを含む、請求項1に記載の方法。
  3. 前記削除は、前記各特徴付けにおいて、各部分が最も類似し、かつ、各部分が同じ長さを持つような部分を、前記特徴付けの各々において特定する、請求項2に記載の方法。
  4. 前記削除は、相互相関を算出することにより、前記特徴付けにおける各部分を特定する、請求項3に記載の方法。
  5. 前記計算は、前記特徴付けの各々において特定された部分の相関係数を計算することにより類似の程度を計算する、請求項4に記載の方法。
  6. 前記削除は、当該特徴付けを時間遅れの影響と無関係な領域に変換する、請求項2に記載の方法。
  7. 前記削除は、当該特徴付けを周波数領域に変換する、請求項6に記載の方法。
  8. 前記計算は、前記特徴付けの各々において特定された部分の相関係数を計算することにより類似の程度を計算する、請求項7に記載の方法。
  9. 前記特徴付けの1つは、既知のオーディオ内容を表す特徴付けの収集から採取した1つの特徴付けである、請求項1乃至請求項8のいずれか1項の方法。
  10. 前記削除の後で前記比較の前に、両方の特徴づけから、前記収集における特徴付けの平均値を減算することを含む、請求項9に記載の方法。
  11. 前記オーディトリーシーンアナリシスに基づく縮減された情報による特徴付けは、少なくともオーディトリーイベントの境界の位置を表現する情報の配列である、請求項1乃至請求項10のいずれか1項の方法。
  12. 前記オーディトリーイベントの境界は、
    前記オーディオ信号の連続する時間部分のスペクトル内容を計算し、
    前記オーディオ信号の連続する時間部分のスペクトル内容同士の差を計算し、
    このような連続する時間部分間でスペクトル内容の差が閾値を超えたとき、連続する時間部分間に境界をオーディトリーイベントの境界であると特定することで決定される、請求項11に記載の方法。
  13. 前記情報の配列は、前記オーディトリーイベントの各々における優勢な周波数サブ帯域を表す、請求項12又は請求項13に記載の方法。
JP2003500891A 2001-05-25 2002-02-22 オーディトリーイベントに基づく特徴付けを使ったオーディオの比較 Expired - Fee Related JP4272050B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US29382501P 2001-05-25 2001-05-25
US4564402A 2002-01-11 2002-01-11
US35149802P 2002-01-23 2002-01-23
PCT/US2002/004317 WO2002084645A2 (en) 2001-04-13 2002-02-12 High quality time-scaling and pitch-scaling of audio signals
PCT/US2002/005329 WO2002097790A1 (en) 2001-05-25 2002-02-22 Comparing audio using characterizations based on auditory events

Publications (2)

Publication Number Publication Date
JP2004528599A true JP2004528599A (ja) 2004-09-16
JP4272050B2 JP4272050B2 (ja) 2009-06-03

Family

ID=27485955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003500891A Expired - Fee Related JP4272050B2 (ja) 2001-05-25 2002-02-22 オーディトリーイベントに基づく特徴付けを使ったオーディオの比較

Country Status (7)

Country Link
EP (3) EP1393298B1 (ja)
JP (1) JP4272050B2 (ja)
CN (1) CN1524258B (ja)
AU (3) AU2002240461B2 (ja)
CA (3) CA2447911C (ja)
MX (1) MXPA03010749A (ja)
WO (2) WO2002097790A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030754A1 (ja) * 2004-09-17 2006-03-23 Matsushita Electric Industrial Co., Ltd. オーディオ符号化装置、復号化装置、方法、及びプログラム
JP2009533714A (ja) * 2006-04-13 2009-09-17 イマージョン コーポレーション デジタル音声信号からハプティック・イベントを自動生成するシステム及び方法
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8761915B2 (en) 2006-04-13 2014-06-24 Immersion Corporation System and method for automatically producing haptic events from a digital audio file

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7461002B2 (en) 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
AU2002307533B2 (en) 2001-05-10 2008-01-31 Dolby Laboratories Licensing Corporation Improving transient performance of low bit rate audio coding systems by reducing pre-noise
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
ATE390683T1 (de) 2004-03-01 2008-04-15 Dolby Lab Licensing Corp Mehrkanalige audiocodierung
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
EP3591864B1 (en) * 2004-11-22 2022-04-27 Nielsen Media Research, Inc. Apparatus and method to identify a media time shift
EP1729173A3 (en) * 2005-05-27 2007-01-03 Telegraf ApS System for generating synchronized add-on information
WO2006132857A2 (en) 2005-06-03 2006-12-14 Dolby Laboratories Licensing Corporation Apparatus and method for encoding audio signals with decoding instructions
DE102005045573B3 (de) * 2005-06-22 2006-11-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film
DE102005045627A1 (de) 2005-06-22 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Durchführen einer Korrelation zwischen einem Testtonsignal, das mit variabler Geschwindigkeit abspielbar ist, und einem Referenztonsignal
DE102005045628B3 (de) * 2005-06-22 2007-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film, der in einer zeitlichen Folge aufgebrachte Filminformationen aufweist
US7948557B2 (en) 2005-06-22 2011-05-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating a control signal for a film event system
TWI396188B (zh) * 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
CN1937032B (zh) * 2005-09-22 2011-06-15 财团法人工业技术研究院 切割语音数据序列的方法
US7831434B2 (en) 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
MY141426A (en) * 2006-04-27 2010-04-30 Dolby Lab Licensing Corp Audio gain control using specific-loudness-based auditory event detection
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
GB2457694B (en) 2008-02-21 2012-09-26 Snell Ltd Method of Deriving an Audio-Visual Signature
GB2489133B (en) * 2009-11-30 2014-05-07 Miranda Technologies Inc Method and apparatus for providing signatures of audio/video signals and for making use thereof
US8860883B2 (en) 2009-11-30 2014-10-14 Miranda Technologies Partnership Method and apparatus for providing signatures of audio/video signals and for making use thereof
WO2012038506A1 (en) * 2010-09-22 2012-03-29 Thomson Licensing Methods for processing multimedia flows and corresponding devices
EP2974253B1 (en) 2013-03-15 2019-05-08 Dolby Laboratories Licensing Corporation Normalization of soundfield orientations based on auditory scene analysis
CN106792346A (zh) * 2016-11-14 2017-05-31 广东小天才科技有限公司 一种教学视频中的音频调整方法及装置
CN106653029A (zh) * 2016-12-02 2017-05-10 广东小天才科技有限公司 一种音频批量分割方法及装置
EP3646323B1 (en) 2017-06-27 2021-07-07 Dolby International AB Hybrid audio signal synchronization based on cross-correlation and attack analysis
CN107481739B (zh) * 2017-08-16 2021-04-02 成都品果科技有限公司 音频切割方法及装置
CN112927710B (zh) * 2021-01-21 2021-10-26 安徽南瑞继远电网技术有限公司 一种基于无监督方式的电力变压器工况噪声分离方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4624009A (en) * 1980-05-02 1986-11-18 Figgie International, Inc. Signal pattern encoder and classifier
US5040081A (en) * 1986-09-23 1991-08-13 Mccutchen David Audiovisual synchronization signal generator using audio signature comparison
US5055939A (en) * 1987-12-15 1991-10-08 Karamon John J Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track
JPH05509409A (ja) * 1990-06-21 1993-12-22 レイノルズ ソフトウエア,インコーポレイティド 波動分析・事象認識方法およびその装置
US5175769A (en) * 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
US6211919B1 (en) * 1997-03-28 2001-04-03 Tektronix, Inc. Transparent embedment of data in a video signal
US7457422B2 (en) * 2000-11-29 2008-11-25 Ford Global Technologies, Llc Method and implementation for detecting and characterizing audible transients in noise

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030754A1 (ja) * 2004-09-17 2006-03-23 Matsushita Electric Industrial Co., Ltd. オーディオ符号化装置、復号化装置、方法、及びプログラム
US7860721B2 (en) 2004-09-17 2010-12-28 Panasonic Corporation Audio encoding device, decoding device, and method capable of flexibly adjusting the optimal trade-off between a code rate and sound quality
JP4809234B2 (ja) * 2004-09-17 2011-11-09 パナソニック株式会社 オーディオ符号化装置、復号化装置、方法、及びプログラム
JP2009533714A (ja) * 2006-04-13 2009-09-17 イマージョン コーポレーション デジタル音声信号からハプティック・イベントを自動生成するシステム及び方法
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8688251B2 (en) 2006-04-13 2014-04-01 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8761915B2 (en) 2006-04-13 2014-06-24 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US9239700B2 (en) 2006-04-13 2016-01-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US9330546B2 (en) 2006-04-13 2016-05-03 Immersion Corporation System and method for automatically producing haptic events from a digital audio file

Also Published As

Publication number Publication date
MXPA03010749A (es) 2004-07-01
CA2447911C (en) 2011-07-05
CA2448178A1 (en) 2002-12-05
CA2448182C (en) 2011-06-28
WO2002097792A1 (en) 2002-12-05
EP1519363B1 (en) 2013-07-24
CN1524258A (zh) 2004-08-25
WO2002097790A1 (en) 2002-12-05
EP1393300B1 (en) 2012-11-28
CN1524258B (zh) 2012-03-21
CA2448182A1 (en) 2002-12-05
EP1393300A1 (en) 2004-03-03
CA2448178C (en) 2011-05-10
EP1393298A1 (en) 2004-03-03
AU2002252143B2 (en) 2008-05-29
AU2002242265B8 (en) 2002-12-09
WO2002097790A8 (en) 2003-07-31
AU2002242265B2 (en) 2007-05-17
EP1519363A1 (en) 2005-03-30
CA2447911A1 (en) 2002-12-05
EP1393298B1 (en) 2010-06-09
JP4272050B2 (ja) 2009-06-03
AU2002240461B2 (en) 2007-05-17

Similar Documents

Publication Publication Date Title
JP4272050B2 (ja) オーディトリーイベントに基づく特徴付けを使ったオーディオの比較
JP4906230B2 (ja) オーディトリーイベントに基づく特徴付けを使ったオーディオ信号の時間調整方法
US9165562B1 (en) Processing audio signals with adaptive time or frequency resolution
US7283954B2 (en) Comparing audio using characterizations based on auditory events
US20040148159A1 (en) Method for time aligning audio signals using characterizations based on auditory events
US20070083365A1 (en) Neural network classifier for separating audio sources from a monophonic audio signal
AU2002240461A1 (en) Comparing audio using characterizations based on auditory events
AU2002252143A1 (en) Segmenting audio signals into auditory events

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080205

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081029

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081201

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081226

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090226

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140306

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees