JP2015504539A - オーディオ・コーデックからの向上したクロマ抽出 - Google Patents

オーディオ・コーデックからの向上したクロマ抽出 Download PDF

Info

Publication number
JP2015504539A
JP2015504539A JP2014543874A JP2014543874A JP2015504539A JP 2015504539 A JP2015504539 A JP 2015504539A JP 2014543874 A JP2014543874 A JP 2014543874A JP 2014543874 A JP2014543874 A JP 2014543874A JP 2015504539 A JP2015504539 A JP 2015504539A
Authority
JP
Japan
Prior art keywords
block
frequency
frequency coefficients
coefficients
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014543874A
Other languages
English (en)
Other versions
JP6069341B2 (ja
Inventor
ビスワス,アリジット
フィンク,マルコ
シュフーグ,ミヒャエル
Original Assignee
ドルビー・インターナショナル・アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー・インターナショナル・アーベー filed Critical ドルビー・インターナショナル・アーベー
Publication of JP2015504539A publication Critical patent/JP2015504539A/ja
Application granted granted Critical
Publication of JP6069341B2 publication Critical patent/JP6069341B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/221Cosine transform; DCT [discrete cosine transform], e.g. for use in lossy audio compression such as MP3
    • G10H2250/225MDCT [Modified discrete cosine transform], i.e. based on a DCT of overlapping data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Auxiliary Devices For Music (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本稿は、音楽情報検索(MIR)のための方法およびシステムに関する。詳細には、本稿は、オーディオ信号からクロマ・ベクトルを抽出するための方法およびシステムに関する。オーディオ信号(301)のサンプルのブロックについてクロマ・ベクトル(100)を決定する方法(900)が記述される。本方法(900)は、スペクトル帯域複製ベースのオーディオ・エンコーダ(410)のコア・エンコーダ(412)から、前記オーディオ信号(301)のサンプルのブロックから導出された周波数係数の対応するブロックを受領する段階(901)であって、前記オーディオ・エンコーダは、周波数係数の前記ブロックから前記オーディオ信号(301)のエンコードされたビットストリーム(305)を生成するよう適応されている、段階と;周波数係数の受領されたブロックに基づいて前記オーディオ信号(301)のサンプルのブロックについてのクロマ・ベクトル(100)を決定する段階(904)とを含む。

Description

関連出願への相互参照
本願はここに参照によってその全体において組み込まれる2011年11月30日に出願された米国仮特許出願第61/565,037号の優先権を主張するものである。
発明の技術分野
本稿は、音楽情報検索(MIR: music information retrieval)のための方法およびシステムに関する。詳細には、本稿は、オーディオ信号のエンコード・プロセスとの関連で(たとえばエンコード・プロセスの間に)オーディオ信号からクロマ・ベクトルを抽出するための方法およびシステムに関する。
利用可能な音楽ライブラリのナビゲートは、簡単にアクセスできるデータの量がここ数年で著しく増大したという事実のため、ますます難しくなりつつある。音楽情報検索(MIR)と呼ばれる学際的な研究分野は、ユーザーが自分のメディアを探るのを助けるために音楽データを構造化し、分類する解決策を探求している。たとえば、MIRベースの方法は、似た型の音楽を提案するために音楽を分類できることが望ましい。MIR技法は、時間を追った諸半音のエネルギー分布を指定するクロマグラムと呼ばれる中レベルの時間‐周波数表現に基づくことがある。オーディオ信号のクロマグラムは、オーディオ信号のハーモニー情報(たとえば、メロディーについての情報および/またはコードについての情報)を同定するために使われてもよい。しかしながら、クロマグラムの決定は、典型的にはかなりの計算上の複雑さに結びついている。
M. Goto、"A Chorus Section Detection Method for Musical Audio Signals and its Application to a Music Listening Station"、IEEE Trans. Audio, Speech, and Language Processing 14, no.5 (September 2006): 1783-1794 Stein, M., et. al.、"Evaluation and Comparison of Audio Chroma Feature Extraction Methods"、126th AES Convention、Munich, Germany, 2009 G.Schuller, M.Gruhne, and T.Friedrich、"Fast audio feature extraction from compressed audio data"、Selected Topics in Signal Processing, IEEE Journal of、5(6):1262-1271, oct.2011
本稿は、クロマグラム計算方法の複雑さの問題に取り組むものであり、低減した計算量でのクロマグラム計算のための方法およびシステムを記述する。
ある側面によれば、オーディオ信号のサンプルのブロックについてクロマ・ベクトルを決定する方法が記述される。サンプルのブロックは、いわゆるサンプルの長ブロックであってもよい。これはサンプルのフレームとも称される。オーディオ信号はたとえば音楽トラックであってもよい。本方法は、オーディオ・エンコーダ(たとえばAAC(Advanced Audio Coding[先進オーディオ符号化])またはmp3エンコーダ)からオーディオ信号のサンプルのブロックから導出された周波数係数の対応するブロックを受領する段階を含む。オーディオ・エンコーダは、スペクトル帯域複製(SBR: spectral band replication)ベースのオーディオ・エンコーダのコア・エンコーダであってもよい。例として、SBRベースのオーディオ・エンコーダのコア・エンコーダはAACまたはmp3エンコーダであってもよく、より詳細には、SBRベースのオーディオ・エンコーダはHE(High Efficiency[高効率])AACエンコーダまたはmp3PROであってもよい。本稿に記載される方法が適用可能なSBRベースのオーディオ・エンコーダのさらなる例はMPEG-D USAC(Universal Speech and Audio Codec[統合音声音響符号化])エンコーダである。
(SBRベースの)オーディオ・エンコーダは典型的には、周波数係数のブロックからオーディオ信号のエンコードされたビットストリームを生成するよう適応されている。この目的のため、オーディオ・エンコーダは周波数係数のブロックを量子化してもよく、周波数係数の量子化されたブロックをエントロピー符号化してもよい。
本方法はさらに、周波数係数の受領されたブロックに基づいてオーディオ信号のサンプルのブロックについてのクロマ・ベクトルを決定する段階を含む。詳細には、クロマ・ベクトルは、周波数係数の受領されたブロックから導出される周波数係数の第二のブロックから決定されてもよい。ある実施形態では、周波数係数の第二のブロックは周波数係数の上記の受領されたブロックである。これは、周波数係数の受領されたブロックが周波数係数の長ブロックである場合に成り立ちうる。もう一つの実施形態では、周波数係数の第二のブロックは周波数係数の推定された長ブロックに対応する。この周波数係数の推定された長ブロックは、周波数係数の受領されたブロック内に含まれる複数の短ブロックから決定されてもよい。
前記ブロックの周波数係数は、修正離散コサイン変換(MDCT: Modified Discrete Cosine Transformation)係数のブロックであってもよい。時間領域から周波数領域への変換(および結果として得られる周波数係数のブロック)の他の例は、MDST(Modified Discrete Sine Transform[修正離散サイン変換])、DFT(Discrete Fourier Transform[離散フーリエ変換])およびMCLT(Modified Complex Lapped Transform[修正複素重複変換])といった変換である。一般的な表現では、周波数係数のブロックは、時間領域から周波数領域への変換を使って対応するサンプルのブロックから決定されてもよい。逆に、サンプルのブロックが、対応する逆変換を使って周波数係数のブロックから決定されてもよい。
MDCTは重複変換である。つまり、そのような場合、周波数係数のブロックはサンプルのブロックおよび該サンプルのブロックのすぐ近傍からのオーディオ信号の追加的なさらなるサンプルから決定される。詳細には、周波数係数のブロックは、サンプルのブロックおよび直前のサンプルのブロックから決定されてもよい。
サンプルのブロックはそれぞれM個のサンプルからなるN個の相続く短ブロックを含んでいてもよい。換言すれば、サンプルのブロックはN個の短ブロックのシーケンスであってもよい(あるいはN個の短ブロックのシーケンスを含んでいてもよい)。同様に、周波数係数のブロックはそれぞれM個の周波数係数からなるN個の対応する短ブロックを含んでいてもよい。ある実施形態ではM=129、N=8であり、つまりサンプルのブロックはM×N=1024個のサンプルを含む。オーディオ・エンコーダは過渡オーディオ信号をエンコードするために短ブロックを利用し、それにより周波数分解能を低下させつつも時間分解能を上げてもよい。
オーディオ・エンコーダからの短ブロックのシーケンスを受領すると、本方法は、周波数係数の短ブロックの受領されたシーケンスの周波数分解能を上げ、それによりサンプルのブロック全体(これはサンプルの短ブロックからなる前記シーケンスを含む)についてのクロマ・ベクトルの決定を可能にする追加的なステップを含んでいてもよい。詳細には、本方法は、M個の周波数係数のN個の短ブロックからのサンプルのブロックに対応する周波数係数の長ブロックを推定することを含んでいてもよい。この推定は、周波数係数の推定される長ブロックが周波数係数のN個の短ブロックに比べ増大した周波数分解能をもつように行なわれる。そのような場合、オーディオ信号のサンプルのブロックについてのクロマ・ベクトルは、周波数係数の推定された長ブロックに基づいて決定されてもよい。
周波数係数の長ブロックを推定する前記段階は、種々のレベルの総合のために階層的な仕方で実行されてもよい。つまり、複数の短ブロックが長ブロックに総合されてもよく、複数の長ブロックが超長ブロックに総合されてもよい、といったことである。結果として、種々のレベルの周波数分解能(および対応して時間分解能)が提供できる。例として、周波数係数の長ブロックはN個の短ブロックのシーケンスから決定されてもよい(上記と同様)。次の階層レベルでは、周波数係数のN2個の長ブロック(このうち一部または全部がN個の短ブロックの対応する諸シーケンスから推定されたものでありうる)のシーケンスがN2倍多い周波数係数(そして対応して高い周波数分解能)の超長ブロックに変換されてもよい。よって、周波数係数の短ブロックのシーケンスから周波数係数の長ブロックを推定する方法は、(同時にクロマ・ベクトルの時間分解能を階層的に減少させつつ)クロマ・ベクトルの周波数分解能を階層的に増大させるために使用されてもよい。
周波数係数の長ブロックを推定する段階は、周波数係数のN個の短ブロックの対応する周波数係数をインターリーブし、それにより周波数係数のインターリーブされた長ブロックを与えることを含んでいてもよい。周波数係数のブロックの量子化およびエントロピー符号化のコンテキストでは、そのようなインターリーブはオーディオ・エンコーダ(たとえばコア・エンコーダ)によって実行されてもよいことを注意しておくべきである。よって、本方法は、代替的に、オーディオ・エンコーダから周波数係数のインターリーブされた長ブロックを受領する段階を含んでいてもよい。結果として、インターリーブ段階によって追加的な計算資源が消費されることはない。クロマ・ベクトルは、周波数係数のインターリーブされた長ブロックから決定されてもよい。さらに、周波数係数の長ブロックを推定する段階は、(高周波数ビンに比べ変換の低周波数ビンにおける)エネルギー圧縮属性をもつ変換、たとえばDCT-II変換を周波数係数のインターリーブされた長ブロックに適用することによって、周波数係数のN個の短ブロックのN個の対応する周波数係数を脱相関することを含んでいてもよい。エネルギー圧縮変換、たとえばDCT-II変換を使ったこの脱相関方式は、適応ハイブリッド変換(AHT: Adaptive Hybrid Transform)方式と称されてもよい。クロマ・ベクトルは、周波数係数の脱相関されたインターリーブされた長ブロックから決定されてもよい。
あるいはまた、周波数係数の長ブロックを推定する段階は、M個の周波数係数のN個の短ブロックにポリフェーズ変換(PPC: polyphase conversion)を適用することを含んでいてもよい。ポリフェーズ変換は、M個の周波数係数のN個の短ブロックをN×M個の周波数係数の正確な長ブロックに数学的に変換するための変換行列に基づいていてもよい。よって、変換行列は、オーディオ・エンコーダ(たとえばMDCT)によって実行される時間領域から周波数領域への変換から数学的に決定されてもよい。変換行列は、周波数係数のN個の短ブロックの時間領域への逆変換と、時間領域サンプルの周波数領域へのその後の変換の組み合わせを表わしていて、それによりN×M個の周波数係数の正確な長ブロックを与えるのでもよい。ポリフェーズ変換は、変換行列係数の一部を0と置いた上記変換行列の近似を利用してもよい。例として、変換行列係数の90%以上の割合が0と置かれてもよい。結果として、ポリフェーズ変換は低い計算量で周波数係数の推定される長ブロックを提供しうる。さらに、上記割合は、複雑さの関数として変換の品質を変えるためのパラメータとして使われてもよい。換言すれば、上記割合は複雑さがスケーラブルな変換を提供するために使われてもよい。
AHTが(PPCも)短ブロックの上記シーケンスの一つまたは複数の部分集合に適用されてもよいことを注意しておくべきである。よって、周波数係数の長ブロックを推定することは、周波数係数の上記N個の短ブロックの複数の部分集合を形成することを含んでいてもよい。それらの部分集合は、L個の短ブロックの長さを有していて、それによりN/L個の部分集合を与えてもよい。部分集合当たりの短ブロックの数Lは、オーディオ信号に基づいて選択されてもよく、それによりAHT/PPCをそのオーディオ信号(すなわち、オーディオ信号のその特定のフレーム)の特定の特性に適応させてもよい。
AHTの場合、各部分集合について、周波数係数の短ブロックの対応する周波数係数がインターリーブされ、それによりその部分集合についての(L×M個の係数をもつ)周波数係数のインターリーブされた中間ブロックを与えてもよい。さらに、各部分集合について、エネルギー圧縮変換、たとえばDCT-II変換が、その部分集合の周波数係数のインターリーブされた中間ブロックに適用され、それにより周波数係数のインターリーブされた中間ブロックの周波数分解能を上げてもよい。PPCの場合、M個の周波数係数のL個の短ブロックをL×M個の周波数係数の正確な中間ブロックに数学的に変換するための中間変換行列が決定されてもよい。各部分集合について、ポリフェーズ変換(これは中間ポリフェーズ変換と称されてもよい)は、中間変換行列係数の一部を0と置いた中間変換行列の近似を利用してもよい。
より一般には、周波数係数の長ブロックの推定は、(前記複数の部分集合についての)短ブロックのシーケンスから周波数係数の複数の中間ブロックの推定を含んでいてもよいと言ってもよい。周波数係数の前記複数の中間ブロックから(本稿に記載される方法を使って)複数のクロマ・ベクトルが決定されてもよい。よって、クロマ・ベクトルの決定についての周波数分解能(および時間分解能)はオーディオ信号の特性に適応させることができる。
クロマ・ベクトルを決定する段階は、周波数係数の受領されたブロックから導出される周波数係数の第二のブロックに対して周波数依存の音響心理学的処理を適用することを含んでいてもよい。周波数依存の音響心理学的処理はオーディオ・エンコーダによって提供される音響心理学的モデルを利用してもよい。
ある実施形態では、周波数依存の音響心理学的処理を適用することは、周波数係数の第二のブロックの少なくとも一つの周波数係数から導出された値を、周波数依存のエネルギー閾値(たとえば、周波数依存の音響心理学的なマスキング閾値)と比較することを含む。前記少なくとも一つの周波数係数から導出された値は、対応する複数の周波数(たとえばスケール因子帯域)についての複数の周波数係数から導出された平均エネルギー値(たとえばスケール因子帯域エネルギー)に対応していてもよい。詳細には、平均エネルギー値は、前記複数の周波数係数の平均であってもよい。上記比較の結果として、周波数係数は、該周波数係数がエネルギー閾値より低ければ、0と置かれてもよい。エネルギー閾値は、オーディオ・エンコーダによって、たとえばSBRベースのオーディオ・エンコーダのコア・エンコーダによって適用される音響心理学的モデルから導出されてもよい。詳細には、エネルギー閾値は、周波数係数のブロックを量子化するためにオーディオ・エンコーダによって使用される周波数依存のマスキング閾値から導出されてもよい。
クロマ・ベクトルを決定する段階は、前記第二のブロックの周波数係数の一部または全部をクロマ・ベクトルの諸音程クラス〔トーン・クラス〕に分類することを含んでいてもよい。その後、クロマ・ベクトルの諸音程クラスについての累積されたエネルギーが、分類された周波数係数に基づいて決定されてもよい。例として、周波数係数は、クロマ・ベクトルの諸音程クラスに関連付けられた諸帯域通過フィルタを使って分類されてもよい。
オーディオ信号(サンプルのブロックのシーケンスを含む)のクロマグラムは、オーディオ信号のサンプルのブロックのシーケンスからクロマ・ベクトルのシーケンスを決定し、クロマ・ベクトルの該シーケンスをサンプルのブロックのシーケンスに関連する時間軸に対してプロットすることによって決定されてもよい。換言すれば、サンプルのブロックのシーケンスについて(すなわち、一連のフレームについて)本稿で概説される方法を逐次反復することによって、信頼できるクロマ・ベクトルが、どのフレームも無視することなく(たとえば、短ブロックのシーケンスを含む過渡オーディオ信号についてのフレームを無視することなく)、フレーム毎に決定されうる。結果として、連続的なクロマグラム(フレーム毎に(少なくとも)一つのクロマ・ベクトルを含む)が決定されてもよい。
もう一つの側面によれば、オーディオ信号をエンコードするよう適応されたオーディオ・エンコーダが記載される。オーディオ・エンコーダは、オーディオ信号の(可能性としてはダウンサンプリングされた)低周波数成分をエンコードするよう適応されたコア・エンコーダを有していてもよい。コア・エンコーダは典型的には、サンプルのブロックを周波数領域に変換してそれにより周波数係数の対応するブロックを与えることによって、低周波数成分のサンプルのブロックをエンコードするよう適応されている。さらに、オーディオ・エンコーダは、周波数係数のブロックに基づいてオーディオ信号の低周波数成分のサンプルのブロックのクロマ・ベクトルを決定するよう適応されたクロマ決定ユニットを有していてもよい。この目的のために、クロマ決定ユニットは、本稿で概説される方法段階の任意のものを実行するよう適応されていてもよい。エンコーダはさらに、オーディオ信号の対応する高周波数成分をエンコードするよう適応されたスペクトル帯域複製エンコーダを有していてもよい。さらに、エンコーダは、前記コア・エンコーダおよび前記スペクトル帯域複製エンコーダによって与えられるデータからエンコードされたビットストリームを生成するよう適応されたマルチプレクサを有していてもよい。さらに、前記マルチプレクサは、クロマ・ベクトルから導出された情報(たとえばコードおよび/またはキーといったクロマ・ベクトルから導出される高レベルの情報)を、メタデータとして、エンコードされたビットストリームに加えるよう適応されていてもよい。例として、エンコードされたビットストリームは、MP4フォーマット、3GPフォーマット、3G2フォーマット、LATMフォーマットの任意のものにおいてエンコードされてもよい。
本稿に記載される方法はオーディオ・デコーダ(たとえばSBRベースのオーディオ・エンコーダ)に適用されてもよいことを注意しておくべきである。そのようなオーディオ・デコーダは典型的には、エンコードされたビットストリームを受領するよう適応されており、エンコードされたビットストリームから周波数係数の(量子化された)ブロックを抽出するよう適応されている多重分離およびデコード・ユニットを有する。周波数係数のこれらのブロックは、本稿で概説されているようにクロマ・ベクトルを決定するために使われてもよい。
結果として、オーディオ信号をデコードするよう適応されたオーディオ・デコーダが記述される。オーディオ・デコーダは、ビットストリームを受領するよう適応されており、受領されたビットストリームから周波数係数のブロックを抽出するよう適応された多重分離およびデコード・ユニットを有する。周波数係数のブロックは、オーディオ信号の(ダウンサンプリングされた)低周波数成分のサンプルの対応するブロックに関連付けられている。詳細には、周波数係数のブロックは、対応するオーディオ・エンコーダにおいて導出された周波数係数の対応するブロックの量子化されたバージョンに対応してもよい。デコーダにおける周波数係数のブロックは、(逆変換を使って)時間領域に変換されて、オーディオ信号の(ダウンサンプリングされた)低周波数成分のサンプルの再構成されたブロックを生じてもよい。
さらに、オーディオ・デコーダは、ビットストリームから抽出された周波数係数のブロックに基づいてオーディオ信号の(低周波数成分の)サンプルのブロックのクロマ・ベクトルを決定するよう適応されたクロマ決定ユニットを有する。クロマ決定ユニットは、本稿で概説される方法段階の任意のものを実行するよう適応されていてもよい。
さらに、いくつかのオーディオ・デコーダは音響心理学的モデルを有することがあることを注意しておくべきである。そのようなオーディオ・デコーダの例は、たとえばドルビー・デジタルおよびドルビー・デジタル・プラスである。この音響心理学的モデルは、(本稿で概説される)クロマ・ベクトルの決定のために使用されてもよい。
さらなる側面によれば、ソフトウェア・プログラムが記述される。ソフトウェア・プログラムは、プロセッサ上で実行され、コンピューティング装置上で実行されたときに本稿で概説される方法段階を実行するよう適応されていてもよい。
もう一つの側面によれば、記憶媒体が記述される。記憶媒体は、プロセッサ上で実行され、コンピューティング装置上で実行されたときに本稿で概説される方法段階を実行するよう適応されたソフトウェア・プログラムを有していてもよい。
さらなる側面によれば、コンピュータ・プログラム・プロダクトが記述される。コンピュータ・プログラムは、コンピュータ上で実行されたときに本稿で概説される方法段階を実行するための実行可能命令を有していてもよい。
本稿で概説される好ましい実施形態を含む方法およびシステムは担体で使われても、あるいは本稿で開示される他の方法およびシステムとの組み合わせで使用されてもよいことを注意しておくべきである。さらに、本稿で概説される方法およびシステムのあらゆる側面は、任意に組み合わされることができる。特に、請求項の特徴は任意の仕方で互いに組み合わされることができる。
本発明について、付属の図面を参照しつつ、例示的な仕方で下記で説明する。
クロマ・ベクトルの例示的な決定方式を示す図である。 スペクトログラムの係数をクロマ・ベクトルの例示的な音程クラスに分類するための例示的な帯域通過フィルタを示す図である。 クロマ決定ユニットを有する例示的なオーディオ・エンコーダのブロック図である。 例示的な高効率先進オーディオ符号化(High Efficiency−Advanced Audio Coding)エンコーダおよびデコーダのブロック図である。 修正離散コサイン変換の決定方式を示す図である。 AおよびBは、例示的な音響心理学的周波数曲線を示す図である 周波数係数の(推定された)長ブロックの例示的なシーケンスを示す図である。 周波数係数の(推定された)長ブロックの例示的なシーケンスを示す図である。 周波数係数の(推定された)長ブロックの例示的なシーケンスを示す図である。 周波数係数の(推定された)長ブロックの例示的なシーケンスを示す図である。 周波数係数の(推定された)長ブロックの例示的なシーケンスを示す図である。 さまざまな長ブロック推定方式から導出されるクロマ・ベクトルの類似性についての例示的な実験結果を示す図である。 オーディオ信号についてのクロマ・ベクトルのシーケンスを決定する方法の例示的なフローチャートである。
今日の記憶解決策は、音楽コンテンツの巨大なデータベースをユーザーに提供する容量をもつ。Simfyのようなオンライン・ストリーミング・サービスは1300万曲を超える曲を提供し、こうしたストリーミング・サービスは大きなデータベース内をナビゲートして、加入者に適切な音楽トラックを選択してストリーミングする課題に直面している。同様に、データベースに記憶された音楽の大きな個人的コレクションをもつユーザーは、適切な音楽を選択するという同じ問題をもつ。そのような大量のデータを扱うことができるためには、音楽を発見するための新しい方法が望ましい。特に、ユーザーの音楽に対する選好される嗜好が既知であるときに、音楽検索システムがユーザーに対して似た種類の音楽を提案することが有益でありうる。
音楽類似性を識別するためには、テンポ、リズム、ビート、ハーモニー、メロディー、ジャンルおよびムードといった数多くの高レベルの内容的特徴が必要とされることがあり、音楽コンテンツから抽出される必要があることがある。音楽情報検索(MIR)は、これらの音楽特徴の多くを計算する方法を提供する。たいていのMIR戦略は中レベルの記述子に依拠しており、それから必要な高レベルの音楽特徴が得られる。中レベルの記述子の一例は、図1に示されているいわゆるクロマ・ベクトル100である。クロマ・ベクトル100は通例はK次元ベクトルであり、ベクトルの各次元がある半音クラスのスペクトル・エネルギーに対応する。西洋音楽の場合、典型的にはK=12である。他の種類の音楽については、Kは異なる値を有していてもよい。クロマ・ベクトル100は、ある特定の時点でのオーディオ信号のスペクトル101(たとえば、短期間フーリエ変換(STFT: Short Term Fourier Transform)の振幅スペクトルを使って決定される)を単一のオクターブにマッピングして折り畳むことによって得られてもよい。よって、クロマ・ベクトルは、その特定の時点におけるオーディオ信号のメロディーおよびハーモニー内容を捕捉する一方、スペクトログラム101に比べて音色の変化にはそれほど敏感ではない。
図1に示されるように、オーディオ信号のクロマ特徴は、スペクトル101を音楽ピッチ知覚のシェパード(Shepard)の螺旋表現102に投影することによって視覚化できる。表現102では、クロマは真上から見たときの螺旋102の周上の位置に当たる。他方、高さは横から見たときの螺旋の垂直位置に当たる。高さはオクターブの位置に対応する。すなわち、高さはオクターブを示す。クロマ・ベクトルは、振幅スペクトル101を螺旋101のまわりに巻き付け、螺旋102の周上で対応する諸位置にあるが異なるオクターブ(異なる高さ)にあるスペクトル・エネルギーをクロマ(または音程クラス)に投影し、それにより半音クラスのスペクトル・エネルギーを総和することによって抽出されうる。
半音クラスのこの分布はオーディオ信号のハーモニー内容を捕捉する。クロマ・ベクトルの時間的な進行はクロマグラムとして知られる。クロマ・ベクトルおよびクロマグラム表現は、コードネーム(たとえばC、EおよびGの大きなクロマ・ベクトル値をもつCメジャー・コード)を識別するため、オーディオ信号の全体的なキーを推定するため(キーは楽曲の最終落着点または楽曲のあるセクションの焦点を表わす主三和音、コード、長調/短調を特定する)、オーディオ信号の旋法を推定するため(旋法は音階の型を表わす、たとえば長調または短調の楽曲)、楽曲内および楽曲間の類似性を検出するため(楽曲内のハーモニー/メロディー類似性または類似した楽曲のプレイリストを生成するための楽曲のコレクションにわたるハーモニー/メロディー類似性)、楽曲を特定するためおよび/または楽曲のさびを抽出するために使われてもよい。
よって、クロマ・ベクトルは、オーディオ信号の短期スペクトルの単一のオクターブへのスペクトル的折り畳みおよび折り畳まれたスペクトルのその後の12次元ベクトルへの分解によって得ることができる。この操作は、オーディオ信号の適切な時間‐周波数表現に依拠する。適切な時間‐周波数表現は好ましくは周波数領域において高い分解能をもつ。オーディオ信号のそのような時間‐周波数表現の計算は計算集約的であり、既知のクロマトグラム計算方式では多くの計算パワーを費消する。
以下では、クロマ・ベクトルを決定するための基本的な方式について述べる。表1(第四オクターブにおける西洋音楽の諸半音についてのHz単位での周波数)で見て取れるように、基準ピッチ、一般にはA4音についての440Hzがわかっているときには、音の周波数への直接的なマッピングが可能である。
Figure 2015504539
二つの半音の周波数の間の倍数は12√2であり、よって二つのオクターブの間の倍数は2=(12√2)12である。周波数を倍にすることは音を1オクターブ上げることと等価なので、この体系は周期的と見ることができ、円筒状の座標系102で表示することができる。ここで、動径軸が12音の一つまたはクロマ値の一つを表わし(cと称する)、長手方向位置が音高を表わす(hと称する)。結果として、知覚されるピッチまたは周波数fはf=2c+h、c∈[0,1)、h∈Z として書くことができる。
オーディオ信号(たとえば楽曲)をそのメロディーおよびハーモニーに関して解析するとき、時間を追ってそのハーモニー情報を示す視覚的表示が望ましい。一つの方法はいわゆるクロマグラムである。クロマグラムでは、一フレームのスペクトル内容がクロマ・ベクトルと呼ばれる半音の12次元のベクトルにマッピングされ、時間に対してプロットされる。クロマ値cは上述した式を
Figure 2015504539
と倒置することによって所与の周波数fから得ることができる。ここで、
Figure 2015504539
は、複数のオクターブの単一のオクターブへのスペクトル的な折り畳み(螺旋表現102によって描かれる)に対応する床演算である。あるいはまた、クロマ・ベクトルは、オクターブ毎の12個の帯域通過フィルタのセットを使うことによって決定されてもよい。ここで、各帯域通過は、特定の時点におけるオーディオ信号の振幅スペクトルから特定のクロマのスペクトル・エネルギーを抽出するよう適応される。よって、各クロマ(または音程クラス)に対応するスペクトル・エネルギーが振幅スペクトルから単離され、その後、その特定のクロマについてのクロマ値cを与えるよう合計されることができる。A音のクラスについての例示的な帯域通過フィルタ200が図2に示されている。クロマ・ベクトルおよびクロマグラムを決定するためのそのようなフィルタ・ベースの方法は非特許文献1に記載されている。さらなるクロマ抽出方法は非特許文献2に記載されている。両文献は参照によって組み込まれる。
上記で概説したように、クロマ・ベクトルおよびクロマグラムの決定は、オーディオ信号の適切な時間‐周波数表現の決定を必要とする。これは典型的には高い計算上の複雑さに結びついている。本稿では、MIRプロセスを、すでに同様の時間‐周波数変換を利用している既存のオーディオ処理方式に統合することによって計算努力を軽減することが提案される。そのような既存のオーディオ処理方式の望ましい品質は、高い周波数分解能をもつ時間‐周波数表現、時間‐周波数変換の効率的な実装および結果として得られるクロマグラムの信頼性および品質を潜在的に改善するために使用できる追加的なモジュールの可用性であろう。
オーディオ信号(特に音楽信号)は典型的にはエンコードされた(すなわち圧縮された)フォーマットで記憶および/または伝送される。これは、MIRプロセスがエンコードされたオーディオ信号との関連ではたらくべきであるということを意味する。したがって、時間‐周波数変換を利用するオーディオ・エンコーダとの関連でオーディオ信号のクロマ・ベクトルおよび/またはクロマグラムを決定することが提案される。特に、高効率(HE)エンコーダ/デコーダ、スペクトル帯域複製(SBR)を利用するエンコーダ/デコーダを利用することが提案される。そのようなSBRベースのエンコーダ/デコーダの例はHE-AAC(先進オーディオ符号化)エンコーダ/デコーダである。HE-AACコーデックは、非常に低いビットレートでリッチな聴取経験を実現するために設計されており、放送、モバイル・ストリーミングおよびダウンロード・サービスにおいて広く使われている。代替的なSBRベースのコーデックはたとえば、AACコア・エンコーダの代わりにmp3コア・エンコーダを利用するmp3PROコーデックである。以下では、HE-AACコーデックを参照するが、提案される方法およびシステムは他のオーディオ・コーデック、特に他のSBRベースのコーデックにも適用可能であることを注意しておくべきである。
よって、本稿では、オーディオ信号のクロマ・ベクトル/クロマグラムを決定するために、HE-AACにおいて利用可能な時間‐周波数変換を利用することが提案される。よって、クロマ・ベクトル決定のための計算上の複雑さが有意に軽減される。クロマグラムを得るためにオーディオ・エンコーダを使うことの、計算コストの節約以外のもう一つの利点は、典型的なオーディオ・コーデックが人間の知覚に焦点を当てているという事実である。これは、典型的なオーディオ・コーデック(HE-AACコーデックなど)が、さらなるクロマグラム向上のために好適でありうる良好な音響心理学的ツールを提供するということを意味する。換言すれば、クロマグラムの信頼性を高めるために、オーディオ・エンコーダ内で利用可能な音響心理学的ツールを利用することが提案される。
さらに、オーディオ・エンコーダ自身も追加的なクロマグラム計算モジュールの存在から裨益することを注意しておくべきである。クロマグラム計算モジュールが助けになるメタデータ、たとえば和音情報を計算することを許容し、そうした情報がオーディオ・エンコーダによって生成されるビットストリームのメタデータ中に含められてもよいからである。この追加的なメタデータは、デコーダ側での向上した消費者経験を提供するために使われることができる。特に、追加的なメタデータはさらなるMIR応用のために使用されてもよい。
図3は、オーディオ・エンコーダ(たとえばHE-AACエンコーダ)300およびクロマグラム決定モジュール310の例示的なブロック図を示している。オーディオ・エンコーダ300は、時間‐周波数変換302を使ってオーディオ信号301を時間‐周波数領域に変換することによってオーディオ信号301をエンコードする。そのような時間‐周波数変換302の典型的な例は、たとえばAACエンコーダのコンテキストにおいて使われる離散コサイン変換(MDCT)である。典型的には、オーディオ信号301の諸サンプルx[k]のフレームは周波数変換(たとえばMDCT)を使って周波数領域に変換され、それにより周波数係数X[k]の組を与える。周波数係数X[k]の組は、量子化・符号化ユニット303において量子化され、エンコードされる。ここで、量子化および符号化は典型的には知覚モデル306を考慮に入れる。その後、符号化されたオーディオ信号は、エンコード・ユニットまたはマルチプレクサ・ユニット304において特定のビットストリーム・フォーマット(たとえばMP4フォーマット、3GPフォーマット、3G2フォーマットまたはLATMフォーマット)にエンコードされる。特定のビットストリーム・フォーマットへのエンコードは典型的には、エンコードされたオーディオ信号へのメタデータの追加を含む。結果として、特定のフォーマットのビットストリーム305(たとえば、MP4フォーマットでのHE-AACビットストリーム)が得られる。このビットストリーム305は典型的にはオーディオ・コア・エンコーダからのエンコードされたデータならびにSBRエンコーダ・データおよび追加的なメタデータを含む。
クロマグラム決定モジュール310は、オーディオ信号301の短期振幅スペクトル101を決定するために時間‐周波数変換311を利用する。その後、クロマ・ベクトルのシーケンス(すなわちクロマグラム313)がユニット312において、短期振幅スペクトル101のシーケンスから決定される。
図3は、統合されたクロマグラム決定モジュールを有するエンコーダ350をさらに示している。組み合わされたエンコーダ350の処理ユニットのいくつかは別個のエンコーダ300のユニットに対応する。しかしながら、上記のように、エンコードされたビットストリーム355は、クロマグラム353から導出される追加的なメタデータを用いて、ビットストリーム・エンコード・ユニット354において向上させられてもよい。他方、クロマグラム決定モジュールは、エンコーダ350の時間‐周波数変換302および/またはエンコーダ350の知覚的モデル306を利用してもよい。換言すれば、クロマグラム計算352(可能性としては音響心理学的処理356を使う)は、クロマ・ベクトル100が決定されるもとになる振幅スペクトル101を決定するために変換302によって与えられる周波数係数X[k]の組を利用してもよい。さらに、知覚的に顕著なクロマ・ベクトル100を決定するために、知覚的モデル306が考慮に入れられてもよい。
図4は、HE-AACバージョン1およびHE-AACバージョン2(すなわち、ステレオ信号のパラメトリック・ステレオ(PS: parametric stereo)エンコード/デコードを含むHE-AAC)において使用される例示的なSBRベースのオーディオ・コーデック400を示している。特に、図4は、いわゆるデュアル・レート・モード、すなわちエンコーダ410中のコア・エンコーダ412がSBRエンコーダ414の半分のサンプリング・レートで機能するモードで動作するHE-AACコーデック400のブロック図を示している。エンコーダ410の入力において、入力サンプリング・レートfs=fs_inでのオーディオ信号301が与えられる。該オーディオ信号301は、オーディオ信号301の低周波数成分を与えるために、ダウンサンプリング・ユニット411において因子2だけダウンサンプリングされる。典型的には、ダウンサンプリング・ユニット411は、ダウンサンプリングに先立って高周波成分を除去する(それによりエイリアシングを避ける)ために低域通過フィルタを有する。ダウンサンプリング・ユニット411は、低下したサンプリング・レートfs/2=fs_in/2の低周波成分を与える。低周波成分はコア・エンコーダ412(たとえばAACエンコーダ)によってエンコードされて、低周波成分のエンコードされたビットストリームを与える。
オーディオ信号の高周波成分はSBRパラメータを使ってエンコードされる。この目的のため、オーディオ信号301は分解フィルタバンク413(たとえば、64個などの周波数帯を有する直交ミラー・フィルタバンク(QMF))を使って分解される。結果として、オーディオ信号の複数のサブバンド信号が得られる。ここで、各時点tにおいて(または各サンプルkにおいて)、前記複数のサブバンド信号は、この時点tにおけるオーディオ信号301のスペクトルの指標を与える。前記複数のサブバンド信号はSBRエンコーダ414に与えられる。SBRエンコーダ414は、複数のSBRパラメータを決定する。ここで、前記複数のSBRパラメータは、対応するデコーダ430において(再構成された)低周波成分からオーディオ信号の高周波成分を再構成することを可能にする。SBRエンコーダ414は典型的には、前記複数のSBRパラメータおよび(再構成された)低周波成分に基づいて決定される再構成された高周波成分がもとの高周波成分を近似するよう、前記複数のSBRパラメータを決定する。この目的のために、SBRエンコーダ414は、もとの高周波成分と再構成された高周波成分に基づく誤差最小化基準(たとえば平均二乗誤差基準)を利用してもよい。
前記複数のSBRパラメータおよび前記低周波成分のエンコードされたビットストリームはマルチプレクサ415(たとえばエンコーダ・ユニット304)内で結合され、全体的なビットストリーム、たとえばHE-AACビットストリーム305を与え、これが記憶されたり伝送されたりしてもよい。全体的なビットストリーム305は、前記複数のSBRパラメータを決定するためにSBRエンコーダ414によって使用されたSBRエンコーダ設定に関する情報をも含む。さらに、本稿では、オーディオ信号301のクロマグラム313、353から導出されたメタデータを全体的なビットストリーム305に加えることが提案される。
対応するデコーダ430は、前記全体的なビットストリーム305から、サンプリング・レートfs_out=fs_inの圧縮されていないオーディオ信号を生成してもよい。コア・デコーダ431はSBRパラメータを、低周波成分のエンコードされたビットストリームから分離する。さらに、コア・デコーダ431(たとえばAACデコーダ)は、低周波成分のエンコードされたビットストリームをデコードして、デコーダ430の内部サンプリング・レートfsでの再構成された低周波成分の時間領域信号を与える。再構成された低周波成分は分解フィルタバンク432を使って分解される。デュアル・レート・モードでは、内部サンプリング・レートfsはデコーダ430においては、入力サンプリング・レートfs_inおよび出力サンプリング・レートfs_outとは異なることを注意しておくべきである。これは、AACデコーダ431はダウンサンプリングされた領域で、すなわち入力サンプリング・レートfs_inの半分でありオーディオ信号301の出力サンプリング・レートfs_outの半分である内部サンプリング・レートfsで機能するという事実のためである。
分解フィルタバンク432(たとえば32個などの周波数帯域を有する直交ミラー・フィルタバンク)は典型的には、エンコーダ410において使われる分解フィルタバンク413に比べ半分の数の周波数帯しかもたない。これは、オーディオ信号全体ではなく、再構成された低周波成分のみが分解される必要があるという事実のためである。再構成された低周波成分の結果として得られる複数のサブバンド信号は、受領されるSBRパラメータとの関連でSBRデコーダ433において、再構成された高周波成分の複数のサブバンド信号を生成するために使用される。その後、合成フィルタバンク434(たとえば64個などの周波数帯の直交ミラー・フィルタバンク)が、時間領域での再構成されたオーディオ信号を与えるために使われる。典型的には、合成フィルタバンク434は、分解フィルタバンク432の周波数帯の数の二倍の数の周波数帯をもつ。再構成された低周波成分の前記複数のサブバンド信号は、合成フィルタバンク434の下半分の諸周波数帯に入力されてもよく、再構成された高周波成分の前記複数のサブバンド信号は、合成フィルタバンク434の上半分の諸周波数帯に入力されてもよい。合成フィルタバンク434の出力における再構成されたオーディオ信号は、信号サンプリング・レートfs_out=fs_inに対応する内部サンプリング・レート2fsをもつ。
よって、HE-AACコーデック400は、SBRパラメータの決定のために時間‐周波数変換413を提供する。しかしながら、この時間‐周波数変換413は典型的には、非常に低い周波数分解能をもち、よってクロマグラム決定のために好適ではない。他方、コア・エンコーダ412、特にAACコード・エンコーダも、より高い周波数分解能で時間‐周波数変換(典型的にはMDCT)を利用する。
AACコア・エンコーダはオーディオ信号をブロックまたはフレームと呼ばれる一連のセグメントに分解する。窓〔ウィンドー〕と呼ばれる時間領域フィルタは、これらのブロックにおいてデータを修正することによって、ブロックからブロックへのなめらかな遷移を提供する。AACコア・エンコーダは、それぞれ長ブロックおよび短ブロックと称されるM=1028サンプルおよびM=128サンプルという二つのブロック長の間で動的に切り換えるよう適応される。よって、AACコア・エンコーダは、トーン様(定常状態の、ハーモニー的にリッチな複雑なスペクトル信号)(長ブロックを使う)とインパルス様(過渡的な信号)(8個の短ブロックのシーケンスを使う)との間で揺れ動くオーディオ信号をエンコードするよう適応される。
サンプルからなる各ブロックは、修正離散コサイン変換(MDCT)を使って周波数領域に変換される。ブロック・ベース(フレーム・ベースとも称される)の時間周波数変換のコンテキストにおいて典型的に生じるスペクトル漏れの問題を回避するために、MDCTは重複窓を利用する。すなわち、MDCTはいわゆる重複変換の例である。このことは図5に示されている。図5は、フレームまたはブロック501のシーケンスを含むオーディオ信号301を示している。図示した例では、各ブロック501はオーディオ信号301のM個のサンプルを含む(長ブロックについてはM=1024、短ブロックについてはM=128)。上記変換を単一のブロックだけに適用するのではなく、重複変換であるMDCT変換は、シーケンス502によって示されるように、二つの隣り合うブロックを重複的に変換する。逐次のブロック間の遷移をさらになめらかにするために、長さ2Mの窓関数w[k]がさらに適用される。この窓は、エンコーダにおける変換とデコーダにおける逆変換で、二回適用されるので、窓関数w[k]はプリンセン・ブラッドリー(Princen-Bradley)条件を満たすべきである。結果として得られるMDCT変換は次のように書ける。
Figure 2015504539
これは、M個の周波数係数X[k]が2M個の信号サンプルx[l]から決定されることを意味する。
その後、M個の周波数係数X[k]のブロックのシーケンスが音響心理学的モデルに基づいて量子化される。さまざまな規格で記述されるようなオーディオ符号化において使われるさまざまな音響心理学的モデルがある。規格は、ISO13818-7:2005、動画およびオーディオ符号化、2005またはISO14496-3:2009、情報技術――オーディオ・ビジュアル・オブジェクトの符号化――パート3:オーディオ、2009、または3GPP、一般オーディオ・コーデック(General Audio Codec)オーディオ処理機能;向上aac-Plus一般オーディオ・コーデック;エンコーダ仕様AACパート、2004などであり、これらは参照によって組み込まれる。音響心理学的モデルは典型的には、人間の耳が異なる周波数について異なる感度をもつという事実を考慮に入れる。換言すれば、特定の周波数においてオーディオ信号を知覚するために必要とされる音圧レベル(SPL: sound pressure level)は周波数の関数として変化する。これは、図6のaに示されている。ここでは、人間の耳の聴力曲線(hearing curve)601の閾値が周波数の関数として示されている。これは、周波数係数X[k]は、図6のaに示される聴力曲線601の閾値の考慮のもとに量子化されることができることを意味する。
さらに、人間の耳の聴力はマスキングを受けることを注意しておくべきである。用語マスキングは、スペクトル・マスキングおよび時間的マスキングに細分されうる。スペクトル・マスキングは、ある周波数区間にある、あるエネルギー・レベルのマスク音が、該マスク音の周波数区間の直接的なスペクトル近傍にある他の音をマスクしうることを示す。このことは図6のbに示されている。この図では、聴力の閾値602が、それぞれ中心周波数0.25kHz、1kHzおよび4kHzのまわりの60dBのレベルの狭帯域ノイズのスペクトル近傍において増大することが観察できる。高まった聴覚閾値602はマスキング閾値Thrと称される。これは、周波数係数X[k]は、図6のbに示されるマスキング閾値602の考慮のもとに量子化できることを意味する。時間的マスキングは、先行するマスク信号がその後の信号をマスクしうること(ポストマスキングまたは前方マスキングと称される)および/または後続のマスク信号が先行する信号をマスクしうること(プレマスキングまたは後方マスキングと称される)を示す。
例として、3GPP規格からの音響心理学モデルが使用されうる。このモデルは、複数のスペクトル・エネルギーXenを計算することによって、対応する複数の周波数帯bについて、適切な音響心理学的マスキング閾値を決定する。サブバンドb(本稿では周波数帯域bとも称され、HE-AACのコンテキストではスケール因子帯域とも称される)についての複数のスペクトル・エネルギーXen[b]は、MDCT周波数係数X[k]から、二乗されたMDCT係数を合計することによって、すなわち次式のように決定されてもよい。
Figure 2015504539
一定のオフセットを使うことは、最悪ケースのシナリオ、つまり可聴周波数帯全体についてのトーン様信号をシミュレートする。換言すれば、音響心理学的モデルはトーン様成分と非トーン様成分の間の区別をしない。すべての信号フレームはトーン様であると想定され、これは「最悪ケース」シナリオを含意する。結果として、トーン様と非トーン様の成分の区別はなされず、よってこの音響心理学的モデルは計算効率がよい。
使用されるオフセット値はSNR(信号対雑音比)値に対応する。これは、高いオーディオ品質を保証するために適切に選ばれるべきである。標準的なAACについては、対数SNR値29dBが定義され、サブバンドbにおける閾値は次式のように決定される。
Figure 2015504539
3GPPモデルは、サブバンドbにおける閾値Thrsc[b]を隣接するサブバンドb−1、b+1の閾値Thrsc[b−1]またはThrsc[b+1]の重み付けされたバージョンと比較し、最大を選択することによって人間の聴覚系をシミュレートする。比較は、非対称的なマスキング曲線602の異なる傾きをシミュレートするために、下隣についてと上隣についてでそれぞれ異なる周波数依存の重み付け係数sh[b]およびsl[b]を使ってなされる。結果として、最低のサブバンドから始まって15dB/Barkの傾きを近似する第一のフィルタリング動作は
Thr'spr[b]=max(Thrsc[b],sh[b]・Thrsc[b−1])
によって与えられ、最高のサブバンドから始まって30dB/Barkの傾きを近似する第二のフィルタリング動作は
Thrspr[b]=max(Thr'spr[b],sl[b]・Thr'spr[b+1])
によって与えられる。
計算されたマスキング閾値Thrspr[b]からサブバンドbについての全体的な閾値Thr[b]を得るために、静穏閾値601(Thrquiet[b]とも称される)も考慮に入れられるべきである。これは、各サブバンドbについて二つのマスキング閾値の高いほうの値をそれぞれ選択して、二つの曲線のうちのより優勢な部分が考慮に入れられるようにすることによってなされうる。これは、全体的なマスキング閾値が
Thr'[b]=max(Thrspr[b],Thrquiet[b])
として決定されうることを意味する。
さらに、全体的なマスキング閾値Thr'[b]にプレエコーの問題に対してより耐性をもたせるために、以下の追加的な修正が適用されてもよい。過渡的信号が発生するとき、いくつかのサブバンドbにおいてはあるブロックから別のブロックにかけてエネルギーの急増または急減がある可能性が高い。エネルギーのそのようなジャンプは、マスキング閾値Thr'[b]の急増につながりうる。これは量子化品質の突然の低下につながる。これは、プレエコー・アーチファクトの形でのエンコードされたオーディオ信号における可聴エラーにつながりうる。よって、マスキング閾値は、現在ブロックについてのマスキング閾値Thr[b]を前のブロックのマスキング閾値Thrlast[b]の関数として選択することによって、時間軸に沿って平滑化されてもよい。具体的には、現在ブロックについてのマスキング閾値Thr[b]は
Thr[b]=max(rpmn・Thrspr[b],min(Thr'[b],rpelev・Thrlast[b]))
として決定されてもよい。ここで、rpmn、rpelvは適切な平滑化パラメータである。過渡信号についてのマスキング閾値のこの還元はより高いSMR(Signal to Masking Ratio[信号対マスキング比])値を引き起こし、よりよい量子化に、ひいてはプレエコー・アーチファクトの形の可聴エラーの減少につながる。
マスキング閾値Thr[b]は、ブロック501のMDCT係数を量子化するための量子化および符号化ユニット303内で使われる。マスキング閾値Thr[b]より下にあるMDCT係数は相対的に低精度で量子化され、符号化される。すなわち、より少数のビットが投入される。マスキング閾値Thr[b]はまた、本稿でのちに概説するクロマグラム計算352の前の知覚的処理356のコンテキストにおいて(またはクロマグラム計算352のコンテキストにおいて)使用されることもできる。
全体として、コア・エンコーダ412は:
・(長ブロックおよび短ブロックについての)MDCT係数のシーケンスの形で時間‐周波数領域におけるオーディオ信号301の表現;および
・(長ブロックおよび短ブロックについての)周波数(サブバンド)依存のマスキング閾値Thr[b]の形での信号依存の知覚的モデル、
を提供すると要約されうる。
このデータは、オーディオ信号301のクロマグラム353の決定のために使われることができる。長ブロック(M=1024サンプル)については、ブロックのMDCT係数は典型的には、クロマ・ベクトルを決定するために十分高い周波数分解能をもつ。HE-AACエンコーダ410におけるAACコア・コーデック412はサンプリング周波数の半分で動作するので、HE-AACにおいて使われるMDCT変換領域表現は、SBRエンコードなしのAACの場合より、長ブロックについて一層よい周波数分解能をもつ。例として、サンプリング・レート44.1kHzのオーディオ信号301について、長ブロックについてのMDCT係数の周波数分解能はΔf=10.77Hz/ビンである。これは、たいていの西洋ポピュラー音楽についてクロマ・ベクトルを決定するために十分高い。換言すれば、HE-AACエンコーダのコア・エンコーダの長ブロックの周波数分解能は、クロマ・ベクトルの種々の音程クラスにスペクトル・エネルギーを信頼できる仕方で割り当てる(図1および表1参照)ために十分高い。
他方、短ブロック(M=128)については、周波数分解能はΔf=86.13Hz/ビンである。基本周波数(F0)は第六オクターブまでは86.13Hzより多く離間しないので、短ブロックによって与えられる周波数分解能は、典型的には、クロマ・ベクトルの決定のために十分ではない。それにもかかわらず、典型的には短ブロックのシーケンスに関連付けられる過渡オーディオ信号はトーン様情報(たとえば木琴または鉄琴またはテクノ音楽ジャンルからのもの)を含みうるので、短ブロックについてのクロマ・ベクトルを決定することも可能であることが望ましいことがありうる。そのようなトーン様情報は、信頼できるMIRアプリケーションのために重要でありうる。
以下では、短ブロックのシーケンスの周波数分解能を増すためのさまざまな例示的な方式が記述される。これらの例示的な方式は、もとの時間領域オーディオ信号ブロックの周波数領域への変換に比べて、低下した計算量をもつ。これは、これらの例示的な方式は、(時間領域信号からの直接決定に比べ)低下した計算量で短ブロックのシーケンスからのクロマ・ベクトルの決定を許容することを意味する。
上記で概説したように、AACエンコーダは典型的には、過渡オーディオ信号をエンコードするために単一の長ブロックの代わりに八つの短ブロックのシーケンスを選択する。よって、AACの場合N=8として、八つのMDCT係数ブロックXl[k]、l=0,…,N−1のシーケンスが与えられる。短ブロック・スペクトルの周波数分解能を増すための第一の方式は、長さMshort(=128)のN個の周波数係数ブロックX1ないしXNを連結して、周波数係数をインターリーブすることである。この短ブロック・インターリーブ方式(SIS: short-block interleaving scheme)は、周波数係数をその時間インデックスに従って配列し直して長さMlong=NMshort(=1024)の新たなブロックXSISにする。これは、
XSIS[kN+1]=Xl[k]、k∈[0,…,Mshort−1]、l∈[0,…,N−1]
に従ってなされる。周波数係数のこのインターリーブは周波数係数の数を増し、よって分解能を増す。だが、異なる時点における同じ周波数のN個の低分解能係数が同じ時点の異なる周波数のN個の高分解能係数にマッピングされるので、±N/2ビンの分散をもつ誤差が導入される。それにもかかわらず、HE-AACまたはAACの場合、この方法は、Mshort=128の長さをもつN=8個の短ブロックの係数をインターリーブすることによって、Mlong=1024個の係数をもつスペクトルを推定することを許容する。
N個の短ブロックのシーケンスの周波数分解能を増すためのさらなる方式は、適応ハイブリッド変換(AHT: adaptive hybrid transform)に基づく。AHTは、時間信号が比較的一定のままであればそのスペクトルは典型的には急速に変化しないという事実を活用する。そのようなスペクトル信号の脱相関は、低周波数の諸ビンでのコンパクトな表現につながる。信号を脱相関させるための変換は、カルーネン・レーベ変換(KLT: Karhunen-Loeve Transform)を近似するDCT-II(離散コサイン変換)であってもよい。KLTは、脱相関の意味で最適である。しかしながら、KLTは信号依存であり、よって高い複雑さなしには適用可能ではない。AHTの次の公式は、上述したSISと、対応する短ブロック周波数ビンの周波数係数を脱相関させるためのDCT-II核との組み合わせと見ることができる。
Figure 2015504539
周波数係数XAHTのブロックは、SISに比べ、低下した誤差分散とともに、増大した周波数分解能をもつ。同時に、AHT方式の計算量は、オーディオ信号サンプルの長ブロックの完全なMDCTに比べて低い。
よって、AHTは、高分解能の長ブロック・スペクトルを推定するためにフレーム(これは長ブロックと等価)のN=8個の短ブロックにわたって適用されてもよい。それにより、結果として得られるクロマグラムの品質は、短ブロック・スペクトルのシーケンスを使う代わりの、長ブロック・スペクトルの近似から裨益する。DCT-IIが非重複変換なので、一般に、AHT方式は、任意の数のブロックに適用できることを注意しておくべきである。したがって、AHT方式を短ブロックのシーケンスの部分集合に適用することが可能である。これは、AHT方式を、当該オーディオの特定の条件に適応させるために有益でありうる。例として、スペクトル類似性指標を計算し、短ブロックのシーケンスを異なる複数の部分集合にセグメント分割することによって、短ブロックのシーケンス内の複数の異なる静的エンティティを区別することができる。これらの部分集合は、次いで、それらの部分集合の周波数分解能を増すために、AHTを用いて処理されることができる。
MDCT係数ブロックXl[k]、l=0,…,N−1のシーケンスの周波数分解能を増すためのさらなる方式は、短ブロックのシーケンスの根底にあるMDCT変換および長ブロックのMDCT変換のポリフェーズ記述を使うことである。これをすることにより、MDCT係数ブロックXl[k]、l=0,…,N−1のシーケンス(すなわち、短ブロックのシーケンス)の長ブロックについてのMDCT係数ブロックへの厳密な変換を実行する変換行列Yが決定されることができる。すなわち、
Figure 2015504539
ここで、XPPCは長ブロックのMDCT係数を表わす[3,MN]行列であり、二つの先行フレームの影響Yは[MN,MN,3]変換行列であり(ここで、行列Yの第三の次元は行列Yの係数が三次多項式であるという事実を表わす。つまり、行列の要素はaz-2+bz-1+cz-0によって記述される式であり、ここで、zは1フレームの遅延を表わす)、[X0,…,XN-1]はN個の短ブロックのMDCT係数から形成される[1,MN]ベクトルである。Nは長さN×Mをもつ長ブロックを形成する短ブロックの数であり、Mは短ブロック内のサンプルの数である。
変換行列Yは、N個の短ブロックをもとの時間領域に変換するための合成行列Gおよび長ブロックの時間領域サンプルを周波数領域に変換する分解行列Hから決定される。すなわち、Y=G・Hである。変換行列YはN組の短ブロックMDCT係数から長ブロックのMDCT係数の完璧な再構成を許容する。変換行列Yが疎であることを示すことができる。これは、変換精度に著しく影響することなく、変換行列Yの行列係数のかなりの割合が0と置くことができることを意味する。これは、行列GおよびHがいずれも重み付けされたDCT-IV変換係数を有するという事実のためである。DCTは直交変換なので、結果として得られる変換行列Y=G・Hは疎な行列である。したがって、変換行列Yの係数の多くは、ほぼ0なので、計算において無視できる。典型的には、主対角線のまわりのq個の係数の帯を考えることが十分である。qは1からM×Nまで選ぶことができるので、このアプローチは、短ブロックから長ブロックへの変換の複雑さおよび精度をスケーラブルにする。変換の複雑さが、O(q・M・N・3)であることを示すことができる。これは、再帰的実装におけるO((MN)2)またはO(M・N・log(M・N))の長ブロックMDCTの複雑さと比較される。これは、ポリフェーズ変換行列Yを使う変換が、長ブロックのMDCT再計算よりも低い計算量で実装されうることを意味する。
ポリフェーズ変換に関する詳細は、参照によって組み込まれる非特許文献3に記載されている。
ポリフェーズ変換の結果として、長ブロックMDCT係数XPPCの推定が得られ、これは短ブロックMDCT係数[X0,…,XN-1]よりN倍高い周波数分解能を与える。これは、推定された長ブロックMDCT係数XPPCが典型的には、クロマ・ベクトルの決定のための十分高い周波数分解能をもつことを意味する。
図7aないし図7eは、長ブロックMDCTに基づくスペクトログラム700から見て取れる相異なる周波数成分を含むオーディオ信号の例示的なスペクトログラムを示している。図7bに示されるスペクトログラム701から見て取れるように、スペクトログラム700は、推定された長ブロックMDCT係数XPPCによってよく近似される。図示した例では、q=32である。すなわち、変換行列Yの係数の3%のみが考慮に入れられる。これは、長ブロックMDCT係数XPPCの推定が、かなり低減した計算上の複雑さで決定できることを意味する。
図7cは、推定された長ブロックMDCT係数XAHTに基づくスペクトログラム702を示している。周波数分解能が、スペクトログラム700に示される正しい長ブロックMDCT係数の周波数分解能より低いことが観察できる。同時に、推定された長ブロックMDCT係数XAHTが図7dのスペクトログラム703に示される推定された長ブロックMDCT係数XSISよりも高い周波数分解能を与えることが見て取れる。図7dのスペクトログラム703も図7eのスペクトログラム704によって示される短ブロックMDCT係数[X0,…,XN-1]より高い周波数分解能を与える。
上記で概説したさまざまな短ブロックから長ブロックへの変換方式によって与えられる異なる周波数分解能は、長ブロックMDCT係数のさまざまな推定値から決定されるクロマ・ベクトルの品質にも反映される。このことは、いくつかの試験ファイルについて平均クロマ類似性を示す図8に示されている。クロマ類似性は、たとえば、推定された長ブロックMDCT係数から得られるクロマ・ベクトルに比べた、長ブロックMDCT係数から得られたクロマ・ベクトルの平均平方偏差を示しうる。参照符号801は、クロマ類似性の基準を示す。ポリフェーズ変換に基づいて決定された推定が比較的高い類似性の度合い802を有することが見て取れる。ポリフェーズ変換はq=32、すなわち、完全な変換複雑さの3%で実行された。さらに、適応ハイブリッド変換をもって達成される類似度803、短ブロック・インターリーブ方式をもって達成される類似度804および短ブロックに基づいて達成される類似度805が示されている。
このように、SBRベースのコア・エンコーダ(たとえばAACコア・エンコーダ)によって提供されるMDCT係数に基づくクロマグラムの決定を許容する方法を記述してきた。対応する長ブロックMDCT係数を近似することによって、短ブロックMDCT係数のシーケンスの分解能がいかにして高められるかを概説してきた。長ブロックMDCT係数は、時間領域からの長ブロックMDCT係数の再計算に比較して低下した計算量で決定できる。よって、低下した計算量で、過渡オーディオ信号についてクロマ・ベクトルを決定することも可能である。
以下では、クロマグラムを知覚的に向上させる方法が記述される。特に、オーディオ・エンコーダによって提供される知覚的モデルを利用する方法が記述される。
すでに上記で概説したように、知覚的かつ不可逆なオーディオ・エンコーダにおける音響心理学的モデルの目的は、典型的には、所与のビットレートに依存して、スペクトルのある種の部分がどのくらい細かく量子化されるべきかを決定することである。換言すれば、エンコーダの音響心理学的モデルは、すべての周波数帯bについて知覚的な重要度について格付けを提供する。知覚的に重要な部分は主としてハーモニックな内容を有しているとの前提のもとに、マスキング閾値の適用は、クロマグラムの品質を高めるはずである。オーディオ信号のノイズ様の部分は無視されるか少なくとも減衰されるので、ポリフォニー信号についてのクロマグラムは特に裨益するはずである。
フレームごとの(すなわちブロックごとの)マスキング閾値Thr[b]がいかにして周波数帯bについて決定されうるかはすでに概説した。エンコーダは、すべての周波数係数X[k]についてのマスキング閾値Thr[b]を、周波数インデックスkを有する周波数帯b(これはHE-AACの場合、スケール因子帯とも称される)におけるオーディオ信号のエネルギーXen[b]と比較することによって、このマスキング閾値を使う。エネルギー値Xen[b]がマスキング値を下回るときは常に、X[k]は無視される。すなわち、X[k]=0 ∀Xen[b]<Thr[b]。典型的には、周波数係数(すなわちエネルギー値)X[k]の対応する周波数帯bのマスキング閾値Thr[b]との係数ごとの比較は、本稿に記載される方法に基づいて決定されるクロマグラムに基づく和音認識アプリケーション内の帯域ごとの比較に対して、軽微な品質上の恩恵しか提供しない。他方、係数ごとの比較は増大した計算量につながる。よって、周波数帯b当たりの平均エネルギー値Xen[b]を使うブロックごとの比較が好ましいことがありうる。
典型的には、ハーモニック寄与者(harmonic contributor)を有する周波数帯bのエネルギー(スケール因子帯エネルギーとも称される)は、知覚的なマスキング閾値Thr[b]より高いべきである。他方、主としてノイズを有する周波数帯bのエネルギーはマスキング閾値Thr[b]より小さいべきである。よって、エンコーダは、周波数係数X[k]の知覚的に動機付けられた、ノイズ低減されたバージョンを提供し、これは所与のフレームについてのクロマ・ベクトル(そしてフレームのシーケンスについてのクロマグラム)を決定するために使用できる。
あるいはまた、修正されたマスキング閾値がオーディオ・エンコーダにおいて利用可能なデータから決定されてもよい。ある特定のブロック(またはフレーム)についてスケール因子帯エネルギー分布Xen[b]を与えられるとき、すべてのスケール因子帯bについて一定のSMR(信号対マスク比)を使って修正されたマスキング閾値ThrconstSMR、すなわちThrconstSMR[b]=Xen[b]−SMRが決定されてもよい。この修正されたマスキング閾値は、減算しか必要としないので、低い計算コストで計算できる。さらに、修正されたマスキング閾値はスペクトルのエネルギーに厳密に従い、よって、無視されるスペクトル・データの量が、エンコーダのSMR値を調整することによって簡単に調整できる。
トーンのSMRがトーン振幅およびトーン周波数に依存しうることを注意しておくべきである。よって、上述した一定のSMRの代わりに、スケール因子帯エネルギーXen[b]および/または帯域インデックスbに基づいてSMRが調整/修正されてもよい。
さらに、ある特定のブロック(フレーム)についてスケール因子帯域エネルギー分布Xen[b]がオーディオ・エンコーダから直接受領されることができることを注意しておくべきである。オーディオ・エンコーダは典型的には、(音響心理学的)量子化のコンテキストにおいてこのスケール因子帯域エネルギー分布Xen[b]を決定する。フレームのクロマ・ベクトルを決定する方法は、上述したマスキング閾値を決定するために、(エネルギー値を計算するのではなく)オーディオ・エンコーダから計算済みのスケール因子帯域エネルギー分布Xen[b]を受領し、それによりクロマ・ベクトル決定の計算量を軽減してもよい。
修正されたマスキング閾値は、X[k]=0 ∀X[k]<Thr[b]と置くことによって適用されてもよい。スケール因子帯b当たり一つのハーモニック寄与者しかないと想定されるならば、この帯域b内のエネルギーXen[b]とエネルギー・スペクトルの係数X[k]は同様の値をもつはずである。したがって、一定のSMR値によるXen[b]の低減は、修正されたマスキング閾値を与えるはずで、それはスペクトルのハーモニック部分のみを捕捉する。スペクトルの非ハーモニック部分は0と置かれるべきである。フレームのクロマ・ベクトル(およびフレームのシーケンスのクロマグラム)は、修正された(すなわち知覚的に処理された)周波数係数から決定されうる。
図9は、オーディオ信号のブロックのシーケンスからクロマ・ベクトルのシーケンスを決定する例示的な方法900のフローチャートを示している。ステップ901では、周波数係数(たとえばMDCT係数)のブロックが受領される。この周波数係数のブロックは、オーディオ信号のサンプルの対応するブロックからこの周波数係数のブロックを導出したオーディオ・エンコーダから受領される。特に、周波数係数のブロックは、オーディオ信号の(ダウンサンプリングされた)低周波数成分からSBRベースのオーディオ・エンコーダによって導出されたものであってもよい。周波数係数のブロックが短ブロックのシーケンスに対応する場合、方法900は、本稿で概説される短ブロックから長ブロックへの変換方式(たとえば、SIS、AHTまたはPPC方式)を実行する(段階902)。結果として、周波数係数の長ブロックについての推定値が得られる。任意的に、方法900は、上記で概説したように、(推定された)周波数係数のブロックを、音響心理学的な周波数依存の閾値に提出してもよい(段階903)。その後、結果として得られる周波数係数の長ブロックからクロマ・ベクトルが決定される(段階904)。この方法がブロックのシーケンスについて繰り返されれば、オーディオ信号のクロマグラムが得られる(段階905)。
本稿では、低下した計算量でクロマ・ベクトルおよび/またはクロマグラムを決定するためのさまざまな方法およびシステムが記述される。特に、オーディオ・コーデック(HE-AACコーデックなど)によって与えられるオーディオ信号の時間‐周波数表現を利用することが提案される。(望ましくまたは望ましくなくエンコーダが短ブロックに切り替わったオーディオ信号の過渡部分についても)連続的なクロマグラムを提供するために、短ブロック時間‐周波数表現の周波数分解能を増大させる方法が記述される。さらに、クロマグラムの知覚的顕著性を改善するために、オーディオ・コーデックによって提供される音響心理学的モデルを利用することが提案される。
本記載および図面は単に提案される方法およびシステムの原理を例解するものであることを注意しておくべきである。よって、当業者は、本稿で明示的に記載されたり示されたりしていなくても、本発明の原理を具現し、その精神および範囲内に含まれるさまざまな構成を考案できるであろうことは理解されるであろう。さらに、本稿に記載したあらゆる例は、主として、読者が提案される方法およびシステムの原理および当該技術の進歩への発明者によって貢献される概念を理解するのを助ける教育目的のために明確に意図されたものであり、そのような特定的に記載された例および条件への限定なしに解釈されるものである。さらに、本発明の原理、側面および実施形態ならびにその具体例を記載する本稿のあらゆる陳述は、その等価物をも包含することが意図されている。
本稿において記述された方法およびシステムは、ソフトウェア、ファームウェアおよび/またはハードウェアによって実装されてもよい。ある種のコンポーネントは、たとえばデジタル信号プロセッサまたはマイクロプロセッサ上で走るソフトウェアとして実装されてもよい。他のコンポーネントはたとえば、ハードウェアおよびまたは特定用途向け集積回路として実装されてもよい。記載される方法およびシステムにおいて遭遇される信号は、ランダム・アクセス・メモリまたは光記憶媒体のような媒体上に記憶されていてもよい。該信号は、電波ネットワーク、衛星ネットワーク、無線ネットワークまたは有線ネットワーク、たとえばインターネットのようなネットワークを介して転送されてもよい。本稿に記載される方法およびシステムを利用する典型的な装置は、ポータブル電子装置またはオーディオ信号を記憶および/または再生するために使われる他の消費者設備である。

Claims (35)

  1. オーディオ信号のサンプルのブロックについてクロマ・ベクトルを決定する方法であって:
    ・スペクトル帯域複製ベースのオーディオ・エンコーダ(410)のコア・エンコーダ(412)から、前記オーディオ信号のサンプルのブロックから導出された周波数係数の対応するブロックを受領する段階であって、前記オーディオ・エンコーダは、周波数係数の前記ブロックから前記オーディオ信号のエンコードされたビットストリーム(305)を生成するよう適応されている、段階と;
    ・周波数係数の受領されたブロックに基づいて前記オーディオ信号のサンプルのブロックについてのクロマ・ベクトルを決定する段階とを含む、
    方法。
  2. 前記スペクトル帯域複製ベースのオーディオ・エンコーダが:高効率先進オーディオ符号化、mp3PROおよびMPEG-D USACのいずれか一つを適用する、請求項1記載の方法。
  3. 周波数係数の前記ブロックが:
    ・MDCTと称される修正離散コサイン変換の係数のブロック;
    ・MDSTと称される修正離散サイン変換の係数のブロック;
    ・DFTと称される離散フーリエ変換の係数のブロック;および
    ・MCLTと称される修正複素重複変換の係数のブロック、
    のうちいずれか一つである、請求項1または2記載の方法。
  4. ・前記サンプルの各ブロックが、それぞれM個のサンプルからなるN個の相続く短ブロックを含んでおり;
    ・前記周波数係数の各ブロックが、それぞれM個の周波数係数からなるN個の対応する短ブロックを含んでいる、
    請求項1ないし3のうちいずれか一項記載の方法。
  5. ・M個の周波数係数の前記N個の短ブロックからの前記サンプルのブロックに対応する周波数係数の長ブロックを推定する段階であって、周波数係数の推定される長ブロックが周波数係数の前記N個の短ブロックに比べ増大した周波数分解能をもつ、段階と;
    ・前記オーディオ信号の前記サンプルのブロックについての前記クロマ・ベクトルを、周波数係数の推定された長ブロックに基づいて決定する段階とをさらに含む、
    請求項4記載の方法。
  6. 周波数係数の長ブロックを推定する前記段階は、周波数係数の前記N個の短ブロックの対応する周波数係数をインターリーブし、それにより周波数係数のインターリーブされた長ブロックを与えることを含む、請求項5記載の方法。
  7. 周波数係数の長ブロックを推定する前記段階は、エネルギー圧縮属性をもつ変換、たとえばDCT-II変換を周波数係数のインターリーブされた長ブロックに適用することによって、周波数係数の前記N個の短ブロックのN個の対応する周波数係数を脱相関することを含む、請求項6記載の方法。
  8. 周波数係数の長ブロックを推定する前記段階は:
    ・周波数係数の前記N個の短ブロックの複数の部分集合を形成する段階であって、部分集合当たりの短ブロックの数Lは前記オーディオ信号に基づいて選択される、段階と;
    ・各部分集合について、周波数係数の前記短ブロックの対応する周波数係数をインターリーブし、それによりその部分集合の周波数係数のインターリーブされた中間ブロックを与える段階と;
    ・各部分集合について、エネルギー圧縮属性をもつ変換、たとえばDCT-II変換を、その部分集合の周波数係数の前記インターリーブされた中間ブロックに適用し、それにより前記複数の部分集合についての周波数係数の複数の推定された中間ブロックを与える段階とを含む、
    請求項5記載の方法。
  9. 周波数係数の長ブロックを推定する前記段階は、M個の周波数係数のN個の短ブロックにポリフェーズ変換を適用することを含む、請求項5記載の方法。
  10. ・前記ポリフェーズ変換は、M個の周波数係数の前記N個の短ブロックをN×M個の周波数係数の正確な長ブロックに数学的に変換するための変換行列に基づき;
    ・前記ポリフェーズ変換は、変換行列係数のある割合を0と置いた前記変換行列の近似を利用する、
    請求項9記載の方法。
  11. 前記変換行列係数の90%以上の割合が0と置かれる、請求項10記載の方法。
  12. 周波数係数の長ブロックを推定する前記段階は:
    ・周波数係数の前記N個の短ブロックの複数の部分集合を形成する段階であって、部分集合当たりの短ブロックの数Lは前記オーディオ信号に基づいて選択され、L<Nである、段階と;
    ・前記複数の部分集合に中間ポリフェーズ変換を適用して、周波数係数の複数の推定された中間ブロックを与える段階とを含み、
    前記中間ポリフェーズ変換は、M個の周波数係数のL個の短ブロックをL×M個の周波数係数の正確な中間ブロックに数学的に変換するための中間変換行列に基づき;
    前記中間ポリフェーズ変換は、中間変換行列係数のある割合を0と置いた前記中間変換行列の近似を利用する、
    請求項5記載の方法。
  13. 前記割合が可変であり、それにより周波数係数の推定されるブロックの品質を変える、請求項10ないし12のうちいずれか一項記載の方法。
  14. M=128かつN=8である、請求項4ないし13のうちいずれか一項記載の方法。
  15. 請求項5ないし14のうちいずれか一項記載の方法であって、さらに:
    ・サンプルの複数のブロックに対応する周波数係数の超長ブロックを、周波数係数の対応する複数の長ブロックから推定する段階をさらに含み、周波数係数の推定される超長ブロックは、周波数係数の前記複数の長ブロックに比べ増大した周波数分解能をもつ、方法。
  16. 前記クロマ・ベクトルを決定する段階が、周波数係数の受領されたブロックから導出される周波数係数の第二のブロックに対して周波数依存の音響心理学的処理を適用する段階を含む、請求項1ないし15のうちいずれか一項記載の方法。
  17. 周波数係数の前記第二のブロックが、周波数係数の前記推定された長ブロックである、請求項5ないし7および9ないし11のうちいずれか一項を引用する場合の請求項16記載の方法。
  18. 周波数係数の前記第二のブロックが、周波数係数の前記受領されたブロックである、請求項1ないし4のうちいずれか一項を引用する場合の請求項16記載の方法。
  19. 周波数係数の前記第二のブロックが、周波数係数の前記複数の推定された中間ブロックの一つである、請求項8または12を引用する場合の請求項16記載の方法。
  20. 周波数係数の前記第二のブロックが、周波数係数の前記推定された超長ブロックである、請求項15を引用する場合の請求項16記載の方法。
  21. 周波数依存の音響心理学的処理を適用する前記段階が:
    ・周波数係数の前記第二のブロックの少なくとも一つの周波数係数から導出された値を、周波数依存のエネルギー閾値と比較する段階と;
    ・前記周波数係数が前記エネルギー閾値より小さければ、前記周波数係数を0と置く段階とを含む、
    請求項16ないし20のうちいずれか一項記載の方法。
  22. 前記少なくとも一つの周波数係数から導出された前記値が、対応する複数の周波数についての複数の周波数係数から導出される平均エネルギーに対応する、請求項21記載の方法。
  23. 前記エネルギー閾値は、前記コア・エンコーダによって適用される音響心理学的モデルから導出される、請求項21または22記載の方法。
  24. 前記エネルギー閾値は、周波数係数のブロックを量子化するために前記コア・エンコーダによって使用される周波数依存のマスキング閾値から導出される、請求項23記載の方法。
  25. 前記クロマ・ベクトルを決定する段階が:
    ・前記第二のブロックの周波数係数の一部または全部を前記クロマ・ベクトルの諸音程クラスに分類する段階と;
    ・前記クロマ・ベクトルの諸音程クラスについての累積されたエネルギーを、分類された周波数係数に基づいて決定する段階とを含む、
    請求項16ないし24のうちいずれか一項記載の方法。
  26. 前記周波数係数は、前記クロマ・ベクトルの諸音程クラスに関連付けられた諸帯域通過フィルタを使って分類される、請求項25記載の方法。
  27. ・前記オーディオ信号のサンプルのブロックのシーケンスからクロマ・ベクトルのシーケンスを決定し、それにより前記オーディオ信号のクロマグラムを与える段階をさらに含む、請求項1ないし26のうちいずれか一項記載の方法。
  28. オーディオ信号をエンコードするよう適応されたオーディオ・エンコーダであって:
    ・前記オーディオ信号のダウンサンプリングされた低周波数成分をエンコードするよう適応されたコア・エンコーダであって、前記コア・エンコーダは、サンプルのブロックを周波数領域に変換してそれにより周波数係数の対応するブロックを与えることによって、低周波数成分のサンプルのブロックをエンコードするよう適応されている、コア・エンコーダと;
    ・周波数係数のブロックに基づいて前記オーディオ信号の低周波数成分のサンプルのブロックのクロマ・ベクトルを決定するよう適応されたクロマ決定ユニットとを有する、
    エンコーダ。
  29. 前記オーディオ信号の対応する高周波数成分をエンコードするよう適応されたスペクトル帯域複製エンコーダをさらに有する、請求項28記載のエンコーダ。
  30. ・前記コア・エンコーダおよび前記スペクトル帯域複製エンコーダによって与えられるデータから、エンコードされたビットストリームを生成するよう適応されたマルチプレクサをさらに有しており、前記マルチプレクサは、前記クロマ・ベクトルから導出された情報を、メタデータとして、エンコードされたビットストリームに加えるよう適応されている、請求項29記載のエンコーダ。
  31. 前記エンコードされたビットストリームは、MP4フォーマット、3GPフォーマット、3G2フォーマット、LATMフォーマットのうちのいずれか一つでエンコードされる、請求項30記載のエンコーダ。
  32. オーディオ信号をデコードするよう適応されたオーディオ・デコーダであって:
    ・エンコードされたビットストリームを受領するよう適応されており、前記エンコードされたビットストリームから周波数係数のブロックを抽出するよう適応されている多重分離およびデコード・ユニットであって、周波数係数の前記ブロックは、前記オーディオ信号のダウンサンプリングされた低周波数成分のサンプルの対応するブロックと関連付けられている、多重分離およびデコード・ユニットと;
    ・周波数係数の前記ブロックに基づいて前記オーディオ信号のサンプルの前記ブロックのクロマ・ベクトルを決定するよう適応されたクロマ決定ユニットとを有する、
    デコーダ。
  33. プロセッサ上で実行され、該プロセッサ装置上で実行されたときに請求項1ないし27のうちいずれか一項記載の方法を実行するよう適応されたソフトウェア・プログラム。
  34. プロセッサ上で実行され、コンピューティング装置上で実行されたときに請求項1ないし27のうちいずれか一項記載の方法を実行するよう適応されたソフトウェア・プログラムを有する記憶媒体。
  35. コンピュータ上で実行されたときに請求項1ないし27のうちいずれか一項記載の方法を実行するための実行可能命令を有するコンピュータ・プログラム・プロダクト。
JP2014543874A 2011-11-30 2012-11-28 オーディオ・コーデックからの向上したクロマ抽出のための方法、エンコーダ、デコーダ、ソフトウェア・プログラム、記憶媒体 Expired - Fee Related JP6069341B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161565037P 2011-11-30 2011-11-30
US61/565,037 2011-11-30
PCT/EP2012/073825 WO2013079524A2 (en) 2011-11-30 2012-11-28 Enhanced chroma extraction from an audio codec

Publications (2)

Publication Number Publication Date
JP2015504539A true JP2015504539A (ja) 2015-02-12
JP6069341B2 JP6069341B2 (ja) 2017-02-01

Family

ID=47720463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014543874A Expired - Fee Related JP6069341B2 (ja) 2011-11-30 2012-11-28 オーディオ・コーデックからの向上したクロマ抽出のための方法、エンコーダ、デコーダ、ソフトウェア・プログラム、記憶媒体

Country Status (5)

Country Link
US (1) US9697840B2 (ja)
EP (1) EP2786377B1 (ja)
JP (1) JP6069341B2 (ja)
CN (1) CN103959375B (ja)
WO (1) WO2013079524A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180026533A (ko) * 2015-07-06 2018-03-12 자일링크스 인코포레이티드 가변 대역폭 필터링

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10225328B2 (en) 2013-03-14 2019-03-05 Aperture Investments, Llc Music selection and organization using audio fingerprints
US11271993B2 (en) 2013-03-14 2022-03-08 Aperture Investments, Llc Streaming music categorization using rhythm, texture and pitch
US10061476B2 (en) 2013-03-14 2018-08-28 Aperture Investments, Llc Systems and methods for identifying, searching, organizing, selecting and distributing content based on mood
US10242097B2 (en) * 2013-03-14 2019-03-26 Aperture Investments, Llc Music selection and organization using rhythm, texture and pitch
US10623480B2 (en) 2013-03-14 2020-04-14 Aperture Investments, Llc Music categorization using rhythm, texture and pitch
EP2830058A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Frequency-domain audio coding supporting transform length switching
EP2830061A1 (en) * 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
JP6220701B2 (ja) * 2014-02-27 2017-10-25 日本電信電話株式会社 サンプル列生成方法、符号化方法、復号方法、これらの装置及びプログラム
WO2015136159A1 (en) * 2014-03-14 2015-09-17 Berggram Development Oy Method for offsetting pitch data in an audio file
US20220147562A1 (en) 2014-03-27 2022-05-12 Aperture Investments, Llc Music streaming, playlist creation and streaming architecture
TW202242853A (zh) 2015-03-13 2022-11-01 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
US10157372B2 (en) * 2015-06-26 2018-12-18 Amazon Technologies, Inc. Detection and interpretation of visual indicators
US9944127B2 (en) * 2016-08-12 2018-04-17 2236008 Ontario Inc. System and method for synthesizing an engine sound
KR20180088184A (ko) * 2017-01-26 2018-08-03 삼성전자주식회사 전자 장치 및 그 제어 방법
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
EP3382700A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
IT201800005091A1 (it) * 2018-05-04 2019-11-04 "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico"
JP7230464B2 (ja) * 2018-11-29 2023-03-01 ヤマハ株式会社 音響解析方法、音響解析装置、プログラムおよび機械学習方法
WO2020178321A1 (en) * 2019-03-06 2020-09-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Downmixer and method of downmixing
CN111863030A (zh) * 2020-07-30 2020-10-30 广州酷狗计算机科技有限公司 音频检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154698A (ja) * 1999-11-29 2001-06-08 Victor Co Of Japan Ltd オーディオ符号化装置及びその方法
JP2006018023A (ja) * 2004-07-01 2006-01-19 Fujitsu Ltd オーディオ信号符号化装置、および符号化プログラム
US20090107321A1 (en) * 2006-04-14 2009-04-30 Koninklijke Philips Electronics N.V. Selection of tonal components in an audio spectrum for harmonic and key analysis
WO2011051279A1 (en) * 2009-10-30 2011-05-05 Dolby International Ab Complexity scalable perceptual tempo estimation
WO2011071610A1 (en) * 2009-12-07 2011-06-16 Dolby Laboratories Licensing Corporation Decoding of multichannel aufio encoded bit streams using adaptive hybrid transformation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6930235B2 (en) * 2001-03-15 2005-08-16 Ms Squared System and method for relating electromagnetic waves to sound waves
US7627481B1 (en) 2005-04-19 2009-12-01 Apple Inc. Adapting masking thresholds for encoding a low frequency transient signal in audio data
KR100715949B1 (ko) 2005-11-11 2007-05-08 삼성전자주식회사 고속 음악 무드 분류 방법 및 그 장치
US9123350B2 (en) 2005-12-14 2015-09-01 Panasonic Intellectual Property Management Co., Ltd. Method and system for extracting audio features from an encoded bitstream for audio classification
EP2406787B1 (en) * 2009-03-11 2014-05-14 Google, Inc. Audio classification for information retrieval using sparse features
ES2400661T3 (es) * 2009-06-29 2013-04-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificación y decodificación de extensión de ancho de banda

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154698A (ja) * 1999-11-29 2001-06-08 Victor Co Of Japan Ltd オーディオ符号化装置及びその方法
JP2006018023A (ja) * 2004-07-01 2006-01-19 Fujitsu Ltd オーディオ信号符号化装置、および符号化プログラム
US20090107321A1 (en) * 2006-04-14 2009-04-30 Koninklijke Philips Electronics N.V. Selection of tonal components in an audio spectrum for harmonic and key analysis
WO2011051279A1 (en) * 2009-10-30 2011-05-05 Dolby International Ab Complexity scalable perceptual tempo estimation
WO2011071610A1 (en) * 2009-12-07 2011-06-16 Dolby Laboratories Licensing Corporation Decoding of multichannel aufio encoded bit streams using adaptive hybrid transformation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6015032819; Emmanuel Ravelli etc.: 'Audio Signal Representations for Indexing in the T' IEEE TRANSACTIONS ON AUDIO,SPEECH,AND LANGUAGE PRO 18, 201003, 434-446, IEEE *
JPN6015032821; Gerald Schuller etc.: 'Fast Audio Feature Extraction From Compressed Audi' IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSI Vol.5, 201110, 1262-1271, IEEE *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180026533A (ko) * 2015-07-06 2018-03-12 자일링크스 인코포레이티드 가변 대역폭 필터링
KR102644069B1 (ko) 2015-07-06 2024-03-05 자일링크스 인코포레이티드 가변 대역폭 필터링

Also Published As

Publication number Publication date
CN103959375B (zh) 2016-11-09
US20140310011A1 (en) 2014-10-16
JP6069341B2 (ja) 2017-02-01
WO2013079524A2 (en) 2013-06-06
US9697840B2 (en) 2017-07-04
WO2013079524A3 (en) 2013-07-25
EP2786377B1 (en) 2016-03-02
EP2786377A2 (en) 2014-10-08
CN103959375A (zh) 2014-07-30

Similar Documents

Publication Publication Date Title
JP6069341B2 (ja) オーディオ・コーデックからの向上したクロマ抽出のための方法、エンコーダ、デコーダ、ソフトウェア・プログラム、記憶媒体
KR101370515B1 (ko) 복합 확장 인지 템포 추정 시스템 및 추정방법
JP6262668B2 (ja) 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法
JP4950210B2 (ja) オーディオ圧縮
US8793123B2 (en) Apparatus and method for converting an audio signal into a parameterized representation using band pass filters, apparatus and method for modifying a parameterized representation using band pass filter, apparatus and method for synthesizing a parameterized of an audio signal using band pass filters
JP5642882B2 (ja) 時間展開情報をもつ基底関数を使用する音楽信号の分解
JP6185457B2 (ja) 効率的なコンテンツ分類及びラウドネス推定
TWI492224B (zh) 用以對音訊信號進行編碼之編碼器、設備、電腦程式產品及方法
GB2403881A (en) Automatic classification/identification of similarly compressed audio files
Ravelli et al. Audio signal representations for indexing in the transform domain
EP1441330B1 (en) Method of encoding and/or decoding digital audio using time-frequency correlation and apparatus performing the method
Khaldi et al. HHT-based audio coding
RU2409874C2 (ru) Сжатие звуковых сигналов
US10950251B2 (en) Coding of harmonic signals in transform-based audio codecs
Zhang et al. MDCT spectrum separation: Catching the fine spectral structures for stereo coding
WO2011114192A1 (en) Method and apparatus for audio coding
Zhou et al. A robust audio fingerprinting algorithm in MP3 compressed domain
Sato et al. Range-constrained phase reconstruction for recovering time-domain signal from quantized amplitude and phase spectrogram
Santoro et al. Multiple F0 Estimation in the Transform Domain.
Fink et al. Enhanced Chroma Feature Extraction from HE-AAC Encoder
Yu et al. Comparison of two different approaches to detect perceptual noise for MPEG-4 AAC
Disse el Est Spec dio C

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R150 Certificate of patent or registration of utility model

Ref document number: 6069341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees