JP7125447B2 - 方法、コンピュータプログラム、エンコーダ、及びモニタリングデバイス - Google Patents

方法、コンピュータプログラム、エンコーダ、及びモニタリングデバイス Download PDF

Info

Publication number
JP7125447B2
JP7125447B2 JP2020095195A JP2020095195A JP7125447B2 JP 7125447 B2 JP7125447 B2 JP 7125447B2 JP 2020095195 A JP2020095195 A JP 2020095195A JP 2020095195 A JP2020095195 A JP 2020095195A JP 7125447 B2 JP7125447 B2 JP 7125447B2
Authority
JP
Japan
Prior art keywords
frequency
audio
audio frame
frequency sub
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020095195A
Other languages
English (en)
Other versions
JP2021006898A (ja
Inventor
メルサド イエラチッチ,
マルクス テデンバル,
マルクス ゲラルト,
ファン, シン ダニエルソン
リカール ワンデルレフ,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2021006898A publication Critical patent/JP2021006898A/ja
Application granted granted Critical
Publication of JP7125447B2 publication Critical patent/JP7125447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/752Media network packet handling adapting media to network capabilities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、一般的に、オーディオ信号のエンコーディングに関し、より具体的には、可変ビットレートでのオーディオ信号のエンコーディングに関する。
オーディオコーデックは、オーディオデータをデジタル的にエンコードし、結果として得られるビットストリームを圧縮し得、それが効率よく保存される、又は、送信されるようにし得る。保存又は送信後、同オーディオコーデックは、デコーディングに使用され得、オーディオが再現され得るようにする。いくつかのオーディオコーデックは、例えば、256Kbpsの一定のビットレート(constant bitrate又はCBR)を使用して、オーディオデータを圧縮する。他のオーディオコーデックは、可変ビットレート(variable bitrate又はVBR)を使用しての、オーディオデータの圧縮をサポートする。VBRエンコーディングでは、エンコードされるオーディオデータのビットレートは、動的に変化し得る。例えば、ビットレートは、オーディオデータが、個別の周波数をどれだけ含むかに依存して変わり得、いくらかの個別の周波数は、複雑な信号に対するものよりも少ないビットを必要とする。ビットレートは、したがって、時間と共に、例えば、65Kbps及び320Kbpsの間を変化し得る。VBRエンコーディングの利点は、CBRエンコーディングよりも少ないデータを通常生成することである。したがって、保存されるオーディオデータに対する保存スペース要件が減らされてよい。同様に、転送されるオーディオデータに対する帯域幅要件が減らされてよい。
しかし、出力データのサイズをさらに減らすオーディオエンコーディングの分野において、改善の余地がある。
本発明の目的は、オーディオデータの、改善されたエンコーディングを提供することである。本発明のさらなる目的は、転送されるオーディオデータに対する帯域幅要件を減らすこと、及び/又は、保存されるオーディオデータに対する保存スペース要件を減らすことである。
本発明のこれら及び他の目的は、独立請求項において画定されるように、本発明により少なくとも部分的に満たされる。好ましい実施形態が、従属請求項に提示される。
本発明の第1の態様によると、可変ビットレートを用いてオーディオ信号をエンコーディングする方法が提供される。この方法は、
エンコードされるオーディオ信号であって、複数の連続するオーディオフレームを含むオーディオ信号を受信することと、
オーディオ信号の連続するオーディオフレームのそれぞれに対して、
オーディオフレームを、複数の周波数サブバンドに関する周波数ドメインにて表すことと、
オーディオフレームを、周波数サブバンドのそれぞれにて、周波数サブバンドに特有の背景モデルを使用して、背景又は前景のいずれかとして分類することと、
オーディオ信号の連続するオーディオフレームのそれぞれをエンコーディングすることと、を含み、オーディオフレームの周波数サブバンドのそれぞれに対してビット数が割り当てられ、周波数サブバンドに対して割り当てられたビット数は、オーディオフレームが、周波数サブバンドにて前景として分類された場合の方が、オーディオフレームが、周波数サブバンドにて背景として分類された場合よりも多い。
オーディオ信号は、いずれのタイプのオーディオ信号であってよく、それは、例えば、監視カメラなどのモニタリングデバイス又はマイクロフォンにより記録されたオーディオ信号であってよいことが理解されるべきである。オーディオ信号の連続するオーディオフレームのそれぞれは、例えば、20ms、60ms、又は150msの持続時間を有してよい。オーディオフレームは、圧縮されなくとも、圧縮されてもよい。
オーディオフレームは、例えば、フーリエ変換(Fourier transform)を行うことにより、周波数ドメインにて表されてよいことも理解されるべきである。これは、例えば、高速フーリエ変換(fast Fourier transform又はFFT)又は変形離散コサイン変換(modified discrete cosine transform又はMDCT)を使用して行われてよい。周波数ドメインでは、オーディオフレームの特定の周波数サブバンドが、音などを表してよい。これは、オーディオフレームにおいて、その特定の周波数サブバンド内にて、多数の周波数成分として生じる。周波数成分の大きさは、オーディオフレームにおけるその周波数成分の音量を表してよい。複数の周波数サブバンドは、例えば、2、3、5、8、16などの周波数サブバンドを含んでよい。周波数サブバンドの境界の間隔は、等距離であってもよいし、そうでなくともよい。周波数サブバンドは、対数的に間隔があけられてよく、ここでは、サブバンドのそれぞれは、前のものより2倍広い。一例では、8つの周波数サブバンドがある。これらは、対数的に間隔があけられている。ここでは、最も低い周波数レンジを有する周波数サブバンドは、20から40Hzをカバーし得る。別の例では、最も低い周波数レンジは、0Hzにて始まる。
背景モデルは、オーディオフレームの周波数サブバンドを、オーディオフレームの周波数サブバンドが含む、音の重要度にしたがって分類するよう構成されてよいことも理解されるべきである。重要な音は、ここでは、前景として分類されてよい。一方、重要でない音は、背景として分類される。例えば、オーディオフレームの周波数サブバンドが、重要な音を含む場合、オーディオフレームの周波数サブバンドは、前景として分類されてよい。別の例では、オーディオフレームの周波数サブバンドは、それが重要でない音を主に含む場合、背景として分類される。音の重要度は、この特定の音が、前のオーディオフレームにおける周波数サブバンドにどれほどの頻度にて含まれているか、に基づいて判定されてよい。
背景モデルは、オーディオフレームの周波数サブバンドを、オーディオフレームの周波数サブバンドが含む音に対する期待値にしたがって分類するよう構成されてよいことも理解されるべきである。予期しない音は、ここでは、前景として分類されてよい。一方、予期した音は、背景として分類される。例えば、オーディオフレームの周波数サブバンドが、予期した音、若しくは、一般的な音を含む、又は、音をまったく含まない場合、オーディオフレームの周波数サブバンドは、背景として分類されてよい。別の例では、オーディオフレームの周波数サブバンドは、周波数サブバンドの内容が、背景分類のための要件に合わない場合に、前景として分類される。
オーディオフレームの周波数サブバンドを前景又は背景として分類するための背景モデル条件は、背景モデルが、周波数サブバンドに特有であることにより、1つの周波数サブバンドから別の周波数サブバンドに変化し得ることも理解されるべきである。例えば、モニタリングデバイスは、第1の機械が稼働中であり得る、又は、第1及び第2の機械が稼働中であり得る、のいずれかであるワークショップを監視してよい。特定の周波数サブバンド内では、第1のレベルにある音量は、第1の機械が稼働中であることを表してよく、第2のレベルにある音量は、第1及び第2の機械が稼働中であることを表してよい。したがって、その周波数サブバンドにおけるオーディオフレームが、低レベル、第1のレベル、又は第2のレベルにある音量を表す場合、オーディオフレームの周波数サブバンドは、背景として分類されてよい。これは、重要でない音、又は、予期した音をなしてよい。しかし、その周波数サブバンドにおけるオーディオフレームが、これらのレベルの間の音量、又は、これらのレベルを超える音量を表す場合、これは、前景として分類されてよい。これは、例えば、オーディオフレームにおける、1つ又はそれ以上のサブバンドにおける異なる音量をもたらす、稼働中である第1の機械の音の上に重ね合わせられた話し声、又は、稼働中に障害が発生している機械の音などの、重要な音又は予期しない音をなしてよい。異なる周波数サブバンドでは、音量レベルのそれぞれは異なるように選ばれ、何が、その周波数サブバンド内の前景音及び背景音をなすべきかを反映してよい。背景モデルは、音量レベルとは別の他の特徴に関して、周波数サブバンドに特有であってもよい。例えば、オーディオフレームの周波数サブバンドの周波数成分の相対的な大きさが、重要でない音又は予期した音のスペクトルに対応する場合、これは、背景分類となってよい。別の例では、1つ又はいくらかの主な周波数成分の、特定の周波数サブバンド内での出現は、オーディオフレームにおけるその周波数サブバンドの前景分類をトリガしてよい。例えば、サイレンは通常、3つの隣り合う全音から構成される三全音を使用する。3つの対応する周波数成分の出現は、したがって、サイレンが鳴り、前景分類をトリガすることを示す、スペクトルの明確な特徴とみなされてよい。
本発明が実現するものは、オーディオフレームの周波数サブバンドのそれぞれに対して、ビット数を割り当てることにより、オーディオ信号の効率的なエンコーディングが促進され、重要な事象又は予期しない事象が発生していない周波数サブバンドに、少ないビットが与えられ/割り当てられ、これにより高レベルに圧縮され得るようにすることである。異なる周波数サブバンドに対してビット数を個々に設定できる場合、オーディオフレーム全体に割り当てられる合計ビット数は少なくなり得る。一方、合計ビット数がフレーム毎に、異なる周波数サブバンドの間を区別することなく判定される場合、多くの合計ビット数が必要となり得る。
本発明がさらに実現するものは、各周波数サブバンドのそれぞれに対して特定の背景モデルを使用して、それらの各分類を判定し、ビット割り当て条件が、周波数サブバンドのそれぞれに対してカスタマイズされ得るにしたがって、オーディオ信号の効率的なエンコーディングをさらに促進することである。
この方法の利点は、したがって、それが、転送されるオーディオデータに対する、帯域幅要件の削減を促進すること、及び/又は、保存されるオーディオデータに対する、保存スペース要件の削減を促進することである。
別の利点は、デコードされるオーディオ信号の、認識される品質が高いことである。この方法は、内容に基づく圧縮を提供してよい。ここでは、重要な性質又は予期しない性質のものであり得る前景音は、重要でない性質又は予期した性質のものであり得る背景音よりも大きく圧縮され得ない。この方法は、したがって、所与の帯域幅又は保存スペースリソースを、オーディオ信号の、高品質が最も重要とされる各部に集中し得る。これにより、オーディオ信号がデコードされると、その高く認識された品質が提供される。
エンコーディングすることのステップは、ビットを、オーディオ信号の周波数スパンに割り当ててよく、ここでは、周波数スパンは、分類することのステップの周波数サブバンドと同じ、又は、それとは異なる、のいずれかであることが理解されるべきである。第1の例では、エンコーディングすることのステップにおける、2つの隣り合う周波数スパンが、分類することのステップにおける、単一の周波数サブバンドに対応する。この場合、単一の周波数サブバンドが、前景として分類される場合、隣り合う周波数スパンの双方には、同じビット数が与えられてよい。ここでは、このビット数は、単一の周波数サブバンドの前景分類により判定されたビット数に対応する。第2の例では、エンコーディングすることのステップにおける、単一の周波数スパンは、分類することのステップにおける、2つの異なる周波数サブバンドに対応する。この場合、周波数サブバンドのどちらかの前景分類、又は、周波数サブバンドの双方の前景分類により、エンコーディングすることのステップの周波数スパンには、前景分類により判定されたビット数に対応するビット数が与えられることとなってよい。
分類することのステップの周波数サブバンドと、エンコーディングすることのステップの周波数スパンと、が異なる場合、分類することのステップの周波数サブバンド、又は、エンコーディングすることのステップの周波数スパンのいずれが分解されてよいことも理解されるべきである。第1の例では、周波数サブバンドが、前景として分類される場合、これは分解され、エンコーディングすることのステップの周波数スパンに合う、分解された周波数サブバンドを使用して再分析されてよい。これは、エンコーダの周波数スパンのどれに、前景分類に対応するビット数が割り当てられるべきかを判定するために行われてよい。分類することのステップにおいて、エンコーダにおけるものと同じ周波数サブバンドを使用しないことの理由は、異なる周波数サブバンドの割り当てにより、よりよい分類結果となることであり得る。第2の例では、エンコーダが、エンコーダのステップの周波数スパンを分解する可能性を与える場合、分類することのステップの前景サブバンドに合う、分解された周波数スパンにビットを割り当てることのみが可能であってよい。
エンコーディングすることのステップは、ビットを、オーディオフレームに割り当ててよく、ここでは、エンコーディングすることのステップのオーディオフレーム持続時間は、分類することのステップのオーディオフレーム持続時間と同じ、又は、異なる、のいずれかであることも理解されるべきである。例えば、分類のステップは、60msのオーディオフレーム持続時間を有してよい。一方、エンコーディングすることのステップは、20msのオーディオフレーム持続時間を有する。
オーディオフレームの、背景に分類された周波数サブバンドをエンコーディングするために割り当てられるビット数は、オーディオフレームの、背景に分類された周波数サブバンドの周波数レンジに依存してよい。代替的に又は追加的に、オーディオフレームの、前景に分類された周波数サブバンドをエンコーディングするために割り当てられるビット数は、オーディオフレームの、前景に分類された周波数サブバンドの周波数レンジに依存してよい。
一例として、20から40Hzの周波数レンジをカバーする周波数サブバンドは、それが前景として分類される場合には、5ビット/サンプルが割り当てられてよく、それが背景として分類される場合には、1ビット/サンプルが割り当てられてよい。一方、80から160Hzの周波数レンジは、それが前景として分類される場合には、7ビット/サンプルが割り当てられてよく、それが背景として分類される場合には、2ビット/サンプルが割り当てられてよい。
割り当てビット数に対して、周波数への依存性を使用することの利点は、それが、オーディオ信号の効率的なエンコーディングを促進することである。例えば、他よりも重要な周波数サブバンドには、さらに多くのビットが割り当てられてよい。例えば、周波数サブバンドを表す、又は、周波数サブバンドの一部を表す周波数レンジ内に、重要な音が出現すると予期される周波数サブバンドには、それが前景として分類される場合に、多くのビット数が割り当てられてよい。割り当てられるビット数は、周波数サブバンドを表す周波数レンジのサイズに依存してもよい。例えば、周波数レンジが狭い場合と比較して、周波数レンジが広い場合には、前景分類及び背景分類に対応するビット数の双方は、多くともよい。
オーディオフレームの異なる周波数サブバンドに割り当てるために、固定合計ビット数が利用可能であってよい。固定合計ビット数は、1つのフレームから連続するフレームまで一定であってよい。一例では、背景分類とされた周波数サブバンドには、最小ビット数又はゼロビットが割り当てられてよい。固定合計ビット数の残りは、前景に分類された、残りの周波数サブバンドのそれぞれに分配されてよい。
オーディオ信号がエンコードされ、第1のオーディオフレームの、背景に分類された第1の周波数サブバンドに割り当てられるビット数は、第1のオーディオフレームに先ずるオーディオフレームにおける同じ第1の周波数サブバンドが前景として分類された場合の方が、第1のオーディオフレームに先ずるオーディオフレームにおける同じ第1の周波数サブバンドが背景として分類された場合と比較して、より多くなるようになってよい。
一例として、ゼロ番目のオーディオフレームにおける周波数サブバンドには、それが前景として分類される場合には、400ビットが割り当てられてよく、それが背景として分類される場合には、50ビットが割り当てられてよい。ゼロ番目のオーディオフレームにおける周波数サブバンドが、背景として分類され、後続の第1のオーディオフレームにおける同じ周波数サブバンドが、背景として分類された場合には、第1のオーディオフレームにおける同じ周波数サブバンドには、50ビットが割り当てられてもよい。その代わりに、ゼロ番目のオーディオフレームにおける周波数サブバンドが、前景として分類され、後続の第1のオーディオフレームにおける同じ周波数サブバンドが、背景として分類された場合には、第1のオーディオフレームにおける同じ周波数サブバンドには、例えば、350ビットが割り当てられてよい。
現在のオーディオフレームの周波数サブバンドの分類だけでなく、先のオーディオフレームの周波数サブバンドの分類にも依存して、ビット数を割り当てることの利点は、それが、健全なエンコーディングを促進することである。誤った背景分類の結果は、先のオーディオフレームの周波数サブバンドの分類が考慮される場合には、それほど深刻でない場合がある。先の分類が前景だった場合には、それが背景だった場合よりも、背景分類が誤っている可能性が高い場合がある。したがって、前景分類から背景分類への切り替えが生じると、割り当てられるビット数は、即座にではないが、段階的に減らされてよい。これは、誤った分類に基づく高レベルの圧縮による、重要なオーディオ成分のロスを減らし得る。
別の利点は、エンコードされたオーディオ信号が聞きやすくなることであってよい。圧縮レベルにおける急激な変化は、デコーディング後に再現される信号の認知におけるエラーに関して、信号における副作用を生成する場合がある。
割り当てビット数は、直前のオーディオフレームの分類のみに依存し得ないことが理解されるべきである。それは、さらに前のオーディオフレームの分類に依存してもよい。例えば、背景から前景への遷移は、割り当てられるビット数の、低い値から高い値への即時の変化をトリガしてよい。一方、前景から背景への遷移は、割り当てられるビット数の段階的な減少をトリガしてよい。最後の前景分類の後、割り当てビットの減少は、例えば、低い値に到達するまで、新たな背景分類のそれぞれに対して、同じであってよい。
オーディオフレームの周波数サブバンドをエンコーディングするために割り当てられるビット数は、さらに、心理音響的モデルに依存してよい。
心理音響的モデルは、人が音を認知するモデルであってよいことが理解されるべきである。
心理音響的モデルは、例えば、音量スケールに関しての、認知限界を反映してよい。心理音響的モデルは、ここでは、例えば、周波数に応じての音圧などを表す等音量曲線であってよい。ここでは、等音量曲線上の異なるトーンが、人の耳により、それらの音圧が異なるものの、同じ音量を有するものと認識される。オーディオフレームの周波数サブバンドをエンコーディングするために割り当てられるビット数は、ここでは、周波数サブバンドが、人の耳の感度が最も高い周波数に近い場合には、それが離れている場合より多くともよい。オーディオフレームの周波数サブバンドをエンコーディングするために割り当てられるビット数は、この実施形態では、周波数サブバンドが、等音量曲線の下限に近い場合には、それが離れている場合より多くともよい。音量スケールに関しての、人の耳の認知限界を反映する他のスケールが使用されてもよいことが理解されるべきである。
心理音響的モデルは、例えば、マスキング効果を反映してよい。ここでは、人の耳が、特定の大きさの第1の周波数成分を検出できるかどうかは、第2の異なる周波数成分が存在するか否かに依存する。第2の周波数成分が存在する場合、第1の周波数成分はマスクされ、人の耳による検出が不可能であってよい。オーディオフレームの周波数サブバンドをエンコーディングするために割り当てられるビット数は、この実施形態によると、周波数サブバンドの内容がマスクされている場合には、それがマスクされていない場合より少なくともよい。
心理音響的モデルにしたがってビット数を割り当てることの利点は、それが、高品質の圧縮を提供することであってよい。オーディオ信号の、人の耳が容易に認識しない各部は、人の耳の感度が高い各部よりも高いレベルに圧縮されてよい。
オーディオフレームの周波数サブバンドをエンコーディングするために割り当てられるビット数は、心理音響的モデルにしたがうオーディオフレームの周波数サブバンドの周波数レンジに依存してよい。
心理音響的モデルは、例えば、周波数スケールに関しての、人の耳の認知限界を反映してよい。心理音響的モデルは、例えば、バーク(Bark)スケールであってよい。バークスケールは、人の聴覚システムの分解能をモデル化する、非線形の周波数スケールであってよい。バークスケールでの1バーク距離は、ここでは、いくらかの周波数に対して、周波数に対数的に比例する、臨界帯域幅と呼ばれるものに等しくともよい。オーディオフレームの周波数サブバンドをエンコーディングするために割り当てられるビット数は、ここでは、バーク距離にて測定される周波数レンジに比例してよい。周波数スケールに関しての、人の耳の認知限界を反映する他のスケールが使用されてもよいことが理解されるべきである。
心理音響的モデルにしたがう、オーディオフレームの周波数サブバンドの周波数レンジに基づいて、ビット数を割り当てることの利点は、それが、高品質の圧縮を提供することであってよい。人の耳が、高い周波数分解能を有する周波数サブバンドには、人の耳が、低い周波数分解能を有する周波数サブバンドと比較して、より多くのビットが割り当てられてよい。
オーディオフレームの、背景に分類された周波数サブバンドをエンコーディングするために割り当てられるビット数は、オーディオフレームの、背景に分類された周波数サブバンドが表す周波数レンジには依存しなくともよい。オーディオフレームの、前景に分類された周波数サブバンドをエンコーディングするために割り当てられるビット数は、オーディオフレームの、前景に分類された周波数サブバンドが属する周波数レンジには依存しなくともよい。
この実施形態の利点は、それが、迅速なエンコーディングを促進することであってよい。同じ少ないビット数を、オーディオフレームの、背景に分類された周波数サブバンドのすべてに割り当てることは、例えば、背景に分類された周波数サブバンドのそれぞれに対して個々に割り当てられるべきビットがどれほどかを判定することより迅速に行われ得る。さらに、同じ多くのビット数を、オーディオフレームの、前景に分類された周波数サブバンドのすべてに割り当てることは、例えば、前景に分類された周波数サブバンドのそれぞれに対して個々に割り当てられるべきビットがどれほどかを判定することより迅速に行われ得る。
この方法は、
オーディオ信号のオーディオフレームに対して、
オーディオフレームの周波数サブバンドに対して、
オーディオフレームの周波数サブバンドに対応する、周波数サブバンドに特有の背景モデルを、オーディオフレームの周波数サブバンドの周波数コンテンツに基づいて更新することも含んでよい。
周波数コンテンツは、ここでは、周波数サブバンドにて表される、音の性質であってよい。周波数コンテンツは、例えば、周波数サブバンド全体のパワースペクトル密度(power spectral density又はPSD)、周波数サブバンド内のパワースペクトル密度の測定値、周波数サブバンド内の各周波数成分の大きさ、周波数サブバンド内の複数の周波数成分の大きさ、周波数サブバンド内の周波数成分それぞれの分布、又は、周波数サブバンドのエナジーレベル(フレームxのバンドbのサブバンドエナジー)であってよい。
背景モデルを更新することの利点は、それが、エンコードされたオーディオ信号を転送させるための帯域幅要件のさらなる削減、及び/又は、エンコードされたオーディオ信号を保存するための保存スペース要件のさらなる削減を促進すること、及び/又は、デコーディング後に認識されるオーディオ信号の品質を改善することであってよい。
背景モデルを更新することは、時間と共に変わり得る、適応性の高い背景モデルをもたらしてよい。背景モデルは、したがって、オーディオ信号の記録中の環境の変化に適応してよい。例えば、新たな音が導入されると、それは前景として分類され、その新たな音をエンコーディングするために、多くのビットが割り当てられるようになってよい。しかし、後続のオーディオフレームにおいてその音が依然として生じている場合、その音は、関心の対象でない可能性があり得る。このモデルは続いて更新され、その音が、後のオーディオフレームにて背景として識別されるようになってよい。これは、その音が、より高いレベルに圧縮されるようになり得、各リソースを節約し得る。
背景モデルを更新することが、背景モデルの展開中に各リソースを節約してもよい。静的モデルが使用される場合、それが、異なる音を正確に分類できるようになる前に、それは、訓練される必要があってよい。訓練データを集めて選ぶことは、時間又は経費のいずれかに関して大きな捻出となり得る。周波数サブバンドの、それが分類する内容に基づいて更新される背景モデルは、それ自身を訓練してよい。これは、例えば包括的なモデルとして展開され、続いて、それが機能する環境に適応してよい。これにより、時間及び経費を節約する。
周波数サブバンドに特有の背景モデルは、ガウス混合モデル(Gaussian Mixture Model又はGMM)を含んでよい。GMMは、複数のガウス分布を含む。それらのそれぞれは、周波数サブバンドにおけるエナジーレベルに対する確率分布を表す。
エナジーレベル、又は、サブバンドエナジーは、ここでは、周波数サブバンドにて表される音の音量の性質であってよい。エナジーレベルは、例えば、周波数サブバンド全体のPSD、周波数サブバンド内のPSDの測定値、周波数サブバンドにおける音のウェーブレットエナジー、周波数サブバンド内の各周波数成分の大きさ、周波数サブバンド内の複数の周波数成分の合計した大きさ、又は、周波数サブバンド内の周波数成分すべての合計した大きさであってよい。ガウス分布は、ここでは、例えば、平均値及び標準偏差、又は、平均値及び差異により表されてよい。ガウス分布は、正規化されてもよく、されなくともよい。ここでは、正規化されたガウス分布は、1に等しい整数を有する。ガウス分布により表される確率分布は、ここでは、周波数サブバンドにおけるエナジーレベルの測定値の結果が異なり得る確率を提供してよい。複数のガウス分布は、例えば、3から6のガウス分布、又は、2から10のガウス分布からなってよい。
例示のための一例では、各ガウス分布は、特定の音に対する、周波数サブバンド全体のPSDに対する確率分布である。第1のガウス分布は、例えば、稼働中である第1の機械の音などの、第1の背景音を表してよい。オーディオフレームの周波数サブバンド全体のPSDが、第1のガウス分布の平均値と同じ値を有する場合、これは、オーディオフレームの周波数サブバンドの内容が、第1の機械の音であることを示すものと、高い確率をもってみなしてよい。オーディオフレームの周波数サブバンド全体のPSDが、第1のガウス分布の平均値より少し高い、又は、少し低い値を有する場合、これは、周波数サブバンドの内容が第1の音である確率が、少し低いことを示してよい。したがって、確率分布は、周波数サブバンドに対して測定されたエナジーレベルを、周波数サブバンドが特定の内容を有する確率、例えば、第1の機械の音を含む確率、に変換する関数であってよい。内容が背景音である確率が高いということはつまり、周波数サブバンドの背景分類が保証され得る、ということを示してよい。しかし、分類の判定を示す他のものがあってもよいことが理解されるべきである。
そのような背景モデルを使用することは、周波数サブバンドの内容を識別する効率的な方法であってよい。分類に必要な処理能力がしたがって、低くともよい。
そのような背景モデルは、周波数サブバンドの内容を識別する正確な方法でもある。確率分布は、例えば、測定されたエナジーレベルを閾値と単に比較することと比較して、内容を判定する、より正確な方法であり得る連続関数であってよい。複数のガウス分布を使用することにより、周波数サブバンドの異なる内容を表す複数の背景モデルが含まれてよい。ガウス分布の混合は、したがって、例えば、周波数サブバンドの内容が、複数の異なる音のいずれの1つのである確率を説明してよい複雑な確率分布を表してよい。
そのような背景モデルは、適応性の高いモデルを実施する効率的な方法であってもよい。オーディオフレームの周波数サブバンドは、共通の異なる音がその周波数サブバンド内にどのように存在するかの統計を構築するサンプルとみなされてよい。例えば、測定されたPSD値が、特定の周波数サブバンドに特有のガウス分布の平均値よりも少し低い場合、そのガウス分布に対する平均値は、以降のオーディオフレームに対して少し減らされてよい。
オーディオフレームの周波数サブバンドは、オーディオフレームの周波数サブバンドのエナジーレベルが、周波数サブバンドに特有の背景モデルのGMMのガウス分布の内の1つの平均値前後の所定の標準偏差数内にある場合、及び、そのガウス分布の重みであって、オーディオフレームの周波数サブバンドのエナジーレベルが、そのガウス分布の平均値前後の所定の標準偏差数内となる確率を表す重みが、閾値を超えている場合に、背景として分類されてよい。
所定の標準偏差数は、例えば、2、2.5、又は3の標準偏差の、いずれの適切な数値であってよい。
この実施形態の利点は、それが、周波数サブバンドの分類における高精度を促進することであってよい。種々の音は、ここでは、例えば、それらの音が時間と共に変化しても、正確に分類されてよい。例えば、特定の背景音の音量は変化してよい。背景音は、例えば、部屋の背景での、働いている人たちの話し声であってよい。その背景音の音量は続いて、それらの人たちの数に依存して変化してよい。ここでは、音量が特定の範囲内にある場合には、それらの話し声は背景として分類されるのが望ましい。予期した範囲の音量レベルは続いて、平均値及び標準偏差に関してのガウス分布により画定されてよい。オーディオフレームの周波数サブバンドのエナジーレベルが、平均値前後の所定の標準偏差数内にある場合、これは、周波数サブバンドの内容が背景音であることの可能性を示してよい。しかし、これは、背景分類をトリガするには十分でなくともよい。そのガウス分布により表される背景モデルは、例えば、不確実なものであってよい。ガウス分布は、したがって、不確実性を説明する重みを有してよい。背景モデルが、周波数サブバンドの内容が特定の背景音であることの可能性を示すものであるべき制約がどれほどかが、続いて、所定の標準偏差数により規制されてよい。周波数サブバンドの内容が特定の背景音であることの可能性を示すものが、背景分類をもたらすべきか否かは、続いて、重みにより規制されてよい。背景モデルを更新する際には、第1のガウス分布の平均値前後の所定の標準偏差数内にある、測定されたPSD値は、第1のガウス分布の重みを、例えば、所定の値により増やしてよい。代替的に又は追加的に、GMMの残りのガウス分布の重みは、所定の値により減らされてよい。
エナジーレベルは、パワースペクトル密度(power spectral density又はPSD)の測定値であってよい。
PSDは、ここでは、パワーがどのように、オーディオ信号の周波数成分のそれぞれに分配されるかを表してよい。PSDは、例えば、ユールウォーカー自己回帰(Yule-Walker auto regressive)法、又は、バートレット(Bartlett)法を使用して測定されてよい。PSDは、例えば、周波数サブバンド全体のPSD測定値、又は、周波数サブバンド内の、1つの周波数成分、若しくは、多数の周波数成分に対する、周波数サブバンド内のPSD測定値、であってよい。
エナジーレベルのそのような定義を使用することの利点は、それが、周波数サブバンドの分類における高精度を促進することである。PSD値は、音量を正確に表すものであってよい。さらに、PSD値をフーリエ変換から計算することは、コンピュータ的に容易であり得る。分類に必要な計算能力は、これにより、低くともよい。
この方法は、
オーディオ信号のエンコードされたオーディオフレームを、メタデータであって、オーディオフレームの周波数サブバンドの分類を表すメタデータと共に送信することをさらに含んでよい。
メタデータを、エンコードされたオーディオフレームと共に送信することの利点は、それが、効率的なデコーディングを促進することであってよい。例えば、異なる方法を使用して、前景及び背景の周波数サブバンドをデコードしてよい。周波数サブバンドの分類が、メタデータを使用してマークされる場合、どの方法がどの周波数サブバンドに適用されるべきであるかが容易に判定され得る。これは、各処理リソースを節約し得る。
オーディオ信号のエンコーディングは、オーパス(Opus)オーディオコーデックにより行われてよい。
オーパスオーディオコーデックは、ビットの、エンコーダによりエンコードされる、異なる周波数サブバンドへの割り当てを内部的に判定してよい。例えば、オーパスでは、最大割り当てベクトルと呼ばれるメカニズムが、この目的に使用されてよい。本発明は、続いて、ビットの割り当てを変更し、背景とみなされている周波数バンドにおけるビット数を、前景とみなされている周波数バンドにおいてビットを使用するために、減らしてよい。オーパス以外のコーデックが使用されてよいことも理解されるべきである。
本発明に関するコンセプトの第2の態様によると、プロセッシングユニット上にて実行されると、そのプロセッシングユニットに、先の特許請求の範囲のいずれか一項に係る方法を実行させるコンピュータ可読命令を保存するコンピュータ可読媒体を含む、コンピュータプログラム製品が提供される。
この第2の態様の効果及び特徴は、一般的に、第1の態様に関連するそれら上記の説明に類似する。第1の態様に関連して言及する実施形態は、一般的に、第2の態様と両立する。
そのようなコンピュータプログラム製品は、したがって、この方法の上述する利点を得るためのプログラムをインストールして実行する可能性を提供し得る。
本発明に関するコンセプトの第3の態様によると、可変ビットレートを用いてオーディオ信号をエンコーディングするためのエンコーダが提供される。エンコーダは、レシーバと、1つ又はそれ以上のプロセッサと、を含む。
レシーバは、エンコードされるオーディオ信号を受信するよう構成されている。オーディオ信号は、複数の連続するオーディオフレームを含む。
1つ又はそれ以上のプロセッサは、
オーディオ信号の連続するオーディオフレームのそれぞれに対して、
オーディオフレームを、複数の周波数サブバンドに関する周波数ドメインにて表し、
オーディオフレームを、周波数サブバンドのそれぞれにて、周波数サブバンドに特有の背景モデルを使用して、背景又は前景のいずれかとして分類し、
オーディオ信号の連続するオーディオフレームのそれぞれをエンコードするよう構成されている。オーディオフレームの周波数サブバンドのそれぞれに対して、ビット数が割り当てられる。周波数サブバンドに対して割り当てられたビット数は、オーディオフレームが、周波数サブバンドにて前景として分類された場合の方が、オーディオフレームが、周波数サブバンドにて背景として分類された場合よりも多い。
この第3の態様の効果及び特徴は、一般的に、第1の態様に関連するそれら上記の説明に類似する。第1の態様に関連して言及する実施形態は、一般的に、第3の態様と両立する。
エンコーダは、オーディオ信号を記録するデバイスに物理的に接続されてよいことが理解されるべきである。しかし、エンコーダは、オーディオ信号を記録するデバイスにワイヤレスにて接続されてよく、エンコーダは、例えば、サーバー内に設置されてよく、サーバーは、オーディオ信号を記録するデバイスと通信することも理解されるべきである。
本発明に関するコンセプトの第4の態様によると、モニタリングデバイスが提供される。モニタリングデバイスは、
オーディオ信号を記録するよう構成されているマイクロフォンと、
オーディオ信号を、マイクロフォンから受信し、可変ビットレートを用いてオーディオ信号をエンコードするよう構成されている、第3の態様に係るエンコーダと、を含む。
この第4の態様の効果及び特徴は、一般的に、第1の態様に関連するそれら上記の説明に類似する。第1の態様に関連して言及する実施形態は、一般的に、第4の態様と両立する。
マイクロフォンとエンコーダとを組み合わせることの利点は、モニタリングデバイスが自立して動作できる程度が大きくなることである。例えば、モニタリングデバイスは、エンコードされたオーディオ信号を、ネットワーク上に、他のデバイス又はサーバーのサポートなく送信してよい。
上記の、そしてさらなる目的も同様に、本発明に関するコンセプトの特徴及び利点は、添付の図面を参照しての、以下に例示する、非限定の、詳細な説明を通してよく理解されるであろう。図中、特に明記しない限り、同様の構成要素には同様の参照符号が使用される。
図1は、モニタリングデバイス内のエンコーダの図である。 図2は、マイクロフォンにワイヤレスにて接続されたエンコーダの図である。 図3は、可変ビットレートを用いてオーディオ信号をエンコーディングする方法のフローチャートである。 図4は、周波数ドメインにて表されて分類されたオーディオ信号である。 図5は、ガウス混合モデルである。 図6は、ビットレートが段階的に減少する圧縮の模式図である。
添付の図面を参照して、本発明の技術的内容及び詳細な説明を、好適であり、特許請求の範囲を限定することに使用されない実施形態にしたがって、以下に記載する。本発明は、多くの異なる形態にて体現されてよく、以下に示す実施形態に限定されるものとして理解すべきでない。むしろこれらの実施形態は、完璧性及び完全性のために、そして、本発明の範囲を当業者に十分に伝えるために提供される。
図1及び図2は、レシーバ12と、プロセッサ14と、を含むエンコーダ10の模式図である。図1では、エンコーダ10はモニタリングデバイス1内に設置されている。モニタリングデバイス1は、レシーバ12を通過したオーディオ信号30を記録するよう構成されているマイクロフォン2をさらに含む。モニタリングデバイス1は、ビデオ信号を追加的に記録できてもよいし、できなくともよい。図2では、エンコーダ10は、複数のマイクロフォン2をサポートする。エンコーダ10は、したがって、ネットワークビデオレコーダやネットワークオーディオレコーダなどの、スタンドアローン型モニタリングデバイスの一部、又は、中央サポートユニットの一部であってよい。
エンコーダ10は、例えば、マイクロフォン2からオーディオ信号30を受信し、そのオーディオ信号30を、プロセッサ14を使用してその信号を処理することにより、エンコードする。エンコードされたオーディオ信号は、続いて、例えば、ローカルエリアネットワークを経由して送信されてよい。エンコードされたオーディオ信号は、モニタリングデバイス1上にローカルに、又は、リモートストレージメディア上に保存されてもよい。
マイクロフォン2からエンコーダ10に通過したオーディオ信号30は、マイクロフォン2に当たる音波をアナログ又はデジタルにて表すものであってよい。受信したオーディオ信号30は、複数の連続するオーディオフレーム32を含む。オーディオ信号30の、連続するオーディオフレーム32のそれぞれは、60msなどの、特定の持続時間のオーディオ信号の、時間セグメントを表してよい。オーディオフレーム32は、例えば、ビットストリングにより表される時間セグメントのそれぞれにより、明確に画定されてよい。オーディオフレーム32は、例えば、オーディオフレーム32のそれぞれの開始を画定するフレームクロックにより、暗に画定されてもよい。オーディオフレーム32は、圧縮されなくともよい。しかし、オーディオフレーム32は、圧縮されてもよい。オーディオ信号30は、例えば、予め圧縮されてよい。エンコーダ10は、続いて、さらなる圧縮を加えてよい。
図1は、マイクロフォン2及びエンコーダ10の間の、オーディオ信号30がエンコーダ10に通過する有線接続を示す。図2は、エンコーダ10及びマイクロフォン2の間の無線接続を示す。
図3は、可変ビットレートを用いてオーディオ信号30をエンコーディングする方法100を示すフローチャートを示す。方法100は、例えば、エンコーダ10により使用され、可変ビットレートを用いてオーディオ信号30をエンコードしてよい。図3は、方法100のステップのそれぞれについての特定の順序を画定しないことが理解されるべきである。
方法100によると、S102にて、オーディオ信号30が受信される。オーディオ信号30は、複数の連続するオーディオフレーム32を含む。
連続するオーディオフレーム32のそれぞれは、続いて、S104にて、複数の周波数サブバンド34に関する周波数ドメインにて表される(図4とあわせて以下をさらに参照されたい)。これは、例えば、高速フーリエ変換(fast Fourier transform又はFFT)又は変形離散コサイン変換(modified discrete cosine transform又はMDCT)を使用して行われてよい。オーディオフレーム32が周波数ドメインにて表されると、周波数サブバンド34のそれぞれは、1つ又はそれ以上の周波数成分を含み得る。周波数成分のそれぞれは、ここでは、例えば、周波数成分により表される周波数スパンのエナジーレベルであってよい。周波数ドメインでは、オーディオフレーム32は、したがって、スペクトルであってよい。ここでは、エナジーレベルは、オーディオ信号のパワーがどのように、異なる周波数サブバンド34の周波数成分のそれぞれにわたって分配されるかを説明する。エナジーレベル値は、ここでは、周波数成分の周波数スパンに関して正規化され、それが、スペクトル分解能には依存しなくなってよい。
連続するオーディオフレーム32のそれぞれは、以下に説明するように、S106にて、周波数サブバンド34のそれぞれにて、周波数サブバンド34に特有の背景モデルを使用して、背景又は前景のいずれかとして、さらに分類される。
オーディオ信号の連続するオーディオフレーム32のそれぞれは、S108にて、さらにエンコードされる。ここでは、オーディオフレーム32の周波数サブバンド34のそれぞれに対して、ビット数が割り当てられる。ここでは、周波数サブバンド34に対して割り当てられたビット数は、オーディオフレーム32が、周波数サブバンド34にて前景として分類された場合の方が、オーディオフレーム32が、周波数サブバンド34にて背景として分類された場合よりも多い。S108でのエンコーディングすることを、以下にさらに説明する。
S104での表すことと、S106での分類することと、S108でのエンコーディングすることと、の各ステップが、オーディオフレーム32のそれぞれに対して順次行われてよい。しかし、すべてのステップは、次のオーディオフレーム32に移動する前に、1つのオーディオフレーム32に対して必ずしも完了されなくともよい。例えば、S104での表すことと、S106での分類することと、は、オーディオフレーム32のそれぞれに対して順次行われてよい。多くのフレームが分類されてバッファされると、バッファされたオーディオフレーム32が、S108にてエンコードされてよい。
方法100は、S110での、背景モデルを更新する任意のステップをさらに含む。ここでは、背景モデルが、オーディオフレーム32の周波数サブバンド34に対して、オーディオフレーム32の周波数サブバンド34の周波数コンテンツに基づいて、更新される。
方法100は、S112での、オーディオ信号30のエンコードされたオーディオフレーム32を、メタデータと共に送信する任意のステップをさらに含む。ここでは、メタデータは、オーディオフレーム32の周波数サブバンド34の分類36を表す。
図4は、S104にて周波数ドメインにて表され、S106にて分類された、オーディオ信号30の一例を模式的に示す。オーディオ信号30は、ここでは、時間ドメインにて、多くのオーディオフレーム32に分割され、周波数ドメインにて、多くの周波数サブバンド34に分割されたものとみなされてよい。オーディオフレーム32のそれぞれの周波数サブバンド34のそれぞれは、分類36を有する。分類36は、S108でのエンコーディングするステップにて、周波数サブバンド34に対して割り当てられるビット数の判定に使用される。この図及び以降の図では、前景分類は、FGとマークされており、背景分類は、BGとマークされている。
ここでは、S106での、オーディオフレーム32の周波数サブバンド34を分類することのステップをさらに詳細に説明する。図5は、周波数サブバンド34に特有の背景モデルとしていくつかの実施形態にて使用されるGMM50を示す。オーディオフレームに対する背景モデルを、GMMを使用して判定することのコンセプトは、「複雑なオーディオ環境に対する、オンラインでのオーディオ背景の判定(On-line Audio Background Determination for Complex Audio Environments)」[マルチメディアコンピューティング通信及びアプリケーションにおけるACMトランザクション:2007年5月(ACM Transactions on Multimedia Computing Communications and Applications May 2007)]モンクリフ(Moncrieff)ら、にさらに説明されている。これは、背景モデル化技術を使用して、オーディオを前景/背景に分離する方法を説明する。
ここに描くGMM50は、3つのガウス分布52を含む。それらのそれぞれは、周波数サブバンドにおける、エナジーレベルに対する確率分布を表す。周波数サブバンド34のそれぞれは、ここでは、その周波数サブバンド34内の音がどのように分類されるべきであるかをモデル化する、それ自身のガウス分布52を有してよい。図中のガウス分布52のそれぞれは、平均値及び標準偏差を有する。ここでは、平均値前後の、あらかじめ定められた標準偏差数54が、ガウス分布52のそれぞれのエナジーレベルの範囲を画定する。いくつかの実施形態では、ガウス分布52のそれぞれは、さらに、重みと関連付けられている。重みは、オーディオフレーム32の周波数サブバンド34のエナジーレベルが、そのガウス分布52の平均値前後の所定の標準偏差数54内となる確率を表す。ガウス分布の重みのそれぞれは、正規化されてもよく、されなくともよい。
いくつかの実施形態では、オーディオフレーム32の周波数サブバンド34は、2つの条件が満たされる場合に、背景として分類される。第1の条件は、周波数サブバンド34の測定されたエナジーレベル56が、ガウス分布52の内の1つの、あらかじめ定められた標準偏差数54により画定された、エナジーレベルの範囲内に収まることである。図4では、周波数サブバンド34の測定されたエナジーレベル56が、真ん中のガウス分布52の平均値前後の、あらかじめ定められた標準偏差数54内に収まる。第2の条件は、そのガウス分布52が、閾値を超える重みを有することである。いくつかの実施形態では、周波数サブバンド34の測定されたエナジーレベル56は、ガウス分布54の内の1つを超える、あらかじめ定められた標準偏差数54により画定された、エナジーレベルの範囲内に収まってよい。これらの場合では、周波数サブバンド34は、ガウス分布52に対応する分類を、最も高い重みと共に受信してよい。最も高い重みが、閾値としての重みを超える場合、周波数サブバンド34は、背景として分類される。
いくつかの実施形態では、背景モデルは、オーディオフレーム32の周波数サブバンド34の周波数コンテンツに基づいて更新される。例えば、図5のGMM50は、いくつかの実施形態にて、それが、オーディオフレーム32の周波数サブバンド34に使用された後に、更新され得る。更新されたガウス分布53が、したがって、ガウス分布52及び測定されたエナジーレベル56に基づいて形成されてよい。図5は、更新されたガウス分布53を示す。更新されたガウス分布53は、真ん中のガウス分布52の代わりに、後続のオーディオフレームに使用される。
以下に、更新の例の包括的でないリストを説明する。測定されたエナジーレベル56が、ガウス分布52に適合する場合、つまり、ガウス分布52の平均値前後の、あらかじめ定められた標準偏差数54内に収まる場合、適合するガウス分布52が更新されてよい。例えば、適合するガウス分布52の平均値及び/又は標準偏差は、調整されてよい。平均値は、例えば、測定されたエナジーレベル56が、適合するガウス分布52の平均値未満であった場合には、減らされてよい。適合するガウス分布52の重みも、調整されてよい。適合するガウス分布52の重みは、増えてよい。測定されたエナジーレベル56に適合しなかったガウス分布52の重みは、減ってよい。測定されたエナジーレベル56が、いずれのガウス分布52にも適合しなかった場合、最も低い重みを有するガウス分布52が、測定されたエナジーレベル56に等しい平均値と、あらかじめ定められた標準偏差と、あらかじめ定められた(低い)重みと、を有する新たなガウス分布52と置き換えられてよい。適合するガウス分布52の重みは、更新が行われる際に考慮されてもよいことが理解されるべきである。複数のガウス分布52が、1つの測定されたエナジーレベル56に適合してよいことも理解されるべきである。複数のガウス分布52も、背景モデルの単一の更新において調整されてよい。
ここでは、S108での、オーディオフレーム32をエンコーディングするステップをさらに詳細に説明する。S108での、オーディオフレーム32をエンコーディングすることは、異なる周波数サブバンド34に対して異なるビット数を割り当てることをサポートするオーディオコーデックを使用して行われてよい。そのようなオーディオコーデックは、例えば、オーパスオーディオコーデックである。MP3コーデックやMPEGコーデックなどの他のコーデック、又は、VBRをサポートする他のコーデックが採用されてよい。S108にて、オーディオフレーム32がエンコードされると、オーディオフレーム32の周波数サブバンド34に対して割り当てられるビット数は、オーディオフレーム32が、周波数サブバンド34にて前景として分類された場合の方が、オーディオフレーム32が、周波数サブバンド34にて背景として分類された場合よりも多い。
割り当てビット数は、例えば、ビットレートが段階的に減少する圧縮58において、現在のオーディオフレーム32の分類、及び、先のオーディオフレーム32の分類、の双方に依存してよい。図6は、周波数サブバンド34に対する、ビットレートが段階的に減少する圧縮58を模式的に示す。この図は、割り当てビット数が、先のオーディオフレーム32の分類36に依存する場合の、時間に応じての割り当てビット数を示す。ここに示す状況では、前景分類から背景分類への切り替えにより、割り当てられるビット数は、即座にではないが、段階的に減らされることとなる。前景分類から背景分類への切り替え後、割り当てられるビット数は、周波数サブバンド34における、オーディオフレーム32の後続の背景分類のそれぞれに対して、予め設定された低い値に到達するまで、減らされる。一方、背景分類から前景分類への切り替えにより、割り当てられるビット数は、高い値へと即座に増やされることとなってよい。
割り当てビット数は、先のオーディオフレーム32の分類には依存しなくともよい。割り当てビット数は、例えば、前景として分類された、オーディオフレーム32の周波数サブバンド34のそれぞれに対して、高い値に設定されてよい。割り当てビット数は、例えば、背景として分類された、オーディオフレーム32の周波数サブバンド34のそれぞれに対して、低い値に設定されてよい。
いくつかの実施形態では、低い値及び高い値をなすものが、すべての周波数サブバンドにて同じである。いくつかの実施形態では、低い値及び高い値をなすものは、1つの周波数サブバンドから別の周波数サブバンドのそれぞれの間にて、異なる。オーディオフレーム32の、背景に分類された周波数サブバンド34をエンコーディングするために割り当てられるビット数は、例えば、オーディオフレーム32の、背景に分類された周波数サブバンド34の周波数レンジに依存してよい。オーディオフレーム32の、前景に分類された周波数サブバンド34をエンコーディングするために割り当てられるビット数は、例えば、オーディオフレーム32の、前景に分類された周波数サブバンド34の周波数レンジに依存してよい。前景又は背景に分類された周波数サブバンド34をエンコーディングするために割り当てられるビット数は、心理音響的モデルに依存してもよい。
オーディオフレーム32がエンコードされると、それらは送信されてよく、例えば、エンコーダ10により送信されてよい。オーディオフレーム32は、例えば、有線接続を経由、又は、ワイヤレス、のいずれかにて、ネットワークに送信されてよい。オーディオフレーム32の周波数サブバンド34の分類は、ここでは、エンコードされたオーディオフレームと共に、メタデータとして送信されてよい。
これまで、本発明に関するコンセプトを、限られた例を参照して主に説明した。しかし、当業者にただちに明白であるように、上記に開示するものとは異なる他の実施例も、特許請求の範囲に規定されるように、本発明に関するコンセプトの範囲内にて等しく可能である。

Claims (14)

  1. 可変ビットレートを用いてオーディオ信号(30)をエンコーディングする方法(100)であって、
    エンコードされる前記オーディオ信号(30)であって、複数の連続するオーディオフレーム(32)を含む前記オーディオ信号(30)を受信すること(S102)と、
    前記オーディオ信号(30)の連続する前記オーディオフレーム(32)のそれぞれに対して、
    前記オーディオフレーム(32)を、複数の周波数サブバンド(34)に関する周波数ドメインにて表すこと(S104)と、
    前記オーディオフレーム(32)を、前記周波数サブバンド(34)のそれぞれにて、前記周波数サブバンド(34)に特有の背景モデルを使用して、背景又は前景のいずれかとして分類すること(S106)と、
    前記オーディオ信号(30)の連続する前記オーディオフレーム(32)のそれぞれをエンコーディングすること(S108)と、を含み、
    前記オーディオフレーム(32)の前記周波数サブバンド(34)のそれぞれに対してビット数が割り当てられ、
    前記周波数サブバンド(34)に対して割り当てられた前記ビット数は、前記オーディオフレーム(32)が、前記周波数サブバンド(34)にて前景として分類された場合の方が、前記オーディオフレーム(32)が、前記周波数サブバンド(34)にて背景として分類された場合よりも多い、方法(100)。
  2. 前記オーディオフレーム(32)の、背景に分類された前記周波数サブバンド(34)をエンコーディングするために割り当てられるビット数は、前記オーディオフレーム(32)の、背景に分類された前記周波数サブバンド(34)の周波数レンジに依存する、及び/又は、
    前記オーディオフレーム(32)の、前景に分類された前記周波数サブバンド(34)をエンコーディングするために割り当てられるビット数は、前記オーディオフレーム(32)の、前景に分類された前記周波数サブバンド(34)の前記周波数レンジに依存する、請求項1に記載の方法(100)。
  3. 前記オーディオ信号(30)がエンコードされ、第1のオーディオフレームの、背景に分類された第1の周波数サブバンドに割り当てられるビット数は、前記第1のオーディオフレームに先ずる前記オーディオフレームにおける同じ第1の周波数サブバンドが前景として分類された場合の方が、前記第1のオーディオフレームに先ずる前記オーディオフレームにおける前記同じ第1の周波数サブバンドが背景として分類された場合と比較して、より多くなる、請求項1から請求項2のいずれか一項に記載の方法(100)。
  4. 前記オーディオフレーム(32)の前記周波数サブバンド(34)をエンコーディングする(S108)ために割り当てられるビット数は、さらに、心理音響的モデルに依存する、請求項1から請求項3のいずれか一項に記載の方法(100)。
  5. 前記オーディオフレーム(32)の前記周波数サブバンド(34)をエンコーディングする(S108)ために割り当てられるビット数は、心理音響的モデルにしたがう前記オーディオフレーム(32)の前記周波数サブバンド(34)の前記周波数レンジに依存する、請求項2に記載の方法(100)。
  6. 前記オーディオフレーム(32)の、背景に分類された前記周波数サブバンド(34)をエンコーディングする(S108)ために割り当てられるビット数は、前記オーディオフレーム(32)の、背景に分類された前記周波数サブバンド(34)が表す周波数レンジには依存せず、
    前記オーディオフレーム(32)の、前景に分類された前記周波数サブバンド(34)をエンコーディングする(S108)ために割り当てられるビット数は、前記オーディオフレーム(32)の、前景に分類された前記周波数サブバンド(34)が属する周波数レンジには依存しない、請求項1に記載の方法(100)。
  7. 請求項1から請求項6のいずれか一項に記載の方法(100)であって、
    前記オーディオ信号(30)の前記オーディオフレーム(32)に対して、
    前記オーディオフレーム(32)の前記周波数サブバンド(34)に対して、
    前記オーディオフレーム(32)の前記周波数サブバンド(34)に対応する、前記周波数サブバンド(34)に特有の背景モデルを、前記オーディオフレーム(32)の前記周波数サブバンド(34)の周波数コンテンツに基づいて更新すること(S110)をさらに含む、方法(100)。
  8. 前記周波数サブバンド(34)に特有の前記背景モデルは、ガウス混合モデル(50)(Gaussian Mixture Model又はGMM)を含み、前記GMM(50)は、複数のガウス分布(52)を含み、前記複数のガウス分布(52)のそれぞれは、前記周波数サブバンド(34)におけるエナジーレベルに対する確率分布を表す、請求項1から請求項7のいずれか一項に記載の方法(100)。
  9. 前記オーディオフレーム(32)の前記周波数サブバンド(34)は、前記オーディオフレーム(32)の前記周波数サブバンド(34)の前記エナジーレベルが、前記周波数サブバンド(34)に特有の前記背景モデルの前記GMM(50)の前記ガウス分布(52)の内の1つの平均値前後の所定の標準偏差数(54)内にある場合、及び、前記ガウス分布(52)の重みであって、前記オーディオフレーム(32)の前記周波数サブバンド(34)の前記エナジーレベルが、前記ガウス分布(52)の前記平均値前後の前記所定の標準偏差数(54)内となる確率を表す前記重みが、閾値を超えている場合に、背景として分類される、請求項8に記載の方法(100)。
  10. 前記エナジーレベルは、パワースペクトル密度(power spectral density又はPSD)の測定値である、請求項8から請求項9のいずれか一項に記載の方法(100)。
  11. 請求項1から請求項10のいずれか一項に記載の方法(100)であって、
    前記オーディオ信号(30)のエンコードされた前記オーディオフレーム(32)を、メタデータであって、前記オーディオフレーム(32)の前記周波数サブバンド(34)の分類(36)を示す前記メタデータと共に送信すること(S112)をさらに含む、方法。
  12. プロセッサ(14)上にて実行されると、前記プロセッサ(14)に、請求項1から請求項11のいずれか一項に記載の方法(100)を実行させるコンピュータ可読命令を保存するコンピュータ可読媒体。
  13. 可変ビットレートを用いてオーディオ信号(30)をエンコーディングするためのエンコーダ(10)であって、
    レシーバ(12)と、
    1つ又はそれ以上のプロセッサ(14)と、を含むエンコーダ(10)であって、
    前記レシーバ(12)は、エンコードされる前記オーディオ信号(30)であって、複数の連続するオーディオフレーム(32)を含む前記オーディオ信号(30)を受信するよう構成されており、
    前記1つ又はそれ以上のプロセッサ(14)は、
    前記オーディオ信号(30)の連続する前記オーディオフレーム(32)のそれぞれに対して、
    前記オーディオフレーム(32)を、複数の周波数サブバンド(34)に関する周波数ドメインにて表し、
    前記オーディオフレーム(32)を、前記周波数サブバンド(34)のそれぞれにて、前記周波数サブバンド(34)に特有の背景モデルを使用して、背景又は前景のいずれかとして分類し、
    前記オーディオ信号(30)の連続する前記オーディオフレーム(32)のそれぞれをエンコードするよう構成されており、前記オーディオフレーム(32)の前記周波数サブバンド(34)のそれぞれに対してビット数が割り当てられ、前記周波数サブバンド(34)に対して割り当てられた前記ビット数は、前記オーディオフレーム(32)が、前記周波数サブバンド(34)にて前景として分類された場合の方が、前記オーディオフレーム(32)が、前記周波数サブバンド(34)にて背景として分類された場合よりも多い、エンコーダ(10)。
  14. オーディオ信号(30)を記録するよう構成されているマイクロフォン(2)と、
    前記オーディオ信号(30)を、前記マイクロフォン(2)から受信し、可変ビットレートを用いて前記オーディオ信号(30)をエンコードするよう構成されている、請求項13に記載のエンコーダ(10)と、を含む、モニタリングデバイス(1)。
JP2020095195A 2019-06-10 2020-06-01 方法、コンピュータプログラム、エンコーダ、及びモニタリングデバイス Active JP7125447B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19179214.2A EP3751567B1 (en) 2019-06-10 2019-06-10 A method, a computer program, an encoder and a monitoring device
EP19179214.2 2019-06-10

Publications (2)

Publication Number Publication Date
JP2021006898A JP2021006898A (ja) 2021-01-21
JP7125447B2 true JP7125447B2 (ja) 2022-08-24

Family

ID=66810707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020095195A Active JP7125447B2 (ja) 2019-06-10 2020-06-01 方法、コンピュータプログラム、エンコーダ、及びモニタリングデバイス

Country Status (6)

Country Link
US (1) US11545160B2 (ja)
EP (1) EP3751567B1 (ja)
JP (1) JP7125447B2 (ja)
KR (1) KR102433582B1 (ja)
CN (1) CN112151043B (ja)
TW (1) TWI820333B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009524099A (ja) 2006-01-18 2009-06-25 エルジー エレクトロニクス インコーポレイティド 符号化/復号化装置及び方法
JP2011209733A (ja) 1994-08-10 2011-10-20 Qualcomm Inc 可変レートボコーダのエンコードレート決定方法および装置
JP2018106208A (ja) 2011-07-13 2018-07-05 ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. 音声信号の符号化と復号化の方法および装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5222189A (en) * 1989-01-27 1993-06-22 Dolby Laboratories Licensing Corporation Low time-delay transform coder, decoder, and encoder/decoder for high-quality audio
CA2075156A1 (en) * 1991-08-02 1993-02-03 Kenzo Akagiri Digital encoder with dynamic quantization bit allocation
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
DE69926821T2 (de) 1998-01-22 2007-12-06 Deutsche Telekom Ag Verfahren zur signalgesteuerten Schaltung zwischen verschiedenen Audiokodierungssystemen
US6658382B1 (en) 1999-03-23 2003-12-02 Nippon Telegraph And Telephone Corporation Audio signal coding and decoding methods and apparatus and recording media with programs therefor
US20040083094A1 (en) * 2002-10-29 2004-04-29 Texas Instruments Incorporated Wavelet-based compression and decompression of audio sample sets
CN101246689B (zh) * 2004-09-17 2011-09-14 广州广晟数码技术有限公司 音频编码系统
CN101393741A (zh) 2007-09-19 2009-03-25 中兴通讯股份有限公司 一种宽带音频编解码器中的音频信号分类装置及分类方法
US20100250260A1 (en) * 2007-11-06 2010-09-30 Lasse Laaksonen Encoder
FR2947944A1 (fr) * 2009-07-07 2011-01-14 France Telecom Codage/decodage perfectionne de signaux audionumeriques
US8386266B2 (en) 2010-07-01 2013-02-26 Polycom, Inc. Full-band scalable audio codec
WO2012144128A1 (ja) * 2011-04-20 2012-10-26 パナソニック株式会社 音声音響符号化装置、音声音響復号装置、およびこれらの方法
TWI591620B (zh) * 2012-03-21 2017-07-11 三星電子股份有限公司 產生高頻雜訊的方法
CN103778918B (zh) * 2012-10-26 2016-09-07 华为技术有限公司 音频信号的比特分配的方法和装置
KR101726205B1 (ko) * 2012-11-07 2017-04-12 돌비 인터네셔널 에이비 감소된 복잡성 변환기 snr 계산
US9263054B2 (en) 2013-02-21 2016-02-16 Qualcomm Incorporated Systems and methods for controlling an average encoding rate for speech signal encoding
IL294836A (en) 2013-04-05 2022-09-01 Dolby Int Ab Audio encoder and decoder
US9847087B2 (en) * 2014-05-16 2017-12-19 Qualcomm Incorporated Higher order ambisonics signal compression
US9881619B2 (en) * 2016-03-25 2018-01-30 Qualcomm Incorporated Audio processing for an acoustical environment
US10699721B2 (en) * 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using difference data
US10885921B2 (en) * 2017-07-07 2021-01-05 Qualcomm Incorporated Multi-stream audio coding
US10854209B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Multi-stream audio coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209733A (ja) 1994-08-10 2011-10-20 Qualcomm Inc 可変レートボコーダのエンコードレート決定方法および装置
JP2009524099A (ja) 2006-01-18 2009-06-25 エルジー エレクトロニクス インコーポレイティド 符号化/復号化装置及び方法
JP2018106208A (ja) 2011-07-13 2018-07-05 ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. 音声信号の符号化と復号化の方法および装置

Also Published As

Publication number Publication date
KR20200141379A (ko) 2020-12-18
US20200388290A1 (en) 2020-12-10
EP3751567A1 (en) 2020-12-16
KR102433582B1 (ko) 2022-08-17
US11545160B2 (en) 2023-01-03
TW202105363A (zh) 2021-02-01
JP2021006898A (ja) 2021-01-21
EP3751567B1 (en) 2022-01-26
CN112151043B (zh) 2023-06-16
TWI820333B (zh) 2023-11-01
CN112151043A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
KR100851970B1 (ko) 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
KR100868763B1 (ko) 오디오 신호의 중요 주파수 성분 추출 방법 및 장치와 이를이용한 오디오 신호의 부호화/복호화 방법 및 장치
JP4478183B2 (ja) 音声信号を安定して分類する装置および方法、音声信号データベースを構築して動作させる方法、およびコンピュータプログラム
KR101143724B1 (ko) 부호화 장치 및 부호화 방법, 및 부호화 장치를 구비한 통신 단말 장치 및 기지국 장치
JP5219800B2 (ja) コード化されたオーディオの経済的な音量計測
JP5539203B2 (ja) 改良された音声及びオーディオ信号の変換符号化
JP3762579B2 (ja) デジタル音響信号符号化装置、デジタル音響信号符号化方法及びデジタル音響信号符号化プログラムを記録した媒体
KR20120098755A (ko) 오디오 신호 처리 방법 및 장치
EP1998321A1 (en) Method and apparatus for encoding/decoding a digital signal
KR20090110244A (ko) 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
CN102576535B (zh) 用于确定音频系统的感知质量的方法和系统
EP1596366B1 (en) Digital signal encoding method and apparatus using plural lookup tables
KR101907808B1 (ko) 오디오 신호에서 노이즈를 추산하는 방법, 노이즈 추산기, 오디오 인코더, 오디오 디코더 및 오디오 신호를 전송하는 시스템
JP7125447B2 (ja) 方法、コンピュータプログラム、エンコーダ、及びモニタリングデバイス
WO2019214825A1 (en) Transmission of sensor data from sensor devices
US20030220800A1 (en) Coding multichannel audio signals
WO2007034375A2 (en) Determination of a distortion measure for audio encoding
JPH08204575A (ja) 適応的符号化システム及びビット割当方法
CN110998722B (zh) 低复杂性密集瞬态事件检测和译码
KR20070050035A (ko) 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
KR100590340B1 (ko) 디지털 오디오 부호화 방법 및 장치
CN115641857A (zh) 音频处理方法、装置、电子设备、存储介质及程序产品
KR19980072457A (ko) 오디오 신호의 압축시 심리음향에서의 신호처리방법 및 그 장치
JPH06291670A (ja) ディジタルオーディオ信号の符号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220812

R150 Certificate of patent or registration of utility model

Ref document number: 7125447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150