JP5964455B2 - 複数のコーディングモードのための、オーディオ信号を分類する方法および装置 - Google Patents
複数のコーディングモードのための、オーディオ信号を分類する方法および装置 Download PDFInfo
- Publication number
- JP5964455B2 JP5964455B2 JP2014552206A JP2014552206A JP5964455B2 JP 5964455 B2 JP5964455 B2 JP 5964455B2 JP 2014552206 A JP2014552206 A JP 2014552206A JP 2014552206 A JP2014552206 A JP 2014552206A JP 5964455 B2 JP5964455 B2 JP 5964455B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- classifier
- music
- coding mode
- coder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 46
- 238000000034 method Methods 0.000 title claims description 42
- 230000007774 longterm Effects 0.000 claims description 33
- 230000006854 communication Effects 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 23
- 230000000694 effects Effects 0.000 claims description 22
- 230000005284 excitation Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 101000712600 Homo sapiens Thyroid hormone receptor beta Proteins 0.000 description 4
- 101150049692 THR4 gene Proteins 0.000 description 4
- 102100033451 Thyroid hormone receptor beta Human genes 0.000 description 4
- 101000574648 Homo sapiens Retinoid-inducible serine carboxypeptidase Proteins 0.000 description 3
- 102100025483 Retinoid-inducible serine carboxypeptidase Human genes 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/173—Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/81—Detection of presence or absence of voice signals for discriminating voice from music
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
[0001] 本出願は、2012年1月13日に出願された仮特許出願第61/586,374号に対する、米国特許法119条(e)項の利益に基づく優先権を主張する。本仮特許出願は、その全体が参照により本明細書に明確に組み込まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
第1の分類器においてオーディオ信号の一部分を受信することと、
前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類することと、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、第1のコーディングモードを使用して前記スピーチを符号化することと、
前記一部分が前記第1の分類器によって音楽として分類された場合、
前記一部分を第2の分類器に与えることと、
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することと、
前記一部分が前記第2の分類器においてスピーチとして分類された場合、第2のコーディングモードを使用して前記一部分を符号化することと、
前記一部分が前記第2の分類器において音楽として分類された場合、第3のコーディングモードを使用して前記一部分を符号化することとを備える方法。
[C2]
前記オーディオ信号の前記一部分がフレームである、C1に記載の方法。
[C3]
前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、C1に記載の方法。
[C4]
前記第1のスピーチコーダが符号励振線形予測(CELP)型コーダであり、前記第2のスピーチコーダがCELP/変換ハイブリッドコーダであり、前記音楽コーダが変換コーダである、C3に記載の方法。
[C5]
前記一部分を第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとをさらに備える、C1に記載の方法。
[C6]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを備える、C1に記載の方法。
[C7]
音楽の前記特性が音楽のブロードバンド擬似雑音特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、C6に記載の方法。
[C8]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することが、前記一部分の発声を第1のしきい値と比較すること、修正相関を第2のしきい値と比較すること、または長期ピッチ利得を第3のしきい値と比較することのうちの少なくとも1つを備える、C1に記載の方法。
[C9]
前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、C8に記載の方法。
[C10]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを備える、C1に記載の方法。
[C11]
第1の分類器においてオーディオ信号の一部分を受信するための手段と、
前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類するための手段と、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、第1のコーディングモードを使用して前記スピーチを符号化するための手段と、
前記一部分が前記第1の分類器によって音楽として分類されたとき、前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための手段と、
前記一部分が前記第2の分類器においてスピーチとして分類されたとき、第2のコーディングモードを使用して前記一部分を符号化するための手段と、
前記一部分が前記第2の分類器において音楽として分類されたとき、第3のコーディングモードを使用して前記一部分を符号化するための手段とを備える装置。
[C12]
前記オーディオ信号の前記一部分がフレームである、C11に記載の装置。
[C13]
前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、C11に記載の装置。
[C14]
前記第1のスピーチコーダが符号励振線形予測(CELP)型コーダであり、前記第2のスピーチコーダがCELP/変換ハイブリッドコーダであり、前記音楽コーダが変換コーダである、C13に記載の装置。
[C15]
前記一部分を第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとを行うための手段をさらに備える、C11に記載の装置。
[C16]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための前記手段は、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較するための手段を備える、C11に記載の装置。
[C17]
音楽の前記特性が音楽のブロードバンド擬似雑音特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、C16に記載の装置。
[C18]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための前記手段が、前記一部分の発声を第1のしきい値と比較するための手段と、修正相関を第2のしきい値と比較するための手段と、長期ピッチ利得を第3のしきい値と比較するための手段とのうちの少なくとも1つを備える、C11に記載の装置。
[C19]
前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、C18に記載の装置。
[C20]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための前記手段は、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを行うための手段を備える、C11に記載の装置。
[C21]
第1の分類器においてオーディオ信号の一部分を受信することと、
前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類することと、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、第1のコーディングモードを使用して前記スピーチを符号化することと、
前記一部分が前記第1の分類器によって音楽として分類された場合、
前記一部分を第2の分類器に与えることと、
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することと、
前記一部分が前記第2の分類器においてスピーチとして分類された場合、第2のコーディングモードを使用して前記一部分を符号化することと、
前記一部分が前記第2の分類器において音楽として分類された場合、第3のコーディングモードを使用して前記一部分を符号化することとをプロセッサに行わせるためのコンピュータ可読命令を備える非一時的コンピュータ可読媒体。
[C22]
前記オーディオ信号の前記一部分がフレームである、C21に記載のコンピュータ可読媒体。
[C23]
前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、C21に記載のコンピュータ可読媒体。
[C24]
前記第1のスピーチコーダが符号励振線形予測(CELP)型コーダであり、前記第2のスピーチコーダがCELP/変換ハイブリッドコーダであり、前記音楽コーダが変換コーダである、C23に記載のコンピュータ可読媒体。
[C25]
前記一部分を第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとを前記プロセッサに行わせる命令をさらに備える、C21に記載のコンピュータ可読媒体。
[C26]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを備える、C21に記載のコンピュータ可読媒体。
[C27]
音楽の前記特性が音楽のブロードバンド擬似雑音特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、C26に記載のコンピュータ可読媒体。
[C28]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することが、前記一部分の発声を第1のしきい値と比較すること、修正相関を第2のしきい値と比較すること、または長期ピッチ利得を第3のしきい値と比較することのうちの少なくとも1つを備える、C21に記載のコンピュータ可読媒体。
[C29]
前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、C28に記載のコンピュータ可読媒体。
[C30]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを備える、C21に記載のコンピュータ可読媒体。
[C31]
第1の分類器においてオーディオ信号の一部分を受信することと、
前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類することと、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、第1のコーディングモードを使用して前記スピーチを符号化することと、
前記一部分が前記第1の分類器によって音楽として分類された場合、
前記一部分を第2の分類器に与えることと、
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することと、
前記一部分が前記第2の分類器においてスピーチとして分類された場合、第2のコーディングモードを使用して前記一部分を符号化することと、
前記一部分が前記第2の分類器において音楽として分類された場合、第3のコーディングモードを使用して前記一部分を符号化することとを行うように構成されたプロセッサ。
[C32]
前記オーディオ信号の前記一部分がフレームである、C31に記載のプロセッサ。
[C33]
前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、C31に記載のプロセッサ。
[C34]
前記第1のスピーチコーダが符号励振線形予測(CELP)型コーダであり、前記第2のスピーチコーダがCELP/変換ハイブリッドコーダであり、前記音楽コーダが変換コーダである、C33に記載のプロセッサ。
[C35]
前記プロセッサは、前記一部分を第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとを行うようにさらに構成された、C31に記載のプロセッサ。
[C36]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを備える、C31に記載のプロセッサ。
[C37]
音楽の前記特性が音楽のブロードバンド擬似雑音特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、C36に記載のプロセッサ。
[C38]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することが、前記一部分の発声を第1のしきい値と比較すること、修正相関を第2のしきい値と比較すること、または長期ピッチ利得を第3のしきい値と比較することのうちの少なくとも1つを備える、C31に記載のプロセッサ。
[C39]
前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、C38に記載のプロセッサ。
[C40]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを備える、C31に記載のプロセッサ。
[C41]
オーディオ信号の一部分を受信し、前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類し、前記一部分がスピーチとして分類された場合、第1のコーディングモードを使用して前記スピーチを符号化し、前記一部分が音楽として分類された場合、前記一部分を第2の分類器に与える、第1の分類器と、
前記一部分が前記第1の分類器によって音楽として分類された場合、前記一部分をスピーチとしてまたは音楽として分類し、前記一部分が前記第2の分類器においてスピーチとして分類された場合、第2のコーディングモードを使用して前記一部分を符号化し、前記一部分が前記第2の分類器において音楽として分類された場合、第3のコーディングモードを使用して前記一部分を符号化する、前記第2の分類器とを備えるシステム。
[C42]
前記オーディオ信号の前記一部分がフレームである、C41に記載のシステム。
[C43]
前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、C41に記載のシステム。
[C44]
前記第1のスピーチコーダが符号励振線形予測(CELP)型コーダであり、前記第2のスピーチコーダがCELP/変換ハイブリッドコーダであり、前記音楽コーダが変換コーダである、C43に記載のシステム。
[C45]
前記一部分を第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとをさらに備える、C41に記載のシステム。
[C46]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを備える、C41に記載のシステム。
[C47]
音楽の前記特性が音楽のブロードバンド擬似雑音特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、C46に記載のシステム。
[C48]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することが、前記一部分の発声を第1のしきい値と比較すること、修正相関を第2のしきい値と比較すること、または長期ピッチ利得を第3のしきい値と比較することのうちの少なくとも1つを備える、C41に記載のシステム。
[C49]
前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、C48に記載のシステム。
[C50]
前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを備える、C41に記載のシステム。
Claims (36)
- デジタルオーディオデバイス内の第1の分類器においてオーディオ信号の一部分を受信することと、
前記デジタルオーディオデバイスが、前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類することと、
前記オーディオ信号の前記一部分を処理することと、
を備え、ここにおいて、前記オーディオ信号の前記一部分を処理することは、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、前記デジタルオーディオデバイスが、第1のコーディングモードを使用して前記スピーチを符号化すること、または
前記一部分が前記第1の分類器によって音楽として分類された場合、
前記一部分を前記デジタルオーディオデバイス内の第2の分類器に与えることと、
前記デジタルオーディオデバイスが、前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することと、
前記オーディオ信号の前記一部分を符号化することと、
を備え、ここにおいて、前記オーディオ信号の前記一部分を符号化することは、
前記一部分が前記第2の分類器においてスピーチとして分類された場合、前記デジタルオーディオデバイスが、第2のコーディングモードを使用して前記一部分を符号化すること、または
前記一部分が前記第2の分類器において音楽として分類された場合、前記デジタルオーディオデバイスが、第3のコーディングモードを使用して前記一部分を符号化する
こと
を備え、
前記第1のコーディングモードが符号励振線形予測(CELP)型コーダを備え、前記第2のコーディングモードがCELP/変換コーダのハイブリッドを備え、前記第3のコーディングモードが変換コーダを備える、
方法。 - 前記オーディオ信号の前記一部分がフレームである、請求項1に記載の方法。
- 前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、請求項1に記載の方法。
- 前記一部分を前記第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとをさらに備える、請求項1に記載の方法。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを備える、請求項1に記載の方法。
- 音楽の前記特性が音楽のブロードバンド雑音のような特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、請求項5に記載の方法。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することが、前記一部分の発声を第1のしきい値と比較すること、修正相関を第2のしきい値と比較すること、または長期ピッチ利得を第3のしきい値と比較することのうちの少なくとも1つを備える、請求項1に記載の方法。
- 前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、請求項7に記載の方法。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを備える、請求項1に記載の方法。
- デジタルオーディオデバイス内の第1の分類器においてオーディオ信号の一部分を受信するための手段と、
前記デジタルオーディオデバイスが、前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類するための手段と、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、前記デジタルオーディオデバイスが、第1のコーディングモードを使用して前記スピーチを符号化する、または、前記一部分が前記第1の分類器によって音楽として分類されたとき、前記デジタルオーディオデバイスが、第2の分類器において前記一部分をスピーチとしてまたは音楽として分類する、ための手段と、
前記一部分が前記第2の分類器においてスピーチとして分類されたとき、前記デジタルオーディオデバイスが、第2のコーディングモードを使用して前記一部分を符号化する、または、前記一部分が前記第2の分類器において音楽として分類されたとき、前記デジタルオーディオデバイスが、第3のコーディングモードを使用して前記一部分を符号化する、ための手段と
を備え、
前記第1のコーディングモードが符号励振線形予測(CELP)型コーダを備え、前記第2のコーディングモードがCELP/変換コーダのハイブリッドを備え、前記第3のコーディングモードが変換コーダを備える、
装置。 - 前記オーディオ信号の前記一部分がフレームである、請求項10に記載の装置。
- 前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、請求項10に記載の装置。
- 前記一部分を前記第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとを行うための手段をさらに備える、請求項10に記載の装置。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための前記手段は、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較するための手段を備える、請求項10に記載の装置。
- 音楽の前記特性が音楽のブロードバンド雑音のような特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、請求項14に記載の装置。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための前記手段が、前記一部分の発声を第1のしきい値と比較するための手段と、修正相関を第2のしきい値と比較するための手段と、長期ピッチ利得を第3のしきい値と比較するための手段とのうちの少なくとも1つを備える、請求項10に記載の装置。
- 前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、請求項16に記載の装置。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類するための前記手段は、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを行うための手段を備える、請求項10に記載の装置。
- デジタルオーディオデバイス内の第1の分類器においてオーディオ信号の一部分を受信することと、
前記デジタルオーディオデバイスが、前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音として分類することと、
前記オーディオ信号の前記一部分を処理することと、
をプロセッサに行わせるためのコンピュータ可読命令を備え、ここにおいて、前記オーディオ信号の前記一部分を処理することは、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、前記デジタルオーディオデバイスが、第1のコーディングモードを使用して前記スピーチを符号化すること、または、
前記一部分が前記第1の分類器によって音楽として分類された場合、
前記一部分を前記デジタルオーディオデバイス内の第2の分類器に与えることと、
前記デジタルオーディオデバイスが、前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することと、
前記オーディオ信号の前記一部分を符号化することと、
を備え、ここにおいて、前記オーディオ信号の前記一部分を符号化することは、
前記一部分が前記第2の分類器においてスピーチとして分類された場合、前記デジタルオーディオデバイスが、第2のコーディングモードを使用して前記一部分を符号化すること、または、
前記一部分が前記第2の分類器において音楽として分類された場合、前記デジタルオーディオデバイスが、第3のコーディングモードを使用して前記一部分を符号化すること
を備え、
前記第1のコーディングモードが符号励振線形予測(CELP)型コーダを備え、前記第2のコーディングモードがCELP/変換コーダのハイブリッドを備え、前記第3のコーディングモードが変換コーダを備える、
非一時的コンピュータ可読媒体。 - 前記オーディオ信号の前記一部分がフレームである、請求項19に記載のコンピュータ可読媒体。
- 前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、請求項19に記載のコンピュータ可読媒体。
- 前記一部分を前記第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとを前記プロセッサに行わせる命令をさらに備える、請求項19に記載のコンピュータ可読媒体。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを備える、請求項19に記載のコンピュータ可読媒体。
- 音楽の前記特性が音楽のブロードバンド雑音のような特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、請求項23に記載のコンピュータ可読媒体。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することが、前記一部分の発声を第1のしきい値と比較すること、修正相関を第2のしきい値と比較すること、または長期ピッチ利得を第3のしきい値と比較することのうちの少なくとも1つを備える、請求項19に記載のコンピュータ可読媒体。
- 前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、請求項25に記載のコンピュータ可読媒体。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することは、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを備える、請求項19に記載のコンピュータ可読媒体。
- 装置であって、
プロセッサと、
前記プロセッサと電子通信するメモリと、
前記メモリ内に記憶された命令と
を備え、前記命令は、
デジタルオーディオデバイス内の第1の分類器においてオーディオ信号の一部分を受信することと、
前記デジタルオーディオデバイスが、前記第1の分類器において前記オーディオ信号の前記一部分をスピーチとしてまたは音楽として分類することと、
前記オーディオ信号の前記一部分を処理することと、
を前記プロセッサによって実行可能であり、ここにおいて、前記オーディオ信号の前記一部分を処理することは、
前記一部分が前記第1の分類器によってスピーチとして分類された場合、前記デジタルオーディオデバイスが、第1のコーディングモードを使用して前記スピーチを符号化すること、または、
前記一部分が前記第1の分類器によって音楽として分類された場合、
前記一部分を前記デジタルオーディオデバイス内の第2の分類器に与えることと、
前記デジタルオーディオデバイスが、前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することと、
前記オーディオ信号の前記一部分を符号化することと、
を備え、ここにおいて、前記オーディオ信号の前記一部分を符号化することは、
前記一部分が前記第2の分類器においてスピーチとして分類された場合、前記デジタルオーディオデバイスが第2のコーディングモードを使用して前記一部分を符号化すること、または、
前記一部分が前記第2の分類器において音楽として分類された場合、前記デジタルオーディオデバイスが第3のコーディングモードを使用して前記一部分を符号化すること
を備え、
前記第1のコーディングモードが符号励振線形予測(CELP)型コーダを備え、前記第2のコーディングモードがCELP/変換コーダのハイブリッドを備え、前記第3のコーディングモードが変換コーダを備える、
装置。 - 前記オーディオ信号の前記一部分がフレームである、請求項28に記載の装置。
- 前記第1のコーディングモードが第1のスピーチコーダを備え、前記第2のコーディングモードが第2のスピーチコーダを備え、前記第3のコーディングモードが音楽コーダを備える、請求項28に記載の装置。
- 前記命令はまた、前記一部分を前記第2の分類器に与えるより前に、前記第2の分類器が有効にされるかどうかを判断することと、前記第2の分類器が有効にされない場合、前記第3のコーディングモードを用いて前記一部分を符号化することとを実行可能である、請求項28に記載の装置。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することを実行可能である前記命令は、前記一部分が音楽の特性を有するか有声スピーチの特性を有するかを分類するために、前記一部分の複数の特徴を1つまたは複数のしきい値と比較することを実行可能である命令を備える、請求項28に記載の装置。
- 音楽の前記特性が音楽のブロードバンド雑音のような特性を備え、有声スピーチの前記特性が、有声スピーチの音特性または有声スピーチの準定常特性のうちの少なくとも1つを備える、請求項32に記載の装置。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することを実行可能である前記命令は、前記一部分の発声を第1のしきい値と比較することを実行可能である命令と、修正相関を第2のしきい値と比較することを実行可能である命令と、または長期ピッチ利得を第3のしきい値と比較することを実行可能である命令と、のうちの少なくとも1つを備える、請求項28に記載の装置。
- 前記発声が、スピーチとの無相関に対応する0から、スピーチとの高相関に対応する1にわたり、前記修正相関が、ランダム雑音に対応する0から、高度に構造化されたサウンドに対応する1にわたり、前記長期ピッチ利得が、過去の励起と現在の予測残差との間の正規化相互相関であり、前記長期ピッチ利得は、過去の部分の誤差が現在の部分を表すのに十分でないことを示す0から、前記過去の部分の残余誤差を使用することが前記現在の部分を完全に表すことができることを示す1にわたる、請求項34に記載の装置。
- 前記第2の分類器において前記一部分をスピーチとしてまたは音楽として分類することを実行可能である前記命令は、前記一部分中に信号アクティビティがあるかどうかを判断することと、信号アクティビティがない場合、符号化すべき有用な信号がないと判断することと、前記一部分をスピーチとして符号化することとを実行可能である命令を備える、
請求項28に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261586374P | 2012-01-13 | 2012-01-13 | |
US61/586,374 | 2012-01-13 | ||
US13/722,669 | 2012-12-20 | ||
US13/722,669 US9111531B2 (en) | 2012-01-13 | 2012-12-20 | Multiple coding mode signal classification |
PCT/US2012/071217 WO2013106192A1 (en) | 2012-01-13 | 2012-12-21 | Multiple coding mode signal classification |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015507222A JP2015507222A (ja) | 2015-03-05 |
JP2015507222A5 JP2015507222A5 (ja) | 2015-11-26 |
JP5964455B2 true JP5964455B2 (ja) | 2016-08-03 |
Family
ID=48780608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552206A Active JP5964455B2 (ja) | 2012-01-13 | 2012-12-21 | 複数のコーディングモードのための、オーディオ信号を分類する方法および装置 |
Country Status (12)
Country | Link |
---|---|
US (1) | US9111531B2 (ja) |
EP (1) | EP2803068B1 (ja) |
JP (1) | JP5964455B2 (ja) |
KR (2) | KR20140116487A (ja) |
CN (1) | CN104040626B (ja) |
BR (1) | BR112014017001B1 (ja) |
DK (1) | DK2803068T3 (ja) |
ES (1) | ES2576232T3 (ja) |
HU (1) | HUE027037T2 (ja) |
IN (1) | IN2014MN01588A (ja) |
SI (1) | SI2803068T1 (ja) |
WO (1) | WO2013106192A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9589570B2 (en) * | 2012-09-18 | 2017-03-07 | Huawei Technologies Co., Ltd. | Audio classification based on perceptual quality for low or medium bit rates |
KR102561265B1 (ko) * | 2012-11-13 | 2023-07-28 | 삼성전자주식회사 | 부호화 모드 결정방법 및 장치, 오디오 부호화방법 및 장치와, 오디오 복호화방법 및 장치 |
CN106409310B (zh) | 2013-08-06 | 2019-11-19 | 华为技术有限公司 | 一种音频信号分类方法和装置 |
CN104424956B9 (zh) | 2013-08-30 | 2022-11-25 | 中兴通讯股份有限公司 | 激活音检测方法和装置 |
CN110992965B (zh) * | 2014-02-24 | 2024-09-03 | 三星电子株式会社 | 信号分类方法和装置以及使用其的音频编码方法和装置 |
PL3594948T3 (pl) * | 2014-05-08 | 2021-08-30 | Telefonaktiebolaget Lm Ericsson (Publ) | Klasyfikator sygnału audio |
CN107424621B (zh) * | 2014-06-24 | 2021-10-26 | 华为技术有限公司 | 音频编码方法和装置 |
CN104143335B (zh) | 2014-07-28 | 2017-02-01 | 华为技术有限公司 | 音频编码方法及相关装置 |
US9886963B2 (en) * | 2015-04-05 | 2018-02-06 | Qualcomm Incorporated | Encoder selection |
CN104867492B (zh) * | 2015-05-07 | 2019-09-03 | 科大讯飞股份有限公司 | 智能交互系统及方法 |
KR102398124B1 (ko) | 2015-08-11 | 2022-05-17 | 삼성전자주식회사 | 음향 데이터의 적응적 처리 |
US10186276B2 (en) * | 2015-09-25 | 2019-01-22 | Qualcomm Incorporated | Adaptive noise suppression for super wideband music |
US10902043B2 (en) | 2016-01-03 | 2021-01-26 | Gracenote, Inc. | Responding to remote media classification queries using classifier models and context parameters |
WO2017117234A1 (en) * | 2016-01-03 | 2017-07-06 | Gracenote, Inc. | Responding to remote media classification queries using classifier models and context parameters |
JP6996185B2 (ja) * | 2017-09-15 | 2022-01-17 | 富士通株式会社 | 発話区間検出装置、発話区間検出方法及び発話区間検出用コンピュータプログラム |
CN116149499B (zh) * | 2023-04-18 | 2023-08-11 | 深圳雷柏科技股份有限公司 | 用于鼠标的多模式切换控制电路及切换控制方法 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR9206143A (pt) * | 1991-06-11 | 1995-01-03 | Qualcomm Inc | Processos de compressão de final vocal e para codificação de taxa variável de quadros de entrada, aparelho para comprimir im sinal acústico em dados de taxa variável, codificador de prognóstico exitado por córdigo de taxa variável (CELP) e descodificador para descodificar quadros codificados |
US5778335A (en) | 1996-02-26 | 1998-07-07 | The Regents Of The University Of California | Method and apparatus for efficient multiband celp wideband speech and music coding and decoding |
US6493665B1 (en) * | 1998-08-24 | 2002-12-10 | Conexant Systems, Inc. | Speech classification and parameter weighting used in codebook search |
US7072832B1 (en) * | 1998-08-24 | 2006-07-04 | Mindspeed Technologies, Inc. | System for speech encoding having an adaptive encoding arrangement |
US7272556B1 (en) * | 1998-09-23 | 2007-09-18 | Lucent Technologies Inc. | Scalable and embedded codec for speech and audio signals |
US6691084B2 (en) * | 1998-12-21 | 2004-02-10 | Qualcomm Incorporated | Multiple mode variable rate speech coding |
JP2000267699A (ja) * | 1999-03-19 | 2000-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 音響信号符号化方法および装置、そのプログラム記録媒体、および音響信号復号装置 |
EP1959434B1 (en) * | 1999-08-23 | 2013-03-06 | Panasonic Corporation | Speech encoder |
US6604070B1 (en) * | 1999-09-22 | 2003-08-05 | Conexant Systems, Inc. | System of encoding and decoding speech signals |
US6625226B1 (en) * | 1999-12-03 | 2003-09-23 | Allen Gersho | Variable bit rate coder, and associated method, for a communication station operable in a communication system |
US6697776B1 (en) * | 2000-07-31 | 2004-02-24 | Mindspeed Technologies, Inc. | Dynamic signal detector system and method |
US6694293B2 (en) | 2001-02-13 | 2004-02-17 | Mindspeed Technologies, Inc. | Speech coding system with a music classifier |
US6785645B2 (en) | 2001-11-29 | 2004-08-31 | Microsoft Corporation | Real-time speech and music classifier |
US6829579B2 (en) * | 2002-01-08 | 2004-12-07 | Dilithium Networks, Inc. | Transcoding method and system between CELP-based speech codes |
US7657427B2 (en) * | 2002-10-11 | 2010-02-02 | Nokia Corporation | Methods and devices for source controlled variable bit-rate wideband speech coding |
US7363218B2 (en) * | 2002-10-25 | 2008-04-22 | Dilithium Networks Pty. Ltd. | Method and apparatus for fast CELP parameter mapping |
FI118834B (fi) * | 2004-02-23 | 2008-03-31 | Nokia Corp | Audiosignaalien luokittelu |
AU2004319556A1 (en) * | 2004-05-17 | 2005-11-24 | Nokia Corporation | Audio encoding with different coding frame lengths |
US8010350B2 (en) | 2006-08-03 | 2011-08-30 | Broadcom Corporation | Decimated bisectional pitch refinement |
CN1920947B (zh) * | 2006-09-15 | 2011-05-11 | 清华大学 | 用于低比特率音频编码的语音/音乐检测器 |
CN101197130B (zh) * | 2006-12-07 | 2011-05-18 | 华为技术有限公司 | 声音活动检测方法和声音活动检测器 |
KR100964402B1 (ko) * | 2006-12-14 | 2010-06-17 | 삼성전자주식회사 | 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치 |
KR100883656B1 (ko) | 2006-12-28 | 2009-02-18 | 삼성전자주식회사 | 오디오 신호의 분류 방법 및 장치와 이를 이용한 오디오신호의 부호화/복호화 방법 및 장치 |
CN101226744B (zh) * | 2007-01-19 | 2011-04-13 | 华为技术有限公司 | 语音解码器中实现语音解码的方法及装置 |
KR100925256B1 (ko) * | 2007-05-03 | 2009-11-05 | 인하대학교 산학협력단 | 음성 및 음악을 실시간으로 분류하는 방법 |
CN101393741A (zh) * | 2007-09-19 | 2009-03-25 | 中兴通讯股份有限公司 | 一种宽带音频编解码器中的音频信号分类装置及分类方法 |
CN101399039B (zh) * | 2007-09-30 | 2011-05-11 | 华为技术有限公司 | 一种确定非噪声音频信号类别的方法及装置 |
CN101221766B (zh) * | 2008-01-23 | 2011-01-05 | 清华大学 | 音频编码器切换的方法 |
CA2716817C (en) | 2008-03-03 | 2014-04-22 | Lg Electronics Inc. | Method and apparatus for processing audio signal |
CN101236742B (zh) * | 2008-03-03 | 2011-08-10 | 中兴通讯股份有限公司 | 音乐/非音乐的实时检测方法和装置 |
US8768690B2 (en) * | 2008-06-20 | 2014-07-01 | Qualcomm Incorporated | Coding scheme selection for low-bit-rate applications |
WO2010003521A1 (en) | 2008-07-11 | 2010-01-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method and discriminator for classifying different segments of a signal |
EP2144230A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme having cascaded switches |
KR101261677B1 (ko) * | 2008-07-14 | 2013-05-06 | 광운대학교 산학협력단 | 음성/음악 통합 신호의 부호화/복호화 장치 |
CN101751920A (zh) * | 2008-12-19 | 2010-06-23 | 数维科技(北京)有限公司 | 基于再次分类的音频分类装置及其实现方法 |
CN101814289A (zh) * | 2009-02-23 | 2010-08-25 | 数维科技(北京)有限公司 | 低码率dra数字音频多声道编码方法及其系统 |
JP5519230B2 (ja) * | 2009-09-30 | 2014-06-11 | パナソニック株式会社 | オーディオエンコーダ及び音信号処理システム |
CN102237085B (zh) * | 2010-04-26 | 2013-08-14 | 华为技术有限公司 | 音频信号的分类方法及装置 |
WO2012109734A1 (en) | 2011-02-15 | 2012-08-23 | Voiceage Corporation | Device and method for quantizing the gains of the adaptive and fixed contributions of the excitation in a celp codec |
-
2012
- 2012-12-20 US US13/722,669 patent/US9111531B2/en active Active
- 2012-12-21 WO PCT/US2012/071217 patent/WO2013106192A1/en active Application Filing
- 2012-12-21 KR KR1020147022400A patent/KR20140116487A/ko active Application Filing
- 2012-12-21 KR KR1020177000172A patent/KR20170005514A/ko not_active Application Discontinuation
- 2012-12-21 CN CN201280066779.6A patent/CN104040626B/zh active Active
- 2012-12-21 BR BR112014017001-0A patent/BR112014017001B1/pt active IP Right Grant
- 2012-12-21 DK DK12810018.7T patent/DK2803068T3/en active
- 2012-12-21 HU HUE12810018A patent/HUE027037T2/en unknown
- 2012-12-21 JP JP2014552206A patent/JP5964455B2/ja active Active
- 2012-12-21 ES ES12810018.7T patent/ES2576232T3/es active Active
- 2012-12-21 SI SI201230593A patent/SI2803068T1/sl unknown
- 2012-12-21 IN IN1588MUN2014 patent/IN2014MN01588A/en unknown
- 2012-12-21 EP EP12810018.7A patent/EP2803068B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
SI2803068T1 (sl) | 2016-07-29 |
EP2803068B1 (en) | 2016-04-13 |
BR112014017001A2 (pt) | 2017-06-13 |
EP2803068A1 (en) | 2014-11-19 |
JP2015507222A (ja) | 2015-03-05 |
KR20170005514A (ko) | 2017-01-13 |
IN2014MN01588A (ja) | 2015-05-08 |
KR20140116487A (ko) | 2014-10-02 |
WO2013106192A1 (en) | 2013-07-18 |
ES2576232T3 (es) | 2016-07-06 |
BR112014017001A8 (pt) | 2017-07-04 |
HUE027037T2 (en) | 2016-08-29 |
US20130185063A1 (en) | 2013-07-18 |
CN104040626A (zh) | 2014-09-10 |
US9111531B2 (en) | 2015-08-18 |
BR112014017001B1 (pt) | 2020-12-22 |
DK2803068T3 (en) | 2016-05-23 |
CN104040626B (zh) | 2017-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5964455B2 (ja) | 複数のコーディングモードのための、オーディオ信号を分類する方法および装置 | |
US9875752B2 (en) | Voice profile management and speech signal generation | |
JP5905608B2 (ja) | 背景雑音の存在下でのボイスアクティビティ検出 | |
JP6058824B2 (ja) | パーソナライズされた帯域幅拡張 | |
US8924222B2 (en) | Systems, methods, apparatus, and computer-readable media for coding of harmonic signals | |
JP6377862B2 (ja) | エンコーダ選択 | |
KR101615421B1 (ko) | 유사한 사운드 환경 내의 모바일 디바이스들을 식별하는 방법 및 장치 | |
JP6373873B2 (ja) | 線形予測コーディングにおける適応型フォルマントシャープニングのためのシステム、方法、装置、及びコンピュータによって読み取り可能な媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151006 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20151006 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20151104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5964455 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |