JP6306718B2 - 欠落データにわたる正弦波内挿 - Google Patents
欠落データにわたる正弦波内挿 Download PDFInfo
- Publication number
- JP6306718B2 JP6306718B2 JP2016544134A JP2016544134A JP6306718B2 JP 6306718 B2 JP6306718 B2 JP 6306718B2 JP 2016544134 A JP2016544134 A JP 2016544134A JP 2016544134 A JP2016544134 A JP 2016544134A JP 6306718 B2 JP6306718 B2 JP 6306718B2
- Authority
- JP
- Japan
- Prior art keywords
- segment
- peak
- spectrum
- interpolation
- peaks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 100
- 238000001228 spectrum Methods 0.000 claims description 60
- 230000005236 sound signal Effects 0.000 claims description 49
- 230000000295 complement effect Effects 0.000 claims description 14
- 230000008439 repair process Effects 0.000 claims description 14
- 230000003595 spectral effect Effects 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000005562 fading Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000009499 grossing Methods 0.000 claims 1
- 238000013459 approach Methods 0.000 description 31
- 238000013213 extrapolation Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
- G06F11/27—Built-in tests
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/051—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Complex Calculations (AREA)
- Noise Elimination (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Description
別例において、コンピュータ実装方法は、前記信号の強度スペクトル(magnitude spectrum)をスムージングすること;スムージング済みスペクトルの局所的傾斜の符号を決定すること;前記局所的傾斜の符号が正から負に変化する地点に基づき前記複数のピークの評価を生成すること:スムージングされていない信号を、対応する評価済みピークの近傍で検索することにより、前記複数のピークの各々の真の位置を決定することとを更に含む。
図面において、同様の参照符号および任意の頭文字は、容易に理解するためおよび便宜のために要素を特定するか、あるいは同様または類似の構造体や機能と作用する。図面は、次の詳細な説明の間に詳細に記載されるであろう。
様々な例および実施形態が開示される。以下に、完全な理解のための特定の詳細およびこれらの例を可能とする記載が開示される。当業者は、しかしながら、ここに開示した1つ以上の実施形態がこれらの詳細の多くを伴うことなく実施可能であることを理解するであろう。同様に、当業者は、本開示の1つ以上の実施形態がここに詳細に開示されない他の多くの明らかな特徴を含むことができると理解するであろう。加えて、いくつかの周知な構造体あるいは機能は、不必要に関連する記載を不明瞭にしないように以下に詳細には示されず、開示されない。
フーリエ変換は複素指数関数の基礎における信号(例えばオーディオ信号)を表す。信号は実在のものであるため、複素指数における拡張は、正弦波における拡張として再構成され得る。従って、スペクトルのピークは、ピーク周波数における正弦波の利得として解釈され得る。フーリエ変換は定常状態の正弦波の点から信号を拡張する(個別のフーリエ変換の場合には、正弦波は有限の時間セグメントにわたって拡張する)が、この分野での通常の拡張は、信号を、連続的に変化する利得および周波数を有する正弦波の和と見なすことにある。ウィンドウ化された信号セグメントに対するフーリエ変換は、正弦波を表す各ピークでこれらの正弦波の状態のおおよそのスナップショットと解釈することができる。このスナップショットにおけるピークからの徐々の強度ロールオフ(これは、スナップショットの有限の分解と更に考えられる)は、有限のウィンドウ長さを使用することによる副作用である。スナップショット間に個別の正弦波を内挿することが続いて可能である。この原理は、ここに開示される1つ以上の実施形態に従う、オーディオ信号の欠落セグメントに対する内挿のための方法およびシステムの基礎の部分を形成する。
ブロック315では、ブロック310で決定されたピークが強度によって順序づけられる(例えば、配列される、リスト化されるなど)。例えば、少なくとも1つの実施形態では、ブロック310で決定されたピークは、リスト形式に配置され、強度の降順または昇順によりソートされる。欠落セグメントの過去の端部および未来の端部のピークが単一のリストに含まれることに注目されるべきである。例えば、ブロック310におけるリストは、ピークが欠落セグメントの過去の端部または未来の端部に属するかどうかの各ピークの情報を含む。
ブロック330では、内挿段階の過去の端部および未来の端部における重畳加算演算により既存のデータを使ってデータがフェード(fade)される。
スペクトル評価およびピーク抽出
正弦波を内挿することができるように、欠落セグメントの両端部(未来の端部および過去の端部)でこれらを検知する必要があるが、外挿はセグメントの過去の端部で検知されている正弦波に依存する。この検知は様々な方法を使用して行われるが、正弦波の知覚的に正確な内挿を促進する正確さによりピーク振幅および周波数を見つけることが重要である。例えば、少なくとも8Hzの周波数分解能は、この目的のためにうまく機能する。
ブロック415では、ピークの最初の評価は、当該傾斜の符号が正から負に変化する地点に基づき生成される。
内挿の例において、欠落信号のセグメントの過去の端部および未来の端部で特定される重要な正弦波は対にされる。少なくとも1つの実施形態では、本開示の方法はピークを順序づけ、続いて最も高いピークから開始して、適切な相補ピークを見つける。最大のピークから開始することは、重大な誤一致の数が少ないことを示す(誤一致があったとしても小さなピークにのみ通常生じる等)。
正弦波の内挿は多様な異なる方法で行われ得る。そこで、以下は、それら異なる内挿アプローチのいくつかの基本原理を概略し、本開示の実施形態において利用される内挿方法の詳細を開示する。
上述した様々な内挿アプローチは、欠落データセグメントの長さを有する所与の区間に対する内挿に焦点を当てた。ここに開示される1つ以上の実施形態において利用される非同期内挿においては、そのような偏移が反響として聴き取られるので、内挿における振幅の偏移を最小化する目的でその区間の長さが調整される。
非同期内挿の上記記載を考慮して、本開示の1つ以上の実施形態では、行われる内挿のレベルは、補間器によって生成される瞬間的波形と既知の信号セグメントから評価される瞬間的波形との整列の測度を最大にするように、内挿区間の範囲から選択される。更に、ここに開示される1つ以上の別例では、内挿区間の範囲は予期されるパケットの紛失と一致するレベルまで受信装置のジッタバッファを満たすように選択される。
(1)整列基準(方程式(7))が通常多くの最小限を有するため、基準に対する検索が行われるべきである。
(3)本開示の非同期内挿方法は、任意の長さのセグメントに対する内挿を備える;観測されるデータおよび欠落セグメントの長さに対するモデルの「合理的な」適合は、もう仮定されない。
Claims (20)
- オーディオ信号の連続性を修復するためのコンピュータ実装方法であって、
オーディオ信号中の欠落セグメントの両対向側にある複数のセグメントのスペクトルを計算すること;
前記計算後のスペクトルのうち強度のあるピークを決定すること;
前記決定された複数のピークを強度によって順序づけること;
前記複数のピークから前記欠落セグメントの対向側における複数の近隣ピークを決定して、複数対のスペクトルピークを形成すること;
前記複数対のスペクトルピークを用いる複素係数内挿を前記オーディオ信号の前記欠落セグメントにわたって行い、前記欠落セグメント用の修復データを生成すること
を含む、コンピュータ実装方法。 - 前記内挿は正弦波内挿である、請求項1に記載の方法。
- 各ピーク対は、前記欠落セグメントの第1側における第1のピークと、前記欠落セグメントの第2側における第2のピークとから構成される、請求項1に記載の方法。
- 最も高いピークで始まる近隣ピークの決定が前記複数のピークの各々について行われる、請求項1に記載の方法。
- 前記欠落セグメントの両対向側にある前記複数のセグメントのデータで前記修復データをフェードすることを更に含む、請求項1に記載の方法。
- 前記修復データは、前記欠落セグメントの両対向側にある前記複数のセグメントのデータで重畳加算演算を使ってフェードされる、請求項5に記載の方法。
- 前記信号に対して高速フーリエ変換を行って、前記信号の周波数領域表現を生成すること;
前記変換後の信号の強度スペクトルをスムージングすること;
スムージング済みスペクトルの局所的傾斜の符号を決定すること;
前記局所的傾斜の符号が正から負に変化する地点に基づき前記複数のピークの評価を生成すること;
スムージングされていない信号を、対応する評価済みピークの近傍で検索することにより、前記複数のピークの各々の真の位置を決定すること
を更に含む、請求項1に記載の方法。 - 前記信号の前記強度スペクトルは、当該スペクトルにローパスフィルタを適用することによってスムージングされる、請求項7に記載の方法。
- 行われる内挿の区間は、補間器によって生成される瞬間的波形と既知の信号セグメントから評価される瞬間的波形との整列の測度を最大にするように、内挿区間の範囲から選択される、請求項1に記載の方法。
- 前記内挿区間の範囲は、予期されるパケット紛失と一致するレベルまで受信装置のジッタバッファを満たすように選択される、請求項9に記載の方法。
- オーディオ信号の連続性を修復するためのコンピュータ実装方法であって、
オーディオ信号中の欠落セグメントの第1側に位置する第1のセグメントのスペクトルおよび前記オーディオ信号中の前記欠落セグメントの第2側に位置する第2のセグメントのスペクトルを計算すること;
前記第1のセグメントおよび前記第2のセグメントのスペクトルにおける、ピークに対応する複数のオブジェクトを特定すること;
特定された複数のオブジェクトを対応するピークの振幅によってソートすること;
ソートされた複数のオブジェクトのインデックスを決定すること;
前記複数のオブジェクトのうちの少なくとも1つに対して、マッチングオブジェクトを特定すること;
前記少なくとも1つのオブジェクト及び前記マッチングオブジェクトを用いる複素係数内挿を前記オーディオ信号の前記欠落セグメントにわたって行い、前記欠落セグメント用の修復データを生成すること
を含む、コンピュータ実装方法。 - マッチングオブジェクトの特定は、前記複数のオブジェクトのうちの前記少なくとも1つについて、ソート済みの複数のオブジェクトのインデックスに従って、最大ピークのオブジェクトから開始して最小ピークのオブジェクトまで続けられる、請求項11に記載の方法。
- 前記第1のセグメントおよび前記第2のセグメントのスペクトルにおける前記複数のオブジェクトを特定することは、オブジェクトリストを生成することを含み、前記第1のセグメントの前記スペクトルおよび前記第2のセグメントの前記スペクトルの両者の各ピークにつき1つのオブジェクトがある、請求項11に記載の方法。
- 前記オブジェクトリストは、当該リスト中の複数のオブジェクトの各々について、対応するピークの振幅、対応するピークが位置する周波数、対応するピークが前記第1のセグメントの前記スペクトルあるいは前記第2のセグメントの前記スペクトルに属するかどうかを示すラベル、および対応するピークが属しているスペクトルに対して相補的なスペクトル中のマッチングピークの位置を含む、請求項13に記載の方法。
- 前記複数のオブジェクトのうちの少なくとも1つに対して、マッチングオブジェクトを特定することは、
一つのオブジェクトについて、他のすべてのオブジェクトに対する検索を行うことにより、マッチングオブジェクトの候補を特定すること;
前記マッチングオブジェクトの候補から、マッチングオブジェクトを既に有するすべてのオブジェクトを取り除くこと;
残りのマッチングオブジェクトの候補の各々について、マッチング基準を評価すること;
残りのマッチングオブジェクトの候補のうちの1つを、前記評価したマッチング基準に基づき、前記オブジェクトに対するマッチングオブジェクトとして選択することを含む、請求項11に記載の方法。 - 残りのマッチングオブジェクトの候補のうちの前記1つは、評価したマッチング基準における最高値を有するマッチングオブジェクトの候補に基づき、前記マッチングオブジェクトとして選択される、請求項15に記載の方法。
- 残りのマッチングオブジェクトの候補を、相補スペクトルからのピークを備えるオブジェクトと、近隣周波数のピークを備えるオブジェクトとに制限することを更に含む、請求項15に記載の方法。
- マッチングオブジェクトの候補のないオブジェクトを特定すること;
そのオブジェクトの周波数と同一の周波数を有するとともにその同一の周波数でゼロ振幅または相補スペクトルの振幅のいずれかを有する仮想ピークを生成すること
を更に含む、請求項15に記載の方法。 - マッチングオブジェクトの候補のないオブジェクトを特定すること;
そのオブジェクトを前記複数のオブジェクトから取り除くことを
更に含む、請求項15に記載の方法。 - オーディオ信号の連続性を修復するためのコンピュータ実装方法であって、
オーディオ信号中の欠落セグメントの両対向側にある複数のセグメントのスペクトルを計算すること;
前記計算後のスペクトルのうち強度のあるピークを決定すること;
前記決定された複数のピークを強度によって順序づけること;
前記複数のピークから前記欠落セグメントの対向側における複数の近隣ピークを決定して、複数対のスペクトルピークを形成すること;
前記オーディオ信号の前記欠落セグメントの区間にわたって内挿を行なうことを含み、その区間の長さは、位相オフセットの振幅に応じて重み付けした位相オフセットの対応する組を整列することに基づいて決定される、コンピュータ実装方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/194,192 | 2014-02-28 | ||
US14/194,192 US9672833B2 (en) | 2014-02-28 | 2014-02-28 | Sinusoidal interpolation across missing data |
PCT/US2015/017992 WO2015131040A1 (en) | 2014-02-28 | 2015-02-27 | Sinusoidal interpolation across missing data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017509006A JP2017509006A (ja) | 2017-03-30 |
JP6306718B2 true JP6306718B2 (ja) | 2018-04-04 |
Family
ID=52686491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016544134A Active JP6306718B2 (ja) | 2014-02-28 | 2015-02-27 | 欠落データにわたる正弦波内挿 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9672833B2 (ja) |
EP (1) | EP3111444B1 (ja) |
JP (1) | JP6306718B2 (ja) |
KR (2) | KR20160102061A (ja) |
CN (1) | CN105940380B (ja) |
AU (1) | AU2015222922B2 (ja) |
BR (1) | BR112016015557B1 (ja) |
WO (1) | WO2015131040A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3107097B1 (en) * | 2015-06-17 | 2017-11-15 | Nxp B.V. | Improved speech intelligilibility |
US9984701B2 (en) * | 2016-06-10 | 2018-05-29 | Apple Inc. | Noise detection and removal systems, and related methods |
CN108922551B (zh) * | 2017-05-16 | 2021-02-05 | 博通集成电路(上海)股份有限公司 | 用于补偿丢失帧的电路及方法 |
CN111640442B (zh) * | 2020-06-01 | 2023-05-23 | 北京猿力未来科技有限公司 | 处理音频丢包的方法、训练神经网络的方法及各自的装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3649765A (en) * | 1969-10-29 | 1972-03-14 | Bell Telephone Labor Inc | Speech analyzer-synthesizer system employing improved formant extractor |
JPH06130998A (ja) * | 1992-10-22 | 1994-05-13 | Oki Electric Ind Co Ltd | 圧縮音声復号化装置 |
US5517595A (en) * | 1994-02-08 | 1996-05-14 | At&T Corp. | Decomposition in noise and periodic signal waveforms in waveform interpolation |
WO1996037964A1 (en) * | 1995-05-22 | 1996-11-28 | Ntt Mobile Communications Network Inc. | Sound decoding device |
US6377915B1 (en) * | 1999-03-17 | 2002-04-23 | Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. | Speech decoding using mix ratio table |
WO2002058053A1 (en) * | 2001-01-22 | 2002-07-25 | Kanars Data Corporation | Encoding method and decoding method for digital voice data |
US7143032B2 (en) * | 2001-08-17 | 2006-11-28 | Broadcom Corporation | Method and system for an overlap-add technique for predictive decoding based on extrapolation of speech and ringinig waveform |
US6747581B2 (en) * | 2002-02-01 | 2004-06-08 | Octiv, Inc. | Techniques for variable sample rate conversion |
US20040002856A1 (en) * | 2002-03-08 | 2004-01-01 | Udaya Bhaskar | Multi-rate frequency domain interpolative speech CODEC system |
KR101008529B1 (ko) * | 2002-12-19 | 2011-01-14 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 오디오 인코딩에서의 정현파 선택 |
KR20050085761A (ko) * | 2002-12-19 | 2005-08-29 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 오디오 인코딩에서의 사인곡선 선택 |
US7519535B2 (en) * | 2005-01-31 | 2009-04-14 | Qualcomm Incorporated | Frame erasure concealment in voice communications |
US8296134B2 (en) * | 2005-05-13 | 2012-10-23 | Panasonic Corporation | Audio encoding apparatus and spectrum modifying method |
US9208821B2 (en) * | 2007-08-06 | 2015-12-08 | Apple Inc. | Method and system to process digital audio data |
CN101437009B (zh) * | 2007-11-15 | 2011-02-02 | 华为技术有限公司 | 丢包隐藏的方法及其系统 |
-
2014
- 2014-02-28 US US14/194,192 patent/US9672833B2/en active Active
-
2015
- 2015-02-27 BR BR112016015557-2A patent/BR112016015557B1/pt active IP Right Grant
- 2015-02-27 WO PCT/US2015/017992 patent/WO2015131040A1/en active Application Filing
- 2015-02-27 KR KR1020167020196A patent/KR20160102061A/ko active Application Filing
- 2015-02-27 AU AU2015222922A patent/AU2015222922B2/en active Active
- 2015-02-27 JP JP2016544134A patent/JP6306718B2/ja active Active
- 2015-02-27 KR KR1020187011991A patent/KR102188620B1/ko active IP Right Grant
- 2015-02-27 EP EP15710664.2A patent/EP3111444B1/en active Active
- 2015-02-27 CN CN201580006162.9A patent/CN105940380B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR102188620B1 (ko) | 2020-12-08 |
AU2015222922B2 (en) | 2017-12-07 |
US9672833B2 (en) | 2017-06-06 |
AU2015222922A1 (en) | 2016-06-23 |
CN105940380B (zh) | 2019-03-15 |
KR20180049182A (ko) | 2018-05-10 |
US20150248893A1 (en) | 2015-09-03 |
BR112016015557A2 (ja) | 2017-10-03 |
EP3111444A1 (en) | 2017-01-04 |
CN105940380A (zh) | 2016-09-14 |
EP3111444B1 (en) | 2020-09-02 |
WO2015131040A1 (en) | 2015-09-03 |
JP2017509006A (ja) | 2017-03-30 |
KR20160102061A (ko) | 2016-08-26 |
BR112016015557B1 (pt) | 2022-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9111526B2 (en) | Systems, method, apparatus, and computer-readable media for decomposition of a multichannel music signal | |
US20130246062A1 (en) | System and Method for Robust Estimation and Tracking the Fundamental Frequency of Pseudo Periodic Signals in the Presence of Noise | |
JP6306718B2 (ja) | 欠落データにわたる正弦波内挿 | |
TR201810148T4 (tr) | Bi̇r ses si̇nyali̇ne yöneli̇k hesaplayici ve faz düzeltme veri̇si̇ni̇n beli̇rlenmesi̇ne yöneli̇k yöntem. | |
Drugman | Residual excitation skewness for automatic speech polarity detection | |
RU2587652C2 (ru) | Способ и устройство для оценки структуры в сигнале | |
Manfredi et al. | Perturbation measurements in highly irregular voice signals: Performances/validity of analysis software tools | |
KR102037691B1 (ko) | 오디오 프레임 손실 은폐 | |
US9646592B2 (en) | Audio signal analysis | |
KR101666521B1 (ko) | 입력 신호의 피치 주기 검출 방법 및 그 장치 | |
US20150371641A1 (en) | Enhanced audio frame loss concealment | |
US8942977B2 (en) | System and method for speech recognition using pitch-synchronous spectral parameters | |
Karantaidis et al. | Assessing spectral estimation methods for electric network frequency extraction | |
US20150162014A1 (en) | Systems and methods for enhancing an audio signal | |
Reddy et al. | Predominant melody extraction from vocal polyphonic music signal by combined spectro-temporal method | |
Kotnik et al. | Noise robust F0 determination and epoch-marking algorithms | |
Govind et al. | Epoch extraction in high pass filtered speech using hilbert envelope | |
JP6502099B2 (ja) | 声門閉鎖時刻推定装置、ピッチマーク時刻推定装置、ピッチ波形接続点推定装置、その方法及びプログラム | |
Kleijn et al. | Sinusoidal interpolation across missing data | |
Esquef | Interpolation of long gaps in audio signals using line spectrum pair polynomials | |
Buza et al. | Algorithm for detection of voice signal periodicity | |
JP6152690B2 (ja) | 音響解析装置 | |
Bartkowiak et al. | Hybrid sinusoidal modeling of music with near transparent audio quality | |
Ghazvini et al. | Pitch period detection using second generation wavelet transform | |
Govind et al. | Speech Polarity Detection Using Hilbert Phase Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6306718 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |