JP6058824B2 - パーソナライズされた帯域幅拡張 - Google Patents
パーソナライズされた帯域幅拡張 Download PDFInfo
- Publication number
- JP6058824B2 JP6058824B2 JP2015558081A JP2015558081A JP6058824B2 JP 6058824 B2 JP6058824 B2 JP 6058824B2 JP 2015558081 A JP2015558081 A JP 2015558081A JP 2015558081 A JP2015558081 A JP 2015558081A JP 6058824 B2 JP6058824 B2 JP 6058824B2
- Authority
- JP
- Japan
- Prior art keywords
- bandwidth extension
- speaker
- end station
- narrowband
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012549 training Methods 0.000 claims description 83
- 238000000034 method Methods 0.000 claims description 75
- 238000004891 communication Methods 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 15
- 238000003786 synthesis reaction Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 6
- 238000013507 mapping Methods 0.000 description 27
- 230000005284 excitation Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 24
- 230000005540 biological transmission Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 11
- 230000003595 spectral effect Effects 0.000 description 10
- 235000019800 disodium phosphate Nutrition 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 101000574648 Homo sapiens Retinoid-inducible serine carboxypeptidase Proteins 0.000 description 3
- 102100025483 Retinoid-inducible serine carboxypeptidase Human genes 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/22—Arrangements for supervision, monitoring or testing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M9/00—Arrangements for interconnection not involving centralised switching
- H04M9/08—Two-way loud-speaking telephone systems with means for conditioning the signal, e.g. for suppressing echoes for one or both directions of traffic
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Mobile Radio Communication Systems (AREA)
Description
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
帯域幅拡張のための方法であって、
識別された話者のデータで帯域幅拡張モデルを生成することと、
前記識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行することと
を備える、方法。
[C2]
前記帯域幅拡張モデルは、前記識別された話者の前記データでパーソナライズされる、C1に記載の方法。
[C3]
前記帯域幅拡張モデルは、話者導出可能な情報に基づく、C1に記載の方法。
[C4]
前記帯域幅拡張モデルを生成することは、前記識別された話者の前記データで前記帯域幅拡張モデルをトレーニングすることを備える、C1に記載の方法。
[C5]
前記帯域幅拡張モデルを生成することは、前記話者を識別することと、前記話者のボイスデータから広帯域の特徴を抽出することを備える、C1に記載の方法。
[C6]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出することは、広帯域呼の遠端局で前記広帯域の特徴を抽出することを備える、C5に記載の方法。
[C7]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出することは、呼の近端局で前記広帯域の特徴を抽出することを備える、C5に記載の方法。
[C8]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出することは、オフライン移動局で前記広帯域の特徴を抽出することを備える、C5に記載の方法。
[C9]
前記狭帯域呼上で帯域幅拡張を実行することは、
前記話者を識別することと、
記憶装置から前記話者に関連付けられた前記帯域幅拡張トレーニングモデルを取り出すことと、
前記狭帯域呼から狭帯域の特徴を抽出することと、
前記抽出された狭帯域の特徴と組み合わせられた前記帯域幅拡張トレーニングモデルを使用して広帯域音声合成を実行することと
を備える、C1に記載の方法。
[C10]
前記広帯域音声合成を実行した後で、広帯域音声を出力することをさらに備える、C9に記載の方法。
[C11]
広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、C1に記載の方法。
[C12]
帯域幅拡張のための装置であって、
識別された話者のデータで帯域幅拡張モデルを生成するための手段と、
前記識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行するための手段と
を備える、装置。
[C13]
前記帯域幅拡張モデルは、前記識別された話者の前記データでパーソナライズされる、C12に記載の装置。
[C14]
前記帯域幅拡張モデルは、話者導出可能な情報に基づく、C12に記載の装置。
[C15]
前記帯域幅拡張モデルを生成するための前記手段は、前記識別された話者の前記データで前記帯域幅拡張モデルをトレーニングするための手段を備える、C12に記載の装置。
[C16]
前記帯域幅拡張モデルを生成するための前記手段は、前記話者を識別するための手段と、前記話者のボイスデータから広帯域の特徴を抽出するための手段を備える、C12に記載の装置。
[C17]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出するための前記手段は、広帯域呼の遠端局で前記広帯域の特徴を抽出するための手段を備える、C16に記載の装置。
[C18]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出するための前記手段は、呼の近端局で前記広帯域の特徴を抽出するための手段を備える、C16に記載の装置。
[C19]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出するための前記手段は、オフライン移動局で前記広帯域の特徴を抽出するための手段を備える、C16に記載の装置。
[C20]
前記狭帯域呼上で帯域幅拡張を実行するための前記手段は、
前記話者を識別するための手段と、
記憶装置から前記話者に関連付けられた前記帯域幅拡張トレーニングモデルを取り出すための手段と、
前記狭帯域呼から狭帯域の特徴を抽出するための手段と、
前記抽出された狭帯域の特徴と組み合わせられた前記帯域幅拡張トレーニングモデルを使用して広帯域音声合成を実行するための手段と
を備える、C12に記載の装置。
[C21]
前記広帯域音声合成を実行した後で、広帯域音声を出力するための手段をさらに備える、C20に記載の装置。
[C22]
広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、C12に記載の装置。
[C23]
コンピュータに、
識別された話者のデータで帯域幅拡張モデルを生成させ、
前記識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行させる命令を備える、コンピュータ可読媒体。
[C24]
前記帯域幅拡張モデルは、前記識別された話者の前記データでパーソナライズされる、C23に記載のコンピュータ可読媒体。
[C25]
前記帯域幅拡張モデルは、話者導出可能な情報に基づく、C23に記載のコンピュータ可読媒体。
[C26]
前記コンピュータに、前記帯域幅拡張モデルを生成させる前記命令は、前記コンピュータに、前記識別された話者の前記データで前記帯域幅拡張モデルをトレーニングさせる命令を備える、C23に記載のコンピュータ可読媒体。
[C27]
前記コンピュータに、前記帯域幅拡張モデルを生成させる前記命令は、前記コンピュータに、前記話者を識別させ、前記話者のボイスデータから広帯域の特徴を抽出させる命令を備える、C23に記載のコンピュータ可読媒体。
[C28]
前記コンピュータに、前記話者の前記ボイスデータから前記広帯域の特徴を抽出させる前記命令は、前記コンピュータに、広帯域呼の遠端局で前記広帯域の特徴を抽出させる命令を備える、C27に記載のコンピュータ可読媒体。
[C29]
前記コンピュータに、前記話者の前記ボイスデータから前記広帯域の特徴を抽出させる前記命令は、前記コンピュータに、呼の近端局で前記広帯域の特徴を抽出させる命令を備える、C27に記載のコンピュータ可読媒体。
[C30]
前記コンピュータに、前記話者の前記ボイスデータから前記広帯域の特徴を抽出させる前記命令は、前記コンピュータに、オフライン移動局で前記広帯域の特徴を抽出させる命令を備える、C27に記載のコンピュータ可読媒体。
[C31]
前記コンピュータに、前記狭帯域呼上で帯域幅拡張を実行させる前記命令は、前記コンピュータに、
前記話者を識別させ、
記憶装置から前記話者に関連付けられた前記帯域幅拡張トレーニングモデルを取り出させ、
前記狭帯域呼から狭帯域の特徴を抽出させ、
前記抽出された狭帯域の特徴と組み合わせられた前記帯域幅拡張トレーニングモデルを使用して広帯域音声合成を実行させる命令を備える、C23に記載のコンピュータ可読媒体。
[C32]
前記コンピュータに、前記広帯域音声合成を実行した後で、広帯域音声を出力させる命令をさらに備える、C31に記載のコンピュータ可読媒体。
[C33]
広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、C23に記載のコンピュータ可読媒体。
[C34]
帯域幅拡張のためのシステムであって、
識別された話者のデータで帯域幅拡張モデルを生成するように適応されたトレーニングモジュールと、
前記識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行するためのプロセッサと
を備える、システム。
[C35]
前記帯域幅拡張モデルは、前記識別された話者の前記データでパーソナライズされる、C34に記載のシステム。
[C36]
前記帯域幅拡張モデルは、話者導出可能な情報に基づく、C34に記載のシステム。
[C37]
前記トレーニングモジュールは、前記識別された話者の前記データで前記帯域幅拡張モデルをトレーニングするように適応される、C34に記載のシステム。
[C38]
前記話者を識別し、前記話者のボイスデータから広帯域の特徴を抽出するように適応された特徴抽出モジュールをさらに備える、C34に記載のシステム。
[C39]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出することは、広帯域呼の遠端局で前記広帯域の特徴を抽出することを備える、C38に記載のシステム。
[C40]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出することは、呼の近端局で前記広帯域の特徴を抽出することを備える、C38に記載のシステム。
[C41]
前記話者の前記ボイスデータから前記広帯域の特徴を抽出することは、オフライン移動局で前記広帯域の特徴を抽出することを備える、C38に記載のシステム。
[C42]
前記プロセッサは、前記話者を識別し、記憶装置から前記話者に関連付けられた前記帯域幅拡張トレーニングモデルを取り出すように適応され、
前記狭帯域呼から狭帯域の特徴を抽出するように適応された特徴抽出モジュールと、
前記抽出された狭帯域の特徴と組み合わせられた前記帯域幅拡張トレーニングモデルを使用して広帯域音声合成を実行するように適応された音声シンセサイザと
をさらに備える、C34に記載のシステム。
[C43]
前記プロセッサは、前記帯域幅音声合成を実行した後で、広帯域音声をさらに出力するように適応される、C42に記載のシステム。
[C44]
広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、C34に記載のシステム。
Claims (32)
- 近端局から遠端局に送信された信号の帯域幅拡張のための方法であって、
前記遠端局において、前記近端局から送信された広帯域信号を受信することと、
前記遠端局において、前記近端局から帯域幅拡張モデルを受信することと、
識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行することと、ここにおいて、前記狭帯域呼におけるボイスデータからの狭帯域の特徴が抽出され、前記識別された話者のパーソナライズされた広帯域の特徴に前記帯域幅拡張モデルを使用してマッピングされる、
を備える、方法。 - 前記帯域幅拡張モデルは、前記識別された話者のデータでパーソナライズされる、請求項1に記載の方法。
- 前記帯域幅拡張モデルは、話者導出可能な情報に基づく、請求項1に記載の方法。
- 前記帯域幅拡張モデルを生成することは、前記識別された話者のデータで前記帯域幅拡張モデルをトレーニングすることを備える、請求項1に記載の方法。
- 前記帯域幅拡張モデルを生成することは、前記話者を識別することと、前記広帯域信号から広帯域の特徴を抽出することを備える、請求項1に記載の方法。
- 前記狭帯域呼上で帯域幅拡張を実行することは、
前記話者を識別することと、
記憶装置から前記話者に関連付けられた前記帯域幅拡張モデルを取り出すことと、
を備える、請求項1に記載の方法。 - 広帯域音声合成を実行した後で、広帯域音声を出力することをさらに備える、請求項6に記載の方法。
- 広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、請求項1に記載の方法。
- 近端局から遠端局に送信された信号の帯域幅拡張のための装置であって、
前記遠端局において、前記近端局から送信された広帯域信号を受信するための手段と、
前記近端局から帯域幅拡張モデルを受信するための手段と、
識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行するための手段と、ここにおいて、前記狭帯域呼におけるボイスデータからの狭帯域の特徴が抽出され、前記識別された話者のパーソナライズされた広帯域の特徴に前記帯域幅拡張モデルを使用してマッピングされる、
を備える、装置。 - 前記帯域幅拡張モデルは、前記識別された話者のデータでパーソナライズされる、請求項9に記載の装置。
- 前記帯域幅拡張モデルは、話者導出可能な情報に基づく、請求項9に記載の装置。
- 前記帯域幅拡張モデルを生成するための前記手段は、前記識別された話者のデータで前記帯域幅拡張モデルをトレーニングするための手段を備える、請求項9に記載の装置。
- 前記帯域幅拡張モデルを生成するための前記手段は、前記話者を識別するための手段と、前記広帯域信号から広帯域の特徴を抽出するための手段を備える、請求項9に記載の装置。
- 前記狭帯域呼上で帯域幅拡張を実行するための前記手段は、
前記話者を識別するための手段と、
記憶装置から前記話者に関連付けられた前記帯域幅拡張モデルを取り出すための手段と、
を備える、請求項9に記載の装置。 - 広帯域音声合成を実行した後で、広帯域音声を出力するための手段をさらに備える、請求項14に記載の装置。
- 広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、請求項9に記載の装置。
- 近端局から遠端局に送信された信号の帯域幅拡張を実行するための命令を備える非一時的なコンピュータ可読媒体であって、前記命令は、コンピュータに、
前記遠端局において、前記近端局から送信された広帯域信号を受信させ、
前記近端局から帯域幅拡張モデルを受信させ、
識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行させる、ここにおいて、前記狭帯域呼におけるボイスデータからの狭帯域の特徴が抽出され、前記識別された話者のパーソナライズされた広帯域の特徴に前記帯域幅拡張モデルを使用してマッピングされる、
コンピュータ可読媒体。 - 前記帯域幅拡張モデルは、前記識別された話者のデータでパーソナライズされる、請求項17に記載のコンピュータ可読媒体。
- 前記帯域幅拡張モデルは、話者導出可能な情報に基づく、請求項17に記載のコンピュータ可読媒体。
- 前記コンピュータに、前記帯域幅拡張モデルを生成させる前記命令は、前記コンピュータに、前記識別された話者のデータで前記帯域幅拡張モデルをトレーニングさせる命令を備える、請求項17に記載のコンピュータ可読媒体。
- 前記コンピュータに、前記帯域幅拡張モデルを生成させる前記命令は、前記コンピュータに、前記話者を識別させ、前記広帯域信号から広帯域の特徴を抽出させる命令を備える、請求項17に記載のコンピュータ可読媒体。
- 前記コンピュータに、前記狭帯域呼上で帯域幅拡張を実行させる前記命令は、前記コンピュータに、
前記話者を識別させ、
記憶装置から前記話者に関連付けられた前記帯域幅拡張モデルを取り出させる
命令を備える、請求項17に記載のコンピュータ可読媒体。 - 前記コンピュータに、広帯域音声合成を実行した後で、広帯域音声を出力させる命令をさらに備える、請求項22に記載のコンピュータ可読媒体。
- 広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、請求項17に記載のコンピュータ可読媒体。
- 通信の近端局から遠端局に送信された信号の帯域幅拡張のためのシステムであって、
前記遠端局において、前記近端局から送信された広帯域信号および帯域幅拡張モデルを受信するように適応された受信機と、
識別された話者を含む狭帯域呼上で前記帯域幅拡張モデルを使用して帯域幅拡張を実行するためのプロセッサと、ここにおいて、前記狭帯域呼におけるボイスデータからの狭帯域の特徴が抽出され、前記識別された話者のパーソナライズされた広帯域の特徴に前記帯域幅拡張モデルを使用してマッピングされる、
を備える、システム。 - 前記帯域幅拡張モデルは、前記識別された話者のデータでパーソナライズされる、請求項25に記載のシステム。
- 前記帯域幅拡張モデルは、話者導出可能な情報に基づく、請求項25に記載のシステム。
- トレーニングモジュールは、前記識別された話者のデータで前記帯域幅拡張モデルをトレーニングするように適応される、請求項25に記載のシステム。
- 前記話者を識別し、前記広帯域信号から広帯域の特徴を抽出するように適応された特徴抽出モジュールをさらに備える、請求項25に記載のシステム。
- 前記プロセッサは、前記話者を識別し、記憶装置から前記話者に関連付けられた前記帯域幅拡張モデルを取り出すように適応される、
請求項25に記載のシステム。 - 前記プロセッサは、広帯域音声合成を実行した後で、広帯域音声をさらに出力するように適応される、請求項30に記載のシステム。
- 広帯域が利用不可能であり、前記呼が狭帯域上で行なわれる場合、前記狭帯域呼上で帯域幅拡張を実行することが、アクティベートされる、請求項25に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/768,946 US9319510B2 (en) | 2013-02-15 | 2013-02-15 | Personalized bandwidth extension |
US13/768,946 | 2013-02-15 | ||
PCT/US2014/015852 WO2014126933A1 (en) | 2013-02-15 | 2014-02-11 | Personalized bandwidth extension |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016510133A JP2016510133A (ja) | 2016-04-04 |
JP2016510133A5 JP2016510133A5 (ja) | 2016-07-21 |
JP6058824B2 true JP6058824B2 (ja) | 2017-01-11 |
Family
ID=50346086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015558081A Expired - Fee Related JP6058824B2 (ja) | 2013-02-15 | 2014-02-11 | パーソナライズされた帯域幅拡張 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9319510B2 (ja) |
EP (1) | EP2956939B1 (ja) |
JP (1) | JP6058824B2 (ja) |
KR (1) | KR20150119151A (ja) |
CN (1) | CN104981871B (ja) |
WO (1) | WO2014126933A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007052778A1 (ja) * | 2005-11-02 | 2007-05-10 | Buhei Kono | 有機物や無機物の反応を促進する方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517610B (zh) * | 2013-09-26 | 2018-03-06 | 华为技术有限公司 | 频带扩展的方法及装置 |
US9953634B1 (en) * | 2013-12-17 | 2018-04-24 | Knowles Electronics, Llc | Passive training for automatic speech recognition |
KR101701623B1 (ko) * | 2015-07-09 | 2017-02-13 | 라인 가부시키가이샤 | VoIP 통화음성 대역폭 감소를 은닉하는 시스템 및 방법 |
JP2019008206A (ja) * | 2017-06-27 | 2019-01-17 | 日本放送協会 | 音声帯域拡張装置、音声帯域拡張統計モデル学習装置およびそれらのプログラム |
US20190051286A1 (en) * | 2017-08-14 | 2019-02-14 | Microsoft Technology Licensing, Llc | Normalization of high band signals in network telephony communications |
CN107886966A (zh) * | 2017-10-30 | 2018-04-06 | 捷开通讯(深圳)有限公司 | 终端及其优化语音命令的方法、存储装置 |
CN110232909A (zh) * | 2018-03-02 | 2019-09-13 | 北京搜狗科技发展有限公司 | 一种音频处理方法、装置、设备及可读存储介质 |
CN111132037B (zh) * | 2019-12-02 | 2022-04-08 | 南京云巅电子科技有限公司 | 基于uwb技术的工业现场通讯系统及方法 |
CN112562702B (zh) * | 2020-11-30 | 2022-12-13 | 哈尔滨工程大学 | 基于循环帧序列门控循环单元网络的语音超分辨率方法 |
EP4303873A1 (en) | 2022-07-04 | 2024-01-10 | GN Audio A/S | Personalized bandwidth extension |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6144244A (en) * | 1999-01-29 | 2000-11-07 | Analog Devices, Inc. | Logarithmic amplifier with self-compensating gain for frequency range extension |
DE10041512B4 (de) * | 2000-08-24 | 2005-05-04 | Infineon Technologies Ag | Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen |
SE522553C2 (sv) * | 2001-04-23 | 2004-02-17 | Ericsson Telefon Ab L M | Bandbreddsutsträckning av akustiska signaler |
US7174135B2 (en) * | 2001-06-28 | 2007-02-06 | Koninklijke Philips Electronics N. V. | Wideband signal transmission system |
US8438026B2 (en) * | 2004-02-18 | 2013-05-07 | Nuance Communications, Inc. | Method and system for generating training data for an automatic speech recognizer |
DE602005001048T2 (de) * | 2005-01-31 | 2008-01-03 | Harman Becker Automotive Systems Gmbh | Erweiterung der Bandbreite eines schmalbandigen Sprachsignals |
US20070005351A1 (en) * | 2005-06-30 | 2007-01-04 | Sathyendra Harsha M | Method and system for bandwidth expansion for voice communications |
US20080300866A1 (en) * | 2006-05-31 | 2008-12-04 | Motorola, Inc. | Method and system for creation and use of a wideband vocoder database for bandwidth extension of voice |
ES2400661T3 (es) * | 2009-06-29 | 2013-04-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codificación y decodificación de extensión de ancho de banda |
JP2011090031A (ja) * | 2009-10-20 | 2011-05-06 | Oki Electric Industry Co Ltd | 音声帯域拡張装置及びプログラム、並びに、拡張用パラメータ学習装置及びプログラム |
US8484020B2 (en) * | 2009-10-23 | 2013-07-09 | Qualcomm Incorporated | Determining an upperband signal from a narrowband signal |
US8447617B2 (en) * | 2009-12-21 | 2013-05-21 | Mindspeed Technologies, Inc. | Method and system for speech bandwidth extension |
WO2011116820A1 (en) * | 2010-03-25 | 2011-09-29 | Nokia Siemens Networks Oy | Bandwidth extension usage optimization |
WO2013066244A1 (en) * | 2011-11-03 | 2013-05-10 | Telefonaktiebolaget L M Ericsson (Publ) | Bandwidth extension of audio signals |
US8909539B2 (en) * | 2011-12-07 | 2014-12-09 | Gwangju Institute Of Science And Technology | Method and device for extending bandwidth of speech signal |
-
2013
- 2013-02-15 US US13/768,946 patent/US9319510B2/en active Active
-
2014
- 2014-02-11 EP EP14712062.0A patent/EP2956939B1/en not_active Not-in-force
- 2014-02-11 KR KR1020157024776A patent/KR20150119151A/ko not_active Application Discontinuation
- 2014-02-11 JP JP2015558081A patent/JP6058824B2/ja not_active Expired - Fee Related
- 2014-02-11 CN CN201480007157.5A patent/CN104981871B/zh not_active Expired - Fee Related
- 2014-02-11 WO PCT/US2014/015852 patent/WO2014126933A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007052778A1 (ja) * | 2005-11-02 | 2007-05-10 | Buhei Kono | 有機物や無機物の反応を促進する方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140233725A1 (en) | 2014-08-21 |
EP2956939A1 (en) | 2015-12-23 |
CN104981871B (zh) | 2018-01-02 |
JP2016510133A (ja) | 2016-04-04 |
CN104981871A (zh) | 2015-10-14 |
WO2014126933A1 (en) | 2014-08-21 |
KR20150119151A (ko) | 2015-10-23 |
US9319510B2 (en) | 2016-04-19 |
EP2956939B1 (en) | 2017-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6058824B2 (ja) | パーソナライズされた帯域幅拡張 | |
JP5964455B2 (ja) | 複数のコーディングモードのための、オーディオ信号を分類する方法および装置 | |
JP5905608B2 (ja) | 背景雑音の存在下でのボイスアクティビティ検出 | |
KR102317296B1 (ko) | 음성 프로파일 관리 및 스피치 신호 생성 | |
KR101615421B1 (ko) | 유사한 사운드 환경 내의 모바일 디바이스들을 식별하는 방법 및 장치 | |
CN106663430B (zh) | 使用用户指定关键词的说话者不相依关键词模型的关键词检测 | |
CN106409313B (zh) | 一种音频信号分类方法和装置 | |
JP5819435B2 (ja) | モバイルデバイスのロケーションを決定するための方法および装置 | |
JP5813789B2 (ja) | 環境音を認識するためのシステムおよび方法 | |
JP2017535809A (ja) | サウンド検出モデルを生成するためのサウンドサンプル検証 | |
Lee et al. | Intra‐and Inter‐frame Features for Automatic Speech Recognition | |
WO2012121856A1 (en) | Sound recognition method and system | |
CN104078049B (zh) | 信号处理设备和信号处理方法 | |
WO2024082928A1 (zh) | 语音处理方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160531 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160531 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160531 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6058824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |