JP6763194B2 - 符号化装置、復号装置、通信システム - Google Patents

符号化装置、復号装置、通信システム Download PDF

Info

Publication number
JP6763194B2
JP6763194B2 JP2016094625A JP2016094625A JP6763194B2 JP 6763194 B2 JP6763194 B2 JP 6763194B2 JP 2016094625 A JP2016094625 A JP 2016094625A JP 2016094625 A JP2016094625 A JP 2016094625A JP 6763194 B2 JP6763194 B2 JP 6763194B2
Authority
JP
Japan
Prior art keywords
unit
band
signal
component
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016094625A
Other languages
English (en)
Other versions
JP2017203844A (ja
Inventor
亮 神野
亮 神野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016094625A priority Critical patent/JP6763194B2/ja
Priority to US15/481,874 priority patent/US10056093B2/en
Publication of JP2017203844A publication Critical patent/JP2017203844A/ja
Application granted granted Critical
Publication of JP6763194B2 publication Critical patent/JP6763194B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0012Smoothing of parameters of the decoder interpolation

Description

本発明は、帯域拡張技術に関し、特に音声の帯域を拡張する符号化装置、復号装置、通信システムに関する。
通信システムにおける音声信号の品質を改善するために、送信側において、音声信号の周波数上限および周波数下限を規定する通過帯域内に閾値周波数が規定され、閾値周波数未満の周波数の音声信号は圧縮されない。一方、閾値周波数より高い周波数の音声信号は、閾値周波数から通過帯域の周波数上限の範囲内に圧縮して送信される。受信側において、圧縮された音声信号は拡張されるとともに、圧縮されていない音声信号に基づいて高調波情報が生成され、拡張した音声信号に対して、高調波情報に基づいて適切な高調波が追加される(例えば、特許文献1参照)。
特表2008−537174号公報
低周波数を実質的に圧縮させずに残す一方で、閾値周波数より高い周波数に対して、強度な圧縮が適用される場合、受信側で拡張せずに圧縮されたまま再生されると、音声の品質や明瞭度が低下しうる。音声の品質や明瞭度を改善するためには、話者や言語に合わせた受信側でのイコライザ処理が必要となり、都度の調整がなされるべきである。帯域外の音声を再現する場合、受信した音声を解析しなければならないので、高度な音声信号処理によって処理負荷が増加したり、遅延処理によってスピーカ出力が遅れたり、不必要な信号の生成によって違和感のある音声が再生されたりする。
本発明はこうした状況に鑑みてなされたものであり、その目的は、音声の品質や明瞭度を改善する技術を提供することである。
上記課題を解決するために、本発明のある態様の符号化装置は、音声信号を入力する入力部と、入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、第1符号化部において生成した第1符号化信号と第2符号化部において生成した第2符号化信号とを出力する出力部と、を備える。出力部が出力するフレームフォーマットは、ヘッダー部と、ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、音声通信を行っていることを示すメッセージの制御コードは、ヘッダー部と制御チャネル部に配置され、第2符号化信号を出力する場合には、ヘッダー部を除く制御チャネル部の制御コードに変えて、第2符号化信号を配置する
本発明の別の態様もまた、符号化装置である。この装置は、音声信号を入力する入力部と、入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、第1符号化部において生成した第1符号化信号と、第2符号化部において生成した第2符号化信号とを出力する出力部と、を備える。出力部が出力するフレームフォーマットは、ヘッダー部と、ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、音声通信を行っていることを示すメッセージの制御コードは、ヘッダー部と制御チャネル部に配置され、音声通信を行っていることを示すメッセージの制御コードは、ヘッダー部と制御チャネル部に配置され、第2符号化信号を出力する場合には、音声チャネル部の一部を第2符号化信号に置き換え、ヘッダー部を除く制御チャネル部に、音声チャネル部に第2符号化信号を配置されたことにより配置できなかった第1符号化音声信号と第2符号化信号とを配置する。
本発明のさらに別の態様は、復号装置である。この装置は、音声信号における第1帯域の成分を符号化した第1符号化信号と、音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトして符号化した第2符号化信号とを復号する複合装置であって、復号する信号のフレームフォーマットは、ヘッダー部と、ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、音声通信を行っていることを示すメッセージの制御コードが、ヘッダー部と制御チャネル部に配置され、音声チャネル部に配置された第1符号化信号を復号することによって第1帯域の第1音声成分を生成する第1復号部と、ヘッダー部を除く制御チャネル部の制御コードに変えて、音声チャネル部に配置されている場合に第2符号化信号を復号することによって第1帯域の第2音声成分を生成する第2復号部と、第2復号部において生成した第2音声成分を第2帯域に周波数シフトする周波数シフト部と、第1復号部において生成した第1音声成分と周波数シフト部において周波数シフトした第2音声成分とを合成して出力する合成部と、を備える。
本発明のさらに別の態様は、通信システムである。この通信システムは、符号化装置と、復号装置とを備える。符号化装置は、音声信号を入力する入力部と、入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、第1符号化部において生成した第1符号化信号と第2符号化部において生成した第2符号化信号とを出力する出力部とを備える。出力部が通信するフレームフォーマットは、ヘッダー部と、ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、音声通信を行っていることを示すメッセージの制御コードは、ヘッダー部と制御チャネル部に配置され、第2符号化信号を出力する場合には、ヘッダー部を除く制御チャネル部の制御コードに変えて、第2符号化信号を配置される。復号装置は、第1符号化信号を復号することによって第1帯域の第1音声成分を生成する第1復号部と、第2符号化信号を復号することによって第1帯域の第2音声成分を生成する第2復号部と、第2復号部において生成した第2音声成分を第2帯域に周波数シフトする周波数シフト部と、第1復号部において生成した第1音声成分と周波数シフト部において周波数シフトした第2音声成分とを合成して出力する合成部と、を備える。
本発明のさらに別の態様は、通信システムである。この通信システムは、符号化装置と、復号装置とを備える。符号化装置は、音声信号を入力する入力部と、入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、第1符号化部において生成した第1符号化信号と第2符号化部において生成した第2符号化信号とを出力する出力部とを備える。出力部が通信するフレームフォーマットは、ヘッダー部と、ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、音声通信を行っていることを示すメッセージの制御コードは、ヘッダー部と制御チャネル部に配置され、音声通信を行っていることを示すメッセージの制御コードは、ヘッダー部と制御チャネル部に配置され、第2符号化信号を出力する場合には、音声チャネル部の一部を第2符号化信号に置き換え、ヘッダー部を除く制御チャネル部に、音声チャネル部に第2符号化信号を配置されたことにより配置できなかった第1符号化音声信号と第2符号化信号とが配置される。復号装置は、第1符号化信号を復号することによって第1帯域の第1音声成分を生成する第1復号部と、第2符号化信号を復号することによって第1帯域の第2音声成分を生成する第2復号部と、第2復号部において生成した第2音声成分を第2帯域に周波数シフトする周波数シフト部と、第1復号部において生成した第1音声成分と周波数シフト部において周波数シフトした第2音声成分とを合成して出力する合成部と、を備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、音声の品質や明瞭度を改善できる。
本発明の実施例1に係る通信システムの構成を示す図である。 図1の符号化装置の構成を示す図である。 図1の通信システムと比較される別の通信システムにおいて使用される信号のフォーマットを示す図である。 図1の通信システムにおいて使用される信号のフォーマットを示す図である。 図1の通信システムにおいて使用される信号の別のフォーマットを示す図である。 図1の復号装置の構成を示す図である。 図2の符号化装置による出力手順を示すフローチャートである。 図7の帯域内符号化処理の手順を示すフローチャートである。 図7の帯域外符号化処理の手順を示すフローチャートである。 図6の復号装置による合成手順を示すフローチャートである。 図10の帯域内復号処理の手順を示すフローチャートである。 図10の帯域外復号処理の手順を示すフローチャートである。 図1の符号化装置の別の構成を示す図である。 図1の復号装置の別の構成を示す図である。 本発明の実施例2に係る符号化装置の構成を示す図である。 本発明の実施例2に係る復号装置の構成を示す図である。
(実施例1)
本発明を具体的に説明する前に、まず概要を述べる。本発明の実施例1は、送信装置から受信装置に音声信号を送信する通信システムに関する。通信システムがデジタル方式の無線通信システムである場合、音声信号の送信のためにボコーダ方式を使用する場合が多い。ボコーダ方式は、通信用の音声圧縮技術である。送信装置は、音声の波形を直接送信のではなくパラメータ化して送信し、受信装置は、受信したパラメータから元の音声を合成する。
このようなボコーダ方式では、一般的に、ナイキスト周波数以上の周波数成分が除去される。例えば、デジタル業務用無線システムの標準規格であるNXDN(登録商標)では、ボコーダ方式として「AMBE(登録商標)+2」が使用されるが、AMBE+2においてサンプリング周波数は8kHzに設定されるので、4kHzで帯域制限がなされる。4kHz以上の音声が失われる場合、音質および明瞭度が低下するおそれがある。音質や明瞭度を改善するためには、受信装置で高域を強調するイコライザ処理や、高度な信号処理での帯域拡張が必要となる。また、4kHz以上の音声を再現する場合には、受信した音声の解析が必要となるので、前述のごとく、高度な音声信号処理による処理負荷の増加や、遅延処理によるスピーカ出力の遅れ、または不必要な信号まで生成してしまうことによる違和感のある音声の再生が生じる。
このような状況下において、簡易に音質や明瞭度を改善するために、本実施例に係る送信装置は、音声信号のうちの0〜4kHzの成分をボコーダ符号化するとともに、4〜8kHzの成分を0〜4kHzに周波数シフトしてからボコーダ符号化する。一方、受信装置は、後者のボコーダ符号化信号をボコーダ復号してから4〜8kHzに周波数シフトするとともに、これと、0〜4kHzのボコーダ符号化信号のボコーダ復号結果と合成することによって、0〜8kHzの音声を再生する。
図1は、実施例1に係る通信システム100の構成を示す。通信システム100は、送信装置10、受信装置12を含む。送信装置10は、マイクロフォン20、IF部22、符号化装置24、送信部26を含み、受信装置12は、受信部30、復号装置32、IF部34、スピーカ36を含む。なお、送信装置10と受信装置12は、端末装置のような無線装置あるいは通信装置に含まれているが、ここでは、説明を明瞭にするために、端末装置の送信機能に相当する送信装置10と、端末装置の受信機能に相当する受信装置12のみを示す。また、端末装置は直接接続されていなくてもよく、例えば、基地局装置を介して接続されてもよい。
マイクロフォン20は、発話者の発した音声を入力し、これを電気信号に変換する。マイクロフォン20は、電気信号に変換した音声(以下、「音声信号」という)をIF部22に出力する。IF部22は、マイクロフォン20からの音声信号を入力し、音声信号を符号化装置24に出力する。その際、IF部22は、音声信号に対して任意の処理を実行してもよい。符号化装置24は、IF部22からの音声信号を入力し、音声信号をボコーダ符号化することによって、第1符号化信号と第2符号化信号とを生成する。第1符号化信号と第2符号化信号の詳細は後述する。符号化装置24は、第1符号化信号と第2符号化信号とを送信部26に出力する。送信部26は、符号化装置24からの第1符号化信号と第2符号化信号とを入力し、これらが含められた無線信号を送信する。送信部26は、例えば、NXDNのようなデジタル業務用無線システムに対応する。
受信部30は、送信部26からの無線信号を受信する。受信部30は、無線信号から第1符号化信号と第2符号化信号とを取得し、第1符号化信号と第2符号化信号とを復号装置32に出力する。復号装置32は、第1符号化信号と第2符号化信号とをボコーダ復号することによって、音声信号を生成する。復号装置32は、音声信号をIF部34に出力する。IF部34は、復号装置32からの音声信号を入力し、音声信号をスピーカ36に出力する。その際、IF部34は、音声信号に対して、IF部22での処理に対応した処理を実行してもよい。スピーカ36は、IF部34からの音声信号を入力し、音声信号を音声に変換して出力する。
図2は、符号化装置24の構成を示す。符号化装置24は、入力部40、デシメーション部42と総称される第1デシメーション部42a、第2デシメーション部42b、第3デシメーション部42c、周波数シフト部44、符号化部46と総称される第1符号化部46a、第2符号化部46b、出力部48を含む。
入力部40は、図示しないIF部22からの音声信号を入力する。入力した音声信号のサンプリング周波数は、例えば48kHzである。入力部40は、音声信号を第1デシメーション部42a、第2デシメーション部42bに出力する。
第1デシメーション部42aは、入力部40からの音声信号を入力する。第1デシメーション部42aは、音声信号に対して、48kHzのサンプリング周波数を8kHzにダウンサンプリングする。ダウンサンプリングした音声信号には、0〜4kHzの帯域内の音声成分が含まれる。ここでは、0〜4kHzを第1帯域ともいうので、0〜4kHzの帯域内の音声成分は、第1帯域の成分ともいえる。第1デシメーション部42aは、ダウンサンプリングした音声信号(以下、これもまた「音声信号」という)、つまり第1帯域の成分を第1符号化部46aに出力する。
第1符号化部46aは、第1デシメーション部42aからの音声信号、つまり第1帯域の成分を入力する。第1符号化部46aは、第1帯域の成分をボコーダ符号化する。その際、ボコーダ処理サンプリング周波数は8kHzである。第1符号化部46aは、ボコーダ符号化した第1帯域の成分(以下、「第1符号化信号」という)を出力部48に出力する。
第2デシメーション部42bは、入力部40からの音声信号を入力する。第2デシメーション部42bは、音声信号に対して、48kHzのサンプリング周波数を16kHzにダウンサンプリングする。ここでは8kHzの帯域外の音声成分を扱うために、16kHzまでのダウンサンプリングとしている。第2デシメーション部42bは、ダウンサンプリングした音声信号(以下、これもまた「音声信号」という)を周波数シフト部44に出力する。
周波数シフト部44は、第2デシメーション部42bからの音声信号を入力する。周波数シフト部44は、音声信号に含まれた4〜8kHzの音声成分を0〜4kHzに周波数シフトする。これは、4〜8kHzという帯域外の音声成分を0〜4kHzの帯域内に周波数シフトすることに相当する。ここでは、4〜8kHzを第2帯域ともいうので、周波数シフト部44は、音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトするともいえる。これは、後述の第2符号化部46bにおいて処理可能な帯域幅が4kHzまでとされているので、帯域外の高域を周波数シフトして第2符号化部46bで処理するためである。なお、第2帯域の帯域幅は第1帯域の帯域幅と同一である。周波数シフト部44は、周波数シフトした音声信号(以下、これもまた「音声信号」という)、つまり第1帯域に周波数シフトした第2帯域の成分(以下、これもまた「第2帯域の成分」という)を第3デシメーション部42cに出力する。
第3デシメーション部42cは、周波数シフト部44からの音声信号を入力する。第3デシメーション部42cは、音声信号に対して、16kHzのサンプリング周波数を8kHzにダウンサンプリングする。第3デシメーション部42cは、ダウンサンプリングした音声信号(以下、これもまた「音声信号」という)を第2符号化部46bに出力する。なお、出力される音声信号にも、第2帯域の成分が含まれる。
第2符号化部46bは、第3デシメーション部42cからの音声信号、つまり第2帯域の成分を入力する。第2符号化部46bは、第2帯域の成分をボコーダ符号化する。その際、ボコーダ処理サンプリング周波数は8kHzである。第2符号化部46bは、ボコーダ符号化した第2帯域の成分(以下、「第2符号化信号」という)を出力部48に出力する。
出力部48は、第1符号化部46aからの第1符号化信号と、第2符号化部46bからの第2符号化信号とを入力し、第1符号化信号と第2符号化信号とを出力する。特に、出力部48は、図示しない送信部26が信号を送信する際の順番、つまり無線通信チャネルのフレームで定められた順番に出力順を切り替えながら、第1符号化信号と第2符号化信号とを出力する。
ここでは、これを説明する前に比較対象として、NXDN 9600bps(Half Rate)システムでの音声通信時の無線通信チャネル(RTCH)におけるフレームフォーマットの図3を使用ながら説明する。図3は、通信システム100と比較される別の通信システムにおいて使用される信号のフォーマットを示す。ここで、「FS」はフレーム同期ワードを示し、「LI」はリンク情報チャネルを示し、「SA」は低速付随制御チャネルを示し、「VCH」は音声チャネルを示し、「FA」は高速付随制御チャネル1(FACCH1)を示す。この場合、第1符号化信号がVCHに格納される。一方、第2符号化信号は格納されないので送信されない。図2に戻る。
次に、第2符号化信号を格納するための2種類のフォーマットを説明するが、いずれが使用されもよい。1つ目のフォーマットに対応させるために、出力部48は、第1符号化信号と第2符号化信号とを交互に出力する。図4は、通信システム100において使用される信号のフォーマットを示す。ここで、「VCH(拡張)」は、拡張された音声チャネルを示し、第2符号化信号を格納する。図4では、図3において「VCH」と「FA」が配置されていた領域に、「VCH」と「VCH(拡張)」とが配置される。つまり、図4では、「FA」が含まれない。通話が開始された後、一般的に「FA」には、例えばアイドル情報や音声通信を行っていることを示すメッセージといった制御コードが含まれているだけなので、このような制御コードが送信されなくても通話は影響を受けない。そのため、「FA」を送信する代わりに、「VCH(拡張)」が送信される。特に、VCHとVCH(拡張)とが交互に配置される。
この場合、VCH、VCH(拡張)、VCH、VCH(拡張)の順に配置されるので、連続したVCHとVCH(拡張)の組合せが1つの音声信号となる。そのため、受信装置12は、VCHのボコーダ復号を行うことによって、帯域内の音声成分を取得してから、VCH(拡張)のボコーダ復号を行うことによって、帯域外の音声成分を連続的に取得する。さらに、受信装置12は、VCHのボコーダ復号結果とVCH(拡張)のボコーダ復号結果とを合成して再生するので、ボコーダ復号結果の順番の調節が不要になり、処理が簡易になる。
2つ目のフォーマットに対応させるために、出力部48は、複数の第1符号化信号を連続して出力してから、複数の第2符号化信号を連続して出力する。図5は、通信システム100において使用される信号の別のフォーマットを示す。図5では、図3「FA」が配置されていた領域に「VCH(拡張)」がそのまま配置される。この場合、図3のフォーマットのみに対応している受信装置が図5のフレームフォーマットの信号を受信しても、VCH(拡張)を破棄すればよいだけであるので、VCHのボコーダ復号は実行される。つまり、通信に影響はなく互換性は保たれる。
この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
図6は、復号装置32の構成を示す。復号装置32は、入力部60、復号部62と総称される第1復号部62a、第2復号部62b、インタポレーション部64と総称される第1インタポレーション部64a、第2インタポレーション部64b、第3インタポレーション部64c、遅延部66、周波数シフト部68、合成部70を含む。
入力部60は、図示しない受信部30からの第1符号化信号と第2符号化信号とを入力する。受信部30において受信した信号のフォーマットが図4に対応する場合、入力部60は、第1符号化信号と第2符号化信号とを交互に入力する。一方、受信部30において受信した信号のフォーマットが図5に対応する場合、入力部60は、複数の第1符号化信号を連続して入力してから、複数の第2符号化信号を連続して入力する。入力した第1符号化信号と第2符号化信号のサンプリング周波数は、例えば8kHzである。入力部60は、第1符号化信号を第1復号部62aに出力し、第2符号化信号を第2復号部62bに出力する。
第1復号部62aは、入力部60からの第1符号化信号を入力する。第1復号部62aは、第1符号化信号をボコーダ復号する。その際、ボコーダ処理サンプリング周波数は8kHzである。第1復号部62aは、ボコーダ復号した第1符号化信号(以下、「第1音声成分」という)を第1インタポレーション部64aに出力する。第1音声成分は、0〜4kHzの帯域内の音声成分であり、第1帯域の音声成分である。また、第1音声成分は、8kHzのサンプリング周波数を有した音声信号に含まれるので、当該音声信号が第1インタポレーション部64aに出力されるともいえる。
第1インタポレーション部64aは、第1復号部62aからの音声信号、つまり第1音声成分を入力する。第1インタポレーション部64aは、音声信号に対して、8kHzのサンプリング周波数を48kHzにアップサンプリングする。アップサンプリングした音声信号にも、第1帯域の第1音声成分が含まれる。第1インタポレーション部64aは、アップサンプリングした音声信号(以下、これもまた「音声信号」という)、つまり第1音声成分を遅延部66に出力する。
遅延部66は、第1インタポレーション部64aからの音声信号、つまり第1音声成分を入力する。遅延部66は、図4あるいは図5に示されたフォーマットに応じた期間だけ、音声信号を遅延させる。遅延部66は、遅延させた音声信号(以下、これもまた「音声信号」という)、つまり第1音声成分を合成部70に出力する。
第2復号部62bは、入力部60からの第2符号化信号を入力する。第2復号部62bは、第2符号化信号をボコーダ復号する。その際、ボコーダ処理サンプリング周波数は8kHzである。第2復号部62bは、ボコーダ復号した第2符号化信号(以下、「第2音声成分」という)を第2インタポレーション部64bに出力する。第2音声成分は、4〜8kHzという帯域外の音声成分であり、第2帯域の音声成分である。ここで、第2音声成分は、0〜4kHzの帯域、つまり第1帯域に周波数シフトされている。また、第2音声成分は、8kHzのサンプリング周波数を有した音声信号に含まれるので、当該音声信号が第2インタポレーション部64bに出力されるともいえる。
第2インタポレーション部64bは、第2復号部62bからの音声信号、つまり第2音声成分を入力する。第2インタポレーション部64bは、音声信号に対して、8kHzのサンプリング周波数を16kHzにアップサンプリングする。アップサンプリングした音声信号にも、第1帯域の第2音声成分が含まれる。第2インタポレーション部64bは、アップサンプリングした音声信号(以下、これもまた「音声信号」という)、つまり第2音声成分を周波数シフト部68に出力する。
周波数シフト部68は、第2インタポレーション部64bからの音声信号、つまり第2音声成分を入力する。周波数シフト部68は、音声信号に含まれた0〜4kHzの第2音声成分を4〜8kHzに周波数シフトする。これは、0〜4kHzの帯域内に周波数シフトされている帯域外の音声成分を4〜8kHzの帯域外に戻すことに相当する。そのため、第1帯域の第2音声成分が第2帯域に周波数シフトされることに相当する。周波数シフト部68は、周波数シフトした音声信号(以下、これもまた「音声信号」という)、つまり第2帯域に周波数シフトした第2音声成分(以下、これもまた「第2音声成分」という)を第3インタポレーション部64cに出力する。
第3インタポレーション部64cは、周波数シフト部68からの音声信号、つまり第2音声成分を入力する。第3インタポレーション部64cは、音声信号に対して、16kHzのサンプリング周波数を48kHzにアップサンプリングする。アップサンプリングした音声信号にも、第2帯域の第2音声成分が含まれる。第3インタポレーション部64cは、アップサンプリングした音声信号(以下、これもまた「音声信号」という)、つまり第2音声成分を合成部70に出力する。
合成部70は、遅延部66からの音声信号、つまり第1音声成分を入力するとともに、第3インタポレーション部64cからの音声信号、つまり第2音声成分を入力する。合成部70は、第1音声成分と第2音声成分とを加算処理によって合成する。第1音声成分と第2音声成分とが合際された音声成分も音声信号に含まれる。合成部70は、音声信号を図示しないIF部34に出力する。
以上の構成による通信システム100の動作を説明する。図7は、符号化装置24による出力手順を示すフローチャートである。第1デシメーション部42a、第1符号化部46aは、帯域内符号化処理を実行する(S500)。第2デシメーション部42b、周波数シフト部44、第3デシメーション部42c、第2符号化部46bは、帯域外符号化処理を実行する(S510)。出力部48は、符号化信号の出力切替処理を実行する(S520)。
図8は、帯域内符号化処理の手順を示すフローチャートである。第1デシメーション部42aは、デシメーション処理を実行する(S501)。第1符号化部46aは、ボコーダ符号化処理を実行する(S502)。
図9は、帯域外符号化処理の手順を示すフローチャートである。第2デシメーション部42bは、デシメーション処理を実行する(S511)。周波数シフト部44は、周波数シフト処理を実行する(S512)。第3デシメーション部42cは、デシメーション処理を実行する(S513)。第2符号化部46bは、ボコーダ符号化処理を実行する(S514)。
図10は、復号装置32による合成手順を示すフローチャートである。入力部60は、符号化信号の入力切替処理を実行する(S600)。第1復号部62a、第1インタポレーション部64a、遅延部66は、帯域内復号処理を実行する(S610)。第2復号部62b、第2インタポレーション部64b、周波数シフト部68、第3インタポレーション部64cは、帯域外復号処理を実行する(S620)。合成部70は、音声成分の合成処理を実行する(S630)。
図11は、帯域内復号処理の手順を示すフローチャートである。第1復号部62aは、ボコーダ復号処理を実行する(S611)。第1インタポレーション部64aは、インタポレーション処理を実行する(S612)。遅延部66は、バッファリング処理を実行する(S613)。
図12は、帯域外復号処理の手順を示すフローチャートである。第2復号部62bは、ボコーダ復号処理を実行する(S621)。第2インタポレーション部64bは、インタポレーション処理を実行する(S622)。周波数シフト部68は、周波数シフト処理を実行する(S623)。第3インタポレーション部64cは、インタポレーション処理を実行する(S624)。
以下では、これまで説明した符号化装置24、復号装置32において、音質や明瞭度をさらに向上させるための構成を説明する。これまでの符号化装置24、復号装置32には、処理負荷の増加を抑制するため等の理由によりイコライザが含まれていない。一方、ここでは、符号化装置24と復号装置32の少なくとも1つにイコライザが含まれる。
図13は、符号化装置24の別の構成を示す。符号化装置24では、図2に示した符号化装置24に対して、EQ部50と総称される第1EQ部50a、第2EQ部50bが追加される。第1EQ部50aは、第1デシメーション部42aと第1符号化部46aとの間に配置され、第2EQ部50bは、第3デシメーション部42cと第2符号化部46bとの間に配置される。
第1EQ部50aは、第1デシメーション部42aからの音声信号、つまり第1帯域の成分を入力する。第1EQ部50aは、第1帯域の成分に対してイコライザ処理を実行する。イコライザ処理では、母音に対応したフォルマントがさらに強調されることによって、母音に対する音質が向上する。イコライザ処理には公知の技術が使用されればよいので、ここでは説明を省略する。第1EQ部50aは、イコライザ処理した第1帯域の成分(以下、これもまた「第1帯域の成分」という)、つまり音声信号を第1符号化部46aに出力する。
第2EQ部50bは、第3デシメーション部42cからの音声信号、つまり第2帯域の成分を入力する。第2EQ部50bは、第2帯域の成分に対してイコライザ処理を実行する。イコライザ処理では、子音に対応したフォルマントがさらに強調されることによって、子音に対する音質が向上する。イコライザ処理には公知の技術が使用されればよいので、ここでは説明を省略する。第2EQ部50bは、イコライザ処理した第2帯域の成分(以下、これもまた「第2帯域の成分」という)、つまり音声信号を第2符号化部46bに出力する。
図14は、復号装置32の別の構成を示す。復号装置32では、図6に示した復号装置32に対して、EQ部72と総称される第1EQ部72a、第2EQ部72bが追加される。第1EQ部72aは、第1復号部62aと第1インタポレーション部64aとの間に配置され、第2EQ部72bは、第2復号部62bと第2インタポレーション部64bとの間に配置される。第1EQ部72aは、第1EQ部50aと同様の処理を実行し、第2EQ部72bは、第2EQ部50bと同様の処理を実行するので、ここでは説明を省略する。
このような構成において、図2の符号化装置24が送信装置10に含まれ、図14の復号装置32が受信装置12に含まれもよい。また、図13の符号化装置24が送信装置10に含まれ、図6の復号装置32が受信装置12に含まれてもよい。さらに、図13の符号化装置24が送信装置10に含まれ、図14の復号装置32が受信装置12に含まれもよい。
本実施例によれば、第1帯域の成分から第1符号化信号を生成し、かつ第2帯域の成分から第2符号化信号を生成するので、帯域外の成分も符号化できる。また、帯域外の成分が符号化されるので、音声の品質や明瞭度を改善できる。また、第2帯域の成分を第1帯域に周波数シフトしてから符号化するので、第1帯域に対応した第2符号化部を使用できる。また、第1帯域の成分から第1符号化信号を生成し、かつ第2帯域の成分から第2符号化信号を生成するので、高度な音声信号処理を行わずに、0〜8kHzの音声を再生できる。また、4〜8kHzの成分をベースに第2符号化信号を生成しているので、受信側において再生される音声の不自然さを低減できる。また、第1符号化信号と第2符号化信号とを交互に出力するので、処理遅延を低減できる。
また、複数の第1符号化信号を連続して出力してから、複数の第2符号化信号を連続して出力するので、第1符号化信号が格納されるVCHの位置の変更を不要にできる。また、第1符号化信号が格納されるVCHの位置の変更が不要になるので、第2符号化信号の復号に対応していない受信装置においても第1符号化信号を復号できる。また、第2符号化信号の復号に対応していない受信装置においても第1符号化信号が復号されるので、互換性を維持できる。また、符号化装置においてイコライザ処理を実行するので、音質や明瞭度をより向上できる。また、復号装置においてイコライザ処理を実行するので、音質や明瞭度をより向上できる。
(実施例2)
次に、実施例2を説明する。実施例2は、実施例1と同様に、送信装置から受信装置に音声信号を送信する通信システムに関する。これまでは、通信システム100としてNXDN 9600bps(Half Rate)システムを一例として説明している。そのため、帯域幅8kHzの音声信号を0〜4kHzの成分と4〜8kHzの成分に分割している。実施例2では、音声信号をn個の成分に等分割する。実施例2に係る通信システム100は、図1と同様のタイプである。ここでは、実施例1との差異を中心に説明する。
図15は、本発明の実施例2に係る符号化装置24の構成を示す。符号化装置24は、入力部40、デシメーション部42と総称される第1デシメーション部42a、第2デシメーション部42b、第3デシメーション部42c、第4デシメーション部42d、第5デシメーション部42e、第6デシメーション部42f、第7デシメーション部42g、周波数シフト部44と総称される第1周波数シフト部44a、第2周波数シフト部44b、第3周波数シフト部44c、符号化部46と総称される第1符号化部46a、第2符号化部46b、第3符号化部46c、第4符号化部46d、出力部48を含む。第1周波数シフト部44aは、これまでの周波数シフト部44に相当する。ここで、第2周波数シフト部44b、第3周波数シフト部44cは、追加周波数シフト部52とまとめられ、第3符号化部46c、第4符号化部46dは、第i符号化部54とまとめられる。
第1デシメーション部42a、第1符号化部46aは、音声信号における第1帯域の成分をボコーダ符号化することによって、第1符号化信号を生成する。また、第2デシメーション部42b、第1周波数シフト部44a、第3デシメーション部42c、第2符号化部46bは、音声信号における第2帯域の成分を第1帯域に周波数シフトしてからボコーダ符号化することによって、第2符号化信号を生成する。これらは実施例1と同様の処理である。一方、第4デシメーション部42d、第2周波数シフト部44b、第5デシメーション部42e、第3符号化部46cは、音声信号における第3帯域の成分を第1帯域に周波数シフトしてからボコーダ符号化することによって、第3符号化信号を生成する。第6デシメーション部42f、第3周波数シフト部44c、第7デシメーション部42g、第4符号化部46dは、音声信号における第4帯域の成分を第1帯域に周波数シフトしてからボコーダ符号化することによって、第4符号化信号を生成する。
つまり、追加周波数シフト部52は、音声信号における第i(i>2)帯域の成分であって、かつ第i−1帯域よりも高い周波数の第i帯域の成分を第1帯域に周波数シフトする。第i符号化部54は、周波数シフト部44において周波数シフトした成分をボコーダ符号化することによって第i符号化信号を生成する。なお、第1帯域から第4帯域のそれぞれの帯域幅は同一であるが、実施例1のような4kHz出なくてもよい。また、音声信号は「4」個の成分に等分割されているが、等分割の数は「4」に限定されない。また、デシメーション部42等におけるサンプリング周波数は適宜設定されればよい。最終的に、出力部48は、第i符号化部54において生成した第i符号化信号も出力する。
図16は、本発明の実施例2に係る復号装置32の構成を示す。復号装置32は、復号装置32は、入力部60、復号部62と総称される第1復号部62a、第2復号部62b、第3復号部62c、第4復号部62d、インタポレーション部64と総称される第1インタポレーション部64a、第2インタポレーション部64b、第3インタポレーション部64c、第4インタポレーション部64d、第5インタポレーション部64e、第6インタポレーション部64f、第7インタポレーション部64g、遅延部66、周波数シフト部68と総称される第1周波数シフト部68a、第2周波数シフト部68b、第3周波数シフト部68c、合成部70を含む。第1周波数シフト部68aは、これまでの周波数シフト部68に相当する。ここで、第3復号部62c、第4復号部62dは、第i復号部74とまとめられ、第2周波数シフト部68b、第3周波数シフト部68cは、追加周波数シフト部76とまとめられる。
第1復号部62a、第1インタポレーション部64aは、第1符号化信号を復号することによって第1音声成分を生成する。また、第2復号部62b、第2インタポレーション部64b、第1周波数シフト部68a、第3インタポレーション部64cは、第2符号化信号を復号した第2音声成分を生成してから第2帯域に周波数シフトする。これらは実施例1と同様の処理である。一方、第3復号部62c、第4インタポレーション部64d、第2周波数シフト部68b、第5インタポレーション部64eは、第3符号化信号を復号した第3音声成分を生成してから第3帯域に周波数シフトする。第4復号部62d、第6インタポレーション部64f、第3周波数シフト部68c、第7インタポレーション部64gは、第4符号化信号を復号した第4音声成分を生成してから第4帯域に周波数シフトする。
つまり、第i復号部74は、第i符号化信号を復号することによって第1帯域の第i音声成分を生成する。追加周波数シフト部76は、第i復号部74において生成した第i音声成分を第i帯域に周波数シフトする。ここでも、第1帯域から第4帯域のそれぞれの帯域幅は同一であるが、実施例1のような4kHz出なくてもよい。また、音声信号は「4」個の成分に等分割されているが、等分割の数は「4」に限定されない。また、インタポレーション部64等におけるサンプリング周波数は適宜設定されればよい。最終的に、合成部70は、第i復号部74において周波数シフトした第i音声成分も合成して出力する。
本実施例によれば、音声信号をn個の成分に等分割し、それぞれに対して符号化・復号を実行するので、音声の品質や明瞭度をさらに改善できる。また、音声信号をn個の成分に等分割し、それぞれに対して符号化・復号を実行するので、構成の自由度を向上できる。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 送信装置、 12 受信装置、 20 マイクロフォン、 22 IF部、 24 符号化装置、 26 送信部、 30 受信部、 32 復号装置、 34 IF部、 36 スピーカ、 40 入力部、 42 デシメーション部、 44 周波数シフト部、 46 符号化部、 48 出力部、 60 入力部、 62 復号部、 64 インタポレーション部、 66 遅延部、 68 周波数シフト部、 70 合成部、 100 通信システム。

Claims (5)

  1. 音声信号を入力する入力部と、
    前記入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、
    前記入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、
    前記周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、
    前記第1符号化部において生成した第1符号化信号と前記第2符号化部において生成した第2符号化信号とを出力する出力部と、
    を備え
    前記出力部が出力するフレームフォーマットは、ヘッダー部と、前記ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、
    音声通信を行っていることを示すメッセージの制御コードは、前記ヘッダー部と前記制御チャネル部に配置され、
    前記第2符号化信号を出力する場合には、前記ヘッダー部を除く制御チャネル部の制御コードに変えて、前記第2符号化信号を配置すること、
    を特徴とする符号化装置。
  2. 音声信号を入力する入力部と、
    前記入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、
    前記入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、
    前記周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、
    前記第1符号化部において生成した第1符号化信号と前記第2符号化部において生成した第2符号化信号とを出力する出力部と、
    を備え
    前記出力部が出力するフレームフォーマットは、ヘッダー部と、前記ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、
    音声通信を行っていることを示すメッセージの制御コードは、前記ヘッダー部と前記制御チャネル部に配置され、
    音声通信を行っていることを示すメッセージの制御コードは、前記ヘッダー部と前記制御チャネル部に配置され、
    前記第2符号化信号を出力する場合には、
    音声チャネル部の一部を前記第2符号化信号に置き換え、
    前記ヘッダー部を除く制御チャネル部に、前記音声チャネル部に前記第2符号化信号を配置されたことにより配置できなかった第1符号化音声信号と第2符号化信号とを配置すること、
    を特徴とする符号化装置。
  3. 音声信号における第1帯域の成分を符号化した第1符号化信号と、音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトして符号化した第2符号化信号とを復号する複合装置であって、
    復号する信号のフレームフォーマットは、ヘッダー部と、前記ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、
    音声通信を行っていることを示すメッセージの制御コードが、前記ヘッダー部と前記制御チャネル部に配置され、
    前記音声チャネル部に配置された前記第1符号化信号を復号することによって第1帯域の第1音声成分を生成する第1復号部と、
    前記ヘッダー部を除く制御チャネル部の制御コードに変えて、前記音声チャネル部に配置されている場合に第2符号化信号を復号することによって第1帯域の第2音声成分を生成する第2復号部と、
    前記第2復号部において生成した第2音声成分を第2帯域に周波数シフトする周波数シフト部と、
    前記第1復号部において生成した第1音声成分と前記周波数シフト部において周波数シフトした第2音声成分とを合成して出力する合成部と、
    を備えることを特徴とする復号装置。
  4. 符号化装置と、
    復号装置とを備え、
    前記符号化装置は、
    音声信号を入力する入力部と、
    前記入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、
    前記入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、
    前記周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、
    前記第1符号化部において生成した第1符号化信号と前記第2符号化部において生成した第2符号化信号とを出力する出力部とを備え、
    前記出力部が通信するフレームフォーマットは、ヘッダー部と、前記ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、
    音声通信を行っていることを示すメッセージの制御コードは、前記ヘッダー部と前記制御チャネル部に配置され、
    前記第2符号化信号を出力する場合には、前記ヘッダー部を除く制御チャネル部の制御コードに変えて、前記第2符号化信号を配置され、
    前記復号装置は
    前記第1符号化信号を復号することによって第1帯域の第1音声成分を生成する第1復号部と、
    前記第2符号化信号を復号することによって第1帯域の第2音声成分を生成する第2復号部と、
    前記第2復号部において生成した第2音声成分を第2帯域に周波数シフトする周波数シフト部と、
    前記第1復号部において生成した第1音声成分と前記周波数シフト部において周波数シフトした第2音声成分とを合成して出力する合成部と、
    を備えることを特徴とする通信システム。
  5. 符号化装置と、
    復号装置とを備え、
    前記符号化装置は、
    音声信号を入力する入力部と、
    前記入力部において入力した音声信号における第1帯域の成分を符号化することによって第1符号化信号を生成する第1符号化部と、
    前記入力部において入力した音声信号における第2帯域の成分であって、かつ第1帯域よりも高い周波数の第2帯域の成分を第1帯域に周波数シフトする周波数シフト部と、
    前記周波数シフト部において周波数シフトした成分を符号化することによって第2符号化信号を生成する第2符号化部と、
    前記第1符号化部において生成した第1符号化信号と前記第2符号化部において生成した第2符号化信号とを出力する出力部とを備え、
    前記出力部が通信するフレームフォーマットは、ヘッダー部と、前記ヘッダー部に続いて音声チャネル部と制御チャネル部と配置され、
    音声通信を行っていることを示すメッセージの制御コードは、前記ヘッダー部と前記制御チャネル部に配置され、
    音声通信を行っていることを示すメッセージの制御コードは、前記ヘッダー部と前記制御チャネル部に配置され、
    前記第2符号化信号を出力する場合には、
    音声チャネル部の一部を前記第2符号化信号に置き換え、
    前記ヘッダー部を除く制御チャネル部に、前記音声チャネル部に前記第2符号化信号を配置されたことにより配置できなかった第1符号化音声信号と第2符号化信号とが配置され、
    前記復号装置は
    前記第1符号化信号を復号することによって第1帯域の第1音声成分を生成する第1復号部と、
    前記第2符号化信号を復号することによって第1帯域の第2音声成分を生成する第2復号部と、
    前記第2復号部において生成した第2音声成分を第2帯域に周波数シフトする周波数シフト部と、
    前記第1復号部において生成した第1音声成分と前記周波数シフト部において周波数シフトした第2音声成分とを合成して出力する合成部と、
    を備えることを特徴とする通信システム。
JP2016094625A 2016-05-10 2016-05-10 符号化装置、復号装置、通信システム Active JP6763194B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016094625A JP6763194B2 (ja) 2016-05-10 2016-05-10 符号化装置、復号装置、通信システム
US15/481,874 US10056093B2 (en) 2016-05-10 2017-04-07 Encoding device, decoding device, and communication system for extending voice band

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094625A JP6763194B2 (ja) 2016-05-10 2016-05-10 符号化装置、復号装置、通信システム

Publications (2)

Publication Number Publication Date
JP2017203844A JP2017203844A (ja) 2017-11-16
JP6763194B2 true JP6763194B2 (ja) 2020-09-30

Family

ID=60295446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094625A Active JP6763194B2 (ja) 2016-05-10 2016-05-10 符号化装置、復号装置、通信システム

Country Status (2)

Country Link
US (1) US10056093B2 (ja)
JP (1) JP6763194B2 (ja)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09127987A (ja) * 1995-10-26 1997-05-16 Sony Corp 信号符号化方法及び装置
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5848164A (en) * 1996-04-30 1998-12-08 The Board Of Trustees Of The Leland Stanford Junior University System and method for effects processing on audio subband data
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
US6182031B1 (en) * 1998-09-15 2001-01-30 Intel Corp. Scalable audio coding system
US6226616B1 (en) * 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
US6978236B1 (en) * 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
EP1423847B1 (en) * 2001-11-29 2005-02-02 Coding Technologies AB Reconstruction of high frequency components
KR100949232B1 (ko) * 2002-01-30 2010-03-24 파나소닉 주식회사 인코딩 장치, 디코딩 장치 및 그 방법
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
DE602004030594D1 (de) * 2003-10-07 2011-01-27 Panasonic Corp Verfahren zur entscheidung der zeitgrenze zur codierung der spektro-hülle und frequenzauflösung
CN1914668B (zh) * 2004-01-28 2010-06-16 皇家飞利浦电子股份有限公司 用于信号时间标度的方法及设备
CN1926872B (zh) * 2004-02-06 2010-09-29 索尼株式会社 信息处理设备和信息处理方法
WO2005112001A1 (ja) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. 符号化装置、復号化装置、およびこれらの方法
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
US7813931B2 (en) 2005-04-20 2010-10-12 QNX Software Systems, Co. System for improving speech quality and intelligibility with bandwidth compression/expansion
KR100803205B1 (ko) * 2005-07-15 2008-02-14 삼성전자주식회사 저비트율 오디오 신호 부호화/복호화 방법 및 장치
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US7869994B2 (en) * 2007-01-30 2011-01-11 Qnx Software Systems Co. Transient noise removal system using wavelets
US9384749B2 (en) * 2011-09-09 2016-07-05 Panasonic Intellectual Property Corporation Of America Encoding device, decoding device, encoding method and decoding method

Also Published As

Publication number Publication date
US20170330584A1 (en) 2017-11-16
US10056093B2 (en) 2018-08-21
JP2017203844A (ja) 2017-11-16

Similar Documents

Publication Publication Date Title
JP2000305599A (ja) 音声合成装置及び方法、電話装置並びにプログラム提供媒体
KR101067514B1 (ko) 버퍼 조정을 이용하는 예측 코딩 데이터의 디코딩
WO2013154027A1 (ja) 復号装置および方法、オーディオ信号処理装置および方法、並びにプログラム
JP2008058667A (ja) 信号処理装置および方法、記録媒体、並びにプログラム
JP2005107255A (ja) サンプリングレート変換装置、符号化装置、および復号化装置
JPWO2006046546A1 (ja) 音声符号化装置および音声符号化方法
JPWO2006137425A1 (ja) オーディオ符号化装置、オーディオ復号化装置およびオーディオ符号化情報伝送装置
JP2008261904A (ja) 符号化装置、復号化装置、符号化方法および復号化方法
JPH0955778A (ja) 音声信号の広帯域化装置
JPH11126098A (ja) 音声合成方法及び装置、並びに帯域幅拡張方法及び装置
EP2610867B1 (en) Audio reproducing device and audio reproducing method
JP2011081033A (ja) 信号処理装置、及び携帯端末装置
JP6763194B2 (ja) 符号化装置、復号装置、通信システム
JP5031006B2 (ja) スケーラブル復号化装置及びスケーラブル復号化方法
JP4536621B2 (ja) 復号装置、および復号方法
JP2006119524A (ja) 音声再生機および音声再生方法
JP2000352999A (ja) 音声切替装置
JP2007235502A (ja) オーディオ通信システム
JP4618634B2 (ja) 圧縮オーディオデータ処理方法
EP3618312B1 (en) Signal processing device, signal processing method and program
JP5325059B2 (ja) 映像音声同期再生装置、映像音声同期処理装置、映像音声同期再生プログラム
JP2009162918A (ja) 復号再生装置及び方法並びに受信装置
JP2006279809A (ja) 音声再生装置および音声再生方法
JP5326714B2 (ja) 帯域拡張装置、方法及びプログラム、並びに、量子化雑音学習装置、方法及びプログラム
JP4597360B2 (ja) 音声復号装置及び音声復号方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150