JP4445328B2 - 音声・楽音復号化装置および音声・楽音復号化方法 - Google Patents

音声・楽音復号化装置および音声・楽音復号化方法 Download PDF

Info

Publication number
JP4445328B2
JP4445328B2 JP2004153997A JP2004153997A JP4445328B2 JP 4445328 B2 JP4445328 B2 JP 4445328B2 JP 2004153997 A JP2004153997 A JP 2004153997A JP 2004153997 A JP2004153997 A JP 2004153997A JP 4445328 B2 JP4445328 B2 JP 4445328B2
Authority
JP
Japan
Prior art keywords
encoded information
decoding
information
lsp
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004153997A
Other languages
English (en)
Other versions
JP2005338200A (ja
Inventor
薫 佐藤
利幸 森井
智史 山梨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2004153997A priority Critical patent/JP4445328B2/ja
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to CN2005800168247A priority patent/CN1957399B/zh
Priority to EP05739228A priority patent/EP1750254B1/en
Priority to DE602005026802T priority patent/DE602005026802D1/de
Priority to PCT/JP2005/008774 priority patent/WO2005114655A1/ja
Priority to KR1020067024640A priority patent/KR20070028373A/ko
Priority to US11/569,377 priority patent/US8255210B2/en
Priority to CA002567788A priority patent/CA2567788A1/en
Publication of JP2005338200A publication Critical patent/JP2005338200A/ja
Application granted granted Critical
Publication of JP4445328B2 publication Critical patent/JP4445328B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Description

本発明は、音声・楽音信号を符号化して伝送する通信システムにおいて使用される音声・楽音復号化装置および音声・楽音復号化方法に関する。
ディジタル無線通信や、インターネット通信に代表されるパケット通信、あるいは音声蓄積などの分野においては、電波などの伝送路容量や記憶媒体の有効利用を図るため、音声信号の符号化/復号化技術が不可欠であり、これまでに多くの音声符号化/復号化方式が開発されてきた。その中で、CELP方式の音声符号化/復号化方式が主流の方式として実用化されている(例えば、非特許文献1参照)。
CELP方式の音声符号化装置は、予め記憶された音声モデルに基づいて入力音声をコード化する。具体的には、ディジタル化された音声信号を10〜20ms程度のフレームに区切り、フレーム毎に音声信号の線形予測分析を行い、線形予測係数と線形予測残差ベクトルを求め、線形予測係数と線形予測残差ベクトルをそれぞれ個別に符号化する。そして、低ビットレートの通信を実行するためには、記憶できる音声モデルの量が限られるため、従来のCELPタイプの音声符号化/復号化方式は、主に発声音のモデルを記憶している。
また、インターネット通信のようなパケットを伝送する通信システムでは、ネットワークの状態によりパケット損失が起こるため、符号化情報の一部が欠損した場合であっても符号化情報の残りの一部から音声、楽音を復号化できることが望ましい。同様に、通信容量に応じてビットレートを変化させる可変レート通信システムにおいては、通信容量が低下した場合、符号化情報の一部のみを伝送することにより通信容量の負担を軽減させることが容易であることが望ましい。このように、符号化情報の全て若しくは符号化情報の一部のみを用いて音声、楽音を復号化できる技術として、最近、スケーラブル符号化技術が注目を浴びている。従来にもいくつかのスケーラブル符号化方式が開示されている(例えば、特許文献1参照)。
スケーラブル符号化方式は、一般的に、基本レイヤと複数の拡張レイヤとからなり、各レイヤは、基本レイヤを最も下位のレイヤとし、階層構造を形成している。そして、各レイヤでは、より下位レイヤの入力信号と出力信号との差である残差信号について符号化が行われる。この構成により、全レイヤの符号化情報もしくは下位レイヤの符号化情報のみを用いて、音声・楽音を復号化することができる。
また、前記パケットを伝送する通信システムでは、パケット損失などにより復号化装置側で符号化情報を受信できない場合、消失補償(隠蔽)処理を行うことで復号化音声信号の劣化をある程度抑えることができる。例えば、ITU−T勧告G.729などでは復号化アルゴリズムの一部としてフレーム消去の隠蔽方法が規定されている。
消失補償(隠蔽)処理は、一般的に、事前に受信したフレームに含まれている符号化情報を元に現フレームの再生を行う。例えば、損失したフレームの直前のフレームに含まれている符号化情報を損失したフレームの符号化情報として用いる、直前のフレームに含まれている符号化情報を用いて生成する復号化信号のエネルギーを徐々に減衰させる、などの方法により、損失したフレームの復号化音声信号を作り上げる。
特開平10−97295号公報 M.R.Schroeder, B.S.Atal, "Code Excited Linear Prediction: High Quality Speech at Low Bit Rate", IEEE proc., ICASSP'85 pp.937-940
しかしながら、従来の消失補償(隠蔽)処理においては、損失したフレームの直前のフレームに含まれている符号化情報を用いて復号化音声信号を再生するだけであり、復号化音声信号の劣化はある程度抑えられるが、復号化音声信号の品質は十分であるとはいえない。また、スケーラブル符号化方式においては、一般的に、基本レイヤの符号化情報の重要度は高く、基本レイヤの符号化情報がフレーム消失により失われた場合、直前のフレームに含まれている符号化情報を用いて復号化音声信号を再生するだけでは、十分な品質の復号化音声信号を得ることはできない。
本発明は、かかる点に鑑みてなされたものであり、スケーラブル符号化方式において、フレーム消失が発生して符号化情報が失われた場合であっても、十分な品質の復号化音声信号を得ることができる音声・楽音復号化装置および音声・楽音復号化方法を提供することを目的とする。
本発明の音声・楽音復号化装置は、スケーラブル符号化により少なくとも第1階層及び第2階層の2階層で構成された符号化情報を復号化して復号化信号を生成する音声・楽音復号化装置であって、受信されたフレームの前記第1階層に関する第1符号化情報及び前記第2階層に関する第2符号化情報がそれぞれ正常か否かを判定し、判定結果であるフレーム損失情報を生成するフレーム損失検出手段と、前記フレーム損失情報に応じて、受信された第1符号化情報及び第2符号化情報前フレームで受信された第1符号化情報及び第2符号化情報とから前記第1階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第1復号化信号を生成する第1復号化手段と、前記フレーム損失情報に応じて、前記受信された第1符号化情報及び第2符号化情報と前記前フレームで受信された第1符号化情報及び第2符号化情報とから前記第2階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第2復号化信号を生成する第2復号化手段と、を具備し、前記第1復号化手段及び前記第2復号化手段は、前記フレーム損失情報の値により決定される、正常に受信された第1符号化情報又は前記前フレームで受信された第1符号化情報、及び/又は、正常に受信された第2符号化情報又は前記前フレームで受信された第2符号化情報、を用いる組合せ、にしたがって定められる符号化情報を用いて復号化を行う、構成を採る。
本発明の音声・楽音復号化方法は、スケーラブル符号化により少なくとも第1階層及び第2階層の2階層で構成された符号化情報を復号化して復号化信号を生成する音声・楽音復号化方法であって、受信されたフレームの前記第1階層に関する第1符号化情報及び前記第2階層に関する第2符号化情報がそれぞれ正常か否かを判定し、判定結果であるフレーム損失情報を生成するフレーム損失検出工程と、前記フレーム損失情報に応じて、受信された第1符号化情報及び第2符号化情報前フレームで受信された第1符号化情報及び第2符号化情報とから前記第1階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第1復号化信号を生成する第1復号化工程と、前記フレーム損失情報に応じて、前記受信された第1符号化情報及び第2符号化情報と前記前フレームで受信された第1符号化情報及び第2符号化情報とから前記第2階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第2復号化信号を生成する第2復号化工程と、を具備し、前記第1復号化工程及び前記第2復号化工程は、前記フレーム損失情報の値により決定される、正常に受信された第1符号化情報又は前記前フレームで受信された第1符号化情報、及び/又は、正常に受信された第2符号化情報又は前記前フレームで受信された第2符号化情報、を用いる組合せ、にしたがって定められる符号化情報を用いて復号化を行う、方法を採る。
本発明によれば、過去に得られた符号化情報に加え、別の符号化部により得られた符号化情報を用いて復号化信号を得ることにより、過去に得られた符号化情報のみを用いる場合に比べ、復号化音声信号の品質向上を図ることができる。
本発明の骨子は、複数の符号化部から構成されるスケーラブル符号化方式において、各々の符号化部から符号化情報を出力して復号化装置側へ伝送し、符号化情報が損失無く伝送されているかどうかを復号化装置側で判定し、符号化情報の損失が検出された場合には、損失したフレームの直前のフレームの符号化情報に加え、他の符号化部から出力された符号化情報を用いて復号化を行うことにより、復号化音声信号の品質向上を図ることである。
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。なお、ここでは、CELP方式の音声・楽音符号化/復号化を行う場合を例にとって説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る符号化装置100および復号化装置150の主要な構成を示すブロック図である。
符号化装置100は、第1符号化部101と、第1局所復号化部102と、加算器103と、第2符号化部104と、判定部105と、多重化部106と、から主に構成される。また、復号化装置150は、多重化分離部151と、フレーム損失検出部152と、第1復号化部153と、第2復号化部154と、加算器155と、から主に構成される。符号化装置100から出力される符号化情報は、伝送路130を介して、復号化装置150へ伝送される。
以下、符号化装置100の各部の処理について説明する。第1符号化部101と加算器103とには、入力信号である音声・楽音信号が入力される。
第1符号化部101は、入力された音声・楽音信号から、CELP方式の音声・楽音符号化方法を用いて、第1符号化情報を求め、求めた第1符号化情報を第1局所復号化部102と多重化部106とへ出力する。
第1局所復号化部102は、第1符号化部101から出力された第1符号化情報を、CELP方式の音声・楽音復号化方法を用いて第1復号化信号に復号化し、この復号化によって求められる復号化信号を加算器103へ出力する。
加算器103は、入力された音声・楽音信号に、第1局所復号化部102から出力された第1復号化信号を極性反転してから加算し、加算結果である残差信号を第2符号化部104へ出力する。
第2符号化部104は、加算器103から出力された残差信号から、CELP方式の音声・楽音符号化方法を用いて、第2符号化情報を求め、求めた第2符号化情報を多重化部106へ出力する。
判定部105は、後述する方法によりフラグ情報を生成し、これを多重化部106へ出力する。ここで、「フラグ情報」とは、復号化装置150において、第1符号化情報の損失が検出された場合、第1復号化部153が復号化に用いる符号化情報として第2符号化情報を含めるか含めないか、を指示する情報である。ここでは、フラグ情報として「0」又は「1」の値を用いる。フラグ情報が「0」である場合、第1復号化部153は、前フレームの第1符号化情報のみを用いて復号化を行い、フラグ情報が「1」である場合、第1復号化部153は、前フレームの第1符号化情報と第2符号化情報とを用いて復号化を行う。
多重化部106は、第1符号化部101から出力された第1符号化情報と、第2符号化部104から出力された第2符号化情報と、判定部105から出力されたフラグ情報と、を多重化して多重化情報として伝送路130へ出力する。
本明細書では、符号化装置100において、フレーム単位で音声・楽音信号の符号化処理を行い、1フレームの第1符号化情報と第2符号化情報とをそれぞれ1つのパケットへ格納し、伝送することを想定している。従って、1つのフレームには、第1符号化情報が格納されたパケットおよび第2符号化情報が格納されたパケットの2つのパケットが存在する。前記2つのパケットは、1フレーム毎に復号化装置150へ伝送され、パケット損失が発生した場合、第1符号化情報と第2符号化情報との少なくとも1つ以上の符号化情報が失われる。
次に、復号化装置150の各部の処理について説明する。多重化分離部151は、符号化装置100から伝送された多重化情報を、第1符号化情報、第2符号化情報及びフラグ情報に分離し、分離された第1及び第2符号化情報をフレーム損失検出部152へ出力し、フラグ情報を第1復号化部153へ出力する。
フレーム損失検出部152は、多重化分離部151から出力された第1及び第2符号化情報が正常に受信されているかどうかを判定し、判定結果を示すフレーム損失情報を生成する。なお、フレーム損失の検出方法として、例えば、パケットに付されている識別情報を監視する方法が知られている。例えば、パケットのシーケンス番号(パケット番号)、パケットが生成された時刻を示すタイムスタンプ、等のパケットに付されている識別情報を受信側で監視し、これらの識別情報の不連続性を検知することにより、パケットの損失を検出する。識別情報として、例えば、通信プロトコルのTCP/IPのシーケンス番号、UDP/IPのシーケンス番号、タイムスタンプ情報、等が利用できる。
ここでは、フレーム損失情報として「0」〜「3」の値を用いる。フレーム損失情報は、第1符号化情報と第2符号化情報とが共に正常に受信されなかった場合に「0」の値をとり、第1符号化情報は正常に受信され、第2符号化情報は正常に受信されなかった場合に「1」の値をとり、第2符号化情報は正常に受信され、第1符号化情報は正常に受信されなかった場合に「2」の値をとり、第1符号化情報と第2符号化情報とが共に正常に受信された場合に「3」の値をとる。次に、フレーム損失検出部152は、フレーム損失情報を第1復号化部153と第2復号化部154とへ出力する。次に、フレーム損失検出部152は、正常に受信された符号化情報を対応する復号化部へ出力する。具体的には、フレーム損失検出部152は、フレーム損失情報が「1」もしくは「3」である場合(第1符号化情報が正常に受信された場合)、第1符号化情報を第1復号化部153へ出力し、フレーム損失情報が「2」もしくは「3」である場合(第2符号化情報が正常に受信された場合)、第2符号化情報を第2復号化部154へ出力する。
第1復号化部153は、多重化分離部151からフラグ情報を入力し、フレーム損失検出部152からフレーム損失情報を入力する。また、第1復号化部153は、直前のフレームの第1符号化情報を記憶するバッファを内部に備え、現フレームの第1符号化情報が正常に受信されなかった場合は、バッファに記憶されている直前のフレームの第1符号化情報を復号化の際に用いる。
次に、第1復号化部153は、フレーム損失情報を参照し、フレーム損失情報が「1」もしくは「3」である場合(第1符号化情報が正常に受信された場合)は、フレーム損失検出部152から第1符号化情報を入力し、CELP方式の音声・楽音復号化方法を用いて第1符号化情報を復号化し、フレーム損失情報が「0」である場合は、CELP方式の音声・楽音復号化方法を用いて直前のフレームの第1符号化情報を復号化し、フレーム損失情報が「2」である場合は、第2復号化部154から第2符号化情報を入力し、CELP方式の音声・楽音復号化方法を用いて第2符号化情報と直前のフレームの第1符号化情報とから求められる符号化情報を復号化する。なお、第1復号化部153は、フラグ情報が「0」である場合は、第2符号化情報を使用しない。
このように、本実施の形態では、第1符号化情報が正常に受信された場合は、第1符号化情報を復号化し、第1符号化情報が正常に受信されなかった場合は、直前のフレームに含まれている第1符号化情報を復号化する。また、本実施の形態では、第2符号化情報が正常に受信され、第1符号化情報が正常に受信されなかった場合は、直前のフレームに含まれている第1符号化情報に加え、第2符号化情報を用いることにより、復号化信号の更なる品質向上を図っている。
次に、第1復号化部153は、復号化により求められた第1復号化信号を加算器155へ出力する。また、第1復号化部153は、フレーム損失情報が「1」もしくは「3」である場合、第1符号化情報を第2復号化部154へ出力する。また、第1復号化部153は、フレーム損失情報が「0」もしくは「2」である場合、直前のフレームの第1符号化情報を第2復号化部154へ出力する。
なお、第1復号化部153における具体的な符号化情報の復号化方法については後述する。
第2復号化部154は、フレーム損失検出部152からフレーム損失情報を入力する。また、第2復号化部154は、直前のフレームの第2符号化情報を記憶するバッファを内部に備え、現フレームの第2符号化情報が正常に受信されなかった場合は、バッファに記憶されている直前のフレームの第2符号化情報を復号化の際に用いる。
次に、第2復号化部154は、フレーム損失情報を参照し、フレーム損失情報が「3」である場合は、フレーム損失検出部152から第2符号化情報を入力し、CELP方式の音声・楽音復号化方法を用いて第2符号化情報を復号化し、フレーム損失情報が「2」である場合は、フレーム損失検出部152から第2符号化情報を入力し、第1復号化部153から直前のフレームの第1符号化情報を入力し、CELP方式の音声・楽音復号化方法を用いて第2符号化情報と直前のフレームの第1符号化情報とから求められる符号化情報を復号化し、フレーム損失情報が「1」である場合は、第1復号化部153から第1符号化情報を入力し、CELP方式の音声・楽音復号化方法を用いて第1符号化情報と直前のフレームの第2符号化情報とから求められる符号化情報を復号化し、フレーム損失情報が「0」である場合は、第1復号化部153から直前のフレームの第1符号化情報を入力し、CELP方式の音声・楽音復号化方法を用いて直前のフレームの第1符号化情報と直前のフレームの第2符号化情報とから求められる符号化情報を復号化する。
このように、第2復号化部154は、第2符号化情報が正常に受信された場合は、第2符号化情報と、第1符号化情報もしくは直前のフレームの第1符号化情報とを用いて復号化を行い、第2符号化情報が正常に受信されなかった場合は、直前のフレームの第2符号化情報と、第1符号化情報もしくは直前のフレームの第1符号化情報とを用いて復号化を行う。
次に、第2復号化部154は、復号化により求められた第2復号化信号を加算器155へ出力する。また、第2復号化部154は、フレーム損失情報が「2」である場合、第2符号化情報を第1復号化部153へ出力する。
なお、第2復号化部154における具体的な符号化情報の復号化方法については後述する。
加算器155は、第1復号化部153から第1復号化信号を、第2復号化部154から第2復号化信号を、入力し、第1復号化信号と第2復号化信号とを加算し、加算結果である復号化信号を出力信号として出力する。
次に、符号化装置100の第1符号化部101の内部構成について説明する。図2は、第1符号化部101の内部構成を示すブロック図である。第1符号化部101は、入力される音声・楽音信号をNサンプルずつ区切り(Nは自然数)、Nサンプルを1フレームとしてフレーム毎に符号化を行う。
第1符号化部101の入力信号は、前処理部201に入力される。前処理部201は、DC成分を取り除くハイパスフィルタ処理や後続する符号化処理の性能改善につながるような波形整形処理やプリエンファシス処理を行い、これらの処理後の信号(Xin)をLSP分析部202および加算器205へ出力する。
LSP分析部202は、Xinを用いて線形予測分析を行い、分析結果であるLPC(線形予測係数)をLSP(Line Spectral Pairs)に変換し、変換結果を第1LSPとしてLSP量子化部203と判定部105とへ出力する。
LSP量子化部203は、LSP分析部202から出力された第1LSPの量子化処理を行い、量子化された第1LSP(第1量子化LSP)を合成フィルタ204へ出力する。また、LSP量子化部203は、第1量子化LSPを表す第1量子化LSP符号(L1)を多重化部214へ出力する。
合成フィルタ204は、第1量子化LSPに基づくフィルタ係数により、後述する加算器211から出力される駆動音源に対してフィルタ合成を行うことにより合成信号を生成し、合成信号を加算器205へ出力する。
加算器205は、合成信号の極性を反転させてXinに加算することにより誤差信号を算出し、誤差信号を聴覚重み付け部212へ出力する。
適応音源符号帳206は、過去に加算器211によって出力された駆動音源をバッファに記憶しており、パラメータ決定部213から出力される信号によって特定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、第1適応音源ベクトルとして乗算器209へ出力する。また、適応音源符号帳206は、加算器211から駆動音源を入力する毎にバッファのアップデートを行う。
量子化利得生成部207は、パラメータ決定部213から出力される信号によって、第1量子化適応音源利得と第1量子化固定音源利得とを決定し、これらをそれぞれ乗算器209と乗算器210とへ出力する。
固定音源符号帳208は、パラメータ決定部213から出力された信号によって特定される形状を有するベクトルを第1固定音源ベクトルとして乗算器210へ出力する。
乗算器209は、量子化利得生成部207から出力された第1量子化適応音源利得を、適応音源符号帳206から出力された第1適応音源ベクトルに乗じて、加算器211へ出力する。乗算器210は、量子化利得生成部207から出力された第1量子化固定音源利得を、固定音源符号帳208から出力された第1固定音源ベクトルに乗じて、加算器211へ出力する。
加算器211は、利得乗算後の第1適応音源ベクトルと第1固定音源ベクトルとをそれぞれ乗算器209と乗算器210から入力し、利得乗算後の第1適応音源ベクトルと第1固定音源ベクトルとを加算し、加算結果である駆動音源を合成フィルタ204および適応音源符号帳206へ出力する。なお、適応音源符号帳206に入力された駆動音源は、バッファに記憶される。
聴覚重み付け部212は、加算器205から出力された誤差信号に対して聴覚的な重み付けをおこない、符号化歪みとしてパラメータ決定部213へ出力する。
パラメータ決定部213は、聴覚重み付け部212から出力される符号化歪みを最小とする第1適応音源ラグを適応音源符号帳206から選択し、選択結果を示す第1適応音源ラグ符号(A1)を多重化部214に出力する。ここで、「第1適応音源ラグ」とは、第1適応音源ベクトルを切り出す切り出し位置であり、詳細な説明は後述する。また、パラメータ決定部213は、聴覚重み付け部212から出力される符号化歪みを最小とする第1固定音源ベクトルを固定音源符号帳208から選択し、選択結果を示す第1固定音源ベクトル符号(F1)を多重化部214に出力する。また、パラメータ決定部213は、聴覚重み付け部212から出力される符号化歪みを最小とする第1量子化適応音源利得と第1量子化固定音源利得とを量子化利得生成部207から選択し、選択結果を示す第1量子化音源利得符号(G1)を多重化部214に出力する。
多重化部214は、LSP量子化部203から第1量子化LSP符号(L1)を入力し、パラメータ決定部213から第1適応音源ラグ符号(A1)、第1固定音源ベクトル符号(F1)および第1量子化音源利得符号(G1)を入力し、これらの情報を多重化して第1符号化情報として出力する。
次に、LSP量子化部203が第1量子化LSPを決定する処理を、第1量子化LSP符号(L1)に割り当てるビット数を「8」とし、第1LSPをベクトル量子化する場合を例に挙げ、簡単に説明する。
LSP量子化部203は、予め作成された256種類の第1LSPコードベクトルlsp1 (l1)(i)が格納された第1LSPコードブックを備える。ここで、l1は第1LSPコードベクトルに付されたインデクスであり0〜255の値をとる。また、第1LSPコードベクトルlsp1 (l1)(i)はN次元のベクトルであり、iは0〜N−1の値をとる。LSP量子化部203は、LSP分析部202から出力された第1LSPα(i)を入力する。ここで、第1LSPα(i)はN次元のベクトルである。
次に、LSP量子化部203は、式(1)により第1LSPα(i)と第1LSPコードベクトルlsp1 (l1)(i)との二乗誤差er1を求める。
Figure 0004445328
次に、LSP量子化部203は、全てのl1について二乗誤差er1を求め、二乗誤差er1が最小となるl1の値(l1min)を決定する。次に、LSP量子化部203は、l1minを第1量子化LSP符号(L1)として多重化部214へ出力し、また、lsp1 (l1min)(i)を第1量子化LSPとして合成フィルタ204へ出力する。
このように、LSP量子化部203によって求められるlsp1 (l1min)(i)が「第1量子化LSP」である。
次に、パラメータ決定部213が第1適応音源ラグを決定する処理について図3を用いて説明する。図3において、バッファ301は適応音源符号帳206が備えるバッファであり、位置302は第1適応音源ベクトルの切り出し位置であり、ベクトル303は、切り出された第1適応音源ベクトルである。また、数値「41」、「296」は、切り出し位置302を動かす範囲の下限と上限とに対応している。
切り出し位置302を動かす範囲は、第1適応音源ラグを表す符号(A1)に割り当てるビット数を「8」とする場合、「256」の長さの範囲(例えば、41〜296)に設定することができる。また、切り出し位置302を動かす範囲は、任意に設定することができる。
パラメータ決定部213は、切り出し位置302を設定された範囲内で動かし、順次、適応音源符号帳206に切り出し位置302を指示する。次に、適応音源符号帳206は、パラメータ決定部213により指示された切り出し位置302を用いて、第1適応音源ベクトル303をフレームの長さだけ切り出し、切り出した第1適応音源ベクトルを乗算器209に出力する。次に、パラメータ決定部213は、全ての切り出し位置302で第1適応音源ベクトル303を切り出した場合について、聴覚重み付け部212から出力される符号化歪みを求め、符号化歪みが最小となる切り出し位置302を決定する。
このように、パラメータ決定部213によって求められるバッファの切り出し位置302が「第1適応音源ラグ」である。
次に、パラメータ決定部213は、符号化歪みを最小とする第1適応音源ラグを表す第1適応音源ラグ符号(A1)を多重化部214に出力する。
次に、パラメータ決定部213が第1固定音源ベクトルを決定する処理について図4を用いて説明する。なお、ここでは、第1固定音源ベクトル符号(F1)に割り当てるビット数を「12」とする場合を例にとって説明する。
図4において、トラック401、402、403は、それぞれ単位パルス(振幅値が1)を1本生成する。また、乗算器404、405、406は、トラック401、402、403で生成される単位パルスに極性を付する。加算器407は、生成された3本の単位パルスを加算する加算器であり、ベクトル408は、3本の単位パルスから構成される「第1固定音源ベクトル」である。
各トラックは単位パルスを生成できる位置が異なっており、図4においては、トラック401は{0,3,6,9,12,15,18,21}の8箇所のうちのいずれかに、トラック402は{1,4,7,10,13,16,19,22}の8箇所のうちのいずれかに、トラック403は{2,5,8,11,14,17,20,23}の8箇所のうちのいずれかに、それぞれ単位パルスを1本ずつ立てる構成となっている。
次に、生成された単位パルスはそれぞれ乗算器404、405、406により極性が付され、加算器407により3本の単位パルスが加算され、加算結果である第1固定音源ベクトル408が構成される。
図4の例では、各単位パルスに対して位置が8通り、極性が正負の2通り、であるので、位置情報3ビット、極性情報1ビット、が各単位パルスを表現するのに用いられる。したがって、合計12ビットの固定音源符号帳となる。パラメータ決定部213は、3本の単位パルスの生成位置と極性とを動かし、順次、生成位置と極性とを固定音源符号帳208に指示する。次に、固定音源符号帳208は、パラメータ決定部213により指示された生成位置と極性とを用いて第1固定音源ベクトル408を構成して、構成された第1固定音源ベクトル408を乗算器210に出力する。次に、パラメータ決定部213は、全ての生成位置と極性との組み合わせについて、聴覚重み付け部212から出力される符号化歪みを求め、符号化歪みが最小となる生成位置と極性との組み合わせを決定する。次に、パラメータ決定部213は、符号化歪みが最小となる生成位置と極性との組み合わせを表す第1固定音源ベクトル符号(F1)を多重化部214に出力する。
次に、パラメータ決定部213が、量子化利得生成部207から生成される第1量子化適応音源利得と第1量子化固定音源利得とを決定する処理を、第1量子化音源利得符号(G1)に割り当てるビット数を「8」とする場合を例に説明する。量子化利得生成部207は、予め作成された256種類の第1音源利得コードベクトルgain1 (k1)(i)が格納された第1音源利得コードブックを備える。ここで、k1は第1音源利得コードベクトルに付されたインデクスであり0〜255の値をとる。また、第1音源利得コードベクトルgain1 (k1)(i)は2次元のベクトルであり、iは0〜1の値をとる。パラメータ決定部213は、k1の値を0から255まで、順次、量子化利得生成部207に指示する。量子化利得生成部207は、パラメータ決定部213により指示されたk1を用いて第1音源利得コードブックから第1音源利得コードベクトルgain1 (k1)(i)を選択し、gain1 (k1)(0)を第1量子化適応音源利得として乗算器209に出力し、また、gain1 (k1)(1)を第1量子化固定音源利得として乗算器210に出力する。
このように、量子化利得生成部207によって求められるgain1 (k1)(0)が「第1量子化適応音源利得」であり、gain1 (k1)(1)が「第1量子化固定音源利得」である。パラメータ決定部213は、全てのk1について、聴覚重み付け部212より出力される符号化歪みを求め、符号化歪みが最小となるk1の値(k1min)を決定する。次に、パラメータ決定部213は、k1minを第1量子化音源利得符号(G1)として多重化部214に出力する。
次に、第1局所復号化部102の内部構成について図5に示すブロック図を用いて説明する。図5において、第1局所復号化部102に入力された第1符号化情報は、多重化分離部501によって個々の符号(L1、A1、G1、F1)に分離される。分離された第1量子化LSP符号(L1)はLSP復号化部502に出力され、分離された第1適応音源ラグ符号(A1)は適応音源符号帳505に出力され、分離された第1量子化音源利得符号(G1)は量子化利得生成部506に出力され、分離された第1固定音源ベクトル符号(F1)は固定音源符号帳507へ出力される。
LSP復号化部502は、多重化分離部501から出力された第1量子化LSP符号(L1)から第1量子化LSPを復号化し、復号化した第1量子化LSPを合成フィルタ503と第2符号化部104と判定部105とへ出力する。
適応音源符号帳505は、多重化分離部501から出力された第1適応音源ラグ符号(A1)で指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第1適応音源ベクトルとして乗算器508へ出力する。また、適応音源符号帳505は、第1適応音源ラグ符号(A1)で指定される切り出し位置を第1適応音源ラグとして第2符号化部104へ出力する。また、適応音源符号帳505は、加算器510から駆動音源を入力する毎にバッファのアップデートを行う。
量子化利得生成部506は、多重化分離部501から出力された第1量子化音源利得符号(G1)で指定される第1量子化適応音源利得と第1量子化固定音源利得とを復号化し、第1量子化適応音源利得を乗算器508へ出力し、第1量子化固定音源利得を乗算器509へ出力する。
固定音源符号帳507は、多重化分離部501から出力された第1固定音源ベクトル符号(F1)で指定される第1固定音源ベクトルを生成し、乗算器509へ出力する。
乗算器508は、第1適応音源ベクトルに第1量子化適応音源利得を乗算して、加算器510へ出力する。乗算器509は、第1固定音源ベクトルに第1量子化固定音源利得を乗算して、加算器510へ出力する。
加算器510は、乗算器508、509から出力された利得乗算後の第1適応音源ベクトルと第1固定音源ベクトルとの加算を行い、駆動音源を生成し、駆動音源を合成フィルタ503及び適応音源符号帳505に出力する。なお、適応音源符号帳505に入力された駆動音源は、バッファに記憶される。
合成フィルタ503は、加算器510から出力された駆動音源と、LSP復号化部502によって復号化されたフィルタ係数とを用いてフィルタ合成を行い、合成信号を後処理部504へ出力する。
後処理部504は、合成フィルタ503から出力された合成信号に対して、ホルマント強調やピッチ強調といったような音声の主観的な品質を改善する処理や、定常雑音の主観的品質を改善する処理などを施し、第1復号化信号として出力する。
次に、第2符号化部104の内部構成について、図6に示すブロック図を用いて説明する。第2符号化部104は、入力される残差信号をNサンプルずつ区切り(Nは自然数)、Nサンプルを1フレームとしてフレーム毎に符号化を行う。
第2符号化部104の入力信号は、前処理部601に入力される。前処理部601は、DC成分を取り除くハイパスフィルタ処理や後続する符号化処理の性能改善につながるような波形整形処理やプリエンファシス処理を行い、これらの処理後の信号(Xin)をLSP分析部602および加算器605へ出力する。
LSP分析部602は、Xinを用いて線形予測分析を行い、分析結果であるLPC(線形予測係数)をLSP(Line Spectral Pairs)に変換し、変換結果を第2LSPとしてLSP量子化部603へ出力する。
LSP量子化部603は、第1量子化LSPとLSP分析部602から第2LSPとを入力する。次に、LSP量子化部603は、第1量子化LSPの極性を反転させて第2LSPに加算することにより残差LSPを算出する。次に、LSP量子化部603は、残差LSPの量子化処理を行い、量子化された残差LSP(量子化残差LSP)と第1量子化LSPとを加算することにより第2量子化LSPを算出する。次に、LSP量子化部603は、第2量子化LSPを合成フィルタ604へ出力するとともに量子化残差LSPを表す第2量子化LSP符号(L2)を多重化部614へ出力する。また、LSP量子化部603は、量子化残差LSPを判定部105へ出力する。
合成フィルタ604は、第2量子化LSPに基づくフィルタ係数により、後述する加算器611から出力される駆動音源に対してフィルタ合成を行うことにより合成信号を生成し、合成信号を加算器605へ出力する。
加算器605は、合成信号の極性を反転させてXinに加算することにより誤差信号を算出し、誤差信号を聴覚重み付け部612へ出力する。
適応音源符号帳606は、過去に加算器611によって出力された駆動音源をバッファに記憶しており、また、第1適応音源ラグとパラメータ決定部613から出力される信号とによって特定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、第2適応音源ベクトルとして乗算器609へ出力する。また、適応音源符号帳606は、加算器611から駆動音源を入力する毎にバッファのアップデートを行う。
量子化利得生成部607は、パラメータ決定部613から出力される信号によって、第2量子化適応音源利得と第2量子化固定音源利得とを決定し、これらをそれぞれ乗算器609と乗算器610とへ出力する。
固定音源符号帳608は、パラメータ決定部613から出力される信号によって特定される形状を有するベクトルを第2固定音源ベクトルとして乗算器610へ出力する。
乗算器609は、量子化利得生成部607から出力された第2量子化適応音源利得を、適応音源符号帳606から出力された第2適応音源ベクトルに乗じて、加算器611へ出力する。乗算器610は、量子化利得生成部607から出力された第2量子化固定音源利得を、固定音源符号帳608から出力された第2固定音源ベクトルに乗じて、加算器611へ出力する。
加算器611は、利得乗算後の第2適応音源ベクトルと第2固定音源ベクトルとをそれぞれ乗算器609と乗算器610から入力し、これらを加算し、加算結果である駆動音源を合成フィルタ604および適応音源符号帳606へ出力する。なお、適応音源符号帳606に入力された駆動音源は、バッファに記憶される。
聴覚重み付け部612は、加算器605から出力された誤差信号に対して聴覚的な重み付けをおこない、符号化歪みとしてパラメータ決定部613へ出力する。
パラメータ決定部613は、聴覚重み付け部612から出力される符号化歪みを最小とする第2適応音源ラグを適応音源符号帳606から選択し、選択結果を示す第2適応音源ラグ符号(A2)を多重化部614に出力する。ここで、「第2適応音源ラグ」とは、第2適応音源ベクトルを切り出す切り出し位置であり、詳細な説明は後述する。また、パラメータ決定部613は、聴覚重み付け部612から出力される符号化歪みを最小とする第2固定音源ベクトルを固定音源符号帳608から選択し、選択結果を示す第2固定音源ベクトル符号(F2)を多重化部614に出力する。また、パラメータ決定部613は、聴覚重み付け部612から出力される符号化歪みを最小とする第2量子化適応音源利得と第2量子化固定音源利得とを量子化利得生成部607から選択し、選択結果を示す第2量子化音源利得符号(G2)を多重化部614に出力する。
多重化部614は、LSP量子化部603から第2量子化LSP符号(L2)を入力し、パラメータ決定部613から第2適応音源ラグ符号(A2)、第2固定音源ベクトル符号(F2)および第2量子化音源利得符号(G2)を入力し、これらの情報を多重化して第2符号化情報として出力する。
次に、LSP量子化部603が第2量子化LSPを決定する処理を、第2量子化LSP符号(L2)に割り当てるビット数を「8」とし、残差LSPをベクトル量子化する場合を例に挙げ、簡単に説明する。
LSP量子化部603は、予め作成された256種類の第2LSPコードベクトルlspres (l2)(i)が格納された第2LSPコードブックを備える。ここで、l2は第2LSPコードベクトルに付されたインデクスであり0〜255の値をとる。また、第2LSPコードベクトルlspres (l2)(i)はN次元のベクトルであり、iは0〜N−1の値をとる。LSP量子化部603は、LSP分析部602から出力された第2LSPα(i)を入力する。ここで、第2LSPα(i)はN次元のベクトルである。また、LSP量子化部603は、第1局所復号化部102から出力された第1量子化LSPlsp1 (l1min)(i)を入力する。ここで、第1量子化LSPlsp1 (l1min)(i)はN次元のベクトルであり、iは0〜N−1の値をとる。
次に、LSP量子化部603は、式(2)により残差LSPres(i)を求める。
Figure 0004445328
次に、LSP量子化部603は、式(3)により残差LSPres(i)と第2LSPコードベクトルlspres (l2)(i)との二乗誤差er2を求める。
Figure 0004445328
次に、LSP量子化部603は、全てのl2について二乗誤差er2を求め、二乗誤差er2が最小となるl2の値(l2min)を決定する。次に、LSP量子化部603は、l2minを第2量子化LSP符号(L2)として多重化部614へ出力する。
次に、LSP量子化部603は、式(4)により第2量子化LSPlsp2(i)を求める。
Figure 0004445328
次に、LSP量子化部603は、第2量子化LSPlsp2(i)を合成フィルタ604へ出力する。
このように、LSP量子化部603によって求められるlsp2(i)が「第2量子化LSP」であり、二乗誤差er2が最小となるlspres (l2min)(i)が「量子化残差LSP」である。
次に、パラメータ決定部613が第2適応音源ラグを決定する処理について図7を用いて説明する。図7において、バッファ701は適応音源符号帳606が備えるバッファであり、位置702は第2適応音源ベクトルの切り出し位置であり、ベクトル703は、切り出された第2適応音源ベクトルである。また、「t」は、第1適応音源ラグであり、また、数値「41」、「296」は、パラメータ決定部213が第1適応音源ラグの探索を行う範囲の下限と上限とに対応している。また、「t−16」、「t+15」は、第2適応音源ベクトルの切り出し位置を動かす範囲の下限と上限とに対応している。
切り出し位置702を動かす範囲は、第2適応音源ラグを表す符号(A2)に割り当てるビット数を「5」とする場合、「32」の長さの範囲(例えば、t−16〜t+15)に設定することができる。また、切り出し位置702を動かす範囲は、任意に設定することができる。
パラメータ決定部613は、第1局所復号化部102から第1適応音源ラグ「t」を入力し、切り出し位置702を動かす範囲をt−16〜t+15に設定する。次に、パラメータ決定部613は、切り出し位置702を設定された範囲内で動かし、順次、適応音源符号帳606に切り出し位置702を指示する。次に、適応音源符号帳606は、パラメータ決定部613により指示された切り出し位置702を用いて、第2適応音源ベクトル703をフレームの長さだけ切り出し、切り出した第2適応音源ベクトル703を乗算器609に出力する。次に、パラメータ決定部613は、全ての切り出し位置702で第2適応音源ベクトル703を切り出した場合について、聴覚重み付け部612から出力される符号化歪みを求め、符号化歪みが最小となる切り出し位置702を決定する。
このように、パラメータ決定部613によって求められるバッファの切り出し位置702がt+γである場合、γ(γは−16〜15のいずれかの値)が「第2適応音源ラグ」である。従って、第2復号化部154で第2適応音源ベクトル703を切り出すには、第1適応音源ラグtと第2適応音源ラグγとを加算し、加算結果t+γを切り出し位置702とすることにより第2適応音源ラグ703を切り出す。
次に、パラメータ決定部613は、符号化歪みを最小とする第2適応音源ラグを表す第2適応音源ラグ符号(A2)を多重化部614に出力する。
なお、パラメータ決定部613は、パラメータ決定部213が第1固定音源ベクトル符号(F1)を決定する処理と同様の処理により、第2固定音源ベクトル符号(F2)を決定する。
また、パラメータ決定部613は、パラメータ決定部213が第1量子化音源利得符号(G1)を決定する処理と同様の処理により、第2量子化音源利得符号(G2)を決定する。
次に、判定部105がフラグ情報を生成する処理について説明する。判定部105は、第1符号化部101から第1LSP、第1局所復号化部102から第1量子化LSP、第2符号化部104から量子化残差LSP、を入力する。また、判定部105は、前フレームの第1量子化LSPを記憶するバッファを内部に備える。
次に、判定部105は、式(5)を用いて、第1LSPと前フレーム第1量子化LSPとの二乗誤差er3を求める。
Figure 0004445328
ここで、α(i)は第1LSPであり、lsppre1(i)はバッファに記憶されている前フレーム第1量子化LSPである。
次に、判定部105は、(数6)を用いて、第1LSPと、前フレーム第1量子化LSPと量子化残差LSPとを加算したベクトルとの二乗誤差er4を求める。
Figure 0004445328
ここで、lspres(i)は量子化残差LSPである。
次に、判定部105は、二乗誤差er3と二乗誤差er4との大小比較を行い、二乗誤差er3の方が小さい場合、フラグ情報は「0」の値をとり、二乗誤差er4の方が小さい場合、フラグ情報は「1」の値をとる。次に、判定部105は、フラグ情報を多重化部106へ出力する。次に、判定部105は、第1局所復号化部102から入力した第1量子化LSPをバッファへ記憶することにより、バッファのアップデートを行う。記憶された第1量子化LSPは、次フレームにおいて、前フレーム第1量子化LSPとして用いられる。
このように、前フレーム第1符号化情報のみを用いた場合と、前フレーム第1符号情報と量子化残差LSPとを用いた場合とを比較し、どちらの場合がより第1LSPに近い値を得ることができるか、という情報をフラグ情報として復号化装置側へ伝送することにより、復号化装置側で第1符号化情報の損失が検出された場合、第1復号化部において、前フレーム第1符号化情報のみを用いて復号化を行うか、前フレーム第1符号化情報と量子化残差LSPとを用いて復号化を行うか、を指示することができる。
次に、第1復号化部153の内部構成について図8に示すブロック図を用いて説明する。図8において、第1符号化情報が損失無く伝送されている場合、第1復号化部153に入力された第1符号化情報は、多重化分離部801によって個々の符号(L1、A1、G1、F1)に分離される。分離された第1量子化LSP符号(L1)はLSP復号化部802に出力され、分離された第1適応音源ラグ符号(A1)は適応音源符号帳805に出力され、分離された第1量子化音源利得符号(G1)は量子化利得生成部806に出力され、分離された第1固定音源ベクトル符号(F1)は固定音源符号帳807へ出力される。
LSP復号化部802は、多重化分離部151からフラグ情報を入力し、符号化情報操作部811からフレーム損失情報を入力する。LSP復号化部802は、フレーム損失情報が「1」もしくは「3」である場合、多重化分離部801から第1量子化LSP符号(L1)を入力し、第1量子化LSP符号(L1)から第1量子化LSPを復号化する。LSP復号化部802は、フレーム損失情報が「0」である場合、符号化情報操作部811から前フレーム第1量子化LSPを入力し、これを第1量子化LSPとする。LSP復号化部802は、フレーム損失情報が「2」である場合、符号化情報操作部811から前フレーム第1量子化LSPと量子化残差LSPとを入力し、これらを加算した加算結果を第1量子化LSPとする。しかし、LSP復号化部802は、フラグ情報が「0」である場合は、量子化残差LSPを使用しない。次に、LSP復号化部802は、前記第1量子化LSPを合成フィルタ803と符号化情報操作部811とへ出力する。符号化情報操作部811へ出力された第1量子化LSPは、次フレームの復号化処理の際に前フレーム第1量子化LSPとして用いられる。
適応音源符号帳805は、過去に加算器810によって出力された駆動音源をバッファに記憶している。適応音源符号帳805は、符号化情報操作部811からフレーム損失情報を入力する。適応音源符号帳805は、フレーム損失情報が「1」もしくは「3」である場合、多重化分離部801から第1適応音源ラグ符号(A1)を入力し、第1適応音源ラグ符号(A1)で指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第1適応音源ベクトルとする。適応音源符号帳805は、フレーム損失情報が「0」である場合、符号化情報操作部811から前フレーム第1適応音源ラグを入力し、前フレーム第1適応音源ラグで指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第1適応音源ベクトルとする。適応音源符号帳805は、フレーム損失情報が「2」である場合、符号化情報操作部811から前フレーム第1適応音源ラグと第2適応音源ラグとを入力し、これらを加算した加算結果により指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第1適応音源ベクトルとする。
次に、適応音源符号帳805は、第1適応音源ベクトルを乗算器808へ出力する。また、適応音源符号帳805は、第1適応音源ベクトルの切り出し位置を第1適応音源ラグとして符号化情報操作部811へ出力する。符号化情報操作部811へ出力された第1適応音源ラグは、次フレームの復号化処理の際に前フレーム第1適応音源ラグとして用いられる。また、適応音源符号帳805は、加算器810から駆動音源を入力する毎にバッファのアップデートを行う。
量子化利得生成部806は、符号化情報操作部811からフレーム損失情報を入力する。量子化利得生成部806は、フレーム損失情報が「1」もしくは「3」である場合、多重化分離部801から第1量子化音源利得符号(G1)を入力し、第1量子化音源利得符号(G1)で指定される第1量子化適応音源利得と第1量子化固定音源利得とを復号化する。量子化利得生成部806は、フレーム損失情報が「0」である場合、符号化情報操作部811から前フレーム第1量子化適応音源利得と前フレーム第1量子化適応音源利得とを入力し、これらを第1量子化適応音源利得と第1量子化固定音源利得とする。量子化利得生成部806は、フレーム損失情報が「2」である場合、符号化情報操作部811から前フレーム第1量子化適応音源利得と前フレーム第1量子化固定音源利得と第2量子化適応音源利得と第2量子化固定音源利得とを入力し、前フレーム第1量子化適応音源利得と第2量子化適応音源利得とを加算し、加算結果に0.5を掛けた乗算結果を第1量子化適応音源利得とし、また、前フレーム第1量子化固定音源利得と第2量子化固定音源利得とを加算し、加算結果に0.5を掛けた乗算結果を第1量子化固定音源利得とする。次に、量子化利得生成部806は、第1量子化適応音源利得を乗算器808と符号化情報操作部811とへ出力し、第1量子化固定音源利得を乗算器809と符号化情報操作部811とへ出力する。符号化情報操作部811へ出力された第1量子化適応音源利得と第1量子化固定音源利得とは、次フレームの復号化処理の際に前フレーム第1量子化適応音源利得と前フレーム第1量子化固定音源利得として用いられる。
固定音源符号帳807は、符号化情報操作部811からフレーム損失情報を入力する。固定音源符号帳807は、フレーム情報が「1」もしくは「3」である場合、多重化分離部801から第1固定音源ベクトル符号(F1)を入力し、第1固定音源ベクトル符号(F1)で指定される第1固定音源ベクトルを生成する。固定音源符号帳807は、フレーム情報が「0」もしくは「2」である場合、符号化情報操作部811から前フレーム第1固定音源ベクトルを入力し、これを第1固定音源ベクトルとする。次に、固定音源符号帳807は、第1固定音源ベクトルを乗算器809と符号化情報操作部811とへ出力する。符号化情報操作部811へ出力された第1固定音源ベクトルは、次フレームの復号化処理の際に前フレーム第1固定音源ベクトルとして用いられる。
乗算器808は、第1適応音源ベクトルに第1量子化適応音源利得を乗算して、加算器810へ出力する。乗算器809は、第1固定音源ベクトルに第1量子化固定音源利得を乗算して、加算器810へ出力する。
加算器810は、乗算器808、809から出力された利得乗算後の第1適応音源ベクトルと第1固定音源ベクトルとの加算を行い、駆動音源を生成し、駆動音源を合成フィルタ803と適応音源符号帳805とへ出力する。
合成フィルタ803は、加算器810から出力された駆動音源と、LSP復号化部802によって復号化されたフィルタ係数とを用いてフィルタ合成を行い、合成信号を後処理部804へ出力する。
後処理部804は、合成フィルタ803から出力された合成信号に対して、ホルマント強調やピッチ強調といったような音声の主観的な品質を改善する処理や、定常雑音の主観的品質を改善する処理などを施し、第1復号化信号として出力する。
符号化情報操作部811は、各種パラメータを記憶するバッファを内部に備え、前フレームで求められた第1量子化LSP(前フレーム第1量子化LSP)と、前フレームで求められた第1適応音源ラグ(前フレーム第1適応音源ラグ)と、前フレームで求められた第1量子化適応音源利得(前フレーム第1量子化適応音源利得)と、前フレームで求められた第1量子化固定音源利得(前フレーム第1量子化固定音源利得)と、前フレームで求められた第1固定音源ベクトル(前フレーム第1固定音源ベクトル)と、をバッファに記憶している。
符号化情報操作部811は、フレーム損失検出部152からフレーム損失情報を入力する。次に、符号化情報操作部811は、フレーム損失情報が「2」である場合、第2復号化部154から量子化残差LSPと第2適応音源ラグと第2量子化適応音源利得と第2量子化固定音源利得とを入力する。次に、符号化情報操作部811は、フレーム損失情報をLSP復号化部802と適応音源符号帳805と量子化利得生成部806と固定音源符号帳807とへ出力する。符号化情報操作部811は、フレーム損失情報が「0」である場合、LSP復号化部802へ前フレーム第1量子化LSPを、適応音源符号帳805へ前フレーム第1適応音源ラグを、量子化利得生成部806へ前フレーム第1量子化適応音源利得と前フレーム第1量子化固定音源利得とを、固定音源符号帳807へ前フレーム第1固定音源ベクトルを、出力する。符号化情報操作部811は、フレーム損失情報が「2」である場合、LSP復号化部802へ前フレーム第1量子化LSPと量子化残差LSPとを、適応音源符号帳805へ前フレーム第1適応音源ラグと第2適応音源ラグとを、量子化利得生成部806へ前フレーム第1量子化適応音源利得と前フレーム第1量子化固定音源利得と第2量子化適応音源利得と第2量子化固定音源利得とを、固定音源符号帳807へ前フレーム第1固定音源ベクトルを、出力する。
次に、符号化情報操作部811は、現フレームでの復号化処理に用いられた第1量子化LSPをLSP復号化部802から、第1適応音源ラグを適応音源符号帳805から、第1量子化適応音源利得と第1量子化固定音源利得とを量子化利得生成部806から、第1固定音源ベクトルを固定音源符号帳807から入力する。次に、符号化情報操作部811は、フレーム損失情報が「1」もしくは「3」である場合、第1量子化LSPと第1適応音源ラグと第1量子化適応音源利得と第1量子化固定音源利得とを第2復号化部154へ出力し、フレーム損失情報が「0」もしくは「2」である場合、バッファに記憶されている前フレーム第1量子化LSPと前フレーム第1適応音源ラグとを第2復号化部154へ出力する。
符号化情報操作部811は、以上の処理が終了した後、現フレームでの復号化処理に用いられた第1量子化LSPを前フレーム第1量子化LSPとして、第1適応音源ラグを前フレーム第1適応音源ラグとして、第1量子化適応音源利得を前フレーム第1量子化適応音源利得として、第1量子化固定音源利得を前フレーム第1量子化固定音源利得として、第1固定音源ベクトルを前フレーム第1固定音源利得としてバッファへ記憶し、バッファのアップデートを行う。
次に、第2復号化部154の内部構成について図9に示すブロック図を用いて説明する。図9において、第2符号化情報が損失無く伝送されている場合、第2復号化部154に入力された第2符号化情報は、多重化分離部901によって個々の符号(L2、A2、G2、F2)に分離される。分離された第2量子化LSP符号(L2)はLSP復号化部902に出力され、分離された第2適応音源ラグ符号(A2)は適応音源符号帳905に出力され、分離された第2量子化音源利得符号(G2)は量子化利得生成部906に出力され、分離された第2固定音源ベクトル符号(F2)は固定音源符号帳907へ出力される。
LSP復号化部902は、符号化情報操作部911からフレーム損失情報を入力する。LSP復号化部902は、フレーム損失情報が「3」である場合、符号化情報操作部911から第1量子化LSPを入力し、また、多重化分離部901から第2量子化LSP符号(L2)を入力し、第2量子化LSP符号(L2)から量子化残差LSPを復号化し、第1量子化LSPと量子化残差LSPとを加算した加算結果を第2量子化LSPとする。LSP復号化部902は、フレーム損失情報が「1」である場合、符号化情報操作部911から第1量子化LSPと前フレーム量子化残差LSPとを入力し、第1量子化LSPと前フレーム量子化残差LSPとを加算した加算結果を第2量子化LSPとする。フレーム損失情報が「2」である場合、符号化情報操作部911から前フレーム第1量子化LSPを入力し、また、多重化分離部901から第2量子化LSP符号(L2)を入力し、第2量子化LSP符号(L2)から量子化残差LSPを復号化し、前フレーム第1量子化LSPと量子化残差LSPとを加算した加算結果を第2量子化LSPとする。LSP復号化部902は、フレーム損失情報が「0」である場合、符号化情報操作部911から前フレーム第1量子化LSPと前フレーム量子化残差LSPとを入力し、前フレーム第1量子化LSPと前フレーム量子化残差LSPとを加算した加算結果を第2量子化LSPとする。
次に、LSP復号化部902は、前記第2量子化LSPを合成フィルタ903へ出力する。次に、LSP復号化部902は、フレーム損失情報が「2」もしくは「3」である場合、第2量子化LSP符号(L2)を復号化して求めた量子化残差LSPを符号化情報操作部911へ出力し、フレーム損失情報が「0」もしくは「1」である場合、前フレーム量子化残差LSPを符号化情報操作部911へ出力する。符号化情報操作部911へ出力された量子化残差LSPもしくは前フレーム量子化残差LSPは、次フレームの復号化処理の際に前フレーム量子化残差LSPとして用いられる。
適応音源符号帳905は、過去に加算器910によって出力された駆動音源をバッファに記憶している。適応音源符号帳905は、符号化情報操作部911からフレーム損失情報を入力する。適応音源符号帳905は、フレーム損失情報が「3」である場合、符号化情報操作部911から第1適応音源ラグを入力し、また、多重化分離部901から第2適応音源ラグ符号(A2)を入力し、第1適応音源ラグと第2適応音源ラグ符号(A2)とを加算した加算結果により指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第2適応音源ベクトルとする。適応音源符号帳905は、フレーム損失情報が「1」である場合、符号化情報操作部911から第1適応音源ラグと前フレーム第2適応音源ラグとを入力し、これらの適応音源ラグを加算した加算結果により指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第2適応音源ベクトルとする。適応音源符号帳905は、フレーム損失情報が「2」である場合、符号化情報操作部911から前フレーム第1適応音源ラグを入力し、また、多重化分離部901から第2適応音源ラグ符号(A2)を入力し、前フレーム第1適応音源ラグと第2適応音源ラグ符号(A2)とを加算した加算結果により指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第2適応音源ベクトルとする。適応音源符号帳905は、フレーム損失情報が「0」である場合、符号化情報操作部911から前フレーム第1適応音源ラグと前フレーム第2適応音源ラグとを入力し、これらの適応音源ラグを加算した加算結果により指定される切り出し位置から1フレーム分のサンプルをバッファより切り出し、切り出したベクトルを第2適応音源ベクトルとする。
次に、適応音源符号帳905は、第2適応音源ベクトルを乗算器908へ出力する。また、適応音源符号帳905は、フレーム損失情報が「2」もしくは「3」である場合、第2適応音源ラグ符号(A2)を第2適応音源ラグとして符号化情報操作部911へ出力し、フレーム損失情報が「0」もしくは「1」である場合、前フレーム第2適応音源ラグを符号化情報操作部911へ出力する。符号化情報操作部911へ出力された第2適応音源ラグもしくは前フレーム第2適応音源ラグは、次フレームの復号化処理の際に前フレーム第2適応音源ラグとして用いられる。また、適応音源符号帳905は、加算器910から駆動音源を入力する毎にバッファのアップデートを行う。
量子化利得生成部906は、符号化情報操作部911からフレーム損失情報を入力する。量子化利得生成部906は、フレーム損失情報が「2」もしくは「3」である場合、多重化分離部901から第2量子化音源利得符号(G2)を入力し、第2量子化音源利得符号(G2)で指定される第2量子化適応音源利得と第2量子化固定音源利得とを復号化する。量子化利得生成部906は、フレーム損失情報が「1」である場合、符号化情報操作部911から第1量子化適応音源利得と第1量子化固定音源利得と前フレーム第2量子化適応音源利得と前フレーム第2量子化固定音源利得とを入力し、第1量子化適応音源利得と前フレーム第2量子化適応音源利得とを加算し、加算結果に0.5を掛けた乗算結果を第2量子化適応音源利得とし、第1量子化固定音源利得と前フレーム第2量子化固定音源利得とを加算し、加算結果に0.5を掛けた乗算結果を第2量子化固定音源利得とする。量子化利得生成部906は、フレーム損失情報が「0」である場合、符号化情報操作部911から前フレーム第2量子化適応音源利得と前フレーム第2量子化適応音源利得とを入力し、これらを第2量子化適応音源利得と第2量子化固定音源利得とする。
次に、量子化利得生成部906は、第2量子化適応音源利得を乗算器908と符号化情報操作部911とへ出力し、第2量子化固定音源利得を乗算器909と符号化情報操作部911とへ出力する。符号化情報操作部911へ出力された第2量子化適応音源利得と第2量子化固定音源利得とは、次フレームの復号化処理の際に前フレーム第2量子化適応音源利得と前フレーム第2量子化固定音源利得として用いられる。
固定音源符号帳907は、符号化情報操作部911からフレーム損失情報を入力する。固定音源符号帳907は、フレーム情報が「2」もしくは「3」である場合、多重化分離部901から第2固定音源ベクトル符号(F2)を入力し、第2固定音源ベクトル符号(F2)で指定される第2固定音源ベクトルを生成する。固定音源符号帳907は、フレーム情報が「0」もしくは「1」である場合、符号化情報操作部911から前フレーム第2固定音源ベクトルを入力し、これを第2固定音源ベクトルとする。次に、固定音源符号帳907は、第2固定音源ベクトルを乗算器909と符号化情報操作部911とへ出力する。符号化情報操作部911へ出力された第2固定音源ベクトルは、次フレームの復号化処理の際に前フレーム第2固定音源ベクトルとして用いられる。
乗算器908は、第2適応音源ベクトルに第2量子化適応音源利得を乗算して、加算器910へ出力する。乗算器909は、第2固定音源ベクトルに第2量子化固定音源利得を乗算して、加算器910へ出力する。
加算器910は、乗算器908、909から出力された利得乗算後の第2適応音源ベクトルと第2固定音源ベクトルとの加算を行い、駆動音源を生成し、駆動音源を合成フィルタ903と適応音源符号帳905とへ出力する。
合成フィルタ903は、加算器910から出力された駆動音源と、LSP復号化部902によって復号化されたフィルタ係数とを用いてフィルタ合成を行い、合成信号を後処理部904へ出力する。
後処理部904は、合成フィルタ903から出力された合成信号に対して、ホルマント強調やピッチ強調といったような音声の主観的な品質を改善する処理や、定常雑音の主観的品質を改善する処理などを施し、第2復号化信号として出力する。
符号化情報操作部911は、各種パラメータを記憶するバッファを内部に備え、前フレームで求められた量子化残差LSP(前フレーム量子化残差LSP)と、前フレームで求められた第2適応音源ラグ(前フレーム第2適応音源ラグ)と、前フレームで求められた第2量子化適応音源利得(前フレーム第2量子化適応音源利得)と、前フレームで求められた第2量子化固定音源利得(前フレーム第2量子化固定音源利得)と、前フレームで求められた第2固定音源ベクトル(前フレーム第2固定音源ベクトル)と、をバッファに記憶している。
符号化情報操作部911は、フレーム損失検出部152からフレーム損失情報を入力する。符号化情報操作部911は、フレーム損失情報が「1」もしくは「3」である場合、第1復号化部153から第1量子化LSPと第1適応音源ラグと第1量子化適応音源利得と第1量子化固定音源利得とを入力する。符号化情報操作部911は、フレーム損失情報が「0」もしくは「2」である場合、第1復号化部153から前フレーム第1量子化LSPと前フレーム第1適応音源ラグとを入力する。次に、符号化情報操作部911は、フレーム損失情報をLSP復号化部902と適応音源符号帳905と量子化利得生成部906と固定音源符号帳907とへ出力する。符号化情報操作部911は、フレーム損失情報が「0」である場合、LSP復号化部902へ前フレーム第1量子化LSPと前フレーム量子化残差LSPとを、適応音源符号帳905へ前フレーム第1適応音源ラグと前フレーム第2適応音源ラグとを、量子化利得生成部906へ前フレーム第2量子化適応音源利得と前フレーム第2量子化固定音源利得とを、固定音源符号帳907へ前フレーム第2固定音源ベクトルを、出力する。符号化情報操作部911は、フレーム損失情報が「1」である場合、LSP復号化部902へ第1量子化LSPと前フレーム量子化残差LSPとを、適応音源符号帳905へ第1適応音源ラグと前フレーム第2適応音源ラグとを、量子化利得生成部906へ第1量子化適応音源利得と第1量子化固定音源利得と前フレーム第2量子化適応音源利得と前フレーム第2量子化固定音源利得とを、固定音源符号帳907へ前フレーム第2固定音源ベクトルを、出力する。符号化情報操作部911は、フレーム損失情報が「2」である場合、LSP復号化部902へ前フレーム第1量子化LSPを、適応音源符号帳905へ前フレーム第1適応音源ラグを、出力する。符号化情報操作部911は、フレーム損失情報が「3」である場合、LSP復号化部902へ第1量子化LSPを、適応音源符号帳905へ第1適応音源ラグを出力する。
次に、符号化情報操作部911は、現フレームでの復号化処理に用いられた量子化残差LSPをLSP復号化部902から、第2適応音源ラグを適応音源符号帳905から、第2量子化適応音源利得と第2量子化固定音源利得とを量子化利得生成部906から、第2固定音源ベクトルを固定音源符号帳907から入力する。次に、符号化情報操作部911は、フレーム損失情報が「2」である場合、量子化残差LSPと第2適応音源ラグと第2量子化適応音源利得と第2量子化固定音源利得とを第1復号化部153へ出力する。
符号化情報操作部911は、以上の処理が終了した後、現フレームでの復号化処理に用いられた量子化残差LSPを前フレーム量子化残差LSPとして、第2適応音源ラグを前フレーム第2適応音源ラグとして、第2量子化適応音源利得を前フレーム第2量子化適応音源利得として、第2量子化固定音源利得を前フレーム第2量子化固定音源利得として、第2固定音源ベクトルを前フレーム第2固定音源利得としてバッファへ記憶し、バッファのアップデートを行う。
このように、第1復号化部153、第2復号化部154において、第1符号化情報、第2符号化情報、前フレーム第1符号化情報、前フレーム第2符号化情報の中から、フレーム損失情報に応じて復号化に用いるパラメータを適宜選択することにより、符号化情報の損失状態に適した復号化を行うことができ、品質の良い復号化信号を得ることができる。
次に、符号化情報操作部811の内部構成について図10に示すブロック図を用いて説明する。フレーム損失情報分配部1001は、フレーム損失検出部152からフレーム損失情報を入力し、これを第1符号化情報分配部1002、符号化情報記憶部1003、第2符号化情報分配部1004、LSP復号化部802、適応音源符号帳805、量子化利得生成部806及び固定音源符号帳807に出力する。
第1符号化情報分配部1002は、フレーム損失情報分配部1001からフレーム損失情報を入力する。次に、第1符号化情報分配部1002は、LSP復号化部802から第1量子化LSPを、適応音源符号帳805から第1適応音源ラグを、量子化利得生成部806から第1量子化適応音源利得と第1量子化固定音源利得とを、固定音源符号帳807から第1固定音源ベクトルを、入力する。次に、第1符号化情報分配部1002は、第1量子化LSP、第1適応音源ラグ、第1固定音源ベクトル、第1量子化適応音源利得及び第1量子化固定音源利得を符号化情報記憶部1003へ出力する。次に、第1符号化情報分配部1002は、フレーム損失情報が「1」もしくは「3」である場合、第1量子化LSPと第1適応音源ラグと第1固定音源ベクトルと第1量子化適応音源利得と第1量子化固定音源利得とを第2復号化部154へ出力する。
符号化情報記憶部1003は、フレーム損失情報分配部1001からフレーム損失情報を入力する。また、符号化情報記憶部1003は、前フレームの第1量子化LSP、第1適応音源ラグ、第1固定音源ベクトル、第1量子化適応音源利得及び第1量子化固定音源利得を記憶するバッファを内部に備える。次に、符号化情報記憶部1003は、フレーム損失情報が「0」もしくは「2」である場合、前フレーム第1量子化LSPをLSP復号化部802へ出力し、前フレーム第1適応音源ラグを適応音源符号帳805へ出力し、前フレーム第1固定音源ベクトルを固定音源符号帳807へ出力し、前フレーム第1量子化適応音源利得と前フレーム第1量子化固定音源利得とを量子化利得生成部806へ出力する。また、符号化情報記憶部1003は、フレーム損失情報が「0」もしくは「2」である場合、前フレーム第1量子化LSPと前フレーム第1適応音源ラグとを第2復号化部154へ出力する。次に、符号化情報記憶部1003は、第1符号化情報分配部1002から第1量子化LSP、第1適応音源ラグ、第1固定音源ベクトル、第1量子化適応音源利得及び第1量子化固定音源利得を入力する。次に、符号化情報記憶部1003は、第1量子化LSP、第1適応音源ラグ、第1固定音源ベクトル、第1量子化適応音源利得及び第1量子化固定音源利得をバッファへ記憶することにより、バッファのアップデートを行う。記憶された第1量子化LSP、第1適応音源ラグ、第1固定音源ベクトル、第1量子化適応音源利得及び第1量子化固定音源利得は、次フレームにおいて、前フレーム第1量子化LSP、前フレーム第1適応音源ラグ、前フレーム第1固定音源ベクトル、前フレーム第1量子化適応音源利得及び前フレーム第1量子化固定音源利得として用いられる。
第2符号化情報分配部1004は、フレーム損失情報分配部1001からフレーム損失情報を入力する。次に、第2符号化情報分配部1004は、フレーム損失情報が「2」である場合、第2復号化部154から量子化残差LSP、第2適応音源ラグ、第2量子化適応音源利得及び第2量子化固定音源利得を入力する。次に、第2符号化情報分配部1004は、フレーム損失情報が「2」である場合、量子化残差LSPをLSP復号化部802へ出力し、第2適応音源ラグを適応音源符号帳805へ出力し、第2量子化適応音源利得と第2量子化固定音源利得とを量子化利得生成部806へ出力する。
次に、符号化情報操作部911の内部構成について図11に示すブロック図を用いて説明する。フレーム損失情報分配部1101は、フレーム損失検出部152からフレーム損失情報を入力し、これを第1符号化情報分配部1102、符号化情報記憶部1103、第2符号化情報分配部1104、LSP復号化部902、適応音源符号帳905、量子化利得生成部906及び固定音源符号帳907に出力する。
第1符号化情報分配部1102は、フレーム損失情報分配部1101からフレーム損失情報を入力する。次に、第1符号化情報分配部1102は、フレーム損失情報が「1」もしくは「3」である場合、第1復号化部153から第1量子化LSP、第1適応音源ラグ、第1量子化適応音源利得及び第1量子化固定音源利得を入力する。また、第1符号化情報分配部1102は、フレーム損失情報が「0」もしくは「2」である場合、第1復号化部153から前フレーム第1量子化LSPと前フレーム第1適応音源ラグとを入力する。次に、第1符号化情報分配部1102は、フレーム損失情報が「1」もしくは「3」である場合、第1量子化LSPをLSP復号化部902へ出力し、第1適応音源ラグを適応音源符号帳905へ出力する。また、第1符号化情報分配部1102は、フレーム損失情報が「1」である場合、第1量子化適応音源利得と第1量子化固定音源利得とを量子化利得生成部906へ出力する。また、第1符号化情報分配部1102は、フレーム損失情報が「0」もしくは「2」である場合、前フレーム第1量子化LSPをLSP復号化部902へ出力し、前フレーム第1適応音源ラグを適応音源符号帳905へ出力する。
第2符号化情報分配部1104は、フレーム損失情報分配部1101からフレーム損失情報を入力する。次に、第2符号化情報分配部1104は、LSP復号化部902から量子化残差LSPを、適応音源符号帳905から第2適応音源ラグを、量子化利得生成部906から第2量子化適応音源利得と第2量子化固定音源利得とを、固定音源符号帳907から第2固定音源ベクトルを、入力する。次に、第2符号化情報分配部1104は、量子化残差LSP、第2適応音源ラグ、第2固定音源ベクトル、第2量子化適応音源利得及び第2量子化固定音源利得を符号化情報記憶部1103へ出力する。次に、第2符号化情報分配部1104は、フレーム損失情報が「2」である場合、量子化残差LSP、第2適応音源ラグ、第2量子化適応音源利得及び第2量子化固定音源利得を第1復号化部153へ出力する。
符号化情報記憶部1103は、フレーム損失情報分配部1101からフレーム損失情報を入力する。また、符号化情報記憶部1103は、前フレームの量子化残差LSP、第2適応音源ラグ、第2固定音源ベクトル、第2量子化適応音源利得及び第2量子化固定音源利得を記憶するバッファを内部に備える。次に、符号化情報記憶部1103は、フレーム損失情報が「0」もしくは「1」である場合、前フレーム量子化残差LSPをLSP復号化部902へ出力し、前フレーム第2適応音源ラグを適応音源符号帳905へ出力し、前フレーム第2固定音源ベクトルを固定音源符号帳907へ出力し、前フレーム第2量子化適応音源利得と前フレーム第2量子化固定音源利得とを量子化利得生成部906へ出力する。次に、符号化情報記憶部1103は、第2符号化情報分配部1104から量子化残差LSP、第2適応音源ラグ、第2固定音源ベクトル、第2量子化適応音源利得及び第2量子化固定音源利得を入力する。次に、符号化情報記憶部1103は、量子化残差LSP、第2適応音源ラグ、第2固定音源ベクトル、第2量子化適応音源利得及び第2量子化固定音源利得をバッファへ記憶することにより、バッファのアップデートを行う。記憶された量子化残差LSP、第2適応音源ラグ、第2固定音源ベクトル、第2量子化適応音源利得及び第2量子化固定音源利得は、次フレームにおいて、前フレーム量子化残差LSP、前フレーム第2適応音源ラグ、前フレーム第2固定音源ベクトル、前フレーム第2量子化適応音源利得及び前フレーム第2量子化固定音源利得として用いられる。
図12は、フレーム損失情報、および第1復号化部153と第2復号化部154とがフレーム損失情報に応じて復号化に用いるパラメータの種類を示した図である。なお、フレーム損失情報とこれに対応する第1符号化情報の状態と第2符号化情報の状態とを併せて示す。なお、図12において、「lsp」は第1量子化LSP、「p_lsp」は前フレーム第1量子化LSPを、「lag」は第1適応音源ラグを、「p_lag」は前フレーム第1適応音源ラグを、「sc」は第1固定音源ベクトルを、「p_sc」は前フレーム第1固定音源ベクトルを、「ga」は第1量子化適応音源利得を、「p_ga」は前フレーム第1量子化適応音源利得を、「gs」は第1量子化固定音源利得を、「p_gs」は前フレーム第1量子化固定音源利得を、「d_lsp」は量子化残差LSPを、「p_d_lsp」は前フレーム量子化残差LSPを、「d_lag」は第2適応音源ラグを、「p_d_lag」は前フレーム第2適応音源ラグを、「e_sc」は第2固定音源ベクトルを、「p_e_sc」は前フレーム第2固定音源ベクトルを、「e_ga」は第2量子化適応音源利得を、「p_e_ga」は前フレーム第2量子化適応音源利得を、「e_gs」は第2量子化固定音源利得を、「p_e_gs」は前フレーム第2量子化固定音源利得をそれぞれ示す。
また、図12において、「正常受信」は、符号化情報が正常に受信された状態を示し、「損失」は、正常に受信されなかった(損失した)状態を示す。
フレーム損失情報が「3」である場合、第1符号化情報、第2符号化情報共に正常受信されるので、第1復号化部153と第2復号化部154とは、受信された第1符号化情報と第2符号化情報とを用いて復号化を行う。即ち、フレーム損失を考慮しない通常の復号化を行う。
フレーム損失情報が「2」である場合、第1符号化情報が正常受信されないので、第1復号化部153と第2復号化部154とは、第1符号化情報の替わりに前フレームの第1符号化情報を用いて復号化を行う。また、第1復号化部153は、前フレームの第1符号化情報に加え、第2符号化情報を用いて復号化を行うことにより、復号化信号の品質向上を図っている。
フレーム損失情報が「1」である場合、第2符号化情報が正常受信されないので、第2復号化部154は、第2符号化情報の替わりに前フレームの第2符号化情報を用いて復号化を行う。
フレーム損失情報が「0」である場合、第1符号化情報、第2符号化情報共に正常受信されないので、第1復号化部153と第2復号化部154とは、第1符号化情報と第2符号化情報との替わりに前フレームの第1符号化情報と前フレームの第2符号化情報とを用いて復号化を行う。
図13は、第1符号化情報が正常受信されない場合、第1復号化部153が、前フレーム第1符号化情報に加え、第2符号化情報を用いて復号化を行うことにより、復号化信号の品質向上を図ることができることを視覚的に説明する図である。
ここでは、第1復号化部153のLSP復号化部802が第1量子化LSPを求める場合を例にとって説明する。また、説明を簡単にする為、第1量子化LSPは二次元のベクトルであるとする。
図13において、参照符号1300は、第1量子化LSPと量子化残差LSPと第1LSPとを模式的に表したグラフである。ここで、「×」は第1LSPを表し、長い方の矢印は第1量子化LSPを表し、短い方の矢印は量子化残差LSPを表す。第1量子化LSPは第1符号化情報に、量子化残差LSPは第2符号化情報に、含まれる。
また、参照符号1301は、第1量子化LSPと前フレーム第1量子化LSPと第1LSPとを模式的に表したグラフである。ここで、「×」は第1LSPを表し、破線の矢印は第1量子化LSPを表し、実線の矢印は前フレーム第1量子化LSPを表す。すなわち、第1符号化情報(第1量子化LSP)が正常受信されず、LSP復号化部802が、前フレーム第1量子化LSPのみを用いて第1量子化LSPを求める(前フレーム第1量子化LSPを第1量子化LSPとする)場合を表す。
また、参照符号1302は、第1量子化LSPと前フレーム第1量子化LSPと量子化残差LSPと第1LSPとを模式的に表したグラフである。ここで、「×」は第1LSPを表し、破線の矢印は第1量子化LSPを表し、長い方の実線の矢印は前フレーム第1量子化LSPを表し、短い方の実線の矢印は量子化残差LSPを表す。すなわち、第1符号化情報(第1量子化LSP)が正常受信されず、LSP復号化部802が、前フレーム第1量子化LSPと量子化残差LSPとを加算し、加算した結果を第1量子化LSPとする場合を表す。
第1量子化LSPと前フレーム第1量子化LSPとの間の相関が高く、誤差が小さい場合、前フレーム第1量子化LSPのみを用いる手法(1301)に比べ、前フレーム第1量子化LSPと量子化残差LSPとを用いる手法(1302)の方が、求める第1量子化LSPは第1LSP(「×」)へ近づく。
しかしながら、第1量子化LSPと前フレーム第1量子化LSPとの間の相関が低く、誤差が大きい場合、前フレーム第1量子化LSPと量子化残差LSPとを用いる手法の方が、求める第1量子化LSPは第1LSP(「×」)へ近づくとは限らない(1303)。そこで、前フレーム第1量子化LSPのみを用いる手法と、前フレーム第1量子化LSPと量子化残差LSPとを用いる手法と、の双方の手法について、実際にフレーム単位で第1量子化LSPを求め、比較し、どちらの手法の第1量子化LSPが第1LSPに近づくかをフレーム単位で出力する実験を行った。8秒前後の音声信号を8サンプル用いて実験を行った結果、8サンプル全てについて、後者の手法の方が第1LSPに近づくフレーム数が多いという結果が得られた。また、特に有声区間において、前記傾向が強く現れることが判った。
なお、本実施の形態では、符号化装置100が2つの符号化部を有する場合を例にとって説明したが、符号化部の個数はこれに限定されず、3つ以上であっても良い。
また、本実施の形態では、復号化装置150が2つの復号化部を有する場合を例にとって説明したが、復号化部の個数はこれに限定されず、3つ以上であっても良い。
また、本実施の形態では、フレーム損失情報が「0」である場合、第1復号化部153は、前フレームの第1符号化情報のみを用いて復号化を行う場合について説明したが、第1復号化部153が、前フレームの第1符号化情報に加え、前フレームの第2符号化情報を用いて復号化を行う場合についても本発明は適用することができ、本実施の形態と同様の作用・効果を得ることができる。この場合、フレーム損失情報が「2」である場合の第1復号化部153の復号化方法と同様の方法で第1復号化信号を求めることができる。
また、本実施の形態では、フラグ情報を用いて、第1復号化部153が復号化に用いる符号化情報に第2符号化情報を含めるか含めないかを指示する場合について説明したが、フラグ情報を用いず、第1復号化部153が復号化に用いる符号化情報に第2符号化情報を必ず含める場合についても本発明は適用することができ、本実施の形態と同様の作用・効果を得ることができる。
また、本実施の形態では、第1復号化部153と第2復号化部154とが、前フレームの符号化情報をそのまま現フレームの符号化情報として用い、復号化信号を生成する場合について説明したが、現フレームで生成される駆動音源が前フレームで生成された駆動音源に比べやや減衰するように、前フレームの符号化情報に、ある一定の減衰率を乗算して駆動音源を求め、復号化信号を生成しても良い。例えば、フレーム損失情報が「2」である場合、量子化利得生成部806は、求めた第1量子化適応音源利得(第1量子化固定音源利得)に、ある一定の減衰率(例えば、0.9)を乗算し、乗算結果を第1量子化適応音源利得(第1量子化固定音源利得)として出力することにより、現フレームで生成される駆動音源を減衰させることができる。
また、本実施の形態では、フレーム損失情報が「2」である場合、量子化利得生成部806は、前フレーム第1量子化適応音源利得(前フレーム第1量子化固定音源利得)と第2量子化適応音源利得(第2量子化固定音源利得)とを加算し、加算結果に0.5を掛けた乗算結果を第1量子化適応音源利得(第1量子化固定音源利得)とする場合について説明したが、前フレーム第1量子化適応音源利得(前フレーム第1量子化固定音源利得)と第2量子化適応音源利得(第2量子化固定音源利得)とをある一定の割合で足し合わせて第1量子化適応音源利得(第1量子化固定音源利得)を求めても良い。例えば、式(7)により、第1量子化適応音源利得(第1量子化固定音源利得)b_gainを求めることができる。
b_gain=p_gain×β+e_gain×(1−β)・・・(7)
ここで、p_gainは前フレーム第1量子化適応音源利得(前フレーム第1量子化固定音源利得)であり、e_gainは第2量子化適応音源利得(第2量子化固定音源利得)であり、βは0から1までの何れかの値をとる。また、βの値は任意に設定することができる。
また、本実施の形態では、フレーム損失情報が「1」である場合、量子化利得生成部906は、第1量子化適応音源利得(第1量子化固定音源利得)と前フレーム第2量子化適応音源利得(前フレーム第2量子化固定音源利得)とを加算し、加算結果に0.5を掛けた乗算結果を第2量子化適応音源利得(第2量子化固定音源利得)とする場合について説明したが、上記と同様の方法を用いて第2量子化適応音源利得(第2量子化固定音源利得)を求めても良い。
また、本実施の形態では、フレーム損失情報として十進数を用いる場合を例にとって説明したが、フレーム損失情報として二進数を用いる場合についても本発明は適用することができ、本実施の形態と同様の作用・効果を得ることができる。例えば、2つの符号化情報(第1〜2符号化情報)の状態を二進数で用いて表現する場合、正常に受信されている状態を「1」、正常に受信されていない状態を「0」と表すことにより、二桁の二進数(「00」〜「11」)でフレーム損失情報を表現することができる。
また、本実施の形態では、固定音源符号帳208が生成する固定音源ベクトルが、パルスにより形成されている場合について説明したが、固定音源ベクトルを形成するパルスが拡散パルスである場合についても本発明は適用することができ、本実施の形態と同様の作用・効果を得ることができる。
また、本実施の形態では、符号化部/復号化部がCELPタイプの音声・楽音符号化/復号化方法である場合について説明したが、符号化部/復号化部がCELPタイプ以外の音声・楽音符号化/復号化方法(例えば、パルス符号変調、予測符号化、ベクトル量子化、ボコーダ)である場合についても本発明は適用することができ、本実施の形態と同様の作用・効果を得ることができる。また、音声・楽音符号化/復号化方法が、各々の符号化部/復号化部において異なる音声・楽音符号化/復号化方法である場合についても本発明は適用することができ、本実施の形態と同様の作用・効果を得ることができる。
(実施の形態2)
図14(a)は、上記実施の形態1で説明した符号化装置を含む、本発明の実施の形態2に係る音声・楽音送信装置の構成を示すブロック図である。
音声・楽音信号1401は、入力装置1402によって電気的信号に変換され、A/D変換装置1403に出力される。A/D変換装置1403は、入力装置1402から出力された(アナログ)信号をディジタル信号に変換し、音声・楽音符号化装置1404へ出力する。音声・楽音符号化装置1404は、図1に示した符号化装置100を実装し、A/D変換装置1403から出力されたディジタル音声・楽音信号を符号化し、符号化情報をRF変調装置1405へ出力する。RF変調装置1405は、音声・楽音符号化装置1404から出力された符号化情報を電波等の伝播媒体に載せて送出するための信号に変換し送信アンテナ1406へ出力する。送信アンテナ1406はRF変調装置1405から出力された出力信号を電波(RF信号)として送出する。なお、図中のRF信号1407は送信アンテナ1406から送出された電波(RF信号)を表す。
以上が音声・楽音信号送信装置の構成および動作である。
図14(b)は、上記実施の形態1で説明した復号化装置を含む、本発明の実施の形態2に係る音声・楽音受信装置の構成を示すブロック図である。
RF信号1408は、受信アンテナ1409によって受信されRF復調装置1410に出力される。なお、図中のRF信号1408は、受信アンテナ1409に受信された電波を表し、伝播路において信号の減衰や雑音の重畳がなければRF信号1407と全く同じものになる。
RF復調装置1410は、受信アンテナ1409から出力されたRF信号から符号化情報を復調し、音声・楽音復号化装置1411へ出力する。音声・楽音復号化装置1411は、図1に示した復号化装置150を実装し、RF復調装置1410から出力された符号化情報から音声・楽音信号を復号し、D/A変換装置1412へ出力する。D/A変換装置1412は、音声・楽音復号化装置1411から出力されたディジタル音声・楽音信号をアナログの電気的信号に変換し出力装置1413へ出力する。出力装置1413は電気的信号を空気の振動に変換し音波として人間の耳に聴こえるように出力する。なお、図中、参照符号1414は出力された音波を表す。
以上が音声・楽音信号受信装置の構成および動作である。
無線通信システムにおける基地局装置および通信端末装置に、上記のような音声・楽音信号送信装置および音声・楽音信号受信装置を備えることにより、高品質な出力信号を得ることができる。
このように、本実施の形態によれば、本発明に係る符号化装置および復号化装置を音声・楽音信号送信装置および音声・楽音信号受信装置に実装することができる。
本発明に係る符号化装置および復号化装置は、上記の実施の形態1〜2に限定されず、種々変更して実施することが可能である。
本発明に係る符号化装置および復号化装置は、移動体通信システムにおける移動端末装置および基地局装置に搭載することも可能であり、これにより上記と同様の作用効果を有する移動端末装置および基地局装置を提供することができる。
なお、ここでは、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
本発明に係る符号化装置および復号化装置は、符号化情報が失われた場合であっても、品質の良い復号化音声信号を得る効果を有し、音声・楽音信号を符号化して伝送する通信システムにおいて使用される音声・楽音符号化装置および音声・楽音復号化方法等として有用である。
本発明の実施の形態1に係る符号化装置および復号化装置の構成を示すブロック図 本発明の実施の形態1に係る第1符号化部の内部構成を示すブロック図 適応音源ラグを決定する処理を説明するための図 固定音源ベクトルを決定する処理を説明するための図 本発明の実施の形態1に係る第1局所復号化部の内部構成を示すブロック図 本発明の実施の形態1に係る第2符号化部の内部構成を示すブロック図 適応音源ラグを決定する処理について簡単に説明するための図 本発明の実施の形態1に係る第1復号化部の内部構成を示すブロック図 本発明の実施の形態1に係る第2復号化部の内部構成を示すブロック図 本発明の実施の形態1に係る符号化情報操作部の内部構成を示すブロック図 本発明の実施の形態1に係る符号化情報操作部の内部構成を示すブロック図 本発明の実施の形態1に係るフレーム損失情報および復号化部で用いるパラメータを示す図 第2符号化情報を加えることにより品質が向上する原理を視覚的に説明するための図 (a)本発明の実施の形態2に係る音声・楽音送信装置の構成を示すブロック図、(b)本発明の実施の形態2に係る音声・楽音受信装置の構成を示すブロック図
符号の説明
100 符号化装置
101 第1符号化部
102 第1局所復号化部
103、155 加算器
104 第2符号化部
106 多重化部
130 伝送路
150 復号化装置
151 多重化分離部
152 フレーム損失検出部
153 第1復号化部
154 第2復号化部
811、911 符号化情報操作部
1001、1101 フレーム損失情報分配部
1002、1102 第1符号化情報分配部
1003、1103 符号化情報記憶部
1004、1104 第2符号化情報分配部
1404 音声・楽音符号化装置
1411 音声・楽音復号化装置

Claims (6)

  1. スケーラブル符号化により少なくとも第1階層及び第2階層の2階層で構成された符号化情報を復号化して復号化信号を生成する音声・楽音復号化装置であって、
    受信されたフレームの前記第1階層に関する第1符号化情報及び前記第2階層に関する第2符号化情報がそれぞれ正常か否かを判定し、判定結果であるフレーム損失情報を生成するフレーム損失検出手段と、
    前記フレーム損失情報に応じて、受信された第1符号化情報及び第2符号化情報前フレームで受信された第1符号化情報及び第2符号化情報とから前記第1階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第1復号化信号を生成する第1復号化手段と、
    前記フレーム損失情報に応じて、前記受信された第1符号化情報及び第2符号化情報と前記前フレームで受信された第1符号化情報及び第2符号化情報とから前記第2階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第2復号化信号を生成する第2復号化手段と、
    を具備し、
    前記第1復号化手段及び前記第2復号化手段は、
    前記フレーム損失情報の値により決定される、正常に受信された第1符号化情報又は前記前フレームで受信された第1符号化情報、及び/又は、正常に受信された第2符号化情報又は前記前フレームで受信された第2符号化情報、を用いる組合せ、にしたがって定められる符号化情報を用いて復号化を行う、
    音声・楽音復号化装置。
  2. 前記第1復号化手段は、
    前記第1符号化情報が正常に受信されていない場合、前記フレーム損失情報の値により、前記前フレームで受信された第1符号化情報、又は、前記前フレームで受信された第1符号化情報及び前記正常に受信された第2符号化情報、に決定し、前記組合せにより定められる符号化情報を用いて復号化を行う、
    請求項1記載の音声・楽音復号化装置。
  3. 前記フレーム損失情報の値が、前記第1符号化情報が正常に受信されず且つ前記第2符号化情報が正常に受信されていることを示す場合、
    前記第1復号化手段は、
    前記第2復号化手段から前記正常に受信された第2符号化情報を入力し、前記前フレームで受信された第1符号化情報及び前記正常に受信された第2符号化情報を用いて復号化を行い、
    前記第2復号化手段は、
    前記第1復号化手段から前記前フレームで受信された第1符号化情報を入力し、前記前フレームで受信された第1符号化情報及び前記正常に受信された第2符号化情報を用いて復号化を行う、
    請求項1記載の音声・楽音復号化装置。
  4. 請求項1から請求項3のいずれかに記載の音声・楽音復号化装置を具備することを特徴とする基地局装置。
  5. 請求項1から請求項3のいずれかに記載の音声・楽音復号化装置を具備することを特徴とする通信端末装置。
  6. スケーラブル符号化により少なくとも第1階層及び第2階層の2階層で構成された符号化情報を復号化して復号化信号を生成する音声・楽音復号化方法であって、
    受信されたフレームの前記第1階層に関する第1符号化情報及び前記第2階層に関する第2符号化情報がそれぞれ正常か否かを判定し、判定結果であるフレーム損失情報を生成するフレーム損失検出工程と、
    前記フレーム損失情報に応じて、受信された第1符号化情報及び第2符号化情報前フレームで受信された第1符号化情報及び第2符号化情報とから前記第1階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第1復号化信号を生成する第1復号化工程と、
    前記フレーム損失情報に応じて、前記受信された第1符号化情報及び第2符号化情報と前記前フレームで受信された第1符号化情報及び第2符号化情報とから前記第2階層の復号化に用いる符号化情報を決定し、決定した符号化情報を用いて復号化を行うことにより第2復号化信号を生成する第2復号化工程と、
    を具備し、
    前記第1復号化工程及び前記第2復号化工程は、
    前記フレーム損失情報の値により決定される、正常に受信された第1符号化情報又は前記前フレームで受信された第1符号化情報、及び/又は、正常に受信された第2符号化情報又は前記前フレームで受信された第2符号化情報、を用いる組合せ、にしたがって定められる符号化情報を用いて復号化を行う、
    音声・楽音復号化方法。
JP2004153997A 2004-05-24 2004-05-24 音声・楽音復号化装置および音声・楽音復号化方法 Expired - Fee Related JP4445328B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2004153997A JP4445328B2 (ja) 2004-05-24 2004-05-24 音声・楽音復号化装置および音声・楽音復号化方法
EP05739228A EP1750254B1 (en) 2004-05-24 2005-05-13 Audio/music decoding device and audio/music decoding method
DE602005026802T DE602005026802D1 (de) 2004-05-24 2005-05-13 Audio/musikdecodierungseinrichtung und audio/musikdecodierungsverfahren
PCT/JP2005/008774 WO2005114655A1 (ja) 2004-05-24 2005-05-13 音声・楽音復号化装置および音声・楽音復号化方法
CN2005800168247A CN1957399B (zh) 2004-05-24 2005-05-13 语音/音频解码装置以及语音/音频解码方法
KR1020067024640A KR20070028373A (ko) 2004-05-24 2005-05-13 음성음악 복호화 장치 및 음성음악 복호화 방법
US11/569,377 US8255210B2 (en) 2004-05-24 2005-05-13 Audio/music decoding device and method utilizing a frame erasure concealment utilizing multiple encoded information of frames adjacent to the lost frame
CA002567788A CA2567788A1 (en) 2004-05-24 2005-05-13 Audio/music decoding device and audio/music decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004153997A JP4445328B2 (ja) 2004-05-24 2004-05-24 音声・楽音復号化装置および音声・楽音復号化方法

Publications (2)

Publication Number Publication Date
JP2005338200A JP2005338200A (ja) 2005-12-08
JP4445328B2 true JP4445328B2 (ja) 2010-04-07

Family

ID=35428593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004153997A Expired - Fee Related JP4445328B2 (ja) 2004-05-24 2004-05-24 音声・楽音復号化装置および音声・楽音復号化方法

Country Status (8)

Country Link
US (1) US8255210B2 (ja)
EP (1) EP1750254B1 (ja)
JP (1) JP4445328B2 (ja)
KR (1) KR20070028373A (ja)
CN (1) CN1957399B (ja)
CA (1) CA2567788A1 (ja)
DE (1) DE602005026802D1 (ja)
WO (1) WO2005114655A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4958780B2 (ja) * 2005-05-11 2012-06-20 パナソニック株式会社 符号化装置、復号化装置及びこれらの方法
US8370138B2 (en) 2006-03-17 2013-02-05 Panasonic Corporation Scalable encoding device and scalable encoding method including quality improvement of a decoded signal
WO2007138825A1 (ja) * 2006-05-25 2007-12-06 Pioneer Corporation デジタル音声データ処理装置及び処理方法
US20090248404A1 (en) * 2006-07-12 2009-10-01 Panasonic Corporation Lost frame compensating method, audio encoding apparatus and audio decoding apparatus
EP2080194B1 (fr) * 2006-10-20 2011-12-07 France Telecom Attenuation du survoisement, notamment pour la generation d'une excitation aupres d'un decodeur, en absence d'information
EP2538406B1 (en) 2006-11-10 2015-03-11 Panasonic Intellectual Property Corporation of America Method and apparatus for decoding parameters of a CELP encoded speech signal
JP4504389B2 (ja) 2007-02-22 2010-07-14 富士通株式会社 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム
US8599981B2 (en) * 2007-03-02 2013-12-03 Panasonic Corporation Post-filter, decoding device, and post-filter processing method
CN100583649C (zh) * 2007-07-23 2010-01-20 华为技术有限公司 矢量编/解码方法、装置及流媒体播放器
JP2009047914A (ja) * 2007-08-20 2009-03-05 Nec Corp 音声復号化装置、音声復号化方法、音声復号化プログラムおよびプログラム記録媒体
US8527265B2 (en) * 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
CN101588341B (zh) 2008-05-22 2012-07-04 华为技术有限公司 一种丢帧隐藏的方法及装置
KR101261677B1 (ko) 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
US9026434B2 (en) 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
CN103280222B (zh) * 2013-06-03 2014-08-06 腾讯科技(深圳)有限公司 音频编码、解码方法及其系统
JP5981408B2 (ja) * 2013-10-29 2016-08-31 株式会社Nttドコモ 音声信号処理装置、音声信号処理方法、及び音声信号処理プログラム
CN103646647B (zh) * 2013-12-13 2016-03-16 武汉大学 混合音频解码器中帧差错隐藏的谱参数代替方法及系统
FR3024582A1 (fr) * 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
CN112750419B (zh) * 2020-12-31 2024-02-13 科大讯飞股份有限公司 一种语音合成方法、装置、电子设备和存储介质
CN113724716B (zh) * 2021-09-30 2024-02-23 北京达佳互联信息技术有限公司 语音处理方法和语音处理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097295A (ja) 1996-09-24 1998-04-14 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法及び復号化方法
DE69712538T2 (de) 1996-11-07 2002-08-29 Matsushita Electric Ind Co Ltd Verfahren zur Erzeugung eines Vektorquantisierungs-Codebuchs
KR100527217B1 (ko) 1997-10-22 2005-11-08 마츠시타 덴끼 산교 가부시키가이샤 확산 벡터 생성 방법, 확산 벡터 생성 장치, celp형 음성 복호화 방법 및 celp형 음성 복호화 장치
FR2774827B1 (fr) * 1998-02-06 2000-04-14 France Telecom Procede de decodage d'un flux binaire representatif d'un signal audio
US7110943B1 (en) 1998-06-09 2006-09-19 Matsushita Electric Industrial Co., Ltd. Speech coding apparatus and speech decoding apparatus
US6188980B1 (en) * 1998-08-24 2001-02-13 Conexant Systems, Inc. Synchronized encoder-decoder frame concealment using speech coding parameters including line spectral frequencies and filter coefficients
US6775649B1 (en) * 1999-09-01 2004-08-10 Texas Instruments Incorporated Concealment of frame erasures for speech transmission and storage system and method
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
JP3628268B2 (ja) 2001-03-13 2005-03-09 日本電信電話株式会社 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体
US6996522B2 (en) * 2001-03-13 2006-02-07 Industrial Technology Research Institute Celp-Based speech coding for fine grain scalability by altering sub-frame pitch-pulse
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
JPWO2006025313A1 (ja) 2004-08-31 2008-05-08 松下電器産業株式会社 音声符号化装置、音声復号化装置、通信装置及び音声符号化方法
BRPI0515551A (pt) 2004-09-17 2008-07-29 Matsushita Electric Ind Co Ltd aparelho de codificação de áudio, aparelho de decodificação de áudio, aparelho de comunicação e método de codificação de áudio
KR100612889B1 (ko) * 2005-02-05 2006-08-14 삼성전자주식회사 선스펙트럼 쌍 파라미터 복원 방법 및 장치와 그 음성복호화 장치

Also Published As

Publication number Publication date
EP1750254A1 (en) 2007-02-07
CN1957399A (zh) 2007-05-02
CA2567788A1 (en) 2005-12-01
WO2005114655A1 (ja) 2005-12-01
DE602005026802D1 (de) 2011-04-21
US8255210B2 (en) 2012-08-28
CN1957399B (zh) 2011-06-15
JP2005338200A (ja) 2005-12-08
US20070271101A1 (en) 2007-11-22
EP1750254B1 (en) 2011-03-09
EP1750254A4 (en) 2007-10-03
KR20070028373A (ko) 2007-03-12

Similar Documents

Publication Publication Date Title
JP4445328B2 (ja) 音声・楽音復号化装置および音声・楽音復号化方法
EP1768105B1 (en) Speech coding
KR100391527B1 (ko) 음성 부호화 장치, 기록 매체, 음성 복호화 장치, 신호 처리용 프로세서, 음성 부호화 복호화 시스템, 통신용 기지국, 통신용 단말 및 무선 통신 시스템
KR101000345B1 (ko) 음성 부호화 장치, 음성 복호화 장치 및 그 방법
JP4958780B2 (ja) 符号化装置、復号化装置及びこれらの方法
JP4263412B2 (ja) 音声符号変換方法
JP4733939B2 (ja) 信号復号化装置及び信号復号化方法
JPWO2006025313A1 (ja) 音声符号化装置、音声復号化装置、通信装置及び音声符号化方法
KR100351484B1 (ko) 음성 부호화 장치, 음성 복호화 장치, 음성 부호화 방법 및 기록 매체
US5826221A (en) Vocal tract prediction coefficient coding and decoding circuitry capable of adaptively selecting quantized values and interpolation values
JP2004138756A (ja) 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム
JP4365653B2 (ja) 音声信号送信装置、音声信号伝送システム及び音声信号送信方法
JP4578145B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JP4236675B2 (ja) 音声符号変換方法および装置
JP4373693B2 (ja) 音響信号の階層符号化方法および階層復号化方法
JP3576485B2 (ja) 固定音源ベクトル生成装置及び音声符号化/復号化装置
JPH11259098A (ja) 音声符号化/復号化方法
JP2005215502A (ja) 符号化装置、復号化装置、およびこれらの方法
JP3785363B2 (ja) 音声信号符号化装置、音声信号復号装置及び音声信号符号化方法
JP3350340B2 (ja) 音声符号化方法および音声復号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4445328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees