JP7209032B2 - 音声符号化装置および音声符号化方法 - Google Patents
音声符号化装置および音声符号化方法 Download PDFInfo
- Publication number
- JP7209032B2 JP7209032B2 JP2021031899A JP2021031899A JP7209032B2 JP 7209032 B2 JP7209032 B2 JP 7209032B2 JP 2021031899 A JP2021031899 A JP 2021031899A JP 2021031899 A JP2021031899 A JP 2021031899A JP 7209032 B2 JP7209032 B2 JP 7209032B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- speech
- encoding
- auxiliary information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 162
- 230000005236 sound signal Effects 0.000 claims description 49
- 230000002194 synthesizing effect Effects 0.000 claims description 35
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 description 158
- 238000012545 processing Methods 0.000 description 144
- 239000013598 vector Substances 0.000 description 112
- 238000004364 calculation method Methods 0.000 description 65
- 230000005284 excitation Effects 0.000 description 57
- 230000015572 biosynthetic process Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 34
- 238000003786 synthesis reaction Methods 0.000 description 34
- 230000005540 biological transmission Effects 0.000 description 24
- 230000007774 longterm Effects 0.000 description 13
- 238000001914 filtration Methods 0.000 description 11
- 230000007704 transition Effects 0.000 description 11
- 238000009825 accumulation Methods 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000008054 signal transmission Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 101000775670 Lycodes polaris Ice-structuring protein LP Proteins 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/125—Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Detection And Prevention Of Errors In Transmission (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
Description
a(i)は線形予測係数(LP係数)であり、次数として例えばP=16などの値を用いる。
音声パラメータ紛失処理部123は、補助情報蓄積部126から補助情報を読み出し、補助情報に含まれないパラメータについては予測を行うことで、音声パラメータを出力する(図7ステップS146)。
本実施例では、補助情報としてピッチラグを伝送し、復号側ではパケットロス隠蔽信号の生成に用いる例について記載する。
音声信号送信装置において、入力音声信号は、音声符号化部111に送られる。
補助情報符号化部112は、音声符号化部111で算出したパラメータと先読み信号を用いて補助情報符号を算出する(図6ステップ132)。補助情報符号化部112は、図8に示す通り、LP係数算出部151、ターゲット信号算出部152、ピッチラグ算出部153、適応符号帳算出部154、励振ベクトル合成部155、適応符号帳バッファ156、合成フィルタ157、ピッチラグ符号化部158からなる。補助情報符号化部の処理手順を図9に示す。
を算出する。ISFパラメータ
は次式により算出する(図10ステップ172)。
ここで、
はバッファに格納されたjフレーム前のISFパラメータである。
また、
は事前に学習等で求めた発話区間でのISFパラメータである。βは定数であり、例えば0.75のような値とすることができるが、これには限られない。また、αも定数であり、0.9のような値とすることができるが、これに限定されない。
は、例えば非特許文献4記載のISFコンシールメントのように、符号化対象フレームの性質を表すインデクスにより変化させてもよい。
をISPパラメータに変換した上で、サブフレーム毎に補間する。ISFパラメータからISPパラメータを算出する方法として非特許文献4の6.4.4節記載の方法を、補間の方法としては、非特許文献4の6.8.3節に記載の処理手順を用いることができる(図10ステップ174)。
に変換する。ここで、先読み信号に含まれるサブフレームの数をMlaとした。ISPパラメータからLP係数への変換には、非特許文献4の6.4.5節に記載の処理手順を用いることができる(図10ステップ175)。
を用いて、ターゲット信号x(n)およびインパルス応答h(n)を算出する(図9ステップ162)。非特許文献4の6.8.4.1.3節に記載の通り、ターゲット信号は線形予測残差信号を聴覚重み付けフィルタに通すことにより得られる(図11)。
ここで、聴覚重み付けフィルタγ=0.68である。聴覚重み付けフィルタの値は、音声符号化の設計方針により別の値としてもよい。
Tp=argmaxTk
なお、yk(n)は線形予測残差にインパルス応答を畳み込むことにより得られる。ここで、Int(i)は補間フィルタを表す。補間フィルタの詳細は非特許文献4の6.8.4.1.4.1節に記載の通りである。当然、補間にフィルタを用いず、v’(n)=u(n+Nadapt-Tp+i)としてもよい。
長期パラメータ算出の詳細な処理手順として非特許文献3の5.7節に記載の方法を用いることができる。
を乗算して、次式に従い励振信号ベクトルを出力する(図9ステップ165)。
適応符号帳ゲイン
の値には、例えば1.0などを用いるが、事前の学習により求めた値を用いてもよいし、符号化対象フレームの性質を表すインデクスにより変化させてもよい。
u(n)=u(n+L) (0≦n<N-L)
u(n+N-L)=e(n) (0≦n<L)
1.ピッチラグ
の一部あるいは全部をバイナリ符号化あるいはスカラ量子化あるいはベクトル量子化あるいは算術符号化して伝送する方法。
2.直前サブフレームのピッチラグとの差分
の一部あるいは全部をバイナリ符号化あるいはスカラ量子化あるいはベクトル量子化あるいは算術符号化して伝送する方法。ただし、
は符号化対象フレームにおける最後のサブフレームのピッチラグである。
3.ピッチラグ
の一部あるいは全部と、符号化対象フレームで算出したピッチラグの一部または全部をまとめてベクトル量子化あるいは算術符号化して伝送する方法。
4.ピッチラグ
の一部あるいは全部を手がかりに、事前に定めた補間手法のうちの1つを選択し、その補間手法のインデクスを伝送する方法。この時、過去に音声の合成に用いた複数のサブフレームのピッチラグを、併せて補間手法の選択に用いてもよい。
図5に示す通り、音声信号受信装置は、音声符号バッファ121、音声パラメータ復号部122、音声パラメータ紛失処理部123、音声合成部124、補助情報復号部125、補助情報蓄積部126からなる。音声信号受信装置の処理手順は図7に示す通りである。
音声パラメータ復号部122は、受信した音声符号を復号し、符号化対象フレームに関する音声を合成するのに必要な音声パラメータ(ISPパラメータおよび対応するISFパラメータ、ピッチラグ、長期予測パラメータ、適応符号帳、適応符号帳ゲイン、固定符号帳ゲイン、固定符号帳ベクトル等)を算出する(図7ステップ142)。
を算出し、補助情報蓄積部126に格納する。補助情報復号部125では、符号化側で用いた符号化方法に対応する復号方法を用いて、補助情報符号を復号する(図7ステップ143)。
、適応符号帳u(n)から、次式に従い、適応符号帳ベクトルv’(n)を算出する。
適応符号帳ベクトルは、適応符号帳u(n)をFIRフィルタInt(i)により補間することで算出する。ここで、適応符号帳の長さをNadaptとした。補間に用いるフィルタInt(i)は、(数27)の補間フィルタと同じである。事前に定めた長さ2l+1のFIRフィルタである。L’はサブフレームのサンプル数である。エンコーダ側と同様、補間にフィルタを用いなくてもよい。
v’(n)=0.18v’(n-1)+0.64v’(n)+0.18v’(n+1)
e(n)=gp・v’(n)+gc・c(n)
u(n)=u(n+L) (0≦n<N-L)
u(n+N-L)=e(n) (0≦n<L)
音声パラメータ紛失処理部123は、補助情報蓄積部126からピッチラグ
を読み出し、音声パラメータを予測する。音声パラメータ紛失処理部123の機能構成例を図12に示し、音声パラメータ予測の処理手順を図13に示す。
を算出する(図10ステップ172)。
ここで、
はバッファに格納されたjフレーム前のISFパラメータである。また、
,α,βは、符号化側で用いた値と同様である。
を得る。さらに、過去に復号に用いたピッチラグ
を用いて、ピッチラグ
を出力する。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaである。ピッチラグ
の予測に当たっては、例えば非特許文献4の7.11.1.3節に記載の処理手順を用いることができる(図13ステップ1102)。
と、過去に復号に用いた適応符号帳ゲイン
を用いて、適応符号帳ゲイン
を出力する。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaである。適応符号帳ゲイン
の予測に当たっては、例えば、非特許文献4の7.11.2.5.3節記載の処理手順を用いることができる(図13ステップ1103)。
を用いて、固定符号帳ゲイン
を出力する。ここで、1フレームに含まれるサブフレームの数はMである。固定符号帳ゲイン
の予測に当たっては、例えば、非特許文献4の7.11.2.6節に記載の処理手順を用いることができる(図13ステップ1104)。
実施例1の変形例として、ピッチゲインを補助情報に追加する例を示す。変形例1-1と実施例1との差分は、励振ベクトル合成部155の動作のみであるので、その他の部分について説明を省略する。
励振ベクトル合成部155の処理手順を図14に示す。
を次式に従い算出する(図14ステップ1111)。
但し、y(n)は適応符号帳ベクトルにインパルス応答を畳み込んで得られる信号y(n)=v(n)*h(n)である。
励振ベクトル合成部155は、適応符号帳ベクトルv’(n)に補助情報符号を復号することにより得られる適応符号帳ゲイン
を乗算して、次式により励振信号ベクトルを出力する(図9ステップ165)。
実施例1の変形例として、補助情報の利用判断のためのフラグを補助情報に追加する例を示す。
補助情報符号化部の機能構成例を図17に、補助情報符号化部の処理手順を図18に示す。実施例1との差分は、補助情報出力判定部1128(図18ステップ1131)のみであるので、その他の部分について説明を省略する。
一方、segmental SNRが閾値を越えないときは、フラグの値をオフにして補助情報に含める(図18ステップ1131)。なお、フラグの値がオンのときのみ、ピッチラグやピッチゲインなどの補助情報をフラグに付加して伝送し、フラグの値がオフのときはフラグの値のみ伝送することにより補助情報のビット量を削減してもよい。
補助情報復号部は、補助情報符号に含まれるフラグを復号する。音声パラメータ紛失処理部は、フラグの値がオンの場合は、実施例1と同様の処理手順により復号信号を算出する。一方、フラグの値がオフの場合は、補助情報を用いないパケットロス隠蔽手法により復号信号を算出する(図19ステップ1151)。
本実施例では、先読み信号部分の復号音声を正常受信時にも利用する例について述べる。説明を容易にするため、1フレームに含まれるサブフレームの数をMサブフレーム、先読み信号の長さをM’サブフレームとする。
音声信号送信装置は、図20に示す通り、主要符号化部211、補助情報符号化部212、隠蔽信号蓄積部213、誤差信号符号化部214からなる。音声信号送信装置の処理手順を図22に示す。
図23に示す通り、音声信号受信装置は、音声符号バッファ231、音声パラメータ復号部232、音声パラメータ紛失処理部233、音声合成部234、補助情報復号部235、補助情報蓄積部236、誤差信号復号部237、隠蔽信号蓄積部238からなる。音声信号受信装置の処理手順を図24に示す。音声合成部234の機能構成を図25に示す。
誤差信号復号部237は誤差信号符合を復号して復号誤差信号を得る。具体的な処理手順として非特許文献4の7.1.2.1.2節に記載のAVQ等、符号化側で用いた方法に対応した復号方法を用いる(図24ステップ242)。
音声パラメータ紛失処理部233の機能構成は実施例1と同様である。
隠蔽信号蓄積部から1サブフレーム分の隠蔽信号を読み出し、復号信号とする(図24ステップ2419)。
適応符号帳ベクトルの算出に当たって、声門パルス同期を用いる場合について述べる。
音声信号送信装置の機能構成は実施例1と同じである。機能構成および処理手順が異なるのは補助情報符号化部のみであるので、ここでは補助情報符号化部の動作についてのみ述べる。
を算出する(図28ステップ322)。予測の具体的な処理は実施例1におけるピッチラグ予測部192における、ピッチラグ
の予測と同様である(図13ステップ1102と同じである)。
および過去のピッチラグの値
から、次式に従いピッチラグコードブックを生成する(図29ステップ331)。
ここで、1サブフレーム前のピッチラグの値は
である。またコードブックのインデクス数をIとする。またδjは事前に定めたステップ幅であり、ρは事前に定めた定数である。
を用いて、次式に従い初期励振ベクトルu0(n)を生成する(図29ステップ332)。
初期励振ベクトル算出の処理手順は、非特許文献4の式(607)および式(608)と同様である。
を用いて声門パルス同期を適用し、候補適応符号帳ベクトルuj(n)(0≦j<I)を生成する(図29ステップ333)。声門パルス同期は非特許文献4の7.11.2.5節におけるパルス位置が利用できない場合と同様の処理手順を用いる。ただし、非特許文献4におけるu(n)は本発明の実施形態のu0(n)に対応し、extrapolated pitchは本発明の実施形態の
に対応し、the last reliable pitch(Tc)は本発明の実施形態の
に対応する。
この場合、LP係数を用いて先読み信号s(n)(0≦n<L’)の残差信号r(n)を算出する(図11ステップ181)。
音声信号受信装置の機能構成は実施例1と同様である。実施例1との差分は音声パラメータ紛失処理部123、補助情報復号部125、補助情報蓄積部126の機能構成と処理手順であるので、これらについてのみ述べる。
を算出する(図30ステップ341)。予測の具体的な処理は実施例3における図28ステップ322と同様である。
および過去のピッチラグの値
から、次式に従いピッチラグコードブックを生成する(図30ステップ342)。
処理手順は図29ステップ331と同様である。ここで、1サブフレーム前のピッチラグの値は
である。またコードブックのインデクス数をIとする。またδjは事前に定めたステップ幅であり、ρは事前に定めた定数である。
音声合成部の機能構成も実施例1と同様であるが(図15と同様)、実施例1と動作が異なる適応符号帳算出部1123についてのみ以下に述べる。
ここで、
は予め定めた定数である。
補助情報を復号側でのピッチラグ予測に用いる例について述べる。
音声信号送信装置の機能構成は実施例1と同様である。機能構成および処理手順が異なるのは補助情報符号化部112のみであるので、ここでは補助情報符号化部112の動作についてのみ述べる。
Tp=argkmaxTk
v’(n)=u(n+Nadapt-Tp)
u(n)=u(n+L’) (0≦n<N-L’)
u(n+N-L’)=v’(n) (0≦n<L)
音声信号受信装置は、実施例1と同様に、音声符号バッファ121、音声パラメータ復号部122、音声パラメータ紛失処理部123、音声合成部124、補助情報復号部125、補助情報蓄積部126からなる。音声信号受信装置の処理手順は図7に示す通りである。
音声パラメータ復号部122の動作は実施例1と同様である。
を算出し、補助情報蓄積部126に格納する。補助情報復号部125では、符号化側で用いた符号化方法に対応する復号方法を用いて、補助情報符号を復号する。
音声パラメータ紛失処理部123(図12参照)のISF予測部191は、実施例1と同様にしてISFパラメータを算出する。
を得る(図35のステップ4051)。さらに、過去に復号に用いたピッチラグ
を用いて、ピッチラグ
を出力する(図35のステップ4052)。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaとする。ピッチラグ
の予測に当たっては、非特許文献4のような処理手順を用いることができる(図13のステップ1102)。
の予測に当たって、過去に復号に用いたピッチラグ
とピッチラグ
を用いてピッチラグ
を予測してもよい。また、
としてもよい。この場合のピッチラグ予測部の処理手順は図36のようになる。
としてもよい。この場合のピッチラグ予測部192の処理手順を図37に示す。予測値を用いたか、補助情報により得られたピッチラグ
を用いたかに関する指示情報を適応符号帳算出部154に入力するようにしてもよい。
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
フィルタリングを指示しない値をとる場合は、v(n)=v’(n)とする(適応符号帳算出ステップA)。
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
設計方針によって、v(n)=v’(n)としてもよい。
に対応し、the last reliable pitch(Tc)は本発明の実施形態の
に対応する。
本実施例では、特定のフレームクラスにおいてのみ補助情報としてピッチラグを伝送し、それ以外では、ピッチラグを伝送しない構成について述べる。
音声信号送信装置において、入力音声信号は、音声符号化部111に送られる。
音声信号受信装置は、実施例1と同様に、音声符号バッファ121、音声パラメータ復号部122、音声パラメータ紛失処理部123、音声合成部124、補助情報復号部125、補助情報蓄積部126からなる。音声信号受信装置の処理手順は図7に示す通りである。
音声パラメータ復号部122の動作は実施例1と同様である。
を算出し、補助情報蓄積部126に格納する(図41のステップ5033)。また、補助情報インデクスの値を補助情報蓄積部126に格納する。なお、B-1ビットの補助情報の復号は、実施例1の補助情報復号部125と同様の動作である。
音声パラメータ紛失処理部123(図12参照)のISF予測部191は、実施例1と同様にしてISFパラメータを算出する。
実施例1と同様にして、補助情報蓄積部126から補助情報符号を読み出してピッチラグ
を得る(図42の5043)。さらに、過去に復号に用いたピッチラグ
および補助情報として得られた
を用いて、ピッチラグ
を出力する(図42のステップ5044)。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaとする。ピッチラグ
の予測に当たっては、非特許文献4のような処理手順を用いることができる(図13のステップ1102)。また、
としてもよい。
とし、それ以外の場合には予測値を
とするようにしてもよい(図42のステップ5046)。また、予測値を用いたか、補助情報により得られたピッチラグ
を用いたかに関するピッチラグ指示情報を適応符号帳算出部1123に入力するようにしてもよい。
ピッチラグ予測部192は、ピッチラグ
の予測に当たって、過去に復号に用いたピッチラグ
を用いてピッチラグ
を予測する(図42のステップ5048)。
とし(図42のステップ5049)、それ以外の場合には予測値を
とするようにしてもよい。また、予測値を用いたか、過去復号に用いたピッチラグ
を用いたかに関するピッチラグ指示情報を適応符号帳算出部1123に入力する(図42のステップ5050)。
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
なお設計方針により、v(n)=v’(n)としてもよい。
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
設計方針によって、v(n)=v’(n)としてもよい。
に対応し、the last reliable pitch(Tc)は本発明の実施形態の
に対応する。
Claims (2)
- 音声信号を符号化する音声符号化装置による音声符号化方法であって、
音声信号を符号化する音声符号化ステップと、
先読み信号から、復号音声を合成するための音声パラメータの予測値を算出するための補助情報を算出して符号化する補助情報符号化ステップと、
を含み、
前記補助情報は、
先読み信号におけるピッチラグに関し、
符号化対象フレームの先読み信号から算出される線形予測係数に基づいて、算出され、
前記先読み信号は、
線形予測分析窓において符号化対象フレームに続く所定の信号である、
音声符号化方法。 - 音声信号を符号化する音声符号化装置であって、
音声信号を符号化する音声符号化部と、
先読み信号から、復号音声を合成するための音声パラメータの予測値を算出するための補助情報を算出して符号化する補助情報符号化部と、
を備え、
前記補助情報は、
先読み信号におけるピッチラグに関し、
符号化対象フレームの先読み信号から算出される線形予測係数に基づいて、算出され、
前記先読み信号は、
線形予測分析窓において符号化対象フレームに続く所定の信号である、
音声符号化装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012251646 | 2012-11-15 | ||
JP2012251646 | 2012-11-15 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019215587A Division JP6846500B2 (ja) | 2012-11-15 | 2019-11-28 | 音声符号化装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021092814A JP2021092814A (ja) | 2021-06-17 |
JP7209032B2 true JP7209032B2 (ja) | 2023-01-19 |
Family
ID=50731166
Family Applications (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014546993A Active JP6158214B2 (ja) | 2012-11-15 | 2013-11-12 | 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム |
JP2016135137A Pending JP2016197254A (ja) | 2012-11-15 | 2016-07-07 | 音声符号化装置 |
JP2017041456A Active JP6626026B2 (ja) | 2012-11-15 | 2017-03-06 | 音声復号装置および音声復号方法 |
JP2018044180A Active JP6793675B2 (ja) | 2012-11-15 | 2018-03-12 | 音声符号化装置 |
JP2019027042A Active JP6659882B2 (ja) | 2012-11-15 | 2019-02-19 | 音声符号化装置および音声符号化方法 |
JP2019215587A Active JP6846500B2 (ja) | 2012-11-15 | 2019-11-28 | 音声符号化装置 |
JP2019220205A Active JP6872597B2 (ja) | 2012-11-15 | 2019-12-05 | 音声符号化装置および音声符号化方法 |
JP2021031899A Active JP7209032B2 (ja) | 2012-11-15 | 2021-03-01 | 音声符号化装置および音声符号化方法 |
Family Applications Before (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014546993A Active JP6158214B2 (ja) | 2012-11-15 | 2013-11-12 | 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム |
JP2016135137A Pending JP2016197254A (ja) | 2012-11-15 | 2016-07-07 | 音声符号化装置 |
JP2017041456A Active JP6626026B2 (ja) | 2012-11-15 | 2017-03-06 | 音声復号装置および音声復号方法 |
JP2018044180A Active JP6793675B2 (ja) | 2012-11-15 | 2018-03-12 | 音声符号化装置 |
JP2019027042A Active JP6659882B2 (ja) | 2012-11-15 | 2019-02-19 | 音声符号化装置および音声符号化方法 |
JP2019215587A Active JP6846500B2 (ja) | 2012-11-15 | 2019-11-28 | 音声符号化装置 |
JP2019220205A Active JP6872597B2 (ja) | 2012-11-15 | 2019-12-05 | 音声符号化装置および音声符号化方法 |
Country Status (18)
Country | Link |
---|---|
US (7) | US9564143B2 (ja) |
EP (2) | EP2922053B1 (ja) |
JP (8) | JP6158214B2 (ja) |
KR (10) | KR102171293B1 (ja) |
CN (2) | CN107256709B (ja) |
AU (6) | AU2013345949B2 (ja) |
BR (1) | BR112015008505B1 (ja) |
CA (4) | CA2886140C (ja) |
DK (1) | DK2922053T3 (ja) |
ES (1) | ES2747353T3 (ja) |
HK (1) | HK1209229A1 (ja) |
IN (1) | IN2015DN02595A (ja) |
MX (3) | MX362139B (ja) |
PL (1) | PL2922053T3 (ja) |
PT (1) | PT2922053T (ja) |
RU (8) | RU2640743C1 (ja) |
TW (2) | TWI547940B (ja) |
WO (1) | WO2014077254A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2849974C (en) * | 2011-09-26 | 2021-04-13 | Sirius Xm Radio Inc. | System and method for increasing transmission bandwidth efficiency ("ebt2") |
RU2640743C1 (ru) * | 2012-11-15 | 2018-01-11 | Нтт Докомо, Инк. | Устройство кодирования аудио, способ кодирования аудио, программа кодирования аудио, устройство декодирования аудио, способ декодирования аудио и программа декодирования аудио |
US9418671B2 (en) * | 2013-08-15 | 2016-08-16 | Huawei Technologies Co., Ltd. | Adaptive high-pass post-filter |
EP2922055A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information |
EP2922056A1 (en) | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation |
EP2922054A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation |
CN105897666A (zh) * | 2015-10-08 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 实时语音通话中的实时语音接收设备及降低延迟的方法 |
US10650837B2 (en) | 2017-08-29 | 2020-05-12 | Microsoft Technology Licensing, Llc | Early transmission in packetized speech |
US11710492B2 (en) * | 2019-10-02 | 2023-07-25 | Qualcomm Incorporated | Speech encoding using a pre-encoded database |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002118517A (ja) | 2000-07-31 | 2002-04-19 | Sony Corp | 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法 |
JP2003533916A (ja) | 2000-05-11 | 2003-11-11 | テレフォンアクチーボラゲット エル エム エリクソン(パブル) | スピーチ符号化における前方向誤り訂正 |
JP2004138756A (ja) | 2002-10-17 | 2004-05-13 | Matsushita Electric Ind Co Ltd | 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム |
JP2020038396A (ja) | 2012-11-15 | 2020-03-12 | 株式会社Nttドコモ | 音声符号化装置および音声符号化方法 |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5327520A (en) | 1992-06-04 | 1994-07-05 | At&T Bell Laboratories | Method of use of voice message coder/decoder |
JP3713288B2 (ja) * | 1994-04-01 | 2005-11-09 | 株式会社東芝 | 音声復号装置 |
JPH08160993A (ja) * | 1994-12-08 | 1996-06-21 | Nec Corp | 音声分析合成器 |
JP4121578B2 (ja) * | 1996-10-18 | 2008-07-23 | ソニー株式会社 | 音声分析方法、音声符号化方法および装置 |
EP1686563A3 (en) * | 1997-12-24 | 2007-02-07 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for speech decoding |
US7072832B1 (en) * | 1998-08-24 | 2006-07-04 | Mindspeed Technologies, Inc. | System for speech encoding having an adaptive encoding arrangement |
US6862567B1 (en) | 2000-08-30 | 2005-03-01 | Mindspeed Technologies, Inc. | Noise suppression in the frequency domain by adjusting gain according to voicing parameters |
US6968309B1 (en) | 2000-10-31 | 2005-11-22 | Nokia Mobile Phones Ltd. | Method and system for speech frame error concealment in speech decoding |
KR100674423B1 (ko) * | 2001-01-19 | 2007-01-29 | 엘지전자 주식회사 | 송/수신 시스템 및 데이터 처리 방법 |
JP3628268B2 (ja) * | 2001-03-13 | 2005-03-09 | 日本電信電話株式会社 | 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体 |
US7308406B2 (en) | 2001-08-17 | 2007-12-11 | Broadcom Corporation | Method and system for a waveform attenuation technique for predictive speech coding based on extrapolation of speech waveform |
SE521600C2 (sv) * | 2001-12-04 | 2003-11-18 | Global Ip Sound Ab | Lågbittaktskodek |
JP3722366B2 (ja) * | 2002-02-22 | 2005-11-30 | 日本電信電話株式会社 | パケット構成方法及び装置、パケット構成プログラム、並びにパケット分解方法及び装置、パケット分解プログラム |
US7599835B2 (en) * | 2002-03-08 | 2009-10-06 | Nippon Telegraph And Telephone Corporation | Digital signal encoding method, decoding method, encoding device, decoding device, digital signal encoding program, and decoding program |
JP2004077688A (ja) * | 2002-08-14 | 2004-03-11 | Nec Corp | 音声通信装置 |
US7584107B2 (en) * | 2002-09-09 | 2009-09-01 | Accenture Global Services Gmbh | Defined contribution benefits tool |
WO2004082288A1 (en) * | 2003-03-11 | 2004-09-23 | Nokia Corporation | Switching between coding schemes |
JP4365653B2 (ja) * | 2003-09-17 | 2009-11-18 | パナソニック株式会社 | 音声信号送信装置、音声信号伝送システム及び音声信号送信方法 |
SE527670C2 (sv) * | 2003-12-19 | 2006-05-09 | Ericsson Telefon Ab L M | Naturtrogenhetsoptimerad kodning med variabel ramlängd |
DE602005020130D1 (de) * | 2004-05-10 | 2010-05-06 | Nippon Telegraph & Telephone | E, sendeverfahren, empfangsverfahren und einrichtung und programm dafür |
JP2008502194A (ja) * | 2004-06-02 | 2008-01-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 補助情報をメディア信号に埋め込む方法及び装置 |
US20060088093A1 (en) * | 2004-10-26 | 2006-04-27 | Nokia Corporation | Packet loss compensation |
SE0402650D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Improved parametric stereo compatible coding of spatial audio |
SE0402652D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Methods for improved performance of prediction based multi- channel reconstruction |
US7933767B2 (en) * | 2004-12-27 | 2011-04-26 | Nokia Corporation | Systems and methods for determining pitch lag for a current frame of information |
JP5202960B2 (ja) | 2005-01-31 | 2013-06-05 | スカイプ | 通信システムにおけるフレームの連結方法 |
EP1905004A2 (en) * | 2005-05-26 | 2008-04-02 | LG Electronics Inc. | Method of encoding and decoding an audio signal |
US7707034B2 (en) * | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
US20070055510A1 (en) * | 2005-07-19 | 2007-03-08 | Johannes Hilpert | Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding |
US9058812B2 (en) * | 2005-07-27 | 2015-06-16 | Google Technology Holdings LLC | Method and system for coding an information signal using pitch delay contour adjustment |
US7712008B2 (en) * | 2006-01-26 | 2010-05-04 | Agere Systems Inc. | Systems and methods for error reduction associated with information transfer |
US8438018B2 (en) * | 2006-02-06 | 2013-05-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and arrangement for speech coding in wireless communication systems |
US7457746B2 (en) * | 2006-03-20 | 2008-11-25 | Mindspeed Technologies, Inc. | Pitch prediction for packet loss concealment |
CN101000768B (zh) * | 2006-06-21 | 2010-12-08 | 北京工业大学 | 嵌入式语音编解码的方法及编解码器 |
US20090248404A1 (en) | 2006-07-12 | 2009-10-01 | Panasonic Corporation | Lost frame compensating method, audio encoding apparatus and audio decoding apparatus |
US8255213B2 (en) * | 2006-07-12 | 2012-08-28 | Panasonic Corporation | Speech decoding apparatus, speech encoding apparatus, and lost frame concealment method |
JP4380669B2 (ja) * | 2006-08-07 | 2009-12-09 | カシオ計算機株式会社 | 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム |
US7752038B2 (en) * | 2006-10-13 | 2010-07-06 | Nokia Corporation | Pitch lag estimation |
MY152845A (en) | 2006-10-24 | 2014-11-28 | Voiceage Corp | Method and device for coding transition frames in speech signals |
JP5123516B2 (ja) * | 2006-10-30 | 2013-01-23 | 株式会社エヌ・ティ・ティ・ドコモ | 復号装置、符号化装置、復号方法及び符号化方法 |
ES2387692T3 (es) * | 2006-11-24 | 2012-09-28 | Lg Electronics Inc. | Método y aparato para codificar señales de audio basadas en objetos |
KR100862662B1 (ko) * | 2006-11-28 | 2008-10-10 | 삼성전자주식회사 | 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치 |
CN101226744B (zh) * | 2007-01-19 | 2011-04-13 | 华为技术有限公司 | 语音解码器中实现语音解码的方法及装置 |
CN101256771A (zh) * | 2007-03-02 | 2008-09-03 | 北京工业大学 | 嵌入式编码、解码方法、编码器、解码器及系统 |
ES2593822T3 (es) * | 2007-06-08 | 2016-12-13 | Lg Electronics Inc. | Método y aparato para procesar una señal de audio |
CN101207665B (zh) | 2007-11-05 | 2010-12-08 | 华为技术有限公司 | 一种衰减因子的获取方法 |
CN100550712C (zh) | 2007-11-05 | 2009-10-14 | 华为技术有限公司 | 一种信号处理方法和处理装置 |
KR100998396B1 (ko) | 2008-03-20 | 2010-12-03 | 광주과학기술원 | 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치 |
EP2144231A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme with common preprocessing |
US8706479B2 (en) * | 2008-11-14 | 2014-04-22 | Broadcom Corporation | Packet loss concealment for sub-band codecs |
JP5309944B2 (ja) * | 2008-12-11 | 2013-10-09 | 富士通株式会社 | オーディオ復号装置、方法、及びプログラム |
US8452606B2 (en) * | 2009-09-29 | 2013-05-28 | Skype | Speech encoding using multiple bit rates |
US8423355B2 (en) * | 2010-03-05 | 2013-04-16 | Motorola Mobility Llc | Encoder for audio signal including generic audio and speech frames |
CN101894558A (zh) * | 2010-08-04 | 2010-11-24 | 华为技术有限公司 | 丢帧恢复方法、设备以及语音增强方法、设备和系统 |
WO2012046685A1 (ja) | 2010-10-05 | 2012-04-12 | 日本電信電話株式会社 | 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体 |
FI3518234T3 (fi) * | 2010-11-22 | 2023-12-14 | Ntt Docomo Inc | Audiokoodauslaite ja -menetelmä |
AR085895A1 (es) * | 2011-02-14 | 2013-11-06 | Fraunhofer Ges Forschung | Generacion de ruido en codecs de audio |
US9026434B2 (en) | 2011-04-11 | 2015-05-05 | Samsung Electronic Co., Ltd. | Frame erasure concealment for a multi rate speech and audio codec |
KR102452593B1 (ko) | 2015-04-15 | 2022-10-11 | 삼성전자주식회사 | 반도체 장치의 제조 방법 |
-
2013
- 2013-11-12 RU RU2017105082A patent/RU2640743C1/ru active
- 2013-11-12 KR KR1020197034894A patent/KR102171293B1/ko active IP Right Grant
- 2013-11-12 KR KR1020207013109A patent/KR102173422B1/ko active IP Right Grant
- 2013-11-12 DK DK13854879.7T patent/DK2922053T3/da active
- 2013-11-12 RU RU2015122777A patent/RU2612581C2/ru active
- 2013-11-12 WO PCT/JP2013/080589 patent/WO2014077254A1/ja active Application Filing
- 2013-11-12 IN IN2595DEN2015 patent/IN2015DN02595A/en unknown
- 2013-11-12 KR KR1020157009567A patent/KR101689766B1/ko active IP Right Grant
- 2013-11-12 MX MX2017001865A patent/MX362139B/es unknown
- 2013-11-12 CN CN201710532316.9A patent/CN107256709B/zh active Active
- 2013-11-12 CA CA2886140A patent/CA2886140C/en active Active
- 2013-11-12 BR BR112015008505-9A patent/BR112015008505B1/pt active IP Right Grant
- 2013-11-12 JP JP2014546993A patent/JP6158214B2/ja active Active
- 2013-11-12 KR KR1020207030410A patent/KR102307492B1/ko active IP Right Grant
- 2013-11-12 EP EP13854879.7A patent/EP2922053B1/en active Active
- 2013-11-12 CN CN201380058010.4A patent/CN104781876B/zh active Active
- 2013-11-12 MX MX2015005885A patent/MX345692B/es active IP Right Grant
- 2013-11-12 PL PL13854879T patent/PL2922053T3/pl unknown
- 2013-11-12 MX MX2018016263A patent/MX2018016263A/es unknown
- 2013-11-12 KR KR1020187029586A patent/KR102259112B1/ko active IP Right Grant
- 2013-11-12 ES ES13854879T patent/ES2747353T3/es active Active
- 2013-11-12 KR KR1020177025971A patent/KR101812123B1/ko active IP Right Grant
- 2013-11-12 PT PT138548797T patent/PT2922053T/pt unknown
- 2013-11-12 AU AU2013345949A patent/AU2013345949B2/en active Active
- 2013-11-12 CA CA3044983A patent/CA3044983C/en active Active
- 2013-11-12 KR KR1020177036234A patent/KR102110853B1/ko active Application Filing
- 2013-11-12 EP EP19185490.0A patent/EP3579228A1/en active Pending
- 2013-11-12 KR KR1020217030770A patent/KR102459376B1/ko active IP Right Grant
- 2013-11-12 CA CA3127953A patent/CA3127953C/en active Active
- 2013-11-12 KR KR1020167025606A patent/KR101780667B1/ko active IP Right Grant
- 2013-11-12 KR KR1020207030913A patent/KR102302012B1/ko active IP Right Grant
- 2013-11-12 CA CA3210225A patent/CA3210225A1/en active Pending
- 2013-11-15 TW TW102141676A patent/TWI547940B/zh active
- 2013-11-15 TW TW105117610A patent/TWI587284B/zh active
-
2015
- 2015-05-14 US US14/712,535 patent/US9564143B2/en active Active
- 2015-09-30 HK HK15109631.9A patent/HK1209229A1/xx unknown
-
2016
- 2016-07-07 JP JP2016135137A patent/JP2016197254A/ja active Pending
- 2016-12-20 US US15/385,458 patent/US9881627B2/en active Active
-
2017
- 2017-03-06 JP JP2017041456A patent/JP6626026B2/ja active Active
- 2017-07-28 AU AU2017208369A patent/AU2017208369B2/en active Active
- 2017-12-14 RU RU2017143786A patent/RU2665301C1/ru active
- 2017-12-26 US US15/854,416 patent/US10553231B2/en active Active
-
2018
- 2018-03-12 JP JP2018044180A patent/JP6793675B2/ja active Active
- 2018-08-21 RU RU2018130271A patent/RU2690775C1/ru active
-
2019
- 2019-02-19 JP JP2019027042A patent/JP6659882B2/ja active Active
- 2019-03-29 AU AU2019202186A patent/AU2019202186B2/en active Active
- 2019-05-28 RU RU2019116380A patent/RU2713605C1/ru active
- 2019-11-28 JP JP2019215587A patent/JP6846500B2/ja active Active
- 2019-12-05 JP JP2019220205A patent/JP6872597B2/ja active Active
- 2019-12-17 US US16/717,822 patent/US11176955B2/en active Active
- 2019-12-17 US US16/717,837 patent/US11195538B2/en active Active
- 2019-12-17 US US16/717,806 patent/US11211077B2/en active Active
-
2020
- 2020-01-17 RU RU2020101916A patent/RU2722510C1/ru active
- 2020-05-14 RU RU2020115805A patent/RU2737465C1/ru active
- 2020-11-17 RU RU2020137611A patent/RU2760485C1/ru active
- 2020-12-24 AU AU2020294317A patent/AU2020294317B2/en active Active
-
2021
- 2021-03-01 JP JP2021031899A patent/JP7209032B2/ja active Active
- 2021-11-01 US US17/515,929 patent/US11749292B2/en active Active
-
2022
- 2022-04-29 AU AU2022202856A patent/AU2022202856B2/en active Active
-
2023
- 2023-07-27 AU AU2023208191A patent/AU2023208191A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003533916A (ja) | 2000-05-11 | 2003-11-11 | テレフォンアクチーボラゲット エル エム エリクソン(パブル) | スピーチ符号化における前方向誤り訂正 |
JP2002118517A (ja) | 2000-07-31 | 2002-04-19 | Sony Corp | 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法 |
JP2004138756A (ja) | 2002-10-17 | 2004-05-13 | Matsushita Electric Ind Co Ltd | 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム |
JP2020038396A (ja) | 2012-11-15 | 2020-03-12 | 株式会社Nttドコモ | 音声符号化装置および音声符号化方法 |
Non-Patent Citations (3)
Title |
---|
BISTRITS, Yuval et al.,"IMMITTANCE SPECTRAL PAIRS (ISP) FOR SPEECH ENCODING",Proc. of the 1993 IEEE International Conference on Acoustics, Speech, and Signal Processing,1993年04月27日,pp.II-9‐II-12 |
SO, Stephen et al.,"A COMPARISON OF LSF AND ISP REPRESENTATIONS FOR WIDEBAND LPC PARAMETER CODING USING THE SWITCHED SPLIT VECTOR QUANTISER",Proc. of the Eighth International Symposium on Signal Processing and Its Applications,2005年08月28日,pp.595-598 |
佐々木茂明,"16 kbit/s付近の広帯域音声符号化の検討 -ITU-T標準候補アルゴリズム-",日本音響学会研究発表会議講演論文集-春I-,2001年03月14日,pp.277-278 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7209032B2 (ja) | 音声符号化装置および音声符号化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7209032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |