JP2016197254A - 音声符号化装置 - Google Patents
音声符号化装置 Download PDFInfo
- Publication number
- JP2016197254A JP2016197254A JP2016135137A JP2016135137A JP2016197254A JP 2016197254 A JP2016197254 A JP 2016197254A JP 2016135137 A JP2016135137 A JP 2016135137A JP 2016135137 A JP2016135137 A JP 2016135137A JP 2016197254 A JP2016197254 A JP 2016197254A
- Authority
- JP
- Japan
- Prior art keywords
- auxiliary information
- speech
- unit
- encoding
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005236 sound signal Effects 0.000 claims description 45
- 238000000034 method Methods 0.000 description 165
- 230000003044 adaptive effect Effects 0.000 description 157
- 238000012545 processing Methods 0.000 description 133
- 238000004364 calculation method Methods 0.000 description 73
- 230000005284 excitation Effects 0.000 description 56
- 230000015572 biosynthetic process Effects 0.000 description 43
- 238000003786 synthesis reaction Methods 0.000 description 43
- 230000008569 process Effects 0.000 description 33
- 230000006870 function Effects 0.000 description 19
- 230000007774 longterm Effects 0.000 description 13
- 238000001914 filtration Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 238000013139 quantization Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000008054 signal transmission Effects 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- VZSRBBMJRBPUNF-UHFFFAOYSA-N 2-(2,3-dihydro-1H-inden-2-ylamino)-N-[3-oxo-3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propyl]pyrimidine-5-carboxamide Chemical class C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C(=O)NCCC(N1CC2=C(CC1)NN=N2)=O VZSRBBMJRBPUNF-UHFFFAOYSA-N 0.000 description 1
- 101000775670 Lycodes polaris Ice-structuring protein LP Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/125—Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Detection And Prevention Of Errors In Transmission (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
Abstract
【解決手段】
音声信号を符号化する音声符号化装置であって、音声信号を符号化する音声符号化部と、CELP符号化におけるパケットロス隠蔽に用いられる補助情報として、CELP符号化における先読み信号のパラメータを算出する補助情報符号化部と、を備え、音声符号化部は、符号化対象フレームの性質を表すインデクスを算出し、補助情報符号化部に伝送し、特定のフレームクラスにおいてのみ、復号対象のパケットより1つ前のパケットに補助情報としてピッチラグが含まれ、特定のフレームクラス以外の場合では、ピッチラグが含まれない、ことを特徴とする。
【選択図】図4
Description
a(i)は線形予測係数(LP係数)であり、次数として例えばP=16などの値を用いる。
音声パラメータ復号部122は、音声符号を復号して音声パラメータを出力する(図7ステップS142)。
音声パラメータ紛失処理部123は、補助情報蓄積部126から補助情報を読み出し、補助情報に含まれないパラメータについては予測を行うことで、音声パラメータを出力する(図7ステップS146)。
本実施例では、補助情報としてピッチラグを伝送し、復号側ではパケットロス隠蔽信号の生成に用いる例について記載する。
音声信号送信装置において、入力音声信号は、音声符号化部111に送られる。
を算出する。ISFパラメータ
は次式により算出する(図10ステップ172)。
ここで、
はバッファに格納されたjフレーム前のISFパラメータである。
また、
は事前に学習等で求めた発話区間でのISFパラメータである。βは定数であり、例えば0.75のような値とすることができるが、これには限られない。また、αも定数であり、0.9のような値とすることができるが、これに限定されない。
は、例えば非特許文献4記載のISFコンシールメントのように、符号化対象フレームの性質を表すインデクスにより変化させてもよい。
をISPパラメータに変換した上で、サブフレーム毎に補間する。ISFパラメータからISPパラメータを算出する方法として非特許文献4の6.4.4節記載の方法を、補間の方法としては、非特許文献4の6.8.3節に記載の処理手順を用いることができる(図10ステップ174)。
に変換する。ここで、先読み信号に含まれるサブフレームの数をMlaとした。ISPパラメータからLP係数への変換には、非特許文献4の6.4.5節に記載の処理手順を用いることができる(図10ステップ175)。
を用いて、ターゲット信号x(n)およびインパルス応答h(n)を算出する(図9ステップ162)。非特許文献4の6.8.4.1.3節に記載の通り、ターゲット信号は線形予測残差信号を聴覚重み付けフィルタに通すことにより得られる(図11)。
ここで、聴覚重み付けフィルタγ=0.68である。聴覚重み付けフィルタの値は、音声符号化の設計方針により別の値としてもよい。
Tp=argmaxTk
なお、yk(n)は線形予測残差にインパルス応答を畳み込むことにより得られる。ここで、Int(i)は補間フィルタを表す。補間フィルタの詳細は非特許文献4の6.8.4.1.4.1節に記載の通りである。当然、補間にフィルタを用いず、v’(n)=u(n+Nadapt−Tp+i)としてもよい。
長期パラメータ算出の詳細な処理手順として非特許文献3の5.7節に記載の方法を用いることができる。
を乗算して、次式に従い励振信号ベクトルを出力する(図9ステップ165)。
適応符号帳ゲイン
の値には、例えば1.0などを用いるが、事前の学習により求めた値を用いてもよいし、符号化対象フレームの性質を表すインデクスにより変化させてもよい。
u(n)=u(n+L) (0≦n<N−L)
u(n+N−L)=e(n) (0≦n<L)
1.ピッチラグ
の一部あるいは全部をバイナリ符号化あるいはスカラ量子化あるいはベクトル量子化あるいは算術符号化して伝送する方法。
2.直前サブフレームのピッチラグとの差分
の一部あるいは全部をバイナリ符号化あるいはスカラ量子化あるいはベクトル量子化あるいは算術符号化して伝送する方法。ただし、
は符号化対象フレームにおける最後のサブフレームのピッチラグである。
3.ピッチラグ
の一部あるいは全部と、符号化対象フレームで算出したピッチラグの一部または全部をまとめてベクトル量子化あるいは算術符号化して伝送する方法。
4.ピッチラグ
の一部あるいは全部を手がかりに、事前に定めた補間手法のうちの1つを選択し、その補間手法のインデクスを伝送する方法。この時、過去に音声の合成に用いた複数のサブフレームのピッチラグを、併せて補間手法の選択に用いてもよい。
図5に示す通り、音声信号受信装置は、音声符号バッファ121、音声パラメータ復号部122、音声パラメータ紛失処理部123、音声合成部124、補助情報復号部125、補助情報蓄積部126からなる。音声信号受信装置の処理手順は図7に示す通りである。
音声パラメータ復号部122は、受信した音声符号を復号し、符号化対象フレームに関する音声を合成するのに必要な音声パラメータ(ISPパラメータおよび対応するISFパラメータ、ピッチラグ、長期予測パラメータ、適応符号帳、適応符号帳ゲイン、固定符号帳ゲイン、固定符号帳ベクトル等)を算出する(図7ステップ142)。
を算出し、補助情報蓄積部126に格納する。補助情報復号部125では、符号化側で用いた符号化方法に対応する復号方法を用いて、補助情報符号を復号する(図7ステップ143)。
、適応符号帳u(n)から、次式に従い、適応符号帳ベクトルv’(n)を算出する。
適応符号帳ベクトルは、適応符号帳u(n)をFIRフィルタInt(i)により補間することで算出する。ここで、適応符号帳の長さをNadaptとした。補間に用いるフィルタInt(i)は、(数27)の補間フィルタと同じである。事前に定めた長さ2l+1のFIRフィルタである。L’はサブフレームのサンプル数である。エンコーダ側と同様、補間にフィルタを用いなくてもよい。
v’(n)=0.18v’(n−1)+0.64v’(n)+0.18v’(n+1)
e(n)=gp・v’(n)+gc・c(n)
u(n)=u(n+L) (0≦n<N−L)
u(n+N−L)=e(n) (0≦n<L)
音声パラメータ紛失処理部123は、補助情報蓄積部126からピッチラグ
を読み出し、音声パラメータを予測する。音声パラメータ紛失処理部123の機能構成例を図12に示し、音声パラメータ予測の処理手順を図13に示す。
を算出する(図10ステップ172)。
ここで、
はバッファに格納されたjフレーム前のISFパラメータである。また、
,α,βは、符号化側で用いた値と同様である。
を得る。さらに、過去に復号に用いたピッチラグ
を用いて、ピッチラグ
を出力する。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaである。ピッチラグ
の予測に当たっては、例えば非特許文献4の7.11.1.3節に記載の処理手順を用いることができる(図13ステップ1102)。
と、過去に復号に用いた適応符号帳ゲイン
を用いて、適応符号帳ゲイン
を出力する。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaである。適応符号帳ゲイン
の予測に当たっては、例えば、非特許文献4の7.11.2.5.3節記載の処理手順を用いることができる(図13ステップ1103)。
を用いて、固定符号帳ゲイン
を出力する。ここで、1フレームに含まれるサブフレームの数はMである。固定符号帳ゲイン
の予測に当たっては、例えば、非特許文献4の7.11.2.6節に記載の処理手順を用いることができる(図13ステップ1104)。
実施例1の変形例として、ピッチゲインを補助情報に追加する例を示す。変形例1−1と実施例1との差分は、励振ベクトル合成部155の動作のみであるので、その他の部分について説明を省略する。
励振ベクトル合成部155の処理手順を図14に示す。
を次式に従い算出する(図14ステップ1111)。
但し、y(n)は適応符号帳ベクトルにインパルス応答を畳み込んで得られる信号y(n)=v(n)*h(n)である。
励振ベクトル合成部155は、適応符号帳ベクトルv’(n)に補助情報符号を復号することにより得られる適応符号帳ゲイン
を乗算して、次式により励振信号ベクトルを出力する(図9ステップ165)。
実施例1の変形例として、補助情報の利用判断のためのフラグを補助情報に追加する例を示す。
補助情報符号化部の機能構成例を図17に、補助情報符号化部の処理手順を図18に示す。実施例1との差分は、補助情報出力判定部1128(図18ステップ1131)のみであるので、その他の部分について説明を省略する。
一方、segmental SNRが閾値を越えないときは、フラグの値をオフにして補助情報に含める(図18ステップ1131)。なお、フラグの値がオンのときのみ、ピッチラグやピッチゲインなどの補助情報をフラグに付加して伝送し、フラグの値がオフのときはフラグの値のみ伝送することにより補助情報のビット量を削減してもよい。
補助情報復号部は、補助情報符号に含まれるフラグを復号する。音声パラメータ紛失処理部は、フラグの値がオンの場合は、実施例1と同様の処理手順により復号信号を算出する。一方、フラグの値がオフの場合は、補助情報を用いないパケットロス隠蔽手法により復号信号を算出する(図19ステップ1151)。
本実施例では、先読み信号部分の復号音声を正常受信時にも利用する例について述べる。説明を容易にするため、1フレームに含まれるサブフレームの数をMサブフレーム、先読み信号の長さをM’サブフレームとする。
音声信号送信装置は、図20に示す通り、主要符号化部211、補助情報符号化部212、隠蔽信号蓄積部213、誤差信号符号化部214からなる。音声信号送信装置の処理手順を図22に示す。
図23に示す通り、音声信号受信装置は、音声符号バッファ231、音声パラメータ復号部232、音声パラメータ紛失処理部233、音声合成部234、補助情報復号部235、補助情報蓄積部236、誤差信号復号部237、隠蔽信号蓄積部238からなる。音声信号受信装置の処理手順を図24に示す。音声合成部234の機能構成を図25に示す。
誤差信号復号部237は誤差信号符合を復号して復号誤差信号を得る。具体的な処理手順として非特許文献4の7.1.2.1.2節に記載のAVQ等、符号化側で用いた方法に対応した復号方法を用いる(図24ステップ242)。
ISF予測部191は、直前フレームのISFパラメータを用いてISFパラメータを予測し、LP係数に変換する。処理手順は実施例1の図10のステップ172、173、174と同様である(図24ステップ2412)。
隠蔽信号蓄積部から1サブフレーム分の隠蔽信号を読み出し、復号信号とする(図24ステップ2419)。
適応符号帳ベクトルの算出に当たって、声門パルス同期を用いる場合について述べる。
音声信号送信装置の機能構成は実施例1と同じである。機能構成および処理手順が異なるのは補助情報符号化部のみであるので、ここでは補助情報符号化部の動作についてのみ述べる。
を算出する(図28ステップ322)。予測の具体的な処理は実施例1におけるピッチラグ予測部192における、ピッチラグ
の予測と同様である(図13ステップ1102と同じである)。
および過去のピッチラグの値
から、次式に従いピッチラグコードブックを生成する(図29ステップ331)。
ここで、1サブフレーム前のピッチラグの値は
である。またコードブックのインデクス数をIとする。またδjは事前に定めたステップ幅であり、ρは事前に定めた定数である。
を用いて、次式に従い初期励振ベクトルu0(n)を生成する(図29ステップ332)。
初期励振ベクトル算出の処理手順は、非特許文献4の式(607)および式(608)と同様である。
を用いて声門パルス同期を適用し、候補適応符号帳ベクトルuj(n)(0≦j<I)を生成する(図29ステップ333)。声門パルス同期は非特許文献4の7.11.2.5節におけるパルス位置が利用できない場合と同様の処理手順を用いる。ただし、非特許文献4におけるu(n)は本発明の実施形態のu0(n)に対応し、extrapolated pitchは本発明の実施形態の
に対応し、the last reliable pitch(Tc)は本発明の実施形態の
に対応する。
この場合、LP係数を用いて先読み信号s(n)(0≦n<L’)の残差信号r(n)を算出する(図11ステップ181)。
音声信号受信装置の機能構成は実施例1と同様である。実施例1との差分は音声パラメータ紛失処理部123、補助情報復号部125、補助情報蓄積部126の機能構成と処理手順であるので、これらについてのみ述べる。
を算出する(図30ステップ341)。予測の具体的な処理は実施例3における図28ステップ322と同様である。
および過去のピッチラグの値
から、次式に従いピッチラグコードブックを生成する(図30ステップ342)。
処理手順は図29ステップ331と同様である。ここで、1サブフレーム前のピッチラグの値は
である。またコードブックのインデクス数をIとする。またδjは事前に定めたステップ幅であり、ρは事前に定めた定数である。
音声合成部の機能構成も実施例1と同様であるが(図15と同様)、実施例1と動作が異なる適応符号帳算出部1123についてのみ以下に述べる。
ここで、
は予め定めた定数である。
補助情報を復号側でのピッチラグ予測に用いる例について述べる。
音声信号送信装置の機能構成は実施例1と同様である。機能構成および処理手順が異なるのは補助情報符号化部112のみであるので、ここでは補助情報符号化部112の動作についてのみ述べる。
Tp=argkmaxTk
v’(n)=u(n+Nadapt−Tp)
u(n)=u(n+L’) (0≦n<N−L’)
u(n+N−L’)=v’(n) (0≦n<L)
音声信号受信装置は、実施例1と同様に、音声符号バッファ121、音声パラメータ復号部122、音声パラメータ紛失処理部123、音声合成部124、補助情報復号部125、補助情報蓄積部126からなる。音声信号受信装置の処理手順は図7に示す通りである。
音声パラメータ復号部122の動作は実施例1と同様である。
を算出し、補助情報蓄積部126に格納する。補助情報復号部125では、符号化側で用いた符号化方法に対応する復号方法を用いて、補助情報符号を復号する。
音声パラメータ紛失処理部123(図12参照)のISF予測部191は、実施例1と同様にしてISFパラメータを算出する。
を得る(図35のステップ4051)。さらに、過去に復号に用いたピッチラグ
を用いて、ピッチラグ
を出力する(図35のステップ4052)。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaとする。ピッチラグ
の予測に当たっては、非特許文献4のような処理手順を用いることができる(図13のステップ1102)。
の予測に当たって、過去に復号に用いたピッチラグ
とピッチラグ
を用いてピッチラグ
を予測してもよい。また、
としてもよい。この場合のピッチラグ予測部の処理手順は図36のようになる。
としてもよい。この場合のピッチラグ予測部192の処理手順を図37に示す。予測値を用いたか、補助情報により得られたピッチラグ
を用いたかに関する指示情報を適応符号帳算出部154に入力するようにしてもよい。
v(n)=f−1v’(n−1)+f0v’(n)+f1v’(n+1)
フィルタリングを指示しない値をとる場合は、v(n)=v’(n)とする(適応符号帳算出ステップA)。
v(n)=f−1v’(n−1)+f0v’(n)+f1v’(n+1)
設計方針によって、v(n)=v’(n)としてもよい。
に対応し、the last reliable pitch(Tc)は本発明の実施形態の
に対応する。
本実施例では、特定のフレームクラスにおいてのみ補助情報としてピッチラグを伝送し、それ以外では、ピッチラグを伝送しない構成について述べる。
音声信号送信装置において、入力音声信号は、音声符号化部111に送られる。
音声信号受信装置は、実施例1と同様に、音声符号バッファ121、音声パラメータ復号部122、音声パラメータ紛失処理部123、音声合成部124、補助情報復号部125、補助情報蓄積部126からなる。音声信号受信装置の処理手順は図7に示す通りである。
音声パラメータ復号部122の動作は実施例1と同様である。
を算出し、補助情報蓄積部126に格納する(図41のステップ5033)。また、補助情報インデクスの値を補助情報蓄積部126に格納する。なお、B−1ビットの補助情報の復号は、実施例1の補助情報復号部125と同様の動作である。
音声パラメータ紛失処理部123(図12参照)のISF予測部191は、実施例1と同様にしてISFパラメータを算出する。
実施例1と同様にして、補助情報蓄積部126から補助情報符号を読み出してピッチラグ
を得る(図42の5043)。さらに、過去に復号に用いたピッチラグ
および補助情報として得られた
を用いて、ピッチラグ
を出力する(図42のステップ5044)。ここで、1フレームに含まれるサブフレームの数はM、補助情報に含まれるピッチラグの数をMlaとする。ピッチラグ
の予測に当たっては、非特許文献4のような処理手順を用いることができる(図13のステップ1102)。また、
としてもよい。
とし、それ以外の場合には予測値を
とするようにしてもよい(図42のステップ5046)。また、予測値を用いたか、補助情報により得られたピッチラグ
を用いたかに関するピッチラグ指示情報を適応符号帳算出部1123に入力するようにしてもよい。
ピッチラグ予測部192は、ピッチラグ
の予測に当たって、過去に復号に用いたピッチラグ
を用いてピッチラグ
を予測する(図42のステップ5048)。
とし(図42のステップ5049)、それ以外の場合には予測値を
とするようにしてもよい。また、予測値を用いたか、過去復号に用いたピッチラグ
を用いたかに関するピッチラグ指示情報を適応符号帳算出部1123に入力する(図42のステップ5050)。
v(n)=f−1v’(n−1)+f0v’(n)+f1v’(n+1)
なお設計方針により、v(n)=v’(n)としてもよい。
v(n)=f−1v’(n−1)+f0v’(n)+f1v’(n+1)
設計方針によって、v(n)=v’(n)としてもよい。
に対応し、the last reliable pitch(Tc)は本発明の実施形態の
に対応する。
音声符号を復号して音声信号を出力する音声復号装置による音声復号方法であって、
音声パケットの受信状態からパケットロスを検出する音声符号バッファステップと、
音声パケット正常受信時に音声符号を復号する音声パラメータ復号ステップと、
音声パケット正常受信時に補助情報符号を復号する補助情報復号ステップと、
補助情報符号を復号して得られる補助情報を蓄積する補助情報蓄積ステップと、
音声パケットロス検出時に音声パラメータを出力する音声パラメータ紛失処理ステップと、
音声パラメータから復号音声を合成する音声合成ステップと、
を含み、
前記音声パラメータ紛失処理ステップは、音声パケットロス検出時に、音声パケット正常受信時に蓄積した音声パラメータと前記補助情報蓄積ステップにて蓄積された補助情報とを用いて、音声パラメータの予測値を算出し、算出された予測値の信頼度が低い場合には、前記補助情報蓄積ステップにて蓄積された補助情報を音声パラメータとして採用する。
音声符号を復号して音声信号を出力する音声復号装置であって、
音声パケットの受信状態からパケットロスを検出する音声符号バッファと、
音声パケット正常受信時に音声符号を復号する音声パラメータ復号部と、
音声パケット正常受信時に補助情報符号を復号する補助情報復号部と、
補助情報符号を復号して得られる補助情報を蓄積する補助情報蓄積部と、
音声パケットロス検出時に音声パラメータを出力する音声パラメータ紛失処理部と、
音声パラメータから復号音声を合成する音声合成部と、
を備え、
前記音声パラメータ紛失処理部は、音声パケットロス検出時に、音声パケット正常受信時に蓄積した音声パラメータと前記補助情報蓄積部から読み出した補助情報とを用いて、音声パラメータの予測値を算出し、算出された予測値の信頼度が低い場合には、前記補助情報蓄積部から読み出した補助情報を音声パラメータとして採用する。
Claims (1)
- 音声信号を符号化する音声符号化装置であって、
音声信号を符号化する音声符号化部と、
CELP符号化におけるパケットロス隠蔽に用いられる補助情報として、CELP符号化における先読み信号のパラメータを算出する補助情報符号化部と、
を備え、
前記音声符号化部は、
符号化対象フレームの性質を表すインデクスを算出し、前記補助情報符号化部に伝送し、
特定のフレームクラスにおいてのみ、復号対象のパケットより1つ前のパケットに前記補助情報としてピッチラグが含まれ、特定のフレームクラス以外の場合では、ピッチラグが含まれない、
ことを特徴とする音声符号化装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012251646 | 2012-11-15 | ||
JP2012251646 | 2012-11-15 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014546993A Division JP6158214B2 (ja) | 2012-11-15 | 2013-11-12 | 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018044180A Division JP6793675B2 (ja) | 2012-11-15 | 2018-03-12 | 音声符号化装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016197254A true JP2016197254A (ja) | 2016-11-24 |
Family
ID=50731166
Family Applications (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014546993A Active JP6158214B2 (ja) | 2012-11-15 | 2013-11-12 | 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム |
JP2016135137A Pending JP2016197254A (ja) | 2012-11-15 | 2016-07-07 | 音声符号化装置 |
JP2017041456A Active JP6626026B2 (ja) | 2012-11-15 | 2017-03-06 | 音声復号装置および音声復号方法 |
JP2018044180A Active JP6793675B2 (ja) | 2012-11-15 | 2018-03-12 | 音声符号化装置 |
JP2019027042A Active JP6659882B2 (ja) | 2012-11-15 | 2019-02-19 | 音声符号化装置および音声符号化方法 |
JP2019215587A Active JP6846500B2 (ja) | 2012-11-15 | 2019-11-28 | 音声符号化装置 |
JP2019220205A Active JP6872597B2 (ja) | 2012-11-15 | 2019-12-05 | 音声符号化装置および音声符号化方法 |
JP2021031899A Active JP7209032B2 (ja) | 2012-11-15 | 2021-03-01 | 音声符号化装置および音声符号化方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014546993A Active JP6158214B2 (ja) | 2012-11-15 | 2013-11-12 | 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム |
Family Applications After (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041456A Active JP6626026B2 (ja) | 2012-11-15 | 2017-03-06 | 音声復号装置および音声復号方法 |
JP2018044180A Active JP6793675B2 (ja) | 2012-11-15 | 2018-03-12 | 音声符号化装置 |
JP2019027042A Active JP6659882B2 (ja) | 2012-11-15 | 2019-02-19 | 音声符号化装置および音声符号化方法 |
JP2019215587A Active JP6846500B2 (ja) | 2012-11-15 | 2019-11-28 | 音声符号化装置 |
JP2019220205A Active JP6872597B2 (ja) | 2012-11-15 | 2019-12-05 | 音声符号化装置および音声符号化方法 |
JP2021031899A Active JP7209032B2 (ja) | 2012-11-15 | 2021-03-01 | 音声符号化装置および音声符号化方法 |
Country Status (18)
Country | Link |
---|---|
US (7) | US9564143B2 (ja) |
EP (2) | EP3579228A1 (ja) |
JP (8) | JP6158214B2 (ja) |
KR (10) | KR102307492B1 (ja) |
CN (2) | CN107256709B (ja) |
AU (5) | AU2013345949B2 (ja) |
BR (1) | BR112015008505B1 (ja) |
CA (4) | CA3210225A1 (ja) |
DK (1) | DK2922053T3 (ja) |
ES (1) | ES2747353T3 (ja) |
HK (1) | HK1209229A1 (ja) |
IN (1) | IN2015DN02595A (ja) |
MX (3) | MX362139B (ja) |
PL (1) | PL2922053T3 (ja) |
PT (1) | PT2922053T (ja) |
RU (8) | RU2640743C1 (ja) |
TW (2) | TWI587284B (ja) |
WO (1) | WO2014077254A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2849974C (en) * | 2011-09-26 | 2021-04-13 | Sirius Xm Radio Inc. | System and method for increasing transmission bandwidth efficiency ("ebt2") |
PL2922053T3 (pl) * | 2012-11-15 | 2019-11-29 | Ntt Docomo Inc | Urządzenie do kodowania audio, sposób kodowania audio, program do kodowania audio, urządzenie do dekodowania audio, sposób dekodowania audio, i program do dekodowania audio |
US9418671B2 (en) * | 2013-08-15 | 2016-08-16 | Huawei Technologies Co., Ltd. | Adaptive high-pass post-filter |
EP2922056A1 (en) | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation |
EP2922055A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information |
EP2922054A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation |
CN105897666A (zh) * | 2015-10-08 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 实时语音通话中的实时语音接收设备及降低延迟的方法 |
US10650837B2 (en) * | 2017-08-29 | 2020-05-12 | Microsoft Technology Licensing, Llc | Early transmission in packetized speech |
US11710492B2 (en) * | 2019-10-02 | 2023-07-25 | Qualcomm Incorporated | Speech encoding using a pre-encoded database |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08160993A (ja) * | 1994-12-08 | 1996-06-21 | Nec Corp | 音声分析合成器 |
JP2004138756A (ja) * | 2002-10-17 | 2004-05-13 | Matsushita Electric Ind Co Ltd | 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム |
JP2008040157A (ja) * | 2006-08-07 | 2008-02-21 | Casio Comput Co Ltd | 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5327520A (en) * | 1992-06-04 | 1994-07-05 | At&T Bell Laboratories | Method of use of voice message coder/decoder |
JP3713288B2 (ja) * | 1994-04-01 | 2005-11-09 | 株式会社東芝 | 音声復号装置 |
JP4121578B2 (ja) * | 1996-10-18 | 2008-07-23 | ソニー株式会社 | 音声分析方法、音声符号化方法および装置 |
EP1052620B1 (en) * | 1997-12-24 | 2004-07-21 | Mitsubishi Denki Kabushiki Kaisha | Sound encoding method and sound decoding method, and sound encoding device and sound decoding device |
US7072832B1 (en) * | 1998-08-24 | 2006-07-04 | Mindspeed Technologies, Inc. | System for speech encoding having an adaptive encoding arrangement |
US6757654B1 (en) | 2000-05-11 | 2004-06-29 | Telefonaktiebolaget Lm Ericsson | Forward error correction in speech coding |
JP2002118517A (ja) | 2000-07-31 | 2002-04-19 | Sony Corp | 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法 |
US6862567B1 (en) | 2000-08-30 | 2005-03-01 | Mindspeed Technologies, Inc. | Noise suppression in the frequency domain by adjusting gain according to voicing parameters |
US6968309B1 (en) | 2000-10-31 | 2005-11-22 | Nokia Mobile Phones Ltd. | Method and system for speech frame error concealment in speech decoding |
KR100674423B1 (ko) * | 2001-01-19 | 2007-01-29 | 엘지전자 주식회사 | 송/수신 시스템 및 데이터 처리 방법 |
JP3628268B2 (ja) * | 2001-03-13 | 2005-03-09 | 日本電信電話株式会社 | 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体 |
US7308406B2 (en) | 2001-08-17 | 2007-12-11 | Broadcom Corporation | Method and system for a waveform attenuation technique for predictive speech coding based on extrapolation of speech waveform |
SE521600C2 (sv) * | 2001-12-04 | 2003-11-18 | Global Ip Sound Ab | Lågbittaktskodek |
JP3722366B2 (ja) * | 2002-02-22 | 2005-11-30 | 日本電信電話株式会社 | パケット構成方法及び装置、パケット構成プログラム、並びにパケット分解方法及び装置、パケット分解プログラム |
EP1484841B1 (en) * | 2002-03-08 | 2018-12-26 | Nippon Telegraph And Telephone Corporation | DIGITAL SIGNAL ENCODING METHOD, DECODING METHOD, ENCODING DEVICE, DECODING DEVICE and DIGITAL SIGNAL DECODING PROGRAM |
JP2004077688A (ja) * | 2002-08-14 | 2004-03-11 | Nec Corp | 音声通信装置 |
US7584107B2 (en) * | 2002-09-09 | 2009-09-01 | Accenture Global Services Gmbh | Defined contribution benefits tool |
AU2003208517A1 (en) * | 2003-03-11 | 2004-09-30 | Nokia Corporation | Switching between coding schemes |
JP4365653B2 (ja) * | 2003-09-17 | 2009-11-18 | パナソニック株式会社 | 音声信号送信装置、音声信号伝送システム及び音声信号送信方法 |
SE527670C2 (sv) * | 2003-12-19 | 2006-05-09 | Ericsson Telefon Ab L M | Naturtrogenhetsoptimerad kodning med variabel ramlängd |
EP1746580B1 (en) * | 2004-05-10 | 2010-03-24 | Nippon Telegraph and Telephone Corporation | Acoustic signal packet communication method, transmission method, reception method, and device and program thereof |
EP1756805B1 (en) * | 2004-06-02 | 2008-07-30 | Koninklijke Philips Electronics N.V. | Method and apparatus for embedding auxiliary information in a media signal |
US20060088093A1 (en) * | 2004-10-26 | 2006-04-27 | Nokia Corporation | Packet loss compensation |
SE0402652D0 (sv) | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Methods for improved performance of prediction based multi- channel reconstruction |
SE0402650D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Improved parametric stereo compatible coding of spatial audio |
US7933767B2 (en) * | 2004-12-27 | 2011-04-26 | Nokia Corporation | Systems and methods for determining pitch lag for a current frame of information |
JP5202960B2 (ja) | 2005-01-31 | 2013-06-05 | スカイプ | 通信システムにおけるフレームの連結方法 |
US8214220B2 (en) * | 2005-05-26 | 2012-07-03 | Lg Electronics Inc. | Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal |
US7707034B2 (en) * | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
US20070055510A1 (en) * | 2005-07-19 | 2007-03-08 | Johannes Hilpert | Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding |
US9058812B2 (en) * | 2005-07-27 | 2015-06-16 | Google Technology Holdings LLC | Method and system for coding an information signal using pitch delay contour adjustment |
US7712008B2 (en) * | 2006-01-26 | 2010-05-04 | Agere Systems Inc. | Systems and methods for error reduction associated with information transfer |
US8438018B2 (en) * | 2006-02-06 | 2013-05-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and arrangement for speech coding in wireless communication systems |
US7457746B2 (en) * | 2006-03-20 | 2008-11-25 | Mindspeed Technologies, Inc. | Pitch prediction for packet loss concealment |
CN101000768B (zh) * | 2006-06-21 | 2010-12-08 | 北京工业大学 | 嵌入式语音编解码的方法及编解码器 |
US20090248404A1 (en) | 2006-07-12 | 2009-10-01 | Panasonic Corporation | Lost frame compensating method, audio encoding apparatus and audio decoding apparatus |
US8255213B2 (en) * | 2006-07-12 | 2012-08-28 | Panasonic Corporation | Speech decoding apparatus, speech encoding apparatus, and lost frame concealment method |
US7752038B2 (en) | 2006-10-13 | 2010-07-06 | Nokia Corporation | Pitch lag estimation |
MY152845A (en) | 2006-10-24 | 2014-11-28 | Voiceage Corp | Method and device for coding transition frames in speech signals |
JP5123516B2 (ja) * | 2006-10-30 | 2013-01-23 | 株式会社エヌ・ティ・ティ・ドコモ | 復号装置、符号化装置、復号方法及び符号化方法 |
CA2645863C (en) * | 2006-11-24 | 2013-01-08 | Lg Electronics Inc. | Method for encoding and decoding object-based audio signal and apparatus thereof |
KR100862662B1 (ko) * | 2006-11-28 | 2008-10-10 | 삼성전자주식회사 | 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치 |
CN101226744B (zh) * | 2007-01-19 | 2011-04-13 | 华为技术有限公司 | 语音解码器中实现语音解码的方法及装置 |
CN101256771A (zh) * | 2007-03-02 | 2008-09-03 | 北京工业大学 | 嵌入式编码、解码方法、编码器、解码器及系统 |
US8644970B2 (en) * | 2007-06-08 | 2014-02-04 | Lg Electronics Inc. | Method and an apparatus for processing an audio signal |
CN101207665B (zh) | 2007-11-05 | 2010-12-08 | 华为技术有限公司 | 一种衰减因子的获取方法 |
CN100550712C (zh) * | 2007-11-05 | 2009-10-14 | 华为技术有限公司 | 一种信号处理方法和处理装置 |
KR100998396B1 (ko) | 2008-03-20 | 2010-12-03 | 광주과학기술원 | 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치 |
EP2144231A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme with common preprocessing |
US8706479B2 (en) * | 2008-11-14 | 2014-04-22 | Broadcom Corporation | Packet loss concealment for sub-band codecs |
JP5309944B2 (ja) * | 2008-12-11 | 2013-10-09 | 富士通株式会社 | オーディオ復号装置、方法、及びプログラム |
US8452606B2 (en) * | 2009-09-29 | 2013-05-28 | Skype | Speech encoding using multiple bit rates |
US8423355B2 (en) * | 2010-03-05 | 2013-04-16 | Motorola Mobility Llc | Encoder for audio signal including generic audio and speech frames |
CN101894558A (zh) * | 2010-08-04 | 2010-11-24 | 华为技术有限公司 | 丢帧恢复方法、设备以及语音增强方法、设备和系统 |
WO2012046685A1 (ja) | 2010-10-05 | 2012-04-12 | 日本電信電話株式会社 | 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体 |
CN104934036B (zh) * | 2010-11-22 | 2018-11-02 | 株式会社Ntt都科摩 | 音频编码装置、方法以及音频解码装置、方法 |
MX2013009305A (es) * | 2011-02-14 | 2013-10-03 | Fraunhofer Ges Forschung | Generacion de ruido en codecs de audio. |
US9026434B2 (en) | 2011-04-11 | 2015-05-05 | Samsung Electronic Co., Ltd. | Frame erasure concealment for a multi rate speech and audio codec |
PL2922053T3 (pl) * | 2012-11-15 | 2019-11-29 | Ntt Docomo Inc | Urządzenie do kodowania audio, sposób kodowania audio, program do kodowania audio, urządzenie do dekodowania audio, sposób dekodowania audio, i program do dekodowania audio |
KR102452593B1 (ko) | 2015-04-15 | 2022-10-11 | 삼성전자주식회사 | 반도체 장치의 제조 방법 |
-
2013
- 2013-11-12 PL PL13854879T patent/PL2922053T3/pl unknown
- 2013-11-12 RU RU2017105082A patent/RU2640743C1/ru active
- 2013-11-12 MX MX2017001865A patent/MX362139B/es unknown
- 2013-11-12 JP JP2014546993A patent/JP6158214B2/ja active Active
- 2013-11-12 CA CA3210225A patent/CA3210225A1/en active Pending
- 2013-11-12 CA CA3044983A patent/CA3044983C/en active Active
- 2013-11-12 KR KR1020207030410A patent/KR102307492B1/ko active IP Right Grant
- 2013-11-12 EP EP19185490.0A patent/EP3579228A1/en active Pending
- 2013-11-12 CN CN201710532316.9A patent/CN107256709B/zh active Active
- 2013-11-12 KR KR1020177025971A patent/KR101812123B1/ko active IP Right Grant
- 2013-11-12 DK DK13854879.7T patent/DK2922053T3/da active
- 2013-11-12 KR KR1020217030770A patent/KR102459376B1/ko active IP Right Grant
- 2013-11-12 MX MX2018016263A patent/MX2018016263A/es unknown
- 2013-11-12 MX MX2015005885A patent/MX345692B/es active IP Right Grant
- 2013-11-12 RU RU2015122777A patent/RU2612581C2/ru active
- 2013-11-12 KR KR1020187029586A patent/KR102259112B1/ko active IP Right Grant
- 2013-11-12 CA CA2886140A patent/CA2886140C/en active Active
- 2013-11-12 KR KR1020177036234A patent/KR102110853B1/ko active Application Filing
- 2013-11-12 KR KR1020167025606A patent/KR101780667B1/ko active IP Right Grant
- 2013-11-12 BR BR112015008505-9A patent/BR112015008505B1/pt active IP Right Grant
- 2013-11-12 PT PT138548797T patent/PT2922053T/pt unknown
- 2013-11-12 IN IN2595DEN2015 patent/IN2015DN02595A/en unknown
- 2013-11-12 KR KR1020207013109A patent/KR102173422B1/ko active IP Right Grant
- 2013-11-12 WO PCT/JP2013/080589 patent/WO2014077254A1/ja active Application Filing
- 2013-11-12 KR KR1020207030913A patent/KR102302012B1/ko active IP Right Grant
- 2013-11-12 AU AU2013345949A patent/AU2013345949B2/en active Active
- 2013-11-12 KR KR1020157009567A patent/KR101689766B1/ko active IP Right Grant
- 2013-11-12 ES ES13854879T patent/ES2747353T3/es active Active
- 2013-11-12 CN CN201380058010.4A patent/CN104781876B/zh active Active
- 2013-11-12 CA CA3127953A patent/CA3127953C/en active Active
- 2013-11-12 EP EP13854879.7A patent/EP2922053B1/en active Active
- 2013-11-12 KR KR1020197034894A patent/KR102171293B1/ko active IP Right Grant
- 2013-11-15 TW TW105117610A patent/TWI587284B/zh active
- 2013-11-15 TW TW102141676A patent/TWI547940B/zh active
-
2015
- 2015-05-14 US US14/712,535 patent/US9564143B2/en active Active
- 2015-09-30 HK HK15109631.9A patent/HK1209229A1/xx unknown
-
2016
- 2016-07-07 JP JP2016135137A patent/JP2016197254A/ja active Pending
- 2016-12-20 US US15/385,458 patent/US9881627B2/en active Active
-
2017
- 2017-03-06 JP JP2017041456A patent/JP6626026B2/ja active Active
- 2017-07-28 AU AU2017208369A patent/AU2017208369B2/en active Active
- 2017-12-14 RU RU2017143786A patent/RU2665301C1/ru active
- 2017-12-26 US US15/854,416 patent/US10553231B2/en active Active
-
2018
- 2018-03-12 JP JP2018044180A patent/JP6793675B2/ja active Active
- 2018-08-21 RU RU2018130271A patent/RU2690775C1/ru active
-
2019
- 2019-02-19 JP JP2019027042A patent/JP6659882B2/ja active Active
- 2019-03-29 AU AU2019202186A patent/AU2019202186B2/en active Active
- 2019-05-28 RU RU2019116380A patent/RU2713605C1/ru active
- 2019-11-28 JP JP2019215587A patent/JP6846500B2/ja active Active
- 2019-12-05 JP JP2019220205A patent/JP6872597B2/ja active Active
- 2019-12-17 US US16/717,837 patent/US11195538B2/en active Active
- 2019-12-17 US US16/717,806 patent/US11211077B2/en active Active
- 2019-12-17 US US16/717,822 patent/US11176955B2/en active Active
-
2020
- 2020-01-17 RU RU2020101916A patent/RU2722510C1/ru active
- 2020-05-14 RU RU2020115805A patent/RU2737465C1/ru active
- 2020-11-17 RU RU2020137611A patent/RU2760485C1/ru active
- 2020-12-24 AU AU2020294317A patent/AU2020294317B2/en active Active
-
2021
- 2021-03-01 JP JP2021031899A patent/JP7209032B2/ja active Active
- 2021-11-01 US US17/515,929 patent/US11749292B2/en active Active
-
2022
- 2022-04-29 AU AU2022202856A patent/AU2022202856B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08160993A (ja) * | 1994-12-08 | 1996-06-21 | Nec Corp | 音声分析合成器 |
JP2004138756A (ja) * | 2002-10-17 | 2004-05-13 | Matsushita Electric Ind Co Ltd | 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム |
JP2008040157A (ja) * | 2006-08-07 | 2008-02-21 | Casio Comput Co Ltd | 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6659882B2 (ja) | 音声符号化装置および音声符号化方法 | |
AU2023208191B2 (en) | Audio coding device, audio coding method, audio coding program, audio decoding device, audio decoding method, and audio decoding program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170724 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171212 |