JP2007034230A - 音声符号化装置及び方法、並びに音声復号装置及び方法 - Google Patents

音声符号化装置及び方法、並びに音声復号装置及び方法 Download PDF

Info

Publication number
JP2007034230A
JP2007034230A JP2005221524A JP2005221524A JP2007034230A JP 2007034230 A JP2007034230 A JP 2007034230A JP 2005221524 A JP2005221524 A JP 2005221524A JP 2005221524 A JP2005221524 A JP 2005221524A JP 2007034230 A JP2007034230 A JP 2007034230A
Authority
JP
Japan
Prior art keywords
signal
stream
decoding
decoded
core
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005221524A
Other languages
English (en)
Other versions
JP2007034230A5 (ja
JP4640020B2 (ja
Inventor
Takashi Onuma
孝至 大沼
Yasuhiro Tokuri
康裕 戸栗
Hideaki Watanabe
秀明 渡辺
Noriteru Fujita
式曜 藤田
Kaiho Awabi
海峰 鮑
Manabu Uchino
学 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005221524A priority Critical patent/JP4640020B2/ja
Priority to US11/459,513 priority patent/US8566105B2/en
Priority to CN2006100995477A priority patent/CN1905010B/zh
Publication of JP2007034230A publication Critical patent/JP2007034230A/ja
Publication of JP2007034230A5 publication Critical patent/JP2007034230A5/ja
Application granted granted Critical
Publication of JP4640020B2 publication Critical patent/JP4640020B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】 スケーラブルロスレスストリームを生成・復号することができ、且つ、ロスレスなストリームを生成・復号する際の処理時間を短縮することが可能な音声符号化装置及びその方法、並びに音声復号装置及びその方法を提供する。
【解決手段】 ロッシーコアエンコーダ部11は、入力音声信号を不可逆圧縮してコアストリームを生成する。簡略化ロッシーコアデコーダ部12は、コアストリームの例えば低周波数帯域のみを復号してロッシーな復号音声信号を生成する。減算器14では、遅延された入力音声信号からロッシーな復号音声信号が減算され、残差信号が生成される。丸め処理部15は、残差信号のビット数を丸める処理を行う。ロスレスエンハンスエンコーダ部16は、残差信号を可逆圧縮してエンハンスストリームを生成し、ストリーム結合部17は、コアストリームとエンハンスストリームとを結合してスケーラブルロスレスストリームを生成する。
【選択図】 図1

Description

本発明は、不可逆(ロッシー)圧縮と可逆(ロスレス)圧縮とのスケーラビリティを実現する音声符号化装置及びその方法、並びに音声復号装置及びその方法に関する。
従来、入力音声信号を不可逆(ロッシー)圧縮してコア(基本層)ストリームを生成すると共に、残差信号を可逆(ロスレス)圧縮してエンハンス(拡張層)ストリームを生成し、これらを1つのストリームに結合することで、不可逆圧縮と可逆圧縮とのスケーラビリティを実現する音声符号化装置が提案されている(特許文献1参照)。音声復号装置では、コアストリームを復号することで、ロッシーな復号音声信号を生成することができ、コアストリーム及びエンハンスストリームを復号して両者を加算することで、ロスレスな復号音声信号を生成することができる。
このような従来の音声符号化装置の概略構成の一例を図12に示す。図12に示すように、音声符号化装置100は、ロッシーコアエンコーダ部101と、ロッシーコアデコーダ部102と、ディレイ補正部103と、減算器104と、ロスレスエンハンスエンコーダ部105と、ストリーム結合部106とから構成されている。
この音声符号化装置100において、ロッシーコアエンコーダ部101は、PCM(Pulse Code Modulation)信号である入力音声信号を不可逆圧縮してコアストリームを生成し、ロッシーコアデコーダ部102は、このコアストリームを復号してロッシーな復号音声信号を生成する。減算器104では、ディレイ補正部103でロッシーコアエンコーダ部101及びロッシーコアデコーダ部102における遅延分だけ遅延された入力音声信号からロッシーな復号音声信号が減算され、残差信号が生成される。ロスレスエンハンスエンコーダ部105は、この残差信号を可逆圧縮してエンハンスストリームを生成し、ストリーム結合部106は、コアストリームとエンハンスストリームとを結合してスケーラブルロスレスストリームを生成する。
この音声符号化装置100に対応した音声復号装置の概略構成の一例を図13に示す。図13に示すように、音声復号装置110は、ストリーム分離部111と、ロッシーコアデコーダ部112と、ロスレスエンハンスデコーダ部113と、加算器114とから構成されている。
この音声復号装置110において、ストリーム分離部111は、入力されたスケーラブルロスレスストリームをコアストリームとエンハンスストリームとに分離する。ロッシーコアデコーダ部112は、コアストリームを復号してロッシーなPCM信号である復号音声信号を生成して出力する。一方、ロスレスエンハンスデコーダ部113は、エンハンスストリームを復号して残差信号を生成する。加算器114では、この残差信号とロッシーな復号音声信号とが同じ時間軸で加算されてロスレスなPCM信号である復号音声信号が生成され、出力される。
ここで、音声符号化装置100におけるロッシーコアエンコーダ部101の概略構成の一例を図14に示す。図14に示すように、ロッシーコアエンコーダ部101は、帯域分割フィルタ121と、正弦波信号抽出部122と、時間−周波数変換部123と、ビットアロケーション部124と、マルチプレクサ部125とから構成されている。
このロッシーコアエンコーダ部101において、帯域分割フィルタ121は、入力音声信号を複数の周波数帯域に分割し、正弦波信号抽出部122は、各周波数帯域の時間信号から正弦波信号を抽出し、正弦波信号構成用のパラメータをマルチプレクサ部125に供給する。時間−周波数変換部123は、正弦波が抽出された残りの各周波数帯域の時間信号をMDCT(Modified Discrete Cosine Transform)により各周波数帯域のスペクトル信号に変換し、ビットアロケーション部124は、このスペクトル信号に対してビット割当を行って符号化し、量子化スペクトル信号を生成する。マルチプレクサ部125は、正弦波信号構成用のパラメータと量子化スペクトル信号とを纏めてコアストリームを生成する。
また、音声符号化装置100におけるロッシーコアデコーダ部102の概略構成の一例を図15に示す。なお、音声復号装置110におけるロッシーコアデコーダ部112も同様の構成である。図15に示すように、ロッシーコアデコーダ部102は、デマルチプレクサ部131と、正弦波信号再構成部132と、スペクトル信号再構成部133と、周波数−時間変換部134と、ゲイン制御部135と、正弦波信号付加部136と、帯域合成フィルタ137とから構成されている。
このロッシーコアデコーダ部102において、デマルチプレクサ部131は、入力されたコアストリームを正弦波信号構成用のパラメータと量子化スペクトル信号とに分離する。正弦波信号再構成部132は、この正弦波信号構成用のパラメータに基づいて正弦波信号を再構成する。スペクトル信号再構成部133は、量子化スペクトル信号を復号して各周波数帯域のスペクトル信号を生成し、周波数−時間変換部134は、各周波数帯域のスペクトル信号をIMDCT(Inverse MDCT)により各周波数帯域の時間信号に変換し、ゲイン制御部135は、各周波数帯域の時間信号のゲインを調整する。正弦波信号付加部136は、この各周波数帯域の時間信号に対して正弦波信号を付加し、帯域合成フィルタ137は、全周波数帯域の時間信号を帯域合成してロッシーな復号音声信号を生成する。
米国特許出願公開第2003/0171919号明細書
ところで、通常、ロッシーなストリームを復号するデコーダには、そのデコーダで復号した信号が満たさなければならない音質規準が定められており、その規準を満たすようにデコーダを設計する必要がある。
従来は、全体としてロスレスに圧縮されているデータの一部にロッシーに圧縮されたデータが含まれているスケーラブルロスレスストリームの生成・復号時においても、エンハンスストリームを生成・復号するためのステップの1つとして行うコアストリームの復号に、上記のような定められた音質規準を満たすのに必要な全ての処理を行うデコーダ(図12,図13におけるロッシーコアデコーダ102,112)が用いられていた。このため、スケーラブルロスレスストリームを生成・復号する音声符号化装置、音声復号装置においてロスレスなストリームを生成・復号する場合には、ロスレスなストリームのみを生成・復号する音声符号化装置、音声復号装置と比較して、処理時間が長くかかってしまうことになる。
本発明は、このような従来の実情に鑑みて提案されたものであり、スケーラブルロスレスストリームを生成・復号することができ、且つ、ロスレスなストリームを生成・復号する際の処理時間を短縮することが可能な音声符号化装置及びその方法、並びに音声復号装置及びその方法を提供することを目的とする。
上述した目的を達成するために、本発明に係る音声符号化装置及びその方法は、入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮してコアストリームを生成するコアストリーム符号化手段(工程)と、上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成するコアストリーム復号手段(工程)と、上記入力音声信号から上記復号信号を減算し、残差信号を生成する減算手段(工程)と、上記残差信号を可逆圧縮してエンハンスストリームを生成するエンハンスストリーム符号化手段(工程)と、上記コアストリームと上記エンハンスストリームとを結合してスケーラブルロスレスストリームを生成するストリーム結合手段(工程)とを備えることを特徴とする。
また、上述した目的を達成するために、本発明に係る音声復号装置及びその方法は、入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮して得られたコアストリームと、上記入力音声信号から上記コアストリームを復号した復号信号を減算した残差信号を可逆圧縮して得られたエンハンスストリームとが結合されたスケーラブルロスレスストリームを、上記コアストリームと上記エンハンスストリームとに分離するストリーム分離手段(工程)と、上記コアストリームの全周波数帯域のスペクトル信号を復号し、ロッシーな復号音声信号を生成する第1のコアストリーム復号手段(工程)と、上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成する第2のコアストリーム復号手段(工程)と、上記エンハンスストリームを復号し、上記残差信号を生成するエンハンスストリーム復号手段(工程)と、上記復号信号と上記残差信号とを加算してロスレスな復号音声信号を生成する加算手段(工程)とを備えることを特徴とする。
また、本発明に係る音声復号装置及びその方法は、入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮して得られたコアストリームと、上記入力音声信号から上記コアストリームを復号した復号信号を減算した残差信号を可逆圧縮して得られたエンハンスストリームとが結合されたスケーラブルロスレスストリームを、上記コアストリームと上記エンハンスストリームとに分離するストリーム分離手段(工程)と、上記コアストリームの全周波数帯域のスペクトル信号を復号してロッシーな復号音声信号を生成するか、又は上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成するかを切り換えるコアストリーム復号手段(工程)と、上記エンハンスストリームを復号し、上記残差信号を生成するエンハンスストリーム復号手段(工程)と、上記復号信号と上記残差信号とを加算してロスレスな復号音声信号を生成する加算手段(工程)とを備えることを特徴とする。
本発明に係る音声符号化装置及びその方法、並びに音声復号装置及びその方法によれば、エンハンスストリームを生成・復号する際に、コアストリームのうち、所定の周波数帯域のスペクトル信号しか復号しないため、エンハンスストリームを生成・復号する際の処理時間を短縮することが可能とされる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
(第1の実施の形態)
先ず、第1の実施の形態における音声符号化装置の概略構成を図1に示す。図1に示すように、音声符号化装置10は、ロッシーコアエンコーダ部11と、簡略化ロッシーコアデコーダ部12と、ディレイ補正部13と、減算器14と、丸め処理部15と、ロスレスエンハンスエンコーダ部16と、ストリーム結合部17とから構成されている。
この音声符号化装置10において、ロッシーコアエンコーダ部11は、前述した図14のような構成であり、PCM信号である入力音声信号を不可逆圧縮して正弦波信号構成用のパラメータと量子化スペクトル信号とからなるコアストリームを生成する。ロッシーコアエンコーダ部11は、このコアストリームを簡略化ロッシーコアデコーダ部12及びストリーム結合部17に供給する。
簡略化ロッシーコアデコーダ部12は、ロッシーコアエンコーダ部11から供給されたコアストリームを復号して復号信号を生成し、この復号信号を減算器14に供給する。特に、簡略化ロッシーコアデコーダ部12は、前述した図15のような従来のロッシーコアデコーダ部よりも簡略化された処理を行うが、この点については後述する。
減算器14では、ディレイ補正部13でロッシーコアエンコーダ部11及び簡略化ロッシーコアデコーダ部12における遅延分だけ遅延された入力音声信号から復号信号が減算され、残差信号が生成される。この残差信号は、丸め処理部15に供給される。
丸め処理部15は、残差信号を入力音声信号及び復号信号と同じビット数に丸める処理を行い、丸め処理後の残差信号をロスレスエンハンスエンコーダ部16に供給する。すなわち、入力音声信号及び復号信号がnビットである場合、減算結果である残差信号はn+1ビットとなるが、丸め処理部15は、この残差信号をnビットに丸める処理を行う。なお、この丸め処理部15における処理については後述する。
ロスレスエンハンスエンコーダ部16は、丸め処理部15から供給された残差信号を可逆圧縮してエンハンスストリームを生成し、このエンハンスストリームをストリーム結合部17に供給する。具体的に、ロスレスエンハンスエンコーダ部16は、図2に示すように、予測器21において、LPC(Linear Predictive Coding)等の線形予測フィルタを用いて残差信号から予測パラメータ、及び残差信号と予測信号との差分信号を生成し、エントロピー符号化部22において、予測パラメータと差分信号とを例えばGolomb-Rice 符号化等により符号化してエンハンスストリームを生成する。
ストリーム結合部17は、コアストリームとエンハンスストリームとを結合してスケーラブルロスレスストリームを生成し、このスケーラブルロスレスストリームを外部に出力する。
生成されたスケーラブルロスレスストリームの構造の一例を図3に示す。図3に示すように、スケーラブルロスレスストリームは、ストリームヘッダの次にオーディオデータが続く構造となっている。ストリームヘッダは、メタデータとオーディオデータヘッダとで構成され、オーディオデータは、複数のオーディオデータフレームで構成される。オーディオデータフレームは、同期信号に続き、フレームヘッダ、コアレイヤフレームデータ、エンハンスレイヤフレームデータで構成される。但し、ロッシーコアエンコーダ部11及び簡略化ロッシーコアデコーダ部12で発生する遅延のため、最初のオーディオデータフレームには、エンハンスレイヤフレームデータが含まれない。
なお、この音声符号化装置10における音声信号の処理単位は1024サンプル又は2048サンプルであり、何れの処理単位で処理が行われるかは、ロッシーコアエンコーダ部11における処理単位に依存する。すなわち、ロッシーコアエンコーダ部11における処理単位が1024サンプルであれば音声符号化装置10全体の処理単位も1024サンプルとなり、ロッシーコアエンコーダ部11における処理単位が2048サンプルであれば音声符号化装置10全体の処理単位も2048サンプルとなる。
次に、第1の実施の形態における音声復号装置の概略構成を図4に示す。図4に示すように、音声復号装置30は、ストリーム分離部31と、通常版ロッシーコアデコーダ部32と、簡略化ロッシーコアデコーダ部33と、スイッチ34と、ロスレスエンハンスデコーダ部35と、加算器36と、丸め処理部37とから構成されている。
この音声復号装置30において、ストリーム分離部31は、入力されたスケーラブルロスレスストリームをコアストリームとエンハンスストリームとに分離し、コアストリームを通常版ロッシーコアデコーダ部32又は簡略化ロッシーコアデコーダ部33に供給すると共に、エンハンスストリームをロスレスエンハンスデコーダ部35に供給する。コアストリームが通常版ロッシーコアデコーダ部32及び簡略化ロッシーコアデコーダ部33の何れに供給されるかは、スイッチ34によって切り換えられる。具体的に、コアストリームは、ロッシーな復号音声信号を生成する場合には通常版ロッシーコアデコーダ部32に供給され、ロスレスな復号音声信号を生成する場合には簡略化ロッシーコアデコーダ部33に供給される。
通常版ロッシーコアデコーダ部32は、前述した図15のような構成であり、ストリーム分離部31から供給されたコアストリームを復号してロッシーなPCM信号である復号音声信号を生成し、外部に出力する。
簡略化ロッシーコアデコーダ部33は、ストリーム分離部31から供給されたコアストリームを復号して復号信号を生成し、この復号信号を加算器36に供給する。特に、簡略化ロッシーコアデコーダ部33は、前述した図15のような従来のロッシーコアデコーダ部よりも簡略化された処理を行うが、この点については後述する。
ロスレスエンハンスデコーダ部35は、ストリーム分離部31から供給されたエンハンスストリームを復号して残差信号を生成し、この残差信号を加算器36に供給する。具体的に、ロスレスエンハンスデコーダ部35は、図5に示すように、エントロピー復号部41において、Golomb-Rice 符号化等により符号化されたエンハンスストリームを復号し、逆予測器42において、例えばLPC合成を行うことにより残差信号を生成する。
加算器36では、復号信号と残差信号とが同じ時間軸で加算され、ロスレスなPCM信号である復号音声信号が生成される。このロスレスな復号音声信号は、丸め処理部37に供給される。
丸め処理部37は、ロスレスな復号音声信号を残差信号及び復号信号と同じビット数に丸める処理を行い、丸め処理後のロッシーな復号音声信号を外部に出力する。すなわち、残差信号及び復号信号がnビットである場合、加算結果であるロスレスな復号音声信号はn+1ビットとなるが、丸め処理部37は、このロスレスな復号音声信号をnビットに丸める処理を行う。なお、この丸め処理部37における処理については後述する。
続いて、丸め処理部15,37における処理について説明する。
入力音声信号及び復号信号がnビットである場合、減算結果である残差信号はn+1ビットとなるが、丸め処理部15は、この残差信号をnビットに丸める処理を行う。これにより、残差信号を効率よくエントロピー符号化できるとともに、処理ビット数がnビット以下に限定された固定小数点LSI等での実装が容易になる。
丸め処理部15におけるnビットへの丸め方法は、例えば以下の通りである。すなわち、Rを残差信号(n+1ビット符号付整数)、Zを丸め処理後の残差信号(nビット符号付整数)とすると、M=2n−1として、
Z=R−2M (R≧M)
Z=R+2M (R<−M)
と計算する。
なお、残差信号が2の補数表現されているとすれば、単にRの下位nビットを符号付き整数として取り出すだけでZを求めることができる。2の補数表現における符号付整数とその下位nビットとの関係を図6に示す。正の値は反時計回りに半円上部で表現され、負の値は時計回りに半円下部で表現される。+Mと−Mとは同じ表現であり、RがM又は−Mを超えると符号が反転する。
丸め処理部37も上記と同様にして、n+1ビットのロスレスな復号音声信号をnビットに丸める処理を行う。
一例として、n=16ビット、M=32768の場合について説明する。
音声符号化装置10において、入力音声信号をX、復号信号をYとし、X=32000,Y=−6000とすると、減算器14で生成される残差信号Rは、R=X−Y=38000(2進表現:1001 0100 0111 0000)となる。丸め処理部15では、Rの下位16ビットを取り出して符号付整数にすることで、丸め処理後の残差信号ZをZ=−27536(2進表現:1001 0100 0111 0000)と簡単に求めることができる。
一方、音声復号装置30において、加算器36で生成されるロスレスな復号音声信号は、残差信号Zと復号信号Yとを加算して、Z+Y=−33536(2進表現:10111 1101 0000 0000)となる。丸め処理部37では、この下位16ビットを取り出すことで、元の入力音声信号と同一のX=32000(2進表現:0111 1101 0000 0000)を復元することができる。
続いて、音声符号化装置10における簡略化ロッシーコアデコーダ部12の概略構成を図7に示す。なお、音声復号装置30における簡略化ロッシーコアデコーダ部33も同様の構成である。図7に示すように、簡略化ロッシーコアデコーダ部12は、デマルチプレクサ部41と、スペクトル信号再構成部42と、周波数−時間変換部43と、ゲイン制御部44と、帯域合成フィルタ45とから構成されている。
この簡略化ロッシーコアデコーダ部12において、デマルチプレクサ部41は、入力されたコアストリームを正弦波信号構成用のパラメータと量子化スペクトル信号とに分離する。デマルチプレクサ部41は、量子化スペクトル信号のみをスペクトル信号再構成部42に供給する。
スペクトル信号再構成部42は、デマルチプレクサ部41から供給された量子化スペクトル信号を復号して各周波数帯域のスペクトル信号を生成し、生成した各周波数帯域のスペクトル信号を周波数−時間変換部43に供給する。
周波数−時間変換部43は、スペクトル信号再構成部42から供給された各周波数帯域のスペクトル信号のうち、所定の周波数帯域、例えば低周波数帯域のスペクトル信号のみをIMDCTにより時間信号に変換する。周波数−時間変換部43は、所定の周波数帯域の時間信号をゲイン制御部44に供給する。
ゲイン制御部44は、周波数−時間変換部43から供給された所定の周波数帯域の時間信号のゲインを調整し、ゲイン調整後の時間信号を帯域合成フィルタ45に供給する。
帯域合成フィルタ45は、ゲイン制御部44から供給された所定の周波数帯域の時間信号を帯域合成し、復号信号を生成する。
以上のように、本実施の形態における簡略化ロッシーコアデコーダ部12,33では、所定の周波数帯域のスペクトル信号しか復号せず、正弦波信号の再構成も行わない。さらに、演算結果でデータ保持レジスタ(図示せず)の分解能以下の端数が発生する場合にも丸め処理を行わない。これにより、簡略化ロッシーコアデコーダ部12,33における処理は、従来のロッシーコアデコーダ部における処理よりも軽減されている。
したがって、このような簡略化ロッシーコアデコーダ部12,33を備えた音声符号化装置10、音声復号装置30によれば、エンハンスストリームを生成・復号する際の処理時間を短縮することが可能とされる。
(第2の実施の形態)
第1の実施の形態における簡略化ロッシーコアデコーダ部12,33は処理の簡略化が施されているため、定められた音質規準を満たすロッシーな復号音声信号を生成することはできない。そこで、音声復号装置30では、ロッシーな復号音声信号を生成するために、簡略化ロッシーコアデコーダ部33とは別に、通常版ロッシーコアデコーダ部32を実装する必要がある。さらに、2種類のロッシーコアデコーダ部を実装することに伴い、メモリ使用量が増加する。このため、音声復号装置30のような構成では、製品としてのコストが高くなってしまう。
そこで、第2の実施の形態における音声復号装置は、通常版ロッシーコアデコーダ部と簡略化ロッシーコアデコーダ部とを統合することにより、上記のような問題を解消する。
第2の実施の形態における音声復号装置の概略構成を図8に示す。なお、図4に示した音声復号装置30と同様の構成については、同一の符号を付して詳細な説明を省略する。図8に示すように、音声復号装置50は、ストリーム分離部31と、動作モード制御部51と、統合ロッシーコアデコーダ部52と、ロスレスエンハンスデコーダ部35と、加算器36と、丸め処理部37とから構成されている。
この音声復号装置50において、動作モード制御部51は、ロッシーな復号音声信号とロスレスな復号音声信号との何れを外部に出力するかに応じた動作モード信号を統合ロッシーコアデコーダ部52に供給する。
統合ロッシーコアデコーダ部52は、動作モード制御部52から供給された動作モード信号に基づき、通常の処理(図4の通常版ロッシーコアデコーダ部32の処理に相当)によりロッシーな復号音声信号を生成するか、簡略化された処理(図4の簡略化ロッシーコアデコーダ部33の処理に相当)により復号信号を生成するかを切り換える。統合ロッシーコアデコーダ部52は、前者の場合には、生成されたロッシーな復号音声信号を外部に出力し、後者の場合には、生成された復号信号を加算器36に供給する。
続いて、統合ロッシーコアデコーダ部52の概略構成を図9に示す。なお、図7に示した簡略化ロッシーコアデコーダ部33と同様の構成については、同一の符号を付して詳細な説明を省略する。図9に示すように、統合ロッシーコアデコーダ部52は、デマルチプレクサ部41と、切換制御部61と、正弦波信号再構成部62と、スペクトル信号再構成部63と、スイッチ64と、周波数−時間変換部43と、ゲイン制御部44と、正弦波信号付加部65と、帯域合成フィルタ45とから構成されている。
この統合ロッシーコアデコーダ部52において、切換制御部61は、動作モード制御部51から供給された動作モード信号に基づいて、正弦波信号再構成部62、スペクトル信号再構成部63、及びスイッチ64に切換信号を供給し、正弦波信号再構成部62及びスペクトル信号再構成部63の動作を切り換えると共に、スイッチ64のオン/オフを切り換える。
正弦波信号再構成部62は、切換制御部61から供給された切換信号に基づいて動作を切り換える。具体的に、正弦波信号再構成部62は、ロッシーな復号音声信号を生成する場合にはデマルチプレクサ部41から供給された正弦波信号構成用のパラメータを利用せず、ロスレスな復号音声信号を生成する場合には正弦波信号構成用のパラメータに基づいて正弦波信号を再構成する。
スペクトル信号再構成部63は、デマルチプレクサ部41から供給された量子化スペクトル信号を復号して各周波数帯域のスペクトル信号を生成する。この際、スペクトル信号再構成部63は、切換制御部61から供給された切換信号に基づいて、使用する逆量子化テーブルを切り換える。このスペクトル信号再構成部63における処理の詳細については後述する。
スイッチ64は、切換制御部61から供給された切換信号によりオン/オフが切り換えられる。具体的に、ロッシーな復号音声信号を生成する場合にはオフに切り換えられ、ロスレスな復号音声信号を生成する場合にはオンに切り換えられる。したがって、前者の場合には所定の周波数帯域、例えば低周波数帯域のスペクトル信号のみが後段に供給され、後者の場合には全ての周波数帯域のスペクトル信号が後段に供給される。
正弦波信号付加部65は、正弦波信号再構成部62から正弦波信号が供給されると、各周波数帯域の時間信号に対して正弦波信号を付加する。
続いて、スペクトル信号再構成部63の概略構成を図10に示す。図10に示すように、スペクトル信号再構成部63は、再構成部71と、テーブル記憶部72と、スイッチ73と、シフト部74とから構成されている。
再構成部71は、テーブル記憶部72から供給された32ビット係数テーブル、又はシフト部74から供給された24ビット係数テーブルを用いて、スペクトル信号の逆量子化を行う。テーブル記憶部72及びシフト部74の何れから係数テーブルが供給されるかは、スイッチ73によって切り換えられる。具体的に、テーブル記憶部72に格納された32ビット係数テーブルは、ロッシーな復号音声信号を生成する場合にはシフト部74に供給され、ロスレスな復号音声信号を生成する場合には再構成部71に供給される。シフト部74は、テーブル記憶部72から供給された32ビット係数テーブルの各係数データを8ビット右シフトして24ビット係数テーブルを生成し、この24ビット係数テーブルを再構成部71に供給する。このように、スペクトル信号再構成部63では、係数テーブルの共有化を図ることで、メモリ使用量を削減している。
さらに、スペクトル信号再構成部63は、テーブル共有化のみならず、固定小数点化の基礎概念を踏まえ、ソースコードの共有化を図っている。固定小数点演算と小数点位置との関係を表す概念図を図11(A)、(B)に示す。上述のように、スペクトル信号再構成部63では、ロッシーな復号音声信号を生成する場合には24ビット係数テーブルを使用し、ロスレスな復号音声信号を生成する場合には32ビット係数テーブルを使用する。信号語長の違いのため、小数点位置が変化し小数精度は変わるが、小数点位置が0ビット以上であれば、整数精度は変わらない。つまり、小数点位置を制御することで、演算精度を制御することが可能である。スペクトル信号再構成部63は、この固定小数点化の性質を利用し、ソースコードの共有化を図っている。
以上のように、本実施の形態における統合ロッシーコアデコーダ部52は、通常版ロッシーコアデコーダ部と簡略化ロッシーコアデコーダ部とが統合されているため、音声復号装置50には、2種類のロッシーコアデコーダ部を実装する必要がない。これに伴い、音声復号装置50では、メモリ使用量が削減される。実際、通常版ロッシーコアデコーダ部と簡略化ロッシーコアデコーダ部とを統合することによって、メモリ使用量を約半分(約55%)に抑えることができる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述した実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の伝送媒体を介して伝送することにより提供することも可能である。
第1の実施の形態における音声符号化装置の概略構成を示す図である。 音声符号化装置におけるロスレスエンハンスエンコーダ部の内部構成を示す図である。 生成されたスケーラブルロスレスストリームの構造の一例を示す図である。 第1の実施の形態における音声復号装置の概略構成を示す図である。 音声復号装置におけるロスレスエンハンスデコーダ部の内部構成を示す図である。 2の補数表現における符号付整数とその下位nビットとの関係を示す図である。 音声符号化装置における簡略化ロッシーコアデコーダ部の概略構成を示す図である。 第2の実施の形態における音声復号装置の概略構成を示す図である。 音声復号装置における統合ロッシーコアデコーダ部の概略構成を示す図である。 統合ロッシーコアデコーダ部におけるスペクトル信号再構成部の概略構成を示す図である。 固定小数点演算と小数点位置との関係を表す概念図である。 従来の音声符号化装置の概略構成の一例を示す図である。 従来の音声復号装置の概略構成の一例を示す図である。 従来の音声符号化装置におけるロッシーコアエンコーダ部の概略構成の一例を示す図である。 従来の音声符号化装置におけるロッシーコアデコーダ部の概略構成の一例を示す図である。
符号の説明
10 音声符号化装置、11 ロッシーコアエンコーダ部、12 簡略化ロッシーコアデコーダ部、13 ディレイ補正部、14 減算器、15 丸め処理部、16 ロスレスエンハンスエンコーダ部、17 ストリーム結合部、30 音声復号装置、31 ストリーム分離部、32 通常版ロッシーコアデコーダ部、33 簡略化ロッシーコアデコーダ部、34 スイッチ、35 ロスレスエンハンスデコーダ部、36 加算器、37 丸め処理部、41 デマルチプレクサ部、42 スペクトル信号再構成部、43 周波数−時間変換部、44 ゲイン制御部、45 帯域合成フィルタ、50 音声復号装置、51 動作モード制御部、52 統合ロッシーコアデコーダ部

Claims (12)

  1. 入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮してコアストリームを生成するコアストリーム符号化手段と、
    上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成するコアストリーム復号手段と、
    上記入力音声信号から上記復号信号を減算し、残差信号を生成する減算手段と、
    上記残差信号を可逆圧縮してエンハンスストリームを生成するエンハンスストリーム符号化手段と、
    上記コアストリームと上記エンハンスストリームとを結合してスケーラブルロスレスストリームを生成するストリーム結合手段と
    を備えることを特徴とする音声符号化装置。
  2. 上記コアストリーム符号化手段は、各周波数帯域の入力音声信号から正弦波信号を抽出した残りの各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、量子化して量子化スペクトル信号を生成し、上記正弦波信号の情報と上記量子化スペクトル信号とを纏めて上記コアストリームを生成し、
    上記コアストリーム復号手段は、上記量子化スペクトル信号を逆量子化して各周波数帯域のスペクトル信号を生成し、上記所定の周波数帯域のスペクトル信号のみを周波数−時間変換した後、帯域合成して上記復号信号を生成する
    ことを特徴とする請求項1記載の音声符号化装置。
  3. 上記残差信号のビット数を、上記入力音声信号及び上記復号信号と同じビット数に丸める処理を行う丸め処理手段をさらに備え、
    上記エンハンスストリーム符号化手段は、丸め処理後の上記残差信号を可逆圧縮して上記エンハンスストリームを生成する
    ことを特徴とする請求項1記載の音声符号化装置。
  4. 上記コアストリーム復号手段は、上記コアストリームのうち、低周波数帯域のスペクトル信号のみを復号することを特徴とする請求項1記載の音声符号化装置。
  5. 入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮してコアストリームを生成するコアストリーム符号化工程と、
    上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成するコアストリーム復号工程と、
    上記入力音声信号から上記復号信号を減算し、残差信号を生成する減算工程と、
    上記残差信号を可逆圧縮してエンハンスストリームを生成するエンハンスストリーム符号化工程と、
    上記コアストリームと上記エンハンスストリームとを結合してスケーラブルロスレスストリームを生成するストリーム結合工程と
    を有することを特徴とする音声符号化方法。
  6. 入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮して得られたコアストリームと、上記入力音声信号から上記コアストリームを復号した復号信号を減算した残差信号を可逆圧縮して得られたエンハンスストリームとが結合されたスケーラブルロスレスストリームを、上記コアストリームと上記エンハンスストリームとに分離するストリーム分離手段と、
    上記コアストリームの全周波数帯域のスペクトル信号を復号し、ロッシーな復号音声信号を生成する第1のコアストリーム復号手段と、
    上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成する第2のコアストリーム復号手段と、
    上記エンハンスストリームを復号し、上記残差信号を生成するエンハンスストリーム復号手段と、
    上記復号信号と上記残差信号とを加算してロスレスな復号音声信号を生成する加算手段と
    を備えることを特徴とする音声復号装置。
  7. 上記コアストリームは、各周波数帯域の入力音声信号から正弦波信号を抽出した残りの各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、量子化して得られた量子化スペクトル信号と、上記正弦波信号の情報とが纏められたものであり、
    上記第2のコアストリーム復号手段は、上記量子化スペクトル信号を逆量子化して各周波数帯域のスペクトル信号を生成し、上記所定の周波数帯域のスペクトル信号のみを周波数−時間変換した後、帯域合成して上記復号信号を生成する
    ことを特徴とする請求項6記載の音声復号装置。
  8. 上記ロスレスな復号音声信号のビット数を、上記復号信号及び上記残差信号と同じビット数に丸める処理を行う丸め処理手段をさらに備えることを特徴とする請求項6記載の音声復号装置。
  9. 上記第2のコアストリーム復号手段は、上記コアストリームのうち、低周波数帯域のスペクトル信号のみを復号することを特徴とする請求項6記載の音声復号装置。
  10. 入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮して得られたコアストリームと、上記入力音声信号から上記コアストリームを復号した復号信号を減算した残差信号を可逆圧縮して得られたエンハンスストリームとが結合されたスケーラブルロスレスストリームを、上記コアストリームと上記エンハンスストリームとに分離するストリーム分離工程と、
    上記コアストリームの全周波数帯域のスペクトル信号を復号し、ロッシーな復号音声信号を生成する第1のコアストリーム復号工程と、
    上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成する第2のコアストリーム復号工程と、
    上記エンハンスストリームを復号し、上記残差信号を生成するエンハンスストリーム復号工程と、
    上記復号信号と上記残差信号とを加算してロスレスな復号音声信号を生成する加算工程と
    を有することを特徴とする音声復号方法。
  11. 入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮して得られたコアストリームと、上記入力音声信号から上記コアストリームを復号した復号信号を減算した残差信号を可逆圧縮して得られたエンハンスストリームとが結合されたスケーラブルロスレスストリームを、上記コアストリームと上記エンハンスストリームとに分離するストリーム分離手段と、
    上記コアストリームの全周波数帯域のスペクトル信号を復号してロッシーな復号音声信号を生成するか、又は上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成するかを切り換えるコアストリーム復号手段と、
    上記エンハンスストリームを復号し、上記残差信号を生成するエンハンスストリーム復号手段と、
    上記復号信号と上記残差信号とを加算してロスレスな復号音声信号を生成する加算手段と
    を備えることを特徴とする音声復号装置。
  12. 入力音声信号を複数の周波数帯域に帯域分割し、各周波数帯域の入力音声信号を時間−周波数変換してスペクトル信号とした後、不可逆圧縮して得られたコアストリームと、上記入力音声信号から上記コアストリームを復号した復号信号を減算した残差信号を可逆圧縮して得られたエンハンスストリームとが結合されたスケーラブルロスレスストリームを、上記コアストリームと上記エンハンスストリームとに分離するストリーム分離工程と、
    上記コアストリームの全周波数帯域のスペクトル信号を復号してロッシーな復号音声信号を生成するか、又は上記コアストリームのうち、所定の周波数帯域のスペクトル信号のみを復号して復号信号を生成するかを切り換えるコアストリーム復号工程と、
    上記エンハンスストリームを復号し、上記残差信号を生成するエンハンスストリーム復号工程と、
    上記復号信号と上記残差信号とを加算してロスレスな復号音声信号を生成する加算工程と
    を有することを特徴とする音声復号方法。
JP2005221524A 2005-07-29 2005-07-29 音声符号化装置及び方法、並びに音声復号装置及び方法 Expired - Fee Related JP4640020B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005221524A JP4640020B2 (ja) 2005-07-29 2005-07-29 音声符号化装置及び方法、並びに音声復号装置及び方法
US11/459,513 US8566105B2 (en) 2005-07-29 2006-07-24 Apparatus and method for encoding and decoding of audio data using a rounding off unit which eliminates residual sign bit without loss of precision
CN2006100995477A CN1905010B (zh) 2005-07-29 2006-07-28 编码音频数据的设备和方法及解码音频数据的设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005221524A JP4640020B2 (ja) 2005-07-29 2005-07-29 音声符号化装置及び方法、並びに音声復号装置及び方法

Publications (3)

Publication Number Publication Date
JP2007034230A true JP2007034230A (ja) 2007-02-08
JP2007034230A5 JP2007034230A5 (ja) 2008-08-14
JP4640020B2 JP4640020B2 (ja) 2011-03-02

Family

ID=37674259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005221524A Expired - Fee Related JP4640020B2 (ja) 2005-07-29 2005-07-29 音声符号化装置及び方法、並びに音声復号装置及び方法

Country Status (3)

Country Link
US (1) US8566105B2 (ja)
JP (1) JP4640020B2 (ja)
CN (1) CN1905010B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2043101A1 (en) 2007-09-28 2009-04-01 Sony Corporation Signal recording and reproducing apparatus and method
WO2010104011A1 (ja) * 2009-03-10 2010-09-16 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム及び記録媒体
JP2017515164A (ja) * 2014-03-20 2017-06-08 ディーティーエス・インコーポレイテッドDTS,Inc. オブジェクトベースオーディオシステムにおける残差符号化
JP2021503628A (ja) * 2017-11-17 2021-02-12 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
WO2021145105A1 (ja) * 2020-01-15 2021-07-22 ソニーグループ株式会社 データ圧縮装置、およびデータ圧縮方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536305B2 (en) * 2002-09-04 2009-05-19 Microsoft Corporation Mixed lossless audio compression
EP1883067A1 (en) * 2006-07-24 2008-01-30 Deutsche Thomson-Brandt Gmbh Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
US7385532B1 (en) * 2007-02-16 2008-06-10 Xilinx, Inc. Extended bitstream and generation thereof for dynamically configuring a decoder
CN101325058B (zh) * 2007-06-15 2012-04-25 华为技术有限公司 语音编码发送和接收解码的方法及装置
US8386271B2 (en) 2008-03-25 2013-02-26 Microsoft Corporation Lossless and near lossless scalable audio codec
WO2010108332A1 (zh) * 2009-03-27 2010-09-30 华为技术有限公司 编码和解码方法及装置
ES2644520T3 (es) 2009-09-29 2017-11-29 Dolby International Ab Decodificador de señal de audio MPEG-SAOC, método para proporcionar una representación de señal de mezcla ascendente usando decodificación MPEG-SAOC y programa informático usando un valor de parámetro de correlación inter-objeto común dependiente del tiempo/frecuencia
CN101964188B (zh) 2010-04-09 2012-09-05 华为技术有限公司 语音信号编码、解码方法、装置及编解码系统
CN104170007B (zh) * 2012-06-19 2017-09-26 深圳广晟信源技术有限公司 对单声道或立体声进行编码的方法
KR102204136B1 (ko) 2012-08-22 2021-01-18 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법
WO2014030938A1 (ko) * 2012-08-22 2014-02-27 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법
EP2830061A1 (en) 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
WO2015122752A1 (ko) 2014-02-17 2015-08-20 삼성전자 주식회사 신호 부호화방법 및 장치와 신호 복호화방법 및 장치
JP6633547B2 (ja) * 2014-02-17 2020-01-22 サムスン エレクトロニクス カンパニー リミテッド スペクトル符号化方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003115765A (ja) * 2001-10-04 2003-04-18 Sony Corp 符号化装置及び符号化方法、復号装置及び復号方法、並びに編集装置及び編集方法
JP2003280694A (ja) * 2002-03-26 2003-10-02 Nec Corp 階層ロスレス符号化復号方法、階層ロスレス符号化方法、階層ロスレス復号方法及びその装置並びにプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0756386B1 (en) * 1995-07-27 2003-09-17 Victor Company Of Japan, Limited Method and apparatus for coding a digital, acoustic signal
US6675148B2 (en) * 2001-01-05 2004-01-06 Digital Voice Systems, Inc. Lossless audio coder
US7630563B2 (en) * 2001-07-19 2009-12-08 Qualcomm Incorporated System and method for decoding digital image and audio data in a lossless manner
KR100908114B1 (ko) * 2002-03-09 2009-07-16 삼성전자주식회사 스케일러블 무손실 오디오 부호화/복호화 장치 및 그 방법
US20040230425A1 (en) * 2003-05-16 2004-11-18 Divio, Inc. Rate control for coding audio frames
DE102004007184B3 (de) * 2004-02-13 2005-09-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Quantisieren eines Informationssignals
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003115765A (ja) * 2001-10-04 2003-04-18 Sony Corp 符号化装置及び符号化方法、復号装置及び復号方法、並びに編集装置及び編集方法
JP2003280694A (ja) * 2002-03-26 2003-10-02 Nec Corp 階層ロスレス符号化復号方法、階層ロスレス符号化方法、階層ロスレス復号方法及びその装置並びにプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2043101A1 (en) 2007-09-28 2009-04-01 Sony Corporation Signal recording and reproducing apparatus and method
JP2009086239A (ja) * 2007-09-28 2009-04-23 Sony Corp 信号記録再生装置及び方法
US8364496B2 (en) 2007-09-28 2013-01-29 Sony Corporation Signal recording and reproducing apparatus and method
WO2010104011A1 (ja) * 2009-03-10 2010-09-16 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム及び記録媒体
JP5337235B2 (ja) * 2009-03-10 2013-11-06 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム及び記録媒体
US8665945B2 (en) 2009-03-10 2014-03-04 Nippon Telegraph And Telephone Corporation Encoding method, decoding method, encoding device, decoding device, program, and recording medium
JP2017515164A (ja) * 2014-03-20 2017-06-08 ディーティーエス・インコーポレイテッドDTS,Inc. オブジェクトベースオーディオシステムにおける残差符号化
JP2021503628A (ja) * 2017-11-17 2021-02-12 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
JP2022058577A (ja) * 2017-11-17 2022-04-12 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
US11367454B2 (en) 2017-11-17 2022-06-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding directional audio coding parameters using quantization and entropy coding
JP7175980B2 (ja) 2017-11-17 2022-11-21 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
US11783843B2 (en) 2017-11-17 2023-10-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding directional audio coding parameters using different time/frequency resolutions
JP7372360B2 (ja) 2017-11-17 2023-10-31 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
WO2021145105A1 (ja) * 2020-01-15 2021-07-22 ソニーグループ株式会社 データ圧縮装置、およびデータ圧縮方法

Also Published As

Publication number Publication date
CN1905010A (zh) 2007-01-31
US20070043575A1 (en) 2007-02-22
US8566105B2 (en) 2013-10-22
JP4640020B2 (ja) 2011-03-02
CN1905010B (zh) 2010-10-27

Similar Documents

Publication Publication Date Title
JP4640020B2 (ja) 音声符号化装置及び方法、並びに音声復号装置及び方法
JP7260509B2 (ja) スペクトルエンベロープのサンプル値のコンテキストベースエントロピー符号化
JP5123303B2 (ja) 不可逆的符号化データ・ストリームと可逆的伸張データ・ストリームを用いて原信号を可逆的に符号化する方法及び装置
US8428941B2 (en) Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
US8010348B2 (en) Adaptive encoding and decoding with forward linear prediction
JP4081447B2 (ja) 時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法
EP2016583B1 (en) Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
JP5277350B2 (ja) 圧縮符号化および復号の方法、符号器、復号器、ならびに符号化装置
KR101346358B1 (ko) 대역폭 확장 기법을 이용한 오디오 신호의 부호화/복호화방법 및 장치
JP2012226375A (ja) 無損失オーディオ復号化方法及び無損失オーディオ復号化装置
JP2010510533A (ja) 符号化および復号化のための装置
JP3487250B2 (ja) 符号化音声信号形式変換装置
Muin et al. A review of lossless audio compression standards and algorithms
JP2002091497A (ja) オーディオ信号符号化方法、復号化方法及びそれらの方法を実行するプログラム記憶媒体
JP2004246038A (ja) 音声楽音信号符号化方法、復号化方法、符号化装置、復号化装置、符号化プログラム、および復号化プログラム
Namazi et al. On Ultra Low-Delay Compression of Higher Order Ambisonics Signals
JP4682752B2 (ja) 音声符号化復号装置及び方法、並びに音声復号装置及び方法
JP2008268792A (ja) オーディオ信号符号化装置およびそのビットレート変換装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

R151 Written notification of patent or utility model registration

Ref document number: 4640020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees