JP5068429B2 - オーディオデータ変換方法およびその装置 - Google Patents

オーディオデータ変換方法およびその装置 Download PDF

Info

Publication number
JP5068429B2
JP5068429B2 JP2005005961A JP2005005961A JP5068429B2 JP 5068429 B2 JP5068429 B2 JP 5068429B2 JP 2005005961 A JP2005005961 A JP 2005005961A JP 2005005961 A JP2005005961 A JP 2005005961A JP 5068429 B2 JP5068429 B2 JP 5068429B2
Authority
JP
Japan
Prior art keywords
data
additional information
audio
format
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005005961A
Other languages
English (en)
Other versions
JP2005202406A (ja
Inventor
度 亨 金
▼尚▲ ▼煌▲ 金
殷 美 ▼呉▲
重 會 金
亮 錫 徐
時 和 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2005202406A publication Critical patent/JP2005202406A/ja
Application granted granted Critical
Publication of JP5068429B2 publication Critical patent/JP5068429B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B09DISPOSAL OF SOLID WASTE; RECLAMATION OF CONTAMINATED SOIL
    • B09BDISPOSAL OF SOLID WASTE NOT OTHERWISE PROVIDED FOR
    • B09B3/00Destroying solid waste or transforming solid waste into something useful or harmless
    • B09B3/40Destroying solid waste or transforming solid waste into something useful or harmless involving thermal treatment, e.g. evaporation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/12Means for regulation, monitoring, measurement or control, e.g. flow regulation of temperature
    • C12M41/18Heat exchange systems, e.g. heat jackets or outer envelopes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W30/00Technologies for solid waste management
    • Y02W30/40Bio-organic fraction processing; Production of fertilisers from the organic fraction of waste or refuse

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Mathematical Physics (AREA)
  • Thermal Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Microbiology (AREA)
  • Genetics & Genomics (AREA)
  • Sustainable Development (AREA)
  • Biotechnology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Biochemistry (AREA)
  • Environmental & Geological Engineering (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオデータの処理に係り、特に所定の形式で圧縮されたオーディオデータを他の形式で圧縮されるオーディオデータに変換するオーディオデータ変換方法およびその装置に関する。
MPEG(Moving Picture Experts Group)−2、またはMP3として知られるMPEG−1 layer3の規格を用いたオーディオ機器は、高圧縮効率のMPEG−4の規格を用いたオーディオ機器に次第に代わりつつある。代表的な例として、ヨーロッパのデジタルオーディオ放送(DAB:Digital Audio Broadcasting)や韓国の地域(Korean terrestrial)デジタルマルチメディア放送(DMB:Digital Multimedia Broadcasting)などでは、オーディオおよびビデオ信号処理のいずれもMPEG−4技術を採用している。ここで、オーディオ信号処理の場合、AAC(Advanced Audio Coding)形式ではなく、BSAC(Bit Sliced Arithmetic Coding)形式が採用されている。また、衛星デジタルマルチメディア放送の場合、オーディオ信号処理技術として、AAC形式にSBR(Spectral Band Replication)技術を組み合わせたaacPlus形式を採用している。
また、最近では、AAC形式またはBSAC形式で圧縮されたオーディオデータを含むコンテンツがオーディオマルチメディア市場に広く普及している。また、来るべきユビキタス(ubiquitous)時代では、ユーザの趣向や環境に適合させて絶えずマルチメディアサービスを提供する必要がある。特に、ユーザが多数のディバイスを保有して多様なコンテンツが全世界的に使われる状況を迎えつつあり、ユーザの趣向や環境に適したマルチメディアサービスに対する要求はさらに強まっている。
ここにおける環境とは、ユーザが使用するネットワークやコンテンツを意味する。このような多様な環境に適したサービスを、ユーザに提供するためのマルチメディアの核となる技術として、スケイラビリティ(scalability)方式および変換方式がある。ここで、スケイラビリティ方式とは、1つのデータを多様な環境に適応可能なように、あらかじめ階層化して作成する方式である。また、変換方式とは、オーディオデータの圧縮形式を所定の形式から他の形式に変換する方式である。
一般に、変換方式では、所定の形式で圧縮されたオーディオ入力データを、完全復号化(fully decoded)してパルス符号変調(PCM:Pulse Coding Modulation)されたデータを生成し、この生成したPCMデータを、さらに所望の圧縮形式で完全符号化(fully coded)する方法が主に使用される。このような従来の変換方法は、オーディオ入力データを完全復号化する復号化部を必要とし、所望の形式で完全符号化する符号化部をさらに必要とする。従って、従来の変換方法を用いると、製造コストが上昇するだけでなく、変換にかかる時間が長いという問題点がある。
本発明が解決しようとする技術的課題は、左右チャンネルの付加情報(side information)を利用することで、所定の形式で圧縮されたオーディオ入力データを、迅速に他の形式で圧縮されるオーディオ出力データに変換できるオーディオデータ変換方法を提供することにある。
また、本発明が解決しようとする他の技術的課題は、左右チャンネルの付加情報を利用することで、所定の形式で圧縮されたオーディオ入力データを、迅速に他の形式で圧縮されるオーディオ出力データに変換でき、製造コストを抑えることができるオーディオデータ変換装置を提供することにある。
前記した技術的課題を解決するためになされた本発明によるオーディオデータ変換方法は、オーディオ入力データが圧縮された形式により、オーディオ入力データを無損失復号化する段階および無損失復号化された結果を、オーディオ出力データが圧縮される形式により無損失符号化する段階を備える。
また、前記した無損失復号化する段階は、オーディオ入力データから付加情報を求める段階と、この付加情報を除外したオーディオ入力データを、オーディオ入力データが圧縮された形式によって無損失復号化し、この無損失復号化された結果を量子化データとして生成する段階とを備え、前記した無損失符号化する段階は、量子化データをオーディオ出力データが圧縮される形式により無損失符号化する段階と、この無損失符号化された結果および前記求められた付加情報を組み合わせ、オーディオ出力データを生成する段階とを備えることとしてもよい。
前記した他の技術的課題を解決するためになされた本発明によるオーディオデータ変換装置は、オーディオ入力データが圧縮された形式により前記オーディオ入力データを無損失復号化する復号化部および前記無損失復号化された結果をオーディオ出力データが圧縮される形式により無損失符号化する符号化部より構成される。
また、前記した復号化部は、オーディオ入力データから付加情報を求めるデータアンパッキング部と、この付加情報を除外したオーディオ入力データを、前記オーディオ入力データが圧縮された形式により無損失復号化し、この無損失復号化された結果を、量子化データとして出力する無損失復号化部とを備え、前記した符号化部は、量子化データを前記オーディオ出力データが圧縮される形式により無損失符号化する無損失符号化部と、この無損失符号化された結果および前記付加情報を組み合わせ、オーディオ出力データを生成するデータ組合せ部とを備えることとしてもよい。
本発明によるオーディオデータ変換方法およびその装置によると、左右チャンネルの付加情報の一部が共有されるときには、完全復号化および完全符号化することなく、オーディオ入力データをオーディオ出力データに変換することができるので、製造コストを低減させつつ変換速度を向上させることができる。また、左右チャンネルの付加情報が、一切共有されないときでも、別途の聴覚心理音響モデル部などの構成の必要がなく、オーディオ入力データをオーディオ出力データに変換できるので、従来の変換方法よりも、製造コストを低減させつつ変換速度を向上させることができる。
これにより、多様なアプリケーションでユーザの趣向や環境に適合させて絶えずマルチメディアサービスを提供でき、オーディオデータの圧縮のために、例えば、AAC形式とBSAC形式とを混用する環境下であっても、ユーザは、迅速に多様な形式のコンテンツを利用することができる。
例えば、ホームネットワークにおいて、ホームゲートウェイが受信したデジタル放送を家庭内のすべての機器に伝送する環境下では、放送を受信する機器の圧縮形式に合わせてオーディオ入力データをオーディオ出力データに、高速かつ容易に変換することができ、家庭内のいかなる機器においてもユーザが所望のサービスを絶えず提供できる。
以下、本発明によるオーディオデータ変換方法およびその装置の実施の形態を、添付した図面を参照しつつ説明する。
(第1実施形態例)
図1は、本発明の第1実施形態例によるオーディオデータ変換方法を説明するフローチャートの例であり、オーディオ入力データを復号化する段階(第10段階および第12段階)および復号化された結果を符号化し、オーディオ出力データを求める段階(第14段階および第16段階)からなる。
本実施形態例のオーディオデータ変換方法では、オーディオ入力データが圧縮された形式によってオーディオ入力データを無損失復号化する(第10段階および第12段階)。
詳しく説明すると、まず、オーディオ入力データから付加情報(side information)を求める(第10段階)。ここで求めた付加情報には、1ビットのwindow_shape情報、2ビットのwindow_sequence情報、4ビットまたは6ビットのmax_sfb情報または7ビットのscale_factor_grouping情報などが含まれる。
ここで、window_shape情報とは、sine形式またはKBD(Kaiser−Bessel Derived)形式のウィンド係数のうち一つを選択する情報である。また、window_sequence情報とは、あるフレームを処理するために使用するウィンドの種類がlong,start,shortおよびstopのうちいずれであるかを示す情報である。また、Max_sfb情報とは、window_sequence情報によって決定される情報であり、有効な最大のスケール因子帯域を表す情報である。さらに、scale_factor_grouping情報とは、前記したwindow_sequence情報が、shortである場合にだけ存在する情報であり、8個のウィンドがどのようにグループにまとめられているかを表す情報である。
次に、第10段階で求めた付加情報を除外したオーディオ入力データ部分を、オーディオ入力データが圧縮された形式によって無損失復号化する(第12段階)。ここで、無損失復号化された結果は量子化データとして出力される。
第12段階の後で、無損失復号化された結果である量子化データを、オーディオ出力データが圧縮される形式によって無損失符号化する(第14段階および第16段階)。
詳しく説明すると、まず、量子化データをオーディオ出力データが圧縮される形式によって無損失符号化する(第14段階)。そして、第14段階において無損失符号化された結果と、第10段階で求めた付加情報とを組み合わせ、組み合わせた結果をオーディオ出力データとして出力する(第16段階)。
(第2実施形態例)
次に、図2は、本発明の第2実施形態例によるオーディオデータ変換方法を説明するフローチャートの例であり、オーディオ入力データを復号化する段階(第30段階ないし第40段階)および復号化された結果を符号化し、オーディオ出力データを出力する段階(第42段階ないし第52段階)からなる。
本実施形態例のオーディオデータ変換方法によれば、まず、オーディオ入力データが圧縮された形式によってオーディオ入力データを無損失復号化する(第30段階ないし第40段階)。図2に示した第30段階および第32段階は、図1に示した第10段階および第12段階にそれぞれ相当し、同じ機能を行うので、それらについての詳細な説明は省略する。
次に、第32段階の後で、量子化データを逆量子化する(第34段階)。そして、第34段階の後で、逆量子化された結果をステレオ処理する(第36段階)。ここでは、例えば、逆量子化された結果は、ミッドサイド(M/S:Mid Side)ステレオまたはインテンシティー・ステレオにより処理される。
次に、第36段階の後で、ステレオ処理された結果を時間領域雑音整形(TNS:Temporal Noise Shaping)処理する(第38段階)。そして、第38段階の後で、TNS処理された結果である周波数領域のデータを時間領域のデータに変換する(第40段階)。
次に、第40段階の後で、時間領域のデータをオーディオ出力データが圧縮される形式によって無損失符号化する(第42段階ないし第52段階)。
例えば、第40段階の後で、時間領域のデータを周波数領域のデータに変換する(第42段階)。第42段階の後で、周波数領域のデータをTNS処理する(第44段階)。ここで、TNS処理とは、予測手法により量子化ノイズをあらかじめ調節する処理である。第44段階の後で、TNS処理された結果をステレオ処理する(第46段階)。第46段階の後で、ステレオ処理された結果を量子化する(第48段階)。
このとき、本実施形態例では、マスキング・スレショルド(Masking Threshold)値と類似した情報、例えばスケール因子(Scale Factor)を利用して第48段階で量子化ノイズを抑制することができる。ここで、マスキング・スレショルド値と類似した情報とは、マスキング・スレショルド値ではないが、マスキング・スレショルド値から導き出すことができる値であり、オーディオ入力データから求めた付加情報に含まれる。
次に、第48段階の後で、量子化された結果を、オーディオ出力データが圧縮される形式によって無損失符号化する(第50段階)。そして、第50段階の後で、無損失符号化された結果と付加情報とを組み合わせ、組み合わせた結果をオーディオ出力データとして決定する(第52段階)。
本実施形態例のオーディオデータ変換方法は、第34段階ないし第40段階のうち、少なくとも一つを有することとしてもよい。このとき、例えば、オーディオデータ変換方法が、第40段階、第38段階、第36段階および第34段階を有する場合は、オーディオデータ変換方法は、第42段階、第44段階、第46段階および第48段階を有する。また、例えば、オーディオデータ変換方法が、第34段階を有する場合には、オーディオデータ変換方法は、第48段階を有し、また、第36段階を有する場合は、第46段階を有し、また、第38段階を有する場合は、第44段階を有し、さらに、第40段階を有する場合は、第42段階を有する。
また、オーディオ入力データの圧縮された形式、またはオーディオ出力データが圧縮される形式としては、BSAC形式、ACC形式またはTwin−VQ形式などがある。ここで、ACC形式の場合、ハフマン符号化方式(Huffman coding)を使用し、BSAC形式の場合、算術符号化方式(Arithmetic Coding)を使用する。例えば、オーディオ入力データの圧縮された形式がBSAC形式であり、オーディオ出力データの圧出される形式がACC形式の場合、図1に示した第12段階において、算術符号化方式で無損失復号化が行われ、第14段階においてハフマン符号化方式で無損失符号化が行われる。
(第1実施形態例および第2実施形態例の混用)
一般的に、左右チャンネルは、類似した性質を有するので、付加情報のうち一部を共有して使用する場合が多いが、ごく一部分を共有する場合や、左右チャンネルの付加情報が、一切共有されないこともある。
例えば、オーディオ入力データの圧縮された形式またはオーディオ出力データの圧縮される形式がBSAC形式である場合には、左右チャンネルの付加情報の一部が共有されて使われる。しかし、オーディオ入力データの圧縮された形式またはオーディオ出力データの圧縮される形式がACC形式である場合には、左右チャンネルの付加情報の一部が共有されることもあり、共有されないこともある。
図3は、ACC形式で圧縮されたオーディオ入力データまたは、圧縮されるオーディオ出力データの構造の一例を表す図面である。また、図4は、BSAC形式で圧縮されたオーディオ入力データまたは、圧縮されるオーディオ出力データの構造の一例を表す図面である。
図3に示すように、ACC形式で圧縮されたオーディオ入力データまたは、圧縮されるオーディオ出力データの場合、“channel pair element()”内に1ビットの変数common_windowを有する。ここで、変数common_windowは、オーディオデータがステレオである場合、左右チャンネルの付加情報の一部が共有されて使われるか否かを表す。
ここで、common_windowが「0」である場合、左右チャンネルの付加情報が、一切共有されないことを意味する。このとき、window_shape情報、window_sequence情報、max_sfb情報またはscale_factor_grouping情報のうち、いずれも共有されない。
また、common_windowが「1」である場合、左右チャンネルの付加情報の一部が共有されることを意味する。このとき、window_shape情報、window_sequence情報、max_sfb情報またはscale_factor_grouping情報のうち少なくとも一つが共有される。
一方、図4に示したBSAC形式で圧縮されたオーディオ入力データまたは圧縮されるオーディオ出力データの場合、変数common_windowを有さず、左右チャンネルの付加情報の一部が常に共有される。
本実施の形態では、左右チャンネルの付加情報の一部が共有されるときは、図2に示した第2実施形態例のオーディオデータ変換方法ではなく、図1に示した第1実施形態例のオーディオデータ変換方法を利用してオーディオ入力データをオーディオ出力データに変換する。例えば、オーディオ入力データの圧縮された形式がMPEG−4 BSAC形式であり、オーディオ出力データの圧縮される形式がMPEG−2またはMPEG−4 ACC形式であるとき、図1に示した第1実施形態例のオーディオデータ変換方法が利用される。または、オーディオ入力データの圧縮された形式が左右チャンネルの付加情報の一部を共有するACC形式であり、オーディオ出力データの圧縮される形式がBSAC形式であるときも、第1実施形態例のオーディオデータ変換方法が利用される。
一方、左右チャンネルの付加情報が、一切共有されないときは、図1に示した第1実施形態例のオーディオデータ変換方法でなく、図2に示した第2実施形態例のオーディオデータ変換方法を利用してオーディオ入力データをオーディオ出力データに変換させる。この場合、図2に示した第2実施形態例の第42段階ないし第52段階で復号化された結果を符号化するときには、左右チャンネルの付加情報のうち、いずれか1チャンネルの付加情報だけを利用する。このとき、左チャンネルの付加情報を利用するか、または右チャンネルの付加情報を利用するかは、付加情報の使用用途に応じて決定できる。
例えば、左チャンネルの付加情報のうち、window_sequenceがlongであり、右チャンネルの付加情報のうち、window_sequenceがshortである場合、左チャンネルの付加情報を利用するか、右チャンネルの付加情報を利用するかは、使用用途に応じて決定される。ここで、いずれの付加情報を利用すると決定した場合であっても、全体フレームを基準とすれば、common_windowが「1」である場合がまれなために、本実施の形態によるオーディオデータ変換方法の全体の性能に対する影響は少ない。
例えば、オーディオ入力データの圧縮された形式が、左右チャンネルの付加情報を、一切共有しないMPEG−2またはMPEG−4 ACC形式であり、オーディオ出力データの圧縮される形式が、MPEG−4 BSAC形式であるときには、図2に示した第2実施形態例のオーディオデータ変換方法を利用してオーディオ入力データをオーディオ出力データに変換できる。
ところで、左右チャンネルの付加情報の一部が共有されるか否かは、フレーム別に異なることもある。従って、フレーム別に図1または図2に示したオーディオデータ変換方法をそれぞれ適用することができる。
本実施の形態では、図2に示した第2実施形態例のオーディオデータ変換方法は、現在フレームから左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間、実行される。
本発明の他の実施の形態では、図2に示した第2実施形態例のオーディオデータ変換方法は、現在フレームの以前のフレームから、左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間、実行されることとしてもよい。左右チャンネルの付加情報が異なる多くの理由は、window_sequenceが違うためである。すなわち、左右チャンネルのうち1つのチャンネルは、longウィンドを使用し、他のチャンネルは、shortウィンドを使用するためである。この場合、longウィンドを使用して処理されるオーディオ入力データを、shortウィンドを使用して処理されるオーディオ出力データに直ちに変換させることができない。
このため、一般的に、longウィンドを使用して処理されるオーディオ入力データを、startウィンドを使用して処理されるオーディオ出力データに変換させた後、startウィンドを使用して処理されるオーディオ入力データを、shortウィンドを使用して処理されるオーディオ出力データに変換させる。
従って、以前フレームから考慮してオーディオ入力データをオーディオ出力データに変換させることが望ましい。すなわち、これは逆変形離散コサイン変換(IMDCT:Inverse Modified Discrete Cosine Transform)するとき、以前フレームの半分と現在フレームの半分とを分けて処理するオーバーラップ特性および加算(overlap and add)特性のためである。
まず、次の表1のように、フレーム別に異なるビットを有するACC形式で圧縮されたオーディオ入力データをBSAC形式で圧縮されるオーディオ出力データに変換することを仮定する。
表1において、フレーム1で変数common_windowは「1」であり、フレーム2からフレーム4までで変数common_windowは「0」であり、フレーム5とフレーム6とで変数common_windowは「1」であると仮定する。
このような仮定のもとで、本実施の形態によれば、以前フレーム(フレーム1)の場合、図1に示したオーディオデータ変換方法を適用し、現在フレーム(フレーム2)から左右チャンネルの付加情報の一部を共有するフレーム(フレーム5)が表れるまでの間、すなわちフレーム4まで、図2に示した第2実施形態例のオーディオデータ変換方法を適用できる。
本発明の他の実施の形態によれば、以前フレーム(フレーム1)では、図1に示した第1実施形態例のオーディオデータ変換方法を適用したとしても、現在フレーム(フレーム2)を変換するときに、現在フレーム(フレーム2)の以前フレーム(フレーム1)から左右チャンネルの付加情報の一部を共有するフレーム(フレーム5)が表れるまでの間、すなわちフレーム4までは、図2に示した第2実施形態例のオーディオデータ変換方法を適用する。
(第3実施形態例)
図5は、本発明の第3実施形態例のオーディオデータ変換方法を説明するためのフローチャートの例であり、オーディオ入力データを復号化する段階(第70段階ないし第82段階)および復号化された結果を符号化してオーディオ出力データを求める段階(第84段階ないし第94段階)からなる。
図5に示した第70段階および第72段階は、図2に示した第2実施形態例の第30段階および第32段階にそれぞれ相当して同じ機能を行うので、それらについての詳細な説明は省略する。また、図5に示した第76段階ないし第94段階は、図2に示した第2実施形態例の第34段階ないし第52段階にそれぞれ相当し、同じ機能を行うので、それらについての詳細な説明もやはり省略する。
つまり、図5に示した本実施形態例のオーディオデータ変換方法は、第74段階をさらに設けることを除外すれば、図2に示した第2実施形態例のオーディオデータ変換方法と同一である。
本実施形態例のオーディオデータ変換方法は、第72段階の後で、左右チャンネルの付加情報の一部が共有されているか否かを判断する(第74段階)。
ここで、左右チャンネルの付加情報の一部が共有されないと判断されれば、第76段階に進む。この場合、本実施形態例のオーディオデータ変換方法は、図2に示した第2実施形態例のオーディオデータ変換方法と同様に、第76段階ないし第94段階を行い、変換されたオーディオ出力データを生成する。
このとき、図5に示した本実施形態例のオーディオデータ変換方法は、第2実施形態例のオーディオデータ変換方法と同様に、第76段階、第78段階、第80段階および第82段階のうち少なくとも一つを有することとしてもよい。
この場合、オーディオデータ変換方法が第76段階、第78段階、第80段階および第82段階を有する場合は、第90段階、第88段階、第86段階および第84段階がオーディオデータ変換方法に含まれる。
また、第74段階において、左右チャンネルの付加情報の一部を共有すると判断されれば、第92段階に進む。この場合、図5に示した本実施形態例のオーディオデータ変換方法は、図1に示した第1実施形態例のオーディオデータ変換方法と同様に、第14段階および第16段階に相当する第92段階および第94段階を行って、変換されたオーディオ出力データを生成する。
次に、本発明の実施の形態によるオーディオデータ変換装置の構成および動作を添付した図面を参照しつつ説明する。
(第4実施形態例)
図6は、本発明の第4実施形態例によるオーディオデータ変換装置のブロック図であり、復号化部110および符号化部112より構成される。
本実施形態例によるオーディオデータ変換装置の復号化部110は、入力端子IN1を介して入力されたオーディオ入力データを圧縮された形式により無損失復号化し、この無損失復号化された結果を符号化部112に出力する。
このとき、符号化部112は、復号化部110から入力された無損失復号化された結果を、オーディオ出力データが圧縮される形式により無損失符号化し、この無損失符号化された結果を、出力端子OUT1を介して出力する。
本実施形態例のオーディオデータ変換装置の復号化部110および符号化部112は、図6に示すように具現できる。すなわち、復号化部110は、データアンパッキング(data unpacking)部130および無損失復号化部132より具現され、符号化部112は、無損失符号化部140およびデータ組合せ部142より具現できる。
図6に示した本実施形態例のオーディオデータ変換装置は、図1に示した第1実施形態例のオーディオデータ変換方法を実行できる。
ここで、図1に示した第10段階を行うために、データアンパッキング部130は、入力端子IN1を介して入力されたビットストリーム形態のオーディオ入力データをアンパッキングして付加情報を求め、この求めた付加情報をデータ組合せ部142に出力し、付加情報が除外されたオーディオ入力データを無損失復号化部132に出力する。
次に、第12段階を行うために、無損失復号化部132は、付加情報を除外したオーディオ入力データをデータアンパッキング部130から取得し、オーディオ入力データが圧縮された形式により無損失復号化し、無損失復号化された結果を量子化データとして符号化部112に出力する。
例えば、オーディオ入力データの圧縮された形式がBSAC形式である場合、無損失復号化部132は、算術符号化方式で無損失復号化を行う。また、オーディオ入力データの圧縮された形式がACC形式である場合、無損失復号化部132は、ハフマン符号化方式で無損失復号化を行う。
次に、第14段階を行うために、無損失符号化部140は、無損失復号化部132から取得した量子化データを、オーディオ出力データが圧縮される形式により無損失符号化し、この無損失符号化された結果をデータ組合せ部142に出力する。
例えば、オーディオ出力データの圧縮される形式がBSAC形式である場合、無損失符号化部140は、算術符号化方式で無損失符号化を行う。また、オーディオ出力データの圧縮される形式がACC形式である場合、無損失符号化部140はハフマン符号化方式で無損失符号化を行う。
次に、第16段階を行うために、データ組合せ部142は、無損失符号化部140で無損失符号化された結果と、データアンパッキング部130から取得した付加情報とを組み合わせ、この組み合わせた結果をオーディオ出力データとして出力端子OUT1を介して出力する。
(第5実施形態例)
図7は、本発明の第5実施形態例のオーディオデータ変換装置のブロック図であり、復号化部160および符号化部162より構成される。ここで、図7に示した復号化部160および符号化部162は、図6に示した復号化部110および符号化部112とそれぞれ対応する機能を有する。
本実施形態例のオーディオデータ変換装置において、図7に示したように、復号化部160は、データアンパッキング部180、無損失復号化部182、逆量子化部184、第1ステレオ処理部186、第1TNS部188および第1領域変換部190より具現される。また、符号化部162は、第2領域変換部210、第2TNS部212、第2ステレオ処理部214、量子化部216、無損失符号化部218およびデータ組合せ部220より具現される。
図7に示した本実施形態例のオーディオデータ変換装置は、図2に示した第2実施形態例のオーディオデータ変換方法を実行できる。
図2に示した第30段階および第32段階をそれぞれ行うデータアンパッキング部180および無損失復号化部182は、図6に示したデータアンパッキング部130および無損失復号化部132とそれぞれ同じ機能を有するため、それらについての説明は省略する。
次に、第34段階を行うために、逆量子化部184は、無損失復号化部182から取得した量子化データを逆量子化し、逆量子化された結果を第1ステレオ処理部186に出力する。そして、第36段階を行うために、第1ステレオ処理部186は、逆量子化部184で逆量子化された結果をステレオ処理し、ステレオ処理された結果を第1TNS部188に出力する。
次に、第38段階を行うために、第1TNS部188は、第1ステレオ処理部186でステレオ処理された結果をTNS処理し、TNS処理された結果を第1領域変換部190に出力する。そして、第40段階を行うために、第1領域変換部190は、第1TNS部188でTNS処理された結果である周波数領域のデータを時間領域のデータに変換し、変換された時間領域のデータを符号化部162に出力する。
次に、第42段階を行うために、第2領域変換部210は、第1領域変換部190から取得した時間領域のデータを、周波数領域のデータに変換し、変換された周波数領域のデータを第2TNS部212に出力する。そして、第44段階を行うために、第2TNS部212は、第2領域変換部210から取得した周波数領域のデータをTNS処理し、TNS処理された結果を第2ステレオ処理部214に出力する。
次に、第46段階を行うために、第2ステレオ処理部214は、第2TNS部212でTNS処理された結果をステレオ処理し、ステレオ処理された結果を量子化部216に出力する。そして、第48段階を行うために、量子化部216は、第2ステレオ処理部214でステレオ処理された結果を量子化し、量子化された結果を無損失符号化部218に出力する。
このとき、データアンパッキング部180から取得した付加情報に含まれるマスキング・スレショルド値と類似した情報を利用して、量子化部216は、量子化されたノイズを抑制する。
参考までに、従来の変換方法によれば、オーディオ入力データに含まれる付加情報からマスキング・スレショルド値を計算する聴覚心理音響モデル部を別途に設ける必要があり、ここで計算されたマスキング・スレショルド値を利用し、量子化ノイズを抑制する。従って、別途に設けられる聴覚心理音響モデル部により製造コストが上昇するという問題が生じてしまう。
次に、第50段階を行うために、無損失符号化部218は、量子化部216で量子化した結果を、オーディオ出力データが圧縮される形式により無損失符号化し、無損失符号化された結果をデータ組合せ部220に出力する。そして、第52段階を行うために、データ組合せ部220は、無損失符号化された結果をデータアンパッキング部180から取得した付加情報と組み合わせ、この組み合わせた結果をオーディオ出力データとして出力端子OUT2を介して出力する。
図7に示した本実施形態例の符号化部162は、復号化部160で復号化された結果を左右チャンネルの付加情報のうち、いずれか1つのチャンネルの付加情報だけを利用して符号化する。例えば、符号化部162でデータアンパッキング部180から出力される付加情報を取得する第2領域変換部210、第2TNS部212、第2ステレオ処理部214、量子化部216、無損失符号化部218およびデータ組合せ部220は、左右チャンネルの付加情報のうちいずれか1つのチャンネルの付加情報だけを利用して符号化を行う。
本実施形態例では、図7に示した復号化部160は、逆量子化部184、第1ステレオ処理部186、第1TNS部188および第1領域変換部190のうち少なくとも一つを備えることとしてもよい。これに対応して、符号化部162は、第2領域変換部210、第2TNS部212、第2ステレオ処理部214および量子化部216のうち少なくとも一つを備える。例えば、図7に示した復号化部160が第1領域変換部190、第1TNS部188、第1ステレオ処理部186および逆量子化部184を備える場合、符号化部162は、第2領域変換部210、第2TNS部212、第2ステレオ処理部214および量子化部216をそれぞれ備える。
図6に示した第4実施形態例のオーディオデータ変換装置は、左右チャンネルの付加情報の一部が共有されるときに利用され、図7に示した本実施形態例のオーディオデータ変換装置は、左右チャンネルの付加情報が一切、共有されないときに利用することとしてもよい。
また、左右チャンネルの付加情報の一部が共有されるか否かは、フレームごとに変わることがある。従って、フレームごとに、図6に示したオーディオデータ変換装置、または図7に示したオーディオデータ変換装置が適用される。
ここで、図7に示した本実施形態のオーディオデータ変換装置は、現在フレームの以前フレームから、左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間、オーディオ入力データをオーディオ出力データに変換するために適用してもよい。また、本実施形態のオーディオデータ変換装置を、現在フレームから左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間、オーディオ入力データをオーディオ出力データに変換するために適用してもよい。
(第6実施形態例)
図8は、本発明の第6実施形態例によるオーディオデータ変換装置のブロック図であり、復号化部300、符号化部302および検査部304より構成される。
図8に示した復号化部300および符号化部302は、図6に示した復号化部110および符号化部112とそれぞれ対応する機能を有する。
本実施形態例において、図8に示したように復号化部300は、データアンパッキング部320、無損失復号化部322、逆量子化部324、第1ステレオ処理部326、第1TNS部328および第1領域変換部330より具現される。また、符号化部302は、第2領域変換部360、第2TNS部362、第2ステレオ処理部364、量子化部366、無損失符号化部368およびデータ組合せ部370より具現される。
図8に示した本実施形態例のオーディオデータ変換装置は、図5に示した第3実施形態例のオーディオデータ変換方法を実行することができる。
図8に示したオーディオデータ変換装置は、検査部304をさらに備え、検査部304で検査された結果を利用して復号化部300および符号化部302の各部を動作させるということを除外すれば、図7に示した第5実施形態例のオーディオデータ変換装置と同様である。従って、本実施形態例のオーディオデータ変換装置において、図7に示した第5実施形態例のオーディオデータ変換装置と異なる部分だけを次の通り説明する。
まず、図5に示した第74段階を行うために、検査部304は、左右チャンネルの付加情報の一部が共有されているか否かを検査し、検査された結果を復号化部300と符号化部302にそれぞれ出力する。このとき、検査部304で検査された結果に応答して、すなわち検査された結果を介して左右チャンネルの付加情報の一部が共有されると認識されることで、逆量子化部324、第1ステレオ処理部326、第1TNS部328、第1領域変換部330、第2領域変換部360、第2TNS部362、第2ステレオ処理部364および量子化部366は動作する。
本発明は、オーディオデータ変換方法およびその装置に関わる技術分野に効果的に適用可能である。
第1実施形態例によるオーディオデータ変換方法を説明するためのフローチャートである。 第2実施形態例によるオーディオデータ変換方法を説明するためのフローチャートである。 ACC形式で圧縮されたオーディオデータの構造の一例を表す図面である。 BSAC形式で圧縮されたオーディオデータの構造の一例を表す図面である。 第3実施形態例によるオーディオデータ変換方法を説明するためのフローチャートである。 第4実施形態例によるオーディオデータ変換装置のブロック図である。 第5実施形態例によるオーディオデータ変換装置のブロック図である。 第6実施形態例によるオーディオデータ変換装置のブロック図である。
符号の説明
110,160,300 復号化部
112,162,302 符号化部
130,180,320 データアンパッキング部
132,182,322 無損失復号化部
140,218,368 無損失符号化部
142,220,370 データ組合せ部
184,324 逆量子化部
186,326 第1ステレオ処理部
188,328 第1TNS部
190,330 第1領域変換部
210,360 第2領域変換部
212,362 第2TNS部
214,364 第2ステレオ処理部
216,366 量子化部
304 検査部

Claims (15)

  1. オーディオ入力データから付加情報を求める段階と、
    前記オーディオ入力データが圧縮された形式により前記オーディオ入力データから前記付加情報を除いたデータを無損失復号化し、前記無損失復号化された結果を量子化データとして決定する段階と、
    左チャンネル及び右チャンネルの付加情報の一部が互いに共有されるかを判断する段階と、
    前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されることと判断された場合、前記量子化データをオーディオ出力データが圧縮される形式によって無損失符号化する段階と、
    前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されないと判断された場合、前記左チャンネル及び右チャンネルの付加情報を用いて前記量子化データを復号化して時間領域のデータを得て、前記左チャンネル及び右チャンネルの付加情報のうちの一方の付加情報のみを用いて前記時間領域のデータを符号化して得たデータをオーディオ出力データが圧縮される形式によって無損失符号化する段階と、
    前記無損失符号化された結果と前記求められた付加情報を組み合わせて前記オーディオ出力データを生成する段階であって、前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されないと判断された場合は組み合わされる付加情報は、前記時間領域のデータを符号化するのに用いられた前記一方の付加情報のみである、段階とを備えることを特徴とするオーディオデータ変換方法。
  2. 前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されないことと判断された場合、前記左チャンネル及び右チャンネルの付加情報を用いて前記量子化データを復号化して時間領域のデータを得る段階は、
    (a1)前記量子化データを逆量子化する段階と、
    (a2)この逆量子化された結果をステレオ処理する段階と、
    (a3)このステレオ処理された結果をTNS処理する段階と、
    (a4)このTNS処理された結果である周波数領域のデータを、時間領域のデータに変換する段階と、を含み、前記左チャンネル及び右チャンネルの付加情報のうちの一方の付加情報のみを用いて前記時間領域のデータを符号化してデータを得る段階は、
    (b1)前記時間領域のデータを前記周波数領域のデータに変換する段階と、
    (b2)この周波数領域のデータをTNS処理する段階と、
    (b3)このTNS処理された結果をステレオ処理する段階と、
    (b4)前記ステレオ処理された結果を量子化する段階を備える
    ことを特徴とする請求項1に記載のオーディオデータ変換方法。
  3. 前記(b4)段階では、
    前記オーディオ入力データから求めた付加情報に含まれる、マスキング・スレショルド(Masking Threshold)値と類似する情報を利用して、量子化ノイズを抑制すること、
    を特徴とする請求項2に記載のオーディオデータ変換方法。
  4. フレーム別に行われる前記オーディオデータ変換方法は、
    現在フレームの以前フレームから、前記左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間実行されること、
    を特徴とする請求項2に記載のオーディオデータ変換方法。
  5. フレーム別に行われる前記オーディオデータ変換方法は、
    現在フレームから、前記左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間実行されること、
    を特徴とする請求項2に記載のオーディオデータ変換方法。
  6. 前記オーディオ入力データが圧縮された形式は、BSAC(Bit Sliced Arithmetic Coding)形式であり、前記オーディオ出力データが圧縮される形式は、ACC(Advanced Audio Coding)形式であること、
    を特徴とする請求項1に記載のオーディオデータ変換方法。
  7. 前記オーディオ入力データが圧縮された形式は、ACC形式であり、前記オーディオ出力データが圧縮される形式は、BSAC形式であり、前記ACC形式は、左右チャンネルの付加情報の一部を共有すること、
    を特徴とする請求項1に記載のオーディオデータ変換方法。
  8. 前記オーディオ入力データが圧縮された形式は、ACC形式であり、前記オーディオ出力データが圧縮される形式は、BSAC形式であり、前記ACC形式は、左右チャンネルの付加情報を、一切共有していないこと、
    を特徴とする請求項2に記載のオーディオデータ変換方法。
  9. 前記ACC形式が属する標準は、MPEG−2またはMPEG−4であること、
    を特徴とする請求項8に記載のオーディオデータ変換方法。
  10. 前記BSAC形式が属する標準は、MPEG−4であること、
    を特徴とする請求項に記載のオーディオデータ変換方法。
  11. オーディオ入力データから付加情報を求めるデータ生成部と、
    前記オーディオ入力データから前記付加情報を除いたデータを前記オーディオ入力データが圧縮された形式により無損失復号化し、前記無損失復号化された結果を量子化データとして出力する無損失復号化部と、
    左チャンネル及び右チャンネルの付加情報の一部が互いに共有されるかを判断する検査部と、
    前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されることと判断された場合、前記量子化データを前記オーディオ出力データが圧縮される形式により無損失符号化する無損失符号化部と、
    前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されないことと判断された場合、前記左チャンネル及び右チャンネルの付加情報を用いて前記量子化データを復号化して時間領域のデータを得て、前記左チャンネル及び右チャンネルの付加情報のうちの一方の付加情報のみを用いて前記時間領域のデータを符号化して得たデータをオーディオ出力データが圧縮される形式によって無損失符号化する復号化及び符号化手段と、
    前記無損失符号化された結果と前記付加情報とを組み合わせて前記オーディオ出力データを生成するデータ組合わせ部であって、前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されないと判断された場合は組み合わされる付加情報は、前記時間領域のデータを符号化するのに用いられた前記一方の付加情報のみである、データ組合わせ部とを備えること、
    を特徴とするオーディオデータ変換装置。
  12. 前記検査部で前記左チャンネル及び右チャンネルの付加情報の一部が互いに共有されないことと判断された場合、前記復号化及び符号化手段は、
    前記左チャンネル及び右チャンネルの付加情報を用いて前記量子化データを復号化して時間領域のデータを得るため、
    前記無損失復号化部から取得した前記量子化データを逆量子化する逆量子化部と、
    この逆量子化された結果をステレオ処理する第1ステレオ処理部と、
    このステレオ処理された結果をTNS処理する第1TNS部と、
    このTNS処理された結果である周波数領域のデータを、時間領域のデータに変換する第1領域変換部とを含み、
    前記左チャンネル及び右チャンネルの付加情報のうちの一方の付加情報のみを用いて前記時間領域のデータを符号化してデータを得るため、
    前記時間領域のデータを周波数領域のデータに変換する第2領域変換部と、
    この周波数領域のデータをTNS処理する第2TNS部と、
    このTNS処理された結果をステレオ処理する第2ステレオ処理部と、
    前記第2ステレオ処理部でステレオ処理された結果を量子化し、前記無損失符号化部に出力する量子化部を備えること、
    を特徴とする請求項11に記載のオーディオデータ変換装置。
  13. 前記量子化部は、
    前記付加情報に含まれる、マスキング・スレショルド値と類似する情報を利用して、量子化ノイズを抑制すること、
    を特徴とする請求項12に記載のオーディオデータ変換装置。
  14. フレーム別に動作する前記オーディオデータ変換装置は、
    現在フレームの以前のフレームから前記左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間動作すること、
    を特徴とする請求項12に記載のオーディオデータ変換装置。
  15. フレーム別に動作する前記オーディオデータ変換装置は、
    現在フレームから前記左右チャンネルの付加情報の一部を共有するフレームが表れるまでの間動作すること、
    を特徴とする請求項12に記載のオーディオデータ変換装置。
JP2005005961A 2004-01-13 2005-01-13 オーディオデータ変換方法およびその装置 Expired - Fee Related JP5068429B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2004-0002249A KR100537517B1 (ko) 2004-01-13 2004-01-13 오디오 데이타 변환 방법 및 장치
KR2004-002249 2004-01-13

Publications (2)

Publication Number Publication Date
JP2005202406A JP2005202406A (ja) 2005-07-28
JP5068429B2 true JP5068429B2 (ja) 2012-11-07

Family

ID=34588145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005005961A Expired - Fee Related JP5068429B2 (ja) 2004-01-13 2005-01-13 オーディオデータ変換方法およびその装置

Country Status (6)

Country Link
US (1) US7620543B2 (ja)
EP (1) EP1553563B1 (ja)
JP (1) JP5068429B2 (ja)
KR (1) KR100537517B1 (ja)
CN (1) CN1641749B (ja)
DE (1) DE602005010759D1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070038699A (ko) * 2005-10-06 2007-04-11 삼성전자주식회사 스케일러블 오디오 데이터 산술복호화 방법 및 장치
CN101136200B (zh) * 2006-08-30 2011-04-20 财团法人工业技术研究院 音频信号转换编码方法与系统
US8086465B2 (en) * 2007-03-20 2011-12-27 Microsoft Corporation Transform domain transcoding and decoding of audio data using integer-reversible modulated lapped transforms
US7991622B2 (en) * 2007-03-20 2011-08-02 Microsoft Corporation Audio compression and decompression using integer-reversible modulated lapped transforms
CN105491255A (zh) * 2014-09-18 2016-04-13 广东世纪网通信设备有限公司 一种降低语音传输负载的方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1126265A (zh) 1995-01-07 1996-07-10 高家榕 喷射抹压侧壁压灌混凝土的成桩机及其成桩方法
KR100335611B1 (ko) * 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
KR100335609B1 (ko) * 1997-11-20 2002-10-04 삼성전자 주식회사 비트율조절이가능한오디오부호화/복호화방법및장치
JP3818819B2 (ja) * 1999-02-23 2006-09-06 松下電器産業株式会社 画像符号化方式変換装置、画像符号化方式変換方法および記録媒体
JP3739959B2 (ja) * 1999-03-23 2006-01-25 株式会社リコー デジタル音響信号符号化装置、デジタル音響信号符号化方法及びデジタル音響信号符号化プログラムを記録した媒体
US6263022B1 (en) * 1999-07-06 2001-07-17 Philips Electronics North America Corp. System and method for fine granular scalable video with selective quality enhancement
US6639943B1 (en) * 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6931060B1 (en) * 1999-12-07 2005-08-16 Intel Corporation Video processing of a quantized base layer and one or more enhancement layers
GB0003954D0 (en) * 2000-02-18 2000-04-12 Radioscape Ltd Method of and apparatus for converting a signal between data compression formats
US6792044B2 (en) * 2001-05-16 2004-09-14 Koninklijke Philips Electronics N.V. Method of and system for activity-based frequency weighting for FGS enhancement layers
EP1292036B1 (en) * 2001-08-23 2012-08-01 Nippon Telegraph And Telephone Corporation Digital signal decoding methods and apparatuses
WO2003077235A1 (en) * 2002-03-12 2003-09-18 Nokia Corporation Efficient improvements in scalable audio coding
GB2388502A (en) * 2002-05-10 2003-11-12 Chris Dunn Compression of frequency domain audio signals
DE10236694A1 (de) * 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7318035B2 (en) * 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US7620545B2 (en) * 2003-07-08 2009-11-17 Industrial Technology Research Institute Scale factor based bit shifting in fine granularity scalability audio coding
US20050010396A1 (en) * 2003-07-08 2005-01-13 Industrial Technology Research Institute Scale factor based bit shifting in fine granularity scalability audio coding

Also Published As

Publication number Publication date
CN1641749A (zh) 2005-07-20
EP1553563A2 (en) 2005-07-13
US7620543B2 (en) 2009-11-17
US20050180586A1 (en) 2005-08-18
CN1641749B (zh) 2010-12-08
JP2005202406A (ja) 2005-07-28
KR20050074040A (ko) 2005-07-18
DE602005010759D1 (de) 2008-12-18
EP1553563A3 (en) 2006-07-26
KR100537517B1 (ko) 2005-12-19
EP1553563B1 (en) 2008-11-05

Similar Documents

Publication Publication Date Title
JP3412082B2 (ja) ビット率の調節可能なステレオオーディオ符号化/復号化方法及び装置
US8046235B2 (en) Apparatus and method of encoding audio data and apparatus and method of decoding encoded audio data
JP5608660B2 (ja) エネルギ保存型マルチチャネルオーディオ符号化
KR100608062B1 (ko) 오디오 데이터의 고주파수 복원 방법 및 그 장치
JP5418930B2 (ja) 音声復号化方法および音声復号化器
US20020049586A1 (en) Audio encoder, audio decoder, and broadcasting system
JP6864378B2 (ja) 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法
JP2013083986A (ja) 符号化装置
JP4800379B2 (ja) 最大ビットレートを保証する情報の無損失符号化
JP4063508B2 (ja) ビットレート変換装置およびビットレート変換方法
WO2006046547A1 (ja) 音声符号化装置および音声符号化方法
US20080140393A1 (en) Speech coding apparatus and method
Gayer et al. A guideline to audio codec delay
WO2010090019A1 (ja) 結合装置、遠隔通信システム及び結合方法
TWI463483B (zh) 用於可縮放聲頻編碼之位元率分配/修剪的方法及裝置
JP5068429B2 (ja) オーディオデータ変換方法およびその装置
WO2023197809A1 (zh) 一种高频音频信号的编解码方法和相关装置
JP2010506207A (ja) エンコード方法、デコード方法、エンコーダ、デコーダ、及びコンピュータプログラム製品
Xie et al. ITU-T G. 719: A new low-complexity full-band (20 kHz) audio coding standard for high-quality conversational applications
JP2008026372A (ja) 符号化データの符号化則変換方法および装置
ZHANG et al. Review of AVS audio coding standard
Hu et al. Digital audio compression technology and AVS audio standard research
Li et al. Efficient stereo bitrate allocation for fully scalable audio codec
Huang et al. A new error-mapping scheme for scalable audio coding
KR20100114484A (ko) 오디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110629

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110829

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120111

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120312

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120411

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120815

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5068429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees