JP2007310087A - Voice encoding apparatus and voice decoding apparatus - Google Patents

Voice encoding apparatus and voice decoding apparatus Download PDF

Info

Publication number
JP2007310087A
JP2007310087A JP2006137997A JP2006137997A JP2007310087A JP 2007310087 A JP2007310087 A JP 2007310087A JP 2006137997 A JP2006137997 A JP 2006137997A JP 2006137997 A JP2006137997 A JP 2006137997A JP 2007310087 A JP2007310087 A JP 2007310087A
Authority
JP
Japan
Prior art keywords
encoding
signal
speech
audio
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006137997A
Other languages
Japanese (ja)
Inventor
Masatoshi Tsukiyama
雅敏 槻山
Takashi Furuhata
貴司 古畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006137997A priority Critical patent/JP2007310087A/en
Publication of JP2007310087A publication Critical patent/JP2007310087A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voice encoding apparatus enabling a voice decoding apparatus to output a voice signal according to an order desired by the voice encoding apparatus side, without needing notifying and changing operation to the voice decoding apparatus. <P>SOLUTION: An encoding parameter conversion section 102 arbitrarily determines correspondence relation of input digital voice signals 107 to 109, and a first input terminal 104 to a third input terminal 106. On the basis of input channel information 111, encoding parameters 112 to 115 are output. A voice encoding section 101 encodes digital voice signals 107 to 109 which are input to the first input terminal 104 to the third input terminal 106, while attaching the encoding parameters 112 to 115, and outputs them as encoded transmission data 110. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、放送局間や、中継車と放送局との間などで音声を伝送する場合に用いられ、音声符号化方式としてMPEG−2 AAC(Advanced Audio Coding)(ISO/IEC 13818-7)を使用して伝送する音声符号化装置及び音声復号装置に関するものである。   The present invention is used when audio is transmitted between broadcasting stations or between a relay vehicle and a broadcasting station, and MPEG-2 AAC (Advanced Audio Coding) (ISO / IEC 13818-7) is used as an audio encoding method. The present invention relates to a speech encoding device and a speech decoding device that transmit data using.

音声符号化方式としてMPEG−2 AACを使用して伝送する場合において、音声符号化装置に音声信号を構成するL(left)信号、R(Right)信号、C(Center)信号、LFE(Low Frequency Effect)信号、LS(Left Surround)信号、RS(Right Surround)信号が入力される順序、及び音声復号装置からL信号、R信号、C信号、LFE信号、LS信号、RS信号が出力される順序については、MPEG−2 AACを定めた国際規格(ISO/IEC13818-7:1997)に明確な規定がなく(例えば、非特許文献1参照)、音声符号化装置及び音声復号装置製造者もしくは使用者の慣習として順序を決めていた。   When transmission is performed using MPEG-2 AAC as the audio encoding method, the L (left) signal, R (Right) signal, C (Center) signal, and LFE (Low Frequency) constituting the audio signal are transmitted to the audio encoding device. Effect) signal, LS (Left Surround) signal, RS (Right Surround) signal input order, and the order in which the L signal, R signal, C signal, LFE signal, LS signal, and RS signal are output from the speech decoding apparatus. Is not clearly defined in the international standard (ISO / IEC13818-7: 1997) that defines MPEG-2 AAC (see, for example, Non-Patent Document 1), and the manufacturer or user of a speech encoding device and speech decoding device The order was decided as a custom.

ISO/IEC13818−7−1997ISO / IEC 13818-7-1997

従来のMPEG−2 AAC方式においては、符号化する際の情報として符号化したデータ(エレメント)の種別を識別するための識別子、例えばSCE(single_channel_element)、CPE(channel_pair_element)、LCE(lfe_channel_element)が用意されており、例えばL信号、R信号をchannel_pair_elementとして符号化した場合は識別子CPEを付加、LS信号、RS信号をchannel_pair_elementとして符号化した場合は識別子CPEを付加、C信号をsingle_channel_elementとして符号化した場合はSCEを付加、LFE信号をlfe_channel_elementとして符号化した場合は識別子LFEを付加することができる。   In the conventional MPEG-2 AAC system, identifiers for identifying the type of encoded data (element), such as SCE (single_channel_element), CPE (channel_pair_element), and LCE (lfe_channel_element), are prepared as information for encoding. For example, when the L signal and the R signal are encoded as channel_pair_element, the identifier CPE is added. When the LS signal and the RS signal are encoded as the channel_pair_element, the identifier CPE is added, and when the C signal is encoded as the single_channel_element. Can add an identifier LFE when an SCE is added and an LFE signal is encoded as an lfe_channel_element.

また、MPEG−2 AAC方式で符号化を行う音声符号化装置にはデジタル音声信号を2チャンネルずつ入力するための入力端子が具備され、従来では、どの入力端子にどのデジタル音声信号を入力するかは音声符号化装置製造者が慣習を元に予め決定し、音声符号化装置使用者に周知して使用していた。そして、音声符号化装置使用者は音声符号化装置製造者より予め決められた入力端子に決められた音声信号を入力し、音声符号化装置内にて符号化を行って音声復号装置に伝送していた。   In addition, an audio encoding device that performs encoding by the MPEG-2 AAC system has an input terminal for inputting digital audio signals by two channels at a time. Conventionally, which digital audio signal is input to which input terminal. Has been determined in advance by a speech encoding device manufacturer based on customs, and is well known to the speech encoding device user. Then, the speech encoding device user inputs the speech signal determined by the speech encoding device manufacturer to a predetermined input terminal, encodes the speech encoding device, and transmits it to the speech decoding device. It was.

このような音声符号化装置より伝送された音声符号化信号は、従来のMPEG−2 AAC方式の音声復号装置にて上述した識別手段を用いて、L信号、R信号、LS信号、RS信号、C信号、LFE信号として復号され、音声復号装置製造者が予め定めた、音声復号装置に具備された復号した音声信号を出力するための出力端子からデジタル音声信号を出力していた。   A speech encoded signal transmitted from such a speech encoding device is used to identify an L signal, an R signal, an LS signal, an RS signal, and the like using the above-described identification unit in the conventional MPEG-2 AAC speech decoding device. A digital audio signal is output from an output terminal for outputting a decoded audio signal provided in the audio decoding device, which is decoded as a C signal and an LFE signal and is predetermined by the audio decoding device manufacturer.

従来のMPEG−2 AAC音声符号化装置及び音声復号装置は以上のように構成されているため、音声符号化装置使用者が音声符号化装置に具備する音声入力端子に入力するデジタル音声信号を、例えば、2番目の入力端子に入力していたC信号、LFE信号を3番目の入力端子に変更し、3番目の入力端子に入力していたLS信号、RS信号を2番目の入力端子に変更した場合、変更した内容を符号化音声信号の伝送とは別の手段にて音声復号装置使用者に通知し、これにより音声復号装置使用者が出力端子を変更する必要があった。   Since the conventional MPEG-2 AAC audio encoding device and audio decoding device are configured as described above, a digital audio signal input to an audio input terminal provided to the audio encoding device by a user of the audio encoding device, For example, the C signal and LFE signal that were input to the second input terminal are changed to the third input terminal, and the LS signal and RS signal that are input to the third input terminal are changed to the second input terminal. In this case, the changed content is notified to the speech decoding apparatus user by means different from the transmission of the encoded speech signal, and the speech decoding apparatus user needs to change the output terminal.

仮に変更した内容を通知しなかった場合は、音声復号装置製造者が予め定めた通りに、例えば2番目の出力端子からC信号、LFE信号が出力され、3番目の出力端子からLS信号、RS信号が出力され、音声符号化装置への入力の順序と音声復号装置からの出力の順序が異なってしまうという事態が発生する。   If the changed content is not notified, for example, the C signal and the LFE signal are output from the second output terminal, and the LS signal and RS are output from the third output terminal as predetermined by the speech decoding device manufacturer. A signal is output, and the order of input to the speech coding apparatus and the order of output from the speech decoding apparatus are different.

従来の音声復号装置は音声符号化装置から伝送される符号化信号に基づいて音声復号装置使用者の操作を必要とせず復号を行うことを特徴としているが、上記例のように、音声符号化装置で信号と入力端子との関係を変更した場合は、音声復号装置に対する操作が必要となり、通知や変更作業等が必要となる、といった問題点があった。   A conventional speech decoding apparatus is characterized in that decoding is performed without requiring the user's operation based on a coded signal transmitted from the speech encoding apparatus. However, as in the above example, speech encoding is performed. When the relationship between the signal and the input terminal is changed by the apparatus, there is a problem that an operation on the speech decoding apparatus is required, and notification, change work, and the like are required.

この発明は上記のような課題を解決するためになされたもので、音声復号装置への通知や変更作業を必要とせず、音声符号化装置側で所望する順序に従って音声復号装置で音声信号を出力することのできる音声符号化装置及び音声復号装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and does not require notification or change work to the speech decoding device, and outputs speech signals in the speech decoding device according to a desired order on the speech coding device side. An object of the present invention is to obtain a speech encoding device and speech decoding device capable of performing the above.

この発明に係る音声符号化装置は、音声信号と入力端子との対応関係を任意に決定する入力チャンネル情報に基づいて音声信号に対応した符号化パラメータを決定する符号化パラメータ変換部と、符号化パラメータ変換部から出力された符号化パラメータを音声符号化信号に付与して符号化伝送データとして出力する音声符号化部とを備えたものである。   A speech coding apparatus according to the present invention includes a coding parameter conversion unit that determines a coding parameter corresponding to a speech signal based on input channel information that arbitrarily determines a correspondence relationship between the speech signal and an input terminal, and a coding A speech encoding unit that adds the encoding parameter output from the parameter converting unit to the speech encoded signal and outputs the encoded transmission data.

この発明の音声符号化装置は、音声信号と入力端子との対応関係を示す符号化パラメータを音声符号化信号に付与するようにしたので、音声復号装置への通知や変更作業を必要とせず、音声符号化装置側で所望する順序に従って音声復号装置で音声信号を出力することができる。   Since the speech encoding device of the present invention is configured to add the encoding parameter indicating the correspondence between the speech signal and the input terminal to the speech encoded signal, it does not require notification or change work to the speech decoding device, The speech signal can be output by the speech decoding device according to a desired order on the speech encoding device side.

実施の形態1.
図1は、この発明の実施の形態1による音声符号化装置及び音声復号装置を示す構成図である。
図において、音声符号化装置100は、音声符号化部101、符号化パラメータ変換部102、入力チャンネル情報入力部103、第1番入力端子104、第2番入力端子105、第3番入力端子106を備えている。また、音声復号装置200は、音声復号部201、出力チャンネル判定部202、出力チャンネル選択部203、第1番出力端子204、第2番出力端子205、第3番出力端子206を備えている。更に、音声符号化装置100と音声復号装置200とは伝送路300を介して接続されている。
Embodiment 1 FIG.
1 is a block diagram showing a speech encoding apparatus and speech decoding apparatus according to Embodiment 1 of the present invention.
In the figure, a speech coding apparatus 100 includes a speech coding unit 101, a coding parameter conversion unit 102, an input channel information input unit 103, a first input terminal 104, a second input terminal 105, and a third input terminal 106. It has. The speech decoding apparatus 200 also includes a speech decoding unit 201, an output channel determination unit 202, an output channel selection unit 203, a first output terminal 204, a second output terminal 205, and a third output terminal 206. Furthermore, speech encoding apparatus 100 and speech decoding apparatus 200 are connected via transmission line 300.

音声符号化部101は、第1番入力端子104から入力されたデジタル音声信号107と、第2番入力端子105から入力されたデジタル音声信号108と、第3番入力端子106から入力されたデジタル音声信号109を、符号化パラメータ変換部102からの符号化パラメータに基づき、MPEG−2 AAC符号化方式に則って符号化を行い、符号化伝送データ110として出力する機能を有している。
符号化パラメータ変換部102は、入力チャンネル情報入力部103から出力される入力チャンネル情報111に基づいて符号化パラメータ112〜115を生成し、これら符号化パラメータ112〜115を音声符号化部101に出力する機能部である。
The speech encoding unit 101 includes a digital speech signal 107 input from the first input terminal 104, a digital speech signal 108 input from the second input terminal 105, and a digital input from the third input terminal 106. The audio signal 109 is encoded based on the encoding parameter from the encoding parameter conversion unit 102 in accordance with the MPEG-2 AAC encoding method and output as encoded transmission data 110.
The encoding parameter conversion unit 102 generates encoding parameters 112 to 115 based on the input channel information 111 output from the input channel information input unit 103, and outputs these encoding parameters 112 to 115 to the speech encoding unit 101. It is a functional part to do.

ここで、符号化パラメータ112は、音声符号化部101で使用する第1のペアチャンネルエレメントに付加される符号化パラメータで、第1番入力端子104の入力端子情報を表している。また、符号化パラメータ113は、音声符号化部101で使用する単一チャンネルエレメントに付加される符号化パラメータで、第2番入力端子105の入力端子情報を表している。更に、符号化パラメータ114は、音声符号化部101で使用する第2のペアチャンネルエレメントに付加される符号化パラメータで、第3番入力端子106の入力端子情報を表している。また、符号化パラメータ115は、音声符号化部101で使用するLFEチャンネルエレメントに付加される符号化パラメータであり、第2番入力端子105の入力端子情報を表している。   Here, the encoding parameter 112 is an encoding parameter added to the first pair channel element used in the speech encoding unit 101 and represents the input terminal information of the first input terminal 104. An encoding parameter 113 is an encoding parameter added to a single channel element used in the speech encoding unit 101 and represents input terminal information of the second input terminal 105. Furthermore, the encoding parameter 114 is an encoding parameter added to the second pair channel element used in the speech encoding unit 101 and represents input terminal information of the third input terminal 106. An encoding parameter 115 is an encoding parameter added to the LFE channel element used in the speech encoding unit 101 and represents input terminal information of the second input terminal 105.

入力チャンネル情報入力部103は、デジタル音声信号107〜デジタル音声信号109が、第1番入力端子104〜第3番入力端子106のいずれかに入力したかという情報を、音声符号化装置100の使用者が入力するための機能部であり、これらの入力情報が入力チャンネル情報111として符号化パラメータ変換部102に出力するよう構成されている。   The input channel information input unit 103 uses information indicating whether the digital audio signal 107 to the digital audio signal 109 are input to any of the first input terminal 104 to the third input terminal 106 to use the audio encoding device 100. The input unit is configured to output the input information as input channel information 111 to the encoding parameter conversion unit 102.

また、実施の形態1では、デジタル音声信号107は、MPEG−2 AACによる音声符号化を行う対象となるデジタル音声信号のL(left)信号及びR(Right)信号、デジタル音声信号108は、デジタル音声信号のC(Center)信号、及びLFE(Low Frequency Effect)信号、デジタル音声信号109は、デジタル音声信号のLS(Left Surround)信号、RS(Right Surround)信号となるよう設定されている。   In the first embodiment, the digital audio signal 107 is an L (left) signal and an R (Right) signal of a digital audio signal to be subjected to audio encoding by MPEG-2 AAC, and the digital audio signal 108 is digital. The C (Center) signal of the audio signal, the LFE (Low Frequency Effect) signal, and the digital audio signal 109 are set to be an LS (Left Surround) signal and an RS (Right Surround) signal of the digital audio signal.

次に、音声復号装置200の構成について説明する。
音声復号装置200における音声復号部201は、伝送路300を介して入力された符号化伝送データ110を、MPEG−2 AAC方式に則って復号し、デジタル音声信号207,208,209として出力する機能を有し、また、音声符号化データに含まれる符号化パラメータを分離する機能を有している。図中、音声復号部201から出力される符号化パラメータ112〜115は、これらの符号化パラメータである。
出力チャンネル判定部202は、音声符号化装置100の符号化パラメータ変換部102における符号化パラメータ112〜115と入力端子との対応関係を示す情報を予め有し、音声復号部201から送出された符号化パラメータ112〜115に基づいて、デジタル音声信号207〜209を、第1番出力端子204及び第2番出力端子205及び第3番出力端子206のいずれかから出力させるかを決定し、これを出力チャンネル情報210として出力する機能を有している。
Next, the configuration of speech decoding apparatus 200 will be described.
The audio decoding unit 201 in the audio decoding device 200 has a function of decoding the encoded transmission data 110 input via the transmission path 300 in accordance with the MPEG-2 AAC system and outputting the decoded data as digital audio signals 207, 208, and 209. And has a function of separating the encoding parameters included in the speech encoded data. In the figure, encoding parameters 112 to 115 output from the speech decoding unit 201 are these encoding parameters.
The output channel determination unit 202 has information indicating the correspondence relationship between the encoding parameters 112 to 115 and the input terminals in the encoding parameter conversion unit 102 of the audio encoding device 100 in advance, and the code sent from the audio decoding unit 201 The digital audio signals 207 to 209 are determined to be output from the first output terminal 204, the second output terminal 205, or the third output terminal 206 based on the control parameters 112 to 115, It has a function of outputting as output channel information 210.

出力チャンネル選択部203は、出力チャンネル判定部202から通知される出力チャンネル情報210を元に、デジタル音声信号207であるL信号及びR信号及びデジタル音声信号208であるC信号及びLFE信号、デジタル音声信号209であるLS信号及びRS信号を、第1番出力端子204及び第2番出力端子205及び第3番出力端子206の何れに出力するかを選択する機能を有している。また、それぞれの第1番出力端子204〜第3番出力端子206からは、デジタル音声信号211〜213が出力されるよう構成されている。   The output channel selection unit 203 is based on the output channel information 210 notified from the output channel determination unit 202, and the L signal and R signal that are the digital audio signal 207, the C signal and LFE signal that are the digital audio signal 208, and the digital audio signal. The LS signal and the RS signal, which are the signals 209, have a function of selecting which of the first output terminal 204, the second output terminal 205, and the third output terminal 206 is to be output. Also, digital audio signals 211 to 213 are output from the first output terminal 204 to the third output terminal 206, respectively.

図2はMPEG−2 AAC音声符号化方式を定めたISO/IEC13818-7:1997に記載されている音声伝送フレームADTS:Audio Data Transport Stream frameの構成図である。
図示のように、MPEG−2 AAC音声符号化方式により符号化された符号化データを伝送するための音声伝送フレーム21は、符号化データブロック22で構成され、符号化データブロック22は、データブロック識別子23、データブロック情報24、符号化エレメント25より構成されている。
FIG. 2 is a configuration diagram of an audio transmission frame ADTS (Audio Data Transport Stream frame) described in ISO / IEC 13818-7: 1997 that defines the MPEG-2 AAC audio encoding system.
As shown in the figure, an audio transmission frame 21 for transmitting encoded data encoded by the MPEG-2 AAC audio encoding method is composed of an encoded data block 22, and the encoded data block 22 is a data block. It comprises an identifier 23, data block information 24, and an encoding element 25.

図3はMPEG−2 AAC音声符号化方式を定めたISO/IEC13818-7:1997に記載されているデータブロック識別子23の説明図である。
ここで、例えば、SCE識別子31は符号化エレメント25が単一チャンネルの符号化データであることを示す識別子であり、32は単一チャンネル符号化データを示している。また、CPE識別子33は、符号化エレメント25がペアチャンネルの符号化データであることを示す識別子であり、34はペアチャンネル符号化データである。LFE識別子35は、符号化エレメント25がLFEチャンネルの符号化データであることを示すLFE識別子であり、36はLFE符号化データを示している。尚、37はデータストリームエレメント識別子、38はデータストリームエレメントを示しているが、これらデータストリームエレメント識別子37及びデータストリームエレメント38については実施の形態2で詳細に説明する。
FIG. 3 is an explanatory diagram of the data block identifier 23 described in ISO / IEC13818-7: 1997 that defines the MPEG-2 AAC audio coding system.
Here, for example, the SCE identifier 31 is an identifier indicating that the encoding element 25 is single channel encoded data, and 32 indicates single channel encoded data. The CPE identifier 33 is an identifier indicating that the encoding element 25 is pair channel encoded data, and 34 is pair channel encoded data. The LFE identifier 35 is an LFE identifier indicating that the encoding element 25 is encoded data of the LFE channel, and 36 indicates the LFE encoded data. Reference numeral 37 denotes a data stream element identifier and 38 denotes a data stream element. The data stream element identifier 37 and the data stream element 38 will be described in detail in the second embodiment.

次に、実施の形態1における動作として、例えばMPEG−2 AAC方式の5.1chサラウンド方式で符号化する場合の動作について説明する。
5.1chサラウンド方式は、L信号、R信号、C信号、LFE信号、LS信号、RS信号で構成され、かつ、デジタル音声信号は物理的な信号線1本につき2つの信号を伝送できる。このため、図1に示すように、第1番入力端子104に、L信号とR信号、第2番入力端子105にC信号とLFE信号、第3番入力端子106にLS信号とRS信号を入力する場合、入力チャンネル情報入力部103では、このような入力端子とチャンネルを示す入力チャンネル情報111を出力する。
Next, as an operation in the first embodiment, for example, an operation in the case of encoding in the 5.1ch surround scheme of the MPEG-2 AAC scheme will be described.
The 5.1 channel surround system is composed of an L signal, an R signal, a C signal, an LFE signal, an LS signal, and an RS signal, and a digital audio signal can transmit two signals per physical signal line. For this reason, as shown in FIG. 1, the L and R signals are input to the first input terminal 104, the C and LFE signals are input to the second input terminal 105, and the LS and RS signals are input to the third input terminal 106. When inputting, the input channel information input unit 103 outputs the input channel information 111 indicating such input terminals and channels.

即ち、入力チャンネル情報入力部103は、第1番入力端子104の第1チャンネルがL信号、第1番入力端子104の第2チャンネルがR信号、第2番入力端子105の第1チャンネルがC信号、第2番入力端子105の第2チャンネルがLFE信号、第3番入力端子106の第1チャンネルがLS信号、第3番入力端子106の第2チャンネルがRS信号であることを示す入力チャンネル情報111を符号化パラメータ変換部102に通知する。   That is, in the input channel information input unit 103, the first channel of the first input terminal 104 is an L signal, the second channel of the first input terminal 104 is an R signal, and the first channel of the second input terminal 105 is a C signal. An input channel indicating that the second channel of the second input terminal 105 is an LFE signal, the first channel of the third input terminal 106 is an LS signal, and the second channel of the third input terminal 106 is an RS signal. Information 111 is notified to the encoding parameter conversion unit 102.

符号化パラメータ変換部102では、入力チャンネル情報入力部103から通知された入力チャンネル情報111を基に、第1番入力端子104から入力されるデジタル音声信号107の符号化パラメータ112、第2番入力端子105から入力されるデジタル音声信号108の符号化パラメータ113及び符号化パラメータ115、第3番入力端子106から入力されるデジタル音声信号109の符号化パラメータ114を生成し、これら符号化パラメータ112〜115を音声符号化部101に出力する。尚、符号化パラメータの具体的な生成方法については後述する。   In the encoding parameter conversion unit 102, the encoding parameter 112 and the second input of the digital audio signal 107 input from the first input terminal 104 based on the input channel information 111 notified from the input channel information input unit 103. An encoding parameter 113 and an encoding parameter 115 of the digital audio signal 108 input from the terminal 105, and an encoding parameter 114 of the digital audio signal 109 input from the third input terminal 106 are generated. 115 is output to the speech encoding unit 101. A specific method for generating encoding parameters will be described later.

音声符号化部101では、入力されたL信号、R信号を第1のペアチャンネルエレメント(CPE)として符号化を行い、符号化パラメータ112を付加する。また、LS信号、RS信号は、第2のペアチャンネルエレメント(CPE)として符号化を行い、符号化パラメータ114を付加する。更に、C信号は単一チャンネルエレメント(SCE)として符号化を行い、符号化パラメータ113を付加し、LFE信号はLFEエレメントとして符号化を行い、符号化パラメータ115を付加する。そして、音声符号化部101ではこれらの符号化を行ったデータを符号化伝送データ110として出力する。   The speech encoding unit 101 encodes the input L signal and R signal as the first pair channel element (CPE), and adds the encoding parameter 112. Further, the LS signal and the RS signal are encoded as a second pair channel element (CPE), and an encoding parameter 114 is added. Further, the C signal is encoded as a single channel element (SCE) and an encoding parameter 113 is added, and the LFE signal is encoded as an LFE element and an encoding parameter 115 is added. The voice encoding unit 101 outputs the encoded data as encoded transmission data 110.

音声符号化装置100から出力された符号化伝送データ110は伝送路300を経由して音声復号装置200で受信される。音声復号装置200では、音声復号部201においてMPEG−2 AAC方式に則ってデジタル音声信号に復号すると同時に、第1のペアチャンネルエレメントに付加されていた符号化パラメータ112、第2のペアチャンネルエレメントに付加されていた符号化パラメータ114、単一チャンネルエレメントに付加されていた符号化パラメータ113、LFEチャンネルエレメントに付加されていた符号化パラメータ115を分離し、出力チャンネル判定部202に通知する。   The encoded transmission data 110 output from the speech encoding apparatus 100 is received by the speech decoding apparatus 200 via the transmission path 300. In the audio decoding apparatus 200, the audio decoding unit 201 decodes the digital audio signal in accordance with the MPEG-2 AAC system, and simultaneously converts the encoding parameter 112 added to the first pair channel element and the second pair channel element. The encoding parameter 114 added, the encoding parameter 113 added to the single channel element, and the encoding parameter 115 added to the LFE channel element are separated and notified to the output channel determination unit 202.

出力チャンネル判定部202では、通知された符号化パラメータ112より第1のペアチャンネルエレメントが音声符号化装置100の第1番入力端子から入力されたことを認知し、符号化パラメータ114より第2のペアチャンネルエレメントが音声符号化装置100の第3番入力端子から入力されたことを認知し、符号化パラメータ113より単一チャンネルエレメントが音声符号化装置100の第2番入力端子の第1チャンネルから入力されたことを認知し、符号化パラメータ115よりLFEチャンネルエレメントが音声符号化装置100の第2番入力端子の第2チャンネルから入力されたことを認知する。これにより、第1番出力端子204からL信号、R信号、第2番出力端子205からC信号、LFE信号、第3番出力端子からLS信号、RS信号を出力することを意味する出力チャンネル情報210を生成し、出力チャンネル選択部203に通知する。   The output channel determination unit 202 recognizes that the first pair channel element is input from the first input terminal of the speech encoding apparatus 100 based on the notified encoding parameter 112, and the second is determined based on the encoding parameter 114. Recognizing that the pair channel element is input from the third input terminal of the speech encoding apparatus 100, the single channel element is detected from the first channel of the second input terminal of the speech encoding apparatus 100 based on the encoding parameter 113. It is recognized that the LFE channel element has been input from the second channel of the second input terminal of the speech encoding apparatus 100 from the encoding parameter 115. Thus, the output channel information means that the L signal and the R signal are output from the first output terminal 204, the C signal and the LFE signal are output from the second output terminal 205, and the LS signal and the RS signal are output from the third output terminal. 210 is generated and notified to the output channel selection unit 203.

出力チャンネル選択部203では、出力チャンネル情報210を基に音声復号部201で復号し出力したデジタル音声信号207(L信号及びR信号)を、第1番出力端子204に接続し、また、音声復号部201が復号し出力したデジタル音声信号208(C信号及びLFE信号)を、第2番出力端子205に接続し、更に、音声復号部201が復号し出力したデジタル音声信号209(LS信号及びRS信号)を、第3番出力端子206に接続する。   In the output channel selection unit 203, the digital audio signal 207 (L signal and R signal) decoded and output by the audio decoding unit 201 based on the output channel information 210 is connected to the first output terminal 204, and the audio decoding is performed. The digital audio signal 208 (C signal and LFE signal) decoded and output by the unit 201 is connected to the second output terminal 205, and further, the digital audio signal 209 (LS signal and RS signal) decoded and output by the audio decoding unit 201 is connected. Signal) is connected to the third output terminal 206.

その結果、第1番出力端子204から出力されるデジタル音声信号211は音声符号化装置100の第1番入力端子104から入力したデジタル音声信号107と同じL信号、R信号となり、第2番出力端子205から出力されるデジタル音声信号212は、音声符号化装置100の第2番入力端子105から入力したデジタル音声信号108と同じC信号、LFE信号となり、第3番出力端子206から出力されるデジタル音声信号213は、音声符号化装置100の第3番入力端子106から入力したデジタル音声信号109と同じLS信号及びRS信号となる。   As a result, the digital audio signal 211 output from the first output terminal 204 becomes the same L signal and R signal as the digital audio signal 107 input from the first input terminal 104 of the audio encoding device 100, and the second output. The digital audio signal 212 output from the terminal 205 becomes the same C signal and LFE signal as the digital audio signal 108 input from the second input terminal 105 of the audio encoding device 100, and is output from the third output terminal 206. The digital audio signal 213 is the same LS signal and RS signal as the digital audio signal 109 input from the third input terminal 106 of the audio encoding device 100.

このように、音声符号化装置100から音声復号装置200に送信する符号化伝送データ110中に、音声復号装置200側でデジタル音声信号を出力させたい出力端子とチャンネルの情報を含ませることができるため、例えば、音声符号化装置100の使用者が、音声符号化装置100への入力順序と音声復号装置200の出力順序を意識的に変更したい場合でも入力チャンネル情報入力部103への操作によって容易に実現することができる。即ち、入力チャンネル情報入力部103から出力される入力チャンネル情報111を、音声復号装置200で出力させたい出力端子に対応した値とすることにより、この入力チャンネル情報111に対応した符号化パラメータ112〜115が生成され、入力順序と出力順序の変更も容易に実現することができる。   As described above, the encoded transmission data 110 transmitted from the speech encoding apparatus 100 to the speech decoding apparatus 200 can include information on an output terminal and a channel on which the speech decoding apparatus 200 wants to output a digital speech signal. Therefore, for example, even when the user of the speech encoding apparatus 100 wants to consciously change the input order to the speech encoding apparatus 100 and the output order of the speech decoding apparatus 200, it is easy to operate by operating the input channel information input unit 103. Can be realized. That is, by setting the input channel information 111 output from the input channel information input unit 103 to a value corresponding to the output terminal to be output by the speech decoding apparatus 200, the encoding parameters 112 to 112 corresponding to the input channel information 111 are set. 115 is generated, and the input order and the output order can be easily changed.

次に図2と図3を用いて符号化パラメータ変換部102が、入力チャンネル情報111を用いて符号化パラメータを生成する動作について説明する。
図2の符号化データブロック22に含まれるデータブロック識別子23は、図3に示すように符号化エレメント25が単一チャンネルエレメントの場合はID_SCE、符号化エレメント25がペアチャンネルエレメントの場合はID_CPE、符号化エレメント25がLFEチャンネルエレメントの場合はID_LFEとなる。
Next, an operation in which the encoding parameter conversion unit 102 generates an encoding parameter using the input channel information 111 will be described with reference to FIGS.
As shown in FIG. 3, the data block identifier 23 included in the encoded data block 22 of FIG. 2 includes ID_SCE when the encoding element 25 is a single channel element, ID_CPE when the encoding element 25 is a pair channel element, When the encoding element 25 is an LFE channel element, ID_LFE is set.

一方、図2に示すデータブロック情報24はISO/IEC13818-7:1997ではelement_instance_tag(エレメントインスタンスタグ)と称され、同じ符号化エレメントが存在した場合に区別するためにユニークな数字を付与すると規定されている。このため、例えば図1の例では、L信号及びR信号を符号化したペアチャンネルエレメントに付加するデータブロック情報(element_instance_tag)を“1”、LS信号及びRS信号を符号化したペアチャンネルエレメントに付加するデータブロック情報(element_instance_tag)を“5”、C信号を符号化した単一チャンネルエレメントに付加するデータブロック情報(element_instance_tag)を“3”、LFE信号を符号化したLFEチャンネルエレメントに付加するデータブロック情報(element_instance_tag)を“4”として2個存在するペアチャンネルエレメントを区別する規格本来の使用目的を損なうことなく、入力チャンネル情報としても使用することが可能となる。即ち、この場合は、符号化パラメータ112が“1”、符号化パラメータ113が“3”、符号化パラメータ114が“5”、符号化パラメータ115が“4”となる。   On the other hand, the data block information 24 shown in FIG. 2 is referred to as element_instance_tag (element instance tag) in ISO / IEC13818-7: 1997, and is specified to give a unique number to distinguish when the same encoded element exists. ing. Therefore, for example, in the example of FIG. 1, the data block information (element_instance_tag) added to the pair channel element that encodes the L signal and the R signal is “1”, and is added to the pair channel element that encodes the LS signal and the RS signal. Data block information (element_instance_tag) to be added is "5", data block information (element_instance_tag) to be added to a single channel element encoded with a C signal is "3", and a data block to be added to an LFE channel element encoded with an LFE signal The information (element_instance_tag) is “4” and can be used as input channel information without impairing the original intended purpose of distinguishing two existing pair channel elements. That is, in this case, the encoding parameter 112 is “1”, the encoding parameter 113 is “3”, the encoding parameter 114 is “5”, and the encoding parameter 115 is “4”.

以上のように、実施の形態1の音声符号化装置によれば、MPEG−2 AAC音声符号化を行う音声符号化装置であって、音声信号と入力端子との対応関係を任意に決定する入力チャンネル情報に基づいて音声信号に対応した符号化パラメータを決定する符号化パラメータ変換部と、音声信号を符号化すると共に、音声符号化信号に、符号化パラメータ変換部から出力された符号化パラメータを付与し、符号化伝送データとして出力する音声符号化部とを備えたので、音声復号装置への通知や変更作業を必要とせず、音声符号化装置側で所望する順序に従って音声復号装置で音声信号を出力することができる。   As described above, according to the speech coding apparatus of Embodiment 1, it is a speech coding apparatus that performs MPEG-2 AAC speech coding, and an input that arbitrarily determines a correspondence relationship between a speech signal and an input terminal. An encoding parameter conversion unit that determines an encoding parameter corresponding to the audio signal based on the channel information, and encodes the audio signal, and the encoding parameter output from the encoding parameter conversion unit is added to the audio encoded signal. And a speech encoding unit that outputs the encoded transmission data as an encoded transmission data, so that there is no need to notify the speech decoding device or change work, and the speech signal is transmitted by the speech decoding device according to a desired order on the speech encoding device side. Can be output.

また、実施の形態1の音声符号化装置によれば、符号化パラメータは、MPEG−2 AACで定めるエレメントインスタンスタグを用いて付与するようにしたので、ペアチャンネルエレメントを区別する規格本来の使用目的を損なうことなく、入力チャンネル情報としても使用することが可能であり、容易に符号化パラメータの付与を行うことができる。   Also, according to the audio encoding device of the first embodiment, the encoding parameter is assigned using the element instance tag defined by MPEG-2 AAC, so that the standard intended purpose of distinguishing pair channel elements is used. Can be used as input channel information without impairing the coding parameters, and encoding parameters can be easily assigned.

また、実施の形態1の音声復号装置によれば、MPEG−2 AAC音声復号を行う音声復号装置であって、符号化伝送データから音声信号を復号すると共に、符号化伝送データを送出した音声符号化装置における音声信号と入力端子との対応関係を任意に決定する入力チャンネル情報に基づいて生成された符号化パラメータを分離する音声復号部と、音声復号部で分離された符号化パラメータに基づいて、復号された音声信号の出力端子を判定する出力チャンネル判定部とを備えたので、音声符号化装置からの通知や変更作業を必要とせず、音声符号化装置側で所望する順序に従って音声信号を出力することができる。   Moreover, according to the audio decoding device of the first embodiment, the audio decoding device performs MPEG-2 AAC audio decoding, and decodes the audio signal from the encoded transmission data and transmits the encoded transmission data. A speech decoding unit that separates encoding parameters generated based on input channel information that arbitrarily determines a correspondence between a speech signal and an input terminal in the encoding device, and a coding parameter separated by the speech decoding unit And an output channel determination unit that determines an output terminal of the decoded speech signal, so that notification or change work from the speech encoding device is not required, and the speech signal is output according to a desired order on the speech encoding device side. Can be output.

また、実施の形態1の音声復号装置によれば、符号化パラメータは、MPEG−2 AACで定めるエレメントインスタンスタグから分離されるようにしたので、容易に符号化伝送データから符号化パラメータの分離を行うことができる。   Further, according to the speech decoding apparatus of the first embodiment, since the encoding parameter is separated from the element instance tag defined in MPEG-2 AAC, the encoding parameter can be easily separated from the encoded transmission data. It can be carried out.

実施の形態2.
実施の形態2では、符号化パラメータとして、データストリームエレメント(data_stream_element)を用いるようにしたものであり、図面上の構成は実施の形態1と同様であるため、図1を援用して説明する。実施の形態2の音声符号化部101では、符号化パラメータ112〜115を、対応したデジタル音声信号107〜109に付与する場合に、データストリームエレメントを用いて行うよう構成されている。また、音声復号部201では、受信した符号化伝送データ110から、デジタル音声信号を復号すると共に、データストリームエレメントから符号化パラメータ112〜115を分離するよう構成されている。これ以外の構成は実施の形態1と同様である。
Embodiment 2. FIG.
In the second embodiment, a data stream element (data_stream_element) is used as an encoding parameter, and since the configuration on the drawing is the same as that of the first embodiment, the description will be given with reference to FIG. The audio encoding unit 101 according to Embodiment 2 is configured to use data stream elements when encoding parameters 112 to 115 are assigned to corresponding digital audio signals 107 to 109. The audio decoding unit 201 is configured to decode a digital audio signal from the received encoded transmission data 110 and to separate the encoding parameters 112 to 115 from the data stream element. Other configurations are the same as those in the first embodiment.

次に実施の形態2による符号化パラメータについて、図3と図4を用いて説明する。
図4は、データストリームエレメントの構成図である。
図4において、符号化データブロック22は、データストリームエレメントを示す識別子41、データストリームエレメント内に記載されたL信号、R信号のチャンネル情報42、C信号のチャンネル情報43、LFE信号のチャンネル情報44、LS信号、RS信号のチャンネル情報45から構成されている。
Next, encoding parameters according to the second embodiment will be described with reference to FIGS.
FIG. 4 is a configuration diagram of the data stream element.
In FIG. 4, an encoded data block 22 includes an identifier 41 indicating a data stream element, an L signal described in the data stream element, an R signal channel information 42, a C signal channel information 43, and an LFE signal channel information 44. , LS signal and RS signal channel information 45.

実施の形態1によるチャンネル追従方法においては、音声符号化装置100に入力するデジタル音声信号の入力情報をデータブロック情報24を用いて音声復号装置200に伝送したが、実施の形態2では、データブロック情報24の代わりにデータストリームエレメント38及びデータストリームエレメント識別子37(図3参照)を用いて伝送を行う。   In the channel tracking method according to the first embodiment, the input information of the digital audio signal input to the audio encoding device 100 is transmitted to the audio decoding device 200 using the data block information 24. However, in the second embodiment, the data block Transmission is performed using the data stream element 38 and the data stream element identifier 37 (see FIG. 3) instead of the information 24.

データストリームエレメント38については規格上使用者が任意に使用目的を決定することができるため、例えば、図4に示すようにデータストリームエレメント内にL信号、R信号のチャンネル情報42、C信号のチャンネル情報43、LFE信号のチャンネル情報44、LS信号、RS信号のチャンネル情報45を記載し、伝送する。即ち、図2に示した実施の形態1と同様に、L信号及びR信号を符号化したペアチャンネルエレメントに付加するデータストリームエレメントを“1”、LS信号及びRS信号を符号化したペアチャンネルエレメントに付加するデータストリームエレメントを“5”、C信号を符号化した単一チャンネルエレメントに付加するデータストリームエレメントを“3”、LFE信号を符号化したLFEチャンネルエレメントに付加するデータストリームエレメントを“4”とする。   Since the user can arbitrarily determine the purpose of use of the data stream element 38 according to the standard, for example, as shown in FIG. 4, the channel information 42 of the L signal, the R signal, and the channel of the C signal are included in the data stream element. Information 43, channel information 44 of the LFE signal, channel information 45 of the LS signal and RS signal are described and transmitted. That is, as in the first embodiment shown in FIG. 2, the data stream element to be added to the pair channel element in which the L signal and the R signal are encoded is “1”, and the pair channel element in which the LS signal and the RS signal are encoded. "5" for the data stream element to be added to "3", "3" for the data stream element to be added to the single channel element encoded with the C signal, and "4" for the data stream element to be added to the LFE channel element to which the LFE signal is encoded. ".

これにより、音声復号装置200では、このような符号化伝送データ110を受信すると、音声復号部201において分離し、出力チャンネル判定部202に通知することが可能で、実施の形態1と同じ効果を得ることができる。   As a result, when receiving such encoded transmission data 110, speech decoding apparatus 200 can separate it in speech decoding section 201 and notify it to output channel determination section 202, which has the same effect as in the first embodiment. Obtainable.

以上のように、実施の形態2の音声符号化装置によれば、符号化パラメータを、MPEG−2 AACで定めるデータストリームエレメントを用いて付与するようにしたので、容易に符号化パラメータの付与を行うことができる。   As described above, according to the audio encoding device of the second embodiment, the encoding parameter is assigned using the data stream element defined by MPEG-2 AAC. It can be carried out.

また、実施の形態2の音声復号装置によれば、符号化パラメータを、MPEG−2 AACで定めるデータストリームエレメントから分離するようにしたので、容易に符号化伝送データから符号化パラメータの分離を行うことができる。   Also, according to the speech decoding apparatus of the second embodiment, since the encoding parameter is separated from the data stream element defined by MPEG-2 AAC, the encoding parameter is easily separated from the encoded transmission data. be able to.

この発明の実施の形態1による音声符号化装置及び音声復号装置を示す構成図である。It is a block diagram which shows the audio | voice encoding apparatus and audio | voice decoding apparatus by Embodiment 1 of this invention. この発明に係る音声伝送フレームADTSの構成図である。It is a block diagram of the audio | voice transmission frame ADTS which concerns on this invention. この発明に係るデータブロック識別子の説明図である。It is explanatory drawing of the data block identifier which concerns on this invention. この発明に係るデータストリームエレメントの構成図である。It is a block diagram of the data stream element based on this invention.

符号の説明Explanation of symbols

100 音声符号化装置、101 音声符号化部、102 符号化パラメータ変換部、103 入力チャンネル情報入力部、104 第1番入力端子、105 第2番入力端子、106 第3番入力端子、107,108,109,211,212,213 デジタル音声信号、110 符号化伝送データ、111 入力チャンネル情報、112,113,114,115 符号化パラメータ、200 音声復号装置、201 音声復号部、202 出力チャンネル判定部、203 出力チャンネル選択部、204 第1番出力端子、205 第2番出力端子、206 第3番出力端子、210 出力チャンネル情報。   DESCRIPTION OF SYMBOLS 100 Speech coding apparatus, 101 Speech coding part, 102 Encoding parameter conversion part, 103 Input channel information input part, 104 1st input terminal, 105 2nd input terminal, 106 3rd input terminal, 107,108 , 109, 211, 212, 213 Digital audio signal, 110 encoded transmission data, 111 input channel information, 112, 113, 114, 115 encoding parameter, 200 audio decoding device, 201 audio decoding unit, 202 output channel determination unit, 203 output channel selection unit, 204 first output terminal, 205 second output terminal, 206 third output terminal, 210 output channel information.

Claims (6)

MPEG−2 AAC音声符号化を行う音声符号化装置であって、
音声信号と入力端子との対応関係を任意に決定する入力チャンネル情報に基づいて前記音声信号に対応した符号化パラメータを決定する符号化パラメータ変換部と、
前記音声信号を符号化すると共に、当該音声符号化信号に、前記符号化パラメータ変換部から出力された符号化パラメータを付与し、符号化伝送データとして出力する音声符号化部とを備えた音声符号化装置。
An audio encoding device that performs MPEG-2 AAC audio encoding,
An encoding parameter conversion unit that determines an encoding parameter corresponding to the audio signal based on input channel information that arbitrarily determines a correspondence relationship between the audio signal and the input terminal;
A speech code comprising: a speech encoding unit that encodes the speech signal, adds the encoding parameter output from the encoding parameter conversion unit to the speech encoded signal, and outputs the encoded parameter as encoded transmission data Device.
符号化パラメータは、MPEG−2 AACで定めるエレメントインスタンスタグを用いて付与することを特徴とする請求項1記載の音声符号化装置。   The speech encoding apparatus according to claim 1, wherein the encoding parameter is assigned by using an element instance tag defined by MPEG-2 AAC. 符号化パラメータは、MPEG−2 AACで定めるデータストリームエレメントを用いて付与することを特徴とする請求項1記載の音声符号化装置。   The audio encoding apparatus according to claim 1, wherein the encoding parameter is assigned using a data stream element defined by MPEG-2 AAC. MPEG−2 AAC音声復号を行う音声復号装置であって、
符号化伝送データから音声信号を復号すると共に、前記符号化伝送データを送出した音声符号化装置における音声信号と入力端子との対応関係を任意に決定する入力チャンネル情報に基づいて生成された符号化パラメータを分離する音声復号部と、
前記音声復号部で分離された符号化パラメータに基づいて、前記復号された音声信号の出力端子を判定する出力チャンネル判定部とを備えた音声復号装置。
An audio decoding device that performs MPEG-2 AAC audio decoding,
Encoding generated based on input channel information for arbitrarily determining a correspondence between an audio signal and an input terminal in an audio encoding device that has decoded the audio signal from the encoded transmission data and sent out the encoded transmission data A speech decoder for separating parameters;
An audio decoding apparatus comprising: an output channel determination unit that determines an output terminal of the decoded audio signal based on the encoding parameter separated by the audio decoding unit.
符号化パラメータは、MPEG−2 AACで定めるエレメントインスタンスタグから分離されることを特徴とする請求項4記載の音声復号装置。   5. The speech decoding apparatus according to claim 4, wherein the encoding parameter is separated from an element instance tag defined by MPEG-2 AAC. 符号化パラメータは、MPEG−2 AACで定めるデータストリームエレメントから分離されることを特徴とする請求項4記載の音声復号装置。   5. The audio decoding apparatus according to claim 4, wherein the encoding parameter is separated from a data stream element defined by MPEG-2 AAC.
JP2006137997A 2006-05-17 2006-05-17 Voice encoding apparatus and voice decoding apparatus Pending JP2007310087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006137997A JP2007310087A (en) 2006-05-17 2006-05-17 Voice encoding apparatus and voice decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006137997A JP2007310087A (en) 2006-05-17 2006-05-17 Voice encoding apparatus and voice decoding apparatus

Publications (1)

Publication Number Publication Date
JP2007310087A true JP2007310087A (en) 2007-11-29

Family

ID=38843012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006137997A Pending JP2007310087A (en) 2006-05-17 2006-05-17 Voice encoding apparatus and voice decoding apparatus

Country Status (1)

Country Link
JP (1) JP2007310087A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515771B2 (en) 2009-09-01 2013-08-20 Panasonic Corporation Identifying an encoding format of an encoded voice signal

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0831096A (en) * 1994-07-12 1996-02-02 Matsushita Electric Ind Co Ltd Audio data coding recorder and audio data decoding reproducing device
JPH11330980A (en) * 1998-05-13 1999-11-30 Matsushita Electric Ind Co Ltd Decoding device and method and recording medium recording decoding procedure
JP2002329372A (en) * 2002-03-12 2002-11-15 Toshiba Corp Audio information recording medium and reproducing device
WO2005038778A1 (en) * 2003-10-17 2005-04-28 Koninklijke Philips Electronics N.V. Signal encoding
JP2005157390A (en) * 2003-11-26 2005-06-16 Samsung Electronics Co Ltd Method and apparatus for encoding/decoding mpeg-4 bsac audio bitstream having ancillary information
WO2005112002A1 (en) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. Audio signal encoder and audio signal decoder
WO2006004048A1 (en) * 2004-07-06 2006-01-12 Matsushita Electric Industrial Co., Ltd. Audio signal encoding device, audio signal decoding device, method thereof and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0831096A (en) * 1994-07-12 1996-02-02 Matsushita Electric Ind Co Ltd Audio data coding recorder and audio data decoding reproducing device
JPH11330980A (en) * 1998-05-13 1999-11-30 Matsushita Electric Ind Co Ltd Decoding device and method and recording medium recording decoding procedure
JP2002329372A (en) * 2002-03-12 2002-11-15 Toshiba Corp Audio information recording medium and reproducing device
WO2005038778A1 (en) * 2003-10-17 2005-04-28 Koninklijke Philips Electronics N.V. Signal encoding
JP2005157390A (en) * 2003-11-26 2005-06-16 Samsung Electronics Co Ltd Method and apparatus for encoding/decoding mpeg-4 bsac audio bitstream having ancillary information
WO2005112002A1 (en) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. Audio signal encoder and audio signal decoder
WO2006004048A1 (en) * 2004-07-06 2006-01-12 Matsushita Electric Industrial Co., Ltd. Audio signal encoding device, audio signal decoding device, method thereof and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515771B2 (en) 2009-09-01 2013-08-20 Panasonic Corporation Identifying an encoding format of an encoded voice signal

Similar Documents

Publication Publication Date Title
JP5442995B2 (en) Multi-channel audio signal encoding / decoding system, recording medium and method
KR100904438B1 (en) Method and apparatus for processing an audio signal
TWI584271B (en) Encoding apparatus and encoding method thereof, decoding apparatus and decoding method thereof, computer program
JP2006317575A (en) Audio decoding device
CN101926181B (en) Method and apparatus for processing audio signal
US8326609B2 (en) Method and apparatus for an audio signal processing
JP2009514008A (en) Multi-channel audio signal encoding and decoding method and apparatus
TWI483619B (en) Apparatus for encoding/decoding media signal and method thereof
US8199828B2 (en) Method of processing a signal and apparatus for processing a signal
JP5365363B2 (en) Acoustic signal processing system, acoustic signal decoding apparatus, processing method and program therefor
KR101842258B1 (en) Method for signal processing, encoding apparatus thereof, and decoding apparatus thereof
JP2007310087A (en) Voice encoding apparatus and voice decoding apparatus
JP2007243650A (en) Decoding method and decoding apparatus
CN102918589B (en) The audio or video signal of decoding of the watermark derived from the audio or video signal of the watermark with low rate encoding and decoding is provided
CN107342090B (en) Audio signal encoding and decoding methods, audio signal encoder and audio signal decoder
US9412384B2 (en) Broadcast transmitting/playback apparatus and method thereof
JP5384943B2 (en) Audio data encoding and / or decoding method, recording medium and system
JP2008286904A (en) Audio decoding device
US8270617B2 (en) Method, medium, and apparatus encoding and/or decoding extension data for surround
JP4065383B2 (en) Audio signal transmitting apparatus, audio signal receiving apparatus, and audio signal transmission system
CN112752199B (en) Sound card left and right sound channel independent control device and method based on ALSA framework
JPH07193514A (en) Transmission line code selecting data transmission system
JP3959317B2 (en) Digital audio processing device
RU2021109480A (en) CONVERTING AUDIO SIGNALS CAPTURED IN DIFFERENT FORMATS TO A REDUCED NUMBER OF FORMATS TO SIMPLIFY ENCODING AND DECODING OPERATIONS
JPH08181674A (en) Voice information transmission system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070920

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110927