WO2015098564A1 - 復号化装置および方法、並びにプログラム - Google Patents

復号化装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2015098564A1
WO2015098564A1 PCT/JP2014/082925 JP2014082925W WO2015098564A1 WO 2015098564 A1 WO2015098564 A1 WO 2015098564A1 JP 2014082925 W JP2014082925 W JP 2014082925W WO 2015098564 A1 WO2015098564 A1 WO 2015098564A1
Authority
WO
WIPO (PCT)
Prior art keywords
gain
value
interpolation
sample position
sample
Prior art date
Application number
PCT/JP2014/082925
Other languages
English (en)
French (fr)
Inventor
優樹 山本
徹 知念
本間 弘幸
潤宇 史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to MX2016008172A priority Critical patent/MX2016008172A/es
Priority to JP2015554741A priority patent/JP6593173B2/ja
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020227002138A priority patent/KR102513009B1/ko
Priority to EP14873206.8A priority patent/EP3089161B1/en
Priority to MYPI2016702261A priority patent/MY188538A/en
Priority to KR1020237009428A priority patent/KR20230042410A/ko
Priority to BR112016014476-7A priority patent/BR112016014476B1/pt
Priority to AU2014371411A priority patent/AU2014371411A1/en
Priority to KR1020167015462A priority patent/KR102356012B1/ko
Priority to CN201480069805.XA priority patent/CN105849801B/zh
Priority to EP19199358.3A priority patent/EP3608909B1/en
Priority to SG11201605015XA priority patent/SG11201605015XA/en
Priority to CA2934602A priority patent/CA2934602C/en
Priority to US15/106,498 priority patent/US10692511B2/en
Priority to RU2016124464A priority patent/RU2667627C1/ru
Publication of WO2015098564A1 publication Critical patent/WO2015098564A1/ja
Priority to US16/867,730 priority patent/US11705140B2/en
Priority to US18/129,380 priority patent/US20230245665A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G11/00Limiting amplitude; Limiting rate of change of amplitude ; Clipping in general
    • H03G11/008Limiting amplitude; Limiting rate of change of amplitude ; Clipping in general of digital or coded signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • H03G7/002Volume compression or expansion in amplifiers in untuned or low-frequency amplifiers, e.g. audio amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • H03G7/007Volume compression or expansion in amplifiers of digital or coded signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G9/00Combinations of two or more types of control, e.g. gain control and tone control
    • H03G9/005Combinations of two or more types of control, e.g. gain control and tone control of digital or coded signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0012Smoothing of parameters of the decoder interpolation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0324Details of processing therefor
    • G10L21/034Automatic adjustment
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G9/00Combinations of two or more types of control, e.g. gain control and tone control

Definitions

  • the present technology relates to a decoding apparatus and method, and a program, and more particularly, to a decoding apparatus and method and a program that can obtain higher-quality sound.
  • MPEG Motion Picture Experts Group
  • AAC Advanced Audio Coding
  • DRC Dynamic Range Compression
  • the audio signal can be downmixed on the playback side, or appropriate volume control can be performed by DRC.
  • DRC gain information for volume control can be specified as auxiliary information for DRC in units of frames of the audio signal.
  • the volume of the audio signal is based on the DRC gain information. By performing the correction, it is possible to obtain sound with an appropriate volume.
  • the gain indicated by such DRC gain information has the same value for each sample in one frame of the audio signal that is a time signal. That is, all samples included in one frame are corrected with the same gain.
  • This technology has been made in view of such a situation, and is intended to obtain higher-quality sound.
  • the decoding device includes a gain reading unit that reads out encoded gain values of at least two gain sample positions of a time-series signal, and the gain value at each sample position of the time-series signal. Based on the gain value of the gain sample position, an interpolation information reading unit that reads interpolation information indicating whether to obtain by linear interpolation or nonlinear interpolation, and between the two gain sample positions of the time series signal An interpolation processing unit that obtains the gain value at each sample position by linear interpolation or nonlinear interpolation according to the interpolation information.
  • the gain reading unit further reads a gain inclination value indicating the inclination of the gain value at the gain sample position
  • the interpolation processing unit obtains the gain value by nonlinear interpolation, Based on the gain value and the gain slope value, the gain value at each sample position between the two gain sample positions can be obtained.
  • the decoding apparatus includes a limiting processing unit that performs a limiting process on the gain value obtained by nonlinear interpolation so that the gain value is a value that is equal to or greater than a predetermined lower limit value or a value that is equal to or less than a predetermined upper limit value. Further, it can be provided.
  • the limiting processing unit can be subjected to a limiting process with 0 as a lower limit value, a limiting process with 1 as a lower limit value, or a limiting process with 1 as an upper limit value.
  • the decoding apparatus takes the gain value at the gain sample position at the gain sample position, obtains a straight line having a slope indicated by the gain slope value at the gain sample position, and obtains the two gains.
  • a calculation unit is further provided for calculating a difference between the gain value at the intersection of the straight lines obtained for each of the sample positions and the gain value of each of the two gain sample positions, and the interpolation processing unit includes the interpolation information.
  • the gain value is obtained by linear interpolation
  • the interpolation information is information indicating that the gain value is obtained by non-linear interpolation, depending on the difference
  • the gain value can be obtained by nonlinear interpolation or linear interpolation.
  • the decoding method or program reads the encoded gain values of at least two gain sample positions of the time-series signal and linearly interpolates the gain values at the respective sample positions of the time-series signal.
  • Interpolation information indicating whether to obtain by the non-linear interpolation, and based on the gain value of the gain sample position, the gain at each sample position between the two gain sample positions of the time series signal A value is obtained by linear interpolation or nonlinear interpolation according to the interpolation information.
  • encoded gain values of at least two gain sample positions of the time series signal are read, and the gain values at each sample position of the time series signal are obtained by linear interpolation.
  • interpolation information indicating whether to obtain by non-linear interpolation, and based on the gain value of the gain sample position, the gain value at each sample position between the two gain sample positions of the time series signal Is determined by linear interpolation or nonlinear interpolation according to the interpolation information.
  • the decoding device includes: a gain reading unit that reads an encoded gain value of at least two gain sample positions of a time-series signal; and a gain inclination value indicating an inclination of the gain value; At the gain sample position, the gain value at the gain sample position is taken and a straight line having a slope indicated by the gain slope value at the gain sample position is obtained, and the straight line obtained for each of the two gain sample positions.
  • a calculation unit for obtaining a difference between the gain value at the intersection of the two gain sample positions and the gain value at each of the two gain sample positions, and according to the difference, between the two gain sample positions of the time-series signal.
  • An interpolation processing unit for obtaining the gain value at each sample position by linear interpolation or nonlinear interpolation.
  • the decoding method or program reads an encoded gain value at at least two gain sample positions of a time-series signal and a gain slope value indicating a slope of the gain value, and the gain sample At the position, a straight line having the gain value at the gain sample position and having a slope indicated by the gain slope value at the gain sample position is obtained, and the intersection of the straight lines obtained for each of the two gain sample positions. And the gain value of each of the two gain sample positions is determined, and according to the difference, each sample position between the two gain sample positions of the time series signal is determined. Determining the gain value by linear interpolation or non-linear interpolation.
  • an encoded gain value of at least two gain sample positions of the time-series signal and a gain slope value indicating a slope of the gain value are read out, and the gain sample position is A straight line that takes the gain value at the gain sample position and has a slope indicated by the gain slope value at the gain sample position is obtained, and the gain at the intersection of the straight lines obtained for each of the two gain sample positions.
  • a difference between each gain value at each of the two gain sample positions, and according to the difference, the difference between the two gain sample positions of the time-series signal and The gain value is obtained by linear interpolation or non-linear interpolation.
  • This technology encodes the gain value when the volume of the audio signal is corrected on the playback side, and multiplexes the gain code sequence obtained by encoding the gain value and the signal code sequence obtained by encoding the audio signal. And a technique for decoding the gain code sequence and the signal code sequence and correcting the volume of the audio signal.
  • the gain value for volume correction may be a dB value or a linear value, but the description will be continued below assuming that the gain value is a linear value.
  • some of the gain values at each sample position in the frame such as characteristic positions such as inflection points of the gain waveform, and gain values at positions arranged at predetermined intervals, etc. If only the gain value at the position is encoded to obtain a gain code string, the code amount of the gain code string can be reduced.
  • a method for obtaining the original gain waveform for example, a method of obtaining a gain value at a sample position not included in the gain code string by performing linear interpolation as shown in FIG.
  • the vertical axis and the horizontal axis indicate the gain value and the sample position in the frame of the audio signal, respectively.
  • the sample position where the gain code string includes the encoded gain value is also referred to as a gain sample position.
  • a point on the gain waveform represented by the encoded sample position and the gain value included in the gain code string is also simply referred to as a gain sample position.
  • information on the gain sample position G11 and the gain sample position G12 is obtained by decoding the gain code string.
  • the gain value at the kth gain sample position in the frame is g [k]
  • the sample length (number of samples) in the sample axis direction from the kth gain sample position to the (k + 1) th gain sample position is T [ k].
  • n an index indicating the position of the nth sample from the beginning of the frame.
  • the gain waveform between the gain sample position G11 and the gain sample position G12 obtained by linear interpolation is a waveform indicated by a straight line L11. That is, between the gain sample position G11 and the gain sample position G12, the gain value at each sample position is obtained by interpolation on the assumption that the gain value changes linearly.
  • the gain waveform is estimated by linear interpolation, for example, as shown by a curve C11 in FIG. 2, when a smooth gain waveform is to be encoded, the number of gain sample positions to be encoded, that is, the number of gain sample positions is indicated. Will increase.
  • the vertical axis and the horizontal axis indicate the gain value and the sample position in the frame of the audio signal, respectively.
  • the gain waveform shown by the curve C11 is a smooth waveform. Therefore, if the decoding side tries to reproduce the gain waveform with a certain degree of accuracy, the gain values are encoded at many gain sample positions. Necessary. If it does so, the code amount of the bit stream obtained by multiplexing a gain code sequence and a signal code sequence, ie, a bit rate will become high.
  • new nonlinear interpolation is also performed as appropriate in order to obtain higher sound quality speech with a smaller code amount. That is, a more appropriate method is selected from linear interpolation and non-linear interpolation, and interpolation processing is performed to generate a gain waveform.
  • the nonlinear interpolation can be, for example, interpolation using a quadratic function or a cubic function.
  • a waveform shown by a curve C21 in FIG. 3 is obtained as a gain waveform between the gain sample position G11 and the gain sample position G12 shown in FIG.
  • the vertical axis and the horizontal axis indicate the gain value and the sample position in the frame of the audio signal, respectively. 3 corresponding to those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
  • the gain code string includes information indicating the sample position, gain value, and gain inclination value of the gain sample position G11, and information indicating the sample position, gain value, and gain inclination value of the gain sample position G12. include.
  • the gain slope value is information indicating the slope at the gain sample position of the original gain waveform.
  • the gain slope value at the kth gain sample position is represented by s [k].
  • the arrow D11 represents the gain slope value s [k] at the gain sample position G11
  • the arrow D12 represents the gain slope value s [k + 1] at the gain sample position G12.
  • the gain waveform between the gain sample position G11 and the gain sample position G12 is obtained by nonlinear interpolation using a cubic function, and as a result, the gain waveform shown in the curve C21 is obtained.
  • the gain waveform shown in the curve C21 passes, for example, the gain sample position G11 and the gain sample position G12, and the slopes at the gain sample position G11 and the gain sample position G12 are s [k] and s [k + 1], respectively. It is a curve of the following function.
  • the gain waveform is reproduced with high accuracy with a smaller number of gain sample positions, that is, with a smaller amount of code. be able to.
  • interpolation mode information indicating an interpolation method by linear interpolation or an interpolation method by nonlinear interpolation is included in the gain code string.
  • switching between linear interpolation and nonlinear interpolation is performed according to the interpolation mode information.
  • the interpolation mode information may be, for example, a 2-bit index for switching between linear interpolation, interpolation by a quadratic function, and interpolation by a cubic function, or interpolation by a linear function and a cubic function that is nonlinear interpolation. It may be a 1-bit flag for switching between. That is, the interpolation mode information may be any information as long as it is information indicating a technique for interpolating the gain waveform.
  • the interpolation mode information is information indicating an interpolation method by nonlinear interpolation
  • a gain slope value is included in the gain code string in addition to the gain value for each gain sample position.
  • the gain slope value s [k] indicates a change in gain value per sample.
  • the gain slope value s [k] at the kth gain sample position is expressed by a point on the gain waveform at the kth gain sample position, a point on the gain waveform at the sample position next to the kth gain sample position, and The slope of the straight line connecting The gain slope value may be obtained in any way as long as it is a value indicating the slope at the gain sample position on the gain waveform.
  • the gain slope value may be stored in the gain code string as it is, or an entropy coded value such as a quantized value of the gain slope value or a Huffman coded value of the gain slope value is stored in the gain code string. You may be made to do.
  • the decoding side reads a gain value for each gain sample position from the gain code string.
  • the index of the kth gain sample position is k
  • the gain value of the kth gain sample position read from the gain code string is g [k].
  • the sample length between the kth gain sample position and the (k + 1) th gain sample position is T [k]
  • the sample length T [k] is the gain code string as information indicating the sample position of the (k + 1) th gain sample position. Is included.
  • the gain value g_interpolated [of the sample n that is between the kth gain sample position and the (k + 1) th gain sample position and that is nth from the beginning (where 0 ⁇ n ⁇ T [k]). n] is calculated by the following equation (1).
  • a [k] and b [k] are values obtained by the following equations (2) and (3), respectively.
  • a [k] and b [k] indicate the slope and intercept of a straight line connecting the kth and k + 1th gain sample positions. Therefore, in this example, as described with reference to FIG. 1, the gain value changes linearly between the kth and k + 1th gain sample positions, and the gain value of each sample n is obtained by linear interpolation. Is required.
  • the decoding side reads the gain value and the gain inclination value for each gain sample position from the gain code string.
  • the gain value at the kth gain sample position is g [k]
  • the sample length between the kth and k + 1th gain sample positions is T [k].
  • the gain slope value at the kth gain sample position is s [k].
  • the gain value g_interpolated [of the sample n that is between the kth gain sample position and the (k + 1) th gain sample position and that is nth from the beginning (where 0 ⁇ n ⁇ T [k]). n] is calculated by the following equation (4).
  • c [k], d [k], e [k], and f [k] are values determined by the following equations (5) to (8), respectively.
  • the gain value is changed by the cubic function shown in Expression (4) between the k-th and k + 1-th gain sample positions. That is, the gain value of each sample n is obtained by interpolation using a cubic function.
  • a smooth gain waveform such as that shown in FIG. 2 can be encoded at a lower bit rate, thereby improving encoding efficiency. Can do.
  • FIG. 4 is a diagram illustrating a configuration example of an embodiment of an encoding device to which the present technology is applied.
  • the encoding device 11 includes a sound pressure level calculation circuit 21, a gain calculation circuit 22, a gain encoding circuit 23, a signal encoding circuit 24, and a multiplexing circuit 25.
  • the sound pressure level calculation circuit 21 calculates the sound pressure level of each channel constituting the input time series signal based on the input time series signal that is the supplied multi-channel audio signal, and the sound pressure for each channel.
  • the representative value of the level is obtained as the representative sound pressure level.
  • a frame that is a processing unit in the sound pressure level calculation circuit 21 is synchronized with a frame of an input time-series signal that is processed by a signal encoding circuit 24 described later, and has a length equal to or shorter than the frame in the signal encoding circuit 24 Frame.
  • the sound pressure level calculation circuit 21 supplies the obtained representative sound pressure level to the gain calculation circuit 22.
  • the representative sound pressure level obtained in this way indicates the representative sound pressure level of the channel of the input time series signal composed of the audio signals of a predetermined number of channels such as 11.1ch.
  • the gain calculation circuit 22 calculates a gain value based on the representative sound pressure level supplied from the sound pressure level calculation circuit 21 and supplies the gain value to the gain encoding circuit 23.
  • the gain value indicates the gain value when the volume of the input time series signal is corrected so that the sound having the optimum volume can be obtained when the input time series signal is reproduced on the decoding side.
  • a gain value is calculated for each sample position in the frame.
  • the gain encoding circuit 23 encodes the gain value supplied from the gain calculation circuit 22 and supplies the gain code string obtained as a result to the multiplexing circuit 25.
  • the gain code string includes gain information for obtaining a gain value at each gain sample position and interpolation mode information.
  • the signal encoding circuit 24 encodes the supplied input time-series signal by a predetermined encoding method, for example, a general encoding method represented by an encoding method by MEPG AAC, and a signal code string obtained as a result Is supplied to the multiplexing circuit 25.
  • a predetermined encoding method for example, a general encoding method represented by an encoding method by MEPG AAC, and a signal code string obtained as a result Is supplied to the multiplexing circuit 25.
  • the multiplexing circuit 25 multiplexes the gain code string supplied from the gain encoding circuit 23 and the signal code string supplied from the signal encoding circuit 24, and outputs the output code string obtained as a result.
  • the encoding device 11 When the input time-series signal is supplied for one frame, the encoding device 11 performs an encoding process of encoding the input time-series signal and outputting an output code string.
  • the encoding process performed by the encoding device 11 will be described with reference to the flowchart of FIG.
  • step S 11 the sound pressure level calculation circuit 21 calculates a representative sound pressure level of the input time series signal based on the supplied input time series signal, and supplies it to the gain calculation circuit 22.
  • the sound pressure level calculation circuit 21 calculates the sound pressure level of each channel constituting the input time-series signal, and sets the representative value of the sound pressure level of those channels as the representative sound pressure level.
  • the calculation method of the sound pressure level is the maximum value of the voice signal frame of the channel constituting the input time series signal or RMS (Root (Mean Square), etc., and the input time series signal is calculated for the input time series signal frame. A sound pressure level is obtained for each channel to be configured.
  • a representative value calculation method for representative sound pressure levels for example, a method in which the maximum value of the sound pressure levels of each channel in the same frame is used as a representative value, or a specific calculation based on the sound pressure level of each channel.
  • a method of calculating one representative value using an equation can be used.
  • the representative value can be calculated using a loudness calculation formula described in ITU-R BS.1770-2 (03/2011).
  • step S 12 the gain calculation circuit 22 calculates a gain value based on the representative sound pressure level supplied from the sound pressure level calculation circuit 21 and supplies the gain value to the gain encoding circuit 23.
  • the gain calculation circuit 22 calculates the gain value according to the DRC characteristic designated by the host control device.
  • the DRC characteristic specified by the host controller can be a DRC characteristic as shown in FIG. 6, for example.
  • the horizontal axis indicates the input sound pressure level (dBFS), that is, the representative sound pressure level
  • the vertical axis indicates the output sound pressure level (dBFS), that is, the input time-series signal with sound pressure level correction (volume). The sound pressure level after the correction is shown.
  • a broken line L31 and a broken line L32 indicate the relationship between the input and output sound pressure levels. For example, according to the DRC characteristic indicated by the broken line L31, when a representative sound pressure level of 0 dBFS is input, the sound volume is corrected so that the sound pressure level of the input time-series signal is ⁇ 27 dBFS.
  • the sound volume is corrected so that the sound pressure level of the input time-series signal becomes -21 dBFS.
  • the gain value is determined in accordance with the DRC characteristic indicated by the broken line L31 and the broken line L32. This gain value is output as a gain waveform synchronized with the frame of the signal encoding circuit 24. That is, the gain calculation circuit 22 calculates a gain value for each sample constituting the frame that is the processing target of the input time-series signal.
  • the gain calculation circuit 22 calculates the following equation (9) to obtain the gain waveform g (J, n) in the frame J.
  • Equation (9) n indicates the position of a sample that takes a value from 0 to N ⁇ 1 when the frame length is N, and Gt (J) is the above-described DRC characteristic, that is, the input sound pressure.
  • the target gain in the frame J determined by the level and the output sound pressure level is shown.
  • a in equation (9) is a value determined by the following equation (10).
  • Equation (10) Fs indicates a sampling frequency (Hz)
  • Tc (J) indicates a time constant in frame J
  • exp (x) indicates an exponential function.
  • step S ⁇ b> 13 the gain encoding circuit 23 performs a gain encoding process to encode the gain value supplied from the gain calculation circuit 22. Then, the gain encoding circuit 23 supplies the gain code string obtained by the gain encoding process to the multiplexing circuit 25.
  • the gain encoding circuit 23 extracts the gain sample position to be encoded from the gain value of each sample position supplied from the gain calculation circuit 22, that is, the gain waveform of the frame to be processed.
  • a characteristic sample such as an inflection point in the gain waveform may be set as the gain sample position, or each sample arranged at a predetermined interval may be set as the gain sample position.
  • the gain encoding circuit 23 generates interpolation mode information and gain information for each gain sample position extracted in this way.
  • the gain encoding circuit 23 generates interpolation mode information by performing so-called local decoding.
  • the gain encoding circuit 23 generates a gain waveform between two adjacent gain sample positions by interpolation for linear interpolation and nonlinear interpolation, and calculates a difference between the gain waveform and the actual gain waveform. Then, the gain encoding circuit 23 generates information indicating an interpolation method with a smaller difference as interpolation mode information.
  • linear interpolation is used when the gain sample position to be processed is the same as the gain sample position immediately before and the gain slope value at the previous gain sample position is 0, and otherwise. May be non-linear interpolation. Further, linear interpolation or non-linear interpolation may be specified by a host control device.
  • the gain encoding circuit 23 encodes the sample length T [k] indicating the sample position, the gain value g [k], and the gain slope value s [k] as necessary for each gain sample position.
  • Information is information indicating an interpolation method by linear interpolation, gain information including only the sample length and the gain value and not including the gain inclination value is generated.
  • the gain encoding circuit 23 supplies the multiplexing code 25 with the gain code string including the gain information and the interpolation mode information of each gain sample position obtained in this way.
  • step S14 the signal encoding circuit 24 encodes the supplied input time-series signal in accordance with a predetermined encoding method, and supplies the resulting signal code string to the multiplexing circuit 25.
  • step S15 the multiplexing circuit 25 multiplexes the gain code string supplied from the gain encoding circuit 23 and the signal code string supplied from the signal encoding circuit 24, and outputs the output code string obtained as a result. To do. When the output code string for one frame is output as a bit stream in this way, the encoding process ends. Then, the encoding process for the next frame is performed.
  • the encoding device 11 obtains a gain value for each sample in the frame of the input time-series signal, extracts a gain sample position, and obtains a gain code including gain information and interpolation mode information at each gain sample position. Generate a column.
  • the gain waveform between frames of the audio signal is smoothly connected on the decoding side, so that higher-quality sound can be obtained.
  • the gain waveform can be reproduced with high accuracy with a smaller code amount by appropriately using nonlinear interpolation.
  • FIG. 7 is a diagram illustrating a configuration example of an embodiment of a decoding device to which the present technology is applied.
  • the 7 has a demultiplexing circuit 61, a signal decoding circuit 62, a gain decoding circuit 63, and a gain application circuit 64.
  • the demultiplexing circuit 61 demultiplexes the supplied input code string, that is, the output code string received from the encoding device 11, supplies the signal code string obtained as a result to the signal decoding circuit 62, and gain The code string is supplied to the gain decoding circuit 63.
  • the signal decoding circuit 62 decodes the signal code string supplied from the non-multiplexing circuit 61 and supplies the time series signal obtained as a result to the gain application circuit 64.
  • the time-series signal is, for example, a 11.1ch or 7.1ch audio signal
  • the audio signal of each channel constituting the time-series signal is a PCM (Pulse Code Modulation) signal.
  • the gain decoding circuit 63 decodes the gain code string supplied from the demultiplexing circuit 61 and supplies the gain value obtained as a result to the gain application circuit 64.
  • the gain decoding circuit 63 includes an interpolation processing unit 71.
  • the interpolation processing unit 71 performs time series by linear interpolation or nonlinear interpolation based on gain information obtained from the gain code string and interpolation mode information. The gain value at each sample position of the signal is calculated.
  • the gain application circuit 64 adjusts the volume of the time series signal by adjusting the gain of the time series signal supplied from the signal decoding circuit 62 based on the gain value supplied from the gain decoding circuit 63, and The output time series signal obtained as a result is output.
  • the decoding device 51 When the input code string is supplied for one frame, the decoding device 51 performs a decoding process of decoding the input code string and outputting an output time series signal.
  • the decoding processing by the decoding device 51 will be described with reference to the flowchart of FIG.
  • step S41 the demultiplexing circuit 61 receives and demultiplexes the input code string transmitted from the encoding device 11, supplies the resulting signal code string to the signal decoding circuit 62, and gain The code string is supplied to the gain decoding circuit 63.
  • step S42 the signal decoding circuit 62 decodes the signal code string supplied from the demultiplexing circuit 61, and supplies the time series signal obtained as a result to the gain application circuit 64.
  • step S43 the gain decoding circuit 63 performs gain decoding processing, decodes the gain code string supplied from the demultiplexing circuit 61, and gain values at the respective sample positions of the processing target frame obtained as a result. Is supplied to the gain application circuit 64. Details of the gain decoding process will be described later.
  • step S44 the gain application circuit 64 adjusts the gain of the time series signal supplied from the signal decoding circuit 62 based on the gain value supplied from the gain decoding circuit 63, and the obtained output time series signal is obtained. Is output. That is, each sample of the time series signal is multiplied by the gain value to obtain an output time series signal having an appropriate volume.
  • the decoding device 51 decodes the gain code string, applies the gain value at each sample position obtained to the time-series signal, and adjusts the gain (volume) in the time domain.
  • the gain adjustment with the gain value determined for each sample position, the time waveform between frames of the output time-series signal can be connected smoothly, and higher-quality sound can be obtained.
  • the gain waveform is appropriately obtained using nonlinear interpolation, the gain waveform can be reproduced with high accuracy with a smaller code amount even when the gain waveform is a smooth waveform.
  • step S71 the gain decoding circuit 63 reads the gain information of the gain sample position to be processed from the gain code string supplied from the demultiplexing circuit 61, and the sample length included as gain information as necessary. T [k], gain value g [k], and gain slope value s [k] are decoded.
  • the gain information does not include a gain slope value.
  • gain information and interpolation mode information at each gain sample position are arranged and stored in the order of a short distance from the head of the frame. Since the gain decoding circuit 63 sequentially reads the gain information and the interpolation mode information from the gain code string, the gain decoding circuit 63 sequentially sets the gain sample position to be processed from the gain sample position close to the head of the frame.
  • step S72 the gain decoding circuit 63 reads the interpolation mode information of the gain sample position to be processed from the gain code string.
  • the interpolation mode information may be included in a header of a bit stream including the input code string of each frame. Then, the interpolation mode information may be acquired from a host control device or the like.
  • step S73 the interpolation processing unit 71 determines whether or not the interpolation method indicated by the read interpolation mode information is a linear interpolation method.
  • step S74 the interpolation processing unit 71 performs linear interpolation to generate a gain waveform.
  • the interpolation processing unit 71 sets the gain value g [k] and the sample length T [k ⁇ 1] at the gain sample position to be processed and the beginning of one frame from the gain sample position to be processed. Based on the gain value and the sample position at a certain gain sample position, a calculation similar to the above-described equation (1) is performed to generate a gain waveform between the gain sample positions. That is, the gain value at each sample position between two gain sample positions of the time-series signal is calculated, and a waveform composed of the gain values at each sample position is set as a gain waveform.
  • step S76 When a gain waveform between two adjacent gain sample positions is obtained in this way, the process proceeds to step S76.
  • step S75 the interpolation processing unit 71 performs nonlinear interpolation to generate a gain waveform.
  • the interpolation processing unit 71 calculates the gain value g [k], the sample length T [k ⁇ 1], the gain slope value s [k] of the gain sample position to be processed, and the gain sample position to be processed. Based on the gain value, the sample position, and the gain slope value of the gain sample position on the head side of one frame, the same calculation as the above equation (4) is performed, and the gain waveform between the gain sample positions is calculated. Generate. That is, the gain value at each sample position between two gain sample positions of the time-series signal is calculated, and a waveform composed of the gain values at each sample position is set as a gain waveform.
  • step S76 When a gain waveform between two adjacent gain sample positions is obtained in this way, the process proceeds to step S76.
  • step S76 the gain decoding circuit 63 determines whether or not all gain sample positions have been processed.
  • step S76 If it is determined in step S76 that all gain sample positions have not yet been processed, the process returns to step S71 and the above-described process is repeated. That is, the next gain sample position is selected as a processing target, and a gain waveform is obtained by interpolation.
  • step S76 determines the gain for one frame consisting of the gain values at the respective sample positions obtained by the above processing.
  • the waveform is supplied to the gain application circuit 64, and the gain decoding process ends.
  • the process proceeds to step S44 in FIG.
  • the decoding device 51 obtains a gain waveform by linear interpolation or nonlinear interpolation according to the interpolation mode information. As described above, by appropriately obtaining the gain waveform by nonlinear interpolation according to the interpolation mode information, the gain waveform can be accurately reproduced with a smaller code amount.
  • interpolation mode information is generated for each gain sample position and linear interpolation or nonlinear interpolation is switched has been described.
  • one interpolation mode information may be generated in one frame.
  • linear interpolation and nonlinear interpolation are switched in units of frames.
  • linear interpolation and non-linear interpolation may be switched in units of multiple frames or in units of one file.
  • one interpolation mode information is stored in the header of the bit stream.
  • the interpolation processing unit 71 performs interpolation processing for each frame by the interpolation method indicated by the interpolation mode information, that is, by either linear interpolation or nonlinear interpolation, and obtains a gain waveform for one file.
  • the gain waveform obtained by non-linear interpolation is different from the gain waveform obtained by linear interpolation, at the sample position between two gain sample positions, from the gain values of the two gain sample positions included in the gain code string. May take a large or small value.
  • the gain value obtained by nonlinear interpolation may be a negative value that is inappropriate as the gain value. Therefore, in order to prevent the gain value obtained by interpolation from becoming an inappropriate value, the following equation (11) is calculated to limit the gain value to 0 as the lower limit value. It may be.
  • the following equation (12) may be calculated to limit the gain value to 1 as the lower limit value.
  • the larger gain value g_interpolated [n] obtained by interpolation and 1 is the final gain value g_interpolated [n]. Therefore, the gain value does not become a value less than 1. In other words, the gain value is always 1 or more, which is the lower limit value.
  • the gain value when it is desired to compress a time-series signal, if the gain value is larger than 1, the gain value becomes an inappropriate value. Therefore, when compressing a time-series signal, the following equation (13) may be calculated to limit the gain value to 1 as an upper limit value.
  • the smaller one of the gain value g_interpolated [n] and 1 obtained by interpolation is set as the final gain value g_interpolated [n]. Therefore, the gain value does not become a value larger than 1. In other words, the gain value is always a value of 1 or less, which is the upper limit value.
  • the information about the encoded gain waveform is whether the gain waveform is for boost or for compression.
  • Limiting information indicating whether or not there is provided to the gain decoding circuit 63.
  • the limiting information may be supplied to the gain decoding circuit 63 from a higher-level control device, or the limiting information may be included in a gain code string, a bit stream header, or the like.
  • the description will be continued assuming that the gain code string includes limiting information.
  • the gain code string includes limiting information.
  • a gain code string including limiting information is generated.
  • the decoding device 51 is configured as shown in FIG. 10, for example.
  • the same reference numerals are given to the portions corresponding to those in FIG. 7, and the description thereof is omitted as appropriate.
  • the configuration of the decoding device 51 shown in FIG. 10 is different from the decoding device 51 of FIG. 7 in that the gain processing circuit 101 is newly provided with a limiting processing unit 101, and the other configuration is the decoding of FIG.
  • the configuration is the same as that of the device 51.
  • the limiting processing unit 101 performs a limiting process on the gain value calculated by performing nonlinear interpolation by the interpolation processing unit 71 to obtain a final gain value.
  • the decoding process described with reference to FIG. 8 is performed.
  • the gain decoding process shown in FIG. 11 is performed.
  • the gain decoding process performed by the decoding device 51 of FIG. 10 will be described with reference to the flowchart of FIG.
  • or step S105 is the same as the process of step S71 thru
  • step S106 the limiting processing unit 101 performs the calculation of the above-described formula (11) on the gain value at each sample position obtained in the process of step S105 so that the gain value does not become a negative value.
  • the gain value is changed as appropriate.
  • the limiting processing unit 101 further applies either the expression (12) or the expression (13) to the gain value limited by the calculation of the expression (11) according to the limiting information included in the gain code string.
  • the final gain value is obtained by performing such calculation.
  • the limiting processing unit 101 performs the calculation of Expression (12) to obtain the gain value. Avoid values less than 1.
  • the limiting processing unit 101 calculates the gain value by calculating Equation (13). Is not greater than 1.
  • step S107 When a gain waveform is generated by linear interpolation in step S104 or a limiting process is performed in step S106, the process of step S107 is performed and the gain decoding process is terminated, but the process of step S107 is the same as that of FIG. Since it is the same as the process of S76, its description is omitted.
  • the decoding device 51 performs the limiting process on the gain value obtained by nonlinear interpolation. As a result, gain adjustment (volume correction) can be performed with a more appropriate gain value. Therefore, higher quality sound can be obtained.
  • the vertical axis and the horizontal axis indicate the gain value and the sample position, respectively.
  • a kth gain sample position G21 and a (k + 1) th gain sample position G22 are extracted, and a gain code including a gain value, a sample length, and a gain slope value at those gain sample positions is extracted.
  • a column is obtained.
  • the arrow D21 represents the gain slope value s [k] of the gain sample position G21
  • the arrow D22 represents the gain slope value s [k + 1] of the gain sample position G22.
  • the decoding apparatus 51 performs nonlinear interpolation using a cubic function based on the gain value, the sample length, and the gain slope value included in the gain code string, and obtains a gain waveform indicated by a curve C31.
  • the difference between the gain waveform indicated by the curve C31 obtained by nonlinear interpolation and the original gain waveform indicated by the broken line L41 is large.
  • the encoding device 11 needs to perform processing (local decoding) such as calculating and adjusting the gain waveform obtained by nonlinear interpolation for the gain value and gain slope value to be encoded. As a result, the amount of encoding processing increases.
  • the straight line l [k] is a straight line that passes through the kth gain sample position (point) on the gain waveform and has a slope indicated by the gain slope value s [k]. That is, the straight line l [k] is the gain value g [of the kth gain sample position as the value of the coordinate in the gain axis direction when the value of the coordinate in the sample axis direction is the same value as the kth gain sample position. k] and a straight line having a slope indicated by the gain slope value s [k].
  • the straight line l [k + 1] passes through the k + 1th gain sample position and has a slope indicated by the gain slope value s [k + 1].
  • d_sample [k] and d_sample [k + 1] are the distances in the sample axis direction from the kth and k + 1th gain sample positions to the intersection X [k, k + 1], respectively.
  • d_gain [k] and d_gain [k + 1] are the distances in the gain axis direction from the kth and k + 1th gain sample positions to the intersection X [k, k + 1], that is, the gain value difference. Show.
  • thre_sample and thre_gain indicate a threshold value for the distance in the sample axis direction and a threshold value for the distance in the gain axis direction, respectively.
  • the distance d_sample [k] the distance d_gain [k] the distance d_sample [k + 1]
  • the distance d_gain [k + 1] are obtained by the following equations (15) to (18), respectively.
  • abs (x) indicates that an absolute value of x is obtained.
  • the gain sample position G31 indicates the kth gain sample position
  • the arrow D31 indicates the gain slope value s [k] of the gain sample position G31. Therefore, the straight line L51 becomes a straight line l [k].
  • the gain sample position G32 indicates the (k + 1) th gain sample position
  • the arrow D32 indicates the gain slope value s [k + 1] of the gain sample position G32. Therefore, the straight line L52 is a straight line l [k + 1].
  • the intersection point CP11 which is the intersection point between the straight line L51 and the straight line L52, becomes the intersection point X [k, k + 1].
  • the region TR11 is centered on the gain sample position G31, and the lengths in the vertical direction and the horizontal direction in the figure are 2 ⁇ thre_gain and 2 ⁇ thre_sample, respectively.
  • the region TR12 is centered on the gain sample position G32, and the lengths in the vertical direction and the horizontal direction in the figure are 2 ⁇ thre_gain and 2 ⁇ thre_sample, respectively.
  • the original gain waveform to be reproduced should be a waveform close to the waveform formed by the straight line L51 and the straight line L52. That is, in more detail, the waveform from the gain sample position G31 to the intersection point CP11 should be a waveform close to the straight line L51, and the waveform from the intersection point CP11 to the gain sample position G32 should be a waveform close to the straight line L52.
  • the intersection point CP11 is located in the region TR12, the distance between the intersection point CP11 and the gain sample position G32 is sufficiently short, and the original gain waveform is a straight line connecting the gain sample position G31 and the gain sample position G32. It can be approximated to be.
  • the gain waveform between the gain sample position G31 and the gain sample position G32 it can be said that the gain value changes almost linearly. Therefore, the gain waveform is obtained by linear interpolation rather than by nonlinear interpolation. However, the gain waveform can be reproduced with higher accuracy. Therefore, in the present technology, when the conditional expression shown in the above expression (14) is satisfied, the gain waveform is obtained by linear interpolation.
  • the gain value at each sample position between the gain sample position G31 and the gain sample position G32 is obtained by linear interpolation, and for example, the gain waveform shown in FIG. 14 is obtained.
  • FIG. 14 portions corresponding to those in FIG. 13 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • a straight line L61 connecting the gain sample position G31 and the gain sample position G32 is obtained as a gain waveform between the gain sample position G31 and the gain sample position G32.
  • the gain waveform is obtained by linear interpolation.
  • the original gain waveform is not increased without increasing the coding processing amount.
  • the gain waveform after decoding can be made smaller.
  • the decoding device 51 When linear interpolation is performed under specific conditions, the decoding device 51 is configured as shown in FIG. 15, for example.
  • FIG. 15 parts corresponding to those in FIG. 7 are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
  • the configuration of the decoding device 51 shown in FIG. 15 is different from the decoding device 51 of FIG. 7 in that a calculation unit 131 is newly provided in the gain decoding circuit 63, and the other configuration is the decoding device of FIG. 51 and the same configuration.
  • the calculation unit 131 calculates the conditional expression shown in the above-described expression (14).
  • the encoding device 11 performs the encoding process described with reference to FIG. 5, but the gain encoding process in step S13 includes only gain information and does not include interpolation mode information. Are generated, and an output code string obtained by multiplexing is output. In this case, the gain information always includes a gain slope value.
  • the decoding process described with reference to FIG. 8 is performed.
  • the gain decoding process shown in FIG. 16 is performed.
  • the gain decoding process performed by the decoding device 51 shown in FIG. 15 will be described with reference to the flowchart shown in FIG.
  • step S131 is the same as the process of step S71 of FIG. 9, the description is abbreviate
  • step S132 the calculation unit 131 calculates the conditional expression shown in Expression (14) based on the read gain information.
  • the calculation unit 131 performs the same calculation as the above-described Expressions (15) to (18) based on the gain value, the sample length, and the gain inclination value of the gain sample position read as gain information. Then, the calculation unit 131 calculates Expression (14) based on the distance from the gain sample position obtained as a result to the intersection X [k, k + 1].
  • the calculation of Expressions (15) to (18) is to obtain the straight line l [k] and the straight line l [k + 1] and the intersection X [k, k + 1] of these straight lines. And the difference between the gain value at each of the k-th and k + 1-th gain sample positions and the gain value at the intersection X [k, k + 1] is obtained.
  • the calculation of the conditional expression (14) is to determine whether or not the gain value difference between the gain sample position and the intersection X [k, k + 1] is equal to or smaller than a predetermined threshold value. .
  • each sample between the two gain sample positions by linear interpolation or nonlinear interpolation according to the difference between the gain value at the gain sample position and the gain value at the intersection X [k, k + 1]. It can be said that the gain value of the position is obtained.
  • step S133 the interpolation processing unit 71 determines whether to perform linear interpolation based on the calculation result of the conditional expression in step S132. For example, when the conditional expression shown by Expression (14) is satisfied, it is determined that linear interpolation is performed.
  • step S134 the interpolation processing unit 71 performs linear interpolation to generate a gain waveform, and then the process proceeds to step S136.
  • step S134 the same process as the process of step S74 of FIG. 9 is performed.
  • step S133 if it is determined in step S133 that linear interpolation is not performed, in step S135, the interpolation processing unit 71 performs nonlinear interpolation to generate a gain waveform, and then the process proceeds to step S136. In step S135, processing similar to that in step S75 in FIG. 9 is performed.
  • step S136 When the gain waveform is generated in step S134 or step S135, the process of step S136 is performed and the gain decoding process is terminated, but the process of step S136 is the same as the process of step S76 in FIG. Description is omitted.
  • the decoding device 51 generates a gain waveform by linear interpolation under a specific condition. As a result, it is possible to obtain a gain waveform with higher accuracy with a smaller amount of processing and to further reduce the code amount of the output code string.
  • the linear interpolation is performed under a specific condition.
  • the gain value may be linearly interpolated using the gain sample position and the intersection.
  • the gain value at each sample position between the two gain sample positions is calculated by linear interpolation according to Equation (1).
  • a waveform composed of the straight lines connecting the two straight lines L51 and the intersection CP11 of the straight lines L52 and the two gain sample positions is obtained by linear interpolation.
  • Gain waveform the same reference numerals are given to the portions corresponding to those in FIG. 13, and description thereof will be omitted as appropriate.
  • a straight line connecting the gain sample position G31 and the intersection point CP11 and a broken line L71 consisting of a straight line connecting the gain sample position G32 and the intersection point CP11 are gain waveforms between the gain sample position G31 and the gain sample position G32.
  • the gain sample from the gain sample position G31 is encoded when the gain waveform is encoded.
  • the number of gain sample positions needs to be three or more.
  • the gain sample position G31, the intersection CP11, and the gain sample position G32 are not set as gain sample positions when the gain waveform is encoded, the difference between the gain waveform before encoding and the gain waveform obtained by decoding (Error) will occur.
  • the gain waveform before encoding can be obtained simply by setting the gain sample position G31 and the gain sample position G32 as the gain sample positions. And the gain waveform obtained by decoding can be reduced. Therefore, in the method of performing linear interpolation using the intersection, the number of gain sample positions can be reduced, thereby suppressing the bit rate of the output code string and improving the coding efficiency.
  • intersection of the two straight lines must be located between the two gain sample positions.
  • intersection CP11 must be located between the gain sample position G31 and the gain sample position G32 in the sample axis direction.
  • the region used for determining whether to perform nonlinear interpolation or linear interpolation differs between the example of FIG. 13 and the example of FIG. In the example of FIG. 17, when the intersection point CP11 is included in either the region TR21 or the region TR22, linear interpolation using the intersection point is performed.
  • the region TR21 is a right half region of the region TR11 shown in FIG. 13, that is, a region on the right side in FIG. 13 from the gain sample position G31 in the region TR11.
  • the region TR22 is a left half region of the region TR12 shown in FIG. 13, that is, a region on the left side in FIG. 13 from the gain sample position G32 in the region TR12.
  • the distance d_sample [k] is the distance d_gain [k]
  • the distance d_sample [k + 1] is obtained by the following equations (20) to (23), respectively.
  • the sample position of the intersection X [k, k + 1], that is, the intersection point X [k , k + 1] is T ′ [k]
  • the sample position T ′ [k] is obtained by the following equation (24).
  • g_interpolated [n] is calculated by the following equation (25).
  • a1 [k] and b1 [k] in equation (25) are values determined by the following equations (26) and (27), respectively.
  • A1 [k] and b1 [k] indicate the slope and intercept of the straight line connecting the kth gain sample position and the intersection X [k, k + 1]. Therefore, in this example, as described with reference to FIG. 17, the gain value is assumed to change linearly between the kth gain sample position G31 and the intersection CP11, and the gain of each sample n is obtained by linear interpolation. A value is being sought.
  • the gain value g_interpolated [n] is calculated by the following equation (28).
  • a2 [k] and b2 [k] in equation (28) are values obtained by the following equations (29) and (30), respectively.
  • A2 [k] and b2 [k] indicate the slope and intercept of a straight line connecting the intersection X [k, k + 1] and the (k + 1) th gain sample position. Therefore, in this example, as described with reference to FIG. 17, the gain value is assumed to change linearly between the intersection CP11 and the (k + 1) th gain sample position G32, and the gain of each sample n is obtained by linear interpolation. A value is being sought.
  • step S132 the calculation unit 131 is based on the read gain information. Then, the conditional expression shown in Expression (19) is calculated.
  • the interpolation processing unit 71 in step S134 is based on the gain value, the sample length, and the gain slope value of the gain sample position read as gain information. Then, the sample position T ′ [k] of the intersection X [k, k + 1] is calculated by the equation (24). Further, the interpolation processing unit 71 calculates Equation (25) and Equation (28) using the obtained sample position T ′ [k], and generates a gain waveform by linear interpolation.
  • the interpolation processing unit 71 performs nonlinear interpolation in Step S135 to generate a gain waveform.
  • the original gain waveform before encoding and the gain obtained by decoding can be obtained without increasing the amount of processing during encoding.
  • the difference from the gain waveform to be generated can be reduced.
  • the interpolation mode information is included in the gain code string, and the gain waveform is basically obtained by the interpolation method indicated by the interpolation mode information.
  • the interpolation method indicated by the interpolation mode information is a method based on nonlinear interpolation. In this case, linear interpolation may be performed under specific conditions.
  • the decoding device 51 performs the decoding process described with reference to FIG. However, in the gain decoding process corresponding to step S43, the gain decoding process shown in FIG. 18 is performed.
  • the gain decoding process performed by the decoding device 51 shown in FIG. 15 will be described below with reference to the flowchart shown in FIG.
  • or step S164 is the same as the process of step S71 thru
  • step S165 the calculation unit 131 calculates the conditional expression shown in the expression (14) based on the read gain information.
  • step S166 to step S168 is performed. Since these processing are the same as the processing from step S133 to step S135 in FIG. 16, the description thereof is omitted.
  • steps S165 to S168 the process described in the third embodiment may be performed, or the process described in the first modification of the third embodiment may be performed. Good. Further, when nonlinear interpolation is performed, a limiting process may be performed.
  • step S164 When a gain waveform is generated by interpolation in step S164, step S167, or step S168, the process proceeds to step S169.
  • step S169 the gain decoding circuit 63 determines whether or not all gain sample positions have been processed.
  • step S169 If it is determined in step S169 that all gain sample positions have not yet been processed, the process returns to step S161, and the above-described processing is repeated.
  • step S169 if it is determined in step S169 that all gain sample positions have been processed, the gain decoding circuit 63 obtains one frame consisting of the gain values at the respective sample positions obtained by the above processing.
  • the gain waveform is supplied to the gain application circuit 64, and the gain decoding process ends.
  • the process proceeds to step S44 in FIG.
  • the decoding device 51 obtains a gain waveform by linear interpolation or nonlinear interpolation according to the interpolation mode information. As described above, by appropriately obtaining the gain waveform by nonlinear interpolation according to the interpolation mode information, the gain waveform can be accurately reproduced with a smaller code amount.
  • the interpolation method indicated by the interpolation mode information is a method based on nonlinear interpolation
  • linear interpolation is performed under specific conditions, thereby reducing the amount of coding processing and achieving higher accuracy.
  • the gain waveform can be reproduced.
  • the code amount of the output code string can be further reduced.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 19 is a block diagram showing an example of a hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded in, for example, a removable medium 511 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • a gain reading unit that reads out encoded gain values of at least two gain sample positions of the time-series signal;
  • An interpolation information reading unit that reads interpolation information indicating whether the gain value at each sample position of the time series signal is obtained by linear interpolation or nonlinear interpolation;
  • Interpolation that determines the gain value at each sample position between two gain sample positions of the time-series signal based on the gain value at the gain sample position by linear interpolation or nonlinear interpolation according to the interpolation information
  • a decoding device comprising: a processing unit.
  • the gain reading unit further reads a gain inclination value indicating an inclination of the gain value at the gain sample position,
  • the gain at each sample position between the two gain sample positions is based on the gain value and the gain slope value at the gain sample position.
  • the decoding device according to (1) wherein a value is obtained.
  • the limiting processing unit performs a limiting process with 0 as a lower limit value, a limiting process with 1 as a lower limit value, or a limiting process with 1 as an upper limit value.
  • the gain value at the gain sample position is taken and a straight line having a slope indicated by the gain slope value at the gain sample position is obtained, and each of the two gain sample positions is obtained.
  • a calculation unit that obtains a difference between the gain value at the intersection of the straight lines and the gain value at each of the two gain sample positions;
  • the interpolation processing unit obtains the gain value by linear interpolation, and indicates that the interpolation information obtains the gain value by nonlinear interpolation.
  • the gain value is obtained by nonlinear interpolation or linear interpolation according to the difference.
  • a decoding method including: (7) Read the encoded gain values of at least two gain sample positions of the time series signal, Read interpolation information indicating whether the gain value at each sample position of the time series signal is obtained by linear interpolation or nonlinear interpolation; Obtaining the gain value at each sample position between the two gain sample positions of the time-series signal by linear interpolation or nonlinear interpolation according to the interpolation information based on the gain value at the gain sample position; A decoding method including: (7) Read the encoded gain values of at least two gain sample positions of the time series signal, Read interpolation information indicating whether the gain value at each sample position of the time series signal is obtained by linear interpolation or nonlinear interpolation; Obtaining the gain value at each sample position between the two gain sample positions of the time-series signal by linear interpolation or nonlinear interpolation according to the interpolation information based on the gain value at the gain sample position; A program that causes a computer to execute processing including (8) A gain reading unit that reads out encode
  • a decoding apparatus comprising: an interpolation processing unit that obtains the gain value at each sample position between the two gain sample positions of the time-series signal according to the difference by linear interpolation or nonlinear interpolation. (9) Read the encoded gain value of at least two gain sample positions of the time series signal and the gain slope value indicating the slope of the gain value; In the gain sample position, the gain value of the gain sample position is taken, and a straight line having a slope indicated by the gain slope value of the gain sample position is obtained, and each of the two gain sample positions is obtained.
  • a decoding method including a step of obtaining the gain value at each sample position between the two gain sample positions of the time series signal by linear interpolation or nonlinear interpolation according to the difference. (10) Read the encoded gain value of at least two gain sample positions of the time series signal and the gain slope value indicating the slope of the gain value; In the gain sample position, the gain value of the gain sample position is taken, and a straight line having a slope indicated by the gain slope value of the gain sample position is obtained, and each of the two gain sample positions is obtained.
  • a program for causing a computer to execute processing including a step of obtaining the gain value at each sample position between the two gain sample positions of the time-series signal by linear interpolation or nonlinear interpolation according to the difference.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Stereophonic System (AREA)

Abstract

 本技術は、より高音質な音声を得ることができるようにする復号化装置および方法、並びにプログラムに関する。 非多重化回路は、入力符号列をゲイン符号列と信号符号列とに非多重化する。信号復号化回路は、信号符号列を復号化して時系列信号を出力する。ゲイン復号化回路は、ゲイン符号列を復号化する。すなわち、ゲイン復号化回路は、ゲイン符号列から、時系列信号の所定のゲインサンプル位置のゲイン値およびゲイン傾き値と、補間モード情報とを読み出す。そして、補間処理部は、ゲイン値およびゲイン傾き値に基づいて、補間モード情報に応じて、線形補間または非線形補間により、2つのゲインサンプル位置間の各サンプル位置のゲイン値を求める。ゲイン適用回路は、ゲイン値に基づいて時系列信号のゲイン調整を行う。本技術は、復号化装置に適用することができる。

Description

復号化装置および方法、並びにプログラム
 本技術は復号化装置および方法、並びにプログラムに関し、特に、より高音質な音声を得ることができるようにした復号化装置および方法、並びにプログラムに関する。
 従来、MPEG(Moving Picture Experts Group) AAC(Advanced Audio Coding)(ISO/IEC14496-3:2001)のオーディオ符号化技術では、ビットストリーム中にダウンミックスやDRC(Dinamic Range Compression)の補助情報を記録し、再生側でその環境に応じて補助情報を使用することができる(例えば、非特許文献1参照)。
 このような補助情報を用いれば、再生側において音声信号をダウンミックスしたり、DRCにより適切な音量制御を行ったりすることができる。
Information technology Coding of audiovisual objects Part 3:Audio(ISO/IEC 14496-3:2001)
 例えば上述した符号化技術では、DRCの補助情報として音量制御のためのDRCゲイン情報を音声信号のフレーム単位で指定することができ、再生側においては、このDRCゲイン情報に基づいて音声信号の音量補正を行うことで、適切な音量の音声を得ることができる。
 しかしながら、このようなDRCゲイン情報により示されるゲインは、時間信号である音声信号の1フレーム内の各サンプルに対して同じ値となってしまう。つまり、1フレームに含まれる全サンプルが同じゲインで補正される。
 そのため、例えばフレーム間でDRCゲイン情報により示されるゲインの大きさが大きく変化すると、音声信号の時間波形のフレーム間の部分が不連続になってしまい、聴感上の劣化が生じてしまう。
 本技術は、このような状況に鑑みてなされたものであり、より高音質な音声を得ることができるようにするものである。
 本技術の第1の側面の復号化装置は、時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出すゲイン読み出し部と、前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出す補間情報読み出し部と、前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める補間処理部とを備える。
 前記ゲイン読み出し部には、前記ゲインサンプル位置における前記ゲイン値の傾きを示すゲイン傾き値をさらに読み出させ、前記補間処理部には、非線形補間により前記ゲイン値を求める場合、前記ゲインサンプル位置の前記ゲイン値および前記ゲイン傾き値に基づいて、前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を求めさせることができる。
 復号化装置には、前記ゲイン値が所定の下限値以上の値または所定の上限値以下の値となるように、非線形補間により求められた前記ゲイン値に対してリミティング処理を施すリミティング処理部をさらに設けることができる。
 前記リミティング処理部には、0を下限値とするリミティング処理、1を下限値とするリミティング処理、または1を上限値とするリミティング処理を施させることができる。
 復号化装置には、前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、前記2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求める演算部をさらに設け、前記補間処理部には、前記補間情報が線形補間により前記ゲイン値を求めることを示す情報である場合、線形補間により前記ゲイン値を求めさせ、前記補間情報が非線形補間により前記ゲイン値を求めることを示す情報である場合、前記差に応じて非線形補間または線形補間により前記ゲイン値を求めさせることができる。
 本技術の第1の側面の復号化方法またはプログラムは、時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出し、前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出し、前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求めるステップを含む。
 本技術の第1の側面においては、時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値が読み出され、前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報が読み出され、前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値が、前記補間情報に応じて線形補間または非線形補間により求められる。
 本技術の第2の側面の復号化装置は、時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出すゲイン読み出し部と、前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求める演算部と、前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める補間処理部とを備える。
 本技術の第2の側面の復号化方法またはプログラムは、時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出し、前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求め、前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求めるステップを含む。
 本技術の第2の側面においては、時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値が読み出され、前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線が求められ、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差が求められ、前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値が線形補間または非線形補間により求められる。
 本技術の第1の側面および第2の側面によれば、より高音質な音声を得ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
ゲインの線形補間について説明する図である。 ゲイン波形の例を示す図である。 ゲインの非線形補間について説明する図である。 符号化装置の構成例を示す図である。 符号化処理を説明するフローチャートである。 DRC特性を示す図である。 復号化装置の構成例を示す図である。 復号化処理を説明するフローチャートである。 ゲイン復号化処理を説明するフローチャートである。 復号化装置の構成例を示す図である。 ゲイン復号化処理を説明するフローチャートである。 ゲイン波形の補間について説明する図である。 ゲイン波形の補間について説明する図である。 ゲイン波形の補間について説明する図である。 復号化装置の構成例を示す図である。 ゲイン復号化処理を説明するフローチャートである。 ゲイン波形の補間について説明する図である。 ゲイン復号化処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術の概要〉
 本技術は、音声信号を再生側で音量補正するときのゲイン値を符号化し、ゲイン値の符号化により得られたゲイン符号列と、音声信号の符号化により得られた信号符号列とを多重化して伝送する技術、およびこれらのゲイン符号列と信号符号列を復号化し、音声信号の音量補正を行う技術に関するものである。
 本技術では、音量補正のためのゲイン値として、音声信号のフレーム内のサンプルごとに任意の値を指定することで、より滑らかな時間波形の音声を得ることができるようになされている。これにより、違和感のない高音質な音声を得ることができる。ここで、音量補正のためのゲイン値はdB値とされてもよいし、リニア値とされてもよいが、以下ではゲイン値がリニア値であるものとして説明を続ける。
 また、ゲイン値の符号化時に、例えばフレーム内の各サンプル位置のゲイン値のうち、ゲイン波形の変局点等の特徴的な位置や、所定間隔で並ぶ位置のゲイン値など、一部のサンプル位置のゲイン値のみを符号化してゲイン符号列とすれば、ゲイン符号列の符号量を削減することもできる。
 この場合、ゲイン符号列の復号化側では、ゲイン符号列の復号化により得られたいくつかのサンプル位置のゲイン値に基づいて、もとのゲイン波形を得る必要がある。
 ここで、もとのゲイン波形を得るための手法として、例えば図1に示すように線形補間を行うことで、ゲイン符号列に含まれていないサンプル位置のゲイン値を求める手法が考えられる。
 なお、図1において縦軸および横軸は、それぞれゲイン値、および音声信号のフレーム内のサンプル位置を示している。
 また、以下、ゲイン符号列に、符号化されたゲイン値が含まれているサンプル位置を、特にゲインサンプル位置とも称することとする。さらに、以下では、ゲイン符号列に含まれている符号化されたサンプル位置およびゲイン値により表される、ゲイン波形上の点も単にゲインサンプル位置とも称することとする。
 図1の例では、ゲインサンプル位置G11とゲインサンプル位置G12の情報がゲイン符号列の復号化により得られている。
 ここで、フレーム内のk番目のゲインサンプル位置のゲイン値をg[k]とし、k番目のゲインサンプル位置からk+1番目のゲインサンプル位置までのサンプル軸方向のサンプル長(サンプル数)をT[k]と表すとする。
 この場合、k番目のゲインサンプル位置G11のサンプル位置がn=0であるとすると、ゲインサンプル位置G11は、座標(0,g[k])で表される点となり、ゲインサンプル位置G12は、座標(T[k],g[k+1])で表される点となる。ここで、nはフレームの先頭からn番目のサンプルの位置であることを示すインデックスである。
 また、線形補間により得られる、ゲインサンプル位置G11とゲインサンプル位置G12の間のゲイン波形は、直線L11に示す波形となる。すなわち、ゲインサンプル位置G11とゲインサンプル位置G12の間では、ゲイン値が線形に変化するものとして補間により各サンプル位置のゲイン値が求められている。
 ところが、線形補間によりゲイン波形を推定すると、例えば図2の曲線C11に示すように、滑らかなゲイン波形を符号化しようとする場合には、ゲイン波形の符号化すべき点、つまりゲインサンプル位置の数が多くなってしまう。なお、図2において、縦軸および横軸は、それぞれゲイン値、および音声信号のフレーム内のサンプル位置を示している。
 この例では、曲線C11に示すゲイン波形は滑らかな波形となっているため、復号化側において、ある程度の精度でゲイン波形を再現しようとすると、多くのゲインサンプル位置でのゲイン値の符号化が必要となる。そうすると、ゲイン符号列と信号符号列を多重化して得られるビットストリームの符号量、すなわちビットレートが高くなってしまう。
 そこで、本技術では、より少ない符号量でより高音質な音声を得ることができるようにするために、線形補間に加えて、新たに非線形補間も適宜行うようにした。すなわち、線形補間と非線形補間のうち、より適切な方式が選択されて補間処理が行われ、ゲイン波形が生成されるようにした。なお、非線形の補間は、例えば2次関数や3次関数での補間とすることができる。
 例えば、3次関数を利用した非線形補間が行われる場合、図1に示したゲインサンプル位置G11とゲインサンプル位置G12の間のゲイン波形として、図3の曲線C21に示す波形が得られる。なお、図3において縦軸および横軸は、それぞれゲイン値、および音声信号のフレーム内のサンプル位置を示している。また、図3において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、ゲイン符号列には、ゲインサンプル位置G11のサンプル位置、ゲイン値、およびゲイン傾き値を示す情報と、ゲインサンプル位置G12のサンプル位置、ゲイン値、およびゲイン傾き値を示す情報とが含まれている。
 ここで、ゲイン傾き値とは、もとのゲイン波形のゲインサンプル位置における傾きを示す情報である。以下では、k番目のゲインサンプル位置のゲイン傾き値をs[k]で表すこととする。
 図3では、矢印D11がゲインサンプル位置G11のゲイン傾き値s[k]を表しており、矢印D12がゲインサンプル位置G12のゲイン傾き値s[k+1]を表している。
 復号化側では、ゲインサンプル位置G11とゲインサンプル位置G12の間のゲイン波形が3次関数を利用した非線形補間により求められ、その結果として曲線C21に示すゲイン波形が得られている。
 曲線C21に示すゲイン波形は、例えばゲインサンプル位置G11とゲインサンプル位置G12を通り、かつゲインサンプル位置G11およびゲインサンプル位置G12における傾きが、それぞれs[k]およびs[k+1]となる3次関数の曲線とされる。
 このように適宜、非線形補間を利用することで、ゲイン波形が滑らかな波形である場合であっても、より少ないゲインサンプル位置の符号化、つまりより少ない符号量で高精度にゲイン波形を再現することができる。
 本技術では、例えば線形補間と非線形補間を切り替えるためのパラメータとして、線形補間による補間方式または非線形補間による補間方式を示す補間モード情報がゲイン符号列に含まれている。そして、復号化側では、この補間モード情報に応じて線形補間と非線形補間の切り替えが行われる。
 ここで補間モード情報は、例えば線形補間、2次関数による補間、3次関数による補間を切り替えるための2ビットのインデックスであってもよいし、線形補間と、非線形補間である3次関数による補間とを切り替えるための1ビットのフラグであってもよい。すなわち、補間モード情報は、ゲイン波形を補間する手法を示す情報であれば、どのようなものであってもよい。
 さらに、本技術では、補間モード情報が非線形補間による補間方式を示す情報とされた場合、ゲインサンプル位置ごとに、ゲイン値に加えてゲイン傾き値がゲイン符号列に含まれるようになされている。
 ここでゲイン傾き値s[k]は、1サンプルあたりのゲイン値の変化を示している。例えば、k番目のゲインサンプル位置のゲイン傾き値s[k]は、k番目のゲインサンプル位置におけるゲイン波形上の点と、k番目のゲインサンプル位置の次のサンプル位置におけるゲイン波形上の点とを結ぶ直線の傾きとされる。なお、ゲイン傾き値は、ゲイン波形上のゲインサンプル位置における傾きを示す値であれば、どのように求められてもよい。
 なお、ゲイン傾き値がそのままゲイン符号列に格納されるようにしてもよいし、ゲイン傾き値の量子化値や、ゲイン傾き値のハフマン符号化値などのエントロピ符号化値がゲイン符号列に格納されるようにしてもよい。
〈線形補間について〉
 さらに、2つのゲインサンプル位置の間の各サンプル位置のゲイン値を線形補間する方法および非線形補間する方法の具体例について説明する。まず、線形補間する方法について説明する。
 補間モード情報により線形補間が行われるとされた場合、復号化側では、ゲイン符号列からゲインサンプル位置ごとにゲイン値が読み出される。
 ここで、k番目のゲインサンプル位置のインデックスをkとし、ゲイン符号列から読み出された、k番目のゲインサンプル位置のゲイン値をg[k]とする。また、k番目のゲインサンプル位置からk+1番目のゲインサンプル位置の間のサンプル長をT[k]とし、k+1番目のゲインサンプル位置のサンプル位置を示す情報としてサンプル長T[k]がゲイン符号列に含まれているとする。
 いま、k番目のゲインサンプル位置がフレームの先頭位置、つまりn=0番目のサンプル位置であるとする。そのような場合、k番目のゲインサンプル位置と、k+1番目のゲインサンプル位置との間にある、先頭からn番目(但し、0≦n<T[k])にあるサンプルnのゲイン値g_interpolated[n]は、次式(1)により算出される。
Figure JPOXMLDOC01-appb-M000001
 なお、式(1)においてa[k]およびb[k]は、それぞれ以下の式(2)および式(3)により求まる値とされる。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 すなわち、a[k]およびb[k]は、k番目とk+1番目のゲインサンプル位置を結ぶ直線の傾きと切片を示している。したがって、この例では、図1を参照して説明したように、k番目とk+1番目のゲインサンプル位置の間では、ゲイン値が線形に変化するものとされ、線形補間により各サンプルnのゲイン値が求められている。
〈非線形補間について〉
 次に、k番目とk+1番目のゲインサンプル位置の間のサンプルnのゲイン値が非線形補間により求められる場合について説明する。ここでは、非線形補間として、3次関数による補間が行われる場合を例として説明を続ける。
 補間モード情報により非線形補間が行われるとされた場合、復号化側では、ゲイン符号列からゲインサンプル位置ごとにゲイン値とゲイン傾き値が読み出される。
 ここで、線形補間における場合と同様に、k番目のゲインサンプル位置のゲイン値がg[k]であり、k番目とk+1番目のゲインサンプル位置の間のサンプル長がT[k]であるとする。また、k番目のゲインサンプル位置のゲイン傾き値がs[k]であるとする。
 いま、k番目のゲインサンプル位置がフレームの先頭位置、つまりn=0番目のサンプル位置であるとする。そのような場合、k番目のゲインサンプル位置と、k+1番目のゲインサンプル位置との間にある、先頭からn番目(但し、0≦n<T[k])にあるサンプルnのゲイン値g_interpolated[n]は、次式(4)により算出される。
Figure JPOXMLDOC01-appb-M000004
 なお、式(4)においてc[k]、d[k]、e[k]、およびf[k]は、それぞれ以下の式(5)乃至式(8)により求まる値とされる。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 この例では、図3を参照して説明したように、k番目とk+1番目のゲインサンプル位置の間では、式(4)に示す3次関数によってゲイン値が変化するものとされ、非線形補間、つまり3次関数による補間で各サンプルnのゲイン値が求められている。
 以上のように、適宜、非線形補間によりゲイン値を求めることで、例えば図2に示したような滑らかなゲイン波形を、より低いビットレートで符号化することができ、符号化効率を向上させることができる。
〈符号化装置の構成例〉
 続いて、以上において説明した本技術を適用した具体的な実施の形態について説明する。
 図4は、本技術を適用した符号化装置の一実施の形態の構成例を示す図である。
 符号化装置11は、音圧レベル計算回路21、ゲイン計算回路22、ゲイン符号化回路23、信号符号化回路24、および多重化回路25を有している。
 音圧レベル計算回路21は、供給されたマルチチャネルの音声信号である入力時系列信号に基づいて、入力時系列信号を構成する各チャネルの音圧レベルを計算し、それらのチャネルごとの音圧レベルの代表値を代表音圧レベルとして求める。
 なお、音圧レベルの代表値は入力時系列信号の各フレームについて求められる。また、音圧レベル計算回路21で処理単位とされるフレームは、後述する信号符号化回路24で処理される入力時系列信号のフレームと同期し、信号符号化回路24でのフレーム以下の長さのフレームとされる。
 音圧レベル計算回路21は、求めた代表音圧レベルをゲイン計算回路22に供給する。このようにして得られた代表音圧レベルは、例えば11.1chなどの所定数のチャネルの音声信号からなる入力時系列信号のチャネルの代表的な音圧レベルを示している。
 ゲイン計算回路22は、音圧レベル計算回路21から供給された代表音圧レベルに基づいてゲイン値を計算し、ゲイン符号化回路23に供給する。
 ここで、ゲイン値は、復号化側において入力時系列信号を再生したときに最適な音量の音声が得られるように、入力時系列信号を音量補正するときのゲイン値を示しており、ゲイン計算回路22ではフレーム内のサンプル位置ごとにゲイン値が算出される。
 ゲイン符号化回路23は、ゲイン計算回路22から供給されたゲイン値を符号化し、その結果得られたゲイン符号列を多重化回路25に供給する。
 ここで、ゲイン符号列には、各ゲインサンプル位置のゲイン値を得るためのゲイン情報と、補間モード情報とが含まれている。
 信号符号化回路24は、供給された入力時系列信号を所定の符号化方式、例えばMEPG AACによる符号化手法に代表される一般的な符号化手法により符号化し、その結果得られた信号符号列を多重化回路25に供給する。
 多重化回路25は、ゲイン符号化回路23から供給されたゲイン符号列と、信号符号化回路24から供給された信号符号列とを多重化し、その結果得られた出力符号列を出力する。
〈符号化処理の説明〉
 次に、符号化装置11の具体的な動作について説明する。
 符号化装置11は、入力時系列信号が1フレーム分だけ供給されると、その入力時系列信号を符号化して出力符号列を出力する符号化処理を行う。以下、図5のフローチャートを参照して、符号化装置11による符号化処理について説明する。
 ステップS11において、音圧レベル計算回路21は、供給された入力時系列信号に基づいて、入力時系列信号の代表音圧レベルを算出し、ゲイン計算回路22に供給する。
 具体的には、音圧レベル計算回路21は、入力時系列信号を構成する各チャネルの音圧レベルを計算し、それらのチャネルの音圧レベルの代表値を代表音圧レベルとする。
 例えば、音圧レベルの計算方法は、入力時系列信号を構成するチャネルの音声信号のフレームの最大値やRMS(Root Mean Square)などとされ、入力時系列信号のフレームについて、入力時系列信号を構成するチャネルごとに音圧レベルが求められる。
 また、代表音圧レベルとされる代表値の計算方法としては、例えば同じフレームにおける各チャネルの音圧レベルのうちの最大値を代表値とする手法や、各チャネルの音圧レベルから特定の計算式で1つの代表値を算出する手法などを用いることができる。具体的には、例えばITU-R BS.1770-2(03/2011)に記載のラウドネス計算式を用いて代表値を算出することが可能である。
 ステップS12において、ゲイン計算回路22は、音圧レベル計算回路21から供給された代表音圧レベルに基づいてゲイン値を算出し、ゲイン符号化回路23に供給する。
 例えばゲイン計算回路22は、上位の制御装置により指定されたDRC特性に従ってゲイン値を算出する。
 上位の制御装置により指定されるDRC特性は、例えば図6に示すようなDRCの特性とすることができる。なお、図6において、横軸は入力音圧レベル(dBFS)、すなわち代表音圧レベルを示しており、縦軸は出力音圧レベル(dBFS)、すなわち入力時系列信号を音圧レベル補正(音量補正)したときの補正後の音圧レベルを示している。
 折れ線L31および折れ線L32は、それぞれ入出力音圧レベルの関係を示している。例えば、折れ線L31に示されるDRC特性によれば、0dBFSの代表音圧レベルの入力があった場合、入力時系列信号の音圧レベルが-27dBFSとなるように音量補正される。
 一方、例えば折れ線L32に示されるDRC特性によれば、0dBFSの代表音圧レベルの入力があった場合、入力時系列信号の音圧レベルが-21dBFSとなるように音量補正される。
 ゲイン計算回路22では、このような折れ線L31や折れ線L32により示されるDRC特性に従ってゲイン値が決定される。このゲイン値は、信号符号化回路24のフレームと同期したゲイン波形として出力される。すなわち、ゲイン計算回路22では、入力時系列信号の処理対象となっているフレームを構成するサンプルごとにゲイン値が算出される。
 より具体的には、例えばゲイン計算回路22は、次式(9)を計算することで、フレームJにおけるゲイン波形g(J,n)を求める。
Figure JPOXMLDOC01-appb-M000009
 なお、式(9)において、nはフレーム長をNとしたときに0からN-1までの値をとるサンプルの位置を示しており、Gt(J)は上述したDRC特性、すなわち入力音圧レベルと出力音圧レベルによって定まるフレームJにおける目標ゲインを示している。
 また、式(9)におけるAは次式(10)により定まる値とされる。
Figure JPOXMLDOC01-appb-M000010
 式(10)において、Fsはサンプリング周波数(Hz)を示しており、Tc(J)はフレームJにおける時定数を示しており、exp(x)は指数関数を表している。また式(9)において、n=0である場合におけるゲイン波形g(J,n-1)として、直前のフレームにおける最後のサンプルのゲイン値が用いられる。
 図5のフローチャートの説明に戻り、ステップS13において、ゲイン符号化回路23は、ゲイン符号化処理を行って、ゲイン計算回路22から供給されたゲイン値を符号化する。そして、ゲイン符号化回路23は、ゲイン符号化処理により得られたゲイン符号列を多重化回路25に供給する。
 例えば、ゲイン符号化回路23は、ゲイン計算回路22から供給された各サンプル位置のゲイン値、つまり処理対象のフレームのゲイン波形から符号化対象とするゲインサンプル位置を抽出する。例えばゲイン波形における変局点等の特徴的なサンプルがゲインサンプル位置とされるようにしてもよいし、所定間隔で並ぶ各サンプルがゲインサンプル位置とされるようにしてもよい。
 ゲイン符号化回路23は、このようにして抽出したゲインサンプル位置ごとに、補間モード情報とゲイン情報を生成する。
 例えばゲイン符号化回路23は、いわゆるローカルデコードを行うことで、補間モード情報を生成する。
 すなわち、ゲイン符号化回路23は、線形補間と非線形補間について、それぞれ補間により互いに隣接する2つのゲインサンプル位置間のゲイン波形を生成し、そのゲイン波形と実際のゲイン波形との差分を算出する。そして、ゲイン符号化回路23は、求めた差分がより小さい補間方式を示す情報を補間モード情報として生成する。
 なお、線形補間が行われるようにするか、または非線形補間が行われるようにするかは、その他、どのような方法で定められてもよい。例えば、処理対象のゲインサンプル位置と、その直前のゲインサンプル位置とでゲイン値が同じであり、直前のゲインサンプル位置のゲイン傾き値が0である場合に線形補間とされ、それ以外の場合には非線形補間とされるようにしてもよい。また、上位の制御装置により線形補間か非線形補間かが指定されるようにしてもよい。
 また、ゲイン符号化回路23は、各ゲインサンプル位置について、サンプル位置を示すサンプル長T[k]、ゲイン値g[k]、およびゲイン傾き値s[k]を必要に応じて符号化し、ゲイン情報とする。なお、補間モード情報が線形補間による補間方式を示す情報である場合には、サンプル長およびゲイン値のみが含まれ、ゲイン傾き値が含まれていないゲイン情報が生成される。
 ゲイン符号化回路23は、このようにして得られた各ゲインサンプル位置のゲイン情報と補間モード情報とが含まれるゲイン符号列を多重化回路25に供給する。
 ステップS14において、信号符号化回路24は、供給された入力時系列信号を所定の符号化方式に従って符号化し、その結果得られた信号符号列を多重化回路25に供給する。
 ステップS15において、多重化回路25は、ゲイン符号化回路23から供給されたゲイン符号列と、信号符号化回路24から供給された信号符号列を多重化し、その結果得られた出力符号列を出力する。このようにして1フレーム分の出力符号列がビットストリームとして出力されると、符号化処理は終了する。そして、次のフレームの符号化処理が行われる。
 以上のようにして、符号化装置11は、入力時系列信号のフレーム内のサンプルごとにゲイン値を求めてゲインサンプル位置を抽出し、各ゲインサンプル位置のゲイン情報と補間モード情報からなるゲイン符号列を生成する。
 このようにフレーム内においてサンプルごとにゲイン値を定めるようにすることで、復号化側において、音声信号のフレーム間の時間波形が滑らかに接続され、より高音質な音声を得ることができるようになる。しかも、ゲイン符号列に補間モード情報が含まれるようにすることで、適宜、非線形補間を利用し、より少ない符号量で高精度にゲイン波形を再現することができるようになる。
〈復号化装置の構成例〉
 次に、符号化装置11から出力された出力符号列を入力符号列として入力し、入力符号列の復号化を行う復号化装置について説明する。
 図7は、本技術を適用した復号化装置の一実施の形態の構成例を示す図である。
 図7に示す復号化装置51は、非多重化回路61、信号復号化回路62、ゲイン復号化回路63、およびゲイン適用回路64を有している。
 非多重化回路61は、供給された入力符号列、すなわち符号化装置11から受信した出力符号列を非多重化し、その結果得られた信号符号列を信号復号化回路62に供給するとともに、ゲイン符号列をゲイン復号化回路63に供給する。
 信号復号化回路62は、非多重化回路61から供給された信号符号列を復号化し、その結果得られた時系列信号をゲイン適用回路64に供給する。ここで、時系列信号は例えば11.1chや7.1chの音声信号であり、時系列信号を構成する各チャネルの音声信号は、PCM(Pulse Code Modulation)信号とされる。
 ゲイン復号化回路63は、非多重化回路61から供給されたゲイン符号列を復号化し、その結果得られたゲイン値をゲイン適用回路64に供給する。ゲイン復号化回路63は、補間処理部71を有しており、補間処理部71は、ゲイン符号列から得られたゲイン情報と補間モード情報とに基づいて、線形補間または非線形補間により、時系列信号の各サンプル位置のゲイン値を算出する。
 ゲイン適用回路64は、ゲイン復号化回路63から供給されたゲイン値に基づいて、信号復号化回路62から供給された時系列信号のゲイン調整を行うことで、時系列信号を音量補正し、その結果得られた出力時系列信号を出力する。
〈復号化処理の説明〉
 続いて、復号化装置51の動作について説明する。
 復号化装置51は、入力符号列が1フレーム分だけ供給されると、その入力符号列を復号化して出力時系列信号を出力する復号化処理を行う。以下、図8のフローチャートを参照して、復号化装置51による復号化処理について説明する。
 ステップS41において、非多重化回路61は、符号化装置11から送信された入力符号列を受信して非多重化し、その結果得られた信号符号列を信号復号化回路62に供給するとともに、ゲイン符号列をゲイン復号化回路63に供給する。
 ステップS42において、信号復号化回路62は、非多重化回路61から供給された信号符号列を復号化し、その結果得られた時系列信号をゲイン適用回路64に供給する。
 ステップS43において、ゲイン復号化回路63はゲイン復号化処理を行って、非多重化回路61から供給されたゲイン符号列を復号化し、その結果得られた処理対象のフレームの各サンプル位置のゲイン値をゲイン適用回路64に供給する。なお、ゲイン復号化処理の詳細は後述する。
 ステップS44において、ゲイン適用回路64は、ゲイン復号化回路63から供給されたゲイン値に基づいて、信号復号化回路62から供給された時系列信号のゲイン調整を行い、得られた出力時系列信号を出力する。すなわち、時系列信号の各サンプルにゲイン値が乗算されて、適切な音量の出力時系列信号とされる。
 出力時系列信号が出力されると、復号化処理は終了する。
 以上のようにして復号化装置51は、ゲイン符号列を復号化し、得られた各サンプル位置のゲイン値を時系列信号に適用して時間領域でゲイン(音量)を調整する。このようにサンプル位置ごとに定められたゲイン値でゲイン調整を行うことで、出力時系列信号のフレーム間の時間波形を滑らかに接続し、より高音質な音声を得ることができる。
 しかも、適宜、非線形補間を利用してゲイン波形を得るようにしたので、ゲイン波形が滑らかな波形である場合であっても、より少ない符号量で高精度にゲイン波形を再現することができる。
〈ゲイン復号化処理の説明〉
 また、図9のフローチャートを参照して、図8のステップS43の処理に対応するゲイン復号化処理について説明する。
 ステップS71において、ゲイン復号化回路63は、非多重化回路61から供給されたゲイン符号列から処理対象とするゲインサンプル位置のゲイン情報を読み出し、必要に応じてゲイン情報として含まれているサンプル長T[k]、ゲイン値g[k]、およびゲイン傾き値s[k]を復号化する。なお、補間モード情報により示される補間方式が線形補間による補間方式である場合には、ゲイン情報にはゲイン傾き値は含まれていない。
 例えばゲイン符号列には、各ゲインサンプル位置のゲイン情報と補間モード情報が、フレームの先頭からの距離が近い順番に並べられて格納されている。ゲイン復号化回路63は、ゲイン符号列から順番にゲイン情報と補間モード情報を読み出していくので、フレームの先頭に近いゲインサンプル位置から順番に、処理対象のゲインサンプル位置とされていく。
 ステップS72において、ゲイン復号化回路63は、ゲイン符号列から処理対象とするゲインサンプル位置の補間モード情報を読み出す。
 なお、ここでは補間モード情報がゲイン符号列に含まれている例について説明するが、補間モード情報が各フレームの入力符号列が含まれるビットストリームのヘッダ等に含まれているようにしてもよいし、補間モード情報が上位の制御装置等から取得されるようにしてもよい。
 ステップS73において、補間処理部71は、読み出された補間モード情報により示される補間方式が、線形補間による方式であるか否かを判定する。
 ステップS73において、線形補間による方式であると判定された場合、ステップS74において、補間処理部71は、線形補間を行ってゲイン波形を生成する。
 具体的には、補間処理部71は、処理対象のゲインサンプル位置のゲイン値g[k]およびサンプル長T[k-1]と、処理対象のゲインサンプル位置よりも1つフレームの先頭側にあるゲインサンプル位置のゲイン値およびサンプル位置とに基づいて、上述した式(1)と同様の計算を行い、ゲインサンプル位置間のゲイン波形を生成する。すなわち、時系列信号の2つのゲインサンプル位置の間にある各サンプル位置のゲイン値が算出され、それらの各サンプル位置のゲイン値からなる波形がゲイン波形とされる。
 このようにして隣接する2つのゲインサンプル位置間のゲイン波形が得られると、処理はステップS76に進む。
 これに対して、ステップS73において、線形補間による方式でない、すなわち非線形補間による方式であると判定された場合、ステップS75において、補間処理部71は、非線形補間を行ってゲイン波形を生成する。
 具体的には、補間処理部71は、処理対象のゲインサンプル位置のゲイン値g[k]、サンプル長T[k-1]、およびゲイン傾き値s[k]と、処理対象のゲインサンプル位置よりも1つフレームの先頭側にあるゲインサンプル位置のゲイン値、サンプル位置、およびゲイン傾き値とに基づいて、上述した式(4)と同様の計算を行い、ゲインサンプル位置間のゲイン波形を生成する。すなわち、時系列信号の2つのゲインサンプル位置の間にある各サンプル位置のゲイン値が算出され、それらの各サンプル位置のゲイン値からなる波形がゲイン波形とされる。
 このようにして隣接する2つのゲインサンプル位置間のゲイン波形が得られると、処理はステップS76に進む。
 ステップS74またはステップS75において補間によりゲインサンプル位置間のゲイン波形が得られると、ステップS76において、ゲイン復号化回路63は、全てのゲインサンプル位置を処理対象として処理したか否かを判定する。
 ステップS76において、まだ全てのゲインサンプル位置を処理していないと判定された場合、処理はステップS71に戻り、上述した処理が繰り返される。すなわち、次のゲインサンプル位置が処理対象として選択され、ゲイン波形が補間により求められる。
 これに対してステップS76において、全てのゲインサンプル位置を処理したと判定された場合、ゲイン復号化回路63は、これまでの処理で得られた各サンプル位置のゲイン値からなる1フレーム分のゲイン波形をゲイン適用回路64に供給し、ゲイン復号化処理は終了する。ゲイン復号化処理が終了すると、その後、処理は図8のステップS44へと進む。
 以上のようにして復号化装置51は、補間モード情報に応じて線形補間または非線形補間によりゲイン波形を求める。このように、補間モード情報に応じて、適宜、非線形補間によりゲイン波形を得るようにすることで、より少ない符号量で高精度にゲイン波形を再現することができる。
 なお、以上においては、ゲインサンプル位置ごとに補間モード情報が生成され、線形補間または非線形補間が切り替えられる例について説明したが、1フレームで1つの補間モード情報が生成されるようにしてもよい。この場合、フレーム単位で線形補間と非線形補間が切り替えられることになる。
 また、複数フレーム単位や、1ファイル単位で線形補間と非線形補間が切り替えられるようにしてもよい。例えばファイル単位で補間方式の切り替えが行われる場合、例えばビットストリームのヘッダに1つの補間モード情報が格納される。そして、補間処理部71は、その補間モード情報により示される補間方式で、すなわち線形補間または非線形補間の何れかの方式で各フレームの補間処理を行い、1ファイル分のゲイン波形を求める。
〈第2の実施の形態〉
〈リミティングについて〉
 ところで、非線形補間で得られたゲイン波形は、線形補間で得られたゲイン波形とは異なり、2つのゲインサンプル位置間のサンプル位置において、ゲイン符号列に含まれる2つのゲインサンプル位置のゲイン値よりも大きい、または小さい値をとることがある。
 例えば図3に示した例では、非線形補間により得られた、曲線C21により示されるゲイン波形の一部において、ゲインサンプル位置G11のゲイン値g[k]よりも小さいゲイン値となる部分がある。また、曲線C21により示されるゲイン波形の一部において、ゲインサンプル位置G12のゲイン値g[k+1]よりも大きいゲイン値となる部分もある。
 そのため、非線形補間により得られたゲイン値が、ゲイン値として不適切である、負(マイナス)の値となることがある。そこで、補間で得られるゲイン値が不適切な値となってしまうことを防止するため、次式(11)の計算を行うことで、ゲイン値に対して0を下限値とするリミティングを行うようにしてもよい。
Figure JPOXMLDOC01-appb-M000011
 式(11)では、補間により求められたゲイン値g_interpolated[n]と0とのうち、より大きい方が、最終的なゲイン値g_interpolated[n]とされる。したがって、最終的なゲイン値は0以上の値となり、ゲイン値が負の値となるようなことがなくなる。
 また、ゲイン調整(音量補正)により、時系列信号をブースト(増幅)させたい場合と、時系列信号をコンプレス(抑圧)させたい場合とがある。
 例えば時系列信号をブーストさせたい場合には、ゲイン値が1よりも小さい値となると、そのゲイン値は不適切な値となる。そこで、時系列信号をブーストさせる場合には、次式(12)の計算を行うことで、ゲイン値に対して1を下限値とするリミティングを行うようにしてもよい。
Figure JPOXMLDOC01-appb-M000012
 式(12)では、補間により求められたゲイン値g_interpolated[n]と1とのうち、より大きい方が、最終的なゲイン値g_interpolated[n]とされる。したがって、ゲイン値が1未満の値となるようなことがなくなる。換言すれば、ゲイン値は必ず下限値である1以上の値となる。
 さらに、例えば時系列信号をコンプレスさせたい場合には、ゲイン値が1よりも大きい値となると、そのゲイン値は不適切な値となる。そこで、時系列信号をコンプレスさせる場合には、次式(13)の計算を行うことで、ゲイン値に対して1を上限値とするリミティングを行うようにしてもよい。
Figure JPOXMLDOC01-appb-M000013
 式(13)では、補間により求められたゲイン値g_interpolated[n]と1とのうち、より小さい方が、最終的なゲイン値g_interpolated[n]とされる。したがって、ゲイン値が1より大きい値となるようなことがなくなる。換言すれば、ゲイン値は、必ず上限値である1以下の値となる。
 式(12)や式(13)に示すリミティング処理が行われる場合には、符号化されたゲイン波形に関する情報として、ゲイン波形がブーストのためのものであるのか、またはコンプレスのためのものであるかを示すリミティング情報がゲイン復号化回路63に与えられるようにすればよい。例えば、リミティング情報は、上位の制御装置からゲイン復号化回路63に供給されるようにしてもよいし、ゲイン符号列やビットストリームのヘッダなどにリミティング情報が含まれているようにしてもよい。
 以下では、ゲイン符号列にリミティング情報が含まれているものとして説明を続ける。この場合、図5のステップS13の処理では、リミティング情報が含まれるゲイン符号列が生成される。
 以上のようにゲイン値に対してリミティング処理を施すことで、より適切なゲイン値を得ることができるようになる。これにより、より適切なゲイン調整(音量補正)が可能となり、その結果、より高音質な音声を得ることができる。
〈復号化装置の構成例〉
 ゲイン値に対してリミティング処理を施す場合、復号化装置51は、例えば図10に示すように構成される。なお、図10において図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図10に示す復号化装置51の構成は、ゲイン復号化回路63に新たにリミティング処理部101が設けられている点で図7の復号化装置51と異なり、その他の構成は図7の復号化装置51と同じ構成とされている。
 リミティング処理部101は、補間処理部71により非線形補間が行われて算出されたゲイン値に対してリミティング処理を施し、最終的なゲイン値とする。
〈ゲイン復号化処理の説明〉
 次に、復号化装置51が図10に示す構成とされる場合に行われるゲイン復号化処理について説明する。
 例えば、復号化装置51では、図8を参照して説明した復号化処理が行われる。但し、ステップS43に対応するゲイン復号化処理では、図11に示すゲイン復号化処理が行われる。以下、図11のフローチャートを参照して、図10の復号化装置51によるゲイン復号化処理について説明する。
 なお、ステップS101乃至ステップS105の処理は、図9のステップS71乃至ステップS75の処理と同様であるので、その説明は省略する。
 ステップS106において、リミティング処理部101は、ステップS105の処理で得られた各サンプル位置のゲイン値に対して上述した式(11)の計算を行うことで、ゲイン値が負の値とならないように、適宜、ゲイン値を変更する。
 さらに、リミティング処理部101は、式(11)の計算によりリミティングされたゲイン値に対して、さらにゲイン符号列に含まれているリミティング情報に応じて、式(12)または式(13)の何れかの計算を行うことで、最終的なゲイン値とする。
 具体的には、ゲイン符号列に含まれているリミティング情報がブーストのためのものであることを示している場合、リミティング処理部101は、式(12)の計算を行うことで、ゲイン値が1未満の値とならないようにする。
 これに対して、ゲイン符号列に含まれているリミティング情報がコンプレスのためのものであることを示している場合、リミティング処理部101は、式(13)の計算を行うことで、ゲイン値が1より大きい値とならないようにする。
 ステップS104において線形補間によりゲイン波形が生成されたか、またはステップS106においてリミティング処理が行われると、ステップS107の処理が行われてゲイン復号化処理は終了するが、ステップS107の処理は図9のステップS76の処理と同様であるので、その説明は省略する。
 以上のようにして、復号化装置51は、非線形補間により求めたゲイン値に対してリミティング処理を施す。これにより、より適切なゲイン値でゲイン調整(音量補正)を行うことができる。したがって、より高音質な音声を得ることができる。
〈第3の実施の形態〉
〈ゲイン値の補間について〉
 また、以上においては、ゲインサンプル位置ごとに線形補間または非線形補間の何れの補間方式でゲイン値の補間を行うかを切り替えてゲイン波形を得る例について説明したが、基本的には非線形補間が行われ、特定の条件下においてのみ線形補間が行われるようにしてもよい。
 例えば、図12に示す折れ線L41に示すゲイン波形を符号化し、復号化側において、非線形補間でゲイン波形を得る場合について考える。なお、図12において縦軸および横軸は、それぞれゲイン値、およびサンプル位置を示している。
 符号化装置11において、k番目のゲインサンプル位置G21と、k+1番目のゲインサンプル位置G22とが抽出されて、それらのゲインサンプル位置でのゲイン値、サンプル長、およびゲイン傾き値が含まれるゲイン符号列が得られたとする。
 ここで、矢印D21はゲインサンプル位置G21のゲイン傾き値s[k]を表しており、矢印D22はゲインサンプル位置G22のゲイン傾き値s[k+1]を表している。
 いま、復号化装置51においてゲイン符号列に含まれるゲイン値、サンプル長、およびゲイン傾き値に基づいて3次関数による非線形補間が行われ、曲線C31に示すゲイン波形が得られたとする。
 この例では、非線形補間により得られた曲線C31に示すゲイン波形と、折れ線L41に示すもとのゲイン波形との差分が大きくなってしまっている。
 非線形補間によりゲイン波形を求める方式では、この例のようにゲイン値が線形に変化するゲイン波形に対して符号化を行うと、もとのゲイン波形と復号化時に非線形補間して得られたゲイン波形との差分が大きくなってしまう。
 この差分を小さくするためには、符号化装置11において、符号化しようとするゲイン値とゲイン傾き値を、非線形補間で得られるゲイン波形を算出して調整するなどの処理(ローカルデコード)が必要となり、符号化の処理量が増えてしまう。
 そこで、本技術では、復号化装置51で非線形補間を行う場合において、特定の条件下では線形補間が行われるようにすることで、より少ない符号化の処理量でより高精度にゲイン波形を再現できるようにした。
 具体的には、例えばk番目とk+1番目のゲインサンプル位置の間のサンプル位置のゲイン値を補間により求める場合に、それらのゲインサンプル位置のゲイン値とゲイン傾き値から、2つの直線l[k]と直線l[k+1]との交点X[k,k+1]が求められる。
 ここで、直線l[k]は、ゲイン波形上のk番目のゲインサンプル位置(点)を通り、ゲイン傾き値s[k]により示される傾きを有する直線である。すなわち、直線l[k]は、サンプル軸方向の座標の値がk番目のゲインサンプル位置と同じ値である場合に、ゲイン軸方向の座標の値としてk番目のゲインサンプル位置のゲイン値g[k]をとり、かつゲイン傾き値s[k]により示される傾きを有する直線である。
 同様に直線l[k+1]は、k+1番目のゲインサンプル位置を通り、ゲイン傾き値s[k+1]により示される傾きを有する直線である。
 そして、k番目またはk+1番目のゲインサンプル位置のうちの何れかと、求められた交点X[k,k+1]との距離が所定の閾値以下であるか否かが判定される。ここでの判定は、例えば以下の式(14)が成立するか否かとされる。
Figure JPOXMLDOC01-appb-M000014
 なお、式(14)において、d_sample[k]およびd_sample[k+1]は、それぞれk番目およびk+1番目のゲインサンプル位置から、交点X[k,k+1]へのサンプル軸方向の距離を示している。また、d_gain[k]およびd_gain[k+1]は、それぞれk番目およびk+1番目のゲインサンプル位置から、交点X[k,k+1]へのゲイン軸方向の距離、つまりゲイン値の差を示している。
 さらに、thre_sampleおよびthre_gainは、それぞれサンプル軸方向の距離の閾値、およびゲイン軸方向の距離の閾値を示している。
 したがって、式(14)では、距離d_sample[k]が閾値thre_sample以下であり、かつ距離d_gain[k]が閾値thre_gain以下である場合、または距離d_sample[k+1]が閾値thre_sample以下であり、かつ距離d_gain[k+1]が閾値thre_gain以下である場合に、ゲインサンプル位置から、交点X[k,k+1]までの距離が閾値以下であるとされる。
 例えばk番目のゲインサンプル位置がフレームの先頭位置、つまりn=0番目のサンプル位置である場合、式(14)における距離d_sample[k]、距離d_gain[k]、距離d_sample[k+1]、および距離d_gain[k+1]は、それぞれ以下の式(15)乃至式(18)により求まる。また、閾値thre_sampleおよび閾値thre_gainは、例えば閾値thre_sample=32、および閾値thre_gain=0.01などとされる。
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
 なお、式(15)乃至式(18)において、abs(x)は、xの絶対値を求めることを示している。
 このような式(14)に示す条件式が成立すると判定された場合には、線形補間により、すなわち上述した式(1)の計算によりゲイン波形が求められる。これに対して、式(14)に示す条件式が成立しないと判定された場合には、非線形補間により、すなわち上述した式(4)の計算によりゲイン波形が求められる。
 例えば図13に示すように、ゲインサンプル位置G31と、ゲインサンプル位置G32との間の各サンプル位置のゲイン値を補間で求める場合に、式(14)に示す条件式が成立するか否かは、交点CP11が領域TR11または領域TR12の何れかに含まれるか否かを特定することである。なお、図13において縦軸および横軸は、それぞれゲイン値、および時系列信号のフレーム内のサンプル位置を示している。
 図13では、ゲインサンプル位置G31がk番目のゲインサンプル位置を示しており、矢印D31がゲインサンプル位置G31のゲイン傾き値s[k]を表している。したがって、直線L51が直線l[k]となる。
 同様にゲインサンプル位置G32がk+1番目のゲインサンプル位置を示しており、矢印D32がゲインサンプル位置G32のゲイン傾き値s[k+1]を表している。したがって、直線L52が直線l[k+1]となる。そして、直線L51と直線L52の交点である交点CP11が交点X[k,k+1]となる。
 いま、領域TR11が、ゲインサンプル位置G31を中心とし、かつ図中、縦方向および横方向の長さが、それぞれ2×thre_gainおよび2×thre_sampleであるとする。同様に、領域TR12が、ゲインサンプル位置G32を中心とし、かつ図中、縦方向および横方向の長さが、それぞれ2×thre_gainおよび2×thre_sampleであるとする。
 この場合、交点CP11が領域TR11内に位置しているか、または交点CP11が領域TR12内に位置している場合に、式(14)に示す条件式が成立することになる。図13の例では、交点CP11が領域TR12内に位置しているため、式(14)に示す条件式が成立する。
 図13に示す例では、再現(復元)しようとするもとのゲイン波形は、直線L51と直線L52とからなる波形に近い波形となっていたはずである。すなわち、より詳細には、ゲインサンプル位置G31から交点CP11までの間は直線L51に近い波形であり、交点CP11からゲインサンプル位置G32までの間は直線L52に近い波形であったはずである。
 しかし、この例では交点CP11が領域TR12内に位置するため、交点CP11とゲインサンプル位置G32との距離が十分に短く、もとのゲイン波形がゲインサンプル位置G31とゲインサンプル位置G32を結ぶ直線であると近似することができる。
 この場合、ゲインサンプル位置G31とゲインサンプル位置G32との間のゲイン波形では、ゲイン値がほぼ線形に変化するということができるので、ゲイン波形を非線形補間で求めるよりも、線形補間で求めた方が、より高精度にゲイン波形を再現することができる。そこで、本技術では上述した式(14)に示す条件式が成立する場合には、線形補間によりゲイン波形が求められるようにした。
 したがって、図13の例では、ゲインサンプル位置G31とゲインサンプル位置G32との間の各サンプル位置のゲイン値が線形補間により求められ、これにより例えば図14に示すゲイン波形が得られる。なお、図14において、図13における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図14では、ゲインサンプル位置G31とゲインサンプル位置G32とを結ぶ直線L61が、それらのゲインサンプル位置G31とゲインサンプル位置G32との間のゲイン波形として求められている。
 また、例えば上述した図12に示した例においても式(14)に示す条件式が成立するので、線形補間によりゲイン波形が求められる。
 図12の例では、交点X[k,k+1]がゲインサンプル位置G22の位置となるので式(14)が成立し、ゲインサンプル位置G21とゲインサンプル位置G22とを結ぶ直線が、それらのゲインサンプル位置間のゲイン波形とされる。したがって、この例では、もとのゲイン波形が正確に再現されることになる。
 以上のように特定の条件下において線形補間が行われるようにすることで、基本的に非線形補間が行われるようにする場合において、符号化の処理量を増加させることなく、もとのゲイン波形と復号化後のゲイン波形との差分をより小さくすることができる。
 しかも、このような復号化方式とすれば、非線形補間を行う補間方式のみで、線形および非線形の両方の補間に対応することができるので、ゲイン符号列に補間モード情報を含める必要がなくなり、出力符号列のビットレートを低くすることができる。すなわち、出力符号列の符号量をより少なくすることができる。
〈復号化装置の構成例〉
 特定の条件下において線形補間が行われる場合、復号化装置51は、例えば図15に示すように構成される。なお、図15において図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図15に示す復号化装置51の構成は、ゲイン復号化回路63に新たに演算部131が設けられている点で図7の復号化装置51と異なり、その他の構成は図7の復号化装置51と同じ構成とされている。
 演算部131は、上述した式(14)に示した条件式を計算する。
〈ゲイン復号化処理の説明〉
 次に、復号化装置51が図15に示す構成とされる場合に行われるゲイン復号化処理について説明する。
 例えば符号化装置11では、図5を参照して説明した符号化処理が行われるが、ステップS13のゲイン符号化処理では、ゲイン情報のみが含まれ、補間モード情報が含まれていないゲイン符号列が生成され、多重化により得られた出力符号列が出力される。また、この場合、ゲイン情報には常にゲイン傾き値が含まれている。
 そして復号化装置51では、図8を参照して説明した復号化処理が行われる。但し、ステップS43に対応するゲイン復号化処理では、図16に示すゲイン復号化処理が行われる。以下、図16のフローチャートを参照して、図15の復号化装置51によるゲイン復号化処理について説明する。
 なお、ステップS131の処理は、図9のステップS71の処理と同様であるので、その説明は省略する。
 ステップS132において、演算部131は、読み出されたゲイン情報に基づいて式(14)に示す条件式を計算する。
 すなわち、演算部131はゲイン情報として読み出されたゲインサンプル位置のゲイン値、サンプル長、およびゲイン傾き値に基づいて、上述した式(15)乃至式(18)と同様の計算を行う。そして演算部131は、その結果得られたゲインサンプル位置から交点X[k,k+1]までの距離に基づいて式(14)を計算する。
 このように、式(15)乃至式(18)の計算を行うことは、直線l[k]および直線l[k+1]を求めるとともに、それらの直線の交点X[k,k+1]を求め、さらにk番目およびk+1番目のゲインサンプル位置のそれぞれにおけるゲイン値と、交点X[k,k+1]のゲイン値との差を求めることである。そして、式(14)の条件式を計算することは、ゲインサンプル位置と交点X[k,k+1]とのゲイン値の差が所定の閾値以下であるか否かを判定することである。
 したがって、復号化装置51では、ゲインサンプル位置のゲイン値と、交点X[k,k+1]のゲイン値との差に応じて、線形補間または非線形補間により2つのゲインサンプル位置間の各サンプル位置のゲイン値が求められるということができる。
 ステップS133において、補間処理部71は、ステップS132における条件式の計算結果に基づいて、線形補間を行うか否かを判定する。例えば式(14)により示される条件式が成立する場合、線形補間を行うと判定される。
 ステップS133において線形補間を行うと判定された場合、ステップS134において、補間処理部71は線形補間を行ってゲイン波形を生成し、その後、処理はステップS136に進む。ステップS134では、図9のステップS74の処理と同様の処理が行われる。
 これに対して、ステップS133において線形補間を行わないと判定された場合、ステップS135において、補間処理部71は非線形補間を行ってゲイン波形を生成し、その後、処理はステップS136に進む。なお、ステップS135では、図9のステップS75の処理と同様の処理が行われる。
 ステップS134またはステップS135においてゲイン波形が生成されると、ステップS136の処理が行われてゲイン復号化処理は終了するが、ステップS136の処理は図9のステップS76の処理と同様であるので、その説明は省略する。
 以上のようにして、復号化装置51は、特定の条件下においては線形補間によりゲイン波形を生成する。これにより、より少ない処理量で、より高精度にもとのゲイン波形を得ることができるとともに、出力符号列の符号量をより少なくすることができる。
〈第3の実施の形態の変形例1〉
〈ゲイン値の補間について〉
 なお、第3の実施の形態では、特定の条件下において線形補間が行われると説明したが、ゲインサンプル位置と交点を利用してゲイン値を線形補間してもよい。
 すなわち、第3の実施の形態では、2つのゲインサンプル位置間の各サンプル位置のゲイン値が式(1)による線形補間で算出されていた。この実施の形態では、これに代えて、図17に示すように2つの直線L51および直線L52の交点CP11と、2つの各ゲインサンプル位置とを結ぶそれぞれの直線からなる波形が、線形補間により得られたゲイン波形とされる。なお、図17において、図13における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、ゲインサンプル位置G31と交点CP11とを結ぶ直線、およびゲインサンプル位置G32と交点CP11とを結ぶ直線からなる折れ線L71が、ゲインサンプル位置G31とゲインサンプル位置G32の間のゲイン波形とされる。
 図17に示すゲイン波形の例では、より正確にゲイン波形を再現しようとすると、2つのゲインサンプル位置を結ぶ直線で線形補間する場合には、ゲイン波形の符号化時にゲインサンプル位置G31からゲインサンプル位置G32までの区間で、ゲインサンプル位置の数を3つ以上とする必要がある。
 すなわち、ゲイン波形の符号化時にゲインサンプル位置G31、交点CP11、およびゲインサンプル位置G32のサンプル位置をゲインサンプル位置としなければ、符号化前のゲイン波形と、復号化により得られるゲイン波形との差分(誤差)が生じてしまう。
 これに対して、交点CP11を利用し、折れ線L71をゲイン波形とする場合には、ゲインサンプル位置G31とゲインサンプル位置G32の2つの位置をゲインサンプル位置とするだけで、符号化前のゲイン波形と、復号化により得られるゲイン波形との差分を小さくすることができる。したがって、交点を利用して線形補間を行う手法では、ゲインサンプル位置の数を減らすことができ、これにより出力符号列のビットレートを低く抑え、符号化効率を向上させることができる。
 なお、交点を利用して線形補間を行う場合、2つの直線の交点が、2つのゲインサンプル位置の間に位置していなければならない。
 例えば図17の例では、サンプル軸方向において、交点CP11がゲインサンプル位置G31とゲインサンプル位置G32の間に位置していなければならない。
 そのため、非線形補間を行うか、または線形補間を行うかの判定に用いられる領域が、図13の例と図17の例とで異なる。図17の例では、交点CP11が領域TR21または領域TR22の何れかに含まれる場合、交点を利用した線形補間が行われる。
 ここで、領域TR21は、図13に示した領域TR11の右半分の領域、つまり領域TR11のうちのゲインサンプル位置G31よりも図13中、右側にある領域である。同様に、領域TR22は、図13に示した領域TR12の左半分の領域、つまり領域TR12のうちのゲインサンプル位置G32よりも図13中、左側にある領域である。
 このように、交点を利用した線形補間が行われる場合、式(14)に対応する条件式は、次式(19)に示すようになる。つまり、次式(19)が成立する場合、交点を利用した線形補間が行われる。
Figure JPOXMLDOC01-appb-M000019
 式(19)では距離d_sample[k]が0よりも大きく、閾値thre_sample以下であり、かつ距離d_gain[k]が閾値thre_gain以下である場合、または距離d_sample[k+1]が0より大きく、閾値thre_sample以下であり、かつ距離d_gain[k+1]が閾値thre_gain以下である場合に、ゲインサンプル位置から交点X[k,k+1]までの距離が閾値以下であるとされる。
 例えばk番目のゲインサンプル位置がフレームの先頭位置、つまりn=0番目のサンプルである場合、式(19)における距離d_sample[k]、距離d_gain[k]、距離d_sample[k+1]、および距離d_gain[k+1]は、それぞれ以下の式(20)乃至式(23)により求まる。
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000023
 式(19)に示す条件式が成立しないと判定された場合には、非線形補間により、すなわち上述した式(4)の計算によりゲイン波形が求められる。
 これに対して、式(19)に示す条件式が成立すると判定された場合には、線形補間によりゲイン波形が求められる。
 例えばk番目のゲインサンプル位置がフレームの先頭位置、つまりn=0番目のサンプル位置である場合、交点X[k,k+1]のサンプル位置、つまりk番目のゲインサンプル位置から交点X[k,k+1]までのサンプル長をT’[k]とすると、サンプル位置T’[k]は次式(24)により求まる。
Figure JPOXMLDOC01-appb-M000024
 また、k番目のゲインサンプル位置と、交点X[k,k+1]との間にある、フレーム先頭からn番目(但し、0≦n<T’[k])にあるサンプルnのゲイン値g_interpolated[n]は、次式(25)により算出される。
Figure JPOXMLDOC01-appb-M000025
 なお、式(25)においてa1[k]およびb1[k]は、それぞれ以下の式(26)および式(27)により求まる値とされる。
Figure JPOXMLDOC01-appb-M000026
Figure JPOXMLDOC01-appb-M000027
 a1[k]およびb1[k]は、k番目のゲインサンプル位置と交点X[k,k+1]とを結ぶ直線の傾きおよび切片を示している。したがって、この例では、図17を参照して説明したように、k番目のゲインサンプル位置G31と交点CP11の間では、ゲイン値が線形に変化するものとされ、線形補間により各サンプルnのゲイン値が求められている。
 さらに、交点X[k,k+1]とk+1番目のゲインサンプル位置との間にある、フレーム先頭からn番目(但し、T’[k]≦n<T[k])にあるサンプルnのゲイン値g_interpolated[n]は、次式(28)により算出される。
Figure JPOXMLDOC01-appb-M000028
 なお、式(28)においてa2[k]およびb2[k]は、それぞれ以下の式(29)および式(30)により求まる値とされる。
Figure JPOXMLDOC01-appb-M000029
Figure JPOXMLDOC01-appb-M000030
 a2[k]およびb2[k]は、交点X[k,k+1]とk+1番目のゲインサンプル位置とを結ぶ直線の傾きおよび切片を示している。したがって、この例では、図17を参照して説明したように、交点CP11とk+1番目のゲインサンプル位置G32の間では、ゲイン値が線形に変化するものとされ、線形補間により各サンプルnのゲイン値が求められている。
 以上のように特定の条件下において交点を利用した線形補間が行われる場合、図16を参照して説明したゲイン復号化処理では、ステップS132において演算部131は、読み出されたゲイン情報に基づいて式(19)に示す条件式を計算する。
 そして、式(19)に示す条件式が成立する場合には、ステップS134において補間処理部71は、ゲイン情報として読み出されたゲインサンプル位置のゲイン値、サンプル長、およびゲイン傾き値に基づいて、式(24)により交点X[k,k+1]のサンプル位置T’[k]を算出する。さらに、補間処理部71は、得られたサンプル位置T’[k]を用いて式(25)および式(28)の計算を行い、線形補間によりゲイン波形を生成する。
 これに対して、式(19)に示す条件式が成立しない場合には、ステップS135において補間処理部71は、非線形補間を行ってゲイン波形を生成する。
 このように、特定の条件下において交点を利用した線形補間を行うようにすることで、符号化時の処理量を増加させることなく、符号化前のもとのゲイン波形と、復号化により得られるゲイン波形との差分を小さくすることができる。
 また、非線形補間を行う方式のみで、線形および非線形の両方の補間に対応することができるので、ゲイン符号列に補間モード情報を含める必要がなくなり、出力符号列のビットレートを低くすることができる。すなわち、出力符号列の符号量をより少なくすることができる。
〈第4の実施の形態〉
〈ゲイン復号化処理の説明〉
 さらに、第3の実施の形態および第3の実施の形態の変形例1では、ゲイン符号列に補間モード情報が含まれておらず、基本的には非線形補間が行われると説明した。
 しかし、ゲイン符号列に補間モード情報が含まれており、基本的には補間モード情報により示される補間方式によりゲイン波形が求められるが、補間モード情報により示される補間方式が非線形補間による方式である場合、特定の条件下において線形補間が行われるようにしてもよい。
 そのような場合、復号化装置51では、図8を参照して説明した復号化処理が行われる。但し、ステップS43に対応するゲイン復号化処理では、図18に示すゲイン復号化処理が行われる。以下、図18のフローチャートを参照して、図15の復号化装置51によるゲイン復号化処理について説明する。
 なお、ステップS161乃至ステップS164の処理は、図9のステップS71乃至ステップS74の処理と同様であるので、その説明は省略する。
 ステップS163において、非線形補間による方式であると判定された場合、ステップS165において、演算部131は、読み出されたゲイン情報に基づいて式(14)に示す条件式を計算する。
 そして、その後、ステップS166乃至ステップS168の処理が行われるが、これらの処理は図16のステップS133乃至ステップS135の処理と同様であるので、その説明は省略する。なお、ステップS165乃至ステップS168では、第3の実施の形態で説明した処理が行われるようにしてもよいし、第3の実施の形態の変形例1で説明した処理が行われるようにしてもよい。さらに、非線形補間が行われた場合には、リミティング処理が行われるようにしてもよい。
 ステップS164、ステップS167、またはステップS168において補間によりゲイン波形が生成されると、その後、処理はステップS169に進む。
 ステップS169において、ゲイン復号化回路63は、全てのゲインサンプル位置を処理対象として処理したか否かを判定する。
 ステップS169において、まだ全てのゲインサンプル位置を処理していないと判定された場合、処理はステップS161に戻り、上述した処理が繰り返される。
 これに対してステップS169において、全てのゲインサンプル位置を処理したと判定された場合、ゲイン復号化回路63は、これまでの処理で得られた、各サンプル位置のゲイン値からなる1フレーム分のゲイン波形をゲイン適用回路64に供給し、ゲイン復号化処理は終了する。ゲイン復号化処理が終了すると、その後、処理は図8のステップS44へと進む。
 以上のようにして復号化装置51は、補間モード情報に応じて線形補間または非線形補間によりゲイン波形を求める。このように、補間モード情報に応じて、適宜、非線形補間によりゲイン波形を得るようにすることで、より少ない符号量で高精度にゲイン波形を再現することができる。
 しかも、補間モード情報により示される補間方式が、非線形補間による方式である場合でも、特定の条件下で線形補間を行うようにすることで、より少ない符号化の処理量で、より高精度にもとのゲイン波形を再現することができる。また、出力符号列の符号量をより少なくすることができる。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
 図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出すゲイン読み出し部と、
 前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出す補間情報読み出し部と、
 前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める補間処理部と
 を備える復号化装置。
(2)
 前記ゲイン読み出し部は、前記ゲインサンプル位置における前記ゲイン値の傾きを示すゲイン傾き値をさらに読み出し、
 前記補間処理部は、非線形補間により前記ゲイン値を求める場合、前記ゲインサンプル位置の前記ゲイン値および前記ゲイン傾き値に基づいて、前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を求める
 (1)に記載の復号化装置。
(3)
 前記ゲイン値が所定の下限値以上の値または所定の上限値以下の値となるように、非線形補間により求められた前記ゲイン値に対してリミティング処理を施すリミティング処理部をさらに備える
 (1)または(2)に記載の復号化装置。
(4)
 前記リミティング処理部は、0を下限値とするリミティング処理、1を下限値とするリミティング処理、または1を上限値とするリミティング処理を施す
 (3)に記載の復号化装置。
(5)
 前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、前記2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求める演算部をさらに備え、
 前記補間処理部は、前記補間情報が線形補間により前記ゲイン値を求めることを示す情報である場合、線形補間により前記ゲイン値を求め、前記補間情報が非線形補間により前記ゲイン値を求めることを示す情報である場合、前記差に応じて非線形補間または線形補間により前記ゲイン値を求める
 (2)乃至(4)の何れか一項に記載の復号化装置。
(6)
 時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出し、
 前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出し、
 前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める
 ステップを含む復号化方法。
(7)
 時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出し、
 前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出し、
 前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める
 ステップを含む処理をコンピュータに実行させるプログラム。
(8)
 時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出すゲイン読み出し部と、
 前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求める演算部と、
 前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める補間処理部と
 を備える復号化装置。
(9)
 時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出し、
 前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求め、
 前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める
 ステップを含む復号化方法。
(10)
 時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出し、
 前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求め、
 前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める
 ステップを含む処理をコンピュータに実行させるプログラム。
 51 復号化装置, 61 非多重化回路, 62 信号復号化回路, 63 ゲイン復号化回路, 64 ゲイン適用回路, 71 補間処理部, 101 リミティング処理部, 131 演算部

Claims (10)

  1.  時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出すゲイン読み出し部と、
     前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出す補間情報読み出し部と、
     前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める補間処理部と
     を備える復号化装置。
  2.  前記ゲイン読み出し部は、前記ゲインサンプル位置における前記ゲイン値の傾きを示すゲイン傾き値をさらに読み出し、
     前記補間処理部は、非線形補間により前記ゲイン値を求める場合、前記ゲインサンプル位置の前記ゲイン値および前記ゲイン傾き値に基づいて、前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を求める
     請求項1に記載の復号化装置。
  3.  前記ゲイン値が所定の下限値以上の値または所定の上限値以下の値となるように、非線形補間により求められた前記ゲイン値に対してリミティング処理を施すリミティング処理部をさらに備える
     請求項1に記載の復号化装置。
  4.  前記リミティング処理部は、0を下限値とするリミティング処理、1を下限値とするリミティング処理、または1を上限値とするリミティング処理を施す
     請求項3に記載の復号化装置。
  5.  前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、前記2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求める演算部をさらに備え、
     前記補間処理部は、前記補間情報が線形補間により前記ゲイン値を求めることを示す情報である場合、線形補間により前記ゲイン値を求め、前記補間情報が非線形補間により前記ゲイン値を求めることを示す情報である場合、前記差に応じて非線形補間または線形補間により前記ゲイン値を求める
     請求項2に記載の復号化装置。
  6.  時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出し、
     前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出し、
     前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める
     ステップを含む復号化方法。
  7.  時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値を読み出し、
     前記時系列信号の各サンプル位置の前記ゲイン値を線形補間により求めるか、または非線形補間により求めるかを示す補間情報を読み出し、
     前記ゲインサンプル位置の前記ゲイン値に基づいて、前記時系列信号の2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を、前記補間情報に応じて線形補間または非線形補間により求める
     ステップを含む処理をコンピュータに実行させるプログラム。
  8.  時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出すゲイン読み出し部と、
     前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求める演算部と、
     前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める補間処理部と
     を備える復号化装置。
  9.  時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出し、
     前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求め、
     前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める
     ステップを含む復号化方法。
  10.  時系列信号の少なくとも2つのゲインサンプル位置の符号化されたゲイン値、および前記ゲイン値の傾きを示すゲイン傾き値を読み出し、
     前記ゲインサンプル位置において、その前記ゲインサンプル位置の前記ゲイン値をとり、かつその前記ゲインサンプル位置の前記ゲイン傾き値により示される傾きを有する直線を求め、2つの前記ゲインサンプル位置についてそれぞれ求めた前記直線の交点のゲイン値と、前記2つの前記ゲインサンプル位置のそれぞれの前記ゲイン値との差を求め、
     前記差に応じて、前記時系列信号の前記2つの前記ゲインサンプル位置の間にある各サンプル位置の前記ゲイン値を線形補間または非線形補間により求める
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2014/082925 2013-12-27 2014-12-12 復号化装置および方法、並びにプログラム WO2015098564A1 (ja)

Priority Applications (17)

Application Number Priority Date Filing Date Title
CA2934602A CA2934602C (en) 2013-12-27 2014-12-12 Decoding apparatus and method, and program
AU2014371411A AU2014371411A1 (en) 2013-12-27 2014-12-12 Decoding device, method, and program
KR1020227002138A KR102513009B1 (ko) 2013-12-27 2014-12-12 복호화 장치 및 방법, 및 프로그램
EP14873206.8A EP3089161B1 (en) 2013-12-27 2014-12-12 Decoding device, method, and program
MYPI2016702261A MY188538A (en) 2013-12-27 2014-12-12 Decoding device, method, and program
KR1020237009428A KR20230042410A (ko) 2013-12-27 2014-12-12 복호화 장치 및 방법, 및 프로그램
BR112016014476-7A BR112016014476B1 (pt) 2013-12-27 2014-12-12 Aparelho e método de decodificação, e, meio de armazenamento legível por computador
MX2016008172A MX2016008172A (es) 2013-12-27 2014-12-12 Metodo y aparato de decodificacion, y programa.
KR1020167015462A KR102356012B1 (ko) 2013-12-27 2014-12-12 복호화 장치 및 방법, 및 프로그램
EP19199358.3A EP3608909B1 (en) 2013-12-27 2014-12-12 Decoding apparatus and method, and program
CN201480069805.XA CN105849801B (zh) 2013-12-27 2014-12-12 解码设备和方法以及程序
SG11201605015XA SG11201605015XA (en) 2013-12-27 2014-12-12 Decoding device, method, and program
JP2015554741A JP6593173B2 (ja) 2013-12-27 2014-12-12 復号化装置および方法、並びにプログラム
US15/106,498 US10692511B2 (en) 2013-12-27 2014-12-12 Decoding apparatus and method, and program
RU2016124464A RU2667627C1 (ru) 2013-12-27 2014-12-12 Устройство и способ декодирования и программа
US16/867,730 US11705140B2 (en) 2013-12-27 2020-05-06 Decoding apparatus and method, and program
US18/129,380 US20230245665A1 (en) 2013-12-27 2023-03-31 Decoding apparatus and method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-272943 2013-12-27
JP2013272943 2013-12-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/106,498 A-371-Of-International US10692511B2 (en) 2013-12-27 2014-12-12 Decoding apparatus and method, and program
US16/867,730 Continuation US11705140B2 (en) 2013-12-27 2020-05-06 Decoding apparatus and method, and program

Publications (1)

Publication Number Publication Date
WO2015098564A1 true WO2015098564A1 (ja) 2015-07-02

Family

ID=53478428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082925 WO2015098564A1 (ja) 2013-12-27 2014-12-12 復号化装置および方法、並びにプログラム

Country Status (14)

Country Link
US (3) US10692511B2 (ja)
EP (2) EP3608909B1 (ja)
JP (4) JP6593173B2 (ja)
KR (3) KR102356012B1 (ja)
CN (1) CN105849801B (ja)
AU (1) AU2014371411A1 (ja)
BR (1) BR112016014476B1 (ja)
CA (2) CA3162763A1 (ja)
MX (1) MX2016008172A (ja)
MY (1) MY188538A (ja)
RU (2) RU2667627C1 (ja)
SG (1) SG11201605015XA (ja)
TW (1) TWI644308B (ja)
WO (1) WO2015098564A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020202549A (ja) * 2019-06-06 2020-12-17 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド オーディオ処理方法、装置、電子機器及び記憶媒体

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2005299410B2 (en) 2004-10-26 2011-04-07 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
TWI529703B (zh) 2010-02-11 2016-04-11 杜比實驗室特許公司 用以非破壞地正常化可攜式裝置中音訊訊號響度之系統及方法
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5743137B2 (ja) 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
CN103325380B (zh) 2012-03-23 2017-09-12 杜比实验室特许公司 用于信号增强的增益后处理
US10844689B1 (en) 2019-12-19 2020-11-24 Saudi Arabian Oil Company Downhole ultrasonic actuator system for mitigating lost circulation
US9401152B2 (en) 2012-05-18 2016-07-26 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
KR102158002B1 (ko) 2013-01-21 2020-09-21 돌비 레버러토리즈 라이쎈싱 코오포레이션 프로그램 라우드니스 및 경계 메타데이터를 가진 오디오 인코더 및 디코더
KR102071860B1 (ko) 2013-01-21 2020-01-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 상이한 재생 디바이스들에 걸친 라우드니스 및 동적 범위의 최적화
CN116665683A (zh) 2013-02-21 2023-08-29 杜比国际公司 用于参数化多声道编码的方法
CN104080024B (zh) 2013-03-26 2019-02-19 杜比实验室特许公司 音量校平器控制器和控制方法以及音频分类器
CN105190618B (zh) 2013-04-05 2019-01-25 杜比实验室特许公司 用于自动文件检测的对来自基于文件的媒体的特有信息的获取、恢复和匹配
TWM487509U (zh) 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
WO2015038475A1 (en) 2013-09-12 2015-03-19 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
US9521501B2 (en) 2013-09-12 2016-12-13 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
CA3162763A1 (en) * 2013-12-27 2015-07-02 Sony Corporation Decoding apparatus and method, and program
CN105142067B (zh) 2014-05-26 2020-01-07 杜比实验室特许公司 音频信号响度控制
EP4372746A2 (en) 2014-10-10 2024-05-22 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
KR20190085889A (ko) 2019-06-28 2019-07-19 신원제 태양광 패널 청소기

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH088933A (ja) * 1994-06-24 1996-01-12 Nec Corp 音声セル符号化装置
JP2007316254A (ja) * 2006-05-24 2007-12-06 Sony Corp オーディオ信号補間方法及びオーディオ信号補間装置
JP2012504260A (ja) * 2008-09-30 2012-02-16 ドルビー・インターナショナル・アーベー オーディオメタデータのトランスコーディング
JP2013015633A (ja) * 2011-07-01 2013-01-24 Yamaha Corp 信号送信装置および信号処理装置

Family Cites Families (228)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4628529A (en) 1985-07-01 1986-12-09 Motorola, Inc. Noise suppression system
US4817151A (en) * 1987-11-09 1989-03-28 Broadcast Technology Partners Selective decoder for compatible FM stereophonic system utilizing companding of difference signal
JPH0364800A (ja) 1989-08-03 1991-03-20 Ricoh Co Ltd 音声符号化及び復号化方式
JPH03254223A (ja) 1990-03-02 1991-11-13 Eastman Kodak Japan Kk アナログデータ伝送方式
JP3137805B2 (ja) * 1993-05-21 2001-02-26 三菱電機株式会社 音声符号化装置、音声復号化装置、音声後処理装置及びこれらの方法
US6022222A (en) * 1994-01-03 2000-02-08 Mary Beth Guinan Icon language teaching system
JP3498375B2 (ja) 1994-07-20 2004-02-16 ソニー株式会社 ディジタル・オーディオ信号記録装置
JP3189598B2 (ja) 1994-10-28 2001-07-16 松下電器産業株式会社 信号合成方法および信号合成装置
US5640490A (en) * 1994-11-14 1997-06-17 Fonix Corporation User independent, real-time speech recognition system and method
US5664055A (en) 1995-06-07 1997-09-02 Lucent Technologies Inc. CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity
US5956674A (en) 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5749064A (en) * 1996-03-01 1998-05-05 Texas Instruments Incorporated Method and system for time scale modification utilizing feature vectors about zero crossing points
JPH1020888A (ja) 1996-07-02 1998-01-23 Matsushita Electric Ind Co Ltd 音声符号化・復号化装置
US6073100A (en) 1997-03-31 2000-06-06 Goodridge, Jr.; Alan G Method and apparatus for synthesizing signals using transform-domain match-output extension
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
CN1144179C (zh) 1997-07-11 2004-03-31 索尼株式会社 声音信号解码方法和装置、声音信号编码方法和装置
US5913194A (en) * 1997-07-14 1999-06-15 Motorola, Inc. Method, device and system for using statistical information to reduce computation and memory requirements of a neural network based speech synthesis system
JPH11168622A (ja) 1997-12-05 1999-06-22 Canon Inc 画像処理装置、画像処理方法および記憶媒体
SE9903553D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
DE60024963T2 (de) 1999-05-14 2006-09-28 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und vorrichtung zur banderweiterung eines audiosignals
JP4218134B2 (ja) * 1999-06-17 2009-02-04 ソニー株式会社 復号装置及び方法、並びにプログラム提供媒体
US6904405B2 (en) * 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
JP3454206B2 (ja) 1999-11-10 2003-10-06 三菱電機株式会社 雑音抑圧装置及び雑音抑圧方法
CA2290037A1 (en) 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
EP1258078B1 (en) * 2000-02-24 2004-03-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System for estimating a non-linear characteristic of an amplifier
US6782366B1 (en) * 2000-05-15 2004-08-24 Lsi Logic Corporation Method for independent dynamic range control
SE0004163D0 (sv) 2000-11-14 2000-11-14 Coding Technologies Sweden Ab Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering
JP2002268698A (ja) 2001-03-08 2002-09-20 Nec Corp 音声認識装置と標準パターン作成装置及び方法並びにプログラム
SE0101175D0 (sv) 2001-04-02 2001-04-02 Coding Technologies Sweden Ab Aliasing reduction using complex-exponential-modulated filterbanks
JP4231987B2 (ja) 2001-06-15 2009-03-04 日本電気株式会社 音声符号化復号方式間の符号変換方法、その装置、そのプログラム及び記憶媒体
CN1235192C (zh) 2001-06-28 2006-01-04 皇家菲利浦电子有限公司 传输系统以及用于接收窄带音频信号的接收机和方法
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
CN1272911C (zh) 2001-07-13 2006-08-30 松下电器产业株式会社 音频信号解码装置及音频信号编码装置
US6895375B2 (en) 2001-10-04 2005-05-17 At&T Corp. System for bandwidth extension of Narrow-band speech
US6988066B2 (en) 2001-10-04 2006-01-17 At&T Corp. Method of bandwidth extension for narrow-band speech
JP3926726B2 (ja) 2001-11-14 2007-06-06 松下電器産業株式会社 符号化装置および復号化装置
CN100395817C (zh) 2001-11-14 2008-06-18 松下电器产业株式会社 编码设备、解码设备和解码方法
US7469206B2 (en) 2001-11-29 2008-12-23 Coding Technologies Ab Methods for improving high frequency reconstruction
US7013011B1 (en) * 2001-12-28 2006-03-14 Plantronics, Inc. Audio limiting circuit
CN1288625C (zh) 2002-01-30 2006-12-06 松下电器产业株式会社 音频编码与解码设备及其方法
JP3815347B2 (ja) 2002-02-27 2006-08-30 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP2003255973A (ja) 2002-02-28 2003-09-10 Nec Corp 音声帯域拡張システムおよび方法
US20030187663A1 (en) 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
JP2003316394A (ja) 2002-04-23 2003-11-07 Nec Corp 音声復号システム、及び、音声復号方法、並びに、音声復号プログラム
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
CN1328707C (zh) 2002-07-19 2007-07-25 日本电气株式会社 音频解码设备以及解码方法
JP4728568B2 (ja) 2002-09-04 2011-07-20 マイクロソフト コーポレーション レベル・モードとラン・レングス/レベル・モードの間での符号化を適応させるエントロピー符号化
JP3881943B2 (ja) 2002-09-06 2007-02-14 松下電器産業株式会社 音響符号化装置及び音響符号化方法
SE0202770D0 (sv) 2002-09-18 2002-09-18 Coding Technologies Sweden Ab Method for reduction of aliasing introduces by spectral envelope adjustment in real-valued filterbanks
EP1543307B1 (en) 2002-09-19 2006-02-22 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
US7330812B2 (en) 2002-10-04 2008-02-12 National Research Council Of Canada Method and apparatus for transmitting an audio stream having additional payload in a hidden sub-channel
KR20050106393A (ko) * 2002-12-27 2005-11-09 닐슨 미디어 리서치 인코퍼레이티드 메타데이터를 트랜스코딩하는 방법 및 장치
CN1748443B (zh) 2003-03-04 2010-09-22 诺基亚有限公司 多声道音频扩展支持
US7020448B2 (en) * 2003-03-07 2006-03-28 Conwise Technology Corporation Ltd. Method for detecting a tone signal through digital signal processing
CN1458646A (zh) * 2003-04-21 2003-11-26 北京阜国数字技术有限公司 一种滤波参数矢量量化和结合量化模型预测的音频编码方法
US7318035B2 (en) 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050004793A1 (en) 2003-07-03 2005-01-06 Pasi Ojala Signal adaptation for higher band coding in a codec utilizing band split coding
US7277537B2 (en) * 2003-09-02 2007-10-02 Texas Instruments Incorporated Tone, modulated tone, and saturated tone detection in a voice activity detection device
KR20050027179A (ko) 2003-09-13 2005-03-18 삼성전자주식회사 오디오 데이터 복원 방법 및 그 장치
US7844451B2 (en) 2003-09-16 2010-11-30 Panasonic Corporation Spectrum coding/decoding apparatus and method for reducing distortion of two band spectrums
EP2221808B1 (en) 2003-10-23 2012-07-11 Panasonic Corporation Spectrum coding apparatus, spectrum decoding apparatus, acoustic signal transmission apparatus, acoustic signal reception apparatus and methods thereof
KR100587953B1 (ko) 2003-12-26 2006-06-08 한국전자통신연구원 대역-분할 광대역 음성 코덱에서의 고대역 오류 은닉 장치 및 그를 이용한 비트스트림 복호화 시스템
US7148415B2 (en) * 2004-03-19 2006-12-12 Apple Computer, Inc. Method and apparatus for evaluating and correcting rhythm in audio data
WO2005109403A1 (en) * 2004-04-21 2005-11-17 Dolby Laboratories Licensing Corporation Audio bitstream format in which the bitstream syntax is described by an ordered transveral of a tree hierarchy data structure
WO2005111568A1 (ja) 2004-05-14 2005-11-24 Matsushita Electric Industrial Co., Ltd. 符号化装置、復号化装置、およびこれらの方法
CN102280109B (zh) 2004-05-19 2016-04-27 松下电器(美国)知识产权公司 编码装置、解码装置及它们的方法
EP1749296B1 (en) 2004-05-28 2010-07-14 Nokia Corporation Multichannel audio extension
KR100608062B1 (ko) 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
TWI294119B (en) * 2004-08-18 2008-03-01 Sunplus Technology Co Ltd Dvd player with sound learning function
US7716046B2 (en) 2004-10-26 2010-05-11 Qnx Software Systems (Wavemakers), Inc. Advanced periodic signal enhancement
US20060106620A1 (en) 2004-10-28 2006-05-18 Thompson Jeffrey K Audio spatial environment down-mixer
WO2006048814A1 (en) 2004-11-02 2006-05-11 Koninklijke Philips Electronics N.V. Encoding and decoding of audio signals using complex-valued filter banks
SE0402651D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
JP4977472B2 (ja) 2004-11-05 2012-07-18 パナソニック株式会社 スケーラブル復号化装置
EP1798724B1 (en) 2004-11-05 2014-06-18 Panasonic Corporation Encoder, decoder, encoding method, and decoding method
US7873515B2 (en) * 2004-11-23 2011-01-18 Stmicroelectronics Asia Pacific Pte. Ltd. System and method for error reconstruction of streaming audio information
KR100657916B1 (ko) 2004-12-01 2006-12-14 삼성전자주식회사 주파수 대역간의 유사도를 이용한 오디오 신호 처리 장치및 방법
US7616710B2 (en) * 2004-12-08 2009-11-10 Electronics And Telecommunications Research Institute Frequency offset estimating method and receiver employing the same
US7676362B2 (en) * 2004-12-31 2010-03-09 Motorola, Inc. Method and apparatus for enhancing loudness of a speech signal
US8082156B2 (en) 2005-01-11 2011-12-20 Nec Corporation Audio encoding device, audio encoding method, and audio encoding program for encoding a wide-band audio signal
KR100708121B1 (ko) 2005-01-22 2007-04-16 삼성전자주식회사 음성 신호의 대역 확장 방법 및 장치
EP1864281A1 (en) 2005-04-01 2007-12-12 QUALCOMM Incorporated Systems, methods, and apparatus for highband burst suppression
ATE421845T1 (de) 2005-04-15 2009-02-15 Dolby Sweden Ab Zeitliche hüllkurvenformgebung von entkorrelierten signalen
US20070005351A1 (en) 2005-06-30 2007-01-04 Sathyendra Harsha M Method and system for bandwidth expansion for voice communications
JP4899359B2 (ja) 2005-07-11 2012-03-21 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
KR100813259B1 (ko) 2005-07-13 2008-03-13 삼성전자주식회사 입력신호의 계층적 부호화/복호화 장치 및 방법
US8019614B2 (en) 2005-09-02 2011-09-13 Panasonic Corporation Energy shaping apparatus and energy shaping method
US7653146B2 (en) * 2005-09-06 2010-01-26 Liquid Xstream Systems Inc. System and method for delivery of video, content on demand and IP packets
RU2378790C1 (ru) * 2005-09-27 2010-01-10 Квэлкомм Инкорпорейтед Методики масштабируемости на основе информации содержимого
US8396717B2 (en) 2005-09-30 2013-03-12 Panasonic Corporation Speech encoding apparatus and speech encoding method
CN102623014A (zh) 2005-10-14 2012-08-01 松下电器产业株式会社 变换编码装置和变换编码方法
EP1943643B1 (en) 2005-11-04 2019-10-09 Nokia Technologies Oy Audio compression
US8103516B2 (en) 2005-11-30 2012-01-24 Panasonic Corporation Subband coding apparatus and method of coding subband
JP4876574B2 (ja) 2005-12-26 2012-02-15 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
JP4863713B2 (ja) 2005-12-29 2012-01-25 富士通株式会社 雑音抑制装置、雑音抑制方法、及びコンピュータプログラム
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
EP1977312A2 (en) * 2006-01-16 2008-10-08 Zlango Ltd. Iconic communication
US7953604B2 (en) 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US7590523B2 (en) 2006-03-20 2009-09-15 Mindspeed Technologies, Inc. Speech post-processing using MDCT coefficients
WO2007114291A1 (ja) 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. 音声符号化装置、音声復号化装置、およびこれらの方法
CN101421781A (zh) * 2006-04-04 2009-04-29 杜比实验室特许公司 音频信号的感知响度和/或感知频谱平衡的计算和调整
WO2007126015A1 (ja) 2006-04-27 2007-11-08 Panasonic Corporation 音声符号化装置、音声復号化装置、およびこれらの方法
EP2200026B1 (en) 2006-05-10 2011-10-12 Panasonic Corporation Encoding apparatus and encoding method
KR20070115637A (ko) 2006-06-03 2007-12-06 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
JP2007333785A (ja) 2006-06-12 2007-12-27 Matsushita Electric Ind Co Ltd オーディオ信号符号化装置およびオーディオ信号符号化方法
KR101244310B1 (ko) 2006-06-21 2013-03-18 삼성전자주식회사 광대역 부호화 및 복호화 방법 및 장치
US8010352B2 (en) 2006-06-21 2011-08-30 Samsung Electronics Co., Ltd. Method and apparatus for adaptively encoding and decoding high frequency band
US8260609B2 (en) 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
JP5061111B2 (ja) 2006-09-15 2012-10-31 パナソニック株式会社 音声符号化装置および音声符号化方法
JP4918841B2 (ja) 2006-10-23 2012-04-18 富士通株式会社 符号化システム
US8295507B2 (en) 2006-11-09 2012-10-23 Sony Corporation Frequency band extending apparatus, frequency band extending method, player apparatus, playing method, program and recording medium
JP5141180B2 (ja) 2006-11-09 2013-02-13 ソニー株式会社 周波数帯域拡大装置及び周波数帯域拡大方法、再生装置及び再生方法、並びに、プログラム及び記録媒体
KR101565919B1 (ko) 2006-11-17 2015-11-05 삼성전자주식회사 고주파수 신호 부호화 및 복호화 방법 및 장치
JP4930320B2 (ja) 2006-11-30 2012-05-16 ソニー株式会社 再生方法及び装置、プログラム並びに記録媒体
EP2101322B1 (en) 2006-12-15 2018-02-21 III Holdings 12, LLC Encoding device, decoding device, and method thereof
RU2394283C1 (ru) * 2007-02-14 2010-07-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов
JP4984983B2 (ja) 2007-03-09 2012-07-25 富士通株式会社 符号化装置および符号化方法
JP2008261978A (ja) 2007-04-11 2008-10-30 Toshiba Microelectronics Corp 再生音量自動調整方法
US8015368B2 (en) 2007-04-20 2011-09-06 Siport, Inc. Processor extensions for accelerating spectral band replication
KR101355376B1 (ko) 2007-04-30 2014-01-23 삼성전자주식회사 고주파수 영역 부호화 및 복호화 방법 및 장치
US8788264B2 (en) 2007-06-27 2014-07-22 Nec Corporation Audio encoding method, audio decoding method, audio encoding device, audio decoding device, program, and audio encoding/decoding system
JP5071479B2 (ja) 2007-07-04 2012-11-14 富士通株式会社 符号化装置、符号化方法および符号化プログラム
JP5045295B2 (ja) 2007-07-30 2012-10-10 ソニー株式会社 信号処理装置及び方法、並びにプログラム
US8041577B2 (en) 2007-08-13 2011-10-18 Mitsubishi Electric Research Laboratories, Inc. Method for expanding audio signal bandwidth
US20090154726A1 (en) * 2007-08-22 2009-06-18 Step Labs Inc. System and Method for Noise Activity Detection
HUE041323T2 (hu) 2007-08-27 2019-05-28 Ericsson Telefon Ab L M Eljárás és eszköz hangjel észlelési spektrális dekódolására, beleértve a spektrális lyukak kitöltését
MX2010001394A (es) 2007-08-27 2010-03-10 Ericsson Telefon Ab L M Frecuencia de transicion adaptiva entre llenado de ruido y extension de anchura de banda.
CN101790756B (zh) 2007-08-27 2012-09-05 爱立信电话股份有限公司 瞬态检测器以及用于支持音频信号的编码的方法
US8554349B2 (en) 2007-10-23 2013-10-08 Clarion Co., Ltd. High-frequency interpolation device and high-frequency interpolation method
JP4733727B2 (ja) 2007-10-30 2011-07-27 日本電信電話株式会社 音声楽音擬似広帯域化装置と音声楽音擬似広帯域化方法、及びそのプログラムとその記録媒体
KR101373004B1 (ko) 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
JP5404412B2 (ja) 2007-11-01 2014-01-29 パナソニック株式会社 符号化装置、復号装置およびこれらの方法
US20090132238A1 (en) 2007-11-02 2009-05-21 Sudhakar B Efficient method for reusing scale factors to improve the efficiency of an audio encoder
KR101290622B1 (ko) 2007-11-02 2013-07-29 후아웨이 테크놀러지 컴퍼니 리미티드 오디오 복호화 방법 및 장치
CN101896968A (zh) 2007-11-06 2010-11-24 诺基亚公司 音频编码装置及其方法
JP2009116275A (ja) 2007-11-09 2009-05-28 Toshiba Corp 雑音抑圧、音声スペクトル平滑化、音声特徴抽出、音声認識及び音声モデルトレーニングための方法及び装置
US8504377B2 (en) 2007-11-21 2013-08-06 Lg Electronics Inc. Method and an apparatus for processing a signal using length-adjusted window
US8688441B2 (en) 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
WO2009081568A1 (ja) 2007-12-21 2009-07-02 Panasonic Corporation 符号化装置、復号装置および符号化方法
WO2009084221A1 (ja) 2007-12-27 2009-07-09 Panasonic Corporation 符号化装置、復号装置およびこれらの方法
EP2077551B1 (en) 2008-01-04 2011-03-02 Dolby Sweden AB Audio encoder and decoder
JP5448850B2 (ja) 2008-01-25 2014-03-19 パナソニック株式会社 符号化装置、復号装置およびこれらの方法
KR101413968B1 (ko) 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화, 복호화 방법 및 장치
US8433582B2 (en) 2008-02-01 2013-04-30 Motorola Mobility Llc Method and apparatus for estimating high-band energy in a bandwidth extension system
US20090201983A1 (en) 2008-02-07 2009-08-13 Motorola, Inc. Method and apparatus for estimating high-band energy in a bandwidth extension system
WO2009110738A2 (ko) 2008-03-03 2009-09-11 엘지전자(주) 오디오 신호 처리 방법 및 장치
KR101449434B1 (ko) 2008-03-04 2014-10-13 삼성전자주식회사 복수의 가변장 부호 테이블을 이용한 멀티 채널 오디오를부호화/복호화하는 방법 및 장치
ES2796493T3 (es) 2008-03-20 2020-11-27 Fraunhofer Ges Forschung Aparato y método para convertir una señal de audio en una representación parametrizada, aparato y método para modificar una representación parametrizada, aparato y método para sintetizar una representación parametrizada de una señal de audio
US8085941B2 (en) * 2008-05-02 2011-12-27 Dolby Laboratories Licensing Corporation System and method for dynamic sound delivery
KR20090122142A (ko) 2008-05-23 2009-11-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
EP2294770B1 (en) 2008-06-20 2013-08-07 Rambus, Inc. Frequency responsive bus coding
US8532932B2 (en) * 2008-06-30 2013-09-10 Nellcor Puritan Bennett Ireland Consistent signal selection by signal segment selection techniques
EP3246918B1 (en) 2008-07-11 2023-06-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method for decoding an audio signal and computer program
ES2796552T3 (es) 2008-07-11 2020-11-27 Fraunhofer Ges Forschung Sintetizador de señales de audio y codificador de señales de audio
JP5203077B2 (ja) 2008-07-14 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
BRPI0917953B1 (pt) 2008-08-08 2020-03-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparelho de atenuação de espectro, aparelho de codificação, aparelho terminal de comunicação, aparelho de estação base e método de atenuação de espectro.
JP2010079275A (ja) 2008-08-29 2010-04-08 Sony Corp 周波数帯域拡大装置及び方法、符号化装置及び方法、復号化装置及び方法、並びにプログラム
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
WO2010028299A1 (en) 2008-09-06 2010-03-11 Huawei Technologies Co., Ltd. Noise-feedback for spectral envelope quantization
WO2010028292A1 (en) 2008-09-06 2010-03-11 Huawei Technologies Co., Ltd. Adaptive frequency prediction
GB2466201B (en) 2008-12-10 2012-07-11 Skype Ltd Regeneration of wideband speech
GB0822537D0 (en) 2008-12-10 2009-01-14 Skype Ltd Regeneration of wideband speech
PL4224475T3 (pl) * 2008-12-15 2024-03-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dekoder powiększania szerokości pasma audio, powiązany sposób oraz program komputerowy
CN101770776B (zh) 2008-12-29 2011-06-08 华为技术有限公司 瞬态信号的编码方法和装置、解码方法和装置及处理系统
BR122019023704B1 (pt) 2009-01-16 2020-05-05 Dolby Int Ab sistema para gerar um componente de frequência alta de um sinal de áudio e método para realizar reconstrução de frequência alta de um componente de frequência alta
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
JP4945586B2 (ja) 2009-02-02 2012-06-06 株式会社東芝 信号帯域拡張装置
US8463599B2 (en) 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
EP2402940B9 (en) 2009-02-26 2019-10-30 Panasonic Intellectual Property Corporation of America Encoder, decoder, and method therefor
JP5564803B2 (ja) 2009-03-06 2014-08-06 ソニー株式会社 音響機器及び音響処理方法
CN101853663B (zh) 2009-03-30 2012-05-23 华为技术有限公司 比特分配方法、编码装置及解码装置
EP2239732A1 (en) 2009-04-09 2010-10-13 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for generating a synthesis audio signal and for encoding an audio signal
CO6440537A2 (es) 2009-04-09 2012-05-15 Fraunhofer Ges Forschung Aparato y metodo para generar una señal de audio de sintesis y para codificar una señal de audio
US8392200B2 (en) 2009-04-14 2013-03-05 Qualcomm Incorporated Low complexity spectral band replication (SBR) filterbanks
US8971551B2 (en) 2009-09-18 2015-03-03 Dolby International Ab Virtual bass synthesis using harmonic transposition
TWI643187B (zh) 2009-05-27 2018-12-01 瑞典商杜比國際公司 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體
JP5223786B2 (ja) 2009-06-10 2013-06-26 富士通株式会社 音声帯域拡張装置、音声帯域拡張方法及び音声帯域拡張用コンピュータプログラムならびに電話機
US8515768B2 (en) 2009-08-31 2013-08-20 Apple Inc. Enhanced audio decoder
JP5928539B2 (ja) 2009-10-07 2016-06-01 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
US8600749B2 (en) 2009-12-08 2013-12-03 At&T Intellectual Property I, L.P. System and method for training adaptation-specific acoustic models for automatic speech recognition
US8447617B2 (en) 2009-12-21 2013-05-21 Mindspeed Technologies, Inc. Method and system for speech bandwidth extension
EP2357649B1 (en) 2010-01-21 2012-12-19 Electronics and Telecommunications Research Institute Method and apparatus for decoding audio signal
TWI529703B (zh) 2010-02-11 2016-04-11 杜比實驗室特許公司 用以非破壞地正常化可攜式裝置中音訊訊號響度之系統及方法
ES2935637T3 (es) 2010-03-09 2023-03-08 Fraunhofer Ges Forschung Reconstrucción de alta frecuencia de una señal de audio de entrada usando bancos de filtros en cascada
JP5375683B2 (ja) 2010-03-10 2013-12-25 富士通株式会社 通信装置および電力補正方法
JP2011203483A (ja) 2010-03-25 2011-10-13 Yamaha Corp 音声処理装置
WO2011121782A1 (ja) 2010-03-31 2011-10-06 富士通株式会社 帯域拡張装置および帯域拡張方法
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5652658B2 (ja) 2010-04-13 2015-01-14 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
CN103069484B (zh) 2010-04-14 2014-10-08 华为技术有限公司 时/频二维后处理
US9047875B2 (en) 2010-07-19 2015-06-02 Futurewei Technologies, Inc. Spectrum flatness control for bandwidth extension
US8560330B2 (en) 2010-07-19 2013-10-15 Futurewei Technologies, Inc. Energy envelope perceptual correction for high band coding
BR112012024360B1 (pt) 2010-07-19 2020-11-03 Dolby International Ab sistema configurado para gerar uma pluralidade de sinais de áudio de sub-banda de alta frequência, decodificador de áudio, codificador, método para gerar uma pluralidade de sinais de sub-banda de alta frequência, método para decodificar um fluxo de bits, método para gerar dados de controle a partir de um sinal de áudio e meio de armazenamento
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP2012058358A (ja) 2010-09-07 2012-03-22 Sony Corp 雑音抑圧装置、雑音抑圧方法およびプログラム
US8407020B1 (en) * 2010-09-28 2013-03-26 The United States Of America As Represented By The Secretary Of The Navy Fast method to search for linear frequency-modulated signals
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
US9230551B2 (en) 2010-10-18 2016-01-05 Nokia Technologies Oy Audio encoder or decoder apparatus
US8521541B2 (en) * 2010-11-02 2013-08-27 Google Inc. Adaptive audio transcoding
JP5743137B2 (ja) 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5704397B2 (ja) 2011-03-31 2015-04-22 ソニー株式会社 符号化装置および方法、並びにプログラム
US9171549B2 (en) * 2011-04-08 2015-10-27 Dolby Laboratories Licensing Corporation Automatic configuration of metadata for use in mixing audio programs from two encoded bitstreams
EP2702585B1 (en) 2011-04-28 2014-12-31 Telefonaktiebolaget LM Ericsson (PUBL) Frame based audio signal classification
JP6037156B2 (ja) 2011-08-24 2016-11-30 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5975243B2 (ja) 2011-08-24 2016-08-23 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP5845760B2 (ja) 2011-09-15 2016-01-20 ソニー株式会社 音声処理装置および方法、並びにプログラム
WO2013045693A2 (en) 2011-09-29 2013-04-04 Dolby International Ab High quality detection in fm stereo radio signals
US9354968B2 (en) * 2011-09-30 2016-05-31 Johnson Controls Technology Company Systems and methods for data quality control and cleansing
JP2013102411A (ja) * 2011-10-14 2013-05-23 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
US9583108B2 (en) * 2011-12-08 2017-02-28 Forrest S. Baker III Trust Voice detection for automated communication system
JP5810946B2 (ja) * 2012-01-31 2015-11-11 富士通株式会社 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム
US9576593B2 (en) * 2012-03-15 2017-02-21 Regents Of The University Of Minnesota Automated verbal fluency assessment
CN104205210A (zh) 2012-04-13 2014-12-10 索尼公司 解码设备和方法、音频信号处理设备和方法以及程序
JP5997592B2 (ja) 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
TWI517142B (zh) 2012-07-02 2016-01-11 Sony Corp Audio decoding apparatus and method, audio coding apparatus and method, and program
CA2843226A1 (en) 2012-07-02 2014-01-09 Sony Corporation Decoding device, decoding method, encoding device, encoding method, and program
AU2013284703B2 (en) 2012-07-02 2019-01-17 Sony Corporation Decoding device and method, encoding device and method, and program
KR20150032651A (ko) 2012-07-02 2015-03-27 소니 주식회사 복호 장치 및 방법, 부호화 장치 및 방법, 및 프로그램
US9991861B2 (en) * 2012-08-10 2018-06-05 Bellevue Investments Gmbh & Co. Kgaa System and method for controlled dynamics adaptation for musical content
JP2014123011A (ja) 2012-12-21 2014-07-03 Sony Corp 雑音検出装置および方法、並びに、プログラム
KR102071860B1 (ko) * 2013-01-21 2020-01-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 상이한 재생 디바이스들에 걸친 라우드니스 및 동적 범위의 최적화
CN105531762B (zh) 2013-09-19 2019-10-01 索尼公司 编码装置和方法、解码装置和方法以及程序
CA3162763A1 (en) 2013-12-27 2015-07-02 Sony Corporation Decoding apparatus and method, and program
PL3123469T3 (pl) 2014-03-25 2018-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie kodera audio i urządzenie dekodera audio z wydajnym kodowaniem wzmocnienia w sterowaniu zakresem dynamiki

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH088933A (ja) * 1994-06-24 1996-01-12 Nec Corp 音声セル符号化装置
JP2007316254A (ja) * 2006-05-24 2007-12-06 Sony Corp オーディオ信号補間方法及びオーディオ信号補間装置
JP2012504260A (ja) * 2008-09-30 2012-02-16 ドルビー・インターナショナル・アーベー オーディオメタデータのトランスコーディング
JP2013015633A (ja) * 2011-07-01 2013-01-24 Yamaha Corp 信号送信装置および信号処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ITU-R BS., March 2011 (2011-03-01), pages 1770 - 2
See also references of EP3089161A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020202549A (ja) * 2019-06-06 2020-12-17 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド オーディオ処理方法、装置、電子機器及び記憶媒体
US11137974B2 (en) 2019-06-06 2021-10-05 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for audio processing, electronic device and storage medium
JP6999631B2 (ja) 2019-06-06 2022-01-18 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド オーディオ処理方法、装置、電子機器及び記憶媒体

Also Published As

Publication number Publication date
US20230245665A1 (en) 2023-08-03
TWI644308B (zh) 2018-12-11
AU2014371411A1 (en) 2016-06-23
KR102356012B1 (ko) 2022-01-27
RU2016124464A (ru) 2017-12-22
KR20220013024A (ko) 2022-02-04
JPWO2015098564A1 (ja) 2017-03-23
MY188538A (en) 2021-12-20
US20200265845A1 (en) 2020-08-20
EP3089161A4 (en) 2017-07-12
US20180197555A1 (en) 2018-07-12
JP2021177260A (ja) 2021-11-11
EP3608909A1 (en) 2020-02-12
RU2018132534A (ru) 2018-10-23
EP3089161B1 (en) 2019-10-23
KR20160102403A (ko) 2016-08-30
TW201537560A (zh) 2015-10-01
MX2016008172A (es) 2016-10-21
JP6593173B2 (ja) 2019-10-23
RU2764260C2 (ru) 2022-01-14
CN105849801A (zh) 2016-08-10
KR20230042410A (ko) 2023-03-28
JP2019215585A (ja) 2019-12-19
BR112016014476A2 (pt) 2020-09-08
CA3162763A1 (en) 2015-07-02
RU2018132534A3 (ja) 2021-11-11
BR112016014476B1 (pt) 2021-11-23
US10692511B2 (en) 2020-06-23
US11705140B2 (en) 2023-07-18
CA2934602A1 (en) 2015-07-02
JP7215534B2 (ja) 2023-01-31
CN105849801B (zh) 2020-02-14
RU2667627C1 (ru) 2018-09-21
SG11201605015XA (en) 2016-08-30
KR102513009B1 (ko) 2023-03-22
EP3608909B1 (en) 2021-08-25
JP2020187377A (ja) 2020-11-19
JP6753499B2 (ja) 2020-09-09
CA2934602C (en) 2022-08-30
EP3089161A1 (en) 2016-11-02
JP6927385B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
JP6927385B2 (ja) 復号化装置および方法、並びにプログラム
JP6531649B2 (ja) 符号化装置および方法、復号化装置および方法、並びにプログラム
USRE49107E1 (en) Audio encoder device and an audio decoder device having efficient gain coding in dynamic range control
RU2634422C2 (ru) Эффективное кодирование звуковых сцен, содержащих звуковые объекты
RU2630754C2 (ru) Эффективное кодирование звуковых сцен, содержащих звуковые объекты
TW201503108A (zh) 後設資料驅動動態範圍控制
US9165561B2 (en) Apparatus and method for processing voice signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14873206

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015554741

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20167015462

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2934602

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2934602

Country of ref document: CA

Ref document number: 2016124464

Country of ref document: RU

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014873206

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014873206

Country of ref document: EP

Ref document number: MX/A/2016/008172

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2014371411

Country of ref document: AU

Date of ref document: 20141212

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016014476

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112016014476

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160620

ENPC Correction to former announcement of entry into national phase, pct application did not enter into the national phase

Ref document number: 112016014476

Country of ref document: BR

Kind code of ref document: A2

Free format text: ANULADA A PUBLICACAO CODIGO 1.3 NA RPI NO 2431 DE 08/08/2017 POR TER SIDO INDEVIDA.

REG Reference to national code

Ref country code: BR

Ref legal event code: B01E

Ref document number: 112016014476

Country of ref document: BR

Kind code of ref document: A2

Free format text: REAPRESENTE A DECLARACAO REFERENTE AO DOCUMENTO DE PRIORIDADE DEVIDAMENTE ASSINADA, CONFORME ART. 408 C/C ART. 410, II, DO CODIGO DE PROCESSO CIVIL.

ENP Entry into the national phase

Ref document number: 112016014476

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160620