WO2009088257A2 - 프레임 타입 식별 방법 및 장치 - Google Patents

프레임 타입 식별 방법 및 장치 Download PDF

Info

Publication number
WO2009088257A2
WO2009088257A2 PCT/KR2009/000137 KR2009000137W WO2009088257A2 WO 2009088257 A2 WO2009088257 A2 WO 2009088257A2 KR 2009000137 W KR2009000137 W KR 2009000137W WO 2009088257 A2 WO2009088257 A2 WO 2009088257A2
Authority
WO
WIPO (PCT)
Prior art keywords
frame
information
type
current frame
type information
Prior art date
Application number
PCT/KR2009/000137
Other languages
English (en)
French (fr)
Other versions
WO2009088257A3 (ko
Inventor
Sang Bae Chon
Lae Hoon Kim
Keong Mo Sung
Original Assignee
Lg Electronics Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc. filed Critical Lg Electronics Inc.
Priority to EP09700585.4A priority Critical patent/EP2242047B1/en
Priority to US12/463,141 priority patent/US8271291B2/en
Publication of WO2009088257A2 publication Critical patent/WO2009088257A2/ko
Publication of WO2009088257A3 publication Critical patent/WO2009088257A3/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching

Definitions

  • the present invention relates to a signal processing method and apparatus capable of encoding or decoding bandwidth extension information of an audio signal.
  • information for decoding an ⁇ audio signal is transmitted in units of frames.
  • Information belonging to each frame is repeatedly transmitted according to a predetermined rule.
  • information of a previous frame and information of the current frame are related, such as frame type information.
  • the present invention has been made to solve the above problems, and to provide a signal processing method and apparatus for encoding and decoding the information of the current frame based on the association between the information of the previous frame and the information of the current frame. .
  • Another object of the present invention is to provide a signal processing method and apparatus for generating frame identification information corresponding to a current frame by using type information of a transmitted current frame and type information of a previous frame.
  • Alternative Response (Article 26) [Advantageous Effects]
  • the present invention provides the following effects and advantages.
  • the redundancy corresponding to the association can be coded based on the association between the information of the current frame and the information of the previous frame, the number of bits required for coding the current frame information can be significantly reduced.
  • 1 is a diagram for explaining a relationship between a frame and a block
  • FIG. 2 is a diagram for explaining a frame type
  • 3 is a diagram for explaining correlation between a previous frame type and a current frame type.
  • 4 is a block diagram of an apparatus for generating frame type information according to an embodiment of the present invention.
  • FIG. 5 is a diagram for explaining a process of generating current frame type information
  • FIG. 6 is a block diagram of a frame type identification device according to an embodiment of the present invention.
  • FIG. 7 is a view for explaining a process of generating current frame identification information.
  • FIG. 8 is a first example of an audio signal encoding apparatus to which a frame identification information generating device according to an embodiment of the present invention is applied.
  • FIG. 9 is a diagram illustrating a first filter of an audio signal decoding apparatus to which a frame type identification device according to an embodiment of the present invention is applied.
  • FIG. 10 is a schematic structural diagram of a product implemented with a frame type identification device according to an embodiment of the present invention.
  • FIG. 11 is a relationship diagram of products in which a frame type identification device according to an embodiment of the present invention is implemented.
  • a frame type identification method includes: receiving current frame type information; Obtaining previous frame type information received in advance; Generating frame identification information of the current frame using the current frame type information and the previous frame type information; And identifying the current frame by using the frame identification information.
  • the frame identification information includes forward type information and backward type information, the forward type information is determined according to the previous frame type information, and the backward type information is determined by the current frame type information. Can be determined accordingly.
  • at least one of the previous frame type information and the current frame type information increment may correspond to any one of a fixed type and a variable type.
  • the present invention if the previous frame type information is variable, determining a specific start position; And determining the end position of the block when the current frame type information is variable.
  • the number of blocks for the current frame may be 2n (n is an integer).
  • the size of the block may be equivalent.
  • the information extraction unit for receiving the current frame type information and to obtain the previous frame type information received in advance;
  • a frame identification information generation unit generating frame identification information of a current frame by using the current frame type information and the previous frame type information;
  • a frame identification unit for identifying the current frame using the frame identification information.
  • determining the frame identification information of the current frame consisting of a forward type and a backward type; And generating current frame type information based on the backward type among the frame identification information.
  • the type is provided with a frame type identification method determined by frame identification information of a previous frame.
  • the frame identification information determiner for determining the frame identification information of the current frame, consisting of a forward type and a backward type; And a type information generation unit configured to generate current frame type information based on the backward type among the frame identification information, wherein the forward type is provided with a frame type identification device determined by previous frame identification information.
  • the digital audio data includes previous type frame information for a previous frame type and current frame information for a current frame.
  • the current frame information includes current frame type information, and when the frame identification information includes a forward type and a backward type, the current frame type information is provided by a storage medium determined by the backward type. do.
  • receiving a backward type bit corresponding to the current frame type information acquiring a forward type bit corresponding to the previous frame type information; And generating the frame type information of the current frame by placing the backward type bit in the first position and the forward type bit in the second position.
  • the first position may be the last position and the second position may be the last previous position.
  • At least one of the forward type bit and the backward type bit may indicate whether one of the fixed type and the variable type corresponds.
  • the forward type bit and the backward type bit may be 1 bit, and the frame identification information may be 2 bits.
  • the current 'receive kkwet word type bit that corresponds to the re-frame type information, and extracts information to obtain a forward-type bit for the previous frame type information unit;
  • a frame identification information generation unit arranged to generate frame identification information of a current frame by arranging the backward type bits at a first position and the forward type bits at a lower 1 2 position.
  • determining the frame identification information of the current frame consisting of a forward type bit and a backward type bit; And generating current frame type information based on the backward type bits of the frame identification information, wherein the forward type bits are determined by frame identification information of a previous frame. do.
  • the frame identification information determiner for determining the frame identification information of the current frame consisting of a forward type bit and a backward type bit; And a frame type information generation unit generating current frame type information based on the backward type bits of the frame identification information, wherein the forward type bits are frame type identification determined by frame identification information of a previous frame.
  • the digital audio data is the previous frame information corresponding to the previous frame and the current frame information to the current frame.
  • the current frame information includes current frame type information, and when the frame identification information includes a forward type bit and a backward type bit, the current frame type information is determined by the backward type bit. Is provided.
  • Coding can sometimes be interpreted as encoding or decoding, and information is a term that encompasses values, parameters, coefficients, elements, and so on. It may be interpreted otherwise, but the present invention is not limited thereto.
  • the audio signal is broadly defined as a concept that is distinguished from a video signal, and refers to a signal that can be visually identified during reproduction.
  • the audio signal is a concept that is distinguished from a speech signal. Means a signal with little or no characteristics.
  • the audio signal in the present invention should be interpreted broadly and can be understood as a narrow audio signal when used separately from a voice signal.
  • the frame refers to a unit for encoding or decoding an audio signal, and is not limited to a specific number of samples or a specific time.
  • the audio signal processing method and apparatus may be a frame information encoding / decoding apparatus and method, and furthermore, the audio signal encoding / decoding apparatus and method to which the apparatus and method are applied may be used.
  • An encoding and decoding apparatus and method will be described, and a frame information encoding and decoding method performed by the frame information encoding and decoding apparatus, and an audio signal encoding and decoding apparatus and method to which the apparatus is applied will be described.
  • Frame Type 1 is a diagram for explaining a relationship between a frame and a block.
  • FIG. 1A as a result of performing frequency analysis on one frame, it can be seen that information corresponding to 64 bands in a vertical axis and 16 time slots in a horizontal axis is generated. Meanwhile, one time slot may be based on two samples, but the present invention is not limited thereto.
  • one frame may be grouped into one or more blocks according to the characteristics of a unit (eg, a time slot). For example, one frame may be divided into 1 to 5 blocks according to the presence or absence of a transition part.
  • the fixed form corresponds to the boundary of the block and the boundary of the frame, as in the first block (blkl) of FIG. 1B, and the variable form of the block, such as the second block (blk2) of FIG.
  • the border and frame border do not match.
  • a block may have a fixed size or a variable size.
  • the block size is uniformly determined according to the number of blocks, and when the size is variable, the block number and block position information The block size is determined using. Whether the size of the block is fixed or variable may be determined according to whether the boundary of the frame described above coincides. Specifically, if the start boundary (forward to be described later) and the end boundary (forward to be described later) of the frame are both fixed, the block size may be fixed.
  • the frame type may be determined according to the beginning and the end of the frame.
  • the frame identification information may be determined according to whether the boundary line of the start portion of the frame is fixed or variable, and the boundary line of the end portion is fixed or variable. For example, it may be determined as follows.
  • FIG. 2 is a diagram for explaining a frame type, and examples of the four frame types listed in Table 1 are shown in order.
  • FIG. 2A when the frame type is dependent, there may be no transient section. At this time, there can be one block, the length or size of the block is equal, it can be seen that the interval of the block and the frame section and the start position or end position is the same. Therefore, the size and location of the block can be estimated using the number information of the blocks.
  • a transition period may exist after the start position of the frame.
  • the start position of the first block blkl coincides with the start position of the frame, but the end positions of the blocks (blk3, etc.) do not coincide with the end position of the frame. Therefore, not only the number of blocks but also the end position information of each block must be transmitted so that the decoder can restore the characteristics of the block.
  • the transition period may be before the end position of the frame.
  • the end position of the last block (blk2) coincides with the end position of the frame, but the start of the first block (bM) The position does not match the starting position of the frame. Therefore, each unique location information should be transmitted.
  • the transition period may be both before and after the frame.
  • both the start boundary and the end boundary of the frame are inconsistent with the frame boundary, and at least one of the start position information and the end position information should be transmitted for each block.
  • the number of bits of the frame identification information for identifying the frame type is basically proportional to the number of cases or the number of types. For example, when there are four frame types, the frame identification information may be represented by 2 bits. When the frame types are 5 or more types and 8 or less types, the frame identification information may be represented by 3 bits. As illustrated in Table 1, since there are four frame types, two bits are required to represent identification information.
  • FIG. 3 is a diagram for explaining correlation between a previous frame type and a current frame type.
  • the backward type of the IN frame type in the previous frame is fixed. Because the backward type is fixed, the back border of the block and the border of the frame coincide. Therefore, the block of the current frame following the previous frame starts from the frame boundary. Therefore, it can be seen that the current frame type increase forward type is fixed.
  • FIG. 3B when the backward type of the previous frame is variable, the boundary of the block does not coincide with the boundary of the frame. Therefore, since the next block also does not start from the frame boundary, it can be seen that the forward type of the current frame is also variable. As such, it can be seen that the forward type of the current frame type is associated with the backward type of the previous frame.
  • the apparatus 100 for generating frame type information may include a frame type information generating unit 120, and may further include a frame identification information determining unit 110 and a block information generating unit 130.
  • the block information generator 130 may include a block number information generator 131 and a block position information generator 132.
  • the frame identification information determining unit 110 determines the frame identification information fiN for indicating the frame type of the current frame based on the block characteristic information.
  • the frame type may be determined according to whether the block coincides with the boundary of the block, and may be composed of a forward type and a backward type. Specifically, as shown in Table 1 above, but may be one of four, but the present invention is not limited thereto.
  • the frame type information generation unit 120 determines the current frame type information (3 ⁇ 4) based on the frame identification information fi.
  • the frame type information is determined by previous frame identification information fiN-i and current frame identification information fi N.
  • 5 is a diagram for describing a current frame type information generation process. Referring to FIG. 5, the previous frame identification information fiN-i and the current frame identification information fi N each represent one type of four (pendant, forward dependent, backward dependent, independent) increments. It can be seen. In this case, as described above, the previous frame type increase backward type and the current frame type increase forward type are related to each other. In other words, the forward type of the current frame type is determined by the backward type of the previous frame type. Is determined. Accordingly, the current frame type information ftN is generated using only the backward type information except for the forward type information among the current frame identification information fi N.
  • the block information generation unit 130 generates one or more of block number information and block position information according to the current frame identification information fi N.
  • the current frame type is the above-described dependency
  • only block number information may be generated.
  • the size of the block may be an equal value divided by the number of blocks from the size of the frame (see FIG. 2A).
  • block position information may be further generated in addition to the block number information.
  • end position information of the block may be generated among the block position information (refer to epl, ep2, and ep3 in FIG. 2B).
  • start position information of the block may be generated among the position information of the block (see spl and sp2 of FIG. 2C).
  • both the start position information and the end position information of the block can be generated (see spl and sp3 ⁇ 4 epl of FIG. 2 (D)).
  • the block number information generation unit 131 generates the number of blocks for all current frame types, and the block position information generation unit 132 determines the starting position information of the block when the current frame type is not dependent. And non-specific end position information.
  • the apparatus for generating frame identification information may encode information corresponding to the current frame based on the correlation between the information of the previous frame and the information of the current frame.
  • the frame type identification apparatus 200 may include a frame identification information generation unit 220, and further include an information extraction unit 210, a block information acquisition unit 230, and a frame identification unit 240.
  • the block information acquisition unit 230 may include a block number information acquisition unit 231 and a block location information acquisition unit 232.
  • the information extracting unit 210 extracts the current frame type information ftN from the bitstream, and obtains the previously received previous frame type information ftN-l.
  • the bitstream is transmitted to the block number information acquisition unit 231 and the block position information acquisition unit 232.
  • the frame identification information generation unit 220 generates frame identification information of the current frame using the current frame type information ftN and the previous frame type information ftN4.
  • FIG. 7 is a diagram for describing a process of generating current frame identification information.
  • the type information is determined and the backward type information of the current frame type fi n is determined by the type information (3 ⁇ 4) of the current frame.
  • the current frame identification information is determined by the forward type information and the backward type information, and the frame type may be determined by one of a dependent forward dependency, a backward dependency, and an independent increase.
  • the concept of determining a bit corresponding to identification information () of the current frame is determined.
  • the forward type bit of the current frame identification information is determined by the type bit ftN4 of the previous frame, and the .backward type bit of the current frame identification information is determined by the current frame type bit ().
  • identification information of the current frame may be generated.
  • the first position may be the k + 1th digit and the second position may be the kth digit.
  • the forward type bit is pushed by one digit from the k th digit to the k + 1 th digit, and the backward type bit maintains the k th digit. If a single digit is pushed down, it is shifted one digit to the left in binary. This can be done by multiplying the forward type bit by two. Of course, in the case of N decimal, it can be performed by multiplying the forward type bit by N.
  • the block number information obtaining unit 231 obtains the number information of blocks, and the block position information obtaining unit 232 according to the frame type represented by the current frame identification information (3 ⁇ 4). As described above, at least one of block start position information and block end position information is obtained. If the frame type is dependent, location information may not be obtained.
  • the frame identification unit 240 identifies the type of the current frame by using the frame type according to the frame identification information fi N. Furthermore, the location and characteristics of the block can be identified using the block number information and the block location information.
  • the apparatus for identifying a frame type may generate identification information indicating the type of the current frame based on the correlation between the information of the previous frame and the information of the current frame.
  • the frame type As described above, the frame type, the block type, the frame type identification, and the like have been described.
  • the block information will be described.
  • the block number information is information about how many blocks correspond to a specific frame.
  • the number of such blocks is predetermined and may not need to be transmitted by the encoder.
  • the number of blocks since the number of blocks is different for each frame, it may be necessary to transmit block number information for each frame.
  • the number information of blocks may encode the number itself, and if the number of blocks can be expressed as 2 "(n is an integer), only the index n can be transmitted. In particular, when the frame type is dependent (Ie, both the forward type and the backward type are fixed)
  • the index n may be transmitted as the number information of the blocks.
  • the start position information may be an absolute value or a difference value.
  • the absolute value may be the number of the unit corresponding to the start position when the frame consists of one or more units.
  • the difference value may be a difference value between the start position information of the closest frame among the frames having start position information among the frames existing before the current frame and the start position information of the current frame.
  • the end position of the last block when the backward type is fixed, the end position of the last block may be a frame end position.
  • the end position information of the block when the backward type is variable, it is not a frame end position, so the end position information of the block can be transmitted.
  • the last end position information may be an absolute value or a difference value.
  • the difference value may be a difference value between the end position of the frame closest to the frame having end position information among the frames existing before the current frame and the end position information of the current frame.
  • the middle block specific start position information or end position information may also be an absolute value or a difference value.
  • the absolute value may likewise be the number of the unit corresponding to the start position or end position.
  • the difference value may be a unit interval between blocks.
  • the audio signal encoding apparatus 300 may include a multichannel encoder 310, a bandwidth extension encoding apparatus 320, an audio signal encoder 330, a voice signal encoder 340, and a multiplexer 350. It may include. Meanwhile, the frame information encoding apparatus according to the embodiment of the present invention may be included in the bandwidth extension encoding apparatus 320.
  • the multi-channel encoder 310 receives a plurality of channel signals (two or more channel signals) (hereinafter, referred to as a multi-channel signal) and performs downmixing to perform mono or stereo downmix signals. And spatial information necessary for upmixing the downmix signal to the multichannel signal.
  • the spatial information may include channel level difference information, inter-channel correlation information, channel prediction coefficients, downmix gain information, and the like.
  • the multi-channel encoder 310 may bypass the mono signal without downmixing.
  • the band extension encoding apparatus 320 may generate band extension information for reconstructing the excluded data, except for spectra data of some bands (eg, a high frequency band) of the downmix signal.
  • the band extension encoding apparatus 320 may include each component of the frame identification information generating apparatus 100 according to the embodiment of the present invention described with reference to FIG. 4. Accordingly, the band extension information generated by the band extension encoding apparatus 320 may include the above-described frame type information ftN, block number information, block position information, and the like.
  • the decoder can restore the downmix of the entire band only with the downmix and band extension information of the remaining bands.
  • the audio signal encoder 330 encodes the downmix signal according to an audio coding scheme when a specific frame or a specific segment of the downmix signal has a large audio characteristic.
  • the audio coding scheme may be based on an AAC standard or a high efficiency advanced audio coding (HE-AAC) standard, but the present invention is not limited thereto.
  • the audio signal encoder 330 may correspond to a modified disc transform transform (MDCT) encoder.
  • MDCT modified disc transform transform
  • the speech signal encoder 34D encodes the downmix signal according to a speech coding scheme when a particular frame or segment of the downmix signal has a large speech characteristic.
  • the speech coding scheme may be based on an adaptive multi-rate wide-band (AMR-WB) standard, but the present invention is not limited thereto.
  • the speech signal encoder 340 may further use a linear prediction coding (LPC) method. If the harmonic signal has high redundancy on the time axis, it can be modeled by linear prediction that predicts the current signal from the past signal. Can increase the effect.
  • the voice signal encoder 340 may correspond to a time domain encoder.
  • the multiplexer 350 multiplexes the spatial constant extension information, the spectral data, and the like to generate an audio signal bitstream.
  • an audio signal decoding apparatus 400 includes a demultiplexer 410, an audio signal decoder 420, a voice signal decoder 430, and a multichannel decoder 450.
  • the demultiplexer 410 extracts spectral data, bandwidth extension, and spatial information from the audio signal bitstream.
  • the audio signal decoder 420 decodes the spectral data by an audio coding method when the spectral data corresponding to the downmix signal has a large audio characteristic.
  • the audio coding scheme may be based on the AAC standard and the HE-AAC standard.
  • the speech signal decoder 430 decodes the downmix signal using a speech coding scheme when the spectral data has a large speech characteristic.
  • the speech coding scheme may conform to the AMR-WB standard, but the present invention is not limited thereto.
  • the band extension decoding apparatus 44D decodes the band extension information bitstream including the frame type information and the block information, and uses the information to apply spectrals of other bands (eg, high frequency bands) from some or all of the spectral data. Generate data. In this case, even in extending the frequency band, a block may be generated by grouping into units having similar characteristics. This is equivalent to grouping type slots (or samples) with a common bell top (or bell top characteristic) to create an bell top region.
  • the band extension decoding apparatus may include all the components of the frame type identification apparatus described above with reference to FIG. 6. That is, the current frame using the frame type information of the previous frame Identification information of the frame is obtained. Then, different types of block information are extracted according to the frame type represented by the frame identification information, and block characteristics are obtained using the frame type and the block information. Based on this block characteristic, spectral data of different bands are generated. Meanwhile, the bandwidth extension information bitstream may be encoded according to the rules shown in Table 2 below.
  • frmClass exFrmClass + bs_frame_class; 1 (A) switch (frmClass) ⁇
  • the type of each frame class is divided, and in each case, the block number information is present in the (E1N) to (E4N) rows, and the start position information or the end.
  • the location information is shown in the (E2F), (E3S), (E4F), and (E4S) lines.
  • the frame type identification device according to the present invention can be included and used in various products. These products can be broadly divided into stand alone and portable groups, which can include TVs, monitors, and set-top boxes, and portable groups include PMPs, mobile phones, and navigation. can do. 10 is a view showing a schematic configuration of a product implemented with a frame type identification device according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a relationship between products in which a frame type identification device according to an embodiment of the present invention is implemented.
  • the wired / wireless communication unit 510 receives a bitstream through a wired / wireless communication scheme.
  • the wired / wireless communication unit 510 may include at least one of a wired communication unit 510A, an infrared communication unit 510B, a Bluetooth unit 510C, and a wireless LAN communication unit 510D.
  • the user authentication unit 520 receives user information and performs user authentication, and includes at least one of a fingerprint recognition unit 0A, an iris recognition unit 520B, a face recognition unit ffiOC, and a voice recognition unit 5 20D. It may include, respectively, the fingerprint, Heungchae information, facial contour information, voice information is received, converted into user information, and the user information and the user can determine whether or not match with the existing registered user data to perform user authentication. have.
  • the input unit 530 is an input device for a user to input various types of commands.
  • the input unit 530 may include at least one of a keypad unit 530A, a touch pad unit 530B, and a remote controller unit 530C. Is not limited to this.
  • the signal decoding unit 540 includes a frame type identification device 545.
  • the frame type identification device 545 is an apparatus including at least a frame identification information generation unit among the frame type identification devices described above with reference to FIG. Frame identification information for the current frame is generated from the type information.
  • the signal decoding unit 550 decodes the signal using the received bitstream and frame identification information to generate an output signal.
  • the controller 550 receives input signals from the input devices and controls all processes of the signal decoding unit 540 and the output unit 560.
  • the output unit 560 is a component that outputs an output signal generated by the signal decoding unit 54D and the like, and may include a speaker unit 560A and a display unit 560B. When the output signal is an audio signal, the output signal is output to the speaker, and when the output signal is a video signal, the output signal is output through the display.
  • FIG. 11 illustrates a relationship between a terminal and a server corresponding to the product illustrated in FIG. 10.
  • the first terminal 500. 1 and the second terminal 500 It can be seen that data and bitstreams can be bi-directionally communicated through the ⁇ -wire communication unit.
  • the server 600 and the first terminal 5001 may also perform wired / wireless communication with each other. It can be seen that.
  • the audio signal processing method according to the present invention can be stored in a computer-readable recording medium which is produced as a program for execution in a computer, and multimedia data having a data structure according to the present invention can also be stored in a computer-readable recording medium.
  • the computer readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk optical data storage, and the like, which may also be implemented in the form of a carrier wave (for example, transmission over the Internet). do.
  • the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.
  • the present invention can be applied to encoding and decoding audio signals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Communication Control (AREA)

Abstract

현재 프레임 타입 정보를 수신하는 단계; 미리 수신된 이전 프레임 타입 정보를 이용하여 현재 프레임의 프레임 식별정보를 생성하는 단계; 및, 상기 프레임 식별정보를 이용하여, 상기 현재 프레임을 식별하는 단계를 포함하는 프레임 타입 식별 방법이 개시된다. 또한, 현재 프레임 타입 정보에 해당하는 백워드 타입 비트를 수신하는 단계; 이전 프레임 타입 정보에 해당하는 포워드 타입 비트를 획득하는 단계; 및, 상기 백워드 타입 비트는 제 1 위치에 배치하고, 상기 포워드 타입 비트는 제 2 위치에 배치함으로써, 현재 프레임의 프레임 식별정보를 생성하는 단계를 포함하는 프레임 타입 식별 방법이 개시된다.

Description

[DESCRIPT[ON]
[Invention Title]
프 레 임 타입 식 별 방법 및 장치
[Technical Field]
본 발명은 오디오 신호의 대역확장 정보를 인코딩하거나 디코딩할 수 있는 신호 처리 방법 및 장치에 관한 것이다.
[Background Art]
일반적으로 ^ 오디오 신호를 디코딩하기 위한 정보들은 프레임 단위로 전송되는데, 각 프레임에 속하는 정보들이 일정한 규칙에 따라서 반복적으로 전송된다. 한편, 이와 같이 프레임별로 별도로 전송되지만, 프레임 타입정보와 같이 이전 프레임의 정보와 현재 프레임의 정보가 연관성이 있는 경우가 있을 수 있다.
[Disclosure]
[Technical Problem]
종래에는 이전 프레임의 정보와 현재 프레임의 정보간의 연관성이 있는 경우, 이 연관성과 무관하게 각 프레임에 대한 정보를 각각 프레임별로 전송하는 경우, 비트수가 블필요하게 증가하는 문제점이 있다.
[Technical Solution]
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 이전 프레임의 정보와 현재 프레임의 정보간의 연관성을 기반으로 하여 현재 프레임의 정보를 인코딩 및 디코딩하기 위한 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은, 전송된 현재 프레임의 타입 정보 및 이전 프레임의 타입 정보를 이용하여, 현재 프레임에 대응하는 프레임 식별정보를 생성하기 위한 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은, 프레임 타입 정보를 포함한 대역확장 정보를 기반으로, 고주파 대역의 신호를 생성하기 위한 신호 처리 방법 및 장치를 제공하는 데 있다. 대체응지 (규칙 제 26조) [Advantageous Effects]
본 발명은 다음과 같은 효과와 이점을 제공한다.
첫째, 현재 프레임의 정보 및 이전 프레임의 정보간의 연관성을 기반으로 하여 연관성에 해당하는 중복성을 제거하여 코딩할 수 있기 때문에, 현재 프레임 정보의 코딩에 소요되는 비트수를 현저히 줄일 수 있는 효과가 있다.
둘째, 현재 프레임을 통해 수신된 비트, 및 이전 프레임을 통해 수신된 비트의 간단한 조합만으로, 현재 프레임에 대웅하는 정보를 생성할 수 있기 때문에, 현재 프레임 정보를 복원하는데 있어서의 복잡도는 유지될 수 있다.
[Description of Drawings]
도 1 은 프레임 및 블록과의 관계를 설명하기 위한 도면.
도 2 는 프레임 타입을 설명하기 위한 도면.
도 3 은 이전 프레임 타입 및 현재 프테임 타입의 연관성을 설명하기 위한 도면. 도 4는 본 발명의 실시예에 따른 프레임 타입정보 생성 장치의 구성도.
도 5 는 현재 프테임 타입정보 생성과정을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 프레임 타입 식별 장치의 구성도.
도 7은 현재 프레임 식별정보를 생성과정을 설명하기 위한 도면.
도 8 는 본 발명에 따른 실시예에 따른 프레임 식별정보 생성 장치가 적용된 오디오 신호 인코딩 장치의 제 1 예.
도 9 는 본 발명에 따른 실시예에 따른 프레임 타입 식별 장치가 적용된 오디오 신호 디코딩 장치의 제 1 여 .
도 10 은 본 발명의 실시예에 따른 프레임 타입 식별 장치가 구현된 제품의 개략적인 구성도.
도 11 은 본 발명의 실시예에 따른 프레임 타입 식별 장치가 구현된 제품들의 관계도.
[Best Model 상기와 같은 목적을 달성하기 위하여 본 발명에 따른 프테임 타입 식별 방법은, 현재 프레임 타입 정보를 수신하는 단계; 미리 수신된 이전 프레임 타입 정보를 획득하는 단계; 상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보를 이용하여 현재 프레임의 프레임 식별정보를 생성하는 단계; 및, 상기 프레임 식별정보를 이용하여, 상기 현재 프레임을 식별하는 단계를 포함한다.
본 발명에 따르면, 상기 프레임 식별정보는 포워드 타입 정보 및 백워드 타입 정보로 구성되며, 상기 포워드 타입 정보는 상기 이전 프테임 타입 정보에 따라서 결정되고, 상기 백워드 타입 정보는 상기 현재 프레임 타입 정보에 따라서 결정될 수 있다. 본 발명에 따르면, 상기 이전 프레임 타입 정보 및 상기 현재 프레임 타입 정보 증 적어도 하나는 고정형 및 가변형 중 어느 하나에 해당하는 것일 수 있다.
본 발명에 따르면, 상기 이전 프레임 타입 정보가 가변형인 경우, 블특의 시작 위치를 결정하는 단계; 및 상기 현재 프레임 타입 정보가 가변형인 경우, 블록의 종료 위치를 결정하는 단계를 더 포함할 수 있다.
본 발명에 따르면, 상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보가 모두 고정형인 경우, 상기 현재 프레임에 대웅하는 블록의 개수는 2n(n 은 정수)인 것일 수 있다.
본 발명에 따르면, 상기 블록의 크기는 균등한 것일 수 있다.
본 발명의 또 다른 측면에 따르면, 현재 프레임 타입 정보를 수신하고 미리 수신된 이전 프레임 타입 정보를 획득하는 정보추출부; 상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보를 이용하여 현재 프레임의 프레임 식별정보를 생성하는 프레임 식별정보 생성부; 및,상기 프레임 식별정보를 이용하여, 상기 현재 프레임을 식별하는 프레임 식별부를 포함하는 프테임 타입 식별 장치가 제공된다.
본 발명의 또 다른 측면에 따르면,포워드 타입 및 백워드 타입으로 구성되는, 현재 프레임의 프레임 식별정보를 결정하는 단계; 및,상기 프레임 식별정보 중 상기 백워드 타입을 근거로 하여 현재 프레임 타입 정보를 생성하는 단계를 포함하고,상기 포워드 타입은, 이전 프레임의 프레임 식별정보에 의해 결정되는 프레임 타입 식별 방법이 제공된다.
본 발명의 또 다른 측면에 따르면, 포워드 타입 및 백워드 타입으로 구성되는, 현재 프레임의 프레임 식별정보를 결정하는 프레임 식별정보 결정부; 및, 상기 프레임 식별정보 중 상기 백워드 타입을 근거로 하여 현재 프테임 타입 정보를 생성하는 타입정보 생성부를 포함하고,상기 포워드 타입은, 이전 프레임 식별 정보에 의해 결정되는 프레임 타입 식별 장치가 제공된다.
본 발명의 또 다른 측면에 따르면, 디지털 오디오 데이터를 저장하며, 컴퓨터로 읽을 수 있는 저장 매체에 있어서,상기 디지털 오디오 데이터는 이전 프레임타입에 대웅하는 이전 타입프레임 정보 및 현재 프레임에 대웅하는 현재 프레임 정보를 포함하며,현재 프레임 정보는 현재 프레임 타입 정보를 포함하며, 프레임 식별정보가 포워드 타입 및 백워드 타입으로 구성되는 경우, 상기 현재 프테임 타입 정보는 상기 백워드 타입에 의해 결정되는 저장 매체가 제공된다.
본 발명의 또 다른 측면에 따르면, 현재 프레임 타입 정보에 해당하는 백워드 타입 비트를 수신하는 단계;이전 프레임 타입 정보에 해당하는 포워드 타입 비트를 획득하는 단계; 및,상기 백워드 타입 비트는 제 1 위치에 배치하고, 상기 포워드 타입 비트는 제 2 위치에 배치함으로써, 현재 프레임의 프레임 식별정보를 생성^는 단계를 포함하는 프레임 타입 식별 방법이 제공된다.
본 발명에 따르면, 상기 제 1 위치는 마지막 위치이고, 상기 제 2 위치는 마지막 이전 위치일 수 있다.
본 발명에 따르면, 상기 포워드 타입 비트 및 상기 백워드 타입 비트 중 적어도 하나는 고정형 및 가변형 중 어느 하나에 해당하는지를 나타내는 것일 수 있다.
본 발명에 따르면,상기 포워드 타입 비트 및 상기 백워드 타입 비트는 1 비트이고, 상기 프레임 식별정보는 2비트일 수 있다. 본 발명의 또 다른 측면에 따르면, 현'재 프레임 타입 정보에 해당하는 꿱워드 타입 비트를 수신하고, 이전 프레임 타입 정보에 해당하는 포워드 타입 비트를 획득하는 정보추출부; 및상기 백워드 타입 비트는 제 1 위치에 배치하고, 상기 포워드 타입 비트는 저 1 2 위치에 배치함으로써, 현재 프레임의 프레임 식별정보를 생성하는 프레임 식별정보 생성부를 포함하는 프레임 타입 식별 장치가 제공된다.
본 발명의 또 다른 측면에 따르면, 포워드 타입 비트 및 백워드 타입 비트로 구성되는 현재 프레임의 프레임 식별정보를 결정하는 단계; 및,상기 프레임 식별정보 중 상기 백워드 타입 비트를 근거로 하여 현재 프레임 타입 정보를 생성하는 단계를 포함하고, 상기 포워드 타입 비트는, 이전 프레임의 프레임 식별정보에 의해 결정되는 프레임 타입 식별 방법이 제공된다.
본 발명의 또 다른 측면에 따르면, 포워드 타입 비트 및 백워드 타입 비트로 구성되는 현재 프레임의 프레임 식별정보를 결정하는 프레임 식별정보 결정부; 및, 상기 프레임 식별정보 중 상기 백워드 타입 비트를 근거로 하여 현재 프레임 타입 정보를 생성하는 프레임 타입정보 생성부를 포함하고, 상기 포워드 타입 비트는, 이전 프레임의 프레임 식별정보에 의해 결정되는 프레임 타입 식별 장치가 제공된다.
본 발명의 또 다른 측면에 따르면, 디지털 오디오 데이터를 저장하며, 컴퓨터로 읽을 수 있는 저장 매체에 있어서,상기 디지털 오디오 데이터는 이전 프레임에 대응히는 이전 프레임 정보 및 현재 프레임에 대웅하는 현재 프레임 정보를 포함하며, 현재 프레임 정보는 현재 프레임 타입 정보를 포함하며, 프레임 식별정보가 포워드 타입 비트 및 백워드 타입 비트로 구성되는 경우, 상기 현재 프레임 타입 정보는 상기 백워드 타입 비트에 의해 결정되는 하는 저장 매체가 제공된다.
[Mode for Invention]
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명지는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 시상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서,본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 블과할 뿐이고 본 발명의 기술적 시상올 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 본 발명에서 다음 용어는 다음과 같은 기준으로 해석될 수 있고 , 기재되지 않은 용어라도 하기 취지에 따라 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있고, 정보 (information)는 값 (values), 파라미터 (parameter), 계수 (coefficients), 성분 (elements) 등을 모두 아우르는 용어로서 , 경우에 따라 의미는 달리 해석될 수 있는 바, 그러나 본 발명은 이에 한정되지 아니한다.
여기서 오디오 신호 (audio signal)란, 광의로는, 비디오 신호와 구분되는 개념으로서, 재생시 청각으로 식별할 수 있는 신호를 지칭하고,협의로는,음성 (speech) 신호와 구분되는 개념으로서, 음성 특성이 없거나 적은 신호를 의미한다. 본 발명에서의 오디오 신호는 광의로 해석되어야 하며 음성 신호와 구분되어 사용될 때 협의의 오디오 신호로 이해될 수 있다.
한편, 프테임이란, 오디오 신호를 인코딩 또는 디코딩하기 위한 단위를 일컫는 것으로서, 특정 샘플 수나 특정 시간에 한정되지 아니한다.
본 발명에 따른 오디오 신호 처리 방법 및 장치는, 프레임 정보 인코딩 /디코딩 장치 및 방법이 될 수도 있고, 나아가 이 장치 및 방법이 적용된 오디오 신호 인코딩 /디코딩 장치 및 방법이 될 수 있는 바, 이하, 프레임 정보 인코딩 /디코딩 장치 및 방법에 대해서 설명하고, 이 프레임 정보 인코딩 /디코딩 장치가 수행하는 프레임 정보 인코딩 /디코딩 방법, 및 이 장치가 적용된 오디오 신호 인코딩 /디코딩 장치 및 방법에 대해서 설명하고자 한다.
1. 프레임 타입 도 1 은 프레임 및 블록과의 관계를 설명하기 위한 도면이다. 우선 도 1(A)를 참조하면, 하나의 프레임에 대해서 주파수 분석을 수행한 결과, 세로축 총 64 개 밴드, 및 가로축 총 16 개의 타임 슬롯에 해당하는 정보가 생성됨을 알 수 있다. 한편 하나의 타임 슬릇은 두 개의 샘플에 대웅하는 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 또한, 하나의 프레임은 유닛 (예: 타임 슬롯)의 특성에 따라서 하나 이상의 블록으로 그룹핑될 수 있는데, 예를 들어, 트랜지언트한 부분의 유무 및 위치에 따라 1~5 개의 블록으로 나뉠 수 있다.
1.1 프레임과 블록의 경계선 관계
이러한 블록 경계와 프레임의 경계의 일치 여부에 따라 고정형과 가변형이 있을 수 있다. 고정형은 도 1 의 (B)에서 첫 번째 블록 (blkl)과 같이, 블록의 경계와 프레임의 경계와 일치하는 형태이고, 가변형은 도 1 의 (B)에서 두 번째 블록 (blk2)과 같이 블록의 경계와 프레임의 경계가 일치하지 않는 형태이다.
1.2 블록 타입
한편, 블록은 크기가 고정되어 있을 수도 있고, 크기가 가변적일 수도 있는데, 크기가 고정된 경우는, 블록 개수에 따라서 균등하게 블록 크기가 결정되고, 크기가 가변적인 경우에는 블록 개수 및 블록 위치 정보를 이용하여 블록 크기가 결정된다. 블록의 크기가 고정인지 가변인지 여부는 앞서 설명된 프레임의 경계의 일치 여부에 따라 결정될 수 있다. 구체적으로, 프레임의 시작 경계 (추후 설명될 포워드) 및 종료 경계 (^후 설명될 백워드)가 모두 고정형인 경우, 블록 크기는 고정되어 있을 수 있다.
1.3 프레임 타입
프레임의 시작 부분 및 끝 부분에 따라서 프레임 타입이 결정될 수 있다. 구체적으로, 프레임의 시작 부분의 경계선이 고정형인지 가변형인지, 끝 부분의 경계선이 고정형인지 가변형인지에 따라서 프레임 식별정보가 결정될 수 있다. 예를 들어 다음 터 블 1 과 같이 결정될 수 있다.
[테이블 1] 프레임 타입을 나타내는 포워드 타입 백워드 타입
식별정보
디펜던트 고정형 고정형
포워드 디펜던트 고정형 가변형
백워드 디펜던트 가변형 고정형
인디펜던트 가변형 가변형
프레임의 시작 부분의 경계선이 고정형인지 가변형인지 여부는 포워드 타입이고, 프레임의 끝 부분의 경계선이 고정형인지 가변형인지 여부는 백워드 타입이다. 상기 테이블 1 에 나타난 바와 같이, 포워드 타입 및 백워드 타입이 모드 고정형인 경우에는, 프레임 식별 정보는 디펜던트이고, 모두 가변형인 경우에는 인디펜던트가 될 수 있다. 도 2는 프레임 타입을 설명하기 위한 도면으로서, 테이블 1 에 열거된 4 개의 프레임 타입의 예가 순서대로 도시되어 있다. 도 2 의 (A)와 같이 프레임 타입이 디펜던트인 경우, 트랜지언트한 구간이 없을 수 있다. 이때, 1 개의 블록이 있을 수 있는데, 블록의 길이 또는 크기는 균등하고, 블록의 구간은 프테임 구간과 시작 위치 또는 종료 위치가 일치함을 알 수 있다. 따라서, 블록의 개수정보를 이용하여 블록의 크기 및 위치를 추정할 수 있다.
도 2 의 CB)와 같이 프레임 타입이 포워드 디펜던트인 경우, 트랜지언트한 구간이 프레임의 시작 위치 이후에 존재할 수 있다. 블록은 1~5 개가 존재할 수 있고 이때, 디펜던트의 경우와 달리 블록의 크기는 균등하지 않올 수 있다. 이 경우 이때, 첫 번째 블록 (blkl)의 시작 위치는 프레임의 시작 위치와 일치하지만, 블록들의 종료 위치 (blk3 등)은 프레임의 종료 위치와 일치하지 않는다. 따라서, 블록의 개수 정보뿐만 아니라, 각 블록의 종료 위치 정보까지 전송되어야 디코더에서 블록의 특성을 복원할 수 있다.
도 2 의 (C)와 같이 프레임 타입이 백워드 디펜던트인 경千, 트랜지언트한 구간이 프레임의 종료 위치 이전에 있을 수 있다. 포워드 디펜던트인 경우와 다른 점은, 마지막 블록 (blk2)의 종료 위치가 프레임의 종료 위치와 일치하되, 첫 번째 블록 (bM)의 시작 위치는 프레임의 시작 위치와 일치하지 않는다. 따라서 각 블특의 시작 위치정보가 전송되어야 한다.
도 2 의 (D)와 같이 프레임 타입이 인디펜던트인 경우, 트랜지언트한 구간이 프레임의 앞뒤 모두일 수 있다. 이때, 프레임의 시작 경계 및 끝 경계는 모두 프레임의 경계와 불일치하며, 각 블록에 대해서 시작 위치 정보 및 종료 위치 정보 중 하나 이상이 전송되어야 한다.
1.4 프레임 타입 식별
프레임 타입을 식별하기 위한 프레임 식별정보의 비트수는 기본적으로 타입의 가짓수 또는 경우의 수에 비례한다. 예를 들어 프레임 타입이 4 가지인 경우 프레임 식별정보는 2 비트로 표현될 수 있고, 프레임 타입이 5 가지 이상 8 가지 이하인 경우, 프레임 식별정보는 3 비트로 표현될 수 있다. 앞서 테이블 1 에서 예시한 바와 같이, 프레임 타입이 4가지 이므로 식별정보를 표현하기 위해서는 2비트가 필요하다.
한편, 프레임 타입과 같이 이전 프레임과 현재 프테임간의 연관성이 존재하는 경우, 이를 이용하여 프레임 식별정보의 비트수를 줄일 수 있다. 우선 도 3 과 함께 상기 연관성을 설명한 후, 도 4 내지 도 7 를 참조하면서, 프레임 타입 식별 장치 및 이에 의해 수행되는 프레임 타입 식별 방법에 대해서 설명하고자 한다.
도 3 은 이전 프레임 타입 및 현재 프레임 타입의 연관성을 설명하기 위한 도면이다. 우선 도 3 의 (A)를 참조하면, 이전 프레임에 있어 人 프레임 타입의 백워드 타입이 고정형인 경우임을 알 수 있다. 백워드 타입이 고정형이기 때문에 블록의 뒤쪽 경계와 프레임의 경계가 일치한다. 따라서 이전 프레임에 이어지는 현재 프레임의 블록은 프레임의 경계부터 시작하게 된다. 따라서 현재 프레임 타입 증 포워드 타입이 고정형이 됨을 알 수 있다. 도 3 의 (B)를 참조하면, 이전 프레임의 백워드 타입이 가변형일 때, 블톡의 경계와 프레임의 경계와 일치하지 않는다. 따라서 다음 블록 또한 프레임의 경계부터 시작하지 않기 때문에, 현재 프테임의 포워드 타입도 가변형이 됨을 알 수 있다. 이와 같이 현재 프테임 타입 중 포워드 타입이 이전 프레임의 백워드 타입과 연관되어 있음을 알 수 있다.
이하, 도 4 및 도 5 를 참조하면서, 프레임 식별정보를 이용하여 프레임 타입정보를 생성하기 위한 프레임 타입정보 생성 장치 및 방법에 대해서 설명하고, 도 6 및 도 7 를 참조하면서, 프레임 타입정보를 수신하여 프레임 식별정보를 생성하기 위한 프레임 타입 식별 장치 및 방법에 대해서 설명하고자 한다.
도 4 는 본 발명의 실시예에 따른 프레임 타입정보 생성 장치의 구성을 보여주는 도면이다. 도 4 를 참조하면 , 프레임 타입정보 생성 장치 (100)는 프테임 타입정보 생성부 (120)를 포함하고, 프레임 식별정보 결정부 (110), 블록 정보 생성부 (130)를 더 포함할 수 있다. 블록정보 생성부 (130)는 블록 개수정보 생성부 (131), 및 블록 위치정보 생성부 (132)를 포함할 수 있다.
프레임 식별정보 결정부 (110)는 블록 특성정보를 근거로 하여 현재 프레임의 프레임 타입을 나타내기 위한 프레임 식별정보 (fiN)를 결정한다. 프테임 타입은 앞서 설명된 바와 같이 블록의 경계와의 일치여부에 따라서 결정될 수 있고, 포워드 타입 및 백워드 타입으로 구성될 수 있다. 구체적으로 앞서 테이블 1 과 같이 4 가지 중 하나일 수 있지만, 본 발명은 이에 한정되지 아니한다.
프레임 타입정보 생성부 (120)는 프레임 식별정보 (fi)를 근거로 현재 프테임 타입정보 (¾)를 결정한다. 구체적으로 프레임 타입정보는 이전 프레임 식별정보 (fiN-i) 및 현재 프레임 식별정보 (fiN)에 의해 결정된다. 도 5 는 현재 프레임 타입정보 생성과정올 설명하기 위한 도면이다. 도 5 를 참조하면, 이전 프레임 식별정보 (fiN-i) 및 현재 프레임 식별정보 (fiN)가 각각 4 가지 (디펜던트 , 포워드 디펜던트, 백워드 디펜던트, 인디펜던트) 증 하나의 타입을 나타내고 있음을 알 수 있다. 이때, 앞서 설명한 바와 같이 이전 프레임 타입 증 백워드 타입과 현재 프레임 타입 증 포워드 타입은 서로 연관성이 있다. 다시 말해서 현재 프레임 타입 중 포워드 타입은 이전 프레임 타입의 백워드 타입에 의해 결정된다. 따라서 , 현재 프레임 식별정보 (fiN) 중 포워드 타입 정보를 제외하고, 백워드 타입 정보만을 이용하여 현재 프레임 타입정보 (ftN)이 생성되는 것이다.
블록정보 생성부 (130)는 현재 프레임 식별정보 (fiN)에 따라서, 블록 개수정보 및 블록 위치정보 중 하나 이상을 생성한다. 구체적으로 현재 프레임 타입이 앞서 설명된 디펜던트일 경우 , 블록 개수정보만을 생성할 수 있다. 이때, 블록의 크기는 프레임의 크기에서 블록 개수만큼 나눈 균등한 값이 될 수 있다 (도 2 의 (A) 참조).
만약, 현재 프레임 타입이 디¾던트가 아닌 경우, 블록 개수정보 이외에 블록 위치정보를 더 생성할 수 있다. 현재 프테임 타입이 포워드 디펜던트일 경우 , 블록 위치정보 중 블록의 종료 위치정보를 생성할 수 있다 (도 2 의 (B)의 epl, ep2, ep3 참조). 현재 프레임 타입이 백워드 디펜던트일 경우, 블록의 위치 정보 중 블록의 시작 위치정보를 생성할 수 있다 (도 2 의 (C)의 spl, sp2 참조). 마지막으로 현재 프레임 타입이 인디펜던트일 경우, 블록의 시작 위치정보 및 종료 위치정보를 모두 생성할 수 있다 (도 2 의 (D)의 spl, sp¾ epl 참조)
정리하자면, 블록 개수정보 생성부 (131)는 모든 현재 프레임 타입에 대해서 블록의 개수를 생성하고, 블록의 위치정보 생성부 (132)는 현재 프레임 타입이 디펜던트가 아닌 경우, 블록의 시작 위치정보 및 블특의 종료 위치정보 중 하나 이상을 생성할 수 있다. 이와 같이 본 발명의 실시예에 따른 프레임 식별정보 생성 장치는 이전 프레임의 정보 및 현재 프레임의 정보의 연관관계를 기반으로 하여,현재 프레임에 해당하는 정보를 인코딩할 수 있다.
도 6 은 본 발명의 실시예에 따른 프레임 타입 식별 장치의 구성을 보여주는 도면이다. 프레임 타입 식별 장치 (200)는 프레임 식별정보 생성부 (220)를 포함하고, 정보 추출부 (210), 블록 정보 획득부 (230) 및 프레임 식별부 (240)를 더 포함할 수 있다. 블록 정보 획득부 (230)는 블록 개수정보 획득부 (231) 및 블록 위치정보 획득부 (232)를 포함할 수 있다. 정보 추출부 (210)은 비트스트림으로부터 현재 프레임 타입정보 (ftN)를 추출하고 , 이전에 수신된 이전 프레임 타입정보 (ftN-l)를 획득한다. 그리고 비트스트림을 블록 개수정보 획득부 (231) 및 블록 위치정보 획득부 (232)에 전달한다.
프레임 식별정보 생성부 (220)는 현재 프레임 타입정보 (ftN) 및 이전 프레임 타입정보 (ftN4)를 이용하여 현재 프레임의 프레임 식별정보를 생성한다.
도 7 은 현재 프테임 식별정보를 생성과정을 설명하기 위한 도면이다.. 도 7 의 (A)를 우선 참조하면, 이전 프레임의 타입 정보 (ftw)에 의해 현재 프레임 타입 (fiN)의 포워드 타입 정보가 결정되고, 현재 프레임의 타입 정보 (¾)에 의해 현재 프테임 타입 (fiN)의 백워드 타입 정보가 결정됨을 알 수 있다. 이와 같이 포워드 타입 정보 및 백워드 타입 정보에 의해 현재 프레임 식별정보가 결정되고, 프레임 타입은 디펜던드 포워드 디펜던트, 백워드 디펜던트, 인디펜던트 증 하나로 결정될 수 있다.
도 7 의 (B)을 참조하면, 현재 프레임의 식별정보 ( )에 해당하는 비트가 결정되는 개념을 알 수 있다. 이전 프레임의 타입 비트 (ftN4)에 의해 현재 프레임 식별정보의 포워드 타입 비트가 결정되고, 현재 프레임 타입 비트 ( )에 의해 현재 프레임 식별정보의 .백워드 타입 비트가 결정된다. 구체적으로 포워드 타입 비트는 제 1 위치에 배치하고, 백워드 타입 비트는 제 2 위치에 배치함으로써 현재 프레임의 식별정보가 생성될 수 있다. 여기서 제 1 위치는 k+1 번째 자리수이고, 제 2 위치는 k 번째 자리수일 수 있다. 이때, 포워드 타입 비트는 k 번째 자리에서 k+1 번째 자리로 한자리 밀려을려가고, 백워드 타입 비트는 k 번째 자리를 유지하는 것과 같다. 한 자리수가 밀려 을라가는 경우, 2 진수에서 한자리 왼쪽으로 이동하는 것이다. 이는 포워드 타입 비트에 2 를 곱함으로써 수행될 수 있다. 물론 N 진수인 경우에는 포워드 타입 비트에 N 이 곱해짐으로써 수행될 수 있다.
이와 같이 현재 프레임 식별정보를 생성하는 것은 현재 프레임 타입 비트는 백워드 타입 비트만으로 코딩된 것이고, 포워드 타입은 이전 프레임의 백워드 타입과 연관된 것이기 때문에 가능한 것이다. 다시 도 6 을 참조하면, 블록 개수정보 획득부 (231)는 블록의 개수정보를 획득하 블록 위치정보 획득부 (232)는 현재 프레임 식별정보 (¾)로 표현된 프테임 타입에 따라서, 앞서 설명한 바와 같이 블록 시작 위치정보 및 블록 종료 위치정보 중 하나 이상을 획득한다. 만약, 프레임 타입이 디펜던트일 때는 위치정보를 획득하지 않을 수 있다.
프레임 식별부 (240)는 프레임 식별 정보 (fiN)에 따른 프레임 타입을 이용하여 현재 프레임의 타입을 식별한다. 나아가 블록 개수정보 및 블록 위치정보를 이용하여 블록의 위치 및 특성을 식별할 수 있다.
이와 같이 본 발명의 실시예에 따른 프레임 타입 식별 장치는 이전 프레임의 정보 및 현재 프레임의 정보의 연관관계를 기반으로 하여, 현재 프레임의 타입을 나타내는 식별정보를 생성할 수 있다.
2. 블록 정보
이상, 프레임 타입, 블록 타입, 프레임 타입 식별 등에 대해 설명한 바, 이하에서는 블록 정보에 대해서 설명하고자 한다.
2.1 블록 개수 정보
블록 개수 정보는 특정 프레임에 해당하는 블록들의 몇 개 인지에 대한 정보이다. 이러한 블록 개수는 미리 정해져 있어서 인코더에서 전송할 필요가 없을 수도 있다. 반면에 프레임마다 블록 개수가 달라서 매 프레임마다 블록 개수 정보를 전송해야 할 수도 있다. 블록의 개수 정보는 개수 그 자체를 인코딩할 수도 있고, 블록의 개수는 2"(n 은 정수)로 표현될 수 있는 경우, 지수 (n)만을 전송할 수 있다. 특히, 프레임 타입이 디펜던트일 때 (즉, 포워드 타입 및 백워드 타입 모두 고정형인 경우) 블록의 개수 정보로서 지수 (n)를 전송할 수 있다.
2.1 위치 식별
블록의 위치를 식별하기 위해서, 프테임 내에서 첫 번째 블록의 시작 위치를 인식하거나 마지막 블록의 끝 위치를 인식할 수 있다. 우선, 첫 번째 블록의 시작 위치를 인식하는 데 있어서,프레임 타입 증 포워드 타입이 고정형일 경우는, 첫 번째 블록의 시작 위치는 프레임 시작 위치일 수 있다. 포워드 타입이 가변형일 경우에는 프레임 시작 위치가 아니므로, 블록의 시작 위치정보를 전송할 수 있다. 이때 시작 위치정보는 절대값일 수도 있지만 차분값일 수도 있다. 여기서 절대값이란, 프레임이 하나 이상의 유닛으로 구성될 때, 시작 위치에 해당하는 유닛의 번호일 수 있다. 여기서 차분값이란, 현재 프레임 이전에 존재하는 프레임들 중에서 시작 위치정보를 갖는 프레임들 중 가장 가까운 프레임의 시작 위치정보 및 현재 프레임의 시작 위치정보와의 차분값일 수 있다.
마지막 블록의 종료 위치를 인식하는 데 있어서, 백워드 타입이 고정형인 경우는, 마지막 블록의 종료 위치는 프레임 종료 위치일 수 있다. 한편, 백워드 타입이 가변형일 경우에는 프테임 종료 위치가 아니므 블록의 종료 위치정보를 전송할 수 있다. 마찬가지로 마지막 종료 위치정보는 절대값일 수도 있지만 차분값일 수도 있는다. 여기서 차분값이란, 현재 프레임 이전에 존재하는 프레임들 중에서 종료 위치정보를 갖는 프레임들 증 가장 가까운 프레임의 종료 위치정 및 현재 프레임의 종료 위치정보와의 차분값일 수 있다.
한편, 블록의 위치를 식별하기 위해서, 첫번째 블록이나 마지막 블록이 아닌 중간 블록의 시작 위치 또는 종료 위치를 인식할 수 있다. 이때 중간 블특의 시작 위치정보 또는 종료 위치정보는 또한 절대값 또는 차분값일 수 있다. 절대값이란 마찬가지로 시작 위치 또는 종료 위치에 해당하는 유닛의 번호일 수 있다. 차분값이란, 블록들간의 유닛 간격일 수 있다.
도 8 는 본 발명에 따른 실시예에 따른 프레임 식별정보 생성 장치가 적용된 오디오 신호 인코딩 장치의 제 1 예이다. 도 8 를 참조하면, 오디오 신호 인코딩 장치 (300)는 복수채널 인코더 (310), 대역확장 인코딩 장치 (320), 오디오 신호 인코더 (330), 음성 신호 인코더 (340), 및 멀티 플렉서 (350)를 포함할 수 있다. 한편, 본 발명의 실시예에 따른 프레임 정보 인코딩 장치는 상기 대역확장 인코딩 장치 (320)에 포함될 수 있다.
복수채널 인코더 (310)는 복수의 채널 신호 (둘 이상의 채널 신호 )(이하, 멀티채널 신호)를 입력받아서, 다운믹스를 수행함으로써 모노 또는 스테레오의 다운믹스 신호를 생성하고, 다운믹스 신호를 멀티채널 신호로 업믹스하기 위해 필요한 공간 정보를 생성한다. 여기서 공간 정보는, 채널 레벨 차이 정보, 채널간 상관정보, 채널 예측 계수, 및 다운믹스 게인 정보 등을 포함할 수 있다.
만약, 오디오 신호 인코딩 장치 (300)가 모노 신호를 수신할 경우, 복수 채널 인코더 (310)는 모노 신호에 대해서 다운믹스하지 않고 바이패스할 수도 있음은 물론이다. 대역 확장 인코딩 장치 (320)는 다운믹스 신호의 일부 대역 (예: 고주파 대역)의 스펙트 ¾ 데이터를 제외하고, 이 제외된 데이터를 복원하기 위한 대역확장정보를 생성할 수 있다. 대역 확장 인코딩 장치 (320)는 도 4 와 함께 설명된 본 발명의 실시예에 따른 프레임 식별정보 생성 장치 (100)의 각 구성요소를 포함할 수 있다. 따라서, 대역 확장 인코딩 장치 (320)에 의해 생성되는 대역확장정보에는, 앞서 설명된 프레임 타입 정보 (ftN), 블록 개수 정보, 및 블록 위치 정보 등이 포함될 수 있다. 한편 , 디코더에서는, 나머지 대역의 다운믹스와 대역확장정보만으로 전대역의 다운믹스를 복원할 수 있다,
오디오 신호 인코더 (330)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 오디오 특성을 갖는 경우, 오디오 코딩 방식 (audio coding scheme)에 따라 다운믹스 신호를 인코딩한다. 여기서 오디오 코딩 방식은 AAC (Advanced Audio Coding) 표준 또는 HE- AAC (High Efficiency Advanced Audio Coding) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 오디오 신호 인코더 (330)는, MDCT(Modified Discrete Transform) 인코더에 해당할 수 있다.
음성 신호 인코더 (34D)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 음성 특성을 갖는 경우, 음성 코딩 방식 (speech coding scheme)에 따라서 다운믹스 신호를 인코딩한다. 여기서 음성 코딩 방식은 AMR-WB(Adaptive multi-rate Wide-Band) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 음성 신호 인코더 (340)는 선형 예측 부호화 (LPC: Linear Prediction Coding) 방식을 더 이용할 수 있다. 하모닉 신호가 시간축 상에서 높은 중복성을 가지는 경우 , 과거 신호로부터 현재 신호를 예측하는 선형 예측에 의해 모델링될 수 있는데, 이 경우 선형 예측 부호화 방식을 채택하면 부호화 효을을 높을 수 있다. 한편 , 음성 신호 인코더 (340)는 타임 도메인 인코더에 해당할 수 있다.
멀티플렉서 (350)는 공간정 대역확장 정보, 및 스펙트럴 데이터 등을 다중화하여 오디오 신호 비트스트림을 생성한다.
이다.
도 9 는 본 발명에 따른 실시예에 따른 프레임 타입 식별 장치가 적용된 오디오 신호 디코딩 장치의 제 1 예이다. 도 9 를 참조하면, 오디오 신호 디코딩 장치 (400)는 디멀티플렉서 (410), 오디오 신호 디코더 (420), 음성 신호 디코더 (430), 및 복수채널 디코더 (450)를 포함한다.
디멀티플렉서 (410)는 오디오신호 비트스트림으로부터 스펙트럴 데이터, 대역확장정 및 공간정보 등을 추출한다.
오디오 신호 디코더 (420)는, 다운믹스 신호에 해당하는 스펙트럴 데이터가 오디오 특성이 큰 경우 , 오디오 코딩 방식으로 스펙트럴 데이터를 디코딩한다. 여기서 오디오 코딩 방식은 앞서 설명한 바와 같이, AAC 표준, HE-AAC 표준에 따를 수 있다. 음성 신호 디코더 (430)는 상기 스펙트럴 데이터가 음성 특성이 큰 경우, 음성 코딩 방식으로 다운믹스 신호를 디코딩한다. 음성 코딩 방식은 , 앞서 설명한 바와 같이 , AMR-WB 표준에 따를 수 있지만, 본 발명은 이에 한정되지 아니한다.
대역 확장 디코딩 장치 (44D)는 프레임 타입정보 및 블록 정보를 포함하는 대역확장정보 비트스트림을 디코딩하고, 이 정보를 이용하여 스펙트럴 데이터 중 일부 또는 전부로부터 다른 대역 (예: 고주파대역)의 스펙트럴 데이터를 생성한다. 이때 주파수 대역을 확장하는 데 있어서도, 유사한 특성을 갖는 유닛들로 그룹핑하여 블록을 생성할 수 있다. 이는 공통의 인벨톱 (또는 인벨톱 특성)을 갖는 타입 슬롯 (또는 셈플)들을 그룹핑하여 인벨톱 영역을 생성하는 것과 같다.
한편 , 대역 확장 디코딩 장치는 앞서 도 6 과 함께 설명한 프레임 타입 식별 장치의 구성요소를 모두 포함할 수 있다. 즉, 이전 프레임의 프레임 타입 정보를 이용하여 현재 프레임의 식별정보가 획득된다. 그리고 프레임 식별정보로 표현된 프레임 타입에 따라서 다른 종류의 블록 정보가 추출되고, 프레임 타입 및 블록 정보를 이용하여 블록 특성이 획득된다. 이 블록 특성을 기반으로 하여 다른 대역의 스펙트럴 데이터가 생성되는 것이다. 한편, 대역확장정보 비트스트림은 다음 테이블 2 에 표시된 규칙에 따라서 인코딩된 것일 수 있다.
[테이블
Syntax No. of bits sbrjgrid(ch)
{
frmClass = exFrmClass + bs_frame_class; 1 (A) switch (frmClass) {
case FIXFIX (PI) bs_num_env[ch] = 2Λ tmp; (PIN) if(bs_num_env[ch] == 1)
bs一 amp— res = 0;
bs_freq_res[ch][0];
for (env = 1; env < bs_num_env[ch]; env++)
bs_freq_res[ch][env] = bs_freq_res[ch][0];
break;
case FIXVAR (F2) bs_var_bord_1 [ch]; 2 (E4F) bs— num一 env[ch] = bs_num_rel_1[c ] + 1; 2 (E2N) for(rel = 0; rel < bs_num_env[ch]-1; rel++)
bs_reLbord_1[ch][rel] = 2* tmp + 2; (E2F) ptr_bits = ceil (log (bs_num_env[ch] + 1) / log (2));
bsjjointer[ch]; ptr_bite for (env = 0; env < bs_num_env[ch]; env++)
bs_freq_res[ch][bs_num_env[c ] - 1 - env];
break;
caseVARFIX (F3) ; break
lpt prj; binsoterchtbits 2 {)E4S 2
{>E4N 2
Figure imgf000020_0001
) { 2E4N
r to
Figure imgf000020_0002
pljtl;trbits bsintelchs
)Jl) ( (¾ (;1um /eiben 1 lo clks +
{>l厂xjprl;E2Sh rtm> 2 bsre bocel 2rdo +* ( <rrel o u }t {l—lllfllJ;E3Nmnsnumeloch 1 bsnuevh bTc + = lll; barboasvo if (bs_num_env[ch] > 1)
bs_num_noise[ch] = 2;
else
bs_num_noise[ch] = 1; exFrmClass = bs_frame_class * 2;
상기 테이블 2 중 우선 (A)행을 참조하면, 현재 프레임의 타입 정보 (bS_frame_ClaSS)가 1 비트로 표현되어 있음을 알 수 있다.
테이블 2 의 (C)행을 살펴보면, 이전 프레임의 타입 정보 (ftm)에 2 를 곱한다 (exFrmClass = bs_frameᅳ class * 2). 테이블 2 의 (A)행을 살펴보면, 2 를 곱한 결과 (exFrmClass)에 현재 프레임 타입 정보 (ftN) (bsjrame_class)를 더하여 현재 프레임의 프레임 식별정보 (frmaass- exFrmClass+ bs_frame_class)가 획득됨을 알 수 있다.
테이블 2 의 (F1) 내지 (F4)행을 참조하면, 각 프레임 클래스의 유형을 나누고, 각 경우에 블록 개수 정보는, (E1N) 행 내지, (E4N) 행에 존재하고, 시작 위치정보 또는 종료 위치정보는 (E2F), (E3S), (E4F), (E4S)행 등에 나타나 있다. 복수채널 디코더 (450)는 디코딩된 오디오 신호가 다운믹스인 경우, 공간정보를 이용하여 멀티채널 신호 (스테레오 신호 포함)의 출력 채널 신호를 생성한다.
본 발명에 따른 프레임 타입 식별 장치는 다양한 제품에 포함되어 이용될 수 있다. 이러한 제품은 크게 스탠드 얼론 (stand alone) 군과 포터블 (portable) 군으로 나뉠 수 있는데, 스탠드 얼론군은 티비,모니터, 셋탑 박스 등을 포함할 수 있고, 포터블군은 PMP, 휴대폰, 네비게이션 등을 포함할 수 있다. 도 10 은 본 발명의 실시예에 따른 프레임 타입 식별 장치가 구현된 제품의 개략적인 구성을 보여주는 도면이다. 도 11 은 본 발명의 실시예에 따른 프테임 타입 식별 장치가 구현된 제품들의 관계를 보여주는 도면이다.
우선 도 10 을 참조하면 , 유무선 통신부 (510)는 유무선 통신 방식을 통해서 비트스트림을 수신한다. 구체적으로 유무선 통신부 (510)는 유선통신부 (510A), 적외선통신부 (510B), 블루투스부 (510C), 무선랜통신부 (510D) 중 하나 이상을 포함할 수 있다. 사용자 인증부는 (520)는 사용자 정보를 입력 받아서 사용자 인증을 수행하는 것으로서 지문인식부 ( 0A), 홍채인식부 (520B), 얼굴인식부 (ffiOC), 및 음성인식부 (520D) 중 하나 이상을 포함할 수 있는데, 각각 지문, 흥채정보, 얼굴 윤곽 정보, 음성 정보를 입력받아서, 사용자 정보로 변환하고, 사용자 정보 및 기존 등록되어 있는 사용자 데이터와의 일치여부를 판단하여 사용자 인증을 수행할 수 있다.
입력부 (530)는 A]용자가 여러 종류의 명령을 입력하기 위한 입력장치로서 , 키패드부 (530A), 터치패드부 (530B), 리모컨부 (530C) 증 하나 이상을 포함할 수 있지만 , 본 발명은 이에 한정되지 아니한다. 신호 디코딩부 (540)는 프레임 타입 식별장치 (545)를 포함하는데, 프레임 타입 식별장치 (545)는 앞서 도 6 과 함께 설명된 프레임 타입 식별장치 중 적어도 프레임 식별정보 생성부를 포함하는 장치로서 , 프레임 타입정보로부터 현재 프레임에 대옹하는 프레임 식별정보를 생성한다. 신호 디코딩부 (550)는 수신된 비트스트림 및 프레임 식별정보를 이용하여 신호를 디코딩하여 출력신호를 생성한다.
제어부 (550)는 입력장치들로부터 입력 신호를 수신하고, 신호 디코딩부 (540)와 출력부 (560)의 모든 프로세스를 제어한다. 출력부 (560)는 신호 디코딩부 (54D)에 의해 생성된 출력 신호 등이 출력되는 구성요소로서, 스피커부 (560A) 및 디스플레이부 (560B)를 포함할 수 있다. 출력 신호가 오디오 신호일 때 출력 신호는 스피커로 출력되고, 비디오 신호일 때 출력 신호는 디스플레이를 통해 출력된다.
도 11 은 도 10 에서 도시된 제품에 해당하는 단말 및 서버와의 관계를 도시한 것으로서, 도 11 의 (A)를 참조하면, 제 1 단말 (500.1) 및 제 2 단말 (500.2)이 각 단말들은 "^선 통신부를 통해서 데이터 내지 비트스트림을 양방향으로 통신할 수 있음을 알 수 있다. 도 11 의 (B)를 참조하면, 서버 (600) 및 제 1 단말 (5001) 또한 서로 유무선 통신을 수행할 수 있음을 알 수 있다.
본 발명에 따른 오디오 신호 처리 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브 (예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유 /무선 통신망을 이용해 전송될 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술시상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
[Industrial Applicability]
본 발명은 오디오 신호를 인코딩하고 디코딩하는 데 적용될 수 있다.

Claims

[CLAIMS]
【청구항 1】
현재 프레임 타입 정보를 수신하는 단계;
미리 수신된 이전 프레임 타입 정보를 획득하는 단계;
상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보를 이용하여 현재 프레임의 프레임 식별정보를 생성하는 단계; 및 ,
상기 프레임 식별정보를 이용하여, 상기 현재 프레임을 식별하는 단계를 포함하는 것을 특징으로 하는 것을 프레임 타입 식별 방법. 【청구항 2】
제 1 항에 있어서,
상기 프레임 식별정보는 포워드 타입 정보 및 백워드 타입 정보로 구성되며,
상기 포워드 타입 정보는 상기 이전 프레임 타입 정보에 따라서 결정되고, 상기 백워드 타입 정보는 상기 현재 프레임 타입 정보에 따라서 결정되는 것을 특징으로 하는 프레임 타입 식별 방법.
【청구항 3】
제 1 항에 있어서,
상기 이전 프레임 타입 정보 및 상기 현재 프레임 타
하나는 고정형 및 가변형 증 어느 하나에 해당하는 것
프레임 타입 식별 방법.
제 1 항에 있어서, 상기 이전 프레임 타입 정보가 가변형인 경우, 블록의 시작 위치를 결정하는 단계; 및
상기 현재 프레임 타입 정보가 가변형인 경우, 블록의 종료 위치를 결정하는 단계를 더 포함하는 것을 특징으로 하는 프레임 타입 식별 방법.
【청구항 5】
제 1 항에 있어서,
상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보가 모두 고정형인 경우, 상기 현재 프레임에 대웅하는 블록의 개수는 2n(n 은 정수)인 것을 특징으로 하는 프레임 타입 식별 방법.
【청구항 6】
제 5 항에 있어서 ,
상기 블록의 크기는 균등한 것을 특징으로 하는 프레임 타입 식별 방법. 【청구항 7】
현재 프레임 타입 정보를 수신하고 미리 수신된 이전 프레임 타입 정보를 획득하는 정보추출부;
상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보를 이용하여 현재 프레임의 프레임 식별정보를 생성하는 프레임 식별정보 생성부; 및,
상기 프레임 식별정보를 이용하여, 상기 현재 프레임을 식별하는 프레임 식별부를 포함하는 것을 특징으로 하는 프레임 타입 식별 장치. 【청구항 8】 제 Ί항에 있어서,
상기 프레임 식별정보는 포워드 타입 및 백워드 타입으로 구성되며, 상기 포워드 타입은 상기 이전 프레임 타입 정보에 따라서 결정되고, 상기 백워드 타입은 상기 현재 프레임 타입 정보에 따라서 결정되는 것은 특징으로 하는 프레임 타입 식별 장치.
【청구항 9】
제 Ί항에 있어서 ,
상기 이전 프레임 타입 정보 및 상기 현재 프레임 타입 정보 중 적어도 하나는 고정형 및 가변형 중 어느 하나에 해당하는 것을 특징으로 하는 프레임 타입 식별 장치.
【청구항 10】
제 Ί 항에 있어서,
상기 이전 프레임 타입 정보가 가변형인 경우, 블록의 시작 위치를 결정하는 단계; 및
상기 현재 프레임 타입 정보가 가변형인 경우, 블록의 종료 위치를 결정하는 단계를 더 포함하는 것을 특징으로 하는 프레임 타입 식별 방법.
【청구항 11】
제 7항에 있어서 ,
상기 현재 프레임 타입 정보 및 상기 이전 프레임 타입 정보가 모두 고정형인 경우, 상기 현재 프레임에 대웅하는 블록의 개수는 2η(η 은 정수)인 것을 특징으로 하는 프레임 타입 식별 장치. 【청구항 12】
제 11 항에 있어서,
상기 블록의 크기는 균등한 것을 특징으로 하는 프레임 타입 식별 장치.
【청구항 13】
포워드 타입 및 백워드 타입으로 구성되는, 현재 프레임의 프레임 식별정보를 결정하는 단계; 및,
상기 프레임 식별정보 중 상기 백워드 타입을 근거로 하여 현재 프레임 타입 정보를 생성하는 단계를 포함하고,
상기 포워드 타입은, 이전 프레임의 프레임 식별정보에 의해 결정되는 것임을 특징으로 하는 프레임 타입 식별 방법.
【청구항 14】
포워드 타입 및 백워드 타입으로 구성되는, 현재 프레임의 프레임 식별정보를 결정하는프레임 식별정보 결정부; 및 ,
상기 프테임 식별정보 중 상기 백워드 타입을 근거로 하여 현재 프레임 타입 정보를 생성하는 타입정보 생성부를 포함하고,
상기 포워드 타입은, 이전 프레임 식별 정보에 의해 결정되는 것임을 특징으로 하는 프레임 타입 식별 장치.
【청구항 15】
디지털 오디오 데이터를 저장하며, 컴퓨터로 읽을 수 있는 저장 매체에 있어서,
상기 디지털 오디오 데이터는 이전 프레임타입에 대웅하는 이전 타입프레임 정보 및 현재 프레임에 대응하는 현재 프레임 정보를 포함하며, 현재 프테임 정보는 현재 프레임 타입 정보를 포함하며, 프테임 식별정보가 포워드 타입 및 백워드 타입으로 구성되는 경우 , 상기 현재 프레임 타입 정보는 상기 백워드 타입에 의해 결정된 것임을 특징으로 하는 저장 매체.
PCT/KR2009/000137 2008-01-09 2009-01-09 프레임 타입 식별 방법 및 장치 WO2009088257A2 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP09700585.4A EP2242047B1 (en) 2008-01-09 2009-01-09 Method and apparatus for identifying frame type
US12/463,141 US8271291B2 (en) 2008-01-09 2009-05-08 Method and an apparatus for identifying frame type

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US1984408P 2008-01-09 2008-01-09
US61/019,844 2008-01-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/463,141 Continuation US8271291B2 (en) 2008-01-09 2009-05-08 Method and an apparatus for identifying frame type

Publications (2)

Publication Number Publication Date
WO2009088257A2 true WO2009088257A2 (ko) 2009-07-16
WO2009088257A3 WO2009088257A3 (ko) 2009-08-27

Family

ID=40853625

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2009/000138 WO2009088258A2 (ko) 2008-01-09 2009-01-09 프레임 타입 식별 방법 및 장치
PCT/KR2009/000137 WO2009088257A2 (ko) 2008-01-09 2009-01-09 프레임 타입 식별 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/000138 WO2009088258A2 (ko) 2008-01-09 2009-01-09 프레임 타입 식별 방법 및 장치

Country Status (3)

Country Link
US (2) US8271291B2 (ko)
EP (2) EP2242047B1 (ko)
WO (2) WO2009088258A2 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101622950B1 (ko) * 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
CN101958119B (zh) * 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
KR101742136B1 (ko) * 2011-03-18 2017-05-31 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 콘텐츠를 표현하는 비트스트림의 프레임들 내의 프레임 요소 배치
US9485521B2 (en) * 2011-09-19 2016-11-01 Lg Electronics Inc. Encoding and decoding image using sample adaptive offset with start band indicator
EP3537436B1 (en) * 2011-10-24 2023-12-20 ZTE Corporation Frame loss compensation method and apparatus for voice frame signal
US9978400B2 (en) * 2015-06-11 2018-05-22 Zte Corporation Method and apparatus for frame loss concealment in transform domain

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849144B2 (ja) * 1997-12-31 2006-11-22 ソニー株式会社 符号化データ出力装置及び方法並びに符号化データ制御装置及び方法
ATE302991T1 (de) * 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
FR2774827B1 (fr) * 1998-02-06 2000-04-14 France Telecom Procede de decodage d'un flux binaire representatif d'un signal audio
US6405338B1 (en) 1998-02-11 2002-06-11 Lucent Technologies Inc. Unequal error protection for perceptual audio coders
US6085163A (en) * 1998-03-13 2000-07-04 Todd; Craig Campbell Using time-aligned blocks of encoded audio in video/audio applications to facilitate audio switching
WO1999053479A1 (en) * 1998-04-15 1999-10-21 Sgs-Thomson Microelectronics Asia Pacific (Pte) Ltd. Fast frame optimisation in an audio encoder
US6810377B1 (en) * 1998-06-19 2004-10-26 Comsat Corporation Lost frame recovery techniques for parametric, LPC-based speech coding systems
US6978236B1 (en) 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
US6658381B1 (en) * 1999-10-15 2003-12-02 Telefonaktiebolaget Lm Ericsson (Publ) Methods and systems for robust frame type detection in systems employing variable bit rates
KR100739262B1 (ko) * 1999-12-03 2007-07-12 소니 가부시끼 가이샤 기록 장치 및 기록 방법과, 재생 장치 및 재생 방법
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
US6934756B2 (en) 2000-11-01 2005-08-23 International Business Machines Corporation Conversational networking via transport, coding and control conversational protocols
US7075985B2 (en) * 2001-09-26 2006-07-11 Chulhee Lee Methods and systems for efficient video compression by recording various state signals of video cameras
US20040165560A1 (en) * 2003-02-24 2004-08-26 Harris John M. Method and apparatus for predicting a frame type
WO2004084182A1 (en) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition of voiced speech for celp speech coding
US7325023B2 (en) * 2003-09-29 2008-01-29 Sony Corporation Method of making a window type decision based on MDCT data in audio encoding
US7283968B2 (en) * 2003-09-29 2007-10-16 Sony Corporation Method for grouping short windows in audio encoding
EP1672618B1 (en) * 2003-10-07 2010-12-15 Panasonic Corporation Method for deciding time boundary for encoding spectrum envelope and frequency resolution
GB0326262D0 (en) * 2003-11-11 2003-12-17 Nokia Corp Speech codecs
EP1706724B1 (en) * 2004-01-20 2014-08-27 Commonwealth Scientific And Industrial Research Organisation Method and apparatus for testing fibres
US20060173692A1 (en) * 2005-02-03 2006-08-03 Rao Vishweshwara M Audio compression using repetitive structures
US8195470B2 (en) 2005-10-31 2012-06-05 Sk Telecom Co., Ltd. Audio data packet format and decoding method thereof and method for correcting mobile communication terminal codec setup error and mobile communication terminal performance same
JP2008076847A (ja) 2006-09-22 2008-04-03 Matsushita Electric Ind Co Ltd 復号器及び信号処理システム
US8041578B2 (en) * 2006-10-18 2011-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
US8086465B2 (en) * 2007-03-20 2011-12-27 Microsoft Corporation Transform domain transcoding and decoding of audio data using integer-reversible modulated lapped transforms
CN101889306A (zh) 2007-10-15 2010-11-17 Lg电子株式会社 用于处理信号的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Also Published As

Publication number Publication date
US20090313011A1 (en) 2009-12-17
EP2242048A2 (en) 2010-10-20
EP2242047A2 (en) 2010-10-20
EP2242048A4 (en) 2013-11-06
EP2242047A4 (en) 2013-10-30
WO2009088257A3 (ko) 2009-08-27
WO2009088258A2 (ko) 2009-07-16
WO2009088258A3 (ko) 2009-09-03
US8214222B2 (en) 2012-07-03
US8271291B2 (en) 2012-09-18
EP2242047B1 (en) 2017-03-15
EP2242048B1 (en) 2017-06-14
US20090306994A1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
CN101868821B (zh) 用于处理信号的方法和装置
JP5883561B2 (ja) アップミックスを使用した音声符号器
US8135585B2 (en) Method and an apparatus for processing a signal
US8060042B2 (en) Method and an apparatus for processing an audio signal
US8948891B2 (en) Method and apparatus for encoding/decoding multi-channel audio signal by using semantic information
JP4685165B2 (ja) 仮想音源位置情報に基づいたチャネル間レベル差量子化及び逆量子化方法
EP1905034A1 (en) Virtual source location information based channel level difference quantization and dequantization method
WO2019105575A1 (en) Determination of spatial audio parameter encoding and associated decoding
WO2009088257A2 (ko) 프레임 타입 식별 방법 및 장치
RU2609097C2 (ru) Устройство и способы для адаптации аудиоинформации при пространственном кодировании аудиообъектов
TWI483619B (zh) 一種媒體訊號的編碼/解碼方法及其裝置
EP1932239A1 (en) Method and apparatus for encoding/decoding
KR20060109299A (ko) 멀티채널 오디오 신호에 대한 서브밴드별 공간 정보들의부호-복호화 방법
WO2010047566A2 (en) An apparatus for processing an audio signal and method thereof
EP2595147A1 (en) Audio data encoding method and device
KR101108955B1 (ko) 오디오 신호 처리 방법 및 장치
KR20090122143A (ko) 오디오 신호 처리 방법 및 장치
JP2006126372A (ja) オーディオ信号符号化装置、方法及びプログラム
CN105336334B (zh) 多声道声音信号编码方法、解码方法及装置
RU2648632C2 (ru) Классификатор многоканального звукового сигнала
KR20100054749A (ko) 신호의 처리 방법 및 이의 장치
WO2010058931A2 (en) A method and an apparatus for processing a signal
KR20100050414A (ko) 오디오 신호 처리 방법 및 장치
KR20070041335A (ko) 오디오 신호의 인코딩 및 디코딩 방법
KR20070014937A (ko) 오디오 신호의 인코딩/디코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09700585

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2009700585

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009700585

Country of ref document: EP