KR20210125555A - 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램 - Google Patents

오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20210125555A
KR20210125555A KR1020217029147A KR20217029147A KR20210125555A KR 20210125555 A KR20210125555 A KR 20210125555A KR 1020217029147 A KR1020217029147 A KR 1020217029147A KR 20217029147 A KR20217029147 A KR 20217029147A KR 20210125555 A KR20210125555 A KR 20210125555A
Authority
KR
South Korea
Prior art keywords
codewords
frame
information
predefined
error
Prior art date
Application number
KR1020217029147A
Other languages
English (en)
Other versions
KR102637530B1 (ko
Inventor
아드리안 토마세크
랄프 스페르슈나이더
얀 뷔테
알렉산데르 쳬칼린스키즈
만프레드 루츠키
Original Assignee
프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP19156997.9A external-priority patent/EP3697005A1/en
Application filed by 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. filed Critical 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Priority to KR1020237021253A priority Critical patent/KR20230098370A/ko
Priority claimed from PCT/EP2020/053617 external-priority patent/WO2020165262A2/en
Publication of KR20210125555A publication Critical patent/KR20210125555A/ko
Application granted granted Critical
Publication of KR102637530B1 publication Critical patent/KR102637530B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/035Scalar quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0041Arrangements at the transmitter end
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0324Details of processing therefor
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/07Arithmetic codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/13Linear codes
    • H03M13/15Cyclic codes, i.e. cyclic shifts of codewords produce other codewords, e.g. codes defined by a generator polynomial, Bose-Chaudhuri-Hocquenghem [BCH] codes
    • H03M13/151Cyclic codes, i.e. cyclic shifts of codewords produce other codewords, e.g. codes defined by a generator polynomial, Bose-Chaudhuri-Hocquenghem [BCH] codes using error location or error correction polynomials
    • H03M13/1515Reed-Solomon codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0009Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the channel coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0023Systems modifying transmission characteristics according to link quality, e.g. power backoff characterised by the signalling
    • H04L1/0032Without explicit signalling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0041Arrangements at the transmitter end
    • H04L1/0042Encoding specially adapted to other signal generation operation, e.g. in order to reduce transmit distortions, jitter, or to improve signal shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0046Code rate detection or code type detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0047Decoding adapted to other signal detection operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0057Block codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0078Avoidance of errors by organising the transmitted data in a format specifically designed to deal with errors, e.g. location
    • H04L1/0083Formatting with frames or packets; Protocol or part of protocol for error control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0078Avoidance of errors by organising the transmitted data in a format specifically designed to deal with errors, e.g. location
    • H04L1/0084Formats for payload data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/08Arrangements for detecting or preventing errors in the information received by repeating transmission, e.g. Verdan system

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Alarm Systems (AREA)
  • Micro-Organisms Or Cultivation Processes Thereof (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

오디오 프레임의 인코딩된 오디오 데이터를 사용하여 에러 방지 프레임(error protected frame)을 생성하기 위한 오디오 송신기 프로세서로서, 상기 오디오 프레임에 대한 인코딩된 오디오 데이터는 정보 단위의 제 1 양 및 정보 단위의 제 2 양을 포함하고, 상기 오디오 송신기 프로세서는, 코드워드들의 미리 규정된 총 개수에 대한 레퍼런스 위치를 규정하는 코드워드 래스터(codeword raster)를 가지는 코드워드 프레임을 구축하기 위한 프레임 구축기(506) - 상기 프레임 구축기(506)는, 상기 정보 단위의 제 1 양 중의 정보 단위를, 코드워드들의 제 1 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하고, 상기 정보 단위의 제 2 양 중의 정보 단위를, 코드워드들의 제 2 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하도록 구성되고, 상기 프레임 구축기(506)는, 상기 정보 단위의 제 2 양 중의 시작 정보 단위가 코드워드 경계와 일치하도록, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 결정하도록 구성됨 -; 및 에러 방지 코더(508)로서, 제 1 처리 결과를 획득하도록 상기 코드워드들의 제 1 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하거나, 제 2 처리 결과를 획득하도록 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하며, 상기 에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록, 상기 제 1 처리 결과 또는 상기 제 2 처리 결과를 미리 규정된 개수의 코드워드에 추가하거나, 에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록, 상기 코드워드들의 제 1 미리 규정된 서브세트 또는 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드를 개별적으로 처리하기 위한, 에러 방지 코더(508)를 포함한다.

Description

오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램
본 발명은 오디오 처리에 관한 것이고, 특히 무선 채널과 같은 에러-취약 송신 채널의 콘텍스트에서 유용한 오디오 처리 애플리케이션에 관한 것이다.
미국 특허 제 5,852,469 는 픽쳐 코딩 및/또는 디코딩 시스템 및 가변 길이 코딩 및/또는 디코딩 시스템을 개시한다. 인코더는 인코더로부터 공급되는 코드 스트림을 복수 개의 코드 스트링으로 분할하고 복수 개의 코드 스트링 중 적어도 하나를 머리부터 꼬리까지 순방향으로 재정렬하고 다른 코드 스트링 중 적어도 하나의 꼬리부터 머리까지 역방향으로 재정렬하기 위한 분주기를 가진다. 가변-길이 코딩 시스템은 코드워드들이 소스 심볼에 대응하도록 복수 개의 코드워드를 저장하기 위한 코드워드 테이블을 포함한다. 인코더는 코드워드 테이블로부터 입력된 소스 심볼에 대응하는 코드워드를 선택하고, 선택된 코드워드를 코딩된 데이터로서 출력하기 위한 것이다. 복수 개의 코드워드는 순방향 및 역방향 중 하나로 디코딩될 수 있다. 복수 개의 코드워드는, 코드들 사이의 휴지부(pause)가 이진 코드의 경우에는 코드워드 내의 숫자 "1" 또는 "0"인 코드워드의 미리 결정된 가중치에 의해 검출될 수 있도록 구성된다.
EP 1155498 B1 은 복수의 래스터 포인트(raster point)를 레퍼런스 포인트로서 포함하는 데이터 스트림을 생성 또는 독출하기 위한 개념을 개시하는데, 여기에서 제 1 의 코드워드의 적어도 일부는 세그먼트의 래스터 포인트에서 시작하는 제 1 기록 방향으로 기록되고, 코드워드들의 제 2 세트의 코드워드 중 적어도 일부는 제 1 기록 방향과 반대이고 세그먼트의 제 2 래스터 포인트에서 시작하는 제 2 기록 방향으로 데이터 스트림 내에 기록된다. 제 2 세트의 코드워드들이 세그먼트에 맞춤되지 않거나 완전히 맞춤되지 않으면, 지정된 세그먼트 내에 맞춤되지 않는 이러한 코드워드의 적어도 일부 또는 이러한 코드워드의 나머지 중 일부가 상이하고 완전히 점유되지 않은 세그먼트 내에 미리 결정된 규칙에 따라서 기록된다.
이러한 프로시저는 에러 전파가 두 개의 래스터 포인트들 사이의 공간으로만 한정되도록 보장한다.
MPEG-4 파트 3 오디오 [1]은 BSAC을 규정하는데, 이것은 비트 슬라이스드 산술 코딩(bit sliced arithmetic coding)을 사용하고, 여기에서 음향심리학적 관련성(psychoacoustic relevancy)은 오디오 프레임에 걸쳐서 선형으로 감소된다.
MPEG-4 파트 3 오디오 [1]은 AAC의 비트스트림 페이로드에 대한 에러 감도 카테고리를 규정한다([1] 내의 표 4.94):
Figure pct00001
후속하여, 관련된 데이터는 대응하는 에러 감도 클래스의 인스턴스 내에 저장되어 ER AAC 페이로드를 형성하는데, 이것은 후속하여 순방향 에러 정정 또는 검출 수단을 사용하여 개별적으로 보호될 수 있다. 데이터 요소를 카테고리 내로 고정하여 지정하는 것이 규정된다. 엔트로피 코딩에 기인하여, 이것은 가변 길이의 클래스를 초래한다. 그러한 길이는 ER AAC 페이로드의 디코딩을 허용하기 위해서 전송될 필요가 있는데, 이것이 추가적인 오버헤드를 야기한다.
DRM [2]는 부동 에러 방지를 허용하기 위한 AAC에 대한 수퍼 프레임을 규정한다(aac_super_frame). 수퍼 프레임은 미리 규정된 개수(5 개 또는10 개)의 AAC 프레임으로 이루어진다. AAC 프레임의 음향심리학적으로 더 중요한 비트는 비트스트림 페이로드의 시작 시에 이용될 수 있다는 것이 가정된다. 그러므로, 처음 N 개의 비트(예를 들어, 200 개의 비트)들이 각각의 프레임으로부터 잘라지고, 수퍼 프레임의 시작 시에 연속적으로 저장된다. 그러한 비트들은 후속하여 CRC에 의해 보호된다. 그러한 프레임의 잔여 비트는 추후에 보호되지 않고 저장된다. 언제나 고정된 양의 데이터가 민감한 것으로 처리되기 때문에, 보호된 페이로드를 디코딩하기 위해서 길이 정보가 송신될 필요가 없다(물론, 수퍼 프레임의 개별적인 프레임에 대한 길이 정보는 필요하지만, 이것은 본 발명의 고려 대상의 범위를 벗어난다).
MPEG-4 파트 3 오디오에서 기술된 바와 같은 BSAC에 의해서 생성된 프레임은 이미 음향심리학적 관련성에 따라 정렬된 상태로 도착한다; 이것은 가장 중요한 비트로부터 시작하여 가장 중요도가 낮은 비트로 끝난다. 이것은 스펙트럼 라인의 모든 비트의 산술적인 인코딩(디코딩)을 위하여 계산 복잡도가 더 높다는 비용과 함께 도착한다.
MPEG-4 파트 3에 기술된 바와 같은 AAC를 위한 접근법의 속성에 기인하여, 다양한 에러 감도 카테고리의 인스턴스들은 가변 길이를 가진다. 이것은 콘볼루션 코드에 대해서는 문제가 되지 않지만, 고정된 양의 데이터가 보호되도록 요구하는 블록 코드에 대해서는 적절하지 않다.
비트스트림 페이로드가 개별적인 비트의 음향심리학적 중요도에 기반하여 이미 정렬되었으면, DRM 접근법도 작동한다.
본 발명의 목적은 에러 방지 프레임을 생성하거나 수신된 에러 방지 프레임을 처리하기 위한, 개선되지만, 그럼에도 불구하고 효율적인 개념을 제공하는 것이다.
이러한 목적은 제 1 항의 오디오 송신기 프로세서, 제 23 항의 오디오 수신기 프로세서, 제 44 항의 오디오 송신 처리 방법, 제 45 항의 오디오 수신 처리 방법, 또는 제 46 항의 컴퓨터 프로그램에 의하여 달성된다.
에러 방지 프레임을 생성하기 위한 오디오 송신기 프로세서는, 오디오 프레임에 대응하는 인코딩된 오디오 데이터를 사용하는데, 이러한 인코딩된 오디오 데이터는 비트 또는 바이트와 같은 정보 단위의 제 1 양 및 정보 단위의 제 2 양을 포함한다. 프레임 구축기는, 코드워드들의 미리 규정된 총 개수에 대한 레퍼런스 위치를 규정하는 코드워드 래스터를 가지는 프레임을 구축하는데, 프레임 구축기는 상기 정보 단위의 제 1 양 중의 정보 단위를 코드워드들의 제 1 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하고, 상기 정보 단위의 제 2 양 중의 정보 단위를 코드워드들의 제 2 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하도록 구성되고, 프레임 구축기는 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를, 상기 정보 단위의 제 2 양 중의 시작 정보 단위가 코드워드 경계와 일치하게끔 결정한다. 오디오 송신기 프로세서는 에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록 코드워드들의 미리 규정된 총 개수를 개별적으로 처리하고 및/또는 제 1 처리 결과를 획득하도록 상기 제 1 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하며 및/또는 제 2 처리 결과를 획득하도록 상기 제 2 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하고 그리고 복수 개의 처리된 코드워드를 획득하도록, 제 1 처리 결과 또는 제 2 처리 결과를 미리 규정된 개수의 코드워드에 추가하기 위한 에러 방지 코더를 가진다.
수신기 측에서, 수신된 에러 방지 프레임을 처리하기 위한 오디오 수신기 프로세서는 에러 방지 프레임을 수신하기 위한 수신기 인터페이스를 포함한다. 오디오 수신기 프로세서는 인코딩된 오디오 프레임을 획득하도록 에러 방지 프레임을 처리하기 위한 에러 방지 프로세서를 포함한다. 특히, 에러 방지 프로세서는 인코딩된 오디오 프레임의 코드워드들의 제 1 미리 규정된 서브세트가 에러를 포함하는지 여부를 점검하도록 구성된다. 오디오 수신기 프로세서는, 코드워드들의 제 1 미리 규정된 서브세트 내에 에러가 검출된 경우 (풀) 프레임 손실 은닉 동작을 수행하거나, 원격 위치에서 이루어질 프레임 손실 은닉을 표시하는 에러 은닉 표시를 생성하고 전달하도록 구성되는 에러 은닉기 또는 에러 은닉 표시자를 포함한다.
코드워드들의 제 1 미리 규정된 서브세트를 일측에서 그리고 코드워드들의 제 2 미리 규정된 서브세트를 타측에서 별개로 처리하는 것에 기인하여, 그리고 코드워드들의 제 1 미리 규정된 서브세트에 대한 정보를 수신기 측에서 사용함으로써, 에러 방지 프레임을 생성하는 것에 대한 매우 효율적인 처리 및 에러 점검에 대한 처리가 얻어지는데, 그 이유는 제 1 세트의 코드워드의 미리 규정된 서브세트가 미리 결정되고, 따라서 프레임마다의 시그널화 비트와 같은 임의의 특정한 추가적 시그널화(signalization)가 없이 디코더에게 알려지기 때문이다. 이것은 요구되지 않는데; 그 대신에, 인코더가 정보 단위의 제 1 양을 기록하기 위하여 첫 번째 코드워드의 미리 규정된 서브세트를 사용하기 때문이고, 그리고 수신기 또는 오디오 수신기 프로세서가 이러한 사전 규정에 의존하기 때문에, 일면으로는 효율적인 에러 방지 그리고 다른 면으로는 효율적인 에러 점검이 가능해진다.
바람직하게는, 수신 측에서 에러 방지 처리를 하면, 제 2 세트로부터의 임의의 코드워드가 아니라 코드워드들의 제 1 서브세트의 두 개 이상에 대한 해시 값과 같은 처리 결과의 별개의 계산이 가능해지고, 동시에, 제 1 세트로부터의 임의의 코드워드가 없이 코드워드들의 제 2 미리 규정된 서브세트의 코드워드만으로부터의 해시 값의 계산은, 디코더 측에서의 효율적인 에러 점검이 가능해지게 하는데, 그 이유는 모든 코드워드가 아니라 특정 양만이 해시 증명을 위하여 사용되어야 하기 때문이다. 수신기 처리에서 매우 일찍, 풀 프레임 손실 은닉 동작이 요구되게 하는 중대한 에러가 프레임 내에서 발생되었는지, 또는 상대적으로 덜 중요한 오디오 데이터만이 송신 에러에 의하여 영향을 받아서 이러한 타입의 에러를 해결하기 위해서는 더 높은 품질의 부분적 프레임 손실 은닉 동작만이 요구되거나 은닉 동작이 아예 필요하지 않은지 여부가 결정될 수 있다.
본 발명이 일측에서의 오디오 인코딩과 타측에서의 에러 방지 처리 사이의 브릿지를 특정 프레임 구축 동작을 통해서 형성한다는 사실 때문에, 매우 효율적이고 매우 높은 품질이며 스마트한 에러 처리 프로시저가 디코더 측에 적용될 수 있고, 이것은 제 1 양의 데이터를 가지는 코드워드들의 제 1 미리 규정된 서브세트와 제 2 양의 데이터를 가지는 코드워드들의 제 2 미리 규정된 서브세트의 분리된 에러 방지 처리에 기인한다. 바람직하게는, 제 1 양의 데이터는 음향심리학적으로 더 중요한 데이터이거나, 부가 정보이고 선택적인 TNS 데이터이고 더 낮은 스펙트럼 값의 최상위 비트 및 최하위 비트인 반면에, 제 2 양의 데이터는 음향심리학적인 관점에서 볼 때 오디오 지각(perception)을 위하여 결정적이지 않는 더 높은 주파수의 최상위 비트 및 최하위 비트를 통상적으로 포함한다. 정보 단위의 제 2 양 내에 통상적으로 존재하는 추가적 정보 단위는, 산술적 인코더에 의한 비트 소모가 이용가능한 비트 예산을 완전히 소모하지 않았던 경우에 생성되는 잔여 데이터이다.
특히, 정보 단위의 제 1 양 및 정보 단위의 제 2 양을 제 1 및 제 2 미리 규정된 서브세트 내에 기록하는 것은(여기에서, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계는 코드워드 경계에 배치됨), 더 중요한 코드워드, 즉 코드워드들의 제 2 미리 규정된 서브세트와 같이 덜 중요한 코드워드와 비교할 때 코드워드들의 제 1 미리 규정된 서브세트 사이에서 분명한 분리가 발견되는 것을 보장한다. 오디오 코더에 의해 적용되는 코딩 동작이, 코딩 동작을 제어함으로써 그리고 추가적인 잔여 비트를 계산함으로써 고정된 프레임 래스터에 적응되는 프레임에 대하여 결과적으로 오디오 데이터의 가변 길이 결과를 초래하는 신호-의존적 코딩 동작인 시나리오에서, 예를 들어 정보 단위의 제 1 양과 정보 단위의 제 2 양 사이의 경계는 프레임마다 동적으로 변하게 된다. 그럼에도 불구하고, 저 주파수 데이터와 같이 음향심리학적으로 더 중요한 데이터는 제 1 미리 규정된 서브세트 내에 포함되고, 따라서 송신기 측에서는, 코드워드들의 제 1 미리 규정된 서브세트에 대해서만 점검하면 풀 프레임 손실 은닉이 수행되어야 하는 상황이 초래되는 반면에, 수신기 측에서 코드워드들의 제 1 미리 규정된 서브세트가 임의의 에러가 없이 수신되었다는 것이 결정되지 마자, 코드워드들의 제 2 미리 규정된 서브세트의 점검과 같은 추가적인 처리만 수행되게 된다. 그러므로, 코드워드들의 제 1 미리 규정된 서브세트가 에러를 가진다는 것이 결정되자마자, 더 이른 프레임 또는 선행 프레임의 변경된 반복 등과 같은 풀 프레임 손실 은닉 동작이, 수신된 에러가 있는 프레임의 추가적인 처리를 위해서 임의의 리소스를 소비하지 않고 수행된다.
오디오 수신기 프로세서는, 상기 코드워드들의 제 1 미리 규정된 서브세트 및 상기 코드워드들의 제 2 미리 규정된 서브세트를 식별하는 미리 규정된 프레임 독출 프로시저에 따라서 상기 인코딩된 오디오 프레임을 독출하기 위한 프레임 리더기(독출기)를 더 포함한다. 인코더 측 프레임 구축기에 의해서 적용된 임의의 오디오 데이터 처리 순서는 취소/재정렬될 수 있고, 또는 직접적인 독출 프로시저를 위하여 디코더에게 알려져서, 디코더가 에러가 없는 상태가 제 1 미리 규정된 서브세트에 대해서 검출된 경우에는 수신된 프레임을 적어도 제 1 미리 결정된 서브세트에 대해서 파싱하고, 제 2 미리 규정된 서브세트의 에러가 없는 상태도 역시 결정된 경우에는 제 2 미리 규정된 서브세트에 대해서도 파싱할 수 있게 한다.
프레임 리더기는 통상적으로 코드워드들의 제 1 미리 규정된 서브세트의 에러가 없는 상황을 결정한 이후에 활성화되어야 한다. 에러 방지 프로세서는 에러 방지 프로세서에 의해 출력된 데이터 프레임 내의 코드워드들의 제 1 미리 규정된 서브세트의 위치만을 알아야 하고, 에러 점검을 위해서 어떤 방향으로 임의의 데이터가 코드워드에 의해 표현되는 대응하는 위치에 기록되었는지는 알 필요가 없다.
바람직하게는, 음향심리학적으로 덜 중요한 데이터는 프레임의 좌측 경계에 있거나 프레임의 우측 경계에 있거나 프레임 내의 미리 규정된 개수의 코드워드/레퍼런스 위치에 있을 수 있는 프레임 내의 특정한 위치에 위치된다. 음향심리학적으로 더 중요한 데이터를 음향심리학적으로 덜 중요한 데이터로부터 분리하는 것이 바람직하고, 또는 음향심리학적으로 더 중요한 데이터 및 음향심리학적으로 덜 중요한 데이터를 오디오 프레임 내에서 재정렬하는 것이 요구된다.
인코딩된 오디오 데이터의 프레임이 아직 특정한 에러 방지 프로세서와 협력하도록 맞춤화되지 않은 미리 규정되고 표준화된 오디오 디코더에 의해 생성되는 경우, 재정렬은, 예를 들어 데이터를 주어진 에러 방지 및 검출 기법에 맞추어 정렬하기 위하여 필요하다. 이러한 재정렬은 음향심리학적으로 더 중요한 데이터 및 음향심리학적으로 덜 중요한 데이터의 이용가능성에 의존하여 개별적인 프레임 손실 은닉 프로시저를 허용한다.
본 출원의 바람직한 실시형태들이 첨부 도면들에 대하여 후속하여 논의된다:
도 1 은 원본인 LC3 비트스트림 페이로드의 일 예의 예시도이다;
도 2 는 그들의 음향심리학적 관련성에 기반한, 도 1 에 제공된 예시적인 LC3 비트스트림 페이로드의 분포를 예시한다;
도 3 은 LC3 비트스트림 페이로드 재정렬의 일 예를 예시한다;
도 4 는 바이트 그래뉼래러티(granularity)에서 동작하는 산술적 인코더/디코더를 사용한 LC3 비트스트림 페이로드 재정렬의 다른 예를 도시한다;
도 5 는 오디오 송신기 프로세서의 바람직한 구현형태를 예시한다;
도 6 은 프레임 구축을 구현하기 위한 프로시저를 예시한다;
도 7 은 도 5 의 프레임 구축기에 의해 수행되는 바람직한 프로시저를 예시한다;
도 8 은 프레임 구축기의 바람직한 프로시저를 예시한다;
도 9a 내지 도 9c 는 도 5 의 프레임 구축기에 의해 구축된 프레임 내의 코드워드들의 제 1 미리 규정된 서브세트 및 코드워드들의 제 2 미리 규정된 서브세트의 위치의 개략도를 예시한다;
도 10 은 프레임 구축기에 의한 프레임의 직접 기록의 바람직한 구현형태를 예시한다;
도 11 은 도 5 의 프레임 구축기의 재정렬 프로시저의 바람직한 구현형태를 예시한다;
도 12 는 도 5 의 에러 방지 코더의 바람직한 구현형태를 예시한다;
도 13 은 본 발명에 따른 오디오 수신기 프로세서의 바람직한 구현형태를 예시한다;
도 14 는 에러 방지 프로세서 및 에러 은닉기의 바람직한 프로시저를 예시한다;
도 15 는 에러 방지 프로세서 및 에러 은닉기의 추가적인 바람직한 구현형태를 예시한다;
도 16 은 부분적 프레임 손실 은닉에 대한 은닉 스펙트럼 범위의 개략적인 표현을 예시한다;
도 17 은 부분적 프레임 손실 은닉의 추가적인 구현형태를 예시한다;
도 18 은 도 13 의 프레임 리더기의 바람직한 구현형태를 예시한다;
도 19 는 수신된 데이터를 표준화된 오디오 디코더와 같은 특정한 표준에 의해 요구되는 프레임 포맷으로 재정렬하는 것을 수행하기 위한 프레임 리더기의 바람직한 구현형태를 예시한다;
도 20 은 에러 방지 프레임의 오디오 데이터의 직접 독출을 위하여 프레임 리더기에 의해 수행되는 바람직한 프로시저를 예시한다;
도 21 은 도 5 의 오디오 인코더의 바람직한 구현형태를 예시한다; 그리고
도 22 는 도 13 의 오디오 디코더의 바람직한 구현형태를 예시한다.
후속하여, 특정 콘텍스트에서의 본 발명의 바람직한 구현형태가 논의된다.
비트들은 인코딩 프로세스 도중에 그들의 음향심리학적 관련성에 기반하여 시간순으로 - 공간적이 아님 - 기록된다. 가장 중요한 데이터는 첫 번째 기록되고, 가장 중요하지 않은 데이터는 마지막에 기록된다. 그러나, '정상(normal)' 오디오 프레임 내의 음향심리학적으로 덜 중요한 비트의 위치는 내재된 코딩된 데이터에 의존하여 프레임별로 달라질 수 있다. 이것은, 예를 들어 프레임 내에 양측으로부터 데이터를 기록하지만, 일측으로부터 산술적으로 코딩된 데이터가 기록되고 타측으로부터는 다른 수단에 의해 코딩된 데이터가 동시에 기록되는 것에 기인할 수 있다. 이러한 접근법의 일 예는 LC3 코덱이다.
두 가지 클래스의 비트를 가지는 시스템이 구상된다. 비트스트림 페이로드를 두 가지 클래스로 세부분할하는 것은 출력에 대한 그들의 관련성에 기반하여 이루어진다:
- 음향심리학적으로 덜 중요한 비트들 - 이들이 왜곡되는 것은 부분적 프레임 손실 은닉을 허용하고, 하나의 클래스에 들어간다;
- 음향심리학적으로 더 중요한 비트들 - 이들이 왜곡되는 것은 풀 프레임 손실 은닉을 요구하며, 다른 클래스에 들어간다.
이렇게 하는 이유는, 두 가지 클래스의 이용가능성에 의존하여 상이한 은닉 전략들이 구상되기 때문이다. 그러한 두 개의 상이한 은닉 전략은 지금부터 풀 프레임 손실 은닉(partial frame loss concealment) 및 부분적 프레임 손실 은닉(partial frame loss concealment)이라고 불린다:
풀 프레임 손실 은닉은, 음향심리학적으로 더 중요한 비트를 커버하는 클래스가 손실된다면 발생한다. 음향심리학적으로 덜 중요한 비트를 커버하는 클래스의 이용가능성은 중요하지 않다 - 그 데이터는 평가되지 않는다. 그러한 경우에, 현재의 프레임의 데이터는 이용가능하지 않고, 따라서 이러한 프레임은 온전히 마지막에 수신된 프레임에 기반하여 합성된다.
부분적 프레임 손실 은닉은, 음향심리학적으로 더 중요한 비트를 커버하는 클래스가 이용가능하지만, 음향심리학적으로 덜 중요한 데이터를 커버하는 클래스는 손실된 경우에 발생할 수 있다. 그러한 경우에, 음향심리학적으로 더 중요한 데이터가 이용가능하고 프레임을 재구성하기 위해서 사용될 수 있다 - 음향심리학적으로 덜 중요한 데이터는 단지 마지막으로 완전하게 수신된 프레임에 기반하여 합성된다. 부분적 프레임 손실 은닉은 많은 상황에서 풀 프레임 손실 은닉보다 더 양호한 품질(즉 더 적은 아티팩트)을 제공하는 것으로 여겨진다.
두 개의 클래스의 크기는, 예를 들어 채널 코더에 의해서 미리 규정된다.
바람직하게는, 순방향 에러 검출 및 정정 기법이 리드-솔로몬 코드를 사용하고, 코드워드 그래뉼래러티에 대해서 작동하는 반면에, 각각의 코드워드는 여러 개의 니블(nibble)(4 개의 비트, 반-옥테트(semi-octect)라고도 불림)로 이루어진다. 이러한 케이스(LC3)에서, 하나의 코드워드는 13 개 내지 15 개의 니블로 이루어진다. 바람직한 실시형태에서, 이러한 순방향 에러 검출 및 정정 기법은 예를 들어 다음과 같은 소모되는 오버헤드에 의존하여 다양한 정도의 에러 검출 및 정정을 제안한다:
- 코드워드마다 4 개의 니블의 오버헤드는 2 개의 니블이 정정될 수 있게 한다(에러 방지 모드 3);
- 코드워드마다 6 개의 니블 오버헤드는 3 개의 니블이 정정될 수 있게 한다(에러 방지 모드 4).
주어진 전체 비트레이트에 대하여, 순수 비트레이트는 선택된 에러 방지 모드에 의존한다 - 에러 검출 및 정정 능력이 높아질수록, 이용가능한 순수 비트레이트는 작아진다.
양자 모두의 클래스에 대하여 개별적인 에러 검출이 요구된다. 주어진 채널 코딩 구성을 고려하면서, 하나의 클래스의 모든 비트를 특정 개수의 코드워드 내에 저장하고, 다른 클래스의 모든 비트를 잔여 개수의 코드워드 내에 저장하는 것이 바람직하다.
비트스트림 페이로드 내의 비트를 클래스로 하위분할하는 것은, 특정 개수의 코드워드는 언제나 하나의 클래스의 비트들을 포함하는 반면에 잔여 개수의 코드워드는 다른 클래스의 비트를 포함하게 하도록 이루어진다.
진술된 바와 같이, 음향심리학적으로 덜 중요한 비트의 위치는 내재된 코딩된 데이터에 의존하여 프레임별로 달라질 수 있다.
그러나, 우리의 목표는 재정렬을 위하여 분리된 특정 양의 음향심리학적으로 덜 중요한 비트를 가지는 것이다(채널 코덱에 의해 제공되는 고정된 코드워드 크기 및 위치와 함께 개별적인 에러 방지 및 검출을 허용함).
재정렬은 프레임별로 적응적으로 이루어져야 한다. 이러한 재정렬을 위하여, 재정렬을 되돌리거나 재정렬된 비트스트림 페이로드를 디코딩하기 위하여 추가적 부가 정보(예를 들어 길이 정보)가 요구되지 않을 것이다.
보통, 비트스트림 페이로드는 기록 및 독출 루틴이 효율적인 방식으로 구현될 수 있도록 기록된다. 음향심리학적인 중요도는 보통은 아무런 역할을 하지 않는데, 그 결과 음향심리학적으로 덜 중요한 비트 및 음향심리학적으로 더 중요한 비트들이 혼합되는 비트스트림 페이로드가 초래될 수 있다. 앞에서 언급된 주어진 요구 사항의 콘텍스트에서 효율적인 순방향 에러 방지를 허용하기 위하여, 이러한 비트스트림 페이로드는 차선적인 것이고 재정렬을 요구한다.
음향심리학적으로 덜 중요한 비트의 위치가 내재된 코딩된 데이터에 의존하여 프레임별로 달라질 수 있기 때문에, 고정된 코드워드 크기 및 위치로의 직접 매핑이 가능하지 않다. 그러므로, - 간단한 접근법에서는 - 관련된 비트들이 다음과 같이 재정렬된다:
- 음향심리학적으로 덜 중요한 비트는 사전 정렬된 비트스트림 페이로드의 하나의 끝에 저장된다.
- 음향심리학적으로 더 중요한 비트는 사전 정렬된 비트스트림 페이로드의 다른 끝에 저장된다.
음향심리학적으로 덜 중요한 비트의 개수는 에러 방지 모드 및 채널-인코딩된 프레임의 크기에 기반하여 정적으로 유도된다.
그러나, 음향심리학적으로 덜 중요한 비트의 위치는 동적으로 유도된다. 적응적 재정렬 규칙은 미리 규정되어, 디코더 측에서 재정렬을 취소하기 위하여 추가적인 부가 정보가 필요하지 않도록 한다. 적응 규칙은, 음향심리학적으로 가장 중요하지 않은 비트가 언제나 비트스트림의 선택된 측면의 가장 먼 끝에 저장되는 것을 보장하고, 동시에 디코더가 원래의 비트스트림 페이로드를 어떻게 복원하는지를 정확하게 아는 것을 보장한다.
일면으로는, 이러한 재정렬은, '정상(normal)' 비트스트림 페이로드가 인코더에 의해 완전히 기록된 이후에 후-처리 단계로서, - 그리고 잔여 '정상' 페이로드가 디코더에 의하여 독출되기 이전에 부가 정보를 디코딩 한 이후의 전-처리 단계로서(이것은 절대로 재정렬의 일부가 아님) 수행될 수 있다.
다른 면으로는, 이러한 재정렬은, 인코딩된 비트를 적절한 위치에 직접적으로 기록하면서 인코딩 프로세스 도중에 - 그리고 비트를 적절한 위치로부터 직접적으로 독출하면서 디코딩 프로세스 도중에 수행될 수도 있다.
음향심리학적으로 더 적은 비트 및 음향심리학적으로 더 중요한 비를 전용 코드워드로 임의로 지정하는 것도 가능하다는 것에 주의한다. 음향심리학적으로 덜 중요한 비트를 최좌측 코드워드에 지정하고 음향심리학적으로 더 중요한 비트를 최우측 코드워드에 지정하는 것은 바람직한 실시형태 중 하나일 뿐이다. 따라서, 재정렬은 선택된 지정 방식에 의존하여 상이하게 수행될 수도 있다. 유일한 전제 조건은, 지정 방식이 미리 규정되어, 디코더가 비트스트림 내의 추가적 정보가 없이 프로세스를 되돌릴 수 있어야 한다는 것이다.
다음 애플리케이션 시나리오들을 고려할 수 있다:
1. 오디오 프레임은, 음향심리학적으로 덜 중요한 비트가 비트스트림의 하나의 끝에서 수집되도록 기록될 것이다:
a. 양측에서부터 더 중요한 비트에 대해 제공되는 영역 내에 기록하는 것을 시작한다.
b. 두 개의 기록 포인터들이 서로 만나면 중단한다.
c. 양측으로부터 덜 중요한 비트에 대해 제공되는 영역 내로 계속 기록한다.
2. 오디오 프레임이 '정상(normal)' 방법으로 기록되지만, 음향심리학적으로 덜 중요한 비트가 비트스트림의 하나의 끝에서 수집되도록 재정렬될 것이다:
a. 양측으로부터 프레임을 독출 및 파싱하는 것을 시작한다.
b. 더 중요한 비트에 대해서 제공된 비트들의 개수가 독출되면 중단한다: 음향심리학적으로 덜 중요한 비트는 두 개의 독출 포인터 사이의 잔여 비트들이다.
c. 좌측 포인터까지의 데이터를 두 개의 포인터들 사이의 데이터와 교환한다.
3. 오디오 프레임은, 음향심리학적으로 덜 중요한 비트가 비트스트림의 하나의 끝에서 수집되도록 기록되지만, '정상' 방법으로 재정렬될 것이다:
a. 양측으로부터 프레임을 독출하는 것을 시작한다. 만일 음향심리학적으로 덜 중요한 비트가 비트스트림의 좌측에 기록되어야 한다면, 좌측으로부터 음향심리학적으로 더 중요한 비트를 독출하기 위한 시작 포인트는 음향심리학적으로 덜 중요한 비트를 위하여 제공된 비트들의 개수로부터 유도될 수 있다(이것은 동일하다는 것을 의미함). 만일 음향심리학적으로 덜 중요한 비트가 비트스트림의 우측에 기록되어야 한다면, 우측으로부터 음향심리학적으로 더 중요한 비트를 독출하기 위한 시작 포인트는 음향심리학적으로 덜 중요한 비트에 대해 제공되는 비트들의 개수 및 총 비트들의 개수로부터 유도될 수 있다.
b. 두 개의 기록 포인터들이 서로 만나면 중단한다.
c. 음향심리학적으로 더 중요한 비트를 독출하기 위한 시작 포인트까지의 데이터를(a.를 참조함) 이러한 시작 포인트 및 두 개의 포인터들의 미팅 포인트 사이의 데이터와 교환한다.
4. 음향심리학적으로 덜 중요한 비트가 비트스트림의 하나의 끝에서 수집되도록 기록되는 오디오 프레임은 다음과 같이 독출된다:
a. 양측으로부터 프레임을 독출하는 것을 시작한다. 만일 음향심리학적으로 덜 중요한 비트가 비트스트림의 좌측에 기록되어야 한다면, 좌측으로부터 음향심리학적으로 더 중요한 비트를 독출하기 위한 시작 포인트는 음향심리학적으로 덜 중요한 비트를 위하여 제공된 비트들의 개수로부터 유도될 수 있다. 만일 음향심리학적으로 덜 중요한 비트가 비트스트림의 우측에 기록되어야 한다면, 우측으로부터 음향심리학적으로 더 중요한 비트를 독출하기 위한 시작 포인트는 음향심리학적으로 덜 중요한 비트에 대해 제공되는 비트들의 개수 및 총 비트들의 개수로부터 유도될 수 있다.
b. 두 개의 기록 포인터들이 서로 만나면 중단한다.
c. 양측의 프레임의 잔여 부분으로부터 계속 독출한다. 우측으로부터 음향심리학적으로 덜 중요한 비트를 독출하기 위한 시작 포인트는 좌측으로부터 음향심리학적으로 더 중요한 비트를 독출하기 위한 시작 포인트와 같다(a.를 참조함).
도 5 는 본 발명의 바람직한 실시형태에 따른 오디오 송신기 프로세서를 예시한다. 오디오 송신기 프로세서는 프레임 구축기(506) 및 에러 방지 코더(508)를 포함하는 것이 바람직하다.
오디오 송신기 프로세서로의 입력은, 통상적으로 가변 길이 오디오 인코더인 오디오 인코더(500)에 입력된 오디오 데이터의 프레임으로부터 유도된 오디오 데이터와 같은 인코딩된 오디오 데이터의 양이다. 오디오 인코더에 의해 요구되는 비트 양은 인코딩될 신호에 의존하지만, 바람직한 구현형태에서는, 오디오 데이터 - 통상적으로 인코딩된 오디오 데이터의 프레임의 형태임 - 의 출력은 고정 길이 프레임이다. 그러므로, 오디오 인코더는 통상적으로 가변 품질로 인코딩함으로써, 인코딩하기 어려운 인코딩될 오디오 데이터의 프레임이 결국에는 인코딩된 오디오 데이터 내에서 더 낮은 품질 표현에 의해서 표현되게 하는 반면에, 인코딩하기 쉬운, 즉 특정 품질 레벨에 대하여 더 적은 개수의 비트로 인코딩될 수 있는 인코딩될 오디오 데이터의 프레임이 결국에는 오디오 인코더(500)의 출력에서 더 높은 품질 표현에 의해서 표현되게 한다.
통상적으로, 특정한, 예를 들어 오디오 데이터의 시간 도메인 부분에 대한 오디오 인코더의 출력은 정보 단위의 제 1 양 및 정보 단위의 제 2 양을 포함한다. 50 퍼센트 중첩 가산 상황(overlap add situation)의 경우에, 시간 도메인 부분은 프레임 크기의 두 배, 즉 인코더 내로 새롭게 입력되거나 디코더의 중첩 가산 스테이지에 의해 출력되는 오디오 샘플의 개수를 가진다.
예를 들어, 재정렬기(502) 및 후속하여 연결된 프레임 기록기(504)를 포함할 수 있거나, 예를 들어 임의의 중간 표현이 중요하지 않는 경우에는 프레임 기록기만으로 이루어질 수 있는 도 5 의 프레임 구축기(506)는, 특정 프레임에 대한 미리 규정된 코드워드의 총 개수에 대한 레퍼런스 위치를 규정하는 코드워드 래스터를 가지는 해당 프레임을 구축하도록 구성된다. 이러한 프레임은, 예를 들어 도 9a, 도 9b, 및 도 9c 에 예시되는데, 여기에는 상이한 코드워드 구조가 주어지고, 예를 들어 미리 규정된 코드워드에 대한 레퍼런스 위치가 수직선으로 표시되며, 그러한 레퍼런스 위치들은 코드워드의 시작이거나 코드워드의 끝이거나 양자 모두이다. 이러한 레퍼런스 위치 또는 래스터 포인트는 임의의 특정한 정보 단위를 요구하지 않고, 하지만 일부 데이터가 기록되는 특정 비트 또는 바이트 위치에 의해 제공된다. 그러므로, 레퍼런스 위치 또는 래스터 포인트는 임의의 오버헤드를 유발하지 않고, 통상적으로 에러 방지 프로세서를 위한 코드워드의 시작 또는 끝을 마킹한다.
본 발명에 따르면, 프레임 구축기는 정보 단위의 제 1 양 중의 정보 단위를 코드워드들의 제 1 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하도록 구성된다.
정보 단위의 제 2 양 중의 정보 단위는 코드워드들의 제 2 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록된다. 특히, 프레임 구축기(506)는 정보 단위의 제 2 양 중의 시작 정보 단위가 코드워드 경계와 일치하도록, 정보 단위의 제 1 양과 정보 단위의 제 2 양 사이의 경계를 결정하도록 구성된다. 따라서, 정보 단위의 제 1 양 및 정보 단위의 제 2 양 사이의 분명한 분리, 및 일측에서는 송신기 측에서 그리고 타측에서는 수신기 측에서의 대응하도록 연관된 에러 방지 프로시저가 얻어진다.
오디오 송신기 프로세서는 미리 규정된 개수의 코드워드를 개별적으로 처리하여 에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하기 위한 에러 방지 코더(508)를 더 포함한다. 이러한 프로시저를 위하여, 에러 방지 코더는 리드-솔로몬(Reed-Solomon) 인코더와 같은 엔트로피-가산(entropy-adding) 또는 블록 인코더를 포함할 수 있다. 대안적으로 또는 추가적으로, 에러 방지 코더는, 제 1 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하여 제 1 해시 값과 같은 제 1 처리 결과를 획득하고, 또는 제 2 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하여 제 2 해시 값과 같은 제 2 처리 결과를 획득하며, 처리 결과들 또는 제 1 및 제 2 처리 결과 중 하나를 미리 규정된 개수의 코드워드에 추가하여 복수 개의 처리된 코드워드를 획득하기 위한, CRC 또는 해시 값 프로세서와 같은 다른 비-코드워드 개별 처리 디바이스(non-codeword individually processing device)를 포함할 수 있다. 제 1 처리 결과는 제 1 미리 규정된 서브세트로부터만 유도되고, 제 2 처리 결과는 제 2 미리 규정된 서브세트로부터만 유도된다. 바람직하게는, 에러 방지 처리의 순서는, 제 1 및 제 2 처리 결과가 임의의 에러 리던던시 처리에 아직 노출된 바 없는 코드워드, 예컨대 리드-솔로몬 또는 임의의 다른 에러 방지 블록 인코더로의 입력에 있는 코드워드로부터 계산되게 하는 것이다. 제 1 및 제 2 처리 결과가 코드워드들의 제 1 및 제 2 미리 규정된 세트에 별개의 추가적 코드워드 내에 또는 제 1 또는 제 2 세트 중 어느 하나 내에서 여전히 이용가능한 빈 공간에 추가되고, 코드워드 및 해시 값과 같은 처리 결과가 리드-솔로몬 인코더 프로세서를 사용하여 보호되는 것이 바람직하다.
도 5 의 에러 방지 코더(508)에 의하여 획득된 에러 방지 프레임은 DECT(digital enhanced cordless telephone) 표준을 준수하는 디바이스와 같은 바람직하게는 무선 송신기로 전달된다. 그러므로, 이러한 송신기(510)는 에러 방지 프레임을 (무선) 에러-취약 채널 내로 전송한다.
바람직하게는, 프레임 구축기(506)는 제 2 미리 규정된 서브세트의 정보 용량이 상기 정보 단위의 제 2 양 중의 정보 단위의 양과 같아지도록, 상기 제 2 미리 규정된 서브세트의 정보 용량에 기반하여, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 결정하도록 구성된다. 프레임 기록기(504)가 제 2 미리 규정된 서브세트의 용량보다 적은 전체 프레임에 대한 전체 양의 데이터와 동일한 양의 데이터를 기록하자마자, 오디오 프레임의 제 1 양의 데이터는 완료되고, 제 2 양의 데이터는 코드워드들의 제 2 미리 규정된 서브세트의 코드워드 중 첫 번째의 시작에서 시작된다.
제 1 양 및 정보 단위의 제 2 양을 생성하기 위한 오디오 인코더(500) 또는 소스 인코더는 프레임-단위 처리에 의존하고, 오디오 신호의 미리 규정된 시간 부분을 사용한다. 정보 단위는 산술적 인코더 또는, 일반적으로는 가변 길이 인코더에 의해 생성되는 데이터와 같은 필수적 정보 단위의 세트를 포함한다. 정보 단위들은 오디오 신호의 시간 부분의 개선된 품질 표현을 제공하는 가변 개수의 잔차 정보 단위를 가지며, 이러한 데이터는 비트 예산(bit budget)이 산술적 인코더에 의해 아직 완료되지 않았으면 비트스트림내에 기록된다. 소스 인코더(500)는 가변 길이 코딩 규칙을 사용하도록 구성되고, 결과적으로 미리 규정된 시간 부분에 대해서 신호-의존적 개수의 정보 단위를 초래한다. 프레임 구축기는, 인코딩된 오디오 프레임이 인코딩된 정보 단위 내에서 고정된 크기를 가지도록, 인코딩된 오디오 프레임을 구축하게끔 구성되고, 오디오 인코더(500)는 잔차 정보 단위의 가변 개수를 미리 규정된 프레임 크기 및 필수적 비트의 개수 사이의 차분으로서 결정하도록 구성된다.
바람직하게는, 프레임 구축기(504)는, 프레임에 대한 오디오 신호에 의존하여, 상기 경계가 상기 프레임의 상이한 오디오 정보에 관련되거나 상기 오디오 디코더에 의하여 상이하게 해석되는 경계 정보 단위(border information unit)를 나타내게 하기 위하여, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 신호-적응적으로 프레임마다 결정하도록 구성된다. 바람직하게는, 경계 정보 단위는 오디오 인코더(500) 내에서 사용되는 것이 바람직하고 인코더에 대한 도 21 및 디코더에 대한 도 22 에 대해서 후술되는 것과 같은 스펙트럼 도메인 오디오 코더 내의 특정 스펙트럼 값 또는 특정 스펙트럼 값들의 조합을 가리키고 나타낸다.
본 발명의 바람직한 구현형태에서, 프레임 기록기(504) 또는, 일반적으로, 프레임 구축기(506)는 정보 단위의 제 1 양을 도 6 의 600 에서 식별되는 제 1 미리 규정된 서브세트 내로 기록하도록 구성된다. 단계 601 에서, 제 1 양과 정보 단위의 제 2 양 사이의 경계가 결정되자마자 제 1 서브세트가 정보 단위로 채워진다. 아이템(602)에서 표시되는 바와 같이, 정보 단위의 제 2 양은 코드워드들의 제 2 미리 규정된 서브세트 내에 기록된다.
바람직하게는, 도 7 에 도시된 바와 같이, 코드워드들의 제 1 미리 규정된 서브세트는 코드워드들의 순서 및 특정된 레퍼런스 위치를 가진다. 이것은 코드워드들의 순서 및 레퍼런스 위치를 역시 가지는 것이 바람직한 코드워드들의 제 2 미리 규정된 서브세트에 대해서도 성립한다.
도 9a 는 코드워드들의 미리 규정된 서브세트를 코드워드들의 프레임 내에 배열하는 첫 번째 가능성을 예시한다. 도 9a 의 실시형태에서, 코드워드들의 제 1 서브세트는 코드워드 4, 5, 6, 7이고, 코드워드들의 제 2 서브세트는 코드워드 1, 2, 3이다.
바람직하게는, 음향심리학적으로 덜 중요한 오디오 데이터인 정보 단위의 제 2 양을 수신한 코드워드들의 제 2 서브세트의 코드워드는 모든 서로 인접하고, 프레임 시작 위치에 위치된다. 음향심리학적으로 더 중요한 오디오 데이터인 정보 단위의 제 1 양을 수신한 코드워드들의 제 1 서브세트의 코드워드는 모든 서로 인접하고, 프레임 끝 위치에 위치된다.
코드워드들의 제 1 미리 규정된 서브세트는 프레임 내의 네 번째 코드워드에 의하여 그리고 코드워드 4 로부터 코드워드 5까지, 코드워드 5로부터 코드워드 6 까지, 그리고 코드워드 6으로부터 코드워드 7까지의 순서 또는 시퀀스에 의해서 미리 규정된다. 제 1 미리 규정된 서브세트는 코드워드들과 기록 방향에 대한 코드워드들의 순서를 식별한다. 바람직한 실시형태에서, 프레임 구축기는 코드워드들의 제 1 서브세트, 즉, 코드워드의 레퍼런스 위치에서 시작되는 화살표에 의해 표시되는 바와 같은 코드워드 4, 5, 6, 7 를 기록하도록 구성된다. 좌측에서 우측으로의 기록 동작은 레퍼런스 위치로서 제 4 코드워드의 시작에서 시작되고, 반대 방향으로의 기록은 레퍼런스 위치로서 일곱 번째 코드워드의 끝, 즉 프레임 끝 위치에서 시작된다. 또한, 제 2 미리 규정된 서브세트도 이에 상응하여 코드워드들과 기록 방향에 대한 코드워드들의 순서를 식별한다.
코드워드들의 제 2 서브세트는 프레임 내의 첫 번째 코드워드에 의하여 그리고 첫 번째 코드워드로부터 두 번째 코드워드까지 그리고 두 번째 코드워드로부터 세 번째 코드워드까지의 순서 또는 시퀀스에 의하여 미리 결정된다. 코드워드 또는 서브세트가 모두 서로 인접하는 경우, 순서 또는 시퀀스 정보는 기록 또는 독출 방향에 의해서 암시적으로 주어진다. 다시 말하건대, 좌측에서 우측으로의 좌측 방향으로 기록하는 것은 첫 번째 코드워드의 프레임 시작 위치에서 이루어지고, 제 2 서브세트의 우측 끝으로부터의 기록, 즉 코드워드 3으로부터의 기록은 세 번째 코드워드의 끝으로부터 프레임 시작 위치로 향하는 방향으로 시작된다.
자연적으로, 제 1 서브세트 및 제 2 서브세트 내의 코드워드들의 개수는 자유롭게 선택가능하고, 제 2 서브세트의 코드워드의 개수가 많을수록, 풀 프레임 손실 은닉에 대한 필요성이 낮아진다. 그러나, 제 1 서브세트의 코드워드들의 개수가 충분히 커서, 제 2 서브세트의 모든 코드워드 또는, 예를 들어 제 2 서브세트의 도 9a 의 실시형태의 코드워드 1 및 3 이 도 13 에 예시되는 오디오 수신기 프로세서에 의해 검출될 수 있는 바와 같이 에러가 있는 경우에, 허용가능한 품질을 가지는 부분적 프레임 손실 은닉이 수행될 수 있게 하는 것이 보장되어야 한다.
도 9b 는 제 1 미리 규정된 서브세트 및 제 2 미리 규정된 서브세트의 대안적인 구현형태를 예시한다. 다시 말하건대, 양자 모두의 서브세트는 서로 인접한 코드워드들을 규정하지만, 이번에는 제 1 미리 규정된 서브세트가 프레임 시작 위치와 정렬되고, 이번에는 코드워드들의 제 2 미리 규정된 서브세트가 프레임 끝 위치와 정렬된다.
도 9c 는 제 1 서브세트 및 제 2 서브세트가 서로 인접하지 않은, 즉 제 2 서브세트의 코드워드인 코드워드 2가 제 1 미리 규정된 서브세트의 코드워드들인 코드워드 1 및 코드워드 3 사이에 산재되는 다른 대안을 예시한다. 도 9c 는 개별적인 코드워드들에 대한 기록 방향을 다시 한 번 표시하고, 예를 들어 코드워드 번호 5가 양측 모두로부터 기록된다는 것이 분명해지며, 이러한 경우에, 코드워드들의 제 2 서브세트를 기록하기 위한 기록 포인터들은 코드워드 번호 5 내의 일부 위치에서 서로 만날 것이다.
도 9a 내지 도 9c 의 실시형태에서, 코드워드 표현 위의 화살표는 도 8 에 대해서 후속하여 논의되는 두 개의 기록 포인터의 바람직한 구현형태가 적용될 경우의 기록 방향을 표시한다. 특히, 도 9a 내지 도 9c 에서 논의된 바와 같이, 프레임 구축기(5)는 코드워드들의 제 2 서브세트로서, 예를 들어 도 9a 에 예시된 바와 같은 인코딩된 오디오 데이터의 프레임의 일측에 있는 미리 규정된 개수의 인접 코드워드를 사용하거나, 코드워드들의 제 1 서브세트로서, 예를 들어 도 9a 또는 9b에 예시되는 바와 같은 인코딩된 오디오 데이터의 프레임의 타측에 있는 제 1 미리 규정된 개수의 인접 코드워드를 사용하도록 구성되는데, 이러한 경우 제 1 미리 규정된 개수의 코드워드와 제 2 미리 규정된 개수의 코드워드의 합은 코드워드들의 미리 규정된 총 개수와 같다. 또는, 도 9c 에 도시된 바와 같이, 제 1 서브세트의 적어도 하나의 코드워드가 제 2 서브세트의 두 개의 코드워드들 사이에 위치되거나, 그 반대의 경우도 마찬가지이다.
바람직하게는, 프레임 구축기(506)는 정보 단위의 제 1 양을 코드워드들의 제 1 서브세트의 레퍼런스 위치를 사용하여 제 1 미리 규정된 서브세트 내에 기록하도록 구성되고, 제 1 미리 규정된 서브세트가 채워지자마자 정보 단위의 제 2 양가 제 2 미리 규정된 서브세트의 레퍼런스 위치에 기록되며, 프레임 구축기(506)는 경계를 제 1 미리 규정된 서브세트의 마지막 코드워드 내에 기록된 마지막 정보 단위로서 결정하거나, 제 2 미리 규정된 서브세트의 첫 번째 코드워드의 레퍼런스 위치에 기록된 첫 번째 정보 단위로서 결정하도록 구성된다. 바람직하게는, 제 1 양 및 정보 단위의 제 2 양은, 정보 단위의 제 1 양 중의 정보 단위의 전부 또는 적어도 다수가 정보 단위의 제 2 양 중의 정보 단위의 다수 또는 전부보다 음향심리학적으로 더 중요하게 되는 방식으로 선택된다.
대안적으로 또는 추가적으로, 그리고 송신기 측에 대해서 논의된 바와 같이, 정보 단위의 제 2 양 내의 정보 단위만이 오염된 것으로 검출되는 경우에는 오디오 수신기 프로세서 내에서 부분적인 프레임 손실 은닉만이 예상되고, 정보 단위의 제 1 양 내의 정보 단위가 오염된 것으로 결정되는 경우에, 풀 프레임 손실 은닉이 오디오 수신기 프로세서 내에서 예상된다.
도 1 또는 도 2 에서 논의된 바와 같이, 인코딩된 정보 단위는 고정 길이 부가 정보, 가변 길이 부가 정보, 시간적 노이즈 성형 정보, 스펙트럼의 제 1 주파수 부분의 하나 이상의 최상위 비트, 스펙트럼의 제 2 주파수 부분의 하나 이상의 최하위 비트(제 2 주파수 부분은 제 1 주파수 부분보다 높음), 제 1 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트, 제 2 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트 및 잔여 비트로 이루어지는 카테고리의 군으로부터 선택된 적어도 두 개의 카테고리로부터 선택되는데, 오디오 인코더에 의하여 생성된다면, 고정 길이 부가 정보, 가변 길이 부가 정보, 시간적 노이즈 성형 정보, 제 1 주파수 부분의 하나 이상의 최상위 비트 및 제 1 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트는 정보 단위의 제 1 양에 대한 카테고리로서 사용되고, 제 2 주파수 부분의 최상위 비트, 제 2 주파수 부분의 하나 이상의 최하위 비트 또는 부호 정보 단위 또는 잔여 비트는 정보 단위의 제 2 양에 대한 카테고리로서 사용된다.
도 8 에 예시된 바람직한 실시형태에서, 두 개의 기록 포인터들(810, 812)이 사용된다. 제 1 기록 포인터(810)는 제 1 기록 방향으로 동작하고 기록하도록 구성되고, 제 2 기록 포인터(812)는 제 1 기록 방향에 반대인 제 2 기록 방향으로 동작하고 기록하도록 구성된다. 제 1 기록 포인터에 대한 데이터는 제 1 제어된 입력에 의해 획득되고, 예를 들어, 임의의 상상가능한 형태의 오디오 인코더 출력 데이터가 그 안에 존재하거나 예를 들어, LC3(Low Complexity Communication Codec) 오디오 인코더에 대해서 도 1 에서 논의된 표준화된 포맷과 같은 규정된 중간 포맷이 그 안에 존재하는 입력 버퍼(802)로부터 취해진다.
첫 번째 예시적인 경우에, 입력 버퍼 내의 데이터는 인코더로부터 직접적으로 오는 것이다. 이러한 경우에, 데이터는 그들이 인코더로부터 올 때에 취해진다. 이러한 첫 번째 예시적인 경우의 일 예에서, 인코더는 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 LSB 및 Sign을 제 1 제어된 입력(804) 내에 기록하고, 이러한 동일한 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 MSB를 제 2 제어된 입력(806) 내에 기록한다.
두 번째 예시적인 경우에서, 데이터는 이미 기록된 프레임으로부터 분기된다. 그러면, 콘트롤러는 비트스트림 또는 프레임을 독출하고 데이터를 독출/파싱된 순서로 제어된 입력으로 제공하는 비트스트림 또는 프레임 파서를 적용한다. 이러한 두 번째 예시적인 경우의 일 예에서, 파서는 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 LSB 및 Sign을 독출하고 이러한 데이터를 제 1 제어된 입력(804) 내에 제공하며, 파서는 이러한 동일한 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 MSB를 독출하고 이러한 데이터를 제 2 제어된 입력(806) 내에 제공한다.
입력 버퍼(802)에 역시 액세스하고 데이터를 제 2 의 (반대) 방향으로 기록하도록 구성되는 제 2 기록 포인터(812)로 제공하는 제 2 제어된 입력(806)이 존재한다. 콘트롤러(800)는 적어도 제 1 및 제 2 기록 포인터(810, 812)를, 그리고 바람직하게는 추가적으로 입력(804, 806)을 제어하도록 구성된다. 콘트롤러는 입력으로서, 제 2 세트의 코드워드들의 개수 또는, 이에 대응하여, 덜 중요한 정보 단위의 개수, 즉 코드워드들의 제 2 미리 규정된 서브세트의 코드워드의 용량을 수신한다. 바람직하게는, 콘트롤러는 미리 규정된 제 1 및 제 2 서브세트 및 연관된 순서에 대한 정보, 즉 프레임 내의 코드워드 개수/위치 및/또는 각각의 서브세트에 대한 코드워드의 순서에 대한 정보를 저장하고 있다.
콘트롤러(800)는 입력(804, 806)을 제어한다. 추가적으로, 콘트롤러는 제 1 및 제 2 포인터를 정보 단위의 제 1 양에 대한 프레임 내의 시작 위치/어드레스로 설정한다. 포인터(810)는 증분되고, 포인터(812)는 이와 동기되어 감분된다.
콘트롤러(800)는 제 1 서브세트의 모든 코드워드가 출력 버퍼 내로 기록된다는 것을 검출하고, 콘트롤러는 정보 단위의 제 2 양에 대한 제 1 및 제 2 포인터의 시작 위치/어드레스를 설정하며, 후속하여 정보 단위의 제 2 양의 기록을 추가적으로 수행하기 위하여 기록 포인터를 동기화하여 증분/감분시킨다. 바람직하게는, 콘트롤러(800)에 의해 수행되는 프로시저의 순서는 도 8 에 표시된 바와 같지만, 상이한 순서들도 역시 수행될 수 있다. 그러나, 정보 단위의 제 2 양의 시작을 정보 단위의 제 1 양가 언제 기록되는지에 기반하여 결정하는 것은, 오디오 인코더가 오디오 신호에 의존적인 방식으로 동작하고 있는 경우에도 제 1 양 및 정보 단위의 제 2 양을 프레임별로 결정하기 위한 자동적이고 효율이 낮으며 복잡도가 낮은 방법이다.
도 10 도 11 에 논의되는 바와 같은 프레임 구축기에 대한 다수의 애플리케이션이 존재한다. 특히, 도 10 은 직접 기록이 수행되는 경우의 프로시저를 예시한다. 단계 100 에서, 프레임 구축기는 인코딩된 오디오 데이터를 오디오로부터 수신하고, 코드워드들의 제 1 미리 규정된 서브세트를 결정한다. 이것은 양측 모두로부터 기록되고, 이러한 기록은 기록 포인터들이 아이템(101)에 의해 표시되는 것처럼 서로 만날 때에 중단된다. 기록은 모든 정보 단위가 기록될 때까지 코드워드들의 제 2 미리 규정된 서브세트 내로 계속된다. 특히, 102 에서 표시되는 바와 같이, 기록은 적어도 하나의 기록 포인터에 대해서 제 2 미리 규정된 서브세트에 대한 프레임의 시작 또는 끝에서 계속된다.
프레임 구축기는 LC3 비트스트림 포맷과 같이 이미 현존하는 비트스트림을 재정렬하기 위해서도 사용될 수 있다. 이러한 프로시저에서, 인코딩된 오디오 프레임은, 예를 들어 제 1 세트에 대한 모든 코드워드 또는 제 2 세트에 대한 모든 코드워드가 마지막으로 재정렬될 프레임의 좌측 또는 우측에서 서로 인접하게 위치되는 규정된/표준화된 중간 포맷에서 존재한다.
단계 200 에서, 제 1 미리 규정된 서브세트가 결정된다. 단계 202 에서, 중간 포맷이 양측 모두로부터 독출 및 파싱된다. 단계 204 에서, 독출 및 파싱은 제 1 미리 규정된 서브세트 내의 정보 단위의 용량이 독출될 때에 중단된다. 단계 206 에서, 프레임은 좌측 포인터까지의 데이터를, 예를 들어 상세히 후술되도록 도 3 에 예시된 특정한 실시형태 내의 포인터들 사이의 데이터로 교환함으로써 기록된다. 도 11 의 실시형태에서 기록 동작은 단계 206 에서만 수행되는데, 그 이유는 단계들(202 내지 204)은 독출 및 파싱 및 다른 프로시저를 수행하는 것만을 가리키기 때문이다. 기록은 도 10 에서 반드시 전술된 직접 기록에서와 같은 증분되거나 감분된 기록이어야 하는 것은 아니지만, 기록은 특정한 근접한 양의 정보 단위들을 교환함으로써 수행된다.
도 12 는 도 5 에 예시된 에러 방지 코더(508)의 바람직한 구현형태를 예시한다. 제 1 단계(210)에서, 에러 방지 프로세서(508)는 코드워드들의 제 2 서브세트로부터의 임의의 코드워드가 없이, 코드워드들의 제 1 미리 규정된 서브세트로부터만 제 1 해시 값을 계산한다. 단계 212 에서, 제 2 해시 값은 제 2 미리 규정 서브세트로부터만 계산되고, 즉, 제 1 미리 규정된 서브세트로부터의 임의의 코드워드가 없이 계산된다.
단계 214 에서, 제 1 및 제 2 해시 값은 214 에서 표시되는 바와 같이 프레임의 서브세트에 추가된다. 단계 216 에서, 바람직하게는 무선 송신기(510)인 즉, 예를 들어 DECT 규격의 송신기로 전달되는 에러 방지 프레임을 획득하기 위하여, 리드-솔로몬-코딩과 같은 블록 코딩이 이러한 서브세트 및 해시 값에 수행된다.
도 21 은 오디오 인코더(500)와 같은 통상적인 오디오 인코더 또는 소스 인코더를 예시하지만, 오디오 인코더(500)는 가변-길이 방식으로 동작하는, 즉, 품질이 동일하게 유지된다면 프레임별로 변하는 오디오 신호의 시간 부분에 대하여 특정 양의 비트를 생성하는 방식으로 동작하는 임의의 다른 오디오 인코더에 의해서도 구현될 수 있다.
오디오 신호는, 바람직하게는 중첩 방식으로 동작하고, 즉 윈도우의 시간 길이 보다 적은 시간 선행 값을 가지는 분석 윈도우어(windower; 52) 내로 입력된다. 이러한 데이터는 어떤 프레임에 대한 (윈도우식) 시간 부분이고, 바람직하게는 MDCT(modified discrete cosine transform)로서 구현되는 시간-주파수 변환(54) 내로 입력된다.
블록 56에서, 주파수에 걸친 예측으로 이루어지는 선택적인 시간적 노이즈 성형 동작이 수행된다. TNS 스테이지(56)의 출력은 예측 잔차 값이고, 추가적으로, TNS 부가 정보는 바람직하게는 산술적 코더와 같은 가변 길이 엔트로피 코더인 엔트로피 코더(60) 내로 출력된다. MDCT 출력 스펙트럼 값 또는 TNS 스펙트럼 잔차 값은 음향심리학적 방법으로 제어될 수도 그렇지 않을 수도 있는 양자화기(58)에 의해 양자화되고, 양자화된 데이터는 산술적 코더와 같은 가변 길이 엔트로피 코더로 입력된다. 오디오 인코더는, 가변 길이 엔트로피 코더가 이용가능한 비트 예산을 완전히 소모하지 않을 경우, 프레임을 추가적 비트로 채우기 위하여 필요한 잔여 비트를 생성하기 위한 잔차 코더를 더 포함한다. 사용되거나 사용되지 않을 수 있는 다른 피쳐는 노이즈 충진, 광역 이득인가, 또는 스펙트럼 노이즈 성형이다. 블록(60)의 출력에서, MSB, LSB 및 Sign 및 다른 데이터일 수 있는 블록(60)으로부터의 데이터를 수신하면서 비트 스트림 멀티플렉서가 배치된다.
도 22 에 예시되는 디코더측에서, 다시 말하건대, 예를 들어 산술적 디코더인 가변 길이 엔트로피 디코더가 존재한다. 가변 길이 엔트로피 디코더의 결과는 역양자화기(dequantizer; 74) 내로 입력되고, 역양자화기(74)의 출력이 TNS 처리가 이용가능한 경우에는 역 TNS 프로세서에 의해 처리되고, 또는, TNS가 수행되지 않으면, 역양자화기(74)의 출력이, 예를 들어 도 22 에서 78 로 표시된 바와 같은 MDCT 역변환일 수 있는 주파수-시간 역변환으로 전달된다. 블록(78)의 출력은 최종적으로 시간 도메인 디코딩된 오디오 신호를 획득하는 합성 윈도우어 및 중첩/가산 프로세서(80)로 전달된다. 역 TNS 프로세서(74)에 의해 사용되는 TNS 데이터는 통상적으로 비트스트림으로부터 유도되고, 더 바람직하게는 가변 길이 엔트로피 디코더로부터 유도되지만, 데이터를 인코딩 및 처리 및 송신하기 위하여 다른 방식들도 역시 사용될 수 있다.
후속하여, 본 발명의 바람직한 구현형태가 도 1 내지 도 4 에 대해서 논의된다. 이러한 실시형태는 도 9a 에 예시된 코드워드들의 제 1 및 제 2 미리 규정된 서브세트의 순서 및 구조에 의존하지만, 다른 구조에도 역시 동일하게 적용될 수 있다. 후속하는 실시형태는 선명한 세부사항을 비트 레벨에 이르기까지 제공하지만, 물론, 특정 도면은 오직 실시형태들일 뿐이고, 다른 상세한 도면/개수도 역시 사용될 수 있다는 것은 명백하다.
본 섹션에서의 초점은 예시적으로 데이터를 주어진 에러 방지에 정렬시키는 재정렬 시나리오 및, 음향심리학적으로 더 중요한 데이터 및 음향심리학적으로 덜 중요한 데이터의 이용가능성에 의존한 개별적인 프레임 손실 은닉 프로시저에 맞춰져 있다.
바람직한 실시형태는 LC3 비트스트림 페이로드에 기반하여 설명된다. 이러한 비트스트림 페이로드는 대략적으로는 다음 카테고리들로 하위분할될 수 있다(전술된 내용을 참조함):
1. 부가 정보, 고정 부분(적색 실선) 및 가변 부분(적백색의 대각선 띠)
3. TNS, 산술적으로 인코딩된(TNSarith)
3. 스펙트럼의 MSB, 산술적으로 인코딩된(MSB Specarith)
4. 스펙트럼의 LSB 및 Sign(LSB-Sign 스펙)
5. 잔차
스펙트럼이 스펙트럼 투플을 사용하여 인코딩되는 반면에, 각각의 투플은 두 개의 후속 스펙트럼 라인을 나타낸다는 것에 주의한다.
화살표는 기록 및 독출 방향을 표시한다. 기록 / 독출 순서는 다음과 같다:
1. 부가 정보의 고정 부분이 우측으로부터 좌측으로 기록된다.
2. 부가 정보의 가변 부분이 우측으로부터 좌측으로 기록된다.
3. 산술적으로 코딩된 TNS 데이터가 좌측에서 우측으로 기록된다.
4. 스펙트럼의 산술적으로 코딩된 MSB 및 스펙트럼의 LSB 및 Sign이 동기되어 기록되고(최저 주파수를 나타내는 스펙트럼 라인으로부터 시작하여 스펙트럼 라인 별로), 반면에 산술적으로 코딩된 MSB는 좌측에서 우측으로 기록되고, LSB 및 Sign(산술적으로 코딩되지 않음)은 우측으로부터 좌측으로 기록된다.
5. 그러한 두 개의 데이터 부분들 사이에 남아 있는 비트들이 여전히 존재하면, 잔여 비트들이 우측으로부터 좌측으로 기록된다.
카테고리 1 및 카테고리 2 가 언제나 음향심리학적으로 중요한 것으로 취급되는 반면에, 카테고리 3 내지 카테고리 5 는 개략적으로 음향심리학적으로 덜 중요한 것으로 취급된다. 그러나, 관련성은 이러한 영역 내의 그러한 모든 비트들에 대해서 일정하지 않다:
- 잔차를 나타내는 비트들은 가장 중요하지 않다;
- 스펙트럼 투플을 나타내는 비트는 음향심리학적으로 덜 중요하고, 즉, 주파수가 높을수록 커버되는 스펙트럼 라인이 많아지고, 즉 다음이 성립한다.
- 더 높은 주파수를 가지는 스펙트럼 라인을 커버하는 스펙트럼 투플을 나타내는 비트들은 덜 중요하다;
- 더 낮은 주파수를 가지는 스펙트럼 라인을 커버하는 스펙트럼 투플을 나타내는 비트들이 더 중요하다.
도 1 및 도 2 는 비트의 분포를 그들의 음향심리학적 관련성에 기반하여 보여준다. 적색은 높은 관련성을 표시하고; 녹색은 작은 관련성을 표시한다. 두 개의 천이 단계들이 존재하고, 이들 양자 모두는 프레임마다 동적으로 변한다.
비트스트림 내의 최후의 기록된 비트는 음향심리학적으로 가장 중요하지 않은 비트이다. 그들의 위치는 가변적이다. 이것은, 음향심리학적으로 덜 중요한 것으로 취급될 비트들의 주어진 개수가 남아있을 때까지 점검함으로써, 비트스트림을 기록 또는 독출(및 파싱)하는 동안에 직접적으로 결정될 수 있다. 이러한 주어진 개수는 잔차 및, 특정 개수의 스펙트럼 라인(MSB 및 LSB 및 Sign)을 커버한다. 스펙트럼의 커버리지는 가장 높은 주파수를 나타내는 라인과 함께 시작된다. 덜 중요한 비트의 주어진 개수가 많을수록, 상부 주파수는 낮아지고, 이것은 그러한 덜 중요한 비트들이 왜곡된다면 성공적으로 디코딩될 수 있다.
음향심리학적으로 덜 중요한 것으로서 취급될 코드워드의 개수
Figure pct00002
, 및 음향심리학적으로 덜 중요한 것으로 취급되는 비트의 개수가 튜닝 파라미터이다. 이러한 튜닝 파라미터는 에러 방지 코드의 특성으로부터 결정되는 것이 바람직하다. LC3에서의 일 실시형태의 경우, 최적 크기가 에러 방지 코드의 특성에 대한 예로서 보호 강도(에러 방지 모드
Figure pct00003
) 및 슬롯 크기
Figure pct00004
에 기반하여 실험적으로 유도되었고, 이것은 채널 인코딩된 프레임의 크기, 즉 총 프레임 크기를 바이트 단위로 규정한다. 이것이 다음의 공식에서 구현된다:
Figure pct00005
도 3 은 재정렬 및 채널 코덱에 의해 제공된 코드워드로 지정되기 전후의 오디오 프레임의 일 예를 제공한다. 이것은 디코더 측에서의 재정렬된 비트스트림 페이로드의 파싱도 역시 보여준다.
이러한 예에서 총 비트레이트는 10ms 프레이밍에서 76800 bits/s여서, 결과적으로 얻어지는 프레임마다 96 개의 바이트가 얻어진다. 이러한 프레임 길이에 대하여, 채널 코덱은 13 개의 코드워드를 제공한다: 7 바이트의 총 크기를 가지는 3 개의 코드워드 및 7.5 바이트의 총 크기를 가지는 10 개의 코드워드. 에러 방지 모드 4(=3 바이트 보호 오버헤드)를 사용하면, FEC(순방향 에러 정정) 오버헤드는 39 바이트이고, 페이로드에 대해서 57 개의 바이트가 남게 되는데, 이것은 4 바이트의 알짜 크기를 가지는 3 개의 코드워드 및 4.5 바이트의 알짜 크기를 가지는 10 개의 코드워드에 걸쳐서 분할된다.
도 3a 는 57 개의 바이트 패킷으로 분할되는 하나의 프레임의 비트스트림 페이로드를 보여주고, 결과적으로 얻어지는 총 456 개의 비트가 된다 [0:455]. 적색 블록은 정적 부가 정보에 대응하는 반면에, 적색/백색 형태의 영역은 동적 부가 정보에 대응하고, 이것은 코딩된 데이터에 의존하여 프레임마다 달라질 수 있다.
덜 중요한 것으로 처리된 비트는 청색으로 표시되고, 비트 경계 b_left 및 b_right에 의해서 한정된다(주어진 예에서, b_left=184, b_right=315 이다). 이러한 구역들은 잔여 비트와 중첩되고, 최고 주파수로부터 시작하여 "MSB Specarith"로부터 그리고 "LSB+Sign Spec"으로부터의 비트들을 추가적으로 커버한다. "MSB Specarith"로부터의 비트의 개수는 보통 "LSB+Sign Spec"으로부터의 비트의 개수보다 많은데, 그 이유는 스펙트럼 선에 대해서 LSB 및 Sign을 인코딩하는 것보다 많은 비트들이 MSB를 인코딩하기 위하여 소모되기 때문이다.
"MSB Specarith"로부터 b_left(좌측에서 우측으로 기록되고 녹색으로 표시됨)까지 및 "LSB+Sign Spec"으로부터 b_right(우측으로부터 좌측으로 기록되고 백색으로 표시됨)까지가 제로 헤르쯔로부터 이러한 포인트에 이르기까지 인코딩된 최고 주파수까지를 공동으로 나타낸다. 하나 이상의 스펙트럼 투플이 음향심리학적으로 덜 중요한 것으로 고려되어야 한다면, 적어도 하나의 경계가 바깥 쪽으로 이동할 것이다; 하나 이상의 스펙트럼 투플이 음향심리학적으로 더 중요한 것으로 고려되어야 한다면, 적어도 하나의 경계는 안쪽으로 이동할 것이다.
도 3b 는 재정렬 이후의 프레임을 보여준다: 청색 부분 [184:315] 녹색 부분 [0:183]으로 교환된다. 청색 부분이 녹색 부분보다 작거나, 같은 크기이거나, 더 클 수 있다는 것에 주의한다.
도 3c 는 채널 코덱으로의 입력으로서의 13 개의 코드워드의 페이로드를 디스플레이한다.
도 3d 는 수신된 비트스트림 페이로드를 보여준다. 이것은 두 개의 왜곡된 코드워드를 예시적으로 보여준다.
도 3e 는 디코딩 프로세스를 보여준다. 이것은 두 개의 비트 경계인 be_bp_left 및 be_bp_right 사이에서 캡슐화된 왜곡된 비트들을 예시적으로 보여준다. 이러한 범위 내의 비트들에 의해서 표현된 스펙트럼 투플의 주파수 빈(frequency bin)은 부분적 프레임 손실 은닉에 의해서 합성되어야 한다.
명백하게도, 비트스트림 페이로드 내의 비트들을 두 개의 예상된 클래스로 지정하는 것은 채널 코더에 의해 제공되는 코드워드로 직접적으로 매핑하지 않는다.
주어진 예에서, 도 3a 에서 b_left 및 b_right 사이[184:315]의 부분이 제 2 클래스에 지정되는 반면에, 비트 [0:183] 및 [316:455]는 제 1 클래스로 지정된다. 여기에서, 도 3a 에서 제 2 클래스 [184:315] 로 지정된 비트들은 제 2 클래스에 대한 코드워드의 개수를 증가시키지 않고서 도 3c 에 있는 코드워드 구조로 맞춤되지 않는다. 제 2 클래스는 코드워드 6 [184:203] 내에는 부분적으로 존재하고, 코드워드 7 내지 코드워드 9 [204:311] 내에는 완전히 존재하며, 코드워드(10) [312:315] 내에서는 부분적으로 존재한다. 그러므로, 재정렬은 도 3b 에 도시된 바와 같이 요구된다: 이제 제 2 클래스 [0:131]은 처음 네 개의 코드워드인 1 내지 4로 완전하게 맞춤된다.
주어진 예에서, 4 개의 코드워드는 제 2 클래스에 속하고, 9 개의 코드워드는 제 1 클래스에 속한다. 이들 중 하나의 클래스 내에 저장될 비트들의 개수는 이러한 클래스의 코드워드에 의해 제공되는 페이로드 비트들의 양에 의해서 한정된다. 주어진 예에서, 코드워드 1 내지 3 은 각각 4 바이트의 페이로드를 제공하는 반면에, 코드워드 4 내지 13 은 4.5 바이트의 페이로드를 각각 제공한다. 그러면 다음의 결과가 된다
- 음향심리학적으로 덜 중요한 비트에 대하여 3*4 바이트+1*4.5 바이트=16.5 바이트 및
- 음향심리학적으로 더 중요한 비트에 대하여 9*4.5 바이트=40.5 바이트.
음향심리학적으로 덜 중요한 비트의 개수(
Figure pct00006
)가 미리 결정되는 반면에, 경계(b_left 및 b_right)의 위치는 프레임 단위로 변한다. 재정렬 이후에, 그러한 비트들은 언제나 동일한 스폿에 위치되고, 이것이 효율적 채널 코딩을 가능하게 한다.
인코더 측에서, 비트스트림
Figure pct00007
가 다음과 같이 재정렬된다:
Figure pct00008
여기에서,
Figure pct00009
는 비트 단위인 프레임의 알짜 크기이고,
Figure pct00010
는 덜 중요한 비트의 개수이다.
디코더 측에서, 두 개의 포인터 판독치 "1. MSB Specarith" 및 "1. LSB+Sign Spec"이 서로 만나는 경계인(도 3e 를 참조한다) 경계 b_right는 비트스트림을 디코딩하는 동안에 결정된다. 음향심리학적으로 덜 중요한 비트의 개수는 순방향 에러 방지 구성(에러 방지 모드 및 코드워드의 개수
Figure pct00011
)으로부터 알려진다. 디코더 측에서의 프레임의 재정렬
Figure pct00012
는 다음과 같이 수행된다:
Figure pct00013
Figure pct00014
프레임에 비트-에러가 적용되지 않으면,
Figure pct00015
Figure pct00016
와 동일하다.
앞서 표시된 바와 같이, 재정렬은 후-처리 단계로서, 또는 기록 / 독출 프로세스 도중에 직접적으로 이루어질 수 있다.
다음 파라미터들은 정적이다:
1. 슬롯 크기
Figure pct00017
는 채널 인코딩된 프레임의 크기를 옥테트(바이트) 단위로 규정한다. 주어진 예에서
Figure pct00018
이다.
2.
Figure pct00019
는 데이터 프레임을 인코딩하기 위하여 사용되는 코드워드의 개수를 규정한다.
Figure pct00020
주어진 예에서
Figure pct00021
이다.
3.
Figure pct00022
에 대하여 규정된 파라미터
Figure pct00023
는, 반-옥테트(즉 니블) 단위로 i 번째 코드워드의 길이를 규정하고, 다음에 의해 주어진다:
Figure pct00024
주어진 예에서
Figure pct00025
이다. 나열이 도 3c 에서는 다르게 이루어진다는 것에 주의한다.
4. 에러 방지 모드
Figure pct00026
에서의 RS-코드의 해밍 거리
Figure pct00027
를 규정하는 파라미터
Figure pct00028
은 다음에 의해 주어진다:
Figure pct00029
여기에서
Figure pct00030
이다. 주어진 예에서
Figure pct00031
이다.
5. 음향심리학적으로 덜 중요한 비트에 대해서 지정된 코드워드의 개수는 프레임 길이 및 에러 방지 모드에 기반하여 유도된다(전술된 내용을 참조). 주어진 예에서
Figure pct00032
이다.
6. 반-옥테트 단위인 부분적인 은닉 블록의 크기는 다음과 같이 유도될 수 있다
Figure pct00033
주어진 예에서
Figure pct00034
이다.
7. 덜 중요한 비트의 크기(block_size)는 다음과 같이 유도될 수 있다:
Figure pct00035
주어진 예에서
Figure pct00036
이다.
8. 따라서, TNS 데이터를 기록하기 위한 시작 포인트가 알려져 있다(좌측으로부터 16.5 바이트).
다음의 동작들이 각각의 프레임에 대해서 인코더 측에서 이루어질 필요가 있다:
1. 비트스트림 페이로드의 우측 끝으로부터 시작하여, 부가 정보의 고정된 부분을 우측으로부터 좌측으로 기록한다.
2. 부가 정보의 고정된 부분에서 시작하여, 부가 정보의 가변 부분을 우측으로부터 좌측으로 기록한다.
3. 비트스트림 페이로드의 좌측 끝로부터의 block_size에서 시작하여, TNS 데이터를 좌측에서 우측으로 기록한다.
4. MSB인 스펙트럼 데이터의 "1. Specarith"를, TNS 데이터의 우측 끝에서 시작하여 좌측에서 우측으로, b_left+block_size-1=b_right가 될 때까지 기록한다; 그리고 LSB 및 Sign인 스펙트럼 데이터의 "1. LSB+Sign Spec" 을, 부가 정보의 좌측 끝으로부터 시작하여 우측으로부터 좌측으로 b_left+block_size에 이르기까지 기록한다. b_left 및 b_right가 사전에 알려져 있지 않다는 것에 주의한다.
5. "1. MSB Specarith" 및 "1. LSB+Sign Spec"을 독출하는 두 개의 포인터가 서로 만나는 경우에는 경계 b_left+block_size-1=b_right가 결정된다(도 3e 의 화살표를 참조함).
6. 스펙트럼 데이터의 MSB "2. MSB Specarith"를, 비트스트림 페이로드의 좌측 경계로부터 시작하여 좌측에서 우측으로 계속하여 기록한다; 그리고 스펙트럼 데이터의 LSB 및 Sign "2. LSB+Sign Spec"을 block_size - 1에서 시작하여 우측으로부터 좌측으로 계속 기록한다.
7. LSB의 좌측 끝으로부터 시작하여 잔차를, 그리고 스펙트럼 데이터의 Sign을 우측으로부터 좌측으로 기록한다.
디코더 측에서의 독출은 인코더 측에서의 설명된 기록과 유사하게 이루어질 수 있다.
도 3 은 재정렬된 비트스트림 페이로드를 기록 또는 독출하는 이러한 프로세스를 예시한다. 도 3a 는 '정상' 비트스트림 페이로드를 보여주는 반면에, 도 3b 는 재정렬된 비트스트림 페이로드를 보여준다. 앞서 개략화된 것과 같이, 이러한 재정렬된 비트스트림 페이로드는 즉시 기록되거나 독출될 수 있다. 또는, 재정렬은 인코더 측에서 후-처리로서 또는 디코더 측에서 전-처리로서 수행될 수도 있다. 그러나, 비트스트림은 이러한 재정렬 프로세스에 대하여 다음과 같이 파싱될 필요가 있다:
- 원래의 순서 -> 재정렬된 순서: b_left 및 b_right는 기록될 잔여 비트를 카운트함으로써 발견될 필요가 있다 - 이러한 개수가 block_size와 같다면 경계에 도달된다.
- 재정렬된 순서 -> 원래의 순서: b_right가 독출 "1. MSB Specarith" 및 "1. LSB+Sign Spec"을 독출하는 포인터를 관찰함으로써 발견될 필요가 있다 - 양자 모두의 포인터들이 서로 만나는 경우에 경계에 도달한 것이다.
음향심리학적으로 덜 중요한 비트를 나타내는 비트의 범위가 채널 코덱에 의하여 미리 결정되는 반면에, b_left 및 b_right는 임의의 비트 위치에 있을 수 있다.
하나의 바람직한 실시형태에서, 산술적 인코더/디코더는 바이트 그래뉼래러티(byte granularity)에서 동작한다. 이러한 예에서, b_left는 이미 바이트 경계에 들어간다. 이것이 도 3a 에 반영되는데, 여기에서 b_left=184이다.
그러나, 내재된 채널 코더(도 3c)가 니블(4 비트) 그래뉼래러티에서 동작하기 때문에, block_size는 바이트들의 배수가 아닐 수도 있고, 따라서 b_right might도 바이트 경계에 속하지 않을 수 있다. 이러한 경우에, 전술된 바와 같은 재정렬 이후에 불일치가 생길 것이다. 주어진 예에서, 이러한 불일치는 바이트 17 [128:135](도 3e)에서 발견되는데, 여기에서 산술적 디코더는 바이트 경계가 아닌 비트 위치 132 에서 시작하여야 할 것이다.
이것을 다루기 위하여, block_size가 이제 다음과 같이 유도된다:
Figure pct00037
도 4 는 도 3 에 제공된 것과 같은 동일한 파라미터를 고려하면서, 이러한 실시형태의 일 예를 보여준다. 여기에서,
Figure pct00038
개의 비트, 즉 b_right는 이제 바이트 경계 위에 있어서, 비트 위치 136에 있는 산술적 디코더의 시작 포인트가 유도되고, 결과적으로 정수 바이트 위치(17)에서 나타난다(도 4e 에서, 산술적 디코더는 TNSarith를 디코딩하는 것으로 시작된다). 바이트 17의 우측 니블 [132:135](청색-백색 줄무니로 표시됨)은 음향심리학적으로 더 중요한 데이터를 커버하도록 의도되는 코드워드에 지정되지만, 지금은 음향심리학적으로 덜 중요한 것으로서 취급되는 비트들을 포함한다. 이것은 다음의 효과를 가진다:
- 코드워드 5 내에 정정될 수 없는 비트 에러가 존재했다면, 에러들이 바이트 17 의 우측 니블, 즉 비트 [132:135]에만 영향을 주는 경우에도 전체 프레임이 풀 프레임 손실 은닉으로써 합성될 것이다.
- 코드워드 5 내지 13 이 양호하고 코드워드 4 내에 바이트 17의 좌측 니블, 즉 비트 [128:132] 에 바로 위치될 수 있는 정정될 수 없는 비트 에러가 존재한다면, 바이트 17 의 우측 니블은 양호한 코드워드 5 내에서 코딩되는 것처럼 여전히 디코딩될 수 있다.
다음에 주의한다
- 도 3 에서 제공된 예에서와 같이 바이트 경계 상에 이미 있지 않다면, b_left는 그 다음 좌측의 바이트 경계를 향해 다소 천이될 것이다.
- 음향심리학적으로 덜 중요한 데이터에 속하는 스펙트럼 투플의 개수는 다소 증가할 수 있는 반면에, 음향심리학적으로 더 중요한 데이터에 속하는 스펙트럼 투플의 개수는 대응하도록 다소 감소할 수 있다. 그러므로, 일부 장애 상황에서, 디코딩될 수 있는 주파수 투플의 개수가 에서보다 적은 경우가 발생할 수 있다. 그러나, 품질에 대해서는 이것이 제한적인 영향을 가질 것이지만, 산술적 인코더/디코더가 더 효율적으로 구현될 수 있게 한다.
비록 위의 예가 그래뉼래러티가 서로 정수 관련성을 가지는 경우를 다루지만, 그래뉼래러티의 비-정수 관계의 경우 또는 에러 방지 그래뉼래러티보다 낮은 산술적 인코더 그래뉼래러티의 경우에도 유사한 처리가 사용된다.
비트스트림 재정렬(음향심리학적으로 덜 중요한 비트를 음향심리학적으로 더 중요한 비트로부터 분리하는 것)을 위한 바람직한 접근법의 특징은, 두 개의 비트스트림 기록기가 비트스트림 내에 동시에 기록하거나, 두 개의 비트스트림 리더기가 비트스트림으로부터 동시에 독출하기(이러한 경우에서는 다른 방향으로) 때문에 가장 중요한 비트로부터 시작하여 중요도가 낮은 비트로, 비트들이 오디오 인코더/디코더에 의해서 시간순으로(공간적이 아님) 기록되거나 독출된다는 것, 그리고 가변 길이 코딩에 기인하여, 특정 양의 데이터가 기록되거나 독출되면 그러한 두 개의 기록 또는 독출 포인터들이 어디에 위치되는지의 선험적인 정보가 주어진다는 것이다. 이러한 위치는, 이러한 양의 데이터가 기록되면, 또는 이러한 양의 데이터가 파싱되면(즉 독출 및 평가되면) 바로 알려지는데, 그 이유는 특정 양의 데이터가 기록되거나 독출되기 때문이거나, 두 개의 포인터들이 기록 또는 독출 중에 서로 만났기 때문이다.
비록 후처리 또는 전처리로서의 재정렬이 인코딩 단계 이후에 또는 디코딩 단계 이전에 가능하지만, 재정렬된 비트스트림의 직접적인 기록 또는 독출이 바람직하고, 그 이유는 재정렬이 추가적인 파싱 단계를 요구하기 때문이다.
후속하여, 디코더 측 또는 수신기 측에 관련된 본 발명의 바람직한 실시형태가 도 13 내지 도 20 에서 논의된다.
도 13 은 수신된 에러 방지 프레임을 처리하기 위한 오디오 수신기 프로세서를 예시한다. 오디오 수신기 프로세서는 에러 방지 프레임을 수신하기 위한 그리고 에러 방지 프레임을 에러 방지 프로세서(302)로 출력하기 위한 수신기 인터페이스(300)를 포함한다. 에러 방지 프로세서(302)는 에러 방지 프레임을 처리하여 인코딩된 오디오 프레임을 획득하도록 구성된다. 특히, 에러 방지 프로세서는 제 1 또는 제 2 미리 규정된 서브세트에 대한, 그리고 바람직하게는, 제 1 미리 규정된 서브세트로부터의, 그리고 심지어 제 1 미리 규정된 서브세트에 속하는 코드워드에 대한 정보만을 수신한다. 이러한 정보는 에러 방지 프로세서(302)로부터 유도된 인코딩된 오디오 프레임의 코드워드의 미리 규정된 서브세트가 에러를 포함하는지 여부를 에러 방지 프로세서(302)가 점검할 수 있게 하기에 충분한다.
에러 방지 프로세서(302)는 에러 방지 프레임을 처리하고, 코드워드와 함께 프레임을 출력하며, 통상적으로 고정 길이 프레임인 코드워드가 있는 프레임이 코드워드들의 제 1 미리 규정된 서브세트 내에 에러를 가지는지 여부에 대한 정보를 추가적으로 생성한다.
이러한 콘텍스트에서, 도 5 의 오디오 송신기 프로세서의 에러 방지 코더(508)로 입력되는 코드워드 또는 오디오 수신기 프로세서의 에러 방지 프로세서(302)에 의해서 출력되는 코드워드가 페이로드 코드워드들인 것으로 여겨질 수도 있다는 것, 그리고 오디오 수신기 프로세서의 에러 방지 프로세서(302)에 의해 출력되는 코드워드 또는 도 5 의 오디오 송신기 프로세서의 에러 방지 코더(508)로 입력되는 코드워드가 단지 코드워드라고 명명된다는 것이 언급되어야 한다.
오디오 수신기 프로세서는 코드워드들의 제 1 미리 규정된 서브세트 내에 에러가 검출될 경우에 프레임 손실 은닉 동작을 수행하도록 구성되거나, 예를 들어 원격 위치에서 수행될 이러한 에러 은닉 동작에 대한 표시를 생성하도록 구성되는 에러 은닉기 또는 에러 은닉 표시자(304)를 포함한다.
오디오 수신기 프로세서는 프레임 리더기(306) 및 후속하여 연결된 오디오 디코더(308)를 포함한다. 프레임 리더기(306)는 에러 방지 프로세서(302) 또는 에러 은닉기 또는 에러 은닉 표시자(304)에 의해 제어될 수 있다. 특히, 에러 방지 프로세서(302)가 통상적으로 풀 프레임 손실 은닉을 초래하는 코드워드들의 제 1 미리 규정된 서브세트 내에 에러를 결정하는 경우, 프레임 리더기(306) 및 오디오 디코더(308)는 이러한 블록들이 이러한 프레임에 대해서 더 이상 동작할 필요가 없는 방식으로 제어될 수 있다.
에러 방지 프로세서(302)가 코드워드들의 제 2 미리 규정된 서브세트 내에서 에러를 결정하지만 코드워드들의 제 1 미리 규정된 서브세트 내에서는 결정하지 않는 경우에, 프레임 리더기(306)는 코드워드들의 제 1 미리 규정된 서브세트 내에서 독출하도록 제어되지만, 에러가 검출되었기 때문에 코드워드들의 제 2 미리 규정된 서브세트의 독출이 스킵될 수 있거나, 코드워드들의 제 2 미리 규정된 서브세트의 모드 코드워드가 에러를 가지는 것이 아니라면 에러가 검출된 바 있는 특정 코드워드의 독출은 적어도 스킵될 수 있다.
에러 방지 프로세서(302)가 코드워드들의 양자 모두 서브세트에 에러가 없다고, 즉, 에러 방지 프로세서 프로시저에 의해 정정되지 않은 임의의 에러를 포함하지 않는다고 결정하는 경우, 프레임 리더기(306)는 제 1 및 제 2 미리 규정된 서브세트 내의 인코딩된 오디오 데이터를 제 1 및 제 2 미리 규정된 서브세트에 대한 미리 규정된 정보를 사용하여 독출하도록 구성되고, 프레임 리더기(306)는 독출된 오디오 데이터를 오디오 디코더(308)에 의해 처리되도록 임의의 형태 또는 특정 중간 포맷으로 출력할 수 있다.
에러 은닉기 또는 에러 은닉 표시자(304)가 부분적 프레임 손실 은닉을 수행하도록 에러 방지 프로세서(302)에 의해 제어된 경우, 에러 은닉기는 오디오 데이터를 합성하고 합성 오디오 데이터를 오디오 디코더(308)로 전달함으로써, 제 2 코드워드들의 제 2 세트 내의 송신되었지만 에러에 의해 영향을 받은 오디오 데이터 대신에 더 높은 스펙트럼 값 또는 잔여 데이터와 같은 이러한 은닉 데이터를 오디오 디코더가 사용할 수 있게 한다. 구현형태에 의존하여, 도 13 의 에러 은닉기 또는 에러 은닉 표시자(304) 또는 프레임 손실 은닉기는 하나 이상의 더 빠른 프레임으로부터의 데이터를 사용하고, 은닉기(304)는 양자 모두의 기능이 서로 통합되도록 오디오 디코더 내에 통합될 수 있다. 에러 은닉 표시자의 경우, 은닉은 에러 방지 프로세서로부터 떨어져 있는 위치에서 이루어지고, 오디오 디코더는 은닉을 수행하라는 표시를 디바이스(304)로부터 수신한다.
바람직하게는, 에러 방지 프레임은 두 개의 에러 방지 스테이지를 가진다. 에러 방지의 첫 번째 스테이지는 송신기 측에 있는 리드-솔로몬 인코더와 같은 블록 코더에 의해 도입된 리던던시이다. 추가적이고 두 번째 보호 라인은, 일면에서는 코드워드들의 제 1 미리 규정된 서브세트에 걸친 하나 이상의 해시 코드의 계산이고, 다른 면에서는 코드워드들의 제 2 미리 규정된 서브세트에서의 계산이다.
비록 에러 방지 프로세서 및, 특히, 에러 방지 프로세서에 의해 적용되는 리드-솔로몬 코드와 같은 블록 코드가 다수의 에러를 검출하고 정정할 수 있지만, 일부 에러가 임의의 검출이 일어나지 않고 임의의 정정도 일어나지 않고 리드-솔로몬 디코딩을 빠져나가거나, 에러 정정이 에러를 잘못된 방향으로 "정정한(corrected)" 경우가 발생할 수 있다. 이러한 에러를 역시 찾으려면, 리드-솔로몬 디코딩 동작에 의해 출력된 송신된 해시 출력을 사용하여 해시 검증이 수행되고, 송신된 해시 값을 코드워드들의 디코딩된 제 1(또는 제 2) 미리 규정된 서브세트로부터 유도된 해시 값과 비교하는 것이 수행된다.
바람직한 구현형태가 도 14 에 도시된다. 단계 400 에서, 에러 검출/정정 기능이 있는 리드-솔로몬 디코딩이 수행된다. 이러한 프로시저의 결과, 코드워드 및 바람직하게는 해시 값으로서 구현되는 송신된 제 1 및 제 2 결과 값이 있는 디코딩된 프레임이 얻어진다. 단계 402 에서 제 1 해시 값은 제 1 미리 규정된 서브세트로부터 계산되고, 단계 404 에서는 계산된 제 1 해시 값이 송신된 제 1 해시 값과 비교된다. 양자 모두의 해시 값들이 같은 경우에, 프로시저는 단계 406 으로 진행한다. 그러나, 양자 모두의 해시 값들이 같지 않은 경우, 단계 408 에서 표시되는 바와 같이 에러가 검출되었고, 처리는 중단되며, 풀 프레임 손실 은닉이 시작된다.
그러나, 제 1 해시 값 및 송신된 제 1 해시 값이 서로 같다는 것이 결정된 경우, 제 2 해시 값이 계산되고 송신된 제 2 해시 값과 비교되는 단계 406 이 수행된다. 양자 모두의 해시 값이 같지 않은 경우에, 단계 410 에 표시된 프로시저가 적용되고, 즉 부분적 프레임 손실 은닉이 수행된다. 그러나, 코드워드들의 제 2 미리 규정된 서브세트에 대한 양자 모두의 해시 값이 같다는 것이 결정되면, 프레임 리더기 및 오디오 디코더는 에러-프리 디코딩 동작을 수행하도록 제어된다. 도 14 에 예시된 프로시저는 에러 은닉기 또는 에러 은닉 표시자(304)에 의하여 및/또는 에러 방지 프로세서(302)에 의하여 구현되는 것이 바람직하다.
도 15 는 도 14 의 블록 410에서 예시된 부분적 프레임 손실 은닉의 바람직한 구현형태를 예시한다. 단계 420 에서, 코드워드들의 제 2 미리 규정된 서브세트의 모든 코드워드 중 오직 하나 이상의 코드워드만이 에러를 가지는지 여부가 결정된다. 이러한 목적을 위해서, 예를 들어 리드-솔로몬 디코더 또는 코드워드별 CRC 점검과 같은 블록 디코더로부터 정보가 수신된다. 통상적으로, 리드-솔로몬 디코더는 코드워드들의 제 2 미리 규정된 서브세트의 코드워드가 에러가 있는지 또는 어떤 것이 에러가 있는지를 표시할 것이다. 예를 들어, 오직 하나 또는 두 개의 코드워드만이 에러가 있고 미리 규정된 코드워드들의 제 2 세트의 다른 코드워드는 정확하다는 것이 블록 420 에 의해서 표시된다. 이러한 다른 비-오염된 코드워드의 데이터는 정상 디코딩 또는 부분적인 은닉을 위하여 가능한 많이 사용된다. 단계 422 에서, 제 2 서브세트의 하나 이상의 에러가 없는 블록 또는 코드워드가 독출된다.
단계 424 에서, 스펙트럼 범위 또는 잔여 데이터와 같은 어떤 의미가 하나 이상의 에러가 있는 코드워드에 의해서 반영되는지가 결정된다. 이러한 목적을 위해서, 코드워드들의 제 2 미리 규정된 서브세트의 코드워드 순서 및 레퍼런스 위치에 대한 정보가 유용하다. 단계 424 는 에러가 있는 코드워드의 의미를 결정하여, 단계 426 이 블록(424)에 의해서 결정된 스펙트럼 범위와 같은 에러가 있는 블록에 대한 은닉 데이터를 합성할 수 있게 한다. 또는, 에러 은닉의 종류는, 오염된 것으로 표시된 잔여 데이터가 단순히 스킵됨으로써, 에러가 없는 코드워드의 경우에 획득되었을 잔차 디코딩 및 대응하는 품질 개선이 잔여 데이터만이 오염된 문제가 크지 않은 상황(non-problematic situation)에서 에러 은닉 프로시저의 한 종류로서 단순하게 수행되지 않도록 하는 것일 수도 있다.
그러나, 특정 스펙트럼 범위가 오염된다고 결정하는 경우, 이러한 스펙트럼 범위에 대한 은닉 데이터가 블록(426)에 의해 생성된다.
블록 428에서, 부분적 프레임 손실 은닉 프로시저의 결과로서 얻어지는 오디오 신호의 시간 부분(프레임)에 대한 디코딩된 오디오 신호를 결국에 획득하기 위해서, 제 1 미리 규정된 서브세트로부터의 독출된 데이터 및 제 2 미리 규정된 서브세트의 코드워드로부터의 정확한 데이터 및 은닉 데이터가 결합되고 디코딩된다.
도 16 은 블록(424)에 의해 수행되는 프로시저의 일반적인 표현을 예시한다. 에러가 있는 데이터를 가지는 비트스트림을 파싱함으로써, 은닉 스펙트럼 범위를 획득하기 위하여 이러한 데이터가 어떤 스펙트럼 값에 대해서 나타내는지의 데이터의 의미가 결정된다. 그러나, 이러한 데이터의 실제 값은 에러가 있는 것으로 결정되었기 때문에 사용되지 않는다. 단계(424 및 426)에 후속하는 프로시저의 결과는, 은닉 경계에 이르기까지는 에러가 없는 스펙트럼 범위 데이터가 획득되고, 합성/은닉 데이터에 의해 대체되는 에러가 있는 스펙트럼 데이터가 은닉 경계 및 최대 주파수 사이의 스펙트럼 범위에 대해서 존재한다는 것일 것이다. 그러나, 다른 실시형태들에서, 은닉 스펙트럼 범위가 최대 경계까지 완전히 연장되지 않고, 은닉 경계 및 오디오 디코더에 의해 요구되는 최대 주파수보다 낮은 다른 경계 사이의 특정 스펙트럼 범위만을 커버하는 경우가 있을 수 있다. 오디오 디코더는 은닉 경계 및 최대 주파수 사이에서 정확하게 수신된 데이터를 여전히 수신한다.
일 실시형태에서, 에러 은닉기 또는 에러 은닉 표시자(304)는 대체 데이터를 생성하도록 구성되고, 이러한 데이터는 이제 디코딩되거나, 일반적으로는 에러가 없는 데이터와 함께 디코더에 의해 사용된다. 다른 실시형태에서, 에러 은닉기 또는 에러 은닉 표시자(304)는 에러 은닉 표시만을 생성하고, 이러한 표시가 블록들(304 및 308) 사이의 연결선에 의해 표시되는 것처럼 도 13 의 디코더(308)와 같은 오디오 디코더에 의하여 평가되는데, 여기에서 연결선은 에러 은닉 표시를 운반한다. 그러면, 오디오 디코더는, 더 이른 프레임 또는 휴리스틱(heuristic) 프로시저 또는 다른 관련된 프로시저로부터의 데이터를 사용하는 것과 같은 특정한 오디오 디코딩 동작이 없이(일반적으로는, 에러 은닉 표시는 "디코딩"되거나 해석되지만) 필요한 에러 은닉 조치를 취한다.
도 17 은 논의된 도 1, 도 2, 도 3 또는 도 4 에 대해서 논의된 바와 같은 또는 도 21 의 오디오 인코더에 의해 획득되는 바와 같은 데이터가 사용되는 상황을 예시한다. 단계 430 에서, 정확한 최상위 비트에 대응하는 최고 주파수가 은닉 경계로서 결정된다. 또는, MSB 및 LSB/부호 비트 중 최고 주파수의 최대값도 은닉 경계로서 결정될 수 있다(434).
단계 432 에서, 더 높은 주파수 값은 완전히 또는 확률적으로 획득된 LSB 또는 부호 비트를 사용하여 합성된다: 비록 더 높은 주파수의 MSB 비트가 오염되지만, 그럼에도 불구하고 LSB 또는 부호 비트는 오염된 MSB 비트에 대응하는 이러한 스펙트럼 값들에 대해서 여전히 이용가능하다. 단계 436 에서, 에러가 있는 데이터가 은닉 경계보다 낮은 주파수 값의 LSB 또는 부호 비트를 커버하는 경우에는, 에러가 있는 데이터도 합성된다. 합성 프로시저의 출력은 개략적으로 도 16 에 예시된 은닉 스펙트럼 범위에 대한 스펙트럼 값의 형태인 합성/은닉 데이터이다.
도 18 은 도 13 의 프레임 리더기(306)의 바람직한 구현형태를 예시한다. 프레임 리더기는 입력 버퍼(442), 및 출력 버퍼(452) 또는 오디오 디코더로의 직접 출력부를 포함하는 것이 바람직하다. 프레임 리더기(306)는 콘트롤러(440), 제 1 독출 방향으로 동작하는 제 1 제어된 입력 포인터(444) 및 제 2 독출 방향으로 동작하는 제 2 제어된 입력 포인터(446)를 포함한다. 제 1 제어된 입력 포인터(444)는 제 1 기록 포인터(448)를 공급할 수 있고, 제 2 제어된 입력 포인터(446)는 제 2 기록 포인터(450)를 공급할 수 있다.
도 8 의 800 에서 예시되는 인코더-측에서의 대응하는 콘트롤러로서, 수신기 측에서의 포인터 구현형태의 콘트롤러(440)도 제 2 미리 규정된 서브세트 내의 코드워드의 개수에 대한 정보 또는 음향심리학적으로 덜 중요한 정보 단위의 총 개수 또는 용량에 대한 정보를 수신한다.
또한, 코드워드들의 제 2 미리 규정된 서브세트로부터의 데이터가 도 17 에 대해서 전술된 바와 같이 가능한 한 많이 사용되는 경우에는, 콘트롤러(440)가 제 2 서브세트의 에러가 있는 코드워드의 표시를 에러 방지 프로세서로부터 수신할 수 있다. 만일 그렇지 않다면, 그리고 만일 코드워드들의 제 2 미리 규정된 서브세트의 적어도 하나의 코드워드가 에러가 있고, 따라서 코드워드들의 제 2 미리 규정된 서브세트에 의해 커버되는 모든 스펙트럼 데이터가 합성 또는 은닉 데이터로서 에러 은닉 동작에 의해 사용된다면, 콘트롤러(440)에 대한 에러 방지 프로세서로부터의 임의의 제어가 요구되지 않는다.
그럼에도 불구하고, 콘트롤러(440)의 프로시저는 도 8 의 콘트롤러(800)와 유사하지만, 기록 및 독출의 개념(notion)이 교환된다. 특히, 도 18 의 콘트롤러(440)는, 예를 들어 데이터 교환을 위하여 또는 증분하여 기록함으로써 기록 포인트를 제어한다. 도 19 의 콘텍스트에서 논의되는 바와 같은 구조의 경우에 데이터 교환이 수행되는 반면에, 증분(incrementation)/감분(decrementation) 프로시저는 도 20 에 예시된 직접적 디코딩을 위해서 수행된다.
콘트롤러(440)는 제 1 및 제 2 포인터의 시작 위치/어드레스 정보 단위의 제 1 양에 대한 프레임 내에 설정하고, 그 후에 입력 (독출) 포인터를 동기되어 증분/감분시킨다. 콘트롤러(440)는, 제 1 서브세트의 모든 코드워드들이 입력 버퍼로부터 독출되는 것을 검출하고, 후속하여 제 1 및 제 2 포인터의 시작 위치/어드레스를 정보 단위의 제 2 양에 대하여 설정하며, 모든 잔여 데이터가 독출될 때까지 독출 포인터를 동기하여 증분/감분시킨다.
첫 번째 예시적인 경우에, 출력 버퍼(452) 내에 기록되는 데이터는 디코더로부터 요청되는데, 그 이유는 디코더, 그리고 특히 엔트로피 디코더 및/또는 잔차 디코더만이 얼마나 많은 정보 단위 또는 비트가 어떤 포인터로부터 요구되는지를 알고 있기 때문이다. 일 예에서, 디코더는 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 LSB 및 Sign을 제 1 기록 포인터(448)로부터 수신하고, 이러한 동일한 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 MSB를 엔트로피 디코더에 의해 요구되는 바와 같이 제 2 기록 포인터(450)로부터 수신한다.
두 번째 예시적인 경우에, 데이터는 특정 프레임 내로 기록된다. 그러면, 콘트롤러는 입력 버퍼(442)로부터 포인터(444, 446)를 통하여 특정 프레임 신택스에 기반하여 비트를 독출하기 위하여 신택스 제어형 비트스트림 또는 프레임 리더기를 적용하고, 그러면 이러한 데이터는 블록(448 및 450)을 통하여 출력 버퍼(452) 내에 또는 송신 디바이스 내에 기록된다. 일 예에서, 신택스 제어형 비트스트림 또는 프레임 리더기는, 예를 들어 포인터(446)를 통하여 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 LSB 및 Sign을 독출하고, 독출된 데이터는 블록(450)을 통하여 버퍼(452) 내에 기록되며, 신택스 제어형 비트스트림 또는 프레임 리더기는, 예를 들어 포인터(448)를 통하여 이러한 동일한 스펙트럼 라인 또는 스펙트럼 라인 투플에 대한 MSB를 독출하고, 그러면 독출된 데이터는 블록(448)을 통하여 출력 버퍼(452) 내에 기록된다.
그러므로, 바람직한 실시형태에서, 도 13 의 오디오 디코더(308)는 통상적으로 파서 및 렌더러를 포함한다. 파서는 도 22 의 블록(71 및 72)으로 이루어질 것이고, 렌더러는 도 22 의 잔여 블록을 포함할 것인데, 그 이유는 이러한 실시형태에서, 산술적이거나 일반적으로 엔트로피 디코딩이 없이는, 예를 들어 라인 또는 라인 투플의 MSB 부분 또는 라인 또는 라인 투플의 MSB/부호 부분에 대해서 얼마나 많은 인코딩된 비트가 필요한지가 결정될 수 없기 때문이다. 트랜스코딩 동작의 경우, 파서는 후속 렌더러가 없이 사용되는데, 그 이유는 트랜스코딩 동작이 입력 프레임에 비교할 때 다른 신택스로 기록된 프레임을 출력하기 때문이다.
도 19 는, 예를 들어 콘트롤러(440) 또는 일반적으로는 도 13 의 프레임 리더기(306)가 재정렬 동작을 수행하는 경우의 바람직한 구현형태를 예시한다. 단계 456 에서, 코드워드들의 제 1 미리 규정된 서브세트가 독출되도록 입력 (독출) 포인터의 시작 위치가 결정된다. 이러한 프로시저에서, 이것은 예를 들어 코드워드들의 제 2 서브세트가 프레임의 시작 또는 끝에 있는 인접 코드워드 내에서 수집되는 경우이다. 단계 456 은 입력으로서, 제 2 코드워드의 개수 또는 정보 단위의 제 2 양을 수신한다. 추가하여, 코드워드들의 제 2 미리 규정된 서브세트가 프레임의 끝에 위치되는 경우에는, 프레임마다의 정보 단위의 총 개수가 단계(456)에 의해서 역시 요구된다.
단계 458 에서, 독출 포인터들이 서로 만나면 프로시저는 끝나고, 이러한 경우에 프레임 내의 미팅 위치가 결정된다. 단계 460 에서, 독출을 위한 시작 위치까지의 데이터가 이러한 위치 및 미팅 위치 사이의 데이터로 교환된다.
블록 460의 출력에서, 규정된/표준화된 중간 프레임 포맷이 획득되었다.
도 20 은 직접 디코딩을 위한 프레임 리더기(306)의 프로시저를 예시한다. 단계 470 은 다시 말하건대, 제 2 코드워드의 개수 또는 정보 단위의 제 2 양을 수신한다. 단계 470 은 프레임별 정보 단위의 총 개수를 요구할 수 있다. 그러면, 입력 (독출) 포인터의 시작 위치가 제 1 미리 규정된 서브세트를 독출하도록 결정된다. 단계 470 및 단계 456 은 독출 포인터(444, 446)를 제어한다. 단계 472 에서, 독출 포인터들이 서로 만나고 미팅 위치가 얻어지면 프로시저는 중단된다. 단계 474 에서, 독출은 양측 모두의 잔여 부분에 걸쳐서 계속되고, 여기에서 반대 방향으로의 독출을 위한 시작 포인트는 제 1 단계에서 결정된 시작 포인트이다. 블록 474의 출력에서, 직접 디코딩 애플리케이션을 위한 오디오 디코더에 대한 데이터가 획득된다.
비록 설명된 개념의 일부 양태들이 장치의 콘텍스트에서 설명되었지만, 이러한 양태가 대응하는 방법의 설명을 역시 나타낸다는 것이 명백하고, 여기에서 블록 또는 디바이스는 방법 단계 또는 방법 단계의 피쳐에 대응한다. 이와 유사하게, 방법의 콘텍스트에서 설명된 양태들도 역시 대응하는 장치의 대응하는 블록 또는 아이템 또는 특징의 설명을 역시 나타낸다.
특정한 구현형태의 요구 사항에 의존하여, 본 발명의 실시예들은 하드웨어로 또는 소프트웨어로 구현될 수 있다. 구현형태는 저장된 전자적으로 판독가능한 제어 신호를 가지는 디지털 저장 매체, 예를 들어 플로피 디스크, DVD, CD, ROM, PROM, EPROM, EEPROM 또는 FLASH 메모리를 사용하여 수행될 수 있는데, 이것은 각각의 방법이 수행되도록 프로그래밍가능한 컴퓨터 시스템과 상호동작한다(또는 상호 동작할 수 있다).
본 발명에 따르는 몇 가지 실시예는 전자적으로 판독가능한 제어 신호를 가지는 데이터 캐리어를 포함하는데, 이것은 프로그래밍가능한 컴퓨터 시스템과 함께 상호 동작하여 본 명세서에서 설명되는 방법들 중 하나가 수행되게 할 수 있다.
일반적으로, 본 발명의 실시형태들은 프로그램 코드가 있는 컴퓨터 프로그램 제품으로서 구현될 수 있고, 프로그램 코드는 컴퓨터 프로그램 제품이 컴퓨터에서 실행될 때 방법들 중 하나를 수행하도록 동작한다. 프로그램 코드는, 예를 들어 머신 판독가능 캐리어에 저장될 수도 있다.
다른 실시예들은 본 명세서에서 설명되는 방법들 중 하나를 수행하기 위하여 머신 판독가능 캐리어 또는 비일시적 저장 매체에 저장되는 컴퓨터 프로그램을 포함한다.
다르게 말하면, 그러므로, 본 발명의 방법의 일 실시예는 컴퓨터 프로그램이 컴퓨터에서 실행될 때에 본 명세서에서 설명되는 방법들 중 하나를 수행하기 위한 프로그램 코드를 가지는 컴퓨터 프로그램이다.
그러므로, 본 발명의 방법의 다른 실시예는 본 명세서에서 설명되는 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램이 그 위에 기록되는 데이터 캐리어(또는 디지털 저장 매체, 또는 컴퓨터-판독가능 매체)이다.
그러므로, 본 발명의 방법의 다른 실시예는 본 명세서에서 설명되는 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램을 나타내는 데이터 스트림 또는 신호의 시퀀스이다. 데이터 스트림 또는 신호의 시퀀스는, 예를 들어 예를 들어 인터넷을 통해서 데이터 통신 연결을 통해 전송되도록 구성될 수 있다.
다른 실시예는, 본 명세서에서 설명되는 중 방법들 중 하나를 수행하도록 구성되거나 적응되는, 처리 수단, 예를 들어 컴퓨터, 또는 프로그래밍가능한 로직 디바이스를 포함한다.
다른 실시예는 본 명세서에서 설명되는 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램을 그 위에 설치한 컴퓨터를 포함한다.
몇 가지 실시예들에서, 프로그래밍가능한 로직 디바이스(예를 들어 필드 프로그램가능 게이트 어레이)가 본 명세서에서 설명되는 방법의 기능성 중 일부 또는 전부를 수행하도록 사용될 수도 있다. 몇 가지 실시예들에서, 필드 프로그램가능 게이트 어레이는 본 명세서에서 설명되는 방법들 중 하나를 수행하기 위하여 마이크로프로세서와 함께 상호동작할 수도 있다. 일반적으로, 이러한 방법은 임의의 하드웨어 장치에 의하여 수행되는 것이 바람직하다.
위에서 설명된 실시예는 본 발명의 원리에 대한 예시일 뿐이다. 본 명세서에서 설명되는 배치구성 및 세부 사항의 변경 및 변형이 당업자에게는 명백하게 이해될 것이라는 것이 이해된다. 그러므로, 출원 중인 청구항의 범위에 의해서만 제한되고 본 명세서의 실시예를 기술하고 설명하는 것에 의하여 제시되는 구체적인 세부사항에 의해서 제한되는 것은 의도되지 않는다.
[참고 문헌]
[1] "ISO/IEC14496-3 MPEG-4 Information technology - Coding of audio-visual objects - Part 3: Audio", 2009.
[2] "ETSI ES 201 980 Digital Radio Mondiale; System Specification", 2014.
[3] "ETSI TR 103 590 V1.1.1 (2018-09) "Digital Enhanced Cordless Telecommunications (DECT); Study of Super Wideband Codec in DECT for narrowband, wideband and super-wideband audio communication including options of low delay audio connections (lower than 10 ms framing)".

Claims (46)

  1. 오디오 프레임의 인코딩된 오디오 데이터를 사용하여 에러 방지 프레임(error protected frame)을 생성하기 위한 오디오 송신기 프로세서로서,
    상기 오디오 프레임에 대한 인코딩된 오디오 데이터는 정보 단위의 제 1 양 및 정보 단위의 제 2 양을 포함하고, 상기 오디오 송신기 프로세서는,
    코드워드들의 미리 규정된 총 개수에 대한 레퍼런스 위치를 규정하는 코드워드 래스터(codeword raster)를 가지는 코드워드 프레임을 구축하기 위한 프레임 구축기(506) - 상기 프레임 구축기(506)는,
    상기 정보 단위의 제 1 양 중의 정보 단위를, 코드워드들의 제 1 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하고,
    상기 정보 단위의 제 2 양 중의 정보 단위를, 코드워드들의 제 2 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하도록 구성되고,
    상기 프레임 구축기(506)는, 상기 정보 단위의 제 2 양 중의 시작 정보 단위가 코드워드 경계와 일치하도록, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 결정하도록 구성됨 -; 및
    에러 방지 코더(508)로서,
    제 1 처리 결과를 획득하도록 상기 코드워드들의 제 1 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하거나, 제 2 처리 결과를 획득하도록 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하며, 상기 에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록, 상기 제 1 처리 결과 또는 상기 제 2 처리 결과를 미리 규정된 개수의 코드워드에 추가하거나,
    에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록, 상기 코드워드들의 제 1 미리 규정된 서브세트 또는 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드를 개별적으로 처리하기 위한, 에러 방지 코더(508)를 포함하는, 오디오 송신기 프로세서.
  2. 제 1 항에 있어서,
    상기 프레임 구축기(506)는,
    상기 코드워드들의 제 2 미리 규정된 서브세트의 정보 용량이 상기 정보 단위의 제 2 양 중의 정보 단위의 양과 같아지도록, 상기 제 2 미리 규정된 서브세트의 정보 용량에 기반하여, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 결정(601)하도록 구성되는, 오디오 송신기 프로세서.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 오디오 송신기 프로세서는,
    오디오 신호의 미리 규정된 시간 부분을 사용하여 상기 제 1 양 및 정보 단위의 제 2 양을 생성하기 위한 소스 인코더(500)를 더 포함하고,
    상기 정보 단위는 필수적 정보 단위의 개수 및 잔차 정보 단위의 가변 개수를 포함하고,
    상기 소스 인코더(500)는 상기 미리 규정된 시간 부분에 대한 신호-의존적 필수적 정보 단위의 개수를 초래하는 가변 길이 코딩 규칙(60)을 사용하도록 구성되며,
    상기 프레임 구축기(506)는 상기 코드워드 프레임이 고정된 크기의 정보 단위를 가지게끔 상기 코드워드 프레임을 구축하도록 구성되고,
    상기 오디오 인코더는 상기 잔차 정보 단위의 가변 개수를, 상기 코드워드 프레임에 대한 정보 단위의 고정된 크기 및 필수적 정보 단위의 개수로부터 유도되는 차이와 동일한 정보량으로서 결정하도록 구성되는, 오디오 송신기 프로세서.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는,
    코드워드 프레임에 대한 오디오 신호에 의존하여, 상기 경계가 상기 코드워드 프레임의 상이한 오디오 정보에 관련되거나 상기 오디오 디코더에 의하여 상이하게 해석되는 인코딩된 정보 단위를 나타내게 하기 위하여, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 신호-적응적으로 코드워드 프레임마다 결정하도록 구성되는, 오디오 송신기 프로세서.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는,
    코드워드들의 제 2 서브세트로서, 상기 인코딩된 오디오 데이터의 코드워드 프레임의 일측에 있는 제 2 미리 규정된 개수의 인접 코드워드를 사용하고, 코드워드들의 제 1 미리 규정된 서브세트로서, 상기 인코딩된 오디오 데이터의 코드워드 프레임의 타측에 있는 제 1 미리 규정된 개수의 인접 코드워드를 사용하도록 구성되고,
    상기 제 1 미리 규정된 개수와 상기 제 2 미리 규정된 개수의 합은 코드워드들의 미리 규정된 총 개수와 동일하고, 또는
    상기 코드워드들의 제 2 미리 규정된 서브세트 중 적어도 하나의 코드워드는 상기 코드워드들의 제 1 미리 규정된 서브세트 중 두 개의 코드워드들 사이에 위치되거나, 상기 코드워드들의 제 1 미리 규정된 서브세트 중 적어도 하나의 코드워드는 상기 코드워드들의 제 2 미리 규정된 서브세트 중 두 개의 코드워드들 사이에 위치되는, 오디오 송신기 프로세서.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는,
    상기 코드워드들의 제 1 미리 규정된 서브세트의 레퍼런스 위치를 사용하여, 상기 정보 단위의 제 1 양을 상기 코드워드들의 제 1 미리 규정된 서브세트 내에 기록하고,
    상기 코드워드들의 제 1 미리 규정된 서브세트가 채워지자마자(601), 상기 코드워드들의 제 2 미리 규정된 서브세트의 레퍼런스 위치를 사용하여, 상기 정보 단위의 제 2 양을 기록(602)하도록 구성되고,
    상기 프레임 구축기(506)는, 상기 경계를, 상기 코드워드들의 제 1 미리 규정된 서브세트 중 마지막 코드워드 내에 기록된 정보 단위로서 또는 상기 코드워드들의 제 2 미리 규정된 서브세트 중 첫 번째 코드워드의 레퍼런스 위치에 기록되는 첫 번째 정보 단위로서 결정(601)하도록 구성되는, 오디오 송신기 프로세서.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는 상기 정보 단위의 제 1 양 중의 정보 단위를,
    상기 제 1 미리 규정된 개수의 코드워드 중 적어도 두 개의 코드워드의 레퍼런스 위치에서 시작하는 제 1 기록 방향으로, 그리고 상기 제 1 미리 규정된 개수의 코드워드 중 적어도 두 개의 그 외의 코드워드의 레퍼런스 위치에서 시작하는 반대인 제 2 기록 방향으로 기록하도록 구성되고, 또는
    상기 프레임 구축기(506)는 상기 정보 단위의 제 2 양 중의 정보 단위를,
    상기 제 2 미리 규정된 개수의 코드워드 중 적어도 두 개의 코드워드의 레퍼런스 위치에서 시작하는 제 1 기록 방향으로, 그리고 상기 제 2 미리 규정된 개수의 코드워드 중 적어도 두 개의 그 외의 코드워드의 레퍼런스 위치에서 시작하는 반대인 제 2 기록 방향으로 기록하도록 구성되는, 오디오 송신기 프로세서.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는,
    상기 정보 단위의 제 1 양 및 상기 정보 단위의 제 2 양 중의 정보 단위를 기록하도록 구성되고,
    상기 정보 단위의 제 1 양 중의 정보 단위의 적어도 다수는 상기 정보 단위의 제 2 양 중의 정보 단위의 다수보다 음향심리학적으로(psychoacoustically) 더 중요하며, 또는
    상기 정보 단위의 제 2 양 내의 정보 단위만이 오염된 것으로 결정되는 경우, 부분적 프레임 손실 은닉(loss concealment)만이 상기 오디오 수신기 프로세서 내에서 예상되고,
    상기 정보 단위의 제 1 양 내의 정보 단위가 오염된 것으로 결정되는 경우, 풀 프레임 손실 은닉이 상기 오디오 수신기 프로세서 내에서 예상되는, 오디오 송신기 프로세서.
  9. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 오디오 송신기 프로세서는,
    정보 단위의 적어도 두 개의 카테고리를 생성하기 위한 소스 인코더(500)를 더 포함하고,
    상기 적어도 두 개의 카테고리는, 고정 길이 부가 정보(side information), 가변 길이 부가 정보, 시간적 노이즈 성형 정보(shaping information), 스펙트럼의 제 1 주파수 부분의 스펙트럼의 하나 이상의 최상위 비트, 상기 제 1 주파수 부분보다 높은 주파수를 가지는 제 2 주파수 부분의 하나 이상의 최상위 비트, 제 1 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트, 제 2 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트, 상기 제 1 주파수 부분보다 높은 주파수를 가지는 상기 제 2 주파수 부분, 및 잔여 비트로 이루어지는 군으로부터 선택되며,
    상기 소스 인코더(500)에 의하여 카테고리로서 생성되면, 상기 고정 길이 부가 정보, 상기 가변 길이 부가 정보, 상기 시간적 노이즈 성형 정보, 상기 제 1 주파수 부분의 스펙트럼의 하나 이상의 최상위 비트, 및 상기 제 1 주파수 부분의 최하위 비트 또는 부호 비트는 상기 정보 단위의 제 1 양 내에 위치되고,
    상기 소스 인코더(500)에 의하여 카테고리로서 생성되면, 적어도 상기 제 2 주파수 부분의 하나 이상의 최상위 비트 중 하나, 상기 제 2 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트 및 상기 잔여 비트는 상기 정보 단위의 제 2 양 내에 있는, 오디오 송신기 프로세서.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는 제 1 기록 포인터(810) 및 제 2 기록 포인터(812)를 사용하도록 구성되고,
    상기 프레임 구축기(506)는 상기 제 1 기록 포인터(810)를 상기 코드워드 프레임 내의 더 낮은 정보 단위 위치로부터 상기 코드워드 프레임 내의 더 높은 정보 단위 위치로 향하는 방향으로 증분시키도록 구성되며,
    상기 프레임 구축기(506)는 상기 제 2 기록 포인터(812)를 상기 코드워드 프레임 내의 더 높은 정보 위치로부터 상기 코드워드 프레임 내의 더 낮은 정보 위치로 향하는 방향으로 감분하도록 구성되고,
    상기 프레임 구축기(506)는, 상기 제 1 기록 포인터(810)를 상기 코드워드들의 제 1 미리 규정된 서브세트의 코드워드들의 미리 규정된 시퀀스 내의 첫 번째 코드워드의 시작을 표시하는 레퍼런스 위치에서 시작시키도록 구성되며,
    상기 프레임 구축기(506)는 상기 제 2 기록 포인터(812)를 상기 코드워드들의 미리 규정된 제 1 서브세트의 코드워드들의 미리 규정된 제 1 시퀀스 내의 마지막 코드워드의 끝을 표시하는 레퍼런스 위치에서 시작시키도록 구성되고,
    상기 프레임 구축기(506)는 상기 정보 단위의 제 1 양 중에서 정보 단위의 하나 이상의 제 1 카테고리에 속하는 정보 단위를 상기 제 1 기록 포인터(810)에 의해 표시되는 위치에 기록하도록 구성되며,
    상기 프레임 구축기(506)는 상기 정보 단위의 제 1 양 중에서 정보 단위의 하나 이상의 제 2 카테고리에 속하는 정보 단위를, 상기 제 1 및 제 2 기록 포인터(810, 812)가 미팅 정보 단위 위치에서 서로 만날 때까지 상기 제 2 기록 포인터(812)에 의해 표시되는 위치에 기록하도록 구성되고,
    상기 미팅 정보 단위 위치에서의 정보 단위는 상기 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 나타내는, 오디오 송신기 프로세서.
  11. 제 10 항에 있어서,
    상기 프레임 구축기(506)는,
    상기 제 1 포인터(810)를 상기 코드워드들의 제 2 미리 규정된 서브세트 중 코드워드들의 제 2 미리 규정된 시퀀스의 첫 번째 코드워드의 시작을 표시하는 레퍼런스 위치로 설정하고,
    상기 제 2 기록 포인터(812)를 상기 코드워드들의 제 2 미리 규정된 서브세트 중 코드워드들의 제 2 미리 규정된 시퀀스의 마지막 코드워드의 끝을 표시하는 레퍼런스 위치로 설정하며,
    상기 정보 단위의 제 2 양 중에서 하나 이상의 제 3 카테고리의 정보 단위를 상기 제 1 기록 포인터(810)를 사용하여 기록하고, 상기 정보 단위의 제 2 양 중에서 하나 이상의 제 4 카테고리의 정보 단위를 상기 제 2 기록 포인터(812)를 사용하여 기록하도록 구성되는, 오디오 송신기 프로세서.
  12. 제 10 항 또는 제 11 항에 있어서,
    상기 정보 단위의 하나 이상의 제 1 카테고리는, 시간적 노이즈 성형 정보, 및/또는 제 1 주파수 부분의 스펙트럼의 하나 이상의 최하위 비트 중 적어도 하나를 포함하고, 또는
    상기 정보 단위의 하나 이상의 제 2 카테고리는 고정 또는 가변 길이 부가 정보, 및 상기 제 1 주파수 부분의 최하위 비트 또는 부호 비트 중 적어도 하나를 포함하며, 또는
    상기 정보 단위의 하나 이상의 제 3 카테고리는 상기 제 2 주파수 부분의 최상위 비트 중 적어도 하나를 포함하며, 또는
    상기 정보 단위의 하나 이상의 제 4 카테고리는 상기 제 2 주파수 부분의 최하위 비트 또는 부호 비트 및 잔여 데이터 중 적어도 하나를 포함하는, 오디오 송신기 프로세서.
  13. 제 10 항 내지 제 12 항 중 어느 한 항에 있어서,
    상기 프레임 구축기(506)는,
    상기 하나 이상의 제 1 카테고리로서, 상기 미팅 정보 단위에서의 스펙트럼 값 또는 스펙트럼 값들의 조합이 이르기까지, 주파수에 대하여 오름 차순으로 순서가 결정된 스펙트럼 값으로부터 유도되는 최상위 비트를 사용하고,
    상기 하나 이상의 제 2 카테고리로서, 상기 미팅 정보 단위의 스펙트럼 값 또는 스펙트럼 값들의 조합에 이르기까지, 스펙트럼 값으로부터 유도되는 최하위 비트 또는 부호 비트를 사용하며,
    상기 하나 이상의 제 3 카테고리로서, 상기 미팅 정보 단위에서의 값 이상인 주파수와 연관되는 하나 이상의 최상위 비트를 사용하고,
    상기 제 4 카테고리로서, 상기 미팅 정보 단위와 연관된 주파수 값 이상인 주파수와 연관되는 최하위 비트 또는 부호 비트를 사용하도록 구성되는, 오디오 송신기 프로세서.
  14. 제 13 항에 있어서,
    상기 프레임 구축기(506)는,
    서로 공시적으로(in synchrony), 상기 하나 이상의 제 1 카테고리 및 상기 하나 이상의 제 2 카테고리를 기록하거나 상기 하나 이상의 제 3 카테고리 및 상기 하나 이상의 제 4 카테고리를 기록하여, 추가적 스펙트럼 값 또는 스펙트럼 값들의 추가적 조합 중의 정보 단위가 상기 기록 포인터(810, 812)에 의해 기록되기 이전에, 스펙트럼 값 또는 스펙트럼 값들의 조합의 적어도 하나 이상의 최상위 비트가 상기 제 1 기록 포인터(810)에 의하여 기록되고, 동일한 스펙트럼 값 또는 스펙트럼 값들의 동일한 조합의 하나 이상의 최하위 비트 또는 부호 비트가 기록되게 하도록 구성되는, 오디오 송신기 프로세서.
  15. 제 1 항 내지 제 14 항 중 어느 한 항에 있어서,
    상기 오디오 송신기 프로세서는,
    인코딩된 오디오 데이터를 시작 위치로부터 끝 위치까지 연장되는 중간 표현 내에 생성하기 위한 소스 인코더(500)를 더 포함하고,
    상기 프레임 구축기(506)는 상기 중간 표현 내의 인코딩된 오디오 데이터를 상기 코드워드들의 제 1 및 제 2 미리 규정된 서브세트에 의하여 표현되는 순서로 재정렬(502)하도록 구성되는, 오디오 송신기 프로세서.
  16. 제 15 항에 있어서,
    상기 프레임 구축기(506)는,
    시작 위치 및 끝 위치로부터, 상기 코드워드들의 제 1 미리 규정된 서브세트의 용량에 의하여 표현되는 정보 단위의 미리 규정된 양이 획득될 때까지 독출 및 파싱(202)하고,
    독출 및 파싱된 정보 단위를 상기 코드워드들의 제 1 미리 규정된 서브세트 내에 기록하며, 상기 용량에 의하여 결정되는 미리 규정된 양이 독출 및 파싱될 때 획득되는 중간 정보 단위 사이의 잔여 정보 단위를 상기 코드워드들의 제 2 미리 규정된 서브세트 내에 기록(206)하도록 구성되는, 오디오 송신기 프로세서.
  17. 제 16 항에 있어서,
    인코딩된 시간적 노이즈 성형 데이터, 부가 정보 데이터 및 최상위 데이터 부분 및 최하위 데이터 부분이 독출되고 상기 코드워드들의 제 1 미리 규정된 서브세트에 기록되고,
    특정 주파수보다 큰 스펙트럼 값의 상기 기 최상위 데이터 부분 및 상기 최하위 데이터 부분 및 잔여 데이터가 상기 코드워드들의 제 2 미리 규정된 서브세트 내에 기록되는, 오디오 송신기 프로세서.
  18. 제 1 항 내지 제 17 항 중 어느 한 항에 있어서,
    상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드들의 개수는 에러 방지 코드, 및/또는 복수 개의 처리된 코드워드의 총 크기로부터 유도되는, 오디오 송신기 프로세서.
  19. 제 1 항 내지 제 18 항 중 어느 한 항에 있어서,
    상기 에러 방지 코더(508)는,
    상기 제 1 처리 결과를 제 1 해시 값으로서 계산(210)하고,
    상기 제 2 처리 결과를 제 2 해시 값으로서 계산(212)하며,
    상기 제 1 해시 값을 상기 코드워드들의 제 1 미리 규정된 서브세트에 가산(214)하고, 상기 제 2 해시 값을 상기 코드워드들의 제 2 미리 규정된 서브세트에 가산(214)하며,
    에러 방지된 코드워드를 획득하게끔, 코드워드-단위(codeword-wise) 블록 코드를 적용하도록 구성되는, 오디오 송신기 프로세서.
  20. 제 1 항 내지 제 19 항 중 어느 한 항에 있어서,
    상기 오디오 송신기 프로세서는,
    최소 크기 데이터 부분을 정보 단위의 제 1 그래뉼래러티(granularity) 내에 생성하는 산술적 인코더(60)를 가지는 오디오 인코더(500)를 더 포함하고,
    상기 에러 방지 코더(508)는 정보 단위의 제 2 그래뉼래러티 내에서 동작하도록 구성되며,
    상기 제 1 그래뉼래러티는 상기 제 2 그래뉼래러티와 다른, 오디오 송신기 프로세서.
  21. 제 20 항에 있어서,
    상기 제 1 그래뉼래러티는 상기 제 2 그래뉼래러티보다 크고,
    상기 제 1 미리 규정된 서브세트의 첫 번째 코드워드의 레퍼런스 위치에는, 상기 제 1 및 제 2 그래뉼래러티 사이의 그래뉼래러티 차분에 대응하는 적응 양(adaptation amount)의 정보 단위가 위치되는, 오디오 송신기 프로세서.
  22. 제 21 항에 있어서,
    상기 제 1 그래뉼래러티는 상기 제 2 그래뉼래러티보다 크고 정수비의 관계이며,
    상기 정보 단위의 적응 양은 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드의 레퍼런스 위치에 있는 데이터와 함께, 상기 산술적 인코더(60)에 의해 출력되는 상기 최소 크기 데이터 부분을 나타내는, 오디오 송신기 프로세서.
  23. 에러 방지 프레임을 처리하기 위한 오디오 수신기 프로세서로서,
    수신된 에러 방지 프레임을 획득하도록, 에러 방지 프레임을 수신하기 위한 수신기 인터페이스(300);
    인코딩된 오디오 프레임을 획득하도록, 수신된 에러 방지 프레임을 처리하기 위한 에러 방지 프로세서(302) - 상기 에러 방지 프로세서는 상기 인코딩된 오디오 프레임의 코드워드들의 제 1 미리 규정된 서브세트의 코드워드가 에러를 포함하는지 여부를 점검하도록 구성됨 -; 및
    상기 코드워드들의 제 1 미리 규정된 서브세트 내에 에러가 검출되는 경우, 프레임 손실 은닉 동작을 수행하거나 프레임 손실 은닉 표시를 생성하도록 구성되는, 에러 은닉기 또는 에러 은닉 표시자(304)를 포함하는, 오디오 수신기 프로세서.
  24. 제 23 항에 있어서,
    상기 에러 방지 프로세서(302)는, 상기 인코딩된 오디오 프레임의 코드워드들의 제 2 미리 규정된 서브세트가 에러를 포함하는지 여부를 점검(406)하도록 구성되고,
    상기 에러 은닉기 또는 에러 은닉 표시자(304)는, 상기 코드워드들의 제 2 미리 규정된 서브세트 내의 에러를 은닉하기 위하여, 부분적 프레임 손실 은닉 동작(410)을 수행하거나 부분적 프레임 손실 은닉 표시를 생성하도록 구성되는, 오디오 수신기 프로세서.
  25. 제 23 항 또는 제 24 항에 있어서,
    상기 오디오 수신기 프로세서는,
    상기 코드워드들의 제 1 미리 규정된 서브세트 내에 포함된 인코딩된 오디오 데이터를 디코딩하기 위한 오디오 디코더(308)를 더 포함하고,
    상기 오디오 디코더(308)는, 상기 코드워드들의 제 1 미리 규정된 서브세트 내에서 상기 에러 방지 프로세서(302)가 에러를 위치결정하지 않으면, 상기 에러 방지 프로세서(302)에 의하여 제어되도록 구성되는, 오디오 수신기 프로세서.
  26. 제 23 항 내지 제 25 항 중 어느 한 항에 있어서,
    상기 에러 방지 프로세서(302)는, 디코딩된 코드워드들의 제 1 미리 규정된 서브세트 및 디코딩된 코드워드들의 제 2 미리 규정된 서브세트를 획득하도록, 블록 디코딩 동작을 수신된 에러 방지 프레임에 적용하도록 구성되고,
    상기 블록 디코딩 동작이 에러가 존재한다고 시그널링하지 않으면, 상기 에러 방지 프로세서는,
    상기 코드워드들의 제 1 미리 규정된 서브세트로부터 제 1 해시 값을 계산(402)하고,
    상기 제 1 해시 값을 수신된 제 1 해시 값과 비교(404, 406)하도록 구성되며,
    상기 에러 방지 프로세서는,
    상기 제 1 해시 값 및 상기 수신된 제 1 해시 값이 서로 일치하지 않으면 상기 코드워드들의 제 1 미리 규정된 서브세트 내에 에러가 존재한다고 결정하거나, 상기 제 1 해시 값 및 상기 수신된 제 1 해시 값이 일치하면 상기 코드워드들의 제 1 미리 규정된 서브세트에 에러가 없다고 결정하도록 구성되는, 오디오 수신기 프로세서.
  27. 제 23 항 내지 제 26 항 중 어느 한 항에 있어서,
    상기 에러 방지 프로세서(302)는, 디코딩된 코드워드들의 제 1 미리 규정된 서브세트 및 디코딩된 코드워드들의 제 2 미리 규정된 서브세트를 획득하도록, 블록 디코딩 동작을 수신된 에러 방지 프레임에 적용하도록 구성되고,
    상기 블록 디코딩 동작이 에러가 존재한다고 시그널링하지 않으면, 상기 에러 방지 프로세서는,
    상기 코드워드들의 제 2 미리 규정된 서브세트로부터 제 2 해시 값을 계산(406)하고,
    상기 제 2 해시 값을 수신된 제 2 해시 값과 비교(404, 406)하도록 구성되며,
    상기 에러 방지 프로세서는,
    상기 제 2 해시 값 및 상기 수신된 제 2 해시 값이 서로 일치하지 않으면 상기 코드워드들의 제 2 미리 규정된 서브세트 내에 에러가 존재한다고 결정하거나, 상기 제 2 해시 값 및 상기 수신된 제 2 해시 값이 일치하면 상기 코드워드들의 제 2 미리 규정된 서브세트에 에러가 없다고 결정하도록 구성되는, 오디오 수신기 프로세서.
  28. 제 26 항 또는 제 27 항에 있어서,
    상기 블록 디코딩 동작은 리드-솔로몬(Reed-Solomon) 디코딩 동작을 포함하는, 오디오 수신기 프로세서.
  29. 제 23 항 내지 제 28 항 중 어느 한 항에 있어서,
    상기 에러 방지 프로세서(302)는,
    상기 코드워드들의 제 1 미리 규정된 서브세트의 점검이 에러를 검출하지 않은 경우에만, 상기 코드워드들의 제 2 미리 규정된 서브세트가 에러를 포함하는지 여부를 점검하도록 구성되는, 오디오 수신기 프로세서.
  30. 제 23 항 내지 제 29 항 중 어느 한 항에 있어서,
    상기 에러 방지 프로세서(302)는, 상기 코드워드들의 제 2 미리 규정된 서브세트의 하나 이상의 특정 코드워드가 에러를 포함하는지 여부, 및 상기 코드워드들의 제 2 미리 규정된 서브세트의 임의의 코드워드가 에러-프리(error-free) 코드워드인지 여부를 검출하도록 구성되고,
    상기 에러 은닉기(403)는, 상기 하나 이상의 특정 코드워드 또는 상기 에러 은닉 표시에 대한 대체 데이터(substitute data)를 생성하도록 구성되며,
    상기 오디오 수신기 프로세서는, 상기 코드워드들의 제 1 미리 규정된 서브세트 내에 포함된 오디오 데이터 및 상기 코드워드들의 제 2 미리 규정된 서브세트의 상기 에러-프리 코드워드 중 하나 이상 내에 포함된 오디오 데이터, 및 상기 하나 이상의 특정 코드워드에 대한 대체 데이터를 디코딩(428)하기 위한 오디오 디코더(308)를 포함하고, 또는
    상기 오디오 수신기 프로세서는, 상기 코드워드들의 제 1 미리 규정된 서브세트 내에 포함된 오디오 데이터 및 상기 코드워드들의 제 2 미리 규정된 서브세트의 상기 에러-프리 코드워드 중 하나 이상 내에 포함된 오디오 데이터를 디코딩하기 위한 오디오 디코더(308)를 포함하고, 상기 오디오 디코더(308)는 상기 에러 은닉 표시를 수신하고 상기 에러 은닉 표시에 응답하여 에러 은닉 조치를 취하도록 구성되는, 오디오 수신기 프로세서.
  31. 제 23 항 내지 제 30 항 중 어느 한 항에 있어서,
    상기 오디오 수신기 프로세서는,
    상기 코드워드들의 제 1 미리 규정된 서브세트 및 상기 코드워드들의 제 2 미리 규정된 서브세트를 식별하는 미리 규정된 프레임-독출 프로시저에 따라서 상기 인코딩된 오디오 프레임을 독출하기 위한 프레임 리더기(306)를 더 포함하는, 오디오 수신기 프로세서.
  32. 제 31 항에 있어서,
    상기 프레임 리더기(306)는,
    상기 코드워드들의 제 1 미리 규정된 서브세트의 모든 코드워드 중의 정보 단위가 독출될 때까지, 상기 정보 단위의 제 1 양 중의 정보 단위를 상기 코드워드들의 제 1 미리 규정된 서브세트의 코드워드의 레퍼런스 포인트에서 시작하여 독출하고,
    상기 정보 단위의 제 2 양 중의 정보 단위를 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드의 레퍼런스 포인트에서 시작하여 독출하도록 구성되고,
    상기 오디오 수신기 프로세서는 오디오 디코더를 더 포함하며,
    상기 오디오 디코더(308)는, 상기 인코딩된 오디오 프레임에 대한 디코딩된 오디오 데이터를 획득하게끔, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양의 연쇄(concatenation)를 디코딩하도록 구성되는, 오디오 수신기 프로세서.
  33. 제 31 항 또는 제 32 항에 있어서,
    상기 프레임 리더기(306)는,
    코드워드들의 제 2 서브세트로서, 상기 인코딩된 오디오 데이터의 코드워드 프레임의 일측에 있는 제 2 미리 규정된 개수의 인접 코드워드를 사용하고, 코드워드들의 제 1 미리 규정된 서브세트로서, 상기 인코딩된 오디오 데이터의 코드워드 프레임의 타측에 있는 제 1 미리 규정된 개수의 인접 코드워드를 사용하도록 구성되고,
    상기 제 1 미리 규정된 개수와 상기 제 2 미리 규정된 개수의 합은 코드워드들의 미리 규정된 총 개수와 동일하며, 또는
    상기 코드워드들의 제 2 미리 규정된 서브세트 중 적어도 하나의 코드워드는 상기 코드워드들의 제 1 미리 규정된 서브세트 중 두 개의 코드워드들 사이에 위치되거나, 상기 코드워드들의 제 1 미리 규정된 서브세트 중 적어도 하나의 코드워드는 상기 코드워드들의 제 2 미리 규정된 서브세트 중 두 개의 코드워드들 사이에 위치되는, 오디오 수신기 프로세서.
  34. 제 31 항 내지 제 33 항 중 어느 한 항에 있어서,
    상기 프레임 리더기(306)는 상기 정보 단위의 제 1 양 중의 정보 단위를,
    상기 제 1 미리 규정된 개수의 코드워드 중 적어도 두 개의 코드워드의 레퍼런스 위치에서 시작하는 제 1 독출 방향으로, 그리고 상기 제 1 미리 규정된 개수의 코드워드 중 적어도 두 개의 그 외의 코드워드의 레퍼런스 위치에서 시작하는 반대인 제 2 독출 방향으로 독출하도록 구성되고, 또는
    상기 프레임 구축기(306)는 상기 정보 단위의 제 2 양 중의 정보 단위를,
    상기 제 2 미리 규정된 개수의 코드워드 중 적어도 두 개의 코드워드의 레퍼런스 위치에서 시작하는 제 1 독출 방향으로, 그리고 상기 제 2 미리 규정된 개수의 코드워드 중 적어도 두 개의 그 외의 코드워드의 레퍼런스 위치에서 시작하는 반대인 제 2 독출 방향으로 독출하도록 구성되는, 오디오 수신기 프로세서.
  35. 제 31 항 내지 제 34 항 중 어느 한 항에 있어서,
    상기 프레임 리더기(306)는,
    상기 정보 단위의 제 1 양 및 상기 정보 단위의 제 2 양 중의 정보 단위를 독출하도록 구성되고,
    상기 정보 단위의 제 1 양 중의 정보 단위의 적어도 다수는 상기 정보 단위의 제 2 양 중의 정보 단위의 다수보다 음향심리학적으로(psychoacoustically) 더 중요하며, 또는
    상기 정보 단위의 제 2 양 내의 정보 단위만이 오염된 것으로 결정되는 경우, 부분적 프레임 손실 은닉(loss concealment)만이 상기 에러 은닉기에 의하여 수행되고,
    상기 정보 단위의 제 1 양 내의 정보 단위가 오염된 것으로 결정되는 경우, 풀 프레임 손실 은닉이 상기 에러 은닉기에 의하여 수행되는, 오디오 수신기 프로세서.
  36. 제 31 항 내지 제 35 항 중 어느 한 항에 있어서,
    상기 오디오 수신기 프로세서는,
    정보 단위의 적어도 두 개의 카테고리를 디코딩하기 위한 소스 디코더(308)를 더 포함하고,
    상기 적어도 두 개의 카테고리는, 고정 길이 부가 정보(side information), 가변 길이 부가 정보, 시간적 노이즈 성형 정보(shaping information), 스펙트럼의 제 1 주파수 부분의 스펙트럼의 하나 이상의 최상위 비트, 상기 제 1 주파수 부분보다 높은 주파수를 가지는 제 2 주파수 부분의 하나 이상의 최상위 비트, 제 1 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트, 제 2 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트, 상기 제 1 주파수 부분보다 높은 주파수를 가지는 상기 제 2 주파수 부분, 및 잔여 비트로 이루어지는 군으로부터 선택되며,
    상기 소스 인코더(308)에 의한 디코딩에 대하여 카테고리로서 이용가능하면, 상기 고정 길이 부가 정보, 상기 가변 길이 부가 정보, 상기 시간적 노이즈 성형 정보, 상기 제 1 주파수 부분의 스펙트럼의 하나 이상의 최상위 비트, 및 상기 제 1 주파수 부분의 최하위 비트 또는 부호 비트는 상기 정보 단위의 제 1 양 내에 위치되고,
    상기 소스 인코더(308)에 의한 디코딩에 대하여 카테고리로서 이용가능하면, 상기 제 2 주파수 부분의 하나 이상의 최상위 비트 중 적어도 하나, 상기 제 2 주파수 부분의 하나 이상의 최하위 비트 또는 부호 비트 및 상기 잔여 비트는 상기 정보 단위의 제 2 양 내에 있는, 오디오 수신기 프로세서.
  37. 제 31 항 내지 제 36 항 중 어느 한 항에 있어서,
    상기 프레임 리더기(306)는,
    제 1 독출 포인터(444) 및 제 2 독출 포인터(446)를 사용하고,
    상기 제 1 독출 포인터(444)를 상기 코드워드 프레임 내의 더 낮은 정보 단위 위치로부터 상기 코드워드 프레임 내의 더 높은 정보 단위 위치로 향하는 방향으로 증분시키며,
    상기 제 2 독출 포인터(446)를 상기 코드워드 프레임 내의 더 높은 정보 위치로부터 상기 코드워드 프레임 내의 더 낮은 정보 위치로 향하는 방향으로 감분시키고,
    상기 제 1 독출 포인터(444)를 상기 코드워드들의 제 1 미리 규정된 서브세트의 코드워드들의 미리 규정된 시퀀스 내의 첫 번째 코드워드의 시작을 표시하는 레퍼런스 위치에서 시작시키며,
    상기 제 2 독출 포인터(446)를 상기 코드워드들의 미리 규정된 제 1 서브세트의 코드워드들의 미리 규정된 제 1 시퀀스 내의 마지막 코드워드의 끝을 표시하는 레퍼런스 위치에서 시작시키고,
    상기 정보 단위의 제 1 양 중에서 정보 단위의 하나 이상의 제 1 카테고리에 속하는 정보 단위를 상기 제 1 독출 포인터(444)에 의해 표시되는 위치에서 독출하며,
    상기 정보 단위의 제 1 양 중에서 정보 단위의 하나 이상의 제 2 카테고리에 속하는 정보 단위를, 상기 제 1 및 제 2 독출 포인터(444, 446)가 미팅 정보 단위 위치에서 서로 만날 때까지 상기 제 2 독출 포인터(446)에 의해 표시되는 위치에서 독출하도록 구성되고,
    상기 미팅 정보 단위 위치에서의 정보 단위는 상기 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 나타내는, 오디오 수신기 프로세서.
  38. 제 37 항에 있어서,
    상기 프레임 리더기(306)는,
    상기 제 1 독출 포인터(444)를 상기 코드워드들의 제 2 미리 규정된 서브세트 중 코드워드들의 제 2 미리 규정된 시퀀스의 첫 번째 코드워드의 시작을 표시하는 레퍼런스 위치로 설정하고,
    상기 제 2 독출 포인터(446)를 상기 코드워드들의 제 2 미리 규정된 서브세트 중 코드워드들의 제 2 미리 규정된 시퀀스의 마지막 코드워드의 끝을 표시하는 레퍼런스 위치로 설정하며,
    상기 정보 단위의 제 2 양 중에서 하나 이상의 제 3 카테고리의 정보 단위를 상기 제 1 독출 포인터(444)를 사용하여 독출하고, 상기 정보 단위의 제 2 양 중에서 하나 이상의 제 4 카테고리의 정보 단위를 상기 제 2 독출 포인터(446)를 사용하여 독출하도록 구성되는, 오디오 수신기 프로세서.
  39. 제 37 항 또는 제 38 항에 있어서,
    상기 프레임 리더기(306)는,
    상기 하나 이상의 제 1 카테고리로서, 상기 미팅 정보 단위에서의 스펙트럼 값 또는 스펙트럼 값들의 조합이 이르기까지, 주파수에 대하여 오름 차순으로 순서가 결정된 스펙트럼 값으로부터 유도되는 최상위 비트를 사용하고,
    상기 하나 이상의 제 2 카테고리로서, 상기 미팅 정보 단위의 스펙트럼 값 또는 스펙트럼 값들의 조합에 이르기까지, 스펙트럼 값으로부터 유도되는 최하위 비트 또는 부호 비트를 사용하며,
    상기 하나 이상의 제 3 카테고리로서, 상기 미팅 정보 단위에서의 값 이상인 주파수와 연관되는 하나 이상의 최상위 비트를 사용하고,
    상기 제 4 카테고리로서, 상기 미팅 정보 단위와 연관된 주파수 값 이상인 주파수와 연관되는 최하위 비트 또는 부호 비트를 사용하도록 구성되는, 오디오 수신기 프로세서.
  40. 제 39 항에 있어서,
    상기 프레임 리더기(306)는,
    서로 공시적으로(in synchrony), 상기 하나 이상의 제 1 카테고리 및 상기 하나 이상의 제 2 카테고리를 독출하거나 상기 하나 이상의 제 3 카테고리 및 상기 하나 이상의 제 4 카테고리를 독출하여, 추가적 스펙트럼 값 또는 스펙트럼 값들의 추가적 조합 중의 정보 단위가 상기 독출 포인터(444, 446)에 의해 독출되기 이전에, 스펙트럼 값 또는 스펙트럼 값들의 조합의 적어도 하나 이상의 최상위 비트가 상기 제 1 독출 포인터(444)에 의하여 독출되고, 동일한 스펙트럼 값 또는 스펙트럼 값들의 동일한 조합의 하나 이상의 최하위 비트 또는 부호 비트가 독출되게 하도록 구성되는, 오디오 수신기 프로세서.
  41. 제 31 항 내지 제 40 항 중 어느 한 항에 있어서,
    상기 프레임 리더기(306)는 제 1 독출 방향을 가지는 제 1 독출 포인터(444) 및 제 2 독출 방향을 가지는 제 2 포인터(446)를 사용하도록 구성되고,
    상기 인코딩된 오디오 프레임은 프레임 시작 위치 및 프레임 끝 위치를 가지며,
    상기 프레임 리더기(306)는, 상기 제 1 포인터를 상기 코드워드들의 제 2 미리 규정된 서브세트 내에 포함된 정보 단위의 개수로부터 유도된 제 1 포인터 시작 위치에 설정하고, 상기 제 2 포인터(446)를 상기 프레임 끝 위치에 설정하도록 구성되고,
    상기 코드워드들의 제 1 미리 규정된 서브세트는, 상기 프레임 끝 위치를 가지는 상기 인코딩된 오디오 프레임의 측면에 모두 위치되며,
    상기 프레임 리더기(306)는,
    대응하는 독출 방향으로 상기 제 1 독출 포인터(444)를 증분시키고 상기 제 2 독출 포인터(446)를 감분시키는 것을 사용하여 독출하고,
    상기 제 1 및 제 2 독출 포인터(444, 446)가 미팅 위치에서 서로 만나는 경우 중지하며,
    상기 프레임 시작 위치와 상기 제 1 포인터 시작 위치 사이의 정보 단위를 상기 제 1 포인터 시작 위치와 상기 미팅 위치 사이의 정보 단위와 교환하여, 재정렬된 인코딩된 오디오 프레임이, 상기 재정렬된 오디오 프레임의 시작으로부터, 상기 제 1 포인터 시작 위치와 미팅 포인트 사이에서 독출되는 정보 단위, 상기 프레임 시작 위치와 상기 제 1 포인터 시작 위치 사이의 상기 인코딩된 오디오 프레임의 정보 단위, 및 상기 미팅 위치와 상기 프레임 끝 위치 사이의 상기 인코딩된 오디오 프레임의 정보 단위를 이러한 순서로 포함하게 하도록 구성되고,
    상기 오디오 수신기 프로세서는, 상기 인코딩된 오디오 데이터를 가지는 재정렬된 인코딩된 오디오 프레임을, 상기 재정렬된 인코딩된 오디오 프레임의 순서로 디코딩하도록 미리 설정되는 오디오 디코더(308)를 더 포함하고, 또는
    상기 오디오 수신기 프로세서는, 상기 재정렬된 인코딩된 오디오 프레임을 원격 위치로 송신하기 위한 송신기 디바이스를 더 포함하는, 오디오 수신기 프로세서.
  42. 제 31 항 내지 제 40 항 중 어느 한 항에 있어서,
    상기 프레임 리더기(306)는 제 1 독출 방향을 가지는 제 1 독출 포인터(444) 및 제 2 독출 방향을 가지는 제 2 포인터(446)를 사용하도록 구성되고,
    상기 인코딩된 오디오 프레임은 프레임 시작 위치 및 프레임 끝 위치를 가지며,
    상기 프레임 리더기(306)는, 상기 제 2 포인터(446)를 상기 코드워드들의 제 2 미리 규정된 서브세트 내에 포함된 정보 단위의 개수 및 상기 인코딩된 오디오 프레임의 정보 단위의 총 개수로부터 유도된 제 2 포인터 시작 위치에 설정하고, 상기 제 1 독출 포인터(444)를 상기 프레임 시작 위치에 설정하도록 구성되고,
    상기 코드워드들의 제 1 미리 규정된 서브세트는, 상기 프레임 시작 위치를 가지는 상기 인코딩된 오디오 프레임의 측면에 모두 위치되며,
    상기 프레임 리더기(306)는,
    대응하는 독출 방향으로 상기 제 1 독출 포인터(444)를 증분시키고 상기 제 2 독출 포인터(446)를 감분시키는 것을 사용하여 독출하고,
    상기 제 1 및 제 2 독출 포인터(444, 446)가 미팅 위치에서 서로 만나는 경우 중지하며,
    상기 프레임 끝 위치와 상기 제 2 포인터 시작 위치 사이의 정보 단위를 상기 제 2 포인터 시작 위치와 상기 미팅 위치 사이의 정보 단위와 교환하여, 재정렬된 인코딩된 오디오 프레임이, 상기 재정렬된 오디오 프레임의 시작으로부터, 상기 프레임 시작 위치와 상기 미팅 위치 사이의 정보 단위, 상기 프레임 끝 위치와 상기 제 2 포인터 시작 위치 사이의 상기 인코딩된 오디오 프레임의 정보 단위, 및 상기 미팅 위치와 상기 제 2 포인터 시작 위치 사이의 상기 인코딩된 오디오 프레임의 정보 단위를 이러한 순서로 포함하게 하도록 구성되는, 오디오 수신기 프로세서.
  43. 제 23 항 내지 제 42 항 중 어느 한 항에 있어서,
    상기 오디오 수신기 프로세서는,
    정보 단위의 제 1 그래뉼래러티 내의 최소 데이터 크기 부분을 수신하는 산술적 디코더(72)를 가지는 오디오 디코더(308)를 더 포함하고,
    상기 에러 방지 프로세서(302)는 제 2 그래뉼래러티에서 동작하도록 구성되며,
    상기 제 1 그래뉼래러티는 상기 제 2 그래뉼래러티보다 크고,
    상기 코드워드들의 제 1 미리 규정된 서브세트의 첫 번째 코드워드의 레퍼런스 위치에는, 상기 제 1 및 제 2 그래뉼래러티 사이의 그래뉼래러티 차분에 대응하는 적응 양(adaptation amount)의 정보 단위가 위치되며,

    상기 정보 단위의 적응 양은 상기 제 2 미리 규정된 서브세트의 코드워드의 레퍼런스 위치에 위치된 데이터와 함께, 상기 산술적 인코더(72)로 입력될 최소 데이터 크기 부분을 형성하고,
    상기 프레임 리더기(306)는,
    상기 코드워드들의 제 1 미리 규정된 서브세트에 대한 정보 단위의 독출을, 상기 첫 번째 코드워드의 레퍼런스 위치에 상기 적응 양의 크기를 가산함으로써 결정되는 상기 첫 번째 코드워드 내의 위치에서 시작하도록 구성되는, 오디오 수신기 프로세서.
  44. 오디오 프레임의 인코딩된 오디오 데이터를 사용하여 에러 방지 프레임(error protected frame)을 생성하기 위한 방법으로서,
    상기 오디오 프레임에 대한 인코딩된 오디오 데이터는 정보 단위의 제 1 양 및 정보 단위의 제 2 양을 포함하고, 상기 방법은,
    미리 규정된 총 개수의 코드워드에 대한 레퍼런스 위치를 규정하는 코드워드 래스터(codeword raster)를 가지는 코드워드 프레임을 구축하는 단계를 포함하고,
    상기 구축하는 단계는,
    상기 정보 단위의 제 1 양 중의 정보 단위를, 코드워드들의 제 1 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하는 것;
    상기 정보 단위의 제 2 양 중의 정보 단위를, 코드워드들의 제 2 미리 규정된 서브세트의 레퍼런스 위치에서 시작하여 기록하는 것;
    상기 정보 단위의 제 2 양 중의 시작 정보 단위가 코드워드 경계와 일치하도록, 상기 정보 단위의 제 1 양과 상기 정보 단위의 제 2 양 사이의 경계를 결정하는 것; 및
    에러 방지 처리를 수행하는 것을 포함하고,
    상기 에러 방지 처리를 수행하는 것은,
    제 1 처리 결과를 획득하도록 상기 코드워드들의 제 1 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하거나, 제 2 처리 결과를 획득하도록 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드 중 하나 이상을 처리하며, 상기 에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록, 상기 제 1 처리 결과 또는 상기 제 2 처리 결과를 미리 규정된 개수의 코드워드에 추가하는 것, 또는
    에러 방지 프레임을 나타내는 복수 개의 처리된 코드워드를 획득하도록, 상기 코드워드들의 제 1 미리 규정된 서브세트 또는 상기 코드워드들의 제 2 미리 규정된 서브세트의 코드워드를 개별적으로 처리하는 것을 포함하는, 에러 방지 프레임 생성 방법.
  45. 에러 방지 프레임을 처리하는 방법으로서,
    수신된 에러 방지 프레임을 획득하도록, 에러 방지 프레임을 수신하는 단계;
    인코딩된 오디오 프레임을 획득하도록, 수신된 에러 방지 프레임을 가지고 에러 방지 처리를 수행하는 단계 - 상기 에러 방지 처리는 상기 인코딩된 오디오 프레임의 코드워드들의 제 1 미리 규정된 서브세트의 코드워드가 에러를 포함하는지 여부를 점검하는 것을 포함함 -; 및
    상기 코드워드들의 제 1 미리 규정된 서브세트 내에 에러가 검출되는 경우, 프레임 손실 은닉 동작을 수행하는 단계를 포함하는, 에러 방지 프레임 처리 방법.
  46. 컴퓨터 프로그램으로서,
    컴퓨터 또는 프로세서에서 실행될 때, 제 44 항 또는 제 45 항의 방법을 수행하기 위한, 컴퓨터 프로그램.
KR1020217029147A 2019-02-13 2020-02-12 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램 KR102637530B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020237021253A KR20230098370A (ko) 2019-02-13 2020-02-12 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
EP19157036 2019-02-13
EP19157047 2019-02-13
EP19157036.5 2019-02-13
EP19156997.9A EP3697005A1 (en) 2019-02-13 2019-02-13 Multi-mode channel coding with mode specific coloration sequences
EP19156997.9 2019-02-13
EP19157047.2 2019-02-13
EP19157042.3 2019-02-13
EP19157042 2019-02-13
PCT/EP2019/065172 WO2020164751A1 (en) 2019-02-13 2019-06-11 Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
EPPCT/EP2019/065209 2019-06-11
PCT/EP2019/065205 WO2020164752A1 (en) 2019-02-13 2019-06-11 Audio transmitter processor, audio receiver processor and related methods and computer programs
EPPCT/EP2019/065172 2019-06-11
EPPCT/EP2019/065205 2019-06-11
PCT/EP2019/065209 WO2020164753A1 (en) 2019-02-13 2019-06-11 Decoder and decoding method selecting an error concealment mode, and encoder and encoding method
PCT/EP2020/053617 WO2020165262A2 (en) 2019-02-13 2020-02-12 Audio transmitter processor, audio receiver processor and related methods and computer programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020237021253A Division KR20230098370A (ko) 2019-02-13 2020-02-12 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
KR20210125555A true KR20210125555A (ko) 2021-10-18
KR102637530B1 KR102637530B1 (ko) 2024-02-19

Family

ID=66776368

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020237034158A KR20230147747A (ko) 2019-02-13 2020-02-12 모드 특이적 컬러레이션 시퀀스가 있는 멀티-모드 채널 코딩
KR1020217029147A KR102637530B1 (ko) 2019-02-13 2020-02-12 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램
KR1020217029146A KR102640740B1 (ko) 2019-02-13 2020-02-12 모드 특이적 컬러레이션 시퀀스가 있는 멀티-모드 채널 코딩
KR1020237034159A KR102662188B1 (ko) 2019-02-13 2020-02-12 모드 특이적 컬러레이션 시퀀스가 있는 멀티-모드 채널 코딩
KR1020217028812A KR20210125534A (ko) 2019-02-13 2020-02-12 전 프레임 손실 은닉 및 부분 프레임 손실 은닉을 포함하는 lc3 은닉을 위한 디코더 및 디코딩 방법
KR1020217028182A KR20210143177A (ko) 2019-02-13 2020-02-12 오류 은닉 모드를 선택하는 디코더와 디코딩 방법, 및 인코더와 인코딩 방법
KR1020237021253A KR20230098370A (ko) 2019-02-13 2020-02-12 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020237034158A KR20230147747A (ko) 2019-02-13 2020-02-12 모드 특이적 컬러레이션 시퀀스가 있는 멀티-모드 채널 코딩

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020217029146A KR102640740B1 (ko) 2019-02-13 2020-02-12 모드 특이적 컬러레이션 시퀀스가 있는 멀티-모드 채널 코딩
KR1020237034159A KR102662188B1 (ko) 2019-02-13 2020-02-12 모드 특이적 컬러레이션 시퀀스가 있는 멀티-모드 채널 코딩
KR1020217028812A KR20210125534A (ko) 2019-02-13 2020-02-12 전 프레임 손실 은닉 및 부분 프레임 손실 은닉을 포함하는 lc3 은닉을 위한 디코더 및 디코딩 방법
KR1020217028182A KR20210143177A (ko) 2019-02-13 2020-02-12 오류 은닉 모드를 선택하는 디코더와 디코딩 방법, 및 인코더와 인코딩 방법
KR1020237021253A KR20230098370A (ko) 2019-02-13 2020-02-12 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램

Country Status (13)

Country Link
US (5) US20210366498A1 (ko)
EP (7) EP3925103A1 (ko)
JP (7) JP7472154B2 (ko)
KR (7) KR20230147747A (ko)
CN (3) CN113491079A (ko)
AU (8) AU2020223488A1 (ko)
BR (4) BR112021015608A2 (ko)
CA (7) CA3129610A1 (ko)
MX (4) MX2021009731A (ko)
SG (4) SG11202108672XA (ko)
TW (4) TWI785309B (ko)
WO (3) WO2020164752A1 (ko)
ZA (4) ZA202105721B (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018178877A1 (en) 2017-03-27 2018-10-04 Clearpath Robotics, Inc. Systems and methods for autonomous lineside parts delivery to an assembly line process
CN112151044A (zh) * 2020-09-23 2020-12-29 北京百瑞互联技术有限公司 在lc3音频编码器中自动调节蓝牙播放设备频响曲线的方法、装置及存储介质
CN112735446B (zh) * 2020-12-30 2022-05-17 北京百瑞互联技术有限公司 在lc3音频码流中添加额外信息的方法、系统及介质
US20220342582A1 (en) * 2021-04-27 2022-10-27 Microchip Technology Inc. System and method for double data rate (ddr) chip-kill recovery
CN112992160B (zh) * 2021-05-08 2021-07-27 北京百瑞互联技术有限公司 一种音频错误隐藏方法及装置
US11934696B2 (en) 2021-05-18 2024-03-19 Microchip Technology Inc. Machine learning assisted quality of service (QoS) for solid state drives
US20230326473A1 (en) * 2022-04-08 2023-10-12 Digital Voice Systems, Inc. Tone Frame Detector for Digital Speech

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010108051A (ko) * 1998-12-28 2001-12-07 슈베르트 헬무트 오디오 신호를 코딩 또는 디코딩하는 방법 및 디바이스
KR20070110311A (ko) * 2005-12-16 2007-11-16 코딩 테크놀러지스 에이비 데이터의 중요도에 따라 변형된 데이터 스트림을 생성하는장치 및 그 데이터 스트림을 해석하는 장치
KR20150099615A (ko) * 2013-06-19 2015-08-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 프로그램 정보 또는 서브스트림 구조 메타데이터를 갖는 오디오 인코더 및 디코더

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8402411A (nl) * 1984-08-02 1986-03-03 Philips Nv Inrichting voor het korrigeren en maskeren van fouten in een informatiestroom, en weergeeftoestel voor het weergeven van beeld en/of geluid voorzien van zo een inrichting.
JP2998254B2 (ja) * 1990-04-17 2000-01-11 松下電器産業株式会社 可変長符号化データの伝送方法
EP0453229B1 (en) * 1990-04-17 1997-06-18 Matsushita Electric Industrial Co., Ltd. Method for transmission of variable length code
US5230003A (en) * 1991-02-08 1993-07-20 Ericsson-Ge Mobile Communications Holding, Inc. Decoding system for distinguishing different types of convolutionally-encoded signals
JP2746033B2 (ja) 1992-12-24 1998-04-28 日本電気株式会社 音声復号化装置
JP3171973B2 (ja) * 1993-01-07 2001-06-04 株式会社東芝 音声符号化の誤り制御方法
JP3328093B2 (ja) 1994-07-12 2002-09-24 三菱電機株式会社 エラー訂正装置
US6104754A (en) 1995-03-15 2000-08-15 Kabushiki Kaisha Toshiba Moving picture coding and/or decoding systems, and variable-length coding and/or decoding system
JP2003289539A (ja) 1995-03-15 2003-10-10 Toshiba Corp 動画像符号化装置および方法
EP1802129A3 (en) 1995-03-15 2008-10-22 Kabushiki Kaisha Toshiba Moving picture coding and/or decoding systems
WO1997011535A1 (en) * 1995-09-22 1997-03-27 Pacific Communication Sciences, Inc. Cellular communication system with multiple code rates
US6415398B1 (en) 1995-09-29 2002-07-02 Kabushiki Kaisha Toshiba Coding system and decoding system
GB2311699B (en) * 1996-03-29 2000-09-20 Nokia Mobile Phones Ltd Method and apparatus for digital communication
JP3583551B2 (ja) * 1996-07-01 2004-11-04 松下電器産業株式会社 誤り補償装置
JPH10233692A (ja) * 1997-01-16 1998-09-02 Sony Corp オーディオ信号符号化装置および符号化方法並びにオーディオ信号復号装置および復号方法
JP3184868B2 (ja) * 1997-06-05 2001-07-09 株式会社日立製作所 Webページの真正性確認システム
US6279133B1 (en) * 1997-12-31 2001-08-21 Kawasaki Steel Corporation Method and apparatus for significantly improving the reliability of multilevel memory architecture
US6405338B1 (en) * 1998-02-11 2002-06-11 Lucent Technologies Inc. Unequal error protection for perceptual audio coders
US6256487B1 (en) 1998-09-01 2001-07-03 Telefonaktiebolaget Lm Ericsson (Publ) Multiple mode transmitter using multiple speech/channel coding modes wherein the coding mode is conveyed to the receiver with the transmitted signal
JP2000123083A (ja) * 1998-10-15 2000-04-28 Sony Corp 情報提供システムおよび方法、並びに提供媒体
DE19907728C2 (de) 1999-02-23 2001-03-01 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und Vorrichtung und Verfahren zum Lesen eines Datenstroms
FI107676B (fi) * 1999-06-21 2001-09-14 Nokia Mobile Phones Ltd Menetelmä ja järjestely tietyn signaalinkäsittelymetodin käyttämiseksi informaation välittämiseen
US6570509B2 (en) * 2000-03-03 2003-05-27 Motorola, Inc. Method and system for encoding to mitigate decoding errors in a receiver
EP1199709A1 (en) * 2000-10-20 2002-04-24 Telefonaktiebolaget Lm Ericsson Error Concealment in relation to decoding of encoded acoustic signals
US6810078B2 (en) * 2000-12-08 2004-10-26 Prairiecomm, Inc. Blind rate determination
US6970506B2 (en) 2001-03-05 2005-11-29 Intervideo, Inc. Systems and methods for reducing frame rates in a video data stream
US6694474B2 (en) * 2001-03-22 2004-02-17 Agere Systems Inc. Channel coding with unequal error protection for multi-mode source coded information
EP1471756B8 (en) * 2002-01-31 2012-02-15 Research in Motion Limited Information communication method
US7266750B1 (en) * 2002-07-10 2007-09-04 Maxtor Corporation Error recovery strategies for iterative decoders
US7536305B2 (en) * 2002-09-04 2009-05-19 Microsoft Corporation Mixed lossless audio compression
US6985856B2 (en) * 2002-12-31 2006-01-10 Nokia Corporation Method and device for compressed-domain packet loss concealment
US7356748B2 (en) * 2003-12-19 2008-04-08 Telefonaktiebolaget Lm Ericsson (Publ) Partial spectral loss concealment in transform codecs
WO2005086436A1 (ja) * 2004-03-03 2005-09-15 Mitsubishi Denki Kabushiki Kaisha パケット転送装置、パケット転送ネットワークシステム、および、端末装置
CN1989548B (zh) 2004-07-20 2010-12-08 松下电器产业株式会社 语音解码装置及补偿帧生成方法
US7738561B2 (en) * 2004-11-16 2010-06-15 Industrial Technology Research Institute MPEG-4 streaming system with adaptive error concealment
KR20060101889A (ko) * 2005-03-22 2006-09-27 엘지전자 주식회사 디지털 오디오의 신호 처리 방법 및 장치
JP4261506B2 (ja) * 2005-03-31 2009-04-30 株式会社東芝 無線通信装置及び適法制御方法
US7177804B2 (en) 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
US7411528B2 (en) * 2005-07-11 2008-08-12 Lg Electronics Co., Ltd. Apparatus and method of processing an audio signal
US7623725B2 (en) * 2005-10-14 2009-11-24 Hewlett-Packard Development Company, L.P. Method and system for denoising pairs of mutually interfering signals
WO2007084475A2 (en) * 2006-01-17 2007-07-26 Thomson Licensing Methods and apparatus for low complexity error resilient motion estimation and coding mode selection
KR100763207B1 (ko) 2006-05-03 2007-10-04 삼성전자주식회사 비압축 aⅴ 데이터를 송수신하는 방법, 장치, 및 전송프레임 구조
US8798172B2 (en) * 2006-05-16 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
US7610195B2 (en) 2006-06-01 2009-10-27 Nokia Corporation Decoding of predictively coded data using buffer adaptation
EP1901496B1 (en) 2006-09-12 2010-09-01 Panasonic Corporation Link adaptation dependent on control signaling
KR101292771B1 (ko) * 2006-11-24 2013-08-16 삼성전자주식회사 오디오 신호의 오류은폐방법 및 장치
KR100862662B1 (ko) * 2006-11-28 2008-10-10 삼성전자주식회사 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치
KR101291193B1 (ko) * 2006-11-30 2013-07-31 삼성전자주식회사 프레임 오류은닉방법
CN101569198A (zh) * 2007-05-07 2009-10-28 松下电器产业株式会社 解码装置以及解码方法
US20080301536A1 (en) * 2007-05-31 2008-12-04 Interdigital Technology Corporation Channel coding and rate matching for lte control channels
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
CN101261833B (zh) * 2008-01-24 2011-04-27 清华大学 一种使用正弦模型进行音频错误隐藏处理的方法
US8301440B2 (en) * 2008-05-09 2012-10-30 Broadcom Corporation Bit error concealment for audio coding systems
JP2009276890A (ja) 2008-05-13 2009-11-26 Hitachi Systems & Services Ltd データ通信の誤り検出方法
KR101228165B1 (ko) * 2008-06-13 2013-01-30 노키아 코포레이션 프레임 에러 은폐 방법, 장치 및 컴퓨터 판독가능한 저장 매체
WO2010000303A1 (en) * 2008-06-30 2010-01-07 Nokia Corporation Speech decoder with error concealment
KR101250309B1 (ko) 2008-07-11 2013-04-04 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 에일리어싱 스위치 기법을 이용하여 오디오 신호를 인코딩/디코딩하는 장치 및 방법
PL2304719T3 (pl) * 2008-07-11 2017-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder audio, sposoby dostarczania strumienia audio oraz program komputerowy
KR101756834B1 (ko) 2008-07-14 2017-07-12 삼성전자주식회사 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치
EP2329654B1 (en) * 2008-09-26 2014-08-06 Telegent Systems, Inc. Devices of digital video reception and output having error detection and concealment circuitry and techniques
TWI580272B (zh) 2009-01-30 2017-04-21 英特矽爾美國有限公司 混合格式媒體傳輸的系統及方法
EP2408132A4 (en) * 2009-03-09 2014-07-09 Fujitsu Ltd DATA TRANSFER DEVICE AND DATA TRANSFER DEVICE CONTROL METHOD
US8300979B2 (en) * 2009-07-29 2012-10-30 Hewlett-Packard Development Company, L.P. Method and system for robust universal denoising of noisy data sets
US8625692B2 (en) * 2009-09-28 2014-01-07 Samsung Electronics Co., Ltd. Transmission/reception apparatus and method for improving throughput in a multi-input multi-output communication system
RU2591011C2 (ru) * 2009-10-20 2016-07-10 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Кодер аудиосигнала, декодер аудиосигнала, способ кодирования или декодирования аудиосигнала с удалением алиасинга (наложения спектров)
US8428959B2 (en) * 2010-01-29 2013-04-23 Polycom, Inc. Audio packet loss concealment by transform interpolation
EP2362658A1 (en) * 2010-02-26 2011-08-31 Research In Motion Limited Encoding and decoding methods and devices employing dual codesets
EP2614592B1 (en) * 2010-09-09 2018-06-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Entropy encoding and decoding scheme
CN102034478B (zh) * 2010-11-17 2013-10-30 南京邮电大学 基于压缩感知和信息隐藏的语音保密通信系统设计方法
BR112013020324B8 (pt) * 2011-02-14 2022-02-08 Fraunhofer Ges Forschung Aparelho e método para supressão de erro em fala unificada de baixo atraso e codificação de áudio
CN102163430B (zh) * 2011-05-06 2012-09-26 中国科学技术大学苏州研究院 采用信息隐藏技术进行amr-wb语音编码或解码的方法
CN103688306B (zh) * 2011-05-16 2017-05-17 谷歌公司 对被编码为连续帧序列的音频信号进行解码的方法和装置
JP2012242785A (ja) * 2011-05-24 2012-12-10 Sony Corp 信号処理装置、信号処理方法、およびプログラム
KR102172279B1 (ko) 2011-11-14 2020-10-30 한국전자통신연구원 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법
US9203757B2 (en) * 2012-03-22 2015-12-01 Texas Instruments Incorporated Network throughput using multiple reed-solomon blocks
PL2874149T3 (pl) * 2012-06-08 2024-01-29 Samsung Electronics Co., Ltd. Sposób i urządzenie do ukrywania błędu ramki oraz sposób i urządzenie do dekodowania audio
US9823745B1 (en) * 2012-08-30 2017-11-21 Atheer, Inc. Method and apparatus for selectively presenting content
US10147232B2 (en) * 2012-08-30 2018-12-04 Atheer, Inc. Method and apparatus for selectively presenting content
WO2014045739A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
CN107481725B (zh) 2012-09-24 2020-11-06 三星电子株式会社 时域帧错误隐藏设备和时域帧错误隐藏方法
KR101726205B1 (ko) 2012-11-07 2017-04-12 돌비 인터네셔널 에이비 감소된 복잡성 변환기 snr 계산
CA2916150C (en) 2013-06-21 2019-06-18 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method realizing improved concepts for tcx ltp
MX355091B (es) * 2013-10-18 2018-04-04 Fraunhofer Ges Forschung Concepto para codificar una señal de audio y decodificar una señal de audio usando información de conformación espectral relacionada con la voz.
PT3285254T (pt) 2013-10-31 2019-07-09 Fraunhofer Ges Forschung Descodificador de áudio e método para fornecer uma informação de áudio descodificada utilizando uma ocultação de erro com base num sinal de excitação no domínio de tempo
EP2922056A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
NO2780522T3 (ko) 2014-05-15 2018-06-09
CN104021769B (zh) * 2014-05-30 2016-06-15 京东方科技集团股份有限公司 一种移位寄存器、栅线集成驱动电路及显示屏
TWI602172B (zh) * 2014-08-27 2017-10-11 弗勞恩霍夫爾協會 使用參數以加強隱蔽之用於編碼及解碼音訊內容的編碼器、解碼器及方法
KR102547480B1 (ko) 2014-12-09 2023-06-26 돌비 인터네셔널 에이비 Mdct-도메인 에러 은닉
US20160171740A1 (en) 2014-12-15 2016-06-16 Calay Venture S.à r.l. Real-time method for collaborative animation
US10756997B2 (en) 2015-09-28 2020-08-25 Cybrook Inc. Bandwidth adjustment for real-time video transmission
WO2017081874A1 (ja) 2015-11-13 2017-05-18 株式会社日立国際電気 音声通信システム
WO2017129270A1 (en) 2016-01-29 2017-08-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for improving a transition from a concealed audio signal portion to a succeeding audio signal portion of an audio signal
CN109313905B (zh) * 2016-03-07 2023-05-23 弗劳恩霍夫应用研究促进协会 隐藏音频帧丢失的错误隐藏单元、音频解码器及相关方法
CN109155134B (zh) * 2016-03-07 2023-05-23 弗劳恩霍夫应用研究促进协会 隐藏音频帧丢失的错误隐藏单元、音频解码器和相关方法
BR112018067944B1 (pt) * 2016-03-07 2024-03-05 Fraunhofer - Gesellschaft Zur Förderung Der Angewandten Forschung E.V Unidade de ocultação de erro, método de ocultação de erro,decodificador de áudio, codificador de áudio, método para fornecer uma representação de áudio codificada e sistema
EP3273602B1 (en) * 2016-07-19 2022-01-26 MediaTek Inc. Low complexity rate matching design for polar codes
US10312945B2 (en) * 2017-02-13 2019-06-04 Lg Electronics Inc. Channel coding method using concatenated code structure and apparatus therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010108051A (ko) * 1998-12-28 2001-12-07 슈베르트 헬무트 오디오 신호를 코딩 또는 디코딩하는 방법 및 디바이스
KR20070110311A (ko) * 2005-12-16 2007-11-16 코딩 테크놀러지스 에이비 데이터의 중요도에 따라 변형된 데이터 스트림을 생성하는장치 및 그 데이터 스트림을 해석하는 장치
KR20150099615A (ko) * 2013-06-19 2015-08-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 프로그램 정보 또는 서브스트림 구조 메타데이터를 갖는 오디오 인코더 및 디코더

Also Published As

Publication number Publication date
KR20230098370A (ko) 2023-07-03
CA3129610A1 (en) 2020-08-20
JP2023145493A (ja) 2023-10-11
KR102640740B1 (ko) 2024-02-27
KR102662188B1 (ko) 2024-05-03
EP3924963A1 (en) 2021-12-22
JP7358490B2 (ja) 2023-10-10
ZA202105722B (en) 2022-07-27
TWI748339B (zh) 2021-12-01
MX2021009731A (es) 2021-09-08
KR20230147747A (ko) 2023-10-23
TWI745862B (zh) 2021-11-11
AU2020220383C1 (en) 2023-07-06
WO2020164753A1 (en) 2020-08-20
JP2022520609A (ja) 2022-03-31
WO2020164752A1 (en) 2020-08-20
US20210375295A1 (en) 2021-12-02
SG11202108673QA (en) 2021-09-29
KR20210125534A (ko) 2021-10-18
AU2023204176A1 (en) 2023-07-20
JP7472154B2 (ja) 2024-04-22
KR20210118948A (ko) 2021-10-01
AU2023226770A1 (en) 2023-09-28
EP4109444A1 (en) 2022-12-28
BR112021016022A2 (pt) 2021-10-05
JP2022521487A (ja) 2022-04-08
CN113491080A (zh) 2021-10-08
AU2020221993A1 (en) 2021-10-07
BR112021015608A2 (pt) 2021-10-05
TW202101426A (zh) 2021-01-01
US20230274750A1 (en) 2023-08-31
AU2020221602A1 (en) 2021-10-07
CA3129616A1 (en) 2020-08-20
ZA202105721B (en) 2022-07-27
AU2023204659A1 (en) 2023-08-03
WO2020164751A1 (en) 2020-08-20
JP2023175750A (ja) 2023-12-12
JP2022520608A (ja) 2022-03-31
EP4369334A2 (en) 2024-05-15
BR112021015533A2 (pt) 2021-10-05
KR20210143177A (ko) 2021-11-26
TW202044779A (zh) 2020-12-01
AU2020220383B2 (en) 2023-04-13
SG11202108674TA (en) 2021-09-29
CN113490981A (zh) 2021-10-08
KR102637530B1 (ko) 2024-02-19
AU2020220383A1 (en) 2021-10-07
JP7348297B2 (ja) 2023-09-20
US20210385012A1 (en) 2021-12-09
MX2021009733A (es) 2021-09-08
SG11202108672XA (en) 2021-09-29
TW202044777A (zh) 2020-12-01
CA3205152A1 (en) 2020-08-20
BR112021015532A2 (pt) 2021-10-05
AU2020221993B2 (en) 2023-05-18
CA3128781A1 (en) 2020-08-20
US11875806B2 (en) 2024-01-16
AU2023216863A1 (en) 2023-09-07
EP3925103A1 (en) 2021-12-22
ZA202105719B (en) 2022-06-29
CN113544773A (zh) 2021-10-22
TW202044231A (zh) 2020-12-01
US20210366498A1 (en) 2021-11-25
KR20230147748A (ko) 2023-10-23
TWI797422B (zh) 2023-04-01
EP4239924A3 (en) 2023-11-15
US20230230606A1 (en) 2023-07-20
MX2021009728A (es) 2021-10-13
US20220014310A1 (en) 2022-01-13
AU2020223488A1 (en) 2021-10-07
EP3925105A2 (en) 2021-12-22
CN113491079A (zh) 2021-10-08
CA3231332A1 (en) 2020-08-20
CA3128783A1 (en) 2020-08-20
JP2024026178A (ja) 2024-02-28
EP3925104A2 (en) 2021-12-22
SG11202108537YA (en) 2021-09-29
EP4239924A2 (en) 2023-09-06
MX2021009729A (es) 2021-10-26
TWI785309B (zh) 2022-12-01
CA3231339A1 (en) 2020-08-20
JP2022520816A (ja) 2022-04-01
ZA202105720B (en) 2022-07-27

Similar Documents

Publication Publication Date Title
KR102637530B1 (ko) 오디오 송신기 프로세서, 오디오 수신기 프로세서 및 관련 방법 및 컴퓨터 프로그램
US7936785B2 (en) Apparatus for generating and interpreting a data stream modified in accordance with the importance of the data
WO2020165262A2 (en) Audio transmitter processor, audio receiver processor and related methods and computer programs
US20070156725A1 (en) Apparatus for Generating and Interpreting a Data Stream with Segments having Specified Entry Points
TWI484479B (zh) 用於低延遲聯合語音及音訊編碼中之錯誤隱藏之裝置和方法
EP2805325A1 (en) Devices for redundant frame coding and decoding
US12009002B2 (en) Audio transmitter processor, audio receiver processor and related methods and computer programs
RU2782730C1 (ru) Процессор передатчика звуковых сигналов, процессор приемника звуковых сигналов и связанные с ними способы и носители данных
CN1343390A (zh) 产生数据流的设备和方法和读取数据流的设备和方法
JP2003526261A (ja) 誤った信号パラメータを検出するエラー隠蔽方法
US6625779B1 (en) Transmission channel error detection code addition apparatus and error detection apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant