KR20120013885A - 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체 - Google Patents

오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체 Download PDF

Info

Publication number
KR20120013885A
KR20120013885A KR1020110053370A KR20110053370A KR20120013885A KR 20120013885 A KR20120013885 A KR 20120013885A KR 1020110053370 A KR1020110053370 A KR 1020110053370A KR 20110053370 A KR20110053370 A KR 20110053370A KR 20120013885 A KR20120013885 A KR 20120013885A
Authority
KR
South Korea
Prior art keywords
data
additional data
marker
additional
information
Prior art date
Application number
KR1020110053370A
Other languages
English (en)
Other versions
KR101819027B1 (ko
Inventor
정종훈
이철우
이남숙
이상훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/198,914 priority Critical patent/US9514768B2/en
Priority to CN201110225500.1A priority patent/CN102376328B/zh
Publication of KR20120013885A publication Critical patent/KR20120013885A/ko
Application granted granted Critical
Publication of KR101819027B1 publication Critical patent/KR101819027B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00992Circuits for stereophonic or quadraphonic recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00014Time or data compression or expansion the compressed signal being an audio signal
    • G11B2020/00057MPEG-1 or MPEG-2 audio layer III [MP3]

Abstract

메인 데이터의 전단에 인접하여 배치되는 종료 마커 및 상기 종료 마커의 전단에 인접하여 배치되는 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 단계, 상기 종료 마커가 존재하는지 확인하는 단계, 및 상기 종료 마커가 존재하면, 상기 데이터 길이 정보를 이용하여 상기 부가 데이터를 추출하는 단계를 포함하며, 부가 데이터를 빠르고 정확하게 추출할 수 있는 오디오 재생 방법이 기재되어 있다.

Description

오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체{Reproducing method for audio and reproducing apparatus for audio thereof, and information storage medium}
본원 발명은 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체에 관한 것이다.
더욱 상세하게는, 오디오 스트림에서 부가 데이터를 빠르게 추출 및 디코딩할 수 있는 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체에 관한 것이다.
오디오 신호를 전송하기 위한 규격으로는 대표적으로 MPEG(Moving Picture Experts Group)을 들 수 있다. 구체적으로, MPEG에서 오디오 신호의 압축 및 전송과 관련된 규격으로는 MPEG1 Layer-3(MP3) 규격이 있다.
MP3 규격에서는 압축 가능한 오디오 신호가 2개의 스테리오 채널에 한정된다. 이러한 제약 조건을 극복하기 위해, MP3 규격에 따른 데이터 스트림 내에 부가 데이터를 할당하고, 상기 부가 데이터 내에 다수개의 채널 신호를 압축 및 복호화하여 사용하고 있다.
MP3 규격상 부가 데이터의 위치를 식별하여 디코딩 하기 위해서는, 데이터 스트림의 해당 프레임을 모두 디코딩하여야 한다. 즉, 부가 데이터는 해당 프레임의 디코딩이 완료된 이후에나 추출 및 디코딩이 가능하다.
그러므로, 부가 데이터를 빠르게 추출하여 이용할 수 있도록 하는 방법 및 장치를 제공할 필요가 있다.
본원 발명은 데이터 스트림에서 부가 데이터를 빠르게 추출 및 디코딩할 수 있는 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체의 제공을 목적으로 한다.
또한, 본원 발명은 부가 데이터를 정확하게 추출 및 디코딩하여, 부가 데이터의 디코딩 에러를 감소시킬 수 있는 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체의 제공을 목적으로 한다.
본 발명의 일 실시예에 따른 오디오 재생 방법은 헤더, 사이드 정보, 메인 데이터, 및 상기 메인 데이터의 전단에 인접하여 배치되는 종료 마커 및 상기 종료 마커의 전단에 인접하여 배치되는 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 단계, 상기 사이드 정보에 포함되는 상기 메인 데이터의 시작 위치 정보를 이용해, 상기 종료 마커가 존재하는지 확인하는 단계, 및 상기 종료 마커가 존재하면, 상기 데이터 길이 정보를 이용하여 상기 부가 데이터를 추출하는 단계를 포함한다.
또한, 상기 종료 마커가 존재하는지 확인하는 단계는 상기 메인 데이터의 시작 위치를 기준으로 전단에 인접한 데이터 블록으로 이동하는 단계, 및 상기 이전 데이터 블록에 상기 종료 마커가 존재하는지 확인하는 단계를 포함할 수 있다.
또한, 본 발명의 일 실시예에 따른 오디오 재생 방법은 추출된 상기 부가 데이터를 디코딩하는 단계를 더 포함할 수 있다.
또한, 상기 부가 데이터를 추출하는 단계는 상기 종료 마커가 존재하면 상기 종료 마커의 전단에 인접하는 상기 데이터 길이 정보를 추출하는 단계, 상기 종료 마커, 상기 메인 데이터의 시작 위치 정보 및 상기 데이터 길이 정보 중 적어도 하나를 이용하여 상기 부가 데이터의 위치를 계산하는 단계, 및 상기 부가 데이터를 추출 및 디코딩하는 단계를 포함할 수 있다.
또한, 상기 데이터 스트림을 입력받는 단계는 상기 부가 데이터의 시작 위치에 배치되는 시작 마커, 상기 시작 마커에 후속하여 배치되는 부가 메인 데이터, 상기 데이터 길이 정보 및 상기 종료 마커를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 단계를 포함할 수 있다.
또한, 상기 부가 데이터를 추출하는 단계는 상기 메인 데이터의 시작 위치 정보, 상기 종료 마커 및 상기 데이터 길이 정보 중 적어도 하나를 이용하여 상기 부가 데이터의 시작 위치를 계산하는 단계, 및 상기 시작 위치에 상기 시작 마커가 존재하는지 확인하는 단계를 더 포함할 수 있다.
또한, 상기 부가 데이터를 추출하는 단계는 상기 시작 마커가 존재하면, 상기 부가 데이터를 추출 및 디코딩하는 단계를 더 포함할 수 있다.
또한, 본 발명의 일 실시예에 따른 오디오 재생 방법은 상기 헤더에 포함되는 동기 워드를 검색하는 단계, 및 검색된 상기 동기 워드를 이용하여, 상기 헤더 및 상기 사이드 정보를 디코딩하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 오디오 재생 장치는 헤더, 사이드 정보, 메인 데이터, 및 상기 메인 데이터의 전단에 인접하여 배치되는 종료 마커 및 상기 종료 마커의 전단에 인접하여 배치되는 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 오디오 입력부, 및 상기 사이드 정보에 포함되는 상기 메인 데이터의 시작 위치 정보를 이용해 상기 종료 마커가 존재하는지 확인하고, 상기 종료 마커가 존재하면 상기 데이터 길이 정보를 이용하여 상기 부가 데이터를 추출하는 디코더를 포함한다.
본 발명의 일 실시예에 따른 정보 저장 매체는 헤더, 사이드 정보, 메인 데이터, 및 상기 메인 데이터의 전단에 인접하여 배치되는 종료 마커, 및 상기 종료 마커의 전단에 인접하는 배치되며 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 것을 특징으로 하는 데이터 스트림을 저장한다.
도 1은 본 발명의 일 실시예에 따른 오디오 재생 방법을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 정보 저장 매체에 저장되는 데이터 스트림의 구조를 나타내는 도면이다.
도 3은 본 발명에서 이용되는 부가 데이터의 구조를 나타내는 도면이다.
도 4는 본 발명의 다른 실시예에 따른 오디오 재생 방법을 나타내는 도면이다.
도 5는 도 4의 443 단계를 상세하게 나타내는 일 도면이다.
도 6은 도 4의 443 단계를 상세하게 나타내는 다른 도면이다.
도 7은 본 발명의 일 실시예에 따른 오디오 재생 장치를 나타내는 도면이다.
도 8은 본 발명의 다른 실시예에 따른 오디오 재생 장치를 나타내는 도면이다.
MP3 규격을 준수하면서 MP3 규격에서의 채널 개수 제한을 극복하여 채널을 확장하기 위하여, MP3 데이터 스트림 내의 부가 데이터가 이용될 수 있다.
또는, MP3 규격에 따른 오디오 재생 장치의 성능 향상을 위하여 사용 가능하다. 예를 들어, 스테리오 오디오 신호의 압축 및 복원을 확장하여 다채널 압축 및 복원을 구현할 수 있다. 구체적으로, 부가 데이터 내에서, 파라메트릭 멀티채널 압축방식을 사용하여 다채널 오디오 신호의 압축 및 복원을 구현할 수 있다. 또한, 메인 데이터의 고주파 영역 신호가 손실된 경우, 부가 데이터 내에 손실된 고주파 영역 신호를 복원하기 위한 데이터를 삽입할 수 있다.
또는, 부가 데이터(extra data) 필드를 이용하여, 가사, 썸네일(thumb nail) 이미지, 다언어(multilingual) 자막 제공, 가라오케 기능, 버츄얼 서라운드(virtual surround) 등의 정보를 추가로 제공할 수 있다. 또는, 학습용 데이터 정보를 부가 데이터 필드에 삽입하여, 오디오 데이터와 동시에 또는 별도로 사용자에게 제공할 수도 있다.
전술한 바와 같이, 부가 데이터를 이용하여 다양하고 편리한 기능을 제공할 수 있다. 따라서, 부가 데이터를 더욱 빠르고 정확하게 디코딩하여 사용자에게 제공할 수 있는 오디오 재생 방법 및 그에 따른 오디오 재생 장치를 이하에서 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 오디오 재생 방법을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 오디오 재생 방법은 데이터 스트림을 입력받는다(110 단계). 구체적으로, 데이터 스트림은 오디오 신호를 재생하기 위한 오디오 스트림이다. 이하의 도 2 내지 도 8에서는, 입력되는 데이터 스트림이 오디오 스트림인 경우를 예로 들어 설명한다. 110 단계에서 입력되는 오디오 스트림의 구조는 이하에서 도 2를 참조하여 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 정보 저장 매체에 저장되는 데이터 스트림의 구조를 나타내는 도면이다.
도 2를 참조하면, 오디오 스트림은 연속되는 프레임(frame)들을 포함한다. 하나의 프레임(예를 들어, 220)은 헤더(header)(213)와 페이로드 데이터(payload data)로 구성된다. 페이로드 데이터는 하나의 프레임 신호에서 헤더(213)를 제외한 나머지 데이터이다. 구체적으로, 오디오 스트림의 일 프레임(220)은 헤더(213), 사이드 정보(side information)(214), 메인 데이터(main data)(211,215), 및 부가 데이터(extra data)(210)를 포함한다. 그리고, 보조 데이터(ancillary data)(216)를 더 포함할 수 있다.
MP3 규격에 있어서, 헤더(213)와 사이드 정보(214)는 고정된 크기를 갖고, 나머지 데이터인 메인 데이터(211, 215), 부가 데이터(210) 및 보조 데이터(216)는 가변적인 길이를 갖는다. 예를 들어, 헤더(213)는 32 비트의 길이를 갖고, 사이드 정보(214)는 스테리오(stereo) 오디오 데이터의 경우 256 비트의 길이를 갖는다. 또한, 메인 데이터(211,215)는 프레임 내에서 고정된 위치를 갖지 않는다. 따라서, 메인 데이터(211, 215)의 중간에 헤더(213) 및 사이드 정보(214)가 위치할 수 있다.
헤더(213)는 동기 워드(sync word)(212)를 포함한다. 동기 워드(212)는 헤더(213)가 시작되는 위치를 지시하는 식별자이다. 따라서, 동기워드(212)를 추출함으로써 헤더(213)의 시작 위치를 알 수 있다.
헤더(213)는 실질적인 오디오 데이터인 메인 데이터(215)를 재생하기 위해 필요한 정보들을 포함한다. 구체적으로, 헤더(213)는 MPEG 오디오 버전의 식별자(MPEG Audio Version ID), 비트 레이트(bit rate), 샘플링 주파수, 패딩 비트(padding bit), 채널 모드(channel mode), 및 채널 수 등을 포함할 수 있다.
사이드 정보(214)는 메인 데이터(215)를 디코딩하기 위해 필요한 정보를 포함한다. 구체적으로, 사이드 정보(214)는 메인 데이터(215)의 시작 위치를 지칭하는 메인 데이터 시작 정보(main_data_begin)를 포함한다.
메인 데이터(215)는 실질적인 오디오 데이터가 실려 있는 영역이다.
부가 데이터(210)는 전술한 바와 같이 오디오 스트림의 기능 확장을 위한 정보를 수록하는 공간이다. 구체적으로, 하나의 스트림에서 실질적인 오디오 데이터를 포함시킨 메인 데이터(211, 215)를 제외하고, 남는 부분을 부가 데이터(210)로 활용한다.
부가 데이터(210)의 상세 구성은 이하에서 도 3을 참조하여 상세히 설명한다.
보조 데이터(216)는 하나의 프레임(220)에서 남는 부분으로 버퍼 컨트롤(buffer control)을 수행하기 위해 존재하는 데이터이다. 보조 데이터(216)에는 실질적인 데이터가 삽입되지 않는다. 즉, 보조 데이터(216)는 오디오 스트림을 디코딩할 경우, 읽어서 버리는 데이터가 된다.
하나의 프레임은 부가 데이터(210)부터 보조 데이터(216)까지를 포함하는 프레임(220)이 될 수 있다. 또는, 보조 데이터(219)부터 메인 데이터(215)까지를 하나의 프레임(230)으로 정의할 수 있다.
본 발명에서 이용되는 오디오 스트림은 도 2에 도시된 바와 같이, 최초 메인 데이터(211)의 전단에 부가 데이터(210)가 위치한다. 전술한 메인 데이터 시작 정보(main_data_begin)는 메인 데이터들(211, 215) 중 최초로 오는 메인 데이터(211)의 시작 위치를 지칭한다. 구체적으로, 도 3에 도시된 바와 같이, 부가 데이터(210)는 메인 데이터 시작 정보(main_data_begin)가 지칭하는 메인 데이터(211)의 전단에 인접하여 배치된다.
도 3은 본 발명에서 이용되는 부가 데이터의 구조를 나타내는 도면이다. 도 3에 있어서, 부가 데이터(320) 및 메인 데이터((330)는 도 2의 부가 데이터(210) 및 메인 데이터((211)와 동일 대응되므로, 도 2에서와 중복되는 설명은 생략한다.
도 3을 참조하면, 부가 데이터(320)는 데이터 길이 정보(303) 및 종료 마커(304)를 포함한다. 또한, 부가 메인 데이터(extra main data)(302)를 포함한다.
부가 메인 데이터(extra main data)(302)는 오디오 스트림의 기능 확장을 위한 실질적인 정보가 포함되는 데이터 필드이다.
종료 마커(end marker)(304)는 부가 데이터의 종료 지점(P1)을 표시하는 데이터 필드이다. 또한, 종료 마커(304)는 부가 데이터(320)가 유효하게 존재함을 나타내는 정보를 포함할 수 있다. 여기서, 부가 데이터(320)의 종료 지점(P1)은 메인 데이터(330)의 시작 위치가 된다.
데이터 길이 정보(303)는 부가 데이터(230)의 전체 길이를 나타내는 정보이다. 데이터 길이 정보(303)는 도 3에 도시된 바와 같이, 종료 마커(304)의 전단에 인접하여 배치된다.
또한, 부가 데이터(320)는 시작 마커(start marker)(301)를 더 포함할 수 있다. 시작 마커(301)는 부가 데이터(320)의 시작 지점(P4)을 표시하는 데이터 필드이다.
도 3을 참조하면, 부가 데이터(320)에는 시작 마커(301), 부가 메인 데이터(302), 데이터 길이 정보(303), 및 종료 마커(304)가 순차적으로 배치될 수 있다.
이하에서는, 도 1, 도 2 및 도 3을 참조하여, 120 단계 및 130 단계를 설명한다.
110 단계에 계속하여, 사이드 정보(214)에 포함되는 메인 데이터(330)의 시작 위치 정보(main_data_begin)를 이용해, 종료 마커(304)가 존재하는지 확인한다(120 단계). 120 단계는 이하에서 도 4를 참조하여 상세히 설명한다.
종료 마커(304)가 존재하면, 부가 데이터(320)의 데이터 길이 정보(303)를 이용하여 상기 부가 데이터(320)를 추출한다(130 단계).
구체적으로, 부가 데이터(320)의 시작 위치(P4)는 종료 마커(304)가 존재하는 위치에서 데이터 길이 정보(303)에 따른 데이터 길이만큼 역산하여 구할 수 있다. 즉, 종료 마커(304)가 존재하는 것으로 확인되면, 부가 데이터(320)가 유효화게 존재하는 것이라 할 수 있다. 또한, 부가 데이터(320)의 시작 위치(P4) 및 종료 마커(304)의 위치(P1)를 알면, 부가 데이터(320)를 추출할 수 있다.
도 4는 본 발명의 다른 실시예에 따른 오디오 재생 방법을 나타내는 도면이다. 도 4에 있어서, 410 및 450 단계는 각각 도 1의 110 및 130 단계에 동일 대응된다. 또한, 441 단계 및 443 단계를 포함하는 440 단계는 도 1의 120 단계에 대응된다. 따라서, 도 4에 있어서, 도 1에서와 중복되는 설명은 생략한다. 또한, 본 발명의 다른 실시예에 따른 오디오 재생 방법은 420, 430 및 460 단계 중 적어도 하나를 더 포함할 수 있다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 오디오 재생 방법은 오디오 스트림을 입력받는다(410 단계). 410 단계에서 입력되는 오디오 스트림은 도 2에서 설명한 오디오 스트림(200) 또는 도 3의 오디오 스트림이 될 수 있다. 이하에서는 도 2, 도 3 및 도 4를 참조하며, 420 및 430 단계를 설명한다.
입력된 오디오 스트림(200)에 있어서, 헤더(213)에 포함되는 동기 워드(212)를 검색한다(420 단계).
검색된 동기 워드(212)를 이용하여, 헤더(213) 및 사이드 정보(214)를 디코딩한다(430 단계). 동기 워드(212)는 헤더(213)의 시작 위치를 표시하는 식별자이므로, 동기 워드(212)를 검색하면 헤더(213)의 시작 위치를 감지할 수 있다. 그리고, 동기 워드(212)가 검색되면, 헤더(213)를 디코딩 할 수 있다.
사이드 정보(214)를 디코딩하면, 메인 데이터(211)가 시작되는 위치를 나타내는 메인 데이터(211)의 시작 위치 정보(main_data_begin) 정보를 구할 수 있다.
따라서, 사이드 정보(214)를 디코딩하여 메인 데이터 시작 정보(main_data_begin)를 추출하고, 추출된 메인 데이터 시작 정보(main_data_begin)를 이용하여 메인 데이터(211)의 시작 위치(P1)로 이동한다(441 단계).
계속하여, 부가 데이터(320)의 종료 마커(304)가 존재하는지 확인한다(443 단계). 이하에서는, 도 3 및 도 4를 참조하여, 441, 443, 및 450 단계를 상세히 설명한다.
구체적으로, 메인 데이터(330)의 시작 위치(P1)를 기준으로, 메인 데이터(330)의 전단에 인접한 데이터 블록으로 이동한다. 즉, P1 지점에서 P2 지점으로 이동한다. 전단에 인접한 데이터 블록에는 부가 데이터(320)의 종료 마커(304)가 존재한다. 따라서, 이동한 이전 데이터 블록에 종료 마커(304)가 존재하는지 확인함으로써, 종료 마커(304)의 존재를 확인할 수 있다.
종료 마커(304)가 존재하는 것으로 확인되면 부가 데이터(320)가 유효하게 존재하는 것이므로, 부가 데이터(320)의 길이 정보(303)를 이용하여 부가 데이터(320)를 추출한다(450 단계).
도 5는 도 4의 443 단계를 상세하게 나타내는 일 도면이다. 도 5에 있어서, 도시된 553 단계 및 560 단계는 도 4의 443 단계 및 450 단계에 동일 대응된다. 따라서, 도 4의 441 단계 이후에 510 단계가 수행될 수 있으며, 530 단계 이후에 450 단계와 동일한 560 단계가 수행될 수 있다. 도 5에 있어서, 도 4와 중복되는 설명은 생략한다.
도 5를 참조하면, 메인 데이터(330)의 시작 위치(P1)를 기준으로, 메인 데이터(330)의 전단에 인접한 데이터 블록으로 이동하여 종료 마커(304)가 존재하는지 확인한다(510 단계).
종료 마커(304)가 존재하지 않으면, 부가 데이터(320)가 유효하게 존재하지 않는 것으로 판단할 수 있다. 따라서, 종료 마커(304)가 존재하지 않으면 부가 데이터의 추출 및 디코딩 없이 절차를 종료한다.
종료 마커(304)가 존재하면, 종료 마커(304)의 이전 데이터 블록으로 이동하여 부가 데이터의 데이터 길이 정보(303)를 추출한다(520 단계).
구체적으로, 종료 마커(304)의 이전 데이터 블록인 P3 지점으로 이동한다. 종료 마커(304)의 이전 데이터 블록에는 부가 데이터(320)의 데이터 길이 정보(303)가 위치하므로, 종료 마커(304)의 이전 데이터 블록에서 데이터 길이 정보(303)를 추출할 수 있다.
데이터 길이 정보(303)를 독출하여 부가 데이터(320)의 시작 위치(P4)를 계산한다(530 단계). 부가 데이터(320)의 종료 마커(304) 또는 메인 데이터 시작 정보(main_data_begin), 및 부가 데이터(320)의 시작 위치(P4)를 알면, 부가 데이터(320)를 위치를 구할 수 있다.
530 단계의 계산 결과를 이용하여, 부가 데이터(320)를 추출한다(530 단계).
계속하여, 부가 데이터(320)를 디코딩한다(560 단계).
도 6은 도 4의 443 단계를 상세하게 나타내는 다른 도면이다.
도 6은 도 4의 443 단계 및 도 5의 553 단계를 상세하게 나타내는 일 도면이다. 도 6에 도시된 653 단계 및 660 단계는 도 5의 553 단계 및 560 단계에 동일 대응된다. 또한, 도 6에 도시된 653 단계 및 660 단계는 도 4의 443 단계 및 450 단계에 동일 대응된다. 도 6에 있어서, 도 4 및 도 5와 중복되는 설명은 생략한다.
또한, 도 6의 610, 620 및 630 단계는 도 5의 510, 520 및 530 단계에 동일 대응된다. 즉, 도 6의 653 단계는 도 5의 553 단계에 비하여, 640 단계를 더 포함할 수 있다.
도 6을 참조하면, 630 단계에서 계산된 부가 데이터(320)의 시작 위치(P4)로 이동하여, 부가 데이터(320)의 시작 마커(301)가 존재하는지 확인한다(640 단계).
부가 데이터(320)의 시작 마커(301)가 존재하는지 확인함으로써, 부가 데이터(320)가 유효하게 존재한다는 것을 다시 한 번 확인할 수 있다.
부가 데이터의 종료 마커(304)가 존재하는 것으로 확인되고(610 단계), 부가 데이터(320)의 시작 마커(301)가 존재하는 것으로 확인되면(640 단계), 부가 데이터(320)를 추출한다(660 단계).
종래에는, 부가 데이터를 이용하기 위해서는 프레임 데이터를 모두 디코딩하여야만 부가 데이터를 추출 및 디코딩할 수 있었다. 예를 들어, 부가 데이터에 메인 데이터와 관련된 썸네일(thumb nail) 이미지가 기록 저장된 경우, 썸네일 이미지를 디스플레이하기 위해서는, 수신된 프레임 데이터의 메인 데이터를 모두 디코딩하여 부가 데이터를 추출할 수 있었다. 즉, 메인 데이터를 모두 디코딩하기 이전에, 부가 데이터를 직접 추출 및 디코딩할 수 없었다.
본 발명의 일 실시예에 따른 오디오 재생 방법은, 메인 데이터 시작 정보(main_data_begin)가 지칭하는 메인 데이터의 전단에 인접하여 부가 데이터를 배치한다. 그리고, 오디오 스트림의 반대 방향으로 부가 데이터를 독출한다. 즉, 도 3의 독출 방향(310)으로 부가 데이터의 종료 마커(304) 및 데이터 길이 정보(303)를 독출한다.
그에 따라, 본 발명에 따른 오디오 재생 방법은 메인 데이터가 모두 디코딩되기 이전에도 부가 데이터를 정확하게 추출할 수 있다.
그에 따라서, 부가 데이터를 빠르게 디코딩 및 이용할 수 있다.
또한, 본 발명의 다른 실시예에 오디오 재생 방법은 부가 데이터의 종료 마커가 존재하는지, 또는 부가 데이터의 종료 마커 및 시작 마커가 존재하는지 확인한 후 부가 데이터를 추출한다. 본원에서는, 부가 데이터가 유효하게 존재하는 경우에 한하여 부가 데이터를 추출함으로써, 부가 데이터를 잘못 추출하거나 유효하지 못한 부가 데이터를 추출함으로써 발생하는 디코딩 에러를 방지할 수 있다.
도 7은 본 발명의 일 실시예에 따른 오디오 재생 장치를 나타내는 도면이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 오디오 재생 장치(700)는 오디오 입력부(710) 및 디코더(720)를 포함한다. 오디오 재생 장치(700)는 도 2 및 도 3에서 전술한 오디오 스트림을 입력받아 디코딩한다. 이하에서는 도 2, 3 및 7을 참조하여 본 발명의 일 실시예에 따른 오디오 재생 장치(700)를 설명한다.
오디오 입력부(710)는 헤더(213), 사이드 정보(214), 메인 데이터(211, 215), 및 상기 메인 데이터(211)의 전단에 인접하여 배치되는 부가 데이터(210)를 포함하는 데이터 스트림을 입력받는다. 데이터 스트림은 오디오 스트림일 수 있으며, 오디오 스트림은 연속되는 프레임(frame)들을 포함한다.
구체적으로, 오디오 스트림(200)은 메인 데이터(330)의 전단에 인접하여 배치되는 종료 마커(304) 및 종료 마커(304)의 전단에 인접하는 데이터 길이 정보(303)를 포함하는 부가 데이터(32)를 포함한다.
구체적으로, 오디오 입력부(710)는 전술한 도 1의 110 단계 및 또는 도 4의 410 단계의 동작을 수행한다.
디코더(720)는 사이드 정보(320)에 포함되는 메인 데이터 시작 정보(main_data_begin)를 이용해 종료 마커(304)가 존재하는지 확인하고, 종료 마커(304)가 존재하면 데이터 길이 정보(303)를 이용하여 부가 데이터(302)를 추출한다.
구체적으로, 디코더(720)는 도 1에서 전술한 120 단계 및 130단계의 동작을 수행한다. 또는, 디코더(720)는 도 4에서 전술한 420, 430, 440, 450 및 460 단계 중 적어도 하나의 동작을 수행할 수 있다. 또는, 디코더(720)는 도 5에서 전술한 553 단계 및 560 단계를 수행할 수 있다. 또는, 디코더(720)는 도 6에서 전술한 653 단계 및 660 단계를 수행할 수 있다. 도 7에 있어서, 도 1, 도 4, 도 5 및 도 6에서와 중복되는 설명은 생략한다.
또한, 디코더(720)는 메인 데이터(330)의 시작 위치(P1)를 기준으로 전단에 인접한 데이터 블록으로 이동하고, 상기 이전 데이터 블록에 종료 마커(304)가 존재하는지 확인한다. 디코더(720)는 종료 마커(304)가 존재하는 것으로 확인되면, 부가 데이터(320)를 추출 및 디코딩한다.
또한, 디코더(720)는 종료 마커(304)가 존재하면, 종료 마커(304)의 전단에 인접하는 데이터 길이 정보인 데이터 길이 정보(303)를 추출한다. 그리고, 종료 마커(304) 및 추출된 데이터 길이 정보(303) 중 적어도 하나를 이용하여 부가 데이터(320)의 위치를 계산하며, 부가 데이터(320)를 추출 및 디코딩한다.
또한, 디코더(720)는 종료 마커(304) 및 데.,이터 길이 정보(303) 중 적어도 하나를 이용하여 부가 데이터(320)의 시작 위치(P4)를 계산한다. 그리고, 시작 위치(P4)에 시작 마커(301)가 존재하는지 확인한다. 디코더(720)는 시작 마커(301)가 존재하면, 부가 데이터(320)를 추출 및 디코딩한다.
도 8은 본 발명의 다른 실시예에 따른 오디오 재생 장치를 나타내는 도면이다. 도 8에서 오디오 입력부(810) 및 MP3 디코더(820)는 각각 도 7의 오디오 입력부(710) 및 디코더(720)와 동일 대응된다. 따라서, 도 7에서와 중복되는 설명은 생략한다.
MP3 디코더(820)는 도 7의 디코더(720)와 동일 대응되나, 구체적으로 MP3 규격에 따라 오디오 데이터를 디코딩하는 디코더이다. MP3 디코더(830)는 헤더(213) 및 사이드 정보(214)를 추출 및 디코딩하고, 그에 따라서 메인 데이터(211, 215)를 추출 및 디코딩한다. 그리고, 부가 데이터(210)를 추출 및 디코딩한다. 부가 데이터(210) 및 메인 데이터(211, 215)의 디코딩은 동시에 수행될 수 있으며, 또는 순차적으로 수행될 수도 있다.
또한, 도 8의 오디오 재생 장치(800)는 도 7의 오디오 재생 장치(700)에 비하여, 오디오 데이터 처리부(830) 및 출력부(840)를 더 포함한다.
오디오 데이터 처리부(830)는 MP3 디코더(820)를 통하여 디코딩 된 메인 데이터(211, 215) 및 부가 데이터(210)를 입력받고, 사용자가 시각 또는 청각적으로 인식할 수 있는 신호로 변환하여 출력한다.
구체적으로, 오디오 데이터 처리부(830)는 메인 데이터 처리부(831) 및 부가 데이터 처리부(832)를 포함한다.
메인 데이터 처리부(831) 디코딩 된 메인 데이터(211, 215)를 입력받고, 이를 사용자가 청각적으로 인식할 수 있는 오디오 신호로 변환하여 출력한다. 또한, 메인 데이터 처리부(831)는 오디오 신호의 음질을 개선하기 위한 노이즈 제거 처리, 에러 체크 처리 등을 수행할 수 있다.
부가 데이터 처리부(832)는 디코딩 된 부가 데이터(210)를 입력받고, 이를 대응되는 영상 및 음성 신호로 변환하여 출력한다. 예를 들어, 부가 데이터(210)가 메인 데이터(211, 215)에 대응되는 가사를 출력하기 위한 데이터일 경우, 부가 데이터 처리부(832)는 부가 데이터(210)에 포함되는 가사 데이터를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터가 소정 화면에 디스플레이 되어 출력될 수 있도록 그래픽 신호로 변환하여 출력할 수 있다.
출력부(840)는 오디오 신호 또는 영상 신호를 출력하여, 사용자가 청각 또는 시각적으로 인식할 수 있도록 한다.
구체적으로, 출력부(840)는 스피커 부(8410) 및 디스플레이 부(842)를 포함할 수 있다. 스피커 부(841)는 사용자가 청각적으로 인식할 수 있는 오디오 신호를 출력한다. 디스플레이 부(842)는 소정 영상을 디스플레한다. 예를 들어, 디스플레이 부(842)는 자막, 썸네일 이미지, 또는 학습용 데이터 정보 등을 디스플레이 할 수 있다.
또한, 도 7 및 도 8에서 설명한 본 발명에 따른 오디오 재생 장치의 동작은 도 1 내지 도 6을 참조하여 설명한 본 발명에 따른 오디오 재생 방법의 동작 구성과 실질적으로 동일하다. 따라서, 도 7 및 도 8에서 도시한 오디오 재생 장치에 있어서, 도 1 내지 도 6을 참조하여 설명한 오디오 재생 방법과 중복되는 설명은 생략한다.
또한 본 방법 발명은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드 또는 프로그램으로서 구현하는 것도 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드디스크, 플로피디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.
700, 800: 오디오 재생 장치
710, 720: 오디오 입력부
720, 820: 디코더
830: 오디오 데이터 처리부
831: 메인 데이터 처리부
832: 부가 데이터 처리부
840: 출력부
841: 스피커부
842: 디스플레이 부

Claims (18)

  1. 헤더, 사이드 정보, 메인 데이터, 및 상기 메인 데이터의 전단에 인접하여 배치되는 종료 마커 및 상기 종료 마커의 전단에 인접하여 배치되는 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 단계;
    상기 사이드 정보에 포함되는 상기 메인 데이터의 시작 위치 정보를 이용해, 상기 종료 마커가 존재하는지 확인하는 단계; 및
    상기 종료 마커가 존재하면, 상기 데이터 길이 정보를 이용하여 상기 부가 데이터를 추출하는 단계를 포함하는 것을 특징으로 하는 오디오 재생 방법.
  2. 제1항에 있어서, 상기 종료 마커가 존재하는지 확인하는 단계는
    상기 메인 데이터의 시작 위치를 기준으로 전단에 인접한 데이터 블록으로 이동하는 단계; 및
    상기 이전 데이터 블록에 상기 종료 마커가 존재하는지 확인하는 단계를 포함하는 것을 특징으로 하는 오디오 재생 방법.
  3. 제2항에 있어서,
    추출된 상기 부가 데이터를 디코딩하는 단계를 더 포함하는 것을 특징으로 하는 오디오 재생 방법.
  4. 제2항에 있어서, 상기 부가 데이터를 추출하는 단계는
    상기 종료 마커가 존재하면 상기 종료 마커의 전단에 인접하는 상기 데이터 길이 정보를 추출하는 단계;
    상기 종료 마커, 상기 메인 데이터의 시작 위치 정보 및 상기 데이터 길이 정보 중 적어도 하나를 이용하여 상기 부가 데이터의 위치를 계산하는 단계; 및
    상기 부가 데이터를 추출 및 디코딩하는 단계를 포함하는 것을 특징으로 하는 오디오 재생 방법.
  5. 제1항에 있어서, 상기 데이터 스트림을 입력받는 단계는
    상기 부가 데이터의 시작 위치에 배치되는 시작 마커, 상기 시작 마커에 후속하여 배치되는 부가 메인 데이터, 상기 데이터 길이 정보 및 상기 종료 마커를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 단계를 포함하는 것을 특징으로 하는 오디오 재생 방법.
  6. 제5항에 있어서, 상기 부가 데이터를 추출하는 단계는
    상기 메인 데이터의 시작 위치 정보, 상기 종료 마커 및 상기 데이터 길이 정보 중 적어도 하나를 이용하여 상기 부가 데이터의 시작 위치를 계산하는 단계; 및
    상기 시작 위치에 상기 시작 마커가 존재하는지 확인하는 단계를 더 포함하는 것을 특징으로 하는 오디오 재생 방법.
  7. 제6항에 있어서, 상기 부가 데이터를 추출하는 단계는
    상기 시작 마커가 존재하면, 상기 부가 데이터를 추출 및 디코딩하는 단계를 더 포함하는 것을 특징으로 하는 오디오 재생 방법.
  8. 제1항에 있어서,
    상기 헤더에 포함되는 동기 워드를 검색하는 단계; 및
    검색된 상기 동기 워드를 이용하여, 상기 헤더 및 상기 사이드 정보를 디코딩하는 단계를 더 포함하는 것을 특징으로 하는 오디오 재생 방법.
  9. 헤더, 사이드 정보, 메인 데이터, 및 상기 메인 데이터의 전단에 인접하여 배치되는 종료 마커 및 상기 종료 마커의 전단에 인접하여 배치되는 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 데이터 스트림을 입력받는 오디오 입력부; 및
    상기 사이드 정보에 포함되는 상기 메인 데이터의 시작 위치 정보를 이용해 상기 종료 마커가 존재하는지 확인하고, 상기 종료 마커가 존재하면 상기 데이터 길이 정보를 이용하여 상기 부가 데이터를 추출하는 디코더를 포함하는 것을 특징으로 하는 오디오 재생 장치.
  10. 제9항에 있어서, 상기 디코더는
    상기 메인 데이터의 시작 위치를 기준으로 전단에 인접한 데이터 블록으로 이동하고, 상기 데이터 블록에 상기 종료 마커가 존재하는지 확인하는 것을 특징으로 하는 오디오 재생 장치.
  11. 제10항에 있어서, 상기 디코더는
    추출된 상기 부가 데이터를 디코딩하는 것을 특징으로 하는 오디오 재생 장치.
  12. 제10항에 있어서, 상기 디코더는
    상기 종료 마커가 존재하면 상기 종료 마커의 전단에 인접하여 배치되는 상기 데이터 길이 정보를 추출하고, 상기 메인 데이터의 시작 위치 정보, 상기 종료 마커 및 상기 추출된 길이 정보 중 적어도 하나를 이용하여 상기 부가 데이터의 위치를 계산하여, 상기 부가 데이터를 추출 및 디코딩하는 것을 특징으로 하는 오디오 재생 장치.
  13. 제9항에 있어서, 상기 부가 데이터는
    상기 부가 데이터의 시작 위치에 배치되는 시작 마커; 및
    상기 시작 마커에 후속하여 배치되는 부가 메인 데이터를 더 포함하는 것을 특징으로 하는 오디오 재생 장치.
  14. 제13항에 있어서, 상기 디코더는
    상기 메인 데이터의 시작 위치 정보, 상기 종료 마커 및 상기 데이터 길이 정보 중 적어도 하나를 이용하여 상기 부가 데이터의 시작 위치를 계산하고, 상기 시작 위치에 상기 시작 마커가 존재하는지 확인하는 것을 특징으로 하는 오디오 재생 장치.
  15. 제14항에 있어서, 상기 디코더는
    상기 시작 마커가 존재하면, 상기 부가 데이터를 추출 및 디코딩하는 것을 특징으로 하는 오디오 재생 장치.
  16. 헤더;
    사이드 정보;
    메인 데이터; 및
    상기 메인 데이터의 전단에 인접하여 배치되는 종료 마커, 및 상기 종료 마커의 전단에 인접하는 배치되며 부가 데이터의 길이 정보인 데이터 길이 정보를 포함하는 부가 데이터를 포함하는 것을 특징으로 하는 데이터 스트림을 저장하는 정보 저장 매체.
  17. 제16항에 있어서, 상기 부가 데이터는
    상기 부가 데이터의 시작 위치에 배치되는 시작 마커; 및
    상기 시작 마커에 후속하여 인접하여 배치되는 부가 메인 데이터를 더 포함하는 것을 특징으로 하는 정보 저장 매체.
  18. 제17항에 있어서,
    상기 종료 마커는
    상기 부가 데이터의 종료 지점을 표시하는 데이터 필드이며,
    상기 시작 마커는
    상기 부가 데이터의 시작 지점을 표시하는 데이터 필드인 것을 특징으로 하는 정보 저장 매체.
KR1020110053370A 2010-08-06 2011-06-02 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체 KR101819027B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/198,914 US9514768B2 (en) 2010-08-06 2011-08-05 Audio reproducing method, audio reproducing apparatus therefor, and information storage medium
CN201110225500.1A CN102376328B (zh) 2010-08-06 2011-08-08 音频再现方法、音频再现装置和信息存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US37129410P 2010-08-06 2010-08-06
US61/371,294 2010-08-06

Publications (2)

Publication Number Publication Date
KR20120013885A true KR20120013885A (ko) 2012-02-15
KR101819027B1 KR101819027B1 (ko) 2018-01-17

Family

ID=45837281

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020110053370A KR101819027B1 (ko) 2010-08-06 2011-06-02 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체
KR1020110053369A KR20120013884A (ko) 2010-08-06 2011-06-02 신호 처리 방법, 그에 따른 엔코딩 장치, 디코딩 장치, 및 신호 처리 시스템
KR1020110056342A KR20120013887A (ko) 2010-08-06 2011-06-10 신호 처리 방법, 그에 따른 엔코딩 장치, 디코딩 장치, 및 정보 저장 매체
KR1020110069495A KR20120013892A (ko) 2010-08-06 2011-07-13 오디오 신호 처리 방법, 그에 따른 엔코딩 장치 및 그에 따른 디코딩 장치
KR1020110069498A KR101837084B1 (ko) 2010-08-06 2011-07-13 신호 처리 방법, 그에 따른 엔코딩 장치, 디코딩 장치, 및 정보 저장 매체
KR1020110069496A KR101837083B1 (ko) 2010-08-06 2011-07-13 디코딩 방법 및 그에 따른 디코딩 장치

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020110053369A KR20120013884A (ko) 2010-08-06 2011-06-02 신호 처리 방법, 그에 따른 엔코딩 장치, 디코딩 장치, 및 신호 처리 시스템
KR1020110056342A KR20120013887A (ko) 2010-08-06 2011-06-10 신호 처리 방법, 그에 따른 엔코딩 장치, 디코딩 장치, 및 정보 저장 매체
KR1020110069495A KR20120013892A (ko) 2010-08-06 2011-07-13 오디오 신호 처리 방법, 그에 따른 엔코딩 장치 및 그에 따른 디코딩 장치
KR1020110069498A KR101837084B1 (ko) 2010-08-06 2011-07-13 신호 처리 방법, 그에 따른 엔코딩 장치, 디코딩 장치, 및 정보 저장 매체
KR1020110069496A KR101837083B1 (ko) 2010-08-06 2011-07-13 디코딩 방법 및 그에 따른 디코딩 장치

Country Status (1)

Country Link
KR (6) KR101819027B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9838823B2 (en) 2013-04-27 2017-12-05 Intellectual Discovery Co., Ltd. Audio signal processing method
ES2932422T3 (es) 2013-09-17 2023-01-19 Wilus Inst Standards & Tech Inc Método y aparato para procesar señales multimedia
EP3062534B1 (en) 2013-10-22 2021-03-03 Electronics and Telecommunications Research Institute Method for generating filter for audio signal and parameterizing device therefor
WO2015099424A1 (ko) 2013-12-23 2015-07-02 주식회사 윌러스표준기술연구소 오디오 신호의 필터 생성 방법 및 이를 위한 파라메터화 장치
EP4294055A1 (en) 2014-03-19 2023-12-20 Wilus Institute of Standards and Technology Inc. Audio signal processing method and apparatus
CN106165454B (zh) 2014-04-02 2018-04-24 韦勒斯标准与技术协会公司 音频信号处理方法和设备
CN107409264B (zh) 2015-01-16 2021-02-05 三星电子株式会社 基于图像信息处理声音的方法和对应设备
US11445296B2 (en) * 2018-10-16 2022-09-13 Sony Corporation Signal processing apparatus and method, and program to reduce calculation amount based on mute information
US11654742B2 (en) 2019-07-05 2023-05-23 Hanon Systems Unique airflow delivery path for independent rear zone in tri or quad HVAC system
KR102301538B1 (ko) * 2020-02-12 2021-09-13 국방과학연구소 신호 필터링 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343285B1 (en) 2003-04-08 2008-03-11 Roxio, Inc. Method to integrate user data into uncompressed audio data

Also Published As

Publication number Publication date
KR20120013893A (ko) 2012-02-15
KR20120013894A (ko) 2012-02-15
KR101837083B1 (ko) 2018-03-09
KR101837084B1 (ko) 2018-03-09
KR101819027B1 (ko) 2018-01-17
KR20120013892A (ko) 2012-02-15
KR20120013887A (ko) 2012-02-15
KR20120013884A (ko) 2012-02-15

Similar Documents

Publication Publication Date Title
KR101819027B1 (ko) 오디오 재생 방법 및 그에 따른 오디오 재생 장치, 및 정보 저장 매체
KR100618473B1 (ko) Mpeg 스트림 네비게이션을 제공하기 위한 방법, 머신 판독 가능 매체, 장치 및 시스템
JP4384074B2 (ja) 放送コンテンツ処理装置及びその制御方法
JP4611952B2 (ja) 番組録画装置及びコマーシャル検出方法
US8948406B2 (en) Signal processing method, encoding apparatus using the signal processing method, decoding apparatus using the signal processing method, and information storage medium
WO2001016935A1 (fr) Procede et dispositif d'extraction/traitement d'informations, et procede et dispositif de stockage
JP2010166322A (ja) 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
US9514768B2 (en) Audio reproducing method, audio reproducing apparatus therefor, and information storage medium
JP2006340066A (ja) 動画像符号化装置、動画像符号化方法及び記録再生方法
US7149159B2 (en) Method and apparatus for editing data streams
US20110022400A1 (en) Audio resume playback device and audio resume playback method
KR101709053B1 (ko) 음원의 음성 정보와 자막을 음절 단위로 동기화하기 위한 자막 파일 구조 및 자막 재생 장치
KR101086434B1 (ko) 비디오 데이터 디스플레이 방법 및 장치
JP4444762B2 (ja) デマルチプレクサ
KR101060490B1 (ko) 가변 비트레이트의 파일의 평균 비트레이트 계산 방법 및 장치, 및 상기 장치를 포함하는 오디오 장치
CN102376328B (zh) 音频再现方法、音频再现装置和信息存储介质
US20050197830A1 (en) Method for calculating a frame in audio decoding
JP2005057751A (ja) マルチメディアデータ再生方法,及びマルチメディアデータ再生装置
JP2005341138A (ja) 映像要約方法及びプログラム及びそのプログラムを格納した記憶媒体
KR100653942B1 (ko) Asf 파일로/로부터 부가 정보를 삽입/추출하는 방법 및파일 재생 장치
JP2007079416A (ja) 画像データ作成装置、画像データ作成方法及びプログラム
JP3847671B2 (ja) データファイル作成方法
KR100653940B1 (ko) Mp2 및 aac 파일로/로부터 부가정보를삽입/추출하는 방법 및 휴대용 재생장치
JP2013030259A (ja) 映像処理装置及び映像処理方法
JP2006190362A (ja) オーディオ符号化方法、オーディオ復号化方法、オーディオ符号器及びオーディオ復号器

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant