KR100639110B1 - Method of establishing time information of frame based audio stream data - Google Patents
Method of establishing time information of frame based audio stream data Download PDFInfo
- Publication number
- KR100639110B1 KR100639110B1 KR1020050084131A KR20050084131A KR100639110B1 KR 100639110 B1 KR100639110 B1 KR 100639110B1 KR 1020050084131 A KR1020050084131 A KR 1020050084131A KR 20050084131 A KR20050084131 A KR 20050084131A KR 100639110 B1 KR100639110 B1 KR 100639110B1
- Authority
- KR
- South Korea
- Prior art keywords
- stream data
- calculating
- audio stream
- time
- size
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 230000002250 progressing effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/005—Reproducing at a different information rate from the information rate of recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/1062—Data buffering arrangements, e.g. recording or playback buffers
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
Description
도1은 종래기술에 따른 타임테이블 작성시스템의 구조를 나타낸 구성도.1 is a block diagram showing the structure of a timetable creation system according to the prior art;
도2는 프레임 기반 오디오 스트림 데이터의 구조를 나타낸 블럭도.2 is a block diagram showing the structure of frame-based audio stream data.
도3은 본 발명의 실시예에 따른 시간정보 산출시스템의 구조를 나타낸 구성도.3 is a block diagram showing the structure of a time information calculating system according to an embodiment of the present invention;
본 발명은 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보 산출방법에 관한 것으로서, 보다 상세하게는 프레임 구조로 이루어진 오디오 또는 보이스 스트림 데이터의 재생시에 헤더정보에 비트레이트나 타임테이블 정보가 포함되지 않은 경우에도 스트림 데이터의 재생에 따른 시간관련정보를 산출할 수 있도록 하는 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보 산출방법에 관한 것이다.The present invention relates to a method of calculating time information of audio stream data in units of frames. More specifically, the present invention relates to a method in which a bit rate or timetable information is not included in header information when audio or voice stream data having a frame structure is reproduced. The present invention relates to a method of calculating time information of audio stream data in units of frames, which enables calculation of time-related information according to reproduction of stream data.
CD, DVD, MP3 등의 디지털 저장매체에는 오디오 신호가 디지털 신호로 인코딩되어 저장된다. 이러한 디지털 신호는 재생장치에 포함된 버퍼에 임시로 저장된 후, 디코더에 의하여 오디오 신호로 디코딩되어 출력된다.In digital storage media such as CD, DVD, and MP3, audio signals are encoded and stored as digital signals. The digital signal is temporarily stored in a buffer included in the playback apparatus, and then decoded into an audio signal by the decoder and output.
최근 오디오 저장매체가 발달하고 다양한 형태의 플레이어가 개시되면서 저장매체에 포함된 신호를 선택적으로 재생하거나 반복, 고속전진, 고속후진 시키기 위한 다양한 방법들이 개시되고 있다.Recently, as audio storage media have been developed and various types of players have been disclosed, various methods for selectively reproducing, repeating, fast forwarding, and fast backward the signals included in the storage media have been disclosed.
이러한 종래기술들은 코딩된 디지털 신호의 헤더정보에 포함된 비트레이트(bitrate) 정보를 이용하여 파일전체의 재생시간, 특정 부분의 시간적 위치, 현재 재생시간 등을 산출하고, 이를 외부 LCD(Liquid Crystal Display)에 표시하여 사용자에게 재생상태에 관한 정보를 제공한다. 즉, CBR(Constant Bitrate; 고정 비트레이트)로 인코딩된 MP3 와 같이 프레임 헤더 내에 비트레이트 정보를 가지고 있는 경우에는 이러한 비트레이트 정보와 파일 크기 정보를 이용하여 오디오 파일의 전체 재생시간을 용이하게 계산할 수 있다.These conventional techniques calculate the playback time of the entire file, the temporal position of a specific portion, the current playback time, etc. using bitrate information included in the header information of the coded digital signal, and the external liquid crystal display (LCD). ) To inform the user about the playback status. That is, when bitrate information is included in a frame header, such as MP3 encoded with constant bitrate (CBR), the total playing time of an audio file can be easily calculated using the bitrate information and the file size information. have.
또한 VBR(Variable Bitrate; 가변 비트레이트)로 인코딩된 파일의 경우에도 부가 헤더 내에 전체 프레임수나 재생시간 등에 관한 정보가 기재되어 있는 경우에는 이를 이용하여 전체 재생시간을 용이하게 계산할 수 있다.In the case of a file encoded in VBR (Variable Bitrate), when the information on the total number of frames, the playback time, etc. is described in the additional header, the total playback time can be easily calculated using the information.
그러나 전체 프레임 수나 타임 테이블(Time Table)등과 같이 시간 정보를 산출할 수 있는 부가적인 헤더 정보가 없는 VBR과 같이, 매 프레임마다 크기가 변하는 오디오 스트림이나, 비트레이트 정보 등이 없는 프레임 기반의 오디오 스트림의 경우에는 정확한 재생시간을 계산하기가 어렵다.However, such as VBR, which does not have additional header information that can calculate time information, such as the total number of frames or time table, etc., an audio stream that changes in size every frame or a frame-based audio stream without bit rate information. In the case of, it is difficult to calculate the exact playing time.
이러한 데이터의 경우에 재생시간의 정보를 산출하기 위해서는 재생 이전에 전체 파일을 로딩하여 오디오 스트림을 구성하는 전체 프레임수를 계산한다.In the case of such data, in order to calculate the information of the reproduction time, the total number of frames constituting the audio stream is calculated by loading the entire file before reproduction.
도1은 종래기술에 따른 타임테이블 작성시스템의 구조를 나타낸 구성도이며, 이와 같은 종래기술에 따르면, 오디오 데이터 파일이 데이터 저장장치(32)로부터 버퍼 메모리 또는 순환 버퍼(25)를 통해 스트리밍될 때, 마이크로 컨트롤러 또는 타임키퍼(22)는 오디오 데이터의 각 세그먼트에 대한 경과 재생시간(T1)을 계산한다. DSP 메모리 또는 선형버퍼(11)는 순환버퍼(25)로부터 오디오 데이터 스트림을 수신하고, 선형버퍼(11)는 오디오 데이터의 시간길이(ΔT)를 포함한다. 선형버퍼(11)로부터 출력되어 디코딩용 DSP 디코더(12)로 입력되는 경과 재생시간(T2)을 계산 및 표시하기 위해, 타임키퍼(11)는 순환버퍼(25)로부터 출력되는 오디오 데이터의 경과 재생시간(T1)으로부터 선형버퍼(11)에 포함되어 있는 오디오 데이터의 시간길이(ΔT)를 감시한다. 따라서 T2는 DSP(12)에 의해 현재 디코딩되고 있는 오디오 데이터용 오디오 데이터 파일의 경과 재생시간을 나타낸다.Fig. 1 is a block diagram showing the structure of a timetable creation system according to the prior art, and according to this prior art, when an audio data file is streamed from the
그러나 이와 같이 오디오 스트림의 재생 이전에 전체 파일을 로딩하기 위해서는 별도의 데이터 로딩시간이 필요하고 별도의 전력이 소모되므로, 재생을 위하여 필요한 대기시간이 길어지고 소형화된 플레이어에 있어서 전력소비가 커져서 전원사용시간이 줄어드는 단점이 있었다.However, in order to load the entire file before playing the audio stream, a separate data loading time is required and separate power is consumed. Therefore, the standby time required for the playback is increased and power consumption is increased in the miniaturized player. There was a disadvantage in that time was reduced.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 헤더내에 비트레이트나 전체 재생시간에 대한 정보가 포함되어 있지 않아도 스트림 데이터가 프레임 단위로 구성되어 있다면, 전체 프레임수와 파일크기를 가지고 정확한 재생시간에 대한 정보를 산출할 수 있도록 하는 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보 산출방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and if the stream data is configured in units of frames even if the header does not contain the information about the bit rate or the total playing time, the present invention accurately reproduces the data with the total number of frames and the file size. An object of the present invention is to provide a method for calculating time information of audio stream data in frame units, which enables the calculation of time information.
또한 본 발명은 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보를 구하기 위하여 별도의 로딩시간을 필요로 하지 않고, 스트림 데이터의 재생과 동시에 각종 시간정보를 구할 수 있도록 하는 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보 산출방법을 제공하는 것을 목적으로 한다.In addition, the present invention does not require a separate loading time in order to obtain time information of audio stream data in units of frames, and the time of audio stream data in units of frames so that various time information can be obtained simultaneously with playback of the stream data. It is an object to provide a method of calculating information.
또한 본 발명은 별도의 타임테이블을 구성 또는 이용할 수 없는 환경이나 비트스트림이 저장되어 있는 메모리 등 저장 매체를 직접 엑세스할 수 없는 환경 하에서 스트림 데이터의 고속전진, 고속후진, 반복을 위하여 필요한 비트스트림 내의 시간위치를 별도의 비트레이트 정보 없이도 파악할 수 있도록 하는 프레임 단위로 이루어진 오디오 및 보이스 스트림 데이터의 시간정보 산출방법을 제공하는 것을 목적으로 한다.In addition, the present invention provides a method for fast forward, fast backward, and repetition of stream data in an environment in which a separate timetable cannot be configured or used, or an environment in which a storage medium such as a memory in which a bitstream is stored is not directly accessible. An object of the present invention is to provide a method of calculating time information of audio and voice stream data, which is made in units of frames, so that a time position can be identified without additional bit rate information.
전술한 문제점을 해결하기 위한 본 발명은 오디오 스트림 데이터를 재생하는 시스템에서 스트림 데이터의 시간정보를 산출하는 방법으로서, 프레임 구조로 인코딩된 오디오 스트림 데이터가 버퍼에 입력되면, 단위시간당 디코딩 프레임수를 계산하는 단계와; 상기 버퍼에 저장된 오디오 스트림 데이터의 프레임당 데이터 크기를 계산하는 단계와; 상기 오디오 스트림 데이터의 전체 크기를 상기 단위시간당 디코딩 프레임수와 프레임당 데이터 크기의 곱으로 나누어 상기 오디오 스트림 데이터의 전체 재생 시간을 계산하는 단계;를 포함한다.The present invention for solving the above problems is a method of calculating the time information of the stream data in the system for reproducing the audio stream data, when the audio stream data encoded in the frame structure is input to the buffer, calculate the number of decoding frames per unit time Making a step; Calculating a data size per frame of audio stream data stored in the buffer; And calculating the total reproduction time of the audio stream data by dividing the total size of the audio stream data by the product of the number of decoding frames per unit time and the data size per frame.
다른 실시예에 따른 본 발명은 오디오 스트림 데이터를 재생하는 시스템에서 스트림 데이터의 시간정보를 산출하는 방법으로서, 프레임 구조로 코딩된 오디오 스트림 데이터가 버퍼에 입력되면, 단위시간당 디코딩 프레임수를 계산하는 단계와; 상기 시스템에 의하여 디코딩이 수행되어 재생된 상기 오디오 스트림 데이터의 재생 프레임수를 업데이트하고, 상기 업데이트된 재생 프레임수를 저장하는 단계와; 상기 재생 프레임수를 상기 단위시간당 디코딩 프레임수로 나누어 진행중인 오디오 스트림 데이터의 현재 재생 시간을 계산하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a method of calculating time information of stream data in a system for reproducing audio stream data. When audio stream data coded in a frame structure is input to a buffer, calculating the number of decoding frames per unit time. Wow; Updating the number of playback frames of the audio stream data which has been decoded and reproduced by the system, and storing the updated number of playback frames; Calculating the current reproduction time of the ongoing audio stream data by dividing the number of reproduction frames by the number of decoding frames per unit time.
상기 단위시간당 디코딩 프레임수를 계산하는 단계는 단위시간당 최종 PCM(Pulse Code Modulation) 데이터로 디코딩되어 출력되는 PCM 샘플수인 샘플링 레이트를 계산하는 단계와; 상기 샘플링 레이트를 프레임당 PCM 샘플데이터수로 나누어서 단위시간당 디코딩 프레임수를 계산하는 단계;로 이루어지는 것을 특징으로 한다.The calculating of the number of decoding frames per unit time may include: calculating a sampling rate which is the number of PCM samples that are decoded and output as final PCM (Pulse Code Modulation) data per unit time; Calculating the number of decoding frames per unit time by dividing the sampling rate by the number of PCM sample data per frame.
상기 프레임당 데이터 크기는 상기 버퍼에 저장된 전체 오디오 스트림 데이터의 크기를 상기 버퍼에 입력되는 오디오 스트림 데이터의 프레임수로 나누어서 계산하는 것을 특징으로 한다.The data size per frame is calculated by dividing the size of all audio stream data stored in the buffer by the number of frames of audio stream data input to the buffer.
한편 또 다른 실시예에 따른 본 발명은 오디오 스트림 데이터를 재생하는 시스템에서 스트림 데이터의 시간정보를 산출하는 방법으로서, 프레임 구조로 코딩된 오디오 스트림 데이터가 버퍼에 입력되면, 상기 버퍼에 저장된 오디오 스트림 데이터의 프레임당 데이터 크기를 계산하는 단계와; 상기 오디오 스트림 데이터의 전체 크기를 상기 프레임당 데이터 크기로 나누어 전체 프레임수를 계산하는 단계와; 상기 전체 프레임수를 단위시간당 디코딩 프레임수로 나누어 상기 오디오 스트림 데 이터의 전체 재생 시간을 계산하는 단계;를 포함한다.Meanwhile, the present invention is a method of calculating time information of stream data in a system for reproducing audio stream data. When audio stream data coded in a frame structure is input to a buffer, the audio stream data stored in the buffer is provided. Calculating a data size per frame of; Calculating the total number of frames by dividing the total size of the audio stream data by the data size per frame; Calculating the total reproduction time of the audio stream data by dividing the total number of frames by the number of decoding frames per unit time.
또 다른 실시예에 따른 본 발명은 오디오 스트림 데이터를 재생하는 시스템에서 스트림 데이터의 시간정보를 산출하는 방법으로서, 프레임 구조로 코딩된 스트림 데이터가 버퍼에 입력되면, 단위시간당 디코딩 프레임수와, 상기 버퍼에 저장된 스트림 데이터의 프레임당 데이터 크기를 곱하여 단위시간당 스트림 데이터 크기를 계산하는 단계와; 상기 오디오 스트림의 재생중에 이동신호가 입력되면, 입력된 이동시간과 상기 단위시간당 스트림 데이터 크기를 곱하여 이동할 스트림 데이터 크기를 계산하는 단계와; 상기 버퍼로 입력되는 스트림 데이터 크기를 누적시켜 버퍼입력 데이터 크기를 계산하는 단계와; 상기 버퍼에 저장된 스트림 데이터 중에서 현재까지 디코딩되어 재생된 스트림 데이터 크기를 나타내는 디코딩된 버퍼입력 데이터 크기를 계산하는 단계와; 상기 이동신호가 전진이동 신호인 경우에, 상기 오디오 스트림 데이터에서 현재 재생되고 있는 시간 위치와, 상기 이동할 스트림 데이터 크기를 가산하여 새로 재생을 시작할 위치에 대한 정보를 계산하는 단계와; 상기 이동신호가 후진이동 신호인 경우에, 상기 오디오 스트림 데이터에서 현재 재생되고 있는 시간 위치와, 상기 이동할 스트림 데이터 크기를 감산하여 새로 재생을 시작할 위치에 대한 정보를 계산하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a method of calculating time information of stream data in a system for reproducing audio stream data. When stream data coded in a frame structure is input to a buffer, the number of decoding frames per unit time and the buffer Calculating the stream data size per unit time by multiplying the data size per frame of the stream data stored in the; Calculating a stream data size to be moved by multiplying the input movement time by the stream data size per unit time when a movement signal is input during reproduction of the audio stream; Calculating a buffer input data size by accumulating the size of the stream data input to the buffer; Calculating a size of the decoded buffer input data representing the size of the stream data decoded and reproduced so far among the stream data stored in the buffer; Calculating information on a position to start a new reproduction by adding the time position currently being reproduced from the audio stream data and the size of the stream data to be moved if the movement signal is a forward movement signal; And when the moving signal is a backward moving signal, calculating information about a time position currently being reproduced from the audio stream data and a position to start a new reproduction by subtracting the size of the stream data to be moved.
현재 재생시간과, 상기 이동시간을 더하여 새 위치의 현재 재생시간을 구하는 단계;를 추가로 포함한다.And obtaining the current playback time of the new location by adding the current playback time and the movement time.
상기 현재 재생되고 있는 시간 위치는 상기 버퍼입력 데이터 크기에 최대 패킷 크기를 뺀 후, 상기 디코딩된 버퍼입력 데이터 크기를 더하여 계산되는 것을 특 징으로 한다.The time position currently being reproduced may be calculated by subtracting the maximum packet size from the buffer input data size and then adding the decoded buffer input data size.
또 다른 실시예에 따른 본 발명은 오디오 스트림 데이터를 재생하는 시스템에서 스트림 데이터의 시간정보를 산출하는 방법으로서, 버퍼에 입력된 스트림 데이터의 재생 도중, 반복시작 신호가 입력되면, 상기 버퍼에 입력된 스트림 데이터의 현재 재생 프레임을 반복시점 프레임으로 결정하고, 상기 현재 재생 프레임까지의 누적 프레임수를 반복시점 프레임수로 저장하는 단계와; 반복종점 신호가 입력되면, 상기 반복종점 신호가 입력되는 순간의 현재 재생 프레임을 반복종점 프레임수로 결정하여 저장하고, 반복 플래그를 생성하여 저장하는 단계와; 상기 반복시점 프레임수로부터 상기 반복종점 프레임수까지 스트림 데이터의 재생을 반복하고, 반복재생이 완료될 때마다 상기 반복 플래그를 갱신하는 단계;를 포함한다.According to another embodiment of the present invention, a method of calculating time information of stream data in a system for reproducing audio stream data, wherein a repetition start signal is inputted to a buffer during reproduction of stream data input to a buffer, Determining a current playback frame of the stream data as a repeating frame and storing the cumulative number of frames up to the current playback frame as the repeating frame; When the repeating end signal is input, determining and storing the current playback frame at the instant of the input of the repeating end signal as the number of repeating end frames, and generating and storing the repeating flag; And repeating the reproduction of the stream data from the number of repeating frame to the number of repeating end frame, and updating the repeating flag each time repeating playback is completed.
본 발명은 반복종료 신호가 입력되면, 상기 반복시점 프레임수와 반복종점 프레임수에 대한 정보를 삭제하는 단계;를 추가로 포함한다.The present invention may further include deleting information on the number of repeated frames and the number of repeated frames when the repeating end signal is input.
이하, 도면을 참조하여 설명한다.A description with reference to the drawings is as follows.
도2는 프레임 기반 오디오 스트림 데이터(10)의 일반적인 구조를 나타낸 블럭도이며, 도3은 본 발명의 실시예에 따른 시간정보 산출시스템의 구조를 나타낸 구성도이다.2 is a block diagram showing a general structure of the frame-based
도2에 도시된 바와 같이, 스트림 데이터(10)는 ID3 Tag (2, 4)와 프레임 단위의 코딩된 데이터(6, 8)를 가지고 있으며, 핸드폰(110)이나 마이크로 컨트롤러(120)의 데이터 저장장치로부터 Hera, DSP 또는 MAP(Multimedia Application Processor)(130) 등에 포함된 버퍼메모리(132)에 저장되어 디코더(134)에 의하여 오디오 신호로 디코딩된다.As shown in FIG. 2, the
스트림 데이터(10)의 전후에 위치한 ID3 Tag (2, 4)에는 해당 음악에 대한 상세정보가 저장되는데, 곡명, 저작자, 음악채널 등에 대한 정보가 여기에 포함된다. ID3 Tag V.1.X (4)는 128 byte의 고정된 크기를 갖는데 비하여, ID3 Tag V.2.X (2)는 가변적인 블록크기를 가지며, 이미지나 가사 등의 정보도 저장할 수 있는 점에서 차이가 있다. 이때 이러한 ID3 Tag(2, 4)는 스트림 데이터(10)에 경우에 따라서는 포함 되지 않을 수 있다.The ID3 Tag (2, 4) located before and after the
스트림 데이터(10)는 경우에 따라서는 스트림 데이터(10)와 무관한 다른 용도의 부가 데이터(6)가 스트림 앞·뒤 또는 프레임 사이에 존재 할 수 있다. 이때 스트림 데이터(10)는 단일 프레임 단위(8)로 구성되어질 수 있으며, 몇 개의 프레임들이 묶여 블록이나 페이지 단위(8-1)로 구성되어 질 수 있다. 각 프레임의 데이터 크기는 일정하거나 가변적이며, 본 발명은 프레임의 데이터 크기가 일정한 경우와 가변적인 경우 모두에 적용될 수 있다.In some cases, the
본 발명이 적용될 수 있는 스트림 데이터는 프레임 단위의 구조로 이루어진 모든 데이터를 의미하며, 구체적으로는 아래와 같은 데이트를 대상으로 할 수 있다.Stream data to which the present invention can be applied refers to all data having a structure of a frame unit, and specifically, may be targeted to the following data.
① 프레임 헤더 내에 비트레이트 정보를 가지고 있는 경우① In case of having bitrate information in frame header
: MP1, MP2, MP3 등MP1, MP2, MP3, etc.
② 프레임 헤더 내에 비트레이트 정보를 가지고 있지 않은 경우② Does not have bitrate information in frame header
: AAC(Advanced Audio Coder), ADTS, 일반 Voice 스트림: AAC (Advanced Audio Coder), ADTS, General Voice Stream
③ 몇개의 프레임을 통해 블럭을 구성하는 경우③ When the block is composed of several frames
: Real Audio Format, Ogg, WMA(Windows Media Audio) 등: Real Audio Format, Ogg, WMA (Windows Media Audio)
④ 프레임 헤더를 포함하지 않고 프레임 단위로 구성된 경우④ When frame unit is not included
: MP4 Audio, 3GPP 파일 포맷, Quick Time 포맷 등MP4 Audio, 3GPP file format, Quick Time format, etc.
⑤ 전체 재생시간을 계산하기 위해 부가적인 Xing. Vbri 헤더를 가지고 있지 않은 프레임 단위의 파일 포맷 등⑤ Additional Xing to calculate total play time. Frame file format that does not have Vbri header
⑥ 고속전진(FF), 고속후진(FR), 탐색(Seeking), 반복(Repaet), 재생시간표시(Time Dispaly)를 위한 타임테이블을 가지고 있지 않은 파일 포맷 등.⑥ File formats that do not have timetables for fast forward (FF), fast reverse (FR), Seeking, Repeat, and Time Dispaly.
이와 같이, 헤더정보내에 스트림 데이터(10)의 시간정보를 전혀 포함하고 있지 않더라도 데이터의 구조가 프레임 단위로 이루어져 있다면 본 발명의 산출방법이 적용될 수 있다.As described above, even if the time information of the
이하의 실시예에서 스트림 데이터(10)의 시간정보를 계산하는 방법을 각 경우별로 설명한다.In the following embodiment, a method of calculating time information of the
비트레이트 정보가 없는 경우에 재생시간 산출방법How to calculate playback time in the absence of bitrate information
매 프레임마다 데이터 크기가 변하거나 비트레이트 정보가 없는 경우에 전체 또는 현재의 재생시간을 파악하기 위해서는 프레임수 또는 데이터 크기로부터 비트레이트를 계산해야 한다.If the data size changes every frame or there is no bitrate information, the bitrate should be calculated from the number of frames or the data size to grasp the total or current playback time.
① 프레임 단위의 오디오 스트림 데이터의 경우에는 매 프레임마다 압축 비트스트림을 디코딩하여 출력하는 PCM(Pulse Code Modulation) 데이터의 수기에 대한 정보를 가지고 있다. 최종 PCM 데이터의 출력을 위한 샘플링 레이트를 이러한 프레임당 PCM 샘플 데이터 수로 나누면 단위시간당 디코더(134)가 디코딩해야 할 스트림 데이터(10)의 프레임수가 계산된다.① In case of audio stream data in units of frames, it has information on handwriting of pulse code modulation (PCM) data which decodes and outputs a compressed bitstream every frame. Dividing the sampling rate for the output of the final PCM data by this number of PCM sample data per frame calculates the number of frames of the
이와 같은 계산은 Real Audio 와 Ogg, WMA 에서와 같이 몇개의 프레임을 모아 하나의 블럭(8-1)을 형성한 스트림 데이터에 대하여도 적용될 수 있을 것이다.The same calculation may be applied to stream data in which several frames are collected to form one block 8-1, as in Real Audio, Ogg, and WMA.
② 핸드폰(110) 또는 마이크로 컨트롤러(120)로부터 버퍼메모리(132)로 전달된 스트림 데이터(10)의 프레임수를 카운트하여 기록하고, 이를 이용하여 프레임당 처리해야 할 데이터 크기를 계산한다.② Count and record the number of frames of the
단, 이때 핸드폰(110) 또는 마이크로 컨트롤러(120)로부터 버퍼메모리(132)로의 데이터 전송 단위를 패킷이라고 할 때, 는 임의의 i 번째 패킷에서 전달된 데이터 사이즈를 의미하고, m은 VBR일 경우 패킷마다 가변이다.However, when the data transmission unit from the
③ 위의 계산결과를 이용하여 단위시간당 디코더(134)에서 처리해야 할 스트림 데이터(10)의 크기를 계산할 수 있다.③ The size of the
④ 전체 스트림 데이터의 재생시간(total play time)은 전체 스트림 데이터 크기를 단위시간당 스트림 데이터 크기로 나누어서 구할 수 있다.(4) The total play time of the entire stream data can be obtained by dividing the total stream data size by the stream data size per unit time.
⑤ 한편, 전체 스트림 데이터 중에서 재생되고 있는 오디오 스트림의 현재 재생시간(current play time)을 파악할 수 있다. 이를 위해 매 프레임마다 디코더(134)가 디코딩하여 출력장치(140)에 의하여 출력된 재생 프레임수(frame count)를 카운트하여 저장한다. On the other hand, it is possible to grasp the current play time of the audio stream being reproduced from the entire stream data. To this end, the
⑥ 이상에서 산출한 시간정보들을 비트레이트 단위로 계산할 수도 있다. 즉 단위시간당 스트림 데이터 크기는 bytes 단위로 계산되므로, 여기에 8을 곱하여 bit 단위로 변환할 수 있을 것이다.⑥ The time information calculated above can be calculated in bitrate unit. That is, since the stream data size per unit time is calculated in bytes, it can be multiplied by 8 and converted into bit units.
이다.to be.
전체 프레임수에 대한 정보가 있는 경우에 재생시간 산출방법How to calculate playback time when there is information about the total number of frames
CBR 모드나 부가 헤더정보에 오디오 스트림 데이터(10)의 전체 프레임수에 대한 정보가 포함되어 있는 경우에는 이를 이용하여 간단하게 전체 재생시간 등을 구할 수 있다.When the CBR mode or the additional header information includes information on the total number of frames of the
① 스트림 데이터의 전체 프레임수는 전체 파일 크기를 식 2에서 구한 프레임당 데이터 크기로 나누어서 구할 수 있다. 이때 부가 정보가 없는 VBR모드 일 경우 m은 전송 패킷들에 대한 평균값을 취할 수 있다.(1) The total number of frames of stream data can be obtained by dividing the total file size by the data size per frame obtained in equation (2). In this case, in the VBR mode with no additional information, m may take an average value for transport packets.
② 그리고 전체 재생시간은 전체 프레임수를 식 1의 단위시간당 디코딩 프레임수로 나누어서 구할 수 있다.② The total reproduction time can be obtained by dividing the total number of frames by the number of decoding frames per unit time of Equation 1.
오디오 스트림 재생중 고속전진(forward)하는 경우에 재생위치 결정방법How to determine the playback position when forwarding during an audio stream
다음으로 오디오 스트림 데이터(10)의 재생중에 특정한 위치로 전진 이동시키기 위하여 고속전진(fast forward) 신호가 입력된 경우에 정해진 위치로 이동하여 재생하기 위한 시간정보 산출방법에 대하여 설명한다.Next, a method of calculating time information for moving to a predetermined position and reproducing when a fast forward signal is input to move forward to a specific position during reproduction of the
Xing 이나 Vbri와 같은 부가 헤더정보에 타임 테이블을 보유하고 있는 경우 나 종래 기술과 같이 파일을 전체 로딩하여 타임 테이블을 생성한 경우에는 이를 이용하여 새로운 재생위치를 결정하면 되지만, 부가정보를 포함하지 않는 일반적인 포맷은 새로운 방법을 적용하여야 한다. If you have a time table in additional header information such as Xing or Vbri, or if you have created a time table by loading the file as in the prior art, you can use this to determine the new playback position, but it does not contain any additional information. The general format should apply the new method.
이동하고자 하는 스트림 데이터(10)의 타임 테이블을 작성하기 위하여 오디오 스트림 데이터의 디코딩 전에 DSP 또는 마이크로 컨트롤러(130)를 통하여 전체 파일을 한 번 로딩하는 방법을 적용할 수도 있으나, 전술한 바와 같이 각 파일 또는 스트림에 대한 별도의 테이블 저장공간이 필요하고, 전체 파일 로딩 및 테이블 생성에 필요한 프로세스가 진행되어야 하므로 시간과 전력이 소요된다.In order to create a time table of the
여기서는 오디오 스트림 파일내의 임의의 Offset 위치로 디코딩 포인트를 이동한다는 관점에서 별도의 프로세스가 필요하지 않는 방법을 설명한다. 또한 스트림 데이터(10)가 저장 되어 있는 메모리 공간 등을 DSP 또는 MAP(Multimedia Application Processor)(130)가 직접 엑세스를 할 수 없고 핸드폰(110)이나 마이크로 컨트롤러(120)에서 버퍼메모리(132) 내부로 넘겨주는 데이터 정보만을 이용해야 하는 환경 하에서 재생 시간 위치에 해당하는 Offset위치를 계산하는 방법을 설명한다.Here, a method of not requiring a separate process in terms of moving the decoding point to an arbitrary offset position in the audio stream file will be described. In addition, the DSP or
① 먼저 사용자 인터페이스로부터 사용자가 이동하고 싶은 시간(time scale) 값이 입력되면, 이 값과 식 3의 단위시간당 스트림 데이터 크기를 이용하여 이동할 스트림 데이터 크기(play offset)를 구한다.First, when a time scale value that a user wants to move is input from the user interface, the stream data size (play offset) to be moved is obtained by using the value and the stream data size per unit time of
② 핸드폰(110)이나 마이크로 컨트롤러(120)에서 버퍼메모리(132) 내부로 입력된 스트림 데이터의 크기(buffer copy size)를 지속적으로 업데이트하여 기록한다. 이것은 디코딩 프로세스를 진행하기 위하여 핸드폰(110)이나 마이크로 컨트롤러(120)에서 버퍼메모리(132) 내부로 카피한 데이터의 사이즈로서, 버퍼메모리(132)에 카피할 때마다 이 값을 누적시킨다. 그리고 이값은 카피한 사이즈가 고정이거나 가변인 상황을 모두 포함한다.② The
③ DSP 또는 MAP(Multimedia Application Processor)(130) 내에서는 해당 버퍼메모리(132)내에서 실제 디코딩을 수행한 오프셋(relative offset in buffer) 또는 디코딩한 프레임 크기를 매 프레임 디코딩시마다 업데이트 하는데, 이 값은 핸드폰(110)이나 마이크로 컨트롤러(120)로부터 새로운 데이터가 카피될 때마다 초기화(reset)된다. 즉, 현재 버퍼메모리(132)에 저장된 스트림 데이터 중에서 현재 디코딩된 프레임의 상대적인 위치를 나타내게 되는 것이다.③ In the DSP or
④ 이러한 누적 버퍼 데이터 크기(buffer copy size)와 버퍼내 디코딩된 데 이터 크기(relative offset in buffer)를 이용하여 스트림 데이터(10)에서의 현재 재생위치(frame start))를 계산한다.(4) Using the cumulative buffer copy size and the relative offset in buffer, the current frame start in the
여기서 최대 패킷 크기는 핸드폰(110)이나 마이크로 컨트롤러(120)로부터 버퍼메모리(132)로 한 번에 카피될 수 있는 최대의 데이터 패킷의 크기를 의미한다.Here, the maximum packet size means the size of the largest data packet that can be copied from the
⑤ 사용자가 입력한 전진이동하여 새로 재생을 시작할 위치(new frame start)는 현재 재생위치와, 식 10의 이동할 스트림 데이터 크기에 의하여 결정된다.⑤ The new frame start which is moved forward by the user and starts a new playback is determined by the current playback position and the size of stream data to be moved in
⑥ 한편, 새로 이동할 위치에서의 현재 재생되고 있는 시간은 전진이동을 하기 직전의 현재 재생시간으로부터 이동시간을 증가시킴으로써 구할 수 있다.(6) On the other hand, the currently playing time at the position to be newly moved can be obtained by increasing the moving time from the current playing time immediately before the forward moving.
⑦ 이때, VBR(Variable Bit-Rate) 모드와 같이 프레임 당 가변 사이즈를 갖는 경우를 포함하여 매 프레임 당 디코딩 결과에 대한 정확한 재생 시간을 산출하기 위하여 식 1의 단위 시간당 디코딩 프레임 수와 사용자 입력의 이동하고자 하는 시간을 이용하여 식 5에서의 재생 프레임 수를 증가시킴으로써 새 위치에서의 재생 시간을 계산할 수 있다. ⑦ At this time, the number of decoded frames per unit time and user input movement in order to calculate the correct playback time for the decoding result per frame, including the case of having a variable size per frame, such as VBR (Variable Bit-Rate) mode By using the desired time, the playback time at the new position can be calculated by increasing the number of playback frames in equation (5).
오디오 스트림 재생중 고속후진하는 경우에 재생위치 결정방법How to determine playback position in case of fast backward during audio stream playback
고속전진과 유사하게 고속후진(fast rewind) 신호가 입력된 경우, 전술한 알고리즘과 유사한 방법으로 새로운 재생위치를 구할 수 있다.When a fast rewind signal is input similarly to fast forward, a new playback position can be obtained by a method similar to the above algorithm.
고속후진의 경우에는 식 12에서와 반대로 스트림 데이터의 위치를 후진시켜 새로운 위치를 찾아내게 된다.In the case of fast reverse, as in Eq. 12, the stream data is reversed to find a new position.
또한 후진이동한 위치에서의 재생시간은 식 13b에서와 같이 계산된다.Also, the regeneration time at the backward movement position is calculated as in Equation 13b.
오디오 스트림 재생중 랜덤 재생 또는 탐색하는 경우에 재생위치 결정방법How to determine playback position when randomly playing or searching during audio stream
스트림 데이터의 재생 도중 무작위적으로 정해진 위치에서 재생을 재개하거 나 특정한 시간위치를 탐색하는 경우에도 전술한 고속전진이나 고속후진의 알고리즘을 복합적으로 사용함으로써 구현할 수 있다.Even in the case of reproducing the data at randomly determined position or searching for a specific time position during the reproduction of the stream data, the above-described fast forward or fast backward algorithm can be used in combination.
즉, 사용자 인터페이스로부터 입력되는 특정한 이동시간(time scale) 값을 바탕으로 전진이나 후진을 하는 것이 아니라, 제어부(도면 미도시)에 의하여 무작위로 발생되는 이동시간 값을 이용하여 전진이나 후진을 하는 것을 의미한다.That is, instead of moving forward or backward based on a specific time scale value input from the user interface, moving forward or backward by using a moving time value randomly generated by a controller (not shown) is performed. it means.
오디오 스트림 재생중 구간 반복재생하는 경우에 재생구간 결정방법How to determine playback section in case of repeated playback of audio stream
사용자 인터페이스를 통하여 특정한 구간에 대한 반복신호가 입력되면, 반복시점과 반복종점을 파악하고 각 지점의 시간정보를 계산하여 이동할 수 있도록 한다. 따라서 각각의 반복시점과 반복종점을 계산하여 저장한 후, 고속전진이나 고속후진 방법을 이용하여 이를 구현할 수 있을 것이다.When the repetition signal for a specific section is input through the user interface, the repetition start point and the repetition end point are identified, and the time information of each point can be calculated and moved. Therefore, after calculating and storing each repetition start point and repetition end point, it can be implemented by using the fast forward or fast reverse method.
① 사용자 인터페이스로부터 반복재생 신호가 입력되면, 식 11에서와 같이, 버퍼메모리(132) 내의 파일 또는 스트림 내에서의 현재 디코딩되는 위치(frame start)를 반복시점 위치(repeat start point A)로 기억하여 별도의 메모리에 저장한다.When the repeat playback signal is input from the user interface, as shown in
② 반복 재개시 현재 위치에서의 재생시간을 복원하기 위하여 현재 프레임 카운트 정보(frame count)를 백업하여 반복시점에서의 프레임 카운트 정보(frame count repeat start)로 저장시키고 플레이를 다시 진행시킨다.② In case of resuming the repetition, to restore the playback time at the current position, the current frame count information is backed up and stored as frame count repeat start at the repetition point, and play is resumed.
③ 사용자 인터페이스로부터 반복재생 신호가 다시 입력되면, 버퍼메모리(132) 내의 파일 또는 스트림 내에서의 현재 디코딩되는 위치(frame start)를 반복종점 위치(repeat end point B)로 기억하여 메모리에 저장한다.When the repeat playback signal is input from the user interface again, the current decoded position (frame start) in the file or stream in the
통상적으로는 반복재생 버튼을 누를 때마다 반복시점과 반복종점을 각각 지정하는 것으로 설정되어 있지만, 별도의 반복시점과 반복종점 버튼이 구비되어 있는 시스템이라면 각각의 버튼의 입력에 의하여 시점과 종점이 지정될 것이며, 본 발명에서는 이와 같은 경우에도 적용되는 것으로 이해되어야 한다.Normally, it is set to designate repeat start point and repeat end point each time the repeat play button is pressed.However, if the system is equipped with separate repeat start point and repeat end button, the start point and end point are designated by input of each button. It should be understood that the present invention applies to such a case.
반복종점 위치가 결정된 경우에 반복재생이 설정되어 있음을 알려주는 플래그(flag)를 1로 초기화하여 설정한다.When the repeat end point position is determined, a flag indicating that repeat play is set is initialized to 1 and set.
④ 반복재생 플래그가 설정된 경우에 현재 재생중인 재생위치(frame start)의 offset 값(OC)을 매 프레임 디코딩 시마다 체크한다. 즉, 반복시점의 프레임으로부터, 반복시점 프레임과 반복종점 프레임의 차이(repeat end offset)만큼 프레 임이 진행되었는지를 매 프레임마다 판단하는 것이다. (4) When the repeat play flag is set, the offset value (O C ) of the play position (frame start) currently being played is checked at every frame decoding. That is, it is determined every frame whether the frame has progressed by the difference between the repeating frame and the repeating end frame from the repeating frame.
만약 반복시점 프레임으로부터 재생된 스트림 데이터 프레임수가 repeat end offset 을 초과하면, 미리 백업해둔 반복시점 프레임에 대한 데이터를 호출하고, 전술한 방법을 사용하여 반복시점까지 후진이동 시킨다. 그리고 반복플래그를 하나 증가시켜서 현재의 반복이 몇회째인지를 저장하고, 반복시점에서의 재생을 시작한다.If the number of stream data frames reproduced from the repeating frame exceeds the repeat end offset, the data for the repeating frame, which has been backed up previously, is called, and backward moving to the repeating point using the above-described method. The repeat flag is incremented by one to store how many times the current iteration is, and playback starts at the point of iteration.
사용자 인터페이스로부터 반복플래그의 해제신호가 입력될 때까지 이러한 반복재생을 계속한다.This repeat playback is continued until the release signal of the repeat flag is input from the user interface.
이상에서 본 발명의 실시예를 설명하였으나 본 발명의 권리범위는 이러한 실시예에 제한되지 않으며, 당업자가 용이하게 변형할 수 있는 범위에도 그 권리가 미친다.Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to these embodiments, and the right also extends to those skilled in the art.
본 발명에 의하면 오디오 스트림 데이터 내부에 시간정보가 포함되어 있지 않아도 별도의 로딩이나 타임 테이블 작성없이 스트림 데이터의 재생시간 정보를 간단하게 산출할 수 있는 효과가 있다. 또한 스트림 데이터(10)가 저장 되어 있는 메모리 공간 등을 DSP 또는 MAP(Multimedia Application Processor)(130)가 직접 액세스를 할 수 없고 핸드폰(110)이나 마이크로 컨트롤러(120)에서 버퍼메모리(132) 내부로 넘겨주는 데이터 정보만을 이용해야 하는 환경 하에서 재생 시간 위치에 해당하는 스트림 데이터내의 오프셋을 계산하여 액세스할 수 있도록 제어할 수 있다.According to the present invention, even if time information is not included in the audio stream data, it is possible to simply calculate the play time information of the stream data without additional loading or creating a time table. In addition, the DSP or
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050084131A KR100639110B1 (en) | 2005-09-09 | 2005-09-09 | Method of establishing time information of frame based audio stream data |
US11/470,791 US8090458B2 (en) | 2005-09-09 | 2006-09-07 | Method of calculating temporal information of frame-based audio stream data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050084131A KR100639110B1 (en) | 2005-09-09 | 2005-09-09 | Method of establishing time information of frame based audio stream data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100639110B1 true KR100639110B1 (en) | 2006-10-31 |
Family
ID=37621021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050084131A KR100639110B1 (en) | 2005-09-09 | 2005-09-09 | Method of establishing time information of frame based audio stream data |
Country Status (2)
Country | Link |
---|---|
US (1) | US8090458B2 (en) |
KR (1) | KR100639110B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160032819A (en) * | 2014-09-17 | 2016-03-25 | 삼성전자주식회사 | Method and Electronic Device for managing audio data |
US10834435B2 (en) | 2016-08-18 | 2020-11-10 | Samsung Electronics Co., Ltd. | Display apparatus and content display method thereof |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008058259A2 (en) * | 2006-11-08 | 2008-05-15 | Mywaves, Inc. | An apparatus and method for dynamically providing web-based multimedia to a mobile phone |
JP2008185769A (en) * | 2007-01-30 | 2008-08-14 | Oki Electric Ind Co Ltd | Compressed audio reproduction device |
US9076484B2 (en) | 2008-09-03 | 2015-07-07 | Sandisk Technologies Inc. | Methods for estimating playback time and handling a cumulative playback time permission |
US8588575B2 (en) * | 2010-04-26 | 2013-11-19 | Eldon Technology Limited | Apparatus and methods for high-speed video presentation |
JP5912496B2 (en) * | 2011-12-16 | 2016-04-27 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Digital playback device |
US8880929B2 (en) * | 2012-11-19 | 2014-11-04 | Blackfire Research Corporation | Indirect clock measuring and media adjustment |
CN103594103B (en) * | 2013-11-15 | 2017-04-05 | 腾讯科技(成都)有限公司 | Audio-frequency processing method and relevant apparatus |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6278678B1 (en) * | 1999-02-12 | 2001-08-21 | Sony Corporation | Editing apparatus, editing method, and recording medium |
KR100782255B1 (en) * | 1999-12-08 | 2007-12-04 | 리슨.컴 .인크. | Scheduled retrieval, storage and access of media data |
US6738427B2 (en) * | 2000-09-15 | 2004-05-18 | International Business Machines Corporation | System and method of processing MPEG streams for timecode packet insertion |
US6928039B2 (en) * | 2001-06-29 | 2005-08-09 | Texas Instruments Incorporated | Method and apparatus for the reduction of power consumption in a compact disc player |
MXPA04002148A (en) * | 2001-09-06 | 2004-06-29 | Thomson Licensing Sa | Method and apparatus for elapsed playback timekeeping of variable bit-rate digitally encoded audio data files. |
EP1615433A4 (en) * | 2003-03-19 | 2010-05-26 | Panasonic Corp | Data processing device |
JP2004341430A (en) * | 2003-05-19 | 2004-12-02 | Sony Corp | Apparatus and method for reproduction, recording medium, and program |
KR100546398B1 (en) * | 2003-11-25 | 2006-01-26 | 삼성전자주식회사 | Method for searching sync word in the encoded audio bitstream and computer readable medium thereof |
US7400351B2 (en) * | 2004-10-06 | 2008-07-15 | Microsoft Corporation | Creation of image based video using step-images |
-
2005
- 2005-09-09 KR KR1020050084131A patent/KR100639110B1/en not_active IP Right Cessation
-
2006
- 2006-09-07 US US11/470,791 patent/US8090458B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160032819A (en) * | 2014-09-17 | 2016-03-25 | 삼성전자주식회사 | Method and Electronic Device for managing audio data |
KR102229603B1 (en) * | 2014-09-17 | 2021-03-18 | 삼성전자주식회사 | Method and Electronic Device for managing audio data |
US10834435B2 (en) | 2016-08-18 | 2020-11-10 | Samsung Electronics Co., Ltd. | Display apparatus and content display method thereof |
Also Published As
Publication number | Publication date |
---|---|
US20070116435A1 (en) | 2007-05-24 |
US8090458B2 (en) | 2012-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100639110B1 (en) | Method of establishing time information of frame based audio stream data | |
JP2006221714A (en) | Encoded digital audio reproduction apparatus | |
JP2002351466A5 (en) | ||
US8185815B1 (en) | Live preview | |
CN101206894A (en) | Recording/reproduction apparatus | |
JP4649901B2 (en) | Method and apparatus for coded transmission of songs | |
JP2004341430A (en) | Apparatus and method for reproduction, recording medium, and program | |
JP4305867B2 (en) | Speech encoding method and speech decoding method | |
JP2013029679A (en) | Compressed audio player and average bit rate calculation method | |
JP2005310306A (en) | Reproduction time display device and reproduction time calculation method | |
JP2004348905A (en) | Audio reproducing device, method, and program | |
KR101254320B1 (en) | Electronic apparatus for displaying exact play time of media file and the method thereof | |
JP2007141378A (en) | Compressed audio play-back control method | |
JP3346406B2 (en) | Audio encoding method and audio decoding method | |
JP3346402B2 (en) | Audio encoding method and audio decoding method | |
JP3346404B2 (en) | Audio coding device | |
JP4305866B2 (en) | Speech encoding method and speech decoding method | |
JP3346405B2 (en) | Audio coding method | |
JP3346393B2 (en) | Audio coding method | |
EP0982727A1 (en) | Digital signal processing method and device, digital signal generating method and device, and signal recording medium and program recording medium | |
JP3346394B2 (en) | Audio encoding method and audio decoding method | |
JP2005189884A (en) | Voice coding method and voice decoding method | |
JPH08147883A (en) | Signal processor | |
KR20060026690A (en) | Method for playing mp3 file | |
JP2006031036A (en) | Sound encoding method and sound decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121011 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20131008 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |