KR20060024499A - 영상처리방법 - Google Patents

영상처리방법 Download PDF

Info

Publication number
KR20060024499A
KR20060024499A KR1020040073254A KR20040073254A KR20060024499A KR 20060024499 A KR20060024499 A KR 20060024499A KR 1020040073254 A KR1020040073254 A KR 1020040073254A KR 20040073254 A KR20040073254 A KR 20040073254A KR 20060024499 A KR20060024499 A KR 20060024499A
Authority
KR
South Korea
Prior art keywords
data
stored
memory
sound
video
Prior art date
Application number
KR1020040073254A
Other languages
English (en)
Inventor
김민년
정인홍
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020040073254A priority Critical patent/KR20060024499A/ko
Publication of KR20060024499A publication Critical patent/KR20060024499A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10037A/D conversion, D/A conversion, sampling, slicing and digital quantisation or adjusting parameters thereof
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • G11B2020/1075Data buffering arrangements, e.g. recording or playback buffers the usage of the buffer being restricted to a specific kind of data
    • G11B2020/10787Data buffering arrangements, e.g. recording or playback buffers the usage of the buffer being restricted to a specific kind of data parameters, e.g. for decoding or encoding

Abstract

본 발명은 음향미디어데이터(audio media data)를 버퍼링하여 저장함으로써, 메타데이터(meta-data)의 크기를 줄여 장시간동안 동영상 데이터를 저장할 수 있는 영상처리방법을 개시한다. 개시된 본 발명은 영상 및 음향 데이터를 디코딩한 다음, 샘플링하는 단계; 상기 샘플링된 영상 데이터를 실시간으로 메모리에 저장하고, 상기 음향 데이터는 버퍼에서 버퍼링을 하는 단계; 상기 음향 데이터의 버퍼링이 완료되었는지를 판단하는 단계; 상기 음향 데이터의 버퍼링이 완료되었다고 판단되면, 상기 실시간으로 영상 데이터가 저장되어 있는 메모리에 음향 데이터를 저장하는 단계; 및 상기 메모리에 저장되어 있는 영상 및 음향 데이터를 재생하기 위한 메타 데이터를 생성하여 저장하는 단계를 포함하는 것을 특징으로 한다.
MPEG, 동영상, 미디어, Atom, 저장, 플레쉬 메모리(flash memory)

Description

영상처리방법{METHOD FOR IMAGE PROCESS}
도 1은 일반적으로 휴대폰 단말기에서 동영상 녹화 및 재생되는 과정을 설명하기 위한 도면.
도 2는 일반적인 동영상 파일 포맷의 구조를 도시한 도면.
도 3은 일반적인 동영상 파일 포맷 중에서 영상 및 음향 데이터를 원활하게 재생하는 정보를 저장하고 있는 무비 아톰의 구조를 도시한 도면.
도 4는 동영상 파일을 버퍼링하는 시간에 따라 필요한 메모리를 도시한 그래프.
도 5는 본 발명에 따라 동영상 파일을 버퍼링하는 모습을 도시한 도면.
도 6은 본 발명에 따른 동영상 파일을 저장하는 과정을 도시한 플로챠트.
*도면의 주요 부분에 대한 부호의 설명*
101: 영상 부호화기 102: 음향 부호화기
105: 미디어 데이터 106: 메타 데이터
108: 영상 복호화기 109: 음향 복호화기
본 발명은 영상처리방법에 관한 것으로, 보다 구체적으로는 음향미디어데이터(audio media data)를 버퍼링하여 저장함으로써, 메타데이터(meta-data)의 크기를 줄여 장시간동안 동영상 데이터를 저장할 수 있는 영상처리방법에 관한 것이다.
현재, 그리고 미래의 통신 환경은 유선과 무선의 영역 구분이나, 지역이나 국가의 구분을 초월할 만큼 급변하고 있으며, 특히 IMT-2000 등으로 대별되는 미래 통신환경은 영상과 음성은 물론 사용자가 필요로 하는 다양한 정보를 실시간으로 또는 종합적으로 제공하는 환경으로 구축되어 가는 추세이다.
또한, 개인 휴대 통신 시스템의 발달은 현재 셀룰러폰이나 PCS등에서도 단순히 음성통신만을 수행하던 차원에서 벗어나서 문자 정보의 전송은 물론, 개인 휴대 통신 단말기를 이용해서 무선으로 인터넷에 접속하여 다양한 정보를 취득할 수 있는 정도까지 도달해 있다.
더구나, 동영상을 디지털 데이터로 가공하여 실시간으로 전송하고 또 이 것을 수신하여 디스플레이 하는 디지털 텔레비전 시스템은 종전에 단순히 영상(음성)만을 송출하는 차원에서 한 걸음 더 나아가, 디지털 정보가 가지는 이점을 극대화하기 위한 일련의 연구와 그 성과가 가시적으로 나타나고 있다.
특히, 영상신호를 디지털 데이터로 압축가공하고, 이 것을 보다 빠른 속도와 보다 풍부한 정보량으로 고속, 고화질의 실시간 전송을 위한 연구는 그 성과가 이미 나타나고 있으며, 상당한 수준에서 상용화가 이루어지고 또 이루어질 전망이며, 이러한 디지털 동영상 정보의 송출과 수신이 위성방송을 비롯하여 지상파 방송 시스템(때로는 유선 방송 시스템)으로 제공되는 단계에 와 있다.
현재 대부분의 단말기에서 동영상 데이터를 저장하는 가장 일반적인 포맷은 MPEG(Moving Picture Experts Group)-4 파일 포맷이며, 이는 ISO/IEC 14496에 정의되어 있는 것으로 Apple 사의 Quick Time File Format을 기반으로 만들어 졌다.
MPEG-4 파일 포맷에서는 Object 또는 Atom(Quick Time File Format에서는 Atom이라는 용어를 사용한다)이라고 하는 특별한 타입과 크기를 가지는 블록으로 구성된다.
도 1은 일반적으로 휴대폰 단말기에서 동영상 녹화 및 재생되는 과정을 설명하기 위한 도면으로서, 도시된 바와 같이, 휴대폰 단말기에서 카메라와 마이크를 통하여 촬영된 영상 및 음성 신호는 영상 부호화기(101)와 음향 부호화기(102)에서 부호화된다.
상기 영상 부호화기(101)와 음향 부호화기(102)에서 부호화된 신호는 MPEG-4 파일 포맷에 따라 미디어데이터(Media Data:105)와 메타데이터(Meta Data: 106)로 분리되어 저장된다.
상기 미디어데이터(105)는 상기 영상 부호화기(101)와 음향 부호화기(102)에서 부호화된 음향 정보와 영상 정보를 Movie Data Atom('mdat') 파일에 저장되고, 상기 메타데이터(106)는 상기 미디어데이터(105)에 저장된 음향 및 영상 부호화 정보를 원활하게 재생할 수 있도록 필요한 정보를 Movie Atom('moov') 파일에 저장되어 있다.
상기와 같이, 미디어데이터(105)와 메타데이터(106)에 저장된 음향 및 영상 부호화 정보는 영상 복호화기(108)와 음향 복호화기(109)에 의해서 영상 신호와 음 향 신호로 복원된다.
상기 영상 복호화기(108)와 음향 복호화기(109)에서 복원된 미디어데이터 신호는 휴대폰 단말기의 LCD와 스피커를 통해서 재생된다.
도 2는 일반적인 동영상 파일 포맷의 구조를 도시한 도면으로서, 도시된 바와 같이, MPEG-4 파일 포맷에 따라 미디어데이터(media data)와 메타데이터(meta data)가 저장되는 모습을 도시하였다.
상기 미디어데이터는 Movie Data Atom('mdat') 형태로 부호화된 음향과 영상 데이터를 저장하고 있고, 이렇게 저장된 음향과 영상 데이터를 재생할 때, 원활하게 재생할 수 있도록 하는 미디어데이터 정보를 메타데이터에서는 Movie Atom('moov') 파일 형태로 저장하고 있다.
보다 상세하게 설명하면, 상기 미디어데이터는 비디오프레임이나 오디오샘플들의 액서스 단위(Access Unit)로 저장이 되며 미디어데이터의 액서스 단위를 샘플(sample) 이라고 부른다.
상기 메타데이터를 저장하는 Movie Atom('moov') 파일은 미디어데이터 정보를 담고 있으며, 트랙의 개수, 압축기법, 시간정보, 각 샘플의 인덱스 등의 정보를 가지고 있다. 이것은 압축기법 정보를 통해 각 미디어데이터가 어떤 복호화기를 통해 재생되어야 하는지를 알려주며 시간 정보는 동영상 재생시에 각각의 샘플이 시간적으로 동기에 맞게 재생될 수 있도록 한다.
도 3은 일반적인 동영상 파일 포맷 중에서 영상 및 음향 데이터를 원활하게 재생하는 정보를 저장하고 있는 무비 아톰의 구조를 도시한 도면이다.
도 3에 도시된 바와 같이, Movie Atom('moov') 파일은 movie와 관련된 일반 정보를 저장하는 Movie Header Atom, IOD가 저장된 부분을 나타내는 Object Descriptor Atom, media track의 시작을 나타내는 Track Atom, 트랙과 관련된 일반 정보를 저장하는 Track Header Atom, 트랙의 meta를 처리할 때 참조해야할 트랙을 표시하는 Track Reference Atom, 트랙 IDs를 표시하는 Track Reference Type Atom, 트랙의 meta를 처리할 때, 참조해야할 트랙을 나타내는 Media Atom, media와 관련된 일반 정보를 저장하는 Media Header Atom, 트랙내의 media가 어떠한 타입인지를 나타내는 Handle Atom, media와 관련된 세부 정보를 저장하는 Media Information Atom, media 타입 및 일반 정보를 저장하는 Media Information Header Atom, media 데이터를 얻어낼 수 있는 상세정보를 기록하는 Sample Table Atom, 샘플의 duration 정보를 기록하는 Time To Sample Atom, sample을 디코딩하는데 필요한 정보를 기록하는 Sample Descripton Atom, Sample의 크기를 기록하는 Sample Size Atom, Sample들의 집합인 Chunk 정보를 기록하는 Sample To Chunk Atom, 파일의 시작부터 Chunk 까지 offset 정보를 기록하는 Chunk Offset Atom, Random Acess 기능을 지원하는 Sync Sample Atom으로 구성되어 있다.
일반적으로 동영상 녹화시 영상미디어데이터로 초당 10~15 프레임의 MPEG-4 또는 H.263 데이터를 사용하고, 음향미디어데이터로 음성에는 AMR, QCELP, EVRC 그리고 고음질에는 ACC등을 사용한다.
그러나, 휴대폰 단말기에서 동영상 녹화시 미디어데이터는 플레시 메모리에 실시간으로 저장되는데, 이것은 미디어데이터를 일반메모리에 저장할 경우 녹화 종 료시 전체 데이터를 플레시메모리로 저장하면, 많은 저장시간이 소요되기 때문이다.
특히, 메타데이터는 녹화 종료시 파일의 일부분에 저장이 되는데, 장시간 녹화시에는 메타데이터의 정보도 증가하므로 녹화종료시에 메타데이터의 정보 저장시간이 많이 소요된다.
그리고 이와 같이 실시간으로 데이터를 플레쉬메모리에 저장할 때, 종래에서는 영상 데이터와 음향 데이터(미디어데이터)를 교차(interleaved)되게 저장하였는데, 이와 같이 저장할 경우에는 미디어데이터의 재생을 위하여 필요한 메타데이터가 증가하여 저장시간이 오래 걸리게 된다.
상기와 같이 교차 방식을 사용하여 저장할 때, 메타데이터의 크기는 다음 수식으로 표현된다.
수학식 (1)
A+{8*MA+4*NA+12*PA+4*Q}+{8*MV+4*NV+12*PV +4*QV+4*YV}
A: 고정된 메타데이터크기, M: 'stts' Atom의 Entry Count, N: 'stsz' Atom의 Entry Count, P: 'stsc' Atom의 Entry Count, Q: 'stco' Atom의 Entry Count, Y: 'stss' Atom의 Entry Count이다.
유럽형 단말기의 VOD(Video On Demand), MMS(Multi Media Service)를 위해 3GP에서는 동영상 녹화에 영상 미디어데이터로 MPEG-4 Simple Profile과 음향미디어데이터로 AMR을 권고하고 있다.
3GPP 권고안을 따르면 초당 15프레임의 MPEG-4 데이터는 영상미디어데이터내 하나의 샘플로 67ms 또는 66ms 단위의 가변크기를 가지며 AMR 데이터는 가장 비트레이트가 높은 경우 음향미디어데이터내 하나의 샘플로 20ms 단위의 32byte의 크기를 가진다.
이런 미디어데이터를 실시간으로 저장하면 수학식 1에 의해서 4MB의 메타데이터가 필요하다. 이와 같은 메타데이터는 동영상 녹화가 종료될 때 4MB의 데이터를 플레쉬(flash)에 쓸 경우 저장 시간은 연산 과정을 포함해 약 10초 이상의 시간이 걸린다.
이와 같이 미디어데이터내의 샘플수가 증가하면 필요한 메타데이터의 크기가 커지기 때문에 장시간 녹화시 메타데이터의 저장시간 단축이 필요하다.
특히, 상기 수학식 1에 따라 샘플의 개수와 샘플의 크기는 부호화되는 방식에 따라 변경이 불가하기 때문에 메타 데이터를 줄이기 위해서는 미디어데이터의 덩어리 수를 줄여 Q, P 값을 줄여야 한다.
본 발명은, 동영상 녹화시에 음향 데이터는 버퍼링 한 다음 저장하고 영상 데이터는 실시간으로 메모리에 저장함으로써, 미디어 데이터의 덩어리 수를 줄이고 이로써, 메타 데이터의 크기를 줄여 동영상의 저장 시간을 단축시킨 이점이 있는 영상처리방법을 제공함에 그 목적이 있다.
상기한 목적을 달성하기 위한, 본 발명에 따른 영상처리방법은,
영상 및 음향 데이터를 디코딩한 다음, 샘플링하는 단계;
상기 샘플링된 영상 데이터를 실시간으로 메모리에 저장하고, 상기 음향 데이터는 버퍼에서 버퍼링을 하는 단계;
상기 음향 데이터의 버퍼링이 완료되었는지를 판단하는 단계;
상기 음향 데이터의 버퍼링이 완료되었다고 판단되면, 상기 실시간으로 영상 데이터가 저장되어 있는 메모리에 음향 데이터를 저장하는 단계; 및
상기 메모리에 저장되어 있는 영상 및 음향 데이터를 재생하기 위한 메타 데이터를 생성하여 저장하는 단계를 포함하는 것을 특징으로 한다.
여기서, 상기 음향 데이터의 버퍼링이 완료되지 않은 경우에는 녹화할 동영상 데이터가 존재하는 것이므로, 계속해서 영상 및 음향 데이터를 디코딩한 다음, 샘플링하는 단계;와 상기 샘플링된 영상 데이터를 실시간으로 메모리에 저장하고, 상기 음향 데이터는 버퍼에서 버퍼링을 하는 단계를 반복하는 것을 특징으로 한다.
그리고 상기 메모리에는 실시간으로 녹화될 영상 데이터가 저장된 다음, 음향 데이터가 저장되어 크게는 두 개의 데이터 덩어리로 저장되고, 상기 메모리에 저장된 영상 데이터와 음향 데이터에 대한 메타 데이터를 생성하여 저장하여 저장 시간을 단축시킨 것을 특징으로 한다.
본 발명에 의하면, 동영상 녹화시에 음향 데이터는 버퍼링 한 다음 저장하고 영상 데이터는 실시간으로 메모리에 저장함으로써, 미디어 데이터의 덩어리 수를 줄이고 이로써, 메타 데이터의 크기를 줄여 동영상의 저장 시간을 단축시킨 이점이 있다.
도 4는 동영상 파일을 버퍼링하는 시간에 따라 필요한 메모리를 도시한 그래프로서, 도시된 바와 같이, 버퍼링하는 시간(TB)에 따라 저장 메모리의 크기(MN)가 계단 형태로 증가하는 모습을 도시하였다.
일반적으로 음향 데이터를 버퍼링하는 동안 영상 데이터가 들어오는 경우에, 이 영상 데이터를 처리하지 못하면 영상 데이터는 손실되게 된다.
또한, 종래와 같이 음향 데이터와 영상 데이터를 하나의 덩어리 단위(chunk)로 저장하게 되면, 메모리에 저장되는 시간이 많이 걸리는 단점이 있다.
그리고 실시간으로 플레시 메모리에 음향 데이터와 영상 데이터가 교차(interleaved)되도록 저장하는 경우에도 장시간 녹화시에는 데이터의 덩어리 개수가 커지고 그에 따른 메타 데이터의 크기가 증가하여 저장시간이 오래 걸린다.
도 4에 도시된 바와 같이, 음향 데이터를 버퍼링하는 동안 영상 데이터가 들어오는 경우에는 영상 데이터를 저장하기 위하여 메모리가 급격하게 증가하는 경향을 보이고 있다.
이와 같이 메모리의 크기가 시간에 따라 급격하게 증가하면, 저장시간이 오래 걸리게 된다.
따라서, 본 발명에서는 음향 데이터를 버퍼에서 버퍼링하고 있는 동안, 영상 데이터를 곧바로 플레쉬 메모리에 저장하고, 녹화가 끝나면 버퍼에 저장된 음향 데이터를 플레쉬 메모리에 저장함으로써 데이터 량은 동일하지만, 덩어리 개수를 줄였다.
즉, 미디어 데이터에 영상 데이터와 음향 데이터 두개의 덩어리(chunk)로 구분되어, 메타 데이터량의 크기가 줄어들고 이로써 저장시간을 줄일 수 있다.
이하, 첨부한 도면에 의거하여 본 발명의 바람직한 실시 예를 자세히 설명하도록 한다.
도 5는 본 발명에 따라 동영상 파일을 버퍼링하는 모습을 도시한 도면이다.
도 5에 도시된 바와 같이, (가)는 종래 기술에 따라 영상 데이터와 음향 데이터를 교차(interleaved)되도록 저장하여 저장한 것이고, (나)는 본 발명에서 제안한 바와 같이, 영상 데이터를 실시간으로 먼저 플레쉬 메모리에 저장한 다음, 음향 데이터를 저장한 것이다.
(가)에서와 같이 종래 기술에서는 교차 방식으로 영상 데이터와 음향 데이터가 저장되어 있으므로, 영상 데이터의 데이터 덩어리와 음향 데이터의 데이터 덩어리가 각각 생성되어 전체적으로 데이터 덩어리(chunk)의 수가 매우 많음을 볼 수 있다.
하지만, (나)에서와 같이 버퍼에서 음향 데이터를 버퍼링하고, 영상 데이터는 실시간으로 플레쉬 메모리 상에 저장한 경우에는 메모리에 저장된 데이터 덩어리는 영상 데이터 덩어리와 음향 데이터 덩어리 두개로 구분된다.
이와 같이 데이터 덩어리수가 줄어듬으로써, 이에 대응되는 메타 데이터량이 줄어드는 이점이 있다.
1초(1000ms) 동안 플레쉬 메모리에 저장된 데이터 덩어리를 (가)와 (나)에서 서로 비교하면, 데이터 량은 동일하지만, 덩어리의 개수는 종래 기술이 훨씬 많아 메타 데이터의 저장 시간도 오래 걸리게 된다.
도 6은 본 발명에 따른 동영상 파일을 저장하는 과정을 도시한 플로챠트이다.
도 6에 도시된 바와 같이, 음향 데이터와 영상 데이터를 복호화한 후에 이를 재생하기 위하여 부호화된 음향 및 영상 데이터를 디코딩한다.
이때, 재생을 위하여 디코딩할 음향 및 영상 데이터가 디코딩이 완료되었는지를 판단하고, 디코딩이 완료되었으면 음향 및 영상 데이터를 재생할 때, 컨트롤하기 위한 정보(meta data)를 생성한다.(S501, S512, S513, S514)
즉, 메모리에 저장되어 있는 영상 데이터와 음향 데이터에 대한 메타 데이터를 생성하는 작업을 진행한다.
본 발명에서는 플레쉬 메모리에 영상 데이터와 음향 데이터를 각각 하나의 덩어리로 구분하여 저장하므로, 메타 데이터의 생성량을 현저히 줄였다.
만약, 재생을 위하여 디코딩할 음향 및 영상 데이터가 존재할 경우에는 음향 데이터는 샘플링한 다음, 버퍼에서 버퍼링하고(S501, S505), 영상 데이터는 샘플링한 다음, 이를 버퍼링한 후에 곧바로 플레쉬 메모리에 저장한다.(S501, S502, S503, S504)
먼저, 복호화된 음향 데이터와 영상 데이터를 샘플링한 다음, 데이터 량의 크기가 작은 음향 데이터를 버퍼에서 버퍼링한다.(S501, S505)
이때, 영상 데이터는 샘플링한 후 시간과 샘플링 크기를 샘플 테이블이 대응시켜 버퍼링을 진행한 다음, 곧바로 플레쉬 메모리에 저장을 한다.(S501, S502, S503, S504)
하지만, 음향 데이터는 샘플링한 후에 버퍼에 저장한 다음, 재생을 하고자 하는 샘플링 수(재생하고자하는 시간만큼)를 카운팅을 한다. 즉, 음향 데이터는 플레쉬 메모리에 영상 데이터를 저장한 다음, 맨 마지막에 저장하기 때문에 녹화 또는 재생을 위한 시간 동안 버퍼링을 계속한다.(S505, S506, S507)
이와 같이, 재생을 하는 시간 동안 버퍼에서 음향 데이터를 버퍼링하고, 재생을 위하여 버퍼링할 데이터 량을 버퍼링하였는지를 주기적으로 체크한다.(S508)
상기 음향 데이터가 재생할 시간동안 버퍼링을 완료하였다고 판단되면, 플레쉬 메모리에는 실시간으로 저장되어 있는 영상 데이터 다음에 음향 데이터를 저장한다.(S508, S509, S510, S511)
이와 같이, 본 발명에서는 녹화시에 디코딩되는 영상 데이터와 음향 데이터 중에서 영상 데이터를 실시간으로 메모리에 저장하고, 음향 데이터의 경우에는 재생시간 동안 버퍼링한 다음, 마지막에 메모리에 저장하여 메모리에는 두개의 데이터 덩어리로 구분되도록 하였다.
이렇게 구분된 데이터 덩어리에 대하여 메타 데이터를 생성하면, 메타 데이터의 크기가 현저히 줄어들게 되어 동영상 저장시간을 단축시켰다.
이상에서 자세히 설명된 바와 같이, 본 발명은 동영상 녹화시에 음향 데이터는 버퍼링을 하고 영상 데이터는 실시간으로 메모리에 저장함으로써, 재생을 위한 컨트롤 정보인 메타 데이터 량을 줄여 동영상을 장시간 저장 시에 저장 시간을 단 축시킨 이점이 있다.
본 발명은 상기한 실시 예에 한정되지 않고, 이하 청구 범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능할 것이다.

Claims (4)

  1. 영상 및 음향 데이터를 디코딩한 다음, 샘플링하는 단계;
    상기 샘플링된 영상 데이터를 실시간으로 메모리에 저장하고, 상기 음향 데이터는 버퍼에서 버퍼링을 하는 단계;
    상기 음향 데이터의 버퍼링이 완료되었는지를 판단하는 단계;
    상기 음향 데이터의 버퍼링이 완료되었다고 판단되면, 상기 실시간으로 영상 데이터가 저장되어 있는 메모리에 음향 데이터를 저장하는 단계; 및
    상기 메모리에 저장되어 있는 영상 및 음향 데이터를 재생하기 위한 메타 데이터를 생성하여 저장하는 단계를 포함하는 것을 특징으로 하는 영상처리방법.
  2. 제 1 항에 있어서,
    상기 음향 데이터의 버퍼링이 완료되지 않은 경우에는 녹화할 동영상 데이터가 존재하는 것이므로, 계속해서 영상 및 음향 데이터를 디코딩한 다음, 샘플링하는 단계;와
    상기 샘플링된 영상 데이터를 실시간으로 메모리에 저장하고, 상기 음향 데이터는 버퍼에서 버퍼링을 하는 단계를 반복하는 것을 특징으로 하는 영상처리방법.
  3. 제 1 항에 있어서,
    상기 메모리에는 실시간으로 녹화될 영상 데이터가 저장된 다음, 음향 데이터가 저장되어 크게는 두 개의 데이터 덩어리로 저장되는 것을 특징으로 하는 영상처리방법.
  4. 제 3 항에 있어서,
    상기 메모리에 저장된 영상 데이터와 음향 데이터에 대한 메타 데이터를 생성하여 저장하여 저장 시간을 단축시킨 것을 특징으로 하는 영상처리방법.
KR1020040073254A 2004-09-14 2004-09-14 영상처리방법 KR20060024499A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040073254A KR20060024499A (ko) 2004-09-14 2004-09-14 영상처리방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040073254A KR20060024499A (ko) 2004-09-14 2004-09-14 영상처리방법

Publications (1)

Publication Number Publication Date
KR20060024499A true KR20060024499A (ko) 2006-03-17

Family

ID=37130312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040073254A KR20060024499A (ko) 2004-09-14 2004-09-14 영상처리방법

Country Status (1)

Country Link
KR (1) KR20060024499A (ko)

Similar Documents

Publication Publication Date Title
KR101868281B1 (ko) 정보 처리 장치, 정보 처리 방법 및 컴퓨터 판독 가능한 기록 매체
TWI323602B (ko)
CN103039087B (zh) 用于发射经编码视频数据的方法和装置
KR101010258B1 (ko) 미디어 스트림의 타임­쉬프트 프리젠테이션
KR100693598B1 (ko) 정지영상을 이용한 동영상 생성 기능을 가지는무선통신단말기 및 그 방법
JP5026167B2 (ja) ストリーム伝送サーバおよびストリーム伝送システム
JP2007012218A (ja) 再生装置、ビデオ復号装置および同期再生方法
JP2005229587A (ja) 多重化方式変換装置
KR101421390B1 (ko) 트릭 모드 비디오 표현물에 대한 비디오 샘플의 시그널링
KR20060088303A (ko) 디지털 방송 수신기의 동영상 저장/재생 장치 및 방법
KR101142379B1 (ko) 디지털 방송 재생 방법 및 장치, 디지털 방송 녹화 방법
US20090136204A1 (en) System and method for remote live pause
US8085843B2 (en) MP4 demultiplexer and method of operating the same
JPWO2006016418A1 (ja) 符号化ストリーム記録媒体、画像符号化装置、及び画像復号化装置
JP4368125B2 (ja) コンテンツ受信および音声通話が可能な通信端末装置
KR20060024499A (ko) 영상처리방법
JP2006238003A (ja) 逆多重化装置
JP5042182B2 (ja) 要約コンテンツ生成装置およびコンピュータプログラム
JP4579877B2 (ja) 再生装置及び再生方法
CN101102518A (zh) 影像处理方法
US20030128969A1 (en) Personal video recorder and method for operating the same
JP2005117447A (ja) 動画記録装置、動画記録方法および動画記録プログラム
TWI337042B (en) Method and recording system for recording media data
US8249432B2 (en) Video and audio playback apparatus and video and audio playback method
KR100956821B1 (ko) Pvr 재생 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination