KR20070119579A - 화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램 및화상 열람 시스템 - Google Patents

화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램 및화상 열람 시스템 Download PDF

Info

Publication number
KR20070119579A
KR20070119579A KR20070059157A KR20070059157A KR20070119579A KR 20070119579 A KR20070119579 A KR 20070119579A KR 20070059157 A KR20070059157 A KR 20070059157A KR 20070059157 A KR20070059157 A KR 20070059157A KR 20070119579 A KR20070119579 A KR 20070119579A
Authority
KR
South Korea
Prior art keywords
image data
head region
frames
size
still picture
Prior art date
Application number
KR20070059157A
Other languages
English (en)
Other versions
KR100940499B1 (ko
Inventor
료우스케 우사미
Original Assignee
후지필름 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지필름 가부시키가이샤 filed Critical 후지필름 가부시키가이샤
Publication of KR20070119579A publication Critical patent/KR20070119579A/ko
Application granted granted Critical
Publication of KR100940499B1 publication Critical patent/KR100940499B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23608Remultiplexing multiplex streams, e.g. involving modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

디멀티플렉싱 처리부는 입력 동영상 파일로부터 영상 데이터를 디멀티플렉싱한다. 트리밍부는 동영상 파일상에 미리 결정된 선두 프레임 수를 헤드 영역으로서 트리밍하고, 헤드 영역 영상 데이터를 생성한다. 디코딩부는 헤드 영역 영상 데이터를 시계열로 배열된 정지 화상 프레임으로 디코딩한다. 프레임 추출부는 디코딩된 헤드 영역 영상 데이터의 몇 개의 정지 화상 프레임을 균등한 시간 간격으로 추출한다. 간이 동영상 생성부는 추출된 정지 화상 프레임이 시계열로 배열되어 결합된 간이 동영상 파일을 생성한다.
화상 처리 장치, 트리밍부, 디코딩부, 추출부, 간이 동영상 생성부

Description

화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램 및 화상 열람 시스템{IMAGE PROCESSING METHOD, IMAGE PROCESSING DEVICE, IMAGE PROCESSING PROGRAM AND IMAGE BROWSING SYSTEM}
도 1은 본 발명의 화상 처리부를 이용한 화상 열람 시스템의 개요를 나타내는 설명도이다;
도 2는 화상 처리부의 개요를 나타내는 블록도이다;
도 3은 화상 처리부의 동작 순서를 나타내는 순서도이다;
도 4는 헤드 영역 영상 데이터로부터 정지 화상 프레임의 추출을 나타내는 개념도이다;
도 5는 제 2 실시예의 화상 처리부의 동작 순서를 나타내는 순서도이다;
도 6은 제 3 실시예의 화상 처리부의 개요를 나타내는 블록도이다;
도 7은 제 3 실시예의 화상 처리부의 동작 순서를 나타내는 순서도이다;
도 8은 제 4 실시예의 화상 처리부의 동작 순서를 나타내는 순서도이다;
도 9는 제 5 실시예의 화상 처리부의 동작 순서를 나타내는 순서도이다;
도 10은 제 6 실시예의 화상 처리부의 동작 순서를 나타내는 순서도이다.
본 발명은 복수의 정지 화상 프레임을 포함하는 압축 형식의 영상 데이터를 디코딩하며, 비압축 형식의 복수의 정지 화상 프레임을 선택적으로 추출하고 간이 동영상 데이터를 생성하기 위해 추출된 정지 화상 프레임을 시계열로 결합하는 화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램, 및 화상 열람 시스템에 관한 것이다.
최근 여러 해에, 많은 휴대 전화가 내장 카메라의 사용으로 동영상 녹화 기능 및 동영상의 재생 기능을 갖는다. 휴대 전화에 의해 녹화된 동영상 데이터는 메일 또는 다른 형식의 첨부 파일로 다른 휴대 전화로 송신될 수 있다. 이러한 상황의 배경은 3GPP(W-CDMA 방식의 표준화 수단) 및 3GPP2(CDMA2000 방식의 표준화 수단)가 3G(제 3 세대) 휴대 전화의 보급으로 MPEG-4 기술에 의거한 동영상의 표준 수단을 설정하여, 다른 기종과 휴대 전화의 캐리어 사이에 호환성이 증가된 것을 들 수 있다.
MPEG 동영상 데이터나 그러한 표준 방식 동영상 데이터(표준 동영상 데이터)가 예컨대, 15-30 프레임/sec의 프레임 비율을 유지하므로, 이는 대량의 정지 화상 프레임을 포함하고, 이 파일 크기(데이터량)는 통상 크다. 이 큰 파일 크기 동영상 데이터를 고압축률로 압축하기 위해, MPEG 및 다른 표준은 범용 데이터 압축 방법과 다른 특별한 영상 데이터 압축 방법(즉, 프레임 압축 방법)을 이용한다. 공지된 바와 같이, 프레임 압축 방법은 단일 프레임의 화소 사이의 중복성을 조사함으로써 압축하는 인트라프레임 압축, 및 연속 프레임 사이의 이동을 예견함으로써 압축한 인트라프레임 압축으로 분할된다.
최근에, 표준 동영상 데이터를 다룰 수 있는 고기능 휴대 전화가 보급되는 한편, 정지 화상 또는 기껏해야 애니메이션 GIF와 같은 간이 동영상만을 다루는 저기능 휴대 전화가 여전히 많이 있다. 간이 동영상 데이터는 MPEG 동영상 데이터보다 더 낮은 프레임율을 유지하고, 프레임 압축 방법에 의해 압축되지 않는다. 그러한 저프레임율 때문에, 피사체는 간이 동영상에서 거의 부드럽게 이동하지 않고, 이러한 사실은 간이 동영상을 프레임 바이 프레임(frame by frame) 동영상으로 불려진다. 가능한 프렘임율이 극히 낮으면, 간이 동영상은 정지 화상의 슬라이드 쇼나 간헐적 디스플레이만을 나타내고, 또한 간이 동영상은 연속 정지 화상으로 불려진다. 그러나, 저프레임율은 간단한 영상 데이터가 작은 크기가 되도록 하고, 이에 적용된 범용 압축 방법은 간이 동영상 데이터가 적은 부하로 디코딩되거나 재생되도록 한다. 따라서, 간이 동영상은 대체로 저기능 휴대 전화에 의해 유지된다. 명백하게, 저기능 휴대 전화는 그것이 고기능 휴대 전화로부터 MPEG 동영상 데이터를 받을 수 없다는 단점을 가진다.
통상 공지된 바와 같이, 아이모션(i-motion) 메일(등록 상표) 시스템이 있다. 이 시스템에서, 송신측 휴대 전화에 의해 첨부 파일로서 보내진 동영상 파일은 서버에 일시적으로 저장되고, 수신측 휴대 전화는 동영상 파일의 저장 영역의 주소를 포함하는 메일을 수신한다. 수신측 휴대 전화가 동영상을 열람하기 위해 서버로 요청을 송신한 후에, 서버는 수신측 휴대 전화로 동영상 데이터를 보낸다. 서버가 아이모션 메일(등록 상표)에 비대응의 수신측 휴대 전화로부터 동영상을 열람하기 위한 요청을 수신하는 경우에, 서버는 동영상 데이터를 연속 정지 화상으로 변환하고 수신측 휴대 전화로 간이 동영상으로서 그것을 보낸다.
일본 특허 공개 제2004-229103호는 데이터 통신 네트워크를 통해 전송된 MPEG 동영상 데이터를 애니메이션 GIF로 변환해서 그것을 배분하는 화상 배분 시스템을 공지한다.
간이 동영상 데이터는 음성 데이터로부터 영상 데이터를 분리하도록 멀티플렉싱된 영상 데이터와 음성 데이터로 구성된 동영상 데이터에 먼저 디멀티플렉싱 처리를 적용함으로써 MPEG 동영상 데이터로부터 작성할 수 있다. 이후, 분리된 영상 데이터는 디코딩되고, 영상 데이터의 모든 정지 화상 프레임은 비압축된다. 몇 개의 정지 화상 프레임은 이 모든 비압축된 정지 화상 프레임으로부터 일정한 샘플링 간격으로 추출되고, 이후 결합하여 간이 동영상을 생성한다(예컨대, 일본 특허 공개 제2004-7138호 참조).
일본 특허 공개 제2004-7138호의 공지에 따라, 프레임 압축 영상 데이터의 모든 프레임은 정지 화상 프레임이 간이 동영상을 위해 추출되기 전에 디코딩된다. 그러나, 프레임 압축 영상 데이터의 디코딩 처리는 시간을 필요로 하고, 간이 동영상 생성 처리를 완료하는 데 시간이 많이 걸린다.
본 발명의 목적은 단시간에 압축 영상 데이터로부터 간이 동영상을 생성할 수 있는 화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램 및 화상 열람 시스템을 제공하는 것이다.
상기 목적 및 다른 목적을 달성하기 위해, 본 발명의 화상 처리 방법은 제 1내지 제 4 단계를 포함한다. 제 1 단계에서는 원 영상 데이터의 헤드에 일렬의 정지 화상 프레임이 압축 형식의 헤드 영역 영상 데이터를 생성하는 헤드 영역으로서 트리밍된다. 원 영상 데이터는 프레임에 의거하여 압축된 복수의 정지 화상 프레임을 포함한다. 제 2 단계에서는 압축 형식의 헤드 영역 영상 데이터가 비압축 형식으로 디코딩된다. 제 3 단계에서는 복수의 정지 화상 프레임이 비압축 형식의 헤드 영역 영상 데이터로부터 균등한 시간 간격으로 추출한다. 제 4 단계에서는 간이 동영상 데이터가 추출된 정지 화상 프레임을 시계열로 배열하여 결합함으로써 생성된다.
각 영상 데이터는 프레임율, 비트율, 재생 시간 등에 따라 다른 크기를 갖는다. 영상 데이터의 크기가 클 때, 헤드 영역은 디코딩하기 전에 데이터 크기를 줄이도록 트리밍되는 것이 바람직하다. 그러나, 영상 데이터의 크기가 작을 때, 헤드 영역은 트리밍될 필요가 없다. 그러므로, 영상 데이터의 크기와 한계치를 비교하는 단계는 제 1 단계 전에 추가될 수 있다. 이 경우에, 영상 데이터의 크기가 한계치보다 더 클 경우에만 헤드 영역은 제 1 단계에서 트리밍되어, 압축 형식의 헤드 영역 영상 데이터의 크기가 한계치보다 더 크게 되지 않는다. 한계치는 소정의 고정치 또는 변수 중 어느 것도 될 수 있다.
제 1 단계에서, 영상 데이터의 정지 화상 프레임의 수와 영상 데이터의 크기 사이의 비율에 의거하여, 압축 형식의 헤드 영역 영상 데이터의 크기에 대응하는 정지 화상 프레임의 수가 헤드 영역으로서 트리밍되는 것이 바람직하다.
본 발명의 화상 처리 장치는, 트리밍부, 디코딩부, 추출부 및 간이 동영상 생성부를 포함한다. 트리밍부에서, 원 영상 데이터의 헤드에서 일렬의 정지 화상 프레임은 압축 형식의 헤드 영역 영상 데이터를 생성하는 헤드 영역으로서 트리밍된다. 원 영상 데이터는 프레임에 의거하여 압축된 복수의 정지 화상 프레임을 포함한다. 디코딩부에서 압축 형식의 헤드 영역 영상 데이터는 비압축 형식으로 디코딩된다. 추출부에서 복수의 정지 화상 프레임은 비압축 형식의 헤드 영역 영상 데이터로부터 균등한 시간 간격으로 추출한다. 간이 동영상 생성부에서 간이 동영상 데이터는 추출된 정지 화상 프레임을 시계열로 배열하여 결합함으로써 생성된다.
압축된 형식의 영상 데이터가 인트라프레임 압축 방식으로 되어 있을 때, 트리밍부는 키 프레임에 의거한 압축 형식의 영상 데이터로부터 헤드 영역을 트리밍한다.
본 발명은 상술한 화상 처리 방법을 컴퓨터에 실행시키는 화상 처리 프로그램을 포함한다.
본 발명의 화상 열람 시스템은 서버와 휴대 단말기를 포함한다. 서버는 상술한 화상 처리 장치를 포함하고 전기 통신 회선를 통해 화상 처리 장치에 의해 생성된 간이 동영상을 발신한다. 휴대 단말기는 전기 통신 회선를 통해 서버로부터 간이 동영상을 수신하고 간이 동영상을 재생한다.
본 발명에 의하면, 압축 형식의 영상 데이터의 헤드 영역은 트리밍되어 헤드 영역 영상 데이터를 생성하기 위해 이용되고, 정지 화상 프레임의 추출 전에 비압 축 형식로 디코딩된다. 그러므로, 본 발명에서 간이 동영상을 생성하는 시간량은 전체 영상 데이터가 디코딩되고 정지 화상이 추출되는 경우보다 더 작다.
상기 및 다른 목적 및 본 발명의 장점은 설명으로서만 주어지고 본 발명을 제한하지 않는 첨부 도면과 관련하여 읽혀질 때, 바람직한 실시예의 이하 상세한 설명으로 분명하게 될 것이다. 도면에서, 참조 번호는 대응하는 몇 개의 도면의 부분을 명시한다.
도 1에 도시된 바와 같이, 본 발명의 화상 열람 시스템(10)은 인터넷과 같은 전기 통신 회선(11)에 접속할 수 있는 메일 서버(12), 메일 서버(12)에 직접 연결된 컴퓨터인 관리 서버(13), 및 전기 통신 회선(11)를 통해 관리 서버(13) 및 메일 서버(12)와 통신할 수 있는 휴대 전화(14,15)를 포함한다. 휴대 전화(14,15)는 카메라 기능, 이 카메라 기능에 의해 캡쳐된 동영상을 포함하는 첨가 동영상 파일을 포함한 메일을 송신하는 기능, 및 동영상 파일을 재생하는 기능을 갖는다. 메일은 특히 송신자 단말기의 주소(송신자 주소) 및 수신자 단말기의 주소(수진자 주소)인 단말기 지정 정보를 수송한다. 휴대 전화(14)가 국제 동영상 압축 표준, 즉, MPEG 방식을 유지하는 고기능 단말기임이 공지되어 있다. 즉, 휴대 전화(14)는 정지 화상 프레임이 고압축된 비가역 압축 디지털 데이터를 다룰수 있다. 반면, 휴대 전화(15)는 MPEG 방식을 지원하지 않지만 단순한 동영상을 지원하는 저기능 단말기이다.
메일 서버(12)는 전기 통신 회선(11)를 통해 휴대 전화(14)[송신자 단말기]로부터 메일을 수신하고, 하나 이상의 수신자 주소로 이 메일을 전송한다. 동영상 파일이 메일에 첨부될 때, 메일 서버(12)는 메일로부터 동영상 파일을 가지고 송신자 주소로 동영상 파일을 링크하며, 그리고 관리 서버(13)로 동영상 파일을 송신한다. 이 동영상 파일을 열람하는 열람 주소는 수신자 주소로 메일에 첨부된다.
관리 서버(13)는 데이터 관리부(16)를 포함한다. 메일 서버(12)로부터 동영상 파일을 수신할 때, 데이터 관리부(16)는 영상 데이터 축적부(17)에 동영상 파일을 축적하고, 메일 서버(12)로 열람 주소를 되돌려 보낸다. 또한, 데이터 관리부(16)는 영상 데이터 축적부(17)에 저장된 동영상 파일 위치로 열람 주소를 관련시킨 테이블 데이터를 제작하고, 데이터 저장부(18)에 이 테이블 데이터를 저장한다.
관리 서버(13)는 요구 접수부(19)를 더 포함한다. 요구 접수부(19)는 동영상 파일을 열람하는 이동 단말기(15)로부터 요구(열람 주소를 포함)를 접수하는 부분이다. 요구를 수신할 때, 요구 접수부(19)는 데이터 관리부(16)로 열람 주소를 송신한 다음 데이터 저장부(18)를 참조하여 이 열람 주소에 관련되어 있는 저장된 동영상 파일의 위치를 조사한다. 데이터 관리부(16)는 데이터 저장부(18)로부터 동영상 파일을 검색하고, 화상 처리부(20)로 그것을 입력한다. 화상 처리부(20)는 간이 동영상 파일을 생성하는 입력 동영상 파일을 처리하고, 화상 전달부(21)로 간이 동영상 파일을 송신한다. 그리고, 화상 전달부(21)는 휴대 전화(15)로 간이 동영상 파일을 송신한다. 이 간이 동영상은 휴대 전화(15)에 대응하는 적용 프로그램에 의해 재생된다.
도 2 및 도 3에 도시된 바와 같이, 화상 처리부(20)는 디멀티플렉싱 처리 부(25), 메모리(26), 트리밍부(27), 디코딩부(28), 프레임 추출부(29), 간이 동영상 생성부(30), 제어부(31) 및 워크 메모리(32)를 포함한다. 디멀티플렉싱 처리부(25)는 영상 데이터 축적부(17)로부터 동영상 데이터 입력을 영상 데이터 및 음성 데이터로 디멀티플렉싱하고, 영상 데이터를 트리밍부(27)로 송신한다.
예컨대, 비디오 비트율이 128K(bps)일 때, 음성 비트율은 12.2K(bps)이고 프레임율은 15(fps)이며, MPEG 파일의 크기는 [128K(bps) + 12.2K(bps)] × 15(fps) / 8 = 262.875K(byte)일 것이다. 영상 데이터가 동영상 파일로부터 디멀티플렉싱될 때, 영상 데이터의 크기는 동영상 파일의 크기보다 더 작은 128K(bps) × 15(fps) / 8 = 240K(byte)가 된다. 트리밍부(27)는 헤드 영역 영상 데이터로서 헤드 영역(제 1 프레임으로부터 미리 결정된 많은 프레임)을 트리밍한다.
예컨대, 영상 데이터가 각 프레임이 독립적으로 비압축되도록 하는 인트라프레임 압축의 모션 JPEG 표준 압축 방법에 의해 압축되면, 영상 데이터는 프레임(키 프레임)에 기초로 트리밍될 수 있다. 영상 데이터가 인트라프레임 압축 및 인터프레임 압축 결합에 의해 압축되면, 영상 데이터는 인터프레임 압축에 대한 단위 GOP(사진의 그룹)를 기초로 트리밍된다.
트리밍부(27)는 압축 형식의 영상 데이터에서 총 프레임에 대한 프레임의 소정 비율을 헤드 영역으로서 트리밍된다. 예컨대, 헤드 영역의 비율이 50%로 결정되고 영상 데이터에 14 프레임이 있을 때, 제 1 내지 제 7 프레임은 헤드 영역으로서 트리밍된다.
압축 형식의 전체 영상 데이터에 대한 헤드 영역의 비율은 재생 시간 또는 파일 크기에 따라 결정될 수 있다.
디코딩부(28)는 압축 헤드 영역 영상 데이터를 복수의 비압축 정지 화상 프레임의 영상 데이터로 디코딩한다. 디코딩부(28)가 원 영상 데이터로부터 트리밍된 헤드 영역 영상 데이터만을 디코딩하므로, 처리는 전체 영상 데이터가 디코딩되는 경우보다 더 빠르게 수행될 수 있다. 프레임 추출부(29)는 균등한 시간 간격으로 비압축 형식의 영상 데이터로부터 복수의 정지 화상 프레임을 추출한다.
예컨대, 도 4에 도시된 바와 같이, 비압축 형식의 영상 데이터에 7개 정지 화상 프레임이 있을 때, 먼저 제 1, 제 3, 제 5 및 제 7 정지 화상 프레임이 추출한다.
간이 동영상 생성부(30)는 추출된 정지 화상 프레임을 시계열로 배열하여 그것을 결합하여 간이 동영상 데이터를 생성하며, 대응하는 적용에 의해 재생된 어떤 방식의 파일로서 간이 동영상 데이터를 출력한다. 간이 동영상 파일은 정지 화상 등에 대한 소정의 디스플레이 시간 간격과 같은 파라미터를 기초로 생성된다. 간이 동영상에 적용가능한 파일의 종류로는, 각 정지 화상 데이터가 압축되고 시계열로 서로 연결되는 애니메이션 GIF 파일, 또는 정지 화상 프레임이 시계열로 먼저 배열된 후, 결합 압축된 동영상 파일(AVI 또는 WMV의 파일 확장을 갖는 파일 등)이 있다. 간이 동영상가 프레임 압축 방법에 의해 압축되지 않았지만 범용 데이터 압축 방법에 의해 압축된 것이 공지되어 있다.
도 2를 다시 참조하면, 제어부(31)는 디멀티플렉싱 처리부(25), 메모리(26), 트리밍부(27), 디코딩부(28), 프레임 추출부(29), 간이 동영상 생성부(30) 및 워크 메모리(32)의 전체 제어를 수행한다. 워크 메모리(32)는 부(25) 내지 부(30)에서 수행된 처리를 위해 사용된다. 메모리(26)는 제어부(31)에 연결되고, 명시된 파라미터 및 소정의 파라미터를 기억한다. 제어부(31)에 동작부(33)가 연결된다. 동작부(33)는 트리밍부(27)에 트리밍된 헤드 영역의 비율을 명시하거나 변경하기 위해 사용된다. 또한, 동작부(33)는 정지 화상 프레임 등에 대해 소정의 디스플레이 시간 간격과 같은 간이 동영상 생성부(30)에 대한 파라미터를 명시하거나 변경하기 위해 사용된다.
[제 2 실시예]
제 2 실시예에서, 도 5에 도시된 바와 같이, 제 1 실시예에서 압축 형식의 영상 데이터의 총 프레임 수, 파일 크기 또는 영상 데이터의 재생 시간 중 어느 하나에 대한 헤드 영역의 비율은 소정의 고정치이며, 영상 데이터에서 총 정지 화상 프레임에 대한 압축 형식의 헤드 영역 영상 데이터에서 정지 화상 프레임의 비율(X)은 파라미터이다.
비율(X)은 헤드 영역 영상 데이터의 파일 크기가 일정하게 되도록 동영상 파일의 파일 크기에 따라 변경될 수 있다. 또한, 비율(X)은 헤드 영역 영상 데이터에서 프레임 수가 일정하게 되도록 영상 데이터에서 총 프레임 수에 따라 변경될 수 있다. 다른 말로, 비율(X)은 트리밍 후의 파일 크기나 프레임 수가 소정의 고정치가 되도록 결정된다.
[제 3 실시예]
도 6에 도시된 바와 같이, 제 3 실시예의 화상 처리부(40)는 비교부(41)를 포함한다. 비교부(41)는 입력 영상 데이터의 크기와 한계치(소정의 고정치)를 비교하고, 제어부(31)로 결과를 송신한다. 제어부(31)는 영상 데이터의 크기가 한계치보다 더 클 때 헤드 영역을 트리밍하도록 트리밍부(42)를 제어하고, 영상 데이터의 크기가 한계치보다 크지 않을 때 트리밍 처리를 스킵한다. 또한, 제어부(31)는 트리밍부(42)로 헤드 영역의 프레임 수의 정보를 송신한다. 헤드 영역의 프레임 수는 아래 식 1에 따라 산출된다. 트리밍부(42)는 산출된 프레임 수에 대응하는 헤드를 트립하여 헤드 영역 영상 데이터를 생성한다. 식 1은 메모리(26)에 저장된다.
[식 1]
(F) = (Fn) × (Y) / (S)
여기서, (F)는 헤드 영역에서의 프레임 수이며, (Fn)은 디멀티플렉싱 처리 후의 영상 데이터의 총 프레임 수이며, (Y)는 디코딩 처리 후의 헤드 영역 영상 데이터의 파일 크기이며, (S)는 입력 동영상 파일(기존 동영상 파일)의 파일 크기이다. (Y)는 한계치와 같은 치를 가진다. 식 1에 의하면, 디코딩된 헤드 영역 영상 데이터의 파일 크기(Y)에 대응하는 프레임의 수는 동영상 파일에서의 프레임 수와 동영상 파일의 크기 사이의 비율에 의거하여 결정될 수 있다.
예컨대, 한계치가 화상 처리부(40)에서 512K(byte)로 미리 결정될 때, 먼저 비교부(41)가 입력 동영상 파일의 크기가 한계치[512K(byte)]보다 큰지를 판단한다. 입력 동영상 파일의 크기가 1M(byte)일 때, 트리밍부(42)는 트리밍 처리를 실행한다. 영상 데이터에 14개 프레임이 있을 때, 헤드 영역에서의 프레임 수는 식 1에 따라 7개가 된다. 따라서, 트리밍부(42)는 헤드 영역으로서 제 1 내지 제 7 프 레임을 트리밍한다.
이에 반대로, 입력 동영상 파일의 크기가 한계치[512K(byte)] 이상이 아닌 256K(byte)일 때, 트리밍 처리는 스킵되고 총 영상 데이터는 디코딩부(28)에 의해 비압축 영상 데이터로 디코딩된다. 그리고, 복수의 정지 화상 프레임이 프레임 추출부(29)에서의 비압축 영상 데이터로부터 균등한 시간 간격으로 추출되고, 간이 동영상 생성부(30)는 간이 동영상 파일을 생성한다. 본 실시예에 의하면, 동영상 파일의 크기가 소정치보다 더 클 때, 간이 동영상의 프레임(파일 크기)의 수는 일정할 수 있다.
[제 4 실시예]
도 8에 나타낸 바와 같이, 제 4 실시예에서도 트리밍 처리는 영상 데이터의 크기가 한계치이상일 때 수행되고, 영상 데이터의 크기가 한계치 미만일 때 스킵된다. 그러나, 제 4 실시예에서, 디코딩 처리 후의 헤드 영역 영상 데이터의 파일 크기는 파라미터이다(제 3 실시예에서, 크기는 소정의 고정치임). 제 4 실시예에서, 헤드 영역에서의 프레임 수는 이하 식 2에 따라 산출된다.
[식 2]
(F) = (Fn) × (Y) / (S)
여기서, (F)는 헤드 영역에서의 프레임 수이며, (Fn)은 디멀티플렉싱 처리 후의 영상 데이터의 총 프레임 수이며, (Y)는 디코딩 처리 후의 헤드 영역 영상 데이터의 파일 크기(파라미터)이고, (S)는 입력 동영상 파일(기존 동영상 파일)의 사이즈이다. (Y)는 한계치보다 작은 값를 가진다.
파일 크기(Y)는 녹화 모드(동영상 파일의 비트율, 비디오 프레임율, 또는 2개의 조합 등)나 파일 크기에 따라 또는 디멀티플렉싱 처리 후의 영상 데이터의 총 프레임 수에 따라 변경될 수 있다. 메모리(26)는 디코딩된 헤드 영역 영상 데이터의 파일 크기 및 파일 크기(Y)를 결정하는 요소에 관한 테이블을 저장한다. 제어부 (31)는 동영상 파일 및 테이블을 참조하여 디코딩된 헤드 영역 영상 데이터의 파일 크기를 결정하고, 식 2로부터 산출된 헤드 영역에서의 프리엠 수의 정보를 트리밍부(42)로 송신한다. 트리밍부(42)는 산출된 프레임 수를 트리밍한다.
[제 5 실시예]
제 5 실시예에서, 한계치는 도 9에 도시된 바와 같이, 파라미터(Z)이다(제 4 실시예에서, 한계치는 소정의 고정치이다). 한계치(Z)는 녹화 모드(동영상 파일의 비트율, 비디오 프레임율, 또는 2개의 조합 등)나 동영상 파일의 크기에 따라, 또는 디코딩된 영상 데이터에서 총 프레임의 수에 따라 결정될 수 있다. 또한, 한계치(Z)는 간이 동영상 파일이 대량 프레임이 추출되는 고해상도 화상 모드에서 또는 소량 프레임이 추출되는 저해상도 모드에서 생성되는지에 따라 결정될 수 있다.
제 5 실시예에서, 헤드 영역에서의 프레임 수는 이하 식 3에 따라 산출된다.
[식 3]
(F) = (Fn) × (Z) / (S)
여기서, (F)는 헤드 영역에서의 프레임 수이며, (Fn)은 디멀티플렉싱 처리 후의 영상 데이터의 총 프레임 수이며, (Z)는 디코딩 처리 후의 헤드 영역 영상 데이터의 파일 크기(파라미터)이고, (S)는 입력 동영상 파일(기존 동영상 파일)의 크 기이다. 파라미터(Z)가 한계치와 동일한 값을 갖는다.
메모리(26)는 한계치에 관한 테이블과 한계치(Z)를 결정하는 요소를 저장한다. 제어부(31)는 동영상 파일과 테이블을 참조하여 한계치(Z)를 결정하고, 결정된 한계치의 정보를 비교부(41)로 송신한다. 비교부(41)는 결정된 한계치와 동영상 파일의 크기를 비교해서, 그 결과를 제어부(31)로 송신한다. 제어부(31)는 트리밍 처리가 필요한지를 판단하고, 트리밍 처리가 필요할 때 식 3에 따라 헤드 영역에서의 프레임 수를 산출한다. 그리고, 제어부(31)는 산출된 결과의 정보를 트리밍부(42)로 송신한다. 트리밍부(42)는 산출된 프레임의 수를 트리밍한다.
[제 6 실시예]
제 6 실시예에서, 도 10에 나타낸 바와 같이, 한계치와 디코딩된 헤드 영역 영상 데이터의 파일 크기가 독립적 파라미터이다. 제 6 실시예에서, 헤드 영역에서의 프레임 수가 이하 식 4에 따라 산출된다.
[식 4]
(F) = (Fn) × (Y) / (S)
여기서, (F)는 헤드 영역에서의 프레임 수이며, (Fn)는 디멀티플렉싱 처리 후의 영상 데이터의 총 프레임 수이며, (Y)는 디코딩 후의 헤드 영역 영상 데이터의 파일 크기(파라미터)이고, (S)는 입력 동영상 파일(기존 동영상 파일)의 크기이다. 파라미터(Y)는 한계치[파라미터(Z)] 이하이다.
한계치[파라미터(Z)]는 녹화 모드(동영상 파일의 비트율, 비디오 프레임율, 또는 2개의 조합 등)나 동영상 파일의 크기에 따라, 또는 디코딩된 영상 데이터의 총 프레임 수에 따라 결정될 수 있다. 또한, 한계치는 간이 동영상 파일이 대량의 프레임이 추출되는 고해상도 화상 모드에서 또는 소량의 프레임이 추출되는 저해상도에서 생성되는지에 따라 결정될 수 있다.
디코딩된 헤드 영역 영상 데이터의 파일 크기[파라미터(Y)]는 한계치(Z)를 결정하는 동일한 요소에 따라, 또는 다른 요소에 따라 결정될 수 있다.
상기 실시예에서, 화상 처리부(20)는 관리 서버(13)에 제공된다. 그러나, 화상 처리부는 휴대 전화와 같은 전자 장치에 제공될 수 있다. 이 경우에, 화상 처리부의 비교부(41), 디멀티플렉싱 처리부(25), 트리밍부(27 또는 42), 디코딩부(28), 프레임 추출부(29), 간이 동영상 생성부(30)는 저장 매체에 저장되고, CPU상에 운영되는 프로그램에 의해 활성화된다. 따라서, 전자 장치에 저장된 동영상 파일은 신속하게 간이 동영상 파일로 변환되고 재생될 수 있다. 또한, 이 작은 간이 동영상 파일은 전기 통신 회선를 통해 저수행의 다른 전자 장치로 송신될 수 있다.
제 3 실시예 내지 제 6 실시예에서, 트리밍 처리가 필요한지를 결정하는 한계치가 동영상 파일의 크기와 비교된다. 그러나, 한계치는 동영상 파일로부터 디멀티플렉싱된 영상 데이터의 크기와 비교될 수 있다. 이 경우에, 상기 식(1 내지 4)에서 (S)는 입력 동영상 파일의 파일 크기가 아닌, 압축 형식의 영상 데이터 크기이다.
본 발명이 첨부 도면에 관련하여 바람직한 실시예로서 완전히 설명되더라도, 다양한 변경과 수정이 당업자에 의해 명백해질 것이다. 그러므로, 이 변경과 수정이 본 발명의 범위를 벗어나지 않는다면, 그것은 포함된 것으로 해석되어야만 한 다.
상술한 바와 같은 본 발명은 단시간에 압축 영상 데이터로부터 간이 동영상을 생성할 수 있는 효과가 있다.

Claims (16)

  1. 프레임에 의거하여 압축된 복수의 정지 화상 프레임을 포함하는 원 영상 데이터의 헤드에서의 일련의 정지 화상 프레임을 압축 형식의 헤드 영역 영상 데이터를 생성하는 헤드 영역으로서 트리밍하는 제 1 단계;
    상기 압축 형식의 상기 헤드 영역 영상 데이터를 비압축 형식으로 디코딩하는 제 2 단계;
    상기 복수의 정지 화상 프레임을 상기 비압축 형식의 상기 헤드 영역 영상 데이터로부터 추출하고, 상기 추출된 정지 화상 프레임이 균등한 시간 간격을 갖는 제 3 단계; 및
    상기 추출된 정지 화상 프레임을 시계열로 배열하여 결합함으로써 간이 동영상 데이터를 생성하는 제 4 단계를 포함하는 것을 특징으로 하는 화상 처리 방법.
  2. 제 1 항에 있어서,
    상기 압축 형식의 상기 헤드 영역 영상 데이터의 정지 화상 프레임과 상기 영상 데이터의 총 정지 화상 프레임의 비율이 미리 결정되는 것을 특징으로 하는 화상 처리 방법.
  3. 제 1 항에 있어서,
    상기 압축 형식의 상기 헤드 영역 영상 데이터의 정지 화상 프레임과 상기 영상 데이터의 총 정지 화상 프레임의 비율은 상기 영상 데이터의 크기 또는 상기 영상 데이터의 상기 정지 화상 프레임 수에 따라 변경되는 것을 특징으로 하는 화상 처리 방법.
  4. 제 1 항에 있어서,
    상기 제 1 단계 전에 상기 영상 데이터의 크기를 한계치와 비교하는 단계를 더 포함하며,
    상기 영상 데이터의 상기 크기가 상기 한계치보다 더 클 경우에만 상기 헤드 영역은 상기 제 1 단계에서 트리밍되어 상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기가 상기 한계치 이하가 되도록 하는 것을 특징으로 하는 화상 처리 방법.
  5. 제 4 항에 있어서,
    상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기에 대응하는 정지 화상 프레임의 수는 상기 영상 데이터의 정지 화상 프레임 수와 상기 영상 데이터의 크기 사이의 비율에 의거하여 상기 제 1 단계에서 상기 헤드 영역으로서 트리밍되는 것을 특징으로 하는 화상 처리 방법.
  6. 제 4 항에 있어서,
    상기 한계치는 미리 결정된 고정치인 것을 특징으로 하는 화상 처리 방법.
  7. 제 6 항에 있어서,
    상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기는 상기 한계치와 같은 것을 특징으로 하는 화상 처리 방법.
  8. 제 6 항에 있어서,
    상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기는 상기 한계치 이하인 범위에서 가변가능한 것을 특징으로 하는 화상 처리 방법.
  9. 제 4 항에 있어서,
    상기 한계치는 가변가능한 것을 특징으로 하는 화상 처리 방법.
  10. 제 9 항에 있어서,
    상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기는 상기 한계치와 같은 것을 특징으로 하는 화상 처리 방법.
  11. 제 9 항에 있어서,
    상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기는 상기 한계치 이하인 범위에서 가변가능한 것을 특징으로 하는 화상 처리 방법.
  12. 프레임에 의거하여 압축된 복수의 정지 화상 프레임을 포함하는 원 영상 데이터의 헤드에서의 일련의 정지 화상 프레임을 압축 형식의 헤드 영역 영상 데이터를 생성하는 헤드 영역으로서 트리밍하는 트리밍부;
    상기 압축 형식의 상기 헤드 영역 영상 데이터를 비압축 형식으로 디코딩하는 디코딩부;
    복수의 정지 화상 프레임을 상기 비압축 형식의 상기 헤드 영역 영상 데이터로부터 추출하고, 상기 추출된 정지 화상 프레임이 균등한 시간 간격을 갖는 추출부; 및
    상기 추출된 정지 화상 프레임을 시계열로 배열하여 결합함으로써 간이 동영상 데이터를 생성하는 간이 동영상 생성부를 포함하는 것을 특징으로 하는 화상 처리 장치.
  13. 제 12 항에 있어서,
    상기 영상 데이터의 크기를 한계치와 비교하는 비교부를 더 포함하며,
    상기 영상 데이터의 상기 크기가 상기 한계치보다 더 클 경우에만 상기 헤드 영역은 상기 비교부에서 트리밍되어 상기 비압축 형식의 상기 헤드 영역 영상 데이터의 크기가 상기 한계치 이하가 되도록 하는 것을 특징으로 하는 화상 처리 장치.
  14. 제 12 항에 있어서,
    상기 압축 형식의 상기 영상 데이터는 인트라프레임 압축 방식으로 되어 있 고, 상기 트리밍부는 키 프레임에 의거하여 상기 압축 형식의 영상 데이터로부터 상기 헤드 영역을 트리밍하는 것을 특징으로 하는 화상 처리 장치.
  15. 제 1 항에 기재된 상기 화상 처리 방법을 컴퓨터에 실행시키는 것을 특징으로 하는 화상 처리 프로그램.
  16. 제 12 항에 기재된 상기 화상 처리 장치를 포함하며, 상기 화상 처리 장치에 의해 생성된 상기 간이 동영상을 전기 통신 회선를 통해 송신하는 서버; 및
    상기 전기 통신 회선를 통해 상기 서버로부터 상기 간이 동영상을 수신하고, 상기 간이 동영상을 재생하는 휴대 단말기를 포함하는 것을 특징으로 하는 화상 열람 시스템.
KR20070059157A 2006-06-15 2007-06-15 화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램을 기록한 컴퓨터로 판독가능한 기록매체 및 화상 열람 시스템 KR100940499B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006165908A JP2007336263A (ja) 2006-06-15 2006-06-15 画像処理方法及び装置並びにプログラム
JPJP-P-2006-00165908 2006-06-15

Publications (2)

Publication Number Publication Date
KR20070119579A true KR20070119579A (ko) 2007-12-20
KR100940499B1 KR100940499B1 (ko) 2010-02-10

Family

ID=38861659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20070059157A KR100940499B1 (ko) 2006-06-15 2007-06-15 화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램을 기록한 컴퓨터로 판독가능한 기록매체 및 화상 열람 시스템

Country Status (4)

Country Link
US (1) US20070292102A1 (ko)
JP (1) JP2007336263A (ko)
KR (1) KR100940499B1 (ko)
CN (1) CN101090445A (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101640780B (zh) * 2008-07-30 2013-03-20 鸿富锦精密工业(深圳)有限公司 影像浏览系统和方法
JP5298775B2 (ja) * 2008-10-31 2013-09-25 ヤマハ株式会社 電子音楽システム
JP5326555B2 (ja) * 2008-12-25 2013-10-30 ソニー株式会社 情報処理装置、動画像切り出し方法および動画像切り出しプログラム
CN101510313A (zh) * 2009-03-13 2009-08-19 腾讯科技(深圳)有限公司 一种gif生成方法、系统及媒体播放器
CN102263922A (zh) * 2010-05-31 2011-11-30 苏州闻道网络科技有限公司 一种静态图像提取装置
CN103701853A (zh) * 2013-11-11 2014-04-02 珠海市魅族科技有限公司 发送文件的方法和终端
KR20150057149A (ko) * 2013-11-18 2015-05-28 한국전자통신연구원 재전송망에 기초한 3d 방송 서비스 제공 시스템 및 방법
CN103634605B (zh) * 2013-12-04 2017-02-15 百度在线网络技术(北京)有限公司 视频画面的处理方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341081A (ja) * 1991-05-17 1992-11-27 Toshiba Corp 画像処理方式
JP2002010209A (ja) * 2000-04-18 2002-01-11 Sanyo Electric Co Ltd デジタルカメラ
GB0021891D0 (en) * 2000-09-06 2000-10-25 Wave Ltd M Adaptive video delivery
JP2003250160A (ja) * 2002-02-22 2003-09-05 Nippon Hoso Kyokai <Nhk> 映像コマ数削減装置および映像コマ数削減方法
KR100353602B1 (en) 2002-04-15 2002-09-28 Id Digital Co Ltd System and method for reproducing motion picture streams regardless of change in playback speed
US7106798B1 (en) * 2002-05-23 2006-09-12 Microsoft Corporation Smooth scanning presenter
JP4157983B2 (ja) * 2002-09-27 2008-10-01 富士フイルム株式会社 画像送信装置
JP2004229103A (ja) * 2003-01-24 2004-08-12 Yasuhisa Omori 画像配信システム及び画像配信ビジネス方法
JP4185796B2 (ja) * 2003-03-25 2008-11-26 富士フイルム株式会社 動画システムならびに動画サーバおよびその制御方法
JP4321751B2 (ja) 2003-04-25 2009-08-26 パイオニア株式会社 描画処理装置、描画処理方法および描画処理プログラム、並びにそれらを備えた電子会議システム
KR100557858B1 (ko) * 2003-09-27 2006-03-10 학교법인 인하학원 엠펙 동영상에서의 주요 정지 영상 추출 장치 및 방법
US8315307B2 (en) * 2004-04-07 2012-11-20 Qualcomm Incorporated Method and apparatus for frame prediction in hybrid video compression to enable temporal scalability

Also Published As

Publication number Publication date
US20070292102A1 (en) 2007-12-20
CN101090445A (zh) 2007-12-19
KR100940499B1 (ko) 2010-02-10
JP2007336263A (ja) 2007-12-27

Similar Documents

Publication Publication Date Title
KR100940499B1 (ko) 화상 처리 방법, 화상 처리 장치, 화상 처리 프로그램을 기록한 컴퓨터로 판독가능한 기록매체 및 화상 열람 시스템
US9124860B2 (en) Storing a video summary as metadata
US20170309310A1 (en) Method and device for compressed-domain video editing
US8446490B2 (en) Video capture system producing a video summary
US20110293018A1 (en) Video summary method and system
JP2009542046A (ja) ビデオ処理及びアプリケーションのシステム、方法、及び装置
KR20080066784A (ko) 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리
US7558296B2 (en) Multiplexer and demultiplexer
CN103259975A (zh) 使用相机的数据处理设备和方法
KR100605935B1 (ko) 동영상 촬영 방법
JP2004187161A (ja) 動画データ処理装置および動画データ処理方法
JP5783737B2 (ja) 撮像装置および動画記録装置の制御方法
JP2012161012A (ja) 動画記録装置
CN110572723A (zh) 一种缩略图生成的方法以及相关装置
JP5818599B2 (ja) 動画記録装置
JP2002094384A (ja) 長時間用画像・音声圧縮装置及びその方法
US8948573B2 (en) Image processing apparatus
KR101603976B1 (ko) 동영상 파일 결합 방법 및 그 장치
JP4254297B2 (ja) 画像処理装置及びその方法並びにそれを用いた画像処理システム及びプログラム
JP2015023317A5 (ja) 画像管理装置及び画像管理方法、プログラム、並びに記憶媒体
JP7172055B2 (ja) 処理装置、処理プログラム及び処理方法
JP2006304103A (ja) 動画記録装置、および動画記録再生装置
JP2014075730A (ja) 画像処理装置、画像処理方法、プログラム
JPWO2003101102A1 (ja) 携帯通信装置の動画ファイル再生方法及び携帯通信装置用の動画ファイル再生装置
JP2005026986A (ja) 再生表示システム及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140107

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150105

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160105

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180104

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee