KR20150090009A - 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술 - Google Patents

섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술 Download PDF

Info

Publication number
KR20150090009A
KR20150090009A KR1020150103963A KR20150103963A KR20150090009A KR 20150090009 A KR20150090009 A KR 20150090009A KR 1020150103963 A KR1020150103963 A KR 1020150103963A KR 20150103963 A KR20150103963 A KR 20150103963A KR 20150090009 A KR20150090009 A KR 20150090009A
Authority
KR
South Korea
Prior art keywords
frame
compressed
full
frames
thumbnail
Prior art date
Application number
KR1020150103963A
Other languages
English (en)
Other versions
KR102129637B1 (ko
Inventor
체 왕
창리앙 찰리 왕
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20150090009A publication Critical patent/KR20150090009A/ko
Application granted granted Critical
Publication of KR102129637B1 publication Critical patent/KR102129637B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/232Content retrieval operation locally within server, e.g. reading video streams from disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

여러 실시예들은 일반적으로 움직임 비디오의 코딩 순서로 된 풀-해상도 프레임들 및 대응하는 섬네일 이미지들을 압축된 비디오 데이터로 합체시키기 위한 기술에 관련한다. 비디오 프레임들을 압축하는 장치는 프로세서 컴포넌트와, 그 프로세서 컴포넌트에 의해 적어도 하나의 압축된 섬네일 프레임(T-프레임)을 압축된 비디오 데이터에서 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치하도록 실행하기 위한 압축 컴포넌트를 포함하며, T-프레임은 압축된 형태의 움직임 비디오의 다수 섬네일 이미지들을 포함한다. 다른 실시예가 기술되고 청구된다.

Description

섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술{TECHNIQUES FOR INCLUSION OF THUMBNAIL IMAGES IN COMPRESSED VIDEO DATA}
일반적으로 움직임 비디오를 표현하는 압축된 비디오 데이터의 저장과 전송 시 다양한 형태의 압축이 이용된다. 이러한 형태의 비디오 압축 중에는 스위스 제네바의 국제 표준화 기구에 의해 발표된 널리 알려진 동화상 전문가 그룹(Motion Picture Experts Group(MPEG))의 버전이 있다. 특히, MPEG 2 및 MPEG 4(또한 H.264로도 알려짐)와 같이 널리 알려진 MPEG 버전들은 움직임 비디오를 위성을 거쳐 무선 시스템 및 케이블-기반 분배 시스템을 통해 전송할 때, 그리고 네트워크(예를 들면, 인터넷)을 통해 데이터를 스트림할 때 널리 채택되어왔다. 현재 MPEG 개발자들 사이에서 "고화질(high definition)" 텔레비전 해상도의 틀에 박힌 채택을 좋게 해결하기 위해 MPEG의 다양한 측면을 갱신하는 고효율 비디오 코딩(high-efficiency video coding ("HEVC")) 또는 "H.265"로서 알려진 MPEG의 새로운 버전이 개발 중이다.
이러한 형태의 비디오 압축의 광범위한 채택은 움직임 비디오의 프리뷰(preview) 및/또는 움직임 비디오 부분들의 시각적인 지표(visual index)를 제공하기 위한 섬네일 이미지(thumbnail images)의 사용을 비롯하여, 새로운 특징을 지원할 수 있는 새로운 세대의 시청 장치(viewing device)의 개발과 관계가 있다. 섬네일 이미지는 전형적으로 움직임 비디오의 풀-해상도 프레임들 중 적어도 일부의 크기를 축소시킨 버전이며, 풀-해상도 프레임(full-resolution frames)의 현재 흔한 1920x1080 픽셀에 비해, 종종 200x200 픽셀까지만의 해상도를 갖는다. 또한 셈네일 이미지가 대응관계의 풀-해상도 프레임보다 픽셀 당 더 적은 컬러 깊이(color depth)를 갖는 것(예를 들면, 섬네일 이미지의 픽셀 당 8 비트 대 풀-해상도 프레임의 픽셀 당 16 또는 24 비트)은 통상적이다.
이렇게 더 낮은 해상도 및/또는 컬러 깊이는 섬네일 이미지가 대응하는 풀-해상도 프레임보다 상당히 더 작은 데이터 크기를 갖게 되어 섬네일 이미지를 시각적으로 보여주는 것이 풀-해상도 프레임을 시각적으로 보여주는 것에 비해 덜 프로세서 집약적일 수 있는 결과를 가져온다. 불행하게도, 오직 풀-해상도 프레임만이 전형적으로 전송 또는 저장되도록 단일의 해상도만을 지원하는 압축 부호기-복호기(CODEC) 하드웨어 및/또는 소프트웨어의 구현 및 압축(예를 들면, MPEG 2, MPEG 4 등)의 유형을 채용하는 것이 보편화되어 왔다. 그 결과, 현재 시청 장치들은 섬네일 이미지를 생성하기 위해 해당하는 풀-해상도 프레임을 먼저 복원(decompression) 및/또는 복호(decryption)한 다음 이들 풀-해상도 프레임을 다운스케일함으로써 섬네일 이미지를 유도하여야 한다.
그래서, 시청 장치들은 더 작은 데이터 크기의 섬네일 이미지가 제공해줄 수도 있는 처리 수요가 줄어든 잠재적인 혜택을 받지 못한다. 이것은 전형적으로 처리 수요가 더 높을수록 전력 소비율이 더 높아지기 때문에 전력 공급을 위한 배터리에 의존하는 휴대용 시청 장치들에게는 심각한 문제가 될 수 있다.
도 1은 비디오 프리젠테이션 시스템의 실시예를 도시한다.
도 2는 비디오 프리젠테이션 시스템의 다른 실시예를 도시한다.
도 3 내지 도 5는 각기 본 발명의 실시예에 따른 압축된 비디오 데이터를 생성하는 예를 도시한다.
도 6은 본 발명의 실시예에 따른 압축된 비디오 데이터 및 메시지 데이터를 생성하는 예를 도시한다.
도 7은 본 발명의 실시예에 따른 압축된 비디오 데이터 내 섬네일 이미지의 구성의 예를 도시한다.
도 8 및 도 9는 각기 실시예의 일부분을 도시한다.
도 10 내지 도 13은 각기 실시예에 따른 논리 흐름(logical flow)을 도시한다.
도 14는 실시예에 따른 처리 아키텍처를 도시한다.
도 15는 그래픽스 처리 시스템의 다른 대안의 실시예를 도시한다.
도 16은 장치의 실시예를 도시한다.
다양한 실시예들은 개괄적으로 코딩 순서의 풀-해상도 프레임 및 움직임 비디오의 대응하는 섬네일 이미지를 압축된 비디오 데이터 내에 포함시키는 기술에 관련된다. 풀-해상도 프레임 및 대응하는 섬네일 이미지 둘 다를 포함시키면 시청 장치는 시각적으로 표시될 것에 따라서 어느 하나를 선택적으로 복원(decompress)할 수 있다. 그래서, 시각 장치는 풀-해상도 프레임을 복원하지 않고도 섬네일 이미지를 시각적으로 표시할 수 있고, 그럼으로써 더 높은 처리 요건 및 이와 연관된 전력 소비량을 회피할 수 있다.
복수 섬네일 이미지들의 셋은 압축된 다음 풀-해상도 프레임들 사이에 배치되는 멀티-섬네일 프레임들(multi-thumbnail frames)을 형성하도록 조합된다. 풀-해상도 프레임은 코딩 순서대로 배열되어 그 순서의 발생순으로 복원되고 시각적으로 표시될 때 움직임 비디오의 시각적 표시를 제공하는 일련의 풀-해상도 프레임을 형성한다. 풀-해상도 프레임과 대조적으로, 각 멀티-섬네일 프레임 내 섬네일 이미지들의 셋은 연대순으로 남아 있을 수 있다. 압축된 비디오 데이터와 연관된 메시지 데이터는 적어도 풀-해상도 프레임들의 압축 동안 생성되며 풀-해상도 프레임들의 복원 및/또는 복호를 가능하게 해주기 위해 그의 압축된 형태의 풀-해상도 프레임들의 파라미터를 표시하는 메시지를 포함한다. 메시지 데이터는 압축된 형태의 멀티-섬네일 프레임들의 파라미터를 표시하는 메시지를 추가적으로 포함하도록 증강될 수 있다.
일부 실시예에서, MPEG 버전 또는 이와 유사한 압축 방식이 적어도 풀-해상도 프레임을 압축하기 위해 이용될 수 있다. 그러한 실시예에서, 일련의 풀-해상도 프레임들은 압축되어 화상 집합(pocture-of-group(GOP)) 내에서 구성된 인트라-프레임(I-프레임), 예측 프레임(P-프레임) 및/또는 양방향 예측 프레임(B-프레임)과 같은 압축된 풀-해상도 프레임들의 조합을 생성할 수 있다. 비디오 데이터는 일련의 다수의 GOP를 포함할 수 있고, 이들 GOP는 발생 순서대로 조직될 수 있는 반면, 각 GOP 내의 압축된 풀-해상도 프레임들은 코딩 순서대로 배열된다. 동일한 MPEG 버전은 또한 멀티-섬네일 프레임을 압축하는데 이용되어 압축된 섬네일 프레임(T-프레임)을 생성할 수 있고, 각각의 GOP는 풀-해상도 프레임의 압축에 의해 생성된 I-프레임, P-프레임 및 B-프레임 사이에 배치된 하나 이상의 T-프레임을 더 포함할 수 있다.
비디오 데이터와 연관된 메시지 데이터는 각 GOP 내 압축된 프레임들 중 어느 프레임이 압축된 풀-해상도 프레임이고 어느 것이 T-프레임인지를 식별하는 메시지를 포함할 수 있다. 픽셀 해상도, 컬러 깊이, 컬러 인코딩, 시각적 프리젠테이션을 위한 초당 프레임 수, 또는 어느 압축된 프레임이 또한 암호화되고 어느 것이 암호화되지 않았는지 같은 압축된 풀-해상도 프레임 및/또는 T-프레임에 대한 파라미터를 명시하는 메시지가 있을 수 있다. 또한 T-프레임들이 비디오 데이터의 압축된 프레임들 사이에 배치된 간격, 각 GOP 내 T-프레임의 위치, 및/또는 각 T-프레임에 포함된 섬네일 이미지들의 개수를 명시하는 메시지가 있을 수 있다.
일부 실시예에서, 멀티-섬네일 프레임은, 어떠한 결과적인 T-프레임도 풀-해상도 프레임들 중 임의의 프레임의 압축된 형태를 참조하여 그의 픽셀 컬러 값을 기술하지 않도록, 풀-해상도 프레임들과 완전히 무관하게 압축된다. 그래서, 각각의 T-프레임은 그의 픽셀 컬러 값이 다른 T-프레임을 비롯한 어느 다른 프레임을 참조하여도 기술되지 않도록 인트라-프레임으로서 압축될 수 있다. 이와 달리, T-프레임들의 서브셋은 이들의 픽셀 컬러 값이 하나 이상의 다른 T-프레임을 참조하여 기술되는 예측된 프레임 및/또는 양방향 예측된 프레임일 수 있다.
일부 실시예에서, T-프레임들은 압축된 풀-해상도 프레임들 사이에 배치될 수 있으며/있거나 T-프레임과 연관된 메시지는 임의의 선택가능한 특징으로서 (예를 들면, HEVC와 같은 MPEG 버전의 임의의 선택가능한 확장으로서) 널리 채택된 표준 압축 방식을 고수하는 방식대로 메시지 데이터 내에 포함될 수 있다. 보다 상세히, T-프레임을 압축된 비디오 데이터에 포함시키는 방식 및/또는 T-프레임과 연관된 메시지를 메시지 데이터에 포함시키는 방식은 그의 복원 및 나중의 사용을 임의로 선택할 수 있는 방식으로 수행될 수 있다. 그래서, 그러한 표준에 따라서 움직임 비디오를 복원하도록 구성된 몇몇 시청 장치들은 T-프레임을 완전히 무시하고, 단지 압축된 풀-해상도 프레임만을 복원할 수 있는 반면, 다른 시청 장치들은 T-프레임을 추가적으로 복원할 수 있다.
본 출원에서 사용된 표기 및 명명법을 일반적으로 참조하면, 아래의 상세한 설명 부분은 컴퓨터 또는 컴퓨터 네트워크에서 실행되는 프로그램 절차의 면에서 제공될 수 있다. 이러한 절차적인 설명과 표현은 본 기술에서 통상의 지식을 가진 자들이 자기들의 작업의 요지를 본 기술에서 통상의 지식을 가진 다른 자들에게 효과적으로 전달해주는데 사용된다. 절차는 본 출원에서 일반적으로 희망하는 결과에 이르는 일관성 있는 동작 시퀀스라고 생각된다. 이러한 동작들은 물리적인 양의 물리적인 조작을 요구하는 동작들이다. 통상, 비록 반드시 그렇지 않을 지라도, 이러한 양은 저장, 전달, 조합, 비교, 및 아니면 조작될 수 있는 전기적, 자기적 또는 광학적 신호의 형태를 취한다. 통상적으로 사용한다는 주된 이유 때문에, 이와 같은 신호를 비트, 값, 요소, 심볼, 문자, 기간, 또는 숫자 등이라고 언급하는 것이 때로는 편리하다고 판명된다. 그러나, 이러한 용어 및 유사한 용어는 모두 적절한 물리적인 양과 연관되는 것이며 그저 이러한 양에 적용된 편리한 표식이라는 것을 주목하여야 한다.
또한, 이러한 조작은 종종 사람 운용자에 의해 수행된 정신적인 동작과 통상 연관된, 추가하거나 비교하는 것과 같은 측면에서 언급되기도 한다. 그러나, 본 출원에서 기술되고 하나 이상의 실시예의 일부를 구성하는 동작 중 어느 동작에서도, 인간 운용자의 그러한 역량이 반드시 필요하지 않고, 또는 대부분의 사례에서 바람직하지도 않다. 오히려, 이러한 동작은 머신 동작이다. 각종 실시예의 동작을 수행하는데 유용한 머신은 본 출원의 가르침에 따라서 작성된 저장된 컴퓨터 프로그램에 의해 선택적으로 작동 또는 구성된 바와 같은 범용 디지털 컴퓨터를 포함하며/하거나, 필요로 하는 목적을 위해 특별하게 구축된 장치를 포함한다. 다양한 실시예는 또한 이들 동작을 수행하기 위한 장치 또는 시스템에 관한 것이다. 이들 장치는 필요로하는 목적을 위해 특별하게 구축될 수 있거나 범용 컴퓨터를 포함할 수 있다. 이러한 각종 머신에 필요한 구조는 제시된 설명으로부터 자명해질 것이다.
이제 도면을 참조하는데, 이 도면에서 유사한 참조 부호는 전체에서 유사한 구성요소를 참조하기 위해 사용된다. 다음의 설명에서, 설명 목적 상, 본 발명의 확실한 이해를 제공하기 위해 많은 특정한 세부사항이 설명된다. 그러나, 본 발명의 실시예는 이러한 특정 세부사항이 없이도 실시될 수 있음은 분명하다. 다른 사례로, 잘 알려진 구조 및 장치는 그의 설명을 용이하게 하기 위해 블록도의 형태로 도시된다. 그 의도는 모든 변형, 균등, 및 대안이 청구범위의 범주 내에 포함하려는 것이다.
도 1은 비디오 프리젠테이션 시스템(1000)의 실시예의 블록도를 도시하는 것으로, 이 시스템은 하나 이상의 소스 장치(100), 컴퓨팅 장치(300) 및 시청 장치(600)를 포함한다. 비디오 프리젠테이션 시스템(1000)에서, 소스 장치(100)로부터 수신될 수 있는 움직임 비디오(880)를 나타내는 풀-해상도 프레임 및 대응하는 섬네일 이미지는 컴퓨팅 장치(300)에 의해 압축된 다음 시청 장치(600)로 제공되어 시각적으로 디스플레이(680)에 표시된다. 이러한 각각의 컴퓨팅 장치는, 제한을 두지 않고, 데스크탑 컴퓨터 시스템, 데이터 입력 단말기, 랩톱 컴퓨터, 노트북 컴퓨터, 태블릿 컴퓨터, 휴대용 개인 정보 단말기, 스마트폰, 디지털 카메라, 옷에 내장된 신체 착용 컴퓨팅 장치, 차량(예를 들면, 차, 자전거, 휠체어 등)에 내장된 컴퓨팅 장치, 서버, 서버 클러스터, 서버 팜(serve farm) 등을 비롯한 각종 형태의 컴퓨팅 장치 중 어느 것일 수 있다.
도시된 바와 같이, 이들 컴퓨팅 장치들(100, 300, 및 600)은 움직임 비디오 및/또는 관련 데이터를 네트워크(999)를 통하여 전달하는 신호를 교환한다. 그러나, 이들 컴퓨팅 장치들 중 하나 이상은 시각적 화상과 전혀 관련없는 다른 데이터를 네트워크(999)를 통하여 서로와 및/또는 역시 다른 컴퓨팅 장치(도시되지 않음)와 교환할 수 있다. 여러 실시예에서, 네트워크는 단일 빌딩 또는 다른 비교적 제한된 영역 내에서 확장이 제한될 수 있는 단일의 네트워크, 상당한 거리를 확장할 수 있는 연결된 네트워크들의 조합일 수 있으며, 및/또는 인터넷을 포함할 수 있다. 그러므로, 네트워크(999)는, 제한 하지 않고, 전기적으로 및/또는 광학적으로 전도성의 케이블을 이용하는 유선 기술, 및 적외선, 무선 주파수 또는 무선 전송의 다른 형태를 이용하는 무선 기술을 비롯하여, 통신신호를 교환할 수 있는 각종 통신 기술 (또는 그 조합) 중의 어느 것을 기반으로 할 수 있다.
여러 실시예에서, (존재한다면) 소스 장치(100)는 소스 장치(100)를 컴퓨팅 장치(300)에 결합하여 컴퓨팅 장치(300)에게 소스 데이터(130) 형태의 움직임 비디오(880)를 제공하는 인터페이스(190)를 포함한다. 도시된 바와 같이, 인터페이스(190)는 동일한 네트워크(999)를 통하여 소스 장치(100)를 컴퓨팅 장치(300)에 결합하는 것처럼 컴퓨팅 장치(300)를 시청 장치(600)에 결합할 수 있다. 그러나, 다른 실시예에서, 소스 장치(100)는 완전히 다른 방식으로 컴퓨팅 장치(300)에 결합될 수 있다. 소스 데이터(130)는 본 기술에서 통상의 지식을 가진자들에게 잘 알려진 각종 압축 기술을 이용하여 압축된 형태의 움직임 비디오(880)를 나타낼 수 있다.
여러 실시예에서, 컴퓨팅 장치(300)는 프로세서 컴포넌트(350), 스토리지(360), 컨트롤러(400) 및 컴퓨팅 장치(300)를 네트워크(999)에 결합하는 인터페이스(390) 중 하나 이상을 포함한다. 스토리지(360)는 소스 데이터(130) 및 제어 루틴(340) 중 하나 이상을 저장한다. 컨트롤러(400)는 프로세서 컴포넌트(450) 및 스토리지(460) 중 하나 이상을 포함한다. 스토리지(460)는 압축되지 않은 비디오 데이터(330), 압축된 비디오 데이터(430), 파라미터 데이터(435), 메시지 데이터(470) 및 제어 루틴(440) 중 하나 이상을 저장한다.
제어 루틴(340)은 프로세서 컴포넌트(350) 상에서 가동하는 커맨드 시퀀스를 각종 기능을 수행하는 로직을 구현하는 컴퓨팅 장치(300)의 메인 프로세서 컴포넌트로서 자기의 역할에 포함시킨다. 일부 실시예에서 제어 루틴(340)을 실행할 때, 프로세서 컴포넌트(350)는 소스 장치(100)로부터 움직임 비디오(880)를 나타내는 소스 데이터(130)를 수신하고, 적어도 그의 서브셋을 스토리지(360)에 저장할 수 있다. 소스 데이터(130)는 시각적인 프리젠테이션을 위해 이 데이터를 시청 장치(600)에 전달하는 움직임 비디오(880)의 전송을 비롯한 어떤 사용이 이루어지기 전까지 상당량의 시간 동안 스토리지(360)에 저장될 수 있다는 것을 주목하여야 한다. 소스 데이터(130)가 압축된 형태로 수신되는 경우, 프로세서 컴포넌트(350)는 이를 복원할 수 있다. 그런 다음 프로세서 컴포넌트(350)는 적어도 풀-해상도 프레임의 소스 데이터(130)를 시청 장치(600)로 제공하기 위해 압축될 압축되지 않은 비디오 데이터(330)로서 컨트롤러(400)에 제공한다. 프로세서 컴포넌트(350)는 또한 압축되지 않은 비디오 데이터(330) 보다는 풀-해상도 프레임들 중 적어도 일부에 해당하는 섬네일 이미지들을 컨트롤러(400)에 제공할 수 있다.
대안으로, 다른 실시예에서 제어 루틴(340)을 실행할 때, 프로세서 컴포넌트(350)는 움직임 비디오(880)의 적어도 일부분을 생성한다. 그러한 다른 실시예에서, 움직임 비디오(880)는 컴퓨팅 장치(300)를 이용하여 저작된 또는 그렇지 않으면 컴파일된 컴퓨터 생성 화상(computer-generated imagery (CGI))을 포함할 수 있다. 대안으로 또는 부가적으로, 움직임 비디오(880)는 그래프적으로 표현된 선택가능한 항목 및/또는 그래픽 포인터와 같은 사용자 인터페이스의 시각적 부분을 포함할 수 있다. 프로세서 컴포넌트(350)는 그렇게 생성된 움직임 비디오의 적어도 풀-해상도 프레임을 압축되지 않은 비디오 데이터(330)로서 컨트롤러(400)에 제공한다. 프로세서 컴포넌트(350)는 또한 압축되지 않은 비디오 데이터(330) 보다는 풀-해상도 프레임들 중 적어도 일부분에 해당하는 섬네일 이미지들을 컨트롤러(400)에 제공할 수 있다.
일부 실시예에서, 프로세서 컴포넌트(350 및/또는 450)는 섬네일 이미지가 달리 제공되지 않는 곳에서 섬네일 이미지를 생성할 수 있다. 움직임 비디오(880)가 컴퓨팅 장치(300)에 의해 소스 데이터(130)로서 수신되는 경우, 프로세서 컴포넌트(350 및/또는 450)는 소스 데이터(130) 내에서 풀-해상도 프레임으로부터 섬네일 이미지를 생성할 수 있다. 대안으로 또는 부가적으로, 프로세서 컴포넌트(350)가 움직임 비디오(880)의 풀-해상도 프레임을 생성하지만, 대응하는 섬네일 이미지를 생성하지 않는 경우, 프로세서 컴포넌트(450)는 그러한 풀-해상도 프레임으로부터 그러한 섬네일 이미지를 생성할 수 있다.
제어 루틴(440)은 프로세서 컴포넌트(450)에서 가동하는 커맨드 시퀀스를 각종 기능을 수행하는 로직을 구현하는 컴퓨팅 장치(300)의 컨트롤러(400)의 컨트롤러 프로세서 컴포넌트로서 자기의 역할에 포함시킨다. 제어 루틴(440)를 실행할 때, 프로세서 컴포넌트(450)는 압축되지 않은 비디오 데이터(330)의 섬네일 이미지들의 셋을 멀티-섬네일 프레임 내에 조합한다. 그런 다음 프로세서 컴포넌트(450)는 이러한 멀티-섬네일 프레임을 압축하여 압축된 섬네일 프레임(T-프레임)을 생성할 뿐만 아니라 압축되지 않은 비디오 데이터(330)의 풀-해상도 프레임을 압축하여 압축된 풀-해상도 프레임을 생성한다. 이후 프로세서 컴포넌트(450)는 결과적인 T-프레임 및 압축된 풀-해상도 프레임을 압축된 비디오 데이터(430)로서 저장한다.
풀-해상도 프레임 및 멀티-섬네일 프레임을 압축할 때 이용된 압축 방식이 MPEG 버전 또는 유사한 비디오 압축 방식(예를 들면, 워싱톤, 레드몬드 소재의 Microsoft® 코포레이션에 의해 발표된 VC1 또는 캘리포니아, 마운틴 뷰 소재의 Google® 인코포레이티드에 의해 발표된 VP8 또는 VP9)를 포함하는 경우, 프로세서 컴포넌트(450)는 압축된 풀-해상도 프레임 및 T-프레임을 추가적으로 화상 집합(group-of-pictures(GOP))으로 구성할 수 있다. 본 기술에서 통상의 지식을 가진 자들에게 잘 알려진 바와 같이, GOP의 제1의 압축 프레임은 통상적으로 그 자체를 만들 때 그의 픽셀 컬러 값을 참조하는 다른 프레임이 결코 시간적으로 선행하지 않는 형태의 I-프레임이다. 달리 말하면, 각각의 GOP는 전형적으로 오직 후속의 P-프레임 또는 B-프레임이 이것을 참조로서 사용하는 경우에 I-프레임으로 시작된다. 그러한 I-프레임은 흔히 순간 디코더 리프레시 프레임(instantaneous decoder refresh frames (IDR 프레임) 또는 랜덤 액세스 픽처(random access picture (PRAP))라고 지칭된다.
도 3은 압축되지 않은 비디오 데이터(330)의 풀-해상도 프레임(333) 및 섬네일 이미지(338)로부터 압축된 비디오 데이터(430)를 생성하는 예제의 실시예를 도시한다. 압축되지 않은 비디오 데이터(330)의 프레임 및 이미지는 움직임 비디오 카메라에 의해 캡처되었고 움직임 비디오(880)를 시청하기 위해 시각적으로 정상 표시되었을 연대순으로 좌에서 우로 배열되어 있다는 것을 주목하여야 한다. 또한 풀-해상도 프레임(333) 및 섬네일 이미지(338)의 대응하는 것들(예를 들면, 동일한 이미지에서 대응하는 풀-해상도 프레임(333)의 프레임들 및 섬네일 이미지(338)의 이미지들)은 이러한 연대순에서 수직으로 정렬된다.
도시된 바와 같이, GOP를 생성시키는 압축 방식은 압축된 비디오 데이터(430)가 일련의 GOP들(432)로 이루어지도록 이용(예를 들면, MPEG 버전)되는데, 이 때 각각의 GOP(432)는 풀-해상도 프레임들(333)의 셋에 대응한다. 각 GOP(432) 내 압축된 풀-해상도 프레임은 다른 압축된 풀-해상도 프레임에 의해 참조 프레임으로서 사용되는 압축된 풀-해상도 프레임이 다른 압축된 풀-해상도 프레임에 선행하는 코딩 순서로 구성될 수 있다. 본 기술에서 통상의 지식을 가진 자들에게 잘 알려진 바와 같이, 전형적으로 이것은 복원을 수행하는 어떤 장치에 의해서도 한 프레임의 복원의 인스턴스가 다른 하나의 프레임이 수신될 때까지 절대 지연되지 않는 비교적 안정한 속도로 복원이 수행될 수 있게 해준다. 대조적으로, GOP(432) 자체는 전형적으로 연대순으로 구성된다.
각각의 GOP(432)는 IDR 프레임(434)에서 시작하여 적어도 하나의 T-프레임(439)에서 끝나는 것으로 묘사되어 있다. 시각적인 복잡함을 없애기 위해, 각 GOP(432)의 다른 압축된 풀-해상도 프레임들(예를 들면, I-프레임, P-프레임 및 B-프레임)은 묘사되지 않는다. 앞에서 논의된 바와 같이, 각 GOP(432)의 첫 압축된 프레임은 이 프레임에 연대순으로 선행하는 모든 다른 압축된 프레임이 이 프레임을 기준으로 사용하도록 IDR 프레임(434)이 되는 것이 전형적이다. 이렇게 함으로써 하나의 GOP(432)의 P-프레임 또는 B-프레임이 연대순에서 후속하는 하나의 GOP(432)의 I-프레임을 기준으로서 이용하는 상황을 방지한다. IDR 프레임(434)은 연대순 및 코딩 순서에서 모두 각 GOP의 첫 풀-해상도 프레임이라는 것을 주목하여야 한다. 그래서, 주어진 GOP의 압축된 프레임은 다른 압축된 풀-해상도 프레임이 그 GOP 내에서 다른 위치를 차지할 수 있도록 연대순 또는 코딩 순서로 구성되든지 간에, 그와 같은 IDR 프레임(434)은 첫 위치를 차지한다.
또한 도시된 바와 같이, GOP들(432) 중 하나의 GOP와 연관된 풀-해상도 프레임(333)의 셋에 대응하는 섬네일 이미지(338)는 GOP들(432) 중 동일한 GOP에 포함된, 또는 GOP들(432) 중 연대순에서 빠른 GOP에 포함된 하나 이상의 T-프레임과 조합되고 압축될 수 있다. 어느 하나의 선택은 섬네일 이미지(338)가 시청 장치(600)에 의해 사용되리라고 예상되는 방식으로 결정될 수 있다. 예를 들면, 섬네일 이미지(338)가 움직임 비디오(880)의 부분의 시각적 지표를 제공하는데 이용될 수 있다고 예상될 수 있는 경우, 섬네일 이미지(338)를 시간상 빠른 GOP(432) 내에 배치하게 되면 필요할 때만 복원을 위해 요청 및/또는 수신될 대응하는 풀-해상도 프레임(333)의 압축 방식을 포함하는 시간 상 늦은 GOP(들)(432)을 인에이블할 수 있다.
도 4는 압축되지 않은 비디오 데이터(330)로부터 압축된 비디오 데이터(430)의 단일 GOP(432)를 생성하는 예제의 실시예를 도 3보다 어느정도 더 상세하게 도시한다. 특히, GOP(432)와 연관된 풀-해상도 프레임들(333)의 셋을 압축하여 생성된 GOP(432)의 일련의 I-프레임(435), P-프레임(436) 및 B-프레임(437)의 예가 도시된다. 일련의 압축된 풀-해상도 프레임들의 이와 같은 특별한 묘사는 설명과 이해의 용이함을 위해 어느정도 간략화한 묘사라는 것과 GOP(432)는 전형적으로 더 많은 개수의 I-프레임(435), P-프레임(436) 및 B-프레임(437)을 포함하는 더 큰 일련의 압축된 풀-해상도 프레임들을 포함하리라 일반적으로 예상된다는 것을 주목하여야 한다.
도 3과 마찬가지로, 압축되지 않은 비디오 데이터(330)의 프레임 및 이미지 또한 도 4에서 (좌에서 우로 진행하는 것으로 도시된) 연대순으로 일렬로 배열되고, 풀-해상도 프레임(333) 및 섬네일 이미지(338)의 대응하는 것들은 연대순으로 수직으로 정렬된다. 또한 도 3과 마찬가지로, 압축된 풀-해상도 프레임, 특히 IDR 프레임(434), I-프레임(435), P-프레임(436) 및 B-프레임(437)은 GOP(432) 내부에서 코딩 순서대로 구성된다.
도시된 바와 같이, 섬네일 이미지들(338)은 조합되어 대응하는 풀-해상도 프레임들(333)과 동일한 GOP(432)에 포함된 T-프레임(439)으로 압축된다. 압축된 풀-해상도 프레임들(예를 들면, IDR 프레임(434), I-프레임(435), P-프레임(436) 및/또는 B-프레임(437)) 사이에 배치된 T-프레임들(439)의 양은 최소한 얼마나 많은 섬네일 이미지들(338)가 각각의 GOP(432)에 포함되는지에 따라서 압축된 비디오 데이터(430)의 GOP(432) 별로 변할 수 있다는 것을 주목하여야 한다.
또한 도시된 바와 같이, T-프레임들(439)은 T-프레임들(439)이 서로 그룹화되어 일련의 압축된 풀-해상도 프레임들의 중간에 대략 위치하는 방식으로 압축된 풀-해상도 프레임들 사이에 배치된다. 그러나, 다수의 T-프레임들(439)은 그렇게 서로 그룹화될 필요 없으며 개별적으로 GOP(432) 내 어느 위치에서도 배치될 수 있거나 아니면 그룹화될 수 있다.
도 5는 압축되지 않은 비디오 데이터(330)로부터 압축된 비디오 데이터(430)의 GOP(432a 및 432b)를 생성하는 예제의 실시예를 도 3보다 어느 정도 더 상세히 도시한다. 특히, 각각의 GOP(432a) 및 (432b)에 대해 풀-해상도 프레임(333)의 연관된 셋의 압축을 통해 일련의 압축된 풀-해상도 프레임들을 생성하는 것이 도시된다. 도 4와 마찬가지로, 압축되지 않은 비디오 데이터(330)의 프레임 및 이미지 또한 도 4에서 (좌에서 우로 진행하는 것으로 도시된) 연대순으로 배열되고, 이 때 풀-해상도 프레임(333) 및 섬네일 이미지(338)의 대응하는 것들은 연대순으로 수직으로 정렬된다. 또한 도 4와 마찬가지로, 압축된 풀-해상도 프레임들은 압축되지 않은 비디오 데이터(330)의 프레임 및 이미지의 연대순을 따르지 않고, 코딩 순서를 따를 수 있다.
도 4의 예와 달리, 도 5의 예에서, GOP(432b)의 풀-해상도 프레임들(333)에 대응하는 섬네일 이미지들(338)은 조합되어 동일한 GOP(432)가 아닌, 선행 GOP(432)에 포함된 T-프레임들(439)로 압축된다. 다시 말해서, 이것은 적어도 부분적으로, 시각적 지표의 일부분과 같이, 시청 장치(600)에 의해 T-프레임들(439)로 이루어진 것이라고 예상되는 용도에 따라 결정될 수 있다. T-프레임들(439)은 압축된 풀-해상도 프레임들(예를 들면, IDR 프레임(434) 및 각각의 GOP(432a) 및 (432b)의 IDR 프레임(434)의 뒤에 나오는 다른 압축된 풀-해상도 프레임들)의 사이에서 개별적으로 배치되거나 그룹화될 수 있고, 또한 각각의 GOP(432a) 및 (432b) 내에서 어느 위치에서도 배치될 수 있다는 것을 다시 한번 주목하여야 한다.
그래서, 도 3 내지 도 5를 다시 참조하면, 압축된 풀-해상도 프레임들(예를 들면, IDR 프레임(434), I-프레임(435), P-프레임(436) 및 B-프레임(437))은 이들이 코딩 순서대로 배치된 도시된 각각의 GOP(432) 내에서 구성되는 반면, GOP(432) 자체는 연대순으로 구성된다. 다시 한번, 본 기술에서 통상의 지식을 가진 자들에게 잘 알려진 바와 같이, 압축된 풀-해상도 프레임들의 코딩 순서는 프레임의 복원의 인스턴스가 복원을 수행하는 장치에 의해 그 프레임을 참조하는 다른 하나의 프레임이 수신될 때까지 절대 지연되지 않아야 함을 보장하는 노력으로부터 생긴 것이다. 그래서, 어떤 하나의 압축된 프레임이 기준으로서 다른 하나의 압축된 프레임을 이용하는 경우, 기준으로서 사용된 다른 압축된 프레임이 항시 그를 참조하는 압축된 프레임에 앞서 수신되는 것을 보장하는 코딩 순서가 만들어진다.
T-프레임들(439)은 이들의 코딩 순서에 대응하지 않는 방식으로 압축된 풀-해상도 프레임들 사이에 배치될 수 있다. 각각의 T-프레임(439)은 그 사이의 기간에 놓여 있는 압축된 풀-해상도 프레임들의 배수를 포함하는 다수의 섬네일 이미지들을 나타내며, 반면 각각의 압축된 풀-해상도 프레임은 시간적으로 한 순간의 "스냅샷"을 나타낸다. 또한, 그리고 논의한 바와 같이, 하나의 기간에 놓여 있는 GOP(432)의 압축된 풀-해상도 프레임들에 대응하는 T-프레임들(439)은 앞선 기간에 놓여 있는 다른 하나의 GOP(432)의 압축된 풀-해상도 프레임들 사이에 배치될 수 있다.
도 1을 참조하면, 압축되지 않은 비디오 데이터(330)로부터 압축된 비디오 데이터(430)를 생성하는 것과 더불어, 프로세서 컴포넌트(450)는 압축된 비디오 데이터(430)와 연관된 메시지 데이터(470)도 생성한다. 압축된 비디오 데이터(430)는 시청 장치(600)가 압축된 비디오 데이터(430)를 구성하는 압축된 풀-해상도 프레임 및 T-프레임(439)을 복원할 수 있게 해주는 압축된 비디오 데이터(430) 부분들의 각종 파라미터를 표시하는 메시지를 포함한다.
메시지들 중 일부는 압축된 비디오 데이터(430)의 전체에 적용하는 파라미터, 이를 테면, 움직임 비디오(880)에서 움직임의 적절한 시청을 가능하게 해주는 복원 이후 풀-해상도 프레임 및/또는 섬네일 이미지들이 시청 장치(600)에 의해 시각적으로 표시되어야 하는 속도를 표시할 수 있다. 메시지들 중 일부는 개개의 GOP(432)에 적용하는 파라미터, 이를 테면, 하나 이상의 특정 GOP(432) 내 압축된 풀-해상도 프레임들의 및/또는 T-프레임들(439)의 양 및/또는 위치(들)를 나타낼 수 있다. 메시지들 중 일부는 압축된 풀-해상도 프레임들 및/또는 T-프레임들(439) 개개에 적용하는 파라미터, 이를 테면, 그러한 각 프레임의 픽셀 해상도 및/또는 컬러 깊이, 특정 T-프레임(439)에서 표시된 섬네일 이미지들(338)의 양, 및/또는 IDR 프레임들(434) 및/또는 T-프레임들(439)이 발견될 수 있는 압축된 프레임들의 개수로서 명시된 간격을 나타낼 수 있다.
도 6은 적어도 GOP(432a 및 432b)를 포함하는 압축된 비디오 데이터(430) 및 이와 연관된 메시지 데이터(470)의 예제 실시예를 도시한다. 도시된 바와 같이, 각각의 GOP(432a) 및 (432b)는 단일의 IDR 프레임(434)에서 시작하고 적어도 하나의 T-프레임(439)에서 끝난다. 또한 도시된 바와 같이, 메시지 데이터(470)는 하나 이상의 GOP 메시지(472), 하나 이상의 풀 프레임 메시지(473), 및/또는 하나 이상의 섬네일 메시지(479)를 포함할 수 있다. 메시지 데이터(470)의 메시지들은 휴먼-판독가능 텍스트 또는 머신-판독가능 코드를 포함하는 각종 형태 중 어느 형태로도 구현될 수 있고 이것으로 제한되지 않는다.
하나의 GOP 메시지(472)는 GOP(432a)에 적용하는 파라미터의 표시, 이를 테면, GOP(432a) 내 압축된 프레임들의 양 및/또는 형태(들)의 표시를 제공할 수 있다. 이와 달리, 이와 같은 GOP 메시지(472)는 또한 GOP(432b)에도 적용할 수 있으며/있거나 개개의 GOP 메시지(472)는 GOP(432b)에 적용할 수 있다. 유사하게, 하나의 풀 프레임 메시지(473)는 GOP(432a)의 압축된 풀-해상도 프레임들 중 하나(예를 들면, GOP(432a)의 처음에 나오는 IDR 프레임(434))에 적용하는 파라미터의 표시, 이를 테면, 그 하나의 압축된 풀-해상도 프레임의 픽셀 해상도 또는 컬러 깊이의 표시를 제공할 수 있다. 이와 달리, 이와 같은 풀 프레임 메시지(473)는 또한 GOP(432a) 내 하나 이상의 다른 압축된 풀-해상도 프레임 및/또는 GOP(432b) 내 하나 이상의 풀-해상도 프레임에도 적용할 수 있다. 또한, 하나의 섬네일 메시지(479)는 GOP(432a) 내 T-프레임들(439) 중 하나(예를 들면, GOP(432a)의 끝에 있는 두개의 도시된 T-프레임(439)들 중 하나)에 적용하는 파라미터의 표시, 이를 테면, 그 하나의 T-프레임(439)의 픽셀 해상도 또는 컬러 깊이의 표시를 제공할 수 있다. 이와 달리, 이와 같은 섬네일 메시지(479)는 또한 GOP(432a) 내 하나 이상의 다른 T-프레임(439) 및/또는 GOP(432b) 내 하나 이상의 T-프레임(439)에도 적용할 수 있다.
도 7은 압축된 비디오 데이터(430)의 GOP(432) 내 T-프레임(439) 및 그와 연관된 메시지 데이터(470)의 실시예의 예를 도 6보다 어느 정도 더 상세하게 도시한다. 특히 다수의 섬네일 이미지들(338)의 픽셀 데이터가 T-프레임(439) 내에서 구성될 수 있는 방식의 예가 도시된다. 비록 섬네일 이미지(338)가 도시된 T-프레임(439) 내에서 타일 양식(tiled manner)로 구성된 것으로 도시될 지라도, 그러한 섬네일 이미지(338)의 픽셀 데이터는 T-프레임(439) 내에서 다양한 방식 중 어느 방식으로도 구성될 수 있는 다른 실시예가 가능하다는 것을 주목하여야 한다.
또한, 도시된 T-프레임(439)은 T-프레임(439)의 파라미터, 이를 테면 T-프레임(439)에 의해 표시된 섬네일 이미지들(338)의 양, 그러한 섬네일 이미지들(338)의 픽셀 해상도, 컬러 깊이 등을 나타내는 섬네일 메시지들(479)과 연관될 수 있다. 비록 T-프레임(439)이 압축된 풀-해상도 프레임들 사이에 배치될 수 있을 지라도, T-프레임(439)은 그러한 압축된 풀-해상도 프레임들과 상이한 픽셀 해상도 및/또는 상이한 컬러 깊이를 가질 수 있으며, 이러한 것들은 섬네일 메시지(479)에서 표시될 수 있다는 것을 주목하여야 한다.
도 1를 다시 참조하면, 압축되지 않은 비디오 데이터(330)로부터 압축된 비디오 데이터(430) 및 메시지 데이터(470)를 생성할 때, 프로세서 컴포넌트(450)는 파라미터 데이터(435)에서 명시된 각종 파라미터를 이용할 수 있다. 그러한 파라미터는 엔트로피 인코딩, 양자화, 이산 코사인 변환 및/또는 움직임 보상이 무엇이든 압축 중에 수행될 수 있는 국면을 제어할 수 있다. 이와 달리 또는 부가적으로, 그러한 파라미터는 GOP 당 압축된 프레임의 개수, 압축된 프레임 당 최소 또는 최대 해상도 및/또는 컬러 깊이 등을 명시할 수 있다.
압축되지 않은 비디오 데이터(330)로부터 압축된 비디오 데이터(430) 및 메시지 데이터(470)를 생성한 다음, 프로세서 컴포넌트(350 및/또는 450)는 압축된 비디오 데이터(430) 및 그에 동반하는 메시지(470)를 시청 장치(600)에 제공한다. 일부 실시예에서, 프로세서 컴포넌트(350 및/또는 450)는 압축된 비디오 데이터(430) 및/또는 메시지 데이터(470)를 네트워크(999)를 통해 시청 장치(600)에 전송할 수 있다. 다른 실시예에서, 프로세서 컴포넌트(350 및/또는 450)는 압축된 비디오 데이터(430) 및/또는 메시지 데이터(470)를 나중에 그 두 데이터 조각을 시청 장치(600)에 전달하는데 사용될 수 있는 제거가능한 매체(도시되지 않음)에 저장할 수 있다.
시청 장치(600)는 프로세서 컴포넌트(650), 스토리지(660), 입력 장치(620), 및 시청 장치(600)를 네트워크(999)에 결합하는 인터페이스(690) 중 하나 이상을 포함한다. 시청 장치(600)는 또한 움직임 비디오(880)를 시각적으로 표시하는 디스플레이(680)를 포함할 수 있거나, 아니면 디스플레이(680)는 물리적으로 시청 장치(600)와 별개일 수 있지만, 통신으로는 그에 결합되어 있을 수 있다. 입력 장치(620)는 시청 장치(600)의 운용자가 시청 장치(600)에 의해 시각적으로 디스플레이(680)에 표시되는 것을 선택하는 커맨드를 전달할 수 있는 수동-조작가능한 각종 입력 장치일 수 있다. 예를 들면, 입력 장치(620)는 시청 장치(600) 자체의 케이싱에 담겨진 수동-조작 가능한 제어장치를 포함할 수 있으며/있거나 시청 장치(600)에 무선으로 결합된 원격 제어장치가 매개하는 수동-조작가능한 제어장치를 포함할 수 있다. 스토리지(660)는 압축된 비디오 데이터(430), 메시지 데이터(470), 제어 루틴(640) 및 복원된 비디오 데이터(630) 중 하나 이상을 저장한다.
제어 루틴(640)은 각종 기능을 수행하는 로직을 구현하는 프로세서 컴포넌트(650)에서 가동하는 커맨드 시퀀스를 포함한다. 제어 루틴(640)을 실행할 때, 프로세서 컴포넌트(650)는 압축되지 않은 비디오 데이터(330)로부터 압축된 비디오 데이터(430)의 압축된 프레임 및 메시지 데이터(470)의 동반 메시지를 수신하고, 적어도 그의 서브셋을 스토리지(660)에 저장한다. 다시 한번, 이들 데이터 조각은 네트워크(999)를 통해 수신될 수 있거나 제거 가능한 저장 매체와 같은 다른 메커니즘에 의해 수신될 수 있다.
프로세서 컴포넌트(650)는 입력 장치(620)를 모니터하여 압축된 비디오 데이터(430)의 풀-해상도 프레임 또는 섬네일 이미지를 시각적 표시하게 하는 커맨드를 전달하는 입력 장치(620)의 동작 지시를 수신한다. 그러한 커맨드에 응답하여, 프로세서 컴포넌트(650)는 압축된 풀-해상도 프레임(예를 들면, IDR 프레임(434), I-프레임(435), P-프레임(436) 및 B-프레임(437)) 또는 T-프레임(439) 중 하나 또는 둘 다를 복원하고, 결과적인 복원된 풀-해상도 프레임 또는 복원된 섬네일 이미지를 디스플레이(680)에서 시각적으로 표시한다.
움직임 비디오(880)를 시청을 위해 시각적으로 표시하는 커맨드가 내려지도록 풀-해상도 프레임을 시각적으로 표시하라는 커맨드가 수신되는 경우, 프로세서 컴포넌트(650)는 메시지 데이터(470)의 메시지를 이용하여 압축된 풀-해상도 프레임을 식별하고 복원하며, 결과적인 복원된 풀-해상도 프레임을 복원된 비디오 데이터(630) 로서 저장한다. 그 다음 프로세서 컴포넌트(650)는 움직임 비디오(880)의 새로이 복원된 풀-해상도 프레임을 메시지 데이터(470) 내 메시지에 의해 지정되어 있을 수도 있는 초당 프레임 속도로 디스플레이(680)에서 시각적으로 표시한다.
일부 실시예에서, 움직임 비디오를 시각적으로 표시하라는 커맨드가 최소한 수신된 이래로 또는 움직임 비디오(880)의 프리뷰를 시각적으로 표시하라는 커맨드에 응답하여 기 설정된 기간이 경과한 경우, 프로세서 컴포넌트(650)는 메시지 데이터(470)의 메시지를 이용하여 적어도 T-프레임들(439)의 서브셋을 식별하고 복원하며, 결과적인 복원된 섬네일 이미지들을 복원된 비디오 데이터(630)로서 저장한다.그런 다음 프로세서 컴포넌트(650)는 그러한 새로이 복원된 섬네일 이미지를 메시지 데이터(470) 내 메시지에 의해서도 지정되어 있을 수 있는 초당 프레임의 속도로 디스플레이(680)에서 시각적으로 표시한다.
도 2는 컴퓨팅 장치(300)의 대안의 실시예를 포함하는 비디오 프리젠테이션 시스템(1000)의 대안의 실시예의 블록도를 도시한다. 도 2의 비디오 프리젠테이션 시스템(1000)의 대안의 실시예는 여러 면에서 도 1의 실시예와 유사하며, 그래서 전체에서 유사한 참조 부호가 유사한 구성요소를 지칭하는데 사용된다. 그러나, 도 1의 컴퓨팅 장치(300)와 달리, 도 2의 컴퓨팅 장치(300)는 컨트롤러(400)를 포함하지 않는다. 또한 도 1의 컴퓨팅 장치(300)와 달리, 도 2의 컴퓨팅 장치(300)에서는 프로세서 컴포넌트(450)가 프로세서 컴포넌트(350)가 그렇게 하는 것을 대신하여 제어 루틴(440)을 실행한다. 그래서, 도 2의 비디오 프리젠테이션 시스템(1000)의 대안의 실시예에서, 프로세서 컴포넌트(350)는 압축되지 않은 비디오 데이터(330)를 압축하여 압축된 비디오 데이터(430) 및 메시지 데이터(470)를 생성할 수 있다.
여러 실시예에서, 각각의 프로세서 컴포넌트(350, 450 및 650)는 광범위한 각종의 상업적으로 입수가능한 프로세서들 중 어느 것이라도 포함할 수 있다. 또한, 이들 프로세서 컴포넌트들 중 하나 이상은 다수의 프로세서, 멀티-스레드 프로세서, (다중 코어가 같은 또는 별개의 다이에 공존하든지 아니하든) 멀티-코어 프로세서, 및/또는 다수의 물리적으로 개별적인 프로세서들이 어떤 방식으로 링크되어 있는 몇 가지 다른 다양한 멀티-프로세서 아키텍처를 포함할 수 있다.
비록 각각의 프로세서 컴포넌트(350, 450 및 650)가 각종 프로세서 형태 중 어느 형태든 포함할 수 있을지라도, (만일 존재한다면) 컨트롤러(400)의 프로세서 컴포넌트(450)는 그래픽스 및/또는 비디오와 관련한 작업을 수행하도록 어느 정도 특화될 수 있으며/있거나 최적화되어 있을 수 있다고 예상된다. 더 넓게 말해서, 컨트롤러(400)는 프로세서 컴포넌트(350)와 구분되고 별개인 컴포넌트 및 그의 더 밀접하게 관련된 컴포넌트를 이용하여, 그래픽스 렌더링, 비디오 압축, 이미지 리스케일링 등과 관련한 작업의 성능을 가능하게 해주는 컴퓨팅 장치(300)의 그래픽스 서브시스템을 구현하는 것이 예상된다.
여러 실시예에서, 각각의 스토리지(360, 460 및 660)는 다양한 정보 저장 기술 중 어느 기술이든 기반으로 할 수 있다. 그러한 기술은 중단없는 전력 공급을 수반하는 휘발성 기술 및/또는 제거가능할 수도 아닐 수도 있는 머신-판독가능 저장 매체의 사용을 수반하는 기술을 포함할 수 있다. 그래서, 각각의 이러한 스토리지는, 제한을 두지 않고, 판독-전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 다이나믹 RAM(DRAM), 더블-데이터-레이트 DRAM(DDR-DRAM), 동기 DRAM(SDRAM), 스태틱 RAM(SRAM), 프로그래머블 ROM(PROM), 소거가능 프로그래머블 ROM(EPROM), 전기적 소거가능 프로그래머블 ROM(EEPROM), 플래시 메모리, 폴리머 메모리(예를 들면, 강유전성 폴리머 메모리), 오보닉 메모리(ovonic memory), 상전이 메모리 또는 강유전성 메모리, 실리콘-산화물-질화물-산화물-실리콘(SONOS) 메모리, 자기 또는 광학 카드, 하나 이상의 개별 강자성 디스크 드라이브, 또는 하나 이상의 어레이로 구성된 복수의 저장 장치(예를 들면, 독립 디스크 어레이의 리던던트 어레이(Redundant Array of Independent Disks array), 또는 RAID 어레이로 구성된 다수의 강자성 디스크 드라이브)를 포함하는 다양한 형태 (또는 조합 형태)의 저장 장치들 중 어느 것이든 포함할 수 있다. 비록 각각의 이러한 스토리지들이 단일의 블록으로서 묘사되어 있을 지라도, 이들 중 하나 이상은 다른 저장 기술을 기반으로 할 수 있는 다수의 저장 장치를 포함할 수 있다는 것을 주목하여야 한다. 그래서, 예를 들면, 이와 같이 묘사된 각각의 스토리지는 프로그램 및/또는 데이터가 어떤 형태의 머신-판독가능 저장 매체에 저장되고 전달될 수 있는 광학 드라이브 또는 플래시 메모리 카드 리더의 조합, 상대적으로 오랜 기간 동안 프로그램 및/또는 데이터를 국부적으로 저장하는 강자성 디스크 드라이브, 및 프로그램 및/또는 데이터로의 비교적 빠른 액세스를 가능하게 해주는 하나 이상의 휘발성 고체 상태 메모리 장치(예를 들면, SRAM 또는 DRAM)를 나타낼 수 있다. 이러한 각각의 스토리지는 동일한 저장 기술을 기반으로 하는 다수의 저장 컴포넌트들로 구성될 수 있지만, 사용 상 전문화 결과로서 개별적으로 유지될 수도 있다는(예를 들면, 몇 몇 DRAM 장치는 메인 스토리지로서 이용되는 한편 다른 DRAM 장치는 그래픽스 컨트롤러의 개별 프레임 버퍼로서 이용된다는) 것 또한 주목하여야 한다.
여러 실시예에서, 인터페이스(190, 390 및 690)는 기술된 바와 같이 이들 컴퓨팅 장치들이 다른 장치에 결합될 수 있게 해주는 각종 시그널링 기술 중 어느 기술이든 이용할 수 있다. 이러한 각각의 인터페이스는 필요 기능의 적어도 일부를 제공하여 그러한 결합을 가능하게 해주는 회로를 포함한다. 그러나, 이러한 각각의 인터페이스는 또한 적어도 부분적으로 (예를 들면, 프로토콜 스택 또는 다른 특징을 실행하는) 프로세서 컴포넌트들 중 해당 컴포넌트들에 의해 실행된 커맨드 시퀀스로 구현될 수 있다. 전기적으로 및/또는 광학적으로 전도성인 케이블류가 이용되는 경우, 이러한 인터페이스는, 제한을 두지 않고, RS-232C, RS-422, USB, 이더넷 (IEEE-802.3) 또는 IEEE-1394를 포함하는 각종 산업 표준 중 모든 표준을 준용하는 시그널링 및/또는 프로토콜을 이용할 수 있다. 무선 신호 송신의 사용이 수반되는 경우, 이러한 인터페이스는, 제한을 두지 않고, IEEE 802.11a, 802.11b, 802.11g, 802.16, 802.20 (통상 "모바일 광대역 무선 액세스(Mobile Broadband Wireless Access)"라 지칭함); 블루투스; 지그비; 또는 GSM과 일반 패킷 무선 서비스(General Packet Radio Service (GSM/GPRS)), CDMA/1xRTT, 글로벌 진화를 위한 향상된 데이터 속도(Enhanced Data Rates for Global Evolution (EDGE)), 진화 데이터만/최적화(Evolution Data Only/Optimized (EV-DO)), 데이터 및 음성의 진화(Evolution For Data and Voice (EV-DV)), 고속 다운링크 패킷 액세스(High Speed Downlink Packet Access (HSDPA)), 고속 업링크 패킷 액세스(High Speed Uplink Packet Access (HSUPA)), 4G LTE 등과 같은 셀룰러 무선전화 서비스를 포함하는 각종 산업 표준이 모든 표준을 준용하는 시그널링 및/또는 프로토콜을 이용할 수 있다.
도 8 및 도 9는 각기 도 1의 비디오 프리젠테이션 시스템(1000)의 실시예의 일부분의 블록도를 더 상세히 도시한다. 보다 상세히 말해서, 도 8은 프로세서 컴포넌트(350 또는 450)가 제어 루틴(440)을 실행할 때 움직임 비디오(880)의 풀-해상도 프레임(333) 및 대응하는 섬네일 이미지(338)를 조합하여 단일의 압축된 비디오 데이터(430)로 압축하는 컴퓨팅 장치(300)의 동작 환경의 양상을 도시한다. 도 9는 프로세서 컴포넌트(650)가 제어 루틴(640)을 실행할 때 압축된 풀-해상도 프레임 및/또는 T-프레임(439)을 선택적으로 복원하고, 그 하나 또는 둘 다를 디스플레이(680)에서 시각적으로 표시하는 시청 장치(600)의 동작 환경의 양상을 도시한다. 본 기술에서 통상의 지식을 가진 자들에게 인식가능한 바와 같이, 각각 구성되어 있는 컴포넌트들을 포함하는 제어 루틴(440 및 640)은 프로세서 컴포넌트(350), (450) 또는 (650) 중 적용 가능한 컴포넌트를 실행하도록 선택된 어떤 형태든지 간에 프로세서 또는 프로세서들에서 동작되도록 선택된다.
여러 실시예에서, 각각의 제어 루틴(340, 440 및 640)은 오퍼레이팅 시스템, 장치 드라이버 및/또는 애플리케이션-레벨 루틴(예를 들면, 디스크 매체에서 제공된 소위 "소프트웨어 스위트(software suites)", 원격 서버로부터 획득된 "애플릿(applets)" 등) 중 하나 이상을 포함할 수 있다. 오퍼레이팅 시스템이 포함되는 경우, 오퍼레이팅 시스템은 프로세서 컴포넌트(350, 450 또는 650) 중 무엇이든 해당하는 컴포넌트에 적절한 각종 이용가능한 오퍼레이팅 시스템 중 어느 것일 수 있다. 하나 이상의 장치 드라이버가 포함된 경우, 이들 장치 드라이버는, 하드웨어 또는 소프트웨어 컴포넌트이든지 간에, 컴퓨팅 장치(300) 또는 (600), 또는 컨트롤러(400) 중 해당하는 것들의 각종 다른 컴포넌트들 중 어느 컴포넌트이든 지원을 제공해줄 수 있다.
제어 루틴(440 또는 640)은, 기술한 바와 같이, 인터페이스(390 또는 690) 중 해당하는 인터페이스를 동작시켜 네트워크(999)를 통해 신호를 송신 및 수신하는 프로세서 컴포넌트(350, 450 또는 550) 중 무엇이든 해당하는 컴포넌트에 의해 실행가능한 통신 컴포넌트(449 또는 649)를 각기 포함할 수 있다. 수신된 신호들 중에는 소스 데이터(130) 및/또는 압축된 비디오 데이터(430)를 네트워크(999)를 통하여 컴퓨팅 장치들(100, 300 또는 600) 중 하나 이상의 장치들 사이에서 전달하는 신호가 있을 수 있다. 본 기술에서 통상의 지식을 가진 자들에게 인식가능한 바와 같이, 이러한 각각의 통신 컴포넌트는 인터페이스(390 또는 690) 중 해당하는 인터페이스를 실행시키는 무슨 형태든 선택된 인터페이스 기술을 이용하여 동작가능하게 선택된다.
도 8을 더 구체적으로 되돌아 보면, 제어 루틴(440)은 섬네일 이미지들(338)의 셋을 멀티-섬네일 프레임(339)으로 조합하는 프로세서 컴포넌트(350 또는 450)에 의해 실행 가능한 조합 컴포넌트(combining component)를 포함한다. 앞에서 논의한 바와 같이, 풀-해상도 프레임(333)은, 컴퓨팅 장치(300)에 의해 다른 컴퓨팅 장치로부터 수신되거나 컴퓨팅 장치(300) 내에서 생성되든지 간에, 섬네일 이미지(338)를 동반하지 않을 수 있다. 그래서, 일부 실시예에서, 제어 루틴(440)은 또한 풀-해상도 프레임(333)의 적어도 일부에 대해 대응하는 섬네일 이미지(338)를 생성하도록 프로세서 컴포넌트(350 또는 450)에 의해 실행 가능한 섬네일 생성기(443)를 포함할 수 있다. 일부 실시예에서, 섬네일 생성기(443)는 풀-해상도 프레임들(333) 모두에 대해 대응하는 섬네일 이미지들(338)을 생성할 수 있다.
제어 루틴(440)은 압축되지 않은 비디오 데이터(330)를 압축하여 압축된 비디오 데이터(430)를 생성하도록 프로세서 컴포넌트(350 또는 450)에 의해 실행가능한 압축 컴포넌트(445)를 포함한다. 보다 상세히 말해서, 압축 컴포넌트(445)는 압축되지 않은 비디오 데이터(330)의 풀-해상도 프레임(333)을 압축하여 압축된 비디오 데이터(430)의 부분으로서 압축된 풀-해상도 프레임을 생성한다. 압축 컴포넌트(445)에 의해 MPEG 버전 또는 유사 압축 방식이 이용되는 실시예에서, 압축된 풀-해상도 프레임은 적어도 하나의 IDR 프레임(434), 하나 이상의 I-프레임(435), 하나 이상의 P-프레임(436), 및/또는 하나 이상의 B-프레임(437)을 포함한다. 풀-해상도 프레임(333)을 압축하는 것과 함께, 압축 컴포넌트(445)는 또한 멀티-섬네일 프레임(339)을 압축하여 압축된 비디오 데이터(430)의 T-프레임(439)를 생성한다. 논의된 바와 같이, 압축 컴포넌트(445)는 압축된 풀-해상도 프레임들 사이에서 T-프레임(439)을 배치한다.
이용된 압축 방식이 MPEG 버전 또는 유사한 압축 방식인 경우, 압축 컴포넌트(445)는 압축된 풀-해상도 프레임을 GOP(432) 내에 구성한다. 보다 정확히 말해서, 압축 컴포넌트(445)는 연대순으로 인접한 풀-해상도 프레임들(333)의 셋을 선택하고, 이들을 압축하여 대응하는 압축된 풀-해상도 프레임들의 셋을 생성한 다음, 이들 셋의 각각을 별개의 GOP(432) 내에 배치한다. 이렇게 하여, 압축 컴포넌트(445)는 압축된 풀-해상도 프레임들의 각각의 셋의 압축된 풀-해상도 프레임들이 연대순으로부터 코딩 순서로 재구성하여 이들이 각 GOP(432) 내에서 코딩 순서대로 구성되도록 한다. 대조적으로, GOP(432) 자체는 연대순으로 구성된다. 또한, IDR 프레임(434)는 GOP(432) 내 코딩 순서의 첫 프레임이다. 각각의 GOP(432) 내 IDR 프레임(434)에는 I-프레임(435), P-프레임(436), B-프레임(437) 및 T-프레임(439)의 각각의 하나 이상의 조합이 뒤이어 나온다. 그런 다음 압축 컴포넌트(445)는 하나 이상의 T-프레임들(439)을 GOP(432)의 적어도 일부 GOP 내 압축된 풀-해상도 프레임들 사이에 배치한다. 논의된 바와 같이, GOP(432) 내 하나 이상의 T-프레임(439)은 압축된 풀-해상도 프레임들 사이 어느 곳에서든 그룹으로 및/또는 개별적으로 배치될 수 있으며, GOP(432) 내 T-프레임의 구성은 연대순을 따를 필요가 없다.
압축된 비디오 데이터(430)를 생성하는 것과 함께 압축 컴포넌트(445)는 또한 압축된 프레임, GOP(432) 및/또는 압축된 비디오 데이터(430)의 다른 양상의 각종 파라미터를 나타내는 메시지들로 구성된 메시지 데이터(470)를 생성한다. 메시지 데이터(470)는 압축된 비디오 데이터(430)와 함께 시청 장치(600)에 제공되어, 시청 장치(600)가 압축된 비디오 데이터(430)의 압축된 프레임을 복원할 수 있게 해준다.
최소한 압축 컴포넌트(445)가 MPEG 버전 또는 유사한 압축 방식을 이용하는 경우, 압축 컴포넌트(445)는 컬러 공간 변환기(4450), 움직임 추정기(4451), 변환 컴포넌트(4452), 양자화 컴포넌트(4453) 및 엔트로피 인코더(4454) 중 하나 이상을 포함할 수 있다. 만일 존재한다면, 컬러 공간 변환기(4450)는 풀-해상도 프레임(333) 및/또는 섬네일 이미지(338)의 컬러 공간을 압축하기에 앞서 MPEG 버전에서 종종 이용되는 적색-녹색-청색(RGB) 컬러 공간에서 루미넌스-크로미넌스(YUV) 컬러 공간으로 변환할 수 있다.
움직임 추정기(4451)는 풀-해상도 프레임(333)의 연대순으로 인접한 프레임들을 분석하고 객체의 움직임으로 인해 발생하는 해당 픽셀 블록의 픽셀 컬러 값에서의 차이를 식별하여, 2차원 픽셀 블록과 연관된 픽셀 컬러 값들의 셋이 이들 사이에서 특정한 방향으로 시프트되게 한다. 그런 다음 움직임 추정기(4451)는 그러한 움직임의 방향과 범위를 결정하여 하나의 풀-해상도 프레임(333)의 적어도 일부분이 다른 것에 대비하여 적어도 부분적으로 움직임 벡터의 표시로 기술될 수 있게 한다.
HEVC(현재 개발 중인 MPEG의 신규 버전)과 같은 압축 방식에 대하여, 움직임 추정기(4451)는 또한 풀-해상도 프레임들(333) 중 단 하나 및/또는 멀티-섬네일 프레임들(339) 중 단 하나 내 픽셀 블록들 사이에서 픽셀 컬러 값의 차를 분석하도록 작동될 수 있다. 다수의 섬네일 이미지들(338)은 타일 양식로 구성되도록 단일의 멀티-섬네일 프레임(339)으로 조합될 수 있는데, 도 7은 그러한 멀티-섬네일 프레임(339)의 압축 후 T-프레임(439)에 대해 실행된 그러한 타일 구성의 예를 도시한다. 그러한 타일화 작업은 단일 프레임 내 픽셀 블록들 간의 차의 분석을 할 수 있게 해주는데 유리할 수 있다. 8x8, 8x16, 16x8 또는 16x16 픽셀의 블록으로 제한되는 경향의 초기 MPEG 버전과 달리, HEVC는 움직임 추정시 분석되는 블록의 픽셀 해상도를 지정하는데 많은 융통성을 허용함으로써, 잠재적으로 이들 블록이 적어도 일부 섬네일 이미지들(338)의 해상도 및/또는 경계에 대응하여 정의되게 해줄 수 있다. 그래서, 압축 컴포넌트(445)는 움직임 벡터가 각각의 T-프레임(439) 내에서 연대순으로 인접한 섬네일 이미지들(338)의 픽셀들 간의 차에 대해 더욱 간결한 기술을 제공하는데 사용되는 그러한 T-프레임(439)을 생성할 수 있다.
적어도 일부의 MPEG 버전 및 유사한 압축 방식에 대하여, 변환 컴포넌트(4452)는 이산 코사인 변환(DCT)을 수행하여 프레임의 픽셀 컬러 값을 주파수 도메인으로 변환한다. 그러나, HEVC와 같은 압축 방식의 경우, 변환 컴포넌트(4452)는 DCT 이외에 또는 그 대신 이산 사인 변환을 수행할 수 있다.
양자화 컴포넌트(4463)는 더 높은 주파수 성분을 필터한다. 그러한 높은 주파수 성분은 종종 인간의 시야에서 감지할 수 없으며 그래서 종종 데이터 크기를 줄이기 위해 없앨 수 있는 것이라고 간주된다. 이것은 프레임 내에서 전달된 시각 정보의 적어도 일부분이 의도적으로 버려지는 손실 압축 기술로서 분류되는 MPEG 버전 및 유사한 압축 방식에서 행하여지는 적어도 이러한 높은 주파수 성분의 제거이다.
적어도 일부 MPEG 버전 및 유사한 압축 방식의 경우에 대하여, 엔트로피 인코더(4454)는 허프만 코딩을 이용하여 더 짧은 비트-길이의 디스크립터를 더 자주 발생하는 데이터 값에 할당하고 더 긴 비트-길이의 디스크립터를 덜 자주 발생하는 데이터 값에 할당하여 동일한 데이터 값을 기술하는데 필요한 비트 수를 줄이는 코드 테이블(도시되지 않음)에 따라서 엔트로피 인코딩을 수행한다. 그러나, 대안으로서, 제한을 두지 않고, 산술 코딩(또는 통상 적응 이진 산술 코딩(context-adaptive binary arithmetic coding) 또는 CABAC라고도 지칭함)을 비롯한 다른 형태의 엔트로피 코딩이 이용될 수 있다.
제어 루틴(440)은 각종 암호화 기술 중 어느 기술이든 이용하여 압축된 비디오 데이터(430)의 압축된 프레임을 암호화하도록 프로세서 컴포넌트(350 또는 450)에 의해 실행 가능한 암호화 컴포넌트(447)를 포함할 수 있다. 암호화 컴포넌트(447)는 또한 메시지 데이터(470)를 암호화할 수 있다. 일부 실시예에서, 암호화 컴포넌트는 압축된 풀-해상도 프레임(예를 들면, IDR 프레임(434), I-프레임(435), P-프레임(436) 및 B-프레임(437))을 암호화할 수 있지만, 적어도 T-프레임들(439)의 서브셋을 암호화하지는 않는다. 이것은 복호를 수행할 필요 없이 시청 장치(600)가 일련의 T-프레임들(439)로 구성된 프리뷰를 제공할 수 있게 수행될 수 있다. 그러한 실시예에서, 메시지 데이터(470)는 어느 압축된 프레임이 암호화되고 어느 것이 암호화되지 않았다고 표시하는 메시지를 포함할 수 있다. 또한, 풀-해상도 프레임의 모두 (또는 실질적으로 모두)가 암호화되는 한편, 적어도 T-프레임들(439)의 서브셋은 암호화되지 않는 것이 있을 수 있다. 그와 달리, T-프레임들 모두 또는 실질적으로 모두가 암호화되지 않지만, 메시지 데이터(470)는 T-프레임들(439) 중 기설정 개수까지만 움직임 비디오(880)의 모든 프리뷰에서 시각적으로 표시되는 표시를 시청 장치(600)에 제공하는 메시지를 포함할 수 있는 것이 있을 수 있다. 이것은 압축된 풀-해상도 프레임을 보여주는 대신, T-프레임(439)을 보여줌으로써 움직임 비디오(880)의 전체를 보여주는 것을 방지하도록 수행될 수 있다.
앞에서 논의된 바와 같이, 시청 장치(600)는 움직임 비디오 데이터(130)로서 다른 컴퓨팅 장치로부터 움직임 비디오(880)를 수신할 수 있으며, 움직임 비디오(880)의 프레임은 시청 장치에서 압축될 수 있다. 그래서, 일부 실시예에서, 제어 루틴(440)은 또한 비디오 데이터(130)의 프레임을 복원하고 압축되지 않은 풀-해상도 프레임(330)을 생성하도록 프로세서 컴포넌트(350 또는 450)에 의해 실행 가능한 복원 컴포넌트(decompression component)(441)를 포함할 수 있다. 복원 컴포넌트(441)는 무슨 형태든 비디오 데이터(130)를 복원하기에 적절한 형태를 비롯하여, 각종 압축 방식 중 어느 것이든 이용할 수 있다.
논의된 바와 같이, 컴퓨팅 장치(300)에 의한 압축된 비디오 데이터(430)의 적어도 일부분 및 메시지 데이터(470)의 일부분의 생성 시, 적어도 이들 두 부분은 시청 장치(600)로 제공된다. 이것은 네트워크(999)를 통해 컴퓨팅 장치(300)에 의한 시청 장치(600)로의 송신 시 이루어질 수 있다. 그러한 전송 시, 동시에 전송되는 데이터 스트림에 의해 정의될 수 있는 별도의 채널이 압축된 비디오 데이터(430) 및 메시지 데이터(470)를 전송할 때 이용될 수 있다. 이와 달리 또는 부가적으로, 압축된 비디오 데이터(430) 및 메시지 데이터(470)를 시청 장치(600)로 제공하는 것은 압축된 비디오 데이터(430) 및 메시지 데이터(470)를 나중에 이 두 데이터가 시청 장치(600)에 의해 검색되는 제거가능한 머신-판독가능 매체에 저장함으로써 이루어질 수 있다.
더 상세히 도 9를 되돌아 보면, 제어 루틴(640)은, 압축된 비디오 데이터(430) 및 메시지 데이터(470)가 어떤 방법으로 시청 장치(600)에 제공되는지에 상관없이, 압축된 비디오 데이터(430)의 압축된 프레임을 복호하도록 프로세서 컴포넌트(650)에 의해 실행가능한 복호화 컴포넌트(decryption component)(647)를 포함할 수 있다. 복호화 컴포넌트(647)는 암호화 컴포넌트(447)에 의해 이용된 모든 형태의 암호화에 상대되는 복호화를 이용한다. 복호화 컴포넌트(647)는 메시지 데이터(470)가 역시 암호화 컴포넌트(447)에 의해 암호화될 수 있는 실시예에서 메시지 데이터(470)도 복호화할 수 있다.
제어 루틴(640)은 압축된 비디오 데이터(430)의 압축된 풀-해상도 프레임 및/또는 T-프레임(439)을 선택적으로 복원하도록 프로세서 컴포넌트(650)에 의해 실행 가능한 복원 컴포넌트(645)를 포함한다. 앞에서 논의된 바와 같이, 압축된 풀-해상도 프레임, T-프레임(439) 또는 이 둘 다 복원되든 되지 않든, 이들은 시청 장치(600)의 운용자로부터 수신된 커맨드에서 지시된 바에 따라서 디스플레이될 수 있다. 이러한 뷰잉되도록 하는 커맨드에서 움직임 비디오(880)가 선택되는 경우, 복원 컴포넌트(645)는 압축된 비디오 데이터(430)의 풀-해상도 프레임들(예를 들면, IDR 프레임(434), I-프레임(435), P-프레임(436) 및 B-프레임(437))을 복원하여 복원 컴포넌트(645)가 복원된 비디오 데이터(630)의 부분으로서 저장하는 복원된 풀-해상도 프레임(633)을 생성하도록 한다. 이렇게 하여, 복원 컴포넌트(645)는 압축 컴포넌트(445)에 의해 이용된 모든 형태의 압축에 상대되는 복원을 이용한다.
이러한 뷰잉되도록 하는 커맨드에서 섬네일 이미지를 기초로 하는 움직임 비디오(880)의 프리뷰 및/또는 장면의 지표가 선택되는 경우, 복원 컴포넌트(645)는 T-프레임(439)을 복원하여 복원 컴포넌트(645)가 복원된 비디오 데이터(630)의 부분으로서 저장하는 복원된 섬네일 이미지(639)를 생성하도록 한다. 앞에서 논의된 바와 같이, 복원 컴포넌트(645)는 압축된 풀-해상도 프레임을 복원하는데 이용하는 것처럼 동일한 복원 형태를 이용하여 T-프레임(439)을 복원한다. 동일한 압축 및 복원 형태를 사용함에도 불구하고, 풀-해상도 프레임(333) 및 섬네일 이미지(338)가 별도로 압축되어 별개의 압축된 프레임을 형성한다는 사실은 풀-해상도 프레임을 복원하라는 더 많은 처리 요구 없이 이들 섬네일 이미지들이 복원될 수 있게 해준다.
복원 컴포넌트(645)가 MPEG 버전 또는 유사한 압축 방식을 이용하는 실시예에서, 복원 컴포넌트(645)는 엔트로피 디코더(6455), 역양자화 컴포넌트(6456), 역 변환 컴포넌트(6457), 움직임 보상기(6458) 및 컬러 공간 변환기(6459) 중 하나 이상을 포함할 수 있다. 엔트로피 디코더(6455)는 허프만, 산술 코딩 또는 다른 적절한 형태의 엔트로피 코딩을 이용하는 압축 동안 엔트로피 인코더(4454)에 의해 수행된 엔트로피 코딩을 디코드한다. 역양자화 컴포넌트(6456)는 압축 동안 양자화 컴포넌트(4453)에 의해 수행된 고 주파수 성분의 제거를 어느 정도까지 되돌려 놓는다. 역 변환 컴포넌트(6457)는 변환 컴포넌트(4452)에 의해 이용되었던 모든 변환의 역을 이용하여 압축 동안 픽셀 컬러 값을 주파수 도메인으로 변환한다. 움직임 보상기(6458)는 움직임 추정기(4451)에 의해 유도된 움직임 벡터를 이용하여 픽셀 컬러 값의 블록들의 시프트 방향 및 거리를 기술하여 그러한 시프트의 결과가 복원된 프레임을 생성할 때 초래되게 한다. 만일 존재한다면, 컬러 공간 변환기(6459)는 MPEG에서 종종 이용되는 루미넌스-크로미넌스(YUV) 컬러 공간으로부터의 복원된 프레임의 컬러 공간을 디스플레이를 구동할 때 종종 이용되는 적색-녹색-청색(RGB) 컬러 공간으로 변환하는데 이용될 수 있다.
또한, 복원 컴포넌트(645)가 MPEG 버전 또는 유사한 압축 방식을 이용하는 실시예에서, 복원 컴포넌트는 압축된 풀-해상도 프레임들을 복원할 때 이 프레임들이 각각의 GOP(432) 내에서 구성되는 코딩 순서를 재구성할 수 있다. 이렇게 하여, 복원 컴포넌트(645)는 복원된 풀-해상도 프레임들(633)을 연대순으로 생성 또는 적어도 구성하여 이 프레임들이 움직임 비디오(880) 내에서 움직임이 보일 수 있는 적절한 순서로 시각적으로 표시되게 해줄 수 있다.
복호화 컴포넌트(647) 및 복원 컴포넌트(645) 중 하나 또는 둘 다는 개별적인 압축된 프레임, GOP(432) 및/또는 압축된 비디오 데이터(430) 전체에 관한 메시지 데이터(470)의 메시지에 의해 제공된 모든 파라미터의 표시를 이용할 수 있다. 앞에서 논의된 바와 같이, 메시지 데이터(470)는 압축된 비디오 데이터(430)의 어느 압축된 프레임이 압축된 풀-해상도 프레임이고 어느 것이 T-프레임(439)인지 표시할 수 있는 메시지를 포함함으로써, 어느 하나만을 선택적으로 복원하는 것이 가능해진다. 메시지 데이터(470)는 또한 어느 압축된 프레임이 암호화된 것인지를 표시할 수 있고, 그래서 복호화 컴포넌트(647)의 선택적인 사용이 가능해진다.
일부 실시예에서, 메시지 데이터(470)는 IDR 프레임들(434) 및/또는 T-프레임들(439)이 압축된 비디오 데이터(430)의 압축된 프레임들 사이에 배치된 간격의 표시를 제공하여, IDR 프레임들(434) 및/또는 T-프레임들(439)을 찾기 위해 각각의 압축된 프레임을 개별적으로 조사할 필요를 없애줌으로써 더 효과적인 복원을 가능하게 해준다. 그러한 간격은 압축된 프레임들의 양으로서 표현될 수 있다. 이와 달리, 압축된 프레임들을 GOP(432) 내에 구성하게 하는 압축 방식이 이용되는 경우, T-프레임들(439)의 위치는 GOP(432) 내 압축된 프레임의 처음 또는 마지막 위치로부터 프레임들의 양으로서 표현될 수 있다.
일부 실시예에서, 압축된 비디오 데이터(430)를 발생할 때 풀-해상도 프레임(333)을 암호화하여 움직임 비디오(880)를 허가받지 않고 풀 해상도로 볼 수 없게 하되, 적어도 T-프레임(439)의 서브셋을 암호화하지 않은 채로 남겨두어 섬네일 이미지에 기반한 움직임 비디오(880)의 프리뷰 및/또는 장면의 지표를 자유로이 볼 수 있게 해주는 것이 유익하다고 생각될 수 있다. 이것은 시청 장치(600)의 운용자가 섬네일 이미지에 기반한 움직임 비디오의 프리뷰를 무료로 보게 허용할 수 있게 해주되, 선택된 움직임 비디오의 풀-해상도 프레임을 보기위해서는 어떤 형식의 지불을 제공하여야 하는 시청 장치(600)에 의해 제공될 수 있는 유료 시청(pay-per-view)의 형태에 적용할 수 있다. 시청 장치(600)의 운용자가 섬네일 이미지(338)을 봄으로써 움직임 비디오(880)의 전체를 보는 "부정행위"를 방지하기 위하여, 메시지 데이터(470)는 또한 그러한 프리뷰에서 보여줄 수 있는 섬네일 이미지(338)의 선택된 최대 양의 표시를 제공할 수 있다.
제어 루틴(640)은 복원된 풀-해상도 프레임(633) 및/또는 복원된 섬네일 이미지(639)를 시각적으로 디스플레이(680) 상에 표시하는 프리젠테이션 컴포넌트 (presentation component)(648)를 포함한다. 제어 루틴(640)은 또한 보기 위해 시각적으로 표시될 복원된 풀-해상도 프레임(633) 또는 복원된 섬네일 이미지(639) 중 하나 또는 그 둘 다를 선택하는 커맨드를 전달하는 운용자 입력의 표시를 위한 (만일 존재한다면) 입력 장치(620)를 모니터할 수 있다.
논의된 바와 같이, 연대순의 복원된 풀-해상도 프레임(633)을 시각적으로 표시하라는 커맨드가 이렇게 수신될 수 있고, 그럼으로써 움직임 비디오(880)를 디스플레이(680)에서 풀 해상도로 보기 위해 표시할 수 있다. 이에 응답하여, 프리젠테이션 컴포넌트(648)는 압축된 비디오 데이터(430)의 압축된 풀-해상도 프레임을 복원하는 복원 컴포넌트에 신호하여 시각적 표시에 필요한 복원된 풀-해상도 프레임(633)을 생성하도록 한다. 메시지 데이터(470)가 압축된 풀-해상도 프레임이 암호화되어있다고 표시하는 경우, 프리젠테이션 컴포넌트(648)는 또한 이러한 압축된 풀-해상도 프레임을 복호하는 복호화 컴포넌트(647)에 신호하여 이 프레임의 복호가 가능하게 한다.
그러나, 역시 논의한 바와 같이, 연대순의 적어도 복원된 섬네일 이미지들(639)의 서브셋을 시각적으로 표시하라는 커맨드가 수신되어 움직임 비디오(880)의 일부분만일 수 있는 부분을 복원된 섬네일 이미지(639)의 해상도로 보기 위한 프리뷰로서 표시하도록 할 수 있다. 이에 응답하여, 프리젠테이션 컴포넌트(648)는 압축된 비디오 데이터(430)의 T-프레임(439)을 복원하는 복원 컴포넌트에 신호하여 시각적 표시에 필요한 복원된 섬네일 이미지(639)를 생성하도록 한다. 이와 달리 또는 부가적으로, 프리젠테이션 컴포넌트(648)는 적어도 T-프레임들(439)의 서브셋을 복원하는 복원 컴포넌트에 신호하여 프리젠테이션 컴포넌트(648)가 이 서브셋을 시각적으로 프리뷰로서 표시할 수 있게 하여 아마도 시청 장치(600)의 운영자가 보기 위한 움직임 비디오(880)를 선택하도록 유인함으로써 어느 커맨드도 수신되지 않는 및/또는 어느 복원된 프레임도 시각적으로 표시되지 않는 비작동 기간에 반응할 수 있다. T-프레임(439)의 복원을 무엇이 재촉하건 간에, 만일 메시지 데이터(470)가 그러한 T-프레임(439)이 암호화되어 있다고 표시하면, 프리젠테이션 컴포넌트(648)는 이를 복호하도록 복호화 컴포넌트(647)에게 신호할 수 있다.
또한, 시청 장치(600)의 운용자가 풀 해상도로 보기 위해 움직임 비디오(880)의 일부분을 선택할 수 있도록 하기 위해 적어도 복원된 섬네일 이미지들(639)의 서브셋을 포함하는 지표를 디스플레이(680)에서 시각적으로 표시하라는 커맨드가 수신될 수 있다. 논의된 바와 같이, 이용된 압축 방식이 MPEG 버전인 경우, 제1 GOP(432)의 압축된 풀-해상도 프레임과 연관된 T-프레임(들)(439)은 제1 GOP(432)에 연대순으로 선행하는 제2 GOP(432) 내에 압축된다. 이것은 압축된 비디오 데이터(430)가 여전히 수신되고 있는 경우 또는 부분들이 그 부분들의 요청(예를 들면, "온 디맨드(on demand)" 방식)에 응답하여 시청 장치(600)에 제공되는 경우에 유익하다고 생각될 수 있다. 그래서, 연대순으로 늦은 GOP(432)의 압축된 풀-해상도 프레임과 연관된 T-프레임(439)은 시청 장치(600)에 의해 연대순으로 앞선 GOP(432)의 압축된 풀-해상도 프레임과 함께 수신될 것이다. 이것은 시청 장치(600)의 운용자가 그 T-프레임(439)의 섬네일 이미지를 본 다음 늦은 GOP(432)의 압축된 풀-해상도 프레임을 보기 위해 커맨드하는 경우에 한해 늦은 GOP(432)의 요청 및/또는 수신을 가능하게 해줄 것이다.
도 10은 논리 흐름(2100)의 일 실시예를 도시한다. 논리 흐름(2100)는 본 출원에서 기술된 하나 이상의 실시예에 의해 실행된 동작 중 일부 또는 전부를 나타낼 수 있다. 더 상세히 말해서, 논리 흐름(2100)은 적어도 제어 루틴(440)을 실행할 때 프로세서 컴포넌트(350 또는 450)에 의해 수행된, 및/또는 컴퓨팅 장치(300) 또는 컨트롤러(400)의 다른 컴포넌트(들)에 의해 각기 수행된 동작을 도시할 수 있다.
(2110)에서, 컴퓨팅 장치의 프로세서 컴포넌트(예를 들면, 컴퓨팅 장치(300)의 프로세서 컴포넌트(350), 또는 컨트롤러(400)의 프로세서 컴포넌트(450))는 움직임 비디오의 압축되지 않은 풀-해상도 프레임이 대응하는 압축되지 않은 섬네일 이미지를 동반하고 있는지를 체크한다(2110). 동반하지 않으면, (2111)에서 프로세서 컴포넌트는 압축되지 않은 섬네일 이미지를 생성한다.
(2120)에서, 압축되지 않은 섬네일 이미지들의 셋은 압축되지 않은 멀티-섬네일 프레임으로 조합된다. 앞에서 논의된 바와 같이, 섬네일 이미지들은 동일한 멀티-섬네일 프레임 내 상이한 섬네일 이미지들의 픽셀 블록들 사이의 움직임 추정의 사용을 상당히 용이하게 해줄 수 있는 타일 양식로 그러한 멀티-섬네일 프레임 내에서 구성될 수 있다.
(2130)에서, 압축되지 않은 풀-해상도 프레임은 압축되어 압축된 풀-해상도 프레임을 형성한다. 앞에서 논의된 바와 같이, MPEG 버전 또는 유사 압축 방식이 이용되는 경우, 압축된 풀-해상도 프레임은 UDR 프레임, I-프레임, P-프레임 및 B-프레임 중 하나 이상을 포함할 수 있다.
(2140)에서, 압축되지 않은 멀티-섬네일 프레임은 압축되어 압축된 섬네일 프레임(T-프레임)을 생성하고, (2150)에서 이 프레임은 압축된 풀-해상도 프레임들 사이에 배치되어 압축된 풀-해상도 프레임 및 압축된 프레임 둘 다를 포함하는 압축된 비디오 데이터를 생성한다. 앞에서 논의된 바와 같이, 압축 방식이 MPEG 버전 또는 유사한 압축 방식인 경우, 압축된 풀-해상도 프레임들은 GOP 내에서 구성되며 또한 IDR 프레임이 첫 코딩 위치에 있는 각각의 GOP 내에서 코딩 순서대로 구성된다. 대조적으로, GOP는 연대순으로 구성될 수 있다. 또한, T-프레임들은 압축된 풀-해상도 프레임이 무슨 순서로 구성되든 상관없이 압축된 풀-해상도 프레임들 사이에 배치될 수 있다.
(2160)에서, 압축된 비디오 데이터와 연관된 메시지 데이터가 생성되며, 이 비디오 데이터는 최소한 T-프레임의 위치를 나타내는 메시지를 포함한다. 그러한 메시지는 T-프레임의 위치를 GOP 내 첫 또는 마지막 코딩 순서 위치로부터 표시할 수 있거나, T-프레임이 위치한 일련의 압축된 프레임들 사이의 간격을 명시함으로써 T-프레임의 위치를 표시할 수 있다.
(2170)에서, 압축된 비디오 데이터 및 메시지 데이터는 다른 컴퓨팅 장치(예를 들면, 시청 장치(600))에 제공된다. 앞에서 논의한 바와 같이, 이것은 압축된 비디오 데이터 및 메시지 데이터를 네트워크를 통해 및/또는 다른 컴퓨터에 물리적으로 전달되고 다른 컴퓨터에 의해 판독되는 제거가능한 머신-판독가능 저장 매체에 저장하여 전달함으로써 이루어질 수 있다.
도 11은 논리 흐름(2200)의 일 실시예를 도시한다. 논리 흐름(2200)은 본 출원에서 기술된 하나 이상의 실시예에 의해 실행된 동작 중 일부 또는 전부를 나타낼 수 있다. 더 상세히 말해서, 논리 흐름(2200)은 적어도 제어 루틴(440)을 실행할 때 프로세서 컴포넌트(350 또는 450)에 의해 수행된, 및/또는 컴퓨팅 장치(300) 또는 컨트롤러(400)의 다른 컴포넌트(들)에 의해 각기 수행된 동작을 도시할 수 있다.
(2210)에서, 컴퓨팅 장치의 프로세서 컴포넌트(예를 들면, 컴퓨팅 장치(300)의 프로세서 컴포넌트(350), 또는 컨트롤러(400)의 프로세서 컴포넌트(450))는 압축되지 않은 섬네일 이미지들의 셋을 압축되지 않은 멀티-섬네일 프레임으로 조합한다. 앞에서 논의한 바와 같이, 섬네일 이미지들은 동일한 멀티-섬네일 프레임 내에서 상이한 섬네일 이미지들의 픽셀 블록들 간의 움직임 추정의 사용을 상당히 용이하게 할 수 있는 타일 양식로 그러한 멀티-섬네일 프레임 내에서 구성될 수 있다. 그런 다음, (2220)에서, 그러한 움직임 추정은 멀티-섬네일 프레임들을 압축하는 것의 일부로서 단일 멀티-섬네일 프레임 내에서 수행되어 압축된 섬네일 프레임들(T-프레임들)을 생성한다.
(2230)에서, 압축된 풀-해상도 프레임들이 구성되는 GOP가 정의된다. 앞에서 논의된 바와 같이, 그렇게 압축된 풀-해상도 프레임들을 GOP로 구성하는 것은 IDR 프레임이 각각의 GOP 내 첫 코딩 순서 위치에 배치되게 하는 코딩 순서일 수 있다. 그 다음, (2240)에서, IDR 프레임, I-프레임, P-프레임 및 B-프레임이 생성되고, 이 때 (2240)에서 IDR 프레임은 각각의 GOP 내 첫 위치에 배치되도록 예정된다.
(2250)에서, IDR 프레임, I-프레임, P-프레임 및 B-프레임은 암호화되어 이들 압축된 풀-해상도 프레임을 무단 시청으로부터 보호한다. 그러나, 앞에서 논의된 바와 같이, 적어도 T-프레임들의 서브셋은 압축된 풀-해상도 프레임의 이미지의 프리뷰 및/또는 시각적 지표를 제공하도록 암호화되지 않은 상태로 남겨서 더 자유로이 사용할 수 있게 한다.
(2260)에서, IDR 프레임, I-프레임, P-프레임 및 B-프레임들이 GOP 내에 배치되고, 이 때 T-프레임들은 이렇게 압축된 풀-해상도 프레임들 사이에 배치된다. 앞에서 논의된 바와 같이, T-프레임들은 압축된 풀-해상도 프레임들이 각각의 GOP 내에서 구성될 수 있는 어떤 순서이든 상관 없이 압축된 풀-해상도 프레임들 사이에 배치될 수 있다.
(2270)에서, 압축된 비디오 데이터와 연관된 메시지 데이터가 생성되며, 이 메시지 데이터는 T-프레임들의 위치를 나타내고 또한 어느 압축된 프레임이 암호화되었는지를 표시하는 최소한의 메시지를 포함한다. 앞에서 논의된 바와 같이, 그러한 메시지는 복원을 수행하는데 유용한 어느 파라미터이든 각종 파라미터들의 표시를 제공할 수 있다.
(2280)에서, 압축된 비디오 데이터 및 메시지 데이터는 다른 컴퓨팅 장치(예를 들면, 시청 장치(600))에 제공된다. 앞에서 논의된 바와 같이, 이것은 압축된 비디오 데이터 및 메시지 데이터를 네트워크를 통하여 및/또는 다른 컴퓨터에 물리적으로 전달되고 그 다른 컴퓨터에 의해 판독되는 제거가능한 머신-판독가능 저장 매체에 저장하여 전달됨으로써 이루어질 수 있다.
도 12는 논리 흐름(2300)의 일 실시예를 도시한다. 논리 흐름(2300)은 본 출원에서 기술된 하나 이상의 실시예에 의해 실행된 동작 중 일부 또는 전부를 나타낼 수 있다. 더 상세히 말해서, 논리 흐름(2300)은 적어도 제어 루틴(640)을 실행할 때 프로세서 컴포넌트(650)에 의해 수행된, 및/또는 디스플레이 장치(600)의 다른 컴포넌트(들)에 의해 수행된 동작을 도시할 수 있다.
(2310)에서, 디스플레이 장치의 프로세서 컴포넌트(예를 들면, 디스플레이 장치(600)의 프로세서 컴포넌트(650))는 압축된 비디오 데이터 및 그와 연관된 메시지를 수신한다. 앞에서 논의된 바와 같이, 압축된 비디오 데이터 및 연관된 메시지는 네트워크를 통하여 및/또는 압축된 비디오 데이터 및 연관된 메시지가 저장된 제거가능한 머신-판독가능 저장 매체를 판독함으로써 수신될 수 있다.
(2320)에서, 압축된 풀-해상도 프레임 및 T-프레임 중 하나 또는 둘 다 선택적으로 디코드된다. 그렇게 하여, 압축된 풀-해상도 프레임 및 T-프레임의 위치 표시를 제공하는 메시지 데이터의 메시지들은 이와 같은 압축된 프레임들 중 선택된 어느 하나에서 복원하기 위해 사용된다. 앞에서 논의된 바와 같이, 이들 압축된 프레임들 중 복원되는 프레임은 어느 하나를 시각적으로 표시하라는 수신된 커맨드에 기초할 수 있다.
(2330)에서, 압축된 프레임들 중 선택된 프레임은 복원된 후 시각적으로 디스플레이에 표시된다. 특히, 복원된 풀-해상도 프레임 또는 (T-프레임으로부터 복원된) 복원된 섬네일 이미지가 시각적으로 표시된다.
도 13은 논리 흐름(2400)의 일 실시예를 도시한다. 논리 흐름(2400)은 본 출원에서 기술된 하나 이상의 실시예에 의해 실행된 동작 중 일부 또는 전부를 나타낼 수 있다. 더 상세히 말해서, 논리 흐름(2400)은 적어도 제어 루틴(640)을 실행할 때 프로세서 컴포넌트(650)에 의해 수행된, 및/또는 시청 장치(600)의 다른 컴포넌트(들)에 의해 각기 수행된 동작을 도시할 수 있다.
(2410)에서, 디스플레이 장치의 프로세서 컴포넌트(예를 들면, 디스플레이 장치(600)의 프로세서 컴포넌트(650)는 압축된 비디오 데이터 및 연관된 메시지를 수신한다. 앞에서 논의된 바와 같이, 압축된 비디오 데이터 및 연관된 메시지는 네트워크를 통하여 및/또는 압축된 비디오 데이터 및 메시지 데이터가 저장된 제거가능한 머신-판독가능 저장 매체를 판독함으로써 수신될 수 있다.
(2420)에서, 압축된 비디오 데이터의 압축된 풀-해상도 프레임을 시각적으로 표시하라는 커맨드가 수신되었는지에 관해 체크가 수행된다. 커맨드가 수신되었다면, (2430)에서 적어도 하나의 GOP의 풀-해상도 프레임들(예를 들면, IDR 프레임, I-프레임, P-프레임 및/또는 B-프레임)이 복호된다. 앞에서 논의된 바와 같이, 그러한 복호는 이들 압축된 풀-해상도 프레임들이 암호화된 것을 표시하는 메시지 데이터 내 메시지에 의해 시작될 수 있으며, 이들 프레임들의 적어도 하나의 GOP 내 위치를 나타내는 메시지 데이터의 하나 이상의 메시지들은 어느 프레임들이 압축된 풀-해상도 프레임인지를 판단하기 위해 사용될 수 있다. 이후 (2432)에서 지금 복호된 압축된 풀-해상도 프레임이 복원되고, (2434)에서 결과적인 복원된 풀-해상도 프레임이 시각적으로 표시된다.
그러나, 만일 (2420)에서 그러한 커맨드가 수신되지 않으면, (2440)에서 적어도 하나의 GOP의 T-프레임(들)이 복원된다. 앞에서 논의된 바와 같이, 적어도 하나의 GOP 내 T-프레임들의 위치를 나타내는 메시지 데이터의 하나 이상의 메시지들은 어느 프레임들이 T-프레임들인지를 판단하는데 사용될 수 있다. (2442)에서, 결과적인 복원된 섬네일 이미지들이 시각적으로 표시된다. 앞에서 논의된 바와 같이, 섬네일 이미지들의 시각적 표시는 그렇게 하라는 커맨드에 의해 시작될 수 있거나, 아니면 풀-해상도 프레임 및/또는 섬네일 이미지들의 마지막 프리젠테이션 이래로 선택된 기간의 경과에 의거하여, 및/또는 마지막 커맨드의 수신 이래로 선택된 기간의 경과에 의거하여 시작될 수 있다. 앞에서 역시 논의된 바와 같이, 섬네일 이미지들의 시각적 표시는 움직임 비디오의 적어도 일부분의 프리뷰의 부분으로서 및/또는 보기위해 시각적으로 표시될 특정 풀-해상도 프레임(들)을 선택하게 해주는 시각적 지표의 부분으로서 행해질 수 있다.
(2450)에서, 시각적으로 표시된 섬네일 이미지와 연관된 하나 이상의 풀-해상도 프레임을 보기 위한 그러한 선택을 나타내는 그러한 커맨드가 수신되었는지에 관해 체크된다. 수신되었다면, (2460)에서 다른 GOP의 배치되어 있는 적어도 선택된 하나 이상의 압축된 풀-해상도 프레임들(예를 들면, 하나 이상의 선택된 IDR 프레임, I-프레임, P-프레임 또는 B-프레임)이 복호된다. 그런 다음, (2462)에서 지금 복호된 압축된 풀-해상도 프레임들이 복원되며, (2464)에서 결과적인 복원된 풀-해상도 프레임들이 시각적으로 표시된다. 앞에서 논의된 바와 같이, 하나의 GOP에 저장된 압축된 풀-해상도 프레임들의 셋과 연관된 섬네일 이미지들을 포함하는 T-프레임들은 연대순에서 선행하는 GOP에 저장될 수 있다.
도 14는 앞에서 논의된 바와 같이 여러 실시예를 구현하는데 적절한 예시적인 처리 아키텍처(3000)의 실시예를 도시한다. 보다 상세히 말해서, 처리 아키텍처(3000)(또는 그의 변형)는 컴퓨팅 장치(100, 300, 또는 600)), 및/또는 컨트롤러(400) 중 하나 이상의 일부분으로서 구현될 수 있다. 처리 아키텍처(3000)의 컴포넌트는 마지막 두 숫자가 앞에서 컴퓨팅 장치(100, 300, 또는 600)) 및 컨트롤러(400)의 부분으로서 묘사되고 기술된 컴포넌트들 중 적어도 일부의 참조 번호의 마지막 두 숫자에 대응하는 참조 번호를 갖고 있다는 것을 주목하여야 한다. 이것은 각각의 컴포넌트들을 상관시켜주려고 수행된 것이다.
처리 아키텍처(3000)는, 제한을 두지 않고, 하나 이상의 프로세서, 멀티-코어 프로세서, 코-프로세서, 메모리 유닛, 칩셋, 컨트롤러, 주변장치, 인터페이스, 발진기, 타이밍 장치, 비디오 카드, 오디오 카드, 멀티미디오 입력/출력(I/O) 컴포넌트, 전력 공급 장치 등을 비롯하여, 주로 디지털 처리에 이용된 각종 구성요소를 포함한다. 본 출원에서 사용된 바와 같은, "시스템" 및 "컴포넌트"는 디지털 처리가 실행되는 컴퓨팅 장치의 엔티티를 지칭하려는 것으로, 그 엔티티는 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어이며, 그 예는 이렇게 도시된 예시적인 처리 아키텍처에 의해 제공된다. 예를 들면, 컴포넌트는, 이것으로 제한되지 않지만, 프로세서 컴포넌트에서 구동중인 프로세스, 프로세서 컴포넌트 자체, 광학 및/또는 자기 저장 매체를 이용할 수 있는 저장 장치(예를 들면, 하드 디스크 드라이브, 다중 저장 드라이브 어레이(multiple storage drives in an array) 등), 소프트웨어 객체, 실행가능 커맨드 시퀀스, 실행 스레드, 프로그램, 및/또는 전체 컴퓨팅 장치(전체 컴퓨터)일 수 있다. 예로서, 서버에서 구동중인 애플리케이션 및 그 서버는 둘 다 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세스 및/또는 실행 스레드 내에 상주할 수 있으며, 하나의 컴포넌트는 하나의 컴퓨팅 장치에서 국한될 수 있으며/있거나 둘 이상의 컴퓨팅 장치들 사이에서 분산될 수 있다. 또한, 컴포넌트들은 작업 조정을 위해 각종 형태의 통신 매체에 의해 서로 통신으로 결합될 수 있다. 이러한 조정은 정보의 단방향 또는 양방향 교환을 포함할 수 있다. 예를 들어, 컴포넌트들은 정보를 통신 매체를 통해 통신되는 신호의 형태로 통신할 수 있다. 정보는 하나 이상의 신호 회선에 할당된 신호들로서 구현될 수 있다. (커맨드, 상태, 어드레스 또는 데이터 메시지를 포함하는) 메시지는 그러한 신호들 중 하나일 수 있거나 복수의 그러한 신호들일 수 있으며, 어느 것이든 각종 연결부들 및/또는 인터페이스들을 통해 직렬로 또는 실질적으로 병렬로 전송될 수 있다.
도시된 바와 같이, 처리 아키텍처(3000)를 구현함에 있어서, 컴퓨팅 장치는 적어도 프로세서 컴포넌트(950), 스토리지(960), 다른 장치와의 인터페이스(990), 및 커플링(955)을 포함한다. 설명되는 바와 같이, 사용 목적 및/또는 사용 조건을 비롯하여, 처리 아키텍처(3000)를 구현하는 컴퓨팅 장치의 각종 양태에 따라서, 그러한 컴퓨팅 장치는 부가적인 컴포넌트, 이를 테면 제한을 두지 않고, 디스플레이 인터페이스(985)를 더 포함할 수 있다.
커플링(955)은 적어도 프로세서 컴포넌트(950)를 스토리지(960)에 통신으로 결합하는 하나 이상의 버스, 포인트-투-포인트 인터커넥트, 송수신기, 버퍼, 크로스포인트 스위치, 및/또는 다른 전도체 및/또는 로직을 포함한다. 커플링(955)은 또한 프로세서 컴포넌트(950)를 인터페이스(990), 오디오 서브시스템(970), 및 디스플레이 인터페이스(985) (이들 중 어느 것 및/또는 다른 컴포넌트넌트들이 또한 존재함에 따라) 중 하나 이상에 결합할 수 있다. 이렇게 프로세서 컴포넌트(950)가 커플링(955)에 의해 결합되어 짐에 따라, 프로세서 컴포넌트(950)는 위에서 상세히 기술한 작업들 중 여러 작업을 수행할 수 있고, 그래서 어느 것이든 전술한 컴퓨팅 장치들 중 하나의 장치(들)가 처리 아키텍처(3000)를 구현한다. 커플링(955)은 신호들이 광학적으로 및/또는 전기적으로 전달되는 각종 기술들 또는 기술들의 조합의 어느 것을 이용하여서도 구현될 수 있다. 또한, 커플링(955)의 적어도 부분은, 제한을 두지 않고, 가속 그래픽스 포트(Accelerated Graphics Port (AGP)), 카드버스(CardBus), 확장된 산업 표준 아키텍처(Extended Industry Standard Architecture (E-ISA)), 마이크로 채널 아키텍처(Micro Channel Architecture (MCA)), Nu 버스(NuBus), 주변 성분 인터커넥트(확장)(Peripheral Component Interconnect (Extended) (PCI-X)), PCI 익스프레스(PCI-E), 퍼스널 컴퓨터 메모리 카드 국제 연합(Personal Computer Memory Card International Association (PCMCIA)) 버스, HyperTransport™, 및 퀵패스(QuickPath) 등을 비롯하여, 각종 산업 표준의 모든 표준을 준용하는 타이밍 및/또는 프로토콜을 이용할 수 있다.
앞에서 논의된 바와 같이, (프로세서 컴포넌트(350, 450 및 650)에 대응하는) 프로세서 컴포넌트(950)는 각종 기술들 중 어느 기술이라도 이용하고 다수의 방식들 중 어느 방식이더라도 물리적으로 결합된 하나 이상의 코어들로 구현된, 각종 상업적으로 구입가능한 프로세서들 중 어느 프로세서라도 포함할 수 있다.
앞에서 논의된 바와 같이, (스토리지(360, 460 및 660)에 대응하는) 스토리지(960)는 각종 기술들 중 어느 기술 또는 기술들의 조합에 기초하여 하나 이상의 별개 저장 장치들로 구성될 수 있다. 상세히 말해서, 도시된 바와 같이, 스토리지(960)는 휘발성 스토리지(961)(예를 들면, RAM 기술의 하나 이상의 형태에 기초한 고체 상태 스토리지), 비휘발성 스토리지(962)(예를 들면, 콘텐트를 보존하는데 일정한 전력 공급을 필요로 하지 않는 고체 상태, 강자성 또는 기타 스토리지), 및 제거가능 매체 스토리지(963)(예를 들면, 정보가 컴퓨팅 장치들 사이에서 전달될 수 있는 제거가능 디스크 또는 고체 상태 메모리 카드 스토리지) 중 하나 이상을 포함할 수 있다. 스토리지가 고유 형태의 스토리지를 포함할 수 있도록 스토리지(960)를 묘사하는 것은 스토리지 장치의 한가지 방식이 (단 꾸준히 전력을 필요로 하는 "휘발성" 기술을 사용할 수 있는) 프로세서 컴포넌트(950)에 의한 데이터의 더욱 빠른 조작을 가능하게 해주는 비교적 빠른 판독과 기록 기능을 제공하지만 다른 형태는 비교적 높은 비휘발성 스토리지 밀도를 제공하는(아마도 비교적 느린 판독 및 기록 기능을 제공할 것 같은) 컴퓨팅 장치들 내의 저장 장치의 한가지 방식 이상으로 많은 평범한 사용을 인정한다는 것이다.
종종 상이한 기술을 이용하는 상이한 스토리지 장치들의 상이한 특성이 주어지면, 그러한 상이한 저장 장치들을 상이한 인터페이스를 통해 이들과 상이한 저장 장치들에 결합된 상이한 스토리지 컨트롤러들을 통해 컴퓨팅 장치의 다른 부분에 결합되게 하는 것 또한 흔한 것이다. 예로서, 휘발성 스토리지(961)가 존재하고 RAM 기술에 기초한 경우라면, 휘발성 스토리지(961)는 아마도 로우 및 컬럼 어드레싱을 이용하는 휘발성 스토리지(961)에게 적절한 인터페이스를 제공하는 스토리지 컨트롤러(965a)를 통해 커플링(955)에 통신으로 결합될 수 있으며, 이 경우 스토리지 컨트롤러(965a)는 휘발성 스토리지(961) 내에 저장된 정보를 보존하는데 도움되는 로우 리플레시 및/또는 다른 유지 작업을 수행할 수 있다. 다른 예로서, 스토리지(960)가 존재하고 하나 이상의 강자성 및/또는 고체 상태 디스크 드라이브를 포함하는 경우라면, 비휘발성 스토리지(962)는 아마도 정보 블록들 및/또는 실린더 및 섹터 블록들의 어드레싱을 이용하는 비휘발성 스토리지(962)에게 적절한 인터페이스를 제공하는 스토리지 컨트롤러(965b)를 통해 커플링(955)에 통신으로 결합될 수 있다. 또다른 예로서, 제거가능 매체 스토리지(963)이 존재하고 하나 이상 조각(pieces)의 머신-판독가능 저장 매체(969)를 이용하는 하나 이상의 광학 및/또는 고체 상태 디스크 드라이브를 포함하는 경우라면, 제거가능 매체 스토리지(963)는 아마 정보 블록의 어드레싱을 이용하는 제거가능 매체 스토리지(963)에게 적절한 인터페이스를 제공하는 스토리지 컨트롤러(965c)를 통해 커플링(955)에 통신으로 결합될 수 있으며, 이 경우 스토리지 컨트롤러(965c)는 판독, 소거 및 기록 동작을 머신-판독가능 저장 매체(969)의 수명을 연장시키는 특유한 방식으로 조정할 수 있다.
휘발성 스토리지(961) 또는 비휘발성 스토리지(962) 중 어느 하나는, 각각이 기초로 하는 기술들에 따라서, 프로세서 컴포넌트(950)에 의해 실행가능한 커맨드 시퀀스를 포함하는 루틴이 저장될 수 있는 머신-판독가능 저장 매체의 형태로 된 제조 물품을 포함할 수 있다. 예로서, 비휘발성 스토리지(962)가 강자성-기반 디스크 드라이브(예를 들면, 소위 "하드 드라이브")를 포함하는 경우라면, 그러한 각각의 디스크 드라이브는 전형적으로 자기 감응 입자들의 코팅이 증착되고 각종 패턴으로 자기 배향되어 커맨드 시퀀스와 같은 정보를 플로피 디스켓과 같은 저장 매체와 유사한 방식으로 저장하는 하나 이상의 회전 플래터를 이용한다. 다른 예로서, 비휘발성 스토리지(962)는 고체-상태 저장 장치들의 뱅크로 구성되어 커맨드 시퀀스와 같은 정보를 콤팩트 플래시 카드와 유사한 방식으로 저장할 수 있다. 다시 한번, 컴퓨팅 장치 내에서 상이한 시간에 실행 가능한 루틴 및/또는 데이터를 저장하는 상이한 형태의 저장 장치를 이용하는 것은 평범한 것이다. 그래서, 프로세서 컴포넌트(950)에 의해 실행될 커맨드 시퀀스를 포함하는 루틴은 처음에는 머신-판독가능 저장 매체(969)에 저장될 수 있으며, 제거가능 매체 스토리지(963)는 나중에 머신-판독가능 저장 매체(969)의 지속적인 보전을 필요로 하지 않는 장기간 저장을 위한 비휘발성 스토리지(962) 및/또는 그 루틴이 실행될 때 프로세서 컴포넌트(950)에 의한 더 빠른 액세스를 가능하게 해주는 휘발성 스토리지(961)에 그 루틴을 카피하는데 이용될 수 있다.
앞에서 논의된 바와 같이, (인터페이스(190, 390 또는 690)에 대응하는) 인터페이스(990)는 컴퓨팅 장치를 하나 이상의 다른 장치에 통신으로 결합하는데 이용될 수 있는 각종 통신 기술들 중 어느 기술에도 대응하는 각종 시그널링 기술들 중 어느 기술이라도 이용할 수 있다. 다시 한번, 각종 형태의 유선 또는 무선 시그널링 중 하나 또는 둘 다는 프로세서 컴포넌트(950)를 네트워크(예를 들면, 네트워크(999)) 또는 네트워크들의 상호접속 집합을 통해 입력/출력 장치(예를 들면, 도시된 예의 키보드(920) 또는 프린터(925)) 및/또는 다른 컴퓨팅 장치들과 상호작용할 수 있게 하는데 이용될 수 있다. 종종 어느 하나의 컴퓨팅 장치에 의해 지원받아야 되는 복수 방식의 시그널링 및/또는 프로토콜의 종종 크게 차이나는 특성을 감안하여, 인터페이스(990)는 복수의 상이한 인터페이스 컨트롤러(995a, 995b 및 995c)를 포함하는 것으로서 묘사된다. 인터페이스 컨트롤러(995a)는 도시된 키보드(920)와 같은 사용자 입력 장치로부터 직렬 전송된 메시지를 수신하는 각종 형태의 유선 디지털 직렬 인터페이스 또는 라디오 주파수 무선 인터페이스 중 어느 것이라도 이용할 수 있다. 인터페이스 컨트롤러(995b)는 도시된 네트워크(999)(아마 하나 이상의 링크, 소형 네트워크로 구성된 네트워크, 또는 아마 인터넷)를 통해 다른 컴퓨팅 장치들을 액세스하는 각종 케이블류-기반 또는 무선 시그널링, 타이밍 및/또는 프로토콜 중 어느 것이라도 이용할 수 있다. 인터페이스(995c)는 직렬 또는 병렬 신호 전송을 사용하여 데이터를 도시된 프린터(925)에 전달할 수 있게 해주는 각종의 전기 전도성 케이블류 중 어느 것이라도 이용할 수 있다. 인터페이스(990)의 하나 이상의 인터페이스 컨트롤러들을 통해 통신으로 결합될 수 있는 장치들의 다른 예는, 제한을 두지 않고, 마이크로폰, 원격 컨트롤, 스타일러스 펜, 카드 판독기, 지문 판독기, 가상 현실 상호작용 장갑, 그래픽 입력 태블릿, 조이스틱, 기타 키보드, 레티나 스캐너, 터치 스크린의 터치 입력 컴포넌트, 트랙볼, 각종 센서, 사람의 움직임을 모니터하여 그 사람에 의해 신호된 커맨드 및/또는 데이터를 제스처 및/또는 얼굴 표정을 통해 받아들이는 카메라 또는 카메라 어레이, 레이저 프린터, 잉크젯 프린터, 기계적 로봇, 밀링 머신 등을 포함한다.
컴퓨팅 장치가 디스플레이(예를 들면, 도시된 예의 디스플레이(980))에 통신으로 결합된(또는, 아마 실제로 포함하는) 경우, 처리 아키텍처(3000)를 구현하는 그러한 컴퓨팅 장치는 또한 디스플레이 인터페이스(985)를 포함할 수 있다. 비록 더 일반화된 형태의 인터페이스가 디스플레이에 통신으로 결합하는데 이용될 수 있을지라도, 다양한 형태의 콘텐트를 디스플레이에 시각적으로 디스플레이하는데 종종 필요한 다소 특화된 추가적인 처리뿐만 아니라, 사용된 케이블류-기반 인터페이스의 다소 특화된 특성은 종종 독특한 디스플레이 인터페이스를 가치있게 제공하게 해준다. 디스플레이 인터페이스(985)에 의해 디스플레이(980)을 통신 결합하는데 이용될 수 있는 유선 및/또는 무선 시그널링 기술은, 제한을 두지 않고, 각종의 아날로그 비디오 인터페이스, 디지털 비디오 인터페이스(Digital Video Interface (DVI)), 디스플레이포트(DisplayPort) 등 중 모든 것을 비롯하여, 각종 산업 표준 중 모든 표준을 준용하는 시그널링 및/또는 프로토콜을 활용할 수 있다.
도 15는 컨트롤러(400)의 실시예를 도시한다. 다양한 실시예에서, 시스템(4000)은 본 출원에서 기술된 하나 이상의 실시예와 함께 사용하기에 적절한 시스템 또는 아키텍처, 이를 테면, 그래픽스 처리 시스템(1000), 소스 장치(100, 300 또는 600) 중 하나 이상, 및/또는 논리 흐름(2100 또는 2200) 중 하나 또는 둘 다를 나타낼 수 있다. 실시예들은 이러한 양상으로 제한되지 않는다.
도시된 바와 같이, 시스템(4000)은 복수의 구성요소를 포함할 수 있다. 하나 이상의 구성요소는 주어진 일련의 디자인 또는 성능 제약에 대해 원하는 대로, 하나 이상의 회로, 컴포넌트, 레지스터, 프로세서 소프트웨어 서브루틴, 모듈, 또는 이들의 모든 조합을 이용하여 구현될 수 있다. 비록 제한된 개수의 구성요소가 예로서 소정의 위상학적 구성으로 도시될지라도, 어느 적절한 위상학적 구성에서든 더 많거나 적은 구성요소가 소정의 구현을 위해 희망하는 대로 시스템(4000) 내에서 사용될 수 있다는 것이 인식될 수 있다. 실시예들은 이러한 상황으로 제한되지 않는다.
실시예에서, 비록 시스템(4000)이 이러한 상황으로 제한되지 않지만 시스템(4000)은 미디어 시스템일 수 있다. 예를 들면, 시스템(4000)은 퍼스널 컴퓨터(PC), 랩톱 컴퓨터, 울트라-랩톱 컴퓨터, 태블릿, 터치 패드, 휴대용 컴퓨터, 핸드헬드 컴퓨터, 팜탑 컴퓨터, 개인 휴대 정보 단말(PDA), 셀룰러 텔레폰, 겸용 셀룰러 텔레폰/PDA, 텔레비전, 스마트 기기(예를 들면, 스마트 폰, 스마트 태블릿 또는 스마트 텔레비전), 모바일 인터넷 장치(MID), 메시징 장치, 및 데이터 통신 장치 등에 포함될 수 있다.
실시예에서, 시스템(4000)은 디스플레이(4980)에 결합된 플랫폼(4900a)을 포함한다. 플랫폼(4900a)은 콘텐트 서비스 장치(들)(4900c) 또는 콘텐트 전달 장치(들)(4900d) 또는 다른 유사 콘텐트 소스들과 같은 콘텐트 장치로부터 콘텐트를 수신할 수 있다. 하나 이상의 탐색 기능(navigation features)을 포함하는 네비게이션 컨트롤러(4920)는, 예를 들면, 플랫폼(4900a) 및/또는 디스플레이(4980)과 상호작용하는데 사용될 수 있다. 이들 컴포넌트들은 각기 아래에서 더 상세하게 기술된다.
실시예에서, 플랫폼(4900a)은 프로세서 컴포넌트(4950), 칩셋(4955), 메모리 유닛(4969), 송수신기(4995), 스토리지(4962), 어플리케이션(4940), 및/또는 그래픽스 서브시스템(4985)의 모든 조합을 포함할 수 있다. 칩셋(4955)은 프로세서 컴포넌트(4950), 메모리 유닛(4969), 송수신기(4995), 스토리지(4962), 어플리케이션(4940), 및/또는 그래픽스 서브시스템(4985) 사이에서 상호 통신을 제공할 수 있다. 예를 들면, 칩셋(4955)은 스토리지(4962)와의 상호 통신을 제공할 수 있는 스토리지 어댑터(도시되지 않음)를 포함할 수 있다.
프로세서 컴포넌트(4950)는 모든 프로세서 또는 논리 장치를 이용하여 구현될 수 있으며 프로세서 컴포넌트들(150, 350 또는 650) 중 하나 이상 및/또는 도 14의 프로세서 컴포넌트(950)와 동일 또는 유사할 수 있다.
메모리 유닛(4969)은 데이터를 저장할 수 있는 모든 머신-판독가능 또는 컴퓨터-판독가능 매체를 이용하여 구현될 수 있으며, 도 14의 저장 매체(969)와 동일 또는 유사할 수 있다.
송수신기(4995)는 다양하고 적합한 무선 통신 기술을 이용하여 신호를 전송하고 수신할 수 있는 하나 이상의 라디오를 포함할 수 있으며, 도 14의 송수신기(995b)와 동일 또는 유사할 수 있다.
디스플레이(4980)는 모든 텔레비전형 모니터 또는 디스플레이를 포함할 수 있으며, 디스플레이(380 및 680) 중 하나 이상, 및/또는 도 14의 디스플레이(980)와 동일 또는 유사할 수 있다.
스토리지(4962)는 비휘발성 저장 장치로서 구현될 수 있으며, 도 14의 비휘발성 스토리지(962)와 동일 또는 유사할 수 있다.
그래픽스 서브시스템(4985)은 디스플레이용 스틸 또는 비디오와 같은 이미지의 처리를 수행할 수 있다. 그래픽스 서브시스템(4985)은, 예를 들면, 그래픽스 처리 유닛(GPU) 또는 시각 처리 유닛(visual processing unit (VPU))일 수 있다. 아날로그 또는 디지털 인터페이스는 그래픽스 서브시스템(4985) 및 디스플레이(4980)를 통신으로 결합하기 위해 사용될 수 있다. 예를 들면, 인터페이스는 고선명 멀티미디어 인터페이스(High-Definition Multimedia Interface), 디스플레이포트(DisplayPort), 무선 HDMI, 및/또는 무선 HD 준용 기술의 모든 기술일 수 있다. 그래픽스 서브시스템(4985)은 프로세서 컴포넌트(4950) 또는 칩셋(4955) 내에 통합될 수 있다. 그래픽스 서브시스템(4985)은 칩셋(4955)에 통신으로 결합된 스탠드-얼론 카드일 수 있다.
본 출원에 기술된 그래픽스 및/또는 비디오 처리 기술은 다양한 하드웨어 아키텍처에서 구현될 수 있다. 예를 들면, 그래픽스 및/또는 비디오 기능은 칩셋 내에 통합될 수 있다. 이와 달리, 이산적인 그래픽스 및/또는 비디오 프로세서가 사용될 수 있다. 또 다른 실시예로서, 그래픽스 및/또는 비디오 기능은, 멀티-코어 프로세서를 비롯한 범용 프로세서에 의해 구현될 수 있다. 또 다른 실시예에서, 소비자 전자 장치에서 그 기능들이 구현될 수 있다.
실시예에서, 콘텐트 서비스 장치(들)(4900b)는 어느 국내의, 국외의 및/또는 독립적 서비스에 의해 호스트될 수 있으며 그래서 예를 들면, 인터넷을 통하여 플랫폼(4900a)에 액세스가능할 수 있다. 콘텐트 서비스 장치(들)(4900b)는 플랫폼(4900a) 및/또는 디스플레이(4980)에 결합될 수 있다. 플랫폼(4900a) 및/또는 콘텐트 서비스 장치(들)(4900b)는 네트워크(4999)에 결합되어 미디어 정보를 네트워크(4999)로 및 그로부터 통신(예를 들면, 송신 및/또는 수신)할 수 있다. 콘텐트 전달 장치(들)(4900c) 또한 플랫폼(4900a) 및 디스플레이(4980)에 결합될 수 있다.
실시예에서, 콘텐트 서비스 장치(들)(4900b)는 디지털 정보 및/또는 콘텐트를 전달할 수 있는 케이블 텔레비전 박스, 퍼스널 컴퓨터, 네트워크, 텔레폰, 인터넷 작동 장치 또는 가전기기, 및 콘텐트 프로바이더와 플랫폼(4900a) 및/또는 디스플레이(4980) 사이에서 네트워크(4999)를 통해 또는 직접적으로 콘텐트를 단방향 또는 양방향으로 통신할 수 있는 모든 다른 유사 장치를 포함할 수 있다. 콘텐트는 네트워크(4999)를 통하여 단방향 및/또는 양방향으로 시스템(4000) 내 컴포넌트들 중 어느 컴포넌트 및 컨트 프로바이더로 및 그로부터 통신될 수 있다. 콘텐트의 예는, 예를 들면, 비디오, 음악, 의학 및 게임 정보 등을 포함하여 모든 미디어 정보를 포함할 수 있다.
콘텐트 서비스 장치(들)(4900b)는 미디어 정보, 디지털 정보, 및/또는 기타 콘텐트를 포함하는 케이블 텔레비전 프로그래밍과 같은 콘텐트를 수신한다. 콘텐트 프로바이더의 예는 모든 케이블 또는 위성 텔레비전 또는 라디오 또는 인터넷 콘텐트 프로바이더를 포함할 수 있다. 제공된 예는 실시예를 제한하려는 의미는 아니다.
실시예에서, 플랫폼(4900a)은 하나 이상의 탐색 기능을 갖는 네비게이션 컨트롤러(4920)로부터 제어 신호를 수신할 수 있다. 네비게이션 컨트롤러(4920)의 탐색 기능은, 예를 들면, 사용자 인터페이스(4880)와 상호작용하기 위해 사용될 수 있다. 실시예에서, 네비게이션 컨트롤러(4920)는 사용자에게 공간(예를 들면, 연속적이면서 다차원적인) 데이터를 컴퓨터에 입력하게 해주는 컴퓨터 하드웨어 컴포넌트(특히 휴먼 인터페이스 장치)일 수 있는 포인팅 장치일 수 있다. 그래픽 사용자 인터페이스(GUI)와 같은 많은 시스템과, 텔레비전 및 모니터는 사용자가 물리적인 제스처를 이용하여 컴퓨터 또는 텔레비전을 제어하고 데이터를 제공하게 해준다.
네비게이션 컨트롤러(4920)의 탐색 기능의 이동은 포인터, 커서, 포커스 링(focus ring), 또는 디스플레이에 디스플레이된 다른 시각적 표시자의 움직임에 의해 디스플레이(예를 들면, 디스플레이(4980))에 출력될 수 있다. 예를 들면, 소프트웨어 애플리케이션(4940)의 제어 하에, 네비게이션 컨트롤러(4920)에 위치한 탐색 기능이 사용자 인터페이스(4880)에 디스플레이된 가상의 탐색 기능에 맵핑될 수 있다. 실시예에서, 네비게이션 컨트롤러(4920)는 별개의 컴포넌트가 아니고 플랫폼(4900a) 및/또는 디스플레이(4980) 내에 통합될 수 있다. 그러나, 실시예는 본 출원에 도시되거나 기술된 구성요소 또는 상황으로 제한되지 않는다.
실시예에서, 드라이버(도시되지 않음)는, 예를 들면, 인에이블되었을 때, 초기의 부트업 후 사용자가 버튼을 터치하여 텔레비전과 같은 플랫폼(4900a)을 즉시 턴온 및 턴오프할 수 있게 해주는 기술을 포함할 수 있다. 프로그램 로직은 플랫폼(4900a)이 턴 "오프"되었을 때 플랫폼(4900a)이 콘텐트를 미디어 어댑터 또는 다른 콘텐트 서비스 장치(들)(4900b) 또는 콘텐트 전달 장치(들)(4900c)로 스트림하게 해줄 수 있다. 또한 칩셋(4955)은, 예를 들면, 5.1 서라운드 사운드 오디오 및/또는 고선명 7.1 서라운드 사운드를 위한 하드웨어 및/또는 소프트웨어 지원을 포함할 수 있다. 드라이버는 통합 그래픽스 플랫폼을 위한 그래픽스 드라이버를 포함할 수 있다. 실시예에서, 그래픽스 드라이버는 주변 소자 상호연결(PCI) 고속 그래픽스 카드를 포함할 수 있다.
다양한 실시예에서, 시스템(4000)내에 도시된 컴포넌트들 중 임의의 하나 이상은 통합될 수 있다. 예를 들면, 플랫폼(4900a) 및 콘텐트 서비스 장치(들)(4900b)가 통합될 수 있고, 아니면 플랫폼(4900a) 및 콘텐트 전달 장치(들)(4900c)가 통합될 수 있고, 아니면 예를 들어 플랫폼(4900a), 콘텐트 서비스 장치(들)(4900b) 및 콘텐트 전달 장치(들)(4900c)가 통합될 수 있다. 여러 실시예에서, 플랫폼(4900a) 및 디스플레이(4890)이 통합된 유닛일 수 있다. 예를 들면, 디스플레이(4980) 및 콘텐트 서비스 장치(들)(4900b)가 통합될 수 있고, 아니면, 디스플레이(4980) 및 콘텐트 전달 장치(들)(4900c)가 통합될 수 있다. 이러한 예는 실시예를 제한하려는 의미는 아니다.
다양한 실시예에서, 시스템(4000)은 무선 시스템, 유선 시스템, 또는 이들의 조합으로서 구현될 수 있다. 무선 시스템으로 구현될 때, 시스템(4000)은 하나 이상의 안테나, 송신기, 수신기, 송수신기, 증폭기, 필터, 및 제어 로직 등과 같은 무선 공유 매체를 통해 통신하기에 적절한 컴포넌트 및 인터페이스를 포함할 수 있다. 무선 공유 매체의 예는 RF 스펙트럼 등과 같은 무선 스펙트럼의 일부분을 포함할 수 있다. 유선 시스템으로 구현될 때, 시스템(4000)은 I/O 어댑터, I/O 어댑터를 대응하는 유선 통신 매체에 연결하는 물리적 커넥터, 네트워크 인터페이스 카드(NIC), 디스크 컨트롤러, 비디오 컨트롤러, 및 오디오 컨트롤러 등과 같은 유선 통신 매체를 통해 통신하기에 적절한 컴포넌트 및 인터페이스를 포함할 수 있다. 유선 통신 매체의 예는 와이어, 케이블, 금속 리드, 인쇄 회로 기판(PCB), 백플랜(backplane), 스위치 패브릭(switch fabric), 반도체 재료, 트위스트-페어 와이어, 동축 케이블, 및 광섬유 등을 포함할 수 있다.
플랫폼(4900a)은 하나 이상의 논리 또는 물리적 채널을 설정하여 정보를 통신할 수 있다. 정보는 매체 정보 및 제어 정보를 포함할 수 있다. 매체 정보는 사용자 용도로 의도된 콘텐트를 나타내는 모든 데이터를 지칭할 수 있다. 콘텐트의 예는, 예를 들면, 음성 대화에서 생긴 데이터, 비디오 회의, 스트리밍 비디오, 전자 메일("이메일") 메시지, 음성 메일 메시지, 영숫자 부호, 그래픽스, 이미지, 비디오, 및 텍스트 등을 포함할 수 있다. 음성 대화에서 생긴 데이터는, 예를 들면, 음성 정보, 묵음 주기, 배경 잡음, 편안한 잡음(comfort noise), 및 톤 등 일 수 있다. 제어 정보는 자동화된 시스템 용도로 의도된 커맨드, 인스트럭션 또는 제어 워드를 나타내는 모든 데이터를 지칭할 수 있다. 예를 들면, 제어 정보는 매체 정보를 시스템을 통해 라우트하거나, 아니면 매체 정보를 기 설정된 방식으로 처리하도록 노드에 지시하는데 사용될 수 있다. 그러나, 실시예는 도 15에 도시되거나 기술된 구성요소 또는 상황으로 제한되지 않는다.
전술한 바와 같이, 시스템(4000)은 다양한 물리적 스타일 또는 폼 팩터로 구현될 수 있다. 도 16은 시스템이 구현될 수 있는 소형 폼 팩터 장치(5000)의 실시예를 도시한다. 실시예에서, 예를 들면, 장치(5000)는 무선 기능을 갖는 모바일 컴퓨팅 장치로서 구현될 수 있다. 모바일 컴퓨팅 장치는, 예를 들면, 프로세싱 시스템 및 모바일 전력원 또는 전력 공급장치, 이를 테면, 하나 이상의 배터리를 갖는 모든 장치를 지칭할 수 있다.
전술한 바와 같이, 모바일 컴퓨팅 장치의 예는 퍼스널 컴퓨터(PC), 랩톱 컴퓨터, 울트라-랩톱 컴퓨터, 태블릿, 터치 패드, 휴대용 컴퓨터, 핸드헬드 컴퓨터, 팜탑 컴퓨터, 개인 휴대 정보 단말(PDA), 셀룰러 텔레폰, 겸용 셀룰러 텔레폰/PDA, 텔레비전, 스마트 기기(예를 들면, 스마트 폰, 스마트 태블릿 또는 스마트 텔레비전), 모바일 인터넷 장치(MID), 메시징 장치, 및 데이터 통신 장치 등을 포함할 수 있다.
모바일 컴퓨팅 장치의 예는 또한 손목 컴퓨터, 손가락 컴퓨터, 링 컴퓨터, 안경 컴퓨터, 벨트-클립 컴퓨터, 암-밴드 컴퓨터, 신발 컴퓨터, 의류 컴퓨터, 및 기타 착용가능한 컴퓨터와 같이 사람이 착용하도록 구성된 컴퓨터를 포함할 수 있다. 실시예에서, 예를 들면, 모바일 컴퓨팅 장치는 컴퓨터 애플리케이션 뿐만 아니라 음성 통신 및/또는 데이터 통신을 실행할 수 있는 스마트 폰으로서 구현될 수 있다. 비록 일부 실시예가 예로서 스마트 폰으로서 구현된 모바일 컴퓨팅 장치를 기술하였을지라도, 다른 실시예는 마찬가지로 다른 무선 모바일 컴퓨팅 장치를 이용하여 구현될 수 있다는 것이 인식될 것이다. 실시예들은 이러한 상황으로 제한되지 않는다.
도시된 바와 같이, 장치(5000)는 디스플레이(5980), 네비게이션 컨트롤러(5920a), 사용자 인터페이스(5880), 하우징(5905), I/O 장치(5920b), 및 안테나(5998)를 포함할 수 있다. 디스플레이(5980)는 모바일 컴퓨팅 장치용으로 적절한 정보를 디스플레이하기 에 적절한 모든 디스플레이 유닛을 포함할 수 있으며, 도 15에 도시된 디스플레이(4980)과 동일 또는 유사할 수 있다. 네비게이션 컨트롤러(5920a)는 사용자 인터페이스(5880)와 상호작용하는데 사용될 수 있는 하나 이상의 탐색 기능을 포함할 수 있으며, 도 15의 네비게이션 컨트롤러(4920)과 동일 또는 유사할 수 있다. I/O 장치(5920b)는 정보를 모바일 컴퓨팅 장치에 입력하기에 적절한 모든 I/O 장치를 포함할 수 있다. I/O 장치(5920b)의 예는 영숫자 키보드, 숫자 키보드, 터치 패드, 입력 키, 버튼, 스위치, 로커 스위치(rocker switches), 마이크로폰, 스피커, 음성 인식 장치 및 소프트웨어 등을 포함할 수 있다. 정보는 또한 마이크로폰을 통해 장치(5000)에 입력될 수 있다. 그러한 정보는 음성 인식 장치에 의해 디지털화될 수 있다. 실시예들은 이러한 상황으로 제한되지 않는다.
더 일반적으로, 본 출원에서 기술되고 묘사된 컴퓨팅 장치의 다양한 구성요소는 각종 하드웨어 요소, 소프트웨어 요소, 또는 이들의 조합을 포함할 수 있다. 하드웨어 요소의 예는 장치, 논리 장치, 컴포넌트, 프로세서, 마이크로프로세서, 회로, 프로세서 컴포넌트, 회로 요소(예를 들면, 트랜지스터, 저항, 캐패시터, 및 인덕터 등), 집적 회로, 주문형 집적 회로(ASIC), 프로그래머블 로직 장치(PLD), 디지털 신호 프로세서(DSP), 필드 프로그래머블 게이트 어레이(FPGA), 메모리 유닛, 논리 게이트, 레지스터, 반도체 소자, 칩, 마이크로칩, 및 칩 셋 등을 포함할 수 있다. 소프트웨어 요소의 예는 소프트웨어 컴포넌트, 프로그램, 애플리케이션, 컴퓨터 프로그램, 애플리케이션 프로그램, 시스템 프로그램, 소프트웨어 개발 프로그램, 머신 프로그램, 오퍼레이팅 시스템 소프트웨어, 미들웨어, 펌웨어, 소프트웨어 모듈, 루틴, 서브루틴, 함수, 방법, 절차, 소프트웨어 인터페이스, 애플리케이션 프로그램 인터페이스(API), 커맨드 셋, 컴퓨팅 코드, 컴퓨터 코드, 코드 세그먼트, 컴퓨터 코드 세그먼트, 워드, 값, 심볼, 또는 이들의 모든 조합을 포함할 수 있다. 그러나, 실시예가 하드웨어 요소 및/또는 소프트웨어 요소를 이용하여 구현되는지 여부를 판단하는 것은 주어진 구현을 위해 희망하는 대로, 원하는 계산 속도, 전력 레벨, 열 공차, 처리 주기 비용(processing cycle budget), 입력 데이터 속도, 출력 데이터 속도, 메모리 자원, 데이터 버스 속도 및 기타 디자인 또는 성능 제한과 같은 임의 개수의 요인들에 따라서 변할 수 있다.
일부 실시예는 "일 실시예" 또는 "실시예"와 함께 그의 파생어의 표현을 사용하여 기술될 수 있다. 이들 용어는 실시예와 관련하여 기술된 특별한 특징, 구조, 또는 특성이 적어도 하나의 실시예에 포함되어 있음을 의미한다. "일 실시예에서"라는 문구가 명세서의 여러 곳에서 출현한다고 반드시 모두가 동일한 실시예를 언급하는 것은 아니다. 또한, 일부 실시예는 "결합된" 및 "접속된"과 함께 이들의 파생어를 이용하여 기술될 수 있다. 이들 용어는 반드시 서로 동의어라고 의도하지 않는다. 예를 들면, 일부 실시예는 둘 또는 그 이상의 요소들이 서로와 직접 물리적 또는 전기적 접촉한 것을 나타내기 위해 "접속된" 및/또는 "결합된"이라는 용어를 이용하여 기술될 수 있다. 그러나, "결합된"이라는 용어는 둘 이상의 요소들이 서로 직접 접촉하지 않으나 그래도 여전히 서로 협력 또는 상호작용하고 있다라고도 의미할 수 있다. 또한, 다른 실시예들의 양태 또는 요소들은 조합될 수 있다.
요약서는 독자들에게 빨리 기술적인 개시의 특성을 확인시켜주기 위해 제공됨을 강조하는 것이다. 이것은 청구범위의 범주나 의미를 해석 또는 제한하는데 사용되지 않을 것임을 알고 있으리라 본다. 또한, 전술한 상세한 설명에서, 다양한 특징들이 개시 내용의 간소화를 목적으로 하나의 실시예에서 함께 그룹화된 것을 알 수 있다. 이러한 개시 방법은 청구한 실시예가 각 청구항에서 명확하게 언급된 것 보다 더 많은 특징을 필요로 한다는 의도를 반영하는 것으로 해석되지 않는다. 오히려, 다음의 청구범위들이 반영하는 것처럼, 발명의 주제는 개시된 단일의 실시예의 모든 특징들보다 적다. 그래서 다음의 청구범위는 상세한 설명에 포함되며, 각각의 청구항은 그 자체가 개별적인 실시예를 주장한다. 첨부의 청구범위에서, "포함하는" 그리고 "~하는"이라는 용어는 각기 "포함하는" 그리고 "~함에 있어서"라는 영어의 평이한 등가 용어로서 사용된다. 더욱이, 용어 "제1", "제2", "제3" 등은 그저 표식으로서 사용될 뿐이며, 이들의 객체에 수치적인 요건을 부여하려는 의도는 아니다.
전술한 내용은 기술된 아키텍처의 예를 포함한다. 물론, 이것은 인식가능한 컴포넌트들 및/또는 방법론들의 모든 조합을 기술하기는 가능하지 않고, 본 기술에서 통상의 지식을 가진자에게는 더 많은 조합과 변경이 가능하리라고 인식할 수 있다. 따라서, 신규한 아키텍처는 첨부의 청구범위의 정신과 범주 내에 속하는 그러한 모든 변경, 수정 및 변형을 망라하고자 한다. 상세한 개시는 이제 추가적인 실시예에 관련한 예를 제공하는 것이 된다. 아래에 제공된 실시예는 제한하려는 의도는 아니다.
상세한 개시는 이제 추가적인 실시예에 관련한 예를 제공하는 것이 된다. 아래에 제공된 하나부터 육십 세가지의 예는 예시적이지 제한하려는 것은 아니다.
제1의 예에서, 비디오 프레임을 압축하는 장치는 프로세서 컴포넌트와, 그 프로세서 컴포넌트에 의해 적어도 하나의 압축된 섬네일 프레임(T-프레임)을 압축된 비디오 데이터에서 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치하도록 실행하기 위한 압축 컴포넌트를 포함할 수 있되, T-프레임은 압축된 형태의 상기 움직임 비디오의 다수의 섬네일 이미지들을 포함한다.
제2의 예에서, 제1예의 장치는 프로세서 컴포넌트에 의해 다수의 섬네일 이미지들을 멀티-섬네일 프레임으로 조합하도록 실행하기 위한 조합 컴포넌트를 포함할 수 있으며, 이 조합 컴포넌트는 멀티-섬네일 프레임을 압축하여 T-프레임을 생성한다.
제2의 예의 장치의 제3의 예에서, 다수의 섬네일 이미지들은 연대순으로 인접한 섬네일 이미지들을 포함할 수 있다.
제2의 예의 장치의 제4의 예에서, 조합 컴포넌트는 다수의 섬네일 이미지들을 멀티-섬네일 프레임 내에 타일 양식로 구성한다.
제4의 예의 장치의 제5의 예에서, 압축 컴포넌트는 상기 프로세서 컴포넌트에 의해 멀티-섬네일 프레임의 두 섬네일 이미지들의 픽셀들을 비교하여 그 두 섬네일 이미지들 사이의 차를 기술하는 움직임 벡터를 유도하도록 실행하기 위한 움직임 추정기를 포함한다.
제6의 예에서, 제1의 예는 프로세서 컴포넌트에 의해 움직임 비디오의 풀-해상도 프레임들로부터 다수의 섬네일 이미지들을 생성하도록 실행하기 위한 섬네일 생성기를 포함할 수 있다.
제1의 예의 장치의 제7의 예에서, 압축 컴포넌트는 엠팩 버전을 이용하여 다수의 압축된 풀-해상도 프레임들 및 그 압축된 풀-해상도 프레임들 사이에 배치된 적어도 하나의 T-프레임을 포함하는 화상그룹(GOP)를 생성하고, 순간 디코더 리플레시 프레임(IDR 프레임)을 생성하며, IDR 프레임을 GOP의 첫 코딩 순서 위치에 배치한다.
제7의 예의 장치의 제8의 예에서, 압축 컴포넌트는 압축된 비디오 데이터와 연관되고, GOP 내 T-프레임의 위치를 표시하는 메시지를 포함하는 메시지 데이터를 생성한다.
제1의 예의 장치의 제9의 예에서, 압축 컴포넌트는 압축된 비디오 데이터와 연관되고, 다수의 압축된 풀-해상도 프레임들의 압축된 풀-해상도 프레임 또는 T-프레임 중 하나의 파라미터를 표시하는 메시지를 포함하는 메시지 데이터를 생성하며, 이 파라미터는 다수의 압축된 풀-해상도 프레임들 사이의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, 상기 T-프레임 내 섬네일 이미지들의 양, 또는 압축된 프레임이 암호화되어 있는지의 여부 중 하나를 포함한다.
제9의 예의 장치의 제10의 예에서, 메시지 데이터는 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 적어도 하나의 T-프레임을 암호화하지 않은 것으로서 표시하는 제2 메시지를 포함한다.
제9의 예의 장치의 제11의 예는 압축된 비디오 데이터 및 메시지 데이터를 시청 장치에 전송하는 인터페이스를 포함한다.
제1의 예의 장치의 제12의 예는 프로세서 컴포넌트에 의해 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 선택적으로 암호화는 암호화 컴포넌트를 포함한다.
제12의 예의 장치의 제13의 예에서, 암호화 컴포넌트는 다수의 압축된 풀-해상도 프레임들을 암호화하고 적어도 하나의 T-프레임을 암호화하지 않는다.
제14의 예에서, 비디오 프레임을 복원하는 장치는 프로세서 컴포넌트, 및 적어도 하나의 복원된 섬네일 이미지를 시각적으로 표시하라는 커맨드에 응답하여, 압축된 비디오 데이터 내에 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치된 적어도 하나의 압축된 섬네일 프레임(T-프레임)을 복원하여 적어도 하나의 복원된 섬네일 이미지를 생성하는 복원 컴포넌트를 포함할 수 있으며, T-프레임은 압축된 형태의 움직임 비디오의 다수의 섬네일 이미지들을 포함한다.
제14의 예의 장치의 제15의 예에서, 복원 컴포넌트는 다수의 복원된 풀-해상도 프레임들을 시각적으로 표시하라는 다른 커맨드에 응답하여 다수의 압축된 풀-해상도 프레임들을 복원하여 다수의 복원된 풀-해상도 프레임들을 생성한다.
제16의 예에서, 제14의 예의 장치는 커맨드의 수신을 표시하기 위한 입력 장치를 모니터하는 프리젠테이션 컴포넌트를 포함할 수 있다.
제16의 예의 장치의 제17의 예에서, 프리젠테이션 컴포넌트는 적어도 하나의 복원된 섬네일 이미지를 시각적으로 표시하여 디스플레이 상에 움직임 비디오의 적어도 일부분의 프리뷰를 제공한다.
제18의 예에서, 제17의 예의 장치는 입력 장치 또는 상기 디스플레이 중 하나를 포함할 수 있다.
제14의 예의 장치의 제19의 예에서, 다수의 섬네일 이미지들은 연대순으로 인접한 섬네일 이미지들을 포함한다.
제14의 예의 장치의 제20의 예에서, 복원 컴포넌트는 다수의 섬네일 이미지들 중 두 섬네일 이미지들의 픽셀들을 비교하여 유도된 움직임 벡터를 이용하여 T-프레임을 복원하는 움직임 보상기를 포함한다.
제14의 예의 장치의 제21의 예에서, 압축된 비디오 데이터는 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 포함하는 화상 그룹(GOP)을 포함하고, 복원 컴포넌트는 MPEG 버전 및 압축된 비디오 데이터와 연관된 메시지 데이터의 메시지에서 표시된 파라미터를 이용하여 T-프레임을 복원하며, 파라미터는 다수의 압축된 풀-해상도 프레임 사이의 T-프레임의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, T-프레임 내 섬네일 이미지들의 양, 또는 압축된 프레임이 암호화되어있는지의 여부 중 하나를 포함한다.
제21의 예의 장치의 제22의 예에서, 메시지 데이터는 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 적어도 하나의 T-프레임을 암호화하지 않은 것으로서 표시하는 제2 메시지를 포함한다.
제23의 예에서, 제21의 예의 장치는 압축된 비디오 데이터 및 메시지 데이터를 시청 장치에 전송하는 인터페이스를 포함할 수 있다.
제24의 예에서, 제21의 예의 장치는 메시지 데이터의 메시지에 따라서, 프로세서 컴포넌트에 의해 다수의 압축된 풀-해상도 프레임 및 적어도 하나의 T-프레임을 선택적으로 복호하도록 실행하기 위한 복호 컴포넌트를 포함할 수 있다.
제25의 예에서, 비디오 프레임을 압축하기 위한 컴퓨터-구현 방법은, 움직임 비디오의 다수의 섬네일 이미지들을 멀티-섬네일 프레임으로 조합하는 단계와, 멀티-섬네일 프레임을 압축하여 압축된 섬네일 이미지(T-프레임)을 생성하는 단계와, T-프레임을 압축된 비디오 데이터에서 코딩 순서대로 배열된 상기 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치하는 단계를 포함할 수 있다.
제25의 예의 방법의 제26의 예에서, 다수의 섬네일 이미지들은 연대순으로 인접한 섬네일 이미지들을 포함한다.
제25의 예의 방법의 제27의 예에서, 방법은 다수의 섬네일 이미지들을 상기 멀티-섬네일 프레임 내에 타일 양식로 구성하는 단계를 포함한다.
제27의 예의 방법의 제28의 예에서, 방법은 멀티-섬네일 프레임을 압축하기 위해 멀티-섬네일 프레임의 두 섬네일 이미지들의 픽셀 블록들 사이의 차를 기술하는 움직임 벡터를 유도하는 단계를 포함한다.
제25의 예의 방법의 제29의 예에서, 방법은 움직임 비디오의 풀-해상도 프레임들로부터 다수의 섬네일 이미지들을 생성하는 단계를 포함한다.
제25의 예의 방법의 제30의 예에서, 방법은, 엠팩 버전을 이용하여 다수의 압축된 풀-해상도 프레임들 및 그 압축된 풀-해상도 프레임들 사이에 배치된 적어도 하나의 T-프레임을 포함하는 화상 그룹(GOP)를 생성하는 단계와, 순간 디코더 리플레시 프레임(IDR 프레임)을 생성하는 단계와, IDR 프레임을 GOP의 첫 코딩 순서 위치에 배치하는 단계와, 압축된 비디오 데이터와 연관되고 GOP 내 T-프레임의 위치를 표시하는 메시지를 포함하는 메시지 데이터를 생성하는 단계를 포함한다.
제25의 예의 방법의 제31의 예에서, 방법은 압축된 비디오 데이터와 연관되고 다수의 압축된 풀-해상도 프레임들의 압축된 풀-해상도 프레임 또는 상기 T-프레임 중 하나의 파라미터를 표시하는 메시지를 포함하는 메시지 데이터를 생성하는 단계를 포함하되, 파라미터는 다수의 압축된 풀-해상도 프레임들 사이의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, T-프레임 내 섬네일 이미지들의 양, 또는 압축된 프레임이 암호화되어 있는지의 여부 중 하나를 포함한다.
제31의 예의 방법의 제32의 예에서, 메시지 데이터는 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 적어도 하나의 T-프레임을 암호화하지 않은 것으로서 표시하는 제2 메시지를 포함한다.
제31의 예의 방법의 제33의 예에서, 방법은 압축된 비디오 데이터 및 메시지 데이터를 시청 장치에 전송하는 단계를 포함한다.
제25의 예의 방법의 제34의 예에서, 방법은 다수의 압축된 풀-해상도 프레임들을 암호화하고 T-프레임을 암호화하지 않는 단계를 포함한다.
제35의 예에서, 적어도 하나의 머신-판독가능 저장 매체는 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가, 움직임 비디오의 다수의 섬네일 이미지들을 멀티-섬네일 프레임으로 조합하게 하고, 멀티-섬네일 프레임을 압축하여 압축된 섬네일 이미지(T-프레임)을 생성하게 하고, T-프레임을 압축된 비디오 데이터에서 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치하게 하는 커맨드를 포함할 수 있다.
제35의 예의 적어도 하나의 머신-판독가능 저장 매체의 제36의 예에서, 다수의 섬네일 이미지들은 연대순으로 인접한 섬네일 이미지들을 포함한다.
제35의 예의 적어도 하나의 머신-판독가능 저장 매체의 제37의 예에서, 컴퓨팅 장치가 다수의 섬네일 이미지들을 멀티-섬네일 프레임 내에 타일 양식로 구성하게 한다.
제37의 예의 적어도 하나의 머신-판독가능 저장 매체의 제38의 예에서, 컴퓨팅 장치가 멀티-섬네일 프레임을 압축하기 위해 멀티-섬네일 프레임의 두 섬네일 이미지들의 픽셀 블록들 사이의 차를 기술하는 움직임 벡터를 유도하게 한다.
제35의 예의 적어도 하나의 머신-판독가능 저장 매체의 제39의 예에서, 컴퓨팅 장치가 움직임 비디오의 풀-해상도 프레임들로부터 다수의 섬네일 이미지들을 생성하게 한다.
제35의 예의 적어도 하나의 머신-판독가능 저장 매체의 제40의 예에서, 컴퓨팅 장치가 엠팩 버전을 이용하여 다수의 압축된 풀-해상도 프레임들 및 그 압축된 풀-해상도 프레임들 사이에 배치된 적어도 하나의 T-프레임을 포함하는 화상 그룹(GOP)를 생성하게 하고, 순간 디코더 리플레시 프레임(IDR 프레임)을 생성하게 하고, IDR 프레임을 GOP의 첫 코딩 순서 위치에 배치하게 하고, 압축된 비디오 데이터와 연관되고 GOP 내 T-프레임의 위치를 표시하는 메시지를 포함하는 메시지 데이터를 생성하게 한다.
제35의 예의 적어도 하나의 머신-판독가능 저장 매체의 제41의 예에서, 컴퓨팅 장치가 압축된 비디오 데이터와 연관되고 다수의 압축된 풀-해상도 프레임들의 압축된 풀-해상도 프레임 또는 상기 T-프레임 중 하나의 파라미터를 표시하는 메시지를 포함하는 메시지 데이터를 생성하게 하되, 파라미터는 다수의 압축된 풀-해상도 프레임들 사이의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, T-프레임 내 섬네일 이미지들의 양, 또는 압축된 프레임이 암호화되어 있는지의 여부 중 하나를 포함한다.
제41의 예의 적어도 하나의 머신-판독가능 저장 매체의 제42의 예에서, 메시지 데이터는 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 적어도 하나의 T-프레임을 암호화하지 않은 것으로서 표시하는 제2 메시지를 포함한다.
제41의 예의 적어도 하나의 머신-판독가능 저장 매체의 제43의 예에서, 컴퓨팅 장치가 압축된 비디오 데이터 및 메시지 데이터를 시청 장치에 전송하게 한다.
제35의 예의 적어도 하나의 머신-판독가능 저장 매체의 제44의 예에서, 컴퓨팅 장치가 다수의 압축된 풀-해상도 프레임들을 암호화하고 T-프레임을 암호화하지 않게 한다.
제45의 예에서, 비디오 프레임을 복원하기 위한 컴퓨터-구현 방법은, 움직임 비디오의 적어도 하나의 복원된 섬네일 이미지를 시각적으로 표시하라는 커맨드를 수신하는 단계와, 커맨드에 응답하여 압축된 비디오 데이터에서 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치된 적어도 하나의 압축된 섬네일 프레임(T-프레임)을 복원하여 적어도 하나의 복원된 섬네일 이미지를 생성하는 단계를 포함할 수 있되, T-프레임은 압축된 형태의 움직임 비디오의 다수의 섬네일 이미지들을 포함한다.
제45의 예의 컴퓨터-구현 방법의 제46의 예에서, 방법은 다수의 복원된 풀-해상도 프레임들을 시각적으로 표시하라는 다른 커맨드를 수신하는 단계와, 다른 커맨드에 응답하여 다수의 압축된 풀-해상도 프레임들을 복원하여 다수의 복원된 풀-해상도 프레임들을 생성하는 단계를 포함한다.
제45의 예의 컴퓨터-구현 방법의 제47의 예에서, 방법은 커맨드의 수신을 표시하기 위한 입력 장치를 모니터하는 단계와, 적어도 하나의 복원된 섬네일 이미지를 디스플레이 상에 시각적으로 표시하여 움직임 비디오의 적어도 일부분의 프리뷰를 제공하는 단계를 포함한다.
제45의 예의 컴퓨터-구현 방법의 제48의 예에서, 다수의 섬네일 이미지들은 연대순으로 인접한 섬네일 이미지들을 포함한다.
제45의 예의 컴퓨터-구현 방법의 제49의 예에서, 방법은 다수의 섬네일 이미지들 중 두 섬네일 이미지들의 픽셀들을 비교하여 유도된 움직임 벡터를 이용하여 T-프레임을 복원하는 단계를 포함한다.
제45의 예의 컴퓨터-구현 방법의 제50의 예에서, 압축된 비디오 데이터는 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 포함하는 화상 그룹(GOP)을 포함하며, 방법은 MPEG 버전 및 압축된 비디오 데이터와 연관된 메시지 데이터의 메시지에서 표시된 파라미터를 이용하여 T-프레임을 복원하며, 파라미터는 다수의 압축된 풀-해상도 프레임 사이의 T-프레임의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, T-프레임 내 섬네일 이미지들의 양, 또는 압축된 프레임이 암호화되어있는지의 여부 중 하나를 포함한다.
제50의 예의 컴퓨터-구현 방법의 제51의 예에서, 메시지 데이터는 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 적어도 하나의 T-프레임을 암호화하지 않은 것으로서 표시하는 제2 메시지를 포함한다.
제50의 예의 컴퓨터-구현 방법의 제52의 예에서, 방법은 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 메시지 데이터의 메시지에 따라서 선택적으로 복호하는 단계를 포함한다.
제53의 예에서, 적어도 하나의 머신-판독가능 저장 매체는 컴퓨팅 장치에 의해 실행될 때, 컴치가, 움직임 비디오의 적어도 하나의 복원된 섬네일 이미지를 시각적으로 표시하라는 커맨드를 수신하게 하고, 그 커맨드에 응답하여 압축된 비디오 데이터에서 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임들 사이에 배치된 적어도 하나의 압축된 섬네일 프레임(T-프레임)을 복원하여 적어도 하나의 복원된 섬네일 이미지를 생성하게 하되, T-프레임은 압축된 형태의 움직임 비디오의 다수의 섬네일 이미지들을 포함한다.
제53의 예의 적어도 하나의 머신-판독가능 저장 매체의 제54의 예에서, 컴퓨팅 장치가 다수의 복원된 풀-해상도 프레임들을 시각적으로 표시하라는 다른 커맨드를 수신하게 하고, 그 다른 커맨드에 응답하여 다수의 압축된 풀-해상도 프레임들을 복원하여 다수의 복원된 풀-해상도 프레임들을 생성하게 한다.
제53의 예의 적어도 하나의 머신-판독가능 저장 매체의 제55의 예에서, 컴퓨팅 장치가, 커맨드의 수신을 표시하기 위한 입력 장치를 모니터하게 하고, 적어도 하나의 복원된 섬네일 이미지를 디스플레이 상에 시각적으로 표시하여 움직임 비디오의 적어도 일부분의 프리뷰를 제공하게 한다.
제53의 예의 적어도 하나의 머신-판독가능 저장 매체의 제56의 예에서, 다수의 섬네일 이미지들은 연대순으로 인접한 섬네일 이미지들을 포함한다.
제53의 예의 적어도 하나의 머신-판독가능 저장 매체의 제57의 예에서, 다수의 섬네일 이미지들 중 두 섬네일 이미지들의 픽셀들을 비교하여 유도된 움직임 벡터를 이용하여 T-프레임을 복원하게 한다.
제53의 예의 적어도 하나의 머신-판독가능 저장 매체의 제58의 예에서, 압축된 비디오 데이터는 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 포함하는 화상 그룹(GOP)을 포함하며, 컴퓨팅 장치가 MPEG 버전 및 압축된 비디오 데이터와 연관된 메시지 데이터의 메시지에서 표시된 파라미터를 이용하여 T-프레임을 복원하게 한다.
제53의 예의 적어도 하나의 머신-판독가능 저장 매체의 제59의 예에서, 압축된 비디오 데이터는 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 포함하는 화상 그룹(GOP)을 포함하며, 컴퓨팅 장치가 MPEG 버전 및 압축된 비디오 데이터와 연관된 메시지 데이터의 메시지에서 표시된 파라미터를 이용하여 T-프레임을 복원하게 하며, 파라미터는 다수의 압축된 풀-해상도 프레임 사이의 T-프레임의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, T-프레임 내 섬네일 이미지들의 양, 또는 압축된 프레임이 암호화되어있는지의 여부 중 하나를 포함한다.
제59의 예의 적어도 하나의 머신-판독가능 저장 매체의 제60의 예에서, 메시지 데이터는 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 적어도 하나의 T-프레임을 암호화하지 않은 것으로서 표시하는 제2 메시지를 포함한다.
제59의 예의 적어도 하나의 머신-판독가능 저장 매체의 제61의 예에서, 컴퓨팅 장치가 다수의 압축된 풀-해상도 프레임들 및 적어도 하나의 T-프레임을 메시지 데이터의 메시지에 따라서 선택적으로 복호하게 한다.
제62의 예에서, 적어도 하나의 컴퓨터 판독가능 저장 매체는 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가 제25 내지 제 34 또는 제45 내지 제 52의 예의 방법을 수행하게 하는 커맨드를 포함할 수 있다.
제63의 예에서, 커맨드를 수신하는 장치는 제25 내지 제 34 또는 제45 내지 제 52의 예의 방법을 수행하는 수단을 포함할 수 있다.
다른 실시예 및 예가 설명되고 청구된다.
요약서는 독자들에게 빨리 기술적인 개시의 특성을 확인시켜줄 요약서를 요구하는 37 C.F.R. §1.72(b)를 준수하도록 제공됨을 강조하는 것이다. 이것은 청구범위의 범주나 의미를 해석 또는 제한하는데 사용되지 않을 것임을 알고 있으리라 본다. 또한, 전술한 상세한 설명에서, 다양한 특징들이 개시 내용의 간소화를 목적으로 하나의 실시예에서 함께 그룹화된 것을 알 수 있다. 이러한 개시 방법은 청구한 실시예가 각 청구항에서 명확하게 언급된 것 보다 더 많은 특징을 필요로 한다는 의도를 반영하는 것으로 해석되지 않는다. 오히려, 다음의 청구범위들이 반영하는 것처럼, 발명의 주제는 개시된 단일의 실시예의 모든 특징들보다 적다. 그래서 다음의 청구범위는 상세한 설명에 포함되며, 각각의 청구항은 그 자체가 개별적인 바람직한 실시예를 주장한다. 첨부의 청구범위에서, "포함하는" 그리고 "~하는"이라는 용어는 각기 "포함하는" 그리고 "~함에 있어서"라는 영어의 평이한 등가 용어로서 사용된다. 더욱이, 용어 "제1", "제2", "제3" 등은 그저 표식으로서 사용될 뿐이며, 이들의 객체에 수치적인 요건을 부여하려는 의도는 아니다.
비록 주제가 구조적인 특징 및/또는 방법론적인 행위에 특정한 표현으로 기술되었을지라도, 첨부의 청구범위에서 정의된 주제는 반드시 전술한 특정한 특징이나 행위로 제한될 필요는 없다고 이해해야 한다. 그 보다, 전술한 특정한 특징 및 행위는 청구범위를 구현하는 예시적인 형태로서 기술된다.

Claims (25)

  1. 비디오 프레임을 압축하는 장치로서,
    프로세서 컴포넌트와,
    상기 프로세서 컴포넌트에 의해 적어도 하나의 압축된 섬네일 프레임(thumbnail frame)(T-프레임)을 압축된 비디오 데이터에서 코딩 순서대로 배열된 움직임 비디오(motion video)의 다수의 압축된 풀-해상도 프레임(multiple compressed full-resolution frames) 사이에 배치하도록(intersperse) 실행하기 위한 압축 컴포넌트를 포함하되,
    상기 T-프레임은 압축된 형태로 상기 움직임 비디오의 다수의 섬네일 이미지를 포함하는
    비디오 프레임 압축 장치.
  2. 제 1 항에 있어서,
    상기 프로세서 컴포넌트에 의해 상기 다수의 섬네일 이미지를 멀티-섬네일 프레임(multi-thumbnail frame)으로 조합하도록 실행하기 위한 조합 컴포넌트를 포함하며,
    상기 압축 컴포넌트는 상기 멀티-섬네일 프레임을 압축하여 상기 T-프레임을 생성하는
    비디오 프레임 압축 장치.
  3. 제 2 항에 있어서,
    상기 다수의 섬네일 이미지는 연대순으로 인접한 섬네일 이미지를 포함하는
    비디오 프레임 압축 장치.
  4. 제 2 항에 있어서,
    상기 조합 컴포넌트는 상기 다수의 섬네일 이미지를 상기 멀티-섬네일 프레임 내에 타일 양식(tiled manner)으로 편성하는
    비디오 프레임 압축 장치.
  5. 제 4 항에 있어서,
    상기 압축 컴포넌트는, 상기 프로세서 컴포넌트에 의해 상기 멀티-섬네일 프레임의 두 섬네일 이미지의 픽셀을 비교하여 상기 두 섬네일 이미지 사이의 차를 기술하는 움직임 벡터를 유도하도록 실행하기 위한 움직임 추정기를 포함하는
    비디오 프레임 압축 장치.
  6. 제 1 항에 있어서,
    상기 압축 컴포넌트는, 상기 압축된 비디오 데이터와 연관되고, 상기 다수의 압축된 풀-해상도 프레임의 압축된 풀-해상도 프레임 또는 상기 T-프레임 중 하나의 파라미터를 표시하는 메시지를 포함하는 메시지 데이터를 생성하며,
    상기 파라미터는, 상기 다수의 압축된 풀-해상도 프레임 사이의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, 상기 T-프레임 내 섬네일 이미지의 양, 또는 압축된 프레임이 암호화되어 있는지의 여부 중 하나를 포함하는
    비디오 프레임 압축 장치.
  7. 제 6 항에 있어서,
    상기 압축된 비디오 데이터 및 상기 메시지 데이터를 시청 장치(viewing device)에 전송하는 인터페이스를 포함하는
    비디오 프레임 압축 장치.
  8. 제 1 항에 있어서,
    상기 프로세서 컴포넌트에 의해 상기 다수의 압축된 풀-해상도 프레임 및 상기 적어도 하나의 T-프레임을 선택적으로 암호화하도록 실행하기 위한 암호화 컴포넌트를 포함하는
    비디오 프레임 압축 장치.
  9. 비디오 프레임을 복원하는(decompress) 장치로서,
    프로세서 컴포넌트와,
    적어도 하나의 복원된 섬네일 이미지(decompressed thumbnail image)를 시각적으로 표시하라는 커맨드에 응답하여, 압축된 비디오 데이터 내에 코딩 순서대로 배열된 움직임 비디오의 다수의 압축된 풀-해상도 프레임 사이에 배치된 적어도 하나의 압축된 섬네일 프레임(T-프레임)을 복원하여 상기 적어도 하나의 복원된 섬네일 이미지를 생성하는 복원 컴포넌트를 포함하며,
    상기 T-프레임은 압축된 형태로 상기 움직임 비디오의 다수의 섬네일 이미지를 포함하는
    비디오 프레임 복원 장치.
  10. 제 9 항에 있어서,
    상기 복원 컴포넌트는 다수의 복원된 풀-해상도 프레임을 시각적으로 표시하라는 다른 커맨드에 응답하여 상기 다수의 압축된 풀-해상도 프레임을 복원하여 상기 다수의 복원된 풀-해상도 프레임을 생성하는
    비디오 프레임 복원 장치.
  11. 제 9 항에 있어서,
    상기 커맨드의 수신을 표시하기 위한 입력 장치를 모니터하는 프리젠테이션 컴포넌트(presentation component)를 포함하는
    비디오 프레임 복원 장치.
  12. 제 11 항에 있어서,
    상기 프리젠테이션 컴포넌트는 상기 적어도 하나의 복원된 섬네일 이미지를 디스플레이 상에 시각적으로 표시하여 상기 움직임 비디오의 적어도 일부분의 프리뷰(preview)를 제공하는
    비디오 프레임 복원 장치.
  13. 제 12 항에 있어서,
    상기 입력 장치 또는 상기 디스플레이 중 하나를 포함하는
    비디오 프레임 복원 장치.
  14. 제 9 항에 있어서,
    상기 복원 컴포넌트는 상기 다수의 섬네일 이미지 중 두 섬네일 이미지의 픽셀을 비교하여 유도된 움직임 벡터를 이용하여 상기 T-프레임을 복원하는 움직임 보상기를 포함하는
    비디오 프레임 복원 장치.
  15. 제 9 항에 있어서,
    상기 압축된 비디오 데이터는 상기 다수의 압축된 풀-해상도 프레임 및 상기 적어도 하나의 T-프레임을 포함하는 화상 그룹(group-of-pictures;GOP)을 포함하고,
    상기 복원 컴포넌트는 상기 압축된 비디오 데이터와 연관된 메시지 데이터의 메시지에서 표시된 파라미터 및 MPEG 버전을 이용하여 상기 T-프레임을 복원하며,
    상기 파라미터는 상기 다수의 압축된 풀-해상도 프레임 사이의 상기 T-프레임의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, 상기 T-프레임 내 섬네일 이미지의 양, 또는 압축된 프레임이 암호화되어있는지의 여부 중 하나를 포함하는
    비디오 프레임 복원 장치.
  16. 비디오 프레임을 압축하기 위한 컴퓨터-구현된 방법으로서,
    움직임 비디오의 다수의 섬네일 이미지(thumbnail images)를 멀티-섬네일 프레임(multi-thumbnail frame)으로 조합하는 단계와,
    상기 멀티-섬네일 프레임을 압축하여 압축된 섬네일 이미지(T-프레임)을 생성하는 단계와,
    상기 T-프레임을 압축된 비디오 데이터에서 코딩 순서대로 배열된 상기 움직임 비디오의 다수의 압축된 풀-해상도 프레임(multiple compressed full-resolution frames) 사이에 배치하는 단계를 포함하는
    비디오 프레임 압축 방법.
  17. 제 16 항에 있어서,
    상기 방법은 상기 다수의 섬네일 이미지를 상기 멀티-섬네일 프레임 내에 타일 양식(tiled manner)으로 편성하는 단계를 포함하는
    비디오 프레임 압축 방법.
  18. 제 17 항에 있어서,
    상기 방법은 상기 멀티-섬네일 프레임을 압축하기 위해 상기 멀티-섬네일 프레임의 두 섬네일 이미지의 픽셀 블록 사이의 차를 기술하는 움직임 벡터를 유도하는 단계를 포함하는
    비디오 프레임 압축 방법.
  19. 제 16 항에 있어서,
    상기 방법은, 상기 압축된 비디오 데이터와 연관되고, 상기 다수의 압축된 풀-해상도 프레임의 압축된 풀-해상도 프레임 또는 상기 T-프레임 중 하나의 파라미터를 표시하는 메시지를 포함하는 메시지 데이터를 생성하는 단계를 포함하되,
    상기 파라미터는, 상기 다수의 압축된 풀-해상도 프레임 사이의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, 상기 T-프레임 내 섬네일 이미지의 양, 또는 압축된 프레임이 암호화되어 있는지의 여부 중 하나를 포함하는
    비디오 프레임 압축 방법.
  20. 제 16 항에 있어서,
    상기 방법은 상기 T-프레임을 암호화하지 않고 상기 다수의 압축된 풀-해상도 프레임을 암호화하는 단계를 포함하는
    비디오 프레임 압축 방법.
  21. 명령어를 포함하는 적어도 하나의 머신-판독가능 저장 매체로서, 상기 명령어는 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
    움직임 비디오의 다수의 섬네일 이미지(thumbnail images)를 멀티-섬네일 프레임(multi-thumbnail frame)으로 조합하게 하고,
    상기 멀티-섬네일 프레임을 압축하여 압축된 섬네일 이미지(T-프레임)을 생성하게 하고,
    상기 T-프레임을 압축된 비디오 데이터에서 코딩 순서대로 배열된 상기 움직임 비디오의 다수의 압축된 풀-해상도 프레임(multiple compressed full-resolution frames) 사이에 배치하게 하는
    머신-판독가능 저장 매체.
  22. 제 21 항에 있어서,
    상기 컴퓨팅 장치가 상기 다수의 섬네일 이미지를 상기 멀티-섬네일 프레임 내에 타일 양식(tiled manner)으로 편성하게 하는
    머신-판독가능 저장 매체.
  23. 제 22 항에 있어서,
    상기 컴퓨팅 장치가 상기 멀티-섬네일 프레임을 압축하기 위해 상기 멀티-섬네일 프레임의 두 섬네일 이미지의 픽셀 블록 사이의 차를 기술하는 움직임 벡터를 유도하게 하는
    머신-판독가능 저장 매체.
  24. 제 21 항에 있어서,
    상기 컴퓨팅 장치가, 상기 압축된 비디오 데이터와 연관되고, 상기 다수의 압축된 풀-해상도 프레임의 압축된 풀-해상도 프레임 또는 상기 T-프레임 중 하나의 파라미터를 표시하는 메시지를 포함하는 메시지 데이터를 생성하게 하되,
    상기 파라미터는, 상기 다수의 압축된 풀-해상도 프레임 사이의 위치, 픽셀 해상도, 컬러 깊이, 컬러 공간, 상기 T-프레임 내 섬네일 이미지의 양, 또는 압축된 프레임이 암호화되어 있는지의 여부 중 하나를 포함하는
    머신-판독가능 저장 매체.
  25. 제 24 항에 있어서,
    상기 메시지 데이터는 상기 다수의 압축된 풀-해상도 프레임을 암호화된 것으로서 표시하는 제1 메시지 및 상기 T-프레임을 암호화되지 않은 것으로서 표시하는 제2 메시지를 포함하는
    머신-판독가능 저장 매체.
KR1020150103963A 2013-07-12 2015-07-22 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술 KR102129637B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/940,803 US9838686B2 (en) 2013-07-12 2013-07-12 Techniques for inclusion of thumbnail images in compressed video data
US13/940,803 2013-07-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140087805A Division KR101593428B1 (ko) 2013-07-12 2014-07-11 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술

Publications (2)

Publication Number Publication Date
KR20150090009A true KR20150090009A (ko) 2015-08-05
KR102129637B1 KR102129637B1 (ko) 2020-07-02

Family

ID=51176206

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140087805A KR101593428B1 (ko) 2013-07-12 2014-07-11 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술
KR1020150103963A KR102129637B1 (ko) 2013-07-12 2015-07-22 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020140087805A KR101593428B1 (ko) 2013-07-12 2014-07-11 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술

Country Status (5)

Country Link
US (1) US9838686B2 (ko)
EP (1) EP2824938B1 (ko)
KR (2) KR101593428B1 (ko)
CN (1) CN104284187B (ko)
BR (1) BR102014017234B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9307021B2 (en) * 2013-02-27 2016-04-05 Comcast Cable Communications, Llc Adaptive media transmission processing
GB2516826B (en) * 2013-07-23 2016-06-22 Canon Kk Method, device and computer program for encapsulating partitioned timed media data by creating tracks to be independently encapsulated in at least one media f
US10027977B2 (en) * 2013-10-21 2018-07-17 Avago Technologies General Ip (Singapore) Pte. Ltd. Encoding method for distribution of multimedia contents with enforcement of commercial advertisement
US20160064039A1 (en) * 2014-08-26 2016-03-03 Microsoft Corporation Thumbnail Generation
CN106803911A (zh) * 2017-03-03 2017-06-06 天津天地伟业信息系统集成有限公司 一种nvr录像文件的缩略图创建和读取方法
US10762691B2 (en) * 2017-09-08 2020-09-01 Microsoft Technology Licensing, Llc Techniques for compensating variable display device latency in image display
CN110933432A (zh) * 2018-09-19 2020-03-27 珠海金山办公软件有限公司 图像压缩、解压缩方法、装置、电子设备及存储介质
WO2020181125A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, and device for processing multi-angle free-perspective video data
CN114697690A (zh) * 2020-12-30 2022-07-01 光阵三维科技有限公司 由组合传送的多个串流取出特定串流播放的系统及方法
KR20230023359A (ko) * 2021-08-10 2023-02-17 한화테크윈 주식회사 감시카메라 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100131365A (ko) * 2009-06-05 2010-12-15 한국전자통신연구원 채널 변경 지연을 줄이기 위한 스트리밍 서버, 이동 단말기 및 그 방법
US20120195365A1 (en) * 2011-02-01 2012-08-02 Michael Horowitz Spatial scalability using redundant pictures and slice groups
KR20120138940A (ko) * 2011-06-16 2012-12-27 가천대학교 산학협력단 모바일 단말기용 영상 데이터의 선택적 암호화 구현 시스템 및 방법
KR101264667B1 (ko) * 2012-12-28 2013-05-15 (주)지란지교소프트 비디오 파일의 썸네일 이미지 생성 방법 및 그 방법이 기록된 기록매체

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5691768A (en) 1995-07-07 1997-11-25 Lucent Technologies, Inc. Multiple resolution, multi-stream video system using a single standard decoder
US6356921B1 (en) * 1998-06-20 2002-03-12 International Business Machines Corporation Framework for progressive hierarchial and adaptive delivery rich media presentations and associated meta data
US8595764B2 (en) 1999-06-25 2013-11-26 Jlb Ventures, Llc Image-oriented electronic programming guide
US7463737B2 (en) * 2001-08-15 2008-12-09 Digeo, Inc. System and method for conditional access key encryption
US7215770B2 (en) * 2002-01-02 2007-05-08 Sony Corporation System and method for partially encrypted multimedia stream
DE10208480A1 (de) 2002-02-27 2003-09-11 Siemens Ag Verfahren zum Erzeugen und zum Abspielen eines Mediadatenstroms, Vorrichtungen zur Ausführung der Verfahren und Computerprogrammprodukt
WO2004036917A1 (en) * 2002-10-21 2004-04-29 Koninklijke Philips Electronics N.V. Manipulating sub-pictures of a compressed video signal
US7194701B2 (en) 2002-11-19 2007-03-20 Hewlett-Packard Development Company, L.P. Video thumbnail
US8307393B2 (en) * 2009-01-15 2012-11-06 Lg Electronics Inc. Method of processing non-real time service and broadcast receiver
IT1403450B1 (it) * 2011-01-19 2013-10-17 Sisvel S P A Flusso video costituito da frame video combinati, e procedimento e dispositivi per la sua generazione, trasmissione, ricezione e riproduzione
CN102332001B (zh) * 2011-07-26 2013-06-26 深圳万兴信息科技股份有限公司 一种视频缩略图生成方法及装置
CN103136459B (zh) * 2013-01-09 2018-12-21 上海威客网络科技有限公司 一种加密数字内容的版权标识方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100131365A (ko) * 2009-06-05 2010-12-15 한국전자통신연구원 채널 변경 지연을 줄이기 위한 스트리밍 서버, 이동 단말기 및 그 방법
US20120195365A1 (en) * 2011-02-01 2012-08-02 Michael Horowitz Spatial scalability using redundant pictures and slice groups
KR20120138940A (ko) * 2011-06-16 2012-12-27 가천대학교 산학협력단 모바일 단말기용 영상 데이터의 선택적 암호화 구현 시스템 및 방법
KR101264667B1 (ko) * 2012-12-28 2013-05-15 (주)지란지교소프트 비디오 파일의 썸네일 이미지 생성 방법 및 그 방법이 기록된 기록매체

Also Published As

Publication number Publication date
US20150016514A1 (en) 2015-01-15
EP2824938B1 (en) 2019-08-21
US9838686B2 (en) 2017-12-05
KR20150008344A (ko) 2015-01-22
CN104284187A (zh) 2015-01-14
KR102129637B1 (ko) 2020-07-02
CN104284187B (zh) 2018-09-07
BR102014017234A2 (pt) 2015-03-17
BR102014017234B1 (pt) 2023-02-28
KR101593428B1 (ko) 2016-02-12
EP2824938A1 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
KR101593428B1 (ko) 섬네일 이미지를 압축 비디오 이미지에 포함시키는 기술
KR102658657B1 (ko) 향상된 비디오 코딩을 위한 참조 프레임 재투영
JP6263830B2 (ja) 圧縮ビデオデータにおいて複数の関心領域の指標を含めるための技術
US10257510B2 (en) Media encoding using changed regions
US20150312574A1 (en) Techniques for low power image compression and display
TWI513316B (zh) 轉碼視頻資料之技術
KR20230002318A (ko) 머신들을 위한 패치 기반 비디오 코딩
US20150043653A1 (en) Techniques for low power video compression and transmission
US9888250B2 (en) Techniques for image bitstream processing
US10313681B2 (en) Techniques for rate-distortion optimization in video compression
TWI539795B (zh) 使用變化區域的媒體編碼
US10484714B2 (en) Codec for multi-camera compression

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right