KR20130132895A - 컨텐츠를 시퀀싱 - Google Patents

컨텐츠를 시퀀싱 Download PDF

Info

Publication number
KR20130132895A
KR20130132895A KR1020137017307A KR20137017307A KR20130132895A KR 20130132895 A KR20130132895 A KR 20130132895A KR 1020137017307 A KR1020137017307 A KR 1020137017307A KR 20137017307 A KR20137017307 A KR 20137017307A KR 20130132895 A KR20130132895 A KR 20130132895A
Authority
KR
South Korea
Prior art keywords
display plane
content
command information
content source
presentation
Prior art date
Application number
KR1020137017307A
Other languages
English (en)
Other versions
KR101951337B1 (ko
Inventor
존 제임스 피츠패트릭
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20130132895A publication Critical patent/KR20130132895A/ko
Application granted granted Critical
Publication of KR101951337B1 publication Critical patent/KR101951337B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

몇몇의 구현들은 시청자에게 프리젠테이션하기 위해, 컨텐츠를 시퀀싱 또는 큐잉(queing)하기 위한 시스템을 제공한다. 이러한 구현 중 하나는, 예를 들어 태블릿에서의 사용을 위해 낮은 비트 전송률 시스템을 제공한다. 하나의 특정 구현은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 구축한다. 디스플레이 평면은 원격 디바이스에 제공되며, 명령 정보는 원격 디바이스로부터 수신된다. 명령 정보는 디스플레이 평면을 수정하기 위한 것이다. 디스플레이 평면은 수신된 명령 정보에 기초하여 수정된다. 또 다른 특정 구현은 디스플레이 평면을 수신하고, 디스플레이 평면을 수정하기 위한 명령 정보를 결정하며, 디스플레이 평면을 수정하기 위해 원격 디바이스에 명령 정보를 제공한다.

Description

컨텐츠를 시퀀싱{SEQUENCING CONTENT}
본 출원은 다음 출원 일자의 미국 가특허 출원의 이득을 주장하는 바이고, 이는 본 명세서에서 그 전체가 모든 목적을 위해 참조로서 병합되며: 일련번호 제61/429,556호는 2011년 1월 4일에 출원되어, "비디오 컨텐츠를 큐잉(cueing)하기 위한 방법 및 장치"라는 제목이 부여되었다.
컨텐츠에 관한 구현들이 설명된다. 다양한 특정의 구현들은 비디오 및 오디오 컨텐츠를 시퀀싱하는 것에 관한 것이다.
가정 내에서의 비디오 컨텐츠 시청 경험은, 보다 훌륭한 신호 프로세싱 능력을 갖춘 보다 복잡하고 정교한 엔터테인먼트 시스템들이 이용 가능하게 됨에 따라, 계속해서 빠르게 진화하고 있다. 이러한 시스템들은 종종 브로드캐스트 및 인터넷으로 전달되는 컨텐츠 모두를 이용하며, 많은 경우들에 있어서, 동시에 다중 모드들의 시청을 허용한다. 하지만, 진보에도 불구하고, 일부 추가적인 특징들이 바람직할 수 있다.
본 발명자들은, 시청자가 컨텐츠 시퀀싱을 시청하지 않으면서, 시청자에게 다중 컨텐츠 요소들의 시퀀싱된 프리젠테이션을 수행하는 방식으로, 사용자가 컨텐츠를 프로세싱, 변경(alter), 및 명령하는 것을 가능하게 하기 위한 메커니즘의 유용성을 인지하였다. 따라서, 본 발명을 통해 이러한 필요성을 해결해 주는 방법 및 수단을 안출하고자 한다.
일반적인 양상에 따르면, 디스플레이 평면이 구축된다. 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함한다. 디스플레이 평면은 원격 디바이스에 제공된다. 명령 정보는 디스플레이 평면을 제공하는 것에 응답하여 원격 디바이스로부터 수신된다. 명령 정보는 디스플레이 평면을 변경하기 위한 것이다. 디스플레이 평면은 수신된 명령 정보에 기초하여 수정된다.
또 다른 일반적인 양상에 따르면, 디스플레이 평면이 수신된다. 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함한다. 명령 정보가 결정된다. 명령 정보는 디스플레이 평면을 수정하기 위한 것이다. 명령 정보는 디스플레이 평면을 수정하기 위해 원격 디바이스에 제공된다.
하나 이상의 구현들에 대한 세부 사항들은 아래의 첨부 도면들과 상세한 설명에 열거된다. 한 특정 방식으로 설명되었을지라도, 구현들이 다양한 방식으로 구성 또는 구현될 수 있음은 분명할 것이다. 예를 들어, 하나의 구현은 하나의 방법으로 수행될 수 있으며, 예를 들어 한 세트의 작동을 수행하도록 구성된 장치, 또는 한 세트의 작동을 수행하기 위한 명령어들(instructions)을 저장하는 장치와 같은 하나의 장치로 구현될 수 있거나, 또는 신호로 구현될 수 있다. 다른 양상들 및 특징들은 첨부 도면들과 청구항들과 함께 고려되어, 다음의 상세한 설명으로부터 명백해질 것이다.
본 발명은 시청자가 컨텐츠 시퀀싱을 시청하지 않으면서, 시청자에게 다중 컨텐츠 요소들의 시퀀싱된 프리젠테이션을 수행하는 방식으로, 사용자가 컨텐츠를 프로세싱, 변경, 및 명령하는 것을 가능하게 한다.
도 1은 통신 디바이스 및 통신 프로세스의 구현을 도시하는 블록/흐름도.
도 2는 입력/출력 디바이스 및 입력/출력 프로세스에 대한 구현의 그림 표현.
도 3은 컨텐츠 큐잉을 위한 시스템 및 프로세스의 구현을 도시하는 블록/흐름도.
도 4는 컨텐츠를 시퀀싱하기 위한 디스플레이 평면 및 프로세스에 대한 구현의 그림 표현.
도 5는 다양한 컨텐츠 소스들에 대한 구현의 그림 표현.
도 6은 제1 컨텐츠 관리 프로세스 및 장치의 구현을 도시하는 블록/흐름도.
도 7은 제2 컨텐츠 관리 프로세스 및 장치의 구현을 도시하는 블록/흐름도.
도 8은 컨텐츠 관리 시스템 및 프로세스의 구현을 도시하는 블록/흐름도.
도 9는 컨텐츠 관리 시스템 및 프로세스의 구현을 도시하는 블록/흐름도.
앞서 언급된 바와 같이, 가정 내에서의 비디오 컨텐츠 시청 경험은, 보다 훌륭한 신호 프로세싱 능력을 갖춘 보다 복잡하고 정교한 엔터테인먼트 시스템들이 이용 가능하게 됨에 따라, 계속해서 빠르게 진화하고 있다. 이러한 시스템들은 종종 브로드캐스트 및 인터넷으로 전달되는 컨텐츠 모두를 이용하며, 많은 경우들에 있어서, 동시에 다중 모드들의 시청을 허용한다. 하지만, 진보에도 불구하고, 일부 추가적인 특징들이 바람직할 수 있다.
다양한 구현들은 하나 이상의 추가적인 특징들을 제공한다. 예를 들어, 사용자 또는 작동자는 이벤트나 또는 파티에서와 같이 다른 사람들을 접대하면서, 시청 경험을 최대화시키는 것을 희망할 수 있다. 이를 달성하기 위해, 시청 중인 스포팅 이벤트 또는 게임의 광고 부분 동안, 다른 영화 또는 하이라이트와 같은 컨텐츠를 인터리빙하는 것은 바람직할 수 있다.
다양한 구현들에 따르면, 사용자 또는 작동자는 동시에 또는 순차적으로 컨텐츠를 시청하기 위한 몇몇의 옵션들을 가질 수 있다. 일부 엔터테인먼트 시스템들은 화상-속-화상 디스플레이(picture-in-picture display)와 같이, 동일 스크린에서 하나 이상의 이벤트에 대한 동시 시청을 허용한다. 광고 동안 채널 변경을 허용하는 것과, 타이머를 사용하여 타이머가 타임-아웃된 이후에 원래 동조된 브로드캐스트 채널로 복귀하는 것은 바람직할 수 있다. 본 발명자들은, 시청자가 컨텐츠 시퀀싱을 시청하지 않으면서, 시청자에게 다중 컨텐츠 요소들의 시퀀싱된 프리젠테이션을 수행하는 방식으로, 사용자가 컨텐츠를 프로세싱, 변경, 및 명령하는 것을 가능하게 하기 위한 메커니즘의 유용성을 인지하였다. 다양한 유형의 변경(alterations)은, 예를 들어 모자이크 블록킹(mosaic blocking), 오디오 음소거(audio muting), 장면 스킵핑(scene skipping), 및/또는 오디오 바꾸기(audio substituting)을 포함한다.
본 개시사항에 설명된 다양한 실시예들은 비디오 디스플레이 시스템에 디스플레이하기 위해, 컨텐츠를 큐잉하기 위한 방법 및 장치에 관한 것이다. 몇몇의 이들 실시예들은, 예를 들어 원격 프로세싱 태블릿과 같은 제2 디바이스를 포함하며, 이는 비디오 디스플레이에 디스플레이하기 이전에 컨텐츠의 미리-시청 및 시퀀싱을 허용한다. 라이브 컨텐츠는 큐잉을 허용하기 위해, 예를 들어 하드 드라이브와 같은 저장 매체를 사용하여 시간 지연될 수 있다. 다수의 추가적인 소스들로부터의 컨텐츠는 사용자에 의해 편집되며, 메인 디스플레이에 인터리빙될 수 있다. 특정의 이들 실시예들은 또한 사용자 미리-기록된 컨텐츠의 시간 지연된 라이브 컨텐츠로의 포인터들을 사용할 수 있게 한다. 호스트 디스플레이 평면은 셋톱 박스("STB")와 같은 메인 프로세싱 디바이스에서 구축되어, 적어도 한 구현에서는, 변하는 그래픽들(changing graphics)만이 큐잉 태블릿에 디지털 전송된다. 핸드 제스쳐들은 컨텐츠를 큐잉하기 위한 몇몇의 구현들에서 사용된다. 이들 핸드 제스쳐들은 디지털화되어, 시퀀스의 프로세싱을 가능하게 하도록 마스터 비디오 프로세싱 시스템에 전송된다.
이제 도 1로 가보면, 수신 디바이스에 대한 특정 실시예의 블록도(100)가 도시된다. 수신 디바이스(100)는 다양한 구현들에서, 예를 들어 게이트웨이 디바이스, 모뎀, 셋톱 박스, 또는 다른 유사 통신 디바이스의 부분으로서 포함된다. 도시된 디바이스는 또한 다양한 구현들에서, 예를 들어 오디오 디바이스 또는 디스플레이 디바이스를 포함하는 다른 시스템들에 병합된다. 어떤 경우에, 시스템의 완전한 작동을 위해 필수적인 몇몇의 구성 요소들은 간결함을 위해 도시되지 않았지만, 당업자들에게 잘 알려져 있다.
도 1에 도시된 디바이스에서, 컨텐츠는 입력 신호 수신기(105)에 의해 수신된다. 입력 신호 수신기(105)는 다양한 구현들에서, 예를 들어 몇몇의 가능한 네트워크들 중 하나를 통해 제공되는 신호들을 수신, 복조, 및 디코딩하기 위해 사용되는 몇몇의 알려진 수신기 회로들 중 하나이다. 가능한 네트워크들은, 예를 들어 공중파(over the air), 케이블, 위성, 이더넷, 섬유, 및 전화선 네트워크들을 포함한다. 바람직한 입력 신호는 도시된 구현에서, 제어 인터페이스(110) 또는 터치 패널 인터페이스(115){제어 인터페이스(110)와 터치 패널 인터페이스(115)는 다양한 구현들에서 동일한 인터페이스임}를 통해 제공되는 사용자 입력에 기초하여 입력 신호 수신기(105)에 의해 선택 및 검색된다. 터치 패널 인터페이스(115)는 터치 스크린 디바이스를 위한 인터페이스(도 1에 도시되지 않음)를 포함한다. 터치 패널 인터페이스(115)는 다양한 구현들에서, 셀룰러 폰, 태블릿, 마우스, 하이 엔드 원격 제어 디바이스, 또는 유사 디바이스들에 인터페이스하도록 적응된다.
입력 신호 수신기(105)로부터의 디코딩된 출력 신호는 입력 스트림 프로세서(120)에 제공된다. 입력 스트림 프로세서(120)는 최종 신호 선택 및 프로세싱을 수행하는데, 이는 디코딩된 출력 신호의 부분인 컨텐츠 스트림에 대한 오디오 컨텐츠로부터, 비디오 컨텐츠의 분리를 포함한다. 오디오 컨텐츠는 오디오 신호로서 오디오 프로세서(125)에 제공된다. 오디오 프로세서(125)는, 압축된 디지털 신호로부터 아날로그 파형 신호로의 변환(conversion)과 같은 오디오 신호의 수신된 포맷으로부터의 변환을 수행한다. 아날로그 파형 신호는 오디오 인터페이스(130)에 제공되고, 디스플레이 디바이스(도 1에 도시되지 않음) 또는 오디오 증폭기(도 1에 도시되지 않음)에 더 제공된다. 대안적으로, 다른 구현에서, 오디오 인터페이스(130)는 Sony/Philips 디지털 상호 연결 포맷(SPDIF)을 통해서와 같은 대안의 오디오 인터페이스 또는 고-선명도 멀티미디어 인터페이스(HDMI) 케이블을 사용하여, 오디오 출력 디바이스 또는 디스플레이 디바이스에 디지털 신호를 제공한다. 오디오 인터페이스(130)는 또한 다른 구현에서, 하나 이상의 스피커 세트를 구동하기 위한 증폭기들을 포함한다. 오디오 프로세서(125)는 또한 저장 디바이스(135)에 오디오 신호들의 저장을 위해, 필요하다면, 변환을 수행한다.
비디오 컨텐츠는 비디오 신호로서 입력 스트림 프로세서(120)로부터의 출력이다. 비디오 신호는 비디오 프로세서(140)에 제공된다. 비디오 신호는 몇몇의 포맷들 중 하나일 수 있다. 비디오 프로세서(140)는, 필요하다면, 비디오 신호의 입력 신호 포맷에 기초하여 비디오 컨텐츠의 변환을 제공한다. 예를 들어, 다양한 구현들에서, 비디오 신호는 압축된 디지털 신호로부터 아날로그 파형 신호로 변환된다. 비디오 프로세서(140)는 또한 저장 디바이스(135)에 비디오 신호의 저장을 위해, 필요하다면, 변환을 수행한다.
저장 디바이스(135)는 입력으로 수신된 오디오 및 비디오 컨텐츠를 저장한다. 저장 디바이스(135)는 제어기(145)의 제어 하에, 그리고 또한 명령들에 기초하여, 컨텐츠에 대한 추후의 검색 및 재생을 허용한다. 이러한 명령들은, 예를 들어 사용자 인터페이스(110) 및/또는 터치 패널 인터페이스(115)로부터 수신된 패스트-포워드(FF) 및 리와인드(Rew)와 같은 네비게이션 명령어들을 포함한다. 저장 디바이스(135)는 다양한 구현들에서, 예를 들어 (i)하드 디스크 드라이브, (ⅱ)예를 들어, 정적 RAM(SRAM) 또는 동적 RAM(DRAM)와 같은 하나 이상의 대용량의 통합된 전자 메모리들, 또는 (ⅲ)콤팩트 디스크(CD) 드라이브 또는 디지털 비디오 디스크(DVD) 드라이브와 같은 교환 가능한 광학 디스크 저장 시스템을 포함한다.
비디오 프로세서(140)로부터의 출력으로서 제공되며, 입력 스트림 프로세서(120)나 또는 저장 디바이스(135)로부터 시작하는 변환된 비디오 신호는 디스플레이 인터페이스(150)에 제공된다. 디스플레이 인터페이스(150)는 텔레비전, 컴퓨터, 및/또는 디스플레이 모니터와 같은 디스플레이 디바이스(도 1에 도시되지 않음)에 디스플레이 신호를 더 제공한다. 디스플레이 인터페이스(150)는 다양한 구현들에서, 예를 들어 적절한 레벨의 아날로그 레드-그린-블루("RGB") 신호를 아날로그 RGB 디스플레이에 제공하는 인터페이스와 같은 아날로그 신호 인터페이스이다. 다른 구현들에서, 디스플레이 인터페이스(150)는, 예를 들어 HDMI 포맷의 디지털 신호를 HDMI 디스플레이에 제공하는 인터페이스와 같은 디지털 인터페이스이다.
제어기(145)는 입력 스트림 프로세서(120), 오디오 프로세서(125), 비디오 프로세서(140), 저장 디바이스(135), 및 예를 들어 사용자 인터페이스(110) 및/또는 터치 패널 인터페이스(115)와 같은 사용자 인터페이스를 포함하는 수신 디바이스(100)의 몇몇 구성 요소들에 버스를 통해 상호 연결된다. 도 1의 구현에서, 제어기(145)는, 예를 들어 디스플레이 디바이스 및/또는 오디오 재생 디바이스에 재생하기 위해, 입력 스트림 프로세서(120)로부터의 출력 신호들을 저장 디바이스(135)에 저장을 위한 신호들로 변환하기 위한 변환 프로세스를 관리한다. 수신 디바이스(100)의 제어기(145)는 또한 저장 디바이스(135)로부터의 저장된 컨텐츠의 검색 및 재생을 관리한다.
제어기(145)는 제어 메모리(155)에 더 연결된다. 제어 메모리(155)는 다양한 구현들에서, RAM, SRAM, DRAM, ROM, 프로그래밍이 가능한 ROM(PROM), 플래쉬 메모리, 전자적으로 프로그래밍이 가능한 ROM(EPROM), 및/또는 전자적으로 삭제가 가능하며 프로그래밍이 가능한 ROM(EEPROM)을 포함한 휘발성 또는 비휘발성 메모리를 포함한다. 제어 메모리(155)는 제어기(145)에 대한 정보와 명령어 코드를 저장하기 위한 것이다. 제어 메모리(155)는 다양한 구현들에서, 수신 디바이스(100) 및/또는 하나 이상의 다른 디바이스들을 작동시키는 것에 있어서 제어기(145)에 의해 실행된 명령어들을 저장한다. 이러한 다른 디바이스들은 다양한 구현들에서, 예를 들어 수신 디바이스(100), 및/또는 메인 디바이스 내에 포함되거나 또는 메인 디바이스와 통신하는 다른 디바이스를 포함하는 메인 디바이스(예를 들어, 게이트웨이, 셋톱 박스, 또는 모뎀)를 포함한다.
예를 들어, 제어 메모리(155)에 저장되어, 작동을 위해 사용되는 소프트웨어 구성 요소들 및 소프트웨어 인터페이스들을 포함하는 정보 및 명령어 코드는 일반적인 구현들에서 제어기(145)에 의해 실행된다. 추가적으로, 다양한 구현들에서, 일부 작동들은 통신 인터페이스를 통해, 저장된 정보 및 명령어 코드의 모든 부분 또는 일부분과 통신하여 전달되며, 외부 디바이스에 의해 실행된다. 이러한 외부 디바이스들은 다양한 구현들에서, 아래에 예를 들어 설명된 바와 같이, 터치 패널 디바이스를 포함한다.
제어 메모리(155)는 또한 특정 구현들에서, 예를 들어 컨텐츠를 포함하는 그래픽 요소들과 같은 요소들의 데이터베이스를 저장한다. 또한, 제어 메모리(155)의 구현은 다양한 실시예들에서, 단일 메모리 디바이스로 성취되거나, 또는 대안적으로 공유된 또는 공통의 메모리를 형성하도록 함께 통신 연결 또는 결합된 하나 이상의 메모리 회로로 성취된다. 게다가, 특정 구현들에서, 제어 메모리(155)는, 예를 들어 보다 큰 회로 내의 버스 통신 회로의 부분들과 같은 다른 회로에 포함된다.
다양한 구현들에서, 수신 디바이스(100)의 몇몇 구성 요소들은 비디오 프로세싱 유닛의 부분으로서 포함된다. 이러한 구현 중 적어도 하나에서, 입력 스트림 프로세서(120), 비디오 프로세서(140), 저장 디바이스(135), 및 제어기(145)는 비디오 프로세싱 유닛의 부분으로서 포함된다. 적어도 한 구현에 따르면, 비디오 프로세싱 유닛의 기능은 아래에 더 상세하게 설명된다.
다양한 구현들의 사용자 인터페이스 프로세스는, 예를 들어 패스트 포워드, 리와인드 등과 같은 기능들을 표현하도록 사용될 수 있는 입력 디바이스를 사용한다. 이를 가능하게 하기 위해, 도 1에 도시된 바와 같이, 예를 들어 원격 태블릿과 같은 터치 패널 디바이스는 수신 디바이스(100)의 터치 패널 인터페이스(115) 및/또는 사용자 인터페이스(110)를 통해 인터페이스된다. 이러한 하나의 터치 패널 디바이스는 도 2에 도시된다.
도 2를 참조해보면, 터치 패널 디바이스(200)가 도시된다. 터치 패널 디바이스(200)는, 예를 들어 수신 디바이스(100), 또는 수신 디바이스(100)를 포함하는 메인 디바이스(예를 들어, 셋톱 박스)에 대한 작동을 허용한다. 터치 패널 디바이스(200)는, 예를 들어 터치 패널 디바이스(200)를 통해 수신 디바이스(100), 셋톱 박스, 또는 다른 제어 디바이스를 위한 명령들로 번역된 핸드 무브먼트들과 행위들에 기초한 작동을 허용한다.
다양한 구현들에서, 제스쳐들은 입력을 제공하도록 사용되며, 특히 손가락 제스쳐들이 사용된다. 손가락 제스쳐들은 일반적으로, 예를 들어 (i)하나 이상의 손가락이 터치 스크린을 처음으로 터치한 초기의 위치(들)(예를 들어, 제스쳐의 접촉점 또는 제스쳐의 좌표들로 언급됨), (ⅱ)하나 이상의 손가락 각각이 초기의 위치에 남아있는 기간(예를 들어, 제스쳐의 접촉 기간으로 언급됨), (ⅲ)하나 이상의 손가락 각각이 터치 스크린을 교차하여 이동되는 방향(예를 들어, 제스쳐의 이동 방향으로 언급됨), (ⅳ)하나 이상의 손가락이 터치 스크린을 교차하여 이동하는 동안의 하나 이상의 손가락 각각에 대한 중간 및 최종 위치(들), 및/또는 (ⅴ)터치 스크린을 교차하는 하나 이상의 손가락 각각의 이동 스피드(예를 들어, 제스쳐의 이동 스피드로 언급됨)와 같은 변수들에 대한 입력을 제공한다. 제스쳐의 속도는 제스쳐의 이동 스피드와 제스쳐의 이동 방향의 결합을 말한다는 것에 주의한다.
한 실시예에서, 터치 패널 디바이스(200)는 단순히 디스플레이 내에서 네비게이션하기 위한 네비게이션 툴의 역할을 한다. 다른 실시예에서, 터치 패널 디바이스(200)는 또한 사용자가 컨텐츠의 디스플레이를 통해 네비게이션과 보다 직접적으로 상호 작용하게 하는 디스플레이 디바이스의 역할을 한다.
한 구현에서, 터치 패널 디바이스(200)는 셋톱 박스 자체로, 예를 들어 전면 패널 디스플레이 또는 어레이의 부분으로서 통합된다. 다른 구현에서, 터치 패널 디바이스(200)는 (대안적으로 또는 추가적으로) 액티베이터 버튼(activator buttons)과 같은 종래의 제어 기능들을 포함하는 원격 제어 디바이스의 부분으로서 포함된다.
도 3을 참조해보면, 디스플레이 및 시청을 위해 비디오 컨텐츠를 프로세싱 및 큐잉하기 위한 시스템(300)의 한 실시예가 도시된다. 도 3의 시스템(300)은 소프트웨어와 하드웨어 구성 요소들의 결합을 도시한다. 시스템(300)은 비디오 프로세싱 유닛(302)과 원격 태블릿(304)을 포함한다.
도 3은 또한 비디오 프로세싱 유닛(302)이 원격 태블릿(304)과 통신하는 통신 매체(306)를 도시한다. 통신 매체(306)는 엄격히 말하자면 시스템(300)의 부분이 아니다.
도 3은 비디오 프로세싱 유닛(302)에 대한 입력인 일련의 컨텐츠 옵션들(310)을 더 도시한다. 컨텐츠 옵션들(310)은 예시들을 제공하며, 제한적이거나 또는 포괄하는 것으로 의도되지 않으며, 또한 필수적인 것으로 의도되는 것도 아니다. 컨텐츠 옵션들(310)은 비디오 프로세싱 유닛(302)에 대한 입력으로서, 그리고 비디오 프로세싱 유닛(302)의 부분으로서 도시된다.
따라서, 컨텐츠 옵션들(310)은 비디오 프로세싱 유닛(302) 내에 적어도 일시적으로 저장된다. 하지만, 일반적인 구현들에서, 비디오 프로세싱 유닛(302)은 비디오 프로세싱 유닛(302)의 외부에 있는 소스들로부터의 컨텐츠 옵션들(310)의 적어도 일부에 액세스한다. 컨텐츠 옵션들(310)은 제1 프로그램 스트림 컨텐츠(311), 사진 컨텐츠(312), 음악 컨텐츠(313), 제2 프로그램 스트림 컨텐츠(314), 게임 선택 컨텐츠(315), 인터넷 스트림 컨텐츠(316), 및 이더넷 컨텐츠(317)를 포함한다.
비디오 프로세싱 유닛(302)에 포함된 하드웨어 구성 요소들은 적어도 한 구현에서, 예를 들어 도 1에 설명된 수신 디바이스(100)와 같은 수신 디바이스에 포함되며, 셋톱 박스, 게이트웨이 디바이스, 또는 텔레비전 디스플레이 디바이스에 더 포함된다. 비디오 프로세싱 유닛(302)에 포함된 소프트웨어 구성 요소들은 적어도 한 구현에서, 수신 디바이스 또는 유사 디바이스 내의 메모리에 저장되며, 동일 디바이스 내의 제어기 또는 마이크로프로세서에 의해 실행된다.
원격 태블릿(304) 내의 하드웨어 구성 요소들은 적어도 한 구현에서, 예를 들어 도 2에 설명된 터치 패널 디바이스(200)와 같은 터치 스크린 디스플레이 또는 태블릿에 포함된다. 본 시스템의 메인 소프트웨어 요소들이, 주로 신호 인터페이스를 원격 태블릿 기능들에 맡기는 메인 비디오 프로세싱 유닛 내에 저장되고 이 메인 비디오 프로세싱 유닛에서 실행되도록 의도된다는 것에 주목하는 것은 중요하다. 즉, 원격 태블릿은 다양한 구현들에서, 많은 기능들을 수행하지 않는다. 오히려, 본 시스템에 대한 대부분의 기능들은 메인 비디오 프로세싱 유닛에 의해 수행된다.
도 3에서, 컨텐츠(310)은, 예를 들어 기록된 프로그램 스트림들(311 및 314), 음악 컨텐츠(313), 및/또는 인터넷으로부터의 라이브 스트림들(316)과 같은 다양한 형태들로 비디오 프로세싱 유닛(302)에 프리젠팅된다. 비디오 프로세싱 유닛(302)은 제어 블록(320)을 더 포함한다. 비디오 프로세싱 유닛(302)의 제어 블록(320)은 컨텐츠(310)로의 포인터들을 제어한다.
포인터들은 라이브 포인터와, 하나 이상의 큐(cue) 포인터들을 포함한다. 시스템(300)에서는, 4개의 큐 포인터들이 존재하며, 도 4는 큐 포인터(1)로 지칭되는 제1 큐 포인터와, 큐 포인터(4)로 지칭되는 제4 큐 포인터를 도시한다. 라이브 포인터는 시청자에 대한 중간 디스플레이 또는 프리젠테이션을 위해 의도된 컨텐츠를 판독 및 디스플레이하도록 사용된다. 큐 포인터들은 도 4의 아랫부분에 시뮬레이션으로 표현된 프레임을 구성하는 컨텐츠를 나타낸다. 비디오 프로세싱 유닛(302)은 포인터 제어 라인(322)을 포함한다. 포인터 제어 라인(322)은 제어 블록(320)에 의해 제어되며, 비디오 프로세싱 유닛(302)에서 사용된 다양한 포인터들을 제어한다. 각각의 이들 포인터들과, 포인터들의 제어는 아래에 더 설명될 것이다.
비디오 프로세싱 유닛(302)은 제어 블록(320)에 연결된 실시간 클록(324)을 더 포함한다. 실시간 클록(324)은 추후에 설명되는 바와 같이, 이벤트들을 동기화하도록 사용된다.
비디오 프로세싱 유닛(302)은 라이브 디스플레이 프레임 빌더(330)와, 디스플레이 및 오디오 인터페이스(335)를 추가적으로 포함한다. 라이브 디스플레이 프레임 빌더(330)는 시청자에게 디스플레이하기 위한 프레임들을 구축하고, 이들 프레임들, 및 관련된 오디오를 디스플레이 및 오디오 인터페이스(335)에 제공한다. 디스플레이 및 오디오 인터페이스(335)는, 예를 들어 텔레비전 또는 컴퓨터와 같은 프리젠테이션 디바이스(도시되지 않음)에 출력 비디오 및 오디오를 제공한다. 라이브 디스플레이 프레임 빌더(330)는 시청자에게 프리젠팅될 컨텐츠의 위치를 가리키기 위해 라이브 포인터를 사용한다.
비디오 프로세싱 유닛(302)은 디스크 자키 ("DJ") 시뮬레이션 프레임 빌더(340)를 더 포함한다. 태블릿 시뮬레이션 프레임 빌더(340)는 사용자가 다양한 이용 가능한 컨텐츠 소스들을 큐잉 또는 시퀀싱하도록 허용하는 큐잉 프레임을 생성한다. 따라서, 사용자는 라이브 디스플레이 프레임 빌더(330)에 의해 빌딩되는 라이브 디스플레이를 위한 프리젠테이션 시간라인을 구축할 수 있다. 태블릿 시뮬레이션 프레임 빌더(340)는 큐잉 프레임을 빌딩하기 위해 4개의 큐 포인터들을 사용한다. 4개의 큐 포인터들은 아래에 설명되는 바와 같이, 원격 태블릿(304)의 사용자에 의해 조정될 수 있다.
태블릿 시뮬레이션 프레임 빌더(340)의 특정 구현은 도 4를 참조하여 설명될 것이다(도 4는 본 어플리케이션의 어딘가에 보다 상세하게 설명됨). 태블릿 시뮬레이션 프레임 빌더(340)의 구현은 컨텐츠의 다양한 스트림들 또는 파일들로의 오디오 및 비디오 포인터들(보다 일반적으로 매체 포인터들로 지칭됨)을 사용한다. 이들 포인터들은, 예를 들어 프로그램 제목들 및/또는 매체 시간 스탬프들을 지시한다. 특정 구현들에서, 매체 포인터는 매체 제목과, 프로그램 카운터나 또는 프로그램 시간 스탬프 레퍼런스를 포함한다. 보다 일반적으로, 매체 포인터는 매체 소스 지시기, 및 매체 소스 내의 위치의 식별자를 전형적으로 포함한다.
이들 포인터들은 컨텐츠, 및/또는 비디오/오디오 컨텐츠의 프레임들을 일반적으로 한정한다. 비디오 컨텐츠는 보다 작은 프레임 해상도(resolution) 및 사이즈로 트랜스코딩된다. 트랜스코딩된 컨텐츠는 도 4에 도시되는 바와 같이, 시간라인들 및 다른 이미지들 및 제어 아이콘들을 일반적으로 포함하는 합성 이미지(composite image)로 어셈블링된다. 이러한 합성 이미지는 또한 제어 프레임, 및/또는 일련의 합성 이미지들(제어 프레임들)이라고도 지칭되며, 이는 보다 낮은 비트 전송률로 인코딩되고, 원격 태블릿(304)에 디지털 전송된다.
한 예시로서, 특정 합성 이미지 또는 제어 프레임(디스플레이 평면이라고도 지칭됨)은 도 4에 도시되는 바와 같이, 픽셀들의 720x480 블록으로 이루어진다. 제스쳐 테이블{(430)을 참조} 및 도 4의 다른 정적 부분들은 다양한 변하는 이미지들{(402, 404, 406, 및 408)을 참조}이 추가된 저장된 변하지 않는 픽셀 맵의 부분이다. 디스플레이 평면의 이미지 부분들{(402, 404, 406, 및 408)을 참조}은 특정 스트림 위치들 또는 정적 매체로부터의 이미지들로 이루어진다. 이들 이미지들 각각{(402, 404, 406, 및 408)을 참조}은, 예를 들어 적절한 디스플레이 평면 윈도우{(402, 404, 406, 및 408)을 참조}에 맞추어지도록, 예를 들어 180x120 픽셀들의 이미지 사이즈로 트랜스코딩된 픽셀들의 720x480 블록으로부터 생성된다. 비디오 프로세싱 유닛(302)은 사용자-제공된 제스쳐 명령들로부터의 다양한 시간라인들을 구축한다. 정적 부분들, 이미지 윈도우들{(402, 404, 406, 및 408)을 참조}, 및 다양한 시간라인들은 비디오 프로세싱 유닛(302)에 의해 합성 이미지로 어셈블링된다. 비디오 프로세싱 유닛(302)은 또한 다양한 시간라인들에 따라, 사용자에게 프리젠테이션하기 위해 매체의 결과적인 시퀀스를 구축한다.
이러한 합성 디스플레이 평면은, 이후 적어도 한 구현에서, MPEG 인코딩되며, 원격 태블릿(304)에 전자적으로 전송된다. 따라서, 이러한 구현들에서, 비디오 프로세싱 유닛(302)으로부터 원격 태블릿(304)로의 데이터 전달만이 감소된 비트 전송률 및 감소된 프레임률 비디오/오디오 데이터 시퀀스이다. 또한, 원격 태블릿(304)로부터의 버튼 가압 및 디지털 인코딩된 제스쳐들은 제어를 더 한정하기 위해 비디오 프로세싱 유닛(302)에 디지털 전송된다.
큐잉 프레임 또는 시퀀싱 프레임은 디스플레이 평면으로도 지칭된다. 도 3은 디스플레이 평면의 한 예시를 도시하는 디스플레이 평면(342)을 포함한다.
도 4를 참조해보면, 디스플레이 평면의 다른 예시가 제공된다. 도 4는 4개의 컨텐츠 윈도우: 제1 컨텐츠 소스 A를 위한 윈도우(402), 제2 컨텐츠 소스 B를 위한 윈도우(404), 라이브 컨텐츠 소스를 위한 윈도우(406), 및 빌드 컨텐츠 소스를 위한 윈도우(408)를 포함하는 디스플레이 평면(400)을 포함한다. 윈도우(402)는, 예를 들어 제1 큐 포인터에 의해 지시된 컨텐츠를 디스플레이한다. 윈도우(404)는, 예를 들어 제2 큐 포인터에 의해 지시된 컨텐츠를 디스플레이한다. 윈도우(406)는, 예를 들어 라이브 시퀀스를 지시하는 제3 큐 포인터에 의해 지시된 컨텐츠를 디스플레이한다. 윈도우(408)는, 예를 들어 사용자에 의해 빌딩되는 시퀀스를 지시하는 제4 큐 포인터에 의해 지시된 컨텐츠를 디스플레이한다. 이들 4개의 큐 포인터들은 도 3에 도시되며, 태블릿 시뮬레이션 프레임 빌더(340)에 의해 사용된다.
라이브 컨텐츠를 위한 큐 포인터(예를 들어, 앞서 식별된 제3 큐 포인터)가 라이브 디스플레이 프레임 빌더(330)를 사용하여, 시청자에게 도시될 또는 도시된 시퀀스를 지시한다는 것에 주목한다. 반대로, 빌드 시퀀스를 위한 큐 포인터(예를 들어, 앞서 식별된 제4 큐 포인터)는 빌딩될 시퀀스를 지시한다. 빌드 시퀀스는 아래에 더 설명되는 바와 같이, 라이브 시퀀스로 복사될 수 있다. 따라서, 많은 구현들에서, 라이브 시퀀스는 이전 버전의 빌드 시퀀스이다.
따라서, 종래의 기술에서 보편적인 바와 같이, 사용자는 다양한 컨텐츠를 사용하여 다음 5분(1 내지 5분)에 대한 컨텐츠를 제공하는 빌드 시퀀스를 구축할 수 있으며, 이 빌드 시퀀스를 라이브 시퀀스에 복사할 수 있다. 이후, 비디오 프로세싱 유닛(302)은 1 내지 5분 동안, 빌딩된 시퀀스를 계속 재생시킬 것이다. 그 동안, 사용자는 다음 10분(6 내지 15분)에 대한 컨텐츠를 제공하는 새로운 "빌드 시퀀스"를 계속 빌딩할 수 있다. 사용자는 이후, 새로운 빌드 시퀀스(6 내지 15분)를 라이브 시퀀스에 복사할 수 있다. 이후, 비디오 프로세싱 유닛(302)은 "오래된" 빌드 시퀀스(1 내지 5분 동안)를 재생한 이후에, 새로운 빌드 시퀀스(6 내지 15분 동안)를 계속 재생할 것이다.
또한, 라이브 컨텐츠를 위한 큐 포인터와 라이브 포인터는 모두 라이브 컨텐츠를 지시한다는 것에 주목한다. 하지만, 라이브 포인터는 시청자에 대한 프리젠테이션의 현재 상태에 의해 결정된다. 반대로, 디스플레이 평면과 상호 작용하며, 예를 들어 라이브 시퀀스의 나중 부분을 보는 것을 원하는 사용자에 의해, 라이브 컨텐츠로의 큐 포인터가 결정된다.
디스플레이 평면(400)에 대한 추가적인 논의는 아래에 더 제공된다. 이러한 논의는 원격 태블릿(304)에 대한 논의라는 상황하에서 일어난다.
도 3을 다시 참조해보면, 비디오 프로세싱 유닛(302)은 인코더(344)를 포함한다. 인코더(344)는, 예를 들어 하이퍼텍스트 마크업 랭귀지("HTML") 또는 MPEG 인코딩, 또는 이들 모두를 사용하여, 디스플레이 평면을 인코딩한다. 특히, 한 구현은 HTML의 버전 5를 사용한다. 인코더(344)는, 예를 들어 HTML5 래퍼(wrapper), MPEG 인코더, 또는 데이터 압축을 위해 설계된 다른 인코딩 방법이다.
비디오 프로세싱 유닛(302)은 또한 이중(duplex) 무선 인터페이스(346), 또는 일부 다른 통신 메커니즘, 및 안테나(348)를 포함한다. 이중 무선 인터페이스(346)는 통신 매체(306)를 통해, 안테나(348)를 거쳐, 인코딩된 디스플레이 평면을 송신한다.
원격 태블릿은 안테나(350)와 이중 무선 인터페이스(355), 또는 다른 통신 메커니즘을 포함한다. 원격 태블릿(304)의 이중 무선 인터페이스(355)는 다양한 구현들에서, 비디오 프로세싱 유닛(302)의 이중 무선 인터페이스(346)와 동일하다. 하지만, 다른 구현들에서 이중 무선 인터페이스(355)는 이중 무선 인터페이스(346)와는 상이하다.
작동에 있어서, 원격 태블릿(304)의 전형적인 구현들은 안테나(350)와 이중 무선 인터페이스(355)를 통해, 전달된 디스플레이 평면을 수신한다. 원격 태블릿(304)은 제어 블록(360)과 디코더(365)를 더 포함한다. 이중 무선 인터페이스(355)는 수신된 디스플레이 평면을, 제어 블록(360)과 디코더(365)에 제공한다. 하지만, 다른 구현들은 제어 블록(360)과 이중 무선 인터페이스(355) 사이의 연결을 생략한다.
원격 태블릿(304)은 또한 디코딩된 디스플레이 평면(375)을 디스플레이할 수 있는, 그리고 이를 디스플레이하도록 구성된 터치 스크린(370)을 포함한다. 디코더(365)는 디코딩된 디스플레이 평면(375)을 생성하며, 사용자에게 프리젠테이션하기 위해 이를 터치 스크린(370)에 제공한다. 제어 블록(360)은 아래의 추가적인 적어도 하나의 구현에서 설명되는 바와 같이, 핸드 제스쳐들 또는 사용자로부터의 다른 입력을 수신 및 분석(resolve)하도록, 터치 스크린(370)에 통신 연결된다.
도 4를 다시 참조해보면, 4개의 윈도우들(402 내지 408)이 앞서 논의되었다. 디스플레이 평면(400)은 컨텐츠 선택 섹션(410), 제스쳐 키(430), 시간라인 섹션(450), 및 툴 섹션(490)을 더 포함한다.
컨텐츠 선택 섹션(410)은, 예를 들어 빌드 시퀀스에 액세스 및 통합될 수 있는 다양한 단편(pieces)의 컨텐츠에 대한 썸네일 스케치(thumbnail sketches)를 포함한다. 도 4는 8개의 컨텐츠 항목들(411 내지 418)을 도시하며, 그 이상은, 예를 들어 스크롤링함으로써 가능하다.
제스쳐 키(430)는 컨텐츠를 조작하도록 사용될 수 있는 다양한 제스쳐들을 식별한다. 도 4는 붙여넣기 및 스크럽 제스쳐(paste and scrub gesture, 431), 선택 및 스크럽 제스쳐(select and scrub gesture, 432), 플릭 제스쳐(flick gesture, 433), 삭제 제스쳐(delete gesture, 434), 선택 라이브 제스쳐(select live gesture, 435), 복사 제스쳐(copy gesture, 436), 스크럽 제스쳐(scrub gesture, 437), 두 손가락 확대 제스쳐(two finger expand gesture, 438), 및 두 손가락 붕괴 제스쳐(two finger collapse gesture, 439)를 포함하는 9개의 제스쳐들을 도시한다. 이들 제스쳐들은 아래에서 더 설명될 것이다.
시간라인 섹션(450)은 라이브 시퀀스 시간라인(451), A 소스 시간라인(452), B 소스 시간라인(453), 및 빌드 시퀀스 시간라인(454)을 포함한다. 도 4는 시간라인들(451 내지 454)에 따라 컨텐츠 큐잉을 수행하기 위한 제스쳐들의 사용에 대한 예시를 도시한다.
원격 태블릿(304)을 작동시키는 호스트 사용자는 어떤 작동이 수행되는지를 나타내기 위해 원격 태블릿 상의 핸드 제스쳐들을 사용할 수 있다. 작동들은, 예를 들어: (i)프레임 시퀀스를 검토하기, (ⅱ)한 시간라인에서 다른 시간라인으로 시퀀스를 선택, 복사, 및 붙여넣기, (ⅲ)시간라인으로부터 시퀀스를 선택 및 삭제하기, 및 (ⅳ)한 시간라인으로부터 다른 시간라인으로 시퀀스의 오디오 부분만을 선택 및 복사하기를 포함할 수 있다. 이들 제스쳐들은 디지털 해석되어, 원격 태블릿(304)으로부터 비디오 프로세싱 유닛(302)으로 다시 전송되며, 비디오 프로세싱 유닛(302)에서 제스쳐들은 라이브 매체 포인터 위치를 변경할 뿐만 아니라, 원격 태블릿(304)을 위한 시퀀스를 생성하도록 사용된다. 앞서 주목된 바와 같이, 실시간 클록(324)은 이벤트들을 동기화하도록 사용된다.
디스플레이 평면(400)의 제스쳐 키 섹션(430)에 도시된 제스쳐들(431 내지 439)이 이제 설명될 것이다. 제스쳐들(431 내지 439)은, 예를 들어:
- (i)터치 스크린상에서 손가락을 이용한 쇼트 탭(short tap). 쇼트 탭은 "도트(dot)"로 지칭되며, 제스쳐 키(430) 내의, 그리고 디스플레이 평면(400) 내의 어딘가에 원으로 표현된다.
- (ⅱ)터치 스크린상에서 손가락을 이용한 롱 탭(long tap)으로서, 쇼트 탭에 비해 손가락이 터치 스크린상에 더 오래 거주하는 탭인, 롱 탭. 롱 탭은 "대시(dash)"로 지칭되며, 제스쳐 키(430) 내의, 그리고 디스플레이 평면(400) 내의 어딘가에 길다란 수평의 타원으로 표현된다.
- (ⅲ)"도트" 또는 "대시" 이후에, 터치 스크린 상에서의 손가락 이동. 이들은 제스쳐 키(430) 내에서 화살촉을 갖는 가느다란 라인들로 표현된다. 화살촉의 방향은 손가락 이동의 방향을 나타낸다. 이동은 일반적으로 하나 이상의 많은 상이한 방향들로 이루어질 수 있다.
제스쳐 키(430)에 도시된 각각의 제스쳐들은 이제 앞의 기초적인 작동들을 참조하여 설명된다:
- (i)스크럽: 스크러빙은 일반적으로 스크롤링을 말하며, 그렇지 않으면, 컨텐츠의 단편에 걸쳐 이동하는 것을 말한다. 스크러빙은, 예를 들어 사용자에게 컨텐츠를 시청 또는 컨텐츠를 수동 검색하기 위한 메커니즘을 제공한다. 스크럽은 롱 탭에 의해, 그리고 이후 손가락을 들어올리지 않고, 원하는 스크롤링의 방향으로 손가락을 이동시킴으로써 개시된다.
- (ⅱ) 붙여넣기 & 스크럽(Paste & Scrub): 사용자는, 이전에 복사된 컨텐츠를 붙여넣기하고 싶어하는 영역을 "쇼트 탭"한다. 이후, 사용자는 손가락을 들어올리지 않고, 제스쳐가 붙여넣기 및 스크럽을 위한 것임을 나타내도록 짧은 거리만큼 손가락을 아래로 이동시킨다. 이후, 사용자는 손가락을 들어올리지 않고, 원하는 붙여넣기의 영역을 나타내도록, 손가락을 좌 또는 우로 이동시킨다. 예를 들어, 사용자는 컨텐츠를 빌드 시퀀스 시간라인(454)에 붙여넣기하고 싶어하기 때문에, 빌드 시퀀스 시간라인(454)의 일부분을 탭한다. 이후, 사용자는 손가락을 아래로 이동시킨 다음, 빌드 시퀀스 시간라인(454) 상에 원하는 붙여넣기의 위치를 나타내도록, 손가락을 좌 또는 우로 이동시킨다. 원하는 붙여넣기 위치가 발견되면, 사용자는 손가락을 들어올리고, 컨텐츠는 붙여넣어진다.
이러한 사용자의 손가락의 좌/우 이동은 이러한 제스쳐의 "스크럽" 부분으로 지칭된다. 많은 어플리케이션들에 있어서, 사용자는, 예를 들어 시간라인에 존재하는 컨텐츠의 단편을 빈번하게 스크러빙한다. 이러한 스크럽 동안, 사용자의 손가락은 시간라인 상의 상이한 지점들을 횡단한다. 이러한 횡단 동안, 시간라인에 대한 윈도우는 일반적으로 컨텐츠의 단편에 대한 비디오를 디스플레이한다. 디스플레이된 비디오는, 임의의 주어진 순간에 사용자의 손가락이 지시하는 시간 지점에 상응하도록 (앞으로 또는 뒤로) 이동한다.
이전에 복사된 컨텐츠는 일반적으로 고정된 기간을 갖는다. 따라서, 다양한 구현들에서, 사용자는 붙여넣기의 시작 위치(또는 대안적인 구현에서는, 종료 위치)만을 식별한다. 게다가, 붙여넣기 명령들은 다양한 구현들에서, 삽입하기 또는 덮어쓰기로 실행되거나, 또는 붙여넣기가 삽입하기인지 또는 덮어쓰기인지를 사용자가 구체화하는 것을 가능하게 한다.
붙여넣기 명령들은 상이한 구현들에서 다양한 방식으로 구현된다. 예를 들어, 특정 구현들에서, 선택된 컨텐츠는 "드래그" 제스쳐를 이용하여 이를 원하는 위치로 드래깅함으로써 붙여넣어진다. 드래그 제스쳐는 다양한 구현들에서, 쇼트 탭 이후에, 손가락을 원하는 위치로 이동시킴으로써 수행된다.
붙여넣어진 컨텐츠는 다양하고 상이한 항목들일 수 있다. 예를 들어, 붙여넣어진 컨텐츠는 다양한 어플리케이션에서, 컨텐츠 썸네일들(411 내지 418) 중 하나, 시간라인들(451 내지 454) 중 하나의 섹션, 또는 전체의 시간라인이다.
- (ⅲ)선택 & 스크럽: 사용자는 자신이 컨텐츠를 선택하고 싶은 영역을 "쇼트 탭"한다. 이후, 사용자는 손가락을 들어올리지 않고, 제스쳐가 선택 및 스크럽을 위한 것임을 나타내도록 짧은 거리만큼 손가락을 위로 이동시킨다. 이후, 사용자는 손가락을 들어올리지 않고, 사용자가 선택하고 싶어하는 컨텐츠의 한 종료지점을 나타내도록 손가락을 좌 또는 우로 이동시킨다. 예를 들어, 사용자는 A 소스 시간라인(452) 내의 컨텐츠를 선택하고 싶어하기 때문에, A 소스 시간라인(452)의 일부분을 탭한다. 그 다음에, 사용자는 손가락을 위로 이동시킨 다음에, 사용자가 A 소스 시간라인(452)에서 선택하고 싶어하는 컨텐츠의 제1 종료지점을 나타내도록 손가락을 좌 또는 우로 이동시킨다. 제1 종료지점을 선택하는 것은 펀칭-인(punching-in) 또는 펀치-인으로 지칭된다.
한 종료지점을 선택한 이후에, 사용자는 제2 종료지점을 선택한다. 제2 종료지점을 선택하는 것은 펀칭-아웃(punching-out) 또는 펀치-아웃으로 지칭된다. 제2 종료지점을 선택하기 위해, 사용자는 제1 종료지점을 선택한 이후에 손가락을 들어올리고, 동일 컨텐츠 영역을 다시 쇼트 탭하며, 원하는 제2 종료지점을 찾기 위해 스크럽(좌 또는 우로 이동)하고, 손가락을 들어올린다. 제2 종료지점이 선택된 이후에, 컨텐츠의 단편은 선택된다. 많은 어플리케이션들에서, 선택된 컨텐츠는, 예를 들어 색깔을 변경시키는 것과 같이, 어느 정도 외관을 변경시킨다.
사용자는 일반적으로 "선택 및 스크럽"을 수행한 이후에 다른 제스쳐를 수행할 것이다. 예를 들어, "붙여넣기 및 스크럽" 제스쳐, "플릭" 제스쳐, "삭제" 제스쳐, 또는 "복사" 제스쳐는 종종 "선택 및 스크럽" 제스쳐 이후에 수행된다.
선택된 컨텐츠는 다양하고 상이한 항목들일 수 있다. 예를 들어, 선택된 컨텐츠는 다양한 어플리케이션들에서, 컨텐츠 썸네일들(411 내지 418) 중 하나, 시간라인들(451 내지 454) 중 하나의 섹션, 또는 전체의 시간라인이다.
따라서, 그리고 예시로서, 선택 및 스크럽 제스쳐는 삭제, 복사, 또는 이동을 위한 시퀀스의 시작 및 종료 지점들을 설정하기 위한 메커니즘을 제공한다. 스크럽은 적절한 선택 위치를 정확히 지적(pinpoint)하기 위해, 컨텐츠 내에서 앞뒤로 이동하는 것을 허용한다. 다양한 구현들에서, 선택 지점 컨텐츠는, 예를 들어 윈도우(402 내지 408) 중 하나와 같은 시청 윈도우에 디스플레이된다.
- (ⅳ)플릭: 사용자는 컨텐츠의 단편에 "쇼트 탭"한다. 이후, 사용자는 손가락을 들어올리지 않고, 한 방향으로 손가락을 이동시킨다. 이 방향은 사용자가 컨텐츠의 단편을 이동시키고 싶어하는 방향을 나타낸다. 이동된 컨텐츠의 초기 스피드는 릴리스(release) 이전에 손가락의 스피드에 의해 결정된다. 컨텐츠는 모멘텀(momentum)을 가질 것으로 생각되며, 시뮬레이팅된 저항(resistance)에 응답하여 스피드를 늦춘다. 한 어플리케이션에서, 사용자는 선택된 컨텐츠의 단편을 오른쪽으로 플릭킹하여, 시간라인 상에서 나중에 이를 이동시킨다. 다른 어플리케이션에서, 사용자는 컨텐츠 썸네일들(411 내지 418) 중 하나를 윈도우들(402 내지 408) 중 하나로 플릭킹한다. 또 다른 어플리케이션에서, 사용자는 컨텐츠 썸네일들(411 내지 418) 중 하나를 시간라인들(451 내지 454) 중 하나로 플릭킹한다. 많은 어플리케이션들에서, 이동 스피드(플릭의 스피드)는 플릭킹된 항목이 이동된 거리를 나타낸다.
- (ⅴ)삭제: 사용자는 항목이 삭제될 것임을 결정한다. 이후, 사용자는 항목의 동일 위치에서 두 번의 "쇼트 탭"과 한 번의 "롱 탭"을 연속하여 빠르게 수행한다. 삭제된 항목/컨텐츠는 다양하고 상이한 항목들일 수 있다. 예를 들어, 삭제된 컨텐츠는 다양한 어플리케이션들에서, 컨텐츠 썸네일들(411 내지 418) 중 하나, 시간라인들(402 내지 408) 중 하나의 섹션, 또는 전체의 시간라인이다. 삭제는 종종 "선택 및 스크럽" 제스쳐를 수행한 이후에 수행된다.
다양한 구현들에서, 삭제 작동은 시간라인에 상이한 영향을 끼친다. 특정 구현들에서, 시간라인의 선택된 섹션을 삭제한 이후에, 오른쪽으로의 (시간상 나중의) 컨텐츠는 삭제된 컨텐츠를 대체하기 위해, 왼쪽으로 (시간상 거꾸로) 자동 이동된다. 이는 블록들의 스택으로부터 블록을 제거하는 것과 같으며, 블록들의 스택에서 모든 높은 블록들은 제거된 블록에 의해 생성된 홀을 채우기 위해 시프트 다운된다. 다른 구현들에서, 시간라인의 삭제된 섹션은 단순히 블랙(black)으로 덮어씌워진다. 이들 구현들에서, "이동" 제스쳐는 일반적으로, 사용자가 삭제된 섹션의 왼쪽(또는 오른쪽)으로부터 컨텐츠를 선택 및 이동시키고, 홀을 채우기 위해 시간라인의 해당 사이드를 이동시키는 것을 허용하도록 제공된다.
- (ⅵ)선택 라이브(select live): 사용자는 라이브 시간라인이 다른 컨텐츠 소스로 변경될 것임을 결정한다. 사용자는 컨텐츠를 쇼트 탭한 이후, 컨텐츠를 롱 탭하고, 컨텐츠를 다시 쇼트 탭한다. 이는 컨텐츠에 도트, 대시, 도트를 수행하는 것으로 지칭된다. 사용자는 다양한 구현들에서, 예를 들어 컨텐츠 썸네일들(411 내지 418) 중 하나, 윈도우들(402 내지 408) 중 하나, 또는 시간라인들(451 내지 454) 중 하나를 포함하는 다양한 항목들에 대해 "선택 라이브" 제스쳐를 수행할 수 있다.
"선택 라이브" 제스쳐는 사용자(호스트)가 시청자를 위해 컨텐츠를 수정하기 위한 빠른 메커니즘을 제공한다. 한 시나리오에서, 시청자는 풋볼 게임을 시청 중이며, 사용자는 홈 비디오를 A 소스 시간라인(452)으로 가져왔다. 사용자는 풋볼 게임 동안 광고가 시작되었음을 알아차리고, A 소스 시간라인(452)에서 "선택 라이브"를 수행한다. 사용자는 또한 풋볼 게임을 B 소스 시간라인(453)으로 가져오며{대안적인 구현에서, 원격 태블릿(304) 시스템 소프트웨어는 이러한 작동을 자동으로 수행하도록 구성됨}, 따라서 풋볼 게임은 컨텐츠 소스 B에 대해 윈도우(404)에 디스플레이된다. 사용자는 윈도우(404)에서 광고가 끝나고 풋볼 게임이 재개되었음을 알아차리며, 이후 사용자는 윈도우(404)에서 "선택 라이브"를 수행한다.
- (ⅶ)복사: 사용자는 항목이 복사될 것임을 결정한다. 사용자는, 예를 들어 복사된 컨텐츠를 다른 위치에 붙여넣기, 컨텐츠를 삭제하기, 또는 컨텐츠를 플릭킹하기와 같은 다른 제스쳐를 추후에 수행하기 위해, 컨텐츠를 복사할 수 있다. 컨텐츠를 복사하기 위해, 사용자는 항목의 동일한 위치에서 "쇼트 탭"과 "롱 탭"을 연속하여 빠르게 수행한다. 많은 어플리케이션들에서, 복사된 컨텐츠는, 예를 들어 색깔을 변경하는 것과 같이, 어느 정도 외관을 변경한다.
- (ⅷ)두 손가락 확대: 사용자는 항목이 확대될 것임을 결정한다. 예를 들어, 사용자는 빌드 시퀀스 시간라인(454) 상의 시간 스케일이 너무 단축되었음(compressed)을 결정한다. 사용자는 두 손가락을 함께 가깝도록 유지하며, 확대될 지점의 시간라인에 두 손가락을 동시에 놓는다. 이후, 사용자는 원하는 확대의 방향으로 서로 떨어지도록 두 손가락을 동시에 이동시킨다.
- (ⅸ)두 손가락 붕괴(Two Finger Collapse): 사용자는 항목이 붕괴될 것임을 결정한다. 예를 들어, 사용자는 빌드 시퀀스 시간라인(454) 상의 시간 스케일이 단축될 것임을 결정한다. 사용자는 이 제스쳐를 수행하기 위해 두 손가락을 동시에 사용한다. 사용자는 두 손가락을 서로 이격되도록 붕괴될 구역의 시간라인에 동시에 놓는다. 이후, 사용자는 두 손가락을 서로를 향해 동시에 이동시킨다.
앞서 설명된 제스쳐들은 예시적일뿐이며, 포괄하는 것으로 의도되지 않는다. 다양한 구현들은 앞의 제스쳐들의 일부분만을 사용하고/하거나, 추가적인 제스쳐들을 사용한다. 예를 들어, 특정 구현들은: (i)특정 윈도우를 선택하기, (ⅱ)특정 윈도우에 도시된 시간을 선택하기, (ⅲ)오디오가 원격 태블릿(304)에서 재생될 윈도우를 선택하기, 또는 (ⅳ)정상 속도로, 또는 실시간의 여러 배수로 재생(포워드 또는 리버스)하기, 중지하기, 끝부분으로 건너뛰기, 시작부분으로 건너뛰기, 또는 특정 윈도우를 위한 다른 보편적인 명령들 중 하나 이상에 대한 제스쳐들을 포함한다. 추가적으로, 다른 구현들은 두 개 이상의 손가락을 수반하고/하거나 다른 이동을 수반하는 제스쳐들을 포함한다.
또한, 다른 제스쳐들은 디스플레이 평면의 버튼들 또는 다른 그래픽들을 참조하여 한정된다. 예를 들어, 디스플레이 평면(400)은 각각의 윈도우들(402 내지 408)에 그래픽 바(483)를 포함한다. 그래픽 바(483)는 윈도우들(406 및 408)에서 확대되며, 윈도우들(402 및 404)에서 붕괴된다. 그래픽 바(483)는 포워드 재생, 리버스 재생, 포워드 패스트 재생, 리버스 패스트 재생, 음량 증가, 음량 감소, 및 음소거를 포함하는 많은 보편적인 명령들을 위한 버튼들을 포함한다. 그래픽 바(483)는 또한 프로그램 시간을 나타내기 위한 정보 심볼들 및 프레임률 인디케이터를 포함한다. 예를 들어, 버튼들 중 하나에 쇼트 탭을 수행함으로써, 사용자는 비디오 프로세싱 유닛(302)에 명령할 수 있다.
제어 블록(360)은 사용자로부터 제스쳐들을 수신하기 위해 터치 스크린(370)을 모니터링한다. 터치 스크린(370)이 터치되면, 제어 블록(360)은 제스쳐의 위치와, 어떤 제스쳐가 수행되었는지를 결정하도록 터치를 분석한다. 제스쳐가 결정된 이후에, 제어 블록(360)은 제스쳐 식별자와 제스쳐 위치를 결정하고, 제스쳐 식별자와 제스쳐 위치 모두를 인코딩한다.
제어 블록(360)은 특정 구현들에서, 제스쳐들이 수행된 순서대로 제스쳐들의 기초적인 작동들을 식별함으로써 제스쳐를 결정한다. 이후, 제어 블록(360)은 이들 작동들을, 이용 가능한 한정된 제스쳐들의 작동들에 대해 매칭시킴으로써, 제스쳐를 결정한다. 제스쳐가 결정된 이후에, 제스쳐는 특정 구현들에서, 제스쳐 번호와 결합된다. 제스쳐 번호는 특정 구현들에서, 제스쳐 식별자이다. 다른 구현들에서, 제스쳐 번호는 제스쳐 식별자로서 사용된 비트 시퀀스를 결정하기 위한 테이블에 대한 색인으로 사용된다. 특정 구현들에서 테이블 룩-업(table look-up)은 각 제스쳐 번호에 해당하는 일정한 비트 전송률 또는 가변성의 비트 전송률 비트 시퀀스를 제공한다. 8과 16 제스쳐들 사이에 존재하는 한 구현에서, 간단하고 일정한 비트 전송률 코드는 각 제스쳐에 4개의 비트들을 할당할 것이다.
제스쳐 위치는 제스쳐가 수신된 터치 스크린(370) 상의 위치를 지칭한다. 일반적인 구현들은 제스쳐 위치의 (x, y) 좌표를 제공한다. 하지만, 특정 제스쳐들은 하나 이상의 (x, y) 좌표를 요구한다. 예를 들어, 손가락 이동이 검출되면, 제어 블록(360)은 또한 손가락 이동에 대한 한도(extent), 및 필요하다면, 손가락 이동 스피드의 지시를 결정한다. 이러한 위치 정보는 몇몇의 알려진 방식들로 표현될 수 있다. 다양한 대안의 구현들에서, 제스쳐들은, 예를 들어 자이로스코픽 마우스 트랜듀서와 같은 자이로스코픽 트랜듀서를 이용하여, 또는 움직임 감지 가속도계 디바이스(motion sensing accelerometer device)를 이용하여 통신된다.
인코딩된 정보는 제어 블록(360)에 의해 이중 무선 인터페이스(355)에 제공된다. 이중 무선 인터페이스(355)는 안테나(350)를 사용하여 인코딩된 제스쳐 정보를 비디오 프로세싱 유닛(302)에 전달한다.
확인될 수 있듯이, 원격 태블릿(304)에 대한 많은 구현들은 저-대역폭이라고도 지칭되는 낮은 데이터 전송률, 및 원격 태블릿(304)으로부터 비디오 프로세싱 유닛(302)으로의 통신을 제공한다. 예를 들어, 제스쳐 식별자와 제스쳐 위치를 전송하도록 요구되는 데이터 전송률은 많은 구현들에서 매우 작다.
도 4를 다시 참조해보면, 툴 섹션(490)은 툴들의 몇 가지 예시들을 포함한다. 예시들은 다음을 포함한다.
- 슬라이드 쇼 버튼(492)에 의해 활성화되는 슬라이드 쇼 툴. 슬라이드 쇼 툴은 슬라이드 쇼를 빌딩하도록 사용되며, 예를 들어 음악 또는 사용자 내레이팅된 오디오(user narrated audio)를 추가하도록 사용된다.
- 음소거 버튼(494)에 의해 활성화되는 음소거 툴. 음소거 툴은, 예를 들어 사용자가 시스템 오디오를 음소거하기 위한 편리한 방식이다.
- 픽-인-픽 버튼(496)에 의해 활성화되는 화상-속-화상("PIP") 툴. PIP 툴은, 예를 들어 PIP 방식으로, 시청자를 위해, 메인 디스플레이 모니터에 두 개 이상의 원격 태블릿 윈도우들(402, 404, 406, 및 408)을 디스플레이하기 위한 것이다.
- "쇼 오디오 트랙" 버튼(498)에 의해 활성화되는 "쇼 오디오 트랙" 툴. "쇼 오디오 트랙" 툴은, 예를 들어 디스플레이된 비디오 시간라인에 오디오 트랙을 오버레이하도록, 그리고/또는 비디오 시간라인을 따라 오디오 트랙을 디스플레이하도록 사용된다.
도 4를 더 참조해보면, 몇몇의 사용자 큐잉(시퀀싱) 작동들이 나타난다. 3개의 시퀀싱 작동들이 이제 설명될 것이다.
제1 사용자 시퀀싱 작동에서, 복사 제스쳐(461)("도트 대시")는 컨텐츠 항목(418) 위에 겹쳐져서 도시된다. 이는 사용자 행위를 나타내며, 디스플레이 평면(400)의 부분은 아니다. 사용자는 컨텐츠 항목(418)을 복사하기 위해, 복사 제스쳐(461)에 지시된 위치에서 복사 제스쳐(461)를 수행한다. 복사된 컨텐츠 항목(418)은 이후 B 소스 시간라인(453)에서의 붙여넣기 및 스크럽 노테이션(462)에 의해 나타내어지는 바와 같이, 붙여넣기 및 스크럽 제스쳐(431)를 이용하여, B 소스 시간라인(453)에 붙여 넣어진다.
도 4는 또한 두 가지의 목적들을 만족시키는 이동 라인(463)을 도시한다. 제1 목적은 복사된 컨텐츠 항목(418)이 붙여넣기 및 스크럽 노테이션(462)을 이용하여 붙여넣어진 컨텐츠라는 것을 나타내기 위한 것이다. 제2 목적은 드래그-앤-드롭 작동을 이용하여 컨텐츠를 붙여넣기 위한 다른 구현을 도시하기 위한 것이다. 드래그-앤-드롭 작동은 드래그-앤-드롭 노테이션(464)에 의해 더 지시된다. 사용자는 아마도 B 소스 시간라인(453) 상의 컨텐츠(418)를 미리 시청한다. 드래그-앤-드롭 작동이 제스쳐 키(430)에 디스플레이되지 않음에 주목한다.
제2 사용자 시퀀싱 작동에서, 사용자는 특정 컨텐츠를 이미 선택하였으며, 이를 A 소스 시간라인(452)에 삽입했다(도시되지 않음). 아마도 컨텐츠를 미리 시청한 이후에, 사용자는 끝지점들을 선택하기 위해 두 개의 "선택 및 스크럽" 제스쳐들(432)을 이용하여 A 소스 시간라인(452)으로부터 컨텐츠를 선택한다. 두 개의 선택 및 스크럽 제스쳐들(432)은 선택 및 스크럽 노테이션(471)과 선택 및 스크럽 노테이션(472)으로 도시된다.
이후, 선택된 컨텐츠는 복사 노테이션(474)으로 도시되는 바와 같이, 복사 제스쳐(436)을 이용하여 복사된다. 복사된 컨텐츠는 붙여넣기 및 스크럽 노테이션(476)으로 도시되는 바와 같이, 붙여넣기 및 스크럽 제스쳐(431)를 이용하여 빌드 시퀀스 시간라인(454)에 붙여넣어진다.
도 4는 또한 두 가지의 목적들을 만족시키는 이동 라인(477)을 도시한다. 제1 목적은 A 소스 시간라인(452)으로부터의 복사된 컨텐츠 항목이 붙여넣기 및 스크럽 노테이션(476)을 이용하여 붙여넣어진 컨텐츠라는 것을 나타내기 위한 것이다. 제2 목적은 드래그-앤-드롭 작동을 이용하여 컨텐츠를 붙여넣기 위한 다른 구현을 예증하기 위한 것이다. 드래그-앤-드롭 작동은 드래그-앤-드롭 노테이션(478)으로 더 지시된다.
제3 사용자 시퀀싱 작동에서, 사용자는 미리 복사된 컨텐츠를 라이브 시퀀싱 시간라인(451)에 붙여넣는다. 라이브 시퀀스 시간라인(451)으로의 붙여넣기는 붙여넣기 및 스크럽 노테이션(481)으로 도시되는 바와 같이, 붙여넣기 및 스크럽 제스쳐(431)를 이용하여 수행된다. 붙여넣어진 컨텐츠는 라이브 시퀀스 시간라인(451) 상에서 라이브 포인터 마크(464)에 의해 나타내어지는 바와 같이, 추후에 더 존재한다.
제4 사용자 시퀀싱 작동에서, 사용자는 선택 라이브 심볼 노테이션(485)에 의해 도시되는 바와 같이, 윈도우(404) 상에서 선택 라이브 제스쳐(435)를 수행한다. "라이브" 시퀀스 시간라인 및 컨텐츠는 "B" 시퀀스 시간라인 및 컨텐츠로 대체된다. 따라서, "라이브" 디스플레이{윈도우(406)}는 "선택" 마크가 놓이는 지점, 또는 어떤 선택 라인/마크도 구체화되지 않는다면, 시퀀스의 시작부에서의 "B" 시퀀스 시간라인(453)에 존재하도록 사용되는 것을 재생할 것이다.
원격 태블릿(304)의 사용자는 비디오 스트림이 시청자에 의해 여전히 시청되는 동안, 컨텐츠를 오프라인으로 조작할 수 있다. 이러한 능력은 시청자를 위해 중단되지 않는 매체 시퀀스를 제공한다. 한 예시는 다음과 같다.
적어도 한 구현에서, 라이브 풋볼 게임은, 예를 들어 개인의 비디오 기록기("PVR") 또는 디지털 비디오 기록기("DVR")로도 지칭되는 개인의 데이터 기록기("PDR")와 같은 사용자의 매체 기록 디바이스에 의해 브로드캐스트 및 기록된다. 동시에 드라마가 브로드캐스트되고, 동일 매체 디바이스는 이러한 프리젠테이션을 기록할 것이다. 몇 분의 프로그램들이 기록 매체의 앞부분에 기록되도록, 프로그램들의 시작 이후에, 일부 시간이 경과하였다. 이는 사용자가 광고와 같은 컨텐츠의 부분들을 제거하게 하고, 제거된 부분을 대신하여, 예를 들어 드라마와 같은 다른 컨텐츠, 또는 공원으로 떠나는 가족 여행과 같은 다른 개인 매체 자료들 삽입하게 한다. 호스트 디바이스{예를 들어, 비디오 프로세싱 유닛(302)}는 풋볼 게임과 같은 이벤트를 약간 지연시켜서, 광고들은 제2 비디오 시퀀스(예를 들어, 영화 드라마 시퀀스)로 네비게이션 및 대체될 수 있다.
대안적으로, 또는 추가적으로 원격 매체 패드 또는 태블릿은 특정 구현들에서, 이벤트의 재생이 터치 스크린 명령을 재개하는 원인이 되도록 셋업된다. 예를 들어, 특정 어플리케이션들에서, 사용자는 시청자의 부분이다. 광고가 발생할 때, 사용자는 시청자가 광고를 시청하고 싶어하는 지의 여부를 결정한다. 시청자가 광고를 시청하고 싶어하지 않는다면, 사용자는 원격 태블릿(304)에 터치 스크린 명령를 제공하고, 비디오 프로세싱 유닛(302)은 부분적으로 미리 기록된 이벤트의 재생을 재개한다.
앞의 많은 구현들에서, 컨텐츠는 메인 비디오 프로세싱 시스템에 큐잉 업되며, 최종 그래픽 디스플레이 평면만이 원격 디스플레이 태블릿에 전송된다. 이는 유리하게도 저-대역폭 통신 요구사항을 프리젠팅한다.
추가적으로, 다양한 구현들은 또한 원격 태블릿(304)으로부터 비디오 프로세싱 유닛(302)으로의 저-대역폭 통신 요구사항을 갖는다. 이는, 예를 들어 보다 일찍 설명된 바와 같이, 제스쳐 정보가 낮은 비트 전송률이기 때문에 발생한다.
도 5를 참조해보면, 하나 이상의 구현들에서 이용 가능한 다양한 컨텐츠가 도시된다. 특정 구현들에서, 도 5의 컨텐츠는 디스플레이 평면(400)의 컨텐츠 선택 섹션(410)에 썸네일들로 제공된다. 도 5에 도시된 실제의 컨텐츠는 다양한 구현들에서, 비디오 프로세싱 유닛(302)에, 및/또는 예를 들어, 로컬 PDR들 또는 다른 로컬 네트워크로 연결된 저장 드라이브들, 및/또는 인터넷-액세스된 웹 사이트들을 포함하는 원격 저장 디바이스들(예를 들어, 클라우드-유형의 저장 디바이스들)에 상주한다. 한 구현에서, 도 5는 비디오 프로세싱 유닛(302) 또는 원격 태블릿(304)에 삽입되는 썸 드라이브(thumb drive) 내의 컨텐츠를 표현한다. 다른 구현에서, 도 5는 비디오 프로세싱 유닛(302)과 무선 통신하는 (예를 들어, 블루투스 연결을 사용하는) 셀 폰으로부터 이용 가능한 컨텐츠를 표현한다.
비디오 프로세싱 유닛(302)의 전형적인 구현들이 이전에 기록된 프로그램들, 및 현재의 라이브 컨텐츠를 저장하는 하드 드라이브와 같은 저장 매체를 포함한다는 것에 주목하는 것은 중요하다. 다양한 구현들의 비디오 프로세싱 유닛(302)은 추가적으로 (i)네트워크로 연결될 수 있으며/있거나, (ⅱ)예를 들어, 메모리 스틱, 추가적인 하드 드라이브들, DVD들, 블루-레이 디스크들, 및/또는 "클라우드" 저장 디바이스들과 같은 매체의 다른 소스들에 연결된다. 예를 들어, (i)사용자의 컨텐츠, (ⅱ)예를 들어, 네트워크 파일 전달 프로토콜("FTP") 서버의 웹사이트들과 같은 다른 소스들로부터 이용 가능한 컨텐츠, (ⅲ)공유된 컨텐츠, (ⅳ)상업적으로 생성된 컨텐츠, 및/또는 (ⅴ)라이브 또는 지연된 프로그래밍을 포함한 다양한 컨텐츠가 이러한 저장 매체에 저장된다.
도 3의 시스템(300)은 또한 앞서 설명된 바와 같이, 이러한 편집 디바이스를 제어하는 무선 원격 액세스 기능을 포함한다. 즉, 원격 태블릿(304)은 시간라인을 편집하기 위해, 비디오 프로세싱 유닛(302)과 무선 원격 통신할 수 있다. 다양한 구현들에서, 전기 및 전자 엔지니어들의 협회("IEEE") 표준 802.11과 같은 수단을 통한 무선 기능이 제공된다. 실제의 편집 대기열들(queues)은 비디오 프로세싱 유닛(302) 메인 디바이스(예를 들어, 셋톱 박스 개인의 비디오 기록기, PVR)에서 수행된다(예를 들어, 디스플레이 시퀀스를 생성하기 위한 수신된 제스쳐 명령들을 프로세싱한다). {예를 들어, 컨텐츠 옵션들(310)로부터의} 두 개 이상의 비디오/오디오 스트림들은 송신을 위해 보다 낮은 비트 전송률로 트랜스코딩되며, 원격 태블릿(304)에 전달된다. 원격 태블릿(304)은 도 4에 예를 들어 도시된 바와 같이, 그래픽 사용자 인터페이스를 갖는다. 자료를 통한 네비게이션, 및 컨텐츠에 대한 시퀀싱 또는 대기열에 넣기(queuing)는, 예를 들어 "조그 셔틀(jog shuttle)"(수동적인 인터페이스의 한 유형) 또는 제스쳐 편집 기능을 갖는 터치 스크린과 함께 성취된다.
원격 FTP 서버 또는 블루 레이 디스크와 같은 매체 소스들은 다중-윈도우 디스플레이 평면을 사용하여 다양한 구현들로 구현 또는 증명된다. 이는, 예를 들어 원격 FTP 서버로부터 또는 블루 레이 디스크로부터의 컨텐츠를 위한 윈도우로서, 디스플레이 평면(400)의 윈도우(402)(컨텐츠 소스 A를 위해 사용되는 것으로 보다 일찍 설명됨)를 사용하여 도시될 수 있다.
이들 소스들로부터의 시퀀스들의 트랜스코딩은 다른 소스들과 함께 수행되며, 디스플레이 평면의 원격 태블릿(304)에 전송된다. 트랜스코딩은 일반적으로 소스의 비트 전송률을 감소시키는 방식으로 인코딩하는 것을 말한다. 다양한 구현들에서, 소스 컨텐츠의 비트 전송률은 적어도 두 개의 방식들로 감소된다.
제1 방식은 표준 비디오 프레임률보다 작은 프레임률로, 그리고/또는 송신 대역폭을 감소시키기 위한 보다 낮은 해상도 비트 전송률로 원격 태블릿(304)에 디스플레이 평면들을 제공하는 것을 포함한다. 예를 들어, 다양한 구현들의 비디오 프로세싱 유닛(302)은 초당 15개의 디스플레이 평면들의 비율로 디스플레이 평면들을 제공한다. 따라서, 윈도우들(402 내지 408)에 제공된 비디오는 초당 단지 15개의 프레임들의 프레임률로 제공된다. 예를 들어, 이는 초당 30개의 프레임들인 표준적인 비율보다 작다.
제2 방식은 데이터를 압축하기 위해 디스플레이 평면들을 인코딩하는 것을 포함한다. 특정 구현들에서, 인코딩은 상당한 비트 감소를 달성하는 손실이 많은 인코딩(lossy encoding)을 사용한다. 손실이 많은 인코딩 메커니즘의 한 예시는 MPEG 인코딩이다.
다양한 다른 구현들에서, 비디오 프로세싱 유닛(302)은 소스들로부터의 시퀀스들을 트랜스코딩하며, 디스플레이 평면을 생성하지 않고, 트랜스코딩된 데이터를 원격 태블릿(304)에 전송한다. 오히려, 원격 태블릿(304)은 원격 태블릿(304)의 프로세싱 기능들을 이용하여, 디스플레이 평면으로의 트랜스코딩된 시퀀스들의 어셈블리를 수행한다.
다양한 구현들에서, 매체 스트림 라벨들 및 비디오/오디오 큐 포인터 시간 스탬프 정보는 비디오 프로세싱 유닛(302)에 의해 보존된다. 이러한 보존(maintenance)은 원격 태블릿(304)으로부터의 제스쳐들 및 시간라인 수정에 의해 생성된 프로그램 스크립팅(scripting)에 따라, 프리젠테이션이 한 매체 이벤트로부터 다른 매체 이벤트로 건너뛰는 것(jump)을 가능하게 한다.
다양한 구현들에서, 라이브 프로그램으로의 매체 삽입은 DVD 플레이어들 및/또는 블루-레이 플레이어들과 같은 디바이스들을 사용하여 발생한다. 다양한 이런한 구현들에서, 디스크 시간 정보가 저장된다. 디스크 시간 정보는 디스크 플레이어 재생 위치를 수립하도록, 그리고 프리젠테이션 시간라인 상의 적절한 지점들에서 매체 컨텐츠 내의 한정된 지점들로부터의 재생을 성취하도록 사용된다. 한 구현에서, 블루-레이 플레이어는 편집 삽입의 지점에서 비디오 프로세싱 유닛(302)에 의해 중지되어서, 편집 지점이 나타날 때, 디스크 재생으로의 솔기없는 전이(seamless transition)가 일어날 수 있다. 다양한 구현들에서, 디스크 플레이어의 제어는 적외선(IR)을 통해 무선으로, 무선 주파수(RF)를 통해 무선으로, 또는 유선 제어에 의해 완성된다.
적어도 한 실시예에서, 원격 태블릿(304)에 전달된 정보만이 트랜스코딩된 디스플레이 평면 및 메타데이터이다. 메타데이터는 시간라인들과 디스플레이 윈도우들에 표현된 개별 매체 컨텐츠의 프로그램명과 시간 스탬프 정보만을 포함한다.
시스템(300)의 전형적인 구현들이 이들 전체가 디스플레이 평면들을 인코딩 및 송신한다는 것에 주목한다. 따라서, 업데이트된 디스플레이 평면을 원격 태블릿(304)에 제공하기 위해, 비디오 프로세싱 유닛(302)은 전체의 디스플레이 평면을 생성, 인코딩, 및 송신한다. 업데이트된 디스플레이 평면은 종종, 예를 들어 단일 윈도우의 컨텐츠와는 단지 상이하다. 다양한 구현들은, 비트들을, 상이한 업데이트된 디스플레이 평면의 부분들에 집중시키는 방식으로 디스플레이 평면을 인코딩하기 위해, MPEG 또는 다른 차별적인 인코딩을 이용한다.
앞서 설명된 다양한 실시예들은 메인 시청 스크린 컨텐츠{예를 들어, 라이브 디스플레이 프레임 빌더(330)에 의해 제공된 컨텐츠}를 큐잉하기 위한 원격의 제2 스크린 태블릿 기능{예를 들어, 원격 태블릿(304)}에 관한 것이다. 몇몇의 사람들이 풋볼 게임과 같은 매체 시청 이벤트에 참여하는 시간 동안, 컨텐츠의 호스트 또는 마스터는 시청 중인 프로그램을 변경하고 싶어할 수도 있다. 프로그램 시청의 변경은 브로드캐스트에서 방영되는 광고 때문일 수 있거나, 또는 파리로의 최근 여행으로부터의 사진들과 같은 컨텐츠를 삽입하고 싶어하는 사용자 때문일 수도 있다. 컨텐츠는 802.11, 블루투스, 가전 제품들을 위한 무선 주파수(RF4CE), 지그비(Zigbee)와 같은 수단에 의해, 또는 썸 드라이브를 통해, 매체를 비디오 프로세싱 유닛에 무선 연결함으로써, 전달 또는 업로드될 수 있다. 호스트 사용자 또는 클라이언트는, 다음 광고가 시작될 때, 또는 대안적으로 사용자가 원하는 또는 식별된 트리거링 이벤트가 시작하는 정해진 시간에(예를 들어, 풋볼 게임의 하프타임에), 원격 태블릿 디바이스를 사용하여, 컨텐츠를 큐잉하고, 해당 컨텐츠의 시퀀싱된 재생을 가능하게 한다.
몇몇의 구현들에서, 원격 매체 태블릿 또는 패드가, 호스트 사용자 시스템 상에서 컨텐츠의 파일들을 찾아서 이들을 디스플레이 시퀀스의 시간라인에 로딩하는 브라우징 디바이스를 제공한다는 것은 또한 분명할 것이다. 다양한 구현들의 브라우징 디바이스는, 예를 들어 인터넷, 다양한 매체 채널들(예를 들어, 위성 또는 케이블), 미리 기록된 컨텐츠, 라이브 컨텐츠, 블루-레이 매체, 및/또는 DVD 매체 상에서 컨텐츠를 검색한다. 개별 화상들이 선택되면, 슬라이드쇼 프리젠테이션 옵션이 선택될 수 있다. 비디오 시퀀스가 선택되면, 이는, 게임을 약간 미리 기록하고 효과적으로 타임 시프팅시킴으로써, 때맞춰 풋볼 게임 광고와 함께 시작하도록 대기열에 넣어진다. 원격 태블릿은 컨텐츠를 선택하고, 큐잉 이벤트들을 빌딩하도록 핸드 제스쳐들을 사용한다.
앞서 설명된 시스템의 다양한 구현들은 디스크 자키 또는 비디오 편집자/프리젠터의 기능과 유사한 프로세싱 기능을 호스트에게 효과적으로 제공한다. 매체를 대기열에 넣기 및 컨텐츠를 원격 태블릿 뷰어에 디스플레이하기의 방법을 통해, 다양한 실시예들은, 디스플레이되는 게임 또는 이벤트의 광고 시퀀스들을 대신하여, 작동자 또는 컨텐츠 소유자가 다수의 프로그램들을 시퀀싱 및 프리젠팅하고, 이들 컨텐츠를 대체하는 것을 가능하게 한다.
다양한 실시예들은, 예를 들어 선택 라이브 제스쳐(435)를 참조하여 이전에 설명된 바와 같이, 게임의 광고들에 대한 라이브 디스플레이를 호스트에게 더 허용한다. 이는 호스트가, 예를 들어 광고 대신에 상이한 컨텐츠를 재생하게 하고, 게임이 재개될 수 있도록 광고가 끝나는 시기를 알게 해준다.
관련된 구현에서, 사용자(호스트)는 광고들을 "중단(black-out)"시킨다. 사용자는 또한 특정 어플리케이션들에서, 광고 동안에 음악 오버레이(overlay)를 제공한다. 예를 들어, 이는 광고가 시작했을 때, 두 개의 작동들을 수행함으로써 수행된다. 작동들 중 하나는 광고가 시작했을 때, 음악 컨텐츠에 대해 선택 라이브 제스쳐(435)를 수행하는 것이다. 두 개의 작동들 중 다른 하나는 광고가 시작했을 때, 라이브 시퀀스 시간라인(451)에 대해 "비디오 음소거" 작동을 수행하는 것이다. 비디오 음소거 작동은 비디오를 중단시킨다. 비디오 음소거 작동은 다양한 실시예들에서, 예를 들어 제스쳐(도시되지 않음), 또는 버튼(도시되지 않음)을 사용하여 구현된다.
앞의 구현에서, 사용자는 또한 특정 시나리오에서, 중단된 광고가 시청자가 관심있어하는 것임을 결정한다. 이러한 시나리오에서, 사용자는 라이브 시퀀스 시간라인(451)에서 추후에 재생될 광고를 시퀀싱하기 위한 기능을 갖는다.
다양한 구현들에서, 매체 컨텐츠는 PIP 포맷으로 배치되는데, 이 포맷에서 컨텐츠는 시청자를 위한 메인 디스플레이의 보다 작은 윈도우에 존재한다. 특정 구현들에서, 디스플레이 평면의 윈도우는 PIP 디스플레이들을 허용하고/하거나, PIP가 라이브 디스플레이 상에 위치되는 곳을 나타내도록 구성된다.
추가적인 구현에서, 부분적인 비디오 음소거를 위한 제스쳐 또는 버튼이 제공된다. 부분적인 비디오 음소거는 비디오 스크린의 일부분을 중단(black out)시키는 데, 이는 사용자가 또는 시청자가 광고가 끝나는 시기를 비교적 쉽게 알도록, 눈에 띄는 작은 부분을 남긴다. 다양한 구현들에서, 중단된 비디오 스크린의 부분은 사용자에 의해 설정 및 변경될 수 있다.
한 대안적인 실시예에서, 비트 스트림들은, 비디오 프로세싱 유닛(302)에서 프로세싱을 수행하는 것보다는 오히려, 프로세싱을 위해 원격 태블릿(304)에 전송된다. 이러한 한 구현에서, 비디오 프로세싱 유닛(302) 내의 트랜스코더는, 예를 들어 하드 드라이브에 저장된 컨텐츠를 트랜스코딩한다. 컨텐츠는 보다 간단한 비디오 신호 포맷을 갖는 데이터 스트림으로 트랜스코딩된다. 시간 코드 마킹이 또한 트랜스코딩된다. 이들 감소된 비트 전송률 스트림들 및 관련 마킹들은 원격 태블릿(304)에 전송된다. 원격 태블릿(304)은 수신된 컨텐츠에 걸쳐 스크롤링하기 위한 대화식 기능(interactive ability)을 갖는다. 이러한 구현은 낮은 전송률과 낮은 대역폭을 갖는데, 그 이유는 원격 태블릿(304)에 전달되는 모든 것이 트랜스코딩된 비디오이며, 현재 프레임의 시간 스탬프 정보이기 때문이다.
본 어플리케이션에서 설명된 다양한 실시예들은 비디오 디스플레이 시스템에 디스플레이하기 위해 비디오 컨텐츠를 큐잉, 변경(altering), 및 전달하는 것을 제공한다. 실시예들은 비디오 디스플레이에 디스플레이하기 이전에 컨텐츠의 미리 시청 및 시퀀싱을 허용하는 원격 프로세싱 태블릿으로 사용된 제2 디바이스를 포함한다. 라이브 컨텐츠는 큐잉을 가능하게 하기 위해, 하드 드라이브와 같은 저장 매체를 사용하여 시간 지연될 수 있다. 다수의 추가적인 소스들로부터의 컨텐츠는 메인 디스플레이에 디스플레이하기 위해 인터리빙될 수 있다. 실시예들은 시간 지연된 라이브 컨텐츠 및/또는 사용자 미리 기록된 컨텐츠로의 포인터들에 대한 사용을 포함한다. 호스트 디스플레이 평면은 메인 프로세싱 디바이스의 부분(예를 들어, 셋톱 박스, 게이트웨이, 라우터)으로서, 비디오 프로세싱 유닛에 구축된다. 이는 큐잉을 위해, 변하는 그래픽만이 원격 프로세싱 태블릿에 디지털 전송되는 것을 가능하게 한다. 원격 태블릿 상의 컨텐츠를 큐잉 및 제어하기 위해, 핸드 제스쳐들이 사용된다. 이들 핸드 제스쳐들은 디지털화되어, 결합된 비디오 시퀀스의 프로세싱(예를 들어, 편집, 변경, 인터리빙)을 가능하게 하기 위해 비디오 프로세싱 유닛에 다시 전송된다.
도 6을 참조해보면, 프로세스(600)가 제공된다. 프로세스(600)는 디스플레이 평면(610)을 구축하는 단계를 포함한다. 이는 다양한 구현들에서, 본 어플리케이션에서 설명된 바와 같이, 예를 들어 비디오 프로세싱 유닛(302)에 의해 수행된다.
다양한 구현들에서, 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함한다. 추가적인 구현들에서, 디스플레이 평면은 제2 컨텐츠 소스로부터의 컨텐츠를 나타내는 제2 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스와 제2 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 더 포함한다.
다양한 구현들에서, 제1 컨텐츠 소스 윈도우는 제1 컨텐츠 소스로서 선택된 컨텐츠의 인디케이션(indication)을 도시함으로써, 제1 컨텐츠 소스로부터의 컨텐츠를 나타낸다. 이러한 인디케이션은, 예를 들어 아이콘이다. 이러한 인디케이션들은 제1 컨텐츠 소스의 실제 컨텐츠를 프리젠팅할 필요가 없다. 다양한 이러한 구현들에서, 실제 컨텐츠는 프리젠팅되지 않는다. 다양한 다른 구현들에서, 실제 컨텐츠는, 예를 들어 프리젠테이션을 프리젠팅하는 메인 디스플레이의 화상-속-화상과 같은 대안적인 프리젠테이션 디바이스에 프리젠팅된다.
다양한 구현들에서, 제1 컨텐츠 소스 윈도우는 제1 컨텐츠 소스 윈도우에 컨텐츠를 프리젠팅함으로써 제1 컨텐츠 소스로부터의 컨텐츠를 나타낸다. 제1 컨텐츠 소스 윈도우는, 예를 들어 제1 컨텐츠 소스 윈도우에 비디오 컨텐츠를 디스플레이함으로써, 제1 컨텐츠 소스로부터의 비디오 컨텐츠를 프리젠팅한다. 제1 컨텐츠 소스 윈도우는, 예를 들어 오디오가 재생되는 제1 컨텐츠 소스 윈도우에 오디오의 진폭 그래프(amplitude graph)를 디스플레이함으로써, 제1 컨텐츠 소스로부터의 오디오 컨텐츠를 프리젠팅한다.
프로세스(600)는 원격 디바이스(620)에 디스플레이 평면을 제공하는 단계를 포함한다. 다양한 구현들에서, 이는 본 어플리케이션에서 설명된 바와 같이, 예를 들어 원격 태블릿(304)에 디스플레이 평면을 전송하는 비디오 프로세싱 유닛(302)에 의해 수행된다.
프로세스(600)는 디스플레이 평면을 수정하기 위해 명령 정보를 수신하는 단계(630)를 포함한다. 다양한 구현들에서, 이는 본 어플리케이션에서 설명된 바와 같이, 예를 들어 원격 태블릿(304)로부터 제스쳐 식별자와 제스쳐 위치를 수신하는 비디오 프로세싱 유닛(302)에 의해 수행된다.
프로세스(600)는 명령 정보에 기초하여 디스플레이 평면을 수정하는 단계(640)를 포함한다. 다양한 구현들에서, 이는 본 어플리케이션에서 설명된 바와 같이, 원격 태블릿(304)으로부터 수신된 제스쳐 식별자와 제스쳐 위치에 응답하여 디스플레이 평면(400)을 수정하는 비디오 프로세싱 유닛(302)에 의해 수행된다.
다양한 구현들에서, 디스플레이 평면을 수정하는 단계는, 제1 컨텐츠 소스 윈도우가 제1 컨텐츠 소스와 상이한 제2 컨텐츠 소스로부터의 컨텐츠를 나타내도록, 제1 컨텐츠 소스 윈도우를 수정하는 단계를 포함한다. 또한, 디스플레이 평면을 수정하는 단계는, 예를 들어 시간라인에서 컨텐츠를 이동시키는 단계를 포함한다.
도 7을 참조해보면, 프로세스(700)가 제공된다. 프로세스(700)는 디스플레이 평면을 수신하는 단계(710)를 포함한다. 이는 다양한 구현들에서, 예를 들어 본 어플리케이션에서 설명된 바와 같이, 비디오 프로세싱 유닛(302)으로부터 디스플레이 평면(400)을 수신하는 원격 태블릿(304)에 의해 수행된다.
프로세스(700)는 디스플레이 평면을 수정하기 위한 명령 정보를 결정하는 단계(720)를 포함한다. 이는 다양한 구현들에서, 예를 들어 본 어플리케이션에서 설명된 바와 같이, (i)터치 스크린(370)으로부터 수신된 입력에 기초하여 제스쳐를 결정하고, (ⅱ)제스쳐를 위한 제스쳐 식별자와 제스쳐 위치를 결정하는 원격 태블릿(304)의 제어 블록(360)에 의해 수행된다.
프로세스(700)는 디스플레이 평면을 수정하기 위해 원격 디바이스에 명령 정보를 제공하는 단계(730)를 포함한다. 이는 다양한 구현들에서, 예를 들어 본 어플리케이션에서 설명된 바와 같이, 제스쳐 식별자와 제스쳐 위치를 비디오 프로세싱 유닛(302)에 전송하는 원격 태블릿(304)에 의해 수행된다. 명령 정보를 전송하는 것은 본 어플리케이션에서 설명된 바와 같이, 비디오 프로세싱 유닛(302)이 디스플레이 평면(400)을 수정하는 것을 가능하게 한다.
이제 도 8을 참조해보면, 앞서 설명된 특징들과 원리들이 적용될 수 있는 컨텐츠 관리 시스템 또는 장치(800)가 도시된다. 컨텐츠 관리 시스템 또는 장치(800)는, 예를 들어 위성, 케이블, 전화선, 지상 브로드캐스트, 적외선, 또는 무선 주파수와 같은 임의의 다양한 매체를 사용하여, 신호를 송신하기 위한 시스템일 수 있다. 컨텐츠 관리 시스템 또는 장치(800)는 또한, 또는 대안적으로, 예를 들어 저장을 위한 신호를 제공하도록 사용될 수 있다. 예를 들어, 인터넷이나 또는 일부 다른 네트워크, 또는 가시선(line of sight)을 통해, 송신이 제공될 수 있다. 컨텐츠 관리 시스템 또는 장치(800)는, 예를 들어 프리젠테이션을 위해 컨텐츠를 큐잉하는데 사용하기 위해, 비디오 컨텐츠 및 다른 컨텐츠를 생성 및 전달할 수 있다. 도 8의 블록들이 컨텐츠 관리 시스템 또는 장치의 블록도를 제공하는 것에 더하여, 컨텐츠 관리 프로세스의 흐름도를 제공하는 것은 또한 명백할 것이다.
컨텐츠 관리 시스템 또는 장치(800)는 프로세서(801)로부터 디스플레이 평면을 수신한다. 한 구현에서, 프로세서(801)는 컨텐츠 관리 시스템 또는 장치(800)의 부분이다. 다양한 구현들에서, 프로세서(801)는 프로세스(600)를 수행하도록 구성된다.
컨텐츠 관리 시스템 또는 장치(800)는 인코더(802), 및 인코딩된 신호를 송신할 수 있는 송신기/수신기(804)를 포함한다. 인코더(802)는 프로세서(801)로부터 디스플레이 평면을 수신한다. 인코더(802)는 디스플레이 평면, 및 특정 구현들에서는 메타데이터 정보에 기초하여, 인코딩된 신호(들)를 생성한다. 인코더(802)는, 예를 들어 AVC 인코더일 수 있다. AVC 인코더는 비디오와, 다른 정보 모두에 적용될 수 있다.
인코더(802)는, 예를 들어 저장 또는 송신을 위해 다양한 정보의 단편들을 수신하고 이들을 구조화된 포맷으로 어셈블링하기 위한 어셈블리 유닛을 포함하는 서브-모듈들을 포함할 수 있다. 다양한 정보의 단편들은, 예를 들어 코딩 또는 비코딩된 비디오, 및 예를 들어, 움직임 벡터들, 코딩 모드 인디케이터들, 구문 요소들(syntax elements)과 같은 코딩 또는 비코딩된 요소들을 포함할 수 있다. 일부 구현들에서, 인코더(802)는 프로세서(801)를 포함하고, 이에 따라 프로세서(801)의 작동들을 수행한다.
송신기/수신기(804)는 인코더(802)로부터 인코딩된 신호(들)를 수신하고, 인코딩된 신호(들)를 하나 이상의 출력 신호들로 송신한다. 일반적인 송신기들은, 예를 들어 에러-보정 코딩을 제공하기, 데이터를 신호에 인터리빙하기, 에너지를 신호로 랜덤화하기, 그리고 변조기/복조기(806)를 사용하여 신호를 하나 이상의 캐리어들로 변조하기 중 하나 이상과 같은 기능들을 수행한다. 송신기/수신기(804)는 안테나(도시되지 않음)를 포함할 수 있거나, 또는 이에 인터페이스할 수 있다. 또한, 송신기/수신기(804)의 구현들은 변조기/복조기(806)로 제한될 수 있다.
컨텐츠 관리 시스템 또는 장치(800)는 또한 저장 유닛(808)에 통신 연결된다. 한 구현에서, 저장 유닛(808)은 인코더(802)에 연결되고, 저장 유닛(808)은 인코더(802)로부터 인코딩된 비트스트림을 저장한다. 다른 구현에서, 저장 유닛(808)은 송신기/수신기(804)에 연결되고, 송신기/수신기(804)로부터의 비트스트림을 저장한다. 송신기/수신기(804)로부터의 비트스트림은, 예를 들어 송신기/수신기(804)에 의해 더 프로세싱된 하나 이상의 인코딩된 비트스트림들을 포함할 수 있다. 상이한 구현들에서, 저장 유닛(808)은 표준 DVD, 블루-레이 디스크, 하드 드라이브, 또는 일부 다른 저장 디바이스 중 하나 이상이다.
컨텐츠 관리 시스템 또는 장치(800)는 또한, 예를 들어 텔레비전, 컴퓨터, 랩톱, 태블릿, 또는 셀 폰과 같은 프리젠테이션 디바이스(809)에 통신 연결된다. 프로세서(801)는 프리젠테이션 디바이스(809)에 입력을 제공한다. 입력은 일반적으로 시청자에게 프리젠테이션하도록 의도된 일련의 컨텐츠를 포함한다.
이제 도 9를 참조해보면, 앞서 설명된 특징들과 원리들이 적용될 수 있는 컨텐츠 관리 시스템 또는 장치(900)가 도시된다. 컨텐츠 관리 시스템 또는 장치(900)는, 예를 들어 위성, 케이블, 전화선, 지상 브로드캐스트, 적외선, 또는 무선 주파수와 같은 다양한 매체를 통해, 신호들을 수신하도록 구성될 수 있다. 신호들은, 예를 들어 인터넷이나 또는 일부 다른 네트워크를 통해, 또는 가시선에 의해 수신될 수 있다. 도 9의 블록들이 컨텐츠 관리 시스템 또는 장치의 블록도를 제공하는 것에 더하여, 컨텐츠 관리 프로세스의 흐름도를 제공하는 것은 또한 명백할 것이다.
컨텐츠 관리 시스템 또는 장치(900)는, 예를 들어 셀 폰, 컴퓨터, 태블릿, 셋톱 박스, 텔레비전, 게이트웨이, 라우터, 또는 인코딩된 컨텐츠를 수신하여 큐잉 입력을 제공하는 다른 디바이스일 수 있다.
컨텐츠 관리 시스템 또는 장치(900)는 컨텐츠 정보를 수신하고 프로세싱할 수 있으며, 컨텐츠 정보는, 예를 들어 디스플레이 평면, 비디오 이미지들, 및/또는 메타데이터를 포함할 수 있다. 컨텐츠 관리 시스템 또는 장치(900)는, 예를 들어 본 어플리케이션의 구현들에서 설명된 신호들과 같은 인코딩된 신호를 수신하기 위한 송신기/수신기(902)를 포함한다. 송신기/수신기(902)는 다양한 구현들에서, 예를 들어 도 8의 컨텐츠 관리 시스템(800)으로부터의 신호 출력 중 하나 이상을 제공하는 신호, 또는 비디오 프로세싱 유닛(302)로부터의 화상 출력에 대한 송신을 제공하는 신호를 수신한다.
일반적인 수신기들은, 예를 들어 변조 및 인코딩된 데이터 신호를 수신하기, 변조기/복조기(904)를 이용하여 하나 이상의 캐리어들로부터의 데이터 신호를 복조하기, 에너지를 신호로 디랜덤화하기(de-randomizing), 신호에서 데이터를 디인터리빙하기(de-interleaving), 그리고 신호를 에러-보정 디코딩하기 중 하나 이상과 같은 기능들을 수행한다. 송신기/수신기(902)는 안테나(도시되지 않음)를 포함할 수 있거나, 또는 이에 인터페이스할 수 있다. 송신기/수신기(902)의 구현들은 변조기/복조기(904)로 제한될 수 있다.
컨텐츠 관리 시스템 또는 장치(900)는 디코더(906)를 포함한다. 송신기/수신기(902)는 수신된 신호를 디코더(906)에 제공한다. 송신기/수신기(902)에 의해 디코더(906)에 제공된 신호는 하나 이상의 인코딩된 비트스트림들을 포함할 수 있다. 디코더(906)는, 예를 들어 디코딩된 디스플레이 평면과 같은 디코딩된 신호를 출력한다. 디코더(906)는 다양한 구현들에서, 예를 들면 AVC 디코더이다.
컨텐츠 관리 시스템 또는 장치(900)는 또한 저장 유닛(907)에 통신 연결된다. 한 구현에서, 저장 유닛(907)은 송신기/수신기(902)에 연결되며, 송신기/수신기(902)는 저장 유닛(907)으로부터의 비트스트림에 액세스한다. 다른 구현에서, 저장 유닛(907)은 디코더(906)에 연결되고, 디코더(906)는 저장 유닛(907)으로부터의 비트스트림에 액세스한다. 저장 유닛(907)으로부터 액세스된 비트스트림은 상이한 구현들에서, 하나 이상의 인코딩된 비트스트림들을 포함한다. 저장 유닛(907)은 상이한 구현들에서, 표준 DVD, 블루-레이 디스크, 하드 드라이브, 또는 일부 다른 저장 디바이스 중 하나 이상이다.
디코더(906)로부터의 출력 비디오는 한 구현에서, 프로세서(908)에 제공된다. 프로세서(908)는 한 구현에서, 예를 들어 프로세스(700)의 모든 부분 또는 일부분을 수행하도록 구성된 프로세서이다. 이러한 한 구현에 있어서, 프로세서(908)는 제어 블록(360)이다. 다른 구현에서, 프로세서(908)는 하나 이상의 포스트-프로세싱 작동들을 수행하도록 구성된다.
일부 구현들에서, 디코더(906)는 프로세서(908)를 포함하고, 이에 따라 프로세서(908)의 작동들을 수행한다. 다른 구현들에서, 프로세서(908)는, 예를 들어 셋톱 박스, 태블릿, 라우터, 또는 텔레비전과 같은 다운스트림 디바이스의 부분이다. 보다 일반적으로, 프로세서(908) 및/또는 컨텐츠 관리 시스템 또는 장치(900)는 다양한 구현들에서, 게이트웨이, 라우터, 셋톱 박스, 태블릿, 텔레비전, 또는 컴퓨터의 부분이다.
컨텐츠 관리 시스템 또는 장치(900)는 또한 사용자 또는 다른 입력 소스로부터의 입력을 수신하도록 구성된다. 입력은 전형적인 구현들에서, 도 9에 명백히 도시되지 않는 메커니즘을 사용하는 프로세서(908)에 의해 수신된다. 입력 메커니즘은 다양한 구현들에서, 터치 스크린, 마우스, 또는 마이크로폰을 포함한다. 적어도 하나의 구현에서, 입력은 명령어들을 큐잉하는 것을 포함한다.
컨텐츠 관리 시스템 또는 장치(900)는 또한, 예를 들어 원격 디바이스에 큐잉 명령어들과 같은 입력을 제공하도록 구성된다. 입력은, 예를 들어 변조기/복조기(904)를 사용하여 변조되고, 송신기/수신기(902)를 사용하여 송신된다.
도 8을 다시 참조해보면, 컨텐츠 관리 시스템 또는 장치(800)는, 예를 들어 큐잉 입력과 같은 입력을 수신하도록 더 구성된다. 입력은 송신기/수신기(806)에 의해 수신되고, 프로세서(801)에 제공된다. 다양한 구현들에서, 프로세서(801)는 디스플레이 평면을 수정하기 위한 입력을 사용하고, 수정된 디스플레이 평면은 컨텐츠 관리 시스템 또는 장치(800)로부터 송신된다.
도 3을 다시 참조해보면, 라이브 디스플레이 프레임 빌더(330), 태블릿 시뮬레이션 프레임 빌더(340), 인코더(344), 및 제어 블록(320)에 의해 수행되는 작동들을 포함하여, 비디오 프로세싱 유닛(302)에 의해 수행되는 작동들은 다양한 구현들에서, 단일 프로세서에 의해, 또는 다중 프로세서들에 의해 수행된다. 유사하게도, 제어 블록(360)과 디코더(365)에 의해 수행되는 작동들을 포함하여, 원격 태블릿(304)에 의해 수행되는 작동들은 다양한 구현들에서, 단일 프로세서에 의해, 또는 다중 프로세서들에 의해 수행된다.
도 3을 계속 참조해보면, 디지털 통신할 수 있는 능력을 갖춘 원격 태블릿(304)과 비디오 프로세싱 유닛(302)이 도시된다. 특정 구현들에서, 통신들은 IEEE 802.11n을 이용한다. IEEE 802.11n, 또는 다른 통신 수단을 이용하여, 추가적인 구현들은 USB 드라이브가 원격 태블릿(304)에 플러그인되게 한다. 원격 태블릿(304)은 USB 드라이브에 저장된 컨텐츠에 액세스할 수 있고, 해당 컨텐츠를 디지털 전송할 수 있으며, 또는 그렇지 않으면, 해당 컨텐츠를 추가적인 매체 소스로서 비디오 프로세싱 유닛(302)에 대해 이용 가능하게 할 수 있다. 이러한 방식으로, 이러한 구현들은 컨텐츠 소스들을 시스템(300)에 추가하기 위해 사용자가 원격 태블릿(304)을 작동시키는 간단한 메커니즘을 제공한다.
앞의 다양한 구현들은 또한 오디오를 포함하는 것으로 가정된다. 특정 구현들은 추가적인 특징들을 포함함으로써 오디오를 수용한다. 이러한 하나의 특징은 각각의 라이브 포인터와 라이브 소스 큐 포인터에 대해 개별 오디오 및 비디오 포인터들을 제공하는 것이다. 따라서, 예를 들어 한 구현에서, 라이브 디스플레이 프레임 빌더(330)는 라이브 비디오 포인터와 라이브 오디오 포인터 모두를 사용하며, 태블릿 시뮬레이션 프레임 빌더(340)는 라이브 비디오 소스 큐 포인터와 라이브 오디오 소스 큐 포인터 모두를 사용한다. 비디오에 상응하는 오디오가 종종 관심거리이기 때문에, 오디오 포인터들은 비디오 포인터들과 동일한 소스를 종종 나타낸다. 예를 들어, 풋볼 게임을 시청할 때, 시청자는 종종 게임 아나운서들이 말하는 것을 청취하고 싶어할 것이다. 하지만, 다른 어플리케이션들에서, 사용자는 포토 컨텐츠(312)로부터의 화상들을 디스플레이하는 동안, 음악 컨텐츠(313)로부터의 오디오 컨텐츠를 포함하고 싶어할 것이다. 또 다른 어플리케이션들에서, 사용자는, 예를 들어 라디오 또는 인터넷 아나운서와 같은 개별 오디오 소스로 전환할 것이다. 다양한 구현들은 또한 비디오와 오디오 사이의 동기화를 달성하기 위해, 오디오 및/또는 비디오를 지연시키기 위한 지연 특징(delay feature)을 제공한다.
게다가, 다양한 어플리케이션들에서, 사용자는 비디오에 상응하는 오디오를 대체하고 싶어할 것이다. 예를 들어, 사용자는 홈 비디오를 시청하는 동안, {음악 컨텐츠(313)로부터의} 오디오로서 노래를 포함하고 싶어할 수도 있다. 또 다른 어플리케이션들에서, 사용자는, 예를 들어 홈 비디오에서 노래를 페이딩 인(fading in)하고, 홈 비디오로부터 노래를 페이딩 아웃(fading out)하는 것과 같이, 다양한 소스들로부터 오디오를 믹싱 또는 페이딩하는 것을 원할 수 있다.
다양한 오디오 특징들을 지원하기 위해, 특정 구현들은 오디오를 빌드 시퀀스 시간라인(454)(또는, 예를 들어 임의의 다른 시간라인)에 오버레이하기 위한 제스쳐를 제공한다. 오디오를 오버레이하는 것은 빌드 시퀀스 시간라인(454)의 관련 부분에 대한 컨텐츠의 오디오 부분만을 대체한다. 한 시나리오에서, 사용자는 (i)빌드 시퀀스 시간라인(454)에 홈 비디오를 삽입하고, (ⅱ)컨텐츠 선택 섹션(410)으로부터의 오디오 소스를 복사하며, (ⅲ)복사된 오디오를, 예를 들어 A 소스 시간라인(452)에 붙여넣고, 복사된 오디오를 미리 시청하며, (ⅳ)해당 오디오의 일부분을 복사하여, 홈 비디오에 대한 오버레이 오디오로서 빌드 시퀀스 시간라인(454)에 붙여 넣는다. 오버레이 오디오를 삽입하는 최후의 작동(the last operation)은 오버레이 오디오 제스쳐를 사용한다.
다양한 구현들은 또한 광고들을, 예를 들어 풋볼 게임과 같은 비디오 소스로 대체하기 위한 간소화된 프로세스를 제공한다. 사용자는 1차 프리젠테이션으로서 비디오 소스를 선택하고, 프로세스를 개시한다. 프로세스는 제2의 소스를 광고들에 대한 채우기(fill)로서 선택하는 것에 대해 사용자에게 질문하며, 사용자는 이러한 소스를 미리-식별할 수 있다. 이후, 프로세스는 1차 프리젠테이션에서 광고들을 자동으로 식별하고, 이들을 채우기 소스의 연속하는 부분들로 채운다. 프로세스는 수정된 시퀀스를 라이브 시퀀스 시간라인(451)에 복사하고, 1차 프리젠테이션이 이용 가능할 때까지, 1차 프리젠테이션의 차후의 부분들에 대한 프로세스를 주기적으로 반복한다. 예를 들어, (i)1차 프리젠테이션이 브로드캐스트 라이브이며, 시청자에게 프리젠테이션하기 이전에, 15분만이 버퍼링되어 PDR에 미리-기록되거나, 또는 (ⅱ)컨텐츠 큐잉 시스템(300)의 버퍼링 능력은 제한되기 때문에, 1차 프리젠테이션은 증분에 있어서(in increments) 이용 가능하게 될 수 있다.
다양한 구현들은 또한 터치 스크린을 사용하지 않고 작동된다. 특정의 이들 구현들은, 예를 들어 카메라와 같은 대안의 기술을 이용하여 사용자의 제스쳐를 캡쳐한다. 다른 구현들은, 예를 들어 음성 인지 기술을 이용하여, 및/또는 눈 움직임을 추적하여, 사용자의 명령들을 캡쳐한다.
다양한 구현들은 또한 디스플레이 평면을 송신 및 수신하지 않고 작동된다. 예를 들어, 특정 구현들은 실제의 디스플레이 평면을 전송하지 않고 컨텐츠 정보를 전송하기 위해, 다양한 비디오 프로세싱 유닛(302)을 사용한다. 이러한 구현들은 일반적으로 시간라인과 컨텐츠를 나타내기 위해 메타데이터를 사용한다.
다양한 구현들은 비디오 프로세싱 유닛(302)과 원격 태블릿(304) 사이의 상당한 거리로 작동된다. 몇몇의 이러한 구현들에서, 비디오 프로세싱 유닛(302)과 원격 태블릿(304) 사이의 통신은 브로드캐스트, 케이블, 및/또는 위성 링크들의 결합을 이용하여 발생한다. 특정 구현들은 인코딩된 제스쳐 정보를 포함하는 메타데이터 및 디스플레이 평면들을 전송 및 수신하기 위해, 인터넷 및/또는 인터넷 기반의 서비스들을 사용한다. 한 특정 구현은 Skype 콜을 사용하여 디스플레이 평면과 메타데이터를 전송 및 수신한다.
본 어플리케이션에서의 많은 구현들은 적어도 부분적으로 비디오 컨텐츠에 기초한다. 하지만, 다른 구현들과 어플리케이션들은 비-비디오 컨텐츠를 시청자에게 프리젠팅한다. 이러한 비-비디오 컨텐츠는, 예를 들어 오디오, 움직임, 향기, 또는 다른 자극을 포함한다. 예를 들어, 한 구현에서 시청자는 기계화된 좌석으로 어셈블링되고, 사용자는 스크립팅된 움직임들의 시퀀스를 제공하는 명령어들의 세트를 시퀀스에 포함한다. 다양한 어플리케이션들에서, 사용자는 또한 기계화된 좌석에 포함된 적절한 향기 장비들을 이용하여 다양한 향기와 냄새를 제공하기 위한 명령어들을 오버레이한다. 분명하게도, 다양한 구현들은, 예를 들어 비디오를 제공할 필요가 없으며, 컨텐츠에 대한 임의의 결합을 제공할 수 있다.
다양한 구현들은 시간라인을 참조한다. 예시들은 라이브 시퀀스 시간라인(451), A 소스 시간라인(452), B 소스 시간라인(453), 및 빌드 시퀀스 시간라인(454)을 포함한다. 이러한 구현들에서의 시간라인이 하나 이상의 컨텐츠의 단편들에 대한 타이밍 정보를 프리젠팅하는 메커니즘이라는 것은 명백할 것이다. 또한, 다른 구현들은 시간라인에서 타이밍 정보의 상이한 단편들을 프리젠팅한다. 게다가, 다른 구현들은 시간라인을 묘사하기 위한 다양하고 상이한 표현들을 사용한다. 이러한 하나의 구현은 컨텐츠의 단편에 대한 키 타이밍 이벤트들(key timing events)을 나타내기 위한 태뷸러 표현을 사용한다. 이러한 하나의 구현에서 메타데이터는 (i)프로그램 제목(실제의 제목, 또는 예를 들어, 채널명 또는 파일명과 같은 컨텐츠 설명), (ⅱ)예를 들어, 시스템 클록 레퍼런스 시간 스탬프 또는 SMPTE 시간 코딩으로 정의되는 오디오/비디오 프로그램 카운터 값(들), 및 (ⅲ)프로그램의 전체적인 길이를 포함한다.
다양한 구현들은 비디오 컨텐츠에 대해 작동된다. 이러한 컨텐츠는 다양한 구현들에서, 브로드캐스트 컨텐츠, 인터넷-전달되는 컨텐츠, 미리-기록된 DVD 컨텐츠, 블루-레이 휴대용 컨텐츠, USB 및/또는 블루투스 휴대용 디바이스 컨텐츠, 및/또는 Skype 비디오 폰 콜 컨텐츠 중 하나 이상을 포함한다.
일부 구현들이 특정의 장점들 또는 단점들을 갖는 것이 주목된다. 하지만, 구현의 단점에 관한 논의는 해당 구현의 장점들을 배제하지 않으며, 구현이 실행 가능하지 않다는 것과, 심지어 구현이 권장된 구현이 아니라는 것을 나타내지 않는다.
다양한 구현들은 신호들 및/또는 신호 구조들을 생성 또는 프로세스한다. 이러한 신호들은 특정 구현들에서, 유사 부호 또는 구문을 사용하여 형성된다. 신호들은 다양한 구현들에서, 비디오 프로세싱 유닛(302), 원격 태블릿(304), 프로세서(801), 인코더(802), 송신기/수신기(804), 송신기/수신기(902), 디코더(906), 또는 프로세서(908)의 출력에서 생성된다. 신호 및/또는 신호 구조는 다양한 구현들에서, (예를 들어, 프로세서-판독 가능한 매체에) 송신 및/또는 저장된다.
본 어플리케이션은 도 1, 도 3, 및 도 6 내지 도 9의 블록도/흐름도를 포함하는 다수의 블록도/흐름도들을 제공한다. 본 어플리케이션의 블록도/흐름도들이 프로세스를 설명하는 흐름도와, 장치, 디바이스, 또는 시스템의 기능 블록들을 설명하는 블록도 모두를 프리젠팅한다는 것은 명백할 것이다. 게다가, 블록도/흐름도는 구성 요소들과, 구성 요소들의 출력들 사이의 관계를 예증한다. 추가적으로, 본 어플리케이션은 도 2 및 도 4 내지 도 5의 그림 표현들을 포함하는 다수의 그림 표현들을 제공한다. 적어도 도 2 및 도 4의 그림 표현들이 디바이스 또는 스크린의 시각적인 표현, 뿐만 아니라 디바이스 또는 스크린과 상호 작용하기 위한 프로세스 모두를 프리젠팅한다는 것은 명백할 것이다.
또한, 본 어플리케이션에서 설명된 구현들에 대한 많은 작동들, 블록들, 입력들, 또는 출력들은, 이들 구현들에 대한 설명과 논의에 명백히 진술되지 않았을지라도, 선택적이다. 예를 들어, 도 3 내지 도 4를 참조하여 논의된 많은 작동들은 다양한 구현들에서 생략될 수 있다. 특정 구현 내의 특징에 대한 단순한 설명(recitation)은 특징이 모든 구현들에 대해 필수적이라는 것을 나타내지 않는다. 실제로, 반대의 결론이 일반적으로 디폴트일 것이며, 모든 특징들은, 만약 이러한 특징이 필수적인 것으로 진술되지 않는다면, 선택적인 것으로 간주된다. 특징이 필수적인 것으로 진술될지라도, 요구 사항은 특정 구현에만 적용되는 것으로 의도되며, 다른 구현들은 이러한 구현으로부터 벗어나는 것으로 가정된다.
따라서, 본 발명은 특정의 특징들과 양상들을 갖는 하나 이상의 구현들을 제공한다. 특히, 본 발명은 시청자에게 프리젠테이션하기 위해 컨텐츠를 시퀀싱하는 것에 관한 몇몇의 구현을 제공한다. 본 어플리케이션의 다양한 구현들에서 앞서 설명된 바와 같이, 컨텐츠를 시퀀싱하는 것은, 예를 들어 가정에서 친구들을 즐겁게 하기, 직장에서 동료들과 협력하기, 또는 이사회에 자료를 프리젠팅하기를 포함하는 다양한 환경에서 이용될 수 있다. 게다가, 시청자 및 컨텐츠-제어자{본 어플리케이션 내의 몇몇의 논의에서는 원격 태블릿(304)의 사용자, 또는 작동자로 지칭함}는 다양한 구현들에서, 동일한 공간에, 동일 빌딩의 상이한 공간에, 또는 장거리로 분리되어 존재한다. 하나의 장거리 구현에서, 사용자는 파리에 있고, 시청자는 뉴욕에 있다. 게다가, 다양한 구현들에서, 사용자는 진행하는 프리젠테이션을 위해 컨텐츠를 시퀀싱하지 않을 것이다. 오히려, 시퀀싱된 컨텐츠는 추후의 프리젠테이션을 위해, 또는 기록 가능한 매체에 저장 및 분배를 위해 저장된다.
추가적인 어플리케이션들 및 이들 구현들의 추가적인 변형들이 본 개시 사항 내에서 심사 숙고되며, 설명된 구현들에 대한 특징들과 양상들은 다른 구현들을 위해 적응될 수도 있다.
본 어플리케이션에 설명된 몇몇의 구현들 및 특징들은 AVC 표준, 및/또는 MVC 확장을 포함한 AVC (Annex H), 및/또는 SVC 확장을 포함한 AVC (Annex G)의 상황에서 사용될 수 있다. AVC는 기존의 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-4(MPEG-4) 파트 10 진보된 비디오 코딩(AVC) 표준/국제 전기 통신 연합, 통신 부문(ITU-T) H.264 권고안(본 어플리케이션에서는, "H.264/MPEG-4 AVC 표준"이나, 또는 "AVC 표준", "H.264 표준", "H.264/AVC", 또는 간단히 "AVC" 또는 "H.264"와 같은 변형들로 지칭됨)을 지칭한다. 게다가, 이들 구현들 및 특징들은 또 다른 표준(기존 또는 미래)의 상황에서, 또는 표준을 포함하지 않는 상황에서 사용될 수 있다.
본 발명의 원리들에 있어서의 "하나의 실시예" 또는 "한 실시예", 또는 "하나의 구현" 또는 "한 구현", 뿐만 아니라 이들에 대한 다른 변형들은 실시예와 연관되어 설명된 특정의 특징, 구조, 및 특성 등이 본 발명의 원리들의 적어도 하나의 실시예에 포함되는 것을 의미한다. 따라서, 관용구 "하나의 실시예에서" 또는 "한 실시예에서", 또는 "하나의 구현에서" 또는 "한 구현에서", 뿐만 아니라 명세서 전반에 걸쳐 다양한 위치에서 등장하는 임의의 다른 변형들의 등장은 반드시 동일 실시예를 모두 언급하는 것은 아니다.
또한, 본 어플리케이션 또는 청구항들은 다양한 정보의 단편들을 "결정하는 것"을 언급할 수 있다. 정보를 결정하는 것은, 예를 들어 정보를 추정하는 것, 정보를 계산하는 것, 정보를 평가하는 것, 정보를 예측하는 것, 또는 메모리로부터 정보를 검색하는 것 중 하나 이상을 포함할 수 있다.
게다가, 본 어플리케이션 또는 청구항들은 다양한 정보의 단편들에 "액세스하는 것"을 언급할 수 있다. 정보에 액세스하는 것은, 예를 들어 정보를 수신하는 것, 정보를 검색하는 것(예를 들어, 메모리), 정보를 저장하는 것, 정보를 프로세싱하는 것, 정보를 송신하는 것, 정보를 이동시키는 것, 정보를 복사하는 것, 정보를 삭제하는 것, 정보를 계산하는 것, 정보를 결정하는 것, 정보를 예측하는 것, 정보를 평가하는 것, 또는 정보를 추정하는 것 중 하나 이상을 포함할 수 있다.
다양한 구현들은 다수의 카메라 앵글 매체 공급을 사용한다. 이러한 환경은, 예를 들어 스포팅 이벤트의 매체 생산에서 발견된다. 다수의 카메라 앵글 매체 공급은 한 어플리케이션에서, 상이한 시간라인들에 할당되고 시퀀싱되어, 원하는 시청 경험을 제공한다.
본 어플리케이션 또는 청구항들은 제1 디바이스(또는 위치)로부터 제2 디바이스(또는 위치)에 정보를 "제공하는 것"을 언급할 수 있다. 본 어플리케이션 또는 청구항들은 또한, 또는 대안적으로, 제1 디바이스(또는 위치)에서 제2 디바이스(또는 위치)로부터의 정보를 "수신하는 것"을 언급할 수 있다. 이러한 "제공하는 것" 또는 "수신하는 것"은 적어도 직접 및 간접적인 연결들을 포함하는 것으로 이해되어진다. 따라서, 제1 및 제2 디바이스들(또는 위치들) 사이의 중개자들은 용어들 "제공하는 것"과 "수신하는 것"의 범주 내에 속하는 것으로 심사 숙고된다. 예를 들어, 정보가 제1 위치로부터 중간 위치로 제공된 이후, 중간 위치로부터 제2 위치로 제공되었다면, 정보는 제1 위치로부터 제2 위치에 제공되었다. 유사하게도, 정보가 제1 위치로부터 중간 위치에서 수신된 이후, 중간 위치로부터 제2 위치에서 수신되었다면, 정보는 제2 위치에서 제1 위치로부터 수신되었다.
게다가, 본 어플리케이션 또는 청구항들은 다양한 정보의 단편들을 "수신하는 것"을 언급할 수 있다. 수신하는 것은 "액세스하는 것"과 마찬가지로, 폭넓은 용어인 것으로 의도된다. 정보를 수신하는 것은, 예를 들어 정보에 액세스하는 것, 또는 (예를 들어, 메모리로부터) 정보를 검색하는 것 중 하나 이상을 포함할 수 있다. 또한, "수신하는 것"은 일반적으로, 예를 들어 정보를 저장하는 것, 정보를 프로세싱하는 것, 정보를 송신하는 것, 정보를 이동시키는 것, 정보를 복사하는 것, 정보를 삭제하는 것, 정보를 계산하는 것, 정보를 결정하는 것, 정보를 예측하는 것, 또는 정보를 추정하는 것과 같은 작동들 동안 하나의 방식 또는 다른 방식에 포함된다.
다양한 구현들은 "이미지들" 및/또는 "화상들"을 언급한다. 용어들 "이미지"와 "화상"은 본 문서의 전반에 걸쳐 상호 교환 가능하게 사용되며, 폭넓은 용어들인 것으로 의도된다. 하나의 "이미지" 또는 "화상"은, 예를 들어 프레임의 모든 부분 또는 일부분, 또는 필드의 모든 부분 또는 일부분일 수 있다. 용어 "비디오"는 일련의 이미지들(화상들)을 지칭한다. 하나의 이미지 또는 화상은, 예를 들어 임의의 다양한 비디오 구성 요소들 또는 이들의 결합을 포함할 수 있다. 이러한 구성 요소들, 또는 이들의 결합들은, 예를 들어 휘도, 크로미넌스(chrominance), (YUV 또는 YCbCr 또는 YPbPr의) Y, (YUV의) U, (YUV의) V, (YCbCr)의 Cb, (YCbCr)의 Cr, (YPbPr의) Pb, (YPbPr의) Pr, (RGB의) 레드, (RGB의) 그린, (RGB의) 블루, S-비디오, 및 임의의 이들 구성 요소들의 네거티브 또는 포지티브를 포함한다. 하나의 "이미지" 또는 "화상"은 또한, 또는 대안적으로, 예를 들어 전형적인 2차원 비디오, 2D 비디오 화상을 위한 디스패러티 맵, 2D 비디오 화상에 상응하는 깊이 맵, 또는 에지 맵을 포함하는 다양하고 상이한 유형의 컨텐츠를 지칭한다.
게다가, 많은 구현들은 "프레임"을 지칭할 수도 있다. 하지만, 이러한 구현들은 "화상" 또는 "이미지"에 동등하게 적용될 수 있는 것으로 추측된다.
"깊이 맵", 또는 "디스패러티 맵", 또는 "에지 맵", 또는 유사 용어들은 또한 폭넓은 용어들인 것으로 의도된다. 맵은 일반적으로, 예를 들어 특정 유형의 정보를 포함하는 화상을 지칭한다. 하지만, 맵은 자체 이름으로 나타내어지지 않는 다른 유형의 정보를 포함할 수 있다. 예를 들어, 깊이 맵은 전형적으로 깊이 정보를 포함하지만, 예를 들어 비디오 또는 에지 정보와 같은 다른 정보도 포함할 수 있다.
예컨대 "A/B", "A 및/또는 B", 및 "A와 B 중 적어도 하나"의 경우에서와 같이 다음의 "/", "및/또는", 및 "중 적어도 하나" 중 임의의 것의 이용은 첫 번째로 열거된 옵션(A)만의 선택, 또는 두 번째로 열거된 옵션(B)만의 선택, 또는 옵션(A 및 B) 모두의 선택을 포함하는 것으로 의도된다는 점이 이해될 것이다. 또 다른 예로서, "A, B 및/또는 C"와 "A, B 및 C 중 적어도 하나", 그리고 "A, B, 또는 C 중 적어도 하나"의 경우들에서, 그러한 어법은 첫 번째로 열거된 옵션(A)만의 선택, 또는 두 번째로 열거된 옵션(B)만의 선택, 또는 세 번째로 열거된 옵션(C)만의 선택, 또는 첫 번째 및 두 번째로 열거된 옵션들(A 및 B)만의 선택, 또는 첫 번째 및 세 번째로 열거된 옵션(A 및 C)만의 선택, 또는 두 번째 및 세 번째로 열거된 옵션(B 및 C)만의 선택, 또는 3개의 옵션(A 및 B 및 C) 전부의 선택을 포함하는 것으로 의도된다. 이는 당업자에게 바로 명백해 지듯이, 열거된 많은 항목에 관해 확장될 수 있다.
추가적으로, 많은 구현들은 인코더{예를 들어, 인코더(802)}, 디코더{예를 들어, 디코더(906)}, 디코더로부터의 출력을 프로세싱하는 포스트-프로세서{예를 들어, 프로세서(908)}, 또는 인코더에 입력을 제공하는 프리-프로세서{예를 들어, 프로세서(801)} 중 하나 이상에서 구현될 수 있다.
본 어플리케이션에서 논의된 프로세서들은 다양한 구현들에서, 예를 들어 프로세스, 기능, 또는 작동을 수행하도록 집합적으로 구성된 다중 프로세서들(서브-프로세서들)을 포함한다. 예를 들어, 프로세서(801)와 프로세서(908)는 각각 다양한 구현들에서, 각각의 프로세서(801), (908)의 작동들을 수행하도록 집합적으로 구성된 다중 서브-프로세서들로 이루어진다. 게다가, 다른 구현들은 본 개시 사항에 의해 심사 숙고된다.
본 명세서에서 설명되는 구현은, 예를 들어 방법이나 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림, 또는 신호로 구현될 수 있다. 비록, 단일 형태의 구현(예를 들어, 방법으로서만 논의됨)의 상황에서만 논의되었을지라도, 논의된 특징들의 구현은 또한 다른 형태(예를 들어, 장치 또는 프로그램)로도 구현될 수 있다. 하나의 장치는, 예를 들어 적절한 하드웨어, 소프트웨어, 및 펌웨어로 구현될 수 있다. 예를 들어, 본 방법들은 프로세서와 같은 하나의 장치로 구현될 수 있는데, 프로세서는 일반적으로, 예를 들어 컴퓨터, 셋톱 박스, 게이트웨이, 라우터, 마이크로프로세서, 집적 회로, 또는 프로그래밍 가능한 로직 디바이스를 포함하는 프로세싱 디바이스들을 지칭한다. 또한, 프로세서들은, 예를 들어 컴퓨터들, 셀 폰들, 휴대용/개인의 디지털 어시스턴트들("PDAs"), 태블릿들, 랩톱들, 및 최종의 사용자들 간에 정보의 통신을 용이하게 하는 다른 디바이스들과 같은 통신 디바이스들을 포함한다.
프로세서는 또한, 예를 들어 프로세스, 기능, 또는 작동을 수행하도록 집합적으로 구성된 다중 프로세서들을 포함할 수 있다. 집합적인 구성 및 성능은, 예를 들어 특정 업무들을 위한 전용의 서브-프로세서들의 사용, 또는 병렬 프로세싱의 사용과 같은 종래 기술에서 잘 알려진 임의의 다양한 기술들을 사용하여 성취될 수 있다.
본 명세서에서 설명된 다양한 프로세스들 및 특징들의 구현들은 다양하고 상이한 장비 또는 어플리케이션들, 특히 예를 들어, 데이터 인코딩, 데이터 디코딩, 프로그램 또는 컨텐츠 시퀀싱, 및 이미지들 또는 다른 컨텐츠에 대한 다른 프로세싱과 연관된 장비 또는 어플리케이션들로 구현될 수 있다. 이러한 장비의 예시들은 프로세서, 인코더, 디코더, 디코더로부터의 출력을 프로세싱하는 포스트-프로세서, 인코더에 입력을 제공하는 프리-프로세서, 비디오 코더, 비디오 디코더, 비디오 코덱, 웹 서버, 셋톱 박스, 랩톱, 개인용 컴퓨터, 태블릿, 라우터, 셀 폰, PDA, 및 다른 통신 디바이스들을 포함한다. 분명히 말하자면, 이러한 장비는 모바일일 수 있으며, 심지어 모바일 운송 수단에 설치될 수 있다.
추가적으로, 본 방법들은 프로세서에 의해(또는 명령어들을 수행하도록 집합적으로 구성된 다중 프로세서들에 의해) 수행되고 있는 명령어들에 의해 구현될 수 있으며, 이러한 명령어들(및/또는 구현으로 산출되는 데이터 값들)은, 예를 들어 집적회로, 소프트웨어 캐리어, 또는, 예를 들어 하드 디스크, 콤팩트 디스켓("CD"), (예를 들어, 디지털 다용도 디스크 또는 디지털 비디오 디스크로 종종 지칭되는 DVD와 같은) 광학 디스크, 랜덤 액세스 메모리("RAM"), 또는 판독 전용 메모리("ROM")와 같은 다른 저장 디바이스처럼 프로세서-판독 가능한 매체에 저장될 수도 있다. 명령어들은 프로세서 판독 가능한 매체 상에서 실질적으로 구현되는 응용 프로그램을 형성할 수 있다. 예를 들어 명령어들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 결합에 존재할 수 있다. 명령어들은, 예를 들어 운영 체제, 별도의 어플리케이션, 또는 두 가지의 결합에서 발견될 수 있다. 따라서, 프로세서는, 예를 들어 프로세스를 수행하도록 구성된 디바이스와, 프로세스를 수행하기 위한 명령어들을 갖는 (저장 디바이스와 같은) 프로세서 판독 가능한 매체를 포함하는 디바이스 모두로서 특징지어질 수 있다. 게다가, 프로세서 판독 가능한 매체는, 명령어들에 더하여, 또는 명령어들을 대신하여, 구현으로 산출된 데이터 값들을 저장할 수 있다.
당업자에게 명백한 바와 같이, 구현들은, 예를 들어 저장 또는 송신될 수 있는 정보를 전달하도록 포맷된 다양한 신호들을 산출할 수 있다. 이러한 정보는, 예를 들어 한 방법을 수행하기 위한 명령어들, 또는 설명된 구현들 중 한 가지에 의해 산출되는 데이터를 포함할 수 있다. 예를 들어, 신호는 도 3 내지 도 4를 참조하여 논의된 바와 같이, 인코딩된 디스플레이 평면(400), 또는 인코딩된 제스쳐 식별자 및 제스쳐 위치를 데이터로서 전달하도록 포맷될 수 있다. 이러한 신호는, 예를 들어 전자기 파형(예를 들어, 스펙트럼의 무선 주파수 부분을 이용함)으로서, 또는 기저대역 신호로서 포맷될 수 있다. 포맷팅은, 예를 들어 데이터 스트림을 인코딩하기와, 인코딩된 데이터 스트림을 갖는 캐리어를 변조하기를 포함할 수 있다. 신호가 전달하는 정보는, 예를 들어 아날로그 또는 디지털 정보일 수 있다. 신호는 알려진 바와 같이, 다양하고 상이한 유선 또는 무선 링크들을 통해 송신될 수 있다. 신호는 프로세서 판독 가능한 매체에 저장될 수 있다.
많은 구현들이 설명되었다. 그럼에도 불구하고, 다양한 수정 사항들이 이루어질 수 있다는 것이 이해될 것이다. 예를 들어, 상이한 구현들의 요소들은 결합, 보충, 수정, 또는 제거되어서, 다른 구현들을 생성할 수 있다. 추가적으로, 당업자는, 다른 구조들 및 프로세스들이 개시 사항들을 위해 대체될 수 있음과, 개시된 구현들과 적어도 실질적으로 동일한 결과(들)를 얻기 위해, 결과적인 구현들이 적어도 실질적으로 동일한 방법(들)으로 동일한 기능(들)을 적어도 실질적으로 수행할 것임을 이해할 것이다. 따라서, 상기 및 다른 구현들은 본 어플리케이션에 의해 심사 숙고된다.
105 : 입력 신호 수신기 110 : 사용자 인터페이스
115 : 터치 패널 인터페이스 150 : 디스플레이 인터페이스
120 : 입력 스트림 프로세서 125 : 오디오 프로세서
130 : 오디오 인터페이스 135 : 저장 디바이스
140 : 비디오 프로세서 145 : 제어기
155 : 제어 메모리 300 : 컨텐츠 큐잉 시스템
302 : 비디오 프로세싱 유닛 304 : 원격 태블릿
310 : 일련의 컨텐츠 옵션들 320 : 제어 블록
330 : 라이브 디스플레이 프레임 빌더 344 : 인코더
340 : 디스크 자키 시뮬레이션 프레임 빌더
324 : 실시간 클록 346, 355 : 이중 무선 인터페이스
335 : 디스플레이 및 오디오 인터페이스

Claims (50)

  1. 방법으로서,
    제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 구축하는 단계;
    디스플레이 평면을 원격 디바이스에 제공하는 단계;
    디스플레이 평면을 제공하는 단계에 응답하여 원격 디바이스로부터 명령 정보를 수신하는 단계로서, 명령 정보는 디스플레이 평면을 수정하기 위한 것인, 명령 정보를 수신하는 단계; 및
    수신된 명령 정보에 기초하여 디스플레이 평면을 수정하는 단계;를 포함하는, 방법.
  2. 제1항에 있어서,
    명령 정보는 시간라인을 수정하기 위한 명령어들(instructions)을 포함하고, 디스플레이 평면을 수정하는 단계는 수신된 명령 정보에 기초하여 시간라인을 수정하는 단계를 포함하는, 방법.
  3. 제2항에 있어서,
    수정된 시간라인에 기초하여 프리젠테이션 디바이스를 위한 프리젠테이션을 구축하는 단계를 더 포함하며, 프리젠테이션은 컨텐츠를 포함하는, 방법.
  4. 제1항에 있어서,
    디스플레이 평면을 인코딩하는 단계를 더 포함하고, 디스플레이 평면을 원격 디바이스에 제공하는 단계는 인코딩된 디스플레이 평면을 원격 디바이스에 제공하는 단계를 포함하는, 방법.
  5. 제4항에 있어서,
    디스플레이 평면을 인코딩하는 단계는 제1 컨텐츠 소스로부터의 컨텐츠의 비트 전송률(bit rate)을 감소시키는 단계를 포함하는, 방법.
  6. 제1항에 있어서,
    명령 정보는 낮은 비트 전송률 명령 정보를 포함하는, 방법.
  7. 제1항에 있어서,
    디스플레이 평면을 제공하는 단계는 디스플레이 평면의 구축을 수행하는 디바이스로부터 원격 디바이스까지 무선 송신 매체를 통해 디스플레이 평면을 송신하는 단계를 포함하는, 방법.
  8. 제1항에 있어서,
    명령 정보를 수신하는 단계는 디스플레이 평면의 구축을 수행하는 디바이스에서 원격 디바이스로부터 무선 송신 매체를 통해 명령 정보를 수신하는 단계를 포함하는, 방법.
  9. 제1항에 있어서,
    명령 정보는 시간라인을 수정하기 위한 제스쳐 정보를 포함하고, 제스쳐 정보는 제스쳐의 인디케이터(indicator), 및 제스쳐의 좌표들을 나타내는 좌표 정보를 포함하는, 방법.
  10. 제9항에 있어서,
    수신된 제스쳐 정보에 기초하여 하나 이상의 매체 포인터들을 결정하는 단계를 더 포함하는, 방법.
  11. 제1항에 있어서,
    디스플레이 평면을 인코딩하는 단계를 더 포함하며,
    디스플레이 평면을 인코딩하는 단계는 제1 컨텐츠 소스로부터의 컨텐츠의 비트 전송률을 감소시키는 단계를 포함하고,
    디스플레이 평면을 원격 디바이스에 제공하는 단계는 디스플레이 평면의 구축을 수행하는 디바이스로부터 원격 디바이스까지 무선 송신 매체를 통해 인코딩된 디스플레이 평면을 송신하는 단계를 포함하며,
    명령 정보를 수신하는 단계는 디스플레이 평면의 구축을 수행하는 디바이스에서 원격 디바이스로부터 무선 송신 매체를 통해 낮은 비트 전송률 명령 정보를 수신하는 단계를 포함하고,
    낮은 비트 전송률 명령 정보는 시간라인을 수정하기 위한 제스쳐 정보를 포함하고, 제스쳐 정보는 제스쳐의 인디케이터, 및 제스쳐의 좌표들을 나타내는 좌표 정보를 포함하는, 방법.
  12. 제1항에 있어서,
    수정된 디스플레이 평면을 인코딩하는 단계;
    인코딩되고 수정된 디스플레이 평면을 원격 디바이스에 제공하는 단계;
    인코딩되고 수정된 디스플레이 평면을 제공하는 단계에 응답하여 원격 디바이스로부터 추가적인 명령 정보를 수신하는 단계로서, 추가적인 명령 정보는 수정된 디스플레이 평면을 수정하기 위한 것인, 추가적인 명령 정보를 수신하는 단계; 및
    수신된 추가적인 명령 정보에 기초하여 수정된 디스플레이 평면을 수정하는 단계;를 더 포함하는, 방법.
  13. 제1항에 있어서,
    명령 정보는 컨텐츠 소스로부터의 특정 광고(commercial)를 제2 컨텐츠 소스로부터의 컨텐츠로 대체하기 위해, 시간라인을 수정하기 위한 명령어들을 제공하는, 방법.
  14. 제1항에 있어서,
    디스플레이 평면의 제1 컨텐츠 소스 윈도우를 제1 컨텐츠 소스로부터의 새로운 컨텐츠로 업데이트하는 단계; 및
    원격 디바이스에 새로운 컨텐츠를 제공하는 단계로서, 원격 디바이스가 원격 디바이스에서 디스플레이 평면을 업데이트하도록 허용하는, 새로운 컨텐츠를 제공하는 단계;를 더 포함하는, 방법.
  15. 제14항에 있어서,
    새로운 컨텐츠를 인코딩하는 단계를 더 포함하며, 새로운 컨텐츠를 제공하는 단계는 인코딩된 새로운 컨텐츠를 제공하는 단계를 포함하는, 방법.
  16. 제1항에 있어서,
    제1 컨텐츠 소스 윈도우는, 제1 컨텐츠 소스 윈도우에 컨텐츠를 프리젠팅함(presenting)으로써, 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는, 방법.
  17. 제16항에 있어서,
    제1 컨텐츠 소스 윈도우는, 제1 컨텐츠 소스 윈도우에 비디오 컨텐츠를 디스플레이함으로써, 제1 컨텐츠 소스로부터의 비디오 컨텐츠를 프리젠팅하는, 방법.
  18. 제1항에 있어서,
    디스플레이 평면을 수정하는 단계는, 제1 컨텐츠 소스 윈도우가 제1 컨텐츠 소스와 상이한 제2 컨텐츠 소스로부터의 컨텐츠를 나타내도록, 제1 컨텐츠 소스 윈도우를 수정하는 단계를 포함하는, 방법.
  19. 제1항에 있어서,
    디스플레이 평면은 제2 컨텐츠 소스로부터의 컨텐츠를 나타내는 제2 컨텐츠 소스 윈도우를 더 포함하고,
    시간라인은 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스와 제2 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 것인, 방법.
  20. 장치로서,
    제1항 내지 제19항에 따른 방법들 중 하나 이상의 방법들을 수행하도록 구성된, 장치.
  21. 제20항에 있어서,
    제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 구축하기 위한 수단;
    원격 디바이스에 디스플레이 평면을 제공하기 위한 수단;
    디스플레이 평면을 제공하는 것에 응답하여 원격 디바이스로부터 명령 정보를 수신하기 위한 수단으로서, 명령 정보는 디스플레이 평면을 수정하기 위한 것인, 명령 정보를 수신하기 위한 수단; 및
    수신된 명령 정보에 기초하여 디스플레이 평면을 수정하기 위한 수단;을 포함하는, 장치.
  22. 제20항에 있어서,
    장치는 인코더, 디코더, 변조기, 복조기, 수신기, 셋톱 박스, 게이트웨이, 라우터, 태블릿, 원격 제어기, 랩톱, 또는 프로세서 중 하나 이상을 포함하는, 장치.
  23. 제20항에 있어서,
    장치는 제1항 내지 제19항에 따른 방법들 중 하나 이상의 방법들을 집합적으로 수행하도록 구성된 하나 이상의 프로세서들을 포함하는, 장치.
  24. 장치로서,
    하나 이상의 프로세서들로서,
    제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 구축하고,
    원격 디바이스에 디스플레이 평면을 제공하고,
    디스플레이 평면을 제공하는 것에 응답하여 원격 디바이스로부터, 디스플레이 평면을 수정하기 위한 명령 정보를 수신하고,
    수신된 명령 정보에 기초하여 디스플레이 평면을 수정하도록 집합적으로 구성된, 하나 이상의 프로세서들과;
    변조기로서, 신호를, 디스플레이 평면을 나타내는 데이터로 변조하도록 구성된, 변조기를 포함하는, 장치.
  25. 장치로서,
    하나 이상의 프로세서들로서,
    제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 구축하고,
    원격 디바이스에 디스플레이 평면을 제공하고,
    디스플레이 평면을 제공하는 것에 응답하여 원격 디바이스로부터, 디스플레이 평면을 수정하기 위한 명령 정보를 수신하고,
    수신된 명령 정보에 기초하여 디스플레이 평면을 수정하도록 집합적으로 구성된, 하나 이상의 프로세서들과;
    복조기로서, 신호를, 명령 정보를 나타내는 데이터로 복조하도록 구성된, 복조기를 포함하는, 장치.
  26. 명령어들을 저장한 프로세서 판독 가능한 매체로서,
    프로세서 판독 가능한 매체는 하나 이상의 프로세서들이:
    제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 구축하는 것;
    원격 디바이스에 송신을 위해 디스플레이 평면을 제공하는 것;
    디스플레이 평면을 제공하는 것에 응답하여 원격 디바이스로부터 수신된, 디스플레이 평면을 수정하기 위한 명령 정보에 액세스하는 것; 그리고,
    수신된 명령 정보에 기초하여 디스플레이 평면을 수정하는 것;을 적어도 집합적으로 수행하도록 하기 위한, 명령어들을 저장한 프로세서 판독 가능한 매체.
  27. 제26항에 있어서,
    프로세서 판독 가능한 매체는 콤팩트 디스크, 디지털 비디오 디스크, 프로세서의 메모리 요소, 또는 송신된 명령어들을 수신하는 수신기의 메모리 요소 중 하나 이상을 포함하는, 명령어들을 저장한 프로세서 판독 가능한 매체.
  28. 방법으로서,
    디스플레이 평면을 수신하는 단계로서, 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는, 디스플레이 평면을 수신하는 단계;
    디스플레이 평면을 수정하기 위한 명령 정보를 결정하는 단계; 및
    디스플레이 평면을 수정하기 위해 원격 디바이스에 명령 정보를 제공하는 단계;를 포함하는, 방법.
  29. 제28항에 있어서,
    수신된 디스플레이 평면은 인코딩된 디스플레이 평면을 포함하는, 방법.
  30. 제28항에 있어서,
    명령 정보를 인코딩하는 단계를 더 포함하고, 명령 정보를 제공하는 단계는 인코딩된 명령 정보를 제공하는 단계를 포함하는, 방법.
  31. 제30항에 있어서,
    명령 정보를 인코딩하는 단계는, 컨텐츠와 비교하여 낮은 비트 전송률 포맷으로 명령 정보를 인코딩하는 단계를 포함하는, 방법.
  32. 제28항에 있어서,
    제1 컨텐츠 소스로부터의 컨텐츠는, 프리젠테이션을 위해 적절한 포맷과 비교하여 압축된 포맷으로 수신되는, 방법.
  33. 제28항에 있어서,
    휴대용 디바이스는 수신, 결정, 및 제공을 수행하며, 휴대용 디바이스는 디스플레이 평면을 수정하기 위해, 그리고 프리젠테이션 디바이스를 위한 시퀀싱된 프리젠테이션을 생성하기 위해, 원격 디바이스에 의존하는, 방법.
  34. 제28항에 있어서,
    디스플레이 평면을 수정하기 위한 명령 정보는 프리젠테이션을 변경하기 위한 명령 정보를 포함하는, 방법.
  35. 제28항에 있어서,
    디스플레이 평면을 수정하기 위한 명령 정보를 결정하는 단계는 시간라인을 수정하기 위한 명령 정보를 결정하는 단계를 포함하는, 방법.
  36. 제28항에 있어서,
    수정된 디스플레이 평면의 인코딩을 수신하는 단계를 더 포함하고, 수정된 디스플레이 평면은 제공된 명령 정보에 기초하여 원격 디바이스에 의해 수정되는, 방법.
  37. 제28항에 있어서,
    명령 정보는 디스플레이 평면을 수정하기 위한 제스쳐의 인디케이터를 포함하고, 제스쳐의 좌표들을 나타내는 좌표 정보를 포함하는, 방법.
  38. 제37항에 있어서,
    제스쳐의 좌표들은 제스쳐의 접촉점(point of contact)을 나타내고,
    명령 정보는 제스쳐의 이동 방향, 제스쳐의 이동 스피드, 및 제스쳐의 접촉 기간을 더 포함하는, 방법.
  39. 제28항에 있어서,
    명령 정보를 결정하는 단계는 사용자로부터 명령을 수신하는 것에 응답하여 수행되는, 방법.
  40. 제39항에 있어서,
    수신된 명령은 제스쳐를 포함하는, 방법.
  41. 제28항에 있어서,
    디스플레이 평면을 수신하는 단계는 원격 디바이스로부터, 명령 정보의 결정을 수행하는 디바이스까지 무선 송신 매체를 통해 디스플레이 평면을 수신하는 단계를 포함하는, 방법.
  42. 제28항에 있어서,
    명령 정보를 제공하는 단계는 명령 정보의 결정을 수행하는 디바이스로부터 원격 디바이스까지 무선 송신 매체를 통해 명령 정보를 송신하는 단계를 포함하는, 방법.
  43. 장치로서,
    제28항 내지 제42항에 따른 방법들 중 하나 이상의 방법들을 수행하도록 구성된, 장치.
  44. 제43항에 있어서,
    장치는,
    디스플레이 평면을 수신하기 위한 수단으로서, 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는, 디스플레이 평면을 수신하기 위한 수단;
    디스플레이 평면을 수정하기 위한 명령 정보를 결정하기 위한 수단; 및
    디스플레이 평면을 수정하기 위해 원격 디바이스에 명령 정보를 제공하기 위한 수단;을 포함하는, 장치.
  45. 제43항에 있어서,
    장치는 인코더, 디코더, 변조기, 복조기, 수신기, 셋톱 박스, 게이트웨이, 라우터, 태블릿, 원격 제어기, 랩톱, 또는 프로세서 중 하나 이상을 포함하는, 장치.
  46. 제43항에 있어서,
    장치는 제28항 내지 제42항에 따른 방법들 중 하나 이상의 방법들을 집합적으로 수행하도록 구성된 하나 이상의 프로세서들을 포함하는, 장치.
  47. 장치로서,
    하나 이상의 프로세서들로서,
    제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는 디스플레이 평면을 수신하고,
    디스플레이 평면을 수정하기 위한 명령 정보를 결정하고,
    디스플레이 평면을 수정하기 위해 원격 디바이스에 명령 정보를 제공하도록 집합적으로 구성된, 하나 이상의 프로세서들, 및
    변조기로서, 신호를, 명령 정보를 나타내는 데이터로 변조하도록 구성된, 변조기를 포함하는, 장치.
  48. 장치로서,
    신호를, 디스플레이 평면을 나타내는 데이터로 복조하도록 구성된 복조기로서, 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는, 복조기, 및
    하나 이상의 프로세서로서,
    디스플레이 평면을 수정하기 위한 명령 정보를 결정하고,
    디스플레이 평면을 수정하기 위해 원격 디바이스에 명령 정보를 제공하도록 집합적으로 구성된, 하나 이상의 프로세서를 포함하는, 장치.
  49. 명령어들을 저장한 프로세서 판독 가능한 매체로서,
    프로세서 판독 가능한 매체는 하나 이상의 프로세서들이:
    원격 디바이스로부터 수신된 디스플레이 평면에 액세스하는 것으로서, 디스플레이 평면은 제1 컨텐츠 소스로부터의 컨텐츠를 나타내는 제1 컨텐츠 소스 윈도우, 및 프리젠테이션 디바이스를 위해 제1 컨텐츠 소스를 프리젠테이션으로 시퀀싱하기 위한 시간라인을 포함하는, 원격 디바이스로부터 수신된 디스플레이 평면에 액세스하는 것;
    디스플레이 평면을 수정하기 위한 명령 정보를 결정하는 것; 그리고,
    디스플레이 평면을 수정하기 위해, 원격 디바이스에 송신을 위한 명령 정보를 제공하는 것;을 적어도 집합적으로 수행하도록 하기 위한, 명령어들을 저장한 프로세서 판독 가능한 매체.
  50. 제49항에 있어서,
    프로세서 판독 가능한 매체는 콤팩트 디스크, 디지털 비디오 디스크, 프로세서의 메모리 요소, 또는 송신된 명령어들을 수신하는 수신기의 메모리 요소 중 하나 이상을 포함하는, 명령어들을 저장한 프로세서 판독 가능한 매체.
KR1020137017307A 2011-01-04 2011-12-15 컨텐츠를 시퀀싱 KR101951337B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161429556P 2011-01-04 2011-01-04
US61/429,556 2011-01-04
PCT/US2011/065172 WO2012094124A1 (en) 2011-01-04 2011-12-15 Sequencing content

Publications (2)

Publication Number Publication Date
KR20130132895A true KR20130132895A (ko) 2013-12-05
KR101951337B1 KR101951337B1 (ko) 2019-04-22

Family

ID=45478516

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137017307A KR101951337B1 (ko) 2011-01-04 2011-12-15 컨텐츠를 시퀀싱

Country Status (11)

Country Link
US (1) US9170704B2 (ko)
EP (1) EP2661749A1 (ko)
JP (1) JP5984840B2 (ko)
KR (1) KR101951337B1 (ko)
CN (1) CN103282962B (ko)
CA (1) CA2822585C (ko)
MX (1) MX2013007806A (ko)
MY (1) MY175006A (ko)
RU (1) RU2607236C2 (ko)
TW (1) TWI571868B (ko)
WO (1) WO2012094124A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200078593A (ko) * 2018-03-19 2020-07-01 광저우 스위엔 일렉트로닉스 코., 엘티디. 데이터 전송 장치 및 데이터 전송 방법

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014048576A2 (en) * 2012-09-28 2014-04-03 Frameblast Ltd System for video clips
US9081417B2 (en) * 2012-11-30 2015-07-14 Blackberry Limited Method and device for identifying contactless gestures
US10682102B2 (en) * 2013-03-15 2020-06-16 Fenwal, Inc. Systems, articles of manufacture, and methods for multi-screen visualization and instrument configuration
CN103414941A (zh) * 2013-07-15 2013-11-27 深圳Tcl新技术有限公司 基于智能电视的节目编辑方法及装置
US9471995B2 (en) * 2014-01-14 2016-10-18 Vixs Systems Inc. Codec engine with inline image processing
US10191647B2 (en) 2014-02-06 2019-01-29 Edupresent Llc Collaborative group video production system
US11831692B2 (en) * 2014-02-06 2023-11-28 Bongo Learn, Inc. Asynchronous video communication integration system
CN103780923A (zh) * 2014-02-11 2014-05-07 赛特斯信息科技股份有限公司 基于网页实现多画面播放的系统及方法
CN104883610B (zh) * 2015-04-28 2018-03-23 腾讯科技(北京)有限公司 贴片视频播放方法及装置
US20180239504A1 (en) * 2017-02-22 2018-08-23 Cyberlink Corp. Systems and methods for providing webinars
US10743073B1 (en) 2017-06-06 2020-08-11 Gopro, Inc. Systems and methods for streaming video edits
CN110753262A (zh) * 2018-07-24 2020-02-04 杭州海康威视数字技术股份有限公司 录像数据的消音方法及装置
US10965963B2 (en) 2019-07-30 2021-03-30 Sling Media Pvt Ltd Audio-based automatic video feed selection for a digital video production system
CN110784674B (zh) * 2019-10-30 2022-03-15 北京字节跳动网络技术有限公司 视频处理的方法、装置、终端及存储介质
US11997409B2 (en) 2019-10-30 2024-05-28 Beijing Bytedance Network Technology Co., Ltd. Video processing method and apparatus, and terminal and storage medium
US11307045B2 (en) * 2019-12-19 2022-04-19 Lenovo (Singapore) Pte. Ltd. Method and system to determine navigation actions based on instructions from a directional dialogue
CN111694971A (zh) * 2020-06-10 2020-09-22 三星电子(中国)研发中心 一种内容的推荐方法和系统
CN117425057A (zh) 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139222A (ja) * 2004-11-15 2006-06-01 Seiko Epson Corp リモートコントローラおよび画像表示システム
JP2009055105A (ja) * 2007-08-23 2009-03-12 Funai Electric Co Ltd 記録再生装置及びテレビジョン放送情報記録再生システム
JP2010108011A (ja) * 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218672A (en) 1990-01-19 1993-06-08 Sony Corporation Of America Offline editing system with user interface for controlling edit list generation
US6104334A (en) * 1997-12-31 2000-08-15 Eremote, Inc. Portable internet-enabled controller and information browser for consumer devices
US6760916B2 (en) * 2000-01-14 2004-07-06 Parkervision, Inc. Method, system and computer program product for producing and distributing enhanced media downstreams
US20020032019A1 (en) 2000-04-24 2002-03-14 Marks Michael B. Method for assembly of unique playlists
US8005345B2 (en) * 2001-06-27 2011-08-23 Verizon Business Network Services Inc. Method and system for dynamic control of digital media content playback and advertisement delivery
AR039964A1 (es) * 2002-06-04 2005-03-09 Qualcomm Inc Metodo y sistema para emitir un contenido de multimedia en un dispositivo portatil y un medio legible por computadora
US20050007453A1 (en) 2003-05-02 2005-01-13 Yavuz Ahiska Method and system of simultaneously displaying multiple views for video surveillance
JP2005174430A (ja) * 2003-12-10 2005-06-30 Matsushita Electric Ind Co Ltd コンテンツデータ再生装置
JP2006054521A (ja) * 2004-08-09 2006-02-23 Matsushita Electric Ind Co Ltd プレビュー再生装置、プレビュー再生方法、プレビュー再生用プログラム、コンテンツ提供装置
JP2007004896A (ja) * 2005-06-23 2007-01-11 Toshiba Corp 情報記憶媒体、情報転送方法、情報再生方法、及び情報記録方法
US8437409B2 (en) 2006-12-06 2013-05-07 Carnagie Mellon University System and method for capturing, editing, searching, and delivering multi-media content
JP2008166982A (ja) * 2006-12-27 2008-07-17 Toshiba Corp Dvdプレーヤ、及びその表示制御方法
US20090177301A1 (en) * 2007-12-03 2009-07-09 Codentity, Llc Scalable system and method for an integrated digital media catalog, management and reproduction system
US8112490B2 (en) * 2008-05-15 2012-02-07 Upton Kevin S System and method for providing a virtual environment with shared video on demand
WO2010071996A1 (en) 2008-12-23 2010-07-01 Gary Mark Symons Digital media editing interface
US8259816B2 (en) 2009-03-12 2012-09-04 MIST Innovations, Inc. System and method for streaming video to a mobile device
US8818172B2 (en) * 2009-04-14 2014-08-26 Avid Technology, Inc. Multi-user remote video editing
US9405710B2 (en) 2009-06-30 2016-08-02 Rovi Guides, Inc. Systems and methods for providing interactive media guidance on a wireless communications device
HUE038888T2 (hu) 2009-06-30 2018-12-28 Rovi Guides Inc Interaktív médiavezetés biztosítására szolgáló rendszerek és módszerek vezeték nélküli kommunikációs eszközön

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139222A (ja) * 2004-11-15 2006-06-01 Seiko Epson Corp リモートコントローラおよび画像表示システム
JP2009055105A (ja) * 2007-08-23 2009-03-12 Funai Electric Co Ltd 記録再生装置及びテレビジョン放送情報記録再生システム
JP2010108011A (ja) * 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200078593A (ko) * 2018-03-19 2020-07-01 광저우 스위엔 일렉트로닉스 코., 엘티디. 데이터 전송 장치 및 데이터 전송 방법

Also Published As

Publication number Publication date
US9170704B2 (en) 2015-10-27
MX2013007806A (es) 2013-08-21
CA2822585A1 (en) 2012-07-12
JP2014509432A (ja) 2014-04-17
RU2013136365A (ru) 2015-02-10
CN103282962B (zh) 2016-09-07
EP2661749A1 (en) 2013-11-13
MY175006A (en) 2020-06-01
CA2822585C (en) 2021-06-01
JP5984840B2 (ja) 2016-09-06
TW201246198A (en) 2012-11-16
TWI571868B (zh) 2017-02-21
CN103282962A (zh) 2013-09-04
RU2607236C2 (ru) 2017-01-10
WO2012094124A1 (en) 2012-07-12
KR101951337B1 (ko) 2019-04-22
US20130298026A1 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
KR101951337B1 (ko) 컨텐츠를 시퀀싱
US11405437B2 (en) Media seek mechanisms
US8381246B2 (en) Methods and apparatus for providing electronic program guides
JP4703767B2 (ja) メディア状態ユーザーインターフェース
KR101919475B1 (ko) 사용자 인터페이스 제공 장치 및 방법
CN102823268B (zh) 视频数据的技巧回放
US11570415B2 (en) Methods, systems, and media for generating a summarized video using frame rate modification
CN105453581A (zh) 从单个容器输出多种语言的音频和关联音频的系统和方法
CN102221959A (zh) 一种用于嵌入式媒体播放器多画面显示和控制的方法和系统及应用
KR20150056394A (ko) 영상 표시 장치 및 그 동작 방법
US20140215514A1 (en) Apparatus of rendering user interface for playing broadcast programs and the method thereof
EP2472519A1 (en) Multi-video rendering for enhancing user interface usability and user experience
KR20090020930A (ko) 개인 맞춤형 녹화 컨텐츠 처리 방법 및 장치
JP5740128B2 (ja) チャプタ設定制御装置及びチャプタ設定制御装置によるチャプタ設定制御方法
JP4413661B2 (ja) 録画再生装置、画像再生システムおよび端末装置
KR100564392B1 (ko) 미디어 전송기의 화면검색 재생방법
KR20150074577A (ko) 영상 표시 장치 및 그 동작 방법
JP2004194025A (ja) 動画像蓄積装置、視聴履歴調査システム
JP2015056769A (ja) コンテンツ記録装置およびコンテンツ記録方法
JP2013135280A (ja) 編集装置、および編集方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant