JP5984840B2 - コンテンツの順序付け - Google Patents

コンテンツの順序付け Download PDF

Info

Publication number
JP5984840B2
JP5984840B2 JP2013547521A JP2013547521A JP5984840B2 JP 5984840 B2 JP5984840 B2 JP 5984840B2 JP 2013547521 A JP2013547521 A JP 2013547521A JP 2013547521 A JP2013547521 A JP 2013547521A JP 5984840 B2 JP5984840 B2 JP 5984840B2
Authority
JP
Japan
Prior art keywords
content
display surface
timeline
gesture
command information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013547521A
Other languages
English (en)
Other versions
JP2014509432A5 (ja
JP2014509432A (ja
Inventor
フイツツパトリツク,ジヨン,ジエイムス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014509432A publication Critical patent/JP2014509432A/ja
Publication of JP2014509432A5 publication Critical patent/JP2014509432A5/ja
Application granted granted Critical
Publication of JP5984840B2 publication Critical patent/JP5984840B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks

Description

(関連出願の相互参照)
本願は、「Method and Apparatus for Cueing Video Content」と題する2011年1月4日出願の米国仮出願第61/429,556号の出願日の利益を主張するものであり、これによって、その全体が全ての目的において参照により本願明細書に組み込まれる。
コンテンツに関する実施態様について述べる。様々な具体的な実施態様は、ビデオ・コンテンツおよびオーディオ・コンテンツの順序付けに関する。
家庭におけるビデオ・コンテンツの視聴体験は、より高い信号処理能力を備えた、より複雑かつ洗練された娯楽システムが利用できるようになるにつれて、急速に進化し続けている。このようなシステムは、多くの場合、放送によって配信されるコンテンツとインターネットによって配信されるコンテンツとの両方を利用し、ほとんどの場合は、同時に複数のモードでの視聴が可能である。しかし、進歩してはいるが、さらにいくつかの機能があることが望ましいこともある。
1つの一般的態様によれば、表示面が構築される。表示面は、第1のコンテンツ・ソースからのコンテンツを示す第1のコンテンツ・ソース・ウィンドウと、第1のコンテンツ・ソースを提示デバイスでのプレゼンテーションの中に順序付けするタイムラインとを含む。表示面がリモート・デバイスに供給される。表示面を供給することに応答して、リモート・デバイスからコマンド情報が受信される。コマンド情報は、表示面を修正するためのものである。表示面は、受信したコマンド情報に基づいて修正される。
別の一般的態様によれば、表示面が受信される。表示面は、第1のコンテンツ・ソースからのコンテンツを示す第1のコンテンツ・ソース・ウィンドウと、第1のコンテンツ・ソースを提示デバイスでのプレゼンテーションの中に順序付けするタイムラインとを含む。コマンド情報が決定される。コマンド情報は、表示面を修正するためのものである。表示面を修正するために、コマンド情報がリモート・デバイスに供給される。
1つまたは複数の実施態様の詳細について、添付の図面および以下の記述で述べる。1つの特定の方法で述べている場合でも、実施態様を様々な方法で構成または実施することができることは明らかであろう。例えば、一実施態様は、方法として実行することもできるし、例えば1組の動作セットを実行するように構成された装置または1組の動作セットを実行する命令を記憶する装置などの装置として実施することもできるし、あるいは信号として実施することもできる。その他の態様および特徴は、以下の詳細な説明を添付の図面および特許請求の範囲と関連付けて考慮すれば、明らかになるであろう。
通信デバイスおよび通信プロセスの実施形態を示すブロック図/流れ図である。 入出力デバイスおよび入出力プロセスの実施形態の図である。 コンテンツの頭出し(cueing)を行うシステムおよびプロセスの実施形態を示すブロック図/流れ図である。 表示面およびコンテンツの順序付けを行うプロセスの実施形態の図である。 様々なコンテンツ・ソースの実施形態の図である。 第1のコンテンツ管理プロセスおよび装置の実施形態を示すブロック図/流れ図である。 第2のコンテンツ管理プロセスおよび装置の実施形態を示すブロック図/流れ図である。 コンテンツ管理システムおよびプロセスの実施形態を示すブロック図/流れ図である。 コンテンツ管理システムおよびプロセスの実施形態を示すブロック図/流れ図である。
上述のように、家庭におけるビデオ・コンテンツの視聴体験は、より高い信号処理能力を備えた、より複雑かつ洗練された娯楽システムが利用できるようになるにつれて、急速に進化し続けている。このようなシステムは、多くの場合、放送によって配信されるコンテンツとインターネットによって配信されるコンテンツとの両方を利用し、ほとんどの場合は、同時に複数のモードでの視聴が可能である。しかし、進歩してはいるが、さらにいくつかの機能があることが望ましいこともある。
様々な実施態様により、1つまたは複数の追加の機能が提供される。例えば、ユーザまたはオペレータは、イベントやパーティのときなど、他人をもてなしながら、視聴体験を最大限に高めたいと思うこともある。これを実現するために、スポーツのイベントや試合のコマーシャル部分を見ている間に、別の映画やハイライトなどのコンテンツをインタリーブすることが望ましいことがある。
様々な実施態様によれば、ユーザまたはオペレータは、コンテンツを同時または順番に見るために、いくつかのオプションを持つことができる。一部の娯楽システムでは、ピクチャ・イン・ピクチャ・ディスプレイのように、同じスクリーン上で複数のイベントを同時に見ることが可能である。コマーシャルの間にチャンネルを変えることができ、かつタイマを使用して、タイマがタイムアウトした後で最初に合わせた放送チャンネルに戻ることが望ましいこともある。本発明者等は、視聴者がコンテンツの順序付け作業を目にすることがないようにしながら、順序付けされた複数のコンテンツ要素を視聴者に対して提示するような方法で、ユーザがコンテンツを処理し、改変し、順序付けることを可能にするメカニズムの有用性を突き止めるに至った。様々な種類の改変としては、例えば、モザイク・ブロッキング、オーディオ・ミュート、シーン・スキップおよび/またはオーディオ差替えなどが挙げられる。
本開示に記載する様々な実施形態は、ビデオ・ディスプレイ・システムに表示するコンテンツの頭出しを行う方法および装置に関する。これらの実施形態のうちのいくつかは、例えばリモート処理タブレットなど、ビデオ・ディスプレイに表示する前にコンテンツのプレビューおよび順序付けを行うことを可能にする第2のデバイスを含む。ライブ・コンテンツは、頭出しを可能にするために、例えばハード・ドライブなどの記憶媒体を使用して時間を遅延させることができる。複数の追加ソースからのコンテンツを、ユーザによって編集されるように、メイン・ディスプレイにインタリーブすることもできる。これらの実施形態のいくつかでは、ユーザが事前に記録したコンテンツの時間遅延されたライブ・コンテンツへのポインタを使用することもできる。ホスト・ディスプレイ面は、セット・トップ・ボックス(STB)などのメイン処理デバイス内に構築され、少なくとも1つの実施態様では、変化するグラフィックスのみが頭出しを行うタブレットにディジタル送信されるようになっている。いくつかの実施態様では、手のジェスチャを用いてコンテンツの頭出しを行う。これらの手のジェスチャをディジタル化して、マスタ・ビデオ処理システムに送信し、シーケンスの処理を可能にする。
次に図1を参照すると、受信デバイスの具体的な実施形態のブロック図100が示してある。受信デバイス100は、様々な実施態様では、ゲートウェイ・デバイス、モデム、セット・トップ・ボックス、またはその他の同様の通信デバイスの一部として含まれる。また、図示のデバイスは、様々な実施態様では、例えばオーディオ・デバイスまたはディスプレイ・デバイスなど、その他のシステムにも組み込まれる。何れの場合も、簡潔にするために、システムの完全な動作のために必要ないくつかの構成要素は、当業者には周知であるため、図示していない。
図1に示すデバイスでは、入力信号受信器105がコンテンツを受信する。入力信号受信器105は、様々な実施態様では、例えば、いくつかの考えられるネットワークのうちの1つを介して供給される信号を受信し、復調し、復号するために使用されるいくつかの既知の受信回路のうちの1つである。考えられるネットワークとしては、例えば、無線ネットワーク、ケーブル・ネットワーク、衛星ネットワーク、イーサネット(登録商標)、ファイバ・ネットワークおよび電話回線網などが挙げられる。図示の実施態様では、制御インタフェース110またはタッチパネル・インタフェース115を介して与えられるユーザ入力に基づいて、入力信号受信器105が、所望の入力信号を選択し、取り出す(制御インタフェース110およびタッチパネル・インタフェース115は、様々な実施態様では同じインタフェースである)。タッチパネル・インタフェース115は、タッチ・スクリーン・デバイス(図1には図示せず)のためのインタフェースを含む。様々な実施態様では、タッチパネル・インタフェース115は、携帯電話、タブレット、マウス、ハイエンド・リモート・コントロール・デバイス、または同様のデバイスとのインタフェースをとるようになされている。
入力信号受信器105からの復号済み出力信号は、入力ストリーム・プロセッサ120に送られる。入力ストリーム・プロセッサ120は、最終的な信号の選択および処理を実行し、この処理は、復号済み出力信号の一部であるコンテンツ・ストリームのビデオ・コンテンツをオーディオ・コンテンツから分離することを含む。オーディオ・コンテンツは、オーディオ信号としてオーディオ・プロセッサ125に送られる。オーディオ・プロセッサ125は、圧縮ディジタル信号からアナログ波形信号への変換など、オーディオ信号の受信フォーマットからの変換を実行する。アナログ波形信号は、オーディオ・インタフェース130に送られ、さらに、ディスプレイ・デバイス(図1には図示せず)またはオーディオ増幅器(図1には図示せず)に送られる。あるいは、別の実施態様では、オーディオ・インタフェース130は高精細度マルチメディア・インタフェース(HDMI)ケーブル、またはSony/Philips Digital Interconnect Format(SPDIF)のような代替のオーディオ・インタフェースを用いて、ディジタル信号をオーディオ出力デバイスまたはディスプレイ・デバイスに供給する。また、他の実施態様では、オーディオ・インタフェース130は、1組または複数組のスピーカ・セットを駆動する増幅器を含む。オーディオ・プロセッサ125も、必要に応じて、記憶デバイス135にオーディオ信号を記憶するために変換を実行する。
ビデオ・コンテンツは、ビデオ信号として入力ストリーム・プロセッサ120から出力される。このビデオ信号は、ビデオ・プロセッサ140に送られる。ビデオ信号は、いくつかのフォーマットのうちの1つとすることができる。必要に応じて、ビデオ・プロセッサ140は、ビデオ信号の入力信号フォーマットに基づいてビデオ・コンテンツの変換を行う。例えば、様々な実施態様では、ビデオ信号は、圧縮ディジタル信号からアナログ波形信号に変換される。必要に応じて、ビデオ・プロセッサ140も、記憶デバイス135にビデオ信号を記憶するために変換を実行する。
記憶デバイス135は、入力部で受信したオーディオ・コンテンツおよびビデオ・コンテンツを記憶する。記憶デバイス135により、後に制御装置145の制御の下で、さらにコマンドに基づいて、コンテンツを取り出し、再生することができる。このようなコマンドとしては、例えば、ユーザ・インタフェース110および/またはタッチパネル・インタフェース115から受信する、早送り(FF)や巻戻し(Rew)などのナビゲーション命令などが挙げられる。様々な実施態様では、記憶デバイス135としては、例えば、(i)ハード・ディスク・ドライブ、(ii)例えばスタティックRAM(SRAM)やダイナミックRAM(DRAM)などの1つまたは複数の大容量集積電子メモリ、または(iii)コンパクト・ディスク(CD)ドライブやディジタル・ビデオ・ディスク(DVD)ドライブなどの交換可能な光ディスク記憶システムなどが挙げられる。
入力ストリーム・プロセッサ120または記憶デバイス135から生じて、ビデオ・プロセッサ140の出力として供給される変換済みビデオ信号は、ディスプレイ・インタフェース150に送られる。ディスプレイ・インタフェース150は、テレビジョン、コンピュータおよび/またはディスプレイ・モニタなどのディスプレイ・デバイス(図1には図示せず)に表示信号をさらに供給する。様々な実施態様では、ディスプレイ・インタフェース150は、例えば適切なレベルのアナログ赤/緑/青(RGB)信号をアナログRGBディスプレイに供給するインタフェースなどの、アナログ信号インタフェースである。他の実施態様では、ディスプレイ・インタフェース150は、例えばHDMIフォーマットのディジタル信号をHDMIディスプレイに供給するインタフェースなどの、ディジタル・インタフェースである。
制御装置145は、入力ストリーム・プロセッサ120、オーディオ・プロセッサ125、ビデオ・プロセッサ140、記憶デバイス135、ならびに、例えばユーザ・インタフェース110および/またはタッチパネル・インタフェース115などのユーザ・インタフェースを含む、受信デバイス100の構成要素のいくつかに、バスを介して接続される。図1の実施態様では、制御装置145は、入力ストリーム・プロセッサ120からの出力信号を、記憶デバイス135に記憶する信号や、例えばディスプレイ・デバイスおよび/またはオーディオ再生デバイスなどで再生される信号に変換する変換プロセスを管理する。受信デバイス100の制御装置145は、記憶デバイス135に記憶されたコンテンツの取出しおよび再生も管理する。
制御装置145は、さらに制御メモリ155に結合されている。様々な実施態様では、制御メモリ155としては、RAM、SRAM、DRAM、ROM、プログラマブルROM(PROM)、フラッシュ・メモリ、電子的にプログラム可能なROM(EPROM:Electronically Programmable ROM)および/または電子的に消去可能なプログラム可能なROM(EEPROM:Electronically Erasable Programmable ROM)などの揮発性メモリまたは不揮発性メモリが挙げられる。制御メモリ155は、制御装置145のための情報および命令コードを記憶するためのものである。様々な実施態様では、制御メモリ155は、受信デバイス100および/あるいは1つまたは複数のその他のデバイスを操作する際に制御装置145によって実行される命令を記憶する。様々な実施態様では、このようなその他のデバイスとしては、例えば、受信デバイス100を含むメイン・デバイス(例えばゲートウェイ、セット・トップ・ボックスまたはモデム)、および/あるいはメイン・デバイスに含まれる、またはメイン・デバイスと通信する別のデバイスが含まれる。
例えばソフトウェア・コンポーネントやソフトウェア・インタフェースなど、制御メモリ155に記憶されて操作のために使用される情報および命令コードは、通常の実施態様では、制御装置145によって実行される。さらに、様々な実施態様では、記憶された情報および命令コードの全てまたは一部を通信インタフェースを介して通信することによって一部の動作が転送され、外部デバイスによって実行される。様々な実施態様では、このような外部デバイスとしては、例えば、以下で述べるようにタッチパネル・デバイスなどが含まれる。
いくつかの実施態様では、制御メモリ155は、例えばコンテンツを含むグラフィック要素などの、要素のデータベースも記憶する。さらに、様々な実施形態では、制御メモリ155は、単一のメモリ・デバイスに実装されるか、あるいは、互いに通信可能に接続または結合されて共用メモリまたは共通メモリを形成する複数のメモリ回路に実装される。さらに、いくつかの実施態様では、制御メモリ155は、例えばさらに大きな回路中のバス通信回路の一部分などの、その他の回路と共に含まれる。
様々な実施態様では、受信デバイス100の構成要素のいくつかが、ビデオ処理ユニットの一部として含まれる。少なくとも1つのこのような実施態様では、入力ストリーム・プロセッサ120、ビデオ・プロセッサ140、記憶デバイス135および制御装置145は、ビデオ処理ユニットの一部として含まれる。少なくとも1つの実施態様によるビデオ処理ユニットの機能について、以下でさらに詳細に述べる。
様々な実施態様のユーザ・インタフェース・プロセスでは、例えば早送りや巻戻しなどの機能を表現するために使用することができる入力デバイスが使用される。これを可能にするために、図1に示すように、受信デバイス100のユーザ・インタフェース110および/またはタッチパネル・インタフェース115を介して、例えばリモート・タブレットなどのタッチパネル・デバイスとのインタフェースがとられる。このようなタッチパネル・デバイスの1つを、図2に示す。
図2を参照すると、タッチパネル・デバイス200が示してある。タッチパネル・デバイス200により、例えば受信デバイス100または受信デバイス100を含むメイン・デバイス(例えばセット・トップ・ボックス)を動作させることができる。タッチパネル・デバイス200は、例えばタッチパネル・デバイス200を通して受信デバイス100、セット・トップ・ボックスまたはその他の制御デバイスへのコマンドに変換される手の動きや動作に基づいて、このような動作を可能にする。
様々な実施態様では、ジェスチャを使用して入力を与えるが、特に指のジェスチャを使用する。指のジェスチャは、通常は、例えば(i)1本または複数本の指が最初にタッチ・スクリーンに触れた1つまたは複数の初期位置(例えばジェスチャの接触点またはジェスチャの座標と呼ぶ)、(ii)1本または複数本の指のそれぞれが初期位置にとどまる時間(例えばジェスチャの接触時間と呼ぶ)、(iii)1本または複数本の指のそれぞれがタッチ・スクリーン上を移動する方向(例えばジェスチャの動作方向と呼ぶ)、(iv)1本または複数本の指がタッチ・スクリーン上を移動する間の1本または複数本の指のそれぞれの1つまたは複数の中間位置および最終位置、および/または、(v)1本または複数本の指のそれぞれがタッチ・スクリーン上を移動する速さ(例えばジェスチャの動作速さと呼ぶ)などの変数の入力を与える。なお、ジェスチャの速度は、ジェスチャの動作速さとジェスチャの動作方向の組合せを指す。
一実施形態では、タッチパネル・デバイス200は、ディスプレイ内のナビゲートを行うナビジェーション・ツールとして単純に機能する。別の実施形態では、タッチパネル・デバイス200は、ユーザがコンテンツの表示を通してさらに直接的にナビゲーションとやりとりできるようにするディスプレイ・デバイスとしてさらに機能する。
一実施態様では、タッチパネル・デバイス200は、例えばフロントパネル・ディスプレイまたはアレイの一部としてセット・トップ・ボックス自体に一体化される。別の実施態様では、(あるいは、またはこれに加えて、)タッチパネル・デバイス200は、アクティベータ・ボタンなどのより多くの従来の制御機能を含むリモート・コントロール・デバイスの一部として含まれる。
図3を参照すると、表示および視聴のためにビデオ・コンテンツを処理して頭出しするシステム300の実施形態が示してある。図3のシステム300は、ソフトウェア・コンポーネントおよびハードウェア・コンポーネントの両方の組合せを示す。システム300は、ビデオ処理ユニット302およびリモート・タブレット304を含む。
図3は、ビデオ処理ユニット302がリモート・タブレット304と通信するための通信媒体306も示している。通信媒体306は、厳密に言えば、システム300の一部分ではない。
図3は、さらに、ビデオ処理ユニット302の入力における一連のコンテンツ・オプション310も示している。コンテンツ・オプション310は例であり、制限的または排他的な意図を持つものではなく、必要なものでもない。コンテンツ・オプション310は、ビデオ処理ユニット302への入力として、その一部として示してある。従って、コンテンツ・オプション310は、少なくとも一時的には、ビデオ処理ユニット302に記憶される。ただし、通常の実施態様では、ビデオ処理ユニット302は、ビデオ処理ユニット302の外部にあるソースから得られるコンテンツ・オプション310の少なくとも一部にアクセスする。コンテンツ・オプション310は、第1の番組のストリーム・コンテンツ311、写真コンテンツ312、音楽コンテンツ313、第2の番組のストリーム・コンテンツ314、ゲーム・セレクション・コンテンツ315、インターネット・ストリーミング・コンテンツ316およびイーサネット(登録商標)・コンテンツ317を含む。
ビデオ処理ユニット302に含まれるハードウェア・コンポーネントは、少なくとも1つの実施態様では、例えば図1に示す受信デバイス100などの受信デバイスに含まれ、さらにセット・トップ・ボックス、ゲートウェイ・デバイスまたはテレビジョンのディスプレイ・デバイスに含まれる。ビデオ処理ユニット302に含まれるソフトウェア・コンポーネントは、少なくとも1つの実施態様では、受信デバイスまたは同様のデバイスのメモリに記憶され、そのデバイス内の制御装置またはマイクロプロセッサによって実行される。
リモート・タブレット304のハードウェア・コンポーネントは、少なくとも1つの実施態様では、例えば図2に示すタッチパネル・デバイス200などのタッチ・スクリーン・ディスプレイまたはタブレットに含まれる。なお、このシステムの主要なソフトウェア要素は、メイン・ビデオ処理ユニット内に記憶され、そこで実行されるようになっており、主として信号インタフェースをリモート・タブレットの機能に任せるようになっていることに留意することが重要である。すなわち、様々な実施態様では、リモート・タブレットは、多くの機能は実行しない。その代わりに、システムの機能のほとんどは、メイン・ビデオ処理ユニットが実行する。
図3において、コンテンツ310は、例えば記録された番組ストリーム311および314、音楽コンテンツ313ならびに/またはインターネット316からのライブ・ストリームなど、様々な形態でビデオ処理ユニット302内に存在する。ビデオ処理ユニット302は、制御ブロック320をさらに含む。ビデオ処理ユニット302の制御ブロック320は、コンテンツ310に対するポインタを制御する。
これらのポインタは、ライブ・ポインタおよび1つまたは複数のキュー・ポインタを含む。システム300には、4つのキュー・ポインタがあるが、図4には、キュー・ポインタ1と呼ばれる第1のキュー・ポインタと、キュー・ポインタ4と呼ばれる第4のキュー・ポインタとが示してある。ライブ・ポインタは、視聴者に対してすぐに表示または提示するように意図されているコンテンツを読取り、表示するために使用される。キュー・ポインタは、以下の図4のシミュレーションに示すフレームを構成するコンテンツを指す。ビデオ処理ユニット302は、ポインタ制御線322を含む。ポインタ制御線322は、制御ブロック320によって制御され、ビデオ処理ユニット302で使用される様々なポインタを制御する。これらのポインタのそれぞれについて、またそれらのポインタの制御については、以下でさらに述べる。
ビデオ処理ユニット302は、制御ブロック320に結合された実時間クロック324をさらに含む。実時間クロック324は、後述のように、イベントの同期を行うために使用される。
ビデオ処理ユニット302は、ライブ・ディスプレイ・フレーム・ビルダ330およびディスプレイ/オーディオ・インタフェース335をさらに含む。ライブ・ディスプレイ・フレーム・ビルダ330は、視聴者に対して表示するフレームを構築し、これらのフレームと関連するオーディオとをディスプレイ/オーディオ・インタフェース335に供給する。ディスプレイ/オーディオ・インタフェース335は、出力ビデオおよび出力オーディオを、例えばテレビジョンやコンピュータなどの提示デバイス(図示せず)に供給する。ライブ・ディスプレイ・フレーム・ビルダ330は、ライブ・ポインタを使用して、視聴者に対して提示するコンテンツの位置を突き止める。
ビデオ処理ユニット302は、ディスク・ジョッキ(DJ)シミュレーション・フレーム・ビルダ340をさらに含む。タブレット・シミュレーション・フレーム・ビルダ340は、ユーザが様々な利用可能なコンテンツ・ソースの頭出しまたは順序付けを行うことを可能にする頭出しフレームを作成する。従って、ユーザは、ライブ・ディスプレイ・フレーム・ビルダ330によって構築されたライブ・ディスプレイの提示タイムラインを構築することができる。タブレット・シミュレーション・フレーム・ビルダ340は、4つのキュー・ポインタを使用して、頭出しフレームを構築する。これら4つのキュー・ポインタは、以下で説明するように、リモート・タブレット304のユーザによって調節可能である。
タブレット・シミュレーション・フレーム・ビルダ340の具体的な実施態様について、図4を参照して述べる(図4については、本願の別の箇所で詳細に説明する)。タブレット・シミュレーション・フレーム・ビルダ340のこの実施態様では、様々なコンテンツ・ストリームまたはコンテンツ・ファイルに対するオーディオおよびビデオ・ポインタ(より一般的にはメディア・ポインタと呼ばれる)を使用する。これらのポインタは、例えば、番組タイトルおよび/またはメディア・タイム・スタンプを指している。特定の実施態様では、メディア・ポインタは、メディア・タイトルと、番組カウンタまたは番組タイム・スタンプ参照とを含む。より一般的には、メディア・ポインタは、通常は、メディア・ソース指標と、メディア・ソース内での位置の識別子とを含む。
これらのポインタは、通常は、コンテンツ、および/または、ビデオ/オーディオ・コンテンツのフレームを規定する。ビデオ・コンテンツは、それよりも小さいフレーム解像度およびサイズにトランスコードされる。トランスコードされたコンテンツは、通常は、図4に示すようにタイムラインとその他の画像および制御アイコンとを含む合成画像に組み込まれる。制御フレームとも呼ばれるこの合成画像、および/または一連の合成画像(制御フレーム)のシーケンスが、より低いビット・レートで符号化され、リモート・タブレット304にディジタル送信される。
例として、特定の合成画像または制御フレーム(表示面とも呼ばれる)は、図4に示すように、720×480の画素ブロックからなる。図4のジェスチャ表(430参照)およびその他の静止部分は、様々な変化する画像(402、404、406および408参照)が追加される、記憶された不変画素マップの一部である。表示面の画像部分(402、404、406および408参照)は、特定のストリーム位置または静的メディアの画像で構成される。これらの画像(402、404、406および408参照)はそれぞれ、例えば、適当な表示面ウィンドウ(402、404、406および408参照)に適合するように、例えば180×120画素の画像サイズにトランスコードされた720×480画素ブロックから生成される。ビデオ処理ユニット302は、ユーザから与えられるジェスチャ・コマンドから様々なタイムラインを構築する。静止部分、画像ウィンドウ(402、404、406および408参照)ならびに様々なタイムラインは、ビデオ処理ユニット302によって合成画像に組み込まれる。また、ビデオ処理ユニット302は、それらの様々なタイムラインに従ってユーザに提示される、その結果得られるメディア・シーケンスも構築する。
少なくとも1つの実施態様では、次いで、この合成表示面をMPEG符号化して、リモート・タブレット304に電子的に送信する。従って、このような実施態様では、ビデオ処理ユニット302からリモート・タブレット304に転送される唯一のデータは、ビット・レートおよびフレーム・レートを低下させたビデオ/オーディオ・データ・シーケンスである。ディジタル符号化されたジェスチャおよびリモート・タブレット304のボタン・プレスは、ビデオ処理ユニット302にディジタル送信されて、制御をさらに明確にする。
頭出しフレームまたは順序付けフレームは、表示面(display plane)とも呼ばれる。図3は、表示面の一例を示す表示面342を含む。
図4を参照すると、表示面の別の例が示してある。図4は、4つのコンテンツ・ウィンドウ、すなわち第1のコンテンツ・ソースAのウィンドウ402、第2のコンテンツ・ソースBのウィンドウ404、ライブ・コンテンツ・ソースのウィンドウ406およびビルド・コンテンツ・ソースのウィンドウ408を含む表示面400を含む。ウィンドウ402は、例えば第1のキュー・ポインタによって指示されたコンテンツを表示する。ウィンドウ404は、例えば第2のキュー・ポインタによって指示されたコンテンツを表示する。ウィンドウ406は、例えばライブ・シーケンスを指す第3のキュー・ポインタによって指示されたコンテンツを表示する。ウィンドウ408は、例えばユーザが構築しているシーケンスを指す第4のキュー・ポインタによって指示されたコンテンツを表示する。これら4つのキュー・ポインタは、図3に示す通りであり、タブレット・シミュレーション・フレーム・ビルダ340によって使用される。
なお、ライブ・コンテンツのキュー・ポインタ(例えば上記で特定した第3のキュー・ポインタ)は、ライブ・ディスプレイ・フレーム・ビルダ330を用いて視聴者に対してこれから示される、または既に示されたシーケンスを指すことに留意されたい。これに対して、ビルド・シーケンスのキュー・ポインタ(例えば上記で特定した第4のキュー・ポインタ)は、構築中のシーケンスを指す。以下でさらに説明するように、ビルド・シーケンスをライブ・シーケンス中にコピーすることもできる。従って、多くの実施態様では、ライブ・シーケンスは、ビルド・シーケンスの以前のバージョンである。
従って、当技術分野ではよくあるように、ユーザは、様々なコンテンツを用いて次の5分間(1分から5分まで)のコンテンツを提供するビルド・シーケンスを構築し、このビルド・シーケンスをライブ・シーケンス中にコピーすることができる。次いで、ビデオ処理ユニット302は、1分から5分までの間、構築されたシーケンスを再生する。その間に、ユーザは、次の10分間(6分から15分まで)のコンテンツを提供する新たな「ビルド・シーケンス」を、引き続き構築することができる。次いで、ユーザは、この新たなビルド・シーケンス(6分から15分まで)をライブ・シーケンス中にコピーすることができる。ビデオ処理ユニット302は、その後、「古い」ビルド・シーケンス(1分から5分までの間)を再生した後で、この新たなビルド・シーケンス(6分から15分までの間)を再生する。
なお、ライブ・ポインタおよびライブ・コンテンツのキュー・ポインタは、両方ともライブ・コンテンツを指すことにも留意されたい。ただし、ライブ・ポインタは、視聴者に対する提示の現在の状態によって決定される。これに対して、ライブ・コンテンツを指すキュー・ポインタは、ユーザによる表示面とのインタラクションによって、例えばライブ・シーケンスのこれから先の部分を見たいと希望することによって決定される。
表示面400については、以下でさらに説明する。その説明は、リモート・タブレット304の説明との関連において行う。
再度図3を参照すると、ビデオ処理ユニット302は、エンコーダ344を含む。エンコーダ344は、例えばハイパーテキスト・マークアップ言語(HTML)またはMPEG符号化あるいはその両方を用いて、表示面を符号化する。特に、一実施態様では、HTMLのバージョン5を使用する。エンコーダ344は、例えば、HTML5ラッパー、MPEGエンコーダ、またはデータ圧縮用に設計された別の符号化方法である。
また、ビデオ処理ユニット302は、デュプレックス無線インタフェース346またはその他の何らかの通信メカニズムと、アンテナ348とを含む。デュプレックス無線インタフェース346は、アンテナ348から通信媒体306を介して、符号化された表示面を伝送する。
リモート・タブレットは、アンテナ350と、デュプレックス無線インタフェース355またはその他の通信メカニズムとを含む。リモート・タブレット304のデュプレックス無線インタフェース355は、様々な実施態様では、ビデオ処理ユニット302のデュプレックス無線インタフェース346と同じである。ただし、その他の実施態様では、デュプレックス無線インタフェース355は、デュプレックス無線インタフェース346と異なる。
動作に際しては、リモート・タブレット304の通常の実施態様では、伝送された表示面を、アンテナ350およびデュプレックス無線インタフェース355を介して受信する。リモート・タブレット304は、制御ブロック360およびデコーダ365をさらに含む。デュプレックス無線インタフェース355は、受信した表示面を、制御ブロック360およびデコーダ365の両方に供給する。ただし、その他の実施態様では、制御ブロック360とデュプレックス無線インタフェース355の間の接続は省略される。
また、リモート・タブレット304は、復号された表示面375を表示することができ、そのように構成されたタッチ・スクリーン370も含む。デコーダ365は、復号された表示面375を生成し、これをユーザに対して提示するためにタッチ・スクリーン370に供給する。制御ブロック360は、タッチ・スクリーン370に通信可能に結合されて、以下でさらに少なくとも1つの実施態様について説明するように、ユーザによる手のジェスチャまたはその他の入力を受信し、これを解析する。
再度図4を参照すると、4つのウィンドウ402〜408については、上記で既に述べた。表示面400は、コンテンツ選択部410、ジェスチャ・キー430、タイムライン部450およびツール部490をさらに含む。
コンテンツ選択部410は、例えばアクセスしてビルド・シーケンスに一体化することができる様々なコンテンツのサムネイル・スケッチを含む。図4は、8個のコンテンツ・アイテム411〜418を示すが、例えばスクロールすることによって、さらに多くのコンテンツ・アイテムを示すこともできる。
ジェスチャ・キー430は、コンテンツを操作するために使用することができる様々なジェスチャを特定するものである。図4には、ペースト及びスクラブ・ジェスチャ431、選択及びスクラブ・ジェスチャ432、フリック・ジェスチャ433、削除ジェスチャ434、ライブ選択ジェスチャ435、コピー・ジェスチャ436、スクラブ・ジェスチャ437、2本指拡大ジェスチャ438および2本指縮小ジェスチャ439の、9個のジェスチャが示してある。これらのジェスチャについては、以下でさらに述べる。
タイムライン部450は、ライブ・シーケンス・タイムライン451、ソースAタイムライン452、ソースBタイムライン453およびビルド・シーケンス・タイムライン454を含む。図4は、タイムライン451〜454と共にコンテンツの頭出しを実行するためにジェスチャを使用する一例を示している。
リモート・タブレット304を操作しているホスト・ユーザは、リモート・タブレット上で手のジェスチャを使用して、どの操作を実行するかを示すことができる。操作としては、例えば、(i)フレーム・シーケンスを確認する、(ii)1つのタイムラインからシーケンスを選択し、コピーし、別のタイムラインにペーストする、(iii)タイムラインからシーケンスを選択し、削除する、(iv)1つのタイムラインからシーケンスのオーディオ部分のみを選択し、別のタイムラインにコピーする、などが挙げられる。これらのジェスチャは、ディジタル処理によって解釈され、リモート・タブレット304からビデオ処理ユニット302に返送され、ビデオ処理ユニット302において、これらのジェスチャを使用して、リモート・タブレット304のシーケンスを作成し、またライブ・メディア・ポインタの位置を変更する。上述のように、実時間クロック324を使用して、イベントを同期させる。
次に、表示面400のジェスチャ・キー部430に示すジェスチャ431〜439について説明する。ジェスチャ431〜439は、例えば下記のような1つまたは複数の基本動作から構成される。
(i)タッチ・スクリーンを指でショート・タップする。ショート・タップは「ドット」と呼ばれ、表示面400内のジェスチャ・キー430およびその他の場所では、丸印で表される。
(ii)タッチ・スクリーンを指でロング・タップする。ロング・タップは、ショート・タップよりも長い時間、指がタッチ・スクリーン上にとどまっているようなタップである。ロング・タップは「ダッシュ」と呼ばれ、表示面400内のジェスチャ・キー430およびその他の場所では、水平方向に長い長円で表される。
(iii)「ドット」または「ダッシュ」の後にタッチ・スクリーン上で指を移動させる。これらは、ジェスチャ・キー430内では矢印付きの細線で表される。矢印の向きは、指の移動方向を示している。これらの移動は、通常は、いくつかの異なる方向のうちの1つまたは複数に向かって行うことができる。
次に、上記の基本動作を参照して、ジェスチャ・キー430内に示す各ジェスチャについて述べる。
(i)スクラブ:スクラブは、一般に、スクロールなどの方法で1つのコンテンツの全体を通して移動することを指す。スクラブにより、例えば、ユーザは、コンテンツを通して見たり、またはコンテンツ全体にわたって手作業で検索を行ったりする仕組みを得る。スクラブは、ロング・タップの後、指をスクリーンから離さずに、所望のスクロール方向に指を移動させることによって開始される。
(ii)ペースト&スクラブ:ユーザは、以前にコピーしたコンテンツをペーストしたいと思う領域を「ショート・タップ」する。その後、ユーザは、指をスクリーンから離さずに、指を下方に短い距離だけ移動させて、このジェスチャがペースト及びスクラブのジェスチャであることを示す。その後、ユーザは、指をスクリーンから離さずに、指を左または右に移動させて、所望のペーストの領域を示す。例えば、ユーザは、コンテンツをビルド・シーケンス・タイムライン454内にペーストしたいときには、ビルド・シーケンス・タイムライン454の一部分をタップする。次いで、ユーザは、指を下方に移動させた後、指を左または右に移動させて、ビルド・シーケンス・タイムライン454内の所望のペーストの位置を示す。所望のペースト位置が見つかったら、ユーザは、指をスクリーンから離して、コンテンツをペーストする。
このユーザの指を左/右に移動させることを、このジェスチャの「スクラブ」部分と呼ぶ。多くの用途では、ユーザは、例えばタイムライン中にあるコンテンツをしばしばスクラブする。このようなスクラブ中に、ユーザの指は、タイムライン上の様々な点を横切る。この横断中、このタイムラインのウィンドウは、通常はこのコンテンツのビデオを表示する。表示されるビデオは、任意の所与の瞬間にユーザの指が指している時点に対応するように移動(順方向または逆方向)する。
以前にコピーしたコンテンツは、通常は一定の時間幅を有している。従って、様々な実施態様では、ユーザは、ペーストの開始位置(または代替の実施態様では終了位置)のみを特定する。さらに、様々な実施態様では、ペースト・コマンドは、挿入または上書きのどちらかとして実行される場合もあれば、あるいはペーストが挿入であるか上書きであるかをユーザが指定できるようにする場合もある。
ペースト・コマンドは、実施態様によって様々な方法で実施される。例えば、特定の実施態様では、選択したコンテンツを、「ドラッグ」ジェスチャを用いて所望の位置までドラッグすることによってペーストする。様々な実施態様では、ドラッグ・ジェスチャは、ショート・タップの後で指を所望の位置まで移動させることによって実行される。
ペーストされるコンテンツは、様々な異なるアイテムとすることができる。例えば、様々な用途では、ペーストされるコンテンツは、コンテンツ・サムネイル411〜418のうちの1つ、タイムライン451〜454から選択した1つ、または1つのタイムライン全体である。
(iii)選択&スクラブ:ユーザは、コンテンツを選択したいと思う領域を「ショート・タップ」する。その後、ユーザは、指をスクリーンから離さずに、指を上方に短い距離だけ移動させて、このジェスチャが選択及びスクラブのジェスチャであることを示す。その後、ユーザは、指をスクリーンから離さずに、指を左または右に移動させて、ユーザが選択したいコンテンツの1つの端点を示す。例えば、ユーザは、ソースAタイムライン452中のコンテンツを選択したいので、ソースAタイムライン452の一部分をタップする。その後、ユーザは、指を上方に移動させた後、指を左または右に移動させて、ソースAタイムライン452内の選択したいコンテンツの第1の端点を示す。第1の端点を選択することを、パンチング・インまたはパンチ・インと呼ぶ。
1つの端点を選択した後で、ユーザは、第2の端点を選択する。第2の端点を選択することを、パンチング・アウトまたはパンチ・アウトと呼ぶ。第2の端点を選択するためには、ユーザは、第1の端点を選択した後で指をスクリーンから離し、同じコンテンツ領域を再度ショート・タップし、スクラブして(左または右に移動して)所望の第2の端点を発見し、指をスクリーンから離す。第2の端点を選択すると、このコンテンツが選択されたことになる。多くの用途では、選択されたコンテンツは、例えば色が変わるなど、何らかの形で見た目が変わる。
ユーザは、一般に、「選択及びスクラブ」を実行した後で別のジェスチャを実行する。例えば、「ペースト及びスクラブ」ジェスチャ、「フリック」ジェスチャ、「削除」ジェスチャ、または「コピー」ジェスチャが、「選択及びスクラブ」ジェスチャの後で実行されることが多い。
選択されるコンテンツは、様々な異なるアイテムとすることができる。例えば、様々な用途では、選択されるコンテンツは、コンテンツ・サムネイル411〜418のうちの1つ、タイムライン451〜454から選択した1つ、または1つのタイムライン全体である。
従って、一例として、選択及びスクラブ・ジェスチャは、削除、コピーまたは移動を行うシーケンスの始点および終点を設定する仕組みを与える。スクラブにより、コンテンツ内で前後に移動して、適切な選択位置を正確に特定することができる。様々な実施態様では、選択点のコンテンツは、例えばウィンドウ402〜408のうちの1つなど、表示ウィンドウ内に表示される。
(iv)フリック:ユーザは、コンテンツを「ショート・タップ」する。その後、ユーザは、指をスクリーンから離さずに、指を一方向に移動させる。この方向は、ユーザがコンテンツを移動させたい方向を示す。移動させるコンテンツの初期速さは、離す前の指の速さによって決まる。コンテンツは、モーメントを有するように見え、シミュレートした抵抗に応じて減速する。1つの用途では、ユーザは、選択したコンテンツを右に向かってフリックして、このコンテンツをタイムライン内の後の時点で移動させる。別の用途では、ユーザは、コンテンツ・サムネイル411〜418のうちの1つを、ウィンドウ402〜408のうちの1つの中にフリックする。別の用途では、ユーザは、コンテンツ・サムネイル411〜418のうちの1つを、タイムライン451〜454のうちの1つにフリックする。多くの用途では、移動の速さ(フリックの速さ)は、フリックされたアイテムが移動する距離を示す。
(v)削除:ユーザは、あるアイテムを削除することを決定する。その後、ユーザは、そのアイテム内の同じ位置で、2回の「ショート・タップ」と1回の「ロング・タップ」を素早く連続して行う。削除されるアイテム/コンテンツは、様々な異なるアイテムとすることができる。例えば、様々な用途では、削除されるコンテンツは、コンテンツ・サムネイル411〜418のうちの1つ、タイムライン451〜454から選択した1つ、または1つのタイムライン全体である。削除は、「選択及びスクラブ」ジェスチャを実行した後に実行されることが多い。
様々な実施態様では、削除操作は、タイムラインに異なる影響を及ぼす。特定の実施態様では、タイムラインの選択した部分を削除した後で、右側の(時間的には後の)コンテンツが自動的に左に移動して(時間的に遡って)、削除されたコンテンツと置き換わる。これは、積み上げた積み木から積み木を1つ取り除くと、それより上にある全ての積み木が下方にずれて積み木を取り除いたことによって生じた穴を埋めるのと同様である。その他の実施態様では、タイムラインの削除された部分が単純に黒で上書きされる。これらの実施態様では、通常は「移動」ジェスチャを設けて、ユーザが削除した部分の左(または右)からコンテンツを選択して移動させ、タイムラインのその側を移動させて穴を埋めることができるようにする。
(vi)ライブ選択:ユーザは、ライブ・タイムラインを別のコンテンツ・ソースに変更することを決定する。ユーザは、このコンテンツをショート・タップした後でロング・タップし、その後再度ショート・タップする。これを、コンテンツ内でドット、ダッシュ、ドットを実行するという。様々な実施態様では、ユーザは、例えばコンテンツ・サムネイル411〜418のうちの1つ、ウィンドウ402〜408のうちの1つ、またはタイムライン451〜454のうちの1つなど、様々なアイテム上で「ライブ選択」ジェスチャを実行することができる。
「ライブ選択」ジェスチャは、ユーザ(ホスト)が視聴者に向けたコンテンツを素早く修正するためのメカニズムを与える。1つのシナリオでは、視聴者はフットボールの試合を視聴中で、ユーザはホーム・ビデオをソースAタイムライン452中に引き込んでいる。ユーザは、フットボールの試合中にコマーシャルが始まったことに気付き、ソースAタイムライン452上で「ライブ選択」を実行する。また、ユーザは、フットボールの試合をソースBタイムライン453に引き込み(代替実施態様では、リモート・タブレット304のシステムソフトウェアがこの操作を自動的に実行するように構成される)、従ってコンテンツ・ソースB用のウィンドウ404上にフットボールの試合は表示されている。ユーザは、ウィンドウ404上でコマーシャルが終了し、フットボールの試合が再開されたことに気付くと、ウィンドウ404上で「ライブ選択」を実行する。
(vii)コピー:ユーザは、あるアイテムをコピーすることを決定する。ユーザは、例えばコピーしたコンテンツを別の位置にペーストする、コンテンツを削除する、またはコンテンツをフリックするなど、別のジェスチャを後に実行するために、コンテンツをコピーすることができる。コンテンツをコピーするためには、ユーザは、アイテム内の同じ位置で、1回の「ショート・タップ」と1回の「ロング・タップ」を素早く連続して実行する。多くの用途では、コピーされたコンテンツは、例えば色が変わるなど、何らかの形で見た目が変わる。
(viii)2本指拡大:ユーザは、あるアイテムを拡大することを決定する。例えば、ユーザは、ビルド・シーケンス・タイムライン454のタイム・スケールが圧縮されすぎていると判断する。ユーザは、2本の指を近づけた状態にし、この2本の指をタイムライン上の拡大する点に同時に置く。その後、ユーザは、2本の指を離すように、所望の拡大方向に同時に動かす。
(ix)2本指縮小:ユーザは、あるアイテムを縮小することを決定する。例えば、ユーザは、ビルド・シーケンス・タイムライン454のタイム・スケールを圧縮することを決定する。ユーザは、2本の指を同時に使って、このジェスチャを実行する。ユーザは、離間させた2本の指を、タイムライン上の縮小する領域に同時に置く。その後、ユーザは、2本の指を互いに向かって同時に動かす。
上述のジェスチャは、単なる例示であり、全てを網羅するものではない。様々な実施態様では、上記のジェスチャのうちの一部を使用し、かつ/または追加のジェスチャを使用する。例えば、特定の実施態様では、(i)特定のウィンドウを選択する、(ii)特定のウィンドウに示される時間を選択する、(iii)リモート・タブレット304でオーディオを再生するウィンドウを選択する、あるいは(iv)通常速度または実時間の倍数で再生(順方向または逆方向)する、一時停止する、最後までスキップする、最初までスキップする、または特定のウィンドウのその他の一般的なコマンドを実行する、といったことのうちの1つまたは複数のためのジェスチャを含む。さらに、その他の実施態様は、3本以上の指を使用する、かつ/またはその他の動きを行うジェスチャを含む。
さらに、その他のジェスチャは、表示面内のボタンまたはその他のグラフィックスに関して定義される。例えば、表示面400は、各ウィンドウ402〜408内にグラフィックス・バー483を含む。グラフィックス・バー483は、ウィンドウ406および408では拡大されており、ウィンドウ402および404では縮小されている。グラフィックス・バー483は、順再生、逆再生、早送り再生、巻戻し再生、ボリューム・アップ、ボリューム・ダウンおよびボリューム・ミュートなどの多数の一般的なコマンドのためのボタンを含む。グラフィックス・バー483は、番組の時間およびフレーム・レート指標を示す情報シンボルも含む。例えばこれらのボタンのうちの1つでショート・タップを実行することにより、ユーザは、ビデオ処理ユニット302に命令することができる。
制御ブロック360は、タッチ・スクリーン370をモニタリングして、ユーザからのジェスチャを受信する。タッチ・スクリーン370にタッチが行われると、制御ブロック360は、このタッチを解析して、ジェスチャの位置、およびどのジェスチャが実行されたかを判定する。ジェスチャを判定した後で、制御ブロック360は、ジェスチャ識別子およびジェスチャ位置を決定し、ジェスチャ識別子およびジェスチャ位置の両方を符号化する。
制御ブロック360は、いくつかの実施態様では、ジェスチャの基本動作をそれらが実行された順序で特定することによって、ジェスチャを判定する。次いで、制御ブロック360は、これらの動作を利用可能な定義されたジェスチャの動作と突き合わせることによって、このジェスチャを判定する。ジェスチャを判定した後で、特定の実施態様では、このジェスチャをジェスチャ番号と関連付ける。ジェスチャ番号は、特定の実施態様では、ジェスチャ識別子である。その他の実施態様では、ジェスチャ番号を表中の指標として使用して、ジェスチャ識別子として使用されるビット・シーケンスを決定する。特定の実施態様では、表参照によって、各ジェスチャ番号に一定ビット・レートまたは可変ビット・レートのビット・シーケンスを与える。8個から16個のジェスチャがある実施態様では、単純な一定ビット・レート・コードで、各ジェスチャに4ビットを割り当てる。
ジェスチャ位置は、ジェスチャを受信したタッチ・スクリーン370上の位置を指す。通常の実施態様では、ジェスチャ位置の(x,y)座標を与える。ただし、特定のジェスチャは、複数の(x,y)座標を必要とする。例えば、指の移動が検出された場合には、制御ブロック360は、指が移動する範囲、および必要なら指が移動する速さを示す指標も決定する。この位置情報は、いくつかの既知の方法で表すことができる。様々な代替実施態様では、ジェスチャは、例えばジャイロスコープ・マウス・トランスデューサなどのジャイロスコープ・トランスデューサを用いて、または動き感知加速度計デバイスを用いて伝えられる。
符号化された情報が、制御ブロック360からデュプレックス無線インタフェース355に供給される。デュプレックス無線インタフェース355は、アンテナ350を用いて、符号化されたジェスチャ情報をビデオ処理ユニット302に伝送する。
このように、リモート・タブレット304の多くの実施態様では、リモート・タブレット304からビデオ処理ユニット302への、低帯域幅とも呼ばれる低データ・レートの通信を実現する。例えば、ジェスチャ識別子およびジェスチャ位置を送信するために必要なデータ・レートは、多くの実施態様では、かなり低い。
再度図4を参照すると、ツール部490は、いくつかのツールの例を含む。これらの例としては、以下が挙げられる。
スライド・ショー・ボタン492によって起動されるスライド・ショー・ツール。スライド・ショー・ツールは、スライド・ショーを構築して、例えば音楽またはユーザが語る音声を追加するために使用される。
ミュート・ボタン494によって起動されるミュート・ツール。ミュート・ツールは、ユーザが例えばシステム・オーディオをミュートするための便利な手段である。
ピクチャ・イン・ピクチャボタン496によって起動されるピクチャ・イン・ピクチャ(PIP)ツール。PIPツールは、例えば見ている視聴者のメイン・ディスプレイ・モニタ上のリモート・タブレット・ウィンドウ402、404、406および408のうちの2つ以上をPIP方式で表示するためのものである。
「オーディオ・トラック表示」ボタン498によって起動される「オーディオ・トラック表示」ツール。「オーディオ・トラック表示」ツールは、例えば、表示されるビデオのタイムラインの上にオーディオ・トラックを重畳する、かつ/またはオーディオ・トラックをビデオのタイムラインの横に表示するために使用される。
さらに図4を参照すると、いくつかのユーザ頭出し(順序付け)動作が示してある。以下、3つの順序付け動作について述べる。
第1のユーザ順序付け動作では、コンテンツ・アイテム418に重ねてコピー・ジェスチャ461(ドット・ダッシュ)が示してある。これは、ユーザのアクションを示すものであり、表示面400の一部ではない。ユーザは、コピー・ジェスチャ461が示す位置でコピー・ジェスチャ461を実行して、コンテンツ・アイテム418をコピーする。コピーされたコンテンツ・アイテム418は、次いで、ソースBタイムライン453にペースト及びスクラブ表示462によって示されるように、ペースト及びスクラブ・ジェスチャ431を用いてソースBタイムライン453にペーストされる。
図4は、2つの目的を果たす移動線463も示している。第1の目的は、コピーされたコンテンツ・アイテム418がペースト及びスクラブ表示462を用いてペーストされたコンテンツであることを示すことである。第2の目的は、ドラッグ・アンド・ドロップ動作を用いてコンテンツをペーストする別の実施態様を示すことである。ドラッグ・アンド・ドロップ動作は、さらにドラッグ・アンド・ドロップ表示464によって示してある。ユーザは、おそらく、ソースBタイムライン453上でコンテンツ418をプレビューする。なお、ドラッグ・アンド・ドロップ動作は、ジェスチャ・キー430には表示されていないことに留意されたい。
第2のユーザ順序付け動作では、ユーザは、特定のコンテンツを既に選択し、これをソースAタイムライン452に挿入している(図示せず)。場合によりコンテンツをプレビューした後で、ユーザは、2つの「選択及びスクラブ」ジェスチャ432を用いて端点を選択して、ソースAタイムライン452からコンテンツを選択する。2つの選択及びスクラブ・ジェスチャ432は、選択及びスクラブ表記471および選択及びスクラブ表記472によって示してある。
次いで、選択されたコンテンツは、コピー表記474で示すようにコピー・ジェスチャ436を用いてコピーされる。コピーされたコンテンツは、ペースト及びスクラブ表記476で示すように、ペースト及びスクラブ・ジェスチャ431を用いてビルド・シーケンス・タイムライン454にペーストされる。
また、図4は、2つの目的を果たす移動線477も示している。第1の目的は、ソースAタイムライン452からコピーされたコンテンツ・アイテムがペースト及びスクラブ表記476を用いてペーストされたコンテンツであることを示すことである。第2の目的は、ドラッグ・アンド・ドロップ動作を用いてコンテンツをペーストする別の実施態様を示すことである。ドラッグ・アンド・ドロップ動作は、さらにドラッグ・アンド・ドロップ表記478によって示してある。
第3のユーザ順序付け動作では、ユーザは、事前にコピーされたコンテンツをライブ・シーケンス・タイムライン451にペーストする。ライブ・シーケンス・タイムライン451へのペーストは、ペースト及びスクラブ表記481によって示すように、ペースト及びスクラブ・ジェスチャ431を用いて実行される。ペーストされたコンテンツは、ライブ・シーケンス・タイムライン451上にライブ・ポインタ・マーク464で示すように、これから先のコンテンツである。
第4のユーザ順序付け動作では、ユーザは、ライブ選択シンボル表記485で示すように、ウィンドウ404上でライブ選択ジェスチャ435を実行する。「ライブ」シーケンス・タイムラインおよびコンテンツは、「B」シーケンス・タイムラインおよびコンテンツで置換される。従って、「ライブ」ディスプレイ(ウィンドウ406)は、「選択」マークが付された時点、または選択線/マークが指定されない場合にはシーケンスの開始時に「B」シーケンス・タイムライン453内にあったものを再生することになる。
リモート・タブレット304のユーザは、視聴者がまだビデオ・ストリームを見ているときに、コンテンツ・オフラインを操作することができる。この機能により、視聴者に対して中断のないメディア・シーケンスが提供される。以下はその一例である。
少なくとも1つの実施態様では、ライブのフットボールの試合が放送され、例えばパーソナル・ビデオ・レコーダ(PVR)やディジタル・ビデオ・レコーダ(DVR)とも呼ばれるパーソナル・データ・レコーダ(PDR)など、ユーザのメディア記録デバイスによって記録される。同時に、ドラマが放送され、同じメディア・デバイスがこの提示を記録している。番組開始から一定時間が経過すると、数分ぶんの番組が記録メディアに記録される。これにより、ユーザは、コマーシャルなどコンテンツの一部を除去し、例えばドラマや、または家族で公園に遊びに行ったときの映像などその他の個人的なメディア素材を、除去した部分の代わりに挿入することができるようになる。ホスト・デバイス(例えばビデオ処理ユニット302)は、コマーシャルを第2のビデオ・シーケンス(例えば映画ドラマ・シーケンス)にナビゲートして、これによって置換することができるように、フットボールの試合などのイベントをわずかに遅延させる。
あるいは、またはこれに加えて、いくつかの実施態様では、リモート・メディア・パッドまたはタブレットを、タッチ・スクリーン・コマンドがあったときにイベントの再生を再開させるように設定する。例えば、いくつかの用途では、ユーザ自身も、視聴者に含まれていることがある。コマーシャルになったとき、ユーザは、視聴者がこれらのコマーシャルを見たがっているかどうかを判断する。視聴者がコマーシャルを見たがっていない場合には、ユーザは、リモート・タブレット304からタッチ・スクリーン・コマンドを供給し、ビデオ処理ユニット302は、イベントの事前に記録してある部分の再生を再開する。
上記の実施態様の多くでは、コンテンツは、メイン・ビデオ処理システムで頭出しされ、最終的なグラフィック表示面のみがリモート・ディスプレイ・タブレットに送信される。これにより、低帯域幅の通信要件が満たされるので有利である。
さらに、様々な実施態様は、リモート・タブレット304からビデオ処理ユニット302への低帯域幅通信の要件も備えている。これは、例えばジェスチャ情報が例えば前述のように低データ・レートであることから生じる。
図5を参照すると、1つまたは複数の実施態様で利用可能なコンテンツの選択が示してある。図5のコンテンツは、特定の実施態様では、表示面400のコンテンツ選択部410内にサムネイルとして提供される。図5に示す実際のコンテンツは、様々な実施態様では、ビデオ処理ユニット302、例えばローカルPDRやその他のローカルにネットワーク接続された記憶ドライブなどの遠隔記憶デバイス、および/またはインターネットでアクセスされるウェブ・サイト(例えばクラウド型記憶デバイス)にある。一実施態様では、図5は、ビデオ処理ユニット302またはリモート・タブレット304に挿入されたサム・ドライブ上のコンテンツを表す。別の実施態様では、図5は、無線で(例えばBluetooth(登録商標)接続を用いて)ビデオ処理ユニット302と通信する携帯電話から入手できるコンテンツを表す。
ビデオ処理ユニット302の通常の実施態様が、現在のライブ・コンテンツだけでなく以前に記録された番組も記憶するハード・ドライブなどの記憶媒体を含むことに留意することは重要である。様々な実施態様のビデオ処理ユニット302は、さらに、(i)ネットワーク化が可能であり、かつ/あるいは、(ii)例えばメモリ・スティック、追加ハード・ドライブ、DVD、Blu−rayディスクなどのその他のメディア・ソースおよび/または「クラウド」記憶デバイスに接続される。この記憶媒体に記憶されるのは、例えば(i)ユーザのコンテンツ、(ii)例えばネットワーク・ファイル転送プロトコル(FTP)サーバのウェブサイトなどその他のソースから入手可能なコンテンツ、(iii)共用コンテンツ、(iv)商業的に作成されたコンテンツ、および/あるいは(v)ライブの、または遅延させた番組など、様々なコンテンツである。
図3のシステム300は、上述のように、この編集デバイスの制御の無線リモート・アクセス可能性も含む。すなわち、リモート・タブレット304は、ビデオ処理ユニット302と無線遠隔通信して、タイムラインを編集することができる。無線機能は、様々な実施態様では、Institute of Electrical and Electronics Engineers(IEEE)規格802.11などの手段を通して与えられる。実際の編集待ち行列(edit queues)は、ビデオ処理ユニット302のメイン・デバイス(例えばセット・トップ・ボックスのパーソナル・ビデオ・レコーダ(PVR)など)で実行される(例えば受信したジェスチャ・コマンドを処理して表示シーケンスを作成する)。2つ以上のビデオ/オーディオ・ストリーム(例えばコンテンツ・オプション310からのストリーム)を、さらに低い伝送ビット・レートにトランスコードして、リモート・タブレット304に配信する。リモート・タブレット304は、例えば図4に示すようなグラフィカル・ユーザ・インタフェースを有する。素材内のナビゲーションおよびコンテンツの順序付けまたは待ち行列化(queuing)は、例えば「ジョグ・シャトル」(マニュアル・インタフェース・タイプのもの)または編集ジェスチャを備えたタッチ・スクリーンを用いて実施される。
リモートFTPサーバやBlu−rayディスクなどのメディア・ソースは、マルチウィンドウ表示面を用いて様々な実施態様に実装またはインスタンス化される。これは、例えば表示面400のウィンドウ402(上記ではコンテンツ・ソースA用に使用するものとして述べた)を、リモートFTPサーバやBlu−rayディスクのコンテンツのためのウィンドウとして用いることによって、示すことができる。
これらのソースからのシーケンスは、その他のソースと同様にトランスコードされ、表示面内のリモート・タブレット304に送信される。トランスコードは、一般に、ソースのビット・レートを低下させるような方法で行う符号化を指す。様々な実施態様では、ソース・コンテンツのビット・レートを、少なくとも2つの方法で低下させる。
第1の方法では、伝送帯域幅を低減するために、標準的なビデオ・フレーム・レートより低いフレーム・レート、および/またはより低い解像度ビット・レートで、リモート・タブレット304に表示面を供給する。例えば、様々な実施態様のビデオ処理ユニット302は、毎秒15表示面のレートで表示面を供給する。従って、ウィンドウ402〜408に表示されるビデオは、毎秒わずか15フレームのフレーム・レートで表示される。これは、例えばより標準的なレートである毎秒30フレームより低い。
第2の方法では、表示面を符号化してデータを圧縮する。いくつかの実施態様では、この符号化において、重要ビットを削減するロッシー符号化を用いる。ロッシー符号化メカニズムの一例は、MPEG符号化である。
その他の様々な実施態様では、ビデオ処理ユニット302は、ソースからのシーケンスをトランスコードし、トランスコードしたデータをリモート・タブレット304に送信し、表示面は作成しない。その代わりに、リモート・タブレット304が、リモート・タブレット304の処理機能を用いて、トランスコード・シーケンスから表示面を組み立てる。
様々な実施態様では、メディア・ストリームのラベルおよびビデオ/オーディオ・キュー・ポインタのタイム・スタンプ情報は、ビデオ処理ユニット302によって維持される。このように維持することにより、ジェスチャによって生成されるプログラム・スクリプティングおよびリモート・タブレット304からのタイムライン修正に従って、1つのメディア・イベントから別のメディア・イベントにジャンプする提示を行うことができる。
様々な実施態様では、ライブ番組へのメディア挿入は、DVDプレイヤおよびまたはBlu−rayプレイヤなどのデバイスを用いて行われる。様々なこのような実施態様では、ディスク時間情報が記憶される。ディスク時間情報は、ディスク・プレイヤの再生位置を定め、提示タイムライン中の適切な点においてメディア・コンテンツ内の所定の点からの再生を行うために使用される。一実施態様では、Blu−rayプレイヤは、編集点が発生したときにディスク再生にシームレスに移行できるように、編集挿入点で、ビデオ処理ユニット302によって一時停止される。様々な実施態様では、ディスク・プレイヤの制御は、赤外線(IR)によって無線で、無線周波数(RF)によって無線で、または有線制御によって行われる。
少なくとも1つの実施形態では、リモート・タブレット304に渡される唯一の情報は、トランスコードされた表示面およびメタデータである。メタデータは、タイムラインおよび表示ウィンドウに表される個別のメディア・コンテンツの番組名およびタイム・スタンプ情報のみを含む。
なお、システム300の通常の実施態様では、表示面の全体を符号化し、伝送することに留意されたい。従って、更新された表示面をリモート・タブレット304に供給するためには、ビデオ処理ユニット302は、表示面全体を作成し、符号化し、伝送する。更新された表示面は、例えば異なっているのが1つのウィンドウの中身だけであることも多い。様々な実施態様では、MPEGまたはその他の差分符号化を使用して、更新された表示面の異なっている部分にビットを集中させるようにして、表示面を符号化する。
上述の実施形態のうちの様々な実施形態は、メイン表示スクリーン・コンテンツ(例えばライブ・ディスプレイ・フレーム・ビルダ330から供給されるコンテンツ)の頭出しを行うリモートの第2のスクリーン・タブレット機能(例えばリモート・タブレット304)に関する。フットボールの試合などのメディア視聴イベントに何人かの人が参加している期間中に、コンテンツのホストまたはマスタが、視聴されている番組を変更したいと思うこともある。見ている番組の変更は、放送中にコマーシャルが始まったためである場合もあれば、あるいは、ユーザが最近パリに旅行したときの写真などのコンテンツを挿入したいと思ったためである場合もある。コンテンツは、802.11、Bluetooth、Radio Frequency for Consumer Electronics(RF4CE)、Zigbeeなどの手段によって、またはサム・ドライブを介して、メディアを無線でビデオ処理ユニットに接続することによって、配信またはアップロードすることができる。ホスト・ユーザまたはクライアントは、リモート・タブレット・デバイスを使用して、次のコマーシャルが始まったときに、あるいはユーザが望む、または特定したトリガ・イベント(例えばフットボールの試合のハーフタイムなど)にタイミングを合わせて、コンテンツを頭出しし、このコンテンツを順序付けして再生することができる。
いくつかの実施態様では、リモート・メディア・タブレットまたはパッド(pad)が、ホスト・ユーザ・システム上のコンテンツ・ファイルを発見し、それらを表示シーケンスのタイムラインにロードするブラウザ・デバイスに対応していることも明らかであろう。様々な実施態様のブラウザ・デバイスは、例えばインターネット、様々なメディア・チャネル(例えば衛星やケーブル)、事前に記録したコンテンツ、ライブ・コンテンツ、Blu−rayメディア、および/またはDVDメディアなどにおいてコンテンツを検索する。個々のピクチャが選択された場合には、スライド・ショー提示オプションを選択することができる。ビデオ・シーケンスが選択された場合には、試合を少しだけ事前に記録し、効果的に時間をずらすことによって、フットボールの試合のコマーシャルにタイミングを合わせて始まるように、このビデオ・シーケンスを待ち行列に入れる。リモート・タブレットでは、手のジェスチャを利用して、コンテンツを選択し、頭出しイベントを構築する。
上述のシステムの様々な実施態様は、ディスク・ジョッキやビデオ・エディタ/プレゼンタの処理機能と同様の処理機能を、効果的にホストに与える。メディアを待ち行列化する方法およびリモート・タブレットのビューワにおけるコンテンツの表示によって、様々な実施形態は、オペレータまたはコンテンツの所有者が複数の番組を順序付けして提示し、表示されている試合またはイベントのコマーシャル・シーケンスを自分のコンテンツで置き換えることを可能にする。
様々な実施形態では、さらに、例えば、ライブ選択ジェスチャ435に関連して上記で述べたように、試合のコマーシャルをホストに対してライブ表示することを可能にする。これにより、ホストは、例えば、コマーシャルの代わりに別のコンテンツを再生することが可能になり、また、試合を再開できるようにコマーシャルがいつ終わったかを知ることが可能になる。
関連する実施態様では、ユーザ(ホスト)は、コマーシャルを「ブラック・アウト」する。また、いくつかの用途では、ユーザは、コマーシャルの間に音楽を重ね合せる。これは、例えば、コマーシャルが始まったときに2つの動作を実行することによって行われる。1つの動作は、コマーシャルが始まったときに、音楽コンテンツ上でライブ選択ジェスチャ435を実行することである。もう1つの動作は、コマーシャルが始まったときに、ライブ・シーケンス・タイムライン451上で「ビデオ・ミュート」動作を実行することである。ビデオ・ミュート動作によって、ビデオがブラック・アウトする。ビデオ・ミュート動作は、様々な実施形態では、例えばジェスチャ(図示せず)またはボタン(図示せず)を用いて実施される。
また、上記の実施態様では、特定のシナリオにおいて、ユーザは、ブラック・アウトしたコマーシャルが視聴者にとって関心のあるものであると判断する。このシナリオでは、ユーザは、後にライブ・シーケンス・タイムライン451でこのコマーシャルが再生されるように順序付けすることができる。
様々な実施態様では、メディア・コンテンツは、視聴者のメイン・ディスプレイ上のより小さなウィンドウ内にコンテンツが表示される、PIPフォーマットで配置される。特定の実施態様では、表示面のウィンドウは、PIP表示が可能になるように、かつ/またはPIPがライブ表示上のどこに位置するかを示すように、構成される。
さらに別の実施態様では、部分的なビデオ・ミュートのためのジェスチャまたはボタンが設けられる。部分的なビデオ・ミュートは、ビデオ・スクリーンの一部分をブラック・アウトし、わずかな一部分は見える状態のまま残して、コマーシャルが終わったときにユーザまたは視聴者に比較的分かりやすいようにする。様々な実施態様では、ブラック・アウトするビデオ・スクリーンの一部分は、ユーザが設定し、変更することができる。
代替実施形態では、ビデオ処理ユニット302で処理を実行するのではなく、リモート・タブレット304にビット・ストリームを送信して処理を行う。このような実施態様では、ビデオ処理ユニット302のトランスコーダが、例えばハード・ドライブに記憶されたコンテンツをトランスコードする。コンテンツは、より単純なビデオ信号フォーマットを有するデータ・ストリームにトランスコードされる。また、時間コード・マーキングもトランスコードされる。これらのビット・レートを低下させたストリームおよび関連するマーキングは、リモート・タブレット304に送信される。リモート・タブレット304は、受信したコンテンツをスクロールする双方向性機能を有する。この実施態様では、リモート・タブレット304に転送されるものがトランスコードされたビデオおよび現在のフレームのタイム・スタンプ情報のみであるので、転送レートが低く、帯域幅が狭い。
本願に記載する様々な実施形態は、ビデオ・ディスプレイ・システムに表示するビデオ・コンテンツの頭出し、改変、および転送を実現する。これらの実施形態は、リモート処理タブレットとして使用されて、ビデオ・ディスプレイに表示する前にコンテンツのプレビューおよび順序付けを行うことができるようにする、第2のデバイスを含む。ライブ・コンテンツは、頭出しを行うことができるようにするために、ハード・ドライブなどの記憶媒体を用いて時間遅延させることができる。複数の追加ソースからのコンテンツをインタリーブして、メイン・ディスプレイ上に表示することもできる。これらの実施形態は、時間遅延させたライブ・コンテンツおよび/またはユーザが事前に記録したコンテンツに対するポインタを使用することを含む。ホスト表示面は、ビデオ処理ユニットにおいて、メイン処理デバイス(例えばセット・トップ・ボックス、ゲートウェイ、ルータ)の一部として構築される。これにより、変化するグラフィックスのみをリモート処理タブレットにディジタル送信して頭出しすることができる。手のジェスチャを使用して、リモート・タブレット上のコンテンツを頭出しし、制御する。これらの手のジェスチャは、ディジタル化され、ビデオ処理ユニットに返送されて、結合されたビデオ・シーケンスの処理(例えば編集、改変、インタリーブ)を可能にする。
図6を参照すると、プロセス600が示してある。プロセス600は、表示面を構築すること(610)を含む。これは、様々な実施態様では、例えば、本願で述べるようにビデオ処理ユニット302によって実行される。
様々な実施態様では、表示面は、第1のコンテンツ・ソースからのコンテンツを示す第1のコンテンツ・ソース・ウィンドウと、第1のコンテンツ・ソースを提示装置でのプレゼンテーションの中に順序付けするタイムラインとを含む。追加の実施態様では、表示面は、第2のコンテンツ・ソースからのコンテンツを示す第2のコンテンツ・ソース・ウィンドウと、第1のコンテンツ・ソースおよび第2のコンテンツ・ソースを提示装置でのプレゼンテーションの中に順序付けするタイムラインとをさらに含む。
様々な実施態様では、第1のコンテンツ・ソース・ウィンドウは、第1のコンテンツ・ソースとして選択されているコンテンツの指標を示すことによって、第1のコンテンツ・ソースからのコンテンツを示す。このような指標は、例えばアイコンである。このような指標は、第1のコンテンツ・ソースの実際のコンテンツを提示する必要はない。様々なこのような実施態様では、実際のコンテンツは提示されない。様々なその他のこのような実施態様では、実際のコンテンツは、例えばこのプレゼンテーションを提示しているメイン・ディスプレイのピクチャ・イン・ピクチャなど、代替の提示デバイスに提示される。
様々な実施態様では、第1のコンテンツ・ソース・ウィンドウは、第1のコンテンツ・ソースからのコンテンツを第1のコンテンツ・ソース・ウィンドウ内に提示することによって示す。第1のコンテンツ・ソース・ウィンドウは、例えば第1のコンテンツ・ソースからのビデオ・コンテンツを、第1のコンテンツ・ソース・ウィンドウ内に表示することによって提示する。第1のコンテンツ・ソース・ウィンドウは、例えば第1のコンテンツ・ソースからのオーディオ・コンテンツを、オーディオを再生する際に第1のコンテンツ・ソース・ウィンドウ内にオーディオの振幅グラフを表示することによって提示する。
プロセス600は、リモート・デバイスに表示面を供給すること(620)を含む。これは、様々な実施態様では、例えば、本願に述べるように、ビデオ処理ユニット302がリモート・タブレット304に表示面を送信することによって行われる。
プロセス600は、表示面を修正するためのコマンド情報を受信すること(630)を含む。これは、様々な実施態様では、例えば、本願に述べるように、ビデオ処理ユニット302がジェスチャ識別子およびジェスチャ位置をリモート・タブレット304から受信することによって行われる。
プロセス600は、コマンド情報に基づいて表示面を修正すること(640)を含む。これは、様々な実施態様では、例えば、本願で述べるように、ビデオ処理ユニット302が、リモート・タブレット304から受信したジェスチャ識別子およびジェスチャ位置に応じて表示面400を修正することによって行われる。
様々な実施態様では、表示面の修正は、第1のコンテンツ・ソース・ウィンドウが第1のコンテンツ・ソースとは異なる第2のコンテンツ・ソースからのコンテンツを示すように、第1のコンテンツ・ソース・ウィンドウを修正することを含む。表示面の修正は、例えばタイムライン内でコンテンツを移動させることも含む。
図7を参照すると、プロセス700が示してある。プロセス700は、表示面を受信すること(710)を含む。これは、様々な実施態様では、例えば、本願で述べるように、リモート・タブレット304がビデオ処理ユニット302から表示面400を受信することによって行われる。
プロセス700は、表示面を修正するためのコマンド情報を決定すること(720)を含む。これは、様々な実施態様では、例えば、本願で述べるように、リモート・タブレット304の制御ブロック360が、(i)タッチ・スクリーン370から受信した入力に基づいてジェスチャを決定し、(ii)そのジェスチャについてジェスチャ識別子およびジェスチャ位置を決定することによって行われる。
プロセス700は、表示面を修正するリモート・デバイスにコマンド情報を供給すること(730)を含む。これは、様々な実施態様では、例えば、本願で述べるように、リモート・タブレット304がジェスチャ識別子およびジェスチャ位置をビデオ処理ユニット302に送信することによって行われる。コマンド情報を送信することにより、ビデオ処理ユニット302は、本願で述べるように表示面400を修正することができるようになる。
次に図8を参照すると、上述の特徴および原理を適用することができるコンテンツ管理システムまたは装置800が示してある。コンテンツ管理システムまたは装置800は、例えば、衛星、ケーブル、電話回線、地上波放送、赤外線または無線周波数など様々な媒体のうちの何れかを用いて信号を伝送するシステムとすることができる。あるいは、コンテンツ管理システムまたは装置800は、例えば記憶するための信号を供給するために使用することもできる。伝送は、例えば、インターネットまたはその他の何らかのネットワーク、あるいは見通し線(line of sight)を介して行うことができる。コンテンツ管理システムまたは装置800は、例えばビデオ・コンテンツおよびその他のコンテンツを生成し、配信することができ、例えばコンテンツを提示するために頭出しする際に使用される。図8のブロックは、コンテンツ管理システムまたは装置のブロック図を構成するだけでなく、コンテンツ管理プロセスの流れ図も構成していることは明らかであろう。
コンテンツ管理システムまたは装置800は、プロセッサ801から表示面を受信する。一実施態様では、プロセッサ801は、コンテンツ管理システムまたは装置800の一部分である。様々な実施態様では、プロセッサ801は、プロセス600を実行するように構成される。
コンテンツ管理システムまたは装置800は、エンコーダ802と、符号化信号を伝送することができる伝送器/受信器804とを含む。エンコーダ802は、プロセッサ801から表示面を受信する。エンコーダ802は、表示面に基づいて、また特定の実施態様では表示面およびメタデータ情報に基づいて、1つまたは複数の符号化信号を生成する。エンコーダ802は、例えば、AVCエンコーダとすることができる。AVCエンコーダは、ビデオ情報およびその他の情報の両方に適用することができる。
エンコーダ802は、例えば様々な情報を受信し、これらを記憶または伝送するための1つの構造化フォーマットに組み立てるアセンブリ・ユニットなどのサブモジュールを含むことができる。これらの様々な情報としては、例えば、符号化または未符号化ビデオ、ならびに例えばモーション・ベクトル、符号化モード指標およびシンタックス要素などの符号化または未符号化要素などが挙げられる。いくつかの実施態様では、エンコーダ802は、プロセッサ801を含み、従って、プロセッサ801の動作を実行する。
送信器/受信器804は、エンコーダ802から1つまたは複数の符号化信号を受信し、1つまたは複数の出力信号に含めてこの1つまたは複数の符号化信号を送信する。通常の送信器は、例えば誤り訂正符号化を行う、データを信号にインタリーブする、信号のエネルギーをランダム化する、変調器/復調器806を用いて1つまたは複数の搬送波に信号を変調する、といった機能のうちの1つまたは複数の機能を実行する。送信器/受信器804は、アンテナ(図示せず)を含む、またはこれとインタフェースをとることができる。さらに、送信器/受信器804の実施態様は、変調器/復調器806に限定することもできる。
コンテンツ管理システムまたは装置800はまた、記憶ユニット808に通信可能に結合される。一実施態様では、記憶ユニット808は、エンコーダ802に結合され、エンコーダ802からのビット・ストリームを記憶する。別の実施態様では、記憶ユニット808は、送信器/受信器804に結合され、送信器/受信器804からのビット・ストリームを記憶する。送信器/受信器804からのビット・ストリームは、例えば、送信器/受信器804によってさらに処理された1つまたは複数の符号化ビット・ストリームを含むことができる。別の実施態様では、記憶ユニット808は、標準的なDVD、Blu−rayディスク、ハード・ドライブ、またはその他の何らかの記憶デバイスのうちの1つまたは複数である。
コンテンツ管理システムまたは装置800は、例えばテレビジョン、コンピュータ、ラップトップ、タブレット、または携帯電話などの提示デバイス809とも通信可能に結合される。プロセッサ801は、提示デバイス809への入力を与える。この入力は、通常は、視聴者に対して提示されるコンテンツ・シーケンスを含む。
次に図9を参照すると、上述の特徴および原理を適用することができるコンテンツ管理システムまたは装置900が示してある。コンテンツ管理システムまたは装置900は、例えば、衛星、ケーブル、電話回線、地上波放送、赤外線または無線周波数など様々な媒体を介して信号を受信するように構成することができる。これらの信号は、例えば、インターネットまたはその他の何らかのネットワークを介して、あるいは見通し線によって受信することができる。図9のブロックは、コンテンツ管理システムまたは装置のブロック図を構成するだけでなく、コンテンツ管理プロセスの流れ図も構成していることは明らかであろう。
コンテンツ管理システムまたは装置900は、例えば携帯電話、コンピュータ、タブレット、セット・トップ・ボックス、テレビジョン、ゲートウェイ、ルータ、または符号化コンテンツを受信し、頭出し入力を供給するその他のデバイスとすることができる。
コンテンツ管理システムまたは装置900は、コンテンツ情報を受信し、処理することができ、コンテンツ情報は、例えば表示面、ビデオ画像および/またはメタデータを含むことができる。コンテンツ管理システムまたは装置900は、例えば本願の実施態様で述べる信号などの符号化信号を受信する送信器/受信器902を含む。様々な実施態様では、例えば、送信器/受信器902は、図8のコンテンツ管理システム800から出力される信号の1つまたは複数を与える信号、あるいはビデオ処理ユニット302から出力されるピクチャの伝送を行う信号を受信する。
通常の受信器は、例えば、変調および符号化されたデータ信号を受信する、変調器/復調器904を用いて1つまたは複数の搬送波からデータ信号を復調する、信号のエネルギーをランダム化解除する、信号中のデータをインタリーブ解除する、信号を誤り訂正復号する、といった機能のうちの1つまたは複数の機能を実行する。送信器/受信器902は、アンテナ(図示せず)を含む、またはこれとインタフェースをとることができる。送信器/受信器902の実施態様は、変調器/復調器904に限定することもできる。
コンテンツ管理システムまたは装置900は、デコーダ906を含む。送信器/受信器902は、受信信号をデコーダ906に供給する。送信器/受信器902からデコーダ906に供給される信号は、1つまたは複数の符号化ビット・ストリームを含むことができる。デコーダ906は、例えば復号した表示面などの復号信号を出力する。デコーダ906は、様々な実施態様では、例えば、AVCデコーダである。
コンテンツ管理システムまたは装置900は、記憶ユニット907にも通信可能に結合される。一実施態様では、記憶ユニット907は、送信器/受信器902に結合され、送信器/受信器902は、記憶ユニット907からビット・ストリームにアクセスする。別の実施態様では、記憶ユニット907は、デコーダ906に結合され、デコーダ906は、記憶ユニット907からビット・ストリームにアクセスする。記憶ユニット907からアクセスされるビット・ストリームは、別の実施態様では、1つまたは複数の符号化ビット・ストリームを含む。別の実施態様では、記憶ユニット907は、標準的なDVD、Blu−rayディスク、ハード・ドライブ、またはその他の何らかの記憶デバイスのうちの1つまたは複数である。
デコーダ906の出力ビデオは、一実施態様では、プロセッサ908に供給される。プロセッサ908は、一実施態様では、例えばプロセス700の全体または一部を実行するように構成されたプロセッサである。1つのこのような実施態様では、プロセッサ908は、制御ブロック360である。別の実施態様では、プロセッサ908は、1つまたは複数の後処理動作を実行するように構成される。
いくつかの実施態様では、デコーダ906は、プロセッサ908を含み、従ってプロセッサ908の動作を実行する。他の実施態様では、プロセッサ908は、例えばセット・トップ・ボックス、タブレット、ルータまたはテレビジョンなどの下流側デバイスの一部分である。より一般的には、様々な実施態様では、プロセッサ908および/またはコンテンツ管理システムまたは装置900は、ゲートウェイ、ルータ、セット・トップ・ボックス、タブレット、テレビジョンまたはコンピュータの一部分である。
また、コンテンツ管理システムまたは装置900は、ユーザまたはその他の入力ソースから入力を受信するように構成される。この入力は、通常の実施態様では、図9には明示的には示していない機構を用いて、プロセッサ908が受信する。この入力機構は、様々な実施態様では、タッチ・スクリーン、マウスまたはマイクロフォンを含む。少なくとも1つの実施態様では、入力は、頭出し命令を含む。
また、コンテンツ管理システムまたは装置900は、例えば頭出し命令などの入力をリモート・デバイスに供給するように構成される。この入力は、例えば、変調器/復調器904を用いて変調され、送信器/受信器902を用いて伝送される。
再度図8を参照すると、コンテンツ管理システムまたは装置800は、さらに、例えば頭出し入力などの入力を受信するように構成される。この入力は、送信器/受信器804によって受信され、プロセッサ801に供給される。様々な実施態様では、プロセッサ801は、この入力を使用して表示面を修正し、この修正された表示面が、コンテンツ管理システムまたは装置800から伝送される。
再度図3を参照すると、ライブ・ディスプレイ・フレーム・ビルダ330、タブレット・シミュレーション・フレーム・ビルダ340、エンコーダ344および制御ブロック320によって実行される動作など、ビデオ処理ユニット302によって実行される動作は、様々な実施態様では、単一のプロセッサまたは複数のプロセッサによって実行される。同様に、制御ブロック360およびデコーダ365によって実行される動作など、リモート・タブレット304によって実行される動作も、様々な実施態様では、単一のプロセッサまたは複数のプロセッサによって実行される。
さらに図3を参照すると、リモート・タブレット304およびビデオ処理ユニット302が、ディジタルに通信する機能を有するものとして示してある。特定の実施態様では、この通信では、IEEE802.11nを使用する。IEEE802.11nまたはその他の通信手段を使用して、追加の実施態様では、USBドライブをリモート・タブレット304に接続できるようにする。リモート・タブレット304は、USBドライブに記憶されたコンテンツにアクセスし、このコンテンツをディジタルに転送するか、またはその他の方法でこのコンテンツをビデオ処理ユニット302が追加メディア・ソースとして利用できるようにすることができる。このようにして、このような実施態様では、リモート・タブレット304を操作しているユーザがシステム300にコンテンツ・ソースを追加する単純なメカニズムを実現する。
また、上述の実施態様のうちの様々な実施態様は、オーディオを含むものと想定されている。特定の実施態様では、追加の特徴を含むことによってオーディオに対応する。1つのこのような特徴は、ライブ・ポインタおよびライブ・ソース・キュー・ポインタのそれぞれについて、別個のオーディオ・ポインタおよびビデオ・ポインタを設けることである。従って、例えば、一実施態様では、ライブ・ディスプレイ・フレーム・ビルダ330は、ライブ・ビデオ・ポインタおよびライブ・オーディオ・ポインタの両方を使用し、タブレット・シミュレーション・フレーム・ビルダ340は、ライブ・ビデオ・ソース・キュー・ポインタおよびライブ・オーディオ・ソース・キュー・ポインタの両方を使用する。ビデオに対応するオーディオが関心の対象であることが多いので、オーディオ・ポインタは、ビデオ・ポインタと同じソースを指すことが多い。例えば、フットボールの試合を見ているときには、視聴者は、試合のアナウンサーが話していることを聞きたいと思うことが多い。ただし、他の用途では、ユーザは、写真コンテンツ312のピクチャを表示しながら、音楽コンテンツ313のオーディオ・コンテンツを含めたいと思う。さらに他の用途では、ユーザは、例えばラジオやインターネットのアナウンサーなど、別個のオーディオ・ソースに切り替える。また、様々な実施態様では、ビデオとオーディオの間の同期をとるためにオーディオおよび/またはビデオを遅延させる遅延機能を設ける。
さらに、様々な用途では、ユーザは、ビデオに対応するオーディオを置換したいと思う。例えば、ユーザは、ホーム・ビデオを見ながら、オーディオとして(音楽コンテンツ313から)ある歌を含めたいと思うことがある。さらに別の用途では、ユーザは、例えば歌をフェード・インしてホーム・ビデオからフェード・アウトするなど、様々なソースのオーディオを混合またはフェードしたいと思うこともある。
様々なオーディオ機能に対応するために、特定の実施態様では、オーディオをビルド・シーケンス・タイムライン454(または例えばその他の任意のタイムライン)に重ね合せるジェスチャを設けている。オーディオを重ね合せることにより、ビルド・シーケンス・タイムライン454の関連部分のコンテンツのオーディオ部分のみが置換される。1つのシナリオでは、ユーザは、(i)ホーム・ビデオをビルド・シーケンス・タイムライン454に挿入し、(ii)コンテンツ選択部410からオーディオ・ソースをコピーし、(iii)コピーしたオーディオを例えばソースAタイムライン452にペーストして、コピーしたオーディオをプレビューし、(iv)このオーディオの一部分をコピーして、ホーム・ビデオへの重ね合せオーディオとしてビルド・シーケンス・タイムライン454にペーストする。重ね合せオーディオを挿入する最後の動作では、オーディオ重ね合せジェスチャを使用する。
様々な実施態様は、例えばフットボールの試合などのビデオ・ソースのコマーシャルを置換する簡略なプロセスも与える。ユーザは、1次提示としてビデオ・ソースを選択し、このプロセスを開始する。このプロセスでは、コマーシャルに対するフィルとして第2のソースを選択するかどうかをユーザに問い合わせる。あるいは、ユーザは、このソースを事前に特定しておくことができる。このプロセスでは、次いで、1次提示中のコマーシャルを自動的に識別し、フィル・ソースの連続した複数の部分でこれらのコマーシャルを埋める。このプロセスでは、修正したシーケンスをライブ・シーケンス・タイムライン451にコピーし、1次提示が利用可能になるにつれて、1次提示の後続の部分に対してこのプロセスを定期的に繰り返す。1次提示は、増分的に利用可能にしていくことができるが、これは、例えば(i)1次提示がライブで放送中であり、視聴者に対して提示する前にバッファリングして予めPDRに記録しておく量がわずか15分であるから、あるいは(ii)コンテンツ頭出しシステム300のバッファリング能力に制限があるからである。
様々な実施態様は、タッチ・スクリーンを使用しなくても作用する。これらの実施態様のうちの特定の実施態様では、例えばカメラなどの代替技術を用いて、ユーザのジェスチャを取り込む。その他の実施態様では、例えば音声認識技術を用いて、かつ/または目の動きを追跡することによって、ユーザのコマンドを取り込む。
様々な実施態様は、表示面の伝送および受信を行わなくても作用する。例えば、特定の実施態様では、ビデオ処理ユニット302の変形形態を使用して、実際の表示面を送信することなく、コンテンツ情報を送信する。このような実施態様では、通常は、タイムラインおよびコンテンツを示すためにメタデータを使用する。
様々な実施態様は、ビデオ処理ユニット302とリモート・タブレット304の間にかなりの距離があっても作用する。いくつかのこのような実施態様では、ビデオ処理ユニット302とリモート・タブレット304の間の通信は、放送リンク、ケーブル・リンクおよび/または衛星リンクの組合せを使用して行われる。特定の実施態様では、インターネットおよび/またはインターネットに基づくサービスを使用して、表示面と、符号化ジェスチャ情報を含むメタデータとを送信および受信する。1つの特定の実施態様では、Skype電話を用いて表示面およびメタデータを送信および受信する。
本願の実施態様の多くは、少なくとも部分的には、ビデオ・コンテンツに基づいている。しかし、その他の実施態様および用途では、非ビデオ・コンテンツを視聴者に提示する。このような非ビデオ・コンテンツとしては、例えば、オーディオ、動き、香り、またはその他の刺激が挙げられる。例えば、一実施態様では、視聴者は、機械化された座席に組み込まれ、ユーザは、台本に沿った連続した動きを与える1組の命令セットをシーケンスに含める。また、様々な用途では、ユーザは、機械化された座席に組み込まれた適切な香りを出す機械を用いて様々な香りおよび匂いを発する命令を重ねる。様々な実施態様では、例えばビデオを提供する必要はなく、任意のコンテンツの組合せを提供することができることは明らかである。
様々な実施態様では、タイムラインを参照する。例えば、ライブ・シーケンス・タイムライン451、ソースAタイムライン452、ソースBタイムライン453およびビルド・シーケンス・タイムライン454などである。このような実施態様におけるタイムラインは、1つまたは複数のコンテンツのタイミング情報を提示するメカニズムであることは明らかであろう。従って、その他の実施態様では、タイムライン中に異なるタイミング情報を提示する。さらに、その他の実施態様では、タイムラインを表現するために様々な異なる表現を使用する。1つのこのような実施態様では、表表現を使用して、コンテンツの重要なタイミング・イベントを示す。1つのこのような実施態様におけるメタデータは、(i)番組タイトル(実際のタイトルあるいは例えばチャンネル名またはファイル名などのコンテンツ記述)、(ii)例えばシステム・クロック基準タイム・スタンプまたはSMPTE時間符号化によって定義される1つまたは複数のオーディオ/ビデオ番組カウンタ値、および(iii)番組全体の長さを含む。
様々な実施態様は、ビデオ・コンテンツ上で作用する。このようなコンテンツとしては、様々な実施態様では、放送コンテンツ、インターネット配信コンテンツ、事前に記録したDVDコンテンツ、Blu−rayの携帯可能なコンテンツ、USBおよび/またはBluetoothの携帯型デバイスのコンテンツ、ならびに/あるいはSkypeビデオ電話のコンテンツなどのうちの1つまたは複数が挙げられる。
なお、実施態様によって、特定の利点を有していたり、特定の欠点を有していたりすることに留意されたい。ただし、ある実施態様の欠点を述べたからといって、その実施態様の利点が消えるわけではなく、またその実施態様が実行可能な推奨できる実施態様ではないということにもならない。
様々な実施態様では、信号および/または信号構造を生成または処理する。このような信号は、特定の実施態様では、擬似コードまたはシンタックスを用いて形成される。信号は、様々な実施態様では、ビデオ処理ユニット302、リモート・タブレット304、プロセッサ801、エンコーダ802、送信器/受信器804、伝送器/受信器902、デコーダ906またはプロセッサ908の出力で生成される。信号および/または信号構造は、様々な実施態様で伝送され、かつ/または(例えばプロセッサ可読媒体に)記憶される。
本願は、図1、図3および図6〜図9のブロック図/流れ図など、複数のブロック図/流れ図を提供する。本願のブロック図/流れ図が、プロセスを示す流れ図と、装置、デバイスまたはシステムの機能ブロックを示すブロック図の両方を表していることは明らかであろう。さらに、ブロック図/流れ図は、構成要素間、および構成要素の出力間の関係も示している。さらに、本願は、図2および図4〜図5の図画のような、複数の図画も提供している。少なくとも図2および図4の図画は、デバイスまたはスクリーンの視覚表現およびデバイスまたはスクリーンと情報のやりとりを行うプロセスの両方を示していることは明らかであろう。
さらに、本願で述べる実施態様の動作、ブロック、入力または出力の多くは、これらの実施態様の説明および考察において明示的に述べていなくても、任意選択のものである。例えば、図3〜図4に関連して述べた動作の多くは、様々な実施態様で省略することができる。特定の実施態様である特徴について単に述べていても、それは、その特徴が全ての実施態様で必須であることを示しているわけではない。実際には、一般にその反対の結論になるのが通常であり、この特徴が必要であると述べられない限り、あらゆる特徴は任意選択のものであると考えられる。ある特徴が必要であると述べられている場合でも、その要件は、その特定の実施態様にしか当てはまらないものとし、その他の実施態様には、そのような要件はないものとする。
従って、本発明者等は、特定の特徴および態様を有する1つまたは複数の実施態様を提供する。特に、本発明者等は、視聴者に提示するコンテンツの順序付けに関するいくつかの実施態様を提供する。本願の様々な実施態様で述べたようなコンテンツの順序付けは、例えば、家庭で友人をもてなす場合、職場で同僚と共同作業する場合、または重役会で何らかの題材についてプレゼンテーションする場合など、様々な環境で使用することができる。さらに、視聴者とコンテンツ制御者(本願のいくつかの考察ではリモート・タブレット304のユーザまたはオペレータと呼ぶ)とは、実施態様によって、同じ部屋にいる場合も、同じ建物の中の違う部屋にいる場合も、あるいは大きく距離の離れた場所にいる場合もある。大きく距離を隔てた実施態様の1つでは、ユーザはパリにいて、視聴者はニューヨークにいる。さらに、様々な実施態様では、ユーザは、現在進行中のプレゼンテーションのコンテンツの順序付けを行っていない。その代わりに、順序付け済みのコンテンツを、後のプレゼンテーションのために、または記録可能媒体に記憶して配信するために、記憶しておく。これらの実施態様のさらなる変形形態、およびさらなる用途も本開示の範囲内で企図され、記載した実施態様の特徴および態様は、その他の実施態様に適合させることができる。
本願に記載した実施態様および特徴のいくつかは、AVC規格、および/またはMVC拡張を有するAVC(Annex H)、および/またはSVC拡張を有するAVC(Annex G)の状況で使用することができる。AVCは、既存のInternational Organization for Standardization/International Electrotechnical Commission(ISO/IEC)Moving Picture Experts Group−4(MPEG−4)Part 10 Advanced Video Coding(AVC)規格/International Telecommunication Union、Telecommunication Sector(ITU−T)H.264勧告(本願では、「H.264/MPEG−4 AVC規格」、あるいは「AVC規格」、「H.264規格」、「H.264/AVC」または単に「AVC」もしくは「H.264」など、その変形名で呼ぶ)を指す。さらに、これらの実施態様および特徴は、別の規格(既存の規格または将来の規格)の状況あるいは規格を用いない状況でも使用することができる。
本発明の原理の「一実施形態」もしくは「実施形態」または「一実施態様」もしくは「実施態様」あるいはそれらのその他の変形表現に言及している場合、それは、その実施形態に関連して述べられる特定の特性、構造、特徴などが、本発明の原理の少なくとも1つの実施形態に含まれるという意味である。従って、本明細書の様々な箇所に見られる「一実施形態では」もしくは「実施形態では」または「一実施態様では」もしくは「実施態様では」という表現、あるいは任意のその他の変形表現は、その全てが必ずしも同じ実施形態のことを指しているわけではない。
さらに、本願または本願の特許請求の範囲では、様々な情報を「決定する」ことに言及することがある。情報を決定するという動作は、例えば、情報を推定する、情報を計算する、情報を評価する、情報を予測する、または情報をメモリから取り出すといった動作のうちの1つまたは複数を含むことができる。
さらに、本願または本願の特許請求の範囲では、様々な情報に「アクセスする」ことに言及することがある。情報にアクセスするという動作は、例えば、情報を受信する、情報を(例えばメモリから)取り出す、情報を記憶する、情報を処理する、情報を伝送する、情報を移動する、情報をコピーする、情報を消去する、情報を計算する、情報を決定する、情報を予測する、情報を評価する、または情報を推定するといった動作のうちの1つまたは複数を含むことができる。
様々な実施態様では、マルチ・カメラ・アングル・メディア・フィードを使用する。このような環境は、例えば、スポーツ・イベントのメディア制作で見られる。マルチ・カメラ・アングル・メディア・フィードは、1つの用途では、異なるタイムラインに割り当てられ、順序付けされて、所望の視聴体験を実現する。
本願または本願の特許請求の範囲では、第1のデバイス(または位置)から第2のデバイス(または位置)に情報を「供給する」ことに言及することがある。さらに、またはあるいは、本願または本願の特許請求の範囲では、第2のデバイス(または位置)からの情報を第1のデバイス(または位置)で「受信する」と述べることもある。この「供給する」または「受信する」という動作は、少なくとも、直接的接続および間接的接続を含むものと理解されたい。従って、第1のデバイス(または位置)と第2のデバイス(または位置)の間の介在物は、「供給する」および「受信する」という用語の範囲内で企図される。例えば、情報が第1の位置から中間位置に供給され、その後中間位置から第2の位置に供給される場合には、その情報は、第1の位置から第2の位置に供給されている。同様に、情報を、中間位置で第1の位置から受信し、その後第2の位置で中間位置から受信した場合には、その情報は、第2の位置で第1の位置から受信されている。
さらに、本願または本願の特許請求の範囲では、様々な情報を「受信する」ことに言及することがある。「アクセスする」の場合と同様に、「受信する」も、意味の広い用語として使用されている。情報を受信する動作は、例えば、情報にアクセスする、または情報を(例えばメモリから)取り出すといった動作のうちの1つまたは複数を含むことができる。さらに、「受信する」は、通常は、例えば情報を記憶する、情報を処理する、情報を伝送する、情報を移動する、情報をコピーする、情報を消去する、情報を計算する、情報を決定する、情報を予測する、または情報を推定するなどの動作中に何らかの形で行われる。
様々な実施態様では、「画像」および/または「ピクチャ」について言及している。「画像」および「ピクチャ」という用語は、本明細書の全体を通じて相互に入替可能に用いられており、意味の広い用語として使用されている。「画像」または「ピクチャ」は、例えば、フレームまたはフィールドの全体または一部とすることができる。「ビデオ」という用語は、画像(またはピクチャ)のシーケンスを指す。画像またはピクチャは、例えば、様々なビデオ構成要素またはそれらの組合せの何れかを含むことができる。このような構成要素またはそれらの組合せとしては、例えば、輝度、クロミナンス、Y(YUVまたはYCbCrまたはYPbPrのY)、U(YUVのU)、V(YUVのV)、Cb(YCbCrのCb)、Cr(YCbCrのCr)、Pb(YPbPrのPb)、Pr(YPbPrのPr)、赤(RGBの赤)、緑(RGBの緑)、青(RGBの青)、S−Video、およびこれらの構成要素の何れかのネガティブまたはポジティブなどが挙げられる。さらに、またはあるいは、「画像」または「ピクチャ」は、例えば通常の2次元ビデオ、2Dビデオ・ピクチャのディスパリティ・マップ、2Dビデオ・ピクチャに対応する奥行きマップ、またはエッジ・マップなど、様々な異なるタイプのコンテンツを指すことができる。
さらに、多くの実施態様では、「フレーム」に言及することがある。ただし、これらの実施態様は、「ピクチャ」または「画像」にも等しく適用可能であると想定されている。
「奥行きマップ」、または「ディスパリティ・マップ」、または「エッジ・マップ」、またはそれらと同様の用語も、意味の広い用語として使用されている。一般に、マップは、例えば特定のタイプの情報を含むピクチャを指す。ただし、マップは、その名前によって示されない他のタイプの情報を含むこともできる。例えば、奥行きマップは、通常は奥行き情報を含むが、例えばビデオ情報またはエッジ情報など、その他の情報を含むこともできる。
例えば「A/B」、「Aおよび/またはB」ならびに「AおよびBの少なくとも1つ」の場合など、「/」、「および/または」ならびに「の少なくとも1つ」の何れかを使用している場合、それは、1番目に挙げた選択肢(A)のみを選択すること、または2番目に挙げた選択肢(B)のみを選択すること、または両方の選択肢(AおよびB)を選択することを含むということであることを理解されたい。さらに別の例として、「A、Bおよび/またはC」、「A、BおよびCの少なくとも1つ」ならびに「A、BまたはCの少なくとも1つ」の場合には、この表現は、1番目に挙げた選択肢(A)のみを選択すること、または2番目に挙げた選択肢(B)のみを選択すること、または3番目に挙げた選択肢(C)のみを選択すること、または1番目と2番目に挙げた選択肢(AおよびB)のみを選択すること、または1番目と3番目に挙げた選択肢(AおよびC)のみを選択すること、または2番目と3番目に挙げた選択肢(BおよびC)のみを選択すること、または3つ全ての選択肢(AおよびBおよびC)を選択することを含むということである。当技術分野および関連技術分野の当業者には容易に分かるように、このことは、列挙されている項目の数に応じて拡張することができる。
さらに、多くの実施態様は、エンコーダ(例えばエンコーダ802)、デコーダ(例えばデコーダ906)、デコーダの出力を処理するポストプロセッサ(例えばプロセッサ908)、またはエンコーダへの入力を供給するプリプロセッサ(例えばプロセッサ801)のうちの1つまたは複数において実施することができる。
本願で述べるプロセッサは、様々な実施態様では、例えばプロセス、機能または動作を実行するように集合的に構成された複数のプロセッサ(サブプロセッサ)を含む。例えば、様々な実施態様では、プロセッサ801およびプロセッサ908はそれぞれ、プロセッサ801およびプロセッサ908それぞれの動作を実行するように集合的に構成された複数のサブプロセッサで構成される。さらに、本開示により、その他の実施態様も企図される。
本明細書に記載する実施態様は、例えば、方法またはプロセス、装置、ソフトウェア・プログラム、データ・ストリーム、あるいは信号として実施することができる。単一の形態の実施態様の状況でしか述べられていない場合(例えば方法としてしか述べられていない場合)でも、述べられている実施態様の特徴は、その他の形態(例えば装置またはプログラム)として実施することもできる。装置は、例えば、適当なハードウェア、ソフトウェアおよびファームウェアとして実施することができる。方法は、例えばコンピュータ、セット・トップ・ボックス、ゲートウェイ、ルータ、マイクロプロセッサ、集積回路またはプログラマブル論理デバイスなど、一般に処理デバイスを指すプロセッサなどの装置として実施することができる。プロセッサには、例えば、コンピュータ、携帯電話、携帯型/個人情報端末(PDA)、タブレット、ラップトップ、およびエンド・ユーザ間の情報通信を容易にするその他のデバイスなどの通信デバイスも含まれる。1つのプロセッサが、例えばプロセス、機能または動作を実行するように集合的に構成された複数のプロセッサを含むこともある。このような集合的な構成および実行は、例えば特定タスク用の専用サブプロセッサを使用する、または並列処理を使用するなど、当技術分野で既知の様々な技術の何れかを使用して実現することができる。
本明細書に記載する様々なプロセスおよび特徴の実施態様は、様々な異なる機器またはアプリケーション、具体的には例えばデータの符号化、データの復号、番組またはコンテンツの順序付け、および画像またはその他のコンテンツのその他の処理に関連する機器またはアプリケーションで実施することができる。このような機器の例としては、プロセッサ、エンコーダ、デコーダ、デコーダの出力を処理するポストプロセッサ、エンコーダへの入力を供給するプリプロセッサ、ビデオ・コーダ、ビデオ・デコーダ、ビデオ・コーデック、ウェブ・サーバ、セット・トップ・ボックス、ラップトップ、パーソナル・コンピュータ、タブレット、ルータ、携帯電話、PDAおよびその他の通信デバイスなどが挙げられる。明らかなように、この機器は、移動式であってもよいし、また移動車両に設置してもよい。
さらに、これらの方法は、プロセッサによって(またはこれらの命令を実行するように集合的に構成された複数のプロセッサによって)命令を実行することによって実施することができ、これらの命令(および/または実施態様によって生成されるデータ値)は、例えば集積回路、ソフトウェア・キャリア、あるいは例えばハードディスク、コンパクト・ディスク(CD)、光ディスク(例えばしばしばディジタル多用途ディスクまたはディジタル・ビデオ・ディスクと呼ばれるDVDなど)、ランダム・アクセス・メモリ(RAM)、または読取り専用メモリ(ROM)などその他の記憶デバイスなどのプロセッサ可読媒体に記憶することができる。これらの命令は、プロセッサ可読媒体上に有形に実装されるアプリケーション・プログラムを形成することができる。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに含めることができる。命令は、例えば、オペレーティング・システム、別個のアプリケーション、またはその両者の組合せに見ることができる。従って、プロセッサは、例えば、プロセスを実行するように構成されたデバイスおよびプロセスを実行するための命令を有するプロセッサ可読媒体(記憶デバイスなど)を含むデバイスの両方の特徴を有することができる。さらに、プロセッサ可読媒体は、命令に加えて、または命令の代わりに、実施態様によって生成されるデータ値を記憶することもできる。
当業者には明らかなように、実施態様は、例えば記憶または伝送することができる情報を担持するようにフォーマット化された様々な信号を生成することができる。このような情報としては、例えば、方法を実行するための命令、または記載した実施態様の1つによって生成されるデータなどが挙げられる。例えば、信号は、図3〜図4に関連して上述したように、符号化された表示面400または符号化されたジェスチャ識別子およびジェスチャ位置をデータとして担持するようにフォーマット化することができる。このような信号は、例えば、(例えばスペクトルの無線周波部分を用いて)電磁波として、またはベースバンド信号として、フォーマット化することができる。フォーマット化は、例えば、データ・ストリームの符号化、および符号化されたデータ・ストリームによる搬送波の変調などを含むことができる。信号が担持する情報は、例えば、アナログ情報またはディジタル情報とすることができる。信号は、既知の通り、様々な異なる有線または無線リンクを介して伝送することができる。信号は、プロセッサ可読媒体に記憶することができる。
いくつかの実施態様について説明した。しかし、様々な修正を加えることができることを理解されたい。例えば、異なる実施態様の要素を組み合わせ、補足し、修正し、または除去して、その他の実施態様を生み出すこともできる。さらに、その他の構造およびプロセスを、開示した構造およびプロセスの代わりに用いることもでき、その結果得られる実施態様では、開示した実施態様と少なくとも実質的には同じ1つまたは複数の機能が、少なくとも実質的には同じ1つまた複数の方法で実行されて、少なくとも実質的には同じ1つまたは複数の結果が得られることは、当業者なら理解するであろう。従って、上記その他の実施態様は、本願によって企図されるものである。

Claims (15)

  1. 第1のコンテンツ・ソースからのコンテンツを示す第1のコンテンツ・ソース・ウィンドウと、提示デバイスに表示されるようにスケジューリングされた特定のコンテンツを示すタイムラインであって、前記第1のコンテンツ・ソースを前記提示デバイスでのプレゼンテーションの中に順序付けすることを可能にする前記タイムラインとを含む表示面を受信することと、
    前記タイムライン中の前記特定のコンテンツの一部を維持しながら、前記第1のコンテンツ・ソースからのコンテンツを含むように前記タイムラインを変更するためのコマンド情報を決定することと、
    前記表示面を変更するために前記コマンド情報をリモート・デバイスに供給することと、
    を含む方法。
  2. 前記コマンド情報を符号化することをさらに含み、前記コマンド情報を供給することは、前記符号化されたコマンド情報を供給することを含む、請求項1に記載の方法。
  3. 前記第1のコンテンツ・ソースからの前記コンテンツは、前記プレゼンテーションに適したフォーマットに対して圧縮されたフォーマットで受信される、請求項1に記載の方法。
  4. 携帯型デバイスが、前記受信すること、前記決定すること、および前記供給することを実行し、前記携帯型デバイスは、前記表示面を変更することおよび前記提示デバイスに対する前記順序付けされたプレゼンテーションを生成することを前記リモート・デバイスに依頼する、請求項1に記載の方法。
  5. 前記表示面を変更するための前記コマンド情報が、前記プレゼンテーションを変更するためのコマンド情報を含む、請求項1に記載の方法。
  6. 前記表示面を変更するためのコマンド情報を決定することは、前記タイムラインを変更するためのコマンド情報を決定することを含む、請求項1に記載の方法。
  7. 変更された表示面の符号化物を受信することをさらに含み、前記変更された表示面は、前記供給されたコマンド情報に基づいて前記リモート・デバイスによって変更されている、請求項1に記載の方法。
  8. 前記コマンド情報は、前記表示面を変更するためのジェスチャの指標を含み、かつ前記ジェスチャの座標を示す座標情報を含む、請求項1に記載の方法。
  9. 前記ジェスチャの前記座標は、前記ジェスチャの接触点を示し、
    前記コマンド情報は、前記ジェスチャの動作方向、前記ジェスチャの動作速度、および前記ジェスチャの接触時間をさらに含む、請求項8に記載の方法。
  10. コマンド情報を決定することは、ユーザからコマンドを受信することに応答して実行される、請求項1に記載の方法。
  11. 前記表示面を受信することは、前記リモート・デバイスから前記コマンド情報を決定することを実行するデバイスへの無線伝送媒体を介して前記表示面を受信することを含む、請求項1に記載の方法。
  12. 前記コマンド情報を供給することは、前記コマンド情報を決定することを実行するデバイスから前記リモート・デバイスに無線伝送媒体を介して前記コマンド情報を伝送することを含む、請求項1に記載の方法。
  13. 請求項1から12に記載の前記方法のうちの1つまたは複数を実行するように構成された装置。
  14. 第1のコンテンツ・ソースからのコンテンツを示す第1のコンテンツ・ソース・ウィンドウと、提示デバイスに表示されるようにスケジューリングされた特定のコンテンツを示すタイムラインであって、前記第1のコンテンツ・ソースを前記提示デバイスでのプレゼンテーションの中に順序付けすることを可能にする前記タイムラインとを含む表示面を受信する手段と、
    前記タイムライン中の前記特定のコンテンツの一部を維持しながら、前記第1のコンテンツ・ソースからのコンテンツを含むように前記タイムラインを変更するためのコマンド情報を決定する手段と、
    前記表示面を変更するために前記コマンドをリモート・デバイスに供給する手段と、
    を含む、請求項13に記載の装置。
  15. 少なくとも、
    第1のコンテンツ・ソースからのコンテンツを示す第1のコンテンツ・ソース・ウィンドウと、提示デバイスに表示されるようにスケジューリングされた特定のコンテンツを示すタイムラインであって、前記第1のコンテンツ・ソースを前記提示デバイスでのプレゼンテーションの中に順序付けすることを可能にする前記タイムラインとを含む、リモート・デバイスから受信された表示面を受信することと、
    前記タイムライン中の前記特定のコンテンツの一部を維持しながら、前記第1のコンテンツ・ソースからのコンテンツを含むように前記タイムラインを変更するためのコマンド情報を決定することと、
    前記表示面を変更するために前記リモート・デバイスに伝送するために前記コマンド情報を供給することとを、1つまたは複数のプロセッサに集合的に実行させる命令を記憶した、プロセッサ可読媒体。
JP2013547521A 2011-01-04 2011-12-15 コンテンツの順序付け Active JP5984840B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161429556P 2011-01-04 2011-01-04
US61/429,556 2011-01-04
PCT/US2011/065172 WO2012094124A1 (en) 2011-01-04 2011-12-15 Sequencing content

Publications (3)

Publication Number Publication Date
JP2014509432A JP2014509432A (ja) 2014-04-17
JP2014509432A5 JP2014509432A5 (ja) 2015-02-05
JP5984840B2 true JP5984840B2 (ja) 2016-09-06

Family

ID=45478516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013547521A Active JP5984840B2 (ja) 2011-01-04 2011-12-15 コンテンツの順序付け

Country Status (11)

Country Link
US (1) US9170704B2 (ja)
EP (1) EP2661749A1 (ja)
JP (1) JP5984840B2 (ja)
KR (1) KR101951337B1 (ja)
CN (1) CN103282962B (ja)
CA (1) CA2822585C (ja)
MX (1) MX2013007806A (ja)
MY (1) MY175006A (ja)
RU (1) RU2607236C2 (ja)
TW (1) TWI571868B (ja)
WO (1) WO2012094124A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014048576A2 (en) * 2012-09-28 2014-04-03 Frameblast Ltd System for video clips
US9081417B2 (en) * 2012-11-30 2015-07-14 Blackberry Limited Method and device for identifying contactless gestures
US10682102B2 (en) * 2013-03-15 2020-06-16 Fenwal, Inc. Systems, articles of manufacture, and methods for multi-screen visualization and instrument configuration
CN103414941A (zh) * 2013-07-15 2013-11-27 深圳Tcl新技术有限公司 基于智能电视的节目编辑方法及装置
US9471995B2 (en) * 2014-01-14 2016-10-18 Vixs Systems Inc. Codec engine with inline image processing
US10191647B2 (en) 2014-02-06 2019-01-29 Edupresent Llc Collaborative group video production system
US11831692B2 (en) * 2014-02-06 2023-11-28 Bongo Learn, Inc. Asynchronous video communication integration system
CN103780923A (zh) * 2014-02-11 2014-05-07 赛特斯信息科技股份有限公司 基于网页实现多画面播放的系统及方法
CN104883610B (zh) * 2015-04-28 2018-03-23 腾讯科技(北京)有限公司 贴片视频播放方法及装置
US20180239504A1 (en) * 2017-02-22 2018-08-23 Cyberlink Corp. Systems and methods for providing webinars
US10743073B1 (en) 2017-06-06 2020-08-11 Gopro, Inc. Systems and methods for streaming video edits
CN108810448A (zh) * 2018-03-19 2018-11-13 广州视源电子科技股份有限公司 外围装置和会议工具
CN110753262A (zh) * 2018-07-24 2020-02-04 杭州海康威视数字技术股份有限公司 录像数据的消音方法及装置
US10965963B2 (en) 2019-07-30 2021-03-30 Sling Media Pvt Ltd Audio-based automatic video feed selection for a digital video production system
CN110784674B (zh) * 2019-10-30 2022-03-15 北京字节跳动网络技术有限公司 视频处理的方法、装置、终端及存储介质
US11307045B2 (en) * 2019-12-19 2022-04-19 Lenovo (Singapore) Pte. Ltd. Method and system to determine navigation actions based on instructions from a directional dialogue
CN111694971A (zh) * 2020-06-10 2020-09-22 三星电子(中国)研发中心 一种内容的推荐方法和系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218672A (en) 1990-01-19 1993-06-08 Sony Corporation Of America Offline editing system with user interface for controlling edit list generation
US6104334A (en) 1997-12-31 2000-08-15 Eremote, Inc. Portable internet-enabled controller and information browser for consumer devices
US6760916B2 (en) * 2000-01-14 2004-07-06 Parkervision, Inc. Method, system and computer program product for producing and distributing enhanced media downstreams
US20020032019A1 (en) 2000-04-24 2002-03-14 Marks Michael B. Method for assembly of unique playlists
US8005345B2 (en) 2001-06-27 2011-08-23 Verizon Business Network Services Inc. Method and system for dynamic control of digital media content playback and advertisement delivery
AR039964A1 (es) * 2002-06-04 2005-03-09 Qualcomm Inc Metodo y sistema para emitir un contenido de multimedia en un dispositivo portatil y un medio legible por computadora
US20050007453A1 (en) 2003-05-02 2005-01-13 Yavuz Ahiska Method and system of simultaneously displaying multiple views for video surveillance
JP2005174430A (ja) * 2003-12-10 2005-06-30 Matsushita Electric Ind Co Ltd コンテンツデータ再生装置
JP2006054521A (ja) * 2004-08-09 2006-02-23 Matsushita Electric Ind Co Ltd プレビュー再生装置、プレビュー再生方法、プレビュー再生用プログラム、コンテンツ提供装置
JP2006139222A (ja) * 2004-11-15 2006-06-01 Seiko Epson Corp リモートコントローラおよび画像表示システム
JP2007004896A (ja) * 2005-06-23 2007-01-11 Toshiba Corp 情報記憶媒体、情報転送方法、情報再生方法、及び情報記録方法
US8437409B2 (en) 2006-12-06 2013-05-07 Carnagie Mellon University System and method for capturing, editing, searching, and delivering multi-media content
JP2008166982A (ja) * 2006-12-27 2008-07-17 Toshiba Corp Dvdプレーヤ、及びその表示制御方法
JP4835544B2 (ja) * 2007-08-23 2011-12-14 船井電機株式会社 記録再生装置及びテレビジョン放送情報記録再生システム
US20090177301A1 (en) * 2007-12-03 2009-07-09 Codentity, Llc Scalable system and method for an integrated digital media catalog, management and reproduction system
US8112490B2 (en) * 2008-05-15 2012-02-07 Upton Kevin S System and method for providing a virtual environment with shared video on demand
JP4666053B2 (ja) * 2008-10-28 2011-04-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8527879B2 (en) 2008-12-23 2013-09-03 Vericorder Technology Inc. Digital media editing interface using a supercursor for selecting media clips for editing
US8259816B2 (en) 2009-03-12 2012-09-04 MIST Innovations, Inc. System and method for streaming video to a mobile device
US8818172B2 (en) * 2009-04-14 2014-08-26 Avid Technology, Inc. Multi-user remote video editing
JP2012532492A (ja) 2009-06-30 2012-12-13 ユナイテッド ビデオ プロパティーズ インコーポレイテッド 無線通信デバイスに双方向メディアガイダンスを提供するシステムおよび方法
US9405710B2 (en) * 2009-06-30 2016-08-02 Rovi Guides, Inc. Systems and methods for providing interactive media guidance on a wireless communications device

Also Published As

Publication number Publication date
TWI571868B (zh) 2017-02-21
US20130298026A1 (en) 2013-11-07
CA2822585C (en) 2021-06-01
WO2012094124A1 (en) 2012-07-12
CN103282962B (zh) 2016-09-07
EP2661749A1 (en) 2013-11-13
US9170704B2 (en) 2015-10-27
KR20130132895A (ko) 2013-12-05
CN103282962A (zh) 2013-09-04
MY175006A (en) 2020-06-01
JP2014509432A (ja) 2014-04-17
CA2822585A1 (en) 2012-07-12
TW201246198A (en) 2012-11-16
RU2607236C2 (ru) 2017-01-10
KR101951337B1 (ko) 2019-04-22
MX2013007806A (es) 2013-08-21
RU2013136365A (ru) 2015-02-10

Similar Documents

Publication Publication Date Title
JP5984840B2 (ja) コンテンツの順序付け
JP5267165B2 (ja) ストリーミング配信システム、その動作制御方法及びプログラム
US11830527B2 (en) Systems and methods for media production and editing
JP4799068B2 (ja) テレビ受信装置及びその表示制御方法
US20110230232A1 (en) Systems and methods for video editing
US10542058B2 (en) Methods and systems for network based video clip processing and management
US20150121224A1 (en) Method and System to Control a Seek Position of Multimedia Content Using a Rotatable Video Frame Graphic
JP2011524667A (ja) 複数の入力ビデオ・ストリームから結合ビデオ・ストリームを生成するための方法、システム、およびコンピュータ・プログラム(複数の入力ビデオ・ストリームからの結合ビデオ・ストリームの生成)
EP2609739A1 (en) Methods and apparatus for providing electronic program guides
US11570415B2 (en) Methods, systems, and media for generating a summarized video using frame rate modification
JP5389195B2 (ja) 情報処理システム、携帯端末及び情報処理方法
KR20150056394A (ko) 영상 표시 장치 및 그 동작 방법
KR20090020930A (ko) 개인 맞춤형 녹화 컨텐츠 처리 방법 및 장치
US20190069034A1 (en) System and method for creating a replay of a live video stream
US8302124B2 (en) High-speed programs review
JP2010092575A (ja) 設定データによる1画面複数動画表示の方法。
JP2014045491A (ja) 情報処理システム、携帯端末、テレビジョン受信装置及び情報処理方法
JP2013150040A (ja) 情報処理装置、および情報処理方法
KR20140050535A (ko) 깊이 기반 그룹 비주얼 객체를 이용한 n 스크린 서비스 제공 장치 및 방법
JP2013150039A (ja) 情報処理装置、および情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141211

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150729

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151021

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160122

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160603

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160802

R150 Certificate of patent or registration of utility model

Ref document number: 5984840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250