JP2015080025A - 電子機器および通信制御方法 - Google Patents

電子機器および通信制御方法 Download PDF

Info

Publication number
JP2015080025A
JP2015080025A JP2013214737A JP2013214737A JP2015080025A JP 2015080025 A JP2015080025 A JP 2015080025A JP 2013214737 A JP2013214737 A JP 2013214737A JP 2013214737 A JP2013214737 A JP 2013214737A JP 2015080025 A JP2015080025 A JP 2015080025A
Authority
JP
Japan
Prior art keywords
stream
content
data
user operation
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013214737A
Other languages
English (en)
Inventor
峯邑 隆司
Takashi Minemura
隆司 峯邑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013214737A priority Critical patent/JP2015080025A/ja
Priority to EP14163896.5A priority patent/EP2863606B1/en
Priority to US14/257,676 priority patent/US10244201B2/en
Publication of JP2015080025A publication Critical patent/JP2015080025A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/28Timers or timing mechanisms used in protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】機器間でコンテンツをシームレスに表示する場合に、コンテンツに対する操作を適切に処理できる電子機器を実現する。【解決手段】実施形態によれば、電子機器は、デコード手段、送信手段および操作処理手段を具備する。デコード手段は、エンコードされたコンテンツデータであって、AVストリームと、当該AVストリームを制御するための制御ストリームとを含むコンテンツデータの内、前記制御ストリームをデコードする。送信手段は、第1時刻情報が付加された前記AVストリームと第2時刻情報が付加された前記制御ストリームとを外部電子機器に送信する。操作処理手段は、前記AVストリームと前記制御ストリームとを用いた映像が前記外部電子機器の画面に表示されているときに、前記外部電子機器でのユーザー操作に応じて、前記デコードされた制御ストリームを用いて当該ユーザー操作に対応する処理を実行する。【選択図】図14

Description

本発明の実施形態は、コンテンツデータを伝送する電子機器、および該機器に適用される通信制御方法に関する。
アクセスポイントを介することなく2つのデバイスを無線接続するWi−Fi Directが利用されている。このWi−Fi Directを用いた技術として、無線接続されたデバイス間で、コンテンツのシームレスな表示を提供する技術(Wi−Fi Display)がある。これにより、ソースデバイス上のコンテンツの視聴が要求された場合に、そのコンテンツをシンク機器の画面に表示することができるので、ユーザーは、例えば、スマートフォンやタブレットコンピュータ(ソース機器)の画面のような小さな画面に表示される映像を、テレビジョン受信機(シンク機器)の画面のようなより大きな画面で視聴することができる。この方式では、ソース機器で画面表示するため、符号化されているオリジナルコンテンツを一旦デコードし、表示後、再エンコードした後、シンク機器に伝送している。
特開2004−064787号公報
しかしながら、上記のように再エンコードすると、画質劣化の恐れがある。そこで、本出願の発明者は、コンテンツをデコードせずにそのままシンク機器に送り、シンク機器側で全体をデコードする方法を考えている。この方式の場合、デコードと再エンコードを行わないので、オリジナルのコンテンツ品質を維持できるという利点がある。
ところで、コンテンツは、映像や音声だけでなく、メニューやボタンのような、ユーザーによって操作可能なオブジェクトを含むことがある。しかし、デコードせずシンクへ送る方式では、シンク機器の画面に操作オブジェクトが表示される場合に、その操作オブジェクトに対するユーザー操作を適切に処理できない場合があるという課題があった。
本発明は、機器間でコンテンツをシームレスに表示する場合に、コンテンツに対する操作を適切に処理できる電子機器および通信制御方法を提供することを目的とする。
実施形態によれば、電子機器は、デコード手段、送信手段および操作処理手段を具備する。デコード手段は、エンコードされたコンテンツデータであって、オーディオ/ビデオストリームと、当該オーディオ/ビデオストリームを制御するための制御ストリームとを含むコンテンツデータの内、前記制御ストリームをデコードする。送信手段は、第1時刻情報が付加された前記オーディオ/ビデオストリームと、第2時刻情報が付加された前記制御ストリームとを、外部電子機器に送信する。操作処理手段は、前記オーディオ/ビデオストリームと前記制御ストリームとを用いた映像が前記外部電子機器の画面に表示されているときに、前記外部電子機器でのユーザー操作に応じて、前記デコードされた制御ストリームを用いて、当該ユーザー操作に対応する処理を実行する。
実施形態に係る電子機器の外観の例を示す斜視図。 同実施形態の電子機器のシステム構成の例を示すブロック図。 トランスコーディング方式によるコンテンツの伝送を説明するための図。 ノントランスコーディング方式によるコンテンツの伝送を説明するための図。 同実施形態の電子機器によって伝送されるコンテンツデータのデータ構造の例を示す図。 同実施形態の電子機器によって伝送されるコンテンツデータを用いて表示される画像の例を説明するための図。 図3のトランスコーディング方式でコンテンツが伝送された場合に、ユーザー操作が処理される例を説明するための図。 図4のノントランスコーディング方式でコンテンツが伝送された場合に、ユーザー操作が処理できない例を説明するための図。 同実施形態の電子機器によって、ハイブリッドトランスコーディング方式でコンテンツが伝送される例を説明するための図。 同実施形態の電子機器によって、ハイブリッドトランスコーディング方式でコンテンツが伝送される別の例を説明するための図。 同実施形態の電子機器によって、ハイブリッドトランスコーディング方式でコンテンツが伝送されるさらに別の例を説明するための図。 同実施形態の電子機器によって表示される制御層の画像(操作画面)の例を示す図。 同実施形態の電子機器によって伝送されるコンテンツデータを用いて表示される画像の別の例を示す図。 同実施形態の電子機器によって実行されるコンテンツ伝送プログラムの機能構成を示すブロック図。 図14のコンテンツ伝送プログラムに設けられるコンテンツ処理部の構成の第1の例を示すブロック図。 図14のコンテンツ伝送プログラムに設けられるコンテンツ処理部の機能構成の第2の例を示すブロック図。 図14のコンテンツ伝送プログラムに設けられるコンテンツ処理部の機能構成の第3の例を示すブロック図。 図14のコンテンツ伝送プログラムに設けられるコンテンツ処理部の機能構成の第4の例を示すブロック図。 図14のコンテンツ伝送プログラムに設けられるコンテンツ処理部の機能構成の第5の例を示すブロック図。 同実施形態の電子機器(ソース機器)によって実行されるコンテンツ伝送制御処理の手順の例を示すフローチャート。 同実施形態の電子機器(ソース機器)によって実行されるコンテンツ送信処理の手順の第1の例を示すフローチャート。 同実施形態の電子機器からコンテンツを受信する外部電子機器(シンク機器)によって実行されるコンテンツ表示処理の手順の第1の例を示すフローチャート。 同実施形態の電子機器(ソース機器)によって実行されるコンテンツ送信処理の手順の第2の例を示すフローチャート。 同実施形態の電子機器からコンテンツを受信する外部電子機器(シンク機器)によって実行されるコンテンツ表示処理の手順の第2の例を示すフローチャート。 同実施形態の電子機器(ソース機器)によって実行されるコンテンツ送信処理の手順の第3の例を示すフローチャート。 同実施形態の電子機器からコンテンツを受信する外部電子機器(シンク機器)によって実行されるコンテンツ表示処理の手順の第3の例を示すフローチャート。 同実施形態の電子機器(ソース機器)によって実行されるコンテンツ送信処理の手順の第4の例を示すフローチャート。 同実施形態の電子機器(ソース機器)と外部電子機器(シンク機器)とによって実行されるユーザー操作処理の手順の第1の例を示すフローチャート。 同実施形態の電子機器(ソース機器)と外部電子機器(シンク機器)とによって実行されるユーザー操作処理の手順の第2の例を示すフローチャート。 同実施形態の電子機器(ソース機器)と外部電子機器(シンク機器)とによって実行されるユーザー操作処理の手順の第3の例を示すフローチャート。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA、またはデジタルカメラのような各種電子機器に内蔵される組み込みシステムとして実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレットまたはスレートコンピュータとも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。
図2は、タブレットコンピュータ10のシステム構成を示す図である。
タブレットコンピュータ10は、図2に示されるように、CPU101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108、サウンドコントローラ109、等を備える。
CPU101は、タブレットコンピュータ10内の各種コンポーネントの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)103A、および各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、コンテンツ伝送プログラム103Bが含まれている。このコンテンツ伝送プログラム103Bは、本タブレットコンピュータ10をソース機器として、コンテンツを外部電子機器(シンク機器)の画面にシームレスに表示するためのコンテンツデータ伝送表示機能等を有する。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、本タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上にはタッチパネル17Bが配置されている。
システムコントローラ102は、サウンドコントローラ109との通信を実行する機能も有している。サウンドコントローラ109は音源デバイスであり、再生対象のオーディオデータをスピーカー13等に出力する。また、サウンドコントローラ109は、マイク12によって検出された音声のデータをシステムコントローラ102に出力する。
無線通信デバイス107は、例えば、IEEE 802.11nおよびWi−Fi Directに基づく通信を実行するように構成されるデバイスである。この無線通信デバイス107は、アクセスポイントなしにデバイス間の無線接続を確立することができる。なお、無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されるデバイスであってもよく、また有線LANのような有線通信を実行するように構成されるデバイスであってもよい。
EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザーによるパワーボタンの操作に応じて本タブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
上述したように、本タブレットコンピュータ10は、接続された外部電子機器に、コンテンツをシームレスに表示する機能を有する。この機能は、例えば、アクセスポイントを介することなく2つのデバイスを無線接続するWi−Fi Directを用いて、無線接続されたデバイス間で、コンテンツのシームレスな表示を提供する技術(Wi−Fi Display)を利用して実現される。この機能により、タブレットコンピュータ10(以下、ソース機器とも称する)上のコンテンツの視聴が要求されるときに、そのコンテンツ(映像、画像、音声)を、外部電子機器(以下、シンク機器とも称する)のディスプレイやスピーカーに出力することができるので、ユーザーは、例えば、タブレットコンピュータ10の画面のような小さな画面に表示される映像を、テレビジョン受信機の画面のようなより大きな画面で視聴することができる。
この機器間のコンテンツの伝送には、例えば、トランスコーディング(transcoding)方式が用いられるが、オリジナルコンテンツのコーデックをシンク機器側がデコードできる場合には、ノントランスコーディング(non-transcoding)方式による伝送を利用する可能性もある。
図3に示すように、トランスコーディング方式による伝送では、ソース機器10は、コンテンツデータをシンク機器20がデコード可能なコーデック(例えば、映像データではH.264)にトランスコードし、トランスコードされたコンテンツデータをシンク機器20に送信する。すなわち、ソース機器10のデコーダ15がコンテンツデータをデコードし、エンコーダ16がデコードされたコンテンツデータを再エンコードし、再エンコードされたコンテンツデータをシンク機器20に送信する。なお、エンコーダ16は、画面に表示されるコンテンツの画像をキャプチャーし、そのキャプチャーされた画像をエンコード(再エンコード)してもよい。また、ソース機器10は、デコードされたコンテンツデータを用いて、ソース機器10の画面にコンテンツ(映像)171を表示する。
一方、シンク機器20は、ソース機器10から、例えばMPEG−2 TSコンテナで、トランスコードされたコンテンツデータを受信し、デコーダ25でデコードし、シンク機器20の画面にコンテンツ(映像)201を表示する。
このように、トランスコーディング方式による伝送では、トランスコードされたコンテンツデータがシンク機器20に送信されるので、オリジナルのコンテンツデータのコーデックに関わらず、コンテンツ201をシンク機器20の画面に表示することができる。しかし、トランスコーディング方式による伝送では、トランスコード(再エンコード)によって画質が劣化する可能性がある。さらに、ソース機器10からシンク機器20へコンテンツを少ない遅延量で伝送するためには、ソース機器10に設けられるエンコーダ16は、コンテンツデータをリアルタイムでエンコードできるリアルタイムエンコーダである必要があり、その分の消費電力量が増大する。
一方、図4に示すように、ノントランスコーディング方式による伝送では、ソース機器10は、オリジナルのコンテンツデータをそのままシンク機器20に送信する。シンク機器20では、デコーダ25でこのオリジナルのコンテンツデータをデコードし、シンク機器20の画面にコンテンツ(映像)201を表示する。ソース機器10ではコンテンツデータがトランスコードされていないので(すなわち、デコードおよびエンコードされていないので)、ソース機器10の画面にコンテンツは表示されていない。
このように、ノントランスコーディング方式による伝送では、シンク機器20の画面に、オリジナルの画質で映像を表示することができる。また、ソース機器10で、コンテンツデータをデコードおよびエンコードしないので、消費電力を小さくでき、また高性能なリアルタイムエンコーダ(サイズが大きい画像をリアルタイムに処理可能なエンコーダ)が不要である。しかし、ノントランスコーディング方式による伝送では、シンク機器20が、オリジナルのコンテンツデータをデコードできること、すなわち、オリジナルのコンテンツデータのコーデックに対応していることが必要である。
ところで、コンテンツデータは、映像や音声のデータだけでなく、メニューやボタンのような、ユーザーによって操作可能なオブジェクト(すなわち、インタラクティブなオブジェクト)のデータを含むことがある。
図5は、コンテンツデータのデータ構造の例を示す。このコンテンツデータは、例えば、ブルーレイディスク(登録商標)やDVDのような光ディスクに格納されるコンテンツデータ、地上波デジタル放送信号やデータ放送信号によって受信されるコンテンツデータ、ストリーミングサーバによって配信されるコンテンツデータ、ソース機器10内に保存(録画)されたコンテンツデータである。
コンテンツデータは、オーディオ/ビデオストリームを管理するための複数のレイヤーを含む。この複数のレイヤーは、例えば、インデックステーブルのレイヤー71、ムービーオブジェクトのレイヤー72、プレイリストのレイヤー73、クリップ情報のレイヤー74、およびクリップAVストリームのレイヤー75を含む。
インデックステーブルのレイヤー71では、タイトルやメニューに対応するコンテンツ内のインデックス711,712,713が規定される。インデックス711,712,713は、ユーザーがアクセス(操作)するタイトルやメニューのための、コンテンツ内のエントリーポイントを示す。これらインデックス711,712,713の各々には、対応するタイトルやメニューが選択されたことに応じて実行されるムービーオブジェクト721,723,725が関連付けられている。例えば、インデックス711にはムービーオブジェクト721が、インデックス712にはムービーオブジェクト723が、インデックス713にはムービーオブジェクト725がそれぞれ関連付けられている。
ムービーオブジェクトのレイヤー72では、ムービーオブジェクト721,723,725が規定される。ムービーオブジェクト721,723,725は、実行可能なナビゲーションコマンドプログラム(コマンド)722,724,726で構成される。ナビゲーションコマンドプログラム722,724,726では、プレイリストや別のムービーオブジェクトを用いた動的な再生シナリオを記述でき、例えば、複数のプレイリストを順次再生するシナリオや、2つのプレイリストの内、実行時の状態やユーザー操作に応じたプレイリストを再生するシナリオ(条件分岐するシナリオ)を記述することができる。
例えば、ムービーオブジェクト721のナビゲーションコマンドプログラム722では、プレイリスト731とムービーオブジェクト723とを用いた再生シナリオが記述されている。ムービーオブジェクト723のナビゲーションコマンドプログラム724では、プレイリスト734とプレイリスト737とを用いた再生シナリオが記述されている。また、ムービーオブジェクト725のナビゲーションコマンドプログラム726では、プレイリスト737を用いた再生シナリオが記述されている。
プレイリストのレイヤー73では、プレイリスト731,734,737が規定される。プレイリスト731,734,737は、1以上の再生対象のアイテムを含む。例えば、プレイリスト731はアイテム732とアイテム733とを含み、プレイリスト734はアイテム735とアイテム736とを含み、プレイリスト737はアイテム738を含む。各アイテム732,733,735,736,738は、クリップ(オーディオ/ビデオ)内の再生部分を示し、例えば、クリップの時間軸上の開始位置と終了位置とで表される。
クリップ情報のレイヤー74では、クリップ情報741,742,743が規定される。クリップ情報741,742,743の各々は、対応するクリップオーディオ/ビデオストリーム(クリップAVストリーム)751,752,753に関する情報を含む。クリップ情報は、クリップの時間軸上の位置(タイムスタンプ)を、クリップAVストリームのデータ上の位置に変換するための情報を含む。
クリップAVストリームのレイヤー75は、クリップAVストリーム751,752,753を含む。クリップAVストリームには、例えば、MPEG−2トランスポートストリーム(MPEG−2 TS)が格納される。このMPEG−2 TSのPESパケットのペイロードには、例えば、符号化されたオーディオ/ビデオストリーム(音声ストリー、映像ストリーム)、グラフィクスストリーム(インタラクティブグラフィクス(IG)ストリーム、プレゼンテーショングラフィクス(PG)ストリーム)、テキストストリーム、等が含まれる。
本実施形態では、このようなコンテンツデータを伝送する場合に、音声や映像に対応するAVストリーム層と、その音声や映像を制御するためのAVストリーム制御層とを区別して伝送する。AVストリーム層は、例えば、クリップAVストリームのレイヤー75内の、オーディオ/ビデオストリーム(AVストリーム)を含む。AVストリーム制御層(制御ストリーム)は、ユーザー操作に応じてコンテンツの再生位置が変更されるときに、その再生位置に対応する、AVストリーム層のオーディオ/ビデオストリーム上のデータ位置を特定するためのデータを含む。AVストリーム制御層は、例えば、インデックステーブルのレイヤー71と、ムービーオブジェクトのレイヤー72と、プレイリストのレイヤー73と、クリップ情報のレイヤー74と、クリップAVストリームのレイヤー75内のIGストリームおよびPGストリーム(またはテキストストリーム)とを含む。AVストリーム制御層に含まれるストリーム(データ)を制御ストリームとも称する。なお、IGストリームをAVストリーム制御層に含め、PGストリームやテキストストリームをAVストリーム層に含めるようにしてもよい。また、AVストリーム層は、ビデオストリームとオーディオストリームのいずれか一方だけを含んでもよい。
より具体的には、AVストリーム制御層(制御ストリーム)は、例えば、インデックステーブルと、ムービーオブジェクトと、クリップ情報と、オンスクリーンディスプレイ(OSD)情報と、ポップアップメニュー、バックグラウンドミュージック付きのブラウザブル・スライドショー、操作ボタン、ボタン操作時のサウンド、インタラクティブなメニュー、テキストによる字幕表示、等を提供するためのサブストリーム(Out−of−Muxストリーム)との内の少なくとも一つを含む。
また、図6は、伝送されたコンテンツデータを用いて、シンク機器20の画面に表示される画像65の例を示す。この表示画像65は、複数の画像プレーン61,62,63を用いて作成される。
メインムービープレーン61は、コンテンツ内の映像に対応し、オーディオ/ビデオストリームを用いて生成される。オーディオ/ビデオストリームは、コンテンツデータ内で最大のデータサイズを有し、例えば、画像サイズ(画角)が大きくなるほど、エンコードに要するリソースが増大する。
プレゼンテーションプレーン62は、字幕や装飾文字のような情報に対応し、PGストリームを用いて生成される。PGストリームのデータサイズは、通常、ごく小さいものである。プレゼンテーションプレーン62は、テキストストリームを用いて生成されてもよい。
また、インタラクティブプレーン63は、ユーザー操作の対象となる操作オブジェクトに対応し、例えばボタンとして画面に配置される。このボタンが選択(例えば、クリック)されたことに応じて、所定のアクションが実行される。インタラクティブプレーン63は、IGストリームを用いて生成される。
これら複数の画像プレーン61,62,63は、重ね合わせられ、1つの画像65として画面に表示される。このような複数の画像プレーン61,62,63によって、例えば、映像、字幕、ボタン等をそれぞれ独立して制御できるので、コンテンツに互換性を持たせ、コンテンツの利用のための実装を容易にすることができる。
次いで、図7および図8を参照して、コンテンツがボタンのような操作対象のオブジェクト(インタラクティブプレーン)を含む場合の、トランスコーディング方式による伝送とノントランスコーディング方式による伝送とを説明する。このコンテンツは、例えば、いわゆる4Kと称される、ハイビジョンの4倍の画素数を有する高画質な映像のAVコンテンツである。
図7に示す例では、図3を参照して上述したように、トランスコーディング方式による伝送において、ソース機器10のデコーダ15およびエンコーダ16によってトランスコードされたコンテンツデータが、シンク機器20に送信されている。そして、ソース機器10の画面には、コンテンツに含まれる映像(メインムービープレーン)171とボタン(インタラクティブプレーン)172とが表示されている。なお、カーソル173は、ポインティングデバイス等を用いて指示されるユーザー操作の位置を示す矢印の画像である。
シンク機器20では、ソース機器10から受信したコンテンツデータ(すなわち、トランスコードされたコンテンツデータ)がデコーダ25によってデコードされ、シンク機器20の画面に、コンテンツに含まれる映像(メインムービープレーン)201とボタン(インタラクティブプレーン)202とが表示されている。なお、シンク機器20の画面には、ソース機器10から送信されたカーソル173に関するデータに基づいて、ソース機器10の画面上のカーソル173に対応するカーソル203を表示することもできる。
そして、シンク機器20の画面にコンテンツが表示されているときに、シンク機器20でコンテンツに対するユーザー操作が行われた場合(例えば、ボタン202を押す操作が行われた場合)には、シンク機器20は、ユーザインプットバックチャネル(user input back channel:UIBC)機能を利用して、ユーザー操作に対応する座標情報26をソース機器10に送信する。UIBCは、ユーザーによる入力に関するデータを送受信するために、機器間で確立される通信チャネルである。
ソース機器10は、UIBCで、シンク機器20からユーザー操作に対応する座標情報26を受信する。そして、ソース機器10は、デコーダ15によってデコードされたコンテンツデータを用いて、座標情報26に対応するユーザー操作を認識し、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。つまり、ソース機器10の画面とシンク機器20の画面とに、ユーザー操作に基づく同一のコンテンツ(画像)を表示することができる。
また、ソース機器10でコンテンツに対するユーザー操作が行われた場合(例えば、ボタン172を押す操作が行われた場合)にも、ソース機器10は、デコーダ15によってデコードされたコンテンツデータを用いて、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
このように、ソース機器10がコンテンツデータをデコードしているので、ソース機器10は、ソース機器10またはシンク機器20でのユーザー操作に応じた処理を、少ない遅延量で実行することができる。そのため、ユーザーは、ソース機器10からシンク機器20に伝送され、表示されているコンテンツに対して、直感的な操作を行うことができる。
しかしながら、上述したように、トランスコーディング方式による伝送は、トランスコードによって画質が劣化する可能性がある、リアルタイムエンコーダが必要であり、その分の消費電力量が増大すると云った欠点を有する。
図8に示す例では、図4を参照して上述したように、ノントランスコーディング方式による伝送において、オリジナルのコンテンツデータがソース機器10からシンク機器20に送信されている。シンク機器20では、受信したオリジナルのコンテンツデータがデコーダ25によってデコードされ、シンク機器20の画面に、コンテンツに含まれる映像(メインムービープレーン)201とボタン(インタラクティブプレーン)202とが表示されている。なお、カーソル203は、ユーザー操作の位置を示す矢印の画像である。
シンク機器20の画面にコンテンツが表示されているときに、シンク機器20でコンテンツに対するユーザー操作が行われた場合には、シンク機器20は、そのユーザー操作に対応する座標情報26をソース機器10に送信する。ソース機器10は、シンク機器20からユーザー操作に対応する座標情報26を受信する。しかし、ソース機器10は、コンテンツデータをデコードしていないので、座標情報26に対応するユーザー操作を認識することができず、ユーザー操作に応じた処理を実行することができない。
コンテンツに対するユーザー操作は、例えば、複数のボタンを含む操作パネルを用いて行われる。このような操作パネルを用いたユーザー操作には、コンテンツの再生を制御するための操作(例えば、再生、停止、一時停止、再開、早送り、早戻し、スロー再生、等)のように各種のコンテンツに共通の操作だけでなく、指定のURLへ移動する操作やコンテンツの特定の位置に遷移させるチャプタ移動操作のように、コンテンツに依存した操作も含まれていることがある。そのため、種々のユーザー操作に対応する全てのコマンドを事前に用意し、そのコマンドを用いて、シンク機器20からソース機器10に、ユーザー操作に対応する処理の実行を要求することは困難である。そのため、ソース機器10でコンテンツデータ(インタラクティブプレーンのデータ)をデコードすることなく、ユーザー操作を適切に処理することは困難であり、ノントランスコーディング方式による伝送ではユーザー操作に制限が生じることになる。
また、例えば、コンテンツがノントランスコーディング方式で伝送され、ユーザーが、トランスコーディング方式とノントランスコーディング方式のいずれでコンテンツが伝送されているかを知らない場合には、ユーザーがシンク機器20の画面上の操作パネルのボタンを操作しても、その操作に応じた動作が行われず、ユーザーによる操作に混乱を招くおそれがある。
しかしながら、上述したように、ノントランスコーディング方式による伝送は、シンク機器20の画面にオリジナルの画質で映像を表示できる、ソース機器10の消費電力量を小さくできる、また高性能なリアルタイムエンコーダが不要であると云った利点を有するものである。
そのため本実施形態では、ノントランスコーディング方式の利点を有し、且つシンク機器20でのユーザー操作に制限が生じないハイブリッドトランスコーディング(Hybrid-transcoding)方式で、コンテンツをシームレスに表示する機能を提供する。このハイブリッドトランスコーディング方式による伝送では、ソース機器10で少なくともAVストリーム制御層(以下、制御層とも称する)がデコードされ、少なくともAVストリーム層(以下、ストリーム層とも称する)がトランスコードされていないコンテンツデータがシンク機器20に送信される。
図9から図11を参照して、ハイブリッドトランスコーディング方式でコンテンツが伝送される例を説明する。
図9に示す例では、ソース機器10は、コンテンツの制御層に対応するデータ(制御ストリーム)をデコーダ15でデコードし、デコードされたデータをエンコーダ16でエンコード(再エンコード)する。つまり、ソース機器10は、コンテンツの制御層に対応するデータをトランスコードする。そして、ソース機器10は、コンテンツのストリーム層に対応するオリジナルのデータ(オリジナルのAVストリーム)と、トランスコードされた制御層に対応するデータとをシンク機器20に送信する。なお、ソース機器10は、ユーザー操作の位置を示すカーソルに関するデータをシンク機器20に送信してもよい。
シンク機器20は、デコーダ25で、ソース機器10から受信した、コンテンツのストリーム層に対応するオリジナルのデータと、トランスコードされた制御層に対応するデータとをデコードする。そして、シンク機器20は、コンテンツに含まれる映像(メインムービープレーン)201とボタン202を含む操作画面(インタラクティブプレーン)とを画面に表示する。なお、シンク機器20は、ソース機器10から送信されたカーソルに関するデータに基づいて、シンク機器20の画面にカーソル203を表示することもできる。
そして、シンク機器20の画面にコンテンツが表示されているときに、シンク機器20でコンテンツに対するユーザー操作が行われた場合(例えば、ボタン202を押す操作が行われた場合)には、シンク機器20は、UIBCで、ユーザー操作に対応する座標情報26をソース機器10に送信する。
ソース機器10は、UIBCで、シンク機器20からユーザー操作に対応する座標情報26を受信する。そして、ソース機器10は、デコーダ15によってデコードされた制御層のデータを用いて、座標情報26に対応するユーザー操作を認識し、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
より具体的な例として、シンク機器20の画面上のボタン202に対してユーザー操作(例えば、ボタン202を押す操作)が行われた場合を想定する。
まず、シンク機器20は、ユーザー操作で指示(選択)された位置に対応する座標、すなわち、ボタン202内の座標を検出し、検出された座標を含む座標情報26をソース機器10に送信する。
ソース機器10は、シンク機器20から座標情報26を受信し、デコードされた制御層に対応するデータを用いて、受信した座標情報26に示される座標が、インタラクティブプレーン上のボタンの座標に対応することを検出する。つまり、ソース機器10は、シンク機器20の画面上のボタン202に対するユーザー操作を、デコードされた制御層のデータに基づくインタラクティブプレーン上のボタンに対するユーザー操作として認識する。そして、ソース機器10は、そのボタンに対するユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
ここで操作処理18の例としては、コンテンツの再生制御(例えば、再生、停止、一時停止、再開、早送り、早戻し、スロー再生、等)や、指定のURLへ移動する処理、チャプタ遷移処理等が挙げられる。いくつか例を挙げると、例えばボタン202が、一時停止のボタンである場合、ソース機器10は、メインムービープレーンに関し、シンク機器20へのコンテンツ送出を停止するか、あるいは一時停止したコンテンツ位置のピクチャの送信を継続する。インタラクティブプレーンに関しては、ソース機器10は、一時停止したコンテンツ位置(時間位置・再生位置)に対応するインタラクティブプレーンのデコード及びエンコードを継続して、そのエンコードデータをシンク機器20に送信する。
また、シンク機器20は、ソース機器10は、早送りや早戻しでは、メインムービープレーンに含まれる複数ピクチャのうち所定のピクチャのみ伝送し、スロー再生においては、メインムービープレーンの伝送タイミングを遅延させる。
また、ボタン202がチャプタ遷移のボタンである場合、ソース機器10は、操作処理18を実行して、該チャプタに対応するコンテンツ位置からメインムービープレーンを読み出し、それをシンク機器20に送信する。また、このとき、オリジナルコンテンツにおいて、インタラクティブプレーンとメインムービープレーンとが同期されている場合、ソース機器10は、インタラクティブプレーンに関しても、該チャプタに対応する時間位置(再生位置)からデコード15を実行する。
また、ボタン202が指定のURLへ移動するためのボタンである場合、ソース機器10は、当該URLのウェブページにアクセスして該ページを表示する。なお、ウェブページを表示する際にソース機器10は、ハイブリッドトランスコーディング(Hybrid-transcoding)方式からトランスコーディング方式に切替えて、表示画面に表示する映像をエンコードして当該エンコードデータを伝送しても良い。
また、ソース機器10でコンテンツに対するユーザー操作が行われた場合、ソース機器10は、デコーダ15によってデコードされた制御層のデータを用いて、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
このように、ソース機器10が制御層のデータをデコードしているので、ソース機器10は、ソース機器10またはシンク機器20でのユーザー操作に応じた処理を適切に行うことができ、ユーザーによる操作性を向上させることができる。また、ソース機器10は、ストリーム層のオリジナルのデータをシンク機器20に送信しているので、シンク機器20の画面に、オリジナルの画質で映像を表示することができる。さらに、ソース機器10で、ストリーム層のデータをデコードおよびエンコードしないので、消費電力を小さくでき、また高性能なリアルタイムエンコーダ(サイズが大きい画像をリアルタイムに処理可能なエンコーダ)が不要である。
また、図10に示す例では、ソース機器10は、コンテンツデータ(すなわち、ストリーム層のデータおよび制御層のデータ)をデコーダ15でデコードする。ソース機器10は、デコードされたデータを用いて、コンテンツに含まれる映像(メインムービープレーン)171とボタン172を含む操作画面(インタラクティブプレーン)とを画面に表示する。また、ソース機器10は、オリジナルのコンテンツデータをシンク機器20に送信する。なお、ソース機器10は、ユーザー操作の位置を示すカーソルに関するデータをシンク機器20に送信してもよい。
シンク機器20は、デコーダ25で、ソース機器10から受信した、オリジナルのコンテンツデータをデコードする。そして、シンク機器20は、コンテンツに含まれる映像(メインムービープレーン)201とボタン202を含む操作画面(インタラクティブプレーン)とを画面に表示する。なお、シンク機器20は、ソース機器10から送信されたカーソルに関するデータに基づいて、シンク機器20の画面にカーソル203を表示することもできる。
そして、シンク機器20の画面にコンテンツが表示されているときに、シンク機器20でコンテンツに対するユーザー操作が行われた場合には、シンク機器20は、UIBCで、ユーザー操作に対応する座標情報26をソース機器10に送信する。
ソース機器10は、UIBCで、シンク機器20からユーザー操作に対応する座標情報26を受信する。そして、ソース機器10は、デコーダ15によってデコードされたコンテンツデータ(制御層のデータ)を用いて、座標情報26に対応するユーザー操作を認識し、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
また、ソース機器10でコンテンツに対するユーザー操作が行われた場合、ソース機器10は、デコーダ15によってデコードされたコンテンツデータ(制御層のデータ)を用いて、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
このように、ソース機器10がコンテンツデータをデコードしているので、ソース機器10は、ソース機器10またはシンク機器20でのユーザー操作に応じた処理を適切に行うことができ、ユーザーによる操作性を向上させることができる。また、ソース機器10は、オリジナルのコンテンツデータをシンク機器20に送信しているので、シンク機器20の画面に、オリジナルの画質で映像を表示することができる。さらに、ソース機器10で、デコードされたコンテンツデータをエンコード(再エンコード)しないので、消費電力を小さくでき、また高性能なリアルタイムエンコーダ(サイズが大きい画像をリアルタイムに処理可能なエンコーダ)が不要である。
なお図10に示す例においては、コンテンツに含まれる映像(メインムービープレーン)171を表示画面に全画面表示している。しかし、例えばユーザーの操作に応じて、コンテンツの映像を画面の一部のみに表示する場合(ウィンドウ表示等)、ソース機器10はハイブリッドトランスコーディング(Hybrid-transcoding)方式からトランスコーディング方式に切替え、表示画面に表示する映像全体をエンコードして、エンコードした映像を送信しても良い。反対に、トランスコーディング方式での送信中に、コンテンツ映像が全画面表示に切り替わると、ハイブリッドトランスコーディング方式に切替えても良い。
さらに、図11に示す例では、ソース機器10は、コンテンツの制御層に対応するデータをデコーダ15でデコードする。また、ソース機器10は、オリジナルのコンテンツデータ(ストリーム層のデータおよび制御層のデータ)をシンク機器20に送信する。なお、ソース機器10は、ユーザー操作の位置を示すカーソルに関するデータをシンク機器20に送信してもよい。
シンク機器20は、デコーダ25で、ソース機器10から受信したオリジナルのコンテンツデータをデコードする。そして、シンク機器20は、コンテンツに含まれる映像(メインムービープレーン)201とボタン202を含む操作画面(インタラクティブプレーン)とを画面に表示する。なお、シンク機器20は、ソース機器10から送信されたカーソルに関するデータに基づいて、シンク機器20の画面にカーソル203を表示することもできる。
そして、シンク機器20の画面にコンテンツが表示されているときに、シンク機器20でコンテンツに対するユーザー操作が行われた場合には、シンク機器20は、UIBCで、ユーザー操作に対応する座標情報26をソース機器10に送信する。
ソース機器10は、UIBCで、シンク機器20からユーザー操作に対応する座標情報26を受信する。そして、ソース機器10は、デコーダ15によってデコードされた制御層のデータを用いて、座標情報26に対応するユーザー操作を認識し、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
また、ソース機器10でコンテンツに対するユーザー操作が行われた場合、ソース機器10は、デコーダ15によってデコードされた制御層のデータを用いて、そのユーザー操作に対応する操作処理18を実行し、処理結果をシンク機器20の画面に反映させることができる。
このように、ソース機器10が制御層のデータをデコードしているので、ソース機器10は、ソース機器10またはシンク機器20でのユーザー操作に応じた処理を適切に行うことができ、ユーザーによる操作性を向上させることができる。また、ソース機器10は、オリジナルのコンテンツデータをシンク機器20に送信しているので、シンク機器20の画面に、オリジナルの画質で映像を表示することができる。さらに、ソース機器10で、ストリーム層のデータをデコードおよびエンコードせず、制御層のデータをエンコードしないので、消費電力を小さくでき、また高性能なリアルタイムエンコーダ(サイズが大きい画像をリアルタイムに処理可能なエンコーダ)が不要である。
なお、ハイブリッドトランスコーディング方式でコンテンツが伝送されるときに、ソース機器10は、当該ソース機器10の画面に、デコードされた制御層のデータを用いた画像を表示してもよい。
図12は、ソース機器10の画面に表示される画像66の例を示す。ここでは、制御層のデータが、IGストリームとPGストリームとを含む場合を想定する。この場合、画像66は、デコードされた制御層のデータを用いて、IGストリームに対応するインタラクティブプレーン63と、PGストリームに対応するプレゼンテーションプレーン62とを重ね合わせることによって生成されている。
また、図13は、伝送されたコンテンツデータを用いて、シンク機器20の画面に表示される画像の別の例を示す。このコンテンツデータは、例えば、地上波デジタル放送信号によって受信されるコンテンツデータであり、例えば、データ放送のテキストデータ(テキストストリーム)を含んでいる。
画像67には、コンテンツデータ内のオーディオ/ビデオストリームを用いて生成されるメインムービープレーン61と、テキストデータを用いて生成される文字情報68とが配置されている。この文字情報68は、ユーザーによる操作を受け付ける場合がある。その場合、ユーザーは、表示されている文字情報68に基づいて、例えば、リモートコントローラを用いたユーザー操作を行うことができる。
このような文字情報68が表示されるコンテンツでも、上述したハイブリッドトランスコーディング方式による伝送において、ソース機器10で文字情報68に対応するデータ(制御層のデータ)がデコードされるので、ユーザー操作を適切に処理することができる。
次いで、図14を参照して、ソース機器10によって実行されるコンテンツ伝送プログラム103Bの機能構成の例を説明する。ソース機器10は、ハイブリッドトランスコーディング方式でコンテンツデータを伝送する機能を有する。オリジナルのコンテンツデータは、任意のコーデックでエンコードされたコンテンツデータであって、映像を表示するためのAVストリーム(AVストリーム層のデータ)と、このAVストリームを制御するための制御ストリーム(AVストリーム制御層のデータ)とを含むコンテンツデータである。
ソース機器10は、例えば、制御部31、コンテンツ処理部32、送信部33、表示処理部34、操作処理部36、および受信部37を備える。また、コンテンツを受信するシンク機器20は、例えば、受信部41、コンテンツ処理部42、表示処理部43、送信部44、および操作処理部45を備える。
ソース機器10の制御部31は、コンテンツ伝送プログラム103B内の各部の動作を制御する。制御部31は、コンテンツ処理部32によるコンテンツデータに対する処理(デコード、エンコード、等)を制御する。制御部31は、例えば、コンテンツ処理部32の機能を有効または無効にする制御信号をコンテンツ処理部32に出力する。コンテンツ処理部32は、制御部31によって出力される制御信号に応じて、コンテンツをソース機器10で表示(出力)するための処理と、コンテンツをシンク機器20に伝送するための処理とを実行し得る。
ハイブリッドトランスコーディング方式でコンテンツをシンク機器20に伝送する場合、コンテンツ処理部32と送信部33とは、少なくとも一部がトランスコードされていないコンテンツデータ(例えば、AVストリーム層がトランスコードされていないコンテンツデータ)を、シンク機器20に送信する。送信部33は、例えば、ソース機器10とシンク機器20との間で確立された無線接続の伝送路(例えば、Wi−Fi Directに基づく無線接続の伝送路)を介して、そのコンテンツデータをシンク機器20に送信する。なお、送信部33は、コンテンツデータを送信する前に、当該コンテンツデータを、トランスコーディング方式とノントランスコーディング方式とハイブリッドトランスコーディング方式のいずれの伝送方式で送信するかを、シンク機器20に通知することができる。これにより、シンク機器20は、通知された伝送方式に応じて、ソース機器10から伝送されたコンテンツデータを処理することができる。また、シンク機器20は、通知された伝送方式に応じて、その伝送方式を示す情報を画面に表示し、現在のコンテンツの伝送方式をユーザーに知らせることもできる。
また、ソース機器10のコンテンツ処理部32は、コンテンツデータの少なくとも一部(例えば、AVストリーム制御層のデータ)をデコードする。そして、操作処理部36は、ソース機器10またはシンク機器20でのユーザー操作に応じて、コンテンツ処理部32でデコードされたコンテンツデータの少なくとも一部を用いて、当該ユーザー操作に対応する処理を実行する。
図15を参照して、コンテンツをソース機器10で表示(出力)するための、コンテンツ処理部32の機能構成の例を説明する。このコンテンツ処理部32は、コンテンツデータをデコードし、LCD17Aの画面に表示される映像とスピーカー13等に出力される音声とを生成するように構成されている。
まず、スイッチ502は、コンテンツデータ521をレイヤー(プレーン)に応じたデコーダ511〜515に振り分ける。オーディオデコーダ511は、振り分けられたオーディオストリーム(オーディオデータ)522をデコードする。これにより、スピーカー等で出力される音声が生成される。
ビデオデコーダ512は、振り分けられたビデオストリーム(ビデオデータ)523をデコードすることによって、ビデオプレーンを生成する。プレゼンテーショングラフィクス(PG)デコーダ513は、振り分けられたPGストリーム(PGデータ)524をデコードすることによって、プレゼンテーションプレーンを生成する。インタラクティブグラフィクス(IG)デコーダ514は、振り分けられたIGストリーム(IGデータ)525をデコードすることによって、IGプレーンを生成する。テキストデコーダ515は、振り分けられたテキストストリーム(テキストデータ)526をデコードすることによって、テキストを生成する。そして、マルチプレクサ516は、ビデオプレーンとIGプレーンとPGプレーンとテキストとを重ね合わせる(多重化する)。これにより、画面に表示される画像が生成される。
表示処理部34は、コンテンツ処理部32によって生成された画像をソース機器10(LCD17A)の画面に表示し得る。また、コンテンツ処理部32によって生成された音声は、スピーカー13等で出力され得る。
なお、上述したコンテンツ処理部32内の各部の動作は、制御部31による有効/無効制御信号に応じて、有効または無効に設定することができる。例えば、ハイブリッドトランスコーディング方式でコンテンツデータが伝送される場合に、ソース機器(タブレットコンピュータ)10の画面に映像が表示されないとき、制御部31は、ビデオデコーダ512とオーディオデコーダ511とを無効にし、PGデコーダ513とIGデコーダ514とテキストデコーダ515とを有効にする制御信号をコンテンツ処理部32に出力する。これにより、AVストリーム制御層のデータ(例えば、IGプレーン、PGプレーン、テキストに関するデータ)がデコードされ、AVストリーム層のデータ(例えば、ビデオプレーンおよび音声に関するデータ)がデコードされない。つまり、ビデオデコーダ512およびオーディオデコーダ511に、AVストリーム層のデータを通過(スルー)させ、且つPGデコーダ513とIGデコーダ514とテキストデコーダ515とに、ユーザー操作を処理するために必要なAVストリーム制御層のデータをデコードさせる。
図16から図19を参照して、ハイブリッドトランスコーディング方式でコンテンツデータを伝送するための、コンテンツ処理部32の機能構成の例を説明する。
図16に示す例では、コンテンツ処理部32は、エンコードされたコンテンツデータであって、オーディオ/ビデオストリームと、当該オーディオ/ビデオストリームを制御するための制御ストリーム32Cとを含むコンテンツデータの内、制御ストリーム32Cをデコードする。また、コンテンツ処理部32は、オリジナルのコンテンツデータ32Aをスルーし(すなわち、何等処理を施すことなく通過させ)、送信部33は、第1時刻情報が付加されたオーディオ/ビデオストリームと、第2時刻情報が付加された制御ストリーム32Cとを含むオリジナルのコンテンツデータ32Aを、シンク機器(外部電子機器)20に送信する。オーディオ/ビデオストリームと制御ストリーム32Cとを用いた映像がシンク機器20の画面に表示されているとき、操作処理部36は、シンク機器20でのユーザー操作に応じて、コンテンツ処理部32によってデコードされた制御ストリーム32Cを用いて、当該ユーザー操作に対応する処理を実行する。
より具体的には、コンテンツ処理部32は、スイッチ321、デコーダ322、および表示レイアウト処理部323を備える。
スイッチ321は、オリジナルのコンテンツデータ32Aの内の制御ストリーム32Cをデコーダ322に振り分ける。デコーダ322は、振り分けられた制御ストリーム32Cをデコードする。そして、表示レイアウト処理部323は、デコードされた制御ストリーム32Cに対応する画像やテキストのレイアウト(画面構成)を決定する。このテキストは、例えば、Java(登録商標)やHTMLで記述されたデータに基づくテキストである。表示レイアウト処理部323は、決定されたレイアウトに基づいて、ユーザー操作のためのボタン(操作オブジェクト)やテキストを含む操作画面の画像を生成してもよい。また、AVストリームと制御ストリーム32Cとを含むオリジナルのコンテンツデータ32Aはコンテンツ処理部32内を通過する。
送信部33は、第1時刻情報が付加されたAVストリームと、第2時刻情報が付加された制御ストリーム32Cとを含むオリジナルのコンテンツデータ32Aをシンク機器20に送信する。第1時刻情報と第2時刻情報とは、送信されるAVストリームに対応するタイムスタンプを含む。これら第1および第2時刻情報は、例えば、シンク機器20でAVストリームと制御ストリーム32Cとを同期させるために用いられる。なお、制御ストリーム32Cが字幕情報(例えば、PGストリームやテキストストリームによる字幕情報)を含む場合、その字幕情報に対応するタイムスタンプ(字幕情報に予め付加されたタイムスタンプ)を第2時刻情報として用いてもよい。
なお、表示処理部34は、図12に示したような操作画面の画像をソース機器10の画面に表示してもよい。また、送信部33は、ソース機器10の画面に表示されている操作オブジェクト(操作画面)に対するユーザー操作に応じて、このユーザー操作を示す操作データをシンク機器20に送信してもよい。
図17に示す例では、コンテンツ処理部32は、スイッチ321、デコーダ322、表示レイアウト処理部323、およびエンコーダ324を備える。
スイッチ321は、オリジナルのコンテンツデータ32Aの内のオーディオ/ビデオストリーム32Bを、そのまま出力する。送信部33は、タイムスタンプPTSを含む第1時刻情報が付加された、オリジナルのオーディオ/ビデオストリーム32Bを送信する。
また、スイッチ321は、オリジナルのコンテンツデータ32Aの内の制御ストリーム32Cをデコーダ322に振り分ける。デコーダ322は、振り分けられた制御ストリーム32Cをデコードする。表示レイアウト処理部323は、デコードされた制御ストリーム32Cに対応する画像やテキストのレイアウト(画面構成)を決定する。表示レイアウト処理部323は、決定されたレイアウトに基づいて、ユーザー操作のためのボタン(操作オブジェクト)やテキストを含む操作画面の画像を生成してもよい。そして、エンコーダ324は、デコードされた制御ストリーム32Cをエンコード(再エンコード)する。エンコーダ324は、デコードされた制御ストリーム32Cを、例えばシンク機器20での処理に適したコーデックでエンコードする。つまり、デコーダ322およびエンコーダ324によって、制御ストリーム32Cがシンク機器20による処理に適したコーデックにトランスコードされる。
次いで、送信部33は、タイムスタンプPTSと、デコーダ322、表示レイアウト処理部323およびエンコーダ324による処理に要した時間Δtとを含む第2時刻情報が付加された、トランスコードされた制御ストリーム32Cをシンク機器20に送信する。トランスコードされた制御ストリーム32Cが送信部33によってシンク機器20に送信される時刻は、デコーダ322、表示レイアウト処理部323およびエンコーダ324による処理に要した時間Δtだけ、AVストリーム32Bが送信される時刻よりも遅延する。この遅延をシンク機器20に通知するために、トランスコードされた制御ストリーム32Cに付加される第2時刻情報には、遅延時間Δtが含まれる。第1時刻情報と第2時刻情報とにより、映像および音声と操作画面とを連動させることができる。
なお、上述したデコーダ322による処理、または表示レイアウト処理部323による処理は、制御ストリーム32Cの構成によっては必要でない場合がある。したがって、例えば、表示レイアウト処理部323による処理が行われない場合には、第2時刻情報に含まれる時間Δtは、デコーダ322による処理とエンコーダ324による処理とに要した時間を示す。
また、表示処理部34は、操作画面の画像をソース機器10の画面に表示してもよい。
シンク機器20は、第1時刻情報(タイムスタンプPTS)が付加されたAVストリーム32Bを受信し、第2時刻情報(タイムスタンプPTSと遅延時間Δt)が付加された、トランスコードされた制御ストリーム32Cを受信する。シンク機器20は、これら時刻情報に基づき、例えば、先に到着したAVストリーム32Bを、バッファ(一時保存バッファ)を用いて遅延時間Δtだけ遅延させ、AVストリーム32Bと制御ストリーム32Cとを同期させる(すなわち、ストリームの到着時刻を補正する)。シンク機器20は、同期されたAVストリーム32Bと制御ストリーム32Cとをデコードし、映像と操作画面とをシンク機器20の画面に表示することができる。
なお、シンク機器20とソース機器10とは、各々の画面に表示される表示画像(映像、操作画面)を同期させるために、タイムスタンプPTSを交換してもよい。例えば、シンク機器20は、映像と操作画面とを画面に表示するときに、表示される映像(AVストリーム32B)に対応するタイムスタンプPTSをソース機器10に送信し、ソース機器10は、そのタイムスタンプPTSに応じた操作画面がディスプレイの画面に表示されるように制御する。
図18に示す例では、コンテンツ処理部32は、スイッチ321、デコーダ322、表示レイアウト処理部323、およびエンコーダ324を備える。
スイッチ321は、オリジナルのコンテンツデータ32Aの内の、タイムスタンプPTSのオーディオ/ビデオストリーム32Bを、バッファ325に格納する。
また、スイッチ321は、オリジナルのコンテンツデータ32Aの内の、タイムスタンプPTSの制御ストリーム32Cをデコーダ322に振り分ける。デコーダ322は、振り分けられた制御ストリーム32Cをデコードする。表示レイアウト処理部323は、デコードされた制御ストリーム32Cに対応する画像やテキストのレイアウト(画面構成)を決定する。表示レイアウト処理部323は、決定されたレイアウトに基づいて、ユーザー操作のためのボタン(操作オブジェクト)やテキストを含む操作画面の画像を生成してもよい。
そして、エンコーダ324は、デコードされた制御ストリーム32Cをエンコード(再エンコード)する。エンコーダ324は、デコードされた制御ストリーム32Cを、例えばシンク機器20による処理に適したコーデックでエンコードする。つまり、デコーダ322およびエンコーダ324によって、制御ストリーム32Cがシンク機器20による処理に適したコーデックにトランスコードされる。エンコーダ324は、トランスコードされた制御ストリーム32Cをマルチプレクサ326に出力する。なお、デコーダ322、表示レイアウト処理部323およびエンコーダ324による処理には時間Δtを要している。
バッファ325は、この時間Δtだけ遅延させて、オーディオ/ビデオストリーム32Bをマルチプレクサ326に出力する。これにより、トランスコードされた制御ストリーム32Cと、オーディオ/ビデオストリーム32Bとを同期させることができる。
マルチプレクサ326は、表示レイアウト処理部323およびエンコーダ324による処理に時間Δtを要した制御ストリーム32Cと、バッファ325によって時間Δtだけ遅延されたオーディオ/ビデオストリーム32Bとを多重化する。これにより、送信部33は、同期された、オリジナルのオーディオ/ビデオストリーム32Bとトランスコードされた制御ストリーム32Cとを、1つのストリームとしてシンク機器20に送信することができる。したがって、シンク機器20では、時刻情報を考慮することなくコンテンツデータを処理でき、またコンテンツに対するユーザー操作の処理を正確な時刻に基づいて行うことができる。
なお、表示処理部34は、操作画面の画像をソース機器10の画面に表示してもよい。
図19に示す例では、コンテンツ処理部32は、スイッチ321、デコーダ322,327、および表示レイアウト処理部323を備える。
スイッチ321は、オリジナルのコンテンツデータ32Aの内のオーディオ/ビデオストリーム32Bをデコーダ327に振り分け、オリジナルのコンテンツデータ32Aの内の制御ストリーム32Cをデコーダ322に振り分ける。
デコーダ327は、振り分けられたオーディオ/ビデオストリーム32Bをデコードすることによって、映像と音声とを生成する。また、デコーダ322は、振り分けられた制御ストリーム32Cをデコードする。表示レイアウト処理部323は、デコードされたデータに対応する画像やテキストのレイアウト(画面構成)を決定する。表示レイアウト処理部323は、決定されたレイアウトに基づいて、ユーザー操作のためのボタン(操作オブジェクト)やテキストを含む操作画面の画像を生成する。
また、オリジナルのコンテンツデータ32Aはコンテンツ処理部32内を通過する。送信部33は、このオリジナルのコンテンツデータ32Aをシンク機器20に送信する。また、表示処理部34は、映像と操作画面の画像とを重ね合わせ、その重ね合わせられた画像(映像)をソース機器10の画面に表示する。
コンテンツ処理部32は、デコードされた制御ストリーム32Cを操作処理部36に出力する。また、コンテンツ処理部32は、デコードされた制御ストリーム32Cの少なくとも一部と、当該デコードされた制御ストリーム32Cの少なくとも一部に関連する、オーディオ/ビデオストリーム32Bの少なくとも一部とを作業メモリ35に保存(蓄積)してもよい。
シンク機器20の受信部41は、ソース機器10(送信部33)によって送信されたコンテンツデータを受信する。コンテンツ処理部42は、そのコンテンツデータをデコードし、画面に表示される画像(映像)と、スピーカー等によって出力される音声とを生成する。コンテンツ処理部42による処理は、例えば、図15を参照して説明した処理と同様である。
表示処理部43は、コンテンツ処理部42によって生成された画像(映像)を、シンク機器20の画面に表示する。また、表示処理部43は、コンテンツ処理部42によって生成された音声を、シンク機器20のスピーカー等で出力する。
シンク機器20の画面に表示されるコンテンツ(画像)には、図6で示したように、ボタンのような、ユーザー操作のための操作オブジェクト(インタラクティブプレーン)が含まれることがある。ソース機器10とシンク機器20とでは、ユーザーが、リモートコントローラや各種のポインティングデバイスを用いて、その操作オブジェクトに対する操作を行うことができる。このユーザー操作は、コンテンツの再生を制御するための操作(例えば、再生、停止、一時停止、再開、早送り、早戻し、スロー再生、等)、コンテンツの表示形態を変更するための操作(例えば、全画面表示)、所定のURLへ移動するための操作、コンテンツの音量を変更するための操作、等を含む。
また、ユーザー操作は、マイクを用いた音声によるユーザー操作であってもよい。ソース機器10またはシンク機器20は、マイクを用いて入力された音声データを解析することによって、例えば、音声から「再生」、「停止」のようなコマンドによるユーザー操作を検出してもよいし、また音声からマウスのようなポインティングデバイスで指示される位置の移動、クリック、タップのようなユーザー操作を検出してもよい。
以下では、シンク機器20でユーザー操作が行われた場合の処理と、ソース機器10でユーザー操作が行われた場合の処理とを説明する。
まず、シンク機器20でユーザー操作が行われた場合について説明する。
シンク機器20の送信部44は、シンク機器20の画面に表示された操作オブジェクトに対するユーザー操作が検出されたことに応じて、そのユーザー操作に対応する操作データをソース機器10に送信する。この操作データは、ユーザー操作が行われた、シンク機器20の画面上の位置を示す座標データを含む。また、操作データは、ユーザー操作が行われたときの映像(コンテンツ)の時間軸上の再生位置を示す時刻データ(タイムスタンプ)を含んでいてもよい。
ソース機器10の受信部37は、シンク機器20から、ユーザー操作に対応する操作データを受信する。操作処理部36は、操作データに含まれる座標データと、デコードされた制御ストリーム32Cとを用いて、シンク機器20で検出されたユーザー操作を認識する。操作処理部36は、座標データで示される画面上の座標に基づいて、例えば、インタラクティブプレーン上の操作オブジェクトから、ユーザーが操作した操作オブジェクト(例えば、ボタン202)を認識する。操作処理部36は、認識されたユーザー操作に対応する処理(すなわち、認識された操作オブジェクトに対するユーザー操作に対応する処理)を実行する。そして、送信部33は、処理結果に対応するコンテンツデータをシンク機器20に送信する。
操作処理部36は、操作データに含まれる座標データおよび時刻データと、デコードされた制御ストリーム32Cとを用いて、ユーザー操作に対応する処理を実行してもよい。その場合、操作処理部36は、時刻データで示される時間軸上の再生位置(再生時刻)と、座標データで示される画面上の座標とに基づいて、その時間軸上の再生位置に対応するインタラクティブプレーン上の操作オブジェクトから、ユーザーが操作した操作オブジェクトを認識し、その操作オブジェクトに対するユーザー操作に対応する処理を実行する。
また、例えば、ユーザー操作がコンテンツの再生を制御するための操作(例えば、再生、停止、一時停止、再開、早送り、早戻し、スロー再生、等)である場合、操作処理部36および送信部33は、そのユーザー操作に対応する再生位置から開始されるコンテンツデータをシンク機器20に送信する。操作処理部36は、ユーザー操作が所定の再生位置に戻す操作である場合には、例えば、作業メモリ35に保存(蓄積)されている、デコードされたコンテンツデータを利用して、その所定の再生位置に対応するコンテンツデータ上の位置を特定し、シンク機器20に送信すべきコンテンツデータを取得することができる。
また、ユーザー操作がコンテンツの表示形態を変更するための操作(例えば、全画面表示)である場合、送信部33は、そのユーザー操作で指定された表示形態でコンテンツを表示するためのコンテンツデータをシンク機器20に送信する。ユーザー操作が所定のURLへ移動するための操作である場合、送信部33は、その所定のURLのコンテンツのデータをシンク機器20に送信する。また、ユーザー操作がコンテンツの音量を変更するための操作である場合、送信部33は、音量が変更されたコンテンツデータをシンク機器20に送信する。
なお、表示処理部34は、ソース機器10の画面にコンテンツの少なくとも一部(例えば、操作画面)が表示されている場合には、ユーザー操作に対応する処理結果に応じてその表示内容を変更してもよい。
シンク機器20の受信部41は、ソース機器10から、ユーザー操作の処理結果に基づくコンテンツデータを受信する。そして、コンテンツ処理部42および表示処理部43は、受信されたコンテンツデータを用いて映像をシンク機器20の画面に表示する。また、コンテンツ処理部42および表示処理部43は、受信されたコンテンツデータを用いて音声をスピーカー等から出力してもよい。
なお、シンク機器20の送信部44は、ユーザー操作がシンク機器20で処理可能である場合には、操作データをソース機器10に送信せず、シンク機器20の操作処理部45でそのユーザー操作に対応する処理を実行してもよい。例えば、ユーザー操作がコンテンツを全画面表示する操作である場合、操作処理部45は、表示処理部43にコンテンツを全画面表示させる。ユーザー操作が所定のURLへ移動するための操作である場合、操作処理部45は、その所定のURLにアクセスし、対応するコンテンツのデータを受信する。また、ユーザー操作がコンテンツの音量を変更するための操作である場合、操作処理部45は、シンク機器20に設けられたスピーカー等のボリュームを変更する。
次いで、ソース機器10でユーザー操作が行われた場合について説明する。
まず、ソース機器10の操作処理部36は、ユーザー操作が検出された場合、デコードされた制御ストリーム32Cを用いて、そのユーザー操作に対応する処理を実行する。操作処理部36は、ユーザー操作が検出された画面上の位置(座標)に基づいて、例えば、インタラクティブプレーン上の操作オブジェクトから、ユーザーが操作した操作オブジェクト(例えば、ボタン172)を認識し、認識された操作オブジェクトに対するユーザー操作に対応する処理を実行する。そして、送信部33は、処理結果に対応するコンテンツデータをシンク機器20に送信する。なお、表示処理部34は、ソース機器10の画面にコンテンツの少なくとも一部(例えば、操作画面)が表示されている場合には、ユーザー操作に対応する処理結果に応じて表示を変更してもよい。
シンク機器20の受信部41は、ソース機器10から、ユーザー操作の処理結果に基づくコンテンツデータを受信する。そして、コンテンツ処理部42および表示処理部43は、受信されたコンテンツデータを用いて映像をシンク機器20の画面に表示する。また、コンテンツ処理部42および表示処理部43は、受信されたコンテンツデータを用いて音声をスピーカー等から出力してもよい。
なお、ソース機器10の送信部33は、ソース機器10でユーザー操作が検出された場合、そのユーザー操作に対応する操作データをシンク機器20に送信してもよい。シンク機器20の受信部41は操作データを受信し、操作処理部45は、受信された操作データと、デコードされた制御ストリーム32Cとを用いて、ソース機器10で検出されたユーザー操作を認識し、認識されたユーザー操作に対応する処理を実行する。
このようにして、ソース機器10で検出されたユーザー操作を処理することにより、ユーザーは、例えば、タブレットコンピュータであるソース機器10に設けられたタッチパネル17Bを、シンク機器20のタッチパッドとして使用することができる。
なお、上述したハイブリッドトランスコーディング方式による伝送は、コンテンツ伝送プログラム103Bのようなソフトウェアではなく、ハードウェアによって実現されてもよい。
次いで、図20のフローチャートを参照して、ソース機器10によって実行されるコンテンツ伝送制御処理の手順の例について説明する。
送信部33および受信部37は、伝送を開始するための初期設定処理を実行する(ブロックB901)。この初期設定処理は、例えば、ソース機器10とシンク機器20との間の接続(無線接続)を確立し、ペアリングのためのセッションを実行すること、ユーザーに関する情報を送受信すること、トランスコーディング方式とノントランスコーディング方式とハイブリッドトランスコーディング方式のいずれの伝送方式でコンテンツデータを伝送するかを通知すること(例えば、伝送方式を示すフラグをシンク機器20に送信すること)、コンテンツのヘッダ情報を用いて当該コンテンツの内容を検出すること、等を含む。
コンテンツ処理部32は、伝送対象のコンテンツデータがAVストリーム層とAVストリーム制御層とを含むか否かを判定する(ブロックB902)。コンテンツ処理部32は、例えば、コンテンツデータが音声および映像だけでなく、その再生を制御するための情報を含んでいるか否かを判定する。コンテンツデータがAVストリーム層とAVストリーム制御層とを含んでいない場合(ブロックB902のNO)、送信部33は、コンテンツデータをAVストリーム層とAVストリーム制御層の区別なくシンク機器20に送信する(ブロックB903)。
コンテンツデータがAVストリーム層とAVストリーム制御層とを含んでいる場合(ブロックB902のYES)、コンテンツ処理部32は、AVストリーム層をトランスコードせずに伝送するか否かを判定する(ブロックB904)。AVストリーム層をトランスコードして伝送する場合(ブロックB904のNO)、送信部33は、コンテンツデータをトランスコードし、トランスコードされたコンテンツデータをシンク機器20に送信する(ブロックB905)。
AVストリーム層をトランスコードせずに伝送する場合(ブロックB904のYES)、コンテンツ処理部32は、コンテンツデータ内のAVストリーム制御層に対応するデータを処理する(ブロックB906)。コンテンツ処理部32は、例えば、AVストリーム制御層に対応するデータをデコードし、デコードされたデータを用いて、ユーザー操作のためのオブジェクトやテキストのレイアウトを決定する処理(画像構成化)を行う。次いで、コンテンツ処理部32は、ユーザー操作に応じて、コンテンツのAVストリームを処理する(ブロックB907)。
そして、制御部31は、コンテンツデータをシンク機器20に伝送するか否かを判定する(ブロックB908)。コンテンツデータを伝送しない場合(ブロックB908のNO)、ブロックB901に戻り、初期設定処理が再度実行される。
一方、コンテンツデータを伝送する場合(ブロックB908のYES)、送信部33は、コンテンツデータをシンク機器20に伝送する(ブロックB909)。また、表示処理部34は、ソース機器10の画面に、ブロックB906で処理されたAVストリーム制御層を用いた画像(例えば、操作画面)を表示する(ブロックB910)。
次いで、操作処理部36は、シンク機器20から、シンク機器20でのユーザー操作を示す操作データが受信されたか否かを判定する(ブロックB911)。ユーザー操作を示す操作データが受信されている場合(ブロックB911のYES)、ブロックB907に戻り、コンテンツ処理部32は、そのユーザー操作に応じて、オーディオ/ビデオストリームを処理する(ブロックB907)。コンテンツ処理部32は、例えば、コンテンツの再生を制御するユーザー操作に応じて、その再生位置に対応するコンテンツデータを取得する。また、コンテンツ処理部32は、例えば、音量を変更するユーザー操作に応じて、音量が変更されたAVストリームを生成する。そして、コンテンツデータが伝送される場合(ブロックB908のYES)、送信部33は、処理されたAVストリームを含むコンテンツデータをシンク機器20に送信する(ブロックB909)。また、コンテンツ処理部32および表示処理部34は、ユーザー操作に応じてAVストリーム制御層に対応する画像を変更してもよい(ブロックB910)。
ユーザー操作を示す操作データが受信されていない場合(ブロックB911のNO)、送信部33は、コンテンツデータの伝送を終了するか否かを判定する(ブロックB912)。伝送を終了する場合(ブロックB912のYES)、処理を終了する。伝送を終了しない場合(ブロックB912のNO)、ブロックB901に戻る。
次いで、図21から図27のフローチャートを参照して、ソース機器10によってコンテンツがハイブリッドトランスコーディング方式で伝送され、シンク機器20によってそのコンテンツが表示される場合の処理についてより具体的に説明する。以下では、説明を簡単にするために、ソース機器10とシンク機器20との接続(無線接続)が確立され、ペアリングのためのセッションが実行されることにより、機器間のリンクが確立されている場合を想定する。また、伝送されるコンテンツにはAVストリーム層とAVストリーム制御層とが含まれている。
図21は、ソース機器10によって実行されるコンテンツ送信処理の手順の第1の例を示す。
まず、制御部31は、コンテンツデータをシンク機器20に送信するか否かを判定する(ブロックB101)。制御部31は、例えば、コンテンツをシンク機器20で表示(出力)するための操作が検出された場合に、コンテンツデータをシンク機器20に送信すると判定する。コンテンツデータを送信しない場合(ブロックB101のNO)、ブロックB101に戻り、コンテンツデータをシンク機器20に送信するか否かが再度判定される。
コンテンツデータを送信する場合(ブロックB101のYES)、送信部33は、コンテンツデータ(オリジナルのコンテンツデータ)をシンク機器20に送信する(ブロックB102)。次いで、コンテンツ処理部32は、コンテンツデータ内のAVストリーム制御層のデータ(制御ストリーム)32Cをデコードする(ブロックB103)。コンテンツ処理部32は、デコードされたインタラクティブプレーンのデータを作業メモリ35に一時保存してもよい。また、表示処理部34は、デコードされたAVストリーム制御層のデータを用いて、AVストリーム制御層に対応する画像をディスプレイ17の画面に表示してもよい(ブロックB104)。
図22は、シンク機器20によって実行されるコンテンツ表示処理の手順の第1の例を示す。このコンテンツ表示処理では、シンク機器20は、図21に示した処理でソース機器10が送信したコンテンツデータを用いてコンテンツを再生する。
まず、受信部41は、ソース機器10からコンテンツデータ(オリジナルコンテンツデータ)を受信する(ブロックB151)。コンテンツ処理部42は、受信されたコンテンツデータをデコードする(ブロックB152)。コンテンツ処理部42は、デコードされたデータを用いたプレーン毎の画像を重ね合わせる(ブロックB153)。コンテンツ処理部42は、例えば、メインムービープレーンの画像と、プレゼンテーションプレーンの画像と、インタラクティブプレーンの画像とを多重化する。そして、表示処理部43は、重ね合わせられた画像を画面に表示する(ブロックB154)。
図23は、ソース機器10によって実行されるコンテンツ送信処理の手順の第2の例を示す。
まず、制御部31は、コンテンツデータをシンク機器20に送信するか否かを判定する(ブロックB201)。コンテンツデータを送信しない場合(ブロックB201のNO)、ブロックB201に戻り、コンテンツデータをシンク機器20に送信するか否かが再度判定される。
コンテンツデータを送信する場合(ブロックB201のYES)、送信部33は、コンテンツデータ内のAVストリーム層のデータ(AVストリーム)32Bと、タイムスタンプPTSを含む第1時刻情報とをシンク機器20に送信する(ブロックB202)。次いで、コンテンツ処理部32は、コンテンツデータ内のAVストリーム制御層のデータ(制御ストリーム)32Cをトランスコードする(ブロックB203)。コンテンツ処理部32は、トランスコードされたAVストリーム制御層のデータ32Cを作業メモリ35に一時保存してもよい。送信部33は、トランスコードされたAVストリーム制御層のデータ32Cと、タイムスタンプPTSおよび遅延時間Δtを含む第2時刻情報とをシンク機器20に送信する(ブロックB204)。
また、表示処理部34は、デコードされたAVストリーム制御層のデータ32Cを用いて、AVストリーム制御層に対応する画像(操作画面)をディスプレイ17の画面に表示してもよい(ブロックB205)。
図24は、シンク機器20によって実行されるコンテンツ表示処理の手順の第2の例を示す。このコンテンツ表示処理では、シンク機器20は、図23に示した処理でソース機器10が送信したコンテンツデータを用いてコンテンツを再生する。
まず、受信部41は、ソース機器10から、AVストリーム層のデータ(AVストリーム)32Bを受信し(ブロックB251)、トランスコードされたAVストリーム制御層のデータ(制御ストリーム)32Cを受信する(ブロックB252)。コンテンツ処理部42は、AVストリーム層のデータに付加された第1時刻情報と、トランスコードされたAVストリーム制御層のデータ32Cに付加された第2時刻情報とに基づいて、AVストリーム層のデータ32Bと、トランスコードされたAVストリーム制御層のデータ32Cとを同期させ、同期したデータ32B,32Cをデコードする(ブロックB253)。コンテンツ処理部42は、例えば、AVストリーム層のデータ32Bをバッファを用いて遅延時間Δtだけ遅延させることによって、AVストリーム制御層のデータ32Cと同期させる。
そして、コンテンツ処理部42は、デコードされたデータを用いたプレーン毎の画像を重ね合わせる(ブロックB254)。コンテンツ処理部42は、例えば、デコードされたAVストリーム層のデータ32Bを用いたメインムービープレーンの画像と、デコードされたAVストリーム制御層のデータ32Cを用いたインタラクティブプレーンの画像とを多重化する。コンテンツ処理部32は、メインムービープレーンの画像に対して、インタラクティブプレーンの画像を重畳してもよいし、インタラクティブプレーンの画像をPicture-in-Pictureではめ込み画像としてもよい。なお、プレゼンテーションプレーンは、メインムービープレーンとインタラクティブプレーンのいずれかと同様に扱われてもよい。そして、表示処理部43は、重ね合わせられた画像を画面に表示する(ブロックB255)。
図25は、ソース機器10によって実行されるコンテンツ送信処理の手順の第3の例を示す。
まず、制御部31は、コンテンツデータをシンク機器20に送信するか否かを判定する(ブロックB301)。コンテンツデータを送信しない場合(ブロックB301のNO)、ブロックB301に戻り、コンテンツデータをシンク機器20に送信するか否かが再度判定される。
コンテンツデータを送信する場合(ブロックB301のYES)、コンテンツ処理部32は、コンテンツデータ内のAVストリーム層のデータ(AVストリーム)32Bをバッファ325に格納する(ブロックB302)。また、コンテンツ処理部32は、コンテンツデータ内のAVストリーム制御層のデータ(制御ストリーム)32Cをトランスコードする(ブロックB303)。そして、送信部33は、トランスコードされたAVストリーム制御層のデータ32Cと、AVストリーム制御層のデータ32Cのトランスコードに要した時間Δtだけ、バッファ325によって遅延されたAVストリーム層のデータ32Bとをシンク機器20に送信する(ブロックB304)。
また、表示処理部34は、デコードされたAVストリーム制御層のデータ32Cを用いて、AVストリーム制御層に対応する画像をディスプレイ17の画面に表示してもよい(ブロックB305)。
図26は、シンク機器20によって実行されるコンテンツ表示処理の手順の第3の例を示す。このコンテンツ表示処理では、シンク機器20は、図25に示した処理でソース機器10が送信したコンテンツデータを用いてコンテンツを再生する。
まず、受信部41は、ソース機器10から、AVストリーム層のデータ(AVストリーム)32Bと、トランスコードされたAVストリーム制御層のデータ(制御ストリーム)32Cとを受信する(ブロックB351)。コンテンツ処理部42は、AVストリーム層のデータ32Bをデコードし(ブロックB352)、トランスコードされたAVストリーム制御層のデータ32Cをデコードする(ブロックB353)。コンテンツ処理部42は、デコードされたデータを用いたプレーン毎の画像を重ね合わせる(ブロックB354)。コンテンツ処理部42は、例えば、デコードされたAVストリーム層のデータを用いたメインムービープレーンの画像と、デコードされたAVストリーム制御層のデータを用いたインタラクティブプレーンの画像とを多重化する。なお、プレゼンテーションプレーンは、メインムービープレーンとインタラクティブプレーンのいずれかと同様に扱われてもよい。そして、表示処理部43は、重ね合わせられた画像を画面に表示する(ブロックB355)。
また、図27は、ソース機器10によって実行されるコンテンツ送信処理の手順の第4の例を示す。
まず、制御部31は、コンテンツデータをシンク機器20に送信するか否かを判定する(ブロックB401)。コンテンツデータを送信しない場合(ブロックB401のNO)、ブロックB401に戻り、コンテンツデータをシンク機器20に送信するか否かが再度判定される。
コンテンツデータを送信する場合(ブロックB401のYES)、送信部33は、コンテンツデータ(オリジナルのコンテンツデータ)をシンク機器20に送信する(ブロックB402)。次いで、コンテンツ処理部32は、コンテンツデータをデコードする(ブロックB403)。コンテンツ処理部32は、デコードされたコンテンツデータを作業メモリ35に一時保存してもよい。また、コンテンツ処理部32は、デコードされたデータを用いたプレーン毎の画像を重ね合わせる(ブロックB404)。コンテンツ処理部42は、例えば、メインムービープレーンの画像と、プレゼンテーションプレーンの画像と、インタラクティブプレーンの画像とを多重化する。そして、表示処理部34は、重ね合わせられた画像を画面に表示する(ブロックB405)。
なお、図27の処理でソース機器10が送信したコンテンツデータ(オリジナルコンテンツデータ)を用いた、シンク機器20によるコンテンツ表示処理は、図22を参照して説明した通りである。
次いで、図28から図30のフローチャートを参照して、コンテンツに対するユーザー操作に応じた処理について説明する。
図28は、ソース機器10とシンク機器20とによって実行されるユーザー操作処理の手順の第1の例を示す。
まず、シンク機器20の操作処理部45は、コンテンツに対するユーザー操作が検出されたか否かを判定する(ブロックB601)。ユーザー操作が検出されていない場合(ブロックB601のNO)、ブロックB601に戻り、コンテンツに対するユーザー操作が検出されたか否かが再度判定される。一方、ユーザー操作が検出されている場合(ブロックB601のYES)、送信部44は、そのユーザー操作に対応する操作データ(例えば、座標データ、時刻データ)をソース機器10に送信する(ブロックB602)。
次いで、ソース機器10の受信部37は、シンク機器20から、ユーザー操作に対応する操作データを受信する(ブロックB603)。操作処理部36は、操作データと、デコードされたAVストリーム制御層のデータ(制御ストリーム)32Cとを用いて、シンク機器20で検出されたユーザー操作を認識し、認識されたユーザー操作に対応する処理を実行する(ブロックB604)。そして、送信部33は、処理結果に対応するコンテンツデータをシンク機器20に送信する(ブロックB605)。なお、表示処理部34は、ソース機器10の画面にコンテンツの少なくとも一部が表示されている場合には、ユーザー操作に対応する処理結果に応じて表示を変更してもよい。
シンク機器20の受信部41は、ソース機器10から、ユーザー操作の処理結果に対応するコンテンツデータを受信する(ブロックB606)。そして、コンテンツ処理部42および表示処理部43は、受信されたコンテンツデータを用いて、画像を画面に表示する(ブロックB607)。
図29は、ソース機器10とシンク機器20とによって実行されるユーザー操作処理の手順の第2の例を示す。
まず、ソース機器10の操作処理部36は、コンテンツに対するユーザー操作が検出されたか否かを判定する(ブロックB701)。ユーザー操作が検出されていない場合(ブロックB701のNO)、ブロックB701に戻り、コンテンツに対するユーザー操作が検出されたか否かが再度判定される。一方、ユーザー操作が検出されている場合(ブロックB701のYES)、操作処理部36およびコンテンツ処理部32は、デコードされたAVストリーム制御層のデータ(制御ストリーム)32Cを用いて、ユーザー操作に対応する処理を実行する(ブロックB702)。そして、送信部33は、処理結果に対応するコンテンツデータをシンク機器20に送信する(ブロックB703)。なお、表示処理部34は、ソース機器10の画面にコンテンツの少なくとも一部が表示されている場合には、ユーザー操作に対応する処理結果に応じて表示を変更してもよい。
次いで、シンク機器20の受信部41は、ソース機器10から、ユーザー操作の処理結果に対応するコンテンツデータを受信する(ブロックB704)。コンテンツ処理部42および表示処理部43は、受信されたコンテンツデータを用いて、画像を画面に表示する(ブロックB705)。
図30は、ソース機器10とシンク機器20とによって実行されるユーザー操作処理の手順の第3の例を示す。
まず、ソース機器10の操作処理部36は、コンテンツに対するユーザー操作が検出されたか否かを判定する(ブロックB801)。ユーザー操作が検出されていない場合(ブロックB801のNO)、ブロックB801に戻り、コンテンツに対するユーザー操作が検出されたか否かが再度判定される。一方、ユーザー操作が検出されている場合(ブロックB801のYES)、送信部33は、そのユーザー操作に対応する操作データ(例えば、座標データ、時刻データ)をシンク機器20に送信する(ブロックB802)。
次いで、シンク機器20の受信部41は、ソース機器10から、ユーザー操作に対応する操作データを受信する(ブロックB803)。操作処理部45、コンテンツ処理部42および表示処理部43は、受信された操作データと、デコードされたAVストリーム制御層のデータ(制御ストリーム)32Cとを用いて、ソース機器10で検出されたユーザー操作を認識し、認識されたユーザー操作に対応する処理を実行する(ブロックB804)。
以上説明したように、本実施形態によれば、機器間でコンテンツをシームレスに表示する場合に、コンテンツに対する操作を適切に処理することができる。ソース機器10のコンテンツ処理部32は、エンコードされたコンテンツデータであって、オーディオ/ビデオストリーム32Bと、当該オーディオ/ビデオストリーム32Bを制御するための制御ストリーム32Cとを含むコンテンツデータの内、制御ストリーム32Cをデコードする。送信部33は、第1時刻情報が付加されたオーディオ/ビデオストリーム32Bと、第2時刻情報が付加された制御ストリーム32Cとを、シンク機器(外部電子機器)20に送信する。オーディオ/ビデオストリーム(AVストリーム層のデータ)32Bと制御ストリーム(AVストリーム制御層のデータ)32Cとを用いた映像がシンク機器20の画面に表示されているとき、操作処理部36は、シンク機器20でのユーザー操作に応じて、コンテンツ処理部32によってデコードされた制御ストリーム32Cを用いて、当該ユーザー操作に対応する処理を実行する。
これにより、トランスコードされていない、オリジナルのコンテンツデータをシンク機器10に送信する方式であっても、ソース機器10で制御ストリーム32Cをデコードしておくことによって、当該ソース機器10でユーザー操作を認識し、そのユーザー操作を反映した動作を実現することができる。
なお、図20から図30のフローチャートで説明した本実施形態の処理手順は全てソフトウェアによって実行することができる。このため、この処理手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
ここで説明したシステムの様々なモジュールは、ソフトウェアアプリケーション、ハードウェアおよび/またはソフトウェアのモジュール、あるいは、サーバのような1つ以上のコンピュータ上のコンポーネントとして実現することができる。様々なモジュールを別々に示したが、これらは、同一の根本的なロジックまたはコードのいくつかまたはすべてを共有することが可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…ソース機器、20…シンク機器、31…制御部、32…コンテンツ処理部、33…送信部、34…表示処理部、35…作業メモリ、36…操作処理部、37…受信部、41…受信部、42…コンテンツ処理部、43…表示処理部、44…送信部、45…操作処理部。

Claims (13)

  1. エンコードされたコンテンツデータであって、オーディオ/ビデオストリームと、当該オーディオ/ビデオストリームを制御するための制御ストリームとを含むコンテンツデータの内、前記制御ストリームをデコードするデコード手段と、
    第1時刻情報が付加された前記オーディオ/ビデオストリームと、第2時刻情報が付加された前記制御ストリームとを、外部電子機器に送信する送信手段と、
    前記オーディオ/ビデオストリームと前記制御ストリームとを用いた映像が前記外部電子機器の画面に表示されているときに、前記外部電子機器でのユーザー操作に応じて、前記デコードされた制御ストリームを用いて、当該ユーザー操作に対応する処理を実行する操作処理手段とを具備する電子機器。
  2. 前記制御ストリームは、前記ユーザー操作に応じてコンテンツの再生位置が変更されるときに、当該再生位置に対応する、前記オーディオ/ビデオストリーム上のデータ位置を特定するためのデータを含む請求項1記載の電子機器。
  3. 前記第1時刻情報と前記第2時刻情報とは、前記オーディオ/ビデオストリームに対応するタイムスタンプを含む請求項1記載の電子機器。
  4. 前記デコードされた制御ストリームをエンコードするエンコード手段をさらに具備し、
    前記第1時刻情報は、前記オーディオ/ビデオストリームに対応するタイムスタンプを含み、
    前記第2時刻情報は、前記タイムスタンプと、前記デコード手段によるデコードおよび前記エンコード手段によるエンコードに要した時間とを含む請求項1記載の電子機器。
  5. 前記デコードされた制御ストリームをエンコードするエンコード手段をさらに具備し、
    前記送信手段は、前記デコード手段によるデコードおよび前記エンコード手段によるエンコードに要した時間だけ遅延させた前記オーディオ/ビデオストリームと、前記デコードおよびエンコードされた制御ストリームとを前記外部電子機器に送信する請求項1記載の電子機器。
  6. 前記制御ストリームは字幕情報を含み、
    前記第2時刻情報は、前記字幕情報付加されたタイムスタンプである請求項1記載の電子機器。
  7. 前記送信手段は、前記オーディオ/ビデオストリームと前記制御ストリームとを前記外部電子機器に送信する前に、トランスコーディング方式とノントランスコーディング方式とハイブリッドトランスコーディング方式のいずれの伝送方式で前記オーディオ/ビデオストリームと前記制御ストリームとを送信するかを通知する請求項1記載の電子機器。
  8. 前記コンテンツデータは、ブルーレイディスクに格納されたコンテンツデータである請求項1記載の電子機器。
  9. 前記操作処理手段は、前記電子機器でのユーザー操作に応じて、前記デコードされた制御ストリームを用いて、当該ユーザー操作に対応する処理を実行する請求項1記載の電子機器。
  10. 前記外部電子機器でのユーザー操作を示す操作データを受信する受信手段をさらに具備し、
    前記操作処理手段は、前記操作データと、前記デコードされた制御ストリームとを用いて、当該ユーザー操作に対応する処理を実行する請求項1記載の電子機器。
  11. 前記操作データは、前記ユーザー操作が行われたときに、前記外部電子機器の画面に表示されている映像に対応する、前記オーディオ/ビデオストリームのタイムスタンプを含む請求項10記載の電子機器。
  12. エンコードされたコンテンツデータであって、オーディオ/ビデオストリームと、当該オーディオ/ビデオストリームを制御するための制御ストリームとを含むコンテンツデータの内、前記制御ストリームをデコードし、
    第1時刻情報が付加された前記オーディオ/ビデオストリームと、第2時刻情報が付加された前記制御ストリームとを、外部電子機器に送信し、
    前記オーディオ/ビデオストリームと前記制御ストリームとを用いた映像が前記外部電子機器の画面に表示されているときに、前記外部電子機器でのユーザー操作に応じて、前記デコードされた制御ストリームを用いて、当該ユーザー操作に対応する処理を実行する通信制御方法。
  13. コンピュータにより実行されるプログラムであって、前記プログラムは、
    エンコードされたコンテンツデータであって、オーディオ/ビデオストリームと、当該オーディオ/ビデオストリームを制御するための制御ストリームとを含むコンテンツデータの内、前記制御ストリームをデコードする手順と、
    第1時刻情報が付加された前記オーディオ/ビデオストリームと、第2時刻情報が付加された前記制御ストリームとを、外部電子機器に送信する手順と、
    前記オーディオ/ビデオストリームと前記制御ストリームとを用いた映像が前記外部電子機器の画面に表示されているときに、前記外部電子機器でのユーザー操作に応じて、前記デコードされた制御ストリームを用いて、当該ユーザー操作に対応する処理を実行する手順とを前記コンピュータに実行させるプログラム。
JP2013214737A 2013-10-15 2013-10-15 電子機器および通信制御方法 Pending JP2015080025A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013214737A JP2015080025A (ja) 2013-10-15 2013-10-15 電子機器および通信制御方法
EP14163896.5A EP2863606B1 (en) 2013-10-15 2014-04-08 Electronic apparatus and communication control method
US14/257,676 US10244201B2 (en) 2013-10-15 2014-04-21 Electronic apparatus and communication control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013214737A JP2015080025A (ja) 2013-10-15 2013-10-15 電子機器および通信制御方法

Publications (1)

Publication Number Publication Date
JP2015080025A true JP2015080025A (ja) 2015-04-23

Family

ID=50624389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013214737A Pending JP2015080025A (ja) 2013-10-15 2013-10-15 電子機器および通信制御方法

Country Status (3)

Country Link
US (1) US10244201B2 (ja)
EP (1) EP2863606B1 (ja)
JP (1) JP2015080025A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150003023A (ko) * 2013-06-28 2015-01-08 삼성전자주식회사 호스트 장치, 디스플레이 장치, 호스트 장치의 제어 방법 및 디스플레이 장치의 제어 방법
WO2015056296A1 (ja) * 2013-10-15 2015-04-23 株式会社 東芝 電子機器および通信制御方法
TWI610221B (zh) * 2014-06-18 2018-01-01 緯創資通股份有限公司 螢幕播送方法以及使用該方法的系統與裝置
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
KR102271741B1 (ko) * 2015-01-14 2021-07-02 삼성전자주식회사 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이
US20160350061A1 (en) * 2015-05-29 2016-12-01 Qualcomm Incorporated Remote rendering from a source device to a sink device
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10540974B2 (en) * 2018-05-30 2020-01-21 Intel Corporation Detection and disposition of commands methods and apparatuses
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US12096081B2 (en) 2020-02-18 2024-09-17 JBF Interlude 2009 LTD Dynamic adaptation of interactive video players using behavioral analytics
US12047637B2 (en) 2020-07-07 2024-07-23 JBF Interlude 2009 LTD Systems and methods for seamless audio and video endpoint transitions
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5457495A (en) * 1994-05-25 1995-10-10 At&T Ipm Corp. Adaptive video coder with dynamic bit allocation
KR100424481B1 (ko) 2000-06-24 2004-03-22 엘지전자 주식회사 디지털 방송 부가서비스 정보의 기록 재생장치 및 방법과그에 따른 기록매체
KR20040009927A (ko) 2002-07-26 2004-01-31 삼성전자주식회사 Dtv 스트림 생성을 위한 정보를 저장하는정보저장매체, dtv 스트림 변환 방법 및 그 장치
US20050213439A1 (en) * 2004-03-24 2005-09-29 Dan Scott Johnson Audio/Video component networking system and method
DE102005052207A1 (de) * 2005-11-02 2007-05-03 Deutsche Thomson-Brandt Gmbh Verfahren zum Übertragen von einem Datenstrom von einer Datenquelle zu einer Datensenke sowie Datensenkengerät, Datenquellgerät und Gerät zur Durchführung des Verfahrens
CN102316366A (zh) 2010-07-09 2012-01-11 中兴通讯股份有限公司 一种媒体服务器及音视频传输的方法
US9065876B2 (en) * 2011-01-21 2015-06-23 Qualcomm Incorporated User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays
KR101917174B1 (ko) * 2012-02-24 2018-11-09 삼성전자주식회사 전자 장치 사이의 스트림 전송 방법 및 그 방법을 처리하는 전자 장치
WO2015056296A1 (ja) 2013-10-15 2015-04-23 株式会社 東芝 電子機器および通信制御方法

Also Published As

Publication number Publication date
US10244201B2 (en) 2019-03-26
US20150104144A1 (en) 2015-04-16
EP2863606A1 (en) 2015-04-22
EP2863606B1 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
EP2863606B1 (en) Electronic apparatus and communication control method
US10423320B2 (en) Graphical user interface for navigating a video
US9237383B2 (en) Peer to peer streaming of DVR buffered program data
US20190149885A1 (en) Thumbnail preview after a seek request within a video
US9319734B2 (en) Digital broadcasting receiver for magic remote control and method of controlling the receiver
US10203927B2 (en) Display apparatus and display method
JP6022076B2 (ja) 電子機器および通信制御方法
US20130081089A1 (en) Contents sharing method and display apparatus using the same
KR20100036664A (ko) 영상 이동이 가능한 디스플레이 장치 및 그 방법
US9131267B2 (en) Apparatus and method of portable terminal for dual display of broadcasting receiver by HDMI signal
US20110310123A1 (en) Image display device, display controlling method and program
KR102212270B1 (ko) 통합된 컨텐츠 소스들을 이용하여 미디어 컨텐츠를 제시하기 위한 방법들, 시스템들 및 매체들
US8872765B2 (en) Electronic device, portable terminal, computer program product, and device operation control method
US20140281988A1 (en) Gesture-Based Wireless Media Streaming System
US7957628B2 (en) Playback apparatus and method of controlling a playback apparatus
US9358459B2 (en) Information processing device, display device, and information processing system
US9864562B2 (en) Display control device and display control method
US9736513B2 (en) Communication device and communication method
KR20140117889A (ko) 클라이언트 장치, 서버 장치, 멀티미디어 리디렉션 시스템 및 그 방법
WO2012171156A1 (en) Wireless video streaming using usb connectivity of hd displays
KR20140029506A (ko) 휴대 단말기 및 그를 이용한 영상 표시 방법
KR20140037898A (ko) 휴대 단말기 및 그를 이용한 영상 표시 방법
KR102141046B1 (ko) 영상표시장치의 동작 방법
WO2017146700A1 (en) Video viewing system with video fragment location
KR20230116550A (ko) 전자 장치 및 전자 장치의 동작 방법