JP5268991B2 - 情報処理装置および映像コンテンツ再生方法 - Google Patents

情報処理装置および映像コンテンツ再生方法 Download PDF

Info

Publication number
JP5268991B2
JP5268991B2 JP2010114636A JP2010114636A JP5268991B2 JP 5268991 B2 JP5268991 B2 JP 5268991B2 JP 2010114636 A JP2010114636 A JP 2010114636A JP 2010114636 A JP2010114636 A JP 2010114636A JP 5268991 B2 JP5268991 B2 JP 5268991B2
Authority
JP
Japan
Prior art keywords
video data
video
display
browser
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010114636A
Other languages
English (en)
Other versions
JP2011244216A (ja
Inventor
岳弘 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010114636A priority Critical patent/JP5268991B2/ja
Priority to US13/110,818 priority patent/US20110285821A1/en
Publication of JP2011244216A publication Critical patent/JP2011244216A/ja
Application granted granted Critical
Publication of JP5268991B2 publication Critical patent/JP5268991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Description

本発明の実施形態は、サーバから受信される映像コンテンツを再生する情報処理装置および同装置に適用される映像コンテンツ再生方法に関する。
近年、インターネット上のWebサイトで公開される各種コンテンツをパーソナルコンピュータのブラウザを用いて閲覧することが広く行われている。ブラウザにプラグインされた動画再生プログラムを用いることにより、ブラウザ上にビデオクリップ、ホームムービーといった各種映像コンテンツを表示することもできる。
また最近では、サーバから受信した2次元の動画像を3次元グラフィクス上にレンダリングするシステムも開発され始めている。
特開2008−544393号公報
ところで、最近では、ブラウザを通して3次元映像(立体映像)を楽しみたいという要望が高まっている。しかし、一般に、インターネット上で公開されるコンテンツのほとんどは2次元コンテンツである。また、ブラウザのウィンドウに表示される情報には、例えばテキストのように3次元化に向かない情報も含まれている。
本発明は上述の事情を考慮してなされたものであり、ブラウザ上の2次元の映像コンテンツを3次元映像として表示することができる情報処理装置および映像コンテンツ再生方法を提供することを目的とする。
実施形態によれば、情報処理装置は、ブラウザと、前記ブラウザにプラグインされ、映像コンテンツをストリーミングによってサーバから受信しながら再生するためのプレーヤソフトウェアとを実行する。情報処理装置は、表示制御手段と、キャプチャ手段と、コンバータと、3次元表示制御手段とを具備する。表示制御手段は、前記プレーヤソフトウェアによって前記映像コンテンツを再生することによって得られる2次元ビデオデータに対応する動画像が表示されるビデオ表示エリアを含む、前記ブラウザのウィンドウを、ディスプレイに表示する。キャプチャ手段は、前記動画像に対する3次元映像表示要求に応じて、前記映像コンテンツの再生中に、前記プレーヤソフトウェアから出力される前記2次元ビデオデータを前記プレーヤソフトウェアからキャプチャする。コンバータは、前記キャプチャされた2次元ビデオデータを左眼ビデオデータと右眼ビデオデータとを含む3次元ビデオデータに変換する。3次元表示制御手段は、前記左眼ビデオデータと前記右眼ビデオデータに基づく3次元映像をディスプレイに表示する。
実施形態に係る情報処理装置の一利用形態を示す図。 同実施形態に係る情報処理装置のシステム構成を示すブロック図。 同実施形態に係る情報処理装置の3次元表示機能を実現するためのソフトウェア構成の例を示すブロック図。 同実施形態に係る情報処理装置によって実行されるDLL書き換え処理の一例を説明するための概念図。 同実施形態に係る情報処理装置のディスプレイに表示されるブラウザの画面イメージの例を示す図。 図5に示す画面イメージ上に表示されるGUIの例を示す図。 同実施形態に係る情報処理装置のディスプレイに表示される3Dビデオの例を示す図。 同実施形態に係る情報処理装置によって実行される3次元表示動作を説明するための図。 同実施形態に係る情報処理装置によって実行される映像コンテンツデータ再生処理の手順の例を説明するためのフローチャート。
以下、図面を参照して、実施形態を説明する。
まず、図1を参照して、一実施形態に係る情報処理装置の一利用形態を説明する。この情報処理装置は、例えば、ノートブックタイプのパーソナルコンピュータ(PC)1として実現される。パーソナルコンピュータ1は、インターネット3上のWebサイトそれぞれをアクセスすることが出来る。Webサイトには、ユーザが作成したホームビデオのような映像コンテンツデータを共有するための動画配信サイト2も含まれている。動画配信サイト2はユーザそれぞれによってアップロードされたビデオクリップ、ホームムービーのような様々な映像コンテンツデータを公開している。動画配信サイト2によって公開される映像コンテンツデータは2次元コンテンツである。パーソナルコンピュータ1のユーザは、動画配信サイト2が提供可能な映像コンテンツデータをインターネット3経由で受信しながら再生することができる。動画配信サイト2へのアクセスは、コンピュータ1によって実行されるソフトウェア、例えば、ブラウザ(WWWブラウザ)によって実行される。動画配信サイト2上の映像コンテンツデータには、様々な符号化方式で符号化された映像コンテンツが含まれている。動画配信サイト2からの映像コンテンツの受信および再生は、例えば、ブラウザにプラグインされた動画像再生プログラムによって実行される。この動画像再生プログラムは、動画配信サイト2のようなサーバから受信された映像コンテンツを再生するためのプレーヤソフトウェアである。この動画像再生プログラムは、例えば、映像コンテンツを例えばストリーミングによって受信しながら、その映像コンテンツを再生する。映像コンテンツを再生することによって得られる2次元ビデオデータは、オペレーティングシステムの制御の下、パーソナルコンピュータ1のディスプレイに表示される。
図2は、本コンピュータ1のシステム構成を示す図である。
本コンピュータ1は、図2に示すように、CPU11、ノースブリッジ12、主メモリ13、表示コントローラ14、ビデオメモリ(VRAM)14A、LCD(Liquid Crystal Display)15、サウスブリッジ16、サウンドコントローラ17、スピーカ18、BIOS−ROM19、LANコントローラ20、ハードディスクドライブ(HDD)21、光ディスクドライブ(ODD)22、無線LANコントローラ23、USBコントローラ24、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)25、キーボード(KB)26、ポインティングデバイス27等を備えている。
CPU11は、本コンピュータ1の動作を制御するプロセッサであり、HDD21から主メモリ13にロードされる、オペレーティングシステム(OS)、および各種アプリケーションプログラムを実行する。アプリケーションプログラムには、上述のブラウザおよび動画再生プログラムが含まれている。さらに、アプリケーションプログラムには3次元(3D)エンジンが含まれている。この3Dエンジンは3次元(3D)表示機能を実現するためのソフトウェアである。この3Dエンジンは、動画像再生プログラムによって再生される2D映像を3D映像にリアルタイムに変換してLCD15の画面上に表示する。
LCD15の画面上への3D映像の表示には、例えば、シャッター方式(時分割方式とも云う)を用いてもよい。シャッター方式の3D映像表示においては、左眼ビデオデータと右眼ビデオデータとを含むステレオペア映像が用いられる。LCD15は、例えば、通常のリフレッシュレート(例えば60Hz)の2倍のリフレッシュレート(例えば120Hz)で駆動される。左眼ビデオデータ内の左眼フレームデータと右眼ビデオデータ内の右眼フレームデータは例えば120Hzのリフレッシュレートで交互にLCD15上に表示される。ユーザは、例えば、液晶シャッターメガネのような3Dグラス(図示せず)を用いることで、左眼フレームそれぞれの画像を左眼で、右眼フレームそれぞれの画像を右眼で見ることができる。3Dグラスは、左眼フレームデータおよび右眼フレームデータそれぞれの表示タイミングを示す同期信号をコンピュータ1から赤外線などを用いて受信するように構成してもよい。3Dグラス内の左眼用シャッターおよび右眼用シャッターは、LCD15への左眼および右眼フレームデータそれぞれの表示タイミングに同期して開閉される。
代わりに、3D映像の表示には、例えば、Xpol(登録商標)方式等の偏光方式を用いてもよい。この場合、例えば、左眼用画像と右眼用画像とが例えばスキャンライン単位でインタリーブされたインターリーブフレーム群が生成され、これらインターリーブフレーム群がLCD15に表示される。LCD15の画面を覆う偏向フィルタは、LCD15の画面上の例えば奇数番目のライン群に表示される左眼画像と偶数番のライン群に表示される右眼画像とを異なる方向に分ける。ユーザは、偏向眼鏡を用いることにより、左眼画像を左眼で、右眼画像を右眼で見ることができる。
また、CPU11は、BIOS−ROM19に格納されたBIOS(Basic Input/Output System)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ12は、CPU11のローカルバスとサウスブリッジ16との間を接続するブリッジデバイスである。ノースブリッジ12には、主メモリ13をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ12は、表示コントローラ14との通信を実行する機能も有している。
表示コントローラ14は、本コンピュータ1のディスプレイとして使用されるLCD15を制御するデバイスである。LCD15は、例えば、ペン又は指によってタッチされた位置を検知可能なタッチスクリーンデバイスとして実現してもよい。この場合、LCD15上には、タブレットまたはタッチパネルなどと称される透明な座標検出部15Bが配置される。
サウスブリッジ16は、PCI(Peripheral Component Interconnect)バス上およびLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ16は、HDD21およびODD22を制御するためのIDE(Integrated Drive Electronics)コントローラ、およびBIOS−ROM19をアクセス制御するメモリコントローラが内蔵されている。さらに、サウスブリッジ16は、サウンドコントローラ17およびLANコントローラ20との通信を実行する機能も有している。
サウンドコントローラ17は音源デバイスであり、再生対象のオーディオデータをスピーカ18に出力する。LANコントローラ20は、例えばEthernet(登録商標)規格の有線通信を実行する有線通信デバイスであり、無線LANコントローラ23は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。また、USBコントローラ24は、例えばUSB2.0規格のケーブルを介して外部機器との通信を実行する。
EC/KBC25は、電力管理を行うためのエンベデッドコントローラと、キーボード(KB)26およびポインティングデバイス27を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このEC/KBC25は、ユーザの操作に応じて本コンピュータ1をパワーオン/パワーオフする機能を有している。
次に、図3を参照して、上述の3D表示機能を実行するために使用されるソフトウェア構成を説明する。
図3に示すように、本コンピュータ1には、OS100、ブラウザ210、動画再生プログラム220、3Dエンジン230がインストールされている。動画再生プログラム220および3Dエンジン230の各々は、ブラウザ210にプラグインされている。
本コンピュータ1のリソース管理を司るOS100は、カーネル101とDLL102とを備えている。カーネル101は、図2に示した本コンピュータ1の各部(ハードウェア)を制御するモジュールであり、DLL102は、このカーネル101とのインタフェースをアプリケーションプログラムに提供するモジュール(API)である。
このDLL102に対して各種アプリケーションプログラムが各種要求を発行する段階までの階層をユーザモード、それ以降、即ち、これらの要求をDLL102がカーネル101に伝達する段階からの階層をカーネルモードなどと称する。
ブラウザ210が動画配信サイト2のWebページを閲覧した時、ブラウザ210は、このWebページ中のタグ情報にしたがって、同Webページが、ビデオのようなコンテンツを含むWebページであるか否かを判定する。同Webページがビデオのようなコンテンツを含むWebページであるならば、ブラウザ210は、ブラウザ210にプラグインされた動画再生プログラム220を起動する。そして、Webページの閲覧中にビデオのような映像コンテンツの再生開始を指示する操作がユーザによって行われると、動画再生プログラム220は、動画配信サイト2からその映像コンテンツを受信し始める。
動画再生プログラム220は、映像コンテンツデータをストリーミングによって受信しながら、当該映像コンテンツデータを再生する。動画再生プログラム220は、映像コンテンツデータを再生することによって、ディスプレイに表示すべき描画データである2次元ビデオデータa1と、スピーカから出力すべきオーディオデータb1とを生成する。動画再生プログラム220は、ビデオデータa1をブラウザの画面上に表示すべきビデオとしてOS100のDLL102に出力すると共に、オーディオデータb1をOS100のDLL102に出力する。
通常、DLL102に渡されたビデオデータa1およびオーディオデータb1は、このDLL102内において、例えば形式チェック等の処理が施された後に、カーネル101に供給される。カーネル101は、DLL102から受信したビデオデータをLCD15に表示する処理およびDLL102から受信したオーディオデータをスピーカ18を通じて出力するための処理を実行する。
3Dエンジン230は、常駐型のプラグインソフトウェアとしてブラウザ210に組み込まれるプログラムであり、ブラウザ210の起動に伴って自動的に起動される。この3Dエンジン230は上述の3D表示機能を実行する為に、以下の機能を有している。
1.映像コンテンツデータの再生(デコード)によって得られる2Dビデオデータ(描画データ)を動画再生プログラム220からキャプチャする機能
2.キャプチャした2Dビデオデータに深度(depths)を付加することによって、キャプチャした2Dビデオデータを、左眼ビデオデータと右眼ビデオデータとを含む3Dビデオデータにリアルタイムに変換する機能
3.左眼ビデオデータと右眼ビデオデータに基づいて、3次元映像をディスプレイに表示する機能
これらの機能を実現するために、3Dエンジン230は、キャプチャ部231、タイムスタンプ部232、2D−3D変換部233、高解像度化部234、3D表示制御部235を含んでいる。
キャプチャ部231は、映像コンテンツデータの再生期間に動画再生プログラム220からOS100に出力される2Dビデオデータa1およびオーディオデータb1をキャプチャする。動画再生プログラム220は2Dビデオデータa1およびオーディオデータb1をOS100に出力するので、キャプチャ制御部231は、OS100を介して、動画再生プログラム220から出力される2Dビデオデータa1およびオーディオデータb1をキャプチャすることができる。例えば、2Dビデオデータa1およびオーディオデータb1のキャプチャは、DLL102内の一部のルーチンの書き換えを行うことによって実行してもよい。この場合、2Dビデオデータa1およびオーディオデータb1を扱う、DLL102内の一部のルーチンを、2Dビデオデータa1およびオーディオデータb1を3Dエンジン230に引き渡すための新たなルーチンに書き替えるようにしてもよい。この新たなルーチンは、動画再生プログラム220から出力される2Dビデオデータa1およびオーディオデータb1をカーネル101に出力する代わりに、3Dエンジン230に出力する。
このようにして、キャプチャ部231は、動画再生プログラム220から2Dビデオデータa1およびオーディオデータb1をキャプチャすることができる。換言すれば、キャプチャ部231によって2Dビデオデータa1およびオーディオデータb1がフックされ、OS100のカーネル101には2Dビデオデータa1およびオーディオデータb1は送られない。
タイムスタンプ部232は、キャプチャ部231によってキャプチャされた2Dビデオデータa1およびオーディオデータb1を受け取ることができる。タイムスタンプ部232は、2Dビデオデータa1およびオーディオデータb1を受け取ったタイミングを示す時間情報(タイムスタンプ)を、それら2Dビデオデータa1およびオーディオデータb1にそれぞれ付与する。タイムスタンプ部232によってタイムスタンプが付与された2Dビデオデータa1は、2D−3D変換部233に送られる。
2D−3D変換部233は、2Dビデオデータを3Dビデオデータにリアルタイムに変換するコンバータである。2D−3D変換部233は、2Dビデオデータa1を解析し、その解析結果に基づいて2Dビデオデータa1の深度(depths)を推定する。2D−3D変換部233は、例えば、各フレームの2次元画像情報と、前後のフレームの画像情報とに基づいて、被写体と背景との間の位置関係、オブジェクトの動き等を検出する。そして、2D−3D変換部233は、その検出結果に基づいて、画素単位またはブロック単位で深度を推定する。この場合、動きを伴うオブジェクトが前面側に位置するように深度を設定してもよい。そして、2D−3D変換部233は、推定された深度に基づいて、2Dビデオデータを、左眼ビデオデータと右眼ビデオデータとを含む3Dビデオデータに変換する。この場合、2D−3D変換部233は、例えば、推定された深度から各フレームの3次元モデルを生成し、そして、視差を考慮することによって、各フレームの3次元モデルから左眼フレームデータおよび右眼フレームデータを含むステレオペアを生成する。ステレオペアはフレーム毎に生成され、フレーム毎に左眼フレームデータと右眼フレームデータとの2つのフレームデータが生成される。
高解像度化部234は、3Dビデオデータの解像度を第1解像度(オリジナルの解像度)からそれよりも高い第2の解像度に変換する。この高解像度化処理においては、左眼ビデオデータ内のフレームデータそれぞれおよび右眼ビデオデータ内のフレームデータそれぞれの解像度が第2の解像度にアップされる。なお、高解像度化処理においては、3Dビデオデータを高画質化するための画質改善処理(例えば、尖鋭化処理等)も実行してもよい。
一般に、ある解像度のビデオデータに対する2D−3D変換処理に必要な演算処理量は、同じ解像度のビデオデータに対する高解像度化処理に必要な演算処理量よりも多い。換言すれば、高解像度化されたビデオデータを2D−3D変換するためには、非常に多くの処理量が必要となる。したがって、上述のように、最初に2D−3D変換処理を実行し、その後に高解像度化処理を行うという処理の順番は、これとは逆の処理順を用いる場合に比し、高解像度化された3Dビデオデータを生成するために必要な総演算処理量を下げることを可能にする。よって、本実施形態では、高解像度化部234は、2D−3D変換部233の後段、つまり2D−3D変換部233と3D表示制御部235との間に位置されている。なお、高解像度化処理は必ずしも常時実行しなくてもよく、必要に応じて実行するようにしてもよい。
3D表示制御部235は、高解像度化された3次元ビデオデータ内の左眼ビデオデータと右眼ビデオデータに基づいて、3次元映像をディスプレイ(LCD15)に表示する。この場合、3D表示制御部235は、左眼ビデオデータと右眼ビデオデータに基づいて3次元映像表示のためのビデオデータのシーケンスa2を生成し、この生成したビデオデータのシーケンスa2をディスプレイに出力する。換言すれば、3D表示制御部235は、キャプチャした(フックした)ビデオデータa1の代わりに、3次元映像表示のためのビデオデータのシーケンスa2をOS100に出力する。
3D表示制御部235は、OS100と共同して、3次元映像を表示するためのウィンドウを制御することもできる。例えば、3D表示制御部235は、LCD15の画面上におけるブラウザ210のウィンドウとは異なるウィンドウ上に表示してもよい。これにより、3次元映像を、ブラウザ210のウィンドウ内の2次元の画面イメージから独立分離することができるので、3次元映像を任意のサイズでLCD15の画面上に表示することができる。3D表示制御部235は、OS100と共同して、3次元映像を表示するためのウィンドウをフルスクリーンモードに設定することもできる。
また、3D表示制御部235は、上述のタイムスタンプに基づき、高解像度化された3次元ビデオデータa2と、ビデオデータb1とを同期させる処理も実行する。2D−3D変換処理および高解像度化処理にはある一定の時間を要するので、3D表示制御部235に入力されるビデオデータはオーディオデータよりも遅れる。上述の同期化処理により、2D−3D変換処理および高解像度化処理に伴う遅延時間差を吸収することができる。3D表示制御部235からDLL102に出力されたビデオデータa2およびオーディオデータb1は、DLL102を仲介してカーネル部101に渡される。
図4は、DLL102内の一部のルーチンを書き換える処理の一例を説明するための概念図である。
動画受信再生プログラム220は、2次元コンテンツをデコードすることによって得られるビデオデータとオーディオデータとをOS100のDLL102に送信する。3Dエンジン230は、DLL102内の一部のルーチン(図示の「本来の処理」部分)を、新しいルーチンに書き換える。この新しいルーチンの先頭部には、3Dエンジン230を呼び出す手続き(図示の「コール」)が配置されている。新しいルーチンから3Dエンジン230へのビデオデータとオーディオデータの引き渡しは、ビデオデータとオーディオデータが格納されている主メモリ13上の領域を示すアドレス情報を新しいルーチンから3Dエンジン230に伝達することによって行ってもよい。
3Dエンジン230は、主メモリ13上のビデオデータとオーディオデータに対して代替処理(タイムスタンプ付与、2D−3D変換、高解像度化、等)を実行した後、上記DLL102内のルーチンの直後に制御権を強制的に戻す手続き(図示の「ジャンプ」)を実行してもよい。これによって、代替処理によって得られた3DビデオデータとオーディオデータとをDLL102に返却することができる。
図5は、LCD15に表示されるブラウザの画面イメージの例を示している。LCD15の画面上には、ブラウザのウィンドウ500Aが表示される。上述したように、動画配信サイト2から受信される映像コンテンツデータのデコードおよび再生は、ブラウザにプラグインされた動画像再生プログラム220によって実行される。映像コンテンツデータには、例えば、符号化された2Dビデオデータと符号化されたオーディオデータとが含まれている。動画像再生プログラム220は、これら2Dビデオデータおよびオーディオデータをそれぞれデコードし、デコードされた2Dビデオデータおよびデコードされたオーディオデータを出力する。デコードされた2Dビデオデータに対応する動画像は、ブラウザのウィンドウ500A内に配置されたビデオ表示エリア500B上に表示される。ビデオ表示エリア500Bには、2Dビデオデータの再生を制御するためのコントロールオブジェクト(タイムバー、再生ボタン、停止ボタン等)も表示される。
映像コンテンツの再生中に、例えば、マウスカーソルがビデオ表示エリア500B上に移動された時、3Dエンジン230は、図6に示すように、ビデオ表示エリア500B上に「3D」ボタン600を表示する。「3D」ボタン600は、ユーザが3D表示処理の実行を指示することを可能にするためのGUIである。「3D」ボタン600がマウス操作によってクリックされると、3Dエンジン230は、3D表示処理を開始する。そして、3Dエンジン230は、ビデオ表示エリア500Bに表示されるべき動画像再生プログラム220の出力データ(2Dビデオデータおよびコントロールオブジェクト)のキャプチャを開始する。そして、3Dエンジン230は、キャプチャしたデータ(2Dビデオデータおよびコントロールオブジェクト)を3Dビデオデータに変換し、その3Dビデオデータに対応する動画像を、図7に示すように、ブラウザ210のウィンドウ500Aとは異なるLCD15の画面上のウィンドウ700上に表示する。例えば、3Dエンジン230が、OS100によって3Dエンジン230に割り当てられた主メモリ13上の描画領域に3Dビデオデータを描画することにより、3Dビデオデータに対応する動画像をウィンドウ700上に表示することができる。
このように3Dビデオデータに対応する動画像をブラウザ210のウィンドウ500A内ではなく、ウィンドウ500Aとは異なる別のウィンドウ700上に表示することにより、3次元映像を任意のサイズでLCD15の画面上に表示することができる。なお、このウィンドウ700はフルスクリーンモードで表示してもよい。
このように、3Dエンジン230は、ブラウザの画面イメージ全体をキャプチャするのではなく、ビデオ表示エリア500B上に表示されるデータ(2Dビデオデータおよびコントロールオブジェクト)をキャプチャおよび2D−3D変換する。このため、ビデオデータ以外のブラウザの画面イメージ上の情報、例えば、テキストなどについては、2D−3D変換の対象から除外することができる。よって、ブラウザの画面イメージ全体ではなく、ブラウザの画面上に表示されるビデオのみを2D−3D変換することができる。
なお、3Dビデオデータに対応する動画像を、ブラウザのウィンドウ500A内に配置されたビデオ表示エリア500B上に表示してもよい。
次に、図8を参照して、3Dエンジン230によって実行される処理の手順を説明する。
3Dエンジン230は、動画再生プログラム220の描画ステージにおいて出力される2Dビデオデータ(描画データ)をキャプチャしながら、その2Dビデオデータをリアルタイムに3Dビデオデータに変換する。そして、3Dエンジン230は、3Dビデオデータの解像度を高めるためのアップスケーリング(高解像度化)を実行する。そして、3Dエンジン230は、3Dビデオデータから、例えば、シャッター方式に対応する3Dビデオデータのシーケンス、または偏向方式に対応する3Dビデオデータのシーケンスを生成し、その3DビデオデータのシーケンスをOS100を介してディスプレイ(LCD15)に出力する。
次に、図9のフローチャートを参照して、本実施形態のコンピュータ1によって実行される3D表示処理の手順について説明する。
ユーザ操作によってブラウザ210が起動された時(ステップA1)、ブラウザ210は、まず、3Dエンジン230を起動する(ステップA2)。ステップA2では、3Dエンジン230がメモリ13にロードされて実行される。ユーザがブラウザ210によって動画配信サイト2のWebページを閲覧すると(ステップA3)、ブラウザ210は、ブラウザ210にプラグインされた動画再生プログラム220を起動する(ステップA4)。そして、ユーザがそのWebページ上のある映像コンテンツデータの再生開始を指示する操作を行うと、動画再生プログラム220は、その映像コンテンツデータのダウンロードを開始する(ステップA5)。そして、動画再生プログラム220は、動画配信サイト2から映像コンテンツデータをストリーミングによって受信しながら、その映像コンテンツデータを再生する(ステップA6)。再生処理では、動画再生プログラム220は、映像コンテンツデータから符号化されたビデオデータと符号化されたオーディオデータとを取り出し、それら符号化されたビデオデータと符号化されたオーディオデータとをそれぞれデコードする。デコードされたビデオデータおよびデコードされたオーディオデータはOS100に送られる。そして、デコードされたビデオデータに対応する動画像は、ブラウザ210のウィンドウ500A内に配置されたビデオ表示領域500B上に表示される。
ユーザ操作によってビデオ表示領域500B上にマウスカーソルが移動されたとき、3Dエンジン230は、上述の「3D」ボタン600をビデオ表示領域500B上に表示する(ステップA7)。「3D」ボタン600がマウス操作によってクリックされると、3Dエンジン230は、動画再生プログラム220からOS100に出力されるビデオデータおよびオーディオデータのキャプチャを開始する(ステップA8)。そして、3Dエンジン230は、キャブチャされたビデオデータおよびオーディオデータに対してタイムスタンプをそれぞれ付与する(ステップA9)。そして、3Dエンジン230は、キャブチャされたビデオデータを解析してそのビデオデータの深度を推定し、その深度に基づいて、そのビデオデータを3次元ビデオデータに変換する(ステップA10)。3Dエンジン230は、3Dビデオデータの解像度を高めるためのスケーリング(高解像度化)を実行する(ステップA11)。そして、3Dエンジン230は、高解像度化された3Dビデオデータから、例えば、シャッター方式に対応する3Dビデオデータのシーケンスを生成し、その3DビデオデータのシーケンスをOS100を介してディスプレイに出力する(ステップA12)。
以上説明したように、本実施形態によれば、ブラウザ210の画面イメージ全体ではなく、ブラウザ210にプラグインされた動画像再生プログラム220から出力される2次元ビデオデータがキャプチャされる。そして、このキャプチャされた2次元ビデオデータが3次元ビデオデータに変換され、3次元ビデオデータに基づいて3次元映像がLCD15の画面上に表示される。よって、ブラウザ210上の2次元の映像コンテンツを3次元映像として表示することができる。
なお、本実施形態の3D機能はコンピュータプログラムによって実現されているので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じて、このコンピュータプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に得ることが出来る。
また、3D表示制御部235によって生成された3Dビデオデータのシーケンスは、例えば、HDMIのようなインタフェースを介して3DTVのような外部ディスプレイに出力してもよい。
また、本実施形態では、動画配信サイト2から受信される映像コンテンツデータが符号化されたビデオデータと符号化されたオーディデータとの双方を含む場合を例示した説明したが、動画配信サイト2から受信される映像コンテンツデータは符号化されたビデオデータのみを含むものであってもよい。
また、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。
100…OS、210…ブラウザ、220…動画再生プログラム、230…3Dエンジン、231…キャプチャ部と、232…タイムスタンプ部、233…2D−3D変換部、234…高解像度化部、235…3D表示制御部。

Claims (10)

  1. ブラウザと、前記ブラウザにプラグインされ、映像コンテンツをストリーミングによってサーバから受信しながら再生するためのプレーヤソフトウェアとを実行可能な情報処理装置であって、
    前記プレーヤソフトウェアによって前記映像コンテンツを再生することによって得られる2次元ビデオデータに対応する動画像が表示されるビデオ表示エリアを含む、前記ブラウザのウィンドウを、ディスプレイに表示する表示制御手段と、
    前記動画像に対する3次元映像表示要求に応じて、前記映像コンテンツの再生中に、前記プレーヤソフトウェアから出力される前記2次元ビデオデータを前記プレーヤソフトウェアからキャプチャするキャプチャ手段と、
    前記キャプチャされた2次元ビデオデータを左眼ビデオデータと右眼ビデオデータとを含む3次元ビデオデータに変換するコンバータと、
    前記左眼ビデオデータと前記右眼ビデオデータに基づく3次元映像を前記ディスプレイに表示する3次元表示制御手段とを具備することを特徴とする情報処理装置。
  2. 前記3次元表示制御手段は、さらに、前記3次元映像表示のためのビデオデータのシーケンスを生成し、前記生成したビデオデータのシーケンスを前記ディスプレイに出力することを特徴とする請求項1記載の情報処理装置。
  3. 前記3次元ビデオデータを第1の解像度から前記第1の解像度よりも高い第2の解像度に変換する高解像度化手段をさらに具備することを特徴とする請求項1記載の情報処理装置。
  4. 前記ブラウザはインターネット上のサイトを閲覧するように構成されており、
    前記3次元表示制御手段は、さらに、前記3次元映像を、前記ブラウザのウィンドウとは別のウィンドウに表示することを特徴とする請求項1記載の情報処理装置。
  5. 前記3次元表示制御手段は、さらに、前記3次元映像を表示するために使用されるウィンドウをフルスクリーンモードに設定することを特徴とする請求項1記載の情報処理装置。
  6. ブラウザと、前記ブラウザにプラグインされ、映像コンテンツをストリーミングによってサーバから受信しながら再生するためのプレーヤソフトウェアとを実行可能な情報処理装置であって、
    前記プレーヤソフトウェアによって前記映像コンテンツを再生することによって得られる2次元ビデオデータに対応する動画像が表示されるビデオ表示エリアを含む、前記ブラウザのウィンドウを、ディスプレイに表示する表示制御手段と、
    前記動画像に対する3次元映像表示要求に応じて、前記映像コンテンツの再生中に、前記プレーヤソフトウェアからオペレーティングシステムに出力される前記2次元ビデオデータをキャプチャするキャプチャ手段と、
    前記キャプチャされた2次元ビデオデータを左眼ビデオデータと右眼ビデオデータとを含む3次元ビデオデータに変換するコンバータと、
    前記左眼ビデオデータと前記右眼ビデオデータに基づく3次元映像を表示するためのビデオデータのシーケンスを生成し、前記ビデオデータのシーケンスを前記オペレーティングシステムに出力する3次元表示制御手段であって、前記オペレーティングシステムは前記ビデオデータを使用して前記3次元映像をディスプレイ上に表示する、3次元表示制御手段とを具備することを特徴とする情報処理装置。
  7. ブラウザと、前記ブラウザにプラグインされ、映像コンテンツをストリーミングによってサーバから受信しながら再生するためのプレーヤソフトウェアとを実行するステップと、
    前記プレーヤソフトウェアによって前記映像コンテンツを再生することによって得られる2次元ビデオデータに対応する動画像が表示されるビデオ表示エリアを含む、前記ブラウザのウィンドウを、ディスプレイに表示するステップと、
    前記動画像に対する3次元映像表示要求に応じて、前記映像コンテンツの再生中に、前記プレーヤソフトウェアから出力される前記2次元ビデオデータを前記プレーヤソフトウェアからキャプチャするステップと、
    前記キャプチャされた2次元ビデオデータの深度を推定し、前記推定された深度の少なくとも一部に基づいて前記2次元ビデオデータを左眼ビデオデータと右眼ビデオデータとを含む3次元ビデオデータに変換するステップと、
    前記左眼ビデオデータと前記右眼ビデオデータに基づく3次元映像を前記ディスプレイに表示するステップとを具備することを特徴とする映像コンテンツ再生方法。
  8. 前記3次元映像をディスプレイに表示するステップは、さらに、前記3次元映像を表示するためのビデオデータのシーケンスを生成するステップと、前記ビデオデータのシーケンスを前記ディスプレイに出力するステップとを含むことを特徴とする請求項7記載の映像コンテンツ再生方法。
  9. 前記3次元ビデオデータを第1の解像度から前記第1の解像度よりも高い第2の解像度に変換するステップをさらに具備することを特徴とする請求項7記載の映像コンテンツ再生方法。
  10. ブラウザと、前記ブラウザにプラグインされ、映像コンテンツをストリーミングによってサーバから受信しながら再生するためのプレーヤソフトウェアとを実行可能なコンピュータに、
    前記プレーヤソフトウェアによって前記映像コンテンツを再生することによって得られる2次元ビデオデータに対応する動画像が表示されるビデオ表示エリアを含む、前記ブラウザのウィンドウを、ディスプレイに表示する手順と、
    前記動画像に対する3次元映像表示要求に応じて、前記映像コンテンツの再生中に、前記プレーヤソフトウェアから出力される前記2次元ビデオデータを前記プレーヤソフトウェアからキャプチャする手順と、
    前記キャプチャされた2次元ビデオデータを左眼ビデオデータと右眼ビデオデータとを含む3次元ビデオデータに変換する手順と、
    前記左眼ビデオデータと前記右眼ビデオデータに基づく3次元映像を前記ディスプレイに表示する手順とを実行させるためのプログラム。
JP2010114636A 2010-05-18 2010-05-18 情報処理装置および映像コンテンツ再生方法 Active JP5268991B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010114636A JP5268991B2 (ja) 2010-05-18 2010-05-18 情報処理装置および映像コンテンツ再生方法
US13/110,818 US20110285821A1 (en) 2010-05-18 2011-05-18 Information processing apparatus and video content playback method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010114636A JP5268991B2 (ja) 2010-05-18 2010-05-18 情報処理装置および映像コンテンツ再生方法

Publications (2)

Publication Number Publication Date
JP2011244216A JP2011244216A (ja) 2011-12-01
JP5268991B2 true JP5268991B2 (ja) 2013-08-21

Family

ID=44972198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010114636A Active JP5268991B2 (ja) 2010-05-18 2010-05-18 情報処理装置および映像コンテンツ再生方法

Country Status (2)

Country Link
US (1) US20110285821A1 (ja)
JP (1) JP5268991B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10841530B2 (en) 2016-12-15 2020-11-17 Alibaba Group Holding Limited Method, device, and mobile terminal for converting video playing mode

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8666119B1 (en) * 2011-11-29 2014-03-04 Lucasfilm Entertainment Company Ltd. Geometry tracking
KR102014149B1 (ko) * 2012-12-21 2019-08-26 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US11343545B2 (en) * 2019-03-27 2022-05-24 International Business Machines Corporation Computer-implemented event detection using sonification

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3214688B2 (ja) * 1994-02-01 2001-10-02 三洋電機株式会社 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US6003065A (en) * 1997-04-24 1999-12-14 Sun Microsystems, Inc. Method and system for distributed processing of applications on host and peripheral devices
US6157351A (en) * 1997-08-11 2000-12-05 I-O Display Systems, Llc Three dimensional display on personal computer
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP4236428B2 (ja) * 2001-09-21 2009-03-11 三洋電機株式会社 立体画像表示方法および立体画像表示装置
JP2005184377A (ja) * 2003-12-18 2005-07-07 Sharp Corp 画像変換装置及びそれを用いた画像記録装置
JP4588439B2 (ja) * 2004-12-27 2010-12-01 富士フイルム株式会社 立体視画像撮影装置および方法
JP2006189936A (ja) * 2004-12-28 2006-07-20 Yappa Corp 出版物発行配信システム
KR100610689B1 (ko) * 2005-06-24 2006-08-09 엔에이치엔(주) 3차원 화면에 동영상을 삽입하는 방법 및 이를 위한 기록매체
JP4748330B2 (ja) * 2008-07-31 2011-08-17 セイコーエプソン株式会社 伝送装置、伝送システム、プログラムおよび情報記憶媒体
JP5224352B2 (ja) * 2008-09-29 2013-07-03 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置及びプログラム
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10841530B2 (en) 2016-12-15 2020-11-17 Alibaba Group Holding Limited Method, device, and mobile terminal for converting video playing mode

Also Published As

Publication number Publication date
JP2011244216A (ja) 2011-12-01
US20110285821A1 (en) 2011-11-24

Similar Documents

Publication Publication Date Title
US11303881B2 (en) Method and client for playing back panoramic video
JP5389139B2 (ja) 電子機器及び表示制御方法
WO2020077856A1 (zh) 视频拍摄方法、装置、电子设备及计算机可读存储介质
US10271105B2 (en) Method for playing video, client, and computer storage medium
JP2012085301A (ja) 3次元映像信号処理方法及びこれを具現する携帯型3次元ディスプレイ装置
US20130141471A1 (en) Obscuring graphical output on remote displays
US20120011468A1 (en) Information processing apparatus and method of controlling a display position of a user interface element
KR101942270B1 (ko) 재생 지연 방지 시스템을 포함하는 미디어 재생 장치 및 방법
JP6073664B2 (ja) コンテンツ再生装置及びコンテンツ再生プログラム
JP5268991B2 (ja) 情報処理装置および映像コンテンツ再生方法
US9774821B2 (en) Display apparatus and control method thereof
US8687950B2 (en) Electronic apparatus and display control method
Lee et al. FLUID-XP: flexible user interface distribution for cross-platform experience
US8619123B2 (en) Video processing apparatus and method for scaling three-dimensional video
JP5025768B2 (ja) 電子機器及び画像処理方法
JP7004263B2 (ja) ビデオデータの表示方法及び装置
KR20180031137A (ko) 360도 영상 기반의 클라우드 오디오 렌더링 서버
US8736668B2 (en) Electronic apparatus and image processing method
TWI775397B (zh) 3d顯示系統與3d顯示方法
US20120294593A1 (en) Electronic apparatus, control method of electronic apparatus, and computer-readable storage medium
TWM628625U (zh) 3d顯示系統
KR20130142793A (ko) 클라우드 컴퓨팅 시스템에서 타임머신 기능을 제공하기 위한 장치 및 그 방법
JP5178886B2 (ja) 情報処理装置および表示制御方法
JP5362082B2 (ja) 電子機器、画像処理方法、及び画像処理プログラム
US20120269495A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130507

R151 Written notification of patent or utility model registration

Ref document number: 5268991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350