JP5577348B2 - 内容順応情報を有する3次元動画提示方法及びシステム - Google Patents

内容順応情報を有する3次元動画提示方法及びシステム Download PDF

Info

Publication number
JP5577348B2
JP5577348B2 JP2011538072A JP2011538072A JP5577348B2 JP 5577348 B2 JP5577348 B2 JP 5577348B2 JP 2011538072 A JP2011538072 A JP 2011538072A JP 2011538072 A JP2011538072 A JP 2011538072A JP 5577348 B2 JP5577348 B2 JP 5577348B2
Authority
JP
Japan
Prior art keywords
image
abstract
depth
subtitle
caption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011538072A
Other languages
English (en)
Other versions
JP2012510750A (ja
Inventor
ニン チャン、
サミュエル チョウ、
ジンキン チョウ、
トドル ベリック、
Original Assignee
アイマックス コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイマックス コーポレイション filed Critical アイマックス コーポレイション
Publication of JP2012510750A publication Critical patent/JP2012510750A/ja
Application granted granted Critical
Publication of JP5577348B2 publication Critical patent/JP5577348B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Description

本開示は一般に3次元画像処理に関する。詳しくは、3次元(3D)画像によって当該3D画像の内容に基づく字幕のような付加情報を表示する画像の処理に関する。
関連出願の相互参照
本願は、2008年12月1日に出願された「内容順応3次元字幕を有する3次元動画を提示する方法及びシステム」という名称の米国仮出願第61/200,725号の優先権を主張する。その内容すべてが本明細書に参照として組み込まれる。
字幕は、音声ダイアログのテキスト表現である。音声ダイアログは典型的に、動画提示のオリジナルバージョンとは異なる言語に翻訳されている。字幕は、音声ダイアログと、聴覚障害の提示視聴者を補助する音響記述との双方を記述するべく使用できるキャプションであり得る。キャプション・テキストが、スクリーンに表示されるか又は別個に表示される。用語「字幕」とは、画像提示スクリーンに表示される任意のテキスト又はグラフィックのことである。字幕は一種の「付加情報」であって、画像に加えて表示される。字幕はスクリーン(通常はスクリーン底部)に表示されて、例えば観客が理解できない言語で話されるダイアログのような映画のダイアログを観客が理解する助けとなるか又は観客のうち音を聞くのが困難な者の補助となる。
典型的に字幕は、動画のための字幕要素を含む字幕ファイルとして受け取られる。字幕要素は、字幕テキスト及びタイミング情報を含む。タイミング情報は、字幕テキストがいつスクリーンに現れて消えるべきかを示す。タイミング情報は、時間コード又はフィルム長(例えばフィート及びフレームで測定される)のような他の同等な情報に基づくことが多い。字幕ファイルはまた、テキストフォント、テキスト色、字幕スクリーン配置、及びスクリーンアラインメント情報のような他の属性を含むこともできる。これらは、字幕がスクリーンに現れる態様を記述する。従来の字幕表示システムは、字幕ファイルからの情報を解釈し、字幕要素をグラフィカル表現に変換し、当該字幕ファイルの情報に従い字幕を画像と同期させてスクリーンに表示する。従来の字幕表示システムの機能は、デジタルシネマサーバによって果たすことができる。デジタルシネマサーバは、変換された字幕表現を、デジタルプロジェクタによって表示される画像上にスーパーインポーズする。
3次元(3D)動画の提示は、立体視3D表示システムを使用して立体視3D画像を所定順序で表示することによって行われる。3D画像は、同じシーンのわずかに異なる2つのビューを表す左目画像と対応右目画像とを含む。これらは、人間の視聴者の両目が知覚する2つの視界と類似する。左目画像と右目画像との違いとは、両眼格差のことである。これは「格差」と同義的に使用されることが多い。格差とは、左目画像のピクセルと対応右目画像の対応ピクセルとの水平位置差のことであり得る。格差はピクセル数で測ることができる。類似概念として「視差」がある。これは、スクリーンに表示されたときの一対のピクセル間のような水平位置差のことである。視差は、インチのような距離尺度によって測ることができる。視差の値とは、表示スクリーンの次元を考慮すれば、3D画像データにおけるピクセル格差の値のことである。3D動画は、複数の左目画像シーケンス及び対応右目画像シーケンスを含む。3D表示システムは、左目画像シーケンスが視聴者の左目に提示され、かつ、右目画像シーケンスが当該視聴者の右目に提示されて奥行きの知覚が生じることを保証する。3D画像フレームにおけるピクセルの知覚奥行きは、対応するピクセル対の表示された左目ビューと右目ビューとの視差の量で決めることができる。視差が強ければ強いほど又はピクセル格差値が大きければ大きいほど3D画像は人間の視聴者に近づいて見える。
3D動画に対して字幕又は任意の付加情報を与える一方法は、従来の字幕表示システムを使用することを含む。当該字幕表示システムにおいて、字幕画像の単眼視バージョンが左目及び右目双方に見えるようにスクリーンに表示される。当該字幕が当該スクリーンの奥行きに有効に配置される。強い視差にある3D画像が字幕の単眼視バージョンとともに提示されると、観客は当該画像の奥行きより後ろに現れる字幕を読むのが困難になる。観客には、一の奥行きの画像と異なる奥行きの画像とを同時に融合させることができない目の者がいるからである。
従来より3D画像で表示される字幕を図1に示す。表示される3D画像は、スクリーン102から出てくる見かけの奥行きを有する主物体106を含む。単眼視字幕テキスト108は、スクリーンでの見かけの奥行きを有する。3D眼鏡104をかけた視聴者が主物体106に焦点を合わせると、視聴者は、主物体106の後ろにある字幕108を二重画像110及び112として知覚する。視聴者は3D画像を見ながら字幕テキストを読むことに困難を覚える。この問題は、IMAX(登録商標)3D劇場のような大スクリーン3Dシネマ開催地の観客にとって特に不快である。当該開催地では、強い視差の3D画像が提示され、小さな3D劇場よりも没入感があり近くに見える。
この問題は字幕に対して提示されているが、3D画像以外の任意の情報が3D画像とともに表示されても、本明細書で述べるように、この問題又は他の問題が生じる。
従来の字幕表示システムにより3D動画に対して字幕を投影する他の方法は、字幕の単眼視バージョンをスクリーン頂部付近に配置することである。かかる方法は、観客の視聴不快感を低減する。ほとんどの3Dシーンでは、画像フレームの頂部付近の画像内容は当該画像フレームの底部付近の画像内容よりも多くの遠い奥行き値を有することが多いからである。例えば、画像頂部付近の画像内容は、空、雲、建物の屋根、又は丘を含むことが多い。これらはシーンの他の物体から遠く離れている。この種の内容は、スクリーンの奥行きに近いか又はこれよりも後ろの奥行きを有することが多い。視聴者は、近くの画像内容が遠く離れるか又はスクリーンの奥行きより後ろにさえ存在する間、単眼視バージョンの字幕を読むことが容易だと感じる。しかしながら視聴者は、スクリーン頂部付近の画像内容が、当該遠くの奥行きに近接した見かけの奥行きを有する場合には困難を覚え続けるかもしれない。さらに視聴者は、画像に対する字幕又は他の付加情報を連続して受け取るべく画像頂部に焦点を合わせることに不便を感じるかもしれない。
したがって、字幕又は他の付加情報を、許容できる奥行き又は当該表示上の他の位置に3D画像とともに表示させることができるシステム及び方法が望まれている。
さらに、既存の所定方法も3D画像内容の奥行きを決定するべく使用できるが、かかる既存の方法は、3D画像内容の奥行きを迅速かつ動的に決定するには不適当である。従来の立体マッチング方法は、画像内容の時間的変化に対応することができないので、正確な格差結果を一貫して与えることができない。その結果、従来のステレオマッチング法に基づいて計算された3D字幕の奥行きは時間的に一貫するものではなく、観客に視聴不快感が生じる。さらに、従来のステレオマッチング法は、自動かつリアルタイムの計算アプリケーションにとって有効かつ十分に信頼できるものではない。したがって、3D画像内容の奥行きを迅速かつ動的に決定するべく使用できるシステム及び方法もまた望まれている。これにより、当該3D画像内容に加えて字幕又は他の情報を配置するべく当該奥行きを使用することができる。
国際公開第2008/115222号明細書 米国特許出願公開第2007/288844号明細書 特開2004−274125号公報
ATZPADIN N ET AL:"Stereo Analysis by Hybrid Recursive Matching for Real-Time Immersive Video Conferencing"IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 14, no. 3,1 March 2004 (2004-03-01), pages 321-334
所定の実施例は、3次元(3D)動画提示において、観客が当該画像及び字幕を容易かつ快適に読むことができるように立体視3Dの字幕を処理及び表示することに関する。立体視3D字幕又は3D字幕が、左目字幕画像及び右目字幕画像を適切な格差又は視差で表示することによって生成される。
一実施例では、3D画像に基づく内容順応奥行きを有する3D字幕が、高レベルの計算効率及び計算信頼性で処理される。
一実施例では、3D画像に基づく内容順応奥行きを有する3D字幕が、高レベルの計算効率及び計算信頼性で処理され、デジタルシネマパッケージ(DCP)形式で利用可能な圧縮バージョンの3D画像に基づく。
一実施例では、内容順応奥行きを有する3D字幕が処理及び表示される一方で一貫した知覚字幕フォントサイズが維持される。
一実施例では、内容順応奥行きを有する3D字幕を計算及び表示する3Dデジタル投影システムが与えられる。
一実施例では、内容順応奥行きを有する3D字幕、並びに、フォントスタイル、フォントサイズ、色又は輝度、及びスクリーン位置を含む他の内容順応字幕属性が処理及び表示される。
一実施例では、内容順応奥行きを有する3D字幕、並びに、フォントスタイル、フォントサイズ、色又は輝度、及びスクリーン位置を含む内容順応字幕属性を計算及び表示する3Dデジタル投影システムが与えられる。
一実施例では、3D画像シーケンス及び当該3D画像シーケンスのための字幕ファイルが受け取られる。字幕ファイルは、字幕要素及び当該字幕要素に関連付けられたタイミング情報を含む。字幕要素は、タイミング情報に基づいて3D画像シーケンスの一セグメントに関連付けられる。字幕要素に関連付けられた当該セグメントから抽象奥行きマップが計算される。字幕要素のための抽象奥行きマップからプロキシ奥行きが計算される。プロキシ奥行きは、字幕要素に対するレンダリング属性を決定するべく使用される。レンダリング属性が出力される。
一実施例では、表示媒体が与えられる。表示媒体上に画像が表示される。表示媒体は、可変見かけ奥行きでの内容を有する3D画像シーケンスを含む。表示媒体はまた、見かけの奥行きを有する字幕要素を含む。当該見かけの奥行きは、3D画像シーケンスの内容の当該可変見かけ奥行きに基づいて変化する。
これらの説明上の実施例は、その理解を助ける例を与えるべく言及され、本開示を限定又は画定するべく言及されるものではない。付加的な実施例が詳細な説明に述べられ、さらなる説明が与えられる。様々な実施例の一以上により得られる利点が、本明細書を検討することによって又は提示される一以上の実施例を実施することによってさらに理解される。
スクリーンに表示される単眼視字幕を有する3次元(3D)画像の従来技術に係る表現を示す。 本発明の一実施例に係るスクリーンに表示される立体視字幕を伴う3D画像の表現を示す。 本発明の一実施例に係る3D画像とともにスクリーンに表示される立体視字幕のレンダリング属性を決定することができるシステムを示す。 本発明の一実施例に係る3D画像とともに表示される立体視字幕を計算する方法のフロー図を示す。 本発明の一実施例に係る画像抽象化をグラフィカルに示す。 本発明の一実施例に係る垂直サンプリング投影をグラフィカルに示す。 本発明の一実施例に係る多重垂直サンプリング投影をグラフィカルに示す。 本発明の一実施例に係る多重領域画像抽象化をグラフィカルに示す。 多重領域画像抽象化の第2実施例をグラフィカルに示す。 本発明の一実施例に係る抽象画像対及び抽象奥行きマップをグラフィカルに示す。 本発明の一実施例に係るプロキシ奥行き決定モジュールの機能ブロック図を示す。 本発明の一実施例に係る3D画像セグメントの格差分布を示す。 本発明の一実施例に係る3D画像セグメントのディストグラムを示す。 本発明の一実施例に係る従来字幕テキストファイルの一例である。 本発明の一実施例に係るプロキシ奥行きを有する3D字幕テキストファイルの一例である。 本発明の一実施例に係る時間窓選択をグラフィカルに示す。 本発明の一実施例に係るディストグラムからのプロキシ奥行き決定をグラフィカルに示す。 本発明の一実施例に係る選択DCPデコーディングをグラフィカルに示す。 本発明の一実施例に係る選択DCPデコーディングをグラフィカルに示す。 本発明の一実施例に係るJPEG2Kレベル3サブバンド及び対応パケットをグラフィカルに示す。 本発明の一実施例に係るオフライン内容順応3D字幕計算システムの機能ブロック図である。 本発明の一実施例に係るリアルタイム内容順応3D字幕計算システムの機能ブロック図である。 本発明の一実施例に係る字幕コントローラのフローチャートである。
本明細書に開示される本発明の概念の所定側面及び実施例は、3次元(3D)画像を、当該3D画像の内容に基づいて字幕のような付加情報とともに所定位置及び所定奥行きで表示する方法及びシステムに関する。開示の方法は一般に任意の種類の3D立体視表示システムに適する一方、当該方法は、没入感のある視聴環境を伴う3D動画劇場に対して特に適用性がある。
いくつかの実施例では、字幕である付加情報が、表示される3D画像の内容の奥行きと同じ奥行きで又はこれに基づいて表示される。図2は、字幕要素214の一実施例を示す。字幕要素214は、3D画像における主画像物体106の奥行きに基づく奥行きで表示される。3D画像の内容に基づく奥行きで字幕要素214を表示することによって、視聴者104は3D画像及び字幕の双方を同時かつ快適に見ることができる。さらに、主画像物体106の奥行きが変わると、字幕要素214の奥行きもまた、主画像物体106の奥行きの変化に基づいて変わることができる。
字幕要素214の奥行き配置は、同じ字幕要素の左目ビュー及び右目ビューを適切な視差で表示することによる立体視法で与えることができる。このように表示される字幕は、立体視字幕と称される。または、3D字幕として知られている。字幕の奥行き配置に必要な視差の量は、主画像物体106の奥行きを計算することによって決定することができる。または、主画像物体106のピクセル格差値を計算することによって同等に決定することができる。
3D字幕の左目ビュー及び右目ビューは、スクリーン位置における字幕要素の水平シフトによって生成することができる。例えば、左目ビューの字幕テキストが字幕要素を右へ10ピクセルだけ水平シフトすることによって生成される一方で、対応右目ビューの字幕テキストは字幕要素を左へ10ピクセルだけシフトすることによって生成される。したがって、得られる3D字幕は、左目ビューと右目ビューとの間で20ピクセルの格差を有する。かかる格差を有する字幕要素の実際に知覚される奥行きは、表示スクリーンサイズ及び画像レゾリューションの双方に依存する。21.3メートル(70フィート)幅のスクリーンに表示される2048ピクセルの画像幅を有する2Kレゾリューション画像に対し、20ピクセルの格差を有する字幕要素は観客から約4.27メートル(14フィート)離れて現れる。
当該字幕は、当該字幕要素位置にある3D画像における最も近い物体の所定量だけ前に配置できる。当該所定量は、固定数の付加格差であってよい。例えば、最も近い画像物体が観客から3.05メートル(10フィート)にある場合、字幕要素は、8ピクセルの合計付加格差となる各目に対する4ピクセルの付加格差で配置できる。これにより、画像物体よりも観客に約61センチメートル(2フィート)だけ近く効果的に字幕が配置される。3D動画の複数画像は常に変化する奥行きを示すので、字幕の奥行きも、画像内容の奥行きに追従して変化し、かつ、当該画像の字幕要素位置にある最も近い物体の前に保持され得る。いくつかの実施例では、付加格差は、2048ピクセル幅の画像に対して1ピクセルから20ピクセルの範囲であり得る。また、4096ピクセル幅の画像に対して1ピクセルから40ピクセルの範囲であり得る。画像物体の奥行きは、ステレオマッチング法又は他の適切な方法を使用して計算される。
いくつかの実施例では、ステレオマッチング法を使用して3D画像のピクセル格差を計算することができる。典型的に字幕要素は、人が話し始めるときにスクリーンに現れ、その後間もなくしてその人が話すのをやめると消える。字幕要素が表示される平均継続時間は数秒であるが、所定の状況では相当長く又は短くなる。字幕要素の表示中、多くの画像フレームがスクリーンに投影される。かかる画像は、時間的に変化する内容を含む。当該変化内容は例えば、物体の動き、明暗変化、シーンのディゾルブ、及びシーンのカットである。
本発明のいくつかの実施例によれば、字幕要素のプロキシ奥行き値が、当該字幕要素の継続時間に対応する時間窓内の3D画像フレームすべてを分析することによって計算される。字幕要素のプロキシ奥行き値は一定であっても、又は字幕継続時間にわたってフレームごとに変化してもよい。当該プロキシ奥行き値は、字幕要素に関連付けることができる。また、当該字幕要素の代表値であってよい。字幕要素の実際の奥行き配置は、計算されたプロキシ奥行き値に基づいて計算される。3D動画における各字幕要素は、画像内容に順応するプロキシ奥行きによって決定される奥行きに配置できる。
いくつかの実施例に係る内容順応法は、字幕の他の属性に拡張することができる。当該属性は、字幕フォントスタイル、フォントサイズ、色、輝度、及びスクリーン位置を含むがこれらに限られない。3D動画の視聴体験を向上させるべく任意のタイプの属性を内容順応させることができる。適切な一方法又は一組の適切な複数の画像分析方法を使用して、当該字幕属性の各々の配置を決定することができる。
字幕要素の奥行き配置は、3Dスクリーンに表示された字幕要素の左目ビューと右目ビューとの水平位置を制御することを介して一装置によって作ることができる。当該装置が作る奥行き配置は、計算されたプロキシ奥行きと同じであってもそうでなくてもよい。かかる相違の一例は、当該装置が限られた奥行き範囲及び奥行きレゾリューションを有する場合である。同装置はまた、当該字幕の内容順応属性も制御する。
従来の字幕の属性は、テキストベースの字幕ファイルによって与えることができる。字幕ファイルによって与えられる情報の一のタイプは、各字幕要素の開始時刻及び終了時刻である。かかるタイミング情報を使用して、字幕要素の奥行き及び他の内容順応属性を計算するための時間窓を決定することができる。
図3は、3D画像とともに表示される3D字幕又は他の情報を生成するべく使用されるシステムの一実施例を示す。本システムは計算装置302を含む。計算装置302は、メモリ306のようなコンピュータ可読媒体に格納されたコードを実行することができるプロセッサ304を有する。これにより、計算装置302は、3D画像とともに表示される字幕属性又は他の情報を計算することができる。計算装置302はデータを処理することができて、複数のアクションを行う一組の命令であるコードを実行することができる任意の装置である。計算装置302の例は、デスクトップパーソナルコンピュータ、ラップトップパーソナルコンピュータ、サーバ装置、ハンドヘルド計算装置、及びモバイル装置を含む。
プロセッサ304の例は、マイクロプロセッサ、特定用途向け集積回路(ASIC)、状態機械、又は他の適切なプロセッサを含む。プロセッサ304は、一のプロセッサ又は任意数のプロセッサを含む。プロセッサ304は、メモリ306に格納されたコードにバス308を介してアクセスすることができる。メモリ306は、コードを格納することができる任意の有体コンピュータ可読媒体である。メモリ306は、実行可能コードをプロセッサ304に与えることができる電子装置、磁気装置、又は光学装置を含む。メモリ306の例は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、フロッピー(登録商標)ディスク、コンパクトディスク、デジタルビデオ装置、磁気ディスク、ASIC、コンフィギュアドプロセッサ、又は、コードを有体的に包含する他の格納装置を含む。バス308は、計算装置302のコンポーネント間でデータ送信可能な任意の装置である。バス308は、一又は複数の装置を含むことができる。
計算装置302は、入出力(I/O)インターフェイス310を介して付加的コンポーネントとデータを共有することができる。I/Oインターフェイス310は、USBポート、イーサネット(登録商標)ポート、シリアルバスインターフェイス、パラレルバスインターフェイス、ワイヤレス接続インターフェイス、又は、当該計算装置と周辺装置/ネットワーク312との間のデータ送信が可能な任意の適切なインターフェイスを含むことができる。周辺装置/ネットワーク312は、キーボード、ディスプレイ、マウス装置、タッチスクリーンインターフェイス、又は、ユーザからコマンドを受け取り当該コマンドを計算装置302に与えることができる他のユーザインターフェイス装置/出力装置を含むことができる。他の周辺装置/ネットワーク312は、インターネット、イントラネット、広域ネットワーク(WAN)、ローカルエリアネットワーク(LAN)、仮想プライベートネットワーク(VPN)、又は、計算装置302が他のコンポーネントと通信できる任意の適切な通信ネットワークを含む。
命令はメモリ306に実行可能コードとして格納できる。当該命令は、任意の適切なコンピュータプログラミング言語で書かれたコードからコンパイラ及び/又はインタープリターにより生成される特定プロセッサ向け命令を含むことができる。当該コンピュータプログラミング言語は例えば、C、C++、C#、ビジュアルベーシック、Java(登録商標)、Python、Perl、JavaScript(登録商標)、及びActionScriptである。当該命令は、メモリ306に格納されたソフトウェアモジュールによって生成することができる。プロセッサ304によって当該命令が実行されると、計算装置302は複数のアクションを行う。
ソフトウェアモジュールは、画像デコーディングモジュール314、時間窓選択モジュール316、画像抽象化モジュール318、抽象奥行き計算モジュール320、プロキシ奥行き決定モジュール322、及びレンダリング属性計算モジュール324を含むことができる。画像デコーディングモジュール314は、非圧縮化かつ非暗号化形式にエンコード化又は暗号化された左目画像データ及び右目画像データをデコードするべく使用される。時間窓選択モジュール316は、字幕ファイルの字幕タイミング情報に基づいて、各字幕要素に対して3D画像データの一セグメントを選択することができる。画像抽象化モジュール318は、各3D画像セグメントを一対の左及び右抽象画像(例えば、左目画像シーケンスからの一画像及び右目画像シーケンスからの一画像)に単純化することができる。抽象奥行き計算モジュール320は、当該左及び右抽象画像から抽象奥行きマップを計算することができる。プロキシ奥行き決定モジュールは、当該抽象奥行きマップに基づいて、字幕要素のためのプロキシ奥行きを計算することができる。レンダリング属性計算モジュールは、字幕要素のためのレンダリング属性を決定することができる。これは例えば、当該字幕要素のためのプロキシ奥行き及び他の画像情報に基づく。
この例示的なシステム構成は、所定実施例を実施するべく使用できる潜在的な構成を説明するべく与えられるに過ぎない。もちろん、他の構成も利用できる。
図4は、3D字幕要素のための属性を3D画像の内容に基づいて計算する方法の一実施例を示す。図4に示される方法は字幕に適用するものとして記載されるが、本方法は、3D画像に加えて任意のタイプの情報に対しても適用することができる。さらに、図4は図3のシステムに関連して記載されるが、他の実施もできる。
ブロック402では、計算装置302が3D画像シーケンスを受け取る。当該3D画像シーケンスは、左目画像シーケンス及び当該左目画像シーケンスに関連付けられた右目画像シーケンスを含むことができる。いくつかの実施例では3D画像シーケンスは、例えばデジタルシネマパッケージ(DCP)ファイル又はMPEG2ビデオファイルのようなエンコード化ファイルとして受け取られる。画像デコーディングモジュール314は、当該エンコード化ファイルを非圧縮化かつ非暗号化ファイル形式にデコードすることができる。
ブロック404では、計算装置302が字幕ファイルを受け取る。当該字幕ファイルは、タイミング情報に関連付けられた少なくとも一の字幕要素を含む。当該タイミング情報は、3D動画のタイミング情報に対応し得る。当該字幕要素は、テキスト若しくは他の属性、又は、当該3D画像シーケンスでの表示を目的とした他の任意の付加情報を含むことができる。
ブロック406では計算装置302が、タイミング情報に基づいて当該字幕要素を3D画像シーケンスの一セグメントに関連付けることができる。時間窓選択モジュール316は、当該字幕要素のタイミング情報に基づいて当該3Dシーケンスから画像の一セグメントを選択することができる。いくつかの実施例では、時間窓選択モジュール316は、字幕に関連付けられていない画像シーケンスの複数のセクションをスキップする一方で残りのセクションを処理することにより、計算時間を節約することができる。画像シーケンスはまた、当該画像シーケンスの長さに関する制限に基づいて複数のセグメントに分割してもよい。各セグメントはまた、タイミング情報を使用して一の字幕要素に関連付けることができる。例えば、各画像セグメントは一の時間窓に関連付けられて、当該時間窓内のタイミング情報を有する字幕要素に関連付けられ得る。
ブロック408では計算装置302が、字幕要素に関連付けられた画像セグメントから抽象奥行きマップを計算する。抽象奥行きマップは、当該セグメントの画像フレーム又は所定の画像フレームに対する奥行き値又はピクセル格差値の一表現である。いくつかの実施例では、画像抽象化モジュール318は、当該セグメントを一対の左及び右抽象画像に単純化することができる。当該セグメントの左目画像シーケンスからの一画像と当該セグメントの右目画像シーケンスからの一画像である。抽象画像は、画像セグメントの単純化バージョンである。画像セグメントの各画像フレームは、一画像フレームの各ピクセル列を一ピクセルに投影することによって、当該抽象画像の一のラインに低減される。このようにして左目画像セグメントから投影された左抽象画像と、当該対応右目画像セグメントから投影された右抽象画像とは抽象画像対をなす。抽象奥行き計算モジュール320は、抽象画像対の奥行き値又はピクセル格差値を計算して、得られた奥行き情報を抽象奥行きマップに格納することができる。抽象奥行きマップは、当該抽象画像対のすべてのピクセル又は所定のピクセルの奥行き値又はピクセル格差値を含み得る。
ブロック410では計算装置302が、字幕要素のための抽象奥行きマップに基づいてプロキシ奥行きを計算する。プロキシ奥行きは、字幕要素のための代表奥行きである。また、当該字幕要素の継続時間にわたり一定値又は可変値となる。プロキシ奥行きは、3D画像シーケンスにおける奥行きの経時変化を表すことができる。いくつかの実施例では、プロキシ奥行き決定モジュール322が、字幕要素のためのプロキシ奥行きを計算する。これは、一定値又は字幕要素の継続時間にわたり変化する値である。
ブロック412では、計算装置302が当該プロキシ奥行きを使用して字幕要素のためのレンダリング属性を決定する。レンダリング属性の例は、奥行き配置、フォントサイズ、フォント色、スクリーン上の位置、及び3D字幕のフォントスタイル、並びに付加情報(例えば画像)の色、サイズ、位置、及びスタイルを含む。いくつかの実施例ではレンダリング属性計算モジュール324は、当該プロキシ奥行きを使用して、字幕要素をレンダリングするための少なくとも一の命令を含むレンダリング属性を決定する。当該プロキシ奥行きは、少なくとも部分的には関連付けられた3D画像シーケンスの内容の奥行きに基づく。例えば、当該プロキシ奥行きは、字幕要素の奥行きのレンダリング属性となるように決定される。または、字幕要素の奥行きのレンダリング属性を決定するべく使用される。
ブロック414では計算装置302が、当該字幕要素のためのレンダリング属性を出力する。また、レンダリング属性は、字幕要素をレンダリングして3D画像シーケンスで表示するべく使用することができる。
以上で説明したモジュール及び特徴の追加実施例を以下に説明する。
画像抽象化
画像抽象化モジュール318は、3D画像シーケンスを画像投影を介して左目のものと右目のものである一対の抽象画像に単純化するといった様々な機能を行うことができる。当該投影は、垂直に行うことができる。一画像フレーム内の複数ピクセルの各列が、一ピクセルに投影される。各フレームは投影されて一のラインになる。3D画像シーケンスの各画像フレームから投影されたラインは、一対の抽象画像を形成することができる。
画像抽象化処理の一実施例のグラフィカルな説明が図5に示される。左目画像シーケンス502がN個のフレームを含んで示される。各フレームはH個のラインを含む。各ラインはW個のピクセルを含む。左目画像シーケンス502は投影されて、N個のラインを有する左抽象画像506になる。各ラインはW個のピクセルを含む。左抽象画像506の第1ラインが左目画像シーケンスの第1フレームから投影され、左抽象画像506の第2ラインが左目画像シーケンスの第2フレームから投影され、等となる。当該投影ラインはW×N個の左抽象画像506を形成し得る。同様に、右目画像シーケンス504は投影されて、N個のラインを有する右抽象画像508になる。各ラインはW個のピクセルを含む。左抽象画像506及び右抽象画像508の双方は一の抽象画像対を形成する。
いくつかの実施例では、当該投影は垂直サンプリング投影アルゴリズムに基づいて行われる。その一実施例を図6に示す。字幕要素の位置を字幕ファイルに予め画定又は特定することができる。字幕要素は、画像フレームの底部近くを中心とするが、他の位置も可能である。図6は、画像シーケンスのk番目左画像フレーム602の字幕領域604に含まれた字幕要素を示す。サンプリングライン606を字幕領域604の中心又はこの近くに選択することができる。k番目左画像フレーム602の各列のピクセルがサンプリングライン606に向かって投影されて一のピクセルとなる。これにより、左抽象画像610が形成される。例えば、画像列m608のピクセルすべて又は実質的にすべてがサンプリングライン上の点Aに向かって投影され得る。投影は、サンプリングラインよりも上のピクセルが下方に投影されかつサンプリングラインよりも下のピクセルが上方に投影されるように行うことができる。投影の結果、左抽象画像610の位置(m,k)にピクセルBが生成される。
投影ピクセルBの値は選択された投影機能によって決定することができる。投影機能は、オリジナル3D画像シーケンスを一対の抽象画像に圧縮する一方で奥行き情報及び奥行き変化情報の双方を保存するべく選択される。一実施例では、投影機能は数学的平均に基づく。他実施例では、投影機能は重み付き平均である。サンプリングラインに近いほど高い重みがピクセルに割り当てられる。投影処理は、画像フレームkの各列に対して繰り返すことができる。その結果、左抽象画像610のk番目ライン612となる。右目画像フレームに対しても同様の投影法を適用して右抽象画像を生成することができる(図6に示さず)。
垂直サンプリング投影アルゴリズムの他実施例は、複数のサンプリングラインを使用する。これは、多重垂直サンプリング投影アルゴリズムであり得る。かかるアルゴリズムの一例を図7に示す。k番目左画像フレーム702が3領域に分割される。(i)字幕領域704及び2個の副領域を含む主領域716、(ii)頂部領域720、及び(iii)中心領域718である。
各領域に対してサンプリングラインを選択することができる。主領域716に対して選択されたサンプリングラインは、主サンプリングライン706である。主サンプリングライン706は、字幕領域704の中心又はこの近くに選択することができる。主サンプリングラインは、当該投影機能に適切な重みによって、投影アルゴリズムにおいて主要な役割が割り当てられる。一実施例では、主サンプリングラインに近いピクセルには、副サンプリングラインに近いピクセルよりも高い重みが割り当てられる。副領域に対して選択されたサンプリングラインは、副サンプリングラインである。当該副サンプリングラインは、当該領域の中心に配置することができるがこれに限られない。図7に示される例では、副サンプリングライン710が当該画像フレームの頂部副領域720における奥行き変化を表す。副サンプリングライン708が当該画像フレームの中心副領域718における奥行き変化を表す。各領域内で垂直サンプリング投影を行うことができる。当該領域のサンプリングラインに向かってピクセルが垂直に投影される。
図7に示される例では、主領域716内のm番目列722が、主サンプリングライン706上の点Aに向かって投影される。領域718内の同じ列のピクセルが副サンプリングライン708上の点Bに向かって投影される。また、頂部領域720内の列mの残りのピクセルが副サンプリングライン710上の点Cに向かって投影される。いくつかの実施例では、分割される領域の数及びサンプリングラインの位置は、字幕領域の位置、3D画像のアスペクト比、及び劇場の幾何学形状を含むいくつかの因子に基づいて決定される。例えば、1.43:1の投影アスペクト比を有するIMAX(登録商標)の15perf/70mm画像形式に対しては、投影アスペクト比2.40:1を有するScope画像形式よりもサンプリング位置の数が多い。当該投影値はさらに、左抽象画像712のラインk714の点Dにおける値を生成するべく重み付き平均の形式で組み合わせることができる。右目画像フレームに対しても同様の投影法を適用して右抽象画像を生成することができる(図7に示さず)。
他実施例では、左又は右画像フレームが複数領域に分割される。各領域は投影されて、識別可能な一の抽象画像対となる。左目画像シーケンスに対して図8に示される。垂直サンプリング投影アルゴリズムは、左画像シーケンスの各領域に適用することができる。一の抽象画像対を各領域から生成することができる。これにより、抽象画像対スタック812を形成する複数の抽象画像対が得られる。各領域に対するサンプリングラインの位置は、前述の原理に基づいて選択することができる。字幕を含む当該領域は、主領域804としてとして割り当てられる。また、主抽象画像対816を生成することができる(右抽象画像は図8に示さず)。他領域は副領域806、808とみなされ、各々が副抽象画像対818、820を生成する(右抽象画像は図8に示さず)。その結果、主抽象画像対816は、字幕近辺の奥行き変化を記述することができる。他方、副抽象画像対818、820は指定領域での奥行き変化を記述することができる。右目画像フレームに対しても同様の投影法を適用して複数の右抽象画像を生成することができる(図8に示さず)。
他実施例では、一の抽象画像対が画像フレームの選択領域から投影されて、当該画像フレームの全幅を有しない。一例を図9に示す。k番目画像フレームの2個の選択領域が左画像シーケンスに対して特定される。一方は字幕領域904を含む主領域906であり、他方は当該画像頂部近くの副領域908である。図示の字幕領域904は幅W<Wを有する。副領域908は幅W<Wを有する。主抽象画像対910(右抽象画像は図8に示さず)は主領域906から投影される。副抽象画像対912(右抽象画像は図8に示さず)は当該領域908から投影される。いくつかの実施例では、選択領域外部のピクセルは投影に使用されない。得られた主抽象画像910は、W×N画像となり、副抽象画像912はW×N画像となる。本方法により、奥行き分析の焦点を当該画像のキー部分に合わせることができる。
抽象奥行き分析
垂直サンプリング投影アルゴリズムの所定実施例により、3D画像セグメントにおける奥行き変化情報の計算を行うことができる。いくつかの実施例では相対的に速い計算である。図10は、1450個のフレームにわたる3D画像セグメントから生成された抽象画像対(1002,1004)の一例を示す。得られた抽象画像対は、一の3D画像シーケンスの物体動き情報を表すことができる。当該シーケンスにおける主物体の動きは、その後の分析のために使用することができる。図10に示されるのは、1450個のフレームにわたる3D画像セグメントから計算することができる抽象画像対(1002,1004)の一例である。抽象画像対(1002,1004)は、当該セグメントにおける2個の主物体1006及び1008の動きを表すことができる。これらは互いに当該画像の前景の中へ及びこれの外へ動く。かかる物体の動きの結果としての奥行き変化は、抽象奥行きマップ1010によって記録することができる。抽象奥行きマップ1010は、左抽象画像1002と右抽象画像1004とのピクセル格差を推定することによって生成することができる。いくつかの実施例では、抽象奥行き計算モジュール320によって抽象奥行きマップの計算を行うことができる。
抽象奥行き計算モジュール320の所定実施例により、3D画像セグメントにおける奥行き情報の高速計算が可能となる。3D画像シーケンスのピクセル格差を計算する従来の方法は、非常に時間がかかりかつ信頼性を欠くものであり得る。3D画像セグメントを一対の抽象画像に単純化することにより、いくつかの場合において奥行き計算を劇的に高速化することができる。得られる奥行き(又は格差)は、信頼性があり時間的に一貫性がある。
一実施例では、格差は、抽象画像対(1002,1004)から直接計算される。他実施例では、格差は、粗密ベイジアン法(coarse-to-fine Bayesian method)を使用して計算することができる。粗密ベイジアン法では、左及び右抽象画像がまず、複数の詳細レベルを有するピラミッド表現に変換される。当該計算は最も粗いレベル(トップレベル)から始まる。データコスト項及びリンクコスト項からなる特別なエネルギー関数を最小化することによって、当該抽象画像対間のピクセルごとの格差を推定することができる。得られた格差値はさらに、クラスタリング法により有限数のグループに分類することができる。各グループが、代表奥行き(又は格差)を有する候補物体を表す。トップレベルからの結果は、低レベルでの計算のための初期推定として使用される。候補物体の奥行きは、当該レベルにおいて推定された多くの詳細に細分化することができる。この処理は、候補物体の奥行きが最低レベル(密レベル)から推定された全詳細に細分化されるまで繰り返すことができる。得られた奥行き(又は格差)の集まりが、一の抽象奥行きマップとなり得る一の画像を形成する。抽象奥行きマップ1010の一例が図10に示される。抽象奥行きマップ1010は、抽象画像(1002,1004)と同じピクセルのレゾリューションを有し得るが、色又は光度の代わりに奥行き(又は格差)値を含む。複数の抽象画像対が生成されると、各抽象画像対から別個の抽象奥行きマップが生成され得る。
プロキシ奥行き決定
プロキシ奥行き決定モジュール322の所定実施例は、抽象奥行き計算モジュール320によって生成された抽象奥行きマップに基づいて字幕要素のプロキシ奥行きを決定することができる。上述したように、字幕要素のプロキシ奥行きは、当該字幕要素の奥行き配置を決定するべく使用され得る代表奥行き値である。プロキシ奥行きは、字幕要素の継続時間にわたり一定又は可変の値を有する。
図11に示されるのは、プロキシ奥行き決定モジュール322のための機能ブロック図の一実施例である。いくつかの実施例では、プロキシ奥行きを計算することは、3D画像セグメントのピクセル格差(又はピクセル奥行き)の時間的及び統計的分布を、ディストグラムを使用してロバスト分析することに基づく。かかる計算は正確かつ信頼性のあるプロキシ奥行き表現を与える。ディストグラムとは、3D画像セグメントのピクセル奥行き(又は格差)の確率分布を時間についてグラフィカルに示したものである。図11では、計算モジュール1108によってディストグラムの計算が行われる。当該ディストグラムに基づいて、初期プロキシ奥行きの計算が計算モジュール1112によって行われる。
いくつかの実施例では、当該初期プロキシ奥行き値は、隣接する字幕要素間の唐突なジャンプを有することがある。これは、字幕奥行き配置の突然の変化を生じさせるので視聴不快感につながる。時間的一貫性モジュール1114は、隣接する字幕要素間のプロキシ奥行き値の遷移を滑らかにする。得られるプロキシ奥行き値は、計算モジュール1116が、特定されたデータ形式にエンコード化することができる。プロキシ奥行きデータ形式1118の一例は、タイミング及びプロキシ奥行き情報の双方を含むテキスト形式ファイルである。
いくつかの実施例では、字幕のプロキシ奥行きは、ロバストな統計分析法を使用して計算される。3D画像奥行きの統計分布は図12に示すように、格差分布の形式で抽象奥行きマップから収集することができる。格差分布B(i)1206は、dminからdmaxの範囲内のk番目画像フレームの格差の確率分布を代表することができる。dmin及びdmaxは、一の画像シーケンスの最小格差値及び最大格差値を表す。かかる格差分布の値は、当該抽象奥行きマップのk番目行1204から計算することができる。その結果、格差分布は、dmax−dmin+1ビンを含み得る。また、i番目のビンB(i)(dmin≦i≦dmax)は、格差値iを有するk番目画像フレームのピクセル確率を記録することができる。図12には、かかる格差分布1206の一例が示される。これは、抽象奥行きマップ1202のk番目行1204から収集される。
3D画像セグメントにおけるすべての画像フレームの格差分布を使用してディストグラムを形成することができる。図13に、ディストグラムの一例がプロットされる。例示のディストグラム1302では、水平軸がフレーム間隔(時間に関連付けられる)を表す。垂直軸が格差値(奥行きに関連付けられる)を表す。N個のフレームの一の画像セグメントに対しては、得られるディストグラムはdmax−dmin+1行及びN列のグラフィカルな図示となる。当該ディストグラムのk番目列は、k番目フレームの格差分布を記録する。k番目列の点強度は、所定奥行き(又は格差)値を有するk番目画像フレームにおけるピクセル確率を表す。図13のディストグラムの例は、図10の抽象奥行きマップ1010の例から計算される。
ディストグラムは、一の画像シーケンスの時間的継続時間にわたる奥行きの統計分布の進展(格差形式における)を記述することができる。これは、一のシーンにおける主物体の奥行き変化を、当該シーンの相対的に重要でない他の詳細から分離するべく使用することができる。ディストグラムの強度は、所定奥行き範囲での画像ピクセル分布を表すことができる。大きな強度値は、所定奥行きのピクセル濃度を表す。その結果、相対的にサイズが大きい目立つ物体は、相対的に明るい強度値を有する動き奥行き経路から区別することができる。図13では、ディストグラム1302が、3個の主物体の奥行き動き経路を示す。第1主物体1304が当該画像セグメントの始めにおいて前景の右から開始するが、後ろから当該前景へ動く第2主物体1306によって閉塞されるようになる。これら2個の物体の奥行き動き経路は数回交差する。これは、当該シーンの前景に現れる順番が交替されることを示す。他方、第3主物体1308は、画像シーケンス全体に対して他の2個の主物体の後ろのままである。これは当該シーンの背景であり得る。これらの主物体間のかすんだ点雲は、小さな物体又は重要でない他の詳細1312を表す。これらの奥行きは、プロキシ奥行き決定にとって主物体ほど重要ではない。統計手法を使用してディストグラムから識別可能な経路を抽出することができる。これは、一シーンにおける目立つ物体の信頼できる奥行き進展尺度となる。経路の破断は、図13の閉塞1310のような、物体間の強い閉塞を示し得る。
3D字幕プロキシ奥行きの計算は、一の字幕要素に対して一の時間窓を画定するタイミング情報を使用する。字幕要素は、例えば特定形式のテキストベースファイルのような一の字幕ファイルにおいて特定される。XMLテキストファイル形式の従来字幕ファイルの例を図14に示す。当該ファイルにおいて、開始時刻(「Timeln」)及び終了時刻(「TimeOut」)を含む各字幕要素のタイミング情報を定義することができる。図14Aの字幕ファイルの例は、テキストスクリーン位置情報のような字幕属性も含む。これは、水平アラインメント(「HAIign」)、垂直アラインメント(「VAIign」)、水平位置(「HPosition」)、及び垂直位置(「VPosition」)を含む。スクリーン位置は、ピクセル数によって又はスクリーン高さのパーセンテージによって定義することができる。字幕ファイルに定義された情報は、字幕システムによって使用され得る。これにより、動画画像にスーパーインポーズされる字幕画像を生成することができる。
字幕ファイルにおけるタイミング情報は、字幕要素のための時間窓を選択するべく使用され得る。これは、図3の時間窓選択モジュール316が行う。いくつかの実施例では、連続した数個の字幕要素が互いに密接につながっている場合、当該字幕要素は奥行きの唐突なジャンプを最小限にするべく一のプロキシ奥行きを共有する。かかる場合、一の時間窓は数個の字幕要素を含む。図15に示す例では、第1字幕要素1502が時刻ts01で開始し、一画像シーケンスの時刻te01で終了する。開始時刻ts01はフレーム0002に対応し、終了時刻te01はフレーム0026に対応する。第1字幕要素1502のプロキシ奥行きは、フレーム0002−0026の範囲内に決定することができる。時間窓1512はフレーム0002から開始する25フレーム長さを有することになる。図15の他の例では、字幕要素1504はフレーム0033で開始し、フレーム0081で終了する。次の字幕要素1506は字幕要素1504に密接につながる。要素1506は、字幕要素1504の終了フレーム0081直後のフレーム0082から開始する。字幕要素1504及び1506は、同じプロキシ奥行きを共有する。当該字幕要素1504及び1506は、フレーム0033から開始しフレーム0152で終了する長さ120フレームの同じ時間窓1514に含まれる。各時間窓は、左目画像1508及び右目画像1510の双方からの画像フレームを含むことができる。いくつかの実施例では、時間窓の長さは、字幕要素の継続時間を超えて選択することができる。
ひとたび時間窓が選択されると、3D画像セグメントを3D画像シーケンスから分割することができる。各時間窓に対するディストグラムからプロキシ奥行きを計算することができる。プロキシ奥行きは、時間窓の長さにわたる時間変動関数であってよい。また、一定値であってもよい。図16において、時間窓1602に一定のプロキシ奥行きが割り当てられる一方、他の時間窓1604に時間変動プロキシ奥行きが割り当てられる。図15の例では、時間窓1602に対するプロキシ奥行きは、窓1602に属するディストグラム1610の各列を一の格差分布1612に平均化することによって決定される。格差分布1612は2個の支配的奥行きクラスタを表示する。一は格差30ピクセルに等しい奥行き付近に中心があり、2番目は格差約50ピクセルに等しい奥行きに中心がある。これらのクラスタは当該シーンにおいて支配的物体が存在することを示す。支配的モードを検出するべく格差分布1612に対し、例えば平均シフトフィルタリングのようなクラスタリングアルゴリズムを適用することができる。結果をグラフ1614にプロットする。2個の支配的モードがある。一は格差32ピクセルであり、2番目は格差49ピクセルである。最も有力な支配的モード49ピクセルの存在に基づいて一定のプロキシ奥行きを決定することができる。時間窓内の支配的モードの奥行き変化に追従することによって、例えば例1608のような時間変動プロキシ奥行きを決定することができる。開示のプロキシ奥行き計算方法は他の変形例も有する。
プロキシ奥行きの計算はまた、他の因子によっても影響を受ける。他の因子は、動画提示における3D字幕配置を含む。3D字幕は、画像の下方部分にスーパーインポーズされるが、画像の他の位置に配置されることもある。さらに、字幕は画像フレームの外側に配置されてもよい。例えば当該画像よりも下に配置される。字幕位置は、プロキシ奥行きが計算された後に調整される。ディストグラムに基づいて可変プロキシ奥行きを計算することは、上述の同様の方法に基づく。
画像デコーディング
プロキシ奥行きの計算は、デジタル形式の画像内容へのアクセスを含み得る。フィルムプリントでリリースされる動画に対しては、プロキシ奥行きの計算は、制作後の段階においてフィルムリリース前に行うことができる。3D字幕は、適切な格差シフトを有する左目及び右目フィルムプリントに「焼き付け」られる。3D字幕はまた、適切な格差を有する左及び右画像字幕を生成する字幕投影システムによってスクリーンに投影される。デジタル形式でリリースされる動画に対しては、字幕は、スクリーンに投影される前にデジタルシネマサーバ又は3D字幕装置によって画像にスーパーインポーズされる。プロキシ奥行きの計算は、制作後の段階で行うことができるが、シネマにおいてオンサイトで行うこと又はフィルム投影中にリアルタイムで行うことさえできる。シネマに配給される動画のデジタル形式は、デジタルシネマパッケージ(DCP)形式であることが多い。これは、完全な劇場提示のための複数要素のそれぞれを含むことができる。当該複数要素はデジタル画像ファイル及び字幕ファイルを含む。DCP形式の画像ファイルは通常、圧縮かつ暗号化される。圧縮画像ファイルを復号するべく電子キーが使用される。当該圧縮画像ファイルはその後、投影前に解凍される。復号及び解凍は、メディアブロック装置によってリアルタイムで行うことができる。当該装置は、デジタルシネマサーバ内又は投影システム内若しくは劇場制御システム内のコンポーネントである。いくつかの実施例に係る復号及び解凍の機能は、図3の画像デコーディングモジュール314に実装することができる。
DCPに適用される圧縮スキームはJPEG2000すなわちJ2K(ISO/IEC15444−1)である。これは、ウェーブレット変換ドメインにおいて行うことができる。J2Kはフレーム間圧縮法である。各画像フレームのピクセル値を複数レベルのウェーブレットサブバンドの係数として表すことができる。サブバンドは、一組のウェーブレット係数である。当該係数は、所定周波数範囲及び当該画像の空間エリアに関連付けられた画像フレームの側面を表す。各サブバンドのウェーブレット係数はさらに、パケットにまとめることができる。また、エントロピーコーディングを使用してコンパクトにエンコード化することができる。各パケットは、複数のウェーブレット係数からなる一の隣接セグメントである。これは、コードストリームにおいて現れる特定オーダで送信される特定のタイルを表す。かかるオーダの一例は、DCIによって特定されるコンポーネント・プリシンクト・レゾリューション・レイヤ(CPRL)プログレッションオーダである。CPRLプログレッションオーダでは、図17A及び17Bに示すように、パケットが特定のコンポーネント、プリシンクト、レゾリューション、及びレイヤを有するタイルを表す。5レベルウェーブレットを使用して分解されたフルレゾリューション2048×1080ピクセルの画像フレームに対しては、得られるサブバンドは、サイズ64×34のトップレベル(レベル0)サブバンド1702、サイズ128×68のレベル1サブバンド1704、サイズ256×135のレベル2サブバンド1706、サイズ512×270のレベル3サブバンド1708、サイズ1024×540のレベル4サブバンド、及びサイズ2048×1080のレベル5サブバンド1712を含み得る。図17Aにこれらのサブバンドを示す。図17Aはまた、各レベルのサブバンドが少なくとも一のプリシンクトに分割されることも示す。例えば、レベル4サブバンド1710は12個のプリシンクトに分割される。J2Kの指示により、各プリシンクトは一の不可分ユニットにエンコード化される。画像フレームは3個の色チャンネルを有するので、得られるJ2Kビットストリームは177パケットを含む。
パケットはJ2K圧縮の拡張性へのキーとなる。縮小バージョンの画像フレームは、トップレベルサブバンドを表す相対的に少数のパケットからデコードされる。例えば、レベル3にある512×270縮小バージョンの画像フレーム1726の各色チャンネルを完全に回復させるには、7個のパケットのみが必要となる。J2Kビットストリームの拡張性を使用して、縮小バージョンの画像を少なくとも部分的にデコードするべく、選択DCPデコーディング法を使用することができる。十分な奥行き情報を、部分的にデコードされた画像フレームから抽出することができる。当該部分的にデコードされた画像フレームは、3DのDCPビットストリームにおいて少数のパケットで表される。その結果、選択デコーディングを使用してプロキシ奥行きの計算を低減することができる。選択デコーディングの機能は、図3の画像デコーディングモジュールによって実装することができる。
選択デコーディング法の一実施例を、図17Bにさらに示す。図示されているのは、上位4レベル(レベル0−3)のウェーブレットサブバンドを表すJ2Kビットストリームパケットである。上位3レベルのサブバンドはそれぞれ、各色チャンネルに対して一のパケットを有し得る。その結果、各個別の色チャンネルに対し、第1パケット1714を受け取ることによって64×34画像1720をデコードすることができる。128×68画像1722は、次のパケット1716を追加することによってデコードすることができる。大きな256×135画像1724は、さらに一のパケット1718を受け取ることによってデコードすることができる。最初の3個のパケットのデコーディングのみによって(例えば、画像フレームのDCPビットストリームにおける全部で177個のパケットのうち)、色チャンネルが一のみであるにもかかわらず256×135レゾリューションの縮小画像を回復させることができる。かかる縮小画像は、プロキシ奥行きの推定には十分である。簡便のため、図17Bの図示例は一の色チャンネルに対する処理を示すが、同処理は必要に応じて他の色チャンネルにも拡張することができる。
より正確なプロキシ奥行きは、レゾリューションが512×270ピクセルのレベル3画像をデコーディングすることによって計算することができる。追加としてパケット3−6のような4個のレベル3パケットが使用される(図17Bの1728)。DCIによって特定されたCPRLプログレッションオーダに基づくと、図18にも示されるパケット3、6、4、5(1728)は、コードストリームのオーダではパケット3、10、45、52となる。レベル3の各パケットは、奥行き情報に対して異なる重要度を有する特定グループのウェーブレット係数を表すことができる。図18に示すように、レベル3は3つの追加サブバンドすなわちHL、LH、及びHHを与えることができる。HLサブバンド1808は、水平不連続情報(すなわち垂直エッジ)を含み得る。また、奥行き情報を記録するべく重要であり得る。LHサブバンド1810は、水平エッジを含み得る。また、HHサブバンド1812は高周波詳細を記録し得る。いくつかの実施例では、LH及びHHサブバンドなしてステレオマッチングを行うことができる。例えば、HLサブバンド1808におけるウェーブレット係数を、計算効率をさらに改善するプロキシ奥行き計算を目的として使用することができる。
レベル3サブバンドを4個のパケットにエンコードする一例を図18に示す。パケット3(1814)及びパケット6(1816)は、HLサブバンド1808の一部を表す。レベル2画像のデコーディングに使用された3個のパケットに加えてこれら2個のパケットを使用することによって、レベル3画像の単純化デコーディングが促進される。いくつかの実施例では、パケット4(1818)及びパケット5(1820)が、対応する係数グループをゼロに設定することによって省略される。レベル3画像は、5個のパケットすなわちパケット0−2(1802、1804、1006)、パケット3(1814)、及びパケット6(1816)を使用することによってデコードすることができる。その結果は、レゾリューションが512×135ピクセルの縮小画像となる。これは、フルレベル3画像の高さの半分であり得る。いくつかの実施例では、例えば、レベル3でのウェーブレット垂直逆変換を計算しないことによって計算及びバッファリングを節約するべく、LH及びHHサブバンドが破棄される。
JPEG2Kパケットのデコーディングは、2個の処理すなわちティア1デコーディング及びティア2デコーディングを含む。ティア2デコーディングは、パケットヘッダをデコードしてビットストリームをコードブロックに分割するべく使用することができる。ティア1デコーディングは、当該コードブロックのそれぞれをパケットにデコードするべく使用される。ティア1デコーディングはティア2デコーディングよりも多くの計算を使用する。LH及びHHサブバンドをデコーディングすることによってではなく、ティア1デコーディングがHLサブバンドによって使用されて、7個のパケットをフルデコーディングするのと比べて約2/3だけ計算を低減できる。その結果、選択DCPデコーディングの所定実施例は、輝度チャンネルを使用、十分なデコーディングレベルを選択、選択されたパケットを縮小バージョン画像にデコーディング、及び当該縮小画像に基づいてプロキシ奥行きを計算、のようにして計算を低減することができる。
パケットの選択も、スクリーン上の字幕配置に依存する。図14Aに示すように、字幕要素のスクリーンアラインメント位置は、字幕テキストファイルにグローバルに固定される。よくある一のスクリーンアラインメント位置は、スクリーンの底部である。しかし、3D字幕に対し、固定位置は所定環境下で問題となる。例えば、スクリーンの底部付近の非常に近い奥行きを有する画像シーンに対し、当該スクリーンの底部に字幕を配置すると観客にとって苦痛となる。かかる場合、視聴の快適さを維持するべく代替スクリーン位置に字幕を配置することができる。前述のように、プロキシ奥行きの計算は字幕のスクリーン位置に依存し得る。例えば、図7に図示される画像抽象化モジュールが使用する多重垂直サンプリング投影アルゴリズムでは、字幕スクリーン位置によって主サンプリングライン706の位置を決定することができる。字幕スクリーン位置が変化すると、字幕領域704が再配置されて主サンプリングラインも再計算される。得られる左抽象画像712も異なり得る。当該左抽象画像712は、字幕要素のプロキシ奥行きを計算するべく使用される。
字幕奥行き及び垂直スクリーン位置は、図14Bに示すサンプルファイルのような3D字幕ファイルに記録することができる。字幕要素の奥行きは、スクリーン視差シフト(「Pシフト」)によって記述することができる。これは、水平シフトの必要量を左目字幕画像と右目字幕画像とに同等に分けることができる。視差シフトは、ピクセル数による絶対項又はスクリーン幅のパーセンテージによる相対項で定義される。さらに、左目及び右目に対する視差シフト量は同等に分けられなくともよい。かかる場合、左及び右字幕画像に対する水平視差シフト量は、3D字幕ファイルに別個に特定される。図14Bのサンプルテキストファイルにより、字幕要素の他の属性を、内容制作者にとって創造的な選択肢を与え究極的には3D動画の視覚体験を向上させる目的で、画像内容に順応して変化させることができる。他の属性の例は、テキストフォントスタイル、テキストフォントサイズ、及び字幕テキスト色を含む。
他実施例では、字幕のテキストフォントサイズが字幕要素の奥行き配置に順応して変化する。フォントサイズを順応的に変化させる一の目的は、視聴者が知覚する一貫した字幕サイズを維持することを含む。立体視3D画像における物体の知覚サイズは、当該物体の奥行き配置によって影響を受ける。例えば、3D物体は、その実際のサイズが変化しないとしても、視聴者に近づくにつれて小さく現れる。これは縮小化と称する。これは、立体視覚を支配するサイズ・距離の法則の結果である。物体が視聴者から遠ざかるにつれて大きく現れる逆縮小化も生じる。縮小化効果は、3D字幕要素の知覚サイズにも当てはまる。その結果字幕テキストは、視聴者から離れているときよりも、視聴者に近づいて配置されるときに小さく現れ得る。いくつかの実施例では、字幕のフォントサイズは、縮小化効果を事前補償するべく順応的に拡大縮小される。その結果、字幕の知覚サイズが動画全体を通じて一貫する。事前補償のためのサイズの拡大縮小因子は、サイズ・距離の法則を適用することによる縮小化の推定レベルに基づいて計算することができる。
他実施例では、字幕テキストフォントのスタイル及び/又は色が画像内容に順応して変化する。フォントスタイル及び/又はフォント色を順応的に変化させる一の目的は、内容制作者に創造的な選択肢を与え究極的には3D動画の視覚体験を向上させることを含み得る。字幕テキスト色を変化させる他の目的は、字幕テキストが同様の色範囲にある背景画像に溶け込むのを避けるべく可読性を向上させることを含み得る。字幕フォントスタイル及び色を変化させる他の目的は、語り又は語り手からの所定の雰囲気を表現することを含み得る。
3D字幕の内容順応属性は、図14Bに例示するような3D字幕ファイルに記録することができる。当該例示のファイルは、新たな情報フィールドを示す。当該情報フィールドは、フォントサイズ情報(「Size」)、フォントスタイル情報(「FontlD」及び「Weight」)、及びフォント色(「Color」)を記録するべく生成される。これらの情報フィールドは、各字幕要素に対して異なるように設定することができる。
表示実装例
字幕要素用に計算された一以上のレンダリング属性を使用して内容順応3D字幕を有する3D画像を表示するべく、様々なシステム及び方法を使用することができる。かかる表示のために使用することができるシステムの例は、オフライン表示システム及びリアルタイム表示システムを含む。オフライン表示システムでは、字幕レンダリング属性が第1時点で計算され、字幕ファイル又はメタデータのようなデータファイルに保存される。後の第2時点で、保存されたレンダリング属性がシネマサーバ又は他の表示サーバによって使用される。当該シネマサーバ又は他の表示サーバは、3D画像シーケンスを有する字幕要素を表示するべく表示装置と通信する。表示装置の一例はプロジェクタである。
オフライン表示システムのための内容順応字幕属性の計算は、3D動画の制作後処理の一部であり得る。得られる字幕奥行き情報及び他の属性は、3D投影システムにデジタルシネマパッケージ(DCP)形式で送ることができる。DCP形式は、デジタルシネマに配給される動画の一のデジタル表現である。DCP形式は、画像データ、音声データ、字幕データ、メタデータ、又は他のデータを表すトラックファイルを含む。これらのトラックファイルは配給のセキュリティのために暗号化される。DCPファイルパッケージングの方法及び技術スペックは、所定の標準化文献に記載されている。当該標準化文献は、Digital Cinema Initiatives, LLCが出版したデジタルシネマシステム仕様書(バージョン1.2)、及びSMPTE(Society of Motion Picture and Television Engineers)が目下開発中であるいくつかの標準化文献を含む。
リアルタイム表示システムでは、レンダリング属性をリアルタイム又は少なくとも近リアルタイムで決定することができる。3D画像シーケンスを有するレンダリング属性を使用して字幕が表示される。例えば、当該システムは、エンコード化又は非エンコード化3D画像シーケンス及び字幕ファイルを受け取ることができる。当該システムは、レンダリング属性を決定し、当該レンダリング属性を使用して例えばプロジェクタによる3D画像シーケンス及び表示用字幕を設定することができる。
図19は、本発明の一実施例に係るオフライン表示システムの機能ブロック図を示す。本システムは、3D字幕レンダリング属性を計算するべく使用することができる。また、オフライン制作後処理を有する一のソフトウェアモジュール又は複数のソフトウェアモジュールとして少なくとも部分的に実装することができる。例えば、所定のモジュールが図19に図示される。これは、コンピュータ可読媒体に格納される実行可能コードとして又はハードウェア構成として実装される。
本システムは、サーバ装置1900を含むことができる。当該サーバ装置1900は、3D画像シーケンス1906及び3D字幕ファイル/メタデータ1908を受け取ることができる。3D字幕ファイル/メタデータは、タイミング情報、字幕テキスト、タイミングイン及びアウト、垂直位置、水平位置、奥行き又は変位、テキストフォント、並びに言語方向(左から右、右から左等)のような他の情報に加え、レンダリング属性も含むことができる。3D字幕ファイル/メタデータ1908は、サーバ装置1900に与えられる前に、格納媒体に格納することができる。3D画像シーケンス1906は、シネマへ配給されるトラックファイルを含むDCPパッケージであってよい。いくつかの実施例では、3D字幕ファイル/メタデータ1908は、3D画像シーケンス1906とともにサーバ装置1900に配給される。他実施例では、3D字幕ファイル/メタデータ1908は、3D画像シーケンス1906とは別個にサーバ装置1900に配給される。
本サーバ装置1900は、コンピュータ可読媒体に格納されたコードを実行することができるプロセッサベースの装置である。これは、プロセッサと実行可能コードを有体的に包含できるコンピュータ可読媒体とを含み得る。本サーバ装置1900は、当該レンダリング属性を使用して3D画像シーケンスに字幕をスーパーインポーズすることができるシネマサーバである。いくつかの実施例では、本サーバ装置1900は、インターネット又はイントラネットのようなネットワークを介して3D画像シーケンス1906及び3D字幕ファイル/メタデータ1908を受け取る。他実施例では、3D画像シーケンス1906及び3D字幕ファイル/メタデータ1908は、本サーバ装置1900が物理的に受け入れることができる光格納装置又は半導体格納装置のような可搬性格納装置に格納される。
本サーバ装置1900は、字幕コントローラ1910を含むことができる。当該字幕コントローラ1910は字幕レンダリングモジュール1912を制御するべく、3D字幕ファイル/メタデータ1908からのレンダリング属性及び字幕のような情報を使用する。字幕レンダリングモジュール1912は、レンダリング属性を使用して字幕をレンダリングすること及び当該字幕を3D画像シーケンスにスーパーインポーズすることができる。例えば、字幕コントローラ1910は、3D字幕ファイル/メタデータに基づいて制御コマンドを生成することができる。また、当該制御コマンドを字幕レンダリングモジュール1912に与えることができる。当該制御コマンドは、各字幕要素に対して適切な時点かつ正しいスクリーン位置で字幕テキスト画像を生成するコマンドを含むことができる。これらのコマンドは、画像デコーダ1914からの現在上映中の時刻をトリガとすることができる。字幕コントローラ1910からの各コマンドに従って、字幕レンダリングモジュール1912は、正しいフォントを有する字幕テキスト画像を生成することができる。また、現在の左目及び右目画像と同期して、正しい位置及び変位にて字幕画像を左及び右画像と組み合わせることができる。
3D画像シーケンス1906は、エンコード化形式である。また、字幕レンダリングモジュール1912が受け取る前に、3D画像シーケンス1906を復号する画像デコーダ1914が受け取ることができる。他実施例では、3D画像シーケンス1906は非エンコード化形式である。これは、画像デコーダ1914にデコードされることなく字幕レンダリングモジュール1912に与えられる。例えば、3D画像シーケンス1906は、サーバ装置1900に受け取られる前にデコードされる。字幕レンダリングモジュール1912は、当該レンダリング属性に基づいて3D画像シーケンスに字幕要素をスーパーインポーズすることができる。
3D画像シーケンスが、レンダリング属性を使用して当該3D画像シーケンスに字幕がスーパーインポーズされて、サーバ装置1900から表示装置1916に与えられる。本表示装置1916は、3D字幕を有する当該3D画像シーケンスを観客に表示することができる。表示装置1916の例は、映画用プロジェクタ、液晶表示装置、プラズマ表示装置、又は他の高精細度表示装置を含む。
図20は、オンサイト処理システムの一の機能ブロックフロー図を示す。当該システムは、例えば、劇場サイトに配置されたリアルタイム表示システムである。一の3D画像シーケンス2002及び一の字幕ファイル2006が劇場サイトにおいて受け取られる。当該3D画像シーケンス2002は、字幕ファイル2006とともに又は字幕ファイル2006とは別個に受け取られる。字幕ファイル2006は、字幕テキスト及びタイミング情報のような字幕情報を含むことができる。
当該劇場サイトにはサーバ装置2000が配置され得る。本サーバ装置2000は、コンピュータ可読媒体に格納されたコードを実行することができるプロセッサベースの装置である。これは、プロセッサと実行可能コードを有体的に包含できるコンピュータ可読媒体とを含み得る。本サーバ装置2000は、コンピュータ可読媒体に格納された画像デコーダ2004を含み得る。本画像デコーダ2004は、当該3D画像シーケンス2002を必要に応じて非暗号化及び非圧縮化形式にデコードすることができる。いくつかの実施例では、本サーバ装置2000が画像デコーダ2004を含まないか、又は、画像デコーダ2004が3D画像シーケンス2002をデコードしない。例えば、3D画像シーケンス2002が非暗号化かつ非圧縮化形式であるか、又は、画像デコーディングモジュール314が本サーバ装置2000にある計算装置302に含まれない。計算装置302は、3D画像シーケンス2002及び字幕ファイル2006を受け取って、例えば図3に関連して述べたリアルタイムでレンダリング属性2008を出力する機能を行うことができる。当該レンダリング属性は、字幕レンダリングモジュール2010によって使用され得る。当該字幕レンダリングモジュール2010は、3D画像シーケンス2002又は非暗号化3D画像シーケンスを受け取る。字幕テキストがレンダリングされて、当該字幕が3D画像シーケンス2002にスーパーインポーズされる。字幕レンダリングモジュール2010の出力が表示装置2012に与えられ得る。表示装置2012はプロジェクタであってよく、3D画像シーケンス2002にスーパーインポーズされた字幕を視聴観客に対して表示することができる。
いくつかの実施例では、計算装置302は字幕コントローラを含む。当該字幕コントローラは、字幕レンダリングモジュール2010に対して制御コマンドを出力して、当該字幕レンダリングモジュール2010に当該字幕のレンダリング及び3D画像シーケンスへのスーパーインポーズを正しく行わせる。当該制御コマンドは、例えば、奥行き又は変位を特定するコマンドを当該奥行き及び当該字幕要素に関連付けられたタイミング情報とともに含み得る。当該コマンドによって字幕がレンダリングされる。
字幕コントローラの複数の実施例に係る所定の具体的機能は、当該入力及び出力装置の特性に依存する。例えば、奥行き情報がオフラインで計算されてDCPを介して配給される場合、本字幕コントローラへの入力は、所定のテキストファイル形式を有する3D字幕ファイル又はメタデータのようなデコードされたトラックファイルであり得る。本字幕コントローラは、当該テキストファイルを解釈して他の字幕情報とともに当該奥行き情報を取得する。他実施例では、当該奥行き情報が別個のチャンネルを介して送られる場合、入力データファイルはテキストファイル形式を有してもそうでなくてもよく、本字幕コントローラは入力された当該奥行き情報を異なって解釈することができる。他実施例では、字幕奥行き情報がDCPからリアルタイムで計算される場合、当該奥行き情報が本字幕コントローラにとって直接入手可能である一方、他の字幕情報は標準字幕ファイルから取得される。
図21は、字幕コントローラが行うことができる方法を示す。当該字幕コントローラはDCPトラックファイルを入出力命令として受け取る。当該入出力命令は、一実施例に係る字幕レンダリングモジュールに対して内容順応奥行きを制御する。図21の第1ステップは、DCPデコーダ2102からDCPトラックファイルを受け取ることである。次に字幕コントローラは、第1字幕要素に対するトラックファイルを検索して奥行き情報2106を取得する。当該奥行き情報は、観客から数フィートから無限遠までの範囲にある。また、同等のピクセル格差によって記述することができる。当該出力装置すなわち字幕レンダリングモジュールが、有限の奥行き範囲及び固定数の許容奥行きステップを有することもあり得る。例えば、字幕レンダリングモジュールは、有限数の許可奥行きステップを有する3.05メートルから305メートル(10フィートから100フィート)の範囲にある奥行きを出力することができる。かかる場合、字幕コントローラは、当該コントローラのメモリ装置に格納された最も近い許可奥行きステップの一に対して字幕奥行き値をマップすることができる。かかる処理を奥行き量子化2108として図21に示す。字幕コントローラはまた、当該出力装置すなわち字幕レンダリングモジュールに適切なタイミングで命令を発行するべく、トラックファイルからタイミング情報を取得することもできる。これにより、表示された字幕テキストが画像及び音声トラックと同期することができる。また、スクリーン2110に現れているときにジャンプすることもない。実装によっては、当該命令が当該字幕コントローラから発行されたときから本字幕レンダリングモジュールが当該命令を実行するときまでの所定時間量が必要となる。本字幕レンダリングモジュールは、所定の時間間隔で一の命令を実行することができる。字幕と音声及び画像との同期を維持するべく、遅延及び間隔が、同期エラーを回避する命令のトリガ時刻を決定し得る。かかる処理がタイミング量子化2112であり得る。
本システムは、現在の字幕要素2114に関連付けられた他の情報を検索することができる。当該他の関連情報とともに奥行き及びタイミングが決定されて、字幕コントローラは、正しい時点かつ正しい奥行き、フォント、及びスクリーン位置で3D字幕画像を生成するべく字幕レンダリングモジュール2122への命令2116を生成する。字幕コントローラは、DCPトラックファイル2118、2120に記載された各字幕要素に対して上記ステップを繰り返す。
いくつかの実施例では、図21に係る字幕コントローラのワークフローを、他の内容順応字幕属性を制御することに拡張することができる。次に字幕コントローラは、関連する各字幕属性を一のトラックファイルから検索及び取得して必要な機能を実行することができる。これらの字幕属性値が、字幕レンダリングモジュールのハードウェア及びソフトウェア的制限に適合した適切な命令にマップされる。
以上は、本発明の実施例を図示、説明、及び記述する目的で与えられている。これらの実施例のさらなる修正例及び適合例は、当業者にとって明らかであり、本発明の範囲及び要旨を逸脱せずになすことができる。

Claims (34)

  1. 3次元(3D)動画を提示する方法であって、
    計算装置が一の3D画像シーケンスを受け取ることと、
    前記計算装置が、前記3D画像シーケンスに対して、一の字幕要素及び前記字幕要素に関連付けられたタイミング情報を含む一の字幕ファイルを受け取ることと、
    前記計算装置が、前記タイミング情報に基づいて前記字幕要素を前記3D画像シーケンスの一の継続時間にわたる複数画像フレームの一のセグメントに関連付けることと、
    前記計算装置が、前記セグメントから一の右目抽象画像を生成し、かつ、前記セグメントから一の左目抽象画像を生成することであって、前記右目抽象画像は、前記セグメントの複数の右目画像を表し、前記左目抽象画像は、前記セグメントの複数の左目画像を表すことと、
    前記右目抽象画像及び前記左目抽象画像から一の抽象奥行きマップを前記計算装置によって計算することであって、前記計算装置は、前記計算装置に前記抽象奥行きマップを計算させることができる一のプロセッサを含むことと、
    前記字幕要素のために前記抽象奥行きマップに基づいて前記計算装置によって一のプロキシ奥行きを計算することと、
    前記計算装置が、前記プロキシ奥行きを使用して前記字幕要素に対する一のレンダリング属性を決定することと、
    前記レンダリング属性を前記計算装置から出力することと、
    前記レンダリング属性を使用して前記字幕要素をレンダリングすることにより前記字幕要素を一の3D表示装置に表示することと
    を含む方法。
  2. 前記右目抽象画像及び前記左目抽象画像から前記抽象奥行きマップを前記計算装置によって計算することは、垂直サンプリング投影を使用して生成された一の抽象画像対から前記抽象奥行きマップを計算することを含み、
    前記抽象画像対は、
    一の左目画像シーケンスから生成された前記左目抽象画像と、
    一の右目画像シーケンスから生成された前記右目抽象画像と
    を含む、請求項1に記載の方法。
  3. 前記垂直サンプリング投影は、
    前記3D画像シーケンスにおける一のサンプリングラインを選択することと、
    複数画像ピクセルの一垂直列の少なくとも一のピクセルを前記サンプリングライン上の一点に投影することによって一の新ピクセルを生成することと
    を含み、
    前記新ピクセルは、選択された一の投影機能によって決定される一の値を含む、請求項2に記載の方法。
  4. 前記抽象画像対から前記抽象奥行きマップを計算することは、前記右目抽象画像及び前記左目抽象画像間の水平ピクセル格差を推定することを含む、請求項2に記載の方法。
  5. 前記字幕要素のための前記抽象奥行きマップに基づいて前記プロキシ奥行きを前記計算装置によって計算することは、
    一のディストグラムを使用することによる一の3D画像セグメントの時間的及び統計的ピクセル格差分布に基づいて前記プロキシ奥行きを決定することを含む、請求項1に記載の方法。
  6. 前記プロキシ奥行きは、前記字幕要素の一継続時間の間一定である、請求項1に記載の方法。
  7. 前記プロキシ奥行きは、前記字幕要素の一継続時間の間変化する、請求項1に記載の方法。
  8. 前記3D画像シーケンスの内容に基づいて前記字幕要素のテキストフォントサイズ又はテキストフォント色の少なくとも一を変化させることをさらに含む、請求項1に記載の方法。
  9. 事前設定しきい値よりも大きな一の値を有する、時間的に隣接する複数の字幕要素間の一の奥行き変化を特定することと、
    前記特定に応じて奥行き値を修正することと
    をさらにむ、請求項1に記載の方法。
  10. 前記レンダリング属性は、前記字幕要素の奥行き、前記字幕要素の色、前記字幕要素のフォントスタイル、前記字幕要素のフォントサイズ、及び前記字幕要素のスクリーン位置の少なくとも一つを含む、請求項1に記載の方法。
  11. 前記レンダリング属性は、前記字幕要素の色であって、
    前記色は、前記字幕要素と3D画像シーケンスの前記内容とを区別するべく3D画像シーケンスの内容に基づいて修正される、請求項10に記載の方法。
  12. 前記プロキシ奥行きは、前記字幕要素が表示される前記3D画像シーケンスの内容の少なくとも一部の前記右目抽象画像及び前記左目抽象画像間の最大格差よりも大きな格差値を含む、請求項1に記載の方法。
  13. 前記3D画像シーケンスはエンコード化された3D画像シーケンスである、請求項1に記載の方法。
  14. 前記プロキシ奥行きを計算するべく、前記エンコード化された3D画像シーケンスをデコードすることをさらに含む、請求項13に記載の方法。
  15. 前記エンコード化された3D画像シーケンスはデジタルシネマパッケージ(DCP)形式又はビデオ形式の一である、請求項13に記載の方法。
  16. 前記エンコード化された3D画像シーケンスは、前記プロキシ奥行きを計算するJPEGベースのエンコーディング情報の複数パケットの一部を使用して少なくとも部分的にデコードされたDCP形式3D画像シーケンスである、請求項15に記載の方法。
  17. 前記レンダリング属性を3D字幕ファイルとして格納することと、
    前記3D字幕ファイルを前記3D画像シーケンスと別個に与えることと
    をさらに含む、請求項1に記載の方法。
  18. 前記レンダリング属性及び前記3D画像シーケンスを一のデータファイルパッケージに格納することと、
    前記データファイルパッケージを与えることと
    をさらに含む、請求項1に記載の方法。
  19. 3次元(3D)動画を提示するシステムであって、
    (i)複数のモジュールが格納された一のコンピュータ可読媒体と、(ii)前記コンピュータ可読媒体に格納された複数のモジュールを実行することができる一のプロセッサとを含む計算装置と、
    一の3D表示装置と
    を含み、
    前記モジュールは、前記計算装置に複数のアクションを行わせるべく前記プロセッサにより実行可能であり、
    前記モジュールは、
    タイミング情報に基づいて一の字幕要素を3D画像シーケンスの一の継続時間にわたる複数画像フレームの一のセグメントと関連付けるべく構成された一の時間窓選択モジュールであって、前記字幕要素は前記タイミング情報に関連付けられた一の時間窓選択モジュールと、
    前記字幕要素に関連付けられた前記セグメントから一の抽象奥行きマップを、前記セグメントから一の右目抽象画像を生成し、かつ、前記セグメントから一の左目抽象画像を生成することによって計算するべく構成された一の抽象奥行き計算モジュールであって、前記右目抽象画像は、前記セグメントの複数の右目画像を表し、前記左目抽象画像は、前記セグメントの複数の左目画像を表す一の抽象奥行き計算モジュールと、
    前記字幕要素のために前記抽象奥行きマップに基づいて一のプロキシ奥行きを計算するべく構成された一のプロキシ奥行き決定モジュールと、
    前記プロキシ奥行きマップを使用して前記字幕要素に対する一のレンダリング属性を決定するべく構成された一のレンダリング属性計算モジュールと
    を含み、
    前記3D表示装置は、前記レンダリング属性を使用して前記字幕要素をレンダリングすることにより前記字幕要素を表示するシステム。
  20. 前記抽象奥行き計算モジュールは、垂直サンプリング投影を使用して一の抽象画像対から前記抽象奥行きマップを計算することによって、前記字幕要素に関連付けられた前記セグメントから前記抽象奥行きマップを計算するべく構成され、
    前記抽象画像対は、
    一の左目画像シーケンスから生成された前記左目抽象画像と、
    一の右目画像シーケンスから生成された前記右目抽象画像と
    を含む、請求項19に記載のシステム。
  21. 前記計算装置と通信する一のサーバ装置であって、前記字幕要素に対する前記レンダリング属性を使用して前記字幕要素を前記3D画像シーケンスでレンダリングするべく構成されたサーバ装置と、
    前記サーバ装置と通信する一の表示装置であって、前記レンダリング属性を使用して前記字幕要素を表示し、及び前記3D画像シーケンスで前記字幕要素を表示するべく構成された表示装置と
    をさらに含む、請求項19に記載のシステム。
  22. 前記サーバ装置は前記計算装置を含む、請求項21に記載のシステム。
  23. 前記サーバ装置は、前記字幕要素を前記3D画像シーケンスでレンダリングする前に前記3D画像シーケンスをデコードするべく構成された一の画像デコーダを含む、請求項21に記載のシステム。
  24. 前記計算装置は、前記レンダリング属性を一の3D字幕ファイルとして又は一のメタデータとして格納するべく構成され、
    前記サーバ装置は、前記3D字幕ファイル又はメタデータとして格納された前記レンダリング属性から一の制御コマンドを生成するべく構成された一の字幕コントローラを含み、
    前記制御コマンドは、前記3D画像シーケンスに前記字幕要素をスーパーインポーズするべく一の字幕レンダリングモジュールによって使用される、請求項21に記載のシステム。
  25. 前記3D画像シーケンスはエンコード化形式であり、
    前記モジュールは、前記エンコード化形式の前記3D画像シーケンスをデコードするべく構成された一の画像デコーディングモジュールをさらに含む、請求項19に記載のシステム。
  26. 前記レンダリング属性は、前記字幕要素の奥行き、前記字幕要素の色、前記字幕要素のフォントスタイル、前記字幕要素のフォントサイズ、及び前記字幕要素のスクリーン位置の少なくとも一つを含む、請求項19に記載のシステム。
  27. 3次元(3D)動画を提示するべく計算装置に複数のアクションを行わせるべくプロセッサによって実行可能なコンピュータプログラムであって、
    前記アクションは、
    前記計算装置が、前記計算装置が受け取った一の字幕要素を前記字幕要素のためのタイミング情報に基づいて一の3D画像シーケンスの一の継続時間にわたる複数画像フレームの一のセグメントに関連付けることと、
    前記計算装置が、前記字幕要素に関連付けられた前記3D画像シーケンスの前記セグメントの内容の少なくとも一部の奥行きに基づいて前記字幕要素のための一のレンダリング属性を、前記セグメントから一の右目抽象画像を生成し、前記セグメントから一の左目抽象画像を生成し、前記右目抽象画像及び前記左目抽象画像から一の抽象奥行きマップを計算し、並びに前記抽象奥行きマップから計算された一のプロキシ奥行きを使用することによって計算することであって、前記右目抽象画像は、前記セグメントの複数の右目画像を表し、前記左目抽象画像は、前記セグメントの複数の左目画像を表すことと、
    前記レンダリング属性を前記計算装置から出力することと、
    前記レンダリング属性を使用して前記字幕要素をレンダリングすることにより前記字幕要素を一の3D表示装置に表示することと
    を含むコンピュータプログラム。
  28. 前記アクションは、前記計算装置が、前記字幕要素のための前記レンダリング属性を使用して前記字幕要素を前記3D画像シーケンスでレンダリングすることをさらに含む、請求項27に記載のコンピュータプログラム。
  29. 前記字幕要素のための前記レンダリング属性を使用して前記字幕要素を前記3D画像シーケンスでレンダリングすることは、
    前記レンダリング属性に応じて一の見かけの奥行きにおいて前記3D画像シーケンスに前記字幕要素をスーパーインポーズすることを含む、請求項28に記載のコンピュータプログラム。
  30. 前記アクションは、
    前記計算装置に含まれる字幕コントローラが、前記字幕要素のための前記レンダリング属性に基づいて一の制御コマンドを与えることと、
    前記計算装置に含まれる字幕レンダリングモジュールが、前記字幕コントローラから前記制御コマンドを受け取ることに応じて前記字幕要素を前記3D画像シーケンスでレンダリングすることと
    をさらに含む、請求項27に記載のコンピュータプログラム。
  31. 前記レンダリング属性は、前記字幕要素の奥行き、前記字幕要素の色、前記字幕要素のフォントスタイル、前記字幕要素のフォントサイズ、及び前記字幕要素のスクリーン位置の少なくとも一つを含む、請求項27に記載のコンピュータプログラム。
  32. 前記右目抽象画像及び前記左目抽象画像は、前記セグメントのすべての画像における一の前景に対応する一の物体の動きを表す、請求項1に記載の方法。
  33. 前記右目抽象画像を生成すること及び前記左目抽象画像を生成することは、前記セグメントの複数の画像における一の前景に対応する一の物体の動きを表す前記右目抽象画像及び前記左目抽象画像を生成することを含む、請求項1に記載の方法。
  34. 前記抽象奥行きマップは、前記セグメントの前記複数の画像における前記前景に対応する前記物体の奥行きの変化を含む、請求項33に記載の方法。
JP2011538072A 2008-12-01 2009-12-01 内容順応情報を有する3次元動画提示方法及びシステム Active JP5577348B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US20072508P 2008-12-01 2008-12-01
US61/200,725 2008-12-01
PCT/IB2009/007614 WO2010064118A1 (en) 2008-12-01 2009-12-01 Methods and systems for presenting three-dimensional motion pictures with content adaptive information

Publications (2)

Publication Number Publication Date
JP2012510750A JP2012510750A (ja) 2012-05-10
JP5577348B2 true JP5577348B2 (ja) 2014-08-20

Family

ID=41698228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011538072A Active JP5577348B2 (ja) 2008-12-01 2009-12-01 内容順応情報を有する3次元動画提示方法及びシステム

Country Status (7)

Country Link
US (1) US9013551B2 (ja)
EP (1) EP2356818B1 (ja)
JP (1) JP5577348B2 (ja)
CN (1) CN102232294B (ja)
CA (1) CA2743569C (ja)
RU (1) RU2546546C2 (ja)
WO (1) WO2010064118A1 (ja)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9013551B2 (en) 2008-12-01 2015-04-21 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
RU2538335C2 (ru) * 2009-02-17 2015-01-10 Конинклейке Филипс Электроникс Н.В. Объединение данных 3d изображения и графических данных
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
US9215435B2 (en) * 2009-06-24 2015-12-15 Dolby Laboratories Licensing Corp. Method for embedding subtitles and/or graphic overlays in a 3D or multi-view video data
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
JP2011030182A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5429034B2 (ja) 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5407957B2 (ja) 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
JP2011030180A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5402715B2 (ja) * 2009-06-29 2014-01-29 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5407968B2 (ja) 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
EP2460360A1 (en) * 2009-07-27 2012-06-06 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
US9049431B2 (en) * 2009-12-31 2015-06-02 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US10462414B2 (en) * 2009-12-31 2019-10-29 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US9215444B2 (en) 2010-01-11 2015-12-15 Lg Electronics Inc. Broadcasting receiver and method for displaying 3D images
KR20120123087A (ko) * 2010-01-13 2012-11-07 톰슨 라이센싱 3d 텍스트를 3d 콘텐츠와 결합하기 위한 시스템 및 방법
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
US20120320153A1 (en) * 2010-02-25 2012-12-20 Jesus Barcons-Palau Disparity estimation for stereoscopic subtitling
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
JP2011199389A (ja) * 2010-03-17 2011-10-06 Sony Corp 画像処理装置、画像変換方法、およびプログラム
US20110227911A1 (en) * 2010-03-22 2011-09-22 Lg Electronics Inc. Image display device and method for operating the same
JP2011211450A (ja) * 2010-03-30 2011-10-20 Victor Co Of Japan Ltd 立体映像表示装置、立体映像撮像装置および立体映像表示方法
CA2795021C (en) 2010-03-31 2020-06-16 Thomson Licensing 3d disparity maps
JP6068329B2 (ja) * 2010-04-01 2017-01-25 トムソン ライセンシングThomson Licensing 立体表示用のサブタイトルを生成する方法及びシステム
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
CN102281452A (zh) * 2010-06-13 2011-12-14 深圳Tcl新技术有限公司 一种3d电视上改变菜单会聚位置的方法
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
US20130120544A1 (en) * 2010-07-21 2013-05-16 Thomson Licensing Method and device for providing supplementary content in 3d communication system
US9571811B2 (en) 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
KR101691034B1 (ko) * 2010-08-03 2016-12-29 삼성전자주식회사 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법
US10134150B2 (en) * 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
JP5150698B2 (ja) 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
US20130182072A1 (en) * 2010-10-01 2013-07-18 Samsung Electronics Co., Ltd. Display apparatus, signal processing apparatus and methods thereof for stable display of three-dimensional objects
KR20120037858A (ko) * 2010-10-12 2012-04-20 삼성전자주식회사 입체영상표시장치 및 그 ui 제공 방법
US20120092364A1 (en) * 2010-10-14 2012-04-19 Microsoft Corporation Presenting two-dimensional elements in three-dimensional stereo applications
KR20120042313A (ko) * 2010-10-25 2012-05-03 삼성전자주식회사 입체영상표시장치 및 그 영상표시방법
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2012120143A (ja) * 2010-11-10 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI491244B (zh) 2010-11-23 2015-07-01 Mstar Semiconductor Inc 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置
US9712804B2 (en) 2010-12-03 2017-07-18 Lg Electronics Inc. Receiving device and method for receiving multiview three-dimensional broadcast signal
TWI538475B (zh) * 2010-12-03 2016-06-11 皇家飛利浦電子股份有限公司 用於輸出一個三維影像信號之3d源裝置、用於接收該三維影像信號之3d標的裝置、產生及消耗該三維影像信號之方法、及電腦程式產品
CN102487447B (zh) * 2010-12-06 2015-10-14 晨星软件研发(深圳)有限公司 调整物件三维深度的方法与装置、以及检测物件三维深度的方法与装置
JP5117565B2 (ja) * 2010-12-13 2013-01-16 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
GB2488746B (en) * 2010-12-23 2016-10-26 Samsung Electronics Co Ltd Improvements to subtitles for three dimensional video transmission
US20120162394A1 (en) * 2010-12-23 2012-06-28 Tektronix, Inc. Displays for easy visualizing of 3d disparity data
WO2012101916A1 (ja) * 2011-01-25 2012-08-02 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
JP5673172B2 (ja) * 2011-02-09 2015-02-18 ソニー株式会社 電子機器、電子機器における立体画像情報送信方法、および電子機器における立体画像情報受信方法
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
JP2012174237A (ja) * 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
EP2495979A1 (en) * 2011-03-01 2012-09-05 Thomson Licensing Method, reproduction apparatus and system for display of stereoscopic 3D video information
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
CN102724412B (zh) * 2011-05-09 2015-02-18 新奥特(北京)视频技术有限公司 一种通过像素赋值实现字幕特效的方法及系统
EP2715661B1 (en) 2011-05-26 2017-10-11 Thomson Licensing Scale-independent maps
EP2536160B1 (en) * 2011-06-14 2018-09-26 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof
CA2839256C (en) * 2011-06-21 2017-07-11 Lg Electronics Inc. Method and apparatus for processing broadcast signal for 3-dimensional broadcast service
KR101975247B1 (ko) * 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
JP2013090019A (ja) * 2011-10-14 2013-05-13 Hitachi Consumer Electronics Co Ltd 映像出力装置および映像出力方法
EP2587818B1 (en) 2011-10-27 2016-08-10 Samsung Electronics Co., Ltd. Multi-view device of display apparatus and control method thereof, and display system
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
FR2985838B1 (fr) * 2012-01-18 2014-02-07 Antoine Simkine Procede de sauvegarde d'un contenu cinematographique numerique.
CN103294453B (zh) * 2012-02-24 2017-02-22 华为技术有限公司 图像处理方法和图像处理设备
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
CN103475831A (zh) * 2012-06-06 2013-12-25 晨星软件研发(深圳)有限公司 应用于显示装置的字幕控制方法与元件
WO2014024649A1 (ja) * 2012-08-06 2014-02-13 ソニー株式会社 画像表示装置および画像表示方法
WO2014037603A1 (en) * 2012-09-06 2014-03-13 Nokia Corporation An apparatus, a method and a computer program for image processing
TWI569648B (zh) * 2012-09-27 2017-02-01 晨星半導體股份有限公司 顯示方法與顯示裝置
CN102892019B (zh) * 2012-10-09 2014-11-05 深圳市掌网立体时代视讯技术有限公司 一种立体图像视差自动调整方法及装置
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
CN104063207B (zh) * 2013-03-20 2018-11-09 腾讯科技(深圳)有限公司 一种逻辑窗口的点击命中方法及系统
US9762889B2 (en) * 2013-05-08 2017-09-12 Sony Corporation Subtitle detection for stereoscopic video contents
CN103826114B (zh) * 2013-11-15 2017-04-19 青岛海信电器股份有限公司 一种立体显示方法及自由立体显示装置
JP2016001464A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
US10582269B2 (en) 2014-07-11 2020-03-03 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
EP3169072A4 (en) * 2014-07-11 2017-11-15 LG Electronics Inc. -1- Method and device for transmitting and receiving broadcast signal
US10368144B2 (en) 2014-07-29 2019-07-30 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
WO2016036012A1 (ko) * 2014-09-04 2016-03-10 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
WO2016060415A1 (ko) * 2014-10-12 2016-04-21 엘지전자 주식회사 Xml 서브타이틀의 트릭 플레이를 위한 방송 신호 송수신 방법 및 장치
CN104392633B (zh) * 2014-11-12 2020-08-25 国家电网公司 一种面向电力系统仿真培训的讲解控制方法
US10595099B2 (en) * 2015-04-05 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal for broadcast service on basis of XML subtitle
JP2016001476A (ja) * 2015-07-10 2016-01-07 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
US10237591B2 (en) * 2015-09-09 2019-03-19 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
GB2548346B (en) * 2016-03-11 2020-11-18 Sony Interactive Entertainment Europe Ltd Image processing method and apparatus
TWI728061B (zh) * 2016-03-15 2021-05-21 日商新力股份有限公司 送訊裝置及收訊裝置
US11076112B2 (en) * 2016-09-30 2021-07-27 Lenovo (Singapore) Pte. Ltd. Systems and methods to present closed captioning using augmented reality
CN106331690A (zh) * 2016-10-17 2017-01-11 南京通孚轻纺有限公司 一种3d弹幕的实现方法以及实现装置
CN106600527A (zh) * 2016-12-19 2017-04-26 广东威创视讯科技股份有限公司 一种图像嵌入自适应颜色文字的方法及装置
WO2018207045A1 (en) * 2017-05-10 2018-11-15 Within Unlimited, Inc. Placement and dynamic rendering of caption information in virtual reality video
US10373362B2 (en) * 2017-07-06 2019-08-06 Humaneyes Technologies Ltd. Systems and methods for adaptive stitching of digital images
US10299008B1 (en) * 2017-11-21 2019-05-21 International Business Machines Corporation Smart closed caption positioning system for video content
CN109561263A (zh) * 2018-11-23 2019-04-02 重庆爱奇艺智能科技有限公司 在vr设备的3d视频中实现3d字幕效果
CN111476872B (zh) * 2019-01-23 2022-10-11 华为技术有限公司 一种图像绘制方法及图像绘制装置
US11295497B2 (en) 2019-11-25 2022-04-05 International Business Machines Corporation Dynamic subtitle enhancement

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744701B2 (ja) * 1986-12-27 1995-05-15 日本放送協会 立体ス−パ−インポ−ズ装置
US5175616A (en) 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
JP2765402B2 (ja) 1992-10-07 1998-06-18 日本電気株式会社 光ヘッド装置
US5793470A (en) 1995-05-22 1998-08-11 The Walt Disney Company Latent-image projection system and method
CN1260970C (zh) * 1996-05-09 2006-06-21 松下电器产业株式会社 用于多媒体光盘的记录方法、再生装置及再生方法
US6292305B1 (en) 1997-08-25 2001-09-18 Ricoh Company, Ltd. Virtual screen display device
US6453459B1 (en) 1998-01-21 2002-09-17 Apple Computer, Inc. Menu authoring system and method for automatically performing low-level DVD configuration functions and thereby ease an author's job
US6160909A (en) 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
IL127791A (en) * 1998-04-21 2003-06-24 Ibm System and method for selecting and accessing portions of information stream(s) from a television
US6819395B2 (en) 2002-08-30 2004-11-16 Texas Instruments Incorporated Digital cinema transport stream with embedded projector configuration data
US6466208B1 (en) 1999-12-20 2002-10-15 Silicon Integrated Systems Corporation Apparatus and method for adjusting 3D stereo video transformation
JP4590686B2 (ja) * 2000-05-12 2010-12-01 ソニー株式会社 立体画像表示装置
US7800043B2 (en) 2000-09-15 2010-09-21 Night Vision Corporation Night vision goggles with detachable or reattachable modular components
US7099951B2 (en) 2001-05-24 2006-08-29 Vixs, Inc. Method and apparatus for multimedia system
US6678588B2 (en) 2002-04-12 2004-01-13 Honeywell International Inc. Terrain augmented 3D flight path display for flight management systems
JP4134027B2 (ja) * 2002-04-25 2008-08-13 シャープ株式会社 画像符号化装置、画像復号装置、及び画像記録装置
US20040085260A1 (en) 2002-11-05 2004-05-06 Mcdavid Louis C. Multi-lingual display apparatus and method
JP4188968B2 (ja) * 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
US7139002B2 (en) 2003-08-01 2006-11-21 Microsoft Corporation Bandwidth-efficient processing of video images
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
WO2005086078A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for classifying an object
US7330593B2 (en) * 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
RU2007110904A (ru) * 2004-08-31 2008-10-10 Х3D Текнолоджиз ГмбХ (DE) Устройство для представления трехмерных изображений
US7563228B2 (en) * 2005-01-24 2009-07-21 Siemens Medical Solutions Usa, Inc. Stereoscopic three or four dimensional ultrasound imaging
US7755667B2 (en) * 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization
JP2006325165A (ja) 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
FR2888342B1 (fr) 2005-07-08 2007-08-24 Thales Sa Dispositif optoelectronique d'aide au roulage pour aeronef comportant une symbologie dediee
KR100813968B1 (ko) 2005-12-06 2008-03-14 삼성전자주식회사 디지털 멀티미디어 재생 장치 및 디지털 멀티미디어 재생장치에서 디지털 멀티미디어 방송을 제공하는 방법
JP2007193091A (ja) * 2006-01-19 2007-08-02 Taito Corp 文字輪郭色表示方式
US8074168B2 (en) * 2006-06-09 2011-12-06 Oracle America, Inc. Automated context-compensated rendering of text in a graphical environment
KR101377736B1 (ko) 2006-10-11 2014-03-24 코닌클리케 필립스 엔.브이. 3차원 그래픽 데이터의 생성
JP2008115222A (ja) 2006-11-01 2008-05-22 Mitsubishi Paper Mills Ltd 発色性インキ及びそれを用いた不可視情報印刷シート
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
EP2140688B1 (en) 2007-03-16 2010-06-23 Thomson Licensing System and method for combining text with three-dimensional content
JP2008236257A (ja) * 2007-03-19 2008-10-02 Toshiba Corp ビデオサーバ装置
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
US8471898B2 (en) * 2008-02-05 2013-06-25 Disney Enterprises, Inc. Medial axis decomposition of 2D objects to synthesize binocular depth
US9013551B2 (en) 2008-12-01 2015-04-21 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information

Also Published As

Publication number Publication date
WO2010064118A1 (en) 2010-06-10
RU2546546C2 (ru) 2015-04-10
JP2012510750A (ja) 2012-05-10
CN102232294B (zh) 2014-12-10
US9013551B2 (en) 2015-04-21
EP2356818B1 (en) 2016-04-13
CA2743569C (en) 2017-07-25
US20110242104A1 (en) 2011-10-06
CA2743569A1 (en) 2010-06-10
EP2356818A1 (en) 2011-08-17
CN102232294A (zh) 2011-11-02
RU2011126983A (ru) 2013-01-27

Similar Documents

Publication Publication Date Title
JP5577348B2 (ja) 内容順応情報を有する3次元動画提示方法及びシステム
CA2761974C (en) Insertion of 3d objects in a stereoscopic image at relative depth
KR101829345B1 (ko) 입체 컨텐츠의 3-차원적인 효과들을 요구에 맞추기 위한 방법 및 장치
US9036006B2 (en) Method and system for processing an input three dimensional video signal
US8390674B2 (en) Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
RU2554465C2 (ru) Комбинирование 3d видео и вспомогательных данных
RU2538335C2 (ru) Объединение данных 3d изображения и графических данных
EP3059948A1 (en) Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2011086283A (ja) 動的レンダリング用3次元ビデオキャプチャ・ワークフロー用のシステム及び方法
JP5851625B2 (ja) 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US20150304640A1 (en) Managing 3D Edge Effects On Autostereoscopic Displays
US20140085435A1 (en) Automatic conversion of a stereoscopic image in order to allow a simultaneous stereoscopic and monoscopic display of said image
Zhang et al. Stereoscopic visual attention-based regional bit allocation optimization for multiview video coding
US8416288B2 (en) Electronic apparatus and image processing method
US20130170817A1 (en) Video editing apparatus, video editing method, program, and integrated circuit
RU2632404C2 (ru) Данные сигнализации глубины
KR20110033007A (ko) 입체감 조절방법 및 조절장치와 이를 이용한 3d 비디오 인코더 및 3d 단말
EP4335108A1 (en) Systems and methods for processing volumetric images
Millin et al. Three dimensions via the Internet
Noor Multi-view with salient depth video via high efficiency video coding technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5577348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250