JP2014522596A - 3dコンテンツを再目標化するための方法およびデバイス - Google Patents

3dコンテンツを再目標化するための方法およびデバイス Download PDF

Info

Publication number
JP2014522596A
JP2014522596A JP2014513121A JP2014513121A JP2014522596A JP 2014522596 A JP2014522596 A JP 2014522596A JP 2014513121 A JP2014513121 A JP 2014513121A JP 2014513121 A JP2014513121 A JP 2014513121A JP 2014522596 A JP2014522596 A JP 2014522596A
Authority
JP
Japan
Prior art keywords
cropping window
view
map
region
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014513121A
Other languages
English (en)
Other versions
JP2014522596A5 (ja
JP6039657B2 (ja
Inventor
シャマレ クリステル
アーバン ファブリス
クワン ヒューン−トゥ タイ
シュヴェ ジャン−クロード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014522596A publication Critical patent/JP2014522596A/ja
Publication of JP2014522596A5 publication Critical patent/JP2014522596A5/ja
Application granted granted Critical
Publication of JP6039657B2 publication Critical patent/JP6039657B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、少なくとも第1のビューおよび第2のビューを含む3Dコンテンツをクロッピングする方法であって、第1のビューから第1の顕著性マップを、および第2のビューから第2の顕著性マップを決定するステップ(10、12)と、第1の顕著性マップおよび第2の顕著性マップから最終的なクロッピングウィンドウを決定するステップ(18、24、32)と、最終的なクロッピングウィンドウによって第1のビューおよび第2のビューをクロッピングするステップ(20)と、を含む、方法に関する。

Description

本発明は、3Dコンテンツの再目標化に関する。より詳細には、本発明は、少なくとも第1のビューおよび第2のビューを含む3Dコンテンツをクロッピングする方法に関する。
劇場での3D映画などの3Dスクリーンおよび題材の急増に起因して、シネマアスペクト比(2:35)からTVスクリーン(16:9)への3Dストリームの転写を可能にするためにアスペクト比変換に対するニーズが存在する。さらに誰でも、3D立体視ディスプレイをサポートするタブレット、スマートフォンなどの新しいデバイスの差し迫った出現を想像することが可能である。そのようなデバイスは、それら自体のアスペクト比をもたらすことになる。したがって、アスペクト比変換は、任意のデバイスに対処するために必須である。自動的な解決策は、視覚的快適性を最大化する高い価値がある。
欧州特許出願第04804828.4号明細書 欧州特許出願第05291938.8号明細書
J. van de Weijer 他、"Learning Color Names for Real-World Applications"、IEEE Transactions in Image Processing 2009、2009年 G. Welch、G. Bishop、"An introduction to the kalman filter"、Course 8、SIGGRAPH 2001、2001年
現在は、アスペクト比変換は、操作者により手動で(例えば中心に合わせたクロッピング)、またはすべてのフレームを同じ方途で処理することによって(例えばアナモルフィズム演算子、黒線充填)のいずれかで対処される。両方のタイプの方法は、変換を遂行するためにコンテンツ自体を考慮しない。
さらに、黒線付加は、映画がフルスクリーンで表示されることと比較されると、元の3D効果を強く低減する。
本発明は、従来技術の欠点の少なくとも1つを軽減することに向けられたものである。本発明は、少なくとも第1のビューおよび第2のビューを含む3Dコンテンツをクロッピングする方法であって、
− 前記第1のビューから第1の顕著性マップを、および前記第2のビューから第2の顕著性マップを決定するステップと、
− 前記第1の顕著性マップおよび前記第2の顕著性マップから最終的なクロッピングウィンドウを決定するステップと、
− 前記最終的なクロッピングウィンドウによって前記第1のビューおよび前記第2のビューをクロッピングするステップと、
を含む、前記方法に関する。
第1の実施形態によると、前記第1の顕著性マップおよび前記第2の顕著性マップから前記最終的なクロッピングウィンドウを決定する前記ステップは、
− 前記第1の顕著性マップから第1のクロッピングウィンドウを決定するステップと、
− 前記第2の顕著性マップから第2のクロッピングウィンドウを決定するステップと、
− 前記第1のクロッピングウィンドウおよび前記第2のクロッピングウィンドウを前記最終的なクロッピングウィンドウに組み合わせるステップと、
を含む。
第2の実施形態によると、前記最終的なクロッピングウィンドウはパラメータにより識別され、前記方法は、
− 前記最終的なクロッピングウィンドウの前記パラメータを経時的にフィルタリングするステップと、
− 最終的なクロッピングウィンドウ境界が回避すべき領域を指示する禁止区域マップを決定するステップと、
− 前記最終的なクロッピングウィンドウのアスペクト比を、前記禁止区域マップを使用して目標アスペクト比に変換するステップと、
をさらに含む。
第2の実施形態の変形例によると、前記最終的なクロッピングウィンドウはパラメータにより識別され、前記方法は、
− 前記最終的なクロッピングウィンドウの前記パラメータを経時的にフィルタリングするステップと、
− 最終的なクロッピングウィンドウ境界が回避すべき領域を指示する禁止区域マップを決定するステップと、
− 前記最終的なクロッピングウィンドウのアスペクト比を、前記禁止区域マップおよびデプスマップを使用して目標アスペクト比に変換するステップと、
をさらに含む。
有利には、前記禁止区域マップを決定する前記ステップは、
− 前記少なくとも2つのビューのうちの1つを領域のセグメンテーションマップにセグメント化するステップと、
− 前記セグメンテーションマップの各々の領域に対して、前記少なくとも2つのビューのうちの前記1つの顕著性マップから顕著性値を計算するステップと、
− 各々の領域に対して計算された前記顕著性値を閾値処理して、禁止区域マップを形成するステップと、
を含む。
第3の実施形態によると、前記第1の顕著性マップおよび前記第2の顕著性マップから最終的なクロッピングウィンドウを決定する前記ステップは、
− 前記第1の顕著性マップおよび前記第2の顕著性マップを単一の顕著性マップに組み合わせるステップと、
− 前記単一の顕著性マップに基づいて前記最終的なクロッピングウィンドウを決定するステップと、
を含む。
本発明の他の特徴および利点は、その実施形態のいくつかの以下の説明によって明らかになることになり、この説明は、以下の図面と関連して行われる。
本発明の第1の実施形態による方法のフローチャートを図示する図である。 本発明の第1の実施形態の変形例による方法のフローチャートを図示する図である。 本発明の第2の実施形態による方法のフローチャートを図示する図である。 本発明の第3の実施形態による方法のフローチャートを図示する図である。 図3に図示されるフローチャートの第1の詳細を表す図である。 左から右に、ピクチャ、セグメンテーションマップ、顕著性マップ、および禁止区域マップを表す図である。 図3に図示されるフローチャートの別の詳細を表す図である。 ウィナーテイクオール(winner−take all)アルゴリズムを例示する図である。 クロッピングウィンドウをそれらのパラメータとともに表す図である。 ピクチャの顕著性マップ、ピクチャ上への第1のクロッピングウィンドウ、禁止区域マップ、および最終的なクロッピングウィンドウを表す図である。 本発明による再目標化デバイス2を図表で例示する図である。
本原理は、様々な形式のハードウェア、ソフトウェア、ファームウェア、特殊目的プロセッサー、またはそれらの組み合わせで実装することができることが理解されるべきである。好ましくは、本原理は、ハードウェアおよびソフトウェアの組み合わせとして実現することができる。さらに、ソフトウェアは、好ましくはプログラム格納デバイス上で有形に実施されるアプリケーションプログラムとして実装される。アプリケーションプログラムは、任意の適したアーキテクチャを備える機械にアップロードする、およびその機械により実行することが可能である。好ましくは、機械は、1または複数の中央処理装置(CPU)、ランダムアクセスメモリ(RAM)、および入力/出力(I/O)インターフェース(複数可)などのハードウェアを有するコンピュータプラットフォーム上で実装される。コンピュータプラットフォームは、オペレーティングシステムおよびマイクロ命令コードをさらに含む。本明細書で説明される様々な処理および機能は、オペレーティングシステムによって実行される、マイクロ命令コードの一部、またはアプリケーションプログラムの一部(またはそれらの組み合わせ)のいずれかとすることができる。加えて、追加的なデータ格納デバイスおよび印刷デバイスなど、様々な他の周辺デバイスがコンピュータプラットフォームに接続することができる。
本発明は、再目標化手段を備える任意の電子デバイス上で実現することができる。例えば本発明は、テレビ、携帯テレビ電話、PDA、パーソナルコンピュータ、ディジタルビデオカメラ、ナビゲーションシステム、または自動車ビデオシステムにおいて実現することができる。
本発明は、3Dコンテンツを再目標化するための方法に関する。3つの実施形態が本明細書で開示される。2つの最初の実施形態は、2D再目標化方法の拡張である。新しいステップが、容認可能な3D品質を確実にするために追加される。第3の実施形態は、3Dコンテンツ専用の再目標化方法である。3Dコンテンツは、左のビューおよび右のビューから作製される。しかし本発明は、2つよりも多いビューに拡張することができる。以下では、クロッピングウィンドウが、その左上および右下の画素の座標、または、その中心の座標ならびにその高さおよび幅のいずれかである、そのパラメータにより識別される。
すべての実施形態はクロッピングベースであり、すなわち、関心領域とも名付けられた最も重要なコンテンツを伴う元のビューの画素のサブ区域が抽出される。さらに最終的なクロッピングウィンドウは、この最終的なクロッピングウィンドウの決定が各々のビューのコンテンツに基づく場合であっても、左および右のビューに対して同一である。
いくつかの実施形態は、視覚的注意モデルを参照する。この視覚的注意モデルは、どの区域/画素がビューの中で最も視覚的に誘引性が高いかを指示する顕著性マップ(グレーレベルマップ)を提供する。そのような顕著性マップは、ピクチャ内の関心領域を決定するために使用することができる。そのような視覚的注意モデルの例が、2005年6月30日に公開された特許文献1で開示されている。顕著性マップを提供する他の視覚的注意モデルが使用される場合がある。本発明は、特許文献1で開示されたモデルに何ら制限されない。
図1aは、第1の実施形態による、左および右のビューを含む3Dコンテンツを再目標化する方法を表す。それは、各々のビューで1つのクロッピングウィンドウを得るために、独立して各々のビューに通常の2D再フレーミングを適用するステップと、次いで、各々のビューに適用されることになる最終的なクロッピングウィンドウを得るために、3Dコンテンツに関係付けられるいくつかの制約を考慮することによりすべてのクロッピングウィンドウを組み合わせるステップとを含む。
この目的のために、ステップ10では、第1の関心領域ROI1が左のビューで決定され、ステップ12では、第2の関心領域ROI2が右のビューで決定される。
ステップ14では、左のクロッピングウィンドウが第1の関心領域ROI1から決定され、右のクロッピングウィンドウが第2の関心領域から決定される。左のクロッピングウィンドウは、例えば第1の関心領域を包含する最小のウィンドウであり、右のクロッピングウィンドウは、第2の関心領域を包含する最小のウィンドウである。
ステップ18では、左および右のクロッピングウィンドウが、平滑化されたクロッピングウィンドウに組み合わされる。このステップの間、3Dコンテンツに結び付けられた以下の制約が考慮され、すなわち、左および右のクロッピングされたビューの間では垂直視差が許されず、各々のビューのクロッピングウィンドウは、同じ高さおよび同じ垂直座標を有する。
クロッピングウィンドウ組み合わせ(CombineCroppingWindow)ステップ18は、ステップ14および16で別々に各々のビューに適用された2D再フレーミングに対する結果を入手し、2つのクロッピングウィンドウを、中心座標が(xsmooth,ysmooth)であり、サイズ(高さおよび幅)が(hsmooth,wsmooth)である平滑化されたクロッピングウィンドウに数学的に組み合わせる。(xleft,yleft)は左のクロッピングウィンドウの中心座標であり、(xright,yright)は右のクロッピングウィンドウの中心座標である。(hleft,wleft)は左のクロッピングウィンドウの高さおよび幅であり、(hright,wright)は右のクロッピングウィンドウの高さおよび幅である。
変形例によると、最小値および最大値が式(8)のように入手される。同じクロッピングウィンドウが、両方のビューに適用される。したがって、左および右のクロップビューの間に垂直視差は存在しない。
平滑化されたクロッピングウィンドウを決定するための別の方途は、どのクロッピングウィンドウが、その内側で利用可能な顕著性量を最大化するかを決定することである。クロッピングウィンドウ座標は、以下の式で説明されるように、2つのビューの間で初期に決定される最小のxおよびy座標、ならびに最大のxおよびy座標から変動する。
ただし、x1min<x1<x1max;y1min<y1<y1max;x2min<x2<x2max;y2min<y2<y2max
SMleft(x,y)は左のビューでの画素(x,y)の顕著性値であり、SMright(x,y)は右のビューでの画素(x,y)の顕著性値である。(x1,y1)は平滑なクロッピングウィンドウの左上の画素の座標であり、(x2,y2)は平滑なクロッピングウィンドウの右下の画素の座標である。(x1left,y1left)は左のクロッピングウィンドウの左上の画素の座標であり、(x2left,y2left)は左のクロッピングウィンドウの右下の画素の座標である。(x1right,y1right)は右のクロッピングウィンドウの左上の画素の座標であり、(x2right,y2left)は左のクロッピングウィンドウの右下の画素の座標である。
ステップ20では、左および右の両方のビューが、平滑化されたクロッピングウィンドウにより範囲設定された部分を各々のビューで抽出することにより、左のクロップビューおよび右のクロップビューにクロッピングされる。
第1の実施形態は、実装するのが簡単かつ早い。
図1bは、第1の実施形態の特定の実装による、左および右のビューを含む3Dコンテンツを再目標化する方法を表す。それは、各々のビューで1つのクロッピングウィンドウを得るために、独立して各々のビューに通常の2D再フレーミングを適用するステップと、次いで、各々のビューに適用されることになる最終的なクロッピングウィンドウを得るために、3Dコンテンツに関係付けられるいくつかの制約を考慮することによりすべてのクロッピングウィンドウを組み合わせるステップとを含む。この特定の実装では、第1および第2の関心領域が顕著性マップを使用して決定される。
この目的のために、ステップ10では、左の顕著性マップが左のビューに対して決定され、ステップ12では、右の顕著性マップが右のビューに対して決定される。両方の顕著性マップは、例えば特許文献1のモデルを使用して決定される。したがって、顕著性マップは、ピクチャ内の顕著な領域を指示する。
ステップ14では、左のクロッピングウィンドウが左の顕著性マップに基づいて決定され、ステップ16では、右のクロッピングウィンドウが右の顕著性マップに基づいて決定される。各々のクロッピングウィンドウの位置は、そのCropWind座標により対応するビューで識別される。クロッピングウィンドウは、例えば2007年3月21日に公開された特許文献2で開示された再フレーミング方法の1つを使用して決定される。例として、最も顕著な画素は顕著性マップで識別される、すなわち顕著性マップ内部でのその顕著性値は最も高い。予め規定されたサイズの第1のウィンドウは、その中心がこの最も顕著な画素上に配置されるようにビュー内で位置決めされる。第1のウィンドウに関連付けられる顕著性値SM1およびビューに関連付けられる顕著性値SMviewが計算される。比
が1に近い、すなわち閾値Tより高いならば(例えばΨ≧0.8であるならば)、ビューに対するクロッピングウィンドウは第1のウィンドウである。Ψが1に近くない、すなわちTより低いならば、第1のウィンドウと同じサイズの第2のウィンドウが、その中心が、第1のウィンドウの外側に配置されるビューの最も顕著な画素上に配置されるようにビュー内で位置決めされる。第2のウィンドウに関連付けられる顕著性値SM2が計算される。比
が1に近いならば、ビューに対するクロッピングウィンドウは、第1および第2のウィンドウを含む、より小さなウィンドウである。比Ψが1に近くないならば、第3のウィンドウは、その中心が最初の2つのウィンドウの外側に配置されるビューの第3の最も顕著な画素上に配置されるようにビュー内で位置決めされる。3つのウィンドウに関連付けられる3つの顕著性値の和と顕著性値SMviewとの間の比が1と比較される。それが1に近いならば、ビューに対するクロッピングウィンドウは、3つのウィンドウを含む、より小さなウィンドウである。それが1に近くないならば、各々の位置決めされたウィンドウに関連付けられる顕著性値の和とSMviewとの間の比が1に近くなるまで、新しいウィンドウを位置決めする処理が繰り返される。したがって各々の反復kでは、新しいウィンドウが、その中心が、すでに位置決めされたウィンドウの外側に配置される最も顕著な画素(k)上に配置されるようにビュー内で位置決めされる。したがって、ビューに対するクロッピングウィンドウは、すべての位置決めされたウィンドウを含む、より小さなウィンドウである。他の方法が使用される場合があり、本発明は、顕著性マップに基づくクロッピングウィンドウの位置を決定するためのこの方法に何ら制限されない。
ステップ18では、左および右のクロッピングウィンドウが、平滑化されたクロッピングウィンドウに組み合わされる。このステップの間、3Dコンテンツにリンク付けられた以下の制約が考慮され、すなわち、左および右のクロッピングされたビューの間では、垂直視差が許されず、各々のビューのクロッピングウィンドウは、同じ高さおよび同じ垂直座標を有する。
クロッピングウィンドウ組み合わせステップ18は、ステップ14および16で別々に各々のビューに適用された2D再フレーミングに対する結果を入手し、2つのクロッピングウィンドウを、中心座標が(xsmooth,ysmooth)であり、サイズ(高さおよび幅)が(hsmooth,wsmooth)である平滑化されたクロッピングウィンドウに数学的に組み合わせる。(xleft,yleft)は左のクロッピングウィンドウの中心座標であり、(xright,yright)は右のクロッピングウィンドウの中心座標である。(hleft,wleft)は左のクロッピングウィンドウの高さおよび幅であり、(hright,wright)は右のクロッピングウィンドウの高さおよび幅である。
変形例によると、最小値および最大値が式(8)のように入手される。同じクロッピングウィンドウが、両方のビューに適用される。したがって、左および右のクロップビューの間に垂直視差は存在しない。
平滑化されたクロッピングウィンドウを決定するための別の方途は、どのクロッピングウィンドウが、その内側で利用可能な顕著性量を最大化するかを決定することである。クロッピングウィンドウ座標は、以下の式で説明されるように、2つのビューの間で初期に決定される最小のxおよびy座標、ならびに最大のxおよびy座標から変動する。
ただし、x1min<x1<x1max;y1min<y1<y1max;x2min<x2<x2max;y2min<y2<y2max
SMleft(x,y)は左のビューでの画素(x,y)の顕著性値であり、SMright(x,y)は右のビューでの画素(x,y)の顕著性値である。(x1,y1)は平滑なクロッピングウィンドウの左上の画素の座標であり、(x2,y2)は平滑なクロッピングウィンドウの右下の画素の座標である。(x1left,y1left)は左のクロッピングウィンドウの左上の画素の座標であり、(x2left,y2left)は左のクロッピングウィンドウの右下の画素の座標である。(x1right,y1right)は右のクロッピングウィンドウの左上の画素の座標であり、(x2right,y2left)は左のクロッピングウィンドウの右下の画素の座標である。
ステップ20では、左および右の両方のビューが、平滑化されたクロッピングウィンドウにより範囲設定された部分を各々のビューで抽出することにより、左のクロップビューおよび右のクロップビューにクロッピングされる。
第1の実施形態は、実装するのが簡単かつ早い。
図2は第2の実施形態を表す。第1の実施形態のステップと同一のステップは、同じ参照番号によって図2で識別される。
ステップ10では、左の顕著性マップが左のビューに対して決定され、ステップ12では、右の顕著性マップが右のビューに対して決定される。
ステップ22では、各々のビューに対する視覚的注意モデルから生じる2つの顕著性マップが、3D顕著性情報を顕著性マップの2D表現によって記述する、一意的な顕著性マップに組み合わされる。VAM3Dに対する組み合わせ(CombineForVAM3D)ステップ22は、2つの顕著性マップに存在する共通の区域を強調表示して、一意的な2D顕著性マップを生成する。ステップ22の間に、両方の顕著性マップは、2つのビューで共通して顕著である一部の区域を強調表示する2Dマップである一意的な顕著性マップ(SaliencyMap_3Dlike)に統合される。例として、SaliencyMap_3Dlike内の画素(x,y)に対する顕著性値SM3Dlike(x,y)は次式のように規定される。
(3) SM3Dlike(x,y)=α・SMleft(x,y)+β・SMright(x,y)
ただし、
であり、SMleft(x,y)は左の顕著性マップ内の画素(x,y)の顕著性値であり、SMright(x,y)は右の顕著性マップ内の画素(x,y)の顕著性値であり、DM(x,y)は場所(x,y)でのデプス値である。
ステップ24では、平滑化されたクロッピングウィンドウが、SaliencyMap_3Dlikeに基づいて決定される。ステップ24は例えば、顕著性マップがSaliencyMap_3Dlikeであることを除けばステップ14または16と同一である。
ステップ20では、左および右の両方のビューが、平滑化されたクロッピングウィンドウにより範囲設定された部分を各々のビューで抽出することにより、左のクロップビューおよび右のクロップビューにクロッピングされる。
図3は第3の実施形態を表す。この実施形態は3Dコンテンツ専用である。クロッピングウィンドウ拡張に関する決定は、場合によってはデプスマップを使用する。3次元データは、平滑化されたクロッピングウィンドウを決定するために使用される。
第1の実施形態のステップと同一のステップは、同じ参照番号によって図2で識別される。
ステップ10では、第1の関心領域ROI1が左のビューで決定され、ステップ12では、第2の関心領域ROI2が右のビューで決定される。変形例によると、左の顕著性マップが左のビューに対して決定され、ステップ12では、右の顕著性マップが右のビューに対して決定される。
ステップ30では、禁止区域マップ生成(CreateForbiddenAreaMap)と呼ばれるステップが、マップを再フレーミング3Dステップ32に提供し、ステップ32は、いくつかの3D制約の尊重、すなわち物体が、この物体がスクリーンの前面にある場合はクロッピングウィンドウの境界上にあることが許されないということを確実にする。実際、人間脳はそのことを処置することができない。禁止区域マップが、左または右のいずれかでビューのうちの1つから生成される。図3および図4では、禁止区域マップが左のビューから生成されるが、同じことを右のビューから行うことができる。
ステップ30は、図4で詳細に説明される。それは、物体(図5での右の画像の白色画素)上などの、クロッピングウィンドウを配置することができない禁止区域マップを規定する。
ステップ300では、非特許文献1で開示されているような色セグメンテーションアルゴリズムが、セグメンテーションマップを得るために使用される。セグメンテーションマップを提供する任意の他の方法が使用される場合がある。セグメンテーションマップは、ビューのうちの1つに適用される。
ステップ302では、顕著性値が、セグメンテーションマップ内で識別される各々の色領域に対して計算される。例として、与えられた領域に属する画素の顕著性値が平均される。平均化された値が、領域の顕著性値とみなされる。
ステップ304では、領域の顕著性値が閾値処理される。領域の顕著性量(または顕著性の平均)が閾値Tを上回るならば(閾値処理ステップ)、最終的な禁止マップがこの領域では1(または255、白色画素)にセットされる。禁止物体を伴うそのような白黒マップが、図5に表される。以下の式は、適応性のある閾値Tの計算を要約したものである。
ただしμおよびσは、それぞれ領域Rの平均および標準偏差である。μおよびσは、セグメンテーションのために使用されるビューに関連付けられる顕著性マップから計算される。
ステップ32では、平滑化されたクロッピングウィンドウが決定される。このステップ32は、図6で詳細に説明される。
ステップ322では、第1のクロッピングウィンドウが、独立して各々のビューに対して決定される。ステップ322の目標は、各々のビューに対して、ステップ10および12で決定される関心領域、または、その顕著性マップSM(x,y)からの幅Wおよび高さHの検討されているビューS(x,y)の最も目立つ部分のいずれかを囲むクロッピングウィンドウを規定することである。この目的のために、クロッピングウィンドウは、場合によっては第1および第2の関心領域を囲む最小のウィンドウである。
多くの2D再フレーミング方法を適用することが可能である。例として顕著性マップは最初に、最も顕著な区域を識別するために2値化される。閾値より大きな顕著性値を有する画素は、2値化されたマップにおいて255にセットされる。すべての識別された顕著な区域、すなわち白色画素を含む最小のウィンドウが第1のクロッピングウィンドウである。
変形例によると、ウィナーテイクオールアルゴリズムが、W×H個の候補の中から1<k<KであるK個の区域Aを選択するために、特別の目的をもって用いられる。この選択は2つのステップから構成される。第1に、ビューS(x,y)が画素単位で走査され、各々の画素位置p(x,y)で、第2の特徴がピクチャの中心に対する現在の画素のユークリッド距離であるような特徴ベクトル
が計算される。最も高い顕著性値および中心に対する最小距離を有する最初のK個の画素を伴うサブセットMが、式(4)により説明されるように計算される。第2に、第kの候補Cが配置かつ記憶されるとき、Aに含まれる画素を意味するその近傍は、第(k+1)の候補Ck+1を決定するために抑制される。Aは、視角の1度に等しい半径を有する円内の画素のセットである。近傍のサイズは視距離によって決まる。視距離が遠くなるほど、近傍のサイズは大きくなる。
顕著性マップは最大値での多くの画素を有する場合があり、したがってピクチャの中心により近い画素が優遇される。シーン中心のバイアスが重要な役割を有し、観察者は、顕著性がヌルである場合でもシーンの中心の付近を凝視する傾向がある。
反復数(または換言すれば数K)に関しては、クロッピングウィンドウのサイズへのこのパラメータの影響を明白にすることが重要である。反復数がわずかである(または換言すれば、場所の数Kがわずかである)ならば、おそらくクロッピングウィンドウのサイズは小さくなる。それとは反対に、大きな数の反復は、より大きな境界ボックスをおそらく確実にすることになる。この方法は好都合であるように思われるが、1つの特徴、すなわち、顕著性マップ内の顕著の分布が明らかに無視されている。この特徴は、2つの異なる画像を表す図7によって例示される。実際、顕著性の分布(または平均観察者変動性)は、風景のピクチャに関してはおそらく点在する状態である。換言すれば、ピークの顕著性と平均背景レベルとの間の分離が重要である。明らかに突出するものがない風景の画像に関しては、顕著性の分布はより均一である。この場合、K個の最初の場所を選択することが、誤りを含む結果をもたらす可能性がある。この問題を解決するために、反復が、境界ボックスにより囲まれる顕著の分量によりモニターされる。したがってKは、前の区域A1…kにより包含される顕著性量SQにより制約される。関係式(3)が検証されない一方で、反復処理は継続する。Kは、
であるように、クロッピングウィンドウ内にPパーセントの顕著性を有するために調整される。
Pは、0<P<1であるような、マップの全顕著性量SQtotalに適用される最大の量である。そのようなクロッピングウィンドウの例が、図7に例示される。
ステップ324では、左および右のクロッピングウィンドウが、左上の座標(xLR,yLR)、高さhLR、および幅wLRの中間クロッピングウィンドウに組み合わされる。左および右のクロッピングウィンドウの組み合わせは、各々のxおよびy成分にmaxおよびmin演算子を適用することにより行われる。
別の解決策は、クロッピングウィンドウ組み合わせモジュールの式(1)の解を適用することである。
ステップ326では、クロッピングウィンドウのパラメータ(位置、サイズ)が経時的にフィルタリングされる。このステップは、時間的整合性(temporal consistency)と呼ばれる。時間的整合性は、クロッピングウィンドウの位置およびサイズの両方に作用し、経時的な中間クロッピングウィンドウ座標/サイズの安定化を含む。時間はインデックスiにより識別される。時間的整合性は、例えば2つの順次的なステップ、すなわちカルマンフィルタリングおよび非線形フィルタリングを含む。
カルマンフィルターは、現在のサンプルの軌跡をより良好に予測するために最初に適用される。カルマンフィルターは、興味を起こさせる再帰的な性質により特徴付けられる。(ウィーナーフィルターが行うことになるように)推定を提供するために前のデータのすべてに関して作動するのではなく、カルマンフィルターは、長期間の前のデータを必要としない。カルマンフィルターは、予測される出力と実際の出力との間の平均二乗誤差が最小化される線形システムである。カルマンフィルターは、予測誤差を最小化するために、システム内部の不正確さの2つの固有の発生源、すなわちプロセスノイズWおよび測定ノイズVを考慮する。以下の式ではXは、座標(x LR,y LR)のベクトルを、およびクロッピングウィンドウサイズ(w LR,h LR)を表象する一般名である。カルマンフィルターは、状態(式9)および測定式(式10)により規定される。
(10) X=A.Xi−1+W
(11) Z=H.X+V
ここでAは一定の遷移マトリックスであり、Hもまた一定の測定マトリックスである。
WおよびV(マトリックス1×2)は、それぞれプロセスノイズおよび測定ノイズを表す。それらは独立しており、白色であり、正規確率を伴うと仮定される。それらは経験的にセットされ、関連付けられたノイズ共分散マトリックスが、RおよびQにより与えられる。カルマンフィルタリングは、非特許文献2において詳細に説明されている。
プロセスノイズの決定は非常に困難である。本研究では、プロセスノイズ共分散は一定である。不確実性が高くなるほど、フィルターは高速に収束する。クロッピングウィンドウは、新しい顕著性変化に高速に適応する傾向を有することになる。フィルターは、それがカメラの動きに近いように考えるべきであるので、適度に高速に収束しなければならない。
メジアンフィルタリングは、ありそうにないサンプルを回避することを可能にする改善である。カルマンフィルター単独の使用は、現実的な効果を得るのに充分ではない。非線形フィルタリングが、邪魔になる場合がある軌跡の短い増大または減少を(水平または/および垂直に)除去するために適用される。フレームにわたる長い軌跡が、自然なカメラの動きをシミュレートするために優遇される。各々のフィルタリングは、クロッピングウィンドウCWLR (xLR,yLR,wLR,hLR)の中心座標およびサイズに独立して適用される。このステップの結果は、平滑な空間軌跡およびサイズを伴うクロッピングウィンドウCWTC (xTC,yTC,wTC,hTC)=(xsmooth,ysmooth,wsmooth,hsmooth)である。
ステップ328では、アスペクト比変換が適用される。使用される異なる変数および表記が図8に例示される。クロッピングウィンドウは、1つの方向もしくは別の方向に、または異なる比率で各々の方向にさえ拡張される。再目標化は、それがさらにデプスマップに基づくため立体的である。動機は、クロッピングウィンドウにより「切断」されることになる境界または強い視差を回避することである。関心を引き起こす解決策は、同じ視差を伴ういくつかの物体を完全に含むまたは排除することである。
顕著性マップから抽出される中間ウィンドウのサイズと、ユーザセッティングまたはアプリケーションにより規定される最終的なアスペクト比との間に関係は存在しない(コンジョイント分析は存在しない)。実際、ステップ322は、再目標化アプリケーションのアスペクト比とは完全に無相関である(図7に表されるような)顕著性ピークの境界Akに続いて、最も重要な領域の正確な推定を遂行する。異方性の拡張が、現在の比RSMに応じた方向でクロッピングウィンドウCWSM (xSM,ySM,wSM,hSM)を拡張することによりクロッピングウィンドウサイズを精密にする。拡張は、目標とされるアスペクト比RTGを達成するための、幅または高さのいずれかに関するものである。
が目標アスペクト比であり、
が中間クロッピングウィンドウのアスペクト比であると仮定する。
TG>RSMである場合、水平の拡張が(現在の長方形の幅に関して)実行され、そうでない場合、垂直の拡張が(現在の長方形の高さに関して)行われる。水平の拡張(または垂直の拡張のそれぞれ)を仮定すると、次式を規定することが可能である。
(14) hAR=hSM (またはwAR=wSMのそれぞれ)
AR=wSM+d (またはhAR=hSM+dのそれぞれ)
AR=xSM+d (またはxAR=xSMのそれぞれ)
AR=ySM (またはyAR=ySM+dのそれぞれ)
ただし、
およびwAR=wSM+dright+dleftである。
拡張の側が規定された後、ウィンドウを拡張するためのさらにいくつかの方途が存在する。換言すれば、drightおよびdleftは異なる様式で計算することができる。幅wSMが、最終的なアスペクト比を達成するために拡張されなければならないと仮定する。
デプスマップおよび/または禁止区域マップが、1つの方向または別の方向でクロッピングウィンドウを拡張するために使用される。
デプスマップは、使用されるケースに応じて、利用可能である場合があればそうでない場合もある。その結果として、アスペクト比変換ステップ328の2つの変形例、すなわち、デプスマップが利用可能でないときに使用されるもの、および、デプスマップが利用可能であるときのものが開示される。
デプスマップが利用可能でないとき、ステップ30の禁止区域マップのみが使用される。平滑化されたLRCoord(SmoothedLRCoord)ウィンドウの近辺の画素の列内の勾配の和(大域的な勾配すなわちGG)が、各々の拡張側の量および表現を特徴付けるために計算される。同じことが水平に適用することができる。最適なクロッピングウィンドウCW(xopt,yopt)が、以下の最小化の問題が(yopt=ySMと仮定して)解を有するときに見出される。
実際、(目標アスペクト比での)ウィンドウは、式(14)が最小化されるように、区間[xSM−dw−wSM/2;xSM−wSM/2]内で、x軸のもとで水平移動を行うことにより決定される。dは最大の拡張幅である。
対応するxminは、最適なクロッピングウィンドウの左側である。したがって、
opt=xSM+d(式(13)で規定されたd
left=xSM−xmin−wsm/2
right=d−dleft
である。
変形例によると、drightが、式(14)が最小化されるように、区間[xSM+wSM/2;xSM+dw+wSM/2]内で、x軸のもとで水平移動を行うことにより最初に決定される。
最小化問題に対する解が存在しないとき、拡張は各々の側に対して等しく行われ、このことはdleft=dright=d/2を意味する。
デプスマップが利用可能であるとき、両方のマップに関する信頼度Confが計算される。次いで、この信頼度は、最良のクロッピングウィンドウを見出すために最大化される。
(16) xmin=argmax[Conf
ただし、
実際、(目標アスペクト比での)ウィンドウは、式(15)が最大化されるように、区間[xSM−dw−wSM/2;xSM−wSM/2]内で、x軸のもとで水平移動を行うことにより決定される。dは最大の拡張幅である。
対応するxminは、最適なクロッピングウィンドウの左側である。したがって、
opt=xSM+d((13)で規定されたd
left=xSM−xmin−wsm/2
right=d−dleft
である。
変形例によると、drightが、式(15)が最大化されるように、区間[xSM+wSM/2;xSM+dw+wSM/2]内で、x軸のもとで水平移動を行うことにより最初に決定される。
ステップ20では、左および右の両方のビューが、平滑化されたクロッピングウィンドウにより範囲設定された部分を各々のビューで抽出することにより、左のクロップビューおよび右のクロップビューにクロッピングされる。
図9は、左上手側に顕著性マップを、右上側に第1の顕著性ピークおよび対応する第1のクロッピングウィンドウを表す(ステップ322)。左下側画像は、禁止区域マップ、および、最終的なクロッピングウィンドウとなるためにいくつかの量を最小化しなければならないスライディングウィンドウである。右下側は、物体の切断を回避するための最終的な左および右の選定された量を提示する。実際、禁止区域マップは、最終的なクロッピングウィンドウ境界が回避すべき領域を(白色で)指示する。
本発明による再目標化方法は、完全に自動的であり、シーンの大域的な理解に関して欠落している基本的な部分がない良好な最終的な品質を確実にし、黒線を用いる異形と比較して3D効果および没入型の体感を改善する。
本発明は有利には、以下のような多くのポストプロダクション作業に対してのものであり得る。
・アスペクト比変換のためのコンテンツ準備。TV所有者は、そのコンテンツが、キャッチアップTVおよびVODの場合でのインターネット、携帯TV、通常のTVチャネル…などのいくつかのサポートに対して再フォーマットされることを評価するであろう。
・blu−rayディスクのためのコンテンツ準備。劇場アスペクト比からTVアスペクト比へのアスペクト比変換が、blu−rayサポートの準備で必要とされる。
図10は、本発明による再目標化デバイス2を図表で例示する。再目標化デバイス2の本質的な要素のみが、図10に図示される。再目標化デバイス2は、アドレスおよびデータバス24により一体に接続される、
− マイクロプロセッサ(またはCPU)などの処理装置21と、
− ROM(読出し専用メモリ)タイプの不揮発性メモリ22と、
− ランダムアクセスメモリ(RAM)23と、
− 入力および出力インターフェース25と、
− 場合によってはマンマシンインターフェース26と、
を備える。
メモリ22および23の説明で使用される単語「レジスタ」は、述べられるメモリの各々において、低容量のメモリゾーン(いくらかのバイナリーデータ)および大容量のメモリゾーン(プログラム全体、または、受信されるオーディオ/ビデオサービスを表すデータの全部もしくは一部が格納されることを可能にする)を表すことが留意される。
不揮発性メモリ22は、本発明による再目標化方法のステップを実現するアルゴリズムを包含する。電源投入されるとき、処理装置21はこれらのアルゴリズムの命令をロードしランさせる。ランダムアクセスメモリ23は、デバイスの電源投入でロードされる処理装置21の動作プログラム、および、処理されることになる、すなわち再目標化されることになる画像を特に含む。入力/出力インターフェース25の機能は、入力信号(すなわち再フレーミングされることになる1または複数の画像)を受信し、本発明による方法のステップ10から20によって再目標化される1または複数の画像を発出することである。再目標化デバイス2のマンマシンインターフェース26は、操作者が、必要条件に適合しない再目標化誤りが発生すると直ちに処理を中断することをイネーブルする。このインターフェースは、操作者が、テキストゾーンおよび顔などの認知情報を、このインターフェースを使用して手動で識別することをさらにイネーブルにし得る。再目標化された画像は、ランダムアクセスメモリに格納され、次いで場合によっては、読出し専用メモリに転送されて、後続の処理動作の目的でアーカイブされる。マンマシンインターフェース26は、場合によっては制御パネル、例えばキーボードおよびディスプレイスクリーンを備える。
変形例によると、本発明に適合する再目標化デバイスは、純粋にハードウェアの実現によって、例えば専用構成要素(例えばASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、VLSI(超大規模集積回路))、もしくはデバイスに集積されたいくつかの電子構成要素の形式で、またはハードウェア要素およびソフトウェア要素の混合体の形式でも実装される。

Claims (12)

  1. 少なくとも第1のビューおよび第2のビューを含む3Dコンテンツを再目標化するための方法であって、
    − 前記第1のビューから第1の関心領域を、および前記第2のビューから第2の関心領域を決定するステップ(10、12)と、
    − 前記第1の関心領域から第1のクロッピングウィンドウを、および前記第2の関心領域から第2のクロッピングウィンドウを決定するステップ(14、322、16、322)と、
    − 前記第1のクロッピングウィンドウおよび前記第2のクロッピングウィンドウを最終的なクロッピングウィンドウに組み合わせるステップ(18、324)と、
    − 前記最終的なクロッピングウィンドウによって前記第1のビューおよび前記第2のビューをクロッピングするステップであって、前記クロッピングされた第1のビューおよび第2のビューが前記再目標化される3Dコンテンツを形成する、ステップ(20)と、
    を備える、前記方法。
  2. 前記最終的なクロッピングウィンドウはパラメータにより識別され、前記方法は、
    − 前記最終的なクロッピングウィンドウの前記パラメータを経時的にフィルタリングするステップ(326)と、
    − 最終的なクロッピングウィンドウ境界が回避すべき領域を指示する禁止区域マップを決定するステップ(30)と、
    − 前記禁止区域マップを使用して、前記最終的なクロッピングウィンドウのアスペクト比を目標アスペクト比に変換するステップ(328)と、
    をさらに含む、請求項1に記載の方法。
  3. 前記最終的なクロッピングウィンドウはパラメータにより識別され、前記方法は、
    − 前記最終的なクロッピングウィンドウの前記パラメータを経時的にフィルタリングするステップ(326)と、
    − 最終的なクロッピングウィンドウ境界が回避すべき領域を指示する禁止区域マップを決定するステップ(30)と、
    − 前記禁止区域マップおよびデプスマップを使用して、前記最終的なクロッピングウィンドウのアスペクト比を目標アスペクト比に変換するステップ(328)と、
    をさらに含む、請求項1に記載の方法。
  4. 前記禁止区域マップを決定する前記ステップ(30)は、
    − 前記少なくとも2つのビューのうちの1つを領域のセグメンテーションマップにセグメント化するステップ(300)と、
    − 前記セグメンテーションマップの各々の領域に対して、前記少なくとも2つのビューのうちの前記1つの顕著性マップから顕著性値を計算するステップ(302)と、
    − 各々の領域に対して計算された前記顕著性値を閾値処理して、禁止区域マップを形成するステップ(304)と、
    を含む、請求項2または3に記載の方法。
  5. 前記第1の関心領域および前記第2の関心領域を決定するステップ(10、12)は、第1の顕著性マップおよび第2の顕著性マップを決定するステップを含む、請求項1から4のいずれかに記載の方法。
  6. 少なくとも第1のビューおよび第2のビューを含む3Dコンテンツを再目標化するためのデバイスであって、
    − 前記第1のビューから第1の関心領域を、および前記第2のビューから第2の関心領域を決定するための手段と、
    − 前記第1の関心領域から第1のクロッピングウィンドウを、および前記第2の関心領域から第2のクロッピングウィンドウを決定する手段と、
    − 前記第1のクロッピングウィンドウおよび前記第2のクロッピングウィンドウを最終的なクロッピングウィンドウに組み合わせる手段と、
    − 前記最終的なクロッピングウィンドウによって前記第1のビューおよび前記第2のビューをクロッピングする手段であって、前記クロッピングされた第1のビューおよび第2のビューが前記再目標化される3Dコンテンツを形成する、手段と、
    を備える、前記デバイス。
  7. 前記最終的なクロッピングウィンドウはパラメータにより識別され、前記デバイスは、
    − 前記最終的なクロッピングウィンドウの前記パラメータを経時的にフィルタリングする手段と、
    − 最終的なクロッピングウィンドウ境界が回避すべき領域を指示する禁止区域マップを決定する手段と、
    − 前記禁止区域マップを使用して、前記最終的なクロッピングウィンドウのアスペクト比を目標アスペクト比に変換する手段と、
    をさらに備える、請求項6に記載のデバイス。
  8. 前記最終的なクロッピングウィンドウはパラメータにより識別され、方法は、
    − 前記最終的なクロッピングウィンドウの前記パラメータを経時的にフィルタリングする手段と、
    − 最終的なクロッピングウィンドウ境界が回避すべき領域を指示する禁止区域マップを決定する手段と、
    − 前記禁止区域マップおよびデプスマップを使用して、前記最終的なクロッピングウィンドウのアスペクト比を目標アスペクト比に変換する手段と、
    をさらに含む、請求項6に記載のデバイス。
  9. 前記禁止区域マップを決定する前記手段は、
    − 前記少なくとも2つのビューのうちの1つを領域のセグメンテーションマップにセグメント化する手段と、
    − 前記セグメンテーションマップの各々の領域に対して、前記少なくとも2つのビューのうちの前記1つの顕著性マップから顕著性値を計算する手段と、
    − 各々の領域に対して計算された前記顕著性値を閾値処理して、禁止区域マップを形成する手段と、
    を備える、請求項7または8に記載のデバイス。
  10. 前記関心領域は、顕著性マップを用いて決定される、請求項6から9のいずれかに記載のデバイス。
  11. プログラムコード命令を含むコンピュータプログラム製品であって、前記プログラムコード命令は、このプログラムがコンピュータ上で実行されるときに、請求項1から5のいずれかに記載の方法のステップを実行するためのものである、前記コンピュータプログラム製品。
  12. 少なくとも請求項1から5のいずれかに記載の方法のステップをプロセッサーに実行させるための命令が格納されたプロセッサー可読媒体。
JP2014513121A 2011-05-31 2012-05-23 3dコンテンツをリターゲティングするための方法およびデバイス Expired - Fee Related JP6039657B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11305661.8 2011-05-31
EP11305661A EP2530642A1 (en) 2011-05-31 2011-05-31 Method of cropping a 3D content
PCT/EP2012/059535 WO2012163743A1 (en) 2011-05-31 2012-05-23 Method and device for retargeting a 3d content

Publications (3)

Publication Number Publication Date
JP2014522596A true JP2014522596A (ja) 2014-09-04
JP2014522596A5 JP2014522596A5 (ja) 2016-07-07
JP6039657B2 JP6039657B2 (ja) 2016-12-07

Family

ID=44558272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014513121A Expired - Fee Related JP6039657B2 (ja) 2011-05-31 2012-05-23 3dコンテンツをリターゲティングするための方法およびデバイス

Country Status (7)

Country Link
US (1) US9743062B2 (ja)
EP (2) EP2530642A1 (ja)
JP (1) JP6039657B2 (ja)
KR (1) KR20140038436A (ja)
CN (1) CN103582900A (ja)
TW (1) TWI553590B (ja)
WO (1) WO2012163743A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017507557A (ja) * 2014-01-14 2017-03-16 アルカテル−ルーセント 高解像度の動画ストリームを自身の端末で視聴するユーザの体感品質を向上するためのプロセス

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626584B2 (en) * 2014-10-09 2017-04-18 Adobe Systems Incorporated Image cropping suggestion using multiple saliency maps
US9805445B2 (en) * 2014-10-27 2017-10-31 Adobe Systems Incorporated Image zooming
WO2016204481A1 (ko) * 2015-06-16 2016-12-22 엘지전자 주식회사 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
EP3223524A1 (en) 2016-03-22 2017-09-27 Thomson Licensing Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
EP3306928A1 (en) * 2016-10-07 2018-04-11 Thomson Licensing Method and apparatus for encoding a video
KR102676837B1 (ko) * 2016-12-16 2024-06-21 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20210398333A1 (en) * 2020-06-19 2021-12-23 Apple Inc. Smart Cropping of Images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072674A (ja) * 2003-08-27 2005-03-17 Sharp Corp 三次元画像生成装置および三次元画像生成システム
JP2007035038A (ja) * 2005-07-28 2007-02-08 Thomson Licensing ソース画像のシーケンスから低減された画像のシーケンスを生成する方法
JP2007189489A (ja) * 2006-01-13 2007-07-26 Ntt Comware Corp 立体映像処理装置並びにそのプログラム
JP2009212929A (ja) * 2008-03-05 2009-09-17 Fujifilm Corp 画像トリミング範囲の評価方法、装置およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3632529A1 (de) 1986-09-25 1988-04-07 Basf Ag Verfahren zur herstellung von aldehyden und/oder ketonen durch umsetzung von epoxiden
JPH0563978A (ja) 1991-08-30 1993-03-12 Toshiba Corp 画像読取装置
GB2372659A (en) 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
EP1544792A1 (en) 2003-12-18 2005-06-22 Thomson Licensing S.A. Device and method for creating a saliency map of an image
US7982809B2 (en) 2004-10-06 2011-07-19 Thomson Licensing Method and apparatus for providing a picture cropping function
EP1889171A4 (en) * 2005-04-07 2012-11-28 Visionsense Ltd METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT
EP1764736A1 (en) 2005-09-19 2007-03-21 Thomson Licensing Method and device for image cropping
TW200733741A (en) * 2006-02-20 2007-09-01 Inventec Appliances Corp Method for converting image screen specification for handheld multimedia playing device
WO2008028334A1 (en) 2006-09-01 2008-03-13 Thomson Licensing Method and device for adaptive video presentation
FR2912237A1 (fr) 2007-02-07 2008-08-08 Thomson Licensing Sas Procede de traitement d'image
US8824833B2 (en) * 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
TW200937344A (en) 2008-02-20 2009-09-01 Ind Tech Res Inst Parallel processing method for synthesizing an image with multi-view images
US9240056B2 (en) 2008-04-02 2016-01-19 Microsoft Technology Licensing, Llc Video retargeting
FR2929797A1 (fr) 2008-04-03 2009-10-09 Thomson Licensing Sas Procede et dispositif de codage d'une sequence d'images
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video
JP2011039801A (ja) * 2009-08-12 2011-02-24 Hitachi Ltd 画像処理装置および画像処理方法
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
US9142026B2 (en) * 2010-02-26 2015-09-22 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
US9591281B2 (en) * 2010-12-22 2017-03-07 Thomson Licensing Apparatus and method for determining a disparity estimate
FR2968108A1 (fr) 2011-06-20 2012-06-01 Thomson Licensing Procede de reduction de la taille d’une image stereoscopique
US8619082B1 (en) * 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072674A (ja) * 2003-08-27 2005-03-17 Sharp Corp 三次元画像生成装置および三次元画像生成システム
JP2007035038A (ja) * 2005-07-28 2007-02-08 Thomson Licensing ソース画像のシーケンスから低減された画像のシーケンスを生成する方法
JP2007189489A (ja) * 2006-01-13 2007-07-26 Ntt Comware Corp 立体映像処理装置並びにそのプログラム
JP2009212929A (ja) * 2008-03-05 2009-09-17 Fujifilm Corp 画像トリミング範囲の評価方法、装置およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016008993; Kei Utsugi et al: 'SEAM CARVING FOR STEREO IMAGES' 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video(3DTV-CON) , 20100607, pp.1-4, IEEE *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017507557A (ja) * 2014-01-14 2017-03-16 アルカテル−ルーセント 高解像度の動画ストリームを自身の端末で視聴するユーザの体感品質を向上するためのプロセス

Also Published As

Publication number Publication date
US9743062B2 (en) 2017-08-22
KR20140038436A (ko) 2014-03-28
TWI553590B (zh) 2016-10-11
WO2012163743A1 (en) 2012-12-06
CN103582900A (zh) 2014-02-12
EP2715660A1 (en) 2014-04-09
EP2530642A1 (en) 2012-12-05
JP6039657B2 (ja) 2016-12-07
TW201248545A (en) 2012-12-01
US20140232821A1 (en) 2014-08-21

Similar Documents

Publication Publication Date Title
JP6039657B2 (ja) 3dコンテンツをリターゲティングするための方法およびデバイス
JP2014522596A5 (ja)
EP2074586B1 (en) Image enhancement
US9076234B2 (en) Super-resolution method and apparatus for video image
US10026160B2 (en) Systems and techniques for automatic image haze removal across multiple video frames
JP6094863B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
EP2481023B1 (en) 2d to 3d video conversion
US20130063571A1 (en) Image processing apparatus and image processing method
US9508126B2 (en) Image haze removal using fast constrained transmission estimation
KR101584115B1 (ko) 시각적 관심맵 생성 장치 및 방법
EP2887306B1 (en) Image processing method and apparatus
JPWO2009051065A1 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
JP5703255B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10726524B2 (en) Low-resolution tile processing for real-time bokeh
US20230394833A1 (en) Method, system and computer readable media for object detection coverage estimation
US10089954B2 (en) Method for combined transformation of the scale and aspect ratio of a picture
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
US10298914B2 (en) Light field perception enhancement for integral display applications
CN110166798B (zh) 一种基于4k hdr编辑的下变换方法及装置
JP2019028912A (ja) 画像処理装置、画像処理方法
Chamaret et al. Video retargeting for stereoscopic content under 3D viewing constraints
KR101378190B1 (ko) 거리변환 기반 양측 보간을 이용하여 저 해상도 깊이 맵으로부터 고 해상도 깊이 맵을 생성하는 방법 및 이를 기록한 기록매체
CN104410929A (zh) 字幕图像的处理方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20160510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161104

R150 Certificate of patent or registration of utility model

Ref document number: 6039657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees