JP2018506198A - オブジェクト検出に基づき外挿画像を生成する方法及び装置 - Google Patents

オブジェクト検出に基づき外挿画像を生成する方法及び装置 Download PDF

Info

Publication number
JP2018506198A
JP2018506198A JP2017531507A JP2017531507A JP2018506198A JP 2018506198 A JP2018506198 A JP 2018506198A JP 2017531507 A JP2017531507 A JP 2017531507A JP 2017531507 A JP2017531507 A JP 2017531507A JP 2018506198 A JP2018506198 A JP 2018506198A
Authority
JP
Japan
Prior art keywords
image
extrapolated
generating
extrapolated image
salient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017531507A
Other languages
English (en)
Other versions
JP6672305B2 (ja
Inventor
アーバン,ファブリス
ギヨテル,フィリップ
ターバン,ロラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018506198A publication Critical patent/JP2018506198A/ja
Application granted granted Critical
Publication of JP6672305B2 publication Critical patent/JP6672305B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

既存のフィルム又はビデオコンテンツから、見る者の没入感を高めるようその既存のフィルム又はビデオコンテンツの境界を越えて表示され得る外挿画像を生成する方法及び装置が、提供される。本原理は、顕著なオブジェクト、すなわち、メインの画像から見る者の注意をそらし得るオブジェクトを含まないように外挿画像を生成することを提供する。そのような外挿画像は、顕著なエリアを特定し、その場所に含まれる顕著なオブジェクトがより少ないように外挿画像を生成することによって、生成される。代替的に、顕著なオブジェクトは、外挿画像において検出され、除去され得る。加えて、選択された顕著なオブジェクトは、外挿画像に加えられ得る。

Description

本発明は、画像を処理する装置及び方法に関係があり、特に、既存のフィルム又はビデオの境界を越えて延在する、その既存のフィルム又はビデオにおけるオブジェクトの検出に基づく外挿画像を生成する装置及び方法に関係がある。
本項目は、以下で記載及び/又は請求される本発明の様々な態様に関連し得る様々な側面を読者に紹介することを目的とする。この説明は、本発明の様々な態様のより良い理解を助けるよう読者に背景情報を提供するのに有用であると信じられる。然るに、それらの記述は、この観点から読まれるべきであり、先行技術の承認としてではない。
画像外挿技術は、フィルム又はビデオコンテンツを見ているときに見る者の没入感(immersiveness)を高めるよう、既存のフィルム又はビデオ画像の境界を越えて画像を生成するために使用され得る。画像外挿は、拡張されるべき画像内のコンテンツに基づき実施され得る。そのような拡張は、フィルム又はビデオのメイン画像とともに拡張画像により観客を囲むようスクリーンの周りにコンテンツを投影することによって視界を広げようとする。そのような外挿画像を表示する配置の一例は、図1に示される。フィルム又はビデオコンテンツからのメイン画像は、メインスクリーン110に表示され、一方、外挿画像は、没入感の印象を提供するよう表示エリア120、130及び/又は140でメインスクリーン110を越えて表示される。
画像は、図2及び3に示されるものを含め、種々の配置を用いて、様々な表示エリア上に投影され得る。図2では、単一の投影250がメインスクリーン110に表示され、投影250の部分が、スクリーン220、230及び/又は240に表示される。図3では、配置310は、中央の表示スクリーン上にフィルム又はビデオコンテンツを投影する中央投影を含み、一方、320は、左の表示スクリーン上に外挿画像を投影する左投影を含み、そして、330は、右の表示スクリーン上に外挿画像を投影する右投影を含む。図示されていないが、投影は、上の表示スクリーンのためにも設けられ得る。
境界又はフィルム若しくはビデオの周りに特定の表示若しくは画像を投影する様々なシステムが提案されている。
フィリップス・コーポレイションによって開発されたAmbilightシステム(特許文献1)では、画像内の色の分布が調べられ(特許文献2)、選択された主色が、TVの端に取り付けられたRGB LEDを用いてスクリーンの周りに投影される。スマート・ライト・バルブが装備に加えられてよく、スクリーン上で表示される画像に応じて色を変化させることができる。光投影は、限られた領域内でTVの周囲で行われ、背景の詳細も、形状も、モーション・インプレッションも提供しない。
Mills et al.によって提案されるシステム(非特許文献1)は、2つのカメラにより捕捉されるコンテンツのための投影システムを有する。しかし、このシステムは、コンテンツ生成に焦点を当てておらず、画像外挿を既存のコンテンツに適用しない。
MIT Media Labによって開発されたInfinity-by-nine(非特許文献2)は、TVのための没入型表示を生成することを狙う。システムは、TV画面に表示されるプログラムを強化するために3つのプロジェクタ及び3つのスクリーン(天井及び部屋の両側にある。)を使用する。追加のスクリーン上のコンテンツは、TVコンテンツからリアルタイムで計算される。コンテンツは、場面変化時に生成され、推定されるカメラの動きから更新される。この技術は動き推定に依存するので、高速に変化する場面、フラッシュを伴う場面、又は大きい動きを伴う画面にはそれほどうまく働くことができない。
マイクロソフトによって提案されるIllumiRoom(非特許文献3)は、テレビジョン・ディスプレイの周りに画像を投影することによってTVコンテンツを強化するためにKinectセンサ及びプロジェクタを使用する。それは、ゲーム内で起こることがプレイヤーの部屋でも起こるという錯覚を与えるよう没入型ゲームのために主に開発された。システムは、テレビジョン・ディスプレイを囲む家具及び壁の上に直接に画像を投影して、スクリーン上でメイン画像を越えて起こるイベントを伝える。しかし、このシステムは、画像外挿によるコンテンツ生成、すなわち、画像のコンテンツに基づく外挿、に対処しない。コンテンツは、主に、ゲーム・レンダラによってコンピュータ処理される。
Ultrawide Foveated Video Extrapolation(非特許文献4)技術は、中央の画像の周りにビデオコンテンツを外挿する。このアルゴリズムの重要な考えは、その境界の外にビデオを外挿するために空間及び時間の次元において(画像ブロックの代わりに、ビデオキューブを用いる。)パッチマッチ(Patch-Match)アルゴリズムを使用することである。右パッチを選択するとき、それらはまた、注意をそらさせる可能性が高いパッチ(すなわち、ビデオの外に多くのエッジを加えるパッチ)をペナライズ(penalize)する。使用されるパッチはまた、同じパッチの不自然な繰り返しを回避するよう、同様のコストを有する少数のパッチの中からランダムに選択される。計算を制限するよう、適合するパッチの検索は、満たされているピクセルに近い、当初の入力ビデオにおける特定のエリアに制限され、そして、検索エリアは、必要に応じて広げられる。このアルゴリズムは、1つのフレームを外挿するのに数分を要し、そのようなものとして、リアルタイムで実施するのが困難であり得る。アルゴリズムは、粗解像度(coarse resolution)で外挿を開始し、更なるステップで解像度を精緻化するマルチスケールアプローチを使用する。この技術は、滑らかな外挿を確かにするが、極めて計算集約的である。その上、エッジエリアのペナライゼーション(penalization)は、エッジが注意をそらさせるか否かを判定するために人間の視覚体系を考慮しない。外挿されたビデオは、いくらかの関連する構造がないことがある。
国際公開第2004/006570(A1)号 国際公開第2006/003600(A1)号
P. Mills, A. Sheikh, G. Thomas, and P. Debenham. BBC research & development, white paper WHP 208 − surround video. page 34. 2011. D. E. Novy. Computational immersive display. 2013. Jones, Brett R; Benko, Hrvoje; Ofek, Eyal; Wilson, Andrew D (2013). "IllumiRoom: Peripheral Projected Illusions for Interactive Experiences". 2013. A. Aides, T. Avraham, and Y. Schechner. Multiscale ultrawide foveated video extrapolation. In 2011 IEEE International Conference on Computational Photography (ICCP), pages 1-8. 2011. Sam Roweis & Lawrence Saul. Nonlinear dimensionality reduction by locally linear embedding. Science, v.290 no.5500, Dec.22, 2000. pp.2323-2326. Jun Yu, MD Srinath, An efficient method for scene cut detection, Pattern Recognition Letters, 2001, pp1379-1391. Paul L. Rosin, A simple method for detecting salient regions, Pattern Recognition 42(2009), pp2363−2371. S. Hare, A. Saffari, and P. H. S. Torr. Struck: Structured Output Tracking with Kernels. In ICCV, 2011. W. Zhong, H. Lu, and M.-H. Yang. Robust Object Tracking via Sparsity-based Collaborative Model. In CVPR, 2012. Patrick Perez, Michel Gangnet, Andrew Blake, "Poisson image editing", ACM Transactions on Graphics (SIGGRAPH), 2003. Michael Kalloniatis and Charles Luu, 2007, Visual Acuity
本原理は、原のフィルム及びビデオコンテンツから画像を外挿する装置及び方法での改善を対象とする。
1つの観点において、本原理は、画像の境界を越えて延在する外挿画像を生成する方法であって、前記画像にアクセスすることと、前記画像の部分から外挿画像を生成することとを有し、前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更することと含む、方法を提供する。
他の観点において、本原理は、画像の境界を越えて延在する外挿画像を生成する方法であって、前記画像にアクセスすることと、前記画像の部分から外挿画像を生成することと、視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別することと、前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにすることとを有する方法を提供する。
他の観点において、本原理は、画像の境界を越えて延在する外挿画像を生成する装置であって、前記画像にアクセスするよう構成される入力部と、前記入力部へ結合され、前記画像の部分から外挿画像を生成するよう構成される少なくとも1つのプロセッサであり、前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することを変更することとを含む、前記少なくとも1つのプロセッサと、前記外挿画像を出力するよう構成される出力部とを有する装置を提供する。
他の観点において、本原理は、画像の境界を越えて延在する外挿画像を生成する装置であって、前記画像にアクセスするよう構成される入力部と、前記画像の部分から外挿画像を生成し、視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別し、前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにするよう構成される少なくとも1つのプロセッサと、前記変更された外挿画像を出力するよう構成される出力部とを有する装置を提供する。
加えて、本原理は、非一時的なコンピュータ可読記憶媒体において記憶されているコンピュータプログラム製品であって、上記の方法を実施するコンピュータ実行可能命令を有するコンピュータプログラム製品を提供する。
加えて、上記の実施形態は、空間フィルタリング及び時間フィルタリングの適用並びに外挿画像への選択されたオブジェクトの付加の特徴を含み得る。
添付の図面とともに本発明の実施形態の以下の説明を参照して、本発明の上記及び他の特徴及び利点、並びにそれらを実現する様態は、より明らかになり、本発明は、より良く理解されるだろう。
フィルム及び/又はビデオ表示の境界を越えて外挿画像を表示する配置の例を示す。 画像を様々な表示スクリーン上に投影する配置の例を示す。 画像を様々な表示スクリーン上に投影する配置の例を示す。 原画像と、該原画像の左右の境界を越えて生成及び表示される外挿画像とを含む画像の例を表す。 原画像と、該原画像の左右の境界を越えて生成及び表示される外挿画像とを含む画像の例を表し、原ビデオからの複数のフレームが使用される。 本原理に従って外挿画像を生成する態様を表す。 本原理に従って画像におけるオブジェクト検出の態様を表す。 本原理に従って外挿画像を生成するプロセスの例を表す。 本原理に従って外挿画像を生成及び/又は処理する装置の例を表す。 本明細書で示される記載は、本原理の様々な態様を実装する実施形態の例を説明する。そのような例は、如何なる方法でも特許請求の範囲の適用範囲を制限するものと解釈されるべきではない。
記載される実施形態は:
− 視覚的注意モデルを使用することによって外挿プロセスにおいてビデオの注意をそらさせる部分を回避し、具体的には、原フィルム又はビデオにおける注意をそらさせる可能性があるオブジェクトが検出され、それらの注意をそらさせる可能性があるオブジェクトが外挿画像に含まれないようにし、外挿画像は、注意をそらさせるオブジェクトなしで生成され得るか、あるいは、外挿画像は、注意をそらさせるオブジェクトを取り除くよう変更され得;
− 外挿のための入力コンテンツとして複数のリファレンス及びロングターム・リファレンスを使用し;
− より粗い外挿プロセスを許しながら滑らかな外挿を確かにするために空間時間フィルタリングを使用し;
− トラッキング及び軌跡推定を用いて、後処理ステップにおいて、動いているオブジェクトを加え;
− 見る者の注意をそらさない、HVSに従う画像を作成するために、人間の視覚体系を考慮し、特に、周辺視野における動いているオブジェクトへの感度が利用される
改善された画像外挿装置及び方法を提供しようとする。
図4は、原画像410に基づき生成された外挿画像420及び430を有する画像の例を表す。夫々の外挿画像は異なっており、原画像410の左右両方の境界を越えて原画像を広げるように生成されていることが分かる。
[顕著性を意識した(saliency-aware)外挿]
本原理に従って、原画像の顕著な部分、すなわち、それらの部分が外挿又は周囲画像において含まれる場合に見る者の注意をそらさせ得る部分は、外挿画像において一貫しない動きを伴った注意をそらさせるエリアの出現を回避するようそれらの部分が外挿画像において隠されるか又は含まれないという意味で、ペナライズされる。顕著(salient)とは、オブジェクトが見る者の目を引きうる特徴を指し示し得る。そのように目を引くことは、無意識に起こり、見る者の注意をそらし得る。本原理の他の態様では、識別された顕著なオブジェクトは、以下で更に記載されるように、適切な軌跡を有して外挿画像に後に加えられ得る。
A(x,t)は、フレームtのピクセルxが顕著である程度を表す、0から1の間に正規化された顕著性マップ(saliency map)である。顕著性(saliency)は、視覚的注意モデル、例えば、Le Meur, et al.によって2004年12月14日付けで出願された欧州特許第1695288(B1)号で提案されているもの、を用いて計算され得る。なお、この特許文献の開示は、その全文を参照により本願に援用される。
本原理に従って、実施形態は、顕著なオブジェクトが現れ得る外挿画像のエリアを特定し、顕著なオブジェクトを含めずに外挿画像を生成する。欠けたエリアが再構成されている外挿画像は、例えば、Urban, et al.によって“Apparatus and Method for Generating an Extrapolated Image using a Recursive Hierarchical Process”と題された特許出願(代理人整理番号PF140347)において記載された技術を用いて、生成され得る。なお、この特許文献の開示は、その全文を参照により本願に援用される。
実施形態において、Urban, et al.によって記載された外挿技術は、ブロックマッチングプロセスの間に原画像において顕著なエリアをペナライズするよう変更され、それにより、外挿画像は、顕著なオブジェクトを含めずに生成される。よって、顕著なエリアが画像を外挿するために使用されない場合には、注意をそらさせる部分は外挿画像に存在しない。
ブロックマッチング又はパッチマッチ検索で使用されるマッチング指標(又はスコア)は、以下で説明されるように顕著性を含む。そのようなものとして、画像の顕著な部分は、ブロックマッチングのためのリファレンスとしてペナライズされ、外挿画像には、それほど注意をそらさないエリアが現れる。
パッチマッチ技術は、欠けたエリアを再構成するために使用され得る。Sからの既存のピクセル及び新しいピクセルの両方を含むブロックMを構築するために、コストrは最小限にされる:

r(S)=SSD(Sa,Ma)+λ×A(S)

上記の式で、SSDは、例えば、Lab色空間又はRGB色空間における、絶対差の和であり、Maは、ブロックの既に計算された部分であり、Saは、Maの形状に対応する既存のブロックSの部分であり、λは、顕著性(λ=100)の影響を制御する重みである。
選択されたブロックSは、前述の式を最小限にする1つである:
上記の式で、Ωは、既存の画像における検索窓である。
アルゴリズムの拡張として、ブロックMは、渾然一体とされたn個のマッチングブロックSiから構築され得る。ベストマッチSiのソートされたリストは、前述の式(すなわち、r(S)の最小化。Si≠Sj∀i≠j,Si∈Ω)を用いて構成される。ブロックMは、ブロックSiの結合によって得られる:
ブロックSiの結合も、重み付けされ得る:
上記の式で、重みbiは、LLE最適化(非特許文献5)を通じて学習される。
改善として、整合性のあるブロックのみが使用されることを確かにするために、高すぎるスコア(r(Si)≧q)を有するブロックSは、拒否され得る:
[複数のリファレンスフレーム]
前の又は次のフレームにおいて完全に現れる画像の境界においてオブジェクトの部分を再構成するために、検索空間Ωは、前述の技術を用いて、いくつかの隣接フレームへ広げられ得る。
遅い動きの場合において、多数の隣接フレームは、オブジェクトが完全に現れるために必要であり得る。検索時間を削減するために、Ωは、以下のアルゴリズムを用いて適切に選択され得る。そのアルゴリズムでは、リファレンスフレームは、完全な検索を回避するよう選択され、選択されたフレームは、パッチマッチ・スキームにおいて使用される:
− アルゴリズムは、フレームがシーンによってグループ化されるショット検出のステップを有する。シーンは、2つのシーンカットの間の連続したフレームによって定義される(非特許文献6)。
− 多くてもn個の画像が、等しく間隔をあけられた画像を選択することによって、シーンにおいて選択される。
− 改善は、十分に異なる画像のみを保持することにある。SSDは、2つの候補画像の間で計算される。SSDが閾値を下回る場合には、画像が互いに近すぎることを意味し、一方のみが保持される。これは、必要とされない場合に計算を加速させるよう検索画像を減らすことを可能にする。
[空間時間平滑化]
視野の周囲において、人間の視覚体系は、動き及びブリンキング(blinking)効果に敏感である。しかし、それは、色及び解像度には非常に低い感度を有している。
注意をそらさせる、好ましくない、動いているオブジェクトは、前述の、顕著性を意識したフィルタリングのおかげで、既に回避される。その上、ブリンキング・アーチファクトは、時間フィルタを用いて低減される。時間フィルタは、例えば、時間次元において適用されるガウシアン平滑化(Gaussian smoothing)である。結果として現れるピクセルは、前のフレーム及び次のフレームにおけるコロケートされたピクセルの線形結合から計算され、重みは、中央のピクセルの周りのガウス分布によって定義される。
その上、外挿画像が過度に注意をそらさせることを回避するよう、空間平滑化フィルタも空間次元で適用され得る。観察者が正面スクリーンに自身の注意を保っている間は、平滑化は知覚できない。なぜなら、観察者は視野の周囲にある詳細を見ず、それはサイド投影がユーザの注意を引くことを妨げるからである。
20°の偏心での視力は、中心視のそれの10分の1であるとする(非特許文献11)。これは、3メートル幅スクリーンの正面から4メートルに位置する観察者にとってスクリーンの端に対応する。これは、周囲スクリーンにおける解像度が中央の解像度の10分の1であるはずであることを意味する。従って、空間フィルタリングで使用されるガウシアンフィルタは、拡張の結果として現れる解像度及びその投影が中央表示と同じであることを考えれば、σ=(10/π)ピクセルの標準偏差を有するはずである。このとき、最大周波数はピクセルごとに1/2周期である。それらのパラメータは、結果として現れる拡張及び投影が中心表示から変化する場合には、適応されるべきである。
代替の実施形態では、Urban, et al.の外挿技術は、外挿画像を最初に生成するために使用される。外挿画像は、次いで、顕著なオブジェクトが外挿画像に含まれるかどうかを、例えば、顕著性マップを用いて、特定するよう解析される。外挿画像が顕著なオブジェクトを含むと認められる場合には、顕著なオブジェクトは取り除かれ得、外挿画像の欠けたエリアは、インペインティング(inpainting)又はUrban, et al.の改良された技術を用いて満たされ得る。これは、既に計算された外挿画像の後処理と見なされ得る。
[オブジェクト挿入及び軌跡外挿]
外挿画像又はサイドコンテンツが自動的に又は何らかのエディタによって手動でスムース・バックグランド(smooth background)により生成されると、正面スクリーンに入る又はそれから出る適切な軌跡を持った動いているオブジェクトを加えることが望ましいことがある。本項目は、これが完全に自動で又はユーザ入力を用いて如何にして行われ得るかを説明する。
関心のあるオブジェクトは、オブジェクトの周りの長方形又は閉じられた輪郭を定義することによって手動で選択され得る。関心のあるオブジェクトの検出は、例えば、図7における顕著性マップを使用することによって、行われる。図7におけるオブジェクト710は、外挿された画像部分617に隣接する画像部分615におけるオブジェクト650に対応する。画像部分606及び外挿された画像部分607を有する画像600は、参照符号620によって示される、外挿画像に含まれているオブジェクト650を示す。オブジェクト650は、手動で又は、例えば、非特許文献7で記載される1つのような、ブロブ(blob)検出器を用いて、選択され得る。
オブジェクトの軌跡を推定するよう、トラッカ(tracker)が次いで使用され、選択ステップで定義されたエリア上で初期化される。如何なるトラッカも使用され得、例えば、非特許文献8及び9で記載されたものが考えられる。トラッカは、フレームtにおけるオブジェクト中心位置:p(t)を推定するために使用される。トラッキングは、正面スクリーンから出る又はそれに入るオブジェクト軌跡を外挿することができるように、順方向及び逆方向において実施される。逆方向については、フレーム順序は逆にされ、次の式が変数変化を伴って依然として適用される。従って、正面スクリーンから出るオブジェクトの例のみが、以下では示される。
最初のステップは、トラッキングされるオブジェクトの中心位置のパラメータ軌跡p(t)=(x(t),y(t))をモデル化することである。使用されるパラメータモデルは、直線(一定速度)、放物線(一定加速度)、又はより複雑な軌跡であることができる。例えば、放物線軌跡が使用されるならば、tがフレーム番号を、a、b、c、d、e、fが、推定される位置を用いて回帰(regression)を通じて推定されるパラメータを表すとして、p(t)=(at+bt+c,dt+et+f)である。推定される位置の数は、パラメータを推定するために3よりも大きくなければならないが、より大きい数は、ノイズの影響を小さくすることを可能にする。しかし、観測フレームの数は、動きモデルが保持すべき一定数を下回ったままでなければならない(実際に、推定される位置の数は、最も古い推定を落とすことによって、30に抑えられるべきである。)。軌跡はフレームごとに推定される。
次のステップは、オブジェクトがスクリーンから出ていくか否かを検出することである。これは、次のオブジェクト中心位置p(t+1)を観察することによって行われ得る。x(t+1)が画像境界の外にあるならば、オブジェクトはスクリーンから出ていくと推定される。オブジェクト位置は、次いで、推定されるパラメトリック方程式を用いて、その後のフレームごとに推定され得る。
更なるロバスト性のために、推定される軌跡は一貫していることが確かにされるべきである。オブジェクト挿入は、次の場合に中止される:
− 水平速度が遅すぎる:abs(2at+b)<v。このとき、最低初期速度はv=5ピクセル毎フレーム。静止したオブジェクトが拡張部分において表示されないようにする;
− y(t)が垂直画像境界の外にある;
− 水平の動きがヌル(null)になる:それ以外に、a≠0,b≠0の場合に、t=−b/2a;
− 水平位置x(t)が画像境界の外にある。
オブジェクトは、外挿位置で、最終的に、その後のフレームに挿入される。外観は、単に、オブジェクトが現れた最後のフレームにカットインされたオブジェクト、又は最後の外観の組み合わせ(何らかの混合技術を使用する。)であることができる。シームレスに挿入されるよう、クローニング技術(例えば、ポアソン編集(Poisson editing)を使用する非特許文献10で記載されるもの)が使用され得る。挿入後にアルファマスクブレンド(alpha mask blending)又はぼかし(blurring)を使用するような、それほど計算集約的でない技術も使用され得る。
図8は、本原理に従うプロセスの例を表す。プロセス800は、ステップ820で、拡張されるべき画像を受け取ることによって、開始する。ステップ830で、複数のリファレンスフレームは、外挿画像を生成することにおいて解析のために選択され得る。なお、単一のリファレンスフレームが、望まれる場合には使用され得る。ステップ840で、顕著性を意識した外挿は、例えば、注意をそらさせる部分が存在しない外挿画像を生成するために原画像において顕著なエリアをペナライズするようUrban, et al.のブロックマッチング技術を改良することによって、外挿画像を生成するために使用される。空間時間平滑化は、ステップ850で実施され得る。最後に、望まれる場合には、検出された顕著なオブジェクトは、手動で又は自動で選択され、ステップ860で、軌跡外挿に基づき挿入され得る。
図9は、本原理の例となる実施形態の様々な態様が実装され得るシステムの例のブロック図を表す。システム900は、以下で記載される様々なコンポーネントを含むデバイスとして具現化されてよく、前述のプロセスを実施するよう構成される。そのようなデバイスは、パーソナルコンピュータ、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、デジタルマルチメディアセットトップボックス、デジタルテレビジョン受信機、パーソナルビデオ記録システム、接続されるホーム機器、及びサーバを含むが、それらに限られない。システム900は、フィルム及びビデオデータを双方ともに受信し、上述されたようにフィルム及びビデオデータを処理し、そして、受信されたフィルム及びビデオデータを用いて外挿画像を投影又は表示して、没入型視聴体験を提供するよう、他のコンポーネント、例えば、信号受信装置、プロジェクションシステム、ディスプレイシステム、又は同様のものへ通信上結合され得る。
システム900は、前述の様々なプロセスを実装するために、ロードされた命令を実行するよう構成される少なくとも1つのプロセッサ940を含み得る。プロセッサ940は、当該技術で知られている埋込メモリ、入出力インターフェイス及び様々な他の回路構成を含み得る。システム900は、少なくとも1つのメモリ950(例えば、揮発性メモリデバイス、不揮発性メモリデバイス)を更に含み得る。システム900は、記憶デバイス960を更に含み得る。記憶デバイス960は、EEPROM、ROM、PROM、RAM、DRAM、SRAM、フラッシュ、磁気ディスクドライブ、及び/又は光ディスクドライブを含むがそれらに限られない不揮発性メモリを含み得る。記憶デバイス960は、非制限的な例として、内部記憶デバイス、付属記憶デバイス、及び/又はネットワークアクセス記憶デバイスを有し得る。前述の様々なプロセスを実施するようプロセッサ940にロードされるプログラムコードは、記憶デバイス960に記憶され、その後に、プロセッサ940による実行のためにメモリ950にロードされ得る。システム900は、暗号化されたフィルム及び/又はビデオデータを受信し解読するよう構成される暗号解読モジュール920を更に含み得る。プロセッサ940によって生成された画像データは、出力ポートを介してディスプレイデバイスへ出力され得るか、あるいは、代替的に、システム900は、ディスプレイと一体化され得、このとき、出力信号は、システム900のディスプレイ上で画像を表示するよう直接に適用される。
システム900は、必要に応じて、受信された出力信号を復号する復号器930を含み得る。出力信号は、既知の圧縮フォーマット、例えば、MPEG2又はH.264に従う圧縮された形をとり得る。復号器930は、システム900内で別個のコンポーネントとして実装され得るか、あるいは、当該技術で知られるように、プロセッサ940の部分として組み込まれ得る。
暗号解読モジュール920は、暗号解読機能を実施するようデバイスに含まれ得るモジュールに相当する。知られているように、デバイスは、暗号化モジュール及び暗号解読モジュールの一方又は両方を含んでよく、例えば、暗号化は、PCが入力パラメータ(すなわち、公共システムパラメータ及びユーザのアイデンティティ)を記憶するセキュアメモリを含む必要がないように、暗号化は秘密鍵を必要としないので、通常のPCで行われ得る。しかし、暗号解読は秘密鍵(すなわち、解読鍵)を必要とし、セキュアデバイス、例えば、スマートカードにおいて行われる。その上、暗号解読モジュール920は、システム900の別個の要素として実装され得るか、あるいは、当業者に知られるように、ハードウェアとソフトウェアとの組み合わせとしてプロセッサ940内に組み込まれ得る。
システム900は、有線又は無線のいずれであろうと通信チャネルを介して他のデバイスとの通信を可能にする通信インターフェイス910を更に含み得る。通信インターフェイス910は、通信チャネルからデータを送信及び受信するよう構成されるトランシーバを含み得るが、それに限られない。通信インターフェイス910は、モデム又はネットワークカードを含み得るが、それらに限られず、通信チャネルは、有線及び/又は無線媒体内で実装され得る。システム900の様々なコンポーネントは、内部バス、ワイヤ、及び印刷回路基板を含むがそれらに限られない様々な適切な接続を用いて接続又は通信上結合され得る。
本発明の例となる実施形態は、プロセッサ940によって若しくはハードウェアによって実装されるコンピュータソフトウェアによって、又はハードウェアとソフトウェアとの組み合わせによって、実施され得る。非制限的な例として、本発明の例となる実施形態は、1つ以上の集積回路によって実装され得る。メモリ950は、技術環境に適した如何なるタイプであってもよく、非制限的な例として、例えば、光メモリデバイス、磁気メモリデバイス、半導体に基づくメモリデバイス、固定メモリ、及びリムーバブルメモリのような、如何なる適切なデータ記憶テクノロジによっても実装され得る。プロセッサ940は、技術環境に適した如何なるタイプであってもよく、非制限的な例として、マイクロプロセッサ、汎用コンピュータ、特別目的のコンピュータ、及びマルチコアアーキテクチャに基づくプロセッサ、のうちの1つ以上を包含し得る。
上記は、例となる実施形態及び非制限的な例を用いて、本発明者によって考えられている方法及びシステムの説明を提供してきた。様々な変更及び適応が、本明細書を考慮して当業者に明らかになり得ることは、明らかである。なお、そのような変更及び適応は、前述の様々な実施形態の教示の適用範囲内にある。
本明細書で記載される実施形態は、例えば、方法若しくはプロセス、装置、ソフトウェアプログラム、データストリーム、又は信号において実装され得る。たとえただ1つの実施形態に関してしか論じられていない(例えば、方法としてしか論じられていない)としても、前述の特徴の実装は、他の形態(例えば、装置又はプログラム)でも実施され得る。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアにおいて実装され得る。方法は、例えば、プロセッサのような装置において実装され得る。プロセッサは、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能論理デバイスを含むプロセッシングデバイス全般を指す。プロセッサは、例えば、コンピュータ、携帯電話機、ポータブル/パーソナルデジタルアシスタント(“PDA”)、及びエンドユーザ間の情報のやり取りを助ける他のデバイスのような、通信デバイスも含む。
本原理の“一実施形態”若しくは“実施形態”又は“1つの実施”若しくは“実施”への言及、並びにそれらの他の変形は、実施形態に関連して記載される特定の特徴、構造、特性などが本原理の少なくとも1つの実施形態に含まれることを意味する。よって、本明細書の全体にわたって様々な箇所で見られる“一実施形態において”若しくは“実施形態において”又は“1つの実施において”若しくは“実施において”との言い回し、並びに何らかの他の変形の出現は、必ずしも全てが同じ実施形態に言及しているわけではない。
その上、本願又はその特許請求の範囲は、様々な情報片を“決定する(determining)”ことに言及し得る。情報を決定することは、例えば、情報を推定すること、情報を計算すること、情報を予測すること、又はメモリから情報を取り出すこと、のうちの1つ以上を含み得る。
更には、本願又はその特許請求の範囲は、様々な情報片に“アクセスする(accessing)”ことに言及し得る。情報にアクセスすることは、例えば、情報を受信すること、情報を(例えば、メモリから)取り出すこと、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報をコピーすること、情報を消去すること、情報を計算すること、情報を決定すること、情報を予測すること、又は情報を推定すること、のうちの1つ以上を含み得る。
その上、本願又はその特許請求の範囲は、様々な情報片を“受信する(receiving)”ことに言及し得る。受信することは、“アクセスする”ことと同様に、広義な語であるよう意図される。情報を受信することは、例えば、情報にアクセスすること、又は情報を(例えば、メモリから)取り出すこと、のうちの1つ以上を含み得る。更には、“受信する”ことは、通常は、例えば、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報をコピーすること、情報を消去すること、情報を計算すること、情報を決定すること、情報を予測すること、又は情報を推定することといった動作中にいろいろな点で関連する。
当業者に明らかなように、実施は、例えば、記憶又は送信され得る情報を運ぶようフォーマットされた様々な信号を生成し得る。情報は、例えば、方法を実施するための命令、又は記載される実施形態のうちの1つによって生成されたデータを含み得る。例えば、信号は、記載される実施形態のビットストリームを運ぶようフォーマットされ得る。そのような信号は、例えば、電磁波として(例えば、スペクトルの無線周波数部分を使用する。)、又はベースバンド信号として、フォーマットされ得る。フォーマッティングは、例えば、データストリームを符号化し、符号化されたデータストリームによりキャリアを変調することを含み得る。信号が運ぶ情報は、例えば、アナログ又はデジタルの情報であってよい。信号は、知られているように、多種多様な有線及び/又は無線リンクにわたって送信され得る。信号は、プロセッサ可読媒体に記憶され得る。
いくつかの実施形態が本明細書において記載及び例示されてきたが、当業者は、本明細書で記載される利点のうちの1つ以上及び/又は結果を得るための且つ/あるいは機能を実施するための様々な他の手段及び/又は構造に容易に想到可能である。そして、そのような変形及び/又は変更は、本実施形態の適用範囲内にあると見なされる。
いくつかの実施形態が本明細書において記載及び例示されてきたが、当業者は、本明細書で記載される利点のうちの1つ以上及び/又は結果を得るための且つ/あるいは機能を実施するための様々な他の手段及び/又は構造に容易に想到可能である。そして、そのような変形及び/又は変更は、本実施形態の適用範囲内にあると見なされる。
上記の実施形態に加えて、以下の付記を開示する。
(付記1)
画像の境界を越えて延在する外挿画像を生成する方法(800)であって、
前記画像(615)にアクセスすること(820)と、
前記画像の部分から外挿画像(617)を生成すること(830〜860)と
を有し、
前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクト(650)を識別すること(820〜850)と、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更すること(860)と含む、
方法。
(付記2)
前記生成することは、より高い解像度の外挿画像を漸進的に生成するよう再帰的階層プロセスを使用することを含む、
付記1に記載の方法。
(付記3)
前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
付記2に記載の方法。
(付記4)
画像の境界を越えて延在する外挿画像を生成する方法(800)であって、
前記画像にアクセスすること(820)と、
前記画像の部分から外挿画像を生成すること(830〜860)と、
視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別すること(830〜850)と、
前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにすること(860)と
を有する方法。
(付記5)
空間フィルタリングを前記外挿画像に適用すること
を更に有する付記1乃至4のうちいずれか一つに記載の方法。
(付記6)
関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入すること
を更に有する付記1乃至5のうちいずれか一つに記載の方法。
(付記7)
前記関心のあるオブジェクトの軌跡は、複数の画像から推定され、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入する、
付記6に記載の方法。
(付記8)
画像の境界を越えて延在する外挿画像を生成する装置(900)であって、
前記画像(615)にアクセスするよう構成される入力部(910)と、
前記入力部へ結合され、前記画像の部分から外挿画像(617)を生成するよう構成される少なくとも1つのプロセッサ(940)であり、前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクト(650)を識別すること(830〜860)と、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することを変更すること(860)とを含む、前記少なくとも1つのプロセッサと、
前記外挿画像を出力するよう構成される出力部(910)と
を有する装置。
(付記9)
前記プロセッサ(940)は、再帰的階層プロセスを用いて前記外挿画像を生成して、より高い解像度の外挿画像を漸進的に生成するよう構成される、
付記8に記載の装置。
(付記10)
前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
付記9に記載の装置。
(付記11)
画像の境界を越えて延在する外挿画像を生成する装置(900)であって、
前記画像(615)にアクセスするよう構成される入力部(910)と、
前記画像の部分から外挿画像(617)を生成し、視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し(830〜850)、該顕著性マップから顕著なオブジェクト(650)を識別し、前記外挿画像を変更して(860)、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにするよう構成される少なくとも1つのプロセッサ(940)と、
前記変更された外挿画像を出力するよう構成される出力部と
を有する装置。
(付記12)
前記プロセッサ(940)は、空間フィルタリングを前記外挿画像に適用するよう更に構成される、
付記8乃至11のうちいずれか一つに記載の装置。
(付記13)
前記プロセッサ(940)は、関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
付記8乃至12のうちいずれか一つに記載の装置。
(付記14)
前記プロセッサ(940)は、前記関心のあるオブジェクトの軌跡を複数の画像から推定し、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
付記14に記載の装置。
(付記15)
非一時的なコンピュータ可読記憶媒体(960)に記憶されているコンピュータプログラム製品であって、
画像(615)の部分にアクセスし(820)、
前記画像の部分から外挿画像(617)を生成する(830〜860)
コンピュータ実行可能命令を有し、
前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクト(650)を識別すること(830〜850)と、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更すること(860)と含む、
コンピュータプログラム製品。
(付記16)
非一時的なコンピュータ可読記憶媒体(960)に記憶されているコンピュータプログラム製品であって、
画像(615)にアクセスし(820)、
前記画像の部分から外挿画像(617)を生成し(830〜860)、
視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクト(650)を識別し(830〜850)、
前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにする(860)
コンピュータ実行可能命令を有するコンピュータプログラム製品。

Claims (16)

  1. 画像の境界を越えて延在する外挿画像を生成する方法であって、
    前記画像にアクセスすることと、
    前記画像の部分から外挿画像を生成することと
    を有し、
    前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更することと含む、
    方法。
  2. 前記生成することは、より高い解像度の外挿画像を漸進的に生成するよう再帰的階層プロセスを使用することを含む、
    請求項1に記載の方法。
  3. 前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
    請求項2に記載の方法。
  4. 画像の境界を越えて延在する外挿画像を生成する方法であって、
    前記画像にアクセスすることと、
    前記画像の部分から外挿画像を生成することと、
    視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別することと、
    前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにすることと
    を有する方法。
  5. 空間フィルタリングを前記外挿画像に適用すること
    を更に有する請求項1乃至4のうちいずれか一項に記載の方法。
  6. 関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入すること
    を更に有する請求項1乃至5のうちいずれか一項に記載の方法。
  7. 前記関心のあるオブジェクトの軌跡は、複数の画像から推定され、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入する、
    請求項6に記載の方法。
  8. 画像の境界を越えて延在する外挿画像を生成する装置であって、
    前記画像にアクセスするよう構成される入力部と、
    前記入力部へ結合され、前記画像の部分から外挿画像を生成するよう構成される少なくとも1つのプロセッサであり、前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することを変更することとを含む、前記少なくとも1つのプロセッサと、
    前記外挿画像を出力するよう構成される出力部と
    を有する装置。
  9. 前記プロセッサは、再帰的階層プロセスを用いて前記外挿画像を生成して、より高い解像度の外挿画像を漸進的に生成するよう構成される、
    請求項8に記載の装置。
  10. 前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
    請求項9に記載の装置。
  11. 画像の境界を越えて延在する外挿画像を生成する装置であって、
    前記画像にアクセスするよう構成される入力部と、
    前記画像の部分から外挿画像を生成し、視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別し、前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにするよう構成される少なくとも1つのプロセッサと、
    前記変更された外挿画像を出力するよう構成される出力部と
    を有する装置。
  12. 前記プロセッサは、空間フィルタリングを前記外挿画像に適用するよう更に構成される、
    請求項8乃至11のうちいずれか一項に記載の装置。
  13. 前記プロセッサは、関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
    請求項8乃至12のうちいずれか一項に記載の装置。
  14. 前記プロセッサは、前記関心のあるオブジェクトの軌跡を複数の画像から推定し、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
    請求項14に記載の装置。
  15. 非一時的なコンピュータ可読記憶媒体に記憶されているコンピュータプログラム製品であって、
    画像の部分にアクセスし、
    前記画像の部分から外挿画像を生成する
    コンピュータ実行可能命令を有し、
    前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更することと含む、
    コンピュータプログラム製品。
  16. 非一時的なコンピュータ可読記憶媒体に記憶されているコンピュータプログラム製品であって、
    画像にアクセスし、
    前記画像の部分から外挿画像を生成し、
    視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別し、
    前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにする
    コンピュータ実行可能命令を有するコンピュータプログラム製品。
JP2017531507A 2014-12-22 2015-12-18 オブジェクト検出に基づき外挿画像を生成する方法及び装置 Expired - Fee Related JP6672305B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14307147.0 2014-12-22
EP14307147 2014-12-22
PCT/EP2015/080487 WO2016102365A1 (en) 2014-12-22 2015-12-18 Method and apparatus for generating an extrapolated image based on object detection

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020037323A Division JP2020115351A (ja) 2014-12-22 2020-03-04 オブジェクト検出に基づき外挿画像を生成する方法及び装置

Publications (2)

Publication Number Publication Date
JP2018506198A true JP2018506198A (ja) 2018-03-01
JP6672305B2 JP6672305B2 (ja) 2020-03-25

Family

ID=52394857

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017531507A Expired - Fee Related JP6672305B2 (ja) 2014-12-22 2015-12-18 オブジェクト検出に基づき外挿画像を生成する方法及び装置
JP2020037323A Pending JP2020115351A (ja) 2014-12-22 2020-03-04 オブジェクト検出に基づき外挿画像を生成する方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020037323A Pending JP2020115351A (ja) 2014-12-22 2020-03-04 オブジェクト検出に基づき外挿画像を生成する方法及び装置

Country Status (6)

Country Link
US (1) US10672104B2 (ja)
EP (1) EP3238213B1 (ja)
JP (2) JP6672305B2 (ja)
KR (1) KR20170098232A (ja)
CN (1) CN107111866B (ja)
WO (1) WO2016102365A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460704B2 (en) 2016-04-01 2019-10-29 Movidius Limited Systems and methods for head-mounted display adapted to human visual mechanism
US10216260B2 (en) * 2017-03-27 2019-02-26 Microsoft Technology Licensing, Llc Selective rendering of sparse peripheral displays based on element saliency
US10277943B2 (en) * 2017-03-27 2019-04-30 Microsoft Technology Licensing, Llc Selective rendering of sparse peripheral displays based on user movements
US11501522B2 (en) * 2017-12-06 2022-11-15 Nec Corporation Image recognition model generating device, image recognition model generating method, and image recognition model generating program storing medium
US10949947B2 (en) 2017-12-29 2021-03-16 Intel Corporation Foveated image rendering for head-mounted display devices
CN111527465A (zh) * 2017-12-29 2020-08-11 德国弗劳恩霍夫应用研究促进协会 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法
CN108256562B (zh) * 2018-01-09 2022-04-15 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
US11587208B2 (en) * 2021-05-26 2023-02-21 Qualcomm Incorporated High quality UI elements with frame extrapolation
WO2023166138A1 (en) * 2022-03-04 2023-09-07 Sony Europe B.V. Image processing devices, electronic device and image processing methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2680219A1 (en) * 2012-06-29 2014-01-01 Thomson Licensing Method for reframing images of a video sequence, and apparatus for reframing images of a video sequence
JP2014016688A (ja) * 2012-07-06 2014-01-30 Kddi Corp 顕著性マップを利用した非写実変換プログラム、装置及び方法
JP2014093694A (ja) * 2012-11-05 2014-05-19 Toshiba Corp 画像処理装置、及び画像処理方法
US20140320534A1 (en) * 2013-04-30 2014-10-30 Sony Corporation Image processing apparatus, and image processing method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2253760B (en) 1991-02-01 1994-07-27 British Broadcasting Corp Video image processing
AU2003242940A1 (en) 2002-07-04 2004-01-23 Koninklijke Philips Electronics N.V. Method of and system for controlling an ambient light and lighting unit
EP1544792A1 (en) 2003-12-18 2005-06-22 Thomson Licensing S.A. Device and method for creating a saliency map of an image
US7894000B2 (en) * 2004-06-30 2011-02-22 Koninklijke Philips Electronics N.V. Dominant color extraction using perceptual rules to produce ambient light derived from video content
US7424218B2 (en) * 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
JP4958233B2 (ja) 2007-11-13 2012-06-20 学校法人東京電機大学 多眼視画像作成システム及び多眼視画像作成方法
US8660175B2 (en) 2007-12-10 2014-02-25 Qualcomm Incorporated Selective display of interpolated or extrapolated video units
US8374462B2 (en) * 2008-11-14 2013-02-12 Seiko Epson Corporation Content-aware image and video resizing by anchor point sampling and mapping
GB2502591B (en) 2012-05-31 2014-04-30 Sony Comp Entertainment Europe Apparatus and method for augmenting a video image
US10297009B2 (en) 2014-12-22 2019-05-21 Interdigital Ce Patent Holdings Apparatus and method for generating an extrapolated image using a recursive hierarchical process
EP3067857A1 (en) * 2015-03-13 2016-09-14 Thomson Licensing Method and device for processing a peripheral image
JP6563043B2 (ja) * 2016-02-09 2019-08-21 株式会社ソニー・インタラクティブエンタテインメント 映像表示システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2680219A1 (en) * 2012-06-29 2014-01-01 Thomson Licensing Method for reframing images of a video sequence, and apparatus for reframing images of a video sequence
JP2014016688A (ja) * 2012-07-06 2014-01-30 Kddi Corp 顕著性マップを利用した非写実変換プログラム、装置及び方法
JP2014093694A (ja) * 2012-11-05 2014-05-19 Toshiba Corp 画像処理装置、及び画像処理方法
US20140320534A1 (en) * 2013-04-30 2014-10-30 Sony Corporation Image processing apparatus, and image processing method
JP2014215604A (ja) * 2013-04-30 2014-11-17 ソニー株式会社 画像処理装置および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T. AVRAHAM, AND Y. SCHECHNER: "Ultrawide Foveated Video Extrapolation", IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, vol. 5, no. 2, JPN6019027849, 1 April 2011 (2011-04-01), US, pages 321 - 334, XP011350695, ISSN: 0004080003, DOI: 10.1109/JSTSP.2010.2065213 *

Also Published As

Publication number Publication date
EP3238213B1 (en) 2023-06-21
CN107111866A (zh) 2017-08-29
JP6672305B2 (ja) 2020-03-25
US20180012333A1 (en) 2018-01-11
WO2016102365A1 (en) 2016-06-30
JP2020115351A (ja) 2020-07-30
KR20170098232A (ko) 2017-08-29
US10672104B2 (en) 2020-06-02
EP3238213A1 (en) 2017-11-01
CN107111866B (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
JP6672305B2 (ja) オブジェクト検出に基づき外挿画像を生成する方法及び装置
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
Zhou et al. Time-mapping using space-time saliency
KR102319423B1 (ko) 컨텍스트 기반 증강 광고
Johnston et al. A review of digital video tampering: From simple editing to full synthesis
US10936877B2 (en) Methods, systems, and media for detecting two-dimensional videos placed on a sphere in abusive spherical video content by tiling the sphere
CN107920202B (zh) 基于增强现实的视频处理方法、装置及电子设备
US20150070467A1 (en) Depth key compositing for video and holographic projection
CN109982036A (zh) 一种全景视频数据处理的方法、终端以及存储介质
CN111179159B (zh) 消除视频中目标影像的方法、装置、电子设备及存储介质
Turban et al. Extrafoveal video extension for an immersive viewing experience
US10297009B2 (en) Apparatus and method for generating an extrapolated image using a recursive hierarchical process
JP2013195725A (ja) 画像表示システム
Kim et al. A study on the possibility of implementing a real-time stereoscopic 3D rendering TV system
Lin et al. Video exhibition with adjustable augmented reality system based on temporal psycho-visual modulation
CN112752110B (zh) 视频呈现方法及装置、计算设备、存储介质
Chamaret et al. Video retargeting for stereoscopic content under 3D viewing constraints
Lee Novel video stabilization for real-time optical character recognition applications
JP2008090570A (ja) 情報処理装置及び情報処理方法
EP3752956B1 (en) Methods, systems, and media for detecting two-dimensional videos placed on a sphere in abusive spherical video content
RAJAMMA et al. Diffusion-Based Salient Region Detection via Integrating Visual Cues

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R150 Certificate of patent or registration of utility model

Ref document number: 6672305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees