JP2018506198A - オブジェクト検出に基づき外挿画像を生成する方法及び装置 - Google Patents
オブジェクト検出に基づき外挿画像を生成する方法及び装置 Download PDFInfo
- Publication number
- JP2018506198A JP2018506198A JP2017531507A JP2017531507A JP2018506198A JP 2018506198 A JP2018506198 A JP 2018506198A JP 2017531507 A JP2017531507 A JP 2017531507A JP 2017531507 A JP2017531507 A JP 2017531507A JP 2018506198 A JP2018506198 A JP 2018506198A
- Authority
- JP
- Japan
- Prior art keywords
- image
- extrapolated
- generating
- extrapolated image
- salient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000001514 detection method Methods 0.000 title description 5
- 230000000007 visual effect Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 238000013213 extrapolation Methods 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 230000000670 limiting effect Effects 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012411 cloning technique Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
Description
− 視覚的注意モデルを使用することによって外挿プロセスにおいてビデオの注意をそらさせる部分を回避し、具体的には、原フィルム又はビデオにおける注意をそらさせる可能性があるオブジェクトが検出され、それらの注意をそらさせる可能性があるオブジェクトが外挿画像に含まれないようにし、外挿画像は、注意をそらさせるオブジェクトなしで生成され得るか、あるいは、外挿画像は、注意をそらさせるオブジェクトを取り除くよう変更され得;
− 外挿のための入力コンテンツとして複数のリファレンス及びロングターム・リファレンスを使用し;
− より粗い外挿プロセスを許しながら滑らかな外挿を確かにするために空間時間フィルタリングを使用し;
− トラッキング及び軌跡推定を用いて、後処理ステップにおいて、動いているオブジェクトを加え;
− 見る者の注意をそらさない、HVSに従う画像を作成するために、人間の視覚体系を考慮し、特に、周辺視野における動いているオブジェクトへの感度が利用される
改善された画像外挿装置及び方法を提供しようとする。
本原理に従って、原画像の顕著な部分、すなわち、それらの部分が外挿又は周囲画像において含まれる場合に見る者の注意をそらさせ得る部分は、外挿画像において一貫しない動きを伴った注意をそらさせるエリアの出現を回避するようそれらの部分が外挿画像において隠されるか又は含まれないという意味で、ペナライズされる。顕著(salient)とは、オブジェクトが見る者の目を引きうる特徴を指し示し得る。そのように目を引くことは、無意識に起こり、見る者の注意をそらし得る。本原理の他の態様では、識別された顕著なオブジェクトは、以下で更に記載されるように、適切な軌跡を有して外挿画像に後に加えられ得る。
r(S)=SSD(Sa,Ma)+λ×A(S)
上記の式で、SSDは、例えば、Lab色空間又はRGB色空間における、絶対差の和であり、Maは、ブロックの既に計算された部分であり、Saは、Maの形状に対応する既存のブロックSの部分であり、λは、顕著性(λ=100)の影響を制御する重みである。
前の又は次のフレームにおいて完全に現れる画像の境界においてオブジェクトの部分を再構成するために、検索空間Ωは、前述の技術を用いて、いくつかの隣接フレームへ広げられ得る。
− アルゴリズムは、フレームがシーンによってグループ化されるショット検出のステップを有する。シーンは、2つのシーンカットの間の連続したフレームによって定義される(非特許文献6)。
− 多くてもn個の画像が、等しく間隔をあけられた画像を選択することによって、シーンにおいて選択される。
− 改善は、十分に異なる画像のみを保持することにある。SSDは、2つの候補画像の間で計算される。SSDが閾値を下回る場合には、画像が互いに近すぎることを意味し、一方のみが保持される。これは、必要とされない場合に計算を加速させるよう検索画像を減らすことを可能にする。
視野の周囲において、人間の視覚体系は、動き及びブリンキング(blinking)効果に敏感である。しかし、それは、色及び解像度には非常に低い感度を有している。
外挿画像又はサイドコンテンツが自動的に又は何らかのエディタによって手動でスムース・バックグランド(smooth background)により生成されると、正面スクリーンに入る又はそれから出る適切な軌跡を持った動いているオブジェクトを加えることが望ましいことがある。本項目は、これが完全に自動で又はユーザ入力を用いて如何にして行われ得るかを説明する。
− 水平速度が遅すぎる:abs(2at+b)<v0。このとき、最低初期速度はv0=5ピクセル毎フレーム。静止したオブジェクトが拡張部分において表示されないようにする;
− y(t)が垂直画像境界の外にある;
− 水平の動きがヌル(null)になる:それ以外に、a≠0,b≠0の場合に、t=−b/2a;
− 水平位置x(t)が画像境界の外にある。
上記の実施形態に加えて、以下の付記を開示する。
(付記1)
画像の境界を越えて延在する外挿画像を生成する方法(800)であって、
前記画像(615)にアクセスすること(820)と、
前記画像の部分から外挿画像(617)を生成すること(830〜860)と
を有し、
前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクト(650)を識別すること(820〜850)と、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更すること(860)と含む、
方法。
(付記2)
前記生成することは、より高い解像度の外挿画像を漸進的に生成するよう再帰的階層プロセスを使用することを含む、
付記1に記載の方法。
(付記3)
前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
付記2に記載の方法。
(付記4)
画像の境界を越えて延在する外挿画像を生成する方法(800)であって、
前記画像にアクセスすること(820)と、
前記画像の部分から外挿画像を生成すること(830〜860)と、
視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別すること(830〜850)と、
前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにすること(860)と
を有する方法。
(付記5)
空間フィルタリングを前記外挿画像に適用すること
を更に有する付記1乃至4のうちいずれか一つに記載の方法。
(付記6)
関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入すること
を更に有する付記1乃至5のうちいずれか一つに記載の方法。
(付記7)
前記関心のあるオブジェクトの軌跡は、複数の画像から推定され、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入する、
付記6に記載の方法。
(付記8)
画像の境界を越えて延在する外挿画像を生成する装置(900)であって、
前記画像(615)にアクセスするよう構成される入力部(910)と、
前記入力部へ結合され、前記画像の部分から外挿画像(617)を生成するよう構成される少なくとも1つのプロセッサ(940)であり、前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクト(650)を識別すること(830〜860)と、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することを変更すること(860)とを含む、前記少なくとも1つのプロセッサと、
前記外挿画像を出力するよう構成される出力部(910)と
を有する装置。
(付記9)
前記プロセッサ(940)は、再帰的階層プロセスを用いて前記外挿画像を生成して、より高い解像度の外挿画像を漸進的に生成するよう構成される、
付記8に記載の装置。
(付記10)
前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
付記9に記載の装置。
(付記11)
画像の境界を越えて延在する外挿画像を生成する装置(900)であって、
前記画像(615)にアクセスするよう構成される入力部(910)と、
前記画像の部分から外挿画像(617)を生成し、視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し(830〜850)、該顕著性マップから顕著なオブジェクト(650)を識別し、前記外挿画像を変更して(860)、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにするよう構成される少なくとも1つのプロセッサ(940)と、
前記変更された外挿画像を出力するよう構成される出力部と
を有する装置。
(付記12)
前記プロセッサ(940)は、空間フィルタリングを前記外挿画像に適用するよう更に構成される、
付記8乃至11のうちいずれか一つに記載の装置。
(付記13)
前記プロセッサ(940)は、関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
付記8乃至12のうちいずれか一つに記載の装置。
(付記14)
前記プロセッサ(940)は、前記関心のあるオブジェクトの軌跡を複数の画像から推定し、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
付記14に記載の装置。
(付記15)
非一時的なコンピュータ可読記憶媒体(960)に記憶されているコンピュータプログラム製品であって、
画像(615)の部分にアクセスし(820)、
前記画像の部分から外挿画像(617)を生成する(830〜860)
コンピュータ実行可能命令を有し、
前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクト(650)を識別すること(830〜850)と、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更すること(860)と含む、
コンピュータプログラム製品。
(付記16)
非一時的なコンピュータ可読記憶媒体(960)に記憶されているコンピュータプログラム製品であって、
画像(615)にアクセスし(820)、
前記画像の部分から外挿画像(617)を生成し(830〜860)、
視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクト(650)を識別し(830〜850)、
前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにする(860)
コンピュータ実行可能命令を有するコンピュータプログラム製品。
Claims (16)
- 画像の境界を越えて延在する外挿画像を生成する方法であって、
前記画像にアクセスすることと、
前記画像の部分から外挿画像を生成することと
を有し、
前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更することと含む、
方法。 - 前記生成することは、より高い解像度の外挿画像を漸進的に生成するよう再帰的階層プロセスを使用することを含む、
請求項1に記載の方法。 - 前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
請求項2に記載の方法。 - 画像の境界を越えて延在する外挿画像を生成する方法であって、
前記画像にアクセスすることと、
前記画像の部分から外挿画像を生成することと、
視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別することと、
前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにすることと
を有する方法。 - 空間フィルタリングを前記外挿画像に適用すること
を更に有する請求項1乃至4のうちいずれか一項に記載の方法。 - 関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入すること
を更に有する請求項1乃至5のうちいずれか一項に記載の方法。 - 前記関心のあるオブジェクトの軌跡は、複数の画像から推定され、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入する、
請求項6に記載の方法。 - 画像の境界を越えて延在する外挿画像を生成する装置であって、
前記画像にアクセスするよう構成される入力部と、
前記入力部へ結合され、前記画像の部分から外挿画像を生成するよう構成される少なくとも1つのプロセッサであり、前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することを変更することとを含む、前記少なくとも1つのプロセッサと、
前記外挿画像を出力するよう構成される出力部と
を有する装置。 - 前記プロセッサは、再帰的階層プロセスを用いて前記外挿画像を生成して、より高い解像度の外挿画像を漸進的に生成するよう構成される、
請求項8に記載の装置。 - 前記再帰的階層プロセスは、次の解像度のブロックを生成するよう前の解像度における重なり合ったブロックの予測及び重み付けを使用することに基づく、
請求項9に記載の装置。 - 画像の境界を越えて延在する外挿画像を生成する装置であって、
前記画像にアクセスするよう構成される入力部と、
前記画像の部分から外挿画像を生成し、視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別し、前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにするよう構成される少なくとも1つのプロセッサと、
前記変更された外挿画像を出力するよう構成される出力部と
を有する装置。 - 前記プロセッサは、空間フィルタリングを前記外挿画像に適用するよう更に構成される、
請求項8乃至11のうちいずれか一項に記載の装置。 - 前記プロセッサは、関心のあるオブジェクトを選択し、該関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
請求項8乃至12のうちいずれか一項に記載の装置。 - 前記プロセッサは、前記関心のあるオブジェクトの軌跡を複数の画像から推定し、該推定された軌跡に基づき前記関心のあるオブジェクトを前記外挿画像に挿入するよう更に構成される、
請求項14に記載の装置。 - 非一時的なコンピュータ可読記憶媒体に記憶されているコンピュータプログラム製品であって、
画像の部分にアクセスし、
前記画像の部分から外挿画像を生成する
コンピュータ実行可能命令を有し、
前記生成することは、視覚的注意モデルに基づき前記画像の前記部分において顕著なオブジェクトを識別することと、該識別に応答して、前記顕著なオブジェクトが前記外挿画像に含まれないように、前記生成することと変更することと含む、
コンピュータプログラム製品。 - 非一時的なコンピュータ可読記憶媒体に記憶されているコンピュータプログラム製品であって、
画像にアクセスし、
前記画像の部分から外挿画像を生成し、
視覚的注意モデルに基づき前記外挿画像の顕著性マップを生成し、該顕著性マップから顕著なオブジェクトを識別し、
前記外挿画像を変更して、該変更された外挿画像において前記顕著なオブジェクトが含まれないようにする
コンピュータ実行可能命令を有するコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14307147.0 | 2014-12-22 | ||
EP14307147 | 2014-12-22 | ||
PCT/EP2015/080487 WO2016102365A1 (en) | 2014-12-22 | 2015-12-18 | Method and apparatus for generating an extrapolated image based on object detection |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020037323A Division JP2020115351A (ja) | 2014-12-22 | 2020-03-04 | オブジェクト検出に基づき外挿画像を生成する方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018506198A true JP2018506198A (ja) | 2018-03-01 |
JP6672305B2 JP6672305B2 (ja) | 2020-03-25 |
Family
ID=52394857
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017531507A Expired - Fee Related JP6672305B2 (ja) | 2014-12-22 | 2015-12-18 | オブジェクト検出に基づき外挿画像を生成する方法及び装置 |
JP2020037323A Pending JP2020115351A (ja) | 2014-12-22 | 2020-03-04 | オブジェクト検出に基づき外挿画像を生成する方法及び装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020037323A Pending JP2020115351A (ja) | 2014-12-22 | 2020-03-04 | オブジェクト検出に基づき外挿画像を生成する方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10672104B2 (ja) |
EP (1) | EP3238213B1 (ja) |
JP (2) | JP6672305B2 (ja) |
KR (1) | KR20170098232A (ja) |
CN (1) | CN107111866B (ja) |
WO (1) | WO2016102365A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10460704B2 (en) | 2016-04-01 | 2019-10-29 | Movidius Limited | Systems and methods for head-mounted display adapted to human visual mechanism |
US10216260B2 (en) * | 2017-03-27 | 2019-02-26 | Microsoft Technology Licensing, Llc | Selective rendering of sparse peripheral displays based on element saliency |
US10277943B2 (en) * | 2017-03-27 | 2019-04-30 | Microsoft Technology Licensing, Llc | Selective rendering of sparse peripheral displays based on user movements |
US11501522B2 (en) * | 2017-12-06 | 2022-11-15 | Nec Corporation | Image recognition model generating device, image recognition model generating method, and image recognition model generating program storing medium |
US10949947B2 (en) | 2017-12-29 | 2021-03-16 | Intel Corporation | Foveated image rendering for head-mounted display devices |
CN111527465A (zh) * | 2017-12-29 | 2020-08-11 | 德国弗劳恩霍夫应用研究促进协会 | 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 |
CN108256562B (zh) * | 2018-01-09 | 2022-04-15 | 深圳大学 | 基于弱监督时空级联神经网络的显著目标检测方法及系统 |
US11587208B2 (en) * | 2021-05-26 | 2023-02-21 | Qualcomm Incorporated | High quality UI elements with frame extrapolation |
WO2023166138A1 (en) * | 2022-03-04 | 2023-09-07 | Sony Europe B.V. | Image processing devices, electronic device and image processing methods |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2680219A1 (en) * | 2012-06-29 | 2014-01-01 | Thomson Licensing | Method for reframing images of a video sequence, and apparatus for reframing images of a video sequence |
JP2014016688A (ja) * | 2012-07-06 | 2014-01-30 | Kddi Corp | 顕著性マップを利用した非写実変換プログラム、装置及び方法 |
JP2014093694A (ja) * | 2012-11-05 | 2014-05-19 | Toshiba Corp | 画像処理装置、及び画像処理方法 |
US20140320534A1 (en) * | 2013-04-30 | 2014-10-30 | Sony Corporation | Image processing apparatus, and image processing method |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2253760B (en) | 1991-02-01 | 1994-07-27 | British Broadcasting Corp | Video image processing |
AU2003242940A1 (en) | 2002-07-04 | 2004-01-23 | Koninklijke Philips Electronics N.V. | Method of and system for controlling an ambient light and lighting unit |
EP1544792A1 (en) | 2003-12-18 | 2005-06-22 | Thomson Licensing S.A. | Device and method for creating a saliency map of an image |
US7894000B2 (en) * | 2004-06-30 | 2011-02-22 | Koninklijke Philips Electronics N.V. | Dominant color extraction using perceptual rules to produce ambient light derived from video content |
US7424218B2 (en) * | 2005-07-28 | 2008-09-09 | Microsoft Corporation | Real-time preview for panoramic images |
JP4958233B2 (ja) | 2007-11-13 | 2012-06-20 | 学校法人東京電機大学 | 多眼視画像作成システム及び多眼視画像作成方法 |
US8660175B2 (en) | 2007-12-10 | 2014-02-25 | Qualcomm Incorporated | Selective display of interpolated or extrapolated video units |
US8374462B2 (en) * | 2008-11-14 | 2013-02-12 | Seiko Epson Corporation | Content-aware image and video resizing by anchor point sampling and mapping |
GB2502591B (en) | 2012-05-31 | 2014-04-30 | Sony Comp Entertainment Europe | Apparatus and method for augmenting a video image |
US10297009B2 (en) | 2014-12-22 | 2019-05-21 | Interdigital Ce Patent Holdings | Apparatus and method for generating an extrapolated image using a recursive hierarchical process |
EP3067857A1 (en) * | 2015-03-13 | 2016-09-14 | Thomson Licensing | Method and device for processing a peripheral image |
JP6563043B2 (ja) * | 2016-02-09 | 2019-08-21 | 株式会社ソニー・インタラクティブエンタテインメント | 映像表示システム |
-
2015
- 2015-12-18 KR KR1020177017100A patent/KR20170098232A/ko not_active Application Discontinuation
- 2015-12-18 US US15/538,366 patent/US10672104B2/en active Active
- 2015-12-18 CN CN201580070298.6A patent/CN107111866B/zh active Active
- 2015-12-18 JP JP2017531507A patent/JP6672305B2/ja not_active Expired - Fee Related
- 2015-12-18 EP EP15817262.7A patent/EP3238213B1/en active Active
- 2015-12-18 WO PCT/EP2015/080487 patent/WO2016102365A1/en active Application Filing
-
2020
- 2020-03-04 JP JP2020037323A patent/JP2020115351A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2680219A1 (en) * | 2012-06-29 | 2014-01-01 | Thomson Licensing | Method for reframing images of a video sequence, and apparatus for reframing images of a video sequence |
JP2014016688A (ja) * | 2012-07-06 | 2014-01-30 | Kddi Corp | 顕著性マップを利用した非写実変換プログラム、装置及び方法 |
JP2014093694A (ja) * | 2012-11-05 | 2014-05-19 | Toshiba Corp | 画像処理装置、及び画像処理方法 |
US20140320534A1 (en) * | 2013-04-30 | 2014-10-30 | Sony Corporation | Image processing apparatus, and image processing method |
JP2014215604A (ja) * | 2013-04-30 | 2014-11-17 | ソニー株式会社 | 画像処理装置および画像処理方法 |
Non-Patent Citations (1)
Title |
---|
T. AVRAHAM, AND Y. SCHECHNER: "Ultrawide Foveated Video Extrapolation", IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, vol. 5, no. 2, JPN6019027849, 1 April 2011 (2011-04-01), US, pages 321 - 334, XP011350695, ISSN: 0004080003, DOI: 10.1109/JSTSP.2010.2065213 * |
Also Published As
Publication number | Publication date |
---|---|
EP3238213B1 (en) | 2023-06-21 |
CN107111866A (zh) | 2017-08-29 |
JP6672305B2 (ja) | 2020-03-25 |
US20180012333A1 (en) | 2018-01-11 |
WO2016102365A1 (en) | 2016-06-30 |
JP2020115351A (ja) | 2020-07-30 |
KR20170098232A (ko) | 2017-08-29 |
US10672104B2 (en) | 2020-06-02 |
EP3238213A1 (en) | 2017-11-01 |
CN107111866B (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6672305B2 (ja) | オブジェクト検出に基づき外挿画像を生成する方法及び装置 | |
US11217006B2 (en) | Methods and systems for performing 3D simulation based on a 2D video image | |
Zhou et al. | Time-mapping using space-time saliency | |
KR102319423B1 (ko) | 컨텍스트 기반 증강 광고 | |
Johnston et al. | A review of digital video tampering: From simple editing to full synthesis | |
US10936877B2 (en) | Methods, systems, and media for detecting two-dimensional videos placed on a sphere in abusive spherical video content by tiling the sphere | |
CN107920202B (zh) | 基于增强现实的视频处理方法、装置及电子设备 | |
US20150070467A1 (en) | Depth key compositing for video and holographic projection | |
CN109982036A (zh) | 一种全景视频数据处理的方法、终端以及存储介质 | |
CN111179159B (zh) | 消除视频中目标影像的方法、装置、电子设备及存储介质 | |
Turban et al. | Extrafoveal video extension for an immersive viewing experience | |
US10297009B2 (en) | Apparatus and method for generating an extrapolated image using a recursive hierarchical process | |
JP2013195725A (ja) | 画像表示システム | |
Kim et al. | A study on the possibility of implementing a real-time stereoscopic 3D rendering TV system | |
Lin et al. | Video exhibition with adjustable augmented reality system based on temporal psycho-visual modulation | |
CN112752110B (zh) | 视频呈现方法及装置、计算设备、存储介质 | |
Chamaret et al. | Video retargeting for stereoscopic content under 3D viewing constraints | |
Lee | Novel video stabilization for real-time optical character recognition applications | |
JP2008090570A (ja) | 情報処理装置及び情報処理方法 | |
EP3752956B1 (en) | Methods, systems, and media for detecting two-dimensional videos placed on a sphere in abusive spherical video content | |
RAJAMMA et al. | Diffusion-Based Salient Region Detection via Integrating Visual Cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170627 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181205 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181220 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191021 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6672305 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |