JP2010506482A - ビデオストリームの視差回復方法及びフィルタ - Google Patents

ビデオストリームの視差回復方法及びフィルタ Download PDF

Info

Publication number
JP2010506482A
JP2010506482A JP2009530985A JP2009530985A JP2010506482A JP 2010506482 A JP2010506482 A JP 2010506482A JP 2009530985 A JP2009530985 A JP 2009530985A JP 2009530985 A JP2009530985 A JP 2009530985A JP 2010506482 A JP2010506482 A JP 2010506482A
Authority
JP
Japan
Prior art keywords
parallax
site
image
module
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009530985A
Other languages
English (en)
Inventor
バウフホルベル,ファイサル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010506482A publication Critical patent/JP2010506482A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、画像間の視差(di,k)のデータをデジタルフィルタリング処理により生成するように、画素のラインにより形成されたデジタル画像を含むビデオストリームのデジタル画像(1,2;10,20)中の視差(di,k)を、デジタルフィルタリング処理により回復する方法に関する。本方法は、深度を特定する画像サイト(i,j)を決定する初期ステージを含み、前記フィルタリングは、前記サイト(i,j)の画素の特性(ci,1、cj,1)により、及び前記サイト(j)と前記サイトに近いサイト(j′)との間の画像類似性により、同時に決まる重み付け平均化(ωi,k)に基づき前記画像(1,2;10,20)の前記サイト(i,j)間の視差(di,k)を計算する。前記フィルタリングの収束品質は、各繰り返し(k)において、小さなランダムな励起(εi,k)を前記視差(di,k)から求めた深度推定(δi,k)に加えることにより改善される。

Description

本発明は画像視差の回復に関し、例えば少なくとも2つの同期ステレオ画像ストリームからのリリーフ(relief)の回復、または連続する画像ストリームの画像分析による動きの回復に関する。
ステレオ画像によるレリーフ(relief)の光学的補償(optical restitution)の原理は当業者には周知である。この補償(restitution)は、例えば、2つのビデオカメラのレンズの位置に見る者の目の位置を一致させる双眼スペクタクル(binocular spectacles)の使用により得られる。これらの画像のシーンに表れる様々なオブジェクトやキャラクターは、異なる点にある。何故なら,i)カメラの視点が異なり、ii)シーン、オブジェクト、またはキャラクターはカメラからの距離が異なり、または深度が異なり、見る者の脳がシーンのレリーフ(relief)の印象を回復するからである。
しかし、単なる印象ではなく、ここで問題となるのは、デジタル化したステレオ画像データから深度を回復して、シーンにおけるオブジェクトやキャラクターの深度を精密に数量化することである。
かかる回復を行うにあたり、同時に撮ったピクチャを、すなわち、予め分かっているだろうカメラ間の(固定された)位置的オフセットやカメラ系の動的な動き以外の2つの画像間のシーンにおける物や人の動きが原理的に無いピクチャを、処理することになる。
しかし、一定の明確に定められた時間間隔で、相次いで撮ったシーンの2つの連続するピクチャ間のオブジェクトやキャラクターの動きを回復したい場合もある。
この2つの場合の後者のように時間領域でも、または前者のように空間領域でも、解決すべき問題は同じであり、原理的に、連続してまたは同時に撮った2つの画像間の物や人の動き(shift)を決定するという問題である。
簡単に言えば、動的セッティングにおけるレリーフを回復したとき、カメラシステムのシフト(shifting)と、シーン中のオブジェクトの動き(movement)によるシフトと、深度に起因する画像中の相対的なシフトとを同時に考慮しなければならない。これらのシフトはすべて等しく、画像間の視差を生じ、正確に数量化する必要がある。後工程の計算により、深度から動き及び/またはシフトを識別でき、または動き及び/またはシフトから深度を識別することができる。
Tian及びBarron著「A quantitative comparison of 4 algorithms for recovering dense accurate depth」、Proceedings of the Second Canadian Conference on Computer and Robot Vision、IEEE 6/05に記載されているように、視差を回復するにはカルマンフィルタベースの計算法を使用せざるを得ないが、これはリアルタイムの場合には困難である。
カルマンフィルタは、推定すべき変数(adopted representation of the variables)がマルコフ的であると仮定した予測再帰統計的フィルタである。この仮説により、各繰り返しで、観測の前後に各変数の推定に生じたエラーの共分散を計算でき、その共分散からその後の観測に適用すべきゲインや重みを求めることができる。フィルタは再帰的であり、過去の観測地を保持する必要はない。
このフィルタは、多くの分野でよく使われており、推定すべき変数の数が十分少なく、または観測間の利用可能時間が十分大きく、関与する変数の数を計算できるリアルタイムのアプリケーションでよく使われている。ステレオ画像の深度を計算する場合、変数の数は画像の画素数と同じオーダーであり、2つの観測間の時間は最大でも数10ミリ秒であり、ビデオストリームの連続した画像間の繰り返し数を計算する。現在、フィルタの各繰り返しにおいてすべての変数の共分散を計算することは不可能であり、この動作がカルマンフィルタのゲインの計算で重要である。
出願人は、3次元レンズ状モニターで3次元合成画像の即時補正や、航空または宇宙写真によるレリーフの即時決定などのアプリケーションの実現を開始し、動的設定及びリアルタイムでの画像視差の回復の問題に行き当たった。
この状況において、出願人は、カルマンフィルタの使用を提案する方法より直接的な計算方法を探した。カルマンフィルタの使用は、3次元の可視化アプリケーションには適用できない。
以上を念頭に置いて、本発明は、画像間の視差のデータをデジタルフィルタリング処理により生成するように、画素のラインにより形成されたデジタル画像を含むビデオストリームのデジタル画像中の視差を、デジタルフィルタリング処理により回復する方法に関する。前記方法は、深度を特定する画像サイトを決定する初期ステージを含み、前記フィルタリングは、サイト画素の特性により、及び前記サイトと前記サイトに近いサイトとの間の画像類似性により同時に決定される重み付け平均化に基づき、前記画像の前記サイト間の視差を計算する反復フィルタリングである。有利にも、フィルタの収束品質は、各繰り返しにおいて深度推定に小さなランダムな励起を加えることにより、再帰的フィルタの計算の各繰り返しにおいて改善することができる。
重み付けは、すぐ近傍で行われる観測だけにより決まる。共分散の計算はしなくてよい。
本発明による、ビデオストリームの画像のレリーフと動きを回復する再帰的フィルタリングプロセスすなわち処理の以下の説明と、添付した図面とを考慮すれば、本発明をよりよく理解できるであろう。
繰り返しループ中に2つの画像の再帰的フィルタリングを実行する深度回復手順を示す図である。 本発明による再帰的フィルタを示す機能的フローチャートである。
発明の詳細な説明
異なる視点からの撮った同一のシーンのデジタル画像を、同時にピクチャを撮る2つのカメラシステム(図示せず)(この場合ビデオカメラ)により供給する。視点が異なるので、ビデオ画像はステレオ画像(a set of stereo images)を構成する。単純化のため、後述する処理により画像1、2を供給する2つのシステムのみを考える。この処理は、より複雑な複数のシステムにも、例えばシステムのペアに対してこの処理を実行することにより適用することも可能である。
各デジタル画像は、基本的には、画素のラインごとに1...i、j...と線形にインデックスされた所定の画素集合により表される。画素は、複数の8ビット(octet)で決まる色や強さの特性ci、cjを有し、1つの8ビットでグレーレベルを表し、3つの8ビットでそれぞれ基本色レベル(RGBまたはCMY)を表す。
以下の処理では、インデックスされた各ピクセルの周囲にある所定範囲の近傍領域(neighborhoods)を決めると都合がよい。近傍領域のサイズは、画素数として表され、回復する深度の角度分解能として構成する。この決定は、1つのサイト決定ステージでだけ行われる。
例えば、i,j...と付番された各近傍領域は、図1に示したように方向付けされた、1辺がピクセルiを中心とする2N+1個の画素を有する正方形で構成され、各近傍領域すなわちサイトは隣接する4つのサイトと連続している。すなわち、ある画素ラインのi及びi+1とインデックスされた画素は、P=2N+1画素のピッチだけ離れ、インデックスされた画素のラインも同様にP個のインデックスされていない画素のピッチだけ離れている。
しかし、オーバーラップしたサイト、すなわちPが2N+1より小さい場合を想定してもよい。または半径Nであり、PがN×√2より小さい円形サイトを想定してもよい。
換言すると、本回復方法は、マップ10、20、30に適用する深度を特定する、画像のサイト(i,j)を決定する最初のステージを含む。
これらの近傍領域すなわちサイトi,jの完全な集合は、各画像1,2に対して、サイト11...19,21...が特定されたサイトi,jのマップ10、20を構成する。図面を簡単にするために、各マップではサイトは9個に任意的に限定されている。2つの画像10,20間のアルゴリズムにより、同様にサイト31...のマップ30を提供する。これはオブジェクトやキャラクターの位置の違いを示し、以下に説明する。
2つの画像1、2間の違いや視差や動きを回復する処理は、再帰的フィルタリングであり、図1と図2を参照して以下に説明する。
フィルタの各繰り返しkにおいて、マップ10の座標i,jの各サイトと、マップ20のサイトj′とについて、次式(1)により各サイトiとjの間の重みωi,jを計算する。
Figure 2010506482
この式(1)では、ci,1とcj,1は、上記の、マップ10のサイトiとjの特性ciとcjであり、cj′,2はマップ20のサイトj′の特性である。
ωi,jは2つの項により決まる:
Figure 2010506482
この第1の項(図1に示した)は、マップ10の2つのサイトiとjの間の画像特性の違いにペナルティを与える。
Figure 2010506482
この第2の項は、画像20のサイトjとj′、及び結局2つの画像10と20との間における局所的かつ平均的な一致を確保し、色の相対的な類似性による深度のロス(ブリーディング)と、色が一様なオブジェクトの平坦化の問題を解決する。
係数αとβは事前に較正し、再帰的フィルタの共分散がよくなるように調整する。
この場合、指数型の重みωi,jを選択するが、単調減少する重みであれば他のどんなものを用いても良い。計算の複雑性を、必ずしも収束性を損なわずに低減することができる。
マップ20のインデックスj′は、式(2)により前の繰り返しk−1の計算結果に基づき計算される視差dj,kのマップ30における計算と更新後の、マップ10のインデックスjに対応する。
Figure 2010506482
より具体的には、図2において、フィルタリング処理の収束の繰り返しkにおいて、一方では画像1のサイトiの特性ci,1と、他方では前の繰り返しk−1の出力106において得られた視差di,k−1を、式(2)による視差di,kの計算の第1のステージ100の入力101及び103にそれぞれ送る。
マップ30の視差の初期値di,oは乱数でも一様な値であってもよい。
この繰り返しkにおいて、繰り返しk−1の出力106で得られた視差di,k−1と、画像2のサイトjの特性cj,2を、それぞれ、画像補償ステージ200の入力103と102に送り、画像補償ステージ200は、現在の補償推定を用いて画像2の画素を直接シフトする。実際には、この実施形態は、画像2そのものをハング(hanging)する必要はなく、画像2から画素の動き補償されたフェッチを行うことにより実現できる。ステージ200により、出力104において、画像2のサイトjに対する画像2のサイトj′の新しい推定が得られる。
マップ10と20(または画像1と2)は変化しない。マップ30だけが各繰り返しで更新される。
出力104は、視差di,kを計算する計算ステージ100の入力に送られる。
これは、ステージ100において、入力101、103及び104を考慮して式(1)により重みωi,jを計算し、ωi,jが分かったら、式(2)によりdi,kを計算し、これからサイトiの深度δi,kを当業者には周知の式により求めることにより行う。
換言すると、本回復方法は、画像1と2のサイトiとjの間の視差(di,k)の計算に、2つのステージ100と200を有する再帰的フィルタリングを適用する。これらのサイトの計算結果は、重みωi,kにより重み付けされた式(2)の平均化の後に、マップ10と20に格納される。重みωi,kは、係数αによりサイトiとjの画素の特性ci,1とcj,1により、及び係数βによりサイトjとそれに隣接するサイトj′間の画像の類似性により、式(2)を通じて同時に決定される。
フィルタの収束品質は、ステージ100の出力105に、各計算の繰り返しkにおいて、ステージ300をさらに含めることにより改善される。ステージ300において、求めた深度推定δi,kに、小さなランダムな励起εi,kを加える。
実際、特に最初の視差マップ30で一様な値を用いた場合、ランダムな励起は収束のために有用なステップである。
ステージ100、200、300はすべてのサイトiについて上記の手順に従って繰り返され、インデックスiの繰り返しを、再帰的フィルタが十分に収束する値Kになるまで、収束繰り返しインデックスkによりグローバルに繰り返す。
有限回Kの繰り返し後に収束し、この数はフットプリントPに反比例することが分かる。繰り返し回数を、実験的に決めた閾値Kに制限してもよい。所定の停止基準を使うこともできる。例えば、サイトiの全体にわたる差異|δi,k−δi,k−1|の最大値を所定の収束閾値Sと比較する。最初、可能性のある、一様な、またはランダムな視差di,oのマップ30から始める。ただし、これらの最後のものが好ましい。他の方法で準備された、改善された視差のマップから開始してもよい。
全体的なプロセスは、十分高速であり、カメラにより撮ったステレオビデオピクチャの全ての(または十分な数の)ペアに「オンザフライ(on the fly)」かつリアルタイムに実行でき、収束後に視差di,Kの、または同じ事であるがインデックスされた画素の深度の、対応する連続したマップ30をリアルタイムで提供する。
このフィルタリングは、例えば、奇数にランキングされた画像よりなる録画を偶数にランキングされた続きの画像(ensuing images)よりなる録画と比較することにより、1つのカメラである期間にわたり(over time)録画したシーンにおける人の動きの検出及び数量化でも機能する。これにより、人のシフトと動きの速さを正確に数量化できる。
再度、本発明によるフィルタリング処理は、プロセッサ400を有する再帰的デジタルフィルタにより実行される。プロセッサ400は、式(2)に対応する視差計算プログラムが記憶され実行される、視差di,kを計算する第1のモジュール100で画像1のデータを受け取り、視差補正を計算する第2のモジュール200で画像2のデータを受け取り、第2のモジュール200の出力104は視差100を計算する第1のモジュールの入力に接続され、第1のモジュールの出力は両方のモジュール100と200の入力103にループされている。
実際、モジュール100の出力105は、モジュール300の入力に接続され、モジュール100の出力の深度推定と小さなランダムな励起を加え、フィルタの収束品質を改善する。モジュール300の出力106は、両方のモジュール100と200の入力103にループされる。
式(1)による重み計算プログラムもモジュール100に記憶され実行される。
本発明を、図面と上記の説明に詳しく示し説明したが、かかる例示と説明は例であり限定ではなく、本発明は開示した実施形態には限定されない。請求項に記載した発明を実施する際、図面、本開示、及び添付した特許請求の範囲を研究して、開示した実施形態のその他のバリエーションを、当業者は理解して実施することができるであろう。
請求項において、「有する(comprising)」という用語は他の要素やステップを排除するものではなく、「1つの("a" or "an")」という表現は複数ある場合を排除するものではない。単一のプロセッサまたはその他のアイテムが請求項に記載した複数のユニットの機能を満たすこともできる。相異なる従属クレームに手段が記載されているからといって、その手段を組み合わせて有利に使用することができないということではない。コンピュータプログラムは、光記憶媒体や他のハードウェアとともに、またはその一部として供給される固体媒体などの適切な媒体に記憶/配布することができ、インターネットや有線または無線の電気通信システムなどを介して他の形式で配信することもできる。請求項に含まれる参照符号は、その請求項の範囲を限定するものと解してはならない。

Claims (10)

  1. 画像間の視差のデータをデジタルフィルタリング処理により生成するように、画素のラインにより形成されたデジタル画像を含むビデオストリームのデジタル画像中の視差を、デジタルフィルタリング処理により回復する方法であって、
    前記方法は、
    深度を特定する画像サイトを決定する初期ステージを含み、前記フィルタリングは、前記サイトの画素の特性により、及び前記サイトと前記サイトに近いサイトとの間の画像類似性により、同時に決まる重み付け平均化に基づき前記画像の前記サイト間の視差を計算する方法。
  2. 前記フィルタリングの収束品質は、各繰り返しにおいて、小さなランダムな励起を前記視差から求めた深度推定に加えることにより改善される、請求項1に記載の方法。
  3. 前記重み付けは指数型である、請求項1または2に記載の方法。
  4. 前記重み付けは
    Figure 2010506482
    により計算される、請求項3に記載の方法。
  5. 前記再帰的フィルタリングの繰り返しの総数は、事前に実験的に決定される閾値に制限される、請求項1または2に記載の方法。
  6. 前記フィルタリングの停止に収束基準を用いる、請求項1または2に記載の方法。
  7. 前記フィルタリングの初期視差はランダムな視差である、請求項1または2に記載の方法。
  8. 請求項1に記載のビデオストリームのデジタル画像における視差を回復する方法を実行する再帰的デジタルフィルタであって、
    視差計算プログラムが記憶され実行される、視差を計算する第1のモジュールと、視差補正を計算する第2のモジュールと、を有し、前記第2のモジュールの出力は前記第1のモジュールの入力に接続され、前記第1のモジュールの出力は前記第1と第2のモジュールの入力にループされる再帰的デジタルフィルタ。
  9. 前記第1のモジュールは重み計算プログラムも含む、請求項7に記載のフィルタ。
  10. 前記第1のモジュールの出力は、前記フィルタの収束品質を改善する第3の加算器モジュールに接続される、請求項7に記載のフィルタ。
JP2009530985A 2006-10-02 2007-09-28 ビデオストリームの視差回復方法及びフィルタ Pending JP2010506482A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06301002 2006-10-02
PCT/IB2007/053955 WO2008041167A2 (en) 2006-10-02 2007-09-28 Method and filter for recovery of disparities in a video stream

Publications (1)

Publication Number Publication Date
JP2010506482A true JP2010506482A (ja) 2010-02-25

Family

ID=39268868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009530985A Pending JP2010506482A (ja) 2006-10-02 2007-09-28 ビデオストリームの視差回復方法及びフィルタ

Country Status (4)

Country Link
US (1) US20090316994A1 (ja)
JP (1) JP2010506482A (ja)
CN (1) CN101523436A (ja)
WO (1) WO2008041167A2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2293586A1 (en) * 2009-08-04 2011-03-09 Samsung Electronics Co., Ltd. Method and system to transform stereo content
FR2958824A1 (fr) 2010-04-09 2011-10-14 Thomson Licensing Procede de traitement d'images stereoscopiques et dispositif correspondant
CN101840574B (zh) * 2010-04-16 2012-05-23 西安电子科技大学 基于边缘象素特征的深度估计方法
DE102013100344A1 (de) * 2013-01-14 2014-07-17 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung von Tiefenkarten aus Stereobildern mit verbesserter Tiefenauflösung im Fernbereich
WO2015057037A1 (ko) 2013-10-18 2015-04-23 엘지전자 주식회사 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
FR3028988B1 (fr) * 2014-11-20 2018-01-19 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764871A (en) * 1993-10-21 1998-06-09 Eastman Kodak Company Method and apparatus for constructing intermediate images for a depth image from stereo images using velocity vector fields
US5911035A (en) * 1995-04-12 1999-06-08 Tsao; Thomas Method and apparatus for determining binocular affine disparity and affine invariant distance between two image patterns
JP4056154B2 (ja) * 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
US6487304B1 (en) * 1999-06-16 2002-11-26 Microsoft Corporation Multi-view approach to motion and stereo
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US7715591B2 (en) * 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
US7397929B2 (en) * 2002-09-05 2008-07-08 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3D images
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
KR100603603B1 (ko) * 2004-12-07 2006-07-24 한국전자통신연구원 변위 후보 및 이중 경로 동적 프로그래밍을 이용한 스테레오 변위 결정 장치 및 그 방법

Also Published As

Publication number Publication date
WO2008041167A3 (en) 2008-11-06
WO2008041167A2 (en) 2008-04-10
CN101523436A (zh) 2009-09-02
US20090316994A1 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
CN111539879B (zh) 基于深度学习的视频盲去噪方法及装置
JP4210954B2 (ja) 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置
JP6202879B2 (ja) ローリングシャッタ歪み補正と映像安定化処理方法
JP5068732B2 (ja) 3次元形状生成装置
JP2010506482A (ja) ビデオストリームの視差回復方法及びフィルタ
RU2419880C2 (ru) Способ и устройство для вычисления и фильтрации карты диспарантности на основе стерео изображений
CN113724155A (zh) 用于自监督单目深度估计的自提升学习方法、装置及设备
TWI576790B (zh) 階層式立體匹配裝置及方法
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
CN114429191B (zh) 基于深度学习的电子防抖方法、系统及存储介质
KR101896941B1 (ko) 스테레오 매칭 장치 및 그 방법
JP2012238932A (ja) 3d自動色補正装置とその色補正方法と色補正プログラム
JP6359985B2 (ja) デプス推定モデル生成装置及びデプス推定装置
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
KR101437898B1 (ko) 단일 영상을 이용한 hdr 영상 생성 장치 및 방법
JP5200042B2 (ja) 視差推定装置およびそのプログラム
CN110136085B (zh) 一种图像的降噪方法及装置
CN117173232A (zh) 深度图像的获取方法、装置及设备
CN113784014A (zh) 一种图像处理方法、装置及设备
JP7308913B2 (ja) 敵対的生成ネットワークアルゴリズムを活用した超分光高速カメラ映像生成方法
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
TWI540538B (zh) 對立體影像之處理方法
CN109379577B (zh) 一种虚拟视点的视频生成方法、装置及设备
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
CN108062741B (zh) 双目图像处理方法、成像装置和电子设备