JP2022051700A - 画像補完用のシステム - Google Patents

画像補完用のシステム Download PDF

Info

Publication number
JP2022051700A
JP2022051700A JP2021151473A JP2021151473A JP2022051700A JP 2022051700 A JP2022051700 A JP 2022051700A JP 2021151473 A JP2021151473 A JP 2021151473A JP 2021151473 A JP2021151473 A JP 2021151473A JP 2022051700 A JP2022051700 A JP 2022051700A
Authority
JP
Japan
Prior art keywords
frame
past
module
map
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021151473A
Other languages
English (en)
Other versions
JP7281754B2 (ja
Inventor
アブルー ウィム
Abbeloos Wim
オスメゾリ ガブリエル
Othmezouri Gabriel
マ リーシャン
Liqian Ma
ゲオルゴリス スタマティオス
Georgoulis Stamatios
ファン ホール ルク
Van Gool Luc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Katholieke Universiteit Leuven
Eidgenoessische Technische Hochschule Zurich ETHZ
Toyota Motor Corp
Original Assignee
Katholieke Universiteit Leuven
Eidgenoessische Technische Hochschule Zurich ETHZ
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Katholieke Universiteit Leuven, Eidgenoessische Technische Hochschule Zurich ETHZ, Toyota Motor Corp filed Critical Katholieke Universiteit Leuven
Publication of JP2022051700A publication Critical patent/JP2022051700A/ja
Application granted granted Critical
Publication of JP7281754B2 publication Critical patent/JP7281754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像補完用のシステムを提供する。【解決手段】画像補完用のシステム100は、第1視野を有する過去フレーム及び現在フレームを受け取るように、且つ、受け取った過去フレームのそれぞれに1つずつ、座標マップの組を生成する座標生成モジュール102と、入力として、過去フレーム、現在フレーム及び座標マップを受け取るように、且つ、前記入力に基づいて第2視野を有する現在フレームを合成するように構成されたフレーム統合モジュール104と、を有する。【選択図】図1

Description

本開示は、画像補完用のシステムに関する。
インテリジェントな機械知覚の遂行においては、自律型自動車及びロボットなどのシステムに、その直近の可視視野(FoV:Field-of-View)を超えたシーンコンテンツの認識を付与する必要がある。これには、例えば、ワイド(wider)FoVにおいて現在のシーンを推定するために過去のナロー(narrow)FoVフレームからの情報を活用するべく、過去の情報から更なるFoV情報を予測するように、これらのシステムをトレーニング及び構成するステップを伴っている。
本出願の発明者らが知る限りにおいては、ナローFoVからワイドFoVへのFoVの外挿は、従来技術においては、まったく対処されていない。この問題の解決に伴って、いくつかの課題が想定されうる。第1に、入力されるナローFoVフレームと出力されるワイドFoVフレームの間には、大きな画像サイズの不一致が存在しうる。この不一致は、ビデオ出力における十分な時間的一貫性を実現しつつ、橋絡しなければならない。第2に、ワイドFoVフレーム内の特定のエリアが、大幅に変化している場合があり、或いは、場合によっては、過去のナローFoVフレームの任意のものにおいて、まったく出現していない場合もある。従って、多数の詳細をワイドFoVフレーム内において幻視化する必要がある。そして、第3に、ナローFoVフレーム内に含まれている情報とワイドFoVグランドトゥルース(ground truth)の間には、曖昧さが存在しうる。フレーム領域に応じて変化しうるこの曖昧さは、予測トレーニングプロセスをミスリードしうる。
当技術分野における関係する問題は、ビデオに基づいた画像合成のエリアにおいて見出すことができる。例えば、ビデオのインペインティング(inpainting)は、ナローFoVフレーム内において、可視ピクセルを条件として、失われたピクセルを幻視化する(hallucinate)ことを狙いとしている。同様に、将来のビデオ予測は、すべてがナローFoV内にある状態において、過去及び現在のフレームを条件として、将来フレームを幻視化することに合焦している。
ビデオの外挿は、一般に、FoVを拡張するべく、隣接するナローFoVフレームの観察されているピクセルをブレンドするために、2D又は3D形状に基づいた画像ワーピング及びスティッチング技法(image warping and stitching techniques)を採用している。但し、ビデオの外挿は、ナローFoV内において観察されていないピクセルの問題に対処してはいない。
新しいビュー合成(Novel view synthesis)は、観察されているピクセルをブレンドする、のみならず、主にディスオクルージョン(dis-occlusion)のためにいくつかの失われたピクセルを幻視化することにより、異なる視点から所与の物体又はシーンの画像を生成することを狙いとしている。この技法は、特にビデオシーンに適用された際に、良好な結果を生成するべく、高精度のマルチビュー形状に大きく依存している。
本開示は、画像補完用のシステムを提供しており、システムは、
第1過去フレーム及び第1現在フレームを受け取るように、且つ、受け取られた第1過去フレーム及び第1現在フレームのそれぞれごとに1つずつ、座標マップの組を生成するように、構成された座標生成モジュールであって、第1過去フレーム及び第1現在フレームは、第1視野(FoV)を有し、第1過去フレームに対応する座標マップは、第1現在フレームの座標系に対する第1過去フレームの空間マッピングを提供している、モジュールと、
入力として、第1過去フレーム、第1現在フレーム、及び座標マップを受け取るように、且つ、前記入力に基づいて第2FoVを有する第2現在フレームを合成するように、構成されたフレーム統合モジュールと、
を含む。
実施形態によれば、第1及び第2FoVは、等しいものであってもよく、或いは、異なっていてもよい。
一実施形態において、第2FoVは、第1FoVよりも大きい。例えば、第2FoVは、第1FoVよりも、ピクセルを単位として、大きな幅及び/又は長さを有することができる。
用途に応じて、第1FoVは、「ナローFoV」と見なすことができると共に、第2FoVは、「ワイドFoV」と見なすことができる。
一実施形態において、第1FoV及び第2FoVは、初期化時点において、システムのパラメータとして規定することができる。
従って、座標マップを通じて、座標生成モジュールは、過去のフレーム内に含まれている情報が第1現在フレームの座標系に伝播することを可能にしている。これは、過去フレームからの情報が、第1現在フレームからの情報と組み合わせられることを許容している。具体的には、フレーム統合モジュールは、その最終的な組合せのために過去フレームからの情報を適切にワーピングするべく座標マップを使用している。
一実施形態において、座標生成モジュールは、
第1過去フレームを受け取るように、且つ、受け取られた第1過去フレームのそれぞれごとに深さマップを生成するように、構成された深さネットワークと、
受け取られた第1過去フレーム及び第1現在フレームから形成された時間隣接フレームのフレームペアを受け取るように、且つ、受け取られたフレームペアのそれぞれごとに相対カメラポーズを生成するように、構成されたポーズネットワークと、
深さネットワーク及びポーズネットワークの出力に基づいて座標マップの組を生成するように構成された座標計算モジュールと、
を含む。
所与のフレームの深さマップは、フレーム内のすべてのピクセルについて、カメラとピクセルによって表されている物体の間の距離の推定値を通知している。
時間隣接フレーム(It-i,It-i+1)に対応する相対カメラポーズ(pt-i)は、、時点(t-j)から時点(t-j+1)までのカメラ位置の相対回転及び平行運動の推定値を表している。
一実施形態において、座標計算モジュールは、それぞれの第1過去フレームごとに、第1現在フレームから過去フレームへの剛性フローを算出するように、且つ、算出された剛性フローに基づいて第1過去フレーム用の座標マップを算出するように、構成することができる。第1現在フレームから第1過去フレームへの剛性フローは、第1現在フレームを第1過去フレームにワーピングするべく第1現在フレームのピクセルに適用されることになる個々のピクセル変位を通知している。
一実施形態において、フレーム統合モジュールは、座標生成モジュールによって生成された座標マップの組を使用することにより、受け取られた第1過去フレーム内に含まれている情報を第1現在フレームの座標系に伝播させるように構成することができる。
一実施形態において、フレーム統合モジュールは、
第1過去フレーム及び第1現在フレームのそれぞれに基づいて複数の特徴マップを生成するように構成されたエンコーダと、
第1過去フレーム及び第1現在フレームのそれぞれごとに、前記それぞれのフレームごとに複数のワーピングされた特徴マップを生成するべく、前記それぞれのフレームと関連する個々の座標マップを使用することにより、前記それぞれのフレームと関連する複数の特徴マップをワーピングするように構成されたワーピングモジュールと、
統合された特徴マップの組を生成するべく、第1過去フレーム及び第1現在フレームのすべてにわたって、生成されたワーピング済みの特徴マップを統合するように構成されたアテンションに基づいた特徴統合(AFA:Attention-based Feature Aggregation)モジュールと、
を含む。
一実施形態において、AFAモジュールは、統合において、第1過去フレーム及び第1現在フレームのそれぞれのフレームごとに、第1現在フレームとの関係におけるフレームのタイミングに基づいてフレームの領域固有の特徴を強調するように構成することができる。
一実施形態において、AFAモジュールは、(第1過去フレーム及び第1現在フレームの)古いフレームについては、フレームの中心から離れたフレーム領域(例えば、中心から既定の距離超の領域)を強調するように、且つ、新しいフレームについては、フレームの中心の近傍のフレーム領域(例えば、中心から既定の距離未満の領域)を強調するように、構成することができる。このような統合方式の背後の洞察は、中心から遠いフレーム領域は、最近のフレーム内よりも、古いフレーム内において、既に観察されている可能性が大きく、且つ、相対的に小さな深さ/ポーズエラーを有する、というものである。対照的に、フレームの中心近傍のフレーム領域は、古いフレームよりも最近のフレーム内において、既に観察されている、且つ、相対的に小さな深さ/ポーズエラーを有する、可能性が高い。従って、深さ/ポーズエラーに対する安定性が改善されている。
一実施形態において、AFAモジュールは、第1過去フレーム及び第1現在フレームのそれぞれのフレームごとに、
前記それぞれのフレームと関連するワーピングされた特徴マップのそれぞれごとに、個々のフレームの観点における空間アテンションマップ(attention map)を生成するように、且つ、
個々の特徴マップを生成するべく、前記それぞれのフレームと関連するワーピングされた特徴マップのそれぞれを個々の空間アテンションマップによって乗算するように、
構成することができる。
一実施形態において、AFAモジュールは、統合された特徴マップの組を生成するべく、第1過去フレーム及び第1現在フレームのすべてにわたって、生成された個々の特徴マップを合計するように更に構成することができる。
一実施形態において、フレーム統合モジュールは、統合された特徴マップの組に基づいて第2FoVを有する第2現在フレームを生成するように構成されたUネットモジュールを更に含むことができる。
一実施形態において、Uネットモジュールは、
統合された特徴マップの組を受け取るように、且つ、第1現在フレームの視野の外側に含まれる第2現在フレームの領域をアウトペインティングするように、構成されたコンテキスト正規化サブモジュールと、
コンテキスト正規化サブモジュールによって出力された特徴マップを受け取るように、且つ、第1現在フレームの視野内に含まれる遮蔽された又は観察されていない(第1過去及び/又は第1現在フレーム内の)領域をインペインティングするべくコンテキスト正規化サブモジュールによって出力された前記特徴マップを処理するように、構成されたデコーダサブモジュールと、
デコーダサブモジュールによって出力された特徴マップを受け取るように、且つ、デコーダサブモジュールによって出力された前記特徴マップを空間的に統合するように、構成されたゲート付き自己アテンション(GSA:Gated Self-Attention)サブモジュールと、
を含むことができる。
一実施形態において、GSAサブモジュールは、フレーム内の特徴ベクトル(或いは、ピクセル)の空間的場所に基づいて特徴ベクトル当たりに(即ち、ピクセル当たりに)動的に生成された重みに基づいてデコーダサブモジュールによって出力された特徴マップを空間的に統合するように構成することができる。
一実施形態において、第2FoVを有する推定されたフレームとその第2FoVと関連するグランドトゥルースの間の曖昧さレベルは、第2FoVフレーム内の領域の間において変化しうる(即ち、曖昧さレベルと場所の間に相関が存在している)。従って、場所に基づいて動的に生成された重みに基づいた特徴マップの統合は、特徴統合が、統合されている特徴ベクトルの曖昧さレベルに基づいて動的に適合されることを許容している。従って、曖昧さの影響が低減され、これにより、特徴統合性能が改善される。
一実施形態において、提案されているシステムは、第2現在フレームと関連する不確定性マップを生成するように構成された幻視化不確定性モジュールを含むことができる。
第2現在フレームと関連する不確定性マップを生成することにより、幻視化不確定性モジュールは、第2現在フレームのそれぞれのピクセルごとに幻視化不確定性を解釈するためのメカニズムを提供している。これは、画像補完システムを使用するシステムが、画像補完システムによって生成された任意の更なるFoV情報を相対的に良好に処理することを支援することができる。このようなシステムは、いくつかの例を挙げれば、自己運転自動車、自律型ロボット、及びVR/ARシステムなどの意思決定システムであってよい。
トレーニングの際に、不確定性マップは、監督不一致を低減するべく、損失関数を空間的に重み付けするように使用することができる(監督不一致は、予測結果とグランドトゥルースの間の不一致であり、予測結果が視覚的に受け入れ可能でありうるにも拘わらず、空間的な変位が、監督不一致が大きくなることをもたらし、これにより、トレーニングの収束問題を生成しうる)。具体的には、不確定性マップによる損失関数の重み付けは、高度な幻視化不確定性による損失関数値に対するピクセルの影響を減衰させ、且つ、トレーニングの目的の調節を支援している。
一実施形態において、幻視化不確定性モジュールは、幻視化不確定性を組み込んだ損失関数を極小化するべく、不確定性マップを生成するように構成することができる。
一実施形態において、幻視化不確定性モジュールは、高い幻視化不確定性を有することになる第2現在フレームの領域及び低い幻視化不確定性を有することになるものの予測に基づいて不確定性マップを生成するように構成することができる。
一実施形態において、深さネットワーク及びフレーム統合モジュールによって受け取られた第1過去フレームの一部分は、フレーム統合モジュールによって生成された、且つ、第1過去フレームの前記部分に対応する、(第2FoVを有する)第2過去フレームによって置換することができる。これは、生成されたワイドFoVフレームのビデオ内の時間的一貫性(即ち、色及び構造ジッタ)の改善を支援している。
一実施形態において、第2過去フレームは、それぞれ、フレーム統合モジュールに提供する前に、幻視化不確定性モジュールによって生成された個々の不確定性マップと連結することができる。従って、不確定性マップは、フレーム統合モジュールの入力にコンフィデンス信号を導入するべく、使用されており、コンフィデンス信号は、第2過去フレームのそれぞれごとに推定コンフィデンスレベルを反映している。これは、システムが、推定された第2過去フレーム当たりにピクセル当たりの幻視化不確定性を表現することを許容している。
一実施形態において、上述の特徴の任意のものは、コンピュータプログラムの命令として実装することができる。従って、本開示は、プロセッサによって実行された際に、プロセッサが、上述の画像補完用のシステムを実装するようにする命令を含むコンピュータプログラムを提供している。
コンピュータプログラムは、任意のプログラミング言語を使用することが可能であり、且つ、ソースコード、オブジェクトコード、部分的にコンパイルされたコードなどのソースコードとオブジェクトコードの中間のコード、或いは、任意のその他の望ましい形態の形態を有することができる。
コンピュータプログラムは、コンピュータ可読媒体上において記録することができる。従って、本開示は、上述のコンピュータプログラムをその上部において記録したコンピュータ可読媒体をも対象としている。コンピュータ可読媒体は、コンピュータプログラムを保存する能力を有する任意のエンティティ又は装置であってよい。
本開示の更なる特徴及び利点については、以下の添付の図面を参照する、限定ではなく、例示のみを目的として付与されている、その特定の実施形態に関する以下の説明から明らかとなろう。
一実施形態による例示用の画像補完システムを示す図である。 図1のシステムの例示用のコンピュータ実装形態を示す図である。 一実施形態による例示用の座標生成モジュールを示す図である。 一実施形態による例示用のフレーム統合モジュールを示す図である。 一実施形態によるフレーム統合モジュールにおいて使用される例示用のアテンションに基づいた特徴統合(AFA)モジュールを示す図である。 一実施形態によるフレーム統合モジュールにおいて使用される例示用のUネットを示す図である。 例示用のナローFoVフレームを示す図である。 一実施形態による図7Aの例示用のナローFoVフレームに基づいて生成された例示用のアテンションマップを示す図である。 ワイドFoVグランドトゥルースとの関係における推定ワイドFoVフレーム内の曖昧さを示す一例である。
図1は、本開示の一実施形態による画像補完用の例示用のシステム100を示している。例示用のシステム100は、本開示の実施形態の、限定ではなく、例示を目的として提供されている。
図1に示されているように、例示用のシステム100は、座標生成モジュール102及びフレーム統合モジュール104を含む2ステージリカレントフレームワークに基づいている。また、幻視化不確定性モジュール106も、提供することができる。
座標生成モジュール102は、第1過去フレーム108及び第1現在フレーム116を受け取るように、且つ、受け取られた第1過去フレーム当たりに1つずつ、座標マップ110の組を生成するように、構成されている。第1過去フレームに対応する座標マップは、第1現在フレームに対する第1過去フレームの空間マッピングを提供している。一実施形態において、第1過去フレーム108及び第1現在フレーム116は、第1FoV(例えば、208×128ピクセル)を有する。
フレーム統合モジュール104は、第1過去フレーム108及び第1現在フレーム116のみならず、座標マップ110をも、モジュール102から受け取るように構成されている。フレーム統合モジュール104は、受け取られた入力に基づいて第2現在フレーム112を合成するように構成されている。一実施形態において、第2現在フレーム112は、第2FoVを有する。
第2FoVは、第1FoVと等しいものであってもよく、或いは、異なっていてもよい。一実施形態において、第2FoVは、第1FoVよりも大きい。例えば、第2FoVは、ピクセルを単位として、第1FoVよりも大きな幅及び/又は長さを有することができる。例えば、第1FoVが208×128ピクセルである場合に、第2FoVは、416×128ピクセルであってよい。
一実施形態において、生成された(第2FoVを有する)第2フレーム内の時間的一貫性を改善するべく、モジュール102及び104に入力される第1過去フレームの一部分は、フレーム統合モジュール104によって生成されたその対応する第2フレームによって置換することができる。
フレーム統合モジュール104は、座標マップ110を使用することにより、過去フレーム(第1過去フレームと、任意選択により、第2過去フレームをも含む)に含まれている情報を第1現在フレームの座標系に伝播させるように構成することができる。
一実施形態において、フレーム統合モジュール104は、それぞれの入力フレームに基づいて複数の特徴マップを生成するように構成することができる。特徴マップは、マルチスケール特徴マップであってよい。
フレーム統合モジュール104は、過去フレームと関連する複数の特徴をワーピングさせるべく、所与の過去フレームに対応する座標マップ110を使用することができる。第1現在フレームの場合には、これが正しい座標系内に既に存在していることに伴って、ワーピングは不要であり、且つ、ワーピングされた特徴マップは、オリジナルの特徴マップに対応している。
この後に、フレーム統合モジュール104は、統合された特徴マップを生成するべく、すべてのフレームに跨ってワーピングされた特徴マップを統合するように構成することができる。一実施形態において、ワーピングされた特徴マップの統合は、アテンションに基づいた特徴統合方式を使用している。アテンションに基づいた特徴統合方式は、深さ/ポーズエラー(即ち、座標マップにおけるエラー)により、且つ、フレーム一貫性により、生成される課題に対処するべく、フレームの間において有用な特徴を選択するべく学習するようにトレーニングされている。これは、特徴レベルにおけるマルチフレーム情報の融合を改善している。
フレーム統合モジュール104は、統合された特徴マップに基づいて第2現在フレーム112を生成するように構成することができる。
一実施形態において、フレーム統合モジュール104は、第1FoVの外側に含まれる領域をアウトペインティング(外挿)するべく、コンテキスト正規化に基づいた技法を使用することができる。
一実施形態において、フレーム統合モジュール104は、第1FoV内に含まれる遮蔽された又は観察されていない領域をインペインティング(補完)するべくゲート付き畳み込み技法を使用することができる。
一実施形態において、フレーム統合モジュール104は、システムが異なる曖昧さレベルを有する観察に対して適合可能となることを許容するべく、ゲート付き自己アテンション(GSA)メカニズムを実装することができる。GSAメカニズムは、ローカル情報(曖昧さが領域の間において異なっている)に従って動的に生成される重みに基づいて特徴マップを空間的に統合するように構成することができる。
一実施形態において、フレーム統合モジュール104は、不確定性メカニズムを実装することができる。具体的には、幻視化不確実性モジュール106は、第2現在フレーム112と関連する不確定性マップ114を生成するべく提供することができる。不確定性マップは、それぞれのピクセルにおける幻視化不確定性を解釈するべく機能している。トレーニングの際に、不確定性マップは、監督不一致を低減するべく損失関数を空間的に重み付けするように使用することができる(監督不一致は、予測結果とグランドトゥルースの間の不一致であり、空間的な変位が、予測結果が視覚的に受け入れ可能でありうるにも拘わらず、監督不一致が大きくなるようにしており、これにより、トレーニングの収束問題を生成しうる)。具体的には、不確定性マップによる損失関数の重み付けは、高度な幻視化不確定性による損失関数値に対するピクセルの影響を減衰させ、且つ、トレーニングの目的の調節を支援している。
一実施形態において、システム100は、図2に示されているコンピュータシステム200などのコンピュータシステム上において実装することができる。具体的には、システム100と、そのモジュール及びメカニズムの任意のものと、は、コンピュータシステム200のプロセッサ202によって実行された際に、プロセッサ202が、本明細書において記述されているシステム100の方法又は機能を実行するようにする命令を含むコンピュータプログラムとして実装することができる。一実施形態において、コンピュータプログラムは、コンピュータシステム200のコンピュータ可読媒体204上において記録することができる。
以下、図3~図8を参照し、システム100の詳細な動作を提示する。
一般性を失うことなしに、システム100については、第2FoVが(幅及び/又は長さの観点において)第1FoVよりも大きい特定の実施形態について説明することとする。例えば、第1FoVは、208×128ピクセルであってよく、且つ、第2FoVは、416×128ピクセルであってよい。従って、わかりやすさを目的として、第1FoVは、「ナローFoV」と呼称することとし、且つ、第2FoVは、「ワイドFoV」と呼称することとする。本明細書における教示に基づいて当業者には理解されるであろうように、実施形態は、この特定の実施形態によって限定されるものではない。
提示の簡潔性を目的として、システム100の動作については、現在のワイドFoVフレームOtを生成するための現在のナローFoVフレームItの処理の観点から説明する。従って、システム100は、FoV外挿システムとして見なすことができる。但し、上述のように、システム100は、FoV外挿に限定されるものではない。
図3は、一実施形態による例示用の座標生成モジュール300を示している。例示用の座標生成モジュール300は、本開示の実施形態の、限定ではなく、例示を目的として提供されている。例示用の座標生成モジュール300は、座標生成モジュール102の一実施形態であってよい。
図3に示されているように、座標生成モジュール300は、深さネットワーク302と、ポーズネットワーク304と、座標計算モジュール306と、を含む。
深さネットワーク302は、複数の過去フレームを受け取るように構成されている。過去フレームは、ナローFoVフレーム及び過去のワイドFoVフレームを含みうる。例示を目的として、以下の説明においては、深さネットワーク302がk個のフレームを受け取るものと仮定されている。k個のフレームは、(k-j)個の過去ナローFoVフレーム(図3において、It-k,...,It-j-1と表記されている)と、j個の過去ワイドFoVフレーム(図3において、Ot-j,...,Ot-1と表記されている)と、を含むことができる。一実施形態において、kは、5に等しくてもよく、且つ、jは、1~5であってよい。
過去フレームは、例えば、RGBフレーム、深さフレーム、又はセマンティックセグメント化フレームであってよい。フレームは、同一のカメラソースから、或いは、異なるカメラソースから、導出することができると共に、同一のカメラ基準に変換することができる。
深さネットワーク302は、受け取られたk個のフレームのそれぞれごとに深さマップdを生成している。一実施形態において、深さネットワーク302は、過去ナローFoVフレームIt-k,...,It-j-1に個々に対応する深さマップdt-k,...,dt-j-1を生成し、且つ、過去ワイドFoVフレームOt-j,...、Ot-1に個々に対応する深さマップdt-j,...,dt-1を生成している。
所与のフレームの深さマップは、フレーム内のすべてのピクセルについて、カメラとピクセルによって表されたオブジェクトの間の距離の推定値を通知している。
ピクセル深さ推定については、当業者に周知であり、且つ、本明細書においては、その説明を省略することとする。一実施形態において、深さネットワーク302は、「Clement Godard, Oisin Mac Aodha, Michael Firman, Gabriel Brostow, Digging into self-supervised monocular depth estimation, arXiv:1806.01260, in ICCV, 2019」に詳述されている完全畳み込み型のUネットとして実装することができる。具体的には、深さネットワーク302は、周知のVGG16BNエンコーダと、いくつかの畳み込み層のデコーダと、を含みうる。入力は、RGB画像フレーム(3チャネル)であってよく、且つ、出力は、同一分解能の深さマップ(1チャネル)である。
ポーズネットワーク304は、ナローFoVフレームのk個のペアを入力として受取り、且つ、k個のフレームペアのそれぞれごとに相対的なカメラポーズを生成している。一実施形態において、k個のフレームペアは、フレームペア(It-k,It-k+1),...,(It-1,It)、即ち、時間tにわたる隣接するフレームペアである、(現在)ナローFoVフレーム及びk-1個の過去ナローFoVフレーム、を含む。結果的に得られる相対的なカメラポーズは、pt-k,...,pt-1と表記されている。
隣接するナローFoVフレーム(It-i,It-i+1)に対応する相対的カメラポーズpt-iは、時点(t-j)から時点(t-j+1)へのカメラ位置の相対回転及び平行運動の推定値を表している。
相対カメラポーズ推定については、当業者には、周知であり、本明細書においては、その説明を省略することとする。一実施形態において、ポーズネットワーク304は、「Clement Godard, Oisin Mac Aodha, Michael Firman, Gabriel Brostow, Digging into self-supervised monocular depth estimation, arXiv:1806.01260, in ICCV, 2019」において詳述されているように実装することができる。具体的には、ポーズネットワーク304は、RGB画像のペア(3+3チャネル)を入力として受け取る、且つ、6チャネルベクトルを出力として生成する、ResNet18エンコーダを含むことができる。
座標計算モジュール306は、深さネットワーク302及びポーズネットワーク304の出力に基づいてk個の座標マップ308を算出するように構成されている。一実施形態において、(k-j)個の過去ナローFoVフレーム(It-k,...,It-j-t)に個々に対応する(k-j)個のマップ(et-k,...,et-j+1)及びj個の過去ワイドFoVフレーム(Ot-j,...,Ot-1)に個々に対応するj個のマップ(et-j,...,et-1)が算出されている。
過去(ナロー又はワイドFoV)フレームに対応する座標マップは、現在ナローFoVフレームItに対する過去フレームの空間的なマッピングを提供している。換言すれば、座標マップは、過去フレームのそれぞれのピクセルごとに、現在のフレームIt内のその対応する座標を通知している。
一実施形態においては、次式に従って、過去フレームIi又はOi(i=t-k,...,t-1)用の座標マップが、まず、現在フレームItから過去フレームへの剛性フロー行列を算出することにより、取得されており、
Figure 2022051700000002
ここで、Kは、カメラの内部行列を表記し、
Figure 2022051700000003
は、過去フレームIiから現在フレームへの相対的なカメラポーズを表記し、
Figure 2022051700000004
は、現在フレームIi内のピクセルの同次(又は、射影)座標の行列を表し、且つ、
Figure 2022051700000005
は、位置
Figure 2022051700000006
の深さ値を表している。
現在フレームItから過去フレームへの剛性フローは、現在フレームItを過去フレームにワーピングさせるべく、現在フレームItのピクセルに適用されることになる個々のピクセル変位を通知している。
次いで、算出された剛性フローを使用することにより、現在フレームItを過去フレームに空間的にマッチングする座標マップ
Figure 2022051700000007
を演算することができる。座標マップ
Figure 2022051700000008
は、剛性フローを一般的な2Dグリッド(2チャネル)(例えば、値[[[1,1,1],[2,2,2],[3,3,3]],[[1,2,3],[1,2,3],[1,2,3]]]を有する3×3の2Dグリッド)に加算することにより、取得することができる。最後に、座標マップ
Figure 2022051700000009
は、座標マップ
Figure 2022051700000010
を取得するべく逆転され、これは、過去フレームを現在フレームItに空間的にマッチングさせている。座標マップ
Figure 2022051700000011
を取得するための座標マップ
Figure 2022051700000012
の逆転の際に、現在フレームItのピクセル(x0、y0)が、座標マップ
Figure 2022051700000013
内の過去フレームのピクセル(u0、v0)に空間的にマッチングしている場合には、過去フレームのピクセル(u0、v0)は、座標マップ
Figure 2022051700000014
内において現在フレームItのピクセル(x0、y0)に空間的にマッチングすることになる。
図4は、一実施形態による例示用のフレーム統合モジュール400を示している。例示用のフレーム統合モジュール400は、本開示の実施形態の、限定ではなく、例示を目的として提供されている。例示用のフレーム統合モジュール400は、フレーム統合モジュール104の一実施形態であってよい。
図4に示されているように、例示用のフレーム統合モジュール400は、エンコーダ402と、ワーピングモジュール404と、アテンションに基づいた特徴統合(AFA)モジュール406と、Uネットモジュール408と、を含む。
エンコーダ402は、入力として、k+1個のフレームを受け取るように構成されている。初期化の際に、k+1個のフレームは、k個の過去ナローFoVフレーム(即ち、It-1,...,It-k)に、且つ、過去ナローFoVフレームItに、対応している。j回の反復の後に、時間的コヒーレンシーを改善するべく、過去ナローフレーム{It-i}i=1,...,jに対応する入力が、以前の出力{Ot-i}i=1,...,j及びその関連する不確定性マップ{Ut-j}i=1,...,jにより、置換されている(Ot-j及びUt-jは、チャネルごとに、互いに連結することができる)。わかりやすさを目的として、図4は、J回の反復が発生した後のエンコーダ入力を示している。
エンコーダ402は、それぞれの受け取られた入力フレームに基づいて複数(N)の特徴マップ410を生成するように構成されている。一実施形態において、複数の特徴マップ410は、マルチスケール特徴マップであってよい(即ち、異なる空間的スケール又はサイズを有する)。一実施形態において、Nは、3に等しくてもよいが、更に大きな数を使用することもできる。
一実施形態において、エンコーダ402は、入力フレームに基づいて第1特徴マップを生成するように構成された第1畳み込み層を含むことができる。第1特徴マップは、サイズH×W×Cのテンソルであってもよく、この場合に、Hは、フレームの高さであり、Wは、フレームの幅であり、且つ、Cは、チャネルの数である。例えば、Cは、128に等しくてもよい。第1特徴マップは、「レベル0」特徴マップと呼称することができる。
また、エンコーダ402は、第1特徴マップを受け取るように、且つ、第1特徴マップに基づいて中間第2特徴マップを生成するように、構成された第2畳み込み層を含むことができる。中間第2特徴マップは、サイズH1×W1×Cであってもよく、この場合に、H1及びW1の少なくとも1つは、それぞれ、H及びWよりも小さい。次いで、中間第2特徴マップが、サイズH1×W1×Cの第2特徴マップを生成するべく、同一サイズ(即ち、H1×W1×C)の第1特徴マップのダウンサイジングされたバージョンに加算されている。第2特徴マップは、「レベル1」特徴マップと呼称することができる。
上述のプロセスは、サイズH2×W2×Cの第3特徴マップを取得するべく、第2特徴マップとの関係において反復されてもよく、この場合に、H2及びW2の少なくとも一つは、それぞれ、H及びWよりも小さい。第3特徴マップは、「レベル2」特徴マップと呼称することができる。
次いで、k+1個の入力フレームのそれぞれごとに生成された特徴マップ410が、ワーピングモジュール404に提供されている。
これに加えて、ワーピングモジュール404は、座標計算モジュール306からk個の座標マップ308を受け取っている。上述のように、k個の座標マップ308は、(k-j)個の過去ナローFoVフレーム(It-k,...,It-j-1)にそれぞれ対応する(k-j)個のマップ(et-k,...,et-j+1)と、j個の過去ワイドFoVフレーム(Ot-j,...,Ot-1)にそれぞれ対応するj個のマップ(et-j,...,et-1)と、を含む。
一実施形態において、過去フレームのそれぞれ(即ち、(k-j)個の過去ナローFoVフレーム(It-k,...、It-j-1)及びj個の過去ワイドFoVフレーム(Ot-j,...,Ot-1)のそれぞれ)ごとに、ワーピングモジュール404は、フレームと関連する特徴マップ410を現在ナローFoVフレームItに伝播させるべく、フレームに対応する個々の座標マップを使用するように構成することができる。特徴マップ410の伝播は、フレームの複数のワーピングされた特徴マップ412を生成するべく、座標マップに従って、特徴マップ410をワーピングさせている。
一実施形態において、ワーピングモジュール404は、座標マップ308に基づいてマルチスケール特徴マップ410を伝播させるべく、「Jaderberg, Max, Karen Simonyan, and Andrew Zisserman, “Spatial transformer networks,” In NIPS. 2015」において詳述されているバイリニアサンプリングを使用している。
現在ナローFoVフレームItに対応する特徴マップ410は、ワーピングモジュール404によってワーピングされておらず、その理由は、これらが、現在フレームの座標系内において既に存在しているからであることに留意されたい。従って、特徴マップ412は、現在ナローFoVフレームItの特徴マップ410と同一である。
ワーピングされた特徴マップ412(これは、例えば、レベル0、1、及び2などの異なるレベルであってよい)は、次いで、AFAモジュール406に提供され、これは、統合された特徴マップ414を生成するべく、k+1個のフレームのすべてにわたって、ワーピングされた特徴マップ412を統合するように構成されている。ナローFoVフレームから結果的に得られたワーピング済みの特徴マップは、ワイドFoVフレームから結果的に得られたワーピング済みの特徴マップと同一のサイズを有するように、ゼロによって充填することができる。
一実施形態においては、AFAモジュール406が、図5に示されているように、実装されてもよく、図5は、本開示の一実施形態による例示用のAFAモジュール500を示している。例示用のAFAモジュール500は、実施形態の、限定ではなく、例示を目的として提供されている。
図5に示されているように、例示用のAFAモジュール500は、k+1個のフレームの所与のフレームに対応するワーピングされた特徴マップ412(例えば、レベル0、1、及び2)を受け取るようにそれぞれが構成された複数のチャネルを含む。
それぞれのチャネル内において、個々のフレームのワーピングされた特徴マップ412は、それぞれ、個々のフレームの観点における空間アテンションマップ506を生成するべく、ソフトマックス正規化モジュール504によって後続される畳み込み層502内に供給されている。一実施形態においては、レベル0空間アテンションマップ、レベル1空間アテンションマップ、及びレベル2空間アテンションマップが生成されている。例示を目的として、図7Bは、図7Aに示されている例示用のナローFoVフレームのシーケンスに対応する例示用のレベル0アテンションマップを示している。
次いで、ワーピングされた特徴マップ412のそれぞれは、個々の特徴マップ508を生成するべく、その個々の空間アテンションマップ506によって乗算されている。従って、それぞれのフレームごとに、複数の特徴マップ508(例えば、レベル0、レベル1、及びレベル2)が取得されている。
上述の空間アテンションマップの使用は、その他のフレームとの間の後続の統合のためにそれぞれのフレームの特定の特徴に合焦する又は選択することを許容している。一実施形態において、空間アテンションマップ506は、k+1個のフレームの古いフレーム(例えば、フレームt-k~t-j-1)について、フレームの中心から遠いフレーム領域(例えば、中心から既定の距離超である領域)を強調するように、且つ、k+1個のフレームの新しいフレーム(例えば、フレームt-j~t)について、フレームの中心近傍のフレーム領域(例えば、中心から既定の距離未満の領域)を強調するように、構成されている。
次いで、結果的に得られた特徴マップ508が、統合された特徴マップ414を生成するべく、すべてのフレームに跨って合計されている。一実施形態において、これは、すべてのフレームに跨って、すべてのレベル0特徴マップ508を1つに、すべてのレベル1特徴マップ508を1つに、且つ、すべてのレベル2特徴マップ508を1つに、合計するステップを含む。
図4を再度参照すれば、統合された特徴マップ414は、次いで、Uネットモジュール408に提供されている。Uネットモジュール408は、統合された特徴マップ414に基づいて現在ワイドFoVフレームOtを合成するように構成されている。これに加えて、一実施形態において、Uネットモジュール408は、ワイドFoVフレームOtと関連する不確定性マップUtをも出力している。不特定性マップは、それぞれのピクセルにおいて幻視化不確定性を解釈(説明)するべく、且つ、監督曖昧さを低減することによって学習をガイドするべく、機能している。
一実施形態において、Uネットモジュール408は、例えば、ナローFoV内に含まれる遮蔽された又は観察されていない領域をインペインティング(補完)する、且つ/又は、ナローFoVの外側に含まれる領域をアウトペインティング(外挿)する、ことにより、失われた領域を幻視化するためのメカニズムを実装している。画像のインペインティング及びアウトペインティングは、当技術分野においては、既知の技法である。具体的には、画像インペインティングは、ワーピングを通じて失われたピクセルを幻視化すること又は隣接(空間又は時間次元)する可視ピクセルを条件として失われたピクセルを生成することを狙いとしている。画像のアウトペインティングは、FoVを拡張するために、隣接するナローFoVフレームの観察されたピクセルをブレンドするべく、通常、2D又は3D形状に基づいたワーピング及びスティッチング技法を採用している。
任意選択により、Uネットモジュール408は、ゲート付き自己アテンション(GSA)メカニズムを含むことができる。GSAメカニズム用のモチベーションは、通常、推定されたワイドFoVフレームとワイドFoVグランドトゥルースの間の曖昧さレベルが、ワイドFoVフレーム内の1つの領域から別のものに変化しうる、という点にある。例えば、図8に示されているように、ワイドFoVフレーム内のピクセルは、(a)曖昧さが存在していない、現在フレーム内の観察されたナローFoVピクセル(例えば、フレームの領域802)、(b)曖昧さが小さい、正確な伝播を有する過去フレームからの伝播されたピクセル(例えば、領域806a及び806b)、(c)中間曖昧さレベルを特徴とする、ノイジーな伝播を有する過去フレームからの伝播されたピクセル(例えば、領域808a及び808b)、並びに、(d)曖昧さのレベルが高い、観察されていない領域に対応するピクセル(例えば、領域804)、という4つのカテゴリに粗く分割することができる。更に後述するように、GSAメカニズムは、モデルが、異なる曖昧さレベルを有する観察に適合可能であることを保証するように構成されている。
一実施形態において、Uネットモジュール408は、図6に示されているように実装されていてもよく、図6は、本開示の一実施形態による例示用のUネットモジュール600を示している。例示用のUネットモジュール600は、例示を目的としてのみ、提供されており、且つ、実施形態の限定ではない。
図6に示されているように、Uネットモジュール600は、ボトルネックモジュール604と、デコーダモジュール618と、を含む。
一実施形態において、ボトルネックモジュール604は、複数の連続層604-1、...、604-6を含む。層604-1、...、604-6は、それぞれ、残留遅延畳み込み層として実装することができる。このような層は、式y=x+conv(x)によって記述することが可能であり、ここで、yは、層出力であり、xは、層入力であり、且つ、conv(x)は、入力xの遅延畳み込みを表記している。
一実施形態において、デコーダモジュール618は、コンテキスト正規化サブモジュール608と、デコーダサブモジュール610と、ゲート付き自己アテンション(GSA)サブモジュール612と、アップサンプリングモジュール614と、を含む。
コンテキスト正規化サブモジュール608は、ナローFoVの外側に含まれる領域をアウトペインティング(外挿)するように構成することができる。
一実施形態において、サブモジュール608は、複数のコンテキスト正規化層608-1、608-2、及び608-3を有する。一実施形態において、正規化層608-1、608-2、及び608-3は、それぞれ、「Y.Wang, X. Tao, X. Shen and J. Jia, “Wide-Context Semantic Image Extrapolation,” in 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, CA, USA, 2019 pp. 1399-1408」において記述されているように実装することができる。従って、層608-1、608-2、及び608-3は、平均及びバリアンスを観察された領域特徴から観察されていない領域特徴に転送するように構成することができる。
但し、マスクが入力において付与されているWang他におけるものとは異なり、過去フレームを伝播させた後に観察されていない領域を通知する統合されたマスクを使用することができる。従って、大量のワイドビュー情報が過去のフレーム内において観察されており、且つ、この情報は、幻視化されるのではなく、現在ワイドFoVフレーム内に単純に伝播されうることを認識することができる。
デコーダサブモジュール610は、ナローFoV内に含まれている遮蔽された又は観察されていない領域をインペインティング(完了)するように構成することができる。
一実施形態において、サブモジュール610は、複数のデコーダ層610-1、610-2、610-3、及び610-4を含む。デコーダ層610-1、610-2、610-3、及び610-4は、それぞれ、「Jiahui Yu, Zhe Lin, Jimei Yang, Xiaohui Shen, Xin Lu, Thomas S. Huang, “Free-form image inpainting with gated convolution,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019, pp. 4471-4480」において記述されているように、ゲート付き畳み込み層として実装することができる。
GSAサブモジュール612は、自己アテンションを伴う特徴統合を実行するように構成することができる。具体的には、(近傍の場所からの特徴を組み合わせるべく)固定された事前トレーニング済みの重みの畳み込みカーネルを使用して特徴統合を実行する従来の畳み込み演算子とは異なり、サブモジュール612は、特徴ベクトルの場所に基づいて特徴ベクトル当たりに(即ち、ピクセル当たりに)カーネル重みを動的に生成するように構成することができる。一実施形態においては、曖昧さが、(図8との関係において上述したように)場所と直接的に相関していることに伴って、カーネル重みを統合されている特徴ベクトルの曖昧さレベルに基づいて特徴ベクトル当たりに動的に適合させることができる。従って、曖昧さの影響が低減され、これにより、特徴統合性能が改善されている。
一実施形態において、GSAサブモジュール612は、複数のGSA層612-1、612-2、及び612-3を含む。GSA層612-1、612-2、及び612-3は、それぞれ、「Hengshuang Zhao, Jiaya Jia, and Vladlen Koltun, “Exploring self-attention for image recognition, ” In Conference on Computer Vision and Pattern Recognition (CVPR), 2020」に記述されているように、パッチの観点における自己アテンションブロックとして実装することができる。具体的には、パッチの観点における自己アテンションブロックは、以下の式によって記述することが可能であり、
Figure 2022051700000015
ここで、
Figure 2022051700000016
であり、
Figure 2022051700000017
は、新しい統合された特徴を表記しており、
Figure 2022051700000018
は、統合フットプリント(例えば、3×3又は7×7ピクセル)を表記しており、
Figure 2022051700000019
は、統合フットプリント内の特徴ベクトルのパッチに対応するテンソルを表記しており、
Figure 2022051700000020
は、テンソル
Figure 2022051700000021
内の場所jにおけるアテンションベクトル(即ち、重みベクトル)を表しており、且つ、これは、テンソル
Figure 2022051700000022
内の特徴ベクトル
Figure 2022051700000023
に空間的に対応しており、
Figure 2022051700000024
は、特徴ベクトル
Figure 2022051700000025
を生成する関数であり、且つ、
Figure 2022051700000026
は、ハダマード積である。
関数
Figure 2022051700000027
及び
Figure 2022051700000028
は、それぞれ、1つの畳み込み層を介して実装されたマッピングである。関数
Figure 2022051700000029
は、パッチ
Figure 2022051700000030
からの特徴ベクトル
Figure 2022051700000031
を組み合わせており、且つ、連結演算を使用して実装することができる。
一実施形態において、トレーニングの際の消失する勾配の影響を低減するべく、自己アテンションブロックが残留構造によってラッピングされてもよく:z=Convr(y)+x、ここで、Convrは、残留畳み込み層を表記しており、yは、自己アテンションブロックの出力であり、且つ、xは、自己アテンションブロックの入力である。
別の実施形態において、自己アテンションは、次式によって規定された高度な曖昧さを有する領域を取り扱うべくゲート処理メカニズムを更に含んでいてもよく、
Figure 2022051700000032
この場合に、Convg及びConvaは、ゲート処理畳み込み層及びアテンション畳み込み層を表記している。ゲート処理メカニズムは、情報がネットワーク内において流れる1つ又は複数の経路を制御している。具体的には、一実施形態において、ゲート処理メカニズムは、特定レベル超の曖昧さを有する特徴ベクトルのみが、ネットワークを通じて流れることを許容するように、且つ/又は、特定レベル超の曖昧さを有する特徴ベクトルの流れを制限するように、構成することができる。従って、画像品質を改善することができる。
一実施形態において、ボトルネックモジュール604は、入力として、第1層604-1を介して、統合された特徴マップ602-1を受け取るように、且つ、変更された統合された特徴マップ606を生成するように、構成することができる。特徴マップ602-1は、サイズ(H/4×W/4×C)のレベル2の統合された特徴マップであってよく、この場合に、Hは、フレームの高さであり、Wは、フレームの幅であり、且つ、Cは、チャネルの数である。特徴マップ606は、特徴マップ602-1と同一のサイズを有することができる。
コンテキスト正規化層608-1、608-2、及び608-3は、個々の統合された特徴マップ602-1、602-2、及び602-3を受け取るように構成されている。統合された特徴マップ602-1、602-2,及び602-3は、それぞれ、レベル2、レベル1、及びレベル0の統合された特徴マップに対応しうる。一例として、特徴マップ602-1は、サイズ(H/4×W/4×C)を有していてもよく、特徴マップ602-2は、サイズ(H/2×W/2×C)を有していてもよく、且つ、特徴マップ602-3は、(H×W×C)を有していてもよく、この場合に、Hは、フレームの高さであり、Wは、フレームの幅であり、且つ、Cは、チャネルの数である。
一実施形態において、コンテキスト正規化層608-1、608-2、及び608-3は、それぞれ、デコーダ層610-1、610-2、及び610-3に供給するように構成されており、これらのデコーダ層は、それぞれ、GSA層612-1、612-2、及び612-3に供給するように構成されている。
コンテキスト正規化層608-1、608-2、及び608-3の個々の出力を受け取るのと同時に、デコーダ層610-1、610-2、及び610-3は、入力として、それぞれ、ボトルネックモジュール604の出力606、GSA層612-1の出力(アップサンプリングモジュール614-1によってアップサンプリングされたもの)及びGSA層612-2の出力(アップサンプリングモジュール614-2によってアップサンプリングされたもの)を更に受け取っている。例えば、デコーダ層610-1、610-2、及び610-3の組み合わせられた入力は、サイズ(H’×W’×2C)を有していてもよく、且つ、層の出力は、サイズ(H’×W’×2C)を有していてもよく、ここで、層610-1、610-2、及び610-3について、それぞれ、H’=H/4、H/2、及びHであり、それぞれ、W’=W/4、W/2、及びWである。
デコーダ層610-4は、GSA層612-3の出力を入力として受け取り、且つ、現在ワイドFoVフレームOtを有する出力616を生成している。
図1を再度参照すれば、上述のように、一実施形態において、システム100は、幻視化不確定性モジュール106を含むことができる。具体的には、幻視化不確定モジュール106は、生成されたワイドFoVフレーム112と関連する不確定性マップ114を生成するべく提供することができる。不確定性マップは、ワイドFoVフレームのそれぞれのピクセルにおいて幻視化不確定性を解釈するべく機能している。
これに加えて、不確定性マップは、高度な幻視化不確定性による損失関数値に対するピクセルの影響を減衰させ、これにより、監督不一致を低減し、且つ、トレーニング収束をスピードアップさせることにより、トレーニングの目的を調節するべく使用することもできる。
一実施形態において、幻視化不確定性モジュール106は、高い幻視化不確定性を有することになるワイドFoVフレームの領域及び低い幻視化不確定性を有することになるものの予測に基づいて不確定性を生成するようにトレーニングすることができる。生成された不確定性マップは、ワイドFoVフレームのピクセル当たりの推定された幻視化不確定性を割り当てることにより、この予測を反映している。
一実施形態において、幻視化不確定性モジュール106は、幻視化不確定性を組み込んだ損失関数を極小化するべく、不確定性マップ114を生成するようにトレーニングすることができる。
一実施形態において、幻視化不確定性を組み込んだ損失関数は、ピクセルレベル再構築L1損失関数である。
一実施形態において、幻視化不確定性を組み込んだ損失関数は、次式によって付与されており、
Figure 2022051700000033
ここで、Otは、現在ワイドFoVフレームであり、Wtは、グランドトゥルースワイドFoVフレームであり、Utは、Otと関連する予測された不確定性マップであり、Mviewは、ナロービュー外の領域用のマスクであり、且つ、
Figure 2022051700000034
は、要素の観点における乗算を表記している。損失関数は、ピクセルごとに演算され、且つ、次いで、すべてのピクセルにわたって平均化されている。
上述の式によれば、
Figure 2022051700000035
によって付与されるナローFoV領域は、不確定性マップUtによって重み付けされていないことに留意されたい。この理由は、この領域が、ナローFoVフレーム内において観察されているピクセルに対応しているからである。最も右のUt項は、損失勾配の安定化を支援する正則化項である。
一実施形態において、不確定性Utを相対的に解釈可能なものにするべく、且つ、トレーニングプロセスを更に安定化させるべく、Utが、シグモイド関数を使用して範囲(0、1)内において制約されている。
これに加えて、図4に示されているように、予め生成された不確定性マップ{Ut-i}i=1...jは、コンフィデンス信号として機能するべく現在の入力において使用することもできる。一実施形態において、これは、過去の不確定性マップを個々の過去の推定されたワイドFoVフレームと連結することにより、実行されている。
以上、特定の具体的な実施形態を参照し、本発明について説明したが、本発明は、特定の実施形態の詳細によって限定されるものではないことを理解されたい。添付の請求項の範囲内において、上述の実施形態において、多数の変更、変形、及び修正を実施することができる。

Claims (15)

  1. 画像補完用のシステムであって、
    第1過去フレーム及び第1現在フレームを受け取るように、且つ、前記受け取られた第1過去フレームのそれぞれごとに1つずつ、座標マップの組を生成するように、構成された座標生成モジュールであって、前記第1過去フレーム及び前記第1現在フレームは、第1視野を有し、第1過去フレームに対応する前記座標マップは、前記第1現在フレームの座標系に対する前記第1過去フレームの空間的なマッピングを提供している、座標生成モジュールと、
    入力として、前記第1過去フレーム、前記第1現在フレーム、及び前記座標マップを受け取るように、且つ、前記入力に基づいて、第2視野を有する第2現在フレームを合成するように、構成されたフレーム統合モジュールと、
    を有する、システム。
  2. 前記座標生成モジュールは、
    前記第1過去フレームを受け取るように、且つ、前記受け取られた第1過去フレームのそれぞれごとに深さマップを生成するように、構成された深さネットワークと、
    前記受け取られた第1過去フレーム及び前記第1現在フレームから形成された時間隣接フレームのフレームペアを受け取るように、且つ、前記受け取られたフレームペアのそれぞれごとに相対的カメラポーズを生成するように、構成されたポーズネットワークと、
    前記深さネットワーク及び前記ポーズネットワークの出力に基づいて前記座標マップの組を生成するように構成された座標計算モジュールと、
    を有する、請求項1に記載のシステム。
  3. 前記フレーム統合モジュールは、前記座標生成モジュールによって生成された前記座標マップの組を使用することにより、前記受け取られた第1過去フレーム内に含まれている情報を前記第1現在フレームの前記座標系に伝播させるように構成されている、請求項1又は2に記載のシステム。
  4. 前記フレーム統合モジュールは、
    前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームに基づいて複数の特徴マップを生成するように構成されたエンコーダと、
    前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームごとに、前記それぞれのフレームの複数のワーピングされた特徴マップを生成するべく、前記それぞれのフレームと関連する個々の座標マップを使用することにより、前記それぞれのフレームと関連する前記複数の特徴マップをワーピングさせるように構成されたワーピングモジュールと、
    前記第1過去フレーム及び前記第1現在フレームのすべてにわたって、統合された特徴マップの組を生成するべく、前記生成されたワーピングされた特徴マップを統合するように構成されたアテンションに基づいた特徴統合モジュールと、
    を有する、請求項1から3のいずれか1項に記載のシステム。
  5. 前記アテンションに基づいた特徴統合モジュールは、前記統合において、前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームごとに、前記第1現在フレームとの関係における前記フレームのタイミングに基づいて、前記フレームの領域固有の特徴を強調するように構成されている、請求項4に記載のシステム。
  6. 前記アテンションに基づいた特徴統合モジュールは、前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームごとに、
    前記それぞれのフレームと関連する前記ワーピングされた特徴マップのそれぞれごとに、個々のフレームの観点における空間的なアテンションマップを生成するように、且つ、
    個々の特徴マップを生成するべく、前記それぞれのフレームと関連する前記ワーピングされた特徴マップのそれぞれを前記個々の空間的なアテンションマップによって乗算するように、
    構成されている、請求項4又は5に記載のシステム。
  7. 前記アテンションに基づいた特徴統合モジュールは、前記統合された特徴マップの組を生成するべく、前記第1過去フレーム及び前記第1現在フレームのすべてにわたって、前記生成された個々の特徴マップを合計するように更に構成されている、請求項6に記載のシステム。
  8. 前記フレーム統合モジュールは、前記統合された特徴マップの組に基づいて前記第2現在フレームを生成するように構成されたUネットモジュールを更に有し、前記Uネットモジュールは、
    前記統合された特徴マップの組を受け取るように、且つ、前記第1現在フレームの視野の外側に含まれる前記第2現在フレームの領域をアウトペインティングするように、構成されたコンテキスト正規化サブモジュールと、
    前記コンテキスト正規化サブモジュールによって出力された特徴マップを受け取るように、且つ、前記第1現在フレームの視野内に含まれる遮蔽された又は観察されていない領域をインペインティングするべく前記コンテキスト正規化サブモジュールによって出力された前記特徴マップを処理するように、構成されたデコーダサブモジュールと、
    前記デコーダサブモジュールによって出力された特徴マップを受け取るように、且つ、前記デコーダサブモジュールによって出力された前記特徴マップを空間的に統合するように、構成されたゲート付き自己アテンションサブモジュールと、
    を有する、請求項4から7のいずれか1項に記載のシステム。
  9. 前記ゲート付き自己アテンションサブモジュールは、特徴ベクトルの空間的な場所に基づいて特徴ベクトル当たりに動的に生成された重みに基づいて前記デコーダサブモジュールによって出力された前記特徴マップを空間的に統合するように構成されている、請求項8に記載のシステム。
  10. 前記第2現在フレームと関連する不確定性マップを生成するように構成された幻視化不確定性モジュールを有する、請求項1から9のいずれか1項に記載のシステム。
  11. 前記幻視化不確定性モジュールは、幻視化不確定性を組み込んだ損失関数を極小化するべく前記不確定性マップを生成するように構成されている、請求項10に記載のシステム。
  12. 前記幻視化不確定性モジュールは、高い幻視化不確定性を有することになる前記第2現在フレームの領域及び低い幻視化不確定性を有することになるものの予測に基づいて前記不確定性マップを生成するように構成されている、請求項10に記載のシステム。
  13. 深さネットワーク及び前記フレーム統合モジュールによって受け取られた前記第1過去フレームの一部分は、前記フレーム統合モジュールによって生成された前記第2視野を有する、且つ、前記第1過去フレームの部分に対応する、第2過去フレームによって置換されている、請求項1から12のいずれか1項に記載のシステム。
  14. 前記第2過去フレームは、それぞれ、前記第2過去フレームを前記フレーム統合モジュールに提供する前に、幻視化不確定性モジュールによって生成された個々の不確定性マップと連結されている、請求項13に記載のシステム。
  15. 前記第2視野は、前記第1視野と等しいか又はこれを上回っている、請求項1から14のいずれか1項に記載のシステム。
JP2021151473A 2020-09-22 2021-09-16 画像補完用のシステム Active JP7281754B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20197574.5 2020-09-22
EP20197574.5A EP3971821A1 (en) 2020-09-22 2020-09-22 Image completion using self-attention and uncertainty

Publications (2)

Publication Number Publication Date
JP2022051700A true JP2022051700A (ja) 2022-04-01
JP7281754B2 JP7281754B2 (ja) 2023-05-26

Family

ID=72615647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021151473A Active JP7281754B2 (ja) 2020-09-22 2021-09-16 画像補完用のシステム

Country Status (4)

Country Link
US (1) US20220092746A1 (ja)
EP (1) EP3971821A1 (ja)
JP (1) JP7281754B2 (ja)
CN (1) CN114257759B (ja)

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006004043A1 (ja) * 2004-07-07 2006-01-12 Nec Corporation 広視野画像入力方法及び装置
IL214894A (en) * 2011-08-30 2016-09-29 Rafael Advanced Defense Systems Ltd A combination of narrow field of view images and wide field of view
US20150373269A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
WO2016003416A1 (en) * 2014-06-30 2016-01-07 Hewlett-Packard Development Company, L.P. Piecewise smooth regularization of data
US10257494B2 (en) * 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video
JP6672305B2 (ja) * 2014-12-22 2020-03-25 インターデジタル シーイー パテント ホールディングス オブジェクト検出に基づき外挿画像を生成する方法及び装置
US10241520B2 (en) * 2016-12-22 2019-03-26 TCL Research America Inc. System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks
US10692262B2 (en) * 2017-01-12 2020-06-23 Electronics And Telecommunications Research Institute Apparatus and method for processing information of multiple cameras
US11049218B2 (en) * 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
TW201915940A (zh) * 2017-10-06 2019-04-16 廣達電腦股份有限公司 雙鏡頭影像處理裝置及方法
CN108564527B (zh) * 2018-04-04 2022-09-20 百度在线网络技术(北京)有限公司 基于神经网络的全景图内容补全和修复的方法及装置
US10922793B2 (en) * 2018-05-16 2021-02-16 Nvidia Corporation Guided hallucination for missing image content using a neural network
US11538143B2 (en) * 2018-10-26 2022-12-27 Nec Corporation Fully convolutional transformer based generative adversarial networks
CN111292278B (zh) * 2019-07-30 2023-04-07 展讯通信(上海)有限公司 图像融合方法及装置、存储介质、终端
US20210327026A1 (en) * 2020-04-17 2021-10-21 Gopro, Inc. Methods and apparatus for blending unknown pixels in overlapping images
US11398015B2 (en) * 2020-04-29 2022-07-26 Adobe Inc. Iterative image inpainting with confidence feedback
CN111553869B (zh) * 2020-05-13 2021-04-06 北京航空航天大学 一种空基视角下的生成对抗网络图像补全方法
US11523055B1 (en) * 2020-05-29 2022-12-06 Humane, Inc. Super resolution/super field of view (FOV) digital photography
EP4176373A1 (en) * 2020-07-01 2023-05-10 Harman International Industries, Incorporated Systems and methods for detecting projection attacks on object identification systems
US20220053124A1 (en) * 2020-08-13 2022-02-17 Denso International America, Inc. System and method for processing information from a rotatable camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEE, SANGWOO ET AL.: "Video Extrapolation using Neighboring Frames", ACM TRANSACTIONS ON GRAPHICS, vol. Vol. 38, No. 3, Article 20, JPN7022004401, 8 April 2019 (2019-04-08), pages 1 - 13, ISSN: 0004873595 *

Also Published As

Publication number Publication date
EP3971821A1 (en) 2022-03-23
JP7281754B2 (ja) 2023-05-26
CN114257759B (zh) 2024-05-10
US20220092746A1 (en) 2022-03-24
CN114257759A (zh) 2022-03-29

Similar Documents

Publication Publication Date Title
Shivakumar et al. Dfusenet: Deep fusion of rgb and sparse depth information for image guided dense depth completion
Luo et al. Single view stereo matching
Zhou et al. Cips-3d: A 3d-aware generator of gans based on conditionally-independent pixel synthesis
US9100537B2 (en) Object tracking using graphics engine derived vectors in a motion estimation system
JP7177062B2 (ja) 統計モデルを用いた画像データからの深度予測
US10991145B2 (en) Pose-variant 3D facial attribute generation
KR20210036244A (ko) 경계 인식 시맨틱 세그먼테이션을 위한 방법 및 시스템
Zhu et al. View extrapolation of human body from a single image
EP3448032B1 (en) Enhancing motion pictures with accurate motion information
CN109509248B (zh) 一种基于神经网络的光子映射渲染方法和系统
CN115187638B (zh) 一种基于光流遮罩的无监督单目深度估计方法
Li et al. A real-time high-quality complete system for depth image-based rendering on FPGA
US11570418B2 (en) Techniques for generating light field data by combining multiple synthesized viewpoints
CN113269689B (zh) 一种基于法向量和高斯权重约束的深度图像补全方法及系统
Periyasamy et al. Refining 6D object pose predictions using abstract render-and-compare
Zhou et al. PADENet: An efficient and robust panoramic monocular depth estimation network for outdoor scenes
Matsuki et al. Newton: Neural view-centric mapping for on-the-fly large-scale slam
Mehl et al. M-fuse: Multi-frame fusion for scene flow estimation
Ye et al. Underwater depth estimation via stereo adaptation networks
JP2022051700A (ja) 画像補完用のシステム
Shi et al. Deep residual architecture using pixel and feature cues for view synthesis and temporal interpolation
Lu et al. Self-supervised depth estimation from spectral consistency and novel view synthesis
KR101785857B1 (ko) 단일 영상 기반의 외각 시점 합성 방법 및 영상 처리 장치
US11908070B2 (en) Dynamic three-dimensional imaging method
Olszewski Hashcc: Lightweight method to improve the quality of the camera-less nerf scene generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7281754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150