JP7166459B2 - カメラ自己校正ネットワーク - Google Patents

カメラ自己校正ネットワーク Download PDF

Info

Publication number
JP7166459B2
JP7166459B2 JP2021530272A JP2021530272A JP7166459B2 JP 7166459 B2 JP7166459 B2 JP 7166459B2 JP 2021530272 A JP2021530272 A JP 2021530272A JP 2021530272 A JP2021530272 A JP 2021530272A JP 7166459 B2 JP7166459 B2 JP 7166459B2
Authority
JP
Japan
Prior art keywords
camera
image
training
calibration
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021530272A
Other languages
English (en)
Other versions
JP2022510237A (ja
Inventor
クオック-フイ トラン、
ビンビン ズオン、
パン ジ、
マンモハン チャンドラカー、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of JP2022510237A publication Critical patent/JP2022510237A/ja
Application granted granted Critical
Publication of JP7166459B2 publication Critical patent/JP7166459B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

関連出願情報
本出願は、2019年1月18日に出願された米国仮特許出願第62/793,948号、2019年7月26日に出願された米国仮特許出願第62/878,819号、および2020年1月7日に出願された米国実用特許出願第16/736,451号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
本発明は、深層学習に関し、より詳細には、カメラ自己校正のために深層学習を適用することに関する。
深層学習は、人工ニューラルネットワークに基づく機械学習方法である。深層学習アーキテクチャは、コンピュータビジョン、音声認識(speech recognition)、自然言語処理、音声認識(audio recognition)、ソーシャルネットワークフィルタリング、機械翻訳、バイオインフォマティクス、創薬、医療画像解析、材料検査およびボードゲームプログラムなどを含む分野に適用することができる。深層学習は、教師あり、半教師あり、または教師なしとすることができる。
本発明の一態様によれば、カメラ自己校正のための方法が提供される。この方法は、実際の未校正画像を受信し、カメラ自己校正ネットワークを用いて、実際の未校正画像に対応する複数の予測カメラパラメータを推定することを含む。深い教師(deep supervision)は、複数の予測カメラパラメータ間の依存順序に基づいて実行され、依存順序に従って複数の層にわたって教師信号を配置する。この方法はまた、実際の未校正画像及び予測カメラパラメータを用いて校正画像を決定することを含む。
本発明の別の態様によれば、カメラ自己校正のためのシステムが提供される。このシステムは、メモリデバイスに動作可能に結合されたプロセッサデバイスを含み、プロセッサデバイスは、実際の未校正画像を受信し、カメラ自己校正ネットワークを使用して、実際の未校正画像に対応する複数の予測カメラパラメータを推定するように構成される。深い教師は、複数の予測カメラパラメータ間の依存順序に基づいて実行され、依存順序に従って複数の層にわたって教師信号を配置する。プロセッサデバイスはまた、実際の未校正画像及び予測されたカメラパラメータを用いて校正画像を決定する。
これらおよび他の特徴および利点は、添付の図面に関連して読まれるべき、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
本開示は、以下の図面を参照して、好ましい実施形態の以下の説明において詳細を提供する。
図1は、本発明の一実施形態によるニューラルネットワークの一般化された図である。
図2は、本発明の一実施形態による人工ニューラルネットワーク(ANN)アーキテクチャの図である。
図3は、本発明の一実施形態による、単一の未校正画像からカメラパラメータを推定するための畳み込みニューラルネットワーク(CNN)アーキテクチャを示すブロック図である。
図4は、本発明の一実施形態による、カメラ自己校正ネットワークの詳細なアーキテクチャを示すブロック図である。
図5は、本発明の一実施形態による、カメラ自己校正を未校正のSLAM(Simultaneous Localization and Mapping)に適用するためのシステムを示すブロック図である。
図6は、本発明の一実施形態による、カメラ自己校正を未校正のSFM(structure from motion)に適用するためのシステムを示すブロック図である。
図7は、本発明の一実施形態による、フォワードモーション下での2眼視の半径方向歪みの自己校正(two-view radial distortion self-calibration)における縮退を示すブロック図である。
図8は、本発明の一実施形態による、カメラ自己校正を実施するための方法を示すフロー図である。
本発明の実施形態によれば、カメラ自己校正のためのシステムおよび方法が提供される。本システムおよび方法は、単一の未校正画像からカメラ固有パラメータ(例えば、焦点距離、投影中心)だけでなく、半径方向歪みパラメータを推定するための畳み込みニューラルネットワーク(CNN)アーキテクチャを実施する。本システムおよび方法は、予測パラメータ間の依存性を利用するために深い教師(deep supervision)を適用し、正則化とより高い精度をもたらす。加えて、カメラ自己校正ネットワークの応用は、校正されていない画像/ビデオを用いて、SLAM(Simultaneous Localization and Mapping)およびSFM(structure from motion)のために実行できる。
一実施形態では、トレーニング段階の間、一組の校正された画像及び対応するカメラパラメータが、合成されたカメラパラメータ及び合成された未校正画像を生成するために使用される。次いで、未校正画像を入力データとして使用し、一方、カメラパラメータを、提案したカメラ自己校正ネットワークをトレーニングするための教師信号として使用する。テスト段階では、単一の実際の未校正画像がネットワークに入力され、ネットワークは入力画像に対応するカメラパラメータを予測する。最後に、未校正画像と推定されたカメラパラメータを調整モジュールに送り、校正された画像を生成する。
本明細書に記載する実施形態は、完全にハードウェアであってもよく、完全にソフトウェアであってもよく、または、ハードウェアおよびソフトウェア要素の両方を含むものであってもよい。好ましい実施形態では、本発明は、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むがこれらに限定されないソフトウェアで実施される。
実施形態は、コンピュータまたは任意の命令実行システムによって、またはそれに関連して使用するプログラムコードを提供する、コンピュータ使用可能またはコンピュータ読み取り可能媒体からアクセス可能なコンピュータプログラム製品を含むことができる。コンピュータ使用可能媒体またはコンピュータ可読媒体は、命令実行システム、装置、またはデバイスによって、またはそれに関連して使用するためのプログラムを格納、通信、伝搬、または搬送する任意の装置を含むことができる。媒体は、磁気、光学、電子、電磁気、赤外線、または半導体システム(または装置またはデバイス)、または伝搬媒体とすることができる。媒体は、半導体または固体メモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、リジッド磁気ディスクおよび光ディスクなどのコンピュータ読み取り可能な記憶媒体を含むことができる。
各コンピュータプログラムは、本明細書に記載する手順を実行するために、記憶媒体または装置がコンピュータによって読み取られるときに、コンピュータの動作を構成し制御するために、汎用または特殊目的のプログラム可能コンピュータによって読み取り可能な、機械読み取り可能な記憶媒体または装置(例えば、プログラムメモリまたは磁気ディスク)に実体的に記憶することができる。本発明のシステムはまた、コンピュータプログラムで構成された、コンピュータ読み取り可能な記憶媒体で実施されるものと考えることができ、その場合、そのように構成された記憶媒体は、コンピュータを特定の所定の方法で動作させて、本明細書に記載する機能を実行させる。
プログラムコードを記憶および/または実行するのに適したデータ処理システムは、システムバスを介してメモリ要素に直接的または間接的に結合された少なくとも1つのプロセッサを含んでもよい。メモリ要素は、プログラムコードの実際の実行中に使用されるローカルメモリ、バルクストレージ、および実行中にバルクストレージからコードが検索される回数を減らすために少なくともいくつかのプログラムコードの一時記憶を提供するキャッシュメモリを含むことができる。入力/出力またはI/Oデバイス(キーボード、ディスプレイ、ポインティングデバイスなどを含むが、これらに限定されない)は、直接または介在するI/Oコントローラを介してシステムに結合され得る。
介在する専用ネットワークまたは公衆ネットワークを介して、データ処理システムを他のデータ処理システムあるいはリモートプリンタまたはストレージデバイスに結合できるようにするために、ネットワークアダプタをシステムに結合することもできる。モデム、ケーブルモデム、およびイーサネットカードは、現在使用可能なネットワークアダプタのタイプの一例に過ぎない。
ここで図面を参照すると、同じ番号は同じまたは類似の要素を表す。最初に図1を参照すると、図1には、例示的な実施形態によるニューラルネットワークの一般化された図が示されている。
人工ニューラルネットワーク(ANN)とは、脳などの生体神経系に刺激される情報処理システムである。ANNの重要な要素は、情報処理システムの構造であり、これは、特定の問題を解決するために並列に動作する多くの高度に相互結合された処理要素(「ニューロン」と呼ばれる)を含む。ANNはさらに、ニューロン間に存在する重みの調整を含む学習を用いて、使用中にトレーニングされる。ANNは、そのような学習プロセスを介して、パターン認識またはデータ分類などの特定の用途向けに構成される。
ANNは、複雑または不正確なデータから意味を導出する能力を示し、パターンを抽出し、人間または他のコンピュータベースのシステムによって検出するには複雑すぎる傾向を検出するために使用することができる。ニューラルネットワークの構造は、一般に、1つまたは複数の「隠れた」ニューロン104に情報を提供する入力ニューロン102を有する。入力ニューロン102と隠れニューロン104との間の結合108は重み付けされ、そして、これらの重み付けされた入力は、層間の重み付けされた結合108で、隠れニューロン104内の何らかの関数に従って隠れニューロン104によって処理される。隠れニューロン104、ならびに異なる関数を実行するニューロンの任意の数の層が存在し得る。畳み込みニューラルネットワーク、最大出力ネットワーク等のような異なるニューラルネットワーク構造も存在する。最後に、出力ニューロン106のセットは、最後の隠れニューロン104のセットからの重み付けされた入力を受け入れ、処理する。
これは、情報が入力ニューロン102から出力ニューロン106に伝搬する「フィードフォワード」計算を表す。トレーニングデータ(または、場合によっては、テストデータ)は、校正された画像、カメラパラメータ、および校正されていない画像(例えば、データベースに記憶されている)を含むことができる。トレーニングデータは、図2~図7に関して以下に説明するように、単一画像自己校正のために使用することができる。例えば、トレーニング又はテストデータは、オリジナルカメラにアクセスすることなくインターネットからダウンロードされる画像又はビデオを含むことができ、或いは、カメラパラメータは、振動、熱的/機械的衝撃、又はズーム効果のような異なる原因により変更される。そのような場合、1つ以上の未校正画像からカメラパラメータを計算するカメラ自己校正(カメラ自動校正)が好ましい。実施例は、例えば、未知の焦点距離、投影中心、及び半径方向歪みを有する単一の未校正画像からのカメラ自己校正に対する畳み込みニューラルネットワーク(CNN)ベースのアプローチを実施する。
フィードフォワード計算が完了すると、出力は、トレーニングデータから利用可能な所望の出力と比較される。トレーニングデータに対する誤差は、「フィードバック」計算で処理され、隠れニューロン104および入力ニューロン102は、出力ニューロン106から後方に伝播する誤差に関する情報を受け取る。一旦、逆方向誤差伝播が完了すると、重み付けされた結合108が受信された誤差を考慮するように更新されて、重み付け更新が実行される。これは、単に1つの種類のANNを表す。
図2を参照すると、人工ニューラルネットワーク(ANN)アーキテクチャ200が示されている。本アーキテクチャは、純粋に例示的なものであり、代わりに他のアーキテクチャまたはタイプのニューラルネットワークを使用することができることを理解されたい。本明細書に記載したANNの実施形態は、高レベルの一般性でニューラルネットワーク計算の一般原理を示すことを意図して含んでおり、いかなる形でも限定するものと解釈されるべきではない。
さらに、以下に記載されるニューロンの層およびそれらを結合する重みは、一般的な様式で記載され、任意の適切な程度またはタイプの相互結合性を有する任意のタイプのニューラルネットワーク層によって置き換えられ得る。例えば、層は、畳み込み層、プーリング層、全結合層、ソフトマックス層、または任意の他の適切なタイプのニューラルネットワーク層を含むことができる。さらに、必要に応じて層を追加または除去することができ、相互結合のより複雑な形態のために重みを省略することができる。
フィードフォワード動作中、1組の入力ニューロン202はそれぞれ、重み204のそれぞれの行に並列に入力信号を供給する。本明細書に記載されたハードウェアの実施形態では、重み204はそれぞれ、重み付けされた出力が重み204からそれぞれの隠れニューロン206に渡され、隠れニューロン206への重み付けされた入力を表すように、それぞれの設定可能な値を有する。ソフトウェアの実施形態では、重み204は、単に、関連する信号に対して乗算される係数値として表すことができる。各重みからの信号は列ごとに加算され、隠れニューロン206に流れる。
隠れニューロン206は、重み204のアレイからの信号を使用して、何らかの計算を実行する。次に、隠れニューロン206は、それ自体の信号を別の重み204のアレイに出力する。このアレイは同じ方法で実行し、重み204の列がそれぞれの隠れニューロン206から信号を受け取り、行方向に加算し、出力ニューロン208に供給される重み付けされた信号出力を生成する。
アレイおよび隠れニューロン206の追加の層を介在させることによって、任意の数のこれらの段階を実施できることを理解されたい。また、いくつかのニューロンは、アレイに一定の出力を提供する定常ニューロン209であってもよいことに留意すべきである。定常ニューロン209は、入力ニューロン202および/または隠れニューロン206の間に存在することができ、フィードフォワード動作中にのみ使用される。
バックプロパゲーションの間、出力ニューロン208は、重み204のアレイを横切って戻る信号を提供する。出力層は、生成されたネットワーク応答をトレーニングデータと比較し、誤差を計算する。誤差信号を誤差値に比例させることができる。この実施例では、重み204の行は、それぞれの出力ニューロン208から並列に信号を受け取り、列ごとに加算して出力を生成して隠れニューロン206に入力を提供する。隠れニューロン206は、重量付けされたフィードバック信号をそのフィードフォワード計算の導関数と結合し、フィードバック信号を重量204のそれぞれの列に出力する前に誤差値を記憶する。このバックプロパゲーションは、すべての隠れニューロン206および入力ニューロン202が誤差値を記憶するまで、ネットワーク200全体を通って進行する。
重み更新中、記憶された誤差値は、重み204の設定可能な値を更新するために使用される。このようにして、重み204は、ニューラルネットワーク200をその工程における誤差に適応させるようにトレーニングすることができる。3つの動作モード、すなわち、フィードフォワード、バックプロパゲーション、および重み更新は、互いに重複しないことに留意されたい。
畳み込みニューラルネットワーク(CNN)は、少なくとも1つの畳み込み層を有するANNのサブクラスである。CNNは、入力層および出力層、ならびに複数の隠れ層からなる。CNNの隠れ層は、畳み込み層、正規化線形ユニット(RELU:Rectified Linear Unit)層(例えば活性化関数)、プーリング層、全結合層および正規化層から成る。畳み込み層は、入力に畳み込み演算を適用し、その結果を次の層に渡す。畳み込みは、視覚刺激に対する個々のニューロンの応答をエミュレートする。
CNNは、視覚画像の分析に適用することができる。CNNは、ローカル情報(例えば、画像内の隣接画素又はテキスト内の周囲の単語)を取り込み、モデルの複雑さを低減することができる(例えば、より速いトレーニング、より少ないサンプルの必要性、及びオーバーフィッティングの機会の低減を可能にする)。
CNNは、最小限の前処理しか必要としないように設計された多層パーセプトロンのバリエーションを使用する。CNNは、その重みの共有構造と並進不変性(translation invariance)特性に基づいて、シフト不変(shift invariant)または位置不変(space invariant)の人工ニューラルネットワーク(SIANN)としても知られている。CNNは、画像および動画認識、レコメンダシステム、画像分類、医用画像解析、および自然言語処理における用途に使用することができる。
CNNは、図3~図7に関して以下に説明するように、単一の未校正画像からカメラパラメータを推定するためのCNNアーキテクチャに組み込むことができる。例えば、CNNは、SFM/SLAMシステムのための入力として使用される画像を生成するために使用することができる。
次に、図3を参照すると、実施例による、単一の未校正画像からカメラパラメータを推定するためのCNNアーキテクチャを示すブロック図が示されている。
図3に示すように、アーキテクチャ300は、単一の未校正画像から(代替的に、他の)カメラ固有パラメータ(例えば、焦点距離、投影中心)と同様に、半径方向歪みパラメータを推定するためのCNNアーキテクチャを含む。アーキテクチャ300は、予測パラメータ間の依存性を利用する深い教師を適用するように実装することができ、これにより、正規化が改善され、精度が向上する。さらに、アーキテクチャ300は、カメラ自己校正ネットワークを、未校正の画像/ビデオを用いて、SFM(Structure from Motion)およびSLAM(Simultaneous Localization and Mapping)に適用することができる。
SFMおよびSLAMなどのコンピュータビジョンプロセスは、ピンホールカメラモデル(3次元座標内の点と理想的なピンホールカメラ内の画像座標内の点との間の数学的関係を記述する)を想定し、焦点距離、主点、および半径方向歪みを含む既知のカメラパラメータで撮影された入力画像またはビデオを必要とする。カメラキャリブレーションは、カメラパラメータを推定するプロセスである。アーキテクチャ300は、コンピュータビジョンアプリケーションでカメラが展開される前に、キャリブレーションオブジェクト(例えば、チェッカーボード)または特別なシーン構造(例えば、ベイズ推論による単一画像からのコンパス方向)が利用できない場合に、カメラキャリブレーションを実施することができる。例えば、アーキテクチャ300は、オリジナルカメラにアクセスすることなくインターネットから画像またはビデオがダウンロードされる場合、または振動、熱的/機械的衝撃、またはズーム効果などの異なる原因によってカメラパラメータが変更された場合に実施することができる。そのような場合、1つ以上の未校正画像からカメラパラメータを計算するカメラ自己校正(カメラ自動校正)が好ましい。本発明は、例えば未知の焦点距離、投影中心、および半径方向歪みを有する単一の未校正画像からのカメラ自己校正に対する畳み込みニューラルネットワーク(CNN)ベースのアプローチを提案する。さらに、アーキテクチャ300は、未校正のSFMおよび未校正のSLAMを対象とするアプリケーションにおいて実施することができる。
本明細書に記載されたシステムおよび方法は、異なるタスク間の関係を活用し、優れた性能を達成するために、深い教師を使用する。単一画像自己校正のためのプロセスとは対照的に、本明細書に記載されたシステムおよび方法は、画像において利用可能なすべての特徴を利用し、シーン構造上の仮定を一切行わない。結果は、最初に入力画像内の線/曲線特徴を抽出し、次いで、カメラパラメータを推定するためにそれらに頼ることに依存しない。システムおよび方法は、線/曲線特徴を適切に検出することにも、シーン構造に関する基礎となる仮定を満たすことにも依存しない。
アーキテクチャ300は、(いくつかのSFM/SLAMシステムとは対照的に)既知のカメラパラメータを有する入力画像/ビデオを仮定することなく、未校正の画像/ビデオを処理するように実現することができる。アーキテクチャ300は、例えば、重大な半径方向歪みが存在するなどの困難な場合に、最初にカメラの自己校正(半径方向歪み補正を含む)を行い、次に校正された画像/ビデオ上のSFM/SLAMシステムなどの再構成方法を使用するといった2段階アプローチで処理を適用することができる。
図3に示すように、アーキテクチャ300は、カメラ自己校正に対するCNNベースのアプローチを実装する。トレーニング段階305の間、一組の校正画像310及び対応するカメラパラメータ315が、合成されたカメラパラメータ330及び合成された未校正画像325を生成するために使用される。次いで、未校正画像325は、(カメラ自己校正ネットワーク340のための)入力データとして使用され、次いで、カメラパラメータ330が、カメラ自己校正ネットワーク340をトレーニングするための教師信号として使用される。テスト段階350では、単一の実際の未校正画像355がカメラ自己校正ネットワーク340に入力され、入力画像355に対応する(推定された)カメラパラメータ360を予測する。未校正画像355および推定カメラパラメータ360は、校正画像370を生成するために、修正モジュール365に送られる。
図4は、実施形態による、カメラ自己校正ネットワーク340の詳細アーキテクチャ400を示すブロック図である。
図4に示すように、(例えば、カメラ自己校正ネットワーク340の)アーキテクチャ400は、未校正画像405(トレーニング305中の合成された未校正画像325、またはテスト350中の実際の未校正画像355など)を受け取る。例えば、アーキテクチャ400は、ネットワークトレーニング中に深い教師を行う。最後の層のみですべてのパラメータを予測する(すべての教師を配置する)従来のマルチタスク教師(multi-task supervision)とは対照的に、深い教師は、予測されたパラメータ間の依存性順序を利用し、その依存性順序に従って複数の層にわたってパラメータを予測する(教師を配置する)。カメラ自己校正のために、(1)既知の主点が半径方向歪みを推定するための必須条件であることが明らかであること、(2)画像外観は半径方向歪みと焦点距離の合成効果に影響されること、を知ることで、システムが以下の順、すなわち、(1)第一分岐における主点及び(2)第二分岐における焦点距離と半径方向歪みの両方の順で、パラメータを予測できる(教師を配置できる)。したがって、例示的な実施形態によれば、アーキテクチャ400は、基本モデルとして残差ネットワーク(例えば、ResNet-34)415を使用し、(例えば、いくつか、少数、等々の)隠れ層(例えば、層410(Conv, 512, 3x3)、層420(Conv, 256, 3x3)、層430(Conv, 128, 3x3)、層440(Conv, 64, 3x3)、層450(Conv, 32, 3x3)及び層460(Conv, 2, 3x3))、バッチ正規化層425、及び、主点推定470(例えば、cx、cy)、焦点距離(f)推定、及び半径方向歪み(λ)推定480のタスク用のReLU活性化層435を追加する。アーキテクチャ400は、タスク間の依存性を活用するための深い教師を使用(例えば、use, employ, implement等)することができる。例えば、例示的な実施形態では、主点推定470は、半径方向歪み推定および焦点距離推定480のための中間タスクであり、これは、正則化の向上およびより高い精度につながる。
深い教師は、複数の予測カメラパラメータ間の依存順序を利用し、その依存順序に従って複数の層にわたってカメラパラメータを予測する(教師信号を配置する)。(1)既知の主点が半径方向歪みを推定するための必須条件であることが明らかであること、(2)画像外観は半径方向歪みと焦点距離の合成効果の影響を受けることから、半径方向歪み推定と焦点距離推定の中間タスクとして、深い教師を主点推定に基づいて実行できる。
図5は、レジ的な実施形態による、未校正SLAMへのカメラ自己校正の適用のためのシステム500を示すブロック図である。
図5に示すように、カメラ自己校正は、未校正のSLAMに適用することができる。入力ビデオは、校正されていない連続画像フレームのセットである(未校正ビデオ505)。次いで、各フレームは、対応する校正されたフレーム(およびそれに対応して校正されたビデオ520)を生成するカメラ自己校正(構成要素)510、例えば、図3のシステム300にそれぞれ渡され、。次いで、校正されたフレーム(校正ビデオ520)は、ビデオ内で観察されるカメラ軌跡およびシーン構造を推定するために、SLAMモジュール530に送られる。システム500は、復元されたカメラ経路およびシーンマップ540を出力する。
図6は、例示的な実施形態による、未校正SFMへのカメラ自己校正の適用のためのシステム600を示すブロック図である。
図6に示すように、カメラ自己校正は、未校正のSFMに適用することができる。システム600は、カメラまたは画像/ビデオ処理装置内のモジュールとして実装することができる。インターネット画像検索から得られるような未校正画像の順序付けされていないセットは、入力として使用することができる(未校正画像605)。次いで、各未校正画像605は、対応する校正画像620を生成するカメラ自己校正(構成要素)610、例えば、図3のシステム300に別々に渡される。次いで、校正画像620は、画像内に観察されるカメラ姿勢およびシーン構造を推定するSFMモジュール630に送られる。その後、システム600は、回復されたカメラ姿勢およびシーン構造640を出力することができる。
図7は、本発明による、フォワードモーション下での2眼視の半径方向歪みの自己校正(two-view radial distortion self-calibration)における縮退を示すブロック図700である。
図7に示すように、例示的な実施形態は、フォワードモーション下での2眼視の半径方向歪みの自己校正における縮退に適用することができる。半径方向歪みとシーン構造の有効な組み合わせは無数にあり、半径方向歪みがゼロの特別な場合も含む。
正規化された像平面上の歪んだ点(720、725)の2D座標を
Figure 0007166459000001
と表し、対応する歪んでいない点(710,715)を
Figure 0007166459000002
と表し、θは半径方向歪みであり、
Figure 0007166459000003
は、SdをSuにスケーリングする歪み補正関数(undistortion function)である。
Figure 0007166459000004
の具体的な形態は、使用されている半径方向歪みモデルに依存する。例えば、1つのパラメータを持つ分割モデル(division model)の場合は
Figure 0007166459000005
を持つことができ、1つのパラメータを持つ多項式モデル(polynomial model)の場合は
Figure 0007166459000006
を持つことができる。どちらのモデルでも、λは1D半径方向歪みパラメータであり、
Figure 0007166459000007
は主点705からの距離である。例示的な実施形態は、以下の分析のために、一般的な形態
Figure 0007166459000008
を使用することができる。
例示的な実施形態は、例えば、光軸に沿った純粋な並進カメラモーションが、2D対応およびそれらの深さにどのように関連するかという、フォワードモーション下での2眼視幾何学的関係を定式化する。3DポイントSの例で、2つのカメラ座標でそれぞれ、
Figure 0007166459000009
及び
Figure 0007166459000010
として表す。フォワードモーション下で、
Figure 0007166459000011
でS2=S1-Tと決定できる。一般性を失わずに、グローバルスケールの曖昧さを取り除くために、システムはtZ=1を固定する。上記の関係を像面に投影すると、システムは、
Figure 0007166459000012
を取得し、ここで、
Figure 0007166459000013
及び
Figure 0007166459000014
はそれぞれS1とS2の2D投影である(たとえば、
Figure 0007166459000015
は2D対応である)。観測された歪み点
Figure 0007166459000016
及び
Figure 0007166459000017
に関して上記を表すと、次式が得られる。
Figure 0007166459000018
ここで、θ1とθ2は、それぞれ2つの画像の半径方向歪みパラメータを表す(θ1はθ2とは異なる場合があることに留意する)。式(1)は、半径方向歪みとシーン構造を推定するために利用可能なすべての情報を表す。しかしながら、正しい半径方向歪みと点深さ(point depth)は、上式からは決定できない。システムは、式(1)が依然として成り立つように、
Figure 0007166459000019
で示されるグラウンドトゥルース半径方向歪みを偽の半径方向歪み
Figure 0007166459000020
で置き換えることができ、それぞれの2D対応に対するグラウンドトゥルース点深さZ1を次の偽の深さZ1'で置き換えることができる。
Figure 0007166459000021
具体的には、システムは、
Figure 0007166459000022
を偽の半径方向歪みとして設定し、式(1)が依然として成り立つように式(2)に従って計算された破損深さ(corrupted depth)Z1'を使用することができる。この特殊解は、例えば、
Figure 0007166459000023
及び
Figure 0007166459000024
などのピンホールカメラモデルに対応する。実際、この特別なケースは、より直感的に推論することができる。式(1)は、図7に示されるように、すべての2D点が主点705から放射される2D線に沿って移動することを示す。このパターンは、ピンホールカメラモデルと全く同じであり、フォワードモーションを認識する唯一の手がかりである。
直観的には、例えば
Figure 0007166459000025

Figure 0007166459000026
の間、又は
Figure 0007166459000027

Figure 0007166459000028
の間の半径方向歪みのみによって誘発される2D点の動きは、例えば
Figure 0007166459000029

Figure 0007166459000030
との間のフォワードモーションのみによって誘発される2D点の動きと同じ方向に沿っている(図7参照)。したがって、半径方向歪みは、2D点変位の大きさにのみ影響するが、フォワードモーションの場合にはそれらの方向には影響しない。さらに、そのような半径方向歪みは、深さにおける適切な破損(corruption)で補償され、その結果、再投影誤差に関して、画像観測、例えば、2D対応を正確に説明する、破損したシーン構造は、依然として回復され得る。
したがって、本システムは、純粋なフォワードモーションの場合には、2眼視の半径方向歪み己校正は、縮退していると判断する。特に、半径方向歪みがゼロの特別な場合を含む、半径方向歪みとシーン構造の有効な組合せが無数に存在する。
図8は、本発明による、カメラ自己校正を実施するための方法800を示すフロー図である。
ブロック810において、システム300は、校正された画像およびカメラパラメータを受信する。例えば、トレーニング段階の間、システム300は、合成されたカメラパラメータと合成された未校正画像を生成するために使用される一組の校正された画像及び対応するカメラパラメータを受け入れることができる。カメラパラメータには、焦点距離、投影中心、および半径方向歪みなどを含めることができる。
ブロック820において、システム300は、合成された未校正画像及び合成されたカメラパラメータを生成する。
ブロック830において、システム300は、合成された未校正画像および合成されたカメラパラメータを使用して、カメラ自己校正ネットワークをトレーニングする。未校正画像は、入力データとして使用され、一方、カメラパラメータは、カメラ自己校正ネットワーク340をトレーニングするための教師信号として使用される。
ブロック840において、システム300は、実際の未校正画像を受信する。
ブロック850において、システム300は、実際の未校正画像のカメラパラメータを予測する(例えば、推定する)。システム300は、カメラ自己校正ネットワーク340を使用してカメラパラメータを予測する。システム300は、半径方向歪み推定と焦点距離推定のための中間タスクとして、主点推定に基づく深い教師を実装できる。主点を推定するための学習した特徴が半径方向ひずみの推定に用いられ、画像外観が半径方向ひずみと焦点距離の合成効果に基づいて決定される。
ブロック860において、システム300は、実際の未校正画像および推定カメラパラメータを使用して校正画像を生成する。
本明細書で使用されるように、用語「ハードウェアプロセッササブシステム」または「ハードウェアプロセッサ」は、1つ以上の特定のタスクを実行するために協働するプロセッサ、メモリ、ソフトウェア、またはそれらの組み合わせを指すことができる。有用な実施形態では、ハードウェアプロセッササブシステムは、1つまたは複数のデータ処理要素(例えば、論理回路、処理回路、命令実行デバイスなど)を含むことができる。1つまたは複数のデータ処理要素は、中央処理装置、グラフィックス処理装置、および/または別個のプロセッサまたはコンピューティング要素ベースのコントローラ(たとえば、論理ゲートなど)に含めることができる。ハードウェアプロセッササブシステムは、1つ以上のオンボードメモリ(例えば、キャッシュ、専用メモリアレイ、読み出し専用メモリなど)を含むことができる。いくつかの実施形態では、ハードウェアプロセッササブシステムは、オンボードまたはオフボードにすることができるか、またはハードウェアプロセッササブシステム(例えば、ROM、RAM、ベーシックインプット/アウトプットシステム(BIOS)など)によって使用するために専用にすることができる1つ以上のメモリを含むことができる。
いくつかのる実施形態では、ハードウェアプロセッササブシステムは、1つ以上のソフトウェア要素を含むことができ、実行することができる。1つ以上のソフトウェア要素は、特定の結果を達成するために、オペレーティングシステムおよび/または1つ以上のアプリケーションおよび/または特定のコードを含むことができる。
他の実施形態では、ハードウェアプロセッササブシステムは、指定された結果を達成するために1つ以上の電子処理機能を実行する専用の特別な回路を含むことができる。そのような回路は、1つ以上の特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、および/またはプログラマブルロジックアレイ(PLA)を含むことができる。
本明細書における本発明の「一実施形態(one embodiment)」または「一実施形態(a embodiment)」への言及、ならびにその他の変形は、実施形態に関連して説明された特定の特徴、構造、特性などが本発明の少なくとも1つの実施形態に含まれることを意味し、したがって、本明細書全体を通して様々な場所に現れる「一実施形態において(in one embodiment)」または「一実施形態において(in an embodiment)」という語句の出現、ならびに任意の他の変形は、必ずしもすべて同じ実施形態を参照しているわけではない。しかしながら、本明細書で提供される本発明の教示を前提として、1つまたは複数の実施形態の特徴を組み合わせることができることを理解されたい。
例えば、「A/B」、「Aおよび/またはB」および「AおよびBの少なくとも1つ」の場合における、「/」、「および/または」、および「少なくとも1つ」の使用は、第1のリストされたオプション(A)のみの選択、または第2のリストされたオプション(B)のみの選択、または両方のオプション(AおよびB)の選択を包含することが意図されることを理解されたい。さらなる例として、「A、B、および/またはC」および「A、B、およびCの少なくとも1つ」の場合において、このようなフレーズは、第1のリストされたオプション(A)のみの選択、または第2のリストされたオプション(B)のみの選択、または第3のリストされたオプション(C)のみの選択、または第1および第2のリストされたオプション(AおよびB)のみの選択、または第1および第3のリストされたオプション(AおよびC)のみの選択、または第2および第3のリストされたオプション(BおよびC)のみの選択、または3つすべてのオプション(AおよびBおよびC)の選択を包含することが意図されることを理解されたい。これは、リストされたアイテムの数だけ拡張することができる。
上記は、あらゆる点で例示的(illustrative)かつ典型的(exemplary)であるが、限定的ではないと理解されるべきであり、本明細書に開示される本発明の範囲は、詳細な説明からではなく、むしろ特許法によって許容される全範囲に従って解釈されるような特許請求の範囲から決定されるべきである。本明細書に示され、記載された実施形態は、本発明の例示にすぎず、当業者は、本発明の範囲および精神から逸脱することなく、様々な修正を実施することができることを理解されたい。当業者は、本発明の範囲および精神から逸脱することなく、様々な他の特徴の組み合わせを実施することができる。このように、本発明の態様を、特許法によって要求される詳細および特殊性と共に説明してきたが、特許証によって保護されることが請求され、望まれるものは、添付の特許請求の範囲に記載されている。

Claims (20)

  1. 少なくとも1つの実際の未校正画像を受信することと、
    カメラ自己校正ネットワークを使用して、前記少なくとも1つの実際の未校正画像に対応する複数の予測カメラパラメータを推定することと、
    記少なくとも1つの実際の未校正画像および前記複数の予測カメラパラメータの少なくとも1つを使用して、少なくとも1つの校正画像を決定することと、
    トレーニング段階中に、前記複数の予測カメラパラメータ間の依存順序を活用するための深層教師(deep supervision)を実施して、前記依存順序に従って複数の層にわたってカメラパラメータを予測し、該カメラパラメータが前記カメラ自己校正ネットワークをトレーニングするための教師信号として使用されることと、
    を含む、カメラ自己校正のための方法。
  2. トレーニング段階中に、少なくとも1つのトレーニング校正画像と、前記少なくとも1つのトレーニング校正画像に対応する少なくとも1つのトレーニングカメラパラメータとを受信することと、
    前記少なくとも1つのトレーニング校正画像と前記少なくとも1つのトレーニングカメラパラメータとを使用して、少なくとも1つの合成されたカメラパラメータと、前記少なくとも1つの合成されたカメラパラメータに対応する少なくとも1つの合成された未校正画像とを生成することと、をさらに含む、請求項1に記載の方法。
  3. 前記少なくとも1つの合成された未校正画像を入力データとして、前記少なくとも1つの合成されたカメラパラメータを監視信号として使用して、前記カメラ自己校正ネットワークをトレーニングすることを、さらに含む、請求項2に記載の方法。
  4. 前記少なくとも1つの予測カメラパラメータを推定することは、主点推定、焦点距離推定、および半径方向歪み推定の少なくとも1つを行うこと、を含む、請求項1に記載の方法。
  5. 前記深層教師を実施することは、
    半径方向歪み推定と焦点距離推定との中間タスクとして主点推定に基づいて深層教師を実施すること、をさらに含み、主点推定のための学習された特徴が、半径方向歪み推定に使用され、画像外観が、半径方向歪みと焦点距離の合成効果に基づいて決定される、請求項1に記載の方法。
  6. 前記少なくとも1つの校正画像に基づいて校正されたビデオを決定することと、SLAM(simultaneous localization and mapping)に基づいて、前記校正されたビデオにおいて観察される、カメラの軌跡およびシーン構造を推定することと、をさらに含む、請求項1に記載の方法。
  7. 前記少なくとも1つの校正画像に基づいてSFM(structure from motion)を使用して、少なくとも1つのカメラポーズとシーン構造を推定すること、をさらに含む、請求項1に記載の方法。
  8. 前記少なくとも1つの実際の未校正画像および前記少なくとも1つの予測カメラパラメータを使用して前記少なくとも1つの校正画像を決定することは、
    修正プロセスを介して前記少なくとも1つの実際の未校正画像と前記少なくとも1つの予測カメラパラメータとを処理して、前記少なくとも1つの校正画像を決定すること、をさらに含む、請求項1に記載の方法。
  9. 残差ネットワークをベースとし使用し、少なくとも1つの畳み込み層、および少なくとも1つのバッチ正規化層を追加して、前記カメラ自己校正ネットワークを実装すること、をさらに含む、請求項1に記載の方法。
  10. メモリデバイスに動作可能に結合されたプロセッサデバイスを有し、該プロセッサデバイスは、
    少なくとも1つの実際の未校正画像を受信し、
    カメラ自己校正ネットワークを使用して、前記少なくとも1つの実際の未校正画像に対応する複数の予測カメラパラメータを推定し、
    記少なくとも1つの実際の未校正画像と少なくとも1つの予測カメラパラメータを使用して、少なくとも1つの校正画像を決定し、
    トレーニング段階中に、前記複数の予測カメラパラメータ間の依存順序を活用するための深層教師(deep supervision)を実施して、前記依存順序に従って複数の層にわたってカメラパラメータを予測し、該カメラパラメータが前記カメラ自己校正ネットワークをトレーニングするための教師信号として使用されるように構成されている、カメラ自己校正のためのコンピュータシステム。
  11. 前記プロセッサデバイスは、
    トレーニング段階中に、少なくとも1つのトレーニング校正画像と、前記少なくとも1つのトレーニング校正画像に対応する少なくとも1つのトレーニングカメラパラメータとを受信し、
    前記少なくとも1つのトレーニング校正画像と前記少なくとも1つのトレーニングカメラパラメータとを使用して、少なくとも1つの合成されたカメラパラメータと、前記少なくとも1つの合成されたカメラパラメータに対応する少なくとも1つの合成された未校正画像とを生成するように、さらに構成されている、請求項10に記載のシステム。
  12. 前記プロセッサデバイスは、前記少なくとも1つの合成された未校正画像を入力データとして、前記少なくとも1つの合成されたカメラパラメータを教師信号として使用して、前記カメラ自己校正ネットワークをトレーニングするようにさらに構成されている、請求項11に記載のシステムシステム。
  13. 前記少なくとも1つの予測カメラパラメータを推定する場合、前記プロセッサデバイスは、主点推定、焦点距離推定、半径方向歪み推定の少なくとも一つを行うように、さらに構成されている、請求項10に記載のシステム。
  14. 前記深層教師を実施する場合、前記プロセッサデバイスは、半径方向歪み推定と焦点距離推定との中間タスクとして主点推定に基づいて深層教師を実施するようにさらに構成され、主点推定のための学習された特徴が、半径方向歪み推定に使用され、画像外観が、半径方向歪みと焦点距離の合成効果に基づいて決定される、請求項10に記載のシステム。
  15. 前記プロセッサデバイスは、
    前記少なくとも1つの校正画像に基づいて校正されたビデオを決定し、
    SLAM(simultaneous localization and mapping)に基づいて、前記校正されたビデオにおいて観察される、カメラの軌跡およびシーン構造を推定するように、さらに構成されている、請求項10に記載のシステム。
  16. 前記プロセッサデバイスは、前記少なくとも1つの校正画像に基づいてSFM(structure from motion)を使用して、少なくとも1つのカメラポーズとシーン構造を推定するように、さらに構成されている、請求項10に記載のシステム。
  17. 前記少なくとも1つの実際の未校正画像および前記少なくとも1つの予測カメラパラメータを使用して前記少なくとも1つの校正画像を決定する場合、前記プロセッサデバイスは、修正プロセスを介して前記少なくとも1つの実際の未校正画像と前記少なくとも1つの予測カメラパラメータとを処理して、前記少なくとも1つの校正画像を決定するように、さらに構成されている、請求項10に記載のシステム。
  18. 前記プロセッサデバイスは、残差ネットワークをベースとして使用し、少なくとも1つの畳み込み層、および少なくとも1つのバッチ正規化層を追加して、前記カメラ自己校正ネットワークを実施するように、さらに構成されている、請求項10に記載のシステム。
  19. カメラ自己校正を実施するための方法をコンピューティングデバイスに実行させるためのプログラムであって、前記方法は、
    少なくとも1つの実際の未校正画像を受信することと、
    カメラ自己校正ネットワークを使用して、前記少なくとも1つの実際の未校正画像に対応する複数の予測カメラパラメータを推定することと、
    前記少なくとも1つの実際の未校正画像および前記複数の予測カメラパラメータの少なくとも1つを使用して、少なくとも1つの校正画像を決定することと、
    トレーニング段階中に、前記複数の予測カメラパラメータ間の依存順序を活用するための深層教師(deep supervision)を実施して、前記依存順序に従って複数の層にわたってカメラパラメータを予測し、該カメラパラメータが前記カメラ自己校正ネットワークをトレーニングするための教師信号として使用されることと、
    を含むプログラム
  20. 前記方法は、
    トレーニング段階中に、少なくとも1つのトレーニング校正画像と、前記少なくとも1つのトレーニング校正画像に対応する少なくとも1つのトレーニングカメラパラメータとを受信することと、
    前記少なくとも1つのトレーニング校正画像と前記少なくとも1つのトレーニングカメラパラメータとを使用して、少なくとも1つの合成されたカメラパラメータと、前記少なくとも1つの合成されたカメラパラメータに対応する少なくとも1つの合成された未校正画像とを生成することと、をさらに含む、請求項19に記載のプログラム
JP2021530272A 2019-01-18 2020-01-10 カメラ自己校正ネットワーク Active JP7166459B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962793948P 2019-01-18 2019-01-18
US62/793,948 2019-01-18
US201962878819P 2019-07-26 2019-07-26
US62/878,819 2019-07-26
US16/736,451 US20200234467A1 (en) 2019-01-18 2020-01-07 Camera self-calibration network
US16/736,451 2020-01-07
PCT/US2020/013012 WO2020150077A1 (en) 2019-01-18 2020-01-10 Camera self-calibration network

Publications (2)

Publication Number Publication Date
JP2022510237A JP2022510237A (ja) 2022-01-26
JP7166459B2 true JP7166459B2 (ja) 2022-11-07

Family

ID=71609002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021530272A Active JP7166459B2 (ja) 2019-01-18 2020-01-10 カメラ自己校正ネットワーク

Country Status (4)

Country Link
US (1) US20200234467A1 (ja)
JP (1) JP7166459B2 (ja)
DE (1) DE112020000448T5 (ja)
WO (1) WO2020150077A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102227583B1 (ko) * 2018-08-03 2021-03-15 한국과학기술원 딥 러닝 기반의 카메라 캘리브레이션 방법 및 장치
CN112153357A (zh) * 2019-06-28 2020-12-29 中强光电股份有限公司 投影系统及其投影方法
CN111507924B (zh) * 2020-04-27 2023-09-29 北京百度网讯科技有限公司 视频帧的处理方法和装置
US20220408011A1 (en) * 2021-06-18 2022-12-22 Hewlett-Packard Development Company, L.P. User characteristic-based display presentation
KR20230092801A (ko) 2021-12-17 2023-06-26 한국기계연구원 광학식 시차 생성을 이용한 단일 카메라 스테레오 비전의 3차원 형상 측정 방법 및 장치
US11562504B1 (en) 2022-01-26 2023-01-24 Goodsize Inc. System, apparatus and method for predicting lens attribute
CN114708507A (zh) * 2022-04-13 2022-07-05 中国农业大学 一种动物热红外图像的处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014529389A (ja) 2011-07-25 2014-11-06 ウニベルシダデ デ コインブラ 1つまたは複数のチェッカーボードパターンの画像を用いた自動カメラキャリブレーションの方法および装置
JP2017112602A (ja) 2015-11-06 2017-06-22 トッパノ カンパニ, リミテッド.Toppano Co., Ltd. パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
US20180330521A1 (en) 2017-05-09 2018-11-15 Microsoft Technology Licensing, Llc Calibration of stereo cameras and handheld object
US20180336704A1 (en) 2016-02-03 2018-11-22 Sportlogiq Inc. Systems and Methods for Automated Camera Calibration
JP2018191275A (ja) 2017-04-28 2018-11-29 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6599685B2 (ja) * 2015-08-19 2019-10-30 シャープ株式会社 画像処理装置および誤差判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014529389A (ja) 2011-07-25 2014-11-06 ウニベルシダデ デ コインブラ 1つまたは複数のチェッカーボードパターンの画像を用いた自動カメラキャリブレーションの方法および装置
JP2017112602A (ja) 2015-11-06 2017-06-22 トッパノ カンパニ, リミテッド.Toppano Co., Ltd. パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
US20180336704A1 (en) 2016-02-03 2018-11-22 Sportlogiq Inc. Systems and Methods for Automated Camera Calibration
JP2018191275A (ja) 2017-04-28 2018-11-29 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
US20180330521A1 (en) 2017-05-09 2018-11-15 Microsoft Technology Licensing, Llc Calibration of stereo cameras and handheld object

Also Published As

Publication number Publication date
JP2022510237A (ja) 2022-01-26
US20200234467A1 (en) 2020-07-23
WO2020150077A1 (en) 2020-07-23
DE112020000448T5 (de) 2021-10-21

Similar Documents

Publication Publication Date Title
JP7166459B2 (ja) カメラ自己校正ネットワーク
CN110033003B (zh) 图像分割方法和图像处理装置
US11645835B2 (en) Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
CN112446270B (zh) 行人再识别网络的训练方法、行人再识别方法和装置
Reed et al. Deep visual analogy-making
KR20160034814A (ko) 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템
Liu et al. Learning steering kernels for guided depth completion
CN112529146B (zh) 神经网络模型训练的方法和装置
US11574198B2 (en) Apparatus and method with neural network implementation of domain adaptation
CN113807183A (zh) 模型训练方法及相关设备
EP3945497A1 (en) Method and apparatus with image depth estimation
CN114925320A (zh) 一种数据处理方法及相关装置
Cap et al. Super-resolution for practical automated plant disease diagnosis system
CN116486233A (zh) 一种多光谱双流网络的目标检测方法
KR102236582B1 (ko) 영상 처리 장치 및 그 동작방법
CN110188621B (zh) 一种基于ssf-il-cnn的三维人脸表情识别方法
Ghosh et al. Transsounder: A hybrid transunet-transfuse architectural framework for semantic segmentation of radar sounder data
US20230053618A1 (en) Recurrent unit for generating or processing a sequence of images
CN114626500A (zh) 一种神经网络计算方法及相关设备
Deck et al. Easing color shifts in score-based diffusion models
Hamamoto et al. 3D Plant Growth Prediction via Image-to-Image Translation.
EP4083874A1 (en) Image processing device and operating method therefor
US20230196651A1 (en) Method and apparatus with rendering
CN113516670B (zh) 一种反馈注意力增强的非模式图像分割方法及装置
US20220058484A1 (en) Method for training a neural network to deliver the viewpoints of objects using unlabeled pairs of images, and the corresponding system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350