JP7477045B2 - 基礎行列生成装置、制御方法、及びプログラム - Google Patents

基礎行列生成装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP7477045B2
JP7477045B2 JP2023504933A JP2023504933A JP7477045B2 JP 7477045 B2 JP7477045 B2 JP 7477045B2 JP 2023504933 A JP2023504933 A JP 2023504933A JP 2023504933 A JP2023504933 A JP 2023504933A JP 7477045 B2 JP7477045 B2 JP 7477045B2
Authority
JP
Japan
Prior art keywords
image
point
feature
pairs
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023504933A
Other languages
English (en)
Other versions
JPWO2022190224A5 (ja
JPWO2022190224A1 (ja
Inventor
学 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022190224A1 publication Critical patent/JPWO2022190224A1/ja
Publication of JPWO2022190224A5 publication Critical patent/JPWO2022190224A5/ja
Application granted granted Critical
Publication of JP7477045B2 publication Critical patent/JP7477045B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は基礎行列の生成に関する。
焦点距離などの内部パラメータが未知のカメラを用いて、同一の被写体を異なる位置から撮影した2枚の画像間の相対的なカメラパラメータを推定する技術が開発されている。相対的なカメラパラメータとは、絶対的な大きさが不明な外部パラメータ(2自由度の3次元並進ベクトルと3自由度の回転)と、焦点距離などの内部パラメータのことであり、それらを乗算した基礎行列(fundamental matrix)として表現される。
例えば、非特許文献1には、画像間で同一の3次元座標が画像上に射影された対応点を8組以上用いることで、基礎行列を算出する方法が記載されている。非特許文献2には、6組の対応点を用いて基礎行列と同時に焦点距離も推定する方法が記載されている。非特許文献3には、7組以上の対応点を用いて基礎行列と同時に焦点距離とレンズ歪をも推定する方法が記載されている。非特許文献4には、アフィン不変特徴点を使うことで2組の対応点から基礎行列と焦点距離を算出する方法が記載されている。上述した非特許文献1~4では、2つの画像から互いに対応する特徴点のペアを複数検出し、検出した特徴点のペアの集合から、RANSAC(RAndom SAmple Consensus)のようなロバスト推定アルゴリズムを利用して、誤対応点を除去して正確な基礎行列が生成される。
R. Hartley and A. Zisserman、「Multiple view geometry in computer vision 2nd edition」、Cambridge University Press、2004年3月25日、pp.279-282 H. Stewenius、外3名、「A minimal solution for relative pose with unknown focal length」、Image and Vision Computing、2008年7月、Volume 26、issue 7、pp.871-877 F. Jiang、外3名、「A minimal solution to relative pose with unknown focal length and radial distortion」、Springer、Asian Conference on Computer Vision、2014年11月1日、pp.443-456 D. Barath、外2名、「A minimal solution for two-view focal-length estimation using two affine correspondences」、Computer Research Repository、arXiv:1706.01649、2017年6月6日
本発明者は、基礎行列を生成する新たな技術を検討した。本開示の目的は、基礎行列を生成する新たな技術を提供することである。
本開示の基礎行列生成装置は、第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出部と、各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出部と、各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点との幾何学的な制約を表す基礎行列を生成する生成部と、を有する。前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まる。前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる。
本開示の制御方法は、コンピュータによって実行される。当該制御方法は、第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出ステップと、各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出ステップと、各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点との幾何学的な制約を表す基礎行列を生成する生成ステップと、を有する。前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まる。前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる。
本開示のコンピュータ可読媒体は、本開示の制御方法をコンピュータに実行させるプログラムを格納している。
本開示によれば、基礎行列を生成する新たな技術が提供される。
実施形態1の基礎行列生成装置の動作の概要を例示する図である。 特徴点ペアと派生点ペアを例示する図である。 実施形態1の基礎行列生成装置の機能構成を例示するブロック図である。 基礎行列生成装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 実施形態1の基礎行列生成装置によって実行される処理の流れを例示するフローチャートである。 RANSAC を用いる基礎行列生成装置によって実行される処理の流れを例示するフローチャートである。 図6のフローチャートに、符号付面積を利用して基礎行列の生成を行うか否かを判定する処理が加えられたものを例示する図である。
以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、特に説明しない限り、所定値や閾値などといった予め定められている値は、その値を利用する装置からアクセス可能な記憶装置などに予め格納されている。
図1は、実施形態1の基礎行列生成装置2000の動作の概要を例示する図である。ここで、図1は、基礎行列生成装置2000の概要の理解を容易にするための図であり、基礎行列生成装置2000の動作は、図1に示したものに限定されない。
基礎行列生成装置2000は、第1画像10及び第2画像20を取得し、第1画像10上の点と第2画像20上の点との幾何学的な制約(エピポーラ制約条件と呼ばれる)を表すための行列である基礎行列40を生成する。基礎行列40が満たすべきエピポーラ制約は、例えば以下の式(1)で表される。
Figure 0007477045000001
ここで、点 m は第1画像10上の点であり、点 n は第2画像20上の点であり、同一の3次元座標がそれぞれの画像へ射影された点である。すなわち、点 n と点 m は、互いに実空間上の同一の場所を表す点である。なお、非特許文献3に記されているように、レンズ歪を含む場合も含まない場合も、同様に点 m とn はいずれも 3x1 の斉次座標系の座標で表されている。F は3x3の基礎行列40であり、3つの特異値のうち、1つはゼロであることが知られている。
また、特異値に関する制約条件は以下の式(2)で表される。
Figure 0007477045000002
ここで、K は焦点距離などのカメラの内部パラメータを表す 3x3 の行列である。
以下では、単に内部パラメータと呼ぶ場合は、行列 K に加えてレンズ歪パラメータも含むものとする。
基礎行列生成装置2000は、上記基礎行列40を算出するために、第1画像10と第2画像20との間で互いに対応する点(対応点)のペアを6組以上生成する。以下、対応点のペアを対応点ペアと呼ぶ。ここで、対応点ペアに含まれる第1画像10上の点と第2画像20上の点は、互いに実空間上の同一の場所を表す点である。
基礎行列生成装置2000は、以下の方法で対応点ペアを検出する。まず基礎行列生成装置2000は、第1画像10から検出される特徴点と第2画像20から検出される特徴点とから、互いに対応する特徴点のペア(特徴点ペア)を検出する。すなわち、第1画像10上の或る特徴点と、その特徴点に対応する第2画像20上の特徴点とが、特徴点ペアとして検出される。ここで、少なくとも3組の特徴点ペアが、基礎行列40の生成に利用する対応点ペアとして検出される。
基礎行列生成装置2000は、上述の方法で検出した特徴点ペアを利用して、さらに対応点ペアを検出する。具体的には、基礎行列生成装置2000は、特徴点ペアに含まれる第1画像10上の特徴点から第1方向に第1距離離れた派生点と、その特徴点ペアに含まれる第2画像20上の特徴点から第2方向に第2距離離れた派生点とのペアを検出する。以下、このようにして検出される派生点のペアを、派生点ペアとも呼ぶ。
第1方向、第1距離、第2方向、及び第2距離は、特徴点について算出される特徴量を利用して決定される。例えば特徴量として、SIFT などといったスケールと主軸方向について不変な特徴量(以下、スケール不変特徴量)が利用されるとする。この場合、第1方向としては、例えば、第1画像10上の特徴点について算出された特徴量において定まる主軸方向が利用される。同様に、第2方向としては、例えば、第2画像20上の特徴点について算出された特徴量において定まる主軸方向が利用される。また、第1距離としては、例えば、第1画像10上の特徴点について算出された特徴量において定まるスケールの大きさが利用される。同様に、第2距離としては、例えば、第2画像20上の特徴点について算出された特徴量において定まるスケールの大きさが利用される。
図2は、特徴点ペアと派生点ペアを例示する図である。図2の例では、(m1,n1)と(m2,n2)と(m3,n3)がそれぞれ特徴点ペアとして検出されている。ここで、m1 と m2 とm3はそれぞれ第1画像10上の特徴点であり、n1 と n2とn3 はそれぞれ第2画像20上の特徴点である。また、特徴点 m1 について算出されたスケール不変特徴量により、スケール a1 と主軸方向α1が定まっている。同様に、特徴点 n1 について算出されたスケール不変特徴量により、スケール b1 と主軸方向β1が定まっている。なお、この例において、方向は、画像の水平方向右向きを基準の0度とする角度で表されている。
基礎行列生成装置2000は、特徴点 m1 について、その特徴量における主軸方向α1 へ a1 移動させた派生点 p1 を検出する。また、基礎行列生成装置2000は、特徴点 n1 について、その特徴量における主軸方向β1 へ b1 移動させた派生点 q1 を検出する。その結果、派生点 p1 と派生点 q1 のペア(p1,q1)が、派生点ペアとして検出される。なお、派生点 p1 は、特徴点 m1 を中心とする半径 a1 の円周上において主軸方向にある点とも表現できる。派生点 q1 についても同様である。
同様の方法により、基礎行列生成装置2000は、第1画像10上の特徴点 m2とm3 について、その特徴量における主軸方向α2、α3 へ a2、a3 移動させた派生点 p2 、p3を検出する。また、基礎行列生成装置2000は、第2画像20上の特徴点 n2とn3 について、その特徴量における主軸方向β2、β3へ b2 、b3移動させた派生点 q2、q3 を検出する。その結果、派生点ペア(p2,q2)と(p3,q3)が検出される。
基礎行列生成装置2000は、検出した6組以上の対応点ペアを用いて、基礎行列40を生成する。
<作用効果の例>
非特許文献1の発明では、本開示における第1画像10と第2画像20について、特徴点のペアを8組以上利用して、基礎行列40の生成が行われる。これに対し、本実施形態の基礎行列生成装置2000では、特徴点ペアと派生点ペアが合計で6組以上あれば、基礎行列40を生成できる。そのため、画像から検出する必要がある特徴点ペアの最小数は3組である。よって、特許文献1の発明と比較し、画像から検出する必要がある特徴点ペアの数が少ないという利点がある。
以下、本実施形態の基礎行列生成装置2000について、より詳細に説明する。
<機能構成の例>
図3は、実施形態1の基礎行列生成装置2000の機能構成を例示するブロック図である。基礎行列生成装置2000は、第1検出部2020、第2検出部2040、及び生成部2060を有する。第1検出部2020は、第1画像10及び第2画像20から、3組以上の特徴点ペアを検出する。第2検出部2040は、3組以上の特徴点ペアそれぞれを用いて、第1画像10及び第2画像20から、3組以上の派生点ペアを検出する。生成部2060は、検出した特徴点ペアと派生点ペアを用いて、基礎行列40を生成する。
<ハードウエア構成の例>
基礎行列生成装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、基礎行列生成装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、基礎行列生成装置2000を実現するコンピュータ500のハードウエア構成を例示するブロック図である。コンピュータ500は、任意のコンピュータである。例えばコンピュータ500は、PC(Personal Computer)やサーバマシンなどといった、据え置き型のコンピュータである。その他にも例えば、コンピュータ500は、スマートフォンやタブレット端末などといった可搬型のコンピュータである。コンピュータ500は、基礎行列生成装置2000を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。
例えば、コンピュータ500に対して所定のアプリケーションをインストールすることにより、コンピュータ500で、基礎行列生成装置2000の各機能が実現される。上記アプリケーションは、基礎行列生成装置2000の機能構成部を実現するためのプログラムで構成される。なお、上記プログラムの取得方法は任意である。例えば、当該プログラムが格納されている記憶媒体(DVD ディスクや USB メモリなど)から、当該プログラムを取得することができる。その他にも例えば、当該プログラムが格納されている記憶装置を管理しているサーバ装置から、当該プログラムをダウンロードすることにより、当該プログラムを取得することができる。
コンピュータ500は、バス502、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512を有する。バス502は、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ504などを互いに接続する方法は、バス接続に限定されない。
プロセッサ504は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ506は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス508は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース510は、コンピュータ500と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース510には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
ネットワークインタフェース512は、コンピュータ500をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
ストレージデバイス508は、基礎行列生成装置2000の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ504は、このプログラムをメモリ506に読み出して実行することで、基礎行列生成装置2000の各機能構成部を実現する。
基礎行列生成装置2000は、1つのコンピュータ500で実現されてもよいし、複数のコンピュータ500で実現されてもよい。後者の場合において、各コンピュータ500の構成は同一である必要はなく、それぞれ異なるものとすることができる。
<処理の流れ>
図4は、実施形態1の基礎行列生成装置2000によって実行される処理の流れを例示するフローチャートである。第1検出部2020は第1画像10及び第2画像20を取得する(S102)。第1検出部2020は、第1画像10及び第2画像20を用いて、3組以上の特徴点ペアを検出する(S104)。第2検出部2040は、第1画像10及び第2画像20を用いて、各特徴点ペアについての派生点ペアを検出する(S106)。生成部2060は、特徴点ペアと派生点ペアを用いて、基礎行列40を生成する(S108)。
<第1画像10と第2画像20について>
第1画像10と第2画像20は、任意のカメラによって生成された任意の撮像画像である。ただし、第1画像10と第2画像20は、少なくともその一部に、互いに同一の場所が撮像された画像領域が含まれている。例えば、同じ建物や人物を互いに異なる位置や角度から撮像することにより、第1画像10と第2画像20が生成される。
<第1画像10と第2画像20の取得:S102>
第1検出部2020は、第1画像10及び第2画像20を取得する(S102)。第1検出部2020が第1画像10と第2画像20を取得する方法は任意である。例えば第1検出部2020は、第1画像10と第2画像20を、それぞれが格納されている記憶装置から取得する。なお、第1画像10と第2画像20は、同じ記憶装置に格納されていてもよいし、互いに異なる記憶装置に格納されていてもよい。その他にも例えば、第1検出部2020は、第1画像10を生成したカメラと第2画像20を生成したカメラのそれぞれから、第1画像10と第2画像20を取得してもよい。
<特徴点ペアの検出:S104>
第1検出部2020は、第1画像10と第2画像20から特徴点ペアを3組以上検出する(S104)。そのために、第1検出部2020は、第1画像10と第2画像20のそれぞれから、特徴点の検出を行う。ここで、第1画像10と第2画像20から検出する特徴点は、任意の種類の特徴点でよい。また、画像から特徴点を検出する技術には、既存の技術を利用することができる。
また、第1検出部2020は、第1画像10と第2画像20のそれぞれから検出された特徴点について、その特徴点を含む領域の特徴量を算出する。ここで算出される特徴量は、例えば、SIFT などのようなスケール不変特徴量や、Hessian-Affine や Affine-SIFT などのようなアフィン変形について不変な特徴量(以下、アフィン不変特徴量)である。これらの特徴量の算出方法についても、既存の技術を利用することができる。
第1検出部2020は、各特徴点について算出した特徴量を利用して、第1画像10上の複数の特徴点と第2画像20上の複数の特徴点との間で、特徴点マッチングを行う。すなわち、第1検出部2020は、第1画像10上の特徴点と第2画像20上の特徴点とを、特徴量の類似度合いに基づいて互いに対応づける。このように、特徴点マッチングによって対応づけられた第1画像10上の特徴点と第2画像20上の特徴点が、特徴点ペアとして利用できる。なお、特徴点マッチングによって2つの画像から対応点を検出する技術には、既存の技術を利用することができる。
第1検出部2020は、このようにして対応づけられる第1画像10上の特徴点と第2画像20上の特徴点のペアのうち、任意の3組以上をそれぞれ特徴点ペアとして検出する。例えば第1検出部2020は、第1画像10から検出された特徴点のうちの1つを任意に選択し、その特徴点と特徴点マッチングによって対応づけられる第2画像20上の特徴点を特定する。すなわち、第1検出部2020は、第1画像10から抽出した特徴点について算出された特徴量と十分に類似する特徴量を持つ(特徴量の類似度が閾値以上である)第2画像20上の特徴点を特定し、特定した特徴点と第1画像10から抽出した特徴点とのペアを、特徴点ペアとして検出する。第1検出部2020は、当該処理を任意の回数繰り返すことで、任意の数の特徴点ペアを検出する。
なお、特徴点ペアを検出する処理の流れは、上述した流れに限定されない。例えば第1検出部2020は、第2画像20から検出された特徴点のうちの1つを任意に選択し、その特徴点と対応する特徴点を第1画像10から検出することで、特徴点ペアを検出してもよい。
<派生点ペアの検出:S106>
第2検出部2040は、各特徴点ペアについて、派生点ペアを検出する(S106)。第1画像10上の特徴点から検出される派生点は、第1画像10上の特徴点から第1方向に第1距離離れた点である。一方、第2画像20上の特徴点から検出される派生点は、第2画像20上の特徴点から第2方向に第2距離離れた点である。
前述したように、第1方向、第1距離、第2方向、及び第2距離は、特徴点について算出される特徴量を利用して決定される。例えば前述したように、スケール不変特徴量を利用する場合、第1方向としては、例えば、第1画像10上の特徴点について算出された特徴量における主軸方向が利用される。同様に、第2方向としては、例えば、第2画像20上の特徴点について算出された特徴量における主軸方向が利用される。
ただし、第1方向と第2方向はそれぞれ、主軸方向を基準として定まる方向であればよく、主軸方向とは異なる方向であってもよい。例えば第1方向と第2方向はそれぞれ、主軸方向と逆方向(180度異なる方向)や、主軸方向から所定角度(例えば、+90度)回転した方向などであってもよい。
ここで、第1方向は、或る特徴点ペアに含まれる第1画像10上の特徴点とその派生点、及び別の特徴点ペアに含まれる第1画像10上の特徴点とその派生点のいずれもが同一の直線を通らないように定められることが好適である。この場合、3つのうち2つの特徴点及び2つの派生点が線形従属となってしまうためである。
そこで例えば第2検出部2040は、第1画像10上の3つの特徴点と3つの派生点が同一の直線上に位置するか否かを判定し、1つの直線上に位置する場合には、第1方向を変更して派生点の検出を再度行ってもよい。例えば、第1方向の初期値を主軸方向に設定した状態で、派生点の検出が行われる。そして、第1画像10上の2つの特徴点と2つの派生点が同一の直線上に位置する場合には、第2検出部2040は、第1方向を主軸方向から所定方向ずらした上で、再度派生点の検出を行う。なお、複数の点が1つの直線上に位置するか否かを判定する技術には、既存の技術を利用することができる。
上述した縮退は、第2画像20でも同様に発生しうる。そこで第2検出部2040は、同様の方法で、第2画像20から検出する特徴点と派生点についても、1つの直線上に位置しないようにすることが好適である。
第1距離としては、第1画像10上の特徴点について算出された特徴量におけるスケールの大きさの所定倍が利用される。同様に、第2距離としては、第2画像20上の特徴点について算出された特徴量におけるスケールの大きさの所定倍が利用される。第1距離の算出に利用する所定倍と第2距離の算出に利用される所定倍は、互いに等しい値とする。所定倍=1倍とすれば、スケールの値がそのまま利用される。図2の例は、所定倍=1倍とした例である。
特徴量は、スケール不変特徴量には限定されず、アフィン不変特徴量であってもよい。この場合、第1方向としては、例えば、第1画像10上の特徴点について算出された特徴量について定まる特定軸の方向が利用される。同様に、第2方向としては、例えば、第2画像20上の特徴点について算出された特徴量について定まる特定軸の方向が利用される。特定軸は、例えば、短軸又は長軸である。ただし、第1方向と第2方向はそれぞれ、短軸方向又は長軸方向の逆方向(180度異なる方向)や、短軸方向又は長軸方向所定角度回転した方向であってもよい。ただし、第1方向と第2方向は、互いに同じ種類の方向とする。すなわち、第1方向を短軸方向とした場合には第2方向も短軸方向とし、第1方向を長軸方向とした場合には第2方向も長軸方向とする。
第1距離としては、第1画像10上の特徴点について算出された特徴量について定まる特定軸の長さの所定倍が利用される。同様に、第2距離としては、第2画像20上の特徴点について算出された特徴量について定まる特定軸の長さの所定倍が利用される。第1距離の算出に利用する所定倍と第2距離の算出に利用される所定倍は、互いに等しい値とする。
第2検出部2040は、1つの特徴点ペアから2組以上の派生点ペアを検出してもよい。例えばスケール不変特徴量を利用するケースにおいて、第2検出部2040が、特徴点ペアに含まれる第1画像10上の特徴点から、2つの派生点を検出するとする。この場合、例えば、一方の派生点 p11 については、「第1方向=主軸方向、第1距離=スケールの k1 倍」とし、他方の派生点 p12 については、「第1方向=主軸と逆方向、第1距離=スケールの k2 倍」とする。ここで、k1 と k2 は等しくてもよいし、等しくなくてもよい。同様に、第2検出部2040は、特徴点ペアに含まれる第2画像20上の特徴点からも、2つの派生点を検出する。一方の派生点 q11 については、「第2方向=主軸方向、第2距離=スケールの k1 倍」とし、他方の派生点 q12 については、「第2方向=主軸と逆方向、第2距離=スケールの k2 倍」とする。そして、第2検出部2040は、(p11,q11)と(p12,q12)をそれぞれ、派生点ペアとして検出する。
その他にも例えば、アフィン不変特徴量を利用するケースにおいて、第2検出部2040が、特徴点ペアに含まれる第1画像10上の特徴点から、4組の派生点を検出するとする。この場合、例えば、派生点 p11 については、「第1方向=短軸方向、第1距離=短軸の長さの k1 倍」とし、派生点 p12 については、「第1方向=短軸方向と逆方向、第1距離=短軸の長さの k2 倍」とし、派生点 p13 については、「第1方向=長軸方向、第1距離=長軸の長さの k3 倍」とし、派生点 p14 については、「第1方向=長軸方向と逆方向、第1距離=長軸の長さの k4 倍」とする。ここで、k1、k2、k3 及び k4 は、それぞれ等しくてもよいし、等しくなくてもよい。
同様に、第2検出部2040は、特徴点ペアに含まれる第2画像20上の特徴点からも、4組の派生点 q11、q12、q13、及び q14 を検出する。派生点 q11 については、「第2方向=短軸方向、第2距離=短軸の長さの k1 倍」とし、派生点 q12 については、「第2方向=短軸方向と逆方向、第2距離=短軸の長さの k2 倍」とし、派生点 q13 については、「第2方向=長軸方向、第2距離=長軸の長さの k3 倍」とし、派生点 q14 については、「第2方向=長軸方向と逆方向、第2距離=長軸の長さの k4 倍」とする。
そして、第2検出部2040は、(p11,q11)、(p12,q12)、(p13,q13)、及び(p14,q14)をそれぞれ、派生点ペアとして検出する。
<基礎行列40の生成:S108>
生成部2060は、6組以上の対応点ペア(特徴点ペアと派生点ペア)を用いて、基礎行列40を生成する。ここで、対応点ペアを6組以上用いて基礎行列を算出する技術には、既存の技術を利用することができる。
例えば基礎行列40は、以下の式(3)で表される最適化問題を解くことによって算出される。
Figure 0007477045000003
ここで、ベクトル f は行列 F(基礎行列40)のベクトル表現、行列 M はベクトル m とベクトル n から構成される係数行列である。
なお、式(3)は、6点や7点の場合はそれぞれ非特許文献2もしくは非特許文献3に記載された多項式問題へと帰着して解けることが知られている。また、8点以上の場合には、非特許文献1に記載されているように、||f||^2=1 以外の制約条件を無視することで線形最小二乗法に帰着することが知られている。そして、線形最小二乗法による計算方法には、DLT(Direct Linear Transform)法などが利用できる。
ここで、生成部2060は、対応点ペアに含まれる各点の座標をそのまま利用する代わりに、正規化した座標を利用してもよい。こうすることで、数値計算の誤差を低減することができる。例えば座標の正規化としては、座標値の平均がゼロ、かつ、分散が√2となるような相似変換を施す手法がある。このように正規化した座標値を用いる場合、生成部2060は、DLT 法等の手法によって得られた行列に対して、相似変換の逆変換を施すことで、基礎行列40を生成することができる。
ここで、派生点ペアの検出を行う前に、特徴点ペアの各点の座標の正規化が行われてもよい。この場合、第2検出部2040は、スケール不変特徴量のスケールの大きさや、アフィン不変特徴量の特定軸の長さについても同様の変換を施した上で、派生点ペアの検出を行う。
<内部パラメータの推定>
前述したように、非特許文献2には、6組の対応点ペアを用いて、基礎行列と共に、焦点距離も推定する技術が記載されている。また、非特許文献3には、7組以上の対応点ペアを用いて、基礎行列と共に、焦点距離とレンズ歪を推定する技術が記載されている。そこで、これらの技術を基礎行列生成装置2000へ適用することにより、生成部2060が、基礎行列40の生成に加え、内部パラメータの推定をさらに行うようにしてもよい。
ここで、非特許文献3の技術を利用する場合、対応点ペアが7組以上必要であるため、第1検出部2020は、4組以上の特徴点ペアを検出する。また、第2検出部2040は、3組以上の派生点ペアを検出する。
<結果の出力>
基礎行列生成装置2000は、生成した基礎行列40を含む情報(以下、出力情報)を出力する。出力情報の出力態様は任意である。例えば基礎行列生成装置2000は、出力情報を、基礎行列生成装置2000からアクセス可能なディスプレイ装置に表示させる。その他にも例えば、基礎行列生成装置2000は、出力情報を、基礎行列生成装置2000からアクセス可能な記憶装置に格納する。その他にも例えば、基礎行列生成装置2000は、出力情報を、基礎行列生成装置2000と通信可能に接続されている他の装置へ送信する。
出力情報は、基礎行列40のみを含んでもよいし、基礎行列40以外の情報をさらに含んでもよい。例えば出力情報には、基礎行列40が、どの画像とどの画像とを結びつける基礎行列なのかが把握可能な情報も含まれることが好適である。そこで例えば、出力情報は、基礎行列40によって互いに結びつけられる画像の識別子(例えば、ファイル名や画像データそのもの)として、第1画像10の識別子及び第2画像20の識別子を含む。
<基礎行列40の精度の向上>
基礎行列生成装置2000は、以下の手法により、より精度の高い基礎行列40を生成してもよい。ここでいう基礎行列40の精度とは、第1画像10上の点 mi と第2画像20上の点 ni と基礎行列を用いて三角測量して復元した三次元座標を、第1画像10と第2画像20へと再投影し、第1画像10上に再投影された2次元点と mi との誤差および第2画像20上に再投影された2次元点と ni との誤差の小ささを意味する。これらの再投影誤差が小さいほど、基礎行列40によって、第1画像10上の点と第2画像20上の点とが正確に幾何的な制約条件を満たすこととなるため、基礎行列40の精度が高いと言える。なお、再投影誤差の代わりに、計算量がより少ない代数学的誤差(例えばSampson誤差)を用いてもよい。以下では、これらの誤差を総称してエピポーラ誤差と呼ぶ。
基礎行列生成装置2000は、基礎行列40の生成に利用する対応点ペアを様々に変えながら、基礎行列40を複数生成する。そして、基礎行列生成装置2000は、それら複数の基礎行列40の中から最も精度が高いものを選択し、当該選択した基礎行列40を含む出力情報を出力する。
例えば基礎行列生成装置2000は、RANSAC を利用して、精度の高い基礎行列40の生成を実現する。図6は、RANSAC を用いる基礎行列生成装置2000によって実行される処理の流れを例示するフローチャートである。
第1検出部2020は、第1画像10及び第2画像20を取得する(S202)。S204からS218は、その実行回数が最大反復回数Nに達するまで繰り返し実行されるループ処理L1である。S204において、基礎行列生成装置2000は、ループ処理L1の実行回数が最大反復回数N以上であるか否かを判定する。ループ処理L1の実行回数が最大反復回数N以上である場合、図6の処理はS220に進む。一方、ループ処理L1の実行回数が最大反復回数N以上でない場合、図6の処理はS206に進む。
第1検出部2020は、第1画像10及び第2画像20から、複数の特徴点ペアを検出する(S206)。第2検出部2040は、S206で検出された特徴点ペアの中から少なくとも任意の3組の特徴点ペアを選択し、選択した各特徴点ペアについて派生点ペアを検出する(S208)。生成部2060は、選択した3組の特徴点ペア、及びそれらを用いて検出された3組の派生点ペア(すなわち、6組の対応点ペア)を用いて、基礎行列40を生成する(S210)。なお、S210において、基礎行列40の生成と共に、焦点距離やレンズ歪などの内部パラメータの推定が行われてもよい。ただし、非特許文献3の技術を利用する場合、S210において、特徴点ペアは4組利用される。
基礎行列生成装置2000は、S206で検出された複数の特徴点ペアのうち、基礎行列40によってエピポーラ制約を満たす特徴点ペアの個数を特定する(S212)。ここで、「特徴点ペアが基礎行列40によってエピポーラ制約を満たす」とは、特徴点ペアに含まれる第1画像10上の点 mi と第2画像20上の点 ni とが、基礎行列40によって定義されるエピポーラ誤差が十分に小さい(例えば閾値未満である)ことを意味する。以下、基礎行列40によって正しく対応付けられる特徴点ペア(上記誤差が閾値未満となる特徴点ペア)を「正しい特徴点ペア」と呼び、基礎行列40によって正しく対応づけられない特徴点ペア(上記誤差が閾値以上となる特徴点ペア)を、「正しくない特徴点ペア」と呼ぶ。
正しい特徴点ペアの個数を特定するために、基礎行列生成装置2000は、各特徴点ペアについて、1)その特徴点ペアに含まれる第1画像10上の点 mi とその特徴点ペアに含まれる第2画像20上の点 ni とのエピポーラ誤差を算出し、2)算出した誤差が閾値未満であるか否かを判定する。そして、基礎行列生成装置2000は、誤差が閾値未満となった特徴点ペア(すなわち、正しい特徴点ペア)の個数を特定する。
S214において、基礎行列生成装置2000は、正しい特徴点ペアの個数が、これまでに実行されたループ処理L1で算出された個数の中で最大であるか否かを判定する。正しい特徴点ペアの個数が、これまでに算出された個数の中で最大でない場合(S214:NO)、図6の処理はS218に進む。一方、正しい特徴点ペアの個数が、これまでに算出された個数の中で最大である場合(S214:YES)、基礎行列生成装置2000は、ループ処理L1の最大反復回数を更新する(S216)。
ここで、最大反復回数は、例えば以下の式(4)で表される。
Figure 0007477045000004
ここで、N は最大反復回数を表す。p は N 回中に1回は、基礎行列40によって正しく変換される特徴点ペアが存在する確率を表す。s は、基礎行列40の生成に利用した対応点ペアの個数(前述の例では3)を表す。εは、特徴点ペアの総数に占める、正しくない特徴点ペアの割合である。
ここで、εの真の値は未知であるため、その推定値が利用される。具体的には、基礎行列生成装置2000は、これまでに実行したループ処理L1において算出された正しい特徴点ペアの個数のうち、最大の個数を利用して推定される。この最大個数を Km と表記し、かつ、特徴点ペアの総数を Kall と表記すれば、εは (Kall-Km)/Kall と推定することができる。
S218はループ処理L1の終端であるため、図6の処理はS204に戻る。
ループ処理L1の繰り返し実行が終了すると、図6の処理はS220に進む。S220において、基礎行列生成装置2000は、複数回実行されたループ処理L1それぞれで生成された基礎行列40のうち、正しい特徴点ペアの個数が最大であったループ処理L1において生成された基礎行列40を、出力情報に含めて出力する。こうすることで、複数生成された基礎行列40のうち、精度が最大である基礎行列40が出力されるようになる。
ここで、本実施形態の基礎行列生成装置2000では、特徴点ペアを利用して派生点ペアを検出するため、RANSAC の1回の試行(図6のループ処理L1の1回の実行)で必要とされるサンプル点の数が3(式(4)において s=3)となる。そのため、非特許文献1の発明のように5つのサンプル点を必要とするケース(式(4)において s=5となるケース)や非特許文献2の発明のように8つのサンプル点を必要とするケース(式(4)において s=8となるケース)と比較し、最大反復回数 N がの値が指数関数的に減少する。よって、RANSAC の計算量が削減される。
なお、6組よりも少ない対応点ペアで基礎行列を生成する方法として、アフィン不変特徴点を2組用いる方法が、非特許文献4に記載されている。非特許文献4に記載されている方法では、局所的なアフィン変換とエピポーラ制約が満たす拘束条件を解くことで、基礎行列を算出している。
非特許文献4の手法では、対応点ペアの数が2組であるため、RANSAC の最大反復回数は、本実施形態の基礎行列生成装置2000よりも理論的には少ない。しかしながら、本実施形態の基礎行列生成装置2000には、非特許文献4の手法と比較し、全体的な実行時間が短くなるという利点がある。例えば、アフィン不変特徴点の計算量は、一般にスケール不変特徴点の数倍から数十倍を要するため、本実施形態の第1検出部2020に要する処理時間は非特許文献4よりも大幅に小さい。そのため、全体的な実行時間を比較すると本実施形態の基礎行列生成装置2000の方が高速になると考えられる。
<<基礎行列40の生成の省略>>
基礎行列生成装置2000は、ループ処理L1において毎回基礎行列40の生成を行うのではなく、特定の条件が満たされた場合のみ、基礎行列40の生成を行うようにしてもよい。具体的には、基礎行列生成装置2000は、S206で選択された3組の特徴点ペア、及びそれらを用いて検出された3組の派生点ペアを利用して、符号付面積を算出する。そして、符号付き面積の符号の正しさに基づいて、基礎行列40の生成を行うか否かを判定する。以下、具体的に説明する。
まず、3点の斉次化した画像座標 {x1, x2, x3} が与えられたとき、符号付面積は以下の式(5)で表される。
Figure 0007477045000005
式(5)は、いわゆる 3x3 行列の行列式に等しい。6組の対応点ペアが与えられたとき、それらがいずれも正しい対応点ペアであれば6組の中から任意の3組を選んで式(5)を計算すると、その符号は必ず互いに同符号となる。例えば、選択された特徴点ペアが(m1,n1)と(m2,n2)であり、これらを用いて検出された派生点ペアが(p1,q1)と(p2,q2)であるとする。この場合において、例えば、(m1,n1)、(m2,n2)、及び(p1,q1)の3組を符号付面積の算出対象として選べば、det(m1,m2,p1) と det(n1,n2,q1) が算出される。そして、6組の対応点ペアがいずれも正しい対応点ペアなのであれば、算出された2つの符号付面積の符号は、互いに同符号となる。
そこで基礎行列生成装置2000は、6組の対応点ペアから3組の対応点ペアを選び、それらについて上述した符号付面積の算出を行って、算出された2つの符号付面積の符号が等しいか否かを判定する。そして、符号付面積の符号が正しい場合、基礎行列生成装置2000は、S210以降の処理を実行する。一方、符号付面積の符号が正しくない場合、基礎行列生成装置2000は、基礎行列40の生成を行わず、ループ処理L1の先頭に戻る。図7は、図6のフローチャートに、符号付面積を利用して基礎行列40の生成を行うか否かを判定する処理が加えられたものを例示する図である。当該判定の処理はS302である。
ここで、6組の対応点ペアから3組の対応点ペアを選ぶ場合、20通りの選び方がある。基礎行列生成装置2000はこれら20通りの選び方のいずれか1つ以上についてそれぞれ、前述した符号付面積の算出を行って、符号が互いに同一であるか否かを判定する。例えば基礎行列生成装置2000は、20通り全てについて当該判定を行う。そして、基礎行列生成装置2000は、全てのケースにおいて、算出される2つの符号付面積の符号が互いに等しい場合に、基礎行列40の生成を行う(S302において、符号付面積の符号が正しいと判定する)。また、例えば、3組の特徴点ペアについて符号付面積の算出を行い、符号が互いに同一である場合のみ、派生点ペアを算出してもよい。この場合、まずS302にて当該判定の処理を行い、YES の場合にのみS208にて派生点ペアを計算し、S210以降の処理を実行する。
<<RANSAC 以外の利用>>
基礎行列40の精度を高める方法は、RANSAC を利用する方法に限定されない。例えば、RANSAC には様々な派生が存在するため、それらを選択的に組み合わせることが可能である。例えば、PROSAC(Progressive Sample Consensus)を用いる場合、特徴量のマッチングスコアが小さい順に特徴点ペアが選択される。すなわち、S208において、特徴点ペアがランダムに選択される代わりに、特徴量のマッチングスコアが小さい(すなわち、互いの特徴量の類似度合いが大きい)順に特徴点ペアが選択される。
その他にも例えば、LO-RANSAC(Locally Optimized RANSAC)を用いてもよい。この場合、S214において、正しい特徴点ペアの個数が最大であると判定された場合(S214:YES)に、対応点ペアを用いて式(2)を解くように構成された生成部2060に処理を実行させてもよいし、M-estimatorなどの重みづけ最小二乗法を用いてもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに提供することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM、CD-R、CD-R/W、半導体メモリ(例えば、マスク ROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに提供されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出部と、
各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出部と、
各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点とのエピポーラ制約を表す基礎行列を生成する生成部と、を有し、
前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まり、
前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる、基礎行列生成装置。
(付記2)
前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定され、
前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定される、付記1に記載の基礎行列生成装置。
(付記3)
前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定され、
前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定される、付記1に記載の基礎行列生成装置。
(付記4)
前記派生点ペアの検出に利用する前記特徴点ペアを変更しながら、前記基礎行列の生成を繰り返し行い、生成された複数の前記基礎行列のうち、最も精度が高いものを出力する、付記1から3いずれか一項に記載の基礎行列生成装置。
(付記5)
複数の前記特徴点ペア及び複数の前記派生点ペアのうちのいずれか3組を用いて符号付面積の算出を行い、当該算出された符号付面積の符号に基づいて、前記基礎行列の生成を行うか否かを判定する、付記1から4いずれか一項に記載の基礎行列生成装置。
(付記6)
前記生成部は、各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像を生成したカメラ及び前記第2画像を生成したカメラの内部パラメータを推定する、付記1から5いずれか一項に記載の基礎行列生成装置。
(付記7)
コンピュータによって実行される制御方法であって、
第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出ステップと、
各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出ステップと、
各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点とのエピポーラ制約を表す基礎行列を生成する生成ステップと、を有し、
前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まり、
前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる、制御方法。
(付記8)
前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定され、
前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定される、付記7に記載の制御方法。
(付記9)
前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定され、
前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定される、付記7に記載の制御方法。
(付記10)
前記派生点ペアの検出に利用する前記特徴点ペアを変更しながら、前記基礎行列の生成を繰り返し行い、生成された複数の前記基礎行列のうち、最も精度が高いものを出力する、付記7から9いずれか一項に記載の制御方法。
(付記11)
複数の前記特徴点ペア及び複数の前記派生点ペアのうちのいずれか3組について符号付面積の算出を行い、当該算出された符号付面積の符号に基づいて、前記基礎行列の生成を行うか否かを判定する、付記7から10いずれか一項に記載の制御方法。
(付記12)
前記生成ステップにおいて、各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像を生成したカメラ及び前記第2画像を生成したカメラの内部パラメータを推定する、付記7から11いずれか一項に記載の制御方法。
(付記13)
プログラムが格納されているコンピュータ可読媒体であって、
前記プログラムは、コンピュータに、
第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出ステップと、
各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出ステップと、
各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点とのエピポーラ制約を表す基礎行列を生成する生成ステップと、を実行させ、
前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まり、
前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる、コンピュータ可読媒体。
(付記14)
前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定され、
前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定される、付記13に記載のコンピュータ可読媒体。
(付記15)
前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定され、
前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定される、付記13に記載のコンピュータ可読媒体。
(付記16)
前記コンピュータに、前記派生点ペアの検出に利用する前記特徴点ペアを変更しながら、前記基礎行列の生成を繰り返し行い、生成された複数の前記基礎行列のうち、最も精度が高いものを出力するステップを実行させる、付記13から15いずれか一項に記載のコンピュータ可読媒体。
(付記17)
前記コンピュータに、複数の前記特徴点ペア及び複数の前記派生点ペアのうちのいずれか3組について符号付面積の算出を行い、当該算出された符号付面積の符号に基づいて、前記基礎行列の生成を行うか否かを判定するステップを実行させる、付記13から16いずれか一項に記載のコンピュータ可読媒体。
(付記18)
前記生成ステップにおいて、各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像を生成したカメラ及び前記第2画像を生成したカメラの内部パラメータを推定する、付記13から17いずれか一項に記載のコンピュータ可読媒体。
10 第1画像
20 第2画像
40 基礎行列
500 コンピュータ
502 バス
504 プロセッサ
506 メモリ
508 ストレージデバイス
510 入出力インタフェース
512 ネットワークインタフェース
2000 基礎行列生成装置
2020 第1検出部
2040 第2検出部
2060 生成部

Claims (10)

  1. 第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出部と、
    各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出部と、
    各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点とのエピポーラ制約を表す基礎行列を生成する生成部と、を有し、
    前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まり、
    前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる、基礎行列生成装置。
  2. 前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定され、
    前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定される、請求項1に記載の基礎行列生成装置。
  3. 前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定され、
    前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたアフィン不変特徴量の特定の軸方向及びその軸の長さに基づいて決定される、請求項1に記載の基礎行列生成装置。
  4. 前記派生点ペアの検出に利用する前記特徴点ペアを変更しながら、前記基礎行列の生成を繰り返し行い、生成された複数の前記基礎行列のうち、最も精度が高いものを出力する、請求項1から3いずれか一項に記載の基礎行列生成装置。
  5. 複数の前記特徴点ペア及び複数の前記派生点ペアのうちのいずれか3組を用いて符号付面積の算出を行い、当該算出された符号付面積の符号に基づいて、前記基礎行列の生成を行うか否かを判定する、請求項1から4いずれか一項に記載の基礎行列生成装置。
  6. 前記生成部は、各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像を生成したカメラ及び前記第2画像を生成したカメラの内部パラメータを推定する、請求項1から5いずれか一項に記載の基礎行列生成装置。
  7. コンピュータによって実行される制御方法であって、
    第1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出ステップと、
    各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出ステップと、
    各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点とのエピポーラ制約を表す基礎行列を生成する生成ステップと、を有し、
    前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まり、
    前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる、制御方法。
  8. 前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定され、
    前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定される、請求項7に記載の制御方法。
  9. 1画像と第2画像から、互いに対応する特徴点のペアである特徴点ペアを3組以上検出する第1検出ステップと、
    各前記特徴点ペアについて、その特徴点ペアに含まれる前記第1画像上の点から第1方向に第1距離離れた点と、その特徴点ペアに含まれる前記第2画像上の点から第2方向に第2距離離れた点とのペアである派生点ペアを検出する第2検出ステップと、
    各前記検出された特徴点ペア及び派生点ペアを利用して、前記第1画像上の点と前記第2画像上の点とのエピポーラ制約を表す基礎行列を生成する生成ステップと、をコンピュータに実行させ、
    前記第1方向と前記第1距離はそれぞれ、前記特徴点ペアに含まれる前記第1画像上の点について算出された特徴量に基づいて定まり、
    前記第2方向と前記第2距離はそれぞれ、前記特徴点ペアに含まれる前記第2画像上の点について算出された特徴量に基づいて定まる、プログラム
  10. 前記第1方向と第1距離はそれぞれ、前記第1画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定され、
    前記第2方向と第2距離はそれぞれ、前記第2画像上の点について算出されたスケール不変特徴量の主軸方向とスケールの長さに基づいて決定される、請求項に記載のプログラム
JP2023504933A 2021-03-09 2021-03-09 基礎行列生成装置、制御方法、及びプログラム Active JP7477045B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/009391 WO2022190224A1 (ja) 2021-03-09 2021-03-09 基礎行列生成装置、制御方法、及びコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2022190224A1 JPWO2022190224A1 (ja) 2022-09-15
JPWO2022190224A5 JPWO2022190224A5 (ja) 2023-11-24
JP7477045B2 true JP7477045B2 (ja) 2024-05-01

Family

ID=83226443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023504933A Active JP7477045B2 (ja) 2021-03-09 2021-03-09 基礎行列生成装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20240153233A1 (ja)
JP (1) JP7477045B2 (ja)
WO (1) WO2022190224A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016100899A (ja) 2014-11-20 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. 映像補正方法及び装置
JP2017174105A (ja) 2016-03-23 2017-09-28 Kddi株式会社 幾何検証装置及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6511980B2 (ja) * 2015-06-19 2019-05-15 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016100899A (ja) 2014-11-20 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. 映像補正方法及び装置
JP2017174105A (ja) 2016-03-23 2017-09-28 Kddi株式会社 幾何検証装置及びプログラム

Also Published As

Publication number Publication date
WO2022190224A1 (ja) 2022-09-15
US20240153233A1 (en) 2024-05-09
JPWO2022190224A1 (ja) 2022-09-15

Similar Documents

Publication Publication Date Title
US11244435B2 (en) Method and apparatus for generating vehicle damage information
Zhou et al. Monocap: Monocular human motion capture using a cnn coupled with a geometric prior
CN107810522B (zh) 实时、基于模型的对象检测及姿态估计
US9305240B2 (en) Motion aligned distance calculations for image comparisons
JP2018195309A (ja) 顔認識のための画像処理装置の訓練方法及び訓練装置
US20170287154A1 (en) Image processing apparatus and image processing method
US11727584B2 (en) Shape supplementation device, shape supplementation learning device, method, and program
CN111881804B (zh) 基于联合训练的姿态估计模型训练方法、系统、介质及终端
TW201616451A (zh) 點雲套索選取系統及方法
CN113870215B (zh) 中线提取方法及装置
JP2018055199A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US8548225B2 (en) Point selection in bundle adjustment
CN117372604A (zh) 一种3d人脸模型生成方法、装置、设备及可读存储介质
JP7477045B2 (ja) 基礎行列生成装置、制御方法、及びプログラム
US11470298B2 (en) Method and apparatus with updating of algorithm for generating disparity image
JP7477043B2 (ja) 基本行列生成装置、制御方法、及びプログラム
JP7448034B2 (ja) 平面射影変換行列生成装置、制御方法、及びプログラム
CN113643328B (zh) 标定物的重建方法、装置、电子设备及计算机可读介质
Jiang et al. Probabilistic Triangulation for Uncalibrated Multi-View 3D Human Pose Estimation
CN116295466A (zh) 地图生成方法、装置、电子设备、存储介质、及车辆
Boukamcha et al. A real-time auto calibration technique for stereo camera
JP2019105992A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP6218237B2 (ja) 撮影画像を平行化する画像変換プログラム、装置及び方法
JP5814714B2 (ja) 画像類似度判定装置、画像類似度判定方法及び画像類似度判定プログラム
WO2023166618A1 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401