JP7426611B2 - 校正方法および校正装置 - Google Patents

校正方法および校正装置 Download PDF

Info

Publication number
JP7426611B2
JP7426611B2 JP2020568127A JP2020568127A JP7426611B2 JP 7426611 B2 JP7426611 B2 JP 7426611B2 JP 2020568127 A JP2020568127 A JP 2020568127A JP 2020568127 A JP2020568127 A JP 2020568127A JP 7426611 B2 JP7426611 B2 JP 7426611B2
Authority
JP
Japan
Prior art keywords
feature points
image
matching
images
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020568127A
Other languages
English (en)
Other versions
JPWO2020153264A1 (ja
Inventor
将貴 福田
敏康 杉尾
徹 松延
哲史 吉川
達也 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020153264A1 publication Critical patent/JPWO2020153264A1/ja
Application granted granted Critical
Publication of JP7426611B2 publication Critical patent/JP7426611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Vascular Medicine (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本開示は、複数の撮像装置のパラメータを校正する校正方法、および、校正装置に関する。
特許文献1には、撮像装置によって撮影された複数の画像を射影変換することで、同じ被写体に対する撮像装置からの見え方が大きく異なる画像間のマッチングを行う技術が開示されている。
特表2011-521372号公報
本開示は、複数の撮像装置のパラメータを精度よく校正することができる校正方法および校正装置を提供する。
本開示の第一態様における校正方法は、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、前記複数の撮像装置のそれぞれのパラメータを取得し、取得された前記複数の画像のそれぞれについて、取得された前記複数のパラメータを用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を生成し、取得された前記複数の画像のそれぞれについて、生成された前記1以上の探索窓内から前記複数の特徴点を抽出し、前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する。
また、本開示の第二態様における校正方法は、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、前記複数の撮像装置のそれぞれについて、当該撮像装置の第1パラメータを取得し、取得された前記複数の画像と、取得された複数の前記第1パラメータとに基づいて、前記三次元空間上における三次元情報を推定し、推定された前記三次元情報を前記複数の第1パラメータに追加することで得られた複数の第2パラメータを出力し、取得された前記複数の画像のそれぞれについて、出力された前記複数の第2パラメータに基づいて特徴点のマッチングの組合せを限定するための1以上の探索領域を算出し、前記複数の画像のそれぞれについて、複数の特徴点を抽出し、算出された前記1以上の探索領域を用いて、抽出された前記複数の特徴点から特徴点のマッチングの候補を絞り込み、前記候補として絞り込まれた複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する。
また、本開示の第三態様における校正方法は、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、取得された前記複数の画像のそれぞれについて、映り込んでいる物体の形状を認識し、当該形状を囲む探索窓を生成し、取得された前記複数の画像のそれぞれについて、生成された前記探索窓内から前記複数の特徴点を抽出し、前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する。
本開示における校正方法および校正装置は、複数の撮像装置のパラメータを精度よく校正することができる。
図1は、三次元空間認識の概要を示す図である。 図2は、校正の概要を示す図である。 図3は、実施の形態1における校正システムの構成を示すブロック図である。 図4は、実施の形態1における撮像装置の構成を示すブロック図である。 図5は、実施の形態1における制御装置の構成を示すブロック図である。 図6は、実施の形態1における校正装置の構成を示すブロック図である。 図7Aは、パラメータ情報の一例について説明するための図である。 図7Bは、パラメータ情報の一例について説明するための図である。 図7Cは、パラメータ情報の一例について説明するための図である。 図7Dは、パラメータ情報の一例について説明するための図である。 図7Eは、パラメータ情報の一例について説明するための図である。 図7Fは、パラメータ情報の一例について詳細を説明するための図である。 図8は、実施の形態1における校正処理の詳細を説明するための図である。 図9は、実施の形態1における校正処理の詳細を説明するための図である。 図10は、実施の形態1における校正処理の詳細を説明するための図である。 図11は、実施の形態1における校正処理の詳細を説明するための図である。 図12は、校正処理の詳細を説明するためのシーケンス図である。 図13は、実施の形態1における校正処理の詳細を説明するためのフローチャート図である。 図14は、実施の形態1における特徴点の抽出処理の一例を示すフローチャートである。 図15は、実施の形態2における校正装置の構成を示すブロック図である。 図16は、実施の形態2における校正処理の詳細を説明するための概要図である。 図17は、実施の形態2における校正処理の詳細を説明するための概要図である。 図18は、実施の形態2における校正処理の詳細を説明するための概要図である。 図19は、実施の形態2における校正処理の詳細を説明するための概要図である。 図20は、変形例1における探索窓の生成処理を説明するための図である。 図21は、変形例2における探索窓の生成処理を説明するための図である。 図22は、変形例3における探索窓の生成処理を説明するための図である。
(本発明の基礎となった知見)
三次元空間認識は、被写体の三次元形状を再構成(モデリング)をすることで、または再構成結果を用いることで実現される。被写体の三次元形状を再構成する三次元空間再構成装置は、同一の場面の映像を撮影する複数のカメラを含む撮像システムから提供される映像データと、校正によって得られた各カメラの位置および姿勢等(以下、「位置姿勢」という。)を示すカメラパラメータと、を用いてモデリングを行う。したがって、校正後にカメラの位置等が変化すると、カメラパラメータがカメラの位置等の実際の状態を反映していないために被写体の三次元形状再構成が適切に実行できず、その結果、三次元空間認識の精度が低下する、または生成そのものに失敗する。このため、定期的にカメラのパラメータを校正する必要がある。
このような撮像システムにおいて複数のカメラは、所定の空間を取り囲むように配置される。このため、複数のカメラのうちの2つのカメラ間の位置姿勢が大きく離れている場合に、2つのカメラからの所定の空間内の被写体の見え方は大きく異なる。よって、複数のカメラのそれぞれについてカメラパラメータを校正しようとすると、三次元空間上で同一点とみなされる位置に対するユニークな特徴点の抽出が難しく、結果、精度よくパラメータを校正することが難しいという課題があった。また、特許文献1に開示されている従来技術は、近似的にカメラからの見え方が同じになるように画像を変換し特徴点を抽出することでマッチング精度を向上させているが、一方で高負荷な処理が必要であるという課題があった。
このように、従来の技術では、複数の撮像装置のパラメータの校正を容易に行うことができていなかった。
そこで、本開示の第一態様における校正方法は、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、前記複数の撮像装置のそれぞれのパラメータを取得し、取得された前記複数の画像のそれぞれについて、取得された前記複数のパラメータを用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を生成し、取得された前記複数の画像のそれぞれについて、生成された前記1以上の探索窓内から前記複数の特徴点を抽出し、前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する。
これによれば、複数の画像間でのマッチングを行うための複数の特徴点の抽出を、複数の撮像装置のパラメータを用いて生成した1以上の探索窓を用いて行う。これにより、互いに異なる位置において撮像された結果であることを考慮して複数の画像から特徴点を抽出することができる。このため、マッチングの処理負荷を低減しつつ、マッチングの精度を向上することができる。よって、複数の撮像装置のパラメータを精度よく校正することができる。
また、前記複数のパラメータのそれぞれは、当該パラメータに対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置に対して過去の時刻に行われた校正により得られ、且つ前記対応する撮像装置を識別するカメララベルを含んでもよい。
このため、過去に得られたパラメータを用いた校正を行うことで、複数の撮像装置のパラメータを効率よく校正することができる。
また、前記複数のパラメータのそれぞれは、当該パラメータに対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置と他の撮像装置との間の相対的な位置姿勢に関し、且つ前記対応する撮像装置を識別するカメララベルを含んでもよい。
このため、対象となる撮像装置の他の撮像装置との間の相対的な位置姿勢に関するパラメータを用いた校正を行うことで、複数の撮像装置のパラメータを効率よく校正することができる。
また、前記複数のパラメータのそれぞれは、当該パラメータに対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置から前記三次元空間上の任意の点までの距離を示し、且つ前記対応する撮像装置を識別するカメララベルを含んでもよい。
このため、対象となる撮像装置から三次元空間上の任意の点までの距離を示すパラメータを用いた校正を行うことで、複数の撮像装置のパラメータを効率よく校正することができる。
また、前記1以上の探索窓の生成では、前記複数のパラメータに基づいて、当該画像を撮像した一の撮像装置および他の撮像装置の並び方向における前記一の撮像装置および前記他の撮像装置の間の位置姿勢が離れているほど、前記並び方向に略垂直な方向に長い形状を有する探索窓を算出してもよい。
このため、画像が撮像された撮像装置に応じた探索窓を算出することができ、複数の画像から特徴点を効果的に抽出することができる。
また、前記複数の特徴点の抽出では、(i)当該画像から複数のキーポイントを検出し、(ii)検出された前記複数のキーポイントのそれぞれについて、(ii-i)当該キーポイントが中心となるように、前記1以上の探索窓を当該画像上に配置することで1以上の特徴量パッチを抽出し、(ii-ii)当該キーポイントに対応して抽出された前記1以上の特徴量パッチのそれぞれの特徴の分布を特徴量として算出し、当該キーポイントに算出された前記特徴の分布を記述することで前記特徴点を抽出してもよい。
このため、複数の撮像装置のそれぞれのパラメータに応じた特徴量を含む特徴点を複数抽出することができる。
また、本開示の他の一態様に係る校正方法は、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、前記複数の撮像装置のそれぞれについて、当該撮像装置の第1パラメータを取得し、取得された前記複数の画像と、取得された複数の前記第1パラメータとに基づいて、前記三次元空間上における三次元情報を推定し、推定された前記三次元情報を前記複数の第1パラメータに追加することで得られた複数の第2パラメータを出力し、取得された前記複数の画像のそれぞれについて、出力された前記複数の第2パラメータに基づいて特徴点のマッチングの組合せを限定するための1以上の探索領域を算出し、前記複数の画像のそれぞれについて、複数の特徴点を抽出し、算出された前記1以上の探索領域を用いて、抽出された前記複数の特徴点から特徴点のマッチングの候補を絞り込み、前記候補として絞り込まれた複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する。
これによれば、三次元情報を含む第2パラメータに基づいて生成した探索領域を用いて、特徴点のマッチングの候補を絞り込んでマッチングを行うため、マッチングの精度を向上させることができ、かつ、マッチングを効率よく行うことができる。このため、複数の撮像装置のパラメータを精度よく校正することができる。
また、前記複数の第1パラメータのそれぞれは、当該第1パラメータが対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置について過去の時刻に行われた校正により得られ、且つ前記対応する撮像装置を識別するカメララベルを含んでもよい。
このため、過去に得られたパラメータを用いた校正を行うことで、複数の撮像装置のパラメータを効率よく校正することができる。
また、前記複数の画像のうちの第1画像における前記1以上の探索領域である1以上の第1探索領域と、前記複数の画像のうちの第2画像における前記1以上の探索領域である1以上の第2探索領域とは、それぞれ、前記三次元空間上の1以上の領域に対応しており、前記マッチングでは、一の前記第1探索領域に含まれる1以上の第1特徴点と、前記一の第1探索領域と前記三次元空間上の共通する領域で対応する一の前記第2探索領域に含まれる1以上の第2特徴点とを、前記マッチングの前記候補として絞り込み、前記1以上の第1特徴点と前記1以上の第2特徴点とを用いてマッチングを行ってもよい。
これによれば、第1画像および第2画像について、それぞれ、三次元空間上の共通する領域で対応する第1探索領域に含まれる1以上の第1特徴点と、第2探索領域に含まれる1以上の第2特徴点とを対応付けるため、マッチングの精度を向上させることができ、かつ、マッチングを効率よく行うことができる。
また、前記マッチングでは、前記1以上の第1特徴点と、前記第2画像における前記1以上の第2特徴点以外の特徴点とを用いてマッチングを行わず、前記第1画像における前記1以上の第1特徴点以外の特徴点と、前記1以上の第2特徴点とを用いてマッチングを行わなくてもよい。
これによれば、三次元空間上の共通しない領域同士では、マッチングを行わないため、マッチングの精度を向上させることができ、かつ、マッチングを効率よく行うことができる。
本開示の他の一態様に係る校正方法は、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、取得された前記複数の画像のそれぞれについて、映り込んでいる物体の形状を認識し、当該形状を囲む探索窓を生成し、取得された前記複数の画像のそれぞれについて、生成された前記探索窓内から前記複数の特徴点を抽出し、前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する。
この校正方法では、物体の形状を囲む探索窓を用いて特徴点のマッチングを行うので、マッチングの処理負荷が低減されつつ、マッチングの精度が向上する。
なお、これらの全般的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本開示の一態様に係る校正システムおよび校正方法について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
以下、図を用いて実施の形態1を説明する。
(実施の形態1)
[1.三次元空間認識と校正の概要]
まず、本実施の形態にかかる校正システムが用いられる三次元空間認識および校正の概要について図1および図2を用いて説明する。図1は、三次元空間認識の概要を示す図である。図2は、校正の概要を示す図である。
校正システムは、所定の三次元空間A1(以下、「空間A1」とも言う。)内における同一シーンを撮像するためのカメラ100を複数台備える。具体例を挙げると、所定の三次元空間A1は、交通道路上の空間であり、同一シーンとはその道路20上を車両21が走行する、または歩行者(図示せず)が存在するシーンである。別の例として、監視対象が存在する三次元空間を所定の三次元空間とし、同一シーンは人または物の動作が挙げられる。
複数台のカメラ100のそれぞれは、互いに異なる位置に配置されており、それぞれが共通する三次元空間を撮像する。このため、三次元空間内における複数台のカメラ100の撮像対象の領域は、少なくとも一部に重複する領域を有する。例えば、複数台のカメラ100は、道路20上の空間A1を一部囲むように、互いに異なる位置に設置される。また、複数台のカメラ100は、それぞれ互いに異なる姿勢をとる。そして、複数台のカメラ100の撮像対象の領域では、少なくとも一部が重複する。撮像対象の領域において少なくとも一部が重複することは、撮像により得られた映像データを三次元空間に再構成するため、また、カメラの校正におけるマッチングに用いられるためである。なお、撮像対象の領域は、複数台のカメラ100のうちの一部のカメラ100で重複していてもよいし、複数台のカメラ100の全てで重複していてもよい。
三次元空間認識では、このように設置された複数台のカメラ100からそれぞれ得られた複数の映像(以下、映像は、画像とも言う。)と、複数台のカメラ100の位置姿勢を示すパラメータとを用いて三次元モデル22を再構成する。そこで、パラメータを得るために、複数台のカメラ100の校正が必要である。校正では、図2に示すように各カメラ100で撮像された映像上の特徴的な点を抽出し、互いに異なる視点の画像520、540間で図の点線のように抽出された特徴的な点マッチングさせることで、各カメラ100のパラメータを算出する。特徴的な点は、図2において各画像520、540の白丸で示される点である。ここで算出されるパラメータは、共通の座標系において各カメラ100の位置および撮像方向の角度(姿勢)等を示すカメラパラメータである。なお、カメラ100の位置姿勢は、カメラポーズとも言う。
再構成により得られた三次元モデル22のデータは、三次元空間認識を実行する装置に送信される。このような装置の三次元空間認識の機能として、三次元物体認識、物体の形状・動作解析、自由視点映像生成等が挙げられる。
三次元物体認識は、三次元空間上のどの位置にどんな物体が存在するかを特定する処理である。三次元物体認識は、例えば、道路20上の空間A1が撮像された複数の映像で再構成された三次元モデルを用いることで、空間A1上の車両21が存在する位置、空間A1上の建物から歩行者までの距離等を算出する処理である。これらの算出結果は、例えば、自動運転のための車両位置の検出に用いられる。
物体の形状・動作解析は、物体の形状、実空間上での大きさ、動作速度等を解析する処理である。物体の形状・動作解析は、例えば、道路20上の空間A1が撮像された複数の映像で再構成された三次元モデルを用いることで、車両21の大きさおよび車両21の移動速度、または、歩行者の身長および歩行者の移動速度等を算出する処理である。物体の形状・動作解析では、さらに、三次元物体認識における算出結果と組み合わせることで、例えば、空間A1上の車両21が存在する位置、車両21の大きさ、車両21の移動速度等を算出してもよい。
自由視点映像生成は、カメラが存在しない視点である仮想視点から見た場合の映像を生成する処理である。自由視点映像生成は、例えば、道路20上の空間A1が撮像された複数の映像であって、互いに異なる複数の斜め方向から車両21が撮像された映像を用いて再構成された三次元モデル22を用いることで、複数の斜め方向に含まれない正面の方向から車両21が撮像されたような仮想視点の映像を生成する処理である。
このように、いずれの三次元空間認識の機能は、異なる複数の視点で撮像された複数の映像を用いて生成された三次元モデルに基づいて実現される。各機能が高い精度を実現するためには、より精度が高い三次元モデルが必要となる。そして、より精度が高い三次元モデルを再構成するためには、より正確なカメラパラメータが必要である。カメラパラメータの精度が低いと、再構成された三次元モデルの精度が低下する、または再構成できない。三次元モデルデータの精度が低下すると、三次元空間認識の精度が低下する。また、三次元モデルデータが再構成されないと、三次元空間認識の実現が困難となる。
以下では、より精度の高いカメラパラメータを算出することができる校正システムについて説明する。
[2.校正システムの構成]
図3は、実施の形態1における校正システムの構成を示すブロック図である。
実施の形態における校正システム1000は、複数の撮像装置10a~10n、制御装置200、校正装置300、およびユーザインタフェース400を備える。撮像装置10a~10nは、制御装置200と通信可能に接続されている。また、校正装置300、およびユーザインタフェース400は、制御装置200と通信可能に接続されている。
[2-1.撮像装置の構成]
図4は、実施の形態1における撮像装置10a~10nの構成を示すブロック図である。
複数の撮像装置10a~10nは、それぞれが所定の空間A1を撮像するための図1のカメラ100に相当するカメラを備える装置であり、取り得る構成は互いに共通である。なお、ここでいう所定の空間A1とは、複数台のカメラそれぞれの撮像領域の和集合である。
撮像装置10a~10nのそれぞれは、カメラ100および架台110を備える。以降は、撮像装置10a~10nの構成は同じであるため、本開示における1台の撮像装置について説明する場合には、撮像装置10aについて説明する。つまり、以降において撮像装置10aについて説明している箇所は、他の撮像装置10b~10nについても同様のことが言える。
カメラ100は、記憶部101、制御部102、光学系103、およびイメージセンサ104を備える。
記憶部101には、制御部102が読み出して実行するプログラムが記憶されている。また、記憶部101には、イメージセンサ104を用いて撮影された撮像領域の映像データ、この映像データに付されるタイムスタンプなどのメタ情報、カメラ100のカメラパラメータ、および適用中のフレームレートまたは解像度等の撮影設定が一時的に記憶される。
このような記憶部101は例えばフラッシュメモリ等の書き換え可能な不揮発性の半導体メモリを用いて実現される。また、保存されるデータの書き換えの要否または必要な保存期間等に応じて書き換え不可能なROM(Read-Only Memory)または揮発性のRAM(Random Access Memory)も記憶部として用いられ得る。
なお、校正システム1000が備える撮像装置は複数であれば特に個数は限定されない。また、各撮像装置10a~10nの特性は共通でなくてもよい。また、各撮像装置10a~10nが備えるカメラ100は、モノラルカメラに限定されず、ステレオカメラが含まれていてもよい。
なお、校正システム1000は、複数の撮像装置を備えるとしたが、これに限らずに、1台の撮像装置を備えてもよい。例えば、校正システム1000では、実空間上に存在する撮像対象を、1台の撮像装置を移動させながら1台の撮像装置に互いに視点の異なる複数の画像を含む多視点画像を生成させるように撮影させてもよい。複数の画像のそれぞれは、撮像装置の位置及び姿勢の少なくとも一方が互いに異なる撮像装置により撮影(生成)された画像である。
制御部102は、例えばCPU(Central Processing Unit)を用いて実現され、上記の記憶部101に記憶されるプログラムを読み出して実行することで、カメラ100が備える各構成要素を制御して撮像その他の機能を発揮させる。なお、制御部102は、カメラ100が備える各構成要素を制御して撮像その他の機能を発揮させる専用回路により実現されてもよい。つまり、制御部102は、ソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。
光学系103は、撮像領域からの光をイメージセンサ104上に結像させる構成要素であり、レンズを含む光学素子を用いて実現される。また、焦点距離および画角が変更可能であってもよい。また、広角レンズ、または魚眼レンズのような超広角レンズが用いられてもよい。例えば校正システム1000が撮影する映像が監視システムに用いられる場合、広範な撮像領域を得るために広角レンズが用いられることがある。
イメージセンサ104は、光学系によって集められた光を受光面で受け、この受けた光を、画像を示す電気信号に変換するCCDイメージセンサ、CMOSイメージセンサ、またはMOSイメージセンサ等の固体撮像素子で実現される。
架台110は、校正に用いられる映像を撮像によって生成中のカメラを、所定の位置で固定し支えるための構成要素であり、例えば三脚で実現される。なお、この撮像の準備としてカメラ100の固定位置を調整するために、架台110の脚部分は長さや角度が調整可能であってもよい。また、架台110には、カメラ100をパンまたはチルトするために雲台を回転させる機構、上下に移動させるためのエレベータ機構等が備えられてもよい。あるいは、架台110は、ドリー、クレーン等の、カメラ100を支え且つ移動させる機構を含んでもよい。
[2-2.制御装置の構成]
図5は、実施の形態1における制御装置200の構成を示すブロック図である。
制御装置200は、記憶部201、制御部202、およびタイマー203を備える。
制御装置200は、撮像装置10a~10nの制御、および撮像装置10a~10nから受け取ったデータの処理をする。また、制御装置200は、校正装置300に対して各撮像装置10a~10nが備えるカメラ100のカメラパラメータの校正処理の指示を行う。
このような制御装置200は、例えばコンピュータである。この場合、記憶部201は、このコンピュータの記憶装置であり、ハードディスクドライブ若しくは各種の半導体メモリ、またはこれらの組み合わせで実現される。また、制御部202はこのコンピュータのCPUで実現され、タイマー203はこのCPUが参照する、コンピュータに備えられるタイマーである。また、ユーザインタフェース400は、このコンピュータに接続される表示装置、タッチスクリーン、トラックパッド、キーボード、マウス、その他のコントローラ類またはこれらの組み合わせによって実現される。
記憶部201には、制御部202が読み出して実行するプログラムが記憶されている。また、記憶部201には、撮像装置10a~10nから受け取ったデータであって、制御部202による処理の対象であるデータが記憶される。
制御部202は、上記の記憶部201に記憶されるプログラムを読み出して実行することで、上記の撮像装置10a~10nおよび校正装置300の制御を行う。また、制御部202は、これらの制御および処理に関するユーザからの指令に対する処理を実行する。これらの処理のひとつとして、撮像装置10a~10nがそれぞれ備える複数台のカメラ100による同期映像の撮影の制御が挙げられる。
また、これらの処理のひとつには、イベント検出および校正指令が含まれていてもよい。制御部202に含まれるイベント検出部202bは、イベント検出のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。また、制御部202に含まれる校正指令部202cは、校正指令のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。
なお、制御部202の撮像制御部202a、イベント検出部202b、および校正指令部202cは、撮像制御、イベント検出、校正指令、校正処理などを発揮させる専用回路により実現されてもよい。つまり、制御部202は、ソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。
撮像制御部202aは、複数の撮像装置10a~10nのそれぞれに、撮像領域である三次元空間A1を異なる複数のタイミングで撮像させる。撮像制御部202aは、複数の撮像装置10a~10nのそれぞれが、予め定められた位置にあり、かつ、予め定められた方向を向いた姿勢にある状態で、複数の撮像装置10a~10nに撮像領域を撮像させる。
イベント検出部202bは、撮像装置10a~10nから提供された撮像状況情報に基づいて、撮像装置10a~10nがそれぞれ備えるカメラ100のいずれかに校正の実行の理由になり得る所定のイベントの発生を検出する。校正の実行の理由になり得るイベントとは、例えばカメラの移動が発生する、または移動の発生の可能性が高いイベント、または高い精度でマッチングを実行することができる可能性が高いイベントである。より具体的な例については校正システム1000の動作の説明の中で後述する。このようなイベントの発生を検出した場合に、イベント検出部202bは校正を実行するか否かについて判定する。校正を実行すると判定した場合は、実行される校正を示す校正情報を、例えば校正指令部202cに出力する。
校正指令部202cは、イベント検出部202bから受け取った校正情報に基づいて、校正情報に示されるカメラ100に校正を実行させる。また、校正情報が示すカメラ100が2台以上である場合には、例えば校正情報が示す、校正の実行の理由であるイベントの内容に基づいて、各カメラ100に校正を実行させる順序を決定してもよい。校正指令部202cによる処理については具体例を後述する。
[2-3.校正装置の構成]
図6は、実施の形態1における校正装置300の構成を示すブロックである。
校正装置300は、記憶部301および校正部302を備える。
校正装置300は、制御装置200を介して受け取ったデータを処理する。具体的には、校正装置300は、各撮像装置10a~10nが備えるカメラ100のカメラパラメータの校正処理を実行する。また、校正装置300は、三次元空間構成処理を実行してもよい。
このような校正装置300は、例えばコンピュータである。この場合、記憶部301は、このコンピュータの記憶装置であり、ハードディスクドライブ若しくは各種の半導体メモリ、またはこれらの組み合わせで実現される。また、校正部302はこのコンピュータのCPUで実現される。なお、校正装置300は、制御装置200と同じコンピュータにより実現されてもよい。
記憶部301には、校正部302が読み出して実行するプログラムが記憶されている。また、記憶部301には、制御装置200を介して撮像装置10a~10nから受け取ったデータ、および外部の装置から取得した撮像装置10a~10nに関するデータであって、校正部302による処理の対象であるデータが記憶される。つまり、撮像状況情報が記憶されていてもよいし、撮像装置10a~10nのカメラパラメータに関するパラメータ情報が記憶されていてもよい。
校正部302は、上記の記憶部301に記憶されるプログラムを読み出して実行することで、上記の撮像装置10a~10nから受け取ったデータの処理を行う。この処理のひとつとして、各撮像装置10a~10nが備えるカメラ100のカメラパラメータの校正処理が挙げられる。
ここで、校正装置300で行われる校正処理について、図7A~図7F、図8~図11を用いて説明する。図7A~図7Fは、パラメータ情報の一例について説明するための図である。図8~図11は、校正処理の詳細を説明するための図である。
校正部302は、画像取得部302a、パラメータ取得部302b、前処理部302c、探索窓生成部302d、抽出部302e、マッチング算出部302f、および再構成部302gを有する。
画像取得部302aは、複数の撮像装置10a~10nによりそれぞれ撮像された複数の画像を取得する。画像取得部302aは、さらに、複数の画像と共に、当該複数の画像のそれぞれに対応しており、当該複数の画像のそれぞれが撮像されたカメラ100を示すカメララベルを取得する。画像取得部302aは、例えば、カメララベルが付与された画像を取得することで、複数の画像とカメララベルとを取得してもよい。複数の画像のそれぞれは、静止画像であってもよいし、動画像であってもよい。なお、校正処理に利用される複数の画像は、それぞれ、ある対応する1タイミングにおいて複数の撮像装置10a~10nにより撮像されることで得られた画像であることが好ましい。画像取得部302aにより取得された複数の画像は、記憶部301に記憶される。また、画像取得部302aは、制御装置200から校正指令を受け取る前に、事前に画像およびカメララベルを記憶部301に記憶していてもよい。これにより、校正装置300は、校正が必要と判断された際に、校正処理を開始できる。つまり、校正装置300は、新たに画像およびカメララベルを取得することなく校正処理を開始できる。
パラメータ取得部302bは、校正システム1000の外部の装置、または記憶部301から、撮像装置10a~10nのそれぞれのパラメータに関するパラメータ情報を取得する。パラメータ取得部302bは、さらに、複数のパラメータ情報と共に、当該複数のパラメータ情報のそれぞれに対応しており、当該パラメータ情報が対応する撮像装置を示すカメララベルを取得する。パラメータ取得部302bは、例えば、カメララベルが付与されたパラメータ情報を取得することで、複数のパラメータ情報とカメララベルとを取得してもよい。複数のパラメータ情報のそれぞれは、当該パラメータ情報に対応する撮像装置が備えるカメラ100の位置姿勢に関する情報である。
各パラメータ情報は、例えば、図7Aに示すように、当該パラメータ情報に対応する撮像装置が備えるカメラ100aと他の撮像装置が備えるカメラ100bとの間の相対的な位置姿勢の差を示す情報であってもよい。なお、カメラ100a、100bは、複数の撮像装置10a~10nがそれぞれ備える複数のカメラ100に含まれる。この相対的な位置姿勢の差は、カメラ100aの撮像方向と、カメラ100bの撮像方向とがなす角の角度であってもよいし、カメラ100aとカメラ100bとの距離であってもよいし、上記角度および距離の両方を含んでいてもよい。
また、各パラメータ情報は、例えば、図7Bに示すように、当該パラメータ情報に対応する撮像装置が備えるカメラ100に対して、過去の時刻に行われた校正により得られた校正結果を含む情報であってもよい。また、各パラメータ情報は、例えば、図7Cに示すように、カメラ100aから三次元空間上の任意の点までを結ぶ直線と、カメラ100bから上記任意の点までを結ぶ直線とがなす角の角度、つまり、カメラ100a、100bの上記任意の点に対する輻輳角を示す情報であってもよい。また、各パラメータ情報は、例えば、図7Dに示すように、各カメラ100から三次元空間上の任意の点までの距離を示す情報であってもよい。また、各パラメータ情報は、例えば、図7Eに示すように、各カメラ100から、各カメラ100に共通する撮像対象となる三次元空間A1の中心までの距離を示す情報であってもよい。なお、三次元空間A1の中心とは、三次元空間A1を鉛直方向から平面視したときの二次元形状における重心であってもよいし、三次元空間A1の三次元形状における重心であってもよい。また、各パラメータ情報は、例えば、図7Fに示すように、システムの設計段階で定めた設計書、仕様書などに基づく各カメラ100位置姿勢を示す情報であってもよい。
なお、図7A~図7Fを用いて説明した各パラメータ情報は、一例であり、パラメータ情報を構成する要素を限定するものではない。パラメータ情報は、校正が実行される時刻の撮像装置各々の位置姿勢を高精度に表現できていなくてもよく、人による推定結果をもとに得た情報でもよいし、センサにより測定された情報でもよいし、記憶部301に記憶されている別の時刻においてカメラ校正により算出された情報でもよいし、それらの組み合わせから構成される情報でもよい。また、パラメータ取得部302bは、制御装置200からの校正指令を受け取る前に、事前にパラメータ情報を記憶部301に記憶してもよい。これにより、校正が必要と判断された際に、校正処理を開始できる。つまり、校正装置300は、新たにパラメータ情報を取得することなく校正処理を開始できる。
前処理部302cは、画像前処理、またはマッチング前処理、またはそれらの組み合わせを実行する。画像前処理とは、例えば、明るさ調整、ノイズ除去、解像度変換、色空間変換、レンズ歪補正、射影変換、アフィン変換、エッジ強調処理、トリミング処理、またはこれらの組み合わせである。画像前処理は、画像取得部302aにより取得された複数の画像に対して画像前処理を実行されればよいため、画像前処理を実行するタイミングは、校正処理が実行されるタイミングに合わせて行われていなくてもよく、事前に行われていてもよい。前処理部302cにより画像前処理が実行されることにより得られた前処理済みの複数の画像は、記憶部301に記憶されてもよい。
また、マッチング前処理とは、例えば、マッチングを行う画像の組み合わせを限定する処理である。これにより、後に記述のマッチング算出処理を効率的に実行することができる。なお、マッチング前処理は、パラメータ情報を用いて、実行してもよい。前処理部302cによりマッチング前処理が実行されることにより得られた情報は、記憶部301に記憶されてもよい。
なお、前処理部302cによる各前処理は、必ずしも実行されなくてもよい。このため、校正装置300は、前処理部302cを有しない構成であってもよい。
探索窓生成部302dは、画像取得部302aにより取得された複数の画像のそれぞれについて、パラメータ取得部302bにより取得された複数のパラメータ情報を用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を示す探索窓情報を生成する。探索窓は、画像から、当該探索窓の形状のパッチであって特徴量を記述するパッチを抽出することに用いられる。本実施の形態において、パッチとは、探索窓の形状で規定される領域であって、画像の一部領域を切り出した、元画像そのものも含む部分画像である。特に、画像上のキーポイントを中心にして抽出され、特徴量の記述に用いられるパッチは、特徴量パッチである。探索窓情報は、パッチを抽出するための探索窓の形状を示す情報を含み、探索窓の形状は、パラメータ情報をもとに探索窓基準形状を変形させることで算出される。なお、探索窓基準形状は、予め定められた形状であり、校正システム1000の外部の装置、または記憶部301から得られる。
探索窓生成部302dは、具体的には、複数のパラメータ情報に基づいて、処理対象の画像を撮像した一の撮像装置が備えるカメラ100a、および、他の撮像装置が備えるカメラ100bの並び方向における、カメラ100aおよびカメラ100bの間の位置姿勢が離れているほど、当該並び方向に略垂直な方向に長い形状を有する探索窓を生成する。本実施の形態では、カメラ100aおよびカメラ100bは、水平方向に並んで配置されているものとする。このため、探索窓生成部302dは、鉛直方向に長い(以下では、「縦長」とも言う。)形状を有する探索窓を生成する。探索窓生成部302dは、例えば、パラメータ情報をもとに変数を抽出し、探索窓基準形状と抽出された変数とを用いて、変数が大きいほど縦長になるような探索窓の候補を算出し、算出された探索窓の候補を探索窓情報として生成する。なお、複数のカメラが鉛直方向に並んでいる場合には、探索窓生成部302dは、水平方向に長い形状を有する探索窓を生成する。
例えば、図8に示すように、パラメータ情報が、ある2台のカメラ、例えば、カメラ100aおよびカメラ100bの間の相対的な位置姿勢の差が、2台のカメラの撮像方向が為す角の角度が90°であることを示す情報であるとする。この場合、探索窓生成部302dは、探索窓の候補を算出するための変数θ(>0)を、上記の90°を用いてπ/2に決定する。このとき、探索窓生成部302dは、例えば、探索窓基準形状500の高さを〔αθ+β〕倍した形状の探索窓を第1探索窓候補501として生成し、探索窓基準形状500の幅を〔α’(1/θ)+β’〕倍した形状の探索窓を第2探索窓候補502として生成する。これにより、探索窓生成部302dは、第1探索窓候補501および第2探索窓候補502を含む探索窓情報510を生成する。
なお、第1探索窓候補501の形状の幅は、探索窓基準形状500の幅と等しい。また、第2探索窓候補502の形状の高さは、探索窓基準形状500の高さと等しい。α、α’、β、β’は、それぞれ0以上の任意の定数である。また、〔αθ+β〕は、1より大きい値であり、〔α’(1/θ)+β’〕は1より小さい値である。
探索窓生成部302dは、探索窓情報の生成において、カメラの位置姿勢の差に比例して大きくなる指標を変数θとして用いればよく、上記の2つのカメラの撮像方向が為す角の角度を変数θとして用いることに限らない。このように、探索窓生成部302dは、カメラの位置姿勢の差に比例して大きくなる指標を変数θとして用いることで、あるカメラの位置姿勢が他のカメラから離れているほど縦長形状の探索窓を算出することができる。なお、探索窓生成部302dは、探索窓の候補を1つ以上生成すればよく、上述したように2つの第1探索窓候補501および第2探索窓候補502を生成することに限定されるものではない。
また、探索窓の形状および算出方法は、上記に限定されるものではない。例えば、探索窓生成部302dは、形状およびサイズの少なくとも一方が異なる複数の探索窓を予め用意し、予め用意した複数の探索窓から撮像装置のパラメータ情報に応じた1以上の探索窓を選択することで、選択した1以上の探索窓を含む探索窓情報を生成してもよい。探索窓生成部302dは、パラメータ情報に応じて幾何学的な計算を行うことで探索窓を算出してもよい。
また、探索窓生成部302dは、制御装置200から校正指令を受け取る前に、事前に探索窓情報を生成し、生成された探索窓情報を記憶部301に記憶していてもよい。これにより、校正装置300は、校正が必要と判断された際に、校正処理を開始できる。つまり、校正装置300は、校正が必要と判断された後に、探索窓情報を生成することなく校正処理を開始できる。
抽出部302eは、前処理部302cにより前処理が実行された後の複数の画像のそれぞれについて、キーポイント検出処理と、特徴量パッチ抽出処理と、特徴量記述処理とを実行する。これにより、抽出部302eは、複数の画像のそれぞれについて、複数の特徴点を抽出する。なお、抽出部302eは、校正装置300が前処理部302cを有していない場合には、画像取得部302aにより取得された複数の画像のそれぞれについて、上記の各処理を実行する。
キーポイント検出処理とは、処理対象の画像上の特徴的な点をキーポイントとして検出する処理である。キーポイント検出処理では、さらに、キーポイントのオリエンテーション方向を示すオリエンテーション情報が得られてもよい。例えば、図9の(a)に示すように、抽出部302eは、処理対象の画像520上の特徴的な点Pをキーポイントとして検出する。なお、図9では、説明の簡略化のために1つのキーポイントP1を検出する例を示しているが、実際のキーポイント検出処理では、複数のキーポイントが検出される。
特徴量パッチ抽出処理とは、探索窓生成部302dにより生成された探索窓情報を用いて、処理対象の画像から複数の特徴量パッチを抽出する処理である。特徴量パッチ抽出処理は、例えば、キーポイント検出処理において検出された複数のキーポイントのそれぞれについて、当該キーポイントが中心となるように、探索窓情報が示す1以上の探索窓を当該処理対象の画像上に配置することで1以上の特徴量パッチを抽出する処理である。これにより、処理対象の画像から複数の特徴量パッチが抽出される。
例えば、図9の(b)に示すように、抽出部302eは、特徴量パッチの抽出のために、キーポイントP1のオリエンテーション情報が示すオリエンテーション方向D1に縦長の方向が一致するように、探索窓情報510に含まれる第1探索窓候補501および第2探索窓候補502を回転させる。そして、抽出部302eは、画像520上において、第1探索窓候補501の中心がキーポイントP1と一致する位置に第1探索窓候補501を配置する。同様に、抽出部302eは、画像520上において、第2探索窓候補502の中心がキーポイントP1と一致する位置に第2探索窓候補502を配置する。そして、抽出部302eは、第1探索窓候補501の形状によって画像520を切り出すことで特徴量パッチ521を抽出し、第2探索窓候補502の形状によって画像520を切り出すことで特徴量パッチ522を抽出する。これにより、抽出部302eは、特徴量パッチ521、522を含む特徴量パッチ情報530を生成する。このため、後述する特徴量記述処理において、より頑健な特徴量を抽出できる。
なお、抽出部302eは、検出されたキーポイントのスケール情報を用いて探索窓をスケーリングしてから特徴量パッチを抽出してもよい。
また、抽出部302eは、特徴量パッチ抽出処理において、キーポイントP1のオリエンテーション方向D1に合わせた回転、およびスケール情報を用いたスケーリングを用いて、探索窓に対する処理を実行しなくてもよい。抽出部302eは、特徴量パッチ抽出処理において、これらの探索窓に対する処理を行わずに特徴量パッチを抽出してもよいし、どちらか一方の処理を行うことで特徴量パッチを抽出してもよいし、両方の処理を行うことで特徴量パッチを抽出してもよい。
特徴量記述処理とは、キーポイント検出処理において検出された複数のキーポイントのそれぞれについて、当該キーポイントに対応して抽出された特徴量パッチのそれぞれの特徴の分布を特徴量として算出し、当該キーポイントに算出された特徴の分布を記述することで特徴点を抽出する処理である。例えば、図10に示すように、抽出部302eは、画像520から抽出された特徴量パッチ521に対して、特徴の分布を算出し、算出された特徴の分布を正規化する。これにより得られた結果を用いることにより、特徴量パッチのサイズによらずに、特徴量パッチ521と特徴量パッチ541との間の類似度を計算することが可能である。なお、抽出部302eは、特徴量パッチの全部または一部のサイズが統一されるように特徴量パッチの射影変換を行った後に、特徴量記述処理を行ってもよい。
なお、抽出部302eは、例えば、SIFT(Scale-Invariant Feature Transform)アルゴリズムを用いることで、特徴点を抽出してもよい。
マッチング算出部302fは、複数の画像のそれぞれについて抽出部302eにより抽出された複数の特徴点を用いて、複数の画像間で複数の特徴点のマッチングを行う。マッチング算出部302fは、複数の特徴点のうち、正規化された特徴の分布が類似する特徴点を互いに対応付けし、対応付けした特徴点を1つのマッチング結果として出力する。マッチング算出部302fは、特徴点の二乗誤差または絶対誤差を用いて特徴点が類似するか否かの判定を行う。例えば、図11に示すように、マッチング算出部302fは、画像520において白丸で示される複数の特徴点と、画像540において白丸で示される複数の特徴点とを用いてマッチングを行うことで、画像520における特徴点P1Aと画像540における特徴点P1Bとをマッチング点Pとして対応付ける。マッチング算出部302fは、他の特徴点に対しても同様にマッチングを行うため、複数のマッチング点がマッチング結果として得られる。マッチング算出部302fにおいて出力されたマッチング結果は、例えば、記憶部301に記憶される。
再構成部302gは、マッチング算出部302fで得られたマッチング結果に基づいて、校正処理を実行し、複数の撮像装置10a~10nが備えるカメラ100のパラメータを校正する。校正処理は、撮像装置10a~10nが備えるカメラ100それぞれによって撮像されることにより得られた複数のマッチング結果に基づき、エピポーラ制約などの幾何学的制約を用いることで撮像装置10a~10nが備えるカメラ100の外部パラメータ、または内部パラメータ、またはその両方を算出する。カメラ100の外部パラメータ、または内部パラメータ、またはその両方は記憶部301に記憶されてもよい。また、記憶部301に記憶されたカメラの外部パラメータおよび内部パラメータは、異なる時刻の校正においてパラメータ取得部302bにより取得されてもよい。これにより、過去の時刻で得たカメラのパラメータを、パラメータ情報として用いて校正を実行できる。
また、再構成部302gは、複数のマッチング結果からそれぞれのマッチング結果の三次元空間上における三次元位置を推定する。具体的には、再構成部302gは、三角測量法を利用することで複数のマッチング結果それぞれの三次元空間上における三次元位置を推定する。
[2-4.その他]
以上、本実施の形態における校正システム1000の構成について説明した。なお、これらの構成は上記の説明に限定されない。
[3.校正システムの動作]
次に、本実施の形態における校正システム1000による、校正の適時の実行を実現する動作について説明する。
校正システム1000では、校正を適時に実行するために撮像装置または周囲の環境に変化(イベント)が発生したときに、校正処理を実行するか否かが判定される。
図12は、本実施の形態における校正システム1000による、校正をするか否かの判定を含む一連の動作を説明するためのシーケンス図である。なお、図12における撮像装置10は、図3に示される撮像装置10a~10nの任意の一つを指す。
制御装置200において、イベント検出部202bは、撮像装置10により撮像された映像を常時または所定の周期で撮像装置10(またはカメラ100)の状況および周囲の状況を取得し、これらの状況の変化を変化イベントとして検出する(S31)。状況の変化とは、現状のカメラパラメータがカメラ100の位置姿勢を正確に示さなくなる変化であり、具体的には、例えば、撮像領域の変化である。変化イベントの検出において撮像領域の変化の要因特定は必要なく、イベント検出部202bは、カメラ100自体の移動、カメラ100が設置されている架台110の移動、撮像装置10が設置されている柱、台などの周囲物体の移動、またはカメラ100の部材の劣化、またはそれらの組み合わせによる状況の変化を、校正処理を実行するための変化イベントとして検出する。また、状況の変化は、上記の撮像領域の変化に限定されない。
また、制御装置200において、イベント検出部202bは、校正処理が容易となる状況への変化を容易イベントとして検出する(S32)。容易イベントとは、例えば、撮像装置10の撮像対象の三次元空間A1に人または車などの動物体が一定数以上存在する状況への変化である。つまり、容易イベントとは、撮像装置10により撮像された画像に一定数未満の動物体が含まれる状況から一定数以上の動物体が含まれる状況への変化である。動物体が多く存在する状況が撮像された画像を用いることで、特徴点を数多く得ることが可能になり、校正結果の精度を向上できる。つまり、校正処理が容易となる。
制御装置200は、イベント検出部202bによる変化イベント検出後に容易イベントが検出されたタイミングで校正指令を行うことにより、校正が必要なタイミングで校正処理を実行し、精度よくカメラパラメータを求めることができる。制御装置200は、イベント検出部202bにより変化イベントが検出された後(S31でYes)に容易イベントでないことが判定された場合(S32でNo)は、変化イベント検出済みの結果を保持しながら、撮像指示を撮像装置10に出力することで撮像装置10から撮像画像を受け取り、容易イベントが発生したか否かを再度判定する。イベント検出部202bにより容易イベントが検出されると(S32でYes)、イベント検出部202bは、校正情報を出力する。
校正情報には、校正を実行させる対象であるカメラ100(またはこのカメラ100を含む撮像装置10)および校正を実行させると判定した理由(上記のイベント)が含まれる。校正情報は、校正指令部202cに入力される。校正情報を受け取った校正指令部202cは、校正情報の内容に基づいて校正指令を生成し、生成した校正指令を適切なカメラ100を含む撮像装置10に送信する。
また、校正情報は、例えばユーザインタフェース400に送信されて、システム管理者等のユーザに提示されてもよい(S33)。ユーザはこの情報に基づいて対象のカメラ100に校正をさせるための指示を、ユーザインタフェース400を介して入力する(S34)。入力されたユーザの指示は、制御装置200に送信される。
撮像指示を受信した撮像装置10のカメラ100では、撮像処理が実行される。また、校正指令を受信した校正装置300では、校正処理が実行される(S35)。校正処理は、校正装置300において校正指令に基づいて実行され、全ての撮像装置10a~10nの外部パラメータの校正が実行される。なお、内部パラメータの校正を行う場合には、カメラ100の制御部202において校正が実行されてもよい。制御装置200は、校正処理が実行されることによって算出された校正結果としてのカメラパラメータを出力する(S36)。
次に、校正処理の具体例について説明する。
図13は、実施の形態1における校正処理の一例を示すフローチャートである。図14は、実施の形態1における特徴点の抽出処理の一例を示すフローチャートである。
本実施の形態における校正装置300における校正処理では、まず、パラメータ取得部302bは、複数の撮像装置10a~10nのそれぞれのパラメータに関するパラメータ情報を取得する(S41)。
次に、画像取得部302aは、複数の撮像装置10a~10nによりそれぞれ撮像された複数の画像を取得する(S42)。なお、ステップS42は、ステップS41の前に行われてもよいし、ステップS41と並行して行われてもよい。
次に、前処理部302cは、複数の画像のそれぞれについて、前処理を実行する(S43)。なお、上述しているが、前処理は、実行されなくてもよい。
探索窓生成部302dは、前処理済みの複数の画像のそれぞれについて、取得された複数の撮像装置10a~10nの複数のパラメータ情報を用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を示す探索窓情報を算出する(S44)。
抽出部302eは、前処理済みの複数の画像のそれぞれについて、複数の特徴点を抽出する(S45)。抽出部302eは、前処理が実行されていない場合には、画像取得部302aにより取得された複数の画像のそれぞれについて、特徴点の抽出処理を実行する。次に、特徴点の抽出処理の詳細について図14を用いて説明する。
特徴点の抽出処理では、まず、抽出部302eは、処理対象の画像について、複数のキーポイントを検出する(S51)。
次に、抽出部302eは、処理対象の画像について、検出された複数のキーポイントのそれぞれについて、当該キーポイントが中心となるように、探索窓情報が示す1以上の探索窓を処理対象の画像上に配置することで1以上の特徴量パッチを抽出する(S52)。
そして、抽出部302eは、処理対象の画像について、処理対象のキーポイントに対応して抽出された特徴量パッチのそれぞれの特徴の分布を特徴量として算出し、当該キーポイントに算出された特徴の分布を記述し、特徴量が記述された点を特徴点として抽出する(S53)。
マッチング算出部302fは、複数の画像のそれぞれについて抽出された複数の特徴点を用いて、複数の画像間で複数の特徴点のマッチングを行う(S46)。
再構成部302gは、マッチングにより得られた複数のマッチング結果に基づいて、複数の撮像装置10a~10nが備えるカメラ100のパラメータを校正する(S47)。
例えば、再構成部302gは、複数のマッチング結果のそれぞれの三次元空間上における三次元位置を推定する。そして、再構成部302gは、撮像領域を複数の撮像装置10a~10nのカメラ100で撮像した結果である複数の撮像画像から抽出された、三次元空間の位置が共通する特徴点をマッチングする。そして、マッチング結果を用いて、複数の撮像装置10a~10nのカメラパラメータを算出する。具体的には、マッチング結果に基づきエピポーラ制約などの幾何学的制約を利用することで、複数の撮像装置10a~10nのカメラパラメータは、求められる。
[4.効果等]
以上のように、本実施の形態において、校正装置300は、互いに異なる位置に設置された、各々が共通する三次元空間を撮像する複数の撮像装置10a~10nが備えるカメラ100のカメラパラメータを校正する。校正では、複数の撮像装置10a~10nによりそれぞれ撮像された複数の画像を取得し、複数の撮像装置10a~10nのそれぞれのパラメータに関するパラメータ情報を取得し、取得された複数の画像のそれぞれについて、取得された複数のパラメータ情報を用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を示す探索窓情報を生成し、取得された複数の画像のそれぞれについて、生成された探索窓情報を用いて複数の特徴点を抽出し、複数の画像のそれぞれについて抽出された複数の特徴点を用いて、複数の画像間で複数の特徴点のマッチングを行い、マッチングにより得られた複数のマッチング結果に基づいて、複数の撮像装置10a~10nのパラメータを校正する。
これによれば、複数の画像間でのマッチングを行うための複数の特徴点の抽出を、複数の撮像装置10a~10nのパラメータ情報を用いて生成した探索窓情報を用いて行う。これにより、互いに異なる位置において撮像された結果であることを考慮して複数の画像から特徴点を抽出することができる。このため、マッチングの処理負荷を低減しつつ、マッチングの精度を向上することができる。よって、互いに異なる位置に配置されている複数の撮像装置10a~10nが備える各カメラ100のパラメータを精度よく校正することができる。
また、本実施の形態において、複数のパラメータ情報のそれぞれは、当該パラメータ情報に対応する撮像装置の位置姿勢に関する情報であり、対応する撮像装置に対して過去の時刻に行われた校正により得られた情報であり、対応する撮像装置を識別するカメララベルを含む。このため、校正では、過去に得られたパラメータ情報を用いた校正を行うことで、複数の撮像装置10a~10nのパラメータを効率よく校正することができる。
また、本実施の形態において、複数のパラメータ情報のそれぞれは、当該パラメータ情報に対応する撮像装置の位置姿勢に関する情報であり、対応する撮像装置と他の撮像装置との間の相対的な位置姿勢に関する情報であり、対応する撮像装置を識別するカメララベルを含む。このため、校正では、対象となる撮像装置の他の撮像装置との間の相対的な位置姿勢に関する情報をパラメータ情報として用いた校正を行うことで、複数の撮像装置10a~10nのパラメータを効率よく校正することができる。
また、本実施の形態において、複数のパラメータ情報のそれぞれは、当該パラメータ情報に対応する撮像装置の位置姿勢に関する情報であり、対応する撮像装置から三次元空間上の任意の点までの距離を示す情報であり、対応する撮像装置を識別するカメララベルを含む。このため、校正では、対象となる撮像装置から三次元空間上の任意の点までの距離を示す情報をパラメータ情報として用いた校正を行うことで、複数の撮像装置10a~10nのパラメータを効率よく校正することができる。
また、本実施の形態において、探索窓情報の生成では、複数のパラメータ情報に基づいて、当該画像を撮像した一の撮像装置および他の撮像装置の並び方向における一の撮像装置および他の撮像装置の間の位置姿勢が離れているほど、並び方向に略垂直な方向に長い形状を有する探索窓を含む1以上の探索窓を算出する。このため、画像が撮像された撮像装置に応じた探索窓を算出することができ、複数の画像から特徴点を効果的に抽出することができる。
また、本実施の形態において、複数の特徴点の抽出では、(i)当該画像から複数のキーポイントを検出し、(ii)検出された複数のキーポイントのそれぞれについて、(ii-i)当該キーポイントが中心となるように、探索窓情報が示す1以上の探索窓を当該画像上に配置することで1以上の特徴量パッチを抽出し、(ii-ii)当該キーポイントに対応して抽出された1以上の特徴量パッチのそれぞれの特徴の分布を特徴量として算出し、当該キーポイントに算出された特徴の分布を記述することで特徴点を抽出する。このため、複数の撮像装置10a~10nのそれぞれのパラメータ情報に応じた特徴量を含む特徴点を複数抽出することができる。
(実施の形態2)
本実施の形態に係る校正装置は、実施の形態1と同様に、互いに異なる位置に配置された複数の撮像装置に対し、それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを校正する校正装置である。
本実施の形態では、マッチング算出部302fにおける特徴点の対応候補を、記憶部301に記憶されている撮像装置10a~10nのパラメータを用いて再構成した三次元モデルにより限定する。校正装置300Aの構成は、図15に示すように実施の形態1の構成に、さらに三次元情報推定部303が追加された構成である。校正部302の構成は、実施の形態1と同様であるが、パラメータ取得部302b、探索窓生成部302d、マッチング算出部302fの機能および入出力が実施の形態1と異なる。以下、三次元情報推定部303および校正部302の各々の動作について説明する。
校正部302のパラメータ取得部302bは、校正処理が実行されると、撮像装置10a~10nが備えるカメラ100のそれぞれのパラメータを示す第1パラメータ情報を、校正装置300の外部装置または記憶部301から取得する。各カメラ100のパラメータは、当該カメラ100の内部パラメータおよび外部パラメータを含む。パラメータ取得部302bは、例えば、カメラ100の内部パラメータおよび外部パラメータの両方を取得できた場合、それらパラメータを含む第1パラメータ情報を、三次元情報推定部303に出力する。第1パラメータ情報は、実施の形態1の図7Bにおける例示と同様に、各カメラ100の位置姿勢に関する情報であり、対応する撮像装置について過去の時刻に行われた校正により得られた情報であり、対応する撮像装置を識別するカメララベルを含む。
カメラパラメータが存在する場合でも、校正処理が実行される理由は、実施の形態1でも説明したように、撮影環境に設置された撮像装置10a~10nの位置姿勢が、様々な要因で変化してしまうためである。様々な要因とは、例えば、建物や道路の振動、雨風、架台や設置場所の経年劣化である。これら要因に加え、過去の校正時からの経過時間や、画像以外で計算された情報の不確実性が存在する。すなわち、パラメータ取得部302bが取得したカメラ100のパラメータは、校正処理実行時の時刻において低精度である可能性があるため、そのまま校正結果としては適切でない。よって、本実施の形態では、パラメータ取得部302bにより取得された第1パラメータ情報を手掛かりとして、特徴点マッチングを行う。
なお、パラメータ取得部302bにより取得された第1パラメータ情報は、再構成部302gに入力されてもよい。再構成部302gに入力されることで、各々のパラメータを初期値として用いることができ、再構成部302gにおける計算の効率化が可能となる。
三次元情報推定部303は、図16の(a)に示すように、校正処理が実行されると、画像取得部302aにより取得された複数の画像と、パラメータ取得部302bにより取得されたカメラ100の第1パラメータ情報とに基づいて、三次元モデルを示す三次元情報を推定する。三次元情報とは、例えば、図16の(b)に示すような平面の組み合わせで表現さるような三次元メッシュモデルである。なお、三次元情報で示される三次元モデルは、三次元メッシュモデルでなくてもよく、点群でもよいし、ボクセルでもよい。また、三次元情報は深度画像でもよい。三次元情報は三次元空間上の物体に対して高精度な形状を推定しなくてもよく、例えば、点群モデルであれば、各点の位相関係が著しく損なわれていない程度の精度の形状を推定した結果であってもよい。
そして、三次元情報推定部303は、図16の(c)に示すように、推定された三次元情報をパラメータ取得部302bにより取得された複数の第1パラメータ情報に追加することで複数の第2パラメータ情報を生成する。三次元情報推定部303は、生成された複数の第2パラメータ情報を探索窓生成部302dに出力する。
探索窓生成部302dは、画像取得部302aにより取得された複数の画像のそれぞれについて、三次元情報推定部303により出力された第2パラメータ情報に基づいて特徴点のマッチングの組合せを限定するための1以上の探索領域を示す探索領域情報を生成する。
本実施の形態において探索領域情報は、例えば、図17に示すように、マッチングにおける特徴点の対応付け候補を限定するための情報であって、第2パラメータ情報をもとに探索領域基準形状600を変形させ、複数の画像のうちの2枚の画像520、540からなる画像ペアにおいて三次元空間上で対応する画像領域を求めることで算出される。具体的には、探索窓生成部302dは、第2パラメータ情報をもとに各画像ペアにおける水平方向、または鉛直方向、またはその両方の見え方の違いを表す変数、またはベクトルを抽出し、水平方向の違いが大きいほど横長になるような探索領域の候補を計算し、各画像ペアに対する探索領域をまとめて、探索領域情報610として算出する。
探索窓生成部302dは、例えば、図18に示すように、水平方向、鉛直方向それぞれの違いを表すベクトルθを抽出し、水平方向成分θ、鉛直方向成分θをもとに、幅を〔αθ+β〕倍、高さを〔α’θ+β’〕倍する。α、α’、β、β’は、それぞれ0以上の任意の定数である。このとき、探索窓生成部302dは、各方向の見え方の違いが大きくなるほど、水平方向成分θ、鉛直方向成分θ各々の値が比例して大きくなるように算出する。これにより、探索窓生成部302dは、θの値が大きいほど、横長になるような探索領域を抽出し、θの値が大きいほど縦長になるような探索領域を抽出する。
なお、見え方の違いを表す変数は、1つ以上の値により構成されていてもよいし、複数の値により構成されていてもよい。例えば、探索窓生成部302dは、探索窓生成部302dが動作するよりも前に抽出部302eにより抽出された特徴点を用いて、特徴点数と同じ数の値により構成される変数を抽出してもよく、探索領域を特徴点の数だけ求めてもよい。また、探索窓生成部302dは、特徴点を画像座標における位置をもとにクラスタリングして得たクラスタの数だけ探索領域を求めてもよい。
探索窓生成部302dは、実施の形態1と同じように特徴量パッチを抽出するための探索窓情報を算出してもよい。探索窓生成部302dは、特徴量パッチを抽出するための探索窓情報と、マッチングの対応点候補を限定するための探索領域情報とを、同時に算出してもよいし、異なるタイミングで算出してもよい。なお、探索窓生成部302dは、特徴量パッチを抽出するための探索窓情報の算出を必ずしも実行しなくてもよい。
また、抽出部302eは、探索窓情報を取得せずに、固定サイズのパッチ、またはキーポイントのオリエンテーション情報、スケール情報によりリサイズされたパッチを用いて特徴点を抽出してもよい。
マッチング算出部302fは、探索窓生成部302dにより生成された探索領域情報を用いて、抽出された複数の特徴点から特徴点のマッチングの候補を絞り込み、候補として絞り込まれた複数の特徴点を用いて、複数の画像間で複数の特徴点のマッチングを行う。マッチングの候補の絞り込みとは、特徴点の対応候補を限定する処理で有り、画像ペアに対する探索領域情報より、マッチングを計算する特徴点の組み合わせを、対応する探索領域上の特徴点同士に限定することである。
例えば図19に示すように画像540の円で囲まれた探索領域DiA上に存在する特徴点P11Aと、三次元空間上で近い位置を示す画像520の楕円で囲まれた探索領域DiB上に存在する特徴点P11Bの組み合わせのみの対応付けを行い、同様に探索領域DjA上に存在する特徴点P12A、P13Aと、探索領域DjB上に存在する特徴点P13B、P14B、P15Bとの組み合わせのみ対応付けを行うことで、マッチングを算出する。つまり、複数の画像のうちの画像540における第1探索領域DiA、DjAと、画像520における第2探索領域DiB、DjBとは、それぞれ、三次元空間上の領域に対応している。マッチング算出部302fは、第1探索領域DiAに含まれる第1特徴点P11Aと、第1探索領域DiAと三次元空間上の共通する領域で対応する第2探索領域DiBに含まれる第2特徴点P11Bとを、マッチングの候補として絞り込み、第1特徴点P11Aと第2特徴点P11Bとを用いてマッチングを行う。同様に、マッチング算出部302fは、第1探索領域DjAに含まれる第1特徴点P12A、P13Aと、第1探索領域DjAと三次元空間上の共通する領域で対応する第2探索領域DjBに含まれる第2特徴点P13B、P14B、P15Bとを、マッチングの候補として絞り込み、第1特徴点P12A、P13Aと第2特徴点P13B、P14B、P15Bとを用いてマッチングを行う。
また、マッチング算出部302fは、第1特徴点P11Aと、画像520における第2特徴点P11B以外の特徴点とを用いてマッチングを行わない。同様に、マッチング算出部302fは、第1特徴点P12A、P13Aと、画像520における第2特徴点P13B、P14B、P15B以外の特徴点とを用いてマッチングを行わない。同様に、マッチング算出部302fは、画像540における第1特徴点P11A以外の特徴点と、第2特徴点P11Bとを用いてマッチングを行わない。同様に、マッチング算出部302fは、画像540における第1特徴点P12A、P13A以外の特徴点と、第2特徴点P13B、P14B、P15Bとを用いてマッチングを行わない。
このように、マッチングを算出することで、効率よく、かつ精度が良いマッチング結果を得られる。特に、画像540上の特徴点P12A、P14Aのように車の前輪と後輪などの似たようなパターン上に特徴点が存在する場合の対応付けには、有効である。
以上のように、本実施の形態において、校正装置300は、互いに異なる位置に設置された、各々が共通する三次元空間を撮像する複数の撮像装置10a~10nが備えるカメラ100のカメラパラメータを校正する。校正では、複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、複数の撮像装置のそれぞれについて、当該撮像装置のパラメータに関する第1パラメータ情報を取得し、取得された複数の画像と、取得された複数の第1パラメータ情報とに基づいて、三次元空間上における三次元情報を推定し、推定された三次元情報を複数の第1パラメータ情報に追加することで得られた複数の第2パラメータ情報を出力し、取得された複数の画像のそれぞれについて、出力された複数の第2パラメータ情報に基づいて特徴点のマッチングの組合せを限定するための1以上の探索領域を示す探索領域情報を生成し、複数の画像のそれぞれについて、複数の特徴点を抽出し、生成された探索領域情報を用いて、抽出された複数の特徴点から特徴点のマッチングの候補を絞り込み、候補として絞り込まれた複数の特徴点を用いて、複数の画像間で複数の特徴点のマッチングを行い、マッチングにより得られた複数のマッチング結果に基づいて、複数の撮像装置のパラメータを校正する。
(変形例1)
上記実施の形態では、探索窓生成部302dは、探索窓の形状を、パラメータ情報をもとに探索窓基準形状を変形させることで算出するとしたが、これに限らない。探索窓生成部302dは、画像取得部302aにより取得された複数の画像のうちの1つの画像540に対して物体の形状を認識するための画像処理を行うことで、認識された物体の形状の領域を画像540から分割してもよい。つまり、探索窓生成部302dは、取得された複数の画像のそれぞれについて、映り込んでいる物体の形状を認識し、当該形状を囲む探索窓を生成する。
図20の例では、探索窓生成部302dは、画像540において、家が映り込んでいる形状の領域601、および、車両が映り込んでいる形状の領域602を認識し、認識した領域601、602を画像540から領域分割する。領域601、602の形状は、図20に示すように画像540中の画素単位で抽出されてもよいし、認識された物体を囲う所定の形状であってもよい。所定の形状は、例えば、四角形、円形、楕円形などである。物体の形状の認識は、例えば、機械学習とパターン認識で実現されるが、物体の形状の認識の実現手段は、これらに限らない。
次に、探索窓生成部302dは、画像540から領域分割された領域601、602の形状、サイズおよび位置を、画像540を撮像したカメラと、画像520を撮像したカメラとのパラメータ情報を用いて、画像520に適した形状、サイズおよび位置の領域611、612に変形する。そして、探索窓生成部302dは、変形して得られた領域611、612を探索窓として画像520に適用する。このようにして、探索窓生成部302dは、画像540および画像520の間で対応付けられた、領域601および領域611の探索窓のペアと、領域602および領域612の探索窓のペアとを生成してもよい。
(変形例2)
上記の実施の形態において、探索窓生成部302dは、各画像の領域毎に、異なる形状の探索窓を生成してもよい。例えば、探索窓生成部302dは、図21に示すように、探索窓を適用する領域のサイズ(面積)が所定のサイズよりも小さい場合に円形または楕円形の探索窓603、613を生成し、探索窓を適用する領域のサイズが所定のサイズよりも大きい場合に矩形の探索窓604、614を生成してもよい。このように、探索窓生成部302dは、画像540に適用する探索窓として異なる形状の探索窓603および探索窓604を生成し、画像520に適用する探索窓として異なる形状の探索窓613および探索窓614を生成してもよい。
(変形例3)
上記実施の形態では、探索窓生成部302dは、図22に示すように、画像540、520において、それぞれ探索窓605、615を一旦生成した後に、生成した探索窓605、615の少なくとも一方の形状を変更してもよい。例えば、探索窓生成部302dは、画像520に適用する探索窓について、矩形の探索窓615から円形の探索窓616に変更してもよい。探索窓616は、例えば、矩形の探索窓615の外接円である。探索窓生成部302dは、生成した探索窓605、615を用いて、画像540、520からそれぞれ抽出された2つの特徴量パッチ間の類似度が所定の類似度より小さい場合、探索窓615を探索窓616に変更してもよい。そして、探索窓605を用いて画像540から抽出された特徴量パッチと、変更後の探索窓616を用いて画像520から抽出された特徴量パッチとの類似度の算出を再度行ってもよい。
なお、探索窓生成部302dは、生成した探索窓615の形状を変更する代わりに探索窓615のサイズを探索窓615より大きなサイズに変更してもよい。また、探索窓生成部302dは、画像540を撮像したカメラと、画像520を撮像したカメラとのパラメータ情報の精度に応じて、探索窓615の変更を行ってもよい。例えば、探索窓生成部302dは、パラメータ情報が図7Aに示すように人の目視による位置姿勢の差に基づくパラメータ情報である場合、パラメータ情報の精度が所定の精度より低いため、類似する特徴点の探索に用いる探索窓を、探索窓615から探索窓616に変更してもよい。反対に、探索窓生成部302dは、パラメータ情報が図7Bに示すように過去の構成結果により得られたパラメータ情報である場合に、パラメータ情報の精度が所定の精度より高いため、類似する特徴点の探索に用いる探索窓を、探索窓616に変更せずに探索窓615に決定してもよい。
また、本開示はかかる上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の撮像システムなどを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、互いに異なる位置に配置されており、それぞれが共通する三次元空間を撮像する複数の撮像装置の複数のパラメータを、プロセッサを用いて校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、前記複数の撮像装置のそれぞれのパラメータに関するパラメータ情報を取得し、取得された前記複数の画像のそれぞれについて、取得された複数の前記パラメータ情報を用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を示す探索窓情報を生成し、取得された前記複数の画像のそれぞれについて、生成された前記探索窓情報を用いて前記複数の特徴点を抽出し、前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する校正方法を実行させる。
また、このプログラムは、コンピュータに、互いに異なる位置に配置されており、それぞれが共通する三次元空間を撮像する複数の撮像装置の複数のパラメータを校正する校正方法であって、前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、前記複数の撮像装置のそれぞれについて、当該撮像装置のパラメータを示す第1パラメータ情報を取得し、取得された前記複数の画像と、取得された複数の前記第1パラメータ情報とに基づいて、前記三次元空間上における三次元情報を推定し、推定された前記三次元情報を前記複数の第1パラメータ情報に追加することで得られた複数の第2パラメータ情報を出力し、取得された前記複数の画像のそれぞれについて、出力された前記複数の第2パラメータ情報に基づいて特徴点のマッチングの組合せを限定するための1以上の探索領域を示す探索領域情報を生成し、前記複数の画像のそれぞれについて、複数の特徴点を抽出し、生成された前記探索領域情報を用いて、抽出された前記複数の特徴点から特徴点のマッチングの候補を絞り込み、前記候補として絞り込まれた複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する校正方法を実行させる。
以上、本発明の一つまたは複数の態様に係る構成システムおよび校正方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、互いに異なる位置に配置されている複数の撮像装置が備える各カメラのパラメータを精度よく校正することができる校正方法、構成装置などとして有用である。
10、10a~10n 撮像装置
20 道路
21 車両
22 三次元モデル
100 カメラ
101 記憶部
102 制御部
103 光学系
104 イメージセンサ
110 架台
200 制御装置
201 記憶部
202 制御部
202a 撮像制御部
202b イベント検出部
202c 校正指令部
203 タイマー
300、300A 校正装置
301 記憶部
302 校正部
302a 画像取得部
302b パラメータ取得部
302c 前処理部
302d 探索窓生成部
302e 抽出部
302f マッチング算出部
302g 再構成部
303 三次元情報推定部
400 ユーザインタフェース
520、540 画像
601、602、611、612 領域
603~605、613~616 探索窓
1000 校正システム
A1 三次元空間
1A、P1B、P11A~P14A、P11B~P15B 特徴点
iA、DiB、DjA、DjB 探索領域
マッチング点

Claims (15)

  1. それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、
    前記複数の撮像装置のそれぞれのパラメータを取得し、
    取得された前記複数の画像のそれぞれについて、取得された前記複数のパラメータを用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を生成し、
    取得された前記複数の画像のそれぞれについて、生成された前記1以上の探索窓内から前記複数の特徴点を抽出し、
    前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、
    前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する
    校正方法。
  2. 前記複数のパラメータのそれぞれは、当該パラメータに対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置に対して過去の時刻に行われた校正により得られ、且つ前記対応する撮像装置を識別するカメララベルを含む
    請求項1に記載の校正方法。
  3. 前記複数のパラメータのそれぞれは、当該パラメータに対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置と他の撮像装置との間の相対的な位置姿勢に関し、且つ前記対応する撮像装置を識別するカメララベルを含む
    請求項1に記載の校正方法。
  4. 前記複数のパラメータのそれぞれは、当該パラメータに対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置から前記三次元空間上の任意の点までの距離を示し、且つ前記対応する撮像装置を識別するカメララベルを含む
    請求項1に記載の校正方法。
  5. 前記1以上の探索窓の生成では、前記複数のパラメータに基づいて、当該画像を撮像した一の撮像装置および他の撮像装置の並び方向における前記一の撮像装置および前記他の撮像装置の間の位置姿勢が離れているほど、前記並び方向に略垂直な方向に長い形状を有する探索窓を算出する
    請求項1に記載の校正方法。
  6. 前記複数の特徴点の抽出では、
    (i)当該画像から複数のキーポイントを検出し、
    (ii)検出された前記複数のキーポイントのそれぞれについて、(ii-i)当該キーポイントが中心となるように、前記1以上の探索窓を当該画像上に配置することで1以上の特徴量パッチを抽出し、(ii-ii)当該キーポイントに対応して抽出された前記1以上の特徴量パッチのそれぞれの特徴の分布を特徴量として算出し、当該キーポイントに算出された前記特徴の分布を記述することで前記特徴点を抽出する
    請求項5に記載の校正方法。
  7. それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、
    前記複数の撮像装置のそれぞれについて、当該撮像装置の第1パラメータを取得し、
    取得された前記複数の画像と、取得された複数の前記第1パラメータとに基づいて、前記三次元空間上における三次元情報を推定し、
    推定された前記三次元情報を前記複数の第1パラメータに追加することで得られた複数の第2パラメータを出力し、
    取得された前記複数の画像のそれぞれについて、出力された前記複数の第2パラメータに基づいて特徴点のマッチングの組合せを限定するための1以上の探索領域を算出し、
    前記複数の画像のそれぞれについて、複数の特徴点を抽出し、
    算出された前記1以上の探索領域を用いて、抽出された前記複数の特徴点から特徴点のマッチングの候補を絞り込み、前記候補として絞り込まれた複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行い、
    前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する
    校正方法。
  8. 前記複数の第1パラメータのそれぞれは、当該第1パラメータが対応する撮像装置の位置姿勢に関し、且つ前記対応する撮像装置について過去の時刻に行われた校正により得られ、且つ前記対応する撮像装置を識別するカメララベルを含む
    請求項7に記載の校正方法。
  9. 前記複数の画像のうちの第1画像における前記1以上の探索領域である1以上の第1探索領域と、前記複数の画像のうちの第2画像における前記1以上の探索領域である1以上の第2探索領域とは、それぞれ、前記三次元空間上の1以上の領域に対応しており、
    前記マッチングでは、一の前記第1探索領域に含まれる1以上の第1特徴点と、前記一の第1探索領域と前記三次元空間上の共通する領域で対応する一の前記第2探索領域に含まれる1以上の第2特徴点とを、前記マッチングの前記候補として絞り込み、前記1以上の第1特徴点と前記1以上の第2特徴点とを用いてマッチングを行う
    請求項7または8に記載の校正方法。
  10. 前記マッチングでは、
    前記1以上の第1特徴点と、前記第2画像における前記1以上の第2特徴点以外の特徴点とを用いてマッチングを行わず、
    前記第1画像における前記1以上の第1特徴点以外の特徴点と、前記1以上の第2特徴点とを用いてマッチングを行わない
    請求項9に記載の校正方法。
  11. それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、
    取得された前記複数の画像のうちの第1画像に映り込んでいる物体の形状を認識し、前記第1画像上の当該形状を囲む第1探索窓を生成し、前記複数の画像のうち前記第1画像及び第2画像をそれぞれ撮像した2つ撮像装置のパラメータを用いて前記第1探索窓を変形することで、前記第2画像に映り込んでいる前記物体の形状を囲む第2探索窓を生成し、
    取得された前記第1画像において前記第1探索窓内から複数の第1特徴点を抽出し、前記第2画像において前記第2探索窓内から複数の第2特徴点を抽出し、
    前記第1画像及び前記第2画像の間で前記複数の第1特徴点及び前記複数の第2特徴点のマッチングを行い、
    前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する
    校正方法。
  12. それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを、プロセッサを用いて校正する校正方法であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得し、
    取得された前記複数の画像のそれぞれについて、映り込んでいる複数の物体の形状を認識し、認識した前記複数の物体の形状を囲む複数の探索窓を生成し、
    取得された前記複数の画像のそれぞれについて、生成された前記複数の探索窓内から複数の特徴点を抽出し、
    前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを、互いに対応する探索窓毎に行い、
    前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する
    校正方法。
  13. それぞれが共通する三次元空間を撮像する複数の撮像装置の複数のパラメータを校正する校正装置であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得する画像取得部と、
    前記複数の撮像装置のそれぞれについて、当該撮像装置のパラメータを取得するパラメータ取得部と、
    前記画像取得部により取得された前記複数の画像のそれぞれについて、前記パラメータ取得部により取得された複数の前記パラメータを用いて当該画像の複数の特徴点を抽出するための1以上の探索窓を生成する探索窓生成部と、
    前記画像取得部により取得された前記複数の画像のそれぞれについて、前記探索窓生成部により生成された前記1以上の探索窓内から前記複数の特徴点を抽出する抽出部と、
    前記複数の画像のそれぞれについて前記抽出部により抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを行うマッチング算出部と、
    前記マッチング算出部におけるマッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する再構成部と、を備える
    校正装置。
  14. それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを校正する校正装置であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得する画像取得部と、
    取得された前記複数の画像のうちの第1画像に映り込んでいる物体の形状を認識し、前記第1画像上の当該形状を囲む第1探索窓を生成し、前記複数の画像のうち前記第1画像及び第2画像をそれぞれ撮像した2つ撮像装置のパラメータを用いて前記第1探索窓を変形することで、前記第2画像に映り込んでいる前記物体の形状を囲む第2探索窓を生成する探索窓生成部と、
    取得された前記第1画像において前記第1探索窓内から複数の第1特徴点を抽出し、前記第2画像において前記第2探索窓内から複数の第2特徴点を抽出する抽出部と、
    前記第1画像及び前記第2画像の間で前記複数の第1特徴点及び前記複数の第2特徴点のマッチングを行うマッチング算出部と、
    前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する再構成部と、を備える
    校正装置。
  15. それぞれが共通する三次元空間を撮像する複数の撮像装置のパラメータを校正する校正装置であって、
    前記複数の撮像装置によりそれぞれ撮像された複数の画像を取得する画像取得部と、
    取得された前記複数の画像のそれぞれについて、映り込んでいる複数の物体の形状を認識し、認識した前記複数の物体の形状を囲む複数の探索窓を生成する探索窓生成部と、
    取得された前記複数の画像のそれぞれについて、生成された前記複数の探索窓内から複数の特徴点を抽出する抽出部と、
    前記複数の画像のそれぞれについて抽出された前記複数の特徴点を用いて、前記複数の画像間で前記複数の特徴点のマッチングを、互いに対応する探索窓毎に行うマッチング算出部と、
    前記マッチングにより得られた複数のマッチング結果に基づいて、前記複数の撮像装置のパラメータを校正する再構成部と、を備える
    校正装置。
JP2020568127A 2019-01-24 2020-01-17 校正方法および校正装置 Active JP7426611B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019010376 2019-01-24
JP2019010376 2019-01-24
PCT/JP2020/001553 WO2020153264A1 (ja) 2019-01-24 2020-01-17 校正方法および校正装置

Publications (2)

Publication Number Publication Date
JPWO2020153264A1 JPWO2020153264A1 (ja) 2021-11-25
JP7426611B2 true JP7426611B2 (ja) 2024-02-02

Family

ID=71736068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568127A Active JP7426611B2 (ja) 2019-01-24 2020-01-17 校正方法および校正装置

Country Status (3)

Country Link
US (1) US20210335010A1 (ja)
JP (1) JP7426611B2 (ja)
WO (1) WO2020153264A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11288842B2 (en) * 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
CN117036490B (zh) * 2023-10-10 2024-01-19 长沙能川信息科技有限公司 摄像机预置位偏移检测方法、装置、计算机设备与介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048295A (ja) 2009-08-28 2011-03-10 Fujifilm Corp 複眼撮影装置及びその姿勢検出方法
JP2012209895A (ja) 2011-03-30 2012-10-25 Fujitsu Ltd ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム
JP2013123123A (ja) 2011-12-09 2013-06-20 Fujitsu Ltd ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP2017090420A (ja) 2015-11-17 2017-05-25 パナソニックIpマネジメント株式会社 3次元情報復元装置及び3次元情報復元方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3019787B2 (ja) * 1996-09-20 2000-03-13 日本電気株式会社 動きベクトル検出装置
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
US10582186B1 (en) * 2014-06-11 2020-03-03 Amazon Technologies, Inc. Approaches for identifying misaligned cameras
CN104333675B (zh) * 2014-10-20 2017-09-05 长春理工大学 一种基于球面投影的全景电子稳像方法
US20200077073A1 (en) * 2018-08-28 2020-03-05 Qualcomm Incorporated Real-time stereo calibration by direct disparity minimization and keypoint accumulation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048295A (ja) 2009-08-28 2011-03-10 Fujifilm Corp 複眼撮影装置及びその姿勢検出方法
JP2012209895A (ja) 2011-03-30 2012-10-25 Fujitsu Ltd ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム
JP2013123123A (ja) 2011-12-09 2013-06-20 Fujitsu Ltd ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP2017090420A (ja) 2015-11-17 2017-05-25 パナソニックIpマネジメント株式会社 3次元情報復元装置及び3次元情報復元方法

Also Published As

Publication number Publication date
US20210335010A1 (en) 2021-10-28
WO2020153264A1 (ja) 2020-07-30
JPWO2020153264A1 (ja) 2021-11-25

Similar Documents

Publication Publication Date Title
JP6554169B2 (ja) 物体認識装置及び物体認識システム
JP6125188B2 (ja) 映像処理方法及び装置
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
WO2020206708A1 (zh) 障碍物的识别方法、装置、计算机设备和存储介质
TWI332453B (en) The asynchronous photography automobile-detecting apparatus and method thereof
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP6836561B2 (ja) 画像処理装置及び画像処理方法
KR20170008638A (ko) 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
WO2019035155A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2014178957A (ja) 学習データ生成装置、学習データ作成システム、方法およびプログラム
JP7426611B2 (ja) 校正方法および校正装置
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP5667846B2 (ja) 対象物画像判定装置
JP6617150B2 (ja) 物体検出方法及び物体検出装置
JP2016148956A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP2011209896A (ja) 障害物検知装置、障害物検知方法及び障害物検知プログラム
JPWO2020105499A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR102082277B1 (ko) 파노라마 영상 생성 방법 및 그 장치
CN114004935A (zh) 通过三维建模系统进行三维建模的方法和装置
JP2532985B2 (ja) 3次元画像評価装置
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP6802923B2 (ja) 物体検出装置、及び、物体検出手法
JP5935118B2 (ja) 物体検出装置および物体検出方法
JP2009077022A (ja) 運転支援システム及び車両
JP2017182564A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240111

R151 Written notification of patent or utility model registration

Ref document number: 7426611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151