JP2016163130A - カメラパラメータ推定装置およびカメラパラメータ推定プログラム - Google Patents
カメラパラメータ推定装置およびカメラパラメータ推定プログラム Download PDFInfo
- Publication number
- JP2016163130A JP2016163130A JP2015038511A JP2015038511A JP2016163130A JP 2016163130 A JP2016163130 A JP 2016163130A JP 2015038511 A JP2015038511 A JP 2015038511A JP 2015038511 A JP2015038511 A JP 2015038511A JP 2016163130 A JP2016163130 A JP 2016163130A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- tripod
- camera parameter
- global motion
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 75
- 238000000605 extraction Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims description 88
- 238000012545 processing Methods 0.000 claims description 70
- 238000003860 storage Methods 0.000 claims description 22
- 238000005457 optimization Methods 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 9
- 230000008685 targeting Effects 0.000 claims 1
- 238000013519 translation Methods 0.000 description 20
- 238000011156 evaluation Methods 0.000 description 17
- 210000000746 body region Anatomy 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
この2つの手法のうち、映像解析による手法は、計測機材を必要としないことに加えて、過去に撮りためた映像にも適用できるなどのメリットがある。
また、ハンディカメラ等を用いて、カメラ位置を変更しつつ撮影された映像の解析は計算コストが高く、三脚を用いて撮影した映像に適用した場合、不必要に計算資源を費やすことにもなる。
これにより、カメラパラメータ推定装置は、記憶手段から撮影映像を取得し、その撮影映像のフレーム画像から特徴点を抽出することにより、基準となるフレーム画像と他のフレーム画像との間のグローバルモーションを推定することができる。
これにより、カメラパラメータ推定装置は、フレーム画像それぞれについてエッジの抽出を行い、エッジ周辺の所定領域の画像の類似度を算出し、所定の第1の閾値を超えた場合に、三脚を利用した映像であると判定し、所定の第1の閾値以下の場合に、三脚を利用した映像でないと判定することができる。
これにより、カメラパラメータ推定装置は、撮影映像が三脚を利用した映像であるか否かが判定された場合に、当該判定に基づく最適なカメラパラメータの算出手段によりカメラパラメータを算出し、記憶手段に出力することができる。
これにより、カメラパラメータ推定装置は、記憶手段から撮影映像を取得し、その撮影映像のフレーム画像から特徴点を抽出することにより、基準となるフレーム画像と他のフレーム画像との間の第1のグローバルモーションを推定することができる。
これにより、カメラパラメータ推定装置は、フレーム画像それぞれについてエッジの抽出を行い、基準となるフレーム画像のエッジの位置と、決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、第2のグローバルモーションを算出することができる。
これにより、カメラパラメータ推定装置は、レンズ歪係数を算出することができ、また、フレーム画像のブロックのうち類似度が第2の閾値以下であるブロックを非剛体領域と判定することができる。
これにより、カメラパラメータ推定装置は、レンズ歪係数に基づきレンズ歪の補正を行い、非剛体領域と判定されたブロックを処理対象から取り除くことにより、精度を向上させた上で、撮影映像が三脚を利用した映像か否かを判定することができる。
これにより、カメラパラメータ推定装置は、撮影映像が三脚を利用した映像であるか否かが判定された場合に、当該判定に基づく最適なカメラパラメータの算出手段によりカメラパラメータを算出し、記憶手段に出力することができる。
まず、本実施形態に係るカメラパラメータ推定装置1が実行する処理の概要について説明する。
本実施形態に係るカメラパラメータ推定装置1は、カメラパラメータの効率的な推定処理を実現するため、撮影映像が三脚に設置されたカメラにより撮影されたものなのか、それ以外のハンディカメラやクレーン等(以下、「手持ち等」と称する。)を利用して撮影されたものなのか、を判定した上で、三脚を利用して撮影された映像、手持ち等により撮影された映像のそれぞれにおいて推定処理手法を分別して実行する。このようにすることにより、本実施形態に係るカメラパラメータ推定装置1は、計算コストを抑え、かつ、頑健で効率的な映像解析によるカメラパラメータの推定を可能とする。
次に、本実施形態に係るカメラパラメータ推定システムSについて説明する。
図1は、本実施形態に係るカメラパラメータ推定装置1を含むカメラパラメータ推定システムSの全体構成を示す図である。
図1に示すように、カメラパラメータ推定システムSは、カメラCaから入力された撮影映像を蓄積する映像アーカイブス1000と、映像アーカイブス1000と通信可能に接続されるカメラパラメータ推定装置1とを含んで構成される。
なお、映像アーカイブス1000を、コンピュータ1台で構成してもよいし、複数台のコンピュータを連携させて構成してもよい。また、この映像アーカイブス1000を、カメラパラメータ推定装置1に内包させて後記する記憶手段30に備えさせるようにしてもよい。ただし、以降の本実施形態の説明においては、図1に示すように、映像アーカイブス1000とカメラパラメータ推定装置1とが外部接続されるものとして説明する。
また、この映像アーカイブス1000は、カメラCaから新たな撮影映像が蓄積される毎や、所定の時間間隔、蓄積した撮影映像の出力指示情報(カメラパラメータの付与指示情報)を外部から受け付けたこと等を契機として、蓄積した撮影映像のうち、カメラパラメータが付されていない撮影映像を、カメラパラメータ推定装置1に出力する。
次に、カメラパラメータ推定装置1の機能構成について、図1を参照して説明する。
カメラパラメータ推定装置1は、映像アーカイブス1000から、メタデータが付された撮影映像を取得し、映像解析により、その撮影映像が三脚を利用して撮影された映像か否かを判定する。そして、カメラパラメータ推定装置1は、三脚を利用して撮影された映像と判定した場合、それ以外の手持ち等により撮影された映像と判定した場合のそれぞれに適した手法により、カメラパラメータの推定処理を実行する。カメラパラメータ推定装置1は、推定結果であるカメラパラメータを、その撮影映像のメタデータに付して、映像アーカイブス1000に出力する。
このカメラパラメータ推定装置1は、図1に示すように、制御手段10と、入出力手段20と、記憶手段30とを含んで構成される。
また、映像取得手段101が映像アーカイブス1000から取得する撮影映像には、メタデータが付与されている。そして、このメタデータの中には、少なくとも、三脚利用判定手段107が利用する、一連で撮影された複数のフレーム(フレーム画像)からならショット区間を表わす情報と、三脚用カメラパラメータ算出手段108が利用するレンズズーム量の情報とが含まれるものとする。なお、詳細は後記する。
具体的には、グローバルモーション推定手段102は、撮影映像(動画)をフレーム単位で静止画として取り出し、例えば、SURF(Speeded Up Robust Feature)を用いて特徴点を算出し、各フレームに対して対応点探索を行い、対応誤り除去を行う。ここでは、時系列で1つ後のフレームに対して対応点探索を行うものとする。また、対応誤り除去は、双方向(時系列で前後)で対応点探索を行い、同じ特徴点の位置に対応しない場合は誤りと判定する。
(参考文献1)H. Bay, A. Ess, T. Tuytelaars, L. V. Gool:“Speeded-Up Robust Features(SURF),” 2008, Computer Vision and Image Understanding, Vol.110, No.3, pp.346-359
(参考文献2)藤吉ほか,「Gradientベースの特徴抽出 - SIFTとHOG -」, 2007年,情報処理学会 研究報告CVIM 160, pp.211-224
(参考文献3)P. F. Alcantarilla, A. Bartoli and A. J. Davison:“KAZE Features,” In European Conference on Computer Vision (ECCV), Fiorenze, Italy, October 2012.
http://www.robesafe.com/personal/pablo.alcantarilla/papers/Alcantarilla12eccv.pdf
(参考文献4)特開2014−134856号公報
ただし、このエッジ抽出手段103のエッジ抽出処理は、このsobelフィルタを用いた手法に限定されず、輝度勾配の画像の作成にcannyフィルタを利用してもよい。また、エッジの取り出しに、輝度の絶対値をとって閾値処理するなどの手法や、細線化処理(二値化された画像において、線の中心1画素分だけ残すように線を細くする処理)を利用してもよい。なお、sobelフィルタやcannyフィルタ等を用いたエッジ抽出処理は、例えば、特開2006−170995号公報等に詳しい。
図2(a)は、基準となるAフレームの撮影画像を表し、図2(b)は、エッジ抽出手段103により、エッジ抽出処理がされた結果としてのAフレームのエッジ画像を表す。
ここで、近傍エッジフィッティング手段104は、以下に示すエッジフィッティング処理を行う。まず、近傍エッジフィッティング手段104は、図2(b)に示すAフレームのエッジ画像において、ラインスキャンすることによりフレーム内のエッジを探索する。そして、近傍エッジフィッティング手段104は、見つかったエッジに関して、図2(c)に示すように、隣接するエッジの情報から法線方向を求め、その法線方向に設定した法線上で最近傍のBフレームのエッジの相対的な位置を求める。なお、図2(c)において、Aフレームのエッジを実線で表し、Bフレームのエッジを破線で表している。また、近傍エッジフィッティング手段104が実行するBフレームの探索基準は、グローバルモーション推定手段102が算出した「GM1」分のオフセットをかけたものとする。
なお、このレンズ歪係数算出手段105による、レンズ歪係数算出処理も、グローバルモーション推定値や三脚利用判定処理等の精度をさらに向上させるために行うものである。
続いて、レンズ歪係数算出手段105は、次に示すレンズ歪係数算出処理を実行する。
本実施形態において、レンズ歪係数算出手段105は、「κ1」、「κ2」のみを求めるものとする。つまり、「κ3」や「p1」「p2」は省略し近似式とする。したがって、式(1)の近似式から、以下の式(2)、式(3)を導出できる。
図3および図4は、グローバルモーションによる移動、回転を考慮したフレーム間のエッジの位置関係を示す図である。
(xan”,yan”)は、Aフレームにおいて検出したエッジ位置を表す。
(xbn”,ybn”)は、Bフレームにおいて検出したエッジ位置を表す。
(xan’,yan’)は、Aフレームにおいて検出したエッジ位置の歪を補正した位置を表す。
(xbn’,ybn’)は、Bフレームにおいて検出したエッジ位置の歪を補正した位置を表す。
ran、rbnは、それぞれAフレーム、Bフレームの画像中心からエッジまでの距離を表わす。
ただし、以上の点は、それぞれのフレームの2次元画像の座標系を基準としたもの、つまり、画像中心を原点とするものである。
(xbn''’、ybn''')は、Bフレームの歪補正前の対応するエッジ位置であり、(xbn”,ybn”)に対し、グローバルモーションの回転、並進量を逆に射影したものである。
また、エッジ位置を示す点(Pa1n,Pa2n)は、(xan”,yan”)のレンズ歪を補正した座標、つまり、(xan',yan')であり、点(Pb1n,Pb2n)は、(xbn''',ybn''')のレンズ歪とグローバルモーションとを補正した座標、つまり、(xbn',ybn')である。
レンズ歪係数算出手段105は、このように、レーベンバーグマーカート法により最適化することで、レンズ歪係数「κ1」「κ2」を算出する。
非剛体領域判定手段106は、例えば、各フレームを16×9に分割し、ヒストグラムの比較には、色ヒストグラムインターセクションを利用し、所定の閾値(所定の第2の閾値)(例えば、「0.5」とする。)以下であれば、そのブロックが、非剛体領域であると判定する。
なお、色ヒストグラムインターセクションについては、次に示す三脚利用判定手段107においても説明するが、(参考文献5)に詳しい。
(参考文献5)M. J. Swain , D. H. Ballard,“ Color indexing,” International Journal of Computer Vision, v.7 n.1, p.11-32, Nov. 1991
具体的には、三脚利用判定手段107は、レンズ歪係数算出手段105が算出したレンズ歪係数を用いて、AフレームおよびBフレームに対し、レンズ歪の補正処理を行う。そして、三脚利用判定手段107は、非剛体領域判定手段106が非剛体領域と判定したブロック内に関しては、特徴点抽出および対応点探索の対象とせず、再度、グローバルモーション推定手段102を介して、グローバルモーション推定処理を行う。さらに、三脚利用判定手段107は、ここで算出されたグローバルモーションに基づき、近傍エッジフィッティング手段104を介して、エッジフィッティング処理を行うことにより、グローバルモーションを更新する。なお、このようにして三脚利用判定手段107により算出されたグローバルモーション推定値(並進量と回転量)を、「GM3」(第3のグローバルモーション)と称する。
なお、以下において、まず、2つのフレーム(AフレームとBフレーム)について行う三脚利用の判定処理を説明し、その後、複数のフレームからなるショット区間での三脚利用の判定処理を説明する。
三脚利用判定手段107は、撮影映像が三脚を利用して撮影された映像か否かの判定を、エッジ抽出手段103が抽出したエッジ画像から得られるエッジ部周辺のオクルージョン量を評価することにより行う。また、三脚利用判定手段107は、このエッジ部周辺のオクルージョン量の評価法として、色ヒストグラムインターセクションを用いる。
図5(a)に示すように、エッジ画像において、エッジの存在する部位の周囲L×L画素を、Aフレーム、Bブロックそれぞれの対象エッジ近傍ブロックとする。ここで、図5(a)の左図は、レンズ歪を補正した画像であり、対象エッジ近傍ブロックである「αA」の位置を表わす。また、図5(a)の右図は、レンズ歪を補正した画像であり、Aフレームの対象エッジ近傍ブロック「αA」に対応する、Bフレームの対象エッジ近傍ブロック「αB」の位置を表わす。なお、この対象エッジ近傍ブロック「αB」の位置は、直近のグローバルモーション(ここでは「GM3」)の並進量と回転量とに基づき補正されたものである。
続いて、三脚利用判定手段107は、エッジ画像の各対象近傍ブロックにおいて算出した色ヒストグラムインターセクションDのうち、「0.5」を超えるブロックを抽出し、そのブロックの数とそのブロックの色ヒストグラムインターセクションDの値の総和を求める。そして、三脚利用判定手段107は、色ヒストグラムインターセクションDの平均値を求め、所定の閾値(所定の第1の閾値)(例えば、「0.8」)を超える場合に、三脚利用であると判定する。なお、色ヒストグラムインターセクションDの値が「0.5」以下を判定の対象外とするのは、極端に類似していない画像を取り除くことにより、誤って異なるブロックを対象ブロックとして算出していた場合や、非剛体判定に漏れがあり、非剛体自身の移動により色ヒストグラムがAフレームとBフレームとで極端に異なる場合等を排除するためである。
次に、三脚利用判定手段107が行う、複数のフレームからなるショット区間での三脚利用の判定処理を説明する。このショット区間での三脚利用の判定処理は、前記した2フレーム間での三脚利用の判定結果(色ヒストグラムインターセクションDの平均値)を利用して行ってもよいし、各フレームのエッジ画像の中で、エッジの強い(例えば、輝度勾配の値が大きい)順に、所定数のエッジを選択して色ヒストグラムインターセクションDを計算し、その平均値を求めるようにしてもよい。
このようにすることにより、三脚利用判定手段107は、ショット区間単位で、そのショット区間内の撮影映像が三脚を利用したものか否かを判定することができる。
三脚利用判定手段107は、該当するショット区間内で、各フレームで得られた色ヒストグラムインターセクションDの値を用いて、その色ヒストグラムインターセクションDについてのヒストグラムを作成する。なお、ここでは、前記した手法と同様の手法を用いて、フレーム内における色ヒストグラムインターセクションDの平均値を求め、その「D」の平均値を、当該フレームの「D」の値とする。また、三脚利用判定手段107は、ヒストグラムのBINとなる「D」の値(「0」〜「1」)を、例えば10等分し、各フレームの「D」の値が「0」以上「0.1」未満の「D」値をBIN「0」とし、「0.1」以上「0.2」未満の「D」値をBIN「0.1」とし、「0.2」以上「0.3」未満の「D」値をBIN「0.2」とし、・・・、「0.8」以上「0.9」未満の「D」値をBIN「0.8」とし、「0.9」以上「1.0」以下の「D」値をBIN「0.9」として、ヒストグラムを作成する。
ここでは、三脚用カメラパラメータ算出手段108が、取得した撮影映像に付与されたメタデータに含まれるレンズズーム量と、算出された直近のグローバルモーション値(並進量と回転量)とを用いて、カメラの仰角(俯角)、方位角を算出し、カメラパラメータとして出力する。
なお、三脚用カメラパラメータ算出手段108は、仰角(俯角)、方位角の出力形式ではなく、回転行列の形式で、カメラパラメータを出力するようにしてもよい。
次に、カメラパラメータ推定装置1の動作について説明する。
本実施形態に係るカメラパラメータ推定装置1のカメラパラメータ推定処理について、以下3つの処理例について説明する。
「第1の処理例」は、制御手段10(図1参照)に備わる、近傍エッジフィッティング手段104、レンズ歪係数算出手段105および非剛体領域判定手段106が行う精度向上のための処理をすべて含んだカメラパラメータ推定処理である。「第2の処理例」は、算出したレンズ歪の情報を用いて映像を補正し、非剛体領域を処理対象から除外した上で、第1の処理を繰り返すことにより、カメラパラメータ推定処理の精度をさらに向上させる例である。「第3の処理例」は、制御手段10に、近傍エッジフィッティング手段104、レンズ歪係数算出手段105および非剛体領域判定手段106を備えない構成とすることにより、処理負荷を軽減し、計算速度を向上させる例である。以下、3つの処理例について具体的に説明する。
カメラパラメータ推定の第1の処理例は、図1に示したカメラパラメータ推定装置1の制御手段10内の各手段がすべて備わる場合の処理である。
図6は、本実施形態に係るカメラパラメータ推定装置1が行うカメラパラメータ推定処理(第1の処理例)を示すフローチャートである。
続いて、カメラパラメータ推定装置1のグローバルモーション推定手段102は、例えば、SURFを用いて撮影映像の各フレームにおいて特徴点を抽出することにより、グローバルモーション推定値を算出する(ステップS11:特徴点を利用したグローバルモーション推定処理)。このとき、グローバルモーション推定手段102は、各フレームに対して対応点探索を行い、対応誤り除去を行う。
なお、このとき、グローバルモーション推定手段102がグローバルモーション推定値として算出した並進量と回転量が「GM1」である。
そして、カメラパラメータ推定装置1の近傍エッジフィッティング手段104は、エッジ抽出手段103により抽出されたエッジ画像に対し、図2において説明したエッジフィッティング処理を実行することにより、グローバルモーション推定手段102が算出した「GM1」について、さらに精度を向上させたグローバルモーション推定値を算出する(ステップS13:近傍エッジフィッティングによるグローバルモーション更新処理)。ここで、近傍エッジフィッティング手段104により算出される更新されたグローバルモーション推定値(並進量と回転量)が「GM2」である。
ここで、レンズ歪係数算出手段105は、レンズ歪を補正したAフレームのエッジ位置と、レンズ歪およびグローバルモーション(GM2)を補正したBフレームのエッジ位置との距離が「0」に収束することに基づく最適化処理を行うことにより、レンズ歪係数を算出する。なお、ここで算出される評価値Cd(式(8)参照)は、前記したように、AフレームとBフレームの対応するエッジ間の距離の平均値を表わす。
具体的には、三脚利用判定手段107は、ステップS14においてレンズ歪係数算出手段105が算出したレンズ歪係数を用いて、AフレームおよびBフレームに対し、レンズ歪の補正処理を行う。そして、三脚利用判定手段107は、ステップS15において非剛体領域と判定されたブロック内に関しては、特徴点抽出および対応点探索の対象とせず、再度、グローバルモーション推定手段102を介して、グローバルモーション推定処理を行う。さらに、三脚利用判定手段107は、そこで算出されたグローバルモーションに基づき、近傍エッジフィッティング手段104を介して、エッジフィッティング処理を行うことにより、グローバルモーションを更新する。なお、ここで、三脚利用判定手段107により算出されたグローバルモーション推定値(並進量と回転量)が「GM3」である。
そして、三脚利用判定手段107が、三脚利用と判定した場合(ステップS17→Yes)、次のステップS18に進み、三脚利用でないと判定した場合(ステップS17→No)、次のステップS19に進む。
一方、ステップS19において、手持ち用カメラパラメータ算出手段109は、バンドルアジャストメント(前記した特許文献2参照)等の手法を用いて、カメラパラメータを算出する。
次に、カメラパラメータ推定の第2の処理例について説明する。
図7は、本実施形態に係るカメラパラメータ推定装置1が行うカメラパラメータ推定処理(第2の処理例)を示すフローチャートである。
図6に示した第1の処理例と、図7で示す第2の処理例との違いは、ステップS17の撮影映像が三脚を利用して撮影された映像か否かの判定の前に、ステップS11〜S16を繰り返すか否かの判定処理を設け、エッジ間の距離の平均値が所定の閾値以下になるまで、グローバルモーション等の更新処理を繰り返すことである。これにより三脚利用か否かの判定およびカメラパラメータ推定値の精度をさらに向上させることができる。
なお、図7においては、図6において説明した同一の処理については、同一のステップ番号を付し、説明を省略する。
続いて、三脚利用判定手段107は、ステップS30において、直近で算出されたグローバルモーション(ここでは、「GM3」)での対応点(エッジ位置)に基づき、前記した式(8)で示されるエッジ間の距離の平均値(評価値「Cd」)を算出する。そして、三脚利用判定手段107は、そのエッジ間の距離の平均値(評価値Cd)が所定の閾値Thi(所定の第3の閾値)(例えば、「0.8」)を超えるか否かを判定する。
ここで、所定の閾値Thiを超える場合には(ステップS30→Yes)、ステップS11に戻って処理を続ける。なお、2回目以降の繰り返し処理のステップS11において、グローバルモーション推定手段102は、レンズ歪係数算出手段105により直近で算出されたレンズ歪係数に基づく画像の補正を行うとともに、非剛体領域判定手段106が非剛体領域と判定したブロック内の特徴点を除外して、グローバルモーションの推定値の算出を行う。また、ステップS12のエッジ抽出処理は、1回目に行っているため、2回目以降は実行しないようにしてもよい。それ以降の処理は、図6に示したステップS13〜S16の処理と同様である。
次に、カメラパラメータ推定の第3処理例について説明する。
図8は、本実施形態に係るカメラパラメータ推定装置1が行うカメラパラメータ推定処理(第3の処理例)を示すフローチャートである。
第3の処理例を実行するカメラパラメータ推定装置1の制御手段10は、図1に示した構成と比べると、図9に示すように、近傍エッジフィッティング手段104、レンズ歪係数算出手段105および非剛体領域判定手段106を備えていない。この構成の相違に伴う、図6に示した第1の処理例と、図8に示すこの第3の処理例との違いは、近傍エッジフィッティング手段104が実行するステップS13、レンズ歪係数算出手段105が実行するステップS14、非剛体領域判定手段106が実行するステップS15、および、三脚利用判定手段107が実行する、レンズ歪と非剛体領域に基づくグローバルモーションの更新処理(ステップS16)の各処理を含まない点である。
つまり、三脚を利用した撮影映像か否かの初期値の設定をすることなくカメラパラメータの推定処理を自動化することができる。また、三脚を利用した映像か否かの判定を行うことにより、三脚利用の映像に適したカメラパラメータ算出処理を実行できるため、不必要な計算コストの増大を抑制することができる。さらに、三脚利用か否かの判定処理とともに、その判定に用いる情報を利用して、撮影映像のカメラパラメータを算出することができる。よって、トータルとして効率的なカメラパラメータ推定が可能となる。
10 制御手段
20 入出力手段
30 記憶手段
101 映像取得手段
102 グローバルモーション推定手段
103 エッジ抽出手段
104 近傍エッジフィッティング手段
105 レンズ歪係数算出手段
106 非剛体領域判定手段
107 三脚利用判定手段
108 三脚用カメラパラメータ算出手段
109 手持ち用カメラパラメータ算出手段
110 カメラパラメータ出力手段
300 映像記憶手段
1000 映像アーカイブス
S カメラパラメータ推定システム
Claims (7)
- 撮影カメラで撮影された撮影映像のカメラパラメータを推定するカメラパラメータ推定装置であって、
前記撮影映像が記憶されている記憶手段から、前記撮影映像を取得する映像取得手段と、
前記取得した撮影映像を構成するフレーム画像それぞれの特徴点を抽出し、基準となるフレーム画像において抽出された特徴点と、前記撮影カメラの動きの評価対象となる他のフレーム画像において抽出された特徴点との間で、同一の前記特徴点が対応付けられた対応点の探索を行うことにより、前記基準となるフレーム画像と前記他のフレーム画像との間の画面全体の移動量を示すグローバルモーションを推定するグローバルモーション推定手段と、
前記フレーム画像それぞれについて、エッジの抽出を行うエッジ抽出手段と、
前記抽出されたエッジのうち、前記フレーム画像それぞれの間において前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、当該算出した類似度が所定の第1の閾値を超えた場合に、前記撮影映像が三脚を利用した映像であると判定し、当該算出した類似度が前記所定の第1の閾値以下の場合に、前記撮影映像が三脚を利用した映像でないと判定する三脚利用判定手段と、
前記撮影映像が三脚を利用した映像であると判定された場合に、前記推定されたグローバルモーションで示される移動量を用いて、前記カメラパラメータを算出する三脚用カメラパラメータ算出手段と、
前記撮影映像が三脚を利用した映像でないと判定された場合に、前記フレーム画像それぞれに含まれる対応する特徴点を解析して前記カメラパラメータを算出する手持ち用カメラパラメータ算出手段と、
前記三脚用カメラパラメータ算出手段により算出されたカメラパラメータ、または、前記手持ち用カメラパラメータ算出手段により算出されたカメラパラメータを、前記記憶手段に出力するカメラパラメータ出力手段と、
を備えることを特徴とするカメラパラメータ推定装置。 - 前記基準となるフレーム画像において、前記エッジ抽出手段が抽出したエッジについて、当該エッジに隣接するエッジの情報に基づき法線方向を求め、当該法線方向に設定した法線上で最近傍の前記他のフレーム画像のエッジの位置を決定し、前記基準となるフレーム画像のエッジの位置と、前記決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、前記グローバルモーションを更新する近傍エッジフィッティング手段を、さらに備え、
前記三脚利用判定手段は、前記近傍エッジフィッティング手段により更新されたグローバルモーションで示される移動量を用いて、前記グローバルモーション推定手段が推定したグローバルモーションでの対応点の誤りを除去した上で、前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、
前記三脚用カメラパラメータ算出手段は、前記グローバルモーション推定手段により推定されたグローバルモーションの代わりに、前記近傍エッジフィッティング手段が更新したグローバルモーションに基づき、前記カメラパラメータを算出すること
を特徴とする請求項1に記載のカメラパラメータ推定装置。 - 前記エッジ抽出手段により抽出されたエッジのうち、前記基準となるフレーム画像で検出されたエッジの位置についてレンズ歪を補正したエッジの位置と、前記他のフレーム画像で検出されたエッジの位置についてレンズ歪および前記推定されたグローバルモーションの移動量を補正したエッジの位置との、距離が0に収束するように解析する最適化処理を行うことにより、レンズ歪係数を算出するレンズ歪係数算出手段を、さらに備え、
前記三脚利用判定手段は、
前記フレーム画像それぞれについて、前記レンズ歪係数算出手段が算出したレンズ歪係数に基づく補正を行った上で、前記グローバルモーションを更新するとともに、前記フレーム画像それぞれの間において前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、
前記三脚用カメラパラメータ算出手段は、前記グローバルモーション推定手段により推定されたグローバルモーションの代わりに、前記三脚利用判定手段により更新された前記グローバルモーションに基づき、前記カメラパラメータを算出すること
を特徴とする請求項1に記載のカメラパラメータ推定装置。 - 前記フレーム画像それぞれを所定領域のブロックに分割し、前記基準となるフレーム画像のブロックと、それに対応する前記他のフレーム画像のブロックとの類似度を算出し、当該算出した類似度が所定の第2の閾値以下である場合に、前記他のフレーム画像のブロックを非剛体領域であると判定する非剛体領域判定手段を、さらに備え、
前記三脚利用判定手段は、前記非剛体領域判定手段が判定した非剛体領域のブロックに含まれる特徴点を対象とせず、前記グローバルモーション推定手段を介して前記グローバルモーションを更新するとともに、前記非剛体領域のブロックに含まれる対応点を処理対象とせずに、前記フレーム画像それぞれの間において前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、
前記三脚用カメラパラメータ算出手段は、前記グローバルモーション推定手段により推定されたグローバルモーションの代わりに、前記三脚利用判定手段により更新された前記グローバルモーションに基づき、前記カメラパラメータを算出すること
を特徴とする請求項1に記載のカメラパラメータ推定装置。 - 撮影カメラで撮影された撮影映像のカメラパラメータを推定するカメラパラメータ推定装置であって、
前記撮影映像が記憶されている記憶手段から、前記撮影映像を取得する映像取得手段と、
前記取得した撮影映像を構成するフレーム画像それぞれの特徴点を抽出し、基準となるフレーム画像において抽出された特徴点と、前記撮影カメラの動きの評価対象となる他のフレーム画像において抽出された特徴点との間で、同一の前記特徴点が対応付けられた対応点の探索を行うことにより、前記基準となるフレーム画像と前記他のフレーム画像との間の画面全体の移動量を示す第1のグローバルモーションを推定するグローバルモーション推定処理を行うグローバルモーション推定手段と、
前記フレーム画像それぞれについて、エッジの抽出を行うエッジ抽出手段と、
前記基準となるフレーム画像において、前記エッジ抽出手段が抽出したエッジについて、当該エッジに隣接するエッジの情報に基づき法線方向を求め、当該法線方向に設定した法線上で最近傍の前記他のフレーム画像のエッジの位置を決定し、前記基準となるフレーム画像のエッジの位置と、前記決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、第2のグローバルモーションを算出する近傍エッジフィッティング手段と、
前記第2のグローバルモーションで示される移動量を用いて、前記グローバルモーション推定手段が推定した前記第1のグローバルモーションでの対応点の誤りを除去した上で、前記エッジ抽出手段により抽出されたエッジのうち、前記基準となるフレーム画像で検出されたエッジの位置についてレンズ歪を補正したエッジの位置と、前記他のフレーム画像で検出されたエッジの位置についてレンズ歪および前記第2のグローバルモーションの移動量を補正したエッジの位置との、距離が0に収束するように解析する最適化処理を行うことにより、レンズ歪係数を算出するレンズ歪係数算出手段と、
前記フレーム画像それぞれを所定領域のブロックに分割し、前記基準となるフレーム画像のブロックと、それに対応する前記他のフレーム画像のブロックとの類似度を算出し、当該算出した類似度が所定の第2の閾値以下である場合に、前記他のフレーム画像のブロックを非剛体領域であると判定する非剛体領域判定手段と、
前記フレーム画像それぞれについて、前記レンズ歪係数算出手段が算出したレンズ歪係数に基づく補正を行った上で、前記非剛体領域判定手段が判定した非剛体領域のブロックに含まれる特徴点を対象とせず、前記グローバルモーション推定手段を介して前記第2のグローバルモーションを更新し第3のグローバルモーションを算出するとともに、前記フレーム画像それぞれの間において前記対応点となる前記エッジの周辺を示す所定領域の画像の類似度を算出し、当該算出した類似度が所定の第1の閾値を超えた場合に、前記撮影映像が三脚を利用した映像であると判定し、当該算出した類似度が前記所定の第1の閾値以下の場合に、前記撮影映像が三脚を利用した映像でないと判定する三脚利用判定処理を行う三脚利用判定手段と、
前記撮影映像が三脚を利用した映像であると判定された場合に、前記第3のグローバルモーションで示される移動量を用いて、前記カメラパラメータを算出する三脚用カメラパラメータ算出手段と、
前記撮影映像が三脚を利用した映像でないと判定された場合に、前記フレーム画像それぞれに含まれる対応する特徴点を解析して前記カメラパラメータを算出する手持ち用カメラパラメータ算出手段と、
前記三脚用カメラパラメータ算出手段により算出されたカメラパラメータ、または、前記手持ち用カメラパラメータ算出手段により算出されたカメラパラメータを、前記記憶手段に出力するカメラパラメータ出力手段と、
を備えることを特徴とするカメラパラメータ推定装置。 - 前記三脚利用判定手段は、
前記フレーム画像それぞれについて、前記レンズ歪係数算出手段が算出したレンズ歪係数に基づく補正を行った上で、前記非剛体領域判定手段が判定した非剛体領域のブロックに含まれる特徴点を対象とせずに、前記エッジの位置の間の前記距離が0に収束するように解析する最適化処理を再度行い、当該最適化処理により求まる前記エッジ間の前記距離が所定の第3の閾値を超えるか否かを判定し、
前記所定の第3の閾値を超えた場合に、前記レンズ歪係数算出手段により直近で算出されたレンズ歪で前記フレーム画像を補正するとともに、前記非剛体領域判定手段が直近で判定した非剛体領域のブロックに含まれる特徴点を対象とせずに、前記グローバルモーション推定手段による前記グローバルモーション推定処理に戻り、前記三脚利用判定手段が、前記エッジ間の前記距離が前記所定の第3の閾値以下になるまで、前記グローバルモーション推定処理に戻る処理を繰り返し、前記エッジ間の前記距離が前記所定の第3の閾値以下になった場合に、前記三脚利用判定処理を行うこと
を特徴とする請求項5に記載のカメラパラメータ推定装置。 - コンピュータを、請求項1乃至6のいずれか一項に記載のカメラパラメータ推定装置として機能させるためのカメラパラメータ推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015038511A JP6427038B2 (ja) | 2015-02-27 | 2015-02-27 | カメラパラメータ推定装置およびカメラパラメータ推定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015038511A JP6427038B2 (ja) | 2015-02-27 | 2015-02-27 | カメラパラメータ推定装置およびカメラパラメータ推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016163130A true JP2016163130A (ja) | 2016-09-05 |
JP6427038B2 JP6427038B2 (ja) | 2018-11-21 |
Family
ID=56845563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015038511A Active JP6427038B2 (ja) | 2015-02-27 | 2015-02-27 | カメラパラメータ推定装置およびカメラパラメータ推定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6427038B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447022A (zh) * | 2018-11-08 | 2019-03-08 | 北京奇艺世纪科技有限公司 | 一种镜头类型识别方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001346099A (ja) * | 2000-05-31 | 2001-12-14 | Matsushita Electric Ind Co Ltd | 実写映像データ蓄積装置、該装置を備えた映像合成システムおよび合成映像制作システム |
JP2009237845A (ja) * | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2014155121A (ja) * | 2013-02-12 | 2014-08-25 | Canon Inc | 画像処理装置、撮像装置、制御方法、及びプログラム |
-
2015
- 2015-02-27 JP JP2015038511A patent/JP6427038B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001346099A (ja) * | 2000-05-31 | 2001-12-14 | Matsushita Electric Ind Co Ltd | 実写映像データ蓄積装置、該装置を備えた映像合成システムおよび合成映像制作システム |
JP2009237845A (ja) * | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2014155121A (ja) * | 2013-02-12 | 2014-08-25 | Canon Inc | 画像処理装置、撮像装置、制御方法、及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447022A (zh) * | 2018-11-08 | 2019-03-08 | 北京奇艺世纪科技有限公司 | 一种镜头类型识别方法及装置 |
CN109447022B (zh) * | 2018-11-08 | 2021-04-09 | 北京奇艺世纪科技有限公司 | 一种镜头类型识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6427038B2 (ja) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100793838B1 (ko) | 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법 | |
US9092875B2 (en) | Motion estimation apparatus, depth estimation apparatus, and motion estimation method | |
JP4377932B2 (ja) | パノラマ画像生成装置およびプログラム | |
KR101811718B1 (ko) | 영상 처리 방법 및 장치 | |
US20120249826A1 (en) | Image selection device and image selecting method | |
JP5439277B2 (ja) | 位置姿勢計測装置及び位置姿勢計測プログラム | |
US9031355B2 (en) | Method of system for image stabilization through image processing, and zoom camera including image stabilization function | |
US20190355123A1 (en) | Apparatus and methods for image processing | |
JP2016123044A (ja) | 被写体追跡装置、その制御方法およびプログラム | |
JP2008217526A (ja) | 画像処理装置、画像処理プログラム及び画像処理方法 | |
JP2020088647A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2010093343A (ja) | カメラワーク最適化プログラム、撮像装置及びカメラワーク最適化方法 | |
JP2015121524A (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
JP6178646B2 (ja) | 撮像装置及び像振れ補正処理方法 | |
JP7312026B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
JP6427038B2 (ja) | カメラパラメータ推定装置およびカメラパラメータ推定プログラム | |
CN107680083B (zh) | 视差确定方法和视差确定装置 | |
GB2537831A (en) | Method of generating a 3D representation of an environment and related apparatus | |
JP6080424B2 (ja) | 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置 | |
JP5478533B2 (ja) | 全方位画像生成方法、画像生成装置およびプログラム | |
JP2004206320A (ja) | 画像認識装置および方法 | |
JP2019020839A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US10430971B2 (en) | Parallax calculating apparatus | |
JP5590680B2 (ja) | 映像合成装置、映像合成方法、および映像合成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6427038 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |