JP2016163130A - カメラパラメータ推定装置およびカメラパラメータ推定プログラム - Google Patents

カメラパラメータ推定装置およびカメラパラメータ推定プログラム Download PDF

Info

Publication number
JP2016163130A
JP2016163130A JP2015038511A JP2015038511A JP2016163130A JP 2016163130 A JP2016163130 A JP 2016163130A JP 2015038511 A JP2015038511 A JP 2015038511A JP 2015038511 A JP2015038511 A JP 2015038511A JP 2016163130 A JP2016163130 A JP 2016163130A
Authority
JP
Japan
Prior art keywords
edge
tripod
camera parameter
global motion
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015038511A
Other languages
English (en)
Other versions
JP6427038B2 (ja
Inventor
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
英彦 大久保
Hidehiko Okubo
英彦 大久保
寛史 盛岡
Hirofumi Morioka
寛史 盛岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2015038511A priority Critical patent/JP6427038B2/ja
Publication of JP2016163130A publication Critical patent/JP2016163130A/ja
Application granted granted Critical
Publication of JP6427038B2 publication Critical patent/JP6427038B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】三脚を利用した撮影映像か否かの初期設定をすることなく、効率的にカメラパラメータの推定を可能とする。【解決手段】カメラパラメータ推定装置1は、撮影映像を取得する映像取得手段101と、撮影映像を構成するフレーム画像の特徴点を抽出して、グローバルモーションを推定するグローバルモーション推定手段102と、エッジの抽出を行うエッジ抽出手段103と、エッジの周辺を示す所定領域の画像の類似度に基づき、三脚利用の映像か否かを判定する三脚利用判定手段107と、三脚利用の場合に、グローバルモーションに基づき、カメラパラメータを算出する三脚用カメラパラメータ算出手段108と、三脚利用でない場合に、各フレーム画像に含まれる対応する特徴点を解析してカメラパラメータを算出する手持ち用カメラパラメータ算出手段109と、算出されたカメラパラメータを出力するカメラパラメータ出力手段110と、を備える。【選択図】図1

Description

本発明は、実写映像とCG(Computer Graphics)描画画像との映像合成等において必要となるカメラパラメータを推定する、カメラパラメータ推定装置およびカメラパラメータ推定プログラムに関する。
カメラパラメータは、カメラの位置や向き、レンズの状態を示す。映像制作において、このカメラパラメータを利用することにより、カメラの実写映像とCG描画画像とを違和感なく合成することが可能となる。
従来、カメラパラメータを推定する手法として、カメラの三脚やクレーンの関節などの各自由度の回転量を、ロータリーエンコーダ等を取り付けて計測することにより推定する手法が知られている(特許文献1参照)。また、撮影した映像の解析によりカメラパラメータを推定する手法として、例えば、バンドルアジャストメント(Bundle Adjustment:バンドル調整処理)が知られている(特許文献2参照)。
特許文献2のバンドルアジャストメントを用いた手法では、撮影映像上の特徴点の位置および特徴ベクトルを映像解析により抽出し、その特徴点の位置を、特徴ベクトルの類似性を利用して撮影映像中で追跡する。さらに、その追跡結果を利用して、最適化手法によりカメラパラメータを推定する。
この2つの手法のうち、映像解析による手法は、計測機材を必要としないことに加えて、過去に撮りためた映像にも適用できるなどのメリットがある。
特開2007−142993号公報 特開2009−237845号公報
しかしながら、映像解析による従来の手法は、三脚を利用したカメラを用いて撮影した映像であるのか、ハンディカメラ等により手持ちで撮影した映像であるのかを判定することができない。三脚を利用した撮影映像と手持ちで撮影された映像は、それぞれ異なるアルゴリズムに対応させて解析する必要があるため、誤った判定を行うと、推定処理が破綻してしまう場合がある。
また、ハンディカメラ等を用いて、カメラ位置を変更しつつ撮影された映像の解析は計算コストが高く、三脚を用いて撮影した映像に適用した場合、不必要に計算資源を費やすことにもなる。
さらに、計算コストが高い処理が含まれるにもかかわらず、通常はカメラパラメータの推定に必要となる初期値(三脚を利用した撮影映像か否かなど)の設定が必要であり、映像の管理者等による手動の設定をなくすこと、つまり、自動化は困難であった。また、実際には、必要とする撮影映像について、VFX(Visual Effects)などの作業を行うときになって初めてカメラパラメータの推定処理を開始することになるため、作業時間を拡大させる要因となっていた。
本発明は、以上のような問題を鑑みてなされたものであり、三脚を利用した撮影映像か否かの初期設定をすることなく、効率的にカメラパラメータの推定を可能とする、カメラパラメータ推定装置およびカメラパラメータ推定プログラムを提供することを課題とする。
前記課題を解決するために、本願第1発明のカメラパラメータ推定装置は、撮影カメラで撮影された撮影映像のカメラパラメータを推定するカメラパラメータ推定装置であって、映像取得手段と、グローバルモーション推定手段と、エッジ抽出手段と、三脚利用判定手段と、三脚用カメラパラメータ算出手段と、手持ち用カメラパラメータ算出手段と、カメラパラメータ出力手段と、を備える構成とした。
かかる構成によれば、カメラパラメータ推定装置は、映像取得手段によって、撮影映像が記憶されている記憶手段から、撮影映像を取得する。また、グローバルモーション推定手段によって、取得した撮影映像を構成するフレーム画像それぞれの特徴点を抽出し、基準となるフレーム画像において抽出された特徴点と、他のフレーム画像において抽出された特徴点との間で、同一の特徴点が対応付けられた対応点の探索を行うことにより、基準となるフレーム画像と他のフレーム画像との間の画面全体の移動量を示すグローバルモーションを推定する。
これにより、カメラパラメータ推定装置は、記憶手段から撮影映像を取得し、その撮影映像のフレーム画像から特徴点を抽出することにより、基準となるフレーム画像と他のフレーム画像との間のグローバルモーションを推定することができる。
また、カメラパラメータ推定装置は、エッジ抽出手段によって、フレーム画像それぞれについて、エッジの抽出を行う。そして、三脚利用判定手段によって、抽出されたエッジのうち、フレーム画像それぞれの間において対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、当該算出した類似度が所定の第1の閾値を超えた場合に、撮影映像が三脚を利用した映像であると判定し、当該算出した類似度が所定の第1の閾値以下の場合に、撮影映像が三脚を利用した映像でないと判定する。
これにより、カメラパラメータ推定装置は、フレーム画像それぞれについてエッジの抽出を行い、エッジ周辺の所定領域の画像の類似度を算出し、所定の第1の閾値を超えた場合に、三脚を利用した映像であると判定し、所定の第1の閾値以下の場合に、三脚を利用した映像でないと判定することができる。
また、カメラパラメータ推定装置は、三脚用カメラパラメータ算出手段によって、撮影映像が三脚を利用した映像であると判定された場合に、推定されたグローバルモーションで示される移動量を用いて、カメラパラメータを算出する。また、手持ち用カメラパラメータ算出手段によって、撮影映像が三脚を利用した映像でないと判定された場合に、フレーム画像それぞれに含まれる対応する特徴点を解析してカメラパラメータを算出する。そして、カメラパラメータ出力手段によって、三脚用カメラパラメータ算出手段により算出されたカメラパラメータ、または、手持ち用カメラパラメータ算出手段により算出されたカメラパラメータを、記憶手段に出力する。
これにより、カメラパラメータ推定装置は、撮影映像が三脚を利用した映像であるか否かが判定された場合に、当該判定に基づく最適なカメラパラメータの算出手段によりカメラパラメータを算出し、記憶手段に出力することができる。
このように、本願第1発明のカメラパラメータ推定装置は、三脚を利用した撮影映像か否かの初期値の設定をすることなくカメラパラメータの推定処理を実行することができる。また、三脚を利用した映像か否かの判定を行うことにより、三脚利用の映像に適したカメラパラメータ算出処理を実行できるため、不必要な計算コストの増大を抑制することができる。さらに、三脚利用か否かの判定に用いる情報を利用して、撮影映像のカメラパラメータを算出することができる。よって、本発明のカメラパラメータ推定装置は、トータルとして効率的なカメラパラメータ推定が可能となる。
また、本願第2発明のカメラパラメータ推定装置は、撮影カメラで撮影された撮影映像のカメラパラメータを推定するカメラパラメータ推定装置であって、映像取得手段と、グローバルモーション推定手段と、エッジ抽出手段と、近傍エッジフィッティング手段と、レンズ歪係数算出手段と、非剛体領域判定手段と、三脚利用判定手段と、三脚用カメラパラメータ算出手段と、手持ち用カメラパラメータ算出手段と、カメラパラメータ出力手段と、を備える構成とした。
かかる構成によれば、カメラパラメータ推定装置は、映像取得手段によって、撮影映像が記憶されている記憶手段から、撮影映像を取得する。また、グローバルモーション推定手段によって、取得した撮影映像を構成するフレーム画像それぞれの特徴点を抽出し、基準となるフレーム画像において抽出された特徴点と、他のフレーム画像において抽出された特徴点との間で、同一の特徴点が対応付けられた対応点の探索を行うことにより、基準となるフレーム画像と他のフレーム画像との間の画面全体の移動量を示す第1のグローバルモーションを推定する。
これにより、カメラパラメータ推定装置は、記憶手段から撮影映像を取得し、その撮影映像のフレーム画像から特徴点を抽出することにより、基準となるフレーム画像と他のフレーム画像との間の第1のグローバルモーションを推定することができる。
また、カメラパラメータ推定装置は、エッジ抽出手段によって、フレーム画像それぞれについて、エッジの抽出を行う。そして、近傍エッジフィッティング手段によって、抽出されたエッジについて、当該エッジに隣接するエッジの情報に基づき法線方向を求め、当該法線方向に設定した法線上で最近傍の他のフレーム画像のエッジの位置を決定し、基準となるフレーム画像のエッジの位置と、決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、第2のグローバルモーションを算出する。
これにより、カメラパラメータ推定装置は、フレーム画像それぞれについてエッジの抽出を行い、基準となるフレーム画像のエッジの位置と、決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、第2のグローバルモーションを算出することができる。
また、カメラパラメータ推定装置は、レンズ歪係数算出手段によって、第2のグローバルモーションで示される移動量を用いて、第1のグローバルモーションでの対応点の誤りを除去した上で、エッジ抽出手段により抽出されたエッジのうち、基準となるフレーム画像で検出されたエッジの位置についてレンズ歪を補正したエッジの位置と、他のフレーム画像で検出されたエッジの位置についてレンズ歪および第2のグローバルモーションの移動量を補正したエッジの位置との、距離が0に収束するように解析する最適化処理を行うことにより、レンズ歪係数を算出する。また、非剛体領域判定手段によって、フレーム画像それぞれを所定領域のブロックに分割し、基準となるフレーム画像のブロックと、それに対応する他のフレーム画像のブロックとの類似度を算出し、当該算出した類似度が所定の第2の閾値以下である場合に、他のフレーム画像のブロックを非剛体領域であると判定する。
これにより、カメラパラメータ推定装置は、レンズ歪係数を算出することができ、また、フレーム画像のブロックのうち類似度が第2の閾値以下であるブロックを非剛体領域と判定することができる。
また、カメラパラメータ推定装置は、三脚利用判定手段によって、フレーム画像それぞれについて、レンズ歪係数に基づく補正を行った上で、非剛体領域のブロックに含まれる特徴点を対象とせず、第2のグローバルモーションを更新し第3のグローバルモーションを算出するとともに、フレーム画像それぞれの間において対応点となるエッジの周辺を示す所定領域の画像の類似度を算出し、当該算出した類似度が所定の第1の閾値を超えた場合に、撮影映像が三脚を利用した映像であると判定し、当該算出した類似度が所定の第1の閾値以下の場合に、撮影映像が三脚を利用した映像でないと判定する。
これにより、カメラパラメータ推定装置は、レンズ歪係数に基づきレンズ歪の補正を行い、非剛体領域と判定されたブロックを処理対象から取り除くことにより、精度を向上させた上で、撮影映像が三脚を利用した映像か否かを判定することができる。
また、カメラパラメータ推定装置は、三脚用カメラパラメータ算出手段によって、撮影映像が三脚を利用した映像であると判定された場合に、第3のグローバルモーションで示される移動量を用いて、カメラパラメータを算出する。また、手持ち用カメラパラメータ算出手段によって、撮影映像が三脚を利用した映像でないと判定された場合に、フレーム画像それぞれに含まれる対応する特徴点を解析してカメラパラメータを算出する。そして、カメラパラメータ出力手段によって、三脚用カメラパラメータ算出手段により算出されたカメラパラメータ、または、手持ち用カメラパラメータ算出手段により算出されたカメラパラメータを、記憶手段に出力する。
これにより、カメラパラメータ推定装置は、撮影映像が三脚を利用した映像であるか否かが判定された場合に、当該判定に基づく最適なカメラパラメータの算出手段によりカメラパラメータを算出し、記憶手段に出力することができる。
このように、本願第2発明のカメラパラメータ推定装置は、三脚を利用した撮影映像か否かの初期値の設定をすることなくカメラパラメータの推定処理を実行することができる。また、近傍エッジフィッティング手段、レンズ歪係数算出手段および非剛体領域判定手段を備えることにより、精度を向上させて三脚を利用した映像か否かの判定を行うことができる。そして、この三脚を利用した映像か否かの判定により、三脚利用の映像に適したカメラパラメータ算出処理を実行できるため、不必要な計算コストの増大を抑制することができる。さらに、三脚利用か否かの判定に用いる情報を利用して、撮影映像のカメラパラメータを算出することができる。よって、本発明のカメラパラメータ推定装置は、トータルとして効率的なカメラパラメータ推定が可能となる。
なお、本願第1発明のカメラパラメータ推定装置、本願第2発明のカメラパラメータ推定装置のそれぞれは、コンピュータを、前記した各手段として機能させるためのカメラパラメータ推定プログラムで動作させることができる。
本発明によれば、三脚を利用した撮影映像か否かの初期設定をすることなく、効率的にカメラパラメータの推定をすることができる。
本実施形態に係るカメラパラメータ推定装置を含むカメラパラメータ推定システムの全体構成を示す図である。 本実施形態に係る近傍エッジフィッティング手段による近傍エッジフィッティング処理を説明するための図である。 グローバルモーションによる移動、回転を考慮したフレーム間のエッジの位置関係を示す図である。 グローバルモーションによる移動、回転を考慮したフレーム間のエッジの位置関係を示す図である。 本実施形態に係るカメラパラメータ推定装置の三脚利用判定手段が行うオクルージョン量の評価法を説明するための図である。 本実施形態に係るカメラパラメータ推定装置が行うカメラパラメータ推定処理(第1の処理例)を示すフローチャートである。 本実施形態に係るカメラパラメータ推定装置が行うカメラパラメータ推定処理(第2の処理例)を示すフローチャートである。 本実施形態に係るカメラパラメータ推定装置が行うカメラパラメータ推定処理(第3の処理例)を示すフローチャートである。 本実施形態に係るカメラパラメータ推定装置を含むカメラパラメータ推定システムの全体構成(第3の処理例の構成)を示す図である。
以下、本発明を実施するための形態(以下、「実施形態」という)について図面を参照して説明する。
まず、本実施形態に係るカメラパラメータ推定装置1が実行する処理の概要について説明する。
<概要>
本実施形態に係るカメラパラメータ推定装置1は、カメラパラメータの効率的な推定処理を実現するため、撮影映像が三脚に設置されたカメラにより撮影されたものなのか、それ以外のハンディカメラやクレーン等(以下、「手持ち等」と称する。)を利用して撮影されたものなのか、を判定した上で、三脚を利用して撮影された映像、手持ち等により撮影された映像のそれぞれにおいて推定処理手法を分別して実行する。このようにすることにより、本実施形態に係るカメラパラメータ推定装置1は、計算コストを抑え、かつ、頑健で効率的な映像解析によるカメラパラメータの推定を可能とする。
三脚を利用して撮影された映像と、手持ち等により撮影された映像とは、視差量が異なるものとなる。仮に被写体が剛体(静物)であるとし、カメラ位置に動きがある、つまり、手持ち等により撮影した場合には、撮影映像上において、カメラの動きと被写体の配置とに依存して一定以上のオクルージョン(カメラの移動に伴う視野の異なる領域)が生じる。一方、三脚を利用して撮影した場合、回転中心と、レンズ主点位置のズレに依存したオクルージョンが生じるものの僅かなものとなる。
カメラパラメータ推定装置1は、映像解析により、このオクルージョンの量を求め三脚を利用して撮影された映像か否かを判定する。このとき、カメラパラメータ推定装置1は、後記する、エッジフィッティング処理や、レンズ歪の補正、非剛体領域の判定処理を行うことにより精度向上を図る。また、オクルージョン評価の際に、撮影映像上の被写体の移動量が求まるため、これを三脚利用時のカメラパラメータとして算出する。カメラパラメータ推定装置1は、三脚を利用して撮影された映像ではない、つまり、手持ち等により撮影された映像であると判定した場合は、バンドルアジャストメントによる手法など、カメラ位置に動きのある場合の推定に適した手法を用いて処理を行う。
<カメラパラメータ推定システム>
次に、本実施形態に係るカメラパラメータ推定システムSについて説明する。
図1は、本実施形態に係るカメラパラメータ推定装置1を含むカメラパラメータ推定システムSの全体構成を示す図である。
図1に示すように、カメラパラメータ推定システムSは、カメラCaから入力された撮影映像を蓄積する映像アーカイブス1000と、映像アーカイブス1000と通信可能に接続されるカメラパラメータ推定装置1とを含んで構成される。
映像アーカイブス1000は、撮影映像を蓄積する記憶手段を備えるコンピュータにより構成される。この映像アーカイブス1000に蓄積される撮影映像には、撮影日時や、カメラの設定情報(シャッタースピードやレンズの状態)、画角、撮影対象に関する情報(被写体となる人物の名称や、撮影場所)等のメタデータが付されている。ただし、本実施形態の説明においては、映像アーカイブス1000に初期状態で記憶される撮影映像のメタデータには、カメラパラメータの情報は付されていないものとする。
なお、映像アーカイブス1000を、コンピュータ1台で構成してもよいし、複数台のコンピュータを連携させて構成してもよい。また、この映像アーカイブス1000を、カメラパラメータ推定装置1に内包させて後記する記憶手段30に備えさせるようにしてもよい。ただし、以降の本実施形態の説明においては、図1に示すように、映像アーカイブス1000とカメラパラメータ推定装置1とが外部接続されるものとして説明する。
また、この映像アーカイブス1000は、カメラCaから新たな撮影映像が蓄積される毎や、所定の時間間隔、蓄積した撮影映像の出力指示情報(カメラパラメータの付与指示情報)を外部から受け付けたこと等を契機として、蓄積した撮影映像のうち、カメラパラメータが付されていない撮影映像を、カメラパラメータ推定装置1に出力する。
≪カメラパラメータ推定装置≫
次に、カメラパラメータ推定装置1の機能構成について、図1を参照して説明する。
カメラパラメータ推定装置1は、映像アーカイブス1000から、メタデータが付された撮影映像を取得し、映像解析により、その撮影映像が三脚を利用して撮影された映像か否かを判定する。そして、カメラパラメータ推定装置1は、三脚を利用して撮影された映像と判定した場合、それ以外の手持ち等により撮影された映像と判定した場合のそれぞれに適した手法により、カメラパラメータの推定処理を実行する。カメラパラメータ推定装置1は、推定結果であるカメラパラメータを、その撮影映像のメタデータに付して、映像アーカイブス1000に出力する。
このカメラパラメータ推定装置1は、図1に示すように、制御手段10と、入出力手段20と、記憶手段30とを含んで構成される。
入出力手段20は、映像アーカイブス1000等との間の情報の入出力を行う。また、この入出力手段20は、ネットワークに接続される通信回線や専用線等を介して情報の送受信を行う通信インタフェースと、図示を省略したキーボード等の入力手段やモニタ等の出力手段等との間で入出力を行う入出力インタフェースとから構成される。
制御手段10は、カメラパラメータ推定装置1が実行する処理の全般を司り、映像取得手段101、グローバルモーション推定手段102、エッジ抽出手段103、近傍エッジフィッティング手段104、レンズ歪係数算出手段105、非剛体領域判定手段106、三脚利用判定手段107、三脚用カメラパラメータ算出手段108、手持ち用カメラパラメータ算出手段109、カメラパラメータ出力手段110を含んで構成される。なお、近傍エッジフィッティング手段104、レンズ歪係数算出手段105、非剛体領域判定手段106のそれぞれは、三脚利用か否かの判定やカメラパラメータ推定の精度をより向上させるための手段であるため、これらの手段のうちのいずれかまたはすべてを制御手段10が含まない構成であってもよい(詳細は後記する。)。また、制御手段10は、例えば、記憶手段30に格納されたプログラム(カメラパラメータ推定プログラム)を、図示を省略したCPU(Central Processing Unit)が図示を省略したRAM(Random Access Memory)に展開し実行することで実現される。
映像取得手段101は、入出力手段20を介して、映像アーカイブス1000から撮影映像を取得し、記憶手段30内の映像記憶手段300に記憶する。なお、この映像取得手段101による撮影映像の取得は、前記したように、外部に設けられた映像アーカイブス1000が送信してきた撮影映像を取得するものでもよいし、記憶手段30内に映像アーカイブス1000が設けられる場合には、記憶手段30内の映像アーカイブス1000から撮影映像を取得してもよい。
また、映像取得手段101が映像アーカイブス1000から取得する撮影映像には、メタデータが付与されている。そして、このメタデータの中には、少なくとも、三脚利用判定手段107が利用する、一連で撮影された複数のフレーム(フレーム画像)からならショット区間を表わす情報と、三脚用カメラパラメータ算出手段108が利用するレンズズーム量の情報とが含まれるものとする。なお、詳細は後記する。
グローバルモーション推定手段102は、撮影映像の特徴点を抽出し、フレーム間での対応点探索を行うことにより、画面全体の動き(移動量)を示すグローバルモーションの推定値を算出する。
具体的には、グローバルモーション推定手段102は、撮影映像(動画)をフレーム単位で静止画として取り出し、例えば、SURF(Speeded Up Robust Feature)を用いて特徴点を算出し、各フレームに対して対応点探索を行い、対応誤り除去を行う。ここでは、時系列で1つ後のフレームに対して対応点探索を行うものとする。また、対応誤り除去は、双方向(時系列で前後)で対応点探索を行い、同じ特徴点の位置に対応しない場合は誤りと判定する。
次に、グローバルモーション推定手段102は、対応する特徴点の移動量から、並進量と回転量とを求める。ここで、グローバルモーション推定手段102は、対応する特徴点間の特徴点移動ベクトルの平均値、つまり、各特徴量移動ベクトルの重心位置の移動量を並進量とする。また、グローバルモーション推定手段102は、回転量について、並進量分のオフセットを考慮した上で、画像中心を頂点として対応する特徴点間の角度の平均値を求め、回転量θとする。このグローバルモーション推定手段102が算出した並進量と回転量を、グローバルモーション推定値とし、以下において、その値を「GM1」(第1のグローバルモーション)と称する。なお、この「GM1」は、後記する「GM2」、「GM3」で示される、より精度を高めたグローバルモーション推定値と比較すると、荒い推定値を算出するものとして意味付けることができる。
なお、以下に示す説明において、グローバルモーション推定値等を算出する基準となるフレームを「Aフレーム」とし、移動量を算出するフレームを「Bフレーム」とする。そして、Aフレームのn番目の特徴点の位置(以下、「特徴点位置」「エッジ位置」と称することがある。)を(xa,ya)とし、Bフレームのn番目の特徴点位置(xb,yb)に画像中心でθ回転した上で並進量を加算したものを(xb',yb')とする。
このグローバルモーション推定手段102は、グローバルモーション推定値(並進量および回転量)の算出処理を繰り返し行う場合(2回目以降の場合)、レンズ歪係数算出手段105により直近で算出されたレンズ歪係数に基づく画像の補正を行うとともに、非剛体領域判定手段106が非剛体領域と判定したブロック内の特徴点を除外して、グローバルモーションの推定値の算出を行う。なお、詳細は後記する。
また、本実施形態においては、特徴点の抽出等の手法としてSURFを用いるものとして説明するが、特徴点抽出や、その記述方法、対応点探索の対象フレームの選択方法、対応誤り除去方法は、これに限定されるものではない。例えば、特徴点として、SIFT(Scale Invariant Feature Transform)やKAZEの利用、対象フレームの選択方法として、前後フレームや、全フレーム総当たりでの処理も適用可能である。また、対応誤り除去方法として、対応点探索範囲の限定なども利用可能である。さらに、並進量および回転量の算出についても、ホモグラフィ(射影変換)を求めることにより、並進量および回転量を算出する手法を用いてもよい。
なお、SURFについては(参考文献1)、SIFTについては(参考文献2)、KAXEについては(参考文献3)、ホモグラフィについては(参考文献4)に詳しい。
(参考文献1)H. Bay, A. Ess, T. Tuytelaars, L. V. Gool:“Speeded-Up Robust Features(SURF),” 2008, Computer Vision and Image Understanding, Vol.110, No.3, pp.346-359
(参考文献2)藤吉ほか,「Gradientベースの特徴抽出 - SIFTとHOG -」, 2007年,情報処理学会 研究報告CVIM 160, pp.211-224
(参考文献3)P. F. Alcantarilla, A. Bartoli and A. J. Davison:“KAZE Features,” In European Conference on Computer Vision (ECCV), Fiorenze, Italy, October 2012.
http://www.robesafe.com/personal/pablo.alcantarilla/papers/Alcantarilla12eccv.pdf
(参考文献4)特開2014−134856号公報
エッジ抽出手段103は、処理対象となる撮影映像の各フレームに対し、エッジ抽出を行う。エッジ抽出手段103は、例えば、sobelフィルタを用いて、輝度の勾配画像を作成し、さらにエッジを取り出すための非極大値除去を行う。
ただし、このエッジ抽出手段103のエッジ抽出処理は、このsobelフィルタを用いた手法に限定されず、輝度勾配の画像の作成にcannyフィルタを利用してもよい。また、エッジの取り出しに、輝度の絶対値をとって閾値処理するなどの手法や、細線化処理(二値化された画像において、線の中心1画素分だけ残すように線を細くする処理)を利用してもよい。なお、sobelフィルタやcannyフィルタ等を用いたエッジ抽出処理は、例えば、特開2006−170995号公報等に詳しい。
近傍エッジフィッティング手段104は、エッジ抽出手段103により抽出されたエッジ画像に対し、以下において説明するエッジフィッティング処理を行うことにより、グローバルモーション推定手段102が算出したグローバルモーション推定値を更新する。この近傍エッジフィッティング手段104による近傍エッジフィッティング処理は、グローバルモーション推定値や三脚利用判定処理等の精度をさらに向上させるために行われる。
図2は、本実施形態に係る近傍エッジフィッティング手段104による近傍エッジフィッティング処理を説明するための図である。
図2(a)は、基準となるAフレームの撮影画像を表し、図2(b)は、エッジ抽出手段103により、エッジ抽出処理がされた結果としてのAフレームのエッジ画像を表す。
ここで、近傍エッジフィッティング手段104は、以下に示すエッジフィッティング処理を行う。まず、近傍エッジフィッティング手段104は、図2(b)に示すAフレームのエッジ画像において、ラインスキャンすることによりフレーム内のエッジを探索する。そして、近傍エッジフィッティング手段104は、見つかったエッジに関して、図2(c)に示すように、隣接するエッジの情報から法線方向を求め、その法線方向に設定した法線上で最近傍のBフレームのエッジの相対的な位置を求める。なお、図2(c)において、Aフレームのエッジを実線で表し、Bフレームのエッジを破線で表している。また、近傍エッジフィッティング手段104が実行するBフレームの探索基準は、グローバルモーション推定手段102が算出した「GM1」分のオフセットをかけたものとする。
近傍エッジフィッティング手段104は、この近傍エッジフィッティング処理を、Aフレーム内のすべてのエッジに関して行う。そして、近傍エッジフィッティング手段104は、Aフレーム内の各エッジに対するBフレームにおける相対的な位置を利用し、グローバルモーション推定手段102が用いた手法と同様に、対応するエッジの移動量から、並進量と回転量とを求める。このようにすることにより、グローバルモーション推定手段102が算出した「GM1」の並進量と回転量について、さらに精度を向上させたグローバルモーション推定値を算出することができる。なお、この近傍エッジフィッティング手段104が算出した並進量と回転量で示されるグローバルモーション推定値を、以下において、「GM2」(第2のグローバルモーション)と称する。
図1に戻り、レンズ歪係数算出手段105は、それまでの直近で算出されたグローバルモーションの推定値に基づき、レンズ歪係数を算出する。
なお、このレンズ歪係数算出手段105による、レンズ歪係数算出処理も、グローバルモーション推定値や三脚利用判定処理等の精度をさらに向上させるために行うものである。
レンズ歪係数算出手段105は、まず、事前処理として、それまでの直近で算出されたグローバルモーションの推定値、つまり、近傍エッジフィッティング手段104が「GM2」を算出している場合には、その「GM2」を基準として、グローバルモーション推定手段102が算出した「GM1」での対応点の誤りを除去する。具体的には、レンズ歪係数算出手段105は、ユークリッド距離を基準とし、「GM2」の移動量を超える距離で対応点として対応付けられているエッジ点を評価対象から除外する。
続いて、レンズ歪係数算出手段105は、次に示すレンズ歪係数算出処理を実行する。
ここで、レンズ歪は、以下の式(1)で表わされる。
Figure 2016163130
この式(1)は、レンズ歪のない状態の2次元座標位置(x',y')を、歪のかかった2次元座標(x”,y”)に写像するものである。なお、「κ」は半径方向の歪係数、「p」は、円周方向(接線方向)の歪係数である。「r」は、画像中心からの距離である。
本実施形態において、レンズ歪係数算出手段105は、「κ」、「κ」のみを求めるものとする。つまり、「κ」や「p」「p」は省略し近似式とする。したがって、式(1)の近似式から、以下の式(2)、式(3)を導出できる。
Figure 2016163130
ここで、x”,y”については、エッジ位置(後記する繰り返し処理を実行した場合にはGM3を考慮した位置)から既知である。したがって、「r」についてもそれぞれの画像中心からの距離として既知であり、「κ」「κ」以外は既知となる。しかしながら、ノイズを含む等の理由から実際にこの方程式を解くことは困難である。したがって、本実施形態において、レンズ歪係数算出手段105は、レーベンバーグマーカート法を用いて最適化することにより、レンズ歪係数「κ」「κ」を算出する。
以下、この最適化について、図3および図4を参照して説明する。
図3および図4は、グローバルモーションによる移動、回転を考慮したフレーム間のエッジの位置関係を示す図である。
図3において、エッジの位置は、以下に示すものである。
(xa”,ya”)は、Aフレームにおいて検出したエッジ位置を表す。
(xb”,yb”)は、Bフレームにおいて検出したエッジ位置を表す。
(xa’,ya’)は、Aフレームにおいて検出したエッジ位置の歪を補正した位置を表す。
(xb’,yb’)は、Bフレームにおいて検出したエッジ位置の歪を補正した位置を表す。
ra、rbは、それぞれAフレーム、Bフレームの画像中心からエッジまでの距離を表わす。
ただし、以上の点は、それぞれのフレームの2次元画像の座標系を基準としたもの、つまり、画像中心を原点とするものである。
ここで、レンズ歪を補正したAフレームのn番目のエッジ位置(Pa1,Pa2)、および、レンズ歪とグローバルモーションとを補正したBフレームのn番目のエッジ位置(Pb1,Pb2)は、上記した式(2)および式(3)に基づき、以下の、式(4)〜式(7)で表わされる。
Figure 2016163130
このとき、AフレームおよびBフレームから得られるn番目のエッジ位置は、本来同一の被写体部位であり歪がなければいずれも図4の(x’,y’)となる。よって、レンズ歪を補正したAフレームのn番目のエッジ位置(Pa1,Pa2)と、レンズ歪とグローバルモーションとを補正したBフレームのn番目のエッジ位置(Pb1,Pb2)との間の距離、つまり、エッジ間の距離は「0」に収束することとなる。これに基づき、最適化の評価式が、式(8)で表わされる。ここで、評価値「C」は、エッジ間の距離の平均値を表わし、「k」は、AフレームとBフレームにおいて対応するエッジの数を表わす。
Figure 2016163130
ここで、図4の(xa”,ya”)は、Aフレームの歪補正前のエッジ位置である。
(xb''’、yb''')は、Bフレームの歪補正前の対応するエッジ位置であり、(xb”,yb”)に対し、グローバルモーションの回転、並進量を逆に射影したものである。
また、エッジ位置を示す点(Pa1,Pa2)は、(xa”,ya”)のレンズ歪を補正した座標、つまり、(xa',ya')であり、点(Pb1,Pb2)は、(xb''',yb''')のレンズ歪とグローバルモーションとを補正した座標、つまり、(xb',yb')である。
レンズ歪係数算出手段105は、このように、レーベンバーグマーカート法により最適化することで、レンズ歪係数「κ」「κ」を算出する。
図1に戻り、非剛体領域判定手段106は、各フレームの中の非剛体(例えば、人物等)の映る領域を判定する。非剛体(例えば、人物等)は、カメラの動きとは関係なくその人物自体が移動するため、非剛体を処理対象に含めると、三脚利用か否かの判定や、カメラパラメータの算出にとっては精度の低下をまねく。よって、カメラパラメータ推定装置1は、非剛体の領域を、処理対象から取り除くことにより精度を向上させる。
この非剛体領域判定手段106は、具体的には、各フレームをN×Mに分割し、各ブロックに対し、Aフレーム、Bフレームの色ヒストグラムを比較し、類似度が低いブロックを非剛体の領域と判定する。
非剛体領域判定手段106は、例えば、各フレームを16×9に分割し、ヒストグラムの比較には、色ヒストグラムインターセクションを利用し、所定の閾値(所定の第2の閾値)(例えば、「0.5」とする。)以下であれば、そのブロックが、非剛体領域であると判定する。
なお、色ヒストグラムインターセクションについては、次に示す三脚利用判定手段107においても説明するが、(参考文献5)に詳しい。
(参考文献5)M. J. Swain , D. H. Ballard,“ Color indexing,” International Journal of Computer Vision, v.7 n.1, p.11-32, Nov. 1991
三脚利用判定手段107は、それまでに求めた情報を利用し、撮影映像が三脚を利用して撮影した映像か否かを判定する。その際、三脚利用判定手段107は、それまでに求めた情報(レンズ歪係数や、非剛体領域の情報等のそれぞれ)を利用し、グローバルモーション推定手段102が推定したグローバルモーションを更新する。
具体的には、三脚利用判定手段107は、レンズ歪係数算出手段105が算出したレンズ歪係数を用いて、AフレームおよびBフレームに対し、レンズ歪の補正処理を行う。そして、三脚利用判定手段107は、非剛体領域判定手段106が非剛体領域と判定したブロック内に関しては、特徴点抽出および対応点探索の対象とせず、再度、グローバルモーション推定手段102を介して、グローバルモーション推定処理を行う。さらに、三脚利用判定手段107は、ここで算出されたグローバルモーションに基づき、近傍エッジフィッティング手段104を介して、エッジフィッティング処理を行うことにより、グローバルモーションを更新する。なお、このようにして三脚利用判定手段107により算出されたグローバルモーション推定値(並進量と回転量)を、「GM3」(第3のグローバルモーション)と称する。
続いて、三脚利用判定手段107は、レンズ歪係数算出手段105が算出したレンズ歪を補正した画像と、それ以前の最新のグローバルモーション(ここでは、「GM3」)とに基づき、AフレームとBフレームのオクルージョン量の算出を行う。
なお、以下において、まず、2つのフレーム(AフレームとBフレーム)について行う三脚利用の判定処理を説明し、その後、複数のフレームからなるショット区間での三脚利用の判定処理を説明する。
(2つのフレーム間の三脚利用判定処理)
三脚利用判定手段107は、撮影映像が三脚を利用して撮影された映像か否かの判定を、エッジ抽出手段103が抽出したエッジ画像から得られるエッジ部周辺のオクルージョン量を評価することにより行う。また、三脚利用判定手段107は、このエッジ部周辺のオクルージョン量の評価法として、色ヒストグラムインターセクションを用いる。
図5は、本実施形態に係るカメラパラメータ推定装置1の三脚利用判定手段107が行うオクルージョン量の評価法を説明するための図である。
図5(a)に示すように、エッジ画像において、エッジの存在する部位の周囲L×L画素を、Aフレーム、Bブロックそれぞれの対象エッジ近傍ブロックとする。ここで、図5(a)の左図は、レンズ歪を補正した画像であり、対象エッジ近傍ブロックである「α」の位置を表わす。また、図5(a)の右図は、レンズ歪を補正した画像であり、Aフレームの対象エッジ近傍ブロック「α」に対応する、Bフレームの対象エッジ近傍ブロック「α」の位置を表わす。なお、この対象エッジ近傍ブロック「α」の位置は、直近のグローバルモーション(ここでは「GM3」)の並進量と回転量とに基づき補正されたものである。
そして、三脚利用判定手段107は、そのAフレームとBフレームの対象エッジ近傍ブロック(「α」「α」)の色ヒストグラムの類似度(評価値)を示す色ヒストグラムインターセクションDを、以下の式(9)により求める。なお、「ha」は、Aフレームの色ヒストグラムを表わし、「hb」はBフレームの色ヒストグラムを表わす。
Figure 2016163130
このオクルージョン評価においては、対象とするエッジ近傍ブロック内のRGB各色の輝度を4つ段階のBIN(総計n=12のBIN)に量子化し、そのブロックに含まれる各画素の色からヒストグラムを作成し、Swainらの手法(前記した参考文献5)により、色ヒストグラムインターセクションを求めるものとする。ただし、本実施形態におけるエッジ周辺の類似度評価法としてSwainらの手法に限定するものではない。
三脚利用判定手段107は、前記したSwainらの手法により、図5(b)に示すような色ヒストグラムをAフレーム(左図)、Bフレーム(右図)それぞれについて求める。そして、図5(c)に示す式(前記した式(9)と同等の式)により、色ヒストグラムインターセクションDを算出する。
続いて、三脚利用判定手段107は、エッジ画像の各対象近傍ブロックにおいて算出した色ヒストグラムインターセクションDのうち、「0.5」を超えるブロックを抽出し、そのブロックの数とそのブロックの色ヒストグラムインターセクションDの値の総和を求める。そして、三脚利用判定手段107は、色ヒストグラムインターセクションDの平均値を求め、所定の閾値(所定の第1の閾値)(例えば、「0.8」)を超える場合に、三脚利用であると判定する。なお、色ヒストグラムインターセクションDの値が「0.5」以下を判定の対象外とするのは、極端に類似していない画像を取り除くことにより、誤って異なるブロックを対象ブロックとして算出していた場合や、非剛体判定に漏れがあり、非剛体自身の移動により色ヒストグラムがAフレームとBフレームとで極端に異なる場合等を排除するためである。
(ショット区間の三脚利用判定処理)
次に、三脚利用判定手段107が行う、複数のフレームからなるショット区間での三脚利用の判定処理を説明する。このショット区間での三脚利用の判定処理は、前記した2フレーム間での三脚利用の判定結果(色ヒストグラムインターセクションDの平均値)を利用して行ってもよいし、各フレームのエッジ画像の中で、エッジの強い(例えば、輝度勾配の値が大きい)順に、所定数のエッジを選択して色ヒストグラムインターセクションDを計算し、その平均値を求めるようにしてもよい。
そして、三脚利用判定手段107は、取得した撮影映像に付与されたメタデータに含まれる、ショット区間の情報(一連で撮影された複数のフレームの情報)を用いて、このショット区間のフレーム数を「n」とし、以下に示す、式(10)および式(11)を用いて、そのショット区間の映像が三脚を利用したものか否かを判定する。
Figure 2016163130
三脚利用判定手段107は、ショット区間において、そのフレームの色ヒストグラムインターセクションD(ここでは、前記した各フレームにおける「D」の平均値を、当該フレームの「D」値とする。)が、閾値Th(例えば、「0.8」)を超えるか否かを判定する。具体的には、式(10)に基づき、閾値Thを超える場合には「1」とし、閾値Th以下である場合には「0」とする。
次に、三脚利用判定手段107は、式(11)に示すように、閾値Thを超えるフレーム数、つまり、三脚利用と推定されるフレーム数を集計し、ショット区間の総フレーム数nで除算して評価値「D」を求める。そして、三脚利用判定手段107は、評価値「D」が、閾値Th(例えば、「0.9」)を超えた場合に、そのショット区間が三脚を利用して撮影されたものと判定する。
このようにすることにより、三脚利用判定手段107は、ショット区間単位で、そのショット区間内の撮影映像が三脚を利用したものか否かを判定することができる。
なお、三脚利用判定手段107は、上記の手法以外にも、例えば、次に示す手法で、ショット区間での三脚利用を判定してもよい。
三脚利用判定手段107は、該当するショット区間内で、各フレームで得られた色ヒストグラムインターセクションDの値を用いて、その色ヒストグラムインターセクションDについてのヒストグラムを作成する。なお、ここでは、前記した手法と同様の手法を用いて、フレーム内における色ヒストグラムインターセクションDの平均値を求め、その「D」の平均値を、当該フレームの「D」の値とする。また、三脚利用判定手段107は、ヒストグラムのBINとなる「D」の値(「0」〜「1」)を、例えば10等分し、各フレームの「D」の値が「0」以上「0.1」未満の「D」値をBIN「0」とし、「0.1」以上「0.2」未満の「D」値をBIN「0.1」とし、「0.2」以上「0.3」未満の「D」値をBIN「0.2」とし、・・・、「0.8」以上「0.9」未満の「D」値をBIN「0.8」とし、「0.9」以上「1.0」以下の「D」値をBIN「0.9」として、ヒストグラムを作成する。
そして、三脚利用判定手段107は、作成した各フレームの「D」値についてのヒストグラムにおいてピークとなるBINの値を、そのショット区間のオクルージョンの状態を表わすものと仮定し、そのピークとなるBINの値が、閾値ThHistDを超えた場合に、三脚利用と判定する。この閾値ThHistDの値は、実験結果では「0.8」とすることにより、安定的な判定を行うことが可能であった。
図1に戻り、三脚用カメラパラメータ算出手段108は、三脚利用判定手段107が、三脚利用と判定した撮影映像について、直近で算出されたグローバルモーション(ここでは、「GM3」)を基準に、カメラパラメータを算出する。
ここでは、三脚用カメラパラメータ算出手段108が、取得した撮影映像に付与されたメタデータに含まれるレンズズーム量と、算出された直近のグローバルモーション値(並進量と回転量)とを用いて、カメラの仰角(俯角)、方位角を算出し、カメラパラメータとして出力する。
なお、三脚用カメラパラメータ算出手段108は、仰角(俯角)、方位角の出力形式ではなく、回転行列の形式で、カメラパラメータを出力するようにしてもよい。
手持ち用カメラパラメータ算出手段109は、三脚利用判定手段107が、三脚利用でないと判定した撮影映像について、バンドルアジャストメント(前記した特許文献2参照)等によるカメラパラメータ推定処理を行う。なお、このバンドルアジャストメントでは、異なる位置から撮影した複数のフレームに含まれる対応する特徴点を解析して、その特徴点の位置を1つの収束させる処理を行い、各フレームのカメラパラメータを求める。
カメラパラメータ出力手段110は、三脚用カメラパラメータ算出手段108、または、手持ち用カメラパラメータ算出手段109により算出されたカメラパラメータの情報を、取得した撮影映像のメタデータに付し、入出力手段20を介して、映像アーカイブス1000に出力する。
<処理の流れ>
次に、カメラパラメータ推定装置1の動作について説明する。
本実施形態に係るカメラパラメータ推定装置1のカメラパラメータ推定処理について、以下3つの処理例について説明する。
「第1の処理例」は、制御手段10(図1参照)に備わる、近傍エッジフィッティング手段104、レンズ歪係数算出手段105および非剛体領域判定手段106が行う精度向上のための処理をすべて含んだカメラパラメータ推定処理である。「第2の処理例」は、算出したレンズ歪の情報を用いて映像を補正し、非剛体領域を処理対象から除外した上で、第1の処理を繰り返すことにより、カメラパラメータ推定処理の精度をさらに向上させる例である。「第3の処理例」は、制御手段10に、近傍エッジフィッティング手段104、レンズ歪係数算出手段105および非剛体領域判定手段106を備えない構成とすることにより、処理負荷を軽減し、計算速度を向上させる例である。以下、3つの処理例について具体的に説明する。
≪カメラパラメータ推定の第1の処理例≫
カメラパラメータ推定の第1の処理例は、図1に示したカメラパラメータ推定装置1の制御手段10内の各手段がすべて備わる場合の処理である。
図6は、本実施形態に係るカメラパラメータ推定装置1が行うカメラパラメータ推定処理(第1の処理例)を示すフローチャートである。
まず、カメラパラメータ推定装置1の映像取得手段101は、映像アーカイブス1000から、メタデータが付与された撮影映像を取得する(ステップS10)。
続いて、カメラパラメータ推定装置1のグローバルモーション推定手段102は、例えば、SURFを用いて撮影映像の各フレームにおいて特徴点を抽出することにより、グローバルモーション推定値を算出する(ステップS11:特徴点を利用したグローバルモーション推定処理)。このとき、グローバルモーション推定手段102は、各フレームに対して対応点探索を行い、対応誤り除去を行う。
なお、このとき、グローバルモーション推定手段102がグローバルモーション推定値として算出した並進量と回転量が「GM1」である。
次に、カメラパラメータ推定装置1のエッジ抽出手段103は、例えば、Sobelフィルタを用いて、各フレームに対し、エッジ抽出を行う(ステップS12)。
そして、カメラパラメータ推定装置1の近傍エッジフィッティング手段104は、エッジ抽出手段103により抽出されたエッジ画像に対し、図2において説明したエッジフィッティング処理を実行することにより、グローバルモーション推定手段102が算出した「GM1」について、さらに精度を向上させたグローバルモーション推定値を算出する(ステップS13:近傍エッジフィッティングによるグローバルモーション更新処理)。ここで、近傍エッジフィッティング手段104により算出される更新されたグローバルモーション推定値(並進量と回転量)が「GM2」である。
続いて、カメラパラメータ推定装置1のレンズ歪係数算出手段105は、「GM2」を基準に、グローバルモーション推定手段102が「GM1」を算出する際に求めた対応点の誤りを除去した上で、レンズ歪係数を算出する(ステップS14)。
ここで、レンズ歪係数算出手段105は、レンズ歪を補正したAフレームのエッジ位置と、レンズ歪およびグローバルモーション(GM2)を補正したBフレームのエッジ位置との距離が「0」に収束することに基づく最適化処理を行うことにより、レンズ歪係数を算出する。なお、ここで算出される評価値C(式(8)参照)は、前記したように、AフレームとBフレームの対応するエッジ間の距離の平均値を表わす。
そして、カメラパラメータ推定装置1の非剛体領域判定手段106は、各フレーム内の領域を複数のブロックに分割し、色ヒストグラムインターセクションを利用することにより、AフレームとBフレームとの類似度を評価し、所定の閾値以下であれば、そのブロックを非剛体の領域であると判定する(ステップS15)。
続いて、三脚利用判定手段107は、レンズ歪と非剛体領域に基づくグローバルモーションの更新処理を行う(ステップS16)。
具体的には、三脚利用判定手段107は、ステップS14においてレンズ歪係数算出手段105が算出したレンズ歪係数を用いて、AフレームおよびBフレームに対し、レンズ歪の補正処理を行う。そして、三脚利用判定手段107は、ステップS15において非剛体領域と判定されたブロック内に関しては、特徴点抽出および対応点探索の対象とせず、再度、グローバルモーション推定手段102を介して、グローバルモーション推定処理を行う。さらに、三脚利用判定手段107は、そこで算出されたグローバルモーションに基づき、近傍エッジフィッティング手段104を介して、エッジフィッティング処理を行うことにより、グローバルモーションを更新する。なお、ここで、三脚利用判定手段107により算出されたグローバルモーション推定値(並進量と回転量)が「GM3」である。
次に、三脚利用判定手段107は、エッジ画像から得られるエッジ部周辺のオクルージョン量を、色ヒストグラムインターセクションDを用いて評価することにより、撮影映像が三脚を利用して撮影された映像か否かを判定する(ステップS17)。このとき、三脚利用判定手段107は、撮影映像に付されたメタデータに含まれるショット区間の情報を用いて、ショット区間毎に撮影映像が三脚を利用して撮影したか否かを判定する。
そして、三脚利用判定手段107が、三脚利用と判定した場合(ステップS17→Yes)、次のステップS18に進み、三脚利用でないと判定した場合(ステップS17→No)、次のステップS19に進む。
ステップS18において、三脚用カメラパラメータ算出手段108は、撮影映像に付与されたメタデータに含まれるレンズズーム量と、「GM3」で示されるグローバルモーション値とを用いて、カメラパラメータを算出する。
一方、ステップS19において、手持ち用カメラパラメータ算出手段109は、バンドルアジャストメント(前記した特許文献2参照)等の手法を用いて、カメラパラメータを算出する。
続いて、カメラパラメータ出力手段110は、三脚用カメラパラメータ算出手段108または手持ち用カメラパラメータ算出手段109により算出されたカメラパラメータの情報を、撮影映像のメタデータに付し、映像アーカイブス1000に出力する(ステップS20)。
≪カメラパラメータ推定の第2の処理例≫
次に、カメラパラメータ推定の第2の処理例について説明する。
図7は、本実施形態に係るカメラパラメータ推定装置1が行うカメラパラメータ推定処理(第2の処理例)を示すフローチャートである。
図6に示した第1の処理例と、図7で示す第2の処理例との違いは、ステップS17の撮影映像が三脚を利用して撮影された映像か否かの判定の前に、ステップS11〜S16を繰り返すか否かの判定処理を設け、エッジ間の距離の平均値が所定の閾値以下になるまで、グローバルモーション等の更新処理を繰り返すことである。これにより三脚利用か否かの判定およびカメラパラメータ推定値の精度をさらに向上させることができる。
なお、図7においては、図6において説明した同一の処理については、同一のステップ番号を付し、説明を省略する。
まず、カメラパラメータ推定装置1は、図6と同様に、ステップS10〜S16の処理を実行することにより、三脚利用判定手段107が、グローバルモーション推定値(並進量と回転量)として「GM3」を算出する。
続いて、三脚利用判定手段107は、ステップS30において、直近で算出されたグローバルモーション(ここでは、「GM3」)での対応点(エッジ位置)に基づき、前記した式(8)で示されるエッジ間の距離の平均値(評価値「C」)を算出する。そして、三脚利用判定手段107は、そのエッジ間の距離の平均値(評価値C)が所定の閾値Th(所定の第3の閾値)(例えば、「0.8」)を超えるか否かを判定する。
ここで、所定の閾値Thを超える場合には(ステップS30→Yes)、ステップS11に戻って処理を続ける。なお、2回目以降の繰り返し処理のステップS11において、グローバルモーション推定手段102は、レンズ歪係数算出手段105により直近で算出されたレンズ歪係数に基づく画像の補正を行うとともに、非剛体領域判定手段106が非剛体領域と判定したブロック内の特徴点を除外して、グローバルモーションの推定値の算出を行う。また、ステップS12のエッジ抽出処理は、1回目に行っているため、2回目以降は実行しないようにしてもよい。それ以降の処理は、図6に示したステップS13〜S16の処理と同様である。
一方、三脚利用判定手段107は、ステップS30において、そのエッジ間の距離の平均値(評価値C)が所定の閾値Th(例えば、「0.8」)以下である場合(ステップS30→No)、撮影映像が三脚を利用して撮影された映像か否かを判定するステップS17に進む。それ以降の処理は、図6に示したステップS18〜S20の処理と同様である。
このようにすることにより、カメラパラメータ推定装置1は、エッジ間の距離の平均値で示される評価値「C」を所定の閾値Th以下まで収束させることができる。よって、カメラパラメータ推定の第2の処理例では、第1の処理例よりもさらに精度を向上させて、三脚利用か否かの判定と、カメラパラメータ推定値の算出とを実行することができる。
≪カメラパラメータ推定の第3の処理例≫
次に、カメラパラメータ推定の第3処理例について説明する。
図8は、本実施形態に係るカメラパラメータ推定装置1が行うカメラパラメータ推定処理(第3の処理例)を示すフローチャートである。
第3の処理例を実行するカメラパラメータ推定装置1の制御手段10は、図1に示した構成と比べると、図9に示すように、近傍エッジフィッティング手段104、レンズ歪係数算出手段105および非剛体領域判定手段106を備えていない。この構成の相違に伴う、図6に示した第1の処理例と、図8に示すこの第3の処理例との違いは、近傍エッジフィッティング手段104が実行するステップS13、レンズ歪係数算出手段105が実行するステップS14、非剛体領域判定手段106が実行するステップS15、および、三脚利用判定手段107が実行する、レンズ歪と非剛体領域に基づくグローバルモーションの更新処理(ステップS16)の各処理を含まない点である。
よって、図8に示すように、ステップS11においてグローバルモーション推定手段102が算出したグローバルモーション推定値(「GM1」の並進量と回転量)、および、エッジ抽出手段103が抽出したエッジ画像に基づき、三脚利用判定手段107が、そのエッジ画像から得られるエッジ部周辺のオクルージョン量に基づき、撮影映像が三脚を利用して撮影された映像か否かを判定する(ステップS17)。それ以降の処理は、図6に示したステップS18〜S20の処理と同様である。
このようにすることにより、第3の処理例を実行するカメラパラメータ推定装置1は、第1の処理例よりもさらに処理負荷を軽減し、計算速度を向上させた上で、三脚利用か否かの判定と、カメラパラメータ推定値の算出とを実行することができる。
以上説明したように、本実施形態に係るカメラパラメータ推定装置1およびカメラパラメータ推定プログラムによれば、三脚を利用した撮影映像か否かの初期設定をすることなく、効率的にカメラパラメータの推定を可能とすることができる。
つまり、三脚を利用した撮影映像か否かの初期値の設定をすることなくカメラパラメータの推定処理を自動化することができる。また、三脚を利用した映像か否かの判定を行うことにより、三脚利用の映像に適したカメラパラメータ算出処理を実行できるため、不必要な計算コストの増大を抑制することができる。さらに、三脚利用か否かの判定処理とともに、その判定に用いる情報を利用して、撮影映像のカメラパラメータを算出することができる。よって、トータルとして効率的なカメラパラメータ推定が可能となる。
なお、本発明は、ここで説明した実施形態に限定されるものではない。例えば、第3の処理例を実行する構成に加えて、カメラパラメータ推定装置1は、近傍エッジフィッティング手段104、レンズ歪係数算出手段105、非剛体領域判定手段106のいずれか1つ、または、その組み合わせを追加して制御手段10に備えるようにし、精度を向上させるようにしてもよい。また、その際に、三脚利用判定手段107が、図7のステップS30で示したように、エッジ間の距離の平均値(評価値「C」)を算出し、その値が所定の閾値Thを超える場合に、グローバルモーション値を算出する処理等を繰り返し、精度を向上させるようにしてもよい。
1 カメラパラメータ推定装置
10 制御手段
20 入出力手段
30 記憶手段
101 映像取得手段
102 グローバルモーション推定手段
103 エッジ抽出手段
104 近傍エッジフィッティング手段
105 レンズ歪係数算出手段
106 非剛体領域判定手段
107 三脚利用判定手段
108 三脚用カメラパラメータ算出手段
109 手持ち用カメラパラメータ算出手段
110 カメラパラメータ出力手段
300 映像記憶手段
1000 映像アーカイブス
S カメラパラメータ推定システム

Claims (7)

  1. 撮影カメラで撮影された撮影映像のカメラパラメータを推定するカメラパラメータ推定装置であって、
    前記撮影映像が記憶されている記憶手段から、前記撮影映像を取得する映像取得手段と、
    前記取得した撮影映像を構成するフレーム画像それぞれの特徴点を抽出し、基準となるフレーム画像において抽出された特徴点と、前記撮影カメラの動きの評価対象となる他のフレーム画像において抽出された特徴点との間で、同一の前記特徴点が対応付けられた対応点の探索を行うことにより、前記基準となるフレーム画像と前記他のフレーム画像との間の画面全体の移動量を示すグローバルモーションを推定するグローバルモーション推定手段と、
    前記フレーム画像それぞれについて、エッジの抽出を行うエッジ抽出手段と、
    前記抽出されたエッジのうち、前記フレーム画像それぞれの間において前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、当該算出した類似度が所定の第1の閾値を超えた場合に、前記撮影映像が三脚を利用した映像であると判定し、当該算出した類似度が前記所定の第1の閾値以下の場合に、前記撮影映像が三脚を利用した映像でないと判定する三脚利用判定手段と、
    前記撮影映像が三脚を利用した映像であると判定された場合に、前記推定されたグローバルモーションで示される移動量を用いて、前記カメラパラメータを算出する三脚用カメラパラメータ算出手段と、
    前記撮影映像が三脚を利用した映像でないと判定された場合に、前記フレーム画像それぞれに含まれる対応する特徴点を解析して前記カメラパラメータを算出する手持ち用カメラパラメータ算出手段と、
    前記三脚用カメラパラメータ算出手段により算出されたカメラパラメータ、または、前記手持ち用カメラパラメータ算出手段により算出されたカメラパラメータを、前記記憶手段に出力するカメラパラメータ出力手段と、
    を備えることを特徴とするカメラパラメータ推定装置。
  2. 前記基準となるフレーム画像において、前記エッジ抽出手段が抽出したエッジについて、当該エッジに隣接するエッジの情報に基づき法線方向を求め、当該法線方向に設定した法線上で最近傍の前記他のフレーム画像のエッジの位置を決定し、前記基準となるフレーム画像のエッジの位置と、前記決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、前記グローバルモーションを更新する近傍エッジフィッティング手段を、さらに備え、
    前記三脚利用判定手段は、前記近傍エッジフィッティング手段により更新されたグローバルモーションで示される移動量を用いて、前記グローバルモーション推定手段が推定したグローバルモーションでの対応点の誤りを除去した上で、前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、
    前記三脚用カメラパラメータ算出手段は、前記グローバルモーション推定手段により推定されたグローバルモーションの代わりに、前記近傍エッジフィッティング手段が更新したグローバルモーションに基づき、前記カメラパラメータを算出すること
    を特徴とする請求項1に記載のカメラパラメータ推定装置。
  3. 前記エッジ抽出手段により抽出されたエッジのうち、前記基準となるフレーム画像で検出されたエッジの位置についてレンズ歪を補正したエッジの位置と、前記他のフレーム画像で検出されたエッジの位置についてレンズ歪および前記推定されたグローバルモーションの移動量を補正したエッジの位置との、距離が0に収束するように解析する最適化処理を行うことにより、レンズ歪係数を算出するレンズ歪係数算出手段を、さらに備え、
    前記三脚利用判定手段は、
    前記フレーム画像それぞれについて、前記レンズ歪係数算出手段が算出したレンズ歪係数に基づく補正を行った上で、前記グローバルモーションを更新するとともに、前記フレーム画像それぞれの間において前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、
    前記三脚用カメラパラメータ算出手段は、前記グローバルモーション推定手段により推定されたグローバルモーションの代わりに、前記三脚利用判定手段により更新された前記グローバルモーションに基づき、前記カメラパラメータを算出すること
    を特徴とする請求項1に記載のカメラパラメータ推定装置。
  4. 前記フレーム画像それぞれを所定領域のブロックに分割し、前記基準となるフレーム画像のブロックと、それに対応する前記他のフレーム画像のブロックとの類似度を算出し、当該算出した類似度が所定の第2の閾値以下である場合に、前記他のフレーム画像のブロックを非剛体領域であると判定する非剛体領域判定手段を、さらに備え、
    前記三脚利用判定手段は、前記非剛体領域判定手段が判定した非剛体領域のブロックに含まれる特徴点を対象とせず、前記グローバルモーション推定手段を介して前記グローバルモーションを更新するとともに、前記非剛体領域のブロックに含まれる対応点を処理対象とせずに、前記フレーム画像それぞれの間において前記対応点となる当該エッジの周辺を示す所定領域の画像の類似度を算出し、
    前記三脚用カメラパラメータ算出手段は、前記グローバルモーション推定手段により推定されたグローバルモーションの代わりに、前記三脚利用判定手段により更新された前記グローバルモーションに基づき、前記カメラパラメータを算出すること
    を特徴とする請求項1に記載のカメラパラメータ推定装置。
  5. 撮影カメラで撮影された撮影映像のカメラパラメータを推定するカメラパラメータ推定装置であって、
    前記撮影映像が記憶されている記憶手段から、前記撮影映像を取得する映像取得手段と、
    前記取得した撮影映像を構成するフレーム画像それぞれの特徴点を抽出し、基準となるフレーム画像において抽出された特徴点と、前記撮影カメラの動きの評価対象となる他のフレーム画像において抽出された特徴点との間で、同一の前記特徴点が対応付けられた対応点の探索を行うことにより、前記基準となるフレーム画像と前記他のフレーム画像との間の画面全体の移動量を示す第1のグローバルモーションを推定するグローバルモーション推定処理を行うグローバルモーション推定手段と、
    前記フレーム画像それぞれについて、エッジの抽出を行うエッジ抽出手段と、
    前記基準となるフレーム画像において、前記エッジ抽出手段が抽出したエッジについて、当該エッジに隣接するエッジの情報に基づき法線方向を求め、当該法線方向に設定した法線上で最近傍の前記他のフレーム画像のエッジの位置を決定し、前記基準となるフレーム画像のエッジの位置と、前記決定した他のフレーム画像のエッジの位置とから得たエッジの移動量を用いて、第2のグローバルモーションを算出する近傍エッジフィッティング手段と、
    前記第2のグローバルモーションで示される移動量を用いて、前記グローバルモーション推定手段が推定した前記第1のグローバルモーションでの対応点の誤りを除去した上で、前記エッジ抽出手段により抽出されたエッジのうち、前記基準となるフレーム画像で検出されたエッジの位置についてレンズ歪を補正したエッジの位置と、前記他のフレーム画像で検出されたエッジの位置についてレンズ歪および前記第2のグローバルモーションの移動量を補正したエッジの位置との、距離が0に収束するように解析する最適化処理を行うことにより、レンズ歪係数を算出するレンズ歪係数算出手段と、
    前記フレーム画像それぞれを所定領域のブロックに分割し、前記基準となるフレーム画像のブロックと、それに対応する前記他のフレーム画像のブロックとの類似度を算出し、当該算出した類似度が所定の第2の閾値以下である場合に、前記他のフレーム画像のブロックを非剛体領域であると判定する非剛体領域判定手段と、
    前記フレーム画像それぞれについて、前記レンズ歪係数算出手段が算出したレンズ歪係数に基づく補正を行った上で、前記非剛体領域判定手段が判定した非剛体領域のブロックに含まれる特徴点を対象とせず、前記グローバルモーション推定手段を介して前記第2のグローバルモーションを更新し第3のグローバルモーションを算出するとともに、前記フレーム画像それぞれの間において前記対応点となる前記エッジの周辺を示す所定領域の画像の類似度を算出し、当該算出した類似度が所定の第1の閾値を超えた場合に、前記撮影映像が三脚を利用した映像であると判定し、当該算出した類似度が前記所定の第1の閾値以下の場合に、前記撮影映像が三脚を利用した映像でないと判定する三脚利用判定処理を行う三脚利用判定手段と、
    前記撮影映像が三脚を利用した映像であると判定された場合に、前記第3のグローバルモーションで示される移動量を用いて、前記カメラパラメータを算出する三脚用カメラパラメータ算出手段と、
    前記撮影映像が三脚を利用した映像でないと判定された場合に、前記フレーム画像それぞれに含まれる対応する特徴点を解析して前記カメラパラメータを算出する手持ち用カメラパラメータ算出手段と、
    前記三脚用カメラパラメータ算出手段により算出されたカメラパラメータ、または、前記手持ち用カメラパラメータ算出手段により算出されたカメラパラメータを、前記記憶手段に出力するカメラパラメータ出力手段と、
    を備えることを特徴とするカメラパラメータ推定装置。
  6. 前記三脚利用判定手段は、
    前記フレーム画像それぞれについて、前記レンズ歪係数算出手段が算出したレンズ歪係数に基づく補正を行った上で、前記非剛体領域判定手段が判定した非剛体領域のブロックに含まれる特徴点を対象とせずに、前記エッジの位置の間の前記距離が0に収束するように解析する最適化処理を再度行い、当該最適化処理により求まる前記エッジ間の前記距離が所定の第3の閾値を超えるか否かを判定し、
    前記所定の第3の閾値を超えた場合に、前記レンズ歪係数算出手段により直近で算出されたレンズ歪で前記フレーム画像を補正するとともに、前記非剛体領域判定手段が直近で判定した非剛体領域のブロックに含まれる特徴点を対象とせずに、前記グローバルモーション推定手段による前記グローバルモーション推定処理に戻り、前記三脚利用判定手段が、前記エッジ間の前記距離が前記所定の第3の閾値以下になるまで、前記グローバルモーション推定処理に戻る処理を繰り返し、前記エッジ間の前記距離が前記所定の第3の閾値以下になった場合に、前記三脚利用判定処理を行うこと
    を特徴とする請求項5に記載のカメラパラメータ推定装置。
  7. コンピュータを、請求項1乃至6のいずれか一項に記載のカメラパラメータ推定装置として機能させるためのカメラパラメータ推定プログラム。
JP2015038511A 2015-02-27 2015-02-27 カメラパラメータ推定装置およびカメラパラメータ推定プログラム Active JP6427038B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015038511A JP6427038B2 (ja) 2015-02-27 2015-02-27 カメラパラメータ推定装置およびカメラパラメータ推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015038511A JP6427038B2 (ja) 2015-02-27 2015-02-27 カメラパラメータ推定装置およびカメラパラメータ推定プログラム

Publications (2)

Publication Number Publication Date
JP2016163130A true JP2016163130A (ja) 2016-09-05
JP6427038B2 JP6427038B2 (ja) 2018-11-21

Family

ID=56845563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015038511A Active JP6427038B2 (ja) 2015-02-27 2015-02-27 カメラパラメータ推定装置およびカメラパラメータ推定プログラム

Country Status (1)

Country Link
JP (1) JP6427038B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447022A (zh) * 2018-11-08 2019-03-08 北京奇艺世纪科技有限公司 一种镜头类型识别方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346099A (ja) * 2000-05-31 2001-12-14 Matsushita Electric Ind Co Ltd 実写映像データ蓄積装置、該装置を備えた映像合成システムおよび合成映像制作システム
JP2009237845A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2014155121A (ja) * 2013-02-12 2014-08-25 Canon Inc 画像処理装置、撮像装置、制御方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346099A (ja) * 2000-05-31 2001-12-14 Matsushita Electric Ind Co Ltd 実写映像データ蓄積装置、該装置を備えた映像合成システムおよび合成映像制作システム
JP2009237845A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2014155121A (ja) * 2013-02-12 2014-08-25 Canon Inc 画像処理装置、撮像装置、制御方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447022A (zh) * 2018-11-08 2019-03-08 北京奇艺世纪科技有限公司 一种镜头类型识别方法及装置
CN109447022B (zh) * 2018-11-08 2021-04-09 北京奇艺世纪科技有限公司 一种镜头类型识别方法及装置

Also Published As

Publication number Publication date
JP6427038B2 (ja) 2018-11-21

Similar Documents

Publication Publication Date Title
KR100793838B1 (ko) 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP4377932B2 (ja) パノラマ画像生成装置およびプログラム
KR101811718B1 (ko) 영상 처리 방법 및 장치
US20120249826A1 (en) Image selection device and image selecting method
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
US20190355123A1 (en) Apparatus and methods for image processing
JP2016123044A (ja) 被写体追跡装置、その制御方法およびプログラム
JP2008217526A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP2020088647A (ja) 情報処理装置、情報処理方法及びプログラム
JP2010093343A (ja) カメラワーク最適化プログラム、撮像装置及びカメラワーク最適化方法
JP2015121524A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6178646B2 (ja) 撮像装置及び像振れ補正処理方法
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP6427038B2 (ja) カメラパラメータ推定装置およびカメラパラメータ推定プログラム
CN107680083B (zh) 视差确定方法和视差确定装置
GB2537831A (en) Method of generating a 3D representation of an environment and related apparatus
JP6080424B2 (ja) 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP2004206320A (ja) 画像認識装置および方法
JP2019020839A (ja) 画像処理装置、画像処理方法、及びプログラム
US10430971B2 (en) Parallax calculating apparatus
JP5590680B2 (ja) 映像合成装置、映像合成方法、および映像合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181026

R150 Certificate of patent or registration of utility model

Ref document number: 6427038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250