JP2017005380A - 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 - Google Patents

制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP2017005380A
JP2017005380A JP2015115082A JP2015115082A JP2017005380A JP 2017005380 A JP2017005380 A JP 2017005380A JP 2015115082 A JP2015115082 A JP 2015115082A JP 2015115082 A JP2015115082 A JP 2015115082A JP 2017005380 A JP2017005380 A JP 2017005380A
Authority
JP
Japan
Prior art keywords
information
image
dimensional
unit
image stabilization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015115082A
Other languages
English (en)
Other versions
JP6570327B2 (ja
Inventor
秀敏 椿
Hidetoshi Tsubaki
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015115082A priority Critical patent/JP6570327B2/ja
Priority to US15/173,067 priority patent/US9832432B2/en
Publication of JP2017005380A publication Critical patent/JP2017005380A/ja
Application granted granted Critical
Publication of JP6570327B2 publication Critical patent/JP6570327B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Physics & Mathematics (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)

Abstract

【課題】手持ち撮影における動きブレやローリングシャッタ歪の影響を低減した、高品質かつ高精度な3Dモデリングや空間マッピングを実現可能な制御装置を提供する。
【解決手段】制御装置は、被写体像の奥行き情報を取得する奥行き情報取得部(3)と、装置の位置情報または姿勢情報を取得する位置姿勢取得部(8)と、装置の光学防振状態に関する情報と、奥行き情報と、位置情報または姿勢情報とに基づいて、3次元情報を生成する画像処理部(7、9)とを有する。
【選択図】図1

Description

本発明は、3Dデータをモデリング可能な撮像装置に関する。
手持ちカメラにより取得した画像情報や2次元奥行き情報を利用して、3Dモデリングや空間マッピングを実現することが望まれている。このとき、光学防振制御(IS制御)を用いると、手振れによる像の動きボケや動き歪を低減することができ、これによる3Dモデルや空間マップの劣化を抑制可能である。光学防振制御は、特に、光量が不足している室内、曇天、夜間などの撮影シーンで有効である。
特許文献1には、光学防振制御を用いてローリングシャッタ歪を補正し、かつ、動きボケを抑制する撮像システムが開示されている。特許文献2には、1つの視野に収まらないような大きな被写体を撮影、または接写する必要がある場合、複数の部分的な3次元モデルを組み合わせて3次元モデルを生成する装置が開示されている。特許文献3には、画像や奥行き情報を撮影した瞬間のカメラの位置や姿勢情報またはある起点からの変化情報を計測もしくは計算し、統合処理に利用する方法が開示されている。撮影画像やカメラに組み込まれた姿勢センサ情報を利用して、撮影時のカメラの位置や姿勢を計算する手法は、自己位置推定と呼ばれる。
米国特許第8471915号 特開2014−110043号公報 特表2014−511591号公報
しかし、特許文献2、3に開示されているようにカラー画像と奥行き距離情報を含む画像を統合して3Dモデリングを行う場合、光学防振制御をオンにすると、各視点で撮影したRGBデータを統合座標空間に逆射影してマージしようとしてもずれが生じる。これは、透視投影により生じて光学防振の状態に依存するパースが幾何学的におかしくなるためである。また、カメラの位置姿勢変化を画像から推定する場合、正しく推定できなくなるため、光学防振制御を実行しながら3Dモデリングの品質を向上することは難しい。
そこで本発明は、手持ち撮影における動きブレやローリングシャッタ歪による影響を低減した、高品質かつ高精度な3Dモデリングや空間マッピングを実現可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供する。
本発明の一側面としての制御装置は、被写体像の奥行き情報を取得する奥行き情報取得部と、装置の位置情報または姿勢情報を取得する位置姿勢取得部と、前記装置の光学防振状態に関する情報と、前記奥行き情報と、前記位置情報または前記姿勢情報とに基づいて、3次元情報を生成する画像処理部とを有する。
本発明の他の側面としての撮像装置は、光学系を介して形成された被写体像を光電変換して画像信号を出力する撮像素子と、前記被写体像の奥行き情報を取得する奥行き情報取得部と、撮像装置の位置情報または姿勢情報を取得する位置姿勢取得部と、前記撮像装置の光学防振状態に関する情報と、前記奥行き情報と、前記位置情報または前記姿勢情報とに基づいて、3次元情報を生成する画像処理部とを有する。
本発明の他の側面としての制御方法は、被写体像の奥行き情報を取得するステップと、装置の位置情報または姿勢情報を取得するステップと、前記装置の光学防振状態に関する情報を取得するステップと、前記奥行き情報と、前記位置情報または前記姿勢情報と、前記光学防振状態に関する情報とに基づいて、3次元情報を生成するステップとを有する。
本発明の他の側面としてのプログラムは、被写体像の奥行き情報を取得するステップと、装置の位置情報または姿勢情報を取得するステップと、前記装置の光学防振状態に関する情報を取得するステップと、前記奥行き情報と、前記位置情報または前記姿勢情報と、前記光学防振状態に関する情報とに基づいて、3次元情報を生成するステップと、をコンピュータに実行させるように構成されている。
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、手持ち撮影における動きブレやローリングシャッタ歪の影響を低減した、高品質かつ高精度な3Dモデリングや空間マッピングを実現可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。
第1実施形態における撮像装置のブロック図である。 第1実施形態におけるボクセル生成による3Dデータ生成の説明図である。 第1実施形態における光学防振のピンホールカメラモデルに及ぼす影響の説明図である。 各実施形態における撮像素子の単位画素セルの構成図である。 各実施形態における撮像素子のカラーフィルタの配列図である。 第1実施形態における光学防振の影響を考慮した逆射影の説明図である。 第1実施形態における逆射影による3Dモデル統合の説明図である。 第1実施形態におけるRGBD画像データから3Dモデルを復元する処理を示すフローチャートである。 第2実施形態における撮像装置のブロック図である。 第2実施形態におけるRGBD画像情報を用いた撮像装置の姿勢の算出処理を示すフローチャートである。 第2実施形態におけるブロックマッチングの説明図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
(第1実施形態)
まず、図1を参照して、本発明の第1実施形態における撮像装置について説明する。図1は、本実施形態における撮像装置100のブロック図である。撮像装置100は、3次元データをモデリング可能であり、光学系1、撮像素子2、奥行き情報取得部3、振れ情報取得部4、光学防振制御部5、光学防振制御監視部6、前処理部7、位置姿勢取得部8、および、3次元情報復元部9を有する。本実施形態において、主に画像情報を対象とした処理を行う前処理部7および3次元情報復元部9により、画像処理部が構成される。また撮像装置100は、各部を制御するCPU12(制御部)を有する。
光学系1(撮影光学系)は、被写体10からの光を撮像素子2上に結像させるコンポーネントであり、例えば、複数のレンズおよびミラーから構成される。光学系1は、複数のレンズのうちの一部のレンズからなる補正部材11(補正レンズなどの防振機構)を含む。補正部材11は、撮像装置100の手振れなどに起因する像ブレを光学的に補正する光学防振機構を構成する。撮像装置100は、補正部材11を光軸OAと直交する方向に移動(平行移動)させることにより、撮像素子2上に形成される光学像(被写体像)の位置を移動(平行移動)させ、撮像装置100の揺れ(振れ)による像の揺れ(像ブレ)を低減する。光学系1がズームレンズの場合、焦点距離などの可変パラメータは、CPU12の内部メモリなどに記録され保持されている。
撮像素子2は、光学系1を介して撮像面上に結像(形成)された光学像を光電変換して、電子像(画像信号)を出力する。撮像装置100は、光学系1に設けられた補正部材11を用いて像ブレ補正を行うが、本実施形態はこれに限定されるものではない。例えば、補正部材11に代えて、撮像素子2がピエゾ素子などの機械的駆動部品からなる像ブレ補正を行う補正部材(防振機構)を含むように構成してもよい。このとき撮像素子2は、光学系1の光軸OAに直交する面内において平行移動を行うことにより、像ブレ補正(防振動作)が可能である。また、撮像素子2から画像信号として出力される像の範囲を制御し、電子的に手振れによる振動を防振する防振機構を代替的に備えてもよい。
奥行き情報取得部3は、撮像素子2と組み合わせて、画像情報の画素ごとに対応する2次元奥行き情報を取得する。例えば、撮像素子2は、1つのマイクロレンズMLに対して複数の画素を有し、マイクロレンズMLが2次元状に配列されている。このような構成において、撮像素子2は、瞳分割された一対の光束を光電変換して、一対の信号(瞳分割像)を出力可能である。奥行き情報取得部3は、撮像素子2から出力された瞳分割像を取得し、取得した2つの瞳分割像の間の位相差に基づいて画像信号の相関演算を行い、2次元奥行き情報を決定する。
続いて、図4を参照して、撮像素子2の構造について説明する。図4は、撮像素子2の単位画素セル(画素群)の構成図である。本実施形態において、撮像素子2は、1つのマイクロレンズMLを共有する複数の光電変換部PDを有する。図4(a)は、単位画素セルの断面図である。図4(b)、(c)はそれぞれ、1つのマイクロレンズMLを共有する光電変換部の数が2つまたは4つの場合(2分割または4分割した光電変換部PDが1つのマイクロレンズMLを共有する場合)における単位画素セルの正面図である。
図4(a)に示されるように、1つのマイクロレンズMLに対応する画素群により構成される単位画素セル401は、光電変換部402、403、マイクロレンズML、カラーフィルタCF、および、配線層WLを有する。画素群を2分割した場合、単位画素セル401において、図4(b)に示されるように2つの光電変換部402、403が配列される。また、画素群を4分割した場合、単位画素セル401において、図4(c)に示されるように4つの光電変換部402、403、404、405が配列される。図4(b)、(c)のいずれの配列においても、光学系1を介して撮像素子2に入射した光(入射光)は、マイクロレンズMLを通過し、カラーフィルタCFにより分光特性を持ち、それぞれの光電変換部に照射される。カラーフィルタCFは、一定周期の繰り返しで単位画素セル単位ごとに配列される。
図5は、カラーフィルタCFの配列図であり、図4(b)に示されるように画素群を2分割した場合(光電変換部402、403が1つのマイクロレンズMLを共有する場合)の例を示している。カラーフィルタCFの配列は、赤(R)、緑(G)、緑(G)、青(B)のセットが周期的に配列された、一般的なベイヤー配列の場合を示している。光電変換部402(1つのマイクロレンズMLを共有する一方の分割PD)から出力される像をA像、光電変換部403(1つのマイクロレンズMLを共有する他方の分割PD)から出力される像をB像とする。図5において、例えば赤のカラーフィルタに対応して配置された光電変換部402、403は、それぞれ、RA、RBと表記されている。なお、撮像素子2の構造および特徴は、単位画素セル401が分割構造であることを除いて、一般的な撮像素子と同様である。
光学系1により構成される主光学系(主レンズ)に対し、マイクロレンズMLは視野レンズの役割を果たす。このため、各光電変換部(分割PD)に到達する射出瞳からの光束は制限され、それぞれ各光電変換部上に射出瞳の互いに異なる領域(瞳分割領域)を通過した光束が到達する。このため、単位画素セル401において、同一配列の画素、例えば光電変換部402のみの画素を受光領域の全体から集めて構成した画像と、光電変換部403のみの画素を集めて構成した画像との間には、視差が生じる。このような画像間の視差を利用することにより、焦点検出やステレオ画像処理が可能となる。このように視差を有する画像は視差画像と呼ばれる。
また、一般的な太陽光などのコヒーレンスの低い光を照明とする撮影照明条件、および、民生光学素子を利用する条件の下では、分割瞳間の空間コヒーレンシーは低いとみなすことが可能である。このため、単位画素セル401中の各光電変換部、例えば2分割した光電変換部402、403の間、または、4分割した光電変換部402、403、404、405の間の画素値を加算して得られる画像は、従来の非瞳分割光学系で撮影した像と略等価となる。このような加算画像(分割PDの画素値を加算して得られた画像)は、前処理部7などの画像処理部による画像処理を介することにより、従来の撮像素子を用いた場合と同様の画像(撮影画像)として得られる。
本実施形態において、奥行き情報取得部3から出力される2次元奥行き情報は、撮像素子2からの通常の出力である輝度または例えばRGBカラー画像に対して縮小されたサイズであってもよい。奥行き情報取得部3は、TOF法、構造化光法、または、DFD法などの手法により2次元奥行き情報を決定するが、本実施形態はこれらに限定されるものではない。
例えば、奥行き情報取得部3が赤外線(IR)パルスを飛ばす飛行時間(TOF)法を用いる場合、撮像装置100は発光部(不図示)を備え、赤外光を撮像空間に向けて発光し、撮像空間における1つ以上の物体表面からの後方散乱光を検出するように構成される。また例えば、撮像素子2は、R、G、B画素以外に感度を持つIR画素を設けてもよい。そして奥行き情報取得部3は、例えば、パルス状の赤外光を発光部から発光し、撮像素子2に到着して検波された射出光パルスと対応する到着光パルスとの間の時間を算出し、撮像装置100から被写体空間における物体位置までの物理的な距離を測定する。または、奥行き情報取得部3は、例えば、発光部からの射出光の位相を、到着光の位相と比較して、位相ずれを判定してもよい。この位相ずれを用いて、例えば散乱光パルス撮像(shutterd light pulse imageng)を含む種々の手法により、経時的に反射光ビームの強度を分析することができる。これにより、撮像装置100から物体位置までの物理距離をさらに精度よく測定することが可能となる。
また例えば、奥行き情報取得部3は、構造光に基づいて奥行き情報を決定する方法を採用してもよい。この手法では、パターン化光(例えば、スポット、格子、または、縞模様パターンなどの既知のパターンを有する光であり、これらは時間的に可変であってもよい)を、発光部(不図示)を用いて撮像空間に向けて投影する。シーン中の物体表面に衝突すると、このパターンは変形する。奥行き情報取得部3は、このようなパターンの変形像を分析して、撮像装置100からシーンまでの絶対的な距離または相対的な距離を測定する。
また例えば、奥行き情報取得部3は、同一画角のピント位置の異なる2つ以上の画像を比較し、画像の画角領域ごとの被写体の距離情報を取得する方法を採用してもよい。このような方法としては、エッジ差分で距離を推定する方法や、DFD(Depth From Defocus)を用いる方法などがある。
また奥行き情報取得部3は、撮像素子2の通常の画素配列中に、位相差による焦点検出が可能な瞳分割された画素(焦点検出用画素)を設け、焦点検出用画素からの出力に基づいて距離を測定し、補完により2次元距離情報を形成してもよい。または、撮像素子2とは別に距離測定のための測距センサ(焦点検出センサ)を設けていてもよい。例えば、レーザレンジファインダなどの距離測定のための測距センサを設けることができる。
振れ情報取得部4は、ジャイロ、加速度センサ、地磁気コンパス、または、傾斜センサなどの姿勢センサを備え、撮像装置100の位置や姿勢の変化情報を計測する。姿勢センサは、光学系1の複数の軸方向における位置や姿勢の変化を検出する。例えばジャイロは、光軸OAに直交するヨー方向とピッチ方向、および、光軸OAに平行なロール方向のそれぞれにおける姿勢の変化を検出する。軸ごとの姿勢センサを設ける代わりに、複数の軸方向における姿勢を検出可能な多軸姿勢センサを用いてもよい。CPU12を用いて姿勢センサの出力信号を積分し、振れ情報取得部4は、画像出力のフレームレートに同期させて姿勢変化量(位置変化量)を出力するように構成してもよい。または、ジャイロや加速度センサの情報を組み合わせることにより、振れ情報取得部4は、より精度を高めた姿勢変化量(位置変化量)を出力してもよい。位置精度を向上させるため、GPSなどを組み合わせてもよい。
光学防振制御部5は、変位素子を備えて構成され、光学防振を行うレンズ(補正レンズとしての補正部材11)を光軸OAに直交する方向においてシフトさせる。光学防振制御部5は、振れ情報取得部4により得られた撮像装置100の姿勢変化(位置変化)、換言するとカメラワークに基づいて、光学系1の一部のレンズ(補正部材11)をシフトさせて防振制御を行う。具体的には、光学防振制御部5は、電磁素子などを用いて防振制御を行う。光学防振制御部5は、振れ情報取得部4から出力された姿勢変化(位置変化)に関する情報(位置や姿勢の変化情報)に対して、時系列処理、具体的には積分を行い、画像上の動きを打ち消すように開ループ処理を行うことにより光学防振制御を実現する。積分処理には、例えばIIRなどのフィルタ処理が用いられる。光学防振制御部5は、カットオフ周波数や還流(フィードバック)ゲインなどを調整し、または、オフセット減算を施すことにより、防振周波数特性や低域成分逃しの特性などを調整することができる。補正部材11が撮像素子2に設けられる場合、光学防振制御部5は、光学系1の一部のレンズ(補正レンズ)に代えて、撮像素子2の平行移動(光軸OAに直交する方向における移動)を制御する。
光学防振制御監視部6は、ホール素子やエンコーダなどを備えて構成され、補正部材11の平行移動(移動量)を計測し、計測値を出力する。なお、計測値として高い精度が必要とされない場合、光学防振制御部5から出力される補正部材11の制御情報を直接変換して計測値を取得してもよい。光学防振制御情報(計測値)は、撮像素子2における画像取得タイミングに同期してサンプリングされ、画像情報とセットで記録される。
前処理部7は、撮像素子2から出力された画像信号を1枚もしくは1フレームの輝度画像、または、RGBカラー画像に変換する処理を行う。前処理部7は、フロントエンド処理を行うフロントエンド部と、バックエンド処理を行うバックエンド部とを備えて構成されている。フロントエンド部は、撮像素子2からの画像信号(アナログ画像信号)に対して、相二重サンプリング(CDS)によるノイズ除去、オートゲインコントロール(AGC)でのゲインアップによる露出制御、黒レベル補正、A/D変換などの基礎的な処理を行う。これにより、フロントエンド部は、アナログ画像信号をデジタル信号に変換し、デジタル画像信号を生成する。フロントエンド部は、主に、アナログ画像信号に対する前処理を行うため、フロントエンド部の主要部はAFE(アナログフロントエンド)とも呼ばれる。また、デジタル出力センサと対で用いられるフロントエンド部は、DFE(デジタルフロントエンド)と呼ばれる。
前処理部7のバックエンド部は、ベイヤー配列補間、線形化マトリクス処理、ホワイトバランス調整、YCC変換、色差・諧調・コントラスト補正、エッジ強調などのデジタル画像信号に対するバックエンドの画像処理(バックエンド処理)を行う。バックエンド部は、更に、複数枚の画像合成により広ダイナミックレンジ画像を生成するダイナミックレンジ拡張処理や超解像処理などの画像処理を行ってもよい。バックエンド処理は、フロントエンド部のAFE処理に対してDBE(デジタルバックエンド)処理と呼ばれる。前処理部7は、フロントエンド処理およびバックエンド処理を行うことにより、1枚の画像(静止画)または動画を形成する出力画像情報を生成する。本実施形態において、前処理部7により生成された輝度画像またはカラー画像(RGB画像)と、奥行き情報取得部3により取得された2次元奥行き情報とをまとめて、RGBD画像情報という。
位置姿勢取得部8(カメラ位置姿勢取得部)は、振れ情報取得部4により取得された撮像装置100(カメラ)の姿勢変化量(位置変化量)に基づいて、各フレーム撮影の際における撮像装置100の姿勢(姿勢情報)または位置(位置情報)を決定する。また位置姿勢取得部8は、前処理部7から出力されるRGBD画像情報を用いて、撮像装置100の姿勢または位置の精度を向上させてもよい。その際、RGBD画像情報に施されている光学防振の影響を除くため、位置姿勢取得部8は、光学防振制御監視部6から出力される光学防振制御情報を用いる。以降、本実施形態では、各フレーム撮影の際における撮像装置100の姿勢(位置)は、ある撮影フレームを基点として撮像装置100の姿勢変化量(位置変化量)の単純積分により得られる姿勢(位置)として説明する。
3次元情報復元部9は、3次元(3D)モデルデータまたは環境マップデータを生成する。このデータは、前処理部7から出力されるRGBD画像情報、位置姿勢取得部8から出力される各フレーム撮影の際における撮像装置100の姿勢情報(位置情報)、および、光学防振制御監視部6から出力される光学防振制御情報に基づいて生成される。
次に、3次元環境の再現について説明する。一例としては、現実世界環境の3Dモデルを、メモリー・デバイス上に格納されているボクセルで構成された3D立体空間において生成する。このモデルは、撮像装置100の位置および方向を記述するデータ、ならびに撮像装置100から被写体環境における1点までの距離を示す画素を有する奥行き画像から構築される。立体空間である被写体空間を形成するボクセルごとに、その存在や値を順次計算する。ボクセルごとに、RGBD画像データを撮影した撮像装置100を総当たりし、撮像装置100の位置および方向を用いて、それと関連付けられるボクセルについて対応する奥行き画像およびその画素位置を判定する。そして、関連付けられたボクセルと被写体空間内の対応する位置における点との間の距離に関係する係数を決定し、この係数を用いて、関連付けられたボクセルにおいて格納されている値を更新する。このとき、撮影の際における過程を透視投影と仮定したピンホールモデルに基づき、その逆プロセスである逆射影により、ボクセル位置との関係を判定する。撮像装置100の総当たり処理により、ボクセルが可視状態にあるRGBD画像データにより更新され、最終的なボクセル値が得られる。そして、立体空間の残りの空間における同等のボクセルごとに反復し、格納されている値を更新するプロセスを繰り返すことにより、現実世界環境の3Dモデルをボクセル表現として得ることができる。
一般に、3Dモデル表現には様々な表現方法がある。例えば、ボクセルの集合体として再構成した3D離散モデルであるヴォリュームモデルや、幾何モデルの中で3D形状を単純な立体形状の組み合わせで表すソリッドモデルがある。また、自由曲面をスプライン曲線による曲線パッチの多面体で近似するスプラインパッチや、頂点と三角形で物体表面を近似する3Dメッシュモデルなどがある。これらの表現方法は、一般に相互に変換可能であり、また本実施形態におけるボクセル表現のように、RGBD画像からの生成が可能である。このため本実施形態においては、他の3D表現方法による作成に関する説明は省略する。
図2は、本実施形態におけるボクセル生成による3Dデータ生成の説明図である。図2は、空間点であるボクセル201、カメラ202(撮像装置100に相当)、および、RGBD画像である各画素203の関係を示している。ボクセル201、カメラ202、および、画素203に関して総当たりの探索を行うことにより、2.5Dデータを統合した3Dモデルデータを生成することができる。
なお、光学防振を併用しない基本的なRGBD画像および同期記録したカメラ位置姿勢データからの現実世界環境の3Dモデルデータの生成、特にボクセルデータ生成に関しては、特表2014−511591号公報に詳述されているため、その詳細は省略する。また、前述の3Dモデルデータの生成については、説明の単純化のため、空間中の3次元点(ボクセル)、撮影したRGBD画像、撮影した各RGBD画像中の各画素について、総当たりでループを回し、順次処理する手順にて説明を行った。ただし、特表2014−511591号公報に示されるように、ボクセルごとに並列処理を行う場合や、データの類似計算をまとめて実施する場合、処理の軽量化が可能であり、処理のバリエーションは本実施形態に限定されるものではない。
3次元情報復元部9における現実世界環境の3Dモデルデータ生成の説明に関して、奥行き画像の画素と、3次元空間の画素に相当するボクセルとの対応付けにおいては、撮影時の過程を透視投影と仮定し、ボクセル位置との関係を逆射影により関係付けている。光学防振制御を行わない場合、これは光学的に正しく動作する。一方、光学防振制御を行う場合、図3に示されるように、撮影時に光学防振が想定通りに動作しない。
図3は、本実施形態における光学防振のピンホールカメラモデルに及ぼす影響の説明図である。図3(a)は、防振制御を実行していない光学系1の状態、図3(b)は防振制御を実行し、画像を光軸OAと直交する方向にシフトさせた状態をそれぞれ示している。図3(c)は、図3(a)に示される状態(防振制御を実行していない状態)において、光学系1をピンホールモデルに置き換えた図を示している。光線301の交点302が撮像装置100の視点に相当する。図3(d)は、図3(b)に示される状態(防振制御を実行している状態)において、光学系1をピンホールモデルに置き換えた図を示している。図3(c)、(d)を比較すると、図3(c)においては、画像の両端から視点(交点302)までの距離および方位がそれぞれ等しいため、立体像を撮影したときのパースなどは等しく撮影される。一方、図3(d)においては、画像の両端から視点までの距離および方位がそれぞれ等しくない。このように、立体像を撮影した場合、等距離の同じ大きさの奥行きある被写体を撮影した場合でも、画像の左端と右端のそれぞれでパースの影響は互いに異なる。
図6は、光学防振の影響を考慮した逆射影の説明図である。3Dモデル(3Dモデルデータ)を統合するために逆射影により空間の3次元点とRGBD画像点との対応付けを行うと、光学防振制御を実行していない場合(光学防振OFF時)、図6(a)に示されるように一般的なピンホール想定で正しく逆射影できる。一方、光学防振制御を実行している場合(光学防振ON時)、図6(b)に示されるように、撮影時の視点の偏心を考慮した視点とRGBD画像の配置関係に基づいて、空間に逆射影して空間の3次元点との対応点を決定する必要がある。
図7は、逆射影による3Dモデル統合の説明図である。図7(a)は、光学防振OFFの場合および光学防振ONの場合に、撮影時の補正部材11の偏心量を逆射影時に考慮して視点に対するRGBD画像配置を補正し、光学防振制御の影響を考慮した逆射影を行い、3Dモデルを生成する例を示す。2次元奥行き情報および撮像時の撮像装置100の姿勢(位置)が正しく計測できていれば、幾何学的に整合のとれた状態できれいに統合が実現できる。
一方、図3(b)に示されるように撮影時に光学防振制御による偏心が生じている状態でRGBD画像を撮影し、かつ、3Dモデルの統合時に撮影時の光学防振状態を考慮しない場合を考える。このとき、図6(a)に示されるように非偏心の防振OFF時のカメラモデルを想定して逆射影を行うと、図7(b)に示されるように、統合した3Dモデルにずれが発生する。このため3次元情報復元部9は、逆射影のよる3Dモデルを統合する際に、撮影時に光学防振制御監視部6により計測された光学防振制御情報を用い、逆射影における視点とRGBD画像面とのカメラモデルにおける関係を偏心させて逆射影を行う。この結果、3次元情報復元部9は、光学防振制御による影響を受けない3次元モデルの復元を行うことができる。
次に、図8を参照して、RGBD画像データ(撮影RGBD画像データ)から3Dモデルを復元する処理について説明する。図8は、RGBD画像データから3Dモデルを復元する処理を示すフローチャートである。図8のフローは、動きボケ・諧調・ノイズ補正を行うステップS801、ローリングシャッタ(RS)歪・歪曲補正を行うステップS802、逆射影(光学防振状態考慮)を行うステップS803、および、統一座標空間での統合を行うステップS804からなる。各ステップは、CPU12の指令に基づいて、3次元情報復元部9により実行される。
まずステップS801において、3次元情報復元部9は、RGBD画像中の特にRGB画像データに対する劣化を補正する。3次元情報復元部9は、主に、諧調補正、フィルタ処理、単純な複数枚の画像合成により、画像の劣化を補正する。
諧調補正としては、3次元情報復元部9は、例えば、周辺光量落ちによる諧調、または、色に関する劣化を補正する。3次元情報復元部9は、CPU12に保持された焦点距離やフォーカス距離などのカメラパラメータに基づいて、補正テーブルをメモリ(不図示)から取り出し、周辺光量落ちによる周辺部における諧調の低下、色ずれ、および、色収差を補正する。ノイズ処理としては、3次元情報復元部9は、例えば動画の場合、前後のフレーム、または短時間露光した過大な露光量分のフレームとの加重平均を取り、ランダムなノイズ成分を抑制するなどのノイズリダクション処理を行う。
動きボケ補正としては、3次元情報復元部9は、短時間露光で撮影した複数の低露出画像を、オフセットずれを考慮して、加算合成または平均加算合成を行い、動きボケを低減したRGB画像を取得する。または、3次元情報復元部9は、振れ情報取得部4から取得される撮像装置100の動き情報に基づいてブレカーネルを作成し、デコンボリューションフィルタ処理により、動きボケを低減したRGB画像を取得する。以上のように、3次元情報復元部9は、諧調・ノイズ・動きボケ補正のような、諧調補正、加算平均、フィルタ処理により対応可能な補正を行い、撮影RGBD画像の質を改善する。
続いてステップS802において、3次元情報復元部9は、各撮影RGBD画像に関し、フレーム内のRS歪や光学系の歪曲収差に依存して生じる放射歪曲や接線歪曲、光学防振の駆動により生じる偏心歪曲などの画素の幾何学的な位置に関する歪みを補正する。このように3次元情報復元部9は、撮影RGBD画像を、RS歪や歪曲などの画素の幾何学的な位置に関する歪みのないRGBD画像に補正する。この歪みは、CPU12に保持された焦点距離やフォーカス距離などのカメラパラメータ、および、このカメラパラメータを引数として選択される光学系1の歪曲補正情報に基づいて補正される。更に、この歪みは、振れ情報取得部4により取得された撮像装置100の姿勢(位置)の変化情報、および、光学防振制御監視部6により計測された光学防振制御情報に基づいて補正される。
光学防振制御による収差の影響や光学防振により部分的に抑制および補正されたブレや歪に関しても、3次元情報復元部9は、RGBD画像単体のレベルで補正を行う。2次元奥行き画像データに関しては、各奥行き画素に対応するRGBD画素に基づいて、幾何学的な補正が行われる。各撮影RGBD画像単体で見た場合、ここまでの処理で諧調劣化および歪のない画像データが生成される。なお、光学防振制御によるパースに関する影響に対しては、後述のステップS803にて対応可能である。
続いてステップS803において、3次元情報復元部9は、光学防振状態を考慮した逆射影を行う。具体的には、図6(b)を参照して説明したように、3次元情報復元部9は、光学防振制御による透視投影カメラモデルのずれを考慮してRGBD画像に対する逆射影を行い、特定の撮影RGBD画像データに対応する3次元点を生成する。3次元情報復元部9は、光学防振制御によりRGBD画像に対して相対的に変動する撮像装置100(カメラ202)の視点であるカメラ投影中心の位置変化を考慮する。このように、ある物体の3次元的形状を1つの方向から見える範囲で表すデータは、2.5Dデータとも呼ばれる。2.5Dデータにおいては、物体の裏側や内部に関する情報は欠如している。ボクセルに基づく3Dモデルを生成する際に、各カメラ202のRGBD画像における各画素と空間中のボクセルデータとの対応を、カメラ202の姿勢(位置)およびRGBD画像の奥行きデータに基づいて関連付けし、ボクセルデータへの寄与係数を算出する。
続いてステップS804において、3次元情報復元部9は、統一座標空間での統合を行う。図7(a)に示されるように、3次元情報復元部9は、各撮影RGBD画像から生成された3次元点からなる2.5次元データ(2.5次元データの各々の3次元点データ)を、統一座標空間での3Dモデルデータに合成して統合する。このとき3次元情報復元部9は、ステップS803にて算出した寄与係数に基づいて、2.5次元データの各々の3次元点データを、統一座標空間での3Dモデルデータに合成する。
以上のように、本実施形態の撮像装置は、RGBD画像データの撮影時の光学防振状態を考慮し、3Dモデル空間に3次元点データを逆射影する。これにより、3Dモデル生成のためのRGBDデータ画像の撮影と光学防振とを組み合わせることができる。このため、手持ち撮影の際に動きブレやローリングシャッタ歪影響のない高品質かつ高精度なモデルや3D空間マップ生成を実現可能となる。
(第2実施形態)
次に、本発明の第2実施形態について説明する。図9は、本実施形態における撮像装置200のブロック図である。撮像装置200は、メモリ13および動きベクトル探索部14を有する点で、第1実施形態における撮像装置100とは異なる。撮像装置200の他の構成は、撮像装置100と同様であるため、それらの説明は省略する。
メモリ13(記憶部)は、撮影済みのRGBD画像データを記録する画像メモリである。例えば動画像の場合、動きベクトル探索対象となるRGBD画像データに対する、隣接の過去2フレーム、または、直前および直後のフレームを記録する。動きベクトル探索部14は、メモリ13から出力された一対のRGBD画像データの間の動きベクトル、換言すると対応点を探索する。
第1実施形態において、位置姿勢取得部8は、説明の単純化のため、基本的には振れ情報取得部4から取得される撮像装置100の姿勢変化量(位置変化量)に基づいて、単純に撮像装置100の位置を算出する。一方、本実施形態においては、撮像装置200の姿勢(位置)をより高精度に算出するため、位置姿勢取得部8は、前処理部7から出力されるRGBD画像情報を用いる。
ジャイロや加速度センサなどの姿勢センサを備えて構成される振れ情報取得部4の出力情報は、加速度や角速度などの撮像装置200の姿勢(位置)に関する変化量である。姿勢センサを有する振れ情報取得部4の性能は、センサデバイス素子のダイナミックレンジや敏感度に影響され易く、また、積分された長期間撮影における撮像装置200の姿勢(位置)の絶対的な精度は得られにくい。このため、撮影RGBD画像データ間の対応を用いて、任意のフレーム間に生じた姿勢変化の算出量を高精度化することが好ましい。ここで、任意のフレーム間とは、隣接フレーム間、または、メモリ13に保持された、互いに離れたフレーム間であってもよい。
次に、図10を参照して、動きベクトルおよびRGBD画像情報を用いた撮像装置200の姿勢(位置)の算出処理について説明する。図10は、RGBD画像情報を用いた撮像装置200の姿勢の算出処理を示すフローチャートである。図10の各ステップは、CPU12の指令に基づいて、メモリ13、動きベクトル探索部14、または、位置姿勢取得部8により実行される。
まず、説明の単純化のため、光学防振制御を実行しない場合について、図10(a)を参照して説明する。図10(a)に示されるフローチャートは、動きベクトルを算出するステップS1001、初期位置姿勢を算出するステップS1004、および、高精度位置姿勢変化を算出するステップS1005からなる。
RGBD画像情報を効率的に活用するため、RGBD画像間の相対的な撮像装置200の姿勢変化量(位置変化量)の初期値を求めることを目的とする。このため、まずステップS1001において、動きベクトル探索部14は、画像間の動きベクトル、換言すると対応点を求める。続いてステップS1004において、位置姿勢取得部8は、あるRGBD画像対、および、そのRGBD画像間の相対的な撮像装置200の姿勢変化量の初期値を求めるための対応点を利用して、初期値となる撮像装置の姿勢変化(初期位置姿勢)を求める。続いてステップS1005において、位置姿勢取得部8は、RGBD画像対を用いて3次元的なレジストレーションにより、高精度な位置姿勢変化量を決定する。
図10(b)は、光学防振制御を実行する場合に必要となる処理を、図10(a)のフローに加えたフローチャートである。図10(a)のステップS1001に続いて、動きベクトルを補正するステップS1002、および、RGBD画像を補正するステップS1003が付加されている。ステップS1003の後に、図10(a)と同様のステップS1004、S1005が続く。このように、図10(b)のフローには、抽出したベクトルおよび撮影RGB画像に含まれる光学防振制御の影響を、ベクトルおよび画像からそれぞれ除去する処理が追加で含まれている。
まずステップS1001において、動きベクトル探索部14は、入力された任意のRGBD画像間の動きベクトルまたは対応点を算出する。動きベクトルは、通常、RGB画像間で算出される。動きベクトルの算出の際には、テンプレートマッチング、各フレームで算出した特徴点間のキーポイントマッチング、または、勾配法に基づく動きベクトル推定などにより、フレーム間の動きベクトルまたは特徴点間の軌跡が算出される。
ここで、図11を参照して、動きベクトル探索部14により実行されるテンプレートマッチングの一種であるブロックマッチングについて説明する。図11は、ブロックマッチングの説明図である。図11中の左側の画像1101を基準画像とし、図11中の右側の画像1102を探索画像とする。例えば、先に入力された映像フレームを基準画像、後から入力されたカレント映像フレームを探索画像とし、探索画像において動きベクトルを検出する。
基準画像(画像1101)中でグリッド状に配置された注目点1104を中心とした所定サイズの部分領域を、テンプレート1103とする。また、探索画像(画像1102)中において任意の探索範囲1107(探索領域)を設定し、順次移動しながらテンプレート1103が最も合致する位置を探索する。そして、探索画像中の注目画素1105を基準とした部分領域1106と基準画像中のテンプレート1103との類似度を計算する。類似度の指標としては、SSD(Sum of Square Difference)、SAD(Sum of Absolute Difference)、または、正規相互相関などの相関演算が用いられる。
実写映像のようにフレーム間の輝度変動が激しい場合、正規相互相関が主に用いられる。正規相互相関の類似度スコアの算出式は、以下の式(1)のように表される。
式(1)において、(x,y)および(x’,y’)は、基準画像Iおよび探索画像I’内におけるテンプレート1103の位置(座標)を示す。I(x,y)(i,j)およびI’(x’,y’)(i,j)はそれぞれ、部分画像を示す。
探索領域の類似度を一通り算出した結果、最も類似度の高い位置を対応位置とみなし、動きベクトルを算出する。オクルージョンがなければ、基準画像上で設定した注目点1104の数だけ動きベクトルが算出される。動きベクトルは、それぞれ基準画像中の注目点位置を始点とし、探索画像中の対応点位置を終点とするベクトルにより、以下の式(2)のように表される。
また、探索範囲1107内の相関スコアに対し多項式フィッティングを行い、高精度に類似度のピーク位置を算出し、またはテンプレート1103と探索画像を高画素化するなどの処理により、サブピクセル精度で動きベクトルまたは対応点の軌跡を算出してもよい。
以上、注目点1104をグリッド状に固定的に配置したブロックマッチングの例を示したが、動きベクトルを算出しやすい特徴点を基準画像上で抽出し、その位置を注目点としてベクトル探索してもよい。注目点の抽出には、通常、Harrisオペレータなどの画像処理フィルタが用いられる。Harrisオペレータは、文献「C. Harris and M.Stephens,“A combined corner and edge detector”,Fourth Alvey Vision Conference, pp.147−151,1988.」に記載されている。
Harrisオペレータは、まず、ウィンドウサイズWを決定し、水平および垂直方向についての微分画像(Idx,Idy)を計算する。微分画像の計算には、Sobelフィルタなどを用いればよい。例えば、フィルタは、h=[1,√2,1]/(2+√2)を横方向にし、縦方向に3つにならべた3×3フィルタh、および縦方向にし、横方向に3つならべた3×3フィルタhを画像に適用し、微分画像(Idx,Idy)を得る。
そして、画像内の全ての座標(x,y)について、ウィンドウサイズWを用いて、以下の式(3)で表されるマトリクスGを計算する。
マトリクスGの最小特異値が大きい座標(x,y)の順に、特徴点を抽出していく。その際、特徴点があまり密集しないほうが好ましい。そこで、既に特徴点が抽出済みの座標(x,y)のウィンドウサイズWの周辺に関しては特徴点を算出しないなどの制約を設けてもよい。
連続するフレーム間では、再度、特徴点を求めてテンプレートマッチングを行ってもよく、または、得られた動きベクトルの終端を注目点として、新たなフレーム間でテンプレートマッチングを行い特徴点の軌跡を追跡してもよい。または、各フレームで算出した特徴点間で特徴量をキー情報としてキーポイントマッチングを実施し、対応付けを行ってもよい。例えば、グラフアルゴリズムを活用することにより、冗長な対応付け作業を削減することができるため、効率的な対応付けが可能である。効率的なマッチングとして、ランダム決定木などの学習アルゴルが用いられることが多い。
算出された動きベクトルは、対応点に変換可能である、動きベクトル探索部14によるベクトルを算出する際に利用した注目点の座標情報x→を用い、フレームごとの対応位置を表す対応点に変換可能である。以下の式(4)で表されるように、動きベクトルΔx→=(Δx,Δy)を、注目点x→=(x,y)と、対応点x’→=(x’,y’)に変換する(ここでは、xのベクトルを、x→として示している)。
図9(b)のステップS1004において、ステップS1001にて算出された動きベクトルに基づいて、位置姿勢取得部8は、初期位置姿勢変化を算出する。例えば、振れ情報取得部4により取得された微分的な撮像装置200の位置姿勢変化量を、この処理フローに入力のRGBD画像の撮影間の動きの総和となるように積分して得られる位置姿勢変化を初期値として取得する。この位置姿勢変化量は、非線形最適化、または、5点法などの確定的もしくは繰り返し算出手法により得られる。これらの算出手法は、文献「D.Nister,”An Efficient Solution to the Five−Point Relative Pose Problem”,PAMI Trans.Vol26,Issue6,p.p.756−770」、文献「F.Kahl,R.Hartley,”Continuous Optimization Methods in Computer Vision”,ECCV2006−Tutorial program」に記載されている。
また、動きベクトルから撮像装置200の位置姿勢変化を求める際には、画像の動きから撮像装置200以外の動物体の動きや間違った動きベクトルを除く必要がある。RANSACなどを併用して誤ベクトルや画像中で小領域からなる動物体の動きベクトルを除く。また、奥行き情報取得部3から取得される撮像装置200の位置姿勢変化量、または、RGBD画像撮影間の撮像装置200の動きを表す積分値を、カメラパラメータを用いて画像動きに変換する。このとき、画像動きと動きベクトルの類似性を比較し、かけ離れたものを動体の動きベクトルとして除去する。また、ベクトルの大半が合致しない場合や、静止物体や静止シーンを前提とした3Dモデリングや空間マッピングが成立しない場合、被写体の大部分が移動体と判定する。このときCPU12は、処理を停止し、または、エラーや警告を提示する。
続いてステップS1005において、ステップS1004にて算出された位置姿勢変化を初期値として、RGBD画像を用いた3次元的なレジストレーションにより、高精度な入力RGBD画像間の位置姿勢変化を算出する。RGBD画像間を入力として、例えばICPアルゴリズムを用い、3次元的に画像間の位置および姿勢変化に対する3次元剛体フィッティングを行う。この手法は、文献「増田健,“ICPアルゴリズム”,コンピュータビジョン最先端ガイド3,アドコムメディア社,p.p.33−60」に記載されている。
以上の処理により、任意のRGBD画像間の相対的な位置姿勢変化を高精度に求めることができる。すなわち、入力となる任意のRGBD画像対の一方を固定するとあるRGBD画像撮影時点のカメラ位置姿勢を基準とした、各RGBD画像に対する相対的なカメラ位置姿勢量の算出が可能となる。このような処理は、自己位置推定と呼ばれ、環境の3Dモデル推定においては重要な要素技術である。光学防振を実行しない場合の自己位置推定技術については、特表2014−511591号公報に記載されているように、一般的な技術である。
一方、光学防振を実行する場合、図10(b)に示されるような追加ステップを含む処理により、高精度の入力RGBD画像間の位置姿勢変化を求めることができる。ステップS1002において、動きベクトルに含まれる光学防振の影響を除く。光学防振制御監視部6により得られた光学防振機構の効果を表す光学防振制御情報を用いて、対応点情報を加工する。これにより、光学防振の効果、すなわち抑振のために行われた映像の平行移動をキャンセルすることができる。そして、動きベクトルを対応点に変換してから補正を行う。
光学防振制御情報とは、光学防振の効果による映像の平行移動による座標変化の量を表す物理量である。しかしながら、光学系1がズームレンズの場合、焦点距離が変化すると、姿勢センサを有する振れ情報取得部4から与えられる撮像装置200の回転量が同一であっても、映像の平行移動量が変化する。このため、制御の扱いやすさを鑑み、撮像装置200の回転量や平行移動量、焦点距離からなる複数の制御物理量の組として扱ってもよい。例えば、光学防振制御情報の一つを、それ自体に光学系1の焦点距離を乗算すると、センサ面上での画像の平行移動量となるようにスケーリングする値と取り決める。すなわち、撮像装置200の回転をθとすると、以下の式(5)で表されるように角度として扱ってもよい。
この際、光学防振機構がニュートラルな位置にある場合を、レンズのシフト量0とする。式(5)において、焦点距離を画像のピクセル単位で扱うことにより、補正角を画像上での平行移動量として扱うことができる。
撮像装置200の光軸OAに対し、Yaw方向へのレンズシフト量をShy、Pitch方向へのレンズシフト量をShpとする。このときシフト後の位置xrev、yrev、x’rev、y’revは、以下の式(6−1)、(6−2)、(6−3)、(6−4)のようにそれぞれ表される。
この結果、光学防振制御による表示領域の移動をキャンセルすることができる。ここで、Shx、Shyは、カレントフレーム(現在のフレーム)における防振シフト量、Shx−1、Shy−1は、1つ前のフレームにおける防振シフト量を示す。本ステップにおいては、このような平行移動演算を算出した動きベクトルに適用する。動きベクトルを対応点化し、ベクトルを算出した1対のRGBD画像のそれぞれにおける光学防振制御情報を用い、注目点および対応点の座標における光学防振の影響を差引きし、再度動きベクトルに戻す。この結果、動きベクトル情報から光学防振の影響をキャンセルすることができる。
続いてステップS1003において、位置姿勢取得部8は、RGBD画像から光学防振の影響を補正する。光学防振制御情報から求まる画像面上での光学防振の影響による像のシフト量をキャンセルするように画像を左上などの基準点からシフトする。式(4)に基づいて画像を平行移動することにより、光学防振の影響をキャンセルすることができる。このときの演算は、ステップS1002の座標に対する演算とは逆符号となる。
続いてステップS1004において、位置姿勢取得部8は、ステップS1002にて光学防振制御の影響をキャンセルした動きベクトルに基づいて、初期位置姿勢変化を算出する。光学防振を用いない場合と同様に、RANSACなどを併用して誤ベクトルや画像中で小領域からなる動物体の動きベクトルを除く。また、奥行き情報取得部3から求められる撮像装置200の位置姿勢変化量またはRGBD画像撮影間の撮像装置200の動きを表す積分値を、カメラパラメータを用いて画像動きに変換する。そして、画像動きと動きベクトルの類似性を比較し、かけ離れたものを動体の動きベクトルとして除去する。また、ベクトルの大半が合致しない場合や、静止物体や静止シーンを前提とした3Dモデリングや空間マッピングが成立しない場合、被写体の大部分が移動体と判定する。このときCPU12は、処理を停止し、または、エラーや警告を提示する。
以上の処理により、光学防振制御を実行する際にも、センサ信号からの撮像装置の位置姿勢情報だけでなく、画像動きを併用して精度の高い撮像装置の自己位置姿勢推定を実現し、品質の高い3Dモデルデータの生成を可能とする。
このように、各実施形態の制御装置は、奥行き情報取得部3、位置姿勢取得部8、および、画像処理部(前処理部7および3次元情報復元部)を有する。奥行き情報取得部3は、被写体像の奥行き情報を取得する。位置姿勢取得部8は、装置の位置情報または姿勢情報を取得する。画像処理部は、装置の光学防振状態に関する情報(光学防振制御監視部6からの出力信号)と、奥行き情報と、位置情報または姿勢情報とに基づいて、3次元情報を生成する。
好ましくは、画像処理部は、3次元情報として、3次元データ(3Dモデルデータ)をモデリングするためのデータ(2.5Dデータなどの元データ)を生成する。また好ましくは、画像処理部は、3次元データをモデリングすることにより3次元情報を生成する。
好ましくは、画像処理部は、光学防振制御により生じる装置の投影中心の位置ずれ(撮影した被写体像の視点ずれ)を低減するように、被写体像に関する画像信号と奥行き情報とを含む像データに対して逆射影を行い、3次元情報を生成する。より好ましくは、画像処理部は、逆射影を行う際に、光学防振状態に応じて逆射影の基準点としての主点(nodal)を移動する。より好ましくは、光学防振状態に関する情報は、光学防振制御により生じる像ブレ補正手段(補正部材11)の偏心量に関する情報であり、位置ずれは、偏心量に応じて変化する被写体像の視点ずれである。
好ましくは、画像処理部は、光学防振状態に関する情報と、奥行き情報と、位置情報または姿勢情報とに基づいて、像データとボクセルデータ(空間中の3次元点に関するデータ)とを関連付けてボクセルデータへの寄与係数を決定する(S803)。そして画像処理部は、寄与係数に基づいて像データを合成して3次元情報を生成する(S804)。また好ましくは、画像処理部は、像データの劣化を補正し(S801、S802)、補正後の像データに対して逆射影を行う。
好ましくは、画像処理部は、光学系1のパラメータ(カメラパラメータ)および光学防振状態に関する情報に基づいて、光学防振制御により生じる撮像装置の投影中心の位置を算出する。そして画像処理部は、3次元空間座標に、撮像装置の各視点において撮像素子から出力される画像信号と奥行き情報とを含む像データを、投影中心の位置を基準として逆射影を行うことにより、3次元情報を生成する。また好ましくは、画像処理部は、3次元情報として、3次元データをモデリングするためのデータを記録可能な記録部(3次元情報復元部9)を有する。そして記録部は、RGBの各色に関する諧調データおよび撮像素子の各画素に対応する奥行き情報に同期して、光学防振状態に関する情報を記録する。
好ましくは、撮像装置は、撮像装置の位置変化量または姿勢変化量を取得する振れ情報取得部4と、像データに基づいて動きベクトルを探索する動きベクトル探索部14とを更に有する。そして画像処理部は、光学防振制御の実行中に、振れ情報取得部および動きベクトルの少なくとも一つから得られる振れ情報に基づいて、光学防振制御により生じる収差および歪を低減するように逆射影を行う。より好ましくは、位置姿勢取得部は、振れ情報取得部から得られる撮像装置の姿勢変化情報を初期情報として算出し、初期情報および動きベクトルに基づいて、撮像装置の最終的な姿勢変化情報を算出する。より好ましくは、位置姿勢取得部は、光学防振制御に関する情報および振れ情報取得部から得られる情報を用いて、撮像装置の振れに関連しない情報(撮像装置の振れに関する情報以外の情報)を除去する。より好ましくは、撮像装置は、画像処理部を制御する制御部(CPU12)を更に有する。そして制御部は、動きベクトル探索部により得られた動きベクトルに基づいて、画像処理部に対して3次元情報を生成させるか否かを判定する。
なお、各実施形態の制御装置は、撮像装置にのみ適用されるものではなく、例えば撮像装置が取り付けられた携帯情報端末、撮影した映像に対し後処理として加工を加える画像処理装置、このような画像処理装置を含んだ画像表示装置にも適用可能である。また各実施形態において、撮像装置はレンズ一体型の撮像装置であるが、これに限定されるものではない。各実施形態は、撮像装置本体と、撮像装置本体に着脱可能な交換レンズとにより構成される撮像装置にも適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施形態によれば、手持ち撮影における動きブレやローリングシャッタ歪の影響を低減した、高品質かつ高精度な3Dモデリングや空間マッピングを実現可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
3 奥行き情報取得部
7 前処理部
8 位置姿勢取得部
9 3次元情報復元部

Claims (18)

  1. 被写体像の奥行き情報を取得する奥行き情報取得部と、
    装置の位置情報または姿勢情報を取得する位置姿勢取得部と、
    前記装置の光学防振状態に関する情報と、前記奥行き情報と、前記位置情報または前記姿勢情報とに基づいて、3次元情報を生成する画像処理部と、を有することを特徴とする制御装置。
  2. 前記画像処理部は、前記3次元情報として、3次元データをモデリングするためのデータを生成することを特徴とする請求項1に記載の制御装置。
  3. 前記画像処理部は、3次元データをモデリングすることにより前記3次元情報を生成することを特徴とする請求項1に記載の制御装置。
  4. 前記画像処理部は、光学防振制御により生じる前記装置の投影中心の位置ずれを低減するように、前記被写体像に関する画像信号と前記奥行き情報とを含む像データに対して逆射影を行い、前記3次元情報を生成することを特徴とする請求項1乃至3のいずれか1項に記載の制御装置。
  5. 前記画像処理部は、前記逆射影を行う際に、前記光学防振状態に応じて該逆射影の基準点としての主点を移動することを特徴とする請求項4に記載の制御装置。
  6. 前記光学防振状態に関する情報は、前記光学防振制御により生じる像ブレ補正手段の偏心量に関する情報であり、
    前記位置ずれは、前記偏心量に応じて変化する前記被写体像の視点ずれである、ことを特徴とする請求項4または5に記載の制御装置。
  7. 前記画像処理部は、
    前記光学防振状態に関する情報と、前記奥行き情報と、前記位置情報または前記姿勢情報と、に基づいて、前記像データとボクセルデータとを関連付けて該ボクセルデータへの寄与係数を決定し、
    前記寄与係数に基づいて前記像データを合成して、前記3次元情報を生成する、ことを特徴とする請求項4乃至6のいずれか1項に記載の制御装置。
  8. 前記画像処理部は、
    前記像データの劣化を補正し、補正後の像データに対して前記逆射影を行うことを特徴とする請求項4乃至7のいずれか1項に記載の制御装置。
  9. 光学系を介して形成された被写体像を光電変換して画像信号を出力する撮像素子と、
    前記被写体像の奥行き情報を取得する奥行き情報取得部と、
    撮像装置の位置情報または姿勢情報を取得する位置姿勢取得部と、
    前記撮像装置の光学防振状態に関する情報と、前記奥行き情報と、前記位置情報または前記姿勢情報とに基づいて、3次元情報を生成する画像処理部と、を有することを特徴とする撮像装置。
  10. 前記画像処理部は、
    前記光学系のパラメータおよび前記光学防振状態に関する情報に基づいて、光学防振制御により生じる前記撮像装置の投影中心の位置を算出し、
    3次元空間座標に、前記撮像装置の各視点において前記撮像素子から出力される前記画像信号と前記奥行き情報とを含む像データを、前記投影中心の位置を基準として逆射影を行うことにより、前記3次元情報を生成する、ことを特徴とする請求項9に記載の撮像装置。
  11. 前記画像処理部は、前記3次元情報として、3次元データをモデリングするためのデータを記録可能な記録部を有し、
    前記記録部は、RGBの各色に関する諧調データおよび前記撮像素子の各画素に対応する前記奥行き情報に同期して、前記光学防振状態に関する情報を記録することを特徴とする請求項9または10に記載の撮像装置。
  12. 前記撮像装置の位置変化量または姿勢変化量を取得する振れ情報取得部と、
    前記像データに基づいて動きベクトルを探索する動きベクトル探索部と、を更に有し、
    前記画像処理部は、前記光学防振制御の実行中に、前記振れ情報取得部および前記動きベクトルの少なくとも一つから得られる振れ情報に基づいて、該光学防振制御により生じる収差および歪を低減するように前記逆射影を行う、ことを特徴とする請求項10に記載の撮像装置。
  13. 前記位置姿勢取得部は、
    前記振れ情報取得部から得られる前記撮像装置の姿勢変化情報を初期情報として算出し、
    前記初期情報および前記動きベクトルに基づいて、前記撮像装置の最終的な姿勢変化情報を算出する、ことを特徴とする請求項12に記載の撮像装置。
  14. 前記位置姿勢取得部は、前記光学防振制御に関する情報および前記振れ情報取得部から得られる情報を用いて、前記撮像装置の振れに関連しない情報を除去する、ことを特徴とすることを特徴とする請求項12または13に記載の撮像装置。
  15. 前記画像処理部を制御する制御部を更に有し、
    前記制御部は、前記動きベクトル探索部により得られた前記動きベクトルに基づいて、前記画像処理部に対して前記3次元情報を生成させるか否かを判定する、ことを特徴とする請求項12乃至14のいずれか1項に記載の撮像装置。
  16. 被写体像の奥行き情報を取得するステップと、
    装置の位置情報または姿勢情報を取得するステップと、
    前記装置の光学防振状態に関する情報を取得するステップと、
    前記奥行き情報と、前記位置情報または前記姿勢情報と、前記光学防振状態に関する情報とに基づいて、3次元情報を生成するステップと、を有することを特徴とする制御方法。
  17. 被写体像の奥行き情報を取得するステップと、
    装置の位置情報または姿勢情報を取得するステップと、
    前記装置の光学防振状態に関する情報を取得するステップと、
    前記奥行き情報と、前記位置情報または前記姿勢情報と、前記光学防振状態に関する情報とに基づいて、3次元情報を生成するステップと、をコンピュータに実行させるように構成されていることを特徴とするプログラム。
  18. 請求項17に記載のプログラムを記憶していることを特徴とする記憶媒体。
JP2015115082A 2015-06-05 2015-06-05 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 Expired - Fee Related JP6570327B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015115082A JP6570327B2 (ja) 2015-06-05 2015-06-05 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
US15/173,067 US9832432B2 (en) 2015-06-05 2016-06-03 Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015115082A JP6570327B2 (ja) 2015-06-05 2015-06-05 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Publications (2)

Publication Number Publication Date
JP2017005380A true JP2017005380A (ja) 2017-01-05
JP6570327B2 JP6570327B2 (ja) 2019-09-04

Family

ID=57451084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015115082A Expired - Fee Related JP6570327B2 (ja) 2015-06-05 2015-06-05 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Country Status (2)

Country Link
US (1) US9832432B2 (ja)
JP (1) JP6570327B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7465234B2 (ja) 2021-03-11 2024-04-10 Kddi株式会社 3dモデル生成装置、方法及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10356343B2 (en) * 2016-03-18 2019-07-16 Raytheon Company Methods and system for geometric distortion correction for space-based rolling-shutter framing sensors
US10284875B2 (en) * 2016-08-08 2019-05-07 Qualcomm Incorporated Systems and methods for determining feature point motion
US10484599B2 (en) * 2016-10-25 2019-11-19 Microsoft Technology Licensing, Llc Simulating depth of field
CN112132881A (zh) * 2016-12-12 2020-12-25 华为技术有限公司 一种动态三维图像获取的方法和设备
KR102392751B1 (ko) * 2017-03-07 2022-04-29 삼성전자 주식회사 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법
DE102017204306A1 (de) * 2017-03-15 2018-09-20 Zf Friedrichshafen Ag Anordnung und Verfahren zur Bestimmung eines Steigungssignals in einem Fahrzeug
US10440271B2 (en) 2018-03-01 2019-10-08 Sony Corporation On-chip compensation of rolling shutter effect in imaging sensor for vehicles
WO2020041999A1 (en) * 2018-08-29 2020-03-05 Intel Corporation Apparatus and method for feature point tracking using inter-frame prediction
US10911680B2 (en) * 2018-12-28 2021-02-02 Intel Corporation Method and system of geolocation and attitude correction for mobile rolling shutter cameras
US10755571B1 (en) * 2019-03-01 2020-08-25 Amazon Technologies, Inc. Identifying parking location using single camera reverse projection
CN109949412B (zh) 2019-03-26 2021-03-02 腾讯科技(深圳)有限公司 一种三维对象重建方法和装置
JP7023412B2 (ja) * 2019-04-26 2022-02-21 富士フイルム株式会社 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
EP4016985A4 (en) * 2019-08-27 2022-08-31 Guangdong Oppo Mobile Telecommunications Corp., Ltd. IMAGE PROCESSING METHOD AND APPARATUS, ELECTRONIC DEVICE, AND COMPUTER READABLE STORAGE MEDIUM
US11330246B2 (en) 2019-11-21 2022-05-10 Microsoft Technology Licensing, Llc Imaging system configured to use time-of-flight imaging and stereo imaging
CN111476897B (zh) * 2020-03-24 2023-04-18 清华大学 基于同步扫描条纹相机的非视域动态成像方法及装置
US11012677B1 (en) 2020-06-15 2021-05-18 Microsoft Technology Licensing, Llc Systems and methods for correcting rolling shutter artifacts
CN112561978B (zh) * 2020-12-18 2023-11-17 北京百度网讯科技有限公司 深度估计网络的训练方法、图像的深度估计方法、设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013869A (ja) * 2002-06-12 2004-01-15 Nec Corp 3次元形状生成装置及びそれに用いる3次元形状生成方法並びにそのプログラム
WO2011114683A1 (ja) * 2010-03-19 2011-09-22 パナソニック株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
JP2011223284A (ja) * 2010-04-09 2011-11-04 Victor Co Of Japan Ltd 擬似立体画像生成装置及びカメラ
WO2012032825A1 (ja) * 2010-09-10 2012-03-15 富士フイルム株式会社 立体撮像装置および立体撮像方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633664B1 (en) * 1999-05-11 2003-10-14 Nippon Telegraph And Telephone Corporation Three-dimensional structure acquisition method, apparatus and computer readable medium
US8471915B2 (en) 2009-04-16 2013-06-25 Raytheon Company Self-correcting adaptive long-stare electro-optical system
US9131155B1 (en) * 2010-04-07 2015-09-08 Qualcomm Technologies, Inc. Digital video stabilization for multi-view systems
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
TWI478575B (zh) * 2011-06-22 2015-03-21 Realtek Semiconductor Corp 3d影像處理裝置
US9129435B2 (en) 2012-12-04 2015-09-08 Fuji Xerox Co., Ltd. Method for creating 3-D models by stitching multiple partial 3-D models

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013869A (ja) * 2002-06-12 2004-01-15 Nec Corp 3次元形状生成装置及びそれに用いる3次元形状生成方法並びにそのプログラム
WO2011114683A1 (ja) * 2010-03-19 2011-09-22 パナソニック株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
JP2011223284A (ja) * 2010-04-09 2011-11-04 Victor Co Of Japan Ltd 擬似立体画像生成装置及びカメラ
WO2012032825A1 (ja) * 2010-09-10 2012-03-15 富士フイルム株式会社 立体撮像装置および立体撮像方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7465234B2 (ja) 2021-03-11 2024-04-10 Kddi株式会社 3dモデル生成装置、方法及びプログラム

Also Published As

Publication number Publication date
JP6570327B2 (ja) 2019-09-04
US20160360081A1 (en) 2016-12-08
US9832432B2 (en) 2017-11-28

Similar Documents

Publication Publication Date Title
JP6570327B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
JP5997645B2 (ja) 画像処理装置及び方法、及び撮像装置
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
KR101624450B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
JP4852591B2 (ja) 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
JP6395506B2 (ja) 画像処理装置および方法、プログラム、並びに撮像装置
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
WO2018221224A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
US20150178595A1 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2017208641A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
JP2009205193A (ja) 画像処理装置および方法並びにプログラム
US10764500B2 (en) Image blur correction device and control method
US20170310897A1 (en) Image processing apparatus, imaging apparatus, and image processing method
JP7489253B2 (ja) デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム
CN113875219A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2017208642A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
JP2009211254A (ja) 画像処理ユニット、複眼撮像装置、画像処理方法、および画像処理プログラム
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190806

R151 Written notification of patent or utility model registration

Ref document number: 6570327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees