JP6429466B2 - 画像処理装置およびその制御方法、撮像装置、プログラム - Google Patents

画像処理装置およびその制御方法、撮像装置、プログラム Download PDF

Info

Publication number
JP6429466B2
JP6429466B2 JP2014040522A JP2014040522A JP6429466B2 JP 6429466 B2 JP6429466 B2 JP 6429466B2 JP 2014040522 A JP2014040522 A JP 2014040522A JP 2014040522 A JP2014040522 A JP 2014040522A JP 6429466 B2 JP6429466 B2 JP 6429466B2
Authority
JP
Japan
Prior art keywords
orientation change
image
data
depth
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014040522A
Other languages
English (en)
Other versions
JP2015121524A (ja
JP2015121524A5 (ja
Inventor
勇太 川村
勇太 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014040522A priority Critical patent/JP6429466B2/ja
Priority to US14/541,700 priority patent/US10311595B2/en
Publication of JP2015121524A publication Critical patent/JP2015121524A/ja
Publication of JP2015121524A5 publication Critical patent/JP2015121524A5/ja
Application granted granted Critical
Publication of JP6429466B2 publication Critical patent/JP6429466B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影画像および該撮影画像と同期して撮影した奥行画像を利用して、撮像装置と撮影対象との位置および姿勢関係の変化を推定する画像処理技術に関する。
撮像装置を用いて撮像した画像から撮影対象の位置姿勢、または撮像装置と撮影対象との相対的な位置や姿勢やその時間的変化を推定する技術がある。実現方法としては、動きベクトルや対応点画像の動き情報を使った推定方法が一般的である。近年、奥行データ取得技術の進歩により、奥行データから撮影物体の3次元モデルを構築し、事前に用意した3次元モデルとの照合により位置関係を推定する方法が提案されている。また、画像から求められる情報および前記奥行データを併用する方法も提案されている。
特許文献1および特許文献2には、奥行データと画像の特徴を併用した方法が提案されている。特許文献1に記載の方法では、予め用意した3次元形状モデルと奥行データでの位置合わせと、画像から抽出した2次元的特徴と前記3次元形状モデルをある位置姿勢で2次元画像に投影したときの投影特徴との位置合わせを併用する。これにより、被写体の位置姿勢の推定を行うことができる。また、特許文献2に記載の方法では、画像から検出した特徴点位置の奥行データを、予め用意した3次元形状モデルと対応させることで奥行データのノイズによる誤対応に対処し、被写体の位置姿勢の推定が行われる。
位置姿勢変化の算出に使用する注目領域を算出する方法として、背景領域の算出を行うことが多い。従来の背景領域抽出では、連続するフレーム間の差分を用いることで背景および動く被写体の特定を行う方法が一般的である。特許文献3には、動画像から1シーンを構成する画像の差分を比較することで、前景と背景の領域を特定して分離し、画像処理に使用している。
特開2011−27623号公報 特開2012−123781号公報 特開平11−112871号公報
D.Titterton,"Strapdown Inertial Navigation Technology",p.p.17-55,309-332 B.Triggs,"Auto calibration from Planar Scene", European Conference on Computer Vision (ECCV '98) R.Hartley,A.Zisserman," Multiple View Geometry in Computer Vision", Cambridge Univ. Press (2000) Bill Triggs,"Routines for Relative Pose of Two Calibrated Cameras from 5 Points",Documentation, INRIA. juillet 2000.
撮像装置で撮像した画像から、撮像装置のカメラワークを推定する場合、動きベクトルから推定する方法と、奥行データから推定する方法がある。これら個別の方法では、撮影画像内に動体領域と静止領域が混在していると、位置姿勢の時間的変化およびその積分である位置姿勢により表されるカメラワークの推定が困難になる場合がある。
例えば静止領域を領域の大小で判断して、位置姿勢の変化または位置姿勢の推定を行うと、動体領域が静止領域よりも大きい場合、動体領域の動きによる影響を被り易くなる。このため、静止シーンを基準とした撮像装置の位置姿勢の変化や、位置姿勢の軌跡であるカメラワークの推定が困難になる可能性がある。
本発明の目的は、画像データおよび奥行データを用いて対象の位置姿勢を検出する画像処理装置において、画像内に動体領域と静止領域が存在する場合に、動体領域の動きによる影響を抑えて位置姿勢の推定精度を高めることである。
上記課題を解決するために、本発明に係る画像処理装置は、画像データおよび当該画像データに対応する奥行データを取得する取得手段と、前記画像データおよび前記奥行データから奥行ごとの位置姿勢変化を算出し、前記奥行ごとの位置姿勢変化の統計値に基づいて第1の位置姿勢変化のデータを算出する算出手段と、複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する処理手段と、前記画像データに対応する奥行データから奥行の頻度分布を算出する頻度分布算出手段と、画像全体の位置姿勢変化のデータを記憶する記憶手段と、前記頻度分布および前記記憶手段に記憶された画像全体の位置姿勢変化のデータを用いて前記算出手段により算出された前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータに基づいて、前記画像データ内の静止領域を決定する静止領域決定手段と、前記静止領域決定手段により決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータとから、画像全体の位置姿勢変化を決定して前記画像全体の位置姿勢変化のデータを前記記憶手段に記憶させる決定手段と、を有する。
本発明によれば、画像内に動体領域と静止領域が存在する場合に、動体領域の動きによる影響を抑えて位置姿勢の推定精度を高めることができる。
図2から図13と併せて本発明の第1実施形態を説明するために、装置全体の構成を示すブロック図である。 奥行データの処理部の構成を示すブロック図である。 動きベクトルの処理部の構成を示すブロック図である。 全体の動作を示すフローチャートである。 奥行データの処理部の動作を示すフローチャートである。 奥行分割工程の流れを示すフローチャートである。 動きベクトルの処理部の動作を示すフローチャートである。 奥行分割工程を例示する図である。 画像内の最大領域に基づく位置姿勢変化の推定、および奥行を占める最大領域に基づく位置姿勢変化の推定を説明する図である。 分割された奥行ごとの位置姿勢変化の推定例、およびグループ化の例を示す図である。 ICPアルゴリズムによって点群間の位置姿勢変化を推定する様子を示す模式図である。 分割された奥行ごとの位置姿勢変化の推定結果と、これに対応する奥行が占める割合を例示する度数分布図である。 モーションごとの領域の位置姿勢変化の推定結果と、これに対応する被写体領域が占める割合を例示する度数分布図である。 図15から図22と併せて本発明の第2実施形態を説明するために、装置全体の構成を示すブロック図である。 奥行データの処理部の構成を示すブロック図である。 動きベクトルの処理部の構成を示すブロック図である。 全体の動作を示すフローチャートである。 奥行データの処理部の動作を示すフローチャートである。 動きベクトルの処理部の動作を示すフローチャートである。 画像を使用した背景領域候補の推定処理を説明する図である。 静止領域決定部の動作を示すフローチャートである。 静止領域を基準とした位置姿勢変化の推定、および動体領域を基準とした位置姿勢変化の推定を説明する図である。
本発明の各実施形態に係る画像処理装置を備える撮像装置について、添付図面を参照して説明する。尚、撮像装置は既知の像振れ補正制御により、撮影者の手振れや体の揺れ等に起因する像振れを抑制する機能を有するものとする。
[第1実施形態]
図1は、本発明の第1実施形態に係る撮像装置の構成例を示すブロック図である。撮像装置1は、画像取得装置101と、奥行画像取得装置102と、第1処理部200および第2処理部300と、画像処理部100と、位置姿勢推定結果保存部(以下、単に保存部という)108と、制御部110を備える。
画像取得装置101は、被写体を撮影して2次元画像のデータを取得するユニットである。画像取得装置101の画像データは、第1処理部200と第2処理部300に出力される。本実施形態では、奥行データを使用した第1処理部200と、動きベクトルを使用した第2処理部300を用いる。
奥行画像取得装置102は、奥行データを検出する装置であり、第1処理部200に接続されている。本実施形態では、奥行データとして、例えば画素ごとに奥行のデータを持った奥行画像として説明する。奥行画像取得装置102は、例えば、赤外線照射部と赤外線読み取り部を有する。赤外線照射部は所定パターンの赤外線を対象物に照射し、反射した赤外線を赤外線読み取り部が読み取る。これによりパターンの歪みを読み取り、奥行画像の撮影が行われる。尚、奥行画像の生成の方式については、他の方式でもよい。例えば、赤外線を照射してから、読み取りにかかる時間を計測して奥行画像の撮影をするTime of flight方式や、多眼レンズで撮影した複数枚の画像の視差を求めて奥行画像の生成を行う方式でもよい。奥行画像の生成が可能であれば、方式の如何は問わない。
第1処理部200は、画像取得装置101からの画像データ、および奥行画像取得装置102からの奥行画像データを取得し、位置姿勢変化を推定する。このとき、第1処理部200は、保存部108から過去における位置姿勢変化の推定結果を取得して、位置姿勢変化の推定に利用することもある。第1処理部200は、奥行データを使用した位置姿勢変化の推定結果を画像処理部100に出力する。
第2処理部300は、画像取得装置101によって撮影された画像データを使用して動きベクトルを検出して位置姿勢変化を推定する。このとき、第2処理部300は、保存部108から過去における位置姿勢変化の推定結果を取得して、姿勢変化推定に利用することもある。第2処理部300は、動きベクトルを使用した位置姿勢変化の推定結果を画像処理部100に出力する。
画像処理部100は、位置姿勢変化の推定結果が入力される第1入力部103および第2入力部104と、静止領域決定部105と、過去の位置姿勢変化の推定結果に係る第3入力部106と、全体の位置姿勢変化の推定決定部107を備える。
奥行データを使用した位置姿勢変化の推定結果が入力される第1入力部103は、第1処理部200に接続されている。第1処理部200により奥行データを使用して推定された、第1の位置姿勢変化の演算結果(以下、第1演算結果という)は、第1入力部103から静止領域決定部105および推定決定部107に出力される。
動きベクトルを使用した位置姿勢変化の推定結果が入力される第2入力部104は、第2処理部300に接続されている。第2処理部300により動きベクトルを使用して推定された、第2の位置姿勢変化の演算結果(以下、第2演算結果という)は、第2入力部104から静止領域決定部105および推定決定部107に出力される。
静止領域決定部105は、第1演算結果および第2演算結果を取得し、これらの情報に基づいて画像内の静止領域を決定する第1決定処理を実行する。このとき、静止領域決定部105は第3入力部106を介して、保存部108から過去の位置姿勢変化の演算結果(以下、過去演算結果という)を取得し、静止領域の決定に利用する場合もある。第1決定処理にて決定された静止領域の情報は推定決定部107に出力される。また静止領域決定部105は、選択部109により選択された判断基準に従って静止領域を決定することもできる。選択部109は、静止領域の判断基準をユーザ操作に応じて選択するための操作部や設定画面等の表示部を備える。
推定決定部107は、第1演算結果および第2演算結果と、静止領域決定部105によって決定された静止領域の情報を用いて画像全体の位置姿勢変化を決定する第2決定処理を実行する。第2決定処理にて決定された位置姿勢変化の演算結果は保存部108に送られて保存される。保存部108には、位置姿勢変化の推定結果が過去演算結果として記憶されている。保存部108は、第1処理部200と、第2処理部300と、第3入力部106に接続されており、過去演算結果を必要に応じて各部に出力する。
次に、第1処理部200の構成について、図2のブロック図を参照して説明する。
画像入力部201には、画像取得装置101からの画像データが入力され、奥行画像入力部202には、奥行画像取得装置102からの奥行画像データが入力される。3次元点群生成部203は、画像データおよび奥行画像データを、画像入力部201および奥行画像入力部202からそれぞれ取得して、後述する3次元点群を生成する。3次元点群のデータは、奥行分割部204と第1推定部205に出力される。
奥行分割部204は、奥行画像入力部202から入力された奥行画像を使用して、3次元点群生成部203が生成した3次元点群を奥行ごとに分割処理する。処理結果は第1推定部205に出力される。第1推定部205は、奥行ごとの位置姿勢変化を推定する処理を実行する。その際、第1推定部205は、3次元点群生成部203により生成された3次元点群を非基準フレームとし、奥行分割部204によって分割された奥行データをもつ3次元点群を基準フレームとする。第1推定部205は、分割された奥行ごとに非基準フレームに対して位置姿勢変化を推定し、推定結果をグループ化処理部206に出力する。
グループ化処理部206は、第1推定部205によって推定された奥行ごとの位置姿勢変化の推定結果をグループにまとめる処理を実行する。第2推定部207は、全体の位置姿勢変化を推定する処理を実行する。第2推定部207は、グループ化処理部206がグループ化した、各グループの位置姿勢変化の推定結果から1つを選び出し、これを第1演算結果とする。つまり、第2推定部207は画像処理部100に接続されており、第1演算結果は、第1入力部103(図1参照)に送信される。過去演算結果が入力される入力部208は、保存部108に接続されており、過去演算結果は入力部208を介して第2推定部207に出力される。
次に、図3を参照して、動きベクトルを使用した第2処理部300の構成について説明する。
画像入力部301は画像取得装置101に接続され、画像取得装置101が撮影する画像データが入力される。動きベクトル算出部302は、画像入力部301から入力される、基準フレームの画像と非基準フレームの画像の各データを比較して画像間の動きベクトルを算出して領域算出部303に出力する。ロバスト推定によるモーションごとの領域算出部303は、動きベクトル算出部302が算出した動きベクトルの情報を用いてモーションごとの領域の動きベクトルを算出する。位置姿勢変化の推定部304は、領域算出部303によって算出された領域ごとの動きベクトルを取得して位置姿勢変化を推定し、推定結果を、領域内特徴点の削除部305に出力する。削除部305は、領域算出部303によって算出された領域内の特徴点を削除して処理結果を、全体の位置姿勢変化を推定する推定部306に出力する。推定部306は、位置姿勢変化の推定部304によって推定されたモーションごとの領域の位置姿勢変化から、1つを選び出して第2演算結果とする。例えば、モーションごとの領域のうちで画像内に占める割合が最大である領域の位置姿勢変化が選択される。推定部306の出力は、第2入力部104を介して画像処理部100に入力される。過去演算結果が入力される入力部307は保存部108に接続されている。過去演算結果は入力部307を介して推定部306に入力される。
次に、図4に示すフローチャートを参照して、撮像装置1の動作について詳細に説明する。尚、動画像の場合、本実施形態では時間軸方向に沿って連続するフレーム間で位置姿勢変化の推定処理が行われるものとする。基準フレームと非基準フレームについては時間軸方向に関連しているフレームとするが、必ずしも隣接するフレームでなくてもよい。各フレームについては基準フレームとして処理が終了するまで、以下の処理が繰り返される。あるいはユーザ操作に従って基準フレームとして処理するフレームを設定してもよい。
S401では、画像取得装置101による画像データと、奥行画像取得装置102による奥行画像データが、第1処理部200へ入力される。第1処理部200は第1演算結果を算出し、第1入力部103へ出力する。第1処理部200が行う処理の詳細については、図5に示すフローチャートを用いて後述する。
S402では、画像取得装置101による画像データが、第2処理部300へ入力される。第2処理部300は第2演算結果を算出し、第2入力部104へ出力する。第2処理部300が行う処理の詳細については、図7に示すフローチャートを用いて後述する。S403では、保存部108に記憶されている過去演算結果が、第3入力部406を介し画像処理部100へ入力される。S404で静止領域決定部105は、S401で入力された第1演算結果と、S402で入力された第2演算結果と、S403で入力された過去演算結果に基づいて静止領域決定の判断基準を設定する。
本実施形態では、奥行データを使用した第1演算結果と、動きベクトルを使用した第2演算結果が類似である場合、第1演算結果と第2演算結果のどちらについても、静止領域で位置姿勢変化の推定を行っていることが判断される。「推定結果が類似する」とは、位置姿勢変化の平行ベクトルの向き(符号)が同一であり、かつ大きさの差が閾値以下であり、回転移動の回転角度の大きさが閾値以下の場合であると定義する。S404の処理では、予め定めた一方の推定結果が算出され、例えば、より高精度な位置姿勢値が求まる第1演算結果を採用する場合を想定するが、第2演算結果の方が安定度の高い状況では、第2演算結果を採用してもよい。あるいは第2演算結果と静止領域での位置姿勢変化の推定結果との平均演算により、位置姿勢変化の推定結果を算出してもよい。
第1演算結果と第2演算結果が異なる場合には、例えば、過去演算結果と比較され、これに近い方、つまり過去演算結果との差が小さい方の推定結果に係る領域を静止領域として設定する処理が行われる。例えば、フレームレート60fps(frames per second)で動画撮影を行う場合を想定する。現在の位置姿勢変化の推定結果と過去演算結果とで時間間隔は、1/60秒という短い時間である。このため、静止領域の位置姿勢変化は、像振れがあった場合でも現在の位置姿勢変化と過去の位置姿勢変化とで非常に近い値になる可能性が高い。従って過去演算結果に近い推定結果に係る領域が静止領域として設定される。また、位置姿勢の誤判定を極力回避するためには、過去演算結果が保存部108に存在しない場合、静止領域の判断不可として設定すればよい。本実施形態では、第1演算結果と第2演算結果が異なり、かつ過去演算結果がない場合、静止領域の判断不可と設定される。この他、ユーザが意図する結果と合致する静止領域の選択指針を予め手動操作で設定しておいて、適時に切り替え処理が行われるように構成してもよい。または、直前のフレーム間での位置姿勢変化の推定結果、または該推定結果から算定される予測値を利用してもよい。
S405で静止領域決定部105は、S404で設定された静止領域の判断基準に基づき、被写体領域が最大の領域または奥行領域が最大の領域から、静止領域の位置姿勢変化を算出する。「被写体領域が最大の領域」とは、画像内で被写体像が占める割合が最大の領域である。また「奥行領域が最大の領域」とは、画像内にて分割された奥行の占める割合が最大の領域である。静止領域決定部105は被写体領域が最大の領域を静止領域と判断した場合、S406へ処理を進め、奥行領域が最大の領域を静止領域と判断した場合、S407へ処理を進める。静止領域の判断不可となった場合、S408へ移行する。
S406で推定決定部107は、S40で入力された第2演算結果を、全体の位置姿勢変化の推定結果として決定する。S407で推定決定部107は、S40で入力された第1演算結果を、全体の位置姿勢変化の推定結果として決定する。また、S408で推定決定部107は、現フレームでの位置姿勢変化の推定を不可と判断し、現フレームでの位置姿勢変化の推定処理をスキップし、今回の処理を終了する。尚、本実施形態ではS408で現フレームの位置姿勢変化の推定処理を行わない判断が下されるが、位置姿勢変化の推定不可と判断された場合、位置姿勢変化の推定処理自体を終了してもよい。また、第1演算結果のデータと第2演算結果のデータとの差が閾値以下である場合、推定決定部107は、両者の重み付け演算処理を行った結果を、画像全体の位置姿勢変化として決定してもよい。
S406またはS407の後、S409へ処理を進める。S409では、S406とS407で選択した推定結果、つまり第1演算結果または第2演算結果のデータを保存部108に保存する処理が実行される。また位置姿勢変化に対する積分処理が実行され、ある基準フレームからの位置姿勢状態の変化を計算することにより、1フレーム分の位置姿勢変化の推定処理が行われる。ある基準フレームとは、例えば画像データの撮影開始タイミングとするフレームである。位置姿勢変化の積分処理において、例えば平行移動成分の積分は各要素の積分として行い、姿勢成分の積分はクォータニオン乗算により行うものとする。また、慣性航法装置(Inertial Navigation System)における軌跡演算で行われるように、統一した座標系である基準フレームからの撮像装置と撮影対象(処理対象)との相対的な位置姿勢の変化を計測できるように工夫してもよい。具体的には、姿勢変化の影響を平行移動成分の積分座標系に反映することで統一座標系における位置姿勢変化を厳密に演算することができる。統一座標系における位置姿勢の積分技術は、非特許文献1に記載されている。
また、保存部108に保存された、ある基準フレームからの位置姿勢変化の積分結果は、像振れ補正等に使用される。図1の撮像装置1は、例えば画像取得装置101内に撮影光学系および撮像素子と、撮像素子による画像データに係る像振れ補正を行う補正レンズ等の手段を有する。撮像装置1の制御部110はCPU(中央演算処理装置)を備え、推定決定部107が決定した画像全体の位置姿勢変化のデータを取得して像振れ補正量を算出する。制御部110は、補正レンズ等を駆動することで、手振れ等に応じた像振れ補正を行う。または入力画像に対し、積分した位置姿勢変化を打ち消す逆変換の画像変形を実施することにより、画像処理で像振れ補正を行うことができる。例えば、撮像装置の回転ブレに伴う像振れに対しては射影変換を実行することで像振れ補正を行える。また、撮像装置の光軸に垂直な方向の並進ブレにより生じる像振れに対しては被写体までの距離に反比例した並進補正を実行することで像振れ補正を行える。撮像装置の光軸に垂直な方向の並進ブレに対しては、拡大縮小の画像処理により補正できる。
次に、図5を参照して、図4のS401の処理を説明する。
S501において、位置姿勢変化の推定処理に用いるデータが入力される。具体的には、画像取得装置101による画像の撮影と、奥行画像取得装置102による奥行画像の撮影が同時に行われる。画像データは画像入力部201を介して第1処理部200へ入力され、奥行画像データは奥行画像入力部202を介して第1処理部200へ入力される。
S502で3次元点群生成部203は、S501で入力された画像データおよび奥行画像データを取得して3次元点群を生成する。本実施形態の3次元点群とは、3次元座標上に少なくとも画素(色・諧調)情報と位置情報を持った点の集合のことである。奥行画像を利用して、画像の各画素を3次元座標上にマッピングすることで3次元点群を生成することができる。各点の情報については法線の情報等を含んでもよい。3次元点群を生成する理由は、2次元の画像と2次元の奥行画像の各データに基づき、撮影対象と撮像装置1についての、3次元空間での位置および姿勢の関係を求めるためである。S503で奥行分割部204は、S501で入力された奥行画像データに基づいて、S502で生成された3次元点群を奥行ごとに分割する。奥行分割処理については、図6に示すフローチャートを用いて後述する。
S504で第1推定部205は、S503で分割した奥行ごとに位置姿勢変化を推定する。S503で奥行ごとに分割した3次元点群を基準フレームとし、該基準フレームと非基準フレームから、分割した奥行ごとの位置姿勢変化が推定される。例えば、S502で生成され、3次元点群生成部203から第1推定部205に直接入力された、次のサンプリングタイミングの3次元点群を非基準フレームとする。位置姿勢変化の推定には、ICP(Iterative Closest Point)アルゴリズム等を使用する。その詳細については後述する。
S505でグループ化処理部206は、S504で推定した位置姿勢変化が類似の推定結果ごとに、分割した奥行をグループ化する処理を実行する。
図12(A)はグループ化処理を簡略化して説明するための図である。ある一つの並進成分の位置姿勢変化を横軸とし、奥行クラスタの度数を縦軸としている。奥行が占める割合(以下、占有率という)を表す度数分布に対して、極値を探索する処理が実行され、各ローカルの極値の近傍ごとにセグメントをまとめてグループ化が行われる。グループ間の距離が近い場合、同一のグループとみなされる。ここで、グループ間の距離が近いとは、例えば下記条件を満たす場合とする。
・第1条件:位置姿勢変化の平行ベクトルの向きを示す符号が同一であり、かつ平行ベクトルの大きさの差が閾値以内であること。
・第2条件:回転移動の回転角度の大きさが閾値以内、つまりクォータニオンのノルムの差が一定値以内であること。
図12(A)ではローカルの極値が4箇所に現れており、それぞれグループ1、グループ2、グループ3、グループ4である。この場合、グループ3とグループ4とは、極値間の距離が近いため、上記条件を満たしている。このようにグループ間の距離が近い場合、グループ4とグループ3の各推定結果については類似の位置姿勢変化の推定結果とみなされる。つまりグループ4をグループ3に含めることができる。この場合、グループ4がグループ3に統合されるので、度数の一番多いグループは、グループ3となる。
図5のS506では、S505でグループ化処理を行った、位置姿勢変化の推定結果の中から、占有率に対応する度数が一番多いグループを選択する処理が実行される。具体的には、図12(A)に示す度数分布の場合、最大の度数を持つグループ3が選択される。すなわち、グループ4を含めたグループ3の度数が最大である。
S507では、S506で選択されたグループが複数存在しているか否かについて識別処理が実行される。図12(A)の例では、生成された3つのグループのうち、グループ3の奥行クラスタの度数が最大であるので、奥行領域が最大であると判断される。2番目に奥行クラスタの度数が多いグループ1、および3番目に奥行クラスタの度数が多いグループ2と、グループ3の奥行クラスタの度数の差をそれぞれ計算し、予め設定された閾値と比較する処理が行われる。計算結果が閾値以上であれば、単数のグループが存在すると判断され、奥行データを使用した位置姿勢変化の推定処理を終了する。また、1つでも閾値以下の計算結果が得られた場合、複数のグループが算出されたことが判断され、S508へ進む。図12(A)の例では、グループ3に対して、グループ1、グループ2ともに奥行クラスタの度数の差が閾値以上である。よって、奥行領域が最大のグループは単数(グループ3のみ)であると判断される。また、図12(B)の例では、グループ3とグループ1とで、奥行クラスタの度数の差が閾値以下である。よって、奥行領域が最大のグループが複数であると判断され、S508へ進む。
図12(A)のように、奥行を占める割合が一番多いグループが単数の場合には、S506の結果が、画像全体の位置姿勢変化として選択され、奥行データを使用した位置姿勢変化の推定処理が終了する。即ち、画像内に占める割合が最大である領域に係る位置姿勢変化の推定結果を全体の位置姿勢変化とするのではなく、奥行を占める割合が最大である領域に係る位置姿勢変化の推定結果が、全体の位置姿勢変化推定の結果として採用される。S508では、保存部108に過去演算結果が保存されているか否かについて判定が行われる。過去演算結果が保存されている場合、S509へ進み、保存されていない場合にはS511へ進む。
S509では、保存部108に保存されている過去演算結果が、入力部208を介して第2推定部207に入力される。S510で第2推定部207は、S509で入力された過去演算結果を利用して、動体領域を識別する。第2推定部207は、S505にてグループ化された位置姿勢変化推定の結果から、静止領域の位置姿勢変化を選択することにより、全体の位置姿勢変化を推定する。
S511では、S505にてグループ化された奥行のうち、いずれか一つを選択する処理が実行される。例えば、選択方法として、ユーザ操作により任意のグループから一つが選択されて、全体の位置姿勢変化の推定結果が確定する。S510、S511の後、奥行データを使用した位置姿勢変化の推定処理が終了する。
本実施形態では、占有率が一番高いグループが複数存在する場合(S507でNO)、S510で過去演算結果に一番近いグループを選択するか、S511でユーザが任意のグループを選択することにより、位置姿勢変化の推定結果が確定する。これに限らず、奥行の占有率が一番高いグループが複数存在した時点、または過去演算結果が存在しなかった時点で、位置姿勢変化が推定不可能であると判断してもよい。この場合、位置姿勢変化を推定せずに、現フレームの奥行データを使用した位置姿勢変化の推定が見送られ、または奥行データを使用した位置姿勢変化の推定処理自体が終了する。
次に、図6を参照して、図5のS503の奥行分割処理を説明する。図8は本実施形態における奥行分割例の説明図である。
S601で奥行分割部204は、奥行を分割するための基準として閾値を設定する。この設定は、奥行を分割する際、連続的な奥行の長さが閾値を超えないようにするために行われる。S602では、撮影物体の3次元座標上での奥行について、手前側から奥側へと順に点群が存在しているかどうかが判断される。連続的な奥行の長さが、S601で設定した閾値を超えているか否が判定される。図8(A)は撮像装置から見た場合に手前から順に配置された立方体、第1の円柱、第2の円柱を撮影対象とする例を示す。図8(B)に示すように、連続的な奥行の長さが閾値を超えない場合、S603へ処理を進める。図8(D)は立方体、第1の円柱、第2の円柱に加えて、直方体がさらに配置された例を示す。図8(E)に示すように直方体の画像は、手前側から奥側へ連続して3次元点群が存在しているので、S602では連続的な奥行の長さが閾値を超えたと判断され、S604へ進む。
S603では、図8(C)で示すように、点群の存在しない奥行方向の領域が不連続な領域と判断され、不連続な領域を分割面として奥行の分割処理が実行される。図8(C)では、3つの領域(奥行1ないし3参照)の分割が行われる。一方、S604では、図8(F)に示すように、連続的な奥行の長さが閾値を超えてしまっているので、奥行の長さが閾値を超えないよう、閾値での奥行の分割処理が実行される。図4(F)では、「奥行1」と「奥行2」の各領域の間と、「奥行2」と「奥行3」の各領域の間において、閾値に応じた分割面が設定される。
S605では、分割面よりもさらに奥側の領域に撮影対象があるか否かの判定処理である。判定の結果、分割面よりも撮影対象が存在しない場合に奥行分割処理を終了し、分割面よりも奥側に撮影対象が存在する場合にはS602に処理を戻す。S601からS605の処理が終了すると、図5のS502で生成された3次元点群は、連続的な奥行の長さが閾値以下の3次元点群に分割されることになる。尚、本実施形態では、手前側から奥側へと順に奥行分割処理を行ったが、これとは逆に、奥側から手前側へと順に奥行分割処理を行ってもよい。また、奥行分割方法については、異なる撮影物体の領域の奥行を分割可能であればどのような方法でも構わない。例えば、点群の点の数が分割領域ごとに同一数になるように奥行を分割してもよいし、撮影物体に関係なく奥行を均等に分割してもよい。
次に、図5のS504に示す、奥行ごとの位置姿勢変化の推定処理について、図10を参照して説明する。以下では、図10(B)に示した、奥行ごとに分割した3次元点群を基準フレームとし、図10(A)に示した、次のサンプリングタイミングでの3次元点群を非基準フレームとする。図10では、分割した奥行ごとに位置姿勢変化を推定する場合を例示する。図10(B)の画像を基準フレームとして行う奥行分割処理では、図8(C)の例と同様に、3つの奥行1ないし3に分割されるものとする。
図10(C)は、第1奥行「奥行1」での位置姿勢変化の推定結果を示し、立方体の位置変化を例示する。図10(D)は、第2奥行「奥行2」での位置姿勢変化の推定結果を示し、立方体の奥に配置された第1の円柱の位置変化を例示する。図10(E)は、第3奥行「奥行3」での位置姿勢変化の推定結果を示し、最も奥に配置された第2の円柱の位置変化を例示する。図10(C),(D),(E)では、それぞれに分割された奥行ごとに、図10(A)と(B)の各フレームの画像を比較することで、3次元点群の位置姿勢変化が推定される。
図10(F)はグループ化の一例を示す。図10(F)では、奥行2と奥行3が類似する位置姿勢変化の推定結果をもち、同一のグループに統合される。また、奥行1の位置姿勢変化の推定結果は、奥行2および奥行3の位置姿勢変化の推定結果とは非類似であるため、単独のグループとしている。奥行2と奥行3を1つにまとめたグループの方が、全体の奥行を占める割合が高い。この場合、前述したように、奥行2と奥行3を1つにまとめたグループに対応する位置姿勢変化の推定結果が選択される。
本実施形態では、時間軸方向に連なる複数のフレーム間で位置姿勢変化の推定を行うものとし、基準フレームと非基準フレームは時間軸方向にて互いに関連しているフレームとする。両フレーム同士は必ずしも隣接していなくてもよい。3次元点群間の位置姿勢変化の推定には、例えば、ICPアルゴリズムを使用する。
図11の模式図を用いてICPアルゴリズムの具体的な方法を説明する。図11(B)は基準フレームの点群(白丸印参照)を示し、図11(A)は非基準フレームでの点群(黒丸印参照)を示す。図11(C)は、図11(B)に示す基準フレームの点群の各点を、図11(A)に示す非基準フレームの点群の中で最も近い点に対応させる処理を示す。楕円枠で囲んで示すように、枠内の点同士が対応した関係にあることを表している。図11(D)は、対応する点間の距離について、最小二乗法により、基準フレームの点群(白丸印参照)を平行移動または回転移動させ、非基準フレームの点群(黒丸印参照)に重なるよう移動させた場合の様子を示している。並進または回転の後、一定の処理回数を超えるか、または対応点間の距離の二乗和が閾値以下になるまでの間、フレーム間での前記処理が繰り返し実行される。その結果、図11(E)のようにフレーム間の距離の差を少なくして、位置姿勢変化が推定される。例えば、平行移動を奥、縦、横の各方向の成分を含む3次元のベクトルで表し、回転移動を4次元のクォータニオンで表す。これによって、点の平行移動と回転移動を組み合わせた7次元の空間で表わされる、位置姿勢とその変化を数値的に記述できる。
本実施形態ではICPアルゴリズムの一例を示したが、画像フレーム間での位置姿勢変化を推定できる方法であれば、如何なる方法を用いてもよい。例えば、本実施形態ではフレーム内の全ての点を用いて推定処理を行っているが、ランダムサンプリングや、一定間隔ごとのサンプリングによって使用する点数を減らしても構わない。また、本実施形態ではフレーム間において最も近い点を対応点とする例を説明したが、さらに点の色や法線等の情報を使用し、より良い対応点を探索する方法等がある。
次に、第2処理部300について、図7のフローチャートを参照して詳細に説明する。
S701では、位置姿勢変化の推定に用いる画像データが入力される。具体的には、画像取得装置101により画像が撮影され、撮影後の画像データは、画像入力部301を介して動きベクトル算出部302に入力される。S702で動きベクトル算出部302は、S701で入力された画像の動きベクトルを算出する。本実施形態では、基準フレームの画像から特徴点が検出される。次に、非基準フレームの画像から特徴点が検出され、基準フレームの画像の特徴点と非基準フレームの画像の特徴点とを対応付ける処理が行われる。2枚の画像間にて対応する特徴点の移動量から、動きベクトルが算出される。例えば、特徴点の検出と対応付けには、SIFT(Scale-invariant feature transform) を利用する。SIFTでは、まずDifference−of−Gaussian(DoG)フィルタによるフィルタリング処理を行い、生成されたDoG画像内の極値を特徴点の候補とする。次に、特徴点の候補のうちで、主曲率がある一定以上の点と、コントラストがある一定以下の点が除去され、残った点が特徴点として決定される。これらの特徴点の周囲(例えば16×16画素)の各画素の輝度勾配を計算することで、特徴点の特徴量が算出される。最後に特徴点の特徴量を画像間で比較し、類似度の高い組み合わせを求めることで、画像間の対応付けが行われる。尚、特徴点の検出および対応付けの方式についてはSIFTに限らず、SURF(Speeded Up Robust Feature)等を使ってもよく、画像間での対応付けが可能な方式に制限はない。例えば、SSD(Sum of Squared Difference)やNCC(Normalized Cross Correlation)等での微小領域の相関探索により動きベクトルを求める方法がある。勾配法によるオプティカルフロー探索手法、符号化で用いられるブロックマッチング等を用いてもよい。
S703で領域算出部303は、S702で算出した動きベクトルに対してロバスト推定を行う。例えば、RANSAC(Random Sample Consensus)を用い、最大の割合の動きベクトルに対応するモーションのパラメータが算出される。RANSACでは、n個の動きベクトルデータを無作為に抽出して、最小二乗法によりモーションパラメータを求め、該モーションパラメータと、総データからn個のデータを除いたものの誤差が計算される。誤差が許容範囲内であれば、抽出したn個のデータから求めたパラメータに投票を行う。この処理を繰り返し行い、投票数の多かったパラメータが、最大の割合の動きベクトルに対応するモーションとして算出される。パタメータのモデルとして、例えば射影変換モデルやアフィン変換モデルを用いる。
S704では、領域算出部303によって同一のモーションの動きベクトル算出領域が推定される。同一のモーション領域の算出方法では、注目画素の類似度と局所的な位置ずれが計算される。非基準フレームに対してモーションのパラメータに基づいて位置合わせが行われる。基準フレームを変換した画像ya(X+I)、非基準フレームの画像yb(X)、類似度R(X,I) 、注目座標X=[x,y]、平行移動ベクトルI=[i,v]、Xの近傍領域C(X)とする。類似度R(X,I)は(式1)で表すことができる。
Figure 0006429466
次に、領域算出部303は類似度を使用して、局所的な位置ずれ量を算出する。i=-1,0,1とj=-1,0,1におけるR(X,I)を使用して、(式2)の二次曲面z(i,j)の最小二乗解が算出される。
Figure 0006429466
領域算出部303は、(式1)で計算した類似度が高く、かつ(式2)で計算した位置ずれ量の小さい画素の集合を、同一の動きベクトル算出領域とする。
S705で位置姿勢変化の推定部304は、S704で推定された動きベクトル算出領域ごとに、動きベクトルを用いて位置姿勢変化を推定する。推定部304は、まず動きベクトルを、基準フレームのピクセル座標系の動きベクトル値から正規化画像座標系における動きベクトル値に変換する。以下の座標を使用する。
(x,y):基準フレーム上のピクセル座標。
(ud,vd):歪みを含む正規化画像座標。
(u,v):歪みを除去した正規化画像座標。
推定部304は、内部パラメータおよび歪み係数を用いてピクセル座標の正規化座標への変換を行う。まず、カメラ内部パラメータを、正規化座標のピクセル座標へ変換するときの拡大縮小係数を、
Figure 0006429466
で表し、ピクセル座標の中心を(u0,v0)で表す。推定部304は、ピクセル座標を、カメラの内部パラメータを使用して正規化画像座標に変換する。inv(X)は行列Xの逆行列を表す。
Figure 0006429466
カメラの内部行列Kは(式4)で表される。
Figure 0006429466
さらに推定部304は、(式5)、(式6)により歪み除去を行う。
Figure 0006429466
Figure 0006429466
(式5)中のknは(nは自然数の変数)、n次の放射方向の歪み係数を表す。これらは光学系の収差より生じる歪みである。歪みは光学系の焦点距離や被写体距離等の撮影条件ごとに変化するため、焦点距離等との関係については設計値から算出される。
次に、推定部304は射影ホモグラフィに基づいて姿勢推定を行う。非基準フレーム正規化座標を(ui,vi)とし、基準フレームの正規化座標を(u’i,v’i)とする。i=1,2,・・・,m (mは対応点数)とすると、射影ホモグラフィについての以下の線形式が得られる。
Figure 0006429466
この式は対応点数mが8以上ならば、過決定となる。(式7)を線形最小二乗式として解くことにより、
Figure 0006429466
が求められる。これを3行3列の行列に整形することにより、
Figure 0006429466
が得られ、射影ホモグラフィ、つまりフレーム間の画像の変化量が求められる。
次に、推定部304は、射影ホモグラフィをカメラワーク回転R、シーンの被写体を近似した面の方向ベクトル
Figure 0006429466
と、そして並進方向ベクトル
Figure 0006429466
と深度dとの積、
Figure 0006429466
に分解する。以下の手順により可能な2つの解が算出される。射影ホモグラフィの2つの解への分解については、固有値分解、特異値分解を利用し、不変量を見出すことで行われる。様々な解法が可能であるが、非特許文献2で用いられたアプローチを参考にして説明する。
射影ホモグラフィHと、カメラワークおよびシーン配置の関係は次式で表される。
Figure 0006429466
(式9)中の、
Figure 0006429466
はカメラの回転および並進をそれぞれ表す。dは基準面までの距離を表す。
Figure 0006429466
は基準面のカメラから離れる向きの法線であり、λは任意の定数である。ここで、2画像間からの算出では、空間平面の距離dと、カメラワーク並進のノルム、
Figure 0006429466
の積を分けることはできない。ノルムとはベクトルの大きさを表す量である。つまり、
Figure 0006429466
は並進方向を表す単位方向ベクトルであり、
Figure 0006429466
であり、dは空間平面までの距離と並進量の大きさの積として扱われる。
射影ホモグラフィHの符号は、平面上の全ての対応点をベクトル、
Figure 0006429466
として、
Figure 0006429466
を満たすように選択されるものとする。
Hの特異値分解は、
Figure 0006429466
となる。ここでUおよびVは3行3列の回転行列である。
Figure 0006429466
は正の降順対角要素、
Figure 0006429466
であり、Hの特異値とする。関連する直交行列UおよびVの列要素を、
Figure 0006429466
および
Figure 0006429466
で表す。
例えば、複数のカメラを使用する場合、第1カメラの参照系を採用し、3次元平面を、
Figure 0006429466
とする。ここで、
Figure 0006429466
は外向き(カメラから離れる方向)の法線とする。
ζ=1/d(≧0)は、平面に対する距離の逆数である。参照系において、第1カメラは3行4列の射影行列、
Figure 0006429466
を持つ。そして第2カメラは、
Figure 0006429466
を持つ。ここで、
Figure 0006429466
である。t、t’はカメラ間の並進、つまり第1カメラの光軸中心から第2カメラの光軸中心への並進を表す。Rはカメラ間の回転を表す。
基準フレームの画像から非基準フレームの画像へのホモグラフィは、
Figure 0006429466
である。ここで、
Figure 0006429466
である。平面上の3次元点、
Figure 0006429466
に対して、
Figure 0006429466
これは、
Figure 0006429466
による。平面上の3次元点、
Figure 0006429466
を基準フレームの画像内の任意点と扱うと、違いは全体のスケール因子のみである。
3つの積、
Figure 0006429466
のみが復元可能である。それゆえ、
Figure 0006429466
で正規化する。つまり平面距離、1/ζは、単位基線長、
Figure 0006429466
において測定される。可能な符号を決めるために、後述するデプス正制約テストが行われる。
特異値分解の、
Figure 0006429466
と、
Figure 0006429466
はRの要素まで同じである。すなわち、
Figure 0006429466
である。
1において、ベクトル積、
Figure 0006429466
は不変である。特異値が明確ならば、
Figure 0006429466
は特異ベクトルに対応しなければならない。よって、これは2番目の特異ベクトルν2であると分かる。それゆえHの補正正規化は、
Figure 0006429466
つまり、
Figure 0006429466
である。以下、σ2による正規化が済まされているものとする。
基準フレームにおいて、
Figure 0006429466
がν2に対応することが与えられると、
Figure 0006429466
部分空間は、
Figure 0006429466
により占められなければならない。つまり任意のパラメータ、
Figure 0006429466
に対して、
Figure 0006429466
である。
Figure 0006429466
に直交する任意方向、
Figure 0006429466
は、HまたはH1によって変化しないノルムを持つ。
ここで、
Figure 0006429466
あるいは、
Figure 0006429466
である。
Figure 0006429466
を上記のν1、または ν3に対応させると、解がなくなってしまう。それゆえ、ν2のみが可能となる。
厳密には、左辺の同じ引数が、
Figure 0006429466
を示す。
Figure 0006429466
がH1の固有値、
Figure 0006429466
の固有ベクトルを満たすならば、
Figure 0006429466
を得る。故に、
Figure 0006429466
である。および(単純化後には)、
Figure 0006429466
である。
1の特異値分解の左辺、つまりU1の列、
Figure 0006429466
は表記、
Figure 0006429466
により復元可能であり、
Figure 0006429466
がH1の固有ベクトルであることが必要である。そこでは、
Figure 0006429466
である。ここで(単純化後に)、
Figure 0006429466
であり、故に、
Figure 0006429466
として、最後に回転行列Rが得られる。
以下、画像変化量を、回転と並進からなるカメラワークRと、方向ベクトル
Figure 0006429466
と、空間の基準面の深さ位置dと、
方向ベクトル
Figure 0006429466
からなるシーン配置との可能な2つの解を算出するための、一連の具体的な処理を、以下の数式で、まとめて示す。
Figure 0006429466
Figure 0006429466
ただし、
Figure 0006429466
Figure 0006429466
Figure 0006429466
Figure 0006429466
Figure 0006429466
Figure 0006429466
Figure 0006429466
これらを用いて可能な2つの解、
Figure 0006429466
Figure 0006429466
が求まる。
Figure 0006429466
Figure 0006429466
Figure 0006429466
これらの解の組に対し、方位ベクトル、
Figure 0006429466
が外向きの約束(デプス正制約)を導入する。
Figure 0006429466
Figure 0006429466
と符号の整合性を取ることにより、可能な2つの解が算出される。その後、エピポーラ誤差チェックが行われて、誤差の少ない1つの解が抽出される。
エピポーラ誤差チェックは、以下のように実行される。
対応点、
Figure 0006429466
より求められたホモグラフィを分解して得られる姿勢変化とシーン情報の可能な2つの解のセット、
Figure 0006429466
および
Figure 0006429466
について、対応点を用いてエピポーラ誤差が算出される。エピポーラ誤差は、
Figure 0006429466
で表される。nは対応点数である。誤差の小さな解が真の解として選択される。これにより、入力されたフレーム間のカメラワークを表す、
Figure 0006429466
の唯一の解が求まる。こうして、動きベクトルを使用した位置姿勢変化が推定される。
尚、説明は省略するが、ピンホールカメラモデルを想定した、非平面シーンに対するカメラの姿勢推定方法である基本行列に基づく姿勢推定(非特許文献3)および5点法(非特許文献4)については、公知技術をベースにして実現可能である。
図7のS706で領域内特徴点の削除部305は、S704で算出されたモーションごとの領域内の動きベクトルの算出点、つまり特徴点を削除する。S707で削除部305は、S704にて算出されたモーション領域外に特徴点が残っているか否かを判定する。モーション領域外に特徴点が残っている場合、S702に処理を戻す。S706で削除されなかった特徴点で再度対応付けが行われ、動きベクトルの算出と残りの領域でモーションごとの領域が算出される。このように段階的にモーションごとの領域の算出を行うことにより、複数のモーションの算出が可能となる。S707でモーション領域外に特徴点が残っていなかった場合、S708に進む。S708で推定部306は、S704で算出したモーションごとの領域が単数か複数かを判定する。例えば、閾値を設定して比較することで、領域内の画素数が多いモーションが単数か、または複数かが判定される。領域数が単数の場合、推定部306は、S705で推定した位置姿勢変化を、全体の位置姿勢変化とし、処理を終了する。領域数が複数の場合、S709へ進む。
図13を参照して、S708の判定処理について説明する。図13では、ある一つの並進成分の位置姿勢変化を横軸とし、被写体クラスタの度数を縦軸とする。縦軸は画像内で被写体領域の占める割合に相当する。図13(A)の例では、3つのモーションが検出される。これらのうちでモーション3の度数が最大であるので、その被写体領域が最大であると判断できる。2番目に被写体クラスタの度数が多いモーション1、および3番目に被写体クラスタの度数が多いモーション2に対して、モーション3の被写体クラスタの度数との差が計算される。予め設定された閾値と計算結果が比較される。計算結果が閾値以上であれば、単数のモーションであると判断され、動きベクトルを使用した位置姿勢変化の推定を終了する。また、計算結果により閾値以下のモーションが存在する場合には、複数のモーションが算出されたと判断され、図7のS709へ進む。
図13(A)では、モーション3に対し、モーション1、モーション2ともに被写体クラスタの度数の差が閾値以上である。よって、最大領域のモーション3は単数である。一方、図13(B)では、モーション3とモーション1との間で被写体クラスタの度数の差が閾値以下である。よって、最大領域のモーションは複数である。
図7のS709では、保存部108に過去演算結果が保存されているか否かについて判定される。過去演算結果が保存されていた場合、S710へ進むが、保存されていなかった場合にはS712へ移行する。S710では、保存部108に保存されている過去演算結果が、入力部307を介して推定部306に入力される。
次のS711で推定部306は、S710で入力された過去演算結果を利用して動体領域を識別する。推定部306は、S705で推定された位置姿勢変化の結果から、静止領域の位置姿勢変化の推定結果を選択することで、全体の位置姿勢変化を決定する。過去演算結果を利用した動体領域の識別処理では、過去演算結果に一番近い位置姿勢変化の推定結果が選択される。例えば、フレームレート60fpsで動画撮影を行う場合、現在の位置姿勢変化の推定結果と、過去演算結果との間隔は1/60秒である。この短い間隔のため、静止領域の位置姿勢変化は、像振れがあった場合でも現在の位置姿勢変化と過去の位置姿勢変化とで非常に近い値になる可能性が高い。従って、推定部306は、過去演算結果に近い位置姿勢変化を静止領域の位置姿勢変化とし、全体の位置姿勢変化の推定結果と決定する。これにより、画角内に瞬間的に侵入する移動体への対策を講じることができるので、安定した推定結果が得られる。つまり、画角内に一瞬の間のみ侵入する移動体によって、推定結果への影響を被ることがない。
S712では、S705で得られた位置姿勢変化の推定結果の中から、ユーザ操作によって任意の位置姿勢変化が選択され、推定部306は、選択された位置姿勢変化により全体の位置姿勢変化を決定する。S711、S712の後、動きベクトルを使用した位置姿勢変化の推定処理を終了する。
次に、図9を参照して本実施形態の効果を説明する。
図9(A)は非基準フレームの画像内の領域の割合を示し、図9(B)は基準フレームの画像内の領域の割合を示す。また、図9(C)は、非基準フレームにおいて動体領域および静止領域に係る奥行の割合を示す。図9(D)は、基準フレームにおいて動体領域および静止領域に係る奥行の割合を示す。図9(E)は本実施形態による位置姿勢変化の推定結果を説明する図である。図9(F)は従来法による位置姿勢変化の推定結果を説明する図である。
図9(A)および(B)ともに、画像内にて静止領域よりも動体領域が多くの面積を占めている。一方、図9(C)、図9(D)で示すように、奥行を占める割合については、静止領域の方が動体領域よりも多く占めている。図9(A)、図9(B)の画像において従来法で位置姿勢変化を推定すると、静止領域に比べて動体領域内において計算に使用する動きベクトルや対応点が多く表われる。このため、図9(F)に示すように動体領域の位置が変わらないという結果になる可能性が高くなる結果、動体領域に引きずられた推定結果になりやすい。
これに対して、図9(C)、図9(D)の画像において本実施形態で位置姿勢変化を推定すると、奥行を占める割合の多い静止領域で位置姿勢変化が推定される。図9(E)に示すように静止領域の位置が不変であり、すなわち動体領域を計算結果から除外し、動体領域に引きずられにくい位置姿勢変化推定が可能となる。
但し、この処理方法だけでは、動体領域が奥行を占める割合において最大となった場合、間違った推定結果となる可能性がある。そこで、動きベクトルを使用した位置姿勢変化の推定と、奥行を使用した位置姿勢変化の推定とが並行して行われ、画像内の領域を多く占める領域での位置姿勢変化が推定されることになる。このように2つの処理方法による位置姿勢変化の推定の整合性をとることで、推定精度をより高めることが可能となる。例えば、撮像装置の像振れ補正(防振制御)において、従来の補正では動体領域に引きずられた不自然な補正になる可能性がある。これに対して、本実施形態では、動体領域に引きずられにくい像振れ補正を実現できる。
[変形例]
次に、第1実施形態の変形例を説明する。
変形例では、以下の点が前記実施形態と相違する。
(A)奥行データを使用した第1処理部200と、動きベクトルを使用した第2処理部300において、それぞれの過去の推定結果を利用し、最大領域以外の位置姿勢変化の推定結果が選択されること。
前記実施形態では第1処理部200および第2処理部300で、それぞれ割合が最大である、一つの領域に係る位置姿勢変化の推定結果が選択される。画像処理部100はそれぞれの位置姿勢変化の推定結果の類似や、過去演算結果との比較によって全体の位置姿勢変化推定結果を算出する。これに対して、変形例では最大領域に係る位置姿勢変化の推定結果が選択されるとは限らず、過去の推定結果との比較結果に依存する。
(B)奥行データを使用した第1処理部200と、動きベクトルを使用した第2処理部300において、全ての領域に係る位置姿勢変化の推定結果が画像処理部100へ入力されること。
この場合、静止領域の判断基準の設定処理は、奥行データを使用した位置姿勢変化の全ての推定結果と、動きベクトルを使用した位置姿勢変化の全ての推定結果と、過去の位置姿勢変化の推定結果を比較して実行される。さらには、ユーザが意図する結果と合致する判断基準を手動選択する処理を組み合わせることにより、ユーザが期待する、動体領域に引きずられにくい位置姿勢変化の推定結果を得ることができる。
[第2実施形態]
次に、本発明の第2実施形態を説明する。なお、第1実施形態の場合と同様の構成部については既に使用した符号を用いることにより、それらの詳細な説明を省略する。
図14は、第2の実施形態である撮像装置の構成例を示すブロック図である。撮像装置10は、画像取得装置101と奥行画像取得装置102を備える。
画像取得装置101は、被写体を撮影して2次元画像のデータを取得するユニットである。画像取得装置101の画像データは、第1処理部2000と第2処理部3000にそれぞれ出力される。本実施形態では、奥行データを使用する第1処理部2000と、画像の動きを示すデータを使用する第2処理部3000を用いる。画像の動きとは、動きベクトルまたは対応点または注目点の軌跡であり、本実施形態では動きベクトルを例示する。
奥行画像取得装置102は、奥行データを検出する装置であり、第1処理部2000に接続されている。本実施形態では、奥行データとして、例えば画素ごとに奥行のデータを持った奥行画像として説明する。奥行画像取得装置102は、例えば、赤外線照射部と赤外線読み取り部を有する。赤外線照射部は所定パターンの赤外線を対象物に照射し、反射した赤外線を赤外線読み取り部が読み取る。これによりパターンの歪みを読み取り、奥行画像の撮影が行われる。尚、奥行画像の生成の方式については、他の方式でもよい。例えば、赤外線を照射してから、読み取りにかかる時間を計測して奥行画像の撮影をするTime of flight方式や、多眼レンズで撮影した複数枚の画像の視差を求めて奥行画像の生成を行う方式でもよい。奥行画像の生成が可能であれば、方式の如何は問わない。
第1処理部2000は、画像取得装置101からの画像データ、および奥行画像取得装置102からの奥行画像データを取得し、背景領域候補と位置姿勢変化を推定する。第1処理部2000は、奥行データを使用した背景領域候補の推定結果と位置姿勢変化の推定結果を位置姿勢推定部1000に出力する。
第2処理部3000は、画像取得装置101によって撮影された画像データを使用して動きベクトルを検出して、背景領域候補と位置姿勢変化を推定する。第2処理部3000は、動きベクトルを使用した背景領域候補の推定結果と位置姿勢変化の推定結果を位置姿勢推定部1000に出力する。
位置姿勢推定部1000は、第1入力部1003、第2入力部1004と、静止領域決定部1005と、全体の位置姿勢変化の推定決定部1006と、選択部1009を備える。
奥行データを使用した背景領域候補と位置姿勢変化の各推定結果が入力される第1入力部1003は、第1処理部2000に接続されている。第1処理部2000により奥行データを使用して推定された、第1の背景領域候補と位置姿勢変化の演算結果(以下、第1の演算結果という)は、第1入力部1003から静止領域決定部1005および推定決定部1006に出力される。また、動きベクトルを使用した背景領域候補と位置姿勢変化の各推定結果が入力される第2入力部1004は、第2処理部3000に接続されている。第2処理部3000により動きベクトルを使用して推定された、第2の背景領域候補と位置姿勢変化の演算結果(以下、第2の演算結果という)は、第2入力部1004から静止領域決定部1005および推定決定部1006に出力される。
静止領域決定部1005は、第1および第2の演算結果を取得し、これらの情報に基づいて画像内の静止領域を決定する。決定された静止領域の情報は推定決定部1006に出力される。推定決定部1006は、第1の演算結果および第2の演算結果と、静止領域決定部1005によって決定された静止領域の情報を用いて画像全体の位置姿勢変化を決定する。位置姿勢推定結果保存部1008(以下、単に保存部という)は、位置姿勢変化の推定結果を保存する。保存部1008は推定決定部1006に接続され、推定決定部1006が決定した位置姿勢変化の推定結果を過去演算結果として記憶する。過去演算結果は静止領域の決定の際に利用してもよい。また静止領域決定部1005に接続された選択部1009により、ユーザ操作で選択された判断基準に従って静止領域を決定することもできる。選択部1009は、静止領域の判断基準をユーザ操作に応じて選択するための操作部や設定画面等を表示する表示部を備える。
撮像装置10の制御部1007はCPU(中央演算処理装置)を備え、推定決定部1006が決定した画像全体の位置姿勢変化のデータを取得して像振れ補正量を算出する。制御部1007の基本的機能は、図1に示す制御部110と同様である。
次に、第1処理部2000の構成について、図15のブロック図を参照して説明する。
画像入力部2001には、画像取得装置101からの画像データが入力され、奥行画像入力部2002には、奥行画像取得装置102からの奥行画像データが入力される。3次元点群生成部2003は、画像データおよび奥行画像データを、画像入力部2001および奥行画像入力部2002からそれぞれ取得して、後述する3次元点群を生成する。3次元点群のデータは、ICPによる最多適合領域算出部2004に出力される。最多適合領域算出部2004は、3次元点群生成部2003が生成した3次元点群に対し、ICPアルゴリズムを使用して領域ごとに分割処理する。処理結果は第1の位置姿勢変化推定部2005に出力される。
第1の位置姿勢変化推定部2005は、最多適合領域算出部2004が算出した領域に対応する位置姿勢変化を算出し、該位置姿勢変化を当該領域の位置姿勢変化と推定する。推定結果は、3次元点群の削除部2006に出力される。削除部2006は、最多適合領域算出部2004が算出した領域内の3次元点群を削除して、処理結果を第1の背景領域候補推定部2007に出力する。第1の背景領域候補推定部2007は、第1の位置姿勢変化推定部2005によって推定された奥行ごとの位置姿勢変化の推定結果に基づき、少なくとも最奥の奥行を含む同一の位置姿勢変化の推定結果の領域を背景領域候補として選び出す。第1の推定処理結果として選出された背景領域候補は、第1の演算結果として位置姿勢推定部1000に出力される。つまり第1の背景領域候補推定部2007は位置姿勢推定部1000に接続されており、第1の演算結果は第1入力部1003に送信される。
次に、図16を参照して、動きベクトルを使用した第2処理部3000の構成について説明する。
画像入力部3001は画像取得装置101に接続され、画像取得装置101が撮影する画像データが入力される。動きベクトル算出部3002は、画像入力部3001から入力される、基準フレームの画像と非基準フレームの画像の各データを比較して画像間の動きベクトルを算出して領域算出部3003に出力する。ロバスト推定によるモーションごとの領域算出部3003は、動きベクトル算出部3002が算出した動きベクトルの情報を用いてモーションごとの領域の動きベクトルを算出する。
第2の位置姿勢変化推定部3004は、領域算出部3003が算出した領域ごとの動きベクトルを取得して位置姿勢変化を推定し、推定結果を、領域内特徴点の削除部3005に出力する。削除部3005は、領域算出部3003が算出した領域内の特徴点を削除した処理結果を、第2の背景領域候補推定部3006に出力する。第2の背景領域候補推定部3006は、第2の位置姿勢変化推定部3004によって推定されたモーションごとの領域の位置姿勢変化のうち、テクスチャなどから背景と推定される領域を背景領域候補として選択する。第2の推定処理結果として選択された背景領域候補は、第2の演算結果となる。第2の背景領域候補推定部3006の出力は、第2入力部1004を介して位置姿勢推定部1000に入力される。
次に、図17に示すフローチャートを参照して、撮像装置10の動作について詳細に説明する。尚、動画像の場合、本実施形態では時間軸方向に沿って連続するフレーム間で位置姿勢変化の推定処理が行われるものとする。基準フレームと非基準フレームについては時間軸方向に関連しているフレームとするが、必ずしも隣接するフレームでなくてもよい。各フレームについては基準フレームとして処理が終了するまで、以下の処理が繰り返される。あるいはユーザ操作に従って基準フレームとして処理するフレームを設定してもよい。
S1701では、画像取得装置101による画像データと、奥行画像取得装置102による奥行画像データが、第1処理部2000へ入力される。第1処理部2000は第1の演算結果を算出し、第1入力部1003へ出力する。第1処理部2000が行う処理の詳細については、図18に示すフローチャートを用いて後述する。
S1702では、画像取得装置101による画像データが、第2処理部3000へ入力される。第2処理部3000は第2の演算結果を算出し、第2入力部1004へ出力する。第2処理部3000が行う処理の詳細については、図19に示すフローチャートを用いて後述する。
S1703で静止領域決定部1005は、S1701で入力された第1の演算結果と、S1702で入力された第2の演算結果に基づいて静止領域決定の判断基準を設定する。S1704で静止領域決定部1005は、S1703で設定された静止領域の判断基準に基づき、S1701で入力された第1の演算結果と、S1702で入力された第2の演算結果から静止領域を決定する。静止領域決定部1005が行う処理の詳細については、図21に示すフローチャートを用いて後述する。
S1705で全体位置姿勢変化の推定決定部1006は、S1704で決定された静止領域に基づき、S1701で入力された第1の演算結果と、S1702で入力された第2の演算結果から全体の位置姿勢変化を推定する。S1706では、S1705で推定された推定結果、つまり第1の演算結果または第2の演算結果のデータを保存部1008に保存する処理が実行される。保存部1008に保存されたデータについては第1実施形態の場合と同様に積分処理が行われ、積分されたデータは像振れ補正等に使用される。
次に、図18を参照して、図17のS1701の処理を説明する。
S1801において、位置姿勢変化の推定処理に用いるデータが入力される。具体的には、画像取得装置101による画像の撮影と、奥行画像取得装置102による奥行画像の撮影が同時に行われる。画像データは画像入力部2001を介して第1処理部2000へ入力され、奥行画像データは奥行画像入力部2002を介して第1処理部2000へ入力される。S1802で3次元点群生成部2003は、S1801で入力された画像データおよび奥行画像データを取得して3次元点群を生成する。本実施形態の3次元点群とは、3次元座標上に少なくとも画素(色・諧調)情報と位置情報を持った点の集合のことである。奥行画像を利用して、画像の各画素を3次元座標上にマッピングすることで3次元点群を生成することができる。各点の情報については法線の情報等を含んでもよい。3次元点群を生成する理由は、2次元の画像と2次元の奥行画像の各データに基づき、撮影対象と撮像装置10についての、3次元空間での位置および姿勢の関係を求めるためである。
S1803でICPによる最多適合領域算出部2004は、S1802で生成された3次元点群に対し、ICPを使用して領域分割を行う。領域分割処理では、基準フレームの3次元点群データに対する非基準フレームの3次元点群について、ICPによりレジストレーション、最多適合3次元点群を算出する処理が行われる。
S1804で第1の位置姿勢変化推定部2005は、S1803で分割した領域に対応した位置姿勢変化推定結果を、該変化が適合する当該3次元点群の位置姿勢変化とする。S1805で削除部2006は、S1803で算出された領域内の3次元点群を削除する。S1806で削除部2006は、S1803にて算出された領域外に3次元点群点が残っているか否かを判定する。領域外に3次元点群点が残っている場合、S1803に処理を戻す。S1805で削除されなかった3次元点群点で対応付けが再度行われ、残りの3次元点群で領域が算出される。このように段階的に領域の算出を行うことにより、複数の位置姿勢変化の異なる領域の算出が可能となる。S1806で領域外に3次元点群点が残っていなかった場合、S1807に進む。
S1807で第1の背景領域候補推定部2007は、S1803で分割した領域のうちで、少なくとも最奥の奥行を含む領域を背景領域候補として選択し、奥行データを使用した第1処理を終了する。なお、領域分割方法については、異なる撮影物体の領域の奥行を分割可能であればどのような方法でも構わない。例えば、点群の点の数が分割領域ごとに同一数になるように分割してもよいし、撮影物体に関係なく奥行を均等に分割してもよい。本実施形態ではICPアルゴリズムの一例を示したが、画像フレーム間での位置姿勢変化を推定できる方法であれば、如何なる方法を用いてもよい。例えば、本実施形態ではフレーム内の全ての点を用いて推定処理を行っているが、ランダムサンプリングや、一定間隔ごとのサンプリングによって使用する点数を減らしても構わない。また、本実施形態ではフレーム間において最も近い点を対応点とする例を説明したが、さらに点の色や法線等の情報を使用し、より良い対応点を探索する方法等がある。
次に、第2処理部3000について、図19のフローチャートを参照して詳細に説明する。なお、S1901ないしS1906のステップについては、第1実施形態にて説明した図7のS701ないしS706と同様の処理であるため、それらの詳細な説明は割愛する。それぞれ対応するブロック図の構成要素同士の符号は300と3000、301と3001、302と3002、303と3003、304と3004、305と3005である。
S1907で削除部3005は、S1904にて算出されたモーション領域外に特徴点が残っているか否かを判定する。モーション領域外に特徴点が残っている場合、S1902に処理を戻す。S1906で削除されなかった特徴点で対応付けが再度行われ、動きベクトルの算出と残りの領域でモーションごとの領域が算出される。このように段階的にモーションごとの領域の算出を行うことにより、複数のモーションの算出が可能となる。S1907でモーション領域外に特徴点が残っていなかった場合、S1908に進む。S1908で第2の背景領域候補推定部3006は、S1904で算出したモーションごとの領域のうちから、画像を使用した背景領域候補推定法により背景領域候補を推定し、動きベクトルを使用した第2処理を終了する。
以下、画像を使用した背景領域候補推定法について具体的に説明する。本実施形態では背景領域候補の推定に、特定物体認識技術の利用による一般物体認識を使用する。具体的にはテクスチャ認識を利用した背景領域候補推定が行われる。最初に事前準備について説明する。
まず背景のテクスチャを学習する処理が実行される。背景のテクスチャとして、ビルディングや道路などの人工物や、海、山、空、森などのテクスチャが事前学習される。次に学習したテクスチャを局所特徴量抽出子、例えばSIFT(Scale Invariant Feature Transform)を使用して画像から局所特徴量を抽出する処理が実行される。最後に、抽出した局所特徴量により、テクスチャのモデルデータベースが構成される。
図20(A)を参照して、第2の背景領域候補推定部3006の構成を説明する。本例では、局所特徴量を画像から抽出する第1の抽出処理と第2の抽出処理が行われる。第1の局所特徴量抽出部3006aは、入力画像データから局所特徴量を抽出して、照合部3006dに出力する。第2の局所特徴量抽出部3006bは、事前に学習した画像の画像データから局所特徴量を抽出してデータベース作成部3006cに出力する。データベース作成部3006cは、第2の局所特徴量抽出部3006bが抽出した局所特徴量からデータベースを作成する。照合部3006dは、第1の局所特徴量抽出部3006aが抽出した局所特徴量を取得して、データベース作成部3006cが作成したデータベースと照合する。これにより、テクスチャ認識を利用した背景領域候補の推定処理が行われる。処理例について図20(B)のフローチャートを参照して説明する。
S2001で第1の局所特徴量抽出部3006aは、図19のS1904で算出したモーションごとの領域からテクスチャを抽出する。S2002では、S2001により抽出したテクスチャから事前学習の場合と同様に局所特徴量を抽出する処理が実行される。S2003では、事前準備で構成したデータベースと、S2002で抽出した局所特徴量との間で最近傍探索処理が実行される。この処理は、照合部3006dが行い、閾値以上の一致度をもつ候補が存在する場合、探索結果が背景領域候補として推定される。
上記説明では局所特徴量の抽出にSIFTを例に用いたが、この方法に限らず、Bag−Of−Words(BOW)やHistograms of Oriented Gradients(HOG)などを使用してもよい。また、最近傍探索の高速化のために、kd−treeやLocality Sensitive Hashing(LSH)でインデキシング処理を行ってもよい。照合の高速化のために、枝刈りにより類似特徴を削減し、特異値分解による特徴次元の最適化により、データベースのコンパクト化を図ってもよい。本実施形態では、特定物体認識技術の一例を示したが、画像から背景領域または静止領域を推定できる方法であれば、如何なる方法を用いても構わない。
次に、静止領域決定部1005が実行する処理について、図21のフローチャートを参照して詳細に説明する。
S2101で静止領域決定部1005は、第1の背景領域候補および第1の位置姿勢変化推定の各データと、第2の背景領域候補および第2の位置姿勢変化推定の各データについてそれぞれ整合が取れているか否かについて比較する。具体的には、背景領域候補の比較では、領域の重心座標のズレが閾値以下であるか、または領域サイズの差が閾値以下である場合、2つの背景領域候補は整合していると判断される。また、位置姿勢変化推定のデータの比較では、位置姿勢変化の平行ベクトルの向き(符号)が同一であり、かつ大きさの差が閾値以下であり、回転角度の大きさが閾値以下である場合、2つの位置姿勢変化推定のデータは整合していると判断される。比較の結果、2つの背景領域候補(第1および第2の背景領域候補)、および位置姿勢変化推定の間で整合が取れていると判断された場合、S2102に処理を進め、整合が取れていないと判断された場合、S2103に移行する。
S2102では、第1の背景領域候補または第2の背景領域候補が背景領域として決定される。そして、S2107に処理を進める。
S2103は、背景領域候補が動体であった場合の処理モードの判別処理であり、以下に示す処理モードのいずれかが判断され、所定の判断基準に基づく処理モードに従って背景領域が決定される。
・第1処理モードA(S2104参照)の場合、静止領域決定部1005は、任意の領域を背景領域と判断する。例えば第1入力部1003によって入力された第1の背景領域候補の次に最奥である領域を第1の背景領域候補として更新することにより、第2入力部1004で入力された第2の背景領域候補との整合をとることができる。さらには、両背景領域候補の間で整合が取れるまで第1の背景領域候補の更新処理を続行してもよい。この他には、選択部1009を用いた操作により、画像内の任意の領域を背景領域としてユーザが自由に指定してもよい。
・第2処理モードB(S2105参照)の場合、静止領域決定部1005は、保存部1008に保存されている過去のデータ(静止領域および位置姿勢変化のデータ)を使用し、第1の背景領域候補と第2の背景領域候補から静止領域を決定する。具体的には、過去演算結果との差が小さい方の推定結果に係る領域を静止領域として設定する処理が行われる。例えば、フレームレート60fps(frames per second)で動画撮影を行う場合を想定する。現在の位置姿勢変化の推定結果と過去演算結果とで時間間隔は、1/60秒という短い時間である。このため、静止領域の位置姿勢変化や領域の重心座標や領域サイズは、像振れがあった場合でも現在の演算結果と過去の演算結果とで非常に近い値になる可能性が高い。従って過去演算結果に近い推定結果に係る領域が背景領域として決定される。
・第3処理モードC(S2106参照)の場合、静止領域決定部1005は、背景領域の選択を不可として全体の処理を終了する。
S2102、S2104、またはS2105の後、S2107に処理を進める。S2107では、S2102、S2104、またはS2105の処理によって決定された背景領域に基づき静止領域が決定される。静止領域決定部1005は、決定した静止領域を推定決定部1006に出力する。なお、直前のフレーム間での位置姿勢変化の推定結果、または該推定結果から算定される予測値を利用して背景領域の決定を行ってもよい。
次に、図22を参照して本実施形態の効果を説明する。
図22(A)は、被写界の奥にある静止領域に対し、手前に動体領域のあるシーンをカメラで撮影する状況を例示する。ここでは分かり易いようにカメラを固定して撮影を行うものとする。図22(B)は非基準フレームの画像例を示し、図22(C)は基準フレームの画像例を示す。図22(B)と図22(C)に示す2枚のフレームは時間的に連続しており、図22(B)は図22(C)に比べて過去のフレームとなっている。
図22(B)、図22(C)に示す各画像において、動体に注目して位置姿勢変化を推定すると、図22(D)のように動体領域に引きずられた推定結果になりやすい。例として図22(F)のように、動体が静止し、静止領域や、カメラの動きが疑似的に本来の動きとは逆方向へ移動したり、位置姿勢が変化したりする現象が起こり得る。これに対し、図22(E)には、静止領域を基準として位置姿勢劣化を推定した場合の画像例を示す。予め推定した静止領域を基準にして位置姿勢変化の推定を行うことにより、動体領域に引きずられにくい位置姿勢変化推定を行うことが可能となる。静止領域は、ビルディングなどの人工物、海、山、森、空などであることが多く、これらは画像内の最奥に背景として位置する場合が多い。本実施形態では奥行情報を使用し、奥行が最奥の領域を背景領域として判断して静止領域と推定する。しかしこの方法では最奥行の領域が動体である場合を除外することができない。そこで画像情報を使用した背景領域推定方法を併用し、2つの処理方法の間で整合をとることによって、推定精度をより高めることができる。また、撮像装置の像振れ補正(防振制御)において、従来の補正では動体領域に引きずられた不自然な補正になる可能性がある。これに対して、本実施形態では、動体領域に引きずられにくい像振れ補正を実現できる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1,10 撮像装置
100 画像処理部
101 画像取得装置
102 奥行画像取得装置
105,1005 静止領域決定部
107,1006 推定決定部
108,1008 保存部
200,2000 第1処理部
204 奥行分割部
206 グループ化処理部
300,3000 第2処理部
302,3002 動きベクトル算出部

Claims (24)

  1. 画像データおよび当該画像データに対応する奥行データを取得する取得手段と、
    前記画像データおよび前記奥行データから奥行ごとの位置姿勢変化を算出し、前記奥行ごとの位置姿勢変化の統計値に基づいて第1の位置姿勢変化のデータを算出する算出手段と、
    複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する処理手段と、
    前記画像データに対応する奥行データから奥行の頻度分布を算出する頻度分布算出手段と、
    画像全体の位置姿勢変化のデータを記憶する記憶手段と、
    前記頻度分布および前記記憶手段に記憶された画像全体の位置姿勢変化のデータを用いて前記算出手段により算出された前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータに基づいて、前記画像データ内の静止領域を決定する静止領域決定手段と、
    前記静止領域決定手段により決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータとから、画像全体の位置姿勢変化を決定して前記画像全体の位置姿勢変化のデータを前記記憶手段に記憶させる決定手段と、を有することを特徴とする画像処理装置。
  2. 前記算出手段により算出された奥行ごとの前記第1の位置姿勢変化のデータに基づいて前記奥行データを複数のグループにまとめるグループ化手段を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 被写体像の占める領域が最大である領域を、前記静止領域決定手段が前記静止領域として決定した場合、前記決定手段は前記第2の位置姿勢変化のデータにより前記画像全体の位置姿勢変化を決定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記頻度分布において奥行の占める割合が最大である領域を、前記静止領域決定手段が前記静止領域として決定した場合、前記決定手段は前記第1の位置姿勢変化のデータにより前記画像全体の位置姿勢変化を決定することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
  5. 前記静止領域の判断基準を操作にしたがって選択する選択手段を備え、
    前記静止領域決定手段は、前記選択手段により選択された前記判断基準に従って前記静止領域を決定することを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。
  6. 前記算出手段は、前記グループ化手段により得られた複数のグループのうち、奥行を占める割合が最大のグループを選択し、当該グループに対応する前記位置姿勢変化を選択することを特徴とする請求項2に記載の画像処理装置。
  7. 前記処理手段は、前記モーションごとの領域のうちで画像全体に占める割合が最大の領域に対応する位置姿勢変化を選択することを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。
  8. 前記決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとの差が閾値以下である場合、重み付け演算を行って前記画像全体の位置姿勢変化を決定することを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。
  9. 前記決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとの差が閾値を超える場合、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータのうち、前記記憶手段に記憶された画像全体の位置姿勢変化のデータとの差が小さい方の位置姿勢変化のデータを、画像全体の位置姿勢変化のデータとして決定することを特徴とする請求項1ないし8のいずれか1項に記載の画像処理装置。
  10. 前記決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとが異なり、かつ前記記憶手段に前記位置姿勢変化のデータが記憶されていない場合、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータを、前記画像全体の位置姿勢変化のデータとして使用しないことを特徴とする請求項に記載の画像処理装置。
  11. 前記算出手段は、前記奥行データから少なくとも最奥の奥行を含む同一の位置姿勢変化の奥行データを算出し、
    前記決定手段は、前記最奥の奥行を含む同一の位置姿勢変化の奥行データから第1の背景領域候補を推定することを特徴とする請求項1に記載の画像処理装置。
  12. 前記画像の動きとは、動きベクトルまたは対応点または注目点の軌跡であることを特徴とする請求項1ないし11のいずれか1項に記載の画像処理装置。
  13. 前記処理手段は、前記モーションごとの領域について第2の背景領域候補を推定する推定手段を備えることを特徴とする請求項11に記載の画像処理装置。
  14. 前記推定手段は、
    前記画像データから局所特徴量を抽出する第1の抽出手段と、
    事前に学習した画像の画像データから局所特徴量を抽出する第2の抽出手段と、
    前記第2の抽出手段が抽出した前記局所特徴量からデータベースを作成するデータベース作成手段と、
    前記第1の抽出手段が抽出した前記局所特徴量を前記データベースのデータと照合する照合手段と、を備え、
    前記照合手段が前記第2の背景領域候補を推定することを特徴とする請求項13に記載の画像処理装置。
  15. 前記静止領域決定手段は、前記第1の背景領域候補および前記第1の位置姿勢変化のデータと、前記第2の背景領域候補および前記第2の位置姿勢変化のデータによって背景領域を決定し、前記背景領域から前記静止領域を決定することを特徴とする請求項13または14に記載の画像処理装置。
  16. 前記決定手段は、前記静止領域決定手段により前記背景領域から決定された前記静止領域と、前記第1の位置姿勢変化のデータと、前記第2の位置姿勢変化のデータとによって、前記画像全体の位置姿勢変化を決定することを特徴とする請求項15に記載の画像処理装置。
  17. 撮影光学系および撮像素子により撮像された画像の画像データを入力する第1入力手段と、
    前記画像データと対をなす奥行データを入力する第2入力手段と、
    請求項1ないし16のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。
  18. 前記画像データに係る像振れ補正を行う補正手段と、
    前記決定手段によって決定された前記画像全体の位置姿勢変化のデータを取得して像振れ補正量を算出し、前記補正手段を制御する制御手段と、を備えることを特徴とする請求項17に記載の撮像装置。
  19. 画像データおよび当該画像データに対応する奥行データを取得する取得ステップと、
    前記画像データおよび前記奥行データから奥行ごとの位置姿勢変化を算出し、前記奥行ごとの位置姿勢変化の統計値に基づいて第1の位置姿勢変化のデータを算出する算出ステップと、
    複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する処理ステップと、
    前記画像データに対応する奥行データから奥行の頻度分布を算出する頻度分布算出ステップと、
    前記頻度分布および記憶手段に記憶された画像全体の位置姿勢変化のデータを用いて算出された前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータに基づいて前記画像データ内の静止領域を決定する静止領域決定ステップと、
    前記決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータとから、画像全体の位置姿勢変化を決定して前記画像全体の位置姿勢変化のデータを前記記憶手段に記憶させる決定ステップと、を有することを特徴とする画像処理装置の制御方法。
  20. 前記決定された前記画像全体の位置姿勢変化のデータを用いて像振れ補正を行う補正ステップを有することを特徴とする請求項19に記載の画像処理装置の制御方法。
  21. 画像データおよび当該画像データに対応する奥行データを取得する取得手段と、
    前記画像データおよび前記奥行データから奥行ごとの位置姿勢変化を算出し、前記奥行ごとの位置姿勢変化の統計値に基づいて第1の位置姿勢変化のデータを算出する算出手段と、
    複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する処理手段と、
    画像全体の位置姿勢変化のデータを記憶する記憶手段と、
    前記第1の位置姿勢変化のデータ、前記第2の位置姿勢変化のデータおよび過去の画像全体の位置姿勢変化のデータに基づいて、前記画像データ内の静止領域を決定する静止領域決定手段と、
    前記静止領域決定手段により決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータとから、画像全体の位置姿勢変化を決定する決定手段と、を有し、
    前記記憶手段は、前記決定手段により決定された画像全体の位置姿勢変化のデータを過去の画像全体の位置姿勢変化のデータとして記憶することを特徴とする画像処理装置。
  22. 前記決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとの差が閾値を超える場合、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータのうち、前記過去の画像全体の位置姿勢変化のデータとの差が小さい方の位置姿勢変化のデータを、画像全体の位置姿勢変化のデータとして決定することを特徴とする請求項21に記載の画像処理装置。
  23. 画像データおよび当該画像データに対応する奥行データを取得する取得ステップと、
    前記画像データおよび前記奥行データから奥行ごとの位置姿勢変化を算出し、前記奥行ごとの位置姿勢変化の統計値に基づいて第1の位置姿勢変化のデータを算出する算出ステップと、
    複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する処理ステップと、
    画像全体の位置姿勢変化のデータを記憶する記憶ステップと、
    前記第1の位置姿勢変化のデータ、前記第2の位置姿勢変化のデータおよび過去の画像全体の位置姿勢変化のデータに基づいて、前記画像データ内の静止領域を決定する静止領域決定ステップと、
    前記静止領域決定ステップにて決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータとから、画像全体の位置姿勢変化を決定する決定ステップと、を有し、
    前記記憶ステップでは、前記決定ステップにて決定された画像全体の位置姿勢変化のデータを過去の画像全体の位置姿勢変化のデータとして記憶することを特徴とする画像処理装置の制御方法。
  24. 請求項1ないし16、21、22のいずれか1項に記載の画像処理装置の制御をコンピュータに実行させることを特徴とするプログラム。
JP2014040522A 2013-11-19 2014-03-03 画像処理装置およびその制御方法、撮像装置、プログラム Active JP6429466B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014040522A JP6429466B2 (ja) 2013-11-19 2014-03-03 画像処理装置およびその制御方法、撮像装置、プログラム
US14/541,700 US10311595B2 (en) 2013-11-19 2014-11-14 Image processing device and its control method, imaging apparatus, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013238880 2013-11-19
JP2013238880 2013-11-19
JP2014040522A JP6429466B2 (ja) 2013-11-19 2014-03-03 画像処理装置およびその制御方法、撮像装置、プログラム

Publications (3)

Publication Number Publication Date
JP2015121524A JP2015121524A (ja) 2015-07-02
JP2015121524A5 JP2015121524A5 (ja) 2017-04-06
JP6429466B2 true JP6429466B2 (ja) 2018-11-28

Family

ID=53533251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014040522A Active JP6429466B2 (ja) 2013-11-19 2014-03-03 画像処理装置およびその制御方法、撮像装置、プログラム

Country Status (1)

Country Link
JP (1) JP6429466B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102455632B1 (ko) 2017-09-14 2022-10-17 삼성전자주식회사 스테레오 매칭 방법 및 장치
DE102017216267B4 (de) * 2017-09-14 2020-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Datenreduktion merkmalsbasierter Umfeldinformationen eines Fahrerassistenzsystems
KR102559203B1 (ko) * 2018-10-01 2023-07-25 삼성전자주식회사 포즈 정보를 출력하는 방법 및 장치
KR102323413B1 (ko) * 2020-05-12 2021-11-09 광주과학기술원 카메라 포즈 추정 방법
JP2023163706A (ja) * 2022-04-28 2023-11-10 テンソル・コンサルティング株式会社 動画識別装置、動画識別方法、および動画識別プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP4214425B2 (ja) * 1997-09-30 2009-01-28 ソニー株式会社 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体
JP2001285762A (ja) * 2000-03-30 2001-10-12 Fuji Xerox Co Ltd 画像印刷装置
JP4040825B2 (ja) * 2000-06-12 2008-01-30 富士フイルム株式会社 画像撮像装置及び距離測定方法
JP4564634B2 (ja) * 2000-08-14 2010-10-20 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
JP3952460B2 (ja) * 2002-11-19 2007-08-01 本田技研工業株式会社 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP4800073B2 (ja) * 2006-03-09 2011-10-26 富士フイルム株式会社 監視システム、監視方法、及び監視プログラム
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5369921B2 (ja) * 2008-07-08 2013-12-18 日産自動車株式会社 物体検出装置及び物体検出方法
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
JP5644468B2 (ja) * 2010-12-20 2014-12-24 株式会社ニコン 撮像装置および撮像装置の制御プログラム
EP2474950B1 (en) * 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9279661B2 (en) * 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2015121524A (ja) 2015-07-02

Similar Documents

Publication Publication Date Title
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
CN107230225B (zh) 三维重建的方法和装置
JP6489551B2 (ja) 画像のシーケンスにおいて前景を背景から分離する方法およびシステム
JP4349367B2 (ja) 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
JP6147172B2 (ja) 撮像装置、画像処理装置、画像処理方法、及びプログラム
JP5631086B2 (ja) 情報処理装置及びその制御方法、プログラム
JP6429466B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
US8416989B2 (en) Image processing apparatus, image capture apparatus, image processing method, and program
US11030478B1 (en) System and method for correspondence map determination
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2022089839A (ja) 情報処理装置、情報処理方法及びプログラム
JP2016212784A (ja) 画像処理装置、画像処理方法
CN108369739B (zh) 物体检测装置和物体检测方法
JP6285686B2 (ja) 視差画像生成装置
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
WO2019230965A1 (ja) 物体らしさ推定装置、方法、およびプログラム
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6080424B2 (ja) 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置
JP6843552B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP7298687B2 (ja) 物体認識装置及び物体認識方法
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
Ganbold et al. Coarse-to-fine evolutionary method for fast horizon detection in maritime images
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R151 Written notification of patent or utility model registration

Ref document number: 6429466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151