JP6344903B2 - 画像処理装置およびその制御方法、撮像装置、プログラム - Google Patents

画像処理装置およびその制御方法、撮像装置、プログラム Download PDF

Info

Publication number
JP6344903B2
JP6344903B2 JP2013238881A JP2013238881A JP6344903B2 JP 6344903 B2 JP6344903 B2 JP 6344903B2 JP 2013238881 A JP2013238881 A JP 2013238881A JP 2013238881 A JP2013238881 A JP 2013238881A JP 6344903 B2 JP6344903 B2 JP 6344903B2
Authority
JP
Japan
Prior art keywords
image
data
change
depth
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013238881A
Other languages
English (en)
Other versions
JP2015099483A5 (ja
JP2015099483A (ja
Inventor
勇太 川村
勇太 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013238881A priority Critical patent/JP6344903B2/ja
Priority to US14/541,700 priority patent/US10311595B2/en
Publication of JP2015099483A publication Critical patent/JP2015099483A/ja
Publication of JP2015099483A5 publication Critical patent/JP2015099483A5/ja
Application granted granted Critical
Publication of JP6344903B2 publication Critical patent/JP6344903B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影画像および該撮影画像と同期している奥行画像を利用して、撮像装置と撮影対象との位置関係を推定する画像処理技術に関する。
撮像装置を用いて撮像した画像から、撮像装置と撮影対象との相対的な位置や姿勢、位置や姿勢の時間的変化、撮影対象の位置や姿勢を推定する技術がある。画像の動きベクトルや対応点を使った推定方法が一般的である。近年、奥行画像の撮影技術の進歩により、奥行画像から撮影物体の3次元モデルを構築し、3次元モデルを使用して位置関係等を推定する方法が提案されている。
特許文献1には、面の隠れや曲面を含んだ物体に対応できるような面情報を含んだ位置姿勢推定用モデルを生成する装置が開示されている。特許文献2には、対象物体と非対象物体の像を含む距離画像データを入力として対象物体の位置姿勢を推定する処理の高速化、およびメモリ消費量の軽減を目的とする装置が開示されている。
特開2010− 79453号公報 特開2011−174878号公報
D.Titterton,"Strapdown Inertial Navigation Technology",p.p.17-55,309-332
撮像装置で撮像した画像から、撮像装置のカメラワークを推定する場合、動きベクトルから推定する方法と、奥行画像から推定する方法がある。これらの方法では、撮影画像内に動体領域と静止領域が混在していると、位置姿勢の時間的変化およびその積分である位置姿勢により表されるカメラワークの推定が困難になる。特に動体領域が静止領域よりも大きい場合、静止領域に注目して位置姿勢の変化または位置姿勢の推定を行うと、動体領域の動きによる影響を被り易くなる。その結果、位置姿勢変化や位置姿勢の推定が困難になる可能性がある。
本発明の目的は、画像内に動体領域と静止領域が存在する場合に位置姿勢変化を推定する際、静止領域に注目して動体領域の動きによる影響を少なくして推定精度を高めることである。
上記課題を解決するために、本発明に係る装置は、画像内に動体領域および静止領域を含む画像データおよび前記画像データに対応する奥行データを複数フレーム分取得する取得手段と、前記画像データおよび前記奥行データから、奥行で分類される前記画像データの複数の領域のフレーム間の変化を算出する算出手段と、前記算出手段により算出された前記領域の変化ごとに、当該変化のあった領域数をカウントした度数分布に基づいて、前記算出手段により算出された変化のデータから前記静止領域に対応するデータを選択し、当該データを用いて前記静止領域の変化に当たる画像全体の変化を決定する決定手段と、を備える。
本発明によれば、撮影画像内に動体領域と静止領域が存在する場合に位置姿勢変化を推定する際、静止領域に注目して動体領域の動きによる影響を少なくして推定精度を高めることができる。
図2から図8と併せて本発明の実施形態を説明するために、装置全体の構成を示すブロック図である。 本実施形態における全体の動作を示すフローチャートである。 本実施形態における奥行分割処理を示すフローチャートである。 本実施形態における奥行分割工程を例示する図である。 画像内の最大領域に基づく位置姿勢変化の推定、および奥行を占める最大領域に基づく位置姿勢変化の推定を説明する図である。 分割された奥行ごとに行われる位置姿勢変化の推定例、およびグループ化の例を示す図である。 ICPアルゴリズムによって点群間の位置姿勢変化を推定する様子を示す模式図である。 分割された奥行ごとの位置姿勢変化の推定結果と、これらに対応する奥行が占める割合を例示する度数分布図である。
本発明の実施形態に係る画像処理装置を備えた撮像装置について、添付図面を参照して説明する。画像処理装置は、画像データおよび奥行データを取得して、処理対象の位置姿勢変化を算出する。撮像装置の場合、処理対象は撮影対象である。
図1は、本実施形態に係る撮像装置113の構成例を示すブロック図である。撮像装置113は画像取得部101と、奥行画像取得部102と、位置姿勢変化推定結果保存部(以下、単に保存部という)111と、画像処理装置112と、制御部114を備える。
画像取得部101は、被写体を撮影して2次元画像のデータを取得するユニットである。画像取得部101は、画像処理装置112の画像入力部103に接続されており、画像取得部101が撮影する画像のデータは、画像入力部103を介して画像処理装置112に入力される。
奥行データを検出する奥行画像取得部102は、奥行画像入力部104に接続されている。奥行画像取得部102が撮影する奥行画像のデータは、奥行画像入力部104を介して画像処理装置112に入力される。本実施形態では、奥行データとして、例えば画素ごとに奥行のデータを持った奥行画像として説明する。奥行画像取得部102は、例えば、赤外線照射部と赤外線読み取り部を有する。赤外線照射部は所定パターンの赤外線を対象物に照射し、反射した赤外線を赤外線読み取り部が読み取る。これによりパターンの歪みを読み取り、奥行画像の撮影が行われる。尚、奥行画像の生成の方式は、他の方式でもよい。例えば、赤外線を照射してから、読み取りにかかる時間を計測することによって奥行画像の撮影をする、Time of flight方式や、多眼レンズによって撮影された複数枚画像の視差から奥行画像の生成を行う方式でもよい。奥行画像の生成が可能であれば、方式の如何は問わない。
画像処理装置112は、第1入力部である画像入力部103から入力される画像と、第2入力部である奥行画像入力部104から入力される奥行画像の各データを処理する。3次元点群生成部105は、画像入力部103によって入力された画像と、奥行画像入力部104によって入力された奥行画像の各データを使用して3次元点群の生成処理を行う。3次元点群のデータは、後述する奥行分割部106と第1推定部107に出力される。
奥行分割部106は、奥行画像入力部104によって入力された奥行画像を使用して、3次元点群生成部105によって生成された3次元点群を奥行ごとに分割する。分割処理の結果は第1推定部107に出力される。第1推定部107は、奥行ごとの位置姿勢変化を推定する。その際、3次元点群生成部105によって生成された3次元点群を非基準フレームとし、奥行分割部106によって分割された奥行情報をもつ3次元点群を基準フレームとする。第1推定部107は、分割された奥行ごとに非基準フレームに対して位置姿勢変化を推定する。
グループ化処理部108は、第1推定部107によって推定された奥行ごとの位置姿勢変化の演算結果(以下、第1演算結果という)をグループにまとめる処理を実行する。第2推定部109は、画像全体の位置姿勢変化を推定する。第2推定部109は、グループ化処理部108によってグループ化された、第1演算結果の中から1つを選び出して画像全体の位置姿勢変化の演算結果(以下、第2演算結果という)を決定する。また第2推定部109は保存部111に接続されており、第2演算結果は保存部111に保存される。保存部111は、フレーム間の位置姿勢変化に係る第2演算結果を記憶するとともに、積分を行い、ある基準フレームからの画像および奥行画像に対応する位置姿勢の状態を計算してメモリに保存する。ある基準フレームとは、例えば画像データの撮影開始タイミングとするフレームである。
入力部110は保存部111に接続されており、過去の位置姿勢変化の推定結果(以下、過去演算結果という)を保存部111から取得して、第2推定部109へ出力する。
次に、図2に示すフローチャートを参照して、撮像装置113が行う処理を詳細に説明する。
まず、S201において、位置姿勢変化の推定に用いるデータの入力処理が実行される。具体的には、画像取得部101による画像の撮影と、奥行画像取得部102による奥行画像の撮影が同時に行われる。画像取得部101による画像データは画像入力部103を介して画像処理装置112へ入力され、奥行画像取得部102による奥行画像データは奥行画像入力部104を介して画像処理装置112へ入力される。
S202で3次元点群生成部105は、S201で入力された画像と奥行画像を使用して3次元点群を生成する。本実施形態の3次元点群とは、3次元座標上に少なくとも画素(色・諧調)情報と位置情報を持った点の集合のことである。奥行画像を利用して、画像の各画素を3次元座標上にマッピングすることで3次元点群を生成することができる。各点の情報については法線の情報等を有するものとしてもよい。3次元点群を生成する理由は、2次元の画像と2次元の奥行画像の各データに基づいて、撮影対象と撮像装置113との3次元空間での位置および姿勢の関係を求めるためである。
S203で奥行分割部106は、S201で入力された奥行画像に基づいて、S202で生成された3次元点群を奥行ごとに分割する。奥行分割処理については、図3に示すフローチャートを用いて後で詳述する。S204で第1推定部107は、S203で分割した奥行ごとに位置姿勢変化を推定する。S203で奥行ごとに分割した3次元点群を基準フレームとし、該基準フレームと非基準フレームから、分割した奥行ごとの位置姿勢変化が推定される。非基準フレームとしては、S202で生成され、3次元点群生成部105から第1推定部107に直接入力された、例えば次のサンプリングタイミングの3次元点群とする。
S205でグループ化処理部108は、S204で推定した位置姿勢変化について、類似の推定結果ごとに、分割した奥行データをグループ化する処理を実行する。グループ化処理の詳細については後述する。S206は、S205でグループ化した位置姿勢変化の推定結果から、画像全体にて奥行を占める割合(以下、占有率という)に関する度数分布が算出される。この度数分布において最大の極値を持つグループが選択される。この処理はグループ化処理部108または第2推定部109が実行する(その詳細については後述する)。
S207では、S206で選択された、最大の極値をもつグループの数を、第2推定部109が判定する。最大の極値をもつグループが単数の場合、S212へ処理を進め、当該グループが複数存在している場合にはS208に移行する。S208は、保存部111に過去演算結果、つまり過去における位置姿勢変化の推定結果が保存されているか否かの判定処理であり、入力部110または第2推定部109が行う。過去演算結果が保存部111に保存されている場合、S209へ進むが、保存されていなかった場合にはS211へ進む。S209にて、保存部111に記憶されている過去演算結果は、入力部110から第2推定部109に出力される。
S210で第2推定部109は、S209で取得した過去演算結果を利用し、動体領域を識別する。第2推定部109は、S205でグループ化された位置姿勢変化の推定結果から、静止領域の位置姿勢変化の推定結果を選択する。これにより画像全体での位置姿勢変化が推定され、第2演算結果が決定されて、S212へ進む。S210における、過去演算結果を利用した動体領域の識別処理では、過去演算結果に対して一番近い位置姿勢変化の推定結果を選択する処理が行われる。例えば、フレームレート60fps(frames per second)での動画撮影と奥行画像の同期取得を行う場合、現在の位置姿勢変化の推定処理時点と、過去の位置姿勢変化の推定処理時点との間隔は1/60秒である。この短い間隔のため、静止領域の位置姿勢変化については、像振れがあった場合でも、現在の位置姿勢変化と過去の位置姿勢変化とが非常に近い値をもつ可能性が高い。従って、第2推定部109は、過去演算結果に近い位置姿勢変化を、静止領域の位置姿勢変化として選択し、画像全体での位置姿勢変化の推定結果とする。これにより、画角内に瞬間的に侵入する移動体への対策を講じることができるので、安定した推定結果が得られる。つまり、画角内に一瞬の間のみ侵入する移動体がある場合、分割した奥行ごとの位置姿勢変化の推定結果が複数存在することになるので、図2のS207からS208、S209へと処理が進む。S209で取得される過去演算結果は前記移動体の影響を受けていない演算結果であり、S210にて、過去演算結果に近い位置姿勢変化の推定結果を有する領域が選択される。従って、一時的に画角内に侵入する移動体によって、推定結果への影響を被ることがない。
S211で第2推定部109は、S205でグループ化された奥行のうち、いずれか1つを選択する。本実施形態では選択部115(図1参照)を備え、ユーザ操作に従って、複数のグループから1つを選択する処理が実行される。選択部115はユーザ操作に応じてグループを選択するための操作部や設定画面等を表示する表示部を備える。S211で選択されたグループに係る位置姿勢変化の推定結果は、第2演算結果として決定され、S212へ処理を進める。
S212では、S207、S210、S211を経て決定された位置姿勢変化の推定結果が保存部111に保存される。また保存部111は第2推定部109が決定した位置姿勢変化の積分を行い、ある基準フレームからの位置姿勢状態の変化を計算する。ある基準フレームとは、例えば画像データの撮影開始タイミングとするフレームである。位置姿勢変化の積分処理において、例えば平行移動成分の積分は各要素の積分で行い、姿勢成分の積分はクォータニオン乗算により行うものとする。また、慣性航法装置(Inertial Navigation System)における軌跡演算で行われるように、統一した座標系である基準フレームからの撮像装置と撮影対象との相対的な位置姿勢の変化を計測できるように工夫してもよい。具体的には、姿勢変化の影響を平行移動成分の積分座標系に反映させることで統一座標系における位置姿勢変化を厳密に算出することができる。統一座標系における位置姿勢の積分技術は、非特許文献1に記載された基礎技術である。
保存部111に記憶される、ある基準フレームからの位置姿勢変化の積分結果は、像振れ補正等に使用される。撮像装置113は、画像取得部101内に撮像光学系および撮像素子と、撮像素子による画像データに係る像振れ補正を行う補正レンズ等の手段を有する。撮像装置113の制御部114はCPU(中央演算処理装置)を備え、第2推定部109が決定した画像全体の位置姿勢変化のデータを取得して像振れ補正量を算出する。制御部114は、補正レンズ等を駆動することで、手振れ等に応じた像振れ補正を行う。また、入力画像に対し、積分した位置姿勢変化を打ち消す逆変換の画像変形を実施することにより、画像処理で像振れ補正を行うことができる。例えば、撮像装置の回転ブレに伴う像振れに対しては射影変換を実行することで像振れ補正を行える。また、撮像装置の光軸に垂直な方向の並進ブレにより生じる像振れに対しては被写体までの距離に反比例した並進補正を実行することで像振れ補正を行える。撮像装置の光軸に垂直な方向の並進ブレに対しては、拡大縮小の画像処理により補正を行うことができる。
次に、図2のS203に示す奥行分割処理例を、図3および図4を参照して説明する。図3は奥行分割部106が行う処理を例示するフローチャートである。また図4は本実施形態における奥行分割例の説明図である。
S301で奥行分割部106は、奥行を分割するための基準として閾値を設定する。この設定は、奥行を分割する際、連続的な奥行の長さが閾値を超えないようにするために行われる。S302では、撮影物体の3次元座標上での奥行について、手前から奥側へと順に点群が存在しているかどうかが判断される。連続的な奥行の長さが、S301で設定した閾値を超えているか否が判定される。図4(A)は撮像装置から見た場合に手前から順に配置された立方体、第1の円柱、第2の円柱を撮影対象とする例を示す。図4(B)に示すように、連続的な奥行の長さが閾値を超えない場合、S303へ処理を進める。図4(D)は立方体、第1の円柱、第2の円柱に加えて、直方体がさらに配置された例を示す。図4(E)に示すように直方体の画像は、手前から奥側へ連続して点群が存在しているので、S302では連続的な奥行の長さが閾値を超えたと判断され、S304へ進む。
S303では、図4(C)で示すように、点群の存在しない奥行方向の領域が不連続な領域と判断され、不連続な領域に分割面が設定されて奥行の分割処理が実行される。図4(C)では、3つの領域(奥行1ないし3参照)の分割が行われる。一方、S304では、図4(F)に示すように、連続的な奥行の長さが閾値を超えてしまっているので、奥行の長さが閾値を超えないように、閾値での奥行の分割処理が実行される。図4(F)では、「奥行1」と「奥行2」の各領域の間と、「奥行2」と「奥行3」の各領域の間において、閾値に応じた分割面が設定される。
S305では、分割面よりもさらに奥側の領域に撮影対象があるか否かの判定処理である。判定の結果、分割面よりも撮影対象が存在しない場合に奥行分割処理を終了し、分割面よりも奥側に撮影対象が存在する場合にはS302に処理を戻す。S301からS305の処理が終了すると、図2のS202で生成された3次元点群は、連続的な奥行の長さが閾値以下の3次元点群に分割されることになる。尚、本実施形態では、手前側から奥側へと順に奥行分割処理を行ったが、これとは逆に、奥側から手前側へと順に奥行分割処理を行ってもよい。また、奥行分割方法については、異なる撮影物体の領域の奥行を分割可能であればどのような方法でも構わない。例えば、点群の点の数が分割領域毎に同一数になるように奥行を分割してもよいし、撮影物体に関係なく奥行を均等に分割してもよい。
次に、図2のS204に示す奥行ごとの位置姿勢変化の推定処理について、図6を参照して説明する。以下では、図6(B)に示した、奥行ごとに分割した3次元点群を基準フレームとし、図6(A)に示した、次のサンプリングタイミングでの3次元点群を非基準フレームとする。図6は、分割した奥行ごとに位置姿勢変化を推定する場合を例示する。図6(B)の画像を基準フレームとして行う奥行分割処理では、図4(C)の例と同様に、3つの奥行1ないし3に分割されるものとする。
図6(C)は、「奥行1」における立方体の位置姿勢変化が推定される様子を示す。図6(D)は、「奥行2」における第1の円柱の位置姿勢変化が推定される様子を示す。図6(E)は、「奥行3」における第2の円柱の位置姿勢変化が推定される様子を示す。それぞれに分割された奥行ごとに、図6(A)と(B)の各フレームの画像を比較することで、3次元点群の位置姿勢変化が推定される。
本実施形態では、時間軸方向に連なる複数のフレーム間で位置姿勢変化の推定を行うものとし、基準フレームと非基準フレームは時間軸方向にて互いに関連しているフレームとする。両フレーム同士は必ずしも隣接していなくてもよい。3次元点群間の位置姿勢変化の推定には、例えば、ICP(Iterative Closest Point)アルゴリズムを使用する。
図7の模式図を用いてICPアルゴリズムの具体的な手法を説明する。図7(B)は基準フレームの点群(白丸印参照)を示し、図7(A)は非基準フレームでの点群(黒丸印参照)を示す。図7(C)は、図7(B)に示す基準フレームの点群の各点を、図7(A)に示す非基準フレームの点群の中で最も近い点に対応させる処理を示す。楕円枠で囲んで示すように、枠内の点同士が対応した関係にあることを表している。図7(D)は、対応する点間の距離について、最小二乗法により、基準フレームの点群(白丸印参照)を平行移動または回転移動させ、非基準フレームの点群(黒丸印参照)に重なるよう移動させた場合の様子を示している。並進または回転の後、一定の処理回数を超えるか、または対応点間の距離の二乗和が閾値以下になるまでの間、フレーム間での前記処理が繰り返し実行される。その結果、図7(E)のようにフレーム間の距離の差を少なくして、位置姿勢変化が推定される。例えば、平行移動を奥、縦、横の各方向の成分を含む3次元のベクトルで表し、回転移動を4次元のクォータニオンで表す。これによって、点の平行移動と回転移動を組み合わせた7次元の空間で表わされる、位置姿勢変化または位置姿勢を数値的に記述できる。
本実施形態ではICPアルゴリズムの一例を示したが、画像フレーム間での位置姿勢変化を推定できる方法であれば、如何なる方法を用いてもよい。例えば、本実施形態ではフレーム内の全ての点を用いて推定処理を行っているが、ランダムサンプリングや、一定間隔ごとのサンプリングによって使用する点数を減らしても構わない。また、本実施形態ではフレーム間において最も近い点を対応点とする例を説明したが、さらに点の色や法線等の情報を使用し、より良い対応点を探索する方法等がある。
次に、図2のS205に示したグループ化処理について、図8を参照して説明する。図8は位置姿勢変化に対する占有率を示す度数分布図である。
グループ化処理部108は、図2のS204で推定された位置姿勢変化から、類似した推定結果を判断して、複数の奥行データをグループ化する処理を行う。図8(A)では、ある1つの並進成分の位置姿勢変化を横軸とし、奥行クラスタの度数を縦軸としている。つまり、縦軸に示す、奥行を占める割合とは、全体の度数で各グループの度数を除算した値を、百分率で表した値に相当する。この度数分布に対して極値を探索する処理が実行され、各ローカルの極値の近傍ごとにセグメントをまとめてグループ化が行われる。グループ間の距離が近い場合、同一のグループとみなされる。ここで、グループ間の距離が近いというのは、例えば下記条件を満たす場合とする。
・第1条件:位置姿勢変化の平行ベクトルの向きを示す符号が同一であり、かつ平行ベクトルの大きさの差が閾値以内であること。
・第2条件:回転移動の回転角度の大きさが閾値以内、つまりクォータニオンのノルムの差が一定値以内であること。
図8(A)では、ローカルの極値が4箇所に現れており、それぞれグループ1、グループ2、グループ3、グループ4である。この場合、グループ3とグループ4とは、極値間の距離が短いため、上記条件を満たしている。このようにグループ間の距離が近い場合、グループ4とグループ3については類似の位置姿勢変化の推定結果とみなされる。グループ4をグループ3に含めることができる。この場合、グループ4がグループ3に統合されるので、度数の一番多いグループは、グループ3となる。
図6(F)はグループ化処理例を示す。本例の場合、グループ化処理部108は、奥行2、奥行3について類似の位置姿勢変化の推定結果として同一のグループにまとめる処理を実行する。奥行1の位置姿勢変化の推定結果については、奥行2および奥行3での位置姿勢変化の推定結果とは非類似と判断され、単独のグループとして取り扱う。
図2のS206では、S205でグループ化処理を行った、位置姿勢変化の推定結果の中から、画像全体の奥行を占める割合、すなわち占有率に対応する度数が一番多いグループを選択する処理が実行される。具体的には、図8(A)に示す度数分布の場合、最大の度数を持つグループ3が選択される。すなわち、グループ4を含めたグループ3の度数が最大である。また、図6(F)に示す例では、奥行1の第1グループと、奥行2および奥行3をまとめた第2グループが存在している。第1グループに比べ、第2グループの方が画像全体での占有率が高いので、第2グループが選択される。
図2のS207では、S206で選択されたグループが複数存在しているか否かについて判定処理が実行される。図8(B)に示す例では、度数が一番の多いグループが複数存在していると判断される。つまり、グループ1、グループ3の度数が同一の値でかつ最大である。この場合にはS208に処理を進める。
一方、図8(A)に示す例では、度数が一番の多いグループは単数であり、グループ3である。この場合、グループ3に対応する位置姿勢変化が採用される。本実施形態では、画像内を占める割合が最大である領域に係る位置姿勢変化の推定結果を、画像全体の位置姿勢変化として採用していない。奥行を占める割合が最大である領域に係る位置姿勢変化の推定結果が、画像全体の位置姿勢変化の推定結果として選択される。
本実施形態では、図2のS206で選択した、奥行を占める割合が一番高いグループが複数存在した場合、S210にて過去演算結果と比較することで、これに一番近いグループが選択される。またはS211にてユーザ操作により、提示された選択肢のグループから1つが選択される。これにより、画像全体の位置姿勢変化の推定結果が特定される。したがって、本実施形態によれば、画像内に動体領域と静止領域が混在する場合でも、静止領域に注目して動体領域に引きずられにくい位置姿勢変化の推定が可能となる。
[変形例]
本実施形態の変形例は、図2のS206からS211の処理が以下の点で相違する。
(A)S207にて奥行を占める割合が一番高いグループが複数存在することが判断された場合、その時点で第2推定部109は、位置姿勢変化の推定を不可能と判断すること。
(B)S208にて過去演算結果が存在しなかった場合、その時点で第2推定部109は、位置姿勢変化の推定を不可能と判断すること。
第2推定部109は、位置姿勢変化の推定を不可能と判断した場合、位置姿勢変化の推定処理を行わずに、現フレームでの処理を見送るか、または推定処理自体を終了する。なお、上記(A)と(B)については、それらの一方または両方の処理を実施可能である。
次に、図5を参照して、本実施形態の効果を説明する。
図5(A)は非基準フレームの画像内の領域の割合を示し、図5(B)は基準フレームの画像内の領域の割合を示す。また、図5(C)は、非基準フレームにおいて動体領域および静止領域に係る奥行の割合を示す。図5(D)は、基準フレームにおいて動体領域および静止領域に係る奥行の割合を示す。図5(E)は本実施形態による位置姿勢変化の推定結果を説明する図である。図5(F)は従来法による位置姿勢変化の推定結果を説明する図である。
図5(A)および図5(B)では、画面内で静止領域よりも動体領域の方が大きい面積を占めている。また図5(C)および(D)に示すように、奥行方向において、動体領域に比べて静止領域の占める割合が大きい。図5(A)、図5(B)の画像において、従来法の動きベクトルや対応点を使用した位置姿勢変化の推定処理を行った場合、静止領域に比べて動体領域内にて計算に使用する動きベクトルや対応点が多く表れる。このため、図5(F)に示すように動体領域の位置が変わらないという結果になる可能性が高くなる。つまり、従来法では、動体領域に引きずられた推定結果になりやすい。
これに対して、本実施形態では図5(C)、図5(D)の画像に示すように、奥行方向にて、より多くの領域を占める静止領域で位置姿勢変化推定の計算が行われる。このため、図5(E)に示すように静止領域の位置が不変であり、すなわち動体領域を計算結果から除外し、動体領域に引きずられにくい位置姿勢変化の推定が可能となる。例えば、従来の像振れ補正(防振)では、動体領域に引きずられた不自然な補正になる可能性があるのに対して、本実施形態では、位置姿勢変化の推定結果を像振れ補正に利用することにより、動体領域に引きずられにくい補正を行うことができる。
本実施形態によれば、撮影画像内に動体領域と静止領域が存在する場合に位置姿勢変化を推定する際、動体領域の動きによる影響を抑えて推定精度を高めることができる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 画像取得部
102 奥行画像取得部
106 奥行分割部
107 第1推定部(算出手段)
108 グループ化処理部
109 第2推定部(決定手段)
111 保存部
112 画像処理装置
113 撮像装置


Claims (12)

  1. 画像内に動体領域および静止領域を含む画像データおよび前記画像データに対応する奥行データを複数フレーム分取得する取得手段と、
    前記画像データおよび前記奥行データから、奥行で分類される前記画像データの複数の領域のフレーム間の変化を算出する算出手段と、
    前記算出手段により算出された前記領域の変化ごとに、当該変化のあった領域数をカウントした度数分布に基づいて、前記算出手段により算出された変化のデータから前記静止領域に対応するデータを選択し、当該データを用いて前記静止領域の変化に当たる画像全体の変化を決定する決定手段と、を備えることを特徴とする画像処理装置。
  2. 前記算出手段は、前記奥行データを奥行で分類して基準フレームを決定し、前記基準フレームと他の非基準フレームとを比較することにより、前記画像データの複数の領域の変化を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像データを奥行で分類し、前記複数の領域にグループ化するグループ化手段を有し、
    前記決定手段は、前記度数分布において、度数が最大となる変化を選択し、当該変化に対応する変化のデータを、画像全体の変化を示すデータとして決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記決定手段により決定された画像全体の変化のデータを記憶する記憶手段を備え、
    前記決定手段は、最大の度数をもつ変化が複数存在する場合、前記記憶手段に記憶されたデータを読み出して、該データの示す変化との差が最も小さい変化のデータを、画像全体の変化のデータとして決定することを特徴とする請求項に記載の画像処理装置。
  5. 前記グループ化手段により得られた前記複数の領域のうち、いずれかの領域を選択する選択手段を備え、
    前記決定手段は、最大の度数をもつ領域が複数存在する場合、前記選択手段によって前記複数の領域から選択された領域に対応する変化のデータを、画像全体の変化として決定することを特徴とする請求項に記載の画像処理装置。
  6. 前記決定手段は、最大の度数をもつ領域が複数存在する場合、前記基準フレームについて画像全体の変化の決定を行わないことを特徴とする請求項に記載の画像処理装置。
  7. 前記画像データの複数の領域の変化は、領域内の画像データにかかる被写体の位置の変化を含むことを特徴とする請求項1ないしのいずれか1項に記載の画像処理装置。
  8. 前記画像データの複数の領域の変化は、領域内の画像データにかかる被写体の姿勢の変化を含むことを特徴とする請求項1ないしのいずれか1項に記載の画像処理装置。
  9. 請求項1ないしのいずれか1項に記載の画像処理装置と、撮像光学系および撮像素子とを備える撮像装置であって、
    前記取得手段が取得する前記画像データは、前記撮像光学系および撮像素子により撮像される画像のデータであることを特徴とする撮像装置。
  10. 前記画像データに係る像振れ補正を行う補正手段と、
    前記決定手段によって決定された画像全体の変化のデータを取得して像振れ補正量を算出し、前記補正手段を制御する制御手段と、を備えることを特徴とする請求項に記載の撮像装置。
  11. 画像処理装置にて実行される制御方法であって、
    画像内に動体領域および静止領域を含む画像データおよび前記画像データに対応する奥行データを複数フレーム分取得するステップと、
    前記画像データおよび前記奥行データから、奥行で分類される前記画像データの複数の領域の変化を算出する算出ステップと、
    前記算出ステップで算出された前記領域の変化ごとに、当該変化のあった領域数をカウントした度数分布に基づいて、前記算出ステップで算出された変化のデータから前記静止領域に対応するデータを選択し、当該データを用いて前記静止領域の変化に当たる画像全体の変化を決定する決定ステップを有することを特徴とする画像処理装置の制御方法。
  12. 請求項11に記載した画像処理装置の制御方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
JP2013238881A 2013-11-19 2013-11-19 画像処理装置およびその制御方法、撮像装置、プログラム Active JP6344903B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013238881A JP6344903B2 (ja) 2013-11-19 2013-11-19 画像処理装置およびその制御方法、撮像装置、プログラム
US14/541,700 US10311595B2 (en) 2013-11-19 2014-11-14 Image processing device and its control method, imaging apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013238881A JP6344903B2 (ja) 2013-11-19 2013-11-19 画像処理装置およびその制御方法、撮像装置、プログラム

Publications (3)

Publication Number Publication Date
JP2015099483A JP2015099483A (ja) 2015-05-28
JP2015099483A5 JP2015099483A5 (ja) 2017-01-05
JP6344903B2 true JP6344903B2 (ja) 2018-06-20

Family

ID=53376062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013238881A Active JP6344903B2 (ja) 2013-11-19 2013-11-19 画像処理装置およびその制御方法、撮像装置、プログラム

Country Status (1)

Country Link
JP (1) JP6344903B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099689A (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285762A (ja) * 2000-03-30 2001-10-12 Fuji Xerox Co Ltd 画像印刷装置
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
JP5759162B2 (ja) * 2010-12-16 2015-08-05 キヤノン株式会社 動きベクトル検出装置、動きベクトル検出方法及び補正装置及びプログラム
JP5644468B2 (ja) * 2010-12-20 2014-12-24 株式会社ニコン 撮像装置および撮像装置の制御プログラム
EP2474950B1 (en) * 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置

Also Published As

Publication number Publication date
JP2015099483A (ja) 2015-05-28

Similar Documents

Publication Publication Date Title
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
US10789765B2 (en) Three-dimensional reconstruction method
JP5781353B2 (ja) 情報処理装置、情報処理方法、および位置情報のデータ構造
JP5484184B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2017022694A (ja) ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品
JP7032871B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2018151689A (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
US20230394832A1 (en) Method, system and computer readable media for object detection coverage estimation
JP2013185905A (ja) 情報処理装置及び方法、並びにプログラム
JP6429466B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6622575B2 (ja) 制御装置、制御方法、およびプログラム
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6915016B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム
JP7341712B2 (ja) 画像処理装置、画像処理方法、撮像装置、およびプログラム
US20230014562A1 (en) Image processing apparatus, image processing method, and image processing program
WO2023063088A1 (en) Method, apparatus, system and non-transitory computer readable medium for adaptively adjusting detection area
CN113379817B (zh) 基于散斑的深度信息获取方法、装置及系统
JP2016024490A (ja) 画像処理装置、画像処理方法およびプログラム
WO2017145755A1 (ja) 情報処理装置および情報処理方法
JP2020010216A (ja) 画像処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180522

R151 Written notification of patent or utility model registration

Ref document number: 6344903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151