JPH05346308A - 運動立体視による奥行き値推定方式 - Google Patents
運動立体視による奥行き値推定方式Info
- Publication number
- JPH05346308A JPH05346308A JP4153989A JP15398992A JPH05346308A JP H05346308 A JPH05346308 A JP H05346308A JP 4153989 A JP4153989 A JP 4153989A JP 15398992 A JP15398992 A JP 15398992A JP H05346308 A JPH05346308 A JP H05346308A
- Authority
- JP
- Japan
- Prior art keywords
- depth value
- value
- depth
- calculated
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
(57)【要約】
【目的】 本発明は、奥行き値推定方式に関し、環境に
対するカメラの相対運動から環境中の物体までの奥行き
値を推定する際に、速度場を用いて次の時刻における奥
行き値を予測して情報量を増やし、雑音の影響の受け難
く正確な奥行き値を算出することを目的とする。 【構成】 2次元画像上の全観測点(xi、yi)の現時
刻における速度場(ui、vi)をもとに運動パラメータ
(T、W)を算出する運動パラメータ推定部1と、運動
パラメータ(T、W)をもとに観測点の奥行き値Zを算
出する奥行き値推定部4と、観測点の奥行き値Zをもと
に、次時刻の奥行き値Zを予測する3次元予測部2と、
奥行き値Zをもとに、次の時刻の奥行き値Zを算出する
ための重みを求める予測値算出部3とを備え、この求め
た重みをもとに、次の時刻における速度場(ui、vi)
から観測点の奥行き値Zを算出するように構成する。
対するカメラの相対運動から環境中の物体までの奥行き
値を推定する際に、速度場を用いて次の時刻における奥
行き値を予測して情報量を増やし、雑音の影響の受け難
く正確な奥行き値を算出することを目的とする。 【構成】 2次元画像上の全観測点(xi、yi)の現時
刻における速度場(ui、vi)をもとに運動パラメータ
(T、W)を算出する運動パラメータ推定部1と、運動
パラメータ(T、W)をもとに観測点の奥行き値Zを算
出する奥行き値推定部4と、観測点の奥行き値Zをもと
に、次時刻の奥行き値Zを予測する3次元予測部2と、
奥行き値Zをもとに、次の時刻の奥行き値Zを算出する
ための重みを求める予測値算出部3とを備え、この求め
た重みをもとに、次の時刻における速度場(ui、vi)
から観測点の奥行き値Zを算出するように構成する。
Description
【0001】
【産業上の利用分野】本発明は、カメラで撮影した2次
元画像から物体の奥行き値を推定する奥行き値推定方式
であって、ロボットの視覚システムなどに用いて、環境
に対するカメラの相対運動よりカメラから環境中の物体
までの奥行き値を推定する奥行き値推定方式に関するも
のである。この際、カメラで撮影した2次元画像上の動
き情報として、特徴点の変位情報でなく、速度場を用
い、雑音による影響を受けないより精度の高い奥行き値
を推定することが望まれている。
元画像から物体の奥行き値を推定する奥行き値推定方式
であって、ロボットの視覚システムなどに用いて、環境
に対するカメラの相対運動よりカメラから環境中の物体
までの奥行き値を推定する奥行き値推定方式に関するも
のである。この際、カメラで撮影した2次元画像上の動
き情報として、特徴点の変位情報でなく、速度場を用
い、雑音による影響を受けないより精度の高い奥行き値
を推定することが望まれている。
【0002】
【従来の技術】運動立体視による奥行き値の推定問題
は、同時に3次元運動パラメータも推定する必要があ
り、非線形問題である。一般的に、まず運動パラメータ
を算出し、これを用いて奥行き値を得ることとなり、さ
まざまな方法が提案されている。これらの方法を大別す
ると、対象物体のモデルを例えば平面や2次曲面と仮定
し、そのモデル・パラメータを計算するものと、モデル
を一切使わず、離散的に観測される各点の奥行き座標値
として計算するものが存在する。理論上はモデルなどの
拘束を使わずに計算できることが重要であるが、実際問
題としては画像処理による雑音が存在するため、より正
確性のある推定を重視しなければならない。モデルを用
いると、処理全般が比較的に簡素化され、特に奥行き値
については、そのモデルの持つ拘束に従う状態で安定し
た推定が可能である。しかし、適用できる対象物体が限
定されたり、また実際の形状とモデルとの相違によるず
れが問題となる。これに対してモデルを用いない場合に
は、理論上は全く近似のない結果が得られるが、計算が
複雑(明示的に解が得られず、数値計算を要する)であ
り、雑音の影響を受けやすい点が問題であった。特に奥
行き値については、各観測点のそれを独立に計算しなけ
ればならず、情報量不足を何らかの形で補う必要があっ
た。
は、同時に3次元運動パラメータも推定する必要があ
り、非線形問題である。一般的に、まず運動パラメータ
を算出し、これを用いて奥行き値を得ることとなり、さ
まざまな方法が提案されている。これらの方法を大別す
ると、対象物体のモデルを例えば平面や2次曲面と仮定
し、そのモデル・パラメータを計算するものと、モデル
を一切使わず、離散的に観測される各点の奥行き座標値
として計算するものが存在する。理論上はモデルなどの
拘束を使わずに計算できることが重要であるが、実際問
題としては画像処理による雑音が存在するため、より正
確性のある推定を重視しなければならない。モデルを用
いると、処理全般が比較的に簡素化され、特に奥行き値
については、そのモデルの持つ拘束に従う状態で安定し
た推定が可能である。しかし、適用できる対象物体が限
定されたり、また実際の形状とモデルとの相違によるず
れが問題となる。これに対してモデルを用いない場合に
は、理論上は全く近似のない結果が得られるが、計算が
複雑(明示的に解が得られず、数値計算を要する)であ
り、雑音の影響を受けやすい点が問題であった。特に奥
行き値については、各観測点のそれを独立に計算しなけ
ればならず、情報量不足を何らかの形で補う必要があっ
た。
【0003】
【発明が解決しようとする課題】これを解決する方法と
して、得られた各時刻の奥行き値に対して局所的な平滑
化などを施すことにより、滑らかな形状として推定する
ことが可能である。しかし、平滑化によりエッジ情報が
失われるなどの危険性があるため、奥行き値について時
間連続性による情報量を補足し、より安定して推定を行
うことが望まれている。この際、時刻1と次の時刻2と
の間で物体をカメラで撮影した像の特徴点の対応づけに
より、動き情報を収集して奥行き値を推定することが考
えられるが、その対応づけが困難であるという問題もあ
る。
して、得られた各時刻の奥行き値に対して局所的な平滑
化などを施すことにより、滑らかな形状として推定する
ことが可能である。しかし、平滑化によりエッジ情報が
失われるなどの危険性があるため、奥行き値について時
間連続性による情報量を補足し、より安定して推定を行
うことが望まれている。この際、時刻1と次の時刻2と
の間で物体をカメラで撮影した像の特徴点の対応づけに
より、動き情報を収集して奥行き値を推定することが考
えられるが、その対応づけが困難であるという問題もあ
る。
【0004】本発明は、これらの問題を解決するため、
環境に対するカメラの相対運動から環境中の物体までの
奥行き値を推定する際に、速度場を用いて次の時刻にお
ける奥行き値を予測して情報量を増やし、雑音の影響の
受け難く正確な奥行き値を算出することを目的としてい
る。
環境に対するカメラの相対運動から環境中の物体までの
奥行き値を推定する際に、速度場を用いて次の時刻にお
ける奥行き値を予測して情報量を増やし、雑音の影響の
受け難く正確な奥行き値を算出することを目的としてい
る。
【0005】
【課題を解決するための手段】図1を参照して課題を解
決するための手段を説明する。図1において、運動パラ
メータ推定部1は、物体を投影した2次元画像上の全観
測点(xi、yi)の現時刻における速度場(ui、vi)
をもとに運動パラメータ(T、W)を算出(推定)する
ものである。
決するための手段を説明する。図1において、運動パラ
メータ推定部1は、物体を投影した2次元画像上の全観
測点(xi、yi)の現時刻における速度場(ui、vi)
をもとに運動パラメータ(T、W)を算出(推定)する
ものである。
【0006】3次元予測部2は、算出した観測点の奥行
き値Zをもとに、次時刻の奥行き値Zを予測するもので
ある。予測値算出部3は、予測した次時刻の奥行き値Z
をもとに、次の時刻の奥行き値Zを算出するための重み
を求めるものである。
き値Zをもとに、次時刻の奥行き値Zを予測するもので
ある。予測値算出部3は、予測した次時刻の奥行き値Z
をもとに、次の時刻の奥行き値Zを算出するための重み
を求めるものである。
【0007】奥行き値推定部4は、算出した運動パラメ
ータ(T、W)をもとに観測点の奥行き値Zをそれぞれ
算出(推定)するものである。
ータ(T、W)をもとに観測点の奥行き値Zをそれぞれ
算出(推定)するものである。
【0008】
【作用】本発明は、図1に示すように、運動パラメータ
推定部1が物体を投影した2次元画像上の全観測点(x
i、yi)の現時刻における速度場(ui、vi)をもとに
運動パラメータ(T、W)を算出(推定)し、奥行き値
推定部4が算出した運動パラメータ(T、W)をもとに
観測点の奥行き値Zをそれぞれ算出(推定)し、3次元
予測部2が算出した観測点の奥行き値Zをもとに、次時
刻の奥行き値Zを予測し、予測値算出部3が算出した次
時刻の奥行き値Zをもとに、次の時刻の奥行き値Zを算
出するための重みを求め、この求めた重みをもとに、次
の時刻における速度場(ui、vi)から観測点の奥行き
値Zをそれぞれ算出するようにしている。
推定部1が物体を投影した2次元画像上の全観測点(x
i、yi)の現時刻における速度場(ui、vi)をもとに
運動パラメータ(T、W)を算出(推定)し、奥行き値
推定部4が算出した運動パラメータ(T、W)をもとに
観測点の奥行き値Zをそれぞれ算出(推定)し、3次元
予測部2が算出した観測点の奥行き値Zをもとに、次時
刻の奥行き値Zを予測し、予測値算出部3が算出した次
時刻の奥行き値Zをもとに、次の時刻の奥行き値Zを算
出するための重みを求め、この求めた重みをもとに、次
の時刻における速度場(ui、vi)から観測点の奥行き
値Zをそれぞれ算出するようにしている。
【0009】従って、環境に対するカメラの相対運動か
ら環境中の物体までの奥行き値Zを推定する際に、速度
場(ui、vi)を用いて次の時刻における奥行き値Zを
予測して情報量を増やすことにより、雑音の影響を受け
ることを少なくして正確性の高い奥行き値Zを算出する
ことが可能となる。
ら環境中の物体までの奥行き値Zを推定する際に、速度
場(ui、vi)を用いて次の時刻における奥行き値Zを
予測して情報量を増やすことにより、雑音の影響を受け
ることを少なくして正確性の高い奥行き値Zを算出する
ことが可能となる。
【0010】
【実施例】次に、図1から図5を用いて本発明の実施例
の構成および動作を順次詳細に説明する。
の構成および動作を順次詳細に説明する。
【0011】図1は、本発明の1実施例構成図を示す。
図1の(a)は、ブロック図を示す。図1の(a)にお
いて、運動パラメータ推定部1は、物体を投影した2次
元画像上の全観測点(xi、yi)(iは図1の(b)の
イメージ面上のi番目の観測点を表す)の現時刻におけ
る速度場(ui、vi)をもとに運動パラメータ(T、
W)を算出(推定)するものである(図3を用いて後述
する)。ここで、速度場(ui、vi)は、図1の(d)
に示すように、イメージ面上のi番目の観測点(xi、
yi)における、X方向の速度ui、Y方向の速度viを
表す。運動パラメータ(T、W)は、図1の(b)に示
すように、物体の並進運動パラメータT、回転運動パラ
メータWであって、(Tx 、Ty、Tz)、(Wx、Wy、
Wz)である。
図1の(a)は、ブロック図を示す。図1の(a)にお
いて、運動パラメータ推定部1は、物体を投影した2次
元画像上の全観測点(xi、yi)(iは図1の(b)の
イメージ面上のi番目の観測点を表す)の現時刻におけ
る速度場(ui、vi)をもとに運動パラメータ(T、
W)を算出(推定)するものである(図3を用いて後述
する)。ここで、速度場(ui、vi)は、図1の(d)
に示すように、イメージ面上のi番目の観測点(xi、
yi)における、X方向の速度ui、Y方向の速度viを
表す。運動パラメータ(T、W)は、図1の(b)に示
すように、物体の並進運動パラメータT、回転運動パラ
メータWであって、(Tx 、Ty、Tz)、(Wx、Wy、
Wz)である。
【0012】3次元予測部2は、算出した観測点
(xi、yi)の奥行き値Ziをもとに、次時刻の奥行き
値Ziを予測するものである(図4を用いて後述す
る)。 予測値算出部3は、算出した次時刻の奥行き値Z
iをもとに、次の時刻の奥行き値Ziを算出するための重
みWijを求めるものである(図4を用いて後述する)。
(xi、yi)の奥行き値Ziをもとに、次時刻の奥行き
値Ziを予測するものである(図4を用いて後述す
る)。 予測値算出部3は、算出した次時刻の奥行き値Z
iをもとに、次の時刻の奥行き値Ziを算出するための重
みWijを求めるものである(図4を用いて後述する)。
【0013】奥行き値推定部4は、算出した運動パラメ
ータ(T、W)をもとに、重みWijを付加して観測点の
奥行き値Ziをそれぞれ算出(推定)するものである
(図4を用いて後述する)。
ータ(T、W)をもとに、重みWijを付加して観測点の
奥行き値Ziをそれぞれ算出(推定)するものである
(図4を用いて後述する)。
【0014】図1の(b)は、中心投影座標系を示す。
ここで、座標系XYZは、奥行き値Zを算出しようとす
る物体を配置する座標系である。この物体を配置した座
標系XYZをカメラで撮影したときの、投影した2次元
の座標系XYが図示Image plane(イメージ
面)であって、図示のように中心をZ軸に一致させて投
影する。
ここで、座標系XYZは、奥行き値Zを算出しようとす
る物体を配置する座標系である。この物体を配置した座
標系XYZをカメラで撮影したときの、投影した2次元
の座標系XYが図示Image plane(イメージ
面)であって、図示のように中心をZ軸に一致させて投
影する。
【0015】物体の運動パラメータは、並進運動パラメ
ータTと、回転運動パラメータWとがある。並進運動パ
ラメータTは、座標系XYZの各軸に並行に移動する量
であって、(Tx、Ty、Tz)と表す。回転運動パラメ
ータWは、座標系XYZの各軸の回りに回転する量であ
って、(Wx、Wy、Wz)と表す。
ータTと、回転運動パラメータWとがある。並進運動パ
ラメータTは、座標系XYZの各軸に並行に移動する量
であって、(Tx、Ty、Tz)と表す。回転運動パラメ
ータWは、座標系XYZの各軸の回りに回転する量であ
って、(Wx、Wy、Wz)と表す。
【0016】図1の(c)は、速度場としての動き情報
を示す。これは、時刻1から時刻2になったときに、図
示のようにイメージ面(投影面)上で物体のイメージが
移動したとき、図示点線の矢印の方向に移動する動き情
報を表すものである。この動き情報は、図1の(d)に
示すように表す。
を示す。これは、時刻1から時刻2になったときに、図
示のようにイメージ面(投影面)上で物体のイメージが
移動したとき、図示点線の矢印の方向に移動する動き情
報を表すものである。この動き情報は、図1の(d)に
示すように表す。
【0017】図1の(d)は、各グリッド上のフローを
示す。これは、イメージ面をグリッド(ボクセル)で分
割し、各グリード毎に図1の(d)の点線の矢印で表し
た動き情報の観測点(xi、yi)の(x成分、y成分)
について、(ui、vi)として表したものである。この
(ui、vi)を速度場(オプティカル・フロー)とい
う。
示す。これは、イメージ面をグリッド(ボクセル)で分
割し、各グリード毎に図1の(d)の点線の矢印で表し
た動き情報の観測点(xi、yi)の(x成分、y成分)
について、(ui、vi)として表したものである。この
(ui、vi)を速度場(オプティカル・フロー)とい
う。
【0018】次に、図2のフローチャートに示す順序に
従い、図1の構成の概略を説明する。図2において、S
1は、全観測点のオプティカルフローを算出する。これ
は、図1の(d)に記載したように、物体を投影したイ
メージ面上の各観測点(xi、yi)のオプティカルフロ
ー(速度場)(ui、vi)を算出する。これは、図1の
(c)に示すように、時刻1から時刻2に変化したとき
に、グリッド上でのイメージの変化を(ui、vi)と
し、全ての観測点について算出する。
従い、図1の構成の概略を説明する。図2において、S
1は、全観測点のオプティカルフローを算出する。これ
は、図1の(d)に記載したように、物体を投影したイ
メージ面上の各観測点(xi、yi)のオプティカルフロ
ー(速度場)(ui、vi)を算出する。これは、図1の
(c)に示すように、時刻1から時刻2に変化したとき
に、グリッド上でのイメージの変化を(ui、vi)と
し、全ての観測点について算出する。
【0019】S2は、3次元運動速度の算出を行う。こ
れは、後述する式(7)によって、時刻tにおける3次
元運動速度X’、Y’、Z’を求める。S3は、前時点
からの予測値を用いた奥行き値の推定を行う。これは、
S2で求めた3次元運動速度X’、Y’、Z’をもと
に、式(6)によって次の時刻における奥行き値Zを求
める。
れは、後述する式(7)によって、時刻tにおける3次
元運動速度X’、Y’、Z’を求める。S3は、前時点
からの予測値を用いた奥行き値の推定を行う。これは、
S2で求めた3次元運動速度X’、Y’、Z’をもと
に、式(6)によって次の時刻における奥行き値Zを求
める。
【0020】S4は、終了時点か判別する。これは、一
連の奥行き値を求める終了時点になったか判別する。Y
ESの場合には、終了する。NOの場合には、S5に進
む。S5は、次時点の奥行き値を予測する。これは、後
述する式(10)によって次の奥行き値を予測するため
の重みWijを求めておく(後述する)。そして、S1以
降を繰り返し行う。
連の奥行き値を求める終了時点になったか判別する。Y
ESの場合には、終了する。NOの場合には、S5に進
む。S5は、次時点の奥行き値を予測する。これは、後
述する式(10)によって次の奥行き値を予測するため
の重みWijを求めておく(後述する)。そして、S1以
降を繰り返し行う。
【0021】以上によって、物体を2次元に投影したイ
メージ面上で全観測点のオプティカルフロー(速度場)
(ui、vi)を算出し、これをもとに奥行き値を予測す
ると共に次の時刻の奥行き値を予測するための重みWij
を算出することにより、2次元イメージ上の速度場(u
i、vi)をもとに奥行き値Zを雑音の影響を受けること
がなく予測することが可能となる。以下順次詳細に説明
する。
メージ面上で全観測点のオプティカルフロー(速度場)
(ui、vi)を算出し、これをもとに奥行き値を予測す
ると共に次の時刻の奥行き値を予測するための重みWij
を算出することにより、2次元イメージ上の速度場(u
i、vi)をもとに奥行き値Zを雑音の影響を受けること
がなく予測することが可能となる。以下順次詳細に説明
する。
【0022】図3は、本発明の各時刻の処理による運動
パラメータおよび奥行き値の算出フローチャートを示
す。図3において、S11は、全観測点のフロー方程式
(1)、(2)よりZiを消去し、式(3)を生成す
る。これは、後述する2次元投影面上の速度場(ui、
vi)を算出する式(1)、(2)からZiを消去し、式
(3)を生成する。
パラメータおよび奥行き値の算出フローチャートを示
す。図3において、S11は、全観測点のフロー方程式
(1)、(2)よりZiを消去し、式(3)を生成す
る。これは、後述する2次元投影面上の速度場(ui、
vi)を算出する式(1)、(2)からZiを消去し、式
(3)を生成する。
【0023】S12は、全観測点で得られる式(3)に
最小二乗規準/変分法を適用する。これは、式(3)に
ついて最小二乗法を使い、変分法によって解く。S13
は、MT=0とする。ここで、Mは3×3の観測行列で
あり、Tは並進速度ベクトルである。
最小二乗規準/変分法を適用する。これは、式(3)に
ついて最小二乗法を使い、変分法によって解く。S13
は、MT=0とする。ここで、Mは3×3の観測行列で
あり、Tは並進速度ベクトルである。
【0024】S14は、Mの最小固有値に対する固有ベ
クトルを算出し、Tだけの式にする。これは、S13の
MT=0によって図3の(b−1)に示すようなTベク
トルをMで変換して(b−2)に示すように0ベクトル
にしたベクトルを求め、Tのみの式に変換する。
クトルを算出し、Tだけの式にする。これは、S13の
MT=0によって図3の(b−1)に示すようなTベク
トルをMで変換して(b−2)に示すように0ベクトル
にしたベクトルを求め、Tのみの式に変換する。
【0025】S15は、Tを用いてWを算出する。S1
6は、式(1)、(2)より全観測点についてZiを算
出する。これは、S14、S15で算出したT、Wを式
(1)、(2)に代入して全観測点の奥行き値Ziを算
出する。
6は、式(1)、(2)より全観測点についてZiを算
出する。これは、S14、S15で算出したT、Wを式
(1)、(2)に代入して全観測点の奥行き値Ziを算
出する。
【0026】以上によって、全観測点の速度場(ui、
vi)を表す式(1)、(2)をもとに、Ziを消去して
T、Wを求め、これら求めたT、Wと、(ui、vi)を
式(1)、(2)に代入して奥行き値Ziを算出するこ
とが可能となる。
vi)を表す式(1)、(2)をもとに、Ziを消去して
T、Wを求め、これら求めたT、Wと、(ui、vi)を
式(1)、(2)に代入して奥行き値Ziを算出するこ
とが可能となる。
【0027】図4は、本発明の時間連続性による奥行き
値推定処理のフローチャートを示す。ここで、x、yは
2次元画像上のグリッド位置、X、Y、Zは3次元上の
位置を表す。
値推定処理のフローチャートを示す。ここで、x、yは
2次元画像上のグリッド位置、X、Y、Zは3次元上の
位置を表す。
【0028】図4において、S21は、T、Wを算出す
る。これは、既述した図3のS11からS15によっ
て、全観測点の速度場(ui、vi)をもとに式(1)、
(2)からT、Wを算出する。
る。これは、既述した図3のS11からS15によっ
て、全観測点の速度場(ui、vi)をもとに式(1)、
(2)からT、Wを算出する。
【0029】S22は、1回目か判別する。YESの場
合には、1回目であるので、S31で式(1)、(2)
より全観測点のZiを算出し、S23に進む。一方、2
回目以降は、前時刻の処理で重みWijを算出して次時刻
の奥行き値を予測する式(19)が算出されているの
で、この式(19)より、全観測点のdi (=1/
Zi)を算出し、S23に進む。
合には、1回目であるので、S31で式(1)、(2)
より全観測点のZiを算出し、S23に進む。一方、2
回目以降は、前時刻の処理で重みWijを算出して次時刻
の奥行き値を予測する式(19)が算出されているの
で、この式(19)より、全観測点のdi (=1/
Zi)を算出し、S23に進む。
【0030】S23は、奥行き値マップを出力する。こ
れは、イメージ面を分割した各ボクセル毎に奥行き値Z
iが算出されて格納されているので、これらの奥行き値
マップを結果として出力する。
れは、イメージ面を分割した各ボクセル毎に奥行き値Z
iが算出されて格納されているので、これらの奥行き値
マップを結果として出力する。
【0031】S24は、終了か判別する。YESの場合
には、終了する。NOの場合には、S25に進む。S2
5は、アレイバッファ2個を初期化する。これは、後述
するS29で重みWij、Wijdpiを足し込むためのアレ
イバッファ2個を0クリアする。
には、終了する。NOの場合には、S25に進む。S2
5は、アレイバッファ2個を初期化する。これは、後述
するS29で重みWij、Wijdpiを足し込むためのアレ
イバッファ2個を0クリアする。
【0032】S26は、2次元画像上の各グリッド点の
3次元位置を計算する。これは、後述する式(8)、
(9)を変形して Xi=xiZi Yi=yiZi に2次元画像上の各グリッド点の座標xi、yiを代入
し、3次元位置Xi、Yiを算出する。即ち、(x、
y)、Zから(X、Y)を算出する。
3次元位置を計算する。これは、後述する式(8)、
(9)を変形して Xi=xiZi Yi=yiZi に2次元画像上の各グリッド点の座標xi、yiを代入
し、3次元位置Xi、Yiを算出する。即ち、(x、
y)、Zから(X、Y)を算出する。
【0033】S27は、式(7)、式(4)、(5)、
(6)より、次時点での3次元速度(X’i、Y’i、
Z’i)、更に3次元位置(X、Y、Z)を予測する。
即ち、(X、Y、Z)から次時点の(X’、Y’、Z)
を求め、更に(X、Y、Z)を予測する。
(6)より、次時点での3次元速度(X’i、Y’i、
Z’i)、更に3次元位置(X、Y、Z)を予測する。
即ち、(X、Y、Z)から次時点の(X’、Y’、Z)
を求め、更に(X、Y、Z)を予測する。
【0034】S28は、式(8)、(9)より次時点で
の2次元位置(xi、yi)を予測する。即ち次時点の
(X、Y、Z)から次時点の(x、y)を予測する。S
29は、式(10)、(11)、(12)より周囲グリ
ッドに対する重みW ijを計算する。計算した結果の
Wij、Wijdpiをアレイバッファに足し込み、次の時点
の奥行き値の逆数diを予測する準備をしておく。
の2次元位置(xi、yi)を予測する。即ち次時点の
(X、Y、Z)から次時点の(x、y)を予測する。S
29は、式(10)、(11)、(12)より周囲グリ
ッドに対する重みW ijを計算する。計算した結果の
Wij、Wijdpiをアレイバッファに足し込み、次の時点
の奥行き値の逆数diを予測する準備をしておく。
【0035】S30は、時刻tをt+1に進める。そし
て、S21以降を繰り返し行う。以上によって、2次元
画像上の全観測点について、速度場(ui、vi)をもと
に並進運動パラメータT、回転運動パラメータW、奥行
き値Z(あるいは逆数のdi)を求めると共に、(x、
y)、Zをもとに次時刻の奥行き値を求める重みWijを
更新することを繰り返すことにより、速度場(ui、
vi)をもとに雑音の影響を受けることが少なく、物体
の奥行き値Zを正確に予測することが可能となる。以下
順次式(1)から(19)の意味および奥行き値の予測
について詳細に説明する。
て、S21以降を繰り返し行う。以上によって、2次元
画像上の全観測点について、速度場(ui、vi)をもと
に並進運動パラメータT、回転運動パラメータW、奥行
き値Z(あるいは逆数のdi)を求めると共に、(x、
y)、Zをもとに次時刻の奥行き値を求める重みWijを
更新することを繰り返すことにより、速度場(ui、
vi)をもとに雑音の影響を受けることが少なく、物体
の奥行き値Zを正確に予測することが可能となる。以下
順次式(1)から(19)の意味および奥行き値の予測
について詳細に説明する。
【0036】(1) 概要 まず、本発明で採用する2次元情報(運動パラメータお
よび奥行き値)の推定の基本的な流れについて説明す
る。用いる投影系システムを図1の(b)に示す。環境
がカメラに対して相対的に移動するとき、2次元投影面
(image plane)上で得られる速度場(オプ
ティカルフロー)(ui、vi)は次式(1)、(2)の
ように表せる。ここで、xi、yiはimage pla
ne上のi番目の観測点の座標値である。
よび奥行き値)の推定の基本的な流れについて説明す
る。用いる投影系システムを図1の(b)に示す。環境
がカメラに対して相対的に移動するとき、2次元投影面
(image plane)上で得られる速度場(オプ
ティカルフロー)(ui、vi)は次式(1)、(2)の
ように表せる。ここで、xi、yiはimage pla
ne上のi番目の観測点の座標値である。
【0037】 ui=−Wxxiyi+Wy(1+xi 2)-Wzyi+(Tx−Tzxi)/Zi (1) vi=−Wx(1+yi 2)+Wyxiyi+Wzxi+(Ty−Tzyi)/Zi (2) 式から明らかのように、TとZはその比のみ推定可能で
あり、未知数の次元は6である。カメラの相対運動を考
えると、運動パラメータは全ての観測点で同じであるか
ら、式(1)、(2)よりZiを消去して式を1つに減
らし、式(3)を得る。
あり、未知数の次元は6である。カメラの相対運動を考
えると、運動パラメータは全ての観測点で同じであるか
ら、式(1)、(2)よりZiを消去して式を1つに減
らし、式(3)を得る。
【0038】 Ui tV=0 (3) Ui=[1、−xi、−yi、−xiyi、xi 2、yi 2、
vi、−ui、uiyi−vixi]t V=[A0、A1、A2、A3、A4、A5、Tx、Ty、
Tz]t A0=WxTx+WyTy A1=WxTz+WzTx A2=WyTz+WzTy A3=WxTy+WyTx A4=WyTy+WzTz A5=WxTx+WzTz この式(3)が全ての観測点で成り立つように解く。こ
れは各時刻での処理となる。ここで、時間連続性を奥行
き値の推定に関して取り入れることにより、真の形状情
報をできるだけ失うことなく、安定した推定を可能にす
る方法を考える。各時刻において、運動パラメータは比
較的に安定に推定できる。そこでこれを用いて、3次元
空間中の点の次時点での位置を推定することができる。
次時点では新たに観測点の奥行き値が得られるので、こ
れを前時点からの推定値をマージすることにより、より
多くの情報から推定することにする。マージ方法として
は、予測値と現時点での計算値との兼ね合いを考慮でき
るように、標準正規化の手法を用いる。これは最小にす
べきエネルギー関数を、主となる評価関数とペナルティ
関数の和として表現するものである。以下で詳細につい
て説明する。
vi、−ui、uiyi−vixi]t V=[A0、A1、A2、A3、A4、A5、Tx、Ty、
Tz]t A0=WxTx+WyTy A1=WxTz+WzTx A2=WyTz+WzTy A3=WxTy+WyTx A4=WyTy+WzTz A5=WxTx+WzTz この式(3)が全ての観測点で成り立つように解く。こ
れは各時刻での処理となる。ここで、時間連続性を奥行
き値の推定に関して取り入れることにより、真の形状情
報をできるだけ失うことなく、安定した推定を可能にす
る方法を考える。各時刻において、運動パラメータは比
較的に安定に推定できる。そこでこれを用いて、3次元
空間中の点の次時点での位置を推定することができる。
次時点では新たに観測点の奥行き値が得られるので、こ
れを前時点からの推定値をマージすることにより、より
多くの情報から推定することにする。マージ方法として
は、予測値と現時点での計算値との兼ね合いを考慮でき
るように、標準正規化の手法を用いる。これは最小にす
べきエネルギー関数を、主となる評価関数とペナルティ
関数の和として表現するものである。以下で詳細につい
て説明する。
【0039】(2) 詳細 (2−1) 3次元座標点の変位予測とペナルティ関数 3次元座標中の時刻tにおける位置を(X(t)、Y
(t)、Z(t))とすると、時刻(t+1)における
位置の予測値は次式で得られる。
(t)、Z(t))とすると、時刻(t+1)における
位置の予測値は次式で得られる。
【0040】 Xp(t+1)=X(t)+X’(t)dt (4) Yp(t+1)=Y(t)+Y’(t)dt (5) Zp(t+1)=Z(t)+Z’(t)dt (6) ここで、dtは画像間の時間間隔である。(X’
(t)、Y’(t)、Z’(t))は時刻tにおける3
次元運動速度であり、次式で計算する。
(t)、Y’(t)、Z’(t))は時刻tにおける3
次元運動速度であり、次式で計算する。
【0041】
【数1】
【0042】従って、各時刻で得られた運動パラメータ
T(t)、W(t)および奥行き値Z(t)を用いて、
次時刻の奥行き値Zp(t+1)を予測できる。しか
し、移動先の点のimage plane上での位置は
連続値であり、次時刻での観測点の1つのimage
plane上の位置と完全に一致することはない。ここ
では、観測点のimage plane上で等間隔のグ
リッド格子点で得られるものと考えているので、図5の
(a)に示すように、予測値は格子間の点に対応する。
この問題を解決するためには、奥行き値をより分解能の
高いボクセル情報として蓄え、補間処理によって扱うこ
とが望ましいが、そのためには多量の記憶容量と計算手
続きが必要となる。そこで、本発明では近似的な手法を
用いる。以下でこれを説明する。尚、(Xp(t+
1)、Yp(t+1)、Zp(t+1))に対応するim
age plane上での位置の推定値(xp(t+
1)、yp(t+1)、zp(t+1))は、次式で計算
する。
T(t)、W(t)および奥行き値Z(t)を用いて、
次時刻の奥行き値Zp(t+1)を予測できる。しか
し、移動先の点のimage plane上での位置は
連続値であり、次時刻での観測点の1つのimage
plane上の位置と完全に一致することはない。ここ
では、観測点のimage plane上で等間隔のグ
リッド格子点で得られるものと考えているので、図5の
(a)に示すように、予測値は格子間の点に対応する。
この問題を解決するためには、奥行き値をより分解能の
高いボクセル情報として蓄え、補間処理によって扱うこ
とが望ましいが、そのためには多量の記憶容量と計算手
続きが必要となる。そこで、本発明では近似的な手法を
用いる。以下でこれを説明する。尚、(Xp(t+
1)、Yp(t+1)、Zp(t+1))に対応するim
age plane上での位置の推定値(xp(t+
1)、yp(t+1)、zp(t+1))は、次式で計算
する。
【0043】 xp(t+1)=Xp(t+1)/Zp(t+1) (8) yp(t+1)=Yp(t+1)/Zp(t+1) (9) 予測法の使用法に関するアルゴリズムについて説明す
る。いま、ある予測値のimage plane上での
位置pj=(xj、yj)が図5の(b)のようにグリッ
ドpi=(xi、yi)(i=1、2、3、4)の間に存
在するものとする。このとき、点pjは周りの各グリッ
ド点に属するものとし、各点の結合の強さとして次の重
み関数を定める。
る。いま、ある予測値のimage plane上での
位置pj=(xj、yj)が図5の(b)のようにグリッ
ドpi=(xi、yi)(i=1、2、3、4)の間に存
在するものとする。このとき、点pjは周りの各グリッ
ド点に属するものとし、各点の結合の強さとして次の重
み関数を定める。
【0044】 wij=αijexp(−βij) (10) αij=1/{1+(xi/xmax)2+(yi/ymax)2} (11) βij={(xi−xj)/dx}2+{(yi−yj)/dy}2(12) ここで、xmax、ymaxはimage planeの原点
から片側のサイズであり、dx、dyはグリッドの刻み
幅である。αijの使用は、image planeの原
点から遠いほど、グリッド格子点に対応する3次元空間
中の点の間隔は一般的に広くなるため、同じ距離だけ離
れている予測値を用いる場合でも、原点の近くでの方が
有効に働くことを意図している。βijは、単純に各グリ
ッド格子に対して近くに存在する予測値の方が、奥行き
値の近似として有効であることを意味している。
から片側のサイズであり、dx、dyはグリッドの刻み
幅である。αijの使用は、image planeの原
点から遠いほど、グリッド格子点に対応する3次元空間
中の点の間隔は一般的に広くなるため、同じ距離だけ離
れている予測値を用いる場合でも、原点の近くでの方が
有効に働くことを意図している。βijは、単純に各グリ
ッド格子に対して近くに存在する予測値の方が、奥行き
値の近似として有効であることを意味している。
【0045】この重み関数と予測値を用いてペナルティ
関数を構成することになるが、次項に示す評価関数との
兼ね合いから、奥行き値Ziの代わりにその逆数diを推
定することにする。今、図5の(c)に示すように、推
定したい点をpiとし、その周りに予測値を持つ点とし
てpj(j=1、・・・、4)が存在したとする。pjが
持つ予測値の逆数をdpj、推定したいpiでのそれをdi
として、次式でペナルティ関数P(di)を計算する。
関数を構成することになるが、次項に示す評価関数との
兼ね合いから、奥行き値Ziの代わりにその逆数diを推
定することにする。今、図5の(c)に示すように、推
定したい点をpiとし、その周りに予測値を持つ点とし
てpj(j=1、・・・、4)が存在したとする。pjが
持つ予測値の逆数をdpj、推定したいpiでのそれをdi
として、次式でペナルティ関数P(di)を計算する。
【0046】 これを小さくするようなdiを推定することにより、近
傍の予測値を重み付きで平滑化したようなdiを推定で
きる。
傍の予測値を重み付きで平滑化したようなdiを推定で
きる。
【0047】(2−2) エネルギー関数の構成と奥行
き値の推定 前項では前時点からの予測値に関係するペナルティ関数
を定義したので、ここではまず、現時点で得られる奥行
き値に関係する評価関数を定義する。そこで式(1)、
(2)を次のように書き直す。
き値の推定 前項では前時点からの予測値に関係するペナルティ関数
を定義したので、ここではまず、現時点で得られる奥行
き値に関係する評価関数を定義する。そこで式(1)、
(2)を次のように書き直す。
【0048】 ui=uwi+uTidi (14) vi=vwi+vTidi (15) 評価関数F(di)は、この式(14)、(15)を用
いて最小二乗規準として次式で定義する。
いて最小二乗規準として次式で定義する。
【0049】 F(di)=(ui−uwi−uTidi)2+(vi−vwi−vTidi)2 (16) この評価関数と先に定義したペナルティ関数より、エネ
ルギー関数E(di)を正規化手法に基づき、次のよう
に定義する。
ルギー関数E(di)を正規化手法に基づき、次のよう
に定義する。
【0050】 ここで、λはF(di)とP(di)の割合を決める定数
であり、これが大きい程、予測値をより重視した推定を
行うことになる。また、lはPiに関係する予測値の点
数であり、各Piによって異なる。尚、最適なλの値は
本発明の範囲では理論的に決定することはできず、場当
たり的に、雑音の状態や形状に依存して定める必要があ
る。
であり、これが大きい程、予測値をより重視した推定を
行うことになる。また、lはPiに関係する予測値の点
数であり、各Piによって異なる。尚、最適なλの値は
本発明の範囲では理論的に決定することはできず、場当
たり的に、雑音の状態や形状に依存して定める必要があ
る。
【0051】式(17)のエネルギー関数は、diに関
して2次関数となっており、変分原理により容易に解く
ことが可能である。即ち式(17)をdiで微分して0
とおくことにより、次の代数方程式が得られる。
して2次関数となっており、変分原理により容易に解く
ことが可能である。即ち式(17)をdiで微分して0
とおくことにより、次の代数方程式が得られる。
【0052】 dE/ddi=(ui−uwi)uTi−uTi 2di+(vi−vwi)vTi−vTi 2di +λΣwijdpi−λdiΣwij =0 (18) これより、diは、次式で得られる。
【0053】 di={(ui−uwi)uTi+(vi−vwi)vTi+λΣwijdpi} /{uTi 2+vTi 2+λΣwij} (19) この計算を各グリッド点について行い、その逆数をとる
ことにより、全てのZ iが得られる。ただし、このZiは
Tに対する相対的な値である。そのため、本方法は|T
|が時間的に一定である必要がある。
ことにより、全てのZ iが得られる。ただし、このZiは
Tに対する相対的な値である。そのため、本方法は|T
|が時間的に一定である必要がある。
【0054】
【発明の効果】以上説明したように、本発明によれば、
環境に対するカメラの相対運動から環境中の物体までの
奥行き値Zを推定する際に、速度場(ui、vi)を用い
て次の時刻における奥行き値Zを予測して情報量を増や
す構成を採用しているため、雑音の影響を受けることを
少なくして正確性の高い奥行き値Zを算出(推定)する
ことができる。これにより、カメラを運動させて周囲環
境の奥行き情報を得るための視覚システムにおいて、運
動パラメータ(並進運動パラメータ、回転運動パラメー
タ)が時間的に滑らかに変化し、特に並進運動パラメー
タのベクトルとしての大きさが変化しない場合に、画像
に含まれる雑音に対して正確性の高い奥行き値の推定が
可能となる。
環境に対するカメラの相対運動から環境中の物体までの
奥行き値Zを推定する際に、速度場(ui、vi)を用い
て次の時刻における奥行き値Zを予測して情報量を増や
す構成を採用しているため、雑音の影響を受けることを
少なくして正確性の高い奥行き値Zを算出(推定)する
ことができる。これにより、カメラを運動させて周囲環
境の奥行き情報を得るための視覚システムにおいて、運
動パラメータ(並進運動パラメータ、回転運動パラメー
タ)が時間的に滑らかに変化し、特に並進運動パラメー
タのベクトルとしての大きさが変化しない場合に、画像
に含まれる雑音に対して正確性の高い奥行き値の推定が
可能となる。
【図1】本発明の1実施例構成図である。
【図2】本発明の概要フローチャートである。
【図3】本発明の各時刻の処理による運動パラメータお
よび奥行き値算出フローチャートである。
よび奥行き値算出フローチャートである。
【図4】本発明の時間連続性による奥行き値推定処理フ
ローチャートである。
ローチャートである。
【図5】本発明の動作説明図である。
1:運動パラメータ推定部 2:3次元予測部 3:予測値算出部 4:奥行き値推定部 X、Y、Z:物体の3次元座標 x、y、xi、yi:画像上の2次元座標 T、Tx、Ty、Tz:並進運動パラメータ W、Wx、Wy、Wz:回転運動パラメータ Z、Zi:物体の奥行き値 ui、vi:画像上の速度場 di:奥行き値Ziの逆数 wij:重み i:画像上のi番目の観測点 t、t+1:時刻
Claims (1)
- 【請求項1】カメラで撮影した2次元画像から物体の奥
行き値を推定する奥行き値推定方式において、 2次元画像上の全観測点(xi、yi)の現時刻における
速度場(ui、vi)をもとに運動パラメータ(T、W)
を算出する運動パラメータ推定部(1)と、 この算出した運動パラメータ(T、W)をもとに観測点
の奥行き値Zをそれぞれ算出する奥行き値推定部(4)
と、 この算出した観測点の奥行き値Zをもとに、次時刻の奥
行き値Zを予測する3次元予測部(2)と、 この予測した次時刻の奥行き値Zをもとに、次の時刻の
奥行き値Zを算出するための重みを求める予測値算出部
(3)とを備え、 この求めた重みをもとに、次の時刻における速度場(u
i、vi)から観測点の奥行き値Zをそれぞれ算出するよ
うに構成したことを特徴とする運動立体視による奥行き
値推定方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4153989A JPH05346308A (ja) | 1992-06-15 | 1992-06-15 | 運動立体視による奥行き値推定方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4153989A JPH05346308A (ja) | 1992-06-15 | 1992-06-15 | 運動立体視による奥行き値推定方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05346308A true JPH05346308A (ja) | 1993-12-27 |
Family
ID=15574484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4153989A Withdrawn JPH05346308A (ja) | 1992-06-15 | 1992-06-15 | 運動立体視による奥行き値推定方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05346308A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8854425B2 (en) | 2007-07-26 | 2014-10-07 | Koninklijke Philips N.V. | Method and apparatus for depth-related information propagation |
-
1992
- 1992-06-15 JP JP4153989A patent/JPH05346308A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8854425B2 (en) | 2007-07-26 | 2014-10-07 | Koninklijke Philips N.V. | Method and apparatus for depth-related information propagation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949375B (zh) | 一种基于深度图感兴趣区域的移动机器人目标跟踪方法 | |
CN108489496B (zh) | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 | |
JP6534664B2 (ja) | カメラ動き予測及び修正のための方法 | |
CN108615246B (zh) | 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法 | |
CN109633664B (zh) | 基于rgb-d与激光里程计的联合定位方法 | |
CN107590827A (zh) | 一种基于Kinect的室内移动机器人视觉SLAM方法 | |
CN103149940B (zh) | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 | |
JP5012615B2 (ja) | 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム | |
US9361590B2 (en) | Information processing apparatus, information processing method, and program | |
CN105678809A (zh) | 手持式自动跟拍装置及其目标跟踪方法 | |
Martin et al. | Real-time acquisition of compact volumetric 3D maps with mobile robots | |
RU2572637C2 (ru) | Параллельное или выполняемое последовательно в онлайн- и оффлайн- режимах формирование реконструкций для трехмерного обмера помещения | |
CN114013449A (zh) | 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆 | |
Tang et al. | Learning a bias correction for lidar-only motion estimation | |
CN110490933A (zh) | 基于单点ransac的非线性状态空间中心差分滤波器方法 | |
CN111489392B (zh) | 多人环境下单个目标人体运动姿态捕捉方法及系统 | |
Tarrio et al. | Realtime edge based visual inertial odometry for MAV teleoperation in indoor environments | |
CN116772844A (zh) | 一种基于动态环境下的视觉惯性室内机器人的导航方法 | |
CN113532420A (zh) | 一种融合点线特征的视觉惯性里程计方法 | |
WO2021109166A1 (zh) | 三维激光定位方法及系统 | |
CN110598370B (zh) | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 | |
CN109544584B (zh) | 一种实现巡检稳像精度测量的方法及系统 | |
CN113031002B (zh) | 基于Kinect3和激光雷达的SLAM陪跑小车 | |
CN113034681A (zh) | 空间平面关系约束的三维重建方法及装置 | |
CN117369507A (zh) | 一种自适应粒子群算法的无人机动态路径规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19990831 |