JP2011090465A - 物体位置推定装置および物体位置推定プログラム - Google Patents

物体位置推定装置および物体位置推定プログラム Download PDF

Info

Publication number
JP2011090465A
JP2011090465A JP2009242759A JP2009242759A JP2011090465A JP 2011090465 A JP2011090465 A JP 2011090465A JP 2009242759 A JP2009242759 A JP 2009242759A JP 2009242759 A JP2009242759 A JP 2009242759A JP 2011090465 A JP2011090465 A JP 2011090465A
Authority
JP
Japan
Prior art keywords
local feature
sample
dimensional
unit
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009242759A
Other languages
English (en)
Inventor
Manabu Nakao
学 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009242759A priority Critical patent/JP2011090465A/ja
Publication of JP2011090465A publication Critical patent/JP2011090465A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】少ない計算量で物体の三次元位置を推定することを課題とする。
【解決手段】物体位置推定装置1は、局所特徴抽出部2、三次元座標算出部3、サンプル設定部4、サンプル遷移部5、尤度算出部6、推定部7を有する。局所特徴抽出部2は、撮像装置により撮像されたステレオ画像から、所定の領域の中で特徴のある画素を局所特徴として抽出する。三次元座標算出部3は、ステレオ画像から局所特徴の三次元座標を算出する。サンプル設定部4は、三次元座標系へ物体の状態量を推定するために分散配置されるサンプルを設定する。サンプル遷移部5は、所定のアルゴリズムに基づいてサンプルを遷移させる。尤度算出部6は、サンプル遷移部5により遷移させたサンプルについて、三次元座標算出部3により算出された局所特徴の三次元座標から物体の存在確率を示す尤度を算出する。推定部7は、尤度算出部6により算出された尤度から物体の三次元位置を推定する。
【選択図】図1

Description

本発明は、物体位置推定装置および物体位置推定プログラムに関する。
従来より、映像監視システムやテレビ電話などにおいて、物体(人物等)を追跡する物体追跡機能により撮影領域を自動的に変更しながら物体を撮影する技術がある。このような技術においては、単一カメラによって取得した画像から物体の状態を推定する目的で、パーティクルフィルタというアルゴリズムが二次元座標系に対して広く利用されている。
上述したパーティクルフィルタについて簡単に説明する。まず、パーティクルフィルタは、例えば、背景差分から算出される尤度と状態量を持つサンプルを用いて離散的な確率密度で追跡対象を表現する。そして、パーティクルフィルタは、状態遷移モデルにしたがってサンプルを遷移させることで、動きの変動や観測のノイズに対して物体の頑健な追跡を実現する。なお、状態遷移モデルとは、物体の位置と時間との関係を予め規定したものであり、例えば、物体の移動が等速直線運動であるか、等加速度直線運動であるかといった情報を用いることで、異なる時刻間における位置関係の予測を可能にする。なお、パーティクルフィルタは、モンテカルロフィルタあるいはコンデンセーションとも称される。
特開2008−140290号公報 特開2009−15671号公報
ところで、上述した物体追跡機能は、様々なサービスへの応用が期待されている。例えば、ロボットに個人を追跡させることで適切な情報を個人に提供するなど、種々の対人サービスを提供する試みが行われている。また、例えば、自動車に対向車を追跡させることで、安全な運転を補助する試みが行われている。このようなサービスを実現するためには、自装置から物体までの距離を推定する必要があるが、上述した従来技術は単一カメラによって物体位置を推定するため、物体の三次元位置を推定することはできない。
仮に、ステレオカメラにより撮影したステレオ画像から全画素の三次元位置情報を取得し、取得した三次元位置情報に対して上述した物体追跡機能を適用することで、物体の三次元位置を推定することも考えられる。しかしながら、全画素の三次元位置情報を取得する際の計算量が大きいという問題点があり、さらに、取得した三次元位置情報を用いた三次元処理の計算量も大きくなってしまうという問題点があった。
開示の技術は、上記に鑑みてなされたものであって、少ない計算量で物体の三次元位置を推定することが可能な物体位置推定装置および物体位置推定プログラムを提供することを目的とする。
本願の開示する技術は、一つの態様において、撮像装置により撮像されたステレオ画像から、所定の領域の中で特徴のある画素を局所特徴として抽出する局所特徴抽出部と、ステレオ画像から局所特徴の三次元座標を算出する三次元座標算出部と、三次元座標系に対して物体の状態量を推定するために分散配置されるサンプルを設定するサンプル設定部と、所定のアルゴリズムに基づいてサンプルを遷移させるサンプル遷移部と、前記サンプル遷移部により遷移させたサンプルについて、前記三次元座標算出部により算出された局所特徴の三次元座標から物体の存在確率を示す尤度を算出する尤度算出部と、前記尤度算出部により算出された尤度から物体の三次元位置を推定する推定部とを有することを特徴とする。
本願の開示する技術の一つの態様によれば、少ない計算量で物体の三次元位置を推定することができるという効果を奏する。
図1は、実施例1に係る物体位置推定装置を示す図である。 図2は、実施例2に係る物体位置推定装置の構成を示す図である。 図3は、実施例2に係る局所特徴の一例を示す図である。 図4は、実施例2に係る局所領域を説明するための図である。 図5は、実施例2に係る局所特徴の抽出方法を説明するための図である。 図6は、実施例2に係る局所特徴抽出部により抽出される局所特徴の例を示す図である。 図7は、実施例2に係る新規局所特徴リストの一例を示す図である。 図8は、実施例2に係る新規局所特徴リストの一例を示す図である。 図9は、実施例2に係る追跡局所特徴リストの一例を示す図である。 図10は、実施例2に係る局所特徴の追跡方法を説明するための図である。 図11は、実施例2に係る局所特徴の追跡方法を説明するための図である。 図12は、実施例2に係る追跡局所特徴リストの一例を示す図である。 図13は、実施例2に係る三次元運動データリストの一例を示す図である。 図14は、実施例2に係る三次元座標データリストの一例を示す図である。 図15は、実施例2に係る尤度の算出方法を説明するための図である。 図16は、実施例2に係る尤度の算出方法を説明するための図である。 図17は、実施例2に係る尤度の算出方法を説明するための図である。 図18は、実施例2に係る物体位置推定装置における処理の流れを示す図である。 図19は、物体位置推定プログラムを実行するコンピュータを示す図である。
以下に、図面を参照しつつ、本願の開示する物体位置推定装置および物体位置推定プログラムの一実施形態について詳細に説明する。なお、本願の開示する物体位置推定装置および物体位置推定プログラムの一実施形態として以下に説明する実施例により、本願の開示する技術が限定されるものではない。
図1は、実施例1に係る物体位置推定装置を示す図である。同図に示すように、実施例1に係る物体位置推定装置1は、局所特徴抽出部2と、三次元座標算出部3と、サンプル設定部4と、サンプル遷移部5と、尤度算出部6と、推定部7とを有する。
局所特徴抽出部2は、撮像装置により撮像されたステレオ画像から、所定の領域の中で特徴のある画素を局所特徴として抽出する。三次元座標算出部3は、ステレオ画像から局所特徴の三次元座標を算出する。サンプル設定部4は、三次元座標系に対して物体の状態量を推定するために分散配置されるサンプルを設定する。サンプル遷移部5は、所定のアルゴリズムに基づいてサンプルを遷移させる。尤度算出部6は、サンプル遷移部5により遷移させたサンプルについて、三次元座標算出部3により算出された局所特徴の三次元座標から物体の存在確率を示す尤度を算出する。推定部7は、尤度算出部6により算出された尤度から物体の三次元位置を推定する。
上述してきたように、実施例1に係る物体位置推定装置は、ステレオ画像から局所特徴を抽出し、続いて局所特徴の三次元座標を算出する。そして、物体位置推定装置は、局所特徴の三次元座標から遷移させたサンプルの尤度を算出し、さらに尤度から物体の三次元位置を推定する。このようなことから、実施例1に係る物体位置推定装置は、三次元座標系の全座標点ではなく局所特徴の座標点に限って処理を行うことで処理データ数を減少させることができるため、少ない計算量で物体の三次元位置を推定できる。
[物体位置推定装置の構成]
図2は、実施例2に係る物体位置推定装置の構成を示す図である。同図に示すように、実施例2に係る物体位置推定装置100は、フレームバッファ110と、局所特徴抽出部120と、局所特徴ステレオ処理部130と、局所特徴記憶部140と、局所特徴追跡部150とを有する。さらに、実施例2に係る物体位置推定装置100は、サンプル設定部160と、サンプル遷移部170と、尤度算出部180と、推定部190とを有する。また、実施例2に係る物体位置推定装置100は、カメラR10およびカメラL20に接続されている。また、Rとは右側を意味し、Lとは左側を意味する。つまり、例えば、カメラRはステレオカメラの右側のカメラを示し、後述する画像RはカメラRにより撮像した画像を示す。
カメラR10およびカメラL20は、周囲の環境を撮影することで画像信号を生成し、画像信号をステレオ画像に変換してフレームバッファ110に逐次送る。なお、画像信号とは、例えば、ビデオ信号である。
フレームバッファ110は、カメラR10およびカメラL20から受け付けたステレオ画像を保持する。なお、ステレオ画像とは、同時に撮影された視差のある一対の画像であり、画像Rと画像Lとを含む。また、フレームバッファ110が保持する画像は、少なくとも時刻(t)および時刻(t−1)におけるステレオ画像を含む。また、時刻(t)に撮影した画像をステレオ画像(t)、画像R(t)、画像L(t)と表記する。また、時刻(t−1)に撮影した画像をステレオ画像(t−1)、画像R(t−1)、画像L(t−1)と表記する。
局所特徴抽出部120は、フレームバッファ110に保持されたステレオ画像から特徴のある画素を局所特徴として抽出する。例えば、局所特徴抽出部120は、フレームバッファ110に保持した画像R(t)を読み出し、読み出した画像R(t)から局所特徴を抽出する。そして、局所特徴抽出部120は、抽出した局所特徴を用いて、画像R(t)における新規局所特徴リストを生成し、生成した新規局所特徴リストを局所特徴ステレオ処理部130に送る。
ここで、図3から図6を用いて、局所特徴抽出部120による局所特徴の抽出動作について説明する。図3は、実施例2に係る局所特徴の一例を示す図である。同図は、局所特徴抽出部120によって画像内から抽出される局所特徴の一例を表す。例えば、同図に示すように、局所特徴抽出部120によって、物体の輪郭を形成するコーナーや線分(同図破線部参照)に相当する画像R(t)の画素部分が局所特徴として抽出される。
図4は、実施例2に係る局所領域を説明するための図である。同図は、局所特徴抽出部120が、画像内の各領域に関し、輝度勾配に基づいた固有値を求める場合に用いる局所領域(例えば、8×8画素)の一例を表す。なお、局所領域とは、特定の画素について輝度勾配に基づく固有値を算出するために特定の画素を中心として指定した画素の領域である。また、局所領域のサイズは任意に設定できる。また、図5は、実施例2に係る局所特徴の抽出方法を説明するための図である。同図は、x方向(水平)およびy方向(垂直)の座標系に、局所特徴抽出部120により算出された局所領域内の各画素についての輝度勾配をプロットした状態を表す。なお、水平方向の輝度勾配をg、垂直方向の輝度勾配をgとする。
例えば、局所特徴抽出部120は、フレームバッファ110に保持された画像R(t)を読み出し、読み出した画像R(t)内の局所領域ごとに輝度勾配の分散行列を生成する。つまり、局所特徴抽出部120は、局所領域を画像R(t)の縦方向および横方向に一画素ずつ移動させることで、局所領域ごとに輝度勾配の分散行列を生成する。そして、局所特徴抽出部120は、図5に示すように、生成した分散行列の固有値λmaxおよびλminを算出し、算出した固有値λmaxおよびλminが所定の条件を満たすか否かによって、局所領域から局所特徴の抽出を行う。例えば、局所特徴抽出部120は、以下に示す条件(1)を満たす局所領域内の画素を局所特徴「コーナー」として抽出する。また、局所特徴抽出部120は、以下に示す条件(2)および(3)を同時に満たす局所領域内の画素を局所特徴「線分」として抽出する。なお、以下の条件(1)、(2)あるいは(3)に示す「thcorner」および「thline」は、局所特徴抽出部120が局所特徴の抽出に用いる任意の閾値である。
図6は、実施例2に係る局所特徴抽出部により抽出された局所特徴の例を示す図である。例えば、局所特徴抽出部120は、同図に示すように、人物が撮影された画像R(t)から局所特徴を抽出する場合には、人物の輪郭を形成するコーナーや線分に相当する画素部分を局所特徴として抽出する。なお、図6において、×印は局所特徴を示す。また、図6において、水平方向の座標を「h」、垂直方向の座標を「v」と表記する。
Figure 2011090465
Figure 2011090465
Figure 2011090465
局所特徴の抽出後、局所特徴抽出部120は、フレームバッファ110に保持された画像から抽出した局所特徴の一覧である新規局所特徴リストを生成する。そして、局所特徴抽出部120は、生成した新規局所特徴リストを局所特徴ステレオ処理部130に送る。新規局所特徴リストは、局所特徴抽出部120により局所特徴ごとに一意に付与される情報に対応付けて、平面座標および属性情報を保持する。
図7は、実施例2に係る新規局所特徴リストの一例を示す図である。同図に示すように、新規局所特徴リストは、局所特徴抽出部120により局所特徴ごとに一意に付与される番号「1」に対応付けて、平面座標(h ,v )および属性情報「コーナー特徴」を保持する。また、例えば、同図に示すように、新規局所特徴リストは、番号「2」に対応付けて、平面座標(h ,v )および属性情報「コーナー特徴」を保持する。また、同図に示すように、新規局所特徴リストは、番号「3」に対応付けて、平面座標(h ,v )および属性情報「線分特徴」を保持する。また、例えば、同図に示すように、新規局所特徴リストは、番号「m」に対応付けて、平面座標(h ,v )および属性情報「線分特徴」を保持する。なお、平面座標とは、画像平面における水平座標(例えば、h1〜m )および垂直座標(例えば、v1〜m )によって示される局所特徴の位置情報である。また、属性情報とは、コーナーあるいは線分のどちらに相当する局所特徴であるかを示す情報である。
図2に戻り、局所特徴ステレオ処理部130は、ステレオ画像から局所特徴の三次元座標を算出する。例えば、局所特徴ステレオ処理部130は、フレームバッファ110から画像R(t)および画像L(t)を読み出し、読み出した画像R(t)および画像L(t)についてテンプレートマッチングを行うことにより、各画像から局所特徴に対応する画素を抽出する。例えば、局所特徴ステレオ処理部130は、画像R(t)の局所特徴に対応する領域をテンプレートとして設定し、このテンプレートを少しずつ移動させつつ画像L(t)の各領域にあてはめて、テンプレートと各領域との照合度をそれぞれ算出する。そして、局所特徴ステレオ処理部130は、算出した各照合度と所定の閾値とをそれぞれ比較して、テンプレートとの照合度が所定の閾値を超える画像L(t)内の領域を局所特徴に対応する画素として抽出する。テンプレートマッチングとの照合度を評価する方法としては、例えば、差分二乗和(SSD:Sum of Squared Differences)や差分絶対値和(SAD:Sum of Absolute Differences)を用いることができる。
局所特徴に対応する画素の抽出後、局所特徴ステレオ処理部130は、画像R(t)内の局所特徴に対応する画素と、画像L(t)内の局所特徴に対応する画素との視差を求める。そして、局所特徴ステレオ処理部130は、求めた視差を用いた三角測量により局所特徴の三次元座標を算出する。三次元座標算出後、局所特徴ステレオ処理部130は、算出した三次元座標を、局所特徴抽出部120から取得した新規局所特徴リストの対応箇所に登録する。
図8は、実施例2に係る新規局所特徴リストの一例を示す図である。例えば、同図に示すように、局所特徴ステレオ処理部130は、番号「1」、平面座標(h ,v )および属性情報「コーナー特徴」に対応付けて、三次元座標(x ,y ,z )を新規局所特徴リストに登録する。また、例えば、同図に示すように、局所特徴ステレオ処理部130は、番号「2」、平面座標(h ,v )および属性情報「コーナー特徴」に対応付けて、三次元座標(x ,y ,z )を新規局所特徴リストに登録する。また、例えば、同図に示すように、局所特徴ステレオ処理部130は、番号「3」、平面座標(h ,v )および属性情報「線分特徴」に対応付けて、三次元座標(x ,y ,z )を新規局所特徴リストに登録する。また、例えば、同図に示すように、局所特徴ステレオ処理部130は、番号「m」、平面座標(h ,v )および属性情報「線分特徴」に対応付けて、三次元座標(x ,y ,z )を新規局所特徴リストに登録する。なお、三次元座標とは、三次元空間における水平座標(x)、奥行座標(y)および垂直座標(z)によって示される局所特徴の位置情報である。
また、局所特徴ステレオ処理部130は、時刻(t−1)において生成した新規局所特徴リストからコーナー特徴のデータを読み出し、追跡すべき局所特徴のリストとして追跡局所特徴リスト(t−1)を生成する。そして、局所特徴ステレオ処理部130は、生成した追跡局所特徴リスト(t−1)を局所特徴記憶部140に格納する。追跡局所特徴リストは、局所特徴抽出部120により局所特徴ごとに一意に付与される情報に対応付けて、平面座標、属性情報および三次元座標を保持する。なお、ここで(t−1)と表記した理由は、時刻(t−1)において抽出されたコーナー特徴が後述する局所特徴追跡部150における処理対象となるためである。
図9は、実施例2に係る追跡局所特徴リストの一例を示す図である。同図に示すように、追跡局所特徴リスト(t−1)は、番号「1」に対応付けて、平面座標(h t-1,v t-1)、属性情報「コーナー特徴」および三次元座標(x t-1,y t-1,z t-1)を保持する。また、例えば、同図に示すように、追跡局所特徴リスト(t−1)は、番号「2」に対応付けて、平面座標(h t-1,v t-1)、属性情報「コーナー特徴」および三次元座標(x t-1,y t-1,z t-1)を保持する。また、例えば、同図に示すように、追跡局所特徴リスト(t−1)は、番号「3」に対応付けて、平面座標(h t-1,v t-1)、属性情報「コーナー特徴」および三次元座標(x t-1,y t-1,z t-1)を保持する。また、例えば、同図に示すように、追跡局所特徴リスト(t−1)は、番号「m」に対応付けて、平面座標(h t-1,v t-1)、属性情報「コーナー特徴」および三次元座標(x t-1,y t-1,z t-1)を保持する。
局所特徴記憶部140は、局所特徴ステレオ処理部130により格納された追跡局所特徴リスト(t−1)を記憶する(図9参照)。
局所特徴追跡部150は、時間の経過による局所特徴の動きを追跡する。例えば、局所特徴追跡部150は、局所特徴記憶部140から追跡局所特徴リスト(t−1)を読み出すとともに、フレームバッファ110から画像R(t−1)および画像R(t)を読み出す。そして、局所特徴追跡部150は、画像R(t−1)から抽出したコーナー特徴に対応する画素を画像R(t)内から探索することで、コーナー特徴の動きを追跡する。
図10および図11は、実施例2に係る局所特徴の追跡方法を説明するための図である。ここで、図10および図11を用いて、局所特徴追跡部150によるコーナー特徴の追跡方法について説明する。図10は、例えば、カメラR10により時刻(t−1)に撮影された人物の画像R(t−1)を例示する。また、図11は、例えば、カメラR10により時刻(t)に撮影された人物の画像R(t)を例示する。図10および図11は、同一被写体のある人物を時刻(t−1)、時刻(t)にて撮影した連続画像であり、図10には、水平右方向に移動する前の人物が撮影され、図11には、水平右方向に移動した後の人物が撮影されているものとする。
例えば、局所特徴追跡部150は、画像R(t−1)と画像R(t)のテンプレートマッチングを行うことにより、画像R(t−1)内のコーナー特徴に対応する画素を画像R(t)から抽出する。例えば、局所特徴追跡部150は、画像R(t−1)のコーナー特徴に対応する領域をテンプレートとして設定し、このテンプレートを少しずつ移動させつつ画像R(t)の各領域にあてはめて、テンプレートと各領域との照合度をそれぞれ算出する。そして、局所特徴追跡部150は、算出した各照合度と所定の閾値とをそれぞれ比較して、テンプレートとの照合度が所定の閾値を超える画像R(t)内の領域をコーナー特徴に対応する画素として抽出する。そして、局所特徴追跡部150は、画像R(t)から抽出した画素の水平座標(h)と垂直座標(v)を算出する。座標算出後、局所特徴追跡部150は、算出した水平座標(h)および垂直座標(v)を用いて、追跡局所特徴リスト(t−1)内の平面座標を更新することにより追跡局所特徴リスト(t)を生成する。そして、局所特徴追跡部150は、生成した追跡局所特徴リスト(t)を局所特徴ステレオ処理部130に送る。なお、テンプレートとの照合度が所定の閾値を超える領域が存在しない場合には、追跡処理に失敗したものと判定して、該当するコーナー特徴を追跡局所特徴リストから削除する。
図12は、実施例2に係る追跡局所特徴リストの一例を示す図である。なお、同図は、局所特徴追跡部150により更新生成される追跡局所特徴リスト(t)の一例を表す。同図に示すように、追跡局所特徴リスト(t)は、局所特徴ごとに付与された番号「1」に対応付けて、平面座標(h ,v )、属性情報「コーナー特徴」および三次元座標(x t−1,y t−1,z t−1)を保持する。また、例えば、同図に示すように、追跡局所特徴リスト(t)は、番号「2」に対応付けて、平面座標(h ,v )、属性情報「コーナー特徴」および三次元座標(x t−1,y t−1,z t−1)を保持する。また、同図に示すように、追跡局所特徴リスト(t)は、番号「3」に対応付けて、平面座標(h ,v )、属性情報「コーナー特徴」および三次元座標(x t−1,y t−1,z t−1)を保持する。また、例えば、同図に示すように、追跡局所特徴リスト(t)は、番号「m」に対応付けて、平面座標(h ,v )、属性情報「コーナー特徴」および三次元座標(x t−1,y t−1,z t−1)を保持する。
局所特徴追跡部150による追跡局所特徴リスト(t)の生成後、局所特徴ステレオ処理部130は、ステレオ画像から局所特徴の三次元座標を算出する。例えば、局所特徴ステレオ処理部130は、局所特徴追跡部150における追跡に成功したコーナー特徴について、ステレオ画像(t)における三次元座標(x ,y ,z )を算出する。そして、局所特徴ステレオ処理部130は、算出した三次元座標(x ,y ,z )と追跡局所特徴リスト(t)の三次元座標(x t−1,y t−1,z t−1)との差分を算出し、算出結果を三次元運動データ(dx ,dy ,dz )として記憶する。なお、三次元運動データ(dx ,dy ,dz )とは、時刻(t−1)から時刻(t)にかけて局所特徴が移動した三次元座標系における変化量を示す。そして、局所特徴ステレオ処理部130は、記憶した三次元運動データを集計し、集計結果を三次元運動データリストとしてサンプル遷移部170に送る。
図13は、実施例2に係る三次元運動データリストの一例を示す図である。同図に示すように、局所特徴ステレオ処理部130により生成された三次元運動データリストは、局所特徴ごとに付与された番号「1」に対応付けて、三次元運動データ(dx ,dy ,dz )を保持する。また、例えば、同図に示すように、三次元運動データリストは、番号「2」に対応付けて、三次元運動データ(dx ,dy ,dz )を保持する。また、同図に示すように、三次元運動データリストは、番号「3」に対応付けて、三次元運動データ(dx ,dy ,dz )を保持する。また、例えば、同図に示すように、三次元運動データリストは、番号「m」に対応付けて、三次元運動データ(dx ,dy ,dz )を保持する。
また、局所特徴ステレオ処理部130は、ステレオ画像(t)において抽出した全ての局所特徴の三次元座標を集計し、集計した三次元座標から三次元座標データリストを生成する。そして、局所特徴ステレオ処理部130は、生成した三次元座標データリストを尤度計算部180に送る。
図14は、実施例2に係る三次元座標データリストの一例を示す図である。同図に示すように、局所特徴ステレオ処理部130により生成された三次元座標データリストは、局所特徴ごとに付与された番号「1」に対応付けて、属性情報「コーナー特徴」および三次元座標(x 、y 、z )を保持する。また、例えば、同図に示すように、三次元座標データリストは、番号「2」に対応付けて、属性情報「コーナー特徴」および三次元座標(x 、y 、z )を保持する。また、例えば、同図に示すように、三次元座標データリストは、番号「3」に対応付けて、属性情報「線分特徴」および三次元座標(x 、y 、z )を保持する。また、例えば、同図に示すように、三次元座標データリストは、番号「m」に対応付けて、属性情報「線分特徴」および三次元座標(x 、y 、z )を保持する。
サンプル設定部160は、三次元座標系に対してサンプルを設定する。なお、サンプルとは、物体の状態量を推定するために座標上に分散配置される仮説である。例えば、サンプル設定部160は、パーティクルフィルタのアルゴリズムを用いることで、後述する尤度算出部180により時刻(t−1)時点で算出されたサンプルの尤度の大きさに対応する数のサンプルを配置する。そして、サンプル設定部160は、配置した各サンプルに対してサンプル番号i(例えば、「0」〜「N−1」)を付与する。
サンプル遷移部170は、サンプル設定部160により設定されたサンプルを遷移させる。例えば、サンプル遷移部170は、局所特徴ステレオ処理部130から受け付けた三次元運動データリストを利用して三次元運動状態遷移量を決定し、サンプル設定部160により設定された各サンプルを遷移させる。なお、三次元運動状態遷移量とは、各サンプルの近傍にある局所特徴の三次元運動データの平均値を利用する。また、時刻(t)における状態推定量St|t−1 (i)は、時刻(t−1)における状態推定量をSt−1|t−1 (i)、三次元運動状態遷移量をV、ノイズ成分をW (i)とすると、以下に示す式(4)で表される。
Figure 2011090465
尤度算出部180は、サンプル遷移部170により遷移されたサンプルの尤度を算出する。なお、尤度とは、サンプル遷移位置に物体が存在する事後確率である。例えば、尤度算出部180は、局所特徴ステレオ処理部130から受け付けた局所特徴の三次元座標データリストから、サンプル遷移部170により遷移された各サンプルの尤度を算出する。そして、尤度算出部180は、算出された各サンプルの尤度をサンプル設定部160および推定部190に送る。
ここで、図15から図17を用いて、尤度算出部180による尤度の算出方法について説明する。図15および図16は、実施例2に係る尤度の算出方法を説明するための図である。図17は、実施例2に係る尤度の算出方法を説明するための図である。
例えば、尤度算出部180は、図15および図16に示すように、三次元座標系にサンプルと局所特徴を配置し、さらに、特定のサンプルを中心点として中心領域Aおよび周辺領域Bを設定する。なお、図15は、中心領域Aを設定した三次元座標系の正面図を表し、図16は、周辺領域Bを設定した三次元座標系の上面図を表す。また、中心領域Aとは、中心点の座標を(xc、yc、zc)、任意の半径をr1、任意の高さをHとした場合に、以下に示す式(5)および式(7)を満たす円柱形の領域(x、y、z)である。また、周辺領域Bとは、中心点の座標を(xc、yc、zc)、任意の半径をr2、任意の高さをHとした場合に、以下に示す式(6)および式(7)を満たす円筒形の領域(x、y、z)である。
そして、尤度算出部180は、中心領域Aに含まれる局所特徴の数を計測し、計測した局所特徴の数を領域の体積で除算することで計測点密度を算出する。また、尤度算出部180は、中心領域Aと同様に、周辺領域Bについても計測点密度を算出する。そして、尤度算出部180は、中心領域Aの計測点密度から周辺領域Bの計測点密度を減算することで計測点密度差を算出する。尤度算出部180が算出する計測点密度差は、周辺領域Bに対して中心領域Aにどれほどの局所特徴が存在するかを示す情報である。
Figure 2011090465
Figure 2011090465
Figure 2011090465
続いて、尤度算出部180は、図17に示すように、三次元座標系における平面座標上(x、y)において物体が存在する事後確率を算出する。図17には、三次元座標系における平面座標上(x、y)でのサンプル位置を横軸として、各サンプルの計測点密度差を縦軸として示す。そして、尤度算出部180は、例えば、サンプルの計測点密度差から所定のアルゴリズムによって尤度を決定する。なお、所定のアルゴリズムとは、例えば、サンプルの計測点密度差を入力すると計測点密度差の値に対応する特定の値を尤度として出力するプログラムである。
推定部190は、尤度算出部180により算出された尤度から物体の三次元位置を推定する。例えば、推定部190は、尤度算出部180から受け付けた各サンプルの尤度からパーティクルフィルタのアルゴリズムを用いて重みを算出する。なお、重みπ (i)は、尤度をP3dとすると以下に示す式(8)で表される。また、例えば、推定部190は、各サンプルの重みからパーティクルフィルタのアルゴリズムを用いて重みつき平均を算出することで物体の三次元位置を推定する。なお、推定量ε(x)は、重みをπ (i)、状態推定量をSt|t−1 (i)とすると以下に示す式(9)で表される。
Figure 2011090465
Figure 2011090465
[物体位置推定装置による処理]
図18は、実施例2に係る物体位置推定装置における処理の流れを示す図である。同図に示すように、フレームバッファ110にステレオ画像(t)が受け付けられると(ステップS101肯定)、局所特徴抽出部120は、ステレオ画像(t)から局所特徴を抽出する(ステップS102)。そして、局所特徴抽出部120は、抽出した局所特徴のリストとして新規局所特徴リストを生成し、生成した新規局所特徴リストを局所特徴ステレオ処理部130に送る。
局所特徴追跡部150は、局所特徴抽出部120により抽出されたコーナー特徴の動きを追跡する(ステップS103)。そして、局所特徴追跡部150は、追跡した局所特徴のリストとして追跡局所特徴リスト(t)を生成し、生成した追跡局所特徴リスト(t)を局所特徴ステレオ処理部130に送る。
局所特徴ステレオ処理部130は、フレームバッファ110に保持されたステレオ画像(t)を用いてステレオ計測を行う(ステップS104)。すなわち、局所特徴ステレオ処理部130は、ステレオ計測により、フレームバッファ110に保持されたステレオ画像(t)から局所特徴の三次元座標を算出する。さらに、局所特徴ステレオ処理部130は、追跡に成功したコーナー特徴の三次元座標と追跡局所特徴リスト(t)の三次元座標との差分から三次元運動データを算出する。そして、局所特徴ステレオ処理部130は、ステレオ計測により算出した三次元座標から三次元座標データリストを生成し、生成した三次元座標データリストを尤度計算部180に送る。さらに、局所特徴ステレオ処理部130は、ステレオ計測により算出した三次元運動データのリストとして三次元運動データリストを生成し、生成した三次元運動データリストをサンプル遷移部170に送る。
サンプル設定部160は、パーティクルフィルタのアルゴリズムを用いて、尤度算出部180により時刻(t−1)時点で算出されたサンプルの尤度の大きさに対応する数のサンプルを配置する(ステップS105)。そして、サンプル設定部160は、配置した各サンプルに対してサンプル番号i(例えば、「0」〜「N−1」)を付与する。サンプル設定部160は、パーティクルフィルタの処理をサンプル番号が小さい順に処理を行う目的で、処理番号「i=0」を設定する(ステップS106)。
サンプル遷移部170は、局所特徴ステレオ処理部130から受け付けた三次元運動データリストを利用して、三次元運動状態遷移量、すなわち、サンプル遷移モデルを決定する(ステップS107)。そして、サンプル遷移部170は、サンプル設定部160において設定したサンプル番号「i=0」のサンプルを遷移させる(ステップS108)。
尤度算出部180は、局所特徴ステレオ処理部130から受け付けた三次元座標データリストを利用してサンプル番号「i」の尤度を算出する(ステップS109)。そして、尤度算出部180は、算出したサンプル番号「i=0」の尤度をサンプル設定部160および推定部190に送る。
続いて、尤度算出部180は、サンプル番号「i=0」のサンプルの次のサンプルについてパーティクルフィルタの処理を行う。すなわち、尤度算出部180は、パーティクルフィルタの次の処理対象サンプルとしてサンプル番号「i=i+1」を設定した後(ステップS110)、設定したサンプル番号「i=i+1」が条件「サンプル番号i<N」を満たすか否かを判定する(ステップS111)。
尤度算出部180は、判定の結果、設定したサンプル番号「i=i+1」が条件「サンプル番号i<N」を満たす場合には(ステップS111肯定)、ステップS107に戻り、上述したステップS107〜ステップS110までの処理を行う。
一方、尤度算出部180による判定の結果、設定したサンプル番号「i=i+1」が条件「サンプル番号i<N」を満たさない場合には(ステップS111否定)、推定部190は次の処理を実行する。すなわち、推定部190は、算出したサンプル番号i(例えば、「0」〜「N−1」)の全てのサンプルの尤度からパーティクルフィルタのアルゴリズムを用いて物体の三次元位置を推定する(ステップS112)。ステップS112の処理を完了すると、物体位置推定装置100は、上述したステップS101に戻り、次のステレオ画像を取得次第、上述したステップS101〜ステップS112の処理を実行する。
なお、実施例2に係る物体位置推定装置100における処理では、ステップS102の処理を行った後にステップS103の処理を行ったが、必ずしもこの順序で行われることを要しない。つまり、実施例2に係る物体位置推定装置100における処理においては、ステップS103の処理を行った後にステップS102の処理行っても良い。
[実施例2による効果]
上述してきたように、実施例2によれば、物体位置推定装置100は、ステレオ画像(t)から抽出した局所特徴について三次元座標データリストを生成する。そして、物体位置推定装置100は、生成した三次元座標データリストを利用して尤度を算出し、算出した尤度から物体の三次元位置を推定する。したがって、実施例2に係る物体位置推定装置は、局所特徴についてのみ三次元処理を行うことで三次元処理を行うデータ量を減少させることができる。また、物体位置推定装置100は、連続画像から局所特徴の動きを追跡し、追跡結果から三次元運動データリストを生成する。そして、物体位置推定装置100は、生成した三次元運動データリストを利用して三次元運動状態遷移量を決定する。したがって、物体位置推定装置100は、決定した三次元運動状態遷移量を利用することでサンプルの遷移範囲を限定できるので、離散させるサンプルの総数を減少させることができる。このようなことから、実施例2に係る物体位置推定装置100は、離散させるサンプルの総数を減少させることができるので、少ない計算量で物体の三次元位置を推定できる。
なお、上述した物体位置推定装置100は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路、パーソナルコンピュータやワークステーションなどのコンピュータシステムである。例えば、物体位置推定装置100は、ロボットに搭載することで個人に対して適切な情報を提供するなどの対人サービスが可能となる。また、物体位置推定装置100は、例えば、自動車に搭載することで安全な運転の支援が可能となる。
また、フレームバッファ110および局所特徴記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、ハードディスクや光ディスクなどの記憶装置である。また、局所特徴抽出部120、局所特徴ステレオ処理部130および局所特徴追跡部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路である。また、サンプル設定部160、サンプル遷移部170、尤度算出部180および推定部190は、CPUやMPUなどの電子回路である。
以下、本願の開示する物体位置推定装置および物体位置推定プログラムの他の実施形態を説明する。
(1)ステレオ画像による処理
上述した実施例2において、「画像R」と表記した部分は、「画像L」と置き換えてもよい。例えば、局所特徴抽出部120は、フレームバッファ110に保持した画像L(t)を読み出して画像L(t)から局所特徴を抽出するようにしてもよい。つまり、これらの表記は「画像R」や「画像L」に限定する趣旨ではなく、ステレオ画像のうちの一方の画像を必要とする趣旨である。
(2)局所特徴抽出部における抽出処理
上述した実施例2において、局所特徴抽出部120は、図5に示すように、分散行列から算出した固有値λmaxおよびλminが所定の条件(閾値)を満たすか否かによって局所特徴を抽出したが、さらに局所特徴を選別するための条件を加えてもよい。例えば、局所特徴抽出部120は、所定の領域内(例えば、16×16画素)に含まれる画素の中で固有値と閾値との乖離度が最も高い画素を局所特徴として抽出する。ある画像上の特徴(物体の輪郭を示すコーナーなど)から複数の局所特徴が抽出されることを防止する趣旨である。
(3)局所特徴追跡部における追跡処理
上述した実施例2において、局所特徴追跡部150は、時間の経過によるコーナー特徴の動きを追跡したが、局所特徴追跡部150が追跡する局所特徴はコーナー特徴に限らない。例えば、局所特徴追跡部150は、線分特徴を追跡することも可能である。
また、局所特徴追跡部150は、画像R(t−1)と画像R(t)とを含む連続画像を用いて局所特徴の追跡処理を行ったが、局所特徴追跡部150の処理対象は連続画像に限らない。例えば、局所特徴追跡部150は、時刻(t−2)において撮像された画像R(t−2)および画像R(t)を用いて局所特徴の追跡処理を行うことができる。すなわち、局所特徴追跡部150は、異なる時刻に撮像された2枚の画像があれば追跡処理を行えるという趣旨である。
(4)物体の三次元位置推定処理
上述した実施例2において、サンプル遷移部170は、三次元運動データの平均値を算出することで三次元運動状態遷移量を決定したが、三次元運動状態遷移量の決定方法はこの方法に限定しない。例えば、サンプル遷移部170は、三次元運動データのヒストグラムが最大となる運動量を算出することで三次元運動状態遷移量を決定してもよい。あるいは、サンプル遷移部170は、三次元運動データをランダムに選択することで三次元運動状態遷移量を決定してもよい。すなわち、三次元運動データリストを利用して三次元運動状態遷移量を決定する趣旨である。
また、サンプル遷移部170は、従来のパーティクルフィルタのアルゴリズムを用いて、サンプル設定部160において設定したサンプルを遷移させてもよい。例えば、サンプル遷移部170は、等速直線運動モデルや等加速度直線運動モデルを用いてサンプルを遷移させることができる。
また、尤度算出部180は、局所特徴ステレオ処理部130から受け付けた局所特徴の三次元座標データリストを用いることで各サンプルの尤度を算出したが、必ずしも全ての局所特徴の三次元座標データリストを用いることを要しない。例えば、尤度算出部180は、コーナー特徴あるいは線分特徴のいずれか一方の三次元座標データリストを用いることでサンプルの尤度を算出することができる。
また、尤度算出部180は、局所特徴ステレオ処理部130から受け付けた三次元座標データリストを用いることで各サンプルの尤度を算出したが、必ずしも三次元座標データリストを用いることを要しない。つまり、尤度算出部180は、従来のパーティクルフィルタのアルゴリズムを用いることでサンプルの尤度を算出することができる。例えば、尤度算出部180は、画像R(t−1)と画像R(t)の背景差分を用いることで物体の存在を推定し、サンプルの尤度を算出することができる。
また、尤度算出部180は、円柱形の中心領域Aを設定することで各サンプルの尤度を算出したが、中心領域Aの形状は円柱形に限定しない。例えば、尤度算出部180は、自動車の三次元位置を推定する場合には、直方体の中心領域Aを設定することでサンプルの尤度を算出することができる。すなわち、中心領域の形状は追跡対象の形状に合わせて適宜変更することができるという趣旨である。また、中心領域Aの形状と同様に、周辺領域Bの形状も変更することができる。
(5)装置構成等
例えば、図2に示した物体位置推定装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、物体位置推定装置100の分散・統合の具体的形態は図示のものに限られず、例えば、局所特徴記憶部140、局所特徴追跡部150の各機能を集約して統合する。このように、物体位置推定装置100の全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(6)物体位置推定プログラム
また、上記の実施例で説明した物体位置推定装置100の各種の処理(例えば、図19参照)は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、図19を用いて、上記の実施例で説明した物体位置推定装置と同様の機能を有する物体位置推定プログラムを実行するコンピュータの一例を説明する。図19は、物体位置推定プログラムを実行するコンピュータを示す図である。
同図に示すように、物体位置推定装置としてコンピュータ200は、通信制御部210、HDD220、RAM230およびCPU240をバス300で接続して構成される。
ここで、通信制御部210は、各種情報のやり取りに関する通信を制御する。HDD220は、CPU240による各種処理の実行に必要な情報を記憶する。RAM230は、各種情報を一時的に記憶する。CPU240は、各種演算処理を実行する。
そして、HDD220には、図19に示すように、上記の実施例で説明した物体位置推定装置100の各処理部と同様の機能を発揮する物体位置推定プログラム221と、物体位置推定用データ222とがあらかじめ記憶されている。なお、この物体位置推定プログラム221を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。
そして、CPU240が、この物体位置推定プログラム221をHDD220から読み出してRAM230に展開することにより、図13に示すように、物体位置推定プログラム221は物体位置推定プロセス231として機能するようになる。
すなわち、物体位置推定プロセス231は、物体位置推定用データ222等をHDD220から読み出して、RAM230において自身に割り当てられた領域に展開し、この展開したデータ等に基づいて各種処理を実行する。
なお、物体位置推定プロセス231は、例えば、図2に示した物体位置推定装置100の局所特徴抽出部120、局所特徴ステレオ処理部130、局所特徴追跡部150、サンプル遷移部170、尤度算出部180および推定部190において実行される処理に対応する。
なお、上記した物体位置推定プログラム221については、必ずしも最初からHDD220に記憶させておく必要はない。
例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラムを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ200に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラムを読み出して実行するようにしてもよい。
1 物体位置推定装置
2 局所特徴抽出部
3 三次元座標算出部
4 サンプル設定部
5 サンプル遷移部
6 尤度算出部
7 推定部
10 カメラR
20 カメラL
100 物体位置推定装置
110 フレームバッファ
120 局所特徴抽出部
130 局所特徴ステレオ処理部
140 局所特徴記憶部
150 局所特徴追跡部
160 サンプル設定部
170 サンプル遷移部
180 尤度算出部
190 推定部
200 コンピュータ
210 通信制御部
220 HDD
221 物体位置推定プログラム
222 物体位置推定用データ
230 RAM
231 物体位置推定プロセス
240 CPU
300 バス

Claims (3)

  1. 撮像装置により撮像されたステレオ画像から、所定の領域の中で特徴のある画素を局所特徴として抽出する局所特徴抽出部と、
    前記ステレオ画像から局所特徴の三次元座標を算出する三次元座標算出部と、
    三次元座標系に対して物体の状態量を推定するために分散配置されるサンプルを設定するサンプル設定部と、
    所定のアルゴリズムに基づいてサンプルを遷移させるサンプル遷移部と、
    前記サンプル遷移部により遷移させたサンプルについて、前記三次元座標算出部により算出された局所特徴の三次元座標から物体の存在確率を示す尤度を算出する尤度算出部と、
    前記尤度算出部により算出された尤度から物体の三次元位置を推定する推定部と
    を有することを特徴とする物体位置推定装置。
  2. 前記物体位置推定装置は、
    前記三次元座標算出部により算出された三次元座標と算出済みの三次元座標から、前記三次元座標系における局所特徴の状態変化量を三次元運動データとして算出する三次元運動データ算出部を有し、
    前記サンプル遷移部は、さらに、前記三次元運動データ算出部により算出された三次元運動データを用いてサンプルを遷移させることを特徴とする請求項1に記載の物体位置推定装置。
  3. コンピュータを、物体位置推定装置として機能させ、
    前記コンピュータに、
    撮像装置により撮像されたステレオ画像から、所定の領域の中で特徴のある画素を局所特徴として抽出する局所特徴抽出手順と、
    前記ステレオ画像から局所特徴の三次元座標を算出する三次元座標算出手順と、
    三次元座標系に対して物体の状態量を推定するために分散配置されるサンプルを設定するサンプル設定手順と、
    所定のアルゴリズムに基づいてサンプルを遷移させるサンプル遷移手順と、
    前記サンプル遷移手順により遷移させたサンプルについて、前記三次元座標算出部により算出された局所特徴の三次元座標から物体の存在確率を示す尤度を算出する尤度算出手順と、
    前記尤度算出手順により算出された尤度から物体の三次元位置を推定する推定手順と
    を実行させることを特徴とする物体位置推定プログラム。
JP2009242759A 2009-10-21 2009-10-21 物体位置推定装置および物体位置推定プログラム Pending JP2011090465A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009242759A JP2011090465A (ja) 2009-10-21 2009-10-21 物体位置推定装置および物体位置推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009242759A JP2011090465A (ja) 2009-10-21 2009-10-21 物体位置推定装置および物体位置推定プログラム

Publications (1)

Publication Number Publication Date
JP2011090465A true JP2011090465A (ja) 2011-05-06

Family

ID=44108671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009242759A Pending JP2011090465A (ja) 2009-10-21 2009-10-21 物体位置推定装置および物体位置推定プログラム

Country Status (1)

Country Link
JP (1) JP2011090465A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105343A (ja) * 2011-11-14 2013-05-30 Toshiba Corp 画像処理装置、方法、及び画像表示装置
WO2015025955A1 (ja) * 2013-08-23 2015-02-26 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
WO2017051480A1 (ja) * 2015-09-25 2017-03-30 株式会社日立情報通信エンジニアリング 画像処理装置及び画像処理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140290A (ja) * 2006-12-05 2008-06-19 Suzuki Motor Corp 頭部の位置・姿勢検出装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140290A (ja) * 2006-12-05 2008-06-19 Suzuki Motor Corp 頭部の位置・姿勢検出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
久保田 整、武士 正美、斎藤 英雄: ""鼻孔のテンプレート探索とパーティクルフィルタによるドライバの頭部姿勢追跡"", 電気学会論文誌C, vol. 128, no. 9, JPN6013022918, 1 September 2008 (2008-09-01), JP, pages 1447 - 1454, ISSN: 0002530179 *
岡 兼司、外3名: ""適応的拡散制御を伴うパーティクルフィルタを用いた頭部姿勢推定システム"", 電子情報通信学会論文誌, vol. 88, no. 8, JPN6013022920, 1 August 2005 (2005-08-01), JP, pages 1601 - 1613, ISSN: 0002530180 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105343A (ja) * 2011-11-14 2013-05-30 Toshiba Corp 画像処理装置、方法、及び画像表示装置
US9042637B2 (en) 2011-11-14 2015-05-26 Kabushiki Kaisha Toshiba Image processing device, method of processing image, and image display apparatus
WO2015025955A1 (ja) * 2013-08-23 2015-02-26 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US10304187B2 (en) 2013-08-23 2019-05-28 Toshiba Medical Systems Corporation Image processing apparatus and method, computer program product, and stereoscopic image display apparatus
WO2017051480A1 (ja) * 2015-09-25 2017-03-30 株式会社日立情報通信エンジニアリング 画像処理装置及び画像処理方法
JPWO2017051480A1 (ja) * 2015-09-25 2017-09-21 株式会社日立情報通信エンジニアリング 画像処理装置及び画像処理方法
CN108027974A (zh) * 2015-09-25 2018-05-11 株式会社日立信息通信工程 图像处理装置以及图像处理方法
US10194059B2 (en) 2015-09-25 2019-01-29 Hitach Information & Telecommunication Engineering, Ltd. Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US10762643B2 (en) Method for evaluating image data of a vehicle camera
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
US9311524B2 (en) Image processing apparatus and image processing method
US8599252B2 (en) Moving object detection apparatus and moving object detection method
JP6897335B2 (ja) 学習プログラム、学習方法および物体検知装置
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
KR20180087994A (ko) 스테레오 매칭 방법 및 영상 처리 장치
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN108027877A (zh) 用于非障碍区检测的系统和方法
JP6328327B2 (ja) 画像処理装置及び画像処理方法
KR101380628B1 (ko) 복수의 카메라를 사용한 객체 추적 방법 및 장치
WO2013012091A1 (ja) 情報処理装置、物体追跡方法およびプログラム記憶媒体
JP2012059030A (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
JP4951490B2 (ja) 動物体追跡装置、動物体追跡方法及び動物体追跡プログラム並びに動物体追跡プログラムを記録した記録媒体
JP2017058274A (ja) 計測装置、方法及びプログラム
Wong et al. A smart moving vehicle detection system using motion vectors and generic line features
JP2011090465A (ja) 物体位置推定装置および物体位置推定プログラム
US20190019031A1 (en) System and method for detecting dynamic object
KR101825218B1 (ko) 깊이 정보 생성 장치 및 방법
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6163732B2 (ja) 画像処理装置、プログラム、及び方法
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP4675368B2 (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140114