JP5228148B2 - 画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム - Google Patents

画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム Download PDF

Info

Publication number
JP5228148B2
JP5228148B2 JP2008186268A JP2008186268A JP5228148B2 JP 5228148 B2 JP5228148 B2 JP 5228148B2 JP 2008186268 A JP2008186268 A JP 2008186268A JP 2008186268 A JP2008186268 A JP 2008186268A JP 5228148 B2 JP5228148 B2 JP 5228148B2
Authority
JP
Japan
Prior art keywords
image
data
model database
image feature
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008186268A
Other languages
English (en)
Other versions
JP2010026713A (ja
Inventor
純 三浦
耕資郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyohashi University of Technology NUC
Original Assignee
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyohashi University of Technology NUC filed Critical Toyohashi University of Technology NUC
Priority to JP2008186268A priority Critical patent/JP5228148B2/ja
Publication of JP2010026713A publication Critical patent/JP2010026713A/ja
Application granted granted Critical
Publication of JP5228148B2 publication Critical patent/JP5228148B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラムに関する。
ロボットや自動車などの移動体が屋外環境を走行する際に、自分の位置を知る必要がある。従来、Global positioning system (以下、GPSと記す)を用いた位置推定が頻繁に用いられていた。しかし、高い建物の近くなどでは衛星の隠蔽やマルチパスの現象により、信頼できる位置推定が常に得られるとは限らない。そこで、場所固有の画像を元に位置を推定する技術が必要とされている。そのような技術において、物体認識や画像比較にScale invariant feature transform (以下、SIFTと記す)などの局所画像特徴を用いる場合が多い。SIFTとは画像中の特徴点を検出し、特徴点ごとに周辺のエッジ勾配を求めるものである。画像の回転・スケール変化・照明変化等に頑健であり、これを用いた画像比較による位置推定が提案されている(非特許文献1、2、および3を参照)。
M.Cummins,P.Newman,"Probabilistic Appearance Based Navigation and Loop Closing",Proc. ICRA,pp.2042−2048,2007. Chanop Silpa−Anan,Richard Hartley,"Visual localization and loop−back detection with a high resolution omnidirectional camera",In Proc. Of OmniVis−05,Workshop in conjunction with ICCV−2005,2005. D.G. Lowe, "Distinctive Image Features from Scale−Invariant Keypoints, Int. J. Computer Vision, Vol. 60, No. 2, pp. 91−110, 2004.
しかしながら、前記非特許文献1および2に関する技術においては、画像比較に異なる天候や異なる季節で取得した画像を用いた場合、対応数は減少し、位置推定に失敗するという問題点があった。
本発明は上記課題を解決するためになされたものであり、場所を特定するために有効な特徴となる物体(木や電線など)を認識することにより、異なる天候や異なる季節においても場所を同定し、その際、確率的位置推定を用いることで、位置の特定を効率的に行う画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラムを提供することを目的とする。
本発明の第一態様の画像データより位置を推定する位置推定方法では、入力された画像データから当該画像データに写されている物体の位置を特定するために、前記画像データから物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出する画像特徴抽出ステップと、前記画像特徴抽出ステップにより抽出された画像特徴量のいずれか1つまたは複数の組み合わせを基に、予め作成されている物体の識別データからなる物体モデルデータベースを用いて物体を識別する物体識別ステップと、前記物体識別ステップにより識別された物体を、予め作成されている物体の位置のデータからなる位置モデルデータベースと、出力にシグモイド関数を適用したマルコフ過程とベイズ定理を利用する確率モデルにより求められる尤度を用いる場所の分布の予測と推定の2段階から成る位置認識とを用いて正答となる当該物体の位置を特定する位置識別ステップとを備えたことを特徴とする
また、前記物体モデルデータベースを作成するために、入力された画像データから前記画像特徴抽出ステップにより物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出し、物体モデルデータベースに保存する物体モデル学習ステップと、前記位置モデルデータベースを作成するために、物体と当該物体の位置のデータとを対応させて前記位置モデルデータベースに保存する位置モデル学習ステップとを備えても良い。
入力された画像データから当該画像データに写されている物体の位置を特定するために、前記画像データから物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出する画像特徴抽出手段と、前記画像特徴抽出手段により抽出された画像特徴量のいずれか1つまたは複数の組み合わせを基に、予め作成されている物体の識別データからなる物体モデルデータベースを用いて物体を識別する物体識別手段と、前記物体識別手段により識別された物体を、予め作成されている物体の位置のデータからなる位置モデルデータベースと、出力にシグモイド関数を適用したマルコフ過程とベイズ定理を利用する確率モデルにより求められる尤度を用いる場所の分布の予測と推定の2段階から成る位置認識とを用いて正答となる当該物体の位置を特定する位置識別手段とを備えたことを特徴とする
また、前記物体モデルデータベースを作成するために、入力された画像データから前記画像特徴抽出手段により物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出し、物体モデルデータベースに保存する物体モデル学習手段と、前記位置モデルデータベースを作成するために、物体と当該物体の位置のデータとを対応させて前記位置モデルデータベースに保存する位置モデル学習手段とを備えても良い。
本発明の第三態様の位置推定プログラムでは、コンピュータに入力された画像データから当該画像データに写されている物体の位置を特定するために、前記画像データから物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出する画像特徴抽出ステップと、前記画像特徴抽出ステップにより抽出された画像特徴量のいずれか1つまたは複数の組み合わせを基に、予め作成されている物体の識別データからなる物体モデルデータベースを用いて物体を識別する物体識別ステップと、前記物体識別ステップにより識別された物体を、予め作成されている物体の位置のデータからなる位置モデルデータベースと、出力にシグモイド関数を適用したマルコフ過程とベイズ定理を利用する確率モデルにより求められる尤度を用いる場所の分布の予測と推定の2段階から成る位置認識とを用いて正答となる当該物体の位置を特定する位置識別ステップとを実行させることを特徴とする
また、コンピュータに前記物体モデルデータベースを作成するために、入力された画像データから前記画像特徴抽出ステップにより物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出し、物体モデルデータベースに保存する物体モデル学習ステップと、前記位置モデルデータベースを作成するために、物体と当該物体の位置のデータとを対応させて前記位置モデルデータベースに保存する位置モデル学習ステップとを実行させるようにしても良い。
本発明では、場所を特定するために有効な特徴となる木や電線などの物体を認識することにより、従来技術では困難であった、異なる天候や異なる季節においても場所を同定できる。その際、確率的位置推定を用いることで、位置推定を従来技術よりも効率的に行うとともに信頼性を向上させることができる。
本発明の一実施の形態の位置推定方法からなる位置推定プログラムを実行する位置推定装置10としてのコンピュータ20について説明する。まず、コンピュータ20の電気的構成について説明する。図1は、コンピュータ20のブロック図である。図1に示すように、コンピュータ20には、コンピュータ20の制御を司るコントローラとしてのCPU11が設けられ、該CPU11には、各種データを一時的に記憶するRAM12と、BIOS等を記憶したROM13と、データの受け渡しの仲介を行うI/Oインタフェイス23とが接続されている。I/Oインタフェイス23には、ハードディスク装置120が接続され、当該ハードディスク装置120には、物体モデルデータ記憶エリア121と、位置モデルデータベース記憶エリア122と、プログラム記憶エリア123と、移動履歴記憶エリア124とが少なくとも設けられている。
プログラム記憶エリア123には、位置推定プログラム等が記憶されている。また、物体モデルデータ記憶エリア121には、入力された画像データから後述する画像特徴抽出処理により物体の画像特徴量を抽出した複数の物体の画像特徴量からなる物体モデルデータベースが記憶されている。また、位置モデルデータベース記憶エリア122には、後述する位置モデル学習処理により作成され、物体と当該物体の位置のデータとを対応させて記憶させた位置モデルデータベースが記憶されている。また、移動履歴記憶エリア124には、移動履歴が記憶されている。なお、コンピュータ20がハードディスク装置120を備えていない専用機の場合は、ROM13に上記プログラムやデータベース等が記憶される。
また、I/Oインタフェイス23には、外部装置と有線、無線又は赤外線でネットワークを介して通信するための通信装置装置19と、マウス21と、ビデオコントローラ16と、キーコントローラ17と、CD−ROMドライブ18と、USB(登録商標)コントローラ41が接続されている。ビデオコントローラ16にはディスプレイ24が接続され、キーコントローラ17にはキーボード22が接続されている。なお、CD−ROMドライブ18に挿入されるCD−ROM114には、位置推定プログラム等が記憶され、導入時には、この位置推定プログラムが、CD−ROM114からハードディスク装置120にセットアップされてプログラム記憶エリア123に記憶される。また、USB(登録商標)コントローラ41には、デジタルカメラ42が接続可能となっている。さらに、USB(登録商標)コントローラ41には、図示外のカードリーダ等も接続できる。従って、本発明に使用する画像データ(動画及び静止画)は、USB(登録商標)コントローラ41を介して、取り込むことができる。
次に、図2を参照して、本発明の概要について説明する。図2は、位置推定装置10の概念図である。図2に示すように、本発明の一実施の形態である位置推定装置10は、画像特徴抽出部1、物体モデル学習部2、物体モデルデータベース6、物体認識部3、位置モデル学習部4、位置モデルデータベース7、位置推定部5から構成される。尚、これらは、上記コンピュータ20が位置推定プログラムを実行することにより実現される。さらに、位置推定部5は、物体識別の結果と位置モデルデータベースを用いて位置を特定する位置識別部と、移動履歴の確率分布として、マルコフ過程とベイズ定理を利用し位置の存在確率より正答となる位置を求める広域的位置識別部から構成される。
次に、図3乃至図5を参照して、物体モデル学習処理、位置モデル学習処理、位置推定処理について説明する。図3は、物体モデル学習処理のフローチャートであり、図4は、位置モデル学習処理のフローチャートであり、図5は、位置推定処理のフローチャートである。物体モデル学習時には、まず、手動により物体の集合に対して、正例と負例の選別を行う(S11)。ここで、正例とは、集合に適合したモデルをいう。一方、負例とは、集合に不適合なモデルをいう。屋外で撮影した多数のカラー画像について、移動物体がほとんど存在しない、画像の上半部を取り出し、さらにその場所を固定の大きさの小領域(ウィンドウと呼ぶ)に分割する。ウィンドウの中から認識の対象となる物体のみが写っているものを取り出し、その物体の正例とする。それ以外の物体のみが移っているウィンドウを負例とする。例えば、画像を見ながら、マウス21でクリックして、葉がある木、葉のない木、空、建物強い直線、電線等を選択する(S11)。次いで、各画像の特徴の抽出を画像特徴抽出部1を用いて行う(S12)。そして、抽出された画像の特徴を葉がある木、葉のない木、空、建物の強い直線、電線に対応付けて物体モデルデータベース6に記憶する物体モデルの学習を行う(S13)。
次に、図4を参照して位置モデルの学習処理について説明する。まず、位置モデルの学習処理では、物体モデル学習の結果を用いて、自動的に集合の選別を行いう(S21)。次に、画像特徴抽出部1で画像特徴の抽出を行う(S22)。次いで、物体認識部3で、画像特徴と画像モデルデータベースから物体の認識を行う(S23)。次いで、認識された物体について、位置モデル学習部4で位置モデルを学習する(S24)。前記学習過程では、学習処理には、物体モデルおよび位置モデルデータベースへの保存が含まれている。
次に、図5を参照して、位置推定処理について説明する。まず、位置推定時には、位置推定処理を行う。この位置推定処理では、まず、現在の位置の範囲が分かっている場合には、その範囲内に含まれる位置に対し、1を含まれる位置の数で割った値を初期確率として与え、それ以外の位置には確率0を与える。また、現在の位置の範囲が分からないときには、すべての位置に対し当確率となるような初期分布を与える初期位置分布の設定を行う(S31)。次に、カメラで撮影した画像を入力し(S32)、入力された画像に対して、画像特徴抽出部1により入力画像の特徴を抽出する(S33)。次に、物体認識部3により画像の特徴量と物体モデルデータベースから物体を認識する(S34)。つぎに、物体認識の結果と位置モデルデータベースから位置推定部5により位置の推定を行う(S35)。このとき、確率的位置推定によって効率的に位置の推定を行う。次いで、位置推定処理を続けて行うときは(S36:NO)、S32に戻り、次の画像を入力し(S32)、S33〜S35の処理を行う。そして、次の画像が無く、位置推定処理を続けて行わず終了のときは(S36:YES)、処理を終了する。
次に物体認識および位置推定のための識別器の構成方法、確率的位置推定方法について述べる。
[物体認識のための識別器]
取得した画像を小ウィンドウに分割し、小ウィンドウごとに物体を決定する。たとえば、横320ピクセル×縦240ピクセルの画像の場合、上半部の320×120ピクセルの領域を取り出し、16×16ピクセルのウィンドウ160個に分割する。図6に物体認識のための識別器の構成方法を示す。この識別器はSupport Vector machine(以下「SVM」とも言う。)により各識別器を各々構成している。例えば、図6に示すように、木識別器31、一様領域識別器32、建物識別器33、電線識別器(図示外)等を構成している。尚、学習時には、小領域ごとに、いくつかの画像特徴を抽出した結果をSVM学習アルゴリズム30に入力して、学習結果を物体モデルデータベースに記憶する。ここで、さまざまな場所・季節・天候での木のサンプルを正とすると、木以外のサンプルが負とされる。尚、認識時には、例えば、小領域ごとに、いくつかの画像特徴を抽出した結果を木識別器31に入力すると木であるか木でないかが出力される。ここで、認識する物体の種類と、それぞれの物体に見られる特徴を以下に示す。
(1)葉のある木:葉のエッジが多く観測され、葉の色は季節により変化する。
(2)葉の落ちた木:枝のみが観測され、枝のエッジは様々な方向に向いている。
(3)建物:直線性のあるエッジが観測される。道路上の看板や境界もこのクラスとする。
(4)一様領域:建物の壁や空などエッジがほとんど存在しないクラスである。
(5)電線:強い直線性のあるエッジが観測され、領域内の輝度がほぼ一定のものである。
葉のある木または葉の落ちた木については、どちらかが認識されればそこに木が存在すると考える。これら5つの物体を認識するために、次に述べる画像特徴を用いた。
(r,g,b):正規化した色を示す。r=R/(R+G+B)、g=G/(R+G+B)、b=B/(R+G+B)として、それぞれ求める。正規化した色は0〜1の値を持つ。
edge density:エッジ密度を表す。小ウィンドウ内のエッジ数を小ウィンドウの面積で割り求める。エッジ数は、以下の式で定義されるソーベルオペレータにより計算した画像の勾配∇Iの値がしきい値以上のピクセルの数として計算する。
Figure 0005228148
Figure 0005228148
Figure 0005228148
I(i,j)はピクセル、(i,j)の濃淡値であり、RGBの値から次式で求める。
Figure 0005228148
edge densityは0〜1の値を持つ。
hough:各小ウィンドウの濃淡値に対してハフ変換を適用したときのハフ空間における投票の最大値を表す。ハフ変換では直線を以下の式で表す。θは直線とx軸のなす角度、ρは直線と原点との距離である。
Figure 0005228148
各エッジについて、その座標(i,j)を上式に代入してθとρの関係式が得られ、離散化したθとρの空間(ハフ空間)に対し、関係式を満たすθとρの組み合わせを投票する。この処理をウィンドウ内のすべてのエッジについて行い、fhoughを計算する。fhoughの値を300で割ることにより正規化し、特徴量とする。強い直線のエッジを持つ物体の認識に有効である。fhoughは0〜1の値を持つ。
edge distrib:エッジ方向の分散の度合いを示す。循環統計に基づき以下の式で求める。
Figure 0005228148
Figure 0005228148
Figure 0005228148
ここで、nはエッジの数、φi は i 番目のエッジの方向、ai はその強さである。様々な方向のエッジを持つ物体の認識に有効である。fedge distribは0〜1の値を持つ。
brightness distrib:輝度の分散の度合いを示す。小ウィンドウの濃淡値の分散を求め、5000という値で割り求める。
表1に認識物体と使用画像特徴を示す。これら画像特徴を用いて、Support vector machine(SVM)により識別器をそれぞれ構成する。SVMは学習データ集合 (x1, y1), (x2, y2), ..., (xN, yN) (xi は実数ベクトル、yi は-1 か +1、-1を持つデータは負例、+1を持つデータは正例)から、正例と負例を識別する、以下のような識別面
Figure 0005228148
を学習するアルゴリズムであり、ラグランジェ乗数 ai (≧ 0) を導入し、以下の目的関数を最小化することにより、パラメータ w, h を求める。この問題は
Figure 0005228148
を以下の制約の下で最大化することにより、求められる。
Figure 0005228148
識別面が非線形の場合には、上記の LD の代わりに、カーネル関数 K(xi, xj) を用いた次式を用いる
Figure 0005228148
物体認識のための識別器においては、以下のカーネル関数を用いる。
Figure 0005228148
以上の最大化処理を行うと、αi > 0 となる学習データ xi の集合が得られる。これをサポートベクトルという。図20は一様領域の学習結果の例である。サポートベクトルの添え字の集合を S とおくと、最適パラメータは以下のように求められる。
Figure 0005228148
ある特徴ベクトル x の識別は以下の式で行う。
Figure 0005228148
出力 y が正なら、学習したクラスに属するとし、負なら属さないと判定する。
Figure 0005228148
上記の表1では、チェックのされている欄のobjectが使用される。尚、「sky」は「空」、「building side walls」は「建物の壁」、「trees with leaves」は「木(葉有り)」、「trees without leaves」は「木(葉無し)」、「building windows and boundaries」は「建物窓、及び、境界線(建物の強い直線)」、「electric cable」は「電線」である。
識別器(SVM)を用いて物体認識を行う場合は、画像を小ウィンドウに分割し、識別器に並列に入力する。この際それぞれの識別器に応じて、その識別器を構成した際の特徴の組を小ウィンドウから計算し入力とする。入力した小ウィンドウの各特徴の値が、識別器の構成の際に学習した正例に近ければ、対応する識別器が反応し正の値を返すので、そのウィンドウの出力を1とし、そうでなければ0とする。
1枚の入力画像に対し、160個のウィンドウが得られ、周囲の1行、1列分のウィンドウを除いた108個のウィンドウそれぞれについて、5種の物体が存在するかどうか識別する。結果として、108次元の0−1ベクトル(ウィンドウごとに対応する物体がある場合は1、ない場合は0を決定し、それらを並べたもの)が5つ得られる。葉のない木と葉のある木の2つのベクトルについては、対応する要素の論理和をとった新たなベクトルを生成して、それを用いる。その結果、4つの108次元の0−1ベクトルが得られ、それらをそのまま結合した432次元の0−1ベクトルを認識結果ベクトルとする。
[位置識別器]
まず学習走行時にデジタルカメラにより取得した画像系列から、まずオプティカルフローに基づき、停車中と右左折中の画像を除く。オプティカルフローは、1フレーム前の画像の各ピクセルについて、そのピクセルを中心とするウィンドウを設定しテンプレートとし、さらに現在のフレームで対応するピクセルの周りに探索領域を設定し、その領域内でテンプレートともっとも濃度値のパターンが似ているピクセルを探索することによって求める。オプティカルフローは画像中の各点がどのように動いたかを示すので、画像全体のオプティカルフローの平均値が小さいときは停車中であり、全ての点が同じ方向に動いているときには右左折中と判断する。
推定を行うためのある長さの道路に沿った領域を考え、その領域内に自動車が存在すればその位置にいるとする。領域内で取得した連続したn枚の画像に対して、物体認識を行い、得られた物体認識結果ベクトルの集合を正例とする。
正例の前後n枚間は正例と似た風景であるので、緩衝領域としてこの間のデータは使用しない。正例と緩衝領域以外から、一定間隔で取得した画像から得られた認識結果ベクトルを負例とする。この正例と負例を用いてSVMにより識別器34,35等を構成する。位置推定のためのSVMでは、カーネル関数を使わないSVM(線形SVM)を用いる。線形SVMはカーネル関数として内積を計算する関数(K(x, y)=x・y)を利用することと等価である。他の場所についても同様にして画像系列n枚ごとに識別器を構成する(図7参照)。尚、図21に、ある位置に対する学習結果の例を示す。
位置識別器を用いてどの位置にいるかを判断する場合は、まず取得した画像の物体認識を行う。その結果得られた認識結果ベクトルを位置推定の識別器に次々に入力し、それぞれの識別器の出力を確認する。正の反応を返した識別器があった場合、入力画像を取得した場所は、その識別器の構成に用いた正例画像を取得した場所と似ていることになる。
[広域的位置識別]
ロボットや車などが移動するときには、事前に学習した場所を一つずつ順番に通過していく。したがって、ある時点での場所が分かればその少し後の場所を限定することができる。これを移動履歴の考慮という。移動履歴を考慮しない場合、現在の場所で取得した画像から得た物体認識結果を、全ての位置推定のための識別器に入力しなければならない。しかし、移動履歴を考慮すると、存在する可能性のある位置識別器にのみ入力すればよく、位置推定の時間は短縮される。しかし、ある時点での場所が確定的に決められない可能性があるので、各時点で存在する可能性のある場所の確率分布Bel(l)を保持し、それを毎回の観測で更新する。位置認識は場所の分布の予測と推定の2段階から成る。予測を行うための式(数16)を次に示す。
Figure 0005228148
ここで、数16のBel(l’)は前回の観測後の場所l’の確率を、P(l|l’)は場所l’から場所lへの遷移確率を示している。0より大きいBel(l’) を持つすべての場所l’について数1の計算を行って得られる(数17)が現在の場所の予想分布である。
Figure 0005228148
予測と最新の観測結果を統合することにより、現在の場所の分布を計算するための式を(数18)に示す。
Figure 0005228148
数18のP(s|l)はlでの観測値sから決定した尤度であり、数19で計算する。各場所ごとに、そこに存在する確率の予想値(数16により計算)と観測の確からしさ(尤度、P(s|l)で計算)を掛けて、全体として1になるように正規化する(P(s)で割る)ことにより、現在の観測後の場所の確率分布を計算する式が数18である。なお、数16はマルコフ過程、数18はベイズの公式を表している。
遷移確率Pa(l|l‘)には、図8に示す自動車の速度から決定した状態遷移モデルを用いる。ある時点で場所 l にいるとき、次の時点では、同じ場所 l にいる確率が50%、1つ先の場所にいる確率が40%、2つ先の場所にいる確率が10%であるというモデルを用いる。
また尤度は、位置識別器の出力値に数19に示すシグモイド関数を適用した確率モデルを用いて計算する。SVM(s) は、場所lについて学習した位置推定のためのSVMに観測s(具体的には、観測結果ベクトル)を入力として与えたときの出力を示す。出力が大きくなるほど尤度の値が大きくなる。図9にシグモイド関数を示す。実施例ではk=5として用いる。
Figure 0005228148
[広域的位置識別実験]
これまでに述べた方法を用いて位置推定を行った。画像取得はCanon(登録商標)製デジタルカメラ、IXY(登録商標) DIGITAL 1000(商品名)を用いた。画像サイズは320×240ピクセルで15[frame/s]で取得した。
次に、図10を参照して、広域的位置識別実験の経路図について説明する。図10は、広域的位置識別実験の経路図である。図10に示すように、経路は約3.2[km]で、自動車の速度は約25[km/h]である。
学習用の画像系列は2007年6月20日午後5時(天候晴れ)のとき取得した。画像枚数は7155枚である。
広域的位置識別を行うための入力画像系列は2007年6月20日午後5時10分(天候晴れ)、2007年6月22日午後5時(天候雨)、2007年7月24日午後7時(天候晴れ)、2007年10月29日午後2時(天候曇り)のとき取得した。それぞれおよそ7000枚である。
[物体認識結果]
物体認識には取得した画像の上半分320×120ピクセルを使用する。画像の上半分を20×8個の小ウィンドウで分割し、小ウィンドウごとにどの物体に最も近いかSVMを用いて認識を行う。
図11は異なる日照条件でのある位置の物体認識結果である。日照条件にロバストな物体認識が行えていることがわかる。処理時間は画像処理が約0.1秒、SVM処理が約0.22秒である(例えば、Intel Core2 Duo 3GHzを使用)。
次にそれぞれの物体識別器の認識率を求める。識別器の構成に用いていない小ウィンドウを用いて、認識率を求めるためのデータを作成した。このデータはそれぞれ5000〜7000個から成り、正例と負例の割合はほぼ同じとなっている。認識率は、葉のある木は89.25%、葉の落ちた木は81.23%、一様領域は98.43%、建物は76.52%、電線は91.70%となった。
[位置識別結果]
位置推定のための識別器は、ある位置について、その位置で取得画像を中心とした連続する正例画像n=30枚を使用し、その画像の前後n=30枚を緩衝領域として使用せず、負例は残りの画像から30枚間隔で取得し構成した。n=30枚ごとに位置推定のための識別器を構成し、位置推定のための識別器は全部で198個となった。これは198個の場所を識別できることを示す。各場所間の間隔は道路上で約16[m]の距離となる。
画像入力は15枚に1枚(1秒間に1枚)行い、位置を推定する。自動車が学習時の走行速度と同じであれば、約8[m]に1枚の画像を入力することとなる。入力する画像の上半分の物体認識を行い、640次元の特徴ベクトルを作成する。さらにカメラのずれに対応するため、小ウィンドウ数20×8から18×6の並びを切り出して用いる。これにより、図22に示すように9パターンの18×6の並びの配置があり、それぞれについて432次元の認識結果ベクトルが作成される。これを位置推定のための識別器に入力し、得られた9つの出力のうち最大のものを位置推定に用いる。
図12乃至図14に経路上の位置(location)1、2、3の移動履歴を考慮しないときの、位置推定結果を示す。図12乃至図14の各図ごとに、左の画像が入力画像、真ん中のグラフは、入力画像の認識結果ベクトルをすべての場所の識別器へ与えたときの出力値を、右の画像が最も高い出力を示した識別器に対応する場所において、学習走行時に取得した画像である。移動履歴を考慮しない場合、このように全ての識別器に対する出力を計算し、もっとも高いものを選択するという処理が必要になる。また、位置1のように、複数の識別器が反応を返す、もしくは位置3のように、どの識別器も正の反応を返さないなどの問題が生じる。
[広域的位置識別結果]
次に移動履歴を考慮した広域的位置識別を行う。存在確率の初期状態は、全ての位置推定の識別器に等確率で存在するものとした。
図15乃至図17に、図12乃至図14で示した3つの場所に対する、移動履歴を考慮した広域的位置識別の結果を示す。右の画像と左の画像は図12乃至図14と同じであり、真ん中のグラフは推定された場所の確率分布を示す。履歴を考慮することにより、限定された範囲に可能性が絞られていることが分かる。
似たような景色が続く場所では、場所の確率分布が広い範囲に広がる(多くの場所が0より大きい確率を持つ)。しかし、先に進んで特徴的な景色を持つ場所に来ると、確率分布は狭い範囲に収束する。図18は存在確率の収束を示すグラフ及び写真である。上の3枚の画像は左から右へ時間が進む方向へ並べたものであり、対応するグラフはそれぞれその時点での場所の確率分布を示す。位置の確率分布が広がった状態から、特徴的な物体を見つけることにより収束する様子がわかる。
表2に従来の履歴を使わない位置推定および履歴を使った広域的位置識別の比較結果を示す。2種類の評価値を用いた。一つは正解率であり、正しく位置推定が行えた入力画像の数と全入力画像の数の比である。もう一つは最大得点率であり、正しく位置推定が行えかつ最大の出力値を得た入力画像の数と全入力画像数の比である。表2より位置推定の精度が向上していることがわかる。物体認識を含む処理時間は、通常の位置推定では1枚あたり約12秒かかっていたものが、広域的位置識別では識別器が5つ程度に絞られることで、約0.78秒となった(例えば、Intel Core2 Duo CPU 3GHzを使用)。
Figure 0005228148
また表2には局所画像特徴SIFT(非特許文献3を参照)を用いた広域的位置識別結果も示している。SIFTは画像の空間方向およびスケール方向の変化を調べてその極値を求め、さらにその場所での主勾配方向を基準に特徴量を記述することにより、スケール変化や回転に不変な特徴量を求める方法である。物体までの距離や見る角度が変わっても安定的に特徴点が抽出できるため、物体認識によく用いられている。
SIFTを位置認識に利用するため、学習時の画像からSIFT特徴を抽出して記憶しておき、位置推定時に画像中のSIFT特徴を抽出し、記憶したものと照合して同じ特徴があるかどうかで位置推定を行う。移動履歴を考慮した位置推定手法に適用するために、照合によって得られた対応点数に式(数20)を適用することにより、尤度を計算する。
Figure 0005228148
数20のmatchnum(s)は場所lで記憶したSIFT特徴と現在の観測sから抽出したSIFT特徴を照合した結果の対応点の数を示す。はパラメータであり、その値は、経験的に対応点数が8になると尤度が0.5となるように、8とした、この式はシグモイド関数であり、図9に示すグラフと類似の形状を持つ。
図19は日照条件がSIFT特徴点の対応数に与える影響を示したものである。左列の2枚の画像はほぼ同じ時間に撮影したもの、右列の2枚の画像は晴れた日と雨の日に撮影したものである。上下の画像を結ぶ線は対応点の組を表している。日照条件が同じであれば多くの対応点が得られるが、日照条件が大きく変わると対応点の数が急激に減少するので、SIFTなどの局所特徴量を用いる手法は天候や季節の変化に弱い。
表3に初期位置が未知の場合の正しい識別器への収束の成功率と収束したときの平均必要フレーム数を示す。初期位置が未知の場合は、すべての場所が当確率になるような初期分布を与える。収束したかどうかは、推定された場所の確率分布の中に、正しい場所が含まれているかどうかで判定する。成功率はそれぞれ90回位置推定を行い収束に成功した回数を調べることで求めた。表3からも対応点数の減少は位置推定を失敗させる大きな原因であることがわかる。しかし我々の手法は、初期位置が未知でも正しく位置推定が行える。
Figure 0005228148
自律移動ロボットへの応用や人間の移動支援への応用等が考えられる。
コンピュータ20のブロック図である。 位置推定装置10の概念図である。 物体モデル学習処理のフローチャートである。 位置モデル学習処理のフローチャートである。 位置推定処理のフローチャートである。 物体認識のための識別器の構成方法を示す図である。 識別器の構成の概念図である。 自動車の速度から決定した状態遷移モデルの図である。 シグモイド関数のグラフである。 広域的位置識別実験の経路図である。 異なる日照条件でのある位置の物体認識結果の図である。 経路上の位置(location)1の移動履歴を考慮しないときの、位置推定結果を示すグラフ及び写真である。 経路上の位置(location)2の移動履歴を考慮しないときの、位置推定結果を示すグラフ及び写真である。 経路上の位置(location)3の移動履歴を考慮しないときの、位置推定結果を示すグラフ及び写真である。 図12で示した場所に対する、移動履歴を考慮した広域的位置識別の結果を示すグラフ及び写真である。 図13で示した場所に対する、移動履歴を考慮した広域的位置識別の結果を示すグラフ及び写真である。 図14で示した場所に対する、移動履歴を考慮した広域的位置識別の結果を示すグラフ及び写真である。 存在確率の収束を示すグラフ及び写真である。 日照条件がSIFT特徴点の対応数に与える影響を示した写真である。 一様領域の学習結果の例である。 ある位置に対する学習結果の例である。 位置推定時に用いる、9つの物体認識領域の例を示す図である。
符号の説明
1 画像特徴抽出部
2 物体モデル学習部
3 物体認識部
4 位置モデル学習部
5 位置推定部
6 物体モデルデータベース
7 位置モデルデータベース
10 位置推定装置
11 CPU
12 RAM
13 ROM
20 コンピュータ
41 USBコントローラ
42 デジタルカメラ
120 ハードディスク装置
121 物体モデルデータ記憶エリア
122 位置モデルデータベース記憶エリア
123 プログラム記憶エリア
124 移動履歴記憶エリア

Claims (6)

  1. 入力された画像データから当該画像データに写されている物体の位置を特定するために、前記画像データから物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出する画像特徴抽出ステップと、
    前記画像特徴抽出ステップにより抽出された画像特徴量のいずれか1つまたは複数の組み合わせを基に、予め作成されている物体の識別データからなる物体モデルデータベースを用いて物体を識別する物体識別ステップと、
    前記物体識別ステップにより識別された物体を、予め作成されている物体の位置のデータからなる位置モデルデータベースと、出力にシグモイド関数を適用したマルコフ過程とベイズ定理を利用する確率モデルにより求められる尤度を用いる場所の分布の予測と推定の2段階から成る位置認識とを用いて正答となる当該物体の位置を特定する位置識別ステップと
    を備えたことを特徴とする画像データから位置を推定する位置推定方法。
  2. 前記物体モデルデータベースを作成するために、入力された画像データから前記画像特徴抽出ステップにより物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出し、物体モデルデータベースに保存する物体モデル学習ステップと、
    前記位置モデルデータベースを作成するために、物体と当該物体の位置のデータとを対応させて前記位置モデルデータベースに保存する位置モデル学習ステップと
    を備えたことを特徴とする請求項1に記載の画像データから位置を推定する位置推定方法。
  3. 入力された画像データから当該画像データに写されている物体の位置を特定するために、前記画像データから物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出する画像特徴抽出手段と、
    前記画像特徴抽出手段により抽出された画像特徴量のいずれか1つまたは複数の組み合わせを基に、予め作成されている物体の識別データからなる物体モデルデータベースを用いて物体を識別する物体識別手段と、
    前記物体識別手段により識別された物体を、予め作成されている物体の位置のデータからなる位置モデルデータベースと、出力にシグモイド関数を適用したマルコフ過程とベイズ定理を利用する確率モデルにより求められる尤度を用いる場所の分布の予測と推定の2段階から成る位置認識とを用いて正答となる当該物体の位置を特定する位置識別手段と
    を備えたことを特徴とする画像データから位置を推定する位置推定装置。
  4. 前記物体モデルデータベースを作成するために、入力された画像データから前記画像特徴抽出手段により物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出し、物体モデルデータベースに保存する物体モデル学習手段と、
    前記位置モデルデータベースを作成するために、物体と当該物体の位置のデータとを対応させて前記位置モデルデータベースに保存する位置モデル学習手段と
    を備えたことを特徴とする請求項3に記載の画像データから位置を推定する位置推定装置
  5. コンピュータに
    入力された画像データから当該画像データに写されている物体の位置を特定するために、前記画像データから物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出する画像特徴抽出ステップと、
    前記画像特徴抽出ステップにより抽出された画像特徴量のいずれか1つまたは複数の組み合わせを基に、予め作成されている物体の識別データからなる物体モデルデータベースを用いて物体を識別する物体識別ステップと、
    前記物体識別ステップにより識別された物体を、予め作成されている物体の位置のデータからなる位置モデルデータベースと、出力にシグモイド関数を適用したマルコフ過程とベイズ定理を利用する確率モデルにより求められる尤度を用いる場所の分布の予測と推定の2段階から成る位置認識とを用いて正答となる当該物体の位置を特定する位置識別ステップと
    を実行させることを特徴とする位置推定プログラム。
  6. コンピュータに
    前記物体モデルデータベースを作成するために、入力された画像データから前記画像特徴抽出ステップにより物体の画像特徴量として、正規化した色、エッジ密度、ハフ空間における投票の最大値、エッジ方向の分散の度合い、輝度の分散の度合いを抽出し、物体モデルデータベースに保存する物体モデル学習ステップと、
    前記位置モデルデータベースを作成するために、物体と当該物体の位置のデータとを対応させて前記位置モデルデータベースに保存する位置モデル学習ステップと
    を実行させることを特徴とする請求項5に記載の位置推定プログラム
JP2008186268A 2008-07-17 2008-07-17 画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム Expired - Fee Related JP5228148B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008186268A JP5228148B2 (ja) 2008-07-17 2008-07-17 画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008186268A JP5228148B2 (ja) 2008-07-17 2008-07-17 画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム

Publications (2)

Publication Number Publication Date
JP2010026713A JP2010026713A (ja) 2010-02-04
JP5228148B2 true JP5228148B2 (ja) 2013-07-03

Family

ID=41732504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008186268A Expired - Fee Related JP5228148B2 (ja) 2008-07-17 2008-07-17 画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム

Country Status (1)

Country Link
JP (1) JP5228148B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106645378A (zh) * 2016-10-18 2017-05-10 江西理工大学 一种鉴别离子吸附型稀土矿风化程度的方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5594681B2 (ja) * 2010-02-22 2014-09-24 国際航業株式会社 測量データの分類方法、及び測量データの分類装置
JP5697583B2 (ja) * 2011-11-21 2015-04-08 三菱電機株式会社 部屋形状認識方法および装置、ならびにこれを用いた空気調和機
JP5845927B2 (ja) * 2012-01-26 2016-01-20 トヨタ自動車株式会社 物体認識装置、認識方法、及び認識プログラム
CN109063634A (zh) * 2018-07-29 2018-12-21 国网上海市电力公司 在电力监控中采用霍夫圆变换识别目标物体区域电气符号的方法
WO2020170835A1 (ja) * 2019-02-18 2020-08-27 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7204596B2 (ja) 2019-06-28 2023-01-16 富士フイルム株式会社 画像処理装置,画像処理方法,画像処理プログラムおよびそのプログラムを格納した記録媒体
CN110786869B (zh) * 2019-10-29 2021-12-21 浙江工业大学 一种程序员的疲劳程度的检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106645378A (zh) * 2016-10-18 2017-05-10 江西理工大学 一种鉴别离子吸附型稀土矿风化程度的方法
CN106645378B (zh) * 2016-10-18 2019-02-26 江西理工大学 一种鉴别离子吸附型稀土矿风化程度的方法

Also Published As

Publication number Publication date
JP2010026713A (ja) 2010-02-04

Similar Documents

Publication Publication Date Title
JP5228148B2 (ja) 画像データから位置を推定する位置推定方法、位置推定装置及び位置推定プログラム
CN111814584B (zh) 基于多中心度量损失的多视角环境下车辆重识别方法
CN108304873B (zh) 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
TWI651662B (zh) 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體
US9053372B2 (en) Road marking detection and recognition
Keller et al. A new benchmark for stereo-based pedestrian detection
US9928405B2 (en) System and method for detecting and tracking facial features in images
US20240092344A1 (en) Method and apparatus for detecting parking space and direction and angle thereof, device and medium
US10445602B2 (en) Apparatus and method for recognizing traffic signs
KR101917354B1 (ko) 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법
CN110781350A (zh) 一种面向全画面监控场景的行人检索方法及系统
JP2012083855A (ja) 物体認識装置及び物体認識方法
Ji et al. RGB-D SLAM using vanishing point and door plate information in corridor environment
Nuevo et al. RSMAT: Robust simultaneous modeling and tracking
Krajník et al. Image features and seasons revisited
Almazan et al. Road segmentation for classification of road weather conditions
Tsintotas et al. DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM
CN109146918B (zh) 一种基于分块的自适应相关目标定位方法
Getahun et al. A deep learning approach for lane detection
Schubert et al. Visual place recognition: A tutorial
CN113269038B (zh) 一种基于多尺度的行人检测方法
Wong et al. Vision-based vehicle localization using a visual street map with embedded SURF scale
JP5755516B2 (ja) 物体形状推定装置
Silva et al. Vehicle occupancy detection for hov/hot lanes enforcement
CN110569865B (zh) 识别车体方向的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120910

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees