JP6704307B2 - 移動量算出装置および移動量算出方法 - Google Patents

移動量算出装置および移動量算出方法 Download PDF

Info

Publication number
JP6704307B2
JP6704307B2 JP2016131477A JP2016131477A JP6704307B2 JP 6704307 B2 JP6704307 B2 JP 6704307B2 JP 2016131477 A JP2016131477 A JP 2016131477A JP 2016131477 A JP2016131477 A JP 2016131477A JP 6704307 B2 JP6704307 B2 JP 6704307B2
Authority
JP
Japan
Prior art keywords
image
pixel
distance
deviation
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016131477A
Other languages
English (en)
Other versions
JP2018004435A (ja
Inventor
アレックス益男 金子
アレックス益男 金子
山本 健次郎
健次郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016131477A priority Critical patent/JP6704307B2/ja
Publication of JP2018004435A publication Critical patent/JP2018004435A/ja
Application granted granted Critical
Publication of JP6704307B2 publication Critical patent/JP6704307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、ロボットや自動車などに適用される移動量算出装置および移動量算出方法に関する。
危険作業を人の代わりに実施する陸上無人機やロボットなどの移動体において、安全性や利便性向上のため、周囲環境の情報を検出し、状況に応じた走行制御を行う自律走行技術が開発されている。特に、GPS(Global Positioning System)が使えない開けた環境を走行するとき、地面の凹凸を参考に移動量を推定する技術が必要である。
移動体の移動量を算出する例として、移動環境の地図情報を複数記憶し、TOF(Time-of-flight)カメラ(距離画像カメラ)の測定角度に基づいて、地図情報とTOFカメラで測定された距離データに基づいて、自己位置を推定する技術がある(特許文献1参照)。該文献では、TOFカメラで測定された移動量の精度を地図情報で向上させようとしている。
特開2011−209845号公報
しかし、特許文献1のように、地図情報を利用しても、精度を高められるとは限らない。例えば、反射率の異なる立体物がTOF距離画像センサに映っていれば、異なる反射率の影響でTOF距離画像センサ取得した距離情報の精度が低くなり、移動体の移動量を誤る場合がある。
本発明は、前記の課題を解決するための発明であって、撮像画像に反射率の異なる立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動量算出装置を提供することを目的とする。
前記目的を達成するため、本発明の移動量算出装置は、路面の画像を撮像する撮像装置と、撮像装置が撮像した時系列の撮像画像に基づいて移動体の移動量を算出する画像処理部と、を備え、画像処理部は、撮像画像に基づいて時系列の距離画像を算出して記憶部(例えば、メモリ6)に保存し(例えば、ステップS32)、撮像画像のうち、第1のタイミングで撮像された第1の撮像画像から第1の特徴点を複数抽出し、第1のタイミングより後の第2のタイミングで撮像された第2の撮像画像から第2の特徴点を複数抽出し(例えば、ステップS36)、第1の特徴点の各々を第2の特徴点の各々にトラッキングし(例えば、ステップS37)、算出された時系列の距離画像から距離の偏差を示す偏差画像を算出し(例えば、ステップS34)、算出した偏差画像の各ピクセルの偏差を所定の閾値と比較し(例えば、ステップS38)、ピクセルの偏差が所定の閾値より大きい場合、算出したピクセルの距離精度が低いとして、移動量推定に利用しないようにフィルタリングし(例えば、ステップS38a)、ピクセルの偏差が所定の閾値以下の場合、ピクセルの距離精度が高いとして、フィルタリングせず、トラッキングする複数の特徴点のうち、フィルタリングされなかったピクセルを用いた特徴点に基づいて、移動体の移動量を算出する(例えば、ステップS39)ことを特徴とする。本発明のその他の態様については、後記する実施形態において説明する。
本発明によれば、撮像画像に反射率の異なる立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動量算出装置および移動体の移動量算出方法を提供することができる。
本実施形態に係る移動量算出装置の構成を示す図である。 反射率の異なる立体物による影響の詳細を示す図であり、(a)は距離の正確さを検証するための構成を示す図であり、(b)は異なる反射率による距離の影響を示す図であり、(c)は異なる反射率による偏差の影響を示す図である。 画像処理部の処理を示すフローチャートである。 ステップS34の詳細を示す図であり、(a)は移動体が低速の場合であり、(b)は移動体が高速の場合である。 ステップS38関連の詳細を示す図である。 道路での移動量算出方法を示す図であり、(a)は反射率の異なる物体がない場合、(b)は反射率の異なる物体がある場合である。 撮像装置で取得した画像に基づく実験データの例を示す図であり、(a)は撮像画像、(b)は平均距離画像、(c)は偏差画像判別結果である。
本発明を実施するための実施形態について、適宜図面を参照しながら詳細に説明する。
図1は、移動量算出装置の構成を示す図である。移動体1は、周囲環境の画像を撮像する撮像装置2、撮像装置2が撮像した画像を処理して移動体1の移動量を算出し、算出結果に応じた表示あるいは制御用の信号を出力する処理装置3により構成されている。なお、本実施形態の移動量算出装置10(光学式移動量推定装置)は、少なくとも撮像装置2、画像処理部4を含んでいる。
処理装置3は、計算機システムなどにより構成され、撮像装置2が撮像した画像を処理する画像処理部4、該処理された画像に基づき種々の制御を行う制御部(CPU)5、移動量算出などのために制御部で使用する各種データを格納するメモリ6(記憶部)、制御部5の演算結果などを出力する表示部7、及び、これら構成要素を相互に接続するバス8を備えている。なお、CPUは、Central Processing Unitの略である。
撮像装置2は、移動体1の前方に向けられて設置された距離画像センサである。距離画像センサにより、ピクセル(画素)毎に距離データが取得される。以下では説明を簡単にするため、1台の標準カメラを採用した事例について説明するが、走行中に特徴点が抽出可能な視野角を有するものであれば、標準カメラでも広角カメラでもステレオカメラでもTOF距離画像センサでもよい。どのカメラも最終的に1枚の画像を生成するものであり、複数台のカメラを組み合わせて撮像装置2を構成してもよい。
撮像装置2は、制御部5から指令が入力されたとき、もしくは一定の時間間隔で画像を取得し、取得した画像と取得時間を、メモリ6を介して画像処理部4に出力する。取得した画像の原画と取得時間はメモリ6に格納された上で、画像処理部4において中間的な加工画像が作成される。これらの中間画像も適宜必要に応じてメモリ6に格納され、制御部5などの判断や処理に利用される。なお、制御部5での処理に用いられた結果データなども適宜メモリ6に格納される。
各ブロック間のデータの伝送を行うバス8は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。
画像処理部4は、移動体1の走行中に撮像装置2が撮像した画像に基づいて、移動量を算出する。まず、撮像装置2から伝送された画像上の特徴点を抽出する。更に、次に伝送された画像上の特徴点も抽出する。そして、先に(前回)抽出された特徴点と次に(今回)抽出された特徴点をトラッキングし(対比し)、移動体の移動量を算出し、その結果を制御部5に出力する。
制御部5は、画像処理部4で算出した移動量に基づいて、移動体1の位置を算出し、将来の移動方向や速度を決定し、移動体1を制御する。そして、必要な検知結果を表示部7に表示することで、移動体1の運転員に情報提供を行う。
図2は、反射率の異なる立体物による影響の詳細を示す図であり、(a)は距離の正確さを検証するための構成を示す図であり、(b)は異なる反射率による距離の影響を示す図であり、(c)は異なる反射率による偏差の影響を示す図である。
図2(a)に示す平面20は、撮像装置2に対して平行に設置された平面である。距離M(21)は、撮像装置2から平面20の中心XOまで一定の距離である。平面20が撮像装置2に対して平行になっているため、ピクセル(u、v)毎に撮像装置2は、距離M(21)を算出することができる。線22は、平面20の上にある線である。ここで、簡単のため、線22を画像上でのuピクセルと同じ方向で画像の中心XOを通る線とする。なお、撮像装置2から平面20の全ピクセルに対して深さが一定である。
図2(b)に示すグラフ23は、撮像装置2がTOF距離画像センサで、距離画像を複数取得し、線22までの平均距離を算出した例を表している。横軸は、直線22のピクセル位置(画素位置)を示し、横軸の「0」点位置は、線22上で撮像装置2から平面22を見て、例えば、左端に該当する。TOF距離画素センサを用いて、その照射光と反射光との位相差から時間差を得て距離Mを算出している。
平面20が白色ボードのような一定の反射率を有する場合、ピクセル位置と距離Mとの関係はデータ24になり、中心XOまでの距離MをM0とすると、中心点XOでの距離M0を頂点とする、下に凸の曲線となる。一方、平面20がチェスボードのような反射率の異なる立体物の場合、ピクセル位置と距離との関係がデータ25になる。この場合、撮像装置2が算出した距離に誤差が発生し、データ25の値はデータ24と異なる値になる。
図2(c)に示すグラフ26は、グラフ23と同じ距離画像で得られた距離の偏差を表している。平面20が白色ボードのような一定の反射率を有する場合、ピクセル位置と距離の偏差との関係がデータ27になる。一方、平面20がチェスボードのような反射率の異なる立体物の場合、ピクセル位置と距離の偏差との関係がデータ28になる。この場合、撮像装置2が算出した距離に誤差が発生するため、距離の偏差が大きくなる。つまり、距離の偏差と精度が関連し、距離の偏差が大きい場合、距離の精度が低い。一方、距離の偏差が小さい場合、距離の精度が高いため、時系列に距離画像で偏差を算出することで精度の区別が可能になる。
図3は、画像処理部の処理を示すフローチャートである。画像処理部4は、撮像装置2が撮像した画像(撮像画像)をメモリ6から取得する(ステップS30)。次に、画像処理部4は、距離画像を算出する(ステップS31)。撮像装置2がステレオカメラの場合、同時に撮像した2枚の画像を用い、幾何学的にピクセル毎に距離を算出する。撮像装置2がTOF距離画像センサの場合、TOF原理でピクセル毎に距離を算出する。TOF原理は、センサが発光した光が対象物で反射し、センサに届くまでの光の飛行時間と光の速度から対象物までの距離が得られる。また、路面が平らであれば、画像上のピクセル位置と実際の位置関係(X、Y、Z)が一定になるため、距離を幾何学的に算出してもよい。画像処理部4は、算出した距離画像をメモリ6に保存する(ステップS32)。
画像処理部4は、移動体1の速度領域が低速か高速かを判定する(速度領域判定、ステップS33)。すなわち、画像処理部4は、速度領域に応じて処理フローを変える。移動体1の速度情報はGPSやIMU(Inertia Measurement Unit)や車輪エンコーダなどの移動体1に搭載されたセンサから得られる。また、撮像装置2を用いて、画像オドメトリ技術で移動体1の速度を推定してもよい。低速の場合、ステップS34に進み、高速の場合はステップS35に進む。
なお、低速の場合においては、後記するステップS34、ステップS35、ステップS36、ステップS37の順に処理し、高速場合は、ステップS35、ステップS36、ステップS37、ステップS34の順に処理する。このように、処理順序を入れ替える理由については後記する。
画像処理部4は、時系列にメモリ6に保存した距離画像を用いて、偏差画像を算出する(ステップS34)。詳細については、図4を参照して後記する。
そして、画像処理部4は、ステップS30で取得した画像上に、特徴点を抽出するための関心領域を設定する(ステップS35)。例えば、精度が高くて障害物が少ない撮像装置2に近い走行路面を所定の範囲の関心領域に設定する。また、移動体1が道路を走行する場合、となりの車線の対向車や他の障害物が自己位置推定に影響するため、走行車線内を関心領域に設定する。また、開けた環境で走行環境の地面を用いて自己位置推定を行う場合、地面に対して撮像装置2の設置高さや角度によって、撮像装置2が撮像する環境情報が変わるため、地面が映っている部分を関心領域に設定する。
そして、画像処理部4は、ステップS35で設定した関心領域の中からステップS30で取得した画像上に特徴点を抽出する(ステップS36)。特徴点は、画像上のエッジやコーナーなどであり、Canny、Sobel、FAST、Hessian、Gaussianなどの技術を用いる。
次に、画像処理部4は、第1のタイミングで撮像された画像(前フレーム)、即ち、第2のタイミングで撮像された画像(現フレーム)よりも前に撮像された画像から抽出した特徴点を、今回撮像(第2のタイミングで撮像)された画像上でトラッキングする(ステップS37)。トラッキングにはLucas−Kanade法やShi−Tomasi法などの技術を用いる。
そして、画像処理部4は、ステップS34で算出した偏差画像に基づいて、精度の高いピクセルと精度の低いピクセルを区別して、偏差画像にフィルタリングする必要があるか否かを判定する(ステップS38)。具体的には、ステップS34で算出した偏差画像の各ピクセルの偏差を定められた閾値と比較する。ピクセルの偏差が定められた閾値より大きい場合(ステップS38,Yes)、ステップS31で算出したピクセルの距離精度が低いため、ステップS38aでフィルタリングされる(移動体1の移動量推定に利用しない)。一方、ピクセルの偏差が定められた閾値(所定の閾値)以下の場合(ステップS38,No)、ステップS31で算出したピクセルの距離精度が高いため、フィルタリングされずにステップS39に進む。なお、ステップS38の判定処理は、ピクセル毎に実施する。
次に、画像処理部4は、ステップS38でフィルタリングされなかった特徴点を用い、移動体1の移動量ΔDmを算出する(ステップS39)。フィルタリングされなかった特徴点の点をoとし、前フレームで抽出した特徴点の相対位置d(m-1)oと今回抽出した特徴点の相対位置dmoの差分(Δdmo=dmo−d(m-1)o)を算出し、複数のΔdmoを用いて移動体1の移動量ΔDmを算出する。算出する方法には、例えばRigid Body Transformation、Sliding Window、最小二乗法、中央値フィルタなどを利用することができる。
図4は、ステップS34の詳細を示す図であり、(a)は移動体が低速の場合であり、(b)は移動体が高速の場合である。
図4(a)は、移動体1が低速で走行する場合の偏差画像算出(ステップS34)の詳細を示す。D1、D2、・・・、Df(40)は、ステップS31で時系列にステップS30で取得した画像1、画像2、・・・、画像fから算出した距離画像1、距離画像2、・・・、距離画像fである。D1、D2、・・・、Df(40)のピクセル(u、v)を(u、v)1、(u、v)2、・・・、(u、v)fとする。
AVERAGE画像41は、D1、D2、・・・、Df(40)から得られた平均距離画像である。AVERAGE画像41のピクセル(u、v)を(u、v)AVEとし、式(1)で算出される。
(u、v)AVE=((u、v)1+(u、v)2+・・・+(u、v)f)/f ・・・(1)
撮像装置2が下を向いて、走行中環境の凹凸が瞬時に大きく変化しない場合、式(1)で時系列にピクセル毎に平均を算出することで、反射率の異なる立体物や移動体1の振動による精度の悪いピクセルの影響を軽減させることができる。また、AVERAGE画像41はmedian(メディアン)やmode(モード)やmoving average(移動平均)などの処理で構成してもよい。なお、median、mode、moving averageは、統計処理などで用いられものであり、メディアンは中央値を用いる手法であり、モードは最頻値を用いる手法であり、移動平均は系列データを平滑化する手法である。
VAR画像42はD1、D2、・・・、Df(40)から得られた偏差画像である。VAR画像42のピクセル(u、v)を(u、v)VARとし、式(2)で算出される。また、標準偏差やステップS21で時系列に得られた距離画像のばらつきを表す数値を算出してもよい。
(u、v)VAR=[((u、v)AVE−(u、v)1)2
+・・・
+((u、v)AVE−(u、v)f)2]/f ・・・(2)
距離画像の枚数(例えば、f)は、環境に合わせて設定する。例えば、振動や反射率の異なる立体物が多い環境の場合、fを大きく設定することで、AVERAGE画像41の精度を修正できる。また、移動体1が低速で走行する場合、距離画像D1、D2、・・・、Df(40)が瞬時に大きく変わらないため、fを大きく設定する。移動体1が高速で走行する場合、距離の変化が大きくなるため、fを小さく設定する。
移動体1が動く場合、ピクセル(u、v)1、(u、v)2、・・・、(u、v)fと環境の位置関係(X、Y、Z)1、(X、Y、Z)2、・・・、(X、Y、Z)fが異なるが、低速の場合、凹凸が瞬時に大きく変化しないで、移動体1の移動量が小さいと想定し、式(1)と式(2)で(u、v)AVEと(u、v)VARを算出してもよい。
一方、図4(b)は、移動体1が高速で走行する場合を示す。D1、D2、・・・、Df(40b)は、ステップS31で時系列にステップS30で取得した画像1、画像2、・・・、画像fから算出した距離画像1、距離画像2、・・・、距離画像fである。D1、D2、・・・、Df(40b)のピクセル(u、v)を(u、v)1、(u、v)2、・・・、(u、v)fとする。
ただし、移動体1が高速で走行する場合、ピクセル(u、v)1、(u、v)2、・・・、(u、v)fと環境の位置関係(X、Y、Z)1、(X、Y、Z)2、・・・、(X、Y、Z)fが大きく異なるため、図3のステップS37の特徴点トラッキングを用い、ピクセルと位置関係を修正し、AVERAGE画像41bを算出する。すなわち、図3において、高速の場合に、ステップS34の処理をステップS37(特徴点トラッキング)処理のあとで処理している理由である。
特徴点(U、V)143aは画像1においてステップS36で抽出した特徴点である。画像1において特徴点43aをステップS37でトラッキングした後、画像1における特徴点43aは画像2における特徴点(U、V)243bに移動する。画像2において特徴点43bをステップS37でトラッキングした後、画像2における特徴点43bは画像fにおける特徴点(U、V)43cに移動する。
AVERAGE画像41bのピクセル(U、V)AVEは、特徴点(U、V)143a、(U、V)243b、(U、V)343cを用いて式(3)で算出する。
(U、V)AVE=((U、V)1+(U、V)2+・・・+(U、V)f)/f ・・・(3)
ステップS37でトラッキングした特徴点(U、V)143a、(U、V)243b、(U、V)343cの移動量に基づいて、式(3)で他のピクセル(u、v)1、(u、v)2、・・・、(u、v)fの(u、v)AVEを算出することで、平均距離画像であるAVERAGE画像41bを算出できる。また、(U、V)AVEはmedianやmodeやmoving averageなどの処理で算出してもよい。
従って、ステップS37でトラッキングした特徴点(U、V)143a、(U、V)243b、(U、V)343cと(U、V)AVEを式(4)に代入することでピクセル(U、V)VARと偏差画像であるVAR画像42bを算出できる。
(U、V)VAR=[((U、V)AVE−(U、V)1)2
+・・・
+((U、V)AVE−(U、V)f)2]/f ・・・(4)
移動体1が低速で走行する場合、VAR画像44(図5参照)がVAR画像42になり、移動体1が高速で走行する場合、VAR画像44(図5参照)がVAR画像42bになる。
図5は、ステップS38関連の詳細を示す図である。判定手段45は、精度の高いピクセルと精度の低いピクセルを区別(判別)する手段である。ステップS34で算出した偏差画像の各ピクセル(u、v)VARの値を定められた閾値Varth(VARth)と比較する。(u、v)VARの値がVarthより大きい場合、ステップS31で算出したピクセルの距離精度が低い。このため、ステップS37でピクセル(u、v)がトラッキングされた場合、ピクセル(u、v)の特徴点をステップS38aでフィルタリングされる(移動体1の移動量推定に利用しない)。
一方、(u、v)VARの値がVarth以下の場合、ステップS31で算出したピクセルの距離精度が高い。このため、ステップS37でピクセル(u、v)がトラッキングされた場合、ピクセル(u、v)がステップS39で移動体1の移動量推定のために利用される。Varthの設定は、走行環境に合わせて設定する。
例えば、反射率が一定であるアスファルトのような環境の場合、ステップS23で算出する偏差画像の偏差は小さいため、Varthを小さく設定し、反射率が変わるオフロードのような環境の場合、Varthを高く設定する。また、Varthを固定値にせず、走行中の環境の状況に合わせて、画像毎にVarthを算出してもよい。例えば、ステップS23で算出した偏差画像の全ピクセルのaverageやmedianやmodeなどに基づいて、Varthを設定してもよい。
また、ステップS36で抽出した特徴点がステップS38ですべてフィルタリングされた場合、移動体1の移動量推定が不可になるため、ステップS36で抽出した特徴点をすべてステップS39で利用し、移動体1の移動量を推定してよい。また、ステップS32で時系列に保存した距離画像を用い、時系列に移動体1の移動量を算出し、時系列に算出した移動体1の移動量のパターンに基づいて今回推定できなかった移動体1の移動量を推定してもよい。また、ステップS36で抽出した特徴点がステップS38ですべてフィルタリングされた場合、ステップS38ですべてフィルタリングされた特徴点の中の最も精度の高いピクセルのみで移動体1の移動量を推定してもよい。
図6は、道路での移動量算出方法を示す図であり、(a)は反射率の異なる物体がない場合、(b)は反射率の異なる物体がある場合である。
図6(a)に示す画像A51aは撮像装置2がステップS30で撮像した画像である。(u、v)は画像上のピクセル単位の座標であり、道路52は移動体1が走行する路面である。特徴点53aは、画像A51aにおいてステップS36で抽出した特徴点である。
VARA54aは画像A51aに対するステップS34で算出された偏差画像である。画像A51aに反射率の異なる立体物が映っていないため、全ピクセルの偏差が小さく、ステップS31で算出した距離の精度が高い。高精度ピクセル55は、ステップS38で定められた閾値Varth以下の偏差をもつピクセルである。
一方、図6(b)に示す画像B51bは画像A51aの次に撮像装置2がステップS30で撮像した画像である。特徴点53bは、画像A51aにおいてステップS36で抽出した特徴点で、画像B51bにおいてステップS37でトラッキングされた特徴点である。立体物56は、画像B51bに映っている反射率の異なる立体物である。立体物56は例えば、水溜りや、植物などの道路と異なる反射率をもつ立体物である。特徴点57は、画像B51bにおいて立体物56からステップS25で抽出した特徴点である。
VARB54bは画像B51bに対するステップS34で算出された偏差画像である。画像B51bに反射率の異なる立体物56が映っているため、VARB54bにおいて、立体物56が映っているピクセルの偏差が大きく、ステップS31で算出した距離の精度が低い。
低精度ピクセル58は、ステップS38で定められた閾値Varthより大きい偏差をもつピクセルである。ここで、低精度ピクセル58がステップS38でフィルタリングされ、高精度ピクセル55に対応する特徴点53bのみで移動体1の移動量をステップS39で推定する。また、低精度ピクセル58の周りに高精度ピクセル55があっても、低精度ピクセル58に影響される場合があるため、低精度ピクセル58の周りの高精度ピクセル55をフィルタリングしてもよい。
図7は、撮像装置で取得した画像に基づく実験データの例を示す図であり、(a)は、撮像画像、(b)は平均距離画像、(c)は偏差画像判別結果である。図7(a)に示す画像60が撮像装置2で得られた画像である。撮像装置2は、水平面である平面60aの所定の高さに固定されており、撮像装置2から所定の距離離れた奥に、平面60aに対し垂直にチェスボート60cを配置している。すなわち、図2(a)を用いて説明すると、水平面に垂直に平面20があり、その平面20のところにチェスボード60cを配置している。平面60aは、撮像装置2が固定された水平面である。平面60bは、撮像装置2の前にある直面である。チェスボード60cは、平面60bに固定された反射率の異なる立体物である。特徴点60dは、ステップS36で抽出した特徴点である。
図7(b)に示す平均距離画像61は、ステップS34で算出する平均画像(AVERAGE画像)である。暗いピクセルは撮像装置2に近い立体物を表し、明るいピクセルは撮像装置2に遠い立体物を表す。
図7(c)に示す偏差画像判別結果62はステップS34で算出する偏差画像を用いて、ステップS38でピクセルの精度を区別(判別)し、高精度ピクセルと低精度ピクセルとを判別した結果である。黒いピクセルはステップS38aでフィルタリングされたピクセルであり、白いピクセルはステップS38でフィルタリングされなかったピクセルである。
ピクセル62aは、本実施形態で区別した精度の低いピクセルである。ピクセル62aは反射率の異なるチェスボードにあるため、ステップS38aでフィルタリングされる。
また、撮像装置2がTOFセンサであるため、撮像装置2から立体物が離れれば離れるほど撮像装置2が算出する距離の誤差が大きくなる現象がある(ピクセル62b)。また、撮像装置2がTOFセンサであるため、平面60aと平面60bの間のコーナーで撮像装置2が発光した光が複数回反射し、センサに届くまでの飛行時間が変わるため、撮像装置2が算出する距離の誤差が大きくなる(ピクセル62c)。本実施形態では、ピクセル62bとピクセル62cのような精度の低いピクセルの区別もできる。
1 移動体
2 撮像装置(画像取得装置)
3 処理装置
4 画像処理部(処理部)
5 制御部
6 メモリ(記憶部)
7 表示部
8 バス
10 移動量算出装置(光学式移動量推定装置)
40 距離画像
41 AVERAGE画像
42 VAR画像(偏差画像)
53a,53b,57 特徴点
54a,54b 偏差画像
55 高精度ピクセル
56 立体物
58 低精度ピクセル
61 平均距離画像
62 偏差画像判別結果

Claims (7)

  1. 路面の画像を撮像する撮像装置と、
    前記撮像装置が撮像した時系列の撮像画像に基づいて移動体の移動量を算出する画像処理部と、を備え、
    前記画像処理部は、
    前記撮像画像に基づいて時系列の距離画像を算出して記憶部に保存し、
    前記撮像画像のうち、第1のタイミングで撮像された第1の撮像画像から第1の特徴点を複数抽出し、前記第1のタイミングより後の第2のタイミングで撮像された第2の撮像画像から第2の特徴点を複数抽出し、
    前記第1の特徴点の各々を前記第2の特徴点の各々にトラッキングし、
    前記算出された時系列の距離画像から距離の偏差を示す偏差画像を算出し、
    前記算出した偏差画像の各ピクセルの偏差を所定の閾値と比較し、
    前記ピクセルの偏差が前記所定の閾値より大きい場合、前記算出したピクセルの距離精度が低いとして、移動量推定に利用しないようにフィルタリングし、前記ピクセルの偏差が前記所定の閾値以下の場合、前記ピクセルの距離精度が高いとして、前記フィルタリングせず、
    前記トラッキングする複数の特徴点のうち、前記フィルタリングされなかったピクセルを用いた特徴点に基づいて、前記移動体の移動量を算出する
    ことを特徴とする移動量算出装置。
  2. 前記画像処理部は、前記距離画像に基づいてピクセル毎の偏差を示す偏差画像を算出する
    ことを特徴とする請求項1に記載の移動量算出装置。
  3. 前記画像処理部は、前記所定の閾値を走行環境に合わせて設定する
    ことを特徴とする請求項1又は2に記載の移動量算出装置。
  4. 前記画像処理部は、前記偏差画像を算出する際の距離画像の枚数を環境に合わせて設定する
    ことを特徴とする請求項1又は2に記載の移動量算出装置。
  5. 前記撮像装置は、前記移動体の前方に向けられて設置された距離画像センサである
    ことを特徴とする請求項1に記載の移動量算出装置。
  6. 前記撮像装置がステレオカメラの場合、前記画像処理部は、同時に撮像した2枚の画像を用いて幾何学的にピクセル毎に距離を算出し、前記距離画像を作成する
    ことを特徴とする請求項1に記載の移動量算出装置。
  7. 時系列の路面の撮像画像に基づいて移動体の移動量を算出する処理部を用いる移動量算出方法であって、
    前記処理部は、
    前記撮像画像に基づいて時系列の距離画像を算出して記憶部に保存し、
    前記撮像画像のうち、第1のタイミングで撮像された第1の撮像画像から第1の特徴点を複数抽出し、前記第1のタイミングより後の第2のタイミングで撮像された第2の撮像画像から第2の特徴点を複数抽出し、
    前記第1の特徴点の各々を前記第2の特徴点の各々にトラッキングし、
    前記算出された時系列の距離画像から距離の偏差を示す偏差画像を算出し、
    前記算出した偏差画像の各ピクセルの偏差を所定の閾値と比較し、
    前記ピクセルの偏差が前記所定の閾値より大きい場合、前記算出したピクセルの距離精度が低いとして、移動量推定に利用しないようにフィルタリングし、前記ピクセルの偏差が前記所定の閾値以下の場合、前記ピクセルの距離精度が高いとして、前記フィルタリングせず、
    前記トラッキングする複数の特徴点のうち、前記フィルタリングされなかったピクセルを用いた特徴点に基づいて、前記移動体の移動量を算出する
    ことを特徴とする移動量算出方法。
JP2016131477A 2016-07-01 2016-07-01 移動量算出装置および移動量算出方法 Active JP6704307B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016131477A JP6704307B2 (ja) 2016-07-01 2016-07-01 移動量算出装置および移動量算出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016131477A JP6704307B2 (ja) 2016-07-01 2016-07-01 移動量算出装置および移動量算出方法

Publications (2)

Publication Number Publication Date
JP2018004435A JP2018004435A (ja) 2018-01-11
JP6704307B2 true JP6704307B2 (ja) 2020-06-03

Family

ID=60948948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016131477A Active JP6704307B2 (ja) 2016-07-01 2016-07-01 移動量算出装置および移動量算出方法

Country Status (1)

Country Link
JP (1) JP6704307B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278536B1 (ko) * 2020-11-09 2021-07-19 대한민국 영상 이미지를 이용하여 거리를 측정하기 위한 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5893869B2 (ja) * 2011-08-18 2016-03-23 三菱重工業株式会社 計測装置、計測方法、及びプログラム
WO2016020970A1 (ja) * 2014-08-04 2016-02-11 日産自動車株式会社 自己位置算出装置及び自己位置算出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278536B1 (ko) * 2020-11-09 2021-07-19 대한민국 영상 이미지를 이용하여 거리를 측정하기 위한 장치 및 방법

Also Published As

Publication number Publication date
JP2018004435A (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
CN106981082B (zh) 车载摄像头标定方法、装置及车载设备
US11340071B2 (en) Calibration system and calibration apparatus
JP6222353B2 (ja) 物標検出装置及び物標検出方法
EP3032818B1 (en) Image processing device
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
EP2743889A2 (en) Stereoscopic camera object detection system and method of aligning the same
JP6708730B2 (ja) 移動体
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
JP6032034B2 (ja) 物体検知装置
JP6858681B2 (ja) 距離推定装置及び方法
US11151729B2 (en) Mobile entity position estimation device and position estimation method
JP2019191806A (ja) 異常検出装置および異常検出方法
CN114550042A (zh) 一种道路消失点提取方法、车载传感器标定方法及装置
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
WO2018225480A1 (ja) 位置推定装置
JP3633469B2 (ja) 車間距離設定装置
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
JP7227112B2 (ja) 物体検出装置、走行制御システム、および走行制御方法
JP2018194417A (ja) 位置推定装置、移動装置
JP2020042716A (ja) 異常検出装置および異常検出方法
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
JP7391117B2 (ja) 車両用画像処理装置および車両用画像処理方法
JP6846640B2 (ja) 車載カメラ校正装置
CN117723055A (zh) 一种用于自主代客泊车的低成本定位方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200512

R150 Certificate of patent or registration of utility model

Ref document number: 6704307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150