A:本発明の第1の実施形態
以下、図面を参照して、本発明の第1の実施形態について説明する。ここでは、自走式産業機械に運搬車両としてのダンプトラックを適用している。勿論、ダンプトラック以外の任意の自走式産業機械、例えば下部走行体を有する油圧ショベル等を適用してもよい。ダンプトラックとしてはリジットタイプとアーティキュレートタイプとがあるが、何れを適用してもよい。要は、所定の作業(運搬や掘削等)を行う任意の自走式産業機械に本実施形態を適用することができる。なお、以下において、「左」とは運転室から見たときの左方であり、「右」とは運転室から見たときの右方である。
図1は、本実施形態のダンプトラック1の一例を示している。ダンプトラック1は、車体フレーム2と前輪3(3Lおよび3R)と後輪4(4Lおよび4R)とベッセル5とカメラ6と運転室7と画像処理装置8とモニタ9とを備えて構成している。車体フレーム2はダンプトラック1の本体を形成するものであり、車体フレーム2の前方に前輪3、後方に後輪4を設けている。なお、前輪3Rは右方の前輪3であり、前輪3Lは左方の前輪3である。また、後輪4Rは右方の後輪4であり、後輪4Lは左方の後輪4である。ベッセル5は荷台であり、土砂や鉱物等を積載する。ベッセル5は起伏可能に構成されている。
ダンプトラック1には任意の位置に撮影部としてのカメラ6を設置することができる。図2はダンプトラック1の側面図を示しており、カメラ6は運転室7の前方に取り付けられている。そして、カメラ6はダンプトラック1の前方の斜め下方を俯瞰するような視野範囲6A(図中の破線の範囲)で、このダンプトラック1の周辺領域の撮影を行っている。この視野範囲6Aの中には作業員Mが接触を避けるべき障害物として存在している。障害物としては他に作業機械やサービスカー等があり、これらが視野範囲6Aに含まれることもある。
カメラ6の視野範囲6Aはダンプトラック1の前方の斜め下方となっており、視野範囲6Aの中に前方構造物10の一部が含まれるようにする。図2の破線で示すように、視野範囲6Aには前方構造物10の一部が含まれている。なお、カメラ6により撮影される周辺領域である視野範囲6Aはダンプトラック1の前方以外の方向でもよく、ダンプトラック1の後方や左方、右方等の任意の方向を視野としてもよい。視野範囲6Aをダンプトラック1の後方とすることで、ダンプトラック1を後進させるときに、後方の状況を画像表示することができる。このときには、視野範囲6Aには後方構造物の一部が含まれるようにする。
運転室7はオペレータが搭乗してダンプトラック1を操作する各種の操作手段が設けられている。例えば、ダンプトラック1を前進または後進させるシフトレバー等が操作手段として設けられている。運転室7には、画像処理装置8とモニタ9とが設けられており、カメラ6が撮影することにより生成される画像データは画像処理装置8で所定の画像処理が行われる。画像処理が行われた画像データはモニタ9に表示される。モニタ9は表示装置であり、基本的にモニタ9にはカメラ6が撮影する映像が表示されている。
画像処理装置8はカメラ6が撮影した映像の画像データに対して画像処理を行う画像処理コントローラである。そして、画像処理を行った画像データを表示画像としてモニタ9に表示する。図3に示すように、画像処理装置8は、歪み補正部21と平滑化処理部22とエッジ抽出部23と構造物エッジ判定部24とエッジ線分データ確定部25と要警戒範囲設定部26と歪み復元部27と表示画像作成部28とを備えている。
カメラ6が撮影した映像は画像データとして歪み補正部21に入力される。歪み補正部21は、カメラ6のレンズパラメータ(焦点距離や画像の光軸中心、レンズ歪係数等)を用いて、画像データの歪みを補正する。カメラ6のレンズの映り込む映像は中心では歪みを生じていないが、中心から離間するほど歪みを生じる。従って、カメラ6が撮影して得られる画像データは全体的に歪曲されている。これに対して、前記のパラメータを用いて補正を行うことで、直線性の高い画像データを得ることができる。
平滑化処理部22は、歪み補正部21により補正された画像データを入力して、平滑化処理を行う。平滑化処理は、画像データの各画素の間の画素値の変化を少なくし、滑らかな画像を生成する処理である。画像データに対して平滑化処理を行うことで、画素値の変化を滑らかにすることができ、全体的に平滑化された画像データにすることができる。平滑化処理には、任意の手法を用いることができるが、例えば移動平均フィルタや中央値フィルタ、ガウシアンフィルタ等を用いることができる。
エッジ抽出部23は、平滑化処理部22により平滑化処理された画像データに対してエッジ抽出処理を行う。このために、隣接する画素間の画素値の変化が大きい画素をエッジ画素として抽出し、エッジ画素が連続して形成される形状をエッジとする。これにより、画像データの中から画素値の変化が大きいエッジが抽出される。エッジ抽出処理には任意の手法を用いることができるが、例えばソーベルフィルタやキャニーのアルゴリズム等の手法を用いることができる。
構造物検出部である構造物エッジ判定部24は、エッジ抽出部23が抽出したエッジのうち、その形状が画像データの中の前方構造物10の境界に近いエッジを前方構造物10のエッジとして判定する。このために、構造物エッジ判定部24はハフ変換等の直線化手法を用いて、画像データの中のエッジの直線化を行う。そして、直線化されたエッジをエッジ線分として、連結性の高いエッジ線分を前方構造物10の境界(エッジ)として判定する。エッジ線分は画像データ中の座標を用いて表現することができ、ここではエッジ線分同士の交点座標およびエッジ線分と画像データの下端(画像データPのうち最もダンプトラック1に近接している端部)との交点座標をエッジ線分データとして記憶する。
エッジ線分データ確定部25は、最新のエッジ線分データを含めて、任意の数のエッジ線分データを比較する。カメラ6には所定の撮影周期があり、周期的に画像データが取得されることから、エッジ線分データも周期的に取得される。エッジ線分データ確定部25は過去のエッジ線分データを記憶しており、最新のエッジ線分データとの平均値を演算する。そして、演算されたエッジ線分データの平均値を確定されたエッジ線分データとする。なお、歪み補正部21からエッジ線分データ確定部25までの各部は前方構造物10を検出するための構造物検出部となる。
要警戒範囲設定部26は、エッジ線分データ確定部25から入力したエッジ線分データに基づいて、要警戒範囲を設定する。要警戒範囲とダンプトラック1の前方構造物10との相対位置関係は一定であり、カメラ6の取り付け高さや俯角、カメラ6の画素数、画角等に基づいて、要警戒範囲と前方構造物10との相対位置関係は既知のものとして認識することができる。従って、要警戒範囲設定部26は、エッジ線分データにより得られる前方構造物10の境界に基づいて、所定範囲を要警戒範囲として設定する。
歪み復元部27は、歪み補正部21が歪み補正したカメラレンズのパラメータを用いて、歪みを復元する。歪み復元部27までの画像データはカメラ6のカメラレンズの歪みを補正したデータであり、本来のカメラ6の映像には歪みを生じている。よって、本来的なカメラ6の映像を表示するときには、歪み復元部27が画像データに対して歪みを復元する処理を行う。この歪みの復元により画像データ中の要警戒範囲にも歪みが発生する。
表示画像作成部28はモニタ9に表示する表示画像を生成する。このときの表示画像は歪みが復元された画像データであり、この中に要警戒範囲が設定されている。表示画像作成部28は要警戒範囲が設定された表示画像をモニタ9に出力し、モニタ9に表示画像を表示する。これにより、運転室7に搭乗するオペレータはモニタ9を視認することにより、カメラ6の映像を認識することができる。
次に、図4のフローチャートに基づいて、動作について説明する。ダンプトラック1に設置されたカメラ6は斜め下方を視野とした視野範囲6Aを撮影しており、所定の撮影周期(例えば、フレーム/秒)で撮影を行っている。これにより、撮影周期ごとに得られる1フレーム分の画像データを画像処理装置8に周期的に出力する(ステップS1)。視野範囲6Aに前方構造物10が含まれるようにカメラ6が設置しており、画像データの中には前方構造物10が含まれる。
カメラ6が視野範囲6Aを撮影することにより得られる画像データの一例を図5に示す。カメラ6は斜め下方を視野としており、同図に示すように、画像データPにはカメラ6の撮影方向の地面が背景として映し出されている。ダンプトラック1が運用される現場は過酷な環境下にあり、地面は整地状態となっておらず、多くの凹凸が存在する。画像データPの中では凹凸部Rとして映し出されている。また、視野範囲6Aにダンプトラック1の前方構造物10が映し出されるようにカメラ6の視野を設定している。よって、画像データPには前方構造物10も含まれている。
以上の画像データPが画像処理装置8の歪み補正部21に出力され、且つ表示画像作成部28にも出力される。歪み補正部21に入力された画像データPはカメラ6のレンズパラメータに基づいて歪み補正がされる(ステップS2)。カメラ6のレンズパラメータを用いて画像データPの歪み補正を行うことで、画像データPの中心から離間した部位の歪みが補正される。これにより、画像データPは、図6に示すような直線性の高い画像に補正される。
歪み補正処理がされた画像データPは平滑化処理部22に入力される。平滑化処理部22は画像データPに対して平滑化処理を行う(ステップS3)。平滑化処理部22は、前述したように、画像データPの各画素について、隣接する画素間の画素値の差分を少なくして、滑らかな画像データPを生成する。前述したように、エッジ抽出部23によりエッジ抽出処理が行われる。このとき、地面の凹凸や照度の違い等に起因して画像データPの画素値がまばらな値になり、これらがエッジとして検出されるおそれがある。ただし、これらはノイズ成分であり、平滑化処理部22は予めノイズ成分を除去するために平滑化処理を行う。この平滑化処理を行うことで、まばらな画素値が平滑化され、ノイズ成分が除去される。ここでは、図7に示す平滑化フィルタを用いて平滑化処理を行っているが、隣接する画素間の画素値の差分を少なくすることができれば任意の手法を用いることができる。
図7は、平滑化フィルタとしてガウシアンフィルタを適用した例を示している。ガウシアンフィルタは、画素の空間的配置を考慮して、画像データPの中の1つの画素(中心画素)に近い画素のフィルタ係数が大きく、中心画素から遠い画素のフィルタ係数が小さいフィルタである。そして、ガウシアンフィルタはフィルタリングした各画素の加重平均を取る。フィルタ係数としては、例えば下記のガウス関数(式1)を用いることができる。なお、式1の中のσは標準偏差である。
図7の例では3画素×3画素の合計9画素のガウシアンフィルタを用いる。なお、ガウシアンフィルタの画素数は9画素ではなく、5画素×5画素の合計25画素としてもよいし、それ以上としてもよい。前述の式1のガウス関数を用いたガウシアンフィルタは、中心画素と周辺画素(8画素)とにより構成される。中心画素のフィルタ係数Kが最も大きく、中心画素の上下左右の4画素のフィルタ係数Lが次に大きく、それ以外の4画素のフィルタ係数Mが最も小さい。つまり、「K>L>M」となる。なお、フィルタ係数は重み付けであり、フィルタ係数の合計は「1」となる。
平滑化処理部22は画像データPの全ての画素に対して、前述したガウシアンフィルタを用いた平滑化処理を行う。具体的には、中心画素の画素値に対してフィルタ係数Kを乗算し、中心画素の上下左右の4画素の画素値に対してフィルタ係数Lを乗算し、それ以外の4画素の画素値に対してフィルタ係数Mを乗算する。そして、フィルタ係数Kを乗算した中心画素の画素値に対して、フィルタ係数L、Mを乗算した周辺の8画素の画素値を加算する。この加算を行ったときの中心画素の画素値が平滑化値となる。この処理を画像データPの全ての画素に対して行う。
ところで、前述したように、画像データPには地面の凹凸部Rと前方構造物10とが映し出されている。凹凸部Rの画素はその周囲の画素と画素値に差分を有している。従って、平滑化処理部22が画像データPに対して平滑化処理を行うことで、凹凸部Rと周囲の画素との間の画素値の差分が少なくなり、平滑化される。そして、前述のフィルタ係数K、L、Mの値は、画像データPの中の前方構造物10の境界はエッジとして検出されるが、それ以外の凹凸部R等はエッジとして検出されないような値に設定する。これにより、図8に示したように、画像データPの中の凹凸部Rを大幅に低減することができる。フィルタ係数K、L、Mの値はガウス関数の標準偏差σにより決定されるため、凹凸部Rが検出されなくなるような標準偏差σを設定する。
勿論、凹凸部Rの中にはその大きさや照度条件等により、凹凸部Rの画素とその周囲の画素との差分が大きくなることがある。この場合には、平滑化処理を行ったとしても、完全に画像データPの中から凹凸部Rを除去することができず、一部の凹凸部Rは残存する。ただし、図8に示すように、その数を大幅に低減させることができる。
一方、前方構造物10については、背景と前方構造物10との境界は明確に区別可能になっている。一般に、ダンプトラック1は、周囲状況を把握する観点から地面や周囲の環境と容易に区別が可能なような色に着色されていることが多い。これに伴い、前方構造物10も地面や周囲環境等の背景とは明確に異なる色となっている。このため、背景と前方構造物10との境界、つまり前方構造物10における背景の画素値と前方構造物10の画素値との差分は大きい。これにより、前方構造物10の境界における画素値の差分は非常に大きいため、平滑化処理を行ったとしても、大半は残存する。
次に、エッジ抽出部23の処理について説明する。図8に示したように、平滑化処理を行った画像データPには、その数が大幅に低減された凹凸部Rおよび前方構造物10の境界が映し出されている。エッジ抽出部23は、この平滑化処理を行った画像データPから隣接する画素の間の画素値の差分が所定の閾値以上の画素(差分が大きい画素)をエッジ画素として抽出する(ステップS4)。
ここでは、エッジ画素を抽出するエッジ抽出処理としてキャニーのアルゴリズムを用いる。勿論、他の手法を用いてエッジ画素を抽出してもよい。キャニーのアルゴリズムでは、図9に示すような水平方向(横方向:X方向)のソーベルフィルタおよび垂直方向(縦方向:Y方向)のソーベルフィルタの2種類のソーベルフィルタを用いる。X方向のソーベルフィルタは画像データPのX方向の輪郭を強調し、Y方向のソーベルフィルタはY方向の輪郭を強調する。これら2種類のソーベルフィルタを用いて画像データPの全ての画素に対してエッジ画素を抽出する。
X方向およびY方向のソーベルフィルタを画像データPの全ての画素に対して施すことにより、画像データPの全ての画素について、当該画素とその周囲の画素との間の微分値(fx、fy)を抽出する。fxはX方向の微分値であり、fyはY方向の微分値である。そして、画像データのPの全ての画素に対して、fx、fyに基づいて、エッジ強度gを「g=(fx2+fy2)1/2」として演算する。エッジ強度gは1つの画素と周囲の画素との間の画素値の差分を示しており、演算されたエッジ強度gに基づいて、エッジ画素を検出する。
エッジ抽出部23は、ソーベルフィルタが施された画像データPの全ての画素のエッジ強度gに対して、第1閾値T1および第2閾値T2(ただし、T1>T2)を用いて比較を行う。画像データPの1つの画素に着目して、当該画素のエッジ強度gが第1閾値T1以上であれば、当該画素はエッジ画素として検出する。一方、着目した画素のエッジ強度gが第2閾値T2未満であれば、当該画素はエッジ画素ではないとして検出する。着目した画素のエッジ強度が第1閾値T1以上且つ第2閾値T2未満のときには、当該画素の近傍(特に、当該画素に隣接している画素)にエッジ画素が存在しているときには当該画素をエッジ画素として検出し、それ以外の場合はエッジ画素として検出しない。
以上のエッジ抽出処理を行うと、図10(a)に示すようなエッジ画素が抽出された画像データPが生成される。そして、エッジ画素が連続した形状をエッジEとして抽出される。エッジEが抽出された画像データPに対して構造物エッジ判定処理を行うことにより、画像データPの中から前方構造物10を判定する(ステップS5)。エッジ抽出処理では、隣接する画素間の差分が大きい画素をエッジ画素として抽出している。これにより、もともと凹凸部Rを映し出していた画素は殆どエッジ画素として検出されなくなるため、前方構造物10を検出する精度は飛躍的に向上する。
一方、前方構造物10の境界は画素値の差分が大きいため、エッジ画素として検出されやすくなる。ただし、ソーベルフィルタを用いたエッジ抽出処理を行うことにより、図10(a)に示すように、エッジEは直線性を示さず、不規則な変化を示すことがある。例えば、本来なら直線性を有している前方構造物10の境界も直線性を失い、当該境界の一部が検出されなくなる場合もある。
構造物エッジ判定部24は、画像データPのエッジ画素から直線を抽出する。直線を抽出する手段としては任意の手段を用いることができるが、ここでは既知の手法としてハフ変換を用いる。勿論、エッジ画素から直線を抽出できれば、ハフ変換以外の手法を用いてもよい。図10(a)に示した画像データPに対して、ハフ変換の演算処理を行うことで、不規則な変化を示す線分は、同図(b)に示すように直線L、L1乃至L4になる。このうち、X方向に延在する直線L1、L2およびY方向に延在する直線L3、L4に着目する。そして、構造物エッジ判定部24は直線L1、L2のうち最も長い直線L1を選択し、2つの直線L3、L4を選択する。
構造物エッジ判定部24は画像データPの中で直線L1、L3、L4を延長する。直線L1はX方向の延在する直線であり、直線L3、L4はY方向に延在する直線であることから、これらを延長することにより、直線L1と直線L3および直線L4が交わる。直線L1と直線L3との交点をC1、直線L1と直線L4との交点をC2とする。また、直線L3と画像データPの下端との交点をC3、直線L4と画像データPの下端との交点をC4とする。交点C1乃至C4は2次元の画像データPの中の画素の座標を示している。
交点C1乃至C4を直線で結ぶと前方構造物10のエッジ線分が形成される。従って、交点C1乃至C4の情報は前方構造物10のエッジ線分を特定するためのデータとなり、これをエッジ線分データとする。エッジ線分データ(交点C1乃至C4の座標情報)により囲まれた領域が前方構造物10となる。構造物エッジ判定部24はエッジ線分データに基づいて、前方構造物10のエッジを判定する。1枚の画像データPから得られるエッジ線分データに基づいて前方構造物10を特定してもよいが、画像データPの中の前方構造物10を検出する確度を向上させるために、エッジ線分データ確定部25がエッジ線分データの比較を行う(ステップS6)。
前述したように、カメラ6から所定周期で画像データPが画像処理装置8に入力されており、複数枚の画像データPが得られる。エッジ線分データ確定部25は過去の画像データPに基づくエッジ線分データを記憶しており、最新の画像データPに基づくエッジ線分データと過去のエッジ線分データとの平均値を算出する。エッジ線分データ確定部25は、算出されたエッジ線分データ(平均値)を確定されたエッジ線分データとする。つまり、確定されたエッジ線分データにより画像データPの中の前方構造物10が特定される。
なお、エッジ線分データ確定部25が複数の画像データPのエッジ線分データの平均値の演算を行うときには、所定枚数の画像データPのエッジ線分データがエッジ線分データ確定部25に蓄積されるまで、エッジ線分データの確定は行わない。また、多くのエッジ線分データの平均値を算出することにより、エッジ線分データの確度は向上するが、処理時間が長くなる。従って、エッジ線分データの確度と処理時間とのバランスを考慮して、平均値の演算を行うエッジ線分データの個数を決定する。
エッジ線分データ確定部25が確定したエッジ線分データは要警戒範囲設定部26に出力される。要警戒範囲設定部26はエッジ線分データに基づいて要警戒範囲を設定する(ステップS7)。要警戒範囲は障害物を検出する範囲であり、ダンプトラック1から所定の範囲となる。前述したように、ダンプトラック1の前方構造物10と要警戒範囲との相対位置関係は既知のものとして認識することができる。従って、画像データPの中の前方構造物10が特定できれば、要警戒範囲を自動的に認識することができる。
図11(a)は、エッジ線分データに基づいて、要警戒範囲31が設定される状態を示している。確定されたエッジ線分データは交点C1乃至C4の情報であり、交点C1乃至C4を連結することにより前方構造物10が特定される。従って、同図(a)の中で交点C1乃至C4により囲まれた領域が前方構造物10となる。前方構造物10と要警戒範囲31との相対位置関係に基づいて、画像データPの中で要警戒範囲31が設定される。
一方、画像データPの中で要警戒範囲31以外の領域は警戒が不要な警戒不要範囲32となる。従って、画像データPの中から障害物を検出するときに、要警戒範囲31のみを対象として障害物の検出を行い、警戒不要範囲32については障害物の検出は行わない。障害物の検出の手法は任意の手法を採用することができる。そして、障害物の検出を行うときに、警戒不要範囲32はマスク領域として、当該範囲をマスクすることで、要警戒範囲31に絞って障害物の検出を行うことができる。
要警戒範囲31は歪み補正部21により歪み補正がされた画像データPに基づいて設定されている。モニタ9に表示される表示画像はカメラ6から出力される画像データPであり、歪み補正がされていない画像になる。そこで、歪み復元部27は、要警戒範囲31が設定された画像データPに対して歪み補正を復元する(ステップS8)。歪み復元部27は歪み補正部21が使用したカメラ6のレンズパラメータを使用して、画像データPの歪み補正を復元する。これにより、要警戒範囲31は、図11(b)のように変形する。歪み復元処理がされた要警戒範囲31の情報は表示画像作成部28に出力される。
表示画像作成部28はモニタ9に表示する画像(表示画像)を生成する(ステップS9)。表示画像作成部28は、カメラ6から周期的に画像データPを入力する。この画像データPは歪み補正がされていない画像になる。また、表示画像作成部28は歪み復元部27から歪み復元処理がされた要警戒範囲31の情報を入力している。そして、表示画像作成部28は、カメラ6から入力した画像データPに要警戒範囲31を重畳する。その状態を図12に示している。つまり、同図に示す画像データPのうち要警戒範囲31は仮想線で囲まれた領域になる。なお、要警戒範囲31は障害物を検出するための領域であり、図12のように格別に要警戒範囲31を表示させる必要はない。
そして、表示画像作成部28はカメラ6から入力した画像データPをモニタ9に出力する。運転室7に搭乗したオペレータはモニタ9に表示されている画像データPを視認することで、補助的な視野を得ることができる。
以上説明したように、本実施形態では、画像データPに基づいてダンプトラック1の前方構造物10を特定し、前方構造物10から要警戒範囲31を設定している。これにより、障害物を検出する要警戒範囲31を手動によらず自動的に設定することができ、設定する手間を大幅に省略することができる。また、ダンプトラック1が激しく振動してカメラ6の視野範囲6Aにずれを生じたとしても、要警戒範囲31にずれを生じることはない。つまり、画像データPの中の前方構造物10と要警戒範囲31との相対位置関係は、視野範囲6Aにずれを生じたとして一定であるため、前方構造物10を基準として要警戒範囲31を設定することで、要警戒範囲31にずれを生じることがなくなる。
以上において、構造物エッジ判定部24はエッジ画素の直線性を検出して、前方構造物10のエッジ線分を判定していたが、前方構造物10と背景との境界を検出することができれば、前方構造物10のエッジ線分を検出する手法以外の手法を用いてもよい。例えば、前方構造物10と背景との間で画素値の差分が極端に大きい場合等は、画素値の差分に基づいて前方構造物10を検出することができる。この場合、歪み補正部21により歪み補正を行う必要もなく、歪み復元部27により歪み復元の補正を行う必要もない。ただし、前方構造物10には特有の直線性が存在するため、前方構造物10のエッジ線分を検出する手法を採用することで、前方構造物10と背景との境界を検出する精度が向上する。
また、平滑化処理部22により画像データPに対して平滑化処理を行っており、これにより画像データPの中の凹凸部Rを低減させている。この点、カメラ6が撮影している地面がある程度整地されている場合等においては、画像データPの中の凹凸部Rは少なくなる。従って、平滑化処理を行わなくても前方構造物10のエッジEを抽出することはできる。ただし、前方構造物10のエッジEの検出精度を向上させるためには、平滑化処理を行った方が望ましい。
また、エッジ線分データ確定部25によりエッジ線分データの確度を向上させているが、1枚の画像データPに基づいてエッジ線分が明確に識別できる場合等は、エッジ線分データ確定部25により処理を省略してもよい。ただし、複数の画像データPのエッジ線分データの平均値を演算することにより、エッジ線分データを確定させることで、エッジ線分データの確度が向上する。このため、エッジ線分データ確定部25による処理を行うことが望ましい。
B:本発明の第2の実施形態
次に、第2の実施形態について説明する。図13は第2の実施形態の画像処理装置8の構成を示している。図13に示すように、要警戒範囲画像生成部41と障害物検出部42とマスク画像生成部43とずれ判定部44とが第1の実施形態に対して新たに追加されたが、それ以外の構成は第1の実施形態と同じであるので説明を省略する。
視野範囲6Aを撮影しているカメラ6から周期的に画像データPが画像処理装置8に出力される。画像データPは歪み補正部21および表示画像作成部28だけでなく、要警戒範囲画像生成部41に対しても出力される。要警戒範囲画像生成部41は、図12等で示したように、画像データPのうち要警戒範囲31のみの画像を生成する。このために、歪み復元部27から歪みが復元された要警戒範囲31を入力し、カメラ6から画像データPを入力する。そして、画像データPのうち要警戒範囲31の領域内の画像のみを要警戒範囲画像として生成する。
要警戒範囲画像は障害物検出部42に入力される。障害物検出部42は要警戒範囲画像の中の障害物を検出する。接触を避けなければならない障害物としては主に作業員やサービスカー等が想定されるが、例えば他の作業機械等も障害物となる。障害物を検出する手法には任意の手法を用いることができる。障害物には静止状態と移動状態とがあり、静止状態の障害物を静止体、移動状態の障害物を移動体とする。
静止体を検出する手法にも任意の手法を用いることができるが、例えば画像中の輪郭や輝度、色等を複合的に判断して静止体の領域を検出する手法を用いることができる。静止体は一定の領域を有しており、当該一定の領域の輪郭が所定の形状をしている場合、輝度値が所定の値を有する場合、色が特定の色を示している場合等において、前記の一定の領域を静止体として検出することができる。
静止体を検出する具体的な手法としては、例えば背景と静止体との輪郭の情報に基づいて事前に学習した形状情報を用いてマッチングし、障害物を判定するパターンマッチング手法を用いることができる。また、特定の輝度や色情報を持つが画素のみを抽出し、抽出した画素領域の面積や周囲長、モーメントといった形状特徴を抽出し、形状を識別することにより障害物と判定する手法を用いることができる。
移動体を検出する手法にも任意の手法を用いることができ、例えば時間的に異なる画像データPを比較したときに、一定の領域が異なる位置に移動しているときには移動体が移動していることを検出する。移動体の検出には例えばブロックマッチング手法を適用することができる。このブロックマッチング手法については後述する。他にも、画像データPの各画素における明るさの空間的勾配と時間的勾配との間の関係性を用いて検出する勾配法や移動体の領域がないときの画像データと最新の画像データとの差分を検出する背景差分法、時間の異なる3枚の画像データを用いて2枚の差分画像を生成して移動体領域を検出するフレーム差分法等を用いることができる。
マスク画像生成部43はマスク画像を生成する。第1の実施形態で説明したように、要警戒範囲設定部26は画像データPの中で要警戒範囲31を設定し、それ以外の領域を警戒不要範囲32として設定している。このうち、マスク画像生成部43は警戒不要範囲32をマスク領域としたマスク画像を生成する。マスク画像は画像データPと同じサイズの画像であり、画素数も等しい。そして、マスク画像のうちマスク領域(警戒不要範囲32)とそれ以外の領域(要警戒範囲31)とが明確に区別されている。例えば、マスク画像のうちマスク領域は全て黒(画素値ゼロ)で構成し、要警戒範囲31の領域は全て白(画素値256)で構成することができる。
ずれ判定部44はマスク画像生成部43からマスク画像を入力して、ずれを判定する。ずれ判定部44には過去のマスク画像が保持されており、新しく入力したマスク画像と過去のマスク画像との比較を行う。そして、全ての画素について新しいマスク画像と過去のマスク画像との差分演算を行い、所定値以上の画素値の差分を持つ画素が所定数以上存在している場合、カメラ6にずれを生じていると判定し、それ以外の場合にはずれを生じていないと判定する。判定結果は表示画像作成部28に出力される。
次に、図14のフローチャートを用いて、第2の実施形態の動作について説明する。図14に示すステップS1乃至ステップS8は第1の実施形態と同じであるため、説明を省略する。ステップS8において、歪みが復元された要警戒範囲31が生成される。この要警戒範囲31の情報が要警戒範囲画像生成部41に入力される。要警戒範囲画像生成部41はカメラ6から画像データPを入力しており、画像データPのうち要警戒範囲31以外の領域、すなわち警戒不要範囲32を不感領域33として、不感領域33では画像データPの情報は削除されている。不感領域33は前述したマスク領域と同じ機能を持つ。ここでは、不感領域33は全て黒い画素(画素値ゼロ)で構成する(なお、図面の都合上、図15では、黒い画素を網掛けで示している)。
これにより、図15に示すような要警戒範囲画像P1が生成される(ステップS10)。この要警戒範囲画像P1には障害物として作業員Mが含まれている。要警戒範囲画像P1は画像データPとX方向およびY方向に同じ画素数を有しており、要警戒範囲31の部分には画像データPが表示されるが、不感領域33の部分には黒い画素が表示されているだけになる。不感領域33の黒い画素は、換言すればマスクであり、画像データPのうちマスクされていない領域が要警戒範囲31となる。同図に示されるように、要警戒範囲31に多数の凹凸部Rが存在し、また障害物として作業員Mが存在している。このような要警戒範囲画像P1は障害物検出部42に出力される。
障害物検出部42は要警戒範囲画像P1から障害物を検出する(ステップS11)。障害物を検出するために任意の手法を用いることができるが、ここではブロックマッチング手法を用いた場合を説明する。図16はブロックマッチング手法を用いた移動体の検出手法の一例を示している。障害物検出部42は、過去の要警戒範囲画像P1を記憶しており、最新の要警戒範囲画像P1と過去の要警戒範囲画像P1との比較を行う。ここでは、カメラ6の撮影周期の1周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1としている。
図16の例では、X方向に4画素、Y方向に4画素の合計16画素を注目領域A1とする。勿論、注目領域A1は16画素以外の画素数を採用してもよい。そして、注目領域A1を中心として、X方向に8画素、Y方向に8画素の合計64画素を検索範囲A2とする。勿論、検索範囲A2の画素数も任意に設定することができる。
障害物検出部42は、検索範囲A2を画像データPの所定位置、例えばX方向およびY方向の端部に設定する。そして、検索範囲A2の中を検索する。検索範囲A2の中の検索手法について図17を用いて説明する。検索範囲A2の中に比較領域A3を設定する。比較領域A3は注目領域A1と同じくX方向に4画素、Y方向に4画素の合計16画素を有している。そして、比較領域A3をX方向およびY方向の端部に設定する。
障害物検出部42は、過去の要警戒範囲画像P1における注目領域A1と最新の要警戒範囲画像P1における比較領域A3との対応する画素間の画素値の差分の演算を行う。注目領域A1と比較領域A3とは共に、X方向に4画素、Y方向に4画素により構成されており、注目領域A1の1つの画素と比較領域A3の1つの画素とは1:1で対応している。そこで、前述したように、対応する画素間の画素値の差分演算を行う。この演算を行うことにより、16画素分の差分値を得ることができる。そして、16画素分の差分値をそれぞれ二乗して、二乗した16個の差分値を加算する演算を行う。この演算を行うことにより得られる値を加算値とする。
障害物検出部42は、前記の加算値が所定の閾値以下であるか否かを判定する。このときの閾値は注目領域A1と比較領域A3とが同一であるとみなせるか否かを判定できる値とする。障害物検出部42は、前記の加算値が所定の閾値以下であるときには、過去の注目領域A1と最新の比較領域A3とが一致しているものと判定する。一方、それ以外の場合は、過去の注目領域A1と最新の比較領域A3とは一致していないと判定する。
過去の注目領域A1と最新の比較領域A3とが一致しており、且つ両者が検索範囲A2の中で完全に一致していなければ、注目領域A1が検索範囲A2の中で移動していることを認識することができる。図17に示すように、比較領域A3をX方向に1画素ずつずらして比較を行う。これをX方向の検索(スキャン)とする。X方向のスキャンが完了したときには、次に、比較領域A3をY方向に1画素ずらして、再びX方向のスキャンを行う。Y方向に1画素ずらしてX方向のスキャンを行うことをY方向のスキャンとする。従って、X方向およびY方向にスキャンが行なわれることになる。このスキャンの手法を3次元的に示したのが図18である。
X方向およびY方向のスキャンは、過去の注目領域A1と最新の比較領域A3とが一致することが検出されるまで行われる。従って、過去の注目領域A1と最新の比較領域A3とが一致していることが検出されれば、その時点でスキャンを終了する。一方、X方向およびY方向の全てのスキャンが完了した時点で、一致している過去の注目領域A1と最新の比較領域A3とが検出されなければ、検索範囲A2の中には移動体(障害物:作業員M)が存在していないことが認識される。
検索範囲A2は、過去の要警戒範囲画像P1が取得された時点から最新の要警戒範囲画像P1が取得されるまでの間に、作業員Mが通常に歩行したときに移動可能な限界範囲を基準として決定する。前述したように、過去の要警戒範囲画像P1は最新の要警戒範囲画像P1の1周期前の画像である。従って、カメラ6の撮影周期の1周期の間に作業員Mが通常に歩行したときの限界量を基準として検索範囲A2を設定する。
ところで、カメラ6には、撮影周期が高速な場合と低速な場合とがある。このとき、カメラ6の撮影周期が高速である場合には、作業員Mが移動していたとしても、殆ど移動していないように認識される。一方、撮影周期が低速である場合には、作業員Mが低速に移動していたとしても、高速に移動しているように認識される。そこで、カメラ6の撮影周期が高速な場合には、比較的過去の複数周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。一方、カメラ6の撮影周期が低速な場合には、比較的直近(例えば、1周期前)の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。
障害物検出部42は、要警戒範囲画像P1の全画素について検索範囲A2による検索が行われるようにする。従って、検索範囲A2がX方向およびY方向の端部にあるときに、その検索が完了すると、次に検索範囲A2のX方向の画素分(8画素)だけX方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1のX方向の全ての画素について検索が終了したときに、検索範囲A2をY方向の画素分(8画素)だけY方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1の全画素について検索範囲A2の中の検索が行われるようにする。
ここで、図16にも示しているように、要警戒範囲画像P1は障害物を検出する要警戒範囲31と不感領域33とに区別されている。障害物検出部42は要警戒範囲画像P1の中の不感領域33を認識している。つまり、不感領域33に含まれる画素を認識している。よって、障害物検出部42は検索範囲A2による検索を行うときに、不感領域33を除外して行う。これにより、要警戒範囲31に限定して障害物としての作業員Mを検出することができる。そして、障害物検出部42は、検出された障害物としての作業員Mの情報を表示画像作成部28に出力する。
表示画像作成部28はカメラ6から画像データPを入力しており、且つ障害物検出部42より障害物としての作業員Mの情報を入力している。従って、表示画像作成部28は画像データPの要警戒範囲31の中での作業員Mを認識している。表示画像作成部28は障害物を明示的に表示するために、作業員Mの周囲に障害物マーキング表示M1を重畳している。ここでは、障害物マーキング表示M1は作業員Mの周囲に形成される外接矩形となっているが、勿論矩形でなくてもよい。
障害物マーキング表示M1が重畳された画像データPを図19に示す。この画像データPが表示画像となり、モニタ9に出力される。そして、同図に示されるように、障害物としての作業員Mの周囲に障害物マーキング表示M1が重畳されていることで、オペレータは障害物マーキング表示M1に基づいて作業員Mの存在を一見して認識することができる。なお、図19で要警戒範囲31を仮想線で示しているが、この範囲内でのみ障害物の検出が行われたことを示している。モニタ9には基本的に要警戒範囲31は表示されないが、表示されるようにしてもよい。
ところで、カメラ6で取得したカメラ画像を画像処理により視点変換して、俯瞰画像化することにより周囲監視を行うようになし、この周囲監視画像をモニタ9に表示する構成は、従来から知られている。即ち、図29に示したように、所定の高さ位置にカメラ6を配置して、角度αをもって斜め下方に対物レンズの光軸CAを向けた状態で撮影すると、スルー画像Pが得られる。この角度θを持ったスルー画像Pから、同図に仮想線で示したように、仮想視点VFからスルー画像Pに対して光軸VAが垂直になるように座標変換した画像が作成される。これによって、角度αをもった斜め上方からのカメラ画像を平面視した俯瞰画像とすることができる。(なお、画像データPはスルー画像であり、このスルー画像のデータを上方視点となるように視点変換した画像は俯瞰画像である。従って、ここでは、俯瞰画像と区別するために、カメラ6から取得した画像データをスルー画像Pという。)
前述した各実施形態においてはカメラ6で取得したカメラ画像(スルー画像)を表示するようにしているが、このカメラ画像から信号処理を行って俯瞰画像化してモニタ9に表示することもできる。即ち、図30(a)に示したように、スルー画像Pを上方視点となる視点変換処理が行われる。
そして、図30(b)に示したように、ダンプトラック1に、その前部位置と、左右の両側位置と、後部位置との4箇所にそれぞれカメラを設置して、このダンプトラック1の周囲のカメラ画像を取得し、これらのカメラ画像を俯瞰画像化処理して、モニタ9に表示するに当って、ダンプトラック1の前部側カメラ,左右の両側部側カメラ及び後部側カメラについて、それぞれ各画像領域SPF,SPL,SPR,SPBにおける各俯瞰画像を取得して、モニタ9に表示することができる。なお、図30(a)には前部側カメラによる画像領域SPFが示されている。この表示の際には、ダンプトラック1を平面形状としたアイコン画像Qをモニタ9の画面の中央に配置し、このアイコン画像Qの周囲4方向に各画像領域SPF,SPL,SPR,SPBにそれぞれ対応する俯瞰画像を表示する。
このように、アイコン画像Qを中心として、その周囲に合成して周囲の状況の俯瞰画像を表示することによって、ダンプトラック1の周囲全体を俯瞰するようにして表示される監視画像が得られる。しかも、この監視画像は作業員Mを示す障害物マーキング表示M1を図30(a)のスルー画像Pと同様に表示することができ、さらに俯瞰画像のため、ダンプトラック1との相対的な位置も把握できる表示態様とすることができる。
次に、ダンプトラック1に設置しているカメラ6の視野範囲6Aにずれを生じた場合について説明する。前述したように、ダンプトラック1の振動によりカメラ6の視野範囲6Aにずれを生じる場合がある。そこで、視野範囲6Aにずれを生じているか否かを判定する。ただし、視野範囲6Aのずれには許容範囲があり、ずれ量が許容範囲を超過したときにずれが生じていると判定し、許容範囲内であればずれが生じていないと判定する。
図13に示したように、要警戒範囲設定部26から要警戒範囲31の情報がマスク画像生成部43に入力される。マスク画像生成部43は画像データPと要警戒範囲31とに基づいてマスク画像を生成する(ステップS12)。マスク画像は、図20に示すように、画像データPのうち要警戒範囲31を白い画素(画素値256)で構成し、警戒不要範囲32を黒い画素(画素値ゼロ)で構成する。
マスク画像生成部43は過去(例えば、1周期前)の画像データPおよび要警戒範囲31の情報を保持しており、過去のマスク画像を保持している。そして、最新の画像データPおよび要警戒範囲31の情報が入力されたときに、最新のマスク画像を生成する。マスク画像生成部43は過去のマスク画像および最新のマスク画像をずれ判定部44に出力する。
ずれ判定部44は、入力した過去のマスク画像と最新のマスク画像とに基づいてずれ量を算出し、算出されたずれ量に基づいて視野範囲6Aのずれが許容範囲内であるか否かを判定する(ステップS13)。このために、ずれ判定部44は過去のマスク画像と最新のマスク画像との画素の差分を演算する。
過去のマスク画像と最新のマスク画像とで要警戒範囲31が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。また、過去のマスク画像と最新のマスク画像とで警戒不要範囲32が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。一方、要警戒範囲31と警戒不要範囲32とが重複している画素の差分を演算すると、演算結果の絶対値は256になる。つまり、画素は白くなる。図20の差分画像P2は、この差分の演算を行った結果の画像になる。
視野範囲6Aにずれを生じている場合、差分画像P2に白い画素が生じる。この白い画素の画素数がずれ量を示す。つまり、視野範囲6Aに全くずれを生じていなければ、過去のマスク画像と最新のマスク画像とは完全に一致するため、要警戒範囲31と警戒不要範囲32とが重複する画素は存在しなくなる。このため、白い画素は存在しなくなる。一方、視野範囲6Aにずれを生じれば、要警戒範囲31と警戒不要範囲32とが重複している部分が存在するため、当該部分の画素は白い画素となる。
ずれ判定部44には所定の画素数が閾値として設定されており、差分画像P2の白い画素の画素数と閾値とを比較する。この閾値は視野範囲6Aのずれの許容範囲を示している。この許容範囲は任意に設定することができ、例えばオペレータの視認性に影響を与える程度のずれを許容範囲として設定することができる。そして、ずれ判定部44は、白い画素の画素数と閾値とを比較した結果、白い画素の画素数が閾値未満であれば、視野範囲6Aにずれを生じていないと判定する。一方、白い画素の画素数が閾値以上であれば、視野範囲6Aにずれを生じていると判定する。
ずれ判定部44は、ずれを生じているか否かの情報を表示画像作成部28に出力する。表示画像作成部28は、ずれ判定部44からずれを生じている旨の情報を入力したときに、ずれ情報Gを画像データPに表示する。図21はずれ情報Gが重畳された画像データPの一例を示している。ずれ情報Gは画像データPの角隅部に表示されており、カメラ6にずれが生じていることを視覚的に認識させるマークになっている。
ずれ情報Gは、カメラ6に許容範囲以上のずれが発生していることをオペレータに認識させる報知手段であり、オペレータはモニタ9に表示されているずれ情報Gに基づいて、許容範囲以上のずれを認識することができる。これを認識したオペレータは、カメラ6を正常な位置に戻すことができ、視野範囲6Aのずれを解消することができる。または、オペレータがメンテナンス要員等に連絡をすることにより、メンテナンス要員等がカメラ6を正常な位置に戻すことができる。
前述したように、視野範囲6Aにずれを生じたとしても、画像データPの中で前方構造物10と要警戒範囲31との相対位置関係は一定であるため、要警戒範囲31は常に正しく設定される。図22(a)は、エッジ抽出部23が画像データPに対してエッジ抽出処理を行い、エッジ画素が抽出された画像データPを示している。そして、構造物エッジ判定部24はハフ変換等の手法を用いて、画像データPから直線の抽出を行う。図22(b)は画像データPから直線が抽出された状態を示している。
前述した第1の実施形態では、視野範囲6Aにずれを生じていなかったため、構造物エッジ判定部24はX方向およびY方向の直線を検出していた。しかし、本実施形態では、視野範囲6Aに傾きのずれを生じているため、画像データPの中の前方構造物10にも傾きを生じている。そこで、本実施形態の構造物エッジ判定部24はX方向およびY方向から所定角度傾斜している直線も抽出する。つまり、所定角度を傾斜角θとし、抽出された直線のうち傾斜角θの範囲内の直線を抽出する。
そして、X方向から傾斜角θの範囲内で傾斜した直線のうち、最も長い直線を前方構造物10のX方向の直線が傾斜したものとして判定する。ここでは、直線L5が最も長い直線となる。次に、直線L5を画像データPの両端まで延長した直線よりも下端(画像データPのうち最もダンプトラック1に近接している端部)側で検出された直線のうちY方向からの傾斜角θの範囲内の直線を抽出する。ここでは、直線L7およびL8が抽出される。そして、直線L7およびL8を延長する。これにより、図22(b)に示したように、直線L5と直線L7、L8との4つの交点C5乃至C8が検出される。これら交点C5乃至C8がエッジ線分データとなる。
図23(a)は、エッジ線分データに基づいて、要警戒範囲31が設定されている状態を示している。視野範囲6Aに傾き方向のずれを生じていることから、要警戒範囲31も傾きを生じている。同時に、警戒不要範囲32も傾きを生じている。ただし、要警戒範囲31は全て画像データPの中に含まれている。そして、図23(a)の画像データPに対して歪み復元処理を行った画像が図23(b)に示す画像データPになる。図23(b)に示す画像データPが要警戒範囲画像生成部41に出力され、図24に示すような要警戒範囲画像が生成される。この要警戒範囲画像が障害物検出部42に出力され、障害物検出部42により作業員Mが障害物として検出される。
従って、ダンプトラック1の振動により、視野範囲6Aにずれを生じたとしても、要警戒範囲31を再び設定する必要はなく、前方構造物10に基づいて正しい要警戒範囲31が設定される。これにより、視野範囲6Aにずれを生じたとしても、要警戒範囲31に限定して障害物の検出を行うことができる。ただし、視野範囲6Aに傾きのずれを生じることで、オペレータの視認性は低下する。このような場合には、カメラ6の位置の修正を行い、傾きのずれを解消するようにしてもよい。
C:本発明の第3の実施形態
次に、第3の実施形態について説明する。本実施形態では、ダンプトラック1の走行速度に応じて、要警戒範囲31を変化させている。ダンプトラック1が停止状態の場合と低速に走行している場合と高速に走行している場合とでは、障害物を警戒すべき範囲も変化する。ダンプトラック1が停止状態のときには、それほど広範な範囲を要警戒範囲31とする必要がないが、ある程度の速度で走行しているときには、広範な範囲を要警戒範囲31とする必要がある。
そこで、図25に示すように、本実施形態では、第2の実施形態に走行速度検出部45を追加している。ダンプトラック1には走行速度を検出する手段が備えられており、検出した走行速度を要警戒範囲設定部26に出力している。要警戒範囲設定部26は入力した走行速度の情報に基づいて、要警戒範囲31の大きさを変化させている。
ここで、ダンプトラック1が停止している場合、低速または高速に走行している場合の何れの場合であっても、前方構造物10と要警戒範囲31との相対位置関係は一定である。よって、要警戒範囲31は走行速度を基準として、所定の範囲を要警戒範囲31とすることができる。具体的には、図31に示したように、要警戒範囲31の大きさを停止域から微速域における要警戒範囲311と、低速走行時の要警戒範囲312と、高速走行時の要警戒範囲313となるように変化させることができる。ここで、微速域は走行停止操作を行ったときには、ほぼその位置でダンプトラック1が停止する程度の速度である。なお、前述したダンプトラック1の作動時における要警戒範囲は警戒を必要とする範囲であり、モニタ9における画像表示範囲ではない。
D:本発明の第4の実施形態
第1の実施形態、第2の実施形態および第3の実施形態では、自走式産業機械としてダンプトラック1を適用したが、第4の実施形態では、自走式産業機械として油圧ショベルを適用している。ここでは、油圧ショベルにカメラ6を設置して、当該油圧ショベルの後方構造物50を抽出し、後方構造物50に基づいて要警戒範囲31を設定する場合を説明する。
図26は、歪み補正部21により歪み補正処理がされた画像データPを示している。油圧ショベルの後方構造物50は丸みを帯びているものが多く、画像データPの中の後方構造物50と背景との境界は所定の曲率半径で曲線性を有している。油圧ショベルの後方構造物50は背景色とは明確に異なる色に着色されている。従って、後方構造物50の輝度値と背景の輝度値とは大きく異なることになる。そこで、本実施形態では、画像データPの全画素について所定の輝度値(閾値)以上の輝度値を持つ画素を抽出する。なお、このときの閾値は、後方構造物50に着色された色を抽出できるような輝度値に設定する。
これにより、画像データPは閾値を境界にして二値化され、図27に示すように、後方構造物50を構成する画素が抽出される。ただし、後方構造物50以外にも、凹凸部Rの中に閾値以上の輝度値を有するエッジ画素が存在することもある。そこで、抽出された画素のうち画面下端に接触している画素の領域を後方構造物50として判定する。これにより、画像データPの中で後方構造物50が特定される。
図28はモニタ9に表示されている表示画像の一例を示している。後方構造物50と要警戒範囲51との相対位置関係は一定であり、画像データPの中で後方構造物50を特定することで、仮想線で示す要警戒範囲51も設定される。そして、要警戒範囲51に限定して作業員Mを障害物として検出するができる。なお、同図は、視野範囲に傾きを生じている場合を示しており、このため画面全体が傾いて表示される。そして、ずれ情報Gが画像データPに重畳される。
本実施形態では、二値化により後方構造物50を特定していたため、前述してきた平滑化処理部22、エッジ抽出部23、構造物エッジ判定部24、エッジ線分データ確定部25による各処理は不要である。ただし、所定の曲線性を有する後方構造物50を検出できるのであれば、これら各部の処理により後方構造物50を特定してもよい。また、前述してきた実施形態、つまりダンプトラック1において、前方構造物10を特定するときに、本実施形態のように二値化の手法を用いてもよい。
なお、前述した各実施形態において、モニタ9に表示される画像はカメラ画像そのものであっても良く、また図29の原理に基づいて視点変換処理を行って俯瞰画像として表示することもできる。