JP6868996B2 - 障害物検知システム及び建設機械 - Google Patents

障害物検知システム及び建設機械 Download PDF

Info

Publication number
JP6868996B2
JP6868996B2 JP2016201467A JP2016201467A JP6868996B2 JP 6868996 B2 JP6868996 B2 JP 6868996B2 JP 2016201467 A JP2016201467 A JP 2016201467A JP 2016201467 A JP2016201467 A JP 2016201467A JP 6868996 B2 JP6868996 B2 JP 6868996B2
Authority
JP
Japan
Prior art keywords
detection
detection unit
unit
obstacle
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016201467A
Other languages
English (en)
Other versions
JP2018064191A (ja
Inventor
和也 杉本
和也 杉本
川股 幸博
幸博 川股
善文 福田
善文 福田
古渡 陽一
陽一 古渡
舜 辻村
舜 辻村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2016201467A priority Critical patent/JP6868996B2/ja
Publication of JP2018064191A publication Critical patent/JP2018064191A/ja
Application granted granted Critical
Publication of JP6868996B2 publication Critical patent/JP6868996B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、不整地環境下においても障害物の誤検知や未検知を低減することができる障害物検知システム及びそれを備えた建設機械に関する。
オペレータの運転を支援する車載システムの一つに、自車と自車周囲に存在する障害物の接触を防止すべく、自車に搭載したカメラ(車載カメラ)の映像を用いて障害物検知を行い、オペレータに危険予知を促す障害物検知システムがある。中でも、特開2004−341979号公報(特許文献1)では、対象物(障害物)が低解像度で撮影された場合やエッジ情報を有しない場合でも対象物を検出できるようにするために、画像情報入力部から所定時間経過ごとに入力される画像上に、比較領域設定部によって比較領域を設定し、その後、障害物検出部において各比較領域の特徴量を計測し、道路前方の変化を時間経過ごとの特徴量の差分値を算出し、これによって障害物の有無を判定する障害物検出装置が記載されている(要約参照)。
特開2004−341979号公報
車載カメラを用いた障害物検知システムを、鉱山向けダンプ(以下、鉱山ダンプという)等の建設機械に適用する場合、不整地環境下において障害物検知の処理が行われる。そのため、建設機械が発生する振動や塵埃又は白煙等による映像中の微小なゆれ、或いは轍や落石といった障害物の特徴と似た地面模様など、障害物の誤検知の要因が多数発生する環境下で、オペレータが障害物検知システムを用いることになる。以下、不整地環境下において障害物の誤検知を招く上述したような要因を、不整地環境下における誤検知要因と呼ぶこととする。
特許文献1の障害物検出装置のような従来の障害物検知システムを不整地環境下で使用する場合は、不整地環境下における誤検知要因の影響を緩和すべく、対象物を移動物体としてみなすための移動量の閾値を比較的大きく設定する必要がある。そのため、従来の障害物検知システムを不整地環境下で使用する場合、動きが速い対象物しか検知できず、映像中を低速で移動する対象物や静止した対象物は未検知となる。さらには、路面が舗装された環境では発生しにくい轍や落石といった、障害物の形状や色特徴と似た地面模様を車両や人などの障害物として誤検知することが考えられる。
以上より、従来の障害物検知システムを鉱山ダンプ等の建設機械に適用した場合、オペレータは上述した未検知や誤検知が発生する状況下で作業を行なわなければならない。そのためオペレータには、誤検知による作業への注意分散や、未検知による障害物との接触事故を回避し、作業上の安全を確保するための多大な労力が必要とされる。
本発明の目的は、不整地環境下においても障害物の誤検知や未検知を低減することができる障害物検知システムを提供することにある。
上記目的を達成するために、本発明の障害物検知システムは、
車両の周囲の少なくとも一部の範囲を撮影するカメラと、前記カメラで撮影される映像に基づいて対象物を検知する障害物検知部と、前記障害物検知部により検知された対象物を表示する映像表示機器と、を備えた障害物検知システムにおいて、
前記障害物検知部は、
前記カメラで撮影した映像内に存在する所定速度以上の対象物について、前記映像内の輝度変化に基づいて前記対象物の位置情報を含む移動情報を検知する第1検知部と、
前記第1検知部で検知した前記対象物の前記位置情報に基づいて前記対象物が存在する対象領域を設定する対象領域設定部と、
前記対象領域設定部で設定した対象領域内に存在する前記所定速度に比べて小さい速度の対象物について、特徴部の変化に基づいて前記対象物の移動情報を検知する第2検知部と、を有し、
前記第1検知部及び前記第2検知部の両方で検知を行っている際に、
前記第1検知部で検出された対象物の移動速度が前記所定速度以上である通常移動状態の場合には、前記第2検知部による当該対象物の検知処理を停止して、前記第1検知部により検知された当該対象物を前記映像表示機器に表示させ、
前記第1検知部で検出された対象物の移動速度が前記所定速度に比べて小さい速度である微小移動状態の場合には、前記第1検知部により検知された対象物を非表示とし前記第2検知部により検知された対象物を前記映像表示機器に表示させる。
本発明によれば、不整地環境下においても障害物の誤検知や未検知を低減することができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る障害物検知システムの一実施例を示す構成図である。 本発明の一実施例に係る鉱山ダンプの構成を示す図である。 前カメラが撮影した映像と障害物検知システムにて検知した結果の合成映像を作成する例を示す図である。 障害物検知システムにおける処理の流れを示す図である。 第1検知部における処理の流れを示す図である。 現在と過去のカメラ映像の比較を示す図である。 第1検知部における処理を実行している際の様子を示す図である。 第2検知部における処理の流れを示す図である。 第2検知部における処理を実行している際の様子を示す図である。 第1検知および第2検知の検知結果を出力した図である。 実施例3の第1検知部における処理の流れを示す図である。 実施例4の第1検知部における処理の流れを示す図である。
以下、本発明に係る実施例に関して図面を用いて説明する。
本発明に係る実施例は、鉱山ダンプ向け障害物検知システムにおいて、鉱山ダンプの周囲或いは周囲の一部の範囲に存在する車両や人などの障害物を検知する際に、第1検知部(第1検知手段)及び第2検知部(第2検知手段)を用いることで、映像上の複数対象物検知を高速かつ正確に行うことができる。
なお、本発明に係る実施例では鉱山ダンプ向けの障害物検知システムに焦点を絞って説明する。しかし、本発明に係る障害物検知システムは、鉱山ダンプのみを対象にしたものではなく、いずれの車体又は車両にも適用することができる。さらに本発明に係る障害物検知システムは、鉱山ダンプや油圧ショベル等の建設機械を含む大型作業機械に適用することで、より大きな作用効果が得られる。
また、以下では1台のカメラより得られた映像を用いた障害物検知システムの説明を行なうが、以下で説明する検知処理の内容は1台のカメラを用いる場合に限定されるものではない。車両の周囲を全周に亘って監視するためには、車体の前後左右にカメラを設置することが好ましく、少なくとも4台のカメラを用いる構成が好ましい。そのため、2台以上の複数台のカメラを用いる構成であってもよいし、4台よりも多い5台以上のカメラを用いる構成であってもよい。
[実施例1]
本発明の一実施例に係る障害物検知システム(監視システム)の構成を、図1を用いて説明する。図1は、本発明に係る障害物検知システムの一実施例を示す構成図である。
障害物検知システムは、鉱山ダンプの前方を撮影する前カメラ100を備える。本実施例では、前カメラ100で撮影した映像を映像入力部(映像入力手段)104にそれぞれ送出する。
映像入力部104は、前カメラ100で撮影された前カメラ映像300(図3参照)を取得し、前カメラ映像300を障害物検知部(対象物検知部)105及び合成映像構築部(合成映像構築手段)113に送出する。
障害物検知部105は、自車両情報入力部(自車両情報入力手段)106、第1検知部(第1検知手段)107、第2検知部起動判定部(第2検知部起動判定手段)108、対象領域設定部(対象領域設定手段)109、第2検知部(第2検知手段)110、出力結果選択部(出力結果選択手段)111および記憶部112を備える。障害物検知部105が備える各処理部の機能については、後で詳細に説明する。
検知システムの起動直後を除き、前回の検知処理にて取得した、前カメラ映像300の映像は保存される。このために本実施例では、障害物検知部105に記憶部112を備える。記憶部112は前カメラ100に対して設けられる映像入力部104に設けてもよい。なお、図6では前回の検知ステップで取得した前カメラ映像を、前カメラ過去映像300’として例示している。
合成映像構築部113は、第1検知部107および第2検知部110における処理の終了後に出力結果選択手段111より取得した対象物の検知位置を映像中に重畳表示し、図3に例示した合成映像303を出力部(出力手段)114に送出する。なお、第1検知部107、第2検知部110の処理内容については後ほど詳述する。また、出力部114は、ディスプレイ等の映像表示機器を備えており、合成映像構築手部113から入力した合成映像303をオペレータに対して提示する。
次に、本実施例の鉱山ダンプ200の概要を、図2を用いて説明する。図2は、本発明の一実施例に係る鉱山ダンプの構成を示す図である。
鉱山ダンプ200には、鉱山ダンプ200の操作機能や状態表示機能を備えるコックピット201内に配置された障害物検知端末202と、鉱山ダンプ200の前方に配置された前カメラ100が装備されている。前カメラ100は鉱山ダンプ200の前方を撮影する。
前カメラ100は、障害物検知端末202に接続されている。なお図3に示すように、前カメラ100は、地表面を主に撮影するために、俯角をつけて取り付けられている。
前カメラ100の撮影映像および障害物検知部105にて検知した結果の合成映像の例を、図3を用いて説明する。
ここで、前カメラ映像300は前カメラ100の撮影映像例を示している。
前カメラ映像300は、広角カメラを用いて撮影しているため遠方、すなわち映像内では向かって上部に映し出されている地平線が湾曲して見えている。また、近傍、すなわち映像内では向かって下部に、自車(鉱山ダンプ)200の一部が映っている。またここでは例として、前カメラ映像300内に障害物(自動車)301を例示している。
なお図3に示すように、前カメラ映像300内には前方抽出領域304が設定される。また後述する処理により合成映像303を構築するが、合成映像303内の障害物301には強調表示用マーカー305による強調表示を行う。
上述のシステム構成において、第1検知部107および第2検知部110を用いて対象物を検知し、結果表示するまでの流れを、図4を用いて説明する。図4は、障害物検知システムにおける処理の流れを示す図である。
障害物検知システムは、動作を開始すると、最初にステップ401の処理を行う。ステップ401では、映像入力部104より前カメラ映像300を取得する。この例における前カメラ映像の様子は図3の前カメラ映像300に示した通りである。またここでは、前回の検知にて映像入力部104より取得し使用した過去映像を、記憶部112から同時に取得する。カメラ映像取得後、処理をステップ402に移す。
ステップ402では、障害物検知部105が前カメラ映像300を入力とし、第1検知部107および第2検知部110を用いて映像中の車両や人といった障害物の検知処理を実行した後、検知結果が存在する場合は検知位置座標を出力結果選択部111から出力する。この後、処理をステップ403に移す。
ステップ403では、第1検知部107および第2検知部110での処理を終了し、ステップ404に処理を移す。
ステップ404では、ステップ402における第1検知部107および第2検知部110の検知処理結果の有無を判定する。判定の結果、前カメラ映像300内にて障害物を検知している場合は、障害物の位置座標とそれぞれの検知結果が第1検知部107および第2検知部109のどちらの手段にて検出されたものかの情報を保持した上でステップ405に処理を移し、それ以外の場合はステップ406に処理を移す。
本システムでは第2検知部110が起動している場合、同時に第1検知部107も起動している。そのため、ステップ406の合成映像構築処理では、1つの検知対象物に対して、状態の異なる検知結果を示すアイコンが複数描画される可能性がある。この場合、本来は1つである対象物に対し、オペレータは映像上で複数の対象物が移動または静止していると誤認識することになり、対象物への注意が分散される。
そこでステップ405では、合成映像303上に重畳表示する検知結果を選択する。ここでは、第2検知部110により得られた検知結果が存在する場合、図6に示す第2検知対象領域703の領域内に発生している第1検知部107の検知結果(第1検知結果領域)702を出力より除外し、処理をステップ406に移す。ただしこれは一例であり、前述した映像中の微小なゆれを移動体として誤検知せぬよう、ある程度以上の移動速度で移動する対象物のみを検知可能なように、予め第1検知部107の検知パラメータを調整してもよい。
本実施例では、第1検知部107で検出される対象物は移動速度に依存して合成映像303への表示と非表示が選択される。これにより、不整地環境下における誤検知要因の影響を受けて誤検知される対象物の表示は行わないようにして、不整地環境下における誤検知要因の影響を受け易い微小な速度で移動する対象物を正確に表示することができる。
ステップ406では、合成映像構築部113により合成映像を構築する。合成映像例は、図3における合成映像303に示した通りである。ここで、先のステップ402の処理において図3に示す障害物301の位置座標を取得している場合は、この位置座標に図3に示す強調表示用マーカー305による強調表示を行う。なお、検知結果の表示方法に関しては、本実施例の最後に詳述する。この後、処理をステップ407に移す。
ステップ407では、合成映像303を出力部114に対して送出し、処理をステップ408に移す。
ステップ408では、システムの終了要求があるか否かを判定する。終了要求がある場合は処理を終了し、それ以外の場合は処理をステップ401に戻し、再度検知処理を行う。
以下では、第1検知部107、対象領域設定部109、第2検知部110による検知処理内容の詳細を、図5〜図9を用いて説明する。なお以降では対象物の移動速度に応じて以下3つの状態を定義する。
(1)通常移動状態:対象物の速度が塵埃、自車振動を含む微小なゆれによる誤検知の影響を受けない速度域(不整地環境下における誤検知要因の影響を受けない速度域)で移動している際に、これを通常移動状態と呼称する。
(2)微小移動状態:対象物の速度が塵埃、自車振動を含む微小なゆれによる誤検知の影響を受ける低速度域(不整地環境下における誤検知要因の影響を受ける速度域)で移動している際に、これを微小移動状態と呼称する。
(3)静止状態:第1検知部107にて捕捉されておらず、第2検知部110による移動量の算出結果がない(移動量=0)の場合は、対象物は静止していると判断し、これを静止状態と呼称する。
図5を用いて、第1検知部107の処理について説明する。図5は、第1検知部における処理の流れを示す図である。
ここでは例として、図6に例示した通り、前カメラ映像300の前方抽出領域304内に存在する前方対象物700を、第1検知部107および第2検知部110を用いて検知する。
第1検知部107は、動作を開始すると、最初に図5中のステップ500の処理を行う。ステップ500では、検知対象映像を取得する。検知対象映像は、前述した通り、映像入力部104から入力された前カメラ映像300および前カメラ過去映像300’に例示したような前回の検知処理の際に使用した過去映像である。検知対象映像取得後、ステップ501の処理を行う。
ステップ501の処理では、自車情報を取得する。ここでは、自車(鉱山ダンプ)の現在の移動速度(車速)およびステアリング角度を取得する。移動速度は自車に備えられた車速センサ115(図1参照)から自車両情報入力部106に入力される。ステアリング角度は自車に備えられたステアリング角度センサ116(図1参照)から自車両情報入力部106に入力される。自車情報取得後、ステップ502の処理を行う。
ステップ502の処理は、第1検知部107での処理内容を示している。第1検知部107は、例えば前カメラ映像中で設定した前方抽出領域304(図6参照)の全域に対し、移動物体が存在するか否かの検知を行う。ここで、第1検知部107では、前方抽出領域304の全域から対象物の検知を行う。この場合、実時間で結果を出力するため、比較的高速に移動物体を検知可能な画像処理手法を用いる必要がある。ここでは例として、オプティカルフローを利用して映像中の移動物体を検知する。このオプティカルフローは、連続する映像においてフレーム間の輝度変化を算出することで、動きベクトルを概算する手法である。本実施例では、この映像内の動きベクトルの中から、車両や人などによって生成されるものと同等の大きさや速度を持つ動きベクトルを抽出し、この結果から得られた領域を移動物体とみなす。加えてここでは、ステップ501の時点で自車速度が0kmより大きい場合は、その時点でのステアリング角度情報と自車速度情報(車速情報)をもとに、自車移動により映像上で見かけ上発生しているオプティカルフローの減算処理を行なう。
上述したように第1検知部107は、対象物の位置、速度および移動方向を含む移動情報を検出する。
以下、図5と共に図6および図7を用いて、第1検知部107における対象物検知について説明する。図6は、現在と過去のカメラ映像の比較を示す図である。図7は、第1検知部における処理を実行している際の様子を示す図である。
ここでは例として、前カメラ映像300の検知領域内にて前方対象物700(自動車)が移動する場面を示している。前方拡大映像701は前カメラ映像300の前方抽出領域304内における前方対象物700付近の拡大映像を表している。また、前方拡大過去映像701’は前カメラ過去映像300’の前方抽出領域304内における検知対象700付近の拡大映像を表している。ここでは前カメラ過去映像300’と前カメラ映像300との前方抽出領域304内における輝度変化から前方対象物700の移動ベクトルを算出する。
ステップ502での第1検知部107による移動体検知処理終了後、ステップ503へ処理を移行する。
ステップ503では、ステップ502にて得られた移動ベクトルのうち、通常移動状態となる移動速度を示す情報(所定の閾値以上の速度を示す情報)のみを集約し、集約した結果得られた領域の位置情報を抽出した後、処理をステップ504に移行する。
ステップ504の処理は、対象領域設定部109にて実行する内容を示している。ここでは、ステップ503にて取得した位置情報のうち、隣接する1つまたは複数の第1検知結果領域702を統合し、第2検知対象領域703を算出する。またここでは、前回の検知処理にて取得した第2検知対象過去領域703’と、今回の処理で取得した第2検知対象領域703とが重複していた場合は、第2検知対象領域703と第2検知対象過去領域703’とが同じ対象物を捉えていると判断できる。そこで、第2検知対象過去領域703’を消去し、今回新たに算出した第2検知対象領域703を第2検知部の対象領域情報として更新する。ステップ504終了後、ステップ505に処理を移行する。
ステップ505は第2検知部起動判定部108での処理を示している。前回の処理において取得した第2検知対象過去領域703’が現時点で存在する場合は、第2検知対象過去領域703’が第2検知対象領域703に更新されなかったことを意味する。第1検知部107は通常移動状態となる移動速度を示す情報を抽出するため、対象物が通常移動状態から微小移動状態に変化した場合、第1検知部107が第2検知対象領域703を検知することはない。このため、第2検知対象過去領域703’に重複する第2検知対象領域703が存在しなくなる。従って、前回の処理において取得した第2検知対象過去領域703’が現時点で存在する場合は、対象物が通常移動状態から微小移動状態に変化したと判断し、第2検知部110を起動すべくステップ506に処理を移行する。
ステップ506で第2検知部を起動し、第2検知部の処理を実行する。処理の内容に関しては図8に示しており、詳細は後述する。
他方、第2検知対象過去領域703’がステップ504にて消去され、第2検知対象領域703に更新されている場合はステップ507に処理を移す。
ステップ507では、前回の処理において第2検知対象過去領域703’を検知範囲とし、後述する第2検知部110が既に起動していた場合は処理をステップ508に移行する。
ステップ508では、第2検知部が起動している状態で第2検知対象過去領域703’に重複する第2検知対象領域703が存在すようになったことから、対象物は微小移動状態から通常移動状態に変化したと判断し、第2検知対象過去領域703’を検知範囲とした第2検知部110を停止する。ステップ508終了後、処理を図4のステップ403に移行する。
一方、ステップ507にて第2検知手段が起動していないと判断された場合は、対象物は通常移動状態であり、第1検知部107のみで捕捉可能であると判断し、図4のステップ403に処理を移行する。
ステップ506による第2検知部110の起動後、図8に示すステップ600から処理を行う。図8は、第2検知部における処理の流れを示す図である。
ステップ600では、第2検知部110の処理を実行するために、検知の対象となる映像を取得する。検知の対象となる映像は、前述した通り、映像入力部104から入力される前カメラ映像300である。また、前回の検知処理の際に使用した過去映像も同時に取得する。ステップ600での映像取得後、ステップ601に処理を移行する。
ステップ601では、ステップ503の処理の時点で取得済みの第2検知対象領域703の位置にもとづき、前カメラ映像300内での検知範囲を絞り込む。ステップ601実行後、ステップ602に処理を移行する。
ステップ602では上述の処理にて絞り込んだ検知領域内のエッジ、コーナーといった画像特徴量(映像の特徴部)の時間変化を算出することで、対象物の微小移動量を検知する。ここでは例として、KLT Tracker (Kanade-Lucas-Tomasi feature Tracker)を利用して映像中の微小移動量を算出する。KLT Trackerは、時間的に連続する映像内におけるコーナー特徴点のフレーム間差分を算出することで、各特徴点の動きベクトルを取得する手法である。本実施例では、これらコーナー特徴点の動きベクトルを用いて対象物の微小移動量を算出する。
ここで、第2検知部110を用いた検知について、図9を用いて説明する。図9は、第2検知部における処理を実行している際の様子を示す図である。
ここでは例として、前カメラ映像300の検知領域内で前方対象物700(自動車)が微小移動する場面を示している。また、第2検知領域拡大映像800は前カメラ映像300における第2検知手段対象領域703の拡大図を表している。前述した通り、第2検知部110では第2検知領域拡大映像800内のコーナー特徴点801、エッジ情報802といった画像特徴量の時間変化を追跡することで、対象物の微小移動量を算出する。対象物の微小移動量算出後、処理をステップ603に移す。
ステップ603では、ステップ602にて求めた対象物の微小移動量が存在する(移動量=0以外)場合は、微小移動有りと判断し、処理をステップ604に移行する。一方、微小移動量がない(移動量=0)の場合は、処理をステップ605に移行する。
ステップ604では、ステップ602で算出した微小移動量にもとづき第2検知対象領域703を移動させる。その後、処理をステップ606に移す。
ステップ606では、現在の第2検知対象領域703の位置情報を取得し、第2検知対象領域有りとした状態で図4におけるステップ403に処理を移す。
ステップ605では、微小移動量が存在しない(移動量=0)静止状態が、第2検知部110の起動後2分未満の場合は処理をステップ606に移す。他方、静止状態が2分以上継続している場合は、捕捉している対象物が人や車両以外の、轍、落石といった障害物の形状や色特徴と似た地面模様を誤検知していると判断し、第2検知対象領域情報を削除後、処理をステップ608に移す。
ステップ608では、第2検知対象領域無しとした状態で、図4におけるステップ403に処理を移す。ステップ403以降の処理は前述した通りである。
このように本実施例では、自車周囲の検知エリア内に侵入した車両や人などの対象物を検知する第1検知部における検知処理と、その対象物の移動速度が塵埃または自車振動による微小なゆれによる影響を受ける微小移動状態に変化した場合に、その変化した位置付近に領域を絞り、その絞った領域に対して対象の特徴量差分を用いた第2検知部における検知処理とを実行する。これにより、塵埃または自車振動による微小なゆれや地面模様など検知対象と似た特徴の物体が存在する環境下で車両または人のみを検知することができ、未検知および誤検知の少ない障害物検知を高速に実行可能である。
[実施例2]
本実施例では、映像中に存在する複数の対象物が第1検知部107または第2検知部110にて捕捉されている場合の、障害物検知システムについて図10を用いて説明する。図10は、第1検知および第2検知の検知結果を出力した図である。
本実施例における障害物検知システムの構成は図1と同等である。本実施例における処理の流れは図4と概ね同等であるが、ステップ406における検知結果の表示手段が実施例1と異なる。この異なる部分について以下説明する。
障害物検知システムでは、第1検知部107および第2検知部110にて対象物を検知した後、検知結果をオペレータに通知するために、図4のステップ406において図10に示すような対象物の強調表示の設定を行う。この強調表示は、移動体検知マーカー903、微小移動体検知マーカー904および静止対象物検知マーカー905を用いて行われる。
ここでは、合成映像303において、前カメラ映像300内には通常移動状態の前方対象物900、微小移動状態の右側方対象物901、静止状態の対象物902が存在する。本システムでは、第1検知部107および第2検知部110を用いることで、様々な速度で移動または静止する車両や人などの対象物を捕捉している。そのためここでは例として、実施例1にて定義した通常移動状態、微小移動状態または静止状態の3つの状態によって強調表示手法を区別する。
図10の例では、上記3つの状態の対象物領域に太線の円を付してマーキングしている。さらに対象物が移動している場合は、円の中にその対象物の移動方向を示す矢印を描画する。ここでは、第1検知部107および第2検知部110の算出結果が示す移動方向の最頻値を対象物の移動方向として使用する。一方、対象物が静止している場合は、円の中に横線を描画した静止対象物検知マーカー905でマーキングすることで静止状態を示す。
また、対象物が移動しており第1検知部により捕捉されている場合は、黒で塗りつぶした矢印を用いた移動体検知マーカー903でマーキングすることで、対象物の進行方向を示す。また、第2検知部110により捕捉されている場合は、白で塗りつぶした矢印を用いた微小移動体検知マーカー904でマーキングすることで、対象物の進行方向および微小移動状態を示す。
このように各対象物の移動状態により表示系を区別することで、対象物の今後の移動方向や存在位置を予測させ、オペレータが次に取るべき行動を迅速に判断できるよう作業を促進する。
上述した各マーカー903,904,905は、移動状態、微小移動状態または静止状態の3つの状態が区別でき、移動方向を判断できるものであれば、図10に示したマーカー以外のマーカーを用いてもよい。しかし、図10に示したマーカーは比較的単純な図柄で3つの状態と移動方向とを判断できるため、オペレータが対象物の状態を判断することが容易である。
[実施例3]
本実施例では、映像中の対象物を第1検知部107および第2検知部110にて捕捉している場合の、障害物検知システムについて説明する。
本実施例における障害物検知システムの構成は図1と同等である。本実施例における処理の流れは図4と同等である。一方、第1検知部107の検知フローを示す図5のステップ504における第2検知部起動判定部108の処理が実施例1と異なる。この異なる部分について以下説明する。
対象物が塵埃または自車振動による微小なゆれの影響を受ける低速度域の境界付近の速度にて移動している場合、第2検知部起動判定部108の判定結果がフレームごとに変化し、第2検知部110がフレーム間で起動または停止を繰り返す。
そこで本実施例では、第2検知部起動判定部108の判定履歴を保持する処理を行う。判定履歴は記憶部112に保持する。判定履歴を保持した上で、上記対象物の領域付近において、短い時間に繰り返し判定結果が変化している場合は、この領域付近では一定時間第2検知部110の起動を行わないようにする。
図11は、実施例3の第1検知部における処理の流れを示す図である。
本実施例では、例えば、ステップ509において、予め設定された所定時間の間に第2検知部110の起動判定が繰り返し変化しているかどうかを判定し、変化していない場合はステップ506に進み、変化している場合はステップ506をスキップして検知処理を終了する。起動判定の繰り返し回数は適宜設定し、記憶部112に保持する。これにより、第2検知部の不要な起動、停止の繰り返しを避けることが可能となるため、検知システム全体の処理を高速化することができる。
[実施例4]
本実施例では、映像中の対象物が微小移動する際に、第2検知部110が起動した場合の障害物検知システム例について説明する。
本実施例の障害物検知システムの構成は、図1と同等である。また、本実施例における処理の流れも図4と同等である。一方、第2検知部起動判定部108の処理に該当する図5のステップ504が実施例1と異なる。この異なる部分について説明する。
本実施例では対象物の移動速度が、塵埃または自車振動による微小なゆれの影響を受ける低速度域に減速した場合、ステップ504にて第2検知部110の起動判定を行なう際に、対象物の過去の移動速度履歴を参照する。このために移動速度履歴は記憶部112に記憶される。
第1検知部107では、実施例1にて説明した通り、オプティカルフローを利用して映像中の移動物体の動きベクトルを概算している。このため、第1検知部107で算出した動きベクトルと、前カメラ300のカメラパラメータから算出可能な1画素あたりの実空間上での距離にもとづき、実空間上での対象物の移動速度が概算可能である。そのため各検知ステップ間において対象物の移動速度を算出し、算出した移動速度情報を蓄積することで対象物の移動速度履歴情報を取得可能である。
一般的に走行中の車両が停止する際には、車両が急停止や急旋回を行なわない限り、車両は徐々に減速し、直前の進行方向と同じ方向で停止する。そこで、ステップ504にて第2検知部起動判定部108を実行する際に、移動履歴を参照することで、直前の移動速度情報と比較した場合に、対象物の有り得ない急減速または有り得ない急旋回による移動速度の急激な低下があり、これによって、第2検知部110が起動したと確認した場合は、第2検知部110の起動を中止する。このために、移動速度の有り得ない急激な低下を判定するための速度変化の閾値を記憶部112に設定しておくとよい。
図12は、実施例4の第1検知部における処理の流れを示す図である。
本実施例では、例えば、ステップ510で対象物の移動速度が急激に低下したか、または移動方向が急激に変化したかを判定し、移動速度の急激な低下または移動方向の急激な変化があった場合はステップ506をスキップして第2検知部110の起動を中止し、移動速度の急激な低下および移動方向の急激な変化が無い場合はステップ506に進む。
以上の処理を行うことで、第2検知部110を起動したことを原因とする誤検知が低減可能となり、オペレータは対象物に対して不要な注意を払う必要がなくなる。
上述した各実施例では、移動している対象物が静止した際に発生する未検知を低減でき、さらには轍、落石などの地面模様の誤検知を低減することが可能となる。これにより、オペレータは誤検知した対象物に不要な注意を払う回数が減少する。そのため、本来の作業に集中することができ、作業効率が向上する。また、未検知によって障害物との接触事故を起こす可能性を低減することで作業の安全性が向上する。
例えば鉱山ダンプのような大型の建設機械(作業機械)では、前カメラ100の設置高さが高くなる。このため、数キロメートル先の遠方に存在する対象物はフレーズ間で動きが無いように見える。このため、不整地環境下における誤検知要因が存在する中で遠方の対象物を正確に検知することは難しい。このような状況で遠方の対象物を正確に検知しようとすると、システムが大掛かりになりコストもかさむ。上述した本発明に係る実施例では、前カメラ100の設置高さが高い場合であっても、不整地環境下において遠方の対象物を正確に検知することが可能になる。
なお、本発明は上記した各実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100…前カメラ、104…映像入力部、105…障害物検知部、106…第1検知部、107…対象領域設定部、108…第2検知部起動判定部、109…第2検知部、112…記憶部、113…合成映像構築部、114…出力部、200…鉱山ダンプ(自車)、300…前カメラ映像、301…検知対象物、303…合成映像、305…強調表示用マーカー、700…前方対象物、701…前方拡大映像、701’…前方拡大過去映像、702…第1検知結果領域、702’…第1検知結果過去領域、703…第2検知対象領域、703’…第2検知対象過去領域、800…第2検知対象領域拡大映像、801…コーナー特徴点、802…エッジ情報、903…移動体検知マーカー、904…微小移動体検知マーカー、905…静止対象物検知マーカー。

Claims (7)

  1. 車両の周囲の少なくとも一部の範囲を撮影するカメラと、前記カメラで撮影される映像に基づいて対象物を検知する障害物検知部と、前記障害物検知部により検知された対象物を表示する映像表示機器と、を備えた障害物検知システムにおいて、
    前記障害物検知部は、
    前記カメラで撮影した映像内に存在する所定速度以上の対象物について、前記映像内の輝度変化に基づいて前記対象物の位置情報を含む移動情報を検知する第1検知部と、
    前記第1検知部で検知した前記対象物の前記位置情報に基づいて前記対象物が存在する対象領域を設定する対象領域設定部と、
    前記対象領域設定部で設定した対象領域内に存在する前記所定速度に比べて小さい速度の対象物について、特徴部の変化に基づいて前記対象物の移動情報を検知する第2検知部と、を有し、
    前記第1検知部及び前記第2検知部の両方で検知を行っている際に、
    前記第1検知部で検出された対象物の移動速度が前記所定速度以上である通常移動状態の場合には、前記第2検知部による当該対象物の検知処理を停止して、前記第1検知部により検知された当該対象物を前記映像表示機器に表示させ、
    前記第1検知部で検出された対象物の移動速度が前記所定速度に比べて小さい速度である微小移動状態の場合には、前記第1検知部により検知された対象物を非表示とし前記第2検知部により検知された対象物を前記映像表示機器に表示させること特徴とする障害物検知システム。
  2. 請求項1に記載の障害物検知システムにおいて、
    記第1検知部における前回の検知処理で設定された対象領域と今回の検知処理で設定された対象領域とが対応する場合で、かつ既に前記第2検知部による検知処理が起動している場合に、前記第2検知部による検知処理を停止すること特徴とする障害物検知システム。
  3. 請求項2に記載の障害物検知システムにおいて、
    記第2検知部の検知処理の起動と停止とが連続的に繰り返された場合に、前記第2検知部の検知処理を停止することを特徴とする障害物検知システム。
  4. 請求項1に記載の障害物検知システムにおいて、
    前記第1検知部が検知する前記移動情報は位置情報の他に移動速度情報を含み、
    記第2検知部を起動する際に、前記第1検知部から取得した前記対象物の移動速度の履歴を参照し、前記対象物の移動速度が予め設定された閾値を超えて急激に低下している場合は、前記第2検知部の検知処理を中止することを特徴とする障害物検知システム。
  5. 請求項1に記載の障害物検知システムにおいて、
    前記第1検知部により検知した対象物と前記第2検知部により検知した対象物とを合成した合成映像を生成する合成映像構築部をえることを特徴とする障害物検知システム。
  6. 請求項5に記載の障害物検知システムにおいて、
    前記第1検知部が検知する前記移動情報は位置情報の他に移動速度情報と移動方向情報とを含み、
    前記第2検知部が検知する前記移動情報は位置情報、移動速度情報及び移動方向情報を含み、
    前記合成映像構築部は、前記合成映像に表示される対象物に、移動速度情報及び移動方向情報を併せて表示することを特徴とする障害物検知システム。
  7. 障害物検知システムを備えた建設機械において、
    前記障害物検知システムとして請求項1に記載の障害物検知システムを備えたことを特徴とする建設機械。
JP2016201467A 2016-10-13 2016-10-13 障害物検知システム及び建設機械 Active JP6868996B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016201467A JP6868996B2 (ja) 2016-10-13 2016-10-13 障害物検知システム及び建設機械

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016201467A JP6868996B2 (ja) 2016-10-13 2016-10-13 障害物検知システム及び建設機械

Publications (2)

Publication Number Publication Date
JP2018064191A JP2018064191A (ja) 2018-04-19
JP6868996B2 true JP6868996B2 (ja) 2021-05-12

Family

ID=61968071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016201467A Active JP6868996B2 (ja) 2016-10-13 2016-10-13 障害物検知システム及び建設機械

Country Status (1)

Country Link
JP (1) JP6868996B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949685B2 (en) 2019-07-22 2021-03-16 Caterpillar Inc. Excluding a component of a work machine from a video frame based on motion information

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036301B2 (ja) * 1993-06-14 2000-04-24 スズキ株式会社 無人車両用障害物検出装置
JP2004086778A (ja) * 2002-08-28 2004-03-18 Just Syst Corp 電子名刺提供方法および装置
WO2009078056A1 (ja) * 2007-12-14 2009-06-25 Fujitsu Limited 移動物検知装置及び移動物検知プログラム
JP2012195887A (ja) * 2011-03-17 2012-10-11 Toshiba Corp 道路撮影システム
WO2014073571A1 (ja) * 2012-11-08 2014-05-15 日立建機株式会社 自走式産業機械の画像処理装置および自走式産業機械の画像処理方法
JP6065629B2 (ja) * 2013-02-13 2017-01-25 日産自動車株式会社 物体検知装置

Also Published As

Publication number Publication date
JP2018064191A (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
EP2937811B1 (en) Vehicle peripheral obstacle notification system
US10810446B2 (en) Parking space line detection method and device
JP6532229B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
EP2578464B1 (en) Video-based warning system for a vehicle
JP5421072B2 (ja) 接近物体検知システム
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US10866416B2 (en) Display control device and display control method
JP5907700B2 (ja) 画像処理装置、車両システム、及び、画像処理方法
JP2005309797A (ja) 歩行者警報装置
CN107004250B (zh) 图像生成装置及图像生成方法
CN107924265B (zh) 显示装置、显示方法以及存储介质
JP6084048B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
WO2017022262A1 (ja) 作業機械の周囲監視装置
KR20120086577A (ko) 카메라를 이용한 측면차량 검출 장치 및 방법
JP6868996B2 (ja) 障害物検知システム及び建設機械
JP6178580B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
JP2004252550A (ja) 運転支援装置
JP6581519B2 (ja) 建設機械の周囲障害物検知システム
CN112389325B (zh) 机动车
JP5245471B2 (ja) 撮像装置、並びに、画像処理装置および方法
JP4768499B2 (ja) 車載周辺他車検出装置
JP4799236B2 (ja) 車載表示システム
JP7137356B2 (ja) 車載用故障検出装置、及び故障検出方法
JP6958485B2 (ja) 物体検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210413

R150 Certificate of patent or registration of utility model

Ref document number: 6868996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150