JP2019049918A - Obstacle detection system for heavy equipment - Google Patents
Obstacle detection system for heavy equipment Download PDFInfo
- Publication number
- JP2019049918A JP2019049918A JP2017174549A JP2017174549A JP2019049918A JP 2019049918 A JP2019049918 A JP 2019049918A JP 2017174549 A JP2017174549 A JP 2017174549A JP 2017174549 A JP2017174549 A JP 2017174549A JP 2019049918 A JP2019049918 A JP 2019049918A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- area
- image
- unit
- position estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラで取得された画像中の障害物を検知する作業機械の障害物検知システムに関する。 The present invention relates to an obstacle detection system for a working machine that detects an obstacle in an image acquired by a camera.
鉱山等の不整地環境下で稼働する作業機械として、例えば、地面を掘削する油圧ショベルや、地面を整地するホイールローダ、土砂を運搬するダンプトラック等がある。前述した作業機械の中でも、特に、全高が7m以上ある超大型のダンプトラックは、オペレータが直接視認することができない死角が多く存在する。このような理由などから、作業機械がその周囲の障害物(詳細には、他の車両や人などの移動物)と接触する事故が発生する可能性がある。 Examples of work machines that operate under rough ground environments such as mines include hydraulic shovels excavating the ground, wheel loaders that ground the ground, and dump trucks that transport earth and sand. Among the above-described work machines, particularly a super-large dump truck having a total height of 7 m or more, there are many blind spots where the operator can not directly view. For this reason, there is a possibility that an accident may occur in which the work machine contacts an obstacle around it (specifically, a moving object such as another vehicle or a person).
そこで、作業機械のオペレータに注意を促すための作業機械の障害物検知システムが提唱されている(例えば、特許文献1参照)。特許文献1の障害物検知システムは、作業機械の周囲を撮影するカメラと、カメラで取得された画像中の障害物を検知する画像処理装置と、画像処理装置で処理された画像を表示する表示装置とを備える。
Therefore, an obstacle detection system for a working machine has been proposed for alerting an operator of the working machine (see, for example, Patent Document 1). The obstacle detection system of
特許文献1の画像処理装置は、例えばカメラで取得された現在の画像と過去の画像とを比較して両画像の画素間に関する動きベクトル(オプティカルフロー)を算出し、動きベクトルに基づいて障害物の領域を検出する。あるいは、例えば現在の画像の画素値と予め作成された背景モデル画像の画素値との差分に基づいて障害物の領域を検出する。
The image processing apparatus of
特許文献2は、画像中の障害物の領域を検出する他の方法を開示している。この方法では、現在の画像の画素値と過去の画像の画素値との差分に基づいて複数の差分領域とそれら領域間の輪郭を算出する。また、現在の画像と過去の画像を比較して両画像の画素間に関する動きベクトルを算出し、互いに同じとみなせる動きベクトルを有する現在の画像の画素を集約して動きベクトル発生領域を取得する。そして、複数の輪郭のうち、動きベクトル発生領域に対応する輪郭を抽出し、それらの輪郭で囲まれた領域を障害物の領域として検出する。
上述した通り、特許文献1では、現在の画像と過去の画像を比較して動きベクトルを算出し、動きベクトルに基づいて障害物の位置を検知する方法を採用するか、若しくは、現在の画像の画素値と背景モデル画像の画素値との差分に基づいて障害物の位置を検知する方法を採用する。前者の方法では、障害物の全体に輝度差が無い場合に、障害物の全体に対して動きベクトルを算出することが困難となり、障害物の位置の検知精度が低下する。そのため、前者の方法より後者の方法のほうが、障害物の位置の検知精度を高めることが可能である。
As described above, in
しかし、鉱山等の不整地環境下では、障害物の走行や作業によって地形の変化が生じており、後者の方法では、地形の変化に対応することができず、誤検知を招く可能性がある。具体的に説明すると、障害物である他の車両が走行した際に、その軌跡上で轍が発生する。また、障害物である油圧ショベルやホイールローダが作業した際に、その軌跡上で地形が変化する。そして、現在の画像の画素値と背景モデル画像の画素値との差分には、障害物だけでなく地形の変化も含まれてしまうため、誤検知を招く可能性がある。 However, in rough ground environments such as mines, changes in topography occur due to travel or work of obstacles, and the latter method can not cope with changes in topography, which may lead to erroneous detection. . Specifically, when another vehicle which is an obstacle travels, wrinkles occur on the trajectory. In addition, when a hydraulic excavator or a wheel loader, which is an obstacle, works, the topography changes on the trajectory. Then, the difference between the pixel value of the current image and the pixel value of the background model image includes not only the change in the obstacle but also the change in the topography, which may cause erroneous detection.
また、仮に、特許文献2に記載の方法を採用した場合でも、障害物の輪郭と地形の変化部分の輪郭が連続して区別できず、誤検知を招く可能性がある。
Further, even when the method described in
本発明は、上述の事柄に鑑みてなされたものであり、その目的は、障害物の走行又は作業による地形の変化が原因となる誤検知を防止しつつ、検知精度を高めることができる作業機械の障害物検知システムを提供することにある。 The present invention has been made in view of the above-described matters, and an object thereof is to provide a working machine capable of enhancing detection accuracy while preventing erroneous detection caused by a change in topography due to traveling or work of an obstacle. To provide an obstacle detection system.
上記目的を達成するために、本発明は、作業機械の周囲を撮影するカメラと、前記カメラで取得された画像中の障害物を検知する画像処理装置と、前記画像処理装置で処理された画像を表示する表示装置とを備えた作業機械の障害物検知システムにおいて、前記画像処理装置は、前記カメラで取得された画像を時系列的に記憶する第1記憶部と、前記カメラで取得された現在の画像の画素値と予め作成された背景モデル画像の画素値との差分に基づいて差分発生領域を算出する背景差分算出部と、前記現在の画像と直前の画像とを比較して両画像間の画素に関する動きベクトルを算出し、互いに同じとみなせる動きベクトルを有する前記現在の画像の画素を集約して動きベクトル発生領域を取得する動きベクトル算出部と、前記動きベクトル算出部で取得された動きベクトル発生領域の面積が所定の閾値以上である場合に、前記動きベクトル発生領域の位置情報に基づいて、前記障害物が存在する領域を示す少なくとも1つの障害物位置推定領域を生成する障害物位置推定部と、前記障害物位置推定部で生成された前記障害物位置推定領域を時系列的に記憶する第2記憶部と、前記第2記憶部に記憶された前記障害物位置推定領域の履歴情報に基づいて前記障害物の移動経路領域を算出する移動経路領域算出部と、前記背景差分算出部で算出された差分発生領域から、前記移動経路領域算出部で算出された移動経路領域を除外することにより、前記障害物の位置検出領域を生成する障害物位置検出部と、前記カメラで取得された前記現在の画像に、前記障害物位置検出部で生成された障害物の位置検出領域を示す領域マーカを重畳して合成画像を生成し、この合成画像を前記表示装置へ出力する合成画像生成部とを備える。 In order to achieve the above object, the present invention provides a camera for photographing the periphery of a work machine, an image processing apparatus for detecting an obstacle in an image acquired by the camera, and an image processed by the image processing apparatus. In the obstacle detection system for a working machine including a display device for displaying the image, the image processing device includes: a first storage unit that stores images acquired by the camera in time series; and the image storage device acquired by the camera A background difference calculation unit that calculates a difference generation area based on the difference between the pixel value of the current image and the pixel value of the background model image created in advance, and comparing the current image with the immediately preceding image A motion vector calculation unit that calculates a motion vector related to the pixels between the pixels, collects pixels of the current image having motion vectors that can be regarded as the same as one another, and acquires a motion vector generation area; At least one obstacle position estimation indicating the area in which the obstacle exists based on the position information of the motion vector generation area when the area of the motion vector generation area acquired by the output unit is equal to or greater than a predetermined threshold value An obstacle position estimation unit that generates a region; a second storage unit that stores the obstacle position estimation region generated by the obstacle position estimation unit in time series; and the second storage unit stores the second storage unit The movement path area calculation unit calculates the movement path area calculation unit that calculates the movement path area of the obstacle based on the history information of the obstacle position estimation area and the difference generation area calculated by the background difference calculation unit An obstacle position detection unit that generates the position detection area of the obstacle by excluding the moving path area, and the obstacle position detection unit generates the current image acquired by the camera. By superimposing a region marker indicating the position detection area of the obstacle to generate a composite image, and a composite image generating unit for outputting the synthesized image to the display device.
本発明では、現在の画像の画素値と背景モデル画像の画素値との差分に基づいて差分発生領域を算出し、これに基づいて障害物の位置を検知する。これにより、現在の画像と直前の画像とを比較して動きベクトルを算出し、これに基づいて障害物の位置を検知する場合と比べ、検知精度を高めることができる。 In the present invention, the difference generation area is calculated based on the difference between the pixel value of the current image and the pixel value of the background model image, and the position of the obstacle is detected based on this. As a result, it is possible to calculate the motion vector by comparing the current image and the previous image, and to improve the detection accuracy compared to the case where the position of the obstacle is detected based on this.
しかし、前述した差分発生領域には、障害物の走行又は作業による地形の変化部分を含む可能性がある。そのため、本発明では、動きベクトル発生領域の位置情報に基づいて障害物位置推定領域を生成し、障害物位置推定領域の履歴情報に基づいて障害物の移動経路領域を算出する。この移動経路領域は、障害物の走行又は作業による地形の変化が現れる領域である。そのため、差分発生領域から移動経路領域を除外することにより、地形の変化が原因となる誤検知を防止することができる。 However, the above-described difference generation area may include a change in topography due to travel or work of an obstacle. Therefore, in the present invention, the obstacle position estimation area is generated based on the position information of the motion vector generation area, and the movement path area of the obstacle is calculated based on the history information of the obstacle position estimation area. The movement path area is an area where a change in topography due to travel or work of an obstacle appears. Therefore, by excluding the movement path area from the difference generation area, it is possible to prevent an erroneous detection caused by a change in topography.
以下、本発明の適用対象として、鉱山等の不整地環境下で稼働するダンプトラックを例にとり、本発明の実施形態を説明する。 Hereinafter, an embodiment of the present invention will be described by taking a dump truck operating under rough ground environment such as a mine as an example to which the present invention is applied.
本発明の第1の実施形態を、図面を参照しつつ説明する。図1は、本実施形態におけるダンプトラックの構造を表す側面図である。図2は、本実施形態における障害物検知システムの構成を表す外観図である。図3は、本実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。 A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a side view showing the structure of a dump truck in the present embodiment. FIG. 2 is an external view showing a configuration of an obstacle detection system in the present embodiment. FIG. 3 is a block diagram showing the functional configuration of the image processing apparatus in the present embodiment together with related devices.
ダンプトラック1は、前輪2及び後輪3を有する車体フレーム4と、車体フレーム4の後部にピン結合部5を介し傾動可能に設けられたベッセル6と、車体フレーム4の前部に配置された運転室7とを備えている。ベッセル6は、土砂等を積載するための荷台であり、左右一対の起伏シリンダ8(油圧シリンダ)の伸縮によって起伏するようになっている。ベッセル6の前側上部には、運転室7を保護するための庇部9が設けられている。図示しないものの、運転室7の内部には、シフトレバー、操舵用のハンドル、アクセルペダル、及びブレーキペダル等が設置されている。
The
ダンプトラック1は、ダンプトラック1のオペレータに注意を促すための障害物検知システムを備えている。本実施形態の障害物検知システムは、ダンプトラック1の周囲を撮影するカメラ11と、カメラ11で取得された画像中の障害物を検知する画像処理装置12(コントローラ)と、画像処理装置12で処理された画像を表示する表示装置13(モニタ)とで構成されている。
The
カメラ11は、例えば図1で示すように、車体フレーム4の前部の幅方向中央に俯角(下向きの角度)で取付けられており、ダンプトラック1の前方の視野範囲ARを撮影する。カメラ11は、所定の周期で画像を取得して画像処理装置12へ出力するようになっている。
For example, as shown in FIG. 1, the
画像処理装置12及び表示装置13は、運転室7内に設置されている。画像処理装置12は、例えばCPU、ROM、及びRAM等で構成されており、機能的構成として、画像記憶部14(第1記憶部)、障害物検知部15、合成画像生成部16、及び自機停車判定部(図示せず)を有している。
The
画像記憶部14は、カメラ11からの画像を順次入力して時系列に記憶しており、記憶した画像が上限枚数(例えば30枚)に達すれば、最古の画像を削除して最新(現在)の画像31を記憶する。また、画像記憶部14は、合成画像生成部16へ現在の画像31を出力する。
The
図4(a)は、現在の画像31の具体例を表す図である。図4(b)は、過去の画像群33に含まれる直前の画像32の具体例を表す図である。この具体例では、ホイールローダ(障害物)が走行し、その軌跡上に轍が発生する場合を想定している。画像31等には、自機構造物34(詳細には、ダンプトラック1の車体フレーム4の前端)が映っている。
FIG. 4A shows a specific example of the
障害物検知部15は、背景差分算出部17、動きベクトル算出部18、障害物位置推定部19、移動経路領域算出部20、障害物位置検出部21、及び記憶部22(第2記憶部)を有している。障害物検知部15は、画像記憶部14から現在の画像31等を入力し、現在の画像31等に対して画像処理を行うことにより、現在の画像31中の障害物の位置検出領域を生成する(詳細は後述)。なお、時間短縮のため、画像の全体でなく対象範囲35に対して処理を行うように設定されている。但し、画像の全体に対して処理を行ってもよい。
The
合成画像生成部16は、画像記憶部14からの現在の画像31に、障害物検知部15で生成された障害物の位置検出領域を示す領域マーカを重畳して合成映像を生成し、この合成映像を表示装置13へ出力するようになっている(詳細は後述)。
The composite
自機停車判定部は、例えば速度センサ(図示せず)で検出された自機(ダンプトラック1)の走行速度を入力するか、若しくはシフトレバーの操作位置を入力しており、これに基づいて自機が停車しているか否かを判定する。そして、その判定情報を、画像記憶部14及び障害物検知部15に出力する。画像記憶部14は、自機の停車後に記憶された画像の枚数をカウントし、そのカウント情報を障害物検知部15の背景差分算出部17へ出力する。
The own-machine stop determination unit inputs, for example, the traveling speed of the own machine (dump truck 1) detected by a speed sensor (not shown) or inputs the operation position of the shift lever, and based on this Determine whether your aircraft is at a standstill. Then, the determination information is output to the
次に、本実施形態の画像処理装置12の処理手順を説明する。図5は、本実施形態における画像処理装置12の処理内容を表すフローチャートである。
Next, the processing procedure of the
まず、ステップS101にて、背景差分算出部17は、画像記憶部14からのカウント情報により、自機の停車後に記憶された画像が予め設定された所定枚数(例えば10枚)以上であるか否かを判定する。自機の停車後に記憶された画像が所定枚数未満である場合は、ステップS101の判定がNOとなり、その判定が繰り返される。自機の停車後に記憶された画像が所定枚数以上である場合は、ステップS101の判定がYESとなり、ステップS102に移る。ステップS102にて、背景差分算出部17は、自機の停車後に記憶された所定枚数の画像を画像記憶部14から入力し、それらの画像に基づき背景モデル画像36を作成して、画像記憶部14に記憶する。図6は、背景モデル画像36の具体例を表す図であり、この具体例では、背景モデル画像36に障害物が存在していない。
First, in step S101, the background
そして、ステップS103に進み、背景差分算出部17は、自機停車判定部からの判定情報に基づき、背景モデル画像36を作成したときから、自機の停車状態が継続しているか否かを判定する。自機の停車状態が継続していない場合は、ステップS103の判定がNOとなり、ステップS101に戻って上記同様の手順を繰り返す。自機の停車が継続している場合は、ステップS103の判定がYESとなり、ステップS104及びS105に移る。
Then, the process proceeds to step S103, and the background
ステップS104にて、背景差分算出部17は、画像記憶部14から現在の画像31と背景モデル画像36を入力し、それらの画素値間の差分に基づいて差分発生領域を算出する。詳細には、現在の画像31と背景モデル画像36に対し、対象範囲35内の画素毎の輝度値の差分を算出し、輝度値の差分が所定の閾値(例えば30階調)以上は白、所定の閾値未満は黒とする二値化処理を行う。図7は、差分発生領域の具体例を示す図である。この具体例では、図4(a)の現在の画像31の画素値と図5の背景モデル画像36の画素値との差分に基づいて算出された差分発生領域37を示している。なお、差分発生領域(並びに、後述する障害物位置推定領域、移動経路領域、及び障害物位置検出領域等)は、画像上の位置情報を含むものとする。
In step S104, the background
一方、ステップS105にて、動きベクトル算出部18は、画像記憶部14から現在の画像31と直前の画像32を入力し、例えばブロックマッチング法を用いて画像31,32を比較して、画像31,32間の画素に関する動きベクトルを算出する。詳細には、直前の画像32の注目画素38(図8(a)参照)及びその周囲の画素を含む注目ブロックと、この注目ブロックから位置をずらした現在の画像31の比較画素39(図8(a)参照)及びその周囲の画素を含む比較ブロックとを設定し、注目ブロックと比較ブロックに対して輝度値分布の類似度を算出し、この類似度が高いと判定された場合に注目画素38から比較画素39への動きベクトル40(図8(a)参照)を算出する。なお、本実施形態では、動きベクトルの方向を左方向、右方向、上方向、及び下方向のうちのいずれかに大別しており、図8(a)の動きベクトル40の方向は左方向とみなしている。
On the other hand, in step S105, the motion
そして、ステップS106に進み、動きベクトル算出部18は、動きベクトルを有する現在の画像31の画素に対し、動きベクトルの方向が左方向、右方向、上方向、及び下方向のうちのいずれかで同じであるとみなせて且つ隣り合うものがあれば、それらを集約して動き発生ベクトル領域を取得する。図8(b)は、動きベクトル発生領域の具体例を示す図であり、便宜上、現在の画像31中のホイールローダ(障害物)に対し重畳して示している。この具体例では、1台のホイールローダの走行に起因した2つの動きベクトル発生領域41A,41Bを取得している。
Then, the process proceeds to step S106, and the motion
そして、ステップS107に進み、障害物位置推定部19は、動きベクトル算出部18で取得された動きベクトル発生領域の面積が所定の閾値(例えば対象範囲35の面積の0.5%)以上であるか否かを判定する。動きベクトル発生領域の面積が所定の閾値以上である場合は、現在の画像31中に動作状態の障害物が存在すると推定する。そして、動きベクトル算出部18で取得された動きベクトル発生領域が1つである場合は、その動きベクトル発生領域の位置情報に基づいて、1つの障害物の存在領域を示す1つの障害物位置推定領域を生成する。詳細には、1つの動きベクトル発生領域を包含する矩形状の障害物位置推定領域を、面積が極力小さくなるように設定する。
Then, the process proceeds to step S107, and the obstacle
動きベクトル算出部18で取得された動きベクトル発生領域が2つある場合は、2つの動きベクトル発生領域に対し、それらの動きベクトルの方向が同じであるとみなせて且つそれらの中心間距離が所定の閾値(例えば30ピクセル)以下であるか否かを判定する。動きベクトルの方向が同じであるとみなせて且つ中心間距離が所定の閾値以下である場合は、現在の画像31中に1つの動作状態の障害物が存在すると推定する。そのため、図9で示すように、2つの動きベクトル発生領域41A,41Bの位置情報に基づいて、1つの障害物の存在領域を示す1つの障害物位置推定領域42を生成する。詳細には、2つの動きベクトル発生領域41A,41Bを包含する矩形状の障害物位置推定領域42を、面積が極力小さくなるように設定する。
When there are two motion vector generation areas obtained by the motion
動きベクトルの方向が異なるか、若しくは、中心間距離が所定の閾値を超えれば、現在の画像31中に2つの動作状態の障害物が存在すると推定する。そのため、2つの動きベクトル発生領域の位置情報に基づいて、2つの障害物の存在領域をそれぞれ示す2つの障害物位置推定領域を生成する。詳細には、一方の動きベクトル発生領域を包含する一方の矩形状の障害物位置推定領域を、面積が極力小さくなるように設定すると共に、他方の動きベクトル発生領域を包含する他方の矩形状の障害物位置推定領域を、面積が極力小さくなるように設定する。上述のように生成された障害物位置推定領域は、障害物が動作状態であることや動きベクトルの方向と関連付けられて、記憶部22に時系列的に記憶される。
If the directions of the motion vectors are different or if the center-to-center distance exceeds a predetermined threshold, it is estimated that there are obstacles of two motion states in the
また、障害物位置推定部19は、動きベクトル算出部18で取得された動きベクトル発生領域の面積が所定の閾値未満である場合に、現在の画像31中に静止状態の障害物が存在するか否かを推定する。具体的には、例えば背景差分算出部17で算出された差分発生領域の面積が所定の閾値(例えば対象範囲35の面積の0.5%)以上であれば、現在の画像31中に静止状態の障害物が存在すると推定する。あるいは、例えば記憶部22で記憶された直前の障害物位置推定領域(又はこれを含む過去数回分の障害物位置推定領域)が対象範囲35の縁側以外の部分(言い換えれば、中央の部分)に位置すれば、現在の画像31中に静止状態の障害物が存在すると判定する。
In addition, when the area of the motion vector generation area acquired by the motion
現在の画像31中に静止状態の障害物が存在すると推定した場合は、記憶部22で記憶された直前の障害物位置推定領域(又はこれを含む過去数回分の障害物位置推定領域)に基づいて現在の障害物位置推定領域を生成する。このように生成された障害物位置推定領域は、障害物が静止状態であることと関連付けられて、記憶部22に時系列的に記憶される。
If it is estimated that a stationary obstacle is present in the
そして、ステップS108に進み、移動経路領域算出部20は、記憶部22に記憶された障害物位置推定領域の履歴情報に基づいて、障害物の移動経路領域を算出する。詳細には、過去の障害物位置推定領域群43(図10(a)参照)と現在の障害物位置推定領域42(図9及び図10(a)参照)との差分によって障害物の移動経路領域44(図10(b)参照)を算出する。
Then, the process proceeds to step S108, and the movement route
そして、ステップS109に進み、障害物位置検出部21の地形変化差分除外部23は、ステップS104にて背景差分算出部17で算出された差分発生領域37(図7参照)から、ステップS108にて移動経路領域算出部20で算出された障害物の移動経路領域44(図10参照)を除外することにより、障害物の位置検出領域45(図11参照)を生成する。このようにして生成された障害物の位置検出領域45は、上述した障害物位置推定領域と同様、障害物が静止状態又は動作状態であることと関連付けられて、記憶部22に時系列的に記憶されてもよい。
Then, the process proceeds to step S109, and the topography change
そして、ステップS110に進み、合成画像生成部16は、障害物位置検出部21で生成された障害物の位置検出領域の面積が所定の閾値(例えば対象範囲35の面積の0.5%)以上であるか否かを判定する。図11で示す具体例では、障害物の位置検出領域45の面積が所定の閾値以上であるから、ステップS110の判定がYESとなり、ステップS111に移る。ステップS111にて、合成画像生成部16は、画像記憶部14からの現在の画像31(原画像)に、障害物位置検出部21で生成された障害物の位置検出領域45を示す領域マーカ46を重畳して合成画像47を生成する(図12参照)。詳細には、障害物の位置検出領域45を包含する矩形状の領域マーカ46を、面積が極力小さくなるように設定する。そして、合成画像47を、表示装置13に出力して表示させる。
Then, the process proceeds to step S110, and the composite
障害物位置検出部21で算出された障害物の位置検出領域の面積が閾値未満である場合は、ステップS110の判定がNOとなり、ステップS112に移る。ステップS112にて、合成画像生成部16は、画像記憶部14からの現在の画像31(原画像)をそのまま、表示装置13に出力して表示させる。
If the area of the position detection area of the obstacle calculated by the obstacle
以上のように構成された本実施形態においては、現在の画像31の画素値と背景モデル画像36の画素値との差分に基づいて差分発生領域37を算出し、これに基づいて障害物の位置を検知する。これにより、現在の画像31と直前の画像32とを比較して動きベクトルを算出し、これに基づいて障害物の位置を検知する場合と比べ、検知精度を高めることができる。
In the embodiment configured as described above, the
しかし、前述した差分発生領域37には、障害物の走行又は作業による地形の変化部分を含む可能性がある。そのため、本実施形態では、動きベクトル発生領域の位置情報に基づいて障害物位置推定領域を生成し、障害物位置推定領域の履歴情報に基づいて障害物の移動経路領域44を算出する。この移動経路領域44は、障害物の走行又は作業による地形の変化が現れる領域である。そのため、差分発生領域37から移動経路領域44を除外することにより、地形の変化が原因となる誤検知を防止することができる。すなわち、領域マーカ46が地形の変化部分に重畳されるのを防止することができる。
However, the above-described
したがって、ダンプトラック1のオペレータに障害物の位置を正確に示すことでき、ダンプトラック1の操作を支援することができる。
Therefore, the position of the obstacle can be accurately indicated to the operator of the
本発明の第2の実施形態を、図面を参照しつつ説明する。図13は、本実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。図14は、本実施形態における画像処理装置の処理内容を表すフローチャートである。なお、本実施形態において、第1の実施形態と同等の部分は同一の符号を付し、適宜、説明を省略する。 A second embodiment of the present invention will be described with reference to the drawings. FIG. 13 is a block diagram showing the functional configuration of the image processing apparatus according to this embodiment together with related devices. FIG. 14 is a flowchart showing the processing content of the image processing apparatus in the present embodiment. In the present embodiment, parts equivalent to those in the first embodiment are given the same reference numerals, and the description will be omitted as appropriate.
本実施形態の画像処理装置12Aの障害物検知部15は、背景差分算出部17、動きベクトル算出部18、障害物位置推定部19A、移動経路領域算出部20、障害物位置検出部21A、及び記憶部22を有している。本実施形態の障害物位置推定部19Aは、第1の実施形態の障害物位置推定部19に対し、図14のステップS113で示す障害物の識別機能が付加又は変更されている(詳細は後述)。また、本実施形態の障害物位置検出部21Aは、第1の実施形態の障害物位置検出部21に対し、図14のステップS109Aで示す障害物の位置検出領域の生成機能が付加又は変更されている(詳細は後述)。
The
鉱山では、ダンプトラック1のオペレータの交代のため、例えば図15で示すように、ダンプトラック1の周囲に車両51が停車し、停車中の車両51から人52(交代要員)が降り、人52がダンプトラック1(自機)に向かって近づく場合がある。すなわち、カメラ11で取得された画像上に静止状態の車両51(第1障害物)と動作状態の人52(第2障害物)が現れる場合がある。そして、人52の移動経路領域が現在の車両51の位置検出領域に重なり、車両51の位置の検知精度を損なう可能性がある。本実施形態の画像処理装置12Aは、このような課題に対応する機能を有するものであり、その詳細を説明する。
In the mine, for example, as shown in FIG. 15, the
まず、停車中の車両51から人52が降りる時点で、そのときに取得された画像53(図16参照)の処理を説明する。画像処理装置12Aの動きベクトル算出部18は、人52の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Aは、記憶部22から直前の車両51の位置検出領域と車両51が静止状態であることを取得した場合に、直前の車両51の位置検出領域と前述した動きベクトル発生領域との重複率を算出し、この重複率が予め設定された所定範囲(例えば10〜30%)内にあるか否かを判定し、この判定結果に基づいて障害物を識別するようになっている。
First, when the
仮に、重複率が所定範囲の上限値(30%)を超える場合は、画像53中に動作状態の車両51が存在すると推定する。すなわち、車両51が静止状態から動作状態に変わったと推定する。そのため、その時点の車両51の位置推定領域を、動きベクトル算出部18で取得された動きベクトル発生領域の位置情報に基づいて生成する。仮に、重複率が所定範囲の下限値(10%)未満である場合は、画像53中に静止状態の車両51が存在するものの、動作状態の人52が存在しないと推定する。そのため、その時点の車両51の位置推定領域を、記憶部22で記憶された直前の車両51の位置推定領域(又はこれを含む過去数回分の車両51の位置推定領域)に基づいて生成する。
If the overlap rate exceeds the upper limit (30%) of the predetermined range, it is estimated that the
重複率が所定範囲内にある場合は、画像53中に静止状態の車両51と動作状態の人52が存在すると推定する。そのため、その時点の車両51の位置推定領域54を、記憶部22で記憶された直前の車両51の位置推定領域(又はこれを含む過去数回分の車両51の位置推定領域)に基づいて生成する。また、その時点の人52の位置推定領域55を、動きベクトル算出部18で取得された動きベクトル発生領域の位置情報に基づいて生成する。このように生成された障害物位置推定領域は、障害物の識別番号(例えば車両=1、人=2)が付与されるとともに、障害物が静止状態又は動作状態であることと関連付けられて、記憶部22に時系列的に記憶される。
When the overlapping rate is within the predetermined range, it is estimated that the
次に、車両51から降りた人52が自機に近づいている時点で、そのときに取得された画像56(図17参照)の処理を説明する。画像処理装置12Aの動きベクトル算出部18は、人52の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Aは、前述した重複率が所定範囲内にないものの、記憶部22で記憶された少なくとも直前の車両51の位置推定領域及び少なくとも直前の人52の位置推定領域に基づき、画像56中に静止状態の車両51と動作状態の人52が存在すると推定する。そのため、現在の車両51の位置推定領域54を、記憶部22で記憶された直前の車両51の位置推定領域54(又はこれを含む過去数回分の車両51の位置推定領域54)に基づいて生成する。また、現在の人52の位置推定領域57を、動きベクトル算出部18で取得された動きベクトル発生領域の位置情報に基づいて生成する。このように生成された障害物位置推定領域は、障害物の識別番号が付与されるとともに、障害物が静止状態又は動作状態であることと関連付けられて、記憶部22に時系列的に記憶される。
Next, processing of the image 56 (see FIG. 17) acquired at that time when the
そして、移動経路領域算出部20は、記憶部22に記憶された車両51の位置推定領域の履歴情報に基づいて車両51の移動経路領域を算出する。詳細には、過去の車両51の位置推定領域群(図示せず)と現在の車両51の位置推定領域54との差分によっての移動経路領域58(図18参照)を算出する。また、記憶部22に記憶された人52の位置推定領域の履歴情報に基づいて人52の移動経路領域を算出する。詳細には、過去の人52の位置推定領域群(位置推定領域55を含むもの)と現在の人52の位置推定領域57との差分によって人52の移動経路領域59(図18参照)を算出する。
Then, the movement route
背景差分算出部17は、画像56の画素値と背景モデル画像36の画素値との差分に基づいて差分発生領域60(図19参照)を算出する。そして、本実施形態の障害物位置検出部21Aの地形変化差分除外部23Aは、背景差分算出部17で算出された差分発生領域60から、車両51の移動経路領域58と、人52の移動経路領域59のうちの現在の車両51の位置推定領域54と重複していない部分を除外することにより、車両51の位置検出領域61A(図20参照)及び人52の位置検出領域61B(図20参照)を生成する。
The background
合成画像生成部16は、画像記憶部14からの画像56に、障害物位置検出部21Aで生成された車両51の位置検出領域61B及び人52の位置検出領域61Bをそれぞれ示す領域マーカ62A,62Bを重畳して合成画像63(図21参照)を生成し、この合成画像63を表示装置13へ出力して表示させる。
The composite
したがって、本実施形態では、人52の移動経路領域が車両51の位置検出領域に重なっても、車両51の位置の検知精度を維持することができる。
Therefore, in the present embodiment, even if the movement route area of the
なお、第2の実施形態においては、障害物位置検出部21Aは、背景差分算出部17で算出された差分発生領域から、移動経路領域算出部20で算出された車両51(第1障害物)の移動経路領域と、移動経路領域算出部20で算出された人52(第2障害物)の移動経路領域のうちの現在の車両51の位置推定領域と重複していない部分を除外することにより、車両51の位置検出領域と人52の位置検出領域を取得する場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。
In the second embodiment, the obstacle
例えば、移動経路領域算出部20は、人52(第2障害物)の位置推定領域の履歴情報に基づいて人52の移動経路領域を算出し、この人52の移動経路領域から現在の車両51(第1障害物)の位置推定領域との重複部分を削除して新たな移動経路領域を生成し、この新たな移動経路領域を人52の移動経路領域として再設定してもよい。そして、障害物位置検出部21の地形変化差分除外部23Aは、背景差分算出部17で算出された差分発生領域から、移動経路領域算出部20で算出された車両51の移動経路領域と、移動経路領域算出部20で再設定された人52の移動経路領域を除外することにより、車両51の位置検出領域と人52の位置検出領域を取得してもよい。この場合も、上記同様の効果を得ることができる。
For example, the movement route
本発明の第3の実施形態を、図面を参照しつつ説明する。図22は、本実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。図23は、本実施形態における画像処理装置の処理内容を表すフローチャートである。なお、本実施形態において、第1及び第2の実施形態と同等の部分は同一の符号を付し、適宜、説明を省略する。 A third embodiment of the present invention will be described with reference to the drawings. FIG. 22 is a block diagram showing the functional configuration of the image processing apparatus according to this embodiment together with related devices. FIG. 23 is a flowchart showing the processing content of the image processing apparatus according to this embodiment. In the present embodiment, parts equivalent to those in the first and second embodiments are assigned the same reference numerals and descriptions thereof will be omitted as appropriate.
本実施形態の画像処理装置12Bの障害物検知部15は、背景差分算出部17、動きベクトル算出部18、障害物位置推定部19B、移動経路領域算出部20、障害物位置検出部21B、及び記憶部22を有している。本実施形態の障害物位置推定部19Bは、第1の実施形態の障害物位置推定部19に対し、図23のステップS114で示す地形変化領域の推定機能が付加又は変更されている(詳細は後述)。また、本実施形態の障害物位置検出部21Bは、第1の実施形態の障害物位置検出部21に対し、図23のステップS109Bで示す障害物の位置検出領域の生成機能が付加又は変更されている(詳細は後述)。
The
鉱山では、ホイールローダが土砂を押し出しながら前進し、その後、ホイールローダが後退して土砂から離れるような場合がある。このとき、ホイールローダと土砂が離れても土砂が暫く動くため、土砂を障害物として誤検知する可能性がある。画像処理装置12Bは、このような課題に対応する機能を有するものであり、その詳細を説明する。 In a mine, the wheel loader may advance while pushing soil, and then the wheel loader may move backward and leave the soil. At this time, since the earth and sand move for a while even if the wheel loader and the earth and sand are separated, there is a possibility that the earth and sand may be erroneously detected as an obstacle. The image processing apparatus 12B has a function corresponding to such a problem, and the details thereof will be described.
まず、ホイールローダが土砂を押し出しながら前進する時点で、そのときに取得された画像71A又は71B(図24(a)又は図24(b)参照)の処理を説明する。画像処理装置12Bの動きベクトル算出部18は、ホイールローダの動きに起因した動きベクトル発生領域と土砂の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Bは、第1の実施形態の障害物位置推定部19と同様、2つの動きベクトル発生領域に対し、それらの動きベクトルの方向が同じであるとみなせて且つそれらの中心間距離が所定の閾値以下であるか否かを判定する。この場合、動きベクトルの方向が同じであるとみなせて且つ中心間距離が所定の閾値以下であることから、2つの動きベクトル発生領域に基づいて1つの障害物の位置推定領域72A又は72Bを生成し、記憶部22に記憶する。
First, at the time when the wheel loader advances while pushing out soil, processing of an
次に、ホイールローダが後退を開始した時点で、そのときに取得された画像71C(図25参照)の処理を説明する。画像処理装置12Bの動きベクトル算出部18は、ホイールローダの動きに起因した動きベクトル発生領域と土砂の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Bは、上記と同様、2つの動きベクトル発生領域に対し、それらの動きベクトルの方向が同じであるとみなせて且つそれらの中心間距離が所定の閾値以下であるか否かを判定する。この場合、動きベクトルの方向が異なるか、若しくは、中心間距離が所定の閾値を超えることから、2つの動きベクトル発生領域に基づいて2つの障害物の位置推定領域72C,73をそれぞれ生成する。すなわち、障害物位置推定領域の個数が増加する。
Next, when the wheel loader starts to retract, processing of the
ここで、本実施形態の障害物位置推定部19Bは、前回取得した1つの障害物の位置推定領域72Bと今回取得した2つの障害物位置推定領域72C,73の全体との中心間距離を算出し、この中心間距離が所定の閾値(例えば30ピクセル)以下であるか否かを判定する。仮に、中心間距離が所定の閾値を超える場合は、画像71C中に2つの動作状態の障害物が存在すると推定する。しかし、この場合は中心間距離が所定の閾値以下であることから、1つの障害物位置推定領域から2つの障害物位置推定に分別されたものと推定する。そのため、2つの位置推定領域72C,73のうち、面積が最も大きいほうの位置推定領域72Cを真の位置推定領域として記憶部22に記憶し、残りの位置推定領域73を地形変化領域として記憶部22に記憶する(地形変化領域の推定機能)。
Here, the obstacle
次に、ホイールローダがさらに後退した時点で、そのときに取得された画像74(図26参照)の処理を説明する。画像処理装置12Bの動きベクトル算出部18は、ホイールローダの動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Bは、第1の実施形態の障害物位置推定部19と同様、1つの動きベクトル発生領域に基づいて1つの障害物の位置推定領域75を生成する。そして、移動経路領域算出部20は、記憶部22に記憶された障害物の位置推定領域の履歴情報に基づいて障害物の移動経路領域を算出する。詳細には、過去の障害物の位置推定領域群(位置推定領域72A,72B,72Cを含むもの)と現在の障害物の位置推定領域75との差分によって障害物の移動経路領域76(図27参照)を算出する。
Next, when the wheel loader is further retracted, processing of the image 74 (see FIG. 26) acquired at that time will be described. The motion
背景差分算出部17は、画像74の画素値と背景モデル画像36の画素値との差分に基づいて差分発生領域77(図28参照)を算出する。そして、本実施形態の障害物位置検出部21Bの地形変化差分除外部23Bは、背景差分算出部17で算出された差分発生領域77から、移動経路領域算出部20で算出された障害物の移動経路領域76と、記憶部22で記憶された地形変化領域73を除外することにより、障害物の位置検出領域78(図29参照)を算出する。
The background
合成画像生成部16は、画像記憶部14からの画像74に、障害物位置検出部21Bで生成された障害物の位置検出領域78を示す領域マーカ79を重畳して合成画像80(図30参照)を生成し、この合成画像80を表示装置13へ出力して表示させる。
The composite
したがって、本実施形態では、土砂を障害物として誤検知するのを防止することができる。 Therefore, in the present embodiment, it is possible to prevent the false detection of soil as an obstacle.
なお、第1〜第3の実施形態において、画像処理装置の合成画像生成部16は、合成画像を生成するとき、障害物の位置検出領域を示す領域マーカのみを重畳する場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。すなわち、合成画像生成部16は、合成画像を生成するとき、障害物の動作状態及び動作方向(本変形例では、左方向、右方向、上方向、及び下方向のうちのいずれか)を示すマーカ81A(図31(a)参照)と、障害物の静止状態(言い換えれば、動作方向なし)を示すマーカ81B(図31(b)参照)を選択的に重畳してもよい。このような変形例では、ダンプトラック1のオペレータに障害物の状態を示すことができ、ダンプトラック1の操作をさらに支援することができる。
In the first to third embodiments, when the composite
また、第1〜第3の実施形態において、カメラ11は、ダンプトラック1の前側のみに設けられた場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。すなわち、カメラは、例えばダンプトラック1の前側、後側、左側、及び右側のうちの少なくとも1箇所に設けられていればよい。例えばダンプトラック1の前側、後側、左側、及び右側の4箇所にカメラが設けられた場合は、4つのカメラで撮影された映像を合成して1つの映像として表示してもよい。このような変形例においても、上記同様の効果を得ることができる。
In the first to third embodiments, the
また、第1〜第3の実施形態において、画像処理装置の自機停車判定部は、速度センサで検出された自機の走行速度若しくはシフトレバーの操作位置に基づいて、自機が停車しているか否かを判定する場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。すなわち、現在の画像と過去の画像の比較によって、自機が停車しているか否かを判定してもよい。このような変形例においても、上記同様の効果を得ることができる。 In the first to third embodiments, the own-vehicle-stop determination unit of the image processing apparatus stops the own-vehicle based on the traveling speed of the own-machine detected by the speed sensor or the operation position of the shift lever. Although the case of determining the presence or absence is described as an example, the present invention is not limited to this, and modifications are possible without departing from the spirit and technical concept of the present invention. That is, it may be determined whether the own machine is at a stop by comparing the current image and the past image. The same effects as described above can be obtained also in such a modified example.
なお、以上においては、本発明の適用対象の作業機械としてダンプトラックを例にとって説明したが、これに限られず、例えば油圧ショベルやホイールローダ等でもよい。 In addition, although the dump truck was demonstrated to the example as a working machine of application object of this invention above, it is not restricted to this, For example, a hydraulic shovel, a wheel loader, etc. may be sufficient.
1 ダンプトラック
11 カメラ
12,12A,12B 画像処理装置
13 表示装置
14 画像記憶部(第1記憶部)
15 障害物検知部
16 合成画像生成部
17 背景差分算出部
18 動きベクトル算出部
19,19A,19B 障害物位置推定部
20 移動経路領域算出部
21,21A,21B 障害物位置検出部
22 記憶部(第2記憶部)
31 現在の画像
32 直前の画像
36 背景モデル画像
37 差分発生領域
40 動きベクトル
41A,41B 動きベクトル発生領域
42 現在の障害物位置推定領域
43 過去の障害物位置推定領域群
44 障害物の移動経路領域
45 障害物の位置検出領域
46 領域マーカ
47 合成画像
51 車両(第1障害物)
52 人(第2障害物)
53 過去の画像
54 過去及び現在の車両の位置推定領域
55 過去の人の位置推定領域
56 現在の画像
57 現在の人の位置推定領域
58 車両の移動経路領域
59 人の移動経路領域
60 差分発生領域
61A 車両の位置検出領域
61B 人の位置検出領域
62A,62B 領域マーカ
63 合成画像
71A,71B,71C 過去の画像
72A,72B,72C 過去の障害物の位置推定領域
73 地形変化領域
74 現在の画像
75 障害物の位置推定領域
76 障害物の移動経路領域
77 差分発生領域
78 障害物の位置検出領域
79 領域マーカ
80 合成画像
81A,81B マーカ
DESCRIPTION OF
15
31
52 people (second obstacle)
53
Claims (4)
前記画像処理装置は、
前記カメラで取得された画像を時系列的に記憶する第1記憶部と、
前記カメラで取得された現在の画像の画素値と予め作成された背景モデル画像の画素値との差分に基づいて差分発生領域を算出する背景差分算出部と、
前記現在の画像と直前の画像とを比較して両画像間の画素に関する動きベクトルを算出し、互いに同じとみなせる動きベクトルを有する前記現在の画像の画素を集約して動きベクトル発生領域を取得する動きベクトル算出部と、
前記動きベクトル算出部で取得された動きベクトル発生領域の面積が所定の閾値以上である場合に、前記動きベクトル発生領域の位置情報に基づいて、前記障害物が存在する領域を示す少なくとも1つの障害物位置推定領域を生成する障害物位置推定部と、
前記障害物位置推定部で生成された前記障害物位置推定領域を時系列的に記憶する第2記憶部と、
前記第2記憶部に記憶された前記障害物位置推定領域の履歴情報に基づいて前記障害物の移動経路領域を算出する移動経路領域算出部と、
前記背景差分算出部で算出された差分発生領域から、前記移動経路領域算出部で算出された移動経路領域を除外することにより、前記障害物の位置検出領域を生成する障害物位置検出部と、
前記カメラで取得された前記現在の画像に、前記障害物位置検出部で生成された障害物の位置検出領域を示す領域マーカを重畳して合成画像を生成し、この合成画像を前記表示装置へ出力する合成画像生成部とを備えたことを特徴とする作業機械の障害物検知システム。 A work machine comprising: a camera for photographing the surroundings of the work machine, an image processing device for detecting an obstacle in an image acquired by the camera, and a display device for displaying an image processed by the image processing device In the obstacle detection system
The image processing apparatus is
A first storage unit that stores images acquired by the camera in time series;
A background difference calculating unit that calculates a difference generation area based on a difference between a pixel value of a current image acquired by the camera and a pixel value of a background model image created in advance;
The current image and the immediately preceding image are compared to calculate a motion vector of pixels between the two images, and pixels of the current image having motion vectors that can be regarded as the same as each other are collected to obtain a motion vector generation area A motion vector calculation unit,
When the area of the motion vector generation area acquired by the motion vector calculation unit is equal to or larger than a predetermined threshold value, at least one obstacle indicating the area in which the obstacle exists based on the position information of the motion vector generation area An obstacle position estimation unit that generates an object position estimation area;
A second storage unit that stores the obstacle position estimation area generated by the obstacle position estimation unit in time series;
A movement route area calculation unit that calculates a movement route area of the obstacle based on history information of the obstacle position estimation area stored in the second storage unit;
An obstacle position detection unit that generates the position detection area of the obstacle by excluding the movement path area calculated by the movement path area calculation unit from the difference generation area calculated by the background difference calculation unit;
An area marker indicating the position detection area of the obstacle generated by the obstacle position detection unit is superimposed on the current image acquired by the camera to generate a composite image, and the composite image is transmitted to the display device. An obstacle detection system for a working machine, comprising: a composite image generation unit for outputting.
前記第2記憶部は、前記障害物が動作状態及び静止状態のいずれであるかと関連付けて、前記障害物位置検出部で生成された障害物の位置検出領域を時系列的に記憶し、
前記障害物位置推定部は、前記第2記憶部から直前の第1障害物の位置検出領域を取得し、前記第1障害物が静止状態である場合に前記位置検出領域と前記動きベクトル発生領域との重複率が予め設定された所定範囲内にあるかどうかを判定し、前記重複率が前記所定範囲内にある場合は、前記動きベクトル発生領域に基づいて、前記第1障害物とは別の第2障害物の存在領域を示す障害物位置推定領域を生成し、
前記移動経路領域算出部は、前記第1障害物の移動経路領域と前記第2障害物の移動経路領域を算出し、
前記障害物位置検出部は、前記背景差分算出部で算出された前記差分発生領域から、前記第1障害物の移動経路領域と、前記第2障害物の移動経路領域のうちの現在の前記第1障害物の位置推定領域と重複していない部分を除外することにより、前記第1障害物の位置検出領域と前記第2障害物の位置検出領域を生成し、
前記合成画像生成部は、前記合成画像を生成するとき、前記第1障害物の位置検出領域を示す第1領域マーカと、前記第2障害物の位置検出領域を示す第2領域マーカを重畳することを特徴とする作業機械の障害物検知システム。 In the obstacle detection system according to claim 1,
The second storage unit stores position detection areas of obstacles generated by the obstacle position detection unit in time series in association with whether the obstacle is in the operating state or the stationary state.
The obstacle position estimation unit acquires the position detection area of the immediately preceding first obstacle from the second storage unit, and the position detection area and the motion vector generation area when the first obstacle is stationary. Is determined within a predetermined range set in advance, and if the overlap rate is within the predetermined range, the first obstacle is separated based on the motion vector generation area. Generate an obstacle position estimation area indicating the existence area of the second obstacle of
The movement path area calculation unit calculates the movement path area of the first obstacle and the movement path area of the second obstacle,
The obstacle position detection unit is configured to calculate a movement path area of the first obstacle and a current movement path area of the second obstacle from the difference generation area calculated by the background difference calculation section. (1) A position detection area of the first obstacle and a position detection area of the second obstacle are generated by excluding a portion not overlapping the position estimation area of the obstacle,
The composite image generation unit, when generating the composite image, superimposes a first area marker indicating a position detection area of the first obstacle and a second area marker indicating a position detection area of the second obstacle. An obstacle detection system for a working machine characterized by
前記障害物位置推定部は、前記障害物位置推定領域の個数が増加した場合は、1つの前回取得した障害物位置推定領域と複数の増加した障害物位置推定領域の全体との中心間距離を算出し、この中心間距離が所定の閾値以下である場合には前記複数の増加した障害物位置推定領域は前記1つの前回取得した障害物位置推定領域から分別されたものであると推定し、前記複数の増加した障害物位置推定領域のうち、面積が最も大きいものを真の障害物位置推定領域として前記第2記憶部に記憶し、残りの障害物位置推定領域を地形変化領域として前記第2記憶部に記憶し、
前記障害物位置検出部は、前記背景差分算出部で算出された前記差分発生領域から、前記移動経路領域算出部で算出された前記移動経路領域と、前記地形変化領域を除外することにより、前記障害物の位置検出領域を生成することを特徴とする作業機械の障害物検知システム。 In the obstacle detection system for a working machine according to claim 1,
When the number of obstacle position estimation areas increases, the obstacle position estimation unit calculates the center-to-center distance between one previously acquired obstacle position estimation area and the plurality of increased obstacle position estimation areas. When the center-to-center distance is equal to or less than a predetermined threshold value, it is estimated that the plurality of increased obstacle position estimation areas are separated from the one previously acquired obstacle position estimation area, Of the plurality of increased obstacle position estimation areas, the one with the largest area is stored in the second storage unit as a true obstacle position estimation area, and the remaining obstacle position estimation areas are regarded as the topography change area. 2 Store in storage unit,
The obstacle position detection unit is configured to exclude the movement path area calculated by the movement path area calculation unit and the topography change area from the difference generation area calculated by the background difference calculation unit. An obstacle detection system for a working machine, characterized by generating an obstacle position detection area.
前記合成画像生成部は、前記合成画像を生成するとき、前記障害物の位置検出領域を示す領域マーカに加え、前記障害物の動作方向情報を重畳することを特徴とする作業機械の障害物検知システム。 In the obstacle detection system for a working machine according to claim 1,
When generating the composite image, the composite image generation unit superimposes the operation direction information of the obstacle on the obstacle in addition to the area marker indicating the position detection area of the obstacle. system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017174549A JP6878221B2 (en) | 2017-09-12 | 2017-09-12 | Obstacle detection system for work machines |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017174549A JP6878221B2 (en) | 2017-09-12 | 2017-09-12 | Obstacle detection system for work machines |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019049918A true JP2019049918A (en) | 2019-03-28 |
JP6878221B2 JP6878221B2 (en) | 2021-05-26 |
Family
ID=65906287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017174549A Active JP6878221B2 (en) | 2017-09-12 | 2017-09-12 | Obstacle detection system for work machines |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6878221B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020180466A (en) * | 2019-04-25 | 2020-11-05 | シンフォニアテクノロジー株式会社 | Work machine periphery monitoring system, and work machine periphery monitoring program |
WO2020261824A1 (en) | 2019-06-25 | 2020-12-30 | 株式会社クボタ | Working vehicle, obstacle detection method, and obstacle detection program |
JP2021022804A (en) * | 2019-07-26 | 2021-02-18 | シンフォニアテクノロジー株式会社 | Work machine peripheral monitoring system, and work machine peripheral monitoring program |
CN114051725A (en) * | 2019-07-18 | 2022-02-15 | 株式会社小松制作所 | Display system for work vehicle and display method for work vehicle |
JP7560949B2 (en) | 2020-03-19 | 2024-10-03 | セコム株式会社 | Image processing system and control program |
JP7577589B2 (en) | 2021-03-26 | 2024-11-05 | 日立建機株式会社 | Object Recognition System |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006010652A (en) * | 2004-06-29 | 2006-01-12 | Toyota Motor Corp | Object-detecting device |
JP2011049646A (en) * | 2009-08-25 | 2011-03-10 | Secom Co Ltd | Leaving monitoring device |
JP2012113605A (en) * | 2010-11-26 | 2012-06-14 | Toshiba Alpine Automotive Technology Corp | Driving support apparatus and driving support method |
JP2013186668A (en) * | 2012-03-07 | 2013-09-19 | Clarion Co Ltd | Vehicle periphery monitoring device |
JP2013222254A (en) * | 2012-04-13 | 2013-10-28 | Hitachi Constr Mach Co Ltd | Image processing device for self-traveling industrial machine and image processing method for self-traveling industrial machine |
-
2017
- 2017-09-12 JP JP2017174549A patent/JP6878221B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006010652A (en) * | 2004-06-29 | 2006-01-12 | Toyota Motor Corp | Object-detecting device |
JP2011049646A (en) * | 2009-08-25 | 2011-03-10 | Secom Co Ltd | Leaving monitoring device |
JP2012113605A (en) * | 2010-11-26 | 2012-06-14 | Toshiba Alpine Automotive Technology Corp | Driving support apparatus and driving support method |
JP2013186668A (en) * | 2012-03-07 | 2013-09-19 | Clarion Co Ltd | Vehicle periphery monitoring device |
JP2013222254A (en) * | 2012-04-13 | 2013-10-28 | Hitachi Constr Mach Co Ltd | Image processing device for self-traveling industrial machine and image processing method for self-traveling industrial machine |
Non-Patent Citations (2)
Title |
---|
ADITI S. JAHAGIRDAR ET AL.: ""EVALUATION OF MOVING OBJECT DETECTION TECHNIQUES FOR LOW RESOLUTION VIDEOS"", 3RD INTERNATIONAL CONFERENCE ON ELECTRICAL, ELECTRONICS, ENGINEERING TRENDS, COMMUNICATION, OPTIMIZA, JPN6021012275, 1 June 2016 (2016-06-01), US, pages 1 - 6, ISSN: 0004484572 * |
白井 良明、三浦 純: ""複雑背景における人の追跡"", 情報処理学会論文誌, vol. Vol.43, No.SIG 4(CVIM 4), JPN6021012272, 15 June 2002 (2002-06-15), JP, pages 33 - 42, ISSN: 0004484571 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020180466A (en) * | 2019-04-25 | 2020-11-05 | シンフォニアテクノロジー株式会社 | Work machine periphery monitoring system, and work machine periphery monitoring program |
JP7227486B2 (en) | 2019-04-25 | 2023-02-22 | シンフォニアテクノロジー株式会社 | Working Machine Surrounding Monitoring System, Working Machine Surrounding Monitoring Program |
WO2020261824A1 (en) | 2019-06-25 | 2020-12-30 | 株式会社クボタ | Working vehicle, obstacle detection method, and obstacle detection program |
CN114051725A (en) * | 2019-07-18 | 2022-02-15 | 株式会社小松制作所 | Display system for work vehicle and display method for work vehicle |
JP2021022804A (en) * | 2019-07-26 | 2021-02-18 | シンフォニアテクノロジー株式会社 | Work machine peripheral monitoring system, and work machine peripheral monitoring program |
JP7332868B2 (en) | 2019-07-26 | 2023-08-24 | シンフォニアテクノロジー株式会社 | Working Machine Surrounding Monitoring System, Working Machine Surrounding Monitoring Program |
JP7560949B2 (en) | 2020-03-19 | 2024-10-03 | セコム株式会社 | Image processing system and control program |
JP7577589B2 (en) | 2021-03-26 | 2024-11-05 | 日立建機株式会社 | Object Recognition System |
Also Published As
Publication number | Publication date |
---|---|
JP6878221B2 (en) | 2021-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6878221B2 (en) | Obstacle detection system for work machines | |
US9463741B2 (en) | Vehicle peripheral obstacle notification system | |
JP6919567B2 (en) | Information processing equipment, information processing methods, and programs | |
US9990543B2 (en) | Vehicle exterior moving object detection system | |
JP4267657B2 (en) | Vehicle periphery monitoring device | |
JP6072064B2 (en) | Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine | |
US20160200252A1 (en) | Surroundings monitoring device for work machine | |
US10017112B2 (en) | Surroundings monitoring device of vehicle | |
JPWO2017131243A1 (en) | Work vehicle periphery monitoring system, work vehicle, and work vehicle periphery monitoring method | |
JP5902990B2 (en) | Self-propelled industrial machine image processing device | |
JP2015184903A (en) | Image processor of self-traveling industrial machine | |
JP6352797B2 (en) | Work machine ambient monitoring device | |
JP6339337B2 (en) | Moving object detection system around the vehicle | |
US20190325607A1 (en) | Movement information estimation device, abnormality detection device, and abnormality detection method | |
JP6581519B2 (en) | Obstacle detection system for construction machinery | |
JP2007280387A (en) | Method and device for detecting object movement | |
JP5083142B2 (en) | Vehicle periphery monitoring device | |
JP7280852B2 (en) | Person detection system, person detection program, trained model generation program and trained model | |
JP2019064301A (en) | Vehicle control device and vehicle control method | |
CN110945866B (en) | Vehicle surrounding image display device and vehicle surrounding image display method | |
JP6770903B2 (en) | Distance calculation device and distance calculation method | |
US20220067403A1 (en) | Visual guidance system and method | |
JP6886929B2 (en) | Transport vehicle | |
JP2018064191A (en) | Obstacle detection system and construction machine | |
JP2019066919A (en) | Vehicle control device and vehicle control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6878221 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |