JP2019049918A - Obstacle detection system for heavy equipment - Google Patents

Obstacle detection system for heavy equipment Download PDF

Info

Publication number
JP2019049918A
JP2019049918A JP2017174549A JP2017174549A JP2019049918A JP 2019049918 A JP2019049918 A JP 2019049918A JP 2017174549 A JP2017174549 A JP 2017174549A JP 2017174549 A JP2017174549 A JP 2017174549A JP 2019049918 A JP2019049918 A JP 2019049918A
Authority
JP
Japan
Prior art keywords
obstacle
area
image
unit
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017174549A
Other languages
Japanese (ja)
Other versions
JP6878221B2 (en
Inventor
和也 杉本
Kazuya Sugimoto
和也 杉本
川股 幸博
Yukihiro Kawamata
幸博 川股
善文 福田
Yoshifumi Fukuda
善文 福田
啓範 石井
Keihan Ishii
啓範 石井
舜 辻村
Shun Tsujimura
舜 辻村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2017174549A priority Critical patent/JP6878221B2/en
Publication of JP2019049918A publication Critical patent/JP2019049918A/en
Application granted granted Critical
Publication of JP6878221B2 publication Critical patent/JP6878221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an obstacle detection system for heavy equipment that can enhance the detection accuracy while preventing error detection caused by changes of terrain affected by obstacles which are driving or working.SOLUTION: An obstacle detection system comprises a camera 11 for photographing the surrounding of a dump truck 1, an image processing device 12 for detecting obstacles within the image captured by the camera 11, and a display device 13 for displaying an image processed by the image processing device 12. The image processing device 12 comprises: an obstacle position detecting section 21 for calculating the positional detection area of an obstacle by excluding, from difference observed area calculated by a background difference calculating section 17, a traveling route area calculated by a traveling route area calculating section 20; and a composite image generating section 16 for generating a composite image by superimposing, on the current image, an area marker indicating the positional detection area of the obstacle calculated by the obstacle position detecting section 21, and then outputting the composite image to the display device 13.SELECTED DRAWING: Figure 3

Description

本発明は、カメラで取得された画像中の障害物を検知する作業機械の障害物検知システムに関する。   The present invention relates to an obstacle detection system for a working machine that detects an obstacle in an image acquired by a camera.

鉱山等の不整地環境下で稼働する作業機械として、例えば、地面を掘削する油圧ショベルや、地面を整地するホイールローダ、土砂を運搬するダンプトラック等がある。前述した作業機械の中でも、特に、全高が7m以上ある超大型のダンプトラックは、オペレータが直接視認することができない死角が多く存在する。このような理由などから、作業機械がその周囲の障害物(詳細には、他の車両や人などの移動物)と接触する事故が発生する可能性がある。   Examples of work machines that operate under rough ground environments such as mines include hydraulic shovels excavating the ground, wheel loaders that ground the ground, and dump trucks that transport earth and sand. Among the above-described work machines, particularly a super-large dump truck having a total height of 7 m or more, there are many blind spots where the operator can not directly view. For this reason, there is a possibility that an accident may occur in which the work machine contacts an obstacle around it (specifically, a moving object such as another vehicle or a person).

そこで、作業機械のオペレータに注意を促すための作業機械の障害物検知システムが提唱されている(例えば、特許文献1参照)。特許文献1の障害物検知システムは、作業機械の周囲を撮影するカメラと、カメラで取得された画像中の障害物を検知する画像処理装置と、画像処理装置で処理された画像を表示する表示装置とを備える。   Therefore, an obstacle detection system for a working machine has been proposed for alerting an operator of the working machine (see, for example, Patent Document 1). The obstacle detection system of Patent Document 1 includes a camera for photographing the periphery of a work machine, an image processing apparatus for detecting an obstacle in an image acquired by the camera, and a display for displaying an image processed by the image processing apparatus. And an apparatus.

特許文献1の画像処理装置は、例えばカメラで取得された現在の画像と過去の画像とを比較して両画像の画素間に関する動きベクトル(オプティカルフロー)を算出し、動きベクトルに基づいて障害物の領域を検出する。あるいは、例えば現在の画像の画素値と予め作成された背景モデル画像の画素値との差分に基づいて障害物の領域を検出する。   The image processing apparatus of Patent Document 1 compares, for example, a current image acquired by a camera with a past image to calculate a motion vector (optical flow) between pixels of both images, and an obstacle based on the motion vector. Detect the area of Alternatively, the area of the obstacle is detected based on, for example, the difference between the pixel value of the current image and the pixel value of the background model image created in advance.

特許文献2は、画像中の障害物の領域を検出する他の方法を開示している。この方法では、現在の画像の画素値と過去の画像の画素値との差分に基づいて複数の差分領域とそれら領域間の輪郭を算出する。また、現在の画像と過去の画像を比較して両画像の画素間に関する動きベクトルを算出し、互いに同じとみなせる動きベクトルを有する現在の画像の画素を集約して動きベクトル発生領域を取得する。そして、複数の輪郭のうち、動きベクトル発生領域に対応する輪郭を抽出し、それらの輪郭で囲まれた領域を障害物の領域として検出する。   Patent Document 2 discloses another method for detecting an area of an obstacle in an image. In this method, a plurality of difference areas and an outline between the areas are calculated based on the difference between the pixel value of the current image and the pixel value of the past image. Also, a current image and a past image are compared to calculate a motion vector between pixels of both images, and pixels of the current image having motion vectors that can be regarded as the same as each other are collected to obtain a motion vector generation region. Then, among the plurality of contours, the contour corresponding to the motion vector generation region is extracted, and the region surrounded by those contours is detected as the region of the obstacle.

特開2013−222254号公報JP, 2013-222254, A

特開2015−138319号公報JP, 2015-138319, A

上述した通り、特許文献1では、現在の画像と過去の画像を比較して動きベクトルを算出し、動きベクトルに基づいて障害物の位置を検知する方法を採用するか、若しくは、現在の画像の画素値と背景モデル画像の画素値との差分に基づいて障害物の位置を検知する方法を採用する。前者の方法では、障害物の全体に輝度差が無い場合に、障害物の全体に対して動きベクトルを算出することが困難となり、障害物の位置の検知精度が低下する。そのため、前者の方法より後者の方法のほうが、障害物の位置の検知精度を高めることが可能である。   As described above, in Patent Document 1, a method of calculating a motion vector by comparing a current image and a past image, and detecting a position of an obstacle based on the motion vector is adopted, or A method of detecting the position of the obstacle based on the difference between the pixel value and the pixel value of the background model image is adopted. In the former method, when there is no luminance difference in the whole obstacle, it becomes difficult to calculate a motion vector for the whole obstacle, and the detection accuracy of the position of the obstacle is lowered. Therefore, the latter method can improve the detection accuracy of the position of the obstacle than the former method.

しかし、鉱山等の不整地環境下では、障害物の走行や作業によって地形の変化が生じており、後者の方法では、地形の変化に対応することができず、誤検知を招く可能性がある。具体的に説明すると、障害物である他の車両が走行した際に、その軌跡上で轍が発生する。また、障害物である油圧ショベルやホイールローダが作業した際に、その軌跡上で地形が変化する。そして、現在の画像の画素値と背景モデル画像の画素値との差分には、障害物だけでなく地形の変化も含まれてしまうため、誤検知を招く可能性がある。   However, in rough ground environments such as mines, changes in topography occur due to travel or work of obstacles, and the latter method can not cope with changes in topography, which may lead to erroneous detection. . Specifically, when another vehicle which is an obstacle travels, wrinkles occur on the trajectory. In addition, when a hydraulic excavator or a wheel loader, which is an obstacle, works, the topography changes on the trajectory. Then, the difference between the pixel value of the current image and the pixel value of the background model image includes not only the change in the obstacle but also the change in the topography, which may cause erroneous detection.

また、仮に、特許文献2に記載の方法を採用した場合でも、障害物の輪郭と地形の変化部分の輪郭が連続して区別できず、誤検知を招く可能性がある。   Further, even when the method described in Patent Document 2 is adopted, the contour of the obstacle and the contour of the changing portion of the terrain can not be distinguished continuously, which may cause erroneous detection.

本発明は、上述の事柄に鑑みてなされたものであり、その目的は、障害物の走行又は作業による地形の変化が原因となる誤検知を防止しつつ、検知精度を高めることができる作業機械の障害物検知システムを提供することにある。   The present invention has been made in view of the above-described matters, and an object thereof is to provide a working machine capable of enhancing detection accuracy while preventing erroneous detection caused by a change in topography due to traveling or work of an obstacle. To provide an obstacle detection system.

上記目的を達成するために、本発明は、作業機械の周囲を撮影するカメラと、前記カメラで取得された画像中の障害物を検知する画像処理装置と、前記画像処理装置で処理された画像を表示する表示装置とを備えた作業機械の障害物検知システムにおいて、前記画像処理装置は、前記カメラで取得された画像を時系列的に記憶する第1記憶部と、前記カメラで取得された現在の画像の画素値と予め作成された背景モデル画像の画素値との差分に基づいて差分発生領域を算出する背景差分算出部と、前記現在の画像と直前の画像とを比較して両画像間の画素に関する動きベクトルを算出し、互いに同じとみなせる動きベクトルを有する前記現在の画像の画素を集約して動きベクトル発生領域を取得する動きベクトル算出部と、前記動きベクトル算出部で取得された動きベクトル発生領域の面積が所定の閾値以上である場合に、前記動きベクトル発生領域の位置情報に基づいて、前記障害物が存在する領域を示す少なくとも1つの障害物位置推定領域を生成する障害物位置推定部と、前記障害物位置推定部で生成された前記障害物位置推定領域を時系列的に記憶する第2記憶部と、前記第2記憶部に記憶された前記障害物位置推定領域の履歴情報に基づいて前記障害物の移動経路領域を算出する移動経路領域算出部と、前記背景差分算出部で算出された差分発生領域から、前記移動経路領域算出部で算出された移動経路領域を除外することにより、前記障害物の位置検出領域を生成する障害物位置検出部と、前記カメラで取得された前記現在の画像に、前記障害物位置検出部で生成された障害物の位置検出領域を示す領域マーカを重畳して合成画像を生成し、この合成画像を前記表示装置へ出力する合成画像生成部とを備える。   In order to achieve the above object, the present invention provides a camera for photographing the periphery of a work machine, an image processing apparatus for detecting an obstacle in an image acquired by the camera, and an image processed by the image processing apparatus. In the obstacle detection system for a working machine including a display device for displaying the image, the image processing device includes: a first storage unit that stores images acquired by the camera in time series; and the image storage device acquired by the camera A background difference calculation unit that calculates a difference generation area based on the difference between the pixel value of the current image and the pixel value of the background model image created in advance, and comparing the current image with the immediately preceding image A motion vector calculation unit that calculates a motion vector related to the pixels between the pixels, collects pixels of the current image having motion vectors that can be regarded as the same as one another, and acquires a motion vector generation area; At least one obstacle position estimation indicating the area in which the obstacle exists based on the position information of the motion vector generation area when the area of the motion vector generation area acquired by the output unit is equal to or greater than a predetermined threshold value An obstacle position estimation unit that generates a region; a second storage unit that stores the obstacle position estimation region generated by the obstacle position estimation unit in time series; and the second storage unit stores the second storage unit The movement path area calculation unit calculates the movement path area calculation unit that calculates the movement path area of the obstacle based on the history information of the obstacle position estimation area and the difference generation area calculated by the background difference calculation unit An obstacle position detection unit that generates the position detection area of the obstacle by excluding the moving path area, and the obstacle position detection unit generates the current image acquired by the camera. By superimposing a region marker indicating the position detection area of the obstacle to generate a composite image, and a composite image generating unit for outputting the synthesized image to the display device.

本発明では、現在の画像の画素値と背景モデル画像の画素値との差分に基づいて差分発生領域を算出し、これに基づいて障害物の位置を検知する。これにより、現在の画像と直前の画像とを比較して動きベクトルを算出し、これに基づいて障害物の位置を検知する場合と比べ、検知精度を高めることができる。   In the present invention, the difference generation area is calculated based on the difference between the pixel value of the current image and the pixel value of the background model image, and the position of the obstacle is detected based on this. As a result, it is possible to calculate the motion vector by comparing the current image and the previous image, and to improve the detection accuracy compared to the case where the position of the obstacle is detected based on this.

しかし、前述した差分発生領域には、障害物の走行又は作業による地形の変化部分を含む可能性がある。そのため、本発明では、動きベクトル発生領域の位置情報に基づいて障害物位置推定領域を生成し、障害物位置推定領域の履歴情報に基づいて障害物の移動経路領域を算出する。この移動経路領域は、障害物の走行又は作業による地形の変化が現れる領域である。そのため、差分発生領域から移動経路領域を除外することにより、地形の変化が原因となる誤検知を防止することができる。   However, the above-described difference generation area may include a change in topography due to travel or work of an obstacle. Therefore, in the present invention, the obstacle position estimation area is generated based on the position information of the motion vector generation area, and the movement path area of the obstacle is calculated based on the history information of the obstacle position estimation area. The movement path area is an area where a change in topography due to travel or work of an obstacle appears. Therefore, by excluding the movement path area from the difference generation area, it is possible to prevent an erroneous detection caused by a change in topography.

本発明の第1の実施形態におけるダンプトラックの構造を表す側面図である。It is a side view showing the structure of the dump truck in a 1st embodiment of the present invention. 本発明の第1の実施形態における障害物検知システムの構成を表す外観図である。BRIEF DESCRIPTION OF THE DRAWINGS It is an external view showing the structure of the obstacle detection system in the 1st Embodiment of this invention. 本発明の第1の実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。It is a block diagram showing the functional composition of the image processing device in a 1st embodiment of the present invention with related apparatus. 本発明の第1の実施形態における現在の画像及び直前の画像の具体例を表す図である。It is a figure showing the example of the present image in the 1st Embodiment of this invention, and the image of the last. 本発明の第1の実施形態における画像処理装置の処理内容を表すフローチャートである。It is a flowchart showing the processing content of the image processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態における背景モデル画像の具体例を表す図である。It is a figure showing the specific example of the background model image in the 1st Embodiment of this invention. 本発明の第1の実施形態における差分発生領域の具体例を示す図である。It is a figure which shows the specific example of the difference generation | occurrence | production area | region in the 1st Embodiment of this invention. 本発明の第1の実施形態における動きベクトルの一例と動きベクトル発生領域の具体例を示す図である。It is a figure which shows an example of the motion vector in the 1st Embodiment of this invention, and the specific example of a motion vector generation | occurrence | production area | region. 本発明の第1の実施形態における現在の障害物の位置推定領域の具体例を示す図である。It is a figure which shows the specific example of the position estimation area | region of the present obstacle in the 1st Embodiment of this invention. 本発明の第1の実施形態における障害物の移動経路領域の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the movement path | route area | region of the obstruction in the 1st Embodiment of this invention. 本発明の第1の実施形態における障害物の位置検出領域の具体例を示す図である。It is a figure which shows the specific example of the position detection area | region of the obstruction in the 1st Embodiment of this invention. 本発明の第1の実施形態における合成画像の具体例を表す図である。It is a figure showing the example of the synthetic | combination image in the 1st Embodiment of this invention. 本発明の第2の実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。It is a block diagram showing the functional composition of the image processing device in a 2nd embodiment of the present invention with related apparatus. 本発明の第2の実施形態における画像処理装置の処理内容を表すフローチャートである。It is a flowchart showing the processing content of the image processing apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施形態における静止状態の障害物と動作状態の障害物を説明するための図である。It is a figure for demonstrating the obstacle of a state of rest in the 2nd embodiment of the present invention, and the obstacle of an operation state. 本発明の第2の実施形態における過去の画像の具体例を表す図であり、過去の障害物位置推定領域の具体例を示す。It is a figure showing the specific example of the past image in a 2nd embodiment of the present invention, and shows the specific example of the obstacle position presumed field in the past. 本発明の第2の実施形態における現在の画像の具体例を表す図であり、現在の障害物位置推定領域の具体例を示す。It is a figure showing the example of the present picture in a 2nd embodiment of the present invention, and shows the example of the present obstacle position presumed field. 本発明の第2の実施形態における障害物の移動経路領域の具体例を示す図である。It is a figure which shows the specific example of the movement path area | region of the obstruction in the 2nd Embodiment of this invention. 本発明の第2の実施形態における差分発生領域の具体例を示す図である。It is a figure which shows the specific example of the difference generation | occurrence | production area | region in the 2nd Embodiment of this invention. 本発明の第2の実施形態における障害物の位置検出領域の具体例を示す図である。It is a figure which shows the specific example of the position detection area | region of the obstruction in the 2nd Embodiment of this invention. 本発明の第2の実施形態における合成画像の具体例を表す図である。It is a figure showing the example of the synthetic | combination image in the 2nd Embodiment of this invention. 本発明の第3の実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。It is a block diagram showing the functional composition of the image processing device in a 3rd embodiment of the present invention with related apparatus. 本発明の第3の実施形態における画像処理装置の処理内容を表すフローチャートである。It is a flowchart showing the processing content of the image processing apparatus in the 3rd Embodiment of this invention. 本発明の第3の実施形態における第1過去及び第2過去の画像の具体例を表す図であり、第1過去及び第2過去の障害物位置推定領域の具体例を示す。It is a figure showing the example of the 1st past and the 2nd past picture in a 3rd embodiment of the present invention, and shows the example of the 1st past and the 2nd past obstacle position presumption field. 本発明の第3の実施形態における第3過去の画像の具体例を表す図であり、第3過去の障害物位置推定領域と地形変化領域の具体例を示す。It is a figure showing the example of the 3rd past picture in a 3rd embodiment of the present invention, and shows the example of the obstacle position presumed field and terrain change field of the 3rd past. 本発明の第3の実施形態における現在の画像の具体例を表す図であり、現在の障害物位置推定領域の具体例を示す。It is a figure showing the example of the present picture in a 3rd embodiment of the present invention, and shows the example of the present obstacle position presumed field. 本発明の第3の実施形態における障害物の移動経路領域の具体例を地形変化領域と共に示す図である。It is a figure which shows the specific example of the moving-path area | region of the obstruction in the 3rd Embodiment of this invention with a topography change area. 本発明の第3の実施形態における差分発生領域の具体例を示す図である。It is a figure which shows the specific example of the difference generation | occurrence | production area | region in the 3rd Embodiment of this invention. 本発明の第3の実施形態における障害物の位置検出領域の具体例を示す図である。It is a figure which shows the specific example of the position detection area | region of the obstruction in the 3rd Embodiment of this invention. 本発明の第3の実施形態における合成画像の具体例を表す図である。It is a figure showing the specific example of the synthetic | combination image in the 3rd Embodiment of this invention. 本発明の一変形例における合成画像の具体例を表す図である。It is a figure showing the example of the synthetic | combination image in one modification of this invention.

以下、本発明の適用対象として、鉱山等の不整地環境下で稼働するダンプトラックを例にとり、本発明の実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described by taking a dump truck operating under rough ground environment such as a mine as an example to which the present invention is applied.

本発明の第1の実施形態を、図面を参照しつつ説明する。図1は、本実施形態におけるダンプトラックの構造を表す側面図である。図2は、本実施形態における障害物検知システムの構成を表す外観図である。図3は、本実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。   A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a side view showing the structure of a dump truck in the present embodiment. FIG. 2 is an external view showing a configuration of an obstacle detection system in the present embodiment. FIG. 3 is a block diagram showing the functional configuration of the image processing apparatus in the present embodiment together with related devices.

ダンプトラック1は、前輪2及び後輪3を有する車体フレーム4と、車体フレーム4の後部にピン結合部5を介し傾動可能に設けられたベッセル6と、車体フレーム4の前部に配置された運転室7とを備えている。ベッセル6は、土砂等を積載するための荷台であり、左右一対の起伏シリンダ8(油圧シリンダ)の伸縮によって起伏するようになっている。ベッセル6の前側上部には、運転室7を保護するための庇部9が設けられている。図示しないものの、運転室7の内部には、シフトレバー、操舵用のハンドル、アクセルペダル、及びブレーキペダル等が設置されている。   The dump truck 1 is disposed at the front of the vehicle body frame 4 with the vehicle body frame 4 having the front wheel 2 and the rear wheel 3, the vessel 6 provided tiltably at the rear of the vehicle body frame 4 via the pin joint 5 and A driver's cab 7 is provided. The vessel 6 is a loading platform for loading soil and the like, and is configured to be undulated by the expansion and contraction of a pair of left and right undulating cylinders 8 (hydraulic cylinders). At the upper front of the vessel 6, a collar 9 is provided to protect the cab 7. As shown in FIG. Although not shown, a shift lever, a steering wheel, an accelerator pedal, a brake pedal and the like are installed inside the cab 7.

ダンプトラック1は、ダンプトラック1のオペレータに注意を促すための障害物検知システムを備えている。本実施形態の障害物検知システムは、ダンプトラック1の周囲を撮影するカメラ11と、カメラ11で取得された画像中の障害物を検知する画像処理装置12(コントローラ)と、画像処理装置12で処理された画像を表示する表示装置13(モニタ)とで構成されている。   The dump truck 1 is provided with an obstacle detection system for alerting the operator of the dump truck 1. The obstacle detection system according to the present embodiment includes a camera 11 for photographing the periphery of the dump truck 1, an image processing device 12 (controller) for detecting an obstacle in an image acquired by the camera 11, and an image processing device 12. And a display device 13 (monitor) for displaying the processed image.

カメラ11は、例えば図1で示すように、車体フレーム4の前部の幅方向中央に俯角(下向きの角度)で取付けられており、ダンプトラック1の前方の視野範囲ARを撮影する。カメラ11は、所定の周期で画像を取得して画像処理装置12へ出力するようになっている。   For example, as shown in FIG. 1, the camera 11 is attached at the center in the width direction of the front portion of the vehicle body frame 4 at a depression angle (downward angle), and images the front view range AR of the dump truck 1. The camera 11 acquires an image at a predetermined cycle and outputs the image to the image processing device 12.

画像処理装置12及び表示装置13は、運転室7内に設置されている。画像処理装置12は、例えばCPU、ROM、及びRAM等で構成されており、機能的構成として、画像記憶部14(第1記憶部)、障害物検知部15、合成画像生成部16、及び自機停車判定部(図示せず)を有している。   The image processing device 12 and the display device 13 are installed in the cab 7. The image processing apparatus 12 includes, for example, a CPU, a ROM, and a RAM, and has a functional configuration including an image storage unit 14 (first storage unit), an obstacle detection unit 15, a composite image generation unit 16, and It has an aircraft stop determination unit (not shown).

画像記憶部14は、カメラ11からの画像を順次入力して時系列に記憶しており、記憶した画像が上限枚数(例えば30枚)に達すれば、最古の画像を削除して最新(現在)の画像31を記憶する。また、画像記憶部14は、合成画像生成部16へ現在の画像31を出力する。   The image storage unit 14 sequentially receives images from the camera 11 and stores them in time series, and when the stored images reach the upper limit number (for example, 30), the oldest image is deleted and the latest (current) ) Is stored. The image storage unit 14 also outputs the current image 31 to the composite image generation unit 16.

図4(a)は、現在の画像31の具体例を表す図である。図4(b)は、過去の画像群33に含まれる直前の画像32の具体例を表す図である。この具体例では、ホイールローダ(障害物)が走行し、その軌跡上に轍が発生する場合を想定している。画像31等には、自機構造物34(詳細には、ダンプトラック1の車体フレーム4の前端)が映っている。   FIG. 4A shows a specific example of the current image 31. As shown in FIG. FIG. 4B is a diagram showing a specific example of the immediately preceding image 32 included in the past image group 33. As shown in FIG. In this specific example, it is assumed that the wheel loader (obstacle) travels and wrinkles occur on the trajectory. In the image 31 etc., a self-machine structure 34 (specifically, the front end of the vehicle body frame 4 of the dump truck 1) is shown.

障害物検知部15は、背景差分算出部17、動きベクトル算出部18、障害物位置推定部19、移動経路領域算出部20、障害物位置検出部21、及び記憶部22(第2記憶部)を有している。障害物検知部15は、画像記憶部14から現在の画像31等を入力し、現在の画像31等に対して画像処理を行うことにより、現在の画像31中の障害物の位置検出領域を生成する(詳細は後述)。なお、時間短縮のため、画像の全体でなく対象範囲35に対して処理を行うように設定されている。但し、画像の全体に対して処理を行ってもよい。   The obstacle detection unit 15 includes a background difference calculation unit 17, a motion vector calculation unit 18, an obstacle position estimation unit 19, a movement path area calculation unit 20, an obstacle position detection unit 21, and a storage unit 22 (second storage unit). have. The obstacle detection unit 15 receives the current image 31 and the like from the image storage unit 14 and performs image processing on the current image 31 and the like to generate a position detection area of the obstacle in the current image 31. (Details will be described later). In order to reduce the time, processing is set to be performed on the target range 35 instead of the entire image. However, processing may be performed on the entire image.

合成画像生成部16は、画像記憶部14からの現在の画像31に、障害物検知部15で生成された障害物の位置検出領域を示す領域マーカを重畳して合成映像を生成し、この合成映像を表示装置13へ出力するようになっている(詳細は後述)。   The composite image generation unit 16 superimposes a region marker indicating the position detection region of the obstacle generated by the obstacle detection unit 15 on the current image 31 from the image storage unit 14 to generate a composite image, and this composite image is generated. An image is output to the display device 13 (details will be described later).

自機停車判定部は、例えば速度センサ(図示せず)で検出された自機(ダンプトラック1)の走行速度を入力するか、若しくはシフトレバーの操作位置を入力しており、これに基づいて自機が停車しているか否かを判定する。そして、その判定情報を、画像記憶部14及び障害物検知部15に出力する。画像記憶部14は、自機の停車後に記憶された画像の枚数をカウントし、そのカウント情報を障害物検知部15の背景差分算出部17へ出力する。   The own-machine stop determination unit inputs, for example, the traveling speed of the own machine (dump truck 1) detected by a speed sensor (not shown) or inputs the operation position of the shift lever, and based on this Determine whether your aircraft is at a standstill. Then, the determination information is output to the image storage unit 14 and the obstacle detection unit 15. The image storage unit 14 counts the number of images stored after the own vehicle stops, and outputs the count information to the background difference calculation unit 17 of the obstacle detection unit 15.

次に、本実施形態の画像処理装置12の処理手順を説明する。図5は、本実施形態における画像処理装置12の処理内容を表すフローチャートである。   Next, the processing procedure of the image processing apparatus 12 of the present embodiment will be described. FIG. 5 is a flowchart showing the processing content of the image processing apparatus 12 in the present embodiment.

まず、ステップS101にて、背景差分算出部17は、画像記憶部14からのカウント情報により、自機の停車後に記憶された画像が予め設定された所定枚数(例えば10枚)以上であるか否かを判定する。自機の停車後に記憶された画像が所定枚数未満である場合は、ステップS101の判定がNOとなり、その判定が繰り返される。自機の停車後に記憶された画像が所定枚数以上である場合は、ステップS101の判定がYESとなり、ステップS102に移る。ステップS102にて、背景差分算出部17は、自機の停車後に記憶された所定枚数の画像を画像記憶部14から入力し、それらの画像に基づき背景モデル画像36を作成して、画像記憶部14に記憶する。図6は、背景モデル画像36の具体例を表す図であり、この具体例では、背景モデル画像36に障害物が存在していない。   First, in step S101, the background difference calculation unit 17 determines whether or not the number of images stored after the own vehicle is stopped is at least a predetermined number (for example, 10) according to the count information from the image storage unit 14 Determine if If the number of images stored after the own vehicle stops is less than the predetermined number, the determination in step S101 is NO, and the determination is repeated. If the number of images stored after the own vehicle is stopped is equal to or more than the predetermined number, the determination in step S101 is YES, and the process proceeds to step S102. In step S102, the background difference calculation unit 17 inputs a predetermined number of images stored after the own machine stops from the image storage unit 14, creates the background model image 36 based on those images, and the image storage unit Store in 14. FIG. 6 is a view showing a specific example of the background model image 36. In this specific example, no obstacle is present in the background model image 36. As shown in FIG.

そして、ステップS103に進み、背景差分算出部17は、自機停車判定部からの判定情報に基づき、背景モデル画像36を作成したときから、自機の停車状態が継続しているか否かを判定する。自機の停車状態が継続していない場合は、ステップS103の判定がNOとなり、ステップS101に戻って上記同様の手順を繰り返す。自機の停車が継続している場合は、ステップS103の判定がYESとなり、ステップS104及びS105に移る。   Then, the process proceeds to step S103, and the background difference calculation unit 17 determines whether or not the stop condition of the own machine continues since the background model image 36 was created based on the determination information from the own machine stop determination unit. Do. If the own vehicle is not in the stopped state, the determination in step S103 is NO, and the process returns to step S101 to repeat the same procedure as described above. If the stop of the own aircraft continues, the determination in step S103 is YES, and the process proceeds to steps S104 and S105.

ステップS104にて、背景差分算出部17は、画像記憶部14から現在の画像31と背景モデル画像36を入力し、それらの画素値間の差分に基づいて差分発生領域を算出する。詳細には、現在の画像31と背景モデル画像36に対し、対象範囲35内の画素毎の輝度値の差分を算出し、輝度値の差分が所定の閾値(例えば30階調)以上は白、所定の閾値未満は黒とする二値化処理を行う。図7は、差分発生領域の具体例を示す図である。この具体例では、図4(a)の現在の画像31の画素値と図5の背景モデル画像36の画素値との差分に基づいて算出された差分発生領域37を示している。なお、差分発生領域(並びに、後述する障害物位置推定領域、移動経路領域、及び障害物位置検出領域等)は、画像上の位置情報を含むものとする。   In step S104, the background difference calculation unit 17 receives the current image 31 and the background model image 36 from the image storage unit 14, and calculates a difference generation area based on the difference between the pixel values. Specifically, for the current image 31 and the background model image 36, the difference in luminance value for each pixel in the target range 35 is calculated, and the difference in luminance value is white at a predetermined threshold (for example, 30 gradations) or more, A binarization process is performed to make black below a predetermined threshold. FIG. 7 is a diagram showing a specific example of the difference generation area. In this specific example, a difference generation area 37 calculated based on the difference between the pixel value of the current image 31 of FIG. 4A and the pixel value of the background model image 36 of FIG. 5 is shown. The difference generation area (as well as an obstacle position estimation area, a movement route area, an obstacle position detection area, and the like, which will be described later) includes position information on the image.

一方、ステップS105にて、動きベクトル算出部18は、画像記憶部14から現在の画像31と直前の画像32を入力し、例えばブロックマッチング法を用いて画像31,32を比較して、画像31,32間の画素に関する動きベクトルを算出する。詳細には、直前の画像32の注目画素38(図8(a)参照)及びその周囲の画素を含む注目ブロックと、この注目ブロックから位置をずらした現在の画像31の比較画素39(図8(a)参照)及びその周囲の画素を含む比較ブロックとを設定し、注目ブロックと比較ブロックに対して輝度値分布の類似度を算出し、この類似度が高いと判定された場合に注目画素38から比較画素39への動きベクトル40(図8(a)参照)を算出する。なお、本実施形態では、動きベクトルの方向を左方向、右方向、上方向、及び下方向のうちのいずれかに大別しており、図8(a)の動きベクトル40の方向は左方向とみなしている。   On the other hand, in step S105, the motion vector calculation unit 18 receives the current image 31 and the previous image 32 from the image storage unit 14, compares the images 31 and 32, for example, using the block matching method, , 32 are calculated for the pixel. In detail, a target block including the target pixel 38 (see FIG. 8A) of the immediately preceding image 32 and its surrounding pixels, and the comparison pixel 39 of the current image 31 shifted from the target block (FIG. 8) (A) Set a comparison block including the surrounding pixels and the surrounding pixels, calculate the similarity of the luminance value distribution for the block of interest and the comparison block, and determine the pixel of interest if it is determined that the similarity is high A motion vector 40 (see FIG. 8A) from 38 to the comparison pixel 39 is calculated. In the present embodiment, the direction of the motion vector is roughly divided into any one of the left direction, the right direction, the upper direction, and the lower direction, and the direction of the motion vector 40 in FIG. ing.

そして、ステップS106に進み、動きベクトル算出部18は、動きベクトルを有する現在の画像31の画素に対し、動きベクトルの方向が左方向、右方向、上方向、及び下方向のうちのいずれかで同じであるとみなせて且つ隣り合うものがあれば、それらを集約して動き発生ベクトル領域を取得する。図8(b)は、動きベクトル発生領域の具体例を示す図であり、便宜上、現在の画像31中のホイールローダ(障害物)に対し重畳して示している。この具体例では、1台のホイールローダの走行に起因した2つの動きベクトル発生領域41A,41Bを取得している。   Then, the process proceeds to step S106, and the motion vector calculation unit 18 determines that the motion vector has one of the left direction, the right direction, the upper direction, and the lower direction with respect to the pixels of the current image 31 having the motion vector. If there are things that can be regarded as the same and adjacent to each other, they are collected to obtain a motion occurring vector area. FIG. 8B is a diagram showing a specific example of the motion vector generation area, and for convenience, it is shown superimposed on the wheel loader (obstacle) in the current image 31. In this specific example, two motion vector generation areas 41A and 41B resulting from the travel of one wheel loader are acquired.

そして、ステップS107に進み、障害物位置推定部19は、動きベクトル算出部18で取得された動きベクトル発生領域の面積が所定の閾値(例えば対象範囲35の面積の0.5%)以上であるか否かを判定する。動きベクトル発生領域の面積が所定の閾値以上である場合は、現在の画像31中に動作状態の障害物が存在すると推定する。そして、動きベクトル算出部18で取得された動きベクトル発生領域が1つである場合は、その動きベクトル発生領域の位置情報に基づいて、1つの障害物の存在領域を示す1つの障害物位置推定領域を生成する。詳細には、1つの動きベクトル発生領域を包含する矩形状の障害物位置推定領域を、面積が極力小さくなるように設定する。   Then, the process proceeds to step S107, and the obstacle position estimation unit 19 determines that the area of the motion vector generation area acquired by the motion vector calculation unit 18 is equal to or larger than a predetermined threshold (for example, 0.5% of the area of the target range 35). It is determined whether or not. If the area of the motion vector generation area is equal to or greater than a predetermined threshold value, it is estimated that an obstacle in the operating state is present in the current image 31. Then, when there is one motion vector generation area acquired by the motion vector calculation unit 18, one obstacle position estimation indicating the existence area of one obstacle is performed based on the position information of the motion vector generation area. Create a region. In detail, a rectangular obstacle position estimation area including one motion vector generation area is set so as to reduce the area as much as possible.

動きベクトル算出部18で取得された動きベクトル発生領域が2つある場合は、2つの動きベクトル発生領域に対し、それらの動きベクトルの方向が同じであるとみなせて且つそれらの中心間距離が所定の閾値(例えば30ピクセル)以下であるか否かを判定する。動きベクトルの方向が同じであるとみなせて且つ中心間距離が所定の閾値以下である場合は、現在の画像31中に1つの動作状態の障害物が存在すると推定する。そのため、図9で示すように、2つの動きベクトル発生領域41A,41Bの位置情報に基づいて、1つの障害物の存在領域を示す1つの障害物位置推定領域42を生成する。詳細には、2つの動きベクトル発生領域41A,41Bを包含する矩形状の障害物位置推定領域42を、面積が極力小さくなるように設定する。   When there are two motion vector generation areas obtained by the motion vector calculation unit 18, the directions of the motion vectors of the two motion vector generation areas can be regarded as the same and their center distance is predetermined. It is determined whether or not it is less than or equal to a threshold (for example, 30 pixels). If the directions of the motion vectors can be regarded as the same and the center-to-center distance is equal to or less than a predetermined threshold, it is estimated that an obstacle of one motion state exists in the current image 31. Therefore, as shown in FIG. 9, one obstacle position estimation area 42 indicating the existence area of one obstacle is generated based on the position information of the two motion vector generation areas 41A and 41B. In detail, the rectangular obstacle position estimation area 42 including the two motion vector generation areas 41A and 41B is set so as to reduce the area as much as possible.

動きベクトルの方向が異なるか、若しくは、中心間距離が所定の閾値を超えれば、現在の画像31中に2つの動作状態の障害物が存在すると推定する。そのため、2つの動きベクトル発生領域の位置情報に基づいて、2つの障害物の存在領域をそれぞれ示す2つの障害物位置推定領域を生成する。詳細には、一方の動きベクトル発生領域を包含する一方の矩形状の障害物位置推定領域を、面積が極力小さくなるように設定すると共に、他方の動きベクトル発生領域を包含する他方の矩形状の障害物位置推定領域を、面積が極力小さくなるように設定する。上述のように生成された障害物位置推定領域は、障害物が動作状態であることや動きベクトルの方向と関連付けられて、記憶部22に時系列的に記憶される。   If the directions of the motion vectors are different or if the center-to-center distance exceeds a predetermined threshold, it is estimated that there are obstacles of two motion states in the current image 31. Therefore, based on the position information of the two motion vector generation areas, two obstacle position estimation areas respectively indicating the existence areas of the two obstacles are generated. In detail, one rectangular obstacle position estimation area including one motion vector generation area is set to be as small as possible while the other rectangular shape including the other motion vector generation area is set. The obstacle position estimation area is set so as to reduce the area as much as possible. The obstacle position estimation area generated as described above is temporally stored in the storage unit 22 in association with the obstacle being in the operating state and the direction of the motion vector.

また、障害物位置推定部19は、動きベクトル算出部18で取得された動きベクトル発生領域の面積が所定の閾値未満である場合に、現在の画像31中に静止状態の障害物が存在するか否かを推定する。具体的には、例えば背景差分算出部17で算出された差分発生領域の面積が所定の閾値(例えば対象範囲35の面積の0.5%)以上であれば、現在の画像31中に静止状態の障害物が存在すると推定する。あるいは、例えば記憶部22で記憶された直前の障害物位置推定領域(又はこれを含む過去数回分の障害物位置推定領域)が対象範囲35の縁側以外の部分(言い換えれば、中央の部分)に位置すれば、現在の画像31中に静止状態の障害物が存在すると判定する。   In addition, when the area of the motion vector generation area acquired by the motion vector calculation unit 18 is less than a predetermined threshold, the obstacle position estimation unit 19 determines whether an obstacle in a stationary state exists in the current image 31. Estimate whether or not. Specifically, for example, when the area of the difference generation area calculated by the background difference calculation unit 17 is equal to or more than a predetermined threshold (for example, 0.5% of the area of the target range 35), the still state in the current image 31 It is estimated that the obstacle of Alternatively, for example, the immediately preceding obstacle position estimation area stored in the storage unit 22 (or the obstacle position estimation area including the past several times including this) is in a portion other than the edge side of the target range 35 (in other words, the central portion) If it is located, it is determined that a stationary obstacle is present in the current image 31.

現在の画像31中に静止状態の障害物が存在すると推定した場合は、記憶部22で記憶された直前の障害物位置推定領域(又はこれを含む過去数回分の障害物位置推定領域)に基づいて現在の障害物位置推定領域を生成する。このように生成された障害物位置推定領域は、障害物が静止状態であることと関連付けられて、記憶部22に時系列的に記憶される。   If it is estimated that a stationary obstacle is present in the current image 31, it is based on the immediately preceding obstacle position estimation area stored in the storage unit 22 (or the obstacle position estimation area for the past several times including this). Generate a current obstacle position estimation area. The obstacle position estimation area generated in this manner is stored in the storage unit 22 in chronological order, in association with the fact that the obstacle is stationary.

そして、ステップS108に進み、移動経路領域算出部20は、記憶部22に記憶された障害物位置推定領域の履歴情報に基づいて、障害物の移動経路領域を算出する。詳細には、過去の障害物位置推定領域群43(図10(a)参照)と現在の障害物位置推定領域42(図9及び図10(a)参照)との差分によって障害物の移動経路領域44(図10(b)参照)を算出する。   Then, the process proceeds to step S108, and the movement route area calculation unit 20 calculates the movement route area of the obstacle based on the history information of the obstacle position estimation area stored in the storage unit 22. In detail, the moving path of the obstacle is obtained by the difference between the past obstacle position estimation area group 43 (see FIG. 10A) and the present obstacle position estimation area 42 (see FIGS. 9 and 10A). An area 44 (see FIG. 10B) is calculated.

そして、ステップS109に進み、障害物位置検出部21の地形変化差分除外部23は、ステップS104にて背景差分算出部17で算出された差分発生領域37(図7参照)から、ステップS108にて移動経路領域算出部20で算出された障害物の移動経路領域44(図10参照)を除外することにより、障害物の位置検出領域45(図11参照)を生成する。このようにして生成された障害物の位置検出領域45は、上述した障害物位置推定領域と同様、障害物が静止状態又は動作状態であることと関連付けられて、記憶部22に時系列的に記憶されてもよい。   Then, the process proceeds to step S109, and the topography change difference exclusion unit 23 of the obstacle position detection unit 21 starts from the difference generation area 37 (see FIG. 7) calculated by the background difference calculation unit 17 in step S104 to step S108. By excluding the movement path area 44 (see FIG. 10) of the obstacle calculated by the movement path area calculation unit 20, the position detection area 45 (see FIG. 11) of the obstacle is generated. The position detection area 45 of the obstacle generated in this manner is associated with the stationary state or the operating state of the obstacle similarly to the above-described obstacle position estimation area, and is stored in the storage unit 22 in chronological order It may be stored.

そして、ステップS110に進み、合成画像生成部16は、障害物位置検出部21で生成された障害物の位置検出領域の面積が所定の閾値(例えば対象範囲35の面積の0.5%)以上であるか否かを判定する。図11で示す具体例では、障害物の位置検出領域45の面積が所定の閾値以上であるから、ステップS110の判定がYESとなり、ステップS111に移る。ステップS111にて、合成画像生成部16は、画像記憶部14からの現在の画像31(原画像)に、障害物位置検出部21で生成された障害物の位置検出領域45を示す領域マーカ46を重畳して合成画像47を生成する(図12参照)。詳細には、障害物の位置検出領域45を包含する矩形状の領域マーカ46を、面積が極力小さくなるように設定する。そして、合成画像47を、表示装置13に出力して表示させる。   Then, the process proceeds to step S110, and the composite image generation unit 16 determines that the area of the obstacle position detection area generated by the obstacle position detection unit 21 is equal to or greater than a predetermined threshold (for example, 0.5% of the area of the target range 35). It is determined whether the In the specific example shown in FIG. 11, since the area of the obstacle position detection area 45 is equal to or larger than the predetermined threshold value, the determination in step S110 is YES, and the process proceeds to step S111. In step S111, the composite image generation unit 16 displays an area marker 46 indicating the position detection area 45 of the obstacle generated by the obstacle position detection unit 21 on the current image 31 (original image) from the image storage unit 14. To generate a composite image 47 (see FIG. 12). In detail, the rectangular area marker 46 including the obstacle position detection area 45 is set so as to reduce the area as much as possible. Then, the composite image 47 is output to the display device 13 and displayed.

障害物位置検出部21で算出された障害物の位置検出領域の面積が閾値未満である場合は、ステップS110の判定がNOとなり、ステップS112に移る。ステップS112にて、合成画像生成部16は、画像記憶部14からの現在の画像31(原画像)をそのまま、表示装置13に出力して表示させる。   If the area of the position detection area of the obstacle calculated by the obstacle position detection unit 21 is smaller than the threshold, the determination in step S110 is NO, and the process proceeds to step S112. In step S112, the composite image generation unit 16 outputs the current image 31 (original image) from the image storage unit 14 to the display device 13 for display as it is.

以上のように構成された本実施形態においては、現在の画像31の画素値と背景モデル画像36の画素値との差分に基づいて差分発生領域37を算出し、これに基づいて障害物の位置を検知する。これにより、現在の画像31と直前の画像32とを比較して動きベクトルを算出し、これに基づいて障害物の位置を検知する場合と比べ、検知精度を高めることができる。   In the embodiment configured as described above, the difference generation area 37 is calculated based on the difference between the pixel value of the current image 31 and the pixel value of the background model image 36, and the position of the obstacle is calculated based on this. To detect As a result, it is possible to calculate the motion vector by comparing the current image 31 and the previous image 32, and to improve the detection accuracy compared to the case where the position of the obstacle is detected based on this.

しかし、前述した差分発生領域37には、障害物の走行又は作業による地形の変化部分を含む可能性がある。そのため、本実施形態では、動きベクトル発生領域の位置情報に基づいて障害物位置推定領域を生成し、障害物位置推定領域の履歴情報に基づいて障害物の移動経路領域44を算出する。この移動経路領域44は、障害物の走行又は作業による地形の変化が現れる領域である。そのため、差分発生領域37から移動経路領域44を除外することにより、地形の変化が原因となる誤検知を防止することができる。すなわち、領域マーカ46が地形の変化部分に重畳されるのを防止することができる。   However, the above-described difference generation area 37 may include a change in topography due to travel or work of an obstacle. Therefore, in the present embodiment, the obstacle position estimation area is generated based on the position information of the motion vector generation area, and the movement path area 44 of the obstacle is calculated based on the history information of the obstacle position estimation area. The movement path area 44 is an area where a change in topography due to travel or work of an obstacle appears. Therefore, by excluding the movement path area 44 from the difference generation area 37, it is possible to prevent an erroneous detection caused by a change in topography. That is, it is possible to prevent the area marker 46 from being superimposed on the change portion of the topography.

したがって、ダンプトラック1のオペレータに障害物の位置を正確に示すことでき、ダンプトラック1の操作を支援することができる。   Therefore, the position of the obstacle can be accurately indicated to the operator of the dump truck 1, and the operation of the dump truck 1 can be supported.

本発明の第2の実施形態を、図面を参照しつつ説明する。図13は、本実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。図14は、本実施形態における画像処理装置の処理内容を表すフローチャートである。なお、本実施形態において、第1の実施形態と同等の部分は同一の符号を付し、適宜、説明を省略する。   A second embodiment of the present invention will be described with reference to the drawings. FIG. 13 is a block diagram showing the functional configuration of the image processing apparatus according to this embodiment together with related devices. FIG. 14 is a flowchart showing the processing content of the image processing apparatus in the present embodiment. In the present embodiment, parts equivalent to those in the first embodiment are given the same reference numerals, and the description will be omitted as appropriate.

本実施形態の画像処理装置12Aの障害物検知部15は、背景差分算出部17、動きベクトル算出部18、障害物位置推定部19A、移動経路領域算出部20、障害物位置検出部21A、及び記憶部22を有している。本実施形態の障害物位置推定部19Aは、第1の実施形態の障害物位置推定部19に対し、図14のステップS113で示す障害物の識別機能が付加又は変更されている(詳細は後述)。また、本実施形態の障害物位置検出部21Aは、第1の実施形態の障害物位置検出部21に対し、図14のステップS109Aで示す障害物の位置検出領域の生成機能が付加又は変更されている(詳細は後述)。   The obstacle detection unit 15 of the image processing device 12A of the present embodiment includes a background difference calculation unit 17, a motion vector calculation unit 18, an obstacle position estimation unit 19A, a movement path area calculation unit 20, an obstacle position detection unit 21A, A storage unit 22 is provided. The obstacle position estimating unit 19A according to the present embodiment adds or changes the obstacle identification function shown in step S113 of FIG. 14 to the obstacle position estimating unit 19 according to the first embodiment (details will be described later) ). Further, the obstacle position detection unit 21A of the present embodiment adds or changes the generation function of the position detection area of the obstacle shown in step S109A of FIG. 14 to the obstacle position detection unit 21 of the first embodiment. (Details will be described later).

鉱山では、ダンプトラック1のオペレータの交代のため、例えば図15で示すように、ダンプトラック1の周囲に車両51が停車し、停車中の車両51から人52(交代要員)が降り、人52がダンプトラック1(自機)に向かって近づく場合がある。すなわち、カメラ11で取得された画像上に静止状態の車両51(第1障害物)と動作状態の人52(第2障害物)が現れる場合がある。そして、人52の移動経路領域が現在の車両51の位置検出領域に重なり、車両51の位置の検知精度を損なう可能性がある。本実施形態の画像処理装置12Aは、このような課題に対応する機能を有するものであり、その詳細を説明する。   In the mine, for example, as shown in FIG. 15, the vehicle 51 stops around the dump truck 1 because the operator of the dump truck 1 is replaced, and a person 52 (alternate worker) gets off from the vehicle 51 while stopped. May approach toward dump truck 1 (own machine). That is, the vehicle 51 (first obstacle) in a stationary state and the person 52 (second obstacle) in an operating state may appear on the image acquired by the camera 11. Then, the movement route area of the person 52 may overlap with the current position detection area of the vehicle 51, and the detection accuracy of the position of the vehicle 51 may be impaired. The image processing apparatus 12A of the present embodiment has a function corresponding to such a problem, and the details thereof will be described.

まず、停車中の車両51から人52が降りる時点で、そのときに取得された画像53(図16参照)の処理を説明する。画像処理装置12Aの動きベクトル算出部18は、人52の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Aは、記憶部22から直前の車両51の位置検出領域と車両51が静止状態であることを取得した場合に、直前の車両51の位置検出領域と前述した動きベクトル発生領域との重複率を算出し、この重複率が予め設定された所定範囲(例えば10〜30%)内にあるか否かを判定し、この判定結果に基づいて障害物を識別するようになっている。   First, when the person 52 gets off from the stopped vehicle 51, the processing of the image 53 (see FIG. 16) acquired at that time will be described. The motion vector calculation unit 18 of the image processing device 12A acquires a motion vector generation area resulting from the motion of the person 52. When the obstacle position estimation unit 19A of the present embodiment acquires from the storage unit 22 the position detection area of the vehicle 51 immediately before and the fact that the vehicle 51 is stationary, the position detection area of the vehicle 51 immediately before is described above. The overlapping rate with the motion vector generation area is calculated, it is determined whether the overlapping rate is within a predetermined range (for example, 10 to 30%) set in advance, and an obstacle is identified based on the determination result. It is supposed to be.

仮に、重複率が所定範囲の上限値(30%)を超える場合は、画像53中に動作状態の車両51が存在すると推定する。すなわち、車両51が静止状態から動作状態に変わったと推定する。そのため、その時点の車両51の位置推定領域を、動きベクトル算出部18で取得された動きベクトル発生領域の位置情報に基づいて生成する。仮に、重複率が所定範囲の下限値(10%)未満である場合は、画像53中に静止状態の車両51が存在するものの、動作状態の人52が存在しないと推定する。そのため、その時点の車両51の位置推定領域を、記憶部22で記憶された直前の車両51の位置推定領域(又はこれを含む過去数回分の車両51の位置推定領域)に基づいて生成する。   If the overlap rate exceeds the upper limit (30%) of the predetermined range, it is estimated that the vehicle 51 in the operating state is present in the image 53. That is, it is estimated that the vehicle 51 has changed from the stationary state to the operating state. Therefore, the position estimation area of the vehicle 51 at that time is generated based on the position information of the motion vector generation area acquired by the motion vector calculation unit 18. If the overlapping rate is less than the lower limit value (10%) of the predetermined range, it is estimated that although the vehicle 51 in the stationary state is present in the image 53, the person 52 in the operating state is not present. Therefore, the position estimation area of the vehicle 51 at that time is generated based on the position estimation area of the vehicle 51 (or the position estimation area of the vehicle 51 several times in the past including this) stored in the storage unit 22.

重複率が所定範囲内にある場合は、画像53中に静止状態の車両51と動作状態の人52が存在すると推定する。そのため、その時点の車両51の位置推定領域54を、記憶部22で記憶された直前の車両51の位置推定領域(又はこれを含む過去数回分の車両51の位置推定領域)に基づいて生成する。また、その時点の人52の位置推定領域55を、動きベクトル算出部18で取得された動きベクトル発生領域の位置情報に基づいて生成する。このように生成された障害物位置推定領域は、障害物の識別番号(例えば車両=1、人=2)が付与されるとともに、障害物が静止状態又は動作状態であることと関連付けられて、記憶部22に時系列的に記憶される。   When the overlapping rate is within the predetermined range, it is estimated that the vehicle 51 in the stationary state and the person 52 in the operating state exist in the image 53. Therefore, the position estimation area 54 of the vehicle 51 at that time is generated based on the position estimation area of the vehicle 51 immediately before (or the position estimation area of the vehicle 51 including the several times including this) stored in the storage unit 22. . Also, the position estimation area 55 of the person 52 at that time is generated based on the position information of the motion vector generation area acquired by the motion vector calculation unit 18. The obstacle position estimation area generated in this way is given the identification number of the obstacle (for example, vehicle = 1, person = 2), and is associated with the obstacle being stationary or operating. The data are stored in the storage unit 22 in chronological order.

次に、車両51から降りた人52が自機に近づいている時点で、そのときに取得された画像56(図17参照)の処理を説明する。画像処理装置12Aの動きベクトル算出部18は、人52の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Aは、前述した重複率が所定範囲内にないものの、記憶部22で記憶された少なくとも直前の車両51の位置推定領域及び少なくとも直前の人52の位置推定領域に基づき、画像56中に静止状態の車両51と動作状態の人52が存在すると推定する。そのため、現在の車両51の位置推定領域54を、記憶部22で記憶された直前の車両51の位置推定領域54(又はこれを含む過去数回分の車両51の位置推定領域54)に基づいて生成する。また、現在の人52の位置推定領域57を、動きベクトル算出部18で取得された動きベクトル発生領域の位置情報に基づいて生成する。このように生成された障害物位置推定領域は、障害物の識別番号が付与されるとともに、障害物が静止状態又は動作状態であることと関連付けられて、記憶部22に時系列的に記憶される。   Next, processing of the image 56 (see FIG. 17) acquired at that time when the person 52 who got off from the vehicle 51 is approaching the own machine will be described. The motion vector calculation unit 18 of the image processing device 12A acquires a motion vector generation area resulting from the motion of the person 52. The obstacle position estimation unit 19A according to the present embodiment has at least the position estimation area of the vehicle 51 stored at least immediately before and the position estimation area of the person 52 stored immediately by the storage unit 22 although the overlapping rate is not within the predetermined range. , It is estimated that the stationary vehicle 51 and the operating person 52 are present in the image 56. Therefore, the position estimation area 54 of the current vehicle 51 is generated based on the position estimation area 54 of the vehicle 51 stored immediately in the storage unit 22 (or the position estimation area 54 of the vehicle 51 including the past several times). Do. Further, the position estimation area 57 of the current person 52 is generated based on the position information of the motion vector generation area acquired by the motion vector calculation unit 18. The obstacle position estimation area generated in this manner is given an identification number of the obstacle, and is stored in the storage unit 22 in chronological order in association with the obstacle being in a stationary state or in an operating state. Ru.

そして、移動経路領域算出部20は、記憶部22に記憶された車両51の位置推定領域の履歴情報に基づいて車両51の移動経路領域を算出する。詳細には、過去の車両51の位置推定領域群(図示せず)と現在の車両51の位置推定領域54との差分によっての移動経路領域58(図18参照)を算出する。また、記憶部22に記憶された人52の位置推定領域の履歴情報に基づいて人52の移動経路領域を算出する。詳細には、過去の人52の位置推定領域群(位置推定領域55を含むもの)と現在の人52の位置推定領域57との差分によって人52の移動経路領域59(図18参照)を算出する。   Then, the movement route area calculation unit 20 calculates the movement route area of the vehicle 51 based on the history information of the position estimation area of the vehicle 51 stored in the storage unit 22. Specifically, the movement route area 58 (see FIG. 18) is calculated by the difference between the position estimation area group (not shown) of the vehicle 51 in the past and the position estimation area 54 of the current vehicle 51. Further, the movement path area of the person 52 is calculated based on the history information of the position estimation area of the person 52 stored in the storage unit 22. Specifically, the movement path area 59 (see FIG. 18) of the person 52 is calculated by the difference between the position estimation area group of the person 52 in the past (including the position estimation area 55) and the position estimation area 57 of the current person 52. Do.

背景差分算出部17は、画像56の画素値と背景モデル画像36の画素値との差分に基づいて差分発生領域60(図19参照)を算出する。そして、本実施形態の障害物位置検出部21Aの地形変化差分除外部23Aは、背景差分算出部17で算出された差分発生領域60から、車両51の移動経路領域58と、人52の移動経路領域59のうちの現在の車両51の位置推定領域54と重複していない部分を除外することにより、車両51の位置検出領域61A(図20参照)及び人52の位置検出領域61B(図20参照)を生成する。   The background difference calculation unit 17 calculates the difference generation area 60 (see FIG. 19) based on the difference between the pixel value of the image 56 and the pixel value of the background model image 36. Then, the topography change difference exclusion unit 23A of the obstacle position detection unit 21A according to the present embodiment calculates the movement route area 58 of the vehicle 51 and the movement route of the person 52 from the difference generation area 60 calculated by the background difference calculation unit 17. By excluding the part of the area 59 which does not overlap with the position estimation area 54 of the current vehicle 51, the position detection area 61A (see FIG. 20) of the vehicle 51 and the position detection area 61B of the person 52 (see FIG. 20) Generate).

合成画像生成部16は、画像記憶部14からの画像56に、障害物位置検出部21Aで生成された車両51の位置検出領域61B及び人52の位置検出領域61Bをそれぞれ示す領域マーカ62A,62Bを重畳して合成画像63(図21参照)を生成し、この合成画像63を表示装置13へ出力して表示させる。   The composite image generation unit 16 displays area markers 62A and 62B respectively indicating the position detection area 61B of the vehicle 51 and the position detection area 61B of the person 52 generated by the obstacle position detection section 21A in the image 56 from the image storage section 14. To generate a composite image 63 (see FIG. 21), and the composite image 63 is output to the display device 13 for display.

したがって、本実施形態では、人52の移動経路領域が車両51の位置検出領域に重なっても、車両51の位置の検知精度を維持することができる。   Therefore, in the present embodiment, even if the movement route area of the person 52 overlaps the position detection area of the vehicle 51, the detection accuracy of the position of the vehicle 51 can be maintained.

なお、第2の実施形態においては、障害物位置検出部21Aは、背景差分算出部17で算出された差分発生領域から、移動経路領域算出部20で算出された車両51(第1障害物)の移動経路領域と、移動経路領域算出部20で算出された人52(第2障害物)の移動経路領域のうちの現在の車両51の位置推定領域と重複していない部分を除外することにより、車両51の位置検出領域と人52の位置検出領域を取得する場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。   In the second embodiment, the obstacle position detection unit 21A calculates the vehicle 51 (first obstacle) calculated by the movement route area calculation unit 20 from the difference generation area calculated by the background difference calculation unit 17. By excluding the portions that do not overlap with the position estimation area of the current vehicle 51 in the movement path area of the person 52 (second obstacle) calculated by the movement path area calculation unit 20 and the movement path area of Although the case of acquiring the position detection area of the vehicle 51 and the position detection area of the person 52 has been described as an example, the present invention is not limited to this, and modifications are possible without departing from the spirit and technical concept of the present invention.

例えば、移動経路領域算出部20は、人52(第2障害物)の位置推定領域の履歴情報に基づいて人52の移動経路領域を算出し、この人52の移動経路領域から現在の車両51(第1障害物)の位置推定領域との重複部分を削除して新たな移動経路領域を生成し、この新たな移動経路領域を人52の移動経路領域として再設定してもよい。そして、障害物位置検出部21の地形変化差分除外部23Aは、背景差分算出部17で算出された差分発生領域から、移動経路領域算出部20で算出された車両51の移動経路領域と、移動経路領域算出部20で再設定された人52の移動経路領域を除外することにより、車両51の位置検出領域と人52の位置検出領域を取得してもよい。この場合も、上記同様の効果を得ることができる。   For example, the movement route area calculation unit 20 calculates the movement route area of the person 52 based on the history information of the position estimation area of the person 52 (second obstacle), and the current vehicle 51 from the movement route area of the person 52 A portion overlapping with the position estimation area of the (first obstacle) may be deleted to generate a new movement path area, and the new movement path area may be reset as the movement path area of the person 52. Then, the terrain change difference exclusion unit 23A of the obstacle position detection unit 21 moves the movement route area of the vehicle 51 calculated by the movement route area calculation unit 20 from the difference generation area calculated by the background difference calculation unit 17 and The position detection area of the vehicle 51 and the position detection area of the person 52 may be acquired by excluding the movement path area of the person 52 reset by the path area calculation unit 20. Also in this case, the same effect as described above can be obtained.

本発明の第3の実施形態を、図面を参照しつつ説明する。図22は、本実施形態における画像処理装置の機能的構成を関連機器と共に表すブロック図である。図23は、本実施形態における画像処理装置の処理内容を表すフローチャートである。なお、本実施形態において、第1及び第2の実施形態と同等の部分は同一の符号を付し、適宜、説明を省略する。   A third embodiment of the present invention will be described with reference to the drawings. FIG. 22 is a block diagram showing the functional configuration of the image processing apparatus according to this embodiment together with related devices. FIG. 23 is a flowchart showing the processing content of the image processing apparatus according to this embodiment. In the present embodiment, parts equivalent to those in the first and second embodiments are assigned the same reference numerals and descriptions thereof will be omitted as appropriate.

本実施形態の画像処理装置12Bの障害物検知部15は、背景差分算出部17、動きベクトル算出部18、障害物位置推定部19B、移動経路領域算出部20、障害物位置検出部21B、及び記憶部22を有している。本実施形態の障害物位置推定部19Bは、第1の実施形態の障害物位置推定部19に対し、図23のステップS114で示す地形変化領域の推定機能が付加又は変更されている(詳細は後述)。また、本実施形態の障害物位置検出部21Bは、第1の実施形態の障害物位置検出部21に対し、図23のステップS109Bで示す障害物の位置検出領域の生成機能が付加又は変更されている(詳細は後述)。   The obstacle detection unit 15 of the image processing device 12B according to the present embodiment includes a background difference calculation unit 17, a motion vector calculation unit 18, an obstacle position estimation unit 19B, a movement path area calculation unit 20, an obstacle position detection unit 21B, A storage unit 22 is provided. The obstacle position estimation unit 19B of the present embodiment has the function of estimating the terrain change area shown in step S114 of FIG. 23 added to or changed from the obstacle position estimation unit 19 of the first embodiment (details will be described) Later). Further, the obstacle position detection unit 21B of the present embodiment adds or changes the generation function of the position detection area of the obstacle shown in step S109B of FIG. 23 to the obstacle position detection unit 21 of the first embodiment. (Details will be described later).

鉱山では、ホイールローダが土砂を押し出しながら前進し、その後、ホイールローダが後退して土砂から離れるような場合がある。このとき、ホイールローダと土砂が離れても土砂が暫く動くため、土砂を障害物として誤検知する可能性がある。画像処理装置12Bは、このような課題に対応する機能を有するものであり、その詳細を説明する。   In a mine, the wheel loader may advance while pushing soil, and then the wheel loader may move backward and leave the soil. At this time, since the earth and sand move for a while even if the wheel loader and the earth and sand are separated, there is a possibility that the earth and sand may be erroneously detected as an obstacle. The image processing apparatus 12B has a function corresponding to such a problem, and the details thereof will be described.

まず、ホイールローダが土砂を押し出しながら前進する時点で、そのときに取得された画像71A又は71B(図24(a)又は図24(b)参照)の処理を説明する。画像処理装置12Bの動きベクトル算出部18は、ホイールローダの動きに起因した動きベクトル発生領域と土砂の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Bは、第1の実施形態の障害物位置推定部19と同様、2つの動きベクトル発生領域に対し、それらの動きベクトルの方向が同じであるとみなせて且つそれらの中心間距離が所定の閾値以下であるか否かを判定する。この場合、動きベクトルの方向が同じであるとみなせて且つ中心間距離が所定の閾値以下であることから、2つの動きベクトル発生領域に基づいて1つの障害物の位置推定領域72A又は72Bを生成し、記憶部22に記憶する。   First, at the time when the wheel loader advances while pushing out soil, processing of an image 71A or 71B (see FIG. 24A or 24B) acquired at that time will be described. The motion vector calculation unit 18 of the image processing device 12B acquires a motion vector generation area caused by the movement of the wheel loader and a motion vector generation area caused by the movement of the earth and sand. The obstacle position estimation unit 19B according to the present embodiment, like the obstacle position estimation unit 19 according to the first embodiment, can regard the directions of the motion vectors of the two motion vector generation areas as being the same. It is determined whether the distance between those centers is equal to or less than a predetermined threshold. In this case, since the directions of the motion vectors can be regarded as the same and the center-to-center distance is equal to or less than a predetermined threshold, one obstacle position estimation area 72A or 72B is generated based on two motion vector generation areas. Are stored in the storage unit 22.

次に、ホイールローダが後退を開始した時点で、そのときに取得された画像71C(図25参照)の処理を説明する。画像処理装置12Bの動きベクトル算出部18は、ホイールローダの動きに起因した動きベクトル発生領域と土砂の動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Bは、上記と同様、2つの動きベクトル発生領域に対し、それらの動きベクトルの方向が同じであるとみなせて且つそれらの中心間距離が所定の閾値以下であるか否かを判定する。この場合、動きベクトルの方向が異なるか、若しくは、中心間距離が所定の閾値を超えることから、2つの動きベクトル発生領域に基づいて2つの障害物の位置推定領域72C,73をそれぞれ生成する。すなわち、障害物位置推定領域の個数が増加する。   Next, when the wheel loader starts to retract, processing of the image 71C (see FIG. 25) acquired at that time will be described. The motion vector calculation unit 18 of the image processing device 12B acquires a motion vector generation area caused by the movement of the wheel loader and a motion vector generation area caused by the movement of the earth and sand. The obstacle position estimation unit 19B according to the present embodiment regards the directions of the motion vectors of the two motion vector generation areas as being the same as described above, and the distance between their centers is equal to or less than a predetermined threshold. Determine if there is. In this case, two obstacle position estimation areas 72C and 73 are respectively generated based on the two motion vector generation areas because the direction of the motion vector is different or the center-to-center distance exceeds a predetermined threshold. That is, the number of obstacle position estimation areas increases.

ここで、本実施形態の障害物位置推定部19Bは、前回取得した1つの障害物の位置推定領域72Bと今回取得した2つの障害物位置推定領域72C,73の全体との中心間距離を算出し、この中心間距離が所定の閾値(例えば30ピクセル)以下であるか否かを判定する。仮に、中心間距離が所定の閾値を超える場合は、画像71C中に2つの動作状態の障害物が存在すると推定する。しかし、この場合は中心間距離が所定の閾値以下であることから、1つの障害物位置推定領域から2つの障害物位置推定に分別されたものと推定する。そのため、2つの位置推定領域72C,73のうち、面積が最も大きいほうの位置推定領域72Cを真の位置推定領域として記憶部22に記憶し、残りの位置推定領域73を地形変化領域として記憶部22に記憶する(地形変化領域の推定機能)。   Here, the obstacle position estimation unit 19B of the present embodiment calculates the center-to-center distance between the position estimation area 72B of one obstacle acquired last time and the entire two obstacle position estimation areas 72C and 73 acquired this time. Then, it is determined whether the center-to-center distance is equal to or less than a predetermined threshold (for example, 30 pixels). If the center-to-center distance exceeds a predetermined threshold value, it is estimated that two motion state obstacles exist in the image 71C. However, in this case, since the center-to-center distance is equal to or less than a predetermined threshold, it is estimated that one obstacle position estimation area is divided into two obstacle position estimations. Therefore, of the two position estimation areas 72C and 73, the position estimation area 72C having the largest area is stored in the storage unit 22 as a true position estimation area, and the remaining position estimation area 73 is stored as a topography change area. It memorizes in 22 (the estimation function of the terrain change area).

次に、ホイールローダがさらに後退した時点で、そのときに取得された画像74(図26参照)の処理を説明する。画像処理装置12Bの動きベクトル算出部18は、ホイールローダの動きに起因した動きベクトル発生領域を取得する。本実施形態の障害物位置推定部19Bは、第1の実施形態の障害物位置推定部19と同様、1つの動きベクトル発生領域に基づいて1つの障害物の位置推定領域75を生成する。そして、移動経路領域算出部20は、記憶部22に記憶された障害物の位置推定領域の履歴情報に基づいて障害物の移動経路領域を算出する。詳細には、過去の障害物の位置推定領域群(位置推定領域72A,72B,72Cを含むもの)と現在の障害物の位置推定領域75との差分によって障害物の移動経路領域76(図27参照)を算出する。   Next, when the wheel loader is further retracted, processing of the image 74 (see FIG. 26) acquired at that time will be described. The motion vector calculation unit 18 of the image processing device 12B acquires a motion vector generation area resulting from the motion of the wheel loader. The obstacle position estimation unit 19B of the present embodiment generates a position estimation area 75 of one obstacle based on one motion vector generation area, similarly to the obstacle position estimation unit 19 of the first embodiment. Then, the movement route area calculation unit 20 calculates the movement route area of the obstacle based on the history information of the position estimation area of the obstacle stored in the storage unit 22. More specifically, the moving path area 76 of the obstacle is obtained by the difference between the position estimation area group of obstacles in the past (including the position estimation areas 72A, 72B and 72C) and the position estimation area 75 of the current obstacle (FIG. 27) Calculate (see).

背景差分算出部17は、画像74の画素値と背景モデル画像36の画素値との差分に基づいて差分発生領域77(図28参照)を算出する。そして、本実施形態の障害物位置検出部21Bの地形変化差分除外部23Bは、背景差分算出部17で算出された差分発生領域77から、移動経路領域算出部20で算出された障害物の移動経路領域76と、記憶部22で記憶された地形変化領域73を除外することにより、障害物の位置検出領域78(図29参照)を算出する。   The background difference calculating unit 17 calculates the difference generation area 77 (see FIG. 28) based on the difference between the pixel value of the image 74 and the pixel value of the background model image 36. Then, the terrain change difference exclusion unit 23B of the obstacle position detection unit 21B according to the present embodiment moves the obstacle calculated by the movement path area calculation unit 20 from the difference generation area 77 calculated by the background difference calculation unit 17. By excluding the route area 76 and the terrain change area 73 stored in the storage unit 22, the position detection area 78 (see FIG. 29) of the obstacle is calculated.

合成画像生成部16は、画像記憶部14からの画像74に、障害物位置検出部21Bで生成された障害物の位置検出領域78を示す領域マーカ79を重畳して合成画像80(図30参照)を生成し、この合成画像80を表示装置13へ出力して表示させる。   The composite image generation unit 16 superimposes the area marker 79 indicating the obstacle position detection area 78 generated by the obstacle position detection unit 21B on the image 74 from the image storage unit 14 (see FIG. 30). ) Is output to the display device 13 for display.

したがって、本実施形態では、土砂を障害物として誤検知するのを防止することができる。   Therefore, in the present embodiment, it is possible to prevent the false detection of soil as an obstacle.

なお、第1〜第3の実施形態において、画像処理装置の合成画像生成部16は、合成画像を生成するとき、障害物の位置検出領域を示す領域マーカのみを重畳する場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。すなわち、合成画像生成部16は、合成画像を生成するとき、障害物の動作状態及び動作方向(本変形例では、左方向、右方向、上方向、及び下方向のうちのいずれか)を示すマーカ81A(図31(a)参照)と、障害物の静止状態(言い換えれば、動作方向なし)を示すマーカ81B(図31(b)参照)を選択的に重畳してもよい。このような変形例では、ダンプトラック1のオペレータに障害物の状態を示すことができ、ダンプトラック1の操作をさらに支援することができる。   In the first to third embodiments, when the composite image generation unit 16 of the image processing apparatus generates a composite image, the case where only the area marker indicating the position detection area of the obstacle is superimposed is described as an example. However, the present invention is not limited to this, and modifications can be made without departing from the spirit and technical concept of the present invention. That is, when generating the composite image, the composite image generation unit 16 indicates the motion state and the motion direction of the obstacle (in the present modification, one of the left direction, the right direction, the upper direction, and the lower direction). A marker 81A (see FIG. 31A) and a marker 81B (see FIG. 31B) indicating the stationary state of the obstacle (in other words, no motion direction) may be selectively superimposed. In such a modification, the operator of the dump truck 1 can be notified of the state of the obstacle, and the operation of the dump truck 1 can be further assisted.

また、第1〜第3の実施形態において、カメラ11は、ダンプトラック1の前側のみに設けられた場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。すなわち、カメラは、例えばダンプトラック1の前側、後側、左側、及び右側のうちの少なくとも1箇所に設けられていればよい。例えばダンプトラック1の前側、後側、左側、及び右側の4箇所にカメラが設けられた場合は、4つのカメラで撮影された映像を合成して1つの映像として表示してもよい。このような変形例においても、上記同様の効果を得ることができる。   In the first to third embodiments, the camera 11 is provided only on the front side of the dump truck 1 as an example. However, the present invention is not limited thereto, and the scope without departing from the spirit and technical concept of the present invention Modification is possible within. That is, the camera may be provided at at least one of the front side, the rear side, the left side, and the right side of the dump truck 1, for example. For example, when cameras are provided at four places on the front side, rear side, left side, and right side of the dump truck 1, images taken by four cameras may be combined and displayed as one image. The same effects as described above can be obtained also in such a modified example.

また、第1〜第3の実施形態において、画像処理装置の自機停車判定部は、速度センサで検出された自機の走行速度若しくはシフトレバーの操作位置に基づいて、自機が停車しているか否かを判定する場合を例にとって説明したが、これに限られず、本発明の趣旨及び技術思想を逸脱しない範囲内で変形が可能である。すなわち、現在の画像と過去の画像の比較によって、自機が停車しているか否かを判定してもよい。このような変形例においても、上記同様の効果を得ることができる。   In the first to third embodiments, the own-vehicle-stop determination unit of the image processing apparatus stops the own-vehicle based on the traveling speed of the own-machine detected by the speed sensor or the operation position of the shift lever. Although the case of determining the presence or absence is described as an example, the present invention is not limited to this, and modifications are possible without departing from the spirit and technical concept of the present invention. That is, it may be determined whether the own machine is at a stop by comparing the current image and the past image. The same effects as described above can be obtained also in such a modified example.

なお、以上においては、本発明の適用対象の作業機械としてダンプトラックを例にとって説明したが、これに限られず、例えば油圧ショベルやホイールローダ等でもよい。   In addition, although the dump truck was demonstrated to the example as a working machine of application object of this invention above, it is not restricted to this, For example, a hydraulic shovel, a wheel loader, etc. may be sufficient.

1 ダンプトラック
11 カメラ
12,12A,12B 画像処理装置
13 表示装置
14 画像記憶部(第1記憶部)
15 障害物検知部
16 合成画像生成部
17 背景差分算出部
18 動きベクトル算出部
19,19A,19B 障害物位置推定部
20 移動経路領域算出部
21,21A,21B 障害物位置検出部
22 記憶部(第2記憶部)
31 現在の画像
32 直前の画像
36 背景モデル画像
37 差分発生領域
40 動きベクトル
41A,41B 動きベクトル発生領域
42 現在の障害物位置推定領域
43 過去の障害物位置推定領域群
44 障害物の移動経路領域
45 障害物の位置検出領域
46 領域マーカ
47 合成画像
51 車両(第1障害物)
52 人(第2障害物)
53 過去の画像
54 過去及び現在の車両の位置推定領域
55 過去の人の位置推定領域
56 現在の画像
57 現在の人の位置推定領域
58 車両の移動経路領域
59 人の移動経路領域
60 差分発生領域
61A 車両の位置検出領域
61B 人の位置検出領域
62A,62B 領域マーカ
63 合成画像
71A,71B,71C 過去の画像
72A,72B,72C 過去の障害物の位置推定領域
73 地形変化領域
74 現在の画像
75 障害物の位置推定領域
76 障害物の移動経路領域
77 差分発生領域
78 障害物の位置検出領域
79 領域マーカ
80 合成画像
81A,81B マーカ
DESCRIPTION OF SYMBOLS 1 Dump truck 11 Cameras 12, 12A, 12B Image processing apparatus 13 Display apparatus 14 Image storage part (1st storage part)
15 obstacle detection unit 16 composite image generation unit 17 background difference calculation unit 18 motion vector calculation unit 19, 19A, 19B obstacle position estimation unit 20 movement route area calculation unit 21, 21A, 21B obstacle position detection unit 22 storage unit ( Second storage unit)
31 current image 32 previous image 36 background model image 37 difference generation area 40 motion vector 41A, 41B motion vector generation area 42 current obstacle position estimation area 43 past obstacle position estimation area group 44 moving path area of obstacle 45 position detection area of obstacle 46 area marker 47 composite image 51 vehicle (first obstacle)
52 people (second obstacle)
53 past image 54 past and present vehicle position estimation area 55 past person's position estimation area 56 current image 57 current person's position estimation area 58 vehicle's movement path area 59 person's movement path area 60 difference generation area 61A Vehicle position detection area 61B Person position detection area 62A, 62B Area marker 63 Composite image 71A, 71B, 71C Past images 72A, 72B, 72C Past obstacle position estimation area 73 Terrain change area 74 Current image 75 Obstacle position estimation area 76 Moving path area of obstacle 77 Difference generation area 78 Obstacle position detection area 79 Area marker 80 Composite image 81A, 81B Marker

Claims (4)

作業機械の周囲を撮影するカメラと、前記カメラで取得された画像中の障害物を検知する画像処理装置と、前記画像処理装置で処理された画像を表示する表示装置とを備えた作業機械の障害物検知システムにおいて、
前記画像処理装置は、
前記カメラで取得された画像を時系列的に記憶する第1記憶部と、
前記カメラで取得された現在の画像の画素値と予め作成された背景モデル画像の画素値との差分に基づいて差分発生領域を算出する背景差分算出部と、
前記現在の画像と直前の画像とを比較して両画像間の画素に関する動きベクトルを算出し、互いに同じとみなせる動きベクトルを有する前記現在の画像の画素を集約して動きベクトル発生領域を取得する動きベクトル算出部と、
前記動きベクトル算出部で取得された動きベクトル発生領域の面積が所定の閾値以上である場合に、前記動きベクトル発生領域の位置情報に基づいて、前記障害物が存在する領域を示す少なくとも1つの障害物位置推定領域を生成する障害物位置推定部と、
前記障害物位置推定部で生成された前記障害物位置推定領域を時系列的に記憶する第2記憶部と、
前記第2記憶部に記憶された前記障害物位置推定領域の履歴情報に基づいて前記障害物の移動経路領域を算出する移動経路領域算出部と、
前記背景差分算出部で算出された差分発生領域から、前記移動経路領域算出部で算出された移動経路領域を除外することにより、前記障害物の位置検出領域を生成する障害物位置検出部と、
前記カメラで取得された前記現在の画像に、前記障害物位置検出部で生成された障害物の位置検出領域を示す領域マーカを重畳して合成画像を生成し、この合成画像を前記表示装置へ出力する合成画像生成部とを備えたことを特徴とする作業機械の障害物検知システム。
A work machine comprising: a camera for photographing the surroundings of the work machine, an image processing device for detecting an obstacle in an image acquired by the camera, and a display device for displaying an image processed by the image processing device In the obstacle detection system
The image processing apparatus is
A first storage unit that stores images acquired by the camera in time series;
A background difference calculating unit that calculates a difference generation area based on a difference between a pixel value of a current image acquired by the camera and a pixel value of a background model image created in advance;
The current image and the immediately preceding image are compared to calculate a motion vector of pixels between the two images, and pixels of the current image having motion vectors that can be regarded as the same as each other are collected to obtain a motion vector generation area A motion vector calculation unit,
When the area of the motion vector generation area acquired by the motion vector calculation unit is equal to or larger than a predetermined threshold value, at least one obstacle indicating the area in which the obstacle exists based on the position information of the motion vector generation area An obstacle position estimation unit that generates an object position estimation area;
A second storage unit that stores the obstacle position estimation area generated by the obstacle position estimation unit in time series;
A movement route area calculation unit that calculates a movement route area of the obstacle based on history information of the obstacle position estimation area stored in the second storage unit;
An obstacle position detection unit that generates the position detection area of the obstacle by excluding the movement path area calculated by the movement path area calculation unit from the difference generation area calculated by the background difference calculation unit;
An area marker indicating the position detection area of the obstacle generated by the obstacle position detection unit is superimposed on the current image acquired by the camera to generate a composite image, and the composite image is transmitted to the display device. An obstacle detection system for a working machine, comprising: a composite image generation unit for outputting.
請求項1に記載の障害物検知システムにおいて、
前記第2記憶部は、前記障害物が動作状態及び静止状態のいずれであるかと関連付けて、前記障害物位置検出部で生成された障害物の位置検出領域を時系列的に記憶し、
前記障害物位置推定部は、前記第2記憶部から直前の第1障害物の位置検出領域を取得し、前記第1障害物が静止状態である場合に前記位置検出領域と前記動きベクトル発生領域との重複率が予め設定された所定範囲内にあるかどうかを判定し、前記重複率が前記所定範囲内にある場合は、前記動きベクトル発生領域に基づいて、前記第1障害物とは別の第2障害物の存在領域を示す障害物位置推定領域を生成し、
前記移動経路領域算出部は、前記第1障害物の移動経路領域と前記第2障害物の移動経路領域を算出し、
前記障害物位置検出部は、前記背景差分算出部で算出された前記差分発生領域から、前記第1障害物の移動経路領域と、前記第2障害物の移動経路領域のうちの現在の前記第1障害物の位置推定領域と重複していない部分を除外することにより、前記第1障害物の位置検出領域と前記第2障害物の位置検出領域を生成し、
前記合成画像生成部は、前記合成画像を生成するとき、前記第1障害物の位置検出領域を示す第1領域マーカと、前記第2障害物の位置検出領域を示す第2領域マーカを重畳することを特徴とする作業機械の障害物検知システム。
In the obstacle detection system according to claim 1,
The second storage unit stores position detection areas of obstacles generated by the obstacle position detection unit in time series in association with whether the obstacle is in the operating state or the stationary state.
The obstacle position estimation unit acquires the position detection area of the immediately preceding first obstacle from the second storage unit, and the position detection area and the motion vector generation area when the first obstacle is stationary. Is determined within a predetermined range set in advance, and if the overlap rate is within the predetermined range, the first obstacle is separated based on the motion vector generation area. Generate an obstacle position estimation area indicating the existence area of the second obstacle of
The movement path area calculation unit calculates the movement path area of the first obstacle and the movement path area of the second obstacle,
The obstacle position detection unit is configured to calculate a movement path area of the first obstacle and a current movement path area of the second obstacle from the difference generation area calculated by the background difference calculation section. (1) A position detection area of the first obstacle and a position detection area of the second obstacle are generated by excluding a portion not overlapping the position estimation area of the obstacle,
The composite image generation unit, when generating the composite image, superimposes a first area marker indicating a position detection area of the first obstacle and a second area marker indicating a position detection area of the second obstacle. An obstacle detection system for a working machine characterized by
請求項1に記載の作業機械の障害物検知システムにおいて、
前記障害物位置推定部は、前記障害物位置推定領域の個数が増加した場合は、1つの前回取得した障害物位置推定領域と複数の増加した障害物位置推定領域の全体との中心間距離を算出し、この中心間距離が所定の閾値以下である場合には前記複数の増加した障害物位置推定領域は前記1つの前回取得した障害物位置推定領域から分別されたものであると推定し、前記複数の増加した障害物位置推定領域のうち、面積が最も大きいものを真の障害物位置推定領域として前記第2記憶部に記憶し、残りの障害物位置推定領域を地形変化領域として前記第2記憶部に記憶し、
前記障害物位置検出部は、前記背景差分算出部で算出された前記差分発生領域から、前記移動経路領域算出部で算出された前記移動経路領域と、前記地形変化領域を除外することにより、前記障害物の位置検出領域を生成することを特徴とする作業機械の障害物検知システム。
In the obstacle detection system for a working machine according to claim 1,
When the number of obstacle position estimation areas increases, the obstacle position estimation unit calculates the center-to-center distance between one previously acquired obstacle position estimation area and the plurality of increased obstacle position estimation areas. When the center-to-center distance is equal to or less than a predetermined threshold value, it is estimated that the plurality of increased obstacle position estimation areas are separated from the one previously acquired obstacle position estimation area, Of the plurality of increased obstacle position estimation areas, the one with the largest area is stored in the second storage unit as a true obstacle position estimation area, and the remaining obstacle position estimation areas are regarded as the topography change area. 2 Store in storage unit,
The obstacle position detection unit is configured to exclude the movement path area calculated by the movement path area calculation unit and the topography change area from the difference generation area calculated by the background difference calculation unit. An obstacle detection system for a working machine, characterized by generating an obstacle position detection area.
請求項1に記載の作業機械の障害物検知システムにおいて、
前記合成画像生成部は、前記合成画像を生成するとき、前記障害物の位置検出領域を示す領域マーカに加え、前記障害物の動作方向情報を重畳することを特徴とする作業機械の障害物検知システム。
In the obstacle detection system for a working machine according to claim 1,
When generating the composite image, the composite image generation unit superimposes the operation direction information of the obstacle on the obstacle in addition to the area marker indicating the position detection area of the obstacle. system.
JP2017174549A 2017-09-12 2017-09-12 Obstacle detection system for work machines Active JP6878221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017174549A JP6878221B2 (en) 2017-09-12 2017-09-12 Obstacle detection system for work machines

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017174549A JP6878221B2 (en) 2017-09-12 2017-09-12 Obstacle detection system for work machines

Publications (2)

Publication Number Publication Date
JP2019049918A true JP2019049918A (en) 2019-03-28
JP6878221B2 JP6878221B2 (en) 2021-05-26

Family

ID=65906287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017174549A Active JP6878221B2 (en) 2017-09-12 2017-09-12 Obstacle detection system for work machines

Country Status (1)

Country Link
JP (1) JP6878221B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020180466A (en) * 2019-04-25 2020-11-05 シンフォニアテクノロジー株式会社 Work machine periphery monitoring system, and work machine periphery monitoring program
WO2020261824A1 (en) 2019-06-25 2020-12-30 株式会社クボタ Working vehicle, obstacle detection method, and obstacle detection program
JP2021022804A (en) * 2019-07-26 2021-02-18 シンフォニアテクノロジー株式会社 Work machine peripheral monitoring system, and work machine peripheral monitoring program
CN114051725A (en) * 2019-07-18 2022-02-15 株式会社小松制作所 Display system for work vehicle and display method for work vehicle
JP7560949B2 (en) 2020-03-19 2024-10-03 セコム株式会社 Image processing system and control program
JP7577589B2 (en) 2021-03-26 2024-11-05 日立建機株式会社 Object Recognition System

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010652A (en) * 2004-06-29 2006-01-12 Toyota Motor Corp Object-detecting device
JP2011049646A (en) * 2009-08-25 2011-03-10 Secom Co Ltd Leaving monitoring device
JP2012113605A (en) * 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp Driving support apparatus and driving support method
JP2013186668A (en) * 2012-03-07 2013-09-19 Clarion Co Ltd Vehicle periphery monitoring device
JP2013222254A (en) * 2012-04-13 2013-10-28 Hitachi Constr Mach Co Ltd Image processing device for self-traveling industrial machine and image processing method for self-traveling industrial machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010652A (en) * 2004-06-29 2006-01-12 Toyota Motor Corp Object-detecting device
JP2011049646A (en) * 2009-08-25 2011-03-10 Secom Co Ltd Leaving monitoring device
JP2012113605A (en) * 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp Driving support apparatus and driving support method
JP2013186668A (en) * 2012-03-07 2013-09-19 Clarion Co Ltd Vehicle periphery monitoring device
JP2013222254A (en) * 2012-04-13 2013-10-28 Hitachi Constr Mach Co Ltd Image processing device for self-traveling industrial machine and image processing method for self-traveling industrial machine

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ADITI S. JAHAGIRDAR ET AL.: ""EVALUATION OF MOVING OBJECT DETECTION TECHNIQUES FOR LOW RESOLUTION VIDEOS"", 3RD INTERNATIONAL CONFERENCE ON ELECTRICAL, ELECTRONICS, ENGINEERING TRENDS, COMMUNICATION, OPTIMIZA, JPN6021012275, 1 June 2016 (2016-06-01), US, pages 1 - 6, ISSN: 0004484572 *
白井 良明、三浦 純: ""複雑背景における人の追跡"", 情報処理学会論文誌, vol. Vol.43, No.SIG 4(CVIM 4), JPN6021012272, 15 June 2002 (2002-06-15), JP, pages 33 - 42, ISSN: 0004484571 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020180466A (en) * 2019-04-25 2020-11-05 シンフォニアテクノロジー株式会社 Work machine periphery monitoring system, and work machine periphery monitoring program
JP7227486B2 (en) 2019-04-25 2023-02-22 シンフォニアテクノロジー株式会社 Working Machine Surrounding Monitoring System, Working Machine Surrounding Monitoring Program
WO2020261824A1 (en) 2019-06-25 2020-12-30 株式会社クボタ Working vehicle, obstacle detection method, and obstacle detection program
CN114051725A (en) * 2019-07-18 2022-02-15 株式会社小松制作所 Display system for work vehicle and display method for work vehicle
JP2021022804A (en) * 2019-07-26 2021-02-18 シンフォニアテクノロジー株式会社 Work machine peripheral monitoring system, and work machine peripheral monitoring program
JP7332868B2 (en) 2019-07-26 2023-08-24 シンフォニアテクノロジー株式会社 Working Machine Surrounding Monitoring System, Working Machine Surrounding Monitoring Program
JP7560949B2 (en) 2020-03-19 2024-10-03 セコム株式会社 Image processing system and control program
JP7577589B2 (en) 2021-03-26 2024-11-05 日立建機株式会社 Object Recognition System

Also Published As

Publication number Publication date
JP6878221B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6878221B2 (en) Obstacle detection system for work machines
US9463741B2 (en) Vehicle peripheral obstacle notification system
JP6919567B2 (en) Information processing equipment, information processing methods, and programs
US9990543B2 (en) Vehicle exterior moving object detection system
JP4267657B2 (en) Vehicle periphery monitoring device
JP6072064B2 (en) Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
US20160200252A1 (en) Surroundings monitoring device for work machine
US10017112B2 (en) Surroundings monitoring device of vehicle
JPWO2017131243A1 (en) Work vehicle periphery monitoring system, work vehicle, and work vehicle periphery monitoring method
JP5902990B2 (en) Self-propelled industrial machine image processing device
JP2015184903A (en) Image processor of self-traveling industrial machine
JP6352797B2 (en) Work machine ambient monitoring device
JP6339337B2 (en) Moving object detection system around the vehicle
US20190325607A1 (en) Movement information estimation device, abnormality detection device, and abnormality detection method
JP6581519B2 (en) Obstacle detection system for construction machinery
JP2007280387A (en) Method and device for detecting object movement
JP5083142B2 (en) Vehicle periphery monitoring device
JP7280852B2 (en) Person detection system, person detection program, trained model generation program and trained model
JP2019064301A (en) Vehicle control device and vehicle control method
CN110945866B (en) Vehicle surrounding image display device and vehicle surrounding image display method
JP6770903B2 (en) Distance calculation device and distance calculation method
US20220067403A1 (en) Visual guidance system and method
JP6886929B2 (en) Transport vehicle
JP2018064191A (en) Obstacle detection system and construction machine
JP2019066919A (en) Vehicle control device and vehicle control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210428

R150 Certificate of patent or registration of utility model

Ref document number: 6878221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150