JPWO2014073571A1 - Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine - Google Patents

Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine Download PDF

Info

Publication number
JPWO2014073571A1
JPWO2014073571A1 JP2014545734A JP2014545734A JPWO2014073571A1 JP WO2014073571 A1 JPWO2014073571 A1 JP WO2014073571A1 JP 2014545734 A JP2014545734 A JP 2014545734A JP 2014545734 A JP2014545734 A JP 2014545734A JP WO2014073571 A1 JPWO2014073571 A1 JP WO2014073571A1
Authority
JP
Japan
Prior art keywords
range
image data
image
self
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014545734A
Other languages
Japanese (ja)
Other versions
JP6072064B2 (en
Inventor
守飛 太田
守飛 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Publication of JPWO2014073571A1 publication Critical patent/JPWO2014073571A1/en
Application granted granted Critical
Publication of JP6072064B2 publication Critical patent/JP6072064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60PVEHICLES ADAPTED FOR LOAD TRANSPORTATION OR TO TRANSPORT, TO CARRY, OR TO COMPRISE SPECIAL LOADS OR OBJECTS
    • B60P1/00Vehicles predominantly for transporting loads and modified to facilitate loading, consolidating the load, or unloading
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Structural Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定し、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にはずれを生じさせないことを目的とする。ダンプトラック(1)に設けられ、このダンプトラック(1)の前方構造物(10)が視野に含まれる領域を撮影するカメラ(6)と、カメラ(6)が撮影した画像データ(P)に基づいて、この画像データ(P)の中の前方構造物(10)を検出する構造物検出部と、画像データ(P)のうち障害物(M)を検出する必要のある範囲を要警戒範囲(31)として、この要警戒範囲(31)を構造物検出部が検出した前方構造物(19)に基づいて画像データ(P)の中に設定する要警戒範囲設定部(26)と、を備えている。It is an object of the present invention to automatically set a warning range for detecting an obstacle in the visual field range of the camera and prevent the warning range from being shifted even if the visual field range of the camera is subsequently shifted. A camera (6) that is provided in the dump truck (1) and captures an area in which the front structure (10) of the dump truck (1) is included in the field of view, and image data (P) captured by the camera (6). Based on the structure detection unit for detecting the forward structure (10) in the image data (P) and the range where the obstacle (M) needs to be detected in the image data (P) As (31), a warning range setting unit (26) that sets the warning range (31) in the image data (P) based on the forward structure (19) detected by the structure detection unit, I have.

Description

本発明は、自走式産業機械に設けた撮影部が撮影する画像データに対して所定の画像処理を行う自走式産業機械の画像処理装置およびその画像処理方法に関するものである。   The present invention relates to an image processing apparatus for a self-propelled industrial machine that performs predetermined image processing on image data captured by a photographing unit provided in the self-propelled industrial machine, and an image processing method thereof.

自走式産業機械には、ダンプトラック等の運搬機械や油圧ショベル等の作業機械がある。このうち、ダンプトラックは、車体のフレームに起伏可能としたベッセルを備えている。ダンプトラックのベッセルには、油圧ショベル等が掘削した掘削物が積載される。ベッセルに所定量の掘削物が積載された後に、ダンプトラックは所定の集積場まで走行されて、当該集積場で積載した掘削物が排土される。   Self-propelled industrial machines include transport machines such as dump trucks and work machines such as hydraulic excavators. Of these, the dump truck has a vessel that can be raised and lowered on the frame of the vehicle body. Excavated material excavated by a hydraulic excavator or the like is loaded on the vessel of the dump truck. After a predetermined amount of excavated material is loaded on the vessel, the dump truck travels to a predetermined accumulation site, and the excavated material loaded in the accumulation site is discharged.

ダンプトラックは大型の運搬車両であり、運転室に搭乗するオペレータが視認不能な多くの死角が存在する。このために、ダンプトラックにカメラを搭載して、カメラが撮影している映像を運転室のモニタに表示する。カメラはオペレータの死角となる範囲を撮影する。そして、カメラが撮影した映像をモニタに表示することで、オペレータは補助的に死角の視野を得ることができる。これにより、オペレータはダンプトラックの周囲の状況を詳細に認識することができる。   The dump truck is a large transport vehicle, and there are many blind spots that cannot be seen by an operator boarding the cab. For this purpose, a camera is mounted on the dump truck, and an image captured by the camera is displayed on a monitor in the cab. The camera takes a picture of the blind spot of the operator. Then, by displaying the video captured by the camera on the monitor, the operator can supplementarily obtain a blind spot field of view. Thereby, the operator can recognize the situation around the dump truck in detail.

自走式産業機械には下部走行体を有する油圧ショベルがある。この油圧ショベルにもカメラを搭載して、周囲の状況を詳細に確認する。油圧ショベルのカメラが取得した映像に対して所定の画像処理を行って、障害物を認識する技術が特許文献1に開示されている。この特許文献1の技術では、油圧ショベルの作業範囲に侵入移動体が入っているか否かを画像処理により検出している。この画像処理を行うことで、侵入移動体の距離や人体としての確信度の評価を行っている。   A self-propelled industrial machine includes a hydraulic excavator having a lower traveling body. This hydraulic excavator is also equipped with a camera to check the surrounding situation in detail. Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique for recognizing an obstacle by performing predetermined image processing on a video acquired by a camera of a hydraulic excavator. In the technique of Patent Document 1, it is detected by image processing whether an intruding moving body is in the working range of the hydraulic excavator. By performing this image processing, the distance of the invading moving body and the certainty as the human body are evaluated.

特開平10−72851号公報JP-A-10-72851

ところで、カメラには所定の視野範囲が存在しており、この視野範囲の映像が画像データとしてモニタの画面に表示される。そして、前述した特許文献1の技術のように、画像データに対して所定の画像処理を行うことで、作業員やサービスカー、他の作業機械等の障害物を検出する。これにより、運転室に搭乗するオペレータは、障害物が検出されたときに、その旨を了知することができる。   By the way, the camera has a predetermined visual field range, and an image of the visual field range is displayed on the monitor screen as image data. And like the technique of patent document 1 mentioned above, obstacles, such as a worker, a service car, and another work machine, are detected by performing predetermined image processing with respect to image data. Thereby, the operator boarding a driver's cab can recognize that when an obstacle is detected.

ここで、ダンプトラック等の自走式産業機械に近接した範囲は警戒を行う必要があり、この範囲を要警戒範囲とする。この要警戒範囲はダンプトラックと障害物とが接触の可能性がある範囲として設定することができる。従って、要警戒範囲の全てはカメラの視野範囲に含まれている必要がある。つまり、要警戒範囲はカメラの視野範囲の一部の範囲となる。このため、カメラの視野範囲には要警戒範囲以外の範囲が発生する。要警戒範囲以外の範囲は警戒不要範囲であり、この範囲に障害物が存在していたとしても、支障を生じることはない。つまり、オペレータに了知する必要はない。   Here, the range close to the self-propelled industrial machine such as the dump truck needs to be warned, and this range is set as the alert range. This warning area can be set as a range where the dump truck and the obstacle are likely to come into contact with each other. Therefore, the entire alert range needs to be included in the visual field range of the camera. That is, the alert range is a part of the visual field range of the camera. For this reason, a range other than the vigilance range occurs in the visual field range of the camera. The range other than the warning range is a warning-free range, and even if an obstacle exists in this range, no trouble is caused. That is, there is no need to know the operator.

この警戒不要範囲についてまで画像処理を行って障害物を検出すると、オペレータに認識させる必要のない情報までオペレータに報知することになり、オペレータを混乱させる要因となる。これにより、作業効率が低下する。また、警戒不要範囲はカメラの視野範囲のうち遠方の範囲となり、この範囲を画像化したときの画素は粗くなる。これにより、障害物でないものまで障害物として誤検出する可能性があり、正常な障害物の検出を行うことができなくなる。さらには、警戒不要範囲にまで画像処理を行うと、処理すべき情報量が多くなり、処理に要する時間が長くなるといった問題も生じる。   If an obstacle is detected by performing image processing up to this warning-unnecessary range, the operator is informed of information that does not need to be recognized by the operator, which causes confusion for the operator. Thereby, work efficiency falls. Further, the warning-unnecessary range is a distant range in the visual field range of the camera, and the pixels when this range is imaged become rough. As a result, even objects that are not obstacles may be erroneously detected as obstacles, and normal obstacles cannot be detected. Furthermore, when image processing is performed up to a warning-unnecessary range, there is a problem that the amount of information to be processed increases and the time required for processing increases.

従って、カメラの視野範囲のうち要警戒範囲を設定することは重要である。ただし、カメラから取得される画像データに基づいて要警戒範囲を人手により設定することは非常に困難であり、設定する手間が著しく煩雑になる。また、ダンプトラック等の自走式産業機械は過酷な現場で運用されるため、車体の振動等により、カメラの取り付け位置や角度等にずれを生じるおそれがある。これにより、初期的に要警戒範囲の設定を行ったとしても、事後的に要警戒範囲がずれてしまい、障害物の検出を正常に行うことができなくなる。   Therefore, it is important to set a warning area within the visual field range of the camera. However, it is very difficult to manually set the alert range based on the image data acquired from the camera, and the time and effort for setting it are extremely complicated. In addition, since self-propelled industrial machines such as dump trucks are operated in harsh sites, there is a risk that the mounting position and angle of the camera may be shifted due to vibration of the vehicle body. As a result, even if the warning area is initially set, the warning area is shifted afterwards, and the obstacle cannot be normally detected.

そこで、本発明は、カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定し、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にはずれを生じさせないことを目的とする。   Therefore, the present invention automatically sets a warning range for detecting an obstacle in the camera field of view, and does not cause a shift in the required warning range even if the camera field of view is shifted later. With the goal.

以上の課題を解決するため、本発明の自走式産業機械の画像処理装置は、自走式産業機械に設けられ、この自走式産業機械を構成する構造物の一部を視野に含めた周辺領域を撮影する撮影部と、前記撮影部が撮影した画像データに基づいて、この画像データの中の前記構造物を検出する構造物検出部と、前記画像データのうち、周辺領域内に位置する障害物を検出し、この障害物が含まれる所定の範囲を要警戒範囲として、この要警戒範囲を前記構造物検出部が検出した前記構造物に基づいて前記画像データの中に設定する要警戒範囲設定部と、を備えている。   In order to solve the above-described problems, an image processing apparatus for a self-propelled industrial machine according to the present invention is provided in a self-propelled industrial machine, and includes a part of a structure constituting the self-propelled industrial machine in view. An imaging unit that images a peripheral region, a structure detection unit that detects the structure in the image data based on image data captured by the imaging unit, and a position in the peripheral region of the image data It is necessary to detect an obstacle to be detected, set a predetermined range including the obstacle as a warning area, and set the warning area in the image data based on the structure detected by the structure detection unit. A warning range setting unit.

また、前記画像データの中の前記要警戒範囲のみに対して前記障害物を検出する処理を行う障害物検出部を備えてもよい。   Moreover, you may provide the obstruction detection part which performs the process which detects the said obstruction only with respect to the said vigilance range in the said image data.

また、前記画像データのうち前記要警戒範囲以外の範囲を警戒不要範囲として、時間的に前後する前記警戒不要範囲における各画素の画素値の差分を演算して、この画素値の差分が所定の閾値以上である画素の画素数に基づいて、前記撮影部の視野範囲に許容範囲以上のずれを生じたか否かを判定するずれ判定部を備えてもよい。   In addition, a range other than the alert required range in the image data is set as an unnecessary alert range, and a difference between pixel values in the alert unnecessary range that is temporally changed is calculated. A deviation determination unit may be provided that determines whether or not a deviation greater than an allowable range has occurred in the visual field range of the imaging unit based on the number of pixels that are equal to or greater than a threshold value.

また、前記自走式産業機械は走行速度を検出する走行速度検出部を備え、この走行速度検出部が検出する走行速度に基づいて前記要警戒範囲を変化させるようにしてもよい。   The self-propelled industrial machine may include a travel speed detection unit that detects a travel speed, and the warning range may be changed based on the travel speed detected by the travel speed detection unit.

撮影部により撮像した画像は、画像表示手段に表示されるが、その表示態様としては、前述したものの他、撮像部の画像を信号処理による視点変換を行って、上方視点とした俯瞰画像とする構成としても良い。   The image picked up by the photographing unit is displayed on the image display means. As the display mode, in addition to those described above, the image of the image pickup unit is subjected to viewpoint conversion by signal processing to obtain an overhead view image as an upper viewpoint. It is good also as a structure.

また、本発明の自走式産業機械の画像処理方法は、自走式産業機械に撮影部を設けて、この自走式産業機械の構造物の一部を含めた周辺領域を撮影し、前記撮影部が撮影した画像データに基づいて、この画像データの中の前記構造物を検出し、前記画像データのうちの周辺領域内に位置する障害物を検出し、この障害物を含む所定の範囲を要警戒範囲として、この要警戒範囲を前記構造物検出部が検出した前記構造物に基づいて前記画像データの中に設定し、前記画像データの中の前記要警戒範囲のみに対して前記障害物を検出する処理を行う。   Further, the image processing method of the self-propelled industrial machine of the present invention is provided with a photographing unit in the self-propelled industrial machine, photographs a peripheral region including a part of the structure of the self-propelled industrial machine, Based on the image data photographed by the photographing unit, the structure in the image data is detected, an obstacle located in a peripheral region of the image data is detected, and a predetermined range including the obstacle Is set in the image data based on the structure detected by the structure detection unit, and the failure is limited only to the warning range in the image data. Processing to detect objects is performed.

本発明は、自走式産業機械の構造物が視野に含まれるように撮影部が撮影を行い、構造物エッジを検出して、この構造物エッジに基づいて要警戒範囲を設定している。これにより、カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定することができる。また、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にずれを生じることがない。   In the present invention, the photographing unit performs photographing so that the structure of the self-propelled industrial machine is included in the field of view, detects the structure edge, and sets a warning range based on the structure edge. Thereby, it is possible to automatically set a vigilance range for detecting an obstacle in the visual field range of the camera. In addition, even if there is a shift in the visual field range of the camera afterwards, there is no shift in the alert range.

ダンプトラックの上面図である。It is a top view of a dump truck. ダンプトラックの側面図である。It is a side view of a dump truck. 第1の実施形態の画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 第1の実施形態の画像処理装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment. 画像データの一例を示す図である。It is a figure which shows an example of image data. 歪み補正を行った画像データの一例を示す図である。It is a figure which shows an example of the image data which performed distortion correction. 画像データに対する平滑化処理の一例を説明する図である。It is a figure explaining an example of the smoothing process with respect to image data. 平滑化処理を行った画像データの一例を示す図である。It is a figure which shows an example of the image data which performed the smoothing process. エッジ抽出処理の一例を説明する図である。It is a figure explaining an example of an edge extraction process. エッジ抽出処理がされた画像データの一例を示す図で、(a)はエッジ画素が抽出された画像データ、(b)は(a)で示した画像データを画像変換処理後の画像データである。It is a figure which shows an example of the image data by which the edge extraction process was carried out, (a) is the image data from which the edge pixel was extracted, (b) is the image data after image conversion processing of the image data shown in (a). . 要警戒範囲および警戒不要範囲の一例を示す図で、(a)はエッジ線分データに基づいて、要警戒範囲が設定されている画像データ、(b)は(a)で示した画像データに歪み復元処理を加えた画像データである。It is a figure which shows an example of a vigilance range and a vigilance unnecessary range, (a) is the image data in which the vigilance range is set based on edge line segment data, (b) is the image data shown in (a). This is image data to which distortion restoration processing is added. 第1の実施形態の表示画像の一例を示す図である。It is a figure which shows an example of the display image of 1st Embodiment. 第2の実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 2nd Embodiment. 第2の実施形態の画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus of 2nd Embodiment. 要警戒範囲画像の一例を示す図である。It is a figure which shows an example of the vigilance range image. ブロックマッチング手法を用いた移動体の検出手法の一例を示す図である。It is a figure which shows an example of the detection method of the moving body using the block matching method. 検索範囲の中で比較範囲をスキャンするときの一例を示す図である。It is a figure which shows an example when a comparison range is scanned in a search range. ブロックマッチング手法を3次元的に説明した図である。It is the figure explaining the block matching method three-dimensionally. 第2の実施形態の表示画像の一例を示す図である。It is a figure which shows an example of the display image of 2nd Embodiment. マスク画像から差分画像を得るための一例を示す図である。It is a figure which shows an example for obtaining a difference image from a mask image. ずれ情報が重畳された表示画像の一例を示す図である。It is a figure which shows an example of the display image on which the shift | offset | difference information was superimposed. 視野範囲にずれを生じている場合の前方構造物を特定する一例を示す図で、(a)はエッジ画素が抽出された画像データ、(b)は(a)で示した画像データを画像変換処理後の画像データである。It is a figure which shows an example which identifies a front structure in case the shift | offset | difference has arisen in the visual field range, (a) is image data from which the edge pixel was extracted, (b) is image conversion of the image data shown in (a) This is image data after processing. 視野範囲にずれを生じている場合の要警戒範囲および警戒不要範囲の一例を示す図で、(a)はエッジ線分データに基づいて要警戒範囲が設定されている画像データ、(b)は(a)で示した画像データに歪み復元処理を加えた画像データである。It is a figure which shows an example of the warning required range in case the deviation | shift has occurred in the visual field range, and a warning unnecessary range, (a) is the image data by which the required warning range is set based on edge line segment data, (b) is This is image data obtained by applying distortion restoration processing to the image data shown in (a). 視野範囲にずれを生じている場合の要警戒範囲の一例を示す図である。It is a figure which shows an example of the vigilance range in case the shift | offset | difference has arisen in the visual field range. 第3の実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 3rd Embodiment. 第4の実施形態の画像データの一例を示す図である。It is a figure which shows an example of the image data of 4th Embodiment. 図26の画像データを二値化した画像の一例を示す図である。It is a figure which shows an example of the image which binarized the image data of FIG. 第4の実施形態の表示画像の一例を示す図である。It is a figure which shows an example of the display image of 4th Embodiment. カメラ画像を俯瞰画像化処理する原理を示す説明図である。It is explanatory drawing which shows the principle which carries out a bird's-eye view imaging process of a camera image. 第2の実施形態の表示画像を俯瞰表示した一例を示す図で、(a)は図19の画像データに俯瞰する領域を示し、(b)は俯瞰した画像の一例である。It is a figure which shows an example which carried out the bird's-eye display of the display image of 2nd Embodiment, (a) shows the area | region which looks down at the image data of FIG. 19, (b) is an example of the bird's-eye view image. 第3の実施形態の表示画像の一例を示す図である。It is a figure which shows an example of the display image of 3rd Embodiment.

A:本発明の第1の実施形態
以下、図面を参照して、本発明の第1の実施形態について説明する。ここでは、自走式産業機械に運搬車両としてのダンプトラックを適用している。勿論、ダンプトラック以外の任意の自走式産業機械、例えば下部走行体を有する油圧ショベル等を適用してもよい。ダンプトラックとしてはリジットタイプとアーティキュレートタイプとがあるが、何れを適用してもよい。要は、所定の作業(運搬や掘削等)を行う任意の自走式産業機械に本実施形態を適用することができる。なお、以下において、「左」とは運転室から見たときの左方であり、「右」とは運転室から見たときの右方である。
A: First Embodiment of the Present Invention Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. Here, a dump truck as a transport vehicle is applied to a self-propelled industrial machine. Of course, any self-propelled industrial machine other than the dump truck, such as a hydraulic excavator having a lower traveling body, may be applied. There are a rigid type and an articulate type as the dump truck, but any of them may be applied. In short, the present embodiment can be applied to any self-propelled industrial machine that performs predetermined work (transportation, excavation, etc.). In the following description, “left” is the left side when viewed from the cab, and “right” is the right side when viewed from the cab.

図1は、本実施形態のダンプトラック1の一例を示している。ダンプトラック1は、車体フレーム2と前輪3(3Lおよび3R)と後輪4(4Lおよび4R)とベッセル5とカメラ6と運転室7と画像処理装置8とモニタ9とを備えて構成している。車体フレーム2はダンプトラック1の本体を形成するものであり、車体フレーム2の前方に前輪3、後方に後輪4を設けている。なお、前輪3Rは右方の前輪3であり、前輪3Lは左方の前輪3である。また、後輪4Rは右方の後輪4であり、後輪4Lは左方の後輪4である。ベッセル5は荷台であり、土砂や鉱物等を積載する。ベッセル5は起伏可能に構成されている。   FIG. 1 shows an example of a dump truck 1 according to this embodiment. The dump truck 1 includes a body frame 2, a front wheel 3 (3L and 3R), a rear wheel 4 (4L and 4R), a vessel 5, a camera 6, a cab 7, an image processing device 8, and a monitor 9. Yes. The body frame 2 forms the main body of the dump truck 1, and a front wheel 3 is provided in front of the body frame 2 and a rear wheel 4 is provided in the rear. The front wheel 3R is the right front wheel 3, and the front wheel 3L is the left front wheel 3. The rear wheel 4R is the right rear wheel 4, and the rear wheel 4L is the left rear wheel 4. The vessel 5 is a loading platform on which earth and sand, minerals, and the like are loaded. The vessel 5 is configured to be undulating.

ダンプトラック1には任意の位置に撮影部としてのカメラ6を設置することができる。図2はダンプトラック1の側面図を示しており、カメラ6は運転室7の前方に取り付けられている。そして、カメラ6はダンプトラック1の前方の斜め下方を俯瞰するような視野範囲6A(図中の破線の範囲)で、このダンプトラック1の周辺領域の撮影を行っている。この視野範囲6Aの中には作業員Mが接触を避けるべき障害物として存在している。障害物としては他に作業機械やサービスカー等があり、これらが視野範囲6Aに含まれることもある。   The dump truck 1 can be provided with a camera 6 as a photographing unit at an arbitrary position. FIG. 2 shows a side view of the dump truck 1, and the camera 6 is attached in front of the cab 7. The camera 6 takes a picture of the peripheral area of the dump truck 1 in a visual field range 6A (a range indicated by a broken line in the figure) in which a diagonally lower portion in front of the dump truck 1 is looked down. In this visual field range 6A, the worker M exists as an obstacle to avoid contact. Other obstacles include work machines and service cars, and these may be included in the visual field range 6A.

カメラ6の視野範囲6Aはダンプトラック1の前方の斜め下方となっており、視野範囲6Aの中に前方構造物10の一部が含まれるようにする。図2の破線で示すように、視野範囲6Aには前方構造物10の一部が含まれている。なお、カメラ6により撮影される周辺領域である視野範囲6Aはダンプトラック1の前方以外の方向でもよく、ダンプトラック1の後方や左方、右方等の任意の方向を視野としてもよい。視野範囲6Aをダンプトラック1の後方とすることで、ダンプトラック1を後進させるときに、後方の状況を画像表示することができる。このときには、視野範囲6Aには後方構造物の一部が含まれるようにする。   The visual field range 6A of the camera 6 is obliquely below the front of the dump truck 1, and a part of the front structure 10 is included in the visual field range 6A. As shown by a broken line in FIG. 2, a part of the front structure 10 is included in the visual field range 6A. The visual field range 6 </ b> A that is a peripheral region photographed by the camera 6 may be a direction other than the front of the dump truck 1, and an arbitrary direction such as the rear, left, or right of the dump truck 1 may be used as the visual field. By setting the visual field range 6 </ b> A to the rear of the dump truck 1, when the dump truck 1 is moved backward, the rear situation can be displayed as an image. At this time, a part of the rear structure is included in the visual field range 6A.

運転室7はオペレータが搭乗してダンプトラック1を操作する各種の操作手段が設けられている。例えば、ダンプトラック1を前進または後進させるシフトレバー等が操作手段として設けられている。運転室7には、画像処理装置8とモニタ9とが設けられており、カメラ6が撮影することにより生成される画像データは画像処理装置8で所定の画像処理が行われる。画像処理が行われた画像データはモニタ9に表示される。モニタ9は表示装置であり、基本的にモニタ9にはカメラ6が撮影する映像が表示されている。   The driver's cab 7 is provided with various operation means for operating the dump truck 1 by boarding an operator. For example, a shift lever or the like for moving the dump truck 1 forward or backward is provided as the operation means. The cab 7 is provided with an image processing device 8 and a monitor 9, and image data generated when the camera 6 takes an image is subjected to predetermined image processing by the image processing device 8. The image data that has undergone image processing is displayed on the monitor 9. The monitor 9 is a display device. Basically, the monitor 9 displays an image captured by the camera 6.

画像処理装置8はカメラ6が撮影した映像の画像データに対して画像処理を行う画像処理コントローラである。そして、画像処理を行った画像データを表示画像としてモニタ9に表示する。図3に示すように、画像処理装置8は、歪み補正部21と平滑化処理部22とエッジ抽出部23と構造物エッジ判定部24とエッジ線分データ確定部25と要警戒範囲設定部26と歪み復元部27と表示画像作成部28とを備えている。   The image processing device 8 is an image processing controller that performs image processing on image data of video captured by the camera 6. Then, the image data subjected to the image processing is displayed on the monitor 9 as a display image. As shown in FIG. 3, the image processing apparatus 8 includes a distortion correction unit 21, a smoothing processing unit 22, an edge extraction unit 23, a structure edge determination unit 24, an edge line segment data determination unit 25, and a warning range setting unit 26. And a distortion restoration unit 27 and a display image creation unit 28.

カメラ6が撮影した映像は画像データとして歪み補正部21に入力される。歪み補正部21は、カメラ6のレンズパラメータ(焦点距離や画像の光軸中心、レンズ歪係数等)を用いて、画像データの歪みを補正する。カメラ6のレンズの映り込む映像は中心では歪みを生じていないが、中心から離間するほど歪みを生じる。従って、カメラ6が撮影して得られる画像データは全体的に歪曲されている。これに対して、前記のパラメータを用いて補正を行うことで、直線性の高い画像データを得ることができる。   The video imaged by the camera 6 is input to the distortion correction unit 21 as image data. The distortion correction unit 21 corrects the distortion of the image data using the lens parameters of the camera 6 (focal length, center of the optical axis of the image, lens distortion coefficient, etc.). The image reflected by the lens of the camera 6 is not distorted at the center, but is distorted as the distance from the center increases. Accordingly, the image data obtained by photographing by the camera 6 is distorted as a whole. On the other hand, image data with high linearity can be obtained by performing correction using the above parameters.

平滑化処理部22は、歪み補正部21により補正された画像データを入力して、平滑化処理を行う。平滑化処理は、画像データの各画素の間の画素値の変化を少なくし、滑らかな画像を生成する処理である。画像データに対して平滑化処理を行うことで、画素値の変化を滑らかにすることができ、全体的に平滑化された画像データにすることができる。平滑化処理には、任意の手法を用いることができるが、例えば移動平均フィルタや中央値フィルタ、ガウシアンフィルタ等を用いることができる。   The smoothing processing unit 22 receives the image data corrected by the distortion correction unit 21 and performs a smoothing process. The smoothing process is a process of generating a smooth image by reducing changes in pixel values between pixels of image data. By performing the smoothing process on the image data, the change of the pixel value can be smoothed, and the image data can be smoothed as a whole. Although any method can be used for the smoothing process, for example, a moving average filter, a median filter, a Gaussian filter, or the like can be used.

エッジ抽出部23は、平滑化処理部22により平滑化処理された画像データに対してエッジ抽出処理を行う。このために、隣接する画素間の画素値の変化が大きい画素をエッジ画素として抽出し、エッジ画素が連続して形成される形状をエッジとする。これにより、画像データの中から画素値の変化が大きいエッジが抽出される。エッジ抽出処理には任意の手法を用いることができるが、例えばソーベルフィルタやキャニーのアルゴリズム等の手法を用いることができる。   The edge extraction unit 23 performs edge extraction processing on the image data smoothed by the smoothing processing unit 22. For this purpose, a pixel having a large change in pixel value between adjacent pixels is extracted as an edge pixel, and a shape in which the edge pixels are continuously formed is defined as an edge. Thereby, an edge having a large change in pixel value is extracted from the image data. Although any method can be used for the edge extraction process, a method such as a Sobel filter or a Canney algorithm can be used.

構造物検出部である構造物エッジ判定部24は、エッジ抽出部23が抽出したエッジのうち、その形状が画像データの中の前方構造物10の境界に近いエッジを前方構造物10のエッジとして判定する。このために、構造物エッジ判定部24はハフ変換等の直線化手法を用いて、画像データの中のエッジの直線化を行う。そして、直線化されたエッジをエッジ線分として、連結性の高いエッジ線分を前方構造物10の境界(エッジ)として判定する。エッジ線分は画像データ中の座標を用いて表現することができ、ここではエッジ線分同士の交点座標およびエッジ線分と画像データの下端(画像データPのうち最もダンプトラック1に近接している端部)との交点座標をエッジ線分データとして記憶する。   The structure edge determination unit 24 that is a structure detection unit uses, as the edge of the front structure 10, an edge whose shape is close to the boundary of the front structure 10 in the image data among the edges extracted by the edge extraction unit 23. judge. For this purpose, the structure edge determination unit 24 linearizes edges in the image data using a linearization method such as Hough transform. Then, the straightened edge is determined as the edge line segment, and the edge line segment having high connectivity is determined as the boundary (edge) of the front structure 10. The edge line segment can be expressed by using coordinates in the image data. Here, the intersection coordinates of the edge line segments and the edge line segment and the lower end of the image data (of the image data P closest to the dump truck 1). The coordinates of the intersection with the edge portion are stored as edge line segment data.

エッジ線分データ確定部25は、最新のエッジ線分データを含めて、任意の数のエッジ線分データを比較する。カメラ6には所定の撮影周期があり、周期的に画像データが取得されることから、エッジ線分データも周期的に取得される。エッジ線分データ確定部25は過去のエッジ線分データを記憶しており、最新のエッジ線分データとの平均値を演算する。そして、演算されたエッジ線分データの平均値を確定されたエッジ線分データとする。なお、歪み補正部21からエッジ線分データ確定部25までの各部は前方構造物10を検出するための構造物検出部となる。   The edge line segment data determination unit 25 compares any number of edge line segment data including the latest edge line segment data. Since the camera 6 has a predetermined shooting period and image data is periodically acquired, edge line segment data is also periodically acquired. The edge line segment data determination unit 25 stores past edge line segment data, and calculates an average value with the latest edge line segment data. Then, the average value of the calculated edge line segment data is set as the determined edge line segment data. Each part from the distortion correction unit 21 to the edge line segment data determination unit 25 serves as a structure detection unit for detecting the front structure 10.

要警戒範囲設定部26は、エッジ線分データ確定部25から入力したエッジ線分データに基づいて、要警戒範囲を設定する。要警戒範囲とダンプトラック1の前方構造物10との相対位置関係は一定であり、カメラ6の取り付け高さや俯角、カメラ6の画素数、画角等に基づいて、要警戒範囲と前方構造物10との相対位置関係は既知のものとして認識することができる。従って、要警戒範囲設定部26は、エッジ線分データにより得られる前方構造物10の境界に基づいて、所定範囲を要警戒範囲として設定する。   The vigilance range setting unit 26 sets a vigilance range based on the edge line segment data input from the edge line segment data determination unit 25. The relative positional relationship between the warning area and the front structure 10 of the dump truck 1 is constant, and the warning area and the front structure are based on the mounting height and depression angle of the camera 6, the number of pixels of the camera 6, the angle of view, and the like. The relative positional relationship with 10 can be recognized as a known one. Therefore, the alert range setting unit 26 sets the predetermined range as the alert range based on the boundary of the front structure 10 obtained from the edge line segment data.

歪み復元部27は、歪み補正部21が歪み補正したカメラレンズのパラメータを用いて、歪みを復元する。歪み復元部27までの画像データはカメラ6のカメラレンズの歪みを補正したデータであり、本来のカメラ6の映像には歪みを生じている。よって、本来的なカメラ6の映像を表示するときには、歪み復元部27が画像データに対して歪みを復元する処理を行う。この歪みの復元により画像データ中の要警戒範囲にも歪みが発生する。   The distortion restoration unit 27 restores distortion using the camera lens parameters corrected by the distortion correction unit 21. The image data up to the distortion restoring unit 27 is data obtained by correcting the distortion of the camera lens of the camera 6, and the original image of the camera 6 is distorted. Therefore, when displaying the original video of the camera 6, the distortion restoration unit 27 performs a process of restoring distortion on the image data. Due to the restoration of the distortion, the distortion also occurs in the area requiring caution in the image data.

表示画像作成部28はモニタ9に表示する表示画像を生成する。このときの表示画像は歪みが復元された画像データであり、この中に要警戒範囲が設定されている。表示画像作成部28は要警戒範囲が設定された表示画像をモニタ9に出力し、モニタ9に表示画像を表示する。これにより、運転室7に搭乗するオペレータはモニタ9を視認することにより、カメラ6の映像を認識することができる。   The display image creation unit 28 generates a display image to be displayed on the monitor 9. The display image at this time is image data whose distortion has been restored, and a warning area is set therein. The display image creation unit 28 outputs the display image in which the alert range is set to the monitor 9 and displays the display image on the monitor 9. As a result, an operator boarding the cab 7 can recognize the image of the camera 6 by visually recognizing the monitor 9.

次に、図4のフローチャートに基づいて、動作について説明する。ダンプトラック1に設置されたカメラ6は斜め下方を視野とした視野範囲6Aを撮影しており、所定の撮影周期(例えば、フレーム/秒)で撮影を行っている。これにより、撮影周期ごとに得られる1フレーム分の画像データを画像処理装置8に周期的に出力する(ステップS1)。視野範囲6Aに前方構造物10が含まれるようにカメラ6が設置しており、画像データの中には前方構造物10が含まれる。   Next, the operation will be described based on the flowchart of FIG. The camera 6 installed in the dump truck 1 captures a visual field range 6A with a visual field in an obliquely downward direction, and performs imaging at a predetermined imaging cycle (for example, frames / second). As a result, the image data for one frame obtained at each photographing cycle is periodically output to the image processing device 8 (step S1). The camera 6 is installed so that the front structure 10 is included in the visual field range 6A, and the front structure 10 is included in the image data.

カメラ6が視野範囲6Aを撮影することにより得られる画像データの一例を図5に示す。カメラ6は斜め下方を視野としており、同図に示すように、画像データPにはカメラ6の撮影方向の地面が背景として映し出されている。ダンプトラック1が運用される現場は過酷な環境下にあり、地面は整地状態となっておらず、多くの凹凸が存在する。画像データPの中では凹凸部Rとして映し出されている。また、視野範囲6Aにダンプトラック1の前方構造物10が映し出されるようにカメラ6の視野を設定している。よって、画像データPには前方構造物10も含まれている。   An example of image data obtained when the camera 6 captures the visual field range 6A is shown in FIG. The camera 6 has a field of view obliquely below, and as shown in the figure, the image data P shows the ground in the shooting direction of the camera 6 as a background. The site where the dump truck 1 is operated is in a harsh environment, the ground is not leveled, and there are many irregularities. In the image data P, it is projected as an uneven portion R. The field of view of the camera 6 is set so that the front structure 10 of the dump truck 1 is projected in the field of view range 6A. Therefore, the front structure 10 is also included in the image data P.

以上の画像データPが画像処理装置8の歪み補正部21に出力され、且つ表示画像作成部28にも出力される。歪み補正部21に入力された画像データPはカメラ6のレンズパラメータに基づいて歪み補正がされる(ステップS2)。カメラ6のレンズパラメータを用いて画像データPの歪み補正を行うことで、画像データPの中心から離間した部位の歪みが補正される。これにより、画像データPは、図6に示すような直線性の高い画像に補正される。   The above image data P is output to the distortion correction unit 21 of the image processing apparatus 8 and also to the display image creation unit 28. The image data P input to the distortion correction unit 21 is corrected for distortion based on the lens parameters of the camera 6 (step S2). By performing distortion correction of the image data P using the lens parameters of the camera 6, the distortion of the part separated from the center of the image data P is corrected. As a result, the image data P is corrected to an image having high linearity as shown in FIG.

歪み補正処理がされた画像データPは平滑化処理部22に入力される。平滑化処理部22は画像データPに対して平滑化処理を行う(ステップS3)。平滑化処理部22は、前述したように、画像データPの各画素について、隣接する画素間の画素値の差分を少なくして、滑らかな画像データPを生成する。前述したように、エッジ抽出部23によりエッジ抽出処理が行われる。このとき、地面の凹凸や照度の違い等に起因して画像データPの画素値がまばらな値になり、これらがエッジとして検出されるおそれがある。ただし、これらはノイズ成分であり、平滑化処理部22は予めノイズ成分を除去するために平滑化処理を行う。この平滑化処理を行うことで、まばらな画素値が平滑化され、ノイズ成分が除去される。ここでは、図7に示す平滑化フィルタを用いて平滑化処理を行っているが、隣接する画素間の画素値の差分を少なくすることができれば任意の手法を用いることができる。   The image data P subjected to the distortion correction process is input to the smoothing processing unit 22. The smoothing processing unit 22 performs a smoothing process on the image data P (step S3). As described above, the smoothing processing unit 22 generates smooth image data P by reducing the difference in pixel value between adjacent pixels for each pixel of the image data P. As described above, edge extraction processing is performed by the edge extraction unit 23. At this time, the pixel values of the image data P are sparse due to unevenness of the ground, a difference in illuminance, and the like, and these may be detected as edges. However, these are noise components, and the smoothing processing unit 22 performs smoothing processing in advance to remove the noise components. By performing this smoothing process, sparse pixel values are smoothed and noise components are removed. Here, the smoothing process is performed using the smoothing filter illustrated in FIG. 7, but any technique can be used as long as the difference in pixel values between adjacent pixels can be reduced.

図7は、平滑化フィルタとしてガウシアンフィルタを適用した例を示している。ガウシアンフィルタは、画素の空間的配置を考慮して、画像データPの中の1つの画素(中心画素)に近い画素のフィルタ係数が大きく、中心画素から遠い画素のフィルタ係数が小さいフィルタである。そして、ガウシアンフィルタはフィルタリングした各画素の加重平均を取る。フィルタ係数としては、例えば下記のガウス関数(式1)を用いることができる。なお、式1の中のσは標準偏差である。

Figure 2014073571
FIG. 7 shows an example in which a Gaussian filter is applied as a smoothing filter. The Gaussian filter is a filter having a large filter coefficient for a pixel close to one pixel (center pixel) in the image data P and a small filter coefficient for a pixel far from the center pixel in consideration of the spatial arrangement of the pixels. The Gaussian filter then takes a weighted average of each filtered pixel. As the filter coefficient, for example, the following Gaussian function (Formula 1) can be used. In Equation 1, σ is a standard deviation.
Figure 2014073571


図7の例では3画素×3画素の合計9画素のガウシアンフィルタを用いる。なお、ガウシアンフィルタの画素数は9画素ではなく、5画素×5画素の合計25画素としてもよいし、それ以上としてもよい。前述の式1のガウス関数を用いたガウシアンフィルタは、中心画素と周辺画素(8画素)とにより構成される。中心画素のフィルタ係数Kが最も大きく、中心画素の上下左右の4画素のフィルタ係数Lが次に大きく、それ以外の4画素のフィルタ係数Mが最も小さい。つまり、「K>L>M」となる。なお、フィルタ係数は重み付けであり、フィルタ係数の合計は「1」となる。

In the example of FIG. 7, a Gaussian filter having a total of 9 pixels of 3 pixels × 3 pixels is used. Note that the number of pixels of the Gaussian filter is not limited to nine, and may be a total of 25 pixels of 5 pixels × 5 pixels or more. The Gaussian filter using the Gaussian function of the above-described formula 1 is composed of a central pixel and peripheral pixels (8 pixels). The filter coefficient K of the center pixel is the largest, the filter coefficients L of the four pixels above, below, left, and right of the center pixel are the next largest, and the filter coefficients M of the other four pixels are the smallest. That is, “K>L> M”. The filter coefficients are weighted, and the total of the filter coefficients is “1”.

平滑化処理部22は画像データPの全ての画素に対して、前述したガウシアンフィルタを用いた平滑化処理を行う。具体的には、中心画素の画素値に対してフィルタ係数Kを乗算し、中心画素の上下左右の4画素の画素値に対してフィルタ係数Lを乗算し、それ以外の4画素の画素値に対してフィルタ係数Mを乗算する。そして、フィルタ係数Kを乗算した中心画素の画素値に対して、フィルタ係数L、Mを乗算した周辺の8画素の画素値を加算する。この加算を行ったときの中心画素の画素値が平滑化値となる。この処理を画像データPの全ての画素に対して行う。   The smoothing processing unit 22 performs the smoothing process using the Gaussian filter described above on all the pixels of the image data P. Specifically, the pixel value of the center pixel is multiplied by the filter coefficient K, the pixel values of the four pixels above, below, left, and right of the center pixel are multiplied by the filter coefficient L, and the pixel values of the other four pixels are multiplied. The filter coefficient M is multiplied. Then, the pixel values of the surrounding eight pixels multiplied by the filter coefficients L and M are added to the pixel value of the central pixel multiplied by the filter coefficient K. The pixel value of the center pixel when this addition is performed becomes a smoothed value. This process is performed for all the pixels of the image data P.

ところで、前述したように、画像データPには地面の凹凸部Rと前方構造物10とが映し出されている。凹凸部Rの画素はその周囲の画素と画素値に差分を有している。従って、平滑化処理部22が画像データPに対して平滑化処理を行うことで、凹凸部Rと周囲の画素との間の画素値の差分が少なくなり、平滑化される。そして、前述のフィルタ係数K、L、Mの値は、画像データPの中の前方構造物10の境界はエッジとして検出されるが、それ以外の凹凸部R等はエッジとして検出されないような値に設定する。これにより、図8に示したように、画像データPの中の凹凸部Rを大幅に低減することができる。フィルタ係数K、L、Mの値はガウス関数の標準偏差σにより決定されるため、凹凸部Rが検出されなくなるような標準偏差σを設定する。   By the way, as described above, the image data P shows the uneven portion R of the ground and the front structure 10. The pixel of the uneven portion R has a difference in pixel value from the surrounding pixels. Therefore, when the smoothing processing unit 22 performs the smoothing process on the image data P, the difference in the pixel value between the concavo-convex part R and the surrounding pixels is reduced and smoothed. The values of the filter coefficients K, L, and M described above are values such that the boundary of the front structure 10 in the image data P is detected as an edge, but the other uneven portions R and the like are not detected as edges. Set to. Thereby, as shown in FIG. 8, the uneven | corrugated | grooved part R in the image data P can be reduced significantly. Since the values of the filter coefficients K, L, and M are determined by the standard deviation σ of the Gaussian function, the standard deviation σ is set such that the uneven portion R is not detected.

勿論、凹凸部Rの中にはその大きさや照度条件等により、凹凸部Rの画素とその周囲の画素との差分が大きくなることがある。この場合には、平滑化処理を行ったとしても、完全に画像データPの中から凹凸部Rを除去することができず、一部の凹凸部Rは残存する。ただし、図8に示すように、その数を大幅に低減させることができる。   Of course, in the uneven portion R, the difference between the pixels of the uneven portion R and the surrounding pixels may be large depending on the size, illuminance conditions, and the like. In this case, even if the smoothing process is performed, the uneven portion R cannot be completely removed from the image data P, and a portion of the uneven portion R remains. However, as shown in FIG. 8, the number can be significantly reduced.

一方、前方構造物10については、背景と前方構造物10との境界は明確に区別可能になっている。一般に、ダンプトラック1は、周囲状況を把握する観点から地面や周囲の環境と容易に区別が可能なような色に着色されていることが多い。これに伴い、前方構造物10も地面や周囲環境等の背景とは明確に異なる色となっている。このため、背景と前方構造物10との境界、つまり前方構造物10における背景の画素値と前方構造物10の画素値との差分は大きい。これにより、前方構造物10の境界における画素値の差分は非常に大きいため、平滑化処理を行ったとしても、大半は残存する。   On the other hand, for the front structure 10, the boundary between the background and the front structure 10 can be clearly distinguished. In general, the dump truck 1 is often colored in a color that can be easily distinguished from the ground or the surrounding environment from the viewpoint of grasping the surrounding situation. Accordingly, the front structure 10 is also clearly different from the background such as the ground and the surrounding environment. For this reason, the difference between the boundary between the background and the front structure 10, that is, the pixel value of the background in the front structure 10 and the pixel value of the front structure 10 is large. Thereby, since the difference of the pixel value in the boundary of the front structure 10 is very large, even if it performs a smoothing process, most remain.

次に、エッジ抽出部23の処理について説明する。図8に示したように、平滑化処理を行った画像データPには、その数が大幅に低減された凹凸部Rおよび前方構造物10の境界が映し出されている。エッジ抽出部23は、この平滑化処理を行った画像データPから隣接する画素の間の画素値の差分が所定の閾値以上の画素(差分が大きい画素)をエッジ画素として抽出する(ステップS4)。   Next, processing of the edge extraction unit 23 will be described. As shown in FIG. 8, in the image data P that has been subjected to the smoothing process, the uneven part R and the boundary between the front structures 10 whose number has been greatly reduced are reflected. The edge extraction unit 23 extracts, as edge pixels, pixels whose pixel value difference between adjacent pixels is equal to or greater than a predetermined threshold (pixels having a large difference) from the image data P subjected to the smoothing process (step S4). .

ここでは、エッジ画素を抽出するエッジ抽出処理としてキャニーのアルゴリズムを用いる。勿論、他の手法を用いてエッジ画素を抽出してもよい。キャニーのアルゴリズムでは、図9に示すような水平方向(横方向:X方向)のソーベルフィルタおよび垂直方向(縦方向:Y方向)のソーベルフィルタの2種類のソーベルフィルタを用いる。X方向のソーベルフィルタは画像データPのX方向の輪郭を強調し、Y方向のソーベルフィルタはY方向の輪郭を強調する。これら2種類のソーベルフィルタを用いて画像データPの全ての画素に対してエッジ画素を抽出する。   Here, Canny's algorithm is used as edge extraction processing for extracting edge pixels. Of course, the edge pixels may be extracted using other methods. In the Canny algorithm, two types of Sobel filters are used: a Sobel filter in the horizontal direction (lateral direction: X direction) and a Sobel filter in the vertical direction (vertical direction: Y direction) as shown in FIG. The X direction Sobel filter emphasizes the X direction outline of the image data P, and the Y direction Sobel filter emphasizes the Y direction outline. Edge pixels are extracted for all pixels of the image data P using these two types of Sobel filters.

X方向およびY方向のソーベルフィルタを画像データPの全ての画素に対して施すことにより、画像データPの全ての画素について、当該画素とその周囲の画素との間の微分値(fx、fy)を抽出する。fxはX方向の微分値であり、fyはY方向の微分値である。そして、画像データのPの全ての画素に対して、fx、fyに基づいて、エッジ強度gを「g=(fx+fy1/2」として演算する。エッジ強度gは1つの画素と周囲の画素との間の画素値の差分を示しており、演算されたエッジ強度gに基づいて、エッジ画素を検出する。By applying a Sobel filter in the X direction and the Y direction to all the pixels of the image data P, for all the pixels of the image data P, differential values (fx, fy) between the pixel and its surrounding pixels. ). fx is a differential value in the X direction, and fy is a differential value in the Y direction. Then, the edge strength g is calculated as “g = (fx 2 + fy 2 ) 1/2 ” based on fx and fy for all pixels of P of the image data. The edge strength g indicates a difference in pixel value between one pixel and surrounding pixels, and an edge pixel is detected based on the calculated edge strength g.

エッジ抽出部23は、ソーベルフィルタが施された画像データPの全ての画素のエッジ強度gに対して、第1閾値T1および第2閾値T2(ただし、T1>T2)を用いて比較を行う。画像データPの1つの画素に着目して、当該画素のエッジ強度gが第1閾値T1以上であれば、当該画素はエッジ画素として検出する。一方、着目した画素のエッジ強度gが第2閾値T2未満であれば、当該画素はエッジ画素ではないとして検出する。着目した画素のエッジ強度が第1閾値T1以上且つ第2閾値T2未満のときには、当該画素の近傍(特に、当該画素に隣接している画素)にエッジ画素が存在しているときには当該画素をエッジ画素として検出し、それ以外の場合はエッジ画素として検出しない。   The edge extraction unit 23 compares the edge intensity g of all the pixels of the image data P to which the Sobel filter has been applied, using the first threshold T1 and the second threshold T2 (where T1> T2). . Focusing on one pixel of the image data P, if the edge intensity g of the pixel is not less than the first threshold T1, the pixel is detected as an edge pixel. On the other hand, if the edge intensity g of the pixel of interest is less than the second threshold T2, the pixel is detected as not being an edge pixel. When the edge intensity of the pixel of interest is greater than or equal to the first threshold value T1 and less than the second threshold value T2, if the edge pixel exists in the vicinity of the pixel (particularly, the pixel adjacent to the pixel), the pixel is edged Detected as pixels, otherwise not detected as edge pixels.

以上のエッジ抽出処理を行うと、図10(a)に示すようなエッジ画素が抽出された画像データPが生成される。そして、エッジ画素が連続した形状をエッジEとして抽出される。エッジEが抽出された画像データPに対して構造物エッジ判定処理を行うことにより、画像データPの中から前方構造物10を判定する(ステップS5)。エッジ抽出処理では、隣接する画素間の差分が大きい画素をエッジ画素として抽出している。これにより、もともと凹凸部Rを映し出していた画素は殆どエッジ画素として検出されなくなるため、前方構造物10を検出する精度は飛躍的に向上する。   When the above edge extraction processing is performed, image data P from which edge pixels are extracted as shown in FIG. 10A is generated. A shape in which edge pixels are continuous is extracted as an edge E. By performing the structure edge determination process on the image data P from which the edge E has been extracted, the front structure 10 is determined from the image data P (step S5). In the edge extraction process, pixels with a large difference between adjacent pixels are extracted as edge pixels. Thereby, since the pixel which originally projected the uneven part R is hardly detected as an edge pixel, the accuracy of detecting the front structure 10 is greatly improved.

一方、前方構造物10の境界は画素値の差分が大きいため、エッジ画素として検出されやすくなる。ただし、ソーベルフィルタを用いたエッジ抽出処理を行うことにより、図10(a)に示すように、エッジEは直線性を示さず、不規則な変化を示すことがある。例えば、本来なら直線性を有している前方構造物10の境界も直線性を失い、当該境界の一部が検出されなくなる場合もある。   On the other hand, the boundary of the front structure 10 is likely to be detected as an edge pixel because of a large difference in pixel values. However, by performing an edge extraction process using a Sobel filter, the edge E may not show linearity and may show irregular changes as shown in FIG. For example, the boundary of the forward structure 10 that originally has linearity may also lose linearity, and a part of the boundary may not be detected.

構造物エッジ判定部24は、画像データPのエッジ画素から直線を抽出する。直線を抽出する手段としては任意の手段を用いることができるが、ここでは既知の手法としてハフ変換を用いる。勿論、エッジ画素から直線を抽出できれば、ハフ変換以外の手法を用いてもよい。図10(a)に示した画像データPに対して、ハフ変換の演算処理を行うことで、不規則な変化を示す線分は、同図(b)に示すように直線L、L1乃至L4になる。このうち、X方向に延在する直線L1、L2およびY方向に延在する直線L3、L4に着目する。そして、構造物エッジ判定部24は直線L1、L2のうち最も長い直線L1を選択し、2つの直線L3、L4を選択する。   The structure edge determination unit 24 extracts a straight line from the edge pixels of the image data P. Arbitrary means can be used as means for extracting a straight line, but here Hough transform is used as a known technique. Of course, any method other than the Hough transform may be used as long as a straight line can be extracted from the edge pixels. By performing Hough transform arithmetic processing on the image data P shown in FIG. 10A, line segments indicating irregular changes are represented by straight lines L, L1 to L4 as shown in FIG. become. Of these, attention is paid to the straight lines L1 and L2 extending in the X direction and the straight lines L3 and L4 extending in the Y direction. And the structure edge determination part 24 selects the longest straight line L1 among the straight lines L1 and L2, and selects two straight lines L3 and L4.

構造物エッジ判定部24は画像データPの中で直線L1、L3、L4を延長する。直線L1はX方向の延在する直線であり、直線L3、L4はY方向に延在する直線であることから、これらを延長することにより、直線L1と直線L3および直線L4が交わる。直線L1と直線L3との交点をC1、直線L1と直線L4との交点をC2とする。また、直線L3と画像データPの下端との交点をC3、直線L4と画像データPの下端との交点をC4とする。交点C1乃至C4は2次元の画像データPの中の画素の座標を示している。   The structure edge determination unit 24 extends the straight lines L1, L3, and L4 in the image data P. Since the straight line L1 is a straight line extending in the X direction and the straight lines L3 and L4 are straight lines extending in the Y direction, the straight line L1, the straight line L3, and the straight line L4 intersect by extending these. Let the intersection of the straight line L1 and the straight line L3 be C1, and let the intersection of the straight line L1 and the straight line L4 be C2. Further, an intersection between the straight line L3 and the lower end of the image data P is C3, and an intersection between the straight line L4 and the lower end of the image data P is C4. Intersection points C1 to C4 indicate the coordinates of pixels in the two-dimensional image data P.

交点C1乃至C4を直線で結ぶと前方構造物10のエッジ線分が形成される。従って、交点C1乃至C4の情報は前方構造物10のエッジ線分を特定するためのデータとなり、これをエッジ線分データとする。エッジ線分データ(交点C1乃至C4の座標情報)により囲まれた領域が前方構造物10となる。構造物エッジ判定部24はエッジ線分データに基づいて、前方構造物10のエッジを判定する。1枚の画像データPから得られるエッジ線分データに基づいて前方構造物10を特定してもよいが、画像データPの中の前方構造物10を検出する確度を向上させるために、エッジ線分データ確定部25がエッジ線分データの比較を行う(ステップS6)。   When the intersections C1 to C4 are connected by straight lines, an edge line segment of the front structure 10 is formed. Therefore, the information on the intersections C1 to C4 becomes data for specifying the edge line segment of the front structure 10, and this is used as the edge line segment data. A region surrounded by the edge line segment data (coordinate information of the intersections C1 to C4) is the front structure 10. The structure edge determination unit 24 determines the edge of the front structure 10 based on the edge line segment data. The front structure 10 may be specified based on the edge line segment data obtained from one piece of image data P. In order to improve the accuracy of detecting the front structure 10 in the image data P, the edge line 10 The minute data determining unit 25 compares the edge line segment data (step S6).

前述したように、カメラ6から所定周期で画像データPが画像処理装置8に入力されており、複数枚の画像データPが得られる。エッジ線分データ確定部25は過去の画像データPに基づくエッジ線分データを記憶しており、最新の画像データPに基づくエッジ線分データと過去のエッジ線分データとの平均値を算出する。エッジ線分データ確定部25は、算出されたエッジ線分データ(平均値)を確定されたエッジ線分データとする。つまり、確定されたエッジ線分データにより画像データPの中の前方構造物10が特定される。   As described above, the image data P is input from the camera 6 to the image processing device 8 at a predetermined cycle, and a plurality of pieces of image data P are obtained. The edge line segment data determination unit 25 stores edge line segment data based on the past image data P, and calculates an average value of the edge line segment data based on the latest image data P and the past edge segment data. . The edge line segment data determination unit 25 sets the calculated edge line segment data (average value) as determined edge line segment data. That is, the forward structure 10 in the image data P is specified by the determined edge line segment data.

なお、エッジ線分データ確定部25が複数の画像データPのエッジ線分データの平均値の演算を行うときには、所定枚数の画像データPのエッジ線分データがエッジ線分データ確定部25に蓄積されるまで、エッジ線分データの確定は行わない。また、多くのエッジ線分データの平均値を算出することにより、エッジ線分データの確度は向上するが、処理時間が長くなる。従って、エッジ線分データの確度と処理時間とのバランスを考慮して、平均値の演算を行うエッジ線分データの個数を決定する。   Note that when the edge line segment data determination unit 25 calculates the average value of the edge line segment data of the plurality of image data P, the edge line segment data of a predetermined number of pieces of image data P is accumulated in the edge line segment data determination unit 25. Until this is done, the edge line segment data is not confirmed. Also, by calculating the average value of a large amount of edge line segment data, the accuracy of the edge line segment data is improved, but the processing time is lengthened. Therefore, the number of edge line segment data for calculating the average value is determined in consideration of the balance between the accuracy of the edge line segment data and the processing time.

エッジ線分データ確定部25が確定したエッジ線分データは要警戒範囲設定部26に出力される。要警戒範囲設定部26はエッジ線分データに基づいて要警戒範囲を設定する(ステップS7)。要警戒範囲は障害物を検出する範囲であり、ダンプトラック1から所定の範囲となる。前述したように、ダンプトラック1の前方構造物10と要警戒範囲との相対位置関係は既知のものとして認識することができる。従って、画像データPの中の前方構造物10が特定できれば、要警戒範囲を自動的に認識することができる。   The edge line segment data determined by the edge line segment data determination unit 25 is output to the alert range setting unit 26. The vigilance range setting unit 26 sets a vigilance range based on the edge line segment data (step S7). The vigilance range is a range in which an obstacle is detected, and is a predetermined range from the dump truck 1. As described above, the relative positional relationship between the front structure 10 of the dump truck 1 and the alert range can be recognized as a known one. Therefore, if the forward structure 10 in the image data P can be specified, the area requiring caution can be automatically recognized.

図11(a)は、エッジ線分データに基づいて、要警戒範囲31が設定される状態を示している。確定されたエッジ線分データは交点C1乃至C4の情報であり、交点C1乃至C4を連結することにより前方構造物10が特定される。従って、同図(a)の中で交点C1乃至C4により囲まれた領域が前方構造物10となる。前方構造物10と要警戒範囲31との相対位置関係に基づいて、画像データPの中で要警戒範囲31が設定される。   FIG. 11A shows a state where the alert range 31 is set based on the edge line segment data. The determined edge line segment data is information on the intersection points C1 to C4, and the front structure 10 is specified by connecting the intersection points C1 to C4. Accordingly, the area surrounded by the intersections C1 to C4 in FIG. Based on the relative positional relationship between the forward structure 10 and the alert range 31, the alert range 31 is set in the image data P.

一方、画像データPの中で要警戒範囲31以外の領域は警戒が不要な警戒不要範囲32となる。従って、画像データPの中から障害物を検出するときに、要警戒範囲31のみを対象として障害物の検出を行い、警戒不要範囲32については障害物の検出は行わない。障害物の検出の手法は任意の手法を採用することができる。そして、障害物の検出を行うときに、警戒不要範囲32はマスク領域として、当該範囲をマスクすることで、要警戒範囲31に絞って障害物の検出を行うことができる。   On the other hand, in the image data P, an area other than the area requiring caution 31 is a caution-free area 32 that does not require caution. Therefore, when an obstacle is detected from the image data P, the obstacle is detected only for the area requiring caution 31, and the obstacle is not detected for the area 32 not requiring caution. An arbitrary method can be adopted as a method for detecting an obstacle. When the obstacle is detected, the warning-unnecessary range 32 is set as a mask area, and the range can be masked, so that the obstacle can be detected by focusing on the warning range 31.

要警戒範囲31は歪み補正部21により歪み補正がされた画像データPに基づいて設定されている。モニタ9に表示される表示画像はカメラ6から出力される画像データPであり、歪み補正がされていない画像になる。そこで、歪み復元部27は、要警戒範囲31が設定された画像データPに対して歪み補正を復元する(ステップS8)。歪み復元部27は歪み補正部21が使用したカメラ6のレンズパラメータを使用して、画像データPの歪み補正を復元する。これにより、要警戒範囲31は、図11(b)のように変形する。歪み復元処理がされた要警戒範囲31の情報は表示画像作成部28に出力される。   The vigilance range 31 is set based on the image data P that has been subjected to distortion correction by the distortion correction unit 21. The display image displayed on the monitor 9 is image data P output from the camera 6 and is an image that has not been subjected to distortion correction. Therefore, the distortion restoration unit 27 restores distortion correction for the image data P in which the caution area 31 is set (step S8). The distortion restoration unit 27 restores distortion correction of the image data P using the lens parameters of the camera 6 used by the distortion correction unit 21. Thereby, the vigilance range 31 deform | transforms like FIG.11 (b). Information on the alert range 31 that has been subjected to the distortion restoration process is output to the display image creation unit 28.

表示画像作成部28はモニタ9に表示する画像(表示画像)を生成する(ステップS9)。表示画像作成部28は、カメラ6から周期的に画像データPを入力する。この画像データPは歪み補正がされていない画像になる。また、表示画像作成部28は歪み復元部27から歪み復元処理がされた要警戒範囲31の情報を入力している。そして、表示画像作成部28は、カメラ6から入力した画像データPに要警戒範囲31を重畳する。その状態を図12に示している。つまり、同図に示す画像データPのうち要警戒範囲31は仮想線で囲まれた領域になる。なお、要警戒範囲31は障害物を検出するための領域であり、図12のように格別に要警戒範囲31を表示させる必要はない。   The display image creation unit 28 generates an image (display image) to be displayed on the monitor 9 (step S9). The display image creation unit 28 periodically inputs image data P from the camera 6. The image data P is an image that is not subjected to distortion correction. In addition, the display image creation unit 28 inputs the information of the caution area 31 that has been subjected to the distortion restoration process from the distortion restoration unit 27. Then, the display image creation unit 28 superimposes the alert range 31 on the image data P input from the camera 6. This state is shown in FIG. That is, in the image data P shown in the figure, the area requiring caution 31 is an area surrounded by virtual lines. The alert area 31 is an area for detecting an obstacle, and it is not necessary to display the alert area 31 as shown in FIG.

そして、表示画像作成部28はカメラ6から入力した画像データPをモニタ9に出力する。運転室7に搭乗したオペレータはモニタ9に表示されている画像データPを視認することで、補助的な視野を得ることができる。   Then, the display image creation unit 28 outputs the image data P input from the camera 6 to the monitor 9. An operator boarding the cab 7 can obtain an auxiliary visual field by visually recognizing the image data P displayed on the monitor 9.

以上説明したように、本実施形態では、画像データPに基づいてダンプトラック1の前方構造物10を特定し、前方構造物10から要警戒範囲31を設定している。これにより、障害物を検出する要警戒範囲31を手動によらず自動的に設定することができ、設定する手間を大幅に省略することができる。また、ダンプトラック1が激しく振動してカメラ6の視野範囲6Aにずれを生じたとしても、要警戒範囲31にずれを生じることはない。つまり、画像データPの中の前方構造物10と要警戒範囲31との相対位置関係は、視野範囲6Aにずれを生じたとして一定であるため、前方構造物10を基準として要警戒範囲31を設定することで、要警戒範囲31にずれを生じることがなくなる。   As described above, in the present embodiment, the front structure 10 of the dump truck 1 is specified based on the image data P, and the alert range 31 is set from the front structure 10. As a result, it is possible to automatically set the caution area 31 for detecting an obstacle without being manually operated, and the labor for setting can be largely omitted. Further, even if the dump truck 1 vibrates vigorously and the visual field range 6A of the camera 6 is shifted, the warning range 31 is not shifted. That is, since the relative positional relationship between the forward structure 10 and the alert range 31 in the image data P is constant when a deviation occurs in the visual field range 6A, the alert range 31 is set based on the forward structure 10. By setting, no shift occurs in the alert range 31 required.

以上において、構造物エッジ判定部24はエッジ画素の直線性を検出して、前方構造物10のエッジ線分を判定していたが、前方構造物10と背景との境界を検出することができれば、前方構造物10のエッジ線分を検出する手法以外の手法を用いてもよい。例えば、前方構造物10と背景との間で画素値の差分が極端に大きい場合等は、画素値の差分に基づいて前方構造物10を検出することができる。この場合、歪み補正部21により歪み補正を行う必要もなく、歪み復元部27により歪み復元の補正を行う必要もない。ただし、前方構造物10には特有の直線性が存在するため、前方構造物10のエッジ線分を検出する手法を採用することで、前方構造物10と背景との境界を検出する精度が向上する。   In the above description, the structure edge determination unit 24 detects the edge line segment of the front structure 10 by detecting the linearity of the edge pixels, but if the boundary between the front structure 10 and the background can be detected. A method other than the method of detecting the edge line segment of the front structure 10 may be used. For example, when the difference in pixel value between the front structure 10 and the background is extremely large, the front structure 10 can be detected based on the difference in pixel value. In this case, it is not necessary to perform distortion correction by the distortion correction unit 21, and it is not necessary to correct distortion recovery by the distortion recovery unit 27. However, since the front structure 10 has peculiar linearity, the accuracy of detecting the boundary between the front structure 10 and the background is improved by adopting the method of detecting the edge line segment of the front structure 10. To do.

また、平滑化処理部22により画像データPに対して平滑化処理を行っており、これにより画像データPの中の凹凸部Rを低減させている。この点、カメラ6が撮影している地面がある程度整地されている場合等においては、画像データPの中の凹凸部Rは少なくなる。従って、平滑化処理を行わなくても前方構造物10のエッジEを抽出することはできる。ただし、前方構造物10のエッジEの検出精度を向上させるためには、平滑化処理を行った方が望ましい。   Further, the smoothing processing unit 22 performs a smoothing process on the image data P, thereby reducing the uneven portion R in the image data P. In this regard, when the ground imaged by the camera 6 is leveled to some extent, the uneven portion R in the image data P is reduced. Therefore, the edge E of the front structure 10 can be extracted without performing the smoothing process. However, in order to improve the detection accuracy of the edge E of the front structure 10, it is preferable to perform the smoothing process.

また、エッジ線分データ確定部25によりエッジ線分データの確度を向上させているが、1枚の画像データPに基づいてエッジ線分が明確に識別できる場合等は、エッジ線分データ確定部25により処理を省略してもよい。ただし、複数の画像データPのエッジ線分データの平均値を演算することにより、エッジ線分データを確定させることで、エッジ線分データの確度が向上する。このため、エッジ線分データ確定部25による処理を行うことが望ましい。   Further, although the accuracy of the edge line segment data is improved by the edge line segment data determination unit 25, when the edge line segment can be clearly identified based on one image data P, the edge line segment data determination unit The processing may be omitted by 25. However, the accuracy of the edge line segment data is improved by determining the edge line segment data by calculating the average value of the edge line segment data of the plurality of image data P. For this reason, it is desirable to perform processing by the edge line segment data determination unit 25.

B:本発明の第2の実施形態
次に、第2の実施形態について説明する。図13は第2の実施形態の画像処理装置8の構成を示している。図13に示すように、要警戒範囲画像生成部41と障害物検出部42とマスク画像生成部43とずれ判定部44とが第1の実施形態に対して新たに追加されたが、それ以外の構成は第1の実施形態と同じであるので説明を省略する。
B: Second Embodiment of the Invention Next, a second embodiment will be described. FIG. 13 shows the configuration of the image processing apparatus 8 of the second embodiment. As shown in FIG. 13, a vigilance range image generation unit 41, an obstacle detection unit 42, a mask image generation unit 43, and a deviation determination unit 44 are newly added to the first embodiment. Since the configuration is the same as that of the first embodiment, the description thereof is omitted.

視野範囲6Aを撮影しているカメラ6から周期的に画像データPが画像処理装置8に出力される。画像データPは歪み補正部21および表示画像作成部28だけでなく、要警戒範囲画像生成部41に対しても出力される。要警戒範囲画像生成部41は、図12等で示したように、画像データPのうち要警戒範囲31のみの画像を生成する。このために、歪み復元部27から歪みが復元された要警戒範囲31を入力し、カメラ6から画像データPを入力する。そして、画像データPのうち要警戒範囲31の領域内の画像のみを要警戒範囲画像として生成する。   Image data P is periodically output to the image processing device 8 from the camera 6 that captures the visual field range 6A. The image data P is output not only to the distortion correction unit 21 and the display image creation unit 28 but also to the alert range image generation unit 41. The vigilance range image generation unit 41 generates an image of only the vigilance range 31 in the image data P as shown in FIG. For this purpose, the caution area 31 in which the distortion is restored is input from the distortion recovery unit 27, and the image data P is input from the camera 6. And only the image in the area | region of the vigilance range 31 among the image data P is produced | generated as a vigilance range image.

要警戒範囲画像は障害物検出部42に入力される。障害物検出部42は要警戒範囲画像の中の障害物を検出する。接触を避けなければならない障害物としては主に作業員やサービスカー等が想定されるが、例えば他の作業機械等も障害物となる。障害物を検出する手法には任意の手法を用いることができる。障害物には静止状態と移動状態とがあり、静止状態の障害物を静止体、移動状態の障害物を移動体とする。   The vigilance range image is input to the obstacle detection unit 42. The obstacle detection unit 42 detects an obstacle in the alert range image. As obstacles that must be avoided, mainly workers and service cars are assumed, but other work machines and the like are also obstacles. Any method can be used as a method for detecting an obstacle. The obstacle has a stationary state and a moving state. The stationary obstacle is a stationary body, and the moving obstacle is a moving body.

静止体を検出する手法にも任意の手法を用いることができるが、例えば画像中の輪郭や輝度、色等を複合的に判断して静止体の領域を検出する手法を用いることができる。静止体は一定の領域を有しており、当該一定の領域の輪郭が所定の形状をしている場合、輝度値が所定の値を有する場合、色が特定の色を示している場合等において、前記の一定の領域を静止体として検出することができる。   Although any method can be used as a method for detecting a stationary body, for example, a method for detecting a region of a stationary body by complexly judging an outline, luminance, color, and the like in an image can be used. In the case where the stationary body has a certain area and the outline of the certain area has a predetermined shape, the luminance value has a predetermined value, the color indicates a specific color, etc. The certain area can be detected as a stationary body.

静止体を検出する具体的な手法としては、例えば背景と静止体との輪郭の情報に基づいて事前に学習した形状情報を用いてマッチングし、障害物を判定するパターンマッチング手法を用いることができる。また、特定の輝度や色情報を持つが画素のみを抽出し、抽出した画素領域の面積や周囲長、モーメントといった形状特徴を抽出し、形状を識別することにより障害物と判定する手法を用いることができる。   As a specific method for detecting a stationary object, for example, a pattern matching method can be used in which an obstacle is determined by matching using shape information learned in advance based on information on the contour between the background and the stationary object. . Also, use a method that has specific luminance and color information but extracts only pixels, extracts shape features such as area, perimeter, and moment of the extracted pixel area and identifies the shape as an obstacle. Can do.

移動体を検出する手法にも任意の手法を用いることができ、例えば時間的に異なる画像データPを比較したときに、一定の領域が異なる位置に移動しているときには移動体が移動していることを検出する。移動体の検出には例えばブロックマッチング手法を適用することができる。このブロックマッチング手法については後述する。他にも、画像データPの各画素における明るさの空間的勾配と時間的勾配との間の関係性を用いて検出する勾配法や移動体の領域がないときの画像データと最新の画像データとの差分を検出する背景差分法、時間の異なる3枚の画像データを用いて2枚の差分画像を生成して移動体領域を検出するフレーム差分法等を用いることができる。   Any method can be used as a method for detecting the moving body. For example, when comparing image data P that are temporally different, the moving body moves when a certain region moves to a different position. Detect that. For example, a block matching method can be applied to the detection of the moving object. This block matching method will be described later. In addition, the gradient method to detect using the relationship between the spatial gradient of brightness and the temporal gradient in each pixel of the image data P, the image data when there is no moving object region, and the latest image data A background difference method for detecting a difference between the two, a frame difference method for detecting a moving body region by generating two difference images using three pieces of image data having different times, and the like can be used.

マスク画像生成部43はマスク画像を生成する。第1の実施形態で説明したように、要警戒範囲設定部26は画像データPの中で要警戒範囲31を設定し、それ以外の領域を警戒不要範囲32として設定している。このうち、マスク画像生成部43は警戒不要範囲32をマスク領域としたマスク画像を生成する。マスク画像は画像データPと同じサイズの画像であり、画素数も等しい。そして、マスク画像のうちマスク領域(警戒不要範囲32)とそれ以外の領域(要警戒範囲31)とが明確に区別されている。例えば、マスク画像のうちマスク領域は全て黒(画素値ゼロ)で構成し、要警戒範囲31の領域は全て白(画素値256)で構成することができる。   The mask image generation unit 43 generates a mask image. As described in the first embodiment, the caution area setting unit 26 sets the caution area 31 in the image data P, and sets other areas as the caution-free area 32. Among these, the mask image generation unit 43 generates a mask image using the warning unnecessary range 32 as a mask area. The mask image is an image having the same size as the image data P, and has the same number of pixels. In the mask image, the mask area (warning-unnecessary range 32) and the other area (warning-required range 31) are clearly distinguished. For example, in the mask image, the mask area can be entirely composed of black (pixel value zero), and the area of the alert range 31 can be composed entirely of white (pixel value 256).

ずれ判定部44はマスク画像生成部43からマスク画像を入力して、ずれを判定する。ずれ判定部44には過去のマスク画像が保持されており、新しく入力したマスク画像と過去のマスク画像との比較を行う。そして、全ての画素について新しいマスク画像と過去のマスク画像との差分演算を行い、所定値以上の画素値の差分を持つ画素が所定数以上存在している場合、カメラ6にずれを生じていると判定し、それ以外の場合にはずれを生じていないと判定する。判定結果は表示画像作成部28に出力される。   The deviation determination unit 44 receives the mask image from the mask image generation unit 43 and determines the deviation. The deviation determination unit 44 holds a past mask image, and compares the newly input mask image with the past mask image. Then, the difference calculation between the new mask image and the past mask image is performed for all the pixels, and when there are a predetermined number or more of pixels having a pixel value difference equal to or larger than a predetermined value, the camera 6 is shifted. In other cases, it is determined that no deviation has occurred. The determination result is output to the display image creation unit 28.

次に、図14のフローチャートを用いて、第2の実施形態の動作について説明する。図14に示すステップS1乃至ステップS8は第1の実施形態と同じであるため、説明を省略する。ステップS8において、歪みが復元された要警戒範囲31が生成される。この要警戒範囲31の情報が要警戒範囲画像生成部41に入力される。要警戒範囲画像生成部41はカメラ6から画像データPを入力しており、画像データPのうち要警戒範囲31以外の領域、すなわち警戒不要範囲32を不感領域33として、不感領域33では画像データPの情報は削除されている。不感領域33は前述したマスク領域と同じ機能を持つ。ここでは、不感領域33は全て黒い画素(画素値ゼロ)で構成する(なお、図面の都合上、図15では、黒い画素を網掛けで示している)。   Next, the operation of the second embodiment will be described using the flowchart of FIG. Steps S1 to S8 shown in FIG. 14 are the same as those in the first embodiment, and thus description thereof is omitted. In step S8, a caution area 31 in which the distortion is restored is generated. Information on the alert range 31 is input to the alert range image generation unit 41. The vigilance range image generation unit 41 inputs image data P from the camera 6, and an area other than the vigilance range 31 in the image data P, that is, a vigilance-unnecessary range 32 is set as a non-sensitive area 33. The information of P has been deleted. The dead area 33 has the same function as the mask area described above. Here, the insensitive area 33 is composed of all black pixels (pixel value zero) (for convenience of drawing, the black pixels are shown by shading in FIG. 15).

これにより、図15に示すような要警戒範囲画像P1が生成される(ステップS10)。この要警戒範囲画像P1には障害物として作業員Mが含まれている。要警戒範囲画像P1は画像データPとX方向およびY方向に同じ画素数を有しており、要警戒範囲31の部分には画像データPが表示されるが、不感領域33の部分には黒い画素が表示されているだけになる。不感領域33の黒い画素は、換言すればマスクであり、画像データPのうちマスクされていない領域が要警戒範囲31となる。同図に示されるように、要警戒範囲31に多数の凹凸部Rが存在し、また障害物として作業員Mが存在している。このような要警戒範囲画像P1は障害物検出部42に出力される。   As a result, a warning area image P1 as shown in FIG. 15 is generated (step S10). The warning area image P1 includes a worker M as an obstacle. The alert range image P1 has the same number of pixels as the image data P in the X and Y directions, and the image data P is displayed in the portion of the alert range 31 but black in the insensitive region 33 portion. Only the pixels are displayed. In other words, the black pixels in the insensitive area 33 are masks, and an unmasked area in the image data P is the caution area 31. As shown in the figure, there are a large number of irregularities R in the area requiring caution 31 and a worker M as an obstacle. Such a vigilance range image P <b> 1 is output to the obstacle detection unit 42.

障害物検出部42は要警戒範囲画像P1から障害物を検出する(ステップS11)。障害物を検出するために任意の手法を用いることができるが、ここではブロックマッチング手法を用いた場合を説明する。図16はブロックマッチング手法を用いた移動体の検出手法の一例を示している。障害物検出部42は、過去の要警戒範囲画像P1を記憶しており、最新の要警戒範囲画像P1と過去の要警戒範囲画像P1との比較を行う。ここでは、カメラ6の撮影周期の1周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1としている。   The obstacle detection unit 42 detects an obstacle from the warning range image P1 (step S11). Although any method can be used to detect an obstacle, a case where a block matching method is used will be described here. FIG. 16 shows an example of a moving object detection method using a block matching method. The obstacle detection unit 42 stores the past alert range image P1 and compares the latest alert range image P1 with the past alert range image P1. Here, the alert range image P1 that is one cycle before the shooting period of the camera 6 is set as the past alert range image P1.

図16の例では、X方向に4画素、Y方向に4画素の合計16画素を注目領域A1とする。勿論、注目領域A1は16画素以外の画素数を採用してもよい。そして、注目領域A1を中心として、X方向に8画素、Y方向に8画素の合計64画素を検索範囲A2とする。勿論、検索範囲A2の画素数も任意に設定することができる。   In the example of FIG. 16, a total of 16 pixels of 4 pixels in the X direction and 4 pixels in the Y direction are set as the attention area A1. Of course, the attention area A1 may employ a number of pixels other than 16 pixels. A total of 64 pixels, with 8 pixels in the X direction and 8 pixels in the Y direction, centered on the attention area A1, is set as the search range A2. Of course, the number of pixels in the search range A2 can be arbitrarily set.

障害物検出部42は、検索範囲A2を画像データPの所定位置、例えばX方向およびY方向の端部に設定する。そして、検索範囲A2の中を検索する。検索範囲A2の中の検索手法について図17を用いて説明する。検索範囲A2の中に比較領域A3を設定する。比較領域A3は注目領域A1と同じくX方向に4画素、Y方向に4画素の合計16画素を有している。そして、比較領域A3をX方向およびY方向の端部に設定する。   The obstacle detection unit 42 sets the search range A2 to a predetermined position of the image data P, for example, end portions in the X direction and the Y direction. Then, the search range A2 is searched. A search method in the search range A2 will be described with reference to FIG. A comparison area A3 is set in the search range A2. The comparison area A3 has a total of 16 pixels, 4 pixels in the X direction and 4 pixels in the Y direction, like the attention area A1. Then, the comparison area A3 is set at the ends in the X direction and the Y direction.

障害物検出部42は、過去の要警戒範囲画像P1における注目領域A1と最新の要警戒範囲画像P1における比較領域A3との対応する画素間の画素値の差分の演算を行う。注目領域A1と比較領域A3とは共に、X方向に4画素、Y方向に4画素により構成されており、注目領域A1の1つの画素と比較領域A3の1つの画素とは1:1で対応している。そこで、前述したように、対応する画素間の画素値の差分演算を行う。この演算を行うことにより、16画素分の差分値を得ることができる。そして、16画素分の差分値をそれぞれ二乗して、二乗した16個の差分値を加算する演算を行う。この演算を行うことにより得られる値を加算値とする。   The obstacle detection unit 42 calculates a pixel value difference between corresponding pixels in the attention area A1 in the past warning area image P1 and the comparison area A3 in the latest warning area image P1. The attention area A1 and the comparison area A3 are both composed of four pixels in the X direction and four pixels in the Y direction, and one pixel in the attention area A1 and one pixel in the comparison area A3 have a 1: 1 correspondence. doing. Therefore, as described above, the pixel value difference calculation between corresponding pixels is performed. By performing this calculation, a difference value for 16 pixels can be obtained. Then, the calculation is performed by squaring the difference values for 16 pixels and adding the 16 squared difference values. A value obtained by performing this calculation is used as an addition value.

障害物検出部42は、前記の加算値が所定の閾値以下であるか否かを判定する。このときの閾値は注目領域A1と比較領域A3とが同一であるとみなせるか否かを判定できる値とする。障害物検出部42は、前記の加算値が所定の閾値以下であるときには、過去の注目領域A1と最新の比較領域A3とが一致しているものと判定する。一方、それ以外の場合は、過去の注目領域A1と最新の比較領域A3とは一致していないと判定する。   The obstacle detection unit 42 determines whether or not the added value is equal to or less than a predetermined threshold value. The threshold value at this time is a value with which it can be determined whether or not the attention area A1 and the comparison area A3 can be regarded as the same. The obstacle detection unit 42 determines that the past attention area A1 and the latest comparison area A3 coincide with each other when the added value is equal to or less than a predetermined threshold value. On the other hand, in other cases, it is determined that the past attention area A1 and the latest comparison area A3 do not match.

過去の注目領域A1と最新の比較領域A3とが一致しており、且つ両者が検索範囲A2の中で完全に一致していなければ、注目領域A1が検索範囲A2の中で移動していることを認識することができる。図17に示すように、比較領域A3をX方向に1画素ずつずらして比較を行う。これをX方向の検索(スキャン)とする。X方向のスキャンが完了したときには、次に、比較領域A3をY方向に1画素ずらして、再びX方向のスキャンを行う。Y方向に1画素ずらしてX方向のスキャンを行うことをY方向のスキャンとする。従って、X方向およびY方向にスキャンが行なわれることになる。このスキャンの手法を3次元的に示したのが図18である。   If the past attention area A1 and the latest comparison area A3 match and if they do not completely match within the search area A2, the attention area A1 moves within the search area A2. Can be recognized. As shown in FIG. 17, the comparison is performed by shifting the comparison area A3 by one pixel in the X direction. This is a search (scan) in the X direction. When scanning in the X direction is completed, the comparison area A3 is then shifted by one pixel in the Y direction, and scanning in the X direction is performed again. Scanning in the X direction by shifting one pixel in the Y direction is referred to as scanning in the Y direction. Therefore, scanning is performed in the X direction and the Y direction. FIG. 18 shows this scanning method three-dimensionally.

X方向およびY方向のスキャンは、過去の注目領域A1と最新の比較領域A3とが一致することが検出されるまで行われる。従って、過去の注目領域A1と最新の比較領域A3とが一致していることが検出されれば、その時点でスキャンを終了する。一方、X方向およびY方向の全てのスキャンが完了した時点で、一致している過去の注目領域A1と最新の比較領域A3とが検出されなければ、検索範囲A2の中には移動体(障害物:作業員M)が存在していないことが認識される。   The scanning in the X direction and the Y direction is performed until it is detected that the past attention area A1 matches the latest comparison area A3. Therefore, if it is detected that the past attention area A1 matches the latest comparison area A3, the scanning is terminated at that time. On the other hand, if the matching past attention area A1 and the latest comparison area A3 are not detected at the time when all the scans in the X direction and the Y direction are completed, a moving object (failure) is included in the search range A2. Object: It is recognized that no worker M) exists.

検索範囲A2は、過去の要警戒範囲画像P1が取得された時点から最新の要警戒範囲画像P1が取得されるまでの間に、作業員Mが通常に歩行したときに移動可能な限界範囲を基準として決定する。前述したように、過去の要警戒範囲画像P1は最新の要警戒範囲画像P1の1周期前の画像である。従って、カメラ6の撮影周期の1周期の間に作業員Mが通常に歩行したときの限界量を基準として検索範囲A2を設定する。   The search range A2 is a limit range that can be moved when the worker M normally walks from the time when the previous alert range image P1 is acquired until the latest alert range image P1 is obtained. Determine as a reference. As described above, the past alert range image P1 is an image one cycle before the latest alert range image P1. Therefore, the search range A2 is set based on the limit amount when the worker M normally walks during one shooting period of the camera 6.

ところで、カメラ6には、撮影周期が高速な場合と低速な場合とがある。このとき、カメラ6の撮影周期が高速である場合には、作業員Mが移動していたとしても、殆ど移動していないように認識される。一方、撮影周期が低速である場合には、作業員Mが低速に移動していたとしても、高速に移動しているように認識される。そこで、カメラ6の撮影周期が高速な場合には、比較的過去の複数周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。一方、カメラ6の撮影周期が低速な場合には、比較的直近(例えば、1周期前)の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。   By the way, the camera 6 has a case where the photographing cycle is fast and a case where it is slow. At this time, when the shooting period of the camera 6 is high, even if the worker M has moved, it is recognized that it has hardly moved. On the other hand, when the imaging cycle is low, it is recognized that the worker M is moving at high speed even if the worker M is moving at low speed. Therefore, when the shooting period of the camera 6 is high, the warning area image P1 that is relatively before a plurality of previous periods is set as the past warning area image P1. On the other hand, when the imaging cycle of the camera 6 is low, the most recently required alert range image P1 (for example, one cycle before) is set as the past alert range image P1.

障害物検出部42は、要警戒範囲画像P1の全画素について検索範囲A2による検索が行われるようにする。従って、検索範囲A2がX方向およびY方向の端部にあるときに、その検索が完了すると、次に検索範囲A2のX方向の画素分(8画素)だけX方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1のX方向の全ての画素について検索が終了したときに、検索範囲A2をY方向の画素分(8画素)だけY方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1の全画素について検索範囲A2の中の検索が行われるようにする。   The obstacle detection unit 42 performs a search based on the search range A2 on all the pixels in the alert range image P1. Therefore, when the search range A2 is at the end in the X direction and the Y direction, when the search is completed, the search range A2 is then shifted in the X direction by the amount of pixels in the X direction (8 pixels), and the same is performed again. Search for. When the search is completed for all the pixels in the X direction of the alert range image P1, the search range A2 is shifted in the Y direction by the pixels in the Y direction (8 pixels), and the same search is performed again. Then, the search within the search range A2 is performed for all the pixels in the alert range image P1.

ここで、図16にも示しているように、要警戒範囲画像P1は障害物を検出する要警戒範囲31と不感領域33とに区別されている。障害物検出部42は要警戒範囲画像P1の中の不感領域33を認識している。つまり、不感領域33に含まれる画素を認識している。よって、障害物検出部42は検索範囲A2による検索を行うときに、不感領域33を除外して行う。これにより、要警戒範囲31に限定して障害物としての作業員Mを検出することができる。そして、障害物検出部42は、検出された障害物としての作業員Mの情報を表示画像作成部28に出力する。   Here, as shown in FIG. 16, the warning area image P <b> 1 is divided into a warning area 31 for detecting an obstacle and a dead area 33. The obstacle detection unit 42 recognizes the dead area 33 in the caution area image P1. That is, the pixels included in the dead area 33 are recognized. Therefore, the obstacle detection unit 42 excludes the dead area 33 when performing the search by the search range A2. Thereby, it is possible to detect the worker M as an obstacle limited to the vigilance range 31. Then, the obstacle detection unit 42 outputs information on the worker M as the detected obstacle to the display image creation unit 28.

表示画像作成部28はカメラ6から画像データPを入力しており、且つ障害物検出部42より障害物としての作業員Mの情報を入力している。従って、表示画像作成部28は画像データPの要警戒範囲31の中での作業員Mを認識している。表示画像作成部28は障害物を明示的に表示するために、作業員Mの周囲に障害物マーキング表示M1を重畳している。ここでは、障害物マーキング表示M1は作業員Mの周囲に形成される外接矩形となっているが、勿論矩形でなくてもよい。   The display image creation unit 28 receives the image data P from the camera 6, and inputs information about the worker M as an obstacle from the obstacle detection unit 42. Therefore, the display image creation unit 28 recognizes the worker M within the alert area 31 of the image data P. The display image creation unit 28 superimposes an obstacle marking display M1 around the worker M in order to explicitly display the obstacle. Here, the obstacle marking display M1 is a circumscribed rectangle formed around the worker M, but it need not be a rectangle.

障害物マーキング表示M1が重畳された画像データPを図19に示す。この画像データPが表示画像となり、モニタ9に出力される。そして、同図に示されるように、障害物としての作業員Mの周囲に障害物マーキング表示M1が重畳されていることで、オペレータは障害物マーキング表示M1に基づいて作業員Mの存在を一見して認識することができる。なお、図19で要警戒範囲31を仮想線で示しているが、この範囲内でのみ障害物の検出が行われたことを示している。モニタ9には基本的に要警戒範囲31は表示されないが、表示されるようにしてもよい。   FIG. 19 shows the image data P on which the obstacle marking display M1 is superimposed. This image data P becomes a display image and is output to the monitor 9. Then, as shown in the figure, the obstacle marking display M1 is superimposed around the worker M as an obstacle, so that the operator can see the presence of the worker M based on the obstacle marking display M1. Can be recognized. Note that, in FIG. 19, the vigilance range 31 is indicated by a virtual line, but this indicates that an obstacle has been detected only within this range. The monitor 9 basically does not display the alert range 31 but may be displayed.

ところで、カメラ6で取得したカメラ画像を画像処理により視点変換して、俯瞰画像化することにより周囲監視を行うようになし、この周囲監視画像をモニタ9に表示する構成は、従来から知られている。即ち、図29に示したように、所定の高さ位置にカメラ6を配置して、角度αをもって斜め下方に対物レンズの光軸CAを向けた状態で撮影すると、スルー画像Pが得られる。この角度θを持ったスルー画像Pから、同図に仮想線で示したように、仮想視点VFからスルー画像Pに対して光軸VAが垂直になるように座標変換した画像が作成される。これによって、角度αをもった斜め上方からのカメラ画像を平面視した俯瞰画像とすることができる。(なお、画像データPはスルー画像であり、このスルー画像のデータを上方視点となるように視点変換した画像は俯瞰画像である。従って、ここでは、俯瞰画像と区別するために、カメラ6から取得した画像データをスルー画像Pという。)   By the way, the viewpoint of the surroundings is monitored by converting the viewpoint of the camera image acquired by the camera 6 by image processing to form a bird's-eye view image, and a configuration for displaying the surroundings monitoring image on the monitor 9 has been conventionally known. Yes. That is, as shown in FIG. 29, when the camera 6 is arranged at a predetermined height position and the image is taken with the optical axis CA of the objective lens obliquely downward at an angle α, a through image P is obtained. From the through image P having this angle θ, as shown by the phantom line in the figure, an image obtained by coordinate conversion from the virtual viewpoint VF so that the optical axis VA is perpendicular to the through image P is created. As a result, it is possible to obtain a bird's-eye view image obtained by viewing the camera image from above at an angle α. (Note that the image data P is a through image, and an image obtained by converting the viewpoint of the through image data so as to be the upper viewpoint is a bird's-eye view image. (The acquired image data is referred to as a through image P.)

前述した各実施形態においてはカメラ6で取得したカメラ画像(スルー画像)を表示するようにしているが、このカメラ画像から信号処理を行って俯瞰画像化してモニタ9に表示することもできる。即ち、図30(a)に示したように、スルー画像Pを上方視点となる視点変換処理が行われる。   In each of the embodiments described above, a camera image (through image) acquired by the camera 6 is displayed. However, it is also possible to perform signal processing from this camera image to form an overhead image and display it on the monitor 9. That is, as shown in FIG. 30A, a viewpoint conversion process is performed in which the through image P is the upper viewpoint.

そして、図30(b)に示したように、ダンプトラック1に、その前部位置と、左右の両側位置と、後部位置との4箇所にそれぞれカメラを設置して、このダンプトラック1の周囲のカメラ画像を取得し、これらのカメラ画像を俯瞰画像化処理して、モニタ9に表示するに当って、ダンプトラック1の前部側カメラ,左右の両側部側カメラ及び後部側カメラについて、それぞれ各画像領域SPF,SPL,SPR,SPBにおける各俯瞰画像を取得して、モニタ9に表示することができる。なお、図30(a)には前部側カメラによる画像領域SPFが示されている。この表示の際には、ダンプトラック1を平面形状としたアイコン画像Qをモニタ9の画面の中央に配置し、このアイコン画像Qの周囲4方向に各画像領域SPF,SPL,SPR,SPBにそれぞれ対応する俯瞰画像を表示する。   Then, as shown in FIG. 30 (b), the dump truck 1 is provided with cameras at four locations, the front position, the left and right side positions, and the rear position. The camera images are obtained, and these camera images are subjected to overhead view image processing and displayed on the monitor 9. For the front side camera, the left and right side side cameras and the rear side camera of the dump truck 1, Each overhead image in each image area SPF, SPL, SPR, SPB can be acquired and displayed on the monitor 9. FIG. 30A shows an image area SPF by the front camera. In this display, the icon image Q having the dump truck 1 in a planar shape is arranged in the center of the screen of the monitor 9, and the image areas SPF, SPL, SPR, SPB are arranged in four directions around the icon image Q, respectively. Display the corresponding overhead image.

このように、アイコン画像Qを中心として、その周囲に合成して周囲の状況の俯瞰画像を表示することによって、ダンプトラック1の周囲全体を俯瞰するようにして表示される監視画像が得られる。しかも、この監視画像は作業員Mを示す障害物マーキング表示M1を図30(a)のスルー画像Pと同様に表示することができ、さらに俯瞰画像のため、ダンプトラック1との相対的な位置も把握できる表示態様とすることができる。   In this way, by superimposing the icon image Q around the icon image Q and displaying the bird's eye view of the surrounding situation, a monitoring image displayed so as to look down on the entire periphery of the dump truck 1 can be obtained. In addition, this monitoring image can display the obstacle marking display M1 indicating the worker M in the same manner as the through image P in FIG. 30A, and further, because of the overhead view image, the relative position with respect to the dump truck 1 The display mode can also be grasped.

次に、ダンプトラック1に設置しているカメラ6の視野範囲6Aにずれを生じた場合について説明する。前述したように、ダンプトラック1の振動によりカメラ6の視野範囲6Aにずれを生じる場合がある。そこで、視野範囲6Aにずれを生じているか否かを判定する。ただし、視野範囲6Aのずれには許容範囲があり、ずれ量が許容範囲を超過したときにずれが生じていると判定し、許容範囲内であればずれが生じていないと判定する。   Next, a case where a shift occurs in the visual field range 6A of the camera 6 installed in the dump truck 1 will be described. As described above, the visual field range 6 </ b> A of the camera 6 may be displaced due to the vibration of the dump truck 1. Therefore, it is determined whether or not there is a deviation in the visual field range 6A. However, there is an allowable range for the deviation of the visual field range 6A. When the deviation amount exceeds the allowable range, it is determined that there is a deviation, and when it is within the allowable range, it is determined that there is no deviation.

図13に示したように、要警戒範囲設定部26から要警戒範囲31の情報がマスク画像生成部43に入力される。マスク画像生成部43は画像データPと要警戒範囲31とに基づいてマスク画像を生成する(ステップS12)。マスク画像は、図20に示すように、画像データPのうち要警戒範囲31を白い画素(画素値256)で構成し、警戒不要範囲32を黒い画素(画素値ゼロ)で構成する。   As shown in FIG. 13, information on the alert range 31 is input from the alert range setting unit 26 to the mask image generation unit 43. The mask image generation unit 43 generates a mask image based on the image data P and the vigilance range 31 (step S12). As shown in FIG. 20, in the mask image, a warning area 31 of the image data P is configured with white pixels (pixel value 256), and a warning-free area 32 is configured with black pixels (pixel value zero).

マスク画像生成部43は過去(例えば、1周期前)の画像データPおよび要警戒範囲31の情報を保持しており、過去のマスク画像を保持している。そして、最新の画像データPおよび要警戒範囲31の情報が入力されたときに、最新のマスク画像を生成する。マスク画像生成部43は過去のマスク画像および最新のマスク画像をずれ判定部44に出力する。   The mask image generation unit 43 holds image data P in the past (for example, one cycle before) and information on the caution area 31, and holds a past mask image. Then, when the latest image data P and information on the alert range 31 are input, the latest mask image is generated. The mask image generation unit 43 outputs the past mask image and the latest mask image to the shift determination unit 44.

ずれ判定部44は、入力した過去のマスク画像と最新のマスク画像とに基づいてずれ量を算出し、算出されたずれ量に基づいて視野範囲6Aのずれが許容範囲内であるか否かを判定する(ステップS13)。このために、ずれ判定部44は過去のマスク画像と最新のマスク画像との画素の差分を演算する。   The deviation determination unit 44 calculates a deviation amount based on the input past mask image and the latest mask image, and determines whether or not the deviation of the visual field range 6A is within an allowable range based on the calculated deviation amount. Determination is made (step S13). For this purpose, the deviation determination unit 44 calculates the pixel difference between the past mask image and the latest mask image.

過去のマスク画像と最新のマスク画像とで要警戒範囲31が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。また、過去のマスク画像と最新のマスク画像とで警戒不要範囲32が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。一方、要警戒範囲31と警戒不要範囲32とが重複している画素の差分を演算すると、演算結果の絶対値は256になる。つまり、画素は白くなる。図20の差分画像P2は、この差分の演算を行った結果の画像になる。   When the difference between the pixels where the vigilance range 31 overlaps between the past mask image and the latest mask image is calculated, the pixel value becomes zero. That is, the pixel becomes black. Further, when a difference between pixels in which the warning-unnecessary range 32 overlaps between the past mask image and the latest mask image is calculated, the pixel value becomes zero. That is, the pixel becomes black. On the other hand, when the difference between the pixels where the alert required range 31 and the alert unnecessary range 32 overlap is calculated, the absolute value of the calculation result is 256. That is, the pixel becomes white. The difference image P2 in FIG. 20 is an image obtained as a result of the calculation of the difference.

視野範囲6Aにずれを生じている場合、差分画像P2に白い画素が生じる。この白い画素の画素数がずれ量を示す。つまり、視野範囲6Aに全くずれを生じていなければ、過去のマスク画像と最新のマスク画像とは完全に一致するため、要警戒範囲31と警戒不要範囲32とが重複する画素は存在しなくなる。このため、白い画素は存在しなくなる。一方、視野範囲6Aにずれを生じれば、要警戒範囲31と警戒不要範囲32とが重複している部分が存在するため、当該部分の画素は白い画素となる。   When there is a shift in the visual field range 6A, white pixels are generated in the difference image P2. The number of white pixels indicates the amount of deviation. In other words, if there is no deviation in the visual field range 6A, the past mask image and the latest mask image completely coincide with each other, so that there is no pixel in which the alert range 31 and the alert unnecessary range 32 overlap. For this reason, there is no white pixel. On the other hand, if there is a shift in the visual field range 6A, there is a portion where the alert range 31 and the alert-unnecessary range 32 overlap, so that the pixel of the portion becomes a white pixel.

ずれ判定部44には所定の画素数が閾値として設定されており、差分画像P2の白い画素の画素数と閾値とを比較する。この閾値は視野範囲6Aのずれの許容範囲を示している。この許容範囲は任意に設定することができ、例えばオペレータの視認性に影響を与える程度のずれを許容範囲として設定することができる。そして、ずれ判定部44は、白い画素の画素数と閾値とを比較した結果、白い画素の画素数が閾値未満であれば、視野範囲6Aにずれを生じていないと判定する。一方、白い画素の画素数が閾値以上であれば、視野範囲6Aにずれを生じていると判定する。   A predetermined number of pixels is set as a threshold in the shift determination unit 44, and the number of white pixels in the difference image P2 is compared with the threshold. This threshold indicates an allowable range of deviation of the visual field range 6A. This allowable range can be set arbitrarily, and for example, a deviation that affects the visibility of the operator can be set as the allowable range. Then, as a result of comparing the number of white pixels and the threshold value, the shift determination unit 44 determines that there is no shift in the visual field range 6A if the number of white pixels is less than the threshold value. On the other hand, if the number of white pixels is greater than or equal to the threshold value, it is determined that there is a shift in the visual field range 6A.

ずれ判定部44は、ずれを生じているか否かの情報を表示画像作成部28に出力する。表示画像作成部28は、ずれ判定部44からずれを生じている旨の情報を入力したときに、ずれ情報Gを画像データPに表示する。図21はずれ情報Gが重畳された画像データPの一例を示している。ずれ情報Gは画像データPの角隅部に表示されており、カメラ6にずれが生じていることを視覚的に認識させるマークになっている。   The deviation determination unit 44 outputs information on whether or not a deviation has occurred to the display image creation unit 28. The display image creation unit 28 displays the shift information G in the image data P when information indicating that a shift has occurred is input from the shift determination unit 44. FIG. 21 shows an example of the image data P on which the shift information G is superimposed. The deviation information G is displayed at the corners of the image data P, and is a mark for visually recognizing that the camera 6 is displaced.

ずれ情報Gは、カメラ6に許容範囲以上のずれが発生していることをオペレータに認識させる報知手段であり、オペレータはモニタ9に表示されているずれ情報Gに基づいて、許容範囲以上のずれを認識することができる。これを認識したオペレータは、カメラ6を正常な位置に戻すことができ、視野範囲6Aのずれを解消することができる。または、オペレータがメンテナンス要員等に連絡をすることにより、メンテナンス要員等がカメラ6を正常な位置に戻すことができる。   The deviation information G is a notification means that allows the operator to recognize that the camera 6 has a deviation that is greater than or equal to the allowable range. Based on the deviation information G that is displayed on the monitor 9, the operator Can be recognized. The operator who has recognized this can return the camera 6 to the normal position, and can eliminate the shift of the visual field range 6A. Alternatively, the operator can return the camera 6 to the normal position by contacting the maintenance staff.

前述したように、視野範囲6Aにずれを生じたとしても、画像データPの中で前方構造物10と要警戒範囲31との相対位置関係は一定であるため、要警戒範囲31は常に正しく設定される。図22(a)は、エッジ抽出部23が画像データPに対してエッジ抽出処理を行い、エッジ画素が抽出された画像データPを示している。そして、構造物エッジ判定部24はハフ変換等の手法を用いて、画像データPから直線の抽出を行う。図22(b)は画像データPから直線が抽出された状態を示している。   As described above, even if a deviation occurs in the visual field range 6A, the relative positional relationship between the front structure 10 and the warning area 31 is constant in the image data P, so the warning area 31 is always set correctly. Is done. FIG. 22A shows the image data P from which the edge extraction unit 23 performs the edge extraction process on the image data P and the edge pixels are extracted. And the structure edge determination part 24 extracts a straight line from the image data P using methods, such as a Hough transform. FIG. 22B shows a state in which a straight line is extracted from the image data P.

前述した第1の実施形態では、視野範囲6Aにずれを生じていなかったため、構造物エッジ判定部24はX方向およびY方向の直線を検出していた。しかし、本実施形態では、視野範囲6Aに傾きのずれを生じているため、画像データPの中の前方構造物10にも傾きを生じている。そこで、本実施形態の構造物エッジ判定部24はX方向およびY方向から所定角度傾斜している直線も抽出する。つまり、所定角度を傾斜角θとし、抽出された直線のうち傾斜角θの範囲内の直線を抽出する。   In the first embodiment described above, since there is no shift in the visual field range 6A, the structure edge determination unit 24 detects straight lines in the X direction and the Y direction. However, in the present embodiment, since there is a tilt shift in the visual field range 6A, the front structure 10 in the image data P is also tilted. Therefore, the structure edge determination unit 24 of the present embodiment also extracts straight lines that are inclined at a predetermined angle from the X direction and the Y direction. That is, a predetermined angle is set as the inclination angle θ, and a straight line within the range of the inclination angle θ is extracted from the extracted straight lines.

そして、X方向から傾斜角θの範囲内で傾斜した直線のうち、最も長い直線を前方構造物10のX方向の直線が傾斜したものとして判定する。ここでは、直線L5が最も長い直線となる。次に、直線L5を画像データPの両端まで延長した直線よりも下端(画像データPのうち最もダンプトラック1に近接している端部)側で検出された直線のうちY方向からの傾斜角θの範囲内の直線を抽出する。ここでは、直線L7およびL8が抽出される。そして、直線L7およびL8を延長する。これにより、図22(b)に示したように、直線L5と直線L7、L8との4つの交点C5乃至C8が検出される。これら交点C5乃至C8がエッジ線分データとなる。   Then, the longest straight line among the straight lines inclined within the range of the inclination angle θ from the X direction is determined as the inclined straight line in the X direction of the front structure 10. Here, the straight line L5 is the longest straight line. Next, the inclination angle from the Y direction among the straight lines detected on the lower end (the end closest to the dump truck 1 in the image data P) from the straight line obtained by extending the straight line L5 to both ends of the image data P. A straight line within the range of θ is extracted. Here, straight lines L7 and L8 are extracted. Then, the straight lines L7 and L8 are extended. Thereby, as shown in FIG. 22B, four intersections C5 to C8 of the straight line L5 and the straight lines L7 and L8 are detected. These intersections C5 to C8 become edge line segment data.

図23(a)は、エッジ線分データに基づいて、要警戒範囲31が設定されている状態を示している。視野範囲6Aに傾き方向のずれを生じていることから、要警戒範囲31も傾きを生じている。同時に、警戒不要範囲32も傾きを生じている。ただし、要警戒範囲31は全て画像データPの中に含まれている。そして、図23(a)の画像データPに対して歪み復元処理を行った画像が図23(b)に示す画像データPになる。図23(b)に示す画像データPが要警戒範囲画像生成部41に出力され、図24に示すような要警戒範囲画像が生成される。この要警戒範囲画像が障害物検出部42に出力され、障害物検出部42により作業員Mが障害物として検出される。   FIG. 23A shows a state in which the alert range 31 is set based on the edge line segment data. Since the inclination range is shifted in the visual field range 6A, the alert range 31 is also inclined. At the same time, the warning-free range 32 is inclined. However, the alert range 31 is all included in the image data P. Then, an image obtained by performing the distortion restoration process on the image data P in FIG. 23A becomes the image data P shown in FIG. The image data P shown in FIG. 23 (b) is output to the vigilance range image generation unit 41, and the vigilance range image as shown in FIG. 24 is generated. The warning range image is output to the obstacle detection unit 42, and the obstacle detection unit 42 detects the worker M as an obstacle.

従って、ダンプトラック1の振動により、視野範囲6Aにずれを生じたとしても、要警戒範囲31を再び設定する必要はなく、前方構造物10に基づいて正しい要警戒範囲31が設定される。これにより、視野範囲6Aにずれを生じたとしても、要警戒範囲31に限定して障害物の検出を行うことができる。ただし、視野範囲6Aに傾きのずれを生じることで、オペレータの視認性は低下する。このような場合には、カメラ6の位置の修正を行い、傾きのずれを解消するようにしてもよい。   Therefore, even if the visual field range 6 </ b> A shifts due to the vibration of the dump truck 1, it is not necessary to set the warning range 31 again, and the correct warning range 31 is set based on the front structure 10. Thereby, even if a deviation occurs in the visual field range 6 </ b> A, the obstacle can be detected only in the alert range 31. However, the visibility of the operator is deteriorated by causing a deviation in inclination in the visual field range 6A. In such a case, the position of the camera 6 may be corrected to eliminate the tilt deviation.

C:本発明の第3の実施形態
次に、第3の実施形態について説明する。本実施形態では、ダンプトラック1の走行速度に応じて、要警戒範囲31を変化させている。ダンプトラック1が停止状態の場合と低速に走行している場合と高速に走行している場合とでは、障害物を警戒すべき範囲も変化する。ダンプトラック1が停止状態のときには、それほど広範な範囲を要警戒範囲31とする必要がないが、ある程度の速度で走行しているときには、広範な範囲を要警戒範囲31とする必要がある。
C: Third Embodiment of the Invention Next, a third embodiment will be described. In the present embodiment, the vigilance range 31 is changed according to the traveling speed of the dump truck 1. The range in which the obstacle should be watched also changes depending on whether the dump truck 1 is stopped, traveling at a low speed, or traveling at a high speed. When the dump truck 1 is in a stopped state, it is not necessary to set the warning range 31 as wide as the warning range, but it is necessary to set the warning range 31 as a wide range when traveling at a certain speed.

そこで、図25に示すように、本実施形態では、第2の実施形態に走行速度検出部45を追加している。ダンプトラック1には走行速度を検出する手段が備えられており、検出した走行速度を要警戒範囲設定部26に出力している。要警戒範囲設定部26は入力した走行速度の情報に基づいて、要警戒範囲31の大きさを変化させている。   Therefore, as shown in FIG. 25, in this embodiment, a traveling speed detection unit 45 is added to the second embodiment. The dump truck 1 is provided with means for detecting the traveling speed, and outputs the detected traveling speed to the alert range setting unit 26. The vigilance range setting unit 26 changes the size of the vigilance range 31 based on the input information on the traveling speed.

ここで、ダンプトラック1が停止している場合、低速または高速に走行している場合の何れの場合であっても、前方構造物10と要警戒範囲31との相対位置関係は一定である。よって、要警戒範囲31は走行速度を基準として、所定の範囲を要警戒範囲31とすることができる。具体的には、図31に示したように、要警戒範囲31の大きさを停止域から微速域における要警戒範囲311と、低速走行時の要警戒範囲312と、高速走行時の要警戒範囲313となるように変化させることができる。ここで、微速域は走行停止操作を行ったときには、ほぼその位置でダンプトラック1が停止する程度の速度である。なお、前述したダンプトラック1の作動時における要警戒範囲は警戒を必要とする範囲であり、モニタ9における画像表示範囲ではない。   Here, regardless of whether the dump truck 1 is stopped or traveling at a low speed or a high speed, the relative positional relationship between the front structure 10 and the alert range 31 is constant. Therefore, the warning area 31 can be a predetermined area 31 based on the traveling speed. Specifically, as shown in FIG. 31, the size of the area requiring caution 31 is set to a caution area 311 from a stop area to a very low speed area, a caution area 312 at low speed travel, and a caution area at high speed travel It can be changed to 313. Here, the slow speed range is a speed at which the dump truck 1 stops almost at the position when the travel stop operation is performed. It should be noted that the warning range required when the dump truck 1 is in operation is a range that requires warning, not the image display range on the monitor 9.

D:本発明の第4の実施形態
第1の実施形態、第2の実施形態および第3の実施形態では、自走式産業機械としてダンプトラック1を適用したが、第4の実施形態では、自走式産業機械として油圧ショベルを適用している。ここでは、油圧ショベルにカメラ6を設置して、当該油圧ショベルの後方構造物50を抽出し、後方構造物50に基づいて要警戒範囲31を設定する場合を説明する。
D: Fourth Embodiment of the Invention In the first embodiment, the second embodiment, and the third embodiment, the dump truck 1 is applied as a self-propelled industrial machine. In the fourth embodiment, A hydraulic excavator is used as a self-propelled industrial machine. Here, the case where the camera 6 is installed in the hydraulic excavator, the rear structure 50 of the hydraulic excavator is extracted, and the alert range 31 is set based on the rear structure 50 will be described.

図26は、歪み補正部21により歪み補正処理がされた画像データPを示している。油圧ショベルの後方構造物50は丸みを帯びているものが多く、画像データPの中の後方構造物50と背景との境界は所定の曲率半径で曲線性を有している。油圧ショベルの後方構造物50は背景色とは明確に異なる色に着色されている。従って、後方構造物50の輝度値と背景の輝度値とは大きく異なることになる。そこで、本実施形態では、画像データPの全画素について所定の輝度値(閾値)以上の輝度値を持つ画素を抽出する。なお、このときの閾値は、後方構造物50に着色された色を抽出できるような輝度値に設定する。   FIG. 26 shows the image data P that has been subjected to distortion correction processing by the distortion correction unit 21. The rear structure 50 of the excavator is often rounded, and the boundary between the rear structure 50 and the background in the image data P is curved with a predetermined radius of curvature. The rear structure 50 of the excavator is colored in a color clearly different from the background color. Therefore, the luminance value of the rear structure 50 and the luminance value of the background are greatly different. Therefore, in the present embodiment, pixels having a luminance value equal to or higher than a predetermined luminance value (threshold value) are extracted for all the pixels of the image data P. In addition, the threshold value at this time is set to a luminance value that can extract the color colored in the rear structure 50.

これにより、画像データPは閾値を境界にして二値化され、図27に示すように、後方構造物50を構成する画素が抽出される。ただし、後方構造物50以外にも、凹凸部Rの中に閾値以上の輝度値を有するエッジ画素が存在することもある。そこで、抽出された画素のうち画面下端に接触している画素の領域を後方構造物50として判定する。これにより、画像データPの中で後方構造物50が特定される。   As a result, the image data P is binarized with the threshold as a boundary, and the pixels constituting the rear structure 50 are extracted as shown in FIG. However, in addition to the rear structure 50, there may be an edge pixel having a luminance value greater than or equal to the threshold value in the concavo-convex portion R. Therefore, the pixel area in contact with the lower end of the screen among the extracted pixels is determined as the rear structure 50. Thereby, the rear structure 50 is specified in the image data P.

図28はモニタ9に表示されている表示画像の一例を示している。後方構造物50と要警戒範囲51との相対位置関係は一定であり、画像データPの中で後方構造物50を特定することで、仮想線で示す要警戒範囲51も設定される。そして、要警戒範囲51に限定して作業員Mを障害物として検出するができる。なお、同図は、視野範囲に傾きを生じている場合を示しており、このため画面全体が傾いて表示される。そして、ずれ情報Gが画像データPに重畳される。   FIG. 28 shows an example of a display image displayed on the monitor 9. The relative positional relationship between the rear structure 50 and the caution area 51 is constant, and by specifying the rear structure 50 in the image data P, the caution area 51 indicated by a virtual line is also set. Then, the worker M can be detected as an obstacle limited to the area requiring caution 51. This figure shows a case where the visual field range is tilted, so that the entire screen is tilted and displayed. Then, the shift information G is superimposed on the image data P.

本実施形態では、二値化により後方構造物50を特定していたため、前述してきた平滑化処理部22、エッジ抽出部23、構造物エッジ判定部24、エッジ線分データ確定部25による各処理は不要である。ただし、所定の曲線性を有する後方構造物50を検出できるのであれば、これら各部の処理により後方構造物50を特定してもよい。また、前述してきた実施形態、つまりダンプトラック1において、前方構造物10を特定するときに、本実施形態のように二値化の手法を用いてもよい。   In this embodiment, since the rear structure 50 is specified by binarization, each process by the smoothing processing unit 22, the edge extraction unit 23, the structure edge determination unit 24, and the edge line segment data determination unit 25 described above. Is unnecessary. However, if the rear structure 50 having a predetermined curvilinearity can be detected, the rear structure 50 may be specified by the processing of each of these parts. Further, in the embodiment described above, that is, in the dump truck 1, when the front structure 10 is specified, a binarization method may be used as in this embodiment.

なお、前述した各実施形態において、モニタ9に表示される画像はカメラ画像そのものであっても良く、また図29の原理に基づいて視点変換処理を行って俯瞰画像として表示することもできる。   In each of the embodiments described above, the image displayed on the monitor 9 may be a camera image itself, or may be displayed as an overhead image by performing viewpoint conversion processing based on the principle of FIG.

1 ダンプトラック
6 カメラ
6A 視野範囲
8 画像処理装置
9 モニタ
10 前方構造物
21 歪み補正部
22 平滑化処理部
23 エッジ抽出部
24 構造物エッジ判定部
25 エッジ線分データ確定部
26 要警戒範囲設定部
27 歪み復元部
28 表示画像作成部
31,311,312,313 要警戒範囲
32 警戒不要範囲
33 不感領域
41 要警戒範囲画像生成部
42 障害物検出部
43 マスク画像生成部
44 ずれ判定部
45 走行速度検出部
G ずれ情報
M 作業員
M1 障害物マーキング表示
P 画像データ(スルー画像)
P1 要警戒範囲画像
SPF,SPL,SPR,SPB 画像領域
DESCRIPTION OF SYMBOLS 1 Dump truck 6 Camera 6A Field-of-view range 8 Image processing apparatus 9 Monitor 10 Front structure 21 Distortion correction part 22 Smoothing process part 23 Edge extraction part 24 Structure edge determination part 25 Edge line segment data determination part 26 Warning range setting part 27 Distortion Restoration Unit 28 Display Image Creation Units 31, 311, 312, 313 Warning Range 32 Warning Not Required Range 33 Dead Area 41 Warning Range Required Image Generation Unit 42 Obstacle Detection Unit 43 Mask Image Generation Unit 44 Deviation Determination Unit 45 Travel Speed Detection unit G Deviation information M Worker M1 Obstacle marking display P Image data (through image)
P1 Alert range image SPF, SPL, SPR, SPB Image area

Claims (6)

自走式産業機械(1)に設けられ、この自走式産業機械(1)を構成する構造物(10)の一部を視野に含めた周辺領域を撮影する撮影部(9)と、
前記撮影部(9)が撮影した画像データに基づいて、この画像データの中の前記構造物(10)を検出する構造物検出部(25)と、
前記画像データのうち、周辺領域内に位置する障害物(M)を検出し、この障害物(M)が含まれる所定の範囲を要警戒範囲(31,311,312,313)として、この要警戒範囲(31,311,312,313)を前記構造物検出部(25)が検出した前記構造物(10)に基づいて前記画像データの中に設定する要警戒範囲設定部(26)と、
を備えた自走式産業機械の画像処理装置。
A photographing unit (9) provided in the self-propelled industrial machine (1) for photographing a peripheral region including a part of the structure (10) constituting the self-propelled industrial machine (1) in the field of view;
A structure detection unit (25) for detecting the structure (10) in the image data based on the image data captured by the imaging unit (9);
Among the image data, an obstacle (M) located in the peripheral area is detected, and a predetermined range including the obstacle (M) is set as a warning area (31, 311, 312, 313). A warning range setting unit (26) that sets a warning range (31, 311, 312, 313) in the image data based on the structure (10) detected by the structure detection unit (25);
A self-propelled industrial machine image processing device equipped with
前記画像データの中の前記要警戒範囲(31,311,312,313)のみに対して前記障害物(M)を検出する処理を行う障害物検出部(42)を備えた
請求項1記載の自走式産業機械の画像処理装置。
The obstacle detection part (42) which performs the process which detects the said obstruction (M) only to the said vigilance range (31,311,312,313) in the said image data is provided. Image processing device for self-propelled industrial machines.
前記画像データのうち前記要警戒範囲(31,311,312,313)以外の範囲を警戒不要範囲(32)として、時間的に前後する前記警戒不要範囲(32)における各画素の画素値の差分を演算して、この画素値の差分が所定の閾値以上である画素の画素数に基づいて、前記撮影部(9)の視野範囲に許容範囲以上のずれを生じたか否かを判定するずれ判定部(44)を備えた
請求項2記載の自走式産業機械の画像処理装置。
In the image data, a range other than the alert range (31, 311, 312, 313) is set as an alert unnecessary range (32), and a difference between pixel values of each pixel in the alert unnecessary range (32) that is temporally changed. A shift determination that determines whether or not a shift exceeding the allowable range has occurred in the field of view of the photographing unit (9) based on the number of pixels having a pixel value difference equal to or greater than a predetermined threshold. The image processing device for a self-propelled industrial machine according to claim 2, further comprising a section (44).
前記自走式産業機械(1)は走行速度を検出する走行速度検出部(45)を備え、この走行速度検出部(45)が検出する走行速度に基づいて前記要警戒範囲(31,311,312,313)を変化させる
請求項2記載の自走式産業機械の画像処理装置。
The self-propelled industrial machine (1) includes a travel speed detection unit (45) that detects a travel speed, and the warning range (31, 311, 311, 11) is based on the travel speed detected by the travel speed detection unit (45). The image processing device for a self-propelled industrial machine according to claim 2.
前記画像データを俯瞰画像として表示する請求項2に記載の自走式産業機械の画像処理装置。   The image processing device for a self-propelled industrial machine according to claim 2, wherein the image data is displayed as an overhead image. 自走式産業機械(1)に撮影部(9)を設けて、この自走式産業機械(1)の構造物の一部を含めた周辺領域を撮影し、
前記撮影部(9)が撮影した画像データに基づいて、この画像データの中の前記構造物(10)を検出し、
前記画像データのうちの周辺領域内に位置する障害物(M)を検出し、
この障害物(M)を含む所定の範囲を要警戒範囲(31,311,312,313)として、この要警戒範囲(31,311,312,313)を前記構造物検出部(25)が検出した前記構造物(10)に基づいて前記画像データの中に設定し、
前記画像データの中の前記要警戒範囲(31,311,312,313)のみに対して前記障害物(M)を検出する処理を行う
自走式産業機械の画像処理方法。
The self-propelled industrial machine (1) is provided with a photographing unit (9), and the surrounding area including a part of the structure of the self-propelled industrial machine (1) is photographed.
Based on the image data photographed by the photographing unit (9), the structure (10) in the image data is detected,
Detecting an obstacle (M) located in a peripheral region of the image data;
A predetermined range including the obstacle (M) is set as a warning area (31, 311, 312, 313), and the structure detection unit (25) detects the area requiring warning (31, 311, 312, 313). Set in the image data based on the structure (10)
An image processing method for a self-propelled industrial machine that performs a process of detecting the obstacle (M) only for the alert range (31, 311, 312, 313) in the image data.
JP2014545734A 2012-11-08 2013-11-06 Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine Active JP6072064B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012246190 2012-11-08
JP2012246190 2012-11-08
PCT/JP2013/080022 WO2014073571A1 (en) 2012-11-08 2013-11-06 Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine

Publications (2)

Publication Number Publication Date
JPWO2014073571A1 true JPWO2014073571A1 (en) 2016-09-08
JP6072064B2 JP6072064B2 (en) 2017-02-01

Family

ID=50684673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545734A Active JP6072064B2 (en) 2012-11-08 2013-11-06 Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine

Country Status (2)

Country Link
JP (1) JP6072064B2 (en)
WO (1) WO2014073571A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10465362B2 (en) * 2014-06-03 2019-11-05 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
US11120558B2 (en) 2017-03-10 2021-09-14 Tadano Ltd. Human detection system for work vehicle, and work vehicle equipped with same

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3154025B1 (en) * 2014-06-03 2021-10-13 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
JP6420657B2 (en) * 2014-12-17 2018-11-07 日立建機株式会社 Work machine and surrounding monitoring device
JP6456173B2 (en) 2015-02-04 2019-01-23 日立建機株式会社 Vehicle outside moving object detection device
JP2017030688A (en) * 2015-08-06 2017-02-09 日立建機株式会社 Periphery monitoring device of work machine
JP6572156B2 (en) * 2016-03-02 2019-09-04 株式会社神戸製鋼所 Construction equipment interference prevention device
JP6868996B2 (en) * 2016-10-13 2021-05-12 日立建機株式会社 Obstacle detection system and construction machinery
JP6926020B2 (en) * 2018-03-29 2021-08-25 ヤンマーパワーテクノロジー株式会社 Obstacle detection system
JP7396987B2 (en) 2018-07-31 2023-12-12 住友建機株式会社 excavator

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027309A (en) * 2006-07-24 2008-02-07 Sumitomo Electric Ind Ltd Collision determination system and collision determination method
JP2008108135A (en) * 2006-10-26 2008-05-08 Sumitomo Electric Ind Ltd Obstacle detection system and obstacle detection method
JP2009086788A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Vehicle surrounding monitoring device
JP2010183294A (en) * 2009-02-04 2010-08-19 Aisin Seiki Co Ltd Image processing apparatus, method of processing image, and program
JP2012212357A (en) * 2011-03-31 2012-11-01 Panasonic Corp On-vehicle display device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301782A (en) * 1993-04-16 1994-10-28 N T T Data Tsushin Kk Monitor device
JP4694032B2 (en) * 2001-05-02 2011-06-01 株式会社小松製作所 Work machine display
JP4996928B2 (en) * 2007-01-05 2012-08-08 日立建機株式会社 Work machine ambient monitoring device
JP4847913B2 (en) * 2007-03-30 2011-12-28 日立建機株式会社 Work machine periphery monitoring device
JP2009193494A (en) * 2008-02-18 2009-08-27 Shimizu Corp Warning system
JP5227841B2 (en) * 2009-02-27 2013-07-03 日立建機株式会社 Ambient monitoring device
JP5287392B2 (en) * 2009-03-17 2013-09-11 トヨタ自動車株式会社 Object identification device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027309A (en) * 2006-07-24 2008-02-07 Sumitomo Electric Ind Ltd Collision determination system and collision determination method
JP2008108135A (en) * 2006-10-26 2008-05-08 Sumitomo Electric Ind Ltd Obstacle detection system and obstacle detection method
JP2009086788A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Vehicle surrounding monitoring device
JP2010183294A (en) * 2009-02-04 2010-08-19 Aisin Seiki Co Ltd Image processing apparatus, method of processing image, and program
JP2012212357A (en) * 2011-03-31 2012-11-01 Panasonic Corp On-vehicle display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10465362B2 (en) * 2014-06-03 2019-11-05 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
US11120558B2 (en) 2017-03-10 2021-09-14 Tadano Ltd. Human detection system for work vehicle, and work vehicle equipped with same

Also Published As

Publication number Publication date
WO2014073571A1 (en) 2014-05-15
JP6072064B2 (en) 2017-02-01

Similar Documents

Publication Publication Date Title
JP6072064B2 (en) Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
KR101448411B1 (en) Three-dimensional object detection device and three -dimensional object detection method
JP5995899B2 (en) Self-propelled industrial machine image processing device
JP6126094B2 (en) In-vehicle image recognition device
WO2018225446A1 (en) Map points-of-change detection device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP3780922B2 (en) Road white line recognition device
JP5902990B2 (en) Self-propelled industrial machine image processing device
KR101464489B1 (en) Method and system for detecting an approaching obstacle based on image recognition
JP6542539B2 (en) Vehicle accessibility determination device
JP2010539740A (en) Runway monitoring system and method
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
WO2016076449A1 (en) Method and system for detecting an approaching obstacle based on image recognition
JP2010218226A (en) Measurement map generation device and traveling environment confirmation device
JP2019003606A (en) Map change point detection device
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP2020060550A (en) Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
JP5955404B2 (en) Distance measuring device and vehicle using the same
JP2019049918A (en) Obstacle detection system for heavy equipment
JP2007280387A (en) Method and device for detecting object movement
JP6088944B2 (en) Work machine ambient monitoring device
JP7280852B2 (en) Person detection system, person detection program, trained model generation program and trained model
JP2009038558A (en) Correction apparatus for monitor camera
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R150 Certificate of patent or registration of utility model

Ref document number: 6072064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150