JPWO2014073571A1 - Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine - Google Patents
Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine Download PDFInfo
- Publication number
- JPWO2014073571A1 JPWO2014073571A1 JP2014545734A JP2014545734A JPWO2014073571A1 JP WO2014073571 A1 JPWO2014073571 A1 JP WO2014073571A1 JP 2014545734 A JP2014545734 A JP 2014545734A JP 2014545734 A JP2014545734 A JP 2014545734A JP WO2014073571 A1 JPWO2014073571 A1 JP WO2014073571A1
- Authority
- JP
- Japan
- Prior art keywords
- range
- image data
- image
- self
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/24—Safety devices, e.g. for preventing overload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60P—VEHICLES ADAPTED FOR LOAD TRANSPORTATION OR TO TRANSPORT, TO CARRY, OR TO COMPRISE SPECIAL LOADS OR OBJECTS
- B60P1/00—Vehicles predominantly for transporting loads and modified to facilitate loading, consolidating the load, or unloading
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
- E02F9/261—Surveying the work-site to be treated
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Structural Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Civil Engineering (AREA)
- Mining & Mineral Resources (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Component Parts Of Construction Machinery (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定し、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にはずれを生じさせないことを目的とする。ダンプトラック(1)に設けられ、このダンプトラック(1)の前方構造物(10)が視野に含まれる領域を撮影するカメラ(6)と、カメラ(6)が撮影した画像データ(P)に基づいて、この画像データ(P)の中の前方構造物(10)を検出する構造物検出部と、画像データ(P)のうち障害物(M)を検出する必要のある範囲を要警戒範囲(31)として、この要警戒範囲(31)を構造物検出部が検出した前方構造物(19)に基づいて画像データ(P)の中に設定する要警戒範囲設定部(26)と、を備えている。It is an object of the present invention to automatically set a warning range for detecting an obstacle in the visual field range of the camera and prevent the warning range from being shifted even if the visual field range of the camera is subsequently shifted. A camera (6) that is provided in the dump truck (1) and captures an area in which the front structure (10) of the dump truck (1) is included in the field of view, and image data (P) captured by the camera (6). Based on the structure detection unit for detecting the forward structure (10) in the image data (P) and the range where the obstacle (M) needs to be detected in the image data (P) As (31), a warning range setting unit (26) that sets the warning range (31) in the image data (P) based on the forward structure (19) detected by the structure detection unit, I have.
Description
本発明は、自走式産業機械に設けた撮影部が撮影する画像データに対して所定の画像処理を行う自走式産業機械の画像処理装置およびその画像処理方法に関するものである。 The present invention relates to an image processing apparatus for a self-propelled industrial machine that performs predetermined image processing on image data captured by a photographing unit provided in the self-propelled industrial machine, and an image processing method thereof.
自走式産業機械には、ダンプトラック等の運搬機械や油圧ショベル等の作業機械がある。このうち、ダンプトラックは、車体のフレームに起伏可能としたベッセルを備えている。ダンプトラックのベッセルには、油圧ショベル等が掘削した掘削物が積載される。ベッセルに所定量の掘削物が積載された後に、ダンプトラックは所定の集積場まで走行されて、当該集積場で積載した掘削物が排土される。 Self-propelled industrial machines include transport machines such as dump trucks and work machines such as hydraulic excavators. Of these, the dump truck has a vessel that can be raised and lowered on the frame of the vehicle body. Excavated material excavated by a hydraulic excavator or the like is loaded on the vessel of the dump truck. After a predetermined amount of excavated material is loaded on the vessel, the dump truck travels to a predetermined accumulation site, and the excavated material loaded in the accumulation site is discharged.
ダンプトラックは大型の運搬車両であり、運転室に搭乗するオペレータが視認不能な多くの死角が存在する。このために、ダンプトラックにカメラを搭載して、カメラが撮影している映像を運転室のモニタに表示する。カメラはオペレータの死角となる範囲を撮影する。そして、カメラが撮影した映像をモニタに表示することで、オペレータは補助的に死角の視野を得ることができる。これにより、オペレータはダンプトラックの周囲の状況を詳細に認識することができる。 The dump truck is a large transport vehicle, and there are many blind spots that cannot be seen by an operator boarding the cab. For this purpose, a camera is mounted on the dump truck, and an image captured by the camera is displayed on a monitor in the cab. The camera takes a picture of the blind spot of the operator. Then, by displaying the video captured by the camera on the monitor, the operator can supplementarily obtain a blind spot field of view. Thereby, the operator can recognize the situation around the dump truck in detail.
自走式産業機械には下部走行体を有する油圧ショベルがある。この油圧ショベルにもカメラを搭載して、周囲の状況を詳細に確認する。油圧ショベルのカメラが取得した映像に対して所定の画像処理を行って、障害物を認識する技術が特許文献1に開示されている。この特許文献1の技術では、油圧ショベルの作業範囲に侵入移動体が入っているか否かを画像処理により検出している。この画像処理を行うことで、侵入移動体の距離や人体としての確信度の評価を行っている。
A self-propelled industrial machine includes a hydraulic excavator having a lower traveling body. This hydraulic excavator is also equipped with a camera to check the surrounding situation in detail. Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique for recognizing an obstacle by performing predetermined image processing on a video acquired by a camera of a hydraulic excavator. In the technique of
ところで、カメラには所定の視野範囲が存在しており、この視野範囲の映像が画像データとしてモニタの画面に表示される。そして、前述した特許文献1の技術のように、画像データに対して所定の画像処理を行うことで、作業員やサービスカー、他の作業機械等の障害物を検出する。これにより、運転室に搭乗するオペレータは、障害物が検出されたときに、その旨を了知することができる。
By the way, the camera has a predetermined visual field range, and an image of the visual field range is displayed on the monitor screen as image data. And like the technique of
ここで、ダンプトラック等の自走式産業機械に近接した範囲は警戒を行う必要があり、この範囲を要警戒範囲とする。この要警戒範囲はダンプトラックと障害物とが接触の可能性がある範囲として設定することができる。従って、要警戒範囲の全てはカメラの視野範囲に含まれている必要がある。つまり、要警戒範囲はカメラの視野範囲の一部の範囲となる。このため、カメラの視野範囲には要警戒範囲以外の範囲が発生する。要警戒範囲以外の範囲は警戒不要範囲であり、この範囲に障害物が存在していたとしても、支障を生じることはない。つまり、オペレータに了知する必要はない。 Here, the range close to the self-propelled industrial machine such as the dump truck needs to be warned, and this range is set as the alert range. This warning area can be set as a range where the dump truck and the obstacle are likely to come into contact with each other. Therefore, the entire alert range needs to be included in the visual field range of the camera. That is, the alert range is a part of the visual field range of the camera. For this reason, a range other than the vigilance range occurs in the visual field range of the camera. The range other than the warning range is a warning-free range, and even if an obstacle exists in this range, no trouble is caused. That is, there is no need to know the operator.
この警戒不要範囲についてまで画像処理を行って障害物を検出すると、オペレータに認識させる必要のない情報までオペレータに報知することになり、オペレータを混乱させる要因となる。これにより、作業効率が低下する。また、警戒不要範囲はカメラの視野範囲のうち遠方の範囲となり、この範囲を画像化したときの画素は粗くなる。これにより、障害物でないものまで障害物として誤検出する可能性があり、正常な障害物の検出を行うことができなくなる。さらには、警戒不要範囲にまで画像処理を行うと、処理すべき情報量が多くなり、処理に要する時間が長くなるといった問題も生じる。 If an obstacle is detected by performing image processing up to this warning-unnecessary range, the operator is informed of information that does not need to be recognized by the operator, which causes confusion for the operator. Thereby, work efficiency falls. Further, the warning-unnecessary range is a distant range in the visual field range of the camera, and the pixels when this range is imaged become rough. As a result, even objects that are not obstacles may be erroneously detected as obstacles, and normal obstacles cannot be detected. Furthermore, when image processing is performed up to a warning-unnecessary range, there is a problem that the amount of information to be processed increases and the time required for processing increases.
従って、カメラの視野範囲のうち要警戒範囲を設定することは重要である。ただし、カメラから取得される画像データに基づいて要警戒範囲を人手により設定することは非常に困難であり、設定する手間が著しく煩雑になる。また、ダンプトラック等の自走式産業機械は過酷な現場で運用されるため、車体の振動等により、カメラの取り付け位置や角度等にずれを生じるおそれがある。これにより、初期的に要警戒範囲の設定を行ったとしても、事後的に要警戒範囲がずれてしまい、障害物の検出を正常に行うことができなくなる。 Therefore, it is important to set a warning area within the visual field range of the camera. However, it is very difficult to manually set the alert range based on the image data acquired from the camera, and the time and effort for setting it are extremely complicated. In addition, since self-propelled industrial machines such as dump trucks are operated in harsh sites, there is a risk that the mounting position and angle of the camera may be shifted due to vibration of the vehicle body. As a result, even if the warning area is initially set, the warning area is shifted afterwards, and the obstacle cannot be normally detected.
そこで、本発明は、カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定し、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にはずれを生じさせないことを目的とする。 Therefore, the present invention automatically sets a warning range for detecting an obstacle in the camera field of view, and does not cause a shift in the required warning range even if the camera field of view is shifted later. With the goal.
以上の課題を解決するため、本発明の自走式産業機械の画像処理装置は、自走式産業機械に設けられ、この自走式産業機械を構成する構造物の一部を視野に含めた周辺領域を撮影する撮影部と、前記撮影部が撮影した画像データに基づいて、この画像データの中の前記構造物を検出する構造物検出部と、前記画像データのうち、周辺領域内に位置する障害物を検出し、この障害物が含まれる所定の範囲を要警戒範囲として、この要警戒範囲を前記構造物検出部が検出した前記構造物に基づいて前記画像データの中に設定する要警戒範囲設定部と、を備えている。 In order to solve the above-described problems, an image processing apparatus for a self-propelled industrial machine according to the present invention is provided in a self-propelled industrial machine, and includes a part of a structure constituting the self-propelled industrial machine in view. An imaging unit that images a peripheral region, a structure detection unit that detects the structure in the image data based on image data captured by the imaging unit, and a position in the peripheral region of the image data It is necessary to detect an obstacle to be detected, set a predetermined range including the obstacle as a warning area, and set the warning area in the image data based on the structure detected by the structure detection unit. A warning range setting unit.
また、前記画像データの中の前記要警戒範囲のみに対して前記障害物を検出する処理を行う障害物検出部を備えてもよい。 Moreover, you may provide the obstruction detection part which performs the process which detects the said obstruction only with respect to the said vigilance range in the said image data.
また、前記画像データのうち前記要警戒範囲以外の範囲を警戒不要範囲として、時間的に前後する前記警戒不要範囲における各画素の画素値の差分を演算して、この画素値の差分が所定の閾値以上である画素の画素数に基づいて、前記撮影部の視野範囲に許容範囲以上のずれを生じたか否かを判定するずれ判定部を備えてもよい。 In addition, a range other than the alert required range in the image data is set as an unnecessary alert range, and a difference between pixel values in the alert unnecessary range that is temporally changed is calculated. A deviation determination unit may be provided that determines whether or not a deviation greater than an allowable range has occurred in the visual field range of the imaging unit based on the number of pixels that are equal to or greater than a threshold value.
また、前記自走式産業機械は走行速度を検出する走行速度検出部を備え、この走行速度検出部が検出する走行速度に基づいて前記要警戒範囲を変化させるようにしてもよい。 The self-propelled industrial machine may include a travel speed detection unit that detects a travel speed, and the warning range may be changed based on the travel speed detected by the travel speed detection unit.
撮影部により撮像した画像は、画像表示手段に表示されるが、その表示態様としては、前述したものの他、撮像部の画像を信号処理による視点変換を行って、上方視点とした俯瞰画像とする構成としても良い。 The image picked up by the photographing unit is displayed on the image display means. As the display mode, in addition to those described above, the image of the image pickup unit is subjected to viewpoint conversion by signal processing to obtain an overhead view image as an upper viewpoint. It is good also as a structure.
また、本発明の自走式産業機械の画像処理方法は、自走式産業機械に撮影部を設けて、この自走式産業機械の構造物の一部を含めた周辺領域を撮影し、前記撮影部が撮影した画像データに基づいて、この画像データの中の前記構造物を検出し、前記画像データのうちの周辺領域内に位置する障害物を検出し、この障害物を含む所定の範囲を要警戒範囲として、この要警戒範囲を前記構造物検出部が検出した前記構造物に基づいて前記画像データの中に設定し、前記画像データの中の前記要警戒範囲のみに対して前記障害物を検出する処理を行う。 Further, the image processing method of the self-propelled industrial machine of the present invention is provided with a photographing unit in the self-propelled industrial machine, photographs a peripheral region including a part of the structure of the self-propelled industrial machine, Based on the image data photographed by the photographing unit, the structure in the image data is detected, an obstacle located in a peripheral region of the image data is detected, and a predetermined range including the obstacle Is set in the image data based on the structure detected by the structure detection unit, and the failure is limited only to the warning range in the image data. Processing to detect objects is performed.
本発明は、自走式産業機械の構造物が視野に含まれるように撮影部が撮影を行い、構造物エッジを検出して、この構造物エッジに基づいて要警戒範囲を設定している。これにより、カメラの視野範囲のうち障害物を検出する要警戒範囲を自動的に設定することができる。また、事後的にカメラの視野範囲にずれを生じたとしても要警戒範囲にずれを生じることがない。 In the present invention, the photographing unit performs photographing so that the structure of the self-propelled industrial machine is included in the field of view, detects the structure edge, and sets a warning range based on the structure edge. Thereby, it is possible to automatically set a vigilance range for detecting an obstacle in the visual field range of the camera. In addition, even if there is a shift in the visual field range of the camera afterwards, there is no shift in the alert range.
A:本発明の第1の実施形態
以下、図面を参照して、本発明の第1の実施形態について説明する。ここでは、自走式産業機械に運搬車両としてのダンプトラックを適用している。勿論、ダンプトラック以外の任意の自走式産業機械、例えば下部走行体を有する油圧ショベル等を適用してもよい。ダンプトラックとしてはリジットタイプとアーティキュレートタイプとがあるが、何れを適用してもよい。要は、所定の作業(運搬や掘削等)を行う任意の自走式産業機械に本実施形態を適用することができる。なお、以下において、「左」とは運転室から見たときの左方であり、「右」とは運転室から見たときの右方である。A: First Embodiment of the Present Invention Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. Here, a dump truck as a transport vehicle is applied to a self-propelled industrial machine. Of course, any self-propelled industrial machine other than the dump truck, such as a hydraulic excavator having a lower traveling body, may be applied. There are a rigid type and an articulate type as the dump truck, but any of them may be applied. In short, the present embodiment can be applied to any self-propelled industrial machine that performs predetermined work (transportation, excavation, etc.). In the following description, “left” is the left side when viewed from the cab, and “right” is the right side when viewed from the cab.
図1は、本実施形態のダンプトラック1の一例を示している。ダンプトラック1は、車体フレーム2と前輪3(3Lおよび3R)と後輪4(4Lおよび4R)とベッセル5とカメラ6と運転室7と画像処理装置8とモニタ9とを備えて構成している。車体フレーム2はダンプトラック1の本体を形成するものであり、車体フレーム2の前方に前輪3、後方に後輪4を設けている。なお、前輪3Rは右方の前輪3であり、前輪3Lは左方の前輪3である。また、後輪4Rは右方の後輪4であり、後輪4Lは左方の後輪4である。ベッセル5は荷台であり、土砂や鉱物等を積載する。ベッセル5は起伏可能に構成されている。
FIG. 1 shows an example of a
ダンプトラック1には任意の位置に撮影部としてのカメラ6を設置することができる。図2はダンプトラック1の側面図を示しており、カメラ6は運転室7の前方に取り付けられている。そして、カメラ6はダンプトラック1の前方の斜め下方を俯瞰するような視野範囲6A(図中の破線の範囲)で、このダンプトラック1の周辺領域の撮影を行っている。この視野範囲6Aの中には作業員Mが接触を避けるべき障害物として存在している。障害物としては他に作業機械やサービスカー等があり、これらが視野範囲6Aに含まれることもある。
The
カメラ6の視野範囲6Aはダンプトラック1の前方の斜め下方となっており、視野範囲6Aの中に前方構造物10の一部が含まれるようにする。図2の破線で示すように、視野範囲6Aには前方構造物10の一部が含まれている。なお、カメラ6により撮影される周辺領域である視野範囲6Aはダンプトラック1の前方以外の方向でもよく、ダンプトラック1の後方や左方、右方等の任意の方向を視野としてもよい。視野範囲6Aをダンプトラック1の後方とすることで、ダンプトラック1を後進させるときに、後方の状況を画像表示することができる。このときには、視野範囲6Aには後方構造物の一部が含まれるようにする。
The
運転室7はオペレータが搭乗してダンプトラック1を操作する各種の操作手段が設けられている。例えば、ダンプトラック1を前進または後進させるシフトレバー等が操作手段として設けられている。運転室7には、画像処理装置8とモニタ9とが設けられており、カメラ6が撮影することにより生成される画像データは画像処理装置8で所定の画像処理が行われる。画像処理が行われた画像データはモニタ9に表示される。モニタ9は表示装置であり、基本的にモニタ9にはカメラ6が撮影する映像が表示されている。
The driver's
画像処理装置8はカメラ6が撮影した映像の画像データに対して画像処理を行う画像処理コントローラである。そして、画像処理を行った画像データを表示画像としてモニタ9に表示する。図3に示すように、画像処理装置8は、歪み補正部21と平滑化処理部22とエッジ抽出部23と構造物エッジ判定部24とエッジ線分データ確定部25と要警戒範囲設定部26と歪み復元部27と表示画像作成部28とを備えている。
The
カメラ6が撮影した映像は画像データとして歪み補正部21に入力される。歪み補正部21は、カメラ6のレンズパラメータ(焦点距離や画像の光軸中心、レンズ歪係数等)を用いて、画像データの歪みを補正する。カメラ6のレンズの映り込む映像は中心では歪みを生じていないが、中心から離間するほど歪みを生じる。従って、カメラ6が撮影して得られる画像データは全体的に歪曲されている。これに対して、前記のパラメータを用いて補正を行うことで、直線性の高い画像データを得ることができる。
The video imaged by the
平滑化処理部22は、歪み補正部21により補正された画像データを入力して、平滑化処理を行う。平滑化処理は、画像データの各画素の間の画素値の変化を少なくし、滑らかな画像を生成する処理である。画像データに対して平滑化処理を行うことで、画素値の変化を滑らかにすることができ、全体的に平滑化された画像データにすることができる。平滑化処理には、任意の手法を用いることができるが、例えば移動平均フィルタや中央値フィルタ、ガウシアンフィルタ等を用いることができる。
The smoothing
エッジ抽出部23は、平滑化処理部22により平滑化処理された画像データに対してエッジ抽出処理を行う。このために、隣接する画素間の画素値の変化が大きい画素をエッジ画素として抽出し、エッジ画素が連続して形成される形状をエッジとする。これにより、画像データの中から画素値の変化が大きいエッジが抽出される。エッジ抽出処理には任意の手法を用いることができるが、例えばソーベルフィルタやキャニーのアルゴリズム等の手法を用いることができる。
The
構造物検出部である構造物エッジ判定部24は、エッジ抽出部23が抽出したエッジのうち、その形状が画像データの中の前方構造物10の境界に近いエッジを前方構造物10のエッジとして判定する。このために、構造物エッジ判定部24はハフ変換等の直線化手法を用いて、画像データの中のエッジの直線化を行う。そして、直線化されたエッジをエッジ線分として、連結性の高いエッジ線分を前方構造物10の境界(エッジ)として判定する。エッジ線分は画像データ中の座標を用いて表現することができ、ここではエッジ線分同士の交点座標およびエッジ線分と画像データの下端(画像データPのうち最もダンプトラック1に近接している端部)との交点座標をエッジ線分データとして記憶する。
The structure
エッジ線分データ確定部25は、最新のエッジ線分データを含めて、任意の数のエッジ線分データを比較する。カメラ6には所定の撮影周期があり、周期的に画像データが取得されることから、エッジ線分データも周期的に取得される。エッジ線分データ確定部25は過去のエッジ線分データを記憶しており、最新のエッジ線分データとの平均値を演算する。そして、演算されたエッジ線分データの平均値を確定されたエッジ線分データとする。なお、歪み補正部21からエッジ線分データ確定部25までの各部は前方構造物10を検出するための構造物検出部となる。
The edge line segment
要警戒範囲設定部26は、エッジ線分データ確定部25から入力したエッジ線分データに基づいて、要警戒範囲を設定する。要警戒範囲とダンプトラック1の前方構造物10との相対位置関係は一定であり、カメラ6の取り付け高さや俯角、カメラ6の画素数、画角等に基づいて、要警戒範囲と前方構造物10との相対位置関係は既知のものとして認識することができる。従って、要警戒範囲設定部26は、エッジ線分データにより得られる前方構造物10の境界に基づいて、所定範囲を要警戒範囲として設定する。
The vigilance
歪み復元部27は、歪み補正部21が歪み補正したカメラレンズのパラメータを用いて、歪みを復元する。歪み復元部27までの画像データはカメラ6のカメラレンズの歪みを補正したデータであり、本来のカメラ6の映像には歪みを生じている。よって、本来的なカメラ6の映像を表示するときには、歪み復元部27が画像データに対して歪みを復元する処理を行う。この歪みの復元により画像データ中の要警戒範囲にも歪みが発生する。
The
表示画像作成部28はモニタ9に表示する表示画像を生成する。このときの表示画像は歪みが復元された画像データであり、この中に要警戒範囲が設定されている。表示画像作成部28は要警戒範囲が設定された表示画像をモニタ9に出力し、モニタ9に表示画像を表示する。これにより、運転室7に搭乗するオペレータはモニタ9を視認することにより、カメラ6の映像を認識することができる。
The display
次に、図4のフローチャートに基づいて、動作について説明する。ダンプトラック1に設置されたカメラ6は斜め下方を視野とした視野範囲6Aを撮影しており、所定の撮影周期(例えば、フレーム/秒)で撮影を行っている。これにより、撮影周期ごとに得られる1フレーム分の画像データを画像処理装置8に周期的に出力する(ステップS1)。視野範囲6Aに前方構造物10が含まれるようにカメラ6が設置しており、画像データの中には前方構造物10が含まれる。
Next, the operation will be described based on the flowchart of FIG. The
カメラ6が視野範囲6Aを撮影することにより得られる画像データの一例を図5に示す。カメラ6は斜め下方を視野としており、同図に示すように、画像データPにはカメラ6の撮影方向の地面が背景として映し出されている。ダンプトラック1が運用される現場は過酷な環境下にあり、地面は整地状態となっておらず、多くの凹凸が存在する。画像データPの中では凹凸部Rとして映し出されている。また、視野範囲6Aにダンプトラック1の前方構造物10が映し出されるようにカメラ6の視野を設定している。よって、画像データPには前方構造物10も含まれている。
An example of image data obtained when the
以上の画像データPが画像処理装置8の歪み補正部21に出力され、且つ表示画像作成部28にも出力される。歪み補正部21に入力された画像データPはカメラ6のレンズパラメータに基づいて歪み補正がされる(ステップS2)。カメラ6のレンズパラメータを用いて画像データPの歪み補正を行うことで、画像データPの中心から離間した部位の歪みが補正される。これにより、画像データPは、図6に示すような直線性の高い画像に補正される。
The above image data P is output to the
歪み補正処理がされた画像データPは平滑化処理部22に入力される。平滑化処理部22は画像データPに対して平滑化処理を行う(ステップS3)。平滑化処理部22は、前述したように、画像データPの各画素について、隣接する画素間の画素値の差分を少なくして、滑らかな画像データPを生成する。前述したように、エッジ抽出部23によりエッジ抽出処理が行われる。このとき、地面の凹凸や照度の違い等に起因して画像データPの画素値がまばらな値になり、これらがエッジとして検出されるおそれがある。ただし、これらはノイズ成分であり、平滑化処理部22は予めノイズ成分を除去するために平滑化処理を行う。この平滑化処理を行うことで、まばらな画素値が平滑化され、ノイズ成分が除去される。ここでは、図7に示す平滑化フィルタを用いて平滑化処理を行っているが、隣接する画素間の画素値の差分を少なくすることができれば任意の手法を用いることができる。
The image data P subjected to the distortion correction process is input to the smoothing
図7は、平滑化フィルタとしてガウシアンフィルタを適用した例を示している。ガウシアンフィルタは、画素の空間的配置を考慮して、画像データPの中の1つの画素(中心画素)に近い画素のフィルタ係数が大きく、中心画素から遠い画素のフィルタ係数が小さいフィルタである。そして、ガウシアンフィルタはフィルタリングした各画素の加重平均を取る。フィルタ係数としては、例えば下記のガウス関数(式1)を用いることができる。なお、式1の中のσは標準偏差である。
図7の例では3画素×3画素の合計9画素のガウシアンフィルタを用いる。なお、ガウシアンフィルタの画素数は9画素ではなく、5画素×5画素の合計25画素としてもよいし、それ以上としてもよい。前述の式1のガウス関数を用いたガウシアンフィルタは、中心画素と周辺画素(8画素)とにより構成される。中心画素のフィルタ係数Kが最も大きく、中心画素の上下左右の4画素のフィルタ係数Lが次に大きく、それ以外の4画素のフィルタ係数Mが最も小さい。つまり、「K>L>M」となる。なお、フィルタ係数は重み付けであり、フィルタ係数の合計は「1」となる。
In the example of FIG. 7, a Gaussian filter having a total of 9 pixels of 3 pixels × 3 pixels is used. Note that the number of pixels of the Gaussian filter is not limited to nine, and may be a total of 25 pixels of 5 pixels × 5 pixels or more. The Gaussian filter using the Gaussian function of the above-described
平滑化処理部22は画像データPの全ての画素に対して、前述したガウシアンフィルタを用いた平滑化処理を行う。具体的には、中心画素の画素値に対してフィルタ係数Kを乗算し、中心画素の上下左右の4画素の画素値に対してフィルタ係数Lを乗算し、それ以外の4画素の画素値に対してフィルタ係数Mを乗算する。そして、フィルタ係数Kを乗算した中心画素の画素値に対して、フィルタ係数L、Mを乗算した周辺の8画素の画素値を加算する。この加算を行ったときの中心画素の画素値が平滑化値となる。この処理を画像データPの全ての画素に対して行う。
The smoothing
ところで、前述したように、画像データPには地面の凹凸部Rと前方構造物10とが映し出されている。凹凸部Rの画素はその周囲の画素と画素値に差分を有している。従って、平滑化処理部22が画像データPに対して平滑化処理を行うことで、凹凸部Rと周囲の画素との間の画素値の差分が少なくなり、平滑化される。そして、前述のフィルタ係数K、L、Mの値は、画像データPの中の前方構造物10の境界はエッジとして検出されるが、それ以外の凹凸部R等はエッジとして検出されないような値に設定する。これにより、図8に示したように、画像データPの中の凹凸部Rを大幅に低減することができる。フィルタ係数K、L、Mの値はガウス関数の標準偏差σにより決定されるため、凹凸部Rが検出されなくなるような標準偏差σを設定する。
By the way, as described above, the image data P shows the uneven portion R of the ground and the
勿論、凹凸部Rの中にはその大きさや照度条件等により、凹凸部Rの画素とその周囲の画素との差分が大きくなることがある。この場合には、平滑化処理を行ったとしても、完全に画像データPの中から凹凸部Rを除去することができず、一部の凹凸部Rは残存する。ただし、図8に示すように、その数を大幅に低減させることができる。 Of course, in the uneven portion R, the difference between the pixels of the uneven portion R and the surrounding pixels may be large depending on the size, illuminance conditions, and the like. In this case, even if the smoothing process is performed, the uneven portion R cannot be completely removed from the image data P, and a portion of the uneven portion R remains. However, as shown in FIG. 8, the number can be significantly reduced.
一方、前方構造物10については、背景と前方構造物10との境界は明確に区別可能になっている。一般に、ダンプトラック1は、周囲状況を把握する観点から地面や周囲の環境と容易に区別が可能なような色に着色されていることが多い。これに伴い、前方構造物10も地面や周囲環境等の背景とは明確に異なる色となっている。このため、背景と前方構造物10との境界、つまり前方構造物10における背景の画素値と前方構造物10の画素値との差分は大きい。これにより、前方構造物10の境界における画素値の差分は非常に大きいため、平滑化処理を行ったとしても、大半は残存する。
On the other hand, for the
次に、エッジ抽出部23の処理について説明する。図8に示したように、平滑化処理を行った画像データPには、その数が大幅に低減された凹凸部Rおよび前方構造物10の境界が映し出されている。エッジ抽出部23は、この平滑化処理を行った画像データPから隣接する画素の間の画素値の差分が所定の閾値以上の画素(差分が大きい画素)をエッジ画素として抽出する(ステップS4)。
Next, processing of the
ここでは、エッジ画素を抽出するエッジ抽出処理としてキャニーのアルゴリズムを用いる。勿論、他の手法を用いてエッジ画素を抽出してもよい。キャニーのアルゴリズムでは、図9に示すような水平方向(横方向:X方向)のソーベルフィルタおよび垂直方向(縦方向:Y方向)のソーベルフィルタの2種類のソーベルフィルタを用いる。X方向のソーベルフィルタは画像データPのX方向の輪郭を強調し、Y方向のソーベルフィルタはY方向の輪郭を強調する。これら2種類のソーベルフィルタを用いて画像データPの全ての画素に対してエッジ画素を抽出する。 Here, Canny's algorithm is used as edge extraction processing for extracting edge pixels. Of course, the edge pixels may be extracted using other methods. In the Canny algorithm, two types of Sobel filters are used: a Sobel filter in the horizontal direction (lateral direction: X direction) and a Sobel filter in the vertical direction (vertical direction: Y direction) as shown in FIG. The X direction Sobel filter emphasizes the X direction outline of the image data P, and the Y direction Sobel filter emphasizes the Y direction outline. Edge pixels are extracted for all pixels of the image data P using these two types of Sobel filters.
X方向およびY方向のソーベルフィルタを画像データPの全ての画素に対して施すことにより、画像データPの全ての画素について、当該画素とその周囲の画素との間の微分値(fx、fy)を抽出する。fxはX方向の微分値であり、fyはY方向の微分値である。そして、画像データのPの全ての画素に対して、fx、fyに基づいて、エッジ強度gを「g=(fx2+fy2)1/2」として演算する。エッジ強度gは1つの画素と周囲の画素との間の画素値の差分を示しており、演算されたエッジ強度gに基づいて、エッジ画素を検出する。By applying a Sobel filter in the X direction and the Y direction to all the pixels of the image data P, for all the pixels of the image data P, differential values (fx, fy) between the pixel and its surrounding pixels. ). fx is a differential value in the X direction, and fy is a differential value in the Y direction. Then, the edge strength g is calculated as “g = (fx 2 + fy 2 ) 1/2 ” based on fx and fy for all pixels of P of the image data. The edge strength g indicates a difference in pixel value between one pixel and surrounding pixels, and an edge pixel is detected based on the calculated edge strength g.
エッジ抽出部23は、ソーベルフィルタが施された画像データPの全ての画素のエッジ強度gに対して、第1閾値T1および第2閾値T2(ただし、T1>T2)を用いて比較を行う。画像データPの1つの画素に着目して、当該画素のエッジ強度gが第1閾値T1以上であれば、当該画素はエッジ画素として検出する。一方、着目した画素のエッジ強度gが第2閾値T2未満であれば、当該画素はエッジ画素ではないとして検出する。着目した画素のエッジ強度が第1閾値T1以上且つ第2閾値T2未満のときには、当該画素の近傍(特に、当該画素に隣接している画素)にエッジ画素が存在しているときには当該画素をエッジ画素として検出し、それ以外の場合はエッジ画素として検出しない。
The
以上のエッジ抽出処理を行うと、図10(a)に示すようなエッジ画素が抽出された画像データPが生成される。そして、エッジ画素が連続した形状をエッジEとして抽出される。エッジEが抽出された画像データPに対して構造物エッジ判定処理を行うことにより、画像データPの中から前方構造物10を判定する(ステップS5)。エッジ抽出処理では、隣接する画素間の差分が大きい画素をエッジ画素として抽出している。これにより、もともと凹凸部Rを映し出していた画素は殆どエッジ画素として検出されなくなるため、前方構造物10を検出する精度は飛躍的に向上する。
When the above edge extraction processing is performed, image data P from which edge pixels are extracted as shown in FIG. 10A is generated. A shape in which edge pixels are continuous is extracted as an edge E. By performing the structure edge determination process on the image data P from which the edge E has been extracted, the
一方、前方構造物10の境界は画素値の差分が大きいため、エッジ画素として検出されやすくなる。ただし、ソーベルフィルタを用いたエッジ抽出処理を行うことにより、図10(a)に示すように、エッジEは直線性を示さず、不規則な変化を示すことがある。例えば、本来なら直線性を有している前方構造物10の境界も直線性を失い、当該境界の一部が検出されなくなる場合もある。
On the other hand, the boundary of the
構造物エッジ判定部24は、画像データPのエッジ画素から直線を抽出する。直線を抽出する手段としては任意の手段を用いることができるが、ここでは既知の手法としてハフ変換を用いる。勿論、エッジ画素から直線を抽出できれば、ハフ変換以外の手法を用いてもよい。図10(a)に示した画像データPに対して、ハフ変換の演算処理を行うことで、不規則な変化を示す線分は、同図(b)に示すように直線L、L1乃至L4になる。このうち、X方向に延在する直線L1、L2およびY方向に延在する直線L3、L4に着目する。そして、構造物エッジ判定部24は直線L1、L2のうち最も長い直線L1を選択し、2つの直線L3、L4を選択する。
The structure
構造物エッジ判定部24は画像データPの中で直線L1、L3、L4を延長する。直線L1はX方向の延在する直線であり、直線L3、L4はY方向に延在する直線であることから、これらを延長することにより、直線L1と直線L3および直線L4が交わる。直線L1と直線L3との交点をC1、直線L1と直線L4との交点をC2とする。また、直線L3と画像データPの下端との交点をC3、直線L4と画像データPの下端との交点をC4とする。交点C1乃至C4は2次元の画像データPの中の画素の座標を示している。
The structure
交点C1乃至C4を直線で結ぶと前方構造物10のエッジ線分が形成される。従って、交点C1乃至C4の情報は前方構造物10のエッジ線分を特定するためのデータとなり、これをエッジ線分データとする。エッジ線分データ(交点C1乃至C4の座標情報)により囲まれた領域が前方構造物10となる。構造物エッジ判定部24はエッジ線分データに基づいて、前方構造物10のエッジを判定する。1枚の画像データPから得られるエッジ線分データに基づいて前方構造物10を特定してもよいが、画像データPの中の前方構造物10を検出する確度を向上させるために、エッジ線分データ確定部25がエッジ線分データの比較を行う(ステップS6)。
When the intersections C1 to C4 are connected by straight lines, an edge line segment of the
前述したように、カメラ6から所定周期で画像データPが画像処理装置8に入力されており、複数枚の画像データPが得られる。エッジ線分データ確定部25は過去の画像データPに基づくエッジ線分データを記憶しており、最新の画像データPに基づくエッジ線分データと過去のエッジ線分データとの平均値を算出する。エッジ線分データ確定部25は、算出されたエッジ線分データ(平均値)を確定されたエッジ線分データとする。つまり、確定されたエッジ線分データにより画像データPの中の前方構造物10が特定される。
As described above, the image data P is input from the
なお、エッジ線分データ確定部25が複数の画像データPのエッジ線分データの平均値の演算を行うときには、所定枚数の画像データPのエッジ線分データがエッジ線分データ確定部25に蓄積されるまで、エッジ線分データの確定は行わない。また、多くのエッジ線分データの平均値を算出することにより、エッジ線分データの確度は向上するが、処理時間が長くなる。従って、エッジ線分データの確度と処理時間とのバランスを考慮して、平均値の演算を行うエッジ線分データの個数を決定する。
Note that when the edge line segment
エッジ線分データ確定部25が確定したエッジ線分データは要警戒範囲設定部26に出力される。要警戒範囲設定部26はエッジ線分データに基づいて要警戒範囲を設定する(ステップS7)。要警戒範囲は障害物を検出する範囲であり、ダンプトラック1から所定の範囲となる。前述したように、ダンプトラック1の前方構造物10と要警戒範囲との相対位置関係は既知のものとして認識することができる。従って、画像データPの中の前方構造物10が特定できれば、要警戒範囲を自動的に認識することができる。
The edge line segment data determined by the edge line segment
図11(a)は、エッジ線分データに基づいて、要警戒範囲31が設定される状態を示している。確定されたエッジ線分データは交点C1乃至C4の情報であり、交点C1乃至C4を連結することにより前方構造物10が特定される。従って、同図(a)の中で交点C1乃至C4により囲まれた領域が前方構造物10となる。前方構造物10と要警戒範囲31との相対位置関係に基づいて、画像データPの中で要警戒範囲31が設定される。
FIG. 11A shows a state where the
一方、画像データPの中で要警戒範囲31以外の領域は警戒が不要な警戒不要範囲32となる。従って、画像データPの中から障害物を検出するときに、要警戒範囲31のみを対象として障害物の検出を行い、警戒不要範囲32については障害物の検出は行わない。障害物の検出の手法は任意の手法を採用することができる。そして、障害物の検出を行うときに、警戒不要範囲32はマスク領域として、当該範囲をマスクすることで、要警戒範囲31に絞って障害物の検出を行うことができる。
On the other hand, in the image data P, an area other than the
要警戒範囲31は歪み補正部21により歪み補正がされた画像データPに基づいて設定されている。モニタ9に表示される表示画像はカメラ6から出力される画像データPであり、歪み補正がされていない画像になる。そこで、歪み復元部27は、要警戒範囲31が設定された画像データPに対して歪み補正を復元する(ステップS8)。歪み復元部27は歪み補正部21が使用したカメラ6のレンズパラメータを使用して、画像データPの歪み補正を復元する。これにより、要警戒範囲31は、図11(b)のように変形する。歪み復元処理がされた要警戒範囲31の情報は表示画像作成部28に出力される。
The
表示画像作成部28はモニタ9に表示する画像(表示画像)を生成する(ステップS9)。表示画像作成部28は、カメラ6から周期的に画像データPを入力する。この画像データPは歪み補正がされていない画像になる。また、表示画像作成部28は歪み復元部27から歪み復元処理がされた要警戒範囲31の情報を入力している。そして、表示画像作成部28は、カメラ6から入力した画像データPに要警戒範囲31を重畳する。その状態を図12に示している。つまり、同図に示す画像データPのうち要警戒範囲31は仮想線で囲まれた領域になる。なお、要警戒範囲31は障害物を検出するための領域であり、図12のように格別に要警戒範囲31を表示させる必要はない。
The display
そして、表示画像作成部28はカメラ6から入力した画像データPをモニタ9に出力する。運転室7に搭乗したオペレータはモニタ9に表示されている画像データPを視認することで、補助的な視野を得ることができる。
Then, the display
以上説明したように、本実施形態では、画像データPに基づいてダンプトラック1の前方構造物10を特定し、前方構造物10から要警戒範囲31を設定している。これにより、障害物を検出する要警戒範囲31を手動によらず自動的に設定することができ、設定する手間を大幅に省略することができる。また、ダンプトラック1が激しく振動してカメラ6の視野範囲6Aにずれを生じたとしても、要警戒範囲31にずれを生じることはない。つまり、画像データPの中の前方構造物10と要警戒範囲31との相対位置関係は、視野範囲6Aにずれを生じたとして一定であるため、前方構造物10を基準として要警戒範囲31を設定することで、要警戒範囲31にずれを生じることがなくなる。
As described above, in the present embodiment, the
以上において、構造物エッジ判定部24はエッジ画素の直線性を検出して、前方構造物10のエッジ線分を判定していたが、前方構造物10と背景との境界を検出することができれば、前方構造物10のエッジ線分を検出する手法以外の手法を用いてもよい。例えば、前方構造物10と背景との間で画素値の差分が極端に大きい場合等は、画素値の差分に基づいて前方構造物10を検出することができる。この場合、歪み補正部21により歪み補正を行う必要もなく、歪み復元部27により歪み復元の補正を行う必要もない。ただし、前方構造物10には特有の直線性が存在するため、前方構造物10のエッジ線分を検出する手法を採用することで、前方構造物10と背景との境界を検出する精度が向上する。
In the above description, the structure
また、平滑化処理部22により画像データPに対して平滑化処理を行っており、これにより画像データPの中の凹凸部Rを低減させている。この点、カメラ6が撮影している地面がある程度整地されている場合等においては、画像データPの中の凹凸部Rは少なくなる。従って、平滑化処理を行わなくても前方構造物10のエッジEを抽出することはできる。ただし、前方構造物10のエッジEの検出精度を向上させるためには、平滑化処理を行った方が望ましい。
Further, the smoothing
また、エッジ線分データ確定部25によりエッジ線分データの確度を向上させているが、1枚の画像データPに基づいてエッジ線分が明確に識別できる場合等は、エッジ線分データ確定部25により処理を省略してもよい。ただし、複数の画像データPのエッジ線分データの平均値を演算することにより、エッジ線分データを確定させることで、エッジ線分データの確度が向上する。このため、エッジ線分データ確定部25による処理を行うことが望ましい。
Further, although the accuracy of the edge line segment data is improved by the edge line segment
B:本発明の第2の実施形態
次に、第2の実施形態について説明する。図13は第2の実施形態の画像処理装置8の構成を示している。図13に示すように、要警戒範囲画像生成部41と障害物検出部42とマスク画像生成部43とずれ判定部44とが第1の実施形態に対して新たに追加されたが、それ以外の構成は第1の実施形態と同じであるので説明を省略する。B: Second Embodiment of the Invention Next, a second embodiment will be described. FIG. 13 shows the configuration of the
視野範囲6Aを撮影しているカメラ6から周期的に画像データPが画像処理装置8に出力される。画像データPは歪み補正部21および表示画像作成部28だけでなく、要警戒範囲画像生成部41に対しても出力される。要警戒範囲画像生成部41は、図12等で示したように、画像データPのうち要警戒範囲31のみの画像を生成する。このために、歪み復元部27から歪みが復元された要警戒範囲31を入力し、カメラ6から画像データPを入力する。そして、画像データPのうち要警戒範囲31の領域内の画像のみを要警戒範囲画像として生成する。
Image data P is periodically output to the
要警戒範囲画像は障害物検出部42に入力される。障害物検出部42は要警戒範囲画像の中の障害物を検出する。接触を避けなければならない障害物としては主に作業員やサービスカー等が想定されるが、例えば他の作業機械等も障害物となる。障害物を検出する手法には任意の手法を用いることができる。障害物には静止状態と移動状態とがあり、静止状態の障害物を静止体、移動状態の障害物を移動体とする。
The vigilance range image is input to the
静止体を検出する手法にも任意の手法を用いることができるが、例えば画像中の輪郭や輝度、色等を複合的に判断して静止体の領域を検出する手法を用いることができる。静止体は一定の領域を有しており、当該一定の領域の輪郭が所定の形状をしている場合、輝度値が所定の値を有する場合、色が特定の色を示している場合等において、前記の一定の領域を静止体として検出することができる。 Although any method can be used as a method for detecting a stationary body, for example, a method for detecting a region of a stationary body by complexly judging an outline, luminance, color, and the like in an image can be used. In the case where the stationary body has a certain area and the outline of the certain area has a predetermined shape, the luminance value has a predetermined value, the color indicates a specific color, etc. The certain area can be detected as a stationary body.
静止体を検出する具体的な手法としては、例えば背景と静止体との輪郭の情報に基づいて事前に学習した形状情報を用いてマッチングし、障害物を判定するパターンマッチング手法を用いることができる。また、特定の輝度や色情報を持つが画素のみを抽出し、抽出した画素領域の面積や周囲長、モーメントといった形状特徴を抽出し、形状を識別することにより障害物と判定する手法を用いることができる。 As a specific method for detecting a stationary object, for example, a pattern matching method can be used in which an obstacle is determined by matching using shape information learned in advance based on information on the contour between the background and the stationary object. . Also, use a method that has specific luminance and color information but extracts only pixels, extracts shape features such as area, perimeter, and moment of the extracted pixel area and identifies the shape as an obstacle. Can do.
移動体を検出する手法にも任意の手法を用いることができ、例えば時間的に異なる画像データPを比較したときに、一定の領域が異なる位置に移動しているときには移動体が移動していることを検出する。移動体の検出には例えばブロックマッチング手法を適用することができる。このブロックマッチング手法については後述する。他にも、画像データPの各画素における明るさの空間的勾配と時間的勾配との間の関係性を用いて検出する勾配法や移動体の領域がないときの画像データと最新の画像データとの差分を検出する背景差分法、時間の異なる3枚の画像データを用いて2枚の差分画像を生成して移動体領域を検出するフレーム差分法等を用いることができる。 Any method can be used as a method for detecting the moving body. For example, when comparing image data P that are temporally different, the moving body moves when a certain region moves to a different position. Detect that. For example, a block matching method can be applied to the detection of the moving object. This block matching method will be described later. In addition, the gradient method to detect using the relationship between the spatial gradient of brightness and the temporal gradient in each pixel of the image data P, the image data when there is no moving object region, and the latest image data A background difference method for detecting a difference between the two, a frame difference method for detecting a moving body region by generating two difference images using three pieces of image data having different times, and the like can be used.
マスク画像生成部43はマスク画像を生成する。第1の実施形態で説明したように、要警戒範囲設定部26は画像データPの中で要警戒範囲31を設定し、それ以外の領域を警戒不要範囲32として設定している。このうち、マスク画像生成部43は警戒不要範囲32をマスク領域としたマスク画像を生成する。マスク画像は画像データPと同じサイズの画像であり、画素数も等しい。そして、マスク画像のうちマスク領域(警戒不要範囲32)とそれ以外の領域(要警戒範囲31)とが明確に区別されている。例えば、マスク画像のうちマスク領域は全て黒(画素値ゼロ)で構成し、要警戒範囲31の領域は全て白(画素値256)で構成することができる。
The mask
ずれ判定部44はマスク画像生成部43からマスク画像を入力して、ずれを判定する。ずれ判定部44には過去のマスク画像が保持されており、新しく入力したマスク画像と過去のマスク画像との比較を行う。そして、全ての画素について新しいマスク画像と過去のマスク画像との差分演算を行い、所定値以上の画素値の差分を持つ画素が所定数以上存在している場合、カメラ6にずれを生じていると判定し、それ以外の場合にはずれを生じていないと判定する。判定結果は表示画像作成部28に出力される。
The
次に、図14のフローチャートを用いて、第2の実施形態の動作について説明する。図14に示すステップS1乃至ステップS8は第1の実施形態と同じであるため、説明を省略する。ステップS8において、歪みが復元された要警戒範囲31が生成される。この要警戒範囲31の情報が要警戒範囲画像生成部41に入力される。要警戒範囲画像生成部41はカメラ6から画像データPを入力しており、画像データPのうち要警戒範囲31以外の領域、すなわち警戒不要範囲32を不感領域33として、不感領域33では画像データPの情報は削除されている。不感領域33は前述したマスク領域と同じ機能を持つ。ここでは、不感領域33は全て黒い画素(画素値ゼロ)で構成する(なお、図面の都合上、図15では、黒い画素を網掛けで示している)。
Next, the operation of the second embodiment will be described using the flowchart of FIG. Steps S1 to S8 shown in FIG. 14 are the same as those in the first embodiment, and thus description thereof is omitted. In step S8, a
これにより、図15に示すような要警戒範囲画像P1が生成される(ステップS10)。この要警戒範囲画像P1には障害物として作業員Mが含まれている。要警戒範囲画像P1は画像データPとX方向およびY方向に同じ画素数を有しており、要警戒範囲31の部分には画像データPが表示されるが、不感領域33の部分には黒い画素が表示されているだけになる。不感領域33の黒い画素は、換言すればマスクであり、画像データPのうちマスクされていない領域が要警戒範囲31となる。同図に示されるように、要警戒範囲31に多数の凹凸部Rが存在し、また障害物として作業員Mが存在している。このような要警戒範囲画像P1は障害物検出部42に出力される。
As a result, a warning area image P1 as shown in FIG. 15 is generated (step S10). The warning area image P1 includes a worker M as an obstacle. The alert range image P1 has the same number of pixels as the image data P in the X and Y directions, and the image data P is displayed in the portion of the
障害物検出部42は要警戒範囲画像P1から障害物を検出する(ステップS11)。障害物を検出するために任意の手法を用いることができるが、ここではブロックマッチング手法を用いた場合を説明する。図16はブロックマッチング手法を用いた移動体の検出手法の一例を示している。障害物検出部42は、過去の要警戒範囲画像P1を記憶しており、最新の要警戒範囲画像P1と過去の要警戒範囲画像P1との比較を行う。ここでは、カメラ6の撮影周期の1周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1としている。
The
図16の例では、X方向に4画素、Y方向に4画素の合計16画素を注目領域A1とする。勿論、注目領域A1は16画素以外の画素数を採用してもよい。そして、注目領域A1を中心として、X方向に8画素、Y方向に8画素の合計64画素を検索範囲A2とする。勿論、検索範囲A2の画素数も任意に設定することができる。 In the example of FIG. 16, a total of 16 pixels of 4 pixels in the X direction and 4 pixels in the Y direction are set as the attention area A1. Of course, the attention area A1 may employ a number of pixels other than 16 pixels. A total of 64 pixels, with 8 pixels in the X direction and 8 pixels in the Y direction, centered on the attention area A1, is set as the search range A2. Of course, the number of pixels in the search range A2 can be arbitrarily set.
障害物検出部42は、検索範囲A2を画像データPの所定位置、例えばX方向およびY方向の端部に設定する。そして、検索範囲A2の中を検索する。検索範囲A2の中の検索手法について図17を用いて説明する。検索範囲A2の中に比較領域A3を設定する。比較領域A3は注目領域A1と同じくX方向に4画素、Y方向に4画素の合計16画素を有している。そして、比較領域A3をX方向およびY方向の端部に設定する。
The
障害物検出部42は、過去の要警戒範囲画像P1における注目領域A1と最新の要警戒範囲画像P1における比較領域A3との対応する画素間の画素値の差分の演算を行う。注目領域A1と比較領域A3とは共に、X方向に4画素、Y方向に4画素により構成されており、注目領域A1の1つの画素と比較領域A3の1つの画素とは1:1で対応している。そこで、前述したように、対応する画素間の画素値の差分演算を行う。この演算を行うことにより、16画素分の差分値を得ることができる。そして、16画素分の差分値をそれぞれ二乗して、二乗した16個の差分値を加算する演算を行う。この演算を行うことにより得られる値を加算値とする。
The
障害物検出部42は、前記の加算値が所定の閾値以下であるか否かを判定する。このときの閾値は注目領域A1と比較領域A3とが同一であるとみなせるか否かを判定できる値とする。障害物検出部42は、前記の加算値が所定の閾値以下であるときには、過去の注目領域A1と最新の比較領域A3とが一致しているものと判定する。一方、それ以外の場合は、過去の注目領域A1と最新の比較領域A3とは一致していないと判定する。
The
過去の注目領域A1と最新の比較領域A3とが一致しており、且つ両者が検索範囲A2の中で完全に一致していなければ、注目領域A1が検索範囲A2の中で移動していることを認識することができる。図17に示すように、比較領域A3をX方向に1画素ずつずらして比較を行う。これをX方向の検索(スキャン)とする。X方向のスキャンが完了したときには、次に、比較領域A3をY方向に1画素ずらして、再びX方向のスキャンを行う。Y方向に1画素ずらしてX方向のスキャンを行うことをY方向のスキャンとする。従って、X方向およびY方向にスキャンが行なわれることになる。このスキャンの手法を3次元的に示したのが図18である。 If the past attention area A1 and the latest comparison area A3 match and if they do not completely match within the search area A2, the attention area A1 moves within the search area A2. Can be recognized. As shown in FIG. 17, the comparison is performed by shifting the comparison area A3 by one pixel in the X direction. This is a search (scan) in the X direction. When scanning in the X direction is completed, the comparison area A3 is then shifted by one pixel in the Y direction, and scanning in the X direction is performed again. Scanning in the X direction by shifting one pixel in the Y direction is referred to as scanning in the Y direction. Therefore, scanning is performed in the X direction and the Y direction. FIG. 18 shows this scanning method three-dimensionally.
X方向およびY方向のスキャンは、過去の注目領域A1と最新の比較領域A3とが一致することが検出されるまで行われる。従って、過去の注目領域A1と最新の比較領域A3とが一致していることが検出されれば、その時点でスキャンを終了する。一方、X方向およびY方向の全てのスキャンが完了した時点で、一致している過去の注目領域A1と最新の比較領域A3とが検出されなければ、検索範囲A2の中には移動体(障害物:作業員M)が存在していないことが認識される。 The scanning in the X direction and the Y direction is performed until it is detected that the past attention area A1 matches the latest comparison area A3. Therefore, if it is detected that the past attention area A1 matches the latest comparison area A3, the scanning is terminated at that time. On the other hand, if the matching past attention area A1 and the latest comparison area A3 are not detected at the time when all the scans in the X direction and the Y direction are completed, a moving object (failure) is included in the search range A2. Object: It is recognized that no worker M) exists.
検索範囲A2は、過去の要警戒範囲画像P1が取得された時点から最新の要警戒範囲画像P1が取得されるまでの間に、作業員Mが通常に歩行したときに移動可能な限界範囲を基準として決定する。前述したように、過去の要警戒範囲画像P1は最新の要警戒範囲画像P1の1周期前の画像である。従って、カメラ6の撮影周期の1周期の間に作業員Mが通常に歩行したときの限界量を基準として検索範囲A2を設定する。
The search range A2 is a limit range that can be moved when the worker M normally walks from the time when the previous alert range image P1 is acquired until the latest alert range image P1 is obtained. Determine as a reference. As described above, the past alert range image P1 is an image one cycle before the latest alert range image P1. Therefore, the search range A2 is set based on the limit amount when the worker M normally walks during one shooting period of the
ところで、カメラ6には、撮影周期が高速な場合と低速な場合とがある。このとき、カメラ6の撮影周期が高速である場合には、作業員Mが移動していたとしても、殆ど移動していないように認識される。一方、撮影周期が低速である場合には、作業員Mが低速に移動していたとしても、高速に移動しているように認識される。そこで、カメラ6の撮影周期が高速な場合には、比較的過去の複数周期前の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。一方、カメラ6の撮影周期が低速な場合には、比較的直近(例えば、1周期前)の要警戒範囲画像P1を過去の要警戒範囲画像P1とする。
By the way, the
障害物検出部42は、要警戒範囲画像P1の全画素について検索範囲A2による検索が行われるようにする。従って、検索範囲A2がX方向およびY方向の端部にあるときに、その検索が完了すると、次に検索範囲A2のX方向の画素分(8画素)だけX方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1のX方向の全ての画素について検索が終了したときに、検索範囲A2をY方向の画素分(8画素)だけY方向にシフトさせて、再び同様の検索を行う。そして、要警戒範囲画像P1の全画素について検索範囲A2の中の検索が行われるようにする。
The
ここで、図16にも示しているように、要警戒範囲画像P1は障害物を検出する要警戒範囲31と不感領域33とに区別されている。障害物検出部42は要警戒範囲画像P1の中の不感領域33を認識している。つまり、不感領域33に含まれる画素を認識している。よって、障害物検出部42は検索範囲A2による検索を行うときに、不感領域33を除外して行う。これにより、要警戒範囲31に限定して障害物としての作業員Mを検出することができる。そして、障害物検出部42は、検出された障害物としての作業員Mの情報を表示画像作成部28に出力する。
Here, as shown in FIG. 16, the warning area image P <b> 1 is divided into a
表示画像作成部28はカメラ6から画像データPを入力しており、且つ障害物検出部42より障害物としての作業員Mの情報を入力している。従って、表示画像作成部28は画像データPの要警戒範囲31の中での作業員Mを認識している。表示画像作成部28は障害物を明示的に表示するために、作業員Mの周囲に障害物マーキング表示M1を重畳している。ここでは、障害物マーキング表示M1は作業員Mの周囲に形成される外接矩形となっているが、勿論矩形でなくてもよい。
The display
障害物マーキング表示M1が重畳された画像データPを図19に示す。この画像データPが表示画像となり、モニタ9に出力される。そして、同図に示されるように、障害物としての作業員Mの周囲に障害物マーキング表示M1が重畳されていることで、オペレータは障害物マーキング表示M1に基づいて作業員Mの存在を一見して認識することができる。なお、図19で要警戒範囲31を仮想線で示しているが、この範囲内でのみ障害物の検出が行われたことを示している。モニタ9には基本的に要警戒範囲31は表示されないが、表示されるようにしてもよい。
FIG. 19 shows the image data P on which the obstacle marking display M1 is superimposed. This image data P becomes a display image and is output to the
ところで、カメラ6で取得したカメラ画像を画像処理により視点変換して、俯瞰画像化することにより周囲監視を行うようになし、この周囲監視画像をモニタ9に表示する構成は、従来から知られている。即ち、図29に示したように、所定の高さ位置にカメラ6を配置して、角度αをもって斜め下方に対物レンズの光軸CAを向けた状態で撮影すると、スルー画像Pが得られる。この角度θを持ったスルー画像Pから、同図に仮想線で示したように、仮想視点VFからスルー画像Pに対して光軸VAが垂直になるように座標変換した画像が作成される。これによって、角度αをもった斜め上方からのカメラ画像を平面視した俯瞰画像とすることができる。(なお、画像データPはスルー画像であり、このスルー画像のデータを上方視点となるように視点変換した画像は俯瞰画像である。従って、ここでは、俯瞰画像と区別するために、カメラ6から取得した画像データをスルー画像Pという。)
By the way, the viewpoint of the surroundings is monitored by converting the viewpoint of the camera image acquired by the
前述した各実施形態においてはカメラ6で取得したカメラ画像(スルー画像)を表示するようにしているが、このカメラ画像から信号処理を行って俯瞰画像化してモニタ9に表示することもできる。即ち、図30(a)に示したように、スルー画像Pを上方視点となる視点変換処理が行われる。
In each of the embodiments described above, a camera image (through image) acquired by the
そして、図30(b)に示したように、ダンプトラック1に、その前部位置と、左右の両側位置と、後部位置との4箇所にそれぞれカメラを設置して、このダンプトラック1の周囲のカメラ画像を取得し、これらのカメラ画像を俯瞰画像化処理して、モニタ9に表示するに当って、ダンプトラック1の前部側カメラ,左右の両側部側カメラ及び後部側カメラについて、それぞれ各画像領域SPF,SPL,SPR,SPBにおける各俯瞰画像を取得して、モニタ9に表示することができる。なお、図30(a)には前部側カメラによる画像領域SPFが示されている。この表示の際には、ダンプトラック1を平面形状としたアイコン画像Qをモニタ9の画面の中央に配置し、このアイコン画像Qの周囲4方向に各画像領域SPF,SPL,SPR,SPBにそれぞれ対応する俯瞰画像を表示する。
Then, as shown in FIG. 30 (b), the
このように、アイコン画像Qを中心として、その周囲に合成して周囲の状況の俯瞰画像を表示することによって、ダンプトラック1の周囲全体を俯瞰するようにして表示される監視画像が得られる。しかも、この監視画像は作業員Mを示す障害物マーキング表示M1を図30(a)のスルー画像Pと同様に表示することができ、さらに俯瞰画像のため、ダンプトラック1との相対的な位置も把握できる表示態様とすることができる。
In this way, by superimposing the icon image Q around the icon image Q and displaying the bird's eye view of the surrounding situation, a monitoring image displayed so as to look down on the entire periphery of the
次に、ダンプトラック1に設置しているカメラ6の視野範囲6Aにずれを生じた場合について説明する。前述したように、ダンプトラック1の振動によりカメラ6の視野範囲6Aにずれを生じる場合がある。そこで、視野範囲6Aにずれを生じているか否かを判定する。ただし、視野範囲6Aのずれには許容範囲があり、ずれ量が許容範囲を超過したときにずれが生じていると判定し、許容範囲内であればずれが生じていないと判定する。
Next, a case where a shift occurs in the
図13に示したように、要警戒範囲設定部26から要警戒範囲31の情報がマスク画像生成部43に入力される。マスク画像生成部43は画像データPと要警戒範囲31とに基づいてマスク画像を生成する(ステップS12)。マスク画像は、図20に示すように、画像データPのうち要警戒範囲31を白い画素(画素値256)で構成し、警戒不要範囲32を黒い画素(画素値ゼロ)で構成する。
As shown in FIG. 13, information on the
マスク画像生成部43は過去(例えば、1周期前)の画像データPおよび要警戒範囲31の情報を保持しており、過去のマスク画像を保持している。そして、最新の画像データPおよび要警戒範囲31の情報が入力されたときに、最新のマスク画像を生成する。マスク画像生成部43は過去のマスク画像および最新のマスク画像をずれ判定部44に出力する。
The mask
ずれ判定部44は、入力した過去のマスク画像と最新のマスク画像とに基づいてずれ量を算出し、算出されたずれ量に基づいて視野範囲6Aのずれが許容範囲内であるか否かを判定する(ステップS13)。このために、ずれ判定部44は過去のマスク画像と最新のマスク画像との画素の差分を演算する。
The
過去のマスク画像と最新のマスク画像とで要警戒範囲31が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。また、過去のマスク画像と最新のマスク画像とで警戒不要範囲32が重複している画素の差分を演算すると、画素値はゼロになる。つまり、画素は黒くなる。一方、要警戒範囲31と警戒不要範囲32とが重複している画素の差分を演算すると、演算結果の絶対値は256になる。つまり、画素は白くなる。図20の差分画像P2は、この差分の演算を行った結果の画像になる。
When the difference between the pixels where the
視野範囲6Aにずれを生じている場合、差分画像P2に白い画素が生じる。この白い画素の画素数がずれ量を示す。つまり、視野範囲6Aに全くずれを生じていなければ、過去のマスク画像と最新のマスク画像とは完全に一致するため、要警戒範囲31と警戒不要範囲32とが重複する画素は存在しなくなる。このため、白い画素は存在しなくなる。一方、視野範囲6Aにずれを生じれば、要警戒範囲31と警戒不要範囲32とが重複している部分が存在するため、当該部分の画素は白い画素となる。
When there is a shift in the
ずれ判定部44には所定の画素数が閾値として設定されており、差分画像P2の白い画素の画素数と閾値とを比較する。この閾値は視野範囲6Aのずれの許容範囲を示している。この許容範囲は任意に設定することができ、例えばオペレータの視認性に影響を与える程度のずれを許容範囲として設定することができる。そして、ずれ判定部44は、白い画素の画素数と閾値とを比較した結果、白い画素の画素数が閾値未満であれば、視野範囲6Aにずれを生じていないと判定する。一方、白い画素の画素数が閾値以上であれば、視野範囲6Aにずれを生じていると判定する。
A predetermined number of pixels is set as a threshold in the
ずれ判定部44は、ずれを生じているか否かの情報を表示画像作成部28に出力する。表示画像作成部28は、ずれ判定部44からずれを生じている旨の情報を入力したときに、ずれ情報Gを画像データPに表示する。図21はずれ情報Gが重畳された画像データPの一例を示している。ずれ情報Gは画像データPの角隅部に表示されており、カメラ6にずれが生じていることを視覚的に認識させるマークになっている。
The
ずれ情報Gは、カメラ6に許容範囲以上のずれが発生していることをオペレータに認識させる報知手段であり、オペレータはモニタ9に表示されているずれ情報Gに基づいて、許容範囲以上のずれを認識することができる。これを認識したオペレータは、カメラ6を正常な位置に戻すことができ、視野範囲6Aのずれを解消することができる。または、オペレータがメンテナンス要員等に連絡をすることにより、メンテナンス要員等がカメラ6を正常な位置に戻すことができる。
The deviation information G is a notification means that allows the operator to recognize that the
前述したように、視野範囲6Aにずれを生じたとしても、画像データPの中で前方構造物10と要警戒範囲31との相対位置関係は一定であるため、要警戒範囲31は常に正しく設定される。図22(a)は、エッジ抽出部23が画像データPに対してエッジ抽出処理を行い、エッジ画素が抽出された画像データPを示している。そして、構造物エッジ判定部24はハフ変換等の手法を用いて、画像データPから直線の抽出を行う。図22(b)は画像データPから直線が抽出された状態を示している。
As described above, even if a deviation occurs in the
前述した第1の実施形態では、視野範囲6Aにずれを生じていなかったため、構造物エッジ判定部24はX方向およびY方向の直線を検出していた。しかし、本実施形態では、視野範囲6Aに傾きのずれを生じているため、画像データPの中の前方構造物10にも傾きを生じている。そこで、本実施形態の構造物エッジ判定部24はX方向およびY方向から所定角度傾斜している直線も抽出する。つまり、所定角度を傾斜角θとし、抽出された直線のうち傾斜角θの範囲内の直線を抽出する。
In the first embodiment described above, since there is no shift in the
そして、X方向から傾斜角θの範囲内で傾斜した直線のうち、最も長い直線を前方構造物10のX方向の直線が傾斜したものとして判定する。ここでは、直線L5が最も長い直線となる。次に、直線L5を画像データPの両端まで延長した直線よりも下端(画像データPのうち最もダンプトラック1に近接している端部)側で検出された直線のうちY方向からの傾斜角θの範囲内の直線を抽出する。ここでは、直線L7およびL8が抽出される。そして、直線L7およびL8を延長する。これにより、図22(b)に示したように、直線L5と直線L7、L8との4つの交点C5乃至C8が検出される。これら交点C5乃至C8がエッジ線分データとなる。
Then, the longest straight line among the straight lines inclined within the range of the inclination angle θ from the X direction is determined as the inclined straight line in the X direction of the
図23(a)は、エッジ線分データに基づいて、要警戒範囲31が設定されている状態を示している。視野範囲6Aに傾き方向のずれを生じていることから、要警戒範囲31も傾きを生じている。同時に、警戒不要範囲32も傾きを生じている。ただし、要警戒範囲31は全て画像データPの中に含まれている。そして、図23(a)の画像データPに対して歪み復元処理を行った画像が図23(b)に示す画像データPになる。図23(b)に示す画像データPが要警戒範囲画像生成部41に出力され、図24に示すような要警戒範囲画像が生成される。この要警戒範囲画像が障害物検出部42に出力され、障害物検出部42により作業員Mが障害物として検出される。
FIG. 23A shows a state in which the
従って、ダンプトラック1の振動により、視野範囲6Aにずれを生じたとしても、要警戒範囲31を再び設定する必要はなく、前方構造物10に基づいて正しい要警戒範囲31が設定される。これにより、視野範囲6Aにずれを生じたとしても、要警戒範囲31に限定して障害物の検出を行うことができる。ただし、視野範囲6Aに傾きのずれを生じることで、オペレータの視認性は低下する。このような場合には、カメラ6の位置の修正を行い、傾きのずれを解消するようにしてもよい。
Therefore, even if the
C:本発明の第3の実施形態
次に、第3の実施形態について説明する。本実施形態では、ダンプトラック1の走行速度に応じて、要警戒範囲31を変化させている。ダンプトラック1が停止状態の場合と低速に走行している場合と高速に走行している場合とでは、障害物を警戒すべき範囲も変化する。ダンプトラック1が停止状態のときには、それほど広範な範囲を要警戒範囲31とする必要がないが、ある程度の速度で走行しているときには、広範な範囲を要警戒範囲31とする必要がある。C: Third Embodiment of the Invention Next, a third embodiment will be described. In the present embodiment, the
そこで、図25に示すように、本実施形態では、第2の実施形態に走行速度検出部45を追加している。ダンプトラック1には走行速度を検出する手段が備えられており、検出した走行速度を要警戒範囲設定部26に出力している。要警戒範囲設定部26は入力した走行速度の情報に基づいて、要警戒範囲31の大きさを変化させている。
Therefore, as shown in FIG. 25, in this embodiment, a traveling
ここで、ダンプトラック1が停止している場合、低速または高速に走行している場合の何れの場合であっても、前方構造物10と要警戒範囲31との相対位置関係は一定である。よって、要警戒範囲31は走行速度を基準として、所定の範囲を要警戒範囲31とすることができる。具体的には、図31に示したように、要警戒範囲31の大きさを停止域から微速域における要警戒範囲311と、低速走行時の要警戒範囲312と、高速走行時の要警戒範囲313となるように変化させることができる。ここで、微速域は走行停止操作を行ったときには、ほぼその位置でダンプトラック1が停止する程度の速度である。なお、前述したダンプトラック1の作動時における要警戒範囲は警戒を必要とする範囲であり、モニタ9における画像表示範囲ではない。
Here, regardless of whether the
D:本発明の第4の実施形態
第1の実施形態、第2の実施形態および第3の実施形態では、自走式産業機械としてダンプトラック1を適用したが、第4の実施形態では、自走式産業機械として油圧ショベルを適用している。ここでは、油圧ショベルにカメラ6を設置して、当該油圧ショベルの後方構造物50を抽出し、後方構造物50に基づいて要警戒範囲31を設定する場合を説明する。D: Fourth Embodiment of the Invention In the first embodiment, the second embodiment, and the third embodiment, the
図26は、歪み補正部21により歪み補正処理がされた画像データPを示している。油圧ショベルの後方構造物50は丸みを帯びているものが多く、画像データPの中の後方構造物50と背景との境界は所定の曲率半径で曲線性を有している。油圧ショベルの後方構造物50は背景色とは明確に異なる色に着色されている。従って、後方構造物50の輝度値と背景の輝度値とは大きく異なることになる。そこで、本実施形態では、画像データPの全画素について所定の輝度値(閾値)以上の輝度値を持つ画素を抽出する。なお、このときの閾値は、後方構造物50に着色された色を抽出できるような輝度値に設定する。
FIG. 26 shows the image data P that has been subjected to distortion correction processing by the
これにより、画像データPは閾値を境界にして二値化され、図27に示すように、後方構造物50を構成する画素が抽出される。ただし、後方構造物50以外にも、凹凸部Rの中に閾値以上の輝度値を有するエッジ画素が存在することもある。そこで、抽出された画素のうち画面下端に接触している画素の領域を後方構造物50として判定する。これにより、画像データPの中で後方構造物50が特定される。
As a result, the image data P is binarized with the threshold as a boundary, and the pixels constituting the
図28はモニタ9に表示されている表示画像の一例を示している。後方構造物50と要警戒範囲51との相対位置関係は一定であり、画像データPの中で後方構造物50を特定することで、仮想線で示す要警戒範囲51も設定される。そして、要警戒範囲51に限定して作業員Mを障害物として検出するができる。なお、同図は、視野範囲に傾きを生じている場合を示しており、このため画面全体が傾いて表示される。そして、ずれ情報Gが画像データPに重畳される。
FIG. 28 shows an example of a display image displayed on the
本実施形態では、二値化により後方構造物50を特定していたため、前述してきた平滑化処理部22、エッジ抽出部23、構造物エッジ判定部24、エッジ線分データ確定部25による各処理は不要である。ただし、所定の曲線性を有する後方構造物50を検出できるのであれば、これら各部の処理により後方構造物50を特定してもよい。また、前述してきた実施形態、つまりダンプトラック1において、前方構造物10を特定するときに、本実施形態のように二値化の手法を用いてもよい。
In this embodiment, since the
なお、前述した各実施形態において、モニタ9に表示される画像はカメラ画像そのものであっても良く、また図29の原理に基づいて視点変換処理を行って俯瞰画像として表示することもできる。
In each of the embodiments described above, the image displayed on the
1 ダンプトラック
6 カメラ
6A 視野範囲
8 画像処理装置
9 モニタ
10 前方構造物
21 歪み補正部
22 平滑化処理部
23 エッジ抽出部
24 構造物エッジ判定部
25 エッジ線分データ確定部
26 要警戒範囲設定部
27 歪み復元部
28 表示画像作成部
31,311,312,313 要警戒範囲
32 警戒不要範囲
33 不感領域
41 要警戒範囲画像生成部
42 障害物検出部
43 マスク画像生成部
44 ずれ判定部
45 走行速度検出部
G ずれ情報
M 作業員
M1 障害物マーキング表示
P 画像データ(スルー画像)
P1 要警戒範囲画像
SPF,SPL,SPR,SPB 画像領域DESCRIPTION OF
P1 Alert range image SPF, SPL, SPR, SPB Image area
Claims (6)
前記撮影部(9)が撮影した画像データに基づいて、この画像データの中の前記構造物(10)を検出する構造物検出部(25)と、
前記画像データのうち、周辺領域内に位置する障害物(M)を検出し、この障害物(M)が含まれる所定の範囲を要警戒範囲(31,311,312,313)として、この要警戒範囲(31,311,312,313)を前記構造物検出部(25)が検出した前記構造物(10)に基づいて前記画像データの中に設定する要警戒範囲設定部(26)と、
を備えた自走式産業機械の画像処理装置。A photographing unit (9) provided in the self-propelled industrial machine (1) for photographing a peripheral region including a part of the structure (10) constituting the self-propelled industrial machine (1) in the field of view;
A structure detection unit (25) for detecting the structure (10) in the image data based on the image data captured by the imaging unit (9);
Among the image data, an obstacle (M) located in the peripheral area is detected, and a predetermined range including the obstacle (M) is set as a warning area (31, 311, 312, 313). A warning range setting unit (26) that sets a warning range (31, 311, 312, 313) in the image data based on the structure (10) detected by the structure detection unit (25);
A self-propelled industrial machine image processing device equipped with
請求項1記載の自走式産業機械の画像処理装置。The obstacle detection part (42) which performs the process which detects the said obstruction (M) only to the said vigilance range (31,311,312,313) in the said image data is provided. Image processing device for self-propelled industrial machines.
請求項2記載の自走式産業機械の画像処理装置。In the image data, a range other than the alert range (31, 311, 312, 313) is set as an alert unnecessary range (32), and a difference between pixel values of each pixel in the alert unnecessary range (32) that is temporally changed. A shift determination that determines whether or not a shift exceeding the allowable range has occurred in the field of view of the photographing unit (9) based on the number of pixels having a pixel value difference equal to or greater than a predetermined threshold. The image processing device for a self-propelled industrial machine according to claim 2, further comprising a section (44).
請求項2記載の自走式産業機械の画像処理装置。The self-propelled industrial machine (1) includes a travel speed detection unit (45) that detects a travel speed, and the warning range (31, 311, 311, 11) is based on the travel speed detected by the travel speed detection unit (45). The image processing device for a self-propelled industrial machine according to claim 2.
前記撮影部(9)が撮影した画像データに基づいて、この画像データの中の前記構造物(10)を検出し、
前記画像データのうちの周辺領域内に位置する障害物(M)を検出し、
この障害物(M)を含む所定の範囲を要警戒範囲(31,311,312,313)として、この要警戒範囲(31,311,312,313)を前記構造物検出部(25)が検出した前記構造物(10)に基づいて前記画像データの中に設定し、
前記画像データの中の前記要警戒範囲(31,311,312,313)のみに対して前記障害物(M)を検出する処理を行う
自走式産業機械の画像処理方法。The self-propelled industrial machine (1) is provided with a photographing unit (9), and the surrounding area including a part of the structure of the self-propelled industrial machine (1) is photographed.
Based on the image data photographed by the photographing unit (9), the structure (10) in the image data is detected,
Detecting an obstacle (M) located in a peripheral region of the image data;
A predetermined range including the obstacle (M) is set as a warning area (31, 311, 312, 313), and the structure detection unit (25) detects the area requiring warning (31, 311, 312, 313). Set in the image data based on the structure (10)
An image processing method for a self-propelled industrial machine that performs a process of detecting the obstacle (M) only for the alert range (31, 311, 312, 313) in the image data.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012246190 | 2012-11-08 | ||
JP2012246190 | 2012-11-08 | ||
PCT/JP2013/080022 WO2014073571A1 (en) | 2012-11-08 | 2013-11-06 | Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014073571A1 true JPWO2014073571A1 (en) | 2016-09-08 |
JP6072064B2 JP6072064B2 (en) | 2017-02-01 |
Family
ID=50684673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014545734A Active JP6072064B2 (en) | 2012-11-08 | 2013-11-06 | Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6072064B2 (en) |
WO (1) | WO2014073571A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10465362B2 (en) * | 2014-06-03 | 2019-11-05 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
US11120558B2 (en) | 2017-03-10 | 2021-09-14 | Tadano Ltd. | Human detection system for work vehicle, and work vehicle equipped with same |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3154025B1 (en) * | 2014-06-03 | 2021-10-13 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
JP6420657B2 (en) * | 2014-12-17 | 2018-11-07 | 日立建機株式会社 | Work machine and surrounding monitoring device |
JP6456173B2 (en) | 2015-02-04 | 2019-01-23 | 日立建機株式会社 | Vehicle outside moving object detection device |
JP2017030688A (en) * | 2015-08-06 | 2017-02-09 | 日立建機株式会社 | Periphery monitoring device of work machine |
JP6572156B2 (en) * | 2016-03-02 | 2019-09-04 | 株式会社神戸製鋼所 | Construction equipment interference prevention device |
JP6868996B2 (en) * | 2016-10-13 | 2021-05-12 | 日立建機株式会社 | Obstacle detection system and construction machinery |
JP6926020B2 (en) * | 2018-03-29 | 2021-08-25 | ヤンマーパワーテクノロジー株式会社 | Obstacle detection system |
JP7396987B2 (en) | 2018-07-31 | 2023-12-12 | 住友建機株式会社 | excavator |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008027309A (en) * | 2006-07-24 | 2008-02-07 | Sumitomo Electric Ind Ltd | Collision determination system and collision determination method |
JP2008108135A (en) * | 2006-10-26 | 2008-05-08 | Sumitomo Electric Ind Ltd | Obstacle detection system and obstacle detection method |
JP2009086788A (en) * | 2007-09-28 | 2009-04-23 | Hitachi Ltd | Vehicle surrounding monitoring device |
JP2010183294A (en) * | 2009-02-04 | 2010-08-19 | Aisin Seiki Co Ltd | Image processing apparatus, method of processing image, and program |
JP2012212357A (en) * | 2011-03-31 | 2012-11-01 | Panasonic Corp | On-vehicle display device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06301782A (en) * | 1993-04-16 | 1994-10-28 | N T T Data Tsushin Kk | Monitor device |
JP4694032B2 (en) * | 2001-05-02 | 2011-06-01 | 株式会社小松製作所 | Work machine display |
JP4996928B2 (en) * | 2007-01-05 | 2012-08-08 | 日立建機株式会社 | Work machine ambient monitoring device |
JP4847913B2 (en) * | 2007-03-30 | 2011-12-28 | 日立建機株式会社 | Work machine periphery monitoring device |
JP2009193494A (en) * | 2008-02-18 | 2009-08-27 | Shimizu Corp | Warning system |
JP5227841B2 (en) * | 2009-02-27 | 2013-07-03 | 日立建機株式会社 | Ambient monitoring device |
JP5287392B2 (en) * | 2009-03-17 | 2013-09-11 | トヨタ自動車株式会社 | Object identification device |
-
2013
- 2013-11-06 WO PCT/JP2013/080022 patent/WO2014073571A1/en active Application Filing
- 2013-11-06 JP JP2014545734A patent/JP6072064B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008027309A (en) * | 2006-07-24 | 2008-02-07 | Sumitomo Electric Ind Ltd | Collision determination system and collision determination method |
JP2008108135A (en) * | 2006-10-26 | 2008-05-08 | Sumitomo Electric Ind Ltd | Obstacle detection system and obstacle detection method |
JP2009086788A (en) * | 2007-09-28 | 2009-04-23 | Hitachi Ltd | Vehicle surrounding monitoring device |
JP2010183294A (en) * | 2009-02-04 | 2010-08-19 | Aisin Seiki Co Ltd | Image processing apparatus, method of processing image, and program |
JP2012212357A (en) * | 2011-03-31 | 2012-11-01 | Panasonic Corp | On-vehicle display device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10465362B2 (en) * | 2014-06-03 | 2019-11-05 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
US11120558B2 (en) | 2017-03-10 | 2021-09-14 | Tadano Ltd. | Human detection system for work vehicle, and work vehicle equipped with same |
Also Published As
Publication number | Publication date |
---|---|
WO2014073571A1 (en) | 2014-05-15 |
JP6072064B2 (en) | 2017-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6072064B2 (en) | Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine | |
KR101448411B1 (en) | Three-dimensional object detection device and three -dimensional object detection method | |
JP5995899B2 (en) | Self-propelled industrial machine image processing device | |
JP6126094B2 (en) | In-vehicle image recognition device | |
WO2018225446A1 (en) | Map points-of-change detection device | |
JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
JP3780922B2 (en) | Road white line recognition device | |
JP5902990B2 (en) | Self-propelled industrial machine image processing device | |
KR101464489B1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
JP6542539B2 (en) | Vehicle accessibility determination device | |
JP2010539740A (en) | Runway monitoring system and method | |
JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
WO2016076449A1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
JP2010218226A (en) | Measurement map generation device and traveling environment confirmation device | |
JP2019003606A (en) | Map change point detection device | |
JP2011100174A (en) | Apparatus and method for detecting vehicle on lane | |
JP2020060550A (en) | Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system | |
JP5955404B2 (en) | Distance measuring device and vehicle using the same | |
JP2019049918A (en) | Obstacle detection system for heavy equipment | |
JP2007280387A (en) | Method and device for detecting object movement | |
JP6088944B2 (en) | Work machine ambient monitoring device | |
JP7280852B2 (en) | Person detection system, person detection program, trained model generation program and trained model | |
JP2009038558A (en) | Correction apparatus for monitor camera | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
JP3532896B2 (en) | Smear detection method and image processing apparatus using the smear detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6072064 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |