JP2015210661A - Road surface estimation apparatus for mine work vehicle and road surface estimation system - Google Patents

Road surface estimation apparatus for mine work vehicle and road surface estimation system Download PDF

Info

Publication number
JP2015210661A
JP2015210661A JP2014091763A JP2014091763A JP2015210661A JP 2015210661 A JP2015210661 A JP 2015210661A JP 2014091763 A JP2014091763 A JP 2014091763A JP 2014091763 A JP2014091763 A JP 2014091763A JP 2015210661 A JP2015210661 A JP 2015210661A
Authority
JP
Japan
Prior art keywords
road surface
road
image information
shoulder
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014091763A
Other languages
Japanese (ja)
Inventor
佑介 日永田
Yusuke Hieta
佑介 日永田
幸彦 小野
Yukihiko Ono
幸彦 小野
渡邊 淳
Atsushi Watanabe
淳 渡邊
石本 英史
Hidefumi Ishimoto
英史 石本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2014091763A priority Critical patent/JP2015210661A/en
Priority to PCT/JP2015/057169 priority patent/WO2015163028A1/en
Publication of JP2015210661A publication Critical patent/JP2015210661A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a road surface estimation system for mine work vehicle capable of properly detecting road surface under off load environment.SOLUTION: The road surface estimation system includes: a wide road position estimation section 14 that estimates a plane area D1 in a piece of three-dimensional image information based on a piece of distance information in the three-dimensional image information; a road shoulder detection section 15 that detects the position of a road shoulder S in the three-dimensional image based on the plane area D1 estimated by the wide road position estimation section 14; and a road surface area estimation section 16 that estimates a road surface area D2 including the road shoulder S in the three-dimensional image as the boundary based on the position of the road shoulder S detected by the road shoulder detection section 15.

Description

本発明は、例えばオフロードダンプトラック等の鉱山用作業車両用の路面推定装置およびそれを備えた路面推定システムに関する。   The present invention relates to a road surface estimation apparatus for a mining work vehicle such as an off-road dump truck and a road surface estimation system including the same.

一般に、鉱山においては、土砂の採掘作業および運搬作業として油圧ショベルやダンプトラックなどの建設機械が用いられている。鉱山に用いられる建設機械としては、安全性や低コスト化の観点から無人化が求められる。ダンプトラックにおいては、単位時間当たりの土砂の運搬量が採掘の進捗度に直結するため、効率の良い運用が求められる。したがって、土砂を効率良く採掘現場の外に大量に運搬するためには、連続運転可能な自律走行式のダンプトラックを用いた鉱山システムが必要とされている。   Generally, in mines, construction machines such as hydraulic excavators and dump trucks are used for mining and transporting earth and sand. Construction machinery used in mines is required to be unmanned from the viewpoint of safety and cost reduction. In dump trucks, since the amount of earth and sand transported per unit time is directly linked to the progress of mining, efficient operation is required. Therefore, in order to efficiently transport a large amount of earth and sand outside the mining site, a mining system using an autonomously traveling dump truck capable of continuous operation is required.

ところが、ダンプトラックを走行させる鉱山の走行路はオフロードであって悪路が多いため、ダンプトラックを自律走行させて無人運転させることにより、他車両等の障害物との衝突が懸念される。仮に、走行路上に障害物が生じ、自律走行式の無人のダンプトラックが障害物と接触して停止した場合には、鉱山の運行を長時間に亘って停止させてしまう。よって、自律走行式のダンプトラックの信頼性を高めるためには、前方車両や走行路上の障害物を早期に検知して、前方車両の追従走行や障害物の回避走行を行わせることが可能な信頼性の高い障害物検知装置が必要となる。   However, since the mine traveling road where the dump truck travels is off-road and there are many bad roads, there is a concern about collision with obstacles such as other vehicles by allowing the dump truck to travel autonomously and drive it unattended. If an obstacle occurs on the traveling road and an autonomous traveling unmanned dump truck comes into contact with the obstacle and stops, the operation of the mine is stopped for a long time. Therefore, in order to improve the reliability of the autonomously traveling dump truck, it is possible to detect obstacles on the front vehicle and the traveling road at an early stage and to follow the front vehicle and avoid obstacles. A highly reliable obstacle detection device is required.

従来、この種の障害物検知装置としては、2台のステレオカメラを用いた構成が、例えば特許文献1に開示されている。この特許文献1は、2台のステレオカメラにて撮像した画像から特徴抽出部にて道路上の白線を抽出するとともに、抽出した白線から障害物領域であるか否かを差異検出部にて検出する。そして、差異検出部の検出結果から障害物の高さを算出し、真の障害物領域を高さ計算部にて検出する構成としている。   Conventionally, as this kind of obstacle detection device, a configuration using two stereo cameras is disclosed in Patent Document 1, for example. In Patent Document 1, a white line on a road is extracted from an image captured by two stereo cameras by a feature extraction unit, and whether or not the extracted white line is an obstacle region is detected by a difference detection unit. To do. Then, the height of the obstacle is calculated from the detection result of the difference detection unit, and the true obstacle region is detected by the height calculation unit.

特開2001−283204号公報JP 2001-283204 A

上記特許文献1に係る障害物検出装置においては、2台のステレオカメラにて道路上の白線を検出し、この検出した白線から障害物領域(路面領域)を推定するとともに、路面領域内の障害物を検出する構成であるものの、鉱山に用いられるダンプトラック等が走行するオフロード環境下の走行路には白線が引かれておらず、上記特許文献1に係る障害物検出装置を、オフロード環境下の走行路の路面の検出に用いることができない。   In the obstacle detection device according to Patent Document 1, a white line on a road is detected by two stereo cameras, an obstacle area (road surface area) is estimated from the detected white line, and an obstacle in the road area is detected. Although it is the structure which detects an object, the white line is not drawn on the traveling road in the off-road environment where the dump truck etc. which are used for a mine drive, and the obstacle detection device concerning the above-mentioned patent documents 1 is off-road It cannot be used to detect the road surface of the traveling road under the environment.

本発明は、上述した従来技術における実状からなされたもので、その目的は、オフロード環境下においても、路面を適切に検出することができる鉱山用作業車両用の路面推定装置および路面推定システムを提供することにある。   The present invention has been made from the above-described prior art, and an object of the present invention is to provide a road surface estimation device and a road surface estimation system for a mining work vehicle that can appropriately detect a road surface even in an off-road environment. It is to provide.

この目的を達成するために、本発明に係る鉱山用作業車両用の路面推定装置は、三次元の画像情報が入力され、この画像情報中の距離情報に基づき、前記画像情報中の平面領域を推定する平面領域推定部と、前記平面領域推定部にて推定した平面領域に基づき、前記画像情報中の、所定以上の高さを有する路肩位置を検出する路肩検出部と、前記路肩検出部にて検出した前記路肩位置に基づき、前記画像情報中の、前記路肩を境界とする路面領域を推定する路面領域推定部と、を備えたことを特徴としている。   In order to achieve this object, a road surface estimation device for a mining work vehicle according to the present invention receives three-dimensional image information, and based on distance information in the image information, calculates a plane area in the image information. Based on the plane area estimated by the plane area estimation unit, the plane area estimated by the plane area estimation unit, a road shoulder detection unit that detects a road shoulder position having a predetermined height or more in the image information, and the road shoulder detection unit And a road surface area estimation unit for estimating a road surface area having the road shoulder as a boundary in the image information based on the road shoulder position detected in this manner.

このように構成した本発明は、三次元の画像情報から、その画像情報中の平面領域を推定した上で、この平面領域に基づき、画像情報中の、所定以上の高さを有する路肩位置を検出するようにしている。したがって、平面領域についてのみ路肩位置を検出すればよく、路肩位置を検出する検出領域を狭くすることができ、路肩検出の処理を簡略化することができる。また、検出した路肩位置に基づき、画像情報中の、路肩を境界とする路面領域を推定するようにしているため、画像情報中から改めて路面領域を検出等する必要がなく、画像情報中の路面領域を容易に推定することができる。よって、路肩が設けられたオフロード環境下の路面においても、路面領域を適切に検出することができ、画像情報中の路面の検出を適切に行うことができる。   The present invention configured as described above estimates a plane area in the image information from the three-dimensional image information, and then, based on the plane area, calculates a shoulder position having a predetermined height or more in the image information. I try to detect it. Therefore, it is sufficient to detect the shoulder position only for the planar region, the detection region for detecting the shoulder position can be narrowed, and the shoulder detection process can be simplified. In addition, since the road surface area with the road shoulder as a boundary is estimated based on the detected road shoulder position, there is no need to detect the road surface area from the image information again, and the road surface in the image information. The area can be easily estimated. Therefore, even on the road surface in an off-road environment where a road shoulder is provided, the road surface area can be detected appropriately, and the road surface in the image information can be detected appropriately.

また本発明は、上記発明において、前記路肩検出部は、前記画像情報から、路面の両側に位置する路肩をそれぞれ検出し、前記路面領域推定部は、前記路肩検出部にて検出した路肩間を前記路面領域と推定することを特徴としている。   Further, the present invention is the above invention, wherein the road shoulder detection unit detects a road shoulder located on both sides of the road surface from the image information, and the road surface region estimation unit detects a distance between the road shoulders detected by the road shoulder detection unit. The road surface area is estimated.

このように構成した本発明は、三次元の画像情報から、路面の両側に位置する路肩位置をそれぞれ検出し、これら路肩間を路面領域と推定するようにしているため、一方の路肩から路面領域を推定する場合に比べ、より適切かつ容易に路面領域を推定することができる。したがって、オフロード環境下の路面の検出処理をより精度良くできる。   The present invention configured as described above detects road shoulder positions located on both sides of the road surface from the three-dimensional image information and estimates the space between the road shoulders as a road surface area. The road surface area can be estimated more appropriately and easily than in the case of estimating. Therefore, the road surface detection process under an off-road environment can be performed with higher accuracy.

また本発明は、上記発明において、前記三次元の画像情報は、輝度情報を有し、前記路面領域推定部は、前記画像情報中の輝度情報から、前記路面領域に類似する類似領域を推定する類似領域推定部を有し、前記類似領域を加えて前記路面領域を推定することを特徴としている。   In the invention described above, the three-dimensional image information includes luminance information, and the road surface area estimation unit estimates a similar area similar to the road surface area from the luminance information in the image information. A similar area estimation unit is included, and the road surface area is estimated by adding the similar area.

一般に、オフロード環境下の路面は、平坦に締め固められているため、他の領域に比べ輝度が高い傾向にある。そこで、本発明は、画像情報中の輝度情報から、路面領域に類似する類似領域を推定し、この類似領域を加えて路面領域を推定するようにしている。このため、路面領域推定部にて推定される路面領域を補完することができ、路面領域推定部による路面領域の推定をより精度良くできる。   In general, a road surface in an off-road environment is compacted flat, and therefore tends to have higher brightness than other areas. Therefore, according to the present invention, a similar area similar to the road surface area is estimated from the luminance information in the image information, and the road surface area is estimated by adding the similar area. For this reason, the road surface area estimated by the road surface area estimation unit can be supplemented, and the road surface area can be estimated more accurately by the road surface area estimation unit.

また本発明は、上記発明において、前記三次元の画像情報は、色情報を有し、前記路面領域推定部は、前記画像情報中の色情報から、前記路面領域に類似する類似領域を推定する類似領域推定部を有し、前記類似領域を加えて前記路面領域と推定することを特徴としている。   In the present invention, the three-dimensional image information includes color information, and the road surface area estimation unit estimates a similar area similar to the road surface area from the color information in the image information. A similar area estimation unit is included, and the road area is estimated by adding the similar area.

一般に、オフロード環境下の路面は、平坦に締め固められているため、他の領域に比べ画像情報中の色情報が異なる傾向にある。そこで、本発明は、画像情報中の色情報から、路面領域に類似する類似領域を推定し、この類似領域を加えて路面領域を推定するようにしている。この結果、路面領域推定部にて推定される路面領域を補完することができ、路面領域推定部による路面領域の推定をより精度良くできる。   In general, since the road surface under an off-road environment is flattened, the color information in the image information tends to be different from that in other areas. Therefore, the present invention estimates a similar area similar to the road surface area from the color information in the image information, and adds the similar area to estimate the road surface area. As a result, the road surface area estimated by the road surface area estimation unit can be supplemented, and the road surface area can be estimated more accurately by the road surface area estimation unit.

また本発明は、上記発明において、前記路肩検出部は、前記画像情報から、前記鉱山用作業車両に近い側の路肩を検出し、前記路面領域推定部は、前記路肩検出部にて検出した近い側の路肩から所定範囲の領域を路面領域と推定することを特徴としている。   Further, in the present invention according to the above invention, the road shoulder detection unit detects a road shoulder closer to the mining work vehicle from the image information, and the road surface area estimation unit is detected by the road shoulder detection unit. A region within a predetermined range from the side road shoulder is estimated as a road surface region.

このように構成した本発明は、三次元の画像情報から、鉱山用作業車両に近い側の路肩を検出し、この路肩から所定範囲の領域を路面領域と推定するようにしている。したがって、画像情報中のすべての路面領域を推定する必要がなく、鉱山用作業車両が走行する可能性が高く、衝突等の可能性が高い側の領域を検出することができるため、路肩検出部および路面領域推定部による処理をより簡略化できる。   The present invention configured as described above detects a road shoulder closer to the mining work vehicle from three-dimensional image information, and estimates a region within a predetermined range from the road shoulder as a road surface region. Accordingly, it is not necessary to estimate all road surface areas in the image information, and it is highly possible that the mining work vehicle will travel, and it is possible to detect the area on the side where the possibility of a collision or the like is high. In addition, the processing by the road surface area estimation unit can be further simplified.

また本発明は、上記発明において、前記画像情報中の前記路面領域から、予め定めた判定基準に合致する前記画像情報中の撮像対象を障害物として検出する障害物検出部を備えたことを特徴としている。   In the invention described above, the invention further includes an obstacle detection unit that detects an imaging target in the image information that matches a predetermined criterion from the road surface area in the image information as an obstacle. It is said.

このように構成した本発明は、路肩が設けられたオフロード環境下においても、路面領域推定部にて路面の検出を適切に行うことができるから、路面領域推定部にて推定した路面領域から、予め定めた判定基準に合致する撮像対象を障害物として検出することにより、障害物を検出する検出領域がより正確となり、障害物を適切かつ精度良く検出することができる。   Since the present invention configured as described above can appropriately detect the road surface by the road surface region estimation unit even in an off-road environment where a road shoulder is provided, the road surface region estimated from the road surface region estimation unit can be used. By detecting an imaging target that matches a predetermined criterion as an obstacle, the detection area for detecting the obstacle becomes more accurate, and the obstacle can be detected appropriately and accurately.

また、本発明に係る鉱山用作業車両用の路面推定システムは、三次元の画像情報を取得する画像取得部と、請求項1の鉱山用作業車両用の路面推定装置と、を具備し、前記路面推定装置は、前記画像取得部にて取得した前記画像情報が入力されることを特徴としている。   A road surface estimation system for a mine work vehicle according to the present invention comprises: an image acquisition unit that acquires three-dimensional image information; and the road surface estimation device for a mine work vehicle according to claim 1, The road surface estimation apparatus is characterized in that the image information acquired by the image acquisition unit is input.

このように構成した本発明は、画像取得部にて取得した三次元の画像情報から、路面推定装置にて画像情報中の平面領域を推定した上で、この平面領域に基づき、画像情報中の、所定以上の高さを有する路肩を検出するようにしている。したがって、推定した平面領域についてのみ路肩位置を検出すればよく、路肩位置を検出する検出領域を狭くすることができ、路肩検出の処理を簡略化することができる。また、検出した路肩位置に基づき、画像情報中の、路肩を境界とする路面領域を推定するようにしているため、検出した画像情報中から改めて路面領域を検出等する必要がなく、画像情報中の路面領域を容易に推定することができる。よって、路肩が設けられたオフロード環境下の路面においても、路面領域を適切に検出することができ、画像情報中の路面の検出を適切に行うことができる。   In the present invention configured as described above, after estimating a plane area in the image information by the road surface estimation device from the three-dimensional image information acquired by the image acquisition unit, based on the plane area, Further, a road shoulder having a height higher than a predetermined height is detected. Therefore, it is sufficient to detect the shoulder position only for the estimated plane region, the detection region for detecting the shoulder position can be narrowed, and the shoulder detection process can be simplified. In addition, since the road surface area with the road shoulder as a boundary is estimated based on the detected road shoulder position, there is no need to detect the road surface area again from the detected image information. The road surface area can be easily estimated. Therefore, even on the road surface in an off-road environment where a road shoulder is provided, the road surface area can be detected appropriately, and the road surface in the image information can be detected appropriately.

本発明は、三次元の画像情報中の距離情報に基づき、画像情報中の平面領域を推定した上で、この平面領域に基づき、画像情報中の、所定以上の高さを有する路肩位置を検出し、この検出した路肩位置に基づき、画像情報中の路肩を境界とする路面領域を推定する構成にしている。この構成により本発明は、路肩位置を検出する検出領域を狭くでき、路肩検出の処理を簡略化することができる。また、画像情報中の、路肩を境界とする路面領域を推定するようにしているため、画像情報中から改めて路面領域を検出等する必要がなく、画像情報中の路面領域を容易に推定することができる。したがって、路肩が設けられたオフロード環境下の路面においても、路面の検出を適切に行うことができる。そして、前述した以外の課題、構成および効果は、以下の実施形態の説明より明らかにされる。   The present invention estimates a plane area in the image information based on the distance information in the three-dimensional image information, and then detects a road shoulder position having a predetermined height or more in the image information based on the plane area. And based on this detected road shoulder position, it is set as the structure which estimates the road surface area | region which makes the road shoulder in image information a boundary. With this configuration, the present invention can narrow the detection area for detecting the shoulder position, and can simplify the shoulder detection process. Also, since the road surface area in the image information with the road shoulder as the boundary is estimated, there is no need to detect the road surface area from the image information again, and the road surface area in the image information can be easily estimated. Can do. Therefore, it is possible to appropriately detect the road surface even on the road surface in the off-road environment where the road shoulder is provided. Problems, configurations, and effects other than those described above will be made clear from the following description of embodiments.

本発明の第1実施形態に係る路面推定装置が用いられる鉱山用作業車両を示す概略図である。It is the schematic which shows the working vehicle for mines where the road surface estimation apparatus which concerns on 1st Embodiment of this invention is used. 上記鉱山用作業車両が用いられる鉱山システムを示す概略図である。It is the schematic which shows the mine system where the said working vehicle for mines is used. 上記鉱山用作業車両の駆動構成を示す概略図である。It is the schematic which shows the drive structure of the said working vehicle for mines. 上記鉱山用作業車両が走行する路面状況を示す概略図である。It is the schematic which shows the road surface condition which the said working vehicle for mines drive | works. 上記鉱山用作業車両の画像取得部の各カメラにて撮像した視差画像を示す図で、(a)はカメラ11aの撮像画像、(b)はカメラ11bの撮像画像である。It is a figure which shows the parallax image imaged with each camera of the image acquisition part of the said working vehicle for mines, (a) is the captured image of the camera 11a, (b) is the captured image of the camera 11b. 上記鉱山用作業車両の画像取得部にて撮像したアピアランス・イメージを示す図である。It is a figure which shows the appearance image imaged in the image acquisition part of the said working vehicle for mines. 上記鉱山用作業車両の画像取得部にて取得した画像の処理を示す図で、(a)は撮像画像、(b)は平面領域抽出画像(c)は路面領域推定画像である。It is a figure which shows the process of the image acquired in the image acquisition part of the said working vehicle for mines, (a) is a captured image, (b) is a plane area extraction image (c) is a road surface area estimated image. 上記鉱山用作業車両に搭載された路面推定装置の処理を示すフローチャートである。It is a flowchart which shows the process of the road surface estimation apparatus mounted in the said working vehicle for mines. 本発明の第2実施形態に係る路面推定装置による路面検出状況を示す概略図である。It is the schematic which shows the road surface detection condition by the road surface estimation apparatus which concerns on 2nd Embodiment of this invention.

以下、本発明に係る路面推定装置を備えた障害物検出システムを実施するための形態を図に基づいて説明する。   EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing the obstacle detection system provided with the road surface estimation apparatus which concerns on this invention is demonstrated based on figures.

図1は、本発明の第1実施形態に係る路面推定装置を備えた障害物検出システムが用いられる鉱山用作業車両として、鉱山用の車両1であるオフロードダンプトラックを示す概略図である。図2は、車両1が用いられる鉱山システムを示す概略図である。図3は、車両1の駆動構成を示す概略図である。図4は、車両1が走行する路面状況を示す概略図である。図5は、車両1の外界環境計測部12の各カメラ11a,11bにて撮像した視差画像を示す図で、(a)はカメラ11aの撮像画像、(b)はカメラ11bの撮像画像である。図6は、2台のカメラ11a,11bにて検出した図5(a)および図5(b)に示す二次元の視差画像情報から外界環境計測部12にて算出された画像情報を示す図である。図7は、車両1の外界環境計測部12にて取得した画像の処理を示す図で、(a)は撮像画像、(b)は平面領域抽出画像(c)は路面領域推定画像である。そして、図6および図7(a)に示す視差画像中の物体の色情報を有し肉眼で見たままのような画像をアピアランス・イメージと呼ぶ。アピアランス・イメージには視差画像中の各画素に対応した色情報が含まれる。   FIG. 1 is a schematic diagram illustrating an off-road dump truck that is a mine vehicle 1 as a mine work vehicle in which an obstacle detection system including a road surface estimation device according to a first embodiment of the present invention is used. FIG. 2 is a schematic diagram showing a mine system in which the vehicle 1 is used. FIG. 3 is a schematic diagram showing a drive configuration of the vehicle 1. FIG. 4 is a schematic diagram showing a road surface condition on which the vehicle 1 travels. 5A and 5B are diagrams illustrating parallax images captured by the cameras 11a and 11b of the external environment measuring unit 12 of the vehicle 1, in which FIG. 5A is a captured image of the camera 11a and FIG. 5B is a captured image of the camera 11b. . FIG. 6 is a diagram showing image information calculated by the external environment measuring unit 12 from the two-dimensional parallax image information shown in FIGS. 5A and 5B detected by the two cameras 11a and 11b. It is. FIG. 7 is a diagram illustrating processing of an image acquired by the external environment measuring unit 12 of the vehicle 1, where (a) is a captured image, (b) is a planar area extraction image (c), and a road surface area estimation image. The image having the color information of the object in the parallax images shown in FIG. 6 and FIG. 7A as seen with the naked eye is called an appearance image. The appearance image includes color information corresponding to each pixel in the parallax image.

車両1は、図2に示すように、鉱山に予め設けられたオフロード環境下の走行路(搬送路)である路面Rを自律運転で走行可能な無人走行式とされている。鉱山には、車両1との間で所定の情報を送受信したり、車両1の走行を制御したりする管制センタ3が設置されているとともに、車両1に土砂等の積載物を積載させるための油圧ショベル4等が用いられている。路面Rは、障害物検出システムによる障害物検出エリアであって、その幅方向の両側に路肩Sが設けられている。各路肩Sには、図4に示すように、盛土Bや、油圧ショベル4等にて鉱山を切土して形成された崖である切削面C等が設けられている。これら盛土Bおよび切削面Cは、予め定めた所定の高さ以上、例えば1.5m以上の高さに形成されている。   As shown in FIG. 2, the vehicle 1 is an unmanned traveling type that can travel autonomously on a road surface R that is a traveling path (conveyance path) under an off-road environment provided in a mine. The mine is provided with a control center 3 for transmitting / receiving predetermined information to / from the vehicle 1 and for controlling the traveling of the vehicle 1 and for loading loads such as earth and sand on the vehicle 1. A hydraulic excavator 4 or the like is used. The road surface R is an obstacle detection area by the obstacle detection system, and road shoulders S are provided on both sides in the width direction. As shown in FIG. 4, each road shoulder S is provided with embankment B, a cutting surface C that is a cliff formed by cutting a mine with a hydraulic excavator 4 or the like. The embankment B and the cutting surface C are formed to have a predetermined height or higher, for example, a height of 1.5 m or higher.

車両1は、図1に示すように、車両本体1aと、車両本体1aの前側上方に設けられた運転席1bと、車両本体1a上に起伏可能に設けられた作業部としてのベッセル1cと、車両本体1aを走行可能に支持する左右の前輪1dおよび後輪1eとを備えている。車両本体1aの前側のデッキ1f上には、車両本体1aの周囲、特に走行方向前方である外界環境を検出するためのステレオカメラ装置11が取り付けられている。車両1は、ステレオカメラ装置11にて認識した路面R上の障害物を検出して回避しながら走行する。デッキ1f上の前側角部には、GPS装置1gが取り付けられている。GPS装置1gは、車両本体1aの走行位置を検出するための位置検出部である。   As shown in FIG. 1, the vehicle 1 includes a vehicle main body 1a, a driver seat 1b provided on the upper front side of the vehicle main body 1a, and a vessel 1c as a working portion provided on the vehicle main body 1a so as to be undulated, Left and right front wheels 1d and rear wheels 1e that support the vehicle main body 1a so as to travel are provided. On the front deck 1f of the vehicle main body 1a, a stereo camera device 11 for detecting the environment around the vehicle main body 1a, particularly in front of the traveling direction, is attached. The vehicle 1 travels while detecting and avoiding obstacles on the road surface R recognized by the stereo camera device 11. A GPS device 1g is attached to the front corner on the deck 1f. The GPS device 1g is a position detection unit for detecting the traveling position of the vehicle main body 1a.

ステレオカメラ装置11は、一対のカメラ11a,11bを備え、これら2台のカメラ11a,11bを用いて外界の色情報を有する立体的な三次元の画像情報を取得する。この三次元画像情報には、2台のカメラ11a,11bにて検出した図5(a)および図5(b)に示す二次元の視差画像情報の差分から算出される撮像対象までの距離情報を有した視差画像と、図6および図7(a)に示すアピアランス・イメージが含まれる。アピアランス・イメージは視差画像中の各画素に対応した色情報を有する。ステレオカメラ装置11は、車両本体1aの前側の左右方向の中央部である中心位置に、左右のカメラ11a,11b間の中心が位置するように取り付けられている。各カメラ11a,11bの焦点距離やレンズの歪みなどの内部パラメータ、および互いの位置関係および車体への設置位置を示す外部パラメータは、互いに同期されている。各カメラ11a,11bは、各光軸が平行となるように車両1前方に向けられ、図1に示すように、これら各カメラ11a,11bの撮像領域11c,11dの一部が重なり合うように設置されている。   The stereo camera device 11 includes a pair of cameras 11a and 11b, and acquires three-dimensional three-dimensional image information having color information of the outside world using the two cameras 11a and 11b. The three-dimensional image information includes distance information to the imaging target calculated from the difference between the two-dimensional parallax image information shown in FIGS. 5A and 5B detected by the two cameras 11a and 11b. And the appearance image shown in FIG. 6 and FIG. 7A are included. The appearance image has color information corresponding to each pixel in the parallax image. The stereo camera device 11 is attached so that the center between the left and right cameras 11a and 11b is located at the center position that is the center portion in the left-right direction on the front side of the vehicle body 1a. Internal parameters such as focal lengths and lens distortions of the cameras 11a and 11b, and external parameters indicating the positional relationship and the installation position on the vehicle body are synchronized with each other. The cameras 11a and 11b are directed forward of the vehicle 1 so that the optical axes are parallel to each other. As shown in FIG. 1, the imaging regions 11c and 11d of the cameras 11a and 11b are partially overlapped. Has been.

車両1は、図3に示すように、走行駆動装置5を備えている。走行駆動装置5は、動力源であるエンジン5aと、エンジン5aにて駆動される発電機5bと、発電機5bにて発電された電力が供給される電力制御装置5cと、後輪1eを駆動させるための走行モータ5dとを有している。走行モータ5dへの供給電力は、電力制御装置5cから制御される。電力制御装置5cは、車両1に搭載されたコントローラ6にて制御される。   As shown in FIG. 3, the vehicle 1 includes a travel drive device 5. The travel drive device 5 drives an engine 5a as a power source, a generator 5b driven by the engine 5a, a power control device 5c to which power generated by the generator 5b is supplied, and a rear wheel 1e. And a travel motor 5d. The power supplied to the travel motor 5d is controlled from the power control device 5c. The power control device 5 c is controlled by a controller 6 mounted on the vehicle 1.

コントローラ6は、電力制御装置5cを介して、車両本体1aを操舵するための操舵装置であるステアリングモータ5eや、車両本体1aを制動させるための、例えばリターダブレーキ等の制動装置であるブレーキ装置5f等の駆動を制御する車載コントローラである。車両本体1aには、管制センタ11との間で所定の信号を無線送信するための通信可能な通信部である車載無線装置5gが搭載されている。コントローラ6は、少なくとも車両1が走行する走行エリアに関する地図情報が予め記憶された記憶部6aを備えている。記憶部6aに記憶されている地図情報には、車両1が走行する路面R情報や路肩S位置情報等も含まれる。   The controller 6 is provided with a steering motor 5e that is a steering device for steering the vehicle main body 1a via the power control device 5c, and a brake device 5f that is a braking device such as a retarder brake for braking the vehicle main body 1a. It is a vehicle-mounted controller that controls the driving of the vehicle. The vehicle main body 1a is equipped with an in-vehicle wireless device 5g that is a communicable communication unit for wirelessly transmitting a predetermined signal to the control center 11. The controller 6 includes a storage unit 6a in which map information related to at least a travel area in which the vehicle 1 travels is stored in advance. The map information stored in the storage unit 6a includes road surface R information on which the vehicle 1 travels, road shoulder S position information, and the like.

<障害物検出システム>
障害物検出装置10は、三次元画像情報から路面Rを推定する路面推定装置であるとともに、推定した路面R上の障害物Oを検出するものである。障害物検出装置10は、路面R上の、例えば他車両1、作業車、岩石、鉱物、土砂等の障害物を検出するための画像解析装置としてのステレオカメラシステムである。具体的に、障害物検出システム10は、ステレオカメラ装置11を備えた外界環境計測部12と、距離算出部13と、大域路面位置推定部14と、路肩検出部15と、路面領域推定部16と、障害物検出部17とを備えている。これら外界環境計測部12、距離算出部13、大域路面位置推定部14、路肩検出部15、路面領域推定部16および障害物検出部17による各処理は、コントローラ6にて行われる。
<Obstacle detection system>
The obstacle detection device 10 is a road surface estimation device that estimates a road surface R from three-dimensional image information, and detects an obstacle O on the estimated road surface R. The obstacle detection device 10 is a stereo camera system as an image analysis device for detecting obstacles on the road surface R such as other vehicles 1, work vehicles, rocks, minerals, and earth and sand. Specifically, the obstacle detection system 10 includes an external environment measurement unit 12 including a stereo camera device 11, a distance calculation unit 13, a global road surface position estimation unit 14, a road shoulder detection unit 15, and a road surface region estimation unit 16. And an obstacle detection unit 17. Each process by the external environment measurement unit 12, the distance calculation unit 13, the global road surface position estimation unit 14, the road shoulder detection unit 15, the road surface region estimation unit 16, and the obstacle detection unit 17 is performed by the controller 6.

外界環境計測部12は、各カメラ11a,11bにて検出される画像情報として、図5(a)および図5(b)に示すカメラ取得画像と、これら図5(a)および図5(b)に示す各カメラ取得画像の見え方の違いに基づき算出した視差画像とを得ることができる。視差画像は、各カメラ取得画像のどちらかを基準として作成し、例えば図5(a)の画像を基準に視差画像を作成する場合は、図5(a)で撮像された物体の位置が図5(b)のカメラ取得画像でどこに位置するかを探索する。このとき、これらカメラ取得画像間における位置の差異は、近い物体ほど大きく、遠い物体ほど小さくなる。この差異に基づき、各カメラ11a,11bで撮影した物体の立体的な位置を取得する。この技術は、一般的にステレオマッチングと呼ばれるものである。このとき、図6および図7(a)に示すアピアランス・イメージ中の各点(画素)中には視差画像中の物体の色情報が含まれる。アピアランス・イメージは視差画像中の各画素に対応した色情報を有する。外界環境計測部12は、ステレオカメラ装置11の各カメラ11a,11bにて三次元距離情報である三次元画像情報(三次元点群)を取得する画像取得部である。なお、三次元点群は、検出した画像中の各点(画素)が、(x,y,z,r,g,b)の情報を有する点列情報である。さらに、外界環境計測部12は、障害物検出システム10の電源をオンオフさせるためのスイッチ(図示せず)がオンされた場合に、初期化処理として、各カメラ11a,11bにてアピアランス・イメージを取得可能としつつ、各カメラ11a,11bのキャリブレーション(較正)データ等を読み込む。   The external environment measurement unit 12 uses the camera acquired images shown in FIGS. 5A and 5B as image information detected by the cameras 11a and 11b, and FIGS. 5A and 5B. The parallax images calculated based on the differences in the appearance of the camera acquired images shown in FIG. The parallax image is created based on one of the camera-acquired images. For example, when the parallax image is created based on the image of FIG. 5A, the position of the object captured in FIG. It searches for where it is located in the camera acquired image of 5 (b). At this time, the position difference between these camera acquired images is larger as the object is closer and smaller as the object is farther. Based on this difference, the three-dimensional position of the object photographed by each camera 11a, 11b is acquired. This technique is generally called stereo matching. At this time, each point (pixel) in the appearance image shown in FIGS. 6 and 7A includes the color information of the object in the parallax image. The appearance image has color information corresponding to each pixel in the parallax image. The external environment measurement unit 12 is an image acquisition unit that acquires three-dimensional image information (three-dimensional point group) that is three-dimensional distance information in each of the cameras 11 a and 11 b of the stereo camera device 11. The three-dimensional point group is point sequence information in which each point (pixel) in the detected image has information of (x, y, z, r, g, b). Further, the external environment measurement unit 12 performs an appearance image on each of the cameras 11a and 11b as an initialization process when a switch (not shown) for turning on and off the power supply of the obstacle detection system 10 is turned on. The calibration (calibration) data of each camera 11a, 11b, etc. are read, making it possible to acquire.

距離算出部13は、外界環境計測部12にて検出した三次元画像情報、特に視差画像情報に基づいて、アピアランス・イメージ中の各点における撮像対象までの距離と、その画像中の三次元形状情報を取得する。大域路面位置推定部14は、外界環境計測部12にて検出した三次元画像情報が入力され、図7(b)に示す三次元画像情報中の平面領域D1、すなわち大まかな路面R位置を推定する平面領域推定部である。大域路面位置推定部14は、外界環境計測部12にて検出した三次元画像情報中の各点につき、これら各点の撮像対象までの距離情報を除いた二次元画像情報に圧縮し、この二次元画像情報中の各点の色情報または輝度情報等から、その二次元画像情報における大まかな路面Rの位置(平面領域D1)を検出する。   The distance calculation unit 13 determines the distance to the imaging target at each point in the appearance image and the three-dimensional shape in the image based on the three-dimensional image information detected by the external environment measurement unit 12, particularly the parallax image information. Get information. The global road surface position estimation unit 14 receives the three-dimensional image information detected by the external environment measurement unit 12 and estimates the plane region D1 in the three-dimensional image information shown in FIG. 7B, that is, a rough road surface R position. It is a plane area estimation part to perform. The global road surface position estimation unit 14 compresses each point in the three-dimensional image information detected by the external environment measurement unit 12 into two-dimensional image information excluding distance information from each point to the imaging target. From the color information or luminance information of each point in the two-dimensional image information, the rough position of the road surface R (planar region D1) in the two-dimensional image information is detected.

路肩検出部15は、外界環境計測部12にて検出した三次元画像情報から、路面Rの両側に設けられている盛土Bまたは切削面C等の路肩Sの位置を検出する。路肩検出部15は、大域路面位置推定部14にて推定した二次元画像情報中の大まかな路面R位置情報を、外界環境計測部12にて検出した三次元画像情報に重ね合せる等して、その三次元画像情報中の大まかな路面R位置を推定し、この推定した大まかな路面R位置の両側域を中心とした所定範囲内の領域から、予め定めた所定の高さ、例えば1.0m以上の高さを有する略連続した物体を路肩Sとし、この路肩Sの位置を検出する。   The road shoulder detection unit 15 detects the position of the road shoulder S such as the embankment B or the cutting surface C provided on both sides of the road surface R from the three-dimensional image information detected by the external environment measurement unit 12. The road shoulder detection unit 15 superimposes the rough road surface R position information in the two-dimensional image information estimated by the global road surface position estimation unit 14 on the three-dimensional image information detected by the external environment measurement unit 12, and the like. A rough road surface R position in the three-dimensional image information is estimated, and a predetermined height, for example, 1.0 m, is determined from an area within a predetermined range centering on both sides of the estimated rough road surface R position. A substantially continuous object having the above height is defined as a shoulder S, and the position of the shoulder S is detected.

路面領域推定部16は、外界環境計測部12にて検出した三次元画像情報から、その三次元画像情報中の路面領域D2を推定する。路面領域推定部16は、路面ベース領域推定部16a、周辺類似領域検出部16b、および路面領域補完部16cを有している。路面ベース領域推定部16aは、障害物検出部17にて障害物を検出する撮像対象となる路面ベース領域を検出する。路面ベース領域推定部16aは、外界環境計測部12にて検出した三次元画像情報に、路肩検出部15にて検出した路肩位置情報を重ね合せる等して、その三次元画像情報中の路肩S位置を特定し、この特定した路肩S位置を境界とする領域、すなわち路肩S間の領域を、その三次元画像情報中の路面ベース領域とする。   The road surface area estimation unit 16 estimates the road surface area D2 in the 3D image information from the 3D image information detected by the external environment measurement unit 12. The road surface region estimation unit 16 includes a road surface base region estimation unit 16a, a surrounding similar region detection unit 16b, and a road surface region complement unit 16c. The road surface base area estimation unit 16a detects a road surface base area that is an imaging target in which the obstacle detection unit 17 detects an obstacle. The road surface base region estimation unit 16a superimposes the road shoulder position information detected by the road shoulder detection unit 15 on the 3D image information detected by the external environment measurement unit 12, and the road shoulder S in the 3D image information. A position is specified, and a region having the specified shoulder S position as a boundary, that is, a region between the shoulders S is set as a road surface base region in the three-dimensional image information.

周辺類似領域検出部16bは、外界環境計測部12にて検出した三次元画像情報中の各点の色情報および輝度情報に基づき、路面ベース領域推定部16aにて推定した路面ベース領域に類似する類似領域を算出する。周辺類似領域検出部16bは、路面ベース領域推定部16aにて推定した路面ベース領域における色情報および輝度情報と、外界環境計測部12にて検出した三次元画像情報中の、距離算出部13にて撮像対象までの距離を算出できなかった各点の色情報または輝度情報とを比較し、これら色情報または輝度情報の差異が予め定めた所定値以下の場合に、その画像情報中の点を類似領域として算出する。なお、周辺類似領域検出部16bとしては、三次元画像情報中の各点の色情報または輝度情報のいずれか一方のみを用いて類似領域を算出してもよい。   The surrounding similar region detection unit 16b is similar to the road surface base region estimated by the road surface base region estimation unit 16a based on the color information and luminance information of each point in the three-dimensional image information detected by the external environment measurement unit 12. A similar region is calculated. The surrounding similar region detection unit 16b includes a color calculation and luminance information in the road surface base region estimated by the road surface base region estimation unit 16a and a distance calculation unit 13 in the three-dimensional image information detected by the external environment measurement unit 12. Compare the color information or luminance information of each point for which the distance to the imaging target could not be calculated, and if the difference between these color information or luminance information is less than a predetermined value, the point in the image information is Calculate as a similar region. Note that the peripheral similar region detection unit 16b may calculate a similar region using only one of color information and luminance information of each point in the three-dimensional image information.

路面領域補完部16cは、路面ベース領域推定部16aにて推定した路面ベース領域と、周辺類似領域検出部16bにて検出した類似領域とを重ね合せる等して、路面ベース領域に含まれていない路面領域である補完領域を算出する。路面領域補完部16cは、算出した補完領域を路面ベース領域に加えた領域を、図7(c)に示すように、障害物検出部17にて障害物を検出する対象領域である路面領域D2として決定する。すなわち、路面領域補完部16cは、類似領域を加えて路面領域D2を推定する。   The road surface region complementing unit 16c is not included in the road surface base region, for example, by overlapping the road surface base region estimated by the road surface base region estimation unit 16a and the similar region detected by the surrounding similar region detection unit 16b. A complementary area that is a road surface area is calculated. As shown in FIG. 7C, the road surface region complementing unit 16c adds the calculated supplemental region to the road surface base region, as shown in FIG. 7C, and the road surface region D2 is a target region for detecting obstacles. Determine as. That is, the road surface area complementing unit 16c estimates a road surface area D2 by adding a similar area.

障害物検出部17は、路面領域推定部16にて推定した路面領域D2中の凹凸、すなわち障害物Oを検出する。障害物Oとしては、他車両1、作業車、岩石、鉱物、土砂等である。作業車としては、油圧ショベル4、グレーダ、ブルドーザ、ロードローダ、パトロールカー等である。障害物検出部17は、路面領域推定部16にて推定した路面領域D2の路面勾配、道幅、カーブの曲率、および起伏率(凹凸度合い)等も検出する。障害物検出部17は、外界環境計測部12にて検出した三次元画像情報中の、路面領域補完部16cにて補完された路面領域D2において、この路面領域D2の各点の撮像対象までの距離情報(z成分)のばらつき等が、予め定めた所定範囲以上の場合に、予め定めた判定基準に合致すると判定し三次元画像情報中の撮像対象を障害物Oとして検出する。障害物検出部17は、三次元画像情報中の路面領域D2における各点の距離情報のばらつき範囲、あるいはそのばらつき程度により、障害物Oの大きさおよび高さを検出する。   The obstacle detection unit 17 detects irregularities in the road surface region D2 estimated by the road surface region estimation unit 16, that is, the obstacle O. Examples of the obstacle O include other vehicles 1, work vehicles, rocks, minerals, and earth and sand. Examples of the work vehicle include a hydraulic excavator 4, a grader, a bulldozer, a load loader, a patrol car, and the like. The obstacle detection unit 17 also detects the road surface gradient, road width, curve curvature, undulation rate (unevenness degree), and the like of the road surface region D2 estimated by the road surface region estimation unit 16. The obstacle detection unit 17 includes the three-dimensional image information detected by the external environment measurement unit 12 in the road surface region D2 supplemented by the road surface region supplementation unit 16c, up to the imaging target of each point of the road surface region D2. When the variation in the distance information (z component) is equal to or greater than a predetermined range, it is determined that the predetermined determination criterion is met, and the imaging target in the three-dimensional image information is detected as an obstacle O. The obstacle detection unit 17 detects the size and height of the obstacle O based on the variation range of the distance information of each point in the road surface area D2 in the three-dimensional image information or the degree of the variation.

コントローラ6は、GPS装置1gにて取得した走行位置情報を、記憶部6aに記憶されている地図情報にあてはめる等して、その地図情報中の走行位置前方の路面領域を、路面領域推定部16にて推定した路面領域D2と対比し、これら路面領域が相違する場合に、障害物検出部17にて検出した障害物Oの位置、高さおよび大きさに関する障害物情報を、車載無線装置5gを介して管制センタ3へ送信する。   The controller 6 applies the traveling position information acquired by the GPS device 1g to the map information stored in the storage unit 6a, for example, so that the road surface area in front of the traveling position in the map information is the road surface area estimation unit 16. When the road surface area is different from the road surface area D2 estimated in step 5, the obstacle information on the position, height, and size of the obstacle O detected by the obstacle detection unit 17 is displayed on the in-vehicle wireless device 5g. To the control center 3.

コントローラ6は、障害物検出部17にて検出した障害物Oの高さが、車両1の車高(最低地上高)より低く、かつその障害物Oの幅が左右の前輪1dおよび後輪1eの車輪間隔より小さいと判断した場合に、電力制御装置5c、ステアリングモータ5eおよびブレーキ装置5f等を適宜制御して、その障害物Oが左右の前輪1dおよび後輪1e間を通過、すなわち跨ぐように走行制御して、障害物を回避させる。また、コントローラ6は、障害物検出部17にて検出した障害物Oの高さが、車両1の車高(最低地上高)より高いと判断した場合や、その障害物Oの幅が左右の前輪1dおよび後輪1eの車輪間隔より大きいと判断した場合に、電力制御装置5c、ステアリングモータ5eおよびブレーキ装置5f等を適宜制御して、車両1を適宜操舵および速度調整して障害物を回避させる。   The controller 6 is configured such that the height of the obstacle O detected by the obstacle detection unit 17 is lower than the vehicle height (minimum ground height) of the vehicle 1 and the width of the obstacle O is the left and right front wheels 1d and rear wheels 1e. When it is determined that the distance between the wheels is smaller, the power control device 5c, the steering motor 5e, the brake device 5f, and the like are appropriately controlled so that the obstacle O passes between the left and right front wheels 1d and the rear wheels 1e. To avoid obstacles. Further, the controller 6 determines that the height of the obstacle O detected by the obstacle detection unit 17 is higher than the vehicle height (minimum ground height) of the vehicle 1 or the width of the obstacle O is left and right. When it is determined that the distance between the front wheel 1d and the rear wheel 1e is larger than that, the power control device 5c, the steering motor 5e, the brake device 5f, and the like are appropriately controlled to appropriately steer and adjust the speed of the vehicle 1 to avoid obstacles. Let

<動作>
次に、上記第1実施形態に係る障害物検出システムの処理について、図8を参照して説明する。図8は、車両1に搭載された路面推定システムの処理を示すフローチャートである。
<Operation>
Next, processing of the obstacle detection system according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a process of the road surface estimation system mounted on the vehicle 1.

障害物検出装置10の電源がスイッチにてオンされると、外界環境計測部12の初期化処理が行われる(ステップS1、以下単に「S1」等と示す。)。S1の初期化処理では、ステレオカメラ11の各カメラ11a,11bにて、図6および図7(a)に示すアピアランス・イメージを取得可能とし、これら各カメラ11a,11bのキャリブレーションデータ等の調整用データを読み込み、これら各カメラ11a,11bにて検出する撮像画像から、図5(a)および図5(b)に示す視差画像を算出可能とする。   When the power supply of the obstacle detection device 10 is turned on by the switch, the initialization process of the external environment measuring unit 12 is performed (step S1, hereinafter simply referred to as “S1” or the like). In the initialization process of S1, the appearance images shown in FIGS. 6 and 7A can be acquired by the cameras 11a and 11b of the stereo camera 11, and the calibration data and the like of these cameras 11a and 11b are adjusted. The parallax images shown in FIGS. 5A and 5B can be calculated from the captured images detected by the cameras 11a and 11b.

この後、外界環境計測12により、各カメラ11a,11bにて検出した各アピアランス・イメージおよび視差画像に基づき、各点の色情報を有する三次元画像が算出される(S2)。次いで、S2にて算出した三次元画像中の各点における撮像対象までの距離および三次元形状情報が距離算出部13にて算出される(S3)。さらに、上記S2にて算出された三次元画像情報が大域路面位置推定部14へ入力され、この三次元画像中の各点につき、これら各点の撮像対象までの距離情報を除いた二次元画像が大域路面位置推定部14にて算出される。また同時に、二次元画像報中の各点の色情報が予め定めた所定範囲以内の場合は、図7(b)に示すように、路面Rの可能性がある領域、すなわち大まかな路面Rの位置(平面領域D1)として検出される(S4)。   Thereafter, a three-dimensional image having color information of each point is calculated by the external environment measurement 12 based on each appearance image and parallax image detected by each camera 11a, 11b (S2). Next, the distance to the imaging target at each point in the three-dimensional image calculated in S2 and the three-dimensional shape information are calculated by the distance calculation unit 13 (S3). Further, the three-dimensional image information calculated in S2 is input to the global road surface position estimation unit 14, and for each point in the three-dimensional image, the two-dimensional image excluding distance information to the imaging target of each point. Is calculated by the global road surface position estimation unit 14. At the same time, when the color information of each point in the two-dimensional image report is within a predetermined range, as shown in FIG. 7 (b), an area where there is a possibility of the road surface R, that is, the rough road surface R It is detected as a position (planar region D1) (S4).

次いで、S4にて検出した平面領域D1を、上記S2にて算出した三次元画像に重ね合せる等して、その三次元画像中の大まかな路面R位置を推定し、この大まかな路面R位置の両側域を中心とした所定範囲内の領域から、例えば1.0m以上の高さを有する略連続した物体を路肩Sとし、この路肩Sの位置が路肩検出部15にて検出される(S5)。   Next, the rough road surface R position in the three-dimensional image is estimated by, for example, superimposing the planar area D1 detected in S4 on the three-dimensional image calculated in S2, and the rough road surface R position is estimated. A substantially continuous object having a height of, for example, 1.0 m or more from an area within a predetermined range centered on both side areas is defined as a road shoulder S, and the position of the road shoulder S is detected by the road shoulder detection unit 15 (S5). .

この後、上記S2にて算出した三次元画像に、上記S5にて検出した路肩S位置情報を重ね合せる等して、その三次元画像中の路肩S位置が特定され、この特定した路肩S間の領域が、路面ベース領域推定部16aにて路面ベース領域と推定される(S6)。S6にて推定した路面ベース領域における色情報および輝度情報と、上記S2にて検出した三次元画像中の、上記S3にて撮像対象までの距離を算出できなかった各点の色情報および輝度情報とが比較され、これら色情報または輝度情報の差異が予め定めた所定値以下の各点が、周辺類似領域検出部16bにより、路面Rである可能性が高い領域、すなわち類似領域として算出される(S7)。   Thereafter, the shoulder S position in the three-dimensional image is specified by, for example, superimposing the shoulder S position information detected in S5 on the three-dimensional image calculated in S2, and the distance between the identified shoulders S is determined. Is estimated as a road surface base region by the road surface base region estimation unit 16a (S6). Color information and luminance information in the road surface base area estimated in S6, and color information and luminance information of each point in the three-dimensional image detected in S2 where the distance to the imaging target could not be calculated in S3 And each point where the difference in color information or luminance information is equal to or smaller than a predetermined value is calculated as a region that is likely to be the road surface R, that is, a similar region, by the surrounding similar region detection unit 16b. (S7).

次いで、上記S6にて推定した路面ベース領域と、上記S7にて算出した類似領域とを重ね合せる等して、路面ベース領域に含まれていない路面領域、すなわち補完領域が路面領域補完部16cにて算出され、この算出した補完領域を路面ベース領域に加えた領域が、図7(c)に示す路面領域D2として決定される(S8)。この後、上記S2にて検出した三次元画像中の、上記S8にて決定された路面領域D2につき、この路面領域D2の各点の撮像対象までの距離情報のばらつきが、予め定めた所定範囲以上か否かが障害物検出部17にて判断され、このばらつきが所定範囲以上の部分が障害物Oとして検出される(S9)。なお、S9においては、上記S2にて検出した三次元画像中の路面領域D2における各点の距離情報のばらつき範囲、あるいはそのばらつき程度に応じ、障害物Oの大きさおよび高さについても検出される。   Next, a road surface area that is not included in the road surface base area, that is, a complementary area is added to the road surface area complementing unit 16c by overlapping the road surface base area estimated in S6 and the similar area calculated in S7. A region obtained by adding the calculated complementary region to the road surface base region is determined as a road surface region D2 shown in FIG. 7C (S8). Thereafter, for the road surface area D2 determined in S8 in the three-dimensional image detected in S2, the variation in distance information to the imaging target of each point of the road surface area D2 is a predetermined range. Whether or not this is the case is determined by the obstacle detection unit 17, and a portion where the variation is equal to or larger than a predetermined range is detected as an obstacle O (S9). In S9, the size and height of the obstacle O are also detected according to the variation range of the distance information of each point in the road surface area D2 in the three-dimensional image detected in S2 or the degree of variation. The

この後、GPS装置1gにて取得した走行位置情報から、記憶部6aに記憶されている地図情報中の走行位置前方の路面領域がコントローラ9にて算出され、この算出した地図情報中の走行位置の路面領域が、上記S8にて決定した路面領域D2と対比され、これら路面領域が一致するか判断される(S10)。そして、S10において、上記S8にて決定した路面領域D2が、地図情報中の走行位置前方の路面領域に相違すると判断された(Noの)場合は、上記S9にて障害物Oの位置、高さおよび大きさに関する障害物情報が、車載無線装置5gを介して管制センタ3へ送信される(S11)。   Thereafter, the road surface area in front of the travel position in the map information stored in the storage unit 6a is calculated by the controller 9 from the travel position information acquired by the GPS device 1g, and the travel position in the calculated map information. The road surface area is compared with the road surface area D2 determined in S8, and it is determined whether these road surface areas coincide with each other (S10). In S10, when it is determined that the road surface area D2 determined in S8 is different from the road surface area in front of the travel position in the map information (No), the position of the obstacle O, the high Obstacle information regarding the height and size is transmitted to the control center 3 via the in-vehicle wireless device 5g (S11).

一方、上記S10において、上記S8にて決定した路面領域D2が、地図情報中の走行位置前方の路面領域に一致すると判断された(Yesの)場合、および上記S11にて障害物情報が管制センタ3へ送信された場合は、上記S9にて検出した障害物Oの高さが、車両1の車高より低く、かつその障害物Oの幅が左右の前輪1dおよび後輪1eの車輪間隔より小さいか判断される(S12)。   On the other hand, if it is determined in S10 that the road surface area D2 determined in S8 matches the road surface area in front of the travel position in the map information (Yes), and the obstacle information is transmitted to the control center in S11. 3, the height of the obstacle O detected in S9 is lower than the vehicle height of the vehicle 1, and the width of the obstacle O is greater than the wheel spacing between the left and right front wheels 1d and the rear wheel 1e. It is judged whether it is small (S12).

S12において、上記S9にて検出した障害物Oの高さが、車両1の車高より低く、かつその障害物Oの幅が左右の前輪1dおよび後輪1eの車輪間隔より小さいと判断された(Yesの)場合は、上記S9にて検出した障害物Oが左右の前輪1dおよび後輪1e間を跨ぐようにコントローラ6にて車両1が走行制御され、障害物Oが回避される(S13)。一方、上記S12において、上記S9にて検出した障害物Oの高さが、車両1の車高より高いと判断した場合、またはその障害物Oの幅が左右の前輪1dおよび後輪1eの車輪間隔より大きいと判断された(Noの)場合は、上記S9にて検出した障害物Oに衝突しないように、コントローラ6にて車両1が操舵および速度調整され、障害物Oが回避される(S14)。   In S12, it is determined that the height of the obstacle O detected in S9 is lower than the vehicle height of the vehicle 1 and that the width of the obstacle O is smaller than the wheel interval between the left and right front wheels 1d and the rear wheel 1e. In the case of (Yes), the vehicle 1 is travel-controlled by the controller 6 so that the obstacle O detected in S9 straddles between the left and right front wheels 1d and the rear wheels 1e, and the obstacle O is avoided (S13). ). On the other hand, if it is determined in S12 that the height of the obstacle O detected in S9 is higher than the vehicle height of the vehicle 1, or the width of the obstacle O is the wheels of the left and right front wheels 1d and rear wheels 1e. When it is determined that the interval is larger (No), the controller 1 steers and adjusts the speed of the vehicle 1 so as not to collide with the obstacle O detected in S9, and the obstacle O is avoided ( S14).

なお、上記S1〜S14の処理は、例えば、1秒当たり30フレーム程度の、予め定めた所定フレームで繰り返して行われており、上記S9での障害物検出が、例えば0.1秒程度の間隔において継続して検出された場合にのみ、車両1の走行を阻害する障害物Oとして検出する構成とすることもできる。   Note that the processing of S1 to S14 is repeatedly performed at a predetermined frame, for example, about 30 frames per second, and the obstacle detection at S9 is performed at intervals of, for example, about 0.1 second. It can also be configured to detect as an obstacle O that obstructs the travel of the vehicle 1 only when it is continuously detected at.

<作用効果>
以上により、上記第1実施形態に係る障害物検出システムにおいては、ステレオカメラ装置11の各カメラ11a,11bにて撮像し外界環境計測部12にて算出した三次元画像中の平面領域D1を大域路面位置推定部14にて検出した上で、この三次元画像中の距離情報から、三次元画像中の路肩S位置を路肩検出部15にて検出している。この結果、大域路面位置推定部14にて検出した平面領域D1を、大まかな路面R位置と推定でき、例えば、この大まかな路面R位置の両側域を中心とした所定範囲内の領域について路肩検出部15にて路肩Sを検出することにより、路面Rの両側に設けられている路肩Sを適切に検出することができる。
<Effect>
As described above, in the obstacle detection system according to the first embodiment, the planar region D1 in the three-dimensional image captured by the cameras 11a and 11b of the stereo camera device 11 and calculated by the external environment measuring unit 12 is global. After detection by the road surface position estimation unit 14, the road shoulder detection unit 15 detects the road shoulder S position in the three-dimensional image from the distance information in the three-dimensional image. As a result, the plane area D1 detected by the global road surface position estimation unit 14 can be estimated as a rough road surface R position. For example, a road shoulder is detected for a region within a predetermined range centering on both sides of the rough road surface R position. By detecting the shoulder S in the part 15, the shoulder S provided on both sides of the road surface R can be detected appropriately.

すなわち、大域路面位置推定部14にて推定した平面領域D1に基づき、三次元画像中の路肩Sを路肩検出部15にて検出することにより、路肩検出部15にて路肩Sを検出する必要のある検出領域を狭くすることができる。よって、外界環境計測部12にて算出した三次元画像中のすべての領域について路肩検出部15にて路肩Sを検出する必要が無くなり、路肩検出部15による処理量を少なくできるとともに、路肩検出部15による誤検知を低減できる。したがって、路肩検出部15による路肩検出処理を簡略化でき、路肩検出部15による路肩検出の処理時間をより高速化できる。   That is, the road shoulder detection unit 15 needs to detect the road shoulder S by detecting the road shoulder S in the three-dimensional image based on the plane region D1 estimated by the global road surface position estimation unit 14. A certain detection area can be narrowed. Therefore, it is not necessary to detect the road shoulder S in the road shoulder detection unit 15 for all regions in the three-dimensional image calculated by the external environment measurement unit 12, and the processing amount by the road shoulder detection unit 15 can be reduced, and the road shoulder detection unit. 15 can reduce false detection. Therefore, the road shoulder detection process by the road shoulder detection unit 15 can be simplified, and the processing time of the road shoulder detection by the road shoulder detection unit 15 can be further increased.

また、路肩検出部15にて検出した路肩S間の領域を、路面領域推定部16にて路面領域と推定するため、路面Rの両側に設けられた各路肩Sを路肩検出部15にて検出することができれば、路面領域推定部16にて路面領域を自動的に推定することができる。したがって、三次元画像情報中から改めて路面領域を検出等する必要がなく、一方の路肩Sから路面領域を推定する場合に比べ、三次元画像中の路面領域を容易かつ適切に推定することができる。よって、鉱山等に設けられた白線等のないオフロード環境下の路面Rであっても、両側の路肩Sに所定以上の高さを有する盛土Bや切削面Cが設けられた路面Rとすることにより、オフロード環境下における車両1が走行する路面領域を高精度に検出することができ、オフロード環境下における三次元画像中からの路面Rの検出処理をより簡略化かつ精度良く行うことができる。   Further, in order to estimate the region between the road shoulders S detected by the road shoulder detection unit 15 as the road surface region by the road surface region estimation unit 16, the road shoulder detection unit 15 detects each road shoulder S provided on both sides of the road surface R. If it is possible, the road surface area estimation unit 16 can automatically estimate the road surface area. Therefore, it is not necessary to detect the road surface area again from the 3D image information, and the road surface area in the 3D image can be estimated easily and appropriately compared with the case where the road surface area is estimated from one of the road shoulders S. . Therefore, even if it is the road surface R in the off-road environment without the white line etc. which were provided in the mine etc., it is set as the road surface R by which the embankment B and the cutting surface C which have the height more than predetermined | prescribed on the road shoulder S of both sides were provided. Thus, the road surface area where the vehicle 1 travels in the off-road environment can be detected with high accuracy, and the detection process of the road surface R from the three-dimensional image in the off-road environment can be performed more simply and accurately. Can do.

さらに、鉱山に設けられた路面Rは、車両1が走行できるように、例えばロードローダ等によって平坦に締め固められているため、他の領域に比べ、照射する光の反射率が大きく、ステレオカメラ装置11の各カメラ11a,11bにて撮像した際に、他の領域に比べ輝度が高い傾向にある。そこで、外界環境計測部12にて計測した三次元画像中の路肩S間の領域を路面ベース領域とし、この路面ベース領域における色情報および輝度情報と、外界環境計測部12にて検出した三次元画像中の、距離算出部13にて撮像対象までの距離を算出できなかった各点の色情報または輝度情報とを比較し、類似する領域を周辺類似領域検出部16bにて類似領域として算出し、これら路面ベース領域と類似領域とを重ね合せた領域を路面領域補完部16cにて路面領域D2としている。   Further, the road surface R provided in the mine is flattened by, for example, a load loader so that the vehicle 1 can travel, so that the reflectance of the irradiated light is large compared to other areas, and the stereo camera When images are taken by the cameras 11a and 11b of the apparatus 11, the brightness tends to be higher than that in other areas. Therefore, a region between the road shoulders S in the three-dimensional image measured by the external environment measuring unit 12 is set as a road surface base region, and the color information and luminance information in the road surface base region and the three-dimensional detected by the external environment measuring unit 12 are used. In the image, the distance calculation unit 13 compares the color information or luminance information of each point for which the distance to the imaging target could not be calculated, and the similar region is calculated as the similar region by the peripheral similar region detection unit 16b. A region obtained by superimposing the road surface base region and the similar region is defined as a road surface region D2 by the road surface region complementing unit 16c.

この結果、ステレオカメラ装置11の各カメラ11a,11bにて撮像した三次元画像中の距離情報に基づき路面ベース領域推定部16aでは算出できない路面領域D2についても、路面領域補完部16cにて補完することができる。よって、路面領域推定部16による路面領域D2の推定をより精度良く確実に行うことができるから、路面領域推定部16による路面領域D2の誤検知を低減することができる。   As a result, the road surface region complementing unit 16c also supplements the road surface region D2 that cannot be calculated by the road surface base region estimation unit 16a based on the distance information in the three-dimensional images captured by the cameras 11a and 11b of the stereo camera device 11. be able to. Therefore, the road surface area estimation unit 16 can estimate the road surface area D2 more accurately and reliably, so that erroneous detection of the road surface area D2 by the road surface area estimation unit 16 can be reduced.

さらに、ステレオカメラ装置11の各カメラ11a,11bにて撮像し外界環境計測部12にて検出した三次元画像中の、路面領域推定部16にて推定した路面領域D1についてのみ、障害物検出部17による障害物検出を行えばよい。したがって、外界環境計測部12にて算出した三次元画像中のすべての領域について障害物検出部17にて障害物Oを検出する場合に比べ、障害物検出部17による処理量を少なくできるから、上記路肩検出部15と同様に、障害物検出部17による障害物Oの検出処理を簡略化でき、障害物検出部17による障害物検出の処理時間をより高速化できる。   Furthermore, only the road surface area D1 estimated by the road surface area estimation unit 16 in the three-dimensional image captured by the cameras 11a and 11b of the stereo camera device 11 and detected by the external environment measurement unit 12 is detected as an obstacle detection unit. Obstacle detection by 17 may be performed. Therefore, compared with the case where the obstacle detection unit 17 detects the obstacle O for all regions in the three-dimensional image calculated by the external environment measurement unit 12, the processing amount by the obstacle detection unit 17 can be reduced. Similarly to the road shoulder detection unit 15, the obstacle detection process by the obstacle detection unit 17 can be simplified, and the obstacle detection processing time by the obstacle detection unit 17 can be further increased.

よって、所定以上の高さを有する盛土Bまたは切削面Cが路肩Sに設けられた鉱山等のオフロード環境下においても、路面R上の障害物Oや路面形状を適切かつ精度良く検出することができる。したがって、例えば岩や積荷の落下物等の路面R上の小さい障害物Oや凹凸を高精度に検出することができるため、検出した障害物Oや凹凸の高さや大きさに応じて車両1を走行制御して、車両1の事故要因を検出して追突等を回避させることにより、鉱山等のオフロード環境下における車両1の作業効率を高めることができる。よって、車両1の自律走行をより適切に行うことができる。   Therefore, the obstacle O and the road surface shape on the road surface R can be detected appropriately and accurately even in an off-road environment such as a mine where the embankment B or the cutting surface C having a predetermined height or more is provided on the shoulder S. Can do. Therefore, for example, small obstacles O and irregularities on the road surface R such as rocks and loads falling can be detected with high accuracy, so that the vehicle 1 can be adjusted according to the detected obstacles O and the height and size of the irregularities. By controlling the traveling to detect the accident factor of the vehicle 1 and avoiding a rear-end collision or the like, the work efficiency of the vehicle 1 in an off-road environment such as a mine can be increased. Therefore, the autonomous traveling of the vehicle 1 can be performed more appropriately.

[第2実施形態]
図9は、本発明の第2実施形態に係る路面推定装置10による路面検出状況を示す概略図である。本第2実施形態が前述した第1実施形態と異なるのは、第1実施形態は、路肩検出部15にて検出した路肩S間の領域を路面領域と推定するのに対し、第2実施形態は、路肩検出部15にて車両本体1aに近い側の路肩Sを検出し、この検出した路肩S1から所定範囲の領域を路面領域と推定する。なお、本第2実施形態において、第1実施形態と同一又は対応する部分には同一符号を付している。
[Second Embodiment]
FIG. 9 is a schematic diagram illustrating a road surface detection state by the road surface estimation apparatus 10 according to the second embodiment of the present invention. The second embodiment differs from the first embodiment described above in that the first embodiment estimates the area between the road shoulders S detected by the road shoulder detection unit 15 as the road surface area, whereas the second embodiment. Detects a road shoulder S closer to the vehicle body 1a by the road shoulder detection unit 15, and estimates a region within a predetermined range from the detected road shoulder S1 as a road surface region. In the second embodiment, the same or corresponding parts as those in the first embodiment are denoted by the same reference numerals.

<構成>
本第2実施形態において、路肩検出部15は、外界環境計測部12にて検出した三次元画像情報から、路面Rの両側に設けられている路肩S,S1の位置を検出するとともに、三次元画像情報中の距離情報から、検出した各路肩Sのうちの車両本体1aに近い側の路肩S1を特定する。すなわち、路肩検出部15は、大域路面位置推定部14にて推定した平面領域D1を、外界環境計測部12にて検出した三次元画像に重ね合せる等して、その三次元画像中の平面領域D1を推定し、この推定した平面領域D1のうちの車両本体1aに近い側である通行側の縁部を中心とした所定範囲内から路肩S1の位置を検出する。
<Configuration>
In the second embodiment, the road shoulder detection unit 15 detects the positions of the road shoulders S and S1 provided on both sides of the road surface R from the three-dimensional image information detected by the external environment measurement unit 12, and the three-dimensional From the distance information in the image information, the road shoulder S1 on the side close to the vehicle body 1a among the detected road shoulders S is specified. In other words, the road shoulder detection unit 15 superimposes the planar region D1 estimated by the global road surface position estimation unit 14 on the three-dimensional image detected by the external environment measurement unit 12 or the like, thereby obtaining a planar region in the three-dimensional image. D1 is estimated, and the position of the road shoulder S1 is detected from within a predetermined range centering on the edge of the estimated plane area D1 on the side closer to the vehicle body 1a.

路面ベース領域推定部16aは、外界環境計測部12にて検出した三次元画像に、路肩検出部15にて検出した路肩S1の位置を重ね、その三次元画像中の路肩S1位置を特定し、この特定した路肩S1位置を通行側の境界、すなわち右側の境界とし、この路肩S1位置から路面中央へ向かう、例えば2分の1の所定範囲の領域を路面ベース領域とする。周辺類似領域検出部16bは、外界環境計測部12にて検出した三次元画像中の各点の色情報および輝度情報に基づき、三次元画像の横方向の中心位置よりも車両本体1aが走行する側、すなわち右側2分の1の領域R1について、路面ベース領域に類似する類似領域を算出する。路面領域補完部16cは、路面ベース領域と類似領域とに基づいて補完領域を算出し、この補完領域を路面ベース領域に加えた領域を路面領域D2と決定する。障害物検出部17は、外界環境計測部12にて検出した三次元画像中の、路面領域D2における障害物Oを検出する。   The road surface base region estimation unit 16a superimposes the position of the road shoulder S1 detected by the road shoulder detection unit 15 on the 3D image detected by the external environment measurement unit 12, and specifies the position of the road shoulder S1 in the 3D image, The specified road shoulder S1 position is defined as a boundary on the traveling side, that is, a right boundary, and an area in a predetermined range, for example, a half from the road shoulder S1 position toward the center of the road surface is defined as a road surface base region. Based on the color information and luminance information of each point in the three-dimensional image detected by the external environment measuring unit 12, the surrounding similar region detection unit 16b causes the vehicle body 1a to travel from the lateral center position of the three-dimensional image. A similar region similar to the road surface base region is calculated on the side, that is, the right half region R1. The road surface area complementing unit 16c calculates a complementary area based on the road surface base area and the similar area, and determines the area obtained by adding the complementary area to the road surface base area as the road surface area D2. The obstacle detection unit 17 detects an obstacle O in the road surface area D2 in the three-dimensional image detected by the external environment measurement unit 12.

<作用効果>
以上により、本第2実施形態に係る障害物検出システムにおいては、上記第1実施形態にて奏し得る作用効果に加え、検出した各路肩S,S1のうち、車両本体1aに近い側の路肩S1を特定し、この路肩S1を境界とする通行側の路面R1(路面Rの走行側寄りの約2分の1の領域)のみを、障害物Oを検出する対象としている。すなわち、車両1の通行が、予め定められている場合においては、車両1が走行する路面Rのうちの、衝突等の可能性の高い通行側の路面R1の状況が重要であり、通行側の路肩Sを基準とした通行寄りの路面R1状況を把握すれば足りる。
<Effect>
As described above, in the obstacle detection system according to the second embodiment, in addition to the operational effects that can be achieved in the first embodiment, among the detected road shoulders S and S1, the road shoulder S1 on the side closer to the vehicle body 1a. , And only the road surface R1 on the traffic side having the road shoulder S1 as a boundary (a region that is approximately a half of the road surface R closer to the traveling side) is an object for detecting the obstacle O. That is, in the case where the traffic of the vehicle 1 is determined in advance, the situation of the road surface R1 on the side of the road on which the vehicle 1 travels is highly likely to cause a collision or the like. It is sufficient to grasp the road surface R1 situation near the road with reference to the shoulder S.

したがって、車両1が走行する際に必要となる通行側の路面領域を効率良く推定でき、この通行側の路面領域における障害物検出を効率良く行うことができる。よって、路肩S間を路面領域と推定する上記第1実施形態に係る障害物検出システムの場合に比べ、走行する路面R上の重み付けができ、三次元画像中のすべての路面領域を推定する必要がなくなるため、三次元画像から推定する路面領域を狭くすることができる。よって、路肩検出部15にて路肩Sを検出する際の処理量を少なくでき、障害物検出部17による障害物検出領域を狭くできるから、障害物検出システムによる処理をより簡略化および高速化することができる。   Therefore, it is possible to efficiently estimate the road surface area on the traffic side required when the vehicle 1 travels, and it is possible to efficiently detect obstacles in the road surface area on the traffic side. Therefore, compared with the obstacle detection system according to the first embodiment in which the area between the road shoulders S is estimated as a road surface area, weighting on the road surface R can be performed, and all road surface areas in the three-dimensional image need to be estimated. Therefore, the road surface area estimated from the three-dimensional image can be narrowed. Therefore, the amount of processing when the shoulder detection unit 15 detects the road shoulder S can be reduced, and the obstacle detection area by the obstacle detection unit 17 can be narrowed. Therefore, the processing by the obstacle detection system is further simplified and speeded up. be able to.

[その他]
なお、本発明は前述した実施形態に限定されるものではなく、様々な変形態様が含まれる。例えば、前述した実施形態は、本発明を分りやすく説明するために説明したものであり、本発明は、必ずしも説明した全ての構成を備えるものに限定されるものではない。
[Others]
In addition, this invention is not limited to embodiment mentioned above, Various deformation | transformation aspects are included. For example, the above-described embodiments have been described in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the configurations described.

さらに、上記各実施形態においては、鉱山用のダンプトラックを例として車両1を説明したが、例えば、油圧ショベル4、グレーダ、ブルドーザ、ロードローダ、パトロールカー等の作業車の他、鉱山に設けられた路面Rを走行する鉱山用作業車両についても、本発明に係る障害物検出システムを搭載することもできる。また、自律走行式の車両1のみならず、オペレータの操作にて走行させる有人走行式の車両1であってもよい。また、上記各実施形態に係る障害物検出システムとしては、例えば、鉱山の路面Rを走行する鉱山用作業車両(他車両)を検出する車両検出システム等としてもよい。   Further, in each of the above embodiments, the vehicle 1 has been described by taking a mine dump truck as an example. For example, the vehicle 1 is provided in a mine in addition to a work vehicle such as a hydraulic excavator 4, a grader, a bulldozer, a load loader, a patrol car, and the like. The obstacle detection system according to the present invention can also be mounted on a mining work vehicle that travels on the road surface R. Moreover, not only the autonomously traveling vehicle 1 but also a manned traveling vehicle 1 that travels by an operator's operation may be used. The obstacle detection system according to each of the above embodiments may be, for example, a vehicle detection system that detects a mine work vehicle (another vehicle) traveling on the road surface R of the mine.

またさらに、上記各実施形態においては、障害物検出システムによるすべての処理を車両1に搭載した障害物検出装置10で行う構成としたが、車載無線装置5g等を用いて所定の情報の送受信を行うようにし、障害物検出装置10のうちの少なくともいずれかの処理を、管制センタ3等の車両1以外の場所で行う構成とすることもできる。   Furthermore, in each of the above embodiments, all the processing by the obstacle detection system is performed by the obstacle detection device 10 mounted on the vehicle 1, but predetermined information is transmitted and received using the in-vehicle wireless device 5g or the like. It is also possible to adopt a configuration in which at least one of the obstacle detection devices 10 is performed at a place other than the vehicle 1 such as the control center 3.

また、上記各実施形態においては、外界環境計測部12としてステレオカメラ装置11を用いた構成について説明したが、三次元である立体的な画像(立体画像)を取得できればよく、3Dのレーザレンジファインダや、2Dのレーザレンジファインダに単眼カメラを組み合わせたもののほか、単眼カメラの時差画像を用いて立体画像を取得したり、距離情報が取得可能なレーザスキャナまたはミリ波センサ等のセンサを単眼カメラに組み合わせて立体画像を取得したりする態様であってもよい。   In each of the above embodiments, the configuration using the stereo camera device 11 as the external environment measuring unit 12 has been described. However, a 3D laser range finder may be used as long as a three-dimensional stereoscopic image (stereoscopic image) can be acquired. In addition to a combination of a monocular camera and a 2D laser range finder, a monocular camera can be used to acquire a stereoscopic image using a time difference image of the monocular camera, or a sensor such as a laser scanner or millimeter wave sensor that can acquire distance information. The aspect which acquires a stereo image in combination may be sufficient.

さらに、上記第2実施形態においては、例えば右側通行等の路面R上の交通区分(走行レーン)に関する情報を記憶部6aに記憶させ、外界環境計測部12にて検出した三次元画像情報から、記憶部6aに記憶された交通区分に関する情報に基づき、路面Rの走行側寄りである通行側の路肩S1の位置のみを検出し、この検出した路肩S1寄りの路面領域D2の2分の1の領域R1中の障害物Oを判定する構成としても良い。この場合には、路面Rの状況等に応じて車両1の走行レーンが変化する鉱山等においても、その走行レーンに関する情報を記憶部6aに記憶させ、記憶部6aに記憶させた走行レーン情報に応じて、車両1の通行側の路肩S1を検出し、検出した路肩S1寄りの路面領域の障害物Oを検出する構成とすることもできる。   Furthermore, in the second embodiment, for example, information related to traffic classification (travel lane) on the road surface R such as right-hand traffic is stored in the storage unit 6a, and from the three-dimensional image information detected by the external environment measurement unit 12, Based on the information related to the traffic classification stored in the storage unit 6a, only the position of the road shoulder S1 on the road side that is closer to the traveling side of the road surface R is detected, and half of the detected road surface area D2 near the road shoulder S1. It may be configured to determine the obstacle O in the region R1. In this case, even in a mine or the like where the travel lane of the vehicle 1 changes according to the condition of the road surface R, the information related to the travel lane is stored in the storage unit 6a, and the travel lane information stored in the storage unit 6a is stored in the travel lane information. Accordingly, it is possible to detect the road shoulder S1 on the traffic side of the vehicle 1 and detect the obstacle O in the road surface area near the detected road shoulder S1.

1 車両(鉱山用作業車両)
10 障害物検出装置(路面推定装置)
11 ステレオカメラ装置
11a,11b カメラ
12 外界環境計測部(画像取得部)
13 距離算出部
14 大域路面位置推定部(平面領域推定部)
15 路肩検出部
16 路面領域推定部
16a 路面ベース領域推定部
16b 周辺類似領域検出部(類似領域推定部)
16c 路面領域補完部
17 障害物検出部
B 盛土
C 切削面
D1 平面領域
D2 路面領域
R 路面
S 路肩
O 障害物
1 Vehicle (Mine work vehicle)
10 Obstacle detection device (road surface estimation device)
11 Stereo camera device 11a, 11b Camera 12 External environment measurement unit (image acquisition unit)
13 Distance calculator 14 Global road surface position estimator (planar area estimator)
DESCRIPTION OF SYMBOLS 15 Road shoulder detection part 16 Road surface area estimation part 16a Road surface base area estimation part 16b Surrounding similar area detection part (similar area estimation part)
16c Road surface area complement part 17 Obstacle detection part B Embankment C Cutting surface D1 Plane area D2 Road surface area R Road surface S Road shoulder O Obstacle

Claims (7)

三次元の画像情報が入力され、この画像情報中の距離情報に基づき、前記画像情報中の平面領域を推定する平面領域推定部と、
前記平面領域推定部にて推定した平面領域に基づき、前記画像情報中の、所定以上の高さを有する路肩位置を検出する路肩検出部と、
前記路肩検出部にて検出した前記路肩位置に基づき、前記画像情報中の、前記路肩を境界とする路面領域を推定する路面領域推定部と、
を備えたことを特徴とする鉱山用作業車両用の路面推定装置。
Three-dimensional image information is input, and based on the distance information in the image information, a plane area estimation unit that estimates the plane area in the image information,
Based on the planar region estimated by the planar region estimation unit, a road shoulder detection unit that detects a shoulder position having a height of a predetermined value or more in the image information;
Based on the road shoulder position detected by the road shoulder detection unit, a road surface area estimation unit that estimates a road surface area with the road shoulder as a boundary in the image information;
A road surface estimation device for a mining work vehicle.
請求項1の鉱山用作業車両用の路面推定装置において、
前記路肩検出部は、前記画像情報から、路面の両側に位置する路肩をそれぞれ検出し、
前記路面領域推定部は、前記路肩検出部にて検出した路肩間を前記路面領域と推定する
ことを特徴とする鉱山用作業車両用の路面推定装置。
The road surface estimation device for a mine work vehicle according to claim 1,
The shoulder detection unit detects each shoulder located on both sides of the road surface from the image information,
The road surface area estimation unit estimates a road surface area detected by the road shoulder detection unit as the road surface area. A road surface estimation device for a mining work vehicle.
請求項2の鉱山用作業車両用の路面推定装置において、
前記三次元の画像情報は、輝度情報を有し、
前記路面領域推定部は、前記画像情報中の輝度情報から、前記路面領域に類似する類似領域を推定する類似領域推定部を有し、前記類似領域を加えて前記路面領域を推定する
ことを特徴とする鉱山用作業車両用の路面推定装置。
The road surface estimation device for a mining work vehicle according to claim 2,
The three-dimensional image information has luminance information,
The road surface area estimation unit includes a similar area estimation unit that estimates a similar area similar to the road surface area from luminance information in the image information, and adds the similar area to estimate the road surface area. A road surface estimation device for mining work vehicles.
請求項2の鉱山用作業車両用の路面推定装置において、
前記三次元の画像情報は、色情報を有し、
前記路面領域推定部は、前記画像情報中の色情報から、前記路面領域に類似する類似領域を推定する類似領域推定部を有し、前記類似領域を加えて前記路面領域を推定する
ことを特徴とする鉱山用作業車両用の路面推定装置。
The road surface estimation device for a mining work vehicle according to claim 2,
The three-dimensional image information has color information,
The road surface region estimation unit includes a similar region estimation unit that estimates a similar region similar to the road surface region from color information in the image information, and adds the similar region to estimate the road surface region. A road surface estimation device for mining work vehicles.
請求項1の鉱山用作業車両用の路面推定装置において、
前記路肩検出部は、前記画像情報から、前記鉱山用作業車両に近い側の路肩を検出し、
前記路面領域推定部は、前記路肩検出部にて検出した近い側の路肩から所定範囲の領域を路面領域と推定する
ことを特徴とする鉱山用作業車両用の路面推定装置。
The road surface estimation device for a mine work vehicle according to claim 1,
The road shoulder detection unit detects a road shoulder on the side close to the mining work vehicle from the image information,
The road surface area estimation unit estimates a region within a predetermined range from a road shoulder on the near side detected by the road shoulder detection unit as a road surface area. A road surface estimation apparatus for a mining work vehicle.
請求項1の鉱山用作業車両用の路面推定装置において、
前記画像情報中の前記路面領域から、予め定めた判定基準に合致する前記画像情報中の撮像対象を障害物として検出する障害物検出部を備えた
ことを特徴とする鉱山用作業車両用の路面推定装置。
The road surface estimation device for a mine work vehicle according to claim 1,
A road surface for a mine work vehicle, comprising: an obstacle detection unit that detects an imaging target in the image information that matches a predetermined criterion from the road surface area in the image information as an obstacle. Estimating device.
三次元の画像情報を取得する画像取得部と、
請求項1の鉱山用作業車両用の路面推定装置と、を具備し、
前記路面推定装置は、前記画像取得部にて取得した前記画像情報が入力される
ことを特徴とする鉱山用作業車両用の路面推定システム。
An image acquisition unit for acquiring three-dimensional image information;
A road surface estimating device for a mining work vehicle according to claim 1,
The road surface estimation system for a mining work vehicle, wherein the image information acquired by the image acquisition unit is input to the road surface estimation device.
JP2014091763A 2014-04-25 2014-04-25 Road surface estimation apparatus for mine work vehicle and road surface estimation system Pending JP2015210661A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014091763A JP2015210661A (en) 2014-04-25 2014-04-25 Road surface estimation apparatus for mine work vehicle and road surface estimation system
PCT/JP2015/057169 WO2015163028A1 (en) 2014-04-25 2015-03-11 Road surface estimation device and road surface estimation system for mine work-vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014091763A JP2015210661A (en) 2014-04-25 2014-04-25 Road surface estimation apparatus for mine work vehicle and road surface estimation system

Publications (1)

Publication Number Publication Date
JP2015210661A true JP2015210661A (en) 2015-11-24

Family

ID=54332199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014091763A Pending JP2015210661A (en) 2014-04-25 2014-04-25 Road surface estimation apparatus for mine work vehicle and road surface estimation system

Country Status (2)

Country Link
JP (1) JP2015210661A (en)
WO (1) WO2015163028A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019009110A1 (en) * 2017-07-05 2019-01-10 クラリオン株式会社 Exterior recognition device for vehicles
JP2019169059A (en) * 2018-03-26 2019-10-03 ヤンマー株式会社 Travel area shape specification device
JP2020077144A (en) * 2018-11-07 2020-05-21 富士ゼロックス株式会社 Autonomous mobile device and program
JP2022075733A (en) * 2018-12-14 2022-05-18 ヤンマーパワーテクノロジー株式会社 Work support system
JP7356690B1 (en) 2023-05-31 2023-10-05 株式会社レグラス Travel control device for work vehicles

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6794243B2 (en) 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 Object detector
JP7195543B2 (en) * 2019-04-26 2022-12-26 国立大学法人京都大学 harvester
CN115440050B (en) * 2022-11-08 2023-02-03 上海伯镭智能科技有限公司 Mine unmanned information transmission optimization method and system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516856B2 (en) * 1998-01-30 2004-04-05 富士重工業株式会社 Outside monitoring device
JPH11249740A (en) * 1998-03-02 1999-09-17 Komatsu Ltd Self-traveling vehicle provided with obstacle detector
JP3879740B2 (en) * 2004-02-13 2007-02-14 日産自動車株式会社 Road area detection device
JP5594246B2 (en) * 2011-07-20 2014-09-24 株式会社デンソー Lane recognition device
JP2013030183A (en) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc Environment recognition device, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019009110A1 (en) * 2017-07-05 2019-01-10 クラリオン株式会社 Exterior recognition device for vehicles
JP2019016116A (en) * 2017-07-05 2019-01-31 クラリオン株式会社 Outside recognition device for vehicle
CN110832568A (en) * 2017-07-05 2020-02-21 歌乐株式会社 Vehicle environment recognition device
US10867403B2 (en) 2017-07-05 2020-12-15 Clarion Co., Ltd. Vehicle external recognition apparatus
CN110832568B (en) * 2017-07-05 2022-03-25 歌乐株式会社 Vehicle environment recognition device
JP2019169059A (en) * 2018-03-26 2019-10-03 ヤンマー株式会社 Travel area shape specification device
JP2020077144A (en) * 2018-11-07 2020-05-21 富士ゼロックス株式会社 Autonomous mobile device and program
US11550323B2 (en) 2018-11-07 2023-01-10 Fujifilm Business Innovation Corp. Autonomous moving apparatus and non-transitory computer readable medium storing program
JP7225695B2 (en) 2018-11-07 2023-02-21 富士フイルムビジネスイノベーション株式会社 Autonomous mobile device and program
JP2022075733A (en) * 2018-12-14 2022-05-18 ヤンマーパワーテクノロジー株式会社 Work support system
JP7329645B2 (en) 2018-12-14 2023-08-18 ヤンマーパワーテクノロジー株式会社 Work support system
JP7356690B1 (en) 2023-05-31 2023-10-05 株式会社レグラス Travel control device for work vehicles

Also Published As

Publication number Publication date
WO2015163028A1 (en) 2015-10-29

Similar Documents

Publication Publication Date Title
WO2015163028A1 (en) Road surface estimation device and road surface estimation system for mine work-vehicle
JP6385745B2 (en) Mining work vehicle
US10759428B2 (en) Use of laser scanner for autonomous truck operation
US10373338B2 (en) Calculation device, camera device, vehicle, and calibration method
CN111226267B (en) Driving control method and driving control device for driving support vehicle
US10800406B2 (en) Mining machine, management system of mining machine, and management method of mining machine
WO2015098344A1 (en) Mining work machine
US11584309B2 (en) Mirror pod environmental sensor arrangement for autonomous vehicle enabling lane change decisions
US20180081368A1 (en) Vehicle and operation system for transport vehicle for mine
US10239453B2 (en) Periphery image display control device
US11567197B2 (en) Automated object detection in a dusty environment
US20200079165A1 (en) Hitch assist system
US20180162390A1 (en) Vehicle Control Device and Vehicle Control Method
AU2014213529A1 (en) Image display system
KR102205144B1 (en) Parking assistance method and parking assistance device
JP6247904B2 (en) Mine transport vehicle
WO2018003866A1 (en) Traveling assistance device, imaging device, imaging system, traveling assistance system, vehicle, and traveling assistance method
US20230356743A1 (en) Real-time perception system for small objects at long range for autonomous vehicles
JP6204782B2 (en) Off-road dump truck
US11009881B2 (en) Roadway center detection for autonomous vehicle control
US11932173B2 (en) Mirror pod environmental sensor arrangement for autonomous vehicle enabling compensation for uneven road camber
WO2015025587A1 (en) Mining vehicle and mining vehicle management system
JP2017199401A (en) Transport vehicle for mine
CN112613335A (en) Identification device, identification method, and storage medium
JP7160730B2 (en) VEHICLE SYSTEM, VEHICLE SYSTEM CONTROL METHOD, AND PROGRAM