JP5827508B2 - Obstacle detection device for vehicle and vehicle using the same - Google Patents

Obstacle detection device for vehicle and vehicle using the same Download PDF

Info

Publication number
JP5827508B2
JP5827508B2 JP2011155002A JP2011155002A JP5827508B2 JP 5827508 B2 JP5827508 B2 JP 5827508B2 JP 2011155002 A JP2011155002 A JP 2011155002A JP 2011155002 A JP2011155002 A JP 2011155002A JP 5827508 B2 JP5827508 B2 JP 5827508B2
Authority
JP
Japan
Prior art keywords
runway
vehicle
image
obstacle detection
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011155002A
Other languages
Japanese (ja)
Other versions
JP2013020543A (en
Inventor
貴志 赤坂
貴志 赤坂
博文 望月
博文 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2011155002A priority Critical patent/JP5827508B2/en
Publication of JP2013020543A publication Critical patent/JP2013020543A/en
Application granted granted Critical
Publication of JP5827508B2 publication Critical patent/JP5827508B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、車両に設置されたカメラにより走路上の障害物を検出する車両用障害物検出装置及びそれを用いた車両に関する。   The present invention relates to an obstacle detection device for a vehicle that detects an obstacle on a runway with a camera installed in the vehicle, and a vehicle using the same.

従来、ゴルフ場内の走路を走行するゴルフカートには自動走行機能を有しているものがある。自動走行は、主に電磁誘導線などに沿って走行しており、また、ゴルフカートの前面に超音波センサを設けて、カート前方の障害物を検出する機能を有するものもある。超音波センサにより障害物が検出されると、ゴルフカートは減速または停止する制御がされている。   2. Description of the Related Art Conventionally, some golf carts that run on a course in a golf course have an automatic running function. In the automatic traveling, traveling is mainly performed along an electromagnetic induction wire or the like, and there is also an automatic traveling that has a function of detecting an obstacle in front of the cart by providing an ultrasonic sensor on the front surface of the golf cart. When an obstacle is detected by the ultrasonic sensor, the golf cart is controlled to decelerate or stop.

(1)特許文献1の技術
特許文献1に記載の走行制御装置は、走路上に設けられた白線等の走路基準線を検出し、この走路基準線に基づいて自動走行する。道路線形に応じた迅速な速度制御を行う走行制御装置が記載されている。
(1) Technology of Patent Document 1 The travel control device described in Patent Document 1 detects a road reference line such as a white line provided on the road, and automatically travels based on the road reference line. A traveling control device that performs quick speed control according to road alignment is described.

特開平9−292919号公報JP-A-9-292919

特許文献1に記載の車両では、白線の無い走路に対しては走路を特定するのが困難である。たとえば、ゴルフ場の場合、ゴルフコースの芝生とゴルフカートの走路との境界に白線が無いことが多い。芝生と走路との輝度差は小さいので、可視光カメラにより撮影された画像を基に2値化処理をしても、走路と芝生とを区別することが困難であり、走路の特定をすることができない。また、超音波センサでは障害物が走路上にあるかどうかを判別できない問題がある。超音波センサは、車両前方にある物体を全て障害物と認定してしまい、走路外にある木々や上り坂まで障害物と認定してしまう場合がある。   In the vehicle described in Patent Document 1, it is difficult to specify a road for a road without a white line. For example, in the case of a golf course, there is often no white line at the boundary between a golf course lawn and a golf cart runway. Because the difference in brightness between the lawn and the runway is small, it is difficult to distinguish the runway from the lawn even if the binarization process is performed based on the images taken by the visible light camera. I can't. In addition, there is a problem that it is not possible to determine whether an obstacle is on the runway with an ultrasonic sensor. The ultrasonic sensor may recognize all objects in front of the vehicle as obstacles, and may recognize obstacles up to trees and uphills outside the road.

本発明は、このような事情に鑑みてなされたものであって、白線の無い走路であっても走路を特定することができ、走路上の障害物のみを検出することができる車両用障害物検出装置及びそれを用いた車両を提供することを目的とする。   The present invention has been made in view of such circumstances, and can identify a road even on a road without a white line, and can detect only an obstacle on the road. An object of the present invention is to provide a detection device and a vehicle using the same.

上記目的を達成するために、本発明は次のような構成をとる。
すなわち、本発明に係る車両用障害物検出装置は、車両前方を撮影する赤外線カメラと、車両前方を撮影するステレオカメラと、前記赤外線カメラにより撮影された赤外線画像を基に車両前方の走路を特定する走路特定部と、前記ステレオカメラにより撮影された各画像に基づいてステレオ画像を作成するステレオ画像作成部と、前記走路特定部により特定された走路情報に基づき、前記ステレオ画像上の走路を特定し、前記走路上の障害物を検出する障害物検出部とを備えた車両用障害物検出装置である。
In order to achieve the above object, the present invention has the following configuration.
That is, the obstacle detection device for a vehicle according to the present invention specifies an infrared camera that captures the front of the vehicle, a stereo camera that captures the front of the vehicle, and a road ahead of the vehicle based on the infrared image captured by the infrared camera. Identification and runway identification unit, and the stereo image creating section that creates a stereo image based on the images taken by the stereo camera, on the basis of the track information identified by the runway identification unit, the track on the stereo image And an obstacle detection device for a vehicle comprising an obstacle detection unit that detects an obstacle on the running road.

本発明によれば、赤外線画像を基に走路を特定し、特定された赤外線画像の走路に対応するステレオカメラが撮影した各画像における領域、すなわち、ステレオカメラが撮影した各画像における走路のステレオ画像を作成する。作成されたステレオ画像から走路上の障害物を検出する。赤外線画像により走路を特定するので、走路に白線が無くても走路を検出することができる。また、走路上における障害物のみを検出するので、走路外の障害物を誤認することがない。   According to the present invention, a runway is specified based on an infrared image, and a region in each image taken by a stereo camera corresponding to the runway of the specified infrared image, that is, a stereo image of a runway in each image taken by the stereo camera. Create An obstacle on the road is detected from the created stereo image. Since the runway is specified by the infrared image, the runway can be detected even if there is no white line on the runway. In addition, since only obstacles on the runway are detected, no obstacles outside the runway are mistaken.

また、前記走路特定部は、前記赤外線画像の各画素に対して予め定められた第1閾値を基準として前記各画素を低輝度画素と高輝度画素とに2値化処理する2値化処理部と、予め定められた領域と前記高輝度画素とが重複する領域を部分走路領域と推定する走路推定部と、前記部分走路領域と隣接する前記高輝度画素を順にラベリングして仮走路を特定するラベリング部と、前記仮走路内に含まれる低輝度画素と前記仮走路とを走路として特定する走路補正部とを有することが好ましい。   The runway specifying unit binarizes each pixel into a low-intensity pixel and a high-intensity pixel with reference to a first threshold predetermined for each pixel of the infrared image. And a road estimation unit that estimates a region where a predetermined region and the high luminance pixel overlap as a partial road region, and specifies the temporary road by sequentially labeling the high luminance pixels adjacent to the partial road region It is preferable to have a labeling unit, and a runway correction unit that identifies low-luminance pixels included in the temporary runway and the temporary runway as a runway.

赤外線画像における各画素に対して予め定められた第1閾値を基準として、各画素を低輝度画素と高輝度画素とに2値化処理することで、赤外線画像において第1閾値よりも赤外線量の多い領域と少ない領域とに判別することができる。走路は第1閾値よりも赤外線量が多い領域に含まれ、輝度画素領域の一部が走路であるので、赤外線画像を走路を含む領域と、走路を含まない領域とに2分することができる。輝度画素領域と予め定められた領域とが重複する領域を部分走路領域として推定する。走路は連続して存在するので、部分走路領域と連続する輝度画素も走路として認定されるので、順にラベリングして仮走路として特定する。また、仮走路内に含まれる輝度画素も走路領域内であるので、仮走路内に含まれる低高輝度画素と仮走路とを走路として特定することで、白線の無い走路であっても精度良く走路を特定することができる。 By binarizing each pixel into a low-brightness pixel and a high-brightness pixel with reference to a first threshold value that is predetermined for each pixel in the infrared image, the infrared amount of the infrared image is higher than that of the first threshold value. A large area and a small area can be distinguished. Since the runway is included in the region where the amount of infrared rays is larger than the first threshold and a part of the low- luminance pixel region is the runway, the infrared image may be divided into two parts: the region including the runway and the region not including the runway. it can. An area where the low- luminance pixel area and a predetermined area overlap is estimated as a partial road area. Since the runways exist continuously, low- luminance pixels that are continuous with the partial runway region are also recognized as runways, and are thus sequentially labeled and specified as temporary runways. In addition, since the high- intensity pixels included in the temporary runway are also in the runway region, by specifying the low-intensity pixels and the temporary runway included in the temporary runway as the runway, even the runway without a white line is accurate You can identify the runway well.

また、前記障害物検出部は、前記ステレオ画像上の前記走路に対応する領域のみ3次元座標を算出して障害物を検出してもよい。障害物の検出に3次元座標を用いることで精度向上を図ることができる。また、ステレオ画像上の走路の特定をしてから障害物を検出することで3次元座標の算出領域をステレオ画像上の走路に対応する領域に限定することができ、演算負荷の軽減をすることができる。   The obstacle detection unit may detect an obstacle by calculating a three-dimensional coordinate only in a region corresponding to the travel path on the stereo image. The accuracy can be improved by using the three-dimensional coordinates for the detection of the obstacle. In addition, it is possible to limit the calculation area of the three-dimensional coordinates to the area corresponding to the road on the stereo image by detecting the obstacle after specifying the road on the stereo image, and reducing the calculation load. Can do.

また、車両前方を撮影する赤外線カメラと、車両前方を撮影するステレオカメラと、前記赤外線カメラにより撮影された赤外線画像を基に車両前方の走路を特定する走路特定部と、前記ステレオカメラにより撮影された各画像において、前記赤外線画像上で特定された前記走路に対応する領域を基に走路のステレオ画像を作成するステレオ画像作成部と、前記ステレオ画像に基づいて、前記走路上の障害物を検出する障害物検出部とを備えた車両用障害物検出装置でもよい。ステレオ画像の作成を走路部分に限定することでステレオ画像作成の演算負荷を軽減することができ、障害物の検出をより高速に実施することができる。 In addition, an infrared camera that captures the front of the vehicle, a stereo camera that captures the front of the vehicle, a travel path identifying unit that identifies a travel path ahead of the vehicle based on the infrared image captured by the infrared camera, and the stereo camera. In each image, a stereo image creation unit that creates a stereo image of a runway based on an area corresponding to the runway identified on the infrared image, and detects an obstacle on the runway based on the stereo image The obstacle detection device for vehicles provided with the obstacle detection part to perform may be sufficient. By limiting the creation of the stereo image to the road part, the calculation load for creating the stereo image can be reduced, and the obstacle can be detected at a higher speed.

また、前記ステレオ画像作成部は、前記赤外線画像を基に特定された前記走路の座標位置に対応する前記ステレオカメラが撮影した各画像における走路を特定する走路マッチング部と、前記ステレオカメラにより撮影された各画像において特定された前記走路を基に前記走路のステレオ画像を作成するステレオ走路画像作成部とを有することが好ましい。   The stereo image creation unit is photographed by the stereo camera and a runway matching unit that identifies a runway in each image taken by the stereo camera corresponding to the coordinate position of the runway identified based on the infrared image. It is preferable to have a stereo runway image creation unit that creates a stereo image of the runway based on the runway specified in each image.

赤外線画像を基に特定された走路の座標位置を用いて、ステレオカメラが撮影した各画像における走路を特定するので、ステレオカメラが撮影した各画像上の走路の特定を容易に実施することができる。さらに、ステレオ画像を作成するのが走路領域だけであるので、画像全体のステレオ画像を作成するのに比べて演算負荷の軽減をすることができる。   Since the runway in each image photographed by the stereo camera is specified using the coordinate position of the runway identified based on the infrared image, the runway on each image photographed by the stereo camera can be easily identified. . Furthermore, since the stereo image is created only in the runway region, the calculation load can be reduced compared to creating a stereo image of the entire image.

また、前記障害物検出部は、前記走路のステレオ画像を基に前記走路の3次元座標を計測する3次元座標計測部と、前記走路の3次元座標を基に前記走路上の障害物を判別する障害物判別部とを有することが好ましい。この構成によれば、ステレオ画像上の走路領域の各画素に対して3次元座標を計測し、3次元座標を基に障害物を検出するので、精度良く障害物を検出することができる。   The obstacle detection unit determines a three-dimensional coordinate measurement unit that measures the three-dimensional coordinates of the road based on a stereo image of the road, and determines an obstacle on the road based on the three-dimensional coordinates of the road. It is preferable to have an obstacle discrimination unit. According to this configuration, since the three-dimensional coordinates are measured for each pixel in the traveling area on the stereo image and the obstacle is detected based on the three-dimensional coordinates, the obstacle can be detected with high accuracy.

また、前記障害物判別部は、前記走路の3次元座標を基に、奥行き方向に対する車両高さ方向の変化率を算出し、前記奥行き方向に対する車両高さ方向の変化率と予め定められた第2閾値とを比較し、前記第2閾値よりも前記奥行き方向に対する車両高さ方向の変化率が大きい前記走路の3次元座標上に障害物が有ると判別してもよい。この構成によれば、奥行き方向に対する車両高さ方向の変化率に対して予め定められた第2閾値を基準として障害物を判別するので、適切に障害物を検出することができる。   The obstacle determination unit calculates a change rate in the vehicle height direction with respect to the depth direction based on the three-dimensional coordinates of the runway, and is set as a change rate in the vehicle height direction with respect to the depth direction. Two threshold values may be compared, and it may be determined that there is an obstacle on the three-dimensional coordinates of the runway, where the rate of change in the vehicle height direction with respect to the depth direction is greater than the second threshold value. According to this configuration, since the obstacle is determined based on the second threshold value that is predetermined with respect to the rate of change in the vehicle height direction with respect to the depth direction, the obstacle can be detected appropriately.

また、前記ステレオ画像作成部は、前記ステレオカメラの少なくとも1つのカメラにより撮影された画像における、前記赤外線画像を基に特定された前記走路に対応する領域のエッジを強調するエッジ強調部を有し、前記ステレオ走路画像作成部は、特定された前記走路内のエッジが強調された点または線のステレオ画像を作成し、前記障害物検出部は、前記エッジが強調された点または線上の3次元座標を計測する3次元座標計測部と、前記エッジが強調された点または線上の3次元座標を基に、奥行き方向に対する車両高さ方向の変化率を算出し、前記奥行き方向に対する車両高さ方向の変化率と予め定められた第2閾値とを比較し、前記第2閾値よりも前記奥行き方向に対する車両高さ方向の変化率が大きい前記走路の3次元座標上に障害物が有ると判別する障害物判別部とを有してもよい。   The stereo image creation unit includes an edge enhancement unit that enhances an edge of a region corresponding to the runway identified based on the infrared image in an image taken by at least one of the stereo cameras. The stereo runway image creation unit creates a stereo image of a point or line in which the identified edge in the runway is emphasized, and the obstacle detection unit creates a three-dimensional image on the point or line in which the edge is emphasized. Based on a three-dimensional coordinate measuring unit for measuring coordinates and a three-dimensional coordinate on the point or line where the edge is emphasized, the rate of change in the vehicle height direction relative to the depth direction is calculated, and the vehicle height direction relative to the depth direction And a predetermined second threshold value are compared, and the change rate in the vehicle height direction relative to the depth direction is larger than the second threshold value on the three-dimensional coordinates of the runway May have an obstacle discriminating unit for discriminating a harmless substance is present.

この構成によれば、ステレオカメラの少なくとも1つのカメラにより撮影された画像における、赤外線画像を基に特定された路に対応する領域のエッジを強調し、このエッジ強調部分のステレオ画像を作成する。さらに、エッジが強調された点または線上の3次元座標を基に、奥行き方向に対する車両高さ方向の変化率を算出する。奥行き方向に対する車両高さ方向の変化率と予め定められた第2閾値とを比較し、第2閾値よりも奥行き方向に対する車両高さ方向の変化率が大きい走路の3次元座標上に障害物が有ると判別する。ステレオ画像の作成および奥行き方向に対する車両高さ方向の変化率をエッジ強調部分だけ算出して障害物を判別するので、障害物の検出負荷を低減することができる。 According to this configuration, in the image taken by at least one camera of the stereo camera, emphasizing the edges of the region corresponding to the run channel identified on the basis of the infrared image, to create a stereo image of the edge enhancement part . Furthermore, the rate of change in the vehicle height direction with respect to the depth direction is calculated based on a point or a three-dimensional coordinate on the line where the edge is emphasized. The rate of change in the vehicle height direction with respect to the depth direction is compared with a predetermined second threshold, and an obstacle is present on the three-dimensional coordinates of the runway where the rate of change in the vehicle height direction with respect to the depth direction is greater than the second threshold. It is determined that it exists. Since the obstacle is identified by creating the stereo image and calculating the rate of change in the vehicle height direction with respect to the depth direction only for the edge emphasis portion, the obstacle detection load can be reduced.

また、前記赤外線カメラと前記ステレオカメラとが車幅方向に直線上に配置されていることが好ましい。この構成によれば、赤外線カメラと前記ステレオカメラとが車幅方向に直線上に配置されているので、赤外線画像上の走路とステレオカメラが撮影した各画像上の走路との対応を容易にすることができる。   Moreover, it is preferable that the said infrared camera and the said stereo camera are arrange | positioned on the straight line in the vehicle width direction. According to this configuration, since the infrared camera and the stereo camera are arranged in a straight line in the vehicle width direction, the correspondence between the road on the infrared image and the road on each image taken by the stereo camera is facilitated. be able to.

また、前記ステレオカメラは複数の可視光カメラを有することが好ましい。ステレオカメラが複数の可視光カメラを有することで、ステレオカメラによる画像の解像度を上げることができ、精度の良いステレオ画像を作成することができる。これより、位置精度の高い走路の3次元座標を得ることができる。   The stereo camera preferably includes a plurality of visible light cameras. Since the stereo camera has a plurality of visible light cameras, the resolution of the image by the stereo camera can be increased, and a highly accurate stereo image can be created. As a result, it is possible to obtain the three-dimensional coordinates of the road with high positional accuracy.

また、前記赤外線カメラが2個の可視光カメラを有する前記ステレオカメラの各カメラの間に配置されていることが好ましい。この構成によれば、赤外線カメラがステレオカメラの各カメラの間に配置されているので、赤外線画像上における走路とステレオカメラが撮影した各画像上の走路との位置ずれを低減することができる。   Moreover, it is preferable that the infrared camera is disposed between the cameras of the stereo camera having two visible light cameras. According to this configuration, since the infrared camera is arranged between the cameras of the stereo camera, it is possible to reduce the positional deviation between the runway on the infrared image and the runway on each image taken by the stereo camera.

また、前記赤外線カメラの撮影領域と前記ステレオカメラの少なくとも1つのカメラの撮影領域とが位置合わせされていることが好ましい。この構成によれば、赤外線カメラの撮影領域とステレオカメラの少なくとも1つのカメラの撮影領域とが位置合わせされているので、赤外線画像上における走路とステレオカメラが撮影した各画像上の走路との位置合わせを容易にすることができる。   Moreover, it is preferable that the imaging region of the infrared camera and the imaging region of at least one camera of the stereo camera are aligned. According to this configuration, since the shooting area of the infrared camera and the shooting area of at least one camera of the stereo camera are aligned, the position of the runway on the infrared image and the runway on each image taken by the stereo camera Matching can be facilitated.

また、本発明に係る車両は、上記車両用障害物検出装置を備えた車両である。上記車両用障害物検出装置を備えることで、走路上の障害物を検出することができる。   A vehicle according to the present invention is a vehicle including the vehicle obstacle detection device. By providing the vehicle obstacle detection device, an obstacle on the runway can be detected.

本発明によれば、赤外線画像を基に走路を特定し、特定された赤外線画像の走路に対応するステレオカメラが撮影した各画像における領域、すなわち、ステレオカメラが撮影した各画像における走路のステレオ画像を作成する。作成されたステレオ画像から走路上の障害物を検出する。赤外線画像により走路を特定するので、走路に白線が無くても走路を検出することができる。また、走路上における障害物のみを検出するので、走路外の障害物を誤認することがない。   According to the present invention, a runway is specified based on an infrared image, and a region in each image taken by a stereo camera corresponding to the runway of the specified infrared image, that is, a stereo image of a runway in each image taken by the stereo camera. Create An obstacle on the road is detected from the created stereo image. Since the runway is specified by the infrared image, the runway can be detected even if there is no white line on the runway. In addition, since only obstacles on the runway are detected, no obstacles outside the runway are mistaken.

実施例に係る車両の前面図である。1 is a front view of a vehicle according to an embodiment. 実施例に係る車両の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the vehicle which concerns on an Example. 実施例に係る障害物検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus which concerns on an Example. 実施例1に係る走路特定部の構成を示すブロック図である。It is a block diagram which shows the structure of the runway specific | specification part which concerns on Example 1. FIG. 実施例1に係る2値化処理された赤外線画像を示す説明図である。It is explanatory drawing which shows the infrared image by which the binarization process which concerns on Example 1 was carried out. 実施例1に係る2値化処理された赤外線画像を示す説明図である。It is explanatory drawing which shows the infrared image by which the binarization process which concerns on Example 1 was carried out. 実施例1に係る2値化画像において走路の推定を示す説明図である。It is explanatory drawing which shows estimation of a runway in the binarized image which concerns on Example 1. FIG. 実施例1に係るラベリングされた走路領域を示す説明図である。It is explanatory drawing which shows the labeled track area which concerns on Example 1. FIG. 実施例1に係る補正された走路領域を示す説明図である。It is explanatory drawing which shows the corrected track area which concerns on Example 1. FIG. 実施例1に係るステレオ画像作成部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a stereo image creation unit according to Embodiment 1. FIG. 実施例に係る障害物検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection part which concerns on an Example. 実施例1に係る障害物検出の流れを示すフローチャートである。6 is a flowchart illustrating a flow of obstacle detection according to the first embodiment. 実施例2に係るステレオ画像作成部の構成を示すブロック図である。10 is a block diagram illustrating a configuration of a stereo image creation unit according to Embodiment 2. FIG. 実施例3および4に係る障害物検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus which concerns on Example 3 and 4. FIG. 実施例3に係る障害物検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection part which concerns on Example 3. FIG. 実施例4に係る障害物検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection part which concerns on Example 4. FIG.

以下、図面を参照して本発明の実施例1を説明する。本発明における車両の実施形態として、自動走行するゴルフカートを挙げる。なお、以下の説明で、前後および左右とは車両1の前進する方向を基準としている。   Embodiment 1 of the present invention will be described below with reference to the drawings. As an embodiment of a vehicle in the present invention, a golf cart that automatically runs is given. In the following description, front and rear and left and right are based on the direction in which the vehicle 1 moves forward.

1.車両の概略構成
図1および図2を参照する。図1は、実施例に係る車両1の概略構成を示す前面図であり、図2は車両1の構成を示す機能ブロック図である。車両1はゴルフ場内を自動または手動走行するゴルフカートである。車両1は、走路に埋め込まれた誘導線から発せられる電磁波に誘導されて自動走行することができる。車両1の前面中央部に赤外線カメラ2と、赤外線カメラ2を挟んで2個の可視光カメラ3a、3bで構成されるステレオカメラ3とが直線上に設けられている。なおステレオカメラ3は、個以上の可視光カメラで構成されてもよい。赤外線カメラ2とステレオカメラ3の少なくとも基準カメラである可視光カメラ3aとはキャリブレーションなどで予め各画像の各座標位置が対応づけられている。赤外線カメラ2とステレオカメラ3とが直線上に配置されているので各画像の各座標位置の対応付けが容易に実施できる。また、赤外線カメラ2を挟んで2個の可視光カメラ3a、3bが配置されているので、赤外線画像上における走路とステレオカメラが撮影した各画像上の走路との位置合わせを容易にすることができる。また、ステレオカメラ3は可視光カメラ3a、3bで構成されるので、赤外線カメラに比べて解像度の高い画像を得ることができる。
1. Schematic configuration of vehicle Referring to FIGS. 1 and 2. FIG. 1 is a front view illustrating a schematic configuration of the vehicle 1 according to the embodiment, and FIG. 2 is a functional block diagram illustrating the configuration of the vehicle 1. The vehicle 1 is a golf cart that travels automatically or manually in a golf course. The vehicle 1 can be automatically driven by being guided by electromagnetic waves emitted from a guide wire embedded in the runway. An infrared camera 2 and a stereo camera 3 composed of two visible light cameras 3a and 3b are provided on a straight line in the center of the front surface of the vehicle 1 with the infrared camera 2 in between. The stereo camera 3 may be composed of three or more visible light cameras. The infrared camera 2 and at least the visible light camera 3a, which is a reference camera of the stereo camera 3, are associated with each coordinate position of each image in advance by calibration or the like. Since the infrared camera 2 and the stereo camera 3 are arranged on a straight line, it is possible to easily associate each coordinate position of each image. In addition, since the two visible light cameras 3a and 3b are arranged with the infrared camera 2 in between, it is easy to align the runway on the infrared image and the runway on each image taken by the stereo camera. it can. In addition, since the stereo camera 3 includes the visible light cameras 3a and 3b, it is possible to obtain an image having a higher resolution than that of the infrared camera.

また、車両1には、車両1が走行する走路および走路上の障害物を検出する障害物検出装置4と、障害物検出装置4が障害物を検出すると運転者に警告を発生する警告出力部8と、障害物の検出により減速または停止の制御をする走行速度制御部9と、車輪を駆動し、走行速度制御部9により回転数が制御される駆動モータ10とが設けられている。本実施例において、車両1はモータで駆動されるがこれに限らず、エンジンにより駆動されてもよい。   Further, the vehicle 1 includes an obstacle detection device 4 that detects a road on which the vehicle 1 travels and an obstacle on the road, and a warning output unit that issues a warning to the driver when the obstacle detection device 4 detects an obstacle. 8, a traveling speed control unit 9 that controls deceleration or stop by detecting an obstacle, and a drive motor 10 that drives wheels and whose rotational speed is controlled by the traveling speed control unit 9 are provided. In the present embodiment, the vehicle 1 is driven by a motor, but is not limited thereto, and may be driven by an engine.

2.障害物検出装置の構成
次に図3を参照して車両1に備えられた障害物検出装置の構成を説明する。図3は、障害物検出装置の構成を示すブロック図である。
2. Configuration of Obstacle Detection Device Next, the configuration of the obstacle detection device provided in the vehicle 1 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a configuration of the obstacle detection apparatus.

障害物検出装置4は、車両1の前方の赤外線画像を撮影する赤外線カメラ2と、車両1の前方の可視光画像を撮影するステレオカメラ3と、赤外線画像を基に車両1の走路を特定する走路特定部5と、ステレオカメラ3により撮影された可視光画像を基にステレオ画像を作成するステレオ画像作成部6と、走路上の障害物を特定する障害物検出部7とを備える。走路特定部5、ステレオ画像作成部6および障害物検出部7はマイクロプロセッサとメモリとで構成される。次にそれぞれの構成部について順に説明する。   The obstacle detection device 4 specifies the travel path of the vehicle 1 based on the infrared camera 2 that captures an infrared image in front of the vehicle 1, the stereo camera 3 that captures a visible light image in front of the vehicle 1, and the infrared image. A runway identifying unit 5, a stereo image creating unit 6 that creates a stereo image based on a visible light image captured by the stereo camera 3, and an obstacle detecting unit 7 that identifies an obstacle on the runway are provided. The runway identification unit 5, the stereo image creation unit 6, and the obstacle detection unit 7 are composed of a microprocessor and a memory. Next, each component will be described in order.

図4を参照する。図4は走路特定部5の構成を示すブロック図である。走路特定部5は、赤外線画像に対して2値化処理する2値化処理部11と、2値化処理された赤外線画像において走路の一部を推定する走路推定部12と、推定された走路に隣接する同じ輝度値の画像をラベリングするラベリング部13と、ラベリングされた走路を補正する走路補正部14とを有する。   Please refer to FIG. FIG. 4 is a block diagram showing the configuration of the runway identification unit 5. The runway specifying unit 5 includes a binarization processing unit 11 that performs binarization processing on the infrared image, a runway estimation unit 12 that estimates a part of the runway in the binarized infrared image, and the estimated runway A labeling unit 13 for labeling images of the same luminance value adjacent to and a runway correction unit 14 for correcting the labeled runway.

2値化処理部11は、赤外線カメラ2により撮影された赤外線画像を予め定められた閾値で2値化処理する。図5は、2値化処理された赤外線画像の一例である。赤外線カメラ2により撮影された赤外線画像において、赤外線を反射する領域は白く、赤外線を吸収する領域は黒く写される。この性質により、芝生は白く高輝度に、走路25は黒く低輝度に写される。芝生が白く写されるのは、植物の葉に含まれるクロロフィルが赤外線を反射するからである。また、黒く写されるのは走路25以外にも、樹木の幹26や、空27、建物28等が挙げられる。予め定められた閾値で赤外線画像を2値化処理することで、高輝度領域と低輝度領域(図5斜線部)とに2分することができる。高輝度領域は芝生や葉が写されている領域であり、低輝度領域には走路25、樹木の幹26、空27および建物28等が含まれる。なお、走路25内に例えば葉や芝生が落ちていると、高輝度領域29として検出される。   The binarization processing unit 11 binarizes the infrared image captured by the infrared camera 2 with a predetermined threshold value. FIG. 5 is an example of a binarized infrared image. In the infrared image taken by the infrared camera 2, the region that reflects infrared light is white and the region that absorbs infrared light is black. Due to this property, the lawn is white with high brightness, and the runway 25 is black with low brightness. The reason why the lawn appears white is that the chlorophyll contained in the leaves of the plant reflects infrared rays. In addition to the runway 25, the tree trunk 26, the sky 27, the building 28, and the like are shown in black. By binarizing the infrared image with a predetermined threshold, it is possible to divide the infrared image into a high luminance region and a low luminance region (shaded portion in FIG. 5). The high luminance area is an area where lawn and leaves are captured, and the low luminance area includes a runway 25, a tree trunk 26, a sky 27, a building 28, and the like. Note that, for example, if a leaf or lawn falls in the runway 25, it is detected as a high brightness area 29.

走路推定部12は、画像の下方中央付近の低輝度領域を走路の一部と推定する。これは、赤外線カメラ2が車両1の前面に設けられているので、赤外線カメラ2が撮影する赤外線画像の下方中央付近には必ず走路が含まれる。そこで、2値化処理された赤外線画像(以後、2値化画像と称す)における下方中央付近の低輝度領域を走路の一部と推定することができる。   The runway estimation unit 12 estimates a low luminance region near the lower center of the image as a part of the runway. This is because the infrared camera 2 is provided on the front surface of the vehicle 1, and therefore a running path is always included near the lower center of the infrared image captured by the infrared camera 2. Therefore, it is possible to estimate a low-luminance region near the lower center in the binarized infrared image (hereinafter referred to as a binarized image) as a part of the runway.

図6および図7は、2値化画像において走路の推定を示す説明図である。2値化画像において、画像の左下隅を画像の原点Oとして、2値化画像内のx1≦x≦x2、y1≦y≦y2の範囲Ar内に低輝度領域の画素が存在するときに(図6)、その画素を走路領域の一部30と推定する(図7)。   6 and 7 are explanatory diagrams showing the estimation of the runway in the binarized image. In the binarized image, when the lower left corner of the image is the origin O of the image, and a pixel in the low luminance area exists in the range Ar of x1 ≦ x ≦ x2 and y1 ≦ y ≦ y2 in the binarized image ( 6), the pixel is estimated as a part 30 of the runway region (FIG. 7).

ラベリング部13は、走路推定部12により推定された走路領域に連続する低輝度領域の画素を順に連結(ラベリング)する。走路は連続しているので、推定された走路領域に連続する全ての低輝度領域の画素を走路領域とすることができる。図8はラベリングされた走路31を示す説明図である。   The labeling unit 13 sequentially connects (labels) pixels in a low-luminance area that is continuous with the road area estimated by the road estimation unit 12. Since the running road is continuous, all the pixels in the low luminance area that are continuous with the estimated running road area can be used as the running road area. FIG. 8 is an explanatory view showing the labeled runway 31.

走路補正部14は、ラベリングされた走路内に含まれる高輝度領域も走路として補正する。また、ラベリングされた走路に連続しない低輝度領域を走路と認定しない。すなわち、図8におけるラベリングされた走路31および走路31に囲まれた高輝度領域29とが、新たに走路32として補正される。また、ラベリングされた走路31に連続しない樹木の幹26、空27および建物28等の低輝度領域は走路ではないと判別される(図9参照)。以上より、白線の無い走路においても精度よく走路を特定することができる。検出された走路32の座標情報がステレオ画像作成部6へ送られる。   The runway correction unit 14 also corrects the high luminance area included in the labeled runway as the runway. In addition, a low-luminance region that is not continuous with the labeled track is not recognized as a track. That is, the labeled runway 31 in FIG. 8 and the high luminance region 29 surrounded by the runway 31 are newly corrected as the runway 32. Further, it is determined that low luminance regions such as the tree trunk 26, the sky 27, and the building 28 that are not continuous with the labeled runway 31 are not runways (see FIG. 9). From the above, it is possible to accurately identify a runway even on a runway without a white line. The detected coordinate information of the running path 32 is sent to the stereo image creation unit 6.

次に図10を参照してステレオ画像作成部を説明する。図10はステレオ画像作成部の構成を示すブロック図である。ステレオ画像作成部6は、赤外線画像上で特定された走路を各可視光画像にマッチングして可視光画像上の走路を特定する走路マッチング部16と、各可視光画像における走路を基に、走路のステレオ画像を作成するステレオ走路画像作成部17とを有する。可視光カメラ3aで撮影された画像を左眼画像として、可視光カメラ3bで撮影された画像を右眼画像としてそれぞれステレオ画像が作成される。   Next, the stereo image creation unit will be described with reference to FIG. FIG. 10 is a block diagram showing the configuration of the stereo image creation unit. The stereo image creation unit 6 matches the runway identified on the infrared image with each visible light image to identify the runway on the visible light image, and the runway based on the runway in each visible light image. And a stereo runway image creation unit 17 for creating a stereo image. Stereo images are created by using the image captured by the visible light camera 3a as the left eye image and the image captured by the visible light camera 3b as the right eye image, respectively.

走路マッチング部16は、可視光カメラ3aおよび3bで撮影された各可視光画像上において、赤外線画像上で特定された走路の座標を指定することで、可視光画像上の走路を特定する。すなわち、走路特定部5の走路補正部14から送られる2値化画像上の走路32の座標と対応する各可視光画像の領域を走路として特定する。なお、走路補正部14にて補正された走路32を含む一回り大きい領域の座標を走路の座標としてもよい。赤外線カメラ2と可視光カメラ3aおよび3bとの視野のズレを吸収することができる。この可視光画像上における特定された走路領域の画像情報がステレオ走路画像作成部17へ送られる。   The runway matching unit 16 specifies the runway on the visible light image by specifying the coordinates of the runway identified on the infrared image on each visible light image captured by the visible light cameras 3a and 3b. That is, the area | region of each visible light image corresponding to the coordinate of the runway 32 on the binarized image sent from the runway correction | amendment part 14 of the runway specific | specification part 5 is pinpointed as a runway. Note that the coordinates of the area that is slightly larger including the runway 32 corrected by the runway correction unit 14 may be used as the coordinates of the runway. The visual field shift between the infrared camera 2 and the visible light cameras 3a and 3b can be absorbed. Image information of the specified road area on the visible light image is sent to the stereo road image creation unit 17.

ステレオ走路画像作成部17は、各可視光画像上の走路を基に走路のステレオ画像を作成する。すなわち、ステレオマッチング法により、可視光カメラ3aで撮影された走路の各画素に対応する可視光カメラ3bで撮影された走路の各画素との視差d(x,y)を有するステレオ画像を作成する。ステレオマッチング法として、左眼画像と右眼画像との対応点によりマッチングさせてもよいし、輝度値の分布状況から差分値の一番小さな対応関係となるようにマッチングさせてもよい。作成された走路のステレオ画像は障害物検出部7へ送られる。   The stereo track image creation unit 17 creates a stereo image of the track based on the track on each visible light image. That is, a stereo image having a parallax d (x, y) with each pixel of the runway photographed by the visible light camera 3b corresponding to each pixel of the runway photographed by the visible light camera 3a is created by the stereo matching method. . As a stereo matching method, matching may be performed based on corresponding points between the left-eye image and the right-eye image, or matching may be performed so as to obtain the smallest correspondence relationship of the difference values based on the distribution of luminance values. The created stereo image of the road is sent to the obstacle detection unit 7.

次に図11を参照して障害物検出部を説明する。図11は障害物検出部の構成を示すブロック図である。障害物検出部7は、走路のステレオ画像から走路の3次元座標を計測する3次元座標計測部21と、計測された3次元座標を基に、走路上の障害物を判定する障害物判別部22とを有する。   Next, the obstacle detection unit will be described with reference to FIG. FIG. 11 is a block diagram illustrating a configuration of the obstacle detection unit. The obstacle detection unit 7 includes a three-dimensional coordinate measurement unit 21 that measures a three-dimensional coordinate of a road from a stereo image of the road, and an obstacle determination unit that determines an obstacle on the road based on the measured three-dimensional coordinates. 22.

3次元座標計測部21は、特定された走路領域のステレオ画像を基に、走路領域の各点の3次元座標を計測する。すなわち、基準カメラである可視光カメラ3aの焦点を原点とした走路の3次元座標を、可視光カメラ3aが撮影した画像上の座標(x,y)およびステレオ画像における視差d(x,y)から以下の計算式を用いて算出することができる。   The three-dimensional coordinate measuring unit 21 measures the three-dimensional coordinates of each point in the road area based on the stereo image of the specified road area. That is, the three-dimensional coordinates of the runway with the focal point of the visible light camera 3a as the reference camera as the origin, the coordinates (x, y) on the image taken by the visible light camera 3a and the parallax d (x, y) in the stereo image Can be calculated using the following formula.

Z=T・f/d(x,y) …(1)
X=(x−x)・Z/f …(2)
Y=(y−y)・Z/f …(3)
ここで、fは可視光カメラ3aの焦点距離であり、Tはステレオカメラ3(可視光カメラ3aと3b)のカメラ間隔である。(x0,)は可視光カメラ3aが撮影した画像の中心座標である。また、Zは距離方向(奥行き方向)を示し、Xは水平方向を示し、Yは鉛直方向(高さ方向)を示す。以上より、画面上の2次元座標から3次元の世界座標を計測することができる。
Z = T · f / d (x, y) (1)
X = (x−x 0 ) · Z / f (2)
Y = (y−y 0 ) · Z / f (3)
Here, f is the focal length of the visible light camera 3a, and T is the camera interval of the stereo camera 3 (visible light cameras 3a and 3b). (X 0, y 0 ) is the center coordinates of the image captured by the visible light camera 3a. Z represents the distance direction (depth direction), X represents the horizontal direction, and Y represents the vertical direction (height direction). As described above, the three-dimensional world coordinates can be measured from the two-dimensional coordinates on the screen.

障害物判別部22は、特定された走路領域内の3次元座標を基に、走路上の障害物の有無を判別する。車両1が走行する走路には、一般的に傾斜に上限があり、かつ傾斜変化がなだらかである。これより、走路領域内で、傾斜θが予め設定された閾値を越える場合、または、傾斜変化Δθが予め設定された閾値を越える場合、障害物が有ると判別する。この条件を満たさない場合は、障害物が無いと判別する。   The obstacle determination unit 22 determines the presence or absence of an obstacle on the road based on the three-dimensional coordinates in the specified road area. In general, the road on which the vehicle 1 travels has an upper limit on inclination and a gentle change in inclination. Accordingly, it is determined that there is an obstacle when the slope θ exceeds a preset threshold value or when the slope change Δθ exceeds a preset threshold value in the road area. If this condition is not satisfied, it is determined that there is no obstacle.

例えば、Z−Y方向の傾斜を判別基準として障害物を判別する場合、以下の式により判別することができる。以下の式において、
u=x−x,v=y−y,C=T・f
であり、βおよびγは予め設定された値である。
For example, when an obstacle is determined using the inclination in the Z-Y direction as a determination criterion, it can be determined by the following equation. In the following formula:
u = x−x 0 , v = y−y 0 , C = T · f
And β and γ are preset values.

θ=ΔY/ΔZ
=(Y(u,v+1)−Y(u,v))/(Z(u,v+1)−Z(u,v))
=((v+1)・C/d(u,v+1)−v・C/d(u,v))/(C/d(u,v+1)−C/d(u,v))
=((v+1)/d(u,v+1)−v/d(u,v))/(1/d(u,v+1)−1/d(u,v))
>β …(4)
θ = ΔY / ΔZ
= (Y (u, v + 1) -Y (u, v)) / (Z (u, v + 1) -Z (u, v))
= ((V + 1) .C / d (u, v + 1) -v.C / d (u, v)) / (C / d (u, v + 1) -C / d (u, v))
= ((V + 1) / d (u, v + 1) -v / d (u, v)) / (1 / d (u, v + 1) -1 / d (u, v))
> Β (4)

|Δθ|
=(Y(u,v+2)−Y(u,v+1))/(Z(u,v+2)−Z(u,v+1))−(Y(u,v+1)−Y(u,v))/(Z(u,v+1)−Z(u,v))
=((v+2)/d(u,v+2)−v/d(u,v+1))/(1/d(u,v+2)−1/d(u,v+1))−((v+1)/d(u,v+1)−v/d(u,v))/(1/d(u,v+1)−1/d(u,v))
>γ …(5)
| Δθ |
= (Y (u, v + 2) -Y (u, v + 1)) / (Z (u, v + 2) -Z (u, v + 1))-(Y (u, v + 1) -Y (u, v)) / ( Z (u, v + 1) -Z (u, v))
= ((V + 2) / d (u, v + 2) -v / d (u, v + 1)) / (1 / d (u, v + 2) -1 / d (u, v + 1))-((v + 1) / d ( u, v + 1) -v / d (u, v)) / (1 / d (u, v + 1) -1 / d (u, v))
> Γ (5)

(4)式では、Z−Y方向の傾斜の大きさを基準としており、(5)式ではZ−Y方向の傾斜の変化の大きさを基準として障害物を判別するので適切に障害物を検出することができる。(4)式または(5)式を満たす場合、障害物が存在すると判別する。障害物が存在すると判別された場合、障害物検出信号が警告出力部8および走行速度制御部9へ送られる。警告出力部8は、障害物検出信号が送られると、音声または映像により運転者へ障害物が走路上に有ることの警告を発する。走行速度制御部9は、障害物検出信号が送られると、障害物までの距離Zに応じて車両1の減速または停止の制御が実施される。   In the equation (4), the magnitude of the inclination in the Z-Y direction is used as a reference, and in the formula (5), the obstacle is discriminated based on the magnitude of the change in the inclination in the Z-Y direction. Can be detected. When the expression (4) or (5) is satisfied, it is determined that an obstacle exists. When it is determined that an obstacle exists, an obstacle detection signal is sent to the warning output unit 8 and the traveling speed control unit 9. When an obstacle detection signal is sent, the warning output unit 8 issues a warning to the driver that there is an obstacle on the road by voice or video. When the obstacle detection signal is sent, the traveling speed control unit 9 performs deceleration or stop control of the vehicle 1 according to the distance Z to the obstacle.

次に、実施例1における走路特定および障害物検出の動作を図12を用いて説明する。図12は、障害物検出の処理手順を示すフローチャートである。   Next, the operation for identifying the road and detecting the obstacle in the first embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing a processing procedure for obstacle detection.

車両1の前面に設けられた赤外線カメラ2により赤外線画像が撮影される(ステップS01)。また、この撮影と同期して、ステレオカメラ3によりステレオ画像が撮影される(ステップS02)。撮影された赤外線画像は、予め定められた閾値を基準として2値化処理される(ステップS03)。2値化処理により、高輝度領域と低輝度領域に2分された赤外線画像の予め設定された画像中央下部領域と低輝度領域との重複部分を走路領域の一部分として特定する(ステップS04)。特定された走路領域の一部分と連続する低輝度領域を走路としてラベリングする(ステップS05)。ラベリングされた走路領域内に含まれる高輝度領域も走路として特定し、ラベリングされた走路領域と隣接しない低輝度領域を走路として特定しないことで、2値化画像上の走路を特定する(ステップS06)。   An infrared image is taken by the infrared camera 2 provided on the front surface of the vehicle 1 (step S01). In synchronism with this shooting, a stereo image is shot by the stereo camera 3 (step S02). The captured infrared image is binarized with a predetermined threshold as a reference (step S03). By the binarization processing, an overlapping portion between a preset lower center portion of the image and the low luminance region of the infrared image divided into the high luminance region and the low luminance region is specified as a part of the running region (step S04). A low luminance area continuous with a part of the identified road area is labeled as a road (step S05). The high brightness area included in the labeled runway area is also specified as a runway, and the low brightness area not adjacent to the labeled runway area is not specified as the runway, thereby specifying the runway on the binarized image (step S06). ).

次に、2値化画像において特定された走路領域と対応する、ステレオカメラ3により撮影された左眼画像および右眼画像上の走路領域を特定する(ステップS07)。左眼画像および右眼画像上の特定された走路領域のみ視差情報を有するステレオ画像を作成する(ステップS08)。作成されたステレオ画像とステレオカメラ3の焦点距離とを基に、走路の3次元座標を計測する(ステップS9)。走路の3次元座標から、走路の傾斜の大きさおよび傾斜変化を算出し、これらの値を予め設定された閾値とそれぞれ比較することで障害物の有無を判別して障害物の位置を特定する(ステップS10)。   Next, a runway region on the left eye image and the right eye image captured by the stereo camera 3 corresponding to the runway region specified in the binarized image is specified (step S07). A stereo image having parallax information is created only in the identified road area on the left eye image and the right eye image (step S08). Based on the created stereo image and the focal length of the stereo camera 3, the three-dimensional coordinates of the runway are measured (step S9). From the three-dimensional coordinates of the road, the magnitude and change of the slope of the road are calculated, and by comparing these values with preset threshold values, the presence or absence of an obstacle is determined, and the position of the obstacle is specified. (Step S10).

実施例1によれば、赤外線画像により走路領域を特定するので、走路に白線がなくても走路を検出することができる。また、赤外線画像上の走路領域だけステレオ画像を作成し走路上の三次元座標計測および障害物検出を行うので、画像全体に対してステレオ画像の作成の処理をするよりも処理速度が向上し、走路外にあるものに対して障害物と判定することを防ぐことができる。また、傾斜変化を考慮しているので、上り坂を障害物と誤検出することがない。また、平易な構成で安価な障害物検出装置を作成することができる。   According to Example 1, since a runway area is specified by an infrared image, a runway can be detected even if there is no white line on the runway. In addition, since the stereo image is created only for the road area on the infrared image and the three-dimensional coordinate measurement and obstacle detection on the road are performed, the processing speed is improved compared to the process of creating the stereo image for the entire image, It can prevent judging that it is an obstacle with respect to what is outside a runway. Moreover, since the change in inclination is taken into consideration, the uphill is not erroneously detected as an obstacle. Moreover, an inexpensive obstacle detection apparatus can be created with a simple configuration.

図13を参照して実施例2に係る障害物検出装置について説明する。
図13は実施例2に係るステレオ画像作成部6’の構成を示すブロック図である。第2実施例は、第1実施例におけるステレオ画像作成および3次元座標計測する走路領域を変更したものである。よって、ここで記載した以外の障害物検出装置および車両の構造は実施例1と同様である。図13において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。
The obstacle detection apparatus according to the second embodiment will be described with reference to FIG.
FIG. 13 is a block diagram illustrating a configuration of the stereo image creation unit 6 ′ according to the second embodiment. In the second embodiment, the runway region in which the stereo image creation and the three-dimensional coordinate measurement in the first embodiment are performed is changed. Therefore, the obstacle detection device and the vehicle structure other than those described here are the same as those in the first embodiment. In FIG. 13, the parts denoted by the same reference numerals as those in the first embodiment have the same configuration as that in the first embodiment, and thus the description thereof is omitted here.

実施例2の特徴は、実施例1における全ての走路領域におけるステレオ画像の作成に代えて、基準画像である左眼画像上において走路のエッジ強調処理を実施し、強調された点またはラインに対して3次元座標計測をして障害物を検出する点である。これは、障害物の無い走路の輝度値は変化が少なく、障害物のある走路領域は輝度値の変化が大きいことを利用している。   The feature of the second embodiment is that, instead of creating a stereo image in all the runway areas in the first embodiment, the edge emphasis processing of the runway is performed on the left eye image that is the reference image, and the emphasized point or line is This is the point where obstacles are detected by measuring three-dimensional coordinates. This utilizes the fact that the brightness value of the road without an obstacle has a small change, and that the brightness value of the road area with the obstacle has a large change.

エッジ強調部41は、可視光カメラ3aにより撮影された左眼画像において対応する走路領域をエッジ強調する。このエッジ強調はたとえばハイパスフィルタを実施すればよい。ステレオ走路画像作成部17’は、左眼画像におけるエッジ強調された走路領域の画像とこれに対応する右眼画像におけるエッジ強調部分の領域の画像とから、エッジ強調部分の点およびライン部分領域のステレオ画像を作成する。作成されたステレオ画像は障害物検出部7へ送られ、3次元座標計測部21でエッジが強調された点または線上の3次元座標を計測する。障害物判別部22では、エッジが強調された点または線上の3次元座標を基に、奥行き方向に対する車両高さ方向の変化率を算出し、奥行き方向に対する車両高さ方向の変化率と予め定められた第2閾値とを比較し、第2閾値よりも奥行き方向に対する車両高さ方向の変化率が大きい走路の3次元座標上に障害物が有ると判別する。実施例2によれば、走路領域の全ての領域のステレオ画像の作成および3次元座標を計測しなくてもよいので、障害物を検出する演算の負荷を軽減することができる。   The edge emphasizing unit 41 edge-enhances the corresponding runway region in the left eye image photographed by the visible light camera 3a. For this edge enhancement, for example, a high-pass filter may be implemented. The stereo runway image creation unit 17 ′ uses the edge-enhanced point area and the line partial area from the edge-enhanced runway area image in the left-eye image and the corresponding edge-enhanced area image in the right-eye image. Create a stereo image. The created stereo image is sent to the obstacle detection unit 7 and the three-dimensional coordinate measurement unit 21 measures the three-dimensional coordinates on the point or line where the edge is emphasized. The obstacle discriminating unit 22 calculates the rate of change in the vehicle height direction with respect to the depth direction based on the point or the three-dimensional coordinates on the line in which the edge is emphasized. The obtained second threshold value is compared, and it is determined that there is an obstacle on the three-dimensional coordinates of the road where the rate of change in the vehicle height direction with respect to the depth direction is larger than the second threshold value. According to the second embodiment, since it is not necessary to create a stereo image and measure the three-dimensional coordinates of the entire road area, it is possible to reduce the calculation load for detecting an obstacle.

図14および図15を参照して実施例3に係る障害物検出装置について説明する。
図14は実施例3に係る障害物検出装置54の構成を示すブロック図であり、図15は実施例3に係る障害物検出部57の構成を示すブロック図である。実施例3は、実施例1におけるステレオ画像作成および障害物検出方法を変更したものである。よって、ここで記載した以外の障害物検出装置および車両の構造は実施例1と同様である。図14および図15において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。
An obstacle detection apparatus according to the third embodiment will be described with reference to FIGS. 14 and 15.
FIG. 14 is a block diagram illustrating the configuration of the obstacle detection device 54 according to the third embodiment, and FIG. 15 is a block diagram illustrating the configuration of the obstacle detection unit 57 according to the third embodiment. The third embodiment is a modification of the stereo image creation and obstacle detection method in the first embodiment. Therefore, the obstacle detection device and the vehicle structure other than those described here are the same as those in the first embodiment. In FIG. 14 and FIG. 15, since the part shown with the code | symbol same as the code | symbol shown in Example 1 is the structure similar to Example 1, description here is abbreviate | omitted.

実施例3の特徴は、実施例1において走路領域だけ作成していたステレオ画像を撮影画像全体のステレオ画像を作成する点である。これに伴って、走路特定部の出力を障害物検出部に変更し、作成されたステレオ画像に対して走路の特定を実施する。   The feature of the third embodiment is that a stereo image of the entire captured image is created from the stereo image created only in the road area in the first embodiment. In connection with this, the output of a runway specific | specification part is changed into an obstacle detection part, and a runway is specified with respect to the produced stereo image.

ステレオ画像作成部56は、可視光カメラ3a、3bから入力された左眼画像および右眼画像を基に、撮影画像全体のステレオ画像を作成する。作成されたステレオ画像は障害物検出部57へ送られる。また、走路特定部5にて特定された走路32の座標情報が障害物検出部57へ送られる。   The stereo image creation unit 56 creates a stereo image of the entire captured image based on the left eye image and the right eye image input from the visible light cameras 3a and 3b. The created stereo image is sent to the obstacle detection unit 57. Further, the coordinate information of the runway 32 specified by the runway specifying unit 5 is sent to the obstacle detection unit 57.

障害物検出部57は、赤外線画像上で特定された走路を作成されたステレオ画像にマッチングしてステレオ画像上の走路を特定する走路マッチング部58と、走路のステレオ画像から走路の3次元座標を計測する3次元座標計測部21と、計測された3次元座標を基に、走路上の障害物を判定する障害物判別部22とを有する。   The obstacle detection unit 57 matches the runway identified on the infrared image with the created stereo image to identify the runway on the stereo image, and the three-dimensional coordinates of the runway from the stereo image of the runway. It has a three-dimensional coordinate measurement unit 21 for measuring, and an obstacle determination unit 22 for determining an obstacle on the road based on the measured three-dimensional coordinates.

走路マッチング部58は、作成されたステレオ画像上において、赤外線画像上で特定された走路の座標を指定することで、ステレオ画像上の走路を特定する。すなわち、走路特定部5の走路補正部14から送られる2値化画像上の走路32の座標と対応するステレオ画像の領域を走路として特定する。なお、走路補正部14にて補正された走路32を含む一回り大きい領域の座標を走路の座標としてもよい。   The runway matching unit 58 specifies the runway on the stereo image by designating the coordinates of the runway specified on the infrared image on the created stereo image. That is, the region of the stereo image corresponding to the coordinates of the runway 32 on the binarized image sent from the runway correction unit 14 of the runway specifying unit 5 is specified as the runway. Note that the coordinates of the area that is slightly larger including the runway 32 corrected by the runway correction unit 14 may be used as the coordinates of the runway.

実施例3の障害物検出装置を用いても、赤外線画像により走路を特定するので、走路に白線が無くても走路を検出することができる。また、走路上における障害物のみを検出するので、走路外の障害物を誤認することがない。   Even when the obstacle detection device of the third embodiment is used, since the runway is specified by the infrared image, the runway can be detected even if there is no white line on the runway. In addition, since only obstacles on the runway are detected, no obstacles outside the runway are mistaken.

図14および図16を参照して実施例4に係る障害物検出装置について説明する。
図16は実施例4に係る障害物検出部67の構成を示すブロック図である。実施例4は、実施例3における障害物検出方法をさらに変更したものである。よって、ここで記載した以外の障害物検出装置および車両の構造は実施例3と同様である。図16において、実施例3または実施例1に示した符号と同一の符号で示した部分は、実施例3または実施例1と同様の構成であるのでここでの説明は省略する。
An obstacle detection apparatus according to the fourth embodiment will be described with reference to FIGS. 14 and 16.
FIG. 16 is a block diagram illustrating the configuration of the obstacle detection unit 67 according to the fourth embodiment. The fourth embodiment is a further modification of the obstacle detection method in the third embodiment. Therefore, the obstacle detection device and the vehicle structure other than those described here are the same as those in the third embodiment. In FIG. 16, the portions denoted by the same reference numerals as those in the third embodiment or the first embodiment have the same configuration as the third embodiment or the first embodiment, and thus the description thereof is omitted here.

実施例4の特徴は、実施例3において撮影画像全体のステレオ画像に対して走路の特定が実施されたが、実施例4では撮影画像全体のステレオ画像を基に撮影画像全体の3次元座標を計測し、この撮影画像全体の3次元座標に対して走路の特定を実施する点である。   The feature of the fourth embodiment is that the travel path is specified for the stereo image of the entire captured image in the third embodiment, but in the fourth embodiment, the three-dimensional coordinates of the entire captured image are obtained based on the stereo image of the entire captured image. It is a point to measure and to identify the runway with respect to the three-dimensional coordinates of the entire photographed image.

障害物検出部67は、画像全体のステレオ画像から画像全体の3次元座標を計測する3次元座標計測部61と、赤外線画像上で特定された走路を作成された3次元座標にマッチングして3次元座標上の走路を特定する走路マッチング部68と、計測された3次元座標を基に、走路上の障害物を判定する障害物判別部22とを有する。   The obstacle detection unit 67 matches the three-dimensional coordinate measuring unit 61 that measures the three-dimensional coordinates of the entire image from the stereo image of the entire image, and the three-dimensional coordinates created by matching the travel path specified on the infrared image. A runway matching unit 68 that identifies a runway on a dimensional coordinate and an obstacle determination unit 22 that determines an obstacle on the runway based on the measured three-dimensional coordinates.

3次元座標計測部61は、作成された画像全体のステレオ画像を基に、画像上の各点の3次元座標を計測する。3次元座標の計測の方法は実施例1と同様である。走路マッチング部68は、作成された3次元座標上において、赤外線画像上で特定された走路の座標を指定することで、3次元座標上の走路を特定する。すなわち、走路特定部5の走路補正部14から送られる2値化画像上の走路32の座標と対応する3次元座標上の領域を走路として特定する。なお、走路補正部14にて補正された走路32を含む一回り大きい領域の座標を走路の座標としてもよい。   The three-dimensional coordinate measuring unit 61 measures the three-dimensional coordinates of each point on the image based on the created stereo image of the entire image. The method for measuring the three-dimensional coordinates is the same as in the first embodiment. The runway matching unit 68 specifies the runway on the three-dimensional coordinates by designating the coordinates of the runway specified on the infrared image on the created three-dimensional coordinates. That is, the area on the three-dimensional coordinate corresponding to the coordinates of the runway 32 on the binarized image sent from the runway correction unit 14 of the runway specifying unit 5 is specified as the runway. Note that the coordinates of the area that is slightly larger including the runway 32 corrected by the runway correction unit 14 may be used as the coordinates of the runway.

実施例4の障害物検出装置を用いても、赤外線画像により走路を特定するので、走路に白線が無くても走路を検出することができる。また、走路上における障害物のみを検出するので、走路外の障害物を誤認することがない。   Even when the obstacle detection device of the fourth embodiment is used, the runway is specified by the infrared image, so that the runway can be detected even if there is no white line on the runway. In addition, since only obstacles on the runway are detected, no obstacles outside the runway are mistaken.

本発明は、上記実施例のものに限らず、次のように変形実施することができる。   The present invention is not limited to the above embodiment, and can be modified as follows.

(1)上記実施例において、2値化処理した後の赤外線画像に対してノイズ除去フィルタを実施して小さいノイズを除去してもよい。ノイズ除去フィルタとして膨張−収縮アルゴリズムを採用することができる。小さいノイズを除去することで、低輝度領域および高輝度領域の区別が明確化される。   (1) In the above embodiment, a small noise may be removed by performing a noise removal filter on the infrared image after the binarization process. An expansion-contraction algorithm can be employed as the noise removal filter. By removing the small noise, the distinction between the low luminance region and the high luminance region is clarified.

(2)上記実施例では、傾斜の計算を2点の座標から算出しているが、3点以上の座標から算出しても良い。同様に、傾斜変化の計算を4点以上の座標から算出しても良い。また、障害物の判別に使用する傾斜、および、傾斜変化の計算は、必ずしも画像内の隣接している点に対するものでなくても良い。   (2) In the above embodiment, the inclination is calculated from the coordinates of two points, but may be calculated from the coordinates of three or more points. Similarly, the inclination change may be calculated from four or more coordinates. In addition, the inclination used for discrimination of the obstacle and the calculation of the inclination change do not necessarily have to be performed on adjacent points in the image.

(3)上記実施例では、1つの傾斜、あるいは、1つの傾斜変化から、障害物の判別を行っているが、複数の傾斜、あるいは、傾斜変化を考慮して、障害物の判別を行っても良い。   (3) In the above embodiment, the obstacle is determined from one inclination or one inclination change. However, the obstacle is determined in consideration of a plurality of inclinations or inclination changes. Also good.

(4)上記実施例では、Z−Y方向の傾斜、および、傾斜変化から障害物を判別しているが、X−Y方向を使っても良い。また、複数の方向の傾斜、および、傾斜変化から障害物を判別しても良い。   (4) In the above embodiment, the obstacle is determined from the inclination in the ZY direction and the change in inclination, but the XY direction may be used. Moreover, you may discriminate | determine an obstruction from the inclination of several directions, and inclination change.

(5)上記実施例では、Z−Y方向の傾斜、および、傾斜変化から障害物を判別しているが、傾斜変化からのみ障害物を判別しても良い。   (5) In the above embodiment, the obstacle is determined from the inclination in the Z-Y direction and the change in inclination. However, the obstacle may be determined only from the change in inclination.

1 … 車両
2 … 赤外線カメラ
3 … ステレオカメラ
3a、3b …可視光カメラ
4 … 障害物検出装置
5 … 走路特定部
6 … ステレオ画像作成部
11 … 2値化処理部
12 … 走路推定部
13 … ラベリング部
14 … 走路補正部
16 … 走路マッチング部
17 … ステレオ走路画像作成部
21 … 3次元座標計測部
22 … 障害物判別部
DESCRIPTION OF SYMBOLS 1 ... Vehicle 2 ... Infrared camera 3 ... Stereo camera 3a, 3b ... Visible light camera 4 ... Obstacle detection apparatus 5 ... Runway identification part 6 ... Stereo image creation part 11 ... Binarization process part 12 ... Runway estimation part 13 ... Labeling Unit 14 ... Runway correction unit 16 ... Runway matching unit 17 ... Stereo runway image creation unit 21 ... Three-dimensional coordinate measurement unit 22 ... Obstacle discrimination unit

Claims (13)

車両前方を撮影する赤外線カメラと、
車両前方を撮影するステレオカメラと、
前記赤外線カメラにより撮影された赤外線画像を基に車両前方の走路を特定する走路特定部と、
前記ステレオカメラにより撮影された各画像に基づいてステレオ画像を作成するステレオ画像作成部と、
前記走路特定部により特定された走路情報に基づき、前記ステレオ画像上の走路を特定し、前記走路上の障害物を検出する障害物検出部と
を備えた車両用障害物検出装置。
An infrared camera for photographing the front of the vehicle;
A stereo camera for photographing the front of the vehicle;
A road identification unit that identifies the road ahead of the vehicle based on the infrared image captured by the infrared camera;
A stereo image creation unit for creating a stereo image based on each image captured by the stereo camera;
An obstacle detection device for a vehicle, comprising: an obstacle detection unit that identifies a road on the stereo image and detects an obstacle on the road based on the road information specified by the road identification unit.
車両前方を撮影する赤外線カメラと、
車両前方を撮影するステレオカメラと、
前記赤外線カメラにより撮影された赤外線画像を基に車両前方の走路を特定する走路特定部と、
前記ステレオカメラにより撮影された各画像において、前記赤外線画像上で特定された前記走路に対応する領域を基に走路のステレオ画像を作成するステレオ画像作成部と、
前記ステレオ画像に基づいて、前記走路上の障害物を検出する障害物検出部と
を備えた車両用障害物検出装置。
An infrared camera for photographing the front of the vehicle;
A stereo camera for photographing the front of the vehicle;
A road identification unit that identifies the road ahead of the vehicle based on the infrared image captured by the infrared camera;
In each image taken by the stereo camera, a stereo image creation unit that creates a stereo image of a runway based on an area corresponding to the runway specified on the infrared image;
An obstacle detection unit for detecting an obstacle on the road based on the stereo image;
An obstacle detection device for a vehicle comprising:
請求項1または2に記載の車両用障害物検出装置において、
前記走路特定部は、
前記赤外線画像の各画素に対して予め定められた第1閾値を基準として前記各画素を低輝度画素と高輝度画素とに2値化処理する2値化処理部と、
予め定められた領域と前記輝度画素とが重複する領域を部分走路領域と推定する走路推定部と、
前記部分走路領域と隣接する前記輝度画素を順にラベリングして仮走路を特定するラベリング部と、
前記仮走路内に含まれる輝度画素と前記仮走路とを走路として特定する走路補正部と
を有する車両用障害物検出装置。
In the obstacle detection device for vehicles according to claim 1 or 2 ,
The runway identification unit is
A binarization processing unit that binarizes each of the pixels into a low-intensity pixel and a high-intensity pixel with reference to a predetermined first threshold for each pixel of the infrared image;
A runway estimation unit that estimates a region where a predetermined region and the low luminance pixel overlap as a partial runway region;
A labeling unit that sequentially identifies the low- luminance pixels adjacent to the partial runway region and identifies a temporary runway;
An obstacle detection device for a vehicle, comprising: a high- intensity pixel included in the temporary runway and a runway correction unit that identifies the temporary runway as a runway.
請求項1に記載の車両用障害物検出装置において、
前記障害物検出部は、
前記ステレオ画像上の前記走路に対応する領域のみ3次元座標を算出して障害物を検出する
車両用障害物検出装置。
The vehicle obstacle detection device according to claim 1 ,
The obstacle detection unit is
An obstacle detection device for a vehicle that detects an obstacle by calculating a three-dimensional coordinate only in an area corresponding to the road on the stereo image.
請求項に記載の車両用障害物検出装置において、
前記ステレオ画像作成部は、
前記赤外線画像を基に特定された前記走路の座標位置に対応する前記ステレオカメラが撮影した各画像における走路を特定する走路マッチング部と、
前記ステレオカメラにより撮影された各画像において特定された前記走路を基に前記走路のステレオ画像を作成するステレオ走路画像作成部と
を有する車両用障害物検出装置。
The vehicle obstacle detection device according to claim 2 ,
The stereo image creation unit
A runway matching unit that identifies a runway in each image captured by the stereo camera corresponding to the coordinate position of the runway identified based on the infrared image;
A vehicle obstacle detection device comprising: a stereo running road image creating unit that creates a stereo image of the running road based on the running road specified in each image photographed by the stereo camera.
請求項5に記載の車両用障害物検出装置において、
前記障害物検出部は、
前記走路のステレオ画像を基に前記走路の3次元座標を計測する3次元座標計測部と、
前記走路の3次元座標を基に前記走路上の障害物を判別する障害物判別部と
を有する車両用障害物検出装置。
In the obstacle detection device for vehicles according to claim 5,
The obstacle detection unit is
A three-dimensional coordinate measuring unit that measures the three-dimensional coordinates of the road based on a stereo image of the road;
An obstacle detection device for a vehicle, comprising: an obstacle determination unit that determines an obstacle on the road based on the three-dimensional coordinates of the road.
請求項6に記載の車両用障害物検出装置において、
前記障害物判別部は、
前記走路の3次元座標を基に、奥行き方向に対する車両高さ方向の変化率を算出し、
前記奥行き方向に対する車両高さ方向の変化率と予め定められた第2閾値とを比較し、前記第2閾値よりも前記奥行き方向に対する車両高さ方向の変化率が大きい前記走路の3次元座標上に障害物が有ると判別する
車両用障害物検出装置。
The vehicle obstacle detection device according to claim 6,
The obstacle determination unit
Based on the three-dimensional coordinates of the runway, the rate of change in the vehicle height direction with respect to the depth direction is calculated,
The change rate in the vehicle height direction with respect to the depth direction is compared with a predetermined second threshold, and the change rate in the vehicle height direction with respect to the depth direction is larger than the second threshold on the three-dimensional coordinates of the runway An obstacle detection device for a vehicle that determines that there is an obstacle.
請求項5に記載の車両用障害物検出装置において、
前記ステレオ画像作成部は、
前記ステレオカメラの少なくとも1つのカメラにより撮影された画像における、前記赤外線画像を基に特定された前記走路に対応する領域のエッジを強調するエッジ強調部を有し、
前記ステレオ走路画像作成部は、特定された前記走路内のエッジが強調された点または線のステレオ画像を作成し、
前記障害物検出部は、前記エッジが強調された点または線上の3次元座標を計測する3次元座標計測部と、
前記エッジが強調された点または線上の3次元座標を基に、奥行き方向に対する車両高さ方向の変化率を算出し、前記奥行き方向に対する車両高さ方向の変化率と予め定められた第2閾値とを比較し、前記第2閾値よりも前記奥行き方向に対する車両高さ方向の変化率が大きい前記走路の3次元座標上に障害物が有ると判別する障害物判別部と
を有する車両用障害物検出装置。
In the obstacle detection device for vehicles according to claim 5,
The stereo image creation unit
An edge enhancement unit that emphasizes an edge of an area corresponding to the runway identified based on the infrared image in an image captured by at least one camera of the stereo camera;
The stereo runway image creation unit creates a stereo image of a point or line with emphasized edges in the identified runway,
The obstacle detection unit includes a three-dimensional coordinate measurement unit that measures a three-dimensional coordinate on a point or line in which the edge is emphasized,
A rate of change in the vehicle height direction with respect to the depth direction is calculated based on a point or a three-dimensional coordinate on the line where the edge is emphasized, and a rate of change in the vehicle height direction with respect to the depth direction and a predetermined second threshold value And an obstacle determination unit that determines that there is an obstacle on the three-dimensional coordinates of the runway having a change rate in the vehicle height direction with respect to the depth direction larger than the second threshold. Detection device.
請求項1から8のいずれか1つに記載の車両用障害物検出装置において、
前記赤外線カメラと前記ステレオカメラとが車幅方向に直線上に配置されている
車両用障害物検出装置。
In the obstacle detection device for vehicles according to any one of claims 1 to 8,
The vehicle obstacle detection device, wherein the infrared camera and the stereo camera are arranged in a straight line in a vehicle width direction.
請求項1から9のいずれか1つに記載の車両用障害物検出装置において
前記ステレオカメラは複数の可視光カメラを有する
車両用障害物検出装置。
The vehicle obstacle detection device according to any one of claims 1 to 9, wherein the stereo camera includes a plurality of visible light cameras.
請求項1から10のいずれか1つに記載の車両用障害物検出装置において、
前記赤外線カメラが2個の可視光カメラを有する前記ステレオカメラの各カメラの間に配置されている車両用障害物検出装置。
In the vehicle obstacle detection device according to any one of claims 1 to 10,
An obstacle detection device for a vehicle, wherein the infrared camera is disposed between the cameras of the stereo camera having two visible light cameras.
請求項1から11のいずれか1つに記載の車両用障害物検出装置において、
前記赤外線カメラの撮影領域と前記ステレオカメラの少なくとも1つのカメラの撮影領域とが位置合わせされている
車両用障害物検出装置。
In the obstacle detection device for vehicles according to any one of claims 1 to 11,
An obstacle detection device for a vehicle, wherein a shooting area of the infrared camera and a shooting area of at least one camera of the stereo camera are aligned.
請求項1から12のいずれか1つに記載の車両用障害物検出装置を備えた車両。   A vehicle comprising the vehicle obstacle detection device according to any one of claims 1 to 12.
JP2011155002A 2011-07-13 2011-07-13 Obstacle detection device for vehicle and vehicle using the same Expired - Fee Related JP5827508B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011155002A JP5827508B2 (en) 2011-07-13 2011-07-13 Obstacle detection device for vehicle and vehicle using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011155002A JP5827508B2 (en) 2011-07-13 2011-07-13 Obstacle detection device for vehicle and vehicle using the same

Publications (2)

Publication Number Publication Date
JP2013020543A JP2013020543A (en) 2013-01-31
JP5827508B2 true JP5827508B2 (en) 2015-12-02

Family

ID=47691900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011155002A Expired - Fee Related JP5827508B2 (en) 2011-07-13 2011-07-13 Obstacle detection device for vehicle and vehicle using the same

Country Status (1)

Country Link
JP (1) JP5827508B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109204136A (en) * 2017-07-04 2019-01-15 丰田自动车株式会社 Side images display control unit

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016009688A1 (en) * 2014-07-16 2016-01-21 株式会社リコー System, machine, control method, and program
WO2016113904A1 (en) * 2015-01-16 2016-07-21 株式会社日立製作所 Three-dimensional-information-calculating device, method for calculating three-dimensional information, and autonomous mobile device
JP6160634B2 (en) * 2015-02-09 2017-07-12 トヨタ自動車株式会社 Traveling road surface detection device and traveling road surface detection method
JP6156400B2 (en) * 2015-02-09 2017-07-05 トヨタ自動車株式会社 Traveling road surface detection device and traveling road surface detection method
JP5947938B1 (en) * 2015-03-06 2016-07-06 ヤマハ発動機株式会社 Obstacle detection device and moving body equipped with the same
EP3413155B1 (en) * 2017-06-09 2020-02-26 Andreas Stihl AG & Co. KG Method for the detection of at least one section of a limiting edge of a surface to be processed, method for operating an autonomous mobile green area processing robot, detection system and green area processing system
CN107088308B (en) * 2017-06-14 2019-08-16 广东裕利智能科技股份有限公司 A kind of control method and its device of toy rail racing car
KR101932411B1 (en) * 2017-10-18 2018-12-31 쎄트리마이크로시스템(주) Method of gaining of blended image using stereo visible light camera and thermal image camera
US11314974B2 (en) * 2020-03-30 2022-04-26 Hitachi Astemo, Ltd. Detecting debris in a vehicle path
US11763570B2 (en) 2020-07-02 2023-09-19 Alps Alpine Co., Ltd. Obstacle detection device, obstacle detection method, and storage medium storing obstacle detection program
JP2022068498A (en) 2020-10-22 2022-05-10 ヤマハ発動機株式会社 Tracking system and method of on-water object, and ship including tracking system of on-water object

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19507957C1 (en) * 1995-03-07 1996-09-12 Daimler Benz Ag Vehicle with optical scanning device for a side lane area
JPH09292919A (en) * 1996-04-25 1997-11-11 Yamaha Motor Co Ltd Travel controller for automatic travel vehicle
JP3232065B2 (en) * 1999-05-24 2001-11-26 本田技研工業株式会社 A method for merging multiple regions in a color image
JP2002366953A (en) * 2001-06-11 2002-12-20 Central Res Inst Of Electric Power Ind Method, device and program for extracting image, and method, device and program for detecting abnormality of pole mounted equipment of distribution pole utilizing image extracting method
JP5160370B2 (en) * 2008-10-15 2013-03-13 株式会社Ihi Autonomous mobile robot device, mobile body steering assist device, autonomous mobile robot device control method, and mobile body steering assist method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109204136A (en) * 2017-07-04 2019-01-15 丰田自动车株式会社 Side images display control unit
CN109204136B (en) * 2017-07-04 2022-02-22 丰田自动车株式会社 Peripheral image display control device

Also Published As

Publication number Publication date
JP2013020543A (en) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5827508B2 (en) Obstacle detection device for vehicle and vehicle using the same
US11854272B2 (en) Hazard detection from a camera in a scene with moving shadows
US9349057B2 (en) Three-dimensional object detection device
JP3596314B2 (en) Object edge position measuring device and moving object traffic judging device
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9251426B2 (en) Three-dimensional object detection device, three-dimensional object detection method
US9697421B2 (en) Stereoscopic camera apparatus
JP2007234019A (en) Vehicle image area specifying device and method for it
JP2007156626A (en) Object type determination device and object type determination method
US20090052742A1 (en) Image processing apparatus and method thereof
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
JP2008158958A (en) Road surface determination method and road surface determination device
KR101224027B1 (en) Method for dectecting front vehicle using scene information of image
JP3612970B2 (en) Tunnel detection apparatus and vehicle control apparatus using the same
JP5090313B2 (en) Road marking recognition device
JP2014127027A (en) Boundary line recognition device
JP2003076987A (en) Preceding vehicle recognizing device
JP4936045B2 (en) Vehicle color discrimination device, method and program
JP3868915B2 (en) Forward monitoring apparatus and method
JP5996421B2 (en) Obstacle detection device and vehicle using the same
KR20160126254A (en) System for detecting road area
KR101511586B1 (en) Apparatus and method for controlling vehicle by detection of tunnel
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
Ganesan et al. An Image Processing Approach to Detect Obstacles on Road
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151016

R150 Certificate of patent or registration of utility model

Ref document number: 5827508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees