JP2018147368A - Road surface state estimating apparatus - Google Patents

Road surface state estimating apparatus Download PDF

Info

Publication number
JP2018147368A
JP2018147368A JP2017043922A JP2017043922A JP2018147368A JP 2018147368 A JP2018147368 A JP 2018147368A JP 2017043922 A JP2017043922 A JP 2017043922A JP 2017043922 A JP2017043922 A JP 2017043922A JP 2018147368 A JP2018147368 A JP 2018147368A
Authority
JP
Japan
Prior art keywords
road surface
vehicle
search area
reference image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017043922A
Other languages
Japanese (ja)
Other versions
JP6876269B2 (en
Inventor
久保田 整
Hitoshi Kubota
整 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2017043922A priority Critical patent/JP6876269B2/en
Publication of JP2018147368A publication Critical patent/JP2018147368A/en
Priority to JP2021071133A priority patent/JP7089708B2/en
Application granted granted Critical
Publication of JP6876269B2 publication Critical patent/JP6876269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a state of a road surface in front of a vehicle on the basis of a vehicle front image obtained by capturing a front of the vehicle.SOLUTION: A road surface estimating apparatus 1 has: a reference image extracting unit 13 for extracting, as a reference image, a region of a lamp part of a preceding vehicle in a vehicle front image obtained by capturing a front of the vehicle; a search region setting unit 14 for setting, as a search region, a region in the vehicle front image which may have reflection of the lamp part by reflection of the lamp part to the road surface due to a wet road surface in front of the vehicle; and an estimating unit 15 for estimating a degree of wetness of the road surface by comparing color information of pixels in the search region with color information of pixels in the reference image.SELECTED DRAWING: Figure 1

Description

本発明は路面状態推定装置に関する。   The present invention relates to a road surface state estimating device.

特許文献1には、車両等に固定設置されたカメラで撮像したカメラ画像を基に当該車両等の周辺環境を推定する環境推定装置及びこの装置を用いた車両制御装置が記載されている。   Patent Document 1 describes an environment estimation device that estimates a surrounding environment of a vehicle or the like based on a camera image captured by a camera fixedly installed on the vehicle or the like, and a vehicle control device that uses this device.

特許第5501477号公報Japanese Patent No. 5501477

路面の状態は、該路面を走行する車両に影響を与える。本発明はこのような実状に鑑みてなされたものであって、車両前方の路面の状態を、該車両の前方を写した車両前方画像に基づいて推定することを目的とする。   The state of the road surface affects the vehicle traveling on the road surface. The present invention has been made in view of such a situation, and an object of the present invention is to estimate the state of a road surface in front of a vehicle based on a vehicle front image in which the front of the vehicle is captured.

上記の目的を達成するために、本発明に係る路面状態推定装置は、車両前方を写した車両前方画像において、前走車両のランプ部の領域を基準画像として抽出する基準画像抽出部と、車両前方の路面の濡れに起因する前記ランプ部の前記路面への反射により、前記ランプ部の映り込みが生じている可能性のある前記車両前方画像内の領域を探索領域として設定する探索領域設定部と、前記探索領域内のピクセルの色情報を前記基準画像内のピクセルの色情報と比較することにより前記路面の濡れ度合いを推定する推定部とを備えている。   In order to achieve the above object, a road surface state estimation device according to the present invention includes a reference image extraction unit that extracts a region of a ramp portion of a preceding vehicle as a reference image in a vehicle front image obtained by copying the vehicle front, A search area setting unit that sets, as a search area, an area in the front image of the vehicle in which reflection of the lamp part may occur due to reflection of the lamp part on the road surface due to wetness of the road surface ahead. And an estimation unit that estimates the degree of wetness of the road surface by comparing the color information of the pixels in the search area with the color information of the pixels in the reference image.

本発明によれば、車両前方の路面の状態を、該車両の前方を写した車両前方画像に基づいて推定することができる。   According to the present invention, the state of the road surface in front of the vehicle can be estimated based on the vehicle front image in which the front of the vehicle is captured.

路面状態推定装置を備えたシステムの説明図である。It is explanatory drawing of the system provided with the road surface state estimation apparatus. システムにより行われる処理のフローチャートである。It is a flowchart of the process performed by a system. 車両前方画像を示す説明図である。It is explanatory drawing which shows a vehicle front image. 基準画像を示す説明図である。It is explanatory drawing which shows a reference | standard image. 第1探索領域の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a 1st search area | region. 第2探索領域の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a 2nd search area | region. 濡れ度合いと映り込みの度合いとの関係を示すグラフである。It is a graph which shows the relationship between the degree of wetting and the degree of reflection.

以下に本発明の実施形態を説明する。ただし、本発明は、以下の実施形態によって限定されるものではない。   Embodiments of the present invention will be described below. However, the present invention is not limited to the following embodiments.

図1に、路面状態推定装置1を備えたシステムSを示す。システムSは車両に搭載され、システムSが搭載された車両を自車両とも呼ぶ。システムSは、車両前方撮像装置2と、車両情報取得装置3と、路面状態を自車両のドライバに知らせる警報装置4と、路面状態を周囲の車両または道路管理者に知らせる通信装置5とを更に備えており、これらの装置は路面状態推定装置1に接続される。   FIG. 1 shows a system S including a road surface state estimation device 1. The system S is mounted on a vehicle, and the vehicle on which the system S is mounted is also called a host vehicle. The system S further includes a vehicle forward imaging device 2, a vehicle information acquisition device 3, an alarm device 4 that informs a driver of the host vehicle of a road surface state, and a communication device 5 that informs a surrounding vehicle or a road manager of the road surface state. These devices are connected to the road surface state estimating device 1.

自車両前方の路面が降雨等により濡れている場合、自車両の前方を走行する前走車両のランプ部が路面に反射し、自車両前方を写した車両前方画像において該ランプ部の映り込みが生じる。路面の濡れ度合いが大きいほど、映り込みの度合いも大きくなると考えられる。路面状態推定装置1は、自車両前方の路面の濡れ度合いを、車両前方画像における前走車両のランプ部の映り込みの度合いから推定する。路面状態推定装置1は、画像取得部11と、前走車両検出部12と、基準画像抽出部13と、探索領域設定部14と、推定部15と、信号出力部16とを備えている。   When the road surface in front of the host vehicle is wet due to rain or the like, the lamp portion of the preceding vehicle that travels in front of the host vehicle is reflected on the road surface, and the lamp portion is reflected in the vehicle front image that shows the front of the host vehicle. Arise. It is considered that the greater the wetness of the road surface, the greater the degree of reflection. The road surface state estimation device 1 estimates the degree of wetness of the road surface ahead of the host vehicle from the degree of reflection of the ramp portion of the preceding vehicle in the vehicle front image. The road surface state estimation device 1 includes an image acquisition unit 11, a preceding vehicle detection unit 12, a reference image extraction unit 13, a search area setting unit 14, an estimation unit 15, and a signal output unit 16.

路面状態推定装置1は、そのハードウェア構成として、各部の機能を実行するように動作可能なプログラム及びデータを格納するメモリと、演算処理を行うプロセッサと、システムS内の他の装置とのインタフェースとを備えている。   The road surface state estimation device 1 has, as its hardware configuration, a memory that stores a program and data operable to execute the functions of each unit, a processor that performs arithmetic processing, and an interface between other devices in the system S And.

車両前方撮像装置2は、自車両の前方を車両前方画像として撮影する。この車両前方画像は、車両前方撮像装置2から路面状態推定装置1へ送られる。車両前方撮像装置2として、近年、車両周囲の死角を低減する目的で普及が進んでいる全方位カメラを用いることができる。また、車両前方の障害物や白線を検出して追突や車線逸脱を防止する機能の普及が進んでおり、これらの機能で使用されているステレオカメラ、単眼カメラを車両前方撮像装置2として用いてもよい。   The vehicle front imaging device 2 captures the front of the host vehicle as a vehicle front image. This vehicle forward image is sent from the vehicle forward imaging device 2 to the road surface state estimating device 1. In recent years, an omnidirectional camera that has been widely used for the purpose of reducing blind spots around the vehicle can be used as the vehicle front imaging device 2. In addition, functions for detecting obstacles and white lines in front of vehicles and preventing rear-end collisions and lane departures are becoming widespread, and stereo cameras and monocular cameras used for these functions are used as the vehicle front imaging device 2. Also good.

図2に、システムSにより行われる処理のフローを示す。まず、ステップS101において、車両情報取得装置3は、走行中の自車両の車両情報を自車両から取得し、取得した情報を路面状態推定装置1に入力する。車両情報の例として、車速、ハンドル舵角、ブレーキスイッチの状態、アクセル開度、シフトポジション、ワイパー作動状況等が挙げられる。   FIG. 2 shows a flow of processing performed by the system S. First, in step S <b> 101, the vehicle information acquisition device 3 acquires vehicle information of the traveling host vehicle from the host vehicle, and inputs the acquired information to the road surface state estimation device 1. Examples of vehicle information include vehicle speed, steering angle, brake switch state, accelerator opening, shift position, wiper operating status, and the like.

ステップS102において、路面状態推定装置1内の画像取得部11は、車両前方撮像装置2から一定間隔(例えばビデオレート30Hz)で送られてくる、一定サイズ(例えばVGAサイズ横640×縦480ピクセル)の車両前方画像を取得する。車両前方画像の一例を図3に示す。車両前方画像6には、自車両の前方を走行する前走車両61と、自車両及び前走車両が走行する路面62とが写っている。さらに、前走車両61並びに該前走車両の左側のブレーキランプ部63及び右側のブレーキランプ部63が、濡れた路面62への反射により映り込んでいる。前走車両61並びにブレーキランプ部63及び63が映り込んだ領域をそれぞれ、符号61並びに63L1及び63R1として示す。 In step S102, the image acquisition unit 11 in the road surface state estimation device 1 sends a fixed size (for example, VGA size 640 × vertical 480 pixels) sent from the vehicle front imaging device 2 at a fixed interval (for example, video rate 30 Hz). The vehicle front image of is acquired. An example of the vehicle front image is shown in FIG. The vehicle front image 6 shows a preceding vehicle 61 traveling in front of the host vehicle and a road surface 62 on which the host vehicle and the preceding vehicle travel. Furthermore, before run the vehicle 61 and the front run left brake lamp portion 63 L and the right brake lamp portion 63 R of the vehicle, are crowded reflected by the reflection on the wet road surface 62. Before run the vehicle 61 and the brake lamp portion 63 L and 63 R are the elaborate reflected regions, respectively, shown as reference numeral 61 1 and 63 L1 and 63 R1.

ステップS103において、前走車両検出部12は、車両前方画像6において前走車両61を検出する。前走車両を検出する手法としては、一般的に知られている、テンプレートマッチング法、ニューラルネットワーク法等を用いることができる。ニューラルネットワーク法では、実際に撮影した数多くの画像群をデータベース化して教師データとして利用し、事前にニューラルネットワークに学習させておく。   In step S <b> 103, the preceding vehicle detection unit 12 detects the preceding vehicle 61 in the vehicle front image 6. As a method for detecting the preceding vehicle, a generally known template matching method, neural network method, or the like can be used. In the neural network method, a large number of images actually taken are stored in a database and used as teacher data, and are learned in advance by a neural network.

車両前方撮像装置2としてステレオカメラを使用している場合は、距離情報から路面以外の高さのある物体を前走車両の候補として抽出し、その候補について前走車両であるか否かの推定を行うことで検出精度を向上させることができる。また、車両前方撮像装置2から事前に白線情報を取得し、自車両の前方の白線領域内に検出範囲を絞り込んでもよい。   When a stereo camera is used as the vehicle forward imaging device 2, an object having a height other than the road surface is extracted from the distance information as a candidate for the preceding vehicle, and it is estimated whether the candidate is a preceding vehicle. By performing this, the detection accuracy can be improved. Alternatively, white line information may be acquired in advance from the vehicle forward imaging device 2 and the detection range may be narrowed down within the white line area in front of the host vehicle.

ステップS104において、前走車両検出部12は前走車両が検出されたかどうかを判断する。前走車両が検出されたと判断された場合は後述するステップS105に進み、さもなければステップS101に戻る。   In step S104, the preceding vehicle detection unit 12 determines whether a preceding vehicle has been detected. If it is determined that a preceding vehicle has been detected, the process proceeds to step S105, which will be described later. Otherwise, the process returns to step S101.

ステップS105において、基準画像抽出部13は、前走車両61における車両左側のブレーキランプ部63の領域及び車両右側のブレーキランプ部63の領域をそれぞれ左側基準画像及び右側基準画像として抽出する。左側基準画像及び右側基準画像はいずれも、正方形状又は矩形状である。具体的には、基準画像抽出部13は、車両前方画像6においてブレーキランプ部の色情報に近い色情報を有するピクセルを抽出する。この色情報として例えばRGB色情報を用いることができる。 In step S <b> 105, the reference image extraction unit 13 extracts the area of the left brake lamp 63 </ b> L and the area of the right brake lamp 63 </ b> R of the preceding vehicle 61 as a left reference image and a right reference image, respectively. Both the left reference image and the right reference image are square or rectangular. Specifically, the reference image extraction unit 13 extracts pixels having color information close to the color information of the brake lamp unit in the vehicle front image 6. As this color information, for example, RGB color information can be used.

一般にRGB色情報は、赤色の成分を示すR値(0〜255)、緑色の成分を示すG値(0〜255)、青色の成分を示すB値(0〜255)から構成される。本実施形態においては、ブレーキランプ部の色情報の範囲を、例えば、200≦R値≦255かつ0≦G値≦50かつ0≦B値≦50とする。この範囲内のR値、G値及びB値を有する車両前方画像6内のピクセルをブレーキランプ部の候補ピクセルとして抽出する。   In general, RGB color information is composed of an R value (0 to 255) indicating a red component, a G value (0 to 255) indicating a green component, and a B value (0 to 255) indicating a blue component. In the present embodiment, the range of the color information of the brake lamp portion is, for example, 200 ≦ R value ≦ 255, 0 ≦ G value ≦ 50, and 0 ≦ B value ≦ 50. Pixels in the vehicle front image 6 having R value, G value, and B value within this range are extracted as candidate pixels of the brake lamp portion.

一般的に、ブレーキランプ部は車両後部の左右端に左右対称に取り付けられている。そのため、基準画像抽出部13は、抽出されたブレーキランプ部の候補ピクセルが車両の左右両端に左右対称に位置している場合に、それら候補ピクセルを抽出し、基準画像とする。図4に基準画像の一例を示す。同図(a)は、前走車両6の左側のブレーキランプ部63が写った左側基準画像7である。同図(b)は、前走車両6の右側のブレーキランプ部63が写った右側基準画像7である。 Generally, the brake lamp part is attached to the left and right ends of the rear part of the vehicle symmetrically. Therefore, the reference image extraction unit 13 extracts the candidate pixels of the brake lamp unit that are located symmetrically on the left and right ends of the vehicle and uses them as reference images. FIG. 4 shows an example of the reference image. FIG (a) is a front run left reference image 7 on the left side of the brake lamp portion 63 L is captured of the vehicle 6 L. FIG (b) is a front run right brake lamp portion 63 R is reflected and right reference image 7 R of the vehicle 6.

ステップS106において、基準画像抽出部13は、基準画像が抽出されたかどうかを判断する。基準画像が抽出されたと判断された場合は後述するステップS107に進み、さもなければステップS101に戻る。   In step S106, the reference image extraction unit 13 determines whether a reference image has been extracted. If it is determined that the reference image has been extracted, the process proceeds to step S107, which will be described later. Otherwise, the process returns to step S101.

探索領域設定部14は、2段階の探索領域設定を行う。ステップS107では、探索領域設定部14は探索領域設定の第1段階として、車両前方画像6内に第1探索領域を設定する。図5に、第1探索領域B及びBの設定例を示す。第1探索領域B及びBはそれぞれ、前走車両61の車両左側のブレーキランプ部63及び車両右側のブレーキランプ部63に対応して設定される。第1探索領域B及びBはそれぞれ、車両前方画像6において前走車両61の左右のブレーキランプ部63及び63の領域の下方に設定される。 The search area setting unit 14 performs two-stage search area setting. In step S107, the search area setting unit 14 sets a first search area in the vehicle front image 6 as a first stage of search area setting. 5 shows an example of setting the first search region B L and B R. Each of the first search area B L and B R, is set corresponding to the previous run left side of the vehicle brake lamp section 63 L and the right side of the vehicle brake lamp portion 63 R of the vehicle 61. Each of the first search area B L and B R, is set below the area of the left and right brake lamp portion 63 L and 63 R of the front run the vehicle 61 in the vehicle front image 6.

具体的には、左側の第1探索領域Bは、前走車両61の後輪64及び64と路面62との2つの接触箇所を通る直線Aを基準として、ブレーキランプ部63の領域と線対称な位置関係にある領域を含むものとなるように設定される。すなわち、左側のブレーキランプ部63の中心と直線Aとの距離Lは、第1探索領域Bの中心と直線Aとの距離Lに等しい。同様に、右側の第1探索領域Bは、直線Aを基準として、ブレーキランプ部63の領域と線対称な位置関係にある領域を含むものとなるように設定される。 Specifically, the first search area BL on the left side of the brake lamp portion 63 L is based on a straight line A passing through two contact points between the rear wheels 64 L and 64 R of the preceding vehicle 61 and the road surface 62. It is set so as to include an area that is in a line-symmetrical positional relationship with the area. That is, the distance L 1 between the center and the straight line A of the left brake lamp portion 63 L is equal to the distance L 2 between the center and the straight line A in the first search area B L. Similarly, the first search area B R of the right, relative to the straight line A, is set to be as including a region of the brake lamp portion 63 R of the region line symmetric positional relationship.

第1探索領域B及びBのサイズは、基準画像7及び7の縦横サイズよりも大きいサイズとすることができる。例えば、基準画像の縦横サイズの2倍に設定することができる。 Size of the first search area B L and B R may be a size larger than the vertical and horizontal size of the reference image 7 L and 7 R. For example, it can be set to twice the vertical and horizontal size of the reference image.

ステップS108では、推定部15は、第1探索領域B内のピクセルの色情報を基準画像7内のピクセルの色情報と比較し、第1探索領域Bにおいて基準画像7と一致する箇所が存在するか否かを判断する。さらに、推定部15は、第1探索領域B内のピクセルの色情報を基準画像7内のピクセルの色情報と比較し、第1探索領域Bにおいて基準画像7と一致する箇所が存在するか否かを判断する。探索手法としては、例えばテンプレートマッチング法を使用することができる。さらには色情報の一致度をしきい値判断してもよい。 In step S108, the estimation unit 15, the color information of the pixels in the first search area B L compared with the color information of the pixels of the reference image 7 in L, matches the reference image 7 L in the first search area B L Determine whether the location exists. Further, the estimating unit 15, the color information of the first search area B in R pixels compared to the color information of the pixels in the reference image 7 R, are places that match the reference image 7 R in the first search area B R Determine if it exists. As a search method, for example, a template matching method can be used. Further, the degree of coincidence of color information may be determined as a threshold value.

同ステップにて、第1探索領域Bにおいて基準画像7と一致する箇所が存在し、かつ第1探索領域Bにおいて基準画像7と一致する箇所が存在すると判断された場合は、ステップS109に進み、さもなければステップS110に進む。 At the same step, if there are places that match the reference image 7 L, and is determined locations match the reference image 7 R in the first search area B R are present in the first search area B L, step Proceed to S109, otherwise proceed to step S110.

ステップS109では、路面に水が溜まっているとして推定部15により路面の濡れ度合いWが1.0に設定され、この濡れ度合いWを推定部15が信号出力部16へ出力した後に、後述するステップS112に進む。   In step S109, it is assumed that water has accumulated on the road surface, and the wetness degree W of the road surface is set to 1.0 by the estimation unit 15. After the wetness degree W is output to the signal output unit 16 by the estimation unit 15, Proceed to S112.

路面の濡れ度合いが比較的大きい場合、つまり路面に水が溜まっている場合、前走車両のブレーキランプ部が鏡面反射して直線Aを基準として線対称な位置関係にある領域に映り込んでいる可能性が高いという見地に基づいて、上記のようなステップS107〜S109が行われる。   When the degree of wetness of the road surface is relatively large, that is, when water accumulates on the road surface, the brake lamp portion of the preceding vehicle is reflected in a mirror surface and reflected in an area having a symmetrical relationship with respect to the straight line A Steps S107 to S109 as described above are performed based on the viewpoint that the possibility is high.

路面の濡れ度合いWとは、路面の濡れの程度を数値的に表す指標である。濡れ度合いWの数値が大きいほど濡れの程度も大きくなる。第1探索領域に基準画像と一致する箇所が存在する場合は、上述したように濡れ度合いWが1.0に設定される。   The road surface wetting degree W is an index that numerically represents the degree of road surface wetting. The greater the wetness value W, the greater the wetness. When there is a location that matches the reference image in the first search area, the wetness degree W is set to 1.0 as described above.

ステップS110では、探索領域設定部14は探索領域設定の第2段階として、車両前方画像6内に正方形状又は矩形状の第2探索領域を設定する。図6に、第2探索領域C及びCの設定例を示す。左側の第2探索領域Cは、第1探索領域Bと直線Aとの間の領域として設定される。左側の第2探索領域Cの横幅は、ブレーキランプ部63の横幅よりも大きくなるように設定される。例えば、基準画像7の横サイズと同じにすることができる。左側の第2探索領域Cの縦の長さは、第1探索領域Bの上辺から直線Aまでの長さに等しい。 In step S110, the search area setting unit 14 sets a square or rectangular second search area in the vehicle front image 6 as the second stage of the search area setting. 6 shows an example of setting the second search area C L and C R. The left second search region C L is set as a region between the first search region B L and the straight line A. Width of the second search area C L of the left side is set to be larger than the width of the brake lamp section 63 L. For example, it can be the same as the horizontal size of the reference image 7L . The vertical length of the second search area C L of the left side is equal to the length to the straight line A from the upper side of the first search region B L.

右側の第2探索領域Cも同様に、第1探索領域Bと直線Aとの間の領域として設定される。右側の第2探索領域Cの横幅は、ブレーキランプ部63の横幅よりも大きくなるように設定される。例えば、基準画像7の横サイズと同じにすることができる。右側の第2探索領域Cの縦の長さは、第1探索領域Bの上辺から直線Aまでの長さに等しい。 Similarly, the second search area C R of the right side is set as the region between the first search area B R and the line A. Width of the second search area C R of the right side is set to be larger than the width of the brake lamp portion 63 R. For example, it can be the same as the horizontal size of the reference image 7 R. The vertical length of the second search area C R of the right side is equal to the length to the straight line A from the upper side of the first search area B R.

ステップS111において、推定部15は、第2探索領域において、基準画像内のピクセルの色情報(一般的には赤色)に近い色情報を有するピクセルを探索する。具体的には、まず、推定部15は、基準画像7及び7のRGB色情報を求める。赤色の情報BASEは、基準画像7及び7における全ピクセルのR値の平均値、中央値、最大値等を用いる。緑色の情報BASE、青色の情報BASEについても同様である。例えば、BASE=200、BASE=10、BASE=20である。 In step S111, the estimation unit 15 searches for a pixel having color information close to the color information (generally red) of the pixel in the reference image in the second search region. Specifically, firstly, estimating unit 15 obtains the RGB color information of the reference image 7 L and 7 R. Red information BASE R is the average value of R values of all pixels in the reference image 7 L and 7 R, median, maximum value, or the like is used. The same applies to the green information BASE G and the blue information BASE B. For example, BASE R = 200, BASE G = 10, and BASE B = 20.

続いて、推定部15は、第2探索領域C及びCのRGB色情報を求める。赤色の情報AREAは、第2探索領域C及びCにおける全ピクセルのR値の平均値、中央値、最大値等を用いる。緑色の情報AREA、青色の情報AREAについても同様である。例えば、AREA=100、AREA=16、AREA=12である。 Subsequently, the estimating unit 15 obtains the RGB color information of the second search area C L and C R. Red information AREA R is the average value of R values of all pixels in the second search area C L and C R, the median, the maximum value or the like is used. The same applies to the green information AREA G and the blue information AREA B. For example, AREA R = 100, AREA G = 16, and AREA B = 12.

同ステップではさらに、推定部15は、基準画像のRGB色情報(BASE、BASE、BASE)と探索領域のRGB色情報(AREA、AREA、AREA)とを用いて濡れ度合いWを算出する。 In this step, the estimation unit 15 further uses the RGB color information (BASE R , BASE G , BASE B ) of the reference image and the RGB color information of the search area (AREA R , AREA G , AREA B ) to determine the degree of wetness W. Is calculated.

これは、路面の濡れ度合いWと、第2探索領域にブレーキランプ部が映り込んでいる度合いとは相関があるという見地に基づいている。図7に、路面の濡れ度合いWと映り込みの度合いとの関係の一例を示す。路面の濡れ度合いWが大きくなるにつれて映り込みの度合いも大きくなる。ただし、路面の濡れ度合いWが1.0以上の場合、路面に水が溜まっているとして、映り込みの度合いは最大かつ一定であるとする。ステップS108の判断結果が「否」となった時点で、路面の濡れ度合いWは1.0未満である。図7に示した関係から、路面の濡れ度合いWを次式により求める。
W=α×(AREA÷BASE) (1)
This is based on the viewpoint that there is a correlation between the road surface wetness degree W and the degree that the brake lamp portion is reflected in the second search area. FIG. 7 shows an example of the relationship between the road surface wetness degree W and the degree of reflection. As the degree of wetness W of the road surface increases, the degree of reflection increases. However, when the road surface wetness degree W is 1.0 or more, it is assumed that water is accumulated on the road surface, and the degree of reflection is maximum and constant. When the determination result in step S108 is “No”, the degree of wetness W of the road surface is less than 1.0. From the relationship shown in FIG. 7, the road surface wetness degree W is obtained by the following equation.
W = α × (AREA R ÷ BASE R ) (1)

ここで、映り込みの度合いは、AREA÷BASEで表される。また、αは係数であり、例えば0.8とすることができる。例えば、路面の濡れ度合いと映り込みの度合いとの関係について、走行場所が一般道路か高速道路かの違いに応じて係数αの値を変えても良いし、直線(比例)の関係ではなく高次曲線の関係としても良い。 Here, the degree of reflection is represented by AREA R ÷ BASE R. Α is a coefficient, and can be set to 0.8, for example. For example, regarding the relationship between the degree of wetness on the road surface and the degree of reflection, the value of the coefficient α may be changed depending on whether the driving location is a general road or a highway, or a high value rather than a straight line (proportional) relationship. It is good also as a relationship of a quadratic curve.

同ステップではさらに、推定部15は、AREA÷BASEの値と、AREA÷BASEの値とを算出し、各値が所定のしきい値以下であるかどうかを判断する。これらの2つの値がしきい値以下の場合は、式(1)による路面の濡れ度合いWの値を推定部15が信号出力部16へ出力する。その他の場合はステップS101に戻る(不図示)。 In this step, the estimation unit 15 further calculates the value of AREA G ÷ BASE G and the value of AREA B ÷ BASE B , and determines whether each value is equal to or less than a predetermined threshold value. When these two values are less than or equal to the threshold value, the estimation unit 15 outputs the value of the road surface wetting degree W according to the equation (1) to the signal output unit 16. In other cases, the process returns to step S101 (not shown).

路面に水が溜まっているわけではないものの、路面が濡れている場合には、前走車両のブレーキランプ部が拡散反射して直線Aと第1探索領域B及びBとの間の領域に映り込んでいる可能性が高いと考えられる。この見地に基づいて、上記のようなステップS110及びS111が行われる。このように映り込んだ領域を図6の符号63L2及び63R2として示す。 Though not necessarily water is accumulated on the road surface, the area between the when the road surface is wet, the straight line A and the first search region B L and B R brake lamp portion before run the vehicle is diffused reflected It is highly probable that it is reflected in Based on this viewpoint, steps S110 and S111 as described above are performed. The areas reflected in this way are indicated by reference numerals 63 L2 and 63 R2 in FIG.

ステップS112において、信号出力部16は、推定部15から出力された路面の濡れ度合いWに応じた信号を警報装置4へ出力する。そして、警報装置4は、信号出力部16から出力された信号に応じて、路面の状態を、音、振動、ランプ、表示等で自車両のドライバに警報する。   In step S <b> 112, the signal output unit 16 outputs a signal corresponding to the road surface wetness degree W output from the estimation unit 15 to the alarm device 4. Then, the alarm device 4 warns the driver of the own vehicle with the sound, vibration, lamp, display, etc. according to the signal output from the signal output unit 16.

ステップS113において、信号出力部16は、推定部15から出力された路面の濡れ度合いWに応じた信号を通信装置5へ出力する。そして、通信装置5は、信号出力部16から出力された信号に応じて、路面の状態を自車両周辺の別の車両や道路管理者に知らせる。ステップS113を終えるとステップS101に戻る。   In step S <b> 113, the signal output unit 16 outputs a signal corresponding to the road surface wetness degree W output from the estimation unit 15 to the communication device 5. And according to the signal output from the signal output part 16, the communication apparatus 5 notifies the state of a road surface to another vehicle around the own vehicle, and a road manager. When step S113 is completed, the process returns to step S101.

上記の実施形態によれば、自車両が走行する路面の、降雨等による濡れ度合いを、自車両の前方を写した車両前方画像に基づいて推定することができる。この推定は、自車両の前方を走行する前走車両のブレーキランプ部が抽出された基準画像をテンプレートとして行われる。そのため、処理の複雑度を抑えて、比較的簡易な構成で路面の濡れ度合いを推定することができる。   According to the above-described embodiment, the degree of wetness due to rain or the like on the road surface on which the host vehicle is traveling can be estimated based on the vehicle front image that captures the front of the host vehicle. This estimation is performed using a reference image from which a brake lamp portion of a preceding vehicle traveling in front of the host vehicle is extracted as a template. Therefore, the degree of wetness of the road surface can be estimated with a relatively simple configuration while suppressing the complexity of the processing.

また、車両前方画像を用いて推定が行われるため、安価なハードウェア構成で、路面に対して物理的に接触することなく、路面の濡れ度合いを推定することができる。   Further, since the estimation is performed using the vehicle front image, the degree of wetness of the road surface can be estimated with an inexpensive hardware configuration without physically contacting the road surface.

一般的に、路面が乾いている場合に比べて、路面が濡れている場合は、自車両が前走車両に追突する可能性が高くなると考えられる。上記実施形態により路面の濡れ度合いを推定し、自車両のドライバに警報を発することで、自車両が前走車両に追突する可能性を低減することができる。   In general, when the road surface is wet, it is considered that the possibility that the host vehicle will collide with the preceding vehicle is higher than when the road surface is dry. By estimating the degree of wetness of the road surface according to the above embodiment and issuing a warning to the driver of the host vehicle, the possibility of the host vehicle colliding with the preceding vehicle can be reduced.

探索領域設定部は、車両前方画像においてブレーキランプ部領域の下方の領域を探索領域として設定するため、推定を効率的に行うことができる。また、探索領域設定は2段階に分けて行われるため、推定の効率がさらに高まる。   Since the search area setting unit sets the area below the brake lamp area in the vehicle front image as the search area, estimation can be performed efficiently. In addition, since the search area setting is performed in two stages, the estimation efficiency is further increased.

路面は黒っぽい色であることが多いことから、赤色情報を基準として路面状態の推定を行うことで、推定の誤差を抑えることができる。   Since the road surface is often a blackish color, the estimation error can be suppressed by estimating the road surface state based on the red information.

前走車両のブレーキランプ部に限らず、テールランプ部等の任意のランプ部を基準画像として抽出することもできる。   Not only the brake lamp part of the preceding vehicle but also an arbitrary lamp part such as a tail lamp part can be extracted as a reference image.

色情報を定量的に表すにあたり、RGB色空間に限らず、別の色空間あるいは表色系を用いてもよい。   In expressing color information quantitatively, not only the RGB color space but also another color space or color system may be used.

ワイパー作動時のみ路面状態の推定を行うようにシステムSを構成することもできる。   The system S can be configured to estimate the road surface state only when the wiper is activated.

ステップS112において、信号出力部16は、推定部15から出力された路面の濡れ度合いWに応じた信号を車両制御装置(不図示)へ出力することもできる。そして、この車両制御装置により、自車両がスリップ、横滑り等にならないように、自車両のブレーキ、アクセル、シフトポジション、エンジントルク等を制御することができる。
さらに、路面の濡れ度合いの信号に応じて、車間距離維持装置(ACC)、衝突被害軽減ブレーキ(AEB)、横滑り防止装置(ESC)等における制御タイミングや制御時間を変更させても良い。
In step S <b> 112, the signal output unit 16 can output a signal corresponding to the road surface wetness degree W output from the estimation unit 15 to a vehicle control device (not shown). The vehicle control device can control the brake, accelerator, shift position, engine torque, and the like of the host vehicle so that the host vehicle does not slip or skid.
Furthermore, the control timing and control time in the inter-vehicle distance maintaining device (ACC), the collision damage reducing brake (AEB), the skid prevention device (ESC), and the like may be changed according to the signal of the degree of wetness of the road surface.

左側の第1探索領域Bを、直線Aを基準として、ブレーキランプ部63の領域と線対称な位置関係にある領域そのものとして設定することもできる。このように設定された左側の第1探索領域Bと直線Aとの間の領域を第2探索領域Cとして設定することができる。
同様に、右側の第1探索領域Bを、直線Aを基準として、ブレーキランプ部63の領域と線対称な位置関係にある領域そのものとして設定することもできる。このように設定された右側の第1探索領域Bと直線Aとの間の領域を第2探索領域Cとして設定することができる。
The first search area B L of the left side, relative to the straight line A, can also be set as an area itself in the region line symmetric positional relationship of the brake lamp section 63 L. It is possible to set the region between the thus set first search area B L and the straight line A of the left as a second search region C L.
Similarly, the first search area B R of the right, relative to the straight line A, can also be set as an area itself in the region line symmetric positional relationship of the brake lamp section 63 R. It is possible to set the region between the first search area B R and the straight line A of the setting as has been the right as the second search region C L.

前述したシステムS及び路面状態推定装置1の機能的構成及び物理的構成は、前述の態様に限られるものではなく、例えば、各機能や物理資源を統合して実装したり、逆に、さらに分散して実装したりすることも可能である。   The functional configuration and physical configuration of the system S and the road surface state estimation device 1 described above are not limited to the above-described modes. For example, the functions and physical resources are integrated and mounted, or conversely, further distributed. It is also possible to implement it.

1 路面状態推定装置

11 画像取得部
12 前走車両検出部
13 基準画像抽出部
14 探索領域設定部
15 推定部
16 信号出力部

2 車両前方撮像装置
3 車両情報取得装置
4 警報装置
5 通信装置

6 車両前方画像
61 前走車両
62 路面
63、63 ブレーキランプ部

、7 基準画像
、B 第1探索領域
、C 第2探索領域
1 Road surface condition estimation device

DESCRIPTION OF SYMBOLS 11 Image acquisition part 12 Front running vehicle detection part 13 Reference | standard image extraction part 14 Search area setting part 15 Estimation part 16 Signal output part

2 Vehicle front imaging device 3 Vehicle information acquisition device 4 Alarm device 5 Communication device

6 Vehicle front image 61 Front running vehicle 62 Road surface 63 L , 63 R Brake lamp part

7 L, 7 R reference image B L, B R first search region C L, C R second search area

Claims (6)

車両前方を写した車両前方画像において、前走車両のランプ部の領域を基準画像として抽出する基準画像抽出部と、
車両前方の路面の濡れに起因する前記ランプ部の前記路面への反射により、前記ランプ部の映り込みが生じている可能性のある前記車両前方画像内の領域を探索領域として設定する探索領域設定部と、
前記探索領域内のピクセルの色情報を前記基準画像内のピクセルの色情報と比較することにより前記路面の濡れ度合いを推定する推定部と
を備えた路面状態推定装置。
In the vehicle front image that shows the front of the vehicle, a reference image extraction unit that extracts a region of the ramp portion of the preceding vehicle as a reference image;
Search area setting for setting an area in the vehicle front image in which reflection of the lamp part may occur due to reflection of the lamp part on the road surface due to wetness of the road surface in front of the vehicle as a search area And
A road surface state estimation device comprising: an estimation unit that estimates the degree of wetness of the road surface by comparing color information of pixels in the search area with color information of pixels in the reference image.
前記探索領域が、前記車両前方画像において前記ランプ部の領域の下方に設定される、請求項1に記載の路面状態推定装置。   The road surface state estimation device according to claim 1, wherein the search region is set below the region of the ramp portion in the vehicle front image. 前記探索領域が、前記前走車両の後輪と前記路面との2つの接触箇所を通る直線を基準として、前記ランプ部の領域と線対称な位置関係にある第1探索領域を含む、請求項2に記載の路面状態推定装置。   The search area includes a first search area that is in a line-symmetrical positional relationship with the area of the ramp section with reference to a straight line passing through two contact points between a rear wheel of the preceding vehicle and the road surface. 2. The road surface state estimating apparatus according to 2. 前記探索領域が、前記第1探索領域と前記直線との間の第2探索領域をさらに含む、請求項3に記載の路面状態推定装置。   The road surface state estimation device according to claim 3, wherein the search area further includes a second search area between the first search area and the straight line. 前記ランプ部がブレーキランプ部又はテールランプ部である、請求項1〜4のいずれか一項に記載の路面状態推定装置。   The road surface state estimation device according to any one of claims 1 to 4, wherein the ramp unit is a brake ramp unit or a tail lamp unit. 前記色情報が赤色情報である、請求項1〜5のいずれか一項に記載の路面状態推定装置。   The road surface state estimation apparatus according to any one of claims 1 to 5, wherein the color information is red information.
JP2017043922A 2017-03-08 2017-03-08 Road surface condition estimation device Active JP6876269B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017043922A JP6876269B2 (en) 2017-03-08 2017-03-08 Road surface condition estimation device
JP2021071133A JP7089708B2 (en) 2017-03-08 2021-04-20 Road surface condition estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017043922A JP6876269B2 (en) 2017-03-08 2017-03-08 Road surface condition estimation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021071133A Division JP7089708B2 (en) 2017-03-08 2021-04-20 Road surface condition estimation device

Publications (2)

Publication Number Publication Date
JP2018147368A true JP2018147368A (en) 2018-09-20
JP6876269B2 JP6876269B2 (en) 2021-05-26

Family

ID=63591312

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017043922A Active JP6876269B2 (en) 2017-03-08 2017-03-08 Road surface condition estimation device
JP2021071133A Active JP7089708B2 (en) 2017-03-08 2021-04-20 Road surface condition estimation device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021071133A Active JP7089708B2 (en) 2017-03-08 2021-04-20 Road surface condition estimation device

Country Status (1)

Country Link
JP (2) JP6876269B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509774A (en) * 2018-11-15 2022-01-24 モービルアイ ヴィジョン テクノロジーズ リミテッド High-speed CNN classification of multi-frame semantic signals

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0371399A (en) * 1989-08-11 1991-03-27 Nagoya Denki Kogyo Kk Vehicle detecting method
JP2009065360A (en) * 2007-09-05 2009-03-26 Denso Corp Image processor, image processor for vehicle, image display device for vehicle and vehicle controller
JP2012117872A (en) * 2010-11-30 2012-06-21 Ricoh Co Ltd Object detecting device and vehicle-mounted equipment control apparatus equipped with the same
JP2013092975A (en) * 2011-10-27 2013-05-16 Ricoh Co Ltd Vehicle recognition device, vehicle recognition method, and program
JP2016522886A (en) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド Method and system for detecting weather conditions using in-vehicle sensors

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4258385B2 (en) * 2004-01-14 2009-04-30 株式会社デンソー Road surface reflection detector
JP6600001B2 (en) * 2015-02-26 2019-10-30 ボルボトラックコーポレーション How to control the distance between vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0371399A (en) * 1989-08-11 1991-03-27 Nagoya Denki Kogyo Kk Vehicle detecting method
JP2009065360A (en) * 2007-09-05 2009-03-26 Denso Corp Image processor, image processor for vehicle, image display device for vehicle and vehicle controller
JP2012117872A (en) * 2010-11-30 2012-06-21 Ricoh Co Ltd Object detecting device and vehicle-mounted equipment control apparatus equipped with the same
JP2013092975A (en) * 2011-10-27 2013-05-16 Ricoh Co Ltd Vehicle recognition device, vehicle recognition method, and program
JP2016522886A (en) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド Method and system for detecting weather conditions using in-vehicle sensors

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509774A (en) * 2018-11-15 2022-01-24 モービルアイ ヴィジョン テクノロジーズ リミテッド High-speed CNN classification of multi-frame semantic signals
JP7258137B2 (en) 2018-11-15 2023-04-14 モービルアイ ヴィジョン テクノロジーズ リミテッド Fast CNN Classification of Multiframe Semantic Signals

Also Published As

Publication number Publication date
JP7089708B2 (en) 2022-06-23
JP2021131869A (en) 2021-09-09
JP6876269B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
US9476976B2 (en) Object recognition apparatus and vehicle
US9797734B2 (en) Object recognition apparatus
US9623869B2 (en) Vehicle driving support control apparatus
US9721460B2 (en) In-vehicle surrounding environment recognition device
JP6459659B2 (en) Image processing apparatus, image processing method, driving support system, program
JP3822515B2 (en) Obstacle detection device and method
JP2019096072A (en) Object detection device, object detection method and program
KR101103526B1 (en) Collision Avoidance Method Using Stereo Camera
JP6722084B2 (en) Object detection device
JP2009169847A (en) Vehicle exterior monitoring device
JP5097681B2 (en) Feature position recognition device
JP7089708B2 (en) Road surface condition estimation device
JP4661602B2 (en) Rear vehicle analysis device and collision prediction device
US11373327B2 (en) Image processing device and method that determine a stop position in a parking frame using images from two cameras
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
CN112542060B (en) Rear side alarm device for vehicle
JP2009006824A (en) Onboard unit and traveling control method
JP5717416B2 (en) Driving support control device
JP6315580B2 (en) Vehicle start support device and start notification method
JP2005004413A (en) Drive supporting device for vehicle
JP2008257399A (en) Image processor
TW202122294A (en) Vehicle control method and vehicle control system
US11373416B2 (en) Image processing device and image processing method
KR20200059475A (en) Apparatus for compensating height of ultrasonic sensor and method thereof
JP2020009386A (en) Periphery recognition deice and on-vehicle camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210408

R151 Written notification of patent or utility model registration

Ref document number: 6876269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151