JP2018147368A - Road surface state estimating apparatus - Google Patents
Road surface state estimating apparatus Download PDFInfo
- Publication number
- JP2018147368A JP2018147368A JP2017043922A JP2017043922A JP2018147368A JP 2018147368 A JP2018147368 A JP 2018147368A JP 2017043922 A JP2017043922 A JP 2017043922A JP 2017043922 A JP2017043922 A JP 2017043922A JP 2018147368 A JP2018147368 A JP 2018147368A
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- vehicle
- search area
- reference image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は路面状態推定装置に関する。 The present invention relates to a road surface state estimating device.
特許文献1には、車両等に固定設置されたカメラで撮像したカメラ画像を基に当該車両等の周辺環境を推定する環境推定装置及びこの装置を用いた車両制御装置が記載されている。
路面の状態は、該路面を走行する車両に影響を与える。本発明はこのような実状に鑑みてなされたものであって、車両前方の路面の状態を、該車両の前方を写した車両前方画像に基づいて推定することを目的とする。 The state of the road surface affects the vehicle traveling on the road surface. The present invention has been made in view of such a situation, and an object of the present invention is to estimate the state of a road surface in front of a vehicle based on a vehicle front image in which the front of the vehicle is captured.
上記の目的を達成するために、本発明に係る路面状態推定装置は、車両前方を写した車両前方画像において、前走車両のランプ部の領域を基準画像として抽出する基準画像抽出部と、車両前方の路面の濡れに起因する前記ランプ部の前記路面への反射により、前記ランプ部の映り込みが生じている可能性のある前記車両前方画像内の領域を探索領域として設定する探索領域設定部と、前記探索領域内のピクセルの色情報を前記基準画像内のピクセルの色情報と比較することにより前記路面の濡れ度合いを推定する推定部とを備えている。 In order to achieve the above object, a road surface state estimation device according to the present invention includes a reference image extraction unit that extracts a region of a ramp portion of a preceding vehicle as a reference image in a vehicle front image obtained by copying the vehicle front, A search area setting unit that sets, as a search area, an area in the front image of the vehicle in which reflection of the lamp part may occur due to reflection of the lamp part on the road surface due to wetness of the road surface ahead. And an estimation unit that estimates the degree of wetness of the road surface by comparing the color information of the pixels in the search area with the color information of the pixels in the reference image.
本発明によれば、車両前方の路面の状態を、該車両の前方を写した車両前方画像に基づいて推定することができる。 According to the present invention, the state of the road surface in front of the vehicle can be estimated based on the vehicle front image in which the front of the vehicle is captured.
以下に本発明の実施形態を説明する。ただし、本発明は、以下の実施形態によって限定されるものではない。 Embodiments of the present invention will be described below. However, the present invention is not limited to the following embodiments.
図1に、路面状態推定装置1を備えたシステムSを示す。システムSは車両に搭載され、システムSが搭載された車両を自車両とも呼ぶ。システムSは、車両前方撮像装置2と、車両情報取得装置3と、路面状態を自車両のドライバに知らせる警報装置4と、路面状態を周囲の車両または道路管理者に知らせる通信装置5とを更に備えており、これらの装置は路面状態推定装置1に接続される。
FIG. 1 shows a system S including a road surface
自車両前方の路面が降雨等により濡れている場合、自車両の前方を走行する前走車両のランプ部が路面に反射し、自車両前方を写した車両前方画像において該ランプ部の映り込みが生じる。路面の濡れ度合いが大きいほど、映り込みの度合いも大きくなると考えられる。路面状態推定装置1は、自車両前方の路面の濡れ度合いを、車両前方画像における前走車両のランプ部の映り込みの度合いから推定する。路面状態推定装置1は、画像取得部11と、前走車両検出部12と、基準画像抽出部13と、探索領域設定部14と、推定部15と、信号出力部16とを備えている。
When the road surface in front of the host vehicle is wet due to rain or the like, the lamp portion of the preceding vehicle that travels in front of the host vehicle is reflected on the road surface, and the lamp portion is reflected in the vehicle front image that shows the front of the host vehicle. Arise. It is considered that the greater the wetness of the road surface, the greater the degree of reflection. The road surface
路面状態推定装置1は、そのハードウェア構成として、各部の機能を実行するように動作可能なプログラム及びデータを格納するメモリと、演算処理を行うプロセッサと、システムS内の他の装置とのインタフェースとを備えている。
The road surface
車両前方撮像装置2は、自車両の前方を車両前方画像として撮影する。この車両前方画像は、車両前方撮像装置2から路面状態推定装置1へ送られる。車両前方撮像装置2として、近年、車両周囲の死角を低減する目的で普及が進んでいる全方位カメラを用いることができる。また、車両前方の障害物や白線を検出して追突や車線逸脱を防止する機能の普及が進んでおり、これらの機能で使用されているステレオカメラ、単眼カメラを車両前方撮像装置2として用いてもよい。
The vehicle
図2に、システムSにより行われる処理のフローを示す。まず、ステップS101において、車両情報取得装置3は、走行中の自車両の車両情報を自車両から取得し、取得した情報を路面状態推定装置1に入力する。車両情報の例として、車速、ハンドル舵角、ブレーキスイッチの状態、アクセル開度、シフトポジション、ワイパー作動状況等が挙げられる。
FIG. 2 shows a flow of processing performed by the system S. First, in step S <b> 101, the vehicle
ステップS102において、路面状態推定装置1内の画像取得部11は、車両前方撮像装置2から一定間隔(例えばビデオレート30Hz)で送られてくる、一定サイズ(例えばVGAサイズ横640×縦480ピクセル)の車両前方画像を取得する。車両前方画像の一例を図3に示す。車両前方画像6には、自車両の前方を走行する前走車両61と、自車両及び前走車両が走行する路面62とが写っている。さらに、前走車両61並びに該前走車両の左側のブレーキランプ部63L及び右側のブレーキランプ部63Rが、濡れた路面62への反射により映り込んでいる。前走車両61並びにブレーキランプ部63L及び63Rが映り込んだ領域をそれぞれ、符号611並びに63L1及び63R1として示す。
In step S102, the
ステップS103において、前走車両検出部12は、車両前方画像6において前走車両61を検出する。前走車両を検出する手法としては、一般的に知られている、テンプレートマッチング法、ニューラルネットワーク法等を用いることができる。ニューラルネットワーク法では、実際に撮影した数多くの画像群をデータベース化して教師データとして利用し、事前にニューラルネットワークに学習させておく。
In step S <b> 103, the preceding
車両前方撮像装置2としてステレオカメラを使用している場合は、距離情報から路面以外の高さのある物体を前走車両の候補として抽出し、その候補について前走車両であるか否かの推定を行うことで検出精度を向上させることができる。また、車両前方撮像装置2から事前に白線情報を取得し、自車両の前方の白線領域内に検出範囲を絞り込んでもよい。
When a stereo camera is used as the vehicle
ステップS104において、前走車両検出部12は前走車両が検出されたかどうかを判断する。前走車両が検出されたと判断された場合は後述するステップS105に進み、さもなければステップS101に戻る。
In step S104, the preceding
ステップS105において、基準画像抽出部13は、前走車両61における車両左側のブレーキランプ部63Lの領域及び車両右側のブレーキランプ部63Rの領域をそれぞれ左側基準画像及び右側基準画像として抽出する。左側基準画像及び右側基準画像はいずれも、正方形状又は矩形状である。具体的には、基準画像抽出部13は、車両前方画像6においてブレーキランプ部の色情報に近い色情報を有するピクセルを抽出する。この色情報として例えばRGB色情報を用いることができる。
In step S <b> 105, the reference
一般にRGB色情報は、赤色の成分を示すR値(0〜255)、緑色の成分を示すG値(0〜255)、青色の成分を示すB値(0〜255)から構成される。本実施形態においては、ブレーキランプ部の色情報の範囲を、例えば、200≦R値≦255かつ0≦G値≦50かつ0≦B値≦50とする。この範囲内のR値、G値及びB値を有する車両前方画像6内のピクセルをブレーキランプ部の候補ピクセルとして抽出する。
In general, RGB color information is composed of an R value (0 to 255) indicating a red component, a G value (0 to 255) indicating a green component, and a B value (0 to 255) indicating a blue component. In the present embodiment, the range of the color information of the brake lamp portion is, for example, 200 ≦ R value ≦ 255, 0 ≦ G value ≦ 50, and 0 ≦ B value ≦ 50. Pixels in the
一般的に、ブレーキランプ部は車両後部の左右端に左右対称に取り付けられている。そのため、基準画像抽出部13は、抽出されたブレーキランプ部の候補ピクセルが車両の左右両端に左右対称に位置している場合に、それら候補ピクセルを抽出し、基準画像とする。図4に基準画像の一例を示す。同図(a)は、前走車両6の左側のブレーキランプ部63Lが写った左側基準画像7Lである。同図(b)は、前走車両6の右側のブレーキランプ部63Rが写った右側基準画像7Rである。
Generally, the brake lamp part is attached to the left and right ends of the rear part of the vehicle symmetrically. Therefore, the reference
ステップS106において、基準画像抽出部13は、基準画像が抽出されたかどうかを判断する。基準画像が抽出されたと判断された場合は後述するステップS107に進み、さもなければステップS101に戻る。
In step S106, the reference
探索領域設定部14は、2段階の探索領域設定を行う。ステップS107では、探索領域設定部14は探索領域設定の第1段階として、車両前方画像6内に第1探索領域を設定する。図5に、第1探索領域BL及びBRの設定例を示す。第1探索領域BL及びBRはそれぞれ、前走車両61の車両左側のブレーキランプ部63L及び車両右側のブレーキランプ部63Rに対応して設定される。第1探索領域BL及びBRはそれぞれ、車両前方画像6において前走車両61の左右のブレーキランプ部63L及び63Rの領域の下方に設定される。
The search
具体的には、左側の第1探索領域BLは、前走車両61の後輪64L及び64Rと路面62との2つの接触箇所を通る直線Aを基準として、ブレーキランプ部63Lの領域と線対称な位置関係にある領域を含むものとなるように設定される。すなわち、左側のブレーキランプ部63Lの中心と直線Aとの距離L1は、第1探索領域BLの中心と直線Aとの距離L2に等しい。同様に、右側の第1探索領域BRは、直線Aを基準として、ブレーキランプ部63Rの領域と線対称な位置関係にある領域を含むものとなるように設定される。
Specifically, the first search area BL on the left side of the brake lamp portion 63 L is based on a straight line A passing through two contact points between the rear wheels 64 L and 64 R of the preceding
第1探索領域BL及びBRのサイズは、基準画像7L及び7Rの縦横サイズよりも大きいサイズとすることができる。例えば、基準画像の縦横サイズの2倍に設定することができる。
Size of the first search area B L and B R may be a size larger than the vertical and horizontal size of the
ステップS108では、推定部15は、第1探索領域BL内のピクセルの色情報を基準画像7L内のピクセルの色情報と比較し、第1探索領域BLにおいて基準画像7Lと一致する箇所が存在するか否かを判断する。さらに、推定部15は、第1探索領域BR内のピクセルの色情報を基準画像7R内のピクセルの色情報と比較し、第1探索領域BRにおいて基準画像7Rと一致する箇所が存在するか否かを判断する。探索手法としては、例えばテンプレートマッチング法を使用することができる。さらには色情報の一致度をしきい値判断してもよい。
In step S108, the
同ステップにて、第1探索領域BLにおいて基準画像7Lと一致する箇所が存在し、かつ第1探索領域BRにおいて基準画像7Rと一致する箇所が存在すると判断された場合は、ステップS109に進み、さもなければステップS110に進む。
At the same step, if there are places that match the
ステップS109では、路面に水が溜まっているとして推定部15により路面の濡れ度合いWが1.0に設定され、この濡れ度合いWを推定部15が信号出力部16へ出力した後に、後述するステップS112に進む。
In step S109, it is assumed that water has accumulated on the road surface, and the wetness degree W of the road surface is set to 1.0 by the
路面の濡れ度合いが比較的大きい場合、つまり路面に水が溜まっている場合、前走車両のブレーキランプ部が鏡面反射して直線Aを基準として線対称な位置関係にある領域に映り込んでいる可能性が高いという見地に基づいて、上記のようなステップS107〜S109が行われる。 When the degree of wetness of the road surface is relatively large, that is, when water accumulates on the road surface, the brake lamp portion of the preceding vehicle is reflected in a mirror surface and reflected in an area having a symmetrical relationship with respect to the straight line A Steps S107 to S109 as described above are performed based on the viewpoint that the possibility is high.
路面の濡れ度合いWとは、路面の濡れの程度を数値的に表す指標である。濡れ度合いWの数値が大きいほど濡れの程度も大きくなる。第1探索領域に基準画像と一致する箇所が存在する場合は、上述したように濡れ度合いWが1.0に設定される。 The road surface wetting degree W is an index that numerically represents the degree of road surface wetting. The greater the wetness value W, the greater the wetness. When there is a location that matches the reference image in the first search area, the wetness degree W is set to 1.0 as described above.
ステップS110では、探索領域設定部14は探索領域設定の第2段階として、車両前方画像6内に正方形状又は矩形状の第2探索領域を設定する。図6に、第2探索領域CL及びCRの設定例を示す。左側の第2探索領域CLは、第1探索領域BLと直線Aとの間の領域として設定される。左側の第2探索領域CLの横幅は、ブレーキランプ部63Lの横幅よりも大きくなるように設定される。例えば、基準画像7Lの横サイズと同じにすることができる。左側の第2探索領域CLの縦の長さは、第1探索領域BLの上辺から直線Aまでの長さに等しい。
In step S110, the search
右側の第2探索領域CRも同様に、第1探索領域BRと直線Aとの間の領域として設定される。右側の第2探索領域CRの横幅は、ブレーキランプ部63Rの横幅よりも大きくなるように設定される。例えば、基準画像7Rの横サイズと同じにすることができる。右側の第2探索領域CRの縦の長さは、第1探索領域BRの上辺から直線Aまでの長さに等しい。
Similarly, the second search area C R of the right side is set as the region between the first search area B R and the line A. Width of the second search area C R of the right side is set to be larger than the width of the
ステップS111において、推定部15は、第2探索領域において、基準画像内のピクセルの色情報(一般的には赤色)に近い色情報を有するピクセルを探索する。具体的には、まず、推定部15は、基準画像7L及び7RのRGB色情報を求める。赤色の情報BASERは、基準画像7L及び7Rにおける全ピクセルのR値の平均値、中央値、最大値等を用いる。緑色の情報BASEG、青色の情報BASEBについても同様である。例えば、BASER=200、BASEG=10、BASEB=20である。
In step S111, the
続いて、推定部15は、第2探索領域CL及びCRのRGB色情報を求める。赤色の情報AREARは、第2探索領域CL及びCRにおける全ピクセルのR値の平均値、中央値、最大値等を用いる。緑色の情報AREAG、青色の情報AREABについても同様である。例えば、AREAR=100、AREAG=16、AREAB=12である。
Subsequently, the estimating
同ステップではさらに、推定部15は、基準画像のRGB色情報(BASER、BASEG、BASEB)と探索領域のRGB色情報(AREAR、AREAG、AREAB)とを用いて濡れ度合いWを算出する。
In this step, the
これは、路面の濡れ度合いWと、第2探索領域にブレーキランプ部が映り込んでいる度合いとは相関があるという見地に基づいている。図7に、路面の濡れ度合いWと映り込みの度合いとの関係の一例を示す。路面の濡れ度合いWが大きくなるにつれて映り込みの度合いも大きくなる。ただし、路面の濡れ度合いWが1.0以上の場合、路面に水が溜まっているとして、映り込みの度合いは最大かつ一定であるとする。ステップS108の判断結果が「否」となった時点で、路面の濡れ度合いWは1.0未満である。図7に示した関係から、路面の濡れ度合いWを次式により求める。
W=α×(AREAR÷BASER) (1)
This is based on the viewpoint that there is a correlation between the road surface wetness degree W and the degree that the brake lamp portion is reflected in the second search area. FIG. 7 shows an example of the relationship between the road surface wetness degree W and the degree of reflection. As the degree of wetness W of the road surface increases, the degree of reflection increases. However, when the road surface wetness degree W is 1.0 or more, it is assumed that water is accumulated on the road surface, and the degree of reflection is maximum and constant. When the determination result in step S108 is “No”, the degree of wetness W of the road surface is less than 1.0. From the relationship shown in FIG. 7, the road surface wetness degree W is obtained by the following equation.
W = α × (AREA R ÷ BASE R ) (1)
ここで、映り込みの度合いは、AREAR÷BASERで表される。また、αは係数であり、例えば0.8とすることができる。例えば、路面の濡れ度合いと映り込みの度合いとの関係について、走行場所が一般道路か高速道路かの違いに応じて係数αの値を変えても良いし、直線(比例)の関係ではなく高次曲線の関係としても良い。 Here, the degree of reflection is represented by AREA R ÷ BASE R. Α is a coefficient, and can be set to 0.8, for example. For example, regarding the relationship between the degree of wetness on the road surface and the degree of reflection, the value of the coefficient α may be changed depending on whether the driving location is a general road or a highway, or a high value rather than a straight line (proportional) relationship. It is good also as a relationship of a quadratic curve.
同ステップではさらに、推定部15は、AREAG÷BASEGの値と、AREAB÷BASEBの値とを算出し、各値が所定のしきい値以下であるかどうかを判断する。これらの2つの値がしきい値以下の場合は、式(1)による路面の濡れ度合いWの値を推定部15が信号出力部16へ出力する。その他の場合はステップS101に戻る(不図示)。
In this step, the
路面に水が溜まっているわけではないものの、路面が濡れている場合には、前走車両のブレーキランプ部が拡散反射して直線Aと第1探索領域BL及びBRとの間の領域に映り込んでいる可能性が高いと考えられる。この見地に基づいて、上記のようなステップS110及びS111が行われる。このように映り込んだ領域を図6の符号63L2及び63R2として示す。
Though not necessarily water is accumulated on the road surface, the area between the when the road surface is wet, the straight line A and the first search region B L and B R brake lamp portion before run the vehicle is diffused reflected It is highly probable that it is reflected in Based on this viewpoint, steps S110 and S111 as described above are performed. The areas reflected in this way are indicated by
ステップS112において、信号出力部16は、推定部15から出力された路面の濡れ度合いWに応じた信号を警報装置4へ出力する。そして、警報装置4は、信号出力部16から出力された信号に応じて、路面の状態を、音、振動、ランプ、表示等で自車両のドライバに警報する。
In step S <b> 112, the
ステップS113において、信号出力部16は、推定部15から出力された路面の濡れ度合いWに応じた信号を通信装置5へ出力する。そして、通信装置5は、信号出力部16から出力された信号に応じて、路面の状態を自車両周辺の別の車両や道路管理者に知らせる。ステップS113を終えるとステップS101に戻る。
In step S <b> 113, the
上記の実施形態によれば、自車両が走行する路面の、降雨等による濡れ度合いを、自車両の前方を写した車両前方画像に基づいて推定することができる。この推定は、自車両の前方を走行する前走車両のブレーキランプ部が抽出された基準画像をテンプレートとして行われる。そのため、処理の複雑度を抑えて、比較的簡易な構成で路面の濡れ度合いを推定することができる。 According to the above-described embodiment, the degree of wetness due to rain or the like on the road surface on which the host vehicle is traveling can be estimated based on the vehicle front image that captures the front of the host vehicle. This estimation is performed using a reference image from which a brake lamp portion of a preceding vehicle traveling in front of the host vehicle is extracted as a template. Therefore, the degree of wetness of the road surface can be estimated with a relatively simple configuration while suppressing the complexity of the processing.
また、車両前方画像を用いて推定が行われるため、安価なハードウェア構成で、路面に対して物理的に接触することなく、路面の濡れ度合いを推定することができる。 Further, since the estimation is performed using the vehicle front image, the degree of wetness of the road surface can be estimated with an inexpensive hardware configuration without physically contacting the road surface.
一般的に、路面が乾いている場合に比べて、路面が濡れている場合は、自車両が前走車両に追突する可能性が高くなると考えられる。上記実施形態により路面の濡れ度合いを推定し、自車両のドライバに警報を発することで、自車両が前走車両に追突する可能性を低減することができる。 In general, when the road surface is wet, it is considered that the possibility that the host vehicle will collide with the preceding vehicle is higher than when the road surface is dry. By estimating the degree of wetness of the road surface according to the above embodiment and issuing a warning to the driver of the host vehicle, the possibility of the host vehicle colliding with the preceding vehicle can be reduced.
探索領域設定部は、車両前方画像においてブレーキランプ部領域の下方の領域を探索領域として設定するため、推定を効率的に行うことができる。また、探索領域設定は2段階に分けて行われるため、推定の効率がさらに高まる。 Since the search area setting unit sets the area below the brake lamp area in the vehicle front image as the search area, estimation can be performed efficiently. In addition, since the search area setting is performed in two stages, the estimation efficiency is further increased.
路面は黒っぽい色であることが多いことから、赤色情報を基準として路面状態の推定を行うことで、推定の誤差を抑えることができる。 Since the road surface is often a blackish color, the estimation error can be suppressed by estimating the road surface state based on the red information.
前走車両のブレーキランプ部に限らず、テールランプ部等の任意のランプ部を基準画像として抽出することもできる。 Not only the brake lamp part of the preceding vehicle but also an arbitrary lamp part such as a tail lamp part can be extracted as a reference image.
色情報を定量的に表すにあたり、RGB色空間に限らず、別の色空間あるいは表色系を用いてもよい。 In expressing color information quantitatively, not only the RGB color space but also another color space or color system may be used.
ワイパー作動時のみ路面状態の推定を行うようにシステムSを構成することもできる。 The system S can be configured to estimate the road surface state only when the wiper is activated.
ステップS112において、信号出力部16は、推定部15から出力された路面の濡れ度合いWに応じた信号を車両制御装置(不図示)へ出力することもできる。そして、この車両制御装置により、自車両がスリップ、横滑り等にならないように、自車両のブレーキ、アクセル、シフトポジション、エンジントルク等を制御することができる。
さらに、路面の濡れ度合いの信号に応じて、車間距離維持装置(ACC)、衝突被害軽減ブレーキ(AEB)、横滑り防止装置(ESC)等における制御タイミングや制御時間を変更させても良い。
In step S <b> 112, the
Furthermore, the control timing and control time in the inter-vehicle distance maintaining device (ACC), the collision damage reducing brake (AEB), the skid prevention device (ESC), and the like may be changed according to the signal of the degree of wetness of the road surface.
左側の第1探索領域BLを、直線Aを基準として、ブレーキランプ部63Lの領域と線対称な位置関係にある領域そのものとして設定することもできる。このように設定された左側の第1探索領域BLと直線Aとの間の領域を第2探索領域CLとして設定することができる。
同様に、右側の第1探索領域BRを、直線Aを基準として、ブレーキランプ部63Rの領域と線対称な位置関係にある領域そのものとして設定することもできる。このように設定された右側の第1探索領域BRと直線Aとの間の領域を第2探索領域CLとして設定することができる。
The first search area B L of the left side, relative to the straight line A, can also be set as an area itself in the region line symmetric positional relationship of the
Similarly, the first search area B R of the right, relative to the straight line A, can also be set as an area itself in the region line symmetric positional relationship of the
前述したシステムS及び路面状態推定装置1の機能的構成及び物理的構成は、前述の態様に限られるものではなく、例えば、各機能や物理資源を統合して実装したり、逆に、さらに分散して実装したりすることも可能である。
The functional configuration and physical configuration of the system S and the road surface
1 路面状態推定装置
11 画像取得部
12 前走車両検出部
13 基準画像抽出部
14 探索領域設定部
15 推定部
16 信号出力部
2 車両前方撮像装置
3 車両情報取得装置
4 警報装置
5 通信装置
6 車両前方画像
61 前走車両
62 路面
63L、63R ブレーキランプ部
7L、7R 基準画像
BL、BR 第1探索領域
CL、CR 第2探索領域
1 Road surface condition estimation device
DESCRIPTION OF
2 Vehicle
6 Vehicle
7 L, 7 R reference image B L, B R first search region C L, C R second search area
Claims (6)
車両前方の路面の濡れに起因する前記ランプ部の前記路面への反射により、前記ランプ部の映り込みが生じている可能性のある前記車両前方画像内の領域を探索領域として設定する探索領域設定部と、
前記探索領域内のピクセルの色情報を前記基準画像内のピクセルの色情報と比較することにより前記路面の濡れ度合いを推定する推定部と
を備えた路面状態推定装置。 In the vehicle front image that shows the front of the vehicle, a reference image extraction unit that extracts a region of the ramp portion of the preceding vehicle as a reference image;
Search area setting for setting an area in the vehicle front image in which reflection of the lamp part may occur due to reflection of the lamp part on the road surface due to wetness of the road surface in front of the vehicle as a search area And
A road surface state estimation device comprising: an estimation unit that estimates the degree of wetness of the road surface by comparing color information of pixels in the search area with color information of pixels in the reference image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043922A JP6876269B2 (en) | 2017-03-08 | 2017-03-08 | Road surface condition estimation device |
JP2021071133A JP7089708B2 (en) | 2017-03-08 | 2021-04-20 | Road surface condition estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043922A JP6876269B2 (en) | 2017-03-08 | 2017-03-08 | Road surface condition estimation device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021071133A Division JP7089708B2 (en) | 2017-03-08 | 2021-04-20 | Road surface condition estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018147368A true JP2018147368A (en) | 2018-09-20 |
JP6876269B2 JP6876269B2 (en) | 2021-05-26 |
Family
ID=63591312
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017043922A Active JP6876269B2 (en) | 2017-03-08 | 2017-03-08 | Road surface condition estimation device |
JP2021071133A Active JP7089708B2 (en) | 2017-03-08 | 2021-04-20 | Road surface condition estimation device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021071133A Active JP7089708B2 (en) | 2017-03-08 | 2021-04-20 | Road surface condition estimation device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6876269B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022509774A (en) * | 2018-11-15 | 2022-01-24 | モービルアイ ヴィジョン テクノロジーズ リミテッド | High-speed CNN classification of multi-frame semantic signals |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0371399A (en) * | 1989-08-11 | 1991-03-27 | Nagoya Denki Kogyo Kk | Vehicle detecting method |
JP2009065360A (en) * | 2007-09-05 | 2009-03-26 | Denso Corp | Image processor, image processor for vehicle, image display device for vehicle and vehicle controller |
JP2012117872A (en) * | 2010-11-30 | 2012-06-21 | Ricoh Co Ltd | Object detecting device and vehicle-mounted equipment control apparatus equipped with the same |
JP2013092975A (en) * | 2011-10-27 | 2013-05-16 | Ricoh Co Ltd | Vehicle recognition device, vehicle recognition method, and program |
JP2016522886A (en) * | 2013-04-11 | 2016-08-04 | グーグル インコーポレイテッド | Method and system for detecting weather conditions using in-vehicle sensors |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4258385B2 (en) * | 2004-01-14 | 2009-04-30 | 株式会社デンソー | Road surface reflection detector |
JP6600001B2 (en) * | 2015-02-26 | 2019-10-30 | ボルボトラックコーポレーション | How to control the distance between vehicles |
-
2017
- 2017-03-08 JP JP2017043922A patent/JP6876269B2/en active Active
-
2021
- 2021-04-20 JP JP2021071133A patent/JP7089708B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0371399A (en) * | 1989-08-11 | 1991-03-27 | Nagoya Denki Kogyo Kk | Vehicle detecting method |
JP2009065360A (en) * | 2007-09-05 | 2009-03-26 | Denso Corp | Image processor, image processor for vehicle, image display device for vehicle and vehicle controller |
JP2012117872A (en) * | 2010-11-30 | 2012-06-21 | Ricoh Co Ltd | Object detecting device and vehicle-mounted equipment control apparatus equipped with the same |
JP2013092975A (en) * | 2011-10-27 | 2013-05-16 | Ricoh Co Ltd | Vehicle recognition device, vehicle recognition method, and program |
JP2016522886A (en) * | 2013-04-11 | 2016-08-04 | グーグル インコーポレイテッド | Method and system for detecting weather conditions using in-vehicle sensors |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022509774A (en) * | 2018-11-15 | 2022-01-24 | モービルアイ ヴィジョン テクノロジーズ リミテッド | High-speed CNN classification of multi-frame semantic signals |
JP7258137B2 (en) | 2018-11-15 | 2023-04-14 | モービルアイ ヴィジョン テクノロジーズ リミテッド | Fast CNN Classification of Multiframe Semantic Signals |
Also Published As
Publication number | Publication date |
---|---|
JP7089708B2 (en) | 2022-06-23 |
JP2021131869A (en) | 2021-09-09 |
JP6876269B2 (en) | 2021-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9476976B2 (en) | Object recognition apparatus and vehicle | |
US9797734B2 (en) | Object recognition apparatus | |
US9623869B2 (en) | Vehicle driving support control apparatus | |
US9721460B2 (en) | In-vehicle surrounding environment recognition device | |
JP6459659B2 (en) | Image processing apparatus, image processing method, driving support system, program | |
JP3822515B2 (en) | Obstacle detection device and method | |
JP2019096072A (en) | Object detection device, object detection method and program | |
KR101103526B1 (en) | Collision Avoidance Method Using Stereo Camera | |
JP6722084B2 (en) | Object detection device | |
JP2009169847A (en) | Vehicle exterior monitoring device | |
JP5097681B2 (en) | Feature position recognition device | |
JP7089708B2 (en) | Road surface condition estimation device | |
JP4661602B2 (en) | Rear vehicle analysis device and collision prediction device | |
US11373327B2 (en) | Image processing device and method that determine a stop position in a parking frame using images from two cameras | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
CN112542060B (en) | Rear side alarm device for vehicle | |
JP2009006824A (en) | Onboard unit and traveling control method | |
JP5717416B2 (en) | Driving support control device | |
JP6315580B2 (en) | Vehicle start support device and start notification method | |
JP2005004413A (en) | Drive supporting device for vehicle | |
JP2008257399A (en) | Image processor | |
TW202122294A (en) | Vehicle control method and vehicle control system | |
US11373416B2 (en) | Image processing device and image processing method | |
KR20200059475A (en) | Apparatus for compensating height of ultrasonic sensor and method thereof | |
JP2020009386A (en) | Periphery recognition deice and on-vehicle camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210408 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6876269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |