JP6394440B2 - Dirt determination device - Google Patents

Dirt determination device Download PDF

Info

Publication number
JP6394440B2
JP6394440B2 JP2015040490A JP2015040490A JP6394440B2 JP 6394440 B2 JP6394440 B2 JP 6394440B2 JP 2015040490 A JP2015040490 A JP 2015040490A JP 2015040490 A JP2015040490 A JP 2015040490A JP 6394440 B2 JP6394440 B2 JP 6394440B2
Authority
JP
Japan
Prior art keywords
sensing
vehicle
dirt
result
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015040490A
Other languages
Japanese (ja)
Other versions
JP2016162204A (en
Inventor
一樹 加藤
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015040490A priority Critical patent/JP6394440B2/en
Publication of JP2016162204A publication Critical patent/JP2016162204A/en
Application granted granted Critical
Publication of JP6394440B2 publication Critical patent/JP6394440B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、汚れ判定装置に関する。   The present invention relates to a dirt determination device.

近年、車両の周辺に存在する物標をセンシングするための車両周辺センシング装置(例えばカメラやレーダ装置)を用いた車両操作支援制御や自動走行制御などの技術の開発が盛んに行われている。しかし、車両周辺センシング装置は、車両の走行環境などにより汚れると、センシング結果の信頼性が低下してしまう。そこで、車両周辺センシング装置の汚れを検出する技術が提案されている(例えば特許文献1参照)。   In recent years, techniques such as vehicle operation support control and automatic travel control using a vehicle periphery sensing device (for example, a camera or a radar device) for sensing a target existing around the vehicle have been actively developed. However, if the vehicle periphery sensing device becomes dirty due to the traveling environment of the vehicle or the like, the reliability of the sensing result decreases. Therefore, a technique for detecting dirt on the vehicle periphery sensing device has been proposed (see, for example, Patent Document 1).

特許文献1に記載の車両は、カメラにより車両前方を撮影する車両用撮影装置と、レーダ装置により車両前方の物体を検出する物体検出装置と、を備える。この車両では、カメラにより撮影された画像データに基づき、当該カメラのセンシングに影響を与える汚れ(例えば、カメラがフロントガラスの内側に設けられている場合は、フロントガラスの外面のうちカメラの撮像範囲に含まれる領域に付着した泥等)を検出する汚れ検出処理が行われる。この汚れ検出処理は、物体検出装置により対象物体(他の車両やガードレール等)が検出されている状況でのみ行われ、物体検出装置により対象物体が検出されていない状況では行われない。   The vehicle described in Patent Document 1 includes a vehicle imaging device that captures the front of the vehicle with a camera, and an object detection device that detects an object in front of the vehicle with a radar device. In this vehicle, dirt that affects the sensing of the camera based on image data captured by the camera (for example, if the camera is provided inside the windshield, the imaging range of the camera on the outer surface of the windshield Dirt detection processing for detecting mud or the like adhering to the area included in the area is performed. This dirt detection process is performed only in a situation where the target object (another vehicle, guardrail, etc.) is detected by the object detection device, and is not performed in a situation where the target object is not detected by the object detection device.

特開2007−293672号公報JP 2007-293672 A

特許文献1に記載の車両では、カメラ及びレーダ装置がいずれも車両前方に設けられるため、カメラのセンシングに影響を与える汚れが生じる状況においては、レーダ装置のセンシングに影響を与える汚れも生じる可能性が高い。したがって、特許文献1に記載の車両では、汚れによりカメラ及びレーダ装置の両方のセンシングが影響された場合、実際には存在する対象物体が物体検出装置により検出されず、汚れ判定自体が行われない可能性があるという問題があった。   In the vehicle described in Patent Document 1, since both the camera and the radar device are provided in front of the vehicle, in a situation where dirt that affects the sensing of the camera occurs, dirt that affects the sensing of the radar device may also occur. Is expensive. Therefore, in the vehicle described in Patent Document 1, when the sensing of both the camera and the radar apparatus is affected by dirt, the actual target object is not detected by the object detection apparatus, and the dirt judgment itself is not performed. There was a problem that there was a possibility.

本発明は、車両周辺センシング装置のセンシングに影響を与える汚れの状態についての判定が安定的に行われる汚れ判定装置を提供することを目的とする。   An object of this invention is to provide the stain | pollution | contamination determination apparatus by which the determination about the state of the stain | pollution | contamination which affects the sensing of a vehicle periphery sensing apparatus is performed stably.

本発明の一側面は、車両の周辺に存在する物標をセンシングするための車両周辺センシング装置を少なくとも1つ備える車両に搭載された汚れ判定装置であって、結果取得部と、結果特定部と、判定部と、を備える。結果取得部は、車両周辺センシング装置のうちの1つである特定センシング装置による実際のセンシング結果である実センシング結果を取得する。結果特定部は、特定センシング装置により得られるべき仮想のセンシング結果である仮想センシング結果を、車両周辺センシング装置以外の装置から取得した情報に基づき特定する。判定部は、実センシング結果と仮想センシング結果との比較に基づき、特定センシング装置のセンシングに影響を与える汚れの状態を判定する。   One aspect of the present invention is a dirt determination device mounted on a vehicle including at least one vehicle periphery sensing device for sensing a target existing around the vehicle, the result obtaining unit, the result specifying unit, And a determination unit. A result acquisition part acquires the actual sensing result which is an actual sensing result by the specific sensing apparatus which is one of the vehicle periphery sensing apparatuses. A result specific | specification part specifies the virtual sensing result which is a virtual sensing result which should be obtained by a specific sensing apparatus based on the information acquired from apparatuses other than a vehicle periphery sensing apparatus. The determination unit determines a state of dirt that affects the sensing of the specific sensing device based on a comparison between the actual sensing result and the virtual sensing result.

このような構成によれば、特定センシング結果によるセンシング結果(実センシング結果)と、特定センシング装置以外の車両周辺センシング装置によるセンシング結果と、の比較に基づき特定センシング装置のセンシングに影響を与える汚れの状態を判定する場合と比較して、汚れの状態の判定を安定的に行うことができる。   According to such a configuration, based on a comparison between the sensing result (actual sensing result) based on the specific sensing result and the sensing result obtained from the vehicle surrounding sensing device other than the specific sensing device, dirt that affects the sensing of the specific sensing device can be obtained. Compared with the case of determining the state, the determination of the state of dirt can be performed stably.

第1実施形態の汚れ判定システムの構成を表すブロック図である。It is a block diagram showing the structure of the dirt determination system of 1st Embodiment. 第1実施形態の汚れ判定処理のフローチャートである。It is a flowchart of the dirt determination process of 1st Embodiment. 汚れがない場合における追従車両の前方レーザレーダによる検出結果を表す図である。It is a figure showing the detection result by the front laser radar of a tracking vehicle when there is no dirt. 汚れがある場合における追従車両の前方レーザレーダによる検出結果を表す図である。It is a figure showing the detection result by the front laser radar of a tracking vehicle in case there exists dirt. 周辺車両情報を表す図である。It is a figure showing surrounding vehicle information. 第1実施形態における仮想センシング結果を表す図である。It is a figure showing the virtual sensing result in 1st Embodiment. 第1実施形態における差分しきい値処理の結果を表す図である。It is a figure showing the result of the difference threshold value process in 1st Embodiment. 第2実施形態の車両の構成を表すブロック図である。It is a block diagram showing the structure of the vehicle of 2nd Embodiment. 第2実施形態の汚れ判定処理のフローチャートである。It is a flowchart of the dirt determination process of 2nd Embodiment. 汚れがある場合におけるカメラによる撮像画像を表す図である。It is a figure showing the picked-up image by a camera in case there exists dirt. 第2実施形態における仮想センシング結果を表す図である。It is a figure showing the virtual sensing result in 2nd Embodiment. 第2実施形態における差分しきい値処理の結果を表す図である。It is a figure showing the result of the difference threshold value process in 2nd Embodiment. レーダ装置によるセンシング領域における、各種車両制御に使用される領域を表す図である。It is a figure showing the area | region used for various vehicle control in the sensing area | region by a radar apparatus. カメラによるセンシング結果における、各種車両制御に使用される領域を表す図である。It is a figure showing the area | region used for various vehicle control in the sensing result by a camera.

以下、本発明の例示的な実施形態について図面を参照しながら説明する。また、下記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、これは本発明の理解を容易にする目的で使用しており、本発明の技術的範囲を限定する意図ではない。   Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. Further, the reference numerals used in the description of the following embodiments are also used in the claims as appropriate, but this is used for the purpose of facilitating the understanding of the present invention, and limits the technical scope of the present invention. Not intended.

[1.第1実施形態]
[1−1.構成]
図1に示す汚れ判定システム10は、車両1に搭載され、前方レーダ装置11、後方レーダ装置12、通信装置13、GPS受信機14及びこれらに接続された制御装置15を備える。汚れ判定システム10は、前方レーダ装置11のセンシングに影響を与える汚れの状態を判定するための車載システムである。具体的には、第1実施形態では、このような汚れ判定システム10が搭載された車両1が複数存在することが前提となっている。そして、汚れ判定システム10は、図1に示すように、当該汚れ判定システム10を搭載する車両1(説明の便宜上「追従車両1A」ともいう。)の同一走行レーンにおける前方を、同様の汚れ判定システム10を搭載する別の車両1(説明の便宜上「先行車両1B」ともいう。)が走行している状態で、後述する汚れ判定処理を実行する。なお、汚れ判定処理は、前方レーダ装置11のセンシングに影響を与える汚れが存在する場合に、前方レーダ装置11のセンシング結果を用いる車両制御(例えばレーン内走行支援制御等)を停止することを目的として行われる。
[1. First Embodiment]
[1-1. Constitution]
A dirt determination system 10 shown in FIG. 1 is mounted on a vehicle 1 and includes a front radar device 11, a rear radar device 12, a communication device 13, a GPS receiver 14, and a control device 15 connected thereto. The dirt determination system 10 is an in-vehicle system for determining the state of dirt that affects the sensing of the front radar apparatus 11. Specifically, in the first embodiment, it is assumed that there are a plurality of vehicles 1 on which such a dirt determination system 10 is mounted. Then, as shown in FIG. 1, the dirt determination system 10 performs the same dirt determination on the front side in the same traveling lane of a vehicle 1 (for convenience of explanation, also referred to as “following vehicle 1 </ b> A”) equipped with the dirt determination system 10. In a state where another vehicle 1 (also referred to as “preceding vehicle 1B” for convenience of description) on which the system 10 is mounted is running, a stain determination process described later is executed. The dirt determination process is intended to stop vehicle control (for example, in-lane travel support control) using the sensing result of the front radar apparatus 11 when dirt that affects the sensing of the front radar apparatus 11 exists. As done.

前方レーダ装置11は、車両1前部のフロントグリル部に配置され、車両1の前方の所定領域内にレーザ光を放射し、その反射光を受光することで、レーザ光を反射した物標との相対位置や物標の大きさ等を検出する。前方レーダ装置11は、レーザ光を透過可能な前方レーダ保護部材(例えば透明なプレート)によって、外部に露出しないように覆われている。図1に示す状態では、追従車両1Aに搭載された前方レーダ装置11が、先行車両1Bとの相対位置及び先行車両1Bの大きさ等を検出する。   The front radar device 11 is disposed in a front grill portion at the front of the vehicle 1, emits laser light into a predetermined area in front of the vehicle 1, receives the reflected light, and reflects a target that reflects the laser light. The relative position of the object and the size of the target are detected. The front radar device 11 is covered with a front radar protection member (for example, a transparent plate) that can transmit laser light so as not to be exposed to the outside. In the state shown in FIG. 1, the front radar apparatus 11 mounted on the follower vehicle 1A detects the relative position with respect to the preceding vehicle 1B, the size of the preceding vehicle 1B, and the like.

後方レーダ装置12は、車両1後部のリアグリル部に配置され、車両1の後方の所定領域内にレーザ光を放射し、その反射光を受光することで、レーザ光を反射した物標との相対位置及び物標の大きさ等を検出する。後方レーダ装置12は、レーザ光を透過可能な後方レーダ保護部材(例えば透明なプレート)によって、外部に露出しないように覆われている。図1に示す状態では、先行車両1Bに搭載された後方レーダ装置12が、追従車両1Aとの相対位置及び追従車両1Aの大きさ等を検出する。   The rear radar device 12 is disposed in a rear grill portion at the rear of the vehicle 1, emits laser light into a predetermined area behind the vehicle 1, receives the reflected light, and is relative to the target reflecting the laser light. The position and the size of the target are detected. The rear radar device 12 is covered with a rear radar protective member (for example, a transparent plate) that can transmit laser light so as not to be exposed to the outside. In the state shown in FIG. 1, the rear radar device 12 mounted on the preceding vehicle 1B detects the relative position of the following vehicle 1A, the size of the following vehicle 1A, and the like.

通信装置13は、当該通信装置13を備える車両1の周辺に存在する別の車両1に搭載された通信装置13と無線通信(車車間通信)を行う。図1に示す状態では、追従車両1Aの通信装置13と先行車両1Bの通信装置13とが相互に無線通信を行う。   The communication device 13 performs wireless communication (vehicle-to-vehicle communication) with the communication device 13 mounted on another vehicle 1 existing around the vehicle 1 including the communication device 13. In the state shown in FIG. 1, the communication device 13 of the following vehicle 1A and the communication device 13 of the preceding vehicle 1B perform wireless communication with each other.

GPS受信機14は、GPS用の人工衛星からの送信電波をGPSアンテナ(図示省略)を介して受信し、車両1の現在位置(絶対位置)を検出する。
制御装置15は、CPU、ROM及びRAMを中心とする周知のマイクロコンピュータを備え、車両1の絶対位置及び後述する周辺車両情報を通信装置13を介して車外へ常時発信する。また、制御装置15は、当該制御装置15を備える車両1の前方を走行する別の車両1との無線通信に基づき後述する汚れ判定処理(図2)を実行する。図1に示す状態では、追従車両1Aの制御装置15は、先行車両1Bとの無線通信に基づき汚れ判定処理を実行する。また、汚れ判定処理で判定される、前方レーダ装置11のセンシングに影響を与える車両1の汚れとしては、例えば、車両1における前方レーダ装置11のレーザ光が通過する部分のうちの外部に露出した面(具体的には前方レーダ保護部材の露出側表面)に付着した泥等が挙げられる。なお、以下では、あるセンシング装置のセンシングに影響を与える車両1の汚れを単に「そのセンシング装置についての汚れ」という。
The GPS receiver 14 receives a transmission radio wave from a GPS artificial satellite via a GPS antenna (not shown), and detects the current position (absolute position) of the vehicle 1.
The control device 15 includes a known microcomputer centered on a CPU, a ROM, and a RAM, and constantly transmits the absolute position of the vehicle 1 and surrounding vehicle information to be described later to the outside of the vehicle via the communication device 13. Moreover, the control apparatus 15 performs the stain | pollution | contamination determination process (FIG. 2) mentioned later based on the radio | wireless communication with the other vehicle 1 which drive | works the front of the vehicle 1 provided with the said control apparatus 15. FIG. In the state shown in FIG. 1, the control device 15 of the follower vehicle 1 </ b> A executes a dirt determination process based on wireless communication with the preceding vehicle 1 </ b> B. Further, as the dirt of the vehicle 1 that affects the sensing of the front radar apparatus 11 determined by the dirt determination process, for example, it is exposed outside the portion of the vehicle 1 through which the laser light of the front radar apparatus 11 passes. Examples include mud adhering to the surface (specifically, the exposed side surface of the front radar protection member). Hereinafter, the dirt of the vehicle 1 that affects the sensing of a certain sensing device is simply referred to as “dirt for the sensing device”.

[1−2.処理]
次に、図1に示す状態において、追従車両1Aの制御装置15が実行する汚れ判定処理について、図2のフローチャートを用いて説明する。汚れ判定処理は、追従車両1Aのイグニッションスイッチがオンであり、かつ、追従車両1Aの前方を先行車両1Bが走行している期間において周期的に実行される。ここで、制御装置15は、追従車両1Aの前方を先行車両1Bが走行していることを、例えば、次のようにして認識する。すなわち、追従車両1Aの制御装置15は、GPS受信機14により検出した自己の絶対位置と受信した他の車両1の絶対位置とに基づき、追従車両1Aに対する他の車両1の相対位置を検出する。そして、制御装置15は、追従車両1A前方の所定領域内に車両1が存在している場合にその車両1を先行車両1Bと認識し、先行車両1Bが走行していることを認識する。
[1-2. processing]
Next, the dirt determination process executed by the control device 15 of the following vehicle 1A in the state shown in FIG. 1 will be described with reference to the flowchart of FIG. The dirt determination process is periodically executed in a period in which the ignition switch of the following vehicle 1A is on and the preceding vehicle 1B is traveling in front of the following vehicle 1A. Here, the control device 15 recognizes that the preceding vehicle 1B is traveling ahead of the following vehicle 1A as follows, for example. That is, the control device 15 of the following vehicle 1A detects the relative position of the other vehicle 1 with respect to the following vehicle 1A based on the absolute position of the vehicle 1A detected by the GPS receiver 14 and the absolute position of the other vehicle 1 received. . And the control apparatus 15 recognizes the vehicle 1 as the preceding vehicle 1B, when the vehicle 1 exists in the predetermined area | region ahead of the following vehicle 1A, and recognizes that the preceding vehicle 1B is drive | working.

まず、追従車両1Aの制御装置15は、S101(Sはステップを表す)で追従車両1Aの前方レーダ装置11から実際のセンシング結果である実センシング結果を取得する。本実施形態では、前方レーダ装置11又は後方レーダ装置12による実センシング結果は、当該レーダ装置により検出された物標の相対位置及び物標の大きさを、当該レーダ装置を搭載した車両1を基準とする2次元座標系で表したものであり、デジタル画像として表現可能である。追従車両1Aの前方レーダ装置11によるセンシング結果には、前方レーダ装置11が汚れていない場合は、先行車両1Bが現れる(図3参照)。一方、前方レーダ装置11が汚れている場合は、実際には先行車両1Bが存在するにもかかわらず先行車両1Bが現れない場合(図4参照)がある。   First, the control device 15 of the following vehicle 1A acquires an actual sensing result that is an actual sensing result from the front radar device 11 of the following vehicle 1A in S101 (S represents a step). In the present embodiment, the actual sensing result by the front radar device 11 or the rear radar device 12 is based on the relative position of the target detected by the radar device and the size of the target based on the vehicle 1 on which the radar device is mounted. Is expressed in a two-dimensional coordinate system and can be expressed as a digital image. When the front radar device 11 is not dirty, the preceding vehicle 1B appears in the sensing result of the following vehicle 1A by the front radar device 11 (see FIG. 3). On the other hand, when the front radar apparatus 11 is dirty, the preceding vehicle 1B may not appear even though the preceding vehicle 1B actually exists (see FIG. 4).

続いて、制御装置15は、先行車両1Bから周辺車両情報を取得する(S102)。ここでいう周辺車両情報とは、当該情報を送信する車両1に搭載された後方レーダ装置12によるセンシング結果に、当該センシング結果の座標系における当該情報を送信する車両1の位置及び大きさを付加した情報である。先行車両1Bから送信される周辺車両情報は図5に示される。   Subsequently, the control device 15 acquires surrounding vehicle information from the preceding vehicle 1B (S102). The surrounding vehicle information here refers to the sensing result of the rear radar device 12 mounted on the vehicle 1 that transmits the information, and the position and size of the vehicle 1 that transmits the information in the coordinate system of the sensing result. Information. The surrounding vehicle information transmitted from the preceding vehicle 1B is shown in FIG.

続いて、制御装置15は、先行車両1Bから取得した周辺車両情報に基づき、仮想センシング結果を特定する(S103)。仮想センシング結果は、追従車両1Aに搭載された前方レーダ装置11により得られるべき仮想のセンシング結果であり、次のように特定される。すなわち、仮想センシング結果は、先行車両1Bから取得した周辺車両情報に対して、先行車両1Bを基準とする座標系から追従車両1Aを基準とする座標系へと座標変換を行うことで特定される。具体的には、まず、先行車両1Bの座標系(例えば先行車両1Bの前部における1点である点Aを原点とする座標系。図5参照。)の座標軸を追従車両1Aの座標系(例えば追従車両1Aの前部における1点である点Bを原点とする座標系。図5参照。)の座標軸に変換する並進成分T及び回転成分Rを計算する(例えば原点に関しB=RA+Tが成立する)。そして、周辺車両情報における各点Pに対し、Q=RP+Tの座標変換を行い座標変換後の点Qを算出することで仮想センシング結果が特定される。また、S103における仮想センシング結果では、図6に示すように、先行車両1Bについては先行車両1Bの後部のみを表す仮想先行車両1bが表示される。   Then, the control apparatus 15 specifies a virtual sensing result based on the surrounding vehicle information acquired from the preceding vehicle 1B (S103). The virtual sensing result is a virtual sensing result to be obtained by the front radar apparatus 11 mounted on the following vehicle 1A, and is specified as follows. That is, the virtual sensing result is specified by performing coordinate conversion on the surrounding vehicle information acquired from the preceding vehicle 1B from the coordinate system based on the preceding vehicle 1B to the coordinate system based on the following vehicle 1A. . Specifically, first, the coordinate system of the following vehicle 1A is used with the coordinate axis of the coordinate system of the preceding vehicle 1B (for example, a coordinate system having a point A which is one point in the front of the preceding vehicle 1B as an origin; see FIG. 5). For example, a translation component T and a rotation component R that are converted into coordinate axes of a coordinate system having a point B, which is one point in the front portion of the following vehicle 1A (see FIG. 5), are calculated (for example, B = RA + T is established with respect to the origin). To do). Then, the virtual sensing result is specified by performing the coordinate transformation of Q = RP + T for each point P in the surrounding vehicle information and calculating the point Q after the coordinate transformation. In the virtual sensing result in S103, as shown in FIG. 6, for the preceding vehicle 1B, a virtual leading vehicle 1b representing only the rear portion of the preceding vehicle 1B is displayed.

次に、制御装置15は、S101で取得した実センシング結果とS103で特定した仮想センシング結果とを比較して、単位領域ごとに差分を計算する(S104)。ここでいう単位領域とは、デジタル画像として表現されたセンシング結果を所定の領域を単位として区分したときの各領域を意味し、本実施形態では1ピクセルである。   Next, the control device 15 compares the actual sensing result acquired in S101 with the virtual sensing result specified in S103, and calculates a difference for each unit region (S104). The unit area here means each area when a sensing result expressed as a digital image is divided with a predetermined area as a unit, and is one pixel in this embodiment.

その後、制御装置15は、差分のしきい値処理を実行する(S105)。差分のしきい値処理は、S104で計算した差分が所定のしきい値Th1以上である単位領域のみ(つまり差分を取った結果残った領域のみ)を表示する処理である。例えば、前方レーダ装置11が汚れている場合は、差分のしきい値処理の結果は次のようになる。すなわち、先行車両1Bは、実センシング結果(図4)には表示されないが、仮想センシング結果(図6)には仮想先行車両1bとして表示されるため、差分のしきい値処理の結果(図7)には先行車両1B(仮想先行車両1b)が表示されることになる。なお、本実施形態では、実センシング結果(図4)には追従車両1Aも表示されており、そのため差分のしきい値処理の結果(図7)にも追従車両1Aが表示されることになる。   After that, the control device 15 executes a threshold process for the difference (S105). The difference threshold process is a process of displaying only unit areas in which the difference calculated in S104 is equal to or greater than a predetermined threshold Th1 (that is, only areas remaining as a result of taking the difference). For example, when the front radar apparatus 11 is dirty, the result of the difference threshold process is as follows. That is, the preceding vehicle 1B is not displayed in the actual sensing result (FIG. 4), but is displayed as the virtual preceding vehicle 1b in the virtual sensing result (FIG. 6). ) Displays the preceding vehicle 1B (virtual preceding vehicle 1b). In this embodiment, the following vehicle 1A is also displayed in the actual sensing result (FIG. 4), and therefore the following vehicle 1A is also displayed in the difference threshold processing result (FIG. 7). .

続いて、制御装置15は、差分のしきい値処理の結果において、単位領域ごとに差分が所定のしきい値Th1以上であるか否かを判定する(S106)。制御装置15は、単位領域における差分が所定のしきい値Th1以上であると判定した場合は(S106:YES)、前方レーダ保護部材の露出側表面における、その単位領域へと入射するレーザ光が通過する領域(通過領域)について汚れありと判定する(S107)。なお、例えば、その単位領域から前方レーダ保護部材における通過領域を算出する処理は、前方レーダ装置11からその単位領域へと入射するレーザ光の軌跡をその単位領域から前方レーダ装置11側へたどる(つまりその単位領域を前方レーダ保護部材へと逆投影する)処理により実現される(図7の領域2参照)。   Subsequently, the control device 15 determines whether or not the difference is greater than or equal to a predetermined threshold Th1 for each unit region in the result of the difference threshold processing (S106). If the control device 15 determines that the difference in the unit area is equal to or greater than the predetermined threshold Th1 (S106: YES), the laser beam incident on the unit area on the exposed surface of the front radar protection member It is determined that the passing area (passing area) is dirty (S107). For example, in the process of calculating the passing region in the front radar protection member from the unit region, the locus of the laser light incident on the unit region from the front radar device 11 is traced from the unit region to the front radar device 11 side ( That is, it is realized by a process of back-projecting the unit area onto the front radar protection member (see area 2 in FIG. 7).

一方、制御装置15は、単位領域における差分が所定のしきい値Th1以上でないと判定した場合は(S106:NO)、前方レーダ保護部材の露出側表面における通過領域について汚れなしと判定する(S108)。制御装置15は、すべての単位領域についてS106〜S108の判定を行った後は、汚れ判定処理を終了する。   On the other hand, when determining that the difference in the unit area is not equal to or greater than the predetermined threshold value Th1 (S106: NO), the control device 15 determines that the passing area on the exposed surface of the front radar protection member is not dirty (S108). ). The control device 15 ends the stain determination process after performing the determinations of S106 to S108 for all the unit areas.

[1−3.効果]
本実施形態では、車両1の制御装置15は、車両1の周辺に存在する物標をセンシングするための車両周辺センシング装置のうちの1つである前方レーダ装置11についての汚れの状態を判定する。判定を行う上で、追従車両1Aの制御装置15は、無線通信により先行車両1Bから取得した周辺車両情報(換言すれば先行車両1Bの後方レーダ装置12から取得したそのセンシング結果)に基づき仮想センシング結果を特定する。そして、追従車両1Aの制御装置15は、特定した仮想センシング結果と前方レーダ装置11から取得した実センシング結果との比較に基づき、前方レーダ装置11についての汚れの状態を判定する。したがって、前方レーダ装置11についての汚れの状態の判定を安定的に行うことができる。
[1-3. effect]
In the present embodiment, the control device 15 of the vehicle 1 determines the state of dirt on the front radar device 11 that is one of the vehicle periphery sensing devices for sensing a target existing around the vehicle 1. . In making the determination, the control device 15 of the following vehicle 1A performs virtual sensing based on the surrounding vehicle information acquired from the preceding vehicle 1B by wireless communication (in other words, the sensing result acquired from the rear radar device 12 of the preceding vehicle 1B). Identify the results. Then, the control device 15 of the following vehicle 1 </ b> A determines the dirt state of the front radar device 11 based on the comparison between the identified virtual sensing result and the actual sensing result acquired from the front radar device 11. Therefore, it is possible to stably determine the dirt state of the front radar device 11.

すなわち、前方レーダ装置11についての汚れの状態は、前方レーダ装置11以外の車両周辺センシング装置を搭載する車両において、前方レーダ装置11によるセンシング結果と前方レーダ装置11以外の車両周辺センシング装置(例えば車両の前方を撮像するカメラ)によるセンシング結果との比較に基づき行うことも可能である。しかしながら、このような他の車両周辺センシング装置は、追従車両1Aとは別の先行車両1Bに搭載された後方レーダ装置12と比較して、前方レーダ装置11についての汚れが生じる状況においてそのセンシングが影響される可能性が高い。したがって、先行車両1Bの後方レーダ装置12によるセンシング結果を用いる本実施形態では、前方レーダ装置11以外の車両周辺センシング装置によるセンシング結果を用いる構成と比較して、前方レーダ装置11についての汚れの状態の判定を安定的に行うことができる。   That is, the dirt state of the front radar device 11 is the result of sensing by the front radar device 11 and the vehicle periphery sensing device other than the front radar device 11 (for example, a vehicle) in a vehicle equipped with a vehicle periphery sensing device other than the front radar device 11. It is also possible to carry out based on a comparison with a sensing result by a camera that images the front of the camera. However, such other vehicle periphery sensing device can sense in a situation where the front radar device 11 is dirty as compared with the rear radar device 12 mounted on the preceding vehicle 1B different from the following vehicle 1A. It is likely to be affected. Therefore, in the present embodiment using the sensing result by the rear radar device 12 of the preceding vehicle 1B, the contamination state of the front radar device 11 is compared with the configuration using the sensing result by the vehicle periphery sensing device other than the front radar device 11. Can be stably determined.

[1−4.特許請求の範囲に記載された用語との対比]
本実施形態では、先行車両1Bがセンシング対象物及び特定センシング対象物の一例に相当し、前方レーダ装置11が車両周辺センシング装置及び特定センシング装置の一例に相当する。後方レーダ装置12が車両周辺センシング装置以外の装置及び車両センシング装置の一例に相当し、制御装置15が汚れ判定装置の一例に相当する。また、S101が結果取得部としての処理の一例に相当し、S102及びS103が結果特定部としての処理の一例に相当し、S104〜S108が判定部としての処理の一例に相当する。
[1-4. Contrast with terms in claims]
In the present embodiment, the preceding vehicle 1B corresponds to an example of a sensing object and a specific sensing object, and the front radar device 11 corresponds to an example of a vehicle periphery sensing device and a specific sensing device. The rear radar device 12 corresponds to an example of a device other than the vehicle periphery sensing device and the vehicle sensing device, and the control device 15 corresponds to an example of a dirt determination device. Further, S101 corresponds to an example of processing as a result acquisition unit, S102 and S103 correspond to an example of processing as a result specifying unit, and S104 to S108 correspond to an example of processing as a determination unit.

[2.第2実施形態]
[2−1.構成]
図8に示す汚れ判定システム30は、車両3に搭載され、カメラ31、GPS受信機32、記憶装置33及びこれらに接続された制御装置34を備える。汚れ判定システム30は、カメラ31についての汚れの状態を判定するための車載システムである。また、汚れ判定システム30は、当該汚れ判定システム30と同様の車載システムが搭載された車両が他に存在しなくても(つまり車両3のみ存在すれば)実行可能な汚れ判定処理を実行する。
[2. Second Embodiment]
[2-1. Constitution]
A dirt determination system 30 shown in FIG. 8 is mounted on the vehicle 3 and includes a camera 31, a GPS receiver 32, a storage device 33, and a control device 34 connected thereto. The dirt determination system 30 is an in-vehicle system for determining the dirt state of the camera 31. In addition, the dirt determination system 30 executes a dirt determination process that can be executed even if there is no other vehicle equipped with an in-vehicle system similar to the dirt determination system 30 (that is, only the vehicle 3 exists).

カメラ31は、車両3の車室内(例えばフロントガラスの上部における中央)に設置され、車両3の前方を撮像する。
GPS受信機32は、GPS用の人工衛星からの送信電波をGPSアンテナ(図示省略)を介して受信し、車両3の現在位置(絶対位置)を検出する。
The camera 31 is installed in the vehicle interior of the vehicle 3 (for example, the center in the upper part of the windshield) and images the front of the vehicle 3.
The GPS receiver 32 receives a transmission radio wave from a GPS artificial satellite via a GPS antenna (not shown), and detects the current position (absolute position) of the vehicle 3.

記憶装置33は、地図データを記憶する。本実施形態における地図データは、プローブカーが走行した際にカメラで撮像することで作成された3次元地図データである。なお、地図データには、静止物(例えば建物等の構造物)の立体形状に加え移動物(例えば人や車両等)の立体形状等も含まれる。   The storage device 33 stores map data. The map data in the present embodiment is three-dimensional map data created by taking an image with a camera when the probe car travels. The map data includes a three-dimensional shape of a moving object (for example, a person or a vehicle) in addition to a three-dimensional shape of a stationary object (for example, a structure such as a building).

制御装置34は、CPU、ROM及びRAMを中心とする周知のマイクロコンピュータを備え、後述する汚れ判定処理(図9)を実行する。なお、汚れ判定処理で判定される、カメラ31についての汚れとしては、例えば、車両1におけるカメラ31の撮像範囲(つまり画角範囲)に含まれる部分のうちの外部に露出した面(具体的にはフロントガラスの外面のうち撮像範囲に含まれる領域)に付着した泥等が挙げられる。   The control device 34 includes a known microcomputer mainly including a CPU, a ROM, and a RAM, and executes a stain determination process (FIG. 9) described later. In addition, as dirt about the camera 31 determined in the dirt determination process, for example, a surface exposed to the outside (specifically, a portion of the part included in the imaging range (that is, the field angle range) of the camera 31 in the vehicle 1). Is a mud or the like adhering to the outer surface of the windshield (the region included in the imaging range).

[2−2.処理]
次に、制御装置34が実行する汚れ判定処理について、図9のフローチャートを用いて説明する。なお、汚れ判定処理は、車両3のイグニッションスイッチがオンである期間において周期的に実行される。
[2-2. processing]
Next, the dirt determination process executed by the control device 34 will be described with reference to the flowchart of FIG. The dirt determination process is periodically executed in a period in which the ignition switch of the vehicle 3 is on.

まず、制御装置34は、カメラ31から撮像画像(実センシング結果)を取得する(S201)。実センシング結果は、カメラ31が汚れている場合には、例えば図10に示すようになる。なお、制御装置34は、カメラ31からある時刻における撮像画像(つまり1フレーム分の撮像画像)を取得する。   First, the control device 34 acquires a captured image (actual sensing result) from the camera 31 (S201). The actual sensing result is as shown in FIG. 10, for example, when the camera 31 is dirty. Note that the control device 34 acquires a captured image (that is, a captured image for one frame) at a certain time from the camera 31.

次に、制御装置34は、記憶装置33から車両3の現在位置周辺の地図データを取得し(S202)、取得した地図データに基づき、仮想センシング結果を特定する(S203)。本実施形態における仮想センシング結果は、カメラ31により得られるべき仮想のセンシング結果である。制御装置34は、地図データの中の、カメラ31が撮像している範囲に相当する範囲を特定し、特定した範囲から仮想センシング結果を作成することで、仮想センシング結果を特定する。   Next, the control device 34 acquires map data around the current position of the vehicle 3 from the storage device 33 (S202), and specifies a virtual sensing result based on the acquired map data (S203). The virtual sensing result in the present embodiment is a virtual sensing result that should be obtained by the camera 31. The control device 34 specifies a virtual sensing result by specifying a range corresponding to the range captured by the camera 31 in the map data and creating a virtual sensing result from the specified range.

なお、地図データにおけるカメラ31が撮像している範囲に相当する範囲の特定及び仮想センシング結果の作成は、以下のように行われる。すなわち、まず、車両3の前方に存在する建物等の静止物を、車両3の走行に伴いカメラ31で撮像する。そして、異なる方向から撮像した2以上のフレーム分の2次元画像データからSFM(Structure from Motion)等の方法によりその静止物の3次元画像を作成する。そして、作成した3次元画像の立体形状と地図データに含まれる静止物の立体形状とを比較し、地図データにおける最も類似性の高い範囲を、カメラ31が撮像している範囲に相当する範囲と特定する。そして、特定した範囲を一点(カメラの位置)から2次元面へと投影することで2次元画像データを作成する。このように作成された2次元画像データ(つまり仮想センシング結果)は、図11に示すような、汚れがない状態におけるカメラ31によるセンシング結果を表すものとなっている。なお、上記の3次元画像の作成は、カメラ31による画像データのうち汚れの影響を受けていない部分(つまり正常に景色を撮像できている部分)が6ピクセル以上あれば実行可能である。そのため、たとえカメラ31が汚れている場合であっても汚れの影響を受けていない部分(つまり正常に景色を撮像できている部分)が6ピクセル以上あれば仮想センシング結果は特定可能である。   Note that the specification of the range corresponding to the range captured by the camera 31 in the map data and the creation of the virtual sensing result are performed as follows. That is, first, a stationary object such as a building existing in front of the vehicle 3 is imaged by the camera 31 as the vehicle 3 travels. Then, a three-dimensional image of the stationary object is created from two-dimensional image data of two or more frames captured from different directions by a method such as SFM (Structure from Motion). Then, the three-dimensional shape of the created three-dimensional image is compared with the three-dimensional shape of the stationary object included in the map data, and the range with the highest similarity in the map data is the range corresponding to the range captured by the camera 31. Identify. Then, the two-dimensional image data is created by projecting the specified range from one point (camera position) onto the two-dimensional surface. The two-dimensional image data created in this way (that is, the virtual sensing result) represents the sensing result by the camera 31 in a state without dirt as shown in FIG. Note that the above three-dimensional image can be created if there are 6 pixels or more of the image data from the camera 31 that are not affected by the contamination (that is, the portion where the scenery is normally captured). Therefore, even if the camera 31 is dirty, the virtual sensing result can be specified if there are 6 pixels or more that are not affected by the contamination (that is, the portion where the scenery can be normally captured).

次に、制御装置34は、S201で取得した実センシング結果とS203で特定した仮想センシング結果とを比較して、単位領域ごとに差分を計算し(S204)、差分のしきい値処理を実行する(S205)。ここでいう差分のしきい値処理は、第1実施形態における差分のしきい値処理と同様な処理である。例えば、カメラ31が汚れている場合は、実センシング結果(図10)と仮想センシング結果(図11)との比較に基づき実行された差分のしきい値処理の結果は、図12に示すようになる。   Next, the control device 34 compares the actual sensing result acquired in S201 with the virtual sensing result specified in S203, calculates a difference for each unit region (S204), and executes a threshold process for the difference. (S205). The difference threshold processing here is the same processing as the difference threshold processing in the first embodiment. For example, when the camera 31 is dirty, the result of the threshold processing of the difference executed based on the comparison between the actual sensing result (FIG. 10) and the virtual sensing result (FIG. 11) is as shown in FIG. Become.

その後、制御装置34は、物体認識処理を実行する(S206)。物体認識処理は、差分のしきい値処理の結果において表示された移動物(例えば人や他の車両等)を認識するために実行される。ここで、移動物が表示される場合としては、例えば、地図データに含まれている移動物がカメラ31による実センシング結果に現れていない場合やその逆の場合が挙げられる。また、本実施形態の物体認識には、テンプレートマッチング等の周知技術が使用される。制御装置34は、差分のしきい値処理の結果において、物体認識処理により移動物であると認識された領域については、後述するS207で使用するための「除外領域」として認定する。   Thereafter, the control device 34 executes object recognition processing (S206). The object recognition process is executed in order to recognize a moving object (for example, a person or another vehicle) displayed in the result of the difference threshold process. Here, examples of the case where the moving object is displayed include a case where the moving object included in the map data does not appear in the actual sensing result by the camera 31 and vice versa. In addition, a known technique such as template matching is used for the object recognition of this embodiment. The control device 34 recognizes an area recognized as a moving object by the object recognition process as a result of the difference threshold process as an “excluded area” for use in S207 described later.

続いて、制御装置34は、差分のしきい値処理の結果における除外領域以外の領域について、単位領域ごとに差分が所定のしきい値Th2以上であるか否かを判定する(S207)。なお、制御装置34が除外領域について判定を行わないのは、移動物の存在により差分がしきい値Th2以上となり、汚れありと誤判定されることを避けるためである。   Subsequently, the control device 34 determines whether or not the difference is greater than or equal to a predetermined threshold value Th2 for each unit region in the region other than the excluded region in the result of the difference threshold processing (S207). The reason why the control device 34 does not make the determination on the exclusion region is to avoid the erroneous determination that the difference is greater than or equal to the threshold value Th2 due to the presence of the moving object and that there is dirt.

制御装置34は、単位領域における差分が所定のしきい値Th2以上であると判定した場合は(S207:YES)、フロントガラスの外面における重複領域について汚れありと判定する(S208)。ここでいう重複領域とは、カメラ31から車両1前方に放射状に広がったカメラ31による撮像範囲のうちの、その単位領域を最小限に含む撮像範囲と重複する領域を意味する。   When it is determined that the difference in the unit area is equal to or greater than the predetermined threshold value Th2 (S207: YES), the controller 34 determines that the overlapping area on the outer surface of the windshield is dirty (S208). The overlapping area here means an area that overlaps with an imaging range that includes the minimum unit area in an imaging range that is spread radially from the camera 31 to the front of the vehicle 1.

一方、制御装置34は、単位領域における差分が所定のしきい値Th2以上でないと判定した場合は(S207:NO)、フロントガラスの外面における重複領域について汚れなしと判定する(S209)。制御装置34は、すべての単位領域についてS207〜S209の判定を行った後は、汚れ判定処理を終了する。   On the other hand, when it is determined that the difference in the unit area is not equal to or greater than the predetermined threshold Th2 (S207: NO), the control device 34 determines that the overlapping area on the outer surface of the windshield is not dirty (S209). The control apparatus 34 complete | finishes a stain | pollution | contamination determination process, after performing determination of S207-S209 about all the unit areas.

[2−3.効果]
本実施形態では、制御装置34は、記憶装置33から取得した地図データに基づき仮想センシング結果を特定し、特定した仮想センシング結果とカメラ31による実センシング結果とを比較することで、カメラ31についての汚れの状態を判定する。地図データは、カメラ31が汚れた場合であってもその影響を受けないため、地図データに基づき特定される仮想センシング結果も汚れの影響を受けない。したがって、たとえカメラ31が汚れた場合であっても汚れ判定を安定的に行うことができる。
[2-3. effect]
In the present embodiment, the control device 34 specifies a virtual sensing result based on the map data acquired from the storage device 33, and compares the specified virtual sensing result with the actual sensing result obtained by the camera 31. Judge the state of dirt. Since the map data is not affected even when the camera 31 is dirty, the virtual sensing result specified based on the map data is not affected by the dirt. Therefore, even if the camera 31 is dirty, the dirt determination can be performed stably.

また、本実施形態では、地図データに基づき特定される画像データとカメラ31による画像データとの間で、特徴的な対象物体(例えば車両、ガードレール及び白線等)の有無を比較するのではなく、画像データ全体を比較して汚れ判定が行われる。そのため、本実施形態では、特徴的な対象物体が存在しなくても汚れ判定を行うことができ、その結果、広範な環境において汚れ判定を行うことができる。   In the present embodiment, instead of comparing the presence or absence of characteristic target objects (for example, vehicles, guardrails, white lines, etc.) between the image data specified based on the map data and the image data from the camera 31, The entire image data is compared to determine dirt. Therefore, in this embodiment, it is possible to perform the dirt determination even when there is no characteristic target object, and as a result, it is possible to perform the dirt determination in a wide range of environments.

[2−4.特許請求の範囲に記載された用語との対比]
本実施形態では、カメラ31が車両周辺センシング装置及び特定センシング装置の一例に相当し、記憶装置33が車両周辺センシング装置以外の装置の一例に相当し、制御装置34が汚れ判定装置の一例に相当する。また、S201が結果取得部としての処理の一例に相当し、S202及びS203が結果特定部としての処理の一例に相当し、S204〜S209が判定部としての処理の一例に相当する。
[2-4. Contrast with terms in claims]
In the present embodiment, the camera 31 corresponds to an example of a vehicle periphery sensing device and a specific sensing device, the storage device 33 corresponds to an example of a device other than the vehicle periphery sensing device, and the control device 34 corresponds to an example of a dirt determination device. To do. S201 corresponds to an example of processing as a result acquisition unit, S202 and S203 correspond to an example of processing as a result identification unit, and S204 to S209 correspond to an example of processing as a determination unit.

[3.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく、種々の形態を採り得る。
[3. Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention can take a various form, without being limited to the said embodiment.

(3a)上記各実施形態では、センシング装置のセンシングに影響を与える車両の汚れは、前方保護部材やフロントガラスといった車両におけるセンシング装置以外の部分に付着した泥等であったが、これに限られない。例えば、センシング装置のセンシングに影響を与える車両の汚れは、センシング装置自体(例えば車外に取り付けられたカメラを備える車両においてはカメラのレンズ等)に着した泥等であってもよい。   (3a) In each of the above embodiments, the dirt on the vehicle that affects the sensing of the sensing device is mud or the like adhering to parts other than the sensing device in the vehicle, such as the front protection member and the windshield. Absent. For example, the dirt of the vehicle that affects the sensing of the sensing device may be mud or the like attached to the sensing device itself (for example, a camera lens in a vehicle having a camera attached outside the vehicle).

(3b)上記各実施形態では、仮想センシング結果の基となる情報の取得先である装置(周辺車両センシング装置以外の装置)として、後方レーザ装置12及び記憶装置33を例示したが、これに限られない。また、上記第1実施形態では、センシング対象物として先行車両1Bを例示したが、これに限られない。センシング対象物は、例えば、無線通信可能な物体であって当該物体と追従車両1Aとの相対位置等の情報を送信可能な車両以外の物体であってもよい。ここで、車両以外の物体は、例えば、電柱や信号などの道路側装置であって無線通信装置が搭載されたものや、通信端末を所持した人等であってもよい。   (3b) In each of the above embodiments, the rear laser device 12 and the storage device 33 are exemplified as the device (the device other than the surrounding vehicle sensing device) from which the information that is the basis of the virtual sensing result is acquired. I can't. Moreover, in the said 1st Embodiment, although the preceding vehicle 1B was illustrated as a sensing target object, it is not restricted to this. The sensing object may be, for example, an object other than a vehicle that can wirelessly communicate and can transmit information such as a relative position between the object and the following vehicle 1A. Here, the object other than the vehicle may be, for example, a roadside device such as a utility pole or a signal on which a wireless communication device is mounted, or a person possessing a communication terminal.

(3c)上記第1実施形態では、先行車両1Bから無線通信により取得する情報(周辺車両情報)は、後方レーダ装置12によるセンシング結果に先行車両1Bの位置及び大きさを付加した情報(つまり、先行車両1Bを基準とする追従車両1Aの相対位置及び先行車両1Bの大きさを表す情報)であったが、これに限られない。例えば、先行車両1Bから取得する情報は、当該先行車両1Bの絶対位置及び先行車両1Bの大きさを表す情報であってもよい。この場合において、追従車両1Aは、GPSにより検出した自己の絶対位置と受信した先行車両1Bの絶対位置とに基づき当該追従車両1Aに対する先行車両1Bの相対位置を検出し、検出した相対位置と受信した先行車両1Bの大きさに基づき仮想センシング結果を特定してもよい。   (3c) In the first embodiment, information (peripheral vehicle information) acquired from the preceding vehicle 1B by wireless communication is information obtained by adding the position and size of the preceding vehicle 1B to the sensing result of the rear radar device 12 (that is, Information indicating the relative position of the following vehicle 1A with respect to the preceding vehicle 1B and the size of the preceding vehicle 1B), but is not limited thereto. For example, the information acquired from the preceding vehicle 1B may be information indicating the absolute position of the preceding vehicle 1B and the size of the preceding vehicle 1B. In this case, the following vehicle 1A detects the relative position of the preceding vehicle 1B with respect to the following vehicle 1A based on its own absolute position detected by the GPS and the received absolute position of the preceding vehicle 1B, and receives the detected relative position and reception. The virtual sensing result may be specified based on the size of the preceding vehicle 1B.

(3d)上記第1実施形態では、追従車両1Aは、同一走行レーンを走行する先行車両1Bから周辺車両情報を取得したが、これに限られない。例えば、追従車両1Aは、当該追従車両1Aの前方に存在する、同一又は他の走行レーンを走行する複数の車両の中から車両を選定し、選定した車両から周辺車両情報を取得する構成であってもよい。つまり、追従車両1Aは、当該追従車両1Aに搭載された前方レーダ装置11により物標としてセンシング可能な少なくとも1台の車両(前方物標車両)の中から車両を選定してもよい。この構成では、追従車両1Aの制御装置15は、汚れ判定処理において、前方物標車両のそれぞれから、追従車両1Aをセンシング可能なセンシング装置(車両センシング装置)の搭載の有無を表す情報である搭載情報を取得する処理(搭載情報取得処理)を実行する。そして、制御装置15は、取得した搭載情報に基づき、前方物標車両の中から車両センシング装置を搭載した車両を選定する処理(選定処理)を実行する。その後、制御装置15は、選定した車両から周辺車両情報を取得する処理(図2のS102の処理)を行う。このような構成によれば、制御装置15は、たとえ車両センシング装置を搭載した車両が追従車両1Aの同一走行レーンにおける前方を走行していなくても、同種の車両が追従車両1Aの前方における他の走行レーンを走行していれば、その車両から周辺車両情報を取得可能となる。その結果、先行車両1Bのみから周辺車両情報を取得して汚れ判定を行う構成と比較してより多くの場合に汚れ判定を行うことができる。なお、この構成では、前方物標車両がセンシング対象物の一例に相当し、搭載情報取得処理が搭載情報取得部としての処理の一例に相当し、選定処理が選定部としての処理の一例に相当する。   (3d) In the first embodiment, the follower vehicle 1A acquires the surrounding vehicle information from the preceding vehicle 1B traveling in the same travel lane, but the present invention is not limited to this. For example, the following vehicle 1A has a configuration in which a vehicle is selected from a plurality of vehicles traveling in the same or other traveling lanes existing in front of the following vehicle 1A, and surrounding vehicle information is acquired from the selected vehicle. May be. That is, the following vehicle 1A may select a vehicle from at least one vehicle (front target vehicle) that can be sensed as a target by the front radar device 11 mounted on the following vehicle 1A. In this configuration, the control device 15 of the following vehicle 1A is information representing whether or not a sensing device (vehicle sensing device) capable of sensing the following vehicle 1A from each of the front target vehicles is installed in the dirt determination process. A process of acquiring information (installation information acquisition process) is executed. And the control apparatus 15 performs the process (selection process) which selects the vehicle carrying a vehicle sensing apparatus from the front target vehicles based on the acquired mounting information. Then, the control apparatus 15 performs the process (process of S102 of FIG. 2) which acquires surrounding vehicle information from the selected vehicle. According to such a configuration, the control device 15 allows the vehicle of the same type to be in front of the following vehicle 1A even if the vehicle equipped with the vehicle sensing device is not traveling ahead in the same traveling lane of the following vehicle 1A. If the vehicle is traveling in the driving lane, the surrounding vehicle information can be acquired from the vehicle. As a result, it is possible to perform the dirt determination in more cases as compared with the configuration in which the surrounding vehicle information is acquired only from the preceding vehicle 1B and the dirt determination is performed. In this configuration, the front target vehicle corresponds to an example of a sensing object, the mounting information acquisition process corresponds to an example of a process as a mounting information acquisition unit, and the selection process corresponds to an example of a process as a selection unit. To do.

(3e)上記第2実施形態では、制御装置34は、記憶装置33から地図データを取得したが、これに限られず、例えば制御装置34は、車両3の外部のセンタ等から通信により地図データを取得してもよい。また、地図データは、プローブカーが走行した際にカメラで撮像することで作成されたが、地図データの作成方法はこれに限られない。また、地図データは、静止物に加え移動物を含む地図データであったが、これに限られず、静止物のみを含む(つまり移動物を含まない)地図データであってもよい。この場合、汚れ判定処理の物体認識処理に関し、移動物はカメラ31による撮像画像のみに写り込み得るが、上記第2実施形態と同様に差分のしきい値処理の結果に対し物体認識処理を施すものとすれば、上記第2実施形態と同様に汚れの状態の判定を行うことができる。また、地図データは3次元地図データであったが、これに限られず、例えば2次元地図データであってもよい。   (3e) In the second embodiment, the control device 34 acquires the map data from the storage device 33. However, the present invention is not limited to this. For example, the control device 34 obtains the map data by communication from the center outside the vehicle 3 or the like. You may get it. Further, the map data is created by taking an image with a camera when the probe car travels, but the method for creating the map data is not limited to this. Further, the map data is map data including a moving object in addition to a stationary object, but is not limited thereto, and may be map data including only a stationary object (that is, not including a moving object). In this case, with respect to the object recognition process of the dirt determination process, the moving object can be reflected only in the image picked up by the camera 31, but the object recognition process is performed on the result of the difference threshold process as in the second embodiment. If it is assumed, it is possible to determine the state of dirt as in the second embodiment. The map data is 3D map data, but is not limited to this, and may be 2D map data, for example.

(3f)上記各実施形態では、汚れ判定処理は、車両3のイグニッションスイッチがオンにされること等により開始されたが、これに限られず、ドライバが開始したいタイミングで開始されるようにしてもよい。この場合において、汚れ判定処理は、例えば、車両に設けられた専用のスイッチが操作されることで開始されてもよく、また、他の機能との兼用のスイッチ(例えばワイパスイッチ)が操作されることで開始されてもよい。   (3f) In each of the embodiments described above, the dirt determination process is started by turning on the ignition switch of the vehicle 3 or the like. However, the present invention is not limited to this, and may be started at a timing when the driver wants to start. Good. In this case, the dirt determination process may be started, for example, by operating a dedicated switch provided in the vehicle, or a switch (for example, a wiper switch) shared with other functions is operated. You may start with that.

(3g)上記第2実施形態では、汚れ判定は、カメラ31から取得した1フレーム分の画像データに基づき行われるため、汚れが一時的なものであっても汚れありと判定される場合がある。そこで、複数フレーム分の画像データに基づき汚れ判定が行われてもよい。この場合において、例えば、汚れが検出されたフレームの数をカウントしておき、カウントしたフレームの数が所定の判定基準数以上になった場合にセンシング装置についての汚れがあるとの判定を行ってもよい。これにより、汚れが一時的に生じても、汚れが検出されたフレームの数が判定基準数未満である場合は、汚れありとの判定を抑制することができる。   (3g) In the second embodiment, since the dirt determination is performed based on the image data for one frame acquired from the camera 31, it may be determined that there is dirt even if the dirt is temporary. . Therefore, stain determination may be performed based on image data for a plurality of frames. In this case, for example, the number of frames in which dirt is detected is counted, and when the number of counted frames exceeds a predetermined determination reference number, it is determined that there is dirt on the sensing device. Also good. As a result, even if dirt is temporarily generated, if the number of frames in which dirt is detected is less than the determination reference number, the determination that there is dirt can be suppressed.

(3h)上記各実施形態では、1ピクセル単位で区分された各領域を単位領域としたが、これに限られず、複数ピクセル単位で区分された各領域(例えば10×10ピクセルの各領域)を単位領域としてもよい。また、上記各実施形態では、単位領域ごとに汚れの状態が判定されたが、これに限られず、センシング結果を単位領域に区分せず(つまりセンシング結果全体を一括して)汚れの状態を判定してもよい。   (3h) In each of the above embodiments, each region divided in units of one pixel is defined as a unit region. However, the present invention is not limited to this, and each region divided in units of a plurality of pixels (for example, each region of 10 × 10 pixels) is used. It may be a unit area. In each of the above embodiments, the state of dirt is determined for each unit area. However, the present invention is not limited to this, and the state of dirt is determined without dividing the sensing result into unit areas (that is, the entire sensing result is collectively). May be.

(3i)実センシング結果を取得するセンシング装置と仮想センシング結果を特定するための手段との組合せは、上記第1実施形態では前方レーダ装置11及び無線通信(車車間通信)であり、上記第2実施形態ではカメラ31及び地図データであった。しかし、これに限られず、上記の組合せは、例えば、前方レーダ装置11及び地図データであってもよく、カメラ31及び無線通信であってもよい。また、上記各実施形態では、無線通信及び地図データのいずれか一方のみを使用する構成を例示したが、これに限られず、無線通信及び地図データの両方を使用してもよい。   (3i) The combination of the sensing device that acquires the actual sensing result and the means for specifying the virtual sensing result is the front radar device 11 and wireless communication (inter-vehicle communication) in the first embodiment, and the second In the embodiment, the camera 31 and the map data are used. However, the present invention is not limited to this, and the above combination may be, for example, the forward radar apparatus 11 and map data, or the camera 31 and wireless communication. Moreover, although each said embodiment illustrated the structure which uses only any one of wireless communication and map data, it is not restricted to this, You may use both wireless communication and map data.

(3j)センシング装置によるセンシング結果に基づき複数種類の車両制御が行われる場合に、汚れ判定で汚れありと判定された領域に応じて複数種類の車両制御のうちの少なくとも1つの起動又は停止が行われてもよい。例えば、汚れに影響される車両制御は停止するが、汚れ影響されない車両制御は停止しなくてもよい。すなわち、例えば、図13に示す車両4は、当該車両4の前部、後部及び左右の側部のそれぞれにレーダ装置を備え、車両4周辺の全方位をセンシング可能となっている。そして、車両4では、車両4前方に放射状に広がるセンシング領域41のセンシング結果に基づき前方衝突回避制御及びレーン内走行支援制御が行われ、車両4の左右の斜め前及び左右の斜め後に広がるセンシング領域42のセンシング結果に基づき交差点進入支援制御及び駐車場発進支援制御が行われる。また、車両4では、車両4後方に放射状に広がるセンシング領域43のセンシング結果に基づき後方確認支援制御が行われ、車両4周辺に広がるセンシング領域44のセンシング結果に基づきレーンチェンジ支援制御が行われる。このような車両4において、例えば、センシング領域41について汚れありと判定された場合に、前方衝突回避制御及びレーン内走行支援制御を停止し、センシング領域42について汚れありと判定された場合に、交差点進入支援制御及び駐車場発進支援制御を停止してもよい。このように、汚れありと判定された場合にすべての車両制御を停止させるのではなく一部の車両制御を停止させてもよい。ちなみに、センシング装置がカメラである場合は、例えば、図14に示す枠5内の領域、枠6内の領域及び枠7内の領域といった領域の区分が、前述した例のセンシング領域41〜44の区分に対応する。また、上記の各センシング領域又は各枠内について汚れありと判定され車両制御が停止された後に、汚れがある状態が解消され汚れなしと判定された場合に、停止された車両制御を再度起動してもよい。   (3j) When a plurality of types of vehicle control are performed based on the sensing result of the sensing device, at least one of the plurality of types of vehicle control is activated or stopped according to the area determined to be dirty by the contamination determination. It may be broken. For example, vehicle control that is affected by dirt is stopped, but vehicle control that is not affected by dirt may not be stopped. That is, for example, the vehicle 4 shown in FIG. 13 includes radar devices at the front, rear, and left and right sides of the vehicle 4 and can sense all directions around the vehicle 4. In the vehicle 4, the front collision avoidance control and the in-lane traveling support control are performed based on the sensing result of the sensing region 41 that radiates in front of the vehicle 4, and the sensing region that spreads diagonally forward left and right and diagonally left and right of the vehicle 4. Based on the sensing result of 42, intersection approach support control and parking lot start support control are performed. Further, in the vehicle 4, the rear confirmation support control is performed based on the sensing result of the sensing area 43 that extends radially behind the vehicle 4, and the lane change support control is performed based on the sensing result of the sensing area 44 that extends around the vehicle 4. In such a vehicle 4, for example, when it is determined that the sensing area 41 is dirty, the front collision avoidance control and the in-lane travel support control are stopped, and when it is determined that the sensing area 42 is dirty, the intersection You may stop approach assistance control and parking lot start assistance control. In this way, when it is determined that there is dirt, not all vehicle control is stopped, but some vehicle control may be stopped. Incidentally, when the sensing device is a camera, for example, the areas such as the area in the frame 5, the area in the frame 6, and the area in the frame 7 shown in FIG. Corresponds to the category. In addition, after it is determined that there is dirt in each sensing area or each frame and vehicle control is stopped, when it is determined that there is no dirt and it is determined that there is no dirt, the stopped vehicle control is restarted. May be.

(3k)上記各実施形態において、車両1及び車両3は、センシング装置についての汚れ(前方レーダ保護部材の露出側表面やフロントガラスの外面に付着した泥等)を洗浄可能な構成であってもよい。この構成では、車両1,3は、センシング装置についての汚れを洗浄可能な洗浄装置を更に備える。そして、制御装置15,34は、汚れ判定処理において、汚れありと判定する処理(図2のS107及び図9のS208の処理)を行った場合に、洗浄装置に洗浄させる処理を実行させる。このような構成によれば、センシング装置についての汚れがある場合にその汚れを洗浄することができる。なお、この例では、洗浄装置に洗浄させる処理が洗浄処理部としての処理の一例に相当する。   (3k) In each of the above embodiments, the vehicle 1 and the vehicle 3 may be configured to clean dirt (such as mud adhering to the exposed surface of the front radar protection member or the outer surface of the windshield) of the sensing device. Good. In this configuration, the vehicles 1 and 3 further include a cleaning device capable of cleaning dirt on the sensing device. Then, the control devices 15 and 34 cause the cleaning device to execute a process of cleaning when the process of determining that there is dirt (the process of S107 in FIG. 2 and the process of S208 in FIG. 9) is performed in the dirt determination process. According to such a structure, when there exists dirt about a sensing device, the dirt can be washed. In this example, the process performed by the cleaning apparatus corresponds to an example of the process as the cleaning processing unit.

(3l)上記各実施形態において、車両1及び車両3は、センシング装置についての汚れがある旨を乗員に報知する構成であってもよい。この構成では、車両1,3は、乗員に対し報知可能な報知装置を更に備える。報知装置としては、例えば、車両1,3のインジケータ、カーナビゲーション装置、ヘッドアップディスプレイ、及び、警告音を発生可能な警告音発生装置、等が挙げられる。この構成では、制御装置15,34は、汚れ判定処理において、汚れありと判定する処理(図2のS107及び図9のS208の処理)を行った後に、センシング装置についての汚れがある旨を報知装置に報知させる処理を実行する。このような構成によれば、報知を行うことでドライバに対し注意喚起することができる。なお、この例では、報知装置に報知させる処理が報知処理部としての処理の一例に相当する。   (3l) In each of the above embodiments, the vehicle 1 and the vehicle 3 may be configured to notify the occupant that the sensing device is dirty. In this configuration, the vehicles 1 and 3 further include a notification device that can notify the passenger. Examples of the notification device include an indicator for the vehicles 1 and 3, a car navigation device, a head-up display, and a warning sound generator that can generate a warning sound. In this configuration, the control devices 15 and 34 notify that the sensing device is contaminated after performing the contamination determination processing (S107 in FIG. 2 and S208 in FIG. 9). A process for informing the apparatus is executed. According to such a configuration, the driver can be alerted by notification. In this example, the process for informing the notification apparatus corresponds to an example of the process as the notification processing unit.

(3m)上記各実施形態において、追従車両1Aや車両3は、上述した実センシング結果と仮想センシング結果との比較に加え、さらに、実センシング結果と汚れモデルとの比較に基づき汚れ判定を行う構成であってもよい。ここで、汚れモデルとは、センシング装置についての汚れがある状態におけるそのセンシング装置によるセンシング結果を表す複数種類のモデルを意味する。汚れモデルは、例えば、センシング装置についての汚れを実際に生成し、その状態におけるセンシング装置のセンシング結果を取得することで作成されてもよい。また、雨滴や泥等の複数種類の汚れのそれぞれについて汚れモデルを作成しておき、複数の汚れモデルを用いて汚れ判定を行ってもよい。これにより、センシング装置の汚れの種類が特定可能になる。   (3m) In each of the above-described embodiments, the following vehicle 1A and the vehicle 3 perform the dirt determination based on the comparison between the actual sensing result and the virtual sensing result and the comparison between the actual sensing result and the dirt model. It may be. Here, the dirt model means a plurality of types of models that represent the sensing results of the sensing device when the sensing device is dirty. The dirt model may be created, for example, by actually creating dirt on the sensing device and acquiring the sensing result of the sensing device in that state. Alternatively, a dirt model may be created for each of a plurality of types of dirt such as raindrops and mud, and the dirt determination may be performed using the plurality of dirt models. This makes it possible to specify the type of dirt on the sensing device.

汚れモデルを用いる構成では、例えば、次のように汚れ判定が行われてもよい。すなわち、追従車両1A及び車両3は、汚れモデルを記憶した記憶装置を更に備える(車両3については記憶装置33に汚れモデルを記憶してもよい)。そして、汚れ判定において、制御装置15,34は、記憶装置から汚れモデルを取得する処理(取得処理)を行う。その後、制御装置15,34は、まず、実センシング結果と仮想センシング結果との比較に基づき、汚れの状態を判定する処理(図2の104〜S108及び図9のS204〜S209の処理。以下「第1判定処理」という。)を行う。次に、制御装置15,34は、実センシング結果と汚れモデルとの比較に基づき、汚れの状態を判定する処理(以下「第2判定処理」という。)を行う。そして、制御装置15,34は、第1判定処理及び第2判定処理の両方で汚れありと判定した場合に、センシング装置についての汚れがあるとの最終的な判定する。一方、制御装置15,34は、第1判定処理及び第2判定処理の少なくとも一方で汚れなしと判定された場合にセンシング装置についての汚れがないとの最終的な判定をする。なお、この例では、取得処理がモデル取得部としての処理の一例に相当する。   In the configuration using the dirt model, for example, the dirt determination may be performed as follows. That is, the following vehicle 1A and the vehicle 3 further include a storage device that stores the dirt model (the vehicle 3 may store the dirt model in the storage device 33). In the contamination determination, the control devices 15 and 34 perform processing (acquisition processing) for acquiring the contamination model from the storage device. After that, the control devices 15 and 34 first determine the dirt state based on the comparison between the actual sensing result and the virtual sensing result (104 to S108 in FIG. 2 and S204 to S209 in FIG. First determination process ”). Next, the control devices 15 and 34 perform processing (hereinafter referred to as “second determination processing”) for determining the state of contamination based on the comparison between the actual sensing result and the contamination model. Then, when it is determined that both the first determination process and the second determination process are dirty, the control devices 15 and 34 finally determine that the sensing device is dirty. On the other hand, when it is determined that there is no dirt in at least one of the first determination process and the second determination process, the control devices 15 and 34 finally determine that the sensing device is not dirty. In this example, the acquisition process corresponds to an example of a process as a model acquisition unit.

(3n)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (3n) The functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

1,3,4…車両、1A…追従車両、1B…先行車両、1b…仮想先行車両、2…領域、5,6,7…枠、10,30…汚れ判定システム、11…前方レーダ装置、12…後方レーダ装置、13…通信装置、14,32…GPS受信機、15,34…制御装置、31…カメラ、33…記憶装置、41,42,43,44…センシング領域。   DESCRIPTION OF SYMBOLS 1, 3, 4 ... Vehicle, 1A ... Following vehicle, 1B ... Preceding vehicle, 1b ... Virtual preceding vehicle, 2 ... Area, 5, 6, 7 ... Frame, 10, 30 ... Dirt judgment system, 11 ... Front radar apparatus, DESCRIPTION OF SYMBOLS 12 ... Back radar apparatus, 13 ... Communication apparatus, 14, 32 ... GPS receiver, 15, 34 ... Control apparatus, 31 ... Camera, 33 ... Memory | storage device, 41, 42, 43, 44 ... Sensing area | region.

Claims (7)

車両(1,3)の周辺に存在する物標をセンシングするための車両周辺センシング装置(11,12,31)を少なくとも1つ備える前記車両に搭載された汚れ判定装置(15,34)であって、
前記車両周辺センシング装置のうちの1つである特定センシング装置(11,31)による実際のセンシング結果である実センシング結果を取得する結果取得部(S101,S201)と、
前記特定センシング装置により得られるべき仮想のセンシング結果である仮想センシング結果を、前記車両周辺センシング装置以外の装置(12,33)から取得した情報に基づき特定する結果特定部(S102,S103,S202,S203)と、
前記実センシング結果と前記仮想センシング結果との比較に基づき、前記特定センシング装置のセンシングに影響を与える汚れの状態を判定する判定部(S104〜S108,S204〜S209)と、
を備え
前記結果特定部は、前記車両周辺センシング装置により前記物標としてセンシングされるセンシング対象物(1B)から無線通信により情報を取得し、取得した情報に基づき前記仮想センシング結果を特定する、
れ判定装置。
A dirt determination device (15, 34) mounted on the vehicle including at least one vehicle periphery sensing device (11, 12, 31) for sensing a target existing around the vehicle (1, 3). And
A result acquisition unit (S101, S201) for acquiring an actual sensing result which is an actual sensing result by the specific sensing device (11, 31) which is one of the vehicle periphery sensing devices;
A result specifying unit (S102, S103, S202, S) that specifies a virtual sensing result, which is a virtual sensing result to be obtained by the specific sensing device, based on information acquired from a device (12, 33) other than the vehicle periphery sensing device. S203),
A determination unit (S104 to S108, S204 to S209) that determines the state of dirt that affects the sensing of the specific sensing device based on a comparison between the actual sensing result and the virtual sensing result;
Equipped with a,
The result specifying unit acquires information by wireless communication from a sensing object (1B) sensed as the target by the vehicle periphery sensing device, and specifies the virtual sensing result based on the acquired information.
Dirty is determining device.
請求項に記載の汚れ判定装置であって、
前記結果特定部は、前記車両をセンシング可能な車両センシング装置(12)を搭載した前記センシング対象物である特定センシング対象物(1B)から、前記車両センシング装置によるセンシング結果を取得する、汚れ判定装置。
The dirt determination device according to claim 1 ,
The result determination unit acquires a sensing result by the vehicle sensing device from a specific sensing object (1B) that is the sensing object on which the vehicle sensing device (12) capable of sensing the vehicle is mounted. .
請求項に記載の汚れ判定装置であって、
少なくとも1つの前記センシング対象物から、前記車両センシング装置の搭載の有無を表す搭載情報を取得する搭載情報取得部と、
前記搭載情報に基づき、少なくとも1つの前記センシング対象物の中から前記特定センシング対象物を選定する選定部と、
を更に備え、
前記結果特定部は、前記選定部により選定された前記特定センシング対象物から前記車両センシング装置によるセンシング結果を取得する、汚れ判定装置。
The dirt determination device according to claim 2 ,
A mounting information acquisition unit that acquires mounting information indicating whether the vehicle sensing device is mounted from at least one of the sensing objects;
A selection unit for selecting the specific sensing object from at least one of the sensing objects based on the mounting information;
Further comprising
The result identification unit is a dirt determination device that acquires a sensing result from the vehicle sensing device from the specific sensing object selected by the selection unit.
請求項1から請求項までのいずれか1項に記載の汚れ判定装置であって、
前記結果特定部は、前記車両の現在位置周辺の地図データを取得し、取得した前記地図データに基づき前記仮想センシング結果を特定する、汚れ判定装置。
It is a dirt judging device given in any 1 paragraph of Claims 1-3 ,
The result specifying unit acquires map data around the current position of the vehicle, and specifies the virtual sensing result based on the acquired map data.
請求項1から請求項までのいずれか1項に記載の汚れ判定装置であって、
前記特定センシング装置のセンシングに影響を与える汚れがある状態における前記特定センシング装置によるセンシング結果のモデルを表す汚れモデルを取得するモデル取得部を更に備え、
前記判定部は、前記実センシング結果と前記仮想センシング結果との比較、及び、前記実センシング結果と前記汚れモデルとの比較、に基づき前記判定を行う、汚れ判定装置。
It is a dirt judging device given in any 1 paragraph of Claims 1-4 ,
A model acquisition unit for acquiring a dirt model representing a model of a sensing result by the specific sensing device in a state where there is dirt affecting the sensing of the specific sensing device;
The determination unit is a contamination determination device that performs the determination based on a comparison between the actual sensing result and the virtual sensing result and a comparison between the actual sensing result and the contamination model.
請求項1から請求項までのいずれか1項に記載の汚れ判定装置であって、
前記車両には、前記特定センシング装置のセンシングに影響を与える汚れがある旨を前記車両の乗員に対し報知可能な報知装置が搭載され、
前記判定部により前記特定センシング装置のセンシングに影響を与える汚れがあると判
定された場合に、前記報知装置に前記報知を行わせるための処理を実行する報知処理部を更に備える、汚れ判定装置。
It is a dirt judging device given in any 1 paragraph of Claims 1-5 ,
The vehicle is equipped with a notification device capable of notifying passengers of the vehicle that there is dirt that affects the sensing of the specific sensing device,
A dirt determination apparatus, further comprising: a notification processing unit that executes a process for causing the notification apparatus to perform the notification when the determination unit determines that there is dirt that affects sensing of the specific sensing device.
請求項1から請求項までのいずれか1項に記載の汚れ判定装置であって、
前記車両には、前記特定センシング装置のセンシングに影響を与える汚れを洗浄可能な洗浄装置が搭載され、
前記判定部により前記特定センシング装置のセンシングに影響を与える汚れがあると判定された場合に、前記洗浄装置に洗浄させるための処理を実行する洗浄処理部を更に備える、汚れ判定装置。
It is a dirt judging device given in any 1 paragraph of Claims 1-6 ,
The vehicle is equipped with a cleaning device capable of cleaning dirt affecting the sensing of the specific sensing device,
The contamination determination apparatus further comprising a cleaning processing unit that executes processing for causing the cleaning device to perform cleaning when it is determined by the determination unit that there is contamination that affects the sensing of the specific sensing device.
JP2015040490A 2015-03-02 2015-03-02 Dirt determination device Active JP6394440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015040490A JP6394440B2 (en) 2015-03-02 2015-03-02 Dirt determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015040490A JP6394440B2 (en) 2015-03-02 2015-03-02 Dirt determination device

Publications (2)

Publication Number Publication Date
JP2016162204A JP2016162204A (en) 2016-09-05
JP6394440B2 true JP6394440B2 (en) 2018-09-26

Family

ID=56846938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015040490A Active JP6394440B2 (en) 2015-03-02 2015-03-02 Dirt determination device

Country Status (1)

Country Link
JP (1) JP6394440B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018212346A1 (en) * 2017-05-18 2020-03-19 パイオニア株式会社 Control device, scanning system, control method, and program
US11220272B2 (en) 2017-11-13 2022-01-11 Mitsubishi Electric Corporation Failure detection apparatus, failure detection method, and computer readable medium
JP7143733B2 (en) * 2018-11-14 2022-09-29 トヨタ自動車株式会社 Environmental state estimation device, environmental state estimation method, environmental state estimation program
JP7192702B2 (en) * 2019-07-31 2022-12-20 トヨタ自動車株式会社 Control device, vehicle, and control method
JP7477324B2 (en) 2020-03-06 2024-05-01 本田技研工業株式会社 Vehicle information processing device
WO2023054078A1 (en) * 2021-09-29 2023-04-06 株式会社小糸製作所 Vehicle sensor device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4033106B2 (en) * 2003-10-22 2008-01-16 日産自動車株式会社 Ranging performance degradation detection device for vehicles
JP2007293672A (en) * 2006-04-26 2007-11-08 Toyota Motor Corp Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle
JP2008060874A (en) * 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
JP5590774B2 (en) * 2008-03-28 2014-09-17 トヨタ自動車株式会社 Object detection device
JP6011935B2 (en) * 2012-12-10 2016-10-25 アルパイン株式会社 In-vehicle camera system and camera lens abnormality detection method

Also Published As

Publication number Publication date
JP2016162204A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6394440B2 (en) Dirt determination device
CN108932869B (en) Vehicle system, vehicle information processing method, recording medium, traffic system, infrastructure system, and information processing method
JP4615038B2 (en) Image processing device
KR101083885B1 (en) Intelligent driving assistant systems
US8831867B2 (en) Device and method for driver assistance
KR102181196B1 (en) Parking control method and parking control device
JP3263699B2 (en) Driving environment monitoring device
US8559674B2 (en) Moving state estimating device
WO2017068701A1 (en) Parking space detection method and device
JP4722777B2 (en) Obstacle recognition judgment device
JP4556742B2 (en) Vehicle direct image display control apparatus and vehicle direct image display control program
JP5712119B2 (en) Pedestrian notification device for vehicles
JP2018195289A (en) Vehicle system, vehicle information processing method, program, traffic system, infrastructure system and infrastructure information processing method
CN109643495B (en) Periphery monitoring device and periphery monitoring method
JP2009236623A (en) Object detector, periphery monitoring apparatus, driving support system, and object detection method
JP6129268B2 (en) Vehicle driving support system and driving support method
US20190135169A1 (en) Vehicle communication system using projected light
JP2008204281A (en) Object detection device and inter-vehicle communication system
US20180204462A1 (en) Device and method for start assistance for a motor vehicle
JP6500724B2 (en) Danger information notification system, server and computer program
JP6599387B2 (en) Information notification apparatus, moving body, and information notification system
JP2019064317A (en) Display device for vehicle
WO2017013692A1 (en) Travel lane determination device and travel lane determination method
JP6599386B2 (en) Display device and moving body
Jung et al. Isrss: Integrated side/rear safety system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R151 Written notification of patent or utility model registration

Ref document number: 6394440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250