JP2020052909A - Provision device and provision method - Google Patents
Provision device and provision method Download PDFInfo
- Publication number
- JP2020052909A JP2020052909A JP2018183949A JP2018183949A JP2020052909A JP 2020052909 A JP2020052909 A JP 2020052909A JP 2018183949 A JP2018183949 A JP 2018183949A JP 2018183949 A JP2018183949 A JP 2018183949A JP 2020052909 A JP2020052909 A JP 2020052909A
- Authority
- JP
- Japan
- Prior art keywords
- weather condition
- vehicle
- sensors
- weather
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供すること。【解決手段】実施形態に係る提供装置は、取得部と、判定部と、提供部とを備える。取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部は、取得部が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部は、判定部によって判定された天候状況に関する天候状況情報を外部へ提供する。【選択図】図2An object of the present invention is to provide a provision device and a provision method capable of detecting weather with high precision and alerting the surroundings. A provision device according to an embodiment includes an acquisition unit, a determination unit, and a provision unit. The acquisition unit acquires detection results of a plurality of sensors that detect surrounding conditions. The determination unit determines weather conditions based on the detection results of the plurality of sensors acquired by the acquisition unit. The providing unit provides the weather condition information regarding the weather conditions determined by the determining unit to the outside. [Selection drawing] Fig. 2
Description
本発明は、提供装置および提供方法に関する。 The present invention relates to a providing device and a providing method.
従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知したりする等の技術がある。上記のセンサの例として、カメラ、レーダおよびライダー(LiDAR:Laser Imaging Detection and Ranging)等がある。 2. Description of the Related Art Conventionally, there is a technique of detecting a surrounding situation such as a target with a sensor, executing vehicle control based on the detection result, or notifying a driver of the detected target. Examples of the above sensors include cameras, radars and lidars (LiDAR: Laser Imaging Detection and Ranging).
ところで、上記したセンサは、天候の影響を受けて検出結果の精度が低下するおそれがある。また、上記したセンサを搭載していない車両の運転者にとっては、天候が急変した場合に、かかる急変に即座に対応することは容易ではない。 By the way, in the above-mentioned sensor, there is a possibility that the accuracy of the detection result is reduced due to the influence of the weather. Further, it is not easy for a driver of a vehicle not equipped with the above-mentioned sensor to immediately respond to such a sudden change when the weather suddenly changes.
本発明は、上記に鑑みてなされたものであって、高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a providing device and a providing method capable of detecting weather with high accuracy and calling attention to the surroundings.
上述した課題を解決し、目的を達成するために、本発明に係る提供装置は、センサ検出結果取得部と、天候状況判定部と、提供部とを備える。前記センサ検出結果取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。前記天候状況判定部は、前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する。前記提供部は、前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する。 In order to solve the above-described problem and achieve the object, a providing device according to the present invention includes a sensor detection result obtaining unit, a weather condition determining unit, and a providing unit. The sensor detection result obtaining unit obtains detection results of a plurality of sensors that detect a surrounding situation. The weather condition determination unit determines a weather condition based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit. The providing unit provides weather condition information, which is information on the weather condition determined by the weather condition determining unit, to the outside.
本発明によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。 ADVANTAGE OF THE INVENTION According to this invention, while detecting a weather with high precision, it can call attention around.
以下、添付図面を参照して、本願の開示する提供装置および提供方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, an embodiment of a providing device and a providing method disclosed in the present application will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited by this embodiment.
まず、図1を用いて、実施形態に係る提供方法の概要について説明する。図1は、実施形態に係る提供方法の概要を示す図である。図1では、実施形態に係る提供装置1は、車両Cに搭載され、実施形態に係る提供方法を実行する。なお、提供装置1の搭載対象は、車両に限らず、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、提供装置1は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。
First, an outline of a providing method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an outline of a providing method according to the embodiment. In FIG. 1, the providing
また、車両Cは、周囲の状況を検出する複数のセンサの検出結果を総合して周囲に存在する物標を検出する物標検出装置(図示せず)を備えていることとする。なお、複数のセンサには、例えば、カメラ、レーダおよびLiDAR(Laser Imaging Detection and Ranging)等がある。 Further, the vehicle C is provided with a target detection device (not shown) that detects a target present in the surroundings by integrating detection results of a plurality of sensors that detect the surrounding situation. The plurality of sensors include, for example, a camera, radar, and LiDAR (Laser Imaging Detection and Ranging).
また、図1では、実施形態に係る提供装置1は、車両Cの前方に発生した濃霧を検出し、検出した濃霧に対する注意喚起の情報である天候状況情報を外部へ提供する提供方法について説明する。
In FIG. 1, a providing method in which the providing
具体的には、実施形態に係る提供装置1は、まず、上記した複数のセンサの検出結果を取得する(ステップS1)。つづいて、提供装置1は、取得した複数のセンサの検出結果に基づいて車両Cの周囲で発生する天候状況を判定する(ステップS2)。
Specifically, the providing
なお、ここでいう天候とは、濃霧や、雨、雪等といった悪天候を指す。換言すれば、提供装置1が検出する天候とは、上記したセンサの検出結果の精度を低下させる天候である。なお、天候は、昼と夜とで区別されてもよい。すなわち、提供装置1は、昼の雨および夜の雨等のように、雨という天候を昼と夜とに細分化された天候状況を判定してもよい。
Here, the weather refers to bad weather such as dense fog, rain, and snow. In other words, the weather detected by the providing
このように、実施形態に係る提供装置1は、本来、物標の検出に用いるセンサの検出結果を利用して天候状況を判定する。なお、詳細な天候状況の判定方法については後述する。
As described above, the providing
つづいて、実施形態に係る提供装置1は、判定した天候状況に関する天候状況情報を道路管理者が扱う道路管理端末(道路管理サーバSV)または周辺車両OC1に搭載された車載機へ提供する(ステップS3−1,S3−2)。
Subsequently, the providing
具体的には、実施形態に係る提供装置1は、車両Cが走行する道路を管理する道路管理端末に対して、例えば、天候コード等の天候状況を示す情報、車両Cの位置および現在時刻等を含む天候状況情報を提供する(ステップS2−1)。
Specifically, the providing
これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に「この先濃霧注意!」等といった注意喚起の表示を行うことができる。そして、かかる表示を見た後方の周辺車両OC2の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。 Thus, for example, the road manager can display an alert such as “Be careful of dense fog!” On an electronic bulletin board installed behind the vehicle C. Then, since the driver of the surrounding vehicle OC2 behind the vehicle can see in advance the preparation for the dense fog, the driver can respond to the generated dense fog without any confusion.
また、実施形態に係る提供装置1は、上記した物標検出装置が用いる複数のセンサそれぞれの検出結果に付与する重みを、判定した天候に応じて変更するとともに、車両Cの後方を走行する周辺車両OC1の物標検出装置に対して、かかる重みに関する情報(以下、重み情報と記載する場合がある)を含む天候状況情報(出願時削除※以下は、赤字下線を省略しています。)を提供する(ステップS2−2)。
Further, the providing
これにより、例えば、周辺車両OC1に搭載された物標検出装置において、複数のセンサそれぞれの検出結果の重みを天候に合わせて変更できる。例えば、濃霧の場合には、カメラの検出結果の重みを軽くし、レーダ装置の検出結果の重みを重くする。従って、周辺車両OC1が濃霧に進入した場合であっても、濃霧に合わせて最適な重みを付与して物標検出を行うことができるため、濃霧により物標検出の精度が低下することを防ぐことができる。 Accordingly, for example, in the target detection device mounted on the surrounding vehicle OC1, the weight of the detection result of each of the plurality of sensors can be changed according to the weather. For example, in the case of dense fog, the weight of the detection result of the camera is reduced, and the weight of the detection result of the radar device is increased. Therefore, even when the surrounding vehicle OC1 enters the dense fog, the target can be detected by giving the optimum weight according to the dense fog, so that the accuracy of the target detection is prevented from being reduced by the dense fog. be able to.
なお、周辺車両OC1が物標検出装置を備えない場合、実施形態に係る提供装置1は、重み情報に代えて、濃霧の発生を示す天候状況情報を周辺車両OC1のナビゲーション装置等へ提供することもできる。これにより、周辺車両OC1の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。
When the surrounding vehicle OC1 does not include the target detection device, the providing
上述したように、実施形態に係る提供方法では、複数のセンサの検出結果を用いて天候状況を判定し、天候状況情報を外部へ提供する。従って、実施形態に係る提供方法によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。 As described above, in the providing method according to the embodiment, the weather condition is determined using the detection results of the plurality of sensors, and the weather condition information is provided to the outside. Therefore, according to the providing method according to the embodiment, the weather can be detected with high accuracy, and the surroundings can be alerted.
次に、図2を参照して、実施形態に係る提供装置1の構成について詳細に説明する。図2は、実施形態に係る提供装置1を備えた車両Cの構成を示すブロック図である。図2に示すように、実施形態に係る車両Cは、提供装置1と、物標検出装置100とを備える。提供装置1および物標検出装置100は、所定の車内ネットワークによって通信可能に接続され、互いに情報の送受信を行うことができる。なお、図2では、物標検出装置100と提供装置1とが別体で構成される場合を示したが、物標検出装置100と提供装置1とが一体的に1つの装置として構成されてもよい。
Next, the configuration of the providing
物標検出装置100は、複数のセンサである、カメラ10、レーダ装置11およびLiDAR12を備える。カメラ10は、車両Cの外部状況を撮像する撮像装置である。カメラ10は、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10は、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。物標検出装置100は、カメラ10の画像を解析することで、車両Cの周囲に存在する物標を検出する。
The
レーダ装置11は、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置11は、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。 The radar device 11 detects a target around the vehicle C using radio waves such as millimeter waves. Specifically, the radar device 11 detects a target by transmitting radio waves to the vicinity of the vehicle C and receiving a reflected wave reflected by the target.
LiDAR12は、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR12は、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。
The LiDAR 12 detects a target around the vehicle C using the laser light. Specifically, the
物標検出装置100は、カメラ10、レーダ装置11およびLiDAR12それぞれの検出結果を総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。なお、かかる重みは、提供装置1により提供されるが、詳細については後述する。
The
実施形態に係る提供装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部20(センサ検出結果取得部の一例)、判定部21(天候状況判定部の一例)、決定部22および提供部23を備える。記憶部3は、重み情報31を記憶する。
The providing
ここで、提供装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
Here, the providing
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部20、判定部21、決定部22および提供部23として機能する。
The CPU of the computer functions as the
また、制御部2の取得部20、判定部21、決定部22および提供部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
In addition, at least one or all of the
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、重み情報31や、各種プログラムの情報等を記憶することができる。なお、提供装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
The storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM and the data flash can store the
重み情報31は、物標検出装置100の物標検出処理に用いる重みに関する情報である。重み情報31には、複数のセンサそれぞれに割り当てられた重みに関する情報が含まれる。図3は、重み情報31の一例を示す図である。
The
図3に示すように、重み情報31は、「センサID」、「センサ名」および「重み」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「重み」は、物標検出処理の際にセンサの検出結果に付与する重みを示す情報である。「重み」は、後述の提供部23によって、天候に応じて決定された重みが入力される。
As shown in FIG. 3, the
なお、図3では、それぞれのセンサが1つの場合について示したが、例えば、同じセンサ名のセンサが複数搭載される場合には、各センサにセンサIDが割り当てられてもよい。つまり、複数のカメラが搭載される場合、複数のカメラそれぞれにセンサIDおよび重みが割り当てられてもよい。 Note that FIG. 3 illustrates a case in which each sensor is one. However, for example, when a plurality of sensors having the same sensor name are mounted, a sensor ID may be assigned to each sensor. That is, when a plurality of cameras are mounted, a sensor ID and a weight may be assigned to each of the plurality of cameras.
制御部2は、周囲の状況を検出する複数のセンサ(例えば、カメラ10、レーダ装置11およびLiDAR12)の検出結果に基づいて天候状況を判定し、判定した天候状況に関する情報である天候状況情報を提供する。
The control unit 2 determines a weather condition based on detection results of a plurality of sensors (for example, the
取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。例えば、取得部20は、カメラ10、レーダ装置11およびLiDAR12それぞれから検出結果を取得する。検出結果は、例えば、物標に関する情報(物標の有無、相対速度や位置等の情報)であってもよく、あるいは、カメラ10の画像等のような物標検出に用いられる元データであってもよい。
The
判定部21(出願時削除※以下は、赤字下線を省略しています。)は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。具体的には、判定部21は、複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定する。
The determination unit 21 (deletion at the time of application * Hereinafter, red underline is omitted) determines the weather condition based on the detection results of the plurality of sensors acquired by the
例えば、判定部21は、同一の物標について、カメラ10の画像およびLiDAR12からは物標が検出されず、レーダ装置11からは物標が検出された場合、天候状況が悪天候であることと判定する。かかる場合、さらに、判定部21は、例えば、カメラ10のレンズに付着した付着物に基づいて悪天候の種別を判別する。
For example, when the target is not detected from the image of the
すなわち、判定部21は、カメラ10の画像に基づいてレンズに雨滴が付着していた場合、かかる悪天候は雨であると判定する。また、判定部21は、カメラ10の画像に基づいてカメラ10のレンズが雪埋もれであることを検出した場合、悪天候は雪であると判定する。そして、判定部21は、レンズに付着物が付着していない、または、霧状の水滴が付着していた場合、悪天候が濃霧であると判定する。
That is, when raindrops adhere to the lens based on the image of the
なお、判定部21は、カメラ10、レーダ装置11およびLiDAR12それぞれで同一の物標が検出された場合、天候状況が晴れであると判定する。このように、物標の検出結果に基づいて天候状況を判定することで、精度良く天候を検出することができる。
When the same target is detected by each of the
また、判定部21は、物標として例えば、白線等の車両Cが走行する道路を区画する区画線の検出結果に基づいて天候状況を判定することができる。かかる点について、図4を用いて説明する。
In addition, the
図4は、判定部21による白線検出を用いた天候状況判定の処理内容を示す図である。図4では、車両Cが直進走行(操舵角が略ゼロ)する道路の左右を区画する実線の区画線Lを示している。なお、区画線Lは、実線に限らず、破線等の断続的な区画線であってもよい。また、区画線Lは、白線であってもよく、黄線であってもよい。また、図4では、区画線Lの白線(あるいは黄線)の劣化度合いが等しく、区画線Lのかすれや汚れは同一であることとする。
FIG. 4 is a diagram showing the processing content of the weather situation determination using the white line detection by the
なお、区画線Lの存在は、各センサの検知データに基づく画像認識処理や、ナビゲーション装置の地図データ(地図データに含まれる区画線データ)と自車位置データによる区画線位置判定処理等により判定できる。 The presence of the lane marking L is determined by image recognition processing based on the detection data of each sensor, lane marking position determination processing based on the map data (lane marking data included in the map data) of the navigation device, and the vehicle position data. it can.
図4に示すように、判定部21は、まず、複数のセンサそれぞれで検出された区画線Lの検出結果を取得する。つづいて、判定部21は、複数のセンサそれぞれで検出された区画線Lに基づいて天候状況を判定する。
As illustrated in FIG. 4, the
具体的には、図4に示すように、判定部21は、複数のセンサそれぞれについて、車両Cから所定距離以上である遠距離に存在する区画線Lと、車両Cから所定距離未満である近距離に存在する区画線Lとの検出結果を比較した結果に基づいて天候を検出する。
Specifically, as illustrated in FIG. 4, the
例えば、判定部21は、カメラ10およびLiDAR12については近距離の区画線Lのみ検出、あるいは、遠距離の区画線Lの検出精度が所定の閾値以下で著しく低い、一方で、レーダ装置11については近距離および遠距離双方の区画線Lが検出された場合、天候状況が濃霧であると判定する。これは、濃霧が発生した場合、遠距離の視認性が低下することを利用した判定方法である。このような判定方法により、濃霧を精度良く判定することができる。
For example, the
なお、区画線Lの検出精度は、区画線の画像処理で得られるエッジ(コントラストが急変する部分(物体境界における画像の区切れ部分))の連続性(区画線存在位置におけるエッジ直線の長さ:直線路の区画線の場合、精度が高いと長い直線となり、精度が低いと細かく分断された直線となる)やエッジ強度(コントラスト強度)の変化(直線路の区画線の場合、精度が高いとエッジ強度が高く安定した直線となり、精度が低いとエッジ強度が低く不安定な直線となる)、等により検出できる。 The detection accuracy of the lane marking L is determined by the continuity of the edge (part where the contrast changes rapidly (part of the image at the object boundary)) obtained by the image processing of the lane marking (the length of the edge straight line at the lane marking existing position) : In the case of a lane marking on a straight road, a high accuracy results in a long straight line, and a low accuracy results in a finely divided straight line) and changes in edge intensity (contrast intensity) (in the case of a lane marking on a straight road, high accuracy) And a straight line having a high edge strength and a stable line, and a low accuracy results in an unstable straight line having a low edge strength).
また、例えば、判定部21は、カメラ10およびLiDAR12について近距離の区画線Lの認識精度よりも遠距離の区画線Lの認識精度が低く、一方で、レーダ装置11について近距離および遠距離双方の区画線Lの認識精度が同程度である場合、天候状況が雨であると判定する。これは、雨が降っている場合、濃霧のように遠距離の区画線Lが検出できない状況とは異なり、遠距離の区画線Lについてもある程度は検出できることを利用した判定方法である。このような判定方法により、雨を精度良く検出することができる。
In addition, for example, the
また、例えば、判定部21は、カメラ10について近距離および遠距離双方の区画線Lが検出されず、レーダ装置11およびLiDAR12について近距離および遠距離双方の区画線Lが検出された場合、天候状況は晴れでかつ逆光である、あるいは夜であることを判定する。なお、晴れの逆光か夜かは、時刻情報を取得することで判別可能である。これは、逆光や夜では、カメラ10の画像が白または黒の画像となってしまい、物標を検出できないことを利用した判定方法である。これにより、晴れの逆光および夜を精度良く検出することができる。
Further, for example, when the lane markings L at both the short distance and the long distance are not detected for the
このような天候判別は各センサの出力状態と天候の関係を示すテーブルを用いた処理により実現することができ、また天候の判別種別は提供する天候情報種別や天候情報を用いる処理装置等に応じて設定すれば良い。 Such weather determination can be realized by processing using a table indicating the relationship between the output state of each sensor and the weather, and the type of weather determination depends on the type of weather information to be provided and the processing device using the weather information. And set it.
なお、判定部21は、例えば、夜の場合には、車両Cのライトが点灯するため、かかるライトによる影響を加味して上記の判定方法を実行することが好ましい。このように、複数のセンサそれぞれの検出結果について、近距離の区画線Lと遠距離の区画線Lとの検出結果を比較することで、天候状況を精度良く判定することができる。 Note that, for example, in the case of night, the light of the vehicle C is turned on in the night, so it is preferable to execute the above-described determination method in consideration of the influence of the light. In this way, by comparing the detection results of the plurality of sensors with the detection results of the short-distance lane L and the long-distance lane L, it is possible to accurately determine the weather condition.
また、図4では、区画線Lの検出結果を2種類(近距離および遠距離)に分けて比較したが、所定距離毎に分ける、つまり、検出結果を3種類以上に分けて比較してもよい。 Further, in FIG. 4, the detection result of the division line L is divided into two types (short distance and long distance) and compared. However, the detection result is divided into predetermined distances, that is, the detection result is divided into three or more types and compared. Good.
図2に戻って決定部22について説明する。決定部22は、判定部21によって判定された天候状況に基づいて物標検出装置100の物標検出処理における複数のセンサそれぞれに割り当てる重みを決定する。
Returning to FIG. 2, the determining
例えば、決定部22は、判定部21によって濃霧が判定された場合、物標検出処理におけるカメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、濃霧が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。
For example, when the
また、決定部22は、判定部21によって雨または雪が判定された場合、カメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、雨または雪が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。
Further, when rain or snow is determined by the
決定部22は、決定した各センサの重みに関する情報を重み情報31として記憶部3に記憶するとともに、かかる重みに関する情報を提供部23へ出力する。
The
提供部23は、判定部21によって検出された天候状況に関する天候状況情報天候状況情報を外部へ提供する。
The providing
例えば、提供部23は、車両Cの周辺に存在する周辺車両OC1へ天候状況情報を提供する。具体的には、提供部23は、車両Cがいる位置(悪天候発生位置)をこれから通過する予定の周辺車両OC1へ天候状況情報を提供する。
For example, the providing
なお、かかる場合の天候状況情報は、周辺車両OC1が物標検出装置101を搭載しているか否かで内容を変えることが好ましい。具体的には、周辺車両OC1が物標検出装置101を搭載している場合、提供部23は、決定部22によって決定された重み情報31を含む天候状況情報を周辺車両OC1へ提供する。
In addition, it is preferable that the content of the weather condition information in such a case is changed depending on whether or not the surrounding vehicle OC1 is equipped with the
これにより、周辺車両OC1の物標検出装置101は、予め濃霧に対応した重みに設定変更できるため、濃霧進入時において物標の検出精度が低下することを防止できる。
Thus, the
なお、提供部23は、周辺車両OC1へ重み情報31を提供する場合に限らず、例えば、悪天候を検出した際の各センサの検出結果をそのまま天候状況情報として提供してもよい。かかる場合、周辺車両OC1の物標検出装置101は、天候状況情報に含まれる各センサの検出結果に基づいて、自己のセンサそれぞれに割り当てる重みを決定することができる。
Note that the providing
一方、周辺車両OC1が物標検出装置101を搭載していない場合、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、天候状況情報を受信した周辺車両OC1の運転者は、予め悪天候に対する準備を行うことができるため、悪天候の発生に戸惑うことなく対応することができる。
On the other hand, when the surrounding vehicle OC1 is not equipped with the
また、提供部23は、周辺車両OC1以外に、例えば、車両Cが走行する道路を管理する道路管理者が扱う道路管理端末(道路管理サーバSV)へ天候状況情報を提供してもよい。具体的には、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に悪天候に対する注意喚起の表示を行うことができる。
In addition, the providing
次に、図5を用いて、実施形態に係る提供装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る提供装置1が実行する処理の処理手順を示すフローチャートである。
Next, a processing procedure of a process executed by the providing
図5に示すように、まず、取得部20は、物標検出装置100から周囲の状況を検出する複数のセンサの検出結果を取得する(ステップS101)。つづいて、判定部21は、取得した検出結果に基づいて天候状況を判定する(ステップS102)。
As shown in FIG. 5, first, the
つづいて、提供部23は、判定部21によって判定された天候状況が悪天候であるか否かを判定する(ステップS103)。提供部23は、判定部21によって判定された天候状況が悪天候である場合(ステップS103,Yes)、周辺車両OC1へ天候状況情報の提供を行うか否かを判定する(ステップS104)。
Subsequently, the providing
提供部23は、周辺車両OC1へ天候状況情報の提供を行う場合(ステップS104,Yes)、決定部22によって決定された各センサの重みに関する重み情報31を含む天候状況情報を周辺車両OC1へ提供する(ステップS105)。つづいて、提供部23は、天候の種別や、車両Cの位置、現在時刻等を含む天候状況情報を道路管理サーバSVへ提供し(ステップS106)、処理を終了する。
When providing the weather condition information to the surrounding vehicle OC1 (Step S104, Yes), the providing
一方、ステップS103において、提供部23は、判定部21によって判定された天候状況が悪天候ではない場合(ステップS103,No)、すなわち天候が晴れである場合、外部へ天候状況情報の提供を行わず、処理を終了する。
On the other hand, in step S103, the providing
また、ステップS104において、提供部23は、周辺車両OC1へ天候状況情報の提供を行わない場合(ステップS104,No)、ステップS106へ移行する。
Further, in step S104, when the providing
上述してきたように、実施形態に係る提供装置1は、取得部20と、判定部21と、提供部23とを備える。取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部21は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部23は、判定部21によって判定された天候状況に関する天候状況情報を外部へ提供する。これにより、高精度に天候を検出するとともに、周囲に注意を促すことができる。
As described above, the providing
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. For this reason, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and equivalents thereof.
1 提供装置
2 制御部
3 記憶部
10 カメラ
11 レーダ装置
12 LiDAR
20 取得部
21 判定部
22 決定部
23 提供部
31 重み情報
100、101 物標検出装置
C 車両
L 区画線
OC1、OC2 周辺車両
DESCRIPTION OF
Claims (7)
前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、
前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と
を備えることを特徴とする提供装置。 A sensor detection result acquisition unit that acquires detection results of a plurality of sensors that detect a surrounding situation,
A weather condition determination unit that determines a weather condition based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit,
A providing unit that externally provides weather condition information that is information on the weather condition determined by the weather condition determining unit.
周囲に存在する物標を検出するセンサであって、
前記天候状況判定部は、
前記複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定すること
を特徴とする請求項1に記載の提供装置。 The plurality of sensors,
A sensor that detects a target existing in the vicinity,
The weather condition determination unit includes:
The providing device according to claim 1, wherein the weather condition is determined based on a detection result of the target detected by each of the plurality of sensors.
前記複数のセンサは、
車両が走行する道路を区画する区画線を物標として検出し、
前記天候状況判定部は、
前記複数のセンサそれぞれで検出された区画線に基づいて天候状況を判定すること
を特徴とする請求項2に記載の提供装置。 A providing device mounted on a vehicle,
The plurality of sensors,
The lane marking that separates the road on which the vehicle travels is detected as a target,
The weather condition determination unit includes:
The providing device according to claim 2, wherein a weather condition is determined based on a lane marking detected by each of the plurality of sensors.
前記複数のセンサそれぞれについて、前記車両から所定距離以上である遠距離に存在する前記区画線と、前記所定距離未満である近距離に存在する前記区画線との検出結果を比較した結果に基づいて天候状況を判定すること
を特徴とする請求項3に記載の提供装置。 The weather condition determination unit includes:
For each of the plurality of sensors, based on a result of comparing the detection result of the lane marking present at a long distance that is equal to or greater than the predetermined distance from the vehicle and the lane marking present at a short distance that is less than the predetermined distance. The providing device according to claim 3, wherein a weather condition is determined.
車両の周辺に存在する周辺車両搭載の車載機、または、車両が走行する道路を管理する道路管理端末へ天候状況情報を提供すること
を特徴とする請求項3または4に記載の提供装置。 The providing unit,
The provision device according to claim 3 or 4, wherein weather information is provided to an in-vehicle device mounted on a peripheral vehicle existing around the vehicle or a road management terminal that manages a road on which the vehicle runs.
各センサの検出結果に付与する重みに関する重み情報を含む天候状況情報を周辺車両へ提供すること
を特徴とする請求項5に記載の提供装置。 The providing unit,
The providing device according to claim 5, wherein weather condition information including weight information relating to a weight given to a detection result of each sensor is provided to a surrounding vehicle.
前記センサ検出結果取得工程が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定工程と、
前記天候状況判定工程によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供工程と
を含むことを特徴とする提供方法。 A sensor detection result acquisition step of acquiring detection results of a plurality of sensors for detecting a surrounding situation,
A weather condition determination step of determining a weather condition based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition step,
Providing a weather condition information, which is information on the weather condition determined in the weather condition determination step, to the outside.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018183949A JP7210208B2 (en) | 2018-09-28 | 2018-09-28 | Providing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018183949A JP7210208B2 (en) | 2018-09-28 | 2018-09-28 | Providing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020052909A true JP2020052909A (en) | 2020-04-02 |
| JP7210208B2 JP7210208B2 (en) | 2023-01-23 |
Family
ID=69997404
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018183949A Active JP7210208B2 (en) | 2018-09-28 | 2018-09-28 | Providing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7210208B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20210124037A1 (en) * | 2019-10-25 | 2021-04-29 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
| JP2022014729A (en) * | 2020-07-07 | 2022-01-20 | 株式会社デンソー | Adverse environment determination device, and adverse environment determination method |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11223674A (en) * | 1998-02-06 | 1999-08-17 | Honda Motor Co Ltd | Weather condition detection system |
| JP2005174059A (en) * | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | Navigation information provision system |
| JP2007057331A (en) * | 2005-08-23 | 2007-03-08 | Denso Corp | In-vehicle system for determining fog |
| JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detection apparatus |
| JP2008070979A (en) * | 2006-09-12 | 2008-03-27 | Denso Corp | Onboard fog decision unit |
| WO2010029707A2 (en) * | 2008-09-12 | 2010-03-18 | 株式会社 東芝 | Image projection system and image projection method |
| JP2016522886A (en) * | 2013-04-11 | 2016-08-04 | グーグル インコーポレイテッド | Method and system for detecting weather conditions using in-vehicle sensors |
| JP2017062539A (en) * | 2015-09-24 | 2017-03-30 | 三菱自動車工業株式会社 | Travel control device |
| JP2019005904A (en) * | 2017-06-20 | 2019-01-17 | 凸版印刷株式会社 | Film for packaging medium and packaging medium and package using the same |
-
2018
- 2018-09-28 JP JP2018183949A patent/JP7210208B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11223674A (en) * | 1998-02-06 | 1999-08-17 | Honda Motor Co Ltd | Weather condition detection system |
| JP2005174059A (en) * | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | Navigation information provision system |
| JP2007057331A (en) * | 2005-08-23 | 2007-03-08 | Denso Corp | In-vehicle system for determining fog |
| JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detection apparatus |
| JP2008070979A (en) * | 2006-09-12 | 2008-03-27 | Denso Corp | Onboard fog decision unit |
| WO2010029707A2 (en) * | 2008-09-12 | 2010-03-18 | 株式会社 東芝 | Image projection system and image projection method |
| JP2016522886A (en) * | 2013-04-11 | 2016-08-04 | グーグル インコーポレイテッド | Method and system for detecting weather conditions using in-vehicle sensors |
| JP2017062539A (en) * | 2015-09-24 | 2017-03-30 | 三菱自動車工業株式会社 | Travel control device |
| JP2019005904A (en) * | 2017-06-20 | 2019-01-17 | 凸版印刷株式会社 | Film for packaging medium and packaging medium and package using the same |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20210124037A1 (en) * | 2019-10-25 | 2021-04-29 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
| US11768918B2 (en) * | 2019-10-25 | 2023-09-26 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
| JP2022014729A (en) * | 2020-07-07 | 2022-01-20 | 株式会社デンソー | Adverse environment determination device, and adverse environment determination method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7210208B2 (en) | 2023-01-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9827956B2 (en) | Method and device for detecting a braking situation | |
| US10717384B2 (en) | System and method for projecting trajectory path of an autonomous vehicle onto a road surface | |
| US8988276B2 (en) | Vehicle surroundings monitoring device | |
| US11738747B2 (en) | Server device and vehicle | |
| US10229505B2 (en) | Motion determination system and method thereof | |
| JP2011118482A (en) | In-vehicle device and recognition support system | |
| CN106019283A (en) | Automobile blind area detecting method, device and system | |
| US20200143175A1 (en) | Scenario detection apparatus and method | |
| US10132642B2 (en) | Unit setting apparatus and unit setting method | |
| JP2019212188A (en) | Road sign recognition device | |
| JP6699344B2 (en) | Reverse vehicle detection device, reverse vehicle detection method | |
| US10764510B2 (en) | Image conversion device | |
| JP2021018465A (en) | Object recognition device | |
| JP2019211416A (en) | Driving assistance device | |
| JP2019146012A (en) | Imaging apparatus | |
| WO2019216386A1 (en) | Vehicle control device and vehicle | |
| KR102298869B1 (en) | Apparatus for preventing car collision and method thereof | |
| JP7210208B2 (en) | Providing device | |
| US20200393264A1 (en) | Information display device, control method, and storage medium | |
| US11435191B2 (en) | Method and device for determining a highly precise position and for operating an automated vehicle | |
| JP6548147B2 (en) | Vehicle control device | |
| CN107886036B (en) | Vehicle control method and device and vehicle | |
| JP2025069401A (en) | Observation device | |
| US20240270271A1 (en) | Information processing device | |
| CN111028544A (en) | Pedestrian early warning system with V2V technology and vehicle-mounted multi-sensor integration |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20181030 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181030 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210906 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20211018 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211115 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220217 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220721 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221024 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7210208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |