JP2020052909A - Provision device and provision method - Google Patents

Provision device and provision method Download PDF

Info

Publication number
JP2020052909A
JP2020052909A JP2018183949A JP2018183949A JP2020052909A JP 2020052909 A JP2020052909 A JP 2020052909A JP 2018183949 A JP2018183949 A JP 2018183949A JP 2018183949 A JP2018183949 A JP 2018183949A JP 2020052909 A JP2020052909 A JP 2020052909A
Authority
JP
Japan
Prior art keywords
weather condition
vehicle
sensors
weather
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018183949A
Other languages
Japanese (ja)
Other versions
JP7210208B2 (en
Inventor
杉山 裕一
Yuichi Sugiyama
裕一 杉山
幸太郎 石本
Kotaro Ishimoto
幸太郎 石本
利裕 松元
Toshihiro Matsumoto
利裕 松元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Japan Automobile Research Institute Inc
Original Assignee
Denso Ten Ltd
Japan Automobile Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Japan Automobile Research Institute Inc filed Critical Denso Ten Ltd
Priority to JP2018183949A priority Critical patent/JP7210208B2/en
Publication of JP2020052909A publication Critical patent/JP2020052909A/en
Application granted granted Critical
Publication of JP7210208B2 publication Critical patent/JP7210208B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供すること。【解決手段】実施形態に係る提供装置は、取得部と、判定部と、提供部とを備える。取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部は、取得部が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部は、判定部によって判定された天候状況に関する天候状況情報を外部へ提供する。【選択図】図2An object of the present invention is to provide a provision device and a provision method capable of detecting weather with high precision and alerting the surroundings. A provision device according to an embodiment includes an acquisition unit, a determination unit, and a provision unit. The acquisition unit acquires detection results of a plurality of sensors that detect surrounding conditions. The determination unit determines weather conditions based on the detection results of the plurality of sensors acquired by the acquisition unit. The providing unit provides the weather condition information regarding the weather conditions determined by the determining unit to the outside. [Selection drawing] Fig. 2

Description

本発明は、提供装置および提供方法に関する。   The present invention relates to a providing device and a providing method.

従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知したりする等の技術がある。上記のセンサの例として、カメラ、レーダおよびライダー(LiDAR:Laser Imaging Detection and Ranging)等がある。   2. Description of the Related Art Conventionally, there is a technique of detecting a surrounding situation such as a target with a sensor, executing vehicle control based on the detection result, or notifying a driver of the detected target. Examples of the above sensors include cameras, radars and lidars (LiDAR: Laser Imaging Detection and Ranging).

特開2017−159789号公報JP 2017-159789 A

ところで、上記したセンサは、天候の影響を受けて検出結果の精度が低下するおそれがある。また、上記したセンサを搭載していない車両の運転者にとっては、天候が急変した場合に、かかる急変に即座に対応することは容易ではない。   By the way, in the above-mentioned sensor, there is a possibility that the accuracy of the detection result is reduced due to the influence of the weather. Further, it is not easy for a driver of a vehicle not equipped with the above-mentioned sensor to immediately respond to such a sudden change when the weather suddenly changes.

本発明は、上記に鑑みてなされたものであって、高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a providing device and a providing method capable of detecting weather with high accuracy and calling attention to the surroundings.

上述した課題を解決し、目的を達成するために、本発明に係る提供装置は、センサ検出結果取得部と、天候状況判定部と、提供部とを備える。前記センサ検出結果取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。前記天候状況判定部は、前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する。前記提供部は、前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する。   In order to solve the above-described problem and achieve the object, a providing device according to the present invention includes a sensor detection result obtaining unit, a weather condition determining unit, and a providing unit. The sensor detection result obtaining unit obtains detection results of a plurality of sensors that detect a surrounding situation. The weather condition determination unit determines a weather condition based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit. The providing unit provides weather condition information, which is information on the weather condition determined by the weather condition determining unit, to the outside.

本発明によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。   ADVANTAGE OF THE INVENTION According to this invention, while detecting a weather with high precision, it can call attention around.

図1は、実施形態に係る提供方法の概要を示す図である。FIG. 1 is a diagram illustrating an outline of a providing method according to the embodiment. 図2は、実施形態に係る提供装置を備えた車両の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a vehicle including the providing device according to the embodiment. 図3は、重み情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of the weight information. 図4は、判定部による白線検出を用いた天候検出の処理内容を示す図である。FIG. 4 is a diagram illustrating the details of processing of weather detection using white line detection by the determination unit. 図5は、実施形態に係る提供装置が実行する処理の処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of processing performed by the providing apparatus according to the embodiment.

以下、添付図面を参照して、本願の開示する提供装置および提供方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。   Hereinafter, an embodiment of a providing device and a providing method disclosed in the present application will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited by this embodiment.

まず、図1を用いて、実施形態に係る提供方法の概要について説明する。図1は、実施形態に係る提供方法の概要を示す図である。図1では、実施形態に係る提供装置1は、車両Cに搭載され、実施形態に係る提供方法を実行する。なお、提供装置1の搭載対象は、車両に限らず、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、提供装置1は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。   First, an outline of a providing method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an outline of a providing method according to the embodiment. In FIG. 1, the providing device 1 according to the embodiment is mounted on a vehicle C, and executes the providing method according to the embodiment. The mounting target of the providing device 1 is not limited to a vehicle, and may be another mobile object such as a motorcycle, a bicycle, a ship, an aircraft, or the like. Alternatively, the providing device 1 may be mounted not only on a moving object but also on a stationary object such as a streetlight or a roadside object (guardrail, traffic signal, or the like).

また、車両Cは、周囲の状況を検出する複数のセンサの検出結果を総合して周囲に存在する物標を検出する物標検出装置(図示せず)を備えていることとする。なお、複数のセンサには、例えば、カメラ、レーダおよびLiDAR(Laser Imaging Detection and Ranging)等がある。   Further, the vehicle C is provided with a target detection device (not shown) that detects a target present in the surroundings by integrating detection results of a plurality of sensors that detect the surrounding situation. The plurality of sensors include, for example, a camera, radar, and LiDAR (Laser Imaging Detection and Ranging).

また、図1では、実施形態に係る提供装置1は、車両Cの前方に発生した濃霧を検出し、検出した濃霧に対する注意喚起の情報である天候状況情報を外部へ提供する提供方法について説明する。   In FIG. 1, a providing method in which the providing device 1 according to the embodiment detects a heavy fog generated in front of the vehicle C and provides weather condition information, which is information of alerting the detected heavy fog, to the outside will be described. .

具体的には、実施形態に係る提供装置1は、まず、上記した複数のセンサの検出結果を取得する(ステップS1)。つづいて、提供装置1は、取得した複数のセンサの検出結果に基づいて車両Cの周囲で発生する天候状況を判定する(ステップS2)。   Specifically, the providing device 1 according to the embodiment first obtains the detection results of the plurality of sensors described above (Step S1). Subsequently, the providing device 1 determines a weather condition occurring around the vehicle C based on the obtained detection results of the plurality of sensors (step S2).

なお、ここでいう天候とは、濃霧や、雨、雪等といった悪天候を指す。換言すれば、提供装置1が検出する天候とは、上記したセンサの検出結果の精度を低下させる天候である。なお、天候は、昼と夜とで区別されてもよい。すなわち、提供装置1は、昼の雨および夜の雨等のように、雨という天候を昼と夜とに細分化された天候状況を判定してもよい。   Here, the weather refers to bad weather such as dense fog, rain, and snow. In other words, the weather detected by the providing device 1 is weather that reduces the accuracy of the detection result of the above-described sensor. The weather may be distinguished between day and night. That is, the providing device 1 may determine a weather condition in which the rainy weather is subdivided into daytime and nighttime, such as daytime rain and nighttime rain.

このように、実施形態に係る提供装置1は、本来、物標の検出に用いるセンサの検出結果を利用して天候状況を判定する。なお、詳細な天候状況の判定方法については後述する。   As described above, the providing device 1 according to the embodiment originally determines the weather condition using the detection result of the sensor used for detecting the target. Note that a detailed weather condition determination method will be described later.

つづいて、実施形態に係る提供装置1は、判定した天候状況に関する天候状況情報を道路管理者が扱う道路管理端末(道路管理サーバSV)または周辺車両OC1に搭載された車載機へ提供する(ステップS3−1,S3−2)。   Subsequently, the providing device 1 according to the embodiment provides the weather condition information regarding the determined weather condition to the road management terminal (road management server SV) handled by the road manager or the in-vehicle device mounted on the surrounding vehicle OC1 (step). S3-1, S3-2).

具体的には、実施形態に係る提供装置1は、車両Cが走行する道路を管理する道路管理端末に対して、例えば、天候コード等の天候状況を示す情報、車両Cの位置および現在時刻等を含む天候状況情報を提供する(ステップS2−1)。   Specifically, the providing device 1 according to the embodiment provides a road management terminal that manages a road on which the vehicle C travels, for example, information indicating a weather condition such as a weather code, the position and the current time of the vehicle C, and the like. Is provided (step S2-1).

これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に「この先濃霧注意!」等といった注意喚起の表示を行うことができる。そして、かかる表示を見た後方の周辺車両OC2の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。   Thus, for example, the road manager can display an alert such as “Be careful of dense fog!” On an electronic bulletin board installed behind the vehicle C. Then, since the driver of the surrounding vehicle OC2 behind the vehicle can see in advance the preparation for the dense fog, the driver can respond to the generated dense fog without any confusion.

また、実施形態に係る提供装置1は、上記した物標検出装置が用いる複数のセンサそれぞれの検出結果に付与する重みを、判定した天候に応じて変更するとともに、車両Cの後方を走行する周辺車両OC1の物標検出装置に対して、かかる重みに関する情報(以下、重み情報と記載する場合がある)を含む天候状況情報(出願時削除※以下は、赤字下線を省略しています。)を提供する(ステップS2−2)。   Further, the providing device 1 according to the embodiment changes the weight given to the detection result of each of the plurality of sensors used by the above-described target detection device according to the determined weather, and the surroundings that travel behind the vehicle C. For the target detecting device of the vehicle OC1, the weather condition information (deletion at the time of application * including the information on the weight (hereinafter, sometimes referred to as weight information) including the information on the weight) (red underline is omitted below). Provided (step S2-2).

これにより、例えば、周辺車両OC1に搭載された物標検出装置において、複数のセンサそれぞれの検出結果の重みを天候に合わせて変更できる。例えば、濃霧の場合には、カメラの検出結果の重みを軽くし、レーダ装置の検出結果の重みを重くする。従って、周辺車両OC1が濃霧に進入した場合であっても、濃霧に合わせて最適な重みを付与して物標検出を行うことができるため、濃霧により物標検出の精度が低下することを防ぐことができる。   Accordingly, for example, in the target detection device mounted on the surrounding vehicle OC1, the weight of the detection result of each of the plurality of sensors can be changed according to the weather. For example, in the case of dense fog, the weight of the detection result of the camera is reduced, and the weight of the detection result of the radar device is increased. Therefore, even when the surrounding vehicle OC1 enters the dense fog, the target can be detected by giving the optimum weight according to the dense fog, so that the accuracy of the target detection is prevented from being reduced by the dense fog. be able to.

なお、周辺車両OC1が物標検出装置を備えない場合、実施形態に係る提供装置1は、重み情報に代えて、濃霧の発生を示す天候状況情報を周辺車両OC1のナビゲーション装置等へ提供することもできる。これにより、周辺車両OC1の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。   When the surrounding vehicle OC1 does not include the target detection device, the providing device 1 according to the embodiment may provide weather condition information indicating occurrence of dense fog to the navigation device or the like of the surrounding vehicle OC1 instead of the weight information. Can also. Thus, the driver of the peripheral vehicle OC1 can prepare for the dense fog in advance, and can cope with the generated dense fog without being confused.

上述したように、実施形態に係る提供方法では、複数のセンサの検出結果を用いて天候状況を判定し、天候状況情報を外部へ提供する。従って、実施形態に係る提供方法によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。   As described above, in the providing method according to the embodiment, the weather condition is determined using the detection results of the plurality of sensors, and the weather condition information is provided to the outside. Therefore, according to the providing method according to the embodiment, the weather can be detected with high accuracy, and the surroundings can be alerted.

次に、図2を参照して、実施形態に係る提供装置1の構成について詳細に説明する。図2は、実施形態に係る提供装置1を備えた車両Cの構成を示すブロック図である。図2に示すように、実施形態に係る車両Cは、提供装置1と、物標検出装置100とを備える。提供装置1および物標検出装置100は、所定の車内ネットワークによって通信可能に接続され、互いに情報の送受信を行うことができる。なお、図2では、物標検出装置100と提供装置1とが別体で構成される場合を示したが、物標検出装置100と提供装置1とが一体的に1つの装置として構成されてもよい。   Next, the configuration of the providing device 1 according to the embodiment will be described in detail with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of a vehicle C including the providing device 1 according to the embodiment. As illustrated in FIG. 2, the vehicle C according to the embodiment includes a providing device 1 and a target detection device 100. The providing device 1 and the target detecting device 100 are communicably connected by a predetermined in-vehicle network, and can transmit and receive information to and from each other. Note that FIG. 2 shows a case where the target detection device 100 and the providing device 1 are configured separately, but the target detection device 100 and the providing device 1 are integrally configured as one device. Is also good.

物標検出装置100は、複数のセンサである、カメラ10、レーダ装置11およびLiDAR12を備える。カメラ10は、車両Cの外部状況を撮像する撮像装置である。カメラ10は、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10は、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。物標検出装置100は、カメラ10の画像を解析することで、車両Cの周囲に存在する物標を検出する。   The target detection device 100 includes a camera 10, a radar device 11, and a LiDAR 12, which are a plurality of sensors. The camera 10 is an imaging device that captures an external situation of the vehicle C. The camera 10 is provided on, for example, a windshield of the vehicle C and captures an image of the front of the vehicle C. The camera 10 may be provided at a position where the left and right side surfaces of the vehicle C are imaged and at a position where the camera C is imaged behind. The target detection device 100 detects a target existing around the vehicle C by analyzing the image of the camera 10.

レーダ装置11は、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置11は、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。   The radar device 11 detects a target around the vehicle C using radio waves such as millimeter waves. Specifically, the radar device 11 detects a target by transmitting radio waves to the vicinity of the vehicle C and receiving a reflected wave reflected by the target.

LiDAR12は、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR12は、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。   The LiDAR 12 detects a target around the vehicle C using the laser light. Specifically, the LiDAR 12 transmits the laser light to the vicinity of the vehicle C, and detects the target by receiving the light reflected by the target.

物標検出装置100は、カメラ10、レーダ装置11およびLiDAR12それぞれの検出結果を総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。なお、かかる重みは、提供装置1により提供されるが、詳細については後述する。   The target detection device 100 detects the final target by integrating the detection results of the camera 10, the radar device 11, and the LiDAR 12. Specifically, the target detection device 100 detects a final target based on a result obtained by adding a predetermined weight to the detection result of each sensor. Note that the weight is provided by the providing device 1, and the details will be described later.

実施形態に係る提供装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部20(センサ検出結果取得部の一例)、判定部21(天候状況判定部の一例)、決定部22および提供部23を備える。記憶部3は、重み情報31を記憶する。   The providing device 1 according to the embodiment includes a control unit 2 and a storage unit 3. The control unit 2 includes an acquisition unit 20 (an example of a sensor detection result acquisition unit), a determination unit 21 (an example of a weather condition determination unit), a determination unit 22, and a providing unit 23. The storage unit 3 stores the weight information 31.

ここで、提供装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。   Here, the providing device 1 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a data flash, an input / output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部20、判定部21、決定部22および提供部23として機能する。   The CPU of the computer functions as the acquisition unit 20, the determination unit 21, the determination unit 22, and the provision unit 23 of the control unit 2 by reading and executing a program stored in the ROM, for example.

また、制御部2の取得部20、判定部21、決定部22および提供部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。   In addition, at least one or all of the acquisition unit 20, the determination unit 21, the determination unit 22, and the provision unit 23 of the control unit 2 are implemented by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). It can also be configured.

また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、重み情報31や、各種プログラムの情報等を記憶することができる。なお、提供装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。   The storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM and the data flash can store the weight information 31, information of various programs, and the like. Note that the providing device 1 may acquire the above-described programs and various information via another computer or a portable recording medium connected via a wired or wireless network.

重み情報31は、物標検出装置100の物標検出処理に用いる重みに関する情報である。重み情報31には、複数のセンサそれぞれに割り当てられた重みに関する情報が含まれる。図3は、重み情報31の一例を示す図である。   The weight information 31 is information on the weight used for the target detection processing of the target detection device 100. The weight information 31 includes information on the weight assigned to each of the plurality of sensors. FIG. 3 is a diagram illustrating an example of the weight information 31.

図3に示すように、重み情報31は、「センサID」、「センサ名」および「重み」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「重み」は、物標検出処理の際にセンサの検出結果に付与する重みを示す情報である。「重み」は、後述の提供部23によって、天候に応じて決定された重みが入力される。   As shown in FIG. 3, the weight information 31 is associated with items such as “sensor ID”, “sensor name”, and “weight”. “Sensor ID” is identification information for identifying each sensor. “Sensor name” is the name of the sensor. “Weight” is information indicating the weight given to the detection result of the sensor in the target detection process. As the “weight”, a weight determined by the providing unit 23 described below according to the weather is input.

なお、図3では、それぞれのセンサが1つの場合について示したが、例えば、同じセンサ名のセンサが複数搭載される場合には、各センサにセンサIDが割り当てられてもよい。つまり、複数のカメラが搭載される場合、複数のカメラそれぞれにセンサIDおよび重みが割り当てられてもよい。   Note that FIG. 3 illustrates a case in which each sensor is one. However, for example, when a plurality of sensors having the same sensor name are mounted, a sensor ID may be assigned to each sensor. That is, when a plurality of cameras are mounted, a sensor ID and a weight may be assigned to each of the plurality of cameras.

制御部2は、周囲の状況を検出する複数のセンサ(例えば、カメラ10、レーダ装置11およびLiDAR12)の検出結果に基づいて天候状況を判定し、判定した天候状況に関する情報である天候状況情報を提供する。   The control unit 2 determines a weather condition based on detection results of a plurality of sensors (for example, the camera 10, the radar device 11, and the LiDAR 12) that detect a surrounding condition, and outputs weather condition information that is information on the determined weather condition. provide.

取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。例えば、取得部20は、カメラ10、レーダ装置11およびLiDAR12それぞれから検出結果を取得する。検出結果は、例えば、物標に関する情報(物標の有無、相対速度や位置等の情報)であってもよく、あるいは、カメラ10の画像等のような物標検出に用いられる元データであってもよい。   The acquisition unit 20 acquires detection results of a plurality of sensors that detect a surrounding situation. For example, the acquisition unit 20 acquires the detection result from each of the camera 10, the radar device 11, and the LiDAR 12. The detection result may be, for example, information on the target (information on the presence / absence of the target, relative speed, position, etc.) or original data used for target detection such as an image of the camera 10. You may.

判定部21(出願時削除※以下は、赤字下線を省略しています。)は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。具体的には、判定部21は、複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定する。   The determination unit 21 (deletion at the time of application * Hereinafter, red underline is omitted) determines the weather condition based on the detection results of the plurality of sensors acquired by the acquisition unit 20. Specifically, the determination unit 21 determines the weather condition based on the detection result of the target detected by each of the plurality of sensors.

例えば、判定部21は、同一の物標について、カメラ10の画像およびLiDAR12からは物標が検出されず、レーダ装置11からは物標が検出された場合、天候状況が悪天候であることと判定する。かかる場合、さらに、判定部21は、例えば、カメラ10のレンズに付着した付着物に基づいて悪天候の種別を判別する。   For example, when the target is not detected from the image of the camera 10 and the LiDAR 12 and the target is detected from the radar device 11 for the same target, the determination unit 21 determines that the weather condition is bad weather. I do. In such a case, the determination unit 21 further determines the type of bad weather, for example, based on the attached matter attached to the lens of the camera 10.

すなわち、判定部21は、カメラ10の画像に基づいてレンズに雨滴が付着していた場合、かかる悪天候は雨であると判定する。また、判定部21は、カメラ10の画像に基づいてカメラ10のレンズが雪埋もれであることを検出した場合、悪天候は雪であると判定する。そして、判定部21は、レンズに付着物が付着していない、または、霧状の水滴が付着していた場合、悪天候が濃霧であると判定する。   That is, when raindrops adhere to the lens based on the image of the camera 10, the determination unit 21 determines that the bad weather is rain. In addition, when the determination unit 21 detects that the lens of the camera 10 is buried in snow based on the image of the camera 10, the determination unit 21 determines that the bad weather is snow. Then, the determination unit 21 determines that the bad weather is dense fog when no attached matter is attached to the lens or when mist-like water droplets are attached.

なお、判定部21は、カメラ10、レーダ装置11およびLiDAR12それぞれで同一の物標が検出された場合、天候状況が晴れであると判定する。このように、物標の検出結果に基づいて天候状況を判定することで、精度良く天候を検出することができる。   When the same target is detected by each of the camera 10, the radar device 11, and the LiDAR 12, the determination unit 21 determines that the weather is fine. As described above, by determining the weather condition based on the detection result of the target, the weather can be detected with high accuracy.

また、判定部21は、物標として例えば、白線等の車両Cが走行する道路を区画する区画線の検出結果に基づいて天候状況を判定することができる。かかる点について、図4を用いて説明する。   In addition, the determination unit 21 can determine the weather condition based on a detection result of a marking line that separates a road on which the vehicle C travels, such as a white line, as a target. This will be described with reference to FIG.

図4は、判定部21による白線検出を用いた天候状況判定の処理内容を示す図である。図4では、車両Cが直進走行(操舵角が略ゼロ)する道路の左右を区画する実線の区画線Lを示している。なお、区画線Lは、実線に限らず、破線等の断続的な区画線であってもよい。また、区画線Lは、白線であってもよく、黄線であってもよい。また、図4では、区画線Lの白線(あるいは黄線)の劣化度合いが等しく、区画線Lのかすれや汚れは同一であることとする。   FIG. 4 is a diagram showing the processing content of the weather situation determination using the white line detection by the determination unit 21. FIG. 4 shows a solid lane marking L that divides the left and right sides of the road on which the vehicle C travels straight (the steering angle is substantially zero). The dividing line L is not limited to a solid line, and may be an intermittent dividing line such as a broken line. Further, the division line L may be a white line or a yellow line. In FIG. 4, it is assumed that the degree of deterioration of the white lines (or yellow lines) of the division lines L is equal, and the fading and dirt of the division lines L are the same.

なお、区画線Lの存在は、各センサの検知データに基づく画像認識処理や、ナビゲーション装置の地図データ(地図データに含まれる区画線データ)と自車位置データによる区画線位置判定処理等により判定できる。   The presence of the lane marking L is determined by image recognition processing based on the detection data of each sensor, lane marking position determination processing based on the map data (lane marking data included in the map data) of the navigation device, and the vehicle position data. it can.

図4に示すように、判定部21は、まず、複数のセンサそれぞれで検出された区画線Lの検出結果を取得する。つづいて、判定部21は、複数のセンサそれぞれで検出された区画線Lに基づいて天候状況を判定する。   As illustrated in FIG. 4, the determination unit 21 first obtains a detection result of the division line L detected by each of the plurality of sensors. Subsequently, the determination unit 21 determines the weather condition based on the lane marking L detected by each of the plurality of sensors.

具体的には、図4に示すように、判定部21は、複数のセンサそれぞれについて、車両Cから所定距離以上である遠距離に存在する区画線Lと、車両Cから所定距離未満である近距離に存在する区画線Lとの検出結果を比較した結果に基づいて天候を検出する。   Specifically, as illustrated in FIG. 4, the determination unit 21 determines, for each of the plurality of sensors, a demarcation line L existing at a long distance that is a predetermined distance or more from the vehicle C, and a near line L that is less than a predetermined distance from the vehicle C The weather is detected based on the result of comparing the detection result with the lane marking L existing at a distance.

例えば、判定部21は、カメラ10およびLiDAR12については近距離の区画線Lのみ検出、あるいは、遠距離の区画線Lの検出精度が所定の閾値以下で著しく低い、一方で、レーダ装置11については近距離および遠距離双方の区画線Lが検出された場合、天候状況が濃霧であると判定する。これは、濃霧が発生した場合、遠距離の視認性が低下することを利用した判定方法である。このような判定方法により、濃霧を精度良く判定することができる。   For example, the determination unit 21 detects only the short-distance lane L for the camera 10 and the LiDAR 12, or the detection accuracy of the long-distance lane L is significantly lower than a predetermined threshold value. If both the short and long distance lane markings L are detected, it is determined that the weather condition is dense fog. This is a determination method utilizing the fact that the visibility at a long distance decreases when dense fog occurs. By such a determination method, dense fog can be accurately determined.

なお、区画線Lの検出精度は、区画線の画像処理で得られるエッジ(コントラストが急変する部分(物体境界における画像の区切れ部分))の連続性(区画線存在位置におけるエッジ直線の長さ:直線路の区画線の場合、精度が高いと長い直線となり、精度が低いと細かく分断された直線となる)やエッジ強度(コントラスト強度)の変化(直線路の区画線の場合、精度が高いとエッジ強度が高く安定した直線となり、精度が低いとエッジ強度が低く不安定な直線となる)、等により検出できる。   The detection accuracy of the lane marking L is determined by the continuity of the edge (part where the contrast changes rapidly (part of the image at the object boundary)) obtained by the image processing of the lane marking (the length of the edge straight line at the lane marking existing position) : In the case of a lane marking on a straight road, a high accuracy results in a long straight line, and a low accuracy results in a finely divided straight line) and changes in edge intensity (contrast intensity) (in the case of a lane marking on a straight road, high accuracy) And a straight line having a high edge strength and a stable line, and a low accuracy results in an unstable straight line having a low edge strength).

また、例えば、判定部21は、カメラ10およびLiDAR12について近距離の区画線Lの認識精度よりも遠距離の区画線Lの認識精度が低く、一方で、レーダ装置11について近距離および遠距離双方の区画線Lの認識精度が同程度である場合、天候状況が雨であると判定する。これは、雨が降っている場合、濃霧のように遠距離の区画線Lが検出できない状況とは異なり、遠距離の区画線Lについてもある程度は検出できることを利用した判定方法である。このような判定方法により、雨を精度良く検出することができる。   In addition, for example, the determination unit 21 recognizes that the recognition accuracy of the long-distance lane L is lower than the recognition accuracy of the short-distance lane L for the camera 10 and the LiDAR 12, while the short distance and the long distance for the radar device 11 are both low. When the recognition accuracy of the lane marking L is substantially the same, it is determined that the weather condition is rain. This is a determination method using the fact that, when it is raining, it is not possible to detect a long-distance lane L as in the case of dense fog, and the long-distance lane L can be detected to some extent. By such a determination method, rain can be detected with high accuracy.

また、例えば、判定部21は、カメラ10について近距離および遠距離双方の区画線Lが検出されず、レーダ装置11およびLiDAR12について近距離および遠距離双方の区画線Lが検出された場合、天候状況は晴れでかつ逆光である、あるいは夜であることを判定する。なお、晴れの逆光か夜かは、時刻情報を取得することで判別可能である。これは、逆光や夜では、カメラ10の画像が白または黒の画像となってしまい、物標を検出できないことを利用した判定方法である。これにより、晴れの逆光および夜を精度良く検出することができる。   Further, for example, when the lane markings L at both the short distance and the long distance are not detected for the camera 10 and the lane markings L both at the short distance and the long distance are detected for the radar device 11 and the LiDAR 12, the determination unit 21 may determine whether the weather The situation is determined to be sunny and backlit, or night. It should be noted that it is possible to determine whether it is sunny backlight or night by acquiring time information. This is a determination method using the fact that the image of the camera 10 becomes a white or black image in a backlight or at night and a target cannot be detected. Thereby, it is possible to accurately detect fine backlight and night.

このような天候判別は各センサの出力状態と天候の関係を示すテーブルを用いた処理により実現することができ、また天候の判別種別は提供する天候情報種別や天候情報を用いる処理装置等に応じて設定すれば良い。   Such weather determination can be realized by processing using a table indicating the relationship between the output state of each sensor and the weather, and the type of weather determination depends on the type of weather information to be provided and the processing device using the weather information. And set it.

なお、判定部21は、例えば、夜の場合には、車両Cのライトが点灯するため、かかるライトによる影響を加味して上記の判定方法を実行することが好ましい。このように、複数のセンサそれぞれの検出結果について、近距離の区画線Lと遠距離の区画線Lとの検出結果を比較することで、天候状況を精度良く判定することができる。   Note that, for example, in the case of night, the light of the vehicle C is turned on in the night, so it is preferable to execute the above-described determination method in consideration of the influence of the light. In this way, by comparing the detection results of the plurality of sensors with the detection results of the short-distance lane L and the long-distance lane L, it is possible to accurately determine the weather condition.

また、図4では、区画線Lの検出結果を2種類(近距離および遠距離)に分けて比較したが、所定距離毎に分ける、つまり、検出結果を3種類以上に分けて比較してもよい。   Further, in FIG. 4, the detection result of the division line L is divided into two types (short distance and long distance) and compared. However, the detection result is divided into predetermined distances, that is, the detection result is divided into three or more types and compared. Good.

図2に戻って決定部22について説明する。決定部22は、判定部21によって判定された天候状況に基づいて物標検出装置100の物標検出処理における複数のセンサそれぞれに割り当てる重みを決定する。   Returning to FIG. 2, the determining unit 22 will be described. The determining unit 22 determines the weight to be assigned to each of the plurality of sensors in the target detection process of the target detection device 100 based on the weather condition determined by the determination unit 21.

例えば、決定部22は、判定部21によって濃霧が判定された場合、物標検出処理におけるカメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、濃霧が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。   For example, when the determination unit 21 determines that the dense fog is determined, the determination unit 22 sets the weight of the detection result of the camera 10 and the LiDAR 12 in the target detection process to be smaller than the weight of the detection result of the radar device 11. Thus, when dense fog occurs, target detection processing is performed with emphasis on the detection result of the radar device 11 over the detection results of the camera 10 and the LiDAR 12, so that it is possible to prevent the detection accuracy of the target from deteriorating.

また、決定部22は、判定部21によって雨または雪が判定された場合、カメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、雨または雪が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。   Further, when rain or snow is determined by the determination unit 21, the determination unit 22 makes the weight of the detection result of the camera 10 and the LiDAR 12 lighter than the weight of the detection result of the radar device 11. Thus, when rain or snow occurs, the target detection processing is performed with more emphasis on the detection result of the radar device 11 than the detection results of the camera 10 and the LiDAR 12, so that the detection accuracy of the target can be prevented from being reduced.

決定部22は、決定した各センサの重みに関する情報を重み情報31として記憶部3に記憶するとともに、かかる重みに関する情報を提供部23へ出力する。   The determination unit 22 stores the information on the determined weight of each sensor as the weight information 31 in the storage unit 3 and outputs the information on the weight to the providing unit 23.

提供部23は、判定部21によって検出された天候状況に関する天候状況情報天候状況情報を外部へ提供する。   The providing unit 23 provides the weather condition information related to the weather condition detected by the determination unit 21 to the outside.

例えば、提供部23は、車両Cの周辺に存在する周辺車両OC1へ天候状況情報を提供する。具体的には、提供部23は、車両Cがいる位置(悪天候発生位置)をこれから通過する予定の周辺車両OC1へ天候状況情報を提供する。   For example, the providing unit 23 provides the weather situation information to the surrounding vehicle OC1 existing around the vehicle C. Specifically, the providing unit 23 provides the weather condition information to the peripheral vehicle OC1 that is going to pass the position where the vehicle C is present (the bad weather occurrence position).

なお、かかる場合の天候状況情報は、周辺車両OC1が物標検出装置101を搭載しているか否かで内容を変えることが好ましい。具体的には、周辺車両OC1が物標検出装置101を搭載している場合、提供部23は、決定部22によって決定された重み情報31を含む天候状況情報を周辺車両OC1へ提供する。   In addition, it is preferable that the content of the weather condition information in such a case is changed depending on whether or not the surrounding vehicle OC1 is equipped with the target detection device 101. Specifically, when the surrounding vehicle OC1 is equipped with the target detection device 101, the providing unit 23 provides the surrounding vehicle OC1 with weather condition information including the weight information 31 determined by the determining unit 22.

これにより、周辺車両OC1の物標検出装置101は、予め濃霧に対応した重みに設定変更できるため、濃霧進入時において物標の検出精度が低下することを防止できる。   Thus, the target detection device 101 of the surrounding vehicle OC1 can change the setting in advance to a weight corresponding to the dense fog, so that the detection accuracy of the target when the dense fog enters can be prevented from lowering.

なお、提供部23は、周辺車両OC1へ重み情報31を提供する場合に限らず、例えば、悪天候を検出した際の各センサの検出結果をそのまま天候状況情報として提供してもよい。かかる場合、周辺車両OC1の物標検出装置101は、天候状況情報に含まれる各センサの検出結果に基づいて、自己のセンサそれぞれに割り当てる重みを決定することができる。   Note that the providing unit 23 is not limited to providing the weight information 31 to the surrounding vehicle OC1, but may provide the detection result of each sensor when bad weather is detected as it is as weather condition information. In such a case, the target detection device 101 of the surrounding vehicle OC1 can determine the weight to be assigned to each of its own sensors based on the detection result of each sensor included in the weather condition information.

一方、周辺車両OC1が物標検出装置101を搭載していない場合、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、天候状況情報を受信した周辺車両OC1の運転者は、予め悪天候に対する準備を行うことができるため、悪天候の発生に戸惑うことなく対応することができる。   On the other hand, when the surrounding vehicle OC1 is not equipped with the target detection device 101, the providing unit 23 sets the weather condition information including the type of weather (for example, heavy fog, rain, snow, and the like), the position of the vehicle C, the current time, and the like. I will provide a. Thus, the driver of the surrounding vehicle OC1 that has received the weather condition information can prepare for bad weather in advance, and can cope with the occurrence of bad weather without being perplexed.

また、提供部23は、周辺車両OC1以外に、例えば、車両Cが走行する道路を管理する道路管理者が扱う道路管理端末(道路管理サーバSV)へ天候状況情報を提供してもよい。具体的には、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に悪天候に対する注意喚起の表示を行うことができる。   In addition, the providing unit 23 may provide the weather condition information to a road management terminal (road management server SV) handled by a road manager who manages the road on which the vehicle C runs, in addition to the surrounding vehicle OC1. Specifically, the providing unit 23 provides weather condition information including the type of weather (for example, dense fog, rain, snow, and the like), the position of the vehicle C, the current time, and the like. Thus, for example, the road manager can display an alert for bad weather on an electronic bulletin board or the like installed behind the vehicle C.

次に、図5を用いて、実施形態に係る提供装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る提供装置1が実行する処理の処理手順を示すフローチャートである。   Next, a processing procedure of a process executed by the providing device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating a processing procedure of a process executed by the providing device 1 according to the embodiment.

図5に示すように、まず、取得部20は、物標検出装置100から周囲の状況を検出する複数のセンサの検出結果を取得する(ステップS101)。つづいて、判定部21は、取得した検出結果に基づいて天候状況を判定する(ステップS102)。   As shown in FIG. 5, first, the acquisition unit 20 acquires detection results of a plurality of sensors that detect a surrounding situation from the target detection device 100 (Step S101). Subsequently, the determination unit 21 determines the weather condition based on the obtained detection result (Step S102).

つづいて、提供部23は、判定部21によって判定された天候状況が悪天候であるか否かを判定する(ステップS103)。提供部23は、判定部21によって判定された天候状況が悪天候である場合(ステップS103,Yes)、周辺車両OC1へ天候状況情報の提供を行うか否かを判定する(ステップS104)。   Subsequently, the providing unit 23 determines whether the weather condition determined by the determining unit 21 is bad weather (Step S103). When the weather condition determined by the determination unit 21 is bad weather (Step S103, Yes), the providing unit 23 determines whether to provide the weather condition information to the surrounding vehicle OC1 (Step S104).

提供部23は、周辺車両OC1へ天候状況情報の提供を行う場合(ステップS104,Yes)、決定部22によって決定された各センサの重みに関する重み情報31を含む天候状況情報を周辺車両OC1へ提供する(ステップS105)。つづいて、提供部23は、天候の種別や、車両Cの位置、現在時刻等を含む天候状況情報を道路管理サーバSVへ提供し(ステップS106)、処理を終了する。   When providing the weather condition information to the surrounding vehicle OC1 (Step S104, Yes), the providing unit 23 provides the weather condition information including the weight information 31 regarding the weight of each sensor determined by the determining unit 22 to the surrounding vehicle OC1. (Step S105). Next, the providing unit 23 provides the road management server SV with weather condition information including the type of weather, the position of the vehicle C, the current time, and the like (step S106), and ends the process.

一方、ステップS103において、提供部23は、判定部21によって判定された天候状況が悪天候ではない場合(ステップS103,No)、すなわち天候が晴れである場合、外部へ天候状況情報の提供を行わず、処理を終了する。   On the other hand, in step S103, the providing unit 23 does not provide the weather condition information to the outside when the weather condition determined by the determination unit 21 is not bad weather (No in step S103), that is, when the weather is fine. , And the process ends.

また、ステップS104において、提供部23は、周辺車両OC1へ天候状況情報の提供を行わない場合(ステップS104,No)、ステップS106へ移行する。   Further, in step S104, when the providing unit 23 does not provide the weather condition information to the surrounding vehicle OC1 (step S104, No), the process proceeds to step S106.

上述してきたように、実施形態に係る提供装置1は、取得部20と、判定部21と、提供部23とを備える。取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部21は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部23は、判定部21によって判定された天候状況に関する天候状況情報を外部へ提供する。これにより、高精度に天候を検出するとともに、周囲に注意を促すことができる。   As described above, the providing device 1 according to the embodiment includes the obtaining unit 20, the determining unit 21, and the providing unit 23. The acquisition unit 20 acquires detection results of a plurality of sensors that detect a surrounding situation. The determination unit 21 determines the weather condition based on the detection results of the plurality of sensors acquired by the acquisition unit 20. The providing unit 23 provides weather condition information regarding the weather condition determined by the determining unit 21 to the outside. As a result, the weather can be detected with high accuracy, and the surroundings can be alerted.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. For this reason, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and equivalents thereof.

1 提供装置
2 制御部
3 記憶部
10 カメラ
11 レーダ装置
12 LiDAR
20 取得部
21 判定部
22 決定部
23 提供部
31 重み情報
100、101 物標検出装置
C 車両
L 区画線
OC1、OC2 周辺車両
DESCRIPTION OF SYMBOLS 1 Provision apparatus 2 Control part 3 Storage part 10 Camera 11 Radar apparatus 12 LiDAR
Reference Signs List 20 acquisition unit 21 determination unit 22 determination unit 23 providing unit 31 weight information 100, 101 target detection device C vehicle L division line OC1, OC2 peripheral vehicles

Claims (7)

周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得部と、
前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、
前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と
を備えることを特徴とする提供装置。
A sensor detection result acquisition unit that acquires detection results of a plurality of sensors that detect a surrounding situation,
A weather condition determination unit that determines a weather condition based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit,
A providing unit that externally provides weather condition information that is information on the weather condition determined by the weather condition determining unit.
前記複数のセンサは、
周囲に存在する物標を検出するセンサであって、
前記天候状況判定部は、
前記複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定すること
を特徴とする請求項1に記載の提供装置。
The plurality of sensors,
A sensor that detects a target existing in the vicinity,
The weather condition determination unit includes:
The providing device according to claim 1, wherein the weather condition is determined based on a detection result of the target detected by each of the plurality of sensors.
車両に搭載される提供装置であって、
前記複数のセンサは、
車両が走行する道路を区画する区画線を物標として検出し、
前記天候状況判定部は、
前記複数のセンサそれぞれで検出された区画線に基づいて天候状況を判定すること
を特徴とする請求項2に記載の提供装置。
A providing device mounted on a vehicle,
The plurality of sensors,
The lane marking that separates the road on which the vehicle travels is detected as a target,
The weather condition determination unit includes:
The providing device according to claim 2, wherein a weather condition is determined based on a lane marking detected by each of the plurality of sensors.
前記天候状況判定部は、
前記複数のセンサそれぞれについて、前記車両から所定距離以上である遠距離に存在する前記区画線と、前記所定距離未満である近距離に存在する前記区画線との検出結果を比較した結果に基づいて天候状況を判定すること
を特徴とする請求項3に記載の提供装置。
The weather condition determination unit includes:
For each of the plurality of sensors, based on a result of comparing the detection result of the lane marking present at a long distance that is equal to or greater than the predetermined distance from the vehicle and the lane marking present at a short distance that is less than the predetermined distance. The providing device according to claim 3, wherein a weather condition is determined.
前記提供部は、
車両の周辺に存在する周辺車両搭載の車載機、または、車両が走行する道路を管理する道路管理端末へ天候状況情報を提供すること
を特徴とする請求項3または4に記載の提供装置。
The providing unit,
The provision device according to claim 3 or 4, wherein weather information is provided to an in-vehicle device mounted on a peripheral vehicle existing around the vehicle or a road management terminal that manages a road on which the vehicle runs.
前記提供部は、
各センサの検出結果に付与する重みに関する重み情報を含む天候状況情報を周辺車両へ提供すること
を特徴とする請求項5に記載の提供装置。
The providing unit,
The providing device according to claim 5, wherein weather condition information including weight information relating to a weight given to a detection result of each sensor is provided to a surrounding vehicle.
周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得工程と、
前記センサ検出結果取得工程が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定工程と、
前記天候状況判定工程によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供工程と
を含むことを特徴とする提供方法。
A sensor detection result acquisition step of acquiring detection results of a plurality of sensors for detecting a surrounding situation,
A weather condition determination step of determining a weather condition based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition step,
Providing a weather condition information, which is information on the weather condition determined in the weather condition determination step, to the outside.
JP2018183949A 2018-09-28 2018-09-28 Providing device Active JP7210208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018183949A JP7210208B2 (en) 2018-09-28 2018-09-28 Providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018183949A JP7210208B2 (en) 2018-09-28 2018-09-28 Providing device

Publications (2)

Publication Number Publication Date
JP2020052909A true JP2020052909A (en) 2020-04-02
JP7210208B2 JP7210208B2 (en) 2023-01-23

Family

ID=69997404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018183949A Active JP7210208B2 (en) 2018-09-28 2018-09-28 Providing device

Country Status (1)

Country Link
JP (1) JP7210208B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210124037A1 (en) * 2019-10-25 2021-04-29 Hyundai Mobis Co., Ltd. Automotive sensor integration module
JP2022014729A (en) * 2020-07-07 2022-01-20 株式会社デンソー Adverse environment determination device, and adverse environment determination method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11223674A (en) * 1998-02-06 1999-08-17 Honda Motor Co Ltd Weather condition detection system
JP2005174059A (en) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd Navigation information provision system
JP2007057331A (en) * 2005-08-23 2007-03-08 Denso Corp In-vehicle system for determining fog
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2008070979A (en) * 2006-09-12 2008-03-27 Denso Corp Onboard fog decision unit
WO2010029707A2 (en) * 2008-09-12 2010-03-18 株式会社 東芝 Image projection system and image projection method
JP2016522886A (en) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド Method and system for detecting weather conditions using in-vehicle sensors
JP2017062539A (en) * 2015-09-24 2017-03-30 三菱自動車工業株式会社 Travel control device
JP2019005904A (en) * 2017-06-20 2019-01-17 凸版印刷株式会社 Film for packaging medium and packaging medium and package using the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11223674A (en) * 1998-02-06 1999-08-17 Honda Motor Co Ltd Weather condition detection system
JP2005174059A (en) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd Navigation information provision system
JP2007057331A (en) * 2005-08-23 2007-03-08 Denso Corp In-vehicle system for determining fog
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2008070979A (en) * 2006-09-12 2008-03-27 Denso Corp Onboard fog decision unit
WO2010029707A2 (en) * 2008-09-12 2010-03-18 株式会社 東芝 Image projection system and image projection method
JP2016522886A (en) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド Method and system for detecting weather conditions using in-vehicle sensors
JP2017062539A (en) * 2015-09-24 2017-03-30 三菱自動車工業株式会社 Travel control device
JP2019005904A (en) * 2017-06-20 2019-01-17 凸版印刷株式会社 Film for packaging medium and packaging medium and package using the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210124037A1 (en) * 2019-10-25 2021-04-29 Hyundai Mobis Co., Ltd. Automotive sensor integration module
US11768918B2 (en) * 2019-10-25 2023-09-26 Hyundai Mobis Co., Ltd. Automotive sensor integration module
JP2022014729A (en) * 2020-07-07 2022-01-20 株式会社デンソー Adverse environment determination device, and adverse environment determination method

Also Published As

Publication number Publication date
JP7210208B2 (en) 2023-01-23

Similar Documents

Publication Publication Date Title
US9827956B2 (en) Method and device for detecting a braking situation
US10717384B2 (en) System and method for projecting trajectory path of an autonomous vehicle onto a road surface
US8988276B2 (en) Vehicle surroundings monitoring device
US11738747B2 (en) Server device and vehicle
US10229505B2 (en) Motion determination system and method thereof
JP2011118482A (en) In-vehicle device and recognition support system
CN106019283A (en) Automobile blind area detecting method, device and system
US20200143175A1 (en) Scenario detection apparatus and method
US10132642B2 (en) Unit setting apparatus and unit setting method
JP2019212188A (en) Road sign recognition device
JP6699344B2 (en) Reverse vehicle detection device, reverse vehicle detection method
US10764510B2 (en) Image conversion device
JP2021018465A (en) Object recognition device
JP2019211416A (en) Driving assistance device
JP2019146012A (en) Imaging apparatus
WO2019216386A1 (en) Vehicle control device and vehicle
KR102298869B1 (en) Apparatus for preventing car collision and method thereof
JP7210208B2 (en) Providing device
US20200393264A1 (en) Information display device, control method, and storage medium
US11435191B2 (en) Method and device for determining a highly precise position and for operating an automated vehicle
JP6548147B2 (en) Vehicle control device
CN107886036B (en) Vehicle control method and device and vehicle
JP2025069401A (en) Observation device
US20240270271A1 (en) Information processing device
CN111028544A (en) Pedestrian early warning system with V2V technology and vehicle-mounted multi-sensor integration

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211018

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250