JP7154459B1 - sensor system - Google Patents
sensor system Download PDFInfo
- Publication number
- JP7154459B1 JP7154459B1 JP2022522587A JP2022522587A JP7154459B1 JP 7154459 B1 JP7154459 B1 JP 7154459B1 JP 2022522587 A JP2022522587 A JP 2022522587A JP 2022522587 A JP2022522587 A JP 2022522587A JP 7154459 B1 JP7154459 B1 JP 7154459B1
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- parameter
- physical quantity
- detected
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
センサシステム(SS)は、第1の物理量(BR1)を検出すべき第1のセンサ(12A)であって前記第1のセンサ(12A)の動作を規定する第1のパラメータ(SP1)の設定を受けるべき前記第1のセンサ(12A)と、第2の物理量(BR2)を検出すべき第2のセンサ(12B)であって前記第2のセンサ(12B)の動作を規定する第2のパラメータ(SP2)の設定を受けるべき前記第2のセンサ(12B)と、前記検出された第2の物理量(BR2)に基づき、予め定められたテーブル(TB)を参照することにより、前記第1のセンサ(12A)に前記第1のパラメータ(SP1)を設定し、かつ、前記検出された第1の物理量(BR1)に基づき、前記予め定められたテーブル(TB)を参照することにより、前記第2のセンサ(12B)に前記第2のパラメータ(SP2)を設定する連携処理部(14)と、を含む。A sensor system (SS) is a first sensor (12A) to detect a first physical quantity (BR1) and sets a first parameter (SP1) that defines the operation of the first sensor (12A). The first sensor (12A) to receive and the second sensor (12B) to detect the second physical quantity (BR2) that defines the operation of the second sensor (12B) By referring to a predetermined table (TB) based on the second sensor (12B) to receive setting of the parameter (SP2) and the detected second physical quantity (BR2), the first By setting the first parameter (SP1) to the sensor (12A) of and referring to the predetermined table (TB) based on the detected first physical quantity (BR1), the and a cooperation processing unit (14) for setting the second parameter (SP2) to the second sensor (12B).
Description
本開示は、センサシステムに関する。 The present disclosure relates to sensor systems.
本開示に係るセンサシステムと複数のセンサを有する点で共通する、特許文献1に記載の移動物体検出装置は、移動物体の個数、位置、移動方向を精度良く推定することを目的として、測距センサにより測定された測距情報、及び映像取得センサにより撮影された映像情報を用いる。 The moving object detection device described in Patent Document 1, which has a plurality of sensors in common with the sensor system according to the present disclosure, aims at accurately estimating the number, positions, and moving directions of moving objects. Ranging information measured by a sensor and image information captured by an image acquisition sensor are used.
しかしながら、上記した移動物体検出装置では、仮に、例えば、上記した測距センサの動作を規定する測距センサ用パラメータを設定することを、前記測距センサにより測定された測距情報に基づき行おうとしても、前記測距センサが前記測距情報を測定することができないときには、前記測距センサ用パラメータを設定することができなかった。 However, in the moving object detection device described above, for example, setting the ranging sensor parameters that define the operation of the ranging sensor is performed based on the ranging information measured by the ranging sensor. However, when the ranging sensor cannot measure the ranging information, the parameters for the ranging sensor cannot be set.
本開示の目的は、センサがデータを検出することができなくても、前記センサに、前記センサの動作を規定するためのパラメータを設定することができるセンサシステムを提供することにある。 SUMMARY OF THE INVENTION It is an object of the present disclosure to provide a sensor system in which parameters for defining the operation of the sensor can be set to the sensor even if the sensor cannot detect data.
上記した課題を解決すべく、本開示に係るセンサシステムは、第1の物理量を検出すべき第1のセンサであって第1のセンサの動作を規定する第1のパラメータの設定を受けるべき第1のセンサと、第2の物理量を検出すべき第2のセンサであって第2のセンサの動作を規定する第2のパラメータの設定を受けるべき第2のセンサと、検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、第1のセンサに第1のパラメータを設定し、かつ、検出された第1の物理量に基づき、予め定められたテーブルを参照することにより、第2のセンサに第2のパラメータを設定する連携処理部と、を含み、判断部は、水溜まりでの水紋の個数を計数することにより、降雨量及び降雪量を算出する。 In order to solve the above-described problems, a sensor system according to the present disclosure is a first sensor that should detect a first physical quantity and should receive setting of a first parameter that defines the operation of the first sensor. 1 sensor, a second sensor that is to detect a second physical quantity and is to receive the setting of a second parameter that defines the operation of the second sensor, and the detected second sensor By referring to a predetermined table based on the physical quantity, a first parameter is set in the first sensor, and based on the detected first physical quantity, by referring to a predetermined table , and a cooperative processing unit that sets the second parameter to the second sensor, and the determination unit calculates the amount of rainfall and the amount of snowfall by counting the number of water patterns in the puddle.
本開示に係るセンサシステムによれば、前記路面の状況が判断された下で、前記第1のセンサが前記第1の物理量を検出することができなくても、前記第1のセンサに前記第1のパラメータを設定することができ、同様に、前記第2のセンサが前記第2の物理量を検出することができなくても、前記第2のセンサに前記第2のパラメータを設定することができる。 According to the sensor system according to the present disclosure, even if the first sensor cannot detect the first physical quantity under the condition of the road surface, the first sensor detects the first physical quantity. 1 parameter can be set, and similarly, the second parameter can be set for the second sensor even if the second sensor cannot detect the second physical quantity. can.
本開示に係るセンサシステムの実施形態について説明する。 An embodiment of a sensor system according to the present disclosure will be described.
実施形態1.
〈実施形態1〉
実施形態1のセンサシステムについて説明する。Embodiment 1.
<Embodiment 1>
A sensor system according to Embodiment 1 will be described.
〈実施形態1の機能〉
図1は、実施形態1のセンサシステムSSの機能ブロック図である。実施形態1のセンサシステムSSの機能について、図1の機能ブロック図を参照して説明する。<Functions of Embodiment 1>
FIG. 1 is a functional block diagram of the sensor system SS of Embodiment 1. FIG. Functions of the sensor system SS of Embodiment 1 will be described with reference to the functional block diagram of FIG.
実施形態1のセンサシステムSSは、例えば、走行する車両を検出すべく、図1に示されるように、第1のセンサパラメータ制御部11Aと、第2のセンサパラメータ制御部11Bと、第1のセンサ12Aと、第2のセンサ12Bと、第1のセンサ処理部13Aと、第2のセンサ処理部13Bと、連携処理部14と、天候/環境判断部15とを含む。
The sensor system SS of Embodiment 1 includes, for example, a first sensor
第1のセンサ12Aは、「第1のセンサ」に対応し、第2のセンサ12Bは、「第2のセンサ」に対応し、連携処理部14は、「連携処理部」に対応する。
The
第1のセンサパラメータ制御部11Aは、第1のセンサ12A(例えば、カメラ)に、連携処理部14から出力され、かつ、第1のセンサ12Aの動作を規定するための第1のセンサパラメータSP1(例えば、フレームレート)を設定する。
The first sensor
同様に、第2のセンサパラメータ制御部11Bは、第2のセンサ12B(例えば、レーザレーダ)に、連携処理部14から出力され、かつ、第2のセンサ12Bの動作を規定するための第2のセンサパラメータSP2(例えば、受信感度)を設定する。
Similarly, the second sensor
第1のセンサパラメータSP1は、「第1のセンサパラメータ」に対応し、第2のセンサパラメータSP2は、「第2のセンサパラメータ」に対応する。 The first sensor parameter SP1 corresponds to the "first sensor parameter" and the second sensor parameter SP2 corresponds to the "second sensor parameter".
以下では、説明及び理解を容易にすべく、1つの符号を用いて、複数の名称を総称することがあり、例えば、符号「SP」により、第1のセンサパラメータSP1及び第2のセンサパラメータSP2の両者を「センサパラメータ」として総称することがある。 In the following, for ease of explanation and understanding, a single symbol may be used to collectively refer to a plurality of names. are collectively referred to as "sensor parameters".
第1のセンサ12Aは、第1のセンサパラメータ制御部11Aにより設定された第1のセンサパラメータSP1に従って、第1の物理量BR1(例えば、画像)を取得する。第1のセンサ12Aは、上記したように、例えば、カメラである。以下では、文言「物理量」は、例えば、文言「計測データ」と同義で用いられる。
The
第2のセンサ12Bは、第2のセンサパラメータ制御部11Bにより設定された第2のセンサパラメータSP2に従って、第2の物理量BR2(例えば、距離、反射強度)を取得する。第2のセンサ12Bは、上記したように、例えば、レーザレーダである。
The
第1のセンサ処理部13Aは、第1のセンサ12Aにより検出された第1の物理量BR1をそのまま転送し、または、第1の物理量BR1を他の物理量br1(例えば、輝度)に変換した上で出力する。
The first
同様に、第2のセンサ処理部13Bは、第2のセンサ12Bにより検出された第2の物理量BR2をそのまま転送し、または、第2の物理量BR2を他の物理量br2(例えば、位置)に変換した上で出力する。
Similarly, the second
連携処理部14は、第1のセンサ12Aにより検出された第1の物理量BR1(または、他の物理量br1)の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を、第2のセンサパラメータ制御部11Bへ出力する。
The
同様に、連携処理部14は、第2のセンサ12Bにより検出された第2の物理量BR2(または、他の物理量br2)の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を、第1のセンサパラメータ制御部11Aへ出力する。
Similarly, the
天候/環境判断部15は、天候及び環境の状況、例えば、路面の状況(乾燥及び湿潤、水溜まりの有無、水紋の数、雨粒の数、降水量、降雪量)を検出し、または算出する。
The weather/
天候/環境判断部15は、例えば、第1のセンサ12A(カメラ)により取得される画像における、路面を表す画素の輝度と空を表す輝度とを比較し、その結果、輝度の比率が高ければ、路面が乾燥していると判断し、他方で、輝度の比率が低ければ、路面が湿潤であると判断する。ここで、「輝度の比率」とは、路面部分の画素と空の画素との比率である。これにより、入射する太陽光レベルを規格化する。
The weather/
天候/環境判断部15は、例えば、第2のセンサ12B(レーザレーダ)により取得される、乾燥時の路面からの信号の信号対雑音強度比(以下、「SN比」という。)、即ち基準のSN比と、降雨時(湿潤時)に路面反射率の低下に起因して低下する、前記路面からの信号のSN比とを比較することにより、路面が乾燥しているか湿潤であるかを検出する。
The weather/
天候/環境判断部15は、第1のセンサ12A(カメラ)により取得された画像から、水溜まりでの水紋の個数及び路面で弾ける雨粒の個数を計数することにより、降雨量及び降雪量を算出する。
The weather/
天候/環境判断部15は、第2のセンサ12B(レーザレーダ)により取得された三次元の画像データから、空間中で離散的に検出される雨粒からの反射信号の強度及び個数を計数することにより、降雨量及び降雪量を算出する。
The weather/
天候/環境判断部15は、第1のセンサ12A(カメラ)により取得された画像の輝度に基づき、昼と夜とを峻別する。
The weather/
天候/環境判断部15は、上記したことに代えて、雨量計を用いて降水量を測定し、視程計を用いて雨粒を測定し、路面センサを用いて路面の状態を把握してもよい。
Instead of the above, the weather/
図2は、実施形態1のセンサシステムSSのハードウェア構成を示す。実施形態1のセンサシステムSSのハードウェア構成について、図2を参照して説明する。 FIG. 2 shows the hardware configuration of the sensor system SS of the first embodiment. A hardware configuration of the sensor system SS of Embodiment 1 will be described with reference to FIG.
実施形態1のセンサシステムSSは、上述した機能を果たすべく、図2に示されるように、プロセッサPCと、メモリMMと、記憶媒体KBと、を含み、必要に応じて、入力部NYと、出力部SYと、更に含む。 The sensor system SS of Embodiment 1 includes a processor PC, a memory MM, and a storage medium KB, as shown in FIG. 2, in order to achieve the functions described above. and an output section SY.
プロセッサPCは、ソフトウェアに従ってハードウェアを動作させる、よく知られたコンピュータの中核である。メモリMMは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)から構成される。記憶媒体KBは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、ROM(Read Only Memory)から構成される。記憶媒体KBは、プログラムPRを記憶する。プログラムPRは、プロセッサPCが実行すべき処理の内容を規定する命令群である。 A processor PC is the core of a familiar computer that runs hardware according to software. The memory MM is composed of, for example, a DRAM (Dynamic Random Access Memory) and an SRAM (Static Random Access Memory). The storage medium KB includes, for example, a hard disk drive (HDD), a solid state drive (SSD), and a ROM (Read Only Memory). A storage medium KB stores a program PR. The program PR is a group of instructions that define the content of processing to be executed by the processor PC.
入力部NYは、例えば、カメラ、マイク、キーボード、タッチパネルから構成される。出力部SYは、例えば、液晶モニター、タッチパネルから構成される。 The input unit NY is composed of, for example, a camera, a microphone, a keyboard, and a touch panel. The output unit SY is composed of, for example, a liquid crystal monitor and a touch panel.
センサシステムSSにおける機能とハードウェア構成との関係については、ハードウェア上で、プロセッサPCが、記憶媒体KBに記憶されたプログラムPRを、メモリMM上で実行すると共に、必要に応じて、入力部NY及び出力部SYの動作を制御することにより、第1のセンサパラメータ制御部11A~天候/環境判断部15の各部の機能を実現する。
Regarding the relationship between the functions and the hardware configuration in the sensor system SS, on the hardware, the processor PC executes the program PR stored in the storage medium KB on the memory MM, and if necessary, the input unit By controlling the operations of NY and the output unit SY, the functions of the first sensor
〈実施形態1の動作〉
図3は、実施形態1のセンサシステムSSの動作を示すフローチャート(その1)である。<Operation of Embodiment 1>
FIG. 3 is a flowchart (Part 1) showing the operation of the sensor system SS of the first embodiment.
図4は、実施形態1のセンサシステムSSの動作を示すフローチャート(その2)である。 FIG. 4 is a flowchart (part 2) showing the operation of the sensor system SS of the first embodiment.
図5は、実施形態1のセンサシステムSSの動作を示すフローチャート(その3)である。 FIG. 5 is a flowchart (part 3) showing the operation of the sensor system SS of the first embodiment.
実施形態1のセンサシステムSSの動作について、図3~図5のフローチャートを参照して説明する。 The operation of the sensor system SS of Embodiment 1 will be described with reference to the flow charts of FIGS. 3 to 5. FIG.
センサシステムSSの動作の前提(予め定められたテーブルTB(図示せず。))として、例えば、晴天(乾燥)かつ夜間のとき、及び、雨天(湿潤)かつ夜間のときにおける第1のセンサ12A(カメラ)のフレームレートは、晴天(乾燥)かつ昼間のとき、及び、雨天(湿潤)かつ昼間のときにおける第1のセンサ12A(カメラ)のフレームレート(標準のフレームレート)より低く、即ち、下がっている。
As a premise of the operation of the sensor system SS (predetermined table TB (not shown)), for example, when the weather is fine (dry) and nighttime, and when the weather is rainy (wet) and nighttime, the
上記とは対照的に、晴天(乾燥)かつ夜間のとき、及び、雨天(湿潤)かつ夜間のときにおける第2のセンサ12B(レーザレーダ)の受信感度は、晴天(乾燥)かつ昼間のとき、及び、雨天(湿潤)かつ昼間のときにおける第2のセンサ12B(レーザレーダ)の受信感度(標準の受信感度)より高く、即ち、上がっている。
In contrast to the above, the reception sensitivity of the
ステップST11:天候/環境判断部15は、上述した天候及び環境の状況を把握する。
Step ST11: The weather/
ステップST12:連携処理部14は、天候/環境判断部15により把握された天候及び環境の状況下で、第2のセンサ12Bにより取得された第2の物理量BR2の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を第1のセンサパラメータ制御部11Aに出力する。連携処理部14は、同様に、第1のセンサ12Aにより取得された第1の物理量BR1の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を第2のセンサパラメータ制御部11Bに出力する。
Step ST12: The
上記取得された第2の物理量BR2の大きさ等と上記第1のセンサパラメータSP1の大きさ等の対応関係、及び、上記取得された第1の物理量BR1の大きさ等と上記第2のセンサパラメータSP2の大きさ等の対応関係は、上記したテーブルTBに記憶されている。 Correspondence relationship between the size of the acquired second physical quantity BR2 and the size of the first sensor parameter SP1, and the size of the acquired first physical quantity BR1 and the second sensor Correspondence relationships such as the magnitude of the parameter SP2 are stored in the table TB described above.
第1のセンサパラメータ制御部11Aは、上記した第1のセンサパラメータSP1を第1のセンサ12Aに設定し、同様に、第2のセンサパラメータ制御部11Bは、上記した第2のセンサパラメータSP2を第2のセンサ12Bに設定する。
The first sensor
第1の物理量BR1及び第2のセンサパラメータSP2の例としては、湿潤である路面上を黒い車が走行しているとき、第1のセンサ12A(カメラ)が撮影した黒い車の明るい部分、例えば、テールランプ(またはヘッドライト。以下同様。)を検出し、前記テールランプの検出(第1の物理量BR1に相当。)に基づき、第2のセンサ12B(レーザレーダ)の走査範囲(第2のセンサパラメータSP2に相当。)を前記検出されたテールランプに合わせるようにし、即ち、周辺を含む範囲に制限し、データの取得回数及びデータ平均化数を増やすことにより、受信感度を改善する。
An example of the first physical quantity BR1 and the second sensor parameter SP2 is a bright part of the black car captured by the
第2の物理量BR2及び第1のセンサパラメータSP1の例としては、背景が白であり、かつ、物体、即ち対象物が白であるとき、第2のセンサ12B(レーザレーダ)により対象物までの距離(第2の物理量BR2に相当。)を検出し、前記距離の検出を契機に、カメラが追尾(第1のセンサパラメータSP1に相当。)を開始する。
As an example of the second physical quantity BR2 and the first sensor parameter SP1, when the background is white and the object, i.e., the target is white, the
ステップST13、14A、14B、15A、15B:晴天(乾燥)かつ夜間、雨天(湿潤)かつ夜間、晴天(乾燥)かつ昼間、または、雨天(湿潤)かつ昼間のいずれであるかに基づき、より平易には、昼間または夜間のいずれであるかに基づき、上記したテーブルTBを参照することにより、第1のセンサパラメータ制御部11Aは、第1のセンサパラメータSP1(フレームレート)を第1のセンサ12A(カメラ)に設定し、同様に、第2のセンサパラメータ制御部11Bは、第2のセンサパラメータSP2(受信感度)を第2のセンサ12B(レーザレーダ)に設定する。
Steps ST13, 14A, 14B, 15A, 15B: Easier based on whether it is sunny (dry) and night, rainy (wet) and night, sunny (dry) and day, or rainy (wet) and day , based on whether it is daytime or nighttime, the first sensor
ステップST16:天候/環境判断部15は、第1のセンサ処理部13Aから出力される第1の物理量BR1等、及び第2のセンサ処理部13Bから出力される第2の物理量BR2に基づき、物体が検知されたか否かを判断する。物体が検知されたと判断されるとき、処理は、ステップST16へ進む。対照的に、物体が検知されないと判断されるとき、処理は、ステップST15に戻る。
Step ST16: The weather/
ステップST17:第1のセンサ12A(カメラ)は、上記の検知された物体の動態を監視する。
Step ST17: The
ステップST18:第2のセンサ12B(レーザレーダ)は、上記の検知された物体の位置を計測し、また、従来知られたと同様にして、速度を算出する。
Step ST18: The
ステップST11~ST18を繰り返すときには、処理は、ステップST11に戻る。 When repeating steps ST11 to ST18, the process returns to step ST11.
〈実施形態1の効果〉
上述したように、実施形態1のセンサシステムSSでは、連携処理部14が、第2のセンサ12Bにより検出された第2の物理量BR2等の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を第1のセンサ12Aに設定し、同様に、第1のセンサ12Aにより検出された第1の物理量BR1等の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を第2のセンサ12Bに設定する。これにより、第1のセンサ12Aが第1の物理量BR1を検出することができず、また、第2のセンサ12Bが第2の物理量BR2を検出することができなくても、第1のセンサ12Aに第1のセンサパラメータSP1を設定することができ、かつ、第2のセンサ12Bに第2のセンサパラメータSP2を設定することができる。<Effect of Embodiment 1>
As described above, in the sensor system SS of the first embodiment, the
実施形態2.
〈実施形態2〉
実施形態2のセンサシステムについて説明する。Embodiment 2.
<Embodiment 2>
A sensor system according to the second embodiment will be described.
〈実施形態2の機能〉
図6は、実施形態2のセンサシステムSSの機能ブロック図(学習フェーズ)である。<Functions of Embodiment 2>
FIG. 6 is a functional block diagram (learning phase) of the sensor system SS of the second embodiment.
図7は、実施形態2のセンサシステムSSの機能ブロック図(推論フェーズ)である。 FIG. 7 is a functional block diagram (inference phase) of the sensor system SS of the second embodiment.
実施形態2のセンサシステムSSの機能について、図6及び図7の機能ブロック図を参照して説明する。 Functions of the sensor system SS of the second embodiment will be described with reference to functional block diagrams of FIGS. 6 and 7. FIG.
実施形態2のセンサシステムSSは、図6、図7に示されるように、基本的に、実施形態1のセンサシステムSS(図1に図示。)と同様に、第1のセンサパラメータ制御部21Aと、第2のセンサパラメータ制御部21Bと、第1のセンサ22Aと、第2のセンサ22Bと、第1のセンサ処理部23Aと、第2のセンサ処理部23Bと、連携処理部24と、天候/環境判断部25とを含む。
As shown in FIGS. 6 and 7, the sensor system SS of Embodiment 2 is basically the same as the sensor system SS of Embodiment 1 (shown in FIG. 1). , a second sensor
実施形態2の第1のセンサパラメータ制御部21A、第2のセンサパラメータ制御部21B、第1のセンサ22A、第2のセンサ22B、第1のセンサ処理部23A、第2のセンサ処理部23B、連携処理部24、及び天候/環境判断部25の機能は、実施形態1の第1のセンサパラメータ制御部11A、第2のセンサパラメータ制御部11B、第1のセンサ12A、第2のセンサ12B、第1のセンサ処理部13A、第2のセンサ処理部13B、連携処理部14、及び天候/環境判断部15の機能と同様である。
The first sensor
実施形態2のセンサシステムSSは、他方で、実施形態1のセンサシステムSSと相違し、図6に示されるように、対象物検知率算出部26と、学習部27と、を更に含む。実施形態2では、実施形態1でのテーブルTBに代えて、センサパラメータの最適解を学習(特に、強化学習)により導出する。
On the other hand, the sensor system SS of Embodiment 2 is different from the sensor system SS of Embodiment 1, and further includes an object
対象物検知率算出部26は、第1のセンサ22Aにより検出された第1の物理量BR1(または他の物理量br1)、及び、第2のセンサ22Bにより検出された第2の物理量BR2(または、他の物理量br2)に基づき、対象物検知率TKを算出する。対象物検知率算出部26は、算出された対象物検知率TKを学習部27へ出力する。
The object
「対象物検知率TK」とは、検知可能な領域内に存在する対象物の有無を正しく検知することができる確からしさをいう。 The “object detection rate TK” means the probability that the presence or absence of an object existing within a detectable area can be correctly detected.
学習部27は、学習フェーズでは、モデルベース(例えば、センサ性能、環境条件、検知対象物の形状、及び反射特性を模擬したモデルベース)に基づき、対象物検知率算出部26により算出された対象物検知率TKに基づき、対象物検知率TKを向上させるべく、第1のセンサパラメータ制御部21Aにより、第1のセンサ22Aに第1のセンサパラメータSP1を設定させ、同様に、第2のセンサパラメータ制御部21Bにより、第2のセンサ22Bに第2のセンサパラメータSP2を設定させる。
In the learning phase, the
学習部27は、上記したモデルベースの下で、第1のセンサ22A及び第2のセンサ22Bに、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を設定すること、及び、対象物検知率算出部26から対象物検知率TKのフィードバックを受けることを繰り返すことにより、第1のセンサ22A及び第2のセンサ22Bに設定すべき第1のセンサパラメータSP1及び第2のセンサパラメータSP2を最適解に近付ける。
The
学習部27は、推論フェーズでは、学習フェーズでの学習により得られたであろう最適解である、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を含む複数のセンサパラメータを連携処理部24へ出力する。
In the inference phase, the
〈実施形態2のハードウェア構成〉
実施形態2のセンサシステムSSのハードウェア構成は、実施形態1のセンサシステムSSのハードウェア構成(図2に図示。)と同様である。<Hardware configuration of the second embodiment>
The hardware configuration of the sensor system SS of the second embodiment is the same as the hardware configuration of the sensor system SS of the first embodiment (illustrated in FIG. 2).
〈実施形態2の動作(学習フェーズ)〉
図8は、実施形態2のセンサシステムSSの学習フェーズでの動作を示すフローチャートである。<Operation of Embodiment 2 (learning phase)>
FIG. 8 is a flow chart showing the operation in the learning phase of the sensor system SS of the second embodiment.
実施形態2のセンサシステムSSの学習フェーズでの動作について、図8のフローチャートを参照して説明する。 The operation of the sensor system SS of the second embodiment in the learning phase will be described with reference to the flowchart of FIG.
ステップST21:学習部27は、学習部27が学習する環境を規定する環境条件KJの入力を受ける。
Step ST21: The learning
ステップST22:学習部27は、上記したモデルベースの下で、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を、第1のセンサパラメータ制御部21A及び第2のセンサパラメータ制御部21Bを介して、それぞれ、第1のセンサ22A及び第2のセンサ22Bに出力し、即ち、設定する。
Step ST22: The learning
ステップST23:第1のセンサ22Aは、設定された第1のセンサパラメータSP1の下で、第1の物理量BR1(画像)を検出し、同様に、第2のセンサ22Bは、設定された第2のセンサパラメータSP2の下で、第2の物理量BR2(距離)を検出する。
Step ST23: The
ステップST24:対象物検知率算出部26は、第1のセンサ22Aにより得られた第1の物理量BR1及び第2のセンサ22Bにより得られた第2の物理量BR2を用いて、対象物検知率TKを算出する。
Step ST24: The object
ステップST25:対象物検知率算出部26は、算出された対象物検知率TKを予め定められた閾値THと比較する。
Step ST25: The object
ステップST26:対象物検知率TKが前記閾値TH未満であるとき、対象物検知率算出部26は、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を含む複数のセンサパラメータを変更すべき旨を学習部27に通知する。学習部27は、最適解により近い複数のセンサパラメータを見つけるべく、上記した複数のセンサパラメータと相違する複数のセンサパラメータを模索し、換言すれば、センサパラメータを変更する。
Step ST26: When the object detection rate TK is less than the threshold TH, the object
ステップST27:対象物検知率TKが前記閾値TH以上であるとき、対象物検知率算出部26は、上記した対象物検知率TKに対応する現在の第1のセンサパラメータSP1及び第2のセンサパラメータSP2が最適解になり得る旨を学習部27に通知し、即ち、学習部27に現在の第1のセンサパラメータSP1及び第2のセンサパラメータSP2を記憶させる。
Step ST27: When the object detection rate TK is equal to or greater than the threshold TH, the object
ステップST21~ST27を繰り返すとき、処理は、ステップST21に戻る。 When steps ST21 to ST27 are repeated, the process returns to step ST21.
〈実施形態2の動作(推論フェーズ)〉
図9は、実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その1)である。<Operation of Second Embodiment (Inference Phase)>
FIG. 9 is a flowchart (Part 1) showing the operation in the inference phase of the sensor system SS of the second embodiment.
図10は、実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その2)である。 FIG. 10 is a flowchart (Part 2) showing the operation in the inference phase of the sensor system SS of the second embodiment.
図11は、実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その3)である。 FIG. 11 is a flowchart (Part 3) showing the operation in the inference phase of the sensor system SS of the second embodiment.
実施形態2の推論フェーズでの動作について、図9~図11のフローチャートを参照して説明する。 Operations in the inference phase of the second embodiment will be described with reference to the flow charts of FIGS. 9 to 11. FIG.
ステップST31:実施形態1のステップST11と同様に、天候/環境判断部25は、上述した天候及び環境の状況を把握する。
Step ST31: As in step ST11 of the first embodiment, the weather/
ステップST32:テーブルTBに基づく実施形態1のステップST12と相違し、学習フェーズ(図6、図8に図示。)での学習の結果に基づき、連携処理部24は、天候/環境判断部25により把握された天候及び環境の状況下で、第2のセンサ22Bにより取得された第2の物理量BR2の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を第1のセンサパラメータ制御部21Aに出力する。連携処理部24は、同様に、第1のセンサ22Aにより取得された第1の物理量BR1の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を第2のセンサパラメータ制御部21Bに出力する。
Step ST32: Unlike step ST12 of the first embodiment based on the table TB, based on the results of learning in the learning phase (shown in FIGS. 6 and 8), the
第1のセンサパラメータ制御部21Aは、上記した第1のセンサパラメータSP1を第1のセンサ22Aに設定し、同様に、第2のセンサパラメータ制御部21Bは、上記した第2のセンサパラメータSP2を第2のセンサ22Bに設定する。
The first sensor
ステップST33~S38:実施形態1のステップST13~ST18と同様な動作を行う。具体的には、以下のとおりである。 Steps ST33 to S38: The same operations as steps ST13 to ST18 of the first embodiment are performed. Specifically, it is as follows.
(1)ステップST33、34A、34B、35A、35B:昼間または夜間のいずれであるかに基づき、テーブルTBを参照することにより、第1のセンサパラメータ制御部21Aは、第1のセンサパラメータSP1(フレームレート)を第1のセンサ22A(カメラ)に設定し、同様に、第2のセンサパラメータ制御部21Bは、第2のセンサパラメータSP2(受信感度)を第2のセンサ22B(レーザレーダ)に設定する。
(2)ステップST36:天候/環境判断部25は、第1のセンサ処理部23Aから出力される第1の物理量BR1等、及び第2のセンサ処理部23Bから出力される第2の物理量BR2に基づき、物体が検知されたか否かを判断する。(1) Steps ST33, 34A, 34B, 35A, 35B: By referring to the table TB based on whether it is daytime or nighttime, the first sensor
(2) Step ST36: The weather/
(3)ステップST37:第1のセンサ22A(カメラ)は、検知された物体の動態を監視する。
(3) Step ST37: The
(4)ステップST38:第2のセンサ22B(レーザレーダ)は、検知された物体の位置を計測し、また、速度を算出する。
(4) Step ST38: The
上述したように、実施形態2のセンサシステムSSでは、実施形態1でのテーブルTBに代えて、学習機能を用いる。これにより、第1のセンサ22A及び第2のセンサ22Bに、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を含む多数のセンサパラメータを設定する必要がある場合であっても、前記多数のセンサパラメータを、最適解であるとして、または最適解に近いであろうとして設定することが可能となる。
As described above, the sensor system SS of the second embodiment uses a learning function instead of the table TB of the first embodiment. Accordingly, even when it is necessary to set a large number of sensor parameters including the first sensor parameter SP1 and the second sensor parameter SP2 to the
実施形態3.
〈実施形態3〉
実施形態3のセンサシステムについて説明する。Embodiment 3.
<Embodiment 3>
A sensor system according to Embodiment 3 will be described.
〈実施形態3の機能〉
図12は、実施形態3のセンサシステムSSの機能ブロック図である。<Functions of Embodiment 3>
FIG. 12 is a functional block diagram of the sensor system SS of Embodiment 3. FIG.
実施形態3のセンサシステムSSの機能について、図12の機能ブロック図を参照して説明する。 Functions of the sensor system SS of Embodiment 3 will be described with reference to the functional block diagram of FIG. 12 .
実施形態3のセンサシステムSSは、図12に示されるように、基本的に、実施形態1のセンサシステムSS(図1に図示。)と同様に、第1のセンサパラメータ制御部31Aと、第2のセンサパラメータ制御部31Bと、第1のセンサ32Aと、第2のセンサ32Bと、第1のセンサ処理部33Aと、第2のセンサ処理部33Bと、連携処理部34と、を含む。
As shown in FIG. 12, the sensor system SS of Embodiment 3 is basically similar to the sensor system SS of Embodiment 1 (shown in FIG. 1), and includes a first sensor
実施形態3の第1のセンサパラメータ制御部31A、第2のセンサパラメータ制御部31B、第1のセンサ32A、第2のセンサ32B、第1のセンサ処理部33A、第2のセンサ処理部33B、及び連携処理部34の機能は、実施形態1の第1のセンサパラメータ制御部11A、第2のセンサパラメータ制御部11B、第1のセンサ12A、第2のセンサ12B、第1のセンサ処理部13A、第2のセンサ処理部13B、及び連携処理部14の機能と同様である。
First sensor
実施形態3のセンサシステムSSは、実施形態1のセンサシステムSSと相違し、図12に示されるように、物体判別部38と、追尾処理部39と、を更に含む。
The sensor system SS of Embodiment 3 is different from the sensor system SS of Embodiment 1, and further includes an
物体判別部38は、第1のセンサ32A(カメラ)が検出可能な範囲である第1の領域RY1(図示せず。)内で第1のセンサ32Aにより検出された第1の物理量BR1、及び、第2のセンサ32B(レーザレーダ)が検出可能な範囲である第2の領域RY2(図示せず。)内で第2のセンサ32Bにより検出された第2の物理量BR2に基づき、対象物(車両、二輪車、人、動物等)を判別し、特に、対象物の種類を判別する。
The
追尾処理部39は、物体判別部38により前記対象物が判別されると、前記対象物を追尾することを開始させ、他方で、状況に応じて、前記対象物を追尾することを中止させる。
The
〈実施形態3のハードウェア構成〉
実施形態3のセンサシステムSSのハードウェア構成は、実施形態1のセンサシステムSSのハードウェア構成(図2に図示。)と同様である。<Hardware configuration of the third embodiment>
The hardware configuration of the sensor system SS of the third embodiment is the same as the hardware configuration of the sensor system SS of the first embodiment (illustrated in FIG. 2).
〈実施形態3の動作〉
図13は、実施形態3のセンサシステムSSの動作を示すフローチャートである。<Operation of Embodiment 3>
FIG. 13 is a flow chart showing the operation of the sensor system SS of the third embodiment.
実施形態3のセンサシステムSSの動作について、図13のフローチャートを参照して説明する。 The operation of the sensor system SS of Embodiment 3 will be described with reference to the flowchart of FIG.
以下では、説明及び理解を容易にすべく、以下を想定する。
(1)第1のセンサ32A(カメラ)が検出可能な第1の領域RY1と、第2のセンサ32B(レーザレーダ)が検出可能な第2の領域RY2とが相違すること。
(2)対象物、即ち、物体が、第2の領域RY2に進入した後に、第1の領域RY1に進入すること。In the following, the following assumptions are made for ease of explanation and understanding.
(1) The first area RY1 detectable by the
(2) The object, that is, the object enters the first region RY1 after entering the second region RY2.
ステップST41:物体判別部38は、例えば、第2のセンサ32B(レーザレーダ)を用いて、対象物を検知することを試みる。対象物が検知されたときには、処理は、ステップST42に進み、他方で、対象物が検知されないときには、処理は、ステップST41に戻る。
Step ST41: The
物体判別部38は、自車両に搭載された第2のセンサ32B(レーザレーダ)を用いて、例えば、隣車線(第2の領域RY2)を走行する前方の他車両が、車線変更を行うことにより、隣車線(第2の領域RY2)から同一車線(第1の領域RY1)へ移動することを検知する。物体判別部38は、対象物が検知された旨を追尾処理部39に通知する。
The
ステップST42:追尾処理部39は、第1のセンサ32A(カメラ)に、例えば、第2のセンサ32B(レーザレーダ)により検知された、同一車線(第1の領域RY1)における前方の他車両の動態を監視することを開始させ、即ち、前方の他車両を追尾することを開始させる。
Step ST42: The tracking
ステップST43:追尾処理部39は、第1のセンサ32A(カメラ)が前方の他車両を追尾することを継続することが可能であるか否かを判断する。継続可能であると判断されると、第1のセンサ32A(カメラ)は、追尾を継続し、他方で、継続不可能であると判断されると、第1のセンサ32A(カメラ)は、追尾を中止する。
Step ST43: The tracking
〈実施形態3の効果〉
上述したように、実施形態3のセンサシステムSSでは、第2のセンサ32B(レーザレーダ)が第2の領域RY2で対象物の動きを検知した後に、前記検知に応答して、第1のセンサ32A(カメラ)が第1の領域RY1で対象物を追尾することを開始する。これにより、レーザレーダ単体のみ、または、カメラ単体のみでは行うことができない、検知及び追尾の組み合わせを実現することができる。<Effect of Embodiment 3>
As described above, in the sensor system SS of Embodiment 3, after the
〈変形例〉
上述した実施形態1~3の2つのセンサ(第1のセンサ及び第2のセンサ)等に代えて、3つ以上のセンサ等を用いるセンサシステムSSであっても、実施形態1~実施形態3と同様な効果を奏することができる。<Modification>
Even if the sensor system SS uses three or more sensors instead of the two sensors (the first sensor and the second sensor) in the above-described Embodiments 1 to 3, Embodiments 1 to 3 Similar effects can be obtained.
本開示の要旨を逸脱しない範囲で、上述した実施形態同士を組み合わせてもよく、また、各実施形態中の構成要素を適宜、削除し、変更し、または、他の構成要素を追加してもよい。 The above-described embodiments may be combined without departing from the gist of the present disclosure, and components in each embodiment may be deleted, changed, or added as appropriate. good.
本開示に係るセンサシステムは、センサがデータを検出することができなくても、前記センサに、前記センサの動作を規定するためのパラメータを設定することに利用可能である。 The sensor system according to the present disclosure can be used to set parameters for defining the operation of the sensor in the sensor even if the sensor cannot detect data.
11A 第1のセンサパラメータ制御部、11B 第2のセンサパラメータ制御部、12A 第1のセンサ、12B 第2のセンサ、13A 第1のセンサ処理部、13B 第2のセンサ処理部、14 連携処理部、15 天候/環境判断部、21A 第1のセンサパラメータ制御部、21B 第2のセンサパラメータ制御部、22A 第1のセンサ、22B 第2のセンサ、23A 第1のセンサ処理部、23B 第2のセンサ処理部、24 連携処理部、25 天候/環境判断部、26 対象物検知率算出部、27 学習部、31A 第1のセンサパラメータ制御部、31B 第2のセンサパラメータ制御部、32A 第1のセンサ、32B 第2のセンサ、33A 第1のセンサ処理部、33B 第2のセンサ処理部、34 連携処理部、38 物体検知部、39 追尾処理部、KB 記憶媒体、KJ 環境条件、MM メモリ、NY 入力部、PC プロセッサ、PR プログラム、SP1 第1のセンサパラメータ、SP2 第2のセンサパラメータ、SS センサシステム。
11A first sensor parameter control unit, 11B second sensor parameter control unit, 12A first sensor, 12B second sensor, 13A first sensor processing unit, 13B second sensor processing unit, 14 cooperation processing unit , 15 weather/environment determination unit, 21A first sensor parameter control unit, 21B second sensor parameter control unit, 22A first sensor, 22B second sensor, 23A first sensor processing unit, 23B second
Claims (4)
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determining unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
前記判断部は、水溜まりでの水紋の個数を計数することにより、降雨量及び降雪量を算出する、 The determination unit calculates the amount of rainfall and the amount of snowfall by counting the number of water patterns in the puddle.
センサシステム。 sensor system.
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determining unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
前記判断部は、空間中で離散的に検出される雨粒からの反射信号の個数を計数することにより、降雨量及び降雪量を算出する、 The determination unit calculates the amount of rainfall and the amount of snowfall by counting the number of reflected signals from raindrops that are discretely detected in space.
センサシステム。 sensor system.
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determining unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
湿潤である前記路面上を黒い車が走行しているとき、前記黒い車の明るい部分を検出し、前記第1のセンサ又は前記第2のセンサが走査する範囲を前記検出された明るい部分に合わせるようにするセンサパラメータ制御部を更に含む、 When the black car is running on the wet road surface, a bright part of the black car is detected, and the range scanned by the first sensor or the second sensor is adjusted to the detected bright part. further comprising a sensor parameter control for
センサシステム。 sensor system.
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determination unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
背景が白であり、かつ、対象物が白であるとき、前記対象物までの距離を検出し、前記距離の検出を契機に、前記第1のセンサ又は前記第2のセンサによる追尾を開始させる、センサパラメータ制御部を更に含む、 When the background is white and the object is white, the distance to the object is detected, and the detection of the distance triggers the tracking by the first sensor or the second sensor. , further comprising a sensor parameter control,
センサシステム。 sensor system.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/045914 WO2023112108A1 (en) | 2021-12-14 | 2021-12-14 | Sensor system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP7154459B1 true JP7154459B1 (en) | 2022-10-17 |
JPWO2023112108A1 JPWO2023112108A1 (en) | 2023-06-22 |
JPWO2023112108A5 JPWO2023112108A5 (en) | 2023-11-15 |
Family
ID=83637953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522587A Active JP7154459B1 (en) | 2021-12-14 | 2021-12-14 | sensor system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7154459B1 (en) |
WO (1) | WO2023112108A1 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61175550A (en) * | 1985-01-31 | 1986-08-07 | Meisei Electric Co Ltd | Optical measuring method and apparatus for intensity of rain and snow falling |
JP2005114588A (en) * | 2003-10-08 | 2005-04-28 | Mitsubishi Heavy Ind Ltd | Tracking device |
JP2012015638A (en) * | 2010-06-29 | 2012-01-19 | Sharp Corp | Unmanned space display system and moving object provided with the same |
JP2016085602A (en) * | 2014-10-27 | 2016-05-19 | 株式会社日立製作所 | Sensor information integrating method, and apparatus for implementing the same |
JP2018134962A (en) * | 2017-02-21 | 2018-08-30 | マツダ株式会社 | Vehicular control device |
WO2019216393A1 (en) * | 2018-05-10 | 2019-11-14 | パナソニックIpマネジメント株式会社 | Road surface state estimating method, road surface state estimating device, and road surface state estimating system |
JP2020035443A (en) * | 2018-08-24 | 2020-03-05 | 株式会社豊田中央研究所 | Sensing device |
WO2020230645A1 (en) * | 2019-05-13 | 2020-11-19 | 日本電気株式会社 | Position estimation system, position estimation method, program, and recording medium |
JP2021076418A (en) * | 2019-11-06 | 2021-05-20 | 株式会社フジタ | Rainfall calculation device |
US11036227B1 (en) * | 2012-09-27 | 2021-06-15 | Waymo Llc | Modifying the behavior of an autonomous vehicle using context based parameter switching |
-
2021
- 2021-12-14 WO PCT/JP2021/045914 patent/WO2023112108A1/en active Application Filing
- 2021-12-14 JP JP2022522587A patent/JP7154459B1/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61175550A (en) * | 1985-01-31 | 1986-08-07 | Meisei Electric Co Ltd | Optical measuring method and apparatus for intensity of rain and snow falling |
JP2005114588A (en) * | 2003-10-08 | 2005-04-28 | Mitsubishi Heavy Ind Ltd | Tracking device |
JP2012015638A (en) * | 2010-06-29 | 2012-01-19 | Sharp Corp | Unmanned space display system and moving object provided with the same |
US11036227B1 (en) * | 2012-09-27 | 2021-06-15 | Waymo Llc | Modifying the behavior of an autonomous vehicle using context based parameter switching |
JP2016085602A (en) * | 2014-10-27 | 2016-05-19 | 株式会社日立製作所 | Sensor information integrating method, and apparatus for implementing the same |
JP2018134962A (en) * | 2017-02-21 | 2018-08-30 | マツダ株式会社 | Vehicular control device |
WO2019216393A1 (en) * | 2018-05-10 | 2019-11-14 | パナソニックIpマネジメント株式会社 | Road surface state estimating method, road surface state estimating device, and road surface state estimating system |
JP2020035443A (en) * | 2018-08-24 | 2020-03-05 | 株式会社豊田中央研究所 | Sensing device |
WO2020230645A1 (en) * | 2019-05-13 | 2020-11-19 | 日本電気株式会社 | Position estimation system, position estimation method, program, and recording medium |
JP2021076418A (en) * | 2019-11-06 | 2021-05-20 | 株式会社フジタ | Rainfall calculation device |
Also Published As
Publication number | Publication date |
---|---|
WO2023112108A1 (en) | 2023-06-22 |
JPWO2023112108A1 (en) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9371031B2 (en) | Method for controlling a headlamp system for a vehicle, and headlamp system | |
CN109703460B (en) | Multi-camera complex scene self-adaptive vehicle collision early warning device and early warning method | |
US8862336B2 (en) | Method for controlling a headlamp system for a vehicle, and headlamp system | |
JP2013047934A (en) | In-vehicle environment recognition device | |
JP7059817B2 (en) | Driving support device | |
CN111179220B (en) | Lane mark line quality detection method, system and storage medium | |
US11506510B1 (en) | Method and system for identifying confidence level of autonomous driving system | |
CN110682907B (en) | Automobile rear-end collision prevention control system and method | |
CN111222441B (en) | Point cloud target detection and blind area target detection method and system based on vehicle-road cooperation | |
CN112101316B (en) | Target detection method and system | |
CN105426868A (en) | Lane detection method based on adaptive region of interest | |
CN111505623A (en) | Method and system for detecting obstacle in driving process of unmanned vehicle and vehicle | |
CN111797701B (en) | Road obstacle sensing method and system for vehicle multi-sensor fusion system | |
CN109919062A (en) | A kind of road scene weather recognition methods based on characteristic quantity fusion | |
JP7154459B1 (en) | sensor system | |
CN202911633U (en) | Dynamic detection device based on multi-information fusion for hybrid electric vehicle lane identification lines | |
US20210155158A1 (en) | Navigation system with lane estimation mechanism and method of operation thereof | |
CN114973208B (en) | Vehicle blind area monitoring and early warning method and related equipment | |
CN114030443A (en) | Windshield wiper control method based on electronic horizon, terminal device and storage medium | |
JP7156195B2 (en) | object recognition device | |
JP3771729B2 (en) | Traffic flow measurement system | |
JPH11219493A (en) | Method for processing traffic information | |
CN112130563A (en) | Multi-target screening auxiliary driving control method | |
JP2020061052A (en) | Traffic light determination device | |
CN110531347A (en) | Detection method, device and the computer readable storage medium of laser radar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220414 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220414 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7154459 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |