JP7154459B1 - sensor system - Google Patents

sensor system Download PDF

Info

Publication number
JP7154459B1
JP7154459B1 JP2022522587A JP2022522587A JP7154459B1 JP 7154459 B1 JP7154459 B1 JP 7154459B1 JP 2022522587 A JP2022522587 A JP 2022522587A JP 2022522587 A JP2022522587 A JP 2022522587A JP 7154459 B1 JP7154459 B1 JP 7154459B1
Authority
JP
Japan
Prior art keywords
sensor
parameter
physical quantity
detected
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022522587A
Other languages
Japanese (ja)
Other versions
JPWO2023112108A1 (en
JPWO2023112108A5 (en
Inventor
祐一 西野
俊平 亀山
勝治 今城
洋志 亀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7154459B1 publication Critical patent/JP7154459B1/en
Publication of JPWO2023112108A1 publication Critical patent/JPWO2023112108A1/ja
Publication of JPWO2023112108A5 publication Critical patent/JPWO2023112108A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

センサシステム(SS)は、第1の物理量(BR1)を検出すべき第1のセンサ(12A)であって前記第1のセンサ(12A)の動作を規定する第1のパラメータ(SP1)の設定を受けるべき前記第1のセンサ(12A)と、第2の物理量(BR2)を検出すべき第2のセンサ(12B)であって前記第2のセンサ(12B)の動作を規定する第2のパラメータ(SP2)の設定を受けるべき前記第2のセンサ(12B)と、前記検出された第2の物理量(BR2)に基づき、予め定められたテーブル(TB)を参照することにより、前記第1のセンサ(12A)に前記第1のパラメータ(SP1)を設定し、かつ、前記検出された第1の物理量(BR1)に基づき、前記予め定められたテーブル(TB)を参照することにより、前記第2のセンサ(12B)に前記第2のパラメータ(SP2)を設定する連携処理部(14)と、を含む。A sensor system (SS) is a first sensor (12A) to detect a first physical quantity (BR1) and sets a first parameter (SP1) that defines the operation of the first sensor (12A). The first sensor (12A) to receive and the second sensor (12B) to detect the second physical quantity (BR2) that defines the operation of the second sensor (12B) By referring to a predetermined table (TB) based on the second sensor (12B) to receive setting of the parameter (SP2) and the detected second physical quantity (BR2), the first By setting the first parameter (SP1) to the sensor (12A) of and referring to the predetermined table (TB) based on the detected first physical quantity (BR1), the and a cooperation processing unit (14) for setting the second parameter (SP2) to the second sensor (12B).

Description

本開示は、センサシステムに関する。 The present disclosure relates to sensor systems.

本開示に係るセンサシステムと複数のセンサを有する点で共通する、特許文献1に記載の移動物体検出装置は、移動物体の個数、位置、移動方向を精度良く推定することを目的として、測距センサにより測定された測距情報、及び映像取得センサにより撮影された映像情報を用いる。 The moving object detection device described in Patent Document 1, which has a plurality of sensors in common with the sensor system according to the present disclosure, aims at accurately estimating the number, positions, and moving directions of moving objects. Ranging information measured by a sensor and image information captured by an image acquisition sensor are used.

特許第6351917号公報Japanese Patent No. 6351917

しかしながら、上記した移動物体検出装置では、仮に、例えば、上記した測距センサの動作を規定する測距センサ用パラメータを設定することを、前記測距センサにより測定された測距情報に基づき行おうとしても、前記測距センサが前記測距情報を測定することができないときには、前記測距センサ用パラメータを設定することができなかった。 However, in the moving object detection device described above, for example, setting the ranging sensor parameters that define the operation of the ranging sensor is performed based on the ranging information measured by the ranging sensor. However, when the ranging sensor cannot measure the ranging information, the parameters for the ranging sensor cannot be set.

本開示の目的は、センサがデータを検出することができなくても、前記センサに、前記センサの動作を規定するためのパラメータを設定することができるセンサシステムを提供することにある。 SUMMARY OF THE INVENTION It is an object of the present disclosure to provide a sensor system in which parameters for defining the operation of the sensor can be set to the sensor even if the sensor cannot detect data.

上記した課題を解決すべく、本開示に係るセンサシステムは、第1の物理量を検出すべき第1のセンサであって第1のセンサの動作を規定する第1のパラメータの設定を受けるべき第1のセンサと、第2の物理量を検出すべき第2のセンサであって第2のセンサの動作を規定する第2のパラメータの設定を受けるべき第2のセンサと、検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、第1のセンサに第1のパラメータを設定し、かつ、検出された第1の物理量に基づき、予め定められたテーブルを参照することにより、第2のセンサに第2のパラメータを設定する連携処理部と、を含み、判断部は、水溜まりでの水紋の個数を計数することにより、降雨量及び降雪量を算出する。 In order to solve the above-described problems, a sensor system according to the present disclosure is a first sensor that should detect a first physical quantity and should receive setting of a first parameter that defines the operation of the first sensor. 1 sensor, a second sensor that is to detect a second physical quantity and is to receive the setting of a second parameter that defines the operation of the second sensor, and the detected second sensor By referring to a predetermined table based on the physical quantity, a first parameter is set in the first sensor, and based on the detected first physical quantity, by referring to a predetermined table , and a cooperative processing unit that sets the second parameter to the second sensor, and the determination unit calculates the amount of rainfall and the amount of snowfall by counting the number of water patterns in the puddle.

本開示に係るセンサシステムによれば、前記路面の状況が判断された下で、前記第1のセンサが前記第1の物理量を検出することができなくても、前記第1のセンサに前記第1のパラメータを設定することができ、同様に、前記第2のセンサが前記第2の物理量を検出することができなくても、前記第2のセンサに前記第2のパラメータを設定することができる。 According to the sensor system according to the present disclosure, even if the first sensor cannot detect the first physical quantity under the condition of the road surface, the first sensor detects the first physical quantity. 1 parameter can be set, and similarly, the second parameter can be set for the second sensor even if the second sensor cannot detect the second physical quantity. can.

実施形態1のセンサシステムSSの機能ブロック図である。2 is a functional block diagram of the sensor system SS of Embodiment 1. FIG. 実施形態1のセンサシステムSSのハードウェア構成を示す。2 shows the hardware configuration of the sensor system SS of Embodiment 1. FIG. 実施形態1のセンサシステムSSの動作を示すフローチャート(その1)である。4 is a flowchart (Part 1) showing the operation of the sensor system SS of Embodiment 1; 実施形態1のセンサシステムSSの動作を示すフローチャート(その2)である。4 is a flowchart (part 2) showing the operation of the sensor system SS of Embodiment 1; 実施形態1のセンサシステムSSの動作を示すフローチャート(その3)である。3 is a flowchart (part 3) showing the operation of the sensor system SS of Embodiment 1; 実施形態2のセンサシステムSSの機能ブロック図(学習フェーズ)である。FIG. 10 is a functional block diagram (learning phase) of the sensor system SS of Embodiment 2; 実施形態2のセンサシステムSSの機能ブロック図(推論フェーズ)である。FIG. 10 is a functional block diagram (inference phase) of the sensor system SS of Embodiment 2; 実施形態2のセンサシステムSSの学習フェーズでの動作を示すフローチャートである。10 is a flow chart showing the operation in the learning phase of the sensor system SS of Embodiment 2. FIG. 実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その1)である。10 is a flowchart (part 1) showing the operation in the inference phase of the sensor system SS of Embodiment 2; 実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その2)である。9 is a flowchart (part 2) showing the operation in the inference phase of the sensor system SS of Embodiment 2; 実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その3)である。10 is a flowchart (part 3) showing the operation in the inference phase of the sensor system SS of the second embodiment; 実施形態3のセンサシステムSSの機能ブロック図である。FIG. 11 is a functional block diagram of a sensor system SS of Embodiment 3; 実施形態3のセンサシステムSSの動作を示すフローチャートである。10 is a flow chart showing the operation of the sensor system SS of Embodiment 3. FIG.

本開示に係るセンサシステムの実施形態について説明する。 An embodiment of a sensor system according to the present disclosure will be described.

実施形態1.
〈実施形態1〉
実施形態1のセンサシステムについて説明する。
Embodiment 1.
<Embodiment 1>
A sensor system according to Embodiment 1 will be described.

〈実施形態1の機能〉
図1は、実施形態1のセンサシステムSSの機能ブロック図である。実施形態1のセンサシステムSSの機能について、図1の機能ブロック図を参照して説明する。
<Functions of Embodiment 1>
FIG. 1 is a functional block diagram of the sensor system SS of Embodiment 1. FIG. Functions of the sensor system SS of Embodiment 1 will be described with reference to the functional block diagram of FIG.

実施形態1のセンサシステムSSは、例えば、走行する車両を検出すべく、図1に示されるように、第1のセンサパラメータ制御部11Aと、第2のセンサパラメータ制御部11Bと、第1のセンサ12Aと、第2のセンサ12Bと、第1のセンサ処理部13Aと、第2のセンサ処理部13Bと、連携処理部14と、天候/環境判断部15とを含む。 The sensor system SS of Embodiment 1 includes, for example, a first sensor parameter control section 11A, a second sensor parameter control section 11B, and a first sensor parameter control section 11B, as shown in FIG. A sensor 12A, a second sensor 12B, a first sensor processing unit 13A, a second sensor processing unit 13B, a cooperation processing unit 14, and a weather/environment determination unit 15 are included.

第1のセンサ12Aは、「第1のセンサ」に対応し、第2のセンサ12Bは、「第2のセンサ」に対応し、連携処理部14は、「連携処理部」に対応する。 The first sensor 12A corresponds to the "first sensor", the second sensor 12B corresponds to the "second sensor", and the cooperation processing unit 14 corresponds to the "cooperation processing unit".

第1のセンサパラメータ制御部11Aは、第1のセンサ12A(例えば、カメラ)に、連携処理部14から出力され、かつ、第1のセンサ12Aの動作を規定するための第1のセンサパラメータSP1(例えば、フレームレート)を設定する。 The first sensor parameter control unit 11A outputs a first sensor parameter SP1 to the first sensor 12A (for example, a camera) from the cooperation processing unit 14 and defines the operation of the first sensor 12A. (e.g. frame rate).

同様に、第2のセンサパラメータ制御部11Bは、第2のセンサ12B(例えば、レーザレーダ)に、連携処理部14から出力され、かつ、第2のセンサ12Bの動作を規定するための第2のセンサパラメータSP2(例えば、受信感度)を設定する。 Similarly, the second sensor parameter control unit 11B outputs to the second sensor 12B (for example, a laser radar) from the cooperation processing unit 14 and defines the operation of the second sensor 12B. to set the sensor parameter SP2 (for example, reception sensitivity).

第1のセンサパラメータSP1は、「第1のセンサパラメータ」に対応し、第2のセンサパラメータSP2は、「第2のセンサパラメータ」に対応する。 The first sensor parameter SP1 corresponds to the "first sensor parameter" and the second sensor parameter SP2 corresponds to the "second sensor parameter".

以下では、説明及び理解を容易にすべく、1つの符号を用いて、複数の名称を総称することがあり、例えば、符号「SP」により、第1のセンサパラメータSP1及び第2のセンサパラメータSP2の両者を「センサパラメータ」として総称することがある。 In the following, for ease of explanation and understanding, a single symbol may be used to collectively refer to a plurality of names. are collectively referred to as "sensor parameters".

第1のセンサ12Aは、第1のセンサパラメータ制御部11Aにより設定された第1のセンサパラメータSP1に従って、第1の物理量BR1(例えば、画像)を取得する。第1のセンサ12Aは、上記したように、例えば、カメラである。以下では、文言「物理量」は、例えば、文言「計測データ」と同義で用いられる。 The first sensor 12A acquires a first physical quantity BR1 (for example, an image) according to the first sensor parameter SP1 set by the first sensor parameter control section 11A. The first sensor 12A is, for example, a camera, as described above. Below, the term “physical quantity” is used synonymously with the term “measurement data”, for example.

第2のセンサ12Bは、第2のセンサパラメータ制御部11Bにより設定された第2のセンサパラメータSP2に従って、第2の物理量BR2(例えば、距離、反射強度)を取得する。第2のセンサ12Bは、上記したように、例えば、レーザレーダである。 The second sensor 12B acquires a second physical quantity BR2 (for example, distance, reflection intensity) according to the second sensor parameter SP2 set by the second sensor parameter control section 11B. The second sensor 12B is, for example, a laser radar, as described above.

第1のセンサ処理部13Aは、第1のセンサ12Aにより検出された第1の物理量BR1をそのまま転送し、または、第1の物理量BR1を他の物理量br1(例えば、輝度)に変換した上で出力する。 The first sensor processing unit 13A transfers the first physical quantity BR1 detected by the first sensor 12A as it is, or converts the first physical quantity BR1 to another physical quantity br1 (for example, brightness) and Output.

同様に、第2のセンサ処理部13Bは、第2のセンサ12Bにより検出された第2の物理量BR2をそのまま転送し、または、第2の物理量BR2を他の物理量br2(例えば、位置)に変換した上で出力する。 Similarly, the second sensor processing unit 13B directly transfers the second physical quantity BR2 detected by the second sensor 12B, or converts the second physical quantity BR2 to another physical quantity br2 (for example, position). and then output.

連携処理部14は、第1のセンサ12Aにより検出された第1の物理量BR1(または、他の物理量br1)の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を、第2のセンサパラメータ制御部11Bへ出力する。 The cooperation processing unit 14 generates a second sensor parameter SP2 having a magnitude corresponding to the magnitude of the first physical quantity BR1 (or another physical quantity br1) detected by the first sensor 12A. to the sensor parameter control section 11B.

同様に、連携処理部14は、第2のセンサ12Bにより検出された第2の物理量BR2(または、他の物理量br2)の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を、第1のセンサパラメータ制御部11Aへ出力する。 Similarly, the cooperation processing unit 14 obtains a first sensor parameter SP1 having a size corresponding to the size of the second physical quantity BR2 (or another physical quantity br2) detected by the second sensor 12B. , to the first sensor parameter control unit 11A.

天候/環境判断部15は、天候及び環境の状況、例えば、路面の状況(乾燥及び湿潤、水溜まりの有無、水紋の数、雨粒の数、降水量、降雪量)を検出し、または算出する。 The weather/environment determination unit 15 detects or calculates weather and environmental conditions, such as road surface conditions (dry and wet, presence or absence of puddles, number of ripples, number of raindrops, amount of precipitation, amount of snowfall). .

天候/環境判断部15は、例えば、第1のセンサ12A(カメラ)により取得される画像における、路面を表す画素の輝度と空を表す輝度とを比較し、その結果、輝度の比率が高ければ、路面が乾燥していると判断し、他方で、輝度の比率が低ければ、路面が湿潤であると判断する。ここで、「輝度の比率」とは、路面部分の画素と空の画素との比率である。これにより、入射する太陽光レベルを規格化する。 The weather/environment determining unit 15 compares, for example, the brightness of the pixels representing the road surface and the brightness representing the sky in the image acquired by the first sensor 12A (camera). , it determines that the road surface is dry, and on the other hand, if the luminance ratio is low, it determines that the road surface is wet. Here, the "ratio of brightness" is the ratio of pixels on the road surface to pixels on the sky. This normalizes the incident sunlight level.

天候/環境判断部15は、例えば、第2のセンサ12B(レーザレーダ)により取得される、乾燥時の路面からの信号の信号対雑音強度比(以下、「SN比」という。)、即ち基準のSN比と、降雨時(湿潤時)に路面反射率の低下に起因して低下する、前記路面からの信号のSN比とを比較することにより、路面が乾燥しているか湿潤であるかを検出する。 The weather/environment determining unit 15 determines, for example, the signal-to-noise ratio (hereinafter referred to as “SN ratio”) of the signal from the dry road surface acquired by the second sensor 12B (laser radar), that is, the reference and the SN ratio of the signal from the road surface, which decreases due to the decrease in the road surface reflectance when it rains (wet), it is possible to determine whether the road surface is dry or wet. To detect.

天候/環境判断部15は、第1のセンサ12A(カメラ)により取得された画像から、水溜まりでの水紋の個数及び路面で弾ける雨粒の個数を計数することにより、降雨量及び降雪量を算出する。 The weather/environment judgment unit 15 calculates the amount of rainfall and snowfall by counting the number of water ripples in a puddle and the number of raindrops bursting on the road surface from the image acquired by the first sensor 12A (camera). do.

天候/環境判断部15は、第2のセンサ12B(レーザレーダ)により取得された三次元の画像データから、空間中で離散的に検出される雨粒からの反射信号の強度及び個数を計数することにより、降雨量及び降雪量を算出する。 The weather/environment determination unit 15 counts the intensity and number of reflection signals from raindrops that are discretely detected in space from the three-dimensional image data acquired by the second sensor 12B (laser radar). Calculate rainfall and snowfall by

天候/環境判断部15は、第1のセンサ12A(カメラ)により取得された画像の輝度に基づき、昼と夜とを峻別する。 The weather/environment determination unit 15 distinguishes between daytime and nighttime based on the brightness of the image acquired by the first sensor 12A (camera).

天候/環境判断部15は、上記したことに代えて、雨量計を用いて降水量を測定し、視程計を用いて雨粒を測定し、路面センサを用いて路面の状態を把握してもよい。 Instead of the above, the weather/environment determining unit 15 may measure precipitation using a rain gauge, measure raindrops using a visibility meter, and grasp the state of the road surface using a road surface sensor. .

図2は、実施形態1のセンサシステムSSのハードウェア構成を示す。実施形態1のセンサシステムSSのハードウェア構成について、図2を参照して説明する。 FIG. 2 shows the hardware configuration of the sensor system SS of the first embodiment. A hardware configuration of the sensor system SS of Embodiment 1 will be described with reference to FIG.

実施形態1のセンサシステムSSは、上述した機能を果たすべく、図2に示されるように、プロセッサPCと、メモリMMと、記憶媒体KBと、を含み、必要に応じて、入力部NYと、出力部SYと、更に含む。 The sensor system SS of Embodiment 1 includes a processor PC, a memory MM, and a storage medium KB, as shown in FIG. 2, in order to achieve the functions described above. and an output section SY.

プロセッサPCは、ソフトウェアに従ってハードウェアを動作させる、よく知られたコンピュータの中核である。メモリMMは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)から構成される。記憶媒体KBは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、ROM(Read Only Memory)から構成される。記憶媒体KBは、プログラムPRを記憶する。プログラムPRは、プロセッサPCが実行すべき処理の内容を規定する命令群である。 A processor PC is the core of a familiar computer that runs hardware according to software. The memory MM is composed of, for example, a DRAM (Dynamic Random Access Memory) and an SRAM (Static Random Access Memory). The storage medium KB includes, for example, a hard disk drive (HDD), a solid state drive (SSD), and a ROM (Read Only Memory). A storage medium KB stores a program PR. The program PR is a group of instructions that define the content of processing to be executed by the processor PC.

入力部NYは、例えば、カメラ、マイク、キーボード、タッチパネルから構成される。出力部SYは、例えば、液晶モニター、タッチパネルから構成される。 The input unit NY is composed of, for example, a camera, a microphone, a keyboard, and a touch panel. The output unit SY is composed of, for example, a liquid crystal monitor and a touch panel.

センサシステムSSにおける機能とハードウェア構成との関係については、ハードウェア上で、プロセッサPCが、記憶媒体KBに記憶されたプログラムPRを、メモリMM上で実行すると共に、必要に応じて、入力部NY及び出力部SYの動作を制御することにより、第1のセンサパラメータ制御部11A~天候/環境判断部15の各部の機能を実現する。 Regarding the relationship between the functions and the hardware configuration in the sensor system SS, on the hardware, the processor PC executes the program PR stored in the storage medium KB on the memory MM, and if necessary, the input unit By controlling the operations of NY and the output unit SY, the functions of the first sensor parameter control unit 11A to the weather/environment determination unit 15 are realized.

〈実施形態1の動作〉
図3は、実施形態1のセンサシステムSSの動作を示すフローチャート(その1)である。
<Operation of Embodiment 1>
FIG. 3 is a flowchart (Part 1) showing the operation of the sensor system SS of the first embodiment.

図4は、実施形態1のセンサシステムSSの動作を示すフローチャート(その2)である。 FIG. 4 is a flowchart (part 2) showing the operation of the sensor system SS of the first embodiment.

図5は、実施形態1のセンサシステムSSの動作を示すフローチャート(その3)である。 FIG. 5 is a flowchart (part 3) showing the operation of the sensor system SS of the first embodiment.

実施形態1のセンサシステムSSの動作について、図3~図5のフローチャートを参照して説明する。 The operation of the sensor system SS of Embodiment 1 will be described with reference to the flow charts of FIGS. 3 to 5. FIG.

センサシステムSSの動作の前提(予め定められたテーブルTB(図示せず。))として、例えば、晴天(乾燥)かつ夜間のとき、及び、雨天(湿潤)かつ夜間のときにおける第1のセンサ12A(カメラ)のフレームレートは、晴天(乾燥)かつ昼間のとき、及び、雨天(湿潤)かつ昼間のときにおける第1のセンサ12A(カメラ)のフレームレート(標準のフレームレート)より低く、即ち、下がっている。 As a premise of the operation of the sensor system SS (predetermined table TB (not shown)), for example, when the weather is fine (dry) and nighttime, and when the weather is rainy (wet) and nighttime, the first sensor 12A The (camera) frame rate is lower than the frame rate (standard frame rate) of the first sensor 12A (camera) in sunny (dry) and daytime and in rainy (wet) and daytime, i.e., going down

上記とは対照的に、晴天(乾燥)かつ夜間のとき、及び、雨天(湿潤)かつ夜間のときにおける第2のセンサ12B(レーザレーダ)の受信感度は、晴天(乾燥)かつ昼間のとき、及び、雨天(湿潤)かつ昼間のときにおける第2のセンサ12B(レーザレーダ)の受信感度(標準の受信感度)より高く、即ち、上がっている。 In contrast to the above, the reception sensitivity of the second sensor 12B (laser radar) in fine weather (dry) and nighttime and in rainy weather (wet) and nighttime is And, it is higher than the reception sensitivity (standard reception sensitivity) of the second sensor 12B (laser radar) in rainy weather (wet) and daytime.

ステップST11:天候/環境判断部15は、上述した天候及び環境の状況を把握する。 Step ST11: The weather/environment judging section 15 grasps the weather and environmental conditions described above.

ステップST12:連携処理部14は、天候/環境判断部15により把握された天候及び環境の状況下で、第2のセンサ12Bにより取得された第2の物理量BR2の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を第1のセンサパラメータ制御部11Aに出力する。連携処理部14は、同様に、第1のセンサ12Aにより取得された第1の物理量BR1の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を第2のセンサパラメータ制御部11Bに出力する。 Step ST12: The cooperative processing unit 14, under the weather and environmental conditions ascertained by the weather/environment determination unit 15, determines the size corresponding to the size of the second physical quantity BR2 acquired by the second sensor 12B. etc. to the first sensor parameter control unit 11A. Similarly, the cooperation processing unit 14 transfers a second sensor parameter SP2 having a size corresponding to the size of the first physical quantity BR1 acquired by the first sensor 12A to the second sensor parameter control unit 11B. output to

上記取得された第2の物理量BR2の大きさ等と上記第1のセンサパラメータSP1の大きさ等の対応関係、及び、上記取得された第1の物理量BR1の大きさ等と上記第2のセンサパラメータSP2の大きさ等の対応関係は、上記したテーブルTBに記憶されている。 Correspondence relationship between the size of the acquired second physical quantity BR2 and the size of the first sensor parameter SP1, and the size of the acquired first physical quantity BR1 and the second sensor Correspondence relationships such as the magnitude of the parameter SP2 are stored in the table TB described above.

第1のセンサパラメータ制御部11Aは、上記した第1のセンサパラメータSP1を第1のセンサ12Aに設定し、同様に、第2のセンサパラメータ制御部11Bは、上記した第2のセンサパラメータSP2を第2のセンサ12Bに設定する。 The first sensor parameter control unit 11A sets the above-described first sensor parameter SP1 to the first sensor 12A, and similarly, the second sensor parameter control unit 11B sets the above-described second sensor parameter SP2 to Set to the second sensor 12B.

第1の物理量BR1及び第2のセンサパラメータSP2の例としては、湿潤である路面上を黒い車が走行しているとき、第1のセンサ12A(カメラ)が撮影した黒い車の明るい部分、例えば、テールランプ(またはヘッドライト。以下同様。)を検出し、前記テールランプの検出(第1の物理量BR1に相当。)に基づき、第2のセンサ12B(レーザレーダ)の走査範囲(第2のセンサパラメータSP2に相当。)を前記検出されたテールランプに合わせるようにし、即ち、周辺を含む範囲に制限し、データの取得回数及びデータ平均化数を増やすことにより、受信感度を改善する。 An example of the first physical quantity BR1 and the second sensor parameter SP2 is a bright part of the black car captured by the first sensor 12A (camera) when the black car is running on a wet road surface. , tail lamps (or headlights; the same applies hereinafter), and based on the detection of the tail lamps (corresponding to the first physical quantity BR1), the scanning range of the second sensor 12B (laser radar) (second sensor parameter SP2.) is adjusted to the detected tail lamp, that is, by limiting the range to include the periphery and increasing the number of times of data acquisition and data averaging, the receiving sensitivity is improved.

第2の物理量BR2及び第1のセンサパラメータSP1の例としては、背景が白であり、かつ、物体、即ち対象物が白であるとき、第2のセンサ12B(レーザレーダ)により対象物までの距離(第2の物理量BR2に相当。)を検出し、前記距離の検出を契機に、カメラが追尾(第1のセンサパラメータSP1に相当。)を開始する。 As an example of the second physical quantity BR2 and the first sensor parameter SP1, when the background is white and the object, i.e., the target is white, the second sensor 12B (laser radar) detects the distance to the target. A distance (corresponding to the second physical quantity BR2) is detected, and with the detection of the distance, the camera starts tracking (corresponding to the first sensor parameter SP1).

ステップST13、14A、14B、15A、15B:晴天(乾燥)かつ夜間、雨天(湿潤)かつ夜間、晴天(乾燥)かつ昼間、または、雨天(湿潤)かつ昼間のいずれであるかに基づき、より平易には、昼間または夜間のいずれであるかに基づき、上記したテーブルTBを参照することにより、第1のセンサパラメータ制御部11Aは、第1のセンサパラメータSP1(フレームレート)を第1のセンサ12A(カメラ)に設定し、同様に、第2のセンサパラメータ制御部11Bは、第2のセンサパラメータSP2(受信感度)を第2のセンサ12B(レーザレーダ)に設定する。 Steps ST13, 14A, 14B, 15A, 15B: Easier based on whether it is sunny (dry) and night, rainy (wet) and night, sunny (dry) and day, or rainy (wet) and day , based on whether it is daytime or nighttime, the first sensor parameter control unit 11A sets the first sensor parameter SP1 (frame rate) to the first sensor 12A by referring to the table TB described above. (camera), and similarly, the second sensor parameter control unit 11B sets the second sensor parameter SP2 (receiving sensitivity) to the second sensor 12B (laser radar).

ステップST16:天候/環境判断部15は、第1のセンサ処理部13Aから出力される第1の物理量BR1等、及び第2のセンサ処理部13Bから出力される第2の物理量BR2に基づき、物体が検知されたか否かを判断する。物体が検知されたと判断されるとき、処理は、ステップST16へ進む。対照的に、物体が検知されないと判断されるとき、処理は、ステップST15に戻る。 Step ST16: The weather/environment judging section 15, based on the first physical quantity BR1 and the like output from the first sensor processing section 13A and the second physical quantity BR2 output from the second sensor processing section 13B, is detected. When it is determined that the object has been detected, the process proceeds to step ST16. In contrast, when it is determined that no object is detected, the process returns to step ST15.

ステップST17:第1のセンサ12A(カメラ)は、上記の検知された物体の動態を監視する。 Step ST17: The first sensor 12A (camera) monitors the movement of the detected object.

ステップST18:第2のセンサ12B(レーザレーダ)は、上記の検知された物体の位置を計測し、また、従来知られたと同様にして、速度を算出する。 Step ST18: The second sensor 12B (laser radar) measures the position of the detected object, and also calculates the velocity in the same manner as conventionally known.

ステップST11~ST18を繰り返すときには、処理は、ステップST11に戻る。 When repeating steps ST11 to ST18, the process returns to step ST11.

〈実施形態1の効果〉
上述したように、実施形態1のセンサシステムSSでは、連携処理部14が、第2のセンサ12Bにより検出された第2の物理量BR2等の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を第1のセンサ12Aに設定し、同様に、第1のセンサ12Aにより検出された第1の物理量BR1等の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を第2のセンサ12Bに設定する。これにより、第1のセンサ12Aが第1の物理量BR1を検出することができず、また、第2のセンサ12Bが第2の物理量BR2を検出することができなくても、第1のセンサ12Aに第1のセンサパラメータSP1を設定することができ、かつ、第2のセンサ12Bに第2のセンサパラメータSP2を設定することができる。
<Effect of Embodiment 1>
As described above, in the sensor system SS of the first embodiment, the cooperation processing unit 14 detects the second physical quantity BR2 detected by the second sensor 12B. A sensor parameter SP1 is set to the first sensor 12A, and similarly, a second sensor parameter SP2 having a magnitude corresponding to the magnitude of the first physical quantity BR1 detected by the first sensor 12A is set. Set to the second sensor 12B. As a result, even if the first sensor 12A cannot detect the first physical quantity BR1 and the second sensor 12B cannot detect the second physical quantity BR2, the first sensor 12A can be set to the first sensor parameter SP1, and the second sensor 12B can be set to the second sensor parameter SP2.

実施形態2.
〈実施形態2〉
実施形態2のセンサシステムについて説明する。
Embodiment 2.
<Embodiment 2>
A sensor system according to the second embodiment will be described.

〈実施形態2の機能〉
図6は、実施形態2のセンサシステムSSの機能ブロック図(学習フェーズ)である。
<Functions of Embodiment 2>
FIG. 6 is a functional block diagram (learning phase) of the sensor system SS of the second embodiment.

図7は、実施形態2のセンサシステムSSの機能ブロック図(推論フェーズ)である。 FIG. 7 is a functional block diagram (inference phase) of the sensor system SS of the second embodiment.

実施形態2のセンサシステムSSの機能について、図6及び図7の機能ブロック図を参照して説明する。 Functions of the sensor system SS of the second embodiment will be described with reference to functional block diagrams of FIGS. 6 and 7. FIG.

実施形態2のセンサシステムSSは、図6、図7に示されるように、基本的に、実施形態1のセンサシステムSS(図1に図示。)と同様に、第1のセンサパラメータ制御部21Aと、第2のセンサパラメータ制御部21Bと、第1のセンサ22Aと、第2のセンサ22Bと、第1のセンサ処理部23Aと、第2のセンサ処理部23Bと、連携処理部24と、天候/環境判断部25とを含む。 As shown in FIGS. 6 and 7, the sensor system SS of Embodiment 2 is basically the same as the sensor system SS of Embodiment 1 (shown in FIG. 1). , a second sensor parameter control unit 21B, a first sensor 22A, a second sensor 22B, a first sensor processing unit 23A, a second sensor processing unit 23B, a cooperation processing unit 24, and a weather/environment determination unit 25 .

実施形態2の第1のセンサパラメータ制御部21A、第2のセンサパラメータ制御部21B、第1のセンサ22A、第2のセンサ22B、第1のセンサ処理部23A、第2のセンサ処理部23B、連携処理部24、及び天候/環境判断部25の機能は、実施形態1の第1のセンサパラメータ制御部11A、第2のセンサパラメータ制御部11B、第1のセンサ12A、第2のセンサ12B、第1のセンサ処理部13A、第2のセンサ処理部13B、連携処理部14、及び天候/環境判断部15の機能と同様である。 The first sensor parameter control unit 21A, the second sensor parameter control unit 21B, the first sensor 22A, the second sensor 22B, the first sensor processing unit 23A, the second sensor processing unit 23B of the second embodiment, The functions of the cooperation processing unit 24 and the weather/environment determination unit 25 are the first sensor parameter control unit 11A, the second sensor parameter control unit 11B, the first sensor 12A, the second sensor 12B, The functions are the same as those of the first sensor processing unit 13A, the second sensor processing unit 13B, the cooperation processing unit 14, and the weather/environment judgment unit 15.

実施形態2のセンサシステムSSは、他方で、実施形態1のセンサシステムSSと相違し、図6に示されるように、対象物検知率算出部26と、学習部27と、を更に含む。実施形態2では、実施形態1でのテーブルTBに代えて、センサパラメータの最適解を学習(特に、強化学習)により導出する。 On the other hand, the sensor system SS of Embodiment 2 is different from the sensor system SS of Embodiment 1, and further includes an object detection rate calculator 26 and a learning section 27 as shown in FIG. In the second embodiment, instead of using the table TB in the first embodiment, the optimum solution of sensor parameters is derived by learning (in particular, reinforcement learning).

対象物検知率算出部26は、第1のセンサ22Aにより検出された第1の物理量BR1(または他の物理量br1)、及び、第2のセンサ22Bにより検出された第2の物理量BR2(または、他の物理量br2)に基づき、対象物検知率TKを算出する。対象物検知率算出部26は、算出された対象物検知率TKを学習部27へ出力する。 The object detection rate calculator 26 calculates the first physical quantity BR1 (or other physical quantity br1) detected by the first sensor 22A and the second physical quantity BR2 (or An object detection rate TK is calculated based on another physical quantity br2). The object detection rate calculation unit 26 outputs the calculated object detection rate TK to the learning unit 27 .

「対象物検知率TK」とは、検知可能な領域内に存在する対象物の有無を正しく検知することができる確からしさをいう。 The “object detection rate TK” means the probability that the presence or absence of an object existing within a detectable area can be correctly detected.

学習部27は、学習フェーズでは、モデルベース(例えば、センサ性能、環境条件、検知対象物の形状、及び反射特性を模擬したモデルベース)に基づき、対象物検知率算出部26により算出された対象物検知率TKに基づき、対象物検知率TKを向上させるべく、第1のセンサパラメータ制御部21Aにより、第1のセンサ22Aに第1のセンサパラメータSP1を設定させ、同様に、第2のセンサパラメータ制御部21Bにより、第2のセンサ22Bに第2のセンサパラメータSP2を設定させる。 In the learning phase, the learning unit 27 calculates the target calculated by the target object detection rate calculating unit 26 based on a model base (for example, a model base that simulates sensor performance, environmental conditions, the shape of a detection target, and reflection characteristics). Based on the object detection rate TK, the first sensor parameter control unit 21A causes the first sensor 22A to set the first sensor parameter SP1 in order to improve the object detection rate TK. The parameter control unit 21B sets the second sensor parameter SP2 to the second sensor 22B.

学習部27は、上記したモデルベースの下で、第1のセンサ22A及び第2のセンサ22Bに、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を設定すること、及び、対象物検知率算出部26から対象物検知率TKのフィードバックを受けることを繰り返すことにより、第1のセンサ22A及び第2のセンサ22Bに設定すべき第1のセンサパラメータSP1及び第2のセンサパラメータSP2を最適解に近付ける。 The learning unit 27 sets the first sensor parameter SP1 and the second sensor parameter SP2 to the first sensor 22A and the second sensor 22B under the model base described above, and the object detection rate By repeating feedback of the object detection rate TK from the calculation unit 26, the first sensor parameter SP1 and the second sensor parameter SP2 to be set in the first sensor 22A and the second sensor 22B are optimized. close to

学習部27は、推論フェーズでは、学習フェーズでの学習により得られたであろう最適解である、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を含む複数のセンサパラメータを連携処理部24へ出力する。 In the inference phase, the learning unit 27 transfers a plurality of sensor parameters including the first sensor parameter SP1 and the second sensor parameter SP2, which are the optimal solutions that would have been obtained by learning in the learning phase, to the cooperative processing unit 24. Output to

〈実施形態2のハードウェア構成〉
実施形態2のセンサシステムSSのハードウェア構成は、実施形態1のセンサシステムSSのハードウェア構成(図2に図示。)と同様である。
<Hardware configuration of the second embodiment>
The hardware configuration of the sensor system SS of the second embodiment is the same as the hardware configuration of the sensor system SS of the first embodiment (illustrated in FIG. 2).

〈実施形態2の動作(学習フェーズ)〉
図8は、実施形態2のセンサシステムSSの学習フェーズでの動作を示すフローチャートである。
<Operation of Embodiment 2 (learning phase)>
FIG. 8 is a flow chart showing the operation in the learning phase of the sensor system SS of the second embodiment.

実施形態2のセンサシステムSSの学習フェーズでの動作について、図8のフローチャートを参照して説明する。 The operation of the sensor system SS of the second embodiment in the learning phase will be described with reference to the flowchart of FIG.

ステップST21:学習部27は、学習部27が学習する環境を規定する環境条件KJの入力を受ける。 Step ST21: The learning section 27 receives input of environmental conditions KJ that define the environment in which the learning section 27 learns.

ステップST22:学習部27は、上記したモデルベースの下で、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を、第1のセンサパラメータ制御部21A及び第2のセンサパラメータ制御部21Bを介して、それぞれ、第1のセンサ22A及び第2のセンサ22Bに出力し、即ち、設定する。 Step ST22: The learning unit 27 obtains the first sensor parameter SP1 and the second sensor parameter SP2 on the basis of the above model via the first sensor parameter control unit 21A and the second sensor parameter control unit 21B. are output to, or set by, the first sensor 22A and the second sensor 22B, respectively.

ステップST23:第1のセンサ22Aは、設定された第1のセンサパラメータSP1の下で、第1の物理量BR1(画像)を検出し、同様に、第2のセンサ22Bは、設定された第2のセンサパラメータSP2の下で、第2の物理量BR2(距離)を検出する。 Step ST23: The first sensor 22A detects the first physical quantity BR1 (image) under the set first sensor parameter SP1, and similarly, the second sensor 22B detects the set second A second physical quantity BR2 (distance) is detected under the sensor parameter SP2 of .

ステップST24:対象物検知率算出部26は、第1のセンサ22Aにより得られた第1の物理量BR1及び第2のセンサ22Bにより得られた第2の物理量BR2を用いて、対象物検知率TKを算出する。 Step ST24: The object detection rate calculator 26 calculates the object detection rate TK using the first physical quantity BR1 obtained by the first sensor 22A and the second physical quantity BR2 obtained by the second sensor 22B. Calculate

ステップST25:対象物検知率算出部26は、算出された対象物検知率TKを予め定められた閾値THと比較する。 Step ST25: The object detection rate calculator 26 compares the calculated object detection rate TK with a predetermined threshold value TH.

ステップST26:対象物検知率TKが前記閾値TH未満であるとき、対象物検知率算出部26は、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を含む複数のセンサパラメータを変更すべき旨を学習部27に通知する。学習部27は、最適解により近い複数のセンサパラメータを見つけるべく、上記した複数のセンサパラメータと相違する複数のセンサパラメータを模索し、換言すれば、センサパラメータを変更する。 Step ST26: When the object detection rate TK is less than the threshold TH, the object detection rate calculator 26 indicates that a plurality of sensor parameters including the first sensor parameter SP1 and the second sensor parameter SP2 should be changed. is notified to the learning unit 27 . In order to find a plurality of sensor parameters closer to the optimum solution, the learning unit 27 searches for a plurality of sensor parameters different from the above-described plurality of sensor parameters, in other words, changes the sensor parameters.

ステップST27:対象物検知率TKが前記閾値TH以上であるとき、対象物検知率算出部26は、上記した対象物検知率TKに対応する現在の第1のセンサパラメータSP1及び第2のセンサパラメータSP2が最適解になり得る旨を学習部27に通知し、即ち、学習部27に現在の第1のセンサパラメータSP1及び第2のセンサパラメータSP2を記憶させる。 Step ST27: When the object detection rate TK is equal to or greater than the threshold TH, the object detection rate calculator 26 calculates the current first sensor parameter SP1 and the second sensor parameter corresponding to the above-described object detection rate TK. The learning unit 27 is notified that SP2 can be the optimum solution, that is, the learning unit 27 is made to store the current first sensor parameter SP1 and second sensor parameter SP2.

ステップST21~ST27を繰り返すとき、処理は、ステップST21に戻る。 When steps ST21 to ST27 are repeated, the process returns to step ST21.

〈実施形態2の動作(推論フェーズ)〉
図9は、実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その1)である。
<Operation of Second Embodiment (Inference Phase)>
FIG. 9 is a flowchart (Part 1) showing the operation in the inference phase of the sensor system SS of the second embodiment.

図10は、実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その2)である。 FIG. 10 is a flowchart (Part 2) showing the operation in the inference phase of the sensor system SS of the second embodiment.

図11は、実施形態2のセンサシステムSSの推論フェーズでの動作を示すフローチャート(その3)である。 FIG. 11 is a flowchart (Part 3) showing the operation in the inference phase of the sensor system SS of the second embodiment.

実施形態2の推論フェーズでの動作について、図9~図11のフローチャートを参照して説明する。 Operations in the inference phase of the second embodiment will be described with reference to the flow charts of FIGS. 9 to 11. FIG.

ステップST31:実施形態1のステップST11と同様に、天候/環境判断部25は、上述した天候及び環境の状況を把握する。 Step ST31: As in step ST11 of the first embodiment, the weather/environment determining unit 25 grasps the weather and environmental conditions described above.

ステップST32:テーブルTBに基づく実施形態1のステップST12と相違し、学習フェーズ(図6、図8に図示。)での学習の結果に基づき、連携処理部24は、天候/環境判断部25により把握された天候及び環境の状況下で、第2のセンサ22Bにより取得された第2の物理量BR2の大きさ等に対応する大きさ等を有する第1のセンサパラメータSP1を第1のセンサパラメータ制御部21Aに出力する。連携処理部24は、同様に、第1のセンサ22Aにより取得された第1の物理量BR1の大きさ等に対応する大きさ等を有する第2のセンサパラメータSP2を第2のセンサパラメータ制御部21Bに出力する。 Step ST32: Unlike step ST12 of the first embodiment based on the table TB, based on the results of learning in the learning phase (shown in FIGS. 6 and 8), the cooperation processing unit 24 causes the weather/environment determination unit 25 to Under the ascertained weather and environmental conditions, a first sensor parameter SP1 having a magnitude etc. corresponding to a magnitude etc. of the second physical quantity BR2 acquired by the second sensor 22B is controlled by the first sensor parameter. Output to the section 21A. Similarly, the cooperation processing unit 24 transfers the second sensor parameter SP2 having a magnitude corresponding to the magnitude of the first physical quantity BR1 acquired by the first sensor 22A to the second sensor parameter control unit 21B. output to

第1のセンサパラメータ制御部21Aは、上記した第1のセンサパラメータSP1を第1のセンサ22Aに設定し、同様に、第2のセンサパラメータ制御部21Bは、上記した第2のセンサパラメータSP2を第2のセンサ22Bに設定する。 The first sensor parameter control unit 21A sets the above-described first sensor parameter SP1 to the first sensor 22A, and similarly, the second sensor parameter control unit 21B sets the above-described second sensor parameter SP2 to Set to the second sensor 22B.

ステップST33~S38:実施形態1のステップST13~ST18と同様な動作を行う。具体的には、以下のとおりである。 Steps ST33 to S38: The same operations as steps ST13 to ST18 of the first embodiment are performed. Specifically, it is as follows.

(1)ステップST33、34A、34B、35A、35B:昼間または夜間のいずれであるかに基づき、テーブルTBを参照することにより、第1のセンサパラメータ制御部21Aは、第1のセンサパラメータSP1(フレームレート)を第1のセンサ22A(カメラ)に設定し、同様に、第2のセンサパラメータ制御部21Bは、第2のセンサパラメータSP2(受信感度)を第2のセンサ22B(レーザレーダ)に設定する。
(2)ステップST36:天候/環境判断部25は、第1のセンサ処理部23Aから出力される第1の物理量BR1等、及び第2のセンサ処理部23Bから出力される第2の物理量BR2に基づき、物体が検知されたか否かを判断する。
(1) Steps ST33, 34A, 34B, 35A, 35B: By referring to the table TB based on whether it is daytime or nighttime, the first sensor parameter control unit 21A sets the first sensor parameter SP1 ( frame rate) to the first sensor 22A (camera), and similarly, the second sensor parameter control unit 21B sets the second sensor parameter SP2 (reception sensitivity) to the second sensor 22B (laser radar) set.
(2) Step ST36: The weather/environment determination unit 25 determines the first physical quantity BR1 and the like output from the first sensor processing unit 23A and the second physical quantity BR2 output from the second sensor processing unit 23B. Based on this, it is determined whether an object has been detected.

(3)ステップST37:第1のセンサ22A(カメラ)は、検知された物体の動態を監視する。 (3) Step ST37: The first sensor 22A (camera) monitors the dynamics of the detected object.

(4)ステップST38:第2のセンサ22B(レーザレーダ)は、検知された物体の位置を計測し、また、速度を算出する。 (4) Step ST38: The second sensor 22B (laser radar) measures the position of the detected object and calculates the speed.

上述したように、実施形態2のセンサシステムSSでは、実施形態1でのテーブルTBに代えて、学習機能を用いる。これにより、第1のセンサ22A及び第2のセンサ22Bに、第1のセンサパラメータSP1及び第2のセンサパラメータSP2を含む多数のセンサパラメータを設定する必要がある場合であっても、前記多数のセンサパラメータを、最適解であるとして、または最適解に近いであろうとして設定することが可能となる。 As described above, the sensor system SS of the second embodiment uses a learning function instead of the table TB of the first embodiment. Accordingly, even when it is necessary to set a large number of sensor parameters including the first sensor parameter SP1 and the second sensor parameter SP2 to the first sensor 22A and the second sensor 22B, the large number of sensor parameters It is possible to set the sensor parameters as being the optimal solution or as it would be close to the optimal solution.

実施形態3.
〈実施形態3〉
実施形態3のセンサシステムについて説明する。
Embodiment 3.
<Embodiment 3>
A sensor system according to Embodiment 3 will be described.

〈実施形態3の機能〉
図12は、実施形態3のセンサシステムSSの機能ブロック図である。
<Functions of Embodiment 3>
FIG. 12 is a functional block diagram of the sensor system SS of Embodiment 3. FIG.

実施形態3のセンサシステムSSの機能について、図12の機能ブロック図を参照して説明する。 Functions of the sensor system SS of Embodiment 3 will be described with reference to the functional block diagram of FIG. 12 .

実施形態3のセンサシステムSSは、図12に示されるように、基本的に、実施形態1のセンサシステムSS(図1に図示。)と同様に、第1のセンサパラメータ制御部31Aと、第2のセンサパラメータ制御部31Bと、第1のセンサ32Aと、第2のセンサ32Bと、第1のセンサ処理部33Aと、第2のセンサ処理部33Bと、連携処理部34と、を含む。 As shown in FIG. 12, the sensor system SS of Embodiment 3 is basically similar to the sensor system SS of Embodiment 1 (shown in FIG. 1), and includes a first sensor parameter control section 31A and a 2 sensor parameter control unit 31B, a first sensor 32A, a second sensor 32B, a first sensor processing unit 33A, a second sensor processing unit 33B, and a cooperation processing unit 34.

実施形態3の第1のセンサパラメータ制御部31A、第2のセンサパラメータ制御部31B、第1のセンサ32A、第2のセンサ32B、第1のセンサ処理部33A、第2のセンサ処理部33B、及び連携処理部34の機能は、実施形態1の第1のセンサパラメータ制御部11A、第2のセンサパラメータ制御部11B、第1のセンサ12A、第2のセンサ12B、第1のセンサ処理部13A、第2のセンサ処理部13B、及び連携処理部14の機能と同様である。 First sensor parameter control unit 31A, second sensor parameter control unit 31B, first sensor 32A, second sensor 32B, first sensor processing unit 33A, second sensor processing unit 33B of Embodiment 3, and the functions of the cooperation processing unit 34 are the first sensor parameter control unit 11A, the second sensor parameter control unit 11B, the first sensor 12A, the second sensor 12B, and the first sensor processing unit 13A of the first embodiment. , the second sensor processing unit 13B, and the cooperation processing unit 14.

実施形態3のセンサシステムSSは、実施形態1のセンサシステムSSと相違し、図12に示されるように、物体判別部38と、追尾処理部39と、を更に含む。 The sensor system SS of Embodiment 3 is different from the sensor system SS of Embodiment 1, and further includes an object discrimination section 38 and a tracking processing section 39, as shown in FIG.

物体判別部38は、第1のセンサ32A(カメラ)が検出可能な範囲である第1の領域RY1(図示せず。)内で第1のセンサ32Aにより検出された第1の物理量BR1、及び、第2のセンサ32B(レーザレーダ)が検出可能な範囲である第2の領域RY2(図示せず。)内で第2のセンサ32Bにより検出された第2の物理量BR2に基づき、対象物(車両、二輪車、人、動物等)を判別し、特に、対象物の種類を判別する。 The object discrimination unit 38 detects a first physical quantity BR1 detected by the first sensor 32A within a first region RY1 (not shown), which is a detectable range of the first sensor 32A (camera), and , an object ( vehicle, two-wheeled vehicle, person, animal, etc.), and in particular, the type of object.

追尾処理部39は、物体判別部38により前記対象物が判別されると、前記対象物を追尾することを開始させ、他方で、状況に応じて、前記対象物を追尾することを中止させる。 The tracking processing unit 39 starts tracking the object when the object is discriminated by the object discriminating unit 38, and stops tracking the object depending on the situation.

〈実施形態3のハードウェア構成〉
実施形態3のセンサシステムSSのハードウェア構成は、実施形態1のセンサシステムSSのハードウェア構成(図2に図示。)と同様である。
<Hardware configuration of the third embodiment>
The hardware configuration of the sensor system SS of the third embodiment is the same as the hardware configuration of the sensor system SS of the first embodiment (illustrated in FIG. 2).

〈実施形態3の動作〉
図13は、実施形態3のセンサシステムSSの動作を示すフローチャートである。
<Operation of Embodiment 3>
FIG. 13 is a flow chart showing the operation of the sensor system SS of the third embodiment.

実施形態3のセンサシステムSSの動作について、図13のフローチャートを参照して説明する。 The operation of the sensor system SS of Embodiment 3 will be described with reference to the flowchart of FIG.

以下では、説明及び理解を容易にすべく、以下を想定する。
(1)第1のセンサ32A(カメラ)が検出可能な第1の領域RY1と、第2のセンサ32B(レーザレーダ)が検出可能な第2の領域RY2とが相違すること。
(2)対象物、即ち、物体が、第2の領域RY2に進入した後に、第1の領域RY1に進入すること。
In the following, the following assumptions are made for ease of explanation and understanding.
(1) The first area RY1 detectable by the first sensor 32A (camera) is different from the second area RY2 detectable by the second sensor 32B (laser radar).
(2) The object, that is, the object enters the first region RY1 after entering the second region RY2.

ステップST41:物体判別部38は、例えば、第2のセンサ32B(レーザレーダ)を用いて、対象物を検知することを試みる。対象物が検知されたときには、処理は、ステップST42に進み、他方で、対象物が検知されないときには、処理は、ステップST41に戻る。 Step ST41: The object discrimination section 38 attempts to detect the object using, for example, the second sensor 32B (laser radar). When the object is detected, the process proceeds to step ST42, and when the object is not detected, the process returns to step ST41.

物体判別部38は、自車両に搭載された第2のセンサ32B(レーザレーダ)を用いて、例えば、隣車線(第2の領域RY2)を走行する前方の他車両が、車線変更を行うことにより、隣車線(第2の領域RY2)から同一車線(第1の領域RY1)へ移動することを検知する。物体判別部38は、対象物が検知された旨を追尾処理部39に通知する。 The object discriminating unit 38 uses a second sensor 32B (laser radar) mounted on the own vehicle to determine, for example, when another vehicle ahead traveling in the next lane (second region RY2) changes lanes. , the movement from the adjacent lane (second region RY2) to the same lane (first region RY1) is detected. The object discrimination unit 38 notifies the tracking processing unit 39 that the object has been detected.

ステップST42:追尾処理部39は、第1のセンサ32A(カメラ)に、例えば、第2のセンサ32B(レーザレーダ)により検知された、同一車線(第1の領域RY1)における前方の他車両の動態を監視することを開始させ、即ち、前方の他車両を追尾することを開始させる。 Step ST42: The tracking processing unit 39 causes the first sensor 32A (camera) to detect, for example, the second sensor 32B (laser radar) of another vehicle ahead in the same lane (first region RY1). Start monitoring the dynamics, that is, start tracking other vehicles in front.

ステップST43:追尾処理部39は、第1のセンサ32A(カメラ)が前方の他車両を追尾することを継続することが可能であるか否かを判断する。継続可能であると判断されると、第1のセンサ32A(カメラ)は、追尾を継続し、他方で、継続不可能であると判断されると、第1のセンサ32A(カメラ)は、追尾を中止する。 Step ST43: The tracking processing section 39 determines whether or not the first sensor 32A (camera) can continue to track another vehicle ahead. If it is determined that it is possible to continue tracking, the first sensor 32A (camera) continues tracking. cancel.

〈実施形態3の効果〉
上述したように、実施形態3のセンサシステムSSでは、第2のセンサ32B(レーザレーダ)が第2の領域RY2で対象物の動きを検知した後に、前記検知に応答して、第1のセンサ32A(カメラ)が第1の領域RY1で対象物を追尾することを開始する。これにより、レーザレーダ単体のみ、または、カメラ単体のみでは行うことができない、検知及び追尾の組み合わせを実現することができる。
<Effect of Embodiment 3>
As described above, in the sensor system SS of Embodiment 3, after the second sensor 32B (laser radar) detects the movement of the target object in the second region RY2, the first sensor 32B responds to the detection. 32A (camera) starts tracking the object in the first area RY1. This makes it possible to achieve a combination of detection and tracking that cannot be achieved with a laser radar alone or a camera alone.

〈変形例〉
上述した実施形態1~3の2つのセンサ(第1のセンサ及び第2のセンサ)等に代えて、3つ以上のセンサ等を用いるセンサシステムSSであっても、実施形態1~実施形態3と同様な効果を奏することができる。
<Modification>
Even if the sensor system SS uses three or more sensors instead of the two sensors (the first sensor and the second sensor) in the above-described Embodiments 1 to 3, Embodiments 1 to 3 Similar effects can be obtained.

本開示の要旨を逸脱しない範囲で、上述した実施形態同士を組み合わせてもよく、また、各実施形態中の構成要素を適宜、削除し、変更し、または、他の構成要素を追加してもよい。 The above-described embodiments may be combined without departing from the gist of the present disclosure, and components in each embodiment may be deleted, changed, or added as appropriate. good.

本開示に係るセンサシステムは、センサがデータを検出することができなくても、前記センサに、前記センサの動作を規定するためのパラメータを設定することに利用可能である。 The sensor system according to the present disclosure can be used to set parameters for defining the operation of the sensor in the sensor even if the sensor cannot detect data.

11A 第1のセンサパラメータ制御部、11B 第2のセンサパラメータ制御部、12A 第1のセンサ、12B 第2のセンサ、13A 第1のセンサ処理部、13B 第2のセンサ処理部、14 連携処理部、15 天候/環境判断部、21A 第1のセンサパラメータ制御部、21B 第2のセンサパラメータ制御部、22A 第1のセンサ、22B 第2のセンサ、23A 第1のセンサ処理部、23B 第2のセンサ処理部、24 連携処理部、25 天候/環境判断部、26 対象物検知率算出部、27 学習部、31A 第1のセンサパラメータ制御部、31B 第2のセンサパラメータ制御部、32A 第1のセンサ、32B 第2のセンサ、33A 第1のセンサ処理部、33B 第2のセンサ処理部、34 連携処理部、38 物体検知部、39 追尾処理部、KB 記憶媒体、KJ 環境条件、MM メモリ、NY 入力部、PC プロセッサ、PR プログラム、SP1 第1のセンサパラメータ、SP2 第2のセンサパラメータ、SS センサシステム。 11A first sensor parameter control unit, 11B second sensor parameter control unit, 12A first sensor, 12B second sensor, 13A first sensor processing unit, 13B second sensor processing unit, 14 cooperation processing unit , 15 weather/environment determination unit, 21A first sensor parameter control unit, 21B second sensor parameter control unit, 22A first sensor, 22B second sensor, 23A first sensor processing unit, 23B second sensor processing unit 24 cooperation processing unit 25 weather/environment determination unit 26 object detection rate calculation unit 27 learning unit 31A first sensor parameter control unit 31B second sensor parameter control unit 32A first sensor, 32B second sensor, 33A first sensor processing unit, 33B second sensor processing unit, 34 cooperation processing unit, 38 object detection unit, 39 tracking processing unit, KB storage medium, KJ environmental condition, MM memory, NY input, PC processor, PR program, SP1 first sensor parameter, SP2 second sensor parameter, SS sensor system.

Claims (4)

第1の物理量を検出すべき第1のセンサであって前記第1のセンサの動作を規定する第1のパラメータの設定を受けるべき前記第1のセンサと、 a first sensor that is to detect a first physical quantity and that is to receive setting of a first parameter that defines the operation of the first sensor;
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determining unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
前記判断部は、水溜まりでの水紋の個数を計数することにより、降雨量及び降雪量を算出する、 The determination unit calculates the amount of rainfall and the amount of snowfall by counting the number of water patterns in the puddle.
センサシステム。 sensor system.
第1の物理量を検出すべき第1のセンサであって前記第1のセンサの動作を規定する第1のパラメータの設定を受けるべき前記第1のセンサと、 a first sensor that is to detect a first physical quantity and that is to receive setting of a first parameter that defines the operation of the first sensor;
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determining unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
前記判断部は、空間中で離散的に検出される雨粒からの反射信号の個数を計数することにより、降雨量及び降雪量を算出する、 The determination unit calculates the amount of rainfall and the amount of snowfall by counting the number of reflected signals from raindrops that are discretely detected in space.
センサシステム。 sensor system.
第1の物理量を検出すべき第1のセンサであって前記第1のセンサの動作を規定する第1のパラメータの設定を受けるべき前記第1のセンサと、 a first sensor that is to detect a first physical quantity and that is to receive setting of a first parameter that defines the operation of the first sensor;
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determining unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
湿潤である前記路面上を黒い車が走行しているとき、前記黒い車の明るい部分を検出し、前記第1のセンサ又は前記第2のセンサが走査する範囲を前記検出された明るい部分に合わせるようにするセンサパラメータ制御部を更に含む、 When the black car is running on the wet road surface, a bright part of the black car is detected, and the range scanned by the first sensor or the second sensor is adjusted to the detected bright part. further comprising a sensor parameter control for
センサシステム。 sensor system.
第1の物理量を検出すべき第1のセンサであって前記第1のセンサの動作を規定する第1のパラメータの設定を受けるべき前記第1のセンサと、 a first sensor that is to detect a first physical quantity and that is to receive setting of a first parameter that defines the operation of the first sensor;
第2の物理量を検出すべき第2のセンサであって前記第2のセンサの動作を規定する第2のパラメータの設定を受けるべき前記第2のセンサと、 a second sensor that is to detect a second physical quantity and that is to receive setting of a second parameter that defines the operation of the second sensor;
路面の状況を判断する判断部と、 a judgment unit for judging the condition of the road surface;
前記判断部により判断された路面の状況下で、前記検出された第2の物理量に基づき、予め定められたテーブルを参照することにより、前記第1のセンサに前記第1のパラメータを設定し、かつ、前記検出された第1の物理量に基づき、前記予め定められたテーブルを参照することにより、前記第2のセンサに前記第2のパラメータを設定する連携処理部と、 setting the first parameter to the first sensor by referring to a predetermined table based on the detected second physical quantity under the condition of the road surface determined by the determination unit; and a cooperation processing unit that sets the second parameter to the second sensor by referring to the predetermined table based on the detected first physical quantity;
を含み、 including
背景が白であり、かつ、対象物が白であるとき、前記対象物までの距離を検出し、前記距離の検出を契機に、前記第1のセンサ又は前記第2のセンサによる追尾を開始させる、センサパラメータ制御部を更に含む、 When the background is white and the object is white, the distance to the object is detected, and the detection of the distance triggers the tracking by the first sensor or the second sensor. , further comprising a sensor parameter control,
センサシステム。 sensor system.
JP2022522587A 2021-12-14 2021-12-14 sensor system Active JP7154459B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/045914 WO2023112108A1 (en) 2021-12-14 2021-12-14 Sensor system

Publications (3)

Publication Number Publication Date
JP7154459B1 true JP7154459B1 (en) 2022-10-17
JPWO2023112108A1 JPWO2023112108A1 (en) 2023-06-22
JPWO2023112108A5 JPWO2023112108A5 (en) 2023-11-15

Family

ID=83637953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522587A Active JP7154459B1 (en) 2021-12-14 2021-12-14 sensor system

Country Status (2)

Country Link
JP (1) JP7154459B1 (en)
WO (1) WO2023112108A1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61175550A (en) * 1985-01-31 1986-08-07 Meisei Electric Co Ltd Optical measuring method and apparatus for intensity of rain and snow falling
JP2005114588A (en) * 2003-10-08 2005-04-28 Mitsubishi Heavy Ind Ltd Tracking device
JP2012015638A (en) * 2010-06-29 2012-01-19 Sharp Corp Unmanned space display system and moving object provided with the same
JP2016085602A (en) * 2014-10-27 2016-05-19 株式会社日立製作所 Sensor information integrating method, and apparatus for implementing the same
JP2018134962A (en) * 2017-02-21 2018-08-30 マツダ株式会社 Vehicular control device
WO2019216393A1 (en) * 2018-05-10 2019-11-14 パナソニックIpマネジメント株式会社 Road surface state estimating method, road surface state estimating device, and road surface state estimating system
JP2020035443A (en) * 2018-08-24 2020-03-05 株式会社豊田中央研究所 Sensing device
WO2020230645A1 (en) * 2019-05-13 2020-11-19 日本電気株式会社 Position estimation system, position estimation method, program, and recording medium
JP2021076418A (en) * 2019-11-06 2021-05-20 株式会社フジタ Rainfall calculation device
US11036227B1 (en) * 2012-09-27 2021-06-15 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61175550A (en) * 1985-01-31 1986-08-07 Meisei Electric Co Ltd Optical measuring method and apparatus for intensity of rain and snow falling
JP2005114588A (en) * 2003-10-08 2005-04-28 Mitsubishi Heavy Ind Ltd Tracking device
JP2012015638A (en) * 2010-06-29 2012-01-19 Sharp Corp Unmanned space display system and moving object provided with the same
US11036227B1 (en) * 2012-09-27 2021-06-15 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
JP2016085602A (en) * 2014-10-27 2016-05-19 株式会社日立製作所 Sensor information integrating method, and apparatus for implementing the same
JP2018134962A (en) * 2017-02-21 2018-08-30 マツダ株式会社 Vehicular control device
WO2019216393A1 (en) * 2018-05-10 2019-11-14 パナソニックIpマネジメント株式会社 Road surface state estimating method, road surface state estimating device, and road surface state estimating system
JP2020035443A (en) * 2018-08-24 2020-03-05 株式会社豊田中央研究所 Sensing device
WO2020230645A1 (en) * 2019-05-13 2020-11-19 日本電気株式会社 Position estimation system, position estimation method, program, and recording medium
JP2021076418A (en) * 2019-11-06 2021-05-20 株式会社フジタ Rainfall calculation device

Also Published As

Publication number Publication date
WO2023112108A1 (en) 2023-06-22
JPWO2023112108A1 (en) 2023-06-22

Similar Documents

Publication Publication Date Title
US9371031B2 (en) Method for controlling a headlamp system for a vehicle, and headlamp system
CN109703460B (en) Multi-camera complex scene self-adaptive vehicle collision early warning device and early warning method
US8862336B2 (en) Method for controlling a headlamp system for a vehicle, and headlamp system
JP2013047934A (en) In-vehicle environment recognition device
JP7059817B2 (en) Driving support device
CN111179220B (en) Lane mark line quality detection method, system and storage medium
US11506510B1 (en) Method and system for identifying confidence level of autonomous driving system
CN110682907B (en) Automobile rear-end collision prevention control system and method
CN111222441B (en) Point cloud target detection and blind area target detection method and system based on vehicle-road cooperation
CN112101316B (en) Target detection method and system
CN105426868A (en) Lane detection method based on adaptive region of interest
CN111505623A (en) Method and system for detecting obstacle in driving process of unmanned vehicle and vehicle
CN111797701B (en) Road obstacle sensing method and system for vehicle multi-sensor fusion system
CN109919062A (en) A kind of road scene weather recognition methods based on characteristic quantity fusion
JP7154459B1 (en) sensor system
CN202911633U (en) Dynamic detection device based on multi-information fusion for hybrid electric vehicle lane identification lines
US20210155158A1 (en) Navigation system with lane estimation mechanism and method of operation thereof
CN114973208B (en) Vehicle blind area monitoring and early warning method and related equipment
CN114030443A (en) Windshield wiper control method based on electronic horizon, terminal device and storage medium
JP7156195B2 (en) object recognition device
JP3771729B2 (en) Traffic flow measurement system
JPH11219493A (en) Method for processing traffic information
CN112130563A (en) Multi-target screening auxiliary driving control method
JP2020061052A (en) Traffic light determination device
CN110531347A (en) Detection method, device and the computer readable storage medium of laser radar

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221004

R150 Certificate of patent or registration of utility model

Ref document number: 7154459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150