JP2023059629A - Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program - Google Patents

Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program Download PDF

Info

Publication number
JP2023059629A
JP2023059629A JP2021169736A JP2021169736A JP2023059629A JP 2023059629 A JP2023059629 A JP 2023059629A JP 2021169736 A JP2021169736 A JP 2021169736A JP 2021169736 A JP2021169736 A JP 2021169736A JP 2023059629 A JP2023059629 A JP 2023059629A
Authority
JP
Japan
Prior art keywords
road surface
state
host vehicle
condition
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021169736A
Other languages
Japanese (ja)
Inventor
健太郎 新井
Kentaro Arai
駿 清水
Shun Shimizu
健二 武藤
Kenji Muto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021169736A priority Critical patent/JP2023059629A/en
Publication of JP2023059629A publication Critical patent/JP2023059629A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a road surface state estimation system and the like which can estimate the state of a road surface while securing a detectable distance of an optical sensor.SOLUTION: A road surface state estimation system includes a processor and estimates the state of a road surface on which a host vehicle having an optical sensor for detecting reflection light according to the light irradiation travels. The processor is configured to execute acquisition of reflection light information on the travel direction rear side by the optical sensor. The processor is configured to execute recognition of a scattering state of a scattering substance swirled up from the road surface by the travel of a host vehicle on the basis of the reflection light information. The processor is configured to execute estimation of the state of the road surface on the basis of the scattering state.SELECTED DRAWING: Figure 5

Description

本開示は、ホスト車両が走行する路面の状態を推定する路面状態推定技術に、関する。 The present disclosure relates to a road surface condition estimation technique for estimating the condition of a road surface on which a host vehicle travels.

特許文献1には、車両が走行する路面の状態を推定する路面状態推定装置が開示されている。この路面状態推定装置は、レーザレーダにより路面上を走査するようにレーザ光を照射し、各照射点に対応する反射強度値を取得する。路面状態推定装置は、機械学習により生成され、反射強度値を用いて路面状態を判別する路面状態判別器を備える。路面状態判別器は、路面状態が未知の路面について取得された多点反射強度値セットを入力として、路面状態を判別して出力する。 Patent Document 1 discloses a road surface state estimation device that estimates the state of a road surface on which a vehicle travels. This road surface condition estimation device irradiates a laser beam so as to scan the road surface with a laser radar, and obtains a reflection intensity value corresponding to each irradiation point. The road surface condition estimation device includes a road surface condition discriminator which is generated by machine learning and discriminates the road surface condition using the reflection intensity value. The road surface condition discriminator receives as input a set of multi-point reflection intensity values obtained for a road surface with an unknown road surface condition, and discriminates and outputs the road surface condition.

特開2014‐228300号公報Japanese Patent Application Laid-Open No. 2014-228300

特許文献1の技術では、レーザ光が路面上を走査するようにレーザレーダを設置する必要がある。しかし、その場合、レーザレーダの検知可能な距離が比較的短くなる。 In the technique of Patent Document 1, it is necessary to install the laser radar so that the laser beam scans the road surface. However, in that case, the detectable distance of the laser radar becomes relatively short.

本開示の課題は、光学センサの検知可能距離を確保しつつ、路面の状態を推定可能な路面状態推定システムを、提供することにある。本開示の別の課題は、路面状態推定装置を、提供することにある。本開示のさらに別の課題は、路面状態推定方法を、提供することにある。本開示のさらに別の課題は、路面状態推定プログラムを、提供することにある。 An object of the present disclosure is to provide a road surface condition estimation system capable of estimating the condition of the road surface while ensuring the detectable distance of the optical sensor. Another object of the present disclosure is to provide a road surface condition estimation device. Yet another object of the present disclosure is to provide a road surface state estimation method. Yet another object of the present disclosure is to provide a road surface state estimation program.

以下、課題を解決するための本開示の技術的手段について、説明する。尚、特許請求の範囲及び本欄に記載された括弧内の符号は、後に詳述する実施形態に記載された具体的手段との対応関係を示すものであり、本開示の技術的範囲を限定するものではない。 Technical means of the present disclosure for solving the problems will be described below. It should be noted that the symbols in parentheses described in the claims and this column indicate the correspondence with specific means described in the embodiments described in detail later, and limit the technical scope of the present disclosure. not something to do.

本開示の第1態様は、プロセッサ(102)を有し、光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定する路面状態推定システムであって、
プロセッサは、
光学センサによる走行方向後方の反射光情報を取得することと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識することと、
飛散状態に基づいて、路面の状態を推定することと、
を実行するように構成される。
A first aspect of the present disclosure has a processor (102) and is equipped with an optical sensor (10) that detects reflected light according to light irradiation. An estimation system,
The processor
Acquiring reflected light information behind the traveling direction by an optical sensor;
Recognizing the state of scattering of scattered substances that have been lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
configured to run

本開示の第2態様は、プロセッサ(102)を有し、光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定する路面状態推定装置であって、
プロセッサは、
光学センサによる走行方向後方の反射光情報を取得することと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識することと、
飛散状態に基づいて、路面の状態を推定することと、
を実行するように構成される。
A second aspect of the present disclosure has a processor (102) and is equipped with an optical sensor (10) that detects reflected light according to light irradiation. An estimating device,
The processor
Acquiring reflected light information behind the traveling direction by an optical sensor;
Recognizing the state of scattering of scattered substances that have been lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
configured to run

本開示の第3態様は、光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定するために、プロセッサ(102)により実行される路面状態推定方法であって、
光学センサによる走行方向後方の反射光情報を取得することと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識することと、
飛散状態に基づいて、路面の状態を推定することと、
を含む。
A third aspect of the present disclosure is executed by a processor (102) to estimate the condition of a road surface on which a host vehicle (A) equipped with an optical sensor (10) that detects reflected light in response to light irradiation. A road surface state estimation method comprising:
Acquiring reflected light information behind the traveling direction by an optical sensor;
Recognizing the state of scattering of scattered substances that have been lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
including.

本開示の第4態様は、光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定するために記憶媒体(101)に記憶され、プロセッサ(102)に実行させる命令を含む路面状態推定プログラムであって、
命令は、
光学センサによる走行方向後方の反射光情報を取得させることと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識させることと、
飛散状態に基づいて、路面の状態を推定させることと、
を含む。
A fourth aspect of the present disclosure is stored in a storage medium (101) for estimating the state of a road surface on which a host vehicle (A) equipped with an optical sensor (10) that detects reflected light according to light irradiation. , a road surface condition estimation program including instructions to be executed by a processor (102),
the instruction is
Acquiring reflected light information behind the traveling direction by an optical sensor;
Recognizing the state of scattering of scattered substances that have been lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
including.

これら第1~第4態様によると、走行方向後方の反射光情報により、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態に基づき、路面の状態が推定される。故に、走行により巻き上げられる物質が路面上に存在するか否かが、飛散物質の飛散状態により間接的に推定され得る。したがって、光学センサが路面上を走査する必要性が低下するため、当該センサの検知可能距離を確保し易くなる。以上により、光学センサの検知可能距離を確保しつつ、路面の状態を推定可能となり得る。 According to the first to fourth aspects, the state of the road surface can be estimated based on the state of scattering of the scattered substances that have been lifted up from the road surface by the running of the host vehicle, based on the reflected light information behind the vehicle in the running direction. Therefore, it is possible to indirectly estimate whether or not there is a substance on the road surface that is picked up by running, based on the scattering state of the flying substance. This reduces the need for the optical sensor to scan the road surface, making it easier to secure a detectable distance for the sensor. As described above, it is possible to estimate the state of the road surface while ensuring the detectable distance of the optical sensor.

第1実施形態の全体構成を示すブロック図である。It is a block diagram showing the whole composition of a 1st embodiment. 第1実施形態の適用されるホスト車両の走行環境を示す模式図である。FIG. 2 is a schematic diagram showing a running environment of a host vehicle to which the first embodiment is applied; 第1実施形態による路面状態推定システムの機能構成を示すブロック図である。1 is a block diagram showing the functional configuration of a road surface condition estimation system according to a first embodiment; FIG. 第1実施形態による路面状態推定方法を示すフローチャートである。4 is a flowchart showing a road surface state estimation method according to the first embodiment; 図4の詳細処理を示すフローチャートである。5 is a flowchart showing detailed processing of FIG. 4; 点数のカウント方法を示す図である。It is a figure which shows the counting method of a score. 第2実施形態による路面状態推定方法を示すフローチャートである。8 is a flowchart showing a road surface state estimation method according to the second embodiment; 第3実施形態による路面状態推定方法を示すフローチャートである。9 is a flowchart showing a road surface state estimation method according to the third embodiment; 検出ロジックの違いを示す模式図である。It is a schematic diagram which shows the difference of a detection logic. 第4実施形態による路面状態推定方法を示すフローチャートである。14 is a flowchart showing a road surface state estimation method according to the fourth embodiment; 第5実施形態による路面状態推定方法を示すフローチャートである。14 is a flowchart showing a road surface state estimation method according to the fifth embodiment;

以下、本開示の実施形態を図面に基づき複数説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことで、重複する説明を省略する場合がある。又、各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。さらに、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。 A plurality of embodiments of the present disclosure will be described below based on the drawings. Note that redundant description may be omitted by assigning the same reference numerals to corresponding components in each embodiment. Moreover, when only a part of the configuration is described in each embodiment, the configurations of the other embodiments previously described can be applied to the other portions of the configuration. Furthermore, not only the combinations of the configurations explicitly specified in the description of each embodiment, but also the configurations of the multiple embodiments can be partially combined even if they are not explicitly specified unless there is a particular problem with the combination.

(第1実施形態)
図1に示す第1実施形態の路面状態推定システム100は、図2に示すホスト車両Aが走行する路面の状態を推定する。ホスト車両Aを中心とする視点において、ホスト車両Aは自車両(ego-vehicle)であるともいえる。ホスト車両Aを中心とする視点において、ターゲット車両Bは他道路ユーザであるともいえる。
(First embodiment)
The road surface condition estimation system 100 of the first embodiment shown in FIG. 1 estimates the condition of the road surface on which the host vehicle A shown in FIG. 2 travels. From a viewpoint centering on the host vehicle A, the host vehicle A can also be said to be an ego-vehicle. From the viewpoint centered on the host vehicle A, the target vehicle B can also be said to be a user on another road.

ホスト車両Aにおいては、運転タスクにおける乗員の手動介入度に応じてレベル分けされる、自動運転モードが与えられる。自動運転モードは、条件付運転自動化、高度運転自動化、又は完全運転自動化といった、作動時のシステムが全ての運転タスクを実行する自律走行制御により、実現されてもよい。自動運転モードは、運転支援、又は部分運転自動化といった、乗員が一部若しくは全ての運転タスクを実行する高度運転支援制御により、実現されてもよい。自動運転モードは、それら自律走行制御と高度運転支援制御とのいずれか一方、組み合わせ、又は切り替えにより実現されてもよい。 The host vehicle A is given an automatic driving mode that is classified according to the degree of manual intervention of the driver in the driving task. Autonomous driving modes may be achieved by autonomous cruise control, such as conditional driving automation, advanced driving automation, or full driving automation, in which the system performs all driving tasks when activated. Autonomous driving modes may be provided by advanced driving assistance controls, such as driving assistance or partial driving automation, in which the occupant performs some or all driving tasks. The automatic driving mode may be realized by either one, combination, or switching of the autonomous driving control and advanced driving support control.

ホスト車両Aには、図3に示すLiDAR装置10、内界センサ20、通信系30、及び走行制御系40が搭載される。 The host vehicle A is equipped with the LiDAR device 10, the internal sensor 20, the communication system 30, and the travel control system 40 shown in FIG.

LiDAR装置10は、光の照射に対する反射点からの反射光を検出することで、反射点までの距離を測定する光学センサである。ホスト車両Aには、例えば、少なくともホスト車両Aの後方をセンシング領域とするLiDAR装置10が設けられている。ホスト車両Aには、さらに、ホスト車両Aの前方をセンシング領域とするLiDAR装置10が設けられていてもよい。すなわち、LiDAR装置10は、ホスト車両Aに複数設けられていてよい。又は、ホスト車両Aの実質全周囲をセンシング領域とするLiDAR装置10が設けられていてもよい。LiDAR装置10は、発光部11、受光部12、ミラー及び制御回路14を備えている。 The LiDAR device 10 is an optical sensor that measures the distance to a reflection point by detecting reflected light from the reflection point with respect to irradiation of light. The host vehicle A is provided with a LiDAR device 10 having a sensing area at least behind the host vehicle A, for example. The host vehicle A may further be provided with a LiDAR device 10 having a sensing area in front of the host vehicle A. FIG. That is, the host vehicle A may be provided with a plurality of LiDAR devices 10 . Alternatively, the LiDAR device 10 having a sensing area substantially all around the host vehicle A may be provided. The LiDAR device 10 includes a light emitting section 11, a light receiving section 12, a mirror and a control circuit 14.

発光部11は、例えばレーザダイオード等の、指向性レーザ光を発する半導体素子である。発光部11は、車両Aの外界へ向かうレーザ光を、断続的なパルスビーム状に照射する。受光部12は、例えばSPAD(Single Photon Avalanche Diode)等の、光に対して高感度な受光素子により構成されている。受光素子は、二次元方向にアレイ状に複数配列されている。隣接する複数の受光素子の組により、1つの受光画素(以下、画素ともいう)が構成される。尚、1つの受光画素を構成する受光素子の個数は、制御回路14により変更可能である。受光部12の外界のうち、受光部12の画角により決まるセンシング領域から入射する光により、受光素子が露光される。 The light emitting unit 11 is a semiconductor element, such as a laser diode, that emits directional laser light. The light emitting unit 11 irradiates laser light toward the outside of the vehicle A in the form of an intermittent pulse beam. The light receiving unit 12 is configured by a light receiving element having high sensitivity to light, such as SPAD (Single Photon Avalanche Diode). A plurality of light receiving elements are arranged in an array in a two-dimensional direction. A set of adjacent light-receiving elements constitutes one light-receiving pixel (hereinafter also referred to as pixel). It should be noted that the number of light-receiving elements forming one light-receiving pixel can be changed by the control circuit 14 . The light-receiving element is exposed to the light incident from the sensing area determined by the angle of view of the light-receiving unit 12 in the external world of the light-receiving unit 12 .

アクチュエータ13は、発光部11から照射されたレーザ光をLiDAR装置10の出射面へと反射する反射鏡の反射角を制御する。アクチュエータ13が反射鏡の反射角を制御することで、レーザ光がスキャンされる。スキャン方向は、水平方向であってもよく、垂直方向であってもよい。尚、アクチュエータ13は、LiDAR装置10の筐体自体の姿勢角を制御することで、レーザ光をスキャンするものであってもよい。 The actuator 13 controls the reflection angle of a reflector that reflects the laser light emitted from the light emitting unit 11 to the emission surface of the LiDAR device 10 . The laser beam is scanned by the actuator 13 controlling the angle of reflection of the reflecting mirror. The scanning direction may be horizontal or vertical. The actuator 13 may scan the laser light by controlling the attitude angle of the housing of the LiDAR device 10 itself.

制御回路14は、発光部11、受光部12及びアクチュエータ13を制御する。制御回路14は、メモリ及びプロセッサを、少なくとも1つずつ含んで構成されるコンピュータである。メモリは、コンピュータにより読み取り可能なプログラム及びデータを非一時的に格納又は記憶する、例えば半導体メモリ、磁気媒体及び光学媒体等のうち少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリは、プロセッサによって実行される種々のプログラムを格納している。 The control circuit 14 controls the light emitting section 11 , the light receiving section 12 and the actuator 13 . The control circuit 14 is a computer including at least one memory and at least one processor. Memory is at least one type of non-transitory tangible storage medium such as semiconductor memory, magnetic medium, optical medium, etc., for non-transitory storage or storage of computer-readable programs and data. medium). The memory stores various programs that are executed by the processor.

制御回路14は、受光部12における複数画素の露光及びスキャンを制御すると共に、受光部12からの信号を処理してデータ化する。制御回路14は、発光部11による光照射に対する反射光を受光部12にて検出する反射光検出を実行可能である。 The control circuit 14 controls exposure and scanning of a plurality of pixels in the light receiving section 12, and processes signals from the light receiving section 12 into data. The control circuit 14 can perform reflected light detection in which the light receiving section 12 detects the reflected light of the light emitted from the light emitting section 11 .

反射光検出において、発光部11から照射されたレーザ光は、センシング領域内の物体にあたり、反射する。この反射した部分がレーザ光の反射点となる。反射点にて反射されたレーザ光(以下、反射光という)は入射面を通して受光部12に入射し、露光する。このとき制御回路14は、受光部12の複数画素をスキャンすることで、画角内の様々な角度の反射光を取得する。これにより、制御回路14は、反射物の点群画像を取得する。 In reflected light detection, the laser light emitted from the light emitting unit 11 hits an object within the sensing area and is reflected. This reflected portion becomes a reflection point of the laser beam. The laser light reflected at the reflection point (hereinafter referred to as reflected light) is incident on the light receiving section 12 through the incident surface and exposed. At this time, the control circuit 14 scans a plurality of pixels of the light receiving unit 12 to obtain reflected light at various angles within the angle of view. Thereby, the control circuit 14 acquires a point cloud image of the reflecting object.

詳記すると、制御回路14は、各画素において、一定時間内にスキャンして得られた反射光の強度、又はその強度に基づいて得られた値(以下、反射強度と表記する)を得られた距離ごとに積算する。これにより、制御回路14は、図5等に示すような距離と反射強度のヒストグラムを取得する。制御回路14は、ヒストグラムの各ビンの反射強度に基づいて反射点までの距離を算出する。具体的には、制御回路14は、所定の閾値以上のビンに対して、近似曲線を生成し、当該近似曲線の極値を、その画素における反射点までの距離とする。制御回路14は、全画素について上述の処理を行うことで、画素ごとに距離情報を含んだ点群画像を生成可能である。点群画像は、「反射光情報」の一例である。 Specifically, the control circuit 14 obtains the intensity of the reflected light obtained by scanning each pixel within a certain period of time, or a value obtained based on the intensity (hereinafter referred to as reflection intensity). Accumulated for each distance. Thereby, the control circuit 14 obtains a histogram of distance and reflection intensity as shown in FIG. The control circuit 14 calculates the distance to the reflection point based on the reflection intensity of each bin of the histogram. Specifically, the control circuit 14 generates an approximated curve for bins equal to or greater than a predetermined threshold value, and defines the extreme value of the approximated curve as the distance to the reflection point in that pixel. The control circuit 14 can generate a point cloud image including distance information for each pixel by performing the above-described processing for all pixels. A point cloud image is an example of "reflected light information."

尚、制御回路14は、発光部11による光照射の停止中に背景光を受光部12にて検出する背景光検出も実行可能である。背景光は、外光又は外乱光と呼称することも可能である。 The control circuit 14 can also detect background light by the light receiving unit 12 while light irradiation by the light emitting unit 11 is stopped. Background light can also be called external light or ambient light.

制御回路14は、以上の反射光検出時及び背景光検出時において、発光部11のスキャン速度及び受光部12の受光周波数を制御可能である。制御回路14は、アクチュエータ13を制御することで、スキャン速度を変更する。 The control circuit 14 can control the scanning speed of the light emitting unit 11 and the light receiving frequency of the light receiving unit 12 when detecting reflected light and detecting background light. The control circuit 14 changes the scan speed by controlling the actuator 13 .

内界センサ20は、ホスト車両Aの内部環境となる内界から、路面状態推定システム100により利用可能な内界情報を取得する。内界センサ20は、ホスト車両Aの内界において特定の運動物理量を検知することで、内界情報を取得する。内界センサ20は、車速センサを含む。内界センサ20は、加速度センサ、及びジャイロセンサ等のうち、少なくとも一種類をさらに含んでいてもよい。 The inner world sensor 20 acquires inner world information that can be used by the road surface state estimation system 100 from the inner world that is the internal environment of the host vehicle A. FIG. The inner world sensor 20 acquires inner world information by detecting a specific kinematic physical quantity in the inner world of the host vehicle A. FIG. The internal sensor 20 includes a vehicle speed sensor. The internal sensor 20 may further include at least one of an acceleration sensor, a gyro sensor, and the like.

通信系30は、路面状態推定システム100により利用可能な通信情報を、無線通信により取得する。通信系30は、ホスト車両Aの外界に存在するGNSS(Global Navigation Satellite System)の人工衛星から、測位信号を受信してもよい。測位タイプの通信系30は、例えばGNSS受信機等である。通信系30は、ホスト車両Aの外界に存在するV2Xシステムとの間において、通信信号を送受信してもよい。V2Xタイプの通信系30は、例えばDSRC(Dedicated Short Range Communications)通信機、及びセルラV2X(C-V2X)通信機等のうち、少なくとも一種類である。通信系30は、ホスト車両Aの内界に存在する端末との間において、通信信号を送受信してもよい。端末通信タイプの通信系30は、例えばBluetooth(登録商標)機器、Wi-Fi(登録商標)機器、及び赤外線通信機器等のうち、少なくとも一種類である。 The communication system 30 acquires communication information that can be used by the road surface condition estimation system 100 through wireless communication. The communication system 30 may receive positioning signals from artificial satellites of GNSS (Global Navigation Satellite System) existing outside the host vehicle A. The positioning type communication system 30 is, for example, a GNSS receiver or the like. The communication system 30 may transmit and receive communication signals to and from a V2X system existing outside the host vehicle A. The V2X type communication system 30 is, for example, at least one of a DSRC (Dedicated Short Range Communications) communication device, a cellular V2X (C-V2X) communication device, and the like. The communication system 30 may transmit and receive communication signals to and from terminals existing in the inner world of the host vehicle A. The terminal communication type communication system 30 is, for example, at least one of Bluetooth (registered trademark) equipment, Wi-Fi (registered trademark) equipment, infrared communication equipment, and the like.

走行制御系40は、ホスト車両Aの走行制御を行う構成である。走行制御系40としては、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等がある。走行制御系40は、ホスト車両Aに搭載された舵角センサ、車速センサ等の各センサから出力される検出信号を取得し、電子制御スロットル、ブレーキアクチュエータ、EPS(Electric Power Steering)モータ等の各走行制御デバイスへ制御信号を出力する。走行制御系40は、ホスト車両Aの制御指示を路面状態推定システム100等から取得することで、当該制御指示に従う自動走行又は手動運転を実現するように、各走行制御デバイスを制御する。 The travel control system 40 is configured to perform travel control of the host vehicle A. FIG. The traveling control system 40 includes a steering ECU that performs steering control, a power unit control ECU that performs acceleration/deceleration control, a brake ECU, and the like. The travel control system 40 acquires detection signals output from sensors such as a steering angle sensor and a vehicle speed sensor mounted on the host vehicle A, and outputs signals from an electronically controlled throttle, a brake actuator, an EPS (Electric Power Steering) motor, and the like. Outputs control signals to the running control device. The cruise control system 40 acquires a control instruction for the host vehicle A from the road surface state estimation system 100 or the like, and controls each cruise control device so as to realize automatic driving or manual driving according to the control instruction.

路面状態推定システム100は、例えばLAN(Local Area Network)回線、ワイヤハーネス、内部バス、及び無線通信回線等のうち、少なくとも一種類を介してLiDAR装置10、内界センサ20、通信系30及び走行制御系40に接続されている。路面状態推定システム100は、少なくとも一つの専用コンピュータを含んで構成されている。 The road surface condition estimation system 100 communicates with the LiDAR device 10, the internal sensor 20, the communication system 30, and the vehicle through at least one of, for example, a LAN (Local Area Network) line, a wire harness, an internal bus, a wireless communication line, and the like. It is connected to the control system 40 . The road surface state estimation system 100 includes at least one dedicated computer.

路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転を制御する、運転制御ECU(Electronic Control Unit)であってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの走行経路をナビゲートする、ナビゲーションECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの自己状態量を推定する、ロケータECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの走行アクチュエータを制御する、アクチュエータECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aにおける情報提示を制御する、HCU(HMI(Human Machine Interface) Control Unit)であってもよい。路面状態推定システム100を構成する専用コンピュータは、例えばV2Xタイプの通信系30を介して通信可能な外部センタ又はモバイル端末等を構成する、ホスト車両A以外のコンピュータであってもよい。 The dedicated computer that constitutes the road surface state estimation system 100 may be a driving control ECU (Electronic Control Unit) that controls the driving of the host vehicle A. A dedicated computer that configures the road surface state estimation system 100 may be a navigation ECU that navigates the travel route of the host vehicle A. FIG. A dedicated computer that constitutes the road surface state estimation system 100 may be a locator ECU that estimates the host vehicle A's own state quantity. The dedicated computer that constitutes the road surface condition estimation system 100 may be an actuator ECU that controls the travel actuators of the host vehicle A. FIG. The dedicated computer that configures the road surface condition estimation system 100 may be an HCU (Human Machine Interface) Control Unit (HCU) that controls information presentation in the host vehicle A. The dedicated computer that configures the road surface condition estimation system 100 may be a computer other than the host vehicle A that configures an external center or a mobile terminal that can communicate via the V2X type communication system 30, for example.

路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御を統合する、統合ECU(Electronic Control Unit)であってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御における運転タスクを判断する、判断ECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御を監視する、監視ECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御を評価する、評価ECUであってもよい。 The dedicated computer that constitutes the road surface state estimation system 100 may be an integrated ECU (Electronic Control Unit) that integrates the operation control of the host vehicle A. The dedicated computer that constitutes the road surface condition estimation system 100 may be a judgment ECU that judges the driving task in the driving control of the host vehicle A. FIG. A dedicated computer that constitutes the road surface state estimation system 100 may be a monitoring ECU that monitors the operation control of the host vehicle A. FIG. The dedicated computer that constitutes the road surface state estimation system 100 may be an evaluation ECU that evaluates the driving control of the host vehicle A.

路面状態推定システム100を構成する専用コンピュータは、メモリ101及びプロセッサ102を、少なくとも一つずつ有している。メモリ101は、コンピュータにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ102は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RISC(Reduced Instruction Set Computer)-CPU、DFP(Data Flow Processor)、及びGSP(Graph Streaming Processor)等のうち、少なくとも一種類をコアとして含んでいる。 A dedicated computer that constitutes the road surface state estimation system 100 has at least one memory 101 and at least one processor 102 . The memory 101 stores computer-readable programs, data, etc., non-temporarily, and includes at least one type of non-transitory storage medium such as a semiconductor memory, a magnetic medium, and an optical medium. tangible storage medium). The processor 102 is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RISC (Reduced Instruction Set Computer)-CPU, a DFP (Data Flow Processor), a GSP (Graph Streaming Processor), or the like. as a core.

路面状態推定システム100においてプロセッサ102は、ホスト車両Aが走行する路面の状態を推定するためにメモリ101に記憶された、路面状態推定プログラムに含まれる複数の命令を実行する。これにより路面状態推定システム100は、ホスト車両Aが走行する路面の状態を推定するための機能ブロックを、複数構築する。路面状態推定システム100において構築される複数の機能ブロックには、図3に示すように取得ブロック110、認識ブロック120、推定ブロック130、及び対応ブロック140が含まれている。 In the road surface condition estimation system 100, the processor 102 executes a plurality of instructions contained in the road surface condition estimation program stored in the memory 101 in order to estimate the condition of the road surface on which the host vehicle A travels. Thus, the road surface condition estimation system 100 constructs a plurality of functional blocks for estimating the condition of the road surface on which the host vehicle A travels. A plurality of functional blocks constructed in the road surface condition estimation system 100 include an acquisition block 110, a recognition block 120, an estimation block 130, and a correspondence block 140 as shown in FIG.

これらのブロック110,120,130,140の共同により、路面状態推定システム100がホスト車両Aの走行する路面の状態を推定する路面状態推定方法のフロー(以下、路面状態推定フローという)を、図4及び図5に従って以下に説明する。本処理フローは、ホスト車両Aの起動中に繰り返し実行される。尚、本処理フローにおける各「S」は、路面状態推定プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。 The flow of the road surface condition estimation method for estimating the condition of the road surface on which the host vehicle A travels by the road surface condition estimation system 100 (hereinafter referred to as the road surface condition estimation flow) is shown in FIG. 4 and 5 will be described below. This processing flow is repeatedly executed while the host vehicle A is running. Each "S" in this processing flow means a plurality of steps executed by a plurality of instructions included in the road surface condition estimation program.

まず、図4のS10では、認識ブロック120が、ホスト車両Aの車速が判定範囲に到達したか否かを判定する。例えば、判定範囲は、車速が閾値(例えば時速50km)以上又は閾値よりも大きい範囲である。車速が判定範囲に到達していないと判定された場合には、本フローが終了される。一方で、車速が判定範囲に到達していると判定された場合には、S10にて路面状態の判定が実行される。 First, in S10 of FIG. 4, the recognition block 120 determines whether the vehicle speed of the host vehicle A has reached the determination range. For example, the determination range is a range in which the vehicle speed is equal to or greater than a threshold value (for example, 50 km/h). If it is determined that the vehicle speed has not reached the determination range, this flow ends. On the other hand, if it is determined that the vehicle speed has reached the determination range, the road surface condition is determined at S10.

S10における判定処理では、ホスト車両Aの走行により路面から巻き上げられた飛散物質の飛散状態により、路面の状態を推定する。飛散物質は、例えば、水滴や雪等の水関連物質である。又、ここでの路面の状態とは、水関連物質が路面に許容限度を超えて存在しているか否かの状態である。水関連物質が路面に許容限度を超えて存在している状態とは、路面が湿潤状態、又は積雪状態であるということもできる。このような状態は、路面が悪路であるということもできる。尚、飛散物質は、砂や土等であってもよい。この場合、路面が悪路であるということは、路面が所謂オフロード状態であるということになる。 In the determination process in S10, the state of the road surface is estimated based on the scattering state of the scattering substances that have been lifted up from the road surface as the host vehicle A travels. Scattered substances are, for example, water-related substances such as water droplets and snow. Moreover, the state of the road surface here means whether or not water-related substances are present on the road surface in excess of the allowable limit. The state in which water-related substances are present on the road surface in excess of the permissible limit can also be said to be a wet state or a snow-covered state of the road surface. Such a state can also be said that the road surface is rough. Incidentally, the scattering substance may be sand, soil, or the like. In this case, the fact that the road surface is rough means that the road surface is in a so-called off-road state.

図5に従ってS10の詳細処理を説明すると、まずS100では、取得ブロック110が、走行方向後方をセンシング領域とするLiDAR装置10にて検出された現在フレームの反射光情報を取得する。続くS110では、認識ブロック120が、現在フレームの反射光情報における、注目領域R内の反射点の数(以下、点数)Nkをカウントする。注目領域R内の点数が、当該フレームにおける飛散物質の飛散状態に関連するパラメータとなる。 The detailed processing of S10 will be explained according to FIG. In subsequent S110, the recognition block 120 counts the number of reflection points (hereinafter referred to as the number of points) Nk within the attention area R in the reflected light information of the current frame. The number of points in the region of interest R becomes a parameter related to the scattering state of the scattering substance in the frame.

注目領域Rは、例えば、図2に示すように、LiDAR装置10の画角と、設定距離lとによって規定される。尚、図2において、x方向がホスト車両Aの前後方向(走行方向)、y方向がホスト車両Aの左右方向、z方向がホスト車両Aの上下方向である。設定距離lは、注目領域Rを規定するx方向の距離範囲である。設定距離lは、原点から画角の下方範囲と路面との交点までのx方向距離から、マージンを差し引いた距離とされる。マージンは、例えば、路面の凹凸及び車体の沈み込みを考慮して設定されればよい。尚、注目領域Rの左右方向の範囲は、LiDAR装置10の左右方向の画角に基づき規定されればよい。 The region of interest R is defined by, for example, the angle of view of the LiDAR device 10 and the set distance l, as shown in FIG. In FIG. 2, the x direction is the longitudinal direction (running direction) of the host vehicle A, the y direction is the lateral direction of the host vehicle A, and the z direction is the vertical direction of the host vehicle A. As shown in FIG. The set distance l is a distance range in the x direction that defines the region of interest R. The set distance l is a distance obtained by subtracting a margin from the x-direction distance from the origin to the intersection of the lower range of the angle of view and the road surface. The margin may be set, for example, in consideration of unevenness of the road surface and subsidence of the vehicle body. Note that the range of the attention area R in the horizontal direction may be defined based on the angle of view of the LiDAR device 10 in the horizontal direction.

したがって、点群情報に含まれる複数の反射点を以下の数式(1)のように定義すると、認識ブロック120は、数式(2)及び(3)の両方を満たす反射点を、注目領域R内の反射点としてカウントする。こうした処理により、認識ブロック120は、注目領域R内の反射点を、ホスト車両Aの走行により巻き上げられた飛散物質(図2の黒点参照)の反射点とみなして認識する。

Figure 2023059629000002
Figure 2023059629000003
Figure 2023059629000004
Therefore, when a plurality of reflection points included in the point cloud information are defined as in the following formula (1), the recognition block 120 detects reflection points that satisfy both formulas (2) and (3) in the region of interest R count as reflection points. Through such processing, the recognition block 120 recognizes the reflection points in the region of interest R as reflection points of scattered substances (see black dots in FIG. 2) that have been picked up by the running host vehicle A.
Figure 2023059629000002
Figure 2023059629000003
Figure 2023059629000004

続くS120では、認識ブロック120が、時系列の複数フレームのそれぞれにてカウントされた点数を、積算する。認識ブロック120は、図6に示すように設定された時間窓ΔT内の各フレームにおける点数を積算することで、合計点数Mを算出する。すなわち、認識ブロック120の算出する合計点数Mは、以下の数式(4)にて表すことができる。この合計点数Mが、注目領域R内における飛散物質の飛散状態についての認識結果となる。

Figure 2023059629000005
In subsequent S120, the recognition block 120 adds up the points counted in each of the plurality of time-series frames. The recognition block 120 calculates the total score M by accumulating the scores in each frame within the time window ΔT set as shown in FIG. That is, the total score M calculated by the recognition block 120 can be represented by the following formula (4). This total score M is the recognition result of the scattering state of the scattering substance in the region of interest R. FIG.
Figure 2023059629000005

続くS130では、推定ブロック130が、合計点数Mが第1閾値M1を上回っているか否かを判定する。上回っていると判定されると、本フローがS140へと移行する。S140では、推定ブロック130が、悪路フラグをオンに設定する。合計点数Mが第1閾値M1を上回っていることは、飛散物質の飛散度が悪路判定範囲に到達していることに相当する。すなわち、合計点数Mは、注目領域R内で認識される飛散物質の反射点数に基づく飛散物質の飛散度の一例である。 In subsequent S130, the estimation block 130 determines whether or not the total score M exceeds the first threshold M1. If it is determined that it exceeds, the flow shifts to S140. In S140, the estimation block 130 sets the rough road flag to ON. The fact that the total score M exceeds the first threshold value M1 corresponds to the fact that the scattering degree of the flying substance has reached the rough road determination range. That is, the total score M is an example of the scattering degree of the scattered substance based on the number of reflection points of the scattered substance recognized within the attention area R.

一方で、S130にて合計点数Mが第1閾値M1以下である判定された場合は、本フローがS150へと移行する。S150では、推定ブロック130が、合計点数Mが第2閾値M2未満であるか否かを判定する。第2閾値M2は、第1閾値M1よりも小さい閾値である。合計点数Mが第2閾値M2以上であると判定された場合には、直前の悪路フラグの設定を維持した状態で本フローが終了する。 On the other hand, if it is determined in S130 that the total score M is equal to or less than the first threshold value M1, the flow proceeds to S150. In S150, the estimation block 130 determines whether the total score M is less than the second threshold M2. The second threshold M2 is a threshold smaller than the first threshold M1. If it is determined that the total score M is equal to or greater than the second threshold value M2, this flow ends with the rough road flag set just before.

又、S150にて合計点数Mが第2閾値M2未満であると判定された場合には、本フローがS160へと移行する。S160では、推定ブロック130が、悪路フラグをオフに設定する。尚、推定ブロック130は、車速に応じて閾値M1,M2を変更してもよい。例えば、推定ブロック130は、車速が小さいほど、閾値M1,M2を低下させてもよい。又、推定ブロック130は、合計点数Mが第1閾値M1を上回っているか否かの判定の代わりに、合計点数Mが第1閾値M1以上であるか否かを判定してもよい。同様に、推定ブロック130は、合計点数Mが第2閾値M2未満であるか否かの判定の代わりに、合計点数Mが第2閾値を下回っているか否かを判定してもよい。 Further, when it is determined in S150 that the total score M is less than the second threshold value M2, the flow shifts to S160. At S160, the estimation block 130 sets the rough road flag to OFF. Note that the estimation block 130 may change the thresholds M1 and M2 according to the vehicle speed. For example, the estimation block 130 may decrease the thresholds M1 and M2 as the vehicle speed decreases. Also, the estimation block 130 may determine whether the total score M is greater than or equal to the first threshold M1 instead of determining whether the total score M exceeds the first threshold M1. Similarly, instead of determining whether the total score M is less than the second threshold M2, the estimation block 130 may determine whether the total score M is less than the second threshold.

図4に戻り、S20では、対応ブロック140が、悪路フラグがオンに設定されたか否かを判定する。悪路フラグがオフに設定されている場合には、S10へと戻る。S10の詳細処理S100~S160が繰り返し実行されることにより、走行中の路面状態が逐次判断される。 Returning to FIG. 4, in S20, the corresponding block 140 determines whether or not the rough road flag is set to ON. If the rough road flag is set to OFF, the process returns to S10. By repeatedly executing the detailed processes S100 to S160 of S10, the road surface condition during running is successively determined.

一方で、悪路フラグがオンに設定されていると判定された場合には、本フローがS30へと移行する。S30では、対応ブロック140が、悪路フラグのオン設定に対応した処理(悪路対応処理)を実行する。 On the other hand, if it is determined that the rough road flag is set to ON, the flow proceeds to S30. In S30, the corresponding block 140 executes processing corresponding to the setting of the rough road flag (rough road processing).

悪路対応処理の一例として、対応ブロック140は、自動運転中のホスト車両Aについて、自動運転による走行を中止する。この中止処理において、対応ブロック140は、退避走行及び停車による自動運転の終了を実行してもよい。この処理は、例えば、ドライバの搭乗無しで自動運転により運行するホスト車両Aにおいて実行される。又は、中止処理において、対応ブロック140は、自動運転から手動運転への移行を実行してもよい。この処理は、例えば、ドライバが搭乗した状態で自動運転により走行するホスト車両Aにおいて実行される。 As an example of the bad road handling process, the handling block 140 suspends the automatic driving of the host vehicle A, which is currently being driven automatically. In this suspension process, the corresponding block 140 may terminate the automatic driving by evacuating and stopping the vehicle. This processing is executed, for example, in the host vehicle A that operates automatically without a driver on board. Alternatively, in the abort process, the response block 140 may execute a transition from automatic to manual operation. This process is executed, for example, in the host vehicle A that runs automatically with a driver on board.

以上の処理により、路面状態推定システム100は、路面状態が悪路であるか否かを推定し、悪路である場合には、自動運転走行を中止する。尚、路面状態推定システム100は、自動運転走行を中止した後にも路面状態の判定を継続して繰り返してもよい。この場合、自動運転走行の中止後に悪路フラグがオフに設定されると、対応ブロック140が自動運転走行を再開する処理を実行すればよい。 Through the above processing, the road surface condition estimation system 100 estimates whether or not the road surface condition is rough, and if the road is rough, stops the automatic driving. Note that the road surface state estimation system 100 may continue to repeat determination of the road surface state even after stopping the automatic driving. In this case, when the bad road flag is set to OFF after the automatic driving is stopped, the corresponding block 140 may execute the process of restarting the automatic driving.

以上の第1実施形態によれば、走行方向後方の反射光情報により、ホスト車両Aの走行により路面から巻き上げられた飛散物質の飛散状態に基づき、路面の状態が推定される。故に、走行により巻き上げられる物質が路面上に存在するか否かが、飛散物質の飛散状態により間接的に推定され得る。したがって、LiDAR装置10が路面上を走査する必要性が低下するため、LiDAR装置10の検知可能距離を確保し易くなる。以上により、LiDAR装置10の検知可能距離を確保しつつ、路面の状態を推定可能となり得る。 According to the above-described first embodiment, the state of the road surface is estimated based on the state of scattering of the scattering material that is lifted up from the road surface by the host vehicle A running, based on the reflected light information behind the vehicle in the running direction. Therefore, it is possible to indirectly estimate whether or not there is a substance on the road surface that is picked up by running, based on the scattering state of the flying substance. This reduces the need for the LiDAR device 10 to scan the road surface, making it easier to ensure the detectable distance of the LiDAR device 10 . As described above, it is possible to estimate the state of the road surface while ensuring the detectable distance of the LiDAR device 10 .

(第2実施形態)
図7に示すように第2実施形態は、第1実施形態の変形例である。
(Second embodiment)
As shown in FIG. 7, the second embodiment is a modification of the first embodiment.

第2実施形態の対応ブロック140は、悪路対応処理として、自動運転におけるホスト車両Aの挙動を制限する制限走行を実行する(図7のS41参照)。具体的には、対応ブロック140は、加速度の大きさ及び速度の大きさ少なくとも1つについて、悪路フラグがオフに設定されている場合よりも上限値を小さくする。このように、対応ブロック140は、挙動を制限する方向に加速度プロファイル及び速度プロファイルの少なくとも一方を設定したうえで、自動運転を継続させる。 The countermeasure block 140 of the second embodiment executes restricted travel that restricts the behavior of the host vehicle A in automatic driving as rough road countermeasure processing (see S41 in FIG. 7). Specifically, the corresponding block 140 sets the upper limit value of at least one of the magnitude of acceleration and the magnitude of velocity smaller than when the rough road flag is set to off. In this way, the corresponding block 140 sets at least one of the acceleration profile and the speed profile in the direction of restricting behavior, and then continues automatic driving.

(第3実施形態)
図8,9に示すように第3実施形態は、第1実施形態の変形例である。
(Third embodiment)
As shown in FIGS. 8 and 9, the third embodiment is a modification of the first embodiment.

第2実施形態の対応ブロック140は、悪路対応処理として、ホスト車両Aの前方を走行する前走車であるターゲット車両Bについて、LiDAR装置10での検出ロジックを変更する。具体的には、対応ブロック140は、近方側のエコーと遠方側のエコーとのマルチエコーが検出されている場合、遠方側のエコーを、ターゲット車両Bに対応するエコーとして検出する。 The correspondence block 140 of the second embodiment changes the detection logic in the LiDAR device 10 for the target vehicle B, which is the preceding vehicle traveling in front of the host vehicle A, as rough road handling processing. Specifically, the corresponding block 140 detects the echo on the far side as the echo corresponding to the target vehicle B when the multi-echo of the echo on the near side and the echo on the far side is detected.

詳記すると、悪路フラグがオフに設定されている場合、対応ブロック140は、近方側のエコーをターゲット車両Bの後端として検出するように、点群の検出ロジックを設定する(図9の上枠参照)。仮にこの検出ロジックが維持された場合、ターゲット車両Bによる飛散物質の巻き上げにより、マルチエコーが検出されると、水関連物質のエコーをターゲット車両Bの後端として認識される(図9の中央枠参照)。 Specifically, if the bad road flag is set to off, the corresponding block 140 sets the point cloud detection logic to detect the near-side echo as the trailing edge of the target vehicle B (FIG. 9). (see upper frame of ). Supposing this detection logic is maintained, if multi-echoes are detected due to the scattered substances being blown up by the target vehicle B, the echoes of the water-related substances are recognized as the rear end of the target vehicle B (center frame in FIG. 9). reference).

そこで、悪路フラグがオンに設定されている場合、対応ブロック140は、遠方側のエコーをターゲット車両Bとして認識するように、検出ロジックを変更する(図8のS42参照)。これにより、対応ブロック140は、ターゲット車両Bにより巻き上げられた飛散物質を、ターゲット車両Bからのエコーとして認識することを回避する(図9の下枠参照)。 Therefore, when the rough road flag is set to ON, the corresponding block 140 changes the detection logic so that the echo on the far side is recognized as the target vehicle B (see S42 in FIG. 8). As a result, the corresponding block 140 avoids recognizing the flying material blown up by the target vehicle B as an echo from the target vehicle B (see the lower frame in FIG. 9).

(第4実施形態)
図10に示すように第4実施形態は、第1実施形態の変形例である。
(Fourth embodiment)
As shown in FIG. 10, the fourth embodiment is a modification of the first embodiment.

第4実施形態の対応ブロック140は、悪路対応処理として、路面状態を外部へと送信する(図10のS43参照)。具体的には、対応ブロック140は、現在走行中の路面が悪路状態である旨の情報を、センタへと通知する。 The corresponding block 140 of the fourth embodiment transmits the road surface condition to the outside as rough road handling processing (see S43 in FIG. 10). Specifically, the corresponding block 140 notifies the center of information indicating that the road surface on which the vehicle is currently traveling is in a rough state.

(第5実施形態)
図11に示すように第5実施形態は、第1実施形態の変形例である。
(Fifth embodiment)
As shown in FIG. 11, the fifth embodiment is a modification of the first embodiment.

第5実施形態の対応ブロック140は、悪路対応処理として、路面の轍に対応する処理(轍対応処理)を実行する(図11のS43参照)。具体的には、轍対応処理として、対応ブロック140は、検出した点数が多く飛散物質の量が多いほど、その走行位置における轍の深さが大きいと判断する。轍の深さの大きさは、轍の「発生状態」の一例である。さらに轍対応処理として、対応ブロック140は、判断した轍状態を、センタ等の外部へと送信してもよい。又は、対応ブロック140は、轍対応処理として、轍状態に応じてホスト車両Aの走行位置を変更してもよい。例えば、対応ブロック140は、轍の深さが許容範囲内に収まる左右位置を走行するように、ホスト車両Aを制御する。換言すれば、対応ブロック140は、検出する点数が所定値以下又は未満となる位置を、ホスト車両Aの走行位置に決定する。 The correspondence block 140 of the fifth embodiment executes a process for dealing with ruts on the road surface (rut handling process) as the rough road handling process (see S43 in FIG. 11). Specifically, as the rut handling process, the handling block 140 determines that the greater the number of detected points and the greater the amount of scattered matter, the greater the depth of the rut at that travel position. The size of the depth of the rut is an example of the "state of occurrence" of the rut. Further, as a rut handling process, the handling block 140 may transmit the determined rut state to an external device such as a center. Alternatively, the response block 140 may change the running position of the host vehicle A according to the rut state as the rut response process. For example, the corresponding block 140 controls the host vehicle A so that it travels in the left and right positions where the rut depth is within the allowable range. In other words, the corresponding block 140 determines the travel position of the host vehicle A as the position where the detected score is less than or equal to the predetermined value.

(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although a plurality of embodiments have been described above, the present disclosure is not to be construed as being limited to those embodiments, and can be applied to various embodiments and combinations within the scope of the present disclosure. can be done.

変形例において、推定ブロック130は、悪路状態か否かに加え、悪路状態における悪路の度合を、合計点数Mに基づいて推定してもよい。 In a modified example, the estimation block 130 may estimate the degree of rough road in the rough road state based on the total score M, in addition to whether the road is rough.

変形例において、対応ブロック140は、上述の実施形態にて説明した複数の対応処理のうち、組み合わせ可能な処理を複数実施してもよい。 In a modified example, the correspondence block 140 may perform a plurality of combinable processes out of the plurality of correspondence processes described in the above embodiments.

変形例において、認識ブロック120は、注目領域R内においてカウントする点数から、降雨中の雨滴又は降雪中の雪を除く処理を実施してもよい。例えば、認識ブロック120は、ホスト車両Aの停車中の反射光情報を取得し、停車中の注目領域R内の点数を、走行中の注目領域R内の点数から除いてもよい。又は、認識ブロック120は、センタ等から取得した気象情報に基づき、注目領域R内の点数から除く点数を決定してもよい。 In a modified example, the recognition block 120 may perform a process of excluding raindrops during rain or snow during snowfall from the points counted within the region of interest R. FIG. For example, the recognition block 120 may acquire the reflected light information of the host vehicle A while it is stopped, and may remove the points within the attention area R while the host vehicle A is stopped from the points within the attention area R while the host vehicle is running. Alternatively, the recognition block 120 may determine points to be excluded from the points within the attention area R based on weather information obtained from a center or the like.

変形例において路面状態推定システム100を構成する専用コンピュータは、デジタル回路及びアナログ回路のうち、少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。 In a modified example, a dedicated computer that constitutes road surface condition estimation system 100 may have at least one of a digital circuit and an analog circuit as a processor. Here, the digital circuit includes, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), and CPLD (Complex Programmable Logic Device). , at least one Such digital circuits may also have a memory that stores the program.

ここまでの説明形態の他、上述の実施形態及び変化例による路面状態推定システム100は、ホスト車両Aに搭載の処理装置(例えば処理ECU等)である路面状態推定装置として、実施されてもよい。又、上述の実施形態及び変化例は、路面状態推定システム100のプロセッサ102及びメモリ101を少なくとも一つずつ有した半導体装置(例えば半導体チップ等)として、実施されてもよい。 In addition to the embodiments described above, the road surface condition estimation system 100 according to the above-described embodiments and modifications may be implemented as a road surface condition estimation device that is a processing device (eg, a processing ECU, etc.) mounted on the host vehicle A. . Also, the above-described embodiments and variations may be implemented as a semiconductor device (such as a semiconductor chip) having at least one processor 102 and at least one memory 101 of the road surface condition estimation system 100 .

10:LiDAR装置(光学センサ)、100:路面状態推定システム、101:メモリ(記憶媒体)、102:プロセッサ、A:ホスト車両、B:ターゲット車両(前走車)、R:注目領域 10: LiDAR device (optical sensor), 100: road surface condition estimation system, 101: memory (storage medium), 102: processor, A: host vehicle, B: target vehicle (forward vehicle), R: attention area

Claims (13)

プロセッサ(102)を有し、光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定する路面状態推定システムであって、
前記プロセッサは、
前記光学センサによる走行方向後方の反射光情報を取得することと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識することと、
前記飛散状態に基づいて、前記路面の状態を推定することと、
を実行するように構成される路面状態推定システム。
A road surface condition estimation system that has a processor (102) and is equipped with an optical sensor (10) that detects reflected light according to light irradiation and estimates the condition of a road surface on which a host vehicle (A) travels,
The processor
Acquiring reflected light information behind the traveling direction by the optical sensor;
Recognizing the scattering state of the scattering material that is lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
A road condition estimation system configured to perform a
前記飛散状態を認識することは、前記ホスト車両の後方に設定された距離範囲内における注目領域(R)での前記飛散状態を認識することを含み、
前記路面の状態を推定することは、前記路面が悪路状態であるか否かを判断することを含む請求項1に記載の路面状態推定システム。
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle;
2. The road surface condition estimation system according to claim 1, wherein estimating the condition of the road surface includes determining whether the road surface is in a rough condition.
前記路面の状態を推定することは、前記注目領域内で認識される前記飛散物質の反射点数に基づく前記飛散物質の飛散度が悪路判定範囲に到達している場合に、前記路面が前記悪路状態であると推定することを含む請求項2に記載の路面状態推定システム。 Estimating the state of the road surface is performed when the degree of scattering of the flying substance based on the number of reflection points of the flying substance recognized within the attention area reaches a rough road determination range. 3. A road surface condition estimation system according to claim 2, comprising estimating a road condition. 前記路面が前記悪路状態であると推定された場合に、前記悪路状態に対応する対応処理を実行することを、さらに実行するように構成される請求項2又は請求項3に記載の路面状態推定システム。 4. The road surface according to claim 2 or 3, further configured to execute a corresponding process corresponding to the rough road condition when the road surface is estimated to be in the rough road condition. State estimation system. 前記対応処理を実行することは、前記路面が前記悪路状態であると推定された場合に、自動運転中の前記ホスト車両を停止させることを含む請求項4に記載の路面状態推定システム。 5. The road surface condition estimation system according to claim 4, wherein executing the corresponding process includes stopping the host vehicle that is being automatically driven when the road surface is estimated to be in the rough road condition. 前記対応処理を実行することは、前記路面が前記悪路状態であると推定された場合に、自動運転中の前記ホスト車両を手動運転での走行に切り替えることを含む請求項4又は請求項5に記載の路面状態推定システム。 6. Execution of the handling process includes switching the host vehicle in automatic operation to manual operation when the road surface is estimated to be in the rough road condition. Road surface state estimation system according to. 前記対応処理を実行することは、前記路面が前記悪路状態であると推定された場合に、自動運転中の前記ホスト車両の速度及び加速度の大きさのうち少なくとも一方の上限値を低下させる制限走行を実行することを含む請求項4から請求項6のいずれか1項に記載の路面状態推定システム。 Executing the countermeasure processing reduces an upper limit value of at least one of the magnitude of speed and acceleration of the host vehicle during automatic driving when the road surface is estimated to be in the rough road state. 7. The road surface condition estimation system according to any one of claims 4 to 6, comprising executing traveling. 前記対応処理を実行することは、前記路面が前記悪路状態であると推定されると、前記ホスト車両の前方の前記反射光情報について、走行方向に前後する点群が存在する場合に、前方側の前記点群を前走車(B)として認識することを含む請求項4から請求項7のいずれか1項に記載の路面状態推定システム。 When the road surface is estimated to be in the rough road state, the execution of the corresponding processing is performed when the reflected light information in front of the host vehicle includes a group of points moving forward and backward in the traveling direction. 8. The road surface state estimation system according to any one of claims 4 to 7, further comprising recognizing the point cloud on the side as the preceding vehicle (B). 前記対応処理を実行することは、前記路面が前記悪路状態であることを前記ホスト車両の外部に通知することを含む請求項4から請求項8のいずれか1項に記載の路面状態推定システム。 9. The road surface condition estimation system according to any one of claims 4 to 8, wherein executing the corresponding process includes notifying the outside of the host vehicle that the road surface is in the rough road condition. . 前記対応処理を実行することは、前記路面が前記悪路状態であると推定された場合に、前記路面における轍の発生状態をさらに判断することを含む請求項4から請求項9のいずれか1項に記載の路面状態推定システム。 10. The method according to any one of claims 4 to 9, wherein, when the road surface is estimated to be in the rough road condition, executing the countermeasure processing further includes determining a rut generation state on the road surface. The road surface condition estimation system according to the paragraph. プロセッサ(102)を有し、光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定する路面状態推定装置であって、
前記プロセッサは、
前記光学センサによる走行方向後方の反射光情報を取得することと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識することと、
前記飛散状態に基づいて、前記路面の状態を推定することと、
を実行するように構成される路面状態推定装置。
A road surface condition estimating device that has a processor (102) and is equipped with an optical sensor (10) that detects reflected light according to light irradiation and estimates the condition of a road surface on which a host vehicle (A) travels,
The processor
Acquiring reflected light information behind the traveling direction by the optical sensor;
Recognizing the scattering state of the scattering material that is lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
A road surface condition estimation device configured to perform
光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定するために、プロセッサ(102)により実行される路面状態推定方法であって、
前記光学センサによる走行方向後方の反射光情報を取得することと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識することと、
前記飛散状態に基づいて、前記路面の状態を推定することと、
を含む路面状態推定方法。
A road surface condition estimation method executed by a processor (102) for estimating the condition of a road surface on which a host vehicle (A), which is equipped with an optical sensor (10) for detecting reflected light according to light irradiation, travels, comprising: ,
Acquiring reflected light information behind the traveling direction by the optical sensor;
Recognizing the scattering state of the scattering material that is lifted up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
Road surface condition estimation method including.
光照射に応じた反射光を検出する光学センサ(10)を搭載したホスト車両(A)が走行する路面の状態を推定するために記憶媒体(101)に記憶され、プロセッサ(102)に実行させる命令を含む路面状態推定プログラムであって、
前記命令は、
前記光学センサによる走行方向後方の反射光情報を取得させることと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識させることと、
前記飛散状態に基づいて、前記路面の状態を推定させることと、
を含む路面状態推定プログラム。
Stored in a storage medium (101) and executed by a processor (102) for estimating the state of a road surface on which a host vehicle (A), which is equipped with an optical sensor (10) for detecting reflected light according to light irradiation, travels A road surface condition estimation program comprising instructions,
Said instruction
Acquiring reflected light information behind the traveling direction by the optical sensor;
Recognizing the scattering state of the scattering substance that is blown up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
Road condition estimation program including.
JP2021169736A 2021-10-15 2021-10-15 Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program Pending JP2023059629A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021169736A JP2023059629A (en) 2021-10-15 2021-10-15 Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021169736A JP2023059629A (en) 2021-10-15 2021-10-15 Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program

Publications (1)

Publication Number Publication Date
JP2023059629A true JP2023059629A (en) 2023-04-27

Family

ID=86096355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021169736A Pending JP2023059629A (en) 2021-10-15 2021-10-15 Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program

Country Status (1)

Country Link
JP (1) JP2023059629A (en)

Similar Documents

Publication Publication Date Title
US10832064B2 (en) Vacant parking space detection apparatus and vacant parking space detection method
CN110389586B (en) System and method for ground and free space exploration
US20120101704A1 (en) Method for operating at least one sensor of a vehicle and vehicle having at least one sensor
JP2007024590A (en) Object detector
US20150120160A1 (en) Method and device for detecting a braking situation
US20170341661A1 (en) Information processing apparatus, information processing method, and computer program product
CN110647801A (en) Method and device for setting region of interest, storage medium and electronic equipment
US20220012505A1 (en) Object detection device
CN109689459B (en) Vehicle travel control method and travel control device
CN112498347A (en) Method and apparatus for real-time lateral control and steering actuation evaluation
US10780883B2 (en) Precipitation detection
CN113650607B (en) Low-speed scene automatic driving method, system and automobile
JP5103722B2 (en) Stop vehicle discrimination device
JP2020066246A (en) Road surface state estimation device
JP2019046251A (en) Target detection equipment, driving assist system, and target detection method
CN113573965A (en) Method for determining the risk of accidents caused by moisture for a vehicle
JP2023059629A (en) Road surface state estimation system, road surface state estimation device, road surface state estimation method and road surface state estimation program
CN116736243A (en) Stable radar tracking speed initialization using multiple hypotheses
CN114954442A (en) Vehicle control method and system and vehicle
CN113646820B (en) Detection device and detection method
KR20180110326A (en) Controlling device of vehicle using laser radar
JP4807763B1 (en) Outside monitoring device
US20240132116A1 (en) Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle
JP7503164B2 (en) How to create map information
US20230221410A1 (en) Object sensing device and object sensing method