JP2022104430A - Recognition system for vehicle and recognition method - Google Patents

Recognition system for vehicle and recognition method Download PDF

Info

Publication number
JP2022104430A
JP2022104430A JP2020219642A JP2020219642A JP2022104430A JP 2022104430 A JP2022104430 A JP 2022104430A JP 2020219642 A JP2020219642 A JP 2020219642A JP 2020219642 A JP2020219642 A JP 2020219642A JP 2022104430 A JP2022104430 A JP 2022104430A
Authority
JP
Japan
Prior art keywords
dirt
vehicle
condition
value
stain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020219642A
Other languages
Japanese (ja)
Other versions
JP7410848B2 (en
Inventor
周作 野田
Shusaku Noda
裕央 高山
Hirohisa Takayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020219642A priority Critical patent/JP7410848B2/en
Priority to CN202111181897.9A priority patent/CN114690161A/en
Publication of JP2022104430A publication Critical patent/JP2022104430A/en
Application granted granted Critical
Publication of JP7410848B2 publication Critical patent/JP7410848B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen

Abstract

To provide a recognition system for a vehicle and a recognition method that can prevent a vehicle control function from being restrained more than necessary due to attachment of dirt to a LIDAR.SOLUTION: A recognition system for a vehicle comprises: an on-vehicle LIDAR device that detects an object by using light or an electromagnetic wave similar to light, the on-vehicle LIDAR device including a dirt detection unit that calculates a dirt value indicating the degree of dirt on the device based on a result of detection of the object for each of sections obtained by dividing a detection range for the object into plurality; and a dirt determination device including a dirt determination unit that determines dirt to be removed is attached to the on-vehicle LIDAR device when a first condition in which a predetermined time or longer elapses from when the dirt value exceeds a predetermined threshold and a second condition in which the difference between the maximum value and the minimum value of the dirt value in the predetermined time is within a predetermined range are satisfied.SELECTED DRAWING: Figure 5

Description

本発明は、車両用認識システムおよび認識方法に関する。 The present invention relates to a vehicle recognition system and a recognition method.

近年、車両を自動的に制御することについて研究が進められている。車両の自動制御では、車両に取り付けられるLIDAR(Light Detection and Ranging)を用いて、車両から車両周辺の物体までの距離を検出することが行われる。LIDARは、光(或いは光に近い波長の電磁波)を照射して、その散乱光を測定し、発光から受光までの時間に基づいて対象までの距離を計測するものである。そのため、光の照射部や散乱光の受光部に汚れが付着すると計測性能が低下する可能性がある。特許文献1には、距離測定のための光が、計測器の汚れを拭き取るワイパー等の払拭器で反射された場合の測定結果への影響を低減するために、n回目に取得された距離情報をn回目以外に取得された距離情報を用いて補正する方法が記載されている。 In recent years, research has been conducted on the automatic control of vehicles. In the automatic control of a vehicle, the distance from the vehicle to an object around the vehicle is detected by using LIDAR (Light Detection and Ranging) attached to the vehicle. LIDAR irradiates light (or an electromagnetic wave having a wavelength close to that of light), measures the scattered light, and measures the distance to the target based on the time from light emission to light reception. Therefore, if dirt adheres to the light irradiation portion or the light receiving portion of the scattered light, the measurement performance may deteriorate. In Patent Document 1, the distance information acquired for the nth time is described in order to reduce the influence on the measurement result when the light for distance measurement is reflected by a wiping device such as a wiper that wipes the dirt of the measuring instrument. Is described as a method of correcting the above using the distance information acquired other than the nth time.

特開2018-87703号公報Japanese Unexamined Patent Publication No. 2018-87703

しかしながら、従来技術では、取得された距離情報を補正することはできたとしても、LIDARに対する汚れの付着の度合いがどの程度であるかを認識することができない可能性があった。そのため、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されてしまう可能性があった。 However, in the prior art, even if the acquired distance information can be corrected, there is a possibility that it is not possible to recognize the degree of adhesion of dirt to the lidar. Therefore, there is a possibility that the control function of the vehicle may be suppressed more than necessary due to the adhesion of dirt to the LIDAR.

本発明は、このような事情を考慮してなされたものであり、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる車両用認識システムおよび認識方法を提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a vehicle recognition system and a recognition method capable of preventing the control function of a vehicle from being unnecessarily suppressed by adhesion of dirt to LIDAR. That is one of the purposes.

この発明に係る車両用認識システムおよび認識方法は、以下の構成を採用した。
(1):この発明の一態様に係る車両用認識システムは、光または光に近い電磁波を用いて物体を検知する車載ライダー装置であって、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出する汚れ検知部を備える車載ライダー装置と、前記汚れ値が所定の閾値を超えてから所定時間以上経過する第1の条件と、前記所定時間における前記汚れ値の最大値と最小値の差が所定の範囲内である第2の条件とが満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する汚れ判定部を備える汚れ判定装置と、を備える。
The vehicle recognition system and the recognition method according to the present invention have adopted the following configurations.
(1): The vehicle recognition system according to one aspect of the present invention is an in-vehicle rider device that detects an object using light or an electromagnetic wave close to light, and the degree of contamination of the own device based on the detection result of the object. An in-vehicle rider device including a stain detection unit that calculates a stain value indicating a stain value for each section in which the detection range of the object is divided into a plurality of sections, and a first unit in which a predetermined time or more has elapsed after the stain value exceeds a predetermined threshold value. When the condition and the second condition that the difference between the maximum value and the minimum value of the dirt value in the predetermined time is within a predetermined range are satisfied, the dirt to be removed adheres to the in-vehicle rider device. It is provided with a dirt determination device including a dirt determination unit for determining whether or not the object is used.

(2):上記(1)の態様において、前記汚れ判定部は、前記第1の条件および前記第2の条件に加え、第3の条件が満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着していると判定し、前記第3の条件は、前記汚れ値が閾値を超えた状態で経過した過去の判定時間における汚れ値のゆらぎの大きさが所定の割合未満であることである。 (2): In the aspect of the above (1), the stain determination unit is removed by the in-vehicle rider device when the third condition is satisfied in addition to the first condition and the second condition. It is determined that the stain to be attached is attached, and the third condition is that the magnitude of the fluctuation of the stain value in the past determination time elapsed in the state where the stain value exceeds the threshold value is less than a predetermined ratio. That is.

(3):上記(2)の態様において、前記汚れ判定部は、前記第1の条件、前記第2の条件、および前記第3の条件に加え、前記車載ライダー装置を搭載する車両の走行速度が所定の下限値を下回ることなく所定時間が経過する第4の条件が満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着していると判定する判定するものである。 (3): In the aspect of the above (2), the dirt determination unit is the traveling speed of the vehicle equipped with the in-vehicle rider device in addition to the first condition, the second condition, and the third condition. When the fourth condition that the predetermined time elapses without falling below the predetermined lower limit is satisfied, it is determined that the dirt to be removed is attached to the in-vehicle rider device.

(4):上記(1)から(3)のいずれかの態様において、前記汚れ判定部によって前記車載ライダー装置に除去されるべき汚れが付着していると判定された場合に、その旨を報知する報知部をさらに備える。 (4): In any of the above aspects (1) to (3), when it is determined by the dirt determination unit that dirt to be removed is attached to the in-vehicle rider device, a notification to that effect is given. The notification unit is further provided.

(5):上記(1)から(4)のいずれかの態様において、前記汚れ判定部は、全てのセクションにおいて汚れ値が所定の閾値以下となった場合に前記車載ライダー装置に除去されるべき汚れが付着している状態から前記除去されるべき汚れが付着していない状態に復旧したと判定するものである。 (5): In any of the above aspects (1) to (4), the stain determination unit should be removed by the vehicle-mounted lidar device when the stain value becomes equal to or less than a predetermined threshold value in all sections. It is determined that the state in which the dirt is attached has been restored to the state in which the dirt to be removed is not attached.

(6):この発明の一態様に係る認識方法は、光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、汚れ判定装置が、前記汚れ値が所定の閾値を超えてから所定時間以上経過する第1の条件と、前記所定時間における前記汚れ値の最大値と最小値の差が所定の範囲内である第2の条件とが満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着していると判定するものである。 (6): In the recognition method according to one aspect of the present invention, a vehicle-mounted lidar device that detects an object using light or an electromagnetic wave close to light has a stain value indicating the degree of contamination of the own device based on the detection result of the object. Is calculated for each section in which the detection range of the object is divided into a plurality of sections. When the second condition that the difference between the maximum value and the minimum value of the dirt value is within a predetermined range is satisfied, it is determined that the dirt to be removed is attached to the in-vehicle rider device. ..

(1)~(6)によれば、光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、汚れ判定装置が、前記汚れ値が所定の閾値を超えてから所定時間以上経過する第1の条件と、前記所定時間における前記汚れ値の最大値と最小値の差が所定の範囲内である第2の条件とが満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定することにより、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる。 According to (1) to (6), the in-vehicle lidar device that detects an object using light or an electromagnetic wave close to light sets a dirt value indicating the degree of dirt of the own device based on the detection result of the object. The first condition in which the detection range of the above is calculated for each section divided into a plurality of sections, and the stain determination device elapses for a predetermined time or more after the stain value exceeds a predetermined threshold value, and the maximum of the stain value in the predetermined time. When the second condition that the difference between the value and the minimum value is within a predetermined range is satisfied, it is determined whether or not the dirt to be removed is attached to the in-vehicle lidar device. It is possible to prevent the control function of the vehicle from being suppressed more than necessary due to the adhesion of dirt.

第1実施形態に係る車両制御装置を利用した車両システムの構成図である。It is a block diagram of the vehicle system using the vehicle control device which concerns on 1st Embodiment. 第1実施形態に係る第1制御部および第2制御部の機能構成図である。It is a functional block diagram of the 1st control unit and the 2nd control unit which concerns on 1st Embodiment. 第1実施形態の車両システムにおいて自車両に搭載されるLIDARの検知範囲の一例を示す図である。It is a figure which shows an example of the detection range of the lidar mounted on the own vehicle in the vehicle system of 1st Embodiment. 第1実施形態の車両システムにおいて自車両に搭載されるLIDARの検知範囲の一例を示す図である。It is a figure which shows an example of the detection range of the lidar mounted on the own vehicle in the vehicle system of 1st Embodiment. 第1実施形態における閾値情報の一例を示す図である。It is a figure which shows an example of the threshold value information in 1st Embodiment. 第2実施形態に係る車両制御装置を利用した車両システムの構成図である。It is a block diagram of the vehicle system using the vehicle control device which concerns on 2nd Embodiment. 第2実施形態における条件情報の一例を示す図である。It is a figure which shows an example of the condition information in 2nd Embodiment. 第2実施形態の物体認識装置において、汚れ判定部が汚れフラグを管理する方法の一例を示すフローチャートである。It is a flowchart which shows an example of the method which the dirt determination part manages a dirt flag in the object recognition apparatus of 2nd Embodiment.

以下、図面を参照し、本発明の車両用認識システムおよび認識方法の実施形態について説明する。 Hereinafter, embodiments of the vehicle recognition system and recognition method of the present invention will be described with reference to the drawings.

<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両制御装置を利用した車両システム1Aの構成図である。車両システム1Aが搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<First Embodiment>
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1A using the vehicle control device according to the first embodiment. The vehicle on which the vehicle system 1A is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates by using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell.

車両システム1Aは、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14Aと、物体認識装置16Aと、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1A includes, for example, a camera 10, a radar device 12, a LIDAR (Light Detection and Ranging) 14A, an object recognition device 16A, a communication device 20, an HMI (Human Machine Interface) 30, and a vehicle sensor 40. , A navigation device 50, an MPU (Map Positioning Unit) 60, a driving controller 80, an automatic driving control device 100, a traveling driving force output device 200, a braking device 210, and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1Aが搭載される車両(以下、自車両)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両の周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to an arbitrary position of the vehicle (hereinafter referred to as own vehicle) on which the vehicle system 1A is mounted. When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rear-view mirror, and the like. The camera 10 periodically and repeatedly images the periphery of the own vehicle, for example. The camera 10 may be a stereo camera.

レーダ装置12は、自車両の周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両の任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the own vehicle, and also detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object. The radar device 12 is attached to an arbitrary position of the own vehicle. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

LIDAR14Aは、自車両の周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。例えば、LIDAR14Aは、赤外光を照射する。LIDAR14Aは、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14Aは、自車両の任意の箇所に取り付けられる。また、本実施形態におけるLIDAR14Aは、上記の基本的な機能(以下「LIDAR機能」という。)に加えて、発光部または受光部に付着した汚れ(以下「LIDAR汚れ」という。)を検知する機能を有する。この機能を実現するため、本実施形態におけるLIDAR14Aは、汚れ検知部151を備える。汚れ検知部151は、LIDAR機能による距離(反射点)の検知結果と、距離検知の際に観測された反射光の強度(以下「反射強度」という。)とに基づいてLIDAR汚れを検知するものである。なお、反射点は「検知点」の一例である。 The LIDAR 14A irradiates the periphery of the own vehicle with light (or an electromagnetic wave having a wavelength close to that of light) and measures the scattered light. For example, LIDAR14A irradiates infrared light. The LIDAR 14A detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. The LIDAR 14A is attached to any part of the own vehicle. Further, the LIDAR14A in the present embodiment has a function of detecting dirt adhering to a light emitting part or a light receiving part (hereinafter referred to as "LIDAR dirt") in addition to the above-mentioned basic function (hereinafter referred to as "LIDAR function"). Have. In order to realize this function, the LIDAR 14A in the present embodiment includes a dirt detection unit 151. The dirt detection unit 151 detects LIDAR dirt based on the detection result of the distance (reflection point) by the LIDAR function and the intensity of the reflected light observed at the time of distance detection (hereinafter referred to as "reflection intensity"). Is. The reflection point is an example of a "detection point".

汚れ検知部151は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ検知部151は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めLIDAR14AのHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでLIDAR14AのHDDやフラッシュメモリにインストールされてもよい。LIDAR14Aは「車載ライダー装置」の一例である。 The dirt detection unit 151 is realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Further, the dirt detection unit 151 is hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit) (circuit unit; including circuitry). It may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the LIDAR 14A, or may be stored in a removable storage medium such as a DVD or a CD-ROM. The storage medium (non-transient storage medium) may be attached to the HDD or flash memory of the LIDAR 14A by being attached to the drive device. LIDAR14A is an example of an "in-vehicle rider device".

具体的には、汚れ検知部151は、LIDAR機能による検知結果と、反射強度とに基づいてLIDAR汚れの度合いを示す指標値(以下「汚れ値」という。)を算出する。なお、汚れ値は、LIDAR汚れの度合いを示すものであればどのような値であってもよいし、どのような方法で算出されてもよい。例えば、汚れ検知部151は、LIDAR14A近傍の反射点の数、反射点までの距離、および反射強度に基づいて汚れ値を算出する。汚れ検知部151は、LIDAR14Aの水平方向の検知範囲を所定数に分割した領域ごとに汚れ値を算出する。以下では、検知範囲を分割した所定数に分割した各領域をセクションといい、本実施形態では、各LIDAR14Aの検知範囲を10個のセクションに分割する場合について説明する。汚れ検知部151は、算出した汚れ値を物体認識装置16Aに出力する。 Specifically, the dirt detection unit 151 calculates an index value (hereinafter referred to as “dirt value”) indicating the degree of lidar dirt based on the detection result by the lidar function and the reflection intensity. The dirt value may be any value as long as it indicates the degree of lidar dirt, and may be calculated by any method. For example, the dirt detection unit 151 calculates the dirt value based on the number of reflection points in the vicinity of LIDAR14A, the distance to the reflection points, and the reflection intensity. The dirt detection unit 151 calculates the dirt value for each region in which the horizontal detection range of the LIDAR 14A is divided into a predetermined number. Hereinafter, each region in which the detection range is divided into a predetermined number is referred to as a section, and in the present embodiment, a case where the detection range of each LIDAR 14A is divided into 10 sections will be described. The dirt detection unit 151 outputs the calculated dirt value to the object recognition device 16A.

物体認識装置16Aは、カメラ10、レーダ装置12、およびLIDAR14Aのうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16Aは、認識結果を自動運転制御装置100に出力する。また、本実施形態における物体認識装置16Aは、上記の基本的な機能(以下「物体認識機能」という。)に加えて、各LIDAR14Aについて汚れフラグを出力する機能を有する。汚れフラグは、各LIDAR14AがLIDAR汚れの除去を必要とする状態(以下「汚れ状態」という。)にあるか否かを示すフラグである。この機能を実現するため、例えば、物体認識装置16Aは、汚れ判定部171Aを備えるとともに、閾値情報172を記憶している。汚れ判定部171A、または閾値情報172は、LIDAR14Aに含まれてもよい。 The object recognition device 16A performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the LIDAR 14A, and recognizes the position, type, speed, and the like of the object. The object recognition device 16A outputs the recognition result to the automatic operation control device 100. Further, the object recognition device 16A in the present embodiment has a function of outputting a dirt flag for each LIDAR 14A in addition to the above-mentioned basic function (hereinafter referred to as “object recognition function”). The dirt flag is a flag indicating whether or not each lidar14A is in a state requiring removal of lidar dirt (hereinafter referred to as “dirt state”). In order to realize this function, for example, the object recognition device 16A includes a dirt determination unit 171A and stores threshold information 172. The stain determination unit 171A or the threshold value information 172 may be included in the LIDAR 14A.

汚れ判定部171Aは、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ判定部171Aは、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め物体認識装置16AのHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで物体認識装置16AのHDDやフラッシュメモリにインストールされてもよい。物体認識装置16Aは「汚れ判定装置」の一例である。 The dirt determination unit 171A is realized by, for example, a hardware processor such as a CPU executing a program (software). Further, the dirt determination unit 171A may be realized by hardware such as LSI, ASIC, FPGA, GPU (including circuit unit; circuitry), or may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the object recognition device 16A, or a removable storage such as a DVD or a CD-ROM. It is stored in a medium, and the storage medium (non-transient storage medium) may be attached to the drive device and installed in the HDD or flash memory of the object recognition device 16A. The object recognition device 16A is an example of a "dirt determination device".

ここで、閾値情報172は、各LIDAR14Aが汚れ状態にあるか否かを判定する際に用いられる情報であり、汚れ値の閾値を示す情報である。汚れ判定部171Aは、LIDAR14Aから通知された汚れ値と閾値情報172とを比較することにより、各LIDAR14Aが汚れ状態にあるか否かを判定する。以下、この判定を「汚れ判定」という。汚れ判定部171Aは、汚れ判定の結果に応じて汚れフラグを更新し、更新した汚れフラグの値を自動運転制御装置100に通知する。例えば、汚れ判定部171Aは、LIDAR14Aが汚れ状態にあると判定した場合に汚れフラグを立て(汚れフラグの値を1にする)、LIDAR14Aが汚れ状態にないと判定した場合に汚れフラグを下げる(汚れフラグの値を0にする)。 Here, the threshold value information 172 is information used when determining whether or not each LIDAR 14A is in a dirty state, and is information indicating a threshold value of the dirt value. The stain determination unit 171A determines whether or not each LIDAR 14A is in a dirty state by comparing the stain value notified from the LIDAR 14A with the threshold value information 172. Hereinafter, this determination is referred to as "dirt determination". The dirt determination unit 171A updates the dirt flag according to the result of the dirt determination, and notifies the automatic operation control device 100 of the updated value of the dirt flag. For example, the dirt determination unit 171A sets a dirt flag (sets the value of the dirt flag to 1) when it is determined that the LIDAR14A is in a dirty state, and lowers the dirt flag when it is determined that the LIDAR14A is not in a dirty state (the dirt flag is set to 1). Set the value of the dirt flag to 0).

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両の周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with other vehicles existing in the vicinity of the own vehicle by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or a wireless base. Communicate with various server devices via the station.

HMI30は、自車両の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。例えば、HMI30は、自動運転制御装置100の指示により、LIDAR14Aが汚れ状態にあることを報知する動作(以下「汚れ報知動作」という。)を行う。例えば、HMI30は、LIDAR汚れの除去を促すメッセージの表示や音声出力などの動作を汚れ報知動作として行う。 The HMI 30 presents various information to the occupants of the own vehicle and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like. For example, the HMI 30 performs an operation of notifying that the LIDAR 14A is in a dirty state (hereinafter referred to as a “dirt notification operation”) according to an instruction from the automatic operation control device 100. For example, the HMI 30 performs operations such as displaying a message prompting the removal of lidar stains and outputting voice as a stain notification operation.

車両センサ40は、自車両の速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両の向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the own vehicle, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the own vehicle, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両の位置を特定する。自車両の位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両の位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53. The navigation device 50 holds the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. The GNSS receiver 51 identifies the position of its own vehicle based on the signal received from the GNSS satellite. The position of the own vehicle may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, is a route (hereinafter, a map) from the position of the own vehicle specified by the GNSS receiver 51 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI 52. The upper route) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The route on the map is output to MPU60. The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両が、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a plurality of blocks (for example, divides the route into 100 [m] units with respect to the vehicle traveling direction), and refers to the second map information 62. Determine the recommended lane for each block. The recommended lane determination unit 61 determines which lane to drive from the left. When a branch point exists on the route on the map, the recommended lane determination unit 61 determines the recommended lane so that the own vehicle can travel on a reasonable route to proceed to the branch destination.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher accuracy than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with another device.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation controller 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、自車両の自動運転(運転支援を含む)を制御する装置である。自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、報知制御部180とを備える。第1制御部120、第2制御部160、および報知制御部180は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。なお、HMI30と報知制御部180を組み合わせたものが「報知部」の一例である。 The automatic driving control device 100 is a device that controls the automatic driving (including driving support) of the own vehicle. The automatic operation control device 100 includes, for example, a first control unit 120, a second control unit 160, and a notification control unit 180. The first control unit 120, the second control unit 160, and the notification control unit 180 are each realized by executing a program (software) by a hardware processor such as a CPU. Further, some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (circuit unit; including circuitry), or realized by collaboration between software and hardware. May be done. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the automatic operation control device 100, or may be detachable such as a DVD or a CD-ROM. It is stored in a storage medium, and may be installed in the HDD or flash memory of the automatic operation control device 100 by mounting the storage medium (non-transient storage medium) in the drive device. A combination of the HMI 30 and the notification control unit 180 is an example of the "notification unit".

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 160. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning or the like and the recognition based on predetermined conditions (there are signals that can be matched with patterns, road markings, etc.). It may be realized by scoring and comprehensively evaluating. This ensures the reliability of automated driving.

認識部130は、カメラ10、レーダ装置12、およびLIDAR14Aから物体認識装置16Aを介して入力された情報に基づいて、自車両の周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両の代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 recognizes the position, speed, acceleration, and other states of objects around the own vehicle based on the information input from the camera 10, the radar device 12, and the LIDAR 14A via the object recognition device 16A. .. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point of the own vehicle (center of gravity, center of drive axis, etc.) as the origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include the object's acceleration, jerk, or "behavioral state" (eg, whether it is changing lanes or is about to change lanes).

また、認識部130は、例えば、自車両が走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両の周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両の位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。 Further, the recognition unit 130 recognizes, for example, the lane (traveling lane) in which the own vehicle is traveling. For example, the recognition unit 130 has a pattern of road lane markings obtained from the second map information 62 (for example, an arrangement of solid lines and broken lines) and road lane markings around the own vehicle recognized from the image captured by the camera 10. By comparing with the pattern, the driving lane is recognized. The recognition unit 130 may recognize the traveling lane by recognizing not only the road marking line but also the running road boundary (road boundary) including the road marking line, the shoulder, the median strip, the guardrail, and the like. .. In this recognition, the position of the own vehicle acquired from the navigation device 50 and the processing result by INS may be added. The recognition unit 130 also recognizes stop lines, obstacles, red lights, tollhouses, and other road events.

認識部130は、走行車線を認識する際に、走行車線に対する自車両の位置や姿勢を認識する。認識部130は、例えば、自車両の基準点の車線中央からの乖離、および自車両の進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両の相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両の基準点の位置などを、走行車線に対する自車両の相対位置として認識してもよい。 When recognizing a traveling lane, the recognition unit 130 recognizes the position and posture of the own vehicle with respect to the traveling lane. For example, the recognition unit 130 sets the deviation of the reference point of the own vehicle from the center of the lane and the angle formed with respect to the line connecting the center of the lane in the traveling direction of the own vehicle as the relative position and attitude of the own vehicle with respect to the traveling lane. You may recognize it. Instead, the recognition unit 130 recognizes the position of the reference point of the own vehicle with respect to any side end portion (road division line or road boundary) of the traveling lane as the relative position of the own vehicle with respect to the traveling lane. May be good.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両の周辺状況に対応できるように、自車両が自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両の到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 In principle, the action plan generation unit 140 travels in the recommended lane determined by the recommended lane determination unit 61, and the own vehicle automatically (operates by the driver) so as to be able to respond to the surrounding conditions of the own vehicle. Generate a target track to travel in the future (regardless of). The target trajectory contains, for example, a speed element. For example, a target track is expressed as an arrangement of points (track points) to be reached by the own vehicle in order. The track point is a point to be reached by the own vehicle for each predetermined mileage (for example, about several [m]) along the road, and separately, a predetermined sampling time (for example, about 0 comma number [sec]). A target velocity and a target acceleration for each are generated as part of the target trajectory. Further, the track point may be a position to be reached by the own vehicle at the sampling time at a predetermined sampling time. In this case, the information of the target speed and the target acceleration is expressed by the interval of the orbital points.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。 The action plan generation unit 140 may set an event for automatic driving when generating a target trajectory. Autonomous driving events include constant speed driving events, low speed following driving events, lane change events, branching events, merging events, takeover events, and the like. The action plan generation unit 140 generates a target trajectory according to the activated event.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両が通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 controls the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the own vehicle passes the target trajectory generated by the action plan generation unit 140 on time. do.

なお、第1制御部120または第2制御部160は、汚れ判定部171の判定結果に基づいて運転支援または自動運転の可否を判定し、その判定結果に基づいて運転支援または自動運転に関する処理の実行、一時停止、停止、再開、終了等を判定するように構成されてもよい。 The first control unit 120 or the second control unit 160 determines whether or not driving support or automatic driving is possible based on the judgment result of the dirt determination unit 171 and performs processing related to driving support or automatic driving based on the judgment result. It may be configured to determine execution, pause, stop, restart, end, and the like.

図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両の前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 Returning to FIG. 2, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The acquisition unit 162 acquires the information of the target trajectory (orbit point) generated by the action plan generation unit 140 and stores it in a memory (not shown). The speed control unit 164 controls the traveling driving force output device 200 or the brake device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 166 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 executes a combination of feedforward control according to the curvature of the road in front of the own vehicle and feedback control based on the deviation from the target track.

図1に戻り、報知制御部180は、物体認識装置16Aから通知される汚れフラグの値に応じて、HMI30に汚れ報知動作を指示する機能を有する。例えば、報知制御部180は、汚れフラグの値として1が通知された場合に、HMI30に対して汚れ報知動作を指示し、汚れフラグの値として0が通知された場合には、HMI30に対して汚れ報知動作を指示しない。 Returning to FIG. 1, the notification control unit 180 has a function of instructing the HMI 30 to perform a dirt notification operation according to the value of the dirt flag notified from the object recognition device 16A. For example, the notification control unit 180 instructs the HMI 30 to perform a dirt notification operation when 1 is notified as the value of the dirt flag, and when 0 is notified as the value of the dirt flag, the notification control unit 180 instructs the HMI 30. Do not instruct the dirt notification operation.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for the vehicle to travel to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, a motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the above configuration according to the information input from the second control unit 160 or the information input from the operation controller 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder as a backup. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to the information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, exerts a force on the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80, and changes the direction of the steering wheel.

図3Aおよび図3Bは、第1実施形態の車両システム1Aにおいて自車両Mに搭載されるLIDAR14Aの検知範囲の一例を示す図である。図3Aおよび図3Bは、自車両Mの前右部、前左部、後中央部、後右部、後左部にそれぞれ1つずつ設けられた、計5つのLIDAR14Aの検知範囲を示している。図3Aにおいて、LIDAR14A-FRは前右部のLIDAR14Aを表し、LIDAR14A-FLは前左部のLIDARを表す。また、図3Bにおいて、LIDAR14A-RRは後右部のLIDARを表し、LIDAR14A-RLは後左部のLIDAR14Aを表し、LIDAR14A-RCは後中央部のLIDAR14Aを表す。なお以下では、図3Aおよび図3Bを区別しない場合、両者をまとめて図3という場合がある。 3A and 3B are diagrams showing an example of the detection range of the LIDAR 14A mounted on the own vehicle M in the vehicle system 1A of the first embodiment. 3A and 3B show the detection ranges of a total of five LIDAR 14A provided in each of the front right portion, the front left portion, the rear center portion, the rear right portion, and the rear left portion of the own vehicle M. .. In FIG. 3A, LIDAR14A-FR represents the front right portion of LIDAR14A, and LIDAR14A-FL represents the front left portion of LIDAR. Further, in FIG. 3B, LIDAR14A-RR represents LIDAR in the rear right portion, LIDAR14A-RL represents LIDAR14A in the rear left portion, and LIDAR14A-RC represents LIDAR14A in the rear center portion. In the following, when FIGS. 3A and 3B are not distinguished, they may be collectively referred to as FIG.

図3において、検知範囲DR-FR、DR-FL、DR-RR、DR-RL、DR-RCは、それぞれ、前右部、前左部、後右部、後左部、後中央部のLIDAR14A-FR、LIDAR14A-FL、LIDAR14A-RR、LIDAR14A-RL、LIDAR14A-RCの検知範囲を表している。 In FIG. 3, the detection ranges DR-FR, DR-FL, DR-RR, DR-RL, and DR-RC are the front right part, the front left part, the rear right part, the rear left part, and the rear center part LIDAR14A, respectively. -Represents the detection range of FR, LIDAR14A-FL, LIDAR14A-RR, LIDAR14A-RL, LIDAR14A-RC.

なお、上述のとおり、本実施形態の車両システム1Aにおいて、汚れ値の算出は、各LIDAR14Aの検知範囲を10分割したセクションごとに行われる。具体的には、検出範囲DR-FRはセクションFR01~FR10に分割され、検出範囲DR-FLはセクションFL01~FL10に分割され、検出範囲DR-RRはセクションRR01~RR10に分割され、検出範囲DR-RLはセクションRL01~RL10に分割され、検出範囲DR-RCはセクションRC01~RC10に分割される。 As described above, in the vehicle system 1A of the present embodiment, the dirt value is calculated for each section in which the detection range of each LIDAR 14A is divided into 10. Specifically, the detection range DR-FR is divided into sections FR01 to FR10, the detection range DR-FL is divided into sections FL01 to FL10, the detection range DR-RR is divided into sections RR01 to RR10, and the detection range DR. -RL is divided into sections RL01 to RL10, and the detection range DR-RC is divided into sections RC01 to RC10.

ところで、車両の自動運転制御においては、一般に、自車両Mの真正面、真後ろ、および左右斜め後方における距離検知が重要となり、これらの方向の距離検知に関しては他の領域よりも比較的に高い検知精度が求められる。このため、これらの方向の検知に使用されるLIDAR14Aについては、汚れの度合いが比較的軽度であるうちにLIDAR汚れが解消されることが望ましい。そこで、本実施形態の車両システム1Aでは、各検出範囲のセクションごとに汚れ判定の閾値を設定する。これにより、局所的なLIDAR汚れが検出可能になるとともに、優先度の高いセクションのLIDAR汚れを比較的早い段階で検出することが可能となる。 By the way, in the automatic driving control of a vehicle, it is generally important to detect the distance directly in front of, directly behind, and diagonally rearward of the own vehicle M, and the distance detection in these directions has a relatively higher detection accuracy than other regions. Is required. Therefore, for the lidar14A used for detecting these directions, it is desirable that the lidar stain is removed while the degree of contamination is relatively light. Therefore, in the vehicle system 1A of the present embodiment, a threshold value for dirt determination is set for each section of the detection range. This makes it possible to detect local lidar stains and detect lidar stains in high priority sections at a relatively early stage.

なお、図3に例示した各LIDAR14Aの検知範囲の向きや、各検知範囲を構成するセクションの数などは一例であり、必要に応じて図3と異なる態様に変更されてもよい。また、自車両Mに設置されるLIDAR14Aの数や設置位置も図3と異なる態様に変更されてよい。例えば、検知範囲は11以上のセクションに分割されてもよいし、9以下のセクションに分割されてもよい。また、検知範囲は水平方向だけでなく垂直方向に分割されてもよいし、垂直方向にのみ分割されてもよい。また、例えば、複数のLIDAR14Aは、それぞれの検知範囲が所定の軸(例えば、車両の中心軸や進行方向)に対して左右対称または上下対称となるように設けられてもよいし、非対称となるように設けられてもよい。 The orientation of the detection range of each LIDAR 14A illustrated in FIG. 3, the number of sections constituting each detection range, and the like are examples, and may be changed to a mode different from that of FIG. 3 as necessary. Further, the number and the installation position of the LIDAR 14A installed in the own vehicle M may be changed to a mode different from that in FIG. For example, the detection range may be divided into 11 or more sections or 9 or less sections. Further, the detection range may be divided not only in the horizontal direction but also in the vertical direction, or may be divided only in the vertical direction. Further, for example, the plurality of LIDAR 14A may be provided so that their respective detection ranges are symmetrical or vertically symmetrical with respect to a predetermined axis (for example, the central axis of the vehicle or the traveling direction), or are asymmetrical. It may be provided as follows.

図4は、第1実施形態における閾値情報172の一例を示す図である。例えば、閾値情報172は、図4に示されるように、各セクションのセクションIDと、各セクションの汚れ判定における汚れ値の閾値との対応関係を示すテーブルとして物体認識装置16Aに記憶される。図4は自車両Mの前左部に設置されたLIDAR14A-FLについての閾値情報172-FLの一例を示し、自車両Mの前右部に設置されたLIDAR14A-FRについての閾値情報172-FRの一例を示す。また、図4は自車両Mの後左部に設置されたLIDAR14A-RLについての閾値情報172-RLの一例を示し、自車両Mの後中央部に設置されたLIDAR14A-RCについての閾値情報172-RCの一例を示し、自車両Mの後右部に設置されたLIDAR14A-RRについての閾値情報172-RRの一例を示す。図4の例において、セクションIDの値は図3に記載したセクションIDと対応している。 FIG. 4 is a diagram showing an example of threshold information 172 according to the first embodiment. For example, as shown in FIG. 4, the threshold information 172 is stored in the object recognition device 16A as a table showing the correspondence between the section ID of each section and the threshold value of the stain value in the stain determination of each section. FIG. 4 shows an example of the threshold information 1722-FL about the LIDAR14A-FL installed in the front left part of the own vehicle M, and the threshold information 1722-FR about the LIDAR14A-FR installed in the front right part of the own vehicle M. An example is shown. Further, FIG. 4 shows an example of the threshold information 1722-RL for the LIDAR14A-RL installed in the rear left portion of the own vehicle M, and the threshold information 172 for the LIDAR14A-RC installed in the rear central portion of the own vehicle M. -An example of RC is shown, and an example of threshold information 1722-RR about LIDAR14A-RR installed in the rear right part of the own vehicle M is shown. In the example of FIG. 4, the value of the section ID corresponds to the section ID shown in FIG.

上述のとおり、自車両Mの自動運転制御においては、自車両Mの前方正面と、後方正面および左右斜め後方とにおける距離検知が重要となる。そのため、閾値情報172-FLの例では、自車両Mの前方正面に対応するセクションFL03~FL06の閾値が他のセクションに対して相対的に低い50%に設定されている。同様に、閾値情報172-FRの例では、自車両Mの前方正面に対応するセクションFR05~FR08の閾値が他のセクションに対して相対的に低い50%に設定されている。 As described above, in the automatic driving control of the own vehicle M, it is important to detect the distance between the front front of the own vehicle M, the rear front, and the left and right diagonal rear. Therefore, in the example of the threshold value information 172-FL, the threshold value of the sections FL03 to FL06 corresponding to the front front of the own vehicle M is set to 50%, which is relatively lower than the other sections. Similarly, in the example of the threshold information 172-FR, the threshold value of the sections FR05 to FR08 corresponding to the front front of the own vehicle M is set to 50%, which is relatively low with respect to the other sections.

一方、図4に示す閾値情報172-RLの例では、自車両Mの左斜め後方に対応するセクションRL06~RL08の閾値が他のセクションに対して相対的に低い60%に設定されている。同様に、図4に示す閾値情報172-RCの例では、自車両Mの後方正面に対応するセクションRC04~RC07の閾値が他のセクションに対して相対的に低い50%に設定されている。同様に、図4に示す閾値情報172-RRの例では、自車両Mの右斜め後方に対応するセクションRR03~RR05の閾値が他のセクションに対して相対的に低い60%に設定されている。 On the other hand, in the example of the threshold value information 172-RL shown in FIG. 4, the threshold value of the sections RL06 to RL08 corresponding to the diagonally left rear of the own vehicle M is set to 60%, which is relatively low with respect to the other sections. Similarly, in the example of the threshold information 172-RC shown in FIG. 4, the threshold value of the sections RC04 to RC07 corresponding to the rear front surface of the own vehicle M is set to 50%, which is relatively low with respect to the other sections. Similarly, in the example of the threshold value information 172-RR shown in FIG. 4, the threshold value of the sections RR03 to RR05 corresponding to the diagonally right rearward of the own vehicle M is set to 60%, which is relatively low with respect to the other sections. ..

このように、複数のセクションのうち、自車両Mの前方または後方に対応するセクション(例えば、セクションFL03~FL06、FR05~FR08、RC04~RC07、RL06~RL08、RR03~RR05)には、同じ検知範囲の中で、その他の領域よりも低い閾値が設定され、前記車両の横方向(例えば、セクションFL03~FL06、FR05~FR08、RC04~RC07、RL06~RL08、RR03~RR05以外のセクション)のセクションにはその他の領域よりも高い閾値が設定される。 As described above, among the plurality of sections, the same detection is performed in the sections corresponding to the front or the rear of the own vehicle M (for example, sections FL03 to FL06, FR05 to FR08, RC04 to RC07, RL06 to RL08, RR03 to RR05). Within the range, a lower threshold is set than in the other areas and the lateral section of the vehicle (eg, sections other than sections FL03-FL06, FR05-FR08, RC04-RC07, RL06-RL08, RR03-RR05). Is set to a higher threshold than the other areas.

この場合、自動運転制御装置100において、汚れ判定部171Aは、各LIDAR14Aについてセクションごとに通知された汚れ値(以下「測定値」という。)を、それぞれのセクションに設定された閾値と比較する。汚れ判定部171Aは、測定値が閾値以上となっているセクションが存在する場合、当該セクションを検知範囲内に有するLIDAR14Aについて汚れフラグを立てて自動運転制御装置100に通知する。この通知を受けた自動運転制御装置100では、報知制御部180が当該LIDAR14Aについて汚れ報知動作を行うことをHMI30に指示する。 In this case, in the automatic operation control device 100, the dirt determination unit 171A compares the dirt value (hereinafter referred to as “measured value”) notified for each section for each LIDAR 14A with the threshold value set in each section. When there is a section whose measured value is equal to or higher than the threshold value, the dirt determination unit 171A sets a dirt flag for the LIDAR 14A having the section within the detection range and notifies the automatic operation control device 100. In the automatic operation control device 100 that has received this notification, the notification control unit 180 instructs the HMI 30 to perform a dirt notification operation on the LIDAR 14A.

例えば、図4の例において、セクションFL05における汚れ値として55%が測定された場合、汚れ判定部171Aは、測定値がセクションFL05の閾値50%以上であることから、セクションFOL05を検知範囲に有するLIDAR14A-FLについて汚れフラグを立てて自動運転制御装置100に通知する。この通知を受けた自動運転制御装置100では、報知制御部180がLIDAR14A-FLについて汚れ報知動作を行うことをHMI30に指示する。 For example, in the example of FIG. 4, when 55% is measured as the dirt value in the section FL05, the dirt determination unit 171A has the section FOL05 in the detection range because the measured value is 50% or more of the threshold value of the section FL05. A dirt flag is set for LIDAR14A-FL and the automatic operation control device 100 is notified. Upon receiving this notification, the automatic operation control device 100 instructs the HMI 30 that the notification control unit 180 performs a dirt notification operation on the LIDAR 14A-FL.

このように構成された第1実施形態の車両システム1Aは、自車両に搭載された各LIDAR14Aが、水平方向の検知範囲を所定数に分割したセクションごとに汚れ値を算出し、自動運転制御装置100が、セクションごとに算出された汚れ値と、対応するセクションに設定された汚れ値の閾値とに基づいて、各LIDAR14Aについて汚れ報知動作を行うか否かを判定する。このような構成を備えることにより、実施形態の車両システム1Aは、局所的なLIDAR汚れを検出するとともに、各セクションの優先度に応じたタイミングでLIDAR汚れを検出することができる。すなわち、実施形態の車両システム1Aによれば、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる。 In the vehicle system 1A of the first embodiment configured in this way, each LIDAR 14A mounted on the own vehicle calculates a dirt value for each section in which the detection range in the horizontal direction is divided into a predetermined number, and the automatic operation control device. 100 determines whether or not to perform the dirt notification operation for each LIDAR 14A based on the dirt value calculated for each section and the threshold value of the dirt value set in the corresponding section. With such a configuration, the vehicle system 1A of the embodiment can detect local lidar stains and can detect lidar stains at a timing according to the priority of each section. That is, according to the vehicle system 1A of the embodiment, it is possible to prevent the control function of the vehicle from being suppressed more than necessary due to the adhesion of dirt to the lidar.

<第2実施形態>
図5は、第2実施形態に係る車両制御装置を利用した車両システム1Bの構成図である。車両システム1Bは、LIDAR14Aに代えてLIDAR14Bを備える点、および物体認識装置16Aに代えて物体認識装置16Bを備える点において第1実施形態の車両システム1Aと異なる。また、物体認識装置16Bは、汚れ判定部171Aに代えて汚れ判定部171Bを備える点、および閾値情報172に代えて条件情報173を記憶している点において第1実施形態の物体認識装置16Aと異なる。その他の車両システム1Bの構成は車両システム1Aと同様である。そのため、図5においては、図1と同じ符号を付すことにより、それらの同様の構成についての説明を省略する。
<Second Embodiment>
FIG. 5 is a configuration diagram of a vehicle system 1B using the vehicle control device according to the second embodiment. The vehicle system 1B is different from the vehicle system 1A of the first embodiment in that the LIDAR 14B is provided in place of the LIDAR 14A and the object recognition device 16B is provided in place of the object recognition device 16A. Further, the object recognition device 16B is different from the object recognition device 16A of the first embodiment in that the dirt determination unit 171B is provided instead of the dirt determination unit 171A and the condition information 173 is stored instead of the threshold value information 172. different. The other vehicle system 1B has the same configuration as the vehicle system 1A. Therefore, in FIG. 5, by assigning the same reference numerals as those in FIG. 1, the description of those similar configurations will be omitted.

汚れ判定部171Bは、第1実施形態の汚れ判定部171AがLIDAR14Aから通知される汚れ値に基づいて汚れフラグを管理したのに対し、汚れ値に加えて自車両の速度に基づいて汚れフラグを管理する点で汚れ判定部171Aと異なる。具体的には、汚れ判定部171Bは、条件情報173により定義された複数の判定条件による汚れ判定の結果に基づいて汚れフラグを管理する。 The dirt determination unit 171B manages the dirt flag based on the dirt value notified from the LIDAR 14A by the dirt determination unit 171A of the first embodiment, whereas the dirt flag is set based on the speed of the own vehicle in addition to the dirt value. It differs from the dirt determination unit 171A in that it is managed. Specifically, the stain determination unit 171B manages the stain flag based on the result of the stain determination based on the plurality of determination conditions defined by the condition information 173.

図6は、第2実施形態における条件情報173の一例を示す図である。例えば、条件情報173には、汚れ判定に用いられる複数の判定条件の名称(条件名)と、判定条件の内容(条件内容)と、判定条件の種別(条件種別)とが対応づけて登録される。例えば、図6の条件情報173の例では、汚れフラグを立てる条件(フラグON条件)として、汚れ閾値条件、汚れ揺らぎ条件、および車速条件が登録され、汚れフラグを下げる条件(フラグOFF条件)として、復旧条件が設定されている。各フラグON条件、およびフラグOFF条件の詳細は、以下のとおりである。車速条件は、省略されてもよい。 FIG. 6 is a diagram showing an example of condition information 173 in the second embodiment. For example, in the condition information 173, the names (condition names) of a plurality of determination conditions used for stain determination, the content of the determination condition (condition content), and the type of the determination condition (condition type) are registered in association with each other. To. For example, in the example of the condition information 173 of FIG. 6, the dirt threshold condition, the dirt fluctuation condition, and the vehicle speed condition are registered as the condition for setting the dirt flag (flag ON condition), and the dirt flag is lowered as the condition (flag OFF condition). , Recovery conditions are set. The details of each flag ON condition and the flag OFF condition are as follows. The vehicle speed condition may be omitted.

[汚れ閾値条件]
汚れ閾値条件は、LIDARに付着したもの(汚れ)の量が一定量を超えたか否かを判定する条件である。一般に、車両が低温環境で高速走行している場合、LIDAR14Bの表面の水滴が露のように短時間付着する場合がある。そのため、このような状況では、一時的に汚れ値が上昇することがあるため、この状態を汚れ状態として誤検知する可能性がある。また、車両が発進した直後の低速走行状態では、降雨による水滴がLIDAR14Bの表面にとどまる可能性が低く、基本的に汚れ値が閾値を超えることがない。そこで、本実施形態では、汚れ値が、閾値を超えてから閾値を下回ることなく所定時間(例えば300秒)を経過した場合に判定結果を真とする条件を汚れ値条件とする。以下、汚れ閾値条件を判定する際の上記所定時間を判定時間という。
[Dirt threshold condition]
The dirt threshold condition is a condition for determining whether or not the amount of dirt attached to the lidar exceeds a certain amount. Generally, when the vehicle is traveling at high speed in a low temperature environment, water droplets on the surface of LIDAR14B may adhere for a short time like dew. Therefore, in such a situation, the dirt value may temporarily increase, and this state may be erroneously detected as a dirt state. Further, in the low-speed running state immediately after the vehicle starts, it is unlikely that water droplets due to rainfall will stay on the surface of the LIDAR 14B, and the dirt value basically does not exceed the threshold value. Therefore, in the present embodiment, the condition in which the determination result is true when a predetermined time (for example, 300 seconds) has elapsed without the stain value exceeding the threshold value and falling below the threshold value is defined as the stain value condition. Hereinafter, the predetermined time for determining the dirt threshold condition is referred to as a determination time.

[汚れ値ゆらぎ条件]
汚れ値ゆらぎ条件は、LIDAR汚れが、拭き取られる必要のある汚れであるか否かを判定する条件である。具体的には、汚れ値ゆらぎ条件は、汚れ値が閾値を超えた状態で経過した過去の判定時間(例えば300秒)における汚れ値のゆらぎの大きさが所定の割合未満(例えば最大値と最小値の差が10%未満)である場合に判定結果を真とする条件である。これは、拭き取られる必要のある汚れの一例として、オイルと砂の混合物をLIDAR14Bの表面に付着させた場合、判定時間が経過するまでに汚れ値のゆらぎの大きさが10%を超える場合があり、判定時間を長くとりすぎると拭き取られる必要のある汚れを検知することができなくなる恐れがあるという知見が得られたことによるものである。また、通常、RIDAR汚れを拭き取るために自車両を停車させるには数分程度の時間が必要となることから、判定時間を例えば300秒程度としても差し支えない。
[Dirt value fluctuation condition]
The stain value fluctuation condition is a condition for determining whether or not the lidar stain is a stain that needs to be wiped off. Specifically, in the dirt value fluctuation condition, the magnitude of the dirt value fluctuation in the past determination time (for example, 300 seconds) elapsed in a state where the dirt value exceeds the threshold value is less than a predetermined ratio (for example, the maximum value and the minimum value). It is a condition that the determination result is true when the difference between the values is less than 10%). This is an example of dirt that needs to be wiped off. When a mixture of oil and sand is attached to the surface of LIDAR14B, the amount of fluctuation of the dirt value may exceed 10% by the time the determination time elapses. This is because it was found that if the determination time is too long, it may not be possible to detect the dirt that needs to be wiped off. Further, since it usually takes about several minutes to stop the own vehicle in order to wipe off the RIDAR dirt, the determination time may be set to, for example, about 300 seconds.

[車速条件]
車速条件は、自車両がLIDAR汚れを促進する速度で走行しているか否かを判定する条件である。一般に、LIDAR汚れは、停車時に荷物の積み下ろしを行っているときや、自車両が物体の至近距離を徐行しているとき(例えば時速10km以下で走行中)などにおいても促進される可能があると考えられる。そこで、本実施形態では、自車両の車速が所定の時速上限(例えば時速20km)を超えた後、所定の時速下限(例えば時速10km)を下回ることなく所定時間(例えば8秒)が経過した場合に判定結果を真とする条件を車速条件とする。これは、車両が物体の至近距離で停車している状態から通常走行(例えば時速20km以上での走行)を開始した場合、LIDAR汚れは8秒間の走行により十分除去されるとの知見が得られたことによる。
[Vehicle speed conditions]
The vehicle speed condition is a condition for determining whether or not the own vehicle is traveling at a speed that promotes lidar contamination. In general, lidar stains can be promoted even when loading and unloading luggage when the vehicle is stopped, or when the vehicle is driving slowly at a close distance to an object (for example, traveling at a speed of 10 km / h or less). Conceivable. Therefore, in the present embodiment, when the vehicle speed of the own vehicle exceeds a predetermined upper limit (for example, 20 km / h) and then a predetermined time (for example, 8 seconds) elapses without falling below a predetermined lower limit (for example, 10 km / h). The condition for which the judgment result is true is the vehicle speed condition. It was found that when normal driving (for example, traveling at a speed of 20 km / h or more) is started from a state where the vehicle is stopped at a close distance to the object, the lidar stain is sufficiently removed by traveling for 8 seconds. It depends.

[復旧条件]
上述のとおり、復旧条件は、フラグON条件を満たしているときに上げられた汚れフラグを下げてよいか否かを判定するための条件である。そのため、復旧条件は、自車両が汚れ状態にないことを判定することができる条件である必要がある。そこで、本実施形態では、全てのセクションにおいて汚れ値が閾値(例えば30%)以下となっている場合に判定結果を真とする条件を復旧条件とする。この場合の閾値は、LIDAR14Bの表面に検知性能に影響しない傷や汚れが残っている場合であっても汚れフラグを下げられるようにすること、汚れフラグのONおよびOFFが頻繁に繰り返されないようにすることを考慮して設計されるとよい。
[Recovery conditions]
As described above, the recovery condition is a condition for determining whether or not the dirt flag raised when the flag ON condition is satisfied may be lowered. Therefore, the restoration condition needs to be a condition that can determine that the own vehicle is not in a dirty state. Therefore, in the present embodiment, the condition that the determination result is true when the stain value is equal to or less than the threshold value (for example, 30%) in all the sections is set as the recovery condition. The threshold value in this case is to enable the dirt flag to be lowered even if scratches or stains that do not affect the detection performance remain on the surface of the LIDAR 14B, and to prevent the dirt flag from being turned on and off frequently. It should be designed in consideration of.

図7は、第2実施形態の物体認識装置16Bにおいて、汚れ判定部171Bが汚れフラグを管理する方法の一例を示すフローチャートである。ここでは、汚れフラグは各LIDAR14Bについてそれぞれ管理されるものとし、ある1つのLIDAR14Bの汚れフラグを管理する処理の流れについて説明する。まず、汚れ判定部171Bは、全セクションの汚れ値が汚れ値条件を満たしているか否かを判定する(ステップS101)。ここで、全てのセクションの汚れ値が汚れ値条件を満たしていると判定した場合、汚れ判定部171Bは、全てのセクションの汚れ値が汚れ値ゆらぎ条件を満たしているか否かを判定する(ステップS102)。ここで、全てのセクションの汚れ値が汚れ値ゆらぎ条件を満たしていると判定した場合、汚れ判定部171Bは、自車両の速度が車速条件を満たしているか否かを判定する(ステップS104)。ここで、自車両の速度が車速条件を満たしていると判定した場合、汚れ判定部171Bは、汚れフラグを立てる(ステップS105)。 FIG. 7 is a flowchart showing an example of a method in which the dirt determination unit 171B manages the dirt flag in the object recognition device 16B of the second embodiment. Here, it is assumed that the dirt flag is managed for each LIDAR 14B, and the flow of the process for managing the dirt flag of one LIDAR 14B will be described. First, the dirt determination unit 171B determines whether or not the dirt values of all the sections satisfy the dirt value condition (step S101). Here, when it is determined that the stain values of all the sections satisfy the stain value condition, the stain determination unit 171B determines whether or not the stain values of all the sections satisfy the stain value fluctuation condition (step). S102). Here, when it is determined that the dirt values of all the sections satisfy the dirt value fluctuation condition, the dirt determination unit 171B determines whether or not the speed of the own vehicle satisfies the vehicle speed condition (step S104). Here, when it is determined that the speed of the own vehicle satisfies the vehicle speed condition, the dirt determination unit 171B sets the dirt flag (step S105).

一方、ステップS101において、いずれかのセクションの汚れ値が汚れ値条件を満たしていないと判定した場合、又は、ステップS102において、いずれかのセクションの汚れ値が汚れ値ゆらぎ条件を満たしていないと判定した場合、又は、ステップS104において、自車両の速度が車速条件を満たしていないと判定した場合、汚れ判定部171Bは、復旧条件が満たされているか否かを判定する(ステップS106)。ここで、復旧条件が満たされていると判定した場合、汚れ判定部171Bは、汚れフラグを下げ(ステップS107)、ステップS101に処理を戻す。一方、ステップS106において、復旧条件が満たされていないと判定した場合、汚れ判定部171Bは、汚れフラグを下げることなくステップS101に処理を戻す。 On the other hand, in step S101, it is determined that the dirt value of any section does not satisfy the dirt value condition, or in step S102, it is determined that the dirt value of any section does not satisfy the dirt value fluctuation condition. If this is the case, or if it is determined in step S104 that the speed of the own vehicle does not satisfy the vehicle speed condition, the dirt determination unit 171B determines whether or not the restoration condition is satisfied (step S106). Here, when it is determined that the recovery condition is satisfied, the dirt determination unit 171B lowers the dirt flag (step S107) and returns the process to step S101. On the other hand, if it is determined in step S106 that the recovery condition is not satisfied, the dirt determination unit 171B returns the process to step S101 without lowering the dirt flag.

このように構成された第2実施形態の車両システム1Bは、物体認識装置16Bが、各LIDAR14Bが汚れ状態にあるか否かを、汚れ値に関する条件を含む複数の条件の組み合わせで判定する汚れ判定部171Bを備える。このような構成を備えることにより、実施形態の車両システム1Bは、LIDAR14Bが汚れ状態にあるか否かをより精度良く判定することが可能となる。すなわち、実施形態の車両システム1Bによれば、LIDAR汚れによって自車両の制御機能が必要以上に抑制されないようにすることが可能となる。 In the vehicle system 1B of the second embodiment configured as described above, the object recognition device 16B determines whether or not each LIDAR 14B is in a dirty state by a combination of a plurality of conditions including a condition related to the dirt value. A unit 171B is provided. By providing such a configuration, the vehicle system 1B of the embodiment can more accurately determine whether or not the LIDAR 14B is in a dirty state. That is, according to the vehicle system 1B of the embodiment, it is possible to prevent the control function of the own vehicle from being suppressed more than necessary by the lidar stain.

<変形例>
物体認識装置16A(または16B、以下同様)は、カメラ10、レーダ装置12、およびLIDAR14A(または14B、以下同様)の検出結果をそのまま自動運転制御装置100に出力してよい。また、この場合、物体認識装置16Aに代えて自動運転制御装置100が汚れ判定部171Bを備えるとともに、閾値情報(または条件情報)を保持するように構成されてもよい。また、この場合、車両システム1A(または1B、以下同様)から物体認識装置16Aが省略されてもよい。
<Modification example>
The object recognition device 16A (or 16B, the same applies hereinafter) may output the detection results of the camera 10, the radar device 12, and the LIDAR 14A (or 14B, the same shall apply hereinafter) to the automatic operation control device 100 as they are. Further, in this case, the automatic operation control device 100 may be configured to include the dirt determination unit 171B instead of the object recognition device 16A and to hold the threshold value information (or condition information). Further, in this case, the object recognition device 16A may be omitted from the vehicle system 1A (or 1B, the same applies hereinafter).

第1制御部120および第2制御部160において、認識部130や行動計画生成部140、取得部162、速度制御部164、または操舵制御部166等の各機能部は、物体認識装置16A(または16B)を介してLIDAR14Aから通知される汚れフラグの値に基づいて処理を分岐または変更するように構成されてもよい。同様に、物体認識装置16も、LIDAR14Aから通知される汚れフラグの値に基づいて処理を分岐または変更するように構成されてもよい。例えば、第1制御部120および第2制御部160は、通知された汚れフラグが、いずれかのLIDAR14A(または14B)が汚れ状態にあることを示している場合、自車両の自動運転に関する動作を縮退させるように構成されてもよい。また、自動運転制御装置100は、通知された汚れフラグをナビゲーション装置50やMUP60等の他の装置に通知してもよい。この場合、他の装置は、汚れフラグの値に基づいて自装置の処理を分岐または変更するように構成されてもよい。 In the first control unit 120 and the second control unit 160, each functional unit such as the recognition unit 130, the action plan generation unit 140, the acquisition unit 162, the speed control unit 164, or the steering control unit 166 is the object recognition device 16A (or It may be configured to branch or change the process based on the value of the dirt flag notified from the LIDAR 14A via 16B). Similarly, the object recognition device 16 may be configured to branch or change the process based on the value of the dirt flag notified from the LIDAR 14A. For example, when the notified dirt flag indicates that one of the LIDAR 14A (or 14B) is in a dirty state, the first control unit 120 and the second control unit 160 perform an operation related to automatic driving of the own vehicle. It may be configured to be degenerate. Further, the automatic operation control device 100 may notify other devices such as the navigation device 50 and the MUP 60 of the notified dirt flag. In this case, the other device may be configured to branch or change the processing of its own device based on the value of the dirt flag.

報知制御部180は、HMI30以外の装置に汚れ報知動作を行わせてもよいし、自身で汚れ報知動作を行ってもよい。例えば、報知制御部180は、LIDAR汚れを報知する対象のユーザ宛てに電子メールを送信してもよいし、当該ユーザが使用する端末装置にメッセージ通知を行ってもよい。 The notification control unit 180 may cause a device other than the HMI 30 to perform a dirt notification operation, or may perform a dirt notification operation by itself. For example, the notification control unit 180 may send an e-mail to the user to be notified of the lidar stain, or may notify the terminal device used by the user of the message.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1A,1B…車両システム、10…カメラ、12…レーダ装置、14A,14B…LIDAR(Light Detection and Ranging)、151…汚れ検知部、152…クラッタ検知部、16A,16B…物体認識装置、171A,171B…汚れ判定部、172…閾値情報、173…条件情報、20…通信装置、30…HMI(Human Machine Interface)、40…車両センサ、50…ナビゲーション装置、51…GNSS(Global Navigation Satellite System)受信機、52…ナビHMI、53…経路決定部、54…第1地図情報、60…MPU(Map Positioning Unit)、61…推奨車線決定部、62…第2地図情報、80…運転操作子、100…自動運転制御装置、100-1…通信コントローラ、100-2…CPU(Central Processing Unit)、100-3…RAM(Random Access Memory)、100-4…ROM(Read Only Memory)、100-5…記憶装置、100-5a…プログラム、100-6…ドライブ装置、120…第1制御部、130…認識部、140…行動計画生成部、160…第2制御部、164…速度制御部、166…操舵制御部、180…報知制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置 1A, 1B ... Vehicle system, 10 ... Camera, 12 ... Radar device, 14A, 14B ... LIDAR (Light Detection and Ranging), 151 ... Dirt detection unit, 152 ... Clutter detection unit, 16A, 16B ... Object recognition device, 171A, 171B ... Dirt determination unit, 172 ... Threshold information, 173 ... Condition information, 20 ... Communication device, 30 ... HMI (Human Machine Interface), 40 ... Vehicle sensor, 50 ... Navigation device, 51 ... GNSS (Global Navigation Satellite System) reception Machine, 52 ... Navi HMI, 53 ... Route determination unit, 54 ... First map information, 60 ... MPU (Map Positioning Unit), 61 ... Recommended lane determination unit, 62 ... Second map information, 80 ... Driving controller, 100 ... Automatic operation control device, 100-1 ... Communication controller, 100-2 ... CPU (Central Processing Unit), 100-3 ... RAM (Random Access Memory), 100-4 ... ROM (Read Only Memory), 100-5 ... Storage device, 100-5a ... Program, 100-6 ... Drive device, 120 ... First control unit, 130 ... Recognition unit, 140 ... Action plan generation unit, 160 ... Second control unit, 164 ... Speed control unit, 166 ... Steering control unit, 180 ... Notification control unit, 200 ... Travel drive force output device, 210 ... Brake device, 220 ... Steering device

Claims (6)

光または光に近い電磁波を用いて物体を検知する車載ライダー装置であって、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出する汚れ検知部を備える車載ライダー装置と、
前記汚れ値が所定の閾値を超えてから所定時間以上経過する第1の条件と、前記所定時間における前記汚れ値の最大値と最小値の差が所定の範囲内である第2の条件とが満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する汚れ判定部を備える汚れ判定装置と、
を備える車両用認識システム。
An in-vehicle rider device that detects an object using light or an electromagnetic wave close to light, and a section that divides the detection range of the object into a plurality of stain values indicating the degree of contamination of the own device based on the detection result of the object. An in-vehicle rider device equipped with a dirt detection unit that calculates each
The first condition in which a predetermined time or more elapses after the stain value exceeds a predetermined threshold value and the second condition in which the difference between the maximum value and the minimum value of the stain value in the predetermined time is within a predetermined range are satisfied. A dirt determination device provided with a dirt determination unit for determining whether or not dirt to be removed is attached to the in-vehicle rider device when the vehicle is filled.
A recognition system for vehicles equipped with.
前記汚れ判定部は、前記第1の条件および前記第2の条件に加え、第3の条件が満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着していると判定し、
前記第3の条件は、前記汚れ値が閾値を超えた状態で経過した過去の判定時間における汚れ値のゆらぎの大きさが所定の割合未満であることである、
請求項1に記載の車両用認識システム。
The dirt determination unit determines that dirt to be removed is attached to the vehicle-mounted rider device when the third condition is satisfied in addition to the first condition and the second condition.
The third condition is that the magnitude of the fluctuation of the stain value in the past determination time elapsed in the state where the stain value exceeds the threshold value is less than a predetermined ratio.
The vehicle recognition system according to claim 1.
前記汚れ判定部は、前記第1の条件、前記第2の条件、および前記第3の条件に加え、前記車載ライダー装置を搭載する車両の走行速度が所定の下限値を下回ることなく所定時間が経過する第4の条件が満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着していると判定する判定する、
請求項2に記載の車両用認識システム。
In addition to the first condition, the second condition, and the third condition, the dirt determination unit has a predetermined time without the traveling speed of the vehicle equipped with the in-vehicle rider device falling below a predetermined lower limit value. When the fourth condition to elapse is satisfied, it is determined that the dirt to be removed is attached to the in-vehicle rider device.
The vehicle recognition system according to claim 2.
前記汚れ判定部によって前記車載ライダー装置に除去されるべき汚れが付着していると判定された場合に、その旨を報知する報知部をさらに備える、
請求項1から3のいずれか一項に記載の車両用認識システム。
When it is determined by the dirt determination unit that dirt to be removed is attached to the vehicle-mounted rider device, a notification unit for notifying the fact is further provided.
The vehicle recognition system according to any one of claims 1 to 3.
前記汚れ判定部は、全てのセクションにおいて汚れ値が所定の閾値以下となった場合に前記車載ライダー装置に除去されるべき汚れが付着している状態から前記除去されるべき汚れが付着していない状態に復旧したと判定する、
請求項1から4のいずれか一項に記載の車両用認識システム。
The stain determination unit has no stain to be removed from the state in which the stain to be removed is attached to the in-vehicle lidar device when the stain value becomes equal to or less than a predetermined threshold value in all sections. Judge that the state has been restored,
The vehicle recognition system according to any one of claims 1 to 4.
光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、
前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、
汚れ判定装置が、
前記汚れ値が所定の閾値を超えてから所定時間以上経過する第1の条件と、前記所定時間における前記汚れ値の最大値と最小値の差が所定の範囲内である第2の条件とが満たされた場合に、前記車載ライダー装置に除去されるべき汚れが付着していると判定する、
認識方法。
An in-vehicle rider device that detects an object using light or electromagnetic waves close to light
Based on the detection result of the object, the stain value indicating the degree of contamination of the own device is calculated for each section in which the detection range of the object is divided into a plurality of sections.
The dirt judgment device
The first condition in which a predetermined time or more elapses after the stain value exceeds a predetermined threshold value and the second condition in which the difference between the maximum value and the minimum value of the stain value in the predetermined time is within a predetermined range are satisfied. When it is filled, it is determined that the in-vehicle rider device has dirt to be removed.
Recognition method.
JP2020219642A 2020-12-28 2020-12-28 Vehicle recognition system and recognition method Active JP7410848B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020219642A JP7410848B2 (en) 2020-12-28 2020-12-28 Vehicle recognition system and recognition method
CN202111181897.9A CN114690161A (en) 2020-12-28 2021-10-11 Vehicle identification system and identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020219642A JP7410848B2 (en) 2020-12-28 2020-12-28 Vehicle recognition system and recognition method

Publications (2)

Publication Number Publication Date
JP2022104430A true JP2022104430A (en) 2022-07-08
JP7410848B2 JP7410848B2 (en) 2024-01-10

Family

ID=82135763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020219642A Active JP7410848B2 (en) 2020-12-28 2020-12-28 Vehicle recognition system and recognition method

Country Status (2)

Country Link
JP (1) JP7410848B2 (en)
CN (1) CN114690161A (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5710108B2 (en) 2009-07-03 2015-04-30 日本信号株式会社 Optical distance measuring device
JP6171437B2 (en) 2013-03-19 2017-08-02 株式会社デンソーウェーブ Security equipment
WO2016208373A1 (en) 2015-06-24 2016-12-29 コニカミノルタ株式会社 Object sensor, contamination determination method for object sensor and object detection device
JP2020076589A (en) 2018-11-06 2020-05-21 日本電産モビリティ株式会社 Object detection device
US20200166649A1 (en) 2018-11-26 2020-05-28 Continental Automotive Systems, Inc. Adverse weather condition detection system with lidar sensor

Also Published As

Publication number Publication date
CN114690161A (en) 2022-07-01
JP7410848B2 (en) 2024-01-10

Similar Documents

Publication Publication Date Title
US11242055B2 (en) Vehicle control system and vehicle control method
JP2019119266A (en) Vehicle control system, vehicle control method and program
JP7159137B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP2021014175A (en) Vehicle control system, vehicle control method and program
JP2020147139A (en) Vehicle control device, vehicle control method, and program
US11958506B2 (en) Vehicle control device and vehicle control method
JP2022096236A (en) Vehicle control device, vehicle control method and program
JP2023036593A (en) Vehicular recognition device, vehicle control system, vehicular recognition method and program
US20190161090A1 (en) Vehicle control device, vehicle control method, and recording medium
US20220258769A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2023030111A (en) Driving support device, driving support method, and program
JP7184951B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7046289B1 (en) Vehicle controls, vehicle systems, vehicle control methods, and programs
JP7410848B2 (en) Vehicle recognition system and recognition method
JP2022104429A (en) Recognition system for vehicle and recognition method
JP2021149390A (en) Vehicle control apparatus, vehicle control method, and program
CN112141097A (en) Vehicle control device, vehicle control method, and storage medium
JP2021160399A (en) Vehicle control device, vehicle control method, and program
JP7432423B2 (en) Management devices, management methods, and programs
JP7450436B2 (en) Vehicle control device, vehicle control method, and program
US11305769B2 (en) Vehicle control system, vehicle control method, and storage medium
JP2022154605A (en) Detection apparatus, detection method, and program
JP2022152402A (en) Recognition device, vehicle system, recognition method and program
JP2022139009A (en) Drive support device, drive support method, and program
JP2022103723A (en) Vehicle control device, vehicle control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231222

R150 Certificate of patent or registration of utility model

Ref document number: 7410848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150