JP2022104431A - 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム - Google Patents

車両用認識装置、車両制御システム、車両用認識方法、およびプログラム Download PDF

Info

Publication number
JP2022104431A
JP2022104431A JP2020219643A JP2020219643A JP2022104431A JP 2022104431 A JP2022104431 A JP 2022104431A JP 2020219643 A JP2020219643 A JP 2020219643A JP 2020219643 A JP2020219643 A JP 2020219643A JP 2022104431 A JP2022104431 A JP 2022104431A
Authority
JP
Japan
Prior art keywords
vehicle
value
period
sections
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020219643A
Other languages
English (en)
Other versions
JP7187528B2 (ja
Inventor
克規 宮澤
Katsunori Miyazawa
正宏 脇
Masahiro Waki
周作 野田
Shusaku Noda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020219643A priority Critical patent/JP7187528B2/ja
Priority to CN202111564069.3A priority patent/CN114690163A/zh
Priority to US17/557,316 priority patent/US20220207887A1/en
Publication of JP2022104431A publication Critical patent/JP2022104431A/ja
Priority to JP2022190066A priority patent/JP2023036593A/ja
Application granted granted Critical
Publication of JP7187528B2 publication Critical patent/JP7187528B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • B60S1/566Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens including wiping devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/06Combustion engines, Gas turbines
    • B60W2510/0638Engine speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • G01S2007/4977Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen including means to prevent or remove the obstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】LIDARに対する汚れの付着によって車両の自動制御の性能が低下することを抑制することができる車両用認識装置、車両制御システム、車両用認識方法、およびプログラムを提供すること。【解決手段】光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得する取得部と、前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定する判定部と、を備える車両用認識装置。【選択図】図1

Description

本発明は、車両用認識装置、車両制御システム、車両用認識方法、およびプログラムに関する。
近年、車両を自動的に制御することについて研究が進められている。車両の自動制御では、車両に取り付けられるLIDAR(Light Detection and Ranging)を用いて、車両から車両周辺の物体までの距離を検出することが行われる。LIDARは、光(或いは光に近い波長の電磁波)を照射して、その散乱光を測定し、発光から受光までの時間に基づいて対象までの距離を計測するものである。そのため、光の照射部や散乱光の受光部に汚れが付着すると計測性能が低下する可能性がある。特許文献1には、カメラやLIDARに汚れが付着していることを検出した信号により洗浄手段を自動制御することが記載されている。
特開2019-104364号公報
しかしながら、特許文献1は、LIDARに付着した汚れを検出する具体的な方法を開示するものではないため、従来は、LIDARに対する汚れの付着によって車両の自動制御の性能が低下することを抑制することが困難な場合があった。
本発明は、このような事情を考慮してなされたものであり、LIDARに対する汚れの付着によって車両の自動制御の性能が低下することを抑制することができる車両用認識装置、車両制御システム、車両用認識方法、およびプログラムを提供することを目的の一つとする。
この発明に係る車両制御装置は、以下の構成を採用した。
(1):この発明の一態様に係る車両用認識装置は、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得する取得部と、前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定する判定部と、を備える。
(2):上記(1)の態様において、前記判定部は、前記車載ライダー装置を搭載する車両の走行速度が第1速度を超えた後、前記車両の走行速度が第2速度以上である期間が第3期間を超えた場合に前記判定を行い、前記第2速度は前記第1速度よりも低い速度である。
(3):上記(1)または(2)の態様において、前記取得部は、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに前記パラメータの値を取得し、前記判定部は、前記複数のセクションごとに設定された前記閾値に基づいて前記セクションごとに前記判定を行うものである。
(4):上記(3)の態様において、前記複数のセクションのうち前記車載ライダー装置を搭載する車両の前方正面方向を検知するセクションの前記閾値は、他のセクションの前記閾値よりも低い値に設定されるものである。
(5):この発明の一態様に係る車両用認識装置は、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得する取得部と、前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定する判定部と、を備える。
(6):上記(5)の態様において、前記判定部は、前記車載ライダー装置を搭載する車両の走行速度が第1速度を超えた場合に前記判定を行うものである。
(7):この発明の一態様に係る車両制御システムは、上記の(1)から(6)のいずれかの態様の車両用認識装置と、前記車載ライダー装置を搭載する車両の自動運転を制御する車両制御装置と、を備え、前記車両制御装置は、前記車両用認識装置が前記車載ライダー装置の状態を異常状態と判定した場合、前記車両の運転モードを、運転者により重度のタスクが課される運転モードに変更するものである。
(8):この発明の一態様に係る車両用認識方法は、コンピュータが、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得し、前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定するものである。
(9):この発明の一態様に係る車両用認識方法は、コンピュータが、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得し、前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定するものである。
(10):この発明の一態様に係るプログラムは、コンピュータに、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得させ、前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定させるものである。
(11):この発明の一態様に係るプログラムは、コンピュータに、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得させ、前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定させるものである。
(1)~(11)によれば、光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得し、前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定する、または、前記パラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得し、前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定することにより、LIDARに対する汚れの付着によって車両の自動制御の性能が低下することを抑制することができる。
実施形態に係る車両制御装置を利用した車両システムの構成図である。 第1制御部および第2制御部の機能構成図である。 運転モードと自車両の制御状態、およびタスクの対応関係の一例を示す図である。 実施形態に係る車両システムにおいて自車両に搭載されるLIDARの検知範囲の一例を示す図である。 実施形態に係る車両システムにおいて自車両に搭載されるLIDARの検知範囲の一例を示す図である。 実施形態に係る第1の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。 実施形態に係る第3の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。 実施形態に係る第5の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。 実施形態に係る第8の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。 実施形態に係る第3から第10の判定方法の概略を示す図である。
以下、図面を参照し、本発明の車両用認識装置、車両制御システム、車両用認識方法、およびプログラムの実施形態について説明する。
[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。車両システム1は「車両制御システム」の一例である。
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、ドライバモニタカメラ70と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
LIDAR14は、例えば、LIDAR14FL、14FR、14RR、14RL、および14RCを備える。以下、特に区別しない場合には、単にLIDAR15と総称して説明する。LIDAR14は、自車両の周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。例えば、LIDAR14は、赤外光を照射する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両の任意の箇所に取り付けられる。本実施形態では、LIDAR14FLは自車両のフロント部左側(例えばフロントバンパーの左側)に、LIDAR14FRは自車両のフロント部右側(例えばフロントバンパーの右側)に、LIDAR14RCは自車両のリア部中央(例えばリアバンパーの中央)に、LIDAR14RLは自車両のリア部左側(例えばリアバンパーの左側)に、LIDAR14RRは自車両のリア部右側(例えばリアバンパーの右側)に、それぞれ設置されるものとする。なお、LIDAR14は「車載ライダー装置」の一例である。
また、本実施形態におけるLIDAR14は、上記の基本的な機能(以下「LIDAR機能」という。)に加えて、発光部または受光部に付着した汚れ(以下「LIDAR汚れ」という。)を検知する機能と、クラッタの発生要因(以下「クラッタ要因」という。)を検知する機能とを有していてもよい。これらの機能を実現するため、本実施形態におけるLIDAR14は、汚れ検知部15Aと、クラッタ検知部15Bとを備える。汚れ検知部15Aおよびクラッタ検知部15Bは、いずれもLIDAR機能による検知結果(光の反射点および反射強度)に基づいてLIDAR汚れおよびクラッタ要因の発生を検知するものである。
ここでクラッタとは、LIDAR14やレーダ装置12等の検知装置から放射された電磁波(光を含む)が雨や雪、霧、水飛沫等の空間散乱物によって反射されて発生する電磁波のことである。クラッタは、LIDAR14やレーダ装置12等の検知装置において、ノイズを発生させる要因となる。クラッタ要因およびLIDAR汚れは、いずれもLIDAR機能によって反射点として検知される点では同様であるが、検知距離が異なるという点で分類することができる。LIDAR汚れは、LIDAR14に付着した物体であるため、例えば、LIDAR14から0.3mまでの範囲で検出される反射点として分類することができる。一方、クラッタ要因は、LIDAR14の周辺の環境によるものであるため、例えば、LIDAR14から5mまでの範囲で検出される反射点として分類することができる。
汚れ検知部15Aおよびクラッタ検知部15Bは、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ検知部15Aは、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めLIDAR14のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでLIDAR14のHDDやフラッシュメモリにインストールされてもよい。
具体的には、汚れ検知部15Aは、LIDAR機能による検知結果と、反射強度とに基づいてLIDAR汚れの度合いを示す指標値(以下「汚れ値」という。)を算出する。なお、汚れ値は、LIDAR汚れの度合いを示すものであればどのような値であってもよいし、どのような方法で算出されてもよい。汚れ値は「パラメータ」の一例である。本実施形態では、汚れ値は0%~100%の範囲の値をとりうるものとする。例えば、汚れ検知部15Aは、LIDAR14FL近傍の反射点の数、反射点までの距離、および反射強度に基づいて汚れ値を算出する。汚れ検知部15Aは、LIDAR14の水平方向の検知範囲を所定数に分割した領域ごとに汚れ値を算出する。以下では、検知範囲を分割した所定数に分割した各領域をセクションといい、本実施形態では、各LIDAR14の検知範囲を10個のセクションに分割する場合について説明する。汚れ検知部15Aは、算出した汚れ値を物体認識装置16に出力する。
また、クラッタ検知部15Bは、LIDAR機能による検知結果と、反射強度とに基づき、クラッタ要因となりうる雨、雪、霧、水飛沫等の空間散乱物の量をクラッタ要因の程度を示す指標値(以下「クラッタ値」という。)として算出する。クラッタ検知部15Bは、汚れ検知部15Aと同様のセクションごとにクラッタ値を算出する。クラッタ検知部15Bは、算出したクラッタ値を物体認識装置16に出力する。汚れ値と同様に、本実施形態では、クラッタ値は0%~100%の範囲の値をとりうるものとする。
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、本実施形態における物体認識装置16は、上記の基本的な機能(以下「物体認識機能」という。)に加えて、各LIDAR14の汚れ状態を判定する機能を有する。この機能を実現するため、例えば、物体認識装置16は、取得部16Aおよび判定部16Bを備えるとともに、条件情報16Cを記憶している。物体認識装置16は「汚れ判定装置」の一例である。
取得部16Aは、各LIDAR14から、それぞれのLIDAR14において検知された汚れ値およびクラッタ値を取得する。
判定部16Bは、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、判定部16Bは、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め物体認識装置16のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで物体認識装置16のHDDやフラッシュメモリにインストールされてもよい。
ここで、条件情報16Cは、各LIDAR14の汚れ状態を判定する条件(以下「汚れ判定条件」という。)を示す情報であり、汚れ値をはじめとして観測される自車両の各種状態値に対する閾値を含む情報である。判定部16Bは、条件情報16Cが示す汚れ判定条件を、自車両について観測される各種状態値に基づいて判定することにより、LIDAR14の汚れ状態を正常または異常のいずれかの状態に判定する。以下、この判定を「汚れ判定」という。判定部16Bは、汚れ判定の結果を自動運転制御装置100に通知する。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。例えば、HMI30は、自動運転制御装置100の指示により、LIDAR14の汚れ状態が異常となっていることを報知する動作(以下「異常報知動作」という。)を行ってもよい。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
ドライバモニタカメラ70は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。ドライバモニタカメラ70は、自車両Mの運転席に着座した乗員(以下、運転者)の頭部を正面から(顔面を撮像する向きで)撮像可能な位置および向きで、自車両Mにおける任意の箇所に取り付けられる。例えば、ドライバモニタカメラ70は、自車両Mのインストルメントパネルの中央部に設けられたディスプレイ装置の上部に取り付けられる。
運転操作子80は、例えば、ステアリングホイール82の他、アクセルペダル、ブレーキペダル、シフトレバー、その他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。ステアリングホイール82は、「運転者による操舵操作を受け付ける操作子」の一例である。操作子は、必ずしも環状である必要は無く、異形ステアリングホイールやジョイスティック、ボタンなどの形態であってもよい。ステアリングホイール82には、ステアリング把持センサ84が取り付けられている。ステアリング把持センサ84は、静電容量センサなどにより実現され、運転者がステアリングホイール82を把持している(力を加えられる状態で接していることをいう)か否かを検知可能な信号を自動運転制御装置100に出力する。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。自動運転制御装置100は「車両制御装置」の一例であり、行動計画生成部140と第2制御部160を合わせたものが「運転制御部」の一例である。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140と、モード決定部150とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
モード決定部150は、自車両Mの運転モードを、運転者に課されるタスクが異なる複数の運転モードのいずれかに決定する。モード決定部150は、例えば、運転者状態判定部152と、モード変更処理部154とを備える。これらの個別の機能については後述する。
図3は、運転モードと自車両Mの制御状態、およびタスクの対応関係の一例を示す図である。自車両Mの運転モードには、例えば、モードAからモードEの5つのモードがある。制御状態すなわち自車両Mの運転制御の自動化度合いは、モードAが最も高く、次いでモードB、モードC、モードDの順に低くなり、モードEが最も低い。この逆に、運転者に課されるタスクは、モードAが最も軽度であり、次いでモードB、モードC、モードDの順に重度となり、モードEが最も重度である。なお、モードDおよびEでは自動運転でない制御状態となるため、自動運転制御装置100としては自動運転に係る制御を終了し、運転支援または手動運転に移行させるまでが責務である。以下、それぞれの運転モードの内容について例示する。
モードAでは、自動運転の状態となり、運転者には前方監視、ステアリングホイール82の把持(図ではステアリング把持)のいずれも課されない。但し、モードAであっても運転者は、自動運転制御装置100を中心としたシステムからの要求に応じて速やかに手動運転に移行できる体勢であることが要求される。なお、ここで言う自動運転とは、操舵、加減速のいずれも運転者の操作に依らずに制御されることをいう。前方とは、フロントウインドシールドを介して視認される自車両Mの進行方向の空間を意味する。モードAは、例えば、高速道路などの自動車専用道路において、所定速度(例えば50[km/h]程度)以下で自車両Mが走行しており、追従対象の前走車両が存在するなどの条件が満たされる場合に実行可能な運転モードであり、TJP(Traffic Jam Pilot)と称される場合もある。この条件が満たされなくなった場合、モード決定部150は、モードBに自車両Mの運転モードを変更する。
モードBでは、運転支援の状態となり、運転者には自車両Mの前方を監視するタスク(以下、前方監視)が課されるが、ステアリングホイール82を把持するタスクは課されない。モードCでは、運転支援の状態となり、運転者には前方監視のタスクと、ステアリングホイール82を把持するタスクが課される。モードDは、自車両Mの操舵と加減速のうち少なくとも一方に関して、ある程度の運転者による運転操作が必要な運転モードである。例えば、モードDでは、ACC(Adaptive Cruise Control)やLKAS(Lane Keeping Assist System)といった運転支援が行われる。モードEでは、操舵、加減速ともに運転者による運転操作が必要な手動運転の状態となる。モードD、モードEともに、当然ながら運転者には自車両Mの前方を監視するタスクが課される。
自動運転制御装置100(および運転支援装置(不図示))は、運転モードに応じた自動車線変更を実行する。自動車線変更には、システム要求による自動車線変更(1)と、運転者要求による自動車線変更(2)がある。自動車線変更(1)には、前走車両の速度が自車両の速度に比して基準以上に小さい場合に行われる、追い越しのための自動車線変更と、目的地に向けて進行するための自動車線変更(推奨車線が変更されたことによる自動車線変更)とがある。自動車線変更(2)は、速度や周辺車両との位置関係等に関する条件が満たされた場合において、運転者により方向指示器が操作された場合に、操作方向に向けて自車両Mを車線変更させるものである。
自動運転制御装置100は、モードAにおいて、自動車線変更(1)および(2)のいずれも実行しない。自動運転制御装置100は、モードBおよびCにおいて、自動車線変更(1)および(2)のいずれも実行する。運転支援装置(不図示)は、モードDにおいて、自動車線変更(1)は実行せず自動車線変更(2)を実行する。モードEにおいて、自動車線変更(1)および(2)のいずれも実行されない。
モード決定部150は、決定した運転モード(以下、現運転モード)に係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに自車両Mの運転モードを変更する。
例えば、モードAにおいて運転者が、システムからの要求に応じて手動運転に移行できない体勢である場合(例えば許容エリア外の脇見を継続している場合や、運転困難となる予兆が検出された場合)、モード決定部150は、HMI30を用いて運転者に手動運転への移行を促し、運転者が応じなければ自車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。自動運転を停止した後は、自車両はモードDまたはEの状態になり、運転者の手動操作によって自車両Mを発進させることが可能となる。以下、「自動運転を停止」に関して同様である。モードBにおいて運転者が前方を監視していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を促し、運転者が応じなければ自車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。モードCにおいて運転者が前方を監視していない場合、或いはステアリングホイール82を把持していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を、および/またはステアリングホイール82を把持するように促し、運転者が応じなければ自車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。
運転者状態判定部152は、上記のモード変更のために運転者の状態を監視し、運転者の状態がタスクに応じた状態であるか否かを判定する。例えば、運転者状態判定部152は、ドライバモニタカメラ70が撮像した画像を解析して姿勢推定処理を行い、運転者が、システムからの要求に応じて手動運転に移行できない体勢であるか否かを判定する。また、運転者状態判定部152は、ドライバモニタカメラ70が撮像した画像を解析して視線推定処理を行い、運転者が前方を監視しているか否かを判定する。
モード変更処理部154は、モード変更のための各種処理を行う。例えば、モード変更処理部154は、行動計画生成部140に路肩停止のための目標軌道を生成するように指示したり、運転支援装置(不図示)に作動指示をしたり、運転者に行動を促すためにHMI30の制御をしたりする。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
図4および図5は、本実施形態の車両システム1において自車両Mに搭載されるLIDAR14の検知範囲の一例を示す図である。図4は自車両Mのフロント部に設置されたLIDAR14FLおよび14FRの検知範囲を示し、図5は自車両Mのリア部に設置されたLIDAR14RC、14RL、14RRの検知範囲を示す。図4において、検知範囲DR-AはLIDAR14FLの検知範囲を示し、検知範囲DR-Aは、SA-1~SA-10の各セクションに分割される。また、検知範囲DR-BはLIDAR14FRの検知範囲を示し、検知範囲DR-Bは、SB-1~SB-10の各セクションに分割される。例えば、検知範囲は、水平方向に中心角145度の範囲をカバーする扇形の範囲であり、セクションは、検知範囲を中心角14.5度ごとに分割した扇形の範囲である。
また、図5において、検知範囲DR-CはLIDAR14RCの検知範囲を示し、検知範囲DR-Cは、SC-1~SC-10の各セクションに分割される。また、検知範囲DR-DはLIDAR14RLの検知範囲を示し、検知範囲DR-Dは、SD-1~SD-10の各セクションに分割される。また、検知範囲DR-EはLIDAR14RRの検知範囲を示し、検知範囲DR-Eは、SE-1~SE-10の各セクションに分割される。ここで、図中の各セクションに記載されている数値[%]は、それぞれのセクションについて算出される汚れ値の閾値を表している。これらの閾値は、汚れ判定条件の一部であり、条件情報16Cとして予め物体認識装置16に記憶されている。
なお、簡単のため、図4および図5では、各LIDAR14の検知範囲を分かりやすくするために、それぞれの検知範囲を扇形(部分円)で表しているが、これらは水平方向における検知範囲を分かりやすく表現したものであって、半径方向における検知範囲の大小を表すものではない。各LIDAR14の検知範囲は、向きの違いはあるにせよ、大きさは同じであることを想定している。また、各LIDAR14の検知範囲の向きはあくまで例示に過ぎず、適宜設定すれば良い。上述のとおり、本実施形態の車両システム1において、汚れ値の算出は、各LIDAR14の検知範囲を10分割したセクションごとに行われる。
ところで、車両の自動運転制御においては、一般に、自車両Mの真正面、真後ろ、および左右斜め後方における距離検知が重要となり、これらの方向の距離検知に関しては他の領域よりも比較的に高い検知精度が求められる。このため、これらの方向の検知に使用されるLIDAR14については、汚れの度合いが比較的軽度であるうちにLIDAR汚れが解消されることが望ましい。そこで、本実施形態の車両システム1では、各検出範囲のセクションごとに汚れ値の閾値を設け、自車両Mの前方正面方向を検知するセクションの閾値を、他のセクションの閾値よりも低い値に設定する。例えば、図4の例において、中央付近のセクションの閾値を端部付近のセクションよりも低い値に設定する。
これにより、局所的なLIDAR汚れが検出可能になるとともに、優先度の高いセクションについて比較的早い段階で汚れ状態が異常となっていることを検知することが可能となる。
以下、このようなセクションごとに算出される汚れ値に基づいて、各LIDAR14の汚れ状態を判定する方法について説明する。なお、以下の説明で例示される数値は、あくまでも一例に過ぎず、本実施形態が実施可能な範囲において適宜変更されてよい。
[1]第1の判定方法(フロント部のLIDAR14についての汚れ判定方法)
図6は、第1の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。第1の判定方法は、一例として、フロント部のLIDAR14について、以下の(1)の各条件が満たされた場合に(2)および(3)の各条件の判定を行い、条件(2)および(3)が満たされた場合にLIDAR14の汚れ状態を異常と判定する方法である。なお、図6のフローチャートは、1回の汚れ判定処理の流れを示しているが、実際には、図6のフローが所定の周期で繰り返し実行されることにより、継続して汚れ判定が実施される。なお、上述のとおり、汚れ判定はLIDAR14ごとに行われるものであるため、本フローの説明において、汚れ判定の対象とするLIDAR14を「対象LIDAR」と称することにする。
(1)自車両Mの走行速度が時速40kmを超えた後、時速20kmを下回ることなく20秒間以上経過した(以下、この条件を「第1の車速条件」という。)
(2)過去300秒間において汚れ値が常時閾値を超えている(以下、この条件を「汚れ閾値条件」という)。
(3)過去300秒間における汚れ値の最大値と最小値の差が10%未満である(以下、この条件を「汚れ値ゆらぎ条件」という)。この汚れ値ゆらぎ条件を満たすことは、汚れ値の変化量が基準範囲内であることの一例である。
なお、第1の車速条件における時速40kmは「第1速度」の一例であり、第1の車速条件における時速20kmは「第2速度」の一例である。また、第1の車速条件における20秒は「第3期間」の一例である。また、汚れ閾値条件における300秒は「第1期間」の一例であり、汚れ値ゆらぎ条件における300秒は「第2期間」の一例である。第2期間は第1期間の一部又は全部を含む期間であればよい。
図6の例において、まず、判定部16Bは、自車両が第1の車速条件を満たしているか否かを判定する(ステップS101)。ここで、自車両が第1の車速条件を満たしていると判定した場合、判定部16Bは、対象LIDARのセクションの中に汚れ閾値条件を満たしているセクションが存在するか否かを判定する(ステップS103)。ここで、対象LIDARのセクションの中に汚れ閾値条件を満たしているセクションが存在すると判定した場合、判定部16Bは、汚れ閾値条件を満たしているセクションの中に汚れ値ゆらぎ条件を満たしているセクションが存在するか否かを判定する(ステップS104)。ここで、汚れ閾値条件を満たしているセクションの中に汚れ値ゆらぎ条件を満たしているセクションが存在すると判定した場合、判定部16Bは、対象LIDARの汚れ状態を異常と判定して汚れ判定処理を終了する(ステップS105)。
一方、ステップS103において、対象LIDARのセクションの中に汚れ閾値条件を満たしているセクションが存在しないと判定した場合、または、ステップS104において、汚れ閾値条件を満たしているセクションの中に汚れ値ゆらぎ条件を満たしているセクションが存在しないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を正常と判定して汚れ判定処理を終了する(ステップS106)。
一方、ステップS101において、自車両が第1の車速条件を満たしていないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を変更することなく汚れ判定処理を終了する。
[2]第2の判定方法(リア部のLIDAR14についての汚れ判定方法)
第2の判定方法は、基本的には、第1の判定方法と同様の方法でリア部のLIDAR14の汚れ状態を判定する方法であるが、リア部左右のLIDAR14RLおよび14RRについて車体正面セクションを設けない点において第1の判定方法と異なる。車体正面セクションとは、例えば、自車両の前方正面方向の視野を主に含むセクションのことである。すなわち、第2の判定方法において、判定部16Bは、リア部中央のLIDAR14RCについては、(1)第1の車速条件が満たされた場合に(2)汚れ閾値条件および(3)汚れ値ゆらぎ条件の判定を行い、(2)汚れ閾値条件および(3)汚れ値ゆらぎ条件が満たされた場合に汚れ状態を異常と判定する。また、リア部左右のLIDAR14RLおよび14RRについては、判定部16Bは、(1)第1の車速条件が満たされた場合に(2)汚れ閾値条件および(3)汚れ値ゆらぎ条件の判定を行い、(2)汚れ閾値条件および(3)汚れ値ゆらぎ条件が満たされた場合に汚れ状態を異常と判定する。
なお、第2の判定方法において、リア部中央のLIDAR14RCの検知範囲DR-Cにおける車体正面セクションとは、自車両の後方正面方向の視野を主に含むセクションのことである。例えば、図5の例において、LIDAR14RCの検知範囲DR-Cに含まれるセクションSC-1~SC-10のうち、セクションSC-4およびSC-7が車体正面セクションである。
[3]第3の判定方法(フロント部左側のLIDAR14FLについての汚れ判定方法)
図7は、第3の判定方法による汚れ判定処件(4)および(6)の少なくとも一方が満たされた場合に汚れ状態を異常と判定する方法である。なお、図6のフローチャートと同様に、図7のフローチャートも1回の汚れ判定処理の流れを示しているが、実際には、図7のフローが所定の周期で繰り返し実行されることにより、継続して汚れ判定が実施される。
(4)自車両の走行速度が時速50km以上である(以下、この条件を「第2の車速条件」という)。
(5)左斜め前方セクションにおいて、汚れ値が50%以上であるセクションが2つ以上存在している状態が50秒間継続した(以下、この条件を「第1の汚れ継続条件」という)。
(6)左斜め前方セクションおよび車体正面セクションにおいて、汚れ値が80%以上であるセクションが1つ以上存在している状態が30秒間継続した(以下、この条件を「第2の汚れ継続条件」という)。
ここで、左斜め前方セクションとは、自車両の前方左斜め方向の視野を主に含むセクションのことである。例えば、図4の例において、LIDAR14FLの検知範囲DR-Aに含まれるセクションSA-1~SA-10のうち、セクションSA-7~SA-10が左斜め前方セクションである。左斜め前方セクションは、車体正面セクションと一部重複してもよい。
この場合、まず、判定部16Bは、自車両が第2の車速条件を満たしているか否かを判定する(ステップS201)。ここで、自車両が第2の車速条件を満たしていると判定した場合、判定部16Bは、対象LIDARのセクションの中に第1の汚れ継続条件を満たしているセクションが存在するか否かを判定する(ステップS202)。ここで、対象LIDARのセクションの中に第1の汚れ継続条件を満たしているセクションが存在しないと判定した場合、判定部16Bは、対象LIDARのセクションの中に第2の汚れ継続条件を満たしているセクションが存在するか否かを判定する(ステップS203)。ステップS202において、対象LIDARのセクションの中に第1の汚れ継続条件を満たしているセクションが存在すると判定した場合、または、ステップS203において、対象LIDARのセクションの中に第2の汚れ継続条件を満たしているセクションが存在すると判定した場合、判定部16Bは、対象LIDARの汚れ状態を異常と判定して汚れ判定処理を終了する(ステップS204)。
一方、ステップS203において、対象LIDARのセクションの中に第2の汚れ継続条件を満たしているセクションが存在しないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を正常と判定して汚れ判定処理を終了する(ステップS205)。また、ステップS201において、自車両が第2の車速条件を満たしていないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を変更することなく汚れ判定処理を終了する。
[4]第4の判定方法(フロント部右側のLIDAR14FRについての汚れ判定方法)
第4の判定方法は、基本的には、第3の判定方法と同様の方法でフロント部右側のLIDAR14の汚れ状態を判定する方法であるが、左斜め前方セクションに代えて右斜め前方セクションを判定対象とする点において第3の判定方法と異なる。すなわち、第4の判定方法は、右斜め前方セクションにおいて、(4)第2の車速条件が満たされた場合に(5)第1の汚れ継続条件および(6)第2の汚れ継続条件の判定を行い、(5)第1の汚れ継続条件および(6)第2の汚れ継続条件の少なくとも一方が満たされた場合に、汚れ状態を異常と判定するものである。なお、第4の判定方法における第2の車速条件は第3の判定方法における第2の車速条件と同様である。
ここで、右斜め前方セクションとは、自車両の前方右斜め方向の視野を主に含むセクションのことである。例えば、図4の例において、LIDAR14FRの検知範囲DR-Bに含まれるセクションSB-1~SB-10のうち、セクションSB-1~SB-4が右斜め前方セクションである。右斜め前方セクションは、車体正面セクションと一部重複してもよい。
[5]第5の判定方法(リア部左側のLIDAR14RLについての汚れ判定方法)
図8は、第5の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。第5の判定方法は、リア部左側のLIDAR14RLについて、(4)第2の車速条件が満たされた場合に下記(7)の条件の判定を行い、条件(7)が満たされた場合に汚れ状態を異常と判定する方法である。なお、図7のフローチャートと同様に、図8のフローチャートも1回の汚れ判定処理の流れを示しているが、実際には、図8のフローが所定の周期で繰り返し実行されることにより、継続して汚れ判定が実施される。なお、第5の判定方法における第2の車速条件は第4の判定方法における第2の車速条件と同様である。
(7)後左側面セクションにおいて、汚れ値が80%以上であるセクションが2つ以上存在している状態が20秒間継続した(以下、この条件を「第3の汚れ継続条件」という)。
ここで、後左側面セクションとは、自車両のリア部左側から左側面方向を見た視野を主に含むセクションのことである。例えば、図5の例において、LIDAR14RLの検知範囲DR-Dに含まれるセクションSD-1~SD-10のうち、セクションSD-1~SD-5が後左側面セクションである。後左側面セクションは、車体正面セクションと一部重複してもよい。
この場合、まず、判定部16Bは、自車両が第2の車速条件を満たしているか否かを判定する(ステップS301)。ここで、自車両が第2の車速条件を満たしていると判定した場合、判定部16Bは、対象LIDARのセクションの中に第3の汚れ継続条件を満たしているセクションが存在するか否かを判定する(ステップS302)。ここで、対象LIDARのセクションの中に第3の汚れ継続条件を満たしているセクションが存在すると判定した場合、判定部16Bは、対象LIDARの汚れ状態を異常と判定して汚れ判定処理を終了する(ステップS303)。
一方、ステップS302において、対象LIDARのセクションの中に第3の汚れ継続条件を満たしているセクションが存在しないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を正常と判定して汚れ判定処理を終了する(ステップS304)。また、ステップS301において、自車両が第2の車速条件を満たしていないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を変更することなく汚れ判定処理を終了する。
[6]第6の判定方法(リア部右側のLIDAR14RRについての汚れ判定方法)
第6の判定方法は、基本的には、第5の判定方法と同様の方法でリア部右側のLIDAR14RRの汚れ状態を判定する方法であるが、後左側面セクションに代えて後右側面セクションを判定対象とする点において第5の判定方法と異なる。すなわち、第6の判定方法は、後右側面セクションにおいて、(4)第2の車速条件が満たされた場合に(7)第3の汚れ継続条件の判定を行い、(7)第3の汚れ継続条件が満たされた場合に汚れ状態を異常と判定する方法である。なお、第6の判定方法における第2の車速条件は第5の判定方法における第2の車速条件と同様である。
ここで、後右側面セクションとは、自車両のリア部右側から右側面方向を見た視野を主に含むセクションのことである。例えば、図4の例において、LIDAR14RRの検知範囲DR-Eに含まれるセクションSE-1~SE-10のうち、セクションSE-6~SE-10が後右側面セクションである。後右側面セクションは、車体正面セクションと一部重複してもよい。
[7]第7の判定方法(リア部中央のLIDAR14RCについての汚れ判定方法)
第7の判定方法は、基本的には、第6の判定方法と同様の方法でリア部中央のLIDAR14RCの汚れ状態を判定する方法であるが、後右側面セクションに代えて後中央セクションを判定対象とする点、第3の汚れ継続条件に代えて第4の汚れ継続条件を判定する点において第6の判定方法と異なる。具体的には、第4の汚れ継続条件は、後中央セクションにおいて、(8)汚れ値が60%以上であるセクションが1つ以上存在している状態が20秒間継続した、という条件である。なお、第7の判定方法における第2の車速条件は第6の判定方法における第2の車速条件と同様である。
ここで、後中央セクションとは、自車両のリア部中央から正面方向を見た視野を主に含むセクションのことである。後中央セクションは、自車両後部の車体正面セクションを含む。例えば、図4の例において、LIDAR14RCの検知範囲DR-Cに含まれるセクションSC-1~SC-10のうち、セクションSC-4~SC-7が後中央セクションである。
[8]第8の判定方法(リア部左側のLIDAR14RLについての汚れ判定方法)
図9は、第8の判定方法による汚れ判定処理の流れの一例を示すフローチャートである。第8の判定方法は、リア部左側のLIDAR14RLについて、(4)第2の車速条件が満たされた場合に下記(9)の条件の判定を行い、条件(9)が満たされた場合に汚れ状態を異常と判定する方法である。なお、図8のフローチャートと同様に、図9のフローチャートも1回の汚れ判定処理の流れを示しているが、実際には、図9のフローが所定の周期で繰り返し実行されることにより、継続して汚れ判定が実施される。また、第8の判定方法における第2の車速条件は第7の判定方法における第2の車速条件と同様である。
(10)後左斜方セクションにおいて、汚れ値が80%以上であるセクションが2つ以上存在している状態が20秒間継続した(以下、この条件を「第5の汚れ継続条件」という)。
ここで、後左斜方セクションとは、後左側面セクションよりも車両中央側を見た視野を主に含むセクションのことである。例えば、図5の例において、LIDAR14RLの検知範囲DR-Dに含まれるセクションSD-1~SD-10のうち、セクションSD-6~SD-8が後左斜方セクションである。後左斜方セクションは、後左側面セクションと一部重複してもよい。
この場合、まず、判定部16Bは、自車両が第2の車速条件を満たしているか否かを判定する(ステップS401)。ここで、自車両が第2の車速条件を満たしていると判定した場合、判定部16Bは、対象LIDARのセクションの中に第5の汚れ継続条件を満たしているセクションが存在するか否かを判定する(ステップS402)。ここで、対象LIDARのセクションの中に第5の汚れ継続条件を満たしているセクションが存在すると判定した場合、判定部16Bは、対象LIDARの汚れ状態を異常と判定して汚れ判定処理を終了する(ステップS403)。
一方、ステップS402において、対象LIDARのセクションの中に第5の汚れ継続条件を満たしているセクションが存在しないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を正常と判定して汚れ判定処理を終了する(ステップS404)。また、ステップS401において、自車両が第2の車速条件を満たしていないと判定した場合、判定部16Bは、対象LIDARの汚れ状態を変更することなく汚れ判定処理を終了する。
[9]第9の判定方法(リア部右側のLIDAR14RRについての汚れ判定方法)
第9の判定方法は、基本的には、第8の判定方法と同様の方法でリア部右側のLIDAR14RRの汚れ状態を判定する方法であるが、後左斜方セクションに代えて後右斜方セクションを判定対象とする点において第8の判定方法と異なる。すなわち、第9の判定方法は、後右斜方セクションにおいて、(4)第2の車速条件が満たされた場合に(9)第5の汚れ継続条件の判定を行い、(9)第5の汚れ継続条件が満たされた場合に汚れ状態を異常と判定するものである。なお、第9の判定方法における第2の車速条件は第7の判定方法における第2の車速条件と同様である。
ここで、後右斜方セクションとは、後右側面セクションよりも車両中央側を見た視野を主に含むセクションのことである。例えば、図4の例において、LIDAR14RRの検知範囲DR-Eに含まれるセクションSE-1~SE-10のうち、セクションSE-3~SE-5が後右斜方セクションである。後右斜方セクションは、後右側面セクションと一部重複してもよい。
[10]第10の判定方法(リア部中央のLIDAR14RCについての汚れ判定方法)
第10の判定方法は、基本的には、第9の判定方法と同様の方法でリア部中央のLIDAR14RCの汚れ状態を判定する方法であるが、後左側面セクションに代えて第2の後中央セクションを判定対象とする点、第5の汚れ継続条件に代えて第6の汚れ継続条件を判定する点において第9の判定方法と異なる。具体的には、第6の汚れ継続条件は、第2の後中央セクションにおいて、(10)汚れ値が25%以上であるセクションが2つ以上存在している状態が20秒間継続した、という条件である。なお、第10の判定方法における第2の車速条件は第9の判定方法における第2の車速条件と同様である。
ここで、第2の後中央セクションとは、第7の判定方法で説明した後中央セクション(以下「第1の後中央セクション」という。)に含まれるセクションである。例えば、第2の後中央セクションは、第1の後中央セクションを車体中央側に狭めた領域とすることができる。例えば、図5の例において、LIDAR14RCの検知範囲DR-Cに含まれるセクションSC-1~SC-10のうち、セクションSC-4~SC-7が第2の後中央セクションである。
以上、第1から第6の汚れ継続条件を含む第3から第10の判定方法について説明した。図10は、以上説明した第3から第10の判定方法について、その内容をまとめた表であり、LIDAR種別、汚れ判定方法、汚れ継続条件、対象セクション、対応例、閾値条件、セクション数、および継続時間を対応づけて示すものである。ここで、対応例は、対象セクションが図4の例においてどのセクションに対応するかを示す。例えば、対象セクション『左斜め前方セクションおよび車体正面セクション』に対応する対応例『A:4-6、A:3,4』は、左斜め前方セクションがセクションSA-4~SA-6であることを表し、車体正面セクションがセクションSA-3~SA-4であることを表している。ただし、これらは例示であって、適宜変更すれば良い。
このように構成された実施形態の車両システム1は、光または光に近い電磁波を用いて物体を検知するLIDAR14が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、物体認識装置16が、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記LIDAR14の汚れ状態を異常または正常のいずれかに判定する。このような構成を備えることにより、実施形態の車両システム1は、セクションの優先度に応じた適切なタイミングでLIDAR14の異常を検知することができる。すなわち、実施形態の車両システム1によれば、LIDAR14に対する汚れの付着によって車両の自動制御の性能が低下することを抑制することができる。
<変形例>
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検知結果をそのまま自動運転制御装置100に出力してよい。また、この場合、物体認識装置16に代えて自動運転制御装置100が判定部16Bを備えるとともに、条件情報16Cを保持するように構成されてもよい。また、この場合、車両システム1から物体認識装置16が省略されてもよい。
第1制御部120において、モード決定部150は、物体認識装置16から通知される汚れ判定の判定結果に基づいて運転モードを変更してもよい。例えば、モード決定部150は、LIDAR14の汚れ状態が異常となっていることが通知された場合、現在の運転モードを、運転者により重度のタスクが課される運手モードに変更してもよい。また、第1制御部120または第2制御部160は、通知された汚れ状態をHMI30に表示させてもよいし、ナビゲーション装置50やMUP60等の他の装置に通知してもよい。また、第1制御部120または第2制御部160は、ユーザ宛に電子メールを送信したり、ユーザ端末にプッシュ通知を行ったりして、LIDAR14の汚れ状態をユーザに通知するように構成されてもよい。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記プログラムを実行することにより、
光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得し、
前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定する、
ように構成されている、車両用認識装置。
また、上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記プログラムを実行することにより、
光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得し、
前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定する、
ように構成されている、車両用認識装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…カメラ、12…レーダ装置、14…LIDAR(Light Detection and Ranging)、15A…汚れ検知部、15B…クラッタ検知部、16…物体認識装置、16B…判定部、16C…条件情報、20…通信装置、30…HMI(Human Machine Interface)、40…車両センサ、50…ナビゲーション装置、51…GNSS(Global Navigation Satellite System)受信機、52…ナビHMI…、53…経路決定部、54…第1地図情報、60…MPU(Map Positioning Unit)、61…推奨車線決定部、62…第2地図情報、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、140…行動計画生成部、160…第2制御部、162…取得部、164…速度制御部、166…操舵制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置

Claims (11)

  1. 光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得する取得部と、
    前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定する判定部と、
    を備える車両用認識装置。
  2. 前記判定部は、前記車載ライダー装置を搭載する車両の走行速度が第1速度を超えた後、前記車両の走行速度が第2速度以上である期間が第3期間を超えた場合に前記判定を行い、
    前記第2速度は前記第1速度よりも低い速度である、
    請求項1に記載の車両用認識装置。
  3. 前記取得部は、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに前記パラメータの値を取得し、
    前記判定部は、前記複数のセクションごとに設定された前記閾値に基づいて前記セクションごとに前記判定を行う、
    請求項1又は2に記載の車両用認識装置。
  4. 前記複数のセクションのうち前記車載ライダー装置を搭載する車両の前方正面方向を検知するセクションの前記閾値は、他のセクションの前記閾値よりも低い値に設定される、
    請求項3に記載の車両用認識装置。
  5. 光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得する取得部と、
    前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定する判定部と、
    を備える車両用認識装置。
  6. 前記判定部は、前記車載ライダー装置を搭載する車両の走行速度が第1速度を超えた場合に前記判定を行う、
    請求項5に記載の車両用認識装置。
  7. 請求項1から6のいずれか一項に記載された車両用認識装置と、
    前記車載ライダー装置を搭載する車両の自動運転を制御する車両制御装置と、
    を備え、
    前記車両制御装置は、前記車両用認識装置が前記車載ライダー装置の状態を異常状態と判定した場合、前記車両の運転モードを、運転者により重度のタスクが課される運転モードに変更する、
    車両制御システム。
  8. コンピュータが、
    光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得し、
    前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定する、
    車両用認識方法。
  9. コンピュータが、
    光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得し、
    前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定する、
    車両用認識方法。
  10. コンピュータに、
    光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を取得させ、
    前記パラメータの値が第1期間の間継続して閾値を超え、かつ、前記第1期間の一部または全部を含む第2期間における前記パラメータの値の変化量が基準範囲内である場合に前記車載ライダー装置の状態を異常状態と判定させる、
    プログラム。
  11. コンピュータに、
    光または光に近い電磁波を用いて物体を検知する車載ライダー装置の汚れ度合いに関するパラメータの値を、前記車載ライダー装置の検知範囲を分割した複数のセクションごとに取得させ、
    前記複数のセクションのうち2以上のセクションにおいて前記パラメータの値が閾値以上である期間が第1期間を超えている場合に前記車載ライダー装置の状態を異常状態と判定させる、
    プログラム。
JP2020219643A 2020-12-28 2020-12-28 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム Active JP7187528B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020219643A JP7187528B2 (ja) 2020-12-28 2020-12-28 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム
CN202111564069.3A CN114690163A (zh) 2020-12-28 2021-12-20 车辆用识别装置、车辆控制系统、车辆用识别方法及存储介质
US17/557,316 US20220207887A1 (en) 2020-12-28 2021-12-21 Vehicle recognition device, vehicle control system, vehicle recognition method, and storage medium
JP2022190066A JP2023036593A (ja) 2020-12-28 2022-11-29 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020219643A JP7187528B2 (ja) 2020-12-28 2020-12-28 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022190066A Division JP2023036593A (ja) 2020-12-28 2022-11-29 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022104431A true JP2022104431A (ja) 2022-07-08
JP7187528B2 JP7187528B2 (ja) 2022-12-12

Family

ID=82119465

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020219643A Active JP7187528B2 (ja) 2020-12-28 2020-12-28 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム
JP2022190066A Pending JP2023036593A (ja) 2020-12-28 2022-11-29 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022190066A Pending JP2023036593A (ja) 2020-12-28 2022-11-29 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム

Country Status (3)

Country Link
US (1) US20220207887A1 (ja)
JP (2) JP7187528B2 (ja)
CN (1) CN114690163A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075577A1 (ja) * 2022-10-06 2024-04-11 日立建機株式会社 鉱山車両自律走行システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010029917A (ja) * 2008-07-30 2010-02-12 Pulstec Industrial Co Ltd レーザ加工装置およびレーザ加工方法
JP2011013135A (ja) * 2009-07-03 2011-01-20 Nippon Signal Co Ltd:The 光測距装置
JP2013134139A (ja) * 2011-12-26 2013-07-08 Hitachi High-Technologies Corp 自動分析装置および測定値異常検出方法
JP2018087772A (ja) * 2016-11-29 2018-06-07 株式会社デンソー 物体検知装置
JP2019015692A (ja) * 2017-07-11 2019-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 付着物検出方法、付着物学習方法、付着物検出装置、付着物学習装置、付着物検出システム、および、プログラム
JP2020076589A (ja) * 2018-11-06 2020-05-21 日本電産モビリティ株式会社 対象物検出装置
JP2020184152A (ja) * 2019-05-07 2020-11-12 株式会社デンソー 付着検知装置および付着検知方法
JP2020201216A (ja) * 2019-06-13 2020-12-17 株式会社デンソー レーダ搭載灯具ユニット

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018006324T5 (de) * 2017-12-12 2020-08-20 Denso Corporation Fahrzeugreinigungssystem
JP2020128183A (ja) * 2019-02-12 2020-08-27 トヨタ自動車株式会社 車両
WO2020255781A1 (ja) * 2019-06-19 2020-12-24 株式会社小糸製作所 車両用クリーナシステム及び車両用クリーナ付きセンサシステム
JP7352193B2 (ja) * 2020-10-26 2023-09-28 トヨタ自動車株式会社 車両のセンサ面洗浄装置
JP7283461B2 (ja) * 2020-11-19 2023-05-30 トヨタ自動車株式会社 車両制御装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010029917A (ja) * 2008-07-30 2010-02-12 Pulstec Industrial Co Ltd レーザ加工装置およびレーザ加工方法
JP2011013135A (ja) * 2009-07-03 2011-01-20 Nippon Signal Co Ltd:The 光測距装置
JP2013134139A (ja) * 2011-12-26 2013-07-08 Hitachi High-Technologies Corp 自動分析装置および測定値異常検出方法
JP2018087772A (ja) * 2016-11-29 2018-06-07 株式会社デンソー 物体検知装置
JP2019015692A (ja) * 2017-07-11 2019-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 付着物検出方法、付着物学習方法、付着物検出装置、付着物学習装置、付着物検出システム、および、プログラム
JP2020076589A (ja) * 2018-11-06 2020-05-21 日本電産モビリティ株式会社 対象物検出装置
JP2020184152A (ja) * 2019-05-07 2020-11-12 株式会社デンソー 付着検知装置および付着検知方法
JP2020201216A (ja) * 2019-06-13 2020-12-17 株式会社デンソー レーダ搭載灯具ユニット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075577A1 (ja) * 2022-10-06 2024-04-11 日立建機株式会社 鉱山車両自律走行システム

Also Published As

Publication number Publication date
CN114690163A (zh) 2022-07-01
JP7187528B2 (ja) 2022-12-12
JP2023036593A (ja) 2023-03-14
US20220207887A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
JP6942236B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022103505A (ja) 車両制御装置、車両制御方法、およびプログラム
WO2022144977A1 (ja) 車両制御装置、車両システム、車両制御方法、およびプログラム
JP7194224B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7048833B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7209681B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2023036593A (ja) 車両用認識装置、車両制御システム、車両用認識方法、およびプログラム
WO2022144958A1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7225297B2 (ja) 運転支援装置、運転支援方法、およびプログラム
JP7092955B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022103645A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7048832B1 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2022144950A1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7492453B2 (ja) 車両用認識システムおよび認識方法
WO2022144974A1 (ja) 車両制御装置、車両制御方法、及びプログラム
US20230303126A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7410848B2 (ja) 車両用認識システムおよび認識方法
WO2022144976A1 (ja) 車両制御装置、車両制御方法、およびプログラム
US12030530B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7075550B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7398497B2 (ja) 制御装置
WO2022144970A1 (ja) 車両制御装置、車両制御方法、およびプログラム
US20220315050A1 (en) Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium
US20220315058A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2022144954A1 (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R150 Certificate of patent or registration of utility model

Ref document number: 7187528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150