CN115147689A - 识别装置、车辆系统、识别方法以及存储介质 - Google Patents

识别装置、车辆系统、识别方法以及存储介质 Download PDF

Info

Publication number
CN115147689A
CN115147689A CN202210159378.0A CN202210159378A CN115147689A CN 115147689 A CN115147689 A CN 115147689A CN 202210159378 A CN202210159378 A CN 202210159378A CN 115147689 A CN115147689 A CN 115147689A
Authority
CN
China
Prior art keywords
vehicle
object target
recognition
detection result
optical radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210159378.0A
Other languages
English (en)
Inventor
大井章宜
小西达也
石井健太
金田祐也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN115147689A publication Critical patent/CN115147689A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N27/00Investigating or analysing materials by the use of electric, electrochemical, or magnetic means
    • G01N27/02Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating impedance
    • G01N27/04Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating impedance by investigating resistance
    • G01N27/12Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating impedance by investigating resistance of a solid body in dependence upon absorption of a fluid; of a solid body in dependence upon reaction with a fluid, for detecting components in the fluid
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Electrochemistry (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本发明提供能够提高水花的判定精度的识别装置、车辆系统、识别方法以及存储介质。一种识别装置具备:取得部,其从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果,并且从以使检测范围与光学雷达重叠的方式配置的相机取得第二检测结果;以及识别部,其基于第一检测结果以及第二检测结果,来识别存在于车辆的周围的物体目标,识别部执行将满足表示存在于距车辆规定距离以内的位置的第一条件、表示由光学雷达检测出且未由相机检测出的第二条件、以及表示宽度为规定值以下且检测持续时间为规定时间以下的第三条件的全部条件的物体目标从被识别为存在于车辆的周围的物体目标的识别结果中排除的排除处理。

Description

识别装置、车辆系统、识别方法以及存储介质
技术领域
本发明涉及识别装置、车辆系统、识别方法以及存储介质。
背景技术
近年来,关于自动地控制车辆正在推进研究。在车辆的自动控制中,进行使用安装于车辆的光学雷达(LIDAR:Light Detection and Ranging)、相机等对车辆周边的物体的位置进行检测的处理。然而,若在降雨时、在路面积水时车辆行驶,则水被轮胎卷起而产生水花。存在该水花被误识别为是存在于车辆的周围的物体目标的可能性。于是,在日本特开2019-158662号(以下,称作专利文献1)中记载有基于由相机拍摄到的图像的平均亮度、光流(Optical Flow)等信息来判定是否为水花的技术。
发明内容
然而,专利文献1所记载的技术不使用光学雷达的检测结果,而是对由相机拍摄到的图像进行图像处理来判定是否为水花,因此例如存在将由碰到前风挡玻璃的强降雨引起的水花误识别为是存在于车辆的周围的物体目标的情况。
本发明的方案是考虑这样的情况而完成的,目的之一在于提供能够提高水花的判定精度的识别装置、车辆系统、识别方法以及存储介质。
为了解决上述课题并达成上述目的,本发明采用了以下的方案。
(1):本发明的一方案的识别装置具备:取得部,其从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果,并且从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;以及识别部,其基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标,所述识别部执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
(2):在上述(1)的方案的基础上,也可以是,所述取得部取得搭载于所述车辆的雨滴传感器的检测结果,所述识别部在由所述雨滴传感器检测出降雨的情况下,执行所述排除处理,所述识别部在未由所述雨滴传感器检测出降雨的情况下,不执行所述排除处理。
(3):在上述(1)的方案的基础上,也可以是,所述识别部基于所述相机的检测结果来判断路面是否润湿,所述识别部在判断为所述路面润湿的情况下,执行所述排除处理,所述识别部在判断为所述路面未润湿的情况下,不执行所述排除处理。
(4):在上述(1)的方案的基础上,也可以是,所述识别部判断安装于所述车辆的窗户的刮水器是否正在动作,所述识别部在判断为所述刮水器正在动作的情况下,执行所述排除处理,所述识别部在判断为所述刮水器未动作的情况下,不执行所述排除处理。
(5):在上述(1)至(4)中任一方案的基础上,也可以是,所述识别部在距基于所述第一检测结果而检测出的物体目标规定范围内的位置存在基于所述第二检测结果而被判定为是二轮车的物体目标的情况下,不对基于所述第一检测结果而检测出的物体目标执行所述排除处理。
(6):在上述(1)至(5)中任一方案的基础上,也可以是,所述识别部在所述排除处理中将规定时间内的距所述车辆的距离的偏差为规定值以上的物体目标从所述识别结果中排除。
(7):本发明的一方案的车辆系统具备:(1)至(6)中任一方案的识别装置;以及控制装置,其基于所述识别装置的识别结果,来进行所述车辆的控制。
(8):本发明的一方案的识别方法使计算机进行如下处理:从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果;从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标;执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
(9):本发明的一方案的存储介质存储程序,所述程序用于使计算机进行如下处理:从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果;从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标;执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
根据(1)~(9)的方案,能够提高水花的判定精度。
附图说明
图1是第一实施方式的利用了车辆控制装置的车辆系统1的结构图。
图2是第一控制部120以及第二控制部160的功能结构图。
图3是示出在车辆M的前方产生了水花S的情形的图。
图4是示出由第一实施方式的识别装置16执行的处理的流程的流程图。
图5是示出图4的S105所示的排除处理的流程的流程图。
图6是示出由自动驾驶控制装置100执行的处理的流程的流程图。
图7是示出由第二实施方式的识别装置16执行的处理的流程的流程图。
图8是示出由第三实施方式的识别装置16执行的处理的流程的流程图。
具体实施方式
以下,参照附图,对本发明的识别装置、车辆系统、识别方法以及存储介质的实施方式进行说明。
(第一实施方式)
[整体结构]
图1是第一实施方式的利用了车辆控制装置的车辆系统1的结构图。搭载车辆系统1的车辆例如是二轮、三轮、四轮等的车辆,其驱动源是柴油发动机、汽油发动机等内燃机、电动机、或者它们的组合。电动机使用基于与内燃机连结的发电机的发电电力、或者二次电池、燃料电池的放电电力而动作。
车辆系统1例如具备相机10、雷达装置12、光学雷达(LIDAR:Light Detection andRanging)14、雨滴传感器15、识别装置16、通信装置20、HMI(Human Machine Interface)30、车辆传感器40、导航装置50、MPU(Map Positioning Unit)60、驾驶操作件80、自动驾驶控制装置100、行驶驱动力输出装置200、制动装置210以及转向装置220。这些装置、设备通过CAN(Controller Area Network)通信线等多路通信线、串行通信线、无线通信网等而相互连接。图1所示的结构只是一例,既可以省略结构的一部分,也可以进一步追加其他结构。
相机10例如是利用了CCD(Charge Coupled Device)、CMOS(Complementary MetalOxide Semiconductor)等固体摄像元件的数码相机。相机10安装于搭载车辆系统1的车辆M的任意部位。在拍摄前方的情况下,相机10安装于前风窗玻璃上部、车室内后视镜背面等。相机10例如,周期性地反复拍摄车辆M的周边。相机10也可以是立体相机。
雷达装置12向车辆M的周边放射毫米波等电波,并且检测由物体反射的电波(反射波)来至少检测物体的位置(距离以及方位)。雷达装置12安装于车辆M的任意部位。雷达装置12也可以通过FM-CW(Frequency Modulated Continuous Wave)方式来检测物体的位置以及速度。
光学雷达14向车辆M的周边照射光(或者接近光的波长的电磁波),并测定散射光。光学雷达14基于从发光到受光的时间,来检测到对象的距离。所照射的光例如是脉冲状的激光。光学雷达14安装于车辆M的任意部位。
雨滴传感器15是检测降雨的传感器。具体而言,雨滴传感器15向车辆M的前风挡玻璃照射红外线,并根据红外线的反射率来检测降雨量。雨滴传感器15安装于车辆M的前风挡玻璃。雨滴传感器15也可以使用其他方式来检测降雨量。例如,雨滴传感器15也可以根据在电极附着了雨滴时的电阻值的变化来检测降雨量。
识别装置16对基于相机10、雷达装置12、以及光学雷达14中的一部分或全部的检测结果进行传感器融合处理,而识别物体的位置、种类、速度等。识别装置16将识别结果向自动驾驶控制装置100输出。识别装置16可以将相机10、雷达装置12以及光学雷达14的检测结果按原样向自动驾驶控制装置100输出。也可以将识别装置16的功能组装于自动驾驶控制装置100,并从车辆系统1中省略识别装置16。
识别装置16具备取得部17以及识别部18。取得部17以及识别部18分别例如通过CPU(Central Processing Unit)等硬件处理器执行程序(软件)来实现。这些构成要素中的一部分或全部既可以通过LSI(Large Scale Integration)、ASIC(Application SpecificIntegrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(GraphicsProcessing Unit)等硬件(包括电路部:circuitry)来实现,也可以通过软件与硬件的协同配合来实现。程序既可以预先保存于识别装置16的HDD(Hard Disk Drive)、闪存器等存储装置(具备非暂时性的存储介质的存储装置),也可以保存于DVD、CD-ROM等能够装卸的存储介质,并通过存储介质(非暂时性的存储介质)装配于驱动装置而安装于识别装置16的HDD、闪存器。
通信装置20例如利用蜂窝网、Wi-Fi网、Bluetooth(注册商标)、DSRC(DedicatedShort Range Communication)等,与存在于车辆M的周边的其他车辆通信,或者经由无线基站而与各种服务器装置通信。
HMI30对车辆M的乘员提示各种信息,并且接受基于乘员的输入操作。HMI30包括各种显示装置、扬声器、蜂鸣器、触摸面板、开关、按键等。
车辆传感器40包括检测车辆M的速度的车速传感器、检测加速度的加速度传感器、检测绕铅垂轴的角速度的横摆角速度传感器、检测车辆M的朝向的方位传感器等。
导航装置50例如具备GNSS(Global Navigation Satellite System)接收机51、导航HMI52以及路径决定部53。导航装置50在HDD、闪存器等存储装置保持有第一地图信息54。GNSS接收机51基于从GNSS卫星接收到的信号,来确定车辆M的位置。车辆M的位置也可以通过利用了车辆传感器40的输出的INS(Inertial Navigation System)来确定或补充。导航HMI52包括显示装置、扬声器、触摸面板、按键等。导航HMI52也可以一部分或全部与前述的HMI30共通化。路径决定部53例如参照第一地图信息54来决定从由GNSS接收机51确定的车辆M的位置(或者所输入的任意的位置)到由乘员使用导航HMI52而输入的目的地的路径(以下,称作地图上路径)。第一地图信息54例如是通过表示道路的路段和由路段连接的节点来表现道路形状的信息。第一地图信息54也可以包括道路的曲率、POI(Point OfInterest)信息等。地图上路径被向MPU60输出。导航装置50也可以基于地图上路径,来进行使用了导航HMI52的路径引导。导航装置50例如也可以通过乘员所持有的智能手机、平板终端等终端装置的功能来实现。导航装置50也可以经由通信装置20向导航服务器发送当前位置和目的地,并从导航服务器取得与地图上路径同等的路径。
MPU60例如包括推荐车道决定部61,并在HDD、闪存器等存储装置保持有第二地图信息62。推荐车道决定部61将从导航装置50提供的地图上路径分割为多个区块(例如,在车辆行进方向上每隔100[m]而分割),并参照第二地图信息62针对每个区块决定推荐车道。推荐车道决定部61进行在从左起第几个的车道行驶这样的决定。推荐车道决定部61在地图上路径上存在分支部位的情况下,决定推荐车道,以使车辆M能够在用于向分支目的地行进的合理的路径行驶。
第二地图信息62是比第一地图信息54高精度的地图信息。第二地图信息62例如包括车道的中央的信息或者车道的边界的信息等。在第二地图信息62中可以包括道路信息、交通限制信息、住所信息(住所、邮政编码)、设施信息、电话号码信息等。第二地图信息62可以通过通信装置20与其他装置通信而随时被更新。
驾驶操作件80例如包括油门踏板、制动踏板、换挡杆、转向盘、异形转向器、操纵杆、其他操作件。在驾驶操作件80安装有检测操作量或者操作的有无的传感器,其检测结果被向自动驾驶控制装置100、或者行驶驱动力输出装置200、制动装置210以及转向装置220中的一部分或全部输出。
自动驾驶控制装置100例如具备第一控制部120以及第二控制部160。第一控制部120以及第二控制部160分别例如通过CPU等硬件处理器执行程序(软件)来实现。这些构成要素中的一部分或全部既可以通过LSI、ASIC、FPGA、GPU等硬件(包括电路部:circuitry)来实现,也可以通过软件与硬件的协同配合来实现。程序既可以预先保存于自动驾驶控制装置100的HDD、闪存器等的存储装置(具备非暂时性的存储介质的存储装置),也可以保存于DVD、CD-ROM等能够装卸的存储介质,并通过存储介质(非暂时性的存储介质)装配于驱动装置而安装于自动驾驶控制装置100的HDD、闪存器。自动驾驶控制装置100是“车辆控制装置”的一例,将行动计划生成部140与第二控制部160合起来是“驾驶控制部”的一例。
图2是第一控制部120以及第二控制部160的功能结构图。第一控制部120例如具备识别部130以及行动计划生成部140。第一控制部120例如并行实现基于AI(ArtificialIntelligence;人工智能)的功能与基于预先给出的模型的功能。例如,“识别交叉路口”的功能可以通过并行执行基于深度学习等的交叉路口的识别与基于预先给出的条件(存在能够进行图案匹配的信号、道路标示等)进行的识别,并对双方进行评分而综合地评价来实现。由此,确保自动驾驶的可靠性。
识别部130基于从相机10、雷达装置12以及光学雷达14经由识别装置16而输入的信息,来识别处于车辆M的周边的物体的位置、以及速度、加速度等状态。物体的位置例如被识别为以车辆M的代表点(重心、驱动轴中心等)为原点的绝对坐标上的位置,并用于控制。物体的位置可以由该物体的重心、角部等代表点表示,也可以由表现出的区域表示。物体的“状态”也可以包括物体的加速度、加加速度、或者“行动状态”(例如是否正在进行车道变更、或要进行车道变更)。
识别部130例如识别车辆M正在行驶的车道(行驶车道)。例如,识别部130通过将从第二地图信息62得到的道路划分线的图案(例如实线与虚线的排列)与根据由相机10拍摄到的图像识别出的车辆M的周边的道路划分线的图案进行比较,来识别行驶车道。识别部130不限于识别道路划分线,也可以识别道路划分线、包括路肩、缘石、中央隔离带、护栏等在内的行驶路边界(道路边界),来识别行驶车道。在该识别中,也可以加进从导航装置50取得的车辆M的位置、基于INS的处理结果。识别部130识别暂时停止线、障碍物、红灯、收费站、其他道路现象。
识别部130在识别行驶车道时,识别车辆M相对于行驶车道的位置、姿态。识别部130例如也可以将车辆M的基准点从车道中央的偏离、以及车辆M的行进方向相对于将车道中央相连的线所成的角度识别为车辆M相对于行驶车道的相对位置以及姿态。也可以代替于此,识别部130将车辆M的基准点相对于行驶车道的任一侧端部(道路划分线或道路边界)的位置等识别为车辆M相对于行驶车道的相对位置。
行动计划生成部140以原则上在由推荐车道决定部61决定的推荐车道行驶并且能够应对车辆M的周边状况的方式生成车辆M自动地(不依赖于驾驶员的操作地)将来行驶的目标轨道。目标轨道例如包括速度要素。例如,目标轨道表现为将车辆M应到达的地点(轨道点)按顺序排列而成的轨道。轨道点是按沿途距离计每隔规定的行驶距离(例如几[m]程度)车辆M应到达的地点,有别于此,每隔规定的采样时间(例如零点几[sec]程度)的目标速度以及目标加速度作为目标轨道的一部分而生成。轨道点也可以是每隔规定的采样时间的、在该采样时刻车辆M应到达的位置。在该情况下,目标速度、目标加速度的信息由轨道点的间隔表现。
行动计划生成部140在生成目标轨道时,可以设定自动驾驶的事件。在自动驾驶的事件中,存在定速行驶事件、低速追随行驶事件、车道变更事件、分支事件、汇合事件、接管事件等。行动计划生成部140生成与起动了的事件相应的目标轨道。
第二控制部160控制行驶驱动力输出装置200、制动装置210以及转向装置220,以使车辆M按预定的时刻通过由行动计划生成部140生成的目标轨道。
第二控制部160例如具备取得部162、速度控制部164以及转向控制部166。取得部162取得由行动计划生成部140生成的目标轨道(轨道点)的信息,并使存储器(未图示)存储该信息。速度控制部164基于存储于存储器的目标轨道所附带的速度要素,来控制行驶驱动力输出装置200或制动装置210。转向控制部166根据存储于存储器的目标轨道的弯曲状况,来控制转向装置220。速度控制部164以及转向控制部166的处理例如通过前馈控制与反馈控制的组合来实现。作为一例,转向控制部166将与车辆M的前方的道路的曲率相应的前馈控制和基于从目标轨道的偏离进行的反馈控制进行组合而执行。
行驶驱动力输出装置200将用于车辆行驶的行驶驱动力(转矩)向驱动轮输出。行驶驱动力输出装置200例如具备内燃机、电动机以及变速器等的组合、以及控制它们的ECU(Electronic Control Unit)。ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息,来控制上述的结构。
制动装置210例如具备制动钳、向制动钳传递液压的工作缸、使工作缸产生液压的电动马达以及制动ECU。制动ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息来控制电动马达,使与制动操作相应的制动转矩向各车轮输出。制动装置210可以具备将通过驾驶操作件80所包括的制动踏板的操作而产生的液压经由主工作缸向工作缸传递的机构来作为备用。制动装置210不限于上述说明的结构,也可以是按照从第二控制部160输入的信息来控制致动器而将主工作缸的液压向工作缸传递的电子控制式液压制动装置。
转向装置220例如具备转向ECU以及电动马达。电动马达例如使力作用于齿条-小齿轮机构来变更转向轮的朝向。转向ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息,来驱动电动马达,使转向轮的朝向变更。
[水花判定]
图3是示出在车辆M的前方产生了水花S的情形的图。在图3中,车辆m在车辆M的前方行驶,产生了从车辆M的轮胎卷起的水花S。物体目标框310是表示由相机10检测为是物体目标的范围的框。物体目标框320是表示由光学雷达14检测为是物体目标的范围的框。物体目标框330是表示识别装置16通过进行传感器融合处理而检测为是物体目标的范围的框。这样,识别装置16将车辆m识别为物体目标。
另一方面,物体目标框340是表示由光学雷达14检测为是物体目标的范围的框。在物体目标框340中包括水花S。当从车辆m产生水花S时,由光学雷达14检测出的物体目标框340在车辆M的前方出现。光学雷达14当检知到从车辆m产生的多个水花时,通过对这些水花进行聚类处理而检测为包含这些水花的一个水花S。水花S所包括的物体目标框340的宽度为0.7[m]程度,并以车辆相当的速度移动。
当识别装置16将水花S识别为物体目标时,自动驾驶控制装置100进行控制制动装置210而将车辆减速M等避开水花S的控制。为了防止这样的误制动,而考虑将较小的物体目标从识别结果中消去。然而,在该情况下,存在无法识别存在于车辆m的附近的摩托车等二轮车的可能性。因此,识别装置16需要准确地判定所检测出的物体目标是否为水花S。
于是,识别装置16对于满足下述的(第一条件)~(第三条件)的物体目标,判定为是水花S,且从被识别为存在于车辆M的周围的物体目标的识别结果中排除。
(第一条件)存在于距车辆M规定距离以内的位置。
(第二条件)由光学雷达14检测出,且未由相机10检测出。
(第三条件)宽度为规定值以下,且检测持续时间为规定时间以下。
即,虽然光学雷达14能够检测出多个物体目标,但是满足(第一条件)~(第三条件)的物体目标的信息不被用于基于自动驾驶控制装置100的车辆M的控制。由此,能够防止将水花S误识别为是物体目标而为了避开它进行控制的情况。
然而,若对识别出的全部的物体目标进行判定是否为水花S的水花判定,则存在识别装置16的处理负荷变大这样的问题。因此,识别装置16的识别部18也可以不对距车辆M的距离为规定距离(例如,20[m])以上的物体目标进行水花判定。由此,能够减轻识别装置16的处理负荷。
[识别装置的流程图]
图4是示出由第一实施方式的识别装置16执行的处理的流程的流程图。首先,识别装置16的取得部17从对存在于车辆M的行进方向的物体目标进行检测的光学雷达14取得第一检测结果(S101)。接着,取得部17从以使检测范围与光学雷达14重叠的方式配置的相机10取得第二检测结果(S102)。
接着,识别装置16的识别部18基于第一检测结果以及第二检测结果,来识别存在于车辆M的周围的物体目标(S103)。例如,如图3所示,识别部18将在车辆M的前方行驶的车辆m、从车辆m的轮胎卷起的水花S识别为物体目标。
接着,识别部18判断是否由雨滴传感器15检测出降雨(S104)。在判断为由雨滴传感器15检测出降雨的情况(S104:是)下,执行后述的排除处理(S105)。排除处理是判定检测出的物体目标是否为水花S、并将判定为是水花S的物体目标从被识别为存在于车辆M的周围的物体目标的识别结果中排除的处理。
在S105中的排除处理完成了的情况下,识别部18向自动驾驶控制装置100发送识别结果(S106),并结束基于本流程图的处理。另一方面,在判断为未由雨滴传感器15检测出降雨的情况(S104:否)下,识别部18不执行S105的排除处理而进入S106的处理。
这样,识别部18仅在未由雨滴传感器15检测出降雨的情况下,进行排除处理。由此,在降雨时以外不进行排除处理,因此能够减轻识别装置16的处理负荷。
图5是示出图4的S105所示的排除处理的流程的流程图。在排除处理中,识别部18将满足前述的(第一条件)~(第三条件)的物体目标判定为水花S,并将该物体目标从识别结果中排除。以下,对排除处理详细进行说明。
首先,识别部18判断被识别出的物体目标是否满足(第一条件)(S201)。即,识别部18判断被识别出的物体目标是否距车辆M规定距离以内。例如,识别部18可以基于光学雷达14的检测结果而算出从车辆M到物体目标的距离,并判断所算出的距离是否为规定距离(例如,1[m])以内。在判断为被识别出的物体目标不满足(第一条件)的情况(S201:否)下,识别部18判断为被识别出的物体目标不是水花S,并进入图4的S106的处理。
另一方面,在判断为被识别出的物体目标满足(第一条件)的情况(S201:是)下,识别部18判断被识别出的物体目标是否满足(第二条件)(S202)。即,识别部18判断被识别出的物体目标是否为由光学雷达14检测出且未由相机10检测出。在判断为被识别出的物体目标不满足(第二条件)的情况(S202:否)下,识别部18判断为被识别出的物体目标不是水花S,并进入图4的S106的处理。
另一方面,在判断为被识别出的物体目标满足(第二条件)的情况(S202:是)下,识别部18判断被识别出的物体目标是否满足(第三条件)(S203)。即,识别部18判断是否为被识别出的物体目标的宽度为规定值以下且被识别出的物体目标的检测持续时间为规定时间以下。例如,可以是,识别部18基于由光学雷达14检测出的物体目标框的宽度而算出物体目标的宽度,并判断所算出的物体目标的宽度是否为规定值(例如,1[m])以下。也可以是,识别部18基于物体目标出现的帧数而算出检测持续时间,并判断所算出的检测持续时间是否为规定时间(例如,0.3[秒])以下。在判断为被识别出的物体目标不满足(第三条件)的情况(S203:否)下,识别部18判断为被识别出的物体目标不是水花S,并进入图4的S106的处理。
另一方面,在判断为被识别出的物体目标满足(第三条件)的情况(S203:是)下,识别部18判断为被识别出的物体目标是水花S,并将该物体目标从被识别为存在于车辆M的周围的物体目标的识别结果中排除(S204),并进入图4的S106的处理。
[自动驾驶控制装置的流程图]
图6是示出由自动驾驶控制装置100执行的处理的流程的流程图。首先,自动驾驶控制装置100接收在图4的S106中从识别装置16发送出的识别结果(S301)。
接着,自动驾驶控制装置100基于接收到的识别结果,判断被识别出的物体目标与车辆M之间的距离是否小于规定距离(S302)。在被识别出的物体目标与车辆M之间的距离小于规定距离的情况(S302:是)下,自动驾驶控制装置100进行用于避开该物体目标的避开控制(S303),并结束基于本流程图的处理。避开控制例如是控制制动装置210、转向装置220而避免车辆M与物体目标接触的控制。
另一方面,在被识别出的物体目标与车辆M之间的距离为规定距离以上的情况(S302:否)下,自动驾驶控制装置100不进行S303的避开控制,而结束基于本流程图的处理。
这样,本实施方式的识别装置16基于(第一条件)~(第三条件)来判定被识别出的物体目标是否为水花S,因此能够提高水花S的判定精度。本实施方式的识别装置16通过将被判定为是水花S的物体目标从被识别为存在于车辆M的周围的物体目标的识别结果中排除,从而能够防止自动驾驶控制装置100进行避开水花S的避开控制。
由于摩托车等二轮车的宽度较窄,因此存在与(第三条件)关联地被误检测为是水花S的可能性。若被误检测为是水花S,则由于对二轮车进行前述的排除处理,导致二轮车不被识别为物体目标。为了防止该情况,识别部18电可以在距基于第一检测结果(光学雷达14的检测结果)而检测出的物体目标规定范围内的位置存在基于第二检测结果(相机10的检测结果)而判定为是二轮车的物体目标的情况下,不对基于第一检测结果而检测出的物体目标执行排除处理。由此,能够防止二轮车不被识别为物体目标的情况。
水花S有时进行具有相对于车辆M来来回回那样的晃动的移动。为了高精度地检测这样的水花S,识别部18也可以在前述的排除处理中将规定时间内的距车辆M的距离的偏差为规定值以上的物体目标判定为是水花S,并将该物体目标从识别结果中排除。由此,能够进一步提高水花S的检测精度。
(第二实施方式)
在第一实施方式中,识别部18在由雨滴传感器15检测出降雨的情况下执行排除处理,在未由雨滴传感器15检测出降雨的情况下不执行排除处理。与此相对,在第二实施方式中,识别部18不使用雨滴传感器15,而根据由相机10拍摄到的路面的图像来判定是否执行排除处理。以下,对第二实施方式的详细情况进行说明。
[识别装置的流程图]
图7是示出由第二实施方式的识别装置16执行的处理的流程的流程图。图7中的S401~S403的处理与图4中的S101~S103的处理相同,因此省略说明。
在S403的处理完成后,识别装置16的识别部18根据第二检测结果所包括的由相机10拍摄到的路面的图像,来判断路面是否润湿(S404)。例如,识别部18可以使用利用教示数据进行学习(有教示的学习)而得到的学习完毕模型,来判断路面是否润湿。教示数据包括学习数据和正解数据。学习数据是路面的图像。正解数据是表示路面是否润湿的值。由此,学习完毕模型在被输入了由相机10拍摄到的路面的图像的情况下,输出表示路面是否润湿的值。
识别部18使用学习完毕模型来判断路面是否润湿,但不限定于此。例如,识别部18也可以基于路面的颜色、来自路面的光的反射率,来判断路面是否润湿。
在判断为路面润湿的情况(S404:是)下,识别部18执行S405的排除处理。另一方面,在判断为路面未润湿的情况(S404:否)下,识别部18不执行S405的排除处理而进入S406的处理。S405以及S406的处理与图4中的S105以及S106的处理相同,因此省略说明。
这样,识别部18仅在判断为路面润湿的情况下进行排除处理。由此,在路面未润湿情况下不进行排除处理,因此能够减轻识别装置16的处理负荷。
(第三实施方式)
在第一实施方式中,识别部18在由雨滴传感器15检测出降雨的情况下执行排除处理,在未由雨滴传感器15检测出降雨的情况下不执行排除处理。在第二实施方式中,识别部18在判断为路面润湿的情况下执行排除处理,在判断为路面未润湿的情况下,不执行排除处理。与此相对,在第三实施方式中,识别部18根据安装于车辆M的窗户的刮水器是否正在动作,来判断是否执行排除处理。以下,对第三实施方式的详细情况进行说明。
[识别装置的流程图]
图8是示出由第三实施方式的识别装置16执行的处理的流程的流程图。图8中的S501~S503的处理与图4中的Si01~S103的处理相同,因此省略说明。
在S503的处理完成后,识别装置16的识别部18判断安装于车辆M的窗户的刮水器是否正在动作(S504)。例如,可以是,识别部18从自动驾驶控制装置100接收表示刮水器是否正在动作的动作信息,并基于该动作信息来判断刮水器是否正在动作。
识别部18基于从自动驾驶控制装置100接收到的动作信息,来判断刮水器是否正在动作,但不限定于此。例如,识别部18也可以使用物理地检知刮水器是否正在动作的传感器,来判断刮水器是否正在动作。
在判断为刮水器正在动作的情况(S504:是)下,识别部18执行S505的排除处理。另一方面,在判断为刮水器未动作的情况(S504:否)下,识别部18不执行S505的排除处理而进入S506的处理。S505以及S506的处理与图4中的S105以及S106的处理相同,因此省略说明。
这样,识别部18仅在判断为刮水器正在动作的情况下进行排除处理。由此,在刮水器未动作的情况下不进行排除处理,因此能够减轻识别装置16的处理负荷。
根据如以上那样说明的第一实施方式~第三实施方式,识别装置16执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于车辆M的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距车辆M规定距离以内的位置,所述第二条件表示由光学雷达14检测出且未由相机10检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。由此,能够提高水花S的判定精度。
上述说明的实施方式能够如以下那样表现。
一种识别装置,其中,
所述识别装置具备:
存储装置,其存储有程序;以及
硬件处理器,
所述硬件处理器通过执行存储于所述存储装置的程序而进行如下处理:
从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果;
从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;
基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标;
执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
以上使用实施方式说明了本发明的具体实施方式,但本发明丝毫不被这样的实施方式限定,在不脱离本发明的主旨的范围内能够施加各种变形以及替换。

Claims (9)

1.一种识别装置,其中,
所述识别装置具备:
取得部,其从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果,并且从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;以及
识别部,其基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标,
所述识别部执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
2.根据权利要求1所述的识别装置,其中,
所述取得部取得搭载于所述车辆的雨滴传感器的检测结果,
所述识别部在由所述雨滴传感器检测出降雨的情况下,执行所述排除处理,
所述识别部在未由所述雨滴传感器检测出降雨的情况下,不执行所述排除处理。
3.根据权利要求1所述的识别装置,其中,
所述识别部基于所述相机的检测结果来判断路面是否润湿,
所述识别部在判断为所述路面润湿的情况下,执行所述排除处理,
所述识别部在判断为所述路面未润湿的情况下,不执行所述排除处理。
4.根据权利要求1所述的识别装置,其中,
所述识别部判断安装于所述车辆的窗户的刮水器是否正在动作,
所述识别部在判断为所述刮水器正在动作的情况下,执行所述排除处理,
所述识别部在判断为所述刮水器未动作的情况下,不执行所述排除处理。
5.根据权利要求1所述的识别装置,其中,
所述识别部在距基于所述第一检测结果而检测出的物体目标规定范围内的位置存在基于所述第二检测结果而被判定为是二轮车的物体目标的情况下,不对基于所述第一检测结果而检测出的物体目标执行所述排除处理。
6.根据权利要求1至5中任一项所述的识别装置,其中,
所述识别部在所述排除处理中将规定时间内的距所述车辆的距离的偏差为规定值以上的物体目标从所述识别结果中排除。
7.一种车辆系统,其中,
所述车辆系统具备:
权利要求1至6中任一项所述的识别装置;以及
控制装置,其基于所述识别装置的识别结果,来进行所述车辆的控制。
8.一种识别方法,其中,
所述识别方法使计算机进行如下处理:
从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果;
从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;
基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标;
执行将满足表示第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
9.一种存储介质,其存储程序,其中,
所述程序使计算机进行如下处理:
从对存在于车辆的行进方向的物体目标进行检测的光学雷达取得第一检测结果;
从以使检测范围与所述光学雷达重叠的方式配置的相机取得第二检测结果;
基于所述第一检测结果以及所述第二检测结果,来识别存在于所述车辆的周围的物体目标;
执行将满足第一条件、第二条件以及第三条件的全部条件的物体目标从被识别为存在于所述车辆的周围的物体目标的识别结果中排除的排除处理,所述第一条件表示存在于距所述车辆规定距离以内的位置,所述第二条件表示由所述光学雷达检测出且未由所述相机检测出,所述第三条件表示宽度为规定值以下且检测持续时间为规定时间以下。
CN202210159378.0A 2021-03-29 2022-02-21 识别装置、车辆系统、识别方法以及存储介质 Pending CN115147689A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-055165 2021-03-29
JP2021055165A JP2022152402A (ja) 2021-03-29 2021-03-29 認識装置、車両システム、認識方法、およびプログラム

Publications (1)

Publication Number Publication Date
CN115147689A true CN115147689A (zh) 2022-10-04

Family

ID=83364559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210159378.0A Pending CN115147689A (zh) 2021-03-29 2022-02-21 识别装置、车辆系统、识别方法以及存储介质

Country Status (3)

Country Link
US (1) US11933900B2 (zh)
JP (1) JP2022152402A (zh)
CN (1) CN115147689A (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271908A (ja) * 2008-04-09 2009-11-19 Honda Motor Co Ltd 車両走行支援装置、車両、車両走行支援プログラム
JP2010052601A (ja) * 2008-08-28 2010-03-11 Denso Corp 車両用ワイパー制御装置
CN104768822A (zh) * 2012-09-20 2015-07-08 谷歌公司 检测公路天气状况
CN106394513A (zh) * 2016-09-28 2017-02-15 鄂尔多斯市普渡科技有限公司 一种雨雪天气下无人驾驶车辆的行车装置与策略
JP2018041396A (ja) * 2016-09-09 2018-03-15 本田技研工業株式会社 物体認識装置、物体認識方法、および物体認識プログラム
US20180308250A1 (en) * 2017-04-25 2018-10-25 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN109835343A (zh) * 2017-11-27 2019-06-04 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
US20190180467A1 (en) * 2017-12-11 2019-06-13 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying and positioning objects around a vehicle
JP2019158662A (ja) * 2018-03-14 2019-09-19 トヨタ自動車株式会社 物標認識装置及び車両走行制御システム
CN110406544A (zh) * 2019-08-06 2019-11-05 阿尔法巴人工智能(深圳)有限公司 雨雾场景下的车辆感知系统及方法
CN111016903A (zh) * 2019-12-30 2020-04-17 广州赛特智能科技有限公司 自动驾驶车辆雨天行驶安全保障系统及方法
CN111766601A (zh) * 2019-03-13 2020-10-13 本田技研工业株式会社 识别装置、车辆控制装置、识别方法及存储介质
CN112286178A (zh) * 2019-07-24 2021-01-29 本田技研工业株式会社 识别系统、车辆控制系统、识别方法及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022034086A (ja) * 2018-12-07 2022-03-03 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2020196536A1 (ja) * 2019-03-26 2020-10-01 株式会社小糸製作所 撮影システムおよび画像処理装置
US11367292B2 (en) * 2020-02-24 2022-06-21 Ford Global Technologies, Llc Road marking detection
EP4177732A4 (en) * 2020-07-03 2023-11-15 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM AND PROGRAM
DE102020209353A1 (de) * 2020-07-24 2022-01-27 Ford Global Technologies, Llc Steuern eines Fahrzeugs unter Berücksichtigung der Sensorreichweite
WO2022054532A1 (ja) * 2020-09-11 2022-03-17 株式会社デンソー 車両制御装置、車両制御方法、車両制御プログラム
DE112022001397T5 (de) * 2021-03-09 2024-01-18 Denso Corporation Objekterkennungsvorrichtung

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271908A (ja) * 2008-04-09 2009-11-19 Honda Motor Co Ltd 車両走行支援装置、車両、車両走行支援プログラム
JP2010052601A (ja) * 2008-08-28 2010-03-11 Denso Corp 車両用ワイパー制御装置
CN104768822A (zh) * 2012-09-20 2015-07-08 谷歌公司 检测公路天气状况
CN107272007A (zh) * 2012-09-20 2017-10-20 伟摩有限责任公司 检测公路天气状况的方法和系统
JP2018041396A (ja) * 2016-09-09 2018-03-15 本田技研工業株式会社 物体認識装置、物体認識方法、および物体認識プログラム
CN106394513A (zh) * 2016-09-28 2017-02-15 鄂尔多斯市普渡科技有限公司 一种雨雪天气下无人驾驶车辆的行车装置与策略
US20180308250A1 (en) * 2017-04-25 2018-10-25 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
CN109835343A (zh) * 2017-11-27 2019-06-04 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
US20190180467A1 (en) * 2017-12-11 2019-06-13 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying and positioning objects around a vehicle
JP2019158662A (ja) * 2018-03-14 2019-09-19 トヨタ自動車株式会社 物標認識装置及び車両走行制御システム
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN111766601A (zh) * 2019-03-13 2020-10-13 本田技研工业株式会社 识别装置、车辆控制装置、识别方法及存储介质
CN112286178A (zh) * 2019-07-24 2021-01-29 本田技研工业株式会社 识别系统、车辆控制系统、识别方法及存储介质
CN110406544A (zh) * 2019-08-06 2019-11-05 阿尔法巴人工智能(深圳)有限公司 雨雾场景下的车辆感知系统及方法
CN111016903A (zh) * 2019-12-30 2020-04-17 广州赛特智能科技有限公司 自动驾驶车辆雨天行驶安全保障系统及方法

Also Published As

Publication number Publication date
US20220308234A1 (en) 2022-09-29
US11933900B2 (en) 2024-03-19
JP2022152402A (ja) 2022-10-12

Similar Documents

Publication Publication Date Title
CN109484404B (zh) 车辆控制装置、车辆控制方法及存储介质
CN110281941B (zh) 车辆控制装置、车辆控制方法及存储介质
CN109835344B (zh) 车辆控制装置、车辆控制方法及存储介质
CN110341704B (zh) 车辆控制装置、车辆控制方法及存储介质
CN110271542B (zh) 车辆控制装置、车辆控制方法及存储介质
US20200307569A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7199150B2 (ja) 車両制御装置、車両制御方法、及びプログラム
US20200290624A1 (en) Vehicle control device, vehicle control method, and storage medium
US11738742B2 (en) Vehicle control device, vehicle control method, and storage medium
CN110194166B (zh) 车辆控制系统、车辆控制方法及存储介质
US11565718B2 (en) Mobile object control method, mobile object control device, and storage medium
US20200307558A1 (en) Vehicle control device, vehicle management device, vehicle control method, vehicle management method, and storage medium
US11628862B2 (en) Vehicle control device, vehicle control method, and storage medium
US11273825B2 (en) Vehicle control device, vehicle control method, and storage medium
CN110341703B (zh) 车辆控制装置、车辆控制方法及存储介质
CN110194153B (zh) 车辆控制装置、车辆控制方法及存储介质
CN109559540B (zh) 周边监视装置、周边监视方法及存储介质
US20190161090A1 (en) Vehicle control device, vehicle control method, and recording medium
US20220297696A1 (en) Moving object control device, moving object control method, and storage medium
CN114954511A (zh) 车辆控制装置、车辆控制方法以及存储介质
US11989950B2 (en) Information processing apparatus, vehicle system, information processing method, and storage medium
CN115143957A (zh) 检测装置、车辆系统、检测方法及存储介质
CN113492844A (zh) 车辆控制装置、车辆控制方法及存储介质
CN112172805A (zh) 车辆控制装置、车辆控制方法及存储介质
CN112141097A (zh) 车辆控制装置、车辆控制方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination