CN113196106A - 信息处理设备、信息处理方法和程序 - Google Patents

信息处理设备、信息处理方法和程序 Download PDF

Info

Publication number
CN113196106A
CN113196106A CN201980082175.2A CN201980082175A CN113196106A CN 113196106 A CN113196106 A CN 113196106A CN 201980082175 A CN201980082175 A CN 201980082175A CN 113196106 A CN113196106 A CN 113196106A
Authority
CN
China
Prior art keywords
result
object recognition
vehicle
recognition
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980082175.2A
Other languages
English (en)
Inventor
五十岚信之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of CN113196106A publication Critical patent/CN113196106A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras

Abstract

本公开涉及使得可以实现与倾斜道路上的障碍物的碰撞的适当判定的信息处理设备、信息处理方法和程序。检测使用由相机拍摄的图像的物体识别的结果、基于毫米波雷达检测结果的物体识别的结果以及使用LiDAR检测结果的物体识别的结果;依据车辆周围的环境选择这些物体识别结果中的至少一个;以及基于所选择的物体识别结果来判定与物体碰撞的存在或不存在。本公开可以应用于车载系统。

Description

信息处理设备、信息处理方法和程序
技术领域
本公开涉及信息处理设备、信息处理方法和程序,并且尤其涉及使得能够相对于倾斜道路上的障碍物进行适当的碰撞判定的信息处理设备、信息处理方法和程序。
背景技术
在旨在改善便利性和安全性的诸如自适应巡航控制(ACC)和防碰撞安全性(PCS)之类的高级驾驶员辅助系统(ADAS)中,需要判定车辆是否可以在确认存在或不存在障碍物之后行驶,以防止系统发生故障。
特别在PCS中,可能错误地判定相对于倾斜路面上的维护孔或栅栏存在碰撞的可能性,并且这可能导致突然制动。
因此,需要在识别路面上的倾斜之后进行碰撞判定。
已经提出了一种用于使用相机基于前车的尾部斜坡部分的垂直位置的变化来估计倾斜度的技术作为用于识别倾斜度的技术(参见专利文献1)。
引文列表
专利文献
专利文献1:日本专利申请特开No.2012-088217
发明内容
技术问题
然而,由于使用相机,因此专利文献1的技术可能受到拍摄图像的环境的变化、例如在夜间或恶劣的天气期间的影响。因此,可能降低识别前车的准确性,并且这可能导致错误判定。
此外,当不存在前车时,将无法估计倾斜度,因为需要检测前车的尾灯部分的垂直位置的变化。
考虑到上述情况实现了本公开,并且特别地,本公开旨在相对于倾斜道路上的障碍物进行适当的碰撞判定而不受环境或者存在或不存在前车的影响。
问题的解决方案
根据本公开的一个方面的信息处理设备是以下信息处理设备,该信息处理设备包括:物体识别部,使用多种识别方法识别车辆前方的物体,并且输出多种识别方法各自的物体识别的结果;和碰撞判定部,根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,并且基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
根据本公开的一方面的信息处理方法和程序对应于信息处理设备。
在本公开的该方面中,使用多种识别方法识别车辆前方的物体;输出多种识别方法各自的物体识别的结果;根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果;以及基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
附图说明
图1是用于描述碰撞判定中的错误检测的图。
图2示出了毫米波雷达的碰撞判定的略图。
图3示出了LiDAR的碰撞判定的略图。
图4是示出本公开的车辆控制系统的配置的示例的框图。
图5是示出其中抑制了错误判定的图4的车辆控制系统的配置的示例的框图。
图6是用于描述LiDAR的碰撞判定的图。
图7是用于描述LiDAR的碰撞判定的图。
图8是示出驱动控制处理的流程图。
图9示出了通用计算机的配置的示例。
具体实施方式
将参考附图详细描述本公开的有利实施例。注意,在说明书和附图中,具有基本相同的功能配置的组件通过相同的附图标记表示以省略重复描述。
下面描述用于实施本技术的实施例。描述按以下顺序进行。
1.本公开的概述
2.控制本公开的车辆的车辆控制系统的配置的示例
3.抑制了倾斜道路上的障碍物的错误判定的配置
4.碰撞判定处理
5.使用软件进行系列处理的示例
<<1.本公开的概述>>
<碰撞判定中的错误检测>
描述了本公开的概述。
本公开的车辆使用旨在改善便利性和安全性的高级驾驶员辅助系统(ADAS)相对于倾斜道路上的障碍物进行适当的碰撞判定。
讨论以下情况:如例如图1的上部中所示,包括自动驾驶功能或驾驶辅助功能的车辆1-1在图中的向右方向上在平坦道路FL1上行驶。这里,图1示出了在上部中,如从车辆1-1的侧面观察的,车辆1-1在图中的向右方向上行驶,其中在图中倾斜道路SL1连接到平坦道路FL1的右端。
此外,维护孔2-1埋在倾斜道路SL1的路面中。
车辆1-1包括外部识别传感器1a-1,以便进行自动驾驶功能或驾驶辅助功能。此外,车辆1-1使用外部识别传感器1a-1相对于行驶方向前方进行感测,如虚线所示的。车辆1-1检测路面上的障碍物的存在或不存在,并且当检测到障碍物时,车辆1-1进行紧急停止的移动或紧急避免的移动以确保安全性。
外部识别传感器1a-1的示例包括相机、毫米波雷达和LiDAR(光检测和测距、激光成像检测和测距)。
这里,当外部识别传感器1a-1是相机时,在晴朗的天气中的白天在明亮的环境中,可以通过使用图像识别来识别前方的物体的甚至尺寸和类型。因此,在图1的情况下,可以识别出维护孔2-1埋在倾斜道路SL1中。
因此,维护孔2-1被识别为存在于路面上,但是维护孔2-1不被识别为障碍物。
然而,在外部识别传感器1a-1是相机并且使用拍摄图像的情况下,例如在夜间或在恶劣的天气期间,当周围环境发生变化时,存在无法识别倾斜道路SL1位于前方并且维护孔2-1埋在倾斜道路SL1中的可能性。在这种情况下,车辆1-1的自动驾驶功能或驾驶辅助功能无法工作。
注意,在外部识别传感器1a-1是相机的情况下,在图1中所示的状态下,无法检测到维护孔2-1的事实仅是例如在夜间或在恶劣的天气期间周围环境变化时的问题。没有发生由于例如错误检测的问题。
接下来,讨论外部识别传感器1a-1是毫米波雷达的情况。
当外部识别传感器1a-1是毫米波雷达时,可以例如在夜间或在恶劣的天气期间识别出在维护孔2-1的位置处存在某种物体,但是无法识别出目标物体是例如倾斜道路SL1还是维护孔2-1。
然而,当外部识别传感器1a-1是毫米波雷达时,外部识别传感器1a-1可以识别出某个目标物体位于行驶方向前方,但无法识别出维护孔2-1埋在倾斜道路SL1的路面中。
因此,当外部识别传感器1a-1是毫米波雷达时,在图1的上部的状态下,可能错误地检测平坦道路FL1上的障碍物的存在,障碍物是具有一定的高度并且可能与车辆1-1碰撞的障碍物。
因此,例如,车辆1-1错误地检测存在与障碍物碰撞的可能性,并且进行紧急停止的移动或紧急避免的移动以避免碰撞。这种紧急停止的移动或这种紧急避免的移动可能导致带来例如事故。
注意,在以下情况下可能发生类似的现象:如图1的下部中所示,车辆1-2包括作为相机或毫米波雷达的外部识别传感器1a-2并且在图中的向右方向上在倾斜道路SL2上行驶下坡;平坦道路FL2连接到倾斜道路SL2的前端;并且维护孔2-2设置在平坦道路FL2中。
注意,当存在前车时,毫米波雷达将无线电波照射到前车的更前方,同时导致来自前车的车身下方的路面的反射波,并且接收反射波。这使得可以检测在前车的更前方的物体的存在或不存在。
这里,讨论以下情况:如图2的上部中所示,车辆11包括作为毫米波雷达的外部识别传感器11a,并且在图中的向右方向上在平坦道路FL上行驶,同时相对于行驶方向前方进行感测;倾斜道路SL位于前方;并且维护孔12埋在倾斜道路SL中。
在图2的上部的情况下,由于由外部识别传感器11a照射的波被前方的维护孔12反射,车辆11只能识别出可能存在障碍物,但是车辆11无法识别出物体的种类。
因此,单独的这种信息不允许车辆11判定前方的物体是否为埋在倾斜道路SL中且不存在碰撞的可能性的维护孔12或者前方的物体是否为存在碰撞的可能性的障碍物。
在这种情况下,为了抑制错误检测的发生,车辆11没有选项,而是通知驾驶员存在某种物体,但是某种物体是什么种类的物体是不可判定的。
然而,如图2的下部中所示,当前车11'存在于车辆11前方并且在图中的向右方向上行驶时,可以检测前车11'是否已通过与倾斜道路SL或维护孔12的位置相同的位置。在这种情况下,维护孔12是否是障碍物是未知的。然而,当前车11'已通过存在某种物体的位置时,车辆11至少可以识别出检测到的物体不是存在碰撞的可能性的障碍物。
因此,在本公开中,如在图2的车辆11的情况中那样,毫米波雷达用作外部识别传感器11a。如图2的下部中所示,当车辆11持续行驶以识别可能是障碍物的物体时,车辆11基于前车11'是否已通过检测到的物体的位置来判定是否存在与识别为可能是障碍物的物体的碰撞的可能性。
换句话说,当本公开的车辆11识别到前方的物体时,当前车11'通过物体的位置时,车辆11判定识别出的物体不是障碍物。这导致抑制错误检测的发生。
然而,当外部识别传感器11a是毫米波雷达时,除非存在行驶通过存在可能是障碍物的物体的位置的前车,否则无法抑制错误检测的发生。
这里,讨论使用LiDAR作为外部识别传感器11a的情况。
LiDAR在进行测距的方向上发射激光,并接收反射光以使用光的往返时间段来获得距离,并在水平方向上和垂直方向上以指定的间隔获取点组信息。
换句话说,如例如图3中所示,当车辆11在图中的向右方向上在平坦道路FL上行驶时,外部识别传感器11a发射例如垂直方向上的五束激光。然后,外部识别传感器11a从发射每束光的定时与接收从前方倾斜道路SL上设置的维护孔12反射的光束的定时之间的差获得距离以获取关于维护孔12的点组信息。
在这种情况下,当车辆11在图中的向右方向上行驶时,随着时间按时刻t1、时刻t2和时刻t3的顺序流逝,倾斜道路SL和车辆11之间的距离减小。
这里,在时刻t1,五束激光中的两束被从埋在倾斜道路SL中的维护孔12反射。然后,在时刻t2,五束激光中的三束被从埋在倾斜道路SL中的维护孔12反射,并且在时刻t3处,五束激光中的四束被从埋在倾斜道路SL中的维护孔12反射。
换句话说,随着车辆11更接近于倾斜道路SL,从维护孔12反射的激光的束数增加。
换句话说,随着作为LiDAR的外部识别传感器11a更接近于维护孔12,从维护孔12反射的激光的束数变化。这使得可以基于三维点组信息识别维护孔12的尺寸,并且基于维护孔12的尺寸的时间序列变化识别倾斜道路SL的倾斜度。
因此,使用点组信息使得车辆11能够识别出前方的物体是倾斜道路SL并且维护孔12埋在倾斜道路SL中,因此抑制了发生错误检测,错误检测诸如是错误地检测到前方的物体是障碍物。
因此,在本公开中,组合了作为相机、毫米波雷达和LiDAR的三种类型的外部识别传感器11a,并且根据环境选择性地使用各个感测结果。这导致抑制物体检测中的错误检测。
换句话说,例如,在晴朗的天气中的明亮日光中,使用基于由用作外部识别传感器11a的相机拍摄的图像的识别的结果。例如,当在夜间或在恶劣的天气期间存在前车时,使用毫米波雷达的感测的结果,以及当在夜间或在恶劣的天气期间不存在前车时,使用LiDAR的感测的结果。
如上所述,当根据环境选择性地使用由包括多种传感器的外部识别传感器11a获得的感测结果时,这使得可以根据多种传感器中的每一种的特性适当地进行碰撞判定,并且因此抑制错误检测的发生。
<<2.控制本公开的车辆的车辆控制系统的配置的示例>>
接下来,参考图4的框图描述用于本公开的车辆的车辆控制系统。
图4是示出车辆控制系统100的示意性功能配置的示例的框图,该示例是本技术适用的移动物体控制系统的示例。车辆控制系统100安装在车辆11上。
注意,当将设置有车辆控制系统100的车辆与其它车辆区分开时,在下文中将设置有车辆控制系统100的车辆称为自身汽车或自身车辆。
车辆控制系统100包括输入部101、数据获取部102、通信部103、车载装备104、输出控制器105、输出部106、动力传动控制器107、动力传动系统108、车身相关控制器109、车身相关系统110、存储部111和自动驾驶控制器112。输入部101、数据获取部102、通信部103、输出控制器105、动力传动控制器107、车身相关控制器109、存储部111和自动驾驶控制器112通过通信网络121彼此连接。例如,通信网络121包括符合任何标准的总线或车载通信网络,诸如控制器局域网(CAN)、局部互连网络(LIN)、局域网(LAN)或FlexRay(注册商标)。注意,车辆控制系统100的各个结构元件可以在不使用通信网络121的情况下彼此直接连接。
注意,下面当车辆控制系统100的各个结构元件通过通信网络121彼此通信时将省略通信网络121的描述。例如,当输入部101和自动驾驶控制器112通过通信网络121彼此通信时,将简单地说明为输入部101和自动驾驶控制器112彼此通信。
输入部101包括由乘客使用来输入各种数据、指令等的设备。例如,输入部101包括诸如触摸板、按钮、麦克风、开关和杠杆之类的操作装置;可以通过除手动操作以外的诸如声音或手势之类的方法进行输入的操作装置等等。可替代地,例如,输入部101可以是使用红外或其它无线电波的外部连接的装备,诸如遥控设备;或者与车辆控制系统100的操作兼容的移动装备或可穿戴装备。输入部101基于由乘客输入的数据、指令等生成输入信号,并且将所生成的输入信号供应给车辆控制系统100的各个结构元件。
数据获取部102包括用于获取用于由车辆控制系统100进行的处理的数据的各种传感器等,并且将所获取的数据供应给车辆控制系统100的各个结构元件。
例如,数据获取部102包括用于检测例如自身汽车的状态的各种传感器。具体地,例如,数据获取部102包括:陀螺仪;加速传感器;惯性测量单元(IMU);以及用于检测加速器踏板的操作量、制动踏板的操作量、方向盘的转向角、引擎的转数、马达的转数、车轮的旋转速度等的传感器等。
此外,例如,数据获取部102包括用于检测关于自身汽车外部的信息的各种传感器。具体地,例如,数据获取部102包括图像拍摄设备,诸如飞行时间(TOF)相机、立体声相机、单眼相机、红外相机和其它相机。此外,例如,数据获取部102包括用于检测天气、气象现象等的环境传感器,以及用于检测自身汽车周围的物体的周围信息检测传感器。例如,环境传感器包括雨滴传感器、雾传感器、阳光传感器、雪传感器等。周围信息检测传感器包括超声波传感器、雷达、LiDAR(光检测和测距、激光成像检测和测距)、声纳等。
此外,例如,数据获取部102包括用于检测自身汽车的当前位置的各种传感器。具体地,例如,数据获取部102包括例如全局导航卫星系统(GNSS)接收器,该GNSS接收器从GNSS卫星接收GNSS信号。
此外,例如,数据获取部102包括用于检测关于车辆内部的信息的各种传感器。具体地,例如,数据获取部102包括拍摄驾驶员的图像的图像拍摄设备、检测驾驶员的生物信息的生物传感器、收集车辆内部的声音的麦克风等。例如,生物传感器设置在座椅表面、方向盘等上,并检测坐在座椅上的乘客或者持有方向盘的驾驶员的生物信息。
通信部103与车载装备104以及各种车外装备、服务器、基站等进行通信,传输由车辆控制系统100的各个结构元件供应的数据,以及将接收到的数据供应给车辆控制系统100的各个结构元件。注意,通信部103支持的通信协议没有特别限制。通信部103也可以支持多种类型的通信协议。
例如,通信部103使用无线LAN、蓝牙(注册商标)、近场通信(NFC)、无线USB(WUSB)等与车载装备104无线地通信。此外,例如,通信部103使用通用串行总线(USB)、高清多媒体接口(HDMI)(注册商标)、移动高清链路(MHL)等通过连接终端(未示出)(以及必要时的缆线)通过导线与车载装备104进行通信。
此外,例如,通信部103通过基站或接入点与外部网络(例如,因特网、云网络或载波特定网络)中的装备(例如,应用服务器或控制服务器)进行通信。此外,例如,通信部103使用对等(P2P)技术与自身汽车附近的终端(例如,行人或商店的终端或者机器型通信(MTC)终端)进行通信。此外,例如,通信部103进行诸如车辆到车辆通信、车辆到基础设施通信、自身汽车和家庭之间的车辆到家庭通信以及车辆到行人通信之类的V2X通信。此外,例如,通信部103包括信标接收器,接收从例如安装在道路上的无线电站传输的无线电波或电磁波,并且获取关于例如当前位置、交通拥塞、交通规则或所需时间的信息。
车载装备104的示例包括乘客的移动装备或可穿戴装备、引入或附着到自身汽车的信息装备以及搜索到任何目的地的路线的导航设备。
输出控制器105控制到自身汽车的乘客或到自身汽车外部的各种信息的输出。例如,输出控制器105生成包括视觉信息(诸如图像数据)或音频信息(诸如声音数据)中的至少一个的输出信号,将输出信号供应给输出部106,从而控制视觉信息和音频信息从输出部106的输出。具体地,例如,输出控制器105组合由数据获取部102的不同图像拍摄设备拍摄的图像的数据,生成鸟瞰图像、全景图像等,并且将包括所生成的图像的输出信号供应给输出部106。此外,例如,输出控制器105生成包括例如警示诸如碰撞、接触或进入危险区之类的危险的警告哔哔声或警告消息的声音数据,并且将包括所生成的声音数据的输出信号供应给输出部106。
输出部106包括能够将视觉信息或音频信息输出到自身汽车的乘客或自身汽车外部的设备。例如,输出部106包括显示设备、仪表板、音频扬声器、耳机、用于在乘客上穿戴的诸如眼镜型显示器之类的可穿戴装置、投影仪、灯等。代替包括常用显示器的设备,输出部106中包括的显示设备可以是诸如平视显示器、透明显示器之类的设备,或者是包括在驾驶员的视野中显示视觉信息的增强现实(AR)显示功能的设备。
动力传动控制器107生成各种控制信号,将它们供应给动力传动系统108,从而控制动力传动系统108。此外,动力传动控制器107根据需要将控制信号供应给除动力传动系统108以外的结构元件,以例如通知它们控制动力传动系统108的状态。
动力传动系统108包括与自身汽车的动力传动相关的各种设备。例如,动力传动系统108包括:生成驱动力的驱动力生成设备,诸如内燃引擎和驱动马达;用于将驱动力传输到车轮的驱动力传输机构;调整转向角的转向机构;生成制动力的制动设备;防锁制动系统(ABS);电子稳定控制(ESC)系统;电动转向设备等。
车身相关控制器109生成各种控制信号,将它们供应给身体相关系统110,从而控制车身相关系统110。此外,车身相关控制器109根据需要将控制信号供应给除车身相关系统110以外的结构元件,以例如通知它们控制身体相关系统110的状态。
车身相关系统110包括提供给车身的各种车身相关设备。例如,身体相关系统110包括无钥匙进入系统、智能钥匙系统、电动窗设备、电动座椅、方向盘、空调、各种灯(诸如前照灯、尾灯、制动灯、闪光灯和雾灯)等。
例如,存储部111包括只读存储器(ROM)、随机存取存储器(RAM)、诸如硬盘驱动器(HDD)之类的磁存储装置、半导体存储装置、光学存储装置、磁光存储装置等。存储部111在其中存储由车辆控制系统100的各个结构元件使用的各种程序、数据等。例如,存储部111在其中存储诸如三维高精度地图、全局地图和局部地图之类的地图数据。高精度地图是动态地图等。全局地图更不精确并且覆盖比高精度地图更宽的区域。局部地图包括关于自身汽车的周围环境的信息。
自动驾驶控制器112进行与诸如自动行驶或驾驶辅助之类的自动驾驶相关的控制。具体地,例如,自动驾驶控制器112进行旨在实现高级驾驶员辅助系统(ADAS)的功能的协同控制,包括自身汽车的碰撞避免或冲击缓解、基于车辆之间的距离的先前车辆之后的行驶、维持保持车速的同时的行驶、自身汽车的碰撞的警告、自身汽车从车道偏离的警告等。此外,例如,自动驾驶控制器112进行旨在实现例如在没有由驾驶员进行的操作的情况下自主行驶的自动驾驶的协作控制。自动驾驶控制器112包括检测器131、自我位置估计器132、状态分析器133、规划部134和移动控制器135。
检测器131检测控制自动驾驶所需的各种信息。检测器131包括车辆外部信息检测器141、车辆内部信息检测器142和车辆状态检测器143。
车辆外部信息检测器141基于来自车辆控制系统100的每个结构元件的数据或信号进行检测关于自身汽车外部的信息的处理。例如,车辆外部信息检测器141进行检测、识别和跟踪自身汽车周围的物体的处理以及检测到物体的距离的处理。检测目标物体的示例包括车辆、人、障碍物、结构、道路、交通灯、交通标志和道路标志。此外,例如,车辆外部信息检测器141进行检测自身汽车周围的环境的处理。检测目标周围环境的示例包括天气、温度、湿度、亮度和路面状况。车辆外部信息检测器141将指示检测处理的结果的数据供应给例如自我位置估计器132、状态分析器133的地图分析器151、交通规则识别部152和状态识别部153以及移动控制器135的紧急事件避免部171。
车辆内部信息检测器142基于来自车辆控制系统100的每个结构元件的数据或信号进行检测关于车辆内部的信息的处理。例如,车辆内部信息检测器142进行认证和识别驾驶员的处理、检测驾驶员的状态的处理、检测乘客的处理以及检测车辆内部环境的处理。驾驶员的检测目标状态的示例包括身体状况、唤醒程度、集中程度、疲劳程度和视线的方向。检测目标车辆内部环境的示例包括温度、湿度、亮度和气味。车辆内部信息检测器142将指示检测处理的结果的数据供应给例如状态分析器133的状态识别部153和移动控制器135的紧急事件避免部171。
车辆状态检测器143基于来自车辆控制系统100的每个结构元件的数据或信号进行检测自身汽车的状态的处理。自身汽车的检测目标状态的示例包括速度、加速度、转向角、异常的存在或不存在及其细节、驱动操作状态、电动座椅的位置和倾斜度、门锁的状态以及其它车辆安装装备的状态。车辆状态检测器143将指示检测处理的结果的数据供应给例如状态分析器133的状态识别部153和移动控制器135的紧急事件避免部171。
自我位置估计器132基于来自车辆控制系统100的诸如车辆外部信息检测器141和状态分析器133的状态识别部153之类的各个结构元件的数据或信号进行估计自身汽车的位置、姿势等的处理。此外,自我位置估计器132根据需要生成用于估计自我位置的局部地图(在下文中称为自我位置估计地图)。例如,自我位置估计地图是使用诸如即时定位与地图构建(SLAM)之类的技术的高精度地图。自我位置估计器132将指示估计处理的结果的数据供应给例如状态分析器133的地图分析器151、交通规则识别部152和状态识别部153。此外,自我位置估计器132将自我位置估计地图存储在存储部111中。
状态分析器133进行分析自身汽车的状态及其周围环境的处理。状态分析器133包括地图分析器151、交通规则识别部152、状态识别部153和状态预测部154。
根据需要使用来自车辆控制系统100的诸如自我位置估计器132和车辆外部信息检测器141之类的各个结构元件的数据或信号,地图分析器151进行分析存储在存储部111中的各种地图的处理,并构造包括自动驾驶处理所需的信息的地图。地图分析器151将所构造的地图供应给例如交通规则识别部152、状态识别部153和状态预测部154以及规划部134的路线规划部161、行为规划部162和移动规划部163。
交通规则识别部152基于来自车辆控制系统100的诸如自我位置估计器132、车辆外部信息检测器141和地图分析器151之类的各个结构元件的数据或信号进行识别自身汽车周围的交通规则的处理。识别处理使得可以识别自身汽车周围的交通灯的位置和状态、自身汽车周围进行的交通控制的细节以及可行驶的车道。交通规则识别部152将指示识别处理的结果的数据供应给例如状态预测部154。
状态识别部153基于来自车辆控制系统100的诸如自我位置估计器132、车辆外部信息检测器141、车辆内部信息检测器142、车辆状态检测器143和地图分析器151之类的各个结构元件的数据或信号进行识别与自身汽车相关的状态的处理。例如,状态识别部153进行识别自身汽车的状态、自身汽车的周围环境的状态、自身汽车的驾驶员的状态的处理等。此外,状态识别部153根据需要生成用于识别自身汽车的周围环境的状态的局部地图(在下文中称为状态识别地图)。状态识别地图例如是占用网格地图。
自身汽车的识别目标状态的示例包括自身汽车的位置、姿势和移动(诸如速度、加速度和移动方向)以及异常的存在或不存在及其细节。自身汽车的周围环境的识别目标状态的示例包括:自身汽车周围的静止物体的类型和位置;自身汽车周围的移动物体的类型、位置和移动(诸如速度、加速度和移动方向);自身汽车周围的道路的结构和路面的状况;以及自身汽车周围的天气、温度、湿度和亮度。驾驶员的识别目标状态的示例包括身体状况、唤醒程度、集中程度、疲劳程度、视线移动和驱动操作。
状态识别部153将指示识别处理的结果的数据(根据需要包括状态识别地图)供应给例如自我位置估计器132和状态预测部154。此外,状态识别部153在存储部111中存储状态识别地图。
状态预测部154基于来自车辆控制系统100的诸如地图分析器151、交通规则识别部152和状态识别部153之类的各个结构元件的数据或信号进行预测与自身汽车相关的状态的处理。例如,状态预测部154进行预测自身汽车的状态、自身汽车的周围环境的状态、驾驶员的状态的处理等。
自身汽车的预测目标状态的示例包括自身汽车的行为、自身汽车中异常的发生以及自身汽车的可行驶距离。自身汽车的周围环境的预测目标状态的示例包括移动物体的行为、交通灯的状态的变化以及自身汽车周围的诸如天气之类的环境的变化。驾驶员的预测目标状态的示例包括驾驶员的行为和身体状况。
状态预测部154将指示预测处理的结果的数据与来自交通规则识别部152和状态识别部153的数据一起供应给例如规划部134的路线规划部161、行为规划部162和移动规划部163。
路线规划部161基于来自车辆控制系统100的诸如地图分析器151和状态预测部154之类的各个结构元件的数据或信号来规划到目的地的路线。例如,路线规划部161基于全局地图设定从当前位置到指定目的地的路线。此外,例如,路线规划部161基于例如交通拥塞、事故、交通规则和构造的状态以及驾驶员的身体状况来适当地改变路线。路线规划部161将指示规划的路线的数据供应给例如行为规划部162。
基于来自车辆控制系统100的诸如地图分析器151和状态预测部154之类的各个结构元件的数据或信号,行为规划部162规划自身汽车的行为以使自身汽车在由路线规划部161规划的时间内在由路线规划部161规划的路线上安全地行驶。例如,行为规划部162制定关于例如开始移动、停止、行驶方向(诸如,前向移动、向后移动、左转、右转以及方向的变化)、用于行驶的车道、行驶速度和超车的规划。行为规划部162将指示自身汽车的规划的行为的数据供应给例如移动规划部163。
基于来自车辆控制系统100的诸如地图分析器151和状态预测部154之类的各个结构元件的数据或信号,移动规划部163规划自身汽车的移动以实现由行为规划部162规划的行为。例如,移动规划部163制定关于例如加速度、减速度和行驶轨迹的规划。移动规划部163将指示自身汽车的规划的移动的数据供应给例如移动控制器135的加速/减速控制器172和方向控制器173。
移动控制器135控制自身汽车的移动。移动控制器135包括紧急事件避免部171、加速/减速控制器172和方向控制器173。
基于车辆外部信息检测器141、车辆内部信息检测器142和车辆状态检测器143的检测的结果,紧急事件避免部171进行检测诸如碰撞、接触、进入危险区、驾驶员不正常以及车辆异常之类的紧急事件的处理。当紧急事件避免部171检测到紧急事件的发生时,紧急事件避免部171规划自身汽车的移动,诸如突然停止或快速转弯以避免紧急事件。紧急事件避免部171将指示自身汽车的规划的移动的数据供应给例如加速/减速控制器172和方向控制器173。
加速/减速控制器172控制加速度/减速度以实现由移动规划部163或紧急事件避免部171规划的自身汽车的移动。例如,加速/减速控制器172计算用于驱动力生成设备或制动设备实现规划的加速度、规划的减速度或规划的突然停止的控制目标值,并且将指示计算出的控制目标值的控制指令供应给动力传动控制器107。
方向控制器173控制方向以实现由移动规划部163或紧急事件避免部171规划的自身汽车的移动。例如,方向控制器173计算用于转向机构实现由移动规划部163规划的行驶轨迹或由紧急事件避免部171规划的快速转弯的控制目标值,并且将指示计算出的控制目标值的控制指令供应给动力传动控制器107。
<<3.抑制了倾斜道路上的障碍物的错误判定的配置>>
接下来,参考图5的框图描述抑制了倾斜道路上的障碍物的错误判定的配置。注意,图5示出了包括实现参考图4描述的车辆控制系统100的功能配置的示例当中的用于抑制倾斜道路上的障碍物的错误判定的组件的配置。
数据获取部102包括相机201、毫米波雷达202和LiDAR 203。相机201、毫米波雷达202和LiDAR 203都检测车辆11的行驶方向前方、诸如车辆11前方和车辆11的挡风玻璃上部的物体。例如,相机201、毫米波雷达202和LiDAR 203对应于图2和图3的车辆11的外部识别传感器11a。
相机201拍摄行驶方向前方的图像,并且将拍摄图像输出到自动驾驶控制器112中的检测器131的车辆外部信息检测器141。
毫米波雷达202将毫米波带中的无线电波照射到行驶方向前方,接收来自物体的反射波以检测关于物体的位置和速度的信息,并且将检测到的信息输出到自动驾驶控制器112中的检测器131的车辆外部信息检测器141。
LiDAR 203以指定的间隔水平和垂直地将激光发射到行驶方向前方,并且接收来自物体的反射光以检测根据物体的位置和形状的点组信息,并且将检测到的点组信息输出到自动驾驶控制器112中的检测器131的车辆外部信息检测器141。
基于相机201拍摄的图像、毫米波雷达202的检测的结果以及LiDAR 203的感测的结果,车辆外部信息检测器141识别车辆11前方的物体,并且基于识别的结果进行碰撞判定。更具体地,车辆外部信息检测器141包括物体识别部221、倾斜识别部222和碰撞判定部223。
物体识别部221基于相机201、毫米波雷达202和LiDAR 203的感测的各个结果来识别物体。
更具体地,基于作为相机201的感测的结果的拍摄图像,物体识别部221使用例如语义分割针对每个像素识别位于路径中并在图像中出现的每个单个物体。因此,例如,当路径中的路面是倾斜的路面时,或者当存在维护孔或栅栏时,物体识别部221可以从图像识别出倾斜道路位于前方或者维护孔或栅栏位于前方。
此外,物体识别部221基于毫米波雷达202的感测的结果来识别路径中物体的存在或不存在。在这种情况下,在照射到前方的毫米波带中的无线电波中,物体识别部221将反射强度高的无线电波识别为来自物体的反射波。然而,当仅使用毫米波雷达202的感测的结果时,物体识别部221可以识别物体的位置(到物体的距离和物体的朝向),但是例如无法识别出例如物体是车辆还是行人,即无法识别出物体的种类以及物体的尺寸等。
注意,即使当存在前车时,毫米波带中的一部分无线电波也被从前车的车身下方的路面反射,并且这导致来自比前车更前方的物体的反射波被接收。这使得物体识别部221能够基于毫米波雷达202的感测的结果来识别例如前车更前方的物体的存在。
此外,物体识别部221基于LiDAR 203的感测的结果来识别路径中的物体。在这种情况下,如在毫米波雷达的情况中那样,物体识别部221可以识别前方的物体,因为LiDAR203的感测的结果由三维点组信息表示。然而,当使用LiDAR 203的感测的结果时,物体识别部221无法识别检测到的物体是哪种物体。此外,例如,当例如存在前车时,难以获取关于前车前方的信息,因为LiDAR 203的感测的结果由激光表示。因此,在基于LiDAR 203的感测的结果的物体识别中,当存在前车时,无法进行碰撞判定所需的物体识别。注意,在使用LiDAR203的感测的结果的情况下,并且当存在物体并且随着时间的流逝LiDAR 203更接近于物体时,反射激光的束数随着LiDAR 203更接近于物体而增加,如参考图3所描述的。这使得物体识别部221能够基于反射激光的束数的变化来识别物体的尺寸和倾斜度。
倾斜识别部222基于物体识别部221的识别的结果当中的基于相机201拍摄的图像的物体识别的结果以及基于LiDAR 203的感测的结果的物体检测的结果,来识别路径中的路面的倾斜度。例如,当使用基于相机201拍摄的图像的物体识别的结果时,倾斜识别部222基于物体识别的结果,从关于路面的信息中识别路面的倾斜度。
此外,例如,当使用基于LiDAR的感测的结果的物体识别的结果时,倾斜识别部222基于在三维点组信息中识别的物体的时间序列变化来识别物体。更具体地,当使用毫米波雷达的感测的结果时,随着毫米波雷达更接近于物体,来自物体的反射激光的束数(激光的面积)增加。因此,物体识别部221基于来自物体的反射激光的束数(激光的面积)来识别物体的尺寸。此外,倾斜识别部222基于来自物体的反射激光的束数的时间序列变化来识别路面的倾斜度。
注意,难以从例如毫米波雷达的感测的结果获得路面的倾斜度。
基于物体识别部221的物体识别的结果,碰撞判定部223进行碰撞判定来判定是否存在与路径中的物体碰撞的可能性。
碰撞判定部223根据环境状况选择性地使用物体识别的结果来进行碰撞判定。
在晴朗的天气中的白天,碰撞判定部223基于相机201拍摄的图像的物体识别的结果来进行碰撞判定。
此外,在夜间或在恶劣的天气期间,碰撞判定部223使用基于毫米波雷达202的感测的结果的物体识别的结果并且使用基于LiDAR203的感测的结果的物体识别的结果来进行碰撞判定。
在这种情况下,当存在前车时,碰撞判定部223基于毫米波雷达202的感测的结果的物体识别的结果来识别路径中的物体的存在,并且碰撞判定部223基于前车是否已通过物体被识别出的位置来进行碰撞判定。
换句话说,当基于毫米波雷达202的感测的结果的物体识别的结果来进行碰撞判定时,碰撞判定部223可以识别前车的存在和前车更前方的物体的存在。
然而,当使用基于毫米波雷达202的感测的结果的物体识别的结果时,可以识别物体的存在,但是难以区分物体是否是需要考虑碰撞的可能性的物体。
因此,在碰撞判定部223基于毫米波雷达202的感测的结果的物体识别的结果来进行碰撞判定的情况下,并且在存在前车的情况下,碰撞判定部223判定当前车已通过物体被识别出的位置时不存在与被识别出的物体碰撞的可能性。
此外,在碰撞判定部223基于毫米波雷达202的感测的结果的物体识别的结果进行碰撞判定的情况下,并且在存在前车的情况下,碰撞判定部223判定当前车未通过被识别出的物体的位置时、即当可以识别前车已通过同时避开被识别出的物体时,存在与被识别出的物体碰撞的可能性。
此外,当不存在前车时,碰撞判定部223基于LiDAR 203的感测的结果的物体识别的结果识别出在路径中存在物体,并且进行碰撞判定。
换句话说,当基于LiDAR 203的感测的结果的物体识别的结果来进行碰撞判定时,碰撞判定部223可以根据发射的激光当中的来自物体的反射激光的束数的变化来识别物体的尺寸和倾斜度,因为随着LiDAR 203更接近于物体,来自物体的反射激光的束数按时间顺序增加。
更具体地,假设如图6中所示,车辆11在图中的向右方向上在平坦道路FL上行驶,平面道路FL的右端连接到倾斜道路SL,并且维护孔12设置在倾斜道路SL上。这里,外部识别传感器11a被设置在车辆11的前部,外部识别传感器11a中结合有数据获取部102的作为相机201、毫米波雷达202和LiDAR 203的组件。假设如例如图6中所示,作为数据获取部102的外部识别传感器11a当中的LiDAR 203将激光L1至L13束发射到行驶方向前方,并接收各束反射光以获取三维点组信息作为物体识别结果。
这里,图6示出了激光L1至L13束当中的六束激光L3至L8照射到维护孔12上并且被接收为反射光束的状态。
当车辆11在这种状态下随着时间的流逝更接近于倾斜道路SL上的维护孔12时,如图7中所示,从经过时刻t1到经过时刻t3,来自维护孔12的反射激光的束数逐渐增加。
换句话说,在时刻t1,当自图6的状态已经经过了指定的时间段时,激光L1至L13束当中的八束激光L2至L9照射到维护孔12上,并且由LiDAR 203作为反射光束接收,如图7的上部中所示。
此外,此后,在时刻t2,激光L1至L13束当中的十束激光L1至L10照射到维护孔12上,并且由LiDAR 203作为反射光束接收,如图7的中间部分中所示。
此外,此后,在时刻t3,所有十三束激光L1至L13照射到维护孔12上,并且由LiDAR203作为反射光束接收,如图7的下部中所示。
如上所述,由设置为车辆11的外部识别传感器11a的LiDAR 203照射的激光束当中的来自维护孔12的反射激光的束数随着车辆11更接近于维护孔12而按时间顺序增加。此外,反射激光的束数的时间序列变化的大小根据维护孔12的表面的倾斜度而不同。换句话说,如果倾斜度较大,则激光束的按时间顺序变化数量较大,并且如果倾斜度较小,则激光束的按时间顺序变化数量较小。
因此,碰撞判定部223基于来自物体的反射激光的束数的时间序列变化来获得物体的表面的倾斜度,并且基于物体的尺寸是否于指定的尺寸以及物体的倾斜度是否大于指定的倾斜度来进行碰撞判定。
<<4.碰撞判定处理>>
接下来,参考图8的流程图来描述本公开的车辆11的碰撞判定处理。
在步骤S11中,数据获取部102的相机201、毫米波雷达202和LiDAR 203将各自的感测结果(相对于相机201的拍摄图像)输出到自动驾驶控制器112的检测器131。
在步骤S12中,物体识别部221判定是否可以基于相机201拍摄的图像来识别物体。更具体地,考虑到诸如在夜间、在恶劣的天气期间等亮度不足的环境的影响,物体识别部221判定是否可以基于相机201拍摄的图像适当地识别物体。
当在步骤S12中判定可以基于相机201拍摄的图像来识别物体时,处理移动到步骤S13。
在步骤S13中,基于作为相机201的感测的结果的拍摄图像,物体识别部221使用例如语义分割来识别每个像素的物体。
在步骤S14中,碰撞判定部223基于物体识别部221基于作为相机201的感测的结果的拍摄图像进行的物体识别的结果来判定在路径中是否存在可能是障碍物的物体。
例如,当在步骤S14中判定在路径中存在可能是障碍物的物体时,处理移动到步骤S15。
在步骤S15中,倾斜识别部222识别由物体识别部221识别为路面的倾斜度。
在步骤S16中,基于路面的倾斜度和关于路径中的可能是障碍物的物体的信息,碰撞判定部223判定是否存在与物体碰撞的可能性。
例如,在步骤16中,当物体是例如大尺寸的人或停放的车辆时,或者当路面大倾斜并且存在物体是墙壁或围栏的可能性时,判定存在与物体碰撞的可能性,并且处理移动到步骤S17。
在步骤S17中,碰撞判定部223通知移动控制器135的紧急事件避免部171存在碰撞的可能性。
在步骤S18中,紧急事件避免部171基于来自碰撞判定部223的通知来控制加速/减速控制器172和方向控制器173,以使动力传动系统108由动力传动控制器107驱动以避免与可能是障碍物的物体碰撞。
在步骤S19中判定是否给出终止处理的指令。当判定尚未给出进行终止的指令时,处理返回到步骤S11,并且重复后续处理。当在步骤S19中判定已经给出进行终止的指令时,终止处理。
此外,当在步骤S14中判定在路径中不存在可能是障碍物的物体时,或者当在步骤S16中判定不存在碰撞的可能性时,处理移动到步骤S26。
在步骤S26中,碰撞判定部223通知移动控制器135的紧急事件避免部171不存在碰撞的可能性。注意,当不存在碰撞的可能性时,对紧急事件避免部171的通知不是不可或缺的。因此,可以根据需要跳过步骤S26的处理或者可以删除步骤S26本身的处理。
此外,当在步骤S12中判定无法进行基于图像的物体识别时,处理移动到步骤S20。
在步骤S20中,物体识别部221判定是否可以基于LiDAR 203的感测的结果来识别物体。更具体地,LiDAR 203甚至在由于例如夜间或恶劣的天气而导致的光量不足以使用相机201拍摄图像的困难状况下也能够进行感测。因此,物体识别部221判定是否可以在不发生例如LiDAR 203中的故障的情况下进行感测。
当在步骤S20中判定可以基于LiDAR 203的感测的结果来识别物体时,处理移动到步骤S21。
在步骤S21中,物体识别部221基于LiDAR 203的感测的结果来识别物体。
在步骤S22中,碰撞判定部223基于LiDAR 203的感测的结果的物体识别的结果来判定是否存在前车。基于物体识别结果,碰撞判定部223判定当例如存在自身汽车前方的物体并且物体与自身汽车的位置关系在指定状态下保持不变时存在前车。
当在步骤S22中判定不存在前车时,处理移动到步骤S23。
在步骤S23中,碰撞判定部223基于LiDAR 203的感测的结果的物体识别的结果来判定路径中是否存在可能是障碍物的物体。
当在步骤S23中判定在路径中不存在可能是障碍物的物体时,处理移动到步骤S24。
在步骤S24中,倾斜识别部222基于LiDAR 203的感测的结果的物体识别的结果来识别路面的倾斜度。
在步骤S25中,基于LiDAR 203的感测的结果的物体识别的结果,并且基于路面的倾斜度,碰撞判定部223基于物体是否具有大于指定尺寸的尺寸或倾斜度是否大于指定的倾斜度来判定是否存在与物体碰撞的可能性。
当在步骤S25中判定存在碰撞的可能性时,或者当在步骤S23中判定在路径中不存在可能是障碍物的物体时,处理移动到步骤S17,并给出存在碰撞的可能性的通知。
当在步骤S25中判定不存在碰撞的可能性时,处理移动到步骤S26,并且给出不存在碰撞的可能性的通知。
此外,当在步骤S22中判定存在前车时,处理移动到步骤S27。
换句话说,在仅基于LiDAR 203的感测的结果的物体识别的结果的情况下,当存在前车时,前车将是障碍物,因此将无法检测到可能位于前车更前方的障碍物。因此,当存在前车时,在LiDAR 203中发生故障的情况下,碰撞是不可判定的。
在步骤S27中,物体识别部221判定是否可以基于毫米波雷达202的感测的结果来识别物体。更具体地,毫米波雷达202甚至在诸如由于例如夜间或恶劣的天气而导致的光量不足以使用相机201拍摄图像的困难状况下也能够进行感测。因此,物体识别部221判定是否可以在不发生例如毫米波雷达202中的故障的情况下进行感测。
当在步骤S27中判定可以基于毫米波雷达202的感测的结果来识别物体时,处理移动到步骤S28。
在步骤S28中,物体识别部221基于毫米波雷达202的感测的结果来识别物体。
在步骤S29中,碰撞判定部223基于毫米波雷达202的感测的结果的物体识别的结果来判定路径中是否存在可能是障碍物的物体。
当在步骤S29中判定在路径中不存在可能是障碍物的物体时,处理移动到步骤S26,并且给出不存在碰撞的可能性的通知。
另一方面,当在步骤S29中判定在路径中存在可能是障碍物的物体时,处理移动到步骤S30。
在步骤S30中,碰撞判定部223判定前车是否已通过存在可能是障碍物的物体的位置。
当在步骤S30中判定前车已通过存在可能是障碍物的物体的位置时,处理移动到步骤S26,并且给出不存在碰撞的可能性的通知。
此外,当在步骤S30中判定例如前车已通过同时避开可能是障碍物的物体的位置时,处理移动到步骤S17,并且给出存在碰撞的可能性的通知。
换句话说,在这种情况下,判定前车已经将物体识别为障碍物并且已通过,同时避开物体以避免与物体碰撞。因此,判定存在与检测到的物体碰撞的可能性。
当在步骤S20中判定基于LiDAR 23的感测的结果无法识别物体时,处理移动到步骤S31。
在步骤S31中,物体识别部221判定是否可以基于毫米波雷达202的感测的结果来识别物体。
当在步骤S31中判定可以基于毫米波雷达202的感测的结果来识别物体时,处理移动到步骤S32。
在步骤S32中,物体识别部221基于毫米波雷达202的感测的结果来识别物体。
在步骤S33中,碰撞判定部223基于毫米波雷达202的感测的结果的物体识别的结果来判定是否存在前车。
当在步骤S33中判定存在前车时,处理移动到步骤S29。判定在路径中是否存在可能是障碍物的物体,并且基于前车是否已通过物体的位置来进行碰撞判定。
另一方面,当在步骤S33中判定存在前车时,或者当在步骤S31中判定基于毫米波雷达202的感测的结果的物体识别的结果无法识别物体时,处理移动到步骤S34。
在步骤S34中,碰撞判定部223输出指示碰撞不可判定的信息。换句话说,给出碰撞基于相机201拍摄的图像的物体识别的结果、基于毫米波雷达202的感测的结果的物体识别的结果以及基于LiDAR203的感测的结果的物体识别的结果是不可判定的通知。
在上述处理中,例如,当在晴朗的天气中明亮时,基于相机201的感测的结果(拍摄图像)来进行碰撞判定。这使得可以基于图像的准确物体识别的结果来进行准确的碰撞判定。
此外,当基于图像无法进行物体识别时,即,当在恶劣的天气期间、在夜间等时,并且当不存在前车时,基于LiDAR的感测的结果来进行碰撞判定。
此外,当基于图像无法进行物体识别时,即,当在恶劣的天气期间、在夜间等时,并且当存在前车时,基于毫米波雷达的感测的结果并且基于前车是否已通过检测到的物体的位置来进行碰撞判定。
因此,即使在碰撞基于图像不可判定的状态下,也可以进行碰撞判定,而不管前车的存在或不存在。
因此,可以在这些情况中的任何一种情况下进行适当的碰撞判定,而不受环境变化的影响。
<<5.使用软件进行系列处理的示例>
注意,可以使用硬件或软件进行上述系列处理。当使用软件进行该系列处理时,软件中包含的程序从记录介质安装在计算机上。计算机的示例包括结合到专用硬件中的计算机以及能够通过在其上安装的各种程序进行各种功能的诸如通用计算机之类的计算机。
图9示出了通用计算机的配置的示例。该计算机包括中央处理单元(CPU)1001。输入/输出接口1005经由总线1004连接到CPU 1001。只读存储器(ROM)1002和随机存取存储器(RAM)1003连接到总线1004。
输入部1006、输出部1007、存储部1008和通信部1009连接到输入/输出接口1005。输入部1006包括用户使用来输入操作命令的诸如键盘和鼠标之类的输入装置。输出部1007将处理操作屏幕和处理结果的图像输出到显示装置。存储部1008包括例如在其中存储程序和各种数据的硬盘驱动器。通信部1009包括例如局域网(LAN)适配器,并且通过由因特网表示的网络来进行通信处理。此外,驱动器1010连接到输入/输出接口1005。驱动器1010从可移除记录介质1011读取数据以及将数据写入可移除记录介质1011中,可移除记录介质1011诸如是磁盘(包括软盘)、光盘(包括光盘只读存储器(CD-ROM)和数字多功能盘(DVD))、磁光盘(包括迷你盘(MD))或半导体存储器。
CPU 1001依据存储在ROM 1002中的程序或者依据从要安装在存储部1008上的诸如磁盘、光盘、磁光盘或半导体存储器之类的可移除记录介质1011读取的程序以及从存储部1008加载到RAM 1003中的程序来进行各种处理。根据需要,CPU 1001进行各种处理所需的数据还存储在RAM 1003中。
在具有上述配置的计算机中,由CPU 1001经由输入/输出接口1005和总线1004将例如存储在存储部1008中的程序加载到RAM1003中并且执行程序来进行上述系列处理。
例如,可以通过存储在用作例如包装介质的可移除记录介质1011中来提供由计算机(CPU 1001)执行的程序。此外,可以经由诸如局域网、因特网或数字卫星广播之类的有线或无线传输介质来提供程序。
在计算机中,可以通过安装在驱动器1010上的可移除记录介质1011经由输入/输出接口1005将程序安装在存储部1008上。此外,可以经由要安装在存储部1008上的有线或无线传输介质由通信部1009接收程序。此外,程序可以预先安装在ROM 1002或存储部1008上。
注意,由计算机执行的程序可以是按照本文描述顺序按时间顺序进行处理的程序,或者可以是并行进行处理或在诸如调用定时之类的必要定时进行处理的程序。
注意,图4的自动驾驶控制器112的功能由图9的CPU 1001实现。此外,图4的存储部111由图9的存储部1008实现。
此外,本文使用的系统是指多个组件(诸如设备和模块(部件))的集合,并且所有组件是否处于单个壳体中并不重要。因此,容纳在分开的壳体中并经由网络彼此连接的多个设备以及多个模块容纳在单个壳体中的单个设备均是系统。
注意,本公开的实施例不限于上述示例,并且可以在不脱离本公开的范围的情况下对其进行各种修改。
例如,本公开还可以具有云计算的配置,其中单个功能被共享以经由网络由多个设备协作地处理。
此外,除了由单个设备进行之外,可以共享使用上述流程图描述的各个步骤以由多个设备进行。
此外,当单个步骤包括多个处理时,除了由单个设备进行之外,还可以共享包括在单个步骤中的多个处理以由多个设备进行。
注意,本公开还可以采用以下配置。
<1>一种信息处理设备,包括:
物体识别部,使用多种识别方法识别车辆前方的物体,并且输出多种识别方法各自的物体识别的结果;和
碰撞判定部,根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,并且基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
<2>根据<1>所述的信息处理设备,还包括:
相机,拍摄车辆前方的图像;
毫米波雷达,将毫米波带中的无线电波照射到前方,并且检测来自物体的反射波;和
LiDAR,将激光照射到车辆前方,并且检测来自物体的反射光,其中
物体识别部输出基于相机拍摄的图像的图像物体识别的结果、基于毫米波雷达的检测的结果的毫米波雷达物体识别的结果以及基于LiDAR的检测的结果的LiDAR物体识别的结果。
<3>根据<2>所述的信息处理设备,其中
当根据车辆周围的环境基于图像物体识别的结果能够进行物体识别时,碰撞判定部基于图像物体识别的结果来判定是否存在与物体碰撞的可能性。
<4>根据<2>或<3>所述的信息处理设备,还包括
倾斜识别部,基于图像物体识别的结果来识别车辆前方的路面的倾斜度,其中
所述碰撞判定部基于图像物体识别的结果和路面的倾斜度来判定是否存在与物体碰撞的可能性。
<5>根据<4>所述的信息处理设备,其中
所述倾斜识别部基于随着与物体之间的时间序列的距离的变化的、由LiDAR检测到的反射光的束数的时间序列变化来识别车辆前方的路面的倾斜度。
<6>根据<2>至<5>中的任一项所述的信息处理设备,其中
当根据车辆周围的环境无法基于图像物体识别的结果进行物体识别时,碰撞判定部基于毫米波雷达物体识别的结果或LiDAR物体识别的结果来判定是否存在与物体碰撞的可能性。
<7>根据<6>所述的信息处理设备,其中
当根据车辆周围的环境无法基于图像物体识别的结果进行物体识别、并且当基于LiDAR物体识别的结果能够进行物体识别时,所述碰撞判定部基于LiDAR物体识别的结果来判定是否存在与物体碰撞的可能性。
<8>根据<7>所述的信息处理设备,其中
当基于LiDAR物体识别的结果无法识别前车存在时,视为能够进行基于LiDAR物体识别的结果的物体识别,并且所述碰撞判定部基于LiDAR物体识别的结果来判定是否存在与物体碰撞的可能性。
<9>根据<8>所述的信息处理设备,其中
当基于LiDAR物体识别的结果识别出前车存在时,视为无法进行基于LiDAR物体识别的结果的物体识别,并且所述碰撞判定部基于毫米波雷达物体识别的结果来判定是否存在与物体碰撞的可能性。
<10>根据<9>所述的信息处理设备,其中
所述碰撞判定部基于毫米波雷达物体识别的结果并且基于前车是否已通过物体被识别出的位置来判定是否存在与物体碰撞的可能性。
<11>根据<6>所述的信息处理设备,其中
当基于LiDAR物体识别的结果无法进行物体识别时,所述碰撞判定部基于毫米波雷达物体识别的结果来判定是否存在与物体碰撞的可能性。
<12>根据<11>所述的信息处理设备,其中
当基于毫米波雷达物体识别的结果识别出前车存在时,所述碰撞判定部基于毫米波雷达物体识别的结果来判定是否存在与物体碰撞的可能性。
<13>根据<12>所述的信息处理设备,其中
所述碰撞判定部基于毫米波雷达物体识别的结果并且基于前车是否已通过物体被识别出的位置来判定是否存在与物体碰撞的可能性。
<14>根据<2>所述的信息处理设备,其中
当根据车辆周围的环境无法进行基于图像物体识别的结果的物体识别、并且既无法进行基于毫米波雷达物体识别的结果的物体识别又无法进行基于LiDAR物体识别的结果的物体识别时,所述碰撞判定部输出指示无法进行是否存在与物体碰撞的可能性的判定的信息。
<15>一种信息处理方法,包括:
进行物体识别处理,包括使用多种识别方法识别车辆前方的物体,以及输出多种识别方法各自的物体识别的结果;和
进行碰撞判定处理,包括根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,并且基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
<16>一种使计算机作为物体识别部和碰撞判定部操作的程序,
所述物体识别部使用多种识别方法识别车辆前方的物体,所述物体识别部输出多种识别方法各自的物体识别的结果,
所述碰撞判定部根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,所述碰撞判定部基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
附图标记列表
11 车辆
100 车辆控制系统
102 数据获取部
112 自动驾驶控制器
133 状态分析器
134 规划部
135 移动控制器
153 状态识别部
154 状态预测部
172 加速/减速控制器
173 方向控制器
201 相机
202 毫米波雷达
203 LiDAR
221 物体识别部
222 倾斜识别部
223 碰撞判定部

Claims (16)

1.一种信息处理设备,包括:
物体识别部,使用多种识别方法识别车辆前方的物体,并且输出多种识别方法各自的物体识别的结果;和
碰撞判定部,根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,并且基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
2.根据权利要求1所述的信息处理设备,还包括:
相机,拍摄车辆前方的图像;
毫米波雷达,将毫米波带中的无线电波照射到前方,并且检测来自物体的反射波;和
LiDAR,将激光照射到车辆前方,并且检测来自物体的反射光,其中
物体识别部输出基于相机拍摄的图像的图像物体识别的结果、基于毫米波雷达的检测的结果的毫米波雷达物体识别的结果以及基于LiDAR的检测的结果的LiDAR物体识别的结果。
3.根据权利要求2所述的信息处理设备,其中
当根据车辆周围的环境基于图像物体识别的结果能够进行物体识别时,碰撞判定部基于图像物体识别的结果来判定是否存在与物体碰撞的可能性。
4.根据权利要求2所述的信息处理设备,还包括
倾斜识别部,基于图像物体识别的结果识别车辆前方的路面的倾斜度,其中
所述碰撞判定部基于图像物体识别的结果和路面的倾斜度来判定是否存在与物体碰撞的可能性。
5.根据权利要求4所述的信息处理设备,其中
所述倾斜识别部基于随着与物体之间的时间序列的距离的变化的、由LiDAR检测到的反射光的束数的时间序列变化来识别车辆前方的路面的倾斜度。
6.根据权利要求2所述的信息处理设备,其中
当根据车辆周围的环境无法基于图像物体识别的结果进行物体识别时,碰撞判定部基于毫米波雷达物体识别的结果或LiDAR物体识别的结果来判定是否存在与物体碰撞的可能性。
7.根据权利要求6所述的信息处理设备,其中
当根据车辆周围的环境无法基于图像物体识别的结果进行物体识别、并且当基于LiDAR物体识别的结果能够进行物体识别时,所述碰撞判定部基于LiDAR物体识别的结果来判定是否存在与物体碰撞的可能性。
8.根据权利要求7所述的信息处理设备,其中
当基于LiDAR物体识别的结果无法识别前车存在时,视为能够进行基于LiDAR物体识别的结果的物体识别,并且所述碰撞判定部基于LiDAR物体识别的结果来判定是否存在与物体碰撞的可能性。
9.根据权利要求8所述的信息处理设备,其中
当基于LiDAR物体识别的结果识别出前车存在时,视为无法进行基于LiDAR物体识别的结果的物体识别,并且所述碰撞判定部基于毫米波雷达物体识别的结果来判定是否存在与物体碰撞的可能性。
10.根据权利要求9所述的信息处理设备,其中
所述碰撞判定部基于毫米波雷达物体识别的结果并且基于前车是否已通过物体被识别出的位置来判定是否存在与物体碰撞的可能性。
11.根据权利要求6所述的信息处理设备,其中
当基于LiDAR物体识别的结果无法进行物体识别时,所述碰撞判定部基于毫米波雷达物体识别的结果来判定是否存在与物体碰撞的可能性。
12.根据权利要求11所述的信息处理设备,其中
当基于毫米波雷达物体识别的结果识别出前车存在时,所述碰撞判定部基于毫米波雷达物体识别的结果来判定是否存在与物体碰撞的可能性。
13.根据权利要求12所述的信息处理设备,其中
所述碰撞判定部基于毫米波雷达物体识别的结果并且基于前车是否已通过物体被识别出的位置来判定是否存在与物体碰撞的可能性。
14.根据权利要求2所述的信息处理设备,其中
当根据车辆周围的环境无法进行基于图像物体识别的结果的物体识别、并且既无法进行基于毫米波雷达物体识别的结果的物体识别又无法进行基于LiDAR物体识别的结果的物体识别时,所述碰撞判定部输出指示无法进行是否存在与物体碰撞的可能性的判定的信息。
15.一种信息处理方法,包括:
进行物体识别处理,包括使用多种识别方法识别车辆前方的物体,以及输出多种识别方法各自的物体识别的结果;和
进行碰撞判定处理,包括根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,并且基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
16.一种使计算机作为物体识别部和碰撞判定部操作的程序,
所述物体识别部使用多种识别方法识别车辆前方的物体,所述物体识别部输出多种识别方法各自的物体识别的结果,
所述碰撞判定部根据车辆周围的环境从多种识别方法的物体识别的结果中选择物体识别的结果,所述碰撞判定部基于所选择的物体识别的结果来判定是否存在与物体碰撞的可能性。
CN201980082175.2A 2018-12-18 2019-12-05 信息处理设备、信息处理方法和程序 Pending CN113196106A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018236535A JP2022028989A (ja) 2018-12-18 2018-12-18 情報処理装置、および情報処理方法、並びにプログラム
JP2018-236535 2018-12-18
PCT/JP2019/047537 WO2020129656A1 (ja) 2018-12-18 2019-12-05 情報処理装置、および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
CN113196106A true CN113196106A (zh) 2021-07-30

Family

ID=71101747

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980082175.2A Pending CN113196106A (zh) 2018-12-18 2019-12-05 信息处理设备、信息处理方法和程序

Country Status (5)

Country Link
US (1) US11763675B2 (zh)
JP (1) JP2022028989A (zh)
CN (1) CN113196106A (zh)
DE (1) DE112019006281T5 (zh)
WO (1) WO2020129656A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7413935B2 (ja) * 2020-06-16 2024-01-16 トヨタ自動車株式会社 車載センサシステム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003065740A (ja) * 2001-08-27 2003-03-05 Nissan Motor Co Ltd 前方路面勾配判定装置
CN1704719A (zh) * 2004-06-02 2005-12-07 丰田自动车株式会社 障碍物识别装置以及障碍物识别方法
US20090027180A1 (en) * 2007-07-25 2009-01-29 Fujitsu Ten Limited Forward Object Sensor
JP2009090840A (ja) * 2007-10-10 2009-04-30 Mitsubishi Motors Corp 車両の走行制御装置
JP2010091386A (ja) * 2008-10-07 2010-04-22 Toyota Motor Corp レーダ判定装置、レーダ保全装置
JP2012088217A (ja) * 2010-10-21 2012-05-10 Daihatsu Motor Co Ltd 運転支援制御装置
CN104603855A (zh) * 2012-09-03 2015-05-06 丰田自动车株式会社 碰撞判定装置和碰撞判定方法
CN105358397A (zh) * 2013-05-03 2016-02-24 谷歌公司 对控制车辆的速度的预测性推理
CN105473402A (zh) * 2013-08-26 2016-04-06 丰田自动车株式会社 车载控制装置
CN105946766A (zh) * 2016-07-14 2016-09-21 奇瑞汽车股份有限公司 一种基于激光雷达与视觉的车辆碰撞预警系统及其控制方法
CN106030336A (zh) * 2014-02-17 2016-10-12 丰田自动车株式会社 车辆周围状况识别设备和车辆控制设备
CN106949927A (zh) * 2015-12-03 2017-07-14 罗伯特·博世有限公司 自由面的识别

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003065740A (ja) * 2001-08-27 2003-03-05 Nissan Motor Co Ltd 前方路面勾配判定装置
CN1704719A (zh) * 2004-06-02 2005-12-07 丰田自动车株式会社 障碍物识别装置以及障碍物识别方法
US20090027180A1 (en) * 2007-07-25 2009-01-29 Fujitsu Ten Limited Forward Object Sensor
JP2009090840A (ja) * 2007-10-10 2009-04-30 Mitsubishi Motors Corp 車両の走行制御装置
JP2010091386A (ja) * 2008-10-07 2010-04-22 Toyota Motor Corp レーダ判定装置、レーダ保全装置
JP2012088217A (ja) * 2010-10-21 2012-05-10 Daihatsu Motor Co Ltd 運転支援制御装置
CN104603855A (zh) * 2012-09-03 2015-05-06 丰田自动车株式会社 碰撞判定装置和碰撞判定方法
CN105358397A (zh) * 2013-05-03 2016-02-24 谷歌公司 对控制车辆的速度的预测性推理
CN105473402A (zh) * 2013-08-26 2016-04-06 丰田自动车株式会社 车载控制装置
CN106030336A (zh) * 2014-02-17 2016-10-12 丰田自动车株式会社 车辆周围状况识别设备和车辆控制设备
CN106949927A (zh) * 2015-12-03 2017-07-14 罗伯特·博世有限公司 自由面的识别
CN105946766A (zh) * 2016-07-14 2016-09-21 奇瑞汽车股份有限公司 一种基于激光雷达与视觉的车辆碰撞预警系统及其控制方法

Also Published As

Publication number Publication date
JP2022028989A (ja) 2022-02-17
DE112019006281T5 (de) 2021-09-16
WO2020129656A1 (ja) 2020-06-25
US20220020272A1 (en) 2022-01-20
US11763675B2 (en) 2023-09-19

Similar Documents

Publication Publication Date Title
US11531354B2 (en) Image processing apparatus and image processing method
CN111201787B (zh) 成像装置、图像处理装置和图像处理方法
CN112313537A (zh) 信息处理设备和信息处理方法、成像设备、计算机程序、信息处理系统和移动体设备
EP3770549B1 (en) Information processing device, movement device, method, and program
US11501461B2 (en) Controller, control method, and program
US11341615B2 (en) Image processing apparatus, image processing method, and moving body to remove noise in a distance image
US11959999B2 (en) Information processing device, information processing method, computer program, and mobile device
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
US11978261B2 (en) Information processing apparatus and information processing method
CN113168691A (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
US20200191975A1 (en) Information processing apparatus, self-position estimation method, and program
US20200298849A1 (en) Information processing apparatus, information processing method, program, and vehicle
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
CN112534297A (zh) 信息处理设备和信息处理方法、计算机程序、信息处理系统以及移动设备
JP7192771B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US20220292296A1 (en) Information processing device, information processing method, and program
US20220277556A1 (en) Information processing device, information processing method, and program
CN114026436A (zh) 图像处理装置、图像处理方法和程序
US11763675B2 (en) Information processing apparatus and information processing method
US20210295563A1 (en) Image processing apparatus, image processing method, and program
US20240019539A1 (en) Information processing device, information processing method, and information processing system
US20220017117A1 (en) Information processing apparatus, information processing method, program, mobile-object control apparatus, and mobile object
CN117999587A (zh) 识别处理设备、识别处理方法和识别处理系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination