CN107487258B - 盲区检测系统和方法 - Google Patents
盲区检测系统和方法 Download PDFInfo
- Publication number
- CN107487258B CN107487258B CN201710427241.8A CN201710427241A CN107487258B CN 107487258 B CN107487258 B CN 107487258B CN 201710427241 A CN201710427241 A CN 201710427241A CN 107487258 B CN107487258 B CN 107487258B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- driver
- host vehicle
- view mirror
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 230000004044 response Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/006—Side-view mirrors, e.g. V-shaped mirrors located at the front or rear part of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/802—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
- B60R2300/8026—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Traffic Control Systems (AREA)
- Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
Abstract
本发明描述了示例的盲区检测系统和方法。在一种实施方式中,主车辆检测在相邻的交通车道中位于主车辆前面的第二车辆。一种方法确定第二车辆的大小并且基于第二车辆的大小来估计与第二车辆相关的车辆类别。该方法还识别第二车辆上的侧视镜位置并且基于车辆类别和侧视镜位置来确定与第二车辆相关的盲区。
Description
技术领域
本发明涉及车辆系统,尤其是,涉及检测附近车辆的盲区的系统和方法。
背景技术
机动车和其他车辆为商业、政府以及私人实体提供很重要一部分运输。在车辆交通拥挤或者能见度有限的区域中,了解周围车辆的盲区的位置是重要的。通过检测周围车辆的盲区,主车辆能够调整其驾驶活动以避免另一台车辆的盲区或者将驾驶通过其他车辆的盲区所花费的时间降到最少。现有的系统允许车辆检测其自己的盲区,但是不识别其他车辆的盲区。
一般道路上的各种车辆不但具有相对于车辆的侧视镜和窗户的不同驾驶员位置,而且具有不同的大小和形状。此外,不同的车辆具有不同的侧视镜大小和形状。所有这些变化对每一台独特的车辆造成了不同的盲区(或者盲区地带)。
发明内容
根据本发明的一方面,提供一种方法,包括:
由主车辆检测位于主车辆前面的第二车辆;
从安装于主车辆的摄像机接收第二车辆的图像;
识别接收到的图像中的侧视镜;
分析侧视镜里的图像以确定第二车辆驾驶员的头部位置;以及
基于驾驶员的头部位置来确定驾驶员是否能够看见主车辆。
根据本发明的一个实施例,分析侧视镜里的图像进一步包括利用面部识别算法来确定在侧视镜里是否可看见第二车辆驾驶员的脸部。
根据本发明的一个实施例,分析侧视镜里的图像进一步确定第二车辆的驾驶员的注视方向。
根据本发明的一个实施例,进一步基于第二车辆的驾驶员的注视方向来确定驾驶员是否能够看见主车辆。
根据本发明的一个实施例,基于从安装于主车辆的至少一个传感器接收到的数据来检测第二车辆。
根据本发明的一个实施例,安装于主车辆的传感器为雷达传感器、LIDAR传感器或者超声传感器的其中之一。
根据本发明的一个实施例,基于从安装于主车辆的至少一个摄像机接收到的数据来检测第二车辆。
根据本发明的一个实施例,方法进一步包括响应于确定第二车辆驾驶员不能够看见主车辆而警告主车辆的驾驶员。
根据本发明的一个实施例,警告主车辆的驾驶员包括产生可听到的警告、可看到的警告以及触觉警告的至少其中之一。
根据本发明的一个实施例,方法进一步包括响应于确定第二车辆驾驶员不能够看见主车辆而自动调整主车辆的速度。
根据本发明的一个实施例,方法进一步包括响应于确定第二车辆驾驶员不能够看见主车辆而自动调整主车辆的驾驶活动。
根据本发明的一方面,提供一种方法,包括:
由主车辆中的盲区检测系统检测在相邻的交通车道中位于主车辆前面的第二车辆;
从安装于主车辆的摄像机接收第二车辆的图像;
识别接收到的图像中的侧视镜;
分析侧视镜里的图像以确定在侧视镜里是否可看到第二车辆的驾驶员的脸部;
基于第二车辆的驾驶员的头部位置来确定第二车辆的驾驶员是否有可能看见主车辆;以及
响应于确定第二车辆驾驶员不能够看见主车辆而警告主车辆的驾驶员。
根据本发明的一个实施例,分析侧视镜里的图像进一步包括利用面部识别算法来确定在侧视镜里是否可看见第二车辆驾驶员的脸部。
根据本发明的一个实施例,分析侧视镜里的图像进一步确定第二车辆的驾驶员的注视方向。
根据本发明的一个实施例,基于从安装于主车辆的至少一个传感器接收到的数据来检测第二车辆。
根据本发明的一个实施例,安装于主车辆的传感器为雷达传感器、LIDAR传感器或者超声传感器的其中之一。
根据本发明的一个实施例,警告主车辆的驾驶员包括产生可听到的警告、可看到的警告以及触觉警告的至少其中之一。
根据本发明的一个实施例,方法进一步包括响应于确定在侧视镜里看不到第二车辆的驾驶员的脸部而自动调整主车辆的驾驶活动。
根据本发明的一方面,提供一种设备,包括:
图像处理模块,该图像处理模块配置成检测位于主车辆前面的第二车辆,该图像处理模块进一步配置成从安装于主车辆的摄像机接收第二车辆的图像;
车辆镜子检测器,该车辆镜子检测器配置成识别接收到的图像中的侧视镜;以及
面部分析模块,该面部分析模块配置成分析侧视镜里的图像以确定第二车辆的驾驶员的头部位置,该面部分析模块进一步配置成基于驾驶员的头部位置来确定第二车辆的驾驶员是否能够看见主车辆。
根据本发明的一个实施例,设备进一步包括盲区警告模块,该盲区警告模块配置成如果第二车辆的驾驶员不能够看见主车辆,则警告主车辆的驾驶员。
附图说明
参考如下附图来描述本发明的非限制性和非穷举的实施例,其中,除非另有详细说明,否则相似的附图标记在各附图中始终指的是相似的部件。
图1为举例说明包括自动化驾驶/辅助系统的车辆控制系统的实施例的框图;
图2为举例说明盲区检测系统的实施例的框图;
图3举例说明具有在相同方向行驶的多台车辆的多车道道路的示例;
图4举例说明具有在相同方向行驶的多台车辆的多车道道路的另一个示例;
图5举例说明车辆侧视镜中的示例图像,其显示出驾驶员在观察侧视镜;
图6举例说明车辆侧视镜中的示例图像,其显示出驾驶员将目光从侧视镜移开;
图7为举例说明检测第二车辆的盲区的方法的实施例的流程图;
图8为举例说明确定第二车辆的驾驶员是否在察看主车辆的方法的实施例的流程图。
具体实施方式
在如下公开中,参考构成本发明一部分的附图,并且在附图中通过举例说明的方式示出了可实践本发明的具体实施方式。应该理解的是,可利用其他实施方式,并且在不脱离本发明的范围的情况下可做出结构变化。说明书中对“一个实施例”、“实施例”、“示例实施例”等的引用表明所述的实施例可包括特定特征、结构或者特点,但是每个实施例可不必包括该特定特征、结构或者特点。而且,这种措词未必指的是相同的实施例。进一步地,当与实施例有关地描述特定特征、结构或者特点时,主张的是,不论是否做出明确的描述,影响与其他实施例有关的该特征、结构或者特点是在本领域技术人员的认知内的。
本文中所公开的系统、装置以及方法的实施方式可包括或者利用包括计算机硬件的专用或者通用计算机,比如,像本文中所讨论的,该计算机硬件为例如一个或多个处理器或者系统存储器。本发明范围内的实施方式还可包括用于携带或者存储计算机可执行指令和/或数据结构的物理和其他计算机可读介质。该计算机可读介质可为能够由通用或者专用计算机系统来存取的任何可用的介质。存储计算机可执行指令的计算机可读介质为计算机存储介质(装置)。携带计算机可执行指令的计算机可读介质为传输介质。因此,通过举例并且不受限制的方式,本发明的实施方式可包括至少两个明显不同类型的计算机可读介质:计算机存储介质(装置)和传输介质。
计算机存储介质(装置)包括随机存取存储器(Random-Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,EEPROM)、光盘只读存储器(Compact Disc Read-OnlyMemory,CD-ROM)、固态驱动器(Solid State Drive,“SSD”)(例如,基于随机存取存储器)、闪速存储器、相变存储器(Phase-Change Memory,“PCM”)、其他类型的存储器、其他光盘存储装置、磁盘存储装置或者其他磁性存储装置,或者能够用来存储计算机可执行指令或者数据结构形式的期望程序代码手段并且能够由通用或者专用计算机来存取的任何其他介质。
本文中所公开的装置、系统以及方法的实施方式可在计算机网络上进行通信。“网络”定义为能够实现电子数据在计算机系统和/或模块和/或其他电子装置之间进行传输的一条或多条数据链路。当在网络或者另外的通信连接(硬连线、无线或者硬连线或无线的结合)上向计算机传递或者提供信息时,该计算机将该连接适当地视为传输介质。传输介质可包括网络和/或数据链路,其能够用来携带计算机可执行指令或者数据结构形式的期望程序代码手段并且能够由通用或者专用计算机来存取。以上所述的组合也应该包含在计算机可读介质的范围内。
计算机可执行指令包括例如当在处理器执行时使通用计算机、专用计算机或者专用处理装置执行某个功能或者功能组的指令和数据。计算机可执行指令可为例如二进制数、中间格式指令(例如汇编语言)乃至源代码。尽管以特定于结构特征和/或方法动作的语言描述了本发明的主题,但是应该理解的是,所附权利要求中限定的主题未必受限于本文中描述的所述特征或者动作。相反,所述特征和动作被公开为实施权利要求的示例形式。
本领域的技术人员将领会的是,可在具有多种计算机系统配置的网络计算环境中实践本发明,该计算机系统配置包括内置式车辆计算机、个人计算机、台式计算机、膝上型计算机、消息处理器、手持式装置、多处理器系统、基于微处理器的或者可编程的消费电子产品、网络个人计算机(Personal Computer,PC)、小型计算机、大型计算机、移动电话、个人数字助理(Personal Digital Assistant,PDA)、平板电脑、寻呼机、路由器、交换机、各种存储装置等。还可在分布式系统环境中实践本发明,在该分布式系统环境中,经由网络(通过硬连线数据链路、无线数据链路或者通过硬连线数据链路和无线数据链路的结合)连接起来的本地和远程计算机系统都执行任务。在分布式系统环境中,程序模块可位于本地和远程存储装置中。
进一步地,在适当的情况下,本文中所述的功能可在硬件、软件、固件、数字部件或者模拟部件的一个或多个中执行。例如,一个或多个专用集成电路(application specificintegrated circuit,ASIC)可编程为实现本文中所述的一个或多个系统和程序。某些术语在说明书和权利要求书中始终用来指特定的系统部件。如本领域的技术人员将领会的,可用不同的名称指称部件。本文并非意在区分名称不同但功能相同的部件。
应该注意的是,本文中所讨论的传感器实施例可包括用来执行其至少一部分功能的计算机硬件、软件、固件或其任意组合。例如,传感器可包括配置成在一个或多个处理器中执行的计算机代码,并且可包括由该计算机代码控制的硬件逻辑/电气电路。本文中提供这些示例装置的目的是为了举例说明,而非意在做出限制。如相关技术领域的技术人员将已知的,本发明的实施例可在更多类型的装置中实现。
本发明的至少一些实施例是针对包括存储在任何计算机可用介质上的这种逻辑(例如,以软件的形式)的计算机程序产品。当在一个或多个数据处理装置中执行时,这种软件使装置像本文中描述的那样运行。
如本文中所使用的,主车辆指的是包含盲区检测系统的车辆,并且第二车辆指的是接近该主车辆的另一台车辆。如本文中所讨论的,该主车辆检测一台或多台第二车辆的盲区。进一步地,该主车辆可确定第二车辆的驾驶员是否有可能看见该主车辆。
盲区为车辆的驾驶员不能看见或者驾驶员难以看见的靠近车辆的区域。在车辆镜子所提供的覆盖范围中的车辆结构(例如,立柱)、头枕、乘客、货物以及缝隙都能够造成盲区。示例的盲区包括驾驶员左肩上面的区域、驾驶员右肩上面的区域以及车辆后面的区域。
本发明通常涉及用于自动化或者辅助驾驶的方法、系统以及设备,尤其是,涉及检测一台或多台附近车辆的盲区。依据一个实施例,一种方法使用主车辆中的盲区检测系统来检测在相邻的交通车道中位于主车辆前面的第二车辆。该方法确定第二车辆的位置和第二车辆的大小。盲区检测系统基于第二车辆的大小来估计与第二车辆相关的车辆类别。该方法进一步识别第二车辆上的侧视镜位置并且基于车辆类别和侧视镜位置来检测与第二车辆相关的盲区。该方法然后基于车辆类别和侧视镜位置来确定主车辆是否在第二车辆的盲区中。
依据另一个实施例,一种方法使用主车辆中的盲区检测系统来检测在相邻的交通车道中位于主车辆前面的第二车辆。该方法从安装于主车辆的摄像机接收第二车辆的图像并且识别所接收图像中的侧视镜。该方法分析侧视镜中的图像以确定第二车辆的驾驶员的头部位置。该方法进一步基于该第二车辆的驾驶员的头部位置来确定第二车辆的驾驶员是否有可能看见该主车辆。
尽管本文中所讨论的特定示例指的是轿车和相似类型的车辆,但是本文中所述的系统和方法可应用到任何类型的车辆。例如,盲区检测系统和方法在轿车、所有尺寸的卡车、厢式货车、客车、摩托车等中是有用的。所述的系统和方法对于其他驾驶员更难看见以及可能完全隐藏在盲区中的较小的轿车和摩托车特别有用。
图1为举例说明可用来检测附近车辆中的盲区的车辆控制系统100的实施例的框图。自动化驾驶/辅助系统102可用来自动化或控制车辆的运行或者用来向人类驾驶员提供帮助。例如,自动化驾驶/辅助系统102可控制制动、转向、加速、灯光、警告、驾驶员通知、无线电广播或者车辆的任何其他辅助系统的一个或多个。在另一个示例中,自动化驾驶/辅助系统102可不提供驾驶(例如,转向、加速或者制动)的任何控制,但是可提供通知和警告以在安全驾驶方面对人类驾驶员提供帮助。自动化驾驶/辅助系统102可包括盲区检测系统104,该盲区检测系统104使用车辆传感器数据、车载摄像机数据以及一个或多个处理器来检测附近车辆的盲区以及确定另一台车辆的驾驶员是否可看见其中安装有盲区检测系统104的车辆。在一个实施例中,自动化驾驶/辅助系统102可确定驾驶操纵或者驾驶路径来减少或者消除在其他车辆的盲区中驾驶所花费的时间。
车辆控制系统100还包括用于检测附近目标的存在或者确定母车辆(例如,包括车辆控制系统100的车辆)的位置的一个或多个传感器系统/装置。例如,车辆控制系统100可包括雷达系统106、一个或多个光探测和测距(Light Detection And Ranging,LIDAR)系统108、一个或多个摄像机系统110、全球定位系统(Global Positioning System,GPS)112和/或超声系统114。一个或多个摄像机系统110可包括安装于车辆的正面摄像机。车辆控制系统100可包括用于存储相关的或者有用的导航和安全数据(例如地图数据、驾驶历史或者其他数据)的数据存储器116。车辆控制系统100还可包括用于与移动或无线网络、其他车辆、基础设施或者任何其他通信系统进行无线通信的收发器118。
车辆控制系统100可包括用来控制车辆驾驶的各个方面的车辆控制致动器120(例如用来控制制动、加速、转向等的电动马达、开关或者其他致动器)。车辆控制系统100还可包括一个或多个显示器122、扬声器124或者其他装置,以便可向人类驾驶员或者乘客提供通知。显示器122可包括车辆的驾驶员或者乘客可看见的抬头显示器、仪表盘显示器或指示器、显示屏或者任何其他视觉指示器。扬声器124可包括车辆音响系统的一个或多个扬声器或者可包括专用于驾驶员通知的扬声器。
要领会的是,图1的实施例只是通过示例给出的。在不脱离本发明的范围的情况下,其他实施例可包括较少的或者额外的部件。此外,举例说明的部件可不受限制地结合或者包括在其他部件中。
在一个实施例中,自动化驾驶/辅助系统102配置成控制母车辆的驾驶或者导航。例如,自动化驾驶/辅助系统102可控制车辆控制致动器120在道路、停车场、行车道或者其他位置驾驶一段路程。例如,自动化驾驶/辅助系统102可基于由部件106-118中的任何部件所提供的信息或者感知数据来确定路径。传感器系统/装置106-110和114可用来获取实时的传感器数据,以便自动化驾驶/辅助系统102能够实时地帮助驾驶员或者驾驶车辆。
在一些实施例中,车辆控制系统100所包含的部件可少于图1中所显示的那些部件。例如,用于摩托车的车辆控制系统100的实施例可包含较少的部件,这是因为在摩托车上可用于这些部件的空间有限。
图2为举例说明盲区检测系统104的实施例的框图。如图2中所示,盲区检测系统104包括通信管理器202、处理器204以及存储器206。通信管理器202允许盲区检测系统104与其他系统(例如自动化驾驶/辅助系统102)进行通信。处理器204执行各种指令以实现盲区检测系统104所提供的以及本文中所讨论的功能。存储器206不但存储包含在盲区检测系统104中的处理器204和其他模块所使用的其他数据,而且存储这些指令。
此外,盲区检测系统104包括分析从一个或多个摄像机接收到的图像的图像处理模块208。例如,图像处理模块208可识别靠近主车辆的第二车辆(即,靠近主车辆可能会具有盲区的第二车辆)。在一些实施例中,图像处理模块208可识别一个或多个图像(例如车辆侧视镜和那些侧视镜中所显示的图像)中的目标。图像处理模块208使用各种图像分析算法和技术来识别图像中的目标。在一些实施例中,该图像分析算法和技术包括基于例如卷积神经网络架构或者递归神经网络架构的以机器学习为基础的人工智能算法。
车辆分析模块210分析图像数据和其他信息以确定靠近主车辆的第二车辆的位置、大小、类型以及方向。如本文中所讨论的,第二车辆的位置、大小、类型以及方向是用来确定与该车辆相关的盲区。当分析第二车辆时,车辆分析模块210不但可使用来自一个或多个车辆传感器(例如雷达传感器、光探测和测距(Light Detection And Ranging,LIDAR)传感器以及超声传感器)的数据,而且可使用图像数据。与第二车辆相关的车辆的类型(或者车辆的类别)包括例如小型轿车、标准尺寸的轿车、卡车、厢式货车、客车等。这些不同类型的车辆因其不同的形状和大小而具有不同的盲区(也称为盲区地带)。
盲区检测系统104还包括能够识别脸部、用户的注视方向以及用户的头部位置的面部分析模块212。如在本文中非常详细讨论的,面部分析模块212可分析侧视镜中的图像以确定第二车辆的驾驶员是否在观察该侧视镜或者在看不同的方向。例如,面部识别算法可确定在该侧视镜中是否可看见第二车辆的驾驶员的脸部,这表明第二车辆的驾驶员在观察该侧视镜。车辆镜子检测器214识别第二车辆上的镜子(例如侧视镜)。如本文中所讨论的,第二车辆的镜子可在安装于主车辆的摄像机所撷取的第二车辆图像中识别出。
盲区估计器216基于各种因素(例如第二车辆的位置、大小、类型以及方向)来估计第二车辆的盲区。如果主车辆当前处于第二车辆的盲区中或者即将驶入第二车辆的盲区中,则盲区警告模块218向主车辆的驾驶员(或者主车辆的自动化驾驶系统)产生警告或者警示。该警告或者警示可为可听到的警告、可看到的警告、触觉警告等。机器学习模块220基于实际驾驶活动的测试数据和结果来学习关于车辆类别、车辆盲区以及相关数据的各种信息。
在一些实施例中,盲区检测系统104可(例如,使用车辆对车辆(vehicle-to-vehicle,V2V)通信系统)与其他车辆(例如,第二车辆)进行通信以从那些其他车辆接收关于其盲区的信息。例如,随着主车辆接近相邻车道中的第二车辆,该第二车辆可将关于该第二车辆的盲区的信息传送到该主车辆。随着该主车辆接近并且经过该第二车辆,该主车辆利用该信息来做出任何必要的速度或者转向调整。
图3举例说明具有在相同方向行驶的多台车辆302和304的多车道道路300的示例。道路300包括三条车道306、308以及310。在图3的示例中,车辆302为主车辆,并且车辆304为第二车辆。第二车辆304具有驾驶员左肩上面的第一盲区314以及驾驶员右肩上面的第二盲区318。盲区314由虚线312a和312b来近似地限定。类似地,盲区318由虚线316a和316b来近似地限定。盲区314和318是作为示例显示。特定车辆的盲区的具体形状、大小和方向根据各种因素(例如车辆大小、类型、方向等)而变化。在一些实施例中,在第二车辆304的后面存在另外的盲区。
如图3中所示,主车辆302正在接近盲区314。主车辆302包括与本文中所讨论的盲区检测系统104相似的盲区检测系统326。主车辆302还包括至少一个摄像机324以及两个雷达传感器320和322。在特定的实施方式中,车辆302可包括任意数量的摄像机、任意数量的雷达传感器以及其他传感器(例如,LIDAR传感器和超声传感器)。如本文中所讨论的,摄像机324能够撷取主车辆302周围区域的图像以识别相邻车道中的第二车辆。此外,摄像机324能够撷取特定第二车辆的图像(例如包括第二车辆的侧视镜的图像)。在一些实施例中,利用摄像机324所撷取的图像来确定第二车辆的大小、位置、方向以及类型。雷达传感器320和322也识别接近主车辆302的第二车辆和该第二车辆的某些特点。在一些实施例中,当第二车辆与主车辆非常接近时,利用超声检测器来确定第二车辆的位置。雷达传感器能够检测离主车辆较远的第二车辆。LIDAR传感器用来确定主车辆和第二车辆之间的距离。摄像机和摄像机图像用于确定第二车辆类型、大小、侧视镜位置等。
图4举例说明具有在相同方向行驶的多台车辆402和404的多车道道路400的另一个示例。道路400包括两条车道406和408。在图4的示例中,车辆402为主车辆,并且车辆404为第二车辆。主车辆402包括能够撷取第二车辆404的图像的摄像机410。尽管图4中未示出,但是主车辆402还包括车辆控制系统(包括盲区检测系统)。在一些实施例中,主车辆402还可包括附加的摄像机和一个或多个传感器(例如雷达传感器、LIDAR传感器以及超声传感器)。
在图4的示例中,摄像机410能够撷取第二车辆404的至少一部分的图像。在该示例中,摄像机410撷取第二车辆404左侧包括左侧视镜414的图像。虚线412a和412b示出了摄像机的图像撷取边界。在一些实施例中,可调整摄像机410的图像撷取边界以改变每个图像中所撷取的区域的大小。如本文中所讨论的,盲区检测系统能够分析来自摄像机410的图像数据以识别与第二车辆404相关的车辆的大小、位置以及类型。此外,盲区检测系统可利用来自摄像机410的图像数据来识别侧视镜414和识别侧视镜414中所显示的图像(例如,来确定第二车辆404的驾驶员是否在观察侧视镜414或者将目光从侧视镜414移开)。
图5举例说明车辆侧视镜500中的示例图像,其显示出驾驶员在观察该侧视镜。图5的示例举例说明第二车辆的侧视镜中所显示的图像,其表明该第二车辆的驾驶员在观察该侧视镜。在这种情况下,盲区检测系统能够确定极有可能该第二车辆的驾驶员能够在该侧视镜中看见该主车辆。由于安装于该主车辆的摄像机能够看见该第二车辆的驾驶员的脸部,因此很可能该驾驶员也能够在该侧视镜中看见该主车辆。因为随着主车辆接近第二车辆,第二车辆的驾驶员有可能看见主车辆并且察觉到主车辆,所以这种情况降低了驶过第二车辆的盲区的风险。
图6举例说明车辆侧视镜600中的示例图像,其显示出驾驶员将目光从该侧视镜移开。图6的示例举例说明第二车辆的侧视镜中所显示的图像,其表明该第二车辆的驾驶员将目光从该侧视镜移开。在这种情况下,盲区检测系统能够确定极有可能该第二车辆的驾驶员未在该侧视镜中看见主车辆。由于该第二车辆的驾驶员将目光从该主车辆移开,因此该驾驶员不大可能看见该主车辆。因为第二车辆的驾驶员可能看不见主车辆在接近并且驶过盲区,所以这种情况增加了驶过第二车辆的盲区的风险。因此,第二车辆的驾驶员可能未察觉到主车辆的存在。
图7为举例说明检测第二车辆的盲区的方法700的实施例的流程图。首先,在702,主车辆中的盲区检测系统识别在相邻车道中位于主车辆前面的第二车辆。如本文中所述,盲区检测系统利用车载摄像机和一个或多个传感器(例如雷达传感器、LIDAR传感器以及超声传感器)来识别第二车辆。在704,盲区检测系统确定第二车辆的位置、大小以及方向。在一些实施例中,基于传感器数据来确定第二车辆的位置、大小以及方向,该传感器数据包括雷达传感器数据、LIDAR传感器数据、超声传感器数据等的一种或多种。
在706,盲区检测系统基于第二车辆的位置、大小以及方向的一个或多个来估计与第二车辆相关的车辆类别或者类型。在一些实施例中,基于传感器数据来确定第二车辆的位置、大小以及方向,该传感器数据包括雷达传感器数据、LIDAR传感器数据、超声传感器数据等的一种或多种。随着在708盲区检测系统识别出第二车辆上的一个或多个侧视镜位置,方法700继续。在710,盲区检测系统然后基于车辆类别和侧视镜位置来确定与第二车辆相关的多个盲区。在一些实施例中,以机器学习为基础的算法基于之前的多次确定和之前的算法训练来确定与第二车辆相关的多个盲区。
在识别出第二车辆的盲区之后,在712,该方法确定主车辆是否处于(或者在接近)第二车辆的盲区中。如果主车辆处于(或者在接近)第二车辆的盲区中,则在714盲区检测系统警告主车辆的驾驶员其处于(或者在接近)第二车辆的盲区中。响应于该警告,驾驶员可减速或者改变车道以避免驶过盲区或者驾驶员可提高主车辆的速度以将穿过盲区所需的时间降到最少。如果由自动化驾驶系统来控制主车辆,则该系统可基于盲区的存在而调整主车辆的速度或者驾驶活动。
如果主车辆没有处于(或者在接近)第二车辆的盲区中,则该方法继续监测第二车辆以确定主车辆是否接近或者进入第二车辆的盲区。
图8为举例说明确定第二车辆的驾驶员是否在察看主车辆的方法800的实施例的流程图。首先,在802,盲区检测系统接收第二车辆的侧视镜的一个或多个图像。在804,盲区检测系统识别第二车辆的侧视镜中的图像。随着在806盲区检测系统分析第二车辆的侧视镜中的图像以检测驾驶员的头部位置和注视方向,该方法继续。例如,第二车辆的侧视镜中的图像可包括驾驶员的脸部、驾驶员头部的侧面、驾驶员头部的后面或者一些其他目标。如果驾驶员的头部位置正面向侧视镜,则该图像将显示驾驶员的脸部。然而,如果驾驶员的头部位置没有面向侧视镜(例如,直视前方或者将目光从该侧视镜移开),则在该图像中将看到驾驶员头部的侧面或者后面。
随着在808盲区检测系统确定第二车辆的驾驶员是否有可能看见主车辆,方法800继续。例如,如果在侧视镜中可看见驾驶员的脸部,则有可能驾驶员能够在侧视镜中看见主车辆。然而,如果在侧视镜中可看见驾驶员头部的侧面或者后面,则有可能驾驶员不能够看见主车辆。在一些实施例中,利用面部识别算法来确定在侧视镜中是否可看见第二车辆的驾驶员的脸部。如果在810第二车辆的驾驶员不能够看见主车辆,则随着在812盲区检测系统警告主车辆的驾驶员其不能够被第二车辆的驾驶员看见,该方法继续。响应于该警告,驾驶员可减速或者改变车道以避免驶过盲区或者驾驶员可提高主车辆的速度以将穿过盲区所需的时间降到最少。如果由自动化驾驶系统来控制主车辆,则该系统可基于盲区的存在而调整主车辆的速度或者驾驶活动。
随着在814盲区检测系统接收第二车辆的侧视镜的更新图像,方法800继续。该方法继续进行804以识别更新图像的侧视镜中的图像。
在一些实施例中,利用以深入学习和/或机器学习为基础的技术来执行第二车辆检测和盲区估计。例如,以机器学习为基础的算法可从多个传感器(例如雷达传感器、LIDAR传感器、超声传感器)以及摄像机获取输入。来自多个传感器的数据经过包括若干不同类型的分层架构的神经网络(例如卷积的、去卷积以及递归的)的若干层。在替代的实施例中,利用其他类型的以深入学习和/或机器学习为基础的技术来检测第二车辆和估计车辆盲区。
虽然本文中描述了本发明的各种实施例,但是应该理解的是,这些实施例只是通过示例的方式来呈现,而并非是限制性的。对相关技术领域的技术人员而言,将显而易见的是,在不脱离本发明的精神和范围的情况下,能够对本发明做出各种形式和细节上的改变。因此,本发明的广度和范围不应该受到所述任何示范性实施例的限制,而是应该只根据如下权利要求及其等同范围来限定。本文中呈现的描述是为了阐述和说明。其并非意在穷举或者将本发明限制成所公开的确切形式。根据所公开的教导可做出很多修改和变化。进一步地,应该注意的是,可通过期望用来形成本发明额外的混合实施方式的任何组合来使用本文中所讨论的任何或者所有替代实施方式。
Claims (15)
1.一种盲区检测方法,所述方法包括:
由主车辆检测位于所述主车辆前面的第二车辆;
从安装于所述主车辆的摄像机接收所述第二车辆的图像;
识别接收到的所述图像中的侧视镜;
分析所述侧视镜里的图像以确定第二车辆驾驶员的头部位置,并确定所述第二车辆驾驶员的脸部在所述侧视镜的图像中是否可见;以及
基于所述驾驶员的所述头部位置来确定所述驾驶员是否能够看见所述主车辆。
2.根据权利要求1所述的方法,其中基于从安装于所述主车辆的至少一个摄像机接收到的数据来检测所述第二车辆。
3.根据权利要求1所述的方法,进一步包括响应于确定所述第二车辆驾驶员不能够看见所述主车辆而警告所述主车辆的驾驶员。
4.根据权利要求1所述的方法,其中警告所述主车辆的所述驾驶员包括产生可听到的警告、可看到的警告以及触觉警告的至少其中之一。
5.根据权利要求1所述的方法,进一步包括响应于确定所述第二车辆驾驶员不能够看见所述主车辆而自动调整所述主车辆的速度。
6.根据权利要求1所述的方法,进一步包括响应于确定所述第二车辆驾驶员不能够看见所述主车辆而自动调整所述主车辆的驾驶活动。
7.一种盲区检测方法,所述方法包括:
由主车辆中的盲区检测系统检测在相邻的交通车道中位于所述主车辆前面的第二车辆;
从安装于所述主车辆的摄像机接收所述第二车辆的图像;
识别接收到的所述图像中的侧视镜;
分析所述侧视镜里的图像以确定第二车辆驾驶员的头部位置并且确定在所述侧视镜里是否可看到所述第二车辆的驾驶员的脸部;
基于所述第二车辆的所述驾驶员的所述头部位置来确定所述第二车辆的所述驾驶员是否有可能看见所述主车辆;以及
响应于确定所述第二车辆驾驶员不能够看见所述主车辆而警告所述主车辆的驾驶员。
8.根据权利要求1或7所述的方法,其中分析所述侧视镜里的所述图像进一步包括利用面部识别算法来确定在所述侧视镜里是否可看见所述第二车辆驾驶员的所述脸部。
9.根据权利要求1或7所述的方法,其中分析所述侧视镜里的所述图像进一步确定所述第二车辆的所述驾驶员的注视方向。
10.根据权利要求1或7所述的方法,其中基于从安装于所述主车辆的至少一个传感器接收到的数据来检测所述第二车辆。
11.根据权利要求10所述的方法,其中安装于所述主车辆的所述传感器为雷达传感器、LIDAR传感器或者超声传感器的其中之一。
12.根据权利要求7所述的方法,其中警告所述主车辆的所述驾驶员包括产生可听到的警告、可看到的警告以及触觉警告的至少其中之一。
13.根据权利要求7所述的方法,进一步包括响应于确定在所述侧视镜里看不到所述第二车辆的所述驾驶员的所述脸部而自动调整所述主车辆的驾驶活动。
14.一种盲区检测设备,所述设备包括:
图像处理模块,所述图像处理模块配置成检测位于主车辆前面的第二车辆,所述图像处理模块进一步配置成从安装于所述主车辆的摄像机接收所述第二车辆的图像;
车辆镜子检测器,所述车辆镜子检测器配置成识别接收到的所述图像中的侧视镜;以及
面部分析模块,所述面部分析模块配置成分析所述侧视镜里的图像以确定所述第二车辆的驾驶员的头部位置以及在所述侧视镜里是否可看到所述第二车辆的驾驶员的脸部,所述面部分析模块进一步配置成基于所述驾驶员的所述头部位置来确定所述第二车辆的所述驾驶员是否能够看见所述主车辆。
15.根据权利要求14所述的设备,进一步包括盲区警告模块,所述盲区警告模块配置成如果所述第二车辆的所述驾驶员不能够看见所述主车辆,则警告所述主车辆的驾驶员。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/181,263 | 2016-06-13 | ||
US15/181,263 US10115025B2 (en) | 2016-06-13 | 2016-06-13 | Detecting visibility of a vehicle to driver of other vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107487258A CN107487258A (zh) | 2017-12-19 |
CN107487258B true CN107487258B (zh) | 2022-05-17 |
Family
ID=59349996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710427241.8A Active CN107487258B (zh) | 2016-06-13 | 2017-06-08 | 盲区检测系统和方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10115025B2 (zh) |
CN (1) | CN107487258B (zh) |
DE (1) | DE102017112788A1 (zh) |
GB (1) | GB2553616A (zh) |
MX (1) | MX2017007671A (zh) |
RU (1) | RU2017120288A (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10571908B2 (en) | 2016-08-15 | 2020-02-25 | Ford Global Technologies, Llc | Autonomous vehicle failure mode management |
US10611381B2 (en) | 2017-10-24 | 2020-04-07 | Ford Global Technologies, Llc | Decentralized minimum risk condition vehicle control |
US10726645B2 (en) | 2018-02-16 | 2020-07-28 | Ford Global Technologies, Llc | Vehicle diagnostic operation |
DE102018207406A1 (de) * | 2018-05-14 | 2019-11-14 | Bayerische Motoren Werke Aktiengesellschaft | Sichtfeldbestimmung |
CN108764115B (zh) * | 2018-05-24 | 2021-12-14 | 东北大学 | 一种卡车危险提醒方法 |
US10474930B1 (en) * | 2018-10-05 | 2019-11-12 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
US10984262B2 (en) * | 2018-10-08 | 2021-04-20 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
CN111223331B (zh) | 2018-11-26 | 2022-10-18 | 华为云计算技术有限公司 | 车辆预警方法及相关装置 |
US10635915B1 (en) * | 2019-01-30 | 2020-04-28 | StradVision, Inc. | Method and device for warning blind spot cooperatively based on V2V communication with fault tolerance and fluctuation robustness in extreme situation |
US11072342B2 (en) * | 2019-02-19 | 2021-07-27 | Toyota Research Institute, Inc. | Actively adapting to driving environments based on human interactions |
CN109934175B (zh) * | 2019-03-15 | 2021-07-06 | 百度在线网络技术(北京)有限公司 | 一种车辆导航方法、装置、电子设备及存储介质 |
CN110077350A (zh) * | 2019-03-22 | 2019-08-02 | 上海思致汽车工程技术有限公司 | 一种他车盲区报警系统 |
KR20210017315A (ko) * | 2019-08-07 | 2021-02-17 | 엘지전자 주식회사 | 차량의 장애물 경고 방법 |
CN112428953A (zh) * | 2019-08-23 | 2021-03-02 | 长城汽车股份有限公司 | 一种盲区监测报警方法及装置 |
CN115593402A (zh) * | 2019-09-04 | 2023-01-13 | 赵婷婷(Cn) | 用于控制运载工具的系统、方法及机器可读介质 |
DE102019213460A1 (de) * | 2019-09-05 | 2021-03-11 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Ausgabe einer Warninformation an den Fahrer eines einspurigen Fahrzeugs |
US11462021B2 (en) * | 2021-01-13 | 2022-10-04 | GM Global Technology Operations LLC | Obstacle detection and notification for motorcycles |
DE102022201699A1 (de) | 2022-02-18 | 2023-08-24 | Zf Friedrichshafen Ag | Computer-implementiertes Verfahren und Vorrichtung zum Erhöhen der Sicherheit eines ersten Fortbewegungsmittels in Bezug auf zumindest ein zweites Fortbewegungsmittel |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016024396A1 (ja) * | 2014-08-11 | 2016-02-18 | セイコーエプソン株式会社 | 撮像装置、撮像表示装置、及び、車両 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7630806B2 (en) * | 1994-05-23 | 2009-12-08 | Automotive Technologies International, Inc. | System and method for detecting and protecting pedestrians |
ATE515408T1 (de) * | 2003-03-26 | 2011-07-15 | Skjp Holdings Llc | Fahrzeugsspiegelanordnung |
JP4277081B2 (ja) * | 2004-03-17 | 2009-06-10 | 株式会社デンソー | 運転支援装置 |
US8190355B2 (en) | 2007-10-10 | 2012-05-29 | International Business Machines Corporation | Driving assistance and monitoring |
JP2009187424A (ja) | 2008-02-08 | 2009-08-20 | Alpine Electronics Inc | 周辺監視装置および周辺監視方法 |
JP5022272B2 (ja) | 2008-03-03 | 2012-09-12 | 本田技研工業株式会社 | 走行支援装置 |
JP4561863B2 (ja) | 2008-04-07 | 2010-10-13 | トヨタ自動車株式会社 | 移動体進路推定装置 |
WO2011028686A1 (en) * | 2009-09-01 | 2011-03-10 | Magna Mirrors Of America, Inc. | Imaging and display system for vehicle |
KR101231510B1 (ko) * | 2010-10-11 | 2013-02-07 | 현대자동차주식회사 | 운전자 주시방향 연동 전방충돌 위험경보 시스템, 그 방법 및 그를 이용한 차량 |
JP2012221116A (ja) | 2011-04-06 | 2012-11-12 | Koito Mfg Co Ltd | 車両用危険予知システム |
US20130311075A1 (en) | 2012-05-18 | 2013-11-21 | Continental Automotive Systems, Inc. | Motorcycle and helmet providing advance driver assistance |
US9180882B1 (en) | 2012-06-20 | 2015-11-10 | Google Inc. | Avoiding blind spots of other vehicles |
CN202686138U (zh) * | 2012-07-19 | 2013-01-23 | 西北工业大学 | 一种服务于汽车安全驾驶的嵌入式全景显示装置 |
US9751534B2 (en) * | 2013-03-15 | 2017-09-05 | Honda Motor Co., Ltd. | System and method for responding to driver state |
CN104648248A (zh) * | 2013-11-22 | 2015-05-27 | 莫儒 | 环视汽车盲区安全影像头 |
US20160046236A1 (en) * | 2014-08-13 | 2016-02-18 | Sensory, Incorporated | Techniques for automated blind spot viewing |
WO2017056401A1 (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 制御装置、制御方法及びプログラム |
CN108604416A (zh) * | 2016-03-11 | 2018-09-28 | 三菱电机株式会社 | 车载装置、警报输出方法以及警报输出程序 |
-
2016
- 2016-06-13 US US15/181,263 patent/US10115025B2/en active Active
-
2017
- 2017-06-06 GB GB1708983.0A patent/GB2553616A/en not_active Withdrawn
- 2017-06-08 CN CN201710427241.8A patent/CN107487258B/zh active Active
- 2017-06-09 RU RU2017120288A patent/RU2017120288A/ru not_active Application Discontinuation
- 2017-06-09 DE DE102017112788.7A patent/DE102017112788A1/de active Pending
- 2017-06-12 MX MX2017007671A patent/MX2017007671A/es unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016024396A1 (ja) * | 2014-08-11 | 2016-02-18 | セイコーエプソン株式会社 | 撮像装置、撮像表示装置、及び、車両 |
Non-Patent Citations (1)
Title |
---|
《基于CATIA的车侧盲区辅助影像系统设计》;金小红等;《机电技术》;20140228;83-92 * |
Also Published As
Publication number | Publication date |
---|---|
US10115025B2 (en) | 2018-10-30 |
GB201708983D0 (en) | 2017-07-19 |
DE102017112788A1 (de) | 2017-12-14 |
CN107487258A (zh) | 2017-12-19 |
GB2553616A (en) | 2018-03-14 |
RU2017120288A (ru) | 2018-12-10 |
US20170357859A1 (en) | 2017-12-14 |
MX2017007671A (es) | 2018-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107487258B (zh) | 盲区检测系统和方法 | |
US20170355263A1 (en) | Blind Spot Detection Systems And Methods | |
CN107844796B (zh) | 冰和雪的检测系统和方法 | |
US11126877B2 (en) | Predicting vehicle movements based on driver body language | |
CN107545232B (zh) | 车道探测系统和方法 | |
CN108693541B (zh) | 障碍检测系统和方法 | |
US10055652B2 (en) | Pedestrian detection and motion prediction with rear-facing camera | |
US10800455B2 (en) | Vehicle turn signal detection | |
US20180239361A1 (en) | Autonomous Driving At Intersections Based On Perception Data | |
US10086830B2 (en) | Accident attenuation systems and methods | |
US10259455B2 (en) | Collision avoidance systems and methods | |
US20160167579A1 (en) | Apparatus and method for avoiding collision | |
JP2022543936A (ja) | 道路環境情報の自動化クラウドソーシング | |
EP2797027A1 (en) | A vehicle driver alert arrangement, a vehicle and a method for alerting a vehicle driver | |
Adla et al. | Automotive collision avoidance methodologies Sensor-based and ITS-based | |
US11590845B2 (en) | Systems and methods for controlling a head-up display in a vehicle | |
US10409286B2 (en) | Highway detection systems and methods | |
CN115107641A (zh) | 灯光投影装置、方法及存储介质 | |
US12030512B2 (en) | Collision warning system for a motor vehicle having an augmented reality head up display | |
US20230322248A1 (en) | Collision warning system for a motor vehicle having an augmented reality head up display | |
US20240239352A1 (en) | Systems and methods for detecting speeding violations | |
Samnotra et al. | Collision avoider using lane departure warning | |
KR20230143245A (ko) | 차량 우회전 안전 확보 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |