CN111746399A - 驾驶辅助装置 - Google Patents
驾驶辅助装置 Download PDFInfo
- Publication number
- CN111746399A CN111746399A CN202010224592.0A CN202010224592A CN111746399A CN 111746399 A CN111746399 A CN 111746399A CN 202010224592 A CN202010224592 A CN 202010224592A CN 111746399 A CN111746399 A CN 111746399A
- Authority
- CN
- China
- Prior art keywords
- driver
- vehicle
- driving assistance
- unit
- polarization filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010287 polarization Effects 0.000 claims abstract description 56
- 230000009471 action Effects 0.000 claims description 49
- 238000001514 detection method Methods 0.000 claims description 30
- 230000004438 eyesight Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 38
- 230000033001 locomotion Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000010391 action planning Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Blocking Light For Cameras (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及一种驾驶辅助装置。驾驶辅助装置(10)具有摄像头(44)、偏振滤光器(76)、自动调整处理部(70)和偏振滤光器调整部(74),其中,所述摄像头(44)检测本车辆(12)的周围的物体;所述偏振滤光器(76)被设置于摄像头(44);所述自动调整处理部(70)和所述偏振滤光器调整部(74)将摄像头(44)检测到的位于本车辆(12)的周围的车辆中的1个对向车辆(98)确定为偏振滤光器(76)的调整对象,且针对对向车辆(98)的透光部件区域(106)来自动调整偏振滤光器(76)。据此,能够根据调整对象的内部状况来顺利进行移动体的驾驶辅助。
Description
技术领域
本发明涉及一种对移动体的驾驶进行辅助的驾驶辅助装置。
背景技术
例如,在日本发明专利公开公报特开2013-79937号中公开了,通过摄像头(视觉传感器)来监视本车辆行驶的路面,且对监视到的路面进行分析。
发明内容
另外,例如在交叉路口内,本车辆(移动体)通常在对向车道上行驶的对向车辆(其他移动体)通过后,横穿该对向车道进行左右转弯。
另一方面,在由于对向车道交通堵塞等使得对向车辆未向行进方向前方前进而在交叉路口近前停车的情况下,本车辆能够一边注意对向车辆一边横穿对向车道进行左右转弯。此时,有时对向车辆的驾驶员会向本车辆进行示意允许本车辆在交叉路口内左右转弯的手势行动。
在本车辆的驾驶员进行驾驶操作的情况下,该驾驶员可以在确认了对向车辆的驾驶员的手势行动的基础上在交叉路口进行左右转弯。另外,在搭载于本车辆的驾驶辅助装置辅助驾驶员进行驾驶操作或者驾驶辅助装置对本车辆进行自动驾驶的情况下,可以根据对向车辆的驾驶员的手势行动来判断是否能够在交叉路口进行左右转弯,且根据该判断结果进行左右转弯。
然而,近年来,为了抑制物体映在前挡风玻璃上等,采用对可见光线或紫外线(UV)实施滤光处理(cut processing)的透光性部件作为前挡风玻璃等的车辆正在增加。其结果,处于难以从外部通过(隔着)透光性部件(透光部件区域)来视觉确认对向车辆的驾驶员的手势行动的状况。
本发明是考虑这样的技术问题而完成的,其目的在于,提供一种驾驶辅助装置,该驾驶辅助装置能够通过存在于移动体周围的物体的透光部件区域来视觉确认该物体内的状况,据此能够顺利地对移动体的驾驶进行辅助。
本发明的方式是一种对移动体的驾驶进行辅助的驾驶辅助装置,具有视觉传感器、偏振滤光器(polarizing filter)和自动调整部,其中,所述视觉传感器检测所述移动体的周围的物体;所述偏振滤光器被设置于所述视觉传感器;所述自动调整部将所述视觉传感器检测到的位于所述移动体周围的物体中的1个物体确定为所述偏振滤光器的调整对象,且确定所确定的所述调整对象中能使光透过的透光部件区域,且针对所确定的所述透光部件区域来自动调整所述偏振滤光器。
根据本发明,通过针对调整对象的透光部件区域自动调整偏振滤光器,能够通过该透光部件区域来视觉确认调整对象的内部状况。其结果,能够根据调整对象的内部状况(例如对向车辆的驾驶员的手势行动)来顺利地对移动体的驾驶进行辅助(例如,对本车辆在交叉路口内的左右转弯的行驶控制)。
根据参照附图对以下实施方式进行的说明,上述的目的、特征和优点应易于被理解。
附图说明
图1是搭载有本实施方式所涉及的驾驶辅助装置的车辆的结构图。
图2是示意性表示图1的车辆中摄像头等的配置的说明图。
图3是示意性表示本车辆在交叉路口进行右转弯的说明图。
图4是表示图1的驾驶辅助装置的动作的流程图。
图5是示意性表示通过摄像头和雷达来检测对向车辆的驾驶员的说明图。
具体实施方式
下面,列举优选的实施方式且边参照附图边对本发明所涉及的驾驶辅助装置进行说明。
[1.本实施方式的结构]
<1.1驾驶辅助装置10的整体结构>
图1是表示本发明一实施方式所涉及的驾驶辅助装置10的结构的框图。驾驶辅助装置10被组装于图2所示的车辆12(以下还称为本车辆12。),且自动或者手动进行本车辆12(移动体、本移动体)的行驶控制。另外,所谓“行驶控制”是指至少包括本车辆12的加减速控制的与本车辆12的行驶有关的控制。在“行驶控制”通过“自动驾驶”来进行的情况下,“自动驾驶”是除了包括全自动地进行本车辆12的行驶控制(驾驶辅助)的“全自动驾驶”之外,还包括半自动地进行行驶控制(驾驶辅助)的“半自动驾驶”的概念。
如图1所示,驾驶辅助装置10基本上由输入系统装置组14、控制系统16和输出系统装置组18构成。构成输入系统装置组14和输出系统装置组18的各个装置通过通信线连接于控制系统16。
输入系统装置组14具有外界传感器20、通信装置22、导航装置24(自身位置确定装置、自身位置确定部)、车辆传感器26、自动驾驶开关28和连接于操作设备30的操作检测传感器32。
输出系统装置组18具有:驱动力装置34,其驱动未图示的车轮;操舵装置36,其对该车轮进行操舵;制动装置38,其对该车轮进行制动;告知装置40,其通过视觉和听觉向驾驶员进行告知;和转向灯42,其向外部告知本车辆12进行左右转弯的方向。
<1.2输入系统装置组14的具体结构>
外界传感器20获取表示本车辆12的外界状态的信息(以下称为外界信息。),且将该外界信息输出给控制系统16。具体而言,外界传感器20构成为包括多个摄像头44(视觉传感器)、多个雷达46(使用毫米波的检测单元)、多个LiDAR(Light Detection and Ranging:光探测和测距,Laser Imaging Detection and Ranging:激光成像探测与测距)48(使用光的检测单元)、照度传感器50和GPS(Global Positioning System)传感器52(自身位置确定部,自身位置确定装置)。
照度传感器50是雨光传感器(Rain-Light Sensor),检测基于太阳光的照射等的本车辆12周边的亮度(照度)。GPS传感器52检测本车辆12的当前位置(自身位置信息)。在后面对多个摄像头44、多个雷达46和多个LiDAR48进行叙述。
通信装置22构成为能够与路侧机、其他车辆、和包括服务器的外部装置进行通信,例如收发与交通设备有关的信息、与其他车辆有关的信息、探测信息或者最新的地图信息54。该地图信息54被存储在设置于控制系统16的存储装置56的规定存储器区域内或者被存储于导航装置24。
导航装置24构成为包括能检测本车辆12的当前位置(自身位置信息)的卫星定位装置和用户接口(例如,触摸屏式的显示器、扬声器和麦克风)。因此,关于本车辆12的当前位置的检测功能,驾驶辅助装置10具有导航装置24和GPS传感器52中的至少一个装置即可。另外,导航装置24根据本车辆12的当前位置或者用户指定的指定位置,来计算至指定的目的地的路径,且将该路径输出给控制系统16。由导航装置24计算出的路径被作为路径信息58而存储在存储装置56的规定存储器区域内。
车辆传感器26包括:速度传感器,其检测本车辆12的行驶速度(车速);加速度传感器,其检测加速度;横向加速度(横G)传感器,其检测横向加速度;偏航角速率传感器,其检测绕垂直轴的角速度;方位传感器,其检测方向和方位;倾斜度传感器,其检测倾斜度,车辆传感器26将来自各传感器的检测信号输出给控制系统16。这些检测信号作为本车辆信息60被存储在存储装置56的规定存储器区域内。
自动驾驶开关28例如由按钮式的硬件开关、或者使用导航装置24的软件开关来构成。自动驾驶开关28构成为,能够通过包括驾驶员的用户的手动操作来切换多种驾驶模式。
操作设备30构成为包括加速踏板、方向盘、制动踏板、变速杆和方向指示操作杆。在操作设备30上安装有操作检测传感器32,该操作检测传感器32检测有无驾驶员的操作和操作量、操作位置。
操作检测传感器32将作为检测结果的加速踏板踩踏量(油门开度)、方向盘操作量(操舵量)、制动踏板踩踏量、挡位、左右转弯方向等输出给构成控制系统16的后述的行驶控制部62。
<1.3输出系统装置组18的具体结构>
驱动力装置34由驱动力ECU(Electronic Control Unit)、包括发动机和驱动马达的驱动源构成。驱动力装置34按照从行驶控制部62输入的行驶控制值生成本车辆12的行驶驱动力(扭矩),且将该行驶驱动力通过变速器、或者直接传递给车轮。
操舵装置36由EPS(电动助力转向系统)ECU和EPS装置构成。操舵装置36按照从行驶控制部62输入的行驶控制值来改变车轮(转向轮)的方向。
制动装置38例如是并用液压式制动器的电动伺服制动器,由制动ECU和制动执行机构构成。制动装置38按照从行驶控制部62输入的行驶控制值来对车轮进行制动。
告知装置40由告知ECU、显示装置和音响装置构成。告知装置40按照从构成控制系统16的后述的告知控制部64输出的告知指令,来进行与自动驾驶或者手动驾驶有关的告知动作。转向灯42按照从告知控制部64输出的告知指令来进行与本车辆12的左右转弯有关的告知动作。
<1.4控制系统16的结构>
控制系统16由1个或者多个ECU构成,除了上述的存储装置56、行驶控制部62和告知控制部64之外,还具有各种功能实现部。在该实施方式中,功能实现部是通过由1个或者多个CPU(Central Processing Unit)执行存储在非暂时性存储装置56中的程序来实现功能的软件功能部。作为替代,功能实现部也可以是由FPGA(Field-Programmable Gate Array:现场可编程门阵列)等集成电路构成的硬件功能部。
控制系统16构成为除了包括存储装置56、行驶控制部62和告知控制部64之外,还包括外界识别部66、行动计划部68、自动调整处理部70(自动调整部)、计时部72和偏振滤光器调整部74(自动调整部)。
外界识别部66使用由输入系统装置组14输入的各种信息(例如,来自外界传感器20的外界信息),来识别位于本车辆12的两侧的车道标识线(白线),生成包括停止线和交通信号灯的位置信息、或者可行驶区域的“静态”的外界识别信息。另外,外界识别部66使用输入的各种信息,生成包括泊车车辆和停车车辆等障碍物、人和其他车辆等交通参与者、或者交通信号灯的亮灯颜色的“动态”的外界识别信息。
行动计划部68根据外界识别部66的识别结果制成每个行驶路段的行动计划(事件的时序),且根据需要更新行动计划。例如在后述的交叉路口90(参照图3)的情况下,事件的种类为使本车辆12在交叉路口90顺利地行驶的事件。
另外,行动计划部68使用从存储装置56读出的地图信息54、路径信息58和本车辆信息60,生成按照所制成的行动计划的行驶轨迹(目标行为的时序)。具体而言,该行驶轨迹是以位置、姿势角、速度、加速度、曲率、偏航角速率、操舵角为数据单位的时序数据集。
自动调整处理部70使用来自外界识别部66的各种信息、和计时部72计时的当前时刻等,进行用于自动调整设置于摄像头44的偏振滤光器(polarizing filter)76的处理。自动调整处理部70将用于进行上述处理的指令信号输出给偏振滤光器调整部74。另外,自动调整处理部70将与对偏振滤光器76的自动调整处理的结果有关的信息输出给行动计划部68。
在该情况下,自动调整处理部70作为车辆识别部70a、调整对象确定部70b、透光部件区域确定部70c、滤光器调整判定部70d、肢体动作识别部70e、肢体动作内容推定部70f和允许行驶控制判定部70g来发挥作用。在后面对自动调整处理部70的这些结构要素的功能进行叙述。
行驶控制部62按照由行动计划部68生成的行驶轨迹(目标行为的时序),确定至少包括本车辆12的加减速控制的、用于对本车辆12进行行驶控制的各个行驶控制值。然后,行驶控制部62将得到的各个行驶控制值输出给驱动力装置34、操舵装置36和制动装置38。告知控制部64按照由行动计划部68生成的行驶轨迹,驱动控制告知装置40或者转向灯42。偏振滤光器调整部74根据来自自动调整处理部70的指令信号,来自动调整偏振滤光器76。下面,有时将行驶控制部62、告知控制部64和偏振滤光器调整部74统称为“驾驶控制部78”。
<1.5本车辆12中的外界传感器20的配置>
图2是示意性表示外界传感器20中、多个摄像头44、多个雷达46和多个LiDAR48在车辆12中的配置的说明图。另外,作为一例,图2图示出车辆12为左侧通行的车辆的情况。
配置在本车辆12上的多个摄像头44包括:前方摄像头44a,其设置在车顶前部;右前侧摄像头44b,其配置在车身80的驾驶席侧(右前侧);左前侧摄像头44c,其配置在车身80的副驾驶席侧(左前侧);右后侧摄像头44d,其配置在车身80的右后部座椅侧;左后侧摄像头44e,其配置在车身80的左后部座椅侧;后方摄像头44f,其设置在车顶后部;前方摄像头44g,其设置在车顶前部,是2台立体摄像头。另外,在以下的说明中,为了便于说明,有时将前方摄像头44a、44g、右前侧摄像头44b、左前侧摄像头44c、右后侧摄像头44d、左后侧摄像头44e和后方摄像头44f称为摄像头44a~44g。
前方摄像头44a对本车辆12前方的规定角度范围内(拍摄区域82a)进行拍摄,且将拍摄到的图像输出给控制系统16(参照图1)。右前侧摄像头44b对本车辆12右侧的规定角度范围内(拍摄区域82b)进行拍摄,且将拍摄到的图像输出给控制系统16。左前侧摄像头44c对本车辆12左侧的规定角度范围内(拍摄区域82c)进行拍摄,且将拍摄到的图像输出给控制系统16。在该情况下,作为前方区域的拍摄区域82a和作为右侧区域的拍摄区域82b的一部分区域重叠。另外,拍摄区域82a和作为左侧区域的拍摄区域82c的一部分区域重叠。
同样,右后侧摄像头44d、左后侧摄像头44e、后方摄像头44f和前方摄像头44g也以摄像头的透镜朝向的本车辆12外侧的规定角度区域的一部分区域重叠的方式进行拍摄,且将拍摄到的图像输出给控制系统16。另外,在图2中还一并图示出右后侧摄像头44d、左后侧摄像头44e和后方摄像头44f的拍摄区域82d~82f。
并且,在各个摄像头44a~44g的透镜上安装有偏振滤光器76(偏振滤光器76a~76g)。
另外,在本车辆12上还配置有多个雷达46和多个LiDAR48。多个雷达46包括被配置在车身80前方的3个雷达46a~46c、和被配置在车身80后方的2个雷达46d、46e。LiDAR48包括被配置在车身80前方的2个LiDAR48a、48b、和被配置在车身80后方的3个LiDAR48c~48e。
[2.驾驶辅助装置10的动作]
本实施方式中的驾驶辅助装置10如以上那样构成。接着,一边参照图3~图5一边对在交叉路口90进行左右转弯时的驾驶辅助装置10的动作进行说明。在此,对搭载有驾驶辅助装置10的本车辆12通过自动驾驶在图3所示的交叉路口90内进行右转弯的情况进行说明。
<2.1交叉路口90的说明>
图3是表示本车辆12想要进入交叉路口90内来进行右转弯的状态的说明图。本车辆12想要按照虚线箭头所示的预定行驶路径92通过第1道路94和第2道路96交叉的交叉路口90。在图3中,第1道路94和第2道路96分别是由4条车道构成的道路。另外,图3图示出本车辆12等车辆左侧通行的情况。
即,第1道路94构成为包括:2车道的第1行驶车道94a,本车辆12等车辆能够在其上直行;和2车道的第1对向车道94b,其与第1行驶车道94a相邻,且对向车辆98(其他车辆、其他移动体)等车辆能够在其上直行。另一方面,与第1道路94同样,第2道路96构成为包括:2车道的第2行驶车道96a,车辆能够在其上直行;和2车道的第2对向车道96b,其与第2行驶车道96a相邻,且车辆102等车辆能够在其上直行。
<2.2图3~图5的动作的说明>
接着,一边对应于本车辆12(参照图1~图3和图5)沿预定行驶路径92行驶的状况,一边对图4的流程图所示的驾驶辅助装置10(参照图1)的动作进行说明。在此,对驾驶辅助装置10的如下动作进行说明:在第1对向车道94b中对向车辆98由于交通堵塞等而暂时停止在交叉路口90近前的情况下,本车辆12考虑该对向车辆98内的驾驶员100的状况(例如,手势行动),而从第1行驶车道94a进入交叉路口90内然后进行右转弯,到达第2行驶车道96a为止的驾驶辅助装置10的动作。另外,在图3中,省略存在于第1对向车道94b中的对向车辆98以外的其他车辆的图示。
首先,在本车辆12在第1行驶车道94a中行驶且进入交叉路口90内的情况下,在图4的步骤S1中,自动调整处理部70(参照图1)获取摄像头44(例如,图2、图3和图5的前方摄像头44a)拍摄到的图像数据。另外,自动调整处理部70还获取雷达46(例如,雷达46a)的检测结果和LiDAR48的检测结果。并且,自动调整处理部70还获取GPS传感器52或导航装置24确定的本车辆12的当前位置、照度传感器50检测到的本车辆12周边的照度(照度信息)、计时部72已进行计时的当前时刻。
在步骤S2中,车辆识别部70a根据由步骤S1获取到的图像数据来识别图像数据中拍到的物体、即存在于本车辆12的周围的物体。接着,车辆识别部70a根据识别到的物体来确定存在于本车辆12的周围的移动体(其他移动体)。具体而言,在图3的例子中,车辆识别部70a确定位于交叉路口90、第1道路94和第2道路96的对向车辆98(参照图3和图5)、和在第2对向车道96b上行驶的车辆102。接着,车辆识别部70a识别所确定的对向车辆98和车辆102的类别。作为其类别,例如有识别到的车辆(1)是二轮车、三轮车和四轮车中的哪一种、或者(2)是普通乘用车、公共汽车和货车中的哪一种等类别。
如前述那样,图3~图5的动作是本车辆12考虑对向车辆98内的驾驶员100的状况(例如,手势行动)通过自动驾驶来行驶的情况下的动作。在该情况下,例如,如果驾驶员100正在进行本车辆12可以在交叉路口90右转弯的意思的手势行动,则摄像头44通过对向车辆98的前挡风玻璃104等透光部件区域106来拍摄(检测)驾驶员100,据此能够识别检测到的驾驶员100的手势行动。
然而,在近年来的车辆中,为了抑制物体映在形成透光部件区域106的玻璃、树脂等透光性部件上,而实施了对可见光线或紫外线(UV)的滤光处理。其结果,在从外部来视觉确认透光部件区域106的情况下,由于在该透光部件区域106发生眩光或者反射,而难以通过透光部件区域106来识别对向车辆98的驾驶员100的手势行动。
在驾驶辅助装置10中,即使是实施了这种滤光处理的透光部件区域106,通过自动调整偏振滤光器76来减少眩光或者反射,也能够通过该透光部件区域106来拍摄(检测)对向车辆98的驾驶员100。
因此,在下一步骤S3中,调整对象确定部70b确定在步骤S2中识别出的车辆中、最接近本车辆12的车辆作为偏振滤光器76的调整对象。具体而言,将前方摄像头44a拍摄到的图像数据中、最接近本车辆12的车辆即对向车辆98作为偏振滤光器76的调整对象。
即,本车辆12沿着预定行驶路径92,以横穿对向车辆98的行进方向前方的方式在交叉路口90内进行右转弯。因此,调整对象确定部70b判断为由于在交叉路口90内进行右转弯而需要识别前方的对向车辆98内的驾驶员100的手势行动,确定该对向车辆98是偏振滤光器76的调整对象。
在步骤S4中,透光部件区域确定部70c针对在步骤S3中确定的对向车辆98,从拍到对向车辆98的图像数据中确定透光部件区域106。在该情况下,透光部件区域确定部70c也可以根据雷达46或者LiDAR48的检测结果和本车辆12的当前位置,来确定透光部件区域106。即,能够根据雷达46或者LiDAR48检测对向车辆98的检测结果和本车辆12的当前位置,来确定对向车辆98相对于本车辆12的距离和角度。在图3和图5中,图示出根据该检测结果来确定透光部件区域106(驾驶员乘车区域108)相对于本车辆12(雷达46或者LiDAR48的位置)的角度θ的情况。另外,通过根据步骤S2中的识别结果来确定对向车辆98的类型,能够确定该对向车辆98中前挡风玻璃104等透光部件区域106的设置位置。其结果,能够易于确定透光部件区域106。或者,透光部件区域确定部70c也可以仅使用拍到对向车辆98的图像数据来确定透光部件区域106。在图3和图5中,作为一例,图示出将前方摄像头44a拍摄到的图像数据中、对向车辆98的前挡风玻璃104确定为透光部件区域106的情况。
另外,在对向车辆98中,除了前挡风玻璃104之外,左右的前车门玻璃、左右的后车门玻璃、后挡风玻璃也是透光性部件。透光部件区域确定部70c将这些透光性部件中、最接近本车辆12的前挡风玻璃104确定为透光部件区域106。另外,本车辆12的前挡风玻璃向前方倾斜,前方摄像头44a通过倾斜的前挡风玻璃来拍摄前方。并且,由于对向车辆98的前挡风玻璃104也倾斜,因此,还存在被透光部件区域106反射的光或者毫米波从斜向射入雷达46或者LiDAR48的情况。因此,优选为,透光部件区域确定部70c还考虑本车辆12的前挡风玻璃的倾斜角度和对向车辆98的前挡风玻璃104的倾斜角度等来确定透光部件区域106。在以下的说明中,为了便于说明,有时将图像数据中拍到的透光部件区域106的图像也称为“透光部件区域106”。
另外,在步骤S4中,透光部件区域确定部70c确定透光部件区域106中、摄像头44能够检测到驾驶员100的区域(驾驶员乘车区域108)。
在该情况下,在步骤S2中,车辆识别部70a识别车辆的类别。因此,透光部件区域确定部70c根据车辆识别部70a的识别结果、雷达46或者LiDAR48的检测结果和本车辆12的当前位置,来确定图像数据中的透光部件区域106中、被推定为拍到驾驶员100的区域作为驾驶员乘车区域108。即,能够根据(1)对向车辆98是左侧通行的车辆、(2)基于步骤S2中的识别结果的对向车辆98的类别、(3)雷达46或者LiDAR48检测对向车辆98的检测结果和基于本车辆12的当前位置的、对向车辆98相对于本车辆12的距离及角度(图3和图5的角度θ),确定透光部件区域106中从本车辆12观察时位于左侧的区域作为驾驶员乘车区域108。或者,透光部件区域确定部70c也可以使用车辆识别部70a的识别结果,仅使用拍到对向车辆98的图像数据来确定驾驶员乘车区域108。
另外,在确定驾驶员乘车区域108的情况下,透光部件区域确定部70c也可以还考虑本车辆12的前挡风玻璃的倾斜角度和对向车辆98的前挡风玻璃104的倾斜角度等来确定驾驶员乘车区域108。在以下的说明中,为了便于说明,有时将图3和图5的透光部件区域106中拍到驾驶员100的区域、或图像数据中拍到驾驶员100的区域的图像称呼为“驾驶员乘车区域108”。
在步骤S5中,滤光器调整判定部70d判定是否需要针对在步骤S4中确定的透光部件区域106、更详细而言针对驾驶员乘车区域108,而自动调整偏振滤光器76(在图3和图5中,前方摄像头44a的偏振滤光器76a)。
在由于在透光部件区域106(前挡风玻璃104)进行了滤光处理,使得无法从图像数据中拍到的驾驶员乘车区域108识别到驾驶员100的情况下,滤光器调整判定部70d判定为需要针对驾驶员乘车区域108而自动调整偏振滤光器76(步骤S5:是),进入下一步骤S6。
在步骤S6中,滤光器调整判定部70d向偏振滤光器调整部74输出指示根据角度θ等执行自动调整的意思的指令信号。在该情况下,滤光器调整判定部70d也可以在考虑本车辆12的当前位置、照度和当前时刻的基础上,生成指示自动调整偏振滤光器76的指令信号。
据此,偏振滤光器调整部74自动调整偏振滤光器76(76a)。其结果,当在自动调整后自动调整处理部70再次获取到摄像头44(44a)拍摄到的图像数据的情况下,能够识别获取到的图像数据中、在驾驶员乘车区域108拍到的驾驶员100。另外,偏振滤光器76的结构和偏振滤光器76的调整方法是公知的。例如有以下结构:(1)使偏光透镜旋转来进行调整的结构;(2)在CMOS成像传感器上设置多个起偏器(Polarizer),按照选择性或者复合性获取到的周围状况来调整偏振度的结构。因此,省略偏振滤光器76的结构和调整方法的详细说明。
另一方面,在步骤S5中,在未在透光部件区域106(前挡风玻璃104)进行滤光处理的情况下,雷达46或者LiDAR48能够通过驾驶员乘车区域108来检测驾驶员100。在该情况下,滤光器调整判定部70d根据雷达46或者LiDAR48的检测结果判定为不需要自动调整偏振滤光器76(步骤S5:否),跳过步骤S6。或者,如果能够在图像数据拍到的驾驶员乘车区域108中识别到驾驶员100,则滤光器调整判定部70d也可以判定为不需要针对驾驶员乘车区域108进行偏振滤光器76的自动调整(步骤S5:否)。
在接着的步骤S7中,肢体动作识别部70e判定在驾驶员乘车区域108中拍到的驾驶员100是否示出某种肢体动作(例如,手势行动)。并且,在判断为示出某种肢体动作的情况下,肢体动作识别部70e识别驾驶员100的肢体动作的种类。
在该情况下,关于有无手势行动的判断、肢体动作的种类的识别,肢体动作识别部70e能够判别以下等方面:(1)驾驶员100的视觉确认方向(是否正在视觉确认本车辆12);(2)驾驶员100的注意度(是否正注视本车辆12、是否正观察位于对向车辆98内的移动设备的屏幕等、是否正在睡觉);(3)驾驶员100是否正在看着本车辆12进行手势行动;(4)是否是表示允许本车辆12进行右转弯的手势行动。在该判别处理中,肢体动作识别部70e也可以根据驾驶辅助装置10所具有的各种传感器的检测结果、计算机视觉的技术或者机械学习来进行(1)~(4)的判别。
在步骤S8中,根据步骤S7中的处理结果,如果是允许本车辆12进行右转弯的手势行动,则肢体动作内容推定部70f推定该手势行动的内容。即,还存在尽管驾驶员100进行某种手势行动但该手势行动并不是针对本车辆12的动作的情况、或者未看着本车辆12进行某种动作的情况。因此,肢体动作内容推定部70f根据步骤S7中的处理结果,以是针对本车辆12的手势行动为触发,进行步骤S8的推定处理。在此,例如在是驾驶员100向本车辆12左右挥手的肢体动作的情况下,肢体动作内容推定部70f推定为是驾驶员100允许本车辆12进行右转弯的肢体动作。在该情况下,肢体动作内容推定部70f也可以通过机械学习来推定肢体动作的内容。
另外,也可以在本车辆12上配置侧方摄像头(右前侧摄像头44b、左前侧摄像头44c、右后侧摄像头44d、左后侧摄像头44e)来作为视觉传感器,根据侧方摄像头获取到的图像来识别位于本车辆12的侧方的其他车辆的驾驶员的手势行动。具体而言,能够识别来自在交叉路口90内位于与本车辆12的行进方向正交的位置的其他车辆的驾驶员的允许行进的手势行动、或来自旁边存在的救急车辆等其他车辆的停止要求的手势行动等。
在步骤S9中,允许行驶控制判定部70g判定是否应该将步骤S8中的推定结果反映在行动计划中。例如,如果推定结果为是驾驶员100向本车辆12左右挥手的肢体动作,则允许行驶控制判定部70g将能够在交叉路口90右转弯的意思的判定结果通知给行动计划部68。行动计划部68受理允许行驶控制判定部70g的判定结果,更新行动计划。
据此,在步骤S10中,行驶控制部62根据更新后的行动计划来控制构成输出系统装置组18的各个装置,据此执行本车辆12在交叉路口90的右转弯。
在接着的步骤S11中,肢体动作识别部70e再次获取摄像头44的图像数据,且根据获取到的图像数据中的驾驶员100的图像,判定该驾驶员100是否正持续相同的肢体动作。在判定为正持续相同的肢体动作的情况下(步骤S11:是),驾驶辅助装置10返回步骤S7,再次执行步骤S7~S11的处理。据此,在驾驶员100正在进行允许本车辆12进行右转弯的手势行动的情况下,本车辆12通过反复执行步骤S7~S11,能够在交叉路口90内向第2行驶车道96a右转弯。
另外,在步骤S11中,在肢体动作识别部70e根据图像数据中的驾驶员100的图像识别到驾驶员100已停止肢体动作的情况下(步骤S11:否),肢体动作内容推定部70f推定为:例如,由于本车辆12已经横穿对向车辆98的行进方向前方而进行了右转弯,因此不再需要进行允许右转弯的手势行动,或者,即使本车辆12正在进行右转弯,但驾驶员100为了使对向车辆98前进而停止了该手势行动。然后,驾驶辅助装置10进入步骤S12。
在接着的步骤S12中,自动调整处理部70根据从摄像头44获取到的图像数据等来判定本车辆12是否已在交叉路口90进行了右转弯。或者,驾驶辅助装置10判定是否停止自动驾驶。
在本车辆12正在交叉路口90内进行右转弯的情况下、或者继续进行自动驾驶的情况下(步骤S12:否),驾驶辅助装置10返回步骤S1,再次执行步骤S1~S12的处理。另一方面,在本车辆12在交叉路口90内进行右转弯且驶出交叉路口90而进入了第2行驶车道96a的情况下、或者通过操作自动驾驶开关28结束自动驾驶的情况下(步骤S12:是),驾驶辅助装置10结束图4的动作。
<2.3变形例>
在上述的说明中,对左侧通行的本车辆12使用前方摄像头44a在交叉路口90内进行右转弯的情况进行了说明。在图3~图5的动作中,通过代替前方摄像头44a,或者除了前方摄像头44a之外,使用其他摄像头44(例如,右前侧摄像头44b或者左前侧摄像头44c、后方摄像头44f),还能够适用于左侧通行的本车辆12使用右前侧摄像头44b或者左前侧摄像头44c、后方摄像头44f在交叉路口90内进行右转弯的情况。
另外,图3~图5的动作还能够适用于左侧通行的本车辆12在交叉路口90内进行左转弯的情况、右侧通行的本车辆12在交叉路口90内进行左右转弯的情况。在右侧通行的情况下,将对向车辆98的透光部件区域106中、从本车辆12观察时位于右侧的区域确定为驾驶员乘车区域108。
并且,图3~图5的动作并不限定于对向车辆98,还能够适用于车辆102等其他车辆。例如,还能够适用于以下情况:当本车辆12在高速公路等上向车道合流时,识别在该车道上行驶的其他车辆的驾驶员允许本车辆12进行合流的意思的手势行动的情况。
另外,图3~图5的动作还能够通过其他车辆的透光性部件来检测对向车辆98。
并且,在图4的步骤S8中,也可以根据步骤S7的处理结果来进行偏振滤光器76的自动调整处理。据此,能够更高精度地推定驾驶员100的手势行动。并且,在本实施方式中,还能够构成为,代替上述的作为硬件的偏振滤光器76的自动调整处理,而能够通过软件对图像数据进行图像处理来识别驾驶员100。据此,能够通过图像处理来实现与偏振滤光器76的自动调整同等的处理。
[3.本实施方式的效果]
如以上说明的那样,本实施方式所涉及的驾驶辅助装置10用于辅助本车辆12(移动体)的驾驶,具有摄像头44(视觉传感器)、偏振滤光器76(76a~76g)、自动调整处理部70和偏振滤光器调整部74(自动调整部),其中,所述摄像头44(视觉传感器)检测本车辆12周围的对向车辆98和车辆102(物体);所述偏振滤光器76(76a~76g)设置于摄像头44(摄像头44a~44g);所述自动调整处理部70和所述偏振滤光器调整部74(自动调整部)将摄像头44检测到的位于本车辆12周围的物体中的1个对向车辆98确定为偏振滤光器76的调整对象,且确定所确定的调整对象中能使光透过的透光部件区域106,针对所确定的透光部件区域106自动调整偏振滤光器76。
据此,通过针对调整对象即对向车辆98的透光部件区域106自动调整偏振滤光器76,能够通过该透光部件区域106来视觉确认对向车辆98的内部状况。其结果,能够根据对向车辆98的内部状况(对向车辆98的驾驶员100的手势行动)来顺利地进行本车辆12的驾驶辅助(例如,辅助本车辆12在交叉路口90内的左右转弯)。
在该情况下,作为调整对象的对向车辆98是位于搭载驾驶辅助装置10的本车辆12(本移动体)周围的物体中具有透光部件区域106的其他移动体。自动调整处理部70和偏振滤光器调整部74针对驾驶员乘车区域108自动调整偏振滤光器76,其中所述驾驶员乘车区域108是透光部件区域106中摄像头44能够检测到对向车辆98内的驾驶员100的区域。据此,能够易于检测驾驶员100的手势行动。
另外,自动调整处理部70的透光部件区域确定部70c使用本车辆12具有的导航装置24或者GPS传感器52确定的本车辆12的当前位置(自身位置信息)来推定驾驶员乘车区域108。据此,能够高精度地确定驾驶员乘车区域108。
并且,自动调整处理部70和偏振滤光器调整部74自动调整偏振滤光器76,以使摄像头44能通过驾驶员乘车区域108来检测驾驶员100的状况。据此,能够高精度地检测驾驶员100的手势行动。
在该情况下,驾驶员100的状况至少包括:驾驶员100正在视觉确认本车辆12的状况;驾驶员100是否正在进行示意允许本车辆12进行左右转弯等规定行动的手势行动的状况。驾驶辅助装置10还具有驾驶控制部78,该驾驶控制部78在根据摄像头44的检测结果确认到驾驶员100正在视觉确认本车辆12且正在进行手势行动的情况下执行规定行动。据此,能够对本车辆12进行与手势行动对应的适宜的行驶控制。
驾驶辅助装置10还具有雷达46和LiDAR48(检测单元),所述雷达46和LiDAR48使用光或者毫米波来检测本车辆12的周围的物体。自动调整处理部70的透光部件区域确定部70c根据雷达46或者LiDAR48检测对向车辆98的检测结果来确定透光部件区域106。据此,能够通过透光部件区域106高精度地检测驾驶员100。
在该情况下,雷达46或者LiDAR48检测透光部件区域106相对于本车辆12的角度θ。自动调整处理部70和偏振滤光器调整部74根据角度θ自动调整偏振滤光器76。据此,能够高精度地检测驾驶员100。
另外,位于搭载驾驶辅助装置10的本车辆12周围的物体中具有透光部件区域106的对向车辆98是调整对象,在雷达46或者LiDAR48通过透光部件区域106检测到对向车辆98内的驾驶员100的情况下,自动调整处理部70的滤光器调整判定部70d判断为不需要自动调整偏振滤光器76。据此,针对未实施滤光处理的透光部件区域106,也能够容易地进行驾驶员100的检测等。
另外,驾驶辅助装置10还具有GPS传感器52、照度传感器50和计时部72,其中所述GPS传感器52确定该驾驶辅助装置10的当前位置。在该情况下,自动调整处理部70的滤光器调整判定部70d和偏振滤光器调整部74根据GPS传感器52确定的当前位置、照度传感器50检测到的照度(照度信息)和计时部72已进行计时的当前时刻来自动调整偏振滤光器76。据此,能够按照太阳光的照射情况准确地进行偏振滤光器76的调整。
偏振滤光器76的调整对象可以是相对于摄像头44位于规定的角度范围(拍摄区域82)内且最接近本车辆12的其他移动体(对向车辆98)。据此,能够容易且准确地检测驾驶员100。
另外,本发明并不限定于上述实施方式,当然能够根据本说明书的记载内容而采用各种结构。
Claims (10)
1.一种驾驶辅助装置(10),该驾驶辅助装置(10)用于对移动体(12)的驾驶进行辅助,其特征在于,
具有视觉传感器(44、44a~44g)、偏振滤光器(76、76a~76g)和自动调整部(70、74),其中,
所述视觉传感器(44、44a~44g)检测所述移动体的周围的物体(98、102);
所述偏振滤光器(76、76a~76g)被设置于所述视觉传感器;
所述自动调整部(70、74)将所述视觉传感器检测到的位于所述移动体的周围的物体中的1个物体(98)确定为所述偏振滤光器的调整对象,且确定所确定的所述调整对象中的、能使光透过的透光部件区域(106),且针对所确定的所述透光部件区域来自动调整所述偏振滤光器。
2.根据权利要求1所述的驾驶辅助装置,其特征在于,
所述调整对象是位于搭载所述驾驶辅助装置的本移动体(12)的周围的物体中的、具有所述透光部件区域的其他移动体(98),
所述自动调整部针对驾驶员乘车区域(108)来自动调整所述偏振滤光器,其中所述驾驶员乘车区域(108)是所述透光部件区域中的、所述视觉传感器能检测到所述其他移动体内的驾驶员(100)的区域。
3.根据权利要求2所述的驾驶辅助装置,其特征在于,
所述自动调整部使用由所述本移动体具有的自身位置确定装置(24、52)所确定的该本移动体的自身位置信息来推定所述驾驶员乘车区域。
4.根据权利要求2或3所述的驾驶辅助装置,其特征在于,
所述自动调整部自动调整所述偏振滤光器,以使所述视觉传感器能通过所述驾驶员乘车区域来检测所述驾驶员的状况。
5.根据权利要求4所述的驾驶辅助装置,其特征在于,
所述驾驶员的状况至少包括:所述驾驶员正在视觉确认本移动体的状况;和是否正在进行手势行动的状况,其中所述手势行动是所述驾驶员示意允许所述本移动体的规定行动的手势行动,
所述驾驶辅助装置还具有驾驶控制部(78),在根据所述视觉传感器的检测结果确认到所述驾驶员正在视觉确认所述本移动体且正在进行所述手势行动的情况下,所述驾驶控制部(78)执行所述规定行动。
6.根据权利要求1~3中任一项所述的驾驶辅助装置,其特征在于,
还具有检测单元(46、48),该检测单元(46、48)使用光或者毫米波来检测所述移动体的周围的物体,
所述自动调整部根据所述检测单元对所述调整对象进行检测的检测结果来确定所述透光部件区域。
7.根据权利要求6所述的驾驶辅助装置,其特征在于,
所述检测单元检测所述透光部件区域相对于所述移动体的角度(θ),
所述自动调整部根据所述角度来自动调整所述偏振滤光器。
8.根据权利要求6所述的驾驶辅助装置,其特征在于,
位于搭载所述驾驶辅助装置的本移动体的周围的物体中的、具有所述透光部件区域的其他移动体是所述调整对象,在所述检测单元通过所述透光部件区域检测到所述其他移动体内的驾驶员的情况下,所述自动调整部判断为不需要自动调整所述偏振滤光器。
9.根据权利要求1~3中任一项所述的驾驶辅助装置,其特征在于,
还具有自身位置确定部(52)、照度传感器(50)和计时部(72),其中所述自身位置确定部(52)将所述驾驶辅助装置的位置作为自身位置信息来进行确定,
所述自动调整部根据所述自身位置确定部所确定的所述自身位置信息、所述照度传感器检测到的照度信息和所述计时部已进行计时的当前时刻来自动调整所述偏振滤光器。
10.根据权利要求1~3中任一项所述的驾驶辅助装置,其特征在于,
所述调整对象是相对于所述视觉传感器位于规定的角度范围(82)内且最接近所述移动体的其他移动体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065390A JP2020166479A (ja) | 2019-03-29 | 2019-03-29 | 運転支援装置 |
JP2019-065390 | 2019-03-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111746399A true CN111746399A (zh) | 2020-10-09 |
Family
ID=72673168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010224592.0A Pending CN111746399A (zh) | 2019-03-29 | 2020-03-26 | 驾驶辅助装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020166479A (zh) |
CN (1) | CN111746399A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018216983B3 (de) * | 2018-10-04 | 2019-11-28 | Audi Ag | Verfahren zum Unterdrücken von Abbildungen von Reflexionen in zumindest einem Kamerabild einer Kamera einer Umfeldsensorvorrichtung eines Kraftfahrzeugs sowie entsprechende Umfeldsensorvorrichtung |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011165005A (ja) * | 2010-02-10 | 2011-08-25 | Toshiba Corp | 撮像装置および料金収受システム |
JP2011165004A (ja) * | 2010-02-10 | 2011-08-25 | Toshiba Corp | 撮像装置および料金収受システム |
JP2018018389A (ja) * | 2016-07-29 | 2018-02-01 | パナソニックIpマネジメント株式会社 | 自動運転車輌の制御装置、及び制御プログラム |
WO2018078713A1 (ja) * | 2016-10-25 | 2018-05-03 | 三菱電機株式会社 | 周辺情報判定装置および周辺情報判定方法 |
JP2018083610A (ja) * | 2016-11-22 | 2018-05-31 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9855890B2 (en) * | 2014-12-11 | 2018-01-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle interaction with external environment |
MX2018003613A (es) * | 2015-09-30 | 2018-04-30 | Sony Corp | Dispositivo de control, metodo de control y programa. |
JP2019059245A (ja) * | 2016-02-05 | 2019-04-18 | マクセル株式会社 | ヘッドアップディスプレイ装置及びその表示制御方法 |
CN110264500A (zh) * | 2016-06-27 | 2019-09-20 | 御眼视觉技术有限公司 | 基于检测到的停放车辆特性控制主车辆 |
JP2018030499A (ja) * | 2016-08-25 | 2018-03-01 | 株式会社デンソーテン | 車外情報提供装置および車外情報提供方法 |
-
2019
- 2019-03-29 JP JP2019065390A patent/JP2020166479A/ja active Pending
-
2020
- 2020-03-26 CN CN202010224592.0A patent/CN111746399A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011165005A (ja) * | 2010-02-10 | 2011-08-25 | Toshiba Corp | 撮像装置および料金収受システム |
JP2011165004A (ja) * | 2010-02-10 | 2011-08-25 | Toshiba Corp | 撮像装置および料金収受システム |
JP2018018389A (ja) * | 2016-07-29 | 2018-02-01 | パナソニックIpマネジメント株式会社 | 自動運転車輌の制御装置、及び制御プログラム |
WO2018078713A1 (ja) * | 2016-10-25 | 2018-05-03 | 三菱電機株式会社 | 周辺情報判定装置および周辺情報判定方法 |
JP2018083610A (ja) * | 2016-11-22 | 2018-05-31 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
JP2020166479A (ja) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110281930B (zh) | 车辆控制装置、车辆、车辆控制方法以及存储介质 | |
JP6617534B2 (ja) | 運転支援装置 | |
CN112466140B (zh) | 车辆远程指示系统 | |
CN108693869B (zh) | 车辆控制装置 | |
CN109466542B (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
JP2023029541A (ja) | 車両制御装置、車両制御方法、及びプログラム | |
EP3215400B1 (en) | Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle | |
CN110036426B (zh) | 控制装置和控制方法 | |
CN112537295B (zh) | 驾驶辅助装置 | |
CN106097774A (zh) | 车道变更支援装置 | |
US11505194B2 (en) | Vehicle travel control method and travel control device | |
RU2768687C1 (ru) | Способ управления движением и устройство управления движением для транспортного средства | |
JP7014214B2 (ja) | 運転支援装置 | |
CN110446645B (zh) | 车辆控制装置 | |
JP6990137B2 (ja) | 車両制御装置 | |
JP7119304B2 (ja) | 走行支援装置および走行支援方法 | |
CN113228128A (zh) | 驾驶辅助方法及驾驶辅助装置 | |
CN114194186B (zh) | 车辆行驶控制装置 | |
JP2017162248A (ja) | 自動運転車両 | |
JP7521613B2 (ja) | 表示制御装置及び表示制御方法 | |
JP7549503B2 (ja) | 走行制御装置 | |
CN113302105A (zh) | 驾驶辅助方法及驾驶辅助装置 | |
CN113401056A (zh) | 显示控制装置、显示控制方法以及计算机可读取存储介质 | |
CN111746399A (zh) | 驾驶辅助装置 | |
EP2246762B1 (en) | System and method for driving assistance at road intersections |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201009 |