CN111347975A - 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法 - Google Patents
驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法 Download PDFInfo
- Publication number
- CN111347975A CN111347975A CN201911284889.XA CN201911284889A CN111347975A CN 111347975 A CN111347975 A CN 111347975A CN 201911284889 A CN201911284889 A CN 201911284889A CN 111347975 A CN111347975 A CN 111347975A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- driver
- information
- event
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000004891 communication Methods 0.000 claims description 44
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 7
- 230000015654 memory Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 5
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 235000010724 Wisteria floribunda Nutrition 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0953—Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4048—Field of view, e.g. obstructed view or direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/65—Data transmitted between vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
Abstract
驾驶辅助装置具备控制部,控制部获取事件位置信息,该事件位置信息是车辆中车辆的驾驶员进行了旁视被作为事件而检测到时的车辆的位置信息;控制部将用于提醒注意的注意信息提示给正在向获取的事件位置信息所示的位置驾驶的驾驶员。
Description
技术领域
本发明涉及驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统、以及驾驶辅助方法。
背景技术
日本特开2004-145725以及日本特开2017-211818号文献中记载了一种对驾驶员的旁视进行检测的技术。
当在道路上存在景色好的地点等驾驶员的注意力被吸引的地点时,存在驾驶员在该地点旁视的可能性。
根据日本特开2004-145725中记载的技术,当车辆碰撞前方障碍物的可能性高于基准水平时,输出碰撞警报。当检测到驾驶员的旁视时,校正基准水平使其降低。即使在没有检测到驾驶员的旁视时,在判断为存在驾驶员旁视的可能性高的状况时,也校正基准水平使其降低。不过,如果驾驶员没有旁视,而且没有处于旁视可能性高的状况下,则不输出碰撞警报。如果没有障碍物,即使处于驾驶员旁视可能性高的状况下,也不输出碰撞警报。
根据日本特开2017-211818中记载的技术,计算驾驶员处于旁视状态时的时间、以及驾驶员处于旁视状态时的车辆的行驶距离。计算出的时间以及距离的信息被通知给驾驶员。但是,如果驾驶员不处于旁视状态,则不进行任何通知。
为了提高在驾驶员旁视可能性高的地点进行驾驶的安全性,有必要在驾驶员到达上述地点前,就开始提醒驾驶员注意。
发明内容
本发明提供一种提高在驾驶员旁视可能性高的地点进行驾驶的安全性的技术。
本发明的第一方式涉及的驾驶辅助装置包括控制部,控制部被配置为:获取事件位置信息,该事件位置信息是第一车辆的驾驶员进行了旁视被作为事件而检测到时的上述第一车辆的位置信息;以及将用于提醒注意的注意信息提示给正在向所述事件位置信息所示的位置驾驶的第二车辆的驾驶员。
在上述方式中,上述控制部也可以被配置为:在上述第二车辆到达上述事件位置信息所示的位置前,将上述注意信息提示给上述第二车辆的驾驶员。
在上述方式中,所述控制部也可以被配置为:检测上述事件;在与上述事件的检测时间不同的其他时机,在上述第二车辆到达上述事件位置信息所示的位置前,将上述注意信息提示给上述第二车辆的驾驶员。
在上述方式中,所述控制部也可以被配置为:将从上述第一车辆拍摄的、包含上述旁视的对象在内的图像即对象图像作为上述注意信息的至少一部分而进行提示。
本发明的第二方式涉及的车辆包括:上述驾驶辅助装置以及被配置为输出上述注意信息的输出部。
本发明的第三方式涉及的信息提供装置包括控制部和通信部,控制部被配置为:将第一车辆的驾驶员进行了旁视作为事件而进行检测,以及获取事件位置信息,该事件位置信息是检测到上述事件时的上述第一车辆的位置信息;通信部被配置为:提供上述事件位置信息,以用于提醒正在向由上述控制部获取的上述事件位置信息所示的位置驾驶的第二车辆的驾驶员注意。
在上述方式中,上述控制部也可以被配置为:获取从上述第一车辆拍摄的、包含上述旁视的对象在内的图像即对象图像,上述通信部也可以被配置为:提供由上述控制部获取的上述对象图像,用于提示给正在向上述事件位置信息所示的位置驾驶的上述第二车辆的驾驶员。
本发明的第四方式涉及的车辆包括:上述信息提供装置,以及拍摄上述对象图像的摄像部。
本发明的第五方式涉及的驾驶辅助系统包括上述信息提供装置、以及驾驶辅助装置,该驾驶辅助装置被配置为:从上述信息提供装置获取上述事件位置信息,将用于提醒注意的注意信息提示给正在向上述事件位置信息所示的位置驾驶的上述第二车辆的驾驶员。
本发明的第六方式涉及的驾驶辅助方法包括:使控制部将在车辆中上述车辆的驾驶员进行了旁视作为事件进行检测;以及使输出部输出用于提醒注意的注意信息,以提示给正在向相同位置驾驶的驾驶员,该相同位置是指,与由上述控制部检测到上述事件时的上述车辆的位置相同的位置。
根据上述方式,在驾驶员旁视可能性高的地点的驾驶安全性得以提高。
附图说明
参考附图对本发明的示例性实施例的特征、优点、以及技术上和工业上的意义进行说明,附图中相同符号表示相同部件,其中:
图1是示出第一实施方式涉及的驾驶辅助系统的构成的框图;
图2是示出第一实施方式涉及的驾驶辅助系统的工作的流程图;
图3是示出第二实施方式涉及的驾驶辅助系统的构成的框图;
图4是示出第二实施方式涉及的驾驶辅助系统的工作的流程图。
具体实施方式
以下参照附图说明本发明的实施方式。
对各附图中同一或者相当的部分赋予同一符号。在各个实施方式的说明中,关于同一或者相当的部分,适当省略或者简化其说明。
(第一实施方式)
参照图1说明本实施方式的概要。
第一车辆10的控制部11将在第一车辆10中第一车辆10的驾驶员进行了旁视作为事件进行检测。不是第一车辆10的其他车辆即第二车辆20的输出部27,输出用于提醒注意的注意信息43,以提示给正在向相同的位置驾驶的第二车辆20的驾驶员,所述相同的位置是指,与由第一车辆10的控制部11检测到事件时的第一车辆10的位置相同的位置。
第一车辆10的驾驶员进行了旁视的地点,可以说是第二车辆20的驾驶员也很可能进行旁视的地点。第二车辆20的驾驶员,在向该地点驾驶时,通过看或者听由输出部27输出的注意信息43,能够提前注意不要旁视。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以提高。
作为注意信息43,可以只提示“前方注意不要旁视”这样的提醒注意的消息,在本实施方式中,还提示了从第一车辆10拍摄的、包含旁视的对象在内的图像即对象图像42。也可以只将对象图像42作为注意信息43而进行提示。即,可以将对象图像42作为注意信息43的至少一部分而进行提示。
第二车辆20的驾驶员在向第一车辆10的驾驶员进行了旁视的地点驾驶时,通过看输出部27中显示的对象图像42,能够用眼睛确认第一车辆10的驾驶员进行旁视的对象。因此,第二车辆20的驾驶员在到达了该地点时,因为几乎不想看该对象,或者即使看到该对象也不怎么激动,所以能够保持注意力。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以进一步提高。
旁视的对象不限定于富士山等景色,可以是吸引驾驶员注意力的任意的物、地点、或者现象。
第一车辆10以及第二车辆20,可以均为任意的车辆,在本实施方式中,二者均为汽车。第一车辆10以及第二车辆20的关系不限定于一对一的关系,也可以是一对多、多对一、以及多对多的任一种关系。
参照图1,说明本实施方式涉及的驾驶辅助系统30的构成。
驾驶辅助系统30具备信息提供装置31、和驾驶辅助装置32。
信息提供装置31被配置在第一车辆10。信息提供装置31可以配置为导航装置等车载设备,或者也可以配置为智能手机等与车载设备连接使用的电子设备。
信息提供装置31具备控制部11、存储部12、通信部13、以及定位部14等构成要素。
控制部11是一个以上的处理器。作为处理器,可以使用CPU等通用处理器,或者使用为特定处理特制的专用处理器。“CPU”是中央处理器(Central Processing Unit)的简称。控制部11,可以包含一个以上的专用电路,或者在控制部11中,可以将一个以上的处理器替换为一个以上的专用电路。作为专用电路,可以使用例如FPGA或者ASIC。“FPGA”是现场可编程逻辑门阵列(Field Programmable Gate Arrays)的简称。“ASIC”是专用集成电路(Application Specific Integrated Circuit)的简称。控制部11也可以包含一个以上的ECU。“ECU”是电子控制单元(Electronic Control Unit)的简称。控制部11,在对包括信息提供装置31在内的第一车辆10的各部进行控制的同时,执行与信息提供装置31的工作有关的信息处理。
存储部12是一个以上的存储器。作为存储器,可以使用例如半导体存储器、磁存储器、或者光存储器。存储器可以作为主存储装置、辅助存储装置、或者高速缓存而发挥功能。存储部12中存储了用于信息提供装置31的工作的信息、以及由信息提供装置31的工作得到的信息。
通信部13是一个以上通信模块。作为通信模块,可以使用例如与DSRC、LTE、4G或者5G匹配的通信模块。“DSRC”是专用短程通信(Dedicated Short Range Communications)的简称。“LTE”是长期演进(Long Term Evolution)的简称。“4G”(4th Generation)是第四代的简称。“5G”是第五代(5th Generation)的简称。通信部13,接收用于信息提供装置31的工作的信息,而且发送由信息提供装置31的工作得到的信息。
定位部14是一个以上的定位模块。作为定位模块,可以使用例如与GPS、QZSS、GLONASS、或者伽利略定位系统匹配的定位模块。“GPS”是全球定位系统(GlobalPositioning System)的简称。“QZSS”是准天顶卫星系统(Quasi-Zenith SatelliteSystem)的简称。QZSS的卫星又称为准天顶卫星。“GLONASS”是全球导航卫星系统(GlobalNavigation Satellite System)的简称。定位部14获取第一车辆10的位置信息。
信息提供装置31的功能是通过用控制部11含有的处理器执行本实施方式涉及的信息提供程序而实现的。即,信息提供装置31的功能由软件实现。信息提供程序,是用于通过使计算机执行信息提供装置31的工作中所包含的步骤的处理,而使计算机实现与该步骤的处理对应的功能的程序。即,信息提供程序是用于使计算机作为信息提供装置31而发挥功能的程序。
程序可以预先存储在计算机可读存储介质中。作为计算机可读存储介质,可以使用例如磁存储装置、光盘、光磁存储介质、或者半导体存储器。程序的流通,例如通过售卖、转让、或者出租存储了程序的DVD或者CD-ROM等便携式存储介质而进行。“DVD”是数字多功能光盘(Digital Versatile Disc)的简称。
“CD-ROM”是只读光盘(Compact Disc Read Only Memory)的简称。也可以将程序预先存储在服务器的存储器中,经由网络,从服务器向其他计算机传送程序,从而使程序流通。也可以将程序作为程序产品而提供。
计算机例如将便携式存储介质中存储的程序、或者从服务器传送的程序临时存储在存储器中。然后,计算机用处理器读取存储器中存储的程序,按照读取的程序用处理器执行处理。计算机也可以从便携式存储介质直接读取程序,按照程序执行处理。计算机也可以在每次从服务器向计算机传送程序时,依次按照接收到的程序执行处理。也可以不进行从服务器向计算机的程序传送,由只利用执行指示以及结果获取而实现功能的、所谓的ASP型服务执行处理。“ASP”是应用服务提供商(Application Service Provider)的简称。程序包括相当于程序的、用于电子计算机进行的处理的信息。例如,虽然不是对计算机的直接命令但是具有对计算机的处理进行规定的性质的数据,是“相当于程序的信息”。
信息提供装置31的一部分或者全部的功能也可以由控制部11包含的专用电路进行实现。即,信息提供装置31的一部分或者全部的功能也可以由硬件实现。
在第一车辆10中,除了信息提供装置31以外,还具备摄像部15、输入部16、以及输出部17。在第一车辆10中,也可以将摄像部15、输入部16、以及输出部17作为信息提供装置31的一部分。
摄像部15是一个以上的车载照相机。作为车载照相机,可以使用例如前置照相机、侧置照相机、后置照相机、或者车内照相机。摄像部15从第一车辆10拍摄图像。即,摄像部15拍摄第一车辆10的外部的图像。摄像部15还拍摄第一车辆10的驾驶席等第一车辆10的内部的图像。
输入部16是一个以上的输入接口。作为输入接口,可以使用例如物理按键、电容式按键、指点装置、与车载显示器一体地设置的触摸屏、或车载拾音器。输入部16从第一车辆10的驾驶员等用户接收用于信息提供装置31的工作的信息的输入。
输出部17是一个以上的输出接口。作为输出接口,可以使用例如车载显示器或者车载扬声器。作为车载显示器,可以使用例如LCD或者有机EL显示器。“LCD”是液晶显示器(Liquid Crystal Display)的简称。“EL”是电致发光(Electro Luminescence)的简称。输出部17向用户输出由信息提供装置31的工作得到的信息。
驾驶辅助装置32被配置在第二车辆20。驾驶辅助装置32可以配置为导航装置等车载设备,或者也可以配置为智能手机等与车载设备连接使用的电子设备。
驾驶辅助装置32具备控制部21、存储部22、通信部23、以及定位部24等构成要素。
控制部21是一个以上的处理器。作为处理器,可以使用CPU等通用处理器,或者使用为特定处理特制的专用处理器。控制部21,也可以包含一个以上的专用电路,或者在控制部21中,可以将一个以上的处理器替换为一个以上的专用电路。作为专用电路,可以使用例如FPGA或者ASIC。控制部21中也可以包含一个以上的ECU。控制部21,在对包括驾驶辅助装置32在内的第二车辆20的各部进行控制的同时,执行与驾驶辅助装置32的工作有关的信息处理。
存储部22是一个以上的存储器。作为存储器,可以使用例如半导体存储器、磁存储器、或者光存储器。存储器可以作为主存储装置、辅助存储装置、或者高速缓存而发挥功能。存储部22中存储用于驾驶辅助装置32的工作的信息、以及由驾驶辅助装置32的工作得到的信息。
通信部23是一个以上的通信模块。作为通信模块,可以使用例如与DSRC、LTE、4G或者5G匹配的通信模块。通信部23,接收用于驾驶辅助装置32的工作的信息,而且发送由驾驶辅助装置32的工作得到的信息。
定位部24是一个以上的定位模块。作为定位模块,可以使用例如与GPS、QZSS、GLONASS、或者伽利略定位系统匹配的定位模块。定位部24获取第二车辆20的位置信息。
驾驶辅助装置32的功能是通过用控制部21中包含的处理器执行本实施方式涉及的驾驶辅助程序而实现的。即,驾驶辅助装置32的功能由软件实现。驾驶辅助程序,是用于通过使计算机执行驾驶辅助装置32的工作所包含的步骤的处理,而使计算机实现与该步骤的处理对应的功能的程序。即,驾驶辅助程序是用于使计算机作为驾驶辅助装置32而发挥功能的程序。
驾驶辅助装置32的一部分或者全部的功能也可以由控制部21包含的专用电路进行实现。即,驾驶辅助装置32的一部分或者全部的功能也可以由硬件实现。
在第二车辆20中,除了驾驶辅助装置32以外,还具备摄像部25、输入部26、以及输出部27。在第二车辆20中,也可以将摄像部25、输入部26、以及输出部27作为驾驶辅助装置32的一部分。
摄像部25是一个以上的车载照相机。作为车载照相机,可以使用例如前置照相机、侧置照相机、后置照相机、或者车内照相机。摄像部25从第二车辆20拍摄图像。即,摄像部25拍摄第二车辆20的外部的图像。摄像部25还拍摄第二车辆20的驾驶席等第二车辆20的内部的图像。
输入部26是一个以上的输入接口。作为输入接口,可以使用例如物理按键、电容式按键、指点装置、与车载显示器一体地设置的触摸屏、或车载拾音器。输入部26从第二车辆20的驾驶员等用户接收用于驾驶辅助装置32的工作的信息的输入。
输出部27是一个以上的输出接口。作为输出接口,可以使用例如车载显示器或者车载扬声器。作为车载显示器,可以使用例如LCD或者有机EL显示器。输出部27向用户输出由驾驶辅助装置32的工作得到的信息。
除了图1以外,还参照图2,说明本实施方式涉及的驾驶辅助系统30的工作。驾驶辅助系统30的工作相当于本实施方式涉及的驾驶辅助方法。
在第一车辆10执行从步骤S101至步骤S104的处理。
在步骤S101中,信息提供装置31的控制部11获取第一车辆10的驾驶员图像。
具体地,控制部11从摄像部15获取第一车辆10的驾驶席的图像等的、包括第一车辆10的驾驶员的头以及眼球在内的图像。
在步骤S102中,控制部11将在第一车辆10中第一车辆10的驾驶员进行了旁视作为事件进行检测。
具体地,控制部11分析在步骤S101中获取的图像,计算第一车辆10的驾驶员的视线方向。然后,控制部11根据第一车辆10的驾驶员的视线是否朝向第一车辆10的前挡风玻璃的特定区域、门镜、后视镜、仪表盘、或者导航画面等第一车辆10的驾驶员应该注视的对象,从而判断第一车辆10的驾驶员是否正在旁视。作为包括从含有人的头以及眼球的图像计算视线方向的技术在内的、判断驾驶员是否正在旁视的技术,可以使用日本特开2004-145725或者日本特开2017-211818号文献中记载的技术等任意的相关技术。
控制部11,在判断出第一车辆10的驾驶员正在旁视的情况下,通过输出部17,输出用于提醒第一车辆10的驾驶员注意的消息。该消息可以被显示,也可以用声音输出。
步骤S101以及步骤S102的处理被反复执行,直到由控制部11检测到事件为止。如果由控制部11检测到了事件,则执行步骤S103及之后的处理。
在步骤S103中,控制部11获取事件位置信息41。事件位置信息41是由控制部11检测到事件时的第一车辆10的位置信息。
在本实施方式中,控制部11还获取对象图像42。对象图像42是从第一车辆10拍摄的、包含第一车辆10的驾驶员进行旁视的对象在内的图像。
具体地,控制部11从定位部14获取当前时刻的第一车辆10的位置信息作为事件位置信息41。该位置信息是利用例如GPS、QZSS、GLONASS、伽利略定位系统、或者其中两个以上的组合而得到的、第一车辆10的当前位置的二维坐标或者三维坐标。控制部11从摄像部15获取在步骤S102中计算出的视线方向的图像作为对象图像42。控制部11将获取到的事件位置信息41存储到存储部12,而且将获取到的对象图像42与该事件位置信息41相关联而存储到存储部12。
摄像部15可以如下地进行自动调整,即,在从第一车辆10拍摄对象图像42时,被控制部11控制,自动调整至其拍摄方向与在步骤S102中计算出的视线方向基本一致。或者,摄像部15也可以如下地选择拍摄方向,即,在从第一车辆10拍摄对象图像42时,被控制部11控制,从第一车辆10的前方、侧方、以及后方这样的多个拍摄方向中,选择与在步骤S102中计算出的视线方向基本一致的拍摄方向。
控制部11也可以在对从摄像部15获取的对象图像42进行剪裁、放大缩小、或者分辨率变换等加工的基础上,将加工后的对象图像42存储到存储部12。
在步骤S104中,信息提供装置31的通信部13提供该事件位置信息41,以用于提醒正在向由控制部11获取的事件位置信息41所示的位置驾驶的、第二车辆20的驾驶员注意。
在本实施方式中,通信部13还提供由控制部11获取的对象图像42,用于提示给正在向事件位置信息41所示的位置驾驶的、第二车辆20的驾驶员。
具体地,控制部11,将存储部12中存储的事件位置信息41、以及存储部12中存储的、与该事件位置信息41对应的对象图像42,输入给通信部13。通信部13,利用车车间通信、路车间通信、或者经由网络的通信,向第二车辆20的驾驶辅助装置32发送从控制部11输入的事件位置信息41以及对象图像42。
通信部13也可以通过从属于云计算系统或者其他计算系统的服务器提供事件位置信息41以及对象图像42。
在第二车辆20执行从步骤S105至步骤S108的处理。
在步骤S105中,驾驶辅助装置32的通信部23获取由第一车辆10的信息提供装置31提供的事件位置信息41。
在本实施方式中,通信部23还获取由第一车辆10的信息提供装置31提供的对象图像42。
具体地,通信部23利用车车间通信、路车间通信、或者经由网络的通信,接收由第一车辆10的信息提供装置31发送的事件位置信息41以及对象图像42。控制部21从通信部23获取由通信部23接收的事件位置信息41以及对象图像42。控制部21将获取的事件位置信息41存储到存储部22,而且将获取的对象图像42与该事件位置信息41相关联而存储到存储部22。
在步骤S106中,驾驶辅助装置32的控制部21获取第二车辆20的位置信息。
具体地,控制部21从定位部24获取当前时刻的第二车辆20的位置信息。该位置信息是利用例如GPS、QZSS、GLONASS、伽利略定位系统、或者其中两个以上的组合而得到的、第二车辆20的当前位置的二维坐标或者三维坐标。
在步骤S107中,控制部21判断第二车辆20的驾驶员是否正在朝着由通信部23获取的事件位置信息41所示的位置驾驶。即,控制部21判断第二车辆20是否正在接近事件位置信息41所示的位置。
具体地,控制部21对在步骤S106中获取的位置信息所示的第二车辆20的当前位置、与存储部22中存储的事件位置信息41所示的位置之间的距离进行计算。控制部21将计算出的距离与阈值进行比较。阈值可以是1千米这样的固定值,也可以是根据第二车辆20正在行驶的道路的限速而动态求得的值,或者也可以是根据第二车辆20的速度而动态求得的值。阈值为固定值的情况下,其也可以是根据第二车辆20正在行驶的道路的类别而选择的值,例如,如果第二车辆20是在普通道路中行驶则阈值为1千米,如果第二车辆20是在高速道路中行驶则阈值为3千米。如果计算出的距离比阈值大,则控制部21判断为第二车辆20没有正在接近事件位置信息41所示的位置。如果计算出的距离比阈值小,则控制部21判断为第二车辆20正在接近事件位置信息41所示的位置,也就是说,判断为第二车辆20的驾驶员正在朝着事件位置信息41所示的位置驾驶。
事件位置信息41也可以包含示出事件被检测到时的第一车辆10的前进方向的信息。此时,控制部21根据在步骤S106获取的位置信息所示的位置的变动,判断第二车辆20的前进方向。当计算出的距离比阈值小、并且判断出的前进方向与事件位置信息41所示的前进方向相同时,判断为第二车辆20正在接近事件位置信息41所示的位置。
步骤S106以及步骤S107的处理被反复执行,直到控制部21判断为第二车辆20正在接近事件位置信息41所示的位置为止。如果控制部21判断为第二车辆20正在接近事件位置信息41所示的位置,则执行步骤S108的处理。
在步骤S108中,控制部21将用于提醒注意的注意信息43提示给第二车辆20的驾驶员。控制部21使用输出部27作为提示注意信息43的机构。即,输出部27被控制部21控制,输出注意信息43用于提示给第二车辆20的驾驶员。
在本实施方式中,控制部21将由通信部23获取的对象图像42作为注意信息43的至少一部分提示给第二车辆20的驾驶员。控制部21使用输出部27作为提示对象图像42的机构。即,输出部27被控制部21控制,将由通信部23获取的对象图像42作为注意信息43的至少一部分而进行显示,用于提示给第二车辆20的驾驶员。
具体地,控制部21将存储部22中存储的对象图像42,与“前方注意不要旁视”这样的提醒注意的消息,一起作为注意信息43输入到输出部27。输出部27显示包括从控制部21输入的注意信息43在内的画面。在该画面中,注意信息43含有的提醒注意的消息用文字显示。在同一画面中,也可以在地图上的、事件位置信息41所示的位置显示图标等图形。也可以在同一地图上的第二车辆20的当前位置显示其他图标等图形。为了不妨碍安全驾驶,适当调整画面内的信息量。例如,注意信息43含有的提醒注意的消息,也可以不用文字显示,而是用声音输出。
对包含注意信息43在内的画面进行显示的时间长度,可以是30秒这样的固定时间,或者也可以是根据第二车辆20的位置而动态确定的时间。对包含注意信息43在内的画面进行显示的时间长度,当其是根据第二车辆20的位置而动态确定的情况下,可以是至第二车辆20到达事件位置信息41所示的位置为止的时间。为了不妨碍安全驾驶,可以只在第二车辆20处于停止状态等第二车辆20的速度比规定值慢时,显示包含注意信息43在内的画面。
提醒注意的消息也可以是“前方能看见富士山,但是请注意不要旁视,请安全驾驶”这样的、告知旁视的对象的消息。
此时,在步骤S103中,第一车辆10的信息提供装置31的控制部11分析对象图像42,识别第一车辆10的驾驶员进行旁视的对象。作为识别图像内的对象的技术,可以使用例如基于机器学习的图像识别技术。控制部11生成告知识别出的对象的消息。在步骤S104中,信息提供装置31的通信部13,除了事件位置信息41以外,还将对象图像42与由控制部11生成的消息一起作为注意信息43提供给第二车辆20的驾驶辅助装置32。在步骤S105中,驾驶辅助装置32的通信部23获取由第一车辆10的信息提供装置31提供的事件位置信息41以及注意信息43。如果在步骤S107中驾驶辅助装置32的控制部21判断为第二车辆20正在接近事件位置信息41所示的位置,则在步骤S108中,控制部21将由通信部23获取的注意信息43提示给第二车辆20的驾驶员。
如上所述,在本实施方式中,信息提供装置31的控制部11将在第一车辆10中第一车辆10的驾驶员进行了旁视作为事件进行检测。控制部11获取检测到事件时的第一车辆10的位置信息即事件位置信息41。信息提供装置31的通信部13提供事件位置信息41,以用于提醒正在向由控制部11获取的事件位置信息41所示的位置驾驶的、第二车辆20的驾驶员注意。驾驶辅助装置32的控制部21获取事件位置信息41。在第二车辆20到达事件位置信息41所示的位置前,控制部21将用于提醒注意的注意信息43提示给第二车辆20的驾驶员。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以提高。
在本实施方式中,信息提供装置31的控制部11获取从第一车辆10拍摄的、包含旁视的对象在内的图像即对象图像42。信息提供装置31的通信部13,提供由控制部11获取的对象图像42,用于提示给正在向事件位置信息41所示的位置驾驶的、第二车辆20的驾驶员。驾驶辅助装置32的控制部21,将对象图像42作为注意信息43的至少一部分提示给第二车辆20的驾驶员。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以进一步提高。
在第二车辆20处于完全自动驾驶模式时,驾驶辅助装置32的控制部21也可以不将包括对象图像42在内的注意信息43提示给第二车辆20的驾驶员。完全自动驾驶模式相当于SAE等级划分中的“等级5”,不过也可以包括“等级4”,或者也可以包括根据其他定义的自动驾驶等级。“SAE”是汽车工程师协会(Society of Automotive Engineers)的简称。
信息提供装置31也可以配置为从属于云计算系统或者其他计算系统的服务器。此时,步骤S101至步骤S104的处理在服务器执行。第一车辆10的驾驶员图像、第一车辆10的位置信息、或者与第一车辆10的驾驶员的视线方向基本一致的拍摄方向的图像等步骤S101至步骤S104的处理所需的信息,可以从第一车辆10上传到服务器。事件位置信息41以及对象图像42可以从服务器发送给第二车辆20。
(第二实施方式)
参照图3说明本实施方式的概要。
在第一实施方式中,第一车辆10的控制部11将在第一车辆10中第一车辆10的驾驶员进行了旁视作为事件进行检测。而在本实施方式中,第二车辆20的控制部21将在第二车辆20中第二车辆20的驾驶员进行了旁视作为事件进行检测。在与事件的检测时间不同的其他时机,第二车辆20的输出部27输出用于提醒注意的注意信息43,以提示给正在向相同位置驾驶的、第二车辆20的驾驶员,所述相同位置是指,与由控制部21检测到事件时的第二车辆20的位置相同的位置。
第二车辆20的驾驶员过去进行了旁视的地点,可以说是第二车辆20的驾驶员很可能再次进行旁视的地点。第二车辆20的驾驶员,再次向该地点驾驶时,通过看或者听由输出部27输出的注意信息43,能够提前注意不要旁视。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以提高。
因为不需要如第一实施方式中的第一车辆10,所以也可以将第二车辆20简单地称为“车辆”。
参照图3说明本实施方式涉及的驾驶辅助系统30的构成。关于与第一实施方式相同的部分,适当省略或者简化其说明。
驾驶辅助系统30具备驾驶辅助装置32。驾驶辅助系统30也可以不具备如第一实施方式的信息提供装置31。
与第一实施方式相同地,驾驶辅助装置32被配置在第二车辆20。
与第一实施方式相同地,在第二车辆20中,除了驾驶辅助装置32以外,还具备摄像部25、输入部26、以及输出部27。
除了图3以外,还参照图4,说明本实施方式涉及的驾驶辅助系统30的工作。关于与第一实施方式相同的部分,适当省略或者简化其说明。驾驶辅助系统30的工作相当于本实施方式涉及的驾驶辅助方法。
在第二车辆20执行从步骤S201至步骤S206的处理。
关于步骤S201至步骤S203的处理,除了将第一车辆10、信息提供装置31的控制部11、存储部12、定位部14、以及摄像部15分别替换为第二车辆20、驾驶辅助装置32的控制部21、存储部22、定位部24、以及摄像部25这点以外,其余与步骤S101至步骤S103的处理相同,所以省略其说明。
关于步骤S204的处理,由于与步骤S106的处理相同,因此省略说明。
关于步骤S205的处理,除了不是使用从第二车辆20的外部接收的位置信息、而是使用在步骤S203中在第二车辆20的内部获取的位置信息作为事件位置信息41这点以外,其余与步骤S107的处理相同,所以省略其说明。
关于步骤S206的处理,除了不是使用从第二车辆20的外部接收的图像、而是使用在步骤S203中在第二车辆20的内部获取的图像作为对象图像42这点以外,其余与步骤S108的处理相同,所以省略其说明。
控制部21也可以将获取的事件位置信息41以及对象图像42预先存储到云端存储器等第二车辆20的外部的存储器,而不是存储到存储部22,通过通信部23获取并且使用事件位置信息41以及对象图像42。
如上所述,在本实施方式中,驾驶辅助装置32的控制部21将在第二车辆20中第二车辆20的驾驶员进行了旁视作为事件进行检测。控制部21获取检测到事件时的第二车辆20的位置信息即事件位置信息41。在与事件的检测时间不同的其他时机,在第二车辆20到达事件位置信息41所示的位置前,控制部21将用于提醒注意的注意信息43提示给第二车辆20的驾驶员。例如,在第二车辆20发生了事件后,当经过了一定时间后第二车辆20准备再次经过事件的发生地点时,控制部21将注意信息43提示给第二车辆20的驾驶员。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以提高。
在本实施方式中,驾驶辅助装置32的控制部21获取从第二车辆20拍摄的、包含旁视的对象在内的图像即对象图像42。在与事件的检测时间不同的其他时机,在第二车辆20到达事件位置信息41所示的位置前,控制部21将对象图像42作为注意信息43的至少一部分提示给第二车辆20的驾驶员。例如,在第二车辆20发生了事件后,当经过了一定时间后第二车辆20准备再次经过事件的发生地点时,控制部21将对象图像42提示给第二车辆20的驾驶员。因此,根据本实施方式,在驾驶员旁视可能性高的地点进行驾驶的安全性得以进一步提高。
本发明并不限定于上述实施方式。例如,也可以对框图中记载的多个框进行整合,或者对一个框进行分割。也可以不按照说明以时间序列执行流程图中记载的多个步骤,而是根据执行各个步骤的装置的处理能力、或者根据需要,并行或者以不同的顺序执行。
Claims (10)
1.一种驾驶辅助装置,其特征在于,包括控制部,所述控制部被配置为:
获取事件位置信息,所述事件位置信息是第一车辆的驾驶员进行了旁视被作为事件而检测到时的所述第一车辆的位置信息;以及
将用于提醒注意的注意信息提示给正在向所述事件位置信息所示的位置驾驶的第二车辆的驾驶员。
2.根据权利要求1所述的驾驶辅助装置,其中,
所述控制部被配置为,在所述第二车辆到达所述事件位置信息所示的位置前,将所述注意信息提示给所述第二车辆的驾驶员。
3.根据权利要求1所述的驾驶辅助装置,其中,
所述控制部被配置为:检测所述事件;在与所述事件的检测时间不同的其他时机,在所述第二车辆到达所述事件位置信息所示的位置前,将所述注意信息提示给所述第二车辆的驾驶员。
4.根据权利要求1至3中任一项所述的驾驶辅助装置,其中,
所述控制部被配置为,将从所述第一车辆拍摄的、包含所述旁视的对象在内的图像即对象图像作为所述注意信息的至少一部分而进行提示。
5.一种车辆,其特征在于,包括:
权利要求1至4中任一项所述的驾驶辅助装置;以及
输出部,其被配置为输出所述注意信息。
6.一种信息提供装置,其特征在于,包括:
控制部,其被配置为:将第一车辆的驾驶员进行了旁视作为事件而进行检测,以及获取事件位置信息,其中所述事件位置信息是检测到所述事件时的所述第一车辆的位置信息;以及
通信部,其被配置为:提供所述事件位置信息,以用于提醒正在向由所述控制部获取的所述事件位置信息所示的位置驾驶的第二车辆的驾驶员注意。
7.根据权利要求6所述的信息提供装置,其中,
所述控制部被配置为:获取从所述第一车辆拍摄的、包含所述旁视的对象在内的图像即对象图像,
所述通信部被配置为:提供由所述控制部获取的所述对象图像,以用于提示给正在向所述事件位置信息所示的位置驾驶的所述第二车辆的驾驶员。
8.一种车辆,其特征在于,包括:
权利要求7所述的信息提供装置,以及
摄像部,其拍摄所述对象图像。
9.一种驾驶辅助系统,其特征在于,包括:
权利要求6或7所述的信息提供装置;以及
驾驶辅助装置,其被配置为:从所述信息提供装置获取所述事件位置信息,将用于提醒注意的注意信息提示给正在向所述事件位置信息所示的位置驾驶的所述第二车辆的驾驶员。
10.一种驾驶辅助方法,其特征在于,包括:
使控制部将在车辆中所述车辆的驾驶员进行了旁视作为事件进行检测;以及
使输出部输出用于提醒注意的注意信息以提示给正在向相同位置驾驶的驾驶员,所述相同位置是指,与由所述控制部检测到所述事件时的所述车辆的位置相同的位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-240119 | 2018-12-21 | ||
JP2018240119A JP7119984B2 (ja) | 2018-12-21 | 2018-12-21 | 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111347975A true CN111347975A (zh) | 2020-06-30 |
CN111347975B CN111347975B (zh) | 2023-08-22 |
Family
ID=71099270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911284889.XA Active CN111347975B (zh) | 2018-12-21 | 2019-12-13 | 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11072348B2 (zh) |
JP (1) | JP7119984B2 (zh) |
CN (1) | CN111347975B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145725A (ja) * | 2002-10-25 | 2004-05-20 | Mazda Motor Corp | 車両用運転支援システム |
US20050209749A1 (en) * | 2004-03-17 | 2005-09-22 | Denso Corporation | Driving assistance system |
CN1705454A (zh) * | 2002-10-15 | 2005-12-07 | 沃尔沃技术公司 | 解释对象的头部和眼睛活动的方法和装置 |
CN102754138A (zh) * | 2010-03-16 | 2012-10-24 | 三菱电机株式会社 | 道路车辆协调型安全驾驶辅助装置 |
JP2014074626A (ja) * | 2012-10-03 | 2014-04-24 | Denso Corp | 車両用ナビゲーションシステム |
JP2014095987A (ja) * | 2012-11-08 | 2014-05-22 | Denso Corp | 車載機および車両安全制御システム |
US20160159366A1 (en) * | 2014-12-08 | 2016-06-09 | Fujitsu Ten Limited | Driving assistance system and driving assistance method |
CN106710307A (zh) * | 2017-01-06 | 2017-05-24 | 汽-大众汽车有限公司 | 一种车辆辅助驾驶方法和装置 |
GB201711082D0 (en) * | 2016-07-13 | 2017-08-23 | Ford Global Tech Llc | Occupant alertness-based navigation |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6615137B2 (en) * | 2001-06-26 | 2003-09-02 | Medius, Inc. | Method and apparatus for transferring information between vehicles |
US20100019932A1 (en) * | 2008-07-24 | 2010-01-28 | Tele Atlas North America, Inc. | Driver Initiated Vehicle-to-Vehicle Anonymous Warning Device |
JP2010151942A (ja) | 2008-12-24 | 2010-07-08 | Toyota Motor Corp | ドライビングシミュレータ |
US20130096820A1 (en) | 2011-10-14 | 2013-04-18 | Continental Automotive Systems, Inc. | Virtual display system for a vehicle |
US9905131B2 (en) * | 2015-12-29 | 2018-02-27 | Thunder Power New Energy Vehicle Development Company Limited | Onboard vehicle notification system |
JP6485405B2 (ja) | 2016-05-25 | 2019-03-20 | 株式会社デンソー | 安全運転支援装置及び安全運転支援プログラム |
KR102463722B1 (ko) * | 2018-02-20 | 2022-11-07 | 현대자동차주식회사 | 차량의 속도 설정 장치 및 방법 |
-
2018
- 2018-12-21 JP JP2018240119A patent/JP7119984B2/ja active Active
-
2019
- 2019-12-12 US US16/712,100 patent/US11072348B2/en active Active
- 2019-12-13 CN CN201911284889.XA patent/CN111347975B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1705454A (zh) * | 2002-10-15 | 2005-12-07 | 沃尔沃技术公司 | 解释对象的头部和眼睛活动的方法和装置 |
JP2004145725A (ja) * | 2002-10-25 | 2004-05-20 | Mazda Motor Corp | 車両用運転支援システム |
US20050209749A1 (en) * | 2004-03-17 | 2005-09-22 | Denso Corporation | Driving assistance system |
CN102754138A (zh) * | 2010-03-16 | 2012-10-24 | 三菱电机株式会社 | 道路车辆协调型安全驾驶辅助装置 |
JP2014074626A (ja) * | 2012-10-03 | 2014-04-24 | Denso Corp | 車両用ナビゲーションシステム |
JP2014095987A (ja) * | 2012-11-08 | 2014-05-22 | Denso Corp | 車載機および車両安全制御システム |
US20160159366A1 (en) * | 2014-12-08 | 2016-06-09 | Fujitsu Ten Limited | Driving assistance system and driving assistance method |
GB201711082D0 (en) * | 2016-07-13 | 2017-08-23 | Ford Global Tech Llc | Occupant alertness-based navigation |
CN106710307A (zh) * | 2017-01-06 | 2017-05-24 | 汽-大众汽车有限公司 | 一种车辆辅助驾驶方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7119984B2 (ja) | 2022-08-17 |
CN111347975B (zh) | 2023-08-22 |
US11072348B2 (en) | 2021-07-27 |
JP2020102033A (ja) | 2020-07-02 |
US20200198655A1 (en) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10891495B2 (en) | Information processing apparatus, information processing method, and program | |
US11873007B2 (en) | Information processing apparatus, information processing method, and program | |
US11180082B2 (en) | Warning output device, warning output method, and warning output system | |
CN103969831A (zh) | 车辆抬头显示装置 | |
US11270136B2 (en) | Driving support device, vehicle, information providing device, driving support system, and driving support method | |
US20240174234A1 (en) | Automated driving system | |
KR101947473B1 (ko) | 후방 차량을 고려한 안전 운전 지원 장치 및 방법 | |
JP2017040773A (ja) | 頭部装着型表示装置 | |
CN114426018B (zh) | 自动驾驶系统及车辆的控制方法 | |
CN111347975B (zh) | 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法 | |
CN111568447A (zh) | 信息处理装置和信息处理方法 | |
CN111355925B (zh) | 控制装置、车辆、图像显示系统和图像显示方法 | |
JP7159851B2 (ja) | 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 | |
US11842661B2 (en) | Control method and information display system | |
CN111347968B (zh) | 信息提供装置、车辆、驾驶辅助系统、地图生成装置、驾驶辅助装置、以及驾驶辅助方法 | |
JP2021165766A (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
US20240071097A1 (en) | Apparatus and method for object detection | |
EP4279316A1 (en) | Apparatus and method for message notification | |
US20240157961A1 (en) | Vehicle system and storage medium | |
KR102506862B1 (ko) | 차량 제어 장치 및 방법 | |
CN115871681A (zh) | 驾驶员视觉辅助系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |