CN111284498B - 驾驶支援装置、系统、方法、可穿戴装置以及存储介质 - Google Patents
驾驶支援装置、系统、方法、可穿戴装置以及存储介质 Download PDFInfo
- Publication number
- CN111284498B CN111284498B CN201911237739.3A CN201911237739A CN111284498B CN 111284498 B CN111284498 B CN 111284498B CN 201911237739 A CN201911237739 A CN 201911237739A CN 111284498 B CN111284498 B CN 111284498B
- Authority
- CN
- China
- Prior art keywords
- driving support
- driver
- vehicle
- information
- support information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000000007 visual effect Effects 0.000 claims abstract description 52
- 230000006399 behavior Effects 0.000 claims description 48
- 230000001133 acceleration Effects 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 9
- 230000007175 bidirectional communication Effects 0.000 claims description 2
- 238000012986 modification Methods 0.000 description 52
- 230000004048 modification Effects 0.000 description 52
- 230000006854 communication Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- B60K35/23—
-
- B60K35/28—
-
- B60K35/654—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B60K2360/149—
-
- B60K2360/162—
-
- B60K2360/168—
-
- B60K2360/171—
-
- B60K2360/179—
-
- B60K2360/334—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Combustion & Propulsion (AREA)
- Instrument Panels (AREA)
- Traffic Control Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
提供能够在确保驾驶时的安全性的同时,感到驾驶乐趣的驾驶支援装置、系统、方法、可穿戴装置以及存储介质。驾驶支援装置(1)具备存储器和具有硬件的ECU(19),ECU(19)取得与驾驶员的视线有关的视线信息,根据该视线信息,在驾驶员的视场区域中输出对车辆的驾驶进行支援的驾驶支援信息。
Description
技术领域
本发明涉及驾驶支援装置、可穿戴装置、驾驶支援系统、驾驶支援方法以及程序。
背景技术
已知根据车辆的举动来评价驾驶员对车辆实施的驾驶操作的技术(例如参照专利文献1)。在该技术中,根据车辆产生的加速度等举动而生成评价驾驶操作的图像,并在车辆停止时或者驾驶时将该图像显示于导航系统的显示画面,对驾驶员提示驾驶操作的评价结果。
现有技术文献
专利文献
专利文献1:日本特开2006-347296号公报
发明内容
然而,在上述专利文献1中,由于驾驶员在驾驶时将视线从前窗移动到导航系统的显示画面,所以存在驾驶时缺乏安全性的问题。
本发明是鉴于上述情况而完成的,其目的在于提供一种能够确保驾驶时的安全性的驾驶支援装置、可穿戴装置、驾驶支援系统、驾驶支援方法以及程序。
为了解决上述课题并达成目的,本发明的驾驶支援装置具备:存储器;以及具有硬件的处理器,所述处理器取得与就坐于车辆的驾驶席的驾驶员的视线有关的视线信息,根据所述视线信息,将对所述车辆的驾驶进行支援的驾驶支援信息输出到所述驾驶员的视场区域中。
另外,所述处理器也可以将所述驾驶支援信息输出到在所述视场区域内设置于所述车辆的操作部件的正上方的、与所述操作部件正交的正交方向的区域中。
由此,在操作部件的正上方显示驾驶支援信息,所以驾驶员能够直观地掌握驾驶支援信息。
另外,所述处理器也可以取得所述驾驶员对所述操作部件的操作量和所述车辆的车速,将所述操作量和所述车速作为输入参数而输入到根据多个车辆的行驶数据进行机器学习得到的已学习模型,将作为从所述已学习模型输出的输出参数的针对所述操作部件的推荐操作量和所述操作量输出为所述驾驶支援信息。
由此,在操作部件的正上方显示实际的操作量和推荐操作量,所以驾驶员能够在掌握实际的操作量与推荐操作量之差的同时进行操作,因此能够在感受驾驶乐趣的同时提高驾驶技术。
另外,所述处理器也可以将所述驾驶支援信息输出到所述驾驶员的视线上的、所述驾驶员与所述车辆的前窗之间。
由此,驾驶支援信息显示在驾驶员的视线上的、驾驶员与车辆的前窗之间的区域,所以驾驶员能够在确保驾驶时的安全性的同时,感受驾驶乐趣。
另外,所述处理器也可以取得与所述车辆的举动有关的举动信息,根据所述举动信息,生成所述驾驶支援信息,并输出所述驾驶支援信息。
由此,显示基于车辆的举动的驾驶支援信息,所以驾驶员能够在直观地掌握车辆产生的举动的同时进行驾驶,因此能够提高驾驶技术。
另外,所述处理器也可以将球部和具有凹面的接受部输出为所述驾驶支援信息,该球部能够根据在所述车辆的前后以及左右产生的重力加速度的变化而在所述凹面上虚拟地移动。
由此,驾驶员能够在直观地掌握车辆的举动的同时进行驾驶,所以能够提高驾驶技术。
另外,所述处理器也可以取得所述车辆的车速,并根据所述车速,判定所述车辆是否为移动状态,在所述车辆为移动状态的情况下,将所述驾驶支援信息输出到所述驾驶员的视线上。
由此,驾驶员能够在驾驶时在视线上确认车辆的举动并直观地掌握,所以能够提高驾驶技术。
另外,所述处理器也可以将所述驾驶支援信息输出到所述视场区域内的所述车辆的方向盘上。
由此,驾驶支援信息显示在方向盘上,所以驾驶员能够在确保安全性的同时,直观地掌握驾驶支援信息。
另外,所述处理器也可以取得所述方向盘的从基准位置起的操舵量和所述车辆的车速,将所述操舵量和所述车速作为输入参数而输入到根据多个车辆的行驶数据进行机器学习得到的已学习模型,将作为从所述已学习模型输出的输出参数的针对所述方向盘的推荐操舵量、所述基准位置以及所述操舵量的各个输出为所述驾驶支援信息。
由此,在方向盘上显示实际的操舵量和推荐操舵量,所以驾驶员能够在掌握实际的操舵量与推荐操舵量之差的同时进行操作,所以能够在感受驾驶乐趣的同时提高驾驶技术。
另外,所述处理器也可以取得作为所述驾驶员的操作能力的指标的操作水平,并根据所述操作水平,控制所述驾驶支援信息的显示内容。
由此,根据驾驶员的操作水平来控制驾驶支援信息的显示内容,所以能够进行适合于驾驶员的驾驶支援。
另外,本发明的可穿戴装置能够与车辆双向通信,能够在透射视场区域的光的同时,在该视场区域中虚拟地显示图像,其中,可穿戴装置具备:视线传感器,检测与佩戴有该可穿戴装置的驾驶员的视线有关的视线信息;存储器;以及处理器,该处理器具有硬件,根据所述视线信息而将对所述车辆的驾驶进行支援的驾驶支援信息输出到所述驾驶员的视场区域中。
另外,本发明的驾驶支援系统具备:上述的驾驶支援装置;以及可穿戴装置,该可穿戴装置能够与所述驾驶支援装置双向通信,能够在透射视场区域的光的同时,在该视场区域中虚拟地显示图像,所述可穿戴装置具备检测佩戴有该可穿戴装的驾驶员的视线信息的视线传感器,所述处理器根据所述视线信息,在所述驾驶员的视场区域中将所述驾驶支援信息输出到所述可穿戴装置。
另外,本发明涉及的驾驶支援方法由驾驶支援装置执行,其中,取得与就坐于车辆的驾驶席的驾驶员的视线有关的视线信息,根据从存储器读出的所述视线信息,将对所述车辆的驾驶进行援的驾驶支援信息输出到所述驾驶员的视场区域中。
另外,本发明的程序由驾驶支援装置执行,其中,取得与就坐于车辆的驾驶席的驾驶员的视线有关的视线信息,根据所述视线信息,将对所述车辆的驾驶进行支援的驾驶支援信息输出到所述驾驶员的视场区域中。
根据本发明,在包括驾驶员的视线的视场区域中显示对车辆的驾驶进行支援的驾驶支援信息,所以驾驶员无需在驾驶中变更视场区域,因此起到能够确保驾驶时的安全性的效果。
附图说明
图1是示出实施方式1的搭载于车辆的驾驶支援装置的功能结构的框图。
图2是示出实施方式1的驾驶支援装置执行的处理的概要的流程图。
图3是示意地示出实施方式1的ECU使驾驶支援信息显示于显示部时的显示位置的图。
图4是示意地示出实施方式1的变形例1的ECU使驾驶支援信息显示于显示部时的显示位置的图。
图5是示意地示出实施方式1的变形例2的ECU使驾驶支援信息显示于显示部时的显示位置的图。
图6是示意地示出实施方式1的变形例3的ECU使驾驶支援信息显示于显示部时的显示位置的图。
图7是示出实施方式2的驾驶支援系统的概略结构的图。
图8是示出实施方式2的驾驶支援系统的功能结构的框图。
图9是示出实施方式2的可穿戴装置的概略结构的图。
图10是示出实施方式2的驾驶支援装置执行的处理的概要的流程图。
图11是示意地示出在车辆的停止时ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图12是示意地示出在车辆的移动时ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图13是示意地示出实施方式2的变形例1的ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图14是示意地示出实施方式2的变形例2的ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图15是示意地示出实施方式2的变形例3的ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图16是示意地示出实施方式2的变形例4的ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图17是示意地示出实施方式2的变形例5的ECU使驾驶支援信息显示于可穿戴装置时的显示位置的图。
图18是示出实施方式3的驾驶支援系统的概略结构的示意图。
图19是示出实施方式2、3的变形例的可穿戴装置的概略结构的图。
图20是示出实施方式2、3的变形例的可穿戴装置的概略结构的图。
图21是示出实施方式2、3的变形例的可穿戴装置的概略结构的图。
图22是示出实施方式2、3的变形例的可穿戴装置的概略结构的图。
(符号说明)
1、1A:驾驶支援装置;2、2A、2B、2C、2D:可穿戴装置;10:IG开关;11:车速传感器;12:操作传感器;13:方向盘传感器;14:举动传感器;15、27、301:通信部;16:视线传感器;17:显示部;18、303:已学习模型存储部;19:ECU;20:车辆导航系统;21:摄像装置;22:9轴传感器;23:视线传感器;24:投影部;25、201:GPS传感器;26:佩戴传感器;28、302:控制部;100:车辆;101:油门踏板;101C:加速柄;101D:控制杆;101E:手柄;102:刹车踏板;103:方向盘;103A:把手;103B、103C:操纵杆;103E:把手;105:离合踏板;300:服务器;1000、1001:驾驶支援系统。
具体实施方式
以下,结合附图,详细说明用于实施本发明的方式。此外,本发明不限定于以下的实施方式。另外,以下,对同一部分附加同一符号而进行说明。
(实施方式1)
〔驾驶支援装置的结构〕
图1是示出实施方式1的搭载于车辆的驾驶支援装置的功能结构的框图。图1所示的驾驶支援装置1搭载于车辆,在与搭载于该车辆的其他ECU(Electronic Control Unit,电子控制单元)协作的同时,对车辆内驾驶员的驾驶支援。图1所示的驾驶支援装置1具备:点火开关10(以下称为“IG开关10”)、车速传感器11、操作传感器12、方向盘传感器13、举动传感器14、通信部15、视线传感器16、显示部17、已学习模型存储部18以及ECU19。
IG开关10受理引擎、马达等电气系统的起动以及停止。在接通(ON)状态的情况下,IG开关10使IG电源起动,在断开(OFF)状态的情况下,IG开关10使IG电源停止。
车速传感器11检测车辆行驶时的车速,将其检测结果输出到ECU19。
操作传感器12检测表示驾驶员对油门踏板、刹车踏板以及离合踏板各自的踏入量的操作量,将其检测结果输出到ECU19。
方向盘传感器13检测驾驶员对方向盘的操舵量,将其检测结果输出到ECU19。
举动传感器14检测车辆的举动,将其检测结果输出到ECU19。在此,车辆的举动是指:俯仰率、横摇率、偏航率、上下方向加速度、左右方向加速度以及前后方向加速度等。举动传感器14是使用加速度传感器、陀螺传感器等构成的。
通信部15根据ECU19的控制,经由基站以及网络,依照预定的通信规格,将各种信息发送到未图示的服务器,并且从服务器接收各种信息。另外,通信部15依照预定的通信规格而对未图示的可穿戴装置、其他车辆或者用户终端装置等发送各种信息,并且从可穿戴装置、其他车辆或者用户终端装置等接收各种信息。通信部15是使用可进行无线通信的通信模块构成的。另外,通信部15既可以是有线的也可以是无线的。
视线传感器16检测就坐于车辆的驾驶席的驾驶员的视线,将其检测结果输出到ECU19。视线传感器16是使用光学系统、CCD(Charge Coupled Device,电荷耦合器件)或者CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)、存储器以及处理器来构成的,该处理器具有CPU(Central Processing Unit,中央处理单元)、GPU(Graphics Processing Unit:图形处理单元)等硬件。视线传感器16使用例如公知的模板匹配,将驾驶员的眼睛的不活动的部分检测为基准点(例如眼角),并且将眼睛的活动的部分(例如虹膜)检测为动点,根据该基准点和动点的位置关系而检测驾驶员的视线。此外,在实施方式1中,视线传感器16利用可视照相机来检测驾驶员的视线,但不限定于此,也可以利用红外照相机来检测驾驶员的视线。在利用红外照相机构成视线传感器16的情况下,利用红外LED(Light Emitting Diode,发光二极管)等对驾驶员照射红外光,根据用红外照相机对驾驶员进行摄像而生成的图像数据来检测基准点(例如角膜反射)以及动点(例如瞳孔),并根据该基准点和动点的位置关系而检测驾驶员的视线。
显示部17设置于车辆的前窗或者仪表板,根据ECU19的控制,通过将像、影像以及文字信息投影到前窗而进行显示。显示部17是使用例如HUD(Head-UP Display,抬头显示器)等构成的。具体而言,显示部17是使用投影图像的具有有机EL(Electro Luminescence:电致发光)或液晶等显示面板的图像显示机、使从该图像显示机投影的图像成像为中间图像的扩散板、以及将由扩散板成像的中间图像放大并投影到前窗的放大镜等构成的。
已学习模型存储部18存储有使用多个车辆取得的行驶数据进行机器学习而得到的已学习模型。在此,行驶数据是指:车辆的车速、对油门踏板、刹车踏板以及离合踏板等的操作量、对方向盘的操舵量、车辆产生的加速度等举动信息、气候、拥堵状况、车辆的位置信息以及车辆的齿轮信息。另外,已学习模型是基于使用神经网络的深层学习而生成的已学习模型。具体而言,已学习模型是正向传播型神经网络,具有输入层、中间层以及输出层。输入层由多个节点构成,对各节点输入相互不同的输入参数。中间层具有多层构造,该多层构造包括由受理来自输入层的输入的多个节点构成的层。输出层被输入来自中间层的输出,并输出输出参数。输入层的各节点对邻接的中间层的各节点输出信号,该信号具有对输入参数乘以预定的权重而得到的值。中间层被输入对来自输入层的各节点的输出加上预定的偏置而得到的值。这样,沿着从输入层的那一侧朝向输出层的那一侧的正向依次反复,从而最终从输出层输出一个输出参数。使用中间层具有多层构造的神经网络的机器学习被称为深层学习。在实施方式1中,输入参数是“车辆的车速、对油门踏板、刹车踏板以及离合踏板等的操作量、对方向盘的操舵量、车辆产生的加速度等举动信息以及车辆的位置信息”,输出参数是“针对操作部件的推荐操作量、针对方向盘的推荐操舵量、车辆的车速以及车辆的行驶线路”。另外,存储已学习模型意味着存储已学习模型中的网络参数、运算的算法等信息。
ECU19控制构成驾驶支援装置1的各部的动作。ECU19是使用存储器和处理器构成的,该处理器具有CPU、GPU(Graphics Processing Unit,图形处理单元)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、DSP(Digital Signal Processing,数字信号处理器)以及ASIC(Application Specific Integrated Circuit,专用集成电路)等任意的硬件。ECU19根据从视线传感器16取得的与驾驶员的视线有关的视线信息,将驾驶支援信息输出到驾驶员的视场区域中。在此,在静视场角的情况下,驾驶员的视场区域是指:在以驾驶员的视线为基准(0度)时,视场角在水平方向的左右方向各为100度,在垂直方向的上方向是60度,在垂直方向的下方向是75度。
另外,ECU19将驾驶支援信息输出到驾驶员的视场区域内的设置于车辆的操作部件所在的区域的、与操作部件正交的正交方向的区域(以下简称为“正上方的区域”)中。具体而言,ECU19将从操作传感器12取得的驾驶员对油门踏板的操作量、和从车速传感器11取得的车辆的车速作为输入参数而输入到已学习模型存储部18所存储的已学习模型,输出作为从已学习模型输出的输出参数的针对油门踏板的推荐操作量。然后,ECU19将操作量以及推荐操作量输出到显示部17,以将操作量以及推荐操作量作为驾驶支援信息而投影显示于油门踏板的正上方的区域。
进而,ECU19将从方向盘传感器13取得的驾驶员对方向盘的操舵量、和从车速传感器11取得的车辆的车速作为输入参数而输入到已学习模型存储部18所存储的已学习模型,并输出作为从已学习模型输出的输出参数的针对方向盘的推荐操舵量。然后,ECU19将操舵量以及推荐操舵量输出到显示部17,以将操舵量以及推荐操舵量作为驾驶支援信息而投影显示于方向盘的正上方的区域。
另外,ECU19将驾驶支援信息输出到驾驶员的视线上的驾驶员与车辆的前窗之间。具体而言,ECU19根据从举动传感器4取得的车辆的举动信息而生成驾驶支援信息,将驾驶支援信息输出到显示部17,以在驾驶员与车辆的前窗之间投影显示该驾驶支援信息。在此,“视线上”是指:以驾驶员的视线为基准,在以包括视线的预定的范围(例如从视线起5cm×5cm的范围)设定的视场区域内即可。此外,在实施方式1中,ECU19作为处理器发挥功能。
〔驾驶支援装置的处理〕
接下来,说明驾驶支援装置1执行的处理。图2是示出驾驶支援装置1执行的处理的概要的流程图。
如图2所示,首先,ECU19取得视线传感器16检测出的与驾驶员的视线有关的视线信息(步骤S101),并从举动传感器14取得车辆的举动信息,从操作传感器12取得与驾驶员的操作量有关的操作信息,以及从方向盘传感器13取得与驾驶员的操舵量有关的操舵信息(步骤S102)。
接下来,ECU19将车辆的车速、车辆的举动信息、驾驶员的操作信息、驾驶员的操舵信息作为输入参数而输入到已学习模型存储部18所存储的已学习模型,从而使已学习模型计算油门踏板的推荐操作量以及方向盘的推荐操舵量的各个来作为输出参数(步骤S103)。
之后,ECU19以将驾驶支援信息显示于驾驶员的视场区域的方式将驾驶支援信息输出到显示部17,并使显示部17投影显示驾驶支援信息(步骤S104)。
在此,详细说明ECU19输出的驾驶支援信息。图3是示意地示出ECU19使驾驶支援信息显示于显示部17时的显示位置的图。
如图3所示,ECU19以在作为设置于车辆100的操作部件的油门踏板101的正上方的、驾驶员的视场区域内的前窗W1的区域中投影显示驾驶支援信息M1的方式,将驾驶支援信息M1输出到显示部17。驾驶支援信息M1包括:驾驶员对油门踏板101实际操作的操作量T1;和针对油门踏板101的推荐操作量T2。在该情况下,ECU19也可以以能够识别的显示样式、例如以利用红色显示操作量T1、利用绿色显示推荐操作量T2的方式,将操作量T1以及推荐操作量T2的各个输出到显示部17。此外,ECU19以显示针对油门踏板101的驾驶支援信息M1的方式,将驾驶支援信息M1输出到了显示部17,但也可以例如与油门踏板101同样地,在显示部17中输出包括刹车踏板102的操作量以及推荐操作量的驾驶支援信息,还可以以并行地显示刹车踏板102以及油门踏板101各自的驾驶支援信息的方式,在显示部17中输出2个驾驶支援信息。
另外,ECU19以在车辆100的方向盘103的正上方的、驾驶员的视场区域内的前窗W1的区域中投影显示驾驶支援信息M10的方式,将驾驶支援信息M10输出到显示部17。驾驶支援信息M10包括:方向盘103的基准位置T10、驾驶员从方向盘103的基准位置(中心位置)起实际操舵的操舵量T11、以及针对方向盘103的推荐操舵量T12。在该情况下,ECU19也可以以能够识别的显示样式、例如以利用蓝色显示基准位置T10、利用红色显示操舵量T11、利用绿色显示推荐操舵量T12的方式,将基准位置T10、操舵量T11以及推荐操舵量T13的各个输出到显示部17。
进而,ECU19以在驾驶员的视线上的、驾驶员与车辆的前窗W1之间投影显示驾驶支援信息G1的方式,将驾驶支援信息G1输出到显示部17。驾驶支援信息G1包括:接受部B1,其具有凹面且形成为碗状;和球部B2,其能够根据在车辆100的前后以及左右产生的重力加速度的变化而在接受部B1上虚拟地移动。ECU19根据从举动传感器14输入的举动信息,以使球部B2在接受部B1上移动的方式输出到显示部17。此外,ECU19使驾驶支援信息G1以立体的形状显示于显示部17,但不限定于此,也可以例如使二维图像的箭头或图形在平面内移动而显示于显示部17。
这样,驾驶员无需在驾驶时变更驾驶的视场区域,仅通过移动视线就能够直观地掌握实际的操作量和推荐操作量,所以能够在确保安全性并且感受驾驶乐趣的同时,提高驾驶技术。
返回到图2,继续步骤S105及其以后步骤的说明。
在步骤S105中,ECU19判定IG开关10是否为断开状态。在由ECU19判定为IG开关10为断开状态的情况下(步骤S105:“是”),驾驶支援装置1结束本处理。相对于此,在由ECU19判定为IG开关10并非断开状态的情况下(步骤S105:“否”),驾驶支援装置1返回到步骤S101。
根据以上说明的实施方式1,ECU19根据驾驶员的视线信息,在驾驶员的视场区域中输出对车辆的驾驶进行支援的驾驶支援信息M1、M10、G1,所以驾驶员无需在驾驶中变更视场区域,因此能够确保驾驶时的安全性。
另外,根据实施方式1,ECU19以在油门踏板101的正上方投影显示驾驶支援信息M1的方式,在显示部17中输出驾驶支援信息M1,所以驾驶员能够直观地掌握驾驶支援信息M1。
另外,根据实施方式1,ECU19以在油门踏板101的正上方投影显示实际的操作量T1和推荐操作量T2的方式,在显示部17中输出操作量T1和推荐操作量T2,所以驾驶员能够在掌握实际的操作量与推荐操作量之差的同时进行操作,因此能够在感受驾驶乐趣的同时,提高驾驶技术。
另外,根据实施方式1,ECU19以在驾驶员的视线上的、驾驶员与车辆的前窗W1之间的区域中投影显示驾驶支援信息G1的方式,在显示部17中输出驾驶支援信息G1,所以驾驶员能够在确保驾驶时的安全性的同时,感受驾驶乐趣。
另外,根据实施方式1,ECU19以投影显示基于车辆的举动的驾驶支援信息G1的方式,在显示部17中输出驾驶支援信息G1,所以驾驶员能够直观地掌握车辆所产生的举动,进行与车辆的举动对应的操作,因此能够提高驾驶技术。
另外,根据实施方式1,ECU19根据在车辆的前后以及左右产生的重力加速度的变化,使球部B2在接受部B1上移动,所以驾驶员能够直观地掌握车辆的举动,并进行与车辆的举动对应的操作,所以能够提高驾驶技术。
此外,在实施方式1中,ECU19以驾驶员能够视觉辨认驾驶支援信息的方式,在显示部17中输出了驾驶支援信息,但不限定于此,例如ECU19也可以根据乘坐车辆的乘员的视线信息,以在乘员的视场区域中显示对车辆的驾驶进行支援的驾驶支援信息的方式,在显示部17中输出驾驶支援信息。
(实施方式1的变形例1)
接下来,说明实施方式1的变形例1。在上述实施方式1中,设想车辆100是自动变速车辆的情况,而在实施方式1的变形例1中,设想车辆100是手动变速车辆的情况。
图4是示意地示出实施方式1的变形例1的ECU19使驾驶支援信息显示于显示部17时的显示位置的图。
如图4所示,除了上述驾驶支援信息M1以及驾驶支援信息G1以外,ECU19还将对针对刹车踏板102的驾驶操作进行支援的驾驶支援信息M20以及对针对离合踏板105的驾驶操作进行支援的驾驶支援信息M30也输出到显示部17,从而使驾驶支援信息M20以及驾驶支援信息M30显示于显示部17。在该情况下,ECU19以在刹车踏板102以及离合踏板105各自的正上方的区域中显示驾驶支援信息M20以及驾驶支援信息M30的方式,在显示部17中输出驾驶支援信息。
驾驶支援信息M20包括:驾驶员对刹车踏板102实际操作的操作量T21;和ECU19根据驾驶员对刹车踏板102的操作量T21和已学习模型而计算出的、针对刹车踏板102的推荐操作量T22。在该情况下,ECU19也可以以能够识别的显示样式、例如以利用红色显示操作量T21、利用绿色显示推荐操作量T22的方式,在显示部17中输出操作量T21以及推荐操作量T22的各个。
另外,驾驶支援信息M30包括:驾驶员对离合踏板105实际操作的操作量T31;以及ECU19根据驾驶员对离合踏板105的操作量T31而计算出的、针对离合踏板105的推荐操作量T32。在该情况下,ECU19也可以以能够识别的显示样式、例如以利用红色显示操作量T31、利用绿色显示推荐操作量T32的方式,在显示部17中输出操作量T31以及推荐操作量T32的各个。
根据以上说明的实施方式1的变形例1,ECU19根据驾驶员的视线信息,在包括驾驶员的视线的视场区域中,输出对车辆的驾驶进行支援的驾驶支援信息M1、M20、M30、G1,所以驾驶员无需在驾驶中变更视场区域,因此能够确保驾驶时的安全性。
(实施方式1的变形例2)
接下来,说明实施方式1的变形例2。图5是示意地示出实施方式1的变形例2的ECU19使驾驶支援信息显示于显示部17时的显示位置的图。
如图5所示,ECU19以在油门踏板101的正上方的、与驾驶员的视场区域内对应的前窗W1的区域中投影显示驾驶支援信息M40、M41的方式,将驾驶支援信息M40、M41输出到显示部17。驾驶支援信息M40包括:驾驶员对油门踏板101实际操作的操作量T41;和针对油门踏板101的推荐操作量T42。进而,驾驶支援信息M41包括:驾驶员对刹车踏板102实际操作的操作量T43:和针对刹车踏板102的推荐操作量T44。另外,ECU19也可以以可识别的显示样式,在显示部17中输出操作量T41、T43以及推荐操作量T42、T44的各个。
根据以上说明的实施方式1的变形例2,ECU19根据驾驶员的视线信息,在包括驾驶员的视线的视场区域中输出对车辆的驾驶进行支援的驾驶支援信息M40、M41,所以驾驶员无需在驾驶中变更视场区域,因此能够确保驾驶时的安全性。
(实施方式1的变形例3)
接下来,说明实施方式1的变形例3。图6是示意地示出实施方式1的变形例3的ECU19使驾驶支援信息显示于显示部17时的显示位置的图。
如图6所示,ECU19以在油门踏板101以及刹车踏板102各自的正上方的、与驾驶员的视场区域内对应的前窗W1的区域中投影显示驾驶支援信息M42以及驾驶支援信息M43的方式,将驾驶支援信息M42以及驾驶支援信息M43输出到显示部17。驾驶支援信息M42包括:驾驶员对油门踏板101实际操作的操作量T45;和针对油门踏板101的推荐操作量T46。进而,驾驶支援信息M43包括:驾驶员对刹车踏板102实际操作的操作量T47;和针对刹车踏板102的推荐操作量T48。另外,ECU19也可以以可识别的显示样式在显示部17中输出操作量T45、T47以及推荐操作量T46、T48的各个。
根据以上说明的实施方式1的变形例3,ECU19根据驾驶员的视线信息,在包括驾驶员的视线的视场区域中输出对车辆的驾驶进行支援的驾驶支援信息M42、M43,所以驾驶员无需在驾驶中变更视场区域,因此能够确保驾驶时的安全性。
(实施方式2)
接下来,说明实施方式2。在上述实施方式1中,通过显示部17在车辆内投影而显示了驾驶支援信息,而在实施方式2中,使用可穿戴装置来显示驾驶支援信息。以下,对与上述实施方式1的驾驶支援装置1相同的结构,附加同一符号而省略了详细的说明。
〔驾驶支援系统的结构〕
图7是示出实施方式2的驾驶支援系统的概略结构的图。图8是示出实施方式2的驾驶支援系统的功能结构的框图。图9是示出实施方式2的可穿戴装置的概略结构的图。
图7~图9所示的驾驶支援系统1000具备:驾驶支援装置1A,设置于车辆100;以及可穿戴装置2,可供驾驶员U1佩戴,与驾驶支援装置1A之间依照预定的通信规格双向地进行通信。
〔驾驶支援装置的结构〕
首先,说明驾驶支援装置1A的结构。图7~图9所示的驾驶支援装置1A具有除了不具备上述实施方式1的驾驶支援装置1的结构中的视线传感器16及显示部17的点以及进一步设置有车辆导航系统20的点以外,与驾驶支援装置1结构相同。此外,驾驶支援装置1A也可以内置于可穿戴装置2。
车辆导航系统20具有GPS(Global Positioning System,全球定位系统)传感器201、地图数据库202以及报告装置203。
GPS传感器201接收来自多个GPS卫星、发送天线的信号,根据接收到的信号而计算车辆100的位置。GPS传感器201是使用GPS接收传感器等构成的。此外,也可以搭载多个GPS传感器201以提高车辆100的朝向精度。
地图数据库202存储各种地图数据。地图数据库202也可以使用HDD(Hard DiskDrive,硬盘驱动器)、SSD(Solid State Drive,固态硬盘)等记录介质来构成。
报告装置203也可以具有:显示部203a,其显示图像、影像及文字信息;以及声音输出部203b或骨导传声器,其发出语音、警报音等声音。显示部203a是使用液晶、有机EL等显示器构成的。声音输出部203b是使用扬声器等构成的。
这样构成的车辆导航系统20通过将由GPS传感器201取得的当前的车辆100的位置重叠到地图数据库202存储的地图数据,而利用显示部203a和声音输出部203b对驾驶员报告包括车辆100当前行驶的道路以及直至目的地的路径等在内的信息。
〔可穿戴装置的结构〕
接下来,说明可穿戴装置2的结构。图7~图9所示的可穿戴装置2是驾驶员佩戴自如的、能够实现增强现实(AR)的眼镜型的装置。进而,可穿戴装置2是如下装置:在透射来自驾驶员的视场区域的光的同时,在驾驶员的视场区域内以能够视觉辨认出虚拟图像的方式成像出驾驶员的视网膜的图像。可穿戴装置2具备摄像装置21、9轴传感器22、投影部24、GPS传感器25、佩戴传感器26、通信部27以及控制部28等。
如图9所示,也可以设置多个摄像装置21。摄像装置21根据控制部28的控制,对例如用户的视线的前方进行摄像,从而生成图像数据,将该图像数据输出到控制部28。摄像装置21是使用由1个或者多个透镜构成的光学系统、和CCD或CMOS等构成的,该CCD、CMOS通过对由上述光学系统聚光的被摄体像进行受光而生成图像数据。
9轴传感器22是使用3轴陀螺传感器、3轴加速度传感器以及3轴地磁传感器(指南针)构成的。9轴传感器22对可穿戴装置2产生的角速度以及加速度进行检测,将其检测结果输出到控制部28。另外,9轴传感器22通过检测地磁来检测绝对方向,将其检测结果输出到控制部28。
视线传感器23检测作为可穿戴装置2的佩戴者的驾驶员的视线的方向,将其检测结果输出到控制部28。视线传感器23是使用光学系统、CCD或者CMOS、存储器、具有CPU、GPU等硬件的处理器构成的。视线传感器23使用例如公知的模板匹配,将驾驶员的眼睛的不活动的部分检测为基准点(例如眼角),并且将眼睛的活动的部分(例如虹膜)检测为动点,基于该基准点和动点之间的位置关系而检测驾驶员的视线的方向。
投影部24根据控制部28的控制,向可穿戴装置显示部(例如透镜部)、驾驶员的视网膜投影图像、影像以及文字信息。投影部24是使用照射RGB的各个激光的RGB激光器、对激光进行反射的MEMS镜、将从MEMS镜反射的激光投影到驾驶员的视网膜的反射镜等构成的。
GPS传感器25接收来自多个GPS卫星的信号,根据接收到的信号而计算可穿戴装置2的位置。GPS传感器25将计算出的可穿戴装置2的位置输出到控制部28。GPS传感器25是使用GPS接收传感器等构成的。
佩戴传感器26检测用户的佩戴状态,将其检测结果输出到控制部28。佩戴传感器26是使用例如压力传感器、生命体征传感器等构成的,其中,压力传感器对用户佩戴可穿戴装置2时的压力进行检测,生命体征传感器对用户的体温、脉搏、脑波、血压以及发汗状态等生命体征信息进行检测。
通信部27根据控制部28的控制,经由网络,依照预定的通信规格而将各种信息发送到驾驶支援装置1或者服务器,并且从驾驶支援装置1或者服务器接收各种信息。通信部27是使用可无线通信的通信模块构成的。
控制部28控制构成可穿戴装置2的各部的动作。控制部28是使用存储器和具有CPU等硬件的处理器构成的。
〔驾驶支援装置的处理〕
接下来,说明驾驶支援装置1A执行的处理。图10是示出驾驶支援装置1A执行的处理的概要的流程图。
如图10所示,ECU19判定驾驶员是否乘坐于车辆100(步骤S201)。例如,ECU19根据经由通信部15取得的、由可穿戴装置2的GPS传感器25检测出的位置信息和由车辆导航系统20的GPS传感器201检测出的位置信息,计算车辆100与可穿戴装置2之间的距离,判定该计算出的距离是否为预定值以上,在距离是预定值以上的情况下,判定为驾驶员从车辆100下车了,另一方面,在距离并非预定值以上的情况下,判定为驾驶员乘坐于车辆100。此外,除了距离以外,ECU19还可以根据设置于车辆100的座席传感器等的检测结果来判定驾驶员是否乘坐于车辆100。在由ECU19判定为驾驶员乘坐于车辆100的情况下(步骤S201:“是”),驾驶支援装置1A转移到后述的步骤S202。相对于此,在由ECU19判定为驾驶员未乘坐于车辆100的情况下(步骤S201:“否”),驾驶支援装置1A转移到后述的步骤S212。
在步骤S202中,ECU19判定驾驶员是否佩戴有可穿戴装置2。具体而言,ECU19经由通信部15而从可穿戴装置2的佩戴传感器26接收表示检测结果的佩戴信号,根据接收到的佩戴信号判定驾驶员是否佩戴有可穿戴装置2。在由ECU19判定为驾驶员佩戴有可穿戴装置2的情况下(步骤S202:“是”),驾驶支援装置1A转移到后述的步骤S203。相对于此,在由ECU19判定为驾驶员未佩戴可穿戴装置2的情况下(步骤S202:“否”),驾驶支援装置1A转移到后述的步骤S212。
在步骤S203中,ECU19判定驾驶员是否对车辆100进行了驾驶支援设定。具体而言,ECU19判定用于设定使驾驶支援信息显示于可穿戴装置2的驾驶支援设定的、未图示的操作部或开关等的状态是否为接通(ON)状态。在由ECU19判定为驾驶员对车辆100进行了驾驶支援设定的情况下(步骤S203:“是”),驾驶支援装置1A转移到后述步骤S204。相对于此,在由ECU19判定为驾驶员并未对车辆100进行驾驶支援设定的情况下(步骤S203:“否”),驾驶支援装置1A转移到后述步骤S212。
在步骤S204中,ECU19取得驾驶员的操作水平。具体而言,ECU19经由通信部15从未图示的服务器取得操作水平,该操作水平是对应于与可穿戴装置2建立有对应的识别信息的驾驶员的操作能力的指标。在此,操作水平是指:根据驾驶员驾驶车辆100的行驶时间而决定的水平以及根据基于上述驾驶支援信息G1驾驶过的驾驶历史而决定的水平等。
接下来,ECU19根据驾驶员的操作水平,在驾驶员的视场区域中将驾驶支援信息输出到可穿戴装置2,从而使可穿戴装置2显示驾驶支援信息(步骤S205)。在步骤S205之后,驾驶支援装置1A转移到后述步骤S206。
在此,详细说明ECU19输出的驾驶支援信息。图11是示意地示出通过ECU19输出而使驾驶支援信息显示于可穿戴装置2时的显示位置的图。
如图11所示,ECU19以在油门踏板101以及刹车踏板102各自的正上方的、驾驶员的视场区域内的方向盘103上的区域中显示驾驶支援信息M50以及驾驶支援信息M51的方式,将驾驶支援信息M50以及驾驶支援信息M51输出到可穿戴装置2。驾驶支援信息M50包括:驾驶员对油门踏板101实际操作的操作量T1;和针对油门踏板101的推荐操作量T2。另外,驾驶支援信息M51包括:驾驶员对刹车踏板102实际操作的操作量T21;和针对刹车踏板102的推荐操作量T22。在该情况下,ECU19也可以以能够识别的显示样式进行显示的方式将操作量T1、T3、操作量T21以及推荐操作量T22的各个输出到可穿戴装置2。
另外,ECU19以在驾驶员的视场区域内的、与方向盘103的一部分重叠的区域中显示驾驶支援信息M52的方式,将驾驶支援信息M52输出到可穿戴装置2。驾驶支援信息M52包括:驾驶员从方向盘103的基准位置T10(中心位置)起实际操舵了的操舵量T11;和针对方向盘103的推荐操舵量T12。
进而,ECU19以在驾驶员的视线区域内的仪表板上的中央区域中显示驾驶支援信息G1的方式,将驾驶支援信息G1输出到可穿戴装置2。此外,驾驶支援信息G1还可以显示在驾驶员的视线区域内的仪表板上的中央区域以外,关于其位置,只要是仪表板上,也可以根据驾驶员的操作而适当地进行变更。
另外,在图11所示的状况下,ECU19也可以根据驾驶员的操作水平来限制驾驶支援信息的显示内容。具体而言,ECU19判定驾驶员的操作水平是否为预定的水平以上,在是预定的水平以上的情况下,以仅显示例如驾驶支援信息G1的方式,将驾驶支援信息G1输出到可穿戴装置2。由此,能够进行与驾驶员的操作水平对应的显示,因此能够在感受驾驶乐趣的同时,提高驾驶技术。此外,在图11所示的状况下,ECU19也可以根据未图示的开关等的操作信号来限制驾驶支援信息的显示内容。例如,ECU19既可以在从未图示的开关等输入了禁止驾驶支援信息的显示的操作信号时停止驾驶支援信息的输出,也可以根据来自未图示的开关的指示水平的指示信号来控制驾驶支援信息的显示内容。由此,能够进行与驾驶员的意向对应的显示。
这样,借助可穿戴装置2,驾驶员无需在驾驶时变更驾驶的视场区域,仅通过移动视线,就能够直观地掌握实际的操作量和推荐操作量,所以能够在确保安全性且感受驾驶乐趣的同时,提高驾驶技术。
返回到图10,继续步骤S206及其以后步骤的说明。
ECU19根据车速传感器11的检测结果,判定车辆100是否为行驶中。在由ECU19判定为车辆100是行驶中的情况下(步骤S206:“是”),驾驶支援装置1A转移到后述的步骤S207。相对于此,在由ECU19判定为车辆100并非行驶中的情况下(步骤S206:“否”),驾驶支援装置1A转移到后述步骤S212。
在步骤S207中,ECU19经由通信部15,从可穿戴装置2的视线传感器23取得与驾驶员的视线有关的视线信息。
接下来,ECU19从举动传感器14取得车辆100的举动信息,从操作传感器12取得与驾驶员的操作量有关的操作信息,并且,从方向盘传感器13取得与驾驶员的操舵量有关的操舵信息(步骤S208)。
之后,ECU19将车辆100的车速、车辆100的举动信息、驾驶员的操作信息、驾驶员的操舵信息作为输入参数输入到已学习模型存储部18所存储的已学习模型,使已学习模型计算油门踏板101的推荐操作量以及方向盘103的推荐操舵量的各个来作为输出参数(步骤S209)。
接下来,ECU19在驾驶员的视场区域中将驾驶支援信息输出到可穿戴装置2,从而使可穿戴装置2显示驾驶支援信息(步骤S210)。具体而言,如图12所示,ECU19以在驾驶员的视线上的、驾驶员与车辆的前窗W1之间显示驾驶支援信息G1的方式,将驾驶支援信息G1输出到可穿戴装置2。在该情况下,ECU19根据从举动传感器14输入的举动信息,以根据在车辆100的前后以及左右产生的重力加速度的变化而使球部B2在接受部B1上移动的方式,输出到可穿戴装置2。由此,驾驶员无需在驾驶时变更驾驶的视场区域,仅通过移动视线,就能够直观地掌握针对实际的操作量的操作水平,所以能够在确保安全性并且感受驾驶乐趣的同时,提高驾驶技术。
之后,ECU19根据车速传感器11的检测结果,判定车辆100是否停止(步骤S211)。在由ECU19判定为车辆100停止的情况下(步骤S211:“是”),驾驶支援装置1A转移到后述步骤S212。相对于此,在由ECU19判定为车辆100未停止的情况下(步骤S211:“否”),驾驶支援装置1A返回到上述步骤S204。
在步骤S212中,ECU19判定IG开关10是否为断开(OFF)状态。在由ECU19判定为IG开关10是断开状态的情况下(步骤S212:“是”),驾驶支援装置1A结束本处理。相对于此,在由ECU19判定为IG开关10并非断开状态的情况下(步骤S212:“否”),驾驶支援装置1A返回到步骤S201。
根据以上说明的实施方式2,ECU19以在方向盘103上显示驾驶支援信息的方式将驾驶支援信息输出到可穿戴装置2,所以驾驶员能够在确保安全性的同时,直观地掌握。
另外,根据实施方式2,ECU19在包括驾驶员的视线的视场区域内的方向盘103上,将基准位置T10、操舵量T11以及推荐操舵量T12的各个作为驾驶支援信息M52而输出到可穿戴装置2,所以驾驶员能够在掌握实际的操舵量与推荐操舵量之差的同时进行操作,因此能够在感受驾驶乐趣的同时,提高驾驶技术。
另外,根据实施方式2,在车辆100为移动状态的情况下,ECU19以使驾驶支援信息G1显示于驾驶员的视线上的区域的方式,将驾驶支援信息G1输出到可穿戴装置2,另一方面,在车辆100并非移动状态的情况下,ECU19以使驾驶支援信息G1显示于车辆100的仪表板104上的中央的方式,在可穿戴装置2输出中驾驶支援信息G1,所以驾驶员能够在驾驶时在视线上确认并且直观地掌握车辆100的举动,因此能够提高驾驶技术。
另外,根据实施方式2,ECU19根据作为驾驶员的操作能力的指标的操作水平,来控制驾驶支援信息的显示内容,从而显示适合于驾驶员的操作水平的驾驶支援信息,所以能够进行适合于驾驶员的驾驶支援。
此外,在实施方式2中,ECU19以在方向盘103上投影显示驾驶支援信息的方式,将驾驶支援信息输出到可穿戴装置2,但可穿戴装置2的控制部28也可以控制为:从视线传感器23取得与驾驶员的视线有关的视线信息,根据取得的视线信息,通过利用投影部24投影而在包括驾驶员的视线的视场区域内显示对车辆100的驾驶进行支援的驾驶支援信息。具体而言,控制部28也可以根据从摄像装置21取得的图像数据,检测车辆100的操作部件、例如方向盘的位置,根据其检测结果和视线来控制投影部24,以使得在方向盘上投影显示驾驶支援信息。在该情况下,控制部28作为可穿戴装置2的处理器发挥功能。
(实施方式2的变形例1)
接下来,说明实施方式2的变形例1。在实施方式2的变形例1中,说明应用于把手的例子。
图13是示意地示出实施方式2的变形例1的通过ECU19输出而显示于可穿戴装置2的驾驶支援信息的显示位置的图。
如图13所示,ECU19以在驾驶员的视场区域内的、把手103A的正上方的区域中投影显示驾驶支援信息M60的方式,将驾驶支援信息M60输出到可穿戴装置2。驾驶支援信息M60包括:针对把手103A的从基准位置(水平位置)起的推荐操舵量T60;和表示从基准位置起的角度的角度信息T61、T62、T63。
根据以上说明的实施方式2的变形例1,ECU19以在把手103A的正上方显示驾驶支援信息M60的方式,将驾驶支援信息M60输出到可穿戴装置2,所以驾驶员能够在确保安全性的同时,直观地掌握驾驶支援信息M60。
(实施方式2的变形例2)
接下来,说明实施方式2的变形例2。在实施方式2的变形例2中,说明应用于操纵杆的情况。
图14是示意地示出实施方式2的变形例2的ECU19使驾驶支援信息显示于可穿戴装置2时的显示位置的图。
如图14所示,ECU19以在驾驶员的视场区域内的、操纵杆103B的正上的区域中显示驾驶支援信息M61的方式,将驾驶支援信息M61输出到可穿戴装置2。驾驶支援信息M61包括:针对操纵杆103B的推荐操作量T64、T65;和针对操纵杆103B的从基准位置起的推荐操舵量T66、T67。推荐操作量T64表示针对刹车的推荐操作量,推荐操作量T65表示针对油门的推荐操作量。
根据以上说明的实施方式2的变形例2,ECU19以在操纵杆103B的正上方显示驾驶支援信息M61的方式,将驾驶支援信息M61输出到可穿戴装置2,所以驾驶员能够在确保安全性的同时,直观地掌握驾驶支援信息M61。
(实施方式2的变形例3)
接下来,说明实施方式2的变形例3。在上述实施方式2中,说明了使用油门踏板101、刹车踏板102以及方向盘103的例子,但在实施方式2的变形例3中,也能够应用于与加速柄以及操纵杆的组合。
图15是示意地示出实施方式2的变形例3的ECU19使驾驶支援信息显示于可穿戴装置2时的显示位置的图。
如图15所示,ECU19以在驾驶员的视场区域内的加速柄101C的正上方的区域中显示驾驶支援信息M62的方式,将驾驶支援信息M62输出到可穿戴装置2。另外,ECU19以在驾驶员的视场区域内的操纵杆103C的正上方的区域中显示驾驶支援信息M63的方式,将驾驶支援信息M63输出到可穿戴装置2。进而,ECU19以在驾驶员的视场区域内显示驾驶支援信息G1的方式,将驾驶支援信息G1输出到可穿戴装置2。驾驶支援信息M62包括针对加速柄101C的从基准位置起的推荐操作量T68、T69。推荐操作量T68表示针对刹车的推荐操作量,推荐操作量T69表示针对油门的推荐操作量。驾驶支援信息M63包括针对操纵杆103C的从基准位置(直立信息)起的推荐操舵量T70、T71。
根据以上说明的实施方式2的变形例3,ECU19在加速柄101C的正上方的区域中投影显示驾驶支援信息M62,并且在操纵杆103C的正上方的区域中投影显示驾驶支援信息M63,所以驾驶员能够在确保安全性的同时,直观地掌握驶支援信息。
(实施方式2的变形例4)
接下来,说明实施方式2的变形例4。在实施方式2的变形例4中,应用于控制杆。
图16是示意地示出实施方式2的变形例4的ECU19使驾驶支援信息显示于可穿戴装置2时的显示位置的图。
如图16所示,ECU19以在驾驶员的视场区域内的控制杆101D的正上方的区域中显示驾驶支援信息M64、M65的方式,输出到可穿戴装置2。驾驶支援信息M64包括针对控制杆101D的从基准位置起的推荐操作量T72、T73。推荐操作量T72表示针对油门的推荐操作量,推荐操作量T73表示针对刹车的推荐操作量。驾驶支援信息M65包括针对控制杆101D的从基准位置(直立信息)起的推荐操舵量T74、T75。
根据以上说明的实施方式2的变形例4,ECU19以在控制杆101D的正上方的区域中显示驾驶支援信息M64、M65的方式,将驾驶支援信息输出到可穿戴装置2,所以驾驶员能够在确保安全性的同时,直观地掌握驾驶支援信息。
(实施方式2的变形例5)
接下来,说明实施方式2的变形例5。在实施方式2的变形例5中,应用于把手型的手柄。
图17是示意地示出实施方式2的变形例5的ECU19使驾驶支援信息显示于可穿戴装置2时的显示位置的图。
如图17所示,ECU19以在驾驶员的视场区域内的握柄型的手柄101E的正上方的区域中显示驾驶支援信息M65以及驾驶支援信息M66的方式,输出到可穿戴装置2。驾驶支援信息M65包括针对握柄型的手柄101E的从基准位置起的推荐操作量T79、T80。推荐操作量T79表示针对油门的推荐操作量,推荐操作量T80表示针对刹车的推荐操作量。另外,驾驶支援信息M66包括:把手103E的基准位置T77(水平位置);和从基准位置起的推荐操作量T78。
根据以上说明的实施方式2的变形例5,ECU19以在握柄型的手柄101E的正上方的区域中显示驾驶支援信息M65、M66的方式,将驾驶支援信息输出到可穿戴装置2,所以驾驶员能够在确保安全性的同时,直观地掌握驾驶支援信息。
(实施方式3)
接下来,说明实施方式3。在上述实施方式1、2中,驾驶支援装置1、1A的ECU19根据驾驶员的视线信息,以在驾驶员的视场区域内显示驾驶支援信息的方式进行了输出,而在实施方式3中,服务器从驾驶支援装置以及可穿戴装置的各个中取得车速信息、操作信息、举动信息以及视线信息的各个信息,从而控制可穿戴装置所投影的驾驶支援信息。此外,对与上述实施方式2的驾驶支援系统1000相同的结构附加同一符号,省略详细的说明。
图18是示出实施方式3的驾驶支援系统的概略结构的示意图。图18所示的驾驶支援系统1001具备:搭载于多个车辆100的各个车辆的驾驶支援装置1A;供驾驶员U1佩戴的可穿戴装置2;以及服务器300。多个驾驶支援装置1、可穿戴装置2以及服务器300构成为能够经由基站400以及网络500而相互进行信息通信。另外,服务器300经由基站400以及网络500而从GPS卫星600对车辆100的上空进行摄像,取得图像数据。
〔服务器的结构〕
接下来,说明服务器300的结构。服务器300具备通信部301和控制部302。
通信部301根据控制部302的控制,经由网络500以及基站400,依照预定的通信规格而发送各种信息,并且接收各种信息。另外,通信部301根据控制部302的控制,依照预定的通信规格对各车辆100的驾驶支援装置1以及可穿戴装置2发送各种信息,并且从GPS卫星600、各车辆100的驾驶支援装置1以及可穿戴装置2接收各种信息。通信部301是使用可无线通信的通信模块构成的。
控制部302是使用存储器和处理器构成的,该处理器具有CPU、GPU、FPGA、DSP以及ASIC等中的任意硬件。控制部302根据经由通信部301从可穿戴装置2的视线传感器23取得的与驾驶员的视线有关的视线信息,以在包括驾驶员的视线的视场区域中显示驾驶支援信息的方式,输出到可穿戴装置2。具体而言,控制部302将经由通信部301从操作传感器12取得的驾驶员对油门踏板的操作量、和从车速传感器11取得的车辆的车速作为输入参数而输入到已学习模型存储部303所存储的已学习模型,取得作为从已学习模型存储部303存储的已学习模型输出的输出参数的针对油门踏板的推荐操作量。然后,控制部302以在油门踏板的正上方的区域中将操作量以及推荐操作量显示为驾驶支援信息的方式,将操作量以及推荐操作量输出到可穿戴装置2。
进而,控制部302将经由通信部301从方向盘传感器13取得的驾驶员对方向盘的操舵量和从车速传感器11取得的车辆的车速作为输入参数而输入到已学习模型存储部303存储的已学习模型,取得作为从已学习模型存储部303存储的已学习模型输出的输出参数的针对方向盘的推荐操舵量。然后,控制部302经由通信部301,以在方向盘的正上的区域中将操舵量以及推荐操舵量显示为驾驶支援信息的方式,将操舵量以及推荐操舵量输出到可穿戴装置2。
另外,控制部302根据经由通信部301从举动传感器4取得的车辆的举动信息而生成驾驶支援信息,以使该驾驶支援信息显示于驾驶员与车辆的前窗之间的区域的方式,在可穿戴装置2中输出驾驶支援信息。此外,在实施方式3中,控制部302作为处理器发挥功能。
已学习模型存储部303存储与上述实施方式1的已学习模型存储部18同样的机器学习得到的已学习模型。
根据以上说明的实施方式3,控制部302经由通信部301,以显示于包括驾驶员的视线的视场区域内的方向盘103上的方式,将驾驶支援信息输出到可穿戴装置2,所以驾驶员能够在确保安全性的同时,直观地掌握驾驶支援信息。
(其他实施方式)
在实施方式2、3中,说明了使用驾驶员能够佩戴的眼镜型的可穿戴装置2的例子,但不限定于此,能够应用于各种可穿戴装置。即便是例如如图19所示地具有摄像功能的隐形眼镜型的可穿戴装置2A也能够应用。进而,即便是如图20的可穿戴装置2B或者图21的脑内芯片型的可穿戴装置2C那样向驾驶员U1的大脑直接传递的装置也能够应用。进而,也可以如图22的可穿戴装置2D所示地构成为具备遮阳板的头盔形状。在该情况下,可穿戴装置2D也可以是向遮阳板投影显示图像的结构。
另外,在实施方式2、3中,通过可穿戴装置2投影到驾驶员的视网膜来视觉辨认图像,但也可以是例如向眼镜等的镜片投影显示图像的结构。
另外,在实施方式1~3中,作为机器学习的一个例子,说明了使用神经网络的深层学习,但也可以应用基于其以外的方法的机器学习。例如,也可以使用支持向量机、决策树、朴素贝叶斯、k近邻法等其他有教师的学习。另外,也可以代替有教师的学习而使用有半教师的学习。
另外,在实施方式1~3中,作为输入参数,除了车辆的行驶数据以外,还可以使用通过例如车车间通信、路车间通信等得到的数据。
另外,在实施方式1~3中,能够将上述的“部”改写为“电路”等。例如,控制部能够改写为控制电路。
另外,将由实施方式1~3的驾驶支援装置以及可穿戴装置执行的程序以可安装的形式或者可执行的形式的文件数据的方式记录于CD-ROM、软盘(FD)、CD-R、DVD(DigitalVersatile Disk,数字多功能磁盘)、USB介质、闪存存储器等可由计算机读取的记录介质来提供。
另外,也可以构成为通过将由实施方式1~3的驾驶支援装置以及可穿戴装置执行的程序储存到与因特网等网络连接的计算机上,并经由网络下载来提供。
此外,在本说明书中的流程图的说明中,使用“首先”、“之后”、“接着”等表现明示了步骤之间的处理的前后关系,但为了实施本实施方式而所需的处理的顺序并非由这些表现唯一地决定。即,在本说明书中记载的流程图中的处理的顺序能够在无矛盾的范围内变更。
本领域技术人员能够容易地导出其他效果、变形例。比本发明更宽泛的方案并不限定于如以上所述地表示且记述的特定的详细以及代表性的实施方式。因此,能够不脱离由所附的权利要求及其均等物所定义的总的发明的概念的精神或者范围,而进行各种变更。
Claims (11)
1.一种驾驶支援装置,具备:
存储器;以及
具有硬件的处理器,
所述处理器
取得与就坐于车辆的驾驶席的驾驶员的视线有关的视线信息,
取得与所述车辆的举动有关的举动信息,
根据所述举动信息,至少将球部和具有凹面的接受部生成为用于对所述车辆的驾驶进行支援的驾驶支援信息,该球部能够根据在所述车辆的前后以及左右产生的重力加速度的变化而在所述凹面上虚拟地移动,
根据所述视线信息,将所述驾驶支援信息输出到所述驾驶员的视场区域中的、所述驾驶员的视线上的所述驾驶员与所述车辆的前窗之间的视场区域。
2.根据权利要求1所述的驾驶支援装置,其中,
所述处理器将所述驾驶支援信息输出到在所述视场区域内设置于所述车辆的操作部件的正上方的、与所述操作部件正交的正交方向的区域中。
3.根据权利要求2所述的驾驶支援装置,其中,
所述处理器
取得所述驾驶员对所述操作部件的操作量和所述车辆的车速,
将所述操作量和所述车速作为输入参数而输入到根据多个车辆的行驶数据进行机器学习得到的已学习模型,
将作为从所述已学习模型输出的输出参数的针对所述操作部件的推荐操作量和所述操作量输出为所述驾驶支援信息。
4.根据权利要求1所述的驾驶支援装置,其中,
所述处理器
取得所述车辆的车速,
根据所述车速,判定所述车辆是否为移动状态,
在所述车辆为移动状态的情况下,将所述驾驶支援信息输出到所述驾驶员的视线上。
5.根据权利要求1所述的驾驶支援装置,其中,
所述处理器将所述驾驶支援信息输出到所述视场区域内的所述车辆的方向盘上。
6.根据权利要求5所述的驾驶支援装置,其中,
所述处理器
取得所述方向盘的从基准位置起的操舵量和所述车辆的车速,
将所述操舵量和所述车速作为输入参数而输入到根据多个车辆的行驶数据进行机器学习得到的已学习模型,
将作为从所述已学习模型输出的输出参数的针对所述方向盘的推荐操舵量、所述基准位置以及所述操舵量的各个输出为所述驾驶支援信息。
7.根据权利要求1~6中的任意一项所述的驾驶支援装置,其中,
所述处理器
取得作为所述驾驶员的操作能力的指标的操作水平,
根据所述操作水平,控制所述驾驶支援信息的显示内容。
8.一种可穿戴装置,能够与车辆双向通信,能够在透射视场区域的光的同时,在该视场区域中虚拟地显示图像,其中,所述可穿戴装置具备:
视线传感器,检测与佩戴有该可穿戴装置的驾驶员的视线有关的视线信息;
存储器;以及
具有硬件的处理器,
所述处理器
取得与所述车辆的举动有关的举动信息,
根据所述举动信息,至少将球部和具有凹面的接受部生成为用于对所述车辆的驾驶进行支援的驾驶支援信息,该球部能够根据在所述车辆的前后以及左右产生的重力加速度的变化而在所述凹面上虚拟地移动,
根据所述视线信息而将所述驾驶支援信息输出到所述驾驶员的视场区域中的、所述驾驶员的视线上的所述驾驶员与所述车辆的前窗之间的视场区域。
9.一种驾驶支援系统,具备:
权利要求1~7中的任意一项所述的驾驶支援装置;以及
可穿戴装置,能够与所述驾驶支援装置双向通信,能够在透射视场区域的光的同时,在该视场区域中虚拟地显示图像,
所述可穿戴装置具备检测佩戴有该可穿戴装置的驾驶员的视线信息的视线传感器,
所述处理器根据所述视线信息,在所述驾驶员的视场区域中将所述驾驶支援信息输出到所述可穿戴装置。
10.一种驾驶支援方法,由驾驶支援装置执行,其中,
取得与就坐于车辆的驾驶席的驾驶员的视线有关的视线信息,
取得与所述车辆的举动有关的举动信息,
根据所述举动信息,至少将球部和具有凹面的接受部生成为用于对所述车辆的驾驶进行支援的驾驶支援信息,该球部能够根据在所述车辆的前后以及左右产生的重力加速度的变化而在所述凹面上虚拟地移动,
根据从存储器读出的所述视线信息,将所述驾驶支援信息输出到所述驾驶员的视场区域中的、所述驾驶员的视线上的所述驾驶员与所述车辆的前窗之间的视场区域。
11.一种非易失性计算机可读存储介质,其中,所述非易失性计算机可读存储介质存储有程序,该程序用于使驾驶支援装置执行:
取得与就坐于车辆的驾驶席的驾驶员的视线有关的视线信息,
取得与所述车辆的举动有关的举动信息,
根据所述举动信息,至少将球部和具有凹面的接受部生成为用于对所述车辆的驾驶进行支援的驾驶支援信息,该球部能够根据在所述车辆的前后以及左右产生的重力加速度的变化而在所述凹面上虚拟地移动,
根据所述视线信息,将所述驾驶支援信息输出到所述驾驶员的视场区域中的、所述驾驶员的视线上的所述驾驶员与所述车辆的前窗之间的视场区域。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018231103A JP7115276B2 (ja) | 2018-12-10 | 2018-12-10 | 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム |
JP2018-231103 | 2018-12-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111284498A CN111284498A (zh) | 2020-06-16 |
CN111284498B true CN111284498B (zh) | 2023-05-09 |
Family
ID=70972447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911237739.3A Active CN111284498B (zh) | 2018-12-10 | 2019-12-06 | 驾驶支援装置、系统、方法、可穿戴装置以及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11110933B2 (zh) |
JP (1) | JP7115276B2 (zh) |
CN (1) | CN111284498B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101183221B1 (ko) * | 2012-01-10 | 2012-09-14 | (주)셀텍 | 절삭유 공급 제어 시스템 |
JP2022084136A (ja) * | 2020-11-26 | 2022-06-07 | 株式会社東海理化電機製作所 | 無線通信装置、システムおよびプログラム |
USD991273S1 (en) * | 2021-11-17 | 2023-07-04 | Mazda Motor Corporation | Portion of a display screen with graphical user interface |
USD991949S1 (en) * | 2021-11-17 | 2023-07-11 | Mazda Motor Corporation | Portion of a display screen with graphical user interface |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4698002B2 (ja) * | 2000-07-11 | 2011-06-08 | マツダ株式会社 | 車両の表示装置 |
JP2004197647A (ja) | 2002-12-18 | 2004-07-15 | Toyota Motor Corp | 推奨と実行のアクセル開度対比により制御される自動車 |
ITTO20030662A1 (it) * | 2003-08-29 | 2005-02-28 | Fiat Ricerche | Disposizione di visualizzazione virtuale per un quadro |
JP4371081B2 (ja) | 2005-06-14 | 2009-11-25 | トヨタ自動車株式会社 | 運転評価装置 |
US8140241B2 (en) * | 2005-12-28 | 2012-03-20 | National University Corporation Nagoya University | Driving action estimating device, driving support device, vehicle evaluating system, driver model creating device, and driving action determining device |
JP2008230296A (ja) * | 2007-03-16 | 2008-10-02 | Mazda Motor Corp | 車両用運転支援システム |
JP4480755B2 (ja) * | 2007-12-04 | 2010-06-16 | カルソニックカンセイ株式会社 | 車両用ヘッドアップディスプレイ装置 |
JP2010083205A (ja) * | 2008-09-29 | 2010-04-15 | Denso Corp | 衝突警戒車両認知支援装置 |
US20120215403A1 (en) * | 2011-02-20 | 2012-08-23 | General Motors Llc | Method of monitoring a vehicle driver |
KR101382772B1 (ko) * | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | 디스플레이 시스템 및 방법 |
DE112014000351T5 (de) * | 2013-01-04 | 2015-09-17 | Johnson Controls Technology Company | Kontextbasierte Fahrzeug-Benutzerschnittstellen-Rekonfiguration |
US20160054563A9 (en) * | 2013-03-14 | 2016-02-25 | Honda Motor Co., Ltd. | 3-dimensional (3-d) navigation |
JP6236211B2 (ja) * | 2013-03-29 | 2017-11-22 | 株式会社Subaru | 輸送機器用表示装置 |
KR20160044528A (ko) * | 2013-08-22 | 2016-04-25 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 운전자 안전을 위한 시선의 영향 |
JP6369055B2 (ja) * | 2014-03-04 | 2018-08-08 | 株式会社デンソー | 車両用表示装置 |
JP6187413B2 (ja) | 2014-08-19 | 2017-08-30 | 株式会社デンソー | 車両用情報提示方法、車両用情報提示システム、車載装置 |
US20160084661A1 (en) * | 2014-09-23 | 2016-03-24 | GM Global Technology Operations LLC | Performance driving system and method |
WO2016060268A1 (ja) * | 2014-10-17 | 2016-04-21 | 株式会社リコー | 車両用画像表示システム |
KR101838187B1 (ko) * | 2016-03-25 | 2018-04-26 | 엘지전자 주식회사 | 디스플레이 장치 및 이를 포함하는 차량 |
JP2018022958A (ja) * | 2016-08-01 | 2018-02-08 | 株式会社デンソー | 車両用表示制御装置及び車両用モニタシステム |
JP6865006B2 (ja) * | 2016-09-28 | 2021-04-28 | 矢崎総業株式会社 | 車両用表示装置 |
CN106643781A (zh) * | 2016-12-14 | 2017-05-10 | 英业达科技有限公司 | 车辆导航显示系统及其方法 |
JP2018165692A (ja) * | 2017-03-28 | 2018-10-25 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、提示システム |
US11151813B2 (en) * | 2017-06-28 | 2021-10-19 | Zendrive, Inc. | Method and system for vehicle-related driver characteristic determination |
JP6986699B2 (ja) * | 2017-07-04 | 2021-12-22 | パナソニックIpマネジメント株式会社 | 表示制御システム、表示システム、移動体、表示制御方法及びプログラム |
US10671868B2 (en) * | 2017-10-02 | 2020-06-02 | Magna Electronics Inc. | Vehicular vision system using smart eye glasses |
JP6666892B2 (ja) * | 2017-11-16 | 2020-03-18 | 株式会社Subaru | 運転支援装置及び運転支援方法 |
CN108944930B (zh) * | 2018-07-05 | 2020-04-21 | 合肥工业大学 | 一种基于lstm的模拟驾驶员特性的自动跟车方法及系统 |
-
2018
- 2018-12-10 JP JP2018231103A patent/JP7115276B2/ja active Active
-
2019
- 2019-12-06 CN CN201911237739.3A patent/CN111284498B/zh active Active
- 2019-12-06 US US16/705,613 patent/US11110933B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN111284498A (zh) | 2020-06-16 |
US20200180645A1 (en) | 2020-06-11 |
US11110933B2 (en) | 2021-09-07 |
JP7115276B2 (ja) | 2022-08-09 |
JP2020093590A (ja) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111284498B (zh) | 驾驶支援装置、系统、方法、可穿戴装置以及存储介质 | |
US10455882B2 (en) | Method and system for providing rear collision warning within a helmet | |
CN111433067B (zh) | 平视显示装置及其显示控制方法 | |
EP2936065B1 (en) | A system for a vehicle | |
US20170028995A1 (en) | Vehicle control apparatus | |
JP5723106B2 (ja) | 車両用ディスプレイ装置及び車両用ディスプレイ方法 | |
US11525694B2 (en) | Superimposed-image display device and computer program | |
CN111169382B (zh) | 驾驶辅助装置、驾驶辅助系统、驾驶辅助方法以及程序 | |
JP2016090344A (ja) | ナビゲーション装置、及びナビゲーションプログラム | |
US20190317328A1 (en) | System and method for providing augmented-reality assistance for vehicular navigation | |
CN110786004A (zh) | 显示控制装置、显示控制方法及程序 | |
JP2017007481A (ja) | 車載ヘッドアップディスプレイ装置及び車載表示システム | |
US10800431B2 (en) | Vehicle | |
CN112424570A (zh) | 抬头显示器 | |
KR20200032547A (ko) | 자율주행차량용 ar게임 장치 및 그 방법 | |
US11274934B2 (en) | Information output device, output control method, and storage medium | |
CN112915549B (zh) | 图像处理装置、显示系统、记录介质以及图像处理方法 | |
US11393196B2 (en) | Line of sight assistance device and method | |
JP6855759B2 (ja) | 自動運転車両の制御システム | |
US11376514B2 (en) | Experience system, experience providing method, and computer readable recording medium | |
WO2018030320A1 (ja) | 車両用表示装置 | |
JP6405930B2 (ja) | 車載用表示装置 | |
JP5915519B2 (ja) | 音像定位装置、及び、プログラム | |
KR20170082757A (ko) | 차량, 웨어러블 장치, 및 신호등 정보 제공 방법 | |
JP2021157749A (ja) | 画像生成装置及び画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |