CN110562250A - 驾驶预测方法及其处理装置与系统 - Google Patents
驾驶预测方法及其处理装置与系统 Download PDFInfo
- Publication number
- CN110562250A CN110562250A CN201810929140.5A CN201810929140A CN110562250A CN 110562250 A CN110562250 A CN 110562250A CN 201810929140 A CN201810929140 A CN 201810929140A CN 110562250 A CN110562250 A CN 110562250A
- Authority
- CN
- China
- Prior art keywords
- prediction model
- image sequence
- driving
- image
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 title claims abstract description 38
- 230000002159 abnormal effect Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 16
- 230000004044 response Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 241000270295 Serpentes Species 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000003449 preventive effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000031427 Foetal heart rate deceleration Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/0083—Setting, resetting, calibration
- B60W2050/0088—Adaptive recalibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Databases & Information Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Algebra (AREA)
- Pure & Applied Mathematics (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
一种驾驶预测方法及其处理装置与系统,该方法适用于设置于运输载具中的处理装置,其中处理装置连接于影像撷取装置以及输出装置并且预先储存预测模型。该方法包括下列步骤:自影像撷取装置接收运输载具周围的影像序列;以及判断影像序列是否符合预测模型,以根据运输载具的行驶状况,更新预测模型。
Description
技术领域
本发明涉及一种驾驶预测技术,且特别涉及一种驾驶预测方法及其处理装置与系统。
背景技术
先进驾驶辅助系统(advanced driver assistance system,ADAS)是指安装于车辆上的各种传感器,其用于感测光线、热源、压力等参数,藉由通过收集车体内外的数据,在第一时间内通知驾驶者注意所发生的状况。
然而,当车辆以高速行驶时,驾驶者往往较专注于前方路况而较容易忽略左右两侧车道的状况,其可刹停的距离需要有相当的经验做判断,且当下车辆是否可做符合预期的操作亦难以判定。此外,驾驶者无可避免会有注意力降低的情况,尤其是在高速且少曲折的行进路段,驾驶者对于前方与两侧具有不正常驾驶的车辆的反应时间会延迟,更严重者甚至会忽略而错失提前减速以预防碰撞的机会,而造成事故的发生。
发明内容
有鉴于此,本发明提供一种驾驶预测方法及其处理装置与系统,其可在驾驶者驾驶运输载具的过程中,达到预测与预防事故的发生。
在本发明的一实施例中,上述的方法适用于设置于运输载具中的处理装置,其中处理装置连接于影像撷取装置以及输出装置并且预先储存预测模型。该方法包括下列步骤:自影像撷取装置接收运输载具周围的影像序列;以及判断影像序列是否符合预测模型,以根据运输载具的行驶状况,更新预测模型。
在本发明的一实施例中,上述的处理装置设置于运输载具中,连接于影像撷取装置以及输出装置。处理装置包括存储体以及处理器,其中存储体耦接于处理器。存储体用于预先储存预测模型。处理器用于:自影像撷取装置接收运输载具周围的影像序列;以及判断影像序列是否符合预测模型,以根据运输载具的行驶状况,更新预测模型。
在本发明的一实施例中,上述的系统设置于运输载具中,并且包括影像撷取装置、输出装置以及处理装置,其中处理装置连接于影像撷取装置以及输出装置并且预先储存预测模型。影像撷取装置用于撷取运输载具周围的影像序列。输出装置用于输出警示信号。处理装置用于:自影像撷取装置接收运输载具周围的影像序列;判断影像序列是否符合预测模型,以根据运输载具的行驶状况,更新预测模型。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合附图作详细说明如下。
附图说明
图1A是根据本发明一实施例所绘示的驾驶预测系统的方块图。
图1B是根据本发明一实施例所绘示的驾驶预测系统的示意图。
图1C是根据本发明一实施例所绘示的三种驾驶预测情境的示意图。
图2是根据本发明一实施例所绘示的驾驶预测方法的流程图。
图3是根据本发明另一实施例所绘示的驾驶预测方法的流程图。
图4是根据本发明一实施例所绘示的预测模型的构建方法的流程图。
标号说明:
100、100B:驾驶预测系统
110:影像撷取装置
120:处理装置
122:存储体
124:处理器
130:输出装置
C:相机模块
S:播放器
D:显示屏幕
A:警示灯
D1~D3:区域
S202~S204、S302~S328、S411~436:步骤
VS:影像序列
VS’:已标示的影像序列
S41~S43:阶段
具体实施方式
本发明的部分实施例接下来将会配合附图来详细描述,以下的描述所引用的组件符号,当不同附图出现相同的组件符号将视为相同或相似的组件。这些实施例只是本发明的一部分,并未公开本发明的所有可实施方式。更确切的说,这些实施例只是本发明的专利申请范围中的方法、处理装置以及系统的范例。
图1A是根据本发明一实施例所绘示的驾驶预测系统的方块图,但这仅是为了方便说明,并不用来限制本发明。首先图1A先介绍驾驶预测系统的所有构件以及配置关系,详细功能将配合后续实施例一并公开。
请参照图1A,驾驶预测系统100包括影像撷取装置110、处理装置120以及输出装置130,其中驾驶预测系统100可设置于汽车、公交车、货柜车、电动车、机车等运输载具中。
影像撷取装置110用于在驾驶过程中拍摄并且录制运输载具前方、两侧甚至后方等周围的影像。影像撷取装置110包括具有透镜以及感光组件的摄像镜头。感光组件用于感测进入透镜的光线强度,进而产生影像。感光组件可以例如是电荷耦合器件(chargecoupled device,CCD)、互补性金属氧化物半导体(complementary metal-oxidesemiconductor,CMOS)组件或其他类似组件。影像撷取装置110的数量可以是单个或是多个以增加预测的准确度,而其也可以是采用高倍率的摄像镜头以撷取到人眼不易观察到的距离的画面。
处理装置120用于对影像撷取装置110所撷取到的影像以及驾驶人在驾驶过程中所产生的驾驶信息进行处理。在本实施例中,处理装置120至少包括存储体122以及处理器124。存储体122用于储存视频影像、数据、程序代码,其可以例如是任意形式的固定式或可移动式随机存取存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flash memory)、硬盘或其他类似装置、集成电路及其组合。处理器124用于执行所提出的驾驶预测方法,其可以例如是中央处理单元(central processing unit,CPU)、图形处理器(graphics processing unit,GPU),或是其他可编程的一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digital signal processor,DSP)、可编程控制器、专用集成电路(application specific integrated circuits,ASIC)、可编程逻辑器件(programmable logic device,PLD)或其他类似装置、芯片、集成电路及其组合。
输出装置130用于输出警示信号,其可以例如是播放音乐、语音或声响的喇叭,显示文字、图标的屏幕,或是发出灯光或是闪烁效果的警示灯。
必须说明的是,在本实施例中,处理装置120可以与影像撷取装置110以及输出装置130整合为单一装置并且例如是设置于挡风玻璃的任一位置。具体来说,图1A的驾驶预测系统100可以实现成如图1B根据本发明一实施例所绘示的驾驶预测系统100B,其中左图以及右图分别是以前、后两侧不同视角所绘示。图1A的影像撷取装置110可以实现成为图1B的驾驶预测系统100B中的相机模块C,图1A的处理装置120可以实现成为图1B的驾驶预测系统100B中的控制器(未绘示),图1A的输出装置130可以实现成为图1B的驾驶预测系统100B中的显示屏幕D、警示灯A以及播放器S。
举例来说,图1C是根据本发明一实施例所绘示的三种驾驶预测情境的示意图。当驾驶预测系统100B判断需针对左侧车道进行预警时,警示灯A将会闪烁,播放器S将会进行语音提醒,而显示屏幕D对应于左侧车道的区域D1将会亮灯,藉以警示驾驶者。类似地,当驾驶预测系统100B判断需针对当前车道进行预警时,警示灯A将会闪烁,播放器S将会进行语音提醒,而显示屏幕D对应于当前车道的区域D2将会亮灯。当驾驶预测系统100B判断需针对右方车道进行预警时,警示灯A将会闪烁,播放器S将会进行语音提醒,而显示屏幕D对应于右方车道的区域D3将会亮灯。本领域普通技术人员应明白,驾驶预测系统100B可提供驾驶者依照使用习惯来自行设定警示的方式,本发明不对此设限。
在另一实施例中,处理装置120可以分别与影像撷取装置110以及输出装置130无线或是有线地连接。影像撷取装置110以及输出装置130可以是安装于运输载具,而处理装置120可以是智能型手机、平板计算机、车用计算机等具有运算功能的电子装置,本发明不对此设限。
图2是根据本发明一实施例所绘示的驾驶预测方法的流程图,而图2的方法流程可以图1的驾驶预测系统100来实现。在本实施例中,存储体122将预先储存一个预测模型,其是根据多个行车影片,以机器学习的方式从中训练而构建出的分类器,藉以预判运输载具的前方路况是否具有潜在危险。这些做为训练素材的行车影片包括车辆正常与不正常驾驶的状况、事故发生前与事故发生后的情境,而预测模型的细节将在后续实施例中详细说明。
请同时参照图1以及图2,首先处理装置120的处理器124将自影像撷取装置110接收运输载具周围的影像序列(步骤S202)。在此,影像撷取装置110所撷取到的影像序列可以例如是与运输载具相距50公尺以下的前车道的影像画面、两侧车道的影像画面以及与运输载具相距50公尺以上的远距前车道的影像画面、远距两侧车道的影像画面。接着,处理器124将判断影像序列是否符合预测模型,以根据运输载具的行驶状况,更新预测模型(步骤S204)。详细来说,处理器124将藉由本领域普通技术人员所熟知的影像分析来将影像序列的影像画面与预测模型进行特征比对,藉以判定影像序列是否符合预测模型。举例来说,预测模型中的分类器可判断影像序列是否存在默认的危险路况,例如蛇行、超车、急刹车、竞速、安全车距不足等无论是运输载具本身或者是其四周车辆的危险驾驶行为所造成的状况。接着,处理器124将进一步地根据影像序列是否符合预测模型以及运输载具的行驶状况来更新预测模型。
在本实施例中,当处理器124判定影像序列符合预测模型时,将控制输出装置130发出警示信号,并且根据运输载具的行驶状态更新预测模型。详细来说,当处理器124判定出影像序列符合预测模型中所默认的危险路况时,将会藉由警示信号来提醒驾驶者应进行例如是减速、刹车、转向、变换车道等预防性的反应。之后,处理器124将藉由运输载具的行驶状态来判定驾驶者对于警示信号发出后的实际反应来更新存储体122中的预测模型。
另一方面,当影像序列不符合预测模型时,处理器124将根据运输载具的行驶状态,更新预测模型。详细来说,当处理器124判定影像序列不符合预测模型时,代表其无法经由目前路况来判定是否存在预设的危险路况,而处理器124仍会藉由运输载具的行驶状态来判定驾驶者是否有异常的驾驶行为以更新存储体122中的预测模型。换言之,处理器124将根据影像序列、驾驶者对于警示信号的驾驶反应以及一般的驾驶行为来针对原有的预测模型进行改善,以产生更为贴近驾驶者的驾驶习惯的预测模型。举例来说,其可用于调整触发输出装置130发出警示信号的敏感度,而其具体实施方式将于稍后叙明。
为了更方便明了,以下将以图3根据本发明另一实施例所绘示的驾驶预测方法的流程图来加以说明图2的实际应用方式以及细节,而图3的方法流程亦可以显示系统100来实现。
请同时参照图1以及图3,首先处理装置120的处理器124将自影像撷取装置110接收运输载具周围的影像序列VS,并且对其进行对焦、白平衡、曝光的调整、裁切等影像前处理(步骤S302),以加速后续的图像处理速度。
接着,处理器124将判断影像序列VS是否符合预测模型(步骤S304),以将影像序列VS的影像画面与分类器的预测模型进行比对,再将结果依照是否符合预测模型来进行归类。如前述实施例,存储体122储存了包括对应于蛇行、超车、急刹车、竞速、安全车距不足等多种危险驾驶行为的预测模型,则分类器可以根据影像序列VS是否符合预测模型来判别影像序列VS所属的类别。
当处理器124判定影像序列符合预测模型时,将控制输出装置130发出警示信号(步骤S306),藉由警示信号来提醒驾驶者应进行例如是减速、刹车、转向、变换车道等预防性的反应。此外,处理器124甚至可选择性地产生车辆制动系统的制动信号(步骤S308),例如介入刹车系统以发出刹车通知、介入方向灯系统以发出方向灯通知等等。接着,处理器124将藉由判断运输载具是否根据警示信号而具有相对应的行驶状态来判断驾驶者是否确实依据警示信号做出相对应的驾驶反应(步骤S310)。当运输载具根据警示信号做出相对应的行驶状态(即,驾驶者有依据警示信号做出相对应的驾驶反应)时,处理器124将标示影像序列VS为“符合预测模型”(步骤S312)。
在此,当运输载具没有根据警示信号做出相对应的行驶状态(即,驾驶者没有依据警示信号做出相对应的驾驶反应)时,也就是当影像序列VS符合预测模型但与驾驶者的反应方式不符(驾驶行为没有改变)时,处理器124将标示影像序列VS为“不符合预测模型”(步骤S314)。值得注意的是,当处理器判定影像序列VS符合预测模型但未控制输出装置130发出警示信号(即处理器124判定影像序列VS为无需进行任何警示的正常驾驶,但驾驶者却出现预防性的反应而使得运输载具的行驶状态改变)时,亦属于标示为“不符合预测模型”的范畴。
另一方面,当处理器124在步骤S306中就已判定影像序列VS不符合预测模型时,处理器124将藉由判断运输载具的行驶状态是否改变来判断驾驶者是否有异常的驾驶行为(步骤S316)。在此,处理器124是在无法藉由预测模型来对影像序列VS进行分类的情况下,处理器124会将影像序列VS判定为不符合预测模型。原因在于默认模型的训练数据有限,无法包含所有行车状况,因此在针对此类影像序列进行分类时,影像符合度的分数皆低。在此情况下,处理器124则会判断驾驶者是否有例如是减速、刹车、转向、变换车道等异常的驾驶行为。
当运输载具的行驶状态没有改变(即,驾驶者没有异常的驾驶行为)时,处理器124将标示影像序列VS为“不符合预测模型并且不具有异常驾驶行为”(步骤S318),也就是可视为正常的驾驶状况。当运输载具的行驶状态改变(即,驾驶者有异常的驾驶行为)时,处理器124将标示影像序列VS为“不符合预测模型并且具有异常驾驶行为”(步骤S320),也就是可视为不正常的驾驶状况,而处理器124可进一步地标示出影像序列VS的驾驶行为。
处理器124会将已标示的影像序列储存于存储体122中(步骤S322),以供后续做为更新预测模型的依据。换言之,用于更新预测模型的依据则是包括了步骤S312中标示为“符合预测模型”、步骤S314中标示为“不符合预测模型”、步骤S316中标示为“不符合预测模型并且不具有异常驾驶行为”以及步骤S320中标示为“不符合预测模型并且具有异常驾驶行为”的影像序列。
接着,将进入到预测模型的训练阶段,而此阶段可以是运输载具在行进中的实时处理,亦可以是运输载具在非行进中的非实时处理,其可视处理器124的处理效能来设定。处理器124将会根据存储体122所储存的已标示的影像序列VS’以及预测模型以机器学习算法来产生新预测模型(步骤S324)。在此,处理器124可以是基于类神经网络模型来产生预测模型的微调参数或者是重新建立预测模型,而该类神经网络模型可以是采用适于训练具有时间关联性的影像序列的循环神经网络(recurrent neural network,RNN)模型来进行深度学习,然而本发明以此为限。
接着,处理器124将判断已标示的影像序列VS’是否符合新预测模型(步骤S326),以测试并且验证新预测模型是否有效。当处理器124判定已标示的影像序列VS’符合新预测模型时,将以新预测模型来更新预测模型(步骤S328),并且储存于存储体122中。当处理器124判定已标示的影像序列VS’不符合新预测模型时,则仍会将不符合新预测模型的影像序列VS’储存回存储体122中,以作为改进数据。不符合新预测模型的原因可包括新预测模型的分类方式对于影像序列VS’的判别较不敏感或者是数据量不足以改变原预测模型的参数。
图4是根据本发明一实施例所绘示的预测模型的构建方法的流程图。
首先,在分类标签阶段S41中,处理装置120的处理器124将取得并且分类影片文件(步骤S411),这些影片文件的分类可包括蛇行、超车、急刹车、竞速、安全车距不足等多种已知危险驾驶类型的影片文件,亦包括正常无事故的影片文件。接着,处理器124会将各个分类中的影片文件进行5~15秒的影片文件撷取(步骤S412),而所撷取的影片文件至少包括尚未出现事故、事故发生中以及事故发生结束的连续画面。接着,处理器124将进行影片文件转换(步骤S413),以将所撷取的影片文件转换成例如是30fps的图形文件,并且将大量具有相同分类标签但不同事故的文件作为机器学习的训练素材。也就是说,处理器124将以多个不同危险路况以及正常路况的多个训练影像序列来训练类神经网络以构建出预测模型。本实施例中将以构建“蛇行”的预测模型来进行说明,而其它可依此类推。
在机器学习阶段S42中,处理器124将取得影片文件编号为001~200的蛇行影片(步骤S421),并且以RNN模型来训练这些影片(步骤S422),以产生预测模型(步骤S423),从而产生对应于蛇行的预测分类器(步骤S424)。
之后,在分类器测试阶段S43,处理器124将取得影片文件编号201~300的蛇行影片(步骤S431)来做为测试影片,并且输入至预测分类器(步骤S432),以取得预测结果(步骤S433),以验证该预测分类器是否有效。处理器124可视预测结果来选择增加影片文件编号301~400的蛇行影片(步骤S434)、减少影片文件编号001~100的蛇行影片或者是替换影片文件编号401~600的蛇行影片来重新训练至预测分类器(步骤S425)。
在“蛇行”预测分类器的实际应用上,当处理器124判别出前方车辆具有“蛇行”的危险驾驶行为时,亦即影像序列具有符合“蛇行”的特征,并且将触发输出装置130发出警示信号的分数阈值设定为80分,其中低于80分者将不警示,而超过且包含80分者将警示。当处理器124判定发生多次“蛇行”的危险驾驶警示但驾驶者没有包含减速、转动方向盘等驾驶反应后,处理器124将触发输出装置130发出警示信号的分数阈值调整至81分,其中低于81分者将不警示,而超过且包含81分者将警示。处理器124将持续地调整分数阈值至驾驶者进行反应为止,例如85分,也就是几乎每次达到85分时,驾驶者将会有驾驶反应。藉此,处理器124可逐步地将触发输出装置130发出警示信号调整至适宜驾驶者反应前方“蛇行”的警示敏感度,而在此实施例中将分数阈值由80分调整至85分形同是降低对于“蛇行”的警示敏感度。基于此,更新后的预测模型将更为贴近驾驶者对于潜在危险的警示敏感度,亦即更为贴近驾使者的驾驶习惯。
然而,基于提高行车安全警戒,在固定时间后,处理器124可将往下调整分数阈值至84分,原因如以下三点。第一是基于长时间驾驶可能会降低驾驶者的驾驶反应能力,故提高驾驶预测系统100对于“蛇行”的警示敏感度,以增加行车安全。第二是避免驾驶预测系统100对于“蛇行”永远设定在低敏感度,故进行调高测试。例如调整至84分后,驾驶者产生反应,则代表提高“蛇行”的警示敏感度是有效的。第三是可降低分数阈值至驾驶者不再反应时,可再调高分数,做为驾驶预测系统100趋近于驾驶行为的自动调整。
综上所述,本发明所提出的驾驶预测方法及其处理装置与系统,其可利用运输载具周围的实时影像以及根据驾驶者的驾驶习惯所构建的预测模型来监控并且预判路况,在驾驶者尚未警觉前即进行警示,以达到预测与预防碰撞或追撞的事故发生。
虽然本发明已以实施例公开如上,然其并非用来限定本发明,任何所属技术领域中普通技术人员,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视随附的权利要求书所界定者为准。
Claims (15)
1.一种驾驶预测方法,适用于运输载具中的处理装置,其中该处理装置连接于影像撷取装置以及输出装置并且预先储存预测模型,该方法包括下列步骤:
自该影像撷取装置接收该运输载具周围的影像序列;以及
判断该影像序列是否符合该预测模型,以根据该运输载具的行驶状况,更新该预测模型。
2.如权利要求1所述的方法,其中判断该影像序列是否符合该预测模型,以根据该运输载具的该行驶状况,更新该预测模型的步骤包括:
当该影像序列符合该预测模型时,控制该输出装置发出警示信号并且根据该运输载具的该行驶状况,更新该预测模型;以及
当该影像序列不符合该预测模型时,根据该运输载具的该行驶状况,更新该预测模型。
3.如权利要求1所述的方法,其中该预测模型关联于多个危险路况,而判断该影像序列是否符合该预测模型的步骤包括:
依据是否可利用该预测模型来判断该影像序列是否具有任何所述危险路况,从而判定该影像序列是否符合该预测模型。
4.如权利要求2所述的方法,其中更新该预测模型是用于调整触发该输出装置发出该警示信号的敏感度。
5.如权利要求2所述的方法,其中当该影像序列符合该预测模型时,控制该输出装置发出该警示信号并且根据该运输载具的该行驶状况,更新该预测模型的步骤包括:
判断该运输载具是否根据该警示信号而具有相对应的行驶状态,据以标示该影像序列,以产生已标示的影像序列;以及
根据该已标示的影像序列,更新该预测模型。
6.如权利要求2所述的方法,其中判断该运输载具是否根据该警示信号做出相对应的该行驶状态,据以标示该影像序列,以产生该已标示的影像序列的步骤包括:
当该运输载具根据该警示信号做出相对应的该行驶状态时,标示该影像序列为符合该预测模型;以及
当该运输载具没有根据该警示信号做出相对应的该行驶状态时,标示该影像序列为不符合该预测模型。
7.如权利要求5所述的方法,还包括:
当该影像序列符合该预测模型并且未控制该输出装置发出该警示信号时,若该运输载具的行驶状态改变时,标示该影像序列为不符合该预测模型。
8.如权利要求2所述的方法,其中当该影像序列不符合该预测模型时,根据该运输载具的该行驶状况,更新该预测模型的步骤包括:
判断该运输载具的行驶状态是否改变,据以标示该影像序列,以产生已标示的影像序列;以及
根据该已标示的影像序列,更新该预测模型。
9.如权利要求8所述的方法,其中判断该运输载具的该行驶状态是否改变,据以标示该影像序列,以产生该已标示的影像序列的步骤包括:
当该运输载具的该行驶状态改变时,标示该影像序列为不符合该预测模型并且具有异常驾驶;以及
当该运输载具的该行驶状态没有改变时,标示该影像序列为不符合该预测模型并且不具有异常驾驶。
10.如权利要求1所述的方法,其中在自该影像撷取装置接收该运输载具周围的该影像序列的步骤之前,该方法还包括:
取得具有多个不同危险路况以及正常路况的多个训练影像序列,据以训练类神经网络,以产生该预测模型。
11.如权利要求1所述的方法,其中更新该预测模型之前,该方法还包括:
取得至少一已标示的影像序列,其中各所述已标示的影像序列标示出其是否符合该预测模型;
根据所述已标示的影像序列以及该预测模型,产生新预测模型;以及
判断所述已标示的影像序列是否符合该新预测模型,据以判定是否更新该预测模型。
12.如权利要求11所述的方法,其中更新该预测模型的步骤包括:
当判定所述已标示的影像序列符合该新预测模型时,以该新预测模型来更新该预测模型;以及
当判定所述已标示的影像序列不符合该新预测模型时,不更新该预测模型。
13.如权利要求2所述的方法,其中当该影像序列符合该预测模型时,该方法还包括:
控制该运输载具的制动系统。
14.一种处理装置,连接于安装于运输载具的影像撷取装置以及输出装置,包括:
存储体,储存预测模型;以及
处理器,耦接该存储体,用于:
自该影像撷取装置接收该运输载具周围的影像序列;以及
判断该影像序列是否符合该预测模型,并且根据该运输载具的行驶状况,更新该预测模型。
15.一种驾驶预测系统,设置于运输载具,包括:
影像撷取装置,用于撷取影像;
输出装置,用于输出警示信号;以及
处理装置,连接于该影像撷取装置以及该输出装置,用于:
自该影像撷取装置接收该运输载具周围的影像序列;以及
判断该影像序列是否符合该预测模型,以根据该运输载具的行驶状况,更新该预测模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107119536A TWI701174B (zh) | 2018-06-06 | 2018-06-06 | 駕駛預測方法及其處理裝置與系統 |
TW107119536 | 2018-06-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110562250A true CN110562250A (zh) | 2019-12-13 |
CN110562250B CN110562250B (zh) | 2022-12-16 |
Family
ID=68765587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810929140.5A Active CN110562250B (zh) | 2018-06-06 | 2018-08-15 | 驾驶预测方法及其处理装置与系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10745020B2 (zh) |
JP (1) | JP6814782B2 (zh) |
CN (1) | CN110562250B (zh) |
TW (1) | TWI701174B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113276765A (zh) * | 2020-01-31 | 2021-08-20 | 神达数位股份有限公司 | 行车警示方法及系统与计算机程序产品 |
CN113525400A (zh) * | 2021-06-21 | 2021-10-22 | 上汽通用五菱汽车股份有限公司 | 变道提醒方法、装置、车辆及可读存储介质 |
CN113903191A (zh) * | 2020-07-07 | 2022-01-07 | 丰田自动车株式会社 | 危险预测装置、系统、方法及记录有程序的记录介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7331850B2 (ja) * | 2018-06-29 | 2023-08-23 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
US10824935B2 (en) * | 2018-10-17 | 2020-11-03 | Mitsubishi Electric Research Laboratories, Inc. | System and method for detecting anomalies in video using a similarity function trained by machine learning |
US11577750B2 (en) | 2018-11-08 | 2023-02-14 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for determining a vehicle comfort metric for a prediction of a driving maneuver of a target vehicle |
US11645511B2 (en) * | 2019-04-24 | 2023-05-09 | Toyota Research Institute, Inc. | Systems and methods for simulating instantaneous attentive human responses to road hazards for improved early warning systems and fleet data harvesting |
CN114022855A (zh) * | 2021-10-26 | 2022-02-08 | 东风商用车有限公司 | 一种车辆行驶行为识别方法及装置 |
CN117041916B (zh) * | 2023-09-27 | 2024-01-09 | 创意信息技术股份有限公司 | 一种海量数据处理方法、装置、系统及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5801970A (en) * | 1995-12-06 | 1998-09-01 | Martin Marietta Corporation | Model-based feature tracking system |
JP2011014038A (ja) * | 2009-07-03 | 2011-01-20 | Fuji Heavy Ind Ltd | オンラインリスク認識システム |
CN104424752A (zh) * | 2013-08-20 | 2015-03-18 | 径卫视觉科技(上海)有限公司 | 车辆疲劳驾驶预警方法及系统 |
CN105280006A (zh) * | 2014-07-17 | 2016-01-27 | 星克跃尔株式会社 | 增强现实通知提供系统和方法 |
CN105460010A (zh) * | 2014-09-01 | 2016-04-06 | 富泰华工业(深圳)有限公司 | 车用安全识别反应系统及方法 |
CN106339677A (zh) * | 2016-08-23 | 2017-01-18 | 天津光电高斯通信工程技术股份有限公司 | 一种基于视频的铁路货车洒落物自动检测方法 |
CN106611169A (zh) * | 2016-12-31 | 2017-05-03 | 中国科学技术大学 | 一种基于深度学习的危险驾驶行为实时检测方法 |
CN107257756A (zh) * | 2015-03-27 | 2017-10-17 | 英特尔公司 | 用于在路况变化的情况下辅助车辆的技术 |
CN107341428A (zh) * | 2016-04-28 | 2017-11-10 | 财团法人车辆研究测试中心 | 影像辨识系统及自适应学习方法 |
CN107867283A (zh) * | 2016-09-26 | 2018-04-03 | 浙江亚太机电股份有限公司 | 基于预测模型的集成式fcw/acc/aeb系统及车辆 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0785280B2 (ja) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | 神経回路網による衝突予測判定システム |
JP4097519B2 (ja) * | 2002-12-24 | 2008-06-11 | 株式会社豊田中央研究所 | 危険感受度推定装置、安全運転評価装置及び警報装置 |
JP5161643B2 (ja) * | 2008-04-23 | 2013-03-13 | 富士重工業株式会社 | 安全運転支援システム |
EP2806413B1 (en) | 2012-01-20 | 2016-12-28 | Toyota Jidosha Kabushiki Kaisha | Vehicle behavior prediction device and vehicle behavior prediction method, and driving assistance device |
US10504068B2 (en) * | 2015-07-14 | 2019-12-10 | Omnitracs, Llc | Driver log analytics system |
US9896096B2 (en) * | 2016-04-11 | 2018-02-20 | David E. Newman | Systems and methods for hazard mitigation |
TWI602441B (zh) * | 2016-07-11 | 2017-10-11 | 宏碁股份有限公司 | 具泛音之揚聲器及應用其之電子裝置 |
US20180053102A1 (en) * | 2016-08-16 | 2018-02-22 | Toyota Jidosha Kabushiki Kaisha | Individualized Adaptation of Driver Action Prediction Models |
US11120353B2 (en) * | 2016-08-16 | 2021-09-14 | Toyota Jidosha Kabushiki Kaisha | Efficient driver action prediction system based on temporal fusion of sensor data using deep (bidirectional) recurrent neural network |
US10720050B2 (en) * | 2016-10-18 | 2020-07-21 | Uber Technologies, Inc. | Predicting safety incidents using machine learning |
US10515390B2 (en) * | 2016-11-21 | 2019-12-24 | Nio Usa, Inc. | Method and system for data optimization |
US10755115B2 (en) * | 2017-12-29 | 2020-08-25 | Here Global B.V. | Method, apparatus, and system for generating synthetic image data for machine learning |
-
2018
- 2018-06-06 TW TW107119536A patent/TWI701174B/zh active
- 2018-08-15 CN CN201810929140.5A patent/CN110562250B/zh active Active
- 2018-09-05 US US16/121,630 patent/US10745020B2/en active Active
- 2018-12-03 JP JP2018226587A patent/JP6814782B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5801970A (en) * | 1995-12-06 | 1998-09-01 | Martin Marietta Corporation | Model-based feature tracking system |
JP2011014038A (ja) * | 2009-07-03 | 2011-01-20 | Fuji Heavy Ind Ltd | オンラインリスク認識システム |
CN104424752A (zh) * | 2013-08-20 | 2015-03-18 | 径卫视觉科技(上海)有限公司 | 车辆疲劳驾驶预警方法及系统 |
CN105280006A (zh) * | 2014-07-17 | 2016-01-27 | 星克跃尔株式会社 | 增强现实通知提供系统和方法 |
CN105460010A (zh) * | 2014-09-01 | 2016-04-06 | 富泰华工业(深圳)有限公司 | 车用安全识别反应系统及方法 |
CN107257756A (zh) * | 2015-03-27 | 2017-10-17 | 英特尔公司 | 用于在路况变化的情况下辅助车辆的技术 |
CN107341428A (zh) * | 2016-04-28 | 2017-11-10 | 财团法人车辆研究测试中心 | 影像辨识系统及自适应学习方法 |
CN106339677A (zh) * | 2016-08-23 | 2017-01-18 | 天津光电高斯通信工程技术股份有限公司 | 一种基于视频的铁路货车洒落物自动检测方法 |
CN107867283A (zh) * | 2016-09-26 | 2018-04-03 | 浙江亚太机电股份有限公司 | 基于预测模型的集成式fcw/acc/aeb系统及车辆 |
CN106611169A (zh) * | 2016-12-31 | 2017-05-03 | 中国科学技术大学 | 一种基于深度学习的危险驾驶行为实时检测方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113276765A (zh) * | 2020-01-31 | 2021-08-20 | 神达数位股份有限公司 | 行车警示方法及系统与计算机程序产品 |
CN113903191A (zh) * | 2020-07-07 | 2022-01-07 | 丰田自动车株式会社 | 危险预测装置、系统、方法及记录有程序的记录介质 |
CN113903191B (zh) * | 2020-07-07 | 2024-02-02 | 丰田自动车株式会社 | 危险预测装置、系统、方法及记录有程序的记录介质 |
CN113525400A (zh) * | 2021-06-21 | 2021-10-22 | 上汽通用五菱汽车股份有限公司 | 变道提醒方法、装置、车辆及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6814782B2 (ja) | 2021-01-20 |
TWI701174B (zh) | 2020-08-11 |
JP2019212276A (ja) | 2019-12-12 |
US20190375420A1 (en) | 2019-12-12 |
CN110562250B (zh) | 2022-12-16 |
US10745020B2 (en) | 2020-08-18 |
TW202000513A (zh) | 2020-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110562250B (zh) | 驾驶预测方法及其处理装置与系统 | |
US8223038B2 (en) | Driver assistance system for traffic sign recognition | |
US10817751B2 (en) | Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium | |
CN108860045B (zh) | 驾驶辅助方法、驾驶辅助装置及存储介质 | |
US10259383B1 (en) | Rear collision alert system | |
JP2007094618A (ja) | 通知制御装置および方法、記録媒体、並びに、プログラム。 | |
JP6652090B2 (ja) | 運転モード切替制御装置、システム、方法、およびプログラム | |
JPH1096626A (ja) | 車間距離検知装置 | |
CN107867242B (zh) | 用于在车辆中使用物体显示装置的方法、系统和车辆 | |
JP2008003707A (ja) | 危険予測装置 | |
CN111157014A (zh) | 路况展示方法、装置及车载终端、存储介质 | |
JP2022140530A (ja) | 情報記録装置、情報記録方法及び情報記録用プログラム | |
JP2020052539A (ja) | 学習画像選別装置 | |
CN114103985A (zh) | 一种基于障碍物的提示方法、装置和设备 | |
TW201623067A (zh) | 燈號警示裝置及其方法、電腦可讀取紀錄媒體、及電腦程式產品 | |
CN113246993A (zh) | 驾驶支援系统 | |
JP7434882B2 (ja) | 危険運転判定装置、危険運転判定方法、および危険運転判定プログラム | |
JP2008257635A (ja) | 車両用警告装置 | |
JP2009230560A (ja) | 信号認識装置及び信号認識処理のプログラム | |
CN109661688B (zh) | 影像输出系统 | |
JP2007251555A (ja) | 診断装置および方法、プログラム、並びに、記録媒体 | |
JP2020201753A (ja) | 運転支援装置、方法、プログラム及びシステム | |
JP7013722B2 (ja) | 運転支援装置 | |
US11383733B2 (en) | Method and system for detecting a dangerous driving condition for a vehicle, and non-transitory computer readable medium storing program for implementing the method | |
JP2004364112A (ja) | 車両周辺表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |