CN110741424B - 危险信息收集装置 - Google Patents
危险信息收集装置 Download PDFInfo
- Publication number
- CN110741424B CN110741424B CN201880037266.XA CN201880037266A CN110741424B CN 110741424 B CN110741424 B CN 110741424B CN 201880037266 A CN201880037266 A CN 201880037266A CN 110741424 B CN110741424 B CN 110741424B
- Authority
- CN
- China
- Prior art keywords
- risk
- information
- cause
- candidate
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 71
- 238000004364 calculation method Methods 0.000 claims abstract description 29
- 238000004458 analytical method Methods 0.000 claims description 19
- 230000002093 peripheral effect Effects 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 12
- 238000000034 method Methods 0.000 description 48
- 241000282326 Felis catus Species 0.000 description 34
- 230000008569 process Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 238000001514 detection method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000001939 inductive effect Effects 0.000 description 5
- 206010039203 Road traffic accident Diseases 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及危险信息收集装置,具备:危险状态度计算部,根据车辆的行驶信息计算车辆的行驶状态的危险状态度;视觉辨认对象确定部,将车辆的驾驶员的视点信息与车辆的周边的物体信息进行组合,确定驾驶员的视觉辨认对象的名称,作为视觉辨认对象候补;同乘者信息获取部,获取至少包含同乘者发出的言词的同乘者信息;危险引发原因候补设定部,根据由同乘者信息获取部获取到的同乘者信息,设定用于确定危险引发原因的危险引发原因候补;以及危险引发原因确定部,根据危险状态度、视觉辨认对象候补以及危险引发原因候补来确定危险引发原因,在危险状态度变为阈值以上的情况下危险引发原因确定部核对视觉辨认对象候补与危险引发原因候补的关联性,在视觉辨认对象候补与危险引发原因候补关联的情况下,将危险引发原因候补确定为危险引发原因。
Description
技术领域
本发明涉及收集车辆在道路行驶时的危险信息的危险信息收集装置。
背景技术
在车辆在道路行驶时,有时驾驶员或者同乘者身体感觉到作为感觉到如与交通事故直接关联那样的危险的场面的“险兆”(near miss)。还有如下例子:通过收集并整理“险兆”信息,制作示出引发交通事故的地带的地图,共享该地图,从而用于交通事故的预防。但是,以往将征询意见用于“险兆”信息的收集,整理并输入征询意见结果花费工夫和时间。因而,在专利文献1以及2中提出了从行驶信息自动地收集“险兆”信息的方法。
现有技术文献
专利文献
专利文献1:日本特开2003-123185号公报
专利文献2:日本特开2007-47914号公报
发明内容
在专利文献1中,公开了如下技术:根据车间距离传感器、以驾驶员为对象的脉搏传感器、语音麦克风等用于获取车辆的状态的传感器的输出来判定是否为危险的状态,根据其结果自动地判定危险的种类,确定危险地方而反映到地图数据。但是,在该方法中,无法确定引发危险的原因。
在专利文献2中,公开了如下技术:判定驾驶员的视线方向朝着哪边,根据在该视线方向的前方是否存在会引起险兆的状态的对象物候补来确定危险对象物。但是,在该方法中,考虑产生多个对象物候补而无法确定引发危险的原因。
本发明是为了解决如上所述的问题而完成的,其目的在于提供能够确定引发危险的危险引发原因的危险信息收集装置。
本发明的危险信息收集装置搭载于车辆并且收集对于所述车辆的行驶危险的信息,其中,所述危险信息收集装置具备:行驶信息获取部,获取表示所述车辆的行驶状态的行驶信息;危险状态度计算部,根据由所述行驶信息获取部获取到的所述行驶信息计算作为所述车辆的行驶状态是否为危险状态的指标的危险状态度;视觉辨认对象确定部,将所述车辆的驾驶员的视点信息与所述车辆的周边的物体信息进行组合而确定所述驾驶员的视觉辨认对象,作为视觉辨认对象候补;同乘者信息获取部,获取包含同乘者发出的言词的同乘者信息;危险引发原因候补设定部,根据由所述同乘者信息获取部获取到的所述同乘者信息,设定用于确定引发危险的危险引发原因的危险引发原因候补;以及危险引发原因确定部,根据由所述危险状态度计算部计算出的所述危险状态度、由所述视觉辨认对象确定部确定的所述视觉辨认对象候补以及由所述危险引发原因候补设定部设定的所述危险引发原因候补来确定所述危险引发原因,在所述危险状态度变为阈值以上的情况下,所述危险引发原因确定部核对所述视觉辨认对象候补与所述危险引发原因候补的关联性,在所述视觉辨认对象候补与所述危险引发原因候补关联的情况下,所述危险引发原因确定部将所述危险引发原因候补确定为所述危险引发原因,所述危险引发原因候补设定部对所述同乘者发出的言词进行语音解析,将所述言词分割成单词单位,将分割出的多个单词作为一个集合而设定为所述危险引发原因候补。
根据本发明的危险信息收集装置,能够确定危险引发原因。
附图说明
图1是示出本发明的实施方式1的危险信息收集装置的结构的功能框图。
图2是说明本发明的实施方式1的危险信息收集装置的视觉辨认对象确定部的动作的流程图。
图3是说明本发明的实施方式1的危险信息收集装置的同乘者信息获取部和危险引发原因候补设定部的动作的流程图。
图4是说明本发明的实施方式1的危险信息收集装置的行驶信息获取部、危险状态度计算部以及危险引发原因确定部的动作的流程图。
图5是说明用10个等级表示危险状态度的例子的图。
图6是说明核对视觉辨认对象候补群与危险引发原因候补群的关联性的次序的流程图。
图7是说明视觉辨认对象候补群与危险引发原因候补群的关联度的例子的图。
图8是示出本发明的实施方式2的危险信息收集装置的结构的功能框图。
图9是说明本发明的实施方式2的危险信息收集装置的同乘者信息获取部和危险引发原因候补设定部的动作的流程图。
图10是说明本发明的实施方式2的危险信息收集装置的行驶信息获取部、危险状态度计算部以及危险引发原因确定部的动作的流程图。
图11是示出本发明的实施方式3的危险信息收集装置的结构的功能框图。
图12是示出本发明的实施方式4的危险信息收集装置的结构的功能框图。
图13是示出本发明的实施方式5的危险信息收集装置的结构的功能框图。
图14是说明危险信息的例子的图。
图15是说明本发明的实施方式5的危险信息收集装置的行驶信息获取部、危险状态度计算部以及危险引发原因确定部的动作的流程图。
图16是示出本发明的实施方式1的危险信息收集装置的结构的变形例的功能框图。
图17是示出本发明的实施方式2的危险信息收集装置的结构的变形例的功能框图。
图18是示出本发明的实施方式3的危险信息收集装置的结构的变形例的功能框图。
图19是示出本发明的实施方式6的危险信息收集装置的结构的功能框图。
图20是说明本发明的实施方式6的危险信息收集装置的行驶信息获取部、危险状态度计算部以及危险引发原因确定部的动作的流程图。
图21是示出本发明的实施方式1的危险信息收集装置的结构的变形例的功能框图。
图22是示出本发明的实施方式2的危险信息收集装置的结构的变形例的功能框图。
图23是示出本发明的实施方式3的危险信息收集装置的结构的变形例的功能框图。
图24是示出本发明的实施方式4的危险信息收集装置的结构的变形例的功能框图。
图25是示出本发明的危险信息收集装置的硬件结构的框图。
图26是示出本发明的危险信息收集装置的硬件结构的框图。
具体实施方式
<实施方式1>
图1是示出本发明的实施方式1的危险信息收集装置100的结构的功能框图。如图1所示,危险信息收集装置100具备获取车辆的行驶信息的行驶信息获取部101、危险状态度计算部102、视觉辨认对象确定部103、同乘者信息获取部104、危险引发原因候补设定部106、危险引发原因确定部107以及危险引发原因输出部108。
行驶信息获取部101获取作为表示车辆的行驶状态的车辆状态量的行驶信息,输出到危险状态度计算部102。作为车辆的行驶信息,包括速度、加速度、制动信息、转向角信息、加速器信息、引擎信息等。行驶信息由车辆所具备的多个传感器检测,但由于将公知的方法用于该检测,所以省略说明。
危险状态度计算部102根据从行驶信息获取部101输出的行驶信息的变化的程度,计算车辆的危险状态度,作为危险状态信息。
视觉辨认对象确定部103使用驾驶员的视点信息和车辆周边的物体信息,确定驾驶员的视觉辨认对象,作为视觉辨认对象群的信息而输出到危险引发原因确定部107。
驾驶员的视点信息使用视线探测设备来获取。作为视线探测设备,有利用摄像机和红外线来探测视点的设备、利用眼球周围的肌肉电位信息来探测视线的穿戴型的设备等。也可以代替视线探测设备,而使用对车辆内进行摄影的摄像机和影像解析功能,识别驾驶员的眼睛来确定视点。作为视点信息,至少包括视线的起点位置和视线的方向。除此之外,还可以追加驾驶员的脸部或者眼睛的位置、脸部或者黑眼珠的朝向、眨眼的次数、有无佩戴驾驶员的眼镜或者隐形眼镜等与眼睛有关的信息。作为视线检测的方法,有眼角膜反射法等各种方法,在本发明中能够采用已知的任意方法。
车辆周边的物体信息使用搭载于车辆的摄像机和影像解析功能来获取。搭载于车辆的摄像机除了可以使用具备能够对本车辆的前方和侧方同时进行摄影的广角透镜的摄像机之外,还可以使用将由多个摄像机摄影而得到的多个方向的影像合成而成为1个影像的摄像机系统。此外,以下,将搭载有各实施方式的危险信息收集装置的车辆称为本车辆,将本车辆以外的车辆称为其它车辆。另外,还有时与本车辆同样的危险信息收集装置也搭载于其它车辆,在危险信息收集装置间进行信息的收发。
另外,也可以利用由设置于路边等车外的摄像机摄影而得到的影像。在该情况下,在设置于车外的摄像机与危险信息收集装置100之间直接通信,或经由云服务器进行通信,从而将影像从设置于车外的摄像机发送到危险信息收集装置100,从而能够利用由设置于车外的摄像机摄影而得到的影像。此外,也可以代替摄像机而使用雷达来获取车辆周边的物体信息。
作为物体信息,至少包括名称、与本车辆的相对位置、大小的信息。除此之外,还可以追加颜色、形状等物体信息。例如,能够如“黑色的小型货车,全长4m,相对位置(相对距离2m,与车辆的角度60°)”等那样设为所看到的状态的信息。在该情况下,能够将本车辆的行进方向设为0°,以顺时针旋转的朝向表示与本车辆的角度。
另外,在行驶中连续地获取物体信息。设想即使在行驶时实施紧急制动在行驶上也没有障碍的范围,以紧急制动时的停止距离为基准来计算物体信息的获取范围。例如,在一般道路的情况下,以本车辆为中心设为直径60m左右的范围,在高速道路的情况下,设为直径130m左右的范围。此外,该范围也可以针对每个速度而变更。
在此,使用图2所示的流程图,说明视觉辨认对象确定部103中的处理的一个例子。危险信息收集装置100通过接通车辆的点火开关而开始动作,所以视觉辨认对象确定部103也开始视觉辨认对象确定处理,首先,使用视线探测设备等来获取驾驶员的视点信息(步骤S11)。
接下来,使用对车辆外部进行摄影的车载摄像机等来获取车辆周边影像(步骤S12),将在步骤S11中获取到的驾驶员的视点的坐标变换为车辆周边影像的坐标,获取车辆周边影像上的视点的位置坐标(步骤S13)。坐标的变换是将由线探测设备计算的视点的位置坐标变换为在步骤S11中利用的车载摄像机等的摄像机坐标的处理。这样,通过变换坐标,能够在车辆周边影像上绘制驾驶员的视点的位置坐标。此外,在使用车载摄像机的情况下,变换后的坐标根据摄像机的位置和视线探测设备的位置唯一地确定,能够事先进行校准。
接下来,检测存在于在车辆周边影像上绘制的驾驶员的视点的位置坐标的周边的物体。作为物体的检测方法,能够利用使用了图像识别的方法等已知的方法,将检测到的物体确定为视觉辨认对象(步骤S14)。在车辆的点火开关被接通的期间周期性地重复上述步骤S11~S14的处理。
关于上述视觉辨认对象确定处理的具体例,说明驾驶员对位于距本车辆的相对距离2m、角度60°的黑色的小型货车进行视觉辨认的情况。
当在步骤S11中探测到向相对距离2m、角度60°的驾驶员的视线时,在步骤S12中获取此时的车辆周边的影像,在步骤S13中,在车辆周边的影像上变换视点位置(距本车辆的距离2m,与本车辆的角度60°)。
在步骤S14中,检测处于车辆周边影像上的视点位置(距本车辆的距离2m、与本车辆的角度60°)的物体信息,确定视觉辨认对象为黑色的小型货车,全长为4m。所确定的视觉辨认对象的信息作为“黑色的小型货车,全长4m,相对位置(相对距离2m,与车辆的角度60°)”而与检测到的时间的信息一起保存于预定的存储装置。此外,预定的存储装置也可以设置于危险信息收集装置100内,但也可以设置于车辆内的其它场所。
同乘者信息获取部104获取同乘者信息,输出到危险引发原因候补设定部106。作为同乘者信息,包括同乘者发出的言词的语音信息、用手指特定的物体等表示同乘者的动作的影像信息以及同乘者用手指指示的物体的影像信息等。
对于同乘者信息的获取,能够利用对车辆内部进行摄影的车内摄像机、对车辆外部进行摄影的车载摄像机、麦克风、加速度传感器、陀螺仪传感器。加速度传感器、陀螺仪传感器由同乘者持有或设置于座椅、安全带,用于获取同乘者的脸部以及身体的朝向、动作。
危险引发原因候补设定部106解析从同乘者信息获取部104输出的同乘者信息,设定危险引发原因候补群而输出到危险引发原因确定部107。
在此,使用图3所示的流程图,说明同乘者信息获取部104以及危险引发原因候补设定部106中的处理。
在同乘者信息获取部104中获取同乘者信息(步骤S21),该同乘者信息被提供给危险引发原因候补设定部106,在危险引发原因候补设定部106中解析同乘者信息(步骤S22)。
作为同乘者发出的言词的解析,进行通过语音识别对同乘者发出的言词进行语音解析而将语音分割为单词单位的处理。例如,在得到“明天想去公园。”这样的语音信息的情况下,如“明天”、“公园”、“想去”那样分割。
作为同乘者的动作的解析,例如,在同乘者进行用手指自行车的动作的情况下,通过图像识别对其影像进行图像解析而检测到用手指的动作,将用手指的前方的自行车确定为物体。以下,说明物体的解析的例子。
例如,在同乘者进行用手指自行车的动作的情况下,在利用由车内摄像机摄影而得到的影像信息来检测用手指的方向的情况下,针对由车内摄像机摄影而得到的影像而通过图像识别来判别手的形状,检测用手指的动作,确定手指的延伸的方向,从而检测用手指指示的方向。然后,将用手指指示的方向的坐标位置变换为由对车辆外部进行摄影的车载摄像机摄影而得到的车辆周边影像上的坐标,通过图案匹配等将在该方向上存在的自行车识别为自行车,确定其名称。
此外,对于用手指指示的方向的检测,还存在使用加速度传感器、陀螺仪传感器来检测脸部的朝向或者身体的朝向的方法。在使用加速度传感器、陀螺仪传感器来检测身体的朝向的情况下,以同乘者朝着前方的状态为基准,在同乘者进行脸部或者身体朝向特定的方向的动作时,根据正交的3轴的加速度来检测身体移动了何种程度。由此,检测从脸部或者身体朝着前方的状态变化了何种程度的角度。
在该方法中,无法准确地确定脸部或者身体朝着的方向,所以将在被推测为脸部或者身体朝向的方向上存在的所有的物体确定为对象。
物体的检测与视觉辨认对象确定部103中的检测方法相同,既可以为对由车载摄像机摄影而得到的影像进行图像处理的方法,也可以为用雷达检测物体的方法。
危险引发原因候补设定部106根据通过步骤S22中的同乘者信息的解析得到的结果,设定危险引发原因候补群(步骤S23)。例如,在作为语音的解析的结果而得到“明天”、“公园”、“想去”这样的单词并且根据同乘者的动作将“自行车”确定为在用手指指示的方向上存在的物体的情况下,将“明天”、“公园”、“想去”、“自行车”作为危险引发原因候补群的信息而输出。在车辆的点火开关被接通的期间周期性地重复上述步骤S21~S23的处理。
这样,解析同乘者的语音,从而设定危险引发原因候补,所以例如即使在如由于驾驶员的死角而产生危险引发原因那样的情况下,也能够根据无法从驾驶员得到的信息确定危险引发原因。
另外,解析同乘者的动作,从而设定危险引发原因候补,所以例如即使在如危险引发原因远离车辆那样的情况下,也能够根据只有同乘者能够进行的动作解析用手指的动作来确定危险引发原因。
危险引发原因确定部107使用从视觉辨认对象确定部103输出的视觉辨认对象群的信息和从危险引发原因候补设定部106输出的危险引发原因候补群的信息来确定危险引发原因,危险引发原因输出部108将由危险引发原因确定部107确定的危险引发原因输出到外部。
接下来,使用图4所示的流程图来说明行驶信息获取部101、危险状态度计算部102以及危险引发原因确定部107中的处理。
在行驶信息获取部101中获取车辆行驶时的行驶信息(步骤S31),输出到危险状态度计算部102。行驶信息包括速度、加速度、制动信息、转向角信息、加速器信息、引擎信息等。
危险状态度计算部102根据从行驶信息获取部101输出的行驶信息,计算作为本车辆的行驶状态是否为危险的状态的指标的危险状态度(步骤S32),输出到危险引发原因确定部107。危险状态度是指用等级表示行驶状态的危险程度的指标,当行驶状态与平常时相比为异常时,危险状态度增加。
使用图5,说明用10个等级表示危险状态度的情况。在图5所示的例子中,使用速度信息、制动信息(是否实施制动)、加速度信息以及转向角的信息来设定危险状态度。此时,也可以辅助地使用引擎的转速、油门开度等引擎信息以及加速器信息。
在图5中,危险状态度为最低的“1”的情况对应于在速度慢(比法定速度-10km/h慢)的状态下实施紧急制动、加速度小、转向角的变化也小的状态。另一方面,危险状态度为最高的“10”的情况对应于在速度快(比法定速度+10km/h快)的状态下实施紧急制动、加速度大、转向角的变化也大的状态。另外,在危险状态度为“5”~“8”的情况下,作为速度信息,设为速度与法定速度同等的状态,但其设为法定速度以下且法定速度-10km/h以上的状态。此外,上述是一个例子,行驶信息的组合不限定于上述。
这样,以多等级的数值设定危险状态度,从而能够根据数值来判断车辆的行驶状态是否为危险,能够进行客观的判断。
危险引发原因确定部107进行由危险状态度计算部102计算出的危险状态度与预先决定的阈值的比较(步骤S33)。在危险状态度小于阈值的情况(否)下,以重复进行步骤S31以下的处理的方式控制行驶信息获取部101以及危险状态度计算部102。在危险状态度为阈值以上的情况(是)下,判断为本车辆的行驶状态是危险的状态,转移到步骤S34。
上述阈值根据过去的行驶信息来设定,但也可以根据驾驶员个人的过去的数据来针对驾驶员个人来调整。另外,也可以对危险状态的发生进行多次模拟,根据其结果来设定阈值。例如,也可以在以10个等级设定危险状态度而安全状态为“1”、危险状态为“10”的情况下,模拟地产生多次危险状态,在这些危险状态度的平均值为4的情况下,将平均值即4用作阈值。
接下来,危险引发原因确定部107从视觉辨认对象确定部103获取危险状态度变为阈值以上的时间的前后的多个视觉辨认对象的信息,作为视觉辨认对象候补群(步骤S34)。作为前后的时间的设定,可举出10秒、15秒、30秒左右。这只要考虑从驾驶员视觉辨认到危险引发原因起至产生危险状态为止的时间即危险状态度为阈值以上的时间、和从产生危险状态起至同乘者识别到危险引发原因并将该信息传递给外部为止的时间来设定即可。这是因为在驾驶员以及同乘者识别到危险引发原因的定时和实施制动等驾驶员操作车辆的定时有可能会产生时滞。例如,考虑如在紧急制动后发出“自行车突然出现危险”这样的言词那样的案例。此外,也可以不考虑时滞而从视觉辨认对象确定部103获取危险状态度变为阈值以上的定时处的视觉辨认对象群的信息。
接下来,危险引发原因确定部107从危险引发原因候补设定部106获取危险状态度变为阈值以上的时间的前后的多个危险引发原因候补作为危险引发原因候补群(步骤S35)。然后,核对视觉辨认对象候补群与危险引发原因候补群的关联性(步骤S36)。在核对时,不区分地核对比危险状态度变为阈值以上的时间靠前和靠后的视觉辨认对象候补群与危险引发原因候补群,将关联性最高的候补作为危险引发原因。
使用物体的大小或者颜色、形状、单词的意思中的任意的信息,将关联性数值化作为关联度。例如,关于危险引发原因候补,针对“表示危险度的单词”、“表示物体的单词”以及“表示物体的状况的单词”的每个单词,设定关联度的分数,将其关联度的分数最高的候补作为危险引发原因(步骤S37)。
例如,作为“表示危险度的单词”,定义“很危险”、“危险”等表示危险的单词、和“没看见”、“突然出来”、“横穿”等使得联想到危险行动的单词。另外,作为“表示物体的单词”,定义“猫”、“自行车”等名词。另外,作为“表示物体的状况的单词”,定义“小的”、“白色的”等表示物体的形状、大小、颜色等的单词。
然后,将“表示危险度的单词”的分数设为10分,将“表示物体的单词”设为5分,将“表示物体的状况的单词”设为1分,向视觉辨认对象候补给出分数。针对在一个语句集合中规定的每个危险引发原因候补而给出分数。使用图6所示的流程图,说明步骤S36以及S37中的具体的处理。
如图6所示,在视觉辨认对象候补群与危险引发原因候补群的关联性的核对中,首先,确认在一组句子中规定的危险引发原因候补内是否存在“表示物体的单词”(步骤S101)。然后,在存在“表示物体的单词”的情况(是)下,确认“表示物体的单词”或者其同义词与视觉辨认对象候补是否一致(步骤S102)。此外,在不存在“表示物体的单词”的情况(否)下,转移到步骤S112。
在步骤S102中,在“表示物体的单词”或者其同义词与视觉辨认对象候补一致的情况(是)下,与一致的视觉辨认对象候补关联起来(联系起来)(步骤S103),转移到步骤S104。另一方面,在“表示物体的单词”或者其同义词与视觉辨认对象候补不一致的情况(否)下,不对其危险引发原因候补的一个句子给出分数(步骤S115),转移到步骤S107。
在步骤S112中,根据形状、大小、颜色等从视觉辨认对象候补群选择视觉辨认对象候补,确认性质与“表示物体的状况的单词”是否一致。然后,在性质与“表示物体的状况的单词”一致的情况(是)下,与一致的视觉辨认对象候补关联起来(步骤S113),转移到步骤S104。另一方面,在性质与“表示物体的状况的单词”不一致的情况(否)下,不对其危险引发原因候补的一个句子给出分数(步骤S114),转移到步骤S107。
在步骤S104中,确认在危险引发原因候补内是否存在“表示危险度的单词”。在存在“表示危险度的单词”的情况(是)下,转移到步骤S108,对被关联起来的视觉辨认对象候补的关联度加上10分,转移到步骤S105。另一方面,在不存在“表示危险度的单词”的情况(否)下,转移到步骤S105。
在步骤S105中,确认在危险引发原因候补内是否存在“表示物体的单词”。在存在“表示物体的单词”的情况(是)下,转移到步骤S109,对被关联起来的视觉辨认对象候补的关联度加上5分,转移到步骤S106。另一方面,在不存在“表示物体的单词”的情况(否)下,转移到步骤S106。
在步骤S106中,确认在危险引发原因候补内是否存在“表示物体的状况的单词”。在存在“表示物体的状况的单词”的情况(是)下,转移到步骤S110,对被关联起来的视觉辨认对象候补的关联度加上1分,转移到步骤S107。另一方面,在不存在“表示物体的状况的单词”的情况(否)下,转移到步骤S107。
在步骤S107中,确认是否存在未进行核对处理的未处理的危险引发原因候补。在存在未处理的危险引发原因候补的情况(是)下,重复步骤S101以下的处理,在不存在未处理的危险引发原因候补的情况(否)下,转移到步骤S111。
此外,在上述中,设为存在多个危险引发原因候补而进行了说明。但是,在只存在1个危险引发原因候补且该危险引发原因候补在步骤S103或者S113中与视觉辨认对象候补关联起来的情况下,仅凭此就能够判定为存在危险引发原因候补与视觉辨认对象候补的关联,能够确定危险引发原因。
关于步骤S104~S111,在存在多个危险引发原因候补的情况下可以说成必要的步骤,能够应对存在多个危险引发原因候补的情况。
图7是示出依照上述核对处理的情况下的关联度的计算的例子的图。如图7所示,关于在存在“猫”、“太小”、“没看见”这样的危险引发原因候补A的情况下“猫”处于视觉辨认对象候补群的情况,说明关联度的计算方法。由于作为“表示物体的单词”的“猫”而对“猫”这样的视觉辨认对象候补加上5分,由于作为“表示物体的状况的单词”的“太小”而加上1分,由于作为“表示危险度的单词”的“没看见”而加上10分。也就是说,危险引发原因候补A与视觉辨认对象候补的“猫”的关联度为16分。
此外,关于“太小”、“没看见”这样的危险引发原因候补C,对“太小”加上1分,对“没看见”加上10分,成为11分。在该情况下,包含作为将“猫”换一种说法的言词而使用的“小的”,所以危险引发原因候补C与视觉辨认对象候补的“猫”关联起来。
另外,关于“小”、“可爱”这样的危险引发原因候补D,对“小”加上1分而成为1分。在该情况下,包含作为将“猫”换一种说法的言词而使用的“小的”,所以危险引发原因候补D与视觉辨认对象候补的“猫”关联起来。
因而,危险引发原因候补A、C以及D与视觉辨认对象候补的“猫”的关联度合计为28分。
此外,关于“明天”、“开车”、“出去”这样的危险引发原因候补B,由于作为“表示物体的单词”的“开车”而加上5分而成为5分。而且,在视觉辨认对象候补群中存在“车”,所以危险引发原因候补B与视觉辨认对象候补的“车”的关联度成为5分。关于视觉辨认对象候补的“自行车”,没有与危险引发原因候补群关联的单词,所以关联度为0分。
然后,在步骤S111中,在各危险引发原因候补之中,确定与视觉辨认对象候补的关联度的分数最高的危险引发原因候补作为危险引发原因。例如,与视觉辨认对象候补的“猫”关联起来的危险引发原因候补A、C以及D中的与视觉辨认对象候补的“猫”的关联度的分数最高的危险引发原因候补为危险引发原因候补A。其中的作为“表示物体的单词”的“猫”被确定为危险引发原因,最终由危险引发原因输出部108输出的危险引发原因为“猫”。
此外,也可以如上所述逐次计算视觉辨认对象候补群与危险引发原因候补群的关联度,但也可以为预先设定关联度高的视觉辨认对象与危险引发原因的组合,选出一致的组合的方法。例如,作为组合的设定方法,在视觉辨认对象为“猫”的情况下,与作为将“猫”换一种说法的单词而使用的、“小的”、“松软”、“毛”、“耳”、“白”、“黑”、“尾巴”等表示大小、颜色、形状等的单词进行组合。另外,如果视觉辨认对象为“车”,则与“黑”、“大型”、“货车”、“引擎盖”、“轻”、“敞篷车”、“嘀嘀”等表示大小、颜色、形状等的单词进行组合。例如,在“猫”处于视觉辨认对象候补群的情况下,如果在危险引发原因候补内存在“毛”这样的单词,则设为关联度高,“毛”即“猫”确定为危险引发原因。
在此,从危险引发原因输出部108输出的信息的提供目的地主要为其它车辆的驾驶员、同乘者,例如能够经由云服务器发送到智能手机以及搭载于其它车辆的汽车导航系统等。另外,也可以将信息的提供目的地设为存在于本车辆上的系统,将输出结果存储于预定的存储装置。
作为信息的提供目的地的例子,在提供给其它车辆的驾驶员等的情况下,如“自行车突然出现多发”、“请注意凶猛的狗”等那样提醒注意的显示例如显示于汽车导航系统的画面。
另外,在将信息的提供目的地设为本车辆的情况下,在驾驶结束时将“今天的险兆信息(猫为原因的险兆)”显示于汽车导航系统的画面,或显示于驾驶员的智能手机上。由此,能够进行驾驶的回顾,能够用于驾驶技术的提高。
另外,将信息输出到云服务器等,与其它多个车辆的信息进行组合,从而能够详细地解析“险兆”信息,通过原因的去除、向驾驶员的驾驶指导来减少“险兆”的件数,用于交通事故的预防。
如以上说明,根据本发明的实施方式1的危险信息收集装置100,能够具体地确定引发危险的物体。因此,除了确定危险地方的功能之外,还能够确定引发其危险的原因,能够将因何所致的危险这样的信息提供给用户。
<实施方式2>
图8是示出本发明的实施方式2的危险信息收集装置200的结构的功能框图。图8所示的危险信息收集装置200除了具备图1所示的实施方式1的危险信息收集装置100的结构之外,还具备危险联想信息数据库105。此外,在图8中,关于与使用图1而说明的危险信息收集装置100相同的结构,附加相同的附图标记,省略重复的说明。
危险联想信息数据库105针对每个同乘者信息而保存有使得联想到危险的信息。即,在同乘者信息为同乘者发出的言词的情况下,保存有使得联想到危险的单词。作为使得联想到危险的单词的例子,可举出“没看见”、“很危险”、“勉强”等。另外,同乘者信息为同乘者用手指指示的物体的信息的情况下,作为使得联想到危险的物体的例子,可举出“自行车”、“步行者”、“车”、“电线杆”、“狗”等。
危险引发原因候补设定部106解析同乘者信息并设定危险引发原因候补群的处理与实施方式1相同,但增加核对同乘者信息的解析结果和保存于危险联想信息数据库105的使得联想到危险的信息的处理。
在此,使用图9所示的流程图,说明同乘者信息获取部104以及危险引发原因候补设定部106中的处理。
在同乘者信息获取部104中获取同乘者信息(步骤S41),该同乘者信息被提供给危险引发原因候补设定部106,在危险引发原因候补设定部106中解析同乘者信息(步骤S42)。
作为同乘者发出的语音的解析,进行使用语音识别将语音分割为单词单位的处理。作为同乘者用手指指示的物体的解析,使用同乘者的动作或者脸部的朝向或者身体的朝向的信息,确定存在于用手指指示的方向的物体。
然后,核对在步骤S42中得到的同乘者信息的解析结果和保存于危险联想信息数据库105的使得联想到危险的信息(步骤S43)。在步骤S43中,例如,在为同乘者发出的言词的情况下,在步骤S42中解析为包含“自行车”“没看见”“明天”这样的信息,当在危险联想信息数据库105内保存有“没看见”这样的单词的情况下,判定为“没看见”这样的单词的关联度高。然后,将“没看见”这样的单词和在其前后产生的“自行车”、“明天”这样的单词作为危险引发原因候补(步骤S44)。
在危险联想信息数据库105中,包含在危险状态产生时容易在车辆的搭乘者间的对话中产生的“没看见”等单词,所以能够抑制包含无用的信息作为危险引发原因候补,进行信息的缩小化。例如,在当在步骤S42中的解析结果中存在“自行车突然出现”、“想养猫”、“肚子饿了”等信息时不进行与危险联想信息数据库105的核对的情况下,将“自行车”、“突然出现”、“猫”、“想养”、“肚子”、“饿了”这样的单词作为危险引发原因候补。但是,当在危险联想信息数据库105中包含“突然出现”这样的单词的情况下,能够判定为“突然出现”这样的单词的关联度高,仅将“自行车”、“突然出现”、“猫”这样的单词作为危险引发原因候补群。危险联想信息数据库105将预想的单词预先保存于预定的存储装置而作为数据库。也可以伴随危险信息收集装置200的动作而对数据库追加由危险引发原因候补设定部106获取到的危险引发原因候补的信息,从而使数据库充实。
危险引发原因确定部107使用从视觉辨认对象确定部103输出的视觉辨认对象群的信息和从危险引发原因候补设定部106输出的危险引发原因候补群的信息来确定危险引发原因。危险引发原因输出部108将由危险引发原因确定部107确定的危险引发原因输出到外部。
接下来,使用图10所示的流程图,说明行驶信息获取部101、危险状态度计算部102以及危险引发原因确定部107中的处理。
在行驶信息获取部101中获取车辆行驶时的行驶信息(步骤S51),输出到危险状态度计算部102。
危险状态度计算部102根据从行驶信息获取部101输出的行驶信息,计算作为本车辆的行驶状态是否为危险的状态的指标的危险状态度(步骤S52),输出到危险引发原因确定部107。
危险引发原因确定部107进行由危险状态度计算部102计算出的危险状态度与预先决定的阈值的比较(步骤S53)。在危险状态度小于阈值的情况(否)下,以重复步骤S51以下的处理的方式控制行驶信息获取部101以及危险状态度计算部102。在危险状态度为阈值以上的情况(是)下,判断为本车辆的行驶状态是危险的状态,转移到步骤S54。此外,阈值的设定方法与实施方式1相同。
接下来,危险引发原因确定部107从视觉辨认对象确定部103获取危险状态度变为阈值以上的时间的前后的视觉辨认对象群的信息(步骤S54)。
接下来,危险引发原因确定部107从危险引发原因候补设定部106获取从车的启动后至开始该处理为止获取到的所有的危险引发原因候补(步骤S55)。这样,不进行基于时间的缩小化,获取所有的危险引发原因候补,从而即使在存在产生危险状态的时间点与从同乘者得到与危险引发原因有关的信息的时间点分离的状况、即存在时间差的情况下也能够将视觉辨认对象候补与危险引发原因候补联系起来。例如,即使在当在产生危险状态片刻之后结束行驶时,同乘者关于危险状态而进行了“刚才的猫突然出现很危险呀”等这样的发言的情况下,也能够将视觉辨认对象候补与危险引发原因候补联系起来。
接下来,危险引发原因确定部107核对视觉辨认对象候补群与危险引发原因候补群的关联性(步骤S56)。在核对时,将关联性最高的候补作为危险引发原因。
使用物体的大小或者颜色、形状、单词的意思中的任意的信息,将关联性数值化作为关联度。例如,关于危险引发原因候补,针对“表示危险度的单词”、“表示物体的单词”以及“表示物体的状况的单词”的每个单词,设定关联度的分数,将其关联度的分数最高的危险引发原因候补作为危险引发原因(步骤S57)。
例如,作为“表示危险度的单词”,定义表示“很危险”、“危险”等危险的单词、和“没看见”、“突然出现”、“横穿”等使得联想到危险行动的单词。另外,作为“表示物体的单词”,定义“猫”、“自行车”等名词。另外,作为“表示物体的状况的单词”,定义“小的”、“白色的”等表示物体的形状、大小、颜色等的单词。
然后,将“表示危险度的单词”的分数设为10分,将“表示物体的单词”设为5分,将“表示物体的状况的单词”设为1分,向视觉辨认对象候补给出分数。针对危险引发原因候补的每一组句子给出分数。此外,步骤S56以及S57中的具体的处理与使用图6而说明的处理相同。
在步骤S57中确定的危险引发原因由危险引发原因输出部108输出到外部。从危险引发原因输出部108输出的信息的提供目的地主要为其它车辆的驾驶员、同乘者,例如能够经由云服务器发送到智能手机以及搭载于其它车辆的汽车导航系统等。另外,也可以将信息的提供目的地设为存在于本车辆上的系统,将输出结果存储于预定的存储装置。
如以上说明,根据本发明的实施方式2的危险信息收集装置200,能够具体地确定引发危险的物体。因此,除了确定危险地方的功能之外,还能够确定引发其危险的原因,能够将因何所致的危险这样的信息提供给用户。另外,危险信息收集装置200具备危险联想信息数据库105。通过核对同乘者信息的解析结果和保存于危险联想信息数据库105的使得联想到危险的信息,能够抑制包含无用的信息作为危险引发原因候补,进行信息的缩小化。因此,能够缩短危险引发原因候补的获取所花费的时间。
<实施方式3>
图11是示出本发明的实施方式3的危险信息收集装置300的结构的功能框图。图11所示的危险信息收集装置300除了具备图8所示的实施方式2的危险信息收集装置200的结构之外,还具备获取本车辆的位置的位置信息数据获取部109。此外,在图11中,关于与使用图8而说明的危险信息收集装置200相同的结构,附加相同的附图标记,省略重复的说明。此外,也可以构成为除了具备实施方式1的危险信息收集装置100的结构之外,还具备获取本车辆的位置的位置信息数据获取部109。
位置信息数据获取部109为了获取本车辆的位置而使用GPS(Global PositioningSystem,全球定位系统)等定位系统。
如图11所示,由位置信息数据获取部109获取到的本车辆的位置信息被输出到危险引发原因输出部108。危险引发原因输出部108输出由危险引发原因确定部107确定的危险引发原因和产生危险状态的时间点的本车辆的位置信息。此外,产生危险状态的时间点设为在危险状态度计算部102中计算出的危险状态度变为阈值以上的时间。
从危险引发原因输出部108输出的信息的提供目的地主要为其它车辆的驾驶员、同乘者,例如能够经由云服务器发送到智能手机以及搭载于其它车辆的汽车导航系统等。另外,也可以将信息的提供目的地设为存在于本车辆上的系统,将输出结果存储于预定的存储装置。
如以上说明,根据本发明的实施方式3的危险信息收集装置300,能够具体地确定引发危险的物体。因此,除了确定危险地方的功能之外,还能够确定引发其危险的原因,能够将因何所致的危险这样的信息提供给用户。另外,危险信息收集装置300具备危险联想信息数据库105,核对同乘者信息的解析结果和保存于危险联想信息数据库105的使得联想到危险的信息。由此,能够抑制包含无用的信息作为危险引发原因候补,进行信息的缩小化。因此,能够缩短危险引发原因候补的获取所花费的时间。另外,危险信息收集装置300输出产生危险状态的时间点的本车辆的位置信息,所以能够提供与危险状态有关的更详细的信息。例如,易于采取靠近产生本车辆遭遇到的危险状态的位置的其它车辆回避危险等措施。
<实施方式4>
图12是示出本发明的实施方式4的危险信息收集装置400的结构的功能框图。图12所示的危险信息收集装置400除了图11所示的实施方式3的危险信息收集装置300的结构之外,还具备收集产生危险状态的场所的周边信息的周边信息收集部110。此外,在图12中,关于与使用图11而说明的危险信息收集装置300相同的结构,附加相同的附图标记,省略重复的说明。此外,也可以构成为除了实施方式1的危险信息收集装置100的结构或者实施方式2的危险信息收集装置200的结构,还具备获取本车辆的位置的位置信息数据获取部109。
如图12所示,由周边信息收集部110收集的产生危险状态的场所的周边信息被输出到危险引发原因输出部108。危险引发原因输出部108输出由危险引发原因确定部107确定的危险引发原因、产生危险状态的时间点的本车辆的位置信息以及由周边信息收集部110收集的产生危险状态的场所的周边信息。
周边信息是指时间、天气、车的密集度、人的密集度等从本车辆的周边得到的信息。关于车的密集度,周边的范围例如按照以本车辆为中心的半径规定,从半径1km、3km、5km之中选择即可。关于人的密集度,例如按照以本车辆为中心的半径规定,从半径100m、300m、500m之中选择即可。
周边信息中的人的密集度能够利用因特网从云服务等收集。例如,能够从提供免费应用的因特网服务公司公开从该应用的利用状况获取到的拥挤度的信息的主页收集本车辆所处的场所的信息。关于车的密集度,也能够从因特网上的拥堵信息服务的主页收集。另外,时间、天气等也能够从因特网上的主页收集。
另外,人的密集度也可以通过利用由如搭载于本车辆且对车辆的外部进行摄影的摄像机或者本车辆的附近的街头摄像机那样的设置于车外的摄像机摄影而得到的影像,通过图像识别来识别人,将预定范围内的人数除以该预定范围的面积而求出。在利用由设置于车外的摄像机摄影而得到的影像的情况下,在设置于车外的摄像机与危险信息收集装置400之间直接进行通信,或经由云服务器进行通信,从而将影像从设置于车外的摄像机发送到危险信息收集装置400,从而能够利用由设置于车外的摄像机摄影而得到的影像。
从危险引发原因输出部108输出的信息的提供目的地主要为其它车辆的驾驶员、同乘者,例如能够经由云服务器发送到智能手机以及搭载于其它车辆的汽车导航系统等。另外,也可以将信息的提供目的地设为存在于本车辆上的系统,将输出结果存储于预定的存储装置。
如以上说明,根据本发明的实施方式4的危险信息收集装置400,能够具体地确定引发危险的物体。因此,除了确定危险地方的功能之外,还能够确定引发其危险的原因,能够将因何所致的危险这样的信息提供给用户。另外,危险信息收集装置400具备危险联想信息数据库105,核对同乘者信息的解析结果和保存于危险联想信息数据库105的使得联想到危险的信息。由此,能够抑制包含无用的信息作为危险引发原因候补,进行信息的缩小化,所以能够缩短危险引发原因候补的获取所花费的时间。另外,危险信息收集装置400输出产生危险状态的时间点的本车辆的位置信息以及产生危险状态的场所的周边信息,所以能够提供与危险状态有关的更详细的信息。由此,例如,易于采取靠近产生本车辆遭遇到的危险状态的位置的其它车辆回避危险等措施,另外,易于采取根据周边信息来回避拥堵等措施。
<实施方式5>
图13是示出本发明的实施方式5的危险信息收集装置500的结构的功能框图。图13所示的危险信息收集装置500除了图12所示的实施方式4的危险信息收集装置400的结构之外,还具备登记有过去产生的危险引发原因和位置信息的危险信息数据库111。此外,在图15中,关于与使用图12而说明的危险信息收集装置400相同的结构,附加相同的附图标记,省略重复的说明。
如图13所示,积蓄于危险信息数据库111的过去的危险信息被输出到危险引发原因确定部107。危险引发原因确定部107使用从视觉辨认对象确定部103输出的视觉辨认对象群的信息、从危险引发原因候补设定部106输出的危险引发原因候补群的信息、从位置信息数据收集部109输出的当前地信息以及从危险信息数据库111输出的过去的危险信息来确定危险引发原因,输出到危险引发原因输出部108。
在危险信息数据库111中记录有过去的危险引发原因及其地点的位置信息、时刻信息。此外,也可以存储车辆ID。车辆ID是指用于辨别车辆的辨别信息,例如也可以将制造编号等作为车辆ID。图14示出记录于危险信息数据库111的过去的危险信息的一个例子。
危险引发原因和位置信息从危险引发原因输出部108输入到危险信息数据库111,储存于危险信息数据库111。此外,也可以在危险信息收集装置500的出货时将过去积蓄的危险信息储存于危险信息数据库111。
在图14中,作为危险引发原因,记录有猫以及自行车,与遭遇的时刻信息一起记录有与猫以及自行车遭遇的车辆的车辆ID和作为该车辆遭遇到猫以及自行车的地点的位置信息的纬度、经度信息。
图15是说明危险信息收集装置500的动作的流程图,步骤S61~S65的处理与图10所示的流程图的步骤S51~S55的处理相同,在危险引发原因确定部107中,计算视觉辨认对象候补群与危险引发原因候补的关联度的处理与实施方式4相同。但是,增加当在步骤S66中作为数值而计算出关联度之后根据作为保存于危险信息数据库111的过去的统计信息的危险引发原因和位置信息对关联度加上数值的步骤S67的加权处理。
如图14所示,在危险信息数据库111中记录有过去的危险引发原因及其地点的位置信息。在危险引发原因确定部107中,根据从视觉辨认对象确定部103输出的视觉辨认对象群的信息和从危险引发原因候补设定部106输出的危险引发原因候补群的信息,核对视觉辨认对象候补群与危险引发原因候补群的关联性(步骤S66)。
在核对关联性之后,根据从位置信息数据获取部109输出的位置信息,检索保存于危险信息数据库111的信息来确认从危险状态度计算部102计算的危险状态度变为阈值以上的时间点的位置信息和是否存在与其周边关联起来的危险引发原因。此外,关于上述周边的范围,例如按照以本车辆为中心的半径规定,从半径300m、500m、1km之中选择即可。
然后,在存在对应的危险引发原因的情况下获取该信息。核对获取到的过去的危险引发原因和危险引发原因候补,在一致的情况下,对一致的危险引发原因候补的关联度加上分数(步骤S67)。例如,当在获取到的过去的危险引发原因中存在“猫”的情况下,如果在危险引发原因候补中存在“猫”,则对危险引发原因候补的“猫”的关联度加上分数。
在危险引发原因确定部107中,还包含被加权的关联度,将关联度的分数最高的危险引发原因候补作为危险引发原因(步骤S68)。
如以上说明,根据本发明的实施方式5的危险信息收集装置500,能够具体地确定引发危险的物体。因此,除了确定危险地方功能的之外,还能够确定引发其危险的原因,能够将因何所致的危险这样的信息提供给用户。另外,危险信息收集装置500具备危险信息数据库111,使用基于位置信息的过去的危险引发原因的信息。由此,能够对地理特性等容易在特定的地点产生的危险引发原因的信息追加到关联性的核对,所以能够提高危险引发原因确定的精度。
<变形例>
位置信息数据获取部109以及危险信息数据库111通过追加到实施方式1的危险信息收集装置100或者实施方式2的危险信息收集装置200,能够提高危险引发原因确定的精度。
即,在图16所示的危险信息收集装置100A中为如下结构:危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从位置信息数据收集部109输出的当前地信息和从危险信息数据库111输出的过去的危险信息。
另外,在图17所示的危险信息收集装置200A中为如下结构:危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从位置信息数据收集部109输出的当前地信息和从危险信息数据库111输出的过去的危险信息。
另外,将危险信息数据库111追加到实施方式3的危险信息收集装置300,从而能够提高危险引发原因确定的精度。
即,在图18所示的危险信息收集装置300A中为如下结构:由位置信息数据获取部109获取到的本车辆的位置信息不是被输入到危险引发原因输出部108,而是被输入到危险引发原因确定部107,危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从位置信息数据收集部109输出的当前地信息和从危险信息数据库111输出的过去的危险信息。
此外,在图16、图17以及图18中,关于与使用图1、图8以及图11而说明的危险信息收集装置100~300相同的结构,附加相同的附图标记,省略重复的说明。
<实施方式6>
图19是示出本发明的实施方式6的危险信息收集装置600的结构的功能框图。图19所示的危险信息收集装置600除了图13所示的实施方式5的危险信息收集装置500的结构之外,还具备获取与其它车辆有关的危险引发原因信息的其它车辆信息获取部112。此外,在图19中,关于与使用图13而说明的危险信息收集装置500相同的结构,附加相同的附图标记,省略重复的说明。
如图19所示,由其它车辆信息获取部112获取到的其它车辆的危险引发原因的信息被输出到危险引发原因确定部107。危险引发原因确定部107使用从视觉辨认对象确定部103输出的视觉辨认对象群的信息、从危险引发原因候补设定部106输出的危险引发原因候补群的信息、从位置信息数据获取部109输出的当前地信息、从危险信息数据库111输出的过去的危险信息以及从其它车辆信息获取部112输出的其它车辆的危险引发原因来确定危险引发原因,输出到危险引发原因输出部108。
在此,由其它车辆确定的危险引发原因的名称对应于其它车辆的危险引发原因的信息。此外,也可以追加产生由其它车辆确定的危险引发原因时的位置信息。其它车辆信息获取部112既可以在与搭载于其它车辆的危险信息收集装置之间直接通信而获取其它车辆的危险引发原因的信息,也可以经由云服务器获取。另外,也可以将从其它车辆信息获取部112输出的由其它车辆确定的危险引发原因及其位置信息作为过去的危险信息而积蓄于危险信息数据库111。
图20是说明危险信息收集装置600的动作的流程图,步骤S71~S75的处理与图10所示的流程图的步骤S51~S55的处理相同,在危险引发原因确定部107中计算视觉辨认对象候补群与危险引发原因候补的关联度,当在步骤S76中作为数值而计算出关联度之后,根据作为保存于危险信息数据库111的过去的统计信息的危险引发原因和位置信息,对关联度加上数值的步骤S77的加权处理与实施方式5相同。但是,进而增加根据从其它车辆信息获取部112输出的其它车辆的危险引发原因对关联度进行加法运算的步骤S78的加权处理。
在其它车辆信息获取部112中,从存在于本车辆的周边的其它车辆获取该车辆的危险引发原因。在危险引发原因确定部107中,根据从视觉辨认对象确定部103输出的视觉辨认对象群的信息和从危险引发原因候补设定部106输出的危险引发原因候补群的信息,核对视觉辨认对象候补群与危险引发原因候补群的关联性(步骤S76)。在核对关联性之后,根据从位置信息数据获取部109输出的位置信息,检索保存于危险信息数据库111的信息来确认从危险状态度计算部102计算的危险状态度变为阈值以上的时间点的位置信息和是否存在与其周边关联起来的危险引发原因。
然后,在存在对应的危险引发原因的情况下获取该信息。核对获取到的过去的危险引发原因和危险引发原因候补,在一致的情况下,对一致的危险引发原因候补的关联度加上分数(步骤S77)。
进而,在危险引发原因确定部107中,获取从其它车辆信息获取部112输出的存在于本车辆的周边的其它车辆的危险引发原因。核对获取到的其它车辆的危险引发原因和危险引发原因候补,在一致的情况下,对一致的危险引发原因候补的关联度加上分数(步骤S78)。例如,当在获取到的其它车辆的危险引发原因中存在“猫”的情况下,如果在危险引发原因候补中存在“猫”,则对危险引发原因候补的“猫”的关联度加上分数。此外,关于上述本车辆的周边的范围,例如按照以本车辆为中心的半径规定,从半径300m、500m、1km之中选择即可。
在危险引发原因确定部107中,还包含被加权的关联度,将关联度的分数最高的危险引发原因候补作为危险引发原因(步骤S79)。
如以上说明,根据本发明的实施方式6的危险信息收集装置600,能够具体地确定引发危险的物体。因此,除了确定危险地方的功能之外,还能够确定引发其危险的原因,能够将因何所致的危险这样的信息提供给用户。另外,危险信息收集装置600具备其它车辆信息获取部112,通过使用存在于本车辆的周边的其它车辆的危险引发原因的信息,能够进一步提高危险引发原因确定的精度。
<变形例>
通过将其它车辆信息获取部112追加到实施方式1~4的危险信息收集装置100~400,能够提高危险引发原因确定的精度。
即,在图21所示的危险信息收集装置100B中为如下结构:危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从其它车辆信息获取部112输出的其它车辆的危险引发原因的信息。
另外,在图22所示的危险信息收集装置200B中为如下结构:危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从其它车辆信息获取部112输出的其它车辆的危险引发原因的信息。
另外,在图23所示的危险信息收集装置300B中为如下结构:危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从其它车辆信息获取部112输出的其它车辆的危险引发原因的信息。
另外,在图24所示的危险信息收集装置400B中为如下结构:危险引发原因确定部107除了被输入从视觉辨认对象确定部103输出的视觉辨认对象群的信息以及从危险引发原因候补设定部106输出的危险引发原因候补群的信息之外,还被输入从其它车辆信息获取部112输出的其它车辆的危险引发原因的信息。
此外,在图21~图24中,关于与使用图1、图8、图11以及图12而说明的危险信息收集装置100~400相同的结构,附加相同的附图标记,省略重复的说明。
以上说明的危险信息收集装置100~600、100A~300A以及100B~300B的主要的结构能够使用计算机来构成,这些各结构通过由计算机执行程序而实现。例如,图1所示的危险信息收集装置100的行驶信息获取部101、危险状态度计算部102、视觉辨认对象确定部103、同乘者信息获取部104、危险引发原因候补设定部106、危险引发原因确定部107以及危险引发原因输出部108例如由图25所示的处理电路10实现。作为处理电路10,应用CPU(Central Processing Unit,中央处理单元)、DSP(Digital Signal Processor,数字信号处理器)等处理器,通过执行储存于存储装置的程序而实现上述各结构的功能。
此外,作为处理电路10,也可以应用专用的硬件。处理电路10为专用的硬件的情况,处理电路10例如对应于单一电路、复合电路、程序化的处理器、并行程序化的处理器、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)或者将它们组合而成的结构等。
另外,在图26中,作为一个例子,示出了使用处理器构成图1所示的危险信息收集装置100的各结构的情况下的硬件结构。在该情况下,危险信息收集装置100的各结构的功能利用软件等(软件、固件、或者软件与固件)的组合实现。软件等记述为程序,储存于存储器12。作为处理电路10发挥功能的处理器11通过读出存储于存储器12(存储装置)的程序而执行,实现各部分的功能。
详细地说明了本发明,但上述说明在所有方面是例示,本发明并不限定于此。理解为未被例示的无数的变形例不脱离本发明的范围而能够想到。
此外,本发明能够在其发明的范围内对各实施方式自由地进行组合,或者对各实施方式适当地进行变形、省略。
Claims (10)
1.一种危险信息收集装置,搭载于车辆并收集对于所述车辆的行驶危险的信息,其中,所述危险信息收集装置具备:
行驶信息获取部,获取表示所述车辆的行驶状态的行驶信息;
危险状态度计算部,根据由所述行驶信息获取部获取到的所述行驶信息,计算作为所述车辆的行驶状态是否为危险状态的指标的危险状态度;
视觉辨认对象确定部,将所述车辆的驾驶员的视点信息与所述车辆的周边的物体信息进行组合来确定所述驾驶员的视觉辨认对象并作为视觉辨认对象候补;
同乘者信息获取部,获取包含同乘者发出的言词的同乘者信息;
危险引发原因候补设定部,根据由所述同乘者信息获取部获取到的所述同乘者信息,设定危险引发原因候补群,该危险引发原因候补群包含用于确定引发危险的危险引发原因的危险引发原因候补;以及
危险引发原因确定部,根据由所述危险状态度计算部计算出的所述危险状态度、由所述视觉辨认对象确定部确定的所述视觉辨认对象候补以及由所述危险引发原因候补设定部设定的所述危险引发原因候补,从包含于所述危险引发原因候补群的危险引发原因候补确定所述危险引发原因,
在所述危险状态度变为阈值以上的情况下,所述危险引发原因确定部核对所述视觉辨认对象候补与所述危险引发原因候补的关联性,在所述视觉辨认对象候补与所述危险引发原因候补关联的情况下,所述危险引发原因确定部将所述危险引发原因候补确定为所述危险引发原因,
所述危险引发原因候补设定部对所述同乘者发出的言词进行语音解析,将所述言词分割成单词单位,将分割出的多个单词作为一个集合而设定成所述危险引发原因候补。
2.根据权利要求1所述的危险信息收集装置,其中,
所述同乘者信息包含所述同乘者的动作的影像信息,
所述危险引发原因候补设定部对所述同乘者的动作进行影像解析,在所述同乘者的动作是确定所述车辆的外部的物体的动作的情况下,确定所述物体,将所述物体的名称的单词追加到所述危险引发原因候补。
3.根据权利要求1所述的危险信息收集装置,其中,
所述行驶信息包含速度、制动操作的有无、加速度以及转向角的信息,
所述危险状态度计算部利用所述速度、所述制动操作的有无、所述加速度以及所述转向角的信息的组合以多等级的数值设定所述危险状态度。
4.根据权利要求2所述的危险信息收集装置,其中,
在所述视觉辨认对象候补与所述危险引发原因候补的关联性的核对中,在表示所述危险引发原因候补内的物体的单词或者表示所述物体的状况的单词与所述视觉辨认对象候补一致的情况下,所述危险引发原因确定部将所述视觉辨认对象候补与所述危险引发原因候补联系起来,将所述危险引发原因候补确定为所述危险引发原因。
5.根据权利要求2所述的危险信息收集装置,其中,
在所述视觉辨认对象候补与所述危险引发原因候补的关联性的核对中,在表示所述危险引发原因候补内的物体的单词或者表示所述物体的状况的单词与所述视觉辨认对象候补一致的情况下,所述危险引发原因确定部将所述视觉辨认对象候补与所述危险引发原因候补联系起来,
在存在多个所述危险引发原因候补的情况下,所述危险引发原因确定部将所述危险引发原因候补内的单词分别分类为表示所述物体的单词、表示所述物体的状况的单词以及表示危险度的单词,针对每个分类将预先决定的分数作为关联度的指标而赋予给各个所述单词,针对每个所述危险引发原因候补计算所述分数的合计,将所述分数的合计最高的所述危险引发原因候补确定为所述危险引发原因。
6.根据权利要求2所述的危险信息收集装置,其中,
所述危险信息收集装置还具备危险联想信息数据库,该危险联想信息数据库保存有使得联想到危险的信息,
所述危险引发原因候补设定部在设定所述危险引发原因候补时使用所述使得联想到危险的信息来进行所述同乘者信息的缩小化,
所述使得联想到危险的信息包含使得联想到危险的单词,
在进行所述同乘者信息的缩小化时,
当在所述危险引发原因候补内的多个单词中包含所述危险联想信息数据库内的所述使得联想到危险的单词的情况下,将所述危险引发原因候补内的对应的单词和所述单词的前后的单词设定为所述危险引发原因候补。
7.一种危险信息收集装置,搭载于车辆并收集对于所述车辆的行驶危险的信息,其中,所述危险信息收集装置具备:
行驶信息获取部,获取表示所述车辆的行驶状态的行驶信息;
危险状态度计算部,根据由所述行驶信息获取部获取到的所述行驶信息,计算作为所述车辆的行驶状态是否为危险状态的指标的危险状态度;
视觉辨认对象确定部,将所述车辆的驾驶员的视点信息与所述车辆的周边的物体信息进行组合来确定所述驾驶员的视觉辨认对象并作为视觉辨认对象候补;
同乘者信息获取部,获取包含同乘者发出的言词的同乘者信息;
危险引发原因候补设定部,根据由所述同乘者信息获取部获取到的所述同乘者信息,设定危险引发原因候补群,该危险引发原因候补群包含用于确定引发危险的危险引发原因的危险引发原因候补;
危险引发原因确定部,根据由所述危险状态度计算部计算出的所述危险状态度、由所述视觉辨认对象确定部确定的所述视觉辨认对象候补以及由所述危险引发原因候补设定部设定的所述危险引发原因候补,从包含于所述危险引发原因候补群的危险引发原因候补确定所述危险引发原因;以及
位置信息数据获取部,获取所述车辆的位置信息,
在所述危险状态度变为阈值以上的情况下,所述危险引发原因确定部核对所述视觉辨认对象候补与所述危险引发原因候补的关联性,在所述视觉辨认对象候补与所述危险引发原因候补关联的情况下,所述危险引发原因确定部将所述危险引发原因候补确定为所述危险引发原因,
所述危险信息收集装置将产生所述危险状态的时间点的从所述位置信息数据获取部输出的所述车辆的位置信息与所确定的所述危险引发原因一起输出。
8.一种危险信息收集装置,搭载于车辆并收集对于所述车辆的行驶危险的信息,其中,所述危险信息收集装置具备:
行驶信息获取部,获取表示所述车辆的行驶状态的行驶信息;
危险状态度计算部,根据由所述行驶信息获取部获取到的所述行驶信息,计算作为所述车辆的行驶状态是否为危险状态的指标的危险状态度;
视觉辨认对象确定部,将所述车辆的驾驶员的视点信息与所述车辆的周边的物体信息进行组合来确定所述驾驶员的视觉辨认对象并作为视觉辨认对象候补;
同乘者信息获取部,获取包含同乘者发出的言词的同乘者信息;
危险引发原因候补设定部,根据由所述同乘者信息获取部获取到的所述同乘者信息,设定危险引发原因候补群,该危险引发原因候补群包含用于确定引发危险的危险引发原因的危险引发原因候补;
危险引发原因确定部,根据由所述危险状态度计算部计算出的所述危险状态度、由所述视觉辨认对象确定部确定的所述视觉辨认对象候补以及由所述危险引发原因候补设定部设定的所述危险引发原因候补,从包含于所述危险引发原因候补群的危险引发原因候补确定所述危险引发原因;以及
周边信息收集部,收集包含所述车辆的周边的车的密集度以及人的密集度的周边信息,
在所述危险状态度变为阈值以上的情况下,所述危险引发原因确定部核对所述视觉辨认对象候补与所述危险引发原因候补的关联性,在所述视觉辨认对象候补与所述危险引发原因候补关联的情况下,所述危险引发原因确定部将所述危险引发原因候补确定为所述危险引发原因,
所述危险信息收集装置将产生所述危险状态的场所的从所述周边信息收集部输出的所述周边信息与所确定的所述危险引发原因一起输出。
9.根据权利要求2所述的危险信息收集装置,其中,还具备:
危险信息数据库,保存过去的危险引发原因和所述过去的危险引发原因的位置信息;以及
位置信息数据获取部,获取所述车辆的位置信息,
在所述视觉辨认对象候补与所述危险引发原因候补的关联性的核对中,在与所述危险状态度变为阈值以上的时间点的从所述位置信息数据获取部输出的所述车辆的位置信息关联的所述过去的危险引发原因存在于所述危险信息数据库且所述过去的危险引发原因与所述危险引发原因候补一致的情况下,所述危险引发原因确定部对一致的所述危险引发原因候补的关联度进行加权。
10.根据权利要求9所述的危险信息收集装置,其中,
所述危险信息收集装置还具备其它车辆信息获取部,该其它车辆信息获取部获取其它车辆的危险引发原因,
在所述视觉辨认对象候补与所述危险引发原因候补的关联性的核对中,在与所述危险状态度变为阈值以上的时间点的从所述位置信息数据获取部输出的所述车辆的位置信息关联的由所述其它车辆信息获取部获取到的所述其它车辆的所述危险引发原因与所述危险引发原因候补一致的情况下,所述危险引发原因确定部对一致的所述危险引发原因候补的关联度进行加权。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017121910 | 2017-06-22 | ||
JP2017-121910 | 2017-06-22 | ||
PCT/JP2018/015515 WO2018235409A1 (ja) | 2017-06-22 | 2018-04-13 | 危険情報収集装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110741424A CN110741424A (zh) | 2020-01-31 |
CN110741424B true CN110741424B (zh) | 2022-02-18 |
Family
ID=64735599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880037266.XA Active CN110741424B (zh) | 2017-06-22 | 2018-04-13 | 危险信息收集装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10964137B2 (zh) |
JP (1) | JP6448880B1 (zh) |
CN (1) | CN110741424B (zh) |
DE (1) | DE112018003180T5 (zh) |
WO (1) | WO2018235409A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110082128B (zh) * | 2019-05-16 | 2020-03-31 | 中国汽车工程研究院股份有限公司 | 一种面向自然驾驶数据的危险片段采集系统及其方法 |
JP7418189B2 (ja) * | 2019-11-21 | 2024-01-19 | 日産自動車株式会社 | 表示画像生成装置及び表示画像生成方法 |
US11091166B1 (en) | 2020-04-21 | 2021-08-17 | Micron Technology, Inc. | Driver screening |
US11494865B2 (en) | 2020-04-21 | 2022-11-08 | Micron Technology, Inc. | Passenger screening |
JP7375683B2 (ja) * | 2020-06-16 | 2023-11-08 | トヨタ自動車株式会社 | 情報処理装置、プログラム、及び情報処理方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0094449A1 (en) * | 1982-05-19 | 1983-11-23 | Nissan Motor Co., Ltd. | Speech recognition system for an automotive vehicle |
US6639512B1 (en) * | 1998-07-15 | 2003-10-28 | Kyu-Woong Lee | Environmental warning system |
CN102317952A (zh) * | 2009-05-07 | 2012-01-11 | 宝马股份公司 | 在显示装置的显示器上呈现运输工具周围环境中可见性不同的物体的方法 |
US8140358B1 (en) * | 1996-01-29 | 2012-03-20 | Progressive Casualty Insurance Company | Vehicle monitoring system |
CN102449672A (zh) * | 2009-06-02 | 2012-05-09 | 丰田自动车株式会社 | 车辆用周边监视装置 |
CN104474715A (zh) * | 2014-11-27 | 2015-04-01 | 无锡北斗星通信息科技有限公司 | 一种基于语音识别的过山车安全监控方法 |
CN104732709A (zh) * | 2013-12-23 | 2015-06-24 | 赫拉胡克公司 | 针对危险的路面状态发出警告指示的方法和设备 |
CN106043308A (zh) * | 2015-04-08 | 2016-10-26 | 罗伯特·博世有限公司 | 用于对汽车驾驶员进行专注性识别的方法和设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3848554B2 (ja) | 2001-10-11 | 2006-11-22 | 株式会社日立製作所 | 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置 |
JP4270010B2 (ja) | 2004-04-05 | 2009-05-27 | 株式会社デンソー | 物体危険判定装置 |
JP4396597B2 (ja) | 2005-08-08 | 2010-01-13 | 株式会社デンソー | 危険反応地点記録システム及び運転支援システム |
EP2000889B1 (en) * | 2006-03-15 | 2018-06-27 | Omron Corporation | Monitor and monitoring method, controller and control method, and program |
JP4458072B2 (ja) * | 2006-06-28 | 2010-04-28 | 日産自動車株式会社 | 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両 |
JP2008021177A (ja) * | 2006-07-13 | 2008-01-31 | Toyota Central Res & Dev Lab Inc | 危険状況判断装置及び危険状況記録装置 |
JP5171629B2 (ja) * | 2006-09-04 | 2013-03-27 | パナソニック株式会社 | 走行情報提供装置 |
JP2011113244A (ja) | 2009-11-26 | 2011-06-09 | Suzuki Motor Corp | 運転支援装置 |
WO2011075392A1 (en) * | 2009-12-18 | 2011-06-23 | Honda Motor Co., Ltd. | A predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience |
JP5278461B2 (ja) * | 2011-02-03 | 2013-09-04 | 株式会社デンソー | 視線検出装置および視線検出方法 |
DE102011076112A1 (de) * | 2011-05-19 | 2012-11-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Erkennen eines möglichenKollisionsobjektes |
DE102011078615B4 (de) * | 2011-07-04 | 2022-07-14 | Toyota Jidosha Kabushiki Kaisha | Objekterfassungsvorrichtung und objekterfassungsprogramm |
DE112012005852T5 (de) * | 2012-02-10 | 2014-11-27 | Mitsubishi Electric Corporation | Fahrerassistenzvorrichtung und Fahrerassistenzverfahren |
JP2013191072A (ja) * | 2012-03-14 | 2013-09-26 | Hitachi Automotive Systems Ltd | 物体検出装置 |
JP2014089557A (ja) * | 2012-10-30 | 2014-05-15 | Micware Co Ltd | 車載装置、危険予測方法、およびプログラム |
US8954340B2 (en) * | 2013-03-15 | 2015-02-10 | State Farm Mutual Automobile Insurance Company | Risk evaluation based on vehicle operator behavior |
JP6055865B2 (ja) * | 2014-08-04 | 2016-12-27 | 富士重工業株式会社 | 走行環境危険度判定装置および走行環境危険度報知装置 |
WO2016030934A1 (ja) | 2014-08-25 | 2016-03-03 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
TWI596580B (zh) * | 2014-11-26 | 2017-08-21 | Metal Ind Res And Dev Centre | Obstacle warning system and its operation method |
JP2017021745A (ja) * | 2015-07-15 | 2017-01-26 | パイオニア株式会社 | 情報収集装置、情報収集サーバ及び情報収集システム |
US10373500B1 (en) * | 2017-09-22 | 2019-08-06 | State Farm Mutual Automobile Insurance Company | Technology for using image data to assess vehicular risks and communicate notifications |
-
2018
- 2018-04-13 WO PCT/JP2018/015515 patent/WO2018235409A1/ja active Application Filing
- 2018-04-13 CN CN201880037266.XA patent/CN110741424B/zh active Active
- 2018-04-13 DE DE112018003180.2T patent/DE112018003180T5/de not_active Withdrawn
- 2018-04-13 JP JP2018544375A patent/JP6448880B1/ja active Active
- 2018-04-13 US US16/603,627 patent/US10964137B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0094449A1 (en) * | 1982-05-19 | 1983-11-23 | Nissan Motor Co., Ltd. | Speech recognition system for an automotive vehicle |
US8140358B1 (en) * | 1996-01-29 | 2012-03-20 | Progressive Casualty Insurance Company | Vehicle monitoring system |
US6639512B1 (en) * | 1998-07-15 | 2003-10-28 | Kyu-Woong Lee | Environmental warning system |
CN102317952A (zh) * | 2009-05-07 | 2012-01-11 | 宝马股份公司 | 在显示装置的显示器上呈现运输工具周围环境中可见性不同的物体的方法 |
CN102449672A (zh) * | 2009-06-02 | 2012-05-09 | 丰田自动车株式会社 | 车辆用周边监视装置 |
CN104732709A (zh) * | 2013-12-23 | 2015-06-24 | 赫拉胡克公司 | 针对危险的路面状态发出警告指示的方法和设备 |
CN104474715A (zh) * | 2014-11-27 | 2015-04-01 | 无锡北斗星通信息科技有限公司 | 一种基于语音识别的过山车安全监控方法 |
CN106043308A (zh) * | 2015-04-08 | 2016-10-26 | 罗伯特·博世有限公司 | 用于对汽车驾驶员进行专注性识别的方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2018235409A1 (ja) | 2018-12-27 |
US10964137B2 (en) | 2021-03-30 |
DE112018003180T5 (de) | 2020-03-12 |
JPWO2018235409A1 (ja) | 2019-06-27 |
US20200118360A1 (en) | 2020-04-16 |
CN110741424A (zh) | 2020-01-31 |
JP6448880B1 (ja) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110741424B (zh) | 危险信息收集装置 | |
US11735037B2 (en) | Method and system for determining traffic-related characteristics | |
US20220286811A1 (en) | Method for smartphone-based accident detection | |
CN111164967B (zh) | 图像处理设备和图像处理方法 | |
US11315026B2 (en) | Systems and methods for classifying driver behavior | |
US10336252B2 (en) | Long term driving danger prediction system | |
CN114026611A (zh) | 使用热图检测驾驶员注意力 | |
CN113276769A (zh) | 车辆盲区防撞预警系统及方法 | |
CN105654753A (zh) | 一种智能车载安全驾驶辅助方法及系统 | |
CN112105537B (zh) | 驾驶风险计算装置和方法 | |
US20230005249A1 (en) | Information processing apparatus, information processing system, information processing method, and information processing program | |
JP7376996B2 (ja) | 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム | |
Kashevnik et al. | Driver intelligent support system in internet of transportation things: Smartphone-based approach | |
JP2012103849A (ja) | 情報提供装置 | |
US12087165B2 (en) | Moving body prediction device, traffic safety support system, and storage medium | |
JP2023026299A (ja) | 事故分析装置、事故分析方法及びプログラム | |
JP2023026182A (ja) | 事故分析装置、事故分析方法及びプログラム | |
JP2023104122A (ja) | 情報処理装置、情報処理方法、および、情報処理装置用プログラム | |
JP5742180B2 (ja) | 注視点推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |