CN113139443A - 面向眼动仪前向视频的交通目标自动识别与匹配的方法 - Google Patents

面向眼动仪前向视频的交通目标自动识别与匹配的方法 Download PDF

Info

Publication number
CN113139443A
CN113139443A CN202110375531.9A CN202110375531A CN113139443A CN 113139443 A CN113139443 A CN 113139443A CN 202110375531 A CN202110375531 A CN 202110375531A CN 113139443 A CN113139443 A CN 113139443A
Authority
CN
China
Prior art keywords
traffic
target
eye tracker
matching
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110375531.9A
Other languages
English (en)
Other versions
CN113139443B (zh
Inventor
吕能超
王星
吴超仲
文家强
吴浩然
王玉刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202110375531.9A priority Critical patent/CN113139443B/zh
Publication of CN113139443A publication Critical patent/CN113139443A/zh
Application granted granted Critical
Publication of CN113139443B publication Critical patent/CN113139443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向眼动仪前向视频的交通目标自动识别与匹配的方法,该方法包括:通过眼动仪眼部摄像头获取驾驶人在驾驶时的注视点位置信息;通过眼动仪前向摄像头拍摄记录驾驶人前方的交通场景;利用AI算法对眼动仪前向摄像头记录的视频文件进行运算分析,对视频中的交通目标进行识别和位置标注;通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪;利用匹配算法对视频中的交通目标和注视点进行空间匹配;根据空间匹配结果对驾驶人在各种交通目标上的注视点的时空特征进行统计分析。本发明能够自动、快速、高效地确定驾驶过程中驾驶人的注视目标和内容,克服人工标注和匹配交通目标效率低下、准确度不高的缺陷。

Description

面向眼动仪前向视频的交通目标自动识别与匹配的方法
技术领域
本发明涉及人因工程、计算机视觉和目标检测等领域,更具体地,涉及一种面向眼动仪前向视频的交通目标自动识别与匹配的方法。
背景技术
视线追踪技术是采用机械、电子、光学和计算机等技术手段获取人的视觉注意方向的技术广泛应用于人机交互、车辆辅助驾驶等各个领域。驾驶人在驾驶过程中,需要接收周围的道路信息,对其进行选择、处理和反应,在这个过程中,眼睛起着主要作用。通过对驾驶人的视线进行追踪,研究驾驶人的注视特征,可在一定程度上揭示驾驶人的驾驶习惯、驾驶心理等因素,对于驾驶安全等方面有着重要意义。
眼动仪是一种能够跟踪测量眼球位置及眼球运动信息的一种设备,用于记录人在处理视觉信息时的眼动轨迹特征,在视觉系统、心理学、认知语言学的研究中有广泛的应用。视线追踪是通过测量眼睛的注视点的位置或者眼球相对头部的运动而实现对眼球运动的追踪。而眼动的本质是人注意力资源的主动或被动分配,选择更有用或吸引力的信息。用户佩戴眼动仪读取文本和图像时,视线追踪记录了眼睛的注视和扫视的过程,并完整地判断出眼睛浏览和停留的位置,清晰地解释佩戴者的眼睛看过哪些位置,没有看哪些位置。
眼动仪所具备的前向摄像头可记录驾驶人的驾驶情况,利用眼动仪的配套专业软件,可以选择并且提取时间戳、驾驶人注视位置和注视时长等数据。但当前的眼动仪存在着无法进行交通目标的识别与分类,需要人工逐帧识别标定的问题,效率低下。而交通场景中的目标如车辆、行人、非机动车、标志、标线、信号灯等具有特征,具备自动识别的条件;如果采用AI算法对前向视频中的交通目标进行逐帧识别,然后再与注视点进行匹配,则可自动提取驾驶人注视点所关注的交通目标类型,这样可以大幅提高注视目标标注的效率。
发明内容
本发明主要目的,在于提出一种面向眼动仪前向视频的交通目标自动识别与匹配的方法,实现注视点所关注目标的自动、高效的提取、匹配与统计。
本发明所采用的技术方案是:
提供一种面向眼动仪前向视频的交通目标自动识别与匹配的方法,该方法包括:
S1、通过眼动仪眼部摄像头获取驾驶人在驾驶时的注视点位置信息;
S2、通过眼动仪前向摄像头拍摄记录驾驶人前方的交通场景;
S3、利用AI算法对眼动仪前向摄像头记录的视频文件进行运算分析,对视频中的交通目标进行识别和位置标注;
S4、通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪,并对跳变的目标进行过滤修复,对遗漏的目标进行差值补充;
S5、利用匹配算法对视频中的交通目标和注视点进行空间匹配,完成对驾驶人注视目标的判断;
S6、根据空间匹配结果对驾驶人在各种交通目标上的注视点的时空特征进行统计分析。
接上述技术方案,步骤S3中,具体利用AI算法对眼动仪前向摄像头所录制的视频内容进行识别,识别的交通目标包括交通标志、标线、车辆、行人以及信号灯;并对交通目标在图像像素中所处的区域进行标注、分类并记录。
接上述技术方案,步骤S5中具体将步骤S4中识别出的交通目标与注视点位置进行匹配,自动判断驾驶人在驾驶过程中在各帧对交通目标的注视情况。
接上述技术方案,步骤S6中时空特征包括注视目标时长、注视目标类型。
接上述技术方案,步骤S3中,具体对交通目标在图像像素中所处的矩形区域进行标注,对交通目标进行分类编码,并对识别结果打上时间戳。
本发明还提供一种面向眼动仪前向视频的交通目标自动识别与匹配的系统,该系统包括:
注视点位置信息获取模块,用于通过眼动仪眼部摄像头获取驾驶人在驾驶时的注视点位置信息;
交通场景获取模块,用于通过眼动仪前向摄像头拍摄记录驾驶人前方的交通场景;
交通目标识别模块,用于利用AI算法对眼动仪前向摄像头记录的视频文件进行运算分析,对视频中的交通目标进行识别和位置标注;
交通目标跟踪模块,用于通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪,并对跳变的目标进行过滤修复,对遗漏的目标进行差值补充;
匹配模块,用于利用匹配算法对视频中的交通目标和注视点进行空间匹配,完成对驾驶人注视目标的判断;
时空特征分析模块,用于根据空间匹配结果对驾驶人在各种交通目标上的注视点的时空特征进行统计分析。
接上述技术方案,交通目标识别模块具体利用AI算法对眼动仪前向摄像头所录制的视频内容进行识别,识别的交通目标包括交通标志、标线、车辆、行人以及信号灯;并对交通目标在图像像素中所处的区域进行标注、分类并记录。
接上述技术方案,时空特征包括注视目标时长、注视目标类型。
接上述技术方案,交通目标识别模块具体对交通目标在图像像素中所处的矩形区域进行标注,对交通目标进行分类编码,并对识别结果打上时间戳。
本发明还提供一种存储介质,其可被处理器执行,其内存储有计算机程序,该计算机程序执行上述技术方案中的面向眼动仪前向视频的交通目标自动识别与匹配的方法。
本发明产生的有益效果是:本发明通过眼动仪所拍摄的前向视频,对前向交通目标进行识别与分类,并将交通目标与驾驶人的注视点自动匹配,完成对驾驶人在驾驶过程中的注视目标的判断,克服了人工识别和匹配交通目标效率低下、准确度不高的缺陷。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例面向眼动仪前向视频的交通目标自动识别与匹配的方法流程图;
图2是本发明实施例中AI算法对眼动仪前向视频中的交通标志、标线、车辆等目标所处的矩形区域进行标注的示意图;
图3是本发明实施例中AI算法对眼动仪前向视频中识别的目标对象的处理示意图;
图4是本发明实施例中眼动仪所提取到的注视点与前向视频中AI算法提取到的相关交通目标进行匹配,完成对驾驶人注视目标的判断的示意图;
图5是本发明实施例面向眼动仪前向视频的交通目标自动识别与匹配的系统结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的面向眼动仪前向视频的交通目标自动识别与匹配的方法主要利用AI算法,自动识别和提取前向摄像头所记录视频中的各相关交通目标,并将目标与注视点进行逐帧匹配,以自动提取注视点所观察的特征。通过这种方法,无需人工对交通目标进行标注,实现注视点所关注目标的自动、高效的提取、匹配与统计。
本发明将AI算法和眼动仪相结合,驾驶人在佩戴眼动仪驾驶时,利用眼动仪的前向摄像头记录驾驶人的驾驶情况,利用眼动仪眼部摄像头记录驾驶人的注视点位置信息。在后期进行处理时,利用AI算法将视频中记录的各相关交通目标进行自动的识别与分类。如图1所示,其具体步骤为:
S1、利用眼动仪的眼部摄像头,记录并提取驾驶人在驾驶过程中的注视点位置信息;
S2、利用眼动仪的前向摄像头,记录驾驶人前方的交通场景;
S3、对于眼动仪前向摄像头记录的视频文件,采用AI算法对视频中出现的各相关交通目标进行识别与位置标注;
S4、通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪,并对跳变的目标进行过滤修复,对遗漏的目标进行差值补充。主要对于眼动仪前向视频中前后跳帧、漏帧等问题进行修复;
S5、将前向视频中的各交通目标与驾驶人的注视点进行匹配;完成对驾驶人注视目标的判断;
S6、根据上一步匹配的结果,分析并统计驾驶人在各种交通目标上的注视点时空特征。
进一步地,本发明步骤S1的具体方法为:
本发明拟采用头戴式眼动仪,但是固定非接触式眼动仪(视线追踪系统)也适用本方法。一般而言,汽车驾驶者头戴眼动仪进行驾驶,期间眼动仪眼部摄像头用来记录驾驶人眼睛的注视情况,并提取眼球运动状态以推算注视点,将注视点映射到前向摄像头视频中。将注视点的位置映射到前向摄像头视频中,这是眼动仪具备的功能,不在本发明专利范围内;但是注视点位置是本发明专利的数据来源之一。
进一步地,本发明步骤S2的具体方法为:
驾驶人佩戴的眼动仪装有前向摄像头,驾驶人在驾驶过程中佩,眼动仪可记录车辆前方的驾驶情况。前向摄像头的位置可视为驾驶人眼睛的位置,因此可以视认为是驾驶人驾车时的视野情况。驾驶人佩戴眼动仪进行驾驶,期间眼动仪保持工作状态,保证完整无误地记录下前方的交通场景。前向摄像头记录下前方场景视频,这是眼动仪具备的功能,不在本发明专利范围内;但是该视频数据是本专利后续发明内容的重要对象。
进一步地,本发明步骤S3的具体方法为:
针对前向摄像头录制的视频,使用AI算法对视频进行运算分析,识别视频中的交通目标,提取交通标志、交通标线、车辆、行人、信号灯等对象;并对目标在图像像素中所处的矩形区域进行标注(如红色矩形框);并对交通目标进行分类编码,如小汽车编为1、小货车编为2、大客车编为3、大货车编为4、标线标为5、标志编为6、行人编为7、信号灯编为8,…;并对这些识别结果打上时间戳,并记录到数据库。图2是AI算法对视频中的交通标志、标线、车辆等目标所处的矩形区域进行标注的示意图。
进一步地,本发明步骤S4的具体方法为:
通过眼动仪视频前后帧对交通目标的识别,对于视频中跳变的目标进行过滤修复,对遗漏的目标进行差值补充。消除跳变目标,补充遗漏目标,并进行多帧检测,根据多帧检测的结果对交通目标尺寸进行平滑处理。图3所示即为AI算法对眼动仪视频中所识别的目标的处理过程。
进一步地,本发明步骤S5的具体方法为:
利用匹配算法,将眼动仪所提取到的注视点与前向视频中AI算法提取到的相关交通目标进行匹配,完成对驾驶人注视目标的判断。如图4所示,十字代表注视点,表明驾驶人正在注视前方车辆。通过时间点关联和空间点关联的方法,判定驾驶人在视频帧中所注视的交通目标类型。
进一步地,本发明步骤S6的具体方法为:
根据步骤S5中的匹配结果,对驾驶人在各种交通目标上的注视点时空特征进行分析,对注视目标时长、注视目标类型等特征进行统计并提取。通过注视点匹配的结果及在时间序列上的特点,确认随着时间注视点所观察的目标类型,并统计输出随着时间变化所关注的目标类型。
如图5所示,本发明还提供一种面向眼动仪前向视频的交通目标自动识别与匹配的系统,该系统包括:
注视点位置信息获取模块,用于通过眼动仪眼部摄像头获取驾驶人在驾驶时的注视点位置信息;
交通场景获取模块,用于通过眼动仪前向摄像头拍摄记录驾驶人前方的交通场景;
交通目标识别模块,用于利用AI算法对眼动仪前向摄像头记录的视频文件进行运算分析,对视频中的交通目标进行识别和位置标注;
交通目标跟踪模块,用于通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪,并对跳变的目标进行过滤修复,对遗漏的目标进行差值补充;
匹配模块,用于利用匹配算法对视频中的交通目标和注视点进行空间匹配,完成对驾驶人注视目标的判断;
时空特征分析模块,用于根据空间匹配结果对驾驶人在各种交通目标上的注视点的时空特征进行统计分析。
进一步地,交通目标识别模块具体利用AI算法对眼动仪前向摄像头所录制的视频内容进行识别,识别的交通目标包括交通标志、标线、车辆、行人以及信号灯;并对交通目标在图像像素中所处的区域进行标注、分类并记录。
进一步地,匹配模块具体将步骤交通目标跟踪模块中识别出的交通目标与注视点位置进行匹配,自动判断驾驶人在驾驶过程中在各帧对交通目标的注视情况。
进一步地,时空特征包括注视目标时长、注视目标类型。
进一步地,交通目标识别模块具体对交通目标在图像像素中所处的矩形区域进行标注,对交通目标进行分类编码,并对识别结果打上时间戳。
本发明还提供一种存储介质,其可被处理器执行,其内存储有计算机程序,该计算机程序执行上述技术方案中的面向眼动仪前向视频的交通目标自动识别与匹配的方法。
综上所述,本发明利用AI算法,通过眼动仪所拍摄的前向视频,对前向交通目标进行识别与分类,并将交通目标与驾驶人的注视点自动匹配,完成对驾驶人在驾驶过程中的注视目标的判断,克服了人工识别和匹配交通目标效率低下、准确度不高的缺陷。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.一种面向眼动仪前向视频的交通目标自动识别与匹配的方法,其特征在于,该方法包括:
S1、通过眼动仪眼部摄像头获取驾驶人在驾驶时的注视点位置信息;
S2、通过眼动仪前向摄像头拍摄记录驾驶人前方的交通场景;
S3、利用AI算法对眼动仪前向摄像头记录的视频文件进行运算分析,对视频中的交通目标进行识别和位置标注;
S4、通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪,并对跳变的目标进行过滤修复,对遗漏的目标进行差值补充;
S5、利用匹配算法对视频中的交通目标和注视点进行空间匹配,完成对驾驶人注视目标的判断;
S6、根据空间匹配结果对驾驶人在各种交通目标上的注视点的时空特征进行统计分析。
2.根据权利要求1所述的面向眼动仪前向视频的交通目标自动识别与匹配的方法,其特征在于,步骤S3中,具体利用AI算法对眼动仪前向摄像头所录制的视频内容进行识别,识别的交通目标包括交通标志、标线、车辆、行人以及信号灯;并对交通目标在图像像素中所处的区域进行标注、分类并记录。
3.根据权利要求1所述的面向眼动仪前向视频的交通目标自动识别与匹配的方法,其特征在于,步骤S5中具体将步骤S4中识别出的交通目标与注视点位置进行匹配,自动判断驾驶人在驾驶过程中在各帧对交通目标的注视情况。
4.根据权利要求1所述的面向眼动仪前向视频的交通目标自动识别与匹配的方法,其特征在于,步骤S6中时空特征包括注视目标时长、注视目标类型。
5.根据权利要求2所述的面向眼动仪前向视频的交通目标自动识别与匹配的方法,其特征在于,步骤S3中,具体对交通目标在图像像素中所处的矩形区域进行标注,对交通目标进行分类编码,并对识别结果打上时间戳。
6.一种面向眼动仪前向视频的交通目标自动识别与匹配的系统,其特征在于,该系统包括:
注视点位置信息获取模块,用于通过眼动仪眼部摄像头获取驾驶人在驾驶时的注视点位置信息;
交通场景获取模块,用于通过眼动仪前向摄像头拍摄记录驾驶人前方的交通场景;
交通目标识别模块,用于利用AI算法对眼动仪前向摄像头记录的视频文件进行运算分析,对视频中的交通目标进行识别和位置标注;
交通目标跟踪模块,用于通过眼动仪前向摄像头拍摄的前向视频前后帧对交通目标进行识别跟踪,并对跳变的目标进行过滤修复,对遗漏的目标进行差值补充;
匹配模块,用于利用匹配算法对视频中的交通目标和注视点进行空间匹配,完成对驾驶人注视目标的判断;
时空特征分析模块,用于根据空间匹配结果对驾驶人在各种交通目标上的注视点的时空特征进行统计分析。
7.根据权利要求6所述的面向眼动仪前向视频的交通目标自动识别与匹配的系统,其特征在于,交通目标识别模块具体利用AI算法对眼动仪前向摄像头所录制的视频内容进行识别,识别的交通目标包括交通标志、标线、车辆、行人以及信号灯;并对交通目标在图像像素中所处的区域进行标注、分类并记录。
8.根据权利要求6所述的面向眼动仪前向视频的交通目标自动识别与匹配的系统,其特征在于,时空特征包括注视目标时长、注视目标类型。
9.根据权利要求6所述的面向眼动仪前向视频的交通目标自动识别与匹配的系统,其特征在于,交通目标识别模块具体对交通目标在图像像素中所处的矩形区域进行标注,对交通目标进行分类编码,并对识别结果打上时间戳。
10.一种存储介质,其特征在于,其可被处理器执行,其内存储有计算机程序,该计算机程序执行权利要求1-5中任一项所述的面向眼动仪前向视频的交通目标自动识别与匹配的方法。
CN202110375531.9A 2021-04-08 2021-04-08 面向眼动仪前向视频的交通目标自动识别与匹配的方法 Active CN113139443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110375531.9A CN113139443B (zh) 2021-04-08 2021-04-08 面向眼动仪前向视频的交通目标自动识别与匹配的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110375531.9A CN113139443B (zh) 2021-04-08 2021-04-08 面向眼动仪前向视频的交通目标自动识别与匹配的方法

Publications (2)

Publication Number Publication Date
CN113139443A true CN113139443A (zh) 2021-07-20
CN113139443B CN113139443B (zh) 2023-12-22

Family

ID=76810654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110375531.9A Active CN113139443B (zh) 2021-04-08 2021-04-08 面向眼动仪前向视频的交通目标自动识别与匹配的方法

Country Status (1)

Country Link
CN (1) CN113139443B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236702A (zh) * 2008-01-29 2008-08-06 武汉理工大学 基于虚拟现实的驾驶员注视物体识别系统
CN105975928A (zh) * 2016-04-29 2016-09-28 广东顺德中山大学卡内基梅隆大学国际联合研究院 可穿戴眼动仪第一视角视频图像分析方法
CN108447303A (zh) * 2018-03-20 2018-08-24 武汉理工大学 基于人眼视觉与机器视觉耦合的外周视野危险识别方法
CN111797810A (zh) * 2020-07-20 2020-10-20 吉林大学 一种行车过程中驾驶员前视预瞄区域的获取方法
CN111931579A (zh) * 2020-07-09 2020-11-13 上海交通大学 利用眼动追踪和手势识别技术的自动驾驶辅助系统及方法
CN112380935A (zh) * 2020-11-03 2021-02-19 深圳技术大学 面向自动驾驶的人机协同感知方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236702A (zh) * 2008-01-29 2008-08-06 武汉理工大学 基于虚拟现实的驾驶员注视物体识别系统
CN105975928A (zh) * 2016-04-29 2016-09-28 广东顺德中山大学卡内基梅隆大学国际联合研究院 可穿戴眼动仪第一视角视频图像分析方法
CN108447303A (zh) * 2018-03-20 2018-08-24 武汉理工大学 基于人眼视觉与机器视觉耦合的外周视野危险识别方法
CN111931579A (zh) * 2020-07-09 2020-11-13 上海交通大学 利用眼动追踪和手势识别技术的自动驾驶辅助系统及方法
CN111797810A (zh) * 2020-07-20 2020-10-20 吉林大学 一种行车过程中驾驶员前视预瞄区域的获取方法
CN112380935A (zh) * 2020-11-03 2021-02-19 深圳技术大学 面向自动驾驶的人机协同感知方法及系统

Also Published As

Publication number Publication date
CN113139443B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
US20210357670A1 (en) Driver Attention Detection Method
CN109643366B (zh) 用于监控车辆驾驶员的状况的方法和系统
Mbouna et al. Visual analysis of eye state and head pose for driver alertness monitoring
Wang et al. A survey on driver behavior analysis from in-vehicle cameras
US8300924B2 (en) Tracker component for behavioral recognition system
CN106469309A (zh) 车辆监控的方法和装置、处理器、图像采集设备
CN110826369A (zh) 一种驾驶员驾驶时注意力检测方法和系统
Sathasivam et al. Drowsiness detection system using eye aspect ratio technique
CN104424585A (zh) 播放方法及电子装置
CN104627074A (zh) 车辆中的光学的播放及识别系统
US20170353650A1 (en) System and method for adaptive flickering reduction from video sequence
CN112954486B (zh) 基于视线注意力的车载视频留痕处理方法
CN113139443B (zh) 面向眼动仪前向视频的交通目标自动识别与匹配的方法
CN114998870A (zh) 一种驾驶行为状态识别方法、装置、设备及存储介质
WO2023151241A1 (zh) 一种运动意图确定方法、装置、设备及存储介质
CN102722724B (zh) 具有目标识别功能的车载夜视系统及其目标标识方法
CN110908500A (zh) 目标物信息的预载显示方法及装置
Bhagat et al. Driver gaze fixation and pattern analysis in safety critical events
CN115147930A (zh) 一种基于人工智能的大数据视频ai分析系统
CN115146830A (zh) 一种智能识别路人打车意图的方法、系统及其车辆
CN112258813A (zh) 一种车辆主动安全控制方法和设备
Pansare et al. Real-time Driver Drowsiness Detection with Android
CN208569650U (zh) 一种支持驾驶员与副驾驶身份同时识别的驾驶行为分析仪
CN112606688A (zh) 应用于车辆的显示界面移动显示方法及显示系统
Stapleton Perceptual attention to contact analogue head-up displays

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant