CN112215120B - 视觉搜索区域的确定方法、装置及驾驶模拟器 - Google Patents

视觉搜索区域的确定方法、装置及驾驶模拟器 Download PDF

Info

Publication number
CN112215120B
CN112215120B CN202011068578.2A CN202011068578A CN112215120B CN 112215120 B CN112215120 B CN 112215120B CN 202011068578 A CN202011068578 A CN 202011068578A CN 112215120 B CN112215120 B CN 112215120B
Authority
CN
China
Prior art keywords
visual recognition
core
area
target
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011068578.2A
Other languages
English (en)
Other versions
CN112215120A (zh
Inventor
宫晓彤
徐艺
桑晓青
王玉琼
谭德荣
高松
刘秉政
魏福禄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Technology
Original Assignee
Shandong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Technology filed Critical Shandong University of Technology
Priority to CN202011068578.2A priority Critical patent/CN112215120B/zh
Publication of CN112215120A publication Critical patent/CN112215120A/zh
Application granted granted Critical
Publication of CN112215120B publication Critical patent/CN112215120B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供了一种视觉搜索区域的确定方法、装置及驾驶模拟器,包括:采集驾驶人的眼部数据和模拟驾驶场景的场景数据;基于眼部数据和场景数据,确定模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点;确定各个目标视线视认点分别对应的核心视认区域和各个核心视认区域对应的视认权重;基于各个核心视认区域对应的视认权重,从模拟驾驶场景中确定驾驶人的视觉搜索区域。本发明可以有效缩减视觉搜索所需的时间,同时提高视觉搜索区域的准确性。

Description

视觉搜索区域的确定方法、装置及驾驶模拟器
技术领域
本发明涉及视觉识别技术领域,尤其是涉及一种视觉搜索区域的确定方法、装置及驾驶模拟器。
背景技术
目前,为缓解交通环境的日益严峻的现状,可以通过视觉搜索方法对驾驶员的动态视觉规律进行分析。相关技术所公开的视觉搜索方法,主要用于搜索驾驶环境中的感兴趣区域,然而发明人经研究发现,现有的视觉搜索方法存在搜索效率低和搜索效率准确性较差的问题。
发明内容
有鉴于此,本发明的目的在于提供一种视觉搜索区域的确定方法、装置及驾驶模拟器,可以有效缩减视觉搜索所需的时间,同时提高视觉搜索区域的准确性。
第一方面,本发明实施例提供了一种视觉搜索区域的确定方法,所述方法包括:采集驾驶人的眼部数据和模拟驾驶场景的场景数据;基于所述眼部数据和所述场景数据,确定所述模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点;确定各个所述目标视线视认点分别对应的核心视认区域和各个所述核心视认区域对应的视认权重;基于各个所述核心视认区域对应的视认权重,从所述模拟驾驶场景中确定所述驾驶人的视觉搜索区域。
在一种实施方式中,所述采集驾驶人的眼部数据和模拟驾驶场景的场景数据的步骤,包括:通过眼部相机采集驾驶人的眼部数据;通过场景相机采集模拟驾驶环境的场景数据。
在一种实施方式中,所述基于所述眼部数据和所述场景数据,确定所述模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点的步骤,包括:对所述眼部数据和所述场景数据进行叠加匹配处理,得到视线点信息;基于所述模拟驾驶场景中的模拟视认目标建立视认坐标系;将所述视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为所述模拟驾驶场景中的模拟视认目标对应的目标视线视认点;其中,所述预设条件包括注视时间条件和注视角度条件。
在一种实施方式中,在所述将所述视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为所述模拟驾驶场景中的模拟视认目标对应的目标视线视认点的步骤之前,所述方法还包括:利用拉格朗日插值算法和经验模态分解法,对所述视线点信息进行预处理;其中,所述预处理包括数据剔除处理、数据补偿处理和数据降噪处理中的一种或多种。
在一种实施方式中,确定各个所述目标视线视认点分别对应的核心视认区域和各个所述核心视认区域对应的视认权重的步骤,包括:利用聚类算法确定各个所述目标视线视认点分别对应的核心视认区域;基于各个所述核心视认区域内所包含的目标视线视认点的密度,确定各个所述核心视认区域对应的视认权重。
在一种实施方式中,所述基于各个所述核心视认区域内所包含的目标视线视认点的密度,确定各个所述核心视认区域对应的视认权重的步骤,包括:针对每个所述核心视认区域,对该核心视认区域内所包含的目标视线视认点间的平均距离的倒数进行均值化处理,得到该核心视认区域对应的均值;对各个所述核心视认区域对应的均值进行归一化处理,并基于各个所述核心视认区域对应的归一化处理结果对各个所述核心视认区域的视认权重进行分配;其中,该核心视认区域内所包含的目标视线视认点间的平均距离用于表征该核心视认区域内所包含的目标视线视认点的密度。
在一种实施方式中,所述对各个所述核心视认区域对应的均值进行归一化处理的步骤,包括:按照如下公式对各个所述核心视认区域对应的均值进行归一化处理:
Figure BDA0002710986780000031
其中,x*表示核心视认区域对应的归一化处理结果;x表示核心视认区域对应的均值;max表示均值最大值;min表示均值最小值。
第二方面,本发明实施例还提供一种视觉搜索区域的确定装置,所述装置包括:数据采集模块,用于采集驾驶人的眼部数据和模拟驾驶场景的场景数据;视认点确定模块,用于基于所述眼部数据和所述场景数据,确定所述模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点;视认权重确定模块,用于确定各个所述目标视线视认点分别对应的核心视认区域和各个所述核心视认区域对应的视认权重;区域确定模块,用于基于各个所述核心视认区域对应的视认权重,从所述模拟驾驶场景中确定所述驾驶人的视觉搜索区域。
第三方面,本发明实施例还提供一种驾驶模拟器,包括模拟器屏幕、处理器和存储器;所述模拟器屏幕用于提供所述模拟驾驶场景,所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如第一方面提供的任一项所述的方法。
第四方面,本发明实施例还提供一种计算机存储介质,用于储存为第一方面提供的任一项所述方法所用的计算机软件指令。
本发明实施例提供的一种视觉搜索区域的确定方法、装置及驾驶模拟器,首先采集驾驶人的眼部数据和模拟驾驶场景的场景数据,并基于眼部数据和场景数据,确定模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点,然后确定各个目标视线视认点分别对应的核心视认区域和各个核心视认区域对应的视认权重,从而基于各个核心视认区域对应的视认权重,从模拟驾驶场景中确定驾驶人的视觉搜索区域。上述方法基于采集到的眼部数据和场景数据确定模拟驾驶场景中的模拟视认目标对应的目标视线视认点,从而基于目标视线视认点聚类后得到的核心视认区域,明确各核心视认区域的视认权重,并基于各核心视认区域的视认权重确定视觉搜索区域,有效提高视觉搜索区域的搜索效率和搜索准确度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种视觉搜索区域的确定方法的流程示意图;
图2为本发明实施例提供的一种驾驶模拟器的结构示意图;
图3为本发明实施例提供的一种邻域搜索半径示意图;
图4为本发明实施例提供的另一种视距搜索区域的确定方法的流程示意图;
图5为本发明实施例提供的一种视觉搜索区域的确定装置的结构示意图;
图6为本发明实施例提供的另一种驾驶模拟器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,现有的视觉搜索方法存在搜索效率低的问题,例如,相关技术中提出的一种用于自动驾驶的感兴趣目标搜索区域确定方法,该方法实现根据行驶场景确定感兴趣目标搜索区域,调节自车的传感器监测感兴趣目标搜索区域,能够针对性地确定感兴趣目标搜索区域,以提高自动驾驶的安全性;相关技术中提出的一种视觉搜索方法、系统以及移动终端,该方法充分利用移动终端和服务端的计算能力协同工作完成视觉搜索,减少视觉搜索的时间、提高了视觉搜索的效率;相关技术中提出的一种共享注意的协同视觉搜索系统及方法,该发明以消除沟通不畅及指示错误产生的搜索失败,同时利用多通道可以有效提高合作效率,然而上述方法的视觉搜索效率仍然有待提高。基于此,本发明实施提供了一种视觉搜索区域的确定方法、装置及驾驶模拟器,可以有效提高视觉搜索区域的搜索效率。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种视觉搜索区域的确定方法进行详细介绍,在一种实施方式中,本发明实施例提供的视觉搜索区域的确定方法可以由驾驶模拟器执行,驾驶模拟器为模拟驾驶环境的实验装置,参见图1所示的一种视觉搜索区域的确定方法的流程示意图,该方法主要包括以下步骤S102至步骤S108:
步骤S102,采集驾驶人的眼部数据和模拟驾驶场景的场景数据。其中,眼部数据可以包括视线位置、注视时间中的一种或多种,场景数据可以为模拟驾驶环境的图像数据或视频数据。在一种实施方式中,当驾驶人位于驾驶模拟器内时,可通过驾驶模拟器内设置的眼动装置采集驾驶人的眼部数据和模拟驾驶场景的场景数据。
步骤S104,基于眼部数据和场景数据,确定模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点。在一种实施方式中,可以利用眼动装置的合成功能对眼部数据和场景数据进行叠加匹配及数据同步,得到驾驶人在观察模拟视认目标时的视线点信息,也即得到模拟视认目标对应的多个视线点信息,可选的,可以对视线点信息进行数据剔除处理、数据补偿处理和数据降噪处理等预处理,然后将视线点信息划分为常规扫视视认点或目标视线视认点,从而得到模拟驾驶场景中模拟视认目标对应的多个目标视线视认点。
步骤S106,确定各个目标视线视认点分别对应的核心视认区域和各个核心视认区域对应的视认权重。在一种实施方式中,可以利用聚类算法对目标视线视认点进行分析,确定目标视线视认点所在的聚类簇,并将聚类簇所覆盖的区域确定为目标视线视认点对应的核心视认区域,另外还可基于核心视认区域内所包含的目标视线视认点的密度确定该核心视认区域的视认权重。
步骤S108,基于各个核心视认区域对应的视认权重,从模拟驾驶场景中确定驾驶人的视觉搜索区域。在一种实施方式中,可按照视认权重的大小从模拟驾驶场景中确定视觉搜索区域,例如,将视认权重最大的核心视认区域区确定为视觉搜索区域,或按照视认权重从大到小的顺序将前N个核心视认区域确定为视觉搜索区域。
本发明实施例提供的一种视觉搜索区域的确定方法,基于采集到的眼部数据和场景数据确定模拟驾驶场景中的模拟视认目标对应的目标视线视认点,从而基于目标视线视认点聚类后得到的核心视认区域,明确各核心视认区域的视认权重,并基于各核心视认区域的视认权重确定视觉搜索区域,有效提高视觉搜索区域的搜索效率和搜索准确度。
在一种实施方式中,上述视觉搜索区域的确定方法可由驾驶模拟器执行,驾驶人位于驾驶模拟器内执行单目标视认任务,为便于理解,本发明实施例提供了一种驾驶模拟器,参见图2所示的一种驾驶模拟器的结构示意图,驾驶模拟器包括实验轿车和模拟器屏幕,模拟器屏幕用于显示单视认目标驾驶环境(也即,上述模拟驾驶环境)。另外,驾驶人可以为多个(诸如10个)驾驶经验较为丰富的驾驶员,由驾驶人操作实验轿车。驾驶模拟器还设置有眼动装置,眼动装置包括用于采集模拟驾驶环境的场景相机和用于采集眼部数据的眼部相机。本发明实施例采用模拟器屏幕显示多个不同类型的单一视认目标或分批显示不同类型的单一视认目标,并重复上述步骤多次对模拟驾驶环境中的单一视认目标进行视认,以确定出不同模拟驾驶场景中的视觉搜索区域,其中,上述单一视认目标可以理解为一个待视认对诸如(待视认人员、待视认机动车、待视认非机动车和待视认标志标线等)。
基于图2所示的驾驶模拟器,本发明实施例提供了一种采集驾驶人的眼部数据和模拟驾驶场景的场景数据的实施方式,由驾驶模拟器提供模拟驾驶环境,驾驶人坐在实验轿车中进行操作;模拟器屏幕可以根据实验需求构造单一视认目标驾驶环境或多视认目标驾驶环境,并显示单一视认目标驾驶环境或多视认目标驾驶环境,上述单一视认目标驾驶环境或多视认目标驾驶环境可以统称为模拟驾驶场景,然后通过眼部相机采集驾驶人的眼部数据,以及通过场景相机采集模拟驾驶环境的场景数据。其中,上述眼部相机可采用Tobii-Pro-Glasses头戴式相机,场景相机可采用MV-VDF300SC型号相机,眼动装置的眼部相机与场景相机安装于同一眼镜框架内。
在一种可选的实施方式中,在驾驶模拟器中可根据不同模拟视认目标建立相应的模拟驾驶场景,驾驶人位于实验轿车内执行与模拟视认目标所属的对象类型执行相应的单目标视认任务,此时由场景相机采集场景数据以及使用眼部相机采集驾驶人的眼部数据,并基于场景数据和眼部数据得到驾驶人的视线点位置(也即,上述视线点信息),收集到驾驶人的视线点信息后,可以利用使用Lagrange插值和EMD(Empirical ModeDecomposition,经验模态分解)算法对采集到的异常数据进行剔除、补偿与降噪等处理,并在此基础上确定模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点。具体实现时,本发明实施例提供了一种基于眼部数据和场景数据,确定模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点的具体实施方式,参见如下步骤a至步骤d:
步骤a,对眼部数据和场景数据进行叠加匹配处理,得到视线点信息。其中,视线点信息可以理解为驾驶人的视线映射至场景数据时的坐标位置。在一种实施方式中,可以利用眼动装置的合成功能对眼部数据和场景数据进行叠加匹配及数据同步处理,以得到模拟驾驶场景中的模拟视认目标对应的视线点信息。
步骤b,基于模拟驾驶场景中的模拟视认目标建立视认坐标系。其中,视认坐标系的原点为模拟视认目标的几何中心,视认坐标系的单位为模拟视认目标的成像尺寸。在一种实施方式中,可以基于模拟驾驶场景中模拟视认目标所属的对象类型建立视认坐标系,其中,对象类型可以包括待视认人员、待视认机动车、待视认非机动车、待视认标志标线4种类型,在具体实现时,可以以模拟视认目标的几何中心为原点,以模拟视认目标的成像尺寸为单位建立动态的视认坐标系,例如,确定待视认人员的几何中心原点,并以人的高度和宽度为单位建立动态的视认坐标系。
步骤c,利用拉格朗日插值算法和经验模态分解法,对视线点信息进行预处理;其中,预处理包括数据剔除处理、数据补偿处理和数据降噪处理中的一种或多种。在一种实施方式中,可以将视线点信息中的缺失值和异常值带入Lagrange插值多项式
Figure BDA0002710986780000081
获得缺失值和异常值对应点处的近似值,其中,n表示视线点信息的总个数,xa表示第a个视线点信息,xb表示第b个视线点信息。在一种实施方式中,可通过空值判断确定原始眼部数据中的缺失点;另外,将采集到的数据中出现的频率小于预设频率阈值,且分布占比不到1%的数据作为异常值,或者把标准差作为衡量异常值的尺度,超过标准差的数据作为异常值。使用EMD算法对视线点信息进行数据降噪处理,找出视线点信息中所有极大值emax(t)和极小值e mint(t),计算极大值和极小值的均值m(t)=(e max(t)+e mint(t))/2,然后抽离细节d(t)=x(t)-m(t),对m(t)重复上述过程,并在达到预设条件时停止计算,其中,预设条件可以为d(t)的均值为0,从而通过特征时间尺度来识别视线点信息中所内含的所有振动模态使,进而实现对视线点信息进行降噪,其中,x(t)为原始信号,在本发明实施例中,可将需要进行数据降噪处理的视线点信息作为原始信号。
步骤d,将视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为模拟驾驶场景中的模拟视认目标对应的目标视线视认点;其中,预设条件包括注视时间条件和注视角度条件,注视时间条件包括注视持续时间大于预设时间阈值,注视角度条件包括注视角度处于预设角度范围内。注视持续时间可以理解为视轴中心位置保持不变的持续时间,也就是从视线点对应的模拟视认目标上提取信息所用的时间;注视角度是眼球相对于头部在水平和竖直方向转动的角度,例如,以(0,0)为原点,即眼球到竖直面的垂线与竖直面的交点,眼球与注视点之间的连线在水平面上的投影与垂直面之间的夹角a即为视线点位置在水平面上的角度。由于实验采用250Hz的频率进行采样,即4ms采样一次,在不同的驾驶任务和不同模拟视认目标的复杂环境中,需要使用MATLAB从大量图像分析中提取模拟视认目标并根据时间的先后确定模拟视认目标的视认顺序,对模拟视认目标进行空间位置分析和驻留时长分析,将长时间驻留视线点提取出来作为目标视认视线点。例如,在视认坐标系的预设区域范围内,将视线停留时间大于100ms且注视的角度范围变化小30°的视线点信息确定为目标视线视认点。
可选的,本发明实施例可以利用聚类算法确定核心视认区域和核心视认权重。对于初始时没有类别的视线点信息,从中选取若干个核心对象点,寻找每个核心对象点的密度可达的样本集合,由密度可达关系导出的最大密度相连的样本集合,即为我们最终聚类的一个聚类簇并将聚类簇在模拟驾驶场景中所覆盖的区域确定为核心视认区域,然后基于核心视认区域内所包含的目标视认对象的密度,确定核心视认区域的视认权重。在一种具体的实施方式中,可按照如下(一)至(二)执行确定各个目标视线视认点分别所在的核心视认区域和各个核心视认区域对应的视认权重的步骤:
(一)利用聚类算法确定各个目标视线视认点分别所在的核心视认区域。在一种具体的实施方式中,假设目标视线视认点在注视区域内均匀分布,则以每一目标视线视认点为圆心画圆,并将该圆的原直径作为DBSCAN的邻域搜索半径,如图3所示的一种邻域搜索半径示意图,设置DBSCAN邻域最少对象数Mp=3,按照如下公式计算邻域搜索半径rE
Figure BDA0002710986780000101
其中,l为注视区域长度,h为注视区域高度。
在具体实现时,取选择目标视线视认点中任意一个不属于任何聚类的对象p,创建新的聚类,根据该聚类中的核对象,循环收集密度可达的核对象加入该聚类,直到没有新的核对象加入该聚类为止,其中,核对象为在参数Eps半径的大小内包含等于Minpts或者超过Minpts的近邻的给定对象。通过上述方法,将具有足够高密度的区域划分为聚类簇(密度相连的点的最大集合),并将该聚类簇所覆盖区域作为目标视线视认点所在的核心视认区域。
(二)基于各个核心视认区域内所包含的目标视线视认点的密度,确定各个核心视认区域对应的视认权重。在一种实施方式中,针对每个核心视认区域,对该核心视认区域内所包含的目标视线视认点间的平均距离的倒数
Figure BDA0002710986780000111
进行均值化处理,得到均值;对各个所述核心视认区域对应的均值进行归一化处理,并基于各个所述核心视认区域对应的归一化处理结果对各个所述核心视认区域的视认权重进行分配,可选的,归一化处理可以选择min-max标准化(Min-Max Normalization)也称为离差标准化,是对原始的均值的线性变换,使结果值映射到[0-1]之间,具体的,按照如下公式对各个核心视认区域对应的均值进行归一化处理:
Figure BDA0002710986780000112
其中,x*表示核心视认区域对应的归一化处理结果;x表示核心视认区域对应的均值;max表示均值最大值;min表示均值最小值,dn表示目标视线点间平均距离,该核心视认区域内所包含的目标视线视认点间的平均距离用于表征该核心视认区域内所包含的目标视线视认点的密度。
在具体实现时,面向目标部件模型库有效性、可移植性的提升和检测模型样本规模需求的降低,使用Petri网离散系统建模方法,分类型统计模拟视认目标的核心视认区域及各核心视认区域的视认权重。具体的,第一步定权重分配规则,根据各核心视认区域中目标视线视认点密度对各核心视认区域进行视认权重的分配,其中,λn越大权重越大。确定该核心视认区域内所包含的目标视线视认点间的平均距离的倒数后,对该核心视认区域内所包含的目标视线视认点间的平均距离的倒数进行均值化处理,进而对各个核心视认区域对应的均值化处理结果进行归一化处理,从而根据该归一化处理结果完成核心视认区域进行权重分配。第二步为获取的每个流关系合理加权生成加权流关系值,构建以模拟视认目标的对象类型为输入、以核心视认区域及各核心视认区域的视认权重为输出的视觉搜索区域确定方法。
为便于对上述实施例提供的视觉搜索区域的确定方法进行理解,本发明实施例提供了另一种视觉搜索区域的确定方法,参见图4所示的另一种视距搜索区域的确定方法的流程示意图,该方法主要包括以下步骤1至步骤5:
步骤1,如果检测到驾驶人佩戴眼动装置坐在实验轿车内,提供模拟驾驶环境,并采集驾驶人的眼部数据和模拟驾驶场景的场景数据。其中,模拟驾驶场景为将模拟视认目标分为待视认行人、待视认机动车、待视认非机动车、待视认标志标线4种类型,使用驾驶模拟器逐次构造单一视认目标驾驶环境。然后,向驾驶人布置驾驶任务,构造包含不同类型模拟视认目标的模拟驾驶环境。眼部数据可以包括场景数据为分别采集熟练驾驶员进行不同驾驶任务时的眼部数据,每种驾驶行为采集时长为10s。可选的,还可以剔除因系统误差超出视野外的数据以及眨眼时刻(该时刻眼动装置无法捕捉瞳孔数据,因而注视方向数据误差较大)的数据。
步骤2,使用Lagrange插值算法和EMD算法对是视线点信息进行异常数据处理。其中,视线点信息是基于上述眼部数据和场景数据得到的,异常数据处理可以包括剔除、补偿与降噪等。
步骤3,建立视认坐标系,分析视线点信息的驻留时长和空间分布特征,确定目标视线视认点。其中,目标视线视认点为目标区域范围建立的动态坐标系中长时间驻留的视线点,其获得方法为统计动态坐标系中的视线点的空间驻留位置以及驻留的时长,将大于驻留时长平均数的视线点提取出来作为目标视线视认点。
步骤4,使用基于密度的DBSCAN聚类方法对目标视线视认点进行聚类分析,确认目标视线视认点的核心视认区域和核心视认区域视认的视认权重。
步骤5,分类型统计视认目标的核心视认区域及各核心视认区域的权重,使用Petri网离散系统建模方法构建以对象类型为输入、以核心视认区域及各核心视认区域的视认权重为输出的视觉搜索子模型。
综上所述,本发明实施例提供的视觉搜索区域的确定方法,以提高自动驾驶车辆的环境适应性为出发点,以提升单视认目标感知精度、降低感知方法的时空复杂度为目标,面向自动驾驶车辆在多视认目标驾驶环境下提高环境感知精度、压缩系统响应时间、提升行驶安全性的实际需求,以期解决视觉搜索机制重构、部件模型库构建、被遮蔽目标检测等多视认目标驾驶环境感知的实际问题,通过分析驾驶人眼部数据研究视觉搜索区域,基于视觉搜索区域构建部件模型库,提高部件模型库的有效性和可移植性,并使用部件模型库训练机器学习架构。可使生成的单目标检测方法对被遮蔽目标具有较高的检测精度和检测速度,从而提升自动驾驶车辆在单视认目标驾驶环境中的感知精度和响应速度。
对于前述实施例提供的视觉搜索区域的确定方法,本发明实施例提供了一种视觉搜索区域的确定装置,参见图5所示的一种视觉搜索区域的确定装置的结构示意图,该装置主要包括以下部分:
数据采集模块502,用于采集驾驶人的眼部数据和模拟驾驶场景的场景数据。
视认点确定模块504,用于基于眼部数据和场景数据,确定模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点。
视认权重确定模块506,用于确定各个目标视线视认点分别对应的核心视认区域和各个核心视认区域对应的视认权重。
区域确定模块508,用于基于各个核心视认区域对应的视认权重,从模拟驾驶场景中确定驾驶人的视觉搜索区域。
本发明实施例提供的上述视觉搜索区域的确定装置,基于采集到的眼部数据和场景数据确定模拟驾驶场景中的模拟视认目标对应的目标视线视认点,从而基于目标视线视认点聚类后得到的核心视认区域,明确目标视线视认点所在的核心视认区域和各核心视认区域的视认权重,并基于各核心视认区域的视认权重确定视觉搜索区域,有效提高视觉搜索区域的搜索效率和搜索准确度。
在一种实施方式中,数据采集模块502还用于:通过眼部相机采集驾驶人的眼部数据;通过场景相机采集模拟驾驶环境的场景数据。
在一种实施方式中,视认点确定模块504还用于:对眼部数据和场景数据进行叠加匹配处理,得到视线点信息;基于模拟驾驶场景中的模拟视认目标建立视认坐标系;将视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为模拟驾驶场景中的模拟视认目标对应的目标视线视认点;其中,预设条件包括注视时间条件和注视角度条件。
在一种实施方式中,视认点确定模块504还用于:利用拉格朗日插值算法和经验模态分解法,对视线点信息进行预处理;其中,预处理包括数据剔除处理、数据补偿处理和数据降噪处理中的一种或多种。
在一种实施方式中,视认权重确定模块506还用于:利用聚类算法确定各个目标视线视认点分别对应的核心视认区域;基于各个核心视认区域内所包含的目标视线视认点的密度,确定各个核心视认区域对应的视认权重。
在一种实施方式中,视认权重确定模块506还用于:针对每个核心视认区域,对该核心视认区域内所包含的目标视线视认点间的平均距离的倒数进行均值化处理,得到该核心视认区域对应的均值;对各个核心视认区域对应的均值进行归一化处理,并基于各个核心视认区域对应的归一化处理结果对各个核心视认区域的视认权重进行分配。
在一种实施方式中,视认权重确定模块506还用于:按照如下公式对各个核心视认区域对应的均值进行归一化处理:
Figure BDA0002710986780000141
其中,x*表示核心视认区域对应的归一化处理结果;x表示核心视认区域对应的均值;max表示均值最大值;min表示均值最小值。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例提供了一种驾驶模拟器,具体的,该驾驶模拟器包括模拟器屏幕、处理器和存储装置;模拟器屏幕用于提供模拟驾驶场景,存储装置上存储有计算机程序,计算机程序在被所述处理器运行时执行如上所述实施方式的任一项所述的方法。
图6为本发明实施例提供的另一种驾驶模拟器的结构示意图,该驾驶模拟器100包括:处理器60,存储器61,总线62和通信接口63,所述处理器60、通信接口63和存储器61通过总线62连接;处理器60用于执行存储器61中存储的可执行模块,例如计算机程序。
本发明实施例所提供的可读存储介质的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见前述方法实施例,在此不再赘述。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (9)

1.一种视觉搜索区域的确定方法,其特征在于,所述方法包括:
采集驾驶人的眼部数据和模拟驾驶场景的场景数据;
基于所述眼部数据和所述场景数据,确定所述模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点;
确定各个所述目标视线视认点分别对应的核心视认区域和各个所述核心视认区域对应的视认权重;
基于各个所述核心视认区域对应的视认权重,从所述模拟驾驶场景中确定所述驾驶人的视觉搜索区域;
所述基于所述眼部数据和所述场景数据,确定所模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点的步骤,包括:
对所述眼部数据和所述场景数据进行叠加匹配处理,得到视线点信息;
基于所述模拟驾驶场景中的模拟视认目标建立视认坐标系;
将所述视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为所述模拟驾驶场景中的模拟视认目标对应的目标视线视认点;其中,所述预设条件包括注视时间条件和注视角度条件。
2.根据权利要求1所述的方法,其特征在于,所述采集驾驶人的眼部数据和模拟驾驶场景的场景数据的步骤,包括:
通过眼部相机采集驾驶人的眼部数据;
通过场景相机采集模拟驾驶环境的场景数据。
3.根据权利要求1所述的方法,其特征在于,在所述将所述视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为所述模拟驾驶场景中的模拟视认目标对应的目标视线视认点的步骤之前,所述方法还包括:
利用拉格朗日插值算法和经验模态分解法,对所述视线点信息进行预处理;其中,所述预处理包括数据剔除处理、数据补偿处理和数据降噪处理中的一种或多种。
4.根据权利要求1所述的方法,其特征在于,确定各个所述目标视线视认点分别对应的核心视认区域和各个所述核心视认区域对应的视认权重的步骤,包括:
利用聚类算法确定各个所述目标视线视认点分别对应的核心视认区域;
基于各个所述核心视认区域内所包含的目标视线视认点的密度,确定各个所述核心视认区域对应的视认权重。
5.根据权利要求4所述的方法,其特征在于,所述基于各个所述核心视认区域内所包含的目标视线视认点的密度,确定各个所述核心视认区域对应的视认权重的步骤,包括:
针对每个所述核心视认区域,对该核心视认区域内所包含的目标视线视认点间的平均距离的倒数进行均值化处理,得到该核心视认区域对应的均值;
对各个所述核心视认区域对应的均值进行归一化处理,并基于各个所述核心视认区域对应的归一化处理结果对各个所述核心视认区域的视认权重进行分配;
其中,该核心视认区域内所包含的目标视线视认点间的平均距离用于表征该核心视认区域内所包含的目标视线视认点的密度。
6.根据权利要求5所述的方法,其特征在于,所述对各个所述核心视认区域对应的均值进行归一化处理的步骤,包括:
按照如下公式对各个所述核心视认区域对应的均值进行归一化处理:
Figure FDA0003856183940000021
其中,x*表示核心视认区域对应的归一化处理结果;x表示核心视认区域对应的均值;max表示均值最大值;min表示均值最小值。
7.一种视觉搜索区域的确定装置,其特征在于,所述装置包括:
数据采集模块,用于采集驾驶人的眼部数据和模拟驾驶场景的场景数据;
视认点确定模块,用于基于所述眼部数据和所述场景数据,确定所述模拟驾驶场景中的模拟视认目标对应的多个目标视线视认点;
视认权重确定模块,用于确定各个所述目标视线视认点分别对应的核心视认区域和各个所述核心视认区域对应的视认权重;
区域确定模块,用于基于各个所述核心视认区域对应的视认权重,从所述模拟驾驶场景中确定所述驾驶人的视觉搜索区域;
所述视认点确定模块还用于:
对所述眼部数据和所述场景数据进行叠加匹配处理,得到视线点信息;
基于所述模拟驾驶场景中的模拟视认目标建立视认坐标系;
将所述视认坐标系的预设区域范围内满足预设条件的视线点信息,确定为所述模拟驾驶场景中的模拟视认目标对应的目标视线视认点;其中,所述预设条件包括注视时间条件和注视角度条件。
8.一种驾驶模拟器,其特征在于,包括模拟器屏幕、处理器和存储器;
所述模拟器屏幕用于提供所述模拟驾驶场景,所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至6任一项所述的方法。
9.一种计算机存储介质,其特征在于,用于储存为权利要求1至6任一项所述方法所用的计算机软件指令。
CN202011068578.2A 2020-09-30 2020-09-30 视觉搜索区域的确定方法、装置及驾驶模拟器 Active CN112215120B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011068578.2A CN112215120B (zh) 2020-09-30 2020-09-30 视觉搜索区域的确定方法、装置及驾驶模拟器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011068578.2A CN112215120B (zh) 2020-09-30 2020-09-30 视觉搜索区域的确定方法、装置及驾驶模拟器

Publications (2)

Publication Number Publication Date
CN112215120A CN112215120A (zh) 2021-01-12
CN112215120B true CN112215120B (zh) 2022-11-22

Family

ID=74052789

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011068578.2A Active CN112215120B (zh) 2020-09-30 2020-09-30 视觉搜索区域的确定方法、装置及驾驶模拟器

Country Status (1)

Country Link
CN (1) CN112215120B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949404B (zh) * 2021-02-01 2022-04-19 吉林大学 一种夜间驾驶人视觉搜索能力量化方法
CN113378771B (zh) * 2021-06-28 2022-07-26 济南大学 驾驶员状态确定方法、装置、驾驶员监控系统、车辆
CN115294408B (zh) * 2022-10-08 2023-03-24 汉达科技发展集团有限公司 用于驾驶模拟器的运行异常识别方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7742623B1 (en) * 2008-08-04 2010-06-22 Videomining Corporation Method and system for estimating gaze target, gaze sequence, and gaze map from video
CN102637231B (zh) * 2012-04-11 2013-12-04 天津市市政工程设计研究院 驾驶员行车动态视觉感知仿真方法
CN104871525A (zh) * 2012-12-26 2015-08-26 索尼公司 图像处理装置、以及图像处理方法及程序
CN105898288B (zh) * 2016-05-30 2018-06-08 上海交通大学 共享注意的协同视觉搜索系统及方法
CN108334191B (zh) * 2017-12-29 2021-03-23 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置
CN108447303B (zh) * 2018-03-20 2021-01-15 武汉理工大学 基于人眼视觉与机器视觉耦合的外周视野危险识别方法
CN109102734A (zh) * 2018-09-04 2018-12-28 北京精英智通科技股份有限公司 模拟驾驶训练系统及方法
CN111259719B (zh) * 2019-10-28 2023-08-25 浙江零跑科技股份有限公司 一种基于多目红外视觉系统的驾驶室场景分析方法
CN111055852B (zh) * 2019-12-20 2021-06-11 浙江吉利汽车研究院有限公司 一种用于自动驾驶的感兴趣目标搜索区域确定方法

Also Published As

Publication number Publication date
CN112215120A (zh) 2021-01-12

Similar Documents

Publication Publication Date Title
CN112215120B (zh) 视觉搜索区域的确定方法、装置及驾驶模拟器
CN109544615B (zh) 基于图像的重定位方法、装置、终端及存储介质
CN109726771B (zh) 异常驾驶检测模型建立方法、装置及存储介质
CN112417953B (zh) 道路状况检测和地图数据更新方法、装置、系统及设备
CN107818310B (zh) 一种基于视线的驾驶员注意力检测方法
CN110874362A (zh) 一种数据关联分析方法及装置
CN109118532B (zh) 视觉景深估计方法、装置、设备及存储介质
WO2018171875A1 (en) Control device, system and method for determining the perceptual load of a visual and dynamic driving scene
CN114092920B (zh) 一种模型训练的方法、图像分类的方法、装置及存储介质
CN116338608B (zh) 微波雷达探测角度调整方法、装置、设备及存储介质
CN112651266A (zh) 行人检测方法和装置
CN116311539B (zh) 基于毫米波的睡眠动作捕捉方法、装置、设备及存储介质
CN110543848A (zh) 一种基于三维卷积神经网络的驾驶员动作识别方法及装置
CN115690545B (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN112492297B (zh) 一种对视频的处理方法以及相关设备
CN112462759B (zh) 规控算法的评估方法、系统及计算机存储介质
Shen et al. CoCAtt: A cognitive-conditioned driver attention dataset
CN110930436B (zh) 一种目标跟踪方法及设备
CN116823884A (zh) 多目标跟踪方法、系统、计算机设备及存储介质
CN116955943A (zh) 基于眼动序列时空语义特征分析的驾驶分心状态识别方法
CN111241918A (zh) 一种基于人脸识别的车用防跟踪方法及系统
CN110188645A (zh) 用于车载场景的人脸检测方法、装置、车辆及存储介质
CN115576990A (zh) 视觉真值数据与感知数据的评测方法、装置、设备及介质
CN109711260B (zh) 疲劳状态的检测方法、终端设备及介质
CN114663972A (zh) 基于动作差分的目标标记方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant