CN102637231A - 驾驶员行车动态视觉感知仿真方法 - Google Patents
驾驶员行车动态视觉感知仿真方法 Download PDFInfo
- Publication number
- CN102637231A CN102637231A CN2012101049336A CN201210104933A CN102637231A CN 102637231 A CN102637231 A CN 102637231A CN 2012101049336 A CN2012101049336 A CN 2012101049336A CN 201210104933 A CN201210104933 A CN 201210104933A CN 102637231 A CN102637231 A CN 102637231A
- Authority
- CN
- China
- Prior art keywords
- traffic
- expression
- focus
- scene
- neighborhood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及道路交通领域。提供一种驾驶员行车动态视觉感知仿真方法,提供一种通用的驾驶员行车动态视觉感知仿真框架,为达到上述目的,本发明采取的技术方案是,一种驾驶员行车动态视觉感知仿真方法,采用如下步骤构建行车视觉感知智能体仿真框架进行仿真:采用行车视距范围内的交通流密度表示交通状况;在满足禁忌规则前提下按照p邻域规则反复迭代得到交通场景眼动搜索规则;采用上述规则、交通状况描述构建行车视觉感知智能体仿真框架进行仿真。本发明主要应用于驾驶员行车动态视觉感知仿真。
Description
技术领域
本发明涉及道路交通领域,具体讲,涉及驾驶员行车动态视觉感知仿真方法。
背景技术
驾驶员行车中的视觉感知受到很多因素的影响,以往研究均是针对特定场景进行的感知模拟和评价,没有一个能在多数交通条件下通用的仿真框架。
发明内容
本发明旨在解决克服现有技术的不足,提供一种驾驶员行车动态视觉感知仿真方法,提供一种通用的驾驶员行车动态视觉感知仿真框架,为达到上述目的,本发明采取的技术方案是,一种驾驶员行车动态视觉感知仿真方法,采用如下步骤构建行车视觉感知智能体仿真框架进行仿真:
采用行车视距范围内的交通流密度表示交通状况,则t时刻感知的交通拥堵程度p(x,t)可表示为:
L(x)表示x点所在路段位置的车道数,
r(l,x)表示车道l对应于车辆所在点x的左视(或右视)参照点,如果车道l为点x所在车道,则r(l,x)=x;
v[r(l,x),l]表示车道l上r(l,x)位置的视距;
s(l)表示将车道l上视距均分后的距离数量;
d(l)表示车道l上视距长度离散之后的距离长度,d(l)=v(x,l)/s(l);
ω(l,s)表示车道l视距离散后第s段所占本车道交通拥堵感知的权重,s越大,ω(l,s)越小;
ρ[r(l,x)+sd(l),l,t,d(l)]表示t时刻车道l在位置[r(l,x)+(s-1)d(l),r(l,x)+sd(l)]范围内的交通流密度;
在满足禁忌规则前提下按照p邻域规则反复迭代得到交通场景眼动搜索规则:设置禁忌规则Rs:如果点在NJ代被选择作为当前焦点,则在NO代内不能进行选择,得到如下交通场景视线搜索规则:
1)在交通标志、场景的感知特征中,采用HSV模型,对人类色彩感知进行模拟,HSV是Hue,Saturation,Value的字头缩写,表示色调、饱和度和亮度;采用Itti模型对交通场景进行P根据特征进行显著性提取,得到融合后的综合交通场景显著图PS;
2)令ηd表示PS中焦点显著区域干扰噪声阈值,Sd表示PS中焦点显著度阈值,提取PS中满足条件的区域ai,使得|S2(vi)-S2(vj)|≤ηd,S2(vi)≥Sd或S2(vj)≥Sd,vi,vj∈ai,S2(vi)、S2(vj)表示点vi,vj的显著度;
4)令ρe表示交通场景显著图PS中的最初视线关注焦点范围阈值,将PS中显著区域ai根据平均显著从高到低进行排序,选择PS中显著度最大的个显著区域,表示对ρe|ai|进行向上取整;令这个点组成的集合为Es;
5)令xs(vi,vj)表示点vi,vj之间的邻域选择标准,随机选择点vk∈Es,此时vk为场景当前焦点;
6)对vk进行p邻域操作,在得到的N3(vk,Es),场景p邻域为把与某视觉焦点vk最相邻的在集合Es中p个视觉焦点称为vk的p邻域,用符号N3(vk,Es)表示,p=3,随机选择vh∈N3(vk,Es),在满足禁忌规则前提下按照p邻域规则反复迭代,即得到了模拟的交通场景视线搜索规则;
采用上述规则、交通状况描述构建行车视觉感知智能体仿真框架进行仿真。
从原始RGB,RGB表示Red,Green,Yellow,红绿黄,图像到HSV,模型有一个转换关系,采用如下算法加以实现:
RGB转化到HSV的算法:
max=max(R,G,B);
min=min(R,G,B);
if R=max,H=(G-B)/(max-min);其中H表示图像在HSV模型中的色调值;
if G=max,H=2+(B-R)/(max-min);
if B=max,H=4+(R-G)/(max-min);
H=H*60;
If H<0.H=H+360;
V=max(R,G,B);其中V表示图像在HSV模型中的亮度值;
S=(max-min)/max。其中S表示图像在HSV模型中的饱和度值。
禁忌规则为:人类视觉一旦注意过一个物体后,就会对该物体产生抑制作用,在视觉搜索时被注意过的物体将不会再引起视觉的注意,采用从竞争网络到兴趣图的抑制性负反馈:获胜单元一旦产生,竞争网络瞬间发出一个脉冲,兴趣图于是接收到一个输入,该输入的空间分布类似于差分高斯函数,抑制中心就在获胜单元的目标,这时,获胜的目标将被屏蔽,该部分对应于把注意的一个目标上解除,此后,注意焦点转向其他较为显著的物体。
邻域规则为:采用p邻域对场景焦点进行构建,场景p邻域为把与某视觉焦点v最相邻的在集合A中p个视觉焦点称为v的p邻域,用符号Np(v,A)表示。
所述步骤细化为:
采用所述行车视觉感知智能体仿真框架,对交通标志视觉感知建立智能体进行仿真,主要参数如下表1所示:
表1主要仿真参数列表
序号 | 参数 | 取值 | 意义 |
1 | ηd | 0.02 | 焦点显著区域干扰噪声阈值 |
2 | Sd | 0.35 | 焦点显著度阈值 |
3 | xs | 距离 | 邻域选择标准 |
4 | p | 3 | p邻域 |
5 | NO | 4 | 焦点选择禁忌代数 |
6 | ρe | 0.2 | 最初视线关注焦点范围阈值 |
采用Facelab眼动仪器对对应场景中的眼动轨迹进行模拟。
本发明的技术特点及效果:
本发明通过对驾驶员行车视觉感知特征和视线轨迹进行描述,建立了驾驶员行车视觉感知智能体,可用来仿真不同交通条件下驾驶员的视觉感知行为,进而可用来评价不同交通设计方案的优劣。
附图说明
图1交通拥堵感知计算。
图2交通诱导场景原始图像。
图3交通诱导场景显著性融合图像。
图4行车视觉感知智能体仿真框架。
图5渤海10号路实景。
图6距离交通标志125米场景图像。
图7距离交通标志75米场景图像。
图8距离交通标志50米场景图像。
图9距离交通标志25米场景图像。
图10设置交叉口指路标志的交通俯瞰图。
图11车辆距离交通标志25米时的显著特征图。图中:
a颜色显著图;b饱和度显著图;c方向显著图;d特征融合显著图。
图12车辆距离交通标志50米时的显著特征图。图中:
a颜色显著图;b饱和度显著图;c方向显著图;d特征融合显著图。
图13对原交通标志不同位置的模拟场景图。图中:
a距离原交通标志位置125米场景图像;b距离原交通标志位置75米场景图像;
c距离原交通标志位置50米场景图像;d距离原交通标志位置25米场景图像。
图14不设置交叉口指路标志的交通俯瞰图。
图15车辆距离交通标志25米的静态特征显著性图。图中:
a颜色显著图(无标志);b饱和度显著图(无标志);
c方向显著图(无标志);d特征融合显著图(无标志)。
图16车辆距离交通标志50米的静态特征显著性图。图中:
a颜色显著图(无标志);b饱和度显著图(无标志);
c方向显著图(无标志);d特征融合显著图(无标志)。
图17设置标志条件下25米处驾驶员视线模拟轨迹。
图18不设置标志条件下25米处驾驶员视线模拟轨迹。
图19Facelab模拟的驾驶员视线轨迹(有标志)。
图20Facelab模拟的驾驶员视线轨迹(无标志)。
图21驾驶员视线模拟准确度(有标志)。
图22驾驶员视线模拟准确度(无标志)。
具体实施方式
5.1驾驶员行车视觉感知模型
5.1.1驾驶员行车场景色彩感知模型
5.1.1.1Itti视觉模拟模型
Itti视觉模拟模型是基于神经生物学框架的一种视觉计算模型,Itti模型采用自下向上(bottom-up)的机制,主要基于Koch的框架和Treisman的特征整合理论,对输入图像提取朝向、亮度等初级视觉特征,形成各个特征维的显著图。然后,基于非均匀采样的方式,采用多特征图合并策略对这些不同特征维的显著图进行融合,形成一幅最终的显著图。根据显著图,可以得到一系列待注意的目标。各目标通过注意转移的禁止返回(inhibition ofreturn)机制和胜者为王(winnner-takes-all)的竞争机制吸引注意焦点,并使得各个注意焦点在各个待注意的目标之间以一定的原则转移。Itti视觉模拟模型对输入图形提取多方面的特征,如颜色、朝向、亮度、运动等,形成各个特征维上的显著图;然后对这些显著图进行分析、融合得到兴趣图,兴趣图中可能含有多个待注意的的候选目标,通过竞争机制选出唯一的注意目标。Itti视觉模拟模型描述了在无先验信息指导情况下图像自身特质对人腿的刺激程度,是基于bottom-up机制的最著名的模型,目前已应用到多个方面。
5.1.1.2交通场景静态特征的提取
1)RGB模型、HSV模型及与交通标志颜色感知的关系
视觉研究表明,人类眼睛视网膜通过三种可见光的刺激来感知颜色,当这些光的波长为630、530和450纳米的时候对人类视觉的刺激达到顶峰,而这三种波长代表的颜色分别是红、绿和蓝。人类视觉感知就是通过比较各种可见光的刺激强度来感受光的颜色的,即使用红、绿、蓝三种基色来表示视觉感知的模型,称之为RGB模型。
HSV(Hue,Saturation,Value)彩色模型由A.R.Smith于1978年创建的,它是符合人类视觉特性的一种颜色模型。HSV模型的三维表示从RGB立方体演化而来。设想沿立方体对角线的白色顶点向黑色顶点观察,就可以看到立方体的六边形外形。六边形边界表示色彩(H轴),水平轴表示饱和度(S轴),亮度(V轴)沿垂直轴测量。H参数表示色彩信息,即所处的光谱颜色的位置。该参数用一角度量来表示,红、绿、蓝分别相隔120度。互补色分别相差180度。饱和度s为一比例值,范围从0到1,它表示成所选颜色的饱和度和该颜色最大的饱和度之间的比率。S=0时,只有灰度。V表示色彩的明亮程度,范围从0到1。HSV色彩模型与人眼能够感知的颜色特性一一对应。这种颜色模型用Munsell三维空间坐标系统表示,由于坐标之间具有心理感知独立性,它可以独立感知各颜色分量的变化,而且出于这种颜色具有线性伸缩性,其可感知的颜色差是与颜色分量相应样值上的欧几里德距离成比例的,因此适合人类的肉眼判断。同时也由于HSV模型对应于画家配色模型,其能较好反映人对色彩的感知和鉴别能力,非常适合基于色彩的图像相似性比较,因此常采用该颜色模型来进行彩色图像分割。
在交通标志的感知特征中,颜色是其中非常重要的感知分量,本发明对交通标志的动态视认性进行研究,模拟人类视觉看到的图像时,采用录像的方式获得原始图象,此时图象为采用RGB模型进行的表示,然后转化为HSV模型,对人类色彩感知进行模拟,以得到更加符合真实情况的交通标志颜色感知分量。本报告采用交通标志色彩比率及色度比率来表示交通标志中颜色分量。
2)RGB模型与人类视觉感知模型的转换
从原始RGB图像到HSV模型有一个转换关系,采用如下算法加以实现:
RGB转化到HSV的算法:
max=max(R,G,B);
min=min(R,GB);
if R=max,H=(G-B)/(max-min);
if G=max,H=2+(B-R)/(max-min);
if B=max,H=4+(R-G)/(max-min);
H=H*60;
IfH<0.H=H+360;
V=max(R,G,B);
S=(max-min)/max;
5.1.2行车交通状况感知描述
实际行车中,车辆所在的环境对行车注意力的影响很大,其中最大的因素为交通状况,采用行车视距范围内的交通流密度表示交通状况,则t时刻感知的交通拥堵程度p(x,t)可表示为:
L(x)表示x点所在路段位置的车道数,
r(l,x)表示车道l对应于车辆所在点x的左视(或右视)参照点,如果车道l为点x所在车道,则r(l,x)=x;
v[r(l,x),l]表示车道l上r(l,x)位置的视距;
s(l)表示将车道l上视距均分后的距离数量;
d(l)表示车道l上视距长度离散之后的距离长度,d(l)=v(x,l)/s(l);
ω(l,s)表示车道l视距离散后第s段所占本车道交通拥堵感知的权重,s越大,ω(l,s)越小;
ρ[r(l,x)+sd(l),l,t,d(l)]表示t时刻车道l在位置[r(l,x)+(s-1)d(l),r(l,x)+sd(l)]范围内的交通流密度;
5.2行车视线轨迹描述
研究表明,人类视觉一旦注意过一个物体后,就会对该物体产生抑制作用,在视觉搜索时被注意过的物体将不会再引起视觉的注意,这种机制被称为注意的禁止返回机制,它对应于人类视觉的短时记忆功能。视觉系统需要足够的停留时间来完成一次视觉选择的任务,它是注意指向一个区域后又从该区域移开引起的,它将会延迟注意的响应时间,具体的延迟情况取决于辨别物体的难易程度。禁止返回一般会持续几秒钟。由于待注意物体在所有参与竞争的物体中总是最显著的,在竞争中总是会获得胜利,所以如果没有特定的控制机制,注意焦点将恒定的指向同一物体,其他物体就不会获得被注意的机会。为避免这种情况,Kouch和Ullman设计了从竞争网络到兴趣图的抑制性负反馈。获胜单元一旦产生,竞争网络瞬间发出一个脉冲,兴趣图于是接收到一个输入,该输入的空间分布类似于差分高斯函数,抑制中心就在获胜单元的目标。这时,获胜的目标将被屏蔽,该部分对应于把注意的一个目标上解除。此后,注意焦点转向其他较为显著的物体。
5.2.1交通场景眼动搜索邻域的构建
采用p邻域对场景焦点进行构建。场景p邻域为把与某视觉焦点v最相邻的在集合A中p个视觉焦点称为v的p邻域,用符号Np(v,A)表示。如图所示:图2为交通诱导场景原始图像,图3为交通诱导场景通过显著性融合图,在图2中的最显著的是如图3所示的6个焦点,则A={v1,v2,v3,v4,v5,v6},如果设p=3,且以焦点之间的距离作为邻域选择标准,则N3(v5,A)={v2,v3,v6}。
5.2.2交通场景眼动搜索规则
本文交通场景眼动搜索规则在满足禁忌规则前提下按照p邻域规则反复迭代得到。设置禁忌规则Rs:如果点在NJ代被选择作为当前焦点,则在NO代内不能进行选择,得到如下交通场景视线搜索规则:
1)将交通场景P根据特征进行显著性提取,得到融合后的综合交通场景显著图PS;
2)令ηd表示PS中焦点显著区域干扰噪声阈值,Sd表示PS中焦点显著度阈值,提取PS中满足条件的区域ai,使得|S2(vi)-S2(vj)|≤ηd,S2(vi)≥Sd或S2(vj)≥Sd,vi,vj∈ai,S2(vi)、S2(vj)表示点vi,vj的显著度;
4)令ρe表示交通场景显著图PS中的最初视线关注焦点范围阈值,将PS中显著区域ai根据平均显著从高到低进行排序,选择PS中显著度最大的个显著区域,表示对ρe|ai|进行向上取整;令这个点组成的集合为Es;
5)令xs(vi,vj)表示点vi,vj之间的邻域选择标准,随机选择点vk∈Es,此时vk为场景当前焦点;
6)对vk进行p邻域操作,在得到的N3(vk,Es),随机选择vh∈N3(vk,Es),在满足禁忌规则前提下按照p邻域规则反复迭代,即得到了模拟的交通场景视线搜索规则。
5.3视觉感知智能体构建
基于上述模型,构建行车视觉感知智能体仿真框架如图4所示。
5.4行车视觉感知仿真实验
设置港区道路模拟场景,场景中的渤海10号路为双向8车道,4块板道路,在距离交叉口200米区域有一交通指路标志,指示左转、直行和右转道路分别为黄河道、海滨大道及辽河道。图5为渤海1号路实景照片。
本仿真实验对渤海10号路交叉口上游交通指路标志对车辆视觉感知的影响进行仿真,通过在模拟场景中设置和取消该标志条件下,采用本文方法对驾驶员视觉感知特征进行仿真,并与模拟场景下的驾驶员视线轨迹进行对比,证明本文模型的有效性,并分析焦点转移规律与交通场景的映射关系。
5.4.1设置交叉口指路标志的视觉感知特征提取
图6-9为距离交通标志125米、75米、50米和25米的模拟场景图,图10为前方交叉口三维虚拟现实模拟全景图。
采用Itti模型对交通场景进行提取,得到上述4副场景图中的颜色特征显著图,图11-12为带有交通标志模拟场景中,车辆距离交通标志25米和50米时的8副静态特征显著性图。
5.4.2不设置交叉口指路标志的视觉感知特征提取
图13为相对原交通标志125米、75米、50米和25米的模拟场景图,图14为前方交叉口三维虚拟现实模拟全景图。
采用Itti模型对交通场景进行提取,得到上述4副场景图中的颜色特征显著图,图15-16为不设置交通标志模拟场景中,车辆距离交通标志25米和50米时的8副静态特征显著性图。
5.4.3交通标志视觉感知仿真结果及分析
采用上述模型,对交通标志视觉感知建立智能体进行仿真,主要参数如下表1所示。
表1主要仿真参数列表
序号 | 参数 | 取值 | 意义 |
1 | ηd | 002 | 焦点显著区域干扰噪声阈值 |
2 | Sd | 035 | 焦点显著度阈值 |
3 | xs | 距离 | 邻域选择标准 |
4 | p | 3 | p邻域 |
5 | NO | 4 | 焦点选择禁忌代数 |
6 | ρe | 0.2 | 最初视线关注焦点范围阈值 |
采用Facelab眼动仪器对对应场景中的眼动轨迹进行模拟,得到如图17-22和表2-3所示的模拟结果。
表2驾驶员视线模拟与实验结果(有标志)
表3驾驶员视线模拟与实验结果(无标志)
由以上仿真结果可知:
1)通过本发明提出的方法,视觉感知焦点模拟的准确度较高,在有交通标志场景下的焦点位置平均准确度为60.93%,在无交通标志场景下的平均准确度为56.27%,这说明本发明能够较为精确的确定驾驶员在行车过程中的关注点,这对交通标志、标线、控制信号等的设置位置优化有一定的价值。
2)由上述仿真实验结果可知,视觉感知焦点停驻时间准确度和轨迹准确度相对较低,在由交通标志场景下分别为53.02%和47.10%,在无交通标志场景下分别为51.00%和44.50%,这说明本模型在模拟驾驶员感知的动态规律方面还有一定的提升空间。
3)视觉感知焦点、焦点停驻时间和轨迹准确度三个指标,从整体上在,在有交通标志场景下的准确度都高于无交通标志场景下的准确度。另外,在有交通标志场景中,标志视认效果较佳的区域内(55-115m),三个指标的准确度分别为70.79%、60.22%、53.04%,明显高于平均水平,而在无交通标志场景中没有此规律。这一方面明驾驶员对此交通标志有明显的感知,另一方面,说明本模型在确定的行车任务下,其模拟精度能大幅提升。
Claims (5)
1.一种驾驶员行车动态视觉感知仿真方法,其特征是,采用如下步骤构建行车视觉感知智能体仿真框架进行仿真:
采用行车视距范围内的交通流密度表示交通状况,则t时刻感知的交通拥堵程度p(x,t)可表示为:
L(x)表示x点所在路段位置的车道数,
r(l,x)表示车道l对应于车辆所在点x的左视或右视参照点,如果车道l为点x所在车道,则r(l,x)=x;
v[r(l,x),l]表示车道l上r(l,x)位置的视距;
s(l)表示将车道l上视距均分后的距离数量;
d(l)表示车道l上视距长度离散之后的距离长度,d(l)=v(x,l)/s(l);
ω(l,s)表示车道l视距离散后第s段所占本车道交通拥堵感知的权重,s越大,ω(l,s)越小;
ρ[r(l,x)+sd(l),l,t,d(l)]表示t时刻车道l在位置[r(l,x)+(s-1)d(l),r(l,x)+sd(l)]范围内的交通流密度;
在满足禁忌规则前提下按照p邻域规则反复迭代得到交通场景眼动搜索规则:设置禁忌规则Rs:如果点在NJ代被选择作为当前焦点,则在NO代内不能进行选择,得到如下交通场景视线搜索规则:
1)在交通标志、场景的感知特征中,采用HSV模型,对人类色彩感知进行模拟,HSV是Hue,Saturation,Value的字头缩写,表示色调、饱和度和亮度;采用Itti模型对交通场景进行P根据特征进行显著性提取,得到融合后的综合交通场景显著图PS;
2)令ηd表示PS中焦点显著区域干扰噪声阈值,Sd表示PS中焦点显著度阈值,提取PS中满足条件的区域ai,使得|S2(vi)-S2(vj)|≤ηd,S2(vi)≥Sd或S2(vj)≥Sd,vi,vj∈ai,S2(vi)、S2(vj)表示点vi,vj的显著度;
4)令ρe表示交通场景显著图PS中的最初视线关注焦点范围阈值,将PS中显著区域ai根据平均显著 从高到低进行排序,选择PS中显著度最大的 个显著区域, 表示对ρe|ai|进行向上取整;令这 个点组成的集合为Es;
5)令xs(vi,vj)表示点vi,vj之间的邻域选择标准,随机选择点vk∈Es,此时vk为场景当前焦点;
6)对vk进行p邻域操作,在得到的N3(vk,Es),场景p邻域为把与某视觉焦点vk最相邻的在集合Es中p个视觉焦点称为vk的p邻域,用符号N3(vk,Es)表示,p=3,随机选择vh∈N3(vk,Es),在满足禁忌规则前提下按照p邻域规则反复迭代,即得到了模拟的交通场景视线搜索规则;
采用上述规则、交通状况描述构建行车视觉感知智能体仿真框架进行仿真。
2.如权利要求1所述的驾驶员行车动态视觉感知仿真方法,其特征是,从原始RGB,RGB表示Red,Green,Yellow,红绿黄,图像到HSV,模型有一个转换关系,采用如下算法加以实现:
RGB转化到HSV的算法:
max=max(R,G,B);
min=min(R,G,B);
if R=max,H=(G-B)/(max-min);其中H表示图像在HSV模型中的色调值;
if G=max,H=2+(B-R)/(max-min);
if B=max,H=4+(R-G)/(max-min);
H=H*60;
If H<0.H=H+360;
V=max(R,G,B);其中V表示图像在HSV模型中的亮度值;
S=(max-min)/max。其中S表示图像在HSV模型中的饱和度值。
3.如权利要求1所述的驾驶员行车动态视觉感知仿真方法,其特征是,禁忌规则为:人类视觉一旦注意过一个物体后,就会对该物体产生抑制作用,在视觉搜索时被注意过的物体将不会再引起视觉的注意,采用从竞争网络到兴趣图的抑制性负反馈:获胜单元一旦产生,竞争网络瞬间发出一个脉冲,兴趣图于是接收到一个输入,该输入的空间分布类似于差分高斯函数,抑制中心就在获胜单元的目标,这时,获胜的目标将被屏蔽,该部分对应于把注意的一个目标上解除,此后,注意焦点转向其他较为显著的物体。
4.如权利要求1所述的驾驶员行车动态视觉感知仿真方法,其特征是,邻域规则为:采用p邻域对场景焦点进行构建,场景p邻域为把与某视觉焦点v最相邻的在集合A中p个视觉焦点称为v的p邻域,用符号Np(v,A)表示。
5.如权利要求1所述的驾驶员行车动态视觉感知仿真方法,其特征是,所述步骤细化为:
采用所述行车视觉感知智能体仿真框架,对交通标志视觉感知建立智能体进行仿真,主要参数如下表1所示:
表1主要仿真参数列表
采用Facelab眼动仪器对对应场景中的眼动轨迹进行模拟。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012101049336A CN102637231B (zh) | 2012-04-11 | 2012-04-11 | 驾驶员行车动态视觉感知仿真方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012101049336A CN102637231B (zh) | 2012-04-11 | 2012-04-11 | 驾驶员行车动态视觉感知仿真方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102637231A true CN102637231A (zh) | 2012-08-15 |
CN102637231B CN102637231B (zh) | 2013-12-04 |
Family
ID=46621625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012101049336A Active CN102637231B (zh) | 2012-04-11 | 2012-04-11 | 驾驶员行车动态视觉感知仿真方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102637231B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198182A (zh) * | 2013-03-20 | 2013-07-10 | 天津市市政工程设计研究院 | 基于视觉感知仿真模拟技术的行人指路标志设计方法 |
CN109785418A (zh) * | 2018-12-21 | 2019-05-21 | 广东工业大学 | 基于视觉感知模型的注视点渲染优化算法 |
CN112215120A (zh) * | 2020-09-30 | 2021-01-12 | 山东理工大学 | 视觉搜索区域的确定方法、装置及驾驶模拟器 |
CN114374796A (zh) * | 2021-12-31 | 2022-04-19 | 北京瞰瞰智能科技有限公司 | 图像处理方法、装置、图像传感器以及车辆 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216951A (zh) * | 2007-12-27 | 2008-07-09 | 电子科技大学 | 虚拟场景中的智能群体运动模拟方法 |
CN101308616A (zh) * | 2007-06-15 | 2008-11-19 | 成都合纵连横数字科技有限公司 | 交互式交通仿真系统 |
CN101872559A (zh) * | 2010-06-08 | 2010-10-27 | 广东工业大学 | 一种面向汽车驾驶模拟器的虚拟驾驶主动安全预警系统及预警方法 |
-
2012
- 2012-04-11 CN CN2012101049336A patent/CN102637231B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101308616A (zh) * | 2007-06-15 | 2008-11-19 | 成都合纵连横数字科技有限公司 | 交互式交通仿真系统 |
CN101216951A (zh) * | 2007-12-27 | 2008-07-09 | 电子科技大学 | 虚拟场景中的智能群体运动模拟方法 |
CN101872559A (zh) * | 2010-06-08 | 2010-10-27 | 广东工业大学 | 一种面向汽车驾驶模拟器的虚拟驾驶主动安全预警系统及预警方法 |
Non-Patent Citations (3)
Title |
---|
C.KOUCH,ET AL。: "Shifts in selective visual attention:towards the underlying neural circuitry", 《HUMAN NEUROBIOLOGY》 * |
白子建,等。: "基于禁忌算法的快速公交网络仿真优化", 《计算机工程与应用》 * |
白子建,等。: "快速公交线路组合频率优化的禁忌模拟退火算法仿真", 《计算机应用研究》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198182A (zh) * | 2013-03-20 | 2013-07-10 | 天津市市政工程设计研究院 | 基于视觉感知仿真模拟技术的行人指路标志设计方法 |
CN103198182B (zh) * | 2013-03-20 | 2015-10-28 | 天津市市政工程设计研究院 | 基于视觉感知仿真模拟技术的行人指路标志设计方法 |
CN109785418A (zh) * | 2018-12-21 | 2019-05-21 | 广东工业大学 | 基于视觉感知模型的注视点渲染优化算法 |
CN112215120A (zh) * | 2020-09-30 | 2021-01-12 | 山东理工大学 | 视觉搜索区域的确定方法、装置及驾驶模拟器 |
CN114374796A (zh) * | 2021-12-31 | 2022-04-19 | 北京瞰瞰智能科技有限公司 | 图像处理方法、装置、图像传感器以及车辆 |
CN114374796B (zh) * | 2021-12-31 | 2023-10-31 | 北京瞰瞰智能科技有限公司 | 图像处理方法、装置、图像传感器以及车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN102637231B (zh) | 2013-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102682292B (zh) | 基于单目视觉的道路边缘检测及粗定位方法 | |
Nothegger et al. | Selection of salient features for route directions | |
CN105550632B (zh) | 交通标志牌识别装置及其工作方法 | |
CN102314601B (zh) | 使用非线性光照恒定核去除由基于车辆的相机捕获的图像中的阴影 | |
CN102208019A (zh) | 基于车载摄像机的车辆变道检测方法 | |
Kühnl et al. | Spatial ray features for real-time ego-lane extraction | |
CN106326858A (zh) | 一种基于深度学习的公路交通标志自动识别与管理系统 | |
AU2017307115A1 (en) | A method of extracting road targets based on saliency in a night vision infrared image | |
CN102314602B (zh) | 使用最优定向线性轴线去除由基于车辆的相机捕获的图像中的阴影 | |
CN103925927B (zh) | 一种基于车载视频的交通标识定位方法 | |
CN102314600A (zh) | 用于畅通路径检测的去除由基于车辆的相机捕获的图像中的阴影 | |
CN102637231B (zh) | 驾驶员行车动态视觉感知仿真方法 | |
Chong et al. | Integrated real-time vision-based preceding vehicle detection in urban roads | |
JP2012517650A (ja) | 場面の内容に基づく点群データの視覚化のための方法及びシステム | |
CN110645973B (zh) | 车辆定位方法 | |
Nothegger et al. | Computation of the salience of features | |
CN102306295A (zh) | 一种基于单波段红外图像的自然彩色夜视实现方法 | |
CN102620766A (zh) | 地下道路交通标志动态视认性评价方法 | |
CN103279978A (zh) | 基于虚拟现实技术的数字校园建立方法 | |
CN106446785A (zh) | 基于双目视觉的可行道路检测方法 | |
CN110472628A (zh) | 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法 | |
CN100370226C (zh) | 人工路标视觉导航方法 | |
CN103020613A (zh) | 一种基于视频的信号灯识别方法及装置 | |
CN109117717A (zh) | 一种城市行人检测方法 | |
CN103198182B (zh) | 基于视觉感知仿真模拟技术的行人指路标志设计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 300051 No. 239, Yingkou Road, Heping District, Tianjin Patentee after: Tianjin municipal engineering design and Research Institute Co.,Ltd. Address before: 300051 No. 239, Yingkou Road, Heping District, Tianjin Patentee before: TIANJIN MUNICIPAL ENGINEERING DESIGN & Research Institute |
|
CP01 | Change in the name or title of a patent holder |