CN113642077A - 城市快行交通环境的视线通廊规划设计方法及系统 - Google Patents
城市快行交通环境的视线通廊规划设计方法及系统 Download PDFInfo
- Publication number
- CN113642077A CN113642077A CN202110938472.1A CN202110938472A CN113642077A CN 113642077 A CN113642077 A CN 113642077A CN 202110938472 A CN202110938472 A CN 202110938472A CN 113642077 A CN113642077 A CN 113642077A
- Authority
- CN
- China
- Prior art keywords
- dynamic
- axis
- visual
- view
- landscape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000000007 visual effect Effects 0.000 claims abstract description 195
- 230000009467 reduction Effects 0.000 claims abstract description 99
- 230000004438 eyesight Effects 0.000 claims abstract description 73
- 230000002093 peripheral effect Effects 0.000 claims abstract description 38
- 238000010276 construction Methods 0.000 claims abstract description 25
- 238000013461 design Methods 0.000 claims abstract description 17
- 238000004891 communication Methods 0.000 claims abstract description 10
- 230000003068 static effect Effects 0.000 claims description 35
- 230000004424 eye movement Effects 0.000 claims description 33
- 238000002474 experimental method Methods 0.000 claims description 17
- 239000000758 substrate Substances 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 6
- 238000011160 research Methods 0.000 abstract description 19
- 230000016776 visual perception Effects 0.000 description 17
- 210000001508 eye Anatomy 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 14
- 230000008447 perception Effects 0.000 description 13
- 238000012360 testing method Methods 0.000 description 13
- 230000004304 visual acuity Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000004382 visual function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 239000003550 marker Substances 0.000 description 6
- 206010045178 Tunnel vision Diseases 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004445 quantitative analysis Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000013178 mathematical model Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000035790 physiological processes and functions Effects 0.000 description 3
- 238000011002 quantification Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000005043 peripheral vision Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 210000003370 receptor cell Anatomy 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000031068 symbiosis, encompassing mutualism through parasitism Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A30/00—Adapting or protecting infrastructure or their operation
- Y02A30/60—Planning or developing urban green infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Tourism & Hospitality (AREA)
- Pure & Applied Mathematics (AREA)
- Educational Administration (AREA)
- Structural Engineering (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Architecture (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Civil Engineering (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了城市快行交通环境的视线通廊规划设计方法及系统,获取不同运行时速视域梯度缩减率;基于视域梯度缩减率创建动态景观控制椭圆界面2D视域模型和动态椭圆截面视锥3D空间域模型;基于2D模型获取动态视觉景观控制椭圆界面X轴、Y轴直径和椭圆界面2D视域面积;基于3D模型获取视点与景观控制面之间的视锥体积;基于动态视觉景观控制椭圆界面长轴长度、短轴长度和椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域;填补城市快行交通环境的视线通廊规划设计研究空白。
Description
技术领域
本发明涉及城市规划的景观视觉控制领域,是关于城市快行交通环境的视线通廊规划设计方法及系统的技术研究。
背景技术
本部分的陈述仅仅是提到了与本发明相关的背景技术,并不必然构成现有技术。
城市快行交通条件的视线通廊分析是基于格式塔心理学理论和动态视觉生理机能的综合性研究,也是一种集合动态视知觉数据分析模块和数理模型研究模块等技术手段,进行尺度协控机制探寻的城市控制性详细规划方法。
传统视知觉研究仅限于医学界以眼病防治为目的的病因及内在机制探索,而城市规划界关于景观导控系统的视功能分析数据,多套用约定俗成的定性指标。虽然医学界前期采用戈德曼视野和白球动态视野检查法来获取视野范围数据,后期使用DVA评估微医学技术和动态模糊度测试法以测定动态视敏度阈值,为静态和动态视功能研究提供了科学数据,但非标准化的机械测试导致精度受限。而近年人机交互眼动系统的研发,为自动化控制、医疗监护和心理学等研究提供了精准的信号测量数据。
在视线通廊研究方法由宏观定性向多维定量的演进过程中,学者们针对静态和慢行交通环境提出了眺望景观控制法、分层控制法和三分法等强制性控制手段。虽然这些保护方法简单易行,但缺乏针对性会造成界面均质单调,空间通透性减弱,甚至土地效益受损的弊端;纺锤形控制法是以视点同目标物四角连线来构建视线控制区与景观控制面的量度关系,却忽视了基于动态视觉感知的视锥空间域量度与目标景观规模的内在关系;仰视角控制法、D/H矩高比值法,也因为量化因子赋值与动态研究缺少关联性,所以难以获取适应快行交通环境的视廊研究结论;虽然发明专利“一种在城市规划设计下设定视觉通廊三维尺度的核算方法(ZL201610307603.5)”研发了控制城市景观通视点与目标标识物间纵向线性高程关系和协调目标标识物与周边环境横向分层高程关系的量化分析技术,但是所构建的三维核控数理模型仅能实现在驾驶员处于纯粹静态条件下,针对视廊内的建筑物、构筑物进行的分层量化评价,依然无法满足城市快行交通环境下的视线通廊设定需求。
综上所述,发明人发现现有成果皆是以纯粹的静态为研究条件,动态模型分析法缺失导致视觉景观控制系统无法满足城市多模态交通环境的需求,呈现城市空间整体协同性差、景观秩序紊乱等城市失控表征,甚至陷入建设性破坏的窘境。探寻动态视知觉对视线通廊影响机制与模型调控方法研究已迫在眉睫。
发明内容
为了解决现有技术的不足,本发明提供了城市快行交通环境的视线通廊规划设计方法及系统;利用动态视功能量化分析手段实现城市快行交通环境景观管控体系调控;
第一方面,本发明提供了城市快行交通环境的视线通廊规划设计方法;
城市快行交通环境的视线通廊规划设计方法,包括:
获取不同运行时速的视域梯度缩减率;
基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积;
基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;
基于动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域。
第二方面,本发明提供了城市快行交通环境的视线通廊规划设计系统;
城市快行交通环境的视线通廊规划设计系统,包括:
获取模块,其被配置为:获取不同运行时速的视域梯度缩减率;
2D视域模型创建模块,其被配置为:基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积;
3D空间域模型创建模块,其被配置为:基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;
视线通廊规划设计模块,其被配置为:基于动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域。
第三方面,本发明还提供了一种电子设备,包括:
存储器,用于非暂时性存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,
其中,所述计算机可读指令被所述处理器运行时,执行上述第一方面所述的方法。
第四方面,本发明还提供了一种存储介质,非暂时性地存储计算机可读指令,其中,当所述非暂时性计算机可读指令由计算机执行时,执行第一方面所述方法的指令。
与现有技术相比,本发明的有益效果是:
本发明采用人机交互技术进行数据采集,获取隧道视觉梯度缩减率参数变量,推演动态条件的椭圆截面视锥3D空间域、景观控制界面2D视域和圈层式景观控制协控指标,构建一种模型量化法,以填补城市快行交通环境的视线通廊规划设计研究空白,实现现有技术提升。
(1)首次明确量化动态视廊建设控制区尺度范围,满足多模态城市交通环境的设计需求,并对现有研究定性方法进行修正(图7);
正常人眼静态视域呈中央视场(X轴向对称60°,Y轴向非对称55°范围)与周边可视视场(X轴向对称160°,Y轴向非对称120°范围)的双锥空间穿套状态。自视点至目标物前沿的焦深阈值为1200.00m,自视点至基质衬景区景观控制面的焦深阈值为3000.00m(1200.00m是人眼清晰判别视标的极限距离;3000.00m是人眼能看到视标的极限距离)。结合城市道路限速等级所对应的视域梯度缩减率,采用模型量化分析法推演动态空间域量度。研究可知,眺望景观控制法和纺锤形控制法所限定的四棱椎体景观控制面形态和视廊人为定性分区方式,应予以修正。
(2)结合不同运行时速的视域梯度缩减率(表6),创建动态景观控制界面2D视域模型(公式(8)、公式(9)、公式(13)、公式(16));
核算动态视觉景观控制界面长轴a值、短轴b值和界面面积,获取视域边界、焦深、面积和景观控制指标,为搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量提供尺度依据。结合D/H理论协调线状、块状视标与视锥景观控制面的量化关系。利用第3级动态视廊基质衬景区(图7)内的城市天际线、山脊和建筑轮廓线与目标物间高度调控,保持视觉景观界面连续性。借助层次性平面基底和背景式遮挡消隐手段烘托目标标识物,有效进行视线目标性引导。
(3)结合不同运行时速的视域梯度缩减率(表6),创建动态视锥3D空间域模型(公式(10)、公式(11)、公式(12)、公式(19));
核算动态视锥空间域体积,为科学规划城市用地,校正观赏视角控制数据,强化景观空间要素的集合效应提供尺度依据。划定为第1级视廊建设控制区的中央视锥空间域,应无阻隔物以保持视线通达性;划定为第2级视廊建设协调区的周边可视视锥空间域,应合理控制建设密度和视觉空间容量,搭建整体空间序列层级关系(图7);
(4)根据视功能在城市高度控制与主体心理感知耦联机制中的作用分析,对仰视角控制法相关数据进行修正(表7);
(5)揭示了驾驶员在不同运行时速条件下的视域梯度缩减规律,并创新性地获取相关控制指标(表5、表6),为城市各级道路快速交通环境的视廊参数设定提供科学依据;
研究发现,当运行时速V∈[0,140]时,梯度缩减率呈“缓~快~缓”的变化趋势。当主体运行时速V∈[36,55]时,视域梯度缩减率最大,X、Y轴向分别达到40.63%和41.67%,之后逐渐放缓。相比而言,动态X、Y轴视域大体呈同比例缩减状态。分析认为主体运行时速与动态有效视域呈反比,而与梯度缩减率成正比。
本发明附加方面的优点将在下面的描述中给出,或通过发明实践阐明。
附图说明
构成本发明的一部分说明书附图,用来提供对本发明的进一步理解。本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为第一个实施例的方法流程图;
图2(a)~图2(d)为第一个实施例的静态双目视觉X轴和Y轴视场;
图3(a)~图3(c)为第一个实施例的视网膜及视觉感知细胞结构及机制关系;
图4(a)~图4(b)为第一个实施例的双目视场三维模拟和动态人眼有效视域分级;
图5(a)~图5(j)为第一个实施例的试验装置和六种运动时速条件下眼动数据可视化模拟;
图6(a)~图6(c)为第一个实施例的运动视觉感知图像的径向动感模糊现象;
图7为第一个实施例的运动态视线景观通廊控制2D视域和3D空间域范围;
图8为第一个实施例的硬件连接示意图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本实施例所有数据的获取都在符合法律法规和用户同意的基础上,对数据的合法应用。
术语解释:
城市快行交通(Urban Motorized Transportation):是相对于慢行交通而言的,亦称为机动化交通。借助城市道路交通系统,以运行时速V≥15km/h的多模态机动车出行来有效实现城区或城际间的交流衔接和客货输送目的的城市交通方式;
视线通廊(Visual Corridor):从人的视知觉角度出发,以眺望视线为指向,结合城市人文环境特色,对城市空间体系中引起视觉冲击与知觉共鸣的重要标识物进行量化导控,保持城区视觉系统和空间系统的网络关联性,探索空间要素的层级秩序和集合景观效应,构建城市设计管控框架,实现维护景观修复生态、凸显特色保护风貌、延续文化营造活力的城市魅力提升。
城市快行交通环境的视线通廊模型分析法:是基于格式塔心理学理论和动态视觉生理机能的综合性研究,也是集合动态视知觉数据分析模块和数理模型研究模块等技术手段,进行尺度协控机制探寻的城市控制性详细规划方法,还是城市意象物态元素内涵的具体延展。
本发明运用人机交互技术的眼动追踪系统,针对静态和动态视觉(Hildebrand,1893)生理机能进行数据采集分析,探寻静态和动态视域量度,获取隧道视觉动态梯度缩减率参数变量,结合城市道路的限速等级要求,构建快行交通环境的视线通廊模型量化分析法,推演动态视觉感知的椭圆截面视锥3D空间域、景观控制界面2D视域和圈层式景观协控指标,以期揭示动态视知觉对景观视觉线性空间影响的科学本源,完善多模态协同设计体系,阐明“宏观格局~中观网线~微观节点”的景观网络管控框架和城市形态协调共生机制,探寻城市景观视觉量化导控策略。
实施例一
本实施例提供了城市快行交通环境的视线通廊规划设计方法;
如图1所示,城市快行交通环境的视线通廊规划设计方法,包括:
S101:获取不同运行时速的视域梯度缩减率;
S102:基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积;
S103:基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;
S104:基于动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;
基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域。
进一步地,所述S101:获取不同运行时速的视域梯度缩减率;具体包括:
S1011:获取不同运行时速的眼动实验数据;
S1012:对不同运行时速的眼动实验数据进行分析,获取不同运行时速的视域梯度缩减率。
进一步地,所述S1011:获取不同运行时速的眼动实验数据;具体包括:
S10111:在驾驶室中,方向盘前方分别安装三个非接触式追踪摄像机;摄像机镜头均朝向驾驶员眼睛位置;其中一个摄像机安装在驾驶员的左前方的汽车仪表台左侧位置,第二个摄像机安装在驾驶员的右前方的汽车仪表台右侧位置,第三个摄像机安装在汽车仪表台中间位置;
S10112:驾驶员分别以不同的额定速度驾驶车辆;
S10113:在每种额定速度下,摄像机采集驾驶员眼动数据;驾驶员眼动数据,包括:帧信息、头部位置、头部转动、原始注视、过滤注视、分析、眼睑、交互、瞳孔、原始预计数值、原始预计注视;
S10114:对采集的数据进行去噪处理;
S10115:从去噪处理的数据中,选取若干组驾驶员眼动数据作为对照组,获取不同运行时速的眼动实验数据,
进一步的,所述S1012:对不同运行时速的眼动实验数据进行分析,获取不同运行时速的视域梯度缩减率;具体包括:
S10121:参照不同运行时速的眼动实验数据,将驾驶员有效视域划分为极速、高速、快速、慢速、缓速5个等级;
S10122:针对每个运行时速等级,根据静态X轴有效视域和动态X轴有效视域,计算出动态X轴视域梯度缩减率;
针对每个运行时速等级,根据静态Y轴有效视域和动态Y轴有效视域,计算出动态Y轴视域梯度缩减率;
S10123:根据动态X轴视域梯度缩减率,计算出X轴视域梯度缩减率参数变量均值;
根据动态Y轴视域梯度缩减率,计算出Y轴视域梯度缩减率参数变量均值;
最终,得到不同城市道路限速要求所对应的X轴和Y轴视域梯度缩减率参数变量均值。
进一步地,所述S10121:参照不同运行时速的眼动实验数据,将驾驶员有效视域划分为极速、高速、快速、慢速、缓速5个等级;具体包括:
极速视域等级是指运行时度V∈[101,140]时,有效视域范围为视觉中心Y轴左侧2.5°至右侧2.5°和X轴上侧10°至下侧15°范围的基础视场区;
高速视域等级是指运行时度V∈[71,100]时,有效视域范围为视觉中心Y轴左侧22.5°至右侧22.5°和X轴上侧25°至下侧30°范围的视觉最佳识别区;
快速视域等级是指运行时度V∈[56,70]时,有效视域范围为视觉中心Y轴左侧30°至右侧30°和X轴上侧25°至下侧30°范围的X、Y轴中央视场区;
慢速视域等级是指运行时度V∈[36,55]时,有效视域范围为视觉中心Y轴左侧80°至右侧80°和X轴上侧50°至下侧70°范围的周边视觉可视视场区;
缓速视域等级是指运行时度V∈[0,35]时,有效视域范围为视觉中心Y轴左侧104°至右侧104°和X轴上侧85°至下侧85°范围的周边视觉感知视场区。
进一步地,所述S10122:以瞳孔与视网膜黄斑中心凹之间的连线作为视觉中心轴线,其中,双目中心横向轴,简称“X轴”;双目中心纵向轴,简称“Y轴”。
进一步地,所述S10122:其中,静态X轴有效视域和静态Y轴有效视域,均采用戈德曼视野计目标测量实验(Goldmann Perimeter)获取;动态X轴有效视域和动态Y轴有效视域,均采用SmartEye Pro的遥测式眼动追踪系统的非接触式追踪摄像机测试记录眼睛位置及运动轨迹数据来获取。
进一步地,所述S10122:针对每个运行时速等级,根据静态X轴有效视域和动态X轴有效视域,计算出动态X轴视域梯度缩减率;具体计算公式为:
其中,A1为静态X轴有效视角;A2为动态X轴有效视角;r1为动态X轴视域梯度缩减率。
进一步的,所述S10122:针对每个运行时速等级,根据静态Y轴有效视域和动态Y轴有效视域,计算出动态Y轴视域梯度缩减率;具体计算公式为:
其中,B1为静态Y轴有效视角;B2为动态Y轴有效视角;r2为动态Y轴视域梯度缩减率。
进一步地,所述S10123:根据动态X轴视域梯度缩减率,计算出X轴视域梯度缩减率参数变量均值;具体包括:对动态X轴视域梯度缩减率最小值与最大值,求平均值,得到X轴视域梯度缩减率参数变量均值。
进一步地,所述S10123:根据动态Y轴视域梯度缩减率,计算出Y轴视域梯度缩减率参数变量均值;具体包括:对动态Y轴视域梯度缩减率最小值与最大值,求平均值,得到Y轴视域梯度缩减率参数变量均值。
示例性的,所述S1011:数据采集,具体包括:
针对15~60岁年龄范围内的裸眼正常视功能人群,在运行时速V>15km/h的快行交通条件下,对视场、视敏度和立体视觉的相关数据进行测试。
1、视功能因子分析:
(1.1)静态双目视觉X、Y轴视场
视功能评价体系中的视场空间量度值,是一项影响视觉景观控制系统的重要参数。白球动态视野实验表明,视觉感知空间范围均值为双目视觉中心X轴上侧55°至下侧70°,Y轴鼻侧60°至颞侧90°(以瞳孔与视网膜黄斑中心凹之间的连线作为视觉中心轴线。其中,双目中心横向轴,简称“X轴”;双目中心纵向轴,简称“Y轴”)。据视觉感知和周边视场实验表明:双目X、Y轴视场分别沿中心轴两侧分布基础视场、中央视场、周边可视视场和周边感知视场(图2(a)~图2(d)、表1)。
表1静态X、Y轴视场
分析认为:静态双目视场空间域形态为三维椭圆截面锥体,中央视锥和周边可视视锥呈双锥穿套,并沿视觉中心X轴呈对称性分布、沿Y轴呈非对称下倾的多层级分布趋势。
(1.2)静态视敏度和立体视觉
视敏度是影响视觉感知图像质量的另一个重要因素。由人眼生理构造所驱动,视网膜中心凹至边缘的受体细胞密度呈“集中→分散”的分布表征(图3(a)~图3(c)),诱发“中央清晰、周边模糊”的隧道视觉效应。按照不同视场的视敏度分级,可划分为高、中、低敏度区和可忽略区(表2)。
表2视敏度分级
在视点线性移动过程中,眼球通过聚散趋向和晶状体光焦度调节功能来注视同一目标,双目在捕获不同视网膜图像时产生的象差形成立体视觉,为大脑提供距离和深度等三维空间感知信息。静态立体视觉产生于视觉中心Y轴两侧各35°及X轴上侧25°~下侧30°的视锥中央空间域范围(图4(a)~图4(b))。
分析发现:隧道视觉视敏度分级与静态视场分区之间具有关联性,中央视觉敏锐度普遍高于周边视觉。对目标标识物具有高清晰度和色彩立体造型感知的X、Y轴中央视场,可作为目标标识物前景控制区界定范围;周边视场可作为视线通廊周边协调区界定范围。
2、试验:
(2.1)试验原理及试验目的
利用红外摄像机对驾驶者瞳孔的红外光上丘中心角膜反射进行光学跟踪,记录眼睛位置及运动轨迹数据。基于反射位置差异和量化视线偏移、注视点频率、俯仰运动中的凝视持续时间,分析动态纵、横轴视场可视角度,评估视觉注视顺序,测算刺激集中区位,探究目标吸引范围参数,并将视觉感知数据叠加到场景视频,分析驾驶者视线和注意力分布特征,揭示目标区域3D尺度随主体动态改变而诱发视觉感知梯度异化的信号通路和影响机制。
(2.2)试验设备
如图5(a)~图5(j)所示,本试验使用型号为SmartEye Pro的遥测式眼动追踪系统作为数据采集存储设备,包括3个分辨率≥1300000dpi的非接触式追踪摄像机,采样率为60Hz,追踪精度≤0.5°,焦距为4.5mm~25mm。借助TCP/IP网络通讯协议和配套软件,采用型号为i7-1065G7的Microsoft Surface Pro电脑端实现数据实时输出。另配有1台激光测距仪、同步盒、数据线缆和2个标定棋盘,具体硬件连接关系图见图8。激光测距仪由驾驶员旁边的测试员手持。
如图8所示,摄像头通过连接线与同步盒连接,红外照明装置通过连接线与同步盒连接,所述同步盒与电源线连接,摄像头通过网线与电脑连接,摄像头负责眼动数据采集。
(2.3)试验方案
选择30位年龄在23~28岁、裸眼视功能正常的在校研究生作为被试者,分别以V=0,25,55,70,100,140km/h的额定速度驾驶车辆,透过具有抬头显示功能的前挡玻璃观察行进方向的景观物。保持追踪摄像机与眼睛距离D=500-800mm,采集视线远点、视线方向质量、凝视次数等数据流,去噪后选取24组眼动测试数据作为对照组进行可视化模拟,获取眼动热力图(图5(a)~图5(j))作为数据分析依据。为保证实验结果准确可靠,测试条件及各项参数均保持一致。
示例性的,所述S1012:数据分析,具体包括:
1、动态异化影响
实验数据显示,在驾驶员运行时速V≤15km/h时,眼动速率V=0.48S/次;
在运行时速V>35km/h时,于注视点周边弧α=2°的视场内,搜索并准确感知视标的眼动速率V≤0.33~0.5S/次,即眼动频率f≤2~3次/S。
通过眼动对运动目标精确锁定跟踪的角速度阈值Dmin=40°/S。
当D≥50°/S时,随运动角速度增大视敏度减少幅值不断增大。视觉焦距由“近~远~近”的转换时间分别为T=2.39S,1.50S。
分析认为:眼动和视线聚焦耗时等视觉生理特征,导致视觉感知的视场、视敏度、视线捕捉率和视觉空间容量随运行速度增大而逐渐减小。
眼科学“视觉流”研究表明,周边环境物体持续性相对运动产生视网膜感知部位变换,导致周边视觉则形成径向动感模糊的视觉流,而位于光学无限远点的目标视觉图像保持清晰稳定(图6(a)~图6(c))。这种径向会聚失焦诱发视敏度自基础视场向周边视场的梯度缩减(表3),
表3视敏度感知变化
序号 | 分类 | 视场类别 | 视敏度感知面积及影响度评估 |
1 | 高敏度区 | 双目X、Y轴基础视野 | 保持 |
2 | 中敏度区 | 双目X、Y轴中央视野 | 缩减 |
3 | 低敏度区 | 双目X、Y轴周边可视角 | 大幅度缩减 |
4 | 微敏度区 | 双目X、Y轴周边感知角 | 几乎丧失 |
周边视场边界自208°缩减至120°~135°,即视觉中心X、Y轴两侧各60~67.5°。双目聚散调节匹配也驱动立体视觉感知区域变化,若运动驾驶员与目标物间距较之前更近,眼球的收敛运动会导致立体视觉感知区域梯度缩减;反之,立体视觉感知区域梯度增加。
分析认为:随着运动速度的提高,眼动速率相应变缓,视线聚焦耗时增大,同时,隧道视觉的径向视觉流效应和双目聚散趋向的辐散运动,诱发多层级分布的视锥空间域和景观控制界面缩减,导致视廊前景控制区、周边协调区和基质衬景区界定范围同步梯度缩减。
2、参数对比和变量提取
参照不同运行时速的眼动实验数据,将驾驶员有效视域划分为极速、高速、快速、慢速、缓速5个等级(表4)。
表4不同运行时速的主体有效视域变化规律
序号 | 名称 | 运行时速V(km/h) | 特征 |
1 | 极速有效视域 | V∈[101,140] | 约等同于X轴最佳横向视角、Y轴基础视场(眼动视野观察区) |
2 | 高速有效视域 | V∈[71,100] | 约等同于双目最佳识别范围(眼动视野观察区) |
3 | 快速有效视域 | V∈[56,70] | 约等同于静态双目X、Y轴中央视场(眼动视野观察区) |
4 | 慢速有效视域 | V∈[36,55] | 自双目视觉X、Y中心轴至周边可视视场全域范围(头动视野观察区) |
5 | 缓速有效视域 | V∈[0,35] | 自双目视觉X、Y中心轴至周边可视视场全域范围(头动视野观察区) |
主体在不同运行时速V状态下(表5),动态X轴视域梯度缩减率r1值同公式(1-1);
表5运动态双眼视觉感知变化数据统计
同理,计算可知动态Y轴视域梯度缩减率r2值,同公式(1-2);
视域梯度缩减率参数变量均值R1和R2表达为:
Rn中n代表1或2,即Rn可以是R1,也可以是R2。
依据不同运行时速与驾驶员有效视域间的耦联关系,建立感知视角Dan与运行时速V间反比例函数关系式。
试验已知V=100时,Dan=40,表达为:
利用实验和计算相结合的多维度校验,获取静态和动态条件下驾驶员隧道视觉X、Y轴双向有效视域梯度缩减变化统计数据(表5)。
根据城市各级道路限速值对应获取视域梯度缩减率均值(表6)。相关指标为城市道路快速交通环境视觉通廊参数设定提供科学依据。
表6城市各级道路限速值对应的视域梯度缩减率均值
不同运行时速的视域梯度缩减率均值R1和R2计算实施例(表6):
主体在静态条件下,X轴有效视域A1=160°;主体在运行时速35<V≤55km/h状态下(表5),通过人机交互眼动追踪系统实验,获取动态X轴有效视域A2=75.00~115.00°,根据式(1-1),运行时速V=55km/h时,动态X轴视域梯度缩减率r1值可表达为:
同理,运行时速V=35km/h时,动态X轴视域梯度缩减率r1=28.13%,
根据式(2),计算可知动态X轴视域梯度缩减率参数变量均值R1可表达为:
计算可知,主体在运行时速35<V≤55km/h状态下,X轴视域梯度缩减率参数变量均值R1=40.63%(表6)。
利用反比例函数关系式计算,获取静态和动态条件下驾驶员隧道视觉X、Y轴双向有效视域梯度缩减变化统计数据;
即Dan≈115°。形成实验和计算相结合的X、Y轴双向有效视域梯度缩减变化统计数据(表5)多维度校验法。
进一步地,所述S102:基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;具体包括:
其中,z值为焦深;α为视觉中心轴横向单侧视角;β为视觉中心轴纵向单侧视角;a为椭圆与X轴交点对应的长半轴的值;b为椭圆与Y轴交点对应的短半轴的值;x为景观控制椭圆界面周长点位的横坐标,y为景观控制椭圆界面周长点位的纵坐标,R1表示某一运行时速下,X轴视域梯度缩减率参数变量均值;R2表示某一运行时速下,Y轴视域梯度缩减率参数变量均值。
进一步地,所述S102:基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积;具体包括:
令视觉中心轴横向单侧视角为α,纵向单侧视角为β(图7);
当不同运动速度时,横向单侧视角缩减率为R1,纵向单侧视角缩减率为R2,由此得到动态视觉中心轴横向单侧视角为R1α,纵向单侧视角为R2β,从而动态视觉景观控制椭圆界面横向长轴半径表达为an=ztanR1αn,同理,纵向短轴半径表达为bn=ztanR2βn。
根据静态椭圆截面视锥3D空间域沿中心X轴呈对称性分布、沿Y轴呈非对称下倾的多层级分布特征(图6(a)~图6(c)),即a1=a2,b1<b2,分别计算Y轴半径长度b1和Y轴半径长度b2,动态视觉景观控制椭圆界面长轴直径表达为:a=2ztanR1α,短轴直径表达为:b=ztanR1(β1+β2);
其中,S1为动态景观控制椭圆界面2D视域面积;a1为动态景观控制椭圆界面X轴半径长度值;b1、b2分别为Y轴半径长度值。
进一步地,所述S103:基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;具体包括:
其中,Z表示焦深。
进一步地,所述S103:基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;具体包括:
动态椭圆截面视锥空间域体积计算可表达为:
其中,V1表示动态椭圆截面视锥空间域体积;S为动态景观控制椭圆界面面积;h为视锥高度值,即焦深。
基质衬景区圆锥台体体积表达为:
其中,V2表示基质衬景区圆锥台体体积;S1为动态周边协调区景观控制椭圆界面面积;S2为动态基质衬景区景观控制椭圆界面面积;h1为周边协调区视锥空间域焦深;h2为基质衬景区视锥空间域焦深。
构建快行交通环境的景观通廊控制椭圆界面2D视域和椭圆截面视锥3D空间域数理模型,探求动态视觉景观控制界面量度,即前景控制区、周边协调区、基质衬景区的S1、S2、S3界面与X、Y轴相交的长、短轴参数值和界面面积;推演动态视锥空间域量度,即不同焦深的中央视锥、周边可视视锥、基质衬景区台体空间域的长、短轴参数值和空间体积(图7)。结合不同运行时速的视域梯度缩减率(表6),挖掘动态视线通廊量化协控指标,协同已有静态视线通廊模型,搭建多模态适应性三维核控模型体系。
城市快行交通环境的视线通廊规划设计模型:
(1)动态景观控制椭圆界面2D视域模型可表达为:
令视觉中心轴横向单侧视角为α,纵向单侧视角β(图7),
a=z tanα (14)
同理,b=z tanβ (15)
当不同运动速度时,横向单侧视角和纵向单侧视角的缩减率分别为R1和R2,由此得到对应的α、β值。令视觉中心轴横向单侧视角为R1α,纵向单侧视角R2β,从而动态景观控制面域表达同公式(8);
a=z tan R1α (17)
同理,b=z tan R2β (18)
其中,z值为焦深;α为视觉中心轴横向单侧视角;β为视觉中心轴纵向单侧视角;a、b为椭圆与X、Y轴交点对应的长半轴和短半轴的值。
(2)动态椭圆截面视锥3D空间域模型可表达为:
当不同运动速度时,横向单侧视角和纵向单侧视角的缩减率分别为R1和R2,由此动态视觉中心轴横向单侧视角为R1α,纵向单侧视角为R2β,从而动态视锥空间域表达同公式(10);
(3)动态视觉景观控制椭圆界面长轴a值、短轴b值和面积计算
根据静态椭圆截面视锥3D空间域沿中心X轴呈对称性分布、沿Y轴呈非对称下倾的多层级分布特征,即a1=a2,b1<b2,Y轴b1、b2应分别计算并求和。动态景观控制椭圆界面2D视域面积表达同公式(9);
(4)动态椭圆截面视锥空间域体积计算表达同公式(11);基质衬景区圆锥台体体积表达同公式(12)。
上述计算可知,在已知运行时速和焦深条件下,据X、Y轴视域梯度缩减率(表6),可计算获取中央视场景观控制界面S1长、短轴直径和面积值,以及视点P与景观控制面间的视锥体积,作为动态视廊各级控制区设定参数值。综上所述,采用城市快速交通环境的视线通廊规划设计模型量化法(式(8)、(9)、(10)、(11)、(12)),可获取不同运行时速和视距条件下,符合城市各级道路限速要求的动态视廊景观控制量化指标。
根据视功能在城市高度控制与主体心理感知耦联机制中的作用分析,对仰视角控制法相关数据进行修正(表7);
表7观赏视角数据调整
进一步地,所述S104:基于动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;具体包括:
基于动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积,界定视觉感知范围内某一焦距点位的视锥高度、宽度阈值,结合视标高度可视比λ值和视觉通廊三维核控法,控制城市景观通视点与目标物间插建物的纵向线性高程关系,协调目标标识物与周边环境横向分层高程关系,保证城市景观量化协控指标的科学性;
在量化的景观视廊可视范围内,控制植被、地形、建筑物高度和密度,通过增大视觉透视容量以减小对开发建设的制约性和对原有景观的破坏性。
进一步地,所述S104:基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域;具体包括:
基于视点与景观控制面之间的视锥体积,得到在某一额定运行时速和焦深条件下的中央视锥和周边可视视锥3D空间范围。根据不同空间视觉特征,将具有高清晰度立体色彩视觉辨识力的前景控制区中央视锥3D空间域,设定为第1级动态视廊建设控制区;将对物体动态敏感却无颜色识别能力的周边协调区可视3D空间域,设定为第2级动态视廊建设协调区。
模型应用实施例:
以新疆喀什高台民居(图7)为例,高台民居整体H≈30.00m,L≈800.00m。路面AT≈1280.96m,高于周边城市地面RH≈15.00m。因其高耸地势和独特建筑形象,成为当地标志性伊斯兰教建筑群和老城核心区重要视标。机动车以V=60km/h的时速行驶于南侧城市主干路上,驾驶员从车内可完整感知高台民居空间规模的视觉焦深约为300.00m,即当Z=300.00时,
(1)动态视觉景观控制椭圆2D界面表达
当驾驶员在城市主干道以V=60km/h的时速行驶,X、Y轴视域梯度缩减率平均值R1=0.5626、R2=0.5625(表6),根据式(8),动态椭圆方程表达为:
同理,可表达界面S2、S3,实现基于动态视知觉分析的视觉景观控制椭圆界面的几何学描述。
(2)动态椭圆截面视锥3D空间域表达
基于运行时速V=60km/h时,X、Y轴视域梯度缩减率平均值分别为R1=0.5626,R2=0.5625(表6),根据式(10),动态中央视锥3D空间域方程表达为:
同理,也可表达周边和基质衬景区视锥空间域的几何学描述。
(3)动态视锥视觉景观控制椭圆界面长轴a值、短轴b值和面积计算
根据静态椭圆截面视锥3D空间域延中心X轴呈对称性分布、延Y轴呈非对称下倾的多层级分布特征(图7),即a1=a2,b1<b2,Y轴b1、b2应分别计算并求和。当运行时速V=60km/h,Z=300.00时,中央视锥区域景观控制界面S1的a1=a2=0.3×300=90m,b1=0.25×300=75m,b2=0.3×300=90m;同理,周边可视视锥区域景观控制界面S2的a1=a2=300m,b1=160m,b2=246m。
动态椭圆截面视锥景观控制椭圆界面2D视域面积可表达为:
计算可知,中央视锥区景观控制界面S1面积为S1=2.4×104m2,周边可视视锥区景观控制界面S2面积为S2=1.9×105m2。
(4)动态椭圆截面视锥空间域体积计算可表达为:
h=300.00时,前景控制区中央视锥体积V=2.4×106,周边协调区可视视锥体积V=1.66×107,基质衬景区圆锥台体体积表达为:
上述计算可知(表8),在运行时速V=60km/h,驾驶员与目标物间焦深(图7)f=300.00m时,视域梯度缩减率X轴为R1=0.5626,Y轴为R2=0.5625(表6),中央视场景观控制椭圆界面S1长轴φ=a1-2+a2-1=180.00m(图7),短轴φ=b1-2+b2-1=166.00m,面积为2.4×104m2,视点P与S1之间生成的中央视锥体积为2.4×106m3。
此前景控制区中央视锥3D空间域的视觉具有高清晰度立体色彩识别能力,设定为第1级动态视廊建设控制区(图7);景观控制椭圆界面S2长轴a1-1=a2-2=210.00m,短轴b1-1=85.00m、b2-2=156.00m,面积为1.9×105m2,视点P与S2之间生成的周边可视视锥体积为1.66×107m3。
此周边协调区周边可视3D空间域的视觉具有对物体动态敏感却无颜色识别能力,设定为第2级动态视廊建设协调区;景观控制椭圆界面S3长轴φ=6000.00m,短轴φ=3960.00m,面积为1.8×107m2,景观控制椭圆界面S2与S3之间生成的圆锥台体体积为1.7×106m3。在此3D空间域视觉仅能感知物体模糊外轮廓,设定为第3级动态视廊基质衬景区。
表8主体运行时速V=60km/h时视线通廊多维空间尺度运算结果
*表8中界面Sn长轴和短轴的a、b值为半径(m)
实施例二
本实施例提供了城市快行交通环境的视线通廊规划设计系统;
城市快行交通环境的视线通廊规划设计系统,包括:
获取模块,其被配置为:获取不同运行时速的视域梯度缩减率;
2D视域模型创建模块,其被配置为:基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积;
3D空间域模型创建模块,其被配置为:基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;
视线通廊规划设计模块,其被配置为:基于动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域。
此处需要说明的是,上述获取模块、2D视域模型创建模块、3D空间域模型创建模块和视线通廊规划设计模块对应于实施例一中的步骤S101至步骤S104,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的系统,可以通过其他的方式实现。例如以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.城市快行交通环境的视线通廊规划设计方法,其特征是,包括:
获取不同运行时速的视域梯度缩减率;
基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积;
基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;
基于动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域。
2.如权利要求1所述的城市快行交通环境的视线通廊规划设计方法,其特征是,获取不同运行时速的视域梯度缩减率;具体包括:
获取不同运行时速的眼动实验数据;
对不同运行时速的眼动实验数据进行分析,获取不同运行时速的视域梯度缩减率。
3.如权利要求2所述的城市快行交通环境的视线通廊规划设计方法,其特征是,对不同运行时速的眼动实验数据进行分析,获取不同运行时速的视域梯度缩减率;具体包括:
参照不同运行时速的眼动实验数据,将驾驶员有效视域划分为极速、高速、快速、慢速、缓速5个等级;
针对每个运行时速等级,根据静态X轴有效视域和动态X轴有效视域,计算出动态X轴视域梯度缩减率;
针对每个运行时速等级,根据静态Y轴有效视域和动态Y轴有效视域,计算出动态Y轴视域梯度缩减率;
根据动态X轴视域梯度缩减率,计算出X轴视域梯度缩减率参数变量均值;
根据动态Y轴视域梯度缩减率,计算出Y轴视域梯度缩减率参数变量均值;
最终,得到不同城市道路限速范围所对应的X轴和Y轴视域梯度缩减率参数变量均值。
5.如权利要求1所述的城市快行交通环境的视线通廊规划设计方法,其特征是,基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面X轴直径、Y轴直径和动态景观控制椭圆界面2D视域面积;具体包括:
令视觉中心轴横向单侧视角为α,纵向单侧视角为β;
当不同运动速度时,横向单侧视角缩减率为R1,纵向单侧视角缩减率为R2,由此得到动态视觉中心轴横向单侧视角为R1α,纵向单侧视角为R2β,从而动态视觉景观控制椭圆界面横向长轴半径表达为an=z tan R1αn,同理,纵向短轴半径表达为bn=z tan R2βn;
根据静态椭圆截面视锥3D空间域沿视觉中心X轴呈对称性分布、沿视觉中心Y轴呈非对称下倾的多层级分布特征,即a1=a2,b1<b2,分别计算Y轴半径长度b1和Y轴半径长度b2,动态视觉景观控制椭圆界面长轴直径表达为:a=2z tan R1α,短轴直径表达为:
b=z tan R1(β1+β2);
其中,S1为动态景观控制椭圆界面2D视域面积;a1为动态景观控制椭圆界面X轴半径长度值;b1、b2分别为Y轴半径长度值。
8.城市快行交通环境的视线通廊规划设计系统,其特征是,包括:
获取模块,其被配置为:获取不同运行时速的视域梯度缩减率;
2D视域模型创建模块,其被配置为:基于不同运行时速的视域梯度缩减率,创建动态景观控制椭圆界面2D视域模型;基于动态景观控制椭圆界面2D视域模型,得到动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积;
3D空间域模型创建模块,其被配置为:基于不同运行时速的视域梯度缩减率,创建动态椭圆截面视锥3D空间域模型;基于动态椭圆截面视锥3D空间域模型,得到视点与景观控制面之间的视锥体积;
视线通廊规划设计模块,其被配置为:基于动态视觉景观控制椭圆界面长轴长度、短轴长度和动态景观控制椭圆界面2D视域面积,搭建通视空间内插建物的坡度递推关系和统筹导控视线透视容量;基于视点与景观控制面之间的视锥体积,划定视线通廊建设控制区的中央视锥空间域和视线通廊建设协调区的周边可视视锥空间域。
9.一种电子设备,其特征是,包括:
存储器,用于非暂时性存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,
其中,所述计算机可读指令被所述处理器运行时,执行上述权利要求1-7任一项所述的方法。
10.一种存储介质,其特征是,非暂时性地存储计算机可读指令,其中,当所述非暂时性计算机可读指令由计算机执行时,执行权利要求1-7任一项所述方法的指令。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110938472.1A CN113642077B (zh) | 2021-08-16 | 2021-08-16 | 城市快行交通环境的视线通廊规划设计方法及系统 |
AU2021254584A AU2021254584B1 (en) | 2021-08-16 | 2021-10-20 | Visual corridor planning and design method and system for urban motorized transportation environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110938472.1A CN113642077B (zh) | 2021-08-16 | 2021-08-16 | 城市快行交通环境的视线通廊规划设计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113642077A true CN113642077A (zh) | 2021-11-12 |
CN113642077B CN113642077B (zh) | 2023-09-15 |
Family
ID=78422112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110938472.1A Active CN113642077B (zh) | 2021-08-16 | 2021-08-16 | 城市快行交通环境的视线通廊规划设计方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113642077B (zh) |
AU (1) | AU2021254584B1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114035884A (zh) * | 2021-12-07 | 2022-02-11 | 深圳市锐思华创技术有限公司 | 一种ar hud列控系统的ui交互设计方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013052812A1 (en) * | 2011-10-05 | 2013-04-11 | Siemens Healthcare Diagnostics Inc. | Generalized fast radial symmetry transform for ellipse detection |
CN104765903A (zh) * | 2015-01-27 | 2015-07-08 | 中国科学院城市环境研究所 | 一种融合多源遥感和气候环境信息的综合性城市气候环境评估方法 |
CN105516654A (zh) * | 2015-11-25 | 2016-04-20 | 华中师范大学 | 一种基于场景结构分析的城市监控视频融合方法 |
CN106169011A (zh) * | 2016-05-10 | 2016-11-30 | 青岛理工大学 | 一种在城市规划设计下设定视觉通廊三维尺度的核算方法 |
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
WO2019196186A1 (zh) * | 2018-04-12 | 2019-10-17 | 东南大学 | 一种用于构建城市设计数字化沙盘的系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6028608A (en) * | 1997-05-09 | 2000-02-22 | Jenkins; Barry | System and method of perception-based image generation and encoding |
US8988524B2 (en) * | 2013-03-11 | 2015-03-24 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and method for estimating and using a predicted vehicle speed in an indirect vision driving task |
US10099030B2 (en) * | 2013-09-06 | 2018-10-16 | Iarmourholdings, Inc. | Mechanical and fluid system and method for the prevention and control of motion sickness, motion-induced vision sickness, and other variants of spatial disorientation and vertigo |
-
2021
- 2021-08-16 CN CN202110938472.1A patent/CN113642077B/zh active Active
- 2021-10-20 AU AU2021254584A patent/AU2021254584B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013052812A1 (en) * | 2011-10-05 | 2013-04-11 | Siemens Healthcare Diagnostics Inc. | Generalized fast radial symmetry transform for ellipse detection |
CN104765903A (zh) * | 2015-01-27 | 2015-07-08 | 中国科学院城市环境研究所 | 一种融合多源遥感和气候环境信息的综合性城市气候环境评估方法 |
CN105516654A (zh) * | 2015-11-25 | 2016-04-20 | 华中师范大学 | 一种基于场景结构分析的城市监控视频融合方法 |
CN106169011A (zh) * | 2016-05-10 | 2016-11-30 | 青岛理工大学 | 一种在城市规划设计下设定视觉通廊三维尺度的核算方法 |
WO2019196186A1 (zh) * | 2018-04-12 | 2019-10-17 | 东南大学 | 一种用于构建城市设计数字化沙盘的系统 |
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
Non-Patent Citations (1)
Title |
---|
吕名扬;王大成;: "基于视线通廊控制的城市设计应用研究――以烟台市芝罘区解放路东侧城市设计为例", 建筑与文化, no. 07 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114035884A (zh) * | 2021-12-07 | 2022-02-11 | 深圳市锐思华创技术有限公司 | 一种ar hud列控系统的ui交互设计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113642077B (zh) | 2023-09-15 |
AU2021254584B1 (en) | 2022-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101317763B (zh) | 解释对象的头部和眼睛活动的方法和装置 | |
EP3542211B1 (de) | Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands | |
CN103366157A (zh) | 一种人眼视线距离的判断方法 | |
CN113743471B (zh) | 一种驾驶评估方法及其系统 | |
Lappi et al. | Beyond the tangent point: Gaze targets in naturalistic driving | |
CN113421346B (zh) | 一种增强驾驶感的ar-hud抬头显示界面的设计方法 | |
CN110007675A (zh) | 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法 | |
CN105517677A (zh) | 深度图/视差图的后处理方法和装置 | |
CN106204431B (zh) | 智能眼镜的显示方法及装置 | |
CN106910217A (zh) | 视觉地图建立方法、计算装置、计算机存储介质和智能车辆 | |
CN107397658B (zh) | 一种多尺度全卷积网络及视觉导盲方法和装置 | |
CN106960210A (zh) | 目标检测的方法和装置 | |
CN105224285A (zh) | 眼睛开闭状态检测装置和方法 | |
CN105913013A (zh) | 双目视觉人脸识别算法 | |
CN106485207A (zh) | 一种基于双目视觉图像的指尖检测方法及系统 | |
Pech et al. | Head tracking based glance area estimation for driver behaviour modelling during lane change execution | |
Peng et al. | Visual search efficiency evaluation method for potential connected vehicles on sharp curves | |
CN113642077A (zh) | 城市快行交通环境的视线通廊规划设计方法及系统 | |
CN110472546B (zh) | 一种婴幼儿非接触式眼动特征提取装置及方法 | |
Gilland | Driving, eye-tracking and visual entropy: Exploration of age and task effects | |
CN103083089A (zh) | 数字立体显微系统的虚拟标尺方法和系统 | |
CN103605968A (zh) | 基于混合投影的瞳孔定位方法 | |
Lappi et al. | Tangent point orientation and anticipated trajectory curvature–a field study on the visual control of high speed steering | |
CN116636808B (zh) | 一种智能座舱驾驶员视觉健康度分析方法与装置 | |
CN109076201A (zh) | 调焦方法、装置及抬头显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |