CN111932680B - 一种基于vr深度视觉感知的城市风貌要素识别方法及系统 - Google Patents

一种基于vr深度视觉感知的城市风貌要素识别方法及系统 Download PDF

Info

Publication number
CN111932680B
CN111932680B CN202010549540.0A CN202010549540A CN111932680B CN 111932680 B CN111932680 B CN 111932680B CN 202010549540 A CN202010549540 A CN 202010549540A CN 111932680 B CN111932680 B CN 111932680B
Authority
CN
China
Prior art keywords
evaluation
visual
attention
visual attention
city
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010549540.0A
Other languages
English (en)
Other versions
CN111932680A (zh
Inventor
张若曦
张乐敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202010549540.0A priority Critical patent/CN111932680B/zh
Publication of CN111932680A publication Critical patent/CN111932680A/zh
Application granted granted Critical
Publication of CN111932680B publication Critical patent/CN111932680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种基于VR深度视觉感知的城市风貌要素识别方法及系统,通过构建城市的VR场景,用户通过佩戴VR头盔体验城市VR场景,从而对城市VR场景进行评价;并通过VR头盔实时获取用户体验城市VR场景时的头部姿态变化信息,根据该信息确定用户在城市VR场景中的关注点;同时,根据用户的主观评价数据将用户群体划分为高评价人群和低评价人群,并根据高评价人群和低评价人群的视觉关注点划分关注点类别,获取关注点热力值和热力等级,然后将属于同一风貌要素的关注点归为一类,并获取关注等级,并建立分析表。本发明将人的主观感知与客观深度视觉感知结合在一起进行城市风貌要素的识别,为城市风貌的人性化和定量化分析提供了可靠的基础。

Description

一种基于VR深度视觉感知的城市风貌要素识别方法及系统
技术领域
本发明涉及城市风貌研究方法,具体涉及一种基于VR深度视觉感知的城市风貌要素识别方法及系统。
背景技术
城市风貌是城市价值的一种显现,一直以来是建筑学和城市规划研究的重要内容。传统的城市风貌研究过分依赖研究者者的主观判断,使得城市风貌的简单化、同质化的现象比较明显。目前城市风貌研究存在四个问题,具体如下:
其一,传统城市风貌研究以定性研究为主,以经验总结为主,缺乏定量研究。虽然早在1977年鲁道夫·阿恩海姆在《建筑形式动力学》一书中引入了格式塔心理学方法,同期,芦原义信从街道视觉秩序角度出发,应用格式塔心理学中的“图形”与“背景”的概念以及其他现代建筑理论,探讨街道的自然特征、美学规律,但是目前使用该方法的研究者依旧主要依靠环境图底关系进行主观判断,只能发现一些表面问题,对于风貌深层机制问题挖掘不足。
其二,结合新技术时,缺乏“人”这个主体的参与。虽然不少研究关注视线和视域分析,并引入了新的数字技术,例如2016年青岛理工大学庞峰团队提出:一种在城市规划设计下设定视觉通廊三维尺度的核算方法(专利号:CN201610307603),2018年东南大学王建国团队系统性提出基于数字技术提出了城市景观设计的新方法,这些研究开启了从三维视线层面上对城市风貌进行感知研究和控制引导的新视角;但是这些研究却只在探讨视线通廊有没有被挡住的问题,研究可见与不可见的简单问题,缺乏人的参与研究。还有一些研究只对建筑界面轮廓进行分析,没有深入建筑风貌要素内容的研究,这使得这些研究与城市文化之间缺乏联系,与人的实际感受缺乏联系。
其三,研究成本高昂,并且在数据的收集和分析上存在很大的困难。虽然利用人工智能机器学习可以定程度上对城市风貌要素进行感知和识别,例如2015剑桥大学研究人员开发的“SegNet”工具(Badrinarayanan, Handa et al.2017),可识别人眼视角图像数据中的天空、人行道、车道、建筑、绿化等共计12种要素,又如2018年清华大学研究人员利用街景照片对北京的建成环境的非正规性进行识别探索(甘欣悦,佘天唯et al. 2018),但是该方法需要大量的图片数据作为识别模型基础,理论上要有 1000万个以上被标注的样本数据才能获得人的感知表现,这使得该方法在技术和算法上还有需要很大的提升空间(何宛余,李春et al.2019)。同时,虽然也有研究者而在真实城市环境中给体验者佩戴眼动仪进行城市风貌的感知分析,例如2019年苏斯曼利用眼动仪对意大利的坎波广场与美国波士顿的市政厅广场进行对比评价研究,利用眼动数据发现两个广场不同的空间感受(Ann Sussman JM W.2019),但是利用眼动跟踪视觉分析一个样本,其数据采集就要消耗半天的时间,并且实验环境受环境中的人车活动影响很大,实验精度非常有限,距离真正的应用还有一定的距离。
其四,时空间的限制,实验采样困难。在空间上,虽然现有个别研究利用简单的问卷或者照片来反馈城市风貌的感知情况,但是普通体验者并不能对真实的环境进行体验,而是靠零星的记忆进行感知回忆,或者依靠照片上的有限信息来经验推断,这对城市风貌的感知反馈会造成极大的误差。在时间上,不同时段的现场感知也有不同的差异,如果体验者对现场不熟悉,或者没有到过实验现场,或者体验者对现场感知的内容理解有误,实验采样工作都将很难进行。
因此如何借助新的数字技术,以人为本的感知为中心,探索出一条科学、系统和快速对城市风貌进行识别和分析的方法显得尤为重要。
发明内容
本发明的目的在于提供一种基于VR深度视觉感知的城市风貌要素识别方法及系统,其为城市风貌的人性化和定量化分析提供了可靠的基础。
为实现上述目的,本发明采用的技术方案是:
一种基于VR深度视觉感知的城市风貌要素识别方法,其包括
(1)构建城市VR场景,模拟现实城市中的全景视觉、声环境和时间变化;
(2)采集视觉关注数据;体验者佩戴VR头盔感知城市VR场景,获取体验者的头部姿态变化信息,并根据体验者的头部姿态变化信息在 VR全景图中确定对应的关注点;
(3)获取体验者主观评价数据:体验者对其所感知的城市VR场景作出主观评价,获取该主观评价数据;
(4)根据体验者主观感知评价数据和聚类算法,将体验者进行分类,将体验者划分为高评价人群和低评价人群;所有高评价人群的视觉关注点形成高评价关注点集合A,所有低评价人群的视觉关注点形成低评价关注点集合B;
(5)根据高评价关注点集合和低评价关注点集合,识别每一视觉关注点的关注点类型:
基础关注点:为A∩B,即高评价关注点集合和高评价关注点集合的交集;
提升关注点:为A-A∩B,即高评价关注点集合去除基础关注点后的集合;
降低关注点:为B-A∩B,即低评价关注点集合去除基础关注点后的集合;
(6)从所有高评价人群的视觉关注点和低评价人群的视觉关注点中分别提取出体验人群的高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据;根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C。
所述识别方法还包括:
(7)根据视觉关注点的空间位置和性质,对所有视觉关注点进行分类:将属于同一空间位置的相同性质的多个视觉关注点划分为同一类型风貌要素;根据每一类型风貌要素中包含的视觉关注点的热力等级,获取该类型风貌要素的视觉关注度Q和关注等级P。
所述识别方法还包括:
(8)建立城市风貌要素分析表,该分析表中包括了每一类型风貌要素的名称、关注类型、关注度、关注等级以及其所包含的视觉关注点及其热力值。
所述视觉关注点的热力值H和热力等级的计算如下:
Figure BDA0002541954300000051
Figure BDA0002541954300000052
其中,C为视觉关注点的热力等级,H为视觉关注点的热力值,t为某次体验的某一视觉关注点的累计时长,T为某次体验的总时长,n为体验次数,K为热力值调整系数。
每一类型风貌要素的视觉关注度Q和关注等级P的计算如下:
Figure BDA0002541954300000053
Figure BDA0002541954300000054
其中,P为某类型风貌要素的关注等级;Q为某一类型风貌要素的视觉关注度;m为某一类型风貌要素包含的视觉关注点个数。
所述步骤(3)中,获取体验者主观感知评价数据的同时,还获取体验者的基本信息。
所述步骤(7)中对所有视觉关注点进行分类时,还依据每一视觉关注点所属体验者的基本信息进行分类,分别获取不同类型体验者的风貌要素的视觉关注度Q和关注等级P。
一种基于VR深度视觉感知的城市风貌要素识别系统,其包括VR头盔和服务器;
所述VR头盔上设有连接服务器的定位模块和处理器模块,所述定位模块用于获取体验者佩戴头盔式的头部姿态变化信息,所述处理器模块用于接收服务器发送的城市VR场景;
所述服务器包括场景生成模块、数据录入模块、数据分析模块,所述场景生成模块用于构建城市VR场景;所述数据录入模块用于录入体验者基本信息以及体验者对城市VR场景的主观评价数据;
所述数据分析模块用于接收体验者的头部姿态变化信息,并根据该体验者的头部姿态变化信息确定体验者在城市VR全景图中的关注点;所述数据分析模块还将根据体验者主观感知评价数据和聚类算法,将体验者划分为高评价人群和低评价人群,所有高评价人群的视觉关注点形成高评价关注点集合A,所有低评价人群的视觉关注点形成低评价关注点集合B;并根据高评价关注点集合和低评价关注点集合,识别每一视觉关注点的关注点类型:基础关注点:为A∩B,即高评价关注点集合和高评价关注点集合的交集;提升关注点:为A-A∩B,即高评价关注点集合去除基础关注点后的集合;降低关注点:为B-A∩B,即低评价关注点集合去除基础关注点后的集合;
所述数据分析模块还用于从所有高评价人群的视觉关注点和低评价人群的视觉关注点中分别提取出体验人群的高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据;根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C。
所述数据分析模块还用于根据视觉关注点的空间位置和性质,对所有视觉关注点进行分类:将属于同一空间位置的相同性质的多个视觉关注点划分为同一类型风貌要素;根据每一类型风貌要素中包含的视觉关注点的热力等级,获取该类型风貌要素的视觉关注度Q和关注等级P;
所述数据分析模块还用于建立城市风貌要素分析表,该分析表中包括了每一类型风貌要素的名称、关注类型、关注度、关注等级以及其所包含的视觉关注点及其热力值。
所述VR头盔上还设有光学矫正器。
所述识别系统还包括控制手柄,所述控制手柄与服务器通信连接,用于变更城市VR场景的显示。
采用上述方案后,本发明通过构建城市的VR场景,用户通过佩戴 VR头盔体验城市VR场景,从而对城市VR场景进行评价;并通过VR 头盔实时获取用户体验城市VR场景时的头部姿态变化信息,根据该信息确定用户在城市VR场景中的关注点;同时,根据用户的主观评价数据将用户群体划分为高评价人群和低评价人群,并根据高评价人群和低评价人群的视觉关注点划分关注点类别,获取关注点热力值和热力等级,然后将属于同一风貌要素的关注点归为一类,并获取关注等级,并建立分析表。本发明将人的主观感知与客观深度视觉感知结合在一起进行城市风貌要素的识别,为城市风貌的人性化和定量化分析提供了可靠的基础。而且,本发明中城市风貌是采用VR图像呈现,而且用户的视觉感知通过定位用户头部姿态的变化信息来获取,在很大程度上降低数据采集的成本以及困难。
附图说明
图1为本发明的原理框图;
图2为本发明的城市风貌要素识别流程图;
图3为本发明的关注点类型识别流程图;
图4为本发明的不同关注点类型之间的关系图;
图5为本发明具体实施例的高评价视觉关注点热力分布图;
图6为本发明具体实施例的低评价视觉关注点热力分布图;
图7为图5和图6的热力叠加图。
具体实施方式
如图1至图3所示,本发明揭示了一种基于VR深度视觉感知的城市风貌要素识别方法,其包括:
(1)构建城市VR场景;该城市VR场景除了包括城市VR全景图,还包括城市环境声音和时间,以提高体验者的体验效果。
(2)采集视觉关注数据;体验者佩戴VR头盔感知城市VR场景,获取体验者的头部姿态变化信息,并根据体验者的头部姿态变化信息在 VR全景图中确定对应的关注点。
(3)获取体验者主观评价数据:体验者对其所感知的城市VR场景作出主观评价,获取该主观评价数据。
(4)根据体验者主观感知评价数据和聚类算法,将体验者进行分类,将体验者划分为高评价人群和低评价人群;所有高评价人群的视觉关注点形成高评价关注点集合A,所有低评价人群的视觉关注点形成低评价关注点集合B;
(5)根据高评价关注点集合和低评价关注点集合,识别每一视觉关注点的关注点类型(如图4所示):
基础关注点:为A∩B,即高评价关注点集合和高评价关注点集合的交集;
提升关注点:为A-A∩B,即高评价关注点集合去除基础关注点后的集合;
降低关注点:为B-A∩B,即低评价关注点集合去除基础关注点后的集合。
(6)从所有高评价人群的视觉关注点和低评价人群的视觉关注点中分别提取出体验人群的高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据;根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C。
根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C,计算过程如下:
Figure BDA0002541954300000101
Figure BDA0002541954300000102
其中,C为视觉关注点的热力等级,H为视觉关注点的热力值,t为某次体验的某一视觉关注点的累计时长,T为某次体验的总时长,n为体验次数,K为热力值调整系数。
(7)根据视觉关注点的空间位置和性质,对所有视觉关注点进行分类:将属于同一空间位置的相同性质的多个视觉关注点划分为同一类型风貌要素;根据每一类型风貌要素中包含的视觉关注点的热力等级,获取该类型风貌要素的视觉关注度Q和关注等级P,其计算如下:
Figure BDA0002541954300000103
Figure BDA0002541954300000104
其中,P为某类型风貌要素的关注等级;Q为某一类型风貌要素的视觉关注度;m为某一类型风貌要素包含的视觉关注点个数。
(8)建立城市风貌要素分析表,该分析表中包括了每一类型风貌要素的名称、关注类型、关注度、关注等级以及其所包含的视觉关注点及其热力值。
在上述步骤(3)中,获取体验者主观感知评价数据的同时,还获取体验者的基本信息,例如,性别,年龄、本地居民还是外来人群等。这样在步骤(7)中对所有视觉关注点进行分类时,还依据每一视觉关注点所属体验者的基本信息进行分类,分别获取不同类型体验者的风貌要素的视觉关注度Q和关注等级P。例如,在步骤(7)中,将体验者划分为本地居民和外来人群,这样在某一类型风貌要素的热力值和热力等级时,会分别计算本地居民的该类型风貌要素的关注度Q1和关注等级 P1,以及外来人群的该类型风貌要素的关注度Q2和关注等级P2。
基于同一发明构思,本发明还揭示了一种基于VR深度视觉感知的城市风貌要素识别系统,其包括VR头盔和服务器;
所述VR头盔上设有连接服务器的定位模块和处理器模块,所述定位模块用于获取体验者佩戴头盔式的头部姿态变化信息,所述处理器模块用于接收服务器发送的城市VR场景。
所述服务器包括场景生成模块、数据录入模块、数据分析模块,所述场景生成模块用于构建城市VR场景;所述数据录入模块用于录入体验者基本信息以及体验者对城市VR场景的主观评价数据。
所述数据分析模块用于接收体验者的头部姿态变化信息,并根据该体验者的头部姿态变化信息确定体验者在城市VR全景图中的关注点;所述数据分析模块所述数据分析模块还将根据体验者主观感知评价数据和聚类算法,将体验者划分为高评价人群和低评价人群,所有高评价人群的视觉关注点形成高评价关注点集合A,所有低评价人群的视觉关注点形成低评价关注点集合B;并根据高评价关注点集合和低评价关注点集合,识别每一视觉关注点的关注点类型:基础关注点:为A∩B,即高评价关注点集合和高评价关注点集合的交集;提升关注点:为A-A∩B, 即高评价关注点集合去除基础关注点后的集合;降低关注点:为B-A∩B, 即低评价关注点集合去除基础关注点后的集合;
所述数据分析模块还用于从所有高评价人群的视觉关注点和低评价人群的视觉关注点中分别提取出体验人群的高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据;根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C。
所述数据分析模块还用于根据视觉关注点的空间位置和性质,对所有视觉关注点进行分类:将属于同一空间位置的相同性质的多个视觉关注点划分为同一类型风貌要素;根据每一类型风貌要素中包含的视觉关注点的热力等级,获取该类型风貌要素的视觉关注度Q和关注等级P。
所述数据分析模块还用于建立城市风貌要素分析表,该分析表中包括了每一类型风貌要素的名称、关注类型、关注度、关注等级以及其所包含的视觉关注点及其热力值。
进一步地,VR头盔上还设有光学矫正器,以矫正不同体验者的视力,提高其对城市VR场景的感知效果。该识别系统还制手柄,控制手柄与服务器通信连接,用于变更城市VR场景的显示。
为详尽本发明内容以下将以厦门为例对其城市风貌要素进行识别分析。
首先,构建厦门中山路步行街的VR全景图,并辅以环境声音和时间。然后采集视觉关注数据:体验者佩戴VR头盔感知中山路步行街的 VR场景,并根据体验者的头部姿态变化确定用户在城市VR全景图中的关注点。当体验者完成体验后,进行主观评价,并将体验者的基本信息以及主观感知评价录入服务器中。服务器根据大量有效体验者的主观评价数据,利用聚类分析将体验者分为高评价人群和低评价人群,根据高评价人群和低评价人群的关注点分别提取高评价视觉关注点热力分布 (如图5所示)与低评价视觉关注点热力分布(如图6所示)。根据高评价视觉关注点热力分布(如图5所示)与低评价视觉关注点热力分布(如图6所示),将视觉关注点划分不同的关注点类型,即基础关注点、提升关注点与降低关注点。
然后将高评价视觉关注点热力分布与低评价视觉关注点热力分布叠加(如图7所示),然后计算每一视觉关注点的热力值和热力等级。接着,根据视觉关注点空间位置与类别,对其分为不同类型的风貌要素。依据某一类型风貌要素包含的各个视觉关注点的热力值和热力等级,计算该类型风貌要素的关注度和关注等级。
依据上述信息形成城市风貌要素分析表,完成城市风貌要素的识别。该城市风貌要素分析表如表1所示,其包含了各风貌要素的类型(即名称)、空间位置、关注点类型及该类型风貌要素包含的视觉关注点图像提取。
Figure RE-GDA0002717716310000141
Figure RE-GDA0002717716310000151
表1
综上所述,本发明通过构建城市的VR场景,用户通过佩戴VR头盔体验城市VR场景,从而对城市VR场景进行评价;并通过VR头盔实时获取用户体验城市VR场景时的头部姿态变化信息,根据该信息确定用户在城市VR场景中的关注点;同时,根据用户的主观评价数据将用户群体划分为高评价人群和低评价人群,并根据高评价人群和低评价人群的视觉关注点划分关注点类别,获取关注点热力值和热力等级,然后将属于同一风貌要素的关注点归为一类,并获取关注等级,并建立分析表。本发明将人的主观感知与客观深度视觉感知结合在一起进行城市风貌要素的识别,为城市风貌的人性化和定量化分析提供了可靠的基础。而且,本发明中城市风貌是采用VR图像呈现,而且用户的视觉感知通过定位用户头部姿态的变化信息来获取,在很大程度上降低数据采集的成本以及困难。
以上所述,仅是本发明实施例而已,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (8)

1.一种基于VR深度视觉感知的城市风貌要素识别方法,其特征在于:包括
(1)构建城市VR场景,模拟现实城市中的全景视觉、声环境和时间变化;
(2)采集视觉关注数据;体验者佩戴VR头盔感知城市VR场景,获取体验者的头部姿态变化信息,并根据体验者的头部姿态变化信息在VR全景图中确定对应的关注点;
(3)获取体验者主观评价数据:体验者对其所感知的城市VR场景作出主观评价,获取该主观评价数据;
(4)根据体验者主观感知评价数据和聚类算法,将体验者进行分类,将体验者划分为高评价人群和低评价人群;所有高评价人群的视觉关注点形成高评价关注点集合A,所有低评价人群的视觉关注点形成低评价关注点集合B;
(5)根据高评价关注点集合和低评价关注点集合,识别每一视觉关注点的关注点类型:
基础关注点:为A∩B,即高评价关注点集合和低评价关注点集合的交集;
提升关注点:为A-A∩B,即高评价关注点集合去除基础关注点后的集合;
降低关注点:为B-A∩B,即低评价关注点集合去除基础关注点后的集合;
(6)从所有高评价人群的视觉关注点和低评价人群的视觉关注点中分别提取出体验人群的高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据;根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C;
(7)根据视觉关注点的空间位置和性质,对所有视觉关注点进行分类:将属于同一空间位置的相同性质的多个视觉关注点划分为同一类型风貌要素;根据每一类型风貌要素中包含的视觉关注点的热力等级,获取该类型风貌要素的视觉关注度Q和关注等级P;
(8)建立城市风貌要素分析表,该分析表中包括了每一类型风貌要素的名称、关注类型、关注度、关注等级以及其所包含的视觉关注点及其热力值。
2.根据权利要求 1所述的一种基于VR深度视觉感知的城市风貌要素识别方法,其特征在于:所述视觉关注点的热力值H和热力等级的计算如下:
Figure FDA0003616445000000021
Figure FDA0003616445000000022
其中,C为视觉关注点的热力等级,H为视觉关注点的热力值,t为某次体验的某一视觉关注点的累计时长,T为某次体验的总时长,n为体验次数,K为热力值调整系数。
3.根据权利要求 2所述的一种基于VR深度视觉感知的城市风貌要素识别方法,其特征在于:每一类型风貌要素的视觉关注度Q和关注等级P的计算如下:
Figure FDA0003616445000000031
Figure FDA0003616445000000032
其中,P为某类型风貌要素的关注等级;Q为某一类型风貌要素的视觉关注度;m为某一类型风貌要素包含的视觉关注点个数。
4.根据权利要求1-3任一所述的一种基于VR深度视觉感知的城市风貌要素识别方法,其特征在于:所述步骤(3)中,获取体验者主观感知评价数据的同时,还获取体验者的基本信息。
5.根据权利要求4所述的一种基于VR深度视觉感知的城市风貌要素识别方法,其特征在于:所述步骤(7)中对所有视觉关注点进行分类时,还依据每一视觉关注点所属体验者的基本信息进行分类,分别获取不同类型体验者的风貌要素的视觉关注度Q和关注等级P。
6.一种基于VR深度视觉感知的城市风貌要素识别系统,其特征在于:包括VR头盔和服务器;
所述VR头盔上设有连接服务器的定位模块和处理器模块,所述定位模块用于获取体验者佩戴头盔式的头部姿态变化信息,所述处理器模块用于接收服务器发送的城市VR场景;
所述服务器包括场景生成模块、数据录入模块、数据分析模块,所述场景生成模块用于构建城市VR场景;所述数据录入模块用于录入体验者基本信息以及体验者对城市VR场景的主观评价数据;
所述数据分析模块用于接收体验者的头部姿态变化信息,并根据该体验者的头部姿态变化信息确定体验者在城市VR全景图中的关注点;所述数据分析模块还将根据体验者主观感知评价数据和聚类算法,将体验者划分为高评价人群和低评价人群,所有高评价人群的视觉关注点形成高评价关注点集合A,所有低评价人群的视觉关注点形成低评价关注点集合B;并根据高评价关注点集合和低评价关注点集合,识别每一视觉关注点的关注点类型:基础关注点:为A∩B,即高评价关注点集合和低评价关注点集合的交集;提升关注点:为A-A∩B,即高评价关注点集合去除基础关注点后的集合;降低关注点:为B-A∩B,即低评价关注点集合去除基础关注点后的集合;
所述数据分析模块还用于从所有高评价人群的视觉关注点和低评价人群的视觉关注点中分别提取出体验人群的高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据;根据高评价视觉关注点热力分布数据和低评价视觉关注点热力分布数据,进行热力值叠加分析,获取每一视觉关注点的热力值H及热力等级C;
所述数据分析模块还用于根据视觉关注点的空间位置和性质,对所有视觉关注点进行分类:将属于同一空间位置的相同性质的多个视觉关注点划分为同一类型风貌要素;根据每一类型风貌要素中包含的视觉关注点的热力等级,获取该类型风貌要素的视觉关注度Q和关注等级P;
所述数据分析模块还用于建立城市风貌要素分析表,该分析表中包括了每一类型风貌要素的名称、关注类型、关注度、关注等级以及其所包含的视觉关注点及其热力值。
7.根据权利要求6所述的一种基于VR深度视觉感知的城市风貌要素识别系统,其特征在于:所述VR头盔上还设有光学矫正器。
8.根据权利要求6所述的一种基于VR深度视觉感知的城市风貌要素识别系统,其特征在于:所述识别系统还包括控制手柄,所述控制手柄与服务器通信连接,用于变更城市VR场景的显示。
CN202010549540.0A 2020-06-16 2020-06-16 一种基于vr深度视觉感知的城市风貌要素识别方法及系统 Active CN111932680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010549540.0A CN111932680B (zh) 2020-06-16 2020-06-16 一种基于vr深度视觉感知的城市风貌要素识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010549540.0A CN111932680B (zh) 2020-06-16 2020-06-16 一种基于vr深度视觉感知的城市风貌要素识别方法及系统

Publications (2)

Publication Number Publication Date
CN111932680A CN111932680A (zh) 2020-11-13
CN111932680B true CN111932680B (zh) 2022-06-28

Family

ID=73317386

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010549540.0A Active CN111932680B (zh) 2020-06-16 2020-06-16 一种基于vr深度视觉感知的城市风貌要素识别方法及系统

Country Status (1)

Country Link
CN (1) CN111932680B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115273636A (zh) * 2021-04-29 2022-11-01 北京华录新媒信息技术有限公司 一种裸眼3d沉浸式体验系统
CN114298415B (zh) * 2021-12-29 2022-08-09 中国科学院地理科学与资源研究所 一种地理环境愉悦度的预测方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054166A (zh) * 2010-10-25 2011-05-11 北京理工大学 一种新的用于户外增强现实系统的场景识别技术
CN109492070A (zh) * 2018-11-06 2019-03-19 深圳航天智慧城市系统技术研究院有限公司 一种城市宏观场景三维可视化平台系统
CN110070624A (zh) * 2019-04-26 2019-07-30 厦门大学 一种基于vr结合眼动跟踪的城市风貌特征识别的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898844B2 (en) * 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054166A (zh) * 2010-10-25 2011-05-11 北京理工大学 一种新的用于户外增强现实系统的场景识别技术
CN109492070A (zh) * 2018-11-06 2019-03-19 深圳航天智慧城市系统技术研究院有限公司 一种城市宏观场景三维可视化平台系统
CN110070624A (zh) * 2019-04-26 2019-07-30 厦门大学 一种基于vr结合眼动跟踪的城市风貌特征识别的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BIM+VR与建筑设计思维交互的耦合度评价及应用建议——以高校建筑设计教学为例;张若曦 等;《生态城市与绿色建筑》;20180215;第065-069页 *
Panoramic visual perception and identification of architectural cityscape elements in a virtual-reality environment;Ruo-Xi Zhang 等;《Future Generation Computer Systems》;20210104;第118卷;第107-117页 *
赵超 等.三维激光扫描技术在历史街区展示中的运用.《 2014年全国建筑院系建筑数字技术教学研讨会暨数字建筑设计国际学术研讨会》.2014, *

Also Published As

Publication number Publication date
CN111932680A (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
Tang et al. Measuring visual quality of street space and its temporal variation: Methodology and its application in the Hutong area in Beijing
He et al. Urban neighbourhood environment assessment based on street view image processing: A review of research trends
Dai et al. Analyzing the correlation between visual space and residents' psychology in Wuhan, China using street-view images and deep-learning technique
CN105426827B (zh) 活体验证方法、装置和系统
CN111932680B (zh) 一种基于vr深度视觉感知的城市风貌要素识别方法及系统
Zhang et al. Panoramic visual perception and identification of architectural cityscape elements in a virtual-reality environment
CN110070624B (zh) 一种基于vr结合眼动跟踪的城市风貌特征识别的方法
CN107066635A (zh) 一种基于图像对比识别的建筑信息导览的方法和系统
Li et al. Integrating GIS, deep learning, and environmental sensors for multicriteria evaluation of urban street walkability
Wu et al. Mapping fine-scale visual quality distribution inside urban streets using mobile LiDAR data
CN114331031B (zh) 一种建筑传统特征识别评价方法和系统
CN108764203A (zh) 一种面向城市规划的行人量化分析及展示系统
Kwa The visual grasp of the fragmented landscape: Plant geographers vs. plant sociologists
Du et al. Evaluation of street space quality using streetscape data: Perspective from recreational physical activity of the elderly
Zhou et al. A measurable evaluation method of visual comfort in underground space by intelligent sorting and classification algorithms
CN110543813B (zh) 一种基于场景的人脸画像、目光计数方法及系统
Zhang et al. Urban Visual Intelligence: Studying Cities with AI and Street-level Imagery
Junwei et al. Quantitative indexes of streetscape visual evaluation and validity analysis
Gholami et al. ASSESSING THE IMPACT OF NATURAL SKYLINES ON RESIDENTS’PREFERENCES FOR BUILT SKYLINES
CN110569323B (zh) 一种室内导航地标提取方法
Rui et al. Quantifying the spatial quality of urban streets with open street view images: A case study of the main urban area of Fuzhou
Maslii et al. ANALYSIS OF METHODS OF PERSON RE-IDENTIFICATION IN MULTI CAMERA ENVIRONMENT
Imadegawa et al. Predicting Impression Evaluation of Building Exterior Appearance Using Street Image Big Data and Deep Learning
Wang et al. An extraction method of environmental behaviour characteristics in landscape design
CN117392292B (zh) 一种3d数字人生成方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant