CN117079124B - 一种基于社群差异化的城乡景观意象量化及提升方法 - Google Patents
一种基于社群差异化的城乡景观意象量化及提升方法 Download PDFInfo
- Publication number
- CN117079124B CN117079124B CN202310866025.9A CN202310866025A CN117079124B CN 117079124 B CN117079124 B CN 117079124B CN 202310866025 A CN202310866025 A CN 202310866025A CN 117079124 B CN117079124 B CN 117079124B
- Authority
- CN
- China
- Prior art keywords
- urban
- data
- rural landscape
- rural
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000011002 quantification Methods 0.000 title claims abstract description 17
- 230000004069 differentiation Effects 0.000 title claims abstract description 16
- 238000011160 research Methods 0.000 claims abstract description 31
- 108090000623 proteins and genes Proteins 0.000 claims abstract description 28
- 230000001149 cognitive effect Effects 0.000 claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 238000013145 classification model Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 238000004140 cleaning Methods 0.000 claims abstract description 4
- 230000019771 cognition Effects 0.000 claims description 33
- 238000013507 mapping Methods 0.000 claims description 24
- 230000000694 effects Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 11
- 238000009826 distribution Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 230000002776 aggregation Effects 0.000 claims description 7
- 238000004220 aggregation Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 238000005065 mining Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012800 visualization Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims description 2
- 238000011835 investigation Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 description 9
- 230000008447 perception Effects 0.000 description 9
- 238000011161 development Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000004445 quantitative analysis Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000004451 qualitative analysis Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A30/00—Adapting or protecting infrastructure or their operation
- Y02A30/60—Planning or developing urban green infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于社群差异化的城乡景观意象量化及提升方法,首先获取研究区域内的多源地理标记照片数据,采用场景分类模型进行特征识别,构建一套城乡景观意象的场景分类体系;计算图像中概率最高的城乡景观意象类型及其概率值,由此进行图片数据清理;采用自组织映射神经网络算法进行典型模式检测,形成城乡景观意象的“基因”数据集,通过基于密度的聚类算法识别城乡景观意象五要素中的区域要素和节点要素;利用地理信息系统平台绘制出区域、边界、路径、节点和标志的城乡景观意象五要素,构建客观化的城乡景观意象认知地图,比较不同社群在城乡景观意象认知地图上的共性与差异,围绕五要素提出城乡景观意象提升及优化方案。
Description
技术领域
本发明涉及信息技术、城乡规划、景观设计等技术领域,尤其涉及一种基于社群差异化的城乡景观意象量化及提升方法。
背景技术
当前,随着城乡发展迭代的速度加快和城乡系统的日益复杂,管理多层级城乡公共系统和城乡资源的成本指数级上升,传统规划模式的静态、粗放、更新慢等缺陷日益暴露,难以适应城乡的现实发展速度和内涵要求。城乡规划实践面临着智慧化、科学化、精细化的转型诉求,一方面需要定量研究技术方法为决策制定提供更加科学的支持,另一方面寻求物质空间更新与社会治理的结合,从自上而下的规划决策转向自下而上的参与式规划。随着美丽中国、美丽乡村的建设,同时全面加强城市设计、增强地域特色等规划要求的提出,城乡景观意象量化及提升方法研究的现实意义越来越突显。城乡景观意象是个体或群体对空间、环境和文化等城乡景观要素的整体感知,是反映城乡景观地方性特色与独特风貌的重要方式,是规划建设、景观设计与风貌管控的常用指导工具,对提升城乡空间品质和应对“千城一面”等地方性特色丧失问题都具有重要意义。
城乡景观意象可被分为区域(district)、边界(edge)、路径(path)、节点(node)和标志(landmark)五部分。居民对每个景观意象的地方性感知不同,但每个景观都有一个集体的意象,由许多个别的意象重叠而成。然而,传统的以“区域、边界、路径、节点、标志”为基础的景观意象“五要素”量化方法已不能满足景观意象的内涵发展。景观意象不仅在于空间意象,还应涵盖城乡文化、市民生活和自然景观等多种认知维度。此外,“读图时代”下的景观意象不再局限于宏观视角的、偏重结构的空间意象,而是越来越受到人本视角的、偏重场景的图像意象的支配。而社交网络中海量的地理标记照片数据和日渐成熟的计算机视觉技术,能够更直观、全面地体现人们对空间、环境和文化的地方性整体感知,为地城乡景观意象量化提供全新的研究视角、研究方法与内涵发展。
目前,对城乡景观意象量化的认知数据均来源于传统的手绘认知地图、社会调查或历史资料研究,难以解决调研手法单一和数据获取困难等问题,因此单一小尺度意象的对比研究也难以在宏观的城乡尺度中大规模进行;而且将个体认知提炼为群体认知的过程中往往掺杂了研究者的主观认知,难以摆脱主观性的影响。新数据时代下,海量的地理标记照片数据和迅速崛起的深度学习技术能够帮助传统的地方性景观意象量化克服上述瓶颈。
随着移动互联网和智能终端的普及,几乎每个城市中的人都转变为移动的传感器,以自觉或不自觉的方式每时每刻地收集和共享信息,成为庞大的城市感知系统的重要组成部分。另一方面,社交网络的盛行带来了丰富的媒体数据,如用户社会关系、位置信息、照片和视频等,时刻反映着城市中人们的生活方式和移动规律。尤其是以照片分享为主的社交网络的风靡,推动了“读图时代”的来临,为地方性景观意象研究带来“图片主义”的新机遇。一方面,图像数据在新数据环境中占据很大的比例,尤其是大量带地理标记的照片。然而由于其复杂、高维、抽象的特性,作为信息存储空间占比最大的数据类型,纷繁多样的图像所包含的海量信息尚处于未被挖掘的状态。另一方面,随着计算机视觉技术的日益成熟和相关应用程序接口的日益方便,图像分析的技术门槛正在降低。
地理标记照片(Geotagged Photograph),是指附有拍摄地地理位置的照片。按照记录主体的不同可分为两类:一类是人们主观记录并发布到网络平台上的照片数据,属于主动表征数据,典型的比如Flickr、Panoramio和Instagram等图片分享网站的照片数据,以及Twitter、Facebook和国内的新浪微博等社交网站的照片数据;另一类则是机器客观记录的街景照片,目前主要是谷歌街景、百度街景和腾讯街景等照片数据。利用计算机视觉技术挖掘海量地理标记照片,结合众包技术来大规模收集公众对景观空间的感知信息,将大样本的地理标记照片用于训练深度神经网络,将照片元数据中的文本标签、图像内容等结构化信息与空间分析相结合,从而进行宏观大范围的地方性景观意象量化研究。
在数据选择上,基于单一数据源的图像识别和空间分析对于人们理解地方性景观的复杂性有过度简化的风险,对于群体认知的异质性的探求不足。目前的研究使用的均为单一数据源,没有考虑不同数据源的选取可能对城乡景观意象的量化分析结果带来的潜在影响。无论是定量化地指导城乡景观规划设计还是服务于其它景观旅游管理等公共政策制定,城乡景观意象的量化方法都应该致力于描绘公众所感知的景观意象,应该尽可能地凝聚各种社会经济属性的广大公众的地方性认知,因此必然需要首先研究不同数据源的社群的认知差异,才能进行多源数据融合的下一步研究探索。
总而言之,就城乡景观意象量化及社群差异化的分析方法的已有发展来说,存在着以下问题:一是需要突破既有的建筑、街区尺度,解释景观意象在城乡空间等较为宏观尺度的差异;二是需要突破既有的对意象表征的定性分析,从图像感知城市和乡村形态的角度,以客观定量的方法综合测度城乡景观意象,并基于视觉感知对景观意象进行客观分析评价;三是需要突破传统地理元数据计算的局限,街景图片分析技术能够将数据内容挖掘从元数据为主转向图像内容和元数据二者的结合分析,从单纯的主观景观感知测量研究拓展到景观要素的空间特色及意象测度为切入点,以刻画城乡景观意象的变化过程与作用机制;四是需要以定量方法构建城乡景观意象表征的测度体系,通过街景图片数据和地理空间数据的耦合,进一步分析城乡景观意象建构过程中影响着地方差异或相似形成的重要因素,由此判断城乡景观意象的提升、优化和发展;五是需要考虑多种数据源对城乡景观意象不同群体认知的异质性,尤其是在城市形象建设上不同社群对城市认知的差异化影响,由此才能更综合、全面地优化提升城乡景观意象,服务不同受众群体。鉴于此,城乡景观意象的量化及提升研究需要一种综合、高效、客观的方法来弥补上述不足。
发明内容
为了克服现有技术存在的缺陷与不足,本发明提供一种基于社群差异化的城乡景观意象量化及提升方法,将经典的以“区域、边界、路径、节点、标志”为基础主观认知地图获得的景观意象“五要素”量化方法,拓展为以多源图像数据和空间数据为基础获得的客观综合的城乡景观意象,强调了不同社群对景观意象的认知差异、空间错位与偏好不同情况,形成了一套全流程、可算法化、多种数据源、自下而上的城乡景观意象量化提升方法,可结合智慧城乡规划信息平台,对挖掘打造多元城乡形象、塑造城乡地标景观、塑造强化城乡肌理、提升优化城乡品质的规划建设提供技术性支撑。
为了达到上述目的,本发明采用以下技术方案:
一种基于社群差异化的城乡景观意象量化及提升方法,包括以下步骤:
1)获取图像数据:从多个不同社群的图片开放网站获取研究区域内多源地理标记照片数据,数据信息包括拍摄的照片图像、经纬度等照片地理标记、照片拍摄时间、照片编号或用户编号等;
2)场景特征识别:采用“ResNet152-places365”场景分类模型(基于Places365数据集上训练得到的包含152层结构的深度残差神经网络模型)对步骤1)中的多源地理标记照片数据中的图片内容进行大规模、客观化的场景信息挖掘,Places365数据集提供了365个场景小类,由此输出每张图片数据最匹配的前五个场景小类及相应的概率;
3)场景类型划分:根据365个场景小类,按照城乡景观意象类型制定映射规则,构建一套符合实际需求的包含多个类别城乡景观意象的场景分类体系,由此计算得到概率最高的城乡景观意象类型及其概率值。根据概率值计算城乡景观意象分类的准确率和召回率,设定过滤图片噪声数据的概率阈值,要求城乡景观意象的场景分类准确率需要大于90%,以此对图片数据进行进一步清洗;
4)场景模式检测:为检测各类城乡景观意象中的典型模式,在步骤3)场景分类体系的基础上,采用自组织映射神经网络算法进行典型模式检测,筛选出最具代表性的图片样本,并按照相似性排列形成图谱,组成城乡景观意象的“基因”数据集,作为步骤6)识别城乡景观意象五要素中地标要素的数据集;
5)空间聚类分析:对研究区域内所有多源地理标记照片数据,利用基于密度的聚类算法,调试邻域半径和最小样本量,识别出聚集程度较高、具有一定规模的热点区域,将其作为城乡景观意象五要素中的区域要素和节点要素;
6)意象要素识别:基于步骤4)和步骤5),利用地理信息系统平台来集成城乡景观意象的各类场景信息和空间信息,识别出区域、边界、路径、节点和标志的城乡景观意象五要素,构建客观化的城乡景观意象认知地图;
7)比较不同社群在城乡景观意象认知地图上的差异:分析不同社群认知中的研究区域城乡景观意象空间结构和场景类型的共性与差异,围绕步骤6)的区域、边界、路径、节点和标志五要素,提出城乡景观意象提升及优化方案。
作为优选的技术方案,所述步骤1)包括:
1.1)通过地理编码服务,利用Python调用icrawler.builtin,从国内外涉及旅游者、城市居民、共享社区平台、社交媒体等多个不同社群的图片开放网站中批量获取研究区域内所有图片页面的URL链接,解析URL链接中得到的URLlist,获得照片编号,再用GetInfo方法获得所有图片元数据,将其存入Excel数据表中。表中信息包括照片编号、照片拍摄时间、经度、纬度、照片图像URL链接。图片的经纬度数据经过坐标纠偏,统一到WGS84地球坐标系中。
1.2)将所有图片元数据导入到地理信息系统平台中,剔除掉不在研究区域内或其它出错的数据,按照不同社群网站的数据来源进行图层分组,形成多源地理标记照片数据库。
作为优选的技术方案,在所述步骤2),为了对步骤1)中多源地理标记照片数据进行图像场景检测,选取“ResNet152-places365”场景分类模型作为图像识别的工具,该模型是在Places2数据集核心子集的Places365数据集上训练的包含152层结构的深度残差神经网络模型。
Places2数据集是一个由麻省理工学院研究团队开发和维护的场景图像数据集,包含1000万张图像,400个不同类型的场景,可用于以场景和环境为应用内容的视觉认知任务,该数据集使用卷积神经网络(Convolutional Neural Networks,CNN),可用于学习各种场景识别任务的深度场景特征。
Places365数据集是Places2数据库的核心子集,有来自365个场景类别的约180万张图像。每个类的图像数量从3068到5000张不等。验证集每个类有50个图像,测试集每个类有900个图像。开发者发布了在Places365数据集上训练的各种卷积神经网络模型参数,其中“ResNet152-places365”场景分类模型的表达能力最强,验证集预测结果显示最匹配的前5个标签的识别准确率为85.08%,因此在方法中选择该模型。
使用Python根据Excel表中图像URL链接读取图像,通过“ResNet152-places365”场景分类模型预测并输出预测结果的工作流。输出数据包括每张图片最匹配的前五个场景小类及相应的概率,其中场景小类来自Places365数据集的365个场景类别。
作为优选的技术方案,所述步骤3)包括:
3.1)构建一套城乡景观意象场景分类体系进行场景分类:由于Places365数据集用于训练和测试的图片数据大部分来源于国外网站,取景于国外的地理环境中,由国外学者确定分类标签,可能在一定程度上会因为中外环境和文化差异,在迁移到国内场景识别任务中出现不适用的缺陷。而且如果直接用Places365数据集场景分类体系的二级类目作为城乡景观意象的基本场景类型,则存在分类过于笼统的缺陷,城乡空间大多被归为“商业建筑、商店、超市和城镇”仅仅这一类中。因此,通过构建一套新的城乡景观意象场景分类体系,以此确定一套适用于国内城乡景观意象的识别方法,将Places365数据集场景小类映射到该场景分类体系的二级类目中,形成新映射规则。这样就相当于借用“ResNet152-places365”场景分类模型进行图像的场景特征提取,再通过新的映射规则映射到新的城乡景观意象场景分类体系中,完成城乡景观意象分类的任务。
因此,本方法在Places365数据集的场景小类的分类体系基础上,考虑到场景之间的相似性和与土地利用分类的对应性,构建了一套包含13个类别的城乡景观意象的场景分类体系。此外,为了解决迁移应用可能出现的“水土不服”问题,本研究对Places365数据集的365个场景小类中的每一类,都分别从步骤1)研究区域内的城乡景观意象数据库中随机抽样出20张被识别为该场景小类的图片,目视检验“ResNet152-places365”场景识别模型的预测效果,并对出现识别偏差的场景小类进行映射规则的调整修改。例如,“引水渠(aqueduct)”这一场景在西方语境中多指古罗马引水渠之类的构筑物,在Places365数据集的场景分类映射表中属于“交通(transportation)”类,但在迁移应用于国内时,被识别为“引水渠(aqueduct)”的场景则是长城之类同样具有拱券结构特征的构筑物,应映射于城乡景观意象场景分类体系中的古建类。由此,本方法通过修改Places365数据集的场景小类分类映射表,形成一套包含13个城乡景观意象和3个一级环境意象,更适用于国内场景的映射规则,城乡景观意象的场景分类体系具体如下表:
3.2)计算概率最高的城乡景观意象类型及其概率值:根据步骤3.1)得到城乡景观意象的场景分类体系及其与365个Places365数据集场景小类的映射规则后,按贝叶斯定理计算得到概率最高的城乡景观意象类型及其概率P,计算公式如下:
s:PlacesClassSet→CityImageClassSet (1)
PlacesClass∈PlacesClassSet,CityImageClass∈CityImageClassSet (3)
式(1)中,PlacesClassSet为365个Places365数据集场景小类的集合,CityImageClassSet为13个城乡景观意象集合,s为两个集合之间的映射;式(2)和式(3)中,f(a,b)表示城乡景观意象场景分类映射关系的函数;式(4)中PlacesClassi为第i个城乡景观意象样本匹配的Places365数据集场景小类,pi为相应的概率,P(CitylmageClassj)为该样本属于第j个城乡景观意象类型的概率。
3.3)确定过滤图片噪声数据的概率阈值,计算出城乡景观意象分类的准确率和召回率,对图片数据进行进一步清洗:由于有的图像内容为物体的局部、空间的局部、面部自拍、非照片图像或难以纳入某一场景,属于与城乡景观意象不相关的噪声数据,需要根据概率值P进行图片数据清洗。
首先,确定过滤图片噪声数据的概率阈值。概率阈值定得越高,留下的图像数据场景分类准确率就越高,但实际上本该留下却被当作噪声数据清洗掉的数据也越多,即非噪声数据的召回率越低,对原始图片数据集的数据量造成越多浪费;概率阈值定得越低,非噪声数据的召回率越高,但留下的图片数据场景分类准确率也就越低。准确率和召回率是机器学习分类问题中此消彼长的一对指标,应根据实际需要在两者间取平衡。为确定图片数据清洗的概率阈值,本方法从13类城乡景观意象中的每一类各随机抽取75张图片数据,由此,组成共计975个样本数据的图片抽样测试数据集,目视判断每张测试图片真实的城乡景观意象分类和一级环境意象分类。
其次,再以0.01为步长,取概率阈值为0到1的不同数值,分别绘制得到城乡景观意象分类准确率、一级环境意象分类准确率和非噪声数据的召回率随概率阈值的变化曲线。
再次,为确保数据利用率较高,根据三者的变化曲线,按照高分类准确率和召回率的原则,选择城乡景观意象分类准确率、一级环境意象分类准确率随概率阈值的变化曲线的交叉点的横坐标作为概率阈值,得到对应的召回率,非噪声数据的召回率是指事实上不属于噪声的数据中被识别为非噪声数据保留下来的比率。
最后,构建13个城乡景观意象分类的混淆矩阵,要求采取的场景分类策略对大多数场景都有较好的分类识别准确率,场景分类识别准确率需要大于90%,即100张照片中最少有90张照片的场景分类是正确的。
作为优选的技术方案,所述步骤4)包括:
4.1)将365个场景小类及其概率转化为独热编码:将不同社群的城乡景观意象图像数据按13个城乡景观意象类别分成13个子数据集,并用经纬度、前五位匹配的Places365数据集场景小类及其概率转化为367维的独热编码。独热编码叫一位有效(One-Hot)编码,是机器学习中常用的一种标签编码方式;
4.2)训练5×5的自组织映射神经网络对365个场景小类进行非监督聚类:将独热编码导入Truffer等科学计算与数据分析软件后,先用主成分分析保留前M维特征值,要求至少刻画95%的数据特征,再用于训练5×5的自组织映射神经网络进行非监督聚类。自组织映射神经网络(Self-organizing Maps,SOM)模型是应用最广泛的自组织神经网络方法,它是一种无监督学习模型,将高维的输入数据映射到一维或二维的低维空间中,多应用于降维、高维可视化和聚类。本方法为检测13类城乡景观意象中的典型模式,在场景分类的基础上利用自组织映射神经网络算法识别出最具代表性和原型意义的城乡景观意象“基因”。
4.3)形成城乡景观意象“基因”数据集:对每种城乡景观意象“基因”选取最邻近聚类中心的前M个样本作为城乡景观意象“基因”样本,每个场景提取25种“基因”,13个场景,并按照相似性排列形成图谱,于是组成了包含M×25×13条数据的城乡景观意象的“基因”数据集,集中了城乡景观意象数据集中最具代表性的图片样本。该数据集在后续步骤6)结合地理信息系统平台进行区域、节点和地标要素识别中发挥着重要作用,也是城乡景观意象特色风貌规划建设的重点和地方“原型”。
作为优选的技术方案,所述步骤5)包括:
为了识别城乡景观意象五要素中的区域要素和节点要素,本方法利用Python的免费软件机器学习库(Scikit-Learn),基于密度的聚类算法对研究区域内所有多源地理标记照片数据实现空间上的聚类过程。
基于密度的聚类算法(Density-Based Spatial Clustering of Applicationswith Noise,DBSCAN)是将簇定义为密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,因此其优越性在于可在充斥着噪声的空间数据库中发现任意形状的聚类。该算法有两个核心参数——邻域半径和最小样本量。邻域半径决定了在迭代过程中某个样本点的邻域大小,而如果其邻域内的样本点数大于等于最小样本量,则该样本被标记为核心样本。邻域半径和最小样本量这两个参数决定了密度的具体度量。邻域半径越小,最小样本量越大,形成簇所需的密度就越高。在基于密度的聚类算法的实际运用过程中,邻域半径和最小样本量的参数设定具有至关重要的作用。
通过不断地调试各种邻域半径和最小样本量等参数组合并可视化,观察聚类结果中簇的空间范围大小和数量,最终确定两组参数组合。第一组的邻域半径参数可设定为800m及其以上(约人步行10分钟以上),参数用于识别热点区域,簇的空间形态接近于研究范围尺度的区域概念;第二组参数对密度的要求更高,邻域半径参数可设定为300m以下(约人步行5分钟以内),用于进一步识别人群高度聚集的节点,簇的空间形态接近于研究范围尺度的节点概念。由此得到邻域半径、最小样本量、聚类簇数量和簇包含的数据占比,要求簇包含的数据占比不低于70%。
从研究区域内所有多源地理标记照片数据形成的簇中,提取出聚集程度较高、具有一定规模的热点区域,作为研究城乡空间结构的区域要素和节点要素,比较不同社群差异化的重合区域和节点,以及差异区域和节点。
作为优选的技术方案,所述步骤6)包括:
6.1)城乡景观意象的区域要素识别:将步骤5)基于密度的聚类算法计算得到的区域要素结果数据导入到地理信息系统中,对所有多源地理标记照片数据的点要素生成缓冲区并按所属的簇标签类别设置融合,并概化为多边形;
6.2)城乡景观意象的边界要素识别:由于城乡景观意象的边界结构通常来源于地理环境中原有的水系、地形分界线等,人工建设的铁路线、运河等,人为划定的行政边界线等这些自然和交通本底要素,因此通过在地理信息系统中叠加这些要素图层,分析多源地理标记照片数据点在这些线性要素两侧的分布密度和模式特征是否存在明显差异,分析这些客观存在的线性要素是否确实对城乡景观意象认知行为带来了分隔和限制的影响,将确实存在边界作用的线性要素提取得到城乡景观意象的边界要素;
6.3)城乡景观意象的路径要素识别:在地理信息系统中叠加城乡的路网图层,包括高速路、一级道路、二级道路、三级道路和四级道路。考虑到城乡道路的实际宽度和GPS信号的抖动幅度,将道路两侧各150米范围内的多源地理标记照片数据点认为是经过该路段的足迹,进行路网匹配,计算得到各个路段的线密度,即可表征各个路段的人流强度。再根据线密度大小进行路网分级可视化,即识别出城乡景观意象的路径要素;
6.4)城乡景观意象的节点要素识别:将步骤5)基于密度的聚类算法计算得到的节点要素结果数据导入到地理信息系统中,对所有多源地理标记照片数据的点要素生成缓冲区并按所属的簇标签类别设置融合,并概化为多边形;
6.5)城乡景观意象的地标要素识别:地标要素传统意义上是体现在空间上人群的高度聚集,但图片数据拓展了地标要素的概念——还应是在人们心目中留下经典、统一的视觉印象的场景,得到集体凝视。因此对于城乡景观意象的地标要素识别应综合考察多源地理标记照片数据点的空间信息和场景信息,能在高度重合的空间范围内找到多个不同社群拍摄的高度相似的场景地点。具体地,在地理信息系统中载入步骤4)得到的城乡景观意象的“基因”数据集,针对13类城乡景观意象,共同满足以下三个条件的地点即被认定为地标要素:(1)空间高度重合:在50米左右半径的圆形范围内;(2)场景高度相似:城乡景观意象的“基因”编号相同,即在自组织映射模型中属于同一类,通常拍摄的是同一对象,有的甚至的同一角度同一构图;(3)多个社群主体:多个是指大于等于3个不同的用户ID。
与现有技术相比,本发明的有益效果:
本发明提供的一种基于社群差异化的城乡景观意象量化及提升方法,将经典的以“区域、边界、路径、节点、标志”为基础主观认知地图获得的景观意象“五要素”量化方法,拓展为以多源图像数据和空间数据为基础获得的客观综合的城乡景观意象,强调了不同社群对景观意象的认知差异、空间错位与偏好不同情况,形成了一套全流程、可算法化、多种数据源、自下而上的城乡景观意象量化提升方法,具有以下几点优势:一是突破既有仅对建筑、街区尺度意象的描述,能够量化在区域、城市、乡村等多空间尺度的城乡景观意象;二是突破传统从主观认知地图角度对景观意象的定性分析,从多源地理标记照片数据感知城乡空间形态的角度,以客观定量的方法综合测度城乡景观意象,并基于视觉感知对城乡景观意象进行客观分析评价;三是图片分析技术解决了传统地理元数据计算的局限,能够将数据内容挖掘从元数据为主转向图像内容和元数据二者的结合分析,从单纯的主观景观意象感知测量研究拓展到景观要素的空间特色及意象测度为切入点,以刻画城乡景观意象的变化过程与作用机制;四是通过一整套全流程、可算法化的定量方法构建城乡景观意象表征的测度体系,通过图片数据和地理空间数据的耦合,进一步分析城乡景观意象建构过程中影响着五要素差异或相似形成的重要因素,由此判断城乡景观意象的提升、优化和发展策略;五是考虑了代表不同社群的多种数据源对城乡景观意象认知的异质性,在建设城市和乡村形象上,可结合智慧城乡规划信息平台,能更综合、全面地优化提升城乡景观意象,服务不同受众群体,彰显城乡地方个性和特色风貌,对挖掘打造多元城乡形象、塑造城乡地标景观、塑造强化城乡肌理、提升优化城乡品质的规划建设提供技术性支撑,为城市和乡村特色旅游等产业发展提供更多规划支持。
附图说明
图1是本发明提供的一种基于社群差异化的城乡景观意象量化及提升方法的流程框图。
图2是本发明实施例的北京市主城区基于国内外社群差异化的多源地理标记照片数据空间分布对比图。
图3是本发明实施例的北京市主城区的13类城乡景观意象分类准确率、一级环境意象分类准确率和非噪声数据的召回率随概率阈值的变化曲线图。
图4是本发明实施例的北京市主城区的13个城乡景观意象分类的混淆矩阵图。
图5是本发明实施例的北京市主城区的5×5的自组织映射神经网络映射结果示例图。
图6A至图6E是本发明实施例的北京市主城区的基于国内外社群差异化的城乡景观意象五要素空间分布图,其中:图6A为区域要素,图6B为边界要素,图6C为路径要素,图6D为节点要素,图6E为地标要素;左边为国内社群,右边为国外社群。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
以下为北京市主城区作为具体实施例来详细阐述本发明的技术方案,如图1所示,本发明提供的一种基于社群差异化的城乡景观意象量化及提升方法包括以下步骤:
步骤1)获取代表不同社群的多源图片数据:从国内的六只脚旅行社区网站、国外的Flickr和Panoramio图片共享社区网站获取北京市主城区范围内的地理标记照片数据链接,信息包括拍摄的照片图像、经纬度等照片地理标记、照片拍摄时间、用户编号四个字段。步骤1)具体包括:
步骤1.1)通过地理编码服务,利用Python调用icrawler.builtin,从国内的六只脚旅行社区网站、国外的Flickr和Panoramio图片共享社区网站批量获取北京市主城区范围内所有地理标记照片数据的URL链接,解析URL链接中得到的URLlist,获得照片编号,再用GetInfo方法获得所有图片元数据,将其存入Excel数据表中。其中Flickr数据来自雅虎实验室“Yahoo!Webscope”网络开放研究项目的“YFCC-100M”数据集,Panoramio数据来自麻省理工大学“City Perception”数据集。在案例地的选取上,考虑到国内外社群在北京全市域范围内的空间分布差异过大,国外社群在北京市中心城区以外的地区数据量过少,故选取北京市主城区为研究区域。Excel数据表中信息包括拍摄的照片图像URL链接、经纬度等照片地理标记、照片拍摄时间、用户编号四个字段。经过从火星坐标系到WGS84地球坐标系的坐标纠偏后,筛选出北京市主城区范围内的数据共计251435条六只脚数据,123933条Flickr数据和63594条Panoramio数据(共计187527条数据)。六只脚数据代表国内社群,Flickr和Panoramio数据代表国外社群,北京市基于国内外社群差异化的多源地理标记照片数据空间分布如图2所示。
步骤1.2)将所有图片元数据导入到ArcGIS软件中,剔除掉不在北京市主城区范围内或其它出错的数据,按照国内外两组社群进行图层分组,形成北京市主城区包含国内外社群差异化的地理标记照片数据库。
步骤2)场景特征识别:使用Python根据Excel数据表中图像URL链接读取图像,采用“ResNet152-places365”场景分类模型对北京市主城区地理标记照片数据库中的图片内容进行大规模、客观化的场景信息挖掘,通过“ResNet152-places365”场景分类模型预测并输出预测结果的工作流。Places365数据集提供了365个场景小类,由此输出每张图片数据最匹配的前五个场景小类及相应的概率。
步骤3)场景类型划分:根据365个场景小类,按照城乡景观意象类型制定映射规则,构建一套适用于国内的13种城乡景观意象的场景分类体系,由此计算得到北京市主城区概率最高的城乡景观意象类型及其概率值。根据概率值计算北京市主城区城乡景观意象分类的准确率和召回率,设定过滤图片噪声数据的概率阈值,要求城乡景观意象的场景分类准确率需要大于90%,以此对图片数据进行进一步清洗。步骤3)具体包括:
步骤3.1)构建一套城乡景观意象场景分类体系进行场景分类:在Places365数据集的场景小类的分类体系基础上,考虑到场景之间的相似性和与土地利用分类的对应性,构建了一套包含13个类别的城乡景观意象的场景分类体系。
此外,为了解决迁移应用可能出现的“水土不服”问题,本研究对Places365数据集的365个场景小类中的每一类,都分别从步骤1)研究区域内的城乡景观意象数据库中随机抽样出20张被识别为该场景小类的图片,目视检验“ResNet152-places365”场景识别模型的预测效果,并对出现识别偏差的场景小类进行映射规则的调整修改。例如,“引水渠(aqueduct)”这一场景在西方语境中多指古罗马引水渠之类的构筑物,在Places365数据集的场景分类映射表中属于“交通(transportation)”类,但在迁移应用于国内时,被识别为“引水渠(aqueduct)”的场景则是长城之类同样具有拱券结构特征的构筑物,应映射于城乡景观意象场景分类体系中的古建类。由此,本方法通过修改Places365数据集的场景小类分类映射表,形成一套包含13个城乡景观意象和3个一级环境意象,更适用于国内场景的映射规则,城乡景观意象的场景分类体系具体如下表:
步骤3.2)计算概率最高的北京市主城区城乡景观意象类型及其概率值:根据步骤3.1)得到城乡景观意象的场景分类体系及其与365个Places365数据集场景小类的映射规则后,按贝叶斯定理计算得到概率最高的城乡景观意象类型及其概率;
步骤3.3)由于有的图像内容为物体的局部、空间的局部、面部自拍、非照片图像或难以纳入某一场景,属于与北京市主城区城乡景观意象不相关的噪声数据,需要根据概率值进行图片数据清洗。首先,确定过滤图片噪声数据的概率阈值,从13类城乡景观意象中各随机抽取75张北京市主城区图片数据,按比例从代表不同社群的各数据源中分层抽样形成样本数据,由此,组成共计975个样本数据的北京市主城区图片抽样测试数据集,目视判断每张测试图片真实的城乡景观意象分类和一级环境意象分类;其次,再以0.01为步长,取概率阈值为0到1的不同数值,分别绘制得到北京市主城区城乡景观意象分类准确率、一级环境意象分类准确率和非噪声数据的召回率随概率阈值的变化曲线,见图3;再次,为确保数据利用率较高,根据三者的变化曲线,按照高分类准确率和召回率的原则,选择北京市主城区城乡景观意象分类准确率、一级环境意象分类准确率随概率阈值的变化曲线的交叉点的横坐标作为概率阈值,得到对应的召回率。如图3所示,根据三者的变化曲线,最终确定概率阈值为0.44。在该概率阈值下,召回率处于81.81%的较高水平,即事实上不属于噪声的数据中有81.81%被识别为非噪声数据保留下来,数据利用率较高,同时场景分类准确率达到90.82%,环境分类准确率达到90.62%。
最后,构建北京市主城区13个城乡景观意象分类的混淆矩阵,见图4。要求采取的场景分类策略对大多数场景都有较好的分类识别准确率,场景分类识别准确率需要大于90%,即100张照片中最少有90张照片的场景分类是正确的。
从图4可知,对于山意象、水意象、林田意象这些中外文化差异较小的自然环境类意象,识别准确率均很高,此外对于交通意象、楼宇意象、活动意象和运动意象也有不错的表现。然而,古建意象和房屋意象之间的混淆度较高,原因是二者在范围界定上本就不存在明确的界线,现实中的低层建筑本就可能处于历史风貌和现代风貌之间的连续分布带谱上,不断受杂院化破坏的老北京胡同就是一个典型例子。此外,商业意象、工作意象和居住意象的识别准确率也偏低,主要是因为这些活动的图像内容更多样化和社会化,容易混入一些噪声数据,比如人脸特写、广告牌特写等场景识别算法无法识别的语义信息。
步骤4)场景模式检测:为检测13类北京市主城区城乡景观意象中的典型模式,在场景分类的基础上采用自组织映射神经网络算法进行典型模式检测,筛选出最具代表性的图片样本,并按照相似性排列形成图谱,组成北京市主城区景观意象的“基因”数据集:
步骤4.1)将365个场景小类及其概率转化为独热编码:将国内外社群的城乡景观意象图像数据按13个城乡景观意象类别分成13个子数据集,并用经纬度、前五位匹配的Places365数据集场景小类及其概率转化为367维的独热编码。
步骤4.2)训练5×5的自组织映射神经网络对365个场景小类进行非监督聚类:将独热编码导入MATLAB软件后,先用主成分分析保留前30个维特征值,要求至少刻画95%的数据特征,再用于训练5×5的自组织映射神经网络进行非监督聚类,见图5。为检测13类城乡景观意象中的典型模式,在场景分类的基础上利用自组织映射神经网络算法识别出最具代表性和原型意义的北京市主城区景观意象“基因”。
步骤4.3)形成北京市主城区景观意象“基因”数据集:对每种北京市主城区景观意象“基因”选取最邻近聚类中心的前30个样本作为城乡景观意象“基因”样本,每个场景提取25种“基因”,13个场景,并按照相似性排列形成图谱,于是组成了包含30×25×13条数据的北京市主城区景观意象的“基因”数据集,集中了北京市主城区景观意象数据集中最具代表性的图片样本,见图5。该数据集在后续步骤6)结合地理信息系统平台进行区域、节点和地标要素识别中发挥着重要作用,也是北京市主城区景观意象特色风貌规划建设的重点和地方“原型”。
步骤5)空间聚类分析:利用Python的免费软件机器学习库(Scikit-Learn),基于密度的聚类算法,调试邻域半径和最小样本量,对北京市主城区内所有地理标记照片数据实现空间上的聚类过程,识别出聚集程度较高、具有一定规模的热点区域,将其作为北京市主城区景观意象五要素中的区域要素和节点要素,以进一步比较国内外社群差异化的重合区域和节点,以及差异区域和节点。其中,具体的邻域半径和最小样本量等参数如下:
步骤6)空间结构分析:基于以上步骤,利用地理信息系统平台来集成城乡景观意象的13类场景信息和空间信息,识别出区域、边界、路径、节点和标志的城乡景观意象五要素,构建客观化的城乡景观意象认知地图,见图6:
步骤6.1)城乡景观意象的区域要素识别:将步骤5)基于密度的聚类算法计算得到的北京市主城区区域要素结果数据导入到地理信息系统中,对照片数据的点要素生成缓冲区并按所属的簇标签类别设置融合,并概化为多边形。由此,国内外社群认知中的北京城市意象区域要素分别有21个和19个区域结构。在国内社群的认知中,规模最大的前五个区域呈现出了两个核心、重心偏西、山区-平原双向吸引的特征;而在国外社群的认知中,规模最大的前五个区域呈现出了以旧城为核心、重心略偏东的单中心吸引特征。
步骤6.2)城乡景观意象的边界要素识别:边界要素应该表现为北京市主城区内区域之间的分界线,或表现为其两侧的数据点呈现明显不同的密度等分布特征。通过叠加可能成为认知中的边界的北京市主城区地形、水系、铁路和行政边界等基底数据,筛选出在人们认知中构成边界要素的部分。包括如下:(1)地形交界线:北京主城区西部有山地地形,山地与平原的过渡地带存在模糊的地形突变线,这种地形边界在热爱探索自然山地风光的国内社群认知中较为明显,而在国外社群中则相对不明显;(2)水系:由于北京市内没有大江大河,所有河湖水系的宽度和面积都较小,因此从城市尺度上讲,水系在视觉上和心理上都不构成北京城市明显的障碍和屏障,反而更像是一种吸引物的空间线性要素;(3)铁路:北京作为中国很多铁路的起点,虽然市内铁路很多,但大多数铁路在城市认知地图中的边界作用不明显。向北的京张铁路、向南的京沪线(科丰附近)和京九线(西二环路附近)以及铁路复合线(京广、京九、京沪等沿永定河部分)、向西的西郊机场铁路等铁路段在国内社群的认知中构成一定的边界作用。而国外社群由于在丰台区的活动较少,感知到的边界元素比国内社群更少。由于铁路线会在一定程度上影响城市用地布局,因此那些沿着铁路线布局又吸引了一定关注的城市用地,就会让认知群体感受到铁路的边界作用,反映在数据点分布上就呈现出了铁路两侧的不同密度和肌理;(4)行政边界:北京主城区范围内的行政边界对国内外社群的认知均不构成明显的边界作用。总的来说,边界在国内外社群对北京主城区的认知中均不明显,只有地形分界线和部分铁路线表现出了边界的特征。
步骤6.3)城乡景观意象的路径要素识别:在地理信息系统中叠加北京市的路网图层,包括高速路、一级道路、二级道路、三级道路和四级道路。考虑到北京市道路的实际宽度和GPS信号的抖动幅度,将道路两侧各150米范围内的多源地理标记照片数据点认为是经过该路段的足迹,进行路网匹配,即可表征各个路段的人流强度。再根据线密度大小进行路网分级可视化,即识别出北京市主城区景观意象的路径要素,发现国内外社群认知中的路径要素大同小异,整体上均呈现了各版北京城市总体规划强调的“十字格局”,即北京城市中轴线和长安街及其延长线在北京城市格局中的核心地位。
步骤6.4)城乡景观意象的节点要素识别:将步骤5)基于密度的聚类算法计算得到的北京市主城区节点要素结果数据导入到地理信息系统中,对照片数据的点要素生成缓冲区并按所属的簇标签类别设置融合,并概化为多边形,分别从国内外社群的认知中识别出了85和66个意象节点,由于意象节点大多位于意象区域内部,因此空间分布特征与意象区域一致,同样呈现出了国内社群两个核心、重心偏西、山区-平原双向吸引,国外社群单个核心、重心略偏东、单中心吸引的特征。
步骤6.5)城乡景观意象的地标要素识别:地标要素传统意义上是体现在空间上人群的高度聚集,但图片数据拓展了地标要素的概念——还应是在人们心目中留下经典、统一的视觉印象的场景,得到集体凝视。因此对于城乡景观意象的地标要素识别应综合考察多源地理标记照片数据点的空间信息和场景信息,能在高度重合的空间范围内找到多个不同社群拍摄的高度相似的场景地点。由于北京市主城区地标要素以古建意象、楼宇意象、水意象和公园意象这四种意象类型为主,具体地,在地理信息系统中载入步骤4)得到的北京市主城区景观意象的“基因”数据集,针对古建意象、楼宇意象、水意象和公园意象,共同满足以下三个条件的地点即被认定为北京市主城区的地标要素:(1)空间高度重合:在50米左右半径的圆形范围内;(2)场景高度相似:城乡景观意象的“基因”编号相同,即在自组织映射模型中属于同一类,通常拍摄的是同一对象,有的甚至的同一角度同一构图;(3)多个社群主体:多个是指大于等于3个不同的用户ID。由此,通过综合分析照片数据的空间位置和场景内容,按照空间高度重合、场景高度相似和多个认知主体的条件,对国内外社群分别识别出了102个和77个地标。在国内社群的认知中,有64处古建地标、16处水地标、13处楼宇地标和9处公园地标,以历史文化为主题,主要集中分布在“传统园林-中轴线”一带。在国外社群的认知中,有42处楼宇地标、27处古建地标、5处水地标和3处公园地标,以现代都市为主题,主要集中分布在“中轴线-商业区”一带。
国内社群特有的意象地标包括历史建筑、传统园林、市民公园、山地高塔和城市鸟瞰点等;国外社群特有的意象地标包括现代国际大都市楼宇、现代商街、会议展览地、高等学校与科研单位、市民文娱活动地点、摩天大楼等。
步骤7)比较北京市主城区国内外社群在城乡景观意象认知地图上的差异:分析国内外社群认知中的北京市主城区城乡景观意象空间结构和场景类型的共性与差异,围绕区域、边界、路径、节点和标志五要素,提出北京市主城区景观意象提升及优化方案。
对于北京市主城区景观意象的空间结构,国内外社群在五要素上均存在一些共性认知:(1)区域要素:有11个重叠的意象区,但不同社群可能对同一区域形成截然不同的范围和规模的认知;(2)边界要素:在国内外社群对北京的认知中均不明显。地形交界线对于偏好探索山地的国内社群更突出,少数城市外围的铁路对城市认知构成一定的边界作用,河湖水系则由于宽度和面积较小而均无明显边界作用,行政边界也不构成边界;(3)路径要素:均体现了城市轴线的“十字格局”;(4)节点要素:有20个重叠的意象节点,主要有历史文化建筑、体育场馆、知名高校、科技园区、自然休闲游憩公园、休闲娱乐场所和文化艺术场所等各个类型的城市重要节点;(5)地标要素:作为“空间意象”与“图像意象”的统一体,共同地标大多位于中轴线附近,凸显了厚重的历史文化底蕴。
此外,国内外群体对性北京市主城区景观意象的认知差异则主要体现在区域要素、节点要素和地标要素:(1)区域要素:国内社群更偏好自然山地风光和历史文化风貌区,国外社群更偏好国际化都市核心区和外籍人口聚居地;(2)节点要素:国内社群更偏好自然风光、历史文化建筑、城市外围公共空间、居住区中心,国外社群更偏好使馆区、外籍人口聚居地、高校、商务区、现代商业中心。对于初来北京的外国游客而言,其对环境的认知始于自身的需要,所以最先认识住所、工作地及其附近的那些基本节点。对于工作和教育等目的的外籍到访者而言,基本节点主要是使馆、酒店、外籍人口集聚地和国际交流活动频繁的高校和商务区;对于旅游目的的外籍游客而言,基本节点可能多是蜚声中外的旅游景点,以及与其具有良好的交通可达性的国际化的酒店。国外社群由这些基本节点沿着交通网络向外拓展其对环境的认知形成次节点。而对于城市本地居民而言,随着在城市中定居时间的增长,由基本节点拓展出的节点越来越多,形成对社区、生活圈、区域或全城市的认知,因此主要基于区域跳跃式地拓展认知。本地居民在游憩目的地的选择上,一种主要是在其日常居住-通勤-工作的生活圈中,另一种则主要是远离其生活圈的与日常生活截然不同的环境。个体身份决定了认知方式,不同的认知方式形成不同模式的城市认知地图;(3)地标要素:国内社群更偏好传统文化、民族历史与家国情怀、亭台楼阁与园林文化、山地高塔与登高望远,国外社群更偏好现代国际大都市楼宇、现代商街与时尚文化、会议展览与节事活动、高等学校与科研单位、市民生活与精神面貌。
针对以上国内外社群对城乡景观意象的共性认知地区,应该强化其风貌特色和公共属性,加强对景观意象的地方营建和特征塑造,那些国内外社群重叠的城乡空间,主要是自然风光和历史文化类的意象节点,正是可以创造相互凝视的切入点。一个理想的城乡景观意象空间可以是游客与市民共存共享并互相凝视的场所,而不是顾此失彼和空间错位;对于国内外社群有认知差异的城乡景观意象,应强化对于认知群体偏好特征的塑造,尤其是考虑到对国内外社群差异化的服务配套设置。
以上所述为本发明的具体实施方式,但本发明的保护范围不局限于以上实施方式,对于本领域的技术人员而言,在不脱离本发明的原理和精神的情况下,对这些实施例进行变化、修改、替换、整合和变型仍落入本发明的保护范围内。
Claims (9)
1.一种基于社群差异化的城乡景观意象量化及提升方法,包括以下步骤:
1)获取图像数据:从多个不同社群的图片开放网站获取研究区域内多源地理标记照片数据,数据信息包括拍摄的照片图像、照片地理标记、照片拍摄时间和照片编号;
2)场景特征识别:采用“ResNet152-places365”场景分类模型对多源地理标记照片数据中的图片内容进行场景信息挖掘,Places365数据集提供了365个场景小类,由此输出每张图片数据最匹配的前五个场景小类及相应的概率;
3)场景类型划分:根据365个场景小类,按照城乡景观意象类型制定映射规则,构建一套城乡景观意象的场景分类体系,由此计算得到概率最高的城乡景观意象类型及其概率值;根据概率值计算城乡景观意象分类的准确率和召回率,设定过滤图片噪声数据的概率阈值,要求城乡景观意象分类准确率大于90%,以此对图片数据进行进一步清洗;
4)场景模式检测:在步骤3)得到的城乡景观意象类型的基础上采用自组织映射神经网络算法进行城乡景观意象中的典型模式检测,筛选出最具代表性的图片样本,并按照相似性排列形成图谱,组成城乡景观意象的“基因”数据集;
5)空间聚类分析:对研究区域内所有多源地理标记照片数据,利用基于密度的聚类算法,调试邻域半径和最小样本量,识别出聚集程度较高、具有一定规模的热点区域,将其作为城乡景观意象五要素中的区域要素和节点要素;
6)意象要素识别:基于以上步骤,利用地理信息系统平台来集成城乡景观意象的各类场景信息和空间信息,识别出区域、边界、路径、节点和标志的城乡景观意象五要素,构建客观化的城乡景观意象认知地图;
7)比较不同社群在城乡景观意象认知地图上的差异:分析不同社群认知中的研究区域城乡景观意象空间结构和场景类型的共性与差异,围绕区域、边界、路径、节点和标志五要素,提出城乡景观意象提升及优化方案。
2.如权利要求1所述的方法,其特征在于,所述步骤1)包括:
1.1)通过地理编码服务,利用Python调用icrawler.builtin,从国内外涉及旅游者、城市居民、共享社区平台、社交媒体的多个不同社群的图片开放网站中批量获取研究区域内所有图片页面的URL链接,解析URL链接中得到的URLlist,获得照片编号,再用GetInfo方法获得所有图片元数据,将其存入Excel数据表中,表中信息包括照片编号、照片拍摄时间、经度、纬度、照片图像URL链接,其中,图片的经纬度数据经过坐标纠偏,统一到WGS84地球坐标系中;
1.2)将所有图片元数据导入到地理信息系统平台中,剔除掉不在研究区域内或其它出错的数据,按照不同社群网站的数据来源进行图层分组,形成多源地理标记照片数据库。
3.如权利要求2所述的方法,其特征在于,在步骤2)中使用Python根据Excel表中图像URL链接读取图像,通过“ResNet152-places365”场景分类模型预测并输出预测结果的工作流;输出数据包括每张图片最匹配的前五个场景小类及相应的概率,其中场景小类来自Places365数据集的365个场景类别。
4.如权利要求1所述的方法,其特征在于,所述步骤3)包括:
3.1)构建一套城乡景观意象场景分类体系进行场景分类:通过修改Places365数据集的场景小类分类映射表,形成一套包含13个城乡景观意象和3个一级环境意象的场景分类体系及其与365个Places365数据集场景小类的映射规则,其中,所述3个一级环境意象是指自然环境、建成环境和文化生活,所述自然环境包括山意象、水意象和林田意象这3个城乡景观意象;所述建成环境包括公园意象、交通意象、古建意象、楼宇意象和房屋意象这5个城乡景观意象;所述文化生活包括商业意象、活动意象、运动意象、工作意象和居住意象这5个城乡景观意象;
3.2)计算概率最高的城乡景观意象类型及其概率值:按贝叶斯定理计算得到概率最高的城乡景观意象类型及其概率P,计算公式如下:
s:PlacesClassSet→CityImageClassSet (1)
PlacesClass∈PlacesClassSet,CityImageClass∈CityImageClassSet (3)
式(1)中,PlacesClassSet为365个Places365数据集场景小类的集合,CityImageClassSet为13个城乡景观意象集合,s为两个集合之间的映射;式(2)和式(3)中,f(a,b)表示城乡景观意象场景分类映射关系的函数;式(4)中PlacesClassi为第i个城乡景观意象样本匹配的Places365数据集场景小类,pi为相应的概率,P(CityImageClassj)为该样本属于第j个城乡景观意象类型的概率;
3.3)确定过滤图片噪声数据的概率阈值,计算出城乡景观意象分类的准确率和召回率,根据概率值对图片数据进行进一步清洗。
5.如权利要求4所述的方法,其特征在于,在步骤3.3)首先从13类城乡景观意象中各随机抽取75张图片数据,组成共计975个样本数据的图片抽样测试数据集,目视判断每张测试图片真实的城乡景观意象分类和一级环境意象分类;再以0.01为步长,取概率阈值为0到1的不同数值,分别绘制得到城乡景观意象分类准确率、一级环境意象分类准确率和非噪声数据的召回率随概率阈值的变化曲线;根据三者的变化曲线,按照高分类准确率和召回率的原则,选择城乡景观意象分类准确率、一级环境意象分类准确率随概率阈值的变化曲线的交叉点的横坐标作为概率阈值,得到对应的召回率,非噪声数据的召回率是指事实上不属于噪声的数据中被识别为非噪声数据保留下来的比率;最后,构建13个城乡景观意象分类的混淆矩阵,要求采取的场景分类策略的城乡景观意象分类准确率大于90%。
6.如权利要求4所述的方法,其特征在于,所述步骤4)包括:
4.1)将365个场景小类及其概率转化为独热编码:将不同社群的城乡景观意象图像数据按13个城乡景观意象类别分成13个子数据集,并用经纬度、前五位匹配的Places365数据集场景小类及其概率转化为367维的独热编码;
4.2)训练5×5的自组织映射神经网络对365个场景小类进行非监督聚类:将独热编码导入科学计算与数据分析软件后,先用主成分分析保留前M维特征值,要求至少刻画95%的数据特征,再用于训练5×5的自组织映射神经网络进行非监督聚类;在场景分类的基础上利用自组织映射神经网络算法识别出最具代表性和原型意义的城乡景观意象“基因”;
4.3)形成城乡景观意象“基因”数据集:对每种城乡景观意象“基因”选取最邻近聚类中心的前M个样本作为城乡景观意象“基因”样本,每个场景提取25种“基因”,并按照相似性排列形成图谱,于是组成了包含M×25×13条数据的城乡景观意象的“基因”数据集,集中了城乡景观意象数据集中最具代表性的图片样本。
7.如权利要求1所述的方法,其特征在于,在步骤5)利用Python的免费软件机器学习库Scikit-Learn,基于密度的聚类算法对研究区域内所有多源地理标记照片数据实现空间上的聚类过程;从研究区域内所有多源地理标记照片数据形成的簇中,提取出聚集程度较高、具有一定规模的热点区域,作为研究城乡空间结构的区域要素和节点要素,比较不同社群差异化的重合区域和节点,以及差异区域和节点。
8.如权利要求1所述的方法,其特征在于,所述步骤6)包括:
6.1)城乡景观意象的区域要素识别:将步骤5)得到的区域要素结果数据导入到地理信息系统中,对所有多源地理标记照片数据的点要素生成缓冲区并按所属的簇标签类别设置融合,并概化为多边形;
6.2)城乡景观意象的边界要素识别:通过在地理信息系统中叠加可能成为认知中的边界的自然和交通基底数据要素图层,分析多源地理标记照片数据点在这些线性要素两侧的分布密度和模式特征是否存在明显差异,分析这些客观存在的线性要素是否确实对城乡景观意象认知行为带来了分隔和限制的影响,将确实存在边界作用的线性要素提取得到城乡景观意象的边界要素;
6.3)城乡景观意象的路径要素识别:在地理信息系统中叠加城乡的路网图层,包括高速路、一级道路、二级道路、三级道路和四级道路;将道路两侧各150米范围内的多源地理标记照片数据点认为是经过该路段的足迹,进行路网匹配,计算得到各个路段的线密度;再根据线密度大小进行路网分级可视化,即识别出城乡景观意象的路径要素;
6.4)城乡景观意象的节点要素识别:将步骤5)得到的节点要素结果数据导入到地理信息系统中,对所有多源地理标记照片数据的点要素生成缓冲区并按所属的簇标签类别设置融合,并概化为多边形;
6.5)城乡景观意象的地标要素识别:在地理信息系统中载入步骤4)得到的城乡景观意象的“基因”数据集,针对城乡景观意象,共同满足以下三个条件的地点即被认定为地标要素:空间重合、场景相似、多个社群主体。
9.如权利要求8所述的方法,其特征在于,步骤6.5)中所述空间重合是指在50米半径的圆形范围内;所述场景相似是指城乡景观意象的“基因”编号相同;所述多个社群主体是指大于等于3个不同的用户ID。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310866025.9A CN117079124B (zh) | 2023-07-14 | 2023-07-14 | 一种基于社群差异化的城乡景观意象量化及提升方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310866025.9A CN117079124B (zh) | 2023-07-14 | 2023-07-14 | 一种基于社群差异化的城乡景观意象量化及提升方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117079124A CN117079124A (zh) | 2023-11-17 |
CN117079124B true CN117079124B (zh) | 2024-04-30 |
Family
ID=88714272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310866025.9A Active CN117079124B (zh) | 2023-07-14 | 2023-07-14 | 一种基于社群差异化的城乡景观意象量化及提升方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117079124B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663800A (zh) * | 2012-04-26 | 2012-09-12 | 北京师范大学 | 一种顾及城市意象的城市建筑综合与渲染的方法 |
CN112949413A (zh) * | 2021-02-04 | 2021-06-11 | 北京大学 | 基于街景图片的城市景观要素分类及地方性度量方法 |
US11170215B1 (en) * | 2016-04-28 | 2021-11-09 | Reality Analytics, Inc. | System and method for discriminating and demarcating targets of interest in a physical scene |
WO2021248335A1 (zh) * | 2020-06-09 | 2021-12-16 | 中山大学 | 一种基于街景图片及机器学习的城市内部贫困空间测度方法及系统 |
CN114708521A (zh) * | 2022-04-07 | 2022-07-05 | 中南大学 | 基于街景图像目标关系感知网络的城市功能区识别方法及系统 |
CN115546655A (zh) * | 2022-08-30 | 2022-12-30 | 同济大学 | 一种基于深度学习的乡村景观基本空间单元识别方法 |
CN115563493A (zh) * | 2022-11-10 | 2023-01-03 | 东南大学 | 一种基于聚类算法划分乡村景观生态单元的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7039239B2 (en) * | 2002-02-07 | 2006-05-02 | Eastman Kodak Company | Method for image region classification using unsupervised and supervised learning |
-
2023
- 2023-07-14 CN CN202310866025.9A patent/CN117079124B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663800A (zh) * | 2012-04-26 | 2012-09-12 | 北京师范大学 | 一种顾及城市意象的城市建筑综合与渲染的方法 |
US11170215B1 (en) * | 2016-04-28 | 2021-11-09 | Reality Analytics, Inc. | System and method for discriminating and demarcating targets of interest in a physical scene |
WO2021248335A1 (zh) * | 2020-06-09 | 2021-12-16 | 中山大学 | 一种基于街景图片及机器学习的城市内部贫困空间测度方法及系统 |
CN112949413A (zh) * | 2021-02-04 | 2021-06-11 | 北京大学 | 基于街景图片的城市景观要素分类及地方性度量方法 |
CN114708521A (zh) * | 2022-04-07 | 2022-07-05 | 中南大学 | 基于街景图像目标关系感知网络的城市功能区识别方法及系统 |
CN115546655A (zh) * | 2022-08-30 | 2022-12-30 | 同济大学 | 一种基于深度学习的乡村景观基本空间单元识别方法 |
CN115563493A (zh) * | 2022-11-10 | 2023-01-03 | 东南大学 | 一种基于聚类算法划分乡村景观生态单元的方法 |
Non-Patent Citations (4)
Title |
---|
"Homogenization and locality of landscape characteristics in the waterfront space based on geotagged photographs";Fang Wang等;《wiley online library》;20211123;全文 * |
"Image Based Characterization of Formal and Informal Neighborhoods in an Urban Landscape";J. Graesser等;《IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing》;20120831;第5卷(第4期);全文 * |
基于大规模街景图片人工智能分析的精细化城市修补方法研究;郑屹;杨俊宴;;中国园林;20200810(第08期);全文 * |
基于深度学习的城市意象认知方法创新与拓展――以重庆主城区为例;曹越皓;杨培峰;龙瀛;;中国园林;20191210(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117079124A (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Uncovering inconspicuous places using social media check-ins and street view images | |
Tenerelli et al. | Spatial assessment of aesthetic services in a complex mountain region: combining visual landscape properties with crowdsourced geographic information | |
CN115269751B (zh) | 地理实体时空知识图谱本体库构建方法 | |
Wang et al. | Identification and analysis of urban functional area in Hangzhou based on OSM and POI data | |
Zhou et al. | Recognizing city identity via attribute analysis of geo-tagged images | |
Orellana et al. | Exploring visitor movement patterns in natural recreational areas | |
CN112949413B (zh) | 基于街景图片的城市景观要素分类及地方性度量方法 | |
Wieczorek et al. | Geographic information systems | |
CN106710437A (zh) | 电子地图的编制方法和系统 | |
Xing et al. | Mapping human activity volumes through remote sensing imagery | |
Liu et al. | Identifying and understanding road-constrained areas of interest (AOIs) through spatiotemporal taxi GPS data: A case study in New York City | |
CN109359162A (zh) | 一种基于gis的学校选址方法 | |
Wu et al. | A green view index for urban transportation: how much greenery do we view while moving around in cities? | |
Hu et al. | A framework to detect and understand thematic places of a city using geospatial data | |
Ye et al. | Land use classification from social media data and satellite imagery | |
Fang | Site selection of ecotourism: a case study of Zhejiang province | |
Xuan et al. | Research on correlation between spatial quality of urban streets and pedestrian walking characteristics in china based on street view big data | |
Zorlu et al. | Evaluation of nature-based tourism potential in protected and sensitive areas by CRITIC and PROMETHEE-GAIA methods | |
Liu et al. | An analysis on the spatiotemporal behavior of inbound tourists in Jiaodong Peninsula based on Flickr geotagged photos | |
CN116822798B (zh) | 一种用于城乡风貌特色塑造的区域地方性度量方法 | |
Chaudhuri et al. | Application of web-based Geographical Information System (GIS) in tourism development | |
CN110688443B (zh) | 一种基于地图注记模型的注记方法 | |
Nouri et al. | Comparing multi-criteria decision-making (MCDM) tool and Huff model to determine the most appropriate method for selecting mountain tourism sites. | |
Wang | The digital presentation of human-oriented urban design | |
CN117079124B (zh) | 一种基于社群差异化的城乡景观意象量化及提升方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |