CN114549956A - 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法 - Google Patents

一种深度学习辅助的倾斜模型建筑物外立面目标识别方法 Download PDF

Info

Publication number
CN114549956A
CN114549956A CN202210130569.4A CN202210130569A CN114549956A CN 114549956 A CN114549956 A CN 114549956A CN 202210130569 A CN202210130569 A CN 202210130569A CN 114549956 A CN114549956 A CN 114549956A
Authority
CN
China
Prior art keywords
window
coordinates
point
model
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210130569.4A
Other languages
English (en)
Inventor
岳照溪
昌尧霏
符宏伟
张冲
刘一宁
郭功举
王文峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI SURVEYING AND MAPPING INSTITUTE
Original Assignee
SHANGHAI SURVEYING AND MAPPING INSTITUTE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANGHAI SURVEYING AND MAPPING INSTITUTE filed Critical SHANGHAI SURVEYING AND MAPPING INSTITUTE
Priority to CN202210130569.4A priority Critical patent/CN114549956A/zh
Publication of CN114549956A publication Critical patent/CN114549956A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A30/00Adapting or protecting infrastructure or their operation
    • Y02A30/60Planning or developing urban green infrastructure

Abstract

本发明公开了一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,首先在倾斜摄影相片中勾绘了建筑物外立面目标的样本,然后投入Mask‑rcnn的网络中进行网络参数的训练,接着借助倾斜摄影瞬间的外方位元素,依据空间坐标的平移和旋转,还原拍摄瞬间的相片位置与姿态,并通过共线方程的原理,将焦点与像方识别结果边界坐标连接,形成的直线与倾斜模型表面相交,就可以得到倾斜模型中建筑物外立面目标的真实空间位置信息,最后,通过均值漂移的方式进行删选,从多个检测结果中得到最佳的点。本发明将深度学习与摄影测量技术结合,实现了倾斜模型上建筑物外立面上目标的自动识别,可用于城市建筑物自动分层分户、日照分析等应用问题。

Description

一种深度学习辅助的倾斜模型建筑物外立面目标识别方法
技术领域
本发明属于计算机视觉和摄影测量技术领域,涉及一种倾斜模型建筑物外立面目标识别方法。
背景技术
在数字孪生、规划管理等领域中,城市精细化管理的推进对真实还原现状城市提出了更高要求,三维地理信息应用也逐渐从粗放走向精细,在城市应急管理、日照规划分析等场景下,以建筑物为主体的建模分析单元已无法满足应用需要,更精确、更细节、可量测的建筑物外立面信息提取显得尤为重要。
倾斜摄影建模由于其建模效率高、成本相对较低、纹理信息真实且丰富等优势,成为三维数字成果建设中广泛使用的方式之一。倾斜摄影建模是基于高精度栅格影像还原地物三维信息的过程,具备了兼顾建筑物顶面与立面信息的特点,结合深度学习目标识别技术,可在有效挖掘倾斜摄影相片中的建筑物。
深度学习在二维影像中的应用已经逐渐趋于成熟,如遥感影像的自动分割和自然影像的目标识别等,三维点云的深度学习自动识别技术也有了一定的研究成果,但是城市级的倾斜模型自动识别技术还没有较为成熟的技术路线,借助摄影测量技术,利用二维影像识别结果,获取三维倾斜模型中的目标识别结果的准确、可量测信息,可以有效扩展倾斜模型的利用价值,推进城市精细化与自动化管理。
发明内容
本发明主要是解决现有倾斜模型信息数据识别能力较弱,信息挖掘程度较低的问题,提供了涉及一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,可以有效提取建筑物的外立面目标。
本发明所采用的技术方案是,一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,包括以下步骤:
步骤1:对倾斜摄影所得影像进行建筑物外立面目标(本发明以窗户为例)的矢量范围勾勒,并制作成建筑物识别样本,裁剪为统一尺寸;
步骤2:将样本投入mask rcnn网络进行模型参数的训练;
步骤3:用步骤2训练得到的模型结果对倾斜摄影区域的所有影像进行建筑物窗户自动识别;
步骤4:对步骤3得到的窗户自动识别结果进行边缘提取,获取边界点在图像上的像方坐标串,并进行优化,得到四个角点信息;
步骤5:在外方位元素的参数下,将边界点的像方坐标转换为辅助倾斜摄影测量坐标;
步骤6:将相机焦点坐标与步骤5中得到的坐标相连,用Plucker坐标对直线进行表示;
步骤7:用osg库进行倾斜模型数据的解析,得到倾斜模型的所有顶点信息;
步骤8:将直线方程与倾斜模型构成的三角面进行相交,在Plucker坐标系中判断三角形与直线位置关系,并从每条直线得到的所有交点中,取距离焦点最近的一个作为结果,就是窗户识别的结果坐标;
步骤9:对该区域所有倾斜影像进行步骤1-8,得到每个窗户的多个检测结果用均值漂移聚类的方法定位每个组的中心点,得到窗户的最终检测结果;
其中步骤4的具体实现方式如下:
步骤4.1:使用canny算子对检测结果进行边缘提取,获取每个窗户监测结果图斑的边缘坐标串;
步4.2:如附图4所示,对每个窗户的边缘坐标串用opencv中的approxPolyDP函数进行多边形拟合,将光滑的窗户边界简化为四个边界角点,即为窗户的角点坐标。
步骤5的具体实现方式如下:
步骤5.1:将像方坐标的原点从左上角转换为相片的中心原点,并将Y轴方向反向(即假设步骤4中计算得到的坐标为(xa0,ya0),且影像长宽分别为Xsize、Ysize个像素值,得到转变后的坐标(xa0-Xsize/2,Ysize-ya0-Ysize/2));
步骤5.2:由于步骤5.1中的坐标数值单位是像素个数,需要乘以单个像素的长度,得到其在像空间坐标系的坐标数值,以摄像机焦点为像空间辅助坐标系的原点,则相片上的坐标在Z方向的坐标即为-f,即像空间坐标系下坐标为
Figure BDA0003502350000000031
步骤5.3:如附图5所示,参考外方位元素中摄影时摄像机的位置与姿态信息,对步骤5.2中得到的像空间坐标进行平移和旋转,还原拍摄瞬间相片的真实位置与姿态,其中平移公式为:
Figure BDA0003502350000000032
旋转公式为:
Figure BDA0003502350000000033
其中
Figure BDA0003502350000000034
Rω、Rk分别是外方位元素中三个倾角的旋转矩阵。
步骤8的具体实现方式如下:
步骤8.1:在步骤6获取的直线上,沿光线方向取长度为3倍航高(大于2倍即可,本发明采用3倍)的点P坐标(px,py,pz),并用普朗克方式对相机焦点F(fx,fy,fz)与点P进行表示:
L=(l0,l1,l2,l3,l4,l5)
其中:
l0=px*fy-fx*py
l1=px*fz-fx*pz
l2=px*fx
l3=py*fz-fy*pz
l4=pz*fz
l5=fy*py
即该条直线可以用LPF进行表示;
步骤8.2:遍历mesh模型中所有三角面片,设每个面片的三个角点分别为Ki1、Ki2、Ki3,用步骤8.1中的普朗克方式对每个面片的三条边进行表示,就得到三条边分别为Li12、Li23、Li13
步骤8.3:用Side Operator对步骤8.1的直线L0与步骤8.2中每个面片的三条边L1、L2、L3进行计算,获取直线与三角面片的交点,side operator计算如下:
side(L0,L1)=L0[0]*L1[4]+L0[1]*L1[5]+L0[2]*L1[3]+L0[3]*L1[2]+L0[4]*L1[0]+L0[5]*L1[1]
当side(L0,L1)、side(L0,L2)、side(L0,L3)三者都大于0或者都小于零时,直线与三角形不共面且穿过三角形。
步骤8.4:如附图6所示,步骤8.1中的线与mesh模型可能有多于1个的交点,只有线与模型的第一次相交的点才是目标点,所以对于每条直线与模型相交所有获取的所有交点坐标,与相机焦点坐标计算欧式距离:
Figure BDA0003502350000000041
距离最小的交点就是直线与模型的第一个交点,即为对应相片中窗户识别结果的节点坐标。
步骤9的具体实现方式如下:
步骤9.1:对该区域的所有倾斜影像进行自动识别与角点提取,形成备选目标点云;
步骤9.2:随机选取n个中心点C,并以r为半径进行每个圆形窗口内部的均值计算,然后计算窗口内的所有向量的平均值,得到一个偏移均值;
步骤9.3:将中心点C移动到偏移均值的位置,按照步骤9.2的方式计算新窗口内的偏移均值,其计算公式如下:
Figure BDA0003502350000000042
其中Mh表示偏移均值,K表示窗口内代选点的数量,Sk表示窗口内的所有代选点的点集,x表示中心点C的坐标。如果新偏移均值小于某一阈值,则停止计算,该中心点即为目标点,如果大于指定阈值,则继续移动至小于阈值为止。
附图说明
图1为本发明实施例的总体流程图;
图2为本发明实施例的倾斜影像建筑物外特征(窗户)样本勾勒示意图;
图3为本发明实施例的倾斜影像建筑物外特征(窗户)自动检测结果示意图;
图4为本发明实施例的倾斜影像建筑物外特征(窗户)边缘提取示意图;
图5为本发明实施例的外方位元素辅助的坐标系转换示意图。
图6为本发明实施例的直线与mesh模型相交示意图。
图7为本发明实施例的倾斜多角度摄影结果示意图。
图8为本发明实施例的倾斜模型中窗户检测结果示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
如图1,本发明提供一种基于深度学习的高分辨率卫星光学遥感影像建筑物变化检测方法,包括以下步骤:
步骤1:对倾斜摄影所得影像进行建筑物外立面目标(本发明以窗户为例)的矢量范围勾勒,并制作成建筑物识别样本,裁剪为统一尺寸;
将样本提供给步骤2;
步骤2:将样本投入mask rcnn网络进行模型参数的训练;
步骤3:用步骤2训练得到的模型结果对倾斜摄影区域的所有影像进行建筑物窗户自动识别;
步骤4:对步骤3得到的窗户自动识别结果进行边缘提取,获取边界点在图像上的像方坐标串,并进行优化,得到四个角点信息,提供给步骤5;
步骤5:在外方位元素的参数下,将边界点的像方坐标转换为辅助倾斜摄影测量坐标;
步骤6:将相机焦点坐标与步骤5中得到的坐标相连,用Plucker坐标对直线进行表示;
步骤7:用osg库进行倾斜模型数据的解析,得到倾斜模型的所有顶点信息;
注:如图1所示,影像、pos信息和倾斜模型(mesh模型)都是已有数据;
注:倾斜模型是由三角面构成的,可以直接通过顺序读取模型顶点信息,获取每个三角面的坐标。
注:步骤1-步骤6是对影像进行处理;步骤7是对倾斜模型进行分析。
步骤8:将步骤6所述直线对应的方程与倾斜模型构成的三角面进行相交,在Plucker坐标系中判断三角形与直线位置关系,并从每条直线得到的所有交点中,取距离焦点最近的一个作为结果,就是窗户识别的结果坐标;
步骤9:对该区域所有倾斜影像进行步骤1-步骤8,得到每个窗户的多个检测结果,然后用均值漂移聚类的方法定位每个组的中心点,得到窗户的最终检测结果。
注:实验区域,影像、倾斜模型和pos信息对应的是同一片区域。
其中步骤4的具体实现方式如下:
步骤4.1:使用canny算子对检测结果进行边缘提取,获取每个窗户监测结果图斑的边缘坐标串;
步骤4.2:如附图4所示,对每个窗户的边缘坐标串用opencv中的approxPolyDP函数进行多边形拟合,将光滑的窗户边界简化为四个边界角点,即为窗户的角点坐标。
步骤5的具体实现方式如下:
步骤5.1:将像方坐标的原点从左上角转换为相片的中心原点,并将Y轴方向反向(即假设步骤4中计算得到的坐标为(xa0,ya0),且影像长宽分别为Xsize、Ysize个像素值,得到转变后的坐标(xa0-Xsize/2,Ysize-ya0-Ysize/2);
步骤5.2:由于步骤5.1中的坐标数值单位是像素个数,需要乘以单个像素的长度,得到其在像空间坐标系的坐标数值,以摄像机焦点为像空间辅助坐标系的原点,则相片上的坐标在Z方向的坐标即为-f,即像空间坐标系下坐标为
Figure BDA0003502350000000061
步骤5.3:如附图5所示,参考外方位元素中摄影时摄像机的位置与姿态信息,对步骤5.2中得到的像空间坐标进行平移和旋转,还原拍摄瞬间相片的真实位置与姿态,其中平移公式为:
Figure BDA0003502350000000071
旋转公式为:
Figure BDA0003502350000000072
其中
Figure BDA0003502350000000073
Rω、Rk分别是外方位元素中三个倾角的旋转矩阵。
步骤8的具体实现方式如下:
步骤8.1:在步骤6获取的直线上,沿光线方向取长度为3倍航高(大于2倍即可,本发明采用3倍)的点P坐标(px,py,pz),并用普朗克方式对相机焦点F(fx,fy,fz)与点P进行表示:
L=(l0,l1,l2,l3,l4,l5)
其中:
l0=px*fy-fx*py
l1=px*fz-fx*pz
l2=px*fx
l3=py*fz-fy*pz
l4=pz*fz
l5=fy*py
即该条直线可以用LPF进行表示;
步骤8.2:遍历mesh模型中所有三角面片,设每个面片的三个角点分别为Ki1、Ki2、Ki3,用步骤8.1中的普朗克方式对每个面片的三条边进行表示,就得到三条边分别为Li12、Li23、Li13
步骤8.3:用Side Operator对步骤8.1的直线L0与步骤8.2中每个面片的三条边L1、L2、L3进行计算,获取直线与三角面片的交点,side operator计算如下:
side(L0,L1)=L0[0]*L1[4]+L0[1]*L1[5]+L0[2]*L1[3]+L0[3]*L1[2]+L0[4]*L1[0]+L0[5]*L1[1]
当side(L0,L1)、side(L0,L2)、side(L0,L3)三者都大于0或者都小于零时,直线与三角形不共面且穿过三角形。
步骤8.4:如附图6所示,步骤8.1中的线与mesh模型可能有多与1个的交点,只有线与模型的第一次相交的点才是目标点,所以对于每条直线与模型相交所有获取的所有交点坐标,与相机焦点坐标计算欧式距离:
Figure BDA0003502350000000081
距离最小的交点就是直线与模型的第一个交点,即为对应相片中窗户识别结果的节点坐标。
步骤9的具体实现方式如下:
步骤9.1:如附图7所示,倾斜摄影的多角度拍摄会使影像间出现重叠部分,所以对该区域的所有倾斜影像进行自动识别与角点提取后,重叠区域同一目标会有多个检测结果,形成备选目标点云;
步骤9.2:随机选取n个中心点C,并以r为半径进行每个圆形窗口内部的均值计算,然后计算窗口内的所有向量的平均值,得到一个偏移均值;
步骤9.3:将中心点C移动到偏移均值的位置,按照步骤9.2的方式计算新窗口内的偏移均值,其计算公式如下:
Figure BDA0003502350000000082
其中Mh表示偏移均值,K表示窗口内代选点的数量,Sk表示窗口内的所有代选点的点集,x表示中心点C的坐标。如果新偏移均值小于某一阈值,则停止计算,该中心点即为目标点,如果大于指定阈值,则继续移动至小于阈值为止。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (5)

1.一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,其特征在于,包括如下步骤:
步骤1:对倾斜摄影所得影像进行建筑物外立面目标(本发明以窗户为例)的矢量范围勾勒,并制作成建筑物识别样本,裁剪为统一尺寸;
步骤2:将样本投入mask rcnn网络进行模型参数的训练;
步骤3:用步骤2训练得到的模型结果对倾斜摄影区域的所有影像进行建筑物窗户自动识别;
步骤4:对步骤3得到的窗户自动识别结果进行边缘提取,获取边界点在图像上的像方坐标串,并进行优化,得到四个角点信息;
步骤5:在外方位元素的参数下,将边界点的像方坐标转换为辅助倾斜摄影测量坐标;
步骤6:将相机焦点坐标与步骤5中得到的坐标相连,用Plucker坐标对直线进行表示;
步骤7:用osg库进行倾斜模型数据的解析,得到倾斜模型的所有顶点信息;
步骤8:将直线方程与倾斜模型构成的三角面进行相交,在Plucker坐标系中判断三角形与直线位置关系,并从每条直线得到的所有交点中,取距离焦点最近的一个作为结果,就是窗户识别的结果坐标;
步骤9:对该区域所有倾斜影像进行步骤1-8,得到每个窗户的多个检测结果用均值漂移聚类的方法定位每个组的中心点,得到窗户的最终检测结果。
2.如权利要求1所述的一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,其特征在于:步骤4的具体实现方式如下:
步骤4.1:使用canny算子对检测结果进行边缘提取,获取每个窗户监测结果图斑的边缘坐标串;
步4.2:对每个窗户的边缘坐标串用opencv中的approxPolyDP函数进行多边形拟合,将光滑的窗户边界简化为四个边界角点,即为窗户的角点坐标。
3.如权利要求1所述的一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,其特征在于:步骤5的具体实现方式如下:
步骤5.1:将像方坐标的原点从左上角转换为相片的中心原点,并将Y轴方向反向(即假设步骤4中计算得到的坐标为(xa0,ya0),且影像长宽分别为Xsize、Ysize个像素值,得到转变后的坐标(xa0-Xsize/2,Ysize-ya0-Ysize/2);
步骤5.2:由于步骤5.1中的坐标数值单位是像素个数,需要乘以单个像素的长度,得到其在像空间坐标系的坐标数值,以摄像机焦点为像空间辅助坐标系的原点,则相片上的坐标在Z方向的坐标即为-f,即像空间坐标系下坐标为
Figure FDA0003502349990000021
步骤5.3:参考外方位元素中摄影时摄像机的位置与姿态信息,对步骤5.2中得到的像空间坐标进行平移和旋转,还原拍摄瞬间相片的真实位置与姿态,其中平移公式为:
Figure FDA0003502349990000022
旋转公式为:
Figure FDA0003502349990000023
其中
Figure FDA0003502349990000024
Rω、Rκ分别是外方位元素中三个倾角的旋转矩阵。
4.如权利要求1所述的一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,其特征在于:步骤8的具体实现方式如下:
步骤8.1:在步骤6获取的直线上,沿光线方向取长度为3倍航高(大于2倍即可,本发明采用3倍)的点P坐标(px,py,pz),并用普朗克方式对相机焦点F(fx,fy,fz)与点P进行表示:
L=(l0,l1,l2,l3,l4,l5)
其中:
l0=px*fy-fx*py
l1=px*fz-fx*pz
l2=px*fx
l3=py*fz-fy*pz
l4=pz*fz
l5=fy*py
即该条直线可以用LPF进行表示;
步骤8.2:遍历mesh模型中所有三角面片,设每个面片的三个角点分别为Ki1、Ki2、Ki3,用步骤8.1中的普朗克方式对每个面片的三条边进行表示,就得到三条边分别为Li12、Li23、Li13
步骤8.3:用Side Operator对步骤8.1的直线L0与步骤8.2中每个面片的三条边L1、L2、L3进行计算,获取直线与三角面片的交点,side operator计算如下:
side(L0,L1)=L0[0]*L1[4]+L0[1]*L1[5]+L0[2]*L1[3]+L0[3]*L1[2]+L0[4]*L1[0]+L0[5]*L1[1]
当side(L0,L1)、side(L0,L2)、side(L0,L3)三者都大于0或者都小于零时,直线与三角形不共面且穿过三角形;
步骤8.4:步骤8.1中的线与mesh模型可能有多于1个的交点,只有线与模型的第一次相交的点才是目标点,所以对于每条直线与模型相交所有获取的所有交点坐标,与相机焦点坐标计算欧式距离:
Figure FDA0003502349990000031
距离最小的交点就是直线与模型的第一个交点,即为对应相片中窗户识别结果的节点坐标。
5.如权利要求1所述的一种深度学习辅助的倾斜模型建筑物外立面目标识别方法,其特征在于:步骤9的具体实现方式如下:
步骤9.1:倾斜摄影的多角度拍摄会使影像间出现重叠部分,所以对该区域的所有倾斜影像进行自动识别与角点提取后,重叠区域同一目标会有多个检测结果,形成备选目标点云;
步骤9.2:随机选取n个中心点C,并以r为半径进行每个圆形窗口内部的均值计算,然后计算窗口内的所有向量的平均值,得到一个偏移均值;
步骤9.3:将中心点C移动到偏移均值的位置,按照步骤9.2的方式计算新窗口内的偏移均值,其计算公式如下:
Figure FDA0003502349990000041
其中Mh表示偏移均值,K表示窗口内代选点的数量,Sk表示窗口内的所有代选点的点集,x表示中心点C的坐标。如果新偏移均值小于某一阈值,则停止计算,该中心点即为目标点,如果大于指定阈值,则继续移动至小于阈值为止。
CN202210130569.4A 2022-02-11 2022-02-11 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法 Pending CN114549956A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210130569.4A CN114549956A (zh) 2022-02-11 2022-02-11 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210130569.4A CN114549956A (zh) 2022-02-11 2022-02-11 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法

Publications (1)

Publication Number Publication Date
CN114549956A true CN114549956A (zh) 2022-05-27

Family

ID=81674238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210130569.4A Pending CN114549956A (zh) 2022-02-11 2022-02-11 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法

Country Status (1)

Country Link
CN (1) CN114549956A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115272932A (zh) * 2022-07-29 2022-11-01 浙江通见科技有限公司 一种基于机器视觉的城市非机动车杂乱停放识别方法
CN116824273A (zh) * 2023-08-28 2023-09-29 成都飞机工业(集团)有限责任公司 一种航空制造件任意视角二维投影图像面片属性判断方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115272932A (zh) * 2022-07-29 2022-11-01 浙江通见科技有限公司 一种基于机器视觉的城市非机动车杂乱停放识别方法
CN116824273A (zh) * 2023-08-28 2023-09-29 成都飞机工业(集团)有限责任公司 一种航空制造件任意视角二维投影图像面片属性判断方法
CN116824273B (zh) * 2023-08-28 2024-01-12 成都飞机工业(集团)有限责任公司 一种航空制造件任意视角二维投影图像面片属性判断方法

Similar Documents

Publication Publication Date Title
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
CN110717983B (zh) 一种基于背包式三维激光点云数据的建筑物立面三维重建方法
US7509241B2 (en) Method and apparatus for automatically generating a site model
Li et al. Reconstructing building mass models from UAV images
Yu et al. Semantic alignment of LiDAR data at city scale
CN101329771B (zh) 一种基于图像序列的城市街区的快速建模方法
Russell et al. Automatic alignment of paintings and photographs depicting a 3D scene
US20060061566A1 (en) Method and apparatus for performing three-dimensional computer modeling
Pylvanainen et al. Automatic alignment and multi-view segmentation of street view data using 3d shape priors
CN113192200B (zh) 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN109255808B (zh) 基于倾斜影像的建筑物纹理提取方法和装置
Pang et al. SGM-based seamline determination for urban orthophoto mosaicking
CN114549956A (zh) 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法
CN111652241B (zh) 融合影像特征与密集匹配点云特征的建筑物轮廓提取方法
CN112215820A (zh) 一种基于图像数据的隧道掌子面分析方法
CN113361499B (zh) 基于二维纹理和三维姿态融合的局部对象提取方法、装置
CN115564926B (zh) 基于影像建筑物结构学习的三维面片模型构建方法
CN114494292A (zh) 一种建筑物立面玻璃区域提取方法及系统
CN110322541A (zh) 一种从五个倾斜相机中选择最优墙面纹理的方法
CN104751451B (zh) 基于无人机低空高分辨率影像的密集点云提取方法
Jiang et al. Low–high orthoimage pairs-based 3D reconstruction for elevation determination using drone
CN111383330A (zh) 一种复杂环境三维重建方法和系统
Gao et al. Multi-source data-based 3D digital preservation of largescale ancient chinese architecture: A case report
Lee et al. Determination of building model key points using multidirectional shaded relief images generated from airborne LiDAR data
Gong et al. Roof-cut guided localization for building change detection from imagery and footprint map

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination