CN110473221A - 一种目标物体自动扫描系统及方法 - Google Patents
一种目标物体自动扫描系统及方法 Download PDFInfo
- Publication number
- CN110473221A CN110473221A CN201910769319.3A CN201910769319A CN110473221A CN 110473221 A CN110473221 A CN 110473221A CN 201910769319 A CN201910769319 A CN 201910769319A CN 110473221 A CN110473221 A CN 110473221A
- Authority
- CN
- China
- Prior art keywords
- image
- angle
- scanning area
- point
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 claims description 4
- 108010050014 systemin Proteins 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 210000000746 body region Anatomy 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000009499 grossing Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 229920002334 Spandex Polymers 0.000 description 1
- WYTGDNHDOZPMIW-RCBQFDQVSA-N alstonine Natural products C1=CC2=C3C=CC=CC3=NC2=C2N1C[C@H]1[C@H](C)OC=C(C(=O)OC)[C@H]1C2 WYTGDNHDOZPMIW-RCBQFDQVSA-N 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 239000004759 spandex Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标物体自动扫描系统及方法,根据扫描仪内相继拍摄的彩色图像,利用机器视觉物体检测算法对其进行处理,得到感兴趣的扫描区域;建立图片像素坐标和真实世界坐标之间建立映射关系,基于所述映射关系计算与所述扫描区域的各像素相对应的世界坐标相对于激光雷达的角度;以最小和最大角度为边界,构建角度序列,根据序列中各点与扫描区域内被扫描的点与激光雷达之间的距离,计算相机坐标系中对应点,形成扫描路径,按照所述扫描路径控制扫描仪的动作。本公开能够自动提供感兴趣的扫描区域以及相应的扫描路径,保证采集图像的有效性、准确性和智能化。
Description
技术领域
本公开属于建筑信息建模技术领域,具体涉及一种目标物体自动扫描系统及方法。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
目前,建筑物数字孪生技术(DigitalTwinning)或建筑信息建模(BuildingInformationModelling)技术已在监控,检查,和管理基础设施资产等建筑工程领域得到广泛应用。其中,利用激光点云数据(PointClouds)生成现有基础设施的数字几何双胞胎(GeometricDigitalTwin简称为gDT),或建筑信息几何模型(BIMmodel),是一种常见的做法。但是,值得注意的是,从点云到数字几何双胞胎(scan-to-gDT)这一过程耗时耗力,且远远未被完全的自动化,激光点云的处理过程难度很大。因为激光点云数据量异常庞大(例如,通常一座普通的高速路桥的点云大小为3到4个G)。所以,对于三维几何建模来说,需要首先对点云数据进行预处理后才能用其进行点云重建。
传统采集点云的方法属性,完全取决于扫描过程和被扫描的建筑物周围的环境。从业者通常使用激光扫描仪(laserscanner)默认的扫描范围设置对被扫描的建筑物进行范围限制内的全范围扫描。这样的扫描过程使得每一次扫描(即每一个scan)产生数以千万计的巨大的点云数据。而最终,对于拼接好的点云,只有其中一小部分数据用于后续的孪生(即三维建模)过程,剩下不用的数据即为多余的噪点。因此,科研人员往往需要在使用点云做三维重建之前对其进行大规模的裁剪/修剪工作,其目的即是去除多余的无用的噪点。
据发明人了解,目前的扫描仪硬件设备都仅仅提供人工辅助的方法来定制指定的扫描区域。同时,现有的扫描仪硬件设备和配套软件不提供用于在点云扫描和预处理阶段检测感兴趣扫描区域的全自动方案,无法解决准确描绘感兴趣对象的边界问题和噪点问题。
发明内容
本公开为了解决上述问题,提出了一种目标物体自动扫描系统及方法,本公开能够自动提供感兴趣的扫描区域以及相应的扫描路径,保证采集图像的有效性、准确性和智能化。
根据一些实施例,本公开采用如下技术方案:
一种目标物体自动扫描方法,包括以下步骤:
根据扫描仪内相继拍摄的彩色图像,利用机器视觉物体检测算法对其进行处理,得到感兴趣的扫描区域;
建立图片像素坐标和真实世界坐标之间建立映射关系,基于所述映射关系计算与所述扫描区域的各像素相对应的世界坐标相对于激光雷达的角度;
以最小和最大角度为边界,构建角度序列,根据序列中各点与扫描区域内被扫描的点与激光雷达之间的距离,计算相机坐标系中对应点,形成扫描路径,按照所述扫描路径控制扫描仪的动作。
在上述方案中,首先利用机器视觉物体检测算法自动确定扫描区域,解决了现有的扫描仪通过用户手动设定扫描区域或框选扫描区域的局限性,扫描区域形状准确,不再依托操作员的仔细程度和经验;其次,根据扫描区域自动生成控制路线,能够自动控制扫描仪,实现扫描过程的智能化和自动化。
作为可选择的实施方式,利用机器视觉物体检测算法对其进行处理的过程包括:
(1)调整原始彩色图片的分辨率,对调整后的图片进行灰度化和平滑处理;
(2)利用边缘检测进行处理,得到带检测边缘的二进制图像;
(3)使用霍夫转换来检测所得的二进制图像中的直线段集;
(4)转换图像至HSV色调域,并进行边缘过滤;
(5)基于凹包顶点α形状算法连接处理后的直线段集中的线段,形成连接凹包体区域;
(6)基于滑窗的切割算法提取连接凹包体区域中的前景,构成感兴趣的扫描区域。
作为进一步的限定,所述步骤(3)中,对建筑中的直线型基础设施,直接用直线进行描绘边界,对建筑中的曲线型基础设施,利用多个直线段的依次连接/拼接进行描绘边界;
霍夫转换将从检测到的白色边缘的每个像素映射到参数空间,找到各所在的所有直线段。
作为进一步的限定,所述步骤(4)中,将基于RGB的图像转换为基于HSV的图像,对于每个线段s,将其一定大小区域内的相邻像素作为局部同质区,计算每半个局部同质区中的每个像素的色调值,绘制直方图,其中累积具有相同色调值的像素数量,使用一定宽度像素的黑色填充来包围图像,以避免局部同质区超出四周,局部同质区中的估计天空区域被着色为黑色,其Hue值在直方图中不被累积,建筑物的色调Hue值被视为与其最大直方相对应的中心值,并过滤误报环境线段,获得只有属于建筑物结构的线段集。
作为进一步的限定,所述步骤(6)中,通过为图像像素集分配不同的类标签来创建图像掩码,图像被分成了包括背景、疑似背景、前景和疑似前景四个标记区域;通过使用滑窗技术重新分配它们的标签来检测内部的环境区域;
创建两个高斯混合模型,一个用于提取背景类和疑似背景,另一个用于提取前景类和疑似前景,进行图形切割,并迭代,直到生成只包括背景和前景的二进制图像,提取前景二进制图像为扫描区域。
作为可选择的实施方式,在进行角度计算前,将得到的感兴趣扫描区域重新调整会初始图片大小,在调整后的图片像素坐标和真实世界坐标之间建立映射关系。
作为可选择的实施方式,使用相机几何模型将调整后的图像转换为归一化平面中的图像。
具体过程包括:
将调整后的扫描区域图像向各向四周进行膨胀,膨胀区域为黑色像素区域;
将膨胀后的图像进行左右两边的延伸,延伸区域为黑色像素区域;
将延伸后的图像转换为平行四边形图像;
创建一个空矩阵,用于存储变换后的图像,在存储过程中,将超过所述空矩阵的区域丢弃,并用黑色填充缺失区域。
作为可选择的实施方式,得到的角度值包括方位角和高度角。
作为可选择的实施方式,计算更新的扫描区域中最小和最大的X轴水平坐标,结合电机的单位旋转角度,确定最小和最大方位角,以最小和最大方位角为起始和结束,以单位旋转角度为间隔,生成方位角序列,电机转到序列该序列中的每一个元素,然后计算OXY坐标系中的扫描区域中相对应的水平坐标。
确定最小和最大高度角,以最小和最大高度角为起始和结束,以单位旋转角度为间隔,生成高度角序列,对于每个高度角元素,电机转动到该元素对应的点,然后在OXY坐标系中计算扫描区域中的对应竖直坐标。
作为可选择的实施方式,检查水平坐标和竖直坐标形成的点是否在更新的扫描区域内,如果是,当控制电机转动到该点时,根据对应的方位角和高度角角坐标和更新后的扫描区域被扫描的点与激光雷达之间的距离,计算并记录下相机坐标系中的点;如果不是,除了电机旋转到该位置之外,不需要任何其他任何操作。
作为可选择的实施方式,扫描路径为:以最小高度角、方位角对应的点为起点,以最大高度角、方位角对应的点为结束点,以单位旋转角度为间隔,在扫描区域内以S形路线进行逐点扫描。
作为可选择的实施方式,最终的扫描结果由多张上述目标物体自动扫描方法得到的图片拼接得到。
一种目标物体自动扫描系统,包括:
机器视觉物体检测模块,被配置为根据扫描仪内相继拍摄的彩色图像,利用机器视觉物体检测算法对其进行处理,得到感兴趣的扫描区域;
坐标映射模块,被配置为建立图片像素坐标和真实世界坐标之间建立映射关系,基于所述映射关系计算与所述扫描区域的各像素相对应的世界坐标相对于激光雷达的角度;
扫描路径控制模块,被配置为以最小和最大角度为边界,构建角度序列,根据序列中各点与扫描区域内被扫描的点与激光雷达之间的距离,计算相机坐标系中对应点,形成扫描路径,按照所述扫描路径控制扫描仪的动作。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种目标物体自动扫描方法的全部或部分步骤。
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种目标物体自动扫描方法的全部或部分步骤。
与现有技术相比,本公开的有益效果为:
本公开利用基于机器视觉的瞄准目标检测方法,自动生成由小直线线段依次连接而成的、准确的扫描区域,相对于现有的莱卡、法如、天宝等已有激光扫描硬件设备通过手动设置有矩形/多边形框选扫描区域来说,感兴趣区域描述更精确、更贴合目标(如建筑物)本身。
本公开在感兴趣的扫描区域的基础上,利用扫描路径控制控制瞄准目标扫描过程以及相机的工作,保证了整个过程的全自动化,保证扫描结果的精确性。能够进一步保证激光点云数据或建筑信息几何模型的准确性,为后期建筑信息的监控、管理、设计和处理提供便利。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是本实施例的基本工作流程图;
图2是本实施例的物体检测算法流程图;
图3(a)是本实施例的虚拟的路桥扫描场景调整后的图片Ir;
图3(b)是本实施例的虚拟的路桥扫描场景带检测边缘的二值图Ir_bin;
图4是本实施例的在二值图片Ir_bin检测到的直线段集Sstr;
图5是本实施例基于色调直方图的线段s的局部同质区LHR;
图6是本实施例的虚拟桥连接的凹包顶点区域示意图;
图7是本实施例的四个标记区的图像掩码图和用于检测重叠区域环境区域R_E的滑窗;
图8是本实施例得到的ROI(前景)二进制图像;
图9(a)(b)是本实施例相机成像原理的几何模型;
图10(a)-(e)是本实施例多步图像坐标转换过程示意图;
图11(a)-(c)是本实施例电机运动方案和扫描路径示意图。
具体实施方式:
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
一种物体检测和扫描控制方法,具体过程如图1所示。
包括多幅基本图像的扫描采集,将采集的扫描图像进行拼接,形成最终的扫描结果。
而基本图像的扫描采集又包括以下步骤:
基于视觉的瞄准目标的物体检测算法,旨在提取出被扫描建筑物的边界,继而分割出感兴趣区域(ROI)-即扫描仪拍摄的图像中的之后用于扫描的区域。图2展示了此算法的工作流程,共由六大步骤组成。该算法的初始输入是由扫描仪内部相机拍摄的彩色图像Io,最终输出是感兴趣的扫描区域ROI。
首先将原始图片的分辨率调节为Xr×Yr。注意,通常来说,调整图片大小会影响原始图像的分辨率。但基于扫描仪是放置于距离建筑物大约10米的半径范围内进行拍摄。所以假设,调整大小会在不损失检测精度的前提下,提高识别率。接下来第二步,使用多步Canny边缘检测器来检测调整大小后图片Ir中的边缘,如图3(a)所示。为了提取潜在有用的边缘特征以便减少后续处理的数据量。边缘检测对图片噪音很敏感,会影响场景背后的梯度计算。所以,首先将图片Ir转换为灰度图,然后使用高斯模糊来降低噪声以使其平滑。为此,用了一个典型的图片卷积技术:
Iblur(i,j)=Hij*Ir (1)
其中Hij是大小为(2k+1)×(2k+1)的高斯核:
然后利用用具有高斯滤波器的模糊图片来计算水平和垂直两个方向上的像素(i,j)强度信息来计算梯度幅度,随后在其上应用“非最大值抑制”方法。接下来,检测器使用双阈值和边缘跟踪来检测具有相同强度的强边缘,即白色(255,255,255)。最终获得了一个二进制图像,其中记录了被扫面建筑物的白色边缘Ir_bin,如图3(b)所示。
接下来第三步,本实施例使用霍夫转换来检测所得的二进制图像Ir_bin中的直线段集(表示为Sstr)。大多数人造基础设施或其组成部分是大致准直的(除了一些独特的建筑设计外),这意味着它们的边界大多可以用直线去描绘。但有一些基础设施,例如桥梁,包含了一些弯曲/倾斜的元素。但诸如典型公路桥梁的甲板之类的有曲度的元件,它们的曲率都保持在一定规定范围内。比如,一般桥面的横向最大倾斜度是5%(1/20),一般纵向最大倾斜度是6%。所以,假设图像中的这些类型的弯曲边缘可以通过使用多个小直线段来近似。这种近似,可以通过霍夫转换的长度阈值lthred来控制。具体来说,霍夫转换将从第二步检测到的白色边缘的每个像素映射到参数空间(即霍夫空间)。该参数空间包含许多用作累加器的单元,用于对其中每个像素投票,即每个像素p(xo,yo)对所有参数组(ρ,θ)投票。这些参数组定义了它可能位于中的任何直线。这意味着可以通过识别满足以下条件的所有可能的ρ,θ集合,来找到p(xo,yo)所在的所有直线:
ρ=xocosθ+yosinθ (3)
其中ρ和θ分别是从线到原点的距离和线的角度(即ρ相对于X轴的方向)。(ρ,θ)的空间被分成用作累加器的单元。投票数取决于该线上的点数。阈值lthred表示它应该被视为一条线应该获得的最小投票,用于确定应该检测的线的最小长度。注意,在弯曲边界的检测率和精度之间存在折中。这是因为图像中的建筑环境场景中通常包含许多物体而不仅仅只有感兴趣的建筑物。霍夫转换倾向于检测所有可能的线段,包括许多错误分类的环境线段。当增大lthred时,由于对直线的投票有限而可能没有检测到弯曲边界,而误报减少。相比之下,当减小lthred时,可以使用多段线来表示弯曲边界,而代价是误报率增加。图4展示了在桥梁场景中许多基台,坡道区域以及植被和树木区域中检测线段误报的示例。另外注意,被扫描的建筑物不一定总是包含在一张图片中,也就是说某些部分可能位于摄像机的视野范围之外。这样容易使得图像的四个边界,尤其是属于建筑物的边界,不能被霍夫转换检测到,而它们在之后的步骤中起重要作用。所以,为了避免这种情况发生,本实施例将图像的每个边界划分为多个线段,其长度等于lthred。
由于有误报线段,所以第四步,旨在滤除从前一步骤生成的图像Ir_str中的环境线段即错误检测的边缘。这是通过使用色调差来区别建筑物区域和图像中背景来实现的。物体的RGB值随环境光线变化很大。相反,HSV(色调Hue,饱和度Saturation,和明度Value)色调空间中的色调值(即Hue)在不同光强度下更稳定。假设图像中的主要对象是被扫描的基础设施建筑物,并且主要对象和环境(即天空,植被,树木)之间存在强烈的色调对比。因此,滤除假阳性边缘的问题被转换为二元分类问题。另外,将局部同质性的概念引入基于色调Hue值的直方图的算法中。首先,本实施例使用以下方法将基于RGB的图像Ir转换为基于HSV的图像Ir_HSV:
V=max(R,G,B),V∈[0,1] (4)
如果H<0,H=H+180°。注意,在室外场景中,天空通常占据背景中的大面积区域。天空的色调值可能影响建筑物和天空之间的边界色调值,以及图像边界的色调值。因此,本实施例假设:SHSV_sky<SHSV_max和Vsky>Vmin,其中SHSV_max和Vmin分别是饱和度和明度值的两个阈值。然后,对于每个线段s,其中s∈Sstr是在HSV特征空间中的Ir_str中检测到的。将其大小为~2d×lstr的区域内的相邻像素(其中lstr是检测到的线段s的长度)作为局部同质区(LHR)。图5展示了基于色调值直方图的LHR的示例。
具体来说,计算每半个LHR中的每个像素的色调值(图5中的d×lAB),然后绘制直方图,其中累积具有相同色调值的像素数量。每半个LHR的主要色调Hue值是对应于最大直方bin中心的Hue值。这意味着每个线段s具有一对主要的Hue值,表示为和注意,本实施例使用宽度为d像素的黑色填充来包围图像Ir_str,以避免LHR超出四周。此外,LHR中的估计天空区域Rsky被着色为黑色,其Hue值在直方图中不被累积。建筑物的色调Hue值被视为与其最大直方相对应的中心值:如果然后那么∈Infra;否则,s∈environment。这样就过滤掉了误报环境线段。至此,获得了图像Ir_strfil,其中只有属于建筑物结构的线段集(表示为Sinfra)。
第五步,使用2D凹包顶点α形状算法去连接线段集Sinfra中的线段。只有线段的两端顶点被用于计算凹包。图6展示了用Sinfra末端像素连接的凹包体Rch区域。如图6所示,由于α形算法的凹包性质,一些属于桥的区域(即RM)被围在边界之外,而Rch中的一些区域是环境,即RE。需要一种能够灵活地添加缺失区域RM并去除环境区域RE的方法。另外,值得注意的是,连接凹包体Rch区域是一个估算区域,因为在第三步中霍夫转换可能没有检测到基建筑物的某些边界线。
所以,在第六步中,提出了一种基于滑窗的GrabCut算法,旨在解决上述问题。GrabCut(Rother等人,2004)是一种基于GraphCut的迭代技术。与原始GrabCut不同,原始GrabCut需要在图像中的感兴趣区域(即前景)周围用一个特定边界框(即矩形框)围住(将“前景”定义为基于从前一步骤生成的凹包体Rch区域)。在本实施例中,首先通过为图像像素集{p}分配4个类标签γ来创建图像掩码,即TB为背景←γp=0,T1为疑似背景←γp=1,T2为疑似前景←γp=2,Rch为前景←γp=3.这是通过使用膨胀扩张方法来实现的:其中dj是由像素数量定义的结构化元素。
图7展示了被标记的图像掩码概念图,其中图像被分成了4个标记区域。然后,通过使用滑窗技术重新分配它们的标签来检测Rch内部的环境区域RE(例如天空,植被等等)。具体来说,在图像中从最左上角的第1个元素从左向右和从上到下滑动窗口(窗口大小为7×7像素)。如果后者不与Rch重叠,则滑窗Aw区域的标签保持不变;否则,将基于使用类似于第四步中提出的基于Hue直方图的算法找到的主要Hue值重新分配新标签(即,对于p∈Aw有γp=1)。接下来,创建具有K个分量的两个高斯混合模型(GMM),一个用于背景类和疑似背景(背景GMM),另一个用于前景类和疑似前景(前景GMM)。然后,和p∈T1(即γp={0,1}),像素p被分配给最可能的前景高斯分量;类似的,和p∈Rch(即γp={2,3}),像素p被分配给最可能的背景高斯分量。从先前集合中创建的像素集中学习更新的GMM,然后最小化疑似区域(即T1和T2)Gibbs能量函数EGibbs以进行图形切割:
其中U(k)是数据项,V是平滑项。从GMM组件分配步骤开始的过程被迭代,直到产生分类收敛和图像的ROI,即,生成包括背景(0,0,0)和前景(255,255,255)的二进制图像(如图8)。
得到了检测图像中待扫描建筑物的区域ROI(即图像的感兴趣区域)之后,需要设计一个扫描控制流程,用于控制扫描的电机运动,使激光雷达能够根据ROI来执行瞄准目标的扫描过程。扫描控制,即对扫描仪电机的控制,也就是控制扫描仪旋转角度的问题。这包括两个主要部分:第一部分计算与扫描区域中的像素相对应的真实世界坐标相对于激光雷达的角度(方位角和高度角);以及第二部分规划运动方案用于伺服电机负责扫描并产生电机旋转的命令序列。
首先,为了减少前面结果中的假阳性,即一些没有被检测到的感兴趣的区域,实际的扫描区域是从上一节产生的ROI再加上一个边缘区域m,即 接着,将ROIscan重新调整回初始图片的大小,得到的图片记为先在图片像素坐标和真实世界坐标之间建立映射关系系统。因为扫描仪的激光雷达和相机镜头非常临近(<10厘米),所以本实施例假设ROIscan中的一个给定像素相对于激光雷达的角度(即方位角和高度角)近似等于其相对于相机镜头的方位角和高度角。
图9(a)展示了该建立在相机成像原理之上得映射关系系统几何模型。其中πpix是以像素为单位的图像平面(在相机几何模型中旋转了180°)。和是位于主点O两侧1毫米单位距离的归一化平面。OxCyCzC是以毫米为单位的摄像机坐标系。给定一个被扫描的建筑物的表面上的一点P,它可以用不同的齐次坐标系表示为:在图像平面中P表示为在主点O两侧对称的单位距离归一化平面中分别表示为和在3D相机坐标系中表示为接下来,使用以下方法定义单位距离归一化平面中的像素坐标:
其中K是由5个内在参数α,β,θ,x0和y0定义的相机内部校准矩阵:
接下来,如图9(a)根据相机成像系统的几何关系,可以表示为另外,由于归一化平面和及其相应的坐标系是中心对称的,因此可以推导出又由于对于PC和来说,它们相对于主点O的方位角(记为θx)和高度角(记为θy)是相同的,所以第一部分的问题转化为在相机坐标系中相对于主点O导出θx和θy,如图9(b):
基于这些推导,使用相机几何模型将图片转换为归一化平面中的图像。根据方程8和方程9,K-1可以分解为三个分量,即剪切,缩放和平移:
但是,这些分量引入了一些问题。例如,剪切分量将矩形形状的原始图像变换为平行四边形形状,而图像通常以矩形形式存储为矩阵。缩放分量中和的数量级很小,将坐标的索引(即元素位置)变为小数,而它们只能是整数。平移分量也将一些矩阵索引变为负数,而它们只可能为正数。因此,相对于直接用逆矩阵将ppix转换为本实施例提出了一种多步转换方法,包含四步将从ppix推导出来。首先(步骤1),为了给图片剪切形变预留一些空间,将图片各向左右两边延伸q个黑色像素。具体来说,即比如图片的大小为m×n(m为行,n为列),则图片大小变为m×(n+2q)。也就是说,图片上的一个给定像素点ppix(xpix,ypix,1)变为:
p1=ppix+(q,0,0) (13)
接下来步骤2,只考虑在p1上进行剪切和缩放形变,ppix变为:
接着步骤3将图像转换为平行四边形图像其底为高为再乘以Z以避免过小的小数,然后将其四舍五入:
最后步骤4,创建一个大小为的空矩阵,用于存储变换后的图像储存中,将图像超出矩阵的区域丢弃,同时用黑色填充缺失区域(图10)。
根据方程8,方程12和方程15,可以推导出:
继而得出的方位角和高度角:
电机运动方案
当获得了更新的二进制图像和图像像素以及它们与相应的方位角和高度角的关系,就可以开始规划运动方案,即扫描路径。具体提供一种三步“S”形按列扫描电机运动控制过程。
首先,计算更新的扫描区域中最小和最大的X轴水平坐标,即xmin和xmax。设Δθ为电机的单位旋转角度(Δθ的大小取决于用户对精度的要求),可以分别推导出最小和最大方位角(图11(a)):
继而生成方位角序列Θx:
鉴于相机和激光雷达彼此非常接近,认为激光雷达是正对面向图像的角度(即方位角和高度角)是所以在此步骤中,电机转到序列Θx中的每一个元素然后计算OXY坐标系中的中相对应的水平坐标xi(图11(b))。类似地,找到最小以及最大的高度角-它们是与直线x=xi相交的交点。可以生成高度角序列Θy:
对于每个高度角元素电机转动到然后在OXY坐标系中计算中的对应坐标yj。
然后,检查(xi,yj)是否在内。如果在内,那么,当电机转动到(xi,yj)时,可以根据和中被扫描的点与激光雷达之间的距离(参见图8),来计算并记录下3D相机坐标系中的点
否则,除了电机旋转到该位置之外,不需要任何其他任何操作。例如,在图11中的空洞区域的坐标将不被记录。图11(c)展示了本实施例提供的扫描路径:电机首先转到即然后找到和接着沿“S”形路线对区域进行扫描。
当然,随后的双目镜头拍摄对点云进行上色,以及多幅扫描点云的拼接步骤,可以采用现有方法,在此不再赘述了。
相应的,提供产品实施例如下:
一种目标物体自动扫描系统,包括:
机器视觉物体检测模块,被配置为根据扫描仪内相继拍摄的彩色图像,利用机器视觉物体检测算法对其进行处理,得到感兴趣的扫描区域;
坐标映射模块,被配置为建立图片像素坐标和真实世界坐标之间建立映射关系,基于所述映射关系计算与所述扫描区域的各像素相对应的世界坐标相对于激光雷达的角度;
扫描路径控制模块,被配置为以最小和最大角度为边界,构建角度序列,根据序列中各点与扫描区域内被扫描的点与激光雷达之间的距离,计算相机坐标系中对应点,形成扫描路径,按照所述扫描路径控制扫描仪的动作。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种目标物体自动扫描方法的全部或部分步骤。
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种目标物体自动扫描方法的全部或部分步骤。
上述实施例提供的方法可以同时有很大潜力被嵌入市面上已有的扫描仪软件系统。另外,它也具有很强的扩展性,应用范围和市场前景都非常广,能对不同的建筑物进行扫描,包括楼房,桥梁,隧道,工业厂房,公路等等基础设施。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.一种目标物体自动扫描方法,其特征是:包括以下步骤:
根据扫描仪内相继拍摄的彩色图像,利用机器视觉物体检测算法对其进行处理,得到感兴趣的扫描区域;
建立图片像素坐标和真实世界坐标之间建立映射关系,基于所述映射关系计算与所述扫描区域的各像素相对应的世界坐标相对于激光雷达的角度;
以最小和最大角度为边界,构建角度序列,根据序列中各点与扫描区域内被扫描的点与激光雷达之间的距离,计算相机坐标系中对应点,形成扫描路径,按照所述扫描路径控制扫描仪的动作。
2.如权利要求1所述的一种目标物体自动扫描方法,其特征是:利用机器视觉物体检测算法对其进行处理的过程包括:
(1)调整原始彩色图片的分辨率,对调整后的图片进行灰度化和平滑处理;
(2)利用边缘检测进行处理,得到带检测边缘的二进制图像;
(3)使用霍夫转换来检测所得的二进制图像中的直线段集;
(4)转换图像至HSV色调域,并进行边缘过滤;
(5)基于凹包顶点α形状算法连接处理后的直线段集中的线段,形成连接凹包体区域;
(6)基于滑窗的切割算法提取连接凹包体区域中的前景,构成感兴趣的扫描区域。
3.如权利要求2所述的一种目标物体自动扫描方法,其特征是:所述步骤(3)中,对建筑中的直线型基础设施,直接用直线进行描绘边界,对建筑中的曲线型基础设施,利用多个直线段的依次连接/拼接进行描绘边界;
霍夫转换将从检测到的白色边缘的每个像素映射到参数空间,找到各所在的所有直线段。
4.如权利要求2所述的一种目标物体自动扫描方法,其特征是:所述步骤(4)中,将基于RGB的图像转换为基于HSV的图像,对于每个线段s,将其一定大小区域内的相邻像素作为局部同质区,计算每半个局部同质区中的每个像素的色调值,绘制直方图,其中累积具有相同色调值的像素数量,使用一定宽度像素的黑色填充来包围图像,以避免局部同质区超出四周,局部同质区中的估计天空区域被着色为黑色,其Hue值在直方图中不被累积,建筑物的色调Hue值被视为与其最大直方相对应的中心值,并过滤误报环境线段,获得只有属于建筑物结构的线段集。
5.如权利要求1所述的一种目标物体自动扫描方法,其特征是:所述步骤(6)中,通过为图像像素集分配不同的类标签来创建图像掩码,图像被分成了包括背景、疑似背景、前景和疑似前景四个标记区域;通过使用滑窗技术重新分配它们的标签来检测内部的环境区域;
创建两个高斯混合模型,一个用于提取背景类和疑似背景,另一个用于提取前景类和疑似前景,进行图形切割,并迭代,直到生成只包括背景和前景的二进制图像,提取前景二进制图像为扫描区域。
6.如权利要求1所述的一种目标物体自动扫描方法,其特征是:在进行角度计算前,将得到的感兴趣扫描区域重新调整会初始图片大小,在调整后的图片像素坐标和真实世界坐标之间建立映射关系;
或,使用相机几何模型将调整后的图像转换为归一化平面中的图像;
具体过程包括:
将调整后的扫描区域图像向各向四周进行膨胀,膨胀区域为黑色像素区域;
将膨胀后的图像进行左右两边的延伸,延伸区域为黑色像素区域;
将延伸后的图像转换为平行四边形图像;
创建一个空矩阵,用于存储变换后的图像,在存储过程中,将超过所述空矩阵的区域丢弃,并用黑色填充缺失区域。
7.如权利要求1所述的一种目标物体自动扫描方法,其特征是:得到的角度值包括方位角和高度角,具体过程包括:
计算更新的扫描区域中最小和最大的X轴水平坐标,结合电机的单位旋转角度,确定最小和最大方位角,以最小和最大方位角为起始和结束,以单位旋转角度为间隔,生成方位角序列,电机转到序列该序列中的每一个元素,然后计算OXY坐标系中的扫描区域中相对应的水平坐标;
确定最小和最大高度角,以最小和最大高度角为起始和结束,以单位旋转角度为间隔,生成高度角序列,对于每个高度角元素,电机转动到该元素对应的点,然后在OXY坐标系中计算扫描区域中的对应竖直坐标。
8.如权利要求1所述的一种目标物体自动扫描方法,其特征是:检查水平坐标和竖直坐标形成的点是否在更新的扫描区域内,如果是,当控制电机转动到该点时,根据对应的方位角和高度角角坐标和更新后的扫描区域被扫描的点与激光雷达之间的距离,计算并记录下相机坐标系中的点;如果不是,除了电机旋转到该位置之外,不需要任何其他任何操作;
或,扫描路径为:以最小高度角、方位角对应的点为起点,以最大高度角、方位角对应的点为结束点,以单位旋转角度为间隔,在扫描区域内以S形路线进行逐点扫描。
9.一种目标物体自动扫描系统,其特征是:包括:
机器视觉物体检测模块,被配置为根据扫描仪内相继拍摄的彩色图像,利用机器视觉物体检测算法对其进行处理,得到感兴趣的扫描区域;
坐标映射模块,被配置为建立图片像素坐标和真实世界坐标之间建立映射关系,基于所述映射关系计算与所述扫描区域的各像素相对应的世界坐标相对于激光雷达的角度;
扫描路径控制模块,被配置为以最小和最大角度为边界,构建角度序列,根据序列中各点与扫描区域内被扫描的点与激光雷达之间的距离,计算相机坐标系中对应点,形成扫描路径,按照所述扫描路径控制扫描仪的动作。
10.一种计算机可读存储介质,其特征是:其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行权利要求1-8中任一项所述的一种目标物体自动扫描方法的全部或部分步骤;
或,
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行权利要求1-8中任一项所述的一种目标物体自动扫描方法的全部或部分步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910769319.3A CN110473221B (zh) | 2019-08-20 | 2019-08-20 | 一种目标物体自动扫描系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910769319.3A CN110473221B (zh) | 2019-08-20 | 2019-08-20 | 一种目标物体自动扫描系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110473221A true CN110473221A (zh) | 2019-11-19 |
CN110473221B CN110473221B (zh) | 2020-04-24 |
Family
ID=68512028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910769319.3A Expired - Fee Related CN110473221B (zh) | 2019-08-20 | 2019-08-20 | 一种目标物体自动扫描系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110473221B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008607A (zh) * | 2019-12-11 | 2020-04-14 | 南京航空航天大学 | 一种视觉伺服飞机舱门缝隙自动化激光扫描方法和系统 |
CN111178317A (zh) * | 2020-01-06 | 2020-05-19 | 广东博智林机器人有限公司 | 检测定位方法、系统、装置、电子设备及存储介质 |
CN111563446A (zh) * | 2020-04-30 | 2020-08-21 | 郑州轻工业大学 | 一种基于数字孪生的人-机交互安全预警与控制方法 |
CN111696050A (zh) * | 2020-05-11 | 2020-09-22 | 江苏省互联网行业管理服务中心 | 一种面向工艺参数曲线图的脱敏工具 |
CN112649433A (zh) * | 2020-01-04 | 2021-04-13 | 盛广济 | 根据图像的远程扫描方法 |
CN112881994A (zh) * | 2021-01-15 | 2021-06-01 | 济南浪潮高新科技投资发展有限公司 | 一种自适应激光雷达线束扫描控制方法 |
CN115395646A (zh) * | 2022-08-08 | 2022-11-25 | 北京中润惠通科技发展有限公司 | 一种数字孪生式牵引变电所智慧运维系统 |
WO2023184518A1 (en) * | 2022-04-02 | 2023-10-05 | Shanghai United Imaging Healthcare Co., Ltd. | Automated scanning system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101969523A (zh) * | 2010-10-21 | 2011-02-09 | 西北农林科技大学 | 一种三维扫描装置及三维扫描方法 |
US8021301B2 (en) * | 2003-12-26 | 2011-09-20 | Fujifilm Corporation | Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program |
CN102663760A (zh) * | 2012-04-23 | 2012-09-12 | 苏州大学 | 一种对图像中的车辆挡风镜区域进行定位分割的方法 |
US20170135764A1 (en) * | 2015-11-17 | 2017-05-18 | Biosense Webster (Israel) Ltd. | Guidewire with Ray Tracing Capability |
CN106934777A (zh) * | 2017-03-10 | 2017-07-07 | 北京小米移动软件有限公司 | 扫描图像获取方法及装置 |
-
2019
- 2019-08-20 CN CN201910769319.3A patent/CN110473221B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8021301B2 (en) * | 2003-12-26 | 2011-09-20 | Fujifilm Corporation | Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program |
CN101969523A (zh) * | 2010-10-21 | 2011-02-09 | 西北农林科技大学 | 一种三维扫描装置及三维扫描方法 |
CN102663760A (zh) * | 2012-04-23 | 2012-09-12 | 苏州大学 | 一种对图像中的车辆挡风镜区域进行定位分割的方法 |
US20170135764A1 (en) * | 2015-11-17 | 2017-05-18 | Biosense Webster (Israel) Ltd. | Guidewire with Ray Tracing Capability |
CN106934777A (zh) * | 2017-03-10 | 2017-07-07 | 北京小米移动软件有限公司 | 扫描图像获取方法及装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008607A (zh) * | 2019-12-11 | 2020-04-14 | 南京航空航天大学 | 一种视觉伺服飞机舱门缝隙自动化激光扫描方法和系统 |
CN112649433A (zh) * | 2020-01-04 | 2021-04-13 | 盛广济 | 根据图像的远程扫描方法 |
CN112649433B (zh) * | 2020-01-04 | 2024-08-20 | 光阱(北京)科技有限公司 | 根据图像的远程扫描方法 |
CN111178317A (zh) * | 2020-01-06 | 2020-05-19 | 广东博智林机器人有限公司 | 检测定位方法、系统、装置、电子设备及存储介质 |
CN111563446A (zh) * | 2020-04-30 | 2020-08-21 | 郑州轻工业大学 | 一种基于数字孪生的人-机交互安全预警与控制方法 |
CN111563446B (zh) * | 2020-04-30 | 2021-09-03 | 郑州轻工业大学 | 一种基于数字孪生的人-机交互安全预警与控制方法 |
CN111696050A (zh) * | 2020-05-11 | 2020-09-22 | 江苏省互联网行业管理服务中心 | 一种面向工艺参数曲线图的脱敏工具 |
CN112881994A (zh) * | 2021-01-15 | 2021-06-01 | 济南浪潮高新科技投资发展有限公司 | 一种自适应激光雷达线束扫描控制方法 |
WO2023184518A1 (en) * | 2022-04-02 | 2023-10-05 | Shanghai United Imaging Healthcare Co., Ltd. | Automated scanning system and method |
CN115395646A (zh) * | 2022-08-08 | 2022-11-25 | 北京中润惠通科技发展有限公司 | 一种数字孪生式牵引变电所智慧运维系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110473221B (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473221A (zh) | 一种目标物体自动扫描系统及方法 | |
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
Li et al. | Reconstructing building mass models from UAV images | |
Sirmacek et al. | Performance evaluation for 3-D city model generation of six different DSMs from air-and spaceborne sensors | |
CN106504284A (zh) | 一种基于立体匹配与结构光相结合的深度图获取方法 | |
CN107945267A (zh) | 一种用于人脸三维模型纹理融合的方法和设备 | |
CN113362247A (zh) | 一种激光融合多目相机的语义实景三维重建方法及系统 | |
CN106651900A (zh) | 一种基于轮廓分割的高架原位草莓三维建模方法 | |
CN102507592A (zh) | 表面缺陷仿蝇视觉在线检测装置及检测方法 | |
CN117036641A (zh) | 一种基于双目视觉的公路场景三维重建与缺陷检测方法 | |
CN110246186A (zh) | 一种自动化三维彩色成像与测量方法 | |
CN105574812B (zh) | 多角度三维数据配准方法及装置 | |
CN113793382A (zh) | 视频图像的拼缝搜索方法、视频图像的拼接方法和装置 | |
CN106327576B (zh) | 一种城市场景重建方法及系统 | |
CN111060006A (zh) | 一种基于三维模型的视点规划方法 | |
CN115082254A (zh) | 一种变电站精益管控数字孪生系统 | |
CN110009675A (zh) | 生成视差图的方法、装置、介质及设备 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
Özdemir et al. | A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment | |
CN109064533A (zh) | 一种3d漫游方法及系统 | |
CN118429524A (zh) | 基于双目立体视觉的车辆行驶环境建模方法及系统 | |
Wei et al. | Simulating shadow interactions for outdoor augmented reality with RGBD data | |
Tanner et al. | Meshed up: Learnt error correction in 3D reconstructions | |
CN116402904A (zh) | 一种基于激光雷达间和单目相机的联合标定方法 | |
CN115017968A (zh) | 一种基于U-Net模型的复杂建筑物分类提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200424 |