CN110738618B - 一种基于双目相机的不规则堆料体积测量方法 - Google Patents

一种基于双目相机的不规则堆料体积测量方法 Download PDF

Info

Publication number
CN110738618B
CN110738618B CN201910972066.XA CN201910972066A CN110738618B CN 110738618 B CN110738618 B CN 110738618B CN 201910972066 A CN201910972066 A CN 201910972066A CN 110738618 B CN110738618 B CN 110738618B
Authority
CN
China
Prior art keywords
image
stacking
calculating
formula
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910972066.XA
Other languages
English (en)
Other versions
CN110738618A (zh
Inventor
齐本胜
丁嗣雨
苗红霞
饶星楠
郭章旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN201910972066.XA priority Critical patent/CN110738618B/zh
Publication of CN110738618A publication Critical patent/CN110738618A/zh
Application granted granted Critical
Publication of CN110738618B publication Critical patent/CN110738618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于双目相机的堆料体积测量方法,体积测量方法包括:使用第一工业相机和第二工业相机从不同的视角获取堆料图像对;采用半全局立体匹配算法对所述堆料图像对进行立体匹配,得到堆料图像的视差图和标准点云数据;采用改进的OTSU阈值分割算法对所述视差图进行二值化阈值分割提取出堆料区域信息;基于所述堆料区域信息以及所述标准点云数据计算出所述堆料的体积。本发明提出的基于双目相机的堆料体积测量方法操作简单,体积计算方法效率高、误差低、易于实现。

Description

一种基于双目相机的不规则堆料体积测量方法
技术领域
本发明涉及机器视觉领域,尤其涉及一种基于双目相机的不规则堆料体积测量方法。
背景技术
在工业生产过程中常遇到需要快速测量堆状物料(如煤堆、沙堆、垃圾堆等)体积的情况,而此类堆料一般体积较大且形状不规则,直接测量体积难度大。传统的人工称重等体积测量方法耗费人力,速度慢,误差大,不能满足实际的工业需求。随着双目视觉技术的快速发展,基于双目视觉的体积测量系统得到了广泛的关注。
发明内容
为解决上述技术问题,本发明提出一种基于双目相机的堆料体积测量方法,成本低、计算效率高、易于实现。
为了达到上述目的,本发明采用以下技术方案:
本发明公开了一种基于双目相机的堆料体积测量方法,包括:
S1:使用第一工业相机和第二工业相机从不同的视角获取堆料俯视图像,并进行预处理;
S2:采用半全局立体匹配算法semi-global block matching(SGBM算法)对图像进行立体匹配,求出堆料图像的视差图,并对视差图进行空洞填充,同时计算出视差点对应的三维坐标和深度图像;
S3:采用改进的OTSU阈值分割算法对所述视差图进行二值化阈值分割,将目标与背景分离开来;
S4:分别计算出目标区域和背景区域的平均高度以及目标区域的总面积,最后计算出所述堆料的体积。
优选地,步骤S1中所述第一工业相机和第二工业相机垂直地面架设,将堆料置于两个工业相机的共同视场内。
优选地,步骤S1中预处理具体包括对所述两个工业相机进行双目标定,双目标定的方法为现有技术,譬如参考岳晓峰,祁欢,基于张正友平面模板法的双目立体视觉系统标定[J].机械工程师,2014(02):1-3,获得相机的内外参数,并根据双目标定得到的参数对采集到的堆料的图像对进行立体校正,将其校正为标准双目测距系统中的图像。
优选地,步骤S2具体包括:
S21:采用opencv库中的改进的半全局立体匹配算法semi-global blockmatching(SGBM)算法对步骤S1中立体校正后的堆料图像对进行立体匹配,计算出视差图;改进的SGBM算法参考:[1]张欢,安利,张强,郭迎钢,宋锡宁,高乾,SGBM算法与BM算法分析研究[J].测绘与空间地理信息,2016,39(10):214-216。[2]专利:唐士斌等,基于双目立体视觉匹配的视差图像生成方法及系统,2019,CN109993781A。
S22:对视差图进行一次中值滤波,将小区域的空洞用邻域窗内所有像素值的灰度值的中值填充上;方法参考:侯香,基于RGB-D的人体姿态识别方法研究[D].燕山大学,2015。
S23:采用最邻近插值算法将步骤S22中的视差图中的大区域空洞填充上,用空洞点的周围像素点的值来近似填充该空洞点;
S24:根据对步骤S23得到填充完整后的视差图,采用重投影映射的方法实现像素坐标系与世界坐标系之间的转换,转换的方法参考:胡明星,袁保宗,投影三维重建中基础矩阵的鲁棒性估计方法[J].北方交通大学学报,2001(02):5-9,得到视差图中的点对应的X,Y,Z三维坐标;
S25:将视差图中所有点的Z坐标信息提取出来生成所述堆料图像的深度图像。
优选地,步骤S3具体包括:
S31:提取出步骤S23中得到的视差图;
S32:统计视差图中L种灰度值每一个灰度值i对应的像素点数ni(0≤i≤L);
S33:设t(0≤t≤L)为前景和背景之间的分割阈值,设灰度值为[0,t]范围内的点为背景部分,设灰度值为[t+1,L]范围内的点为前景部分;
S34:利用公式1计算背景像素点占整幅图像的比例p0,利用公式2计算前景像素点占整幅图像的比例p1
Figure GDA0002269806520000031
Figure GDA0002269806520000032
其中,N为视差图的像素点总数;
S35:利用公式3计算背景区域平均灰度值u0,利用公式4计算前景区域平均灰度值u1
Figure GDA0002269806520000033
Figure GDA0002269806520000034
S36:利用公式5计算视差图的平均灰度值u;
u=p0×u0+p1×u1   (5)
S37:利用公式6计算出灰度直方图中分割阈值邻域内所有像素点的概率总和Pt,作为类间方差函数的权重;
Figure GDA0002269806520000035
S38:利用公式7构建新的类间方差函数g';
g'=Pt[p0×(u0-u)2+p1×(u1-u)2]   (7)
S39:t在[0,L]的范围内遍历,直到找到一个t使得g'值最大,记作T,即
Figure GDA0002269806520000036
S310:以T为阈值,将视差图二值化分割,提取出前景区域,分别保存背景区域和目标区域的深度信息。
优选地,步骤S4具体包括:
S41:根据步骤S3提取出的背景区域和目标区域的深度信息,求出背景区域的平均深度,记为Z0;求出目标区域的平均深度,记为Z1
S42:利用公式8计算出所述堆料的平均高度h;
h=Z0-Z1   (8)
S43:分别提取出步骤S24深度图像的左上角和右下角顶点的三维坐标A(XA,YA,ZA)、B(XB,YB,ZB)。利用公式9计算出整幅深度图像对应的实际平面面积S;
S=(XB-XA)*(YB-YA)   (9)
S44:利用公式10计算出前景区域(堆料区域)的实际面积S0
S0=S×p0   (10)
S45:利用体积计算公式V=S0*h求出所述堆料的体积V。
与现有技术相比,本发明的有益效果在于:本发明公开的堆料体积测量方法,硬件方面只需要在堆料上方架设两个摄像头,尽可能保证摄像头垂直地面拍摄即可,软件方面无需对堆体进行三维重建,直接通过对相机采集到的堆料图像进行处理即可得出堆料的体积,系统具有成本低、编程简单,操作方便的特点。
进一步地,市场上的大部分双目视觉测体积的方法都需要借助结构光,但是这种基于结构光的体积测量方法在测量静态堆料时需要保证激光扫描仪以固定的速率平稳地滑动,直至完全扫描堆料才能获得堆料表面所有点的信息,对电机等配套驱动设施有较高要求,系统操作复杂且成本高;而本发明只需要两个工业相机,无需借助其他设备,成本低。
附图说明
图1是本发明优选实施例的基于双目相机的不规则堆料体积测量方法的流程示意图;
图2是本发明优选实施例的采集图像硬件示意图;
图3是堆料图像对立体匹配后得到的视差图的示意图;
图4是对图5进行空洞填充后得到的新的视差图的示意图;
图5是对图6进行预处理后得到的图像的示意图;
图6是对视差图中的堆料区域进行目标提取后得到的图像的示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1、图2所示,本发明优选实施例的基于双目相机的不规则堆料体积测量方法包括以下步骤:
S1:使用第一工业相机和第二工业相机从不同的视角获取堆料俯视图像,并进行预处理;
具体地,首先对所述两个工业相机进行双目标定(例如采用张正友标定法),获得相机的内外参数,接着根据双目标定得到的参数对采集到的堆料的图像对进行立体校正,将其校正为标准双目测距系统中的图像。在本实施例中,所述第一工业相机和第二工业相机应尽可能垂直地面架设,即便角度稍有偏差也可以,在此不做严格限制。
S2:采用SGBM算法对图像进行立体匹配,求出堆料图像的视差图,并对视差图进行空洞填充,同时计算出视差点对应的三维坐标和深度图像;
具体包括以下步骤:
S21:采用opencv库中的改进的半全局立体匹配算法semi-global blockmatching(SGBM)算法对步骤S1中立体校正后的堆料图像对进行立体匹配,计算出堆料图像的视差图,如图3;
S22:采用SGBM算法立体匹配后得到的视差图(如图3)中不可避免地会有很多空洞,即误匹配的点,因此需要将视差图中的空洞用合适的视差值填充上。本实例设定了一个最小视差限值minDisparity,定义所有小于minDisparity的点为空洞点。为了填充视差图中的空洞点,实例先对视差图进行一次中值滤波,将小区域的空洞用邻域窗内所有像素值的灰度值的中值填充上,过滤掉视差图中的离散点,也增强视差图深度信息的连续性。
S23:接着本实例采用最邻近插值算法将大区域的空洞填充上,用空洞点的周围像素点的值来近似填充该空洞点,得到如图4所示的视差图。
S24:根据步骤S23得到空洞填充后的视差图,采用重投影映射的方法实现像素坐标系与世界坐标系之间的转换,得到视差图中的点对应的X,Y,Z三维坐标;
S25:将视差图中所有点的Z坐标信息提取出来生成所述堆料图像的深度图。
S3:采用改进的OTSU阈值分割算法对所述视差图进行二值化阈值分割,将图4中的堆料和背景分离出来;
首先对视差图像(图4)和深度图像进行相同的裁剪去除黑边,接着将图4的灰度范围扩大到0~255,以便于更直观地观察处理结果,得到图5。
设t(0≤t≤L)为图5中前景和背景之间的分割阈值,t从0到L递增,求出对应的背景像素点占整幅图像的比例为p0,背景区域的平均灰度值为u0,前景像素点占整幅图像的比例为p1,前景区域的平均灰度值为u1。利用公式u=p0×u0+p1×u1计算视差图的平均灰度值u。计算出灰度直方图中分割阈值邻域内所有像素点的概率总和
Figure GDA0002269806520000061
作为类间方差函数的权重,构建新的类间方差函数g'=Pt[p0×(u0-u)2+p1×(u1-u)2]。找到一个t使得g'最大,记为T,即
Figure GDA0002269806520000062
以T为阈值对图5进行二值化阈值分割,得到图6。
S4:分别计算出图6中目标区域和背景区域的平均高度以及目标区域的总面积,最后计算出所述堆料的体积。包括以下步骤:
S41:分别提取出图6中背景区域和目标区域的深度信息,求出背景区域的平均深度,记为Z0;求出目标区域的平均深度,记为Z1。由于步骤S25所述深度图像中储存的像素值为物点到摄像头的距离,所以本实例中堆料的平均高度为h=Z0-Z1
S42:分别提取出深度图像的左上角和右下角顶点的三维坐标A(XA,YA,ZA)、B(XB,YB,ZB)。则图6对应的实际平面面积为A、B两点之间的实际X方向距离和Y方向距离的乘积,即S=ΔX*ΔY=(XB-XA)*(YB-YA)。
S43:统计步骤S3中提取出的目标区域的像素点总数,计算出目标区域像素点占整幅图像像素点的比值p0。用p0乘以步骤S25所述深度图像对应的实际面积就可以求出目标区域的实际面积S0,即S0=S×p0
S44:利用体积计算公式V=S0*h求出本实例中堆料的体积。
根据上述步骤,本发明优选实施例基于双目相机即可实现对不规则堆料体积的测量,本发明实例在硬件方面只需要在堆料上方架设两个摄像头,尽可能保证摄像头垂直地面拍摄即可;在软件方面无需对堆体进行三维重建,直接通过对相机采集到的堆料图像进行处理即可得出堆料的体积,本发明优选实施例的基于双目相机的不规则堆料体积测量方法具有成本低、编程简单,操作方便的特点。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (4)

1.一种基于双目相机的不规则堆料体积测量方法,其特征在于,包括如下步骤:
S1:使用第一工业相机和第二工业相机从不同的视角获取堆料俯视图像,并进行预处理;
S2:采用SGBM算法对图像进行立体匹配,求出堆料图像的视差图,并对视差图进行空洞填充,同时计算出视差点对应的三维坐标和深度图像;
S3:采用改进的OTSU阈值分割算法,对所述视差图进行二值化阈值分割,将目标与背景分离开来;
所述步骤S3具体包括:
S31:提取出步骤S23中得到的视差图;
S32:统计视差图中L种灰度值中每一个灰度值i对应的像素点数ni,0≤i≤L;
S33:设t,0≤t≤L,为前景和背景之间的分割阈值,设灰度值为[0,t]范围内的点为背景部分,设灰度值为[t+1,L]范围内的点为前景部分;
S34:利用公式(1)计算背景像素点占整幅图像的比例p0,利用公式(2)计算前景像素点占整幅图像的比例p1
Figure FDA0004161671530000011
Figure FDA0004161671530000012
其中,N为视差图的像素点总数;
S35:利用公式(3)计算背景区域平均灰度值u0,利用公式(4)计算前景区域平均灰度值u1
Figure FDA0004161671530000013
Figure FDA0004161671530000014
S36:利用公式(5)计算视差图的平均灰度值u;
u=p0×u0+p1×u1            (5)
S37:利用公式(6)计算出灰度直方图中分割阈值邻域内所有像素点的概率总和Pt,作为类间方差函数的权重;
Figure FDA0004161671530000021
S38:利用公式(7)构建新的类间方差函数g';
Figure FDA0004161671530000022
S39:t在[0,L]的范围内遍历,直到找到一个t使得g'值最大,记作T,即
Figure FDA0004161671530000023
S310:以T为阈值,将视差图二值化分割,提取出前景区域,分别保存背景区域和目标区域的深度信息;
S4:分别计算出目标区域和背景区域的平均高度以及目标区域的总面积,最后计算出所述堆料的体积;
所述步骤S4具体包括:
S41:根据步骤S3提取出的背景区域和目标区域的深度信息,求出背景区域的平均深度,记为Z0;求出目标区域的平均深度,记为Z1
S42:利用公式(8)计算出所述堆料的平均高度h;
h=Z0-Z1                          (8)
S43:分别提取出深度图像的左上角和右下角顶点的三维坐标A(XA,YA,ZA)、B(XB,YB,ZB);利用公式(9)计算出整幅深度图像对应的实际平面面积S;
S=(XB-XA)*(YB-YA)             (9)
S44:利用公式(10)计算出前景区域,即堆料区域的实际面积S0
S0=S×p0                  (10)
S45:利用体积计算公式V=S0*h求出所述堆料的体积V。
2.根据权利要求1所述的一种基于双目相机的不规则堆料体积测量方法,其特征在于所述步骤S1中第一工业相机和第二工业相机垂直地面架设,将堆料置于两个工业相机的共同视场内。
3.根据权利要求1所述的一种基于双目相机的不规则堆料体积测量方法,其特征在于所述步骤S1中的预处理包括对两个工业相机进行双目标定,获得相机的内外参数,并根据双目标定得到的参数对采集到的堆料的图像对进行立体校正,将其校正为标准双目测距系统中的图像。
4.根据权利要求1所述的一种基于双目相机的不规则堆料体积测量方法,其特征在于所述步骤S2具体包括:
S21:采用opencv库中的改进的SGBM算法对步骤S1中立体校正后的堆料图像对进行立体匹配,计算出视差图;
S22:对视差图进行一次中值滤波,将小区域的空洞用邻域窗内所有像素值的灰度值的中值填充上;
S23:采用最邻近插值算法将步骤S22中的视差图中的大区域空洞填充上,用空洞点的周围像素点的值来近似填充该空洞点;
S24:根据对步骤S23得到空洞填充后的视差图,采用重投影映射的方法实现像素坐标系与世界坐标系之间的转换,得到视差图中的点对应的X,Y,Z三维坐标;
S25:将视差图中所有点的Z坐标信息提取出来生成所述堆料图像的深度图像。
CN201910972066.XA 2019-10-14 2019-10-14 一种基于双目相机的不规则堆料体积测量方法 Active CN110738618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910972066.XA CN110738618B (zh) 2019-10-14 2019-10-14 一种基于双目相机的不规则堆料体积测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910972066.XA CN110738618B (zh) 2019-10-14 2019-10-14 一种基于双目相机的不规则堆料体积测量方法

Publications (2)

Publication Number Publication Date
CN110738618A CN110738618A (zh) 2020-01-31
CN110738618B true CN110738618B (zh) 2023-05-16

Family

ID=69270031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910972066.XA Active CN110738618B (zh) 2019-10-14 2019-10-14 一种基于双目相机的不规则堆料体积测量方法

Country Status (1)

Country Link
CN (1) CN110738618B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111266315A (zh) * 2020-02-20 2020-06-12 南京工程学院 基于视觉分析的矿石物料在线分拣系统及其方法
CN111429504B (zh) * 2020-03-02 2022-02-01 武汉大学 基于三维点云的物料堆自动提取和体积测量方法及系统
CN112053324A (zh) * 2020-08-03 2020-12-08 上海电机学院 一种基于深度学习的复杂物料体积测量方法
CN112017234B (zh) * 2020-08-25 2022-11-18 河海大学常州校区 一种基于稀疏点云重建的堆料体积测量方法
CN112932335B (zh) * 2021-01-29 2022-12-16 深圳银星智能集团股份有限公司 基站的垃圾清理方法及基站
CN113640177B (zh) * 2021-06-29 2024-06-14 阿里巴巴创新公司 货物密度测量方法、系统以及电子设备
CN116665139B (zh) * 2023-08-02 2023-12-22 中建八局第一数字科技有限公司 堆状物料体积识别方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679707A (zh) * 2013-11-26 2014-03-26 西安交通大学 基于双目相机视差图的道路障碍物检测系统及检测方法
CN108335350A (zh) * 2018-02-06 2018-07-27 聊城大学 双目立体视觉的三维重建方法
CN109523528A (zh) * 2018-11-12 2019-03-26 西安交通大学 一种基于无人机双目视觉sgc算法的输电线路提取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679707A (zh) * 2013-11-26 2014-03-26 西安交通大学 基于双目相机视差图的道路障碍物检测系统及检测方法
CN108335350A (zh) * 2018-02-06 2018-07-27 聊城大学 双目立体视觉的三维重建方法
CN109523528A (zh) * 2018-11-12 2019-03-26 西安交通大学 一种基于无人机双目视觉sgc算法的输电线路提取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
双目立体视觉的测距技术研究;吴保烁等;《电视技术》;20180705(第07期);全文 *

Also Published As

Publication number Publication date
CN110738618A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN110738618B (zh) 一种基于双目相机的不规则堆料体积测量方法
CN110363858B (zh) 一种三维人脸重建方法及系统
CN107977997B (zh) 一种结合激光雷达三维点云数据的相机自标定方法
CN106709947B (zh) 一种基于rgbd相机的三维人体快速建模系统
CN102592124B (zh) 文本图像的几何校正方法、装置和双目立体视觉系统
US9025862B2 (en) Range image pixel matching method
EP2064675A1 (en) Method for determining a depth map from images, device for determining a depth map
Zou et al. A method of stereo vision matching based on OpenCV
CN106981081A (zh) 一种基于深度信息提取的墙面平整度检测方法
CN114820976B (zh) 融合遥感影像与拍摄影像的农村建筑建模方法、系统及存储介质
CN113140036B (zh) 一种三维建模方法、装置、设备及存储介质
CN105335952B (zh) 匹配代价计算方法和装置、以及视差值计算方法和设备
CN113192179A (zh) 一种基于双目立体视觉的三维重建方法
CN110008779A (zh) 一种立体二维码处理方法及装置
CN112017234B (zh) 一种基于稀疏点云重建的堆料体积测量方法
CN113112588A (zh) 基于rgb-d深度相机重建的地下管井三维可视化方法
CN107220996A (zh) 一种基于三角结构一致的无人机线阵与面阵影像匹配方法
CN110942102B (zh) 一种概率松弛核线匹配方法及系统
CN111047678B (zh) 一种三维人脸采集装置和方法
CN113345084B (zh) 三维建模系统及三维建模方法
CN114612412A (zh) 三维点云数据的处理方法及其用途、电子设备、存储介质
CN111126418A (zh) 一种基于平面透视投影的倾斜影像匹配方法
CN109754381A (zh) 一种图像处理方法及系统
CN110969650B (zh) 一种基于中心投影的强度图像与纹理序列间的配准方法
CN115719320B (zh) 基于遥感影像的倾斜校正稠密匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant