CN116188558A - 基于双目视觉的立体摄影测量方法 - Google Patents

基于双目视觉的立体摄影测量方法 Download PDF

Info

Publication number
CN116188558A
CN116188558A CN202310464266.0A CN202310464266A CN116188558A CN 116188558 A CN116188558 A CN 116188558A CN 202310464266 A CN202310464266 A CN 202310464266A CN 116188558 A CN116188558 A CN 116188558A
Authority
CN
China
Prior art keywords
cost
image
aggregation
matching
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310464266.0A
Other languages
English (en)
Other versions
CN116188558B (zh
Inventor
于复兴
王然
索依娜
宁学斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China University of Science and Technology
Original Assignee
North China University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China University of Science and Technology filed Critical North China University of Science and Technology
Priority to CN202310464266.0A priority Critical patent/CN116188558B/zh
Publication of CN116188558A publication Critical patent/CN116188558A/zh
Priority to PCT/CN2023/104336 priority patent/WO2024032233A1/zh
Application granted granted Critical
Publication of CN116188558B publication Critical patent/CN116188558B/zh
Priority to ZA2023/08186A priority patent/ZA202308186B/en
Priority to US18/541,978 priority patent/US11959744B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于双目视觉的立体摄影测量方法,包含以下步骤:图像采集、图像矫正、立体匹配,分别对矫正后不同尺寸的图像进行代价匹配和代价聚合,代价匹配,把图像像素代价、颜色代价和梯度代价相融合,得到图像的匹配代价;代价聚合,对不同尺寸图像的代价匹配所得代价采用最小生成树和扫描线优化的聚合策略,计算并获得每个尺寸图像的初始视差图;再根据多尺寸聚合模型,获取原始尺寸图像的最优聚合代价;对所得聚合代价进行视差计算与视差优化,获取视差图;对矫正图片进行图像分割,确定待测量物体边缘像素点;构建坐标系计算待测物体边缘像素距离,完成物体尺寸测量。本发明方法增强了待测物体轮廓像素的匹配精度,提高了测量精度。

Description

基于双目视觉的立体摄影测量方法
技术领域
本发明涉及立体摄影测量领域,具体是一种基于双目视觉的立体摄影测量方法。
背景技术
在工业生产过程中,对产品参数的检测、记录和控制是十分重要的。人工检测其测量的周期长且浪费人力,对于一些不易测量的产品还可能存在人身安全的潜在危险。
根据获取被测物体三维信息的方法可以分为被动视觉测量和主动视觉测量。被动视觉测量方法不需要特殊的照明投射装置,仅利用相机拍拍摄被测物体的图像,建立被测物体与相机间的相对位置关系,从而获取被测物体的三维信息。基于双目视觉的测距方法不仅能够对物体的尺寸进行精度测量,而且可以应用于各种各样的环境中,因此对双目视觉的尺寸测量研究具有重要的研究价值和应用价值。
目前在立体摄影测量领域,主要采用立体匹配算法对双目相机拍摄图像进行立体匹配获取深度图,然后进行三维重建,测量物体的尺寸。针对测量步骤中重要的立体匹配算法,出现了一些改进方法,如Hirschmüller综合了全局立体匹配算法和局部立体匹配算法的优缺点,提出了半全局立体匹配算法SGM。Humenberger在SGM的基础上,提出了一种使用Census变换和汉明距离计算代价的方法,以降低算法的时间复杂度和内存消耗。王云峰等针对单一匹配代价无法获得高精度视差图问题,将绝对差代价(AD)与Census代价相结合,以获得更准确的匹配精度。然而,局部立体匹配算法仍然存在匹配精度低的问题,导致测量物体尺寸的误差较大。
发明内容
为解决背景技术中涉及的问题,本发明提出一种基于双目视觉的立体摄影测量方法用于双目摄影设备拍摄的同一物体的尺寸测量。
本发明采用以下的技术方案:一种基于基于双目视觉的立体摄影测量方法包括以下步骤:
步骤一:采用双目相机对物体进行拍摄,获取左、右两个相机拍摄的图像,并利用相机内外参数对照片进行矫正,使图片矫正为在同一平面拍摄所得;
步骤二:将矫正后的照片图像进行连续下采样,获得不同尺寸的图像;
步骤三:立体匹配,分别对步骤二中不同尺寸的图像进行代价匹配和代价聚合,
代价匹配,把图像像素代价、颜色代价和梯度代价相融合,得到图像的匹配代价;利用图像的三个颜色分量RBG差的绝对值取平均作为颜色代价,同时利用Sobel算子算法获取图像梯度信息,将图像梯度差的绝对值取平均作为梯度代价;
代价聚合,对不同尺寸图像的代价匹配所得代价采用最小生成树和扫描线优化的聚合策略,计算并获得每个尺寸图像的初始视差图;再根据多尺寸聚合模型,获取原始尺寸图像的最优聚合代价;
步骤四:对所得聚合代价进行视差计算与视差优化,获取视差图;
步骤五:对矫正图片进行图像分割,确定待测量物体边缘像素点;
步骤六:根据三角测量法,计算出待测物体边缘像素点深度,计算出各顶点距离相机的距离,构建顶点现实世界的三维坐标,完成物体尺寸测量。
与现有技术相比,本发明的有益效果:
代价计算阶段,使用图像像素代价与颜色代价、梯度代价相融合作为匹配代价,增强了待测物体轮廓像素的匹配精度。
代价聚合阶段,使用最小生成树和扫描线优化聚合相结合,且使用多个尺寸图像获取聚合代价进行融合,获取的视差图更精准,令物体尺寸测量精度更高。
附图说明
图1:本发明测量方法整体流程图;
图2:最小生成树自底向上和自顶向下代价聚合;
图3:扫描线优化聚合方向;
图4:三角测量原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1所示,本发明的基于双目视觉的立体摄影测量方法,采用经过标定后的双目相机对图像进行采集和对图像矫正的图像采集模块、对矫正后图像像素点进行匹配的立体匹配模块、对矫正图像进行图像分割获取获取待测物体并使用最小四边形框出物体轮廓的图像分割模块以及根据立体匹配所得视差图和图像分割获得待测物体轮廓四边形坐标获取物体真实尺寸的尺寸测量模块。该方法具体步骤为:
S1、图像采集;使用进行过相机标定后的双目立体视觉相机对图像进行拍摄,获取左、右相机拍摄的彩色图像。根据相机标定所得的相机内外参数,对图像进行立体矫正和极线对齐处理,得到矫正后图片。
S2、将矫正后的照片图像进行连续4次下采样,下采样操作缩小了图片尺寸,并保留了部分有效信息,获得5张不同尺寸的图像 。
S3、立体匹配
S3.1、代价计算;双目图像转换为灰度图像,以左图的灰度图像上的待匹配像素点为中心建立9×7的匹配窗口。将中心像素点上下左右4个方向的2间隔像素点分别与中心像素点求平均值,并选出最大值和最小值。然后将窗口内各像素点分别与中心像素点、最大值和最小值作比较,最后计算它们的代价均值作为图像像素代价;双目图像根据RGB三色通道不同,得到三通道颜色信息。将左图RGB值分别与右图RGB求差,设置颜色阈值为7将颜色之差大于7的差值取为7,取差的平均绝对值作为颜色代价;分别对左右图使用Sobel算子算法获取图像梯度信息,将左图梯度值分别与右图梯度求差,设置梯度阈值为2将梯度差大于2的差值取为2,取差的平均绝对值作为梯度代价;将颜色代价和梯度代价以0.11:0.89的权重进行相加,得到联合代价。将图像像素代价和联合代价,采用归一化结合的方法进行融合,得到代价匹配代价。图像像素代价和联合代价的融合权值分别为15和35,融合公式为C(p,d)=2-exp(-CAG(p,d)/35)-exp(-CCensus(p,d)/15),式中CAG为颜色代价和梯度代价的联合代价 ,CCensus为像素代价。
S3.2、代价聚合;根据最小生成树原理,把图像视为一个四联通区域,图像两点构成的边的权值为像素灰度值之差,其值代表相邻像素的相似度来构建最小生成树。针对图像生成的最小生成树,其聚合方法如图2所示,图像左侧最小生成树为自底向上聚合,以节点V4为例,计算V4节点的聚合代价值,直接计算子节点(V3,V4)和(V5,V4)的聚合值与他们各自权值乘积的集合,从最小生成树底部一层层计算直到根节点。经过自底向上聚合后,需要进行自顶向下聚合。图像右侧最小生成树为自顶向下聚合,以节点V3为例,此时我们假设V3为根节点,它的父节点V4转换成了它的子节点,V3节点的聚合代价与V4聚合代价计算方式相同,但V3节点的聚合代价计算需要加上V4节点的聚合值与它的权值乘积,而V4节点的聚合值已经考虑了V3节点的影响,因此需要先将V4节点聚合值减去V3节点的聚合值,将差值与节点权值相乘并与V3节点代价相加作为V3代价。其他节点自顶向下依次计算聚合代价,结果为最终最小生成树代价。完成最小生成树聚合后,为了进一步缓解匹配歧义,采用扫描线优化聚合策略进行聚合。扫描线方向如图3所示,四个扫描线优化是相互独立的,分别从上、下、左和右四个方向对代价进行聚合,最后将四个方向的优化代价取平均值作为聚合代价结果。
S4、获取视差图;使用5张不同尺寸图像分别进行S3.1和S3.2步骤,获取每个尺寸图像的视差图。再根据多尺寸聚合模型,获取原始尺寸图像的最优聚合代价;
视差计算与优化;在最优聚合代价采用赢者通吃算法,确定每个像素最小代价所对应视差值,确定初始视差图。对视差图进行视差优化采用一致性检查、唯一性检测及中值滤波方法,得到最优视差图。
S5、图像分割,应用Segment Anything算法的API实现对图像的分割,由mask_generator.generate()函数获取图像的所有蒙版;使用鼠标对图像待测物测进行点选,根据点选坐标点对蒙版进行选取,得到待测物体蒙版。对待测物体蒙版区域进行最小四边形拟合,得到最小四边形顶点坐标。
S6、尺寸测量;根据三角测量法,计算出待测物体边缘像素点深度。原理如图4所示,点P为待测物体上的某一点,Ol和Or分别为两个相机的光心,点P在两个相机感光器上的成像点分别为Xl和Xr,Xl和Xr分别为成像点Xl和Xr到各自平面左边缘的距离,f为相机焦距,B为两相机中心距,Z为欲求得的深度信息,经过矫正后两个相机像平面精准位于同一平面上,利用三角形关系,得到像素点距离相机的距离
Figure SMS_1
。通过S5中所得待测物体的最小四边形顶点坐标,计算出各顶点距离相机的距离,即得出了各顶点现实世界的三维坐标。使用欧式方程,计算出四个顶点间的真实距离,至此实现了对物体尺寸的测量。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.基于双目视觉的立体摄影测量方法,其特征在于,包含以下步骤:
步骤一:采用双目相机对物体进行拍摄,获取左、右两个相机拍摄的图像,并利用相机内外参数对照片进行矫正,使图片矫正为在同一平面拍摄所得;
步骤二:将矫正后的照片图像进行连续下采样,获得不同尺寸的图像;
步骤三:立体匹配,分别对步骤二中不同尺寸的图像进行代价匹配和代价聚合,
代价匹配,把图像像素代价、颜色代价和梯度代价相融合,得到图像的匹配代价;利用图像的三个颜色分量RBG差的绝对值取平均作为颜色代价,同时利用Sobel算子算法获取图像梯度信息,将图像梯度差的绝对值取平均作为梯度代价;
代价聚合,对不同尺寸图像的代价匹配所得代价采用最小生成树和扫描线优化的聚合策略,计算并获得每个尺寸图像的初始视差图;再根据多尺寸聚合模型,获取原始尺寸图像的最优聚合代价;
步骤四:对所得聚合代价进行视差计算与视差优化,获取视差图;
步骤五:对矫正图片进行图像分割,确定待测量物体边缘像素点;
步骤六:根据三角测量法,计算出待测物体边缘像素点深度,计算出各顶点距离相机的距离,构建顶点现实世界的三维坐标,完成物体尺寸测量。
2.根据权利要求1所述的基于双目视觉的立体摄影测量方法,其特征在于,所述步骤二中将矫正后的照片图像进行连续4次下采样,下采样操作缩小了图片尺寸,并保留了部分有效信息,获得5张不同尺寸的图像。
3.根据权利要求1所述的基于双目视觉的立体摄影测量方法,其特征在于,所述步骤三中的图像像素代价是将中心像素点上下左右4个方向的2间隔像素与中心点进行平均运算,选出最大值和最小值,然后将窗口内各个像素点分别与中心像素点、最大值和最小值作比较,最后计算它们的代价均值作为图像像素代价,将颜色代价和梯度代价以0.11:0.89的权重进行相加,得到联合代价,将图像像素代价和联合代价,采用归一化结合的方法进行融合,得到代价匹配代价。
4.根据权利要求3所述的基于双目视觉的立体摄影测量方法,其特征在于,图像像素代价和联合代价的融合权值分别为15和35,融合公式为C(p,d)=2-exp(-CAG(p,d)/35)-exp(-CCensus(p,d)/15),式中CAG为颜色代价和梯度代价的联合代价 ,CCensus为像素代价。
5.根据权利要求1所述的基于双目视觉的立体摄影测量方法,其特征在于,所述步骤三中的代价聚合使用最小生成树把图像视为一个四联通区域的图,将两像素点形成的边的权值定义为像素点的灰度差值,通过自底向上和自顶向下方法遍历最小生成树,得到最小生成树聚合代价;然后使用扫描线优化聚合策略,依次从图像不同方向,利用前一像素点聚合代价确定当前像素点聚合代价,最后利用各尺寸图像的聚合代价获取原始尺寸图像的最优聚合代价。
6.根据权利要求1所述的基于双目视觉的立体摄影测量方法,其特征在于,所述步骤四中视差计算为选取每个像素的最小聚合代价所对应的视差值作为最终视差,视差优化采用一致性检查、唯一性检测及中值滤波方法,其中,一致性检查用于检查视差图中的不一致性像素,唯一性检测用于检测视差图中的不唯一性像素,而中值滤波用于平滑视差图中的噪声。
7.根据权利要求1所述的基于双目视觉的立体摄影测量方法,其特征在于,所述步骤五利用图像分割技术对矫正后的图像进行图像分割,得到待测物体的轮廓信息,并使用最小四边形框出物体轮廓,获取四边形四个顶点的坐标。
8.根据权利要求1所述的基于双目视觉的立体摄影测量方法,其特征在于,所述步骤六中,各顶点距离相机的距离计算步骤:点P为待测物体上的某一点,Ol和Or分别为两个相机的光心,点P在两个相机感光器上的成像点分别为Xl和Xr,Xl和Xr分别为成像点Xl和Xr到各自平面左边缘的距离,f为相机焦距,B为两相机中心距,Z为欲求得的深度信息,经过矫正后两个相机像平面精准位于同一平面上,利用三角形关系,得到像素点距离相机的距离
Figure QLYQS_1
;通过S5中所得待测物体的最小四边形顶点坐标,计算出各顶点距离相机的距离,即得出了各顶点现实世界的三维坐标,使用欧式方程,计算出四个顶点间的真实距离,至此实现了对物体尺寸的测量。/>
CN202310464266.0A 2023-04-27 2023-04-27 基于双目视觉的立体摄影测量方法 Active CN116188558B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202310464266.0A CN116188558B (zh) 2023-04-27 2023-04-27 基于双目视觉的立体摄影测量方法
PCT/CN2023/104336 WO2024032233A1 (zh) 2023-04-27 2023-06-30 基于双目视觉的立体摄影测量方法
ZA2023/08186A ZA202308186B (en) 2023-04-27 2023-08-24 Stereophotogrammetric method based on binocular vision
US18/541,978 US11959744B1 (en) 2023-04-27 2023-12-15 Stereophotogrammetric method based on binocular vision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310464266.0A CN116188558B (zh) 2023-04-27 2023-04-27 基于双目视觉的立体摄影测量方法

Publications (2)

Publication Number Publication Date
CN116188558A true CN116188558A (zh) 2023-05-30
CN116188558B CN116188558B (zh) 2023-07-11

Family

ID=86452580

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310464266.0A Active CN116188558B (zh) 2023-04-27 2023-04-27 基于双目视觉的立体摄影测量方法

Country Status (4)

Country Link
US (1) US11959744B1 (zh)
CN (1) CN116188558B (zh)
WO (1) WO2024032233A1 (zh)
ZA (1) ZA202308186B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721109A (zh) * 2023-08-11 2023-09-08 合肥图迅电子科技有限公司 一种双目视觉图像半全局匹配方法
WO2024032233A1 (zh) * 2023-04-27 2024-02-15 华北理工大学 基于双目视觉的立体摄影测量方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985128A (zh) * 2014-05-23 2014-08-13 南京理工大学 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN104794713A (zh) * 2015-04-15 2015-07-22 同济大学 基于arm和双目视觉的温室作物数字化成像方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
WO2018127007A1 (zh) * 2017-01-03 2018-07-12 成都通甲优博科技有限责任公司 深度图获取方法及系统
CN109493373A (zh) * 2018-11-07 2019-03-19 上海为森车载传感技术有限公司 一种基于双目立体视觉的立体匹配方法
CN109887021A (zh) * 2019-01-19 2019-06-14 天津大学 基于跨尺度的随机游走立体匹配方法
CN110473217A (zh) * 2019-07-25 2019-11-19 沈阳工业大学 一种基于Census变换的双目立体匹配方法
CN111754588A (zh) * 2020-06-30 2020-10-09 江南大学 一种基于方差的自适应窗口大小的双目视觉匹配方法
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法
CN114120012A (zh) * 2021-11-29 2022-03-01 江苏科技大学 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN114255286A (zh) * 2022-02-28 2022-03-29 常州罗博斯特机器人有限公司 一种多视角双目视觉感知的目标尺寸测量方法
CN115995074A (zh) * 2022-12-26 2023-04-21 淮安中科晶上智能网联研究院有限公司 一种基于改进半全局立体匹配算法的无人车测距方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589B (zh) * 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
TWI538476B (zh) * 2014-03-24 2016-06-11 立普思股份有限公司 立體攝影系統及其方法
CN108682026B (zh) * 2018-03-22 2021-08-06 江大白 一种基于多匹配基元融合的双目视觉立体匹配方法
CN111260597B (zh) * 2020-01-10 2021-12-03 大连理工大学 一种多波段立体相机的视差图像融合方法
EP3937137A1 (en) * 2020-07-07 2022-01-12 X-Rite Europe GmbH Visualizing the appearances of at least two materials
CN113763269B (zh) * 2021-08-30 2023-11-24 上海工程技术大学 一种用于双目图像的立体匹配方法
CN116188558B (zh) * 2023-04-27 2023-07-11 华北理工大学 基于双目视觉的立体摄影测量方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985128A (zh) * 2014-05-23 2014-08-13 南京理工大学 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN104794713A (zh) * 2015-04-15 2015-07-22 同济大学 基于arm和双目视觉的温室作物数字化成像方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
WO2018127007A1 (zh) * 2017-01-03 2018-07-12 成都通甲优博科技有限责任公司 深度图获取方法及系统
CN109493373A (zh) * 2018-11-07 2019-03-19 上海为森车载传感技术有限公司 一种基于双目立体视觉的立体匹配方法
CN109887021A (zh) * 2019-01-19 2019-06-14 天津大学 基于跨尺度的随机游走立体匹配方法
CN110473217A (zh) * 2019-07-25 2019-11-19 沈阳工业大学 一种基于Census变换的双目立体匹配方法
CN111754588A (zh) * 2020-06-30 2020-10-09 江南大学 一种基于方差的自适应窗口大小的双目视觉匹配方法
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法
CN114120012A (zh) * 2021-11-29 2022-03-01 江苏科技大学 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN114255286A (zh) * 2022-02-28 2022-03-29 常州罗博斯特机器人有限公司 一种多视角双目视觉感知的目标尺寸测量方法
CN115995074A (zh) * 2022-12-26 2023-04-21 淮安中科晶上智能网联研究院有限公司 一种基于改进半全局立体匹配算法的无人车测距方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张杰 等: ""基于改进 Census 变换和自适应权重的立体匹配算法"", 《电子测量技术》, vol. 45, no. 23, pages 45 - 52 *
郁怀波 等: ""基于多特征融合与树形结构代价聚合的立体匹配算法"", 《上海大学学报(自然科学版)》, vol. 25, no. 1, pages 66 - 74 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024032233A1 (zh) * 2023-04-27 2024-02-15 华北理工大学 基于双目视觉的立体摄影测量方法
CN116721109A (zh) * 2023-08-11 2023-09-08 合肥图迅电子科技有限公司 一种双目视觉图像半全局匹配方法
CN116721109B (zh) * 2023-08-11 2023-11-03 合肥图迅电子科技有限公司 一种双目视觉图像半全局匹配方法

Also Published As

Publication number Publication date
ZA202308186B (en) 2023-09-27
WO2024032233A1 (zh) 2024-02-15
US11959744B1 (en) 2024-04-16
CN116188558B (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
CN116188558B (zh) 基于双目视觉的立体摄影测量方法
CN109813251B (zh) 用于三维测量的方法、装置以及系统
CN113034568B (zh) 一种机器视觉深度估计方法、装置、系统
JP4095491B2 (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
CN110296667B (zh) 基于线结构光多角度投影的高反射表面三维测量方法
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
KR100513055B1 (ko) 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
JP5955028B2 (ja) 画像処理装置、画像処理方法および画像処理用のプログラム
CN110189400B (zh) 一种三维重建方法、三维重建系统、移动终端及存储装置
CN105654547B (zh) 三维重建方法
JP2014013147A5 (zh)
CN112710284A (zh) 地面形态检测方法、系统和无人机
CN111563952B (zh) 基于相位信息与空间纹理特征实现立体匹配方法及系统
KR20160121509A (ko) 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭
Ahmed et al. Pothole 3D reconstruction with a novel imaging system and structure from motion techniques
CN111709985A (zh) 一种基于双目视觉的水下目标测距方法
CN112184793B (zh) 深度数据的处理方法、装置及可读存储介质
CN111996883B (zh) 一种检测公路路面宽度的方法
CN111649694B (zh) 一种隐式相位-视差映射的双目测量缺失点云插补方法
CN110940295A (zh) 基于激光散斑极限约束投影的高反射物体测量方法及系统
JP3842988B2 (ja) 両眼立体視によって物体の3次元情報を計測する画像処理装置およびその方法又は計測のプログラムを記録した記録媒体
CN111105467A (zh) 一种图像标定方法、装置及电子设备
CN114998448A (zh) 一种多约束双目鱼眼相机标定与空间点定位的方法
Furferi et al. A RGB-D based instant body-scanning solution for compact box installation
CN112017259B (zh) 一种基于深度相机与热像仪的室内定位与建图方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant