CN114754732B - 一种基于多目视觉的距离测量方法 - Google Patents
一种基于多目视觉的距离测量方法 Download PDFInfo
- Publication number
- CN114754732B CN114754732B CN202210237748.8A CN202210237748A CN114754732B CN 114754732 B CN114754732 B CN 114754732B CN 202210237748 A CN202210237748 A CN 202210237748A CN 114754732 B CN114754732 B CN 114754732B
- Authority
- CN
- China
- Prior art keywords
- parallax
- prediction
- distance
- network
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000013135 deep learning Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 230000008602 contraction Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 19
- 238000005259 measurement Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明提供了一种基于多目视觉的距离测量方法,在拍摄场景不稳定,拍摄环境较差的情况下,距离测量的准确性和可靠性都很低,不符合实际应用,通过两种方法基于深度预测视差的方法以及基于目标特征点检测网络视差差异度估计,当二者差异度小于一定的阈值,进行融合视差计算,不仅提高视差计算的稳定性和还提高了距离预测的准确性,另外基于深度学习的视差预测中,为使得预测产生更平滑的视差图以及提升预测的精确度,每一层的逆卷积结果还包括对应对维度收缩层结果的叠加,实现直接在小的特征图上预测。
Description
技术领域
本发明属于领域图像处理领域,具体涉及一种基于多目视觉的距离测量方法。
背景技术
测距常在辅助驾驶、工业测量、医学检测等诸多应用普遍使用,现有技术中,距离测量方法大致包括:激光、超声波、雷达、红外线及机器视觉图像测距等。激光测距具有稳定性好及测距精度高的优点。但是由于其价格昂贵,在长距离测距时,由于所接收的回声较弱,较慢导致测量信息不准确。雷达测距是通过接收从物体反射的电磁波来测量距离。雷达传输不会受到复杂天气的影响,即使天气不好,也可以确保结果仍然准确。红外测距在夜间具有高隐蔽性,而且其传播速度快,响应快速,所以广泛用于军事相关领域。但是其存在测距范围短,数据输出不稳定以及无法检测透明物体的缺点。机器视觉测距是通过相机传感器捕获周围图像信息,并通过在图像信息和空间之间建立三维关系模型来计算障碍物的距离。
现有的基于机器视觉的测距方法相机可以捕获视频信息并感知周围环境。通过对视频图像的处理,可以从二维图像中提取三维世界的测量信息,从而获得前对象和相机之间的距离。但在拍摄场景不稳定,拍摄环境较差的情况下,距离测量的准确性和可靠性都很低,不符合实际应用。
发明内容
本发明的目的在于解决上述现有技术中存在的难题,提供一种多目视觉的距离测量方法。
本发明是通过以下技术方案实现的:
设置参数相同的双目照相机作为左右视觉图像采集传感器;
本发明中相机标定的方法采用张正友平面标定法,获取相机内外参数、畸变系数及右侧摄像机相对于左侧摄像机的位置参数;
进行立体视觉矫正,为达到理想双目系统,使得左右目图像的极线位于同一水平线上,为视差匹配算法的实现带来了极大的便利。立体矫正算法可以通过单应变换,将非理想双目系统得到的图像通过计算重新投影,变换出理想双目系统所得图像;
在已获得双目视觉系统的焦距值和双目相机间的基线距离后,双目视觉距离测量问题可以转化化为双目视差预测问题,对采集的左右目图像进行视差预测;具体采用基于深度学习视差预测网络和基于目标特征点检测网络进行左右目视差计算;
基于深度学习视差预测网络构建,采用Monkaa、Driving和FlyingThings3D数据集作为训练样本,数据库中包含左右目图像以及标准的视差图;网络主要包括收缩部分和扩张部分,收缩网络部分卷积神经网络在进行特征的提取与变换时,对训练用的左右视图进行融合,之后将融合后的图像输入至收缩网络,层层缩小特征谱的分辨率,本发明优选采用八层conv收缩卷积层,各层卷积核以及特征图维度依次减少,具体维度可根据输入图像和预测效果设置;
扩张网络主要通过向后unconv进行,本发明采用与收缩网络对应的八层扩张网络进行左右视图的视差预测,卷积特征图维度依次升高,为使得预测产生更平滑的视差图以及提升预测的精确度,每一层的逆卷积结果还包括对应对维度收缩层结果的叠加,实现直接在小的特征图上预测,训练误差函数为err通过下式计算:
这里yi表示深度神经网络的输出数据,表示标准视差图像数据,i表示数据的维度,将所有像素点的gound truth和预测出来的光流之间的误差,err越低越好。训练中可以设定训练迭代终止条件,当达到训练终止条件时,完成网络的训练。
输入待分析的左右视图,利用上述得到的预测网络进行视差图的预测,若结果小于原始图像尺寸,本来有技术人员优选可以把结果双线性插值然后concat在unconv后的特征图上,可以直接双线性插值得到和输入相同分辨率的预测视差图。
基于目标特征点检测网络视差计算,步骤如下:
S21:导入左右视图;
S22:使用Sift算法对左右视图检测关键点;
S23:使用SiftDescriptor提取各个关键点的描述(特征向量);进行两图像的关键点匹配;
S24:误匹配剔除,由于关键点匹配中会包含很多错误的匹配,因此需要进行误匹配剔除,计算出所有匹配特征点对中的最小距离和最大距离,通过下述约束筛选正确的匹配对,特征点间的距离l需要满足:l≤0.4*lmin+0.6lmean,作为候选匹配点,进一步利用每个匹配得到两个最接近的特征点,然后计算最接近距离和次接近距离之间的比值,当比值大于既定值时,才作为最终匹配对。
S25:计算出正确匹配的特征点的X坐标差,即为该匹配点的像素视差;
S26:计算所有匹配点对的视差,利用均值方差去除掉偏差值较大的视差,计算视差均值作为最后的结果。
由于在左右视图进行图像采集时,由于图像在真实环境中采集会受到光照、相机曝光图像质量会差异很大,低质量的图像会影响预测的精度,通过两种方法基于深度预测视差的方法以及基于目标特征点检测网络视差差异度估计,当二者差异度小于一定的阈值,进行融合视差计算,进一步提高视差计算的稳定性和准确性;当二者差异较大,则剔除此次视差计算,对左右相机进行一定的偏移重新采集左右视图,直到二者视差达到稳定,说明视差是稳定可信的。
计算融合视差图的视差值;视觉测距系统中的双目相机通常采用定焦镜头,双目视觉测距系统在安装完毕后相机的焦距值是固定的。
通过下公式计算距离L1:
其中f为相机焦距,b为相机基线距离,d为融合视差值;物体距离与其视差值简单的反比例关系,融合视差计算可以求和平均作为融合视差值。
与现有技术相比,本发明的有益效果是:在拍摄场景不稳定,拍摄环境较差的情况下,距离测量的准确性和可靠性都很低,不符合实际应用,通过两种方法基于深度预测视差的方法以及基于目标特征点检测网络视差差异度估计,当二者差异度小于一定的阈值,进行融合视差计算,进一步提高视差计算的稳定性和准确性,另外基于深度学习的视差预测中,为使得预测产生更平滑的视差图以及提升预测的精确度,每一层的逆卷积结果还包括对应对维度收缩层结果的叠加,实现直接在小的特征图上预测。
附图说明
图1本发明多目视觉的距离测量技术方案框架图;
图2本发明基于基于深度学习视差预测网络结构图。
具体实施方式
下面结合附图对本发明作进一步详细描述:
本发明是通过以下技术方案实现的:
设置参数相同的双目照相机作为左右视觉图像采集传感器;
本发明中相机标定的方法采用张正友平面标定法,获取相机内外参数、畸变系数及右侧摄像机相对于左侧摄像机的位置参数;
进行立体视觉矫正,为达到理想双目系统,使得左右目图像的极线位于同一水平线上,为视差匹配算法的实现带来了极大的便利。立体矫正算法可以通过单应变换,将非理想双目系统得到的图像通过计算重新投影,变换出理想双目系统所得图像;
在已获得双目视觉系统的焦距值和双目相机间的基线距离后,双目视觉距离测量问题可以转化化为双目视差预测问题,对采集的左右目图像进行视差预测;具体采用基于深度学习视差预测网络和基于目标特征点检测网络进行左右目视差计算;
基于深度学习视差预测网络构建,采用Monkaa、Driving和FlyingThings3D数据集作为训练样本,数据库中包含左右目图像以及标准的视差图;网络主要包括收缩部分和扩张部分,收缩网络部分卷积神经网络在进行特征的提取与变换时,对训练用的左右视图进行融合,之后将融合后的图像输入至收缩网络,层层缩小特征谱的分辨率,本发明优选采用八层conv收缩卷积层,各层卷积核以及特征图维度依次减少,具体维度可根据输入图像和预测效果设置;
扩张网络主要通过向后unconv进行,本发明采用与收缩网络对应的八层扩张网络进行左右视图的视差预测,卷积特征图维度依次升高,为使得预测产生更平滑的视差图以及提升预测的精确度,每一层的逆卷积结果还包括对应对维度收缩层结果的叠加,实现直接在小的特征图上预测,训练误差函数为err通过下式计算:
这里yi表示深度神经网络的输出数据,表示标准视差图像数据,i表示数据的维度,将所有像素点的gound truth和预测出来的像素点之间的误差,err越低越好。训练中可以设定训练迭代终止条件,当达到训练终止条件时,完成网络的训练。
输入待分析的左右视图,利用上述得到的预测网络进行视差图的预测,若结果小于原始图像尺寸,本来有技术人员优选可以把结果双线性插值然后concat在unconv后的特征图上,可以直接双线性插值得到和输入相同分辨率的预测视差图。
基于目标特征点检测网络视差计算,步骤如下:
S21:导入左右视图;
S22:使用Sift算法对左右视图检测关键点;
S23:使用SiftDescriptor提取各个关键点的描述(特征向量);进行两图像的关键点匹配;
S24:误匹配剔除,由于关键点匹配中会包含很多错误的匹配,因此需要进行误匹配剔除,计算出所有匹配特征点对中的最小距离和最大距离,通过下述约束筛选正确的匹配对,特征点间的距离l需要满足:l≤0.4*lmin+0.6lmean,作为候选匹配点,进一步利用每个匹配得到两个最接近的特征点,然后计算最接近距离和次接近距离之间的比值,当比值大于既定值时,才作为最终匹配对。
S25:计算出正确匹配的特征点的X坐标差,即为该匹配点的像素视差;
S26:计算所有匹配点对的视差,利用均值方差去除掉偏差值较大的视差,计算视差均值作为最后的结果。
由于在左右视图进行图像采集时,由于图像在真实环境中采集会受到光照、相机曝光图像质量会差异很大,低质量的图像会影响预测的精度,通过两种方法基于深度预测视差的方法以及基于目标特征点检测网络视差差异度估计,当二者差异度小于一定的阈值,进行融合视差计算,进一步提高视差计算的稳定性和准确性;当二者差异较大,则剔除此次视差计算,对左右相机进行一定的偏移重新采集左右视图,直到二者视差达到稳定,说明视差是稳定可信的。
计算融合视差图的视差值;视觉测距系统中的双目相机通常采用定焦镜头,双目视觉测距系统在安装完毕后相机的焦距值是固定的。
通过下公式计算距离L1:
其中f为相机焦距,b为相机基线距离,d为融合视差值;物体距离与其视差值简单的反比例关系,融合视差计算可以求和平均作为融合视差值。
在本发明的描述中,除非另有说明,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
最后应说明的是,上述技术方案只是本发明的一种实施方式,对于本领域内的技术人员而言,在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形,而不仅限于本发明上述具体实施方式所描述的方法,因此前面描述的方式只是优选的,而并不具有限制性的意义。
Claims (6)
1.一种基于多目视觉的距离测量方法,其特征在于:
设置参数相同的双目照相机作为左右视觉图像采集传感器;
为达到理想双目系统,进行立体视觉矫正使得左右目图像的极线位于同一水平线上;
视差计算通过以下两个网络和步骤进行:构建基于深度学习视差预测网络,采用选取的数据集作为训练样本;网络包括收缩部分和扩张部分,收缩网络部分卷积神经网络在进行特征的提取与变换时,对训练用的左右视图进行融合,之后将融合后的图像输入至收缩网络,层层缩小特征谱的分辨率,采用八层conv收缩卷积层,各层卷积核以及特征图维度依次减少;
扩张网络通过向后unconv进行,采用与收缩网络对应的八层扩张网络进行左右视图的视差预测,卷积特征图维度依次升高,为使得预测产生更平滑的视差图以及提升预测的精确度,每一层的逆卷积结果还包括对应对维度收缩层结果的叠加,实现直接在小的特征图上视差预测;
基于目标特征点检测网络视差计算,步骤如下:
S21:导入左右视图;
S22:使用Sift算法对左右视图检测关键点;
S23:使用SiftDescriptor提取各个关键点的描述子;进行两图像的关键点匹配;
S24:误匹配剔除,由于关键点匹配中会包含很多错误的匹配,进行误匹配剔除,选取最终匹配特征点对;
S25:计算出正确匹配特征点的X坐标差,即为该匹配特征点的像素视差;
S26:计算所有匹配特征点对的视差,利用均值方差去除掉偏差值较大的视差,计算视差均值作为最后的结果;
进行融合视差计算,进一步提高视差计算的稳定性和准确性;当上述基于深度学习视差预测网络与基于目标特征点检测网络的视差进行差异度比较,当二者差异较大,则剔除此次视差计算,对左右相机进行一定的偏移重新采集左右视图,直到二者视差达到稳定,说明视差是稳定可信的;计算融合视差图的视差值,利用融合后的视差计算距离值。
2.根据权利要求1所述的基于多目视觉的距离测量方法,其特征在于视觉测距系统中的双目相机采用定焦镜头,双目视觉测距系统在安装完毕后相机的焦距值是固定的,最后通过下公式计算距离L1:
其中f为相机焦距,b为相机基线距离,d为融合视差值;物体距离与其视差值简单的反比例关系。
3.根据权利要求1所述的基于多目视觉的距离测量方法,其特征在于基于深度学习视差预测网络构建中采用Monkaa、Driving和FlyingThings3D数据集作为训练样本。
4.根据权利要求1所述的基于多目视觉的距离测量方法,其特征在于训练误差函数为err通过下式计算:这里yi表示深度神经网络的输出数据,/>表示标准视差图像数据,i表示数据的维度。
5.根据权利要求1所述的基于多目视觉的距离测量方法,其特征在于基于目标特征点视差计算中的误匹配剔除,计算出所有匹配特征点对中的最小距离和最大距离,通过下述约束筛选正确的匹配对,特征点间的距离l需要满足:l≤0.4*lmin+0.6lmean,作为候选匹配特征点,进一步利用每个匹配得到两个最接近的特征点,然后计算最接近距离和次接近距离之间的比值,当比值大于既定值时,才作为最终匹配对。
6.根据权利要求1所述的基于多目视觉的距离测量方法,其特征在融合视差计算可以求和平均作为融合视差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210237748.8A CN114754732B (zh) | 2022-03-11 | 2022-03-11 | 一种基于多目视觉的距离测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210237748.8A CN114754732B (zh) | 2022-03-11 | 2022-03-11 | 一种基于多目视觉的距离测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114754732A CN114754732A (zh) | 2022-07-15 |
CN114754732B true CN114754732B (zh) | 2023-09-05 |
Family
ID=82326136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210237748.8A Active CN114754732B (zh) | 2022-03-11 | 2022-03-11 | 一种基于多目视觉的距离测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114754732B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180036A (ja) * | 2002-11-27 | 2004-06-24 | Toyota Central Res & Dev Lab Inc | 視差探索方法及び視差探索装置 |
JP2009146034A (ja) * | 2007-12-12 | 2009-07-02 | National Institute Of Information & Communication Technology | 多視点画像奥行値抽出装置、その方法およびそのプログラム |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
JP2019128350A (ja) * | 2018-01-23 | 2019-08-01 | 株式会社リコー | 画像処理方法、画像処理装置、車載装置、移動体、システム |
CN110231013A (zh) * | 2019-05-08 | 2019-09-13 | 哈尔滨理工大学 | 一种基于双目视觉的车前行人检测与人车距离获取方法 |
CN113670268A (zh) * | 2021-08-04 | 2021-11-19 | 国网福建省电力有限公司泉州供电公司 | 基于双目视觉的无人机和电力杆塔距离测量方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110220493B (zh) * | 2018-03-02 | 2023-11-10 | 北京图森智途科技有限公司 | 一种双目测距方法及其装置 |
-
2022
- 2022-03-11 CN CN202210237748.8A patent/CN114754732B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180036A (ja) * | 2002-11-27 | 2004-06-24 | Toyota Central Res & Dev Lab Inc | 視差探索方法及び視差探索装置 |
JP2009146034A (ja) * | 2007-12-12 | 2009-07-02 | National Institute Of Information & Communication Technology | 多視点画像奥行値抽出装置、その方法およびそのプログラム |
JP2019128350A (ja) * | 2018-01-23 | 2019-08-01 | 株式会社リコー | 画像処理方法、画像処理装置、車載装置、移動体、システム |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
CN110231013A (zh) * | 2019-05-08 | 2019-09-13 | 哈尔滨理工大学 | 一种基于双目视觉的车前行人检测与人车距离获取方法 |
CN113670268A (zh) * | 2021-08-04 | 2021-11-19 | 国网福建省电力有限公司泉州供电公司 | 基于双目视觉的无人机和电力杆塔距离测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114754732A (zh) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230336707A1 (en) | Systems and Methods for Dynamic Calibration of Array Cameras | |
KR100513055B1 (ko) | 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법 | |
US8593524B2 (en) | Calibrating a camera system | |
KR100776649B1 (ko) | 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법 | |
CN110264528B (zh) | 一种鱼眼镜头双目像机快速自标定方法 | |
CN109840922B (zh) | 基于双目光场相机的深度获取方法和系统 | |
CN106225676B (zh) | 三维测量方法、装置及系统 | |
CN114494462A (zh) | 一种基于Yolov5和改进跟踪算法的双目相机测距方法 | |
CN113313740B (zh) | 一种基于平面连续性的视差图和表面法向量联合学习方法 | |
CN115719320B (zh) | 基于遥感影像的倾斜校正稠密匹配方法 | |
CN117456114B (zh) | 基于多视图的三维图像重建方法及系统 | |
WO2021213650A1 (en) | Device and method for depth estimation using color images | |
CN110992463B (zh) | 一种基于三目视觉的输电导线弧垂的三维重建方法及系统 | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
CN117058236A (zh) | 一种基于多目视觉系统自切换的目标识别定位方法 | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 | |
WO2021167910A1 (en) | A method for generating a dataset, a method for generating a neural network, and a method for constructing a model of a scene | |
CN113269823A (zh) | 深度数据获取方法、装置、存储介质与电子设备 | |
CN110487254B (zh) | 一种用于rov的水下目标尺寸快速测量方法 | |
CN114754732B (zh) | 一种基于多目视觉的距离测量方法 | |
CN116777973A (zh) | 基于深度学习的异源图像双目立体视觉测距方法和系统 | |
Um et al. | Three-dimensional scene reconstruction using multiview images and depth camera | |
CN116433760A (zh) | 一种水下导航定位系统和方法 | |
CN114998532A (zh) | 一种基于数字图像重建的三维影像视觉传达优化方法 | |
CN110068308B (zh) | 一种基于多目相机的测距方法及测距系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |