CN110297232A - 基于计算机视觉的单目测距方法、装置及电子设备 - Google Patents
基于计算机视觉的单目测距方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110297232A CN110297232A CN201910439123.8A CN201910439123A CN110297232A CN 110297232 A CN110297232 A CN 110297232A CN 201910439123 A CN201910439123 A CN 201910439123A CN 110297232 A CN110297232 A CN 110297232A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- characteristic point
- coordinate
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Operations Research (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于计算机视觉的单目测距方法、装置及电子设备,所述测距方法通过将单目相机拍摄到的图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,然后将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,根据在所述目标物体影像上选取的图像特征点的像素坐标、所述目标物体上对应的实际特征点的实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离;结合单目成像原理、深度学习识别、特征选取等方法,提供了一种低成本且精度较高的距离测量方案,能够探测目标物体的深度信息。
Description
技术领域
本发明涉及距离测量技术领域,尤其涉及一种基于计算机视觉的单目测距方法、装置及电子设备。
背景技术
随着计算机的计算性能不断提高,在学术上和工程上已经有多种通过计算机视觉测量距离的方案,比较常见的有激光雷达测距、双目视觉测距和单目视觉测距。
激光雷达测距采取主动发射激光的方式,通过一个窄带激光器发射激光脉冲,并由一个接收系统接收物体反射回的激光,再利用发射和接收之间的时间差计算物体的距离。激光雷达的测距方案的优点是测距精度非常高,在百米的距离上可以达到厘米级的精度,但是由于其硬件成本非常昂贵,也限制了它在很多场景的应用。
双目视觉测距利用的是双目对目标物体的视差进行距离估算,双目视觉测距能够得到前方景物的深度图。双目视觉测距在实际应用中的缺点主要有以下几点:一是计算量非常大,使得其小型化、产品化比较困难;二是对光照和纹理非常敏感,会出现匹配困难等实际问题;三是由于图片分辨率的限制,对拍摄到的物体较远时测距误差非常大。
单目视觉测距利用小孔成像原理进行目标物体与镜头的距离估算。单目视觉测距相对双目视觉测距的计算量较小因而更易于小型化和产品化,相对激光雷达测距则明显具有成本优势。然而,单目视觉测距存在的明显缺点是其无法获得目标物体的深度信息。
发明内容
本发明的主要目的在于提供一种基于计算机视觉的单目测距方法、装置及电子设备,能够获取目标物体的深度信息。
为实现上述目的,本发明提供一种一种基于计算机视觉的单目测距方法,包括步骤:
单目相机拍摄图像;
将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,若是,则将所述图像确定为目标检测样本,其中,所述第一神经网络模型用于识别所述图像中是否具有目标物体影像;
将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,其中,所述第二神经网络模型用于识别所述目标物体影像对应的所述目标物体的所述型号,所述型号与所述目标物体的多视角外形及尺寸信息相对应;
根据预设的选取方式在所述目标物体影像上选取图像特征点,并记录所述图像特征点在所述目标物体影像上的像素坐标;
在所述目标物体上确定实际特征点,所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置相对应;
根据所述目标物体的多视角外形及尺寸信息,计算所述实际特征点在所述目标物体上的实际坐标;
根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离。
进一步地,所述第一神经网络模型包括特征图谱识别网络和筛选网络;
所述将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像的步骤,包括:
将所述图像输入所述特征图谱识别网络,所述特征图谱识别网络输出对应的特征图谱;
在所述特征图谱的每一点设定预设个数的兴趣区域;
将所述兴趣区域输入筛选网络,所述筛选网络筛选出目标兴趣区域;
对所述目标兴趣区域进行特征匹配;
对特征匹配之后的所述目标兴趣区域进行分类、边界框回归和掩码生成,以获得所述图像中是否具有目标物体影像的输出结果。
进一步地,所述根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离包括:
对所述单目相机进行标定,确定所述单目相机的内参
其中,fx和fy分别为x、y方向上以像元单位表示的焦距,cx和cy表示图像中心坐标;
确定实际坐标[X,Y,Z]和像素坐标[u,v];
建立等式
其中,s为比例系数;
求解
建立等式
其中,为所述实际坐标转换成所述单目相机镜头坐标系上的坐标;
计算其中z为测距结果。
进一步地,
令
则
r2=x′2+y′2,u=fxx″+cx,v=fyy″+cy,
其中,
k1,k2,k3,k4,k5,k6为径向畸变参数,p1,p2为切向畸变参数。
本发明还提供一种测距装置,包括:
第一识别单元,用于将单目相机拍摄到的图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,若是,则将所述图像确定为目标检测样本,其中,所述第一神经网络模型用于识别所述图像中是否具有目标物体影像;
第二识别单元,用于将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,其中,所述第二神经网络模型用于识别所述目标物体影像对应的所述目标物体的所述型号,所述型号与所述目标物体的多视角外形及尺寸信息相对应;
特征点坐标获取单元,用于根据预设的选取方式在所述目标物体影像上选取图像特征点并记录所述图像特征点在所述目标物体影像上的像素坐标;以及,
在所述目标物体上确定实际特征点,所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置相对应;以及,根据所述目标物体的多视角外形及尺寸信息,计算所述实际特征点在所述目标物体上的实际坐标;
计算单元,用于根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离。
进一步地,所述第一神经网络模型包括特征图谱识别网络和筛选网络;所述将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像包括:
将所述图像输入所述特征图谱识别网络,所述特征图谱识别网络输出对应的特征图谱;
在所述特征图谱的每一点设定预设个数的兴趣区域;
将所述兴趣区域输入筛选网络,所述筛选网络筛选出目标兴趣区域;
对所述目标兴趣区域进行特征匹配;
对特征匹配之后的所述目标兴趣区域进行分类、边界框回归和掩码生成,以获得所述图像中是否具有目标物体影像的输出结果。
进一步地,所述根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离包括:
对所述单目相机进行标定,确定所述单目相机的内参
其中,fx和fy分别为x、y方向上以像元单位表示的焦距,cx和cy表示图像中心坐标;
确定实际坐标[X,Y,Z]和像素坐标[u,v];
建立等式
其中,s为比例系数;
求解
建立等式
其中,为所述实际坐标转换成所述单目相机镜头坐标系上的坐标;
计算其中z为测距结果。
进一步地,
令
则
r2=x′2+y′2,u=fxx″+cx,v=fyy″+cy,
其中,
k1,k2,k3,k4,k5,k6为径向畸变参数,p1,p2为切向畸变参数。
本发明还提供一种电子设备,包括单目相机、存储器和处理器,其中:
所述单目相机,用于对目标物体拍照;
所述存储器,用于存储可在所述处理器上运行的计算机程序;
所述处理器,用于执行如上任一项所述的方法。
本发明还提供一种计算机程序产品,该计算机程序产品包括存储了计算机程序的计算机可读存储介质,所述计算机程序使得计算机执行如上任一项所述的方法的部分或全部步骤。
在本发明的技术方案中,通过将单目相机拍摄到的图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,然后将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,根据在所述目标物体影像上选取的图像特征点的像素坐标、所述目标物体上对应的实际特征点的实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离;结合单目成像原理、深度学习识别、特征选取等方法,提供了一种低成本且精度较高的单目视觉测距方案,能够获取目标物体的深度信息。
附图说明
图1为本发明一实施例中的基于计算机视觉的单目测距方法的应用场景图;
图2为一实施例中的基于计算机视觉的单目测距方法的流程图;
图3为图2中步骤S2的子流程图;
图4为本发明的一个实施例中的单目相机成像原理模型图;
图5为本发明的一个实施例中的测距装置的模块结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
请一并结合图1和图2,如图1所示,为本发明一实施例中的基于计算机视觉的单目测距方法的应用场景图。
具体的,以下以单目相机测量车辆距离为例,来说明本发明中的基于计算机视觉的单目测距方法,并不代表本发明仅仅用于车辆测距,本发明可以用于任何物体的测距。
其中,所述基于计算机视觉的单目测距方法,可以包括:
步骤S1,单目相机拍摄图像。
例如,通过在公路上行驶的车辆的行车记录仪或其他摄像头等单目相机拍摄的前方视图。再利用本发明中的基于计算机视觉的单目测距方法获取行车记录仪或其他摄像头拍摄到的图像,检测前方车距dz,提醒驾驶员保持安全车距。
步骤S2,将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,若是,则将所述图像确定为目标检测样本,其中,所述第一神经网络模型用于识别所述图像中是否具有目标物体影像。
具体的,请一并结合图3,在一具体的实施例中,所述第一神经网络模型包括特征图谱识别网络和筛选网络。
所述步骤S2中的将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像的步骤,可以包括:
步骤S21,将所述图像输入所述特征图谱识别网络,所述特征图谱识别网络输出对应的特征图谱。具体的,在步骤S21之前还可以包括:对待处理图像进行预处理。可以理解的是,所述预处理包括但不限于,对所述图像数据进行转码、数据增强(重新缩放、噪声增减)、裁剪、翻转、光照等处理,还可以包括对数据的均化、归一化等处理,以提高模型泛化能力。
步骤S22,在所述特征图谱的每一点设定预设个数的兴趣区域。
步骤S23,将所述兴趣区域输入筛选网络,所述筛选网络筛选出目标兴趣区域。其中,目标兴趣区域的筛选可以是车身的数个有代表性的特征点或特征区域,例如车身正面、背面、侧面的关键点,包括但不限于车门把手、车灯、车顶角、车标等。
步骤S24,对所述目标兴趣区域进行特征匹配。
步骤S25,对特征匹配之后的所述目标兴趣区域进行分类、边界框回归和掩码生成,以获得所述图像中是否具有目标物体影像的输出结果。
其中,输出结果包括所述图像中具有目标物体影像,所述图像中不具有目标物体影像。
步骤S3,将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,其中,所述第二神经网络模型用于识别所述目标物体影像对应的所述目标物体的所述型号,所述型号与所述目标物体的多视角外形及尺寸信息相对应。
具体的,通过图像识别模型,可以识别出所述目标物体影像所对应的目标物体的型号,例如车辆识别模型可以识别出车型。
其中,所述车型识别模型为预先训练的基于所述数据集以及细粒度识别深度学习网络(例如AlexNet、GoogLeNet和ResNet等)进行训练后得到的车型识别模型。
例如,首先提取所述数据集中的已知车型的车辆特征点数据作为样本标签;然后可采用细粒度识别深度学习网络,将训练样本输入网络调整网络参数后训练至网络收敛,得到稳定的车型识别网络后,将上一步骤S1中的提取所述目标车辆的目标特征点数据作为检测样本输入进行识别,得到车辆的型号。
步骤S41,根据预设的选取方式在所述目标物体影像上选取图像特征点,并记录所述图像特征点在所述目标物体影像上的像素坐标。
其中,根据预设的选取方式在所述目标物体影像上选取图像特征点可以是,基于掩码区域卷积神经网络(Mask R-CNN)算法在所述目标物体影像上选取图像特征点。MaskR-CNN算法是一个实例分割(Instance segmentation)算法,可以用来做“目标检测”、“目标实例分割”、“目标关键点检测”。Mask R-CNN算法可以包括三个模块:快速区域卷积神经网络(Faster-rcnn)算法、兴趣区域(region of interest,ROI)特征聚集(ROIAlign)算法和全卷积网络(Fully Convolutional Networks,FCN)算法。
Faster-rcnn算法的框架中包含4个关键模块,包括ROI生成(region proposal)、特征提取网络(feature extraction)、ROI分类(classification)、ROI回归(regression),Faster-rcnn算法利用一个神经网络将这4个模块结合起来,训练了一个端到端的网络。
其中,特征提取网络:用于从大量的图片中提取出一些不同目标的重要特征,通常由conv+relu+pool层构成,常用一些预训练好的网络(例如VGG、Inception和Resnet等),获得的结果即为特征图谱;
生成ROI:在获得的特征图谱的每一个像素点设定预定个数的ROI作为候选ROI,然后利用分类器将这些ROI区分为背景和前景,同时利用回归器对这些ROI的位置进行初步的调整和筛选;
ROI分类:在输入筛选网络(RPN网络)阶段,用来区分前景(于真实目标重叠并且其重叠区域大于0.5)和背景(不与任何目标重叠或者其重叠区域小于0.1);
ROI回归:在RPN阶段,进行初步调整。
可选的,步骤S41,可以包括步骤:
步骤一:将预处理后的所述待处理图像数据输入基于Faster-rcnn和所述数据集训练出的算法模型,获得特征图谱数据;其中,所述数据集包括已知目标物体的所有特征点数据。
步骤二:将所述特征图谱中的每一个像素点对应的预设个数ROI作为候选ROI,将所述候选ROI输入筛选网络进行筛选,获得目标ROI。
其中,所述筛选网络包括区域候选(region proposal,RPN)网络。
步骤三,基于兴趣区域特征聚集(ROIAlign)算法对所述目标兴趣区域与所述待处理图像进行匹配操作。
其中,ROIAlign算法使用双线性内插的方法获得坐标为浮点数的像素点上的图像数值,从而将整个特征聚集过程转化为一个连续的操作。在具体的算法操作上可以包括:遍历每一个候选区域,保持浮点数边界不做量化;将候选区域分割成k x k个单元,每个单元的边界也不做量化;在每个单元中计算固定四个坐标位置,用双线性内插的方法计算出这四个位置的值,然后进行最大池化操作。
步骤四,基于全卷积网络(FCN)算法对匹配后的每个所述目标ROI进行训练输出预设尺寸的掩码区域,获得所述图像特征点以及所述图像特征点在所述目标物体影像上的像素坐标。
具体的,FCN算法可以包括对匹配后的每个所述目标ROI进行N类别分类、边界框回归和所述预设尺寸的的掩码生成,以获得每个目标ROI对应的所述图像特征点以及所述图像特征点在所述目标物体影像上的像素坐标。
步骤S42,在所述目标物体上确定实际特征点,所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置相对应。
步骤S43,根据所述目标物体的多视角外形及尺寸信息,计算所述实际特征点在所述目标物体上的实际坐标。
结合所述型号与所述目标物体的多视角外形及尺寸信息,在所述目标物体上获取与所述图像特征点在所述目标物体影像上的位置相对应的实际特征点,然后计算所述实际特征点在所述目标物体上的实际坐标。
例如,所述已知车型的车辆的多视角外形及尺寸信息包括已知车型的车身正面、背面、侧面图像数据以及车身外形尺寸。将所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置进行比对,可以得到每个实际特征点对应已知车型的哪一个具体位置,从而可以推算出实际特征点在预设的坐标系内在车身上的实际坐标数据。
步骤S5,根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离。
具体的,请一并结合图4,在一具体示例中,步骤S5可以是利用小孔成像原理和三维空间旋转原理进行物距计算的方法,具体包括:
一,对所述单目相机进行标定,确定所述单目相机的内参
其中,fx和fy分别为x、y方向上以像元单位表示的焦距,cx和cy表示图像中心坐标;
二,确定实际坐标[X,Y,Z]和像素坐标[u,v];
三,建立等式
其中,s为比例系数;
四,求解
五,建立等式
其中,为所述实际坐标转换成所述单目相机镜头坐标系上的坐标;
六、计算其中z为测距结果。
具体的,
令,
其中,r2=x′2+y′2,u=fxx″+cx,v=fyy″+cy,k1,k2,k3,k4,k5,k6为径向畸变参数,p1,p2为切向畸变参数,这8个畸变参数为8个额外的位置数。
由数学关系可知,选取四组相对应的目标特征点(图像上的坐标和实际坐标)即可求解这12个未知数,若考虑8个额外的畸变参数,则需要一共7组特征点求解。求解所有的未知数后,即可获取旋转平移矩阵
六,根据以下公式
将目标特征点在车身实际坐标系下的坐标通过旋转平移矩阵转换成尽头坐标系下坐标[x,y,z],其中z的值即为物体上的任意点到镜头的距离。
进一步地,在实际场景应用中,由于噪声、分辨率等因素的限制,通常可以选取较多的目标特征点并且利用最小二乘等优化算法去解算一个更准确的旋转平移矩阵,进而提高距离估算的精度。
在本发明的具体实施例中,通过将单目相机拍摄到的图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,然后将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,根据在所述目标物体影像上选取的图像特征点的像素坐标、所述目标物体上对应的实际特征点的实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离;结合单目成像原理、深度学习识别、特征选取等方法,提供了一种低成本且精度较高的单目视觉测距方案,并且能够获取目标物体的深度信息。
请一并参考图5,为本发明一实施例中的基于计算机视觉的测距装置500的模块结构示意图。
测距装置500包括:
第一识别单元501,用于将单目相机拍摄到的图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,若是,则将所述图像确定为目标检测样本,其中,所述第一神经网络模型用于识别所述图像中是否具有目标物体影像。
第二识别单元502,用于将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,其中,所述第二神经网络模型用于识别所述目标物体影像对应的所述目标物体的所述型号,所述型号与所述目标物体的多视角外形及尺寸信息相对应;
特征点坐标获取单元504,用于根据预设的选取方式在所述目标物体影像上选取图像特征点并记录所述图像特征点在所述目标物体影像上的像素坐标;以及,
在所述目标物体上确定实际特征点,所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置相对应;以及,根据所述目标物体的多视角外形及尺寸信息,计算所述实际特征点在所述目标物体上的实际坐标。
计算单元505,用于根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离。其中,具体计算方法已如上所述,在此不再赘述。
进一步地,在一具体的实施例中,所述第一神经网络模型包括特征图谱识别网络和筛选网络。
所述第一识别单元501中将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像的模块可以包括:
特征图谱识别模块,用于将所述图像输入所述特征图谱识别网络,所述特征图谱识别网络输出对应的特征图谱。具体的,第二识别单元502还可以包括:对待处理图像进行预处理的预处理模块。可以理解的是,所述预处理包括但不限于,对所述图像数据进行转码、数据增强(重新缩放、噪声增减)、裁剪、翻转、光照等处理,还可以包括对数据的均化、归一化等处理,以提高模型泛化能力。
兴趣区域设定模块,用于在所述特征图谱的每一点设定预设个数的兴趣区域。
兴趣区域筛选模块,用于将所述兴趣区域输入筛选网络,所述筛选网络筛选出目标兴趣区域。其中,目标兴趣区域的筛选可以是车身的数个有代表性的特征点或特征区域,例如车身正面、背面、侧面的关键点,包括但不限于车门把手、车灯、车顶角、车标等。
兴趣区域匹配模块,用于对所述目标兴趣区域进行特征匹配。
输出模块,用于对特征匹配之后的所述目标兴趣区域进行分类、边界框回归和掩码生成,以获得所述图像中是否具有目标物体影像的输出结果。
其中,输出结果包括所述图像中具有目标物体影像以及所述图像中不具有目标物体影像。
进一步地,在一具体的实施例中,第二识别单元502中可以通过图像识别模型,识别出所述目标物体影像所对应的目标物体的型号,例如车辆识别模型可以识别出车型。
其中,所述车型识别模型为预先训练的基于所述数据集以及细粒度识别深度学习网络(例如AlexNet、GoogLeNet和ResNet等)进行训练后得到的车型识别模型。
例如,首先提取所述数据集中的已知车型的车辆特征点数据作为样本标签;然后可采用细粒度识别深度学习网络,将训练样本输入网络调整网络参数后训练至网络收敛,得到稳定的车型识别网络后,将上一步骤S1中的提取所述目标车辆的目标特征点数据作为检测样本输入进行识别,得到车辆的型号。
进一步地,在一具体的实施例中,特征点坐标获取单元504中,根据预设的选取方式在所述目标物体影像上选取图像特征点可以是,基于掩码区域卷积神经网络(Mask R-CNN)算法在所述目标物体影像上选取图像特征点。Mask R-CNN算法是一个实例分割(Instance segmentation)算法,可以用来做“目标检测”、“目标实例分割”、“目标关键点检测”。Mask R-CNN算法可以包括三个模块:快速区域卷积神经网络(Faster-rcnn)算法、兴趣区域(region of interest,ROI)特征聚集(ROIAlign)算法和全卷积网络(FullyConvolutional Networks,FCN)算法。
Faster-rcnn算法的框架中包含4个关键模块,包括ROI生成(region proposal)、特征提取网络(feature extraction)、ROI分类(classification)、ROI回归(regression),Faster-rcnn算法利用一个神经网络将这4个模块结合起来,训练了一个端到端的网络。
其中,特征提取网络:用于从大量的图片中提取出一些不同目标的重要特征,通常由conv+relu+pool层构成,常用一些预训练好的网络(例如VGG、Inception、Resnet等),获得的结果即为特征图谱;
生成ROI:在获得的特征图谱的每一个像素点设定预定个数的ROI作为候选ROI,然后利用分类器将这些ROI区分为背景和前景,同时利用回归器对这些ROI的位置进行初步的调整和筛选;
ROI分类:在输入筛选网络(RPN网络)阶段,用来区分前景(于真实目标重叠并且其重叠区域大于0.5)和背景(不与任何目标重叠或者其重叠区域小于0.1);
ROI回归:在RPN阶段,进行初步调整。
可选的,根据预设的选取方式在所述目标物体影像上选取图像特征点并记录所述图像特征点在所述目标物体影像上的像素坐标可以包括步骤:
步骤一:将预处理后的所述待处理图像数据输入基于Faster-rcnn和所述数据集训练出的算法模型,获得特征图谱数据;其中,所述数据集包括已知目标物体的所有特征点数据。
步骤二:将所述特征图谱中的每一个像素点对应的预设个数ROI作为候选ROI,将所述候选ROI输入筛选网络进行筛选,获得目标ROI。
其中,所述筛选网络包括区域候选(region proposal,RPN)网络。
步骤三,基于兴趣区域特征聚集(ROIAlign)算法对所述目标兴趣区域与所述待处理图像进行匹配操作。
其中,ROIAlign算法使用双线性内插的方法获得坐标为浮点数的像素点上的图像数值,从而将整个特征聚集过程转化为一个连续的操作。在具体的算法操作上可以包括:遍历每一个候选区域,保持浮点数边界不做量化;将候选区域分割成k x k个单元,每个单元的边界也不做量化;在每个单元中计算固定四个坐标位置,用双线性内插的方法计算出这四个位置的值,然后进行最大池化操作。
步骤四,基于全卷积网络(FCN)算法对匹配后的每个所述目标ROI进行训练输出预设尺寸的掩码区域,获得所述图像特征点以及所述图像特征点在所述目标物体影像上的像素坐标。
具体的,FCN算法可以包括对匹配后的每个所述目标ROI进行N类别分类、边界框回归和所述预设尺寸的的掩码生成,以获得每个目标ROI对应的所述图像特征点以及所述图像特征点在所述目标物体影像上的像素坐标。
结合所述型号与所述目标物体的多视角外形及尺寸信息,在所述目标物体上获取与所述图像特征点在所述目标物体影像上的位置相对应的实际特征点,然后计算所述实际特征点在所述目标物体上的实际坐标。
例如,所述已知车型的车辆的多视角外形及尺寸信息包括已知车型的车身正面、背面、侧面图像数据以及车身外形尺寸。将所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置进行比对,可以得到每个实际特征点对应已知车型的哪一个具体位置,从而可以推算出实际特征点在预设的坐标系内在车身上的实际坐标数据。
本发明一实施例中提供一种电子设备,包括单目相机、存储器和处理器,其中:
所述单目相机,用于对目标物体拍照;
所述存储器,用于存储可在所述处理器上运行的计算机程序;
所述处理器,用于执行如上任一项所述的方法。
本发明还提供一种计算机程序产品,该计算机程序产品包括存储了计算机程序的计算机可读存储介质,所述计算机程序使得计算机执行如上任一项所述的方法的部分或全部步骤。
需要说明的是,由于计算机设备的处理器执行计算机程序时实现上述的车辆测距方法,因此上述方法的所有实施例均适用于该计算机设备,且均能达到相同或相似的有益效果,在此不再赘述。
可选地,本发明中的车辆测距方法还可以用于道路监控,例如公路上方布置的电子警察,可以通过所述车辆测距方法实时监测目标车辆的距离,测算车辆行驶速度,计算前后车之间的车距,起到路况监控的效果。
可以理解的是,在本说明书的描述中,参考术语“一实施例”、“另一实施例”、“其他实施例”、或“第一实施例~第N实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (10)
1.一种基于计算机视觉的单目测距方法,其特征在于,包括步骤:
单目相机拍摄图像;
将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,若是,则将所述图像确定为目标检测样本,其中,所述第一神经网络模型用于识别所述图像中是否具有目标物体影像;
将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,其中,所述第二神经网络模型用于识别所述目标物体影像对应的所述目标物体的所述型号,所述型号与所述目标物体的多视角外形及尺寸信息相对应;
根据预设的选取方式在所述目标物体影像上选取图像特征点,并记录所述图像特征点在所述目标物体影像上的像素坐标;
在所述目标物体上确定实际特征点,所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置相对应;
根据所述目标物体的多视角外形及尺寸信息,计算所述实际特征点在所述目标物体上的实际坐标;
根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离。
2.如权利要求1所述的基于计算机视觉的单目测距方法,其特征在于,所述第一神经网络模型包括特征图谱识别网络和筛选网络;
所述将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像的步骤,包括:
将所述图像输入所述特征图谱识别网络,所述特征图谱识别网络输出对应的特征图谱;
在所述特征图谱的每一点设定预设个数的兴趣区域;
将所述兴趣区域输入筛选网络,所述筛选网络筛选出目标兴趣区域;
对所述目标兴趣区域进行特征匹配;
对特征匹配之后的所述目标兴趣区域进行分类、边界框回归和掩码生成,以获得所述图像中是否具有目标物体影像的输出结果。
3.如权利要求1所述的基于计算机视觉的单目测距方法,其特征在于,所述根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离包括:
对所述单目相机进行标定,确定所述单目相机的内参
其中,fx和fy分别为x、y方向上以像元单位表示的焦距,cx和cy表示图像中心坐标;
确定实际坐标[X,Y,Z]和像素坐标[u,v];
建立等式
其中,s为比例系数;
求解
建立等式
其中,为所述实际坐标转换成所述单目相机镜头坐标系上的坐标;
计算其中z为测距结果。
4.如权利要求3所述的基于计算机视觉的单目测距方法,其特征在于:
令
则
r2=x′2+y′2,u=fxx″+cx,v=fyy″+cy,
其中,
k1,k2,k3,k4,k5,k6为径向畸变参数,p1,p2为切向畸变参数。
5.一种测距装置,其特征在于,包括:
第一识别单元,用于将单目相机拍摄到的图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像,若是,则将所述图像确定为目标检测样本,其中,所述第一神经网络模型用于识别所述图像中是否具有目标物体影像;
第二识别单元,用于将所述目标检测样本输入预设的第二神经网络模型以识别所述目标物体影像所对应的目标物体的型号,其中,所述第二神经网络模型用于识别所述目标物体影像对应的所述目标物体的所述型号,所述型号与所述目标物体的多视角外形及尺寸信息相对应;
特征点坐标获取单元,用于根据预设的选取方式在所述目标物体影像上选取图像特征点并记录所述图像特征点在所述目标物体影像上的像素坐标;以及,
在所述目标物体上确定实际特征点,所述实际特征点在所述目标物体上的位置与所述图像特征点在所述目标物体影像上的位置相对应;以及,根据所述目标物体的多视角外形及尺寸信息,计算所述实际特征点在所述目标物体上的实际坐标;
计算单元,用于根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离。
6.如权利要求5所述的测距装置,其特征在于,所述第一神经网络模型包括特征图谱识别网络和筛选网络;所述将所述图像输入预设的第一神经网络模型以判断所述图像中是否具有目标物体影像包括:
将所述图像输入所述特征图谱识别网络,所述特征图谱识别网络输出对应的特征图谱;
在所述特征图谱的每一点设定预设个数的兴趣区域;
将所述兴趣区域输入筛选网络,所述筛选网络筛选出目标兴趣区域;
对所述目标兴趣区域进行特征匹配;
对特征匹配之后的所述目标兴趣区域进行分类、边界框回归和掩码生成,以获得所述图像中是否具有目标物体影像的输出结果。
7.如权利要求5所述的测距装置,其特征在于,所述根据所述像素坐标、所述实际坐标以及所述单目相机的参数,计算所述实际特征点与所述单目相机的镜头的距离包括:
对所述单目相机进行标定,确定所述单目相机的内参
其中,fx和fy分别为x、y方向上以像元单位表示的焦距,cx和cy表示图像中心坐标;
确定实际坐标[X,Y,Z]和像素坐标[u,v];
建立等式
其中,s为比例系数;
求解
建立等式
其中,为所述实际坐标转换成所述单目相机镜头坐标系上的坐标;
计算其中z为测距结果。
8.如权利要求7所述的测距装置,其特征在于:
令
则
r2=x′2+y′2,x=fxx″+cx,v=fyy″+cy,
其中,
k1,k2,k3,k4,k5,k6为径向畸变参数,p1,p2为切向畸变参数。
9.一种电子设备,包括单目相机、存储器和处理器,特征在于:
所述单目相机,用于对目标物体拍照;
所述存储器,用于存储可在所述处理器上运行的计算机程序;
所述处理器,用于执行如权利要求1至4中任一项所述的方法。
10.一种计算机程序产品,其特征在于,该计算机程序产品包括存储了计算机程序的计算机可读存储介质,所述计算机程序使得计算机执行如权利要求1至4中任一项所述的方法的部分或全部步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439123.8A CN110297232A (zh) | 2019-05-24 | 2019-05-24 | 基于计算机视觉的单目测距方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439123.8A CN110297232A (zh) | 2019-05-24 | 2019-05-24 | 基于计算机视觉的单目测距方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110297232A true CN110297232A (zh) | 2019-10-01 |
Family
ID=68027172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910439123.8A Pending CN110297232A (zh) | 2019-05-24 | 2019-05-24 | 基于计算机视觉的单目测距方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110297232A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826504A (zh) * | 2019-11-07 | 2020-02-21 | 深圳市微埃智能科技有限公司 | 一种结合细粒度分类的视觉识别方法、装置及计算机设备 |
CN110837789A (zh) * | 2019-10-31 | 2020-02-25 | 北京奇艺世纪科技有限公司 | 一种检测物体的方法、装置、电子设备及介质 |
CN110929606A (zh) * | 2019-11-11 | 2020-03-27 | 浙江鸿泉车联网有限公司 | 车辆盲区行人监控方法和装置 |
CN111366128A (zh) * | 2020-03-09 | 2020-07-03 | 上海海事大学 | 一种基于单幅图像的距离信息分析方法 |
CN111990930A (zh) * | 2020-08-28 | 2020-11-27 | 北京石头世纪科技股份有限公司 | 一种测距方法、装置、机器人和存储介质 |
CN112070705A (zh) * | 2020-11-16 | 2020-12-11 | 天津天瞳威势电子科技有限公司 | 一种相机评测方法、装置和存储介质 |
CN113124819A (zh) * | 2021-06-17 | 2021-07-16 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种基于平面镜的单目测距方法 |
CN113267128A (zh) * | 2021-05-31 | 2021-08-17 | 西南石油大学 | 一种双目视觉自动化边坡位移监测方法 |
CN113400196A (zh) * | 2021-06-18 | 2021-09-17 | 西安奕斯伟硅片技术有限公司 | 用于研磨定盘沟槽的清理方法、装置、设备及计算机存储介质 |
CN113838075A (zh) * | 2020-06-23 | 2021-12-24 | 南宁富桂精密工业有限公司 | 单目测距方法、装置及计算机可读存储介质 |
TWI796952B (zh) * | 2021-12-14 | 2023-03-21 | 威盛電子股份有限公司 | 物件偵測裝置以及物件偵測方法 |
CN116402871A (zh) * | 2023-03-28 | 2023-07-07 | 苏州大学 | 一种基于场景平行要素的单目测距方法、系统及电子设备 |
CN116681778A (zh) * | 2023-06-06 | 2023-09-01 | 固安信通信号技术股份有限公司 | 一种基于单目相机的距离测量方法 |
CN116953680A (zh) * | 2023-09-15 | 2023-10-27 | 成都中轨轨道设备有限公司 | 一种基于图像的目标物实时测距方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107972662A (zh) * | 2017-10-16 | 2018-05-01 | 华南理工大学 | 一种基于深度学习的车辆前向碰撞预警方法 |
CN108759667A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 车载摄像头下基于单目视觉与图像分割的前车测距方法 |
CN109241856A (zh) * | 2018-08-13 | 2019-01-18 | 浙江零跑科技有限公司 | 一种单目车载视觉系统立体目标检测方法 |
CN109509223A (zh) * | 2018-11-08 | 2019-03-22 | 西安电子科技大学 | 基于深度学习的前方车辆测距方法 |
CN109506628A (zh) * | 2018-11-29 | 2019-03-22 | 东北大学 | 一种基于深度学习的卡车环境下目标物测距方法 |
CN109520480A (zh) * | 2019-01-22 | 2019-03-26 | 合刃科技(深圳)有限公司 | 基于双目立体视觉的测距方法及测距系统 |
-
2019
- 2019-05-24 CN CN201910439123.8A patent/CN110297232A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107972662A (zh) * | 2017-10-16 | 2018-05-01 | 华南理工大学 | 一种基于深度学习的车辆前向碰撞预警方法 |
CN108759667A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 车载摄像头下基于单目视觉与图像分割的前车测距方法 |
CN109241856A (zh) * | 2018-08-13 | 2019-01-18 | 浙江零跑科技有限公司 | 一种单目车载视觉系统立体目标检测方法 |
CN109509223A (zh) * | 2018-11-08 | 2019-03-22 | 西安电子科技大学 | 基于深度学习的前方车辆测距方法 |
CN109506628A (zh) * | 2018-11-29 | 2019-03-22 | 东北大学 | 一种基于深度学习的卡车环境下目标物测距方法 |
CN109520480A (zh) * | 2019-01-22 | 2019-03-26 | 合刃科技(深圳)有限公司 | 基于双目立体视觉的测距方法及测距系统 |
Non-Patent Citations (2)
Title |
---|
WZZ18191171661: "Mask R-CNN详解", 《CSDN博客》 * |
万刚 等: "《无人机测绘技术及应用》", 31 December 2015, 测绘出版社 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837789A (zh) * | 2019-10-31 | 2020-02-25 | 北京奇艺世纪科技有限公司 | 一种检测物体的方法、装置、电子设备及介质 |
CN110826504A (zh) * | 2019-11-07 | 2020-02-21 | 深圳市微埃智能科技有限公司 | 一种结合细粒度分类的视觉识别方法、装置及计算机设备 |
CN110929606A (zh) * | 2019-11-11 | 2020-03-27 | 浙江鸿泉车联网有限公司 | 车辆盲区行人监控方法和装置 |
CN111366128A (zh) * | 2020-03-09 | 2020-07-03 | 上海海事大学 | 一种基于单幅图像的距离信息分析方法 |
CN113838075A (zh) * | 2020-06-23 | 2021-12-24 | 南宁富桂精密工业有限公司 | 单目测距方法、装置及计算机可读存储介质 |
CN113838075B (zh) * | 2020-06-23 | 2024-01-09 | 南宁富联富桂精密工业有限公司 | 单目测距方法、装置及计算机可读存储介质 |
CN111990930A (zh) * | 2020-08-28 | 2020-11-27 | 北京石头世纪科技股份有限公司 | 一种测距方法、装置、机器人和存储介质 |
CN111990930B (zh) * | 2020-08-28 | 2022-05-20 | 北京石头创新科技有限公司 | 一种测距方法、装置、机器人和存储介质 |
CN112070705A (zh) * | 2020-11-16 | 2020-12-11 | 天津天瞳威势电子科技有限公司 | 一种相机评测方法、装置和存储介质 |
CN113267128A (zh) * | 2021-05-31 | 2021-08-17 | 西南石油大学 | 一种双目视觉自动化边坡位移监测方法 |
CN113124819B (zh) * | 2021-06-17 | 2021-09-10 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种基于平面镜的单目测距方法 |
CN113124819A (zh) * | 2021-06-17 | 2021-07-16 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种基于平面镜的单目测距方法 |
CN113400196A (zh) * | 2021-06-18 | 2021-09-17 | 西安奕斯伟硅片技术有限公司 | 用于研磨定盘沟槽的清理方法、装置、设备及计算机存储介质 |
TWI796952B (zh) * | 2021-12-14 | 2023-03-21 | 威盛電子股份有限公司 | 物件偵測裝置以及物件偵測方法 |
CN116402871A (zh) * | 2023-03-28 | 2023-07-07 | 苏州大学 | 一种基于场景平行要素的单目测距方法、系统及电子设备 |
CN116402871B (zh) * | 2023-03-28 | 2024-05-10 | 苏州大学 | 一种基于场景平行要素的单目测距方法、系统及电子设备 |
CN116681778A (zh) * | 2023-06-06 | 2023-09-01 | 固安信通信号技术股份有限公司 | 一种基于单目相机的距离测量方法 |
CN116681778B (zh) * | 2023-06-06 | 2024-01-09 | 固安信通信号技术股份有限公司 | 一种基于单目相机的距离测量方法 |
CN116953680A (zh) * | 2023-09-15 | 2023-10-27 | 成都中轨轨道设备有限公司 | 一种基于图像的目标物实时测距方法及系统 |
CN116953680B (zh) * | 2023-09-15 | 2023-11-24 | 成都中轨轨道设备有限公司 | 一种基于图像的目标物实时测距方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110297232A (zh) | 基于计算机视觉的单目测距方法、装置及电子设备 | |
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN110322702B (zh) | 一种基于双目立体视觉系统的车辆智能测速方法 | |
CN109100741B (zh) | 一种基于3d激光雷达及图像数据的目标检测方法 | |
CN111027401B (zh) | 一种摄像头和激光雷达融合的端到端目标检测方法 | |
CN109655019B (zh) | 一种基于深度学习和三维重建的货物体积测量方法 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
Yin et al. | Hot region selection based on selective search and modified fuzzy C-means in remote sensing images | |
CN107067415B (zh) | 一种基于图像匹配的目标定位方法 | |
Geiger et al. | Are we ready for autonomous driving? the kitti vision benchmark suite | |
CN104574393B (zh) | 一种三维路面裂缝图像生成系统和方法 | |
CN114565900A (zh) | 基于改进YOLOv5和双目立体视觉的目标检测方法 | |
CN107291855A (zh) | 一种基于显著对象的图像检索方法及系统 | |
CN107741231A (zh) | 一种基于机器视觉的多运动目标快速测距方法 | |
CN102494663B (zh) | 摆动喷管的摆动角度的测量方法 | |
CN108846333A (zh) | 标志牌地标数据集生成及车辆定位方法 | |
CN110189375A (zh) | 一种基于单目视觉测量的图像目标识别方法 | |
CN114089329A (zh) | 一种基于长短焦相机与毫米波雷达融合的目标检测方法 | |
CN109341668A (zh) | 基于折射投影模型和光束追踪法的多相机测量方法 | |
Zhang et al. | Deep learning based object distance measurement method for binocular stereo vision blind area | |
CN106919895A (zh) | 用于运动目标的跟踪方法和系统 | |
CN113393439A (zh) | 一种基于深度学习的锻件缺陷检测方法 | |
CN110458128A (zh) | 一种姿态特征获取方法、装置、设备及存储介质 | |
Ma et al. | An intelligent object detection and measurement system based on trinocular vision | |
JP2019185787A (ja) | 地理的地域内のコンテナのリモート決定 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191001 |
|
RJ01 | Rejection of invention patent application after publication |