CN113724335B - 一种基于单目相机的三维目标定位方法及系统 - Google Patents

一种基于单目相机的三维目标定位方法及系统 Download PDF

Info

Publication number
CN113724335B
CN113724335B CN202110877753.0A CN202110877753A CN113724335B CN 113724335 B CN113724335 B CN 113724335B CN 202110877753 A CN202110877753 A CN 202110877753A CN 113724335 B CN113724335 B CN 113724335B
Authority
CN
China
Prior art keywords
scene
dimensional
camera
bounding box
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110877753.0A
Other languages
English (en)
Other versions
CN113724335A (zh
Inventor
王晨麟
须英伦
徐沛平
张鹏
汤涛
刘纪畅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Xuzhou Power Supply Co
Original Assignee
State Grid Xuzhou Power Supply Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Xuzhou Power Supply Co filed Critical State Grid Xuzhou Power Supply Co
Priority to CN202110877753.0A priority Critical patent/CN113724335B/zh
Publication of CN113724335A publication Critical patent/CN113724335A/zh
Application granted granted Critical
Publication of CN113724335B publication Critical patent/CN113724335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于单目相机的三维目标定位方法及系统。方法包括S1、对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型;S2、通过监控相机所拍摄的实时画面,将监控相机配准到步骤S1中的三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图;S3、对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报。本发明无需进行机器学习算法的训练,可以广泛应用于各类作业场景。

Description

一种基于单目相机的三维目标定位方法及系统
技术领域
本发明涉及计算机视觉技术领域,更具体地说,特别涉及一种基于单目相机的三维目标定位方法及系统。
背景技术
随着越来越多的室外工作场景对安全的要求越来越高,对与之相关的目标安全检测技术的要求也随之提升,但是目前的移动目标检测技术大多单纯的依赖于2D的图像检测技术,这样的方法无法精确估计目标物在空间中的三维位置。当前3D相机,如双目相机,虽然获得一定的应用,但是仍然很少应用在监控系统、小型无人机当中,限制了该方法的应用范围,并且想要直接获取高精度的3D信息,对物理设备的成本要求较高,推广难。为此,有必要开发一种基于单目相机的三维目标定位方法,其无需对硬件进行改造,并且可以获得目标物在真实场景下的三维位置,不需要训练数据,受环境,纹理信息干扰较小。
发明内容
本发明的目的在于提供一种基于单目相机的三维目标定位方法及系统,以克服现有技术所存在的缺陷。
为了达到上述目的,本发明采用的技术方案如下:
一种基于单目相机的三维目标定位方法,包括以下步骤:
S1、对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型;
S2、通过监控相机所拍摄的实时画面,将监控相机配准到步骤S1中的三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图;
S3、对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报。
进一步地,所述步骤S1具体包括以下步骤:
S10、使用相机进行各个角度的图像数据的捕捉,对拍摄获取的视频流进行关键帧的提取,获得关键图像帧K={K1,K2,K3,...};
S11、对每一关键图像帧进行SIFT特征点提取,获得P={P1,F2,P3,...},其中Fi为关键帧Ki所对应的特征点集,对关键图像帧间的特征点进行匹配,根据匹配结果,基于匹配特征点使用SFM方法进行稀疏三维重建和相机位姿的恢复,获取稀疏三维模型和每一图像所对应的相机参数信息;
S12、结合相机参数信息,采用多视角立体方法,进行稠密重建,获得每一个相机视角下的图像的稠密深度图D={D1,D2,D3,...},将多个视角下的稠密深度图进行深度融合,剔除视角间一致性小于设定值的三维点,获得作业场景的稠密三维点云模型p={p1,p1,p1,...},其中pi∈P为三维点云模型中的任意三维点坐标;
S13、将三维点云模型p={p1,p1,p1,...}通过点云语义分割方法分割出场景危险区域的点云数据,并计算包围盒B1,B2,B3...Bi。
进一步地,所述步骤S2具体包括以下步骤:
S20、通过监控相机获取场景的实时画面,在某一时刻t下的拍摄画面为图像Jt,对图像Jt进行特征点的提取,并与重建场时的关键图像帧的特征点集合F={F1,F2,F3,...}进行匹配,根据是否找到匹配点,定位一组与当前监控画面Jt对应的具有交叠范围的源图片集并将其中最临近的源图片I的相机位姿作为当前单目监控相机在场景下的位姿;
S21、针对图像Jt和源图像集执行捆绑调整操作,通过最小化重投影误差,优化图像Jt的位置ti和姿态Ri
进一步地,所述步骤S3具体包括以下步骤:
S30、根据基于图像的目标检测算法,定位移动目标的2D位置;
S31、将接触点位置的平均深度作为移动目标的重心处的深度,并根据移动目标的先验知识,给出移动目标在作业场景下的三维包围盒A;
S32、计算移动目标的三维包围盒A和场景某一危险区域的包围盒Bi的距离,通过计算两个包围盒的中心坐标的距离D,判断是否有包围盒距离小于规定的阈值L+M,若是则触发警报,其中L为移动目标包围盒的最长边,M为当前待判定的危险区域包围盒Bi的最长边。
进一步地,所述步骤S2中的监控相机为架设再地面的相机或无人机搭载的相机。
进一步地,所述步骤S11中的相机参数信息为相机内参数和外参数,所述相机内参数包括焦距、主点和畸变系数,所述外参数包括相对世界坐标原点的旋转R和平移t。
本发明还提供一种用于实现上述基于单目相机的三维目标定位方法的系统,包括:
三维重建模块,用于对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型;
配准模块,用于通过监控相机所拍摄的实时画面,将监控相机配准到三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图;
判断模块,用于对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报;
所述三维重建模块、配准模块和判断模块依次连接。
与现有技术相比,本发明的优点在于:本发明无需进行机器学习算法的训练,可以广泛应用于各类作业场景,本发明通过预先对作业场景进行三维重建,在作业之前将监控相机配准到三维场景,通过施工人员、车辆等移动目标与场景的接触位置的检测,获得施工人员、车辆等移动目标的的三维包围盒,可应用于施工人员、车辆与施工场景下危险区域间的距离定位,提升施工的安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于单目相机的三维目标定位示意图。
图2是本发明基于单目相机的三维目标定位方法的流程图。
具体实施方式
下面结合附图对本发明的优选实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
实施例一
参阅图1和图2所示,本实施例公开了一种基于单目相机的三维目标定位方法,包括以下步骤:
步骤S1、对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型。具体包括:
首先,使用高清相机进行各个角度的图像数据的捕捉,对拍摄获取的视频流进行关键帧的提取,获得关键图像帧K={K1,K2,K3,...}。
然后,对每一关键图像帧进行SIFT特征点提取,获得F={F1,F2,F3,...},其中Fi为关键帧Ki所对应的特征点集,对关键图像帧间的特征点进行匹配,根据匹配结果,基于匹配特征点使用SFM(Structure from Motion)方法进行稀疏三维重建和相机位姿的恢复,获取稀疏三维模型和每一图像所对应的相机参数信息,相机参数信息包括内参数(焦距、主点和畸变系数)和外参数(相对世界坐标原点的旋转R和平移t)。在此基础上,对稀疏点云模型,进行捆绑调整(Bundle Adjustment),优化所有相机的参数和三维点云的位置。
其次,结合相机参数信息,采用多视角立体(Multi-view stereo)方法,进行稠密重建,获得每一个相机视角下的图像的稠密深度图D={D1,D2,D3,...},将多个视角下的稠密深度图进行深度融合,剔除视角间一致性小于设定值的三维点,获得作业场景的稠密三维点云模型P={p1,p1,p1,…},其中pi∈P为三维点云模型中的任意三维点坐标;本实施例的这一重建过程是在作业开始前进行的,通过对作业场景进行三维重建,将可以获得场景的完整三维模型。
最后,将三维点云模型P={p1,p1,p1,...}通过点云语义分割方法分割出场景危险区域的点云数据,并计算包围盒B1,B2,B3...Bi。
步骤S2、在作业即将开始之前,将监控相机放置在场景中,本实施例所假设的监控相机不限于传统意义上的固定的相机,也涵盖了无人机搭载的摄像头等动态监控情况。假设监控相机的内参数已经预先通过拍摄棋盘格的多角度图像的方法标定。通过监控相机捕获的场景画面,将其与三维场景P进行配准。即是通过监控相机所拍摄的实时画面,将监控相机配准到步骤S1中的三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图。具体包括:
首先,通过监控相机获取场景的实时画面,在某一时刻t下的拍摄画面为图像jt,对图像Jt进行特征点的提取,并与重建场时的关键图像帧的特征点集合F={F1,F2,F3,...}进行匹配,根据是否找到匹配点,定位一组与当前监控画面Jt对应的具有交叠范围的源图片集并将其中最临近的源图片l的相机位姿((旋转矩阵R1,和平移向量ti))作为当前单目监控相机在场景下的位姿。
然后,针对图像Jt和源图像集执行捆绑调整操作(bundle adiustment),通过最小化重投影误差,优化图像Jt的位置ti和姿态Ri
步骤S3、对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报。具体包括:
首先,根据基于图像的目标检测算法,定位移动目标的2D位置,本实施例提出一种简单的图像目标检测方法:移动目标进入视野时,根据背景图像和当前包含移动目标图像做差,获得2D图像上定位移动的位置,并通过形态学操作过滤可能的噪声。检测移动目标与作业场景的接触点集合M={m1,m2,m3,...},如人员与地面的接触位置。由于M的三维信息在步骤一中已经进行了重建,通过步骤S2中估计出的当前监控画面Jt上,基于以上步骤获得监控相机所观察的场景深度图所对应的相机参数ti和姿态Ri,可以很容易的将场景点M投影到当前画面,并计算出对应的深度。通过考虑物体间的遮挡,每接触点选择最小的投影深度作为深度值,根据新相机的参数信息,和移动目标接触的环境区域的边缘信息的深度信息。
然后,将接触点位置的平均深度作为移动目标的重心处的深度,并根据移动目标的先验知识,如成年男性人体的身高大约在1.6米-1.8米之间,给出移动目标在作业场景下的三维包围盒A。
最后,计算移动目标的三维包围盒A和场景某一危险区域的包围盒Bi的距离,通过计算两个包围盒的中心坐标的距离D,判断是否有包围盒距离小于规定的阈值L+M,若是则触发警报(即若D<L+M,则认为目标物体距离危险区域过近,触发警报),其中L为移动目标包围盒的最长边,M为当前待判定的危险区域包围盒Bi的最长边。
本发明无需进行机器学习算法的训练,可以广泛应用于各类作业场景,本发明通过预先对作业场景进行三维重建,在作业之前将监控相机配准到三维场景,通过施工人员、车辆等移动目标与场景的接触位置的检测,获得施工人员、车辆等移动目标的的三维包围盒,可应用于施工人员、车辆与施工场景下危险区域间的距离定位,提升施工的安全性。
实施例二
本实施例还提供一种用于实现实施例一所述基于单目相机的三维目标定位方法的系统,包括:三维重建模块,用于对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型;配准模块,用于通过监控相机所拍摄的实时画面,将监控相机配准到三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图;判断模块,用于对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报,所述三维重建模块、配准模块和判断模块依次连接。
虽然结合附图描述了本发明的实施方式,但是专利所有者可以在所附权利要求的范围之内做出各种变形或修改,只要不超过本发明的权利要求所描述的保护范围,都应当在本发明的保护范围之内。

Claims (4)

1.一种基于单目相机的三维目标定位方法,其特征在于,包括以下步骤:
S1、对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型;
S2、通过监控相机所拍摄的实时画面,将监控相机配准到步骤S1中的三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图;
S3、对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报;
所述步骤S1具体包括以下步骤:
S10、使用相机进行各个角度的图像数据的捕捉,对拍摄获取的视频流进行关键帧的提取,获得关键图像帧K={K1,K2,K3,...};
S11、对每一关键图像帧进行SIFT特征点提取,获得F={F1,F2,F3,...},其中Fi为关键帧Ki所对应的特征点集,对关键图像帧间的特征点进行匹配,根据匹配结果,基于匹配特征点使用SFM方法进行稀疏三维重建和相机位姿的恢复,获取稀疏三维模型和每一图像所对应的相机参数信息;
S12、结合相机参数信息,采用多视角立体方法,进行稠密重建,获得每一个相机视角下的图像的稠密深度图D={D1,D2,D3,...},将多个视角下的稠密深度图进行深度融合,剔除视角间一致性小于设定值的三维点,获得作业场景的稠密三维点云模型P={p1,p1,p1,…},其中pi∈P为三维点云模型中的任意三维点坐标;
S13、将三维点云模型P={p1,p1,p1,...}通过点云语义分割方法分割出场景危险区域的点云数据,并计算包围盒B1,B2,B3…Bi;
所述步骤S2具体包括以下步骤:
S20、通过监控相机获取场景的实时画面,在某一时刻t下的拍摄画面为图像Jt,对图像Jt进行特征点的提取,并与重建场时的关键图像帧的特征点集合F={F1,F2,F3,...}进行匹配,根据是否找到匹配点,定位一组与当前监控画面Jt对应的具有交叠范围的源图片集并将其中最临近的源图片I的相机位姿作为当前单目监控相机在场景下的位姿;
S21、针对图像Jt和源图像集执行捆绑调整操作,通过最小化重投影误差,优化图像Jt的位置ti和姿态Ri
所述步骤S3具体包括以下步骤:
S30、根据基于图像的目标检测算法,定位移动目标的2D位置;
S31、将接触点位置的平均深度作为移动目标的重心处的深度,并根据移动目标的先验知识,给出移动目标在作业场景下的三维包围盒A;
S32、计算移动目标的三维包围盒A和场景某一危险区域的包围盒Bi的距离,通过计算两个包围盒的中心坐标的距离D,判断是否有包围盒距离小于规定的阈值L+M,若是则触发警报,其中L为移动目标包围盒的最长边,M为当前待判定的危险区域包围盒Bi的最长边。
2.根据权利要求1所述的基于单目相机的三维目标定位方法,其特征在于,所述步骤S2中的监控相机为架设再地面的相机或无人机搭载的相机。
3.根据权利要求1所述的基于单目相机的三维目标定位方法,其特征在于,所述步骤S11中的相机参数信息为相机内参数和外参数,所述相机内参数包括焦距、主点和畸变系数,所述外参数包括相对世界坐标原点的旋转R和平移t。
4.一种用于实现权利要求1-3任意一项所述的基于单目相机的三维目标定位方法的系统,其特征在于,包括:
三维重建模块,用于对目标作业场景进行预先重建,以形成目标作业场景的三维点云模型;
配准模块,用于通过监控相机所拍摄的实时画面,将监控相机配准到三维点云模型中以获得监控相机相对于三维点云模型的位置和姿态,将场景的三维点云投影到当前监控相机的图像上,获得单目监控相机所感知的场景深度图;
判断模块,用于对移动目标的2D包围盒进行检测,判断移动目标与场景的接触位置,使用接触位置的深度推断移动目标的3D包围盒,通过移动目标的3D包围盒和场景中危险物体的3D包围盒判断移动目标是否处于安全距离,若大于安全阀值则触发警报;
所述三维重建模块、配准模块和判断模块依次连接。
CN202110877753.0A 2021-08-01 2021-08-01 一种基于单目相机的三维目标定位方法及系统 Active CN113724335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110877753.0A CN113724335B (zh) 2021-08-01 2021-08-01 一种基于单目相机的三维目标定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110877753.0A CN113724335B (zh) 2021-08-01 2021-08-01 一种基于单目相机的三维目标定位方法及系统

Publications (2)

Publication Number Publication Date
CN113724335A CN113724335A (zh) 2021-11-30
CN113724335B true CN113724335B (zh) 2023-12-19

Family

ID=78674636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110877753.0A Active CN113724335B (zh) 2021-08-01 2021-08-01 一种基于单目相机的三维目标定位方法及系统

Country Status (1)

Country Link
CN (1) CN113724335B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442805A (zh) * 2022-01-06 2022-05-06 上海安维尔信息科技股份有限公司 一种监控场景展示方法、系统、电子设备及存储介质
CN116704403B (zh) * 2023-05-11 2024-05-24 杭州晶彩数字科技有限公司 一种建筑物图像视觉辨别方法、装置、电子设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846891A (zh) * 2018-05-30 2018-11-20 广东省智能制造研究所 一种基于三维骨架检测的人机安全协作方法
CN111291714A (zh) * 2020-02-27 2020-06-16 同济大学 一种基于单目视觉和激光雷达融合的车辆检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846891A (zh) * 2018-05-30 2018-11-20 广东省智能制造研究所 一种基于三维骨架检测的人机安全协作方法
CN111291714A (zh) * 2020-02-27 2020-06-16 同济大学 一种基于单目视觉和激光雷达融合的车辆检测方法

Also Published As

Publication number Publication date
CN113724335A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
US11748907B2 (en) Object pose estimation in visual data
CN106960454B (zh) 景深避障方法、设备及无人飞行器
US8331614B2 (en) Method and apparatus for tracking listener's head position for virtual stereo acoustics
Salman et al. Distance measurement for self-driving cars using stereo camera
CN107843251B (zh) 移动机器人的位姿估计方法
CN113724335B (zh) 一种基于单目相机的三维目标定位方法及系统
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
CN110956661B (zh) 基于双向单应矩阵的可见光与红外相机动态位姿计算方法
WO2019127518A1 (zh) 避障方法、装置及可移动平台
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
CN113781562B (zh) 一种基于道路模型的车道线虚实配准和自车定位方法
CN113313097B (zh) 人脸识别方法、终端及计算机可读存储介质
CN110853002A (zh) 一种基于双目视觉的变电站异物检测方法
CN113537047A (zh) 障碍物检测方法、装置、交通工具及存储介质
CN111047636B (zh) 基于主动红外双目视觉的避障系统和避障方法
KR100574227B1 (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
CN112470189B (zh) 光场系统的遮挡消除
CN111465937B (zh) 采用光场相机系统的脸部检测和识别方法
Yamaguchi Three dimensional measurement using fisheye stereo vision
JP7363504B2 (ja) オブジェクト検出方法、検出装置及び電子機器
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
Bazin et al. An original approach for automatic plane extraction by omnidirectional vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant