CN110136202A - 一种基于ssd与双摄像头的多目标识别与定位方法 - Google Patents
一种基于ssd与双摄像头的多目标识别与定位方法 Download PDFInfo
- Publication number
- CN110136202A CN110136202A CN201910422933.2A CN201910422933A CN110136202A CN 110136202 A CN110136202 A CN 110136202A CN 201910422933 A CN201910422933 A CN 201910422933A CN 110136202 A CN110136202 A CN 110136202A
- Authority
- CN
- China
- Prior art keywords
- target
- camera
- box
- ssd
- default
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于SSD与双摄像头的多目标识别与定位方法,包括:基于张氏标定法的相机标定,利用内参使用EPnP算法和Levenberg‑Marquardt算法计算得到精确相机位姿;利用深度学习目标检测框架SSD训练多目标检测模型,可以精准识别双摄像头视线内的多目标;利用SIFT特征把左右摄像机检测出的目标匹配,根据得到的相机位姿,求解目标在现实世界中的位置,实现目标的定位。本发明在室内定位导航中利用深度学习训练模型对多目标进行检测,识别的目标可以包括但不限于行人、狗、车等;既能够实现双摄像头在远距离情况下的定位,又利用了深度学习识别目标的鲁棒性,实现双摄像头多目标快速识别和定位。
Description
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于SSD与双摄像头的多目标识别与定位方法,实现多目标以及两摄像头距离较远情况下的定位。
背景技术
实现室内外定位导航一直是人类追求的目标,如今,室内定位导航已经得到了快速的发展,然而,室内导航定位技术的发展并没有满足人类的正常需要,定位准确性、实时性以及多目标性在很大程度上制约着相关应用的发展以及推广。随着城市化和经济社会发展,如何实现快速高效的室内定位,成为提高我国经济发展的制约因素。然而,楼宇内情况信息复杂,信号的传递、目标的定位与跟踪显得尤为困难。为了提高定位的高效性和准确性,需要加强对定位技术的发展力度。
现有的定位导航技术包括超声波定位导航、红外线定位导航、激光定位导航以及视觉定位导航,其中视觉定位导航通过几个位于物体不同方位的视觉传感器对物体成像,通过视差恢复深度信息,并将其余传感器的实际位置联系起来,完成定位。其中双目立体视觉技术通过左、右摄像头提供的图像信息能够比较准确地恢复视场的三维信息,相比于超声、激光、红外等主动法测距传感器,视觉传感器具有信息丰富、探测范围广等诸多优点,目前,两摄像头距离较近的定位已经实现,然而,较远距离的双摄像头定位还没有实现,且现有的技术大都是单目标的定位,尚没有多目标的双摄像头定位方法。
发明内容
基于上述现有技术存在的缺陷,本发明提出一种基于SSD与双摄像头的多目标识别与定位方法,快速实现目标的定位。
为实现本发明的目的,本发明采用如下技术方案:
一种基于SSD与双摄像头的多目标识别与定位方法,包括以下步骤:
S1,基于张氏标定法的相机内参标定;利用EPnP算法和Levenberg-Marquardt算法计算得到精确的相机位姿;
S2,使用双摄像头对多目标进行数据采集,利用SSD训练多目标检测模型,得到目标以及目标在图像上的位置;
S3,利用SIFT特征把双摄像头检测出的多目标匹配,根据得到的相机位姿,求解目标在现实世界中的位置,实现多目标的定位。
进一步地,步骤1中,标定时,棋盘格标定板处于左右两个摄像头的成像范围内,左右两个摄像头间隔一定距离。
进一步地,步骤S1具体为:
S11:使用4个非共面的虚拟控制点来表示场景点,令表示世界坐标系下的4个虚拟控制点,表示世界坐标系下的场景点集,表示相机坐标系下的4个虚拟控制点,表示相机坐标系下的场景点集,根据场景点和对应的图像点求解控制点在相机坐标下的坐标,继而求出相机位姿;
S12:将粗匹配得到的相机位姿作为迭代初始值,使用Levenberg-Marquardt算法获得精确的相机位姿。
进一步地,步骤S2中:所述SSD的网络结构包括基础网络VGG16和特征提
取网络,在特征提取成功的基础上处理得到不同尺度的feature map,生成多
组default box进行预测分类和位置调整信息。
进一步地,步骤S2中,利用SSD训练多目标检测模型具体为:
S21:在预测阶段,通过SSD对每层的feature map做卷积操作,对每个defaultbox生成一个分类标签以及位置坐标的调整;
S22:对比SSD网络的default box与标记好的ground truth,按照置信度进行排序;如果满足标准,则该default box为positive样本,否则即为negative样本;
S23:进行网络训练,网络的总损失函数为:
其中,g是地面实况标签,l是预测的框,N是默认匹配框的数量,c表示搜索框,Lconf和Lloc分表表示类别损失函数和位置损失函数,x的值为{0,1},α是定位网络的权重;
位置损失函数为:
其中,i属于positive;d是default box的w,h;g是ground truth的w,h;w,h分别代表框的宽和高。
smoothL1的计算方法如下:
类别损失函数为:
类别损失函数考虑正样本和负样本;
其中x为1表明两者match;
当default box与本张图像中任一ground truth box的交并比超过一个阈值(默认为0.5),便设为候选正样本,其他为候选负样本。对于候选正样本集:选择类别loss最高的m个prior box与候选正样本集匹配,匹配不成功则删除这个正样本;对于候选负样本集:选择类别loss最高的m个prior box与候选负样本集匹配,匹配成功的则留下来作为最后的负样本,不成功剔除出候选负样本。
正样本时,选取交并比最大的且超过阈值的ground truth box的label作为该default box的标签,之后与卷积计算出来的该default box的标签进行cross entropy;
负样本时,将0作为该default box的标签与feature map计算出的标签进行crossentropy;
S24:训练完成后,双摄像头获取的图片输入到模型,即可得到多个被框图框住的目标。
进一步地,步骤S3具体为:
S31:双摄像头获取的图片输入到SSD训练好的模型中,检测出多目标,目标被框图所标记;使用SIFT算法对左右两个摄像头中的多目标进行特征提取,对提取的特征向量进行匹配;目标在图像上的坐标即为框图的中心点坐标;
S32:根据摄像头坐标与世界坐标系之间的关系可得:
X1=R1XW+t1
X2=R2XW+t2
X2=RX1+T
其中XW是世界坐标,X1、X2分别是左右摄像头系坐标,R1,R2,t1,t2是左右摄像头的旋转平移矩阵,由上式可得:
求得左右摄像头系的旋转矩阵R和平移矩阵T:
S33:根据摄像头坐标与世界坐标系之间的关系,求得目标的世界坐标,从而实现目标的定位:
假设目标P的坐标为(X,Y,Z),P的左右图像坐标分别是(u1,v1),(u2,v2),它们的投影矩阵分别是M1和M2,可得:
消去Zc1和Zc2,并转换成矩阵形式,然后用最小二乘法可以求得目标的世界坐标,从而实现目标定位。
相对于现有技术,本发明具有以下优点:
本发明在室内定位导航中对多目标进行检测定位,利用深度神经网络训练模型对多目标进行检测,并结合图像坐标系和世界坐标系之间的关系,快速实现目标的定位。识别的目标可以包括但不限于行人、狗、车等,充分利用深度学习识别目标的鲁棒性,实现双摄像头多目标快速识别以及定位。
附图说明
为了更清楚地说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是SSD网络结构图。
图2是双视觉成像原理图。
具体实施方式
为了使本领域技术人员更好地理解本发明的技术方案,下面将结合具体的实施方式,对本发明进行详细地介绍说明。
本发明所述双摄像头室内多目标识别与定位方法,包括以下步骤:
S1,基于张氏标定法的相机内参标定;利用EPnP算法和Levenberg-Marquardt算法计算得到精确相机位姿;
S2,使用双摄像头对多目标进行数据采集,利用SSD(Single Shot MultiBoxDetector)训练多目标检测模型,得到目标以及目标在图像上的位置;
S3,利用SIFT特征把左右摄像头检测出的目标匹配,根据得到的相机位姿,求解目标在现实世界中的位置,实现目标的定位。
本实施例中,标定时,棋盘格标定板需要同时出现在左右两个摄像头中,同时由于左右两个摄像头的距离较远,为了使得标定的结果更加准确,需要找到一个较大面积的标定棋盘格,使其同时出现在左右两个较远距离摄像头的成像范围内。具体计算步骤如下:
S11:使用张氏标定法求取摄像头的内参,采用EPnP算法代替Levenberg-Marquardt算法获得相机的粗略位姿。原本的Levenberg-Marquardt为迭代运算发,运算量较大,导致计算效率较低。使用非迭代算法代替迭代算法,计算方法更简单,具有很好的实时性。且当点对数较大时,仍能使用4个虚拟控制点来求解相机位姿,大大提高计算效率。具体为:
令表示世界坐标系下的4个虚拟控制点,表示世界坐标系下的场景点,表示相机坐标系下的4个虚拟控制点,表示相机坐标系下的场景点集,则和之间有如下关系:
相应的矩阵形式为:
根据相机投影模型可得:
其中K为相机内参矩阵,(ui,vi,1)为场景点所对应像点的齐次坐标,wi为比例因子,进一步表示为:
其中为虚拟控制点在相机坐标下的坐标,注意等式最后一行为将其带入上式消去wi,并转换成线性方程组的形式为:
该方程组X的解位于矩阵A的核空间,即:
wi为12*12的零特征值对应的特征向量,因此可求得4个虚拟控制点在相机坐标系下的坐标。
S12:将粗匹配得到的位姿作为迭代初始值,使用Levenberg-Marquardt算法获得精确地相机位姿。
如图1所示,本实施例所述SSD网络结构图,其有两部分组成,第一部分基础网络来源自经典网络VGG16,第二部分为额外的特征提取网络,在提取成特征的基础之上处理得到不同尺度的特征图,生成许多组default box进行预测分类和位置调整信息。
步骤S2具体为:
S21:网络的输入包括尺寸大小为300*300的图片以及default box,这些defaultbox有不同的大小和横纵比例。在预测阶段,通过SSD对每层的特征图做卷积操作,会对每个default box生成一个分类标签以及位置坐标的调整,卷积核设定为3*3。
S22:SSD网络的default box(也可以叫做priors)与标记好的ground truth进行一个比对,按照置信度进行排序。如果满足标准就认为这个priors是一个positive样本,否则就是negative样本。按照pos:neg=1:3的比例,使得正负样本比例协调。
S23:进行网络训练,网络的总损失函数为:
其中g是地面实况标签,l是预测的框,N是默认匹配框的数量,c表示搜索框,Lconf和Lloc分表表示类别损失函数和位置损失函数,x的值为{0,1},α是定位网络的权重。位置损失函数为:
这部分的位置损失只计算经过对比的正样本,即i属于positive。d是priors的w,h。g是ground truth的w,h,w,h分别代表框的宽和高。l是由特征图经过卷积计算出来的。其中smoothL1的计算方法如下:
类别损失函数为:
这部分损失函数既考虑正样本也考虑负样本。其中如果x为1说明两者match,否则就是0。default box与某个ground truth box的交并比超过阈值0.5即为正样本,选取交并比最大的且超过阈值的那个ground truth box的标签作为这个default box的标签,之后与卷积计算出来的这个default box的标签进行交叉熵。负样本就是用0作为这个default box的标签与特征图计算出的标签进行交叉熵。
S24:训练完成后,摄像头获取的图片输入到模型,即可得到多个被框图框住的目标。
本实施例中,双摄像头(双视觉)成像原理如图2所示,步骤S3具体为:
S31:摄像头获取的图片输入到SSD训练好的模型中,检测出目标,目标被框图所标记。使用SIFT算法对左右两个摄像头中的目标进行特征提取,对提取的特征向量进行匹配。目标在图像上的坐标即为框图的中心点坐标。
S32:根据摄像头坐标与世界坐标系之间的关系可以知道:
其中XW是世界坐标,X1、X2分别是左右摄像头系坐标,R1,R2,t1,t2是左右摄像头的旋转平移矩阵,由上式可得:
可以求得左右摄像头系的旋转矩阵R和平移矩阵T(以左摄像头为参考坐标系):
S33:根据摄像头坐标与世界坐标系之间的关系,可以求得目标的世界坐标,从而实现目标的定位。假设目标P的坐标为(X,Y,Z),P的左右图像坐标分别是(u1,v1),(u2,v2),它们的投影矩阵分别是M1和M2,那么下面两式
消去Zc1和Zc2,并转换成矩阵形式,然后用最小二乘法可以求得目标的世界坐标,从而实现目标定位。
以上实施例仅用于说明本发明的优选实施方式,但本发明并不限于上述实施方式,在所述领域普通技术人员所具备的知识范围内,本发明的精神和原则之内所作的任何修改、等同替代和改进等,其均应涵盖在本发明请求保护的技术方案范围之内。
Claims (6)
1.一种基于SSD与双摄像头的多目标识别与定位方法,其特征在于,包括以下步骤:
S1,基于张氏标定法的相机内参标定;利用EPnP算法和Levenberg-Marquardt算法计算得到精确的相机位姿;
S2,使用双摄像头对多目标进行数据采集,利用SSD训练多目标检测模型,得到目标以及目标在图像上的位置;
S3,利用SIFT特征把双摄像头检测出的多目标匹配,根据得到的相机位姿,求解目标在现实世界中的位置,实现多目标的定位。
2.如权利要求1所述的方法,其特征在于,步骤1中,标定时,棋盘格标定板处于左右两个摄像头的成像范围内,左右两个摄像头间隔一定距离。
3.如权利要求2所述的方法,其特征在于,步骤S1具体为:
S11:使用4个非共面的虚拟控制点来表示场景点,令表示世界坐标系下的4个虚拟控制点,表示世界坐标系下的场景点集,表示相机坐标系下的4个虚拟控制点,表示相机坐标系下的场景点集,根据场景点和对应的图像点求解控制点在相机坐标下的坐标,继而求出相机位姿;
S12:将粗匹配得到的相机位姿作为迭代初始值,使用Levenberg-Marquardt算法获得精确的相机位姿。
4.如权利要求3所述的方法,其特征在于,步骤S2中:
所述SSD的网络结构包括基础网络VGG16和特征提取网络,在特征提取成功的基础上处理得到不同尺度的feature map,生成多组default box进行预测分类和位置调整信息。
5.如权利要求4所述的方法,其特征在于,步骤S2中,利用SSD训练多目标检测模型具体为:
S21:在预测阶段,通过SSD对每层的feature map做卷积操作,对每个default box生成一个分类标签以及位置坐标的调整;
S22:对比SSD网络的default box与标记好的ground truth,按照置信度进行排序;如果满足标准,则该default box为positive样本,否则即为negative样本;
S23:进行网络训练,网络的总损失函数为:
其中,g是地面实况标签,l是预测的框,N是默认匹配框的数量,c表示搜索框,Lconf和Lloc分表表示类别损失函数和位置损失函数,x的值为{0,1},α是定位网络的权重;
位置损失函数为:
其中,i属于positive;d是default box的w,h;g是ground truth box的w,h;w,h分别代表框的宽和高;
smoothL1的计算方法如下:
类别损失函数为:
类别损失函数考虑正样本和负样本;
其中x为1表明两者match;
当default box与本张图像中任一ground truth box的交并比超过一个阈值,便设为候选正样本,否则为候选负样本;对于候选正样本集:选择类别loss最高的m个prior box与候选正样本集匹配,匹配不成功则删除这个正样本;对于候选负样本集:选择类别loss最高的m个prior box与候选负样本集匹配,匹配成功的则留下来作为最后的负样本,不成功剔除出候选负样本;
正样本时,选取IOU最大的且超过阈值的ground truth box的label作为该defaultbox的标签,之后与卷积计算出来的该default box的标签进行cross entropy;
负样本时,将0作为该default box的标签与feature map计算出的标签进行crossentropy;
S24:训练完成后,双摄像头获取的图片输入到模型,即可得到多个被框图框住的目标。
6.如权利要求5所述的方法,其特征在于:步骤S3具体为:
S31:双摄像头获取的图片输入到SSD训练好的模型中,检测出多目标,目标被框图所标记;使用SIFT算法对左右两个摄像头中的多目标进行特征提取,对提取的特征向量进行匹配;目标在图像上的坐标即为框图的中心点坐标;
S32:根据摄像机坐标与世界坐标系之间的关系可得:
X1=R1XW+t1
X2=R2XW+t2
X2=RX1+T
其中XW是世界坐标,X1、X2分别是左右摄像头系坐标,R1,R2,t1,t2是左右摄像头的旋转平移矩阵,由上式可得:
求得左右摄像头系的旋转矩阵R和平移矩阵T:
S33:根据摄像机坐标与世界坐标系之间的关系,求得目标的世界坐标,从而实现目标的定位:
假设目标P的坐标为(X,Y,Z),P的左右图像坐标分别是(u1,v1),(u2,v2),它们的投影矩阵分别是M1和M2,可得:
消去Zc1和Zc2,并转换成矩阵形式,然后用最小二乘法可以求得目标的世界坐标,从而实现目标定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910422933.2A CN110136202A (zh) | 2019-05-21 | 2019-05-21 | 一种基于ssd与双摄像头的多目标识别与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910422933.2A CN110136202A (zh) | 2019-05-21 | 2019-05-21 | 一种基于ssd与双摄像头的多目标识别与定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110136202A true CN110136202A (zh) | 2019-08-16 |
Family
ID=67571844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910422933.2A Pending CN110136202A (zh) | 2019-05-21 | 2019-05-21 | 一种基于ssd与双摄像头的多目标识别与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136202A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110660101A (zh) * | 2019-08-19 | 2020-01-07 | 浙江理工大学 | 基于rgb图像和坐标系变换的物体6d姿势预测方法 |
CN111016786A (zh) * | 2019-12-17 | 2020-04-17 | 天津理工大学 | 基于3d视线估计的汽车a柱遮挡区域显示方法 |
CN111626995A (zh) * | 2020-05-19 | 2020-09-04 | 上海艾豚科技有限公司 | 一种针对工件的智能嵌件检测方法和装置 |
CN112017300A (zh) * | 2020-07-22 | 2020-12-01 | 青岛小鸟看看科技有限公司 | 混合现实图像的处理方法、装置及设备 |
CN112135246A (zh) * | 2020-09-23 | 2020-12-25 | 中科芯集成电路有限公司 | 一种基于ssd目标检测的rssi更新的室内定位方法 |
CN112396037A (zh) * | 2020-12-11 | 2021-02-23 | 杭州博镨科技有限公司 | 一种基于深度学习的室内装饰识别与定位方法 |
CN112395961A (zh) * | 2020-10-31 | 2021-02-23 | 太原理工大学 | 一种洒水车的视觉主动行人避让及水压自适应控制方法 |
CN112581529A (zh) * | 2020-09-22 | 2021-03-30 | 临沂大学 | 一种实现后方交会的新方法、新数据处理系统及存储介质 |
WO2021097048A1 (en) * | 2019-11-14 | 2021-05-20 | Nec Laboratories America, Inc. | Object detection with training from multiple datasets |
CN113362388A (zh) * | 2021-06-03 | 2021-09-07 | 安徽芯纪元科技有限公司 | 一种用于目标定位和姿态估计的深度学习模型 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104091324A (zh) * | 2014-06-16 | 2014-10-08 | 华南理工大学 | 一种基于连通域分割的棋盘格图像快速特征匹配算法 |
CN109166153A (zh) * | 2018-08-21 | 2019-01-08 | 江苏德丰建设集团有限公司 | 基于双目视觉的塔吊高空作业三维定位方法及定位系统 |
-
2019
- 2019-05-21 CN CN201910422933.2A patent/CN110136202A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104091324A (zh) * | 2014-06-16 | 2014-10-08 | 华南理工大学 | 一种基于连通域分割的棋盘格图像快速特征匹配算法 |
CN109166153A (zh) * | 2018-08-21 | 2019-01-08 | 江苏德丰建设集团有限公司 | 基于双目视觉的塔吊高空作业三维定位方法及定位系统 |
Non-Patent Citations (4)
Title |
---|
TAO YANG ET.AL: "Hybrid Camera Array-Based UAV Auto-Landing on Moving UGV in GPS-Denied Environment", 《REMOTE SENSING》 * |
姚艳虹: "基于视觉的四旋翼无人机室内导航系统研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
朱大炜: "基于深度学习的红外图像飞机目标检测方法", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
蒋强卫: "基于卷积神经网络的双目视觉物体识别与定位研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110660101A (zh) * | 2019-08-19 | 2020-01-07 | 浙江理工大学 | 基于rgb图像和坐标系变换的物体6d姿势预测方法 |
CN110660101B (zh) * | 2019-08-19 | 2022-06-07 | 浙江理工大学 | 基于rgb图像和坐标系变换的物体6d姿势预测方法 |
WO2021097048A1 (en) * | 2019-11-14 | 2021-05-20 | Nec Laboratories America, Inc. | Object detection with training from multiple datasets |
CN111016786B (zh) * | 2019-12-17 | 2021-03-26 | 天津理工大学 | 基于3d视线估计的汽车a柱遮挡区域显示方法 |
CN111016786A (zh) * | 2019-12-17 | 2020-04-17 | 天津理工大学 | 基于3d视线估计的汽车a柱遮挡区域显示方法 |
CN111626995A (zh) * | 2020-05-19 | 2020-09-04 | 上海艾豚科技有限公司 | 一种针对工件的智能嵌件检测方法和装置 |
CN111626995B (zh) * | 2020-05-19 | 2024-03-01 | 上海艾豚科技有限公司 | 一种针对工件的智能嵌件检测方法和装置 |
CN112017300A (zh) * | 2020-07-22 | 2020-12-01 | 青岛小鸟看看科技有限公司 | 混合现实图像的处理方法、装置及设备 |
CN112581529A (zh) * | 2020-09-22 | 2021-03-30 | 临沂大学 | 一种实现后方交会的新方法、新数据处理系统及存储介质 |
CN112135246A (zh) * | 2020-09-23 | 2020-12-25 | 中科芯集成电路有限公司 | 一种基于ssd目标检测的rssi更新的室内定位方法 |
CN112395961A (zh) * | 2020-10-31 | 2021-02-23 | 太原理工大学 | 一种洒水车的视觉主动行人避让及水压自适应控制方法 |
CN112396037A (zh) * | 2020-12-11 | 2021-02-23 | 杭州博镨科技有限公司 | 一种基于深度学习的室内装饰识别与定位方法 |
CN113362388A (zh) * | 2021-06-03 | 2021-09-07 | 安徽芯纪元科技有限公司 | 一种用于目标定位和姿态估计的深度学习模型 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136202A (zh) | 一种基于ssd与双摄像头的多目标识别与定位方法 | |
WO2021196294A1 (zh) | 一种跨视频人员定位追踪方法、系统及设备 | |
CN107392964B (zh) | 基于室内特征点和结构线结合的室内slam方法 | |
WO2020259481A1 (zh) | 定位方法及装置、电子设备、可读存储介质 | |
US9330307B2 (en) | Learning based estimation of hand and finger pose | |
CN109544636A (zh) | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 | |
CN112001926B (zh) | 基于多维语义映射rgbd多相机标定方法、系统及应用 | |
CN108805906A (zh) | 一种基于深度图的运动障碍物检测及定位方法 | |
CN107808407A (zh) | 基于双目相机的无人机视觉slam方法、无人机及存储介质 | |
CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位系统及方法 | |
JP7427188B2 (ja) | 3dポーズ取得方法及び装置 | |
CN108628306B (zh) | 机器人行走障碍检测方法、装置、计算机设备和存储介质 | |
CN110443898A (zh) | 一种基于深度学习的ar智能终端目标识别系统及方法 | |
CN110853075A (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN112132874B (zh) | 无标定板异源图像配准方法、装置、电子设备及存储介质 | |
CN108776989A (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
Tomono | 3-D localization and mapping using a single camera based on structure-from-motion with automatic baseline selection | |
CN108537844A (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN114036969A (zh) | 一种多视角情况下的3d人体动作识别算法 | |
WO2022191140A1 (ja) | 3d位置取得方法及び装置 | |
CN114689038A (zh) | 基于机器视觉的果实检测定位与果园地图构建方法 | |
CN112634305B (zh) | 一种基于边缘特征匹配的红外视觉里程计实现方法 | |
CN113888629A (zh) | 一种基于rgbd相机的快速物体三维位姿估计方法 | |
CN109785419A (zh) | 基于orbslam的无人机视频影像实时定向与生成稀疏点云的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190816 |