CN114049399B - 一种结合rgbd图像的镜面定位方法 - Google Patents
一种结合rgbd图像的镜面定位方法 Download PDFInfo
- Publication number
- CN114049399B CN114049399B CN202210034516.2A CN202210034516A CN114049399B CN 114049399 B CN114049399 B CN 114049399B CN 202210034516 A CN202210034516 A CN 202210034516A CN 114049399 B CN114049399 B CN 114049399B
- Authority
- CN
- China
- Prior art keywords
- mirror
- mask
- image
- color
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种结合RGBD图像的镜面定位方法,涉及视觉识别与定位技术领域,该方法包括:步骤S1:由机器人对深度图像上镜子进行初步定位;步骤S2:定位完成后,对彩色图像上镜子边框进行提取;步骤S3:提取完成之后,进行彩色图像到深度图像的坐标变换,完成最终定位。本发明能够准确的识别和定位镜子,有对室内机器人的工作有重要的支撑作用;广泛的适应于各种场景下的镜子定位,有很好的通用性以及抗干扰性,对于复杂的背景墙都能适应。
Description
技术领域
本发明涉及图像处理、视觉识别与定位技术领域,具体地,涉及一种结合RGBD图像的镜面定位方法。
背景技术
目前,酒店客房清洁工作量大,成本高,质量难以保证,并且酒店客房清洁是一个标准化流程,每间客房的清洁工作几乎完全一致,存在大量可重复性工作,适合机器人操作。
公开号为CN111652069A的中国发明专利,公开了一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤。其有益效果是:改善了机器人对目标定位不准,时效性差的问题,提高了计算效率及定位精度,实时性好。
在室内场景下,机器人与环境的交互,需要视觉对场景的物品进行识别和定位。同过视觉图像的处理,识别出室内各个物品并计算出物品的位置信息,从而指导机器人的动作。
室内场景下的对物品镜子定位,镜子本身特征不明显,并且由于镜子的能够反射周围环境的光线,导致镜子不能呈现统一的表现特征,从而导致镜子的识别和定位非常困难。镜子形态多样,镜子识别算法难以覆盖各种场景,且镜子场景的干扰多,难以准确定位,获取镜子的坐标信息不全面,不易得到镜子的三维坐标信息。
发明内容
针对现有技术中的缺陷,本发明提供一种结合RGBD图像的镜面定位方法。
根据本发明提供的一种结合RGBD图像的镜面定位方法及系统,所述方案如下:
第一方面,提供了一种结合RGBD图像的镜面定位方法,所述方法包括:
步骤S1:由机器人对深度图像上镜子进行初步定位;
步骤S2:定位完成后,对彩色图像上镜子边框进行提取;
步骤S3:提取完成之后,进行彩色图像到深度图像的坐标变换,完成最终定位。
优选的,所述步骤S1包括:
步骤S1.1:基于集合树对深度图像进行分割;
步骤S1.2:基于导数估计对墙面区域进行分割;
步骤S1.3:对镜面区域进行分割,并计算得到镜面区域包围框二值图掩模。
优选的,所述步骤S1.1包括:
步骤S1.1.1:对深度图像DepthImg像素进行聚类,设定距离阈值T,遍历深度图像中的每个像素,对像素值V(i,j)查看该像素的多个领域,若领域的像素值V(i+n,j+m),|n|+|m|<2和该像素值的差的绝对值小于距离阈值,则领域像素和该像素分为一类;
步骤S1.1.2:深度图像聚类后,筛选出包含像素最多的一类,根据其中的像素坐标,生成二值图像Mask1。
优选的,所述步骤S1.2包括:
步骤S1.2.1:对深度图像分别求取x和y方向的sobel图像,记为S_x,S_y;使用Mask1分别对S_x,S_y图像做乘法:
S_x(i,j)=S_x(i,j)*Mask1(i,j);
S_y(i,j)=S_y(i,j)*Mask1(i,j);
步骤S1.2.2:分别求取S_x,S_y的直方图,再分别求取两个直方图的峰值,记为Peak_x,Peak_Y;
设定范围距离阈值为R,分别在S_x,S_y根据灰度区间(Peak_x-R,Peak_x+R),(Peak_y-R,Peak_y+R)进行二值分割,分别得到Q_x,Q_y;
步骤S1.2.3:连乘Q_x*Q_y*Mask1=Mask2,Mask2即为包含墙面深度像素的二值图掩模;
步骤S1.2.4:使用Mask2,在深度图像上扣取深度信息,记为DepthWallImg,DepthImg*Mask2=DepthWallImg;
步骤S1.2.5:根据深度相机内参,将DepthWallImg图像换算为3D点云,并使用ransac算法拟合出平面方程。
优选的,所述步骤S1.3包括:
步骤S1.3.1:基于平面方程,生成该平面的深度图像Depth2,设定距离阈值Dist,使DepthImg减去Depth2,对应像素超出距离阈值Dist的,视为墙后的镜面区域Mask_mirror,深度图像上镜面区域Mask_mirror的二值图掩模为:
Mask_mirror=DepthImg-Depth2;
其中,DepthImg-Depth2>Dist;
步骤S1.3.2:对镜面掩模Mask_mirror进行闭运算,得到Mask_c1,再进行膨胀运算,得到Mask_c1_d2;使用Mask_c1_d2减去Mask_c1,得到镜面区域包围框二值图掩模:
Mask_surround= Mask_c1_d2-Mask_c1。
优选的,所述步骤S2包括:
步骤S2.1:对彩色图像上的特征线条进行提取,即使用opencv相关算法提取彩色图像上线条特征;
步骤S2.2:计算镜面包围框到彩色图像上的映射和边界矩形;
步骤S2.3:计算边界线条的聚合及边界线;
步骤S2.4:拟合直线,计算各个边框直线的交点。
优选的,所述步骤S2.2包括:
步骤S2.2.1:根据深度图像和彩色图像相机的内参,将深度图像上的镜面区域包围框Mask_surround换算到彩色图像上,记为Mask_color;
步骤S2.2.2:对Mask_color进行闭运算,记为Mask_color_c1;
步骤S2.2.3:分别构建结构元素S1(40*3),S2(3*40),对Mask_color_c1二值图进行开运算,分别得到Mask_color_o1,Mask_color_o2;
步骤S2.2.4:分别对Mask_color_o1,Mask_color_o2进行连通域分割,最终得到4或3个矩形,分别对应镜子的上下左右4或3个位置;当镜子较高,镜子的上边界超出了相机的视野时,只能检测出镜子的3个边缘位置。
优选的,所述步骤S2.3包括:
步骤S2.3.1:设定角度差值Ang,设定距离阈值为Dist;
步骤S2.3.2:分别处理步骤S2.2.4中的4或3个矩形框,计算矩形对应的长轴;
步骤S2.3.3:遍历步骤S2.1中提取的特征线条,如果线条和某一个长轴的夹角小于Ang,并且线条的中点与中点在主轴上的投影点的距离小于Dist,则该线条属于这个长轴。
优选的,所述步骤S2.4包括:
步骤S2.4.1:每一个长轴得到了相应的线条,对一个长轴的所有线条进行点的抽样,其中线条的起点和终点默认抽样为点,设定抽样步长step,线条每间隔一段,增一个抽样点;
步骤S2.4.2:对每一个长轴的抽样点集,使用最小二乘法进行拟合,计算出对应直线方程;
步骤S2.4.3:对4或3个直线方程两两计算直线的角点,得到镜子在彩色图像上的4或2个角点。
优选的,所述步骤S3包括:根据深度图像和彩色图像相机的内参,将彩色图像上的多个角点换算到深度图像上,得到最终的镜子多个角点的坐标。
与现有技术相比,本发明具有如下的有益效果:
1、镜子作为室内环境中非常重要的一个物品,准确的识别和定位镜子,有对室内机器人的工作有重要的支撑作用;
2、广泛的适应于各种场景下的镜子定位,镜子算法有很好的通用性;
3、镜子算法有很好的抗干扰性,对于复杂的背景墙都能适应。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明镜面定位算法流程图;
图2为镜面区域的二值掩模图;
图3为镜面区域包围框二值图掩模;
图4为图像上提取线条特征图;
图5为镜子边界矩形框图;
图6为图上镜子坐标和角点。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
本发明实施例提供了一种结合RGBD图像的镜面定位方法,参照图1所示,该方法如下:首先,步骤S1:由机器人对深度图像上镜子进行初步定位,具体地,
步骤S1.1:基于集合树对深度图像进行分割:
对深度图像DepthImg像素进行聚类,设定距离阈值T,如T=70,遍历深度图像中的每个像素,对像素值V(i,j)查看该像素的4个领域,若领域的像素值V(i+n,j+m)(|n|+|m|<2)和该像素值的差的绝对值小于距离阈值,则领域像素和该像素分为一类。
深度图像聚类后,筛选出包含像素最多的一类,根据其中的像素坐标,生成二值图像Mask1,本实施例中属于该类别的设置为1,不属于该类别的设置为0;Mask1是主要的分割面,包含了墙面部分。
步骤S1.2:基于导数估计对墙面区域进行分割:
对深度图像分别求取x和y方向的sobel图像,记为S_x,S_y;使用Mask1分别对S_x,S_y图像做乘法:
S_x(i,j)=S_x(i,j)*Mask1(i,j);
S_y(i,j)=S_y(i,j)*Mask1(i,j);
分别求取S_x,S_y的直方图,再分别求取两个直方图的峰值,记为Peak_x,Peak_Y;设定范围距离阈值为R,分别在S_x,S_y根据灰度区间(Peak_x-R,Peak_x+R),(Peak_y-R,Peak_y+R)进行二值分割,分别得到Q_x,Q_y。
连乘Q_x*Q_y*Mask1=Mask2,Mask2即为包含墙面深度像素的二值图掩模;使用Mask2,在深度图像上扣取深度信息,记为DepthWallImg,DepthImg*Mask2=DepthWallImg;
根据深度相机内参,将DepthWallImg图像换算为3D点云,并使用ransac算法拟合出平面方程。
参照图2和图3所示,步骤S1.3:对镜面区域进行分割,并计算得到镜面区域包围框二值图掩模。
基于平面方程,生成该平面的深度图像Depth2,设定距离阈值Dist,如Dist=50,使DepthImg减去Depth2,对应像素超出距离阈值Dist的,视为墙后的镜面区域Mask_mirror,深度图像上镜面区域Mask_mirror的二值图掩模为:
Mask_mirror=DepthImg-Depth2;
其中,DepthImg-Depth2>Dist;
对镜面掩模Mask_mirror进行闭运算,得到Mask_c1,再进行膨胀运算,得到Mask_c1_d2;使用Mask_c1_d2减去Mask_c1,得到镜面区域包围框二值图掩模:
Mask_surround=Mask_c1_d2-Mask_c1。
其次,步骤S2:定位完成后,对彩色图像上镜子边框进行提取,具体地,
参照图4所示,步骤S2.1:对彩色图像上的特征线条进行提取,即使用opencv相关算法提取彩色图像上线条特征。
步骤S2.2:镜面包围框到彩色图像上的映射和边界矩形计算:
根据深度图像和彩色图像相机的内参,将深度图像上的镜面区域包围框Mask_surround换算到彩色图像上,记为Mask_color。
对Mask_color进行闭运算,记为Mask_color_c1。
分别构建结构元素S1(40*3),S2(3*40),对Mask_color_c1二值图进行开运算,分别得到Mask_color_o1,Mask_color_o2。
分别对Mask_color_o1,Mask_color_o2进行连通域分割,最终得到4或3个矩形,分别对应镜子的上下左右4或3个位置;当镜子较高,镜子的上边界超出了相机的视野时,只能检测出镜子的3个边缘位置。
步骤S2.3:计算边界线条的聚合及边界线:
设定角度差值Ang,如Ang=3,设定距离阈值为Dist,如dist=8;
分别处理上述步骤中的4或3个矩形框,计算矩形对应的长轴,镜子边界矩形框如图5所示。
遍历步骤S2.1中提取的特征线条,如果线条和某一个长轴的夹角小于Ang,并且线条的中点与中点在主轴上的投影点的距离小于Dist,则该线条属于这个长轴。
步骤S2.4:拟合直线,计算各个边框直线的交点:
每一个长轴得到了相应的线条,对一个长轴的所有线条进行点的抽样,其中线条的起点和终点默认抽样为点,设定抽样步长step,如step=35,线条每间隔35,增一个抽样点。
对每一个长轴的抽样点集,使用最小二乘法进行拟合,计算出对应直线方程。
对4或3个直线方程两两计算直线的角点,得到镜子在彩色图像上的4或2个角点,如图6所示。
步骤S3:提取完成之后,进行彩色图像到深度图像的坐标变换,完成最终定位。
根据深度图像和彩色图像相机的内参,将彩色图像上的4个角点换算到深度图像上,得到最终的镜子4个角点的坐标。
本发明实施例提供了一种结合RGBD图像的镜面定位方法,镜子作为室内环境中非常重要的一个物品,准确的识别和定位镜子,有对室内机器人的工作有重要的支撑作用;广泛的适应于各种场景下的镜子定位,镜子算法有很好的通用性;镜子算法有很好的抗干扰性,对于复杂的背景墙都能适应。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (2)
1.一种结合RGBD图像的镜面定位方法,其特征在于,包括:
步骤S1:由机器人对深度图像上镜子进行初步定位;
步骤S2:定位完成后,对彩色图像上镜子边框进行提取;
步骤S3:提取完成之后,进行彩色图像到深度图像的坐标变换,完成最终定位;
所述步骤S1包括:
步骤S1.1:基于集合树对深度图像进行分割;
步骤S1.2:基于导数估计对墙面区域进行分割;
步骤S1.3:对镜面区域进行分割,并计算得到镜面区域包围框二值图掩模;
所述步骤S1.1包括:
步骤S1.1.1:对深度图像DepthImg像素进行聚类,设定距离阈值T,遍历深度图像中的每个像素,对像素值V(i,j)查看该像素的多个领域,若领域的像素值V(i+n,j+m),|n|+|m|<2和该像素值的差的绝对值小于距离阈值,则领域像素和该像素分为一类;
步骤S1.1.2:深度图像聚类后,筛选出包含像素最多的一类,根据其中的像素坐标,生成二值图像Mask1;
所述步骤S1.2包括:
步骤S1.2.1:对深度图像分别求取x和y方向的sobel图像,记为S_x,S_y;使用Mask1分别对S_x,S_y图像做乘法:
S_x(i,j)=S_x(i,j)*Mask1(i,j);
S_y(i,j)=S_y(i,j)*Mask1(i,j);
步骤S1.2.2:分别求取S_x,S_y的直方图,再分别求取两个直方图的峰值,记为Peak_x,Peak_y;
设定范围距离阈值为R,分别在S_x,S_y根据灰度区间(Peak_x-R,Peak_x+R),(Peak_y-R,Peak_y+R)进行二值分割,分别得到Q_x,Q_y;
步骤S1.2.3:连乘Q_x*Q_y*Mask1=Mask2,Mask2即为包含墙面深度像素的二值图掩模;
步骤S1.2.4:使用Mask2,在深度图像上扣取深度信息,记为DepthWallImg,DepthImg*Mask2=DepthWallImg;
步骤S1.2.5:根据深度相机内参,将DepthWallImg图像换算为3D点云,并使用ransac算法拟合出平面方程;
所述步骤S1.3包括:
步骤S1.3.1:基于平面方程,生成该平面的深度图像Depth2,设定距离阈值Dist,使DepthImg减去Depth2,对应像素超出距离阈值Dist的,视为墙后的镜面区域Mask_mirror,深度图像上镜面区域Mask_mirror的二值图掩模为:
Mask_mirror=DepthImg-Depth2;
其中,DepthImg-Depth2>Dist;
步骤S1.3.2:对镜面掩模Mask_mirror进行闭运算,得到Mask_c1,再进行膨胀运算,得到Mask_c1_d2;使用Mask_c1_d2减去Mask_c1,得到镜面区域包围框二值图掩模:
Mask_surround= Mask_c1_d2-Mask_c1;
所述步骤S2包括:
步骤S2.1:对彩色图像上的特征线条进行提取,即使用opencv相关算法提取彩色图像上线条特征;
步骤S2.2:计算镜面包围框到彩色图像上的映射和边界矩形;
步骤S2.3:计算边界线条的聚合及边界线;
步骤S2.4:拟合直线,计算各个边框直线的交点;
所述步骤S2.2包括:
步骤S2.2.1:根据深度图像和彩色图像相机的内参,将深度图像上的镜面区域包围框Mask_surround换算到彩色图像上,记为Mask_color;
步骤S2.2.2:对Mask_color进行闭运算,记为Mask_color_c1;
步骤S2.2.3:分别构建结构元素S1(40*3),S2(3*40),对Mask_color_c1二值图进行开运算,分别得到Mask_color_o1,Mask_color_o2;
步骤S2.2.4:分别对Mask_color_o1,Mask_color_o2进行连通域分割,最终得到4或3个矩形,分别对应镜子的上下左右4或3个位置;当镜子较高,镜子的上边界超出了相机的视野时,只能检测出镜子的3个边缘位置;
所述步骤S2.3包括:
步骤S2.3.1:设定角度差值Ang,设定距离阈值为Dist;
步骤S2.3.2:分别处理步骤S2.2.4中的4或3个矩形框,计算矩形对应的长轴;
步骤S2.3.3:遍历步骤S2.1中提取的特征线条,如果线条和某一个长轴的夹角小于Ang,并且线条的中点与中点在主轴上的投影点的距离小于Dist,则该线条属于这个长轴;
所述步骤S2.4包括:
步骤S2.4.1:每一个长轴得到了相应的线条,对一个长轴的所有线条进行点的抽样,其中线条的起点和终点默认抽样为点,设定抽样步长step,线条每间隔一段,增一个抽样点;
步骤S2.4.2:对每一个长轴的抽样点集,使用最小二乘法进行拟合,计算出对应直线方程;
步骤S2.4.3:对4或3个直线方程两两计算直线的角点,得到镜子在彩色图像上的4或2个角点。
2.根据权利要求1所述的结合RGBD图像的镜面定位方法,其特征在于,所述步骤S3包括:根据深度图像和彩色图像相机的内参,将彩色图像上的多个角点换算到深度图像上,得到最终的镜子多个角点的坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210034516.2A CN114049399B (zh) | 2022-01-13 | 2022-01-13 | 一种结合rgbd图像的镜面定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210034516.2A CN114049399B (zh) | 2022-01-13 | 2022-01-13 | 一种结合rgbd图像的镜面定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114049399A CN114049399A (zh) | 2022-02-15 |
CN114049399B true CN114049399B (zh) | 2022-04-12 |
Family
ID=80196408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210034516.2A Active CN114049399B (zh) | 2022-01-13 | 2022-01-13 | 一种结合rgbd图像的镜面定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114049399B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830272A (zh) * | 2018-08-03 | 2018-11-16 | 中国农业大学 | 基于rgb-d相机的马铃薯图像采集装置及芽眼识别和定位方法 |
CN111311679A (zh) * | 2020-01-31 | 2020-06-19 | 武汉大学 | 一种基于深度相机的自由漂浮目标位姿估计方法 |
CN111339919A (zh) * | 2020-02-24 | 2020-06-26 | 大连理工大学 | 一种基于多任务协作的镜子检测方法 |
CN111553252A (zh) * | 2020-04-24 | 2020-08-18 | 福建农林大学 | 一种基于深度学习及u-v视差算法的道路行人自动识别定位方法 |
CN112045676A (zh) * | 2020-07-31 | 2020-12-08 | 广州中国科学院先进技术研究所 | 一种基于深度学习的机器人抓取透明物体的方法 |
KR20200143044A (ko) * | 2019-06-14 | 2020-12-23 | 고려대학교 산학협력단 | 이동 로봇과 이동 로봇의 엘리베이터 인식 방법 |
CN112767418A (zh) * | 2021-01-21 | 2021-05-07 | 大连理工大学 | 基于深度感知的镜子图像分割方法 |
CN113888632A (zh) * | 2021-09-14 | 2022-01-04 | 上海景吾智能科技有限公司 | 结合rgbd图像水池污渍定位方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106384353A (zh) * | 2016-09-12 | 2017-02-08 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于rgbd的目标定位方法 |
CN106570904B (zh) * | 2016-10-25 | 2019-04-09 | 大连理工大学 | 一种基于Xtion摄像头的多目标相对位姿识别方法 |
US11589029B2 (en) * | 2019-04-29 | 2023-02-21 | Microvision, Inc. | 3D imaging system for RGB-D imaging |
-
2022
- 2022-01-13 CN CN202210034516.2A patent/CN114049399B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830272A (zh) * | 2018-08-03 | 2018-11-16 | 中国农业大学 | 基于rgb-d相机的马铃薯图像采集装置及芽眼识别和定位方法 |
KR20200143044A (ko) * | 2019-06-14 | 2020-12-23 | 고려대학교 산학협력단 | 이동 로봇과 이동 로봇의 엘리베이터 인식 방법 |
CN111311679A (zh) * | 2020-01-31 | 2020-06-19 | 武汉大学 | 一种基于深度相机的自由漂浮目标位姿估计方法 |
CN111339919A (zh) * | 2020-02-24 | 2020-06-26 | 大连理工大学 | 一种基于多任务协作的镜子检测方法 |
CN111553252A (zh) * | 2020-04-24 | 2020-08-18 | 福建农林大学 | 一种基于深度学习及u-v视差算法的道路行人自动识别定位方法 |
CN112045676A (zh) * | 2020-07-31 | 2020-12-08 | 广州中国科学院先进技术研究所 | 一种基于深度学习的机器人抓取透明物体的方法 |
CN112767418A (zh) * | 2021-01-21 | 2021-05-07 | 大连理工大学 | 基于深度感知的镜子图像分割方法 |
CN113888632A (zh) * | 2021-09-14 | 2022-01-04 | 上海景吾智能科技有限公司 | 结合rgbd图像水池污渍定位方法及系统 |
Non-Patent Citations (2)
Title |
---|
A New VLC Localization System with the Assistance of RGB-D Camera;XiaoLong zheng et al;《2018 Ubiquitous Positioning, Indoor Navigation and Location-Based Services (UPINLBS)》;20181206;1-5 * |
基于机器视觉的目标识别和表面缺陷检测研究;戴君洁;《中国优秀硕士学位论文全文数据(电子期刊)》;20210815;第2021年卷(第08期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114049399A (zh) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108694741B (zh) | 一种三维重建方法及装置 | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
US9888235B2 (en) | Image processing method, particularly used in a vision-based localization of a device | |
CN110458897B (zh) | 多摄像头自动标定方法及系统、监控方法及系统 | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN105303514A (zh) | 图像处理方法和装置 | |
CN109544635B (zh) | 一种基于枚举试探的相机自动标定方法 | |
CN107862713B (zh) | 针对轮询会场的摄像机偏转实时检测预警方法及模块 | |
Valero et al. | Detection, modeling, and classification of moldings for automated reverse engineering of buildings from 3D data | |
CN111028271A (zh) | 基于人体骨架检测的多摄像机人员三维定位跟踪系统 | |
CN113689365B (zh) | 一种基于Azure Kinect的目标跟踪定位方法 | |
CN118154687B (zh) | 基于单目视觉的送餐机器人目标定位与避障方法及系统 | |
CN111161219B (zh) | 一种适用于阴影环境的鲁棒单目视觉slam方法 | |
US10132912B2 (en) | Method and apparatus for estimating reflectance parameters and a position of a light source in a scene | |
Wu et al. | Study of multiple moving targets’ detection in fisheye video based on the moving blob model | |
CN117911271A (zh) | 一种基于yolo的动态障碍物快速点云剔除方法及系统 | |
CN114049399B (zh) | 一种结合rgbd图像的镜面定位方法 | |
CN110322508B (zh) | 一种基于计算机视觉的辅助定位方法 | |
CN111630569B (zh) | 双目匹配的方法、视觉成像装置及具有存储功能的装置 | |
JP2023168262A (ja) | データ分割装置及び方法 | |
CN114569004B (zh) | 行进方向调整方法、移动机器人系统及电子设备 | |
CN114119738A (zh) | 水池污渍检测方法及系统 | |
Yin et al. | Motion detection and tracking using the 3D-camera | |
Rantung et al. | Real-Time Image Segmentation and Determination of 3D Coordinates for Fish Surface Area and Volume Measurement based on Stereo Vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 311231 building 3, No. 477, Hongxing Road, Qiaonan block, economic and Technological Development Zone, Xiaoshan District, Hangzhou City, Zhejiang Province Patentee after: Hangzhou Jingwu Intelligent Technology Co.,Ltd. Address before: Room 12, 3rd floor, No.2 Lane 1446, Yunguan Road, Lingang New District, Pudong New Area pilot Free Trade Zone, Shanghai, 201306 Patentee before: Shanghai Jingwu Intelligent Technology Co.,Ltd. |