CN113240670A - 带电作业场景下针对待作业物体的图像分割方法 - Google Patents
带电作业场景下针对待作业物体的图像分割方法 Download PDFInfo
- Publication number
- CN113240670A CN113240670A CN202110663762.XA CN202110663762A CN113240670A CN 113240670 A CN113240670 A CN 113240670A CN 202110663762 A CN202110663762 A CN 202110663762A CN 113240670 A CN113240670 A CN 113240670A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- operated
- image
- camera
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003709 image segmentation Methods 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000011218 segmentation Effects 0.000 claims abstract description 19
- 238000013519 translation Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 229910052573 porcelain Inorganic materials 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
本发明公开了带电作业场景下针对待作业物体的图像分割方法,包括步骤:步骤一、在机器人上安装RGB相机和激光雷达,并进行联合标定得到相机坐标系与激光雷达坐标系之间的旋转及平移关系;步骤二、利用采集并标注的训练数据训练得到图像分割模型,并对RGB相机采集RGB图像进行识别分割得到待作业目标物体;步骤三、根据步骤一得到的相机坐标系与激光雷达坐标系之间的旋转及平移关系,将步骤二识别分割得到的待作业目标物体变换至激光雷达坐标系下得到待作业目标物体的点云集合即为待作业物体。本发明可用于带电作业机器人的控制抓取模块作业,满足带电作业场景对于准确性与实时性的要求。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及带电作业场景下针对待作业物体的图像分割方法。
背景技术
图像分割技术可以分为语义分割与实例分割两种类别;语义分割的结果中对图像中的每个像素打上类别标签,同一类别的物体将作为一个整体被分割出来;而实例分割是目标检测与语义分割的结合,实例分割在图像中将目标检测出来,并为每个目标打上类别标签。
深度学习在图像分割领域有着广泛的应用。目前,在图像分割领域,有FCN、SegNet、PSPNet、Mask-RCNN等多种网络模型被用于进行图像分割。但是在带电作业场景下,作业范围内物体种类较多,物体间彼此遮盖,物体受灰尘、锈蚀等自然原因导致的外观不一致,背景复杂,且容易收到强光影响,针对小目标的图像分割方法目前还未有涉及。
发明内容
发明目的:本发明在上述背景技术的成果下,结合带电作业场景对于准确性与实时性的要求,提出了一种可用于针对待作业目标物体尤其是小目标物体进行实例分割的方法,供带电作业机器人的控制抓取模块进行作业。
技术方案:
带电作业场景下针对待作业物体的图像分割方法,包括步骤:
步骤一、在机器人上安装RGB相机和激光雷达,并对RGB相机和激光雷达进行联合标定得到相机坐标系与激光雷达坐标系之间的旋转及平移关系;
步骤二、利用采集并标注的训练数据训练得到图像分割模型,并采用该图像分割模型对RGB相机采集RGB图像进行识别分割得到待作业目标物体;
步骤三、根据步骤一得到的相机坐标系与激光雷达坐标系之间的旋转及平移关系,将步骤二识别分割得到的待作业目标物体变换至激光雷达坐标系下得到待作业目标物体的点云集合即为待作业物体。
所述步骤一具体为:
(11)在机械臂末端固定安装固定规格的标定板,通过RGB相机采集标定板的RGB图像,通过激光雷达采集标定板的灰度图和激光点云;
(12)在步骤(11)采集的数据中分别提取标定板上的标定点,通过PnP算法计算得到相机坐标系与激光雷达坐标系之间的旋转及平移关系。
还包括验证步骤:
将激光点云中的点根据步骤(12)得到的相机坐标系与激光雷达坐标系之间的变换关系及相机的成像原理变换到图像坐标系下,并计算激光点云中的点变换到图像坐标系下的坐标与图像坐标系下对应点的坐标之间的误差;
其中误差定义为激光点云中的点变换到图像坐标系下的坐标与图像坐标系下对应点的之间在x方向上或y方向上的像素差,若二者在x方向上或y方向上的像素差均不大于1像素,则认为,该标定在误差范围内;否则需重新采集数据进行标定。
所述步骤二中,根据实际作业的机器人所搭载的硬件算力部署相应图像分割模型,具体如下:
针对不使用GPU进行加速运算的情况下,首先采用预先训练得到的用以识别分割可确定作业整体范围及待作业目标物体位置的物体的图像分割模型识别分割得到对应物体,并根据该物体所在位置及其范围在该物体周边生成若干候选框,并在候选框内采用预先训练的分别用于识别分割不同待作业目标物体的若干图像分割模型分割出待作业目标物体;
针对使用GPU进行加速运算的情况下,首先采用预先训练得到的用以识别分割可确定作业整体范围及待作业目标物体位置的物体及不同待作业目标物体的图像分割模型识别分割得到所有物体,并根据所有物体间的相对位置关系搜索得到待作业目标物体。
所述步骤二中,所述图像分割模型输出识别结果、识别置信度、目标掩膜及目标掩膜最大范围的目标框,对所述图像分割模型识别分割得到的待作业目标物体的识别置信度进行判断,若其高于0.9,则该识别分割结果符合要求;否则舍弃该图像数据,并通过RGB相机重新采集RGB图像,重新进行识别分割。
所述步骤三具体如下:
(31)假设激光点云中某个点在激光雷达坐标系下的坐标为(x,y,z),将坐标转化为齐次坐标(x,y,z,1);
(32)根据激光点云的齐次坐标转换关系以及相机的成像原理求解出该点在图像坐标系中的坐标;
其中,激光点云的齐次坐标转换关系:
其中,(X,Y,Z)表示该点在相机坐标系中的坐标,R为相机坐标系与激光雷达坐标系之间的变换关系中的旋转矩阵,t为相机坐标系与激光雷达坐标系之间的变换关系中的平移向量;
相机的成像原理:
其中,fx、fy分别为RGB相机在x、y方向上的焦距,cx、cy分别为RGB相机光心相对于成像原点在x、y方向上的偏移距离,(u,υ)为该点在图像坐标系中的坐标;
(33)判断该点是否位于步骤二分割得到的待作业目标物体内,若处于待作业目标物体内,那么说明该点是待作业目标物体上一点;
(34)通过步骤(31)~(33)遍历激光点云中的每个点,将所有位于待作业目标物体内的点存入新的点集,即可获得待作业目标物体的点云集合。
有益效果:本发明可用于带电作业机器人的控制抓取模块作业,满足带电作业场景对于准确性与实时性的要求;且本发明可以根据实际作业的机器人所搭载的硬件算力和实际需求对图像分割模型进行针对性部署。
附图说明
图1为本发明针对小目标的图像分割流程图。
图2为联合标定应用流程图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
在本发明中,在机器人上安装有RGB相机和TOF激光雷达,在机器人内设置有联合标定模块、图像分割模块及控制抓取模块,其中控制抓取模块与机械臂末端的作业工具连接,并控制作业工具进行作业。
本发明针对的待作业目标物体是需要被控制抓取模块进行拆装的避雷器、螺母等一类物体。
图1为本发明针对待作业目标物体的图像分割方法的流程图,如图1所示,本发明带电作业场景下针对待作业目标物体的图像分割方法包括如下步骤:
步骤一、固定RGB相机和TOF激光雷达位置后,调用联合标定模块对RGB相机和TOF激光雷达的组合系统进行标定,确定由多个不同传感器所构成组合系统的外参;标定流程如图2,具体为:
(11)检查各设备的连接无故障之后,在机械臂末端固定安装固定规格的标定板,通过RGB相机采集标定板的RGB图像,通过TOF激光雷达采集标定板的灰度图和激光点云;
在本发明中,标定板采用圆孔、网格或棋盘格标定板,其上的圆孔、网格斑点或棋盘格角点构成标定点。
(12)联合标定模块在步骤(11)采集的数据中分别提取标定板上的标定点,通过解决一个PnP(Perspective-n-Point)问题,对RGB相机和TOF激光雷达之间的外参进行标定,得到相机坐标系与激光雷达坐标系之间的变换(旋转及平移)关系;
(13)将激光点云中的点根据步骤(12)得到的相机坐标系与激光雷达坐标系之间的变换关系及相机的成像原理变换到图像坐标系下,并根据激光点云中的点变换到图像坐标系下的坐标与图像坐标系下对应点的坐标之间的误差,检查差值范围的合理性;其中误差定义为激光点云中的点变换到图像坐标系下的坐标与图像坐标系下对应点的之间在x方向上或y方向上的像素差,若二者在x方向上或y方向上的像素差均不大于1像素,则认为,该标定在误差范围内;否则需重新标定,即重复步骤(11)~(13);
在本发明中,将标定结果(即相机坐标系与激光雷达坐标系之间的变换关系)以齐次坐标的形式进行保存,联合标定模块将标定结果保存在指定路径下,供后续其他模块使用。
步骤二、图像分割模块导入图像分割模型,针对采集的图像数据在带电作业的复杂背景下对待作业目标物体进行分割;
(21)机器人到达作业区域后,通过RGB相机和TOF激光雷达分别采集RGB图像和激光点云;
(22)图像分割模块从指定的路径下导入经过训练的、可用于进行图像分割的图像分割模型;图像分割模型导入成功后,图像分割模块读取RGB相机采集到的RGB图像,并采用图像分割模型针对目标的物体进行分割;
在本发明中,图像分割模型是利用采集并标注的训练数据所训练的得到的神经网络模型,其中,标注是通过掩膜及类别进行标注,其可输出识别结果、识别置信度、目标掩膜及目标掩膜最大范围的目标框,且该图像分割模型已被转化为可用于C++程序回调的文件格式。
(23)如果在分割过程中,针对的是由多个物体组合而成的系统时,本发明采用以下两种方案:
方案一、首先分割出可以确定作业整体范围及待作业目标物体位置的大物体,并根据此大物体所在位置及其范围在该大物体周边生成若干候选框,并在候选框内进一步分割出目标小物体;该方案用于进行识别的单个模型可采用较为轻量化的图像分割模型,对系统的算力要求较小,即不使用GPU进行加速运算的情况下使用本方案;其缺点在于需要调用不同模型,进行多次分割,因此本发明针对该种方案,分别训练得到用以识别分割可确定作业整体范围的大物体的图像分割模型及分别用于识别分割不同待作业目标物体的若干图像分割模型。
方案二、对采集的图像首先进行整体分割,尽可能分割出图像中所有目标物体,随后根据这些物体间彼此的相对位置关系进一步进行搜索目标小物体;该方案需要采用层数、参数较多的模型,对算力要求较高,即使用GPU进行加速运算的情况下使用本方案;其优势在于只需要进行一次分割,因此本发明针对该种方案,训练得到用以识别分割可确定作业整体范围的大物体及不同待作业目标物体的图像分割模型。
这两种方案可以根据实际作业的机器人所搭载的硬件算力进行针对性部署;
对于两种方案的结果进行了筛选处理,最终的待作业目标物体的识别结果达到识别置信度高于0.9,即达到了目标要求;若识别置信度低于0.9,则舍弃该图像数据,返回步骤(21);
分割结束后可以确定作业整体范围的大物体有比如避雷器、瓷瓶在作业范围内数量较少,但是目标明显的物体,小物体包括螺母、电线等体积小,分散但是与大物体有连接关系或固定位置关系的物体。
步骤三、根据步骤一得到的相机坐标系与激光雷达坐标系之间的旋转及平移关系,计算出RGB图像中分割出的目标物体在激光点云中所对应的点;
(31)假设读取到激光点云的某个点在激光雷达坐标系下的坐标为(x,y,z),将坐标转化为齐次坐标(x,y,z,1);
(32)根据激光点云的齐次坐标转换关系以及相机的成像原理求解出该点在图像坐标系中的坐标;
其中,激光点云的齐次坐标转换关系:
其中,(X,Y,Z)表示该点在相机坐标系中的坐标,R为相机坐标系与激光雷达坐标系之间的变换关系中的旋转矩阵,t为相机坐标系与激光雷达坐标系之间的变换关系中的平移向量;
相机的成像原理:
其中,fx、fy分别为RGB相机在x、y方向上的焦距,cx、cy分别为RGB相机光心相对于成像原点在x、y方向上的偏移距离,(u,υ)为该点在图像坐标系中的坐标;
(33)判断其是否位于步骤二分割得到的目标物体的掩膜区域内,若处于目标物体的掩膜区域中,那么说明该点是目标物体上一点;
(34)通过步骤(31)~(33)遍历激光点云中的每个点,将所有位于目标物体的掩膜区域中的点存入新的点集,即可获得目标物体的点云集合即为待作业物体;
将步骤三计算得到的待作业目标物体的点云集合传给控制抓取模块,用于后续作业。
以上详细描述了本发明的优选实施方式,但是本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换(如数量、形状、位置等),这些等同变换均属于本发明的保护范围。
Claims (6)
1.带电作业场景下针对待作业物体的图像分割方法,其特征在于:包括步骤:
步骤一、在机器人上安装RGB相机和激光雷达,并对RGB相机和激光雷达进行联合标定得到相机坐标系与激光雷达坐标系之间的旋转及平移关系;
步骤二、利用采集并标注的训练数据训练得到图像分割模型,并采用该图像分割模型对RGB相机采集RGB图像进行识别分割得到待作业目标物体;
步骤三、根据步骤一得到的相机坐标系与激光雷达坐标系之间的旋转及平移关系,将步骤二识别分割得到的待作业目标物体变换至激光雷达坐标系下得到待作业目标物体的点云集合即为待作业物体。
2.根据权利要求1所述的带电作业场景下针对待作业物体的图像分割方法,其特征在于:所述步骤一具体为:
(11)在机械臂末端固定安装固定规格的标定板,通过RGB相机采集标定板的RGB图像,通过激光雷达采集标定板的灰度图和激光点云;
(12)在步骤(11)采集的数据中分别提取标定板上的标定点,通过PnP算法计算得到相机坐标系与激光雷达坐标系之间的旋转及平移关系。
3.根据权利要求2所述的带电作业场景下针对待作业物体的图像分割方法,其特征在于:还包括验证步骤:
将激光点云中的点根据步骤(12)得到的相机坐标系与激光雷达坐标系之间的变换关系及相机的成像原理变换到图像坐标系下,并计算激光点云中的点变换到图像坐标系下的坐标与图像坐标系下对应点的坐标之间的误差;
其中误差定义为激光点云中的点变换到图像坐标系下的坐标与图像坐标系下对应点的之间在x方向上或y方向上的像素差,若二者在x方向上或y方向上的像素差均不大于1像素,则认为,该标定在误差范围内;否则需重新采集数据进行标定。
4.根据权利要求1所述的带电作业场景下针对待作业物体的图像分割方法,其特征在于:所述步骤二中,根据实际作业的机器人所搭载的硬件算力部署相应图像分割模型,具体如下:
针对不使用GPU进行加速运算的情况下,首先采用预先训练得到的用以识别分割可确定作业整体范围及待作业目标物体位置的物体的图像分割模型识别分割得到对应物体,并根据该物体所在位置及其范围在该物体周边生成若干候选框,并在候选框内采用预先训练的分别用于识别分割不同待作业目标物体的若干图像分割模型分割出待作业目标物体;
针对使用GPU进行加速运算的情况下,首先采用预先训练得到的用以识别分割可确定作业整体范围及待作业目标物体位置的物体及不同待作业目标物体的图像分割模型识别分割得到所有物体,并根据所有物体间的相对位置关系搜索得到待作业目标物体。
5.根据权利要求1所述的带电作业场景下针对待作业物体的图像分割方法,其特征在于:所述步骤二中,所述图像分割模型输出识别结果、识别置信度、目标掩膜及目标掩膜最大范围的目标框,对所述图像分割模型识别分割得到的待作业目标物体的识别置信度进行判断,若其高于0.9,则该识别分割结果符合要求;否则舍弃该图像数据,并通过RGB相机重新采集RGB图像,重新进行识别分割。
6.根据权利要求1所述的带电作业场景下针对待作业物体的图像分割方法,其特征在于:所述步骤三具体如下:
(31)假设激光点云中某个点在激光雷达坐标系下的坐标为(x,y,z),将坐标转化为齐次坐标(x,y,z,1);
(32)根据激光点云的齐次坐标转换关系以及相机的成像原理求解出该点在图像坐标系中的坐标;
其中,激光点云的齐次坐标转换关系:
其中,(X,Y,Z)表示该点在相机坐标系中的坐标,R为相机坐标系与激光雷达坐标系之间的变换关系中的旋转矩阵,t为相机坐标系与激光雷达坐标系之间的变换关系中的平移向量;
相机的成像原理:
其中,fx、fy分别为RGB相机在x、y方向上的焦距,cx、cy分别为RGB相机光心相对于成像原点在x、y方向上的偏移距离,(u,υ)为该点在图像坐标系中的坐标;
(33)判断该点是否位于步骤二分割得到的待作业目标物体内,若处于待作业目标物体内,那么说明该点是待作业目标物体上一点;
(34)通过步骤(31)~(33)遍历激光点云中的每个点,将所有位于待作业目标物体内的点存入新的点集,即可获得待作业目标物体的点云集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110663762.XA CN113240670A (zh) | 2021-06-16 | 2021-06-16 | 带电作业场景下针对待作业物体的图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110663762.XA CN113240670A (zh) | 2021-06-16 | 2021-06-16 | 带电作业场景下针对待作业物体的图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113240670A true CN113240670A (zh) | 2021-08-10 |
Family
ID=77139925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110663762.XA Pending CN113240670A (zh) | 2021-06-16 | 2021-06-16 | 带电作业场景下针对待作业物体的图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240670A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170594A (zh) * | 2021-12-07 | 2022-03-11 | 奇安信科技集团股份有限公司 | 光学字符识别方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185720A (ja) * | 1995-12-28 | 1997-07-15 | Canon Inc | 画像抽出装置 |
CN104885122A (zh) * | 2012-12-25 | 2015-09-02 | 本田技研工业株式会社 | 车辆周围监测装置 |
JP2019061505A (ja) * | 2017-09-27 | 2019-04-18 | 株式会社デンソー | 情報処理システム、制御システム、及び学習方法 |
CN109934230A (zh) * | 2018-09-05 | 2019-06-25 | 浙江大学 | 一种基于视觉辅助的雷达点云分割方法 |
CN110135485A (zh) * | 2019-05-05 | 2019-08-16 | 浙江大学 | 单目相机与毫米波雷达融合的物体识别与定位方法和系统 |
CN112230204A (zh) * | 2020-10-27 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | 激光雷达和相机的联合标定方法及装置 |
CN112464839A (zh) * | 2020-12-04 | 2021-03-09 | 深圳市优必选科技股份有限公司 | 人像分割方法、装置、机器人及存储介质 |
-
2021
- 2021-06-16 CN CN202110663762.XA patent/CN113240670A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185720A (ja) * | 1995-12-28 | 1997-07-15 | Canon Inc | 画像抽出装置 |
CN104885122A (zh) * | 2012-12-25 | 2015-09-02 | 本田技研工业株式会社 | 车辆周围监测装置 |
JP2019061505A (ja) * | 2017-09-27 | 2019-04-18 | 株式会社デンソー | 情報処理システム、制御システム、及び学習方法 |
CN109934230A (zh) * | 2018-09-05 | 2019-06-25 | 浙江大学 | 一种基于视觉辅助的雷达点云分割方法 |
CN110135485A (zh) * | 2019-05-05 | 2019-08-16 | 浙江大学 | 单目相机与毫米波雷达融合的物体识别与定位方法和系统 |
CN112230204A (zh) * | 2020-10-27 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | 激光雷达和相机的联合标定方法及装置 |
CN112464839A (zh) * | 2020-12-04 | 2021-03-09 | 深圳市优必选科技股份有限公司 | 人像分割方法、装置、机器人及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170594A (zh) * | 2021-12-07 | 2022-03-11 | 奇安信科技集团股份有限公司 | 光学字符识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109270534B (zh) | 一种智能车激光传感器与相机在线标定方法 | |
Zhu et al. | Online camera-lidar calibration with sensor semantic information | |
CN109947097B (zh) | 一种基于视觉和激光融合的机器人定位方法及导航应用 | |
CN113111887B (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN110070025B (zh) | 基于单目图像的三维目标检测系统及方法 | |
CN110570454B (zh) | 一种检测异物入侵的方法及装置 | |
CN111260539B (zh) | 鱼眼图目标识别方法及其系统 | |
WO2020237516A1 (zh) | 点云的处理方法、设备和计算机可读存储介质 | |
JP2022515225A (ja) | センサキャリブレーション方法及び装置、記憶媒体、キャリブレーションシステム並びにプログラム製品 | |
WO2019136613A1 (zh) | 机器人室内定位的方法及装置 | |
CN113610044A (zh) | 基于自注意力机制的4d毫米波三维目标检测方法及系统 | |
Chen et al. | Global path planning in mobile robot using omnidirectional camera | |
CN111964680A (zh) | 一种巡检机器人的实时定位方法 | |
CN114155265A (zh) | 基于yolact的三维激光雷达道路点云分割方法 | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
CN113240670A (zh) | 带电作业场景下针对待作业物体的图像分割方法 | |
CN114299039B (zh) | 一种机器人及其碰撞检测装置和方法 | |
CN112947458B (zh) | 基于多模态信息的机器人准确抓取方法及计算机可读介质 | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN114578328A (zh) | 一种多激光雷达和多相机传感器空间位置自动标定方法 | |
CN114359865A (zh) | 一种障碍物的检测方法及相关装置 | |
CN116403186A (zh) | 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法 | |
Mount et al. | Automatic coverage selection for surface-based visual localization | |
CN113850195A (zh) | 一种基于3d视觉的ai智能物体识别方法 | |
CN113808201A (zh) | 一种目标物体检测方法及引导抓取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |