CN114241269A - 一种用于岸桥自动控制的集卡视觉融合定位系统 - Google Patents
一种用于岸桥自动控制的集卡视觉融合定位系统 Download PDFInfo
- Publication number
- CN114241269A CN114241269A CN202210150634.XA CN202210150634A CN114241269A CN 114241269 A CN114241269 A CN 114241269A CN 202210150634 A CN202210150634 A CN 202210150634A CN 114241269 A CN114241269 A CN 114241269A
- Authority
- CN
- China
- Prior art keywords
- positioning
- container
- point cloud
- target object
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Control And Safety Of Cranes (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及视觉融合定位技术领域,尤其涉及一种用于岸桥自动控制的集卡视觉融合定位系统,检测模块将相机获取的图片输入到训练好的Yolo v5s模型,完成集卡和集装箱的识别检测,并输出目标物类型和车头方向,同时输出目标物在图像中的位置;定位模块针对目标物特征的差异性,分别设计有效的定位算法;标定模块将标定相机与激光的坐标转换关系,将图像中的目标物ROI映射到点云数据中,提取目标物点云;并标定激光与桥吊的坐标转换关系,将目标物的定位数据转换到桥吊坐标系下。本发明可以提高检测与定位精度,将定位频率大大提升,同时有效地提升了算法对残缺点云的定位精度。
Description
技术领域
本发明涉及视觉融合定位技术领域,尤其涉及一种用于岸桥自动控制的集卡视觉融合定位系统。
背景技术
随着国际贸易体量逐渐增大,世界国家对于港口海运的需求与日俱增。近年来,新兴的物联网与人工智能技术加速了自动化在港口领域的落地,打造“无人智慧港口”可为我国进出口贸易提供强大的助力。
想要实现岸桥的自动化控制,除了对桥吊本身进行精准定位外,还需要借助视觉系统对外部的集卡进行精准的定位,从而自动完成作业任务。
现有的集装箱卡车定位技术主要有2大类:(1)利用2D相机获取桥吊作业区域的图像,识别车板或集装箱的特征,并利用图像特征进行定位;(2)基于激光的方案,获取集装箱或集卡的点云特征,利用点云配准实现定位。尽管上述方案已经有实际的应用先例,但在码头自动化改造中,仍然存在一些缺陷:
第一,在人工智能与大数据的支持下,图像视觉的优势更多的体现在识别与检测层面上,而基于图像的视觉定位方案通常精度较低。此外,由于单个相机难以获取集卡的深度信息,需要不同视角的相机配合,因此增大了现场的施工与维护难度;
第二,激光点云方案尽管可以满足全自由度的定位需求,但处理的数据量明显增大,定位帧率变低,不能适应动态定位场景。同时,不同集卡车型和不同箱型也会增加点云配准的难度,使得作业效率变低。为此,我们提出一种用于岸桥自动控制的集卡视觉融合定位系统。
发明内容
基于背景技术存在的技术问题,本发明提出了一种用于岸桥自动控制的集卡视觉融合定位系统。
本发明提供如下技术方案:一种用于岸桥自动控制的集卡视觉融合定位系统,包括检测模块、定位模块、标定模块、消息发布模块;
所述检测模块用于将相机获取的图片输入到训练好的Yolo v5s模型,完成集卡和集装箱的识别检测,并输出基本特征:目标物类型和车头方向,同时输出目标物在图像中的位置,以图像ROI的像素坐标给出;
所述定位模块用于针对目标物特征的差异性,分别设计有效的定位算法;
所述标定模块用于标定相机与激光的坐标转换关系,将图像中的目标物ROI映射到点云数据中,用于提取目标物点云;并标定激光与桥吊的坐标转换关系,将目标物的定位数据转换到桥吊坐标系下;
所述发布模块用于将视觉服务器上检测模块获得的目标物基本特征,和标定模块获得的目标物定位信息由ZMQ对外发布。
优选的,所述检测模块中Yolo v5s模型的训练及检测过程如下:
步骤一,采集5000张以上的桥吊作业区域的真实图片,里面包含不同集卡或集装箱类型、多种作业车道以及不同车头方向的图片数据;
步骤二,对真实图片进行目标物的人工标注,标注信息包括集卡或集装箱所在区域的图像ROI,以及对应的目标物类型和车头方向;
步骤三,将标注好的数据输入到神经网络进行训练,上述神经网络是基于100万张Imagenet数据的Yolo v5s预训练模型;
步骤四,将2D相机获取的图片进行裁剪、缩放的预处理,裁减掉作业范围之外的无关区域,并将图片大小进行缩放;
步骤五,将预处理后的图片输入到训练好的yolov5s神经网络中,得到包含图像ROI和目标物基本特征的推断结果,并将推断的ROI转换到原始图片的像素坐标系中,最终获取的推断信息包括目标物的图像ROI坐标,目标物类型和车头方向。
优选的,所述2D相机与3D激光雷达分别均安装于桥吊的左、右联系梁上,角度斜向下,使其完整覆盖桥吊作业区域,所述视觉服务器与交换机安装于桥吊的电气机房,并将视觉服务器、2D相机、3D激光雷达均通过网线连接到交换机。
优选的,所述定位模块中集卡载有集装箱时,定位算法如下:
步骤一,使用标定模块的相机-激光标定参数,提取集装箱ROI范围内的3d点云,并对集装箱点云进行半径为1cm的体素滤波,从中剔除离群噪点;
步骤二,采用RANSAC方法提取集装箱点云的上表面P,平面容许误差为3cm;
步骤三,采用切片算法快速提取平面的边缘PL:以5cm为步长,先沿大车方向对点云的小车坐标进行分组,提取每组数据中的极值作为当前切片的轮廓点,再沿小车方向同样处理;所有切片的轮廓点组成集装箱的上表面边缘,并计算轮廓的质心PL0;
步骤四,采用直线拟合的方法,将平面轮廓PL提取为多条直线段{L},验证相邻的直线段是否垂直;
步骤五,利用相邻直线段每个交点Lc和对应的直角特征,推算集装箱中心和位姿,对所有推算结果取平均作为最终的集装箱定位值。
优选的,所述定位模块中集卡空载时,定位算法如下:
步骤一:使用标定模块的相机-激光标定参数,提取集卡车板ROI范围内的3d点云,并对点云进行半径为1cm的体素滤波,从中剔除离群噪点;
步骤二:采用动态模型裁剪法修正模型点云:依据检测模块提供的集卡类型选择对应的模型,并基于车头方向选择模型的初始姿态,同时计算可视化比例,基于该比例修正模型点云;
步骤三:使用迭代最近点的点云配准方法实现集卡的精准定位:初次定位时,以PCA的粗略定位值作为迭代的初始位姿;而后续跟踪定位时,以上次的精准位置作为初始状态进行迭代。
优选的,所述标定模块的具体步骤如下:
步骤一,制作一个边长为1m×1m的正方形白板,在桥吊工作范围内,由工作人员在N个不同位置举升托杆,其中N>10,保证每个位置下相机和激光均能采集完整的白板数据,并在每个位置获取同步的图像与点云数据;
步骤二,针对每组图像和点云数据,人工手动选取白板的4个角点的像素(u,v)和点云数据(x,y,z);
步骤三,基于4N个点的2D-3D映射关系,利用Solve PNP和最小二乘优化的方法计算相机与激光的相对位姿关系;
步骤四,将小车开到桥吊作业区域,吊具起升下放至合适高度,并在吊具下方悬挂正方形白板,使其自然下垂,获取此时的白板点云数据,记录此时的桥吊状态,具体指起升高度 h,小车位置x,大车位置y,并测量白板的下垂高度h0;
步骤五,利用白板点云计算白板在激光坐标系下的位姿,基于步骤四获取的白板在桥吊坐标系下的位姿,以此计算出激光和吊桥的相对位姿关系;
步骤六,将定位模块计算的目标物定位数据,转换到桥吊坐标系下。
与现有技术相比,上述技术方案包括以下改进点及有益效果(优点):
第一,本发明提出的集卡与集装箱视觉定位系统,将2D相机的检测优势与3D激光的定位优势有效结合在一起,在提高检测与定位精度的同时,也大大减小了现场的施工与维护难度;
第二,本发明首次提出了融合2D语义信息的3D目标实时定位算法,基于Yolov5s提供的目标物类型、车头方向和可视化比例等语义信息,实现模型的选择与动态修正,从而剔除无关点云对算法耗时的影响,将定位频率大大提升;
第三,综合考虑了点云局部与全局特征实现集卡的定位,有效适应了集卡满载和空载时的特征差异性。满载时采用集装箱的边角特征实现集卡的定位,而空载时采用动态模型的点云配准方法,有效地提升了算法对残缺点云的定位精度。
附图说明
图1为本发明系统硬件连接示意图。
图2为本发明系统原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-2,本发明提供一种技术方案:一种用于岸桥自动控制的集卡视觉融合定位系统。
硬件部分,包括视觉服务器,2D相机,3D激光雷达,交换机和若干网线。硬件具体布局如下:
将2D相机和3D激光雷达分别均安装于桥吊的左、右联系梁上,角度斜向下,使其完整覆盖桥吊作业区域;
视觉服务器与交换机安装于桥吊的电气机房,并将视觉服务器、2D相机、3D激光雷达均通过网线连接到交换机上。通过将2D相机的检测优势与3D激光的定位优势有效结合在一起,在提高检测与定位精度的同时,也大大减小了现场的施工与维护难度。
第二,软件部分,包括四大模块,即检测模块、定位模块、标定模块和消息发布模块。每个模块的设计如下。
检测模块:
将相机获取的图片输入到训练好的Yolo v5s模型,完成集卡和集装箱的识别检测,并输出以下基本特征,即目标物类型和车头方向等,同时输出目标物在图像中的位置,以图像ROI的像素坐标给出;
步骤一,采集足够数量(5000张以上)桥吊作业区域的真实图片,里面包含不同集卡或集装箱类型、多种作业车道以及不同车头方向的图片数据;
步骤二,对真实图片进行目标物的人工标注,标注信息包括集卡或集装箱所在区域的图像ROI,以及对应的目标物类型和车头方向等;
步骤三,将标注好的数据输入到神经网络进行训练,上述神经网络是基于100万张Imagenet数据的Yolo v5s预训练模型,这样可以缩短对于目标物的训练时间;
步骤四,将2D相机获取的图片进行裁剪、缩放等预处理,裁减掉作业范围之外的无关区域,并将图片大小进行缩放,可以减小后续推断的时间;
步骤五,将预处理后的图片输入到训练好的yolov5s神经网络中,得到包含图像ROI和目标物基本特征的推断结果,并将推断的ROI转换到原始图片的像素坐标系中。具体的,最终获取的推断信息包括目标物的图像ROI坐标,目标物类型和车头方向等。通过提出了融合2D语义信息的3D目标实时定位算法,基于Yolov5s提供的目标物类型、车头方向和可视化比例等语义信息,实现模型的选择与动态修正,从而剔除无关点云对算法耗时的影响,将定位频率大大提升。
定位模块:
针对目标物特征的差异性,分别设计有效的定位算法。集装箱上表面为理想的平面特征,与平面内部的点相比,其轮廓具有更加稳定、有效的3d特征,且该局部轮廓特征不易受内部点云缺失的影响;而集卡车板的框架比较复杂,局部特征相似而不明显,需要利用整个车板的全局特征进行定位。集卡定位算法如下:
集卡载有集装箱时
步骤一,使用标定模块的相机-激光标定参数,提取集装箱ROI范围内的3d点云,并对集装箱点云进行半径为1cm的体素滤波,从中剔除离群噪点;
步骤二,采用RANSAC方法提取集装箱点云的上表面P,平面容许误差为3cm;
步骤三,采用切片算法快速提取平面的边缘PL:以5cm为步长,先沿大车方向对点云的小车坐标进行分组,提取每组数据中的极值作为当前切片的轮廓点,再沿小车方向同样处理。所有切片的轮廓点组成集装箱的上表面边缘,并计算轮廓的质心PL0;
步骤四,采用直线拟合的方法,将平面轮廓PL提取为多条直线段{L},验证相邻的直线段是否垂直,如满足垂直(夹角90°±3°),则记录交点{Lc};
步骤五,利用相邻直线段每个交点Lc和对应的直角特征,推算集装箱中心和位姿,对所有推算结果取平均作为最终的集装箱定位值。
集卡空载时:
步骤一:使用标定模块的相机-激光标定参数,提取集卡车板ROI范围内的3d点云,并对点云进行半径为1cm的体素滤波,从中剔除离群噪点;
步骤二:采用动态模型裁剪法修正模型点云:依据检测模块提供的集卡类型选择对应的模型,并基于车头方向选择模型的初始姿态,同时计算可视化比例,基于该比例修正模型点云;
步骤三:使用迭代最近点的点云配准方法实现集卡的精准定位:初次定位时,以PCA的粗略定位值作为迭代的初始位姿;而后续跟踪定位时,以上次的精准位置作为初始状态进行迭代。
第三,综合考虑了点云局部与全局特征实现集卡的定位,有效适应了集卡满载和空载时的特征差异性。满载时采用集装箱的边角特征实现集卡的定位,而空载时采用动态模型的点云配准方法,有效地提升了算法对残缺点云的定位精度。
标定模块:
用于标定相机与激光的坐标转换关系,将图像中的目标物ROI映射到点云数据中,用于提取目标物点云;标定激光与桥吊的坐标转换关系,将目标物的定位数据转换到桥吊坐标系下。具体步骤如下:
步骤一,制作一个边长为1m×1m的正方形白板,在桥吊工作范围内,由工作人员在N(N>10)个不同位置举升托杆,保证每个位置下相机和激光均能采集完整的白板数据,并在每个位置获取同步的图像与点云数据;
步骤二,针对每组图像和点云数据,人工手动选取白板的4个角点的像素(u,v)和点云数据(x,y,z);
步骤三,基于4N个点的2D-3D映射关系,利用Solve PNP和最小二乘优化的方法计算相机与激光的相对位姿关系;
步骤四,将小车开到桥吊作业区域,吊具起升下放至合适高度,并在吊具下方悬挂正方形白板,使其自然下垂。获取此时的白板点云数据,记录此时的桥吊状态(起升高度 h,小车位置x,大车位置y),并测量白板的下垂高度h0;
步骤五,利用白板点云计算白板在激光坐标系下的位姿,基于步骤五获取的白板在桥吊坐标系下的位姿,以此计算出激光和吊桥的相对位姿关系;
步骤六,将定位模块计算的目标物定位数据,转换到桥吊坐标系下。
发布模块:
将视觉服务器上检测模块获得的目标物基本特征,和标定模块获得的目标物定位信息由ZMQ对外发布。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (6)
1.一种用于岸桥自动控制的集卡视觉融合定位系统,其特征在于:包括检测模块、定位模块、标定模块、消息发布模块;
所述检测模块用于将相机获取的图片输入到训练好的Yolo v5s模型,完成集卡和集装箱的识别检测,并输出基本特征:目标物类型和车头方向,同时输出目标物在图像中的位置,以图像ROI的像素坐标给出;
所述定位模块用于针对目标物特征的差异性,分别设计有效的定位算法;
所述标定模块用于标定相机与激光的坐标转换关系,将图像中的目标物ROI映射到点云数据中,用于提取目标物点云;并标定激光与桥吊的坐标转换关系,将目标物的定位数据转换到桥吊坐标系下;
所述发布模块用于将视觉服务器上检测模块获得的目标物基本特征,和标定模块获得的目标物定位信息由ZMQ对外发布。
2.根据权利要求1所述的一种用于岸桥自动控制的集卡视觉融合定位系统,其特征在于:所述检测模块中Yolo v5s模型的训练及检测过程如下:
步骤一,采集5000张以上的桥吊作业区域的真实图片,里面包含不同集卡或集装箱类型、多种作业车道以及不同车头方向的图片数据;
步骤二,对真实图片进行目标物的人工标注,标注信息包括集卡或集装箱所在区域的图像ROI,以及对应的目标物类型和车头方向;
步骤三,将标注好的数据输入到神经网络进行训练,上述神经网络是基于100万张Imagenet数据的Yolo v5s预训练模型;
步骤四,将2D相机获取的图片进行裁剪、缩放的预处理,裁减掉作业范围之外的无关区域,并将图片大小进行缩放;
步骤五,将预处理后的图片输入到训练好的yolov5s神经网络中,得到包含图像ROI和目标物基本特征的推断结果,并将推断的ROI转换到原始图片的像素坐标系中,最终获取的推断信息包括目标物的图像ROI坐标,目标物类型和车头方向。
3.根据权利要求2所述的一种用于岸桥自动控制的集卡视觉融合定位系统,其特征在于:所述2D相机与3D激光雷达分别均安装于桥吊的左、右联系梁上,角度斜向下,使其完整覆盖桥吊作业区域,所述视觉服务器与交换机安装于桥吊的电气机房,并将视觉服务器、2D相机、3D激光雷达均通过网线连接到交换机。
4.根据权利要求1所述的一种用于岸桥自动控制的集卡视觉融合定位系统,其特征在于:所述定位模块中集卡载有集装箱时,定位算法如下:
步骤一,使用标定模块的相机-激光标定参数,提取集装箱ROI范围内的3d点云,并对集装箱点云进行半径为1cm的体素滤波,从中剔除离群噪点;
步骤二,采用RANSAC方法提取集装箱点云的上表面P,平面容许误差为3cm;
步骤三,采用切片算法快速提取平面的边缘PL:以5cm为步长,先沿大车方向对点云的小车坐标进行分组,提取每组数据中的极值作为当前切片的轮廓点,再沿小车方向同样处理;所有切片的轮廓点组成集装箱的上表面边缘,并计算轮廓的质心PL0;
步骤四,采用直线拟合的方法,将平面轮廓PL提取为多条直线段{L},验证相邻的直线段是否垂直;
步骤五,利用相邻直线段每个交点Lc和对应的直角特征,推算集装箱中心和位姿,对所有推算结果取平均作为最终的集装箱定位值。
5.根据权利要求1所述的一种用于岸桥自动控制的集卡视觉融合定位系统,其特征在于:所述定位模块中集卡空载时,定位算法如下:
步骤一:使用标定模块的相机-激光标定参数,提取集卡车板ROI范围内的3d点云,并对点云进行半径为1cm的体素滤波,从中剔除离群噪点;
步骤二:采用动态模型裁剪法修正模型点云:依据检测模块提供的集卡类型选择对应的模型,并基于车头方向选择模型的初始姿态,同时计算可视化比例,基于该比例修正模型点云;
步骤三:使用迭代最近点的点云配准方法实现集卡的精准定位:初次定位时,以PCA的粗略定位值作为迭代的初始位姿;而后续跟踪定位时,以上次的精准位置作为初始状态进行迭代。
6.根据权利要求1所述的一种用于岸桥自动控制的集卡视觉融合定位系统,其特征在于:所述标定模块的具体步骤如下:
步骤一,制作一个边长为1m×1m的正方形白板,在桥吊工作范围内,由工作人员在N个不同位置举升托杆,其中N>10,保证每个位置下相机和激光均能采集完整的白板数据,并在每个位置获取同步的图像与点云数据;
步骤二,针对每组图像和点云数据,人工手动选取白板的4个角点的像素(u,v)和点云数据(x,y,z);
步骤三,基于4N个点的2D-3D映射关系,利用Solve PNP和最小二乘优化的方法计算相机与激光的相对位姿关系;
步骤四,将小车开到桥吊作业区域,吊具起升下放至合适高度,并在吊具下方悬挂正方形白板,使其自然下垂,获取此时的白板点云数据,记录此时的桥吊状态,具体指起升高度h,小车位置x,大车位置y,并测量白板的下垂高度h0;
步骤五,利用白板点云计算白板在激光坐标系下的位姿,基于步骤四获取的白板在桥吊坐标系下的位姿,以此计算出激光和吊桥的相对位姿关系;
步骤六,将定位模块计算的目标物定位数据,转换到桥吊坐标系下。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210150634.XA CN114241269B (zh) | 2022-02-18 | 2022-02-18 | 一种用于岸桥自动控制的集卡视觉融合定位系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210150634.XA CN114241269B (zh) | 2022-02-18 | 2022-02-18 | 一种用于岸桥自动控制的集卡视觉融合定位系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114241269A true CN114241269A (zh) | 2022-03-25 |
CN114241269B CN114241269B (zh) | 2022-07-08 |
Family
ID=80747596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210150634.XA Active CN114241269B (zh) | 2022-02-18 | 2022-02-18 | 一种用于岸桥自动控制的集卡视觉融合定位系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114241269B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115690061A (zh) * | 2022-11-08 | 2023-02-03 | 北京国泰星云科技有限公司 | 一种基于视觉的集装箱码头集卡车检测方法 |
CN115880252A (zh) * | 2022-12-13 | 2023-03-31 | 北京斯年智驾科技有限公司 | 一种集装箱吊具检测方法、装置、计算机设备及存储介质 |
WO2024060792A1 (zh) * | 2022-09-22 | 2024-03-28 | 中车资阳机车有限公司 | 一种分体式集装箱吊具的锁孔定位系统及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107514994A (zh) * | 2017-07-12 | 2017-12-26 | 浙江工业大学 | 一种基于误差补偿的船槽定位方法 |
CN108398229A (zh) * | 2017-12-27 | 2018-08-14 | 中国航天空气动力技术研究院 | 一种飞行器三维表面流动分布风洞测量方法 |
CN112330676A (zh) * | 2020-12-31 | 2021-02-05 | 中国电力科学研究院有限公司 | 基于红外点云的变电站/换流站缺陷诊断方法及系统 |
US11002859B1 (en) * | 2020-02-27 | 2021-05-11 | Tsinghua University | Intelligent vehicle positioning method based on feature point calibration |
CN113159042A (zh) * | 2021-03-30 | 2021-07-23 | 苏州市卫航智能技术有限公司 | 一种激光视觉融合的无人船桥洞通行方法及系统 |
CN113436258A (zh) * | 2021-06-17 | 2021-09-24 | 中国船舶重工集团公司第七0七研究所九江分部 | 基于视觉与激光雷达融合的海上浮码头检测方法及系统 |
CN113744337A (zh) * | 2021-09-07 | 2021-12-03 | 江苏科技大学 | 一种融合视觉、imu与声纳的同步定位与建图方法 |
CN114140539A (zh) * | 2021-11-30 | 2022-03-04 | 建科公共设施运营管理有限公司 | 一种室内物体的位置获取方法和装置 |
-
2022
- 2022-02-18 CN CN202210150634.XA patent/CN114241269B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107514994A (zh) * | 2017-07-12 | 2017-12-26 | 浙江工业大学 | 一种基于误差补偿的船槽定位方法 |
CN108398229A (zh) * | 2017-12-27 | 2018-08-14 | 中国航天空气动力技术研究院 | 一种飞行器三维表面流动分布风洞测量方法 |
US11002859B1 (en) * | 2020-02-27 | 2021-05-11 | Tsinghua University | Intelligent vehicle positioning method based on feature point calibration |
CN112330676A (zh) * | 2020-12-31 | 2021-02-05 | 中国电力科学研究院有限公司 | 基于红外点云的变电站/换流站缺陷诊断方法及系统 |
CN113159042A (zh) * | 2021-03-30 | 2021-07-23 | 苏州市卫航智能技术有限公司 | 一种激光视觉融合的无人船桥洞通行方法及系统 |
CN113436258A (zh) * | 2021-06-17 | 2021-09-24 | 中国船舶重工集团公司第七0七研究所九江分部 | 基于视觉与激光雷达融合的海上浮码头检测方法及系统 |
CN113744337A (zh) * | 2021-09-07 | 2021-12-03 | 江苏科技大学 | 一种融合视觉、imu与声纳的同步定位与建图方法 |
CN114140539A (zh) * | 2021-11-30 | 2022-03-04 | 建科公共设施运营管理有限公司 | 一种室内物体的位置获取方法和装置 |
Non-Patent Citations (1)
Title |
---|
吕潮峰等: "基于激光雷达测量技术的集装箱卡车定位系统", 《激光技术》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024060792A1 (zh) * | 2022-09-22 | 2024-03-28 | 中车资阳机车有限公司 | 一种分体式集装箱吊具的锁孔定位系统及方法 |
CN115690061A (zh) * | 2022-11-08 | 2023-02-03 | 北京国泰星云科技有限公司 | 一种基于视觉的集装箱码头集卡车检测方法 |
CN115690061B (zh) * | 2022-11-08 | 2024-01-05 | 北京国泰星云科技有限公司 | 一种基于视觉的集装箱码头集卡车检测方法 |
CN115880252A (zh) * | 2022-12-13 | 2023-03-31 | 北京斯年智驾科技有限公司 | 一种集装箱吊具检测方法、装置、计算机设备及存储介质 |
CN115880252B (zh) * | 2022-12-13 | 2023-10-17 | 北京斯年智驾科技有限公司 | 一种集装箱吊具检测方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114241269B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114241269B (zh) | 一种用于岸桥自动控制的集卡视觉融合定位系统 | |
CN109948661B (zh) | 一种基于多传感器融合的3d车辆检测方法 | |
CN110781827B (zh) | 一种基于激光雷达与扇状空间分割的路沿检测系统及其方法 | |
CN107507167B (zh) | 一种基于点云平面轮廓匹配的货物托盘检测方法及系统 | |
CN111267095B (zh) | 一种基于双目视觉的机械臂抓取控制方法 | |
CN110243380B (zh) | 一种基于多传感器数据与角度特征识别的地图匹配方法 | |
CN111553949B (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
CN111563415A (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN111178138B (zh) | 基于激光点云和双目视觉的配网导线作业点检测方法及装置 | |
CN110910350A (zh) | 一种用于风电塔筒的螺母松动检测方法 | |
CN111761575B (zh) | 工件及其抓取方法和生产线 | |
CN110702028B (zh) | 一种果园树干三维检测定位方法及装置 | |
CN110796700A (zh) | 基于卷积神经网络的多物体抓取区域定位方法 | |
CN114331986A (zh) | 一种基于无人机视觉的坝体裂纹识别与测量方法 | |
CN112927302A (zh) | 一种多线激光雷达与相机联合标定的标定板及标定方法 | |
CN112197773A (zh) | 基于平面信息的视觉和激光定位建图方法 | |
CN114879209A (zh) | 一种用于机场跑道低成本异物检测分类的系统和方法 | |
CN114578328A (zh) | 一种多激光雷达和多相机传感器空间位置自动标定方法 | |
Kang et al. | Accurate fruit localisation for robotic harvesting using high resolution lidar-camera fusion | |
CN116309882A (zh) | 一种面向无人叉车应用的托盘检测和定位方法及系统 | |
CN116228854B (zh) | 一种基于深度学习的包裹自动分拣方法 | |
CN115289966A (zh) | 基于tof相机的货架检测定位系统及方法 | |
CN116402904A (zh) | 一种基于激光雷达间和单目相机的联合标定方法 | |
CN113706610B (zh) | 基于rgb-d相机的栈板位姿计算方法 | |
CN114998430A (zh) | 一种用于岸桥自动抓放箱的吊具多视角融合定位系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |