CN117152258B - 一种管道生产智慧车间的产品定位方法及系统 - Google Patents
一种管道生产智慧车间的产品定位方法及系统 Download PDFInfo
- Publication number
- CN117152258B CN117152258B CN202311433433.1A CN202311433433A CN117152258B CN 117152258 B CN117152258 B CN 117152258B CN 202311433433 A CN202311433433 A CN 202311433433A CN 117152258 B CN117152258 B CN 117152258B
- Authority
- CN
- China
- Prior art keywords
- target product
- target
- product
- information
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012544 monitoring process Methods 0.000 claims abstract description 109
- 239000002245 particle Substances 0.000 claims abstract description 71
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 230000009466 transformation Effects 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 34
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 230000001629 suppression Effects 0.000 claims description 8
- 238000012952 Resampling Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 239000000463 material Substances 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种管道生产智慧车间的产品定位方法及系统,涉及定位技术领域,包括实时获取生产区域中监控摄像头的监控视频,判断监控视频中是否存在目标产品,若存在,则基于目标检测模型确定监控视频中每一帧视频信息的目标产品对应的目标候选框;从监控视频中每一帧视频信息提取目标产品对应的图像特征,结合监控摄像头所对应的空间坐标系对图像特征进行空间变换,确定目标产品的定位信息;若不存在,则进一步判断监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对目标产品进行重定位,其中,重定位算法基于改进的粒子群算法构建而成,由此能够实现对生产车间产品的精准定位和实时监测。
Description
技术领域
本发明涉及定位技术,尤其涉及一种管道生产智慧车间的产品定位方法及系统。
背景技术
在大数据、机器学习等人工智能技术的驱动下,制造过程正向智能化、无人化转变。现阶段针对管道制造车间的物料追踪定位,传统方式是工人按照记录物料位置的手册或者人眼寻找识别,来准确定位物料位置,由于大型构件物料位置具有随机性,较为先进的制造工厂能够将车间的每个物料贴上RIFD或UWB标签作为唯一标识,利用无线射频识别(RIFD)和超宽带技术(UWB)进行检测识别和获取位置凹,传输到物料系统记录物料名称和相应的存放位置。
但是该技术存在价格昂贵以及窜读、漏读等问题,且依旧无法完全脱离人为干预。标签的粘贴、加工过程的掉落,和加工完成后的回收是一个难以避免的问题,无法做到工厂物料识别和定位的无人化、智能化,同样也很难应对物料位置临时改变而信息系统没有记录的问题。
发明内容
本发明实施例提供一种管道生产智慧车间的产品定位方法及系统,能够对管道生产车间中的产品进行精准识别和无人化实时定位。
本发明实施例的第一方面,提供一种管道生产智慧车间的产品定位方法,包括:
实时获取生产区域中监控摄像头的监控视频,判断所述监控视频中是否存在目标产品,
若存在,则基于目标检测模型确定所述监控视频中每一帧视频信息的目标产品对应的目标候选框;从所述监控视频中每一帧视频信息提取所述目标产品对应的图像特征,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息;
若不存在,则进一步判断所述监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位,其中,所述重定位算法基于改进的粒子群算法构建而成。
在一种可选的实施方式中,所述方法还包括训练所述目标检测模型:
通过所述目标检测模型的卷积层提取预先获取的训练数据集的训练特征,根据所述目标检测模型的池化层设置滑动窗口,滑动选择所述训练特征,应用非极大值抑制确定滑动窗口内训练特征对应的锚框得分;
基于锚框得分靠前的训练特征,通过所述目标检测模型的分类损失函数和回归损失函数确定所述训练特征的分类损失值和回归损失值;
通过反向传播算法结合自适应学习率迭代优化所述分类损失函数和所述回归损失函数,直至所述分类损失值与所述回归损失值的损失值之和最小化。
在一种可选的实施方式中,通过反向传播算法结合自适应学习率迭代优化所述分类损失函数和所述回归损失函数,直至所述分类损失值与所述回归损失值的损失值之和最小化包括:
;
;
;
其中,L表示所述分类损失值与所述回归损失值的损失值之和,S表示学习率,r表示损失权重系数,g t 表示t时刻的模型梯度,θ表示目标检测模型的模型参数,m t 表示t时刻的一阶矩估计;
L cls 表示所述分类损失函数对应的分类损失,N表示训练数据集的样本数,y i 、p i 分别表示训练数据集的第i个样本对应的实际标签,以及训练数据集的第i个样本对应的标签预测概率,
L reg 表示所述回归损失函数对应的回归损失,T i 表示训练数据集的第i个样本对应的实际回归目标,smooth()表示平滑损失函数。
在一种可选的实施方式中,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息包括:
对所述监控摄像头进行标定,确定所述监控摄像头的内参矩阵和外参矩阵,其中,所述内参矩阵用于指示所述监控摄像头的焦距、主点坐标以及畸变系数中至少一种,所述外参矩阵用于指示所述监控摄像头在世界坐标系的位置信息、朝向信息中至少一种;
基于所述监控摄像头的内参矩阵和外参矩阵,构建所述监控摄像头的投影矩阵,并且基于所述投影矩阵通过归一化坐标系对所述图像特征进行透视变换,将所述图像特征映射到世界坐标系中,确定所述目标产品的定位信息,其中,所述归一化坐标系用于指示通过滑动窗口确定所述图像特征对应的目标候选框,并将所述目标候选框的四个顶点通过图像坐标系转换而来的坐标系。
在一种可选的实施方式中,所述方法还包括:
当任意监控摄像头在任一时刻识别到目标产品时,判断所述目标产品是否第一次出现,若是,则为该目标产品分配产品ID;
判断在同一时刻其他监控摄像头中识别到所述目标产品时,不同监控摄像头为同一目标产品分配的产品ID是否相同,若不相同,
则根据不同监控摄像头所识别到的目标产品的位置信息,计算交集体积,当所述交集体积超过预设重叠阈值时,进一步比较产品ID存在的时长,将时长更长的产品ID作为所述目标产品的最终ID。
在一种可选的实施方式中,结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位包括:
基于所述生产区域地图信息将所述生产区域划分为多个栅格,并且将所述目标产品初始化为随机粒子;
确定所述目标产品在所述监控视频中消失的消失时刻和消失位置,结合预先构建的生产区域地图信息,通过搜索空间选择算法调整所述随机粒子在粒子集中的比例,并根据搜索空间大小自适应调节粒子数,确定所述目标产品出现在生产区域地图中其他位置的位置概率;
将所述生产区域地图中位置概率最高位置作为所述目标产品的重定位信息。
在一种可选的实施方式中,根据搜索空间大小自适应调节粒子数,确定所述目标产品出现在生产区域地图中其他位置的位置概率包括:
根据在所述生产区域的多个栅格的搜索空间维度分配对应的粒子数量,基于在搜索空间中的粒子位置与实际观察数据的匹配度为粒子分配对应的空间权重;
通过动态更新算法将所述粒子位置与所述空间权重相结合,并根据所述空间权重对粒子进行重采样,确定所述目标产品出现在生产区域地图中其他位置的位置概率。
本发明实施例的第二方面,提供一种管道生产智慧车间的产品定位系统,包括:
第一单元,用于实时获取生产区域中监控摄像头的监控视频,判断所述监控视频中是否存在目标产品,
第二单元,用于若存在,则基于目标检测模型确定所述监控视频中每一帧视频信息的目标产品对应的目标候选框;从所述监控视频中每一帧视频信息提取所述目标产品对应的图像特征,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息;
第三单元,用于若不存在,则进一步判断所述监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位,其中,所述重定位算法基于改进的粒子群算法构建而成。
本发明实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行前述所述的方法。
本发明实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现前述所述的方法。
本发明通过实时获取监控摄像头的监控视频,能够及时检测生产区域中是否存在目标产品,有助于即时识别生产线上的产品情况,以便进一步处理和监控,通过结合监控摄像头的空间坐标系,对目标产品的图像特征进行空间变换,可以精确确定目标产品的定位信息,有助于在三维空间中定位产品的具体位置,整合了实时目标检测、定位和遮挡处理,使智慧车间能够智能化地监测和管理生产过程,提高了生产效率和产品质量,综上,本发明能够提高生产线的智能化程度,减少生产中的问题和延误,以确保高效的生产和产品定位。
附图说明
图1为本发明实施例管道生产智慧车间的产品定位方法的流程示意图;
图2为本发明实施例管道生产智慧车间的产品定位系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
图1为本发明实施例管道生产智慧车间的产品定位方法的流程示意图,如图1所示,所述方法包括:
S1.实时获取生产区域中监控摄像头的监控视频,判断所述监控视频中是否存在目标产品,
在一种可选的实施方式中,所述方法还包括训练所述目标检测模型:
通过所述目标检测模型的卷积层提取预先获取的训练数据集的训练特征,根据所述目标检测模型的池化层设置滑动窗口,滑动选择所述训练特征,应用非极大值抑制确定滑动窗口内训练特征对应的锚框得分;
所述滑动窗口通过在图像上滑动固定大小的窗口,将窗口内的图像区域作为输入送入目标检测模型,滑动窗口的工作原理是于每个滑动窗口的位置,模型都会对窗口内的图像进行处理并输出一个得分,表示该窗口内是否包含目标;
所述锚框是一种预定义的边界框,用于在图像中生成多个候选框。锚框得分是模型为每个锚框分配的得分,表示该框内是否包含目标以及目标的类别概率,在滑动窗口的过程中,对每个窗口位置,模型使用预定义的锚框,计算相应的得分,这些得分包括目标类别的概率和框的准确性;
所述非极大值抑制是一种用于去除重叠边界框的技术,确保在检测到目标时只保留最相关的边界框,对于每个类别,非极大值抑制对检测到的所有边界框按照得分进行排序。然后,从得分最高的边界框开始,移除与其交并比高于某个阈值的其他边界框;
上述三个概念通常一起使用,滑动窗口和锚框得分用于生成大量的候选框,而非极大值抑制用于精炼和筛选这些候选框,确保最终的检测结果是准确的、不重叠的,并且得分较高。
收集并标注训练数据集,包括输入图像和对应的目标边界框;
选择目标检测模型架构,并在选择好的架构模型中添加卷积层用于进行特征提取;
使用训练数据集训练目标检测模型,通过卷积层获取特征,使用前几个卷积层提取较低级别的特征,后续卷积层提取更高级别的特征;
针对测试图像,使用窗口滑动技术在图像上进行窗口滑动,并在每个窗口位置提取相应的特征;
对于每个滑动窗口提取的特征,通过模型的输出层计算相应得分;
对于每个滑动窗口,使用非极大值抑制来抑制重叠的框,保留得分最高的一部分框;
基于锚框得分靠前的训练特征,通过所述目标检测模型的分类损失函数和回归损失函数确定所述训练特征的分类损失值和回归损失值;
所述分类损失函数衡量模型对每个候选框所属类别的预测与实际类别标签的差异;
所述回归损失函数用于衡量模型对于候选框位置和大小的预测与实际边界框的差异;
对于每个位置的锚框,按照它们的得分排序,选择得分较高的一部分锚框;
对于所选的锚框,使用交叉熵损失函数计算分类损失;
对于所选的锚框,使用平滑的L1损失函数计算回归损失;
将分类损失值和回归损失值结合,构建总体损失函数;
通过反向传播算法结合自适应学习率迭代优化所述分类损失函数和所述回归损失函数,直至所述分类损失值与所述回归损失值的损失值之和最小化。
所述反向传播算法是用于训练神经网络的一种优化算法。它通过计算模型损失函数对每个参数的梯度,然后利用梯度下降或其它优化算法来更新模型参数,以最小化损失函数。
初始化目标检测模型,并选择一个优化器;
在训练数据上进行循环迭代;
使用自适应学习率算法对模型的学习率进行迭代优化。
在一种可选的实施方式中,通过反向传播算法结合自适应学习率迭代优化所述分类损失函数和所述回归损失函数,直至所述分类损失值与所述回归损失值的损失值之和最小化包括:
;
;
;
其中,L表示所述分类损失值与所述回归损失值的损失值之和,S表示学习率,r表示损失权重系数,g t 表示t时刻的模型梯度,θ表示目标检测模型的模型参数,m t 表示t时刻的一阶矩估计;
L cls 表示所述分类损失函数对应的分类损失,N表示训练数据集的样本数,y i 、p i 分别表示训练数据集的第i个样本对应的实际标签,以及训练数据集的第i个样本对应的标签预测概率,
L reg 表示所述回归损失函数对应的回归损失,T i 表示训练数据集的第i个样本对应的实际回归目标,smooth()表示平滑损失函数。
本函数将分类损失和回归损失综合考虑,通过损失权重系数进行加权,使模型在训练中更好地平衡分类和回归任务,通过自适应学习率算法,根据梯度信息和一阶矩估计动态调整学习率,这有助于在训练过程中更灵活地调整学习率,加速收敛并提高模型的性能,使用平滑的 L1 损失函数,相对于均方误差损失更具鲁棒性,这有助于抵御异常值对模型的不良影响,尤其是在目标检测等任务中,物体的位置和大小的精确度较为关键,这个损失函数的设计考虑了分类和回归任务的综合效果,同时通过学习率自适应和损失权重调整,使得模型更容易收敛到局部最优解,提高了在智慧车间产品定位任务中的性能。
本步骤中,通过获取生产区域中监控摄像头的视频,能够实时监测生产线上的情况。这有助于及时发现问题、提高生产效率,并确保产品定位的准确性;
利用目标检测模型,能够在监控视频中检测出目标产品的位置。这增加了对生产过程的实时感知,提高了自动化水平;
利用目标检测模型的卷积层提取预先获取的训练数据集的训练特征。这使得模型能够从视频中学习到特征,提高了对目标产品的识别能力,设置滑动窗口并应用非极大值抑制,有效地在图像中选择窗口,减少了冗余的检测框,提高了检测的效率;
通过使用目标检测模型的分类和回归损失函数,能够准确计算训练特征的分类损失值和回归损失值。这有助于评估模型的性能,指导模型的参数调整;
利用反向传播算法结合自适应学习率迭代,使得分类损失值和回归损失值的和最小化。这有助于模型不断地调整参数,适应实际生产环境的变化,提高了模型的泛化性和鲁棒性;
综上,本步骤结合了目标检测、实时监测和自适应优化等技术,使得在智慧车间产品定位中达到了高效、准确和自适应的效果。
S2.若存在,则基于目标检测模型确定所述监控视频中每一帧视频信息的目标产品对应的目标候选框;从所述监控视频中每一帧视频信息提取所述目标产品对应的图像特征,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息;
所述图像特征,是指从图像中提取的、能够表征图像内容的关键信息。这些信息可以是图像的局部结构、纹理、颜色、形状等。
所述定位信息指的是在图像或空间中明确描述目标位置的信息。在计算机视觉中,定位通常包括目标在图像中的位置、大小和方向。
图像特征和定位信息是密切相关的。通过学习到的图像特征,模型可以更准确地定位目标的位置。良好的图像特征提取有助于模型理解图像中的结构和内容,从而更精准地提取定位信息。
在一种可选的实施方式中,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息包括:
对所述监控摄像头进行标定,确定所述监控摄像头的内参矩阵和外参矩阵,其中,所述内参矩阵用于指示所述监控摄像头的焦距、主点坐标以及畸变系数中至少一种,所述外参矩阵用于指示所述监控摄像头在世界坐标系的位置信息、朝向信息中至少一种;
获取一个标定板,通常是一个黑白格子或棋盘格;
将标定板放置在所拍摄场景中,保证它能够覆盖摄像头的整个视野;
使用监控摄像头拍摄包含标定板的图像,在不同位置、姿态和焦距下采集多个图像;
对每一张图像采用图像处理方法或者使用专门的标定软件来检测标定板上的角点,进行角点检测;
将检测到的角点与标定板上的实际角点进行匹配;
利用角点的图像坐标和世界坐标,采用摄像头标定的数学模型,计算摄像头的内参矩阵和外参矩阵;
如果内参矩阵中包含畸变系数,进行畸变矫正;
使用标定后的摄像头参数对其他图像进行校正,检查标定结果的准确性并将将计算得到的内参矩阵和外参矩阵保存下来;
基于所述监控摄像头的内参矩阵和外参矩阵,构建所述监控摄像头的投影矩阵,并且基于所述投影矩阵通过归一化坐标系对所述图像特征进行透视变换,将所述图像特征映射到世界坐标系中,确定所述目标产品的定位信息,其中,所述归一化坐标系用于指示通过滑动窗口确定所述图像特征对应的目标候选框,并将所述目标候选框的四个顶点通过图像坐标系转换而来的坐标系。
使用内参矩阵和外参矩阵将世界坐标中的点映射到图像坐标中,构建摄像头的投影矩阵;
对于每个图像特征,通常是一个点或一组点的坐标,将其从图像坐标系转换为归一化坐标系;
使用滑动窗口方法,在归一化坐标系中选择窗口,以确定图像中的目标候选框;
对于每个目标候选框,将其四个顶点从归一化坐标系转换为世界坐标系;
对于每个目标候选框,从世界坐标中提取定位信息,包括位置、朝向、大小等;
重复以上步骤,对于每个图像特征,透视变换并提取定位信息,监控视频的每一帧中执行,以实时地获得目标产品的定位信息;
将每个目标候选框的定位信息保存下来;
在一种可选的实施方式中,所述方法还包括:
当任意监控摄像头在任一时刻识别到目标产品时,判断所述目标产品是否第一次出现,若是,则为该目标产品分配产品ID;
初始化一个记录已分配产品ID的数据结构;
当监控摄像头在任一时刻检测到目标产品,获取目标产品的相关信息,如位置、特征等;
在已分配的产品ID记录中使用目标产品的位置信息、形状、颜色等特征进行比对,查找是否已经存在具有相似特征的目标产品;
如果在已分配的产品ID记录中未找到相似的目标产品,判定为该目标产品第一次出现;
为该目标产品分配一个新的产品ID。可以是递增的整数,也可以采用其他唯一标识符;
将新分配的产品ID与目标产品的信息一起记录到已分配的产品ID记录中;
对于监控摄像头在每一时刻检测到的目标产品,重复上述操作;
判断在同一时刻其他监控摄像头中识别到所述目标产品时,不同监控摄像头为同一目标产品分配的产品ID是否相同,若不相同,
当某个监控摄像头检测到目标产品并为其分配了产品ID时,将目标产品的ID和相关信息传递给中心处理单元或者其他监控摄像头,中心处理单元或者每个监控摄像头都接收其他摄像头传递过来的目标产品信息;
对于每个监控摄像头在同一时刻检测到的目标产品,对比它们的产品ID。如果存在相同的产品ID,说明这是同一目标产品;
如果产品ID相同,保留其中一个产品ID,并将其他摄像头的产品ID更新为这个共享的ID;
则根据不同监控摄像头所识别到的目标产品的位置信息,计算交集体积,当所述交集体积超过预设重叠阈值时,进一步比较产品ID存在的时长,将时长更长的产品ID作为所述目标产品的最终ID。
所述重叠阈值是指在目标检测或物体跟踪任务中,用于判断两个目标或检测框是否发生重叠的一个预设的阈值。这个阈值通常用于衡量两个区域的相似程度;
对于每个监控摄像头在同一时刻检测到的目标产品,获取其位置信息,该位置信息以边界框形式表示;
对于两个不同摄像头检测到的目标产品,使用几何学方法或者坐标变换方法计算它们的位置信息所对应的三维空间中的交集体积;
判断计算得到的交集体积是否超过预设的重叠阈值;
如果交集体积超过了阈值,比较两个目标产品的产品ID存在的时长。可以记录每个产品ID被分配的时间戳,计算时间差来判断存在时长;
如果存在时长更长的产品ID,将该ID作为目标产品的最终ID。如果两者存在时长相同,可以选择任意一个;
将更新后的产品ID记录保存到文件、数据库或其他持久化存储中。
本步骤中通过多个监控摄像头,系统能够在不同视角和位置对目标产品进行检测和定位。这有助于提高对目标的全局感知能力;
利用摄像头的内参矩阵和外参矩阵,通过归一化坐标系对图像特征进行透视变换,将其映射到世界坐标系中。这使得目标产品在整个车间内的位置能够被准确地确定,支持对其进行全局定位。
在任意监控摄像头识别到目标产品时,系统能够实时判断是否是该目标产品第一次出现,并为其分配唯一的产品ID。这有助于建立每个目标产品的唯一标识,支持后续的追溯和管理。
通过判断不同监控摄像头在同一时刻对同一目标产品的识别结果,系统能够协同工作,避免对同一目标的重复计数。这有助于提高系统的准确性和鲁棒性。
当不同摄像头为同一目标产品分配不同的产品ID时,系统通过计算交集体积和比较产品ID存在的时长,选择时长更长的产品ID作为最终ID。这提高了对目标的准确定位和标识的可靠性。
综上,本步骤通过多摄像头的融合和协同工作,实现了对目标产品的准确定位和唯一标识,为生产过程的监控、追溯和管理提供了有力的支持。
S3.若不存在,则进一步判断所述监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位,其中,所述重定位算法基于改进的粒子群算法构建而成。
所述生产区域地图信息指的是关于生产区域空间布局和结构的地图数据,包括各种重要的空间元素,如设备、工作站、通道、存储区域等,以及它们之间的关系,它提供了对整个生产环境的空间认知,有助于优化流程、提高效率和进行实时监控。
在一种可选的实施方式中,结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位包括:
基于所述生产区域地图信息将所述生产区域划分为多个栅格,并且将所述目标产品初始化为随机粒子;
定义栅格的大小,可以根据生产区域的实际尺寸和精度要求来确定;
根据确定的栅格大小,在生产区域地图上创建栅格,其中每个栅格表示地图上的一个小区域;
在生产区域地图上的随机位置生成一组随机粒子,每个粒子代表一个可能的目标产品的状态;
为每个粒子赋予随机的属性,包括位置、速度、方向等,并确保这些属性在生产区域地图内是合理的;
根据目标产品的运动模型,基于先前的运动状态和环境条件进行模拟,模拟每个粒子在地图上的运动;
根据粒子的运动模型和地图信息,更新每个粒子的权重;
根据更新后的权重,对粒子进行重采样,以保留匹配度较高的粒子,并去除匹配度较低的粒子;
基于更新后的粒子集,计算目标产品的状态,输出目标产品的状态,以供后续的目标跟踪。
确定所述目标产品在所述监控视频中消失的消失时刻和消失位置,结合预先构建的生产区域地图信息,通过搜索空间选择算法调整所述随机粒子在粒子集中的比例,并根据搜索空间大小自适应调节粒子数,确定所述目标产品出现在生产区域地图中其他位置的位置概率;
通过分析监控视频,确定目标产品消失的时刻和位置;
利用预先构建的生产区域地图信息,通过地图上的栅格或具体位置信息,获取目标产品在消失时刻的可能位置范围;
基于目标产品消失的位置信息,定义搜索空间,即在生产区域地图上进行搜索的区域;
利用搜索空间选择算法,根据搜索空间中的先验知识或概率分布来调整粒子的权重,调整随机粒子在粒子集中的比例;
根据目标产品的消失位置确定搜索空间的大小;
根据搜索空间的大小自适应调节粒子数,由于搜索空间越大,需要更多的粒子来保证覆盖度,可以根据经验或自适应算法,动态调整粒子数;
基于调整后的粒子集,计算目标产品出现在生产区域地图中其他位置的位置概率分布;
输出调整后的位置概率分布,作为目标产品可能出现的位置信息。
将所述生产区域地图中位置概率最高位置作为所述目标产品的重定位信息。
使用调整后的粒子集,在生产区域地图上计算目标产品可能出现的位置概率分布;
对计算得到的位置概率进行归一化,确保概率的总和为1;
从归一化后的概率分布中确定位置概率最高的位置,获取最高概率位置的具体信息,包括坐标、区域标识等;
将最高概率位置的信息作为目标产品的重定位信息输出。
在一种可选的实施方式中,根据搜索空间大小自适应调节粒子数,确定所述目标产品出现在生产区域地图中其他位置的位置概率包括:
根据在所述生产区域的多个栅格的搜索空间维度分配对应的粒子数量,基于在搜索空间中的粒子位置与实际观察数据的匹配度为粒子分配对应的空间权重;
根据生产区域的多个栅格,确定搜索空间的维度,其中维度可以是栅格的数量,或者是根据地图中的其他信息动态确定的;
根据搜索空间的维度,将总体粒子数按照维度进行分配;
获取监控摄像头或其他传感器提供的实际观察数据,包括目标产品的位置、外观特征等信息;
将每个粒子的位置与实际观察数据进行比较,基于距离、概率分布等指标计算它们的匹配度;
根据粒子的匹配度,计算空间权重;
根据匹配度和空间权重,更新每个粒子的位置。匹配度高的粒子更有可能被保留或加权;
根据匹配度和空间权重,更新每个粒子的权重;
输出更新后的粒子集,作为后续目标定位和跟踪的输入。
通过动态更新算法将所述粒子位置与所述空间权重相结合,并根据所述空间权重对粒子进行重采样,确定所述目标产品出现在生产区域地图中其他位置的位置概率。
根据先验信息和随机生成的粒子,构建初始粒子集,并将所有粒子的空间权重初始化为相等值;获取监控摄像头或其他传感器提供的实际观察数据,并将每个粒子的位置与实际观察数据进行比较,计算它们的匹配度;将每个粒子的当前位置与其对应的空间权重相结合,得到一个综合的状态,根据动态更新算法,对每个粒子的状态进行调整;基于更新后的粒子集,计算目标产品出现在生产区域地图中其他位置的位置概率分布,输出计算得到的位置概率分布,作为目标产品可能出现的位置信息。
图2为本发明实施例管道生产智慧车间的产品定位系统的结构示意图,如图2所示,所述系统包括:
第一单元,用于实时获取生产区域中监控摄像头的监控视频,判断所述监控视频中是否存在目标产品,
第二单元,用于若存在,则基于目标检测模型确定所述监控视频中每一帧视频信息的目标产品对应的目标候选框;从所述监控视频中每一帧视频信息提取所述目标产品对应的图像特征,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息;
第三单元,用于若不存在,则进一步判断所述监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位,其中,所述重定位算法基于改进的粒子群算法构建而成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种管道生产智慧车间的产品定位方法,其特征在于,包括:
实时获取生产区域中监控摄像头的监控视频,判断所述监控视频中是否存在目标产品,
若存在,则基于目标检测模型确定所述监控视频中每一帧视频信息的目标产品对应的目标候选框;从所述监控视频中每一帧视频信息提取所述目标产品对应的图像特征,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息;
若不存在,则进一步判断所述监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位,其中,所述重定位算法基于改进的粒子群算法构建而成;
结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位包括:
基于所述生产区域地图信息将所述生产区域划分为多个栅格,并且将所述目标产品初始化为随机粒子;
确定所述目标产品在所述监控视频中消失的消失时刻和消失位置,结合预先构建的生产区域地图信息,通过搜索空间选择算法调整所述随机粒子在粒子集中的比例,并根据搜索空间大小自适应调节粒子数,确定所述目标产品出现在生产区域地图中其他位置的位置概率;
将所述生产区域地图中位置概率最高位置作为所述目标产品的重定位信息;
根据搜索空间大小自适应调节粒子数,确定所述目标产品出现在生产区域地图中其他位置的位置概率包括:
根据在所述生产区域的多个栅格的搜索空间维度分配对应的粒子数量,基于在搜索空间中的粒子位置与实际观察数据的匹配度为粒子分配对应的空间权重;
通过动态更新算法将所述粒子位置与所述空间权重相结合,并根据所述空间权重对粒子进行重采样,确定所述目标产品出现在生产区域地图中其他位置的位置概率。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括训练所述目标检测模型:
通过所述目标检测模型的卷积层提取预先获取的训练数据集的训练特征,根据所述目标检测模型的池化层设置滑动窗口,滑动选择所述训练特征,应用非极大值抑制确定滑动窗口内训练特征对应的锚框得分;
基于锚框得分靠前的训练特征,通过所述目标检测模型的分类损失函数和回归损失函数确定所述训练特征的分类损失值和回归损失值;
通过反向传播算法结合自适应学习率迭代优化所述分类损失函数和所述回归损失函数,直至所述分类损失值与所述回归损失值的损失值之和最小化。
3.根据权利要求2所述的方法,其特征在于,通过反向传播算法结合自适应学习率迭代优化所述分类损失函数和所述回归损失函数,直至所述分类损失值与所述回归损失值的损失值之和最小化包括:
;
;
;
其中,L表示所述分类损失值与所述回归损失值的损失值之和,S表示学习率,r表示损失权重系数,g t 表示t时刻的模型梯度,θ表示目标检测模型的模型参数,m t 表示t时刻的一阶矩估计;
L cls 表示所述分类损失函数对应的分类损失,N表示训练数据集的样本数,y i 、p i 分别表示训练数据集的第i个样本对应的实际标签,以及训练数据集的第i个样本对应的标签预测概率,
L reg 表示所述回归损失函数对应的回归损失,T i 表示训练数据集的第i个样本对应的实际回归目标,smooth()表示平滑损失函数。
4.根据权利要求1所述的方法,其特征在于,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息包括:
对所述监控摄像头进行标定,确定所述监控摄像头的内参矩阵和外参矩阵,其中,所述内参矩阵用于指示所述监控摄像头的焦距、主点坐标以及畸变系数中至少一种,所述外参矩阵用于指示所述监控摄像头在世界坐标系的位置信息、朝向信息中至少一种;
基于所述监控摄像头的内参矩阵和外参矩阵,构建所述监控摄像头的投影矩阵,并且基于所述投影矩阵通过归一化坐标系对所述图像特征进行透视变换,将所述图像特征映射到世界坐标系中,确定所述目标产品的定位信息,其中,所述归一化坐标系用于指示通过滑动窗口确定所述图像特征对应的目标候选框,并将所述目标候选框的四个顶点通过图像坐标系转换而来的坐标系。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当任意监控摄像头在任一时刻识别到目标产品时,判断所述目标产品是否第一次出现,若是,则为该目标产品分配产品ID;
判断在同一时刻其他监控摄像头中识别到所述目标产品时,不同监控摄像头为同一目标产品分配的产品ID是否相同,若不相同,
则根据不同监控摄像头所识别到的目标产品的位置信息,计算交集体积,当所述交集体积超过预设重叠阈值时,进一步比较产品ID存在的时长,将时长更长的产品ID作为所述目标产品的最终ID。
6.一种管道生产智慧车间的产品定位系统,用于实现前述权利要求1-5中任一项所述的管道生产智慧车间的产品定位方法,其特征在于,包括:
第一单元,用于实时获取生产区域中监控摄像头的监控视频,判断所述监控视频中是否存在目标产品,
第二单元,用于若存在,则基于目标检测模型确定所述监控视频中每一帧视频信息的目标产品对应的目标候选框;从所述监控视频中每一帧视频信息提取所述目标产品对应的图像特征,结合所述监控摄像头所对应的空间坐标系对所述图像特征进行空间变换,确定所述目标产品的定位信息;
第三单元,用于若不存在,则进一步判断所述监控视频中目标产品是否为障碍物遮挡,若是,则结合预先构建的生产区域地图信息以及重定位算法对所述目标产品进行重定位,其中,所述重定位算法基于改进的粒子群算法构建而成。
7.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至5中任意一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至5中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311433433.1A CN117152258B (zh) | 2023-11-01 | 2023-11-01 | 一种管道生产智慧车间的产品定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311433433.1A CN117152258B (zh) | 2023-11-01 | 2023-11-01 | 一种管道生产智慧车间的产品定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117152258A CN117152258A (zh) | 2023-12-01 |
CN117152258B true CN117152258B (zh) | 2024-01-30 |
Family
ID=88908565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311433433.1A Active CN117152258B (zh) | 2023-11-01 | 2023-11-01 | 一种管道生产智慧车间的产品定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152258B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118095804B (zh) * | 2024-04-26 | 2024-06-28 | 大收场(天津)共享经济有限公司 | 一种再生资源溯源管理方法及系统 |
Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683118A (zh) * | 2016-12-30 | 2017-05-17 | 北京航空航天大学 | 一种基于分层模型的无人机目标跟踪方法 |
CN106874854A (zh) * | 2017-01-19 | 2017-06-20 | 西安电子科技大学 | 基于嵌入式平台的无人机车辆跟踪方法 |
CN107169990A (zh) * | 2017-04-21 | 2017-09-15 | 南京邮电大学 | 一种基于粒子群优化算法的视频多运动目标跟踪定位方法 |
CN107197199A (zh) * | 2017-05-22 | 2017-09-22 | 哈尔滨工程大学 | 一种智能监控装置及目标跟踪方法 |
CN109146922A (zh) * | 2018-07-11 | 2019-01-04 | 哈尔滨工程大学 | 一种基于自适应粒子群优化的前视声纳水下目标跟踪方法 |
CN110400347A (zh) * | 2019-06-25 | 2019-11-01 | 哈尔滨工程大学 | 一种判断遮挡及目标重定位的目标跟踪方法 |
CN110602449A (zh) * | 2019-09-01 | 2019-12-20 | 天津大学 | 一种基于视觉的大场景下施工安全智能监控系统方法 |
CN110850880A (zh) * | 2019-11-20 | 2020-02-28 | 中电科技集团重庆声光电有限公司 | 一种基于视觉传感的自动驾驶系统及方法 |
CN111429486A (zh) * | 2020-04-27 | 2020-07-17 | 山东万腾电子科技有限公司 | 基于dnndk模型的运动目标实时检测跟踪系统及方法 |
LU101298B1 (en) * | 2019-06-05 | 2020-11-10 | Chengdu Qitai Zhilian Information Tech Co Ltd | Target Tracking Method Based on Improved Particle Swarm Optimization Algorithm |
CN112257692A (zh) * | 2020-12-22 | 2021-01-22 | 湖北亿咖通科技有限公司 | 一种行人目标的检测方法、电子设备及存储介质 |
CN112364778A (zh) * | 2020-11-12 | 2021-02-12 | 上海明华电力科技有限公司 | 一种基于深度学习的电厂安全性行为信息自动检测方法 |
CN113483747A (zh) * | 2021-06-25 | 2021-10-08 | 武汉科技大学 | 基于具有墙角信息的语义地图改进amcl定位方法及机器人 |
CN114092515A (zh) * | 2021-11-08 | 2022-02-25 | 国汽智控(北京)科技有限公司 | 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 |
CN114779785A (zh) * | 2022-05-06 | 2022-07-22 | 浙江工业大学 | 一种基于pso参数整定的移动机器人平滑轨迹规划方法 |
CN114863238A (zh) * | 2022-04-14 | 2022-08-05 | 重庆亲禾智千科技有限公司 | 一种基于deepstream的物流重叠识别方法 |
CN114937086A (zh) * | 2022-07-19 | 2022-08-23 | 北京鹰瞳科技发展股份有限公司 | 多图像目标检测的训练方法、检测方法及相关产品 |
CN114972421A (zh) * | 2022-04-27 | 2022-08-30 | 中南大学 | 车间物料识别追踪与定位方法、系统 |
CN115100249A (zh) * | 2022-06-24 | 2022-09-23 | 江西沃尔肯智能装备科技有限公司 | 一种基于目标跟踪算法的智慧工厂监控系统 |
CN115222767A (zh) * | 2022-04-12 | 2022-10-21 | 广州汽车集团股份有限公司 | 一种基于空间车位的跟踪方法及系统 |
CN115641357A (zh) * | 2021-07-05 | 2023-01-24 | 国网江苏省电力有限公司电力科学研究院 | 基于机器学习的智慧仓储人员跟踪算法与视频监控系统 |
CN115661720A (zh) * | 2022-11-10 | 2023-01-31 | 南京智蓝芯联信息科技有限公司 | 一种被遮挡车辆的目标跟踪识别方法及系统 |
CN116007646A (zh) * | 2022-12-16 | 2023-04-25 | 安徽信息工程学院 | 一种基于uwb和蚁群算法的多楼层的货物运送方法 |
CN116086467A (zh) * | 2022-12-30 | 2023-05-09 | 东风商用车有限公司 | 基于无人集卡的港口接驳场景下目标检测与定位系统 |
CN116128932A (zh) * | 2023-04-18 | 2023-05-16 | 无锡学院 | 一种多目标跟踪方法 |
CN116580232A (zh) * | 2023-05-06 | 2023-08-11 | 北京邮电大学 | 一种图像自动标注方法、系统及电子设备 |
CN116977671A (zh) * | 2023-07-18 | 2023-10-31 | 惠州市德赛西威智能交通技术研究院有限公司 | 基于图像空间定位的目标跟踪方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694356B (zh) * | 2017-04-10 | 2024-05-07 | 京东方科技集团股份有限公司 | 行人检测装置及方法、辅助驾驶系统 |
-
2023
- 2023-11-01 CN CN202311433433.1A patent/CN117152258B/zh active Active
Patent Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683118A (zh) * | 2016-12-30 | 2017-05-17 | 北京航空航天大学 | 一种基于分层模型的无人机目标跟踪方法 |
CN106874854A (zh) * | 2017-01-19 | 2017-06-20 | 西安电子科技大学 | 基于嵌入式平台的无人机车辆跟踪方法 |
CN107169990A (zh) * | 2017-04-21 | 2017-09-15 | 南京邮电大学 | 一种基于粒子群优化算法的视频多运动目标跟踪定位方法 |
CN107197199A (zh) * | 2017-05-22 | 2017-09-22 | 哈尔滨工程大学 | 一种智能监控装置及目标跟踪方法 |
CN109146922A (zh) * | 2018-07-11 | 2019-01-04 | 哈尔滨工程大学 | 一种基于自适应粒子群优化的前视声纳水下目标跟踪方法 |
LU101298B1 (en) * | 2019-06-05 | 2020-11-10 | Chengdu Qitai Zhilian Information Tech Co Ltd | Target Tracking Method Based on Improved Particle Swarm Optimization Algorithm |
CN110400347A (zh) * | 2019-06-25 | 2019-11-01 | 哈尔滨工程大学 | 一种判断遮挡及目标重定位的目标跟踪方法 |
CN110602449A (zh) * | 2019-09-01 | 2019-12-20 | 天津大学 | 一种基于视觉的大场景下施工安全智能监控系统方法 |
CN110850880A (zh) * | 2019-11-20 | 2020-02-28 | 中电科技集团重庆声光电有限公司 | 一种基于视觉传感的自动驾驶系统及方法 |
CN111429486A (zh) * | 2020-04-27 | 2020-07-17 | 山东万腾电子科技有限公司 | 基于dnndk模型的运动目标实时检测跟踪系统及方法 |
CN112364778A (zh) * | 2020-11-12 | 2021-02-12 | 上海明华电力科技有限公司 | 一种基于深度学习的电厂安全性行为信息自动检测方法 |
CN112257692A (zh) * | 2020-12-22 | 2021-01-22 | 湖北亿咖通科技有限公司 | 一种行人目标的检测方法、电子设备及存储介质 |
CN113483747A (zh) * | 2021-06-25 | 2021-10-08 | 武汉科技大学 | 基于具有墙角信息的语义地图改进amcl定位方法及机器人 |
CN115641357A (zh) * | 2021-07-05 | 2023-01-24 | 国网江苏省电力有限公司电力科学研究院 | 基于机器学习的智慧仓储人员跟踪算法与视频监控系统 |
CN114092515A (zh) * | 2021-11-08 | 2022-02-25 | 国汽智控(北京)科技有限公司 | 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 |
CN115222767A (zh) * | 2022-04-12 | 2022-10-21 | 广州汽车集团股份有限公司 | 一种基于空间车位的跟踪方法及系统 |
CN114863238A (zh) * | 2022-04-14 | 2022-08-05 | 重庆亲禾智千科技有限公司 | 一种基于deepstream的物流重叠识别方法 |
CN114972421A (zh) * | 2022-04-27 | 2022-08-30 | 中南大学 | 车间物料识别追踪与定位方法、系统 |
CN114779785A (zh) * | 2022-05-06 | 2022-07-22 | 浙江工业大学 | 一种基于pso参数整定的移动机器人平滑轨迹规划方法 |
CN115100249A (zh) * | 2022-06-24 | 2022-09-23 | 江西沃尔肯智能装备科技有限公司 | 一种基于目标跟踪算法的智慧工厂监控系统 |
CN114937086A (zh) * | 2022-07-19 | 2022-08-23 | 北京鹰瞳科技发展股份有限公司 | 多图像目标检测的训练方法、检测方法及相关产品 |
CN115661720A (zh) * | 2022-11-10 | 2023-01-31 | 南京智蓝芯联信息科技有限公司 | 一种被遮挡车辆的目标跟踪识别方法及系统 |
CN116007646A (zh) * | 2022-12-16 | 2023-04-25 | 安徽信息工程学院 | 一种基于uwb和蚁群算法的多楼层的货物运送方法 |
CN116086467A (zh) * | 2022-12-30 | 2023-05-09 | 东风商用车有限公司 | 基于无人集卡的港口接驳场景下目标检测与定位系统 |
CN116128932A (zh) * | 2023-04-18 | 2023-05-16 | 无锡学院 | 一种多目标跟踪方法 |
CN116580232A (zh) * | 2023-05-06 | 2023-08-11 | 北京邮电大学 | 一种图像自动标注方法、系统及电子设备 |
CN116977671A (zh) * | 2023-07-18 | 2023-10-31 | 惠州市德赛西威智能交通技术研究院有限公司 | 基于图像空间定位的目标跟踪方法、装置、设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
Accurate map merging with virtual emphasis for multi-robot systems;Lee HC;《ELECTRONICS LETTERS》;第49卷(第15期);932-933 * |
基于多假设粒子群优化的蒙特卡罗定位算法;安婷婷;《计算机工程与设计》;第31卷(第08期);1761-1763, 1873 * |
基于多假设粒子群优化的蒙特卡罗定位算法;安婷婷;肖南峰;;计算机工程与设计(第08期);1761-1763+1873 * |
移动机器人的定位能力估计及定位;王勇;《中国博士学位论文全文数据库 (信息科技辑)》;第2015年卷(第07期);I140-99 * |
Also Published As
Publication number | Publication date |
---|---|
CN117152258A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685152B (zh) | 一种基于dc-spp-yolo的图像目标检测方法 | |
CN111161349B (zh) | 物体姿态估计方法、装置与设备 | |
CN109870983B (zh) | 处理托盘堆垛图像的方法、装置及用于仓储拣货的系统 | |
CN110930454A (zh) | 一种基于边界框外关键点定位的六自由度位姿估计算法 | |
US20200250427A1 (en) | Shadow and cloud masking for agriculture applications using convolutional neural networks | |
CN110569901A (zh) | 一种基于通道选择的对抗消除弱监督目标检测方法 | |
CN117152258B (zh) | 一种管道生产智慧车间的产品定位方法及系统 | |
CN111695622A (zh) | 变电作业场景的标识模型训练方法、标识方法及装置 | |
KR101460313B1 (ko) | 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법 | |
CN111445523A (zh) | 果实位姿计算方法、装置、计算机设备及存储介质 | |
GB2612029A (en) | Lifted semantic graph embedding for omnidirectional place recognition | |
Su et al. | Potato quality grading based on depth imaging and convolutional neural network | |
CN116229189B (zh) | 基于荧光内窥镜的图像处理方法、装置、设备及存储介质 | |
CN115222896B (zh) | 三维重建方法、装置、电子设备及计算机可读存储介质 | |
CN111368637A (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN114707604A (zh) | 一种基于时空注意力机制的孪生网络跟踪系统及方法 | |
Zhang et al. | TPMv2: An end-to-end tomato pose method based on 3D key points detection | |
Wang et al. | Salient object detection using biogeography-based optimization to combine features | |
CN117436295A (zh) | 基于数字孪生的物料监测与3d仿真系统及方法 | |
CN117563960A (zh) | 一种自动化外观检测方法和装置 | |
Ocegueda-Hernandez et al. | A lightweight convolutional neural network for pose estimation of a planar model | |
CN114792417B (zh) | 模型训练方法、图像识别方法、装置、设备及存储介质 | |
CN114022509B (zh) | 基于多个动物的监控视频的目标跟踪方法及相关设备 | |
CN115273219A (zh) | 一种瑜伽动作评估方法、系统、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |