CN109739220A - 一种定位控制方法、装置、存储介质及机器人 - Google Patents
一种定位控制方法、装置、存储介质及机器人 Download PDFInfo
- Publication number
- CN109739220A CN109739220A CN201811489147.6A CN201811489147A CN109739220A CN 109739220 A CN109739220 A CN 109739220A CN 201811489147 A CN201811489147 A CN 201811489147A CN 109739220 A CN109739220 A CN 109739220A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- gauss model
- foreground
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 3
- 238000000605 extraction Methods 0.000 claims description 35
- 230000005484 gravity Effects 0.000 claims description 34
- 230000008439 repair process Effects 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 11
- 238000000926 separation method Methods 0.000 claims description 11
- 238000009432 framing Methods 0.000 claims description 10
- 238000005530 etching Methods 0.000 claims description 9
- 230000000877 morphologic effect Effects 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 6
- 239000000203 mixture Substances 0.000 abstract 1
- 238000004519 manufacturing process Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 22
- 230000008859 change Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000012795 verification Methods 0.000 description 10
- 238000001914 filtration Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000009826 distribution Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000010304 firing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种定位控制方法、装置、存储介质及机器人,该方法包括:利用混合高斯模型自目标图像中提取出前景图像;对所述前景图像进行预处理,得到目标前景图像;根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。本发明的方案,可以解决硬件触发定位方式存在定位准确性差的问题,达到提升定位准确性的效果。
Description
技术领域
本发明属于机器人技术领域,具体涉及一种定位控制方法、装置、存储介质及机器人,尤其涉及一种生产线产品定位方法、装置、存储介质及机器人。
背景技术
在工业生产中,随着机器人的普及以及自动化程度的不断提高,机器视觉技术被广泛应用到工业生产中。其中,对物料或生产成品的视觉跟踪是不可或缺的一部分关键技术,例如机器人在抓取、搬运物体时需要知道物体的确切位置信息。传统的硬件触发定位方式,只能确定触发的一瞬间有物体通过,而不能知道物体的整个移动过程、物体在触发传感器时位于触发线的具体位置以及触发传感器的物体是否为目标物体。
发明内容
本发明的目的在于,针对上述缺陷,提供一种定位控制方法、装置、存储介质及机器人,以解决现有技术中硬件触发定位方式,只能确定触发的一瞬间有物体通过而不能知道物体的整个移动过程、物体在触发传感器时位于触发线的具体位置以及触发传感器的物体是否为目标物体,存在定位准确性差的问题,达到提升定位准确性的效果。
本发明提供一种定位控制方法,包括:利用混合高斯模型自目标图像中提取出前景图像;对所述前景图像进行预处理,得到目标前景图像;根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
可选地,利用混合高斯模型自目标图像中提取出前景图像,包括:获取背景图像和目标图像;其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像;建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型;自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。
可选地,其中,建立所述背景图像的高斯模型,包括:将所述背景图像由RGB色彩空间变换到HSV色彩空间;利用HSV色彩空间下的背景图像建立只有背景的高斯模型;和/或,自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,包括:根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离;之后,更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。
可选地,对所述前景图像进行预处理,包括:采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理;和/或,采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
可选地,根据至少两帧所述目标前景图像定位目标物体,包括:根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
可选地,根据至少两帧所述目标前景图像计算目标物体的移动速度,包括:根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离;结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。
与上述方法相匹配,本发明另一方面提供一种定位控制装置,包括:提取单元,用于利用混合高斯模型自目标图像中提取出前景图像;预处理单元,用于对所述前景图像进行预处理,得到目标前景图像;计算单元,用于根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
可选地,所述提取单元利用混合高斯模型自目标图像中提取出前景图像,包括:获取背景图像和目标图像;其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像;建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型;自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。
可选地,其中,所述提取单元建立所述背景图像的高斯模型,包括:将所述背景图像由RGB色彩空间变换到HSV色彩空间;利用HSV色彩空间下的背景图像建立只有背景的高斯模型;和/或,所述提取单元自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,包括:根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离;之后,更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。
可选地,所述预处理单元对所述前景图像进行预处理,包括:采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理;和/或,采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
可选地,所述计算单元根据至少两帧所述目标前景图像定位目标物体,包括:根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
可选地,所述计算单元根据至少两帧所述目标前景图像计算目标物体的移动速度,包括:根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离;结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。
与上述装置相匹配,本发明再一方面提供一种机器人,包括:以上所述的定位控制装置。
与上述方法相匹配,本发明再一方面提供一种存储介质,包括:所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行以上所述的定位控制方法。
与上述方法相匹配,本发明再一方面提供一种机器人,包括:处理器,用于执行多条指令;存储器,用于存储多条指令;其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行以上所述的定位控制方法。
本发明的方案,通过机器视觉进行软件定位则可以全程跟踪物体、确定物体的确切位置,为机器人提供良好的定位服务,且定位准确性好。
进一步,本发明的方案,通过采用机器视觉算法进行定位,实现对生产线上移动物体的跟踪和定位,可以减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
进一步,本发明的方案,通过基于混合高斯模型的移动物体跟踪、定位算法,实现对运动中的物体的全程跟踪,并获得物体的运动速度,实现对生产线上移动物体的跟踪和定位,准确性好。
进一步,本发明的方案,通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,可以减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
进一步,本发明的方案,通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,实现对生产线上移动物体的跟踪和定位,准确性好。
由此,本发明的方案,通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,实现对运动中的物体的全程跟踪,并获得物体的运动速度;解决现有技术中硬件触发定位方式,只能确定触发的一瞬间有物体通过而不能知道物体的整个移动过程、物体在触发传感器时位于触发线的具体位置以及触发传感器的物体是否为目标物体,存在定位准确性差的问题,达到提升定位准确性的效果,从而,克服现有技术中定位准确性差、适用范围小和生产成本高的缺陷,实现定位准确性好、适用范围广和生产成本低的有益效果。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的定位控制方法的一实施例的流程示意图;
图2为本发明的方法中利用混合高斯模型自目标图像中提取出前景图像的一实施例的流程示意图;
图3为本发明的方法中建立所述背景图像的高斯模型的一实施例的流程示意图;
图4为本发明的方法中自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量的一实施例的流程示意图;
图5为本发明的方法中根据至少两帧所述目标前景图像计算目标物体的移动速度的一实施例的流程示意图;
图6为本发明的定位控制装置的一实施例的结构示意图;
图7为本发明的机器人的一实施例的移动物体跟踪流程示意图;
图8为本发明的机器人的一实施例的速度计算过程中第一帧照片和第二帧照片的采集过程示意图。
结合附图,本发明实施例中附图标记如下:
102-提取单元;104-预处理单元;106-计算单元。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了一种定位控制方法,如图1所示本发明的方法的一实施例的流程示意图。该定位控制方法可以包括:步骤S110至步骤S130。
在步骤S110处,利用混合高斯模型自目标图像中提取出前景图像。
可选地,可以结合图2所示本发明的方法中利用混合高斯模型自目标图像中提取出前景图像的一实施例流程示意图,进一步说明步骤S110中利用混合高斯模型自目标图像中提取出前景图像的具体过程,可以包括:步骤S210至步骤S230。
步骤S210,获取背景图像和目标图像。其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像。
步骤S220,建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型。
例如:如图7所示,获取一张不含有目标物体的图像作为背景图像backgroundImage,建立关于背景图像backgroundImage的高斯模型。
例如:如图7所示,采集含有目标物体的图像targetImage即目标图像,建立图像targetImage的混合高斯模型。
更可选地,可以结合图3所示本发明的方法中建立所述背景图像的高斯模型的一实施例流程示意图,进一步说明步骤S220中建立所述背景图像的高斯模型的具体过程,可以包括:步骤S310和步骤S320。
步骤S310,将所述背景图像由RGB色彩空间变换到HSV色彩空间。
步骤S320,利用HSV色彩空间下的背景图像建立只有背景的高斯模型。
例如:通过视觉系统拍摄一张背景图像,将图像由RGB色彩空间变换到更为直观的HSV色彩空间,利用HSV色彩空间下的背景图像建立只有背景的高斯模型。实验证明,将图像转换到HSV空间下,可以一定程度上提高算法的效果。
由此,通过利用HSV色彩空间下的背景图像建立高斯模型,使得对高斯模型建立的准确性好、且便于与混合高斯模型进行对比以在混合高斯模型中剔除背景保留前景。
步骤S230,自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。
例如:targetImage的混合高斯模型中剔除和backgroundImage的高斯模型相同或近似的分量,即剪除背景,剩余的即为初步提取的前景图像。
由此,通过分别基于目标物体的背景图像和目标图像建立高斯模型和混合高斯模型,进而在混合高斯模型中剔除与高斯模型相同或相近的分量得到目标图像的前景图像,使得对前景图像的获取简便且精准。
更可选地,可以结合图4所示本发明的方法中自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量的一实施例流程示意图,进一步说明步骤S230中的自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量具体过程,可以包括:步骤S410和步骤S420。
步骤S410,根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离。之后,
步骤S420,更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。
例如:视觉系统开启相机的连续采集模式采集图像,对于当前采集到的图像,根据之前建立的关于背景的高斯混合模型将图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离,然后更新关于背景的混合高斯模型以便在下一帧图像中使用。
由此,通过基于背景图像的高斯模型将目标图像中各像素分为前景和背景,实现目标图像中前景和背景的分离,得到自目标图像中提取的前景图像,分离的精准性好;进而对背景图像的高斯模型进行更新,有利于提升下一帧前景图像提取的便捷性和精准性。
在步骤S120处,对所述前景图像进行预处理,得到目标前景图像。
可选地,步骤S120中对所述前景图像进行预处理,可以包括以下至少一种处理情形。
第一种处理情形:采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理。
第二种处理情形:采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
例如:在初步提取的前景图像中,往往含有噪声、孔洞等干扰,因此需要进行一些滤波、孔洞修复操作来提取出较理想的前景图像。
例如:提取出的前景图像往往会包含许多噪声和空洞,因此对其采取滤波和修复操作。采用图像形态学操作中的腐蚀操作去除噪点,采用闭运算修复空洞。
由此,通过多种形式的预处理,有利于提升所得前景目标图像的精准性和可靠性。
在步骤S130处,根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
例如:利用基于混合高斯模型的移动物体跟踪、定位算法,实现对运动中的物体的全程跟踪,并获得物体的运动速度;通过机器视觉进行软件定位则可以全程跟踪物体、确定物体的确切位置,为机器人提供良好的定位服务;实现对生产线上移动物体的跟踪和定位;而且,采用机器视觉算法进行定位,减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
由此,通过对利用混合高斯模型自目标图像中提取出的前景图像进行预处理后,根据前后至少两帧目标前景图像对目标图像中目标物体进行定位和跟踪,可以大大提升定位和跟踪的准确性。
可选地,步骤S130中根据至少两帧所述目标前景图像定位目标物体,可以包括:根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
例如:通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,方法简单、易于实现和修正。
例如:对于得到的前景图像,确定出前后两帧图像中不同物体间的一一对应关系,即可实现对目标物体的定位。如:利用混合高斯模型将图像分为前景和背景两部分。对于前景图像,通过预处理得到较为理想的各个物体的分布情况。然后,根据前景图像中各个连通域的面积、重心等信息,确定出前一帧图像中的物体A在后一帧图像中的位置A’,实现物体的定位与跟踪。
例如:计算前景中每一个连通域的重心和面积,与上一帧图像进行比较,根据面积和重心是否相近,可大致判断哪些前景物体可能为同一物体。之后,计算面积的变化率、重心的变化方向和距离,确定出前后两帧图像中同一物体的对应关系,即确定出前一帧图像中的物体在后一帧图像中所对应的位置。
由此,通过利用前后至少两帧所述目标前景图像中目标物体之间的每个连通域的面积、重心的位置对应关系,实现对目标物体的定位与跟踪,准确性好、可靠性高。
可选地,可以结合图5所示本发明的方法中根据至少两帧所述目标前景图像计算目标物体的移动速度的一实施例流程示意图,进一步说明步骤S130中根据至少两帧所述目标前景图像计算目标物体的移动速度的具体过程,可以包括:步骤S510和步骤S520。
步骤S510,根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离。
步骤S520,结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。
例如:根据重心变化情况的计算结果,可以得到图像中物体运动的方向和距离,结合图像采样时间间隔,即可得到物体的运动速度。同时,面积的变化率、重心的变化方向和距离可作为下一次确定前景物体对应关系的约束条件,其具体用法如下:
根据图像采集间隔短、物体运动具有惯性的特点,我们可以假设,前后两帧图像中,物体的运动是一个连续的、非突变的过程,即在下一帧中,物体出现的位置应当在以上一帧位置为中心的一定范围内。因此设置如下约束条件来确定前后两帧中物体的对应关系:
(1)设第n1、n2、n3这三帧图像中某一物体面积分别为S1、S2、S3,由第n1、n2帧图像计算所得的面积变化率为k,则设置约束条件:|S3-S2|<2*S2*k。
(2)设第n1、n2、n3这三帧图像中某一物体重心分别为(x1,y1)、(x2,y2)、(x3,y3),则设置约束条件:
(x3-x2)2+(y3-y2)2<4*[(x2-x1)2+(y2-y1)2]。
特别地,当(x2-x1)2+(y2-y1)2接近0时,表面该物体此前处于静止状态,不引入上述约束条件(2)。
由此,通过利用前后至少两帧所述目标前景图像中目标物体之间的每个连通域的重心的变化信息,结合至少两帧所述目标图像的采样时间间隔确定目标物体的运行速度,精准性好、可靠性高。
经大量的试验验证,采用本实施例的技术方案,通过机器视觉进行软件定位则可以全程跟踪物体、确定物体的确切位置,为机器人提供良好的定位服务,且定位准确性好。
根据本发明的实施例,还提供了对应于定位控制方法的一种定位控制装置。参见图6所示本发明的装置的一实施例的结构示意图。该定位控制装置可以包括:提取单元102、预处理单元104和计算单元106。
在一个可选例子中,提取单元102,可以用于利用混合高斯模型自目标图像中提取出前景图像。该提取单元102的具体功能及处理参见步骤S110。
可选地,所述提取单元102利用混合高斯模型自目标图像中提取出前景图像,可以包括:
所述提取单元102,具体还可以用于获取背景图像和目标图像。其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像。该提取单元102的具体功能及处理还参见步骤S210。
所述提取单元102,具体还可以用于建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型。该提取单元102的具体功能及处理还参见步骤S220。
例如:如图7所示,获取一张不含有目标物体的图像作为背景图像backgroundImage,建立关于背景图像backgroundImage的高斯模型。
例如:如图7所示,采集含有目标物体的图像targetImage即目标图像,建立图像targetImage的混合高斯模型。
更可选地,所述提取单元102建立所述背景图像的高斯模型,可以包括:
所述提取单元102,具体还可以用于将所述背景图像由RGB色彩空间变换到HSV色彩空间。该提取单元102的具体功能及处理还参见步骤S310。
所述提取单元102,具体还可以用于利用HSV色彩空间下的背景图像建立只有背景的高斯模型。该提取单元102的具体功能及处理还参见步骤S320。
例如:通过视觉系统拍摄一张背景图像,将图像由RGB色彩空间变换到更为直观的HSV色彩空间,利用HSV色彩空间下的背景图像建立只有背景的高斯模型。实验证明,将图像转换到HSV空间下,可以一定程度上提高算法的效果。
由此,通过利用HSV色彩空间下的背景图像建立高斯模型,使得对高斯模型建立的准确性好、且便于与混合高斯模型进行对比以在混合高斯模型中剔除背景保留前景。
所述提取单元102,具体还可以用于自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。该提取单元102的具体功能及处理还参见步骤S230。
例如:targetImage的混合高斯模型中剔除和backgroundImage的高斯模型相同或近似的分量,即剪除背景,剩余的即为初步提取的前景图像。
由此,通过分别基于目标物体的背景图像和目标图像建立高斯模型和混合高斯模型,进而在混合高斯模型中剔除与高斯模型相同或相近的分量得到目标图像的前景图像,使得对前景图像的获取简便且精准。
更可选地,所述提取单元102自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,可以包括:
所述提取单元102,具体还可以用于根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离。该提取单元102的具体功能及处理还参见步骤S410。之后,
所述提取单元102,具体还可以用于更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。该提取单元102的具体功能及处理还参见步骤S420。
例如:视觉系统开启相机的连续采集模式采集图像,对于当前采集到的图像,根据之前建立的关于背景的高斯混合模型将图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离,然后更新关于背景的混合高斯模型以便在下一帧图像中使用。
由此,通过基于背景图像的高斯模型将目标图像中各像素分为前景和背景,实现目标图像中前景和背景的分离,得到自目标图像中提取的前景图像,分离的精准性好;进而对背景图像的高斯模型进行更新,有利于提升下一帧前景图像提取的便捷性和精准性。
在一个可选例子中,预处理单元104,可以用于对所述前景图像进行预处理,得到目标前景图像。该预处理单元104的具体功能及处理参见步骤S120。
可选地,所述预处理单元104对所述前景图像进行预处理,可以包括以下至少一种处理情形。
第一种处理情形:所述预处理单元104,具体还可以用于采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理。
第二种处理情形:所述预处理单元104,具体还可以用于采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
例如:在初步提取的前景图像中,往往含有噪声、孔洞等干扰,因此需要进行一些滤波、孔洞修复操作来提取出较理想的前景图像。
例如:提取出的前景图像往往会包含许多噪声和空洞,因此对其采取滤波和修复操作。采用图像形态学操作中的腐蚀操作去除噪点,采用闭运算修复空洞。
由此,通过多种形式的预处理,有利于提升所得前景目标图像的精准性和可靠性。
在一个可选例子中,计算单元106,可以用于根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。该计算单元106的具体功能及处理参见步骤S130。
例如:利用基于混合高斯模型的移动物体跟踪、定位算法,实现对运动中的物体的全程跟踪,并获得物体的运动速度;通过机器视觉进行软件定位则可以全程跟踪物体、确定物体的确切位置,为机器人提供良好的定位服务;实现对生产线上移动物体的跟踪和定位;而且,采用机器视觉算法进行定位,减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
由此,通过对利用混合高斯模型自目标图像中提取出的前景图像进行预处理后,根据前后至少两帧目标前景图像对目标图像中目标物体进行定位和跟踪,可以大大提升定位和跟踪的准确性。
可选地,所述计算单元106根据至少两帧所述目标前景图像定位目标物体,可以包括:所述计算单元106,具体还可以用于根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
例如:通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,方法简单、易于实现和修正。
例如:对于得到的前景图像,确定出前后两帧图像中不同物体间的一一对应关系,即可实现对目标物体的定位。如:利用混合高斯模型将图像分为前景和背景两部分。对于前景图像,通过预处理得到较为理想的各个物体的分布情况。然后,根据前景图像中各个连通域的面积、重心等信息,确定出前一帧图像中的物体A在后一帧图像中的位置A’,实现物体的定位与跟踪。
例如:计算前景中每一个连通域的重心和面积,与上一帧图像进行比较,根据面积和重心是否相近,可大致判断哪些前景物体可能为同一物体。之后,计算面积的变化率、重心的变化方向和距离,确定出前后两帧图像中同一物体的对应关系,即确定出前一帧图像中的物体在后一帧图像中所对应的位置。
由此,通过利用前后至少两帧所述目标前景图像中目标物体之间的每个连通域的面积、重心的位置对应关系,实现对目标物体的定位与跟踪,准确性好、可靠性高。
可选地,所述计算单元106根据至少两帧所述目标前景图像计算目标物体的移动速度,可以包括:
所述计算单元106,具体还可以用于根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离。该提取单元102的具体功能及处理还参见步骤S510。
所述计算单元106,具体还可以用于结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。该提取单元102的具体功能及处理还参见步骤S520。
例如:根据重心变化情况的计算结果,可以得到图像中物体运动的方向和距离,结合图像采样时间间隔,即可得到物体的运动速度。同时,面积的变化率、重心的变化方向和距离可作为下一次确定前景物体对应关系的约束条件,其具体用法如下:
根据图像采集间隔短、物体运动具有惯性的特点,我们可以假设,前后两帧图像中,物体的运动是一个连续的、非突变的过程,即在下一帧中,物体出现的位置应当在以上一帧位置为中心的一定范围内。因此设置如下约束条件来确定前后两帧中物体的对应关系:
(1)设第n1、n2、n3这三帧图像中某一物体面积分别为S1、S2、S3,由第n1、n2帧图像计算所得的面积变化率为k,则设置约束条件:|S3-S2|<2*S2*k。
(2)设第n1、n2、n3这三帧图像中某一物体重心分别为(x1,y1)、(x2,y2)、(x3,y3),则设置约束条件:
(x3-x2)2+(y3-y2)2<4*[(x2-x1)2+(y2-y1)2]。
特别地,当(x2-x1)2+(y2-y1)2接近0时,表面该物体此前处于静止状态,不引入上述约束条件(2)。
由此,通过利用前后至少两帧所述目标前景图像中目标物体之间的每个连通域的重心的变化信息,结合至少两帧所述目标图像的采样时间间隔确定目标物体的运行速度,精准性好、可靠性高。
由于本实施例的装置所实现的处理及功能基本相应于前述图1至图5所示的方法的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过采用机器视觉算法进行定位,实现对生产线上移动物体的跟踪和定位,可以减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
根据本发明的实施例,还提供了对应于定位控制装置的一种机器人。该机器人可以包括:以上所述的定位控制装置。
在一个可选实施方式中,本发明的方案,通过机器视觉进行软件定位则可以全程跟踪物体、确定物体的确切位置,为机器人提供良好的定位服务;从而,实现对生产线上移动物体的跟踪和定位;而且,采用机器视觉算法进行定位,减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
在一个可选例子中,本发明的方案,提供了一种基于混合高斯模型的移动物体跟踪、定位算法,实现对运动中的物体的全程跟踪,并获得物体的运动速度。
其中,相较于其他基于混合高斯模型的算法在跟踪物体时所采用的复杂方法,本发明的方法,通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,方法简单、易于实现和修正。
在一个可选具体实施方式中,可以结合图7所示的例子,对本发明的方案的具体实现过程进行示例性说明。
在一个可选具体例子中,图7中,虚线框内的各个步骤分别体现了基于混合高斯模型的目标物体定位与跟踪的过程,可以包括:
步骤11、首先获取一张不含有目标物体的图像作为背景图像
backgroundImage,建立关于背景图像backgroundImage的高斯模型。
步骤12、采集含有目标物体的图像targetImage即目标图像,建立图像
targetImage的混合高斯模型。
步骤13、targetImage的混合高斯模型中剔除和backgroundImage的高斯模型相同或近似的分量,即剪除背景,剩余的即为初步提取的前景图像。
步骤14、在初步提取的前景图像中,往往含有噪声、孔洞等干扰,因此需要进行一些滤波、孔洞修复操作来提取出较理想的前景图像。
步骤15、对于步骤4中得到的前景图像,确定出前后两帧图像中不同物体间的一一对应关系,即可实现对目标物体的定位。
在一个可选具体例子中,本发明的方法,首先利用混合高斯模型将图像分为前景和背景两部分。对于前景图像,通过预处理得到较为理想的各个物体的分布情况。然后,根据前景图像中各个连通域的面积、重心等信息,确定出前一帧图像中的物体A在后一帧图像中的位置A’,实现物体的定位与跟踪。
具体地,本发明的方案,可以包括以下几部分:
第一部分、建立混合高斯模型区分前景和背景。
首先,通过视觉系统拍摄一张背景图像,将图像由RGB色彩空间变换到更为直观的HSV色彩空间,利用HSV色彩空间下的背景图像建立只有背景的高斯模型。实验证明,将图像转换到HSV空间下,可以一定程度上提高算法的效果。之后,视觉系统开启相机的连续采集模式采集图像,对于当前采集到的图像,根据之前建立的关于背景的高斯混合模型将图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离,然后更新关于背景的混合高斯模型以便在下一帧图像中使用。
第二部分、前景图像的预处理。
提取出的前景图像往往会包含许多噪声和空洞,因此对其采取滤波和修复操作。采用图像形态学操作中的腐蚀操作去除噪点,采用闭运算修复空洞。
第三部分、根据前后两帧图像定位移动物体并计算其速度。
计算前景中每一个连通域的重心和面积,与上一帧图像进行比较,根据面积和重心是否相近,可大致判断哪些前景物体可能为同一物体。
之后,计算面积的变化率、重心的变化方向和距离,确定出前后两帧图像中同一物体的对应关系,即确定出前一帧图像中的物体在后一帧图像中所对应的位置。
最后,根据重心变化情况的计算结果,可以得到图像中物体运动的方向和距离,结合图像采样时间间隔,即可得到物体的运动速度。同时,面积的变化率、重心的变化方向和距离可作为下一次确定前景物体对应关系的约束条件,其具体用法如下:
根据图像采集间隔短、物体运动具有惯性的特点,我们可以假设,前后两帧图像中,物体的运动是一个连续的、非突变的过程,即在下一帧中,物体出现的位置应当在以上一帧位置为中心的一定范围内。因此设置如下约束条件来确定前后两帧中物体的对应关系:
(1)设第n1、n2、n3这三帧图像中某一物体面积分别为S1、S2、S3,由第n1、n2帧图像计算所得的面积变化率为k,则设置约束条件:|S3-S2|<2*S2*k。
(2)设第n1、n2、n3这三帧图像中某一物体重心分别为(x1,y1)、(x2,y2)、(x3,y3),则设置约束条件:
(x3-x2)2+(y3-y2)2<4*[(x2-x1)2+(y2-y1)2]。
特别地,当(x2-x1)2+(y2-y1)2接近0时,表面该物体此前处于静止状态,不引入上述约束条件(2)。
在电机外壳螺钉检测中,使用本发明的方法对生产线上的电机进行了跟踪和定位,取得了良好结果,验证了本发明的方法的可行性和有效性。
可选地,可以参见图8所示的例子,对速度的计算过程进行说明,如可以包括:
步骤21、设生产线上有一电机,时间为t1时,用相机采集了第一帧图像,此时电机位于位置1。
步骤22、当时间为t2时,相机采集第二帧图像,此时电机位于位置2。
步骤23、可由位置2减位置1得到电机运动距离为S,运动时间为△t=t2-t1,v=S/△t。
其中,电机位置可以利用提取出的前景物体进行判断得出,距离S的单位为像素数。即v的单位为像素/秒,即每秒钟电机可以在图像中运动多少像素的距离。
图8中,第一帧照片的采集时间为t1;第二帧照片的采集时间为t2,时间差为△t=t2-t1。
由于本实施例的机器人所实现的处理及功能基本相应于前述图6所示的装置的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过基于混合高斯模型的移动物体跟踪、定位算法,实现对运动中的物体的全程跟踪,并获得物体的运动速度,实现对生产线上移动物体的跟踪和定位,准确性好。
根据本发明的实施例,还提供了对应于定位控制方法的一种存储介质。该存储介质,可以包括:所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行以上所述的定位控制方法。
由于本实施例的存储介质所实现的处理及功能基本相应于前述图1至图5所示的方法的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,可以减少生产线上传统的硬件触发定位方式中各种传感器的使用,降低生产成本。
根据本发明的实施例,还提供了对应于定位控制方法的一种机器人。该机器人,可以包括:处理器,用于执行多条指令;存储器,用于存储多条指令;其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行以上所述的定位控制方法。
由于本实施例的机器人所实现的处理及功能基本相应于前述图1至图5所示的方法的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过根据前后两帧图像中,不同前景物体的面积、位置等信息,建立起同一物体在不同图像中的对应关系从而实现移动物体的跟踪、定位,实现对生产线上移动物体的跟踪和定位,准确性好。
综上,本领域技术人员容易理解的是,在不冲突的前提下,上述各有利方式可以自由地组合、叠加。
以上所述仅为本发明的实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (15)
1.一种定位控制方法,其特征在于,包括:
利用混合高斯模型自目标图像中提取出前景图像;
对所述前景图像进行预处理,得到目标前景图像;
根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
2.根据权利要求1所述的方法,其特征在于,利用混合高斯模型自目标图像中提取出前景图像,包括:
获取背景图像和目标图像;其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像;
建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型;
自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。
3.根据权利要求2所述的方法,其特征在于,其中,
建立所述背景图像的高斯模型,包括:
将所述背景图像由RGB色彩空间变换到HSV色彩空间;
利用HSV色彩空间下的背景图像建立只有背景的高斯模型;
和/或,
自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,包括:
根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离;之后,
更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。
4.根据权利要求1-3之一所述的方法,其特征在于,对所述前景图像进行预处理,包括:
采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理;和/或,
采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
5.根据权利要求1-4之一所述的方法,其特征在于,根据至少两帧所述目标前景图像定位目标物体,包括:
根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
6.根据权利要求1-5之一所述的方法,其特征在于,根据至少两帧所述目标前景图像计算目标物体的移动速度,包括:
根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离;
结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。
7.一种定位控制装置,其特征在于,包括:
提取单元,用于利用混合高斯模型自目标图像中提取出前景图像;
预处理单元,用于对所述前景图像进行预处理,得到目标前景图像;
计算单元,用于根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
8.根据权利要求7所述的装置,其特征在于,所述提取单元利用混合高斯模型自目标图像中提取出前景图像,包括:
获取背景图像和目标图像;其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像;
建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型;
自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。
9.根据权利要求8所述的装置,其特征在于,其中,
所述提取单元建立所述背景图像的高斯模型,包括:
将所述背景图像由RGB色彩空间变换到HSV色彩空间;
利用HSV色彩空间下的背景图像建立只有背景的高斯模型;
和/或,
所述提取单元自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,包括:
根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离;之后,
更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。
10.根据权利要求7-9之一所述的装置,其特征在于,所述预处理单元对所述前景图像进行预处理,包括:
采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理;和/或,
采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
11.根据权利要求7-10之一所述的装置,其特征在于,所述计算单元根据至少两帧所述目标前景图像定位目标物体,包括:
根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
12.根据权利要求7-11之一所述的装置,其特征在于,所述计算单元根据至少两帧所述目标前景图像计算目标物体的移动速度,包括:
根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离;
结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。
13.一种机器人,其特征在于,包括:如权利要求7-12任一所述的定位控制装置。
14.一种存储介质,其特征在于,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如权利要求1-6任一所述的定位控制方法。
15.一种机器人,其特征在于,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如权利要求1-6任一所述的定位控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811489147.6A CN109739220A (zh) | 2018-12-06 | 2018-12-06 | 一种定位控制方法、装置、存储介质及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811489147.6A CN109739220A (zh) | 2018-12-06 | 2018-12-06 | 一种定位控制方法、装置、存储介质及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109739220A true CN109739220A (zh) | 2019-05-10 |
Family
ID=66358553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811489147.6A Pending CN109739220A (zh) | 2018-12-06 | 2018-12-06 | 一种定位控制方法、装置、存储介质及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109739220A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111695536A (zh) * | 2020-06-17 | 2020-09-22 | 无锡雪浪数制科技有限公司 | 一种基于深度视觉的智能取货识别方法 |
CN115950068A (zh) * | 2022-12-20 | 2023-04-11 | 珠海格力电器股份有限公司 | 一种空调的控制方法、装置、空调和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609686A (zh) * | 2012-01-19 | 2012-07-25 | 宁波大学 | 一种行人检测方法 |
CN104778727A (zh) * | 2015-04-30 | 2015-07-15 | 安徽超远信息技术有限公司 | 基于视频监控处理技术的浮动车统计方法 |
JP2015176163A (ja) * | 2014-03-12 | 2015-10-05 | 株式会社メガチップス | 画像処理方法、画像処理装置、及びプログラム |
CN106326837A (zh) * | 2016-08-09 | 2017-01-11 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN107507221A (zh) * | 2017-07-28 | 2017-12-22 | 天津大学 | 结合帧差法和混合高斯模型的运动目标检测与跟踪方法 |
CN108846335A (zh) * | 2018-05-31 | 2018-11-20 | 武汉市蓝领英才科技有限公司 | 基于视频图像的智慧工地区域管理及入侵检测方法、系统 |
-
2018
- 2018-12-06 CN CN201811489147.6A patent/CN109739220A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609686A (zh) * | 2012-01-19 | 2012-07-25 | 宁波大学 | 一种行人检测方法 |
JP2015176163A (ja) * | 2014-03-12 | 2015-10-05 | 株式会社メガチップス | 画像処理方法、画像処理装置、及びプログラム |
CN104778727A (zh) * | 2015-04-30 | 2015-07-15 | 安徽超远信息技术有限公司 | 基于视频监控处理技术的浮动车统计方法 |
CN106326837A (zh) * | 2016-08-09 | 2017-01-11 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN107507221A (zh) * | 2017-07-28 | 2017-12-22 | 天津大学 | 结合帧差法和混合高斯模型的运动目标检测与跟踪方法 |
CN108846335A (zh) * | 2018-05-31 | 2018-11-20 | 武汉市蓝领英才科技有限公司 | 基于视频图像的智慧工地区域管理及入侵检测方法、系统 |
Non-Patent Citations (2)
Title |
---|
罗庆生 等: "《我的机器人 仿生机器人的设计与制作》", 31 January 2016, 北京理工大学出版社 * |
黄超群: "基于混合高斯模型和Kalman滤波器的运动目标检测与跟踪", 《中国优秀硕士论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111695536A (zh) * | 2020-06-17 | 2020-09-22 | 无锡雪浪数制科技有限公司 | 一种基于深度视觉的智能取货识别方法 |
CN115950068A (zh) * | 2022-12-20 | 2023-04-11 | 珠海格力电器股份有限公司 | 一种空调的控制方法、装置、空调和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111667520B (zh) | 红外图像和可见光图像的配准方法、装置及可读存储介质 | |
Gurghian et al. | Deeplanes: End-to-end lane position estimation using deep neural networksa | |
CN108406731A (zh) | 一种基于深度视觉的定位装置、方法及机器人 | |
CN111209915A (zh) | 一种基于深度学习的三维图像同步识别和分割方法 | |
CN107507226B (zh) | 一种图像匹配的方法及装置 | |
CN106097385B (zh) | 一种目标跟踪的方法和装置 | |
CN105760846A (zh) | 基于深度数据的目标检测与定位方法及系统 | |
CN208323361U (zh) | 一种基于深度视觉的定位装置及机器人 | |
CN106530407A (zh) | 一种用于虚拟现实的三维全景拼接方法、装置和系统 | |
CN105488777A (zh) | 一种基于移动前景下全景图实时生成系统及其方法 | |
CN106558069A (zh) | 一种基于视频监控下的目标跟踪方法及系统 | |
CN106462975A (zh) | 用于对象跟踪和经由背景跟踪进行分割的方法和装置 | |
CN110675453A (zh) | 一种已知场景中运动目标的自定位方法 | |
CN109739220A (zh) | 一种定位控制方法、装置、存储介质及机器人 | |
CN103942786B (zh) | 无人机可见光和红外图像的自适应团块目标检测方法 | |
CN116205989A (zh) | 基于激光雷达与相机融合的目标检测方法、系统及设备 | |
CN114580559A (zh) | 一种基于单目视觉系统的测速方法 | |
CN116643291A (zh) | 一种视觉与激光雷达联合剔除动态目标的slam方法 | |
CN117876608B (zh) | 三维图像重建方法、装置、计算机设备及存储介质 | |
Guo et al. | DeblurSLAM: A novel visual SLAM system robust in blurring scene | |
CN110910379A (zh) | 一种残缺检测方法及装置 | |
CN112396634B (zh) | 运动目标检测方法、装置、车辆及存储介质 | |
CN106408593A (zh) | 一种基于视频的车辆跟踪方法及装置 | |
CN116160458B (zh) | 一种移动机器人多传感器融合快速定位方法、设备及系统 | |
Yu et al. | A real-time motion detection algorithm for traffic monitoring systems based on consecutive temporal difference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190510 |