CN114253253A - 一种基于人工智能的目标识别方法、装置及机器人 - Google Patents
一种基于人工智能的目标识别方法、装置及机器人 Download PDFInfo
- Publication number
- CN114253253A CN114253253A CN202011019113.8A CN202011019113A CN114253253A CN 114253253 A CN114253253 A CN 114253253A CN 202011019113 A CN202011019113 A CN 202011019113A CN 114253253 A CN114253253 A CN 114253253A
- Authority
- CN
- China
- Prior art keywords
- target object
- image
- robot
- target
- difference value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Abstract
本发明提供一种基于人工智能的目标识别方法、装置和机器人,其中,所述控制方法包括:在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。上述方法解放了人力,在非工作时间也可以对商品进行盘点,提升了工作效率,实现了商品盘点的智能化、机械化,达到了相比于人力盘点速度更快、准确度更高的有益效果。
Description
技术领域
本发明涉及人工智能领域,特别涉及一种基于人工智能的目标识别方法、装置及机器人、计算机可读存储介质。
背景技术
在现有技术中,一般通过人工手持设备或者在固定安装相机拍摄商品的照片,由人力对商品的照片进行识别,或是通过将商品的照片传送至云端进行计算与识别,接着由云端返回识别结果的方式对商品进行盘点。
发明内容
本说明书实施例提供了一种基于人工智能的目标识别方法、装置及机器人、计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种基于人工智能的目标识别方法,所述方法包括:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
可选地,所述规划路径通过如下方法确定:
为所述机器人所在的场景建立栅格地图;
为所述栅格地图中的每一个栅格设置状态值,其中,所述状态值用于表征所述栅格的空旷程度;
根据所述栅格地图中每一个栅格的状态值设置所述机器人在所述目标区域中的所述规划路径。
可选地,从所述第一帧图像中识别目标对象,包括:
将所述第一帧图像输入识别模型中,通过所述识别模型识别得到目标对象,所述目标对象携带有坐标信息、位置信息、类别信息以及所述目标对象的外接框。
可选地,确定所述目标对象和参考对象的差异值,包括:
分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值;
根据所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值获取所述目标对象与所述参考对象的差异值。
可选地,分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值,包括:
通过将所述目标对象的外接框与参考对象的外接框进行对比,得到所述目标对象的外接框与所述参考对象的外接框的宽度差异值、高度差异值、坐标差异值和所述目标对象的外接框与所述参考对象的外接框的距离;
根据所述宽度差异值和所述高度差异值获取目标对象与所述参考对象的外观差异值;
根据所述坐标差异值获取目标对象与所述参考对象的位置差异值;
根据所述距离获取目标对象与所述参考对象的相似度差异值。
可选地,所述方法还包括:
根据所述差异值确定不存在差异的情况下,将所述参考对象的数量加一。
可选地,基于第一帧图像和参考图像的差异进行处理,包括:
将所述目标对象添加至参考对象中。
可选地,基于第一帧图像和参考图像的差异进行处理,包括:
提取所述目标对象的位置信息与类别信息,根据所述目标对象的位置信息与类别信息确定所述目标对象在所述第一帧图像中的第一摆放位置;
将所述第一摆放位置与预定摆放位置进行对比,若所述第一摆放位置与所述预定摆放位置存在差异,则发出摆放提示,其中,所述预定摆放位置根据位置信息与类别信息确定。
可选地,在基于第一帧图像和参考图像的差异进行处理后,还包括:
提取目标对象的坐标信息;
基于所述目标对象的坐标信息识别空缺位置,若所述空缺位置的宽度大于第一距离阈值,则确定存在缺货情况。
可选地,所述坐标信息包括深度信息。
可选地,基于所述目标对象的坐标信息识别空缺位置,包括:
在深度方向上根据所述深度信息拟合空缺平面,若所述空缺平面间的距离大于第二距离阈值,则在深度方向上确定存在缺货情况。
可选地,通过如下方法控制所述机器人的行进过程:
从所述机器人的速度区间确定至少两个预测速度;
预测所述机器人从当前栅格位置分别基于所述至少两个预测速度行进相同时间到达的至少两个预测栅格位置;
将所述至少两个预测栅格位置中代价值最小的预测栅格位置作为目标栅格位置,并且以行进至所述目标栅格位置对应的预测速度作为目标速度控制所述机器人从当前栅格行进至所述目标栅格位置,其中所述目标栅格位置为可到达区域,所述代价值根据所述规划路径确定。
可选地,所述识别模型通过如下方法训练得到:
获取样本图像与样本标签,其中,所述样本标签包括样本图像中的目标对象的坐标信息、位置信息、类别信息以及所述样本图像中目标对象的外接框;
将所述样本图像作为待处理图像输入识别模型,得到预测结果;
将所述预测结果与样本标签进行对比得到损失值,基于所述损失值调整所述识别模型中的样本参数,直到达到训练停止条件。
根据本说明书实施例的第二方面,提供了一种机器人,包括机械本体,所述机械本体上设置有至少一个处理器,以及至少一个存储计算机指令的存储器;
所述至少一个处理器用于执行计算机指令,实现以下方法:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
根据本说明书实施例的第三方面,提供了一种基于人工智能的目标识别装置,所述装置包括:
获取模块,被配置为在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
识别模块,被配置为从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
更新模块,被配置为确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
根据本说明书实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现以下方法的步骤:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
本发明实施例提供的技术方法带来的有益效果至少包括:
控制机器人沿规划路径行进过程中,采集目标区域的视频图像,从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象,确定所述目标对象和参考对象的差异值,在存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,通过上述方式,解放了人力,在非工作时间也可以对商品进行盘点,提升了工作效率,实现了商品盘点的智能化、机械化,达到了相比于人力盘点速度更快、准确度更高的有益效果。
其次,通过预训练的图像识别模型对图像进行处理,保证了对待处理图像的处理速度快、精度高,进而保证了本发明对商品的盘点效率高、速度快、准确率高的效果。
另外,通过图像识别对比后进行差异处理,可以由机器人进行商品计数辅助,也可以对商品摆放位置进行提醒,还可以对检测区域内的缺货情况进行提醒,有效地提升了相比于人力盘点的工作效率和工作质量,也保证了商品盘点过程中的智能化,使扫货流程更加完整。
附图说明
图1是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图2a是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图2b是本发明一实施例的栅格地图示意图;
图3是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图4是本发明一实施例的规划路径示意图;
图5是本发明一实施例的商品位置示意图;
图6是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图7是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图8是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图9是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图10是本发明一实施例的商品外接框示意图;
图11是本发明一实施例的深度方向直角坐标系示意图;
图12是本发明一实施例的一种基于人工智能的目标识别方法的流程示意图;
图13是本发明一实施例的栅格地图与规划路径示意图;
图14是本发明一实施例的货架与商品示意图;
图15是本发明一实施例的商品摆放位置错误提示示意图;
图16是本发明一实施例的商品缺货提示示意图;
图17是本发明一实施例的深度方向商品缺货提示示意图;
图18是本发明一实施例的一种机器人的结构示意图;
图19是本发明一实施例的一种基于人工智能的目标识别装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
针对现有技术中,存在的对商品进行盘点的需求,缺乏高频次、高精度的盘点方法,从而影响对商品盘点的工作效率,在本发明提供了一种基于人工智能的目标识别方法、装置及机器人、计算机可读存储介质,在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。机器人在沿着规划路线行进过程中,由机器人自身携带的摄像设备采集商品的视频图像,并根据神经网络模型识别视频图像,达到了可以不借助人力对商品进行盘点,可以实现高频次、高精度的对商品进行盘点,在下面的实施例中逐一进行详细说明。
首先,对本发明涉及的机器人进行示意性的解释。本发明提及的机器人,可以为各种具有运动功能、拍照功能、地图建立功能、规避障碍功能和自动导航功能的人工智能设备。本发明中所述的对目标对象进行盘点,即机器人处于工作状态,对待盘点区域中的目标对象进行清点工作。例如,在机器人移动的过程中,由机器人自身携带的摄像设备采集目标对象的视频图像,将采集到的视频图像输入识别模型中进行识别并得到识别结果,根据识别结果进行对目标对象进行采集、确认工作。本发明对所述机器人控制方法的使用场景不作具体限定。
本发明中,并不限制机器人的各种形状,例如椭圆形、圆形、凸多边形、人形外观,或是具有机械臂的机器人,并且,机器人可以通过在与机器人配套使用的控制器中安装软件、应用程序或者在机器人内部的相应器件中写入程序来实现本发明的控制方法的逻辑。
本发明一实施例公开了一种基于人工智能的目标识别方法,如图1所示,包括下述步骤S102~S106。需要说明的是,本发明所述的方法,可以由被配置在位于所述机器人内部的处理器执行,也可以由被配置在独立于所述机器人的处理器执行,本发明对此不作具体限定。
步骤S102:在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像。
具体地,如图2a所示,所述规划路线通过步骤S202~S206确定。
步骤S202:为所述机器人所在的场景建立栅格地图。
步骤S204:为所述栅格地图中的每一个栅格设置状态值,其中,所述状态值用于表征所述栅格的空旷程度。
步骤S206:根据所述栅格地图中每一个栅格的状态值设置所述机器人在所述目标区域中的所述规划路径。
其中,栅格地图的定义为:把环境划分成一系列栅格,其中每一栅格给定一个可能值,表示该栅格被占据的概率。
进一步地,首先为所述机器人所在的场景建立栅格地图,所述栅格地图的示意图如图2b所示。
其中,所述栅格地图中的每一个栅格均由像素点组成,每一个像素点的像素值用于表征所述栅格的空旷程度。
具体地,每一个所述栅格的像素值在0~255之间,像素值越接近0表示所述栅格越空旷,像素值越接近253表示所述栅格越拥挤,像素值254表示该栅格有障碍物无法通过,像素值255表示该栅格为未知区域。
进一步地,根据所述栅格中的像素值,可以通过在起点和终点之间连接相邻栅格中像素值最小的栅格组成预定路线。所述预定路线示意图如图4所示,图4中折线段即为所述预定路线。
通过建立所述机器人所在场景的栅格地图,并通过所述栅格地图中栅格的状态值确定预定路线,保证了可以迅速准确地建立场景地图,也确保了可以迅速准确地确定预定路线,保证了所述机器人不会出现由于路径规划误差导致的行进过程受阻的情况。
本发明一实施例中,以图3为例,可以通过步骤S302~S306控制所述机器人的行进过程。
步骤S302:从所述机器人的速度区间确定至少两个预测速度。
步骤S304:预测所述机器人从当前栅格位置分别基于所述至少两个预测速度行进相同时间到达的至少两个预测栅格位置。
步骤S306:将所述至少两个预测栅格位置中代价值最小的预测栅格位置作为目标栅格位置,并且以行进至所述目标栅格位置对应的预测速度作为目标速度,控制所述机器人从当前栅格行进至所述目标栅格位置。
其中,所述目标栅格位置为可到达区域,所述代价值根据所述规划路径确定。
具体地,根据规划路径,为栅格地图上的每一个像素点构建路径距离数组path_dis、目标距离数组goal_dis、路径权重系数weightPath和目标地点权重系数weightGoal,其中,路径距离数组path_dis记录的的是该像素点与规划路径最近的距离,目标距离数组goal_dis记录的是该像素点与规划路径终点的距离。
取预定的时间段T,记录所述机器人在时间段T内可以达到的最大速度Vmax与最小速度Vmin,记N为取样数,将所述时间段T分为N个计数点,所述机器人在每个所述计数点的预测速度V为:Vmin+(Vmax-Vmin)/N*i,其中,所述i为计数点的序号,i为0~N范围内的整数。
以N取3为例,即在时间段T内取3个预测速度V1、V2和V3,再根据V1、V2和V3得到在T时间段内在规划路径中可以到达的栅格位置S1、S2和S3,分别计算并比较栅格位置S1、S2和S3对应的代价值Value,对于Value小于254的栅格位置,取最小的代价值Value对应的预测速度作为机器人行进到规划路径中该栅格位置的速度。
所述代价值Value通过如下方式得到:
Value=weightPath*path_dis[index]+weightGoal*goal_dis[index];
其中,所述path_dis[index]为代价值最小的栅格在路径距离数组path_dis中的索引值,该索引值为该栅格所在横坐标+该栅格所在纵坐标*该路径距离数组的宽度;所述goal_dis[index]为代价值最小的栅格在目标距离数组goal_dis中的索引值,该索引值为该栅格所在横坐标+该栅格所在纵坐标*该目标距离数组的宽度。
通过计算到达每一个栅格位置的代价值确定机器人行进到规划路径中该栅格位置的速度,保证了机器人在行进过程中可以以最合适的速度准确地沿着规划路径移动,确保了机器人在进行过程中不会出现行进速度过低导致的盘点时间过长的问题,也保证了机器人在进行过程中不会出现行进速度过快导致的识别结果出现误差的效果。
步骤S104:从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象。
具体地,将所述第一帧图像输入识别模型中,通过所述识别模型识别得到目标对象,所述目标对象携带有坐标信息、位置信息、类别信息以及所述目标对象的外接框。
其中,所述坐标信息为所述目标对象在预定坐标系内的坐标,所述位置信息为预定坐标系的位置,所述类别信息为所述目标对象的种类。
例如,以机器人在商店货架之间进行货物盘点为例,在此情况下,所述目标对象为货架上的商品,所述位置为商品在货架中的位置,所述类别为商品的种类。具体地,如图4所示,假设商品A为一瓶瓶装饮料,位于第一货架上的第三排第四列,此时将所述第一货架作为第一坐标系,其中,商品A的坐标信息为(3,4),位置信息为“第一货架”,类别信息为“瓶装饮料”,再例,商品B为一袋袋装食品,位于第二货架上的第三排第四列,此时将所述第二货架作为第二坐标系,其中商品B的坐标信息为(3,4),位置信息为“第二货架”,类别信息为“袋装食品”。需要注意的是,此时,由于商品A与商品B的都处于相应货架的第三排第四列,坐标信息为(3,4),但所述相应货架不相同,可认为商品A与商品B的坐标信息不同。
本发明一实施例中,识别模型可以通过如下方法训练得到:
获取样本图像与样本标签,其中,所述样本标签包括样本图像中的目标对象的坐标信息、位置信息、类别信息以及所述目标对象与参考对象的外接框;
将所述样本图像作为待处理图像输入识别模型,得到预测结果;
将所述预测结果与样本标签进行对比得到损失值,基于所述损失值调整所述识别模型中的样本参数,直到达到训练停止条件。
通过训练识别模型,保证了可以准确、迅速的得出视频图像中目标对象的坐标信息、位置信息、类别信息以及所述目标对象与参考对象的外接框,也保证了机器人可以准确、迅速的得出对目标对象的识别结果,确保了盘点工作的快速与便利。
步骤S106:确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理。
在实际应用中,可以将所述差异值与预定的差异阈值进行比较,在所述差异值不大于所述预设的差异阈值的情况下,可以认为所述目标对象与所述参考对象属于同一种类,在所述差异值大于所述预设的差异阈值的情况下,可以认为所述目标对象与所述参考对象不属于同一种类。
所述参考图像中的参考对象也可以通过所述识别模型通过同样的方法识别,此处不再赘述。
本发明一实施例中,如图6所示,可以通过如步骤S602~S604的步骤实现基于第一帧图像和参考图像的差异进行处理。
步骤S602:分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值。
步骤S604:根据所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值获取所述目标对象与所述参考对象的差异值。
本发明一实施例中,如图7所示,步骤S602可以通过步骤S702~S708实现。
步骤S702:通过将所述目标对象的外接框与参考对象的外接框进行对比,得到所述目标对象的外接框与所述参考对象的外接框的宽度差异值、高度差异值、坐标差异值和所述目标对象的外接框与所述参考对象的外接框的距离。
步骤S704:根据所述宽度差异值和所述高度差异值获取目标对象与所述参考对象的外观差异值。
步骤S706:根据所述坐标差异值获取目标对象与所述参考对象的位置差异值。
步骤S708:根据所述距离获取目标对象与所述参考对象的相似度差异值。
例如,假设所述目标对象为A1,所述参考对象为A2,分别提取A1、A2的外接框,并对所述A1、A2的外接框进行对比,得到A1的外接框与A2的外接框的宽度差异值widthDiff、高度差异值heightDiff、坐标差异值xDiff、yDiff,和所述A1与A2的距离Distance。
根据所述A1的外接框与A2的外接框的宽度差异值widthDiff、高度差异值heightDiff得到A1、A2的外观差异值shapeValue:
shapeValue=exp(-weight*(widthDiff+heightDiff));
根据所述A1的外接框与A2的外接框的坐标差异值xDiff、yDiff得到A1、A2的位置差异值motionValue:
motionValue=exp(-weight*(xDiff+yDiff));
根据所述A1与A2的距离Distance得到A1、A2的相似度差异值:
apperanceValue=1.0f-cosDistance;
根据所述A1、A2的外观差异值shapeValue、位置差异值motionValue以及相似度差异值apperanceValue得到A1、A2的差异值affinityValue:
affinityVa lue=motionValu e*shapeValue*apperanceV alue;
若所述A1、A2的差异值不高于预定的差异阈值,则确定A1、A2种类相同,若在视频图像中,存在多个目标对象与参考对象A2的差异值均不高于预定的差异阈值,使用匈牙利法找到A1、A2匹配的最优解,并将参考对象A2的数量加一。其中,匈牙利法是一种最优利用生产资源,计算、调整最优分配方案变量的分析方法。
若所述A1、A2的差异值高于预定的差异阈值,则确定A1、A2为不同种类的商品,将A1作为新商品,并记录A1的商品种类。
通过差异值对目标对象进行追踪检测,简化了目标对象的识别流程,减少了对目标对象对遗漏或者重复计数,提高了机器人对目标对象进行盘点的准确性。
本发明一实施例中,如图8所示,步骤S106可以通过步骤S802~S804实现。
步骤S802:提取所述目标对象的位置信息与类别信息,根据所述目标对象的位置信息与类别信息确定所述目标对象在所述第一帧图像中的第一摆放位置。
步骤S804:将所述第一摆放位置与预定摆放位置进行对比,若所述第一摆放位置与所述预定摆放位置存在差异,则发出摆放提示,其中,所述预定摆放位置根据位置信息与类别信息确定。
具体地,假设当前目标对象为B1,根据B1的摆放位置与B1周围的目标对象的摆放位置与类别确定当前目标对象的摆放位置。假设目标对象B1的货架为“早餐”,并为货架构建平面直角坐标系,B1的类别为“面包”,B1周围的目标对象为“牛奶”,B1在所述平面直角坐标系中的坐标为(2,1),则确定B1当前的摆放位置为:早餐货架,周围摆放牛奶,具体位置为第二排第一列。
进一步地,将B1当前的摆放位置与B1预定的摆放位置进行对比,若所述B1的摆放位置与预定的摆放位置相符,则确定B1的摆放位置正确;若所述B1的摆放位置与预定的摆放位置存在差异,则确定B1的摆放位置错误并发出B1正确摆放位置的提示。
结合机器人对目标对象的位置信息与类别信息,构建数字化场景,实现了货架位置、货架上商品位置、种类的提取,验证商品的摆放规则,为商品摆放规则与销量关系数据分析提供了依据,并且,通过构建数字化场景,也确保了商品摆放位置的准确性。
本发明一实施例中,如图9所示,步骤S106之后,还可以包括步骤S902和S904。
步骤S902:提取目标对象的坐标信息。
步骤S904:基于所述目标对象的坐标信息识别空缺位置,若所述空缺位置的宽度大于第一距离阈值,则确定存在缺货情况。
具体地,以图10为例,基于当前货架建立平面直角坐标系,提取图像中目标对象1与目标对象2的坐标信息、目标对象1的外接框宽度width,根据所述目标对象1与所述目标对象2的外接矩形框左上角顶点的横坐标x1与x2,所述目标对象1与所述目标对象2间空缺位置的宽度d为:
d=abs(x1+width-x2);
若所述间距d大于第一距离阈值,则确定在所述目标对象1与所述目标对象2之间缺少目标对象。
进一步地,若所述坐标信息包括深度信息,则在深度方向上根据所述深度信息拟合空缺平面,若所述空缺平面间的距离大于第二距离阈值,则在深度方向上确定存在缺货情况。
具体地,以图11为例,获取待检测区域的视频图像和与视频图像对应的深度信息,以货架的第一排作为XOY平面建立平面直角坐标系,在货架的深度方向上添加ZOY平面,图中1、2分别代表不同的目标对象,分别拟合目标对象1、目标对象2所对应的空缺平面,所述平面间的距离为D。
若所述距离D大于第二距离阈值,则确定在目标对象1、2之间存在缺货情况。
进一步地,在判断深度方向上的缺货信息后,还可以根据视频图像的深度信息对缺货情况的判断进行检测。若根据目标对象在深度方向上的外接框之间的距离与空缺平面间的距离不符,则认为缺货情况的判断结果存在误差,可以结合所采集的当前视频图像之前的视频图像重新判断缺货情况,例如结合当前视频图像的前几帧视频图像重新判断。
本发明一实施例中,所述视频图像可以是彩色图像,也可以是其他图像,本发明对此不作限定。
通过在待识别区域根据深度信息建立坐标系,分别拟合在深度方向上目标对象所在的平面的方式,达到了可以准确快速识别深度方向上目标对象是否存在缺失的效果。
如图12所示,本发明一实施例公开了一种基于人工智能的目标识别方法,以所述机器人在一仓库为例进行说明,所述方法包括步骤S1202~S1210。
步骤S1202:为所述机器人所在的仓库建立栅格地图,根据所述栅格地图中像素点的状态值确定规划路径。
具体地,该仓库中,待检测区域为货架区域,目标对象为货架上摆放对商品,根据当前的仓库建立栅格地图并设置路径起点与路径终点,根据仓库中各个点对空旷程度为所述栅格地图中的每一个像素点设置对应的状态值,依次连接相邻栅格中状态值最小对栅格为所述机器人规划路径。所述栅格地图与规划路径如图13所示,其中,点A为规划路径的起点,点B为规划路径的终点,折线段AB为规划路径。
通过建立所述机器人所在仓库的栅格地图,并基于所述栅格地图中栅格的状态值确定预定路线,保证了可以迅速准确地建立场景地图,也确保了可以迅速准确地确定预定路线,保证了所述机器人不会出现由于路径规划误差导致的行进过程受阻的情况。
步骤S1204:基于所述规划路径控制所述机器人的行进速度,在所述机器人行进过程中采集货架与商品的视频图像。
步骤S1206:将所述视频图像输入识别模型获取商品的坐标信息、位置信息和类别信息,根据所述坐标信息、位置信息和类别信息获取所述商品与所述参考对象的差异值。
具体地,机器人在规划路径上进行的过程中,通过机器人自身携带的摄像设备采集货架与商品的视频,并在所述视频中提取关键帧作为视频图像输入识别模型。
通过识别模型得到货架对应的坐标系、商品在所述坐标系中的坐标和商品的种类。如图14所示,图中货架为第一货架,对应的坐标系为XOY,商品A的坐标信息为(1,4),商品A的类别为“罐装饮料”,商品B的坐标信息为(8,5),商品B的类别为“瓶装饮料”。
提取商品A的外接框、商品A的参考对象C的外接框,获取所述商品A的外接框与参考对象C的外接框相应的外观差异值、位置差异值以及所述商品A与所述参考对象C的相似度差异值,进而确定商品A与参考对象C的差异值。
步骤S1208:根据所述差异值对商品进行处理。
具体地,若所述差异值小于预定的差异阈值,则确定商品A与参考对象C为同一种商品,并将参考对象C的数量加一;若所述差异值大于预定的差异阈值,则确定商品A与参考对象为不同种类的商品,判断商品A的种类是否已经记录,若已经记录则将商品A对应的种类中的商品数量加一,若未记录,则将A作为新商品并记录商品A的种类。
根据差异值对目标对象进行之中检测,简化了目标对象的识别流程,减少了对目标对象对遗漏或者对目标对象的重复计数,提高了机器人对目标对象进行盘点的准确性。
在确定商品A与参考对象C的差异值后,对商品B进行更新的方法及步骤与商品A进行更新的方法及步骤相同,在此不再赘述。
进一步地,本实施例中,还可以对商品的摆放位置进行检测。由当前商品A相邻商品的种类、相邻商品的坐标信息确定商品A当前的摆放位置,接着将所述商品A当前的摆放位置与预定的摆放位置进行对比。假设商品A预定的摆放位置为“第一货架,第2排第6列”,进过对比后得出商品A当前的摆放位置与预定的摆放位置不符,则在机器人终端标识出商品A摆放错误的提示。摆放位置错误提示效果示意图如图15所示。
结合机器人对目标对象的位置信息与类别信息,构建数字化仓库,实现了货架位置、货架上商品位置、种类的提取,验证商品的摆放规则,为商品摆放规则与销量关系数据分析提供了依据,并且,通过构建数字化仓库,也确保了商品摆放位置的准确性。
步骤S1210:根据商品的坐标信息检测商品的缺货情况。
具体地,根据商品A与商品B的坐标信息,判断商品A与商品B之间的间距是否大于第一预定间距d1,若小于第一预定间距d1,则确定商品A与商品B之间不存在缺货情况,若大于第一预定间距d1,则确定商品A与商品B之间存在缺货情况,由机器人终端标识出缺货位置并给出缺货提示。缺货提示效果示意图如图16所示,其中,C区域表示缺货区域。
进一步地,根据视频图像的深度信息,在货架的深度方向上添加ZOY平面,分别拟合商品A与商品B所在的平面,记录商品A与商品B所在的平面的距离,若所述距离大于第二预定间距d2,则确定商品A与商品B之前存在缺货情况,由机器人终端标识出缺货位置并给出缺货提示。在深度方向上的缺货提示效果示意图如图17所示,其中,区域C表示缺货区域。
通过在待识别区域根据深度信息建立坐标系,分别拟合在深度方向上目标对象所在的平面的方式,达到了可以准确快速识别深度方向上目标对象是否存在缺失的效果。
步骤S1212:检测所述缺货情况是否正确。
在判断商品A与商品B之间的缺货情况后,还可以根据机器人对第一货架采集的视频图像对应的深度信息对商品A与商品B之间的缺货情况的判断进行检测。若根据视频图像的深度信息在深度方向上商品A的外接框与商品B的外接框之间的距离与空缺平面间的距离不符,则认为缺货情况的判断结果存在误差,可以结合所采集的当前视频图像之前的视频图像重新判断缺货情况,例如结合当前视频图像的前几帧视频图像重新判断。
通过在待识别区域根据深度信息建立坐标系,分别拟合在深度方向上目标对象所在的平面的方式,达到了可以准确快速识别深度方向上目标对象是否存在缺失的效果。
机器人由规划路径起点A行进至规划路径终点B后,机器人完成在仓库的盘点工作。
本发明一实施例公开了一种机器人,参见图18,包括机械本体180,所述机械本体上设置有至少一个处理器1801,以及至少一个存储计算机指令的存储器1802。
其中,所述存储器1802用于存储支持该机器人执行前述实施例中的控制方法程序,所述处理器1801被配置为用于执行所述存储器中存储的程序。
机械本体180上除了设有一个或多个处理器1801以及一个或多个存储器1802之外,还设置有机器人的一些基本组件,例如驱动组件、摄像头、传感器组件、识别组件、终端显示器和电源组件等等。可选地,驱动组件可以包括驱动轮、驱动电机、万向轮等。不同机器人所包含的这些基本组件以及基本组件的构成均会有所不同,本发明实施例列举的仅是部分示例。
值得说明的是,一个或多个处理器1801、一个或多个存储器1802可设置于机械本体内部,也可以设置于机械本体180的表面。
机械本体180是机器人赖以完成作业任务的执行机构,可以在确定的环境中执行处理器指定的操作。其中,机械本体180一定程度上体现了机器人的外观形态。在本实施例中,并不限定机器人的外观形态,例如可以是圆形、椭圆形、三角形、凸多边形、人形外观,或是具有机械臂的机器人。
一个或多个存储器1802,主要用于存储计算机指令,该计算机指令可被一个或多个处理器1801执行,致使一个或多个处理器1801可以控制机器人的机械本体180执行机器人控制方法。除了存储计算机指令之外,一个或多个存储器1802还可被配置为存储其它各种数据以支持在机器人上的操作。这些数据的示例包括用于在机器人上操作的任何应用程序或方法的指令,机器人所在环境/场景的地图数据,待盘点区域的信息等等。
一个或多个存储器1802,可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
一个或多个处理器1801,可以看作是机器人控制系统,可用于执行一个或多个存储器1802中存储的计算机指令,以实现基于人工智能的目标识别方法。
所述至少一个处理器1801用于执行计算机指令,实现以下方法:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
可选地,所述规划路径通过如下方法确定:
为所述机器人所在的场景建立栅格地图;
为所述栅格地图中的每一个栅格设置状态值,其中,所述状态值用于表征所述栅格的空旷程度;
根据所述栅格地图中每一个栅格的状态值设置所述机器人在所述目标区域中的所述规划路径。
可选地,从所述第一帧图像中识别目标对象的过程中,所述至少一个处理器还用于:
将所述第一帧图像输入识别模型中,通过所述识别模型识别得到目标对象,所述目标对象携带有坐标信息、位置信息、类别信息以及所述目标对象与参考对象的外接框。
可选地,定所述目标对象和参考对象的差异值,包括:
分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值;
根据所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值获取所述目标对象与所述参考对象的差异值。
可选地,分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值,包括:
通过将所述目标对象的外接框与参考对象的外接框进行对比,得到所述目标对象的外接框与所述参考对象的外接框的宽度差异值、高度差异值、坐标差异值和所述目标对象的外接框与所述参考对象的外接框的距离;
根据所述宽度差异值和所述高度差异值获取目标对象与所述参考对象的外观差异值;
根据所述坐标差异值获取目标对象与所述参考对象的位置差异值;
根据所述距离获取目标对象与所述参考对象的相似度差异值。
可选地,所述至少一个处理器还用于:
根据所述差异值确定不存在差异的情况下,将所述参考对象的数量加一。
可选地,基于第一帧图像和参考图像的差异进行处理,包括:
将所述目标对象添加至参考对象中。
可选地,基于第一帧图像和参考图像的差异进行处理,包括:
提取所述目标对象的位置信息与类别信息,根据所述目标对象的位置信息与类别信息确定所述目标对象在所述第一帧图像中的第一摆放位置;
将所述第一摆放位置与预定摆放位置进行对比,若所述第一摆放位置与所述预定摆放位置存在差异,则发出摆放提示,其中,所述预定摆放位置根据位置信息与类别信息确定。
可选地,在基于第一帧图像和参考图像的差异进行处理后,还包括:
提取目标对象的坐标信息;
基于所述目标对象的坐标信息识别空缺位置,若所述空缺位置的宽度大于第一距离阈值,则确定存在缺货情况。
可选地,所述坐标信息包括深度信息。
可选地,基于所述目标对象的坐标信息识别空缺位置,包括:
在深度方向上根据所述深度信息拟合空缺平面,若所述空缺平面间的距离大于第二距离阈值,则在深度方向上确定存在缺货情况。
可选地,通过如下方法控制所述机器人的行进过程:
从所述机器人的速度区间确定至少两个预测速度;
预测所述机器人从当前栅格位置分别基于所述至少两个预测速度行进相同时间到达的至少两个预测栅格位置;
将所述至少两个预测栅格位置中代价值最小的预测栅格位置作为目标栅格位置,并且以行进至所述目标栅格位置对应的预测速度作为目标速度控制所述机器人从当前栅格行进至所述目标栅格位置,其中所述目标栅格位置为可到达区域,所述代价值根据所述规划路径确定。
可选地,所述识别模型通过如下方法训练得到:
获取样本图像与样本标签,其中,所述样本标签包括样本图像中的目标对象的坐标信息、位置信息、类别信息以及所述目标对象与参考对象的外接框;
将所述样本图像作为待处理图像输入识别模型,得到预测结果;
将所述预测结果与样本标签进行对比得到损失值,基于所述损失值调整所述识别模型中的样本参数,直到达到训练停止条件。
控制机器人沿规划路径行进过程中,采集目标区域的视频图像,从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象,确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,通过上述方式,保证了可以由机器人高频次、高精度地对商品进行盘点,克服了现有技术中以人工操作盘点商品的缺陷。
上述为本实施例的一种机器人示意性方案。需要说明的是,该机器人的技术方案与上述的基于人工智能的目标识别方法的技术方案属于同一构思,控制装置的技术方案未详细描述的细节内容,均可以参见上述基于人工智能的目标识别方法的技术方案的描述。
本发明一实施例公开了一种基于人工智能的目标识别装置,参见图19,包括:
获取模块1901,被配置为在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
识别模块1902,被配置为从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
更新模块1903,被配置为确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
可选地,获取模块1901包括:
第一地图子模块,被配置为为所述机器人所在的场景建立栅格地图;
第二地图子模块,被配置为为所述栅格地图中的每一个栅格设置状态值,其中,所述状态值用于表征所述栅格的空旷程度;
规划路径子模块,被配置为根据所述栅格地图中每一个栅格的状态值设置所述机器人在所述目标区域中的所述规划路径。
可选地,识别模块1902包括:
识别子模块,被配置为将所述第一帧图像输入识别模型中,通过所述识别模型识别得到目标对象,所述目标对象携带有坐标信息、位置信息、类别信息以及所述目标对象的外接框。
可选地,更新模块1903包括:
第一提取子模块,被配置为分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值;
第二提取子模块,被配置为根据所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值获取所述目标对象与所述参考对象的差异值。
可选地,所述第二提取子模块还包括:
第三提取子模块,被配置为通过将所述目标对象的外接框与参考对象的外接框进行对比,得到所述目标对象的外接框与所述参考对象的外接框的宽度差异值、高度差异值、坐标差异值和所述目标对象的外接框与所述参考对象的外接框的距离;
第四提取子模块,被配置为根据所述宽度差异值和所述高度差异值获取目标对象与所述参考对象的外观差异值;
第五提取子模块,被配置为根据所述坐标差异值获取目标对象与所述参考对象的位置差异值;
第六提取子模块,被配置为根据所述距离获取目标对象与所述参考对象的相似度差异值。
可选地,所述装置还包括:
添加子模块,被配置为根据所述差异值确定不存在差异的情况下,将所述参考对象的数量加一。
可选地,所述更新模块1903包括:
第二添加子模块,被配置为将所述目标对象添加至参考对象中。
可选地,所述更新模块1903包括:
第七提取子模块,被配置为提取所述目标对象的位置信息与类别信息,根据所述目标对象的位置信息与类别信息确定所述目标对象在所述第一帧图像中的第一摆放位置;
第八提取子模块,被配置为将所述第一摆放位置与预定摆放位置进行对比,若所述第一摆放位置与所述预定摆放位置存在差异,则发出摆放提示,其中,所述预定摆放位置根据位置信息与类别信息确定。
可选地,所述装置还包括:
缺货检测模块,被配置为提取目标对象的坐标信息。
可选地,所述缺货检测模块包括:
第一阈值子模块,被配置为基于所述目标对象的坐标信息识别空缺位置,若所述空缺位置的宽度大于第一距离阈值,则确定存在缺货情况;
第二阈值子模块,被配置为在深度方向上根据所述深度信息拟合空缺平面,若所述空缺平面间的距离大于第二距离阈值,则在深度方向上确定存在缺货情况,其中,所述坐标信息包括深度信息,基于所述目标对象的坐标信息识别空缺位置。
可选地,所述装置还包括:
行进控制模块,被配置为控制所述机器人的行进过程。
可选地,所述行进控制模块包括:
第一预测子模块,被配置为从所述机器人的速度区间确定至少两个预测速度;
第二预测子模块,被配置为预测所述机器人从当前栅格位置分别基于所述至少两个预测速度行进相同时间到达的至少两个预测栅格位置;
确认子模块,被配置为将所述至少两个预测栅格位置中代价值最小的预测栅格位置作为目标栅格位置,并且以行进至所述目标栅格位置对应的预测速度作为目标速度控制所述机器人从当前栅格行进至所述目标栅格位置,其中所述目标栅格位置为可到达区域,所述代价值根据所述规划路径确定。
可选地,所述装置还包括训练模块,所述训练模块包括:
样本子模块,被配置为获取样本图像与样本标签,其中,所述样本标签包括样本图像中的目标对象的坐标信息、位置信息、类别信息以及所述样本图像中的目标对象的外接框;
识别子模块,被配置为将所述样本图像作为待处理图像输入识别模型,得到预测结果;
对比子模块,被配置为将所述预测结果与样本标签进行对比得到损失值,基于所述损失值调整所述识别模型中的样本参数,直到达到训练停止条件。
控制机器人沿规划路径行进过程中,采集目标区域的视频图像,从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象,确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,通过上述方式,保证了可以由机器人高频次、高精度地对商品进行盘点,克服了现有技术中以人工操作盘点商品的缺陷。
本发明一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现以下方法的步骤:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述基于人工智能的目标识别方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述基于人工智能的目标识别方法的技术方案的描述。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本发明优选实施例只是用于帮助阐述本发明。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (15)
1.一种基于人工智能的目标识别方法,其特征在于,所述方法包括:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
2.如权利要求1所述的方法,其特征在于,所述规划路径通过如下方法确定:
为所述机器人所在的场景建立栅格地图;
为所述栅格地图中的每一个栅格设置状态值,其中,所述状态值用于表征所述栅格的空旷程度;
根据所述栅格地图中每一个栅格的状态值设置所述机器人在所述目标区域中的所述规划路径。
3.如权利要求1所述的方法,其特征在于,从所述第一帧图像中识别目标对象,包括:
将所述第一帧图像输入识别模型中,通过所述识别模型识别得到目标对象,所述目标对象携带有坐标信息、位置信息、类别信息以及所述目标对象的外接框。
4.如权利要求1所述的方法,其特征在于,确定所述目标对象和参考对象的差异值,包括:
分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值;
根据所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值获取所述目标对象与所述参考对象的差异值。
5.如权利要求4所述的方法,其特征在于,分别提取所述目标对象与参考对象的外接框,获取所述目标对象的外接框与参考对象的外接框相应的外观差异值、位置差异值以及所述目标对象与所述参考对象的相似度差异值,包括:
通过将所述目标对象的外接框与参考对象的外接框进行对比,得到所述目标对象的外接框与所述参考对象的外接框的宽度差异值、高度差异值、坐标差异值和所述目标对象的外接框与所述参考对象的外接框的距离;
根据所述宽度差异值和所述高度差异值获取目标对象与所述参考对象的外观差异值;
根据所述坐标差异值获取目标对象与所述参考对象的位置差异值;
根据所述距离获取目标对象与所述参考对象的相似度差异值。
6.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述差异值确定不存在差异的情况下,将所述参考对象的数量加一。
7.如权利要求1所述的方法,其特征在于,基于第一帧图像和参考图像的差异进行处理,包括:
将所述目标对象添加至参考对象中。
8.如权利要求1所述的方法,其特征在于,基于第一帧图像和参考图像的差异进行处理,包括:
提取所述目标对象的位置信息与类别信息,根据所述目标对象的位置信息与类别信息确定所述目标对象在所述第一帧图像中的第一摆放位置;
将所述第一摆放位置与预定摆放位置进行对比,若所述第一摆放位置与所述预定摆放位置存在差异,则发出摆放提示,其中,所述预定摆放位置根据位置信息与类别信息确定。
9.如权利要求1所述的方法,其特征在于,在基于第一帧图像和参考图像的差异进行处理后,还包括:
提取目标对象的坐标信息;
基于所述目标对象的坐标信息识别空缺位置,若所述空缺位置的宽度大于第一距离阈值,则确定存在缺货情况。
10.如权利要求9所述的方法,其特征在于,其中,所述坐标信息包括深度信息;
基于所述目标对象的坐标信息识别空缺位置,包括:
在深度方向上根据所述深度信息拟合空缺平面,若所述空缺平面间的距离大于第二距离阈值,则在深度方向上确定存在缺货情况。
11.如权利要求1所述的方法,其特征在于,通过如下方法控制所述机器人的行进过程:
从所述机器人的速度区间确定至少两个预测速度;
预测所述机器人从当前栅格位置分别基于所述至少两个预测速度行进相同时间到达的至少两个预测栅格位置;
将所述至少两个预测栅格位置中代价值最小的预测栅格位置作为目标栅格位置,并且以行进至所述目标栅格位置对应的预测速度作为目标速度控制所述机器人从当前栅格行进至所述目标栅格位置,其中所述目标栅格位置为可到达区域,所述代价值根据所述规划路径确定。
12.如权利要求3所述的方法,其特征在于,所述识别模型通过如下方法训练得到:
获取样本图像与样本标签,其中,所述样本标签包括样本图像中的目标对象的坐标信息、位置信息、类别信息以及所述样本图像中目标对象的外接框;
将所述样本图像作为待处理图像输入识别模型,得到预测结果;
将所述预测结果与样本标签进行对比得到损失值,基于所述损失值调整所述识别模型中的样本参数,直到达到训练停止条件。
13.一种基于人工智能的目标识别装置,其特征在于,所述装置包括:
获取模块,被配置为在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
识别模块,被配置为从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
更新模块,被配置为确定所述目标对象和参考对象的差异值,根据所述差异值确定存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
14.一种机器人,其特征在于,包括机械本体,所述机械本体上设置有至少一个处理器,以及至少一个存储计算机指令的存储器;
所述至少一个处理器用于执行计算机指令,实现以下方法:
在控制机器人沿规划路径行进过程中,控制所述机器人采集目标区域的视频图像;
从所述视频图像中提取第一帧图像并从所述第一帧图像中识别目标对象;
确定所述目标对象和参考对象的差异值,在存在差异的情况下,基于第一帧图像和参考图像的差异进行处理,其中,所述参考对象为从所述视频图像中提取的所述第一帧图像的上一帧图像中的目标对象。
15.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1至12任意一项所述基于人工智能的目标识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011019113.8A CN114253253A (zh) | 2020-09-24 | 2020-09-24 | 一种基于人工智能的目标识别方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011019113.8A CN114253253A (zh) | 2020-09-24 | 2020-09-24 | 一种基于人工智能的目标识别方法、装置及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114253253A true CN114253253A (zh) | 2022-03-29 |
Family
ID=80790125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011019113.8A Pending CN114253253A (zh) | 2020-09-24 | 2020-09-24 | 一种基于人工智能的目标识别方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114253253A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882597A (zh) * | 2022-07-11 | 2022-08-09 | 浙江大华技术股份有限公司 | 一种目标行为的识别方法、装置及电子设备 |
CN117542031A (zh) * | 2024-01-10 | 2024-02-09 | 成都阿加犀智能科技有限公司 | 一种基于智能购物车的商品识别方法、装置、设备及介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080077511A1 (en) * | 2006-09-21 | 2008-03-27 | International Business Machines Corporation | System and Method for Performing Inventory Using a Mobile Inventory Robot |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
US9177224B1 (en) * | 2013-03-14 | 2015-11-03 | Amazon Technologies, Inc. | Object recognition and tracking |
US20160155011A1 (en) * | 2014-12-02 | 2016-06-02 | Xerox Corporation | System and method for product identification |
US20160171707A1 (en) * | 2014-12-10 | 2016-06-16 | Ricoh Co., Ltd. | Realogram Scene Analysis of Images: Superpixel Scene Analysis |
US20170178060A1 (en) * | 2015-12-18 | 2017-06-22 | Ricoh Co., Ltd. | Planogram Matching |
WO2018137136A1 (zh) * | 2017-01-24 | 2018-08-02 | 广州市蚁道互联网有限公司 | 自动售货机及其运行方法 |
US20190236530A1 (en) * | 2018-01-31 | 2019-08-01 | Walmart Apollo, Llc | Product inventorying using image differences |
CN110120010A (zh) * | 2019-04-12 | 2019-08-13 | 嘉兴恒创电力集团有限公司博创物资分公司 | 一种基于相机图像拼接的立体货架视觉盘点方法和系统 |
CN110516628A (zh) * | 2019-08-29 | 2019-11-29 | 上海扩博智能技术有限公司 | 货架空缺位置商品信息获取方法、系统、设备及存储介质 |
US20200118063A1 (en) * | 2017-05-01 | 2020-04-16 | Symbol Technologies, Llc | Method and Apparatus for Object Status Detection |
JP2020064587A (ja) * | 2019-02-15 | 2020-04-23 | 大王製紙株式会社 | 電子タグの貼付装置及びその方法 |
CN111401143A (zh) * | 2020-02-26 | 2020-07-10 | 沈阳大学 | 一种行人跟踪系统及方法 |
CN111611953A (zh) * | 2020-05-28 | 2020-09-01 | 北京富吉瑞光电科技有限公司 | 一种基于目标特征训练的抽油机识别方法与系统 |
CN111664843A (zh) * | 2020-05-22 | 2020-09-15 | 杭州电子科技大学 | 一种基于slam的智能仓储盘点方法 |
-
2020
- 2020-09-24 CN CN202011019113.8A patent/CN114253253A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080077511A1 (en) * | 2006-09-21 | 2008-03-27 | International Business Machines Corporation | System and Method for Performing Inventory Using a Mobile Inventory Robot |
US9177224B1 (en) * | 2013-03-14 | 2015-11-03 | Amazon Technologies, Inc. | Object recognition and tracking |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
US20160155011A1 (en) * | 2014-12-02 | 2016-06-02 | Xerox Corporation | System and method for product identification |
US20160171707A1 (en) * | 2014-12-10 | 2016-06-16 | Ricoh Co., Ltd. | Realogram Scene Analysis of Images: Superpixel Scene Analysis |
US20170178060A1 (en) * | 2015-12-18 | 2017-06-22 | Ricoh Co., Ltd. | Planogram Matching |
WO2018137136A1 (zh) * | 2017-01-24 | 2018-08-02 | 广州市蚁道互联网有限公司 | 自动售货机及其运行方法 |
US20200118063A1 (en) * | 2017-05-01 | 2020-04-16 | Symbol Technologies, Llc | Method and Apparatus for Object Status Detection |
US20190236530A1 (en) * | 2018-01-31 | 2019-08-01 | Walmart Apollo, Llc | Product inventorying using image differences |
JP2020064587A (ja) * | 2019-02-15 | 2020-04-23 | 大王製紙株式会社 | 電子タグの貼付装置及びその方法 |
CN110120010A (zh) * | 2019-04-12 | 2019-08-13 | 嘉兴恒创电力集团有限公司博创物资分公司 | 一种基于相机图像拼接的立体货架视觉盘点方法和系统 |
CN110516628A (zh) * | 2019-08-29 | 2019-11-29 | 上海扩博智能技术有限公司 | 货架空缺位置商品信息获取方法、系统、设备及存储介质 |
CN111401143A (zh) * | 2020-02-26 | 2020-07-10 | 沈阳大学 | 一种行人跟踪系统及方法 |
CN111664843A (zh) * | 2020-05-22 | 2020-09-15 | 杭州电子科技大学 | 一种基于slam的智能仓储盘点方法 |
CN111611953A (zh) * | 2020-05-28 | 2020-09-01 | 北京富吉瑞光电科技有限公司 | 一种基于目标特征训练的抽油机识别方法与系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882597A (zh) * | 2022-07-11 | 2022-08-09 | 浙江大华技术股份有限公司 | 一种目标行为的识别方法、装置及电子设备 |
CN117542031A (zh) * | 2024-01-10 | 2024-02-09 | 成都阿加犀智能科技有限公司 | 一种基于智能购物车的商品识别方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11100300B2 (en) | Systems and methods for tracking items | |
CA3101978C (en) | Tracking vehicles in a warehouse environment | |
US10083418B2 (en) | Distributed autonomous robot systems and mehtods | |
US10388019B1 (en) | Associating an agent with an event based on multiple inputs | |
CN108089574B (zh) | 用于提供仓库中的存放位的位置的方法和物料搬运车 | |
US20210049542A1 (en) | Systems, devices, and methods for estimating stock level with depth sensor | |
WO2017201483A1 (en) | Method for tracking placement of products on shelves in a store | |
EP3347672B1 (en) | An apparatus for the determination of the features of at least a moving load | |
US20220299995A1 (en) | Autonomous Vehicle Warehouse Inventory Inspection and Management | |
CN114253253A (zh) | 一种基于人工智能的目标识别方法、装置及机器人 | |
EP4071684A1 (en) | Warehouse monitoring system | |
CN113468914B (zh) | 一种商品纯净度的确定方法、装置及设备 | |
Li et al. | Using Kinect for monitoring warehouse order picking operations | |
US10891736B1 (en) | Associating an agent with an event using motion analysis | |
CN113205294A (zh) | 一种货物盘点方法及系统 | |
EP4249177A1 (en) | Grasp boundary detection based on color | |
CN112614181B (zh) | 一种基于高亮目标的机器人定位方法及装置 | |
Macías Solá | Indoor Localization of AGVs: A Ground Texture Based Solution | |
CN115446846A (zh) | 一种基于条码识别的图书盘点机器人 | |
Garnaik et al. | MINSU: Precision Quantity Counter with DNN-based Volume Estimation | |
CN116766191A (zh) | 机器人运动控制方法、装置、计算设备和存储介质 | |
CN117889841A (zh) | 一种地图构建方法、终端设备及计算机存储介质 | |
CN116923374A (zh) | 基于车型匹配的自动泊车方法和装置 | |
CN112509039A (zh) | 瓶装液体液位检测方法、系统和存储介质 | |
CN115841125A (zh) | 一种位置信息的获取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |