CN113947770B - 一种识别物体放置于智能箱柜不同区域的方法 - Google Patents
一种识别物体放置于智能箱柜不同区域的方法 Download PDFInfo
- Publication number
- CN113947770B CN113947770B CN202111516051.6A CN202111516051A CN113947770B CN 113947770 B CN113947770 B CN 113947770B CN 202111516051 A CN202111516051 A CN 202111516051A CN 113947770 B CN113947770 B CN 113947770B
- Authority
- CN
- China
- Prior art keywords
- straight line
- image
- partition
- intelligent cabinet
- vertical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000005192 partition Methods 0.000 claims abstract description 145
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 230000033001 locomotion Effects 0.000 claims abstract description 22
- 230000009466 transformation Effects 0.000 claims abstract description 22
- 238000001914 filtration Methods 0.000 claims abstract description 18
- 238000012163 sequencing technique Methods 0.000 claims abstract description 12
- 238000012216 screening Methods 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 40
- 230000006399 behavior Effects 0.000 claims description 22
- 238000010586 diagram Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000007717 exclusion Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000002156 mixing Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 241000234295 Musa Species 0.000 description 4
- 241000220324 Pyrus Species 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 241000251468 Actinopterygii Species 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 235000019688 fish Nutrition 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 2
- 235000014443 Pyrus communis Nutrition 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 235000021015 bananas Nutrition 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000008014 freezing Effects 0.000 description 2
- 238000007710 freezing Methods 0.000 description 2
- 235000013372 meat Nutrition 0.000 description 2
- 235000021017 pears Nutrition 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 241000220225 Malus Species 0.000 description 1
- 235000011430 Malus pumila Nutrition 0.000 description 1
- 235000015103 Malus silvestris Nutrition 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 235000015278 beef Nutrition 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000013409 condiments Nutrition 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本发明公开了一种识别物体放置于智能箱柜不同区域的方法,该方法包括:获取深度图像;对深度相机模组进行非线性标定,并对获取的深度图像进行畸变校正,获取视图集;基于霍夫直线变换对左视图集进行整个智能箱体的隔板信息获取,得到隔板直线信息群;对隔板直线信息群进行聚类、过滤、筛选、分类、排序,获得隔板在智能箱柜二维空间上的建模;对检测出来的隔板进行三维投影建模,获取隔板之间的距离,得到每一个分区的深度信息;通过目标检测模型对采集的图像进行检测,追踪用户手部的运动轨迹,获取物体放置的区域;利用建模好的智能箱体结合物体识别模型对物体进行识别和分析;该识别物体放置于智能箱柜不同区域的方法能够保证实际应用效果的。
Description
技术领域
本发明涉及智能家居,智能箱柜的图像处理技术领域,尤其涉及识别物体放置于智能箱柜不同区域的方法。
背景技术
随着计算机技术的发展和计算机视觉原理的应用,利用图像识别技术对诸如智能箱柜等产品内的物体进行准确识别具有广泛的应用价值。
目前,智能箱柜有两种工作模式:动态模式和静态模式,采用的图像采集设备多为普通相机。
静态模式就是在用户每次触发开关门的动作时,放置在智能箱柜内的图像采集装置会对箱柜内进行拍摄,然后,将开门前和开门后的图像发送回云端服务器,云端服务器分析开门前和开门后物体的变换,从而对物体进行识别。
动态模式,通过内置或外置的图像采集装置,跟踪用户手部运动的情况,从而确认手部的姿态,进而对物体进行识别,得到物体的取出还是录入。
通过上述两种方式对物体种类、物品存取等信息进行识别和录入,可以实现智能箱柜的智能化管理。
相关专利有:
CN202010403622 .4 增强现实图像数据处理方法、装置、设备和存储介质
CN202010310655 .4 一种智能冰箱及食材录入方法
在上述相关技术的实施过程中,会存在如下的问题:
在静态模式中:获取图像的结束会在用户关闭智能箱柜的门时发生,加上图像的传输、分析、检测等时间消耗,达不到实时的效果,且智能箱柜中存在大量的遮挡、覆盖的物体、造成较大的识别误差。
目前市面上的智能箱柜采用较多的都是动态模式,有效避免了物体遮挡的问题,但动态模式是依靠手的运动去获取物体的,对于外置图像采集设备,它只采集到物体放置或取出智能箱柜途中的图像,并不知道物体是放置到智能箱柜的哪一个区域和哪一个部分,内置图像采集设备,从图像上看能知道用户把物体放置到哪个区域,但计算机却无法从图像上分辨出来物体放置位置。
其次,当前智能箱柜物体识别和用户行为检测方面的研究存在一定的局限性。智能箱柜内使用的检测算法并未考虑智能箱柜实际背景,而是大多使用以公共开源或局部的数据集训练的算法模型,但实际应用场景中数据会跟开源数据相差较大,且没有考虑智能箱柜内部的封闭结构特点,当用户量一多,会产生各种各自独特的用户场景,其实际效果并不能得到很好的保证。
发明内容
针对现有技术中的不足,本发明的目的是提供一种能够保证实际应用效果的识别物体放置于智能箱柜不同区域的方法。
本发明解决其技术问题所采用的技术方案是:
一种识别物体放置于智能箱柜不同区域的方法,
使用深度相机模组对用户开、闭智能箱柜的行为进行视频采集,获取深度图像;
对深度相机模组进行非线性标定,获得相机内参,并对获取的深度图像进行畸变校正,获取视图集,该视图集包括左视图集和右视图集;
基于视图集进行整个智能箱体的隔板信息获取,得到隔板直线信息群;
对隔板直线信息群进行聚类、过滤、筛选、分类、排序,获得隔板在智能箱柜二维空间上的建模;
依据左视图集检测出来的直线中心点在右视图集中寻找与之匹配的中心点,对检测出来的隔板进行投影建模,获取隔板之间的距离,得到每一个分区的深度信息;
利用目标检测模型对采集的图像进行检测,对手部的运动位置进行获取,追踪用户手部的运动轨迹,结合建模好的智能箱柜,获取物体放置的区域;
利用建模好的智能箱体结合物体识别模型对物体进行识别和分析。
进一步的,所述的深度相机模组为RGB双目视觉深度相机或两个单目相机,RGB双目视觉深度相机包括有两个摄像头。
进一步的,对深度相机模组进行非线性标定的方法为:通过张正友标定法对深度相机模组进行标定,获得相机焦距、中心点在像素坐标系中的位置、径向畸变系数、切向畸变系数,并剔除影像中的径向畸变和切向畸变。
进一步的,隔板信息获取的方法为:对左视图集进行下采样,把下采样图像灰度化和降噪,对处理后的图像进行二值化,使用图像梯度算子获取二值化图像的边缘区域,使用霍夫直线变换对边缘图像进行检测,得到图像上的隔板直线信息群。
进一步的,对隔板直线信息群进行聚类、过滤、筛选、分类、排序的方法为:
通过就近原则对霍夫直线变换的检测下出现的多根直线进行聚类,根据三角公式分别求每条直线之间的距离,根据直线聚类函数,直线间的距离小于阈值的,选择最长的直线作为保留直线,其余的直线去掉,距离大于阈值的直线都进行保留,将聚类后剩下的直线群分为横向直线群和竖向直线群两类;
对横向直线群根据线的长度进行排序和修正,获得每条横隔板的长度,对隔板长度进行排序,获得最长的隔板的左右横坐标,根据最长的隔板的左右横坐标对每条横隔板的长度进行修正,让每条横隔板的长度保持在一样的长度;
对竖向直线群根据智能箱柜的构造原理和竖线条数进行过滤和修正;
把横向直线群和竖向直线群,根据直线坐标在一张图像上从上到下增加的原则,混合在一起,使所有直线的纵坐标呈现从小到大,取在横线和横线之间的竖线进行分析,只保留最中间的直线作为最佳的竖线;
根据过滤后的竖向直线群,对竖向直线进行长度的修正,分别求最佳竖向直线靠最近的两条横直线的纵坐标,与最佳竖向直线的起始点纵坐标值和终点纵坐标值进行对比,按照直线长度超过减少,不超过填补的原则,进行纵坐标的修正;
通过修正后的横向直线群和竖向直线群,从而对智能箱柜进行二维图像分区。
进一步的,获得隔板在智能箱柜二维空间上的建模的方法为:
检测过滤、筛选处理后直线群里的所有直线,根据检测到的直线按照直线的纵坐标从小到大对智能箱柜进行分层划分,每条直线代表智能箱柜的一条隔板,分别求每条横隔板直线的中心点和纵向隔板直线的中心点,建立整个智能箱柜的隔板在二维图像上的分区图。
进一步的,获得隔板在智能箱柜三维空间上的建模的方法为:
左视图集上直线群上的直线的像素值基于匹配窗口和综合互相关系数CNF,在右视图集上寻找与之匹配的像素点,通过左右视图对应的两个像素点位置和双目立体视觉测距公式对智能箱柜的横隔板和竖隔板进行建模,将二维图像中心点投射到三维坐标上,获取其深度图像的点的深度距离值。
进一步的,追踪用户手部的运动轨迹的方法为:
获取摄像头采集到待检测的图像,通过目标检测模型检测用户的手部信息和物体信息,从而对运动的物体进行检测,以及运动目标在每一帧待检测图像中的运动方向,接着,判定运动目标保持同一运动方向的连续M帧待检测图像,在M的取值达到预设的图像识别阈值时,确认用户手部的运动方向。
进一步的,获取物体放置的区域的方法为:
将能确认用户手部的运动方向对应的图像集名为A,找到双目摄像头另外一个摄像采集图像对应的图像集B,通过检测模型获取图像集A中手部信息的区域四个角点的坐标,根据相机内参的内参矩阵和外参矩阵,求得另外一个图像集B上对应手部信息的区域四个角点的坐标,基于双目视觉视距计算公式,求得用户手部信息的区域四个角点对应的世界坐标,对四个角点对应的世界坐标进行双线性插值,求得用户手部质心位置H(x,y,z);
手部质心运动轨迹中的手部质心位置H(x,y,z)满足智能箱柜建模得到的分区设定的深度范围时,则手部质心对应的位置为存取的隔板层数,从而实现物体存取位置的识别。
进一步的,建模好的智能箱体结合物体识别模型对物体进行识别的方法为:
通过跟踪用户手部的运动轨迹,从而确认用户的行为动作;
当判断用户的行为是放时,通过识别模型获取物体的特征,和判断出用户放置区域世界坐标,根据用户放置区域世界坐标所属于智能箱柜的某个分层和分区,将物体的特征放置到智能箱柜的分区所述的区域中;
当判断用户的行为是取时,通过识别模型中获取物体的特征,和判断用户取行为置区域世界坐标,根据用户取置区域世界坐标所属于智能箱体的分区,将物体的特征与所述该物体智能箱体的分区内的特征群进行匹配,判定物体的类别。
进一步的,建模好的智能箱体结合物体识别模型对物体进行分析的方法为:
对每个分层或分区的区域里面的物体进行类别聚类,每个大类里面的物体之间是不存在互斥性,而每个大类与大类之间存在互斥性,通过对每一个分区进行类别聚类,获取每一个分区的具体用途,从而进一步对智能箱柜分区进行归类。
原理说明:
1.使用深度相机对用户开、闭智能箱柜的行为进行视频采集,通过RGB双目视觉深度相机获取用户操作智能箱柜的行为图像。
2.对双目相机设备进行非线性标定,通过基于张正友标定法对两个相机模组进行标定,并对获取的两幅物体影像进行畸变校正,剔除影像中的径向畸变和切向畸变,完成对相机模组的标定并对结果进行最大似然估计。
3.对采集的左视图集进行下采样、降低图像处理的计算量,接着把图像灰度化和高斯平滑,去掉一些影响较大的噪声,通过二值化和图像梯度算子获取图像的边缘,然后进行霍夫直线变换对智能箱柜整体图像进行隔板检测,获取整个智能箱体的隔板信息群。
4.对霍夫变换取得的隔板直线群进行聚类、过滤、筛选、分类、排序,获得隔板在智能箱柜二维空间上的建模;
其中采用距离算法对隔板直线群进行聚类,过滤掉那些距离靠的过近的直线,保留最优的直线,对聚类后剩下的直线群分成两类横向直群群和竖向直线群,根据智能箱柜的构造原理和竖线条数进行横线群和竖线群进行排序、过滤和修正,求过滤后直线群的中心坐标,构建智能箱柜在二维坐标上的分区图。
5.依据左视图集检测出来的直线中心点在右视图中寻找与之匹配的中心点,利用双目立体视觉原理对检测出来的隔板进行投影建模,获取隔板之间的距离,得到每一个分区的深度信息;
以左视图集直线群中心周围相邻像素点的强度构成一个匹配窗口,匹配的窗口大小按照从小到大的顺序遍历,从左到右遍历右图像同一行所有的像素点,取同尺寸局部窗口内像素点的强度,通过互相关公式分别求取每个像素在不同匹配窗口下两个矩阵的互相关系数,获取其相应的匹配点;
基于左右图像两个匹配点的视差值,获得每个隔板中心点对应的三维坐标。
6.利用目标检测模型对采集的图像进行检测,对手部的运动位置进行获取,追踪用户手部的运动轨迹,根据双目立体视觉原理对手部质心位置进行建模,结合建模好的智能箱柜的各个分区,对手部位置进行判定,获取物体放置的区域。
7.物体识别模型结合用户本身的智能箱柜环境对物体进行识别和分析,通过用户行为的判定,当用户行为为放时,提取物体的特征入智能箱柜建模后的特征区域,当用户行为为取时,获取手质心在智能箱体的位置,读取智能箱体相应区域的特征,进行类别判定。
8.对智能箱柜每个区域的类别进行聚类,建立类别树型模型,分析类别与类别的相关程度,智能箱柜每个分区内避免互斥的大类的放置,分析用户放置分区类别的聚合程度,打造用户的行为习惯封闭环。
本发明的有益效果是:
基于霍夫直线变换对智能箱柜的隔板进行检测,双目视觉原理对智能箱柜进行独立建模,使每个用户的智能箱柜都有自己独特的分区存储环境,再通过检测模型得到用户存取的行为,对当前存取行为进行三维建模,获得用户存取物体的区域,结合物体的存取区域,物体识别模型对物体进行判别。其过程中减少物体匹配的次数,提高了物体识别的效率,减少了智能箱柜服务器的计算量,能对每个物体的录入过程进行分区,知道每个物体放置到箱柜的哪一个位置。物体识别的过程又结合了用户当前智能箱柜内部环境的先验知识,从而提高了物体录入效率、准确率,提升了用户体验的同时,降低了智能箱柜成本。
附图说明
图1 为本发明的流程示意图;
图2 为本发明实施例中采用的深度相机简图;
图3 为本发明实施例中采用的智能箱柜实际的分层图;
图4 为本发明实施例中智能箱柜经过霍夫检测和一系列后续处理的直线示意图;
图5 为本发明实施例中采用的双目立体视觉测距示意图;
图6 为本发明实施例中采用单应性变换示意图;
图7 为本发明实施例中采用的物体类别聚类图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。在下列段落中参照附图以举例方式更具体地描述本发明。根据下面说明,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
需要说明的是,当组件被称为“固定于”另一个组件,它可以直接在另一个组件上或者也可以存在居中的组件。当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。当一个组件被认为是“设置于”另一个组件,它可以是直接设置在另一个组件上或者可能同时存在居中组件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例
结合图1显示,一种识别物体放置于智能箱柜不同区域的方法,该生成方法包括以下步骤:
步骤1:使用深度相机对用户开、闭智能箱柜的行为进行视频采集。
普通相机常是指含有一个摄像头,又没有其他而外功能的相机。利用透镜成像的原理,来实现图像的成像,成像的图像上是没有物体离相机远近的信息的,对该设备产生的图像进行物体检测和语义分割进行算法解析只能获得物体与物体大概的距离,而且非常不准确。
为了能够实现对智能箱柜进行建模,实现从图像中获得物体离相机距离的信息,采用了深度相机。深度相机获取的图像能够对现实世界进行建模,通过深度相机获取的图像称之为深度图像。
深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离值作为像素值的图像,获取深度图像的方法可以分为两类:主动深度传感和被动测距传感。
主动测距传感最大的特征是,通过设备自己发送能量来完成深度信息的采集,常见的方法主要包括TOF(Time of Flight)、结构光、激光扫描等。
TOF相机是通过对目标场景发射连续的近红外脉冲,然后用传感器接收由物体反射回的光脉冲。通过比较发射光脉冲与经过物体反射的光脉冲的相位差,可以推算得到光脉冲之间的传输延迟而得到物体相对于发射器的距离,最终得到一副深度图像。TOF相机的深度图像有着分辨率低,设备要求高的缺点。
结构光相机将具有特定模式的光投射到场景上,并由图像传感器捕获带有结构光的图案,由于结构光的模式图案会因为物体的形状发生变形,因此通过模式图像在捕捉得到的图像中的位置以及形变程度利用三角原理计算即可得到场景中各点的深度信息。结构光技术成熟、消耗资源少,但容易受到环境光的影响。
被动测距传感中最常用的方法是双目立体视觉,该方法通过两个相隔一定距离的相机同时获取同一场景的两份图像,通过立体匹配算法找到两幅图像中对应的像素点,随后根据三角原理计算出视差信息,通过视差信息的转换可用于表达场景中物体的深度信息。其优点在于成本低、适用场景广、测量精度高,缺点也很明显,由于RGB双目相机严重依赖与双目图像的特征匹配,难以应用于缺乏纹理的场景和物体的测距。
本实例中,基于应用环境和数据的特点,采用了RGB双目视觉深度相机对用户的行为图像进行采集,且智能箱柜天然的隔板特征可以非常便于双目图像特征的匹配。如图2所示,RGB双目视觉深度相机有两个摄像头组成,一些场景下,可能相机上还有红外光源的发射装置,将一个摄像头改为红外摄像头,能采集红外图像,虚线为可选设备。
需要说明的是,RGB双目视觉深度相机可以通过组合两个单目相机或多个单目相机去实现本实例的功能。
需要说明的是,本实例只是类举了深度相机是RGB双目视觉深度相机。现实或在其他实例中,会有多个相同功能或不同功能的摄像头模组通过不同方式进行结合的情况,从而实现多种功能如红外图像显示、深度图像采集等等。而且摄像头模组放置的区域会根据项目或用户的需求多种多样,例如可能放置到智能箱柜内或左边、右边、下面、门架等情况,便于多角度、多层次,从不同智能箱柜层、分离或整合图像进行目标识别和分析。
在一些实施例中,图像采集装置可实施为结构光深度相机。
具体的,将深度相机放置到智能箱柜的顶部,当用户打开智能箱柜的门时,RGB双目视觉深度相机会自动启动,对用户的行为进行图像采集,深度相机的视角是可以调节的,主要采集智能箱柜的正面图像。本实例采用的深度相机能够对整个智能箱柜的构造进行采集,获取的图像会包括智能箱柜的上下内部结构图和左右冰箱开箱结构图。该实例采用的智能箱柜以单开门多分层的冰箱作为说明,该冰箱含有冷藏区、保鲜区、冷冻区、储物架等部位,如图3所示。
步骤2:对双目两个相机模组进行非线性标定,通过基于张正友标定法对两个相机模组进行标定,并对获取的两幅物体影像进行畸变校正,剔除影像中的径向畸变和切向畸变,完成对相机模组的标定并对结果进行最大似然估计。
具体的,在本方案中,双目相机标定内参矩阵和外参矩阵,计算过程为:
其中(X,Y,1)表示世界坐标,(x,y,1)表示相机像素坐标,H表示将世界坐标(X,Y,1) 转化为对应像素坐标(x,y,1)的单应性矩阵,R2×3表示旋转矩阵,t2×1表示平移矩阵,A表示相机坐标系转化为图像物理坐标系的内参矩阵。
进一步的,在本方案中,A表示相机坐标系转化为图像物理坐标系的内参矩阵,具体表示为:
单应性变换,反映的是从一个二维平面映射到三维空间,再从三维空间映射到另一个二维平面的过程。由于单应性变换能描述出两个坐标系之间的非线性变换,因此在图像拼接、图像校正、增强现实等领域中有着广泛运用。
单应性变换矩阵描述了世界坐标和对应像素坐标的映射关系;单应性变换示意图如附图图6所示。
X-Y-Z为三维空间坐标系,可理解为世界坐标系;x-y为像素平面空间坐标系;x°,y°为变换后平面坐标系。单应性变换可以描述为:x-y坐标系上的一点(x ,y),在X-Y-Z坐标系上对应一条经过原点和该点的直线l, 该直线与(x°,y°)坐标系平面相交于点(x°,y°),则从点(x ,y)到点(x°,y°)的过程称为单应性变换。
单应性变换的求解过程如下:
表达式中,h1~h9为单应性矩阵的9个变换参数;进而得x-y平面坐标系到x°,y°平面坐标系的映射关系为
H矩阵拥有9个变换参数,求解方法是给单应性矩阵H添加约束,令其模等于1,如下:
则待求解的方程为:
根据待求解方程存在8个自由度,正常条件下,使用四个坐标点构成的方程组,即可求解H矩阵。
H矩阵就是内参矩阵和外参矩阵的混合体,利用旋转矩阵的向量是正交阵的性质,根据两垂直平面上的旋转向量互相垂直和旋转向量长度相等的约束条件,和多张图像上对于的特征点,可以求出内参矩阵的参数,通过内参矩阵和外参矩阵、H矩阵之间对应关系,可以求得外参矩阵。
需要说明的是,本实例中,还考虑了透镜畸变的影响,加入了径向和切向畸变的参数,选择四个坐标求出的H矩阵的值作为初始值,然后通过Ehrenberg-Marquita(LM)算法进行迭代求解。
其中,Xj 为世界坐标系下三维空间点,其在图像坐标系上的投影为Xij,n,m分别是图像坐标系上x,y轴上各自的像素长度,A是相机的内参矩阵,Ri为旋转矩阵,ti为平移向量,k1,k2,k3为径向畸变,p1,p2为切向畸变参数,三维空间点经过相机内参A,外参Ri,ti变换后得到的二维像素为x°。
对两摄像头分别进行标定,获得相机内参:焦距、中心点在像素坐标系中的位置、径向畸变系数、切向畸变系数,从而使用单应性矩阵对双目摄像头所拍摄图像进行校正,获取左视图集、右视图集。
需要说明的是,在一些实例中,双目相机的内外参数已经进行了初始化,可直接获得其内参矩阵和外参矩阵,省略对相机模组标定的过程。
步骤3:使用霍夫直线变换对智能箱柜整体图像进行隔板检测,获取整个智能箱体的隔板信息。
步骤3.1:对RGB双目视觉深度相机左视图集进行下采样。
具体的,在本实例中采用双目摄像头的左视图集进行下采样,因为双目视觉深度相机的两个摄像头是采集同一场景不同角度的图像,对于本实例霍夫变换采用哪个摄像头采集到的图像进行检测都是一样的。其中,下采样的倍数是4,原相机设备采集的图像是高分辨率,而霍夫变换对图像的要求不高,通过下采样,能够降低图像处理的计算量。
步骤3.2:把下采样图像灰度化和降噪。
具体的,对下采样后的图像灰度化,霍夫变换变换对颜色不敏感,灰度化能够降低后续图像处理的计算量。然后通过高斯滤波,进行降噪,高斯滤波就是使用一个模板去扫描图像的每一个像素,用模板内领域像素的加权平均灰度值代替模板中心像素点的值,这里加权使用的是高斯核函数
其中*表示卷积操作,I为原图像,Iσ为高斯模糊后的图像,Gσ是标准差为σ的二维卷积核,定义为:
步骤3.3:对上述处理后的图像进行二值化,使用图像梯度算子获取二值化图像的边缘区域。
降噪的图像进行图像二值化处理,就是对将图像上的像素点的灰度值设置为0或255,将整个图像呈现出明显的黑白效果的过程,图像的二值化有利于图像的进一步处理,使图像变得简单,而且数据量减小,能凸显出感兴趣的目标的轮廓。
进一步的,使用Scharr算子对X和Y方向进行求导,求图像X和Y方向的梯度,
其中Gx和Gy分别是水平变化和竖直方向的算子。
把图像每一个像素求到的图像X和Y方向的梯度,取绝对值相加,获得图像的梯度,图像的梯度反应在二值化后的图像上就是图像的边缘。
步骤3.4:使用霍夫直线变换对边缘图像进行检测,得到图像上的隔板直线信息群。
霍夫变换是一个关于图像领域类的一个算法,被用来检测图像中的各类曲线,比如直线,圆,椭圆等等,简单来说就是把笛卡尔坐标系下的形状变换成霍夫空间的形状。
这里所用的霍夫变换中的直线检测。其中的思想是在笛卡尔原始坐标系下的一个点对应了霍夫参数空间坐标系中的一条直线,同样,参数空间坐标系的一条直线对应原始坐标系下的一个点,因为原始坐标系下直线上的所有点,其斜率和截距都是相同的,所有它们在参数坐标系下对应同一个点,这样将原始坐标下的所有点转换到参数坐标系下,看参数坐标下有没有聚集点,这样的聚集点就对应原始坐标系下的直线。
原笛卡尔原始坐标系上的直线用参数方程表示,
这样原图一个点就对应参数(ρ,θ)平面上的一条曲线。
将极坐标(ρ,θ)量化成有限个间隔框,根据原始坐标中每个点的坐标(x,y),在θ=0°-180°内以小格的步长计算各个ρ值,所得值落在某个小格内,便使该小格的累加计数器加1,当原始坐标中全部的点都变换后,对小格进行检验,计数值最大的小格,其(ρ,θ)值对应于原始坐标中所求的直线。
在一些实施例中,隔板的检测还可以通过深度学习模型进行,所述的深度学习模型以基于anchor的一阶段的YOLO系列网络模型,二阶段的基于anchor的Fast R-CNN网络模型,无anchor的FCOS网络模型等为主,本方案不做方法和模型方面的限制。
需要说明的是,在一些实施例中,用于隔板检测的深度学习模型可以和物品检测模块使用同一个模型,从而达到减低计算量、降低系统复杂度的目的。深度学习策略可以有效融合物品识别模型,并且隔板边缘的检出率较高。
步骤4:对霍夫变换取得的隔板直线群进行聚类、过滤、分类、排序、修正,获得隔板在智能箱柜二维空间上的建模。
具体的,智能箱柜在原始霍夫直线变换的检测下会出现较多的直线,通过就近原则对直线进行聚类,这里采用距离算法。获取每条直线在图像上起始点的坐标值和终点的坐标值,求该直线的中心点的坐标
根据三角公式分别求每条直线之间的距离,根据直线聚类函数,直线间的距离小于阈值的,选择最长的直线作为保留直线,其余的直线去掉,距离大于阈值的直线都进行保留。
当比对的直线群为横直线,取最长的横直线xmax,比对的直线群为竖直线,取最长的竖直线ymax,x/ymax为最长横直线和竖直线的长度公式。
如某个区域内三条竖直线靠的很近,只有一条直线是本实例需要的,第一、第二
条,第三条直线的中心分别为以某个中心为
基础点,两条直线的距离为 ,,说明三条直
线距离是很近的,通过只保留最长的直线
xmax。
对聚类后剩下的直线群分成两类,如果起始点的坐标值的纵坐标和终点的坐标值的纵坐标相差不过10,则该直线是横线,若起始点的坐标值的横坐标和终点的坐标值的横坐标相差不过10,则该直线是竖线,横线放置到横线群,竖线放置于竖线群中。
直线群分类的公式如下: 其中c 表示横线,r表示竖线 ,其他参数同上。
在本实例中,只需要在智能箱柜内隔板的信息,智能箱柜外检测出来的直线是不需要的。
对横线群根据线的长度进行排序和修正。
具体的,获得每条横隔板的长度,对隔板长度进行排序,获得最长的隔板的左右横坐标,根据最长的隔板的左右横坐标对每条横隔板的长度进行修正,让每条横隔板的长度保持在一样的长度。
横线群修正公式如下:
对竖线群根据智能箱柜的构造原理和竖线条数进行过滤和修正。
具体的,正常的智能箱柜的纵向隔板不会超过两个,所以经过霍夫直线检测出来的需求的竖向直线也不能超过三个(两边的直线和中心的直线)。
把横向直线群和竖向直线群,根据直线坐标在一张图像上从上到下增加的原则,混合在一起,使所有直线的纵坐标呈现从小到大,取在横线和横线之间的竖线进行分析。根据上述两条横线之间的竖向直线的数量不能超过三条的结论进行过滤,只保留最中间的直线作为最佳的竖线。
根据过滤后的竖向直线群,对竖向直线进行长度的修正,分别求该最佳竖向直线靠最近的两条横直线的纵坐标,与最佳竖向直线的起始点纵坐标值和终点纵坐标值进行对比,按照直线长度超过减少,不超过填补的原则,进行纵坐标的修正。
竖线群修正公式如下:
其中yUrxmax表示横线群的纵坐标,yUcymax表示竖线群的纵坐标,分别是
竖线离最近两条横线的纵坐标,表示原竖线的横坐标,将该最佳竖向直线的上
下纵坐标赋值为最近两条横线的纵坐标,原横坐标不变,从而获得修正后的竖向直线。
通过修正后的横向直线群和竖向直线群,从而对智能箱柜进行二维图像分区。
根据上述的一系列聚类、过滤、分类、修正原则,直线群里面都是代表性的直线,每条直线代表智能箱柜的一条隔板,如图4 所示,图4表示智能箱柜经过霍夫检测和一系列后处理得到的直线示例简图,为了便于分析和显示,没有使用实际智能箱柜经过霍夫检测后和一系列后处理得到的直线图。分别求每条横隔板直线的中心点和纵向隔板直线的中心点,建立整个智能箱柜的隔板在二维图像上的分区图。
直线群中心点公式如下:
根据检测到的直线按照直线的纵坐标从小到大对智能箱柜进行分层划分,如第一条横直线表示智能箱柜第一层的横向分隔板,注明其类型,第二条直线表示智能箱柜第二层的分隔板,以此往下类推,存在竖隔板的分割层,注明为竖向分隔板,如下表1。
表1 智能箱柜隔板二维建模
其中竖隔板的分区中心点坐标包含上层横直线的中心坐标和其竖向直线的中心坐标。
需要说明的是,构建智能箱柜分区图时还需要设置个剩余层,用于存放储物架和未能检测到隔板分区的层,因为霍夫变换很多时候检测不到背景纹理相差过小的背景区域,刚好很多时候储物架属于这部分,所以储物架上的物体和未能检测到的隔板都归于一个层内。
可选的,隔板检测还可以通过分析隔板边缘的颜色、结构和纹理,进行基于图像模板方法检测出隔板的边缘信息,用于隔板直线的聚类、过滤等操作。
步骤5:依据左视图集检测出来的直线中心点在右视图中寻找与之匹配的中心点,利用双目立体视觉原理对检测出来的隔板进行投影建模,获取隔板之间的距离,得到每一个分区的深度信息。
记左视图集上直线群的某条直线中心像素点记为,由于经过了极
线矫正,则可以在右视图集同一行中搜索匹配点,记为。取以为中心周围相邻像素点的强度构成一个匹配窗口,匹配的窗口大小按照从
小到大的顺序遍历,窗口尺寸记为 window_size(n)。然后从左到右遍历右图像同一行所有
的像素点,取同尺寸局部窗口内像素点的强度,通过公式分别求取每个像素在不同匹配窗
口下两个矩阵的互相关系数C(n), 具体的公式表示为:
对于右视图集水平极线上的每个像素点,综合不同匹配窗口计算得到的互相关系
数C(n),以窗口大小倒数作加权公式表示每个像素点的综合互相关系数CNF,当CNF最大时
对应的像素点即为 的像素匹配点,CNF的具体公式表
示为:
其中 C(n)表示不同匹配窗口的互相关系数,v表示不同匹配窗口的窗口尺寸,N表示使用的匹配窗口数。
经过左右视图的匹配后,获得本实例每个隔板在左右视图的中心坐标
其中左边为左视图直线中心点坐标,右边为右视图直线中心点坐标。
双目立体视觉就是基于视差原理利用两台成像设备,同一时刻采集同一场景两张图像,同一个像素点之间互相匹配,求得相同像素的差异,通过三角形法则求得深度值。
通过测距公式如图5所示:P点(x,y,z)是待计算深度的目标,Pl 、Pr 分别为左右两幅图像对应的两点,fl 、fr 分别为左右两幅图像对应点到镜头的距离,Xl 、Yl分别是P在左图像上的位置,Xr 、Yr别是P在右图像上的位置,b为两摄像头之间的距离也就是基线,通过基线和两幅图像的视觉差,可求得物体离相机的距离。
三维建模的测距公式如下:
求出左视图集检测出来的直线中心点在右视图集上对应的中心点的位置,根据测距公式,可对智能箱柜的横隔板和竖隔板进行建模,将二维图像中心点投射到三维坐标上,获取其深度图像的点的深度距离值,获取隔板之间的间距和每一层的长度,如下表2。
表2 智能箱柜隔板三维建模
其中隔板范围的纵向隔板中会有两个值,分别表示隔板左区域和右区域,距离是基于隔板距离的建模公式获得。
隔板距离的建模公式:
其中隔板包含该隔板中心点的三维坐标,i表示隔板的层数,r
表示该隔板为横隔板,c表示隔板为竖隔板,表示该隔板的深度距离,只要深度值在某个隔
板的范围内,它就属于该智能箱柜的某一层,横向隔板只需要确认所属的隔板层的中心坐
标即可,竖向隔板需要该层对应的横向隔板和竖向隔板共同确认分区,如第五层,距离确认隔板所属的分层,确认隔板分层所属的分区。
根据上述的列表,对智能箱柜进行三维上的建模,为每个智能箱柜保存其建模后的分层和分区结构作为初始值。
步骤6:利用目标检测模型对采集的图像进行检测,对手部的运动位置进行获取,追踪用户手部的运动轨迹,结合建模好的智能箱柜,获取物体放置的区域。
获取摄像头采集到待检测的图像,通过目标检测模型检测用户的手部信息和物体信息,从而对运动的物体进行检测,以及运动目标在每一帧待检测图像中的运动方向,接着,判定运动目标保持同一运动方向的连续M帧待检测图像,在M的取值达到预设的图像识别阈值时,确认用户手部的运动方向。
将能确认用户手部的运动方向对应的图像集名为A,找到双目摄像头另外一个摄像采集图像对应的图像集B,通过检测模型获取图像集A中手部信息的区域四个角点的坐标,根据上述步骤2求得双目摄像头的内参矩阵和外参矩阵,求得另外一个图像集B上对应手部信息的区域四个角点的坐标,基于双目视觉视距计算公式,求得用户手部信息的区域四个角点对应的世界坐标,对四个角点对应的世界坐标进行双线性插值,求得用户手部质心位置H(x,y,z)。
手部质心运动轨迹中的手部质心位置H(x,y,z)满足上述实例智能箱柜建模的到的分区设定的深度范围时,则手部质心对应的位置为存取的隔板层数,从而实现物体存取位置的识别。
物体存放位置公式:
上述公式表示选取与手部质心位置最小的隔板的长度所属的分层或分区作为物体存取位置,Li为隔板距离,H(y,z)或H(z)为手部质心位置的三维坐标。
例如,如果Li1<H(x,y,z)<d21,则手部质心的位置识别结果为第二层。
如果min(L5-H(z)),且min(L5-H(y)),则手部质心的位置识别结果为第五层,用户将物体存放在智能箱柜的第五层第一个分区。
需要说明的是,通过设备得到的图像很多时候都是对本实例需求无用信息,且如果在这阶段进行图像匹配会浪费大量的计算力,达不到实时的效果,所以输入目标检测模型都是双目摄像头某个摄像头采集的图像,另外摄像头采集的图像只作为手部建模的时候用。
步骤7:利用建模好的智能箱体结合物体识别模型对物体进行识别和分析。
利用建模好的智能箱体的各个分区和已经得到物体所在的位置,调用物体识别模型进行分区识别。在上述检测模型中获取物体,传入物体识别模型,提取的特征会放置在建模好的智能箱体的分区中。
通过上述步骤6跟踪用户手部的运动轨迹,从而确认用户的行为动作。
当上述动作判断用户的行为是放时,通过识别模型获取物体的特征,和判断出用户放置区域世界坐标,根据用户放置区域世界坐标所属于智能箱柜的某个分层和分区,将物体的特征放置到智能箱柜的分区所述的区域中。
当上述动作判断用户的行为是取时,通过识别模型中获取物体的特征,和判断用户取行为置区域世界坐标,根据用户取置区域世界坐标所属于智能箱体的分区,将物体的特征与所述该物体智能箱体的分区内的特征群进行匹配,判定物体的类别。
对每个分区的物体进行分析,聚类,获取用户的行为习惯,通过对每个分区物体的归类,得到该用户是否将某些不能放置在一起的物品都放置到智能箱柜的同一个分层或分区内。
对每个分层或分区的区域里面的物体进行类别聚类,如图7所示,类和类之间是树型结构,在同一子树下的物体是属于一个大类的,每个大类下面存在较多的小类,每个大类里面的物体之间是不存在互斥性,这里的互斥性是指可以放置在智能箱柜的同一个分层或分区内,而每个大类与大类之间是互斥性的,也就是每个大类里面的物体都不能和别的大类里面的物体放置在智能箱柜的同一个分层或分区内。
如:某个分区中放置了苹果、香蕉、梨、鱼。通过对类别进行聚类,果、香蕉、梨为水果类,而鱼为肉类,这两者是不适合放置在一起的,这时会通过客户端或智能设备提醒用户,更换存储区域。
通过对每一个分区进行类别聚类,获取每一个分区的具体用途,从而进一步对智能箱柜分区进行归类。
如:第一个分区放置了苹果、香蕉、梨,第二个分区放置牛奶、调味品,第三个分区放置鱼、牛肉,可通过对每个分区类别进行归类得到第一个分区是水果类,第二个分区是饮品、干货类、第三个分区为肉类,可获取第一个分区是保鲜区、第二个分区是冷藏区,第三个分区是冷冻区。
本发明的有益效果是:
基于霍夫直线对智能箱柜的隔板进行检测,双目视觉原理对智能箱柜进行独立建模,使每个用户的智能箱柜都有自己独特的分区存储环境,对当前存取行为进行三维建模,获得用户存取物体的区域,结合物体的存取区域,物体识别模型对物体进行判别。其过程中减少物体匹配的次数,提高了物体识别的效率,减少了智能箱柜服务器的计算量,能对每个物体的录入过程进行分区。
本发明的上述实施例并不是对本发明保护范围的限定,本发明的实施方式不限于此,凡此种种根据本发明的上述内容,按照本领域的普通技术知识和惯用手段,在不脱离本发明上述基本技术思想前提下,对本发明上述结构做出的其它多种形式的修改、替换或变更,均应落在本发明的保护范围之内。
Claims (10)
1.一种识别物体放置于智能箱柜不同区域的方法,其特征在于,该方法包括:
使用深度相机模组对用户开、闭智能箱柜的行为进行视频采集,获取深度图像;
对深度相机模组进行非线性标定,获得相机内参,并对获取的深度图像进行畸变校正,获取视图集,该视图集包括左视图集和右视图集;
基于视图集进行整个智能箱体的隔板信息获取,得到隔板直线信息群;
对隔板直线信息群进行聚类、过滤、筛选、分类、排序,获得隔板在智能箱柜二维空间上的建模;
依据左视图集检测出来的直线中心点在右视图集中寻找与之匹配的中心点,对检测出来的隔板进行三维投影建模,获取隔板之间的距离,得到每一个分区的深度信息;
利用目标检测模型对采集的图像进行检测,对手部的运动位置进行获取,追踪用户手部的运动轨迹,结合建模好的智能箱柜,获取物体放置的区域;
利用建模好的智能箱体结合物体识别模型对物体进行识别和分析。
2.根据权利要求1所述的识别物体放置于智能箱柜不同区域的方法,其特征在于:所述的深度相机模组为RGB双目视觉深度相机或两个单目相机,RGB双目视觉深度相机包括有两个摄像头。
3.根据权利要求1所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,对深度相机模组进行非线性标定的方法为:通过张正友标定法对深度相机模组进行标定,获得相机焦距、中心点在像素坐标系中的位置、径向畸变系数、切向畸变系数,并剔除影像中的径向畸变和切向畸变。
4.根据权利要求1或3所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,隔板信息获取的方法为:对左视图集进行下采样,把下采样图像灰度化和降噪,对处理后的图像进行二值化,使用图像梯度算子获取二值化图像的边缘区域,使用霍夫直线变换对边缘图像进行检测,得到图像上的隔板直线信息群。
5.根据权利要求1所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,对隔板直线信息群进行聚类、过滤、筛选、分类、排序的方法为:
通过就近原则对霍夫直线变换的检测下出现的多根直线进行聚类,根据三角公式分别求每条直线之间的距离,根据直线聚类函数,直线间的距离小于阈值的,选择最长的直线作为保留直线,其余的直线去掉,距离大于阈值的直线都进行保留,将聚类后剩下的直线群分为横向直线群和竖向直线群两类;
对横向直线群根据线的长度进行排序和修正,获得每条横隔板的长度,对隔板长度进行排序,获得最长的隔板的左右横坐标,根据最长的隔板的左右横坐标对每条横隔板的长度进行修正,让每条横隔板的长度保持在一样的长度;
对竖向直线群根据智能箱柜的构造原理和竖线条数进行过滤和修正;
把横向直线群和竖向直线群,根据直线坐标在一张图像上从上到下增加的原则,混合在一起,使所有直线的纵坐标呈现从小到大,取在横线和横线之间的竖线进行分析,只保留最中间的直线作为最佳的竖线;
根据过滤后的竖向直线群,对竖向直线进行长度的修正,分别求最佳竖向直线靠最近的两条横直线的纵坐标,与最佳竖向直线的起始点纵坐标值和终点纵坐标值进行对比,按照直线长度超过减少,不超过填补的原则,进行纵坐标的修正;
通过修正后的横向直线群和竖向直线群,从而对智能箱柜进行二维图像分区。
6.根据权利要求5所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,获得隔板在智能箱柜二维空间上的建模的方法为:
检测过滤、筛选处理后直线群里的所有直线,根据检测到的直线按照直线的纵坐标从小到大对智能箱柜进行分层划分,每条直线代表智能箱柜的一条隔板,分别求每条横隔板直线的中心点和纵向隔板直线的中心点,建立整个智能箱柜的隔板在二维图像上的分区图。
7.根据权利要求6所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,获得隔板在智能箱柜三维空间上的建模的方法为:
左视图集上直线群上的直线的像素值基于匹配窗口和综合互相关系数CNF,在右视图集上寻找与之匹配的像素点,通过左右视图对应的两个像素点位置和双目立体视觉测距公式对智能箱柜的横隔板和竖隔板进行建模,将二维图像中心点投射到三维坐标上,获取其深度图像的点的深度距离值。
8.根据权利要求1所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,追踪用户手部的运动轨迹的方法为:
获取摄像头采集到待检测的图像,通过目标检测模型检测用户的手部信息和物体信息,从而对运动的物体进行检测,以及运动目标在每一帧待检测图像中的运动方向,接着,判定运动目标保持同一运动方向的连续M帧待检测图像,在M的取值达到预设的图像识别阈值时,确认用户手部的运动方向。
9.根据权利要求8所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,获取物体放置的区域的方法为:
将能确认用户手部的运动方向对应的图像集命名为A,找到双目摄像头另外一个摄像采集图像对应的图像集B,通过检测模型获取图像集A中手部信息的区域四个角点的坐标,根据相机内参的内参矩阵和外参矩阵,求得另外一个图像集B上对应手部信息的区域四个角点的坐标,基于双目视觉视距计算公式,求得用户手部信息的区域四个角点对应的世界坐标,对四个角点对应的世界坐标进行双线性插值,求得用户手部质心位置H(x,y,z);
手部质心运动轨迹中的手部质心位置H(x,y,z)满足智能箱柜建模得到的分区设定的深度范围时,则手部质心对应的位置为存取的隔板层数,从而实现物体存取位置的识别。
10.根据权利要求5-9中任一项所述的识别物体放置于智能箱柜不同区域的方法,其特征在于,建模好的智能箱体结合物体识别模型对物体进行识别的方法为:
通过跟踪用户手部的运动轨迹,从而确认用户的行为动作;
当判断用户的行为是放时,通过识别模型获取物体的特征,和判断出用户放置区域世界坐标,根据用户放置区域世界坐标所属于智能箱柜的某个分层和分区,将物体的特征放置到智能箱柜的分区所述的区域中;
当判断用户的行为是取时,通过识别模型中获取物体的特征,和判断用户取置区域世界坐标,根据用户取置区域世界坐标所属于智能箱体的分区,将物体的特征与该物体智能箱体的分区内的特征群进行匹配,判定物体的类别;
建模好的智能箱体结合物体识别模型对物体进行分析的方法为:
对每个分层或分区的区域里面的物体进行类别聚类,每个大类里面的物体之间是不存在互斥性,而每个大类与大类之间存在互斥性,通过对每一个分区进行类别聚类,获取每一个分区的具体用途,从而进一步对智能箱柜分区进行归类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111516051.6A CN113947770B (zh) | 2021-12-13 | 2021-12-13 | 一种识别物体放置于智能箱柜不同区域的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111516051.6A CN113947770B (zh) | 2021-12-13 | 2021-12-13 | 一种识别物体放置于智能箱柜不同区域的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113947770A CN113947770A (zh) | 2022-01-18 |
CN113947770B true CN113947770B (zh) | 2022-03-08 |
Family
ID=79339155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111516051.6A Active CN113947770B (zh) | 2021-12-13 | 2021-12-13 | 一种识别物体放置于智能箱柜不同区域的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113947770B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115482533B (zh) * | 2022-09-19 | 2023-06-16 | 北京百度网讯科技有限公司 | 陈列柜的拆分方法、装置、电子设备及存储介质 |
CN117173239B (zh) * | 2023-11-02 | 2024-04-02 | 深圳市金大智能创新科技有限公司 | 一种智能设备物品记录寻找的控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194105A (zh) * | 2010-03-19 | 2011-09-21 | 微软公司 | 用于人体跟踪的代表训练数据 |
CN107134008A (zh) * | 2017-05-10 | 2017-09-05 | 广东技术师范学院 | 一种基于三维重建下的动态物体识别的方法及系统 |
CN110796051A (zh) * | 2019-10-19 | 2020-02-14 | 北京工业大学 | 基于货柜场景下的实时存取行为检测方法和系统 |
WO2020060380A1 (en) * | 2018-09-18 | 2020-03-26 | Samsung Electronics Co., Ltd. | Refrigerator and method of controlling thereof |
WO2020237190A1 (en) * | 2019-05-22 | 2020-11-26 | Prokits Sourcing Inc. | Inventory management system |
WO2021068799A1 (en) * | 2019-10-07 | 2021-04-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Occlusion and collision detection for augmented reality applications |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10380546B2 (en) * | 2015-10-08 | 2019-08-13 | Shenzhen Wale Intelligent Systems Limited | Intelligent display and self-serve experience system and method |
KR20210134092A (ko) * | 2019-03-29 | 2021-11-09 | 엘지전자 주식회사 | 냉장고 및 냉장고의 물품 관리 방법 |
-
2021
- 2021-12-13 CN CN202111516051.6A patent/CN113947770B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194105A (zh) * | 2010-03-19 | 2011-09-21 | 微软公司 | 用于人体跟踪的代表训练数据 |
CN107134008A (zh) * | 2017-05-10 | 2017-09-05 | 广东技术师范学院 | 一种基于三维重建下的动态物体识别的方法及系统 |
WO2020060380A1 (en) * | 2018-09-18 | 2020-03-26 | Samsung Electronics Co., Ltd. | Refrigerator and method of controlling thereof |
WO2020237190A1 (en) * | 2019-05-22 | 2020-11-26 | Prokits Sourcing Inc. | Inventory management system |
WO2021068799A1 (en) * | 2019-10-07 | 2021-04-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Occlusion and collision detection for augmented reality applications |
CN110796051A (zh) * | 2019-10-19 | 2020-02-14 | 北京工业大学 | 基于货柜场景下的实时存取行为检测方法和系统 |
Non-Patent Citations (1)
Title |
---|
三维化工厂协同设计系统;刘军华;《化工管理》;20161031(第30期);第66-67页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113947770A (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bao et al. | Semantic structure from motion | |
Lai et al. | RGB-D object recognition: Features, algorithms, and a large scale benchmark | |
CN113947770B (zh) | 一种识别物体放置于智能箱柜不同区域的方法 | |
US10558844B2 (en) | Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification | |
CN108875542B (zh) | 一种人脸识别方法、装置、系统及计算机存储介质 | |
CN110297232A (zh) | 基于计算机视觉的单目测距方法、装置及电子设备 | |
CN109035330A (zh) | 箱体拟合方法、设备和计算机可读存储介质 | |
CN107784663A (zh) | 基于深度信息的相关滤波跟踪方法及装置 | |
CN105844661B (zh) | 快速且稳健的相机位置排序方法 | |
CN108229416A (zh) | 基于语义分割技术的机器人slam方法 | |
Jiang et al. | Multi-class fruit classification using RGB-D data for indoor robots | |
Pahwa et al. | Locating 3D object proposals: A depth-based online approach | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN112651994A (zh) | 地面多目标跟踪方法 | |
Diamantas et al. | Depth estimation in still images and videos using a motionless monocular camera | |
CN116823816B (zh) | 一种基于安防监控静态存储器的检测设备及检测方法 | |
Liu et al. | Deep learning of directional truncated signed distance function for robust 3D object recognition | |
Czúni et al. | View centered video-based object recognition for lightweight devices | |
Meng et al. | Picpose: Using picture posing for localization service on iot devices | |
Le et al. | Geometry-Based 3D Object Fitting and Localizing in Grasping Aid for Visually Impaired | |
CN117557599B (zh) | 一种3d运动物体追踪方法及系统、存储介质 | |
CN115965749B (zh) | 一种基于雷视融合的三维重建设备 | |
CN110232353B (zh) | 一种获取场景人员深度位置的方法和装置 | |
Klimentjew et al. | Towards scene analysis based on multi-sensor fusion, active perception and mixed reality in mobile robotics | |
Broad et al. | Geometry-based region proposals for real-time robot detection of tabletop objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |