CN108415260A - 一种智能家居服务机器人 - Google Patents
一种智能家居服务机器人 Download PDFInfo
- Publication number
- CN108415260A CN108415260A CN201810138531.5A CN201810138531A CN108415260A CN 108415260 A CN108415260 A CN 108415260A CN 201810138531 A CN201810138531 A CN 201810138531A CN 108415260 A CN108415260 A CN 108415260A
- Authority
- CN
- China
- Prior art keywords
- gesture
- region
- indicate
- conspicuousness
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
- G05B19/4183—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/26—Pc applications
- G05B2219/2642—Domotique, domestic, home control, automation, smart house
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
本发明提供一种智能家居服务机器人,包括:至少一个传感器,用于监测家庭中的家庭环境参数;显示屏,与传感器连接,用于显示家庭环境参数;指令接收器,用于接收用户指令;中央处理器,用于根据用户指令或家庭环境参数生成家用电器控制指令;指令发送器,与至少一个家用电器无线连接,用于向家用电器发送相应的控制指令。本发明通过指令发送器向不同类型的家用电器发送控制指令,适应性强,集成度高,能够方便用户控制不同家用电器。
Description
技术领域
本发明涉及智能家居技术领域,特别是一种智能家居服务机器人。
背景技术
随着科技发展和社会进步,人们家里的家用电器越来越多,而且家用电器的功能也覆盖越来越多的方面,但是,传统对家用电器的控制都是通过家用电器专属的遥控器进行控制,每个家用电器都对应一个遥控器,随着智能家居中家用电器的种类越来越多,导致遥控器的数量也越来越多,从而带来管理困难的问题。
发明内容
针对上述问题,本发明旨在提供一种智能家居服务机器人。
本发明的目的采用以下技术方案来实现:
一种智能家居服务机器人,包括:
至少一个传感器,用于监测家庭中的家庭环境参数;
显示屏,与传感器连接,用于显示家庭环境参数;
指令接收器,用于接收用户指令;
中央处理器,用于根据用户指令或家庭环境参数生成家用电器控制指令;
指令发送器,与至少一个家用电器无线连接,用于向家用电器发送相应的控制指令。
优选地,还包括巡逻装置,用于生成移动路线,并根据移动路线在家庭中移动。
优选地,传感器包括温度传感器、湿度传感器、安防传感器、空气质量传感器中的一种或多种,家用电器包括空调、除湿器、加湿器、安防处理器、空气净化器中的一种或多种。
本发明的有益效果为:本申请智能家居服务机器人,适应家中不同类型的家用电器,通过指令发送器向不同类型的家用电器发送控制指令,适应性强,集成度高,能够方便用户控制不同家用电器;同时,机器人中设置不同的传感器,能够智能监测家居的各种状态参数,智能化地控制不同家用电器调节家居环境,智能化强,能够智能化调节家居环境状况,提高家居舒适度。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1为本发明的框架结构图;
图2为本发明传感器的框架结构图;
图3为本发明一种实施例的框架结构图。
附图标记:
传感器1、显示屏2、指令接收器3、中央处理器4、指令发送器5、巡逻装置6、温度传感器10、湿度传感器11、安防传感器12、空气质量传感器13、手势摄像头31、手势识别模块40、预处理单元401、手势检测单元402、特征提取单元403、手势识别单元404
具体实施方式
结合以下应用场景对本发明作进一步描述。
参见图1,一种智能家居服务机器人,包括:
至少一个传感器1,用于监测家庭中的家庭环境参数;
显示屏2,与传感器1连接,用于显示家庭环境参数;
指令接收器3,用于接收用户指令;
中央处理器4,用于根据用户指令或家庭环境参数生成家用电器控制指令;
指令发送器5,与至少一个家用电器无线连接,用于向家用电器发送相应的控制指令。
优选地,还包括巡逻装置6,用于生成移动路线,并根据移动路线在家庭中移动。
优选地,参见图2,传感器1包括温度传感器10、湿度传感器11、安防传感器12、空气质量传感器13中的一种或多种,家用电器包括空调、除湿器、加湿器、安防处理器、空气净化器中的一种或多种。
本发明上述实施例,通过指令发送器向不同类型的家用电器发送控制指令,适应性强,集成度高,能够方便用户控制不同家用电器;同时,机器人中设置不同的传感器,能够智能监测家居的各种状态参数,智能化地控制不同家用电器调节家居环境,智能化强,能够智能化调节家居环境状况,提高家居舒适度。
优选地,参见图3,指令接收器3包括手势摄像头31,用于采集用户手势图像,并传输到中央处理器4。
优选地,中央处理器4包括手势识别模块40,用于识别用户手势图像,并生成相应的控制指令。
优选地,手势识别模块40具体包括:
预处理单元401,用于对用户手势图像进行预处理,获取预处理后的手势图像;
手势检测单元402,用于对预处理后的手势图像进行手势检测处理,确认手势部分;
特征提取单元403,用于对手势部分进行特征提取,获取手势特征;
手势识别单元404,用于对手势特征进行手势识别处理,并根据识别结果匹配相应的控制指令。
本优选实施例,在智能家居服务机器人设置手势摄像头和识别模块,能够获取用户的手势图像进行手势识别;通过在中央处理器中预先设置不同的手势代表不同的控制指令,然后通过手势摄像头获取用户手势,对手势进行特征提取和手势识别处理,匹配与手势相对应的控制指令,并且通过指令发送器发送到相应的家用电器,实现用户通过手势实现对机器人的控制,方便快捷,大大地降低通过机器人控制不同家用电器的复杂度,特别适用于家中的老人和儿童等。
优选地,手势检测单元402,具体包括:
(1)将预处理后的手势图像I分割为N个图像区域{Ri}i=1,2,…,N;
(2)分别根据图像I的颜色特征和纹理特征获取图像I的颜色特征图像fYS和纹理特征图像fWL;
(3)分别获取区域Ri的颜色全局区域对比度和纹理全局区域对比度,其中采用的函数为:
式中,Cgc_YS(Ri)和Cgc_WL(Ri)分别表示区域Ri的颜色全局区域对比度和纹理全局区域对比度,w(Ri,Rj)表示全局控制因子,其中w(Ri,Rj)=1+{-d(Ri,Rj)},d(Ri,Rj)表示区域Ri和区域Rj的欧氏距离,和分别表示区域Ri和区域Rj的颜色特征,和分别表示区域Ri和区域Rj的纹理特征,
(4)分别获取区域Ri的颜色背景对比度和纹理背景对比度,其中采用的函数为:
式中,Cbc_YS(Ri)和Cbc_WL(Ri)分别表示区域Ri的颜色背景对比度和纹理背景对比度,Bj表示图像I的上、下、左和右边界区域,和分别表示区域Bj的颜色和纹理特征;
(5)获取区域Ri的中心先验,其中采用的函数为:
式中,Ccb(Ri)表示区域Ri的中心先验,表示区域Ri的坐标,xI_center表示图像I中心的坐标;
(6)分别获取区域Ri的颜色区域级别显著性和纹理区域级别显著性,其中采用的函数为:
Sr_YS(Ri)=Cgc_YS(Ri)*Cbc_YS(Ri)*Ccb(Ri)
Sr_WL(Ri)=Cgc_WL(Ri)*Cbc_WL(Ri)*Ccb(Ri)
式中,Sr_YS(Ri)和Sr_WL(Ri)分别表示区域Ri的颜色区域级别显著性和纹理区域级别显著性;
(7)分别获取区域Ri的颜色特征和纹理特征的显著性,其中采用的函数为:
其中,j∈Ri,Rik∈N(Ri),
式中,和分别表示区域Ri的颜色特征和纹理特征的显著性,N(Ri)表示区域Ri的所有相邻区域的集合,K=|N(Ri)|,表示Ri第k个相邻区域Rik的中心坐标,表示像素点j和区域Rik中心坐标之间的距离;
(8)获取图像I的颜色和纹理特征的显著性,其中采用的函数为:
式中,SYS和SWL分别表示图像I的颜色和纹理特征的显著性;
(9)获取显著性区域中心先验后关于颜色和纹理特征的单尺度显著性,其中采用的函数为:
Sss_YS(k)=Wsc(k)SYS(k)
Sss_WL(k)=Wsc(k)SWL(k)
其中,
式中,xk表示像素点k的坐标,xs_center表示显著性区域中心的坐标,Sss_YS(k)表示在SYS(k)中融入了显著性区域中心先验后关于颜色特征的单尺度显著性,Sss_WL(k)表示在SWL(k)中融入了显著性区域中心先验后关于纹理特征的单尺度显著性;
(10)获取多尺度颜色显著性和多尺度纹理显著性,其中采用的函数为:
式中,Sms_YS(i)和Sms_WL(i)分别为多尺度颜色显著性和多尺度纹理显著性,Sss_YS_r和Sss_WL_r分别表示第r个尺度的单尺度颜色显著性和单尺度纹理显著性,IE(Sss_YS_r)表示第r层显著性图像的信息熵,其中H表示显著性图像的大小,pr(i)表示第r层显著性图像中像素点i的概率分布,其中,该多尺度显著性图像通过采用高斯金字塔构建;
(11)获取多特征多尺度全局区域对比度显著性,其中采用的函数为:
Smsmf=Sms_YS*Sms_WL
式中,Smsmf表示图像的多特征多尺度全局区域对比度显著性。
(12)根据最终显著性图像进行自适应分割,检测图像中的手势,并确定图像I中的手势部分。
本优选实施例,在手势检测单元中对手势图像中的手势部分进行检测,首先采用上述的方法获取手势的显著性图,然后根据显著性图进行自适应阈值分割,检测图像中的手势,确定手势部分;其中采用上述方法获取手势图像的显著性图,同时融合了颜色和纹理特征,能够避免现有技术中仅仅才用单特征显著性图的局限性,提高了显著性图对手势描述的精确度,也提高了手势部分的检测精度,为之后模块对手势的识别奠定了基础。
优选地,在根据最终显著性图像进行自适应分割之前,根据最终显著性图像对手势图像进行滤波处理,去除图像中的非显著性区域,具体包括:
根据最终显著性图像对手势图像进行滤波处理,其中采用的滤波函数为:
其中,
式中,g(i,j)表示滤波处理后的手势像素点(i,j)的灰度值,f(k,l)表示像素点(k,l)的灰度值,其中(k,l)是以像素点(i,j)为中心的边长为2p+1的矩形区域内的任意一个像素点,w(i,j,k,l)表示权重系数,σd和σr分别表示定义域核和值域核的内核因子,s(i,j)和s(k,l)分别表示在最终显著性图中像素点(i,j)和(k,l)的显著性值,其中显著性值经过归一化处理,s(i,j)∈[0,1]。
然后再采用自适应分割,检测图像中的手势,并确定图像中的手势部分。
本优选实施例,采用上述方法根据显著性图像对手势图像进行滤波处理,能够根据图像的显著性特性,去除图像中的非显著性区域,同时最大限度的保留手势对应的显著性区域,提高了手势部分检测,为之后对手势部分的确认奠定了基础,
优选地,手势识别单元404,用于对手势特征进行手势识别处理,并根据识别结果匹配相应的控制指令,具体包括:
采用稀疏表示的手势识别算法对手势特征进行手势识别处理,并根据识别结果匹配相应的控制指令;
其中,在采用稀疏表示的手势识别算法进行手势识别之前,需要构建手势字典,供在采用稀疏表示的手势识别算法时,对获取的手势特征求解获取稀疏系数,并对稀疏系数进行重构识别手势,其中手势字典的构建算法为:
初始化阶段:获取手势训练样本特征矩阵Y={y1,y2,…,yN},设定最大迭代次数Vmax,稀疏度为T0,训练样本特征维数m,即yi∈Rm,其中N表示手势训练样本的数目,Rm表示手势训练样本特征的特征尺寸为m;
(1)随机选择K个训练样本初始化稀疏字典矩阵D(0),D(0)∈Rm×K,并对矩阵各列进行l2归一化,j=1,其中D=[d1,d2,…,dK]表示稀疏字典,其中K表示稀疏字典中字典元的数目,Rm×K表示稀疏字典矩阵D(0)的特征尺寸为m×K;
(2)稀疏编码阶段:采用追踪算法计算每个训练样本yi的稀疏表示向量xi,其中采用的函数为:
其中||xi||0≤T0,i=1,2,…,N,
式中,D表示稀疏字典矩阵,yi表示第i个手势训练样本特征,N表示手势训练样本的数目,T0表示稀疏度;
(3)码本更新阶段:更新D(j-1)中的每一列dk,k=1,2,…,K,具体包括:
(31)定义使用了第k个字典原子的样本序号集合即向量矩阵X第k行中不为0的元素所在的列;
(32)计算整体的表示误差:其中dj表示稀疏字典D中的第j列,表示稀疏向量矩阵X中的第j行;
(33)从表示误差Ek中选择集合ωk中序号对应的列构成误差矩阵
(34)对误差矩阵进行SVD分解,即选择U的第1列作为更新后的字典列将稀疏向量更新为V的第1列和Δ(1,1)的乘积;
(35)更新迭代次数j=j+1;
重复步骤(3),当达到最大迭代次数Vmax时,输出稀疏字典
本优选实施例,首先提取手势类型已知的手势图像的特征进行训练,构建手势字典,然后提取获取的手势图像的特征,然后采用手势字典中的训练手势图像集合的线性组合表示获取的手势图像,计算获取的手势图像对应的最稀疏线组合稀疏解,选择最小特征误差对应的手势类型作为获取手势图像的识别结果;其中,采用上述的方法构建手势字典,能够很好地对训练手势进行分类,有效地降低冗余性,全面刻画训练手势的数据特征,间接提高之后根据手势字典的稀疏表示手势识别的性能,提高手势识别的准确度。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当分析,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。
Claims (8)
1.一种智能家居服务机器人,其特征在于,包括:
至少一个传感器,用于监测家庭中的家庭环境参数;
显示屏,与所述传感器连接,用于显示所述家庭环境参数;
指令接收器,用于接收用户指令;
中央处理器,用于根据用户指令或所述家庭环境参数生成家用电器控制指令;
指令发送器,与至少一个家用电器无线连接,用于向家用电器发送相应的控制指令。
2.根据权利要求1所述的一种智能家居服务机器人,其特征在于,还包括巡逻装置,用于生成移动路线,并根据移动路线在家庭中移动。
3.根据权利要求1所述的一种智能家居服务机器人,其特征在于,所述传感器包括温度传感器、湿度传感器、安防传感器、空气质量传感器中的一种或多种,所述家用电器包括空调、除湿器、加湿器、安防处理器、空气净化器中的一种或多种。
4.根据权利要求1所述的一种智能家居服务机器人,其特征在于,所述指令接收器包括手势摄像头,用于采集用户手势图像,并传输到中央处理器。
5.根据权利要求4所述的一种智能家居服务机器人,其特征在于,所述中央处理器包括手势识别模块,用于识别所述用户手势图像,并生成相应的控制指令。
6.根据权利要求5所述的一种智能家居服务机器人,其特征在于,所述手势识别模块具体包括:
预处理单元,用于对所述用户手势图像进行预处理,获取预处理后的手势图像;
手势检测单元,用于对所述预处理后的手势图像进行手势检测处理,确认手势部分;
特征提取单元,用于对所述手势部分进行特征提取,获取手势特征;
手势识别单元,用于对所述手势特征进行手势识别处理,并根据识别结果匹配相应的控制指令。
7.根据权利要求6所述的一种智能家居服务机器人,其特征在于,所述手势监测单元,具体包括:
(1)将预处理后的手势图像I分割为N个图像区域{Ri}i=1,2,…,N;
(2)分别根据所述图像I的颜色特征和纹理特征获取图像I的颜色特征图像fYS和纹理特征图像fWL;
(3)分别获取区域Ri的颜色全局区域对比度和纹理全局区域对比度,其中采用的函数为:
式中,Cgc_YS(Ri)和Cgc_WL(Ri)分别表示区域Ri的颜色全局区域对比度和纹理全局区域对比度,w(Ri,Rj)表示全局控制因子,其中w(Ri,Rj)=1+{-d(Ri,Rj)},d(Ri,Rj)表示区域Ri和区域Rj的欧氏距离,和分别表示区域Ri和区域Rj的颜色特征,和分别表示区域Ri和区域Rj的纹理特征;
(4)分别获取区域Ri的颜色背景对比度和纹理背景对比度,其中采用的函数为:
式中,Cbc_YS(Ri)和Cbc_WL(Ri)分别表示区域Ri的颜色背景对比度和纹理背景对比度,Bj表示图像I的上、下、左和右边界区域,和分别表示区域Bj的颜色和纹理特征;
(5)获取区域Ri的中心先验,其中采用的函数为:
式中,Ccb(Ri)表示区域Ri的中心先验,表示区域Ri的坐标,xI_center表示图像I中心的坐标;
(6)分别获取区域Ri的颜色区域级别显著性和纹理区域级别显著性,其中采用的函数为:
Sr_YS(Ri)=Cgc_YS(Ri)*Cbc_YS(Ri)*Ccb(Ri)
Sr_WL(Ri)=Cgc_WL(Ri)*Cbc_WL(Ri)*Ccb(Ri)
式中,Sr_YS(Ri)和Sr_WL(Ri)分别表示区域Ri的颜色区域级别显著性和纹理区域级别显著性;
(7)分别获取区域Ri的颜色特征和纹理特征的显著性,其中采用的函数为:
其中,j∈Ri,Rik∈N(Ri),
式中,和分别表示区域Ri的颜色特征和纹理特征的显著性,N(Ri)表示区域Ri的所有相邻区域的集合,K=|N(Ri)|,表示区域Rik的坐标,表示像素点j和区域Rik中心坐标之间的距离;
(8)获取图像I的颜色和纹理特征的显著性,其中采用的函数为:
式中,SYS和SWL分别表示图像I的颜色和纹理特征的显著性;
(9)获取显著性区域中心先验后关于颜色和纹理特征的单尺度显著性,其中采用的函数为:
Sss_YS(k)=Wsc(k)SYS(k)
Sss_WL(k)=Wsc(k)SWL(k)
其中,
式中,xk表示像素点k的坐标,xs_center表示显著性区域中心的坐标,Sss_YS(k)表示在SYS(k)中融入了显著性区域中心先验后关于颜色特征的单尺度显著性,Sss_WL(k)表示在SWL(k)中融入了显著性区域中心先验后关于纹理特征的单尺度显著性;
(10)获取多尺度颜色显著性和多尺度纹理显著性,其中采用的函数为:
式中,Sms_YS(i)和Sms_WL(i)分别为多尺度颜色显著性和多尺度纹理显著性,Sss_YS_r和Sss_WL_r分别表示第r个尺度的单尺度颜色显著性和单尺度纹理显著性,IE(Sss_YS_r)表示第r层显著性图像的信息熵,其中H表示显著性图像的大小,pr(i)表示第r层显著性图像中像素点i的概率分布,
(11)获取多特征多尺度全局区域对比度显著性,其中采用的函数为:
Smsmf=Sms_YS*Sms_WL
式中,Smsmf表示图像的多特征多尺度全局区域对比度显著性;
(12)根据最终显著性图像进行自适应分割,检测图像中的手势,并确定图像I中的手势部分。
8.根据权利要求7所述的一种智能家居服务机器人,其特征在于,手势识别单元,用于对所述手势特征进行手势识别处理,并根据识别结果匹配相应的控制指令,具体包括:
采用稀疏表示的手势识别算法对所述手势特征进行手势识别处理,并根据识别结果匹配相应的控制指令;
其中,在采用稀疏表示的手势识别算法进行手势识别之前,需要构建手势字典,其中手势字典的构建算法为:
初始化阶段:获取手势训练样本特征矩阵Y={y1,y2,…,yN},设定最大迭代次数Vmax,稀疏度为T0,训练样本特征维数m,即yi∈Rm,其中N表示手势训练样本的数目,Rm表示手势训练样本特征的特征尺寸为m;
(1)随机选择K个训练样本初始化稀疏字典矩阵D(0),D(0)∈Rm×K,并对矩阵各列进行l2归一化,j=1,其中D=[d1,d2,…,dK]表示稀疏字典,其中K表示稀疏字典中字典元的数目,Rm×K表示稀疏字典矩阵D(0)的特征尺寸为m×K;
(2)稀疏编码阶段:采用追踪算法计算每个训练样本yi的稀疏表示向量xi,其中采用的函数为:
其中||xi||0≤T0,i=1,2,…,N
式中,D表示稀疏字典矩阵,yi表示第i个手势训练样本特征,N表示手势训练样本的数目,T0表示稀疏度;
(3)码本更新阶段:更新D(j-1)中的每一列dk,k=1,2,…,K,具体包括:
(31)定义使用了第k个字典原子的样本序号集合即向量矩阵X第k行中不为0的元素所在的列;
(32)计算整体的表示误差:其中dj表示稀疏字典D中的第j列,表示稀疏向量矩阵X中的第j行;
(33)从表示误差Ek中选择集合ωk中序号对应的列构成误差矩阵
(34)对误差矩阵进行SVD分解,即选择U的第1列作为更新后的字典列将稀疏向量更新为V的第1列和Δ(1,1)的乘积;
(35)更新迭代次数j=j+1;
重复步骤(3),当达到最大迭代次数Vmax时,输出稀疏字典
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810138531.5A CN108415260A (zh) | 2018-02-10 | 2018-02-10 | 一种智能家居服务机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810138531.5A CN108415260A (zh) | 2018-02-10 | 2018-02-10 | 一种智能家居服务机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108415260A true CN108415260A (zh) | 2018-08-17 |
Family
ID=63127207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810138531.5A Withdrawn CN108415260A (zh) | 2018-02-10 | 2018-02-10 | 一种智能家居服务机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108415260A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111722594A (zh) * | 2019-03-18 | 2020-09-29 | 中南大学 | 工业过程监测方法、装置、设备和可读存储介质 |
CN112904738A (zh) * | 2021-01-19 | 2021-06-04 | 珠海格力电器股份有限公司 | 一种设备联动控制方法、系统、装置、存储介质以及设备 |
CN113303708A (zh) * | 2020-02-27 | 2021-08-27 | 佛山市云米电器科技有限公司 | 维护设备的控制方法、维护设备及存储介质 |
CN114153308A (zh) * | 2020-09-08 | 2022-03-08 | 阿里巴巴集团控股有限公司 | 手势控制方法、装置、电子设备及计算机可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984416A (zh) * | 2014-06-10 | 2014-08-13 | 北京邮电大学 | 一种基于加速度传感器的手势识别方法 |
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105652808A (zh) * | 2014-11-10 | 2016-06-08 | 江苏美的清洁电器股份有限公司 | 家庭服务机器人及具有其的家庭服务系统 |
CN107016680A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 一种基于显著性检测的害虫图像背景去除方法 |
CN107274419A (zh) * | 2017-07-10 | 2017-10-20 | 北京工业大学 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
CN107464256A (zh) * | 2017-07-05 | 2017-12-12 | 河海大学 | 一种目标检测与可能性判别修正的关联方法 |
-
2018
- 2018-02-10 CN CN201810138531.5A patent/CN108415260A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984416A (zh) * | 2014-06-10 | 2014-08-13 | 北京邮电大学 | 一种基于加速度传感器的手势识别方法 |
CN105652808A (zh) * | 2014-11-10 | 2016-06-08 | 江苏美的清洁电器股份有限公司 | 家庭服务机器人及具有其的家庭服务系统 |
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN107016680A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 一种基于显著性检测的害虫图像背景去除方法 |
CN107464256A (zh) * | 2017-07-05 | 2017-12-12 | 河海大学 | 一种目标检测与可能性判别修正的关联方法 |
CN107274419A (zh) * | 2017-07-10 | 2017-10-20 | 北京工业大学 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
Non-Patent Citations (1)
Title |
---|
杨文姬: ""面向家庭服务机器人的手势交互技术研究"", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111722594A (zh) * | 2019-03-18 | 2020-09-29 | 中南大学 | 工业过程监测方法、装置、设备和可读存储介质 |
CN111722594B (zh) * | 2019-03-18 | 2022-03-11 | 中南大学 | 工业过程监测方法、装置、设备和可读存储介质 |
CN113303708A (zh) * | 2020-02-27 | 2021-08-27 | 佛山市云米电器科技有限公司 | 维护设备的控制方法、维护设备及存储介质 |
CN114153308A (zh) * | 2020-09-08 | 2022-03-08 | 阿里巴巴集团控股有限公司 | 手势控制方法、装置、电子设备及计算机可读介质 |
CN114153308B (zh) * | 2020-09-08 | 2023-11-21 | 阿里巴巴集团控股有限公司 | 手势控制方法、装置、电子设备及计算机可读介质 |
CN112904738A (zh) * | 2021-01-19 | 2021-06-04 | 珠海格力电器股份有限公司 | 一种设备联动控制方法、系统、装置、存储介质以及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108415260A (zh) | 一种智能家居服务机器人 | |
CN109559363A (zh) | 图像的风格化处理方法、装置、介质和电子设备 | |
CN110728330A (zh) | 基于人工智能的对象识别方法、装置、设备及存储介质 | |
Prokhorov | A convolutional learning system for object classification in 3-D lidar data | |
CN107516127B (zh) | 服务机器人自主获取人穿携物品归属语义的方法及系统 | |
CN110705448A (zh) | 一种人体检测方法及装置 | |
Tang et al. | Single image dehazing via lightweight multi-scale networks | |
CN109344713B (zh) | 一种姿态鲁棒的人脸识别方法 | |
CN105139004A (zh) | 基于视频序列的人脸表情识别方法 | |
CN107423721A (zh) | 人机交互动作检测方法、装置、存储介质及处理器 | |
CN109087261A (zh) | 基于非受限采集场景的人脸矫正方法 | |
CN109583509A (zh) | 数据生成方法、装置及电子设备 | |
CN109948509A (zh) | 对象状态监测方法、装置及电子设备 | |
CN109064389B (zh) | 一种手绘线条画生成现实感图像的深度学习方法 | |
CN116958453B (zh) | 基于神经辐射场的三维模型重建方法、设备和介质 | |
CN108984481A (zh) | 一种基于卷积神经网络的单应性矩阵估计方法 | |
CN107341768A (zh) | 网格降噪 | |
CN115223067A (zh) | 应用于无人机的点云融合方法、装置、设备及存储介质 | |
CN110069655A (zh) | 一种私人相册的人脸搜索方法 | |
CN110414560A (zh) | 一种用于高维图像数据的自主子空间聚类方法 | |
CN103793720B (zh) | 一种眼睛定位方法和系统 | |
CN112161173B (zh) | 一种电网布线参数检测装置及检测方法 | |
CN112017159B (zh) | 一种遥感场景下的地面目标真实感仿真方法 | |
CN111695470B (zh) | 一种基于深度特征正交分解的可见光-近红外行人再识别方法 | |
CN107608541A (zh) | 三维姿态定位方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180817 |
|
WW01 | Invention patent application withdrawn after publication |