CN113591512A - 用于毛发识别的方法及装置、设备 - Google Patents
用于毛发识别的方法及装置、设备 Download PDFInfo
- Publication number
- CN113591512A CN113591512A CN202010360953.4A CN202010360953A CN113591512A CN 113591512 A CN113591512 A CN 113591512A CN 202010360953 A CN202010360953 A CN 202010360953A CN 113591512 A CN113591512 A CN 113591512A
- Authority
- CN
- China
- Prior art keywords
- hair
- picture
- detected
- information
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及智能设备技术领域,公开一种用于毛发识别的方法及装置、设备。该方法包括:获取处于运行状态扫地机器人采集的待检测图片;在第一智能算法模型中,对所述待检测图片进行目标检测,得到与所述待检测图片中每根毛发对应的目标框位置信息;获得了每根毛发的属性类别信息,所述属性类别信息是每个所述目标框位置信息输入第二智能算法模型后进行属性识别得到的。这样,实现了扫地机器人扫取物的自动识别,进一步提高了扫地机器人的智能性。
Description
技术领域
本申请涉及智能设备技术领域,例如涉及用于毛发识别的方法及装置、设备。
背景技术
随着科学技术的进步和人工智能的发展,家居设备日益智能化。其中,扫地机器人以圆盘型为主,使用充电电池运作,一般能设定时间预约打扫,自行充电。前方有设置感应器,可侦测障碍物,如碰到墙壁或其他障碍物,会自行转弯,并依每间不同厂商设定,而走不同的路线,从而有规划清扫地区。
扫地机器人扫取的垃圾中可能包括:用户毛发、纸屑、食品碎屑等等,这些都与用户的生活以及身体状况息息相关,通过对这些信息的分析即可得到用户相关信息,但是,目前,扫地机器人还不能对各类垃圾进行分别识别,进而进行数据分析。
发明内容
为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。所述概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
本公开实施例提供了一种用于毛发识别的方法、装置和设备,以解决扫地机器人智能性不高的技术问题。
在一些实施例中,所述方法包括:
获取处于运行状态扫地机器人采集的待检测图片;
在第一智能算法模型中,对所述待检测图片进行目标检测,得到与所述待检测图片中每根毛发对应的目标框位置信息;
获得了每根毛发的属性类别信息,所述属性类别信息是每个所述目标框位置信息输入第二智能算法模型后进行属性识别得到的。
在一些实施例中,所述装置包括:
获取模块,被配置为获取处于运行状态扫地机器人采集的待检测图片;
检测模块,被配置为在第一智能算法模型中,对所述待检测图片进行目标检测,得到与所述待检测图片中每根毛发对应的目标框位置信息;
识别模块,被配置为获得了每根毛发的属性类别信息,所述属性类别信息是每个所述目标框位置信息输入第二智能算法模型后进行属性识别得到的。
在一些实施例中,所述设备包括:扫地机器人或服务器,包括上述用于毛发识别的装置。
本公开实施例提供的用于毛发识别的方法、装置和设备,可以实现以下技术效果:
可通过智能算法,对扫地机器人获取的包含毛发的图像进行目标检测以及属性识别,识别出每根毛发的属性类别信息,从而,实现了扫地机器人扫取物的自动识别,进一步提高了扫地机器人的智能性以及用户体验。
以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本申请。
附图说明
一个或多个实施例通过与之对应的附图进行示例性说明,这些示例性说明和附图并不构成对实施例的限定,附图中具有相同参考数字标号的元件示为类似的元件,附图不构成比例限制,并且其中:
图1是本公开实施例提供的一种用于毛发识别方法的流程示意图;
图2是本公开实施例提供的一种用于毛发识别系统的结构示意图;
图3是本公开实施例提供的一种用于毛发识别方法的流程示意图;
图4是本公开实施例提供的一种用于毛发识别装置的结构示意图;
图5是本公开实施例提供的一种用于毛发识别装置的结构示意图;
图6是本公开实施例提供的一种用于毛发识别装置的结构示意图;
图7是本公开实施例提供的一种用于毛发识别装置的结构示意图。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或多个实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
本公开实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开实施例的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。
除非另有说明,术语“多个”表示两个或两个以上。
本公开实施例中,字符“/”表示前后对象是一种“或”的关系。例如,A/B表示:A或B。
术语“和/或”是一种描述对象的关联关系,表示可以存在三种关系。例如,A和/或B,表示:A或B,或,A和B这三种关系。
本公开实施例中,可通过智能算法,对扫地机器人获取的包含毛发的图像进行目标检测以及属性识别,识别出每根毛发的属性类别信息,从而,实现了扫地机器人扫取物的自动识别,进一步提高了扫地机器人的智能性,并且,还可根据识别出的毛发属性类别信息,进行对应的用户信息管理,进一步提高家居智能化。另外,图片的获取,毛发的检测和识别可在扫地机器人本地端完成,或者,将图片发送给服务器,由服务器进行毛发的检查和识别,或者,图片的获取和毛发的检测可由扫地机器人完成,而毛发的识别则由服务器完成。并且,不同的执行主体,对应的智能算法也不同。例如:若毛发的检测由扫地机器人完成,则可采用Adaboost算法模型,这样,减少了对内存的占用,保障了机器人运行的流畅性。而若由服务器完成,则可选择包括毛发专用锚框的VGG-16卷积神经网络模型等等,提高了毛发识别的准确率以及灵活性。
图1是本公开实施例提供的一种用于毛发识别方法的流程示意图。如图1所示,用于毛发识别的过程包括:
步骤101:获取处于运行状态扫地机器人采集的待检测图片。
扫地机器人上可配置有图像采集设备,例如:摄像头,在扫地机器人在运行游走时,可以获取到对应地板区域的图片,每次采样采集到的图片即为待检测图片。
由于本公开实施例中,进行毛发识别的执行主体可以是扫地机器人,或者是服务器。因此,若执行主体是扫地机器人,则获取处于运行状态扫地机器人采集的待检测图片包括:通过扫地机器人上配置的图像采集设备,本地获取待检测图片。若执行主体是服务器,则扫地机器人上配置的图像采集设备获取到待检测图片需发送给服务器,从而,服务器获取处于运行状态扫地机器人采集的待检测图片的过程包括:接收扫地机器人发送的待检测图片。
步骤102:在第一智能算法模型中,对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息。
随着人工智能的发展,目前很多图像识别过程都是基于智能算法的,即通过具有深度学习能力的算法模型,对待检测图片进行目标检测,得到目标框位置信息,由于本公开实施例中,目标是毛发,则得到每根毛发对应的目标框位置信息。
同样,执行主体为扫地机器人时,兼顾扫地机器人的硬件配置,第一智能算法模型,可为Adaboost算法模型,即通过Adaboost算法模型,对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息。
其中,Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。在一些实施例中,获取处于运行状态扫地机器人采集的待检测图片之前,包括:根据每个第一样本毛发图片中毛发尺寸信息,与Adaboos算法,生成第一智能算法模型。这样,目标是毛发,基于Adaboos算法模型,即可对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息。基于Adaboost算法模型的检测,可以提高检测准确率,并且还可加快检测速度。
当然,其他卷积神经网络(Convolutional Neural Networks,CNN)模型也可以应用于本步骤。
执行主体为服务器时,由于服务器具有强大的计算分析能力,因此,多种CNN模型都可应用于服务器的图像检测中。由于目标是毛发,这样,本公开一些实施例中,可在CNN网络中,通过毛发专用锚框anchor对待检测图片进行目标检测,得到与待检测图片中每件毛发对应的目标框信息。即在进行图像识别之前,还可根据每个样本毛发图片中毛发尺寸信息,生成毛发专用锚框。当然,不同的CNN网络,生成毛发专用锚框anchor的过程不同。例如:针对VGG-16卷积神经网络,可将每个样本毛发图片预处理后,进行VGG-16特征信息提取,从而,得到每个样本毛发图片的包含毛发尺寸信息的特征信息,从而,可根据这些特征信息,生成VGG-16卷积神经网络的毛发专用锚框。
生成了VGG-16卷积神经网络的毛发专用锚框anchor后,对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息可包括:将待检测图片进行预处理后输入VGG-16卷积神经网络进行卷积处理,得到特征图片;通过毛发专用锚框对特征图片进行目标检测,得到目标特征图,其中,目标特征图中每个目标框与待检测图片中每件毛发对应,即可得到与待检测图片中每根毛发对应的目标框位置信息。
例如:待检测图片进行预处理后,VGG-16网络中的CNN层对图片进行卷积,对卷积后得到的特征图片,用毛发专用锚框anchor对特征图片进行目标框生成,叠加特征图片后即可生成目标特征图,目标特征图中每个目标框与待检测图片中每件毛发对应;然后,计算目标特征图片中每个目标框的回归值和softmax值,即得到了每个目标框的位置信息,包括回归值和大类属性softmax值。
无论采用了Adaboost算法模型,还是采用了包括毛发专用锚框的CNN模型,都可提高检测准确率,并且还可加快检测速度。
步骤103:获得了每根毛发的属性类别信息,属性类别信息是每个目标框位置信息输入第二智能算法模型后进行属性识别得到的。
当毛发识别的执行主体是扫地机器人时,可将每个目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息,或者,将每个目标框位置信息发送给远端设备中,得到远端设备发送的每根毛发的属性类别信息,其中,远端设备将每个目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息。此时,本端设备为扫地机器人,远端设备为服务器。
当然,若毛发识别的执行主体是服务器时,即可将每个目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息。此时,本端设备为服务器。
不管是扫地机器人还是服务器,都可将每个目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息。
第二智能算法模型是根据获取的样本进行机器学习后,配置并保存的,因此,在一些实施例中,获得了每件毛发的属性类别信息之前,还包括:将图片预处理后的第二样本毛发图片,进行基于移动网络MobileNet训练,并将生成的MobileNet模型,确定为第二智能算法模型,保持在本地设备或远端设备中。或者,将图片预处理后的第二样本毛发图片,基于深度残差网络ResNet,对样本图片进行训练,得到ResNet深度学习算法模型等的。
配置了第二智能算法模型,将得到的目标检测的检查结果,包括:目标框位置信息,输入第二智能算法模型中,即可获得每件毛发的属性类别信息,包括:毛发种类,颜色,长短,款式等等中一种或多种。
当然,其他基于卷积神经网络CNN的图像识别算法也可应用于此,不再一一列举了。
通过第二智能算法模型的识别,可得到每件毛发的类别信息,例如:长发、红色、卷曲。但是,卷曲中还可分:大卷,小卷等等。这些比较相近的特征,在识别的过程需要进行细致区别。因此,在本公开一些实施例中,可在第二智能算法模型中,对每个目标框位置信息中的大类属性值进行KNN最大类间距进行聚类处理,得到至少一个属性分类概率值;根据每个目标框的属性分类概率值,以及目标框位置信息,获得每件毛发的属性类别信息。在一些实施例中,在保存的移动网络MobileNet模型中,根据每个目标框位置信息,进行KNN最大类间距进行聚类处理,得到至少一个属性分类概率值;根据每个目标框的属性分类概率值,以及目标框位置信息,获得每根毛发的属性类别信息。
例如:已得到了每个目标框位置信息包括:目标框的回归值和softmax值,输入MobileNet模型,可对softmax值,通过knn最大类间距离进行聚类,即可得到属性分类概率,然后,可将属性分类概率最大的值对应的类别信息,确定为目标框的识别结果,即得到每件毛发的类别信息。当然,还可结合回归值以及属性分类概率的得到每件毛发的属性信息。
由于softmax值用knn聚类的方法来增大每个类间的距离,从而增大种类间的区分度,从而,更好的区分细分种类之间的差距,得到更加准确的识别结果
可见,本实施例中,可通过智能算法,对扫地机器人获取的包含毛发的图像进行目标检测以及属性识别,识别出每根毛发的属性类别信息,从而,实现了扫地机器人扫取物的自动识别,进一步提高了扫地机器人的智能性。并且,还可在毛发的目标检测过程中,采用Adaboost算法模型,不仅提高检测准确率和检测速度,还减少了硬件压力。另外,在属性识别过程中,采用KNN最大类间距离进行聚类的方式,增大毛发属性之间的区分性,得到了较好的检测和识别效果,从而,进一步提高了毛发识别的准确率。
得到了每根毛发的属性类别信息后,在一些实施例中,可根据每根毛发的属性类别信息,进行用户健康数据管理。例如:保存了家庭成员信息,这样,可将获得的毛发的属性类别信息与家庭成员信息中的毛发信息进行核对,识别并记录家庭成员的脱发情况;然后,再根据记录的脱发情况,与家庭成员信息中的年龄、身体状况、病症等信息综合匹配,通过大数据分析的方法为每位家庭成员提供合理的管理数据,。当然,还可将这些管理数据发送给与扫地机连接的APP或其他终端上显示。
下面将操作流程集合到具体实施例中,举例说明本发明实施例提供的用于毛发识别过程。
本公开一实施例中,图2是本公开实施例提供的一种用于毛发识别系统的结构示意图。如图2所示,用于毛发识别系统包括:扫地机器人210、服务器220、以及终端230,扫地机器人210可与服务器220进行通讯。例如:在家居网络中,扫地机器人210可家居系统的服务器220进行通讯。本实施例中,扫地机器人210配置了摄像头,并且,还根据每个第一样本毛发图片中毛发尺寸信息,配置并保存了Adaboost算法模型,即第一智能算法模型为Adaboost算法模型。服务器220则将图片预处理后的第二样本毛发图片,进行基于移动网络MobileNet训练,生成并保存了MobileNet模型。即第二智能算法模型为MobileNet模型。当然,扫地机器人210还可与终端230通讯,可与终端230进行指令交互,例如:终端230远程控制扫地机器人210的运行,或者,扫地机器人210将健康管理数据发送给终端230等等。
图3是本公开实施例提供的一种用于毛发识别方法的流程示意图。结合图3,用于毛发识别的过程包括:
步骤301:扫地机器人通过配置的图像采集设备,本地获取待检测图片。
步骤302:基于Adaboost算法模型,扫地机器人对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息。
其中,目标框位置信息可包括:目标框的回归值和softmax值。
步骤303:扫地机器人将目标框位置信息发送给服务器。
目标特征图中每个目标框与待检测图片中每件毛发对应。
步骤304:服务器在保存的移动网络MobileNet模型中,根据每个目标框位置信息,进行KNN最大类间距进行聚类处理,得到至少一个属性分类概率值。
步骤305:服务器根据每个目标框的属性分类概率值,以及目标框位置信息,获得每根毛发的属性类别信息。
其中,可将属性分类概率最大的值对应的类别信息,确定为每件毛发的类别信息。当然,根据回归值以及属性分类概率还可得到毛发的长度、颜色等属性信息。
步骤306:扫地机器人接收服务器发送的每根毛发的属性类别信息。
步骤307:扫地机器人根据每根毛发的属性类别信息,进行用户健康数据管理,得到健康管理信息。
例如:得到了健康管理信息包括:运动建议、健康饮食建议等。
步骤308:扫地机器人将用户健康数据管理发送给终端进行显示提醒。
当然,图2中终端230也可与服务器220进行通讯,从而,步骤307-步骤308也可是服务器进行用户健康数据管理,得到健康管理信息,并发送给终端。
可见,本实施例中,可通过智能算法,对扫地机器人获取的包含毛发的图像进行目标检测以及属性识别,识别出每根毛发的属性类别信息,从而,实现了扫地机器人扫取物的自动识别,进一步提高了扫地机器人的智能性。并且,扫地机器人采用Adaboost算法模型进行目标检测,不仅提高检测准确率和检测速度,还保障了扫地机器人运行的流畅性。而服务器在属性识别过程中,采用KNN最大类间距离进行聚类的方式,增大毛发属性之间的区分性,得到了较好的检测和识别效果,从而,进一步提高了毛发识别的准确率。另外,还可根据的毛发的属性类别信息,进行用户健康数据管理,进一步提高了家居系统的智能性。
根据上述用于毛发识别的过程,可构建一种用于毛发识别的装置。
图4是本公开实施例提供的一种用于毛发识别装置的结构示意图。如图4所示,用于毛发识别装置包括:获取模块410、检测模块420、以及识别模块430。
获取模块410,被配置为获取处于运行状态扫地机器人采集的待检测图片;
检测模块420,被配置为在第一智能算法模型中,对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息;
识别模块430,被配置为获得了每根毛发的属性类别信息,属性类别信息是每个目标框位置信息输入第二智能算法模型后进行属性识别得到的。
在一些实施例中,获取模块410,具体被配置为通过扫地机器人上配置的图像采集设备,本地获取待检测图片;或,接收扫地机器人发送的待检测图片。
在一些实施例中,还包括:第一配置模块,被配置为根据每个第一样本毛发图片中毛发尺寸信息,与Adaboost算法,生成第一智能算法模型;或,根据每个第一样本毛发图片中毛发尺寸信息,生成包括毛发专用锚框的第一智能算法模型。
在一些实施例中,识别模块430,具体被配置为将每个目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息;或,将每个目标框位置信息发送给远端设备中,得到远端设备发送的每根毛发的属性类别信息,其中,远端设备将每个目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息。
在一些实施例中,还包括:第二配置模块,被配置为将图片预处理后的第二样本毛发图片,进行基于移动网络MobileNet训练,并将生成的MobileNet模型,确定为第二智能算法模型,保持在本地设备或远端设备中。
在一些实施例中,识别模块430包括:
聚类单元,被配置为在保存的移动网络MobileNet模型中,根据每个目标框位置信息,进行KNN最大类间距进行聚类处理,得到至少一个属性分类概率值。
识别单元,被配置为根据每个目标框的属性分类概率值,以及目标框位置信息,获得每根毛发的属性类别信息。
在一些实施例中,还包括:管理模块,被配置为根据每根毛发的属性类别信息,进行用户健康数据管理。
下面具体描述用于毛发识别的装置的毛发识别过程。
图5是本公开实施例提供的一种用于毛发识别装置的结构示意图。如图5所示,用于毛发识别装置可应用于扫地机器人中,包括:获取模块410、检测模块420、以及识别模块430,还可包括:第一配置模块440、管理模块450。
其中,第一配置模块440根据每个第一样本毛发图片中毛发尺寸信息,配置并保存了Adaboost算法模型。
这样,获取模块410可通过摄像头,获取待检测图片。这样,检测模块420可基于第一配置模块440保存的Adaboost算法模型,对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息。
这样,识别模块430可将包括回归值和softmax值的目标框位置信息发送给服务器,并接服务器中发送的每根毛发的属性类别信息。属性类别信息是服务器将包括回归值和softmax值的目标框位置信息输入MobileNet模型后得到的。
从而,管理模块450根据每根毛发的属性类别信息,进行用户健康数据管理,得到健康管理信息,并可发送给终端进行显示提醒。
可见,本实施例中,用于毛发识别装置基于Adaboost算法模型进行毛发检测,不仅提高检测准确率和检测速度,还保障了扫地机器人运行的流畅性。并且,还可根据的毛发的属性类别信息,进行用户健康数据管理,进一步提高了家居系统的智能性。
图6是本公开实施例提供的一种用于毛发识别装置的结构示意图。如图6所示,用于毛发识别装置可应用于服务器中,包括:获取模块410、检测模块420、以及识别模块430,还可包括:第一配置模块440、管理模块450,以及第二配置模块460。
其中,第一配置模块440根据每个第一样本毛发图片中毛发尺寸信息,生成包括毛发专用锚框的VGG-16模型。第二配置模块460可将图片预处理后的第二样本毛发图片,进行基于移动网络MobileNet训练,生成并保存了MobileNet模型。
从而,获取模块410可接收扫地机器人发送的待检测图片。这样,检测模块420基于第一配置模块440保存的VGG-16模型,采用毛发专用锚框anchor对待检测图片进行目标检测,得到与待检测图片中每根毛发对应的目标框位置信息。从而,识别模块430可基于第二配置模块460保存的MobileNet模型,根据每个目标框位置信息,进行KNN最大类间距进行聚类处理,得到至少一个属性分类概率值;以及,根据每个目标框的属性分类概率值,以及目标框位置信息,获得每根毛发的属性类别信息。
从而,管理模块450根据每根毛发的属性类别信息,进行用户健康数据管理,得到健康管理信息,并可发送给终端进行显示提醒。
可见,本实施例中,用于毛发识别装置采用毛发专用anchor进行毛发检测,提高检测准确率和检测速度。在属性识别过程中,采用KNN最大类间距离进行聚类的方式,增大毛发属性之间的区分性,得到了较好的检测和识别效果,从而,进一步提高了毛发识别的准确率。另外,还可根据的毛发的属性类别信息,进行用户健康数据管理,进一步提高了家居系统的智能性。
本公开实施例提供了一种用于毛发识别的装置,其结构如图7所示,包括:
处理器(processor)100和存储器(memory)101,还可以包括通信接口(Communication Interface)102和总线103。其中,处理器100、通信接口102、存储器101可以通过总线103完成相互间的通信。通信接口102可以用于信息传输。处理器100可以调用存储器101中的逻辑指令,以执行上述实施例的用于毛发识别的方法。
此外,上述的存储器101中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器101作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令/模块。处理器100通过运行存储在存储器101中的程序指令/模块,从而执行功能应用以及数据处理,即实现上述方法实施例中的用于毛发识别的方法。
存储器101可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器101可以包括高速随机存取存储器,还可以包括非易失性存储器。
本公开实施例提供了一种设备,该设备包括:扫地机器人或服务器,包含上述的用于毛发识别装置。
本公开实施例提供了一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为执行上述用于毛发识别方法。
本公开实施例提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述用于毛发识别方法。
上述的计算机可读存储介质可以是暂态计算机可读存储介质,也可以是非暂态计算机可读存储介质。
本公开实施例的技术方案可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括一个或多个指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例所述方法的全部或部分步骤。而前述的存储介质可以是非暂态存储介质,包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
以上描述和附图充分地示出了本公开的实施例,以使本领域的技术人员能够实践它们。其他实施例可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施例的部分和特征可以被包括在或替换其他实施例的部分和特征。本公开实施例的范围包括权利要求书的整个范围,以及权利要求书的所有可获得的等同物。当用于本申请中时,虽然术语“第一”、“第二”等可能会在本申请中使用以描述各元件,但这些元件不应受到这些术语的限制。这些术语仅用于将一个元件与另一个元件区别开。比如,在不改变描述的含义的情况下,第一元件可以叫做第二元件,并且同样第,第二元件可以叫做第一元件,只要所有出现的“第一元件”一致重命名并且所有出现的“第二元件”一致重命名即可。第一元件和第二元件都是元件,但可以不是相同的元件。而且,本申请中使用的用词仅用于描述实施例并且不用于限制权利要求。如在实施例以及权利要求的描述中使用的,除非上下文清楚地表明,否则单数形式的“一个”(a)、“一个”(an)和“所述”(the)旨在同样包括复数形式。类似地,如在本申请中所使用的术语“和/或”是指包含一个或一个以上相关联的列出的任何以及所有可能的组合。另外,当用于本申请中时,术语“包括”(comprise)及其变型“包括”(comprises)和/或包括(comprising)等指陈述的特征、整体、步骤、操作、元素,和/或组件的存在,但不排除一个或一个以上其它特征、整体、步骤、操作、元素、组件和/或这些的分组的存在或添加。在没有更多限制的情况下,由语句“包括一个…”限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。本文中,每个实施例重点说明的可以是与其他实施例的不同之处,各个实施例之间相同相似部分可以互相参见。对于实施例公开的方法、产品等而言,如果其与实施例公开的方法部分相对应,那么相关之处可以参见方法部分的描述。
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,可以取决于技术方案的特定应用和设计约束条件。所述技术人员可以对每个特定的应用来使用不同方法以实现所描述的功能,但是这种实现不应认为超出本公开实施例的范围。所述技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本文所披露的实施例中,所揭露的方法、产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,可以仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例。另外,在本公开实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
附图中的流程图和框图显示了根据本公开实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。在附图中的流程图和框图所对应的描述中,不同的方框所对应的操作或步骤也可以以不同于描述中所披露的顺序发生,有时不同的操作或步骤之间不存在特定的顺序。例如,两个连续的操作或步骤实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
Claims (10)
1.一种用于毛发识别的方法,其特征在于,包括:
获取处于运行状态扫地机器人采集的待检测图片;
在第一智能算法模型中,对所述待检测图片进行目标检测,得到与所述待检测图片中每根毛发对应的目标框位置信息;
获得了每根毛发的属性类别信息,所述属性类别信息是每个所述目标框位置信息输入第二智能算法模型后进行属性识别得到的。
2.根据权利要求1所述的方法,其特征在于,所述获取处于运行状态扫地机器人采集的待检测图片包括:
通过所述扫地机器人上配置的图像采集设备,本地获取所述待检测图片;或,
接收所述扫地机器人发送的所述待检测图片。
3.根据权利要求1或2所述的方法,其特征在于,所述获取处于运行状态扫地机器人采集的待检测图片之前,包括:
根据每个第一样本毛发图片中毛发尺寸信息,与Adaboost算法,生成所述第一智能算法模型;或,
根据每个第一样本毛发图片中毛发尺寸信息,生成包括毛发专用锚框的所述第一智能算法模型。
4.根据权利要求1所述的方法,其特征在于,所述获得了每根毛发的属性类别信息包括:
将所述每个所述目标框位置信息输入保存的第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息;或,
将所述每个所述目标框位置信息发送给远端设备中,得到所述远端设备发送的每根毛发的属性类别信息,其中,所述远端设备将所述每个所述目标框位置信息输入保存的所述第二智能算法模型中继续图像识别,获得了每根毛发的属性类别信息。
5.根据权利要求1或4所述的方法,其特征在于,所述获得了每根毛发的属性类别信息之前,还包括:
将图片预处理后的第二样本毛发图片,进行基于移动网络MobileNet训练,并将生成的MobileNet模型,确定为所述第二智能算法模型,保持在本地设备或远端设备中。
6.根据权利要求5所述的方法,其特征在于,所述获得了每根毛发的属性类别信息包括:
在保存的所述移动网络MobileNet模型中,根据每个所述目标框位置信息,进行KNN最大类间距进行聚类处理,得到至少一个属性分类概率值;
根据每个目标框的所述属性分类概率值,以及所述目标框位置信息,获得每根毛发的属性类别信息。
7.根据权利要求1所述的方法,其特征在于,还包括:
根据每根毛发的所述属性类别信息,进行用户健康数据管理。
8.一种用于毛发识别的装置,其特征在于,包括:
获取模块,被配置为获取处于运行状态扫地机器人采集的待检测图片;
检测模块,被配置为在第一智能算法模型中,对所述待检测图片进行目标检测,得到与所述待检测图片中每根毛发对应的目标框位置信息;
识别模块,被配置为获得了每根毛发的属性类别信息,所述属性类别信息是每个所述目标框位置信息输入第二智能算法模型后进行属性识别得到的。
9.一种用于毛发识别的装置,该装置包括处理器和存储有程序指令的存储器,其特征在于,所述处理器被配置为在执行所述程序指令时,执行如权利要求1至7任一项所述用于毛发识别的方法。
10.一种设备,其特征在于,包括:扫地机器人或服务器,包括如权利要求8或9所述用于毛发识别的装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360953.4A CN113591512A (zh) | 2020-04-30 | 2020-04-30 | 用于毛发识别的方法及装置、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360953.4A CN113591512A (zh) | 2020-04-30 | 2020-04-30 | 用于毛发识别的方法及装置、设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113591512A true CN113591512A (zh) | 2021-11-02 |
Family
ID=78236961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360953.4A Pending CN113591512A (zh) | 2020-04-30 | 2020-04-30 | 用于毛发识别的方法及装置、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113591512A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114532923A (zh) * | 2022-02-11 | 2022-05-27 | 珠海格力电器股份有限公司 | 健康检测方法、装置、扫地机器人及存储介质 |
CN114847801A (zh) * | 2022-04-19 | 2022-08-05 | 珠海格力电器股份有限公司 | 一种甄别区域内生物活动的方法及机器人 |
WO2024041524A1 (zh) * | 2022-08-24 | 2024-02-29 | 漳州松霖智能家居有限公司 | 一种头皮头发检测方法、系统和设备 |
-
2020
- 2020-04-30 CN CN202010360953.4A patent/CN113591512A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114532923A (zh) * | 2022-02-11 | 2022-05-27 | 珠海格力电器股份有限公司 | 健康检测方法、装置、扫地机器人及存储介质 |
CN114532923B (zh) * | 2022-02-11 | 2023-09-12 | 珠海格力电器股份有限公司 | 健康检测方法、装置、扫地机器人及存储介质 |
CN114847801A (zh) * | 2022-04-19 | 2022-08-05 | 珠海格力电器股份有限公司 | 一种甄别区域内生物活动的方法及机器人 |
WO2024041524A1 (zh) * | 2022-08-24 | 2024-02-29 | 漳州松霖智能家居有限公司 | 一种头皮头发检测方法、系统和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751022B (zh) | 基于图像识别的城市宠物活动轨迹监测方法及相关设备 | |
CN109697434B (zh) | 一种行为识别方法、装置和存储介质 | |
CN108197664B (zh) | 模型获取方法、装置、电子设备及计算机可读存储介质 | |
CN113591512A (zh) | 用于毛发识别的方法及装置、设备 | |
KR101977174B1 (ko) | 영상 분석 방법, 장치 및 컴퓨터 프로그램 | |
CN111401344B (zh) | 人脸识别方法和装置及人脸识别系统的训练方法和装置 | |
CN111027487A (zh) | 基于多卷积核残差网络的行为识别系统、方法、介质及设备 | |
CN106951825A (zh) | 一种人脸图像质量评估系统以及实现方法 | |
CN109145759A (zh) | 车辆属性识别方法、装置、服务器及存储介质 | |
CN111079658B (zh) | 基于视频的多目标连续行为分析方法、系统、装置 | |
CN112581438B (zh) | 切片图像识别方法、装置和存储介质及电子设备 | |
CN110929760A (zh) | 一种基于计算机视觉的垃圾分类软件 | |
CN112418360B (zh) | 卷积神经网络的训练方法、行人属性识别方法及相关设备 | |
US11501482B2 (en) | Anonymization apparatus, surveillance device, method, computer program and storage medium | |
CN110458214B (zh) | 驾驶员更换识别方法和装置 | |
CN109857878B (zh) | 物品标注方法及装置、电子设备及存储介质 | |
CN105814582A (zh) | 用于识别人脸的方法和系统 | |
CN112613349A (zh) | 基于深度混合卷积神经网络的时序动作检测方法及装置 | |
US20220335725A1 (en) | Monitoring presence or absence of an object using local region matching | |
CN111753618A (zh) | 图像识别方法、装置、计算机设备及计算机可读存储介质 | |
Hitzler | Discovering visual concepts and rules in convolutional neural networks | |
CN111703990B (zh) | 基于大数据与人脸识别的电梯智能停靠实现方法及系统 | |
CN109993191B (zh) | 信息处理方法及装置、电子设备及存储介质 | |
CN112801238A (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
CN113160987A (zh) | 健康状态预测方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |