CN111598064B - 一种智能卫厕及其清洁控制方法 - Google Patents

一种智能卫厕及其清洁控制方法 Download PDF

Info

Publication number
CN111598064B
CN111598064B CN202010714631.5A CN202010714631A CN111598064B CN 111598064 B CN111598064 B CN 111598064B CN 202010714631 A CN202010714631 A CN 202010714631A CN 111598064 B CN111598064 B CN 111598064B
Authority
CN
China
Prior art keywords
user
cleaning
target part
image
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010714631.5A
Other languages
English (en)
Other versions
CN111598064A (zh
Inventor
顾红松
朱樊
郑晓英
顾海松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Cross Vision Technology Co ltd
Original Assignee
Hangzhou Cross Vision Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Cross Vision Technology Co ltd filed Critical Hangzhou Cross Vision Technology Co ltd
Priority to CN202010714631.5A priority Critical patent/CN111598064B/zh
Publication of CN111598064A publication Critical patent/CN111598064A/zh
Application granted granted Critical
Publication of CN111598064B publication Critical patent/CN111598064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Finance (AREA)
  • Biomedical Technology (AREA)
  • Development Economics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Mathematical Physics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Evolutionary Biology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)

Abstract

本说明书一个或多个实施例公开了一种智能卫厕及其清洁控制方法,该方法应用在至少包含清洁控制装置和清洁工具的智能卫厕;主要包括:清洁控制装置采集包含使用者身体目标部位的第一图像;所述清洁控制装置基于预设图像识别模型,确定对应所述第一图像中目标部位的空间位置信息;所述清洁控制装置基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁。

Description

一种智能卫厕及其清洁控制方法
技术领域
本文件涉及智能家居技术领域,尤其涉及一种智能卫厕及其清洁控制方法。
背景技术
随着科技的发展,智能家居产品日新月异,其中,卫厕设备就是智能家居产品中最受欢迎之一。
目前的智能卫厕大多具有对使用者身体目标部位进行冲洗等功能,但是,考虑到使用者个体差异的问题,现有的智能卫厕无法达到精准冲洗,可能还需要使用者移动位置来配合冲洗,降低对使用者身体目标部位的清洁效率,同时,还会浪费资源。
发明内容
本说明书一个或多个实施例的目的是提供一种智能卫厕及其清洁控制方法,以通过自动控制智能卫厕来为使用者准确确定清洁的目标位置,从而,提升智能卫厕的清洁效率。
为解决上述技术问题,本说明书一个或多个实施例是这样实现的:
第一方面,提出了一种智能卫厕的清洁控制方法,应用在至少包含清洁控制装置和清洁工具的智能卫厕;所述清洁控制方法包括:
清洁控制装置采集包含使用者身体目标部位的第一图像;
所述清洁控制装置基于预设图像识别模型,确定对应所述第一图像中目标部位的空间位置信息;
所述清洁控制装置基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁。
可选地,所述预设图像识别模型至少包括:YOLO算法模型、SSD算法模型中的任意一种;其中,
所述预设图像识别模型基于第一样本图像提取的图像特征进行训练得到,或者,基于使用过程中使用者产生的第二样本图像提取的图像特征进行迭代训练得到。
可选地,所述清洁控制装置基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁,具体包括:
基于所述第一图像,识别使用者身体目标部位的清洁状态;
基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作。
可选地,基于所述第一图像,识别使用者身体目标部位的清洁状态,具体包括:
判断所述第一图像中使用者身体目标部位的灰度值范围是否大于第一阈值范围,和/或,颜色范围是否大于第二阈值范围;
如果至少一个判断结果为是,则识别出所述使用者身体目标部位的清洁状态为待清洁;
否则,获取所述第一图像中使用者身体目标部位的光谱数据;基于预设光谱外观模型,估计所述使用者身体目标部位的湿度空间图以及干湿光谱表面分布;基于估计结果识别出使用者身体目标部位的清洁状态是否为烘干状态。
可选地,基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作,具体包括:
如果识别出清洁状态为待清洁,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动冲洗,直至检测到目标部位已冲洗干净为止;
如果识别出清洁状态为已清洁且未烘干,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动烘干,直至检测到目标部位已烘干为止。
可选地,在控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作时,还包括:
调节所述清洁工具对所述使用者身体目标部位执行清洁操作的清洁力度。
可选地,还包括:基于采集到的使用者的生物特征信息,对使用者进行用户识别。
可选地,还包括:对使用者的排泄物进行自动检测,以便于监测使用者的健康状况。
可选地,所述智能卫厕的清洁控制装置内部署有区块链节点;所述方法还包括:
以所述智能卫厕的账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应的用户分配与所述粪便量的价值相匹配的激励资源;或者,
所述清洁控制装置在使用者如厕结束后,统计本次处理的粪便量,并以识别出使用者的身份作为账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应使用者分配与所述粪便量的价值相匹配的激励资源。
第二方面,提供了一种智能卫厕,至少包括:清洁控制装置和清洁工具;所述清洁控制装置包括:
图像采集模块,用于采集包含使用者身体目标部位的第一图像;
确定模块,用于基于预先训练得到的图像识别模型,确定对应所述第一图像中目标部位的空间位置信息;
控制模块,用于基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁。
由以上本说明书一个或多个实施例提供的技术方案可见,通过获取使用者目标部位的第一图像,然后通过深度学习模型识别出目标部位的实际空间位置,并基于确定的空间位置调整清洁工具的方位,从而实现对使用者目标部位的精准清洁。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对一个或多个实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的一种智能马桶的清洁控制方法的步骤示意图。
图2是本说明书的一个或多个实施例提供的YOLO算法模型的网络架构图。
图3是本说明书的一个或多个实施例提供的SSD算法模型的网络架构图。
图4是本说明书的一个或多个实施例提供的一种智能卫厕的模块示意图。
图5是本说明书的一个或多个实施例提供的一种智能卫厕系统的示意图之一。
图6是本说明书的一个或多个实施例提供的一种智能卫厕系统的示意图之二。
图7是本说明书的一个或多个实施例提供的基于第一图像提取的图像特征的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的一个或多个实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
应理解,本说明书实施例所涉及的智能卫厕可以是智能马桶或是智能蹲便器等能够为使用者提供卫厕服务的智能设备。
在本说明书实施例中,该智能马桶至少包含清洁控制装置和清洁工具,其中,所述清洁控制装置可以外挂在智能马桶的马桶盖上或者集成在马桶盖内部。或者,也可以安装在智能马桶的座便器主体与马桶盖衔接位置处。该清洁控制装置还可以包括摄像设备。应理解,其具体设置位置并不做限定,只要是能够动态采集到使用者身体目标部位即可。其实,智能蹲便器也可以设置上述清洁控制装置和清洁工具。
下面以智能马桶为例对本说明书所涉及的清洁控制方案进行详述。
实施例一
参照图1所示,为本说明书实施例提供的一种智能马桶的清洁控制方法的步骤示意图,应理解,所述清洁控制方法应用在至少包含清洁控制装置和清洁工具的智能卫厕设备上,例如智能马桶上,以用于对使用智能马桶的使用者身体目标部位进行动态清洁。所述清洁控制方法可以包括以下步骤:
步骤101:清洁控制装置采集包含使用者身体目标部位的第一图像。
清洁控制装置可以实时采集使用者身体目标部位的图像,优选地,在使用者结束使用后,可以采集包含使用者身体目标部位的第一图像,该第一图像用于识别确定使用者的实际空间位置信息。其中,所述使用者身体目标部位至少可以包括:臀部、肛门、外生殖器等身体器官。考虑到第一图像可能涉及到使用者的隐私部位,因此,不通过图示示意。
其中,所述第一图像可以是图片或视频帧或视频等。
步骤102:清洁控制装置基于预设图像识别模型,确定对应所述第一图像中目标部位的空间位置信息。
在本说明书实施例中,所述预设图像识别模型至少包括:YOLO算法、SSD算法中的任一种;其中,所述预设图像识别模型基于第一样本图像提取的图像特征进行训练得到,或者,基于使用过程中使用者产生的第二样本图像提取的图像特征进行迭代训练得到。
其中,所述第一样本图像具体可以是在开发初期收集到的目标部位的相关图像,这些相关图像可以是通过多次测试搜集,或是通过其它图像样本搜集方案搜集得到,这样使用第一样本图像提取的图像特征训练得到的图像识别模型具有高度的普适性。所述第二样本图像具体可以是在使用智能马桶的过程中,针对使用者目标部位产生的相关图像,以作为实测得到的演变图像(同样是提取的图像特征)来不断对所述预设图像识别模型进行反复迭代训练,从而,提高图像识别模型的识别精度。
应理解,在本说明书实施例中,针对使用者目标部位采集到的图像(第一图像或是第二样本图像),可以作为原始图像在智能卫厕本地使用。在进行定位时的预测阶段,应当基于原始图像提取图像特征,作为输入数据送入预设图像识别模型进行预测定位。可见,原始图像仅可以在智能卫厕本地使用,而涉及到云端处理或边缘计算等需要外传到本地以外的网络时,上传的是经过本地(智能卫厕或其中安装的客户端)处理后的二次图像,提取第一阶段或第三阶段的图像特征(参照图7),一般以特征向量的形式存在。之后,使用上传的这些图像特征中的部分或全部输入至预设图像识别模型进行分析。
换言之,在本说明书实施例中,明显携带有使用者目标部位的第一图像,仅被智能卫厕上部署的图像采集装置采集并保留在本地,不会直接上传至本地以外的其它网络环境。因此,可以很好的保护使用者的隐私不被泄露。
同时,为了进一步提升隐私安全,还可以在第一图像被使用之后,即刻进行删除或根据使用者指示删除,具体可以是单个删除或批量删除。
在本说明书实施例中,预设图像识别模型可以是基于YOLO算法模型或SDD算法模型中的任意一种训练得到,此外,还可以包括其它深度学习算法模型,在此不作赘述。
算法模型
YOLO算法是一个单一的端对端的神经网络以达到目标检测的深度学习算法模型。参照图2所示,其网络框架可以分为两个部分:24个卷积层用于抽取图像特征,2个全连接层用于分类和定位。在本说明书实施例中,步骤202中所述清洁控制装置在基于预先训练得到的图像识别模型,确定对应所述第一图像中目标部位的空间位置信息时,可具体执行为:
第一步,将基于所述第一图像提取的图像特征输入所述预先训练得到的图像识别模型;
其中,提取的图像特征可以参照图7所示,这样,本地以外的网络环境,例如云端无法识别到第一图像中使用者的目标部位,有效避免隐私泄露,保护用户隐私安全。
第二步,使用所述图像识别模型将所述图像特征划分为网格形式;
第三步,对划分得到的每个网格进行图像分类和定位处理,确定所述第一图像中目标部位的边界框位置及类概率;
第四步,基于确定的边界框位置及类概率,确定所述第一图像中目标部位的空间位置信息。
从而实现对使用者的实际位置的精准定位,以便于后续精准控制清洁工具进行精准清洁。
算法模型
SSD算法使用VGG16作为基础模型,其中,VGG16算法模型可参照现有的结构,例如,包含13个卷积层,3个全连接层和5个池化层。参照图3所示,SSD算法可以在此基础上增加卷积层来获得更多的特征图,以用于多尺度预测,最后得到边界框的位置坐标和类别得分。
应理解,在本说明书实施例中,具体的预测定位步骤不做详细阐述,可参照现有的YOLO算法和SSD算法模型实施,其它深度学习算法模型处理类似。
步骤103:所述清洁控制装置基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁。
应理解,本说明书所涉及的精准清洁至少包括:冲洗、烘干等清洁操作。
可选地,步骤103在具体实现时,可以包括:
第1步,基于所述第一图像,识别使用者身体目标部位的清洁状态。
针对目标部位的清洁状态,可以使用经典计算机视觉技术进行识别:
例如,利用图像二值化或者图像色彩分析,来区别待清洁状态和清洁状态。
再如,利用湿表面丰富信息的彩色,特别是其光谱行为,推导出湿表面的分析光谱外观模型,这种光谱外观模型,可以恢复原始表面,单次观察的颜色和湿度。应用于多光谱图像,该方法能估计湿度的空间图以及干和湿光谱表面分布,从而判定是否为待烘干状态。
具体实现时,可以包括:
判断所述第一图像中使用者身体目标部位的灰度值范围是否大于第一阈值范围,和/或,颜色范围是否大于第二阈值范围;
如果至少一个判断结果为是,则识别出所述使用者身体目标部位的清洁状态为待清洁;
否则,识别出所述使用者身体目标部位的清洁状态为已清洁。
其中,所述第一阈值范围和所述第二阈值范围均可以理解为符合科学数值范围且在合理数值范围内的数值区域,这里仅作为示例介绍,例如,第一阈值范围为190-255,第二阈值范围类似。
应理解,当识别出使用者身体目标部位的清洁状态为已清洁时,还可以进一步判断是否已经烘干,具体地,
获取所述第一图像中使用者身体目标部位的光谱数据;
基于预设光谱外观模型,估计所述使用者身体目标部位的湿度空间图以及干湿光谱表面分布;
基于估计结果识别出使用者身体目标部位的清洁状态是否为烘干状态。
第2步,基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作。
具体实现时:
如果识别出清洁状态为待清洁,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动冲洗,直至检测到目标部位已冲洗干净为止;
如果识别出清洁状态为已清洁且未烘干,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述所述使用者身体目标部位进行自动烘干,直至检测到目标部位已烘干为止。
应理解,在自动冲洗或自动烘干时,还可以根据识别出的清洁状态,控制自动冲洗或自动烘干的时间,例如,识别出清洁状态为待清洁,且第一图像中目标区域的污浊面积较大,则可以自动加长冲洗时间,以保证一次冲洗干净。同理,识别出清洁状态为已清洁且未烘干,且检测到目标部位的湿度较大,则可以自动加长烘干时间。
可选地,在控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作时,还可以控制驱动所述清洁工具对所述使用者身体目标部位执行清洁操作的清洁力度。具体地,当控制驱动清洁工具执行冲洗操作时,可以根据目标部位的不同和/或目标部位相距清洁工具距离的不同来灵活调控清洁工具的喷出强度,以使得清洁工具对目标部位执行合适的冲洗力度,给使用者带来舒适感。当控制驱动清洁工具执行烘干操作时,可以根据目标部位的不同和/或目标部位相距清洁工具距离的远近来灵活调控清洁工具的烘干强度,以使得清洁工具对目标部位执行合适的烘干力度,例如,烘干温度、风速以及角度等,给使用者带来舒适感。从而,动态调整清洁力度既可以提升清洁效率,也可以节省水资源。
在本说明书实施例中,所述清洁控制装置还可以进一步包含健康检测模块,内置尿检或粪便检试纸,从而对使用者的排泄物进行自动检测,以便于监测使用者的健康状况。具体实现时,可通过尿检试纸对使用者尿液取样,摄像设备对试纸采图,图像传输给试纸颜色对比模块,进而对使用者的尿液中的多种生物标记物:红细胞,尿胆素原,胆红素,蛋白质,亚硝酸盐,酮,葡萄糖,pH、白细胞等进行定性和半定量分析,输出尿检结果,以此来监测使用者的健康状况。
应理解,在本说明书实施例中,模型训练、识别以及其它涉及到数据传输、存储的过程,均可以使用云计算和边缘计算。例如,模型训练阶段,将图像数据传到云端,使用云计算进行基于深度学习框架的图像识别模型训练,模型训练完成后,将模型嵌入边缘AI芯片中。实时识别阶段,使用更加快捷和安全的边缘计算,图像识别过程将在边缘AI芯片中进行,避免了数据传输带来的时间消耗,且更加保护了用户隐私。
需要说明的是,在本说明书实施例中,预设图像识别模型可以部署在智能卫厕本地,这样,可以在智能卫厕本地实现对使用者的目标部位的定位以及清洁状态识别。其实,也可以将预设图像识别模型部署在云端,这样,可以上传第一图像的图像特征至云端,基于云端的预设图像识别模型进行预测定位以及清洁状态识别。或者,预测定位在云端实现,而清洁状态识别在本地实现。
可选地,在本说明书实施例中,所述智能卫厕的清洁控制装置内还可以部署有区块链节点,即具备区块链节点功能的区块链节点模块;那么,所述清洁控制装置周期性统计本地处理的粪便量,并以所述智能卫厕的账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应的用户分配与所述粪便量的价值相匹配的激励资源;或者,所述清洁控制装置在使用者如厕结束后,统计本次处理的粪便量,并以识别出使用者的身份作为账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应使用者分配与所述粪便量的价值相匹配的激励资源。所述激励资源具体可以是数字货币,或是优惠券,或是公厕免费使用券等。这主要考虑到每天都有成千上万的粪便被运往肥料厂、沼气池,做成肥料和新能源,可见粪便是很有价值的。结合区块链技术在本发明里植入智能芯片,每个芯片是一个独立的节点,计算并记录用户对能源的贡献值,相应的用户可以获得激励回馈。
应理解,所述账户地址对应的用户可以是以智能卫厕所在家庭或机构单位设定的公共账户,也可以是以使用者个人为单位设定的个人账户。
其实,在本说明书实施例中,还可以基于采集到的使用者的生物特征信息,对使用者进行用户识别。具体地,可以基于阀门上的指纹识别装置,采集使用者的指纹,以识别出该使用者是家庭哪个用户或是访客用户。同时,记录使用时间等信息。或者,可以基于清洁控制装置上安装的图像采集装置对使用者的肛门褶纹进行采集,以识别出使用者是家庭哪个用户或是访客用户,其实,这些用户可以预先通过建立账户的方式设置,也可以在使用时临时添加。
参照图4所示,为本说明书实施例提供的一种智能卫厕的模块示意图,该智能卫厕至少包括:清洁控制装置41和清洁工具42,其实还包括卫厕主体43,马桶盖44等部件;其中,这些部件均以模块结构展示在图4中。其中,清洁控制装置41可进一步包括:
图像采集模块411,用于采集包含使用者身体目标部位的第一图像;
确定模块412,用于基于预先训练得到的图像识别模型,确定对应所述第一图像中目标部位的空间位置信息。其中,所述图像采集模块411和确定模块412具体可以是摄像机。
控制模块413,用于基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁。所述控制模块413具体可以是智能控件。
应理解,在本说明书实施例中,所述清洁工具42至少包括:可调控喷射角度和力度的冲洗喷嘴、烘干装置等。
可选地,所述预设图像识别模型至少包括:YOLO算法模型、SSD算法模型中的任意一种;其中,
所述预设图像识别模型基于第一样本图像提取的图像特征进行训练得到,或者,基于使用过程中使用者产生的第二样本图像提取的图像特征进行迭代训练得到。
可选地,在本说明书实施例中,所述清洁控制装置41的控制模块413在基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行精准清洁时,具体用于:
基于所述第一图像,识别使用者身体目标部位的清洁状态;
基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作。
可选地,所述控制模块413在基于所述第一图像,识别使用者身体目标部位的清洁状态时,具体用于:
判断所述第一图像中使用者身体目标部位的灰度值范围是否大于第一阈值范围,和/或,颜色范围是否大于第二阈值范围;
如果至少一个判断结果为是,则识别出所述使用者身体目标部位的清洁状态为待清洁;
否则,获取所述第一图像中使用者身体目标部位的光谱数据;基于预设光谱外观模型,估计所述使用者身体目标部位的湿度空间图以及干湿光谱表面分布;基于估计结果识别出使用者身体目标部位的清洁状态是否为烘干状态。
可选地,所述控制模块413在基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作时,具体用于:
如果识别出清洁状态为待清洁,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动冲洗,直至检测到目标部位已冲洗干净为止;
如果识别出清洁状态为已清洁且未烘干,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动烘干,直至检测到目标部位已烘干为止。
可选地,控制模块413还用于调节所述清洁工具对所述使用者身体目标部位执行清洁操作的清洁力度。
可选地,所述清洁控制装置41还用于基于采集到的使用者的生物特征信息,对使用者进行用户识别。其中,所述生物特征信息可以是指纹信息、虹膜信息或是肛门褶纹信息等。
可选地,所述清洁控制装置41还用于对使用者的排泄物进行自动检测,以便于监测使用者的健康状况。
所述摄像机可以包括深度摄像机或双目摄像机,从而能够实现从图像像素坐标反推相机坐标,相机坐标再进一步转换成世界坐标,进而计算出目标部位的空间位置信息。这样,可以将空间位置信息发送给智能控件,智能控件控制清洁工具调整为合适的角度以及力度进行清洁操作。
同时,参照图5所示,还可以实现一种智能卫厕系统,即图4所示的智能卫厕接入边缘计算平台和/或云端平台。图像识别模型可以嵌入在这类平台的人工智能芯片中,以快捷安全的实现计算、存储等操作,避免耗时且保护用户隐私。
进一步,参照图6所示,还可以实现一种智能卫厕系统,即图4或图5所示的智能卫厕接入区块链网络。通过去中心化的记账模式对资源进行记录和价值反馈。
下面通过具体的实例对本说明书所涉及的智能卫厕的清洁控制方案进行详述。
应理解,在确定目标部位的空间位置信息时,可以先通过图像采集装置(摄像机或其它图像采集设备)实时采集图像,图像经处理后将提取的图像特征传输至边缘设备,边缘设备中部署的人工智能深度学习框架实现自动识别目标区域得到区域位置坐标。然后将进过转换的位置坐标传输给清洁工具的智能控件。清洁工具在智能控件的驱动下移动对准坐标位置,开始清洁工作。
在本说明书实施例中,可以设置有清洁按键,在使用者如厕结束后,可以按下该清洁按键,之后,摄像机可以采集使用者臀部的图像,并将该图像处理后得到的图像特征传输至云端或边缘设备进行定位识别,最终通过云端或边缘设备中部署的深度学习模型自动识别出臀部的空间位置,并进行坐标转行后得到智能控件可以识别的控制参数。同时,还可以通过计算机视觉技术,识别出臀部的清洁状态;在如厕刚结束时,可以识别出清洁状态为待清洁,那么,基于控制参数调整冲洗喷嘴的角度和喷射力度,以对臀部的肛门以及周遭部位进行适度冲洗。其实,还可以根据识别出的待清洁状态,设置合适的冲洗时间,例如,当识别出污浊部位面积较大,则设置较长的冲洗时间,例如10秒,或者8秒;当识别出污浊部位面积较小,则设置较短的冲洗时间,例如5秒或者3秒。在冲洗结束后,识别出清洁状态为已清洁且未烘干,那么,基于原来的控制参数或冲洗后重新确定的控制参数,控制烘干装置对臀部进行皮肤烘干。同样可以设置灵活的烘干时间,在此不作限定。应理解,本说明书实施例中所涉及的冲洗及烘干时间均为举例说明,具体实现时可以根据所选硬件的配置灵活调整。
进一步,其实在使用者如厕过程后,内置的健康检测装置即可根据使用者的尿液或是粪便等对使用者进行简单的健康检测,以实现对使用者健康状况的监测。若发现检测结果异常,可进行报警,提示使用者注意身体状况。
同时,在如厕结束后,且清洁结束后,使用者可以按下卫厕阀门进行卫厕冲洗。此时,可以通过指纹识别用户身份,来记录使用者的如厕健康状况。其实,也可以在使用过程中,通过摄像头采集使用者的肛门褶纹来识别用户身份。这些可以在初次使用时进行设定,例如,初次采集家庭某成员的肛门褶纹,并与该用户的ID进行绑定,例如,肛门褶纹1-爸爸;肛门褶纹2-妈妈;肛门褶纹3-姥姥……;相当于注册用户身份,后续可以进行比对识别。应理解,本说明书所涉及的基于使用者的生物特征信息进行用户身份识别,也仅限定在智能卫厕本地实现。
当如厕结束后,智能卫厕可以通过容积或者重量等计量方式统计每个使用者的排便量,然后以一周或是一个月为周期单位对该家庭账户产生的粪便量进行统计。之后,由本地区块链模块将统计数据上传至区块链网络进行存储,区块链网络上部署的智能合约中可以约定有一些合约规则,例如,一吨粪便量为家庭账户带来10个数字货币的价值;或是,一吨粪便量可以为家庭账户赠送0.1吨的免费用水,此外还可以有多种交易方式或交易数量的合约规则,本说明书并不对此进行限定。
本说明书实施例中所涉及的智能卫厕,优选可以针对老年人或残疾人等群体使用,不需要使用者移动身体即可高效的对使用者目标部位进行清洁,避免这类群体身体状况差而带来的不便。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

Claims (6)

1.一种智能卫厕的清洁控制方法,应用在至少包含清洁控制装置和清洁工具的智能卫厕;所述清洁控制方法包括:
清洁控制装置采集包含使用者身体目标部位的第一图像;
所述清洁控制装置基于预设图像识别模型,确定对应所述第一图像中目标部位的空间位置信息,其中,所述预设图像识别模型至少包括:YOLO算法模型、SSD算法模型中的任意一种;所述预设图像识别模型基于与所述目标部位相关的第一样本图像提取的图像特征进行训练得到,或者,基于使用过程中使用者产生的第二样本图像提取的图像特征进行迭代训练得到;
基于所述第一图像,识别使用者身体目标部位的清洁状态,具体包括:判断所述第一图像中使用者身体目标部位的灰度值范围是否大于第一阈值范围,和/或,颜色范围是否大于第二阈值范围;
如果至少一个判断结果为是,则识别出所述使用者身体目标部位的清洁状态为待清洁;
否则,获取所述第一图像中使用者身体目标部位的光谱数据;基于预设光谱外观模型,估计所述使用者身体目标部位的湿度空间图以及干湿光谱表面分布;基于估计结果识别出使用者身体目标部位的清洁状态是否为烘干状态;
基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作;
其中,所述清洁状态包括:待清洁、已清洁未烘干和已清洁且烘干;与所述待清洁状态匹配的清洁操作为冲洗,与所述已清洁未烘干状态匹配的清洁操作为烘干;
所述智能卫厕的清洁控制装置内部署有区块链节点;所述方法还包括:
所述清洁控制装置周期性统计本地处理的粪便量,并以所述智能卫厕的账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应的用户分配与所述粪便量的价值相匹配的激励资源;或者,
所述清洁控制装置在使用者如厕结束后,统计本次处理的粪便量,并以识别出使用者的身份作为账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应的使用者分配与所述粪便量的价值相匹配的激励资源。
2.如权利要求1所述的方法,基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作,具体包括:
如果识别出清洁状态为待清洁,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动冲洗,直至检测到目标部位已冲洗干净为止;
如果识别出清洁状态为已清洁且未烘干,则基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位进行自动烘干,直至检测到目标部位已烘干为止。
3.如权利要求1或2所述的方法,在控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作时,还包括:
调节所述清洁工具对所述使用者身体目标部位执行清洁操作的清洁力度。
4.如权利要求1或2所述的方法,还包括:
基于采集到的使用者的生物特征信息,对使用者进行用户识别。
5.如权利要求1或2所述的方法,还包括:
对使用者的排泄物进行自动检测,以便于监测使用者的健康状况。
6.一种智能卫厕,至少包括:清洁控制装置和清洁工具;所述清洁控制装置包括:
图像采集模块,用于采集包含使用者身体目标部位的第一图像;
确定模块,用于基于预先训练得到的图像识别模型,确定对应所述第一图像中目标部位的空间位置信息,其中,所述预先训练得到的图像识别模型至少包括:YOLO算法模型、SSD算法模型中的任意一种;所述预先训练得到的图像识别模型基于第一样本图像提取的图像特征进行训练得到,或者,基于使用过程中使用者产生的第二样本图像提取的图像特征进行迭代训练得到;
控制模块,用于基于所述第一图像,识别使用者身体目标部位的清洁状态;基于确定的所述空间位置信息,控制驱动所述清洁工具对所述使用者身体目标部位执行与所述清洁状态匹配的清洁操作;其中,所述清洁状态包括:待清洁、已清洁未烘干和已清洁且烘干;与所述待清洁状态匹配的清洁操作为冲洗,与所述已清洁未烘干状态匹配的清洁操作为烘干;所述控制模块在基于所述第一图像,识别使用者身体目标部位的清洁状态时,具体用于判断所述第一图像中使用者身体目标部位的灰度值范围是否大于第一阈值范围,和/或,颜色范围是否大于第二阈值范围;如果至少一个判断结果为是,则识别出所述使用者身体目标部位的清洁状态为待清洁;否则,获取所述第一图像中使用者身体目标部位的光谱数据;基于预设光谱外观模型,估计所述使用者身体目标部位的湿度空间图以及干湿光谱表面分布;基于估计结果识别出使用者身体目标部位的清洁状态是否为烘干状态;
区块链节点模块;所述清洁控制装置用于周期性统计本地处理的粪便量,并以所述智能卫厕的账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应的用户分配与所述粪便量的价值相匹配的激励资源;或者,
所述清洁控制装置用于在使用者如厕结束后,统计本次处理的粪便量,并以识别出使用者的身份作为账户地址将统计的粪便量信息上传区块链网络,以便为所述账户地址对应的使用者分配与所述粪便量的价值相匹配的激励资源。
CN202010714631.5A 2020-07-23 2020-07-23 一种智能卫厕及其清洁控制方法 Active CN111598064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010714631.5A CN111598064B (zh) 2020-07-23 2020-07-23 一种智能卫厕及其清洁控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010714631.5A CN111598064B (zh) 2020-07-23 2020-07-23 一种智能卫厕及其清洁控制方法

Publications (2)

Publication Number Publication Date
CN111598064A CN111598064A (zh) 2020-08-28
CN111598064B true CN111598064B (zh) 2021-05-18

Family

ID=72191827

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010714631.5A Active CN111598064B (zh) 2020-07-23 2020-07-23 一种智能卫厕及其清洁控制方法

Country Status (1)

Country Link
CN (1) CN111598064B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106894481A (zh) * 2017-01-13 2017-06-27 杨徐子谦 一种基于智能马桶自动检测并清洁污垢方法及系统
CN108149761A (zh) * 2017-12-08 2018-06-12 国际设计有限公司 一种多功能健康监控智能马桶
CN108618956A (zh) * 2018-05-25 2018-10-09 苏州盖业智能科技有限公司 多点喷射均匀压强清洗装置及控制方法、应用
CN109682982A (zh) * 2017-10-17 2019-04-26 许兵 一种具有尿便自动检测及自动清洗功能的智能马桶
CN110872861A (zh) * 2018-08-31 2020-03-10 魔水科技(北京)有限公司 智能喷水杆、智能马桶盖及融合可视化功能的冲洗系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111053663A (zh) * 2019-12-31 2020-04-24 深圳希思凯科技有限公司 一种带有便后冲洗装置的护理系统及其控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106894481A (zh) * 2017-01-13 2017-06-27 杨徐子谦 一种基于智能马桶自动检测并清洁污垢方法及系统
CN109682982A (zh) * 2017-10-17 2019-04-26 许兵 一种具有尿便自动检测及自动清洗功能的智能马桶
CN108149761A (zh) * 2017-12-08 2018-06-12 国际设计有限公司 一种多功能健康监控智能马桶
CN108618956A (zh) * 2018-05-25 2018-10-09 苏州盖业智能科技有限公司 多点喷射均匀压强清洗装置及控制方法、应用
CN110872861A (zh) * 2018-08-31 2020-03-10 魔水科技(北京)有限公司 智能喷水杆、智能马桶盖及融合可视化功能的冲洗系统

Also Published As

Publication number Publication date
CN111598064A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
CN111543902B (zh) 地面清洁方法、装置、智能清洁设备和存储介质
CN109003390A (zh) 一种商品识别方法、无人售货机及计算机可读存储介质
CN108615046A (zh) 一种储粮害虫检测识别方法及装置
WO2020235473A1 (ja) 判定装置、判定方法、及びプログラム
CN111643014A (zh) 智能清洁方法、装置、智能清洁设备和存储介质
KR20160149390A (ko) 배설물상태 및 배변활동을 이용한 애완동물 건강상태 판단 방법 및 장치
US20230061071A1 (en) Systems and methods for animal health monitoring
CN111598064B (zh) 一种智能卫厕及其清洁控制方法
CN114033002A (zh) 一种感应马桶的自动冲水系统及自动冲水方法
CN113591512A (zh) 用于毛发识别的方法及装置、设备
Wang et al. An edge detection method by combining fuzzy logic and neural network
CN109657722A (zh) 基于深度学习算法的舌苔图像识别方法及系统
Wei et al. Using threshold method to separate the edge, coating and body of tongue in automatic tongue diagnosis
CN109119152A (zh) 一种马桶及其使用方法
CN117312985A (zh) 基于可解释深度学习的表面肌电信号相似手势识别方法
CN115063752B (zh) 一种基于uwb定位的视频追踪预警方法及系统
Banerjee et al. Gait based people identification system using multiple switching kinects
KR20200084946A (ko) 차량의 주차면 분석을 위한 지능형 cctv 장치
CN113440058A (zh) 一种扫地机器人针对动物排泄物的识别及处理方法和装置
CN113376160A (zh) 一种扫地机器人针对动物排泄物的识别及处理方法和装置
Fasching et al. Automated coding of activity videos from an OCD study
CN115244259A (zh) 排泄物识别方法、排泄物识别装置以及排泄物识别程序
CN113071965B (zh) 基于电梯的牲畜监控方法以及基于电梯的牲畜监控装置
Afridi et al. Leveraging Transfer Learning for Analyzing Cattle Front Teat Placement
CN109853698A (zh) 一种马桶使用方法及健康检测马桶

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant