CN111611979A - 基于面部扫描的智能健康监测系统及方法 - Google Patents
基于面部扫描的智能健康监测系统及方法 Download PDFInfo
- Publication number
- CN111611979A CN111611979A CN202010510381.3A CN202010510381A CN111611979A CN 111611979 A CN111611979 A CN 111611979A CN 202010510381 A CN202010510381 A CN 202010510381A CN 111611979 A CN111611979 A CN 111611979A
- Authority
- CN
- China
- Prior art keywords
- user
- facial
- feature point
- facial feature
- point position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Physiology (AREA)
- Computational Linguistics (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Fuzzy Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种基于面部扫描的智能健康监测系统及方法,所述系统包括:面部扫描设备,用于对用户进行面部扫描,获取用户的面部特征;控制器,用于根据所述面部扫描设备获取的用户的面部特征,获取用户的健康状态分类;所述控制器包括:模型存储模块;特征存储模块;图像识别模块;数据获取模块;以及状态分析模块,用于将数据获取模块得到的面部特征点位置移动数据输入模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。本发明可以帮助人们快速及时地了解到身体的健康状态,及时做到健康预警,基于大数据和深度学习模型,可以大大提高健康状态预测的准确率。
Description
技术领域
本发明涉及数据处理服务技术领域,具体是指一种基于面部扫描的智能健康监测系统及方法。
背景技术
随着生活节奏的加快,工作压力的加大,越来越多的人开始注重身体的健康状态。但是由于工作繁忙,并不是所有人都有时间能够经常去医院或相关机构进行身体健康检查。导致人们无法很好地对身体的健康状态进行预警。如何快速方便地知晓自身的健康状态,及时进行健康预警,是现在人们越来越关注的问题。
发明内容
为了解决现有技术中的问题,本发明提供了一种基于面部扫描的智能健康监测系统及方法,可以帮助人们快速及时地了解到身体的健康状态,及时做到健康预警,基于大数据和深度学习模型,可以大大提高健康状态预测的准确率。
为了实现上述目的,本发明具有如下构成:
本发明提供了一种基于面部扫描的智能健康监测系统,所述系统包括:
面部扫描设备,用于对用户进行面部扫描,获取用户的面部特征;
控制器,用于根据所述面部扫描设备获取的用户的面部特征,获取用户的健康状态分类;所述控制器包括:
模型存储模块,用于存储健康状态预测模型,所述健康状态预测模型的输入为面部特征点位置移动数据,输出为健康状态分类;
特征存储模块,用于预存各个用户的标准图像中的标准面部特征点位置;
图像识别模块,用于对所述面部扫描设备获取的面部特征进行分析,根据所述用户的面部特征确定用户的当前面部特征点位置;
数据获取模块,用于根据用户的面部特征对用户进行身份识别,并获取用户所对应的标准图像中的标准面部特征点位置,比较当前面部特征点位置和标准面部特征点位置,得到所述用户的面部特征点位置移动数据;
状态分析模块,用于将所述数据获取模块得到的面部特征点位置移动数据输入所述模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。
可选地,所述健康状态预测模型为基于深度学习的卷积神经网络模型,所述卷积神经网络模型包括卷积层、池化层、全连接层和softmax分类层。
可选地,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据。
可选地,所述图像识别模块采用如下步骤根据所述用户的面部特征确定用户的当前面部特征点位置:
所述图像识别模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置;
所述图像识别模块计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置。
可选地,所述数据获取模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
可选地,所述控制器还包括模型训练模块,所述模型训练模块用于基于深度学习构建健康状态预测模型,并采用训练集训练所述健康状态预测模型至所述健康状态预测模型收敛。
可选地,所述模型训练模块还用于预先采集标记有健康状态类别的用户的面部特征,比较采集的用户的面部特征与该用户的标准图像,计算面部特征点位置移动数据,将计算得到的面部特征点位置移动数据进行健康状态类别标记,并加入所述训练集。
可选地,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据;
所述模型训练模块采用如下步骤比较采集的用户的面部特征与该用户的标准图像,计算面部特征点位置移动数据:
所述模型训练模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置,计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置;
所述模型训练模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
本发明实施例还提供一种基于面部扫描的智能健康监测方法,采用所述的基于面部扫描的智能健康监测系统,所述方法包括如下步骤:
所述面部扫描设备对用户进行面部扫描,获取用户的面部特征;
所述图像识别模块对所述面部扫描设备获取的面部特征进行分析,根据所述用户的面部特征确定用户的当前面部特征点位置;
所述数据获取模块根据用户的面部特征对用户进行身份识别,并获取用户所对应的标准图像中的标准面部特征点位置;
所述数据获取模块比较当前面部特征点位置和标准面部特征点位置,得到所述用户的面部特征点位置移动数据;
所述状态分析模块将所述数据获取模块得到的面部特征点位置移动数据输入所述模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。
可选地,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据;
所述图像识别模块采用如下步骤根据所述用户的面部特征确定用户的当前面部特征点位置:
所述图像识别模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置;
所述图像识别模块计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置;
所述数据获取模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
综上所述,与现有技术相比,本发明通过面部扫描和面部特征智能分析,可以帮助人们快速及时地了解到身体的健康状态,及时做到健康预警,基于大数据和深度学习模型,可以大大提高健康状态预测的准确率,对于用户来说,只需要在面部扫描设备前面进行十分短暂的面部扫描即可,不会占用过多时间,使用十分方便,大大提升了用户的使用体验。
附图说明
图1为本发明一实施例的基于面部扫描的智能健康监测系统的结构示意图;
图2为本发明一实施例的健康状态预测模型训练的流程图;
图3为本发明一实施例的基于面部扫描的智能健康监测方法的流程图;
图4为本发明一实施例的健康状态预测的流程图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的实施方式;相反,提供这些实施方式使得本发明将全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的结构,因而将省略对它们的重复描述。
所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本发明的实施方式的充分理解。然而,本领域技术人员应意识到,没有特定细节中的一个或更多,或者采用其它的方法、组元、材料等,也可以实践本发明的技术方案。在某些情况下,不详细示出或描述公知结构、材料或者操作以避免模糊本发明。
如图1所示,为了解决现有技术中的技术问题,本发明提供了一种基于面部扫描的智能健康监测系统,包括:
面部扫描设备100,用于对用户进行面部扫描,获取用户的面部特征;面部扫描设备100获取面部特征的数量和分散度可以根据需要进行设定,选择的数量越多可以使得健康预测的结果越准确;面部扫描设备100可以采用现有技术中的面部扫描仪等设备来实现;
控制器200,用于根据所述面部扫描设备获取的用户的面部特征,获取用户的健康状态分类,例如,可以预先将健康状态分类得到多个类别:健康状态、亚健康状态、不健康状态、危急状态等。一旦发现不健康状态或危急状态时,可以进行报警,例如通过声音或显示画面来报警,或者发送报警信息给所关联的用户终端。
控制器200可以采用具有程序运算能力的服务器来实现,采用硬件资源能达到运算要求的个人计算机、平板电脑或手机等设备来实现也是可以的。
在该实施例中,为了实现对用户的健康状态的预测,所述控制器200包括:
模型存储模块210,用于存储健康状态预测模型,所述健康状态预测模型的输入为面部特征点位置移动数据,输出为健康状态分类;所述健康状态预测模型优选为基于深度学习的卷积神经网络模型,所述卷积神经网络模型包括卷积层、池化层、全连接层和softmax分类层。其中,卷积层和池化层用于进行特征提取,softmax分类层用于对特征进行分类,得到预测的健康状态分类结果;
特征存储模块220,用于预存各个用户的标准图像中的标准面部特征点位置,例如左眼眼角、右眼眼角、鼻尖、上嘴唇、下嘴唇等等特征点的位置,标准图像需要是用户在各项身体指标都趋于正常时预先录入的标准图像,用于后续与实际采集图像进行比对,在录入标准图像时,可以采用面部扫描设备100从多个角度对用户的脸部进行扫描,从而录入尽可能多的特征点的信息;
图像识别模块230,用于对所述面部扫描设备获取的面部特征进行分析,根据所述用户的面部特征确定用户的当前面部特征点位置;面部特征点的识别可以采用主动形状模型,但本发明不限于此;
数据获取模块240,用于根据用户的面部特征对用户进行身份识别,查询到用户的身份ID,并根据用户的身份ID从特征存储模块220中获取用户所对应的标准图像中的标准面部特征点位置,比较当前面部特征点位置和标准面部特征点位置,得到所述用户的面部特征点位置移动数据;
状态分析模块250,用于将所述数据获取模块得到的面部特征点位置移动数据输入所述模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。
因此,本发明通过面部扫描设备100进行面部扫描和通过控制器200进行面部特征智能分析,可以帮助人们快速及时地了解到身体的健康状态,及时做到健康预警,状态分析模块250基于大数据和深度学习模型进行健康状态预测,可以大大提高健康状态预测的准确率,对于用户来说,只需要在面部扫描设备前面进行十分短暂的面部扫描即可,不会占用过多时间,使用十分方便,大大提升了用户的使用体验。
在该实施例中,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据。预设中心点可以设置为鼻尖,或两眼中间的位置等一个相对来说比较靠中间的位置点。
在该实施例中,所述图像识别模块230采用如下步骤根据所述用户的面部特征确定用户的当前面部特征点位置:
所述图像识别模块230从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置;
所述图像识别模块230计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置。
在该实施例中,所述数据获取模块240计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
在该实施例中,所述控制器还包括模型训练模块,所述模型训练模块用于基于深度学习构建健康状态预测模型,并采用训练集训练所述健康状态预测模型至所述健康状态预测模型收敛,例如可以采用梯度下降法对健康状态预测模型进行训练,训练至损失函数小于一定阈值。
在该实施例中,所述模型训练模块还用于预先采集标记有健康状态类别的用户的面部特征,比较采集的用户的面部特征与该用户的标准图像,计算面部特征点位置移动数据,将计算得到的面部特征点位置移动数据进行健康状态类别标记,并加入所述训练集。
如图2所示,在该实施例中,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据;
所述模型训练模块采用如下步骤比较采集的用户的面部特征与该用户的标准图像,计算面部特征点位置移动数据:
所述模型训练模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置,计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置;
所述模型训练模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
因此,本发明只需要预先采集一部分用户的各种健康状态下面部特征与标准面部特征的数据,即可以对健康状态预测模型进行训练,得到一个预测准确的健康状态预测模型。对于新用户来说,只有预先录入过其标准图像,即可以在今后的使用中,只需要进行一个简单的面部检测就可以实现健康状态的预测,使用十分方便,不会耗费很多时间。对于工作繁忙的白领来说,不会占用太多时间,可以更快速地知道健康状态预测结果,而对于老人和小孩来说,使用操作更加简单方便,不会因为复杂的操作而给用户造成困扰。
如图3所示,本发明实施例还提供一种基于面部扫描的智能健康监测方法,采用所述的基于面部扫描的智能健康监测系统,所述方法包括如下步骤:
所述面部扫描设备对用户进行面部扫描,获取用户的面部特征,面部特征可以包括面部图像中各个像素的颜色数据和亮度数据;
所述图像识别模块对所述面部扫描设备获取的面部特征进行分析,根据所述用户的面部特征确定用户的当前面部特征点位置;
所述数据获取模块根据用户的面部特征对用户进行身份识别,并获取用户所对应的标准图像中的标准面部特征点位置;
所述数据获取模块比较当前面部特征点位置和标准面部特征点位置,得到所述用户的面部特征点位置移动数据,即计算标准面部特征点位置和当前面部特征点位置的差值,即反映用户当前面部特征点相比于标准图像时的变化,后续据此来进行健康状态预测;
所述状态分析模块将所述数据获取模块得到的面部特征点位置移动数据输入所述模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。
如图4所示,在该实施例中,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据;
所述图像识别模块采用如下步骤根据所述用户的面部特征确定用户的当前面部特征点位置:
所述图像识别模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置;面部特征点的数量需要满足不少于预设特征点数量阈值,如果数量过少,可能会导致预测不准确,需要用户最好正面面对面部扫描仪,从而获得比较多的面部特征点;
所述图像识别模块计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置;
所述数据获取模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
本发明的基于面部扫描的智能健康监测方法中,各个步骤的具体实施方式可以采用上述基于面部扫描的智能健康监测系统的各个模块的功能实现方式,此处不予赘述。
综上所述,与现有技术相比,本发明通过面部扫描和面部特征智能分析,可以帮助人们快速及时地了解到身体的健康状态,及时做到健康预警,基于大数据和深度学习模型,可以大大提高健康状态预测的准确率,对于用户来说,只需要在面部扫描设备前面进行十分短暂的面部扫描即可,不会占用过多时间,使用十分方便,大大提升了用户的使用体验。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (10)
1.一种基于面部扫描的智能健康监测系统,其特征在于,所述系统包括:
面部扫描设备,用于对用户进行面部扫描,获取用户的面部特征;
控制器,用于根据所述面部扫描设备获取的用户的面部特征,获取用户的健康状态分类;所述控制器包括:
模型存储模块,用于存储健康状态预测模型,所述健康状态预测模型的输入为面部特征点位置移动数据,输出为健康状态分类;
特征存储模块,用于预存各个用户的标准图像中的标准面部特征点位置;
图像识别模块,用于对所述面部扫描设备获取的面部特征进行分析,根据所述用户的面部特征确定用户的当前面部特征点位置;
数据获取模块,用于根据用户的面部特征对用户进行身份识别,并获取用户所对应的标准图像中的标准面部特征点位置,比较当前面部特征点位置和标准面部特征点位置,得到所述用户的面部特征点位置移动数据;
状态分析模块,用于将所述数据获取模块得到的面部特征点位置移动数据输入所述模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。
2.根据权利要求1所述的基于面部扫描的智能健康监测系统,其特征在于,所述健康状态预测模型为基于深度学习的卷积神经网络模型,所述卷积神经网络模型包括卷积层、池化层、全连接层和softmax分类层。
3.根据权利要求1所述的基于面部扫描的智能健康监测系统,其特征在于,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据。
4.根据权利要求3所述的基于面部扫描的智能健康监测系统,其特征在于,所述图像识别模块采用如下步骤根据所述用户的面部特征确定用户的当前面部特征点位置:
所述图像识别模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置;
所述图像识别模块计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置。
5.根据权利要求4所述的基于面部扫描的智能健康监测系统,其特征在于,所述数据获取模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
6.根据权利要求1所述的基于面部扫描的智能健康监测系统,其特征在于,所述控制器还包括模型训练模块,所述模型训练模块用于基于深度学习构建健康状态预测模型,并采用训练集训练所述健康状态预测模型至所述健康状态预测模型收敛。
7.根据权利要求6所述的基于面部扫描的智能健康监测系统,其特征在于,所述模型训练模块还用于预先采集标记有健康状态类别的用户的面部特征,比较采集的用户的面部特征与该用户的标准图像,计算面部特征点位置移动数据,将计算得到的面部特征点位置移动数据进行健康状态类别标记,并加入所述训练集。
8.根据权利要求7所述的基于面部扫描的智能健康监测系统,其特征在于,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据;
所述模型训练模块采用如下步骤比较采集的用户的面部特征与该用户的标准图像,计算面部特征点位置移动数据:
所述模型训练模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置,计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置;
所述模型训练模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
9.一种基于面部扫描的智能健康监测方法,其特征在于,采用权利要求1至8中任一项所述的基于面部扫描的智能健康监测系统,所述方法包括如下步骤:
所述面部扫描设备对用户进行面部扫描,获取用户的面部特征;
所述图像识别模块对所述面部扫描设备获取的面部特征进行分析,根据所述用户的面部特征确定用户的当前面部特征点位置;
所述数据获取模块根据用户的面部特征对用户进行身份识别,并获取用户所对应的标准图像中的标准面部特征点位置;
所述数据获取模块比较当前面部特征点位置和标准面部特征点位置,得到所述用户的面部特征点位置移动数据;
所述状态分析模块将所述数据获取模块得到的面部特征点位置移动数据输入所述模型存储模块中存储的健康状态预测模型,得到所述健康状态预测模型输出的健康状态分类。
10.根据权利要求9所述的基于面部扫描的智能健康监测方法,其特征在于,所述各个用户的标准图像中的标准面部特征点位置包括标准图像中各个面部特征点与一预设中心点的距离数据;
所述图像识别模块采用如下步骤根据所述用户的面部特征确定用户的当前面部特征点位置:
所述图像识别模块从所述用户的面部特征中识别预设中心点的位置和各个面部特征点的位置;
所述图像识别模块计算各个面部特征点到所述预设中心点的距离,作为用户的当前面部特征点位置;
所述数据获取模块计算当前面部特征点到预设中心点的距离与标准图像中对应面部特征点到预设中心点的距离的差值,作为所述用户的面部特征点位置移动数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010510381.3A CN111611979A (zh) | 2020-06-08 | 2020-06-08 | 基于面部扫描的智能健康监测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010510381.3A CN111611979A (zh) | 2020-06-08 | 2020-06-08 | 基于面部扫描的智能健康监测系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111611979A true CN111611979A (zh) | 2020-09-01 |
Family
ID=72205632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010510381.3A Withdrawn CN111611979A (zh) | 2020-06-08 | 2020-06-08 | 基于面部扫描的智能健康监测系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611979A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112086193A (zh) * | 2020-09-14 | 2020-12-15 | 巢自强 | 一种基于物联网的人脸识别健康预测系统及方法 |
-
2020
- 2020-06-08 CN CN202010510381.3A patent/CN111611979A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112086193A (zh) * | 2020-09-14 | 2020-12-15 | 巢自强 | 一种基于物联网的人脸识别健康预测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109086756B (zh) | 一种基于深度神经网络的文本检测分析方法、装置及设备 | |
US20200005022A1 (en) | Method, terminal, and storage medium for tracking facial critical area | |
WO2020182121A1 (zh) | 表情识别方法及相关装置 | |
CN109644255B (zh) | 标注包括一组帧的视频流的方法和装置 | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
CN109919077B (zh) | 姿态识别方法、装置、介质和计算设备 | |
US11429985B2 (en) | Information processing device calculating statistical information | |
WO2021208617A1 (zh) | 进出站识别方法、装置、终端及存储介质 | |
CN112861917A (zh) | 基于图像属性学习的弱监督目标检测方法 | |
CN114549993A (zh) | 实验中线段图像的评分方法、系统、设备及可读存储介质 | |
CN115862113A (zh) | 陌生人异常识别方法、装置、设备及存储介质 | |
CN112650885A (zh) | 视频分类方法、装置、设备和介质 | |
KR102440198B1 (ko) | 시각 검색 방법, 장치, 컴퓨터 기기 및 저장 매체 (video search method and apparatus, computer device, and storage medium) | |
CN112052730A (zh) | 一种3d动态人像识别监控设备及方法 | |
CN111597921A (zh) | 场景识别方法、装置、计算机设备和存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN111611979A (zh) | 基于面部扫描的智能健康监测系统及方法 | |
US10917721B1 (en) | Device and method of performing automatic audio focusing on multiple objects | |
JP6855737B2 (ja) | 情報処理装置、評価システムおよびプログラム | |
CN105631410B (zh) | 一种基于智能视频处理技术的课堂检测方法 | |
CN111539390A (zh) | 一种基于Yolov3的小目标图像识别方法、设备和系统 | |
Fernandes et al. | IoT based smart security for the blind | |
RU2768797C1 (ru) | Способ и система для определения синтетически измененных изображений лиц на видео | |
Sai | Image classification for user feedback using Deep Learning Techniques | |
KR20230077560A (ko) | 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200901 |
|
WW01 | Invention patent application withdrawn after publication |