CN116912893A - 一种疫情环境下耳温监测方法、装置、平台和存储介质 - Google Patents
一种疫情环境下耳温监测方法、装置、平台和存储介质 Download PDFInfo
- Publication number
- CN116912893A CN116912893A CN202211368562.2A CN202211368562A CN116912893A CN 116912893 A CN116912893 A CN 116912893A CN 202211368562 A CN202211368562 A CN 202211368562A CN 116912893 A CN116912893 A CN 116912893A
- Authority
- CN
- China
- Prior art keywords
- auricle
- image
- recognition model
- ear
- monitored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000012544 monitoring process Methods 0.000 title claims abstract description 57
- 230000036760 body temperature Effects 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 25
- 210000002569 neuron Anatomy 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 15
- 230000002159 abnormal effect Effects 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012806 monitoring device Methods 0.000 claims description 7
- 238000007726 management method Methods 0.000 description 34
- 230000006870 function Effects 0.000 description 25
- 238000009529 body temperature measurement Methods 0.000 description 20
- 230000004913 activation Effects 0.000 description 19
- 238000011176 pooling Methods 0.000 description 15
- 210000003454 tympanic membrane Anatomy 0.000 description 11
- 238000000605 extraction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002265 prevention Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000000415 inactivating effect Effects 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000005457 Black-body radiation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0003—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiant heat transfer of samples, e.g. emittance meter
- G01J5/0011—Ear thermometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0022—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
- G01J5/0025—Living bodies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种疫情环境下耳温监测方法、装置、平台和存储介质,方法包括:获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像;将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征;计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;基于匹配度确定待监测对象的目标身份信息,并将耳温数据添加至与目标身份信息对应的体温数据列表中。
Description
技术领域
本申请涉及人工智能领域,尤其是涉及一种疫情环境下耳温监测方法、装置、平台和存储介质。
背景技术
在大范围流行疾病的情况下,在公众场合或常驻场合需要对过往行人的身份识别和体温测量进行一体化检测,以便出现体温异常的行人,能够快速确定该行人的身份信息,从而提高疫情防护或日常体温测量的管理服务。
相关技术中的身份识别和体温测量的一体化检测方法是,通过具有人脸抓拍功能的摄像头实时抓拍被检测人员的人脸图像,以及利用红外线测温仪或带有红外测温的摄像头来进行红外线体温检测,对被检测人员进行身份识别和体温测量。然而,在被检测人员的人脸有遮挡物如帽子或口罩,和/或被检测人员经历室外暴晒或寒冷环境的情况下,该方法至少存在对人脸的识别和/或体温的测量检测不准确的问题。
发明内容
本申请提供一种疫情环境下耳温监测方法、装置、平台和存储介质,解决相关技术中存在对人脸的识别和/或体温的测量检测不准确的问题。
本申请的技术方案是这样实现的:
本申请提供一种疫情环境下耳温监测方法,所述方法包括:
获取耳温设备采集的待监测对象的耳温数据,以及包含所述待监测对象的耳廓的人耳图像;
将人耳图像输入至耳廓识别模型中,得到所述耳廓识别模型输出的待识别耳廓的耳廓特征;
计算所述待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;
基于所述匹配度确定所述待监测对象的目标身份信息,并将所述耳温数据添加至与所述目标身份信息对应的体温数据列表中。
本申请提供一种疫情环境下耳温监测装置,所述装置包括:
获取模块,用于获取耳温设备采集的待监测对象的耳温数据,以及包含所述待监测对象的耳廓的人耳图像;
处理模块,用于将人耳图像输入至耳廓识别模型中,得到所述耳廓识别模型输出的待识别耳廓的耳廓特征;
所述处理模块,还用于计算所述待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;
确定模块,用于基于所述匹配度确定所述待监测对象的目标身份信息;
添加模块,用于将所述耳温数据添加至与所述目标身份信息对应的体温数据列表中。
本申请提供一种信息管理平台,所述信息管理平台包括:存储器,用于存储可执行指令;处理器,用于执行所述存储器中存储的可执行指令,以实现上述所述的疫情环境下耳温监测方法。
本申请提供一种计算机存储介质,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述所述的疫情环境下耳温监测方法。
本申请提供一种疫情环境下耳温监测方法、装置、平台和存储介质,获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像;将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征;计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;基于匹配度确定待监测对象的目标身份信息,并将耳温数据添加至与目标身份信息对应的体温数据列表中;如此,本申请通过使用耳温设备对待监测对象进行体温检测,可以直接对耳膜温度进行测量,体温检测更加精准,同时也减少了如距离,被测物质发射率,强光背景,空气中蒸汽、尘土、烟雾和人体表面温度易受外界环境影响等因素对体温测量结果造成的影响提高了体温检测的成功率和正确率;进一步地,采用耳廓识别模型,提取包含待监测对象的耳廓的人耳图像中的待识别耳廓的耳廓特征,并得到待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度,选择匹配度满足匹配度条件的耳廓样本特征作为待监测对象的目标身份信息;如此,由于在获得人耳图像时,无面部遮挡,发型,墨镜等因素可能对识别结果造成的影响,通过耳廓特征进行耳廓识别,进而确定对象身份,提高了身份识别的准确率;同时,还实现温度记录和身份识别一体化系统。
附图说明
图1为本申请实施例提供的一种可选的疫情环境下耳温监测方法的流程示意图;
图2为本申请实施例提供的一种可选的疫情环境下耳温监测方法的流程示意图;
图3为本申请实施例提供的一种可选的疫情环境下耳温监测方法的流程示意图;
图4为本申请实施例提供的Alexnet网络模型的结构示意图;
图5为本申请实施例提供的待训练耳廓识别模型的结构信息示意图;
图6为本申请实施例提供的一种各种特征提取方法对应的箱线示意图;
图7为本申请实施例提供的一种疫情环境下耳温监测装置的结构示意图;
图8为本申请实施例提供的一种信息管理平台的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,这里,关于附图说明中提到的“另一种”或“又一种”并非指特定某个实施例,本申请的各个实施例可以在不冲突的情况下相互结合。
应理解,说明书通篇中提到的“本申请实施例”或“前述实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“本申请实施例中”或“在前述实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中应用。在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请提供了一种疫情环境下耳温监测方法,应用于信息管理平台,如图 1所示,该方法包括以下步骤:
步骤101、获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像。
本申请实施例中,信息管理平台可以是任一具有数据处理能力和数据存储能力的设备,如服务器,个人计算机(Personal Computer,PC)。在一种可实现的方式中,耳温设备采集待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像,和/或耳温数据的测量时间等信息;并通过网络将待监测对象的耳温数据、测量时间和人耳图像等信息自动上传至配套的信息管理平台,以使信息管理平台基于人耳图像对待监测对象的身份信息进行识别和确定,以便将待监测对象的耳温数据和/或测量时间添加至与待监测对象的身份信息对应的数据列表中;如此,无需改变和新增动作,减少学习和改动动作成本,仅通过测量耳温的动作就可以完成身份和体温识别与自动上传。当然,信息管理平台还可以进行用户管理,录入和修改用户的基本信息,用户体温检测记录,明细表,体温异常人员提醒,当日情况汇总,异常数据推送等功能,还可以进行用户管理和考勤记录,对此,本申请不做具体限制。
本申请实施例中,耳温数据可以可理解为测量的待监测对象的耳膜温度。这里,基于疫情防控的需要,本申请实施例在对待监测对象进行温度测量时采用非接触测温,如非接触耳温测量。耳温测量是一种较为有效且精准的非接触遥测式体温测量方法,耳温测量一般利用耳温设备的红外测温原理来测量耳膜温度,因供应耳膜与供应下视丘的血流是互通的,且下视丘刚好是人体温度的中心点,故采用耳膜温度来反映人体的温度较为精准且合适。
示例性地,针对公共场所如居住地小区、商场、办公大厦、办公单位和餐馆等,在用户进入这些场所之前,基于疫情防控的要求,需要对过往的人员进行体温检测。此时,公共场所的管理人员一般会利用温度测量设备对待监测对象的耳温、手温或额温进行测量。在本申请实施例中,温度测量设备为耳温设备,通过耳温设备采集待监测对象的耳温数据,即利用耳温设备的红外线测,具体地,耳温设备向待监测对象的耳膜区域发射红外线,并测量耳膜区域的红外线辐射强度,进而计算出耳膜区域的表面温度,从而得到耳膜温度,即耳温数据,实现对待监测对象的温度测量,如此,全程不与待监测对象接触,实现非接触测温。
本申请实施例中,人耳图像是包括待监测对象的耳廓的图像,人耳图像用于识别待监测对象的待识别耳廓,以及获得待识别耳廓的耳廓特征。人耳图像可以是红绿蓝色彩模式(Red Green Blue color mode,RGB)图像,人耳图像也可以是印刷四色模式(CyanMagenta Yellow Black color mode,CMYK)图像,本申请对此不作任何限定。
本申请实施例中,耳温设备通过耳道测量人体体温的温度测量设备,耳温设备属于非接触遥测式(如遥测距离可以为一公分)的设备,主要利用检测鼓膜(相当于下视丘)所发出的红外线光谱来决定体温,根据黑体辐射理论,不同温度的物体所产生的红外线光谱也不同,利用可以精准到0.1℃的温差电堆 (Thermopile)红外线侦测器,再以微计算机转换读数而显现出来。耳温设备包括但不限于耳温枪、耳温计和耳温仪等。
在一些实施例中,耳温设备配置有图像采集模组,人耳图像是在采集耳温数据的过程中,通过图像采集模组采集的待监测对象的耳廓的图像。
本申请实施例中,耳温设备具有图像采集模组。图像采集模组可以是摄像头。耳温设备可以对自带的图像采集模组的配置参数进行设置,即对图像采集模组的拍摄角度范围、拍摄距离范围等的拍摄配置参数根据实际需求进行设置。耳温设备还可以对图像采集模组所采集的图像进行分析和处理。
本申请实施例中,耳温设备在采集耳温数据的过程中,即耳温设备移动的过程中,通过图像采集模组采集的待监测对象的耳廓的图像,从而获得待监测对象的耳廓的人耳图像。
本申请实施例中,人耳图像可以是耳温设备移动至用于测量温度的目标区域的过程中,从图像采集模组拍摄的多帧图像中选取的包含有待监测对象的耳廓的一帧人耳图像;人耳图像也可以是耳温设备移动至用于测量温度的目标区域的过程中,直接获得图像采集模组拍摄的包含有待监测对象的耳廓的一帧人耳图像。对于人耳图像的获取方式,本申请不做具体限制。
在一种可实现的应用场景中,以耳温设备为耳温枪,图像采集模组为摄像头为例对上述耳温设备采集的待监测对象的耳温数据和人耳图像做进一步说明。耳温枪带有内置摄像头,在公共场所的管理人员通过带有内置摄像头的定制版耳温枪,来检测过往人员的耳温的过程中,举起定制版耳温枪经过耳朵外侧并放置入耳朵前,因耳温枪需要放置于外耳道,故管理人员将耳温枪移动至外耳道的过程中,耳温枪中内置的摄像头正对整个耳廓,从而拍摄到包括过往人员的耳廓的人耳图像;在耳温枪移动至外耳道后,耳温枪通过红外测温原理来测量过往人员的耳温数据;如此,得到了过往人员的耳温数据,以及包含过往人员的耳廓的人耳图像。
步骤102、将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征。
本申请实施例中,耳廓特征可以理解为能够表征待识别耳廓的耳廓信息。这里,耳廓特征可以用向量形式表示,耳廓特征也可以用矩阵形式表示,对此,本申请不做具体限制。
其中,耳廓的特征是人类自身所固有的生物特征,获得耳廓的特征是通过耳廓识别技术实现的;这里,耳廓识别是一种新兴的生物识别技术,耳廓识别是利用人耳外形进行识别,从而获得耳廓的特征。需要说明的是,耳廓的特征、指纹的特征、虹膜的特征、人脸的特征等生物特征均具有永久性的生物标识,但耳廓的特征不受发型、化妆、肤色、光照等常见因素的影响,且在人类年幼时期至老年时期,耳廓的形状和外形都不会发生明显的改变,因此耳廓的特征与指纹的特征、虹膜的特征、人脸的特征等其他生物特征相比,耳廓的形状特征都具有高度的唯一性和稳定性。
本申请实施例中,耳廓识别模型可以是经过训练的AlexNet神经网络模型;耳廓识别模型也可以是经过训练的改进的AlexNet神经网络模型;当然,耳廓识别模型还可以是经过训练的卷积神经网络(Convolutional Neural Networks, CNN)模型,对此,本申请不做具体限制。
本申请实施例中,在获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像的情况下,将人耳图像输入至经过训练的耳廓识别模型中,得到耳廓识别模型输出的能够表征待监测对象的待识别耳廓信息的耳廓特征。
步骤103、计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度。
本申请实施例中,匹配度可以理解为待识别耳廓的耳廓特征与耳廓样本特征之间的匹配程度或者相似程度。
本申请实施例中,耳廓样本特征为预先存储在耳廓样本特征库中的特征,耳廓样本特征库中存有多个耳廓样本特征。在一种可实现的场景中,录入耳廓样本特征的方式可以是通过图像采集模组采集每一对象的耳廓样本图像,将耳廓样本图像输入至经过训练的耳廓识别模型中,从而得到每一对象的耳廓特征;进一步地,将其作为耳廓样本特征存储在耳廓样本特征库。需要强调的是,耳廓图像中包含有对象清晰的耳廓形状,以便获取到对象准确的耳廓特征,作为该对象的耳廓样本特征。
在一种可实现的应用场景中,以信息管理平台为某公司的信息管理平台为例,预先录入该公司所有员工的耳廓图像,将耳廓图像输入至经过训练的耳廓识别模型中,从而得到每一员工的耳廓样本特征,并将其存储在耳廓样本特征库。进一步地,在员工在上班时,耳温设备采集员工的耳温信息和人耳图像,并将采集的员工的耳温信息和人耳图像上传至信息管理平台;信息管理平台将人耳图像输入至耳廓识别模型中,得到待监测对象的待识别耳廓的耳廓特征;进一步地,信息管理平台将待识别耳廓的耳廓特征与存储在耳廓样本特征库中的每一耳廓样本特征进行匹配,确定待识别耳廓的耳廓特征与每一耳廓样本特征之间的匹配度,以使信息管理平台基于匹配度,对待监测对象的身份信息进行识别和确定,以便将待监测对象的耳温数据添加至与待监测对象的身份信息对应的数据列表中。
步骤104、基于匹配度确定待监测对象的目标身份信息,并将耳温数据添加至与目标身份信息对应的体温数据列表中。
本申请实施例中,在计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度的情况下,选择匹配度满足匹配度条件的耳廓样本特征对应的身份信息,作为待监测对象的目标身份信息,从而将耳温数据和/ 或耳温数据的测量时间等信息添加至与目标身份信息对应的体温数据列表中,实现对待检测对象的身份识别和体温测量的一体化记录。
本申请提供一种疫情环境下耳温监测方法,获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像;将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征;计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;基于匹配度确定待监测对象的目标身份信息,并将耳温数据添加至与目标身份信息对应的体温数据列表中;如此,本申请通过使用耳温设备对待监测对象进行体温检测,可以直接对耳膜温度进行测量,体温检测更加精准,同时也减少了如距离,被测物质发射率,强光背景,空气中蒸汽、尘土、烟雾和人体表面温度易受外界环境影响等因素对体温测量结果造成的影响提高了体温检测的成功率和正确率;进一步地,采用耳廓识别模型,提取包含待监测对象的耳廓的人耳图像中的待识别耳廓的耳廓特征,并得到待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度,选择匹配度满足匹配度条件的耳廓样本特征作为待监测对象的目标身份信息;如此,由于在获得人耳图像时,无面部遮挡,发型,墨镜等因素可能对识别结果造成的影响,通过耳廓特征进行耳廓识别,进而确定对象身份,提高了身份识别的准确率;同时,还实现温度记录和身份识别一体化系统。
本申请提供了一种疫情环境下耳温监测方法,应用于信息管理平台,如图 2所示,该方法包括以下步骤:
步骤201、获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像。
步骤202、将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征。
本申请其他实施例中,信息管理平台将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征之前,信息管理平台还对其中的耳廓识别模型进行训练,其中,该耳廓识别模型的训练过程结合图3做出进一步地说明,
步骤221、获取包括已标注监测对象的耳廓样本图像和已标注监测对象的对象数量。
本申请实施例中,已标注监测对象包括上述的待监测对象,耳廓样本图像的大小满足预设大小条件,示例性地,耳廓样本图像的大小可以为224×224×3。需要说明的是,可以对采集图像的图像采集模组的参数进行设置,确保图像采集模组采集到的图像的大小满足预设大小条件。
本申请实施例中,信息管理平台对耳廓样本图像中监测对象按照预设规则进行标注,其中,预设规则可以是基于监测对象的属性信息生成的,其中,属性信息包括但不限于监测对象姓名、身份证号和工号中的至少一个,本申请对此不作任何限定。
本申请实施例中,已标注监测对象的耳廓样本图像指的是在获取的监测对象的耳廓样本图像之后,需要将这些耳廓样本图像打上监测对象的标签作为训练样本图像,进而对待训练耳廓识别模型进行训练。这里,监测对象的标签包括但不限于监测对象姓名、身份证号和工号中的至少一个。
在一种可实现的应用场景中,获取监测对象的耳廓样本图像的方式是,通过带有图像采集模组的耳温设备在每一个监测对象的耳廓位置停留一段时间时间,对监测对象的耳廓进行拍摄,从而得到监测对象的耳廓样本图像。
在另一种可实现的应用场景中,获取监测对象的耳廓样本图像的方式是,通过单独的图像采集模组对监测对象的耳廓进行拍摄,从而得到监测对象的耳廓样本图像。
本申请实施例中,已标注监测对象的对象数量指的是所有标注过的监测对象的数量,已标注监测对象的对象数量用于调整Alexnet网络模型中目标全连接层的神经元的数量;需要说明的是,在不同的应用场景下,监测对象的对象数量不同,示例性地,监测对象仅包括公司A中的员工的数量,与监测对象包括位于办公楼B中的所有人员(包括公司A中的员工)的数量不同,如此,根据已标注监测对象的对象数量,动态调整Alexnet网络模型中目标全连接层的神经元的数量,保证网络网络模型的设计符合最实际的应用场景,且模型计算过程中的计算数据量与实际情况相匹配。
步骤222、基于对象数量,对Alexnet网络模型中目标全连接层的神经元的数量进行调整,得到待训练耳廓识别模型。
其中,目标全连接层用于对已标注监测对象进行特征分类,从而满足对象识别需求。
这里,目标全连接层指的是Alexnet网络模型中最后一层的全连接层,
本申请实施例中,目标全连接层的神经元的数量大于或等于对象数量。
本申请实施例中,已标注监测对象的对象数量不同,则Alexnet网络模型中目标全连接层的神经元的数量也不同,也就是说,目标全连接层的神经元的数量与获得的已标注监测对象的图像类别有关。示例性地,已标注监测对象的对象数量为1000,获得的已标注监测对象的图像类别数为1000,确定Alexnet 网络模型中目标全连接层的神经元的数量为1200,1200个神经元对应1200个检测类别,此时目标全连接层的神经元的数量大于对象数量,以便后续扩展已标注监测对象的识别需求,即对扩展的已标注监测对象进行身份识别。如此,满足对对象类别进行分类识别的需求,减少了训练资源的浪费,同时,还预留有一定数量的神经元,从而满足后续扩展已标注监测对象的识别需求。
本申请实施例中,信息管理平台在获取包括已标注监测对象的耳廓样本图像和已标注监测对象的对象数量之后,将Alexnet网络模型中目标全连接层的神经元的数量调整为大于或等于对象数量,从而得到待训练耳廓识别模型。
这里,本申请实施例所使用的待训练耳廓识别模型是基于对Alexnet网络模型进行调整得到的,为了便于理解本申请实施例所使用的耳廓识别模型,下面结合图4对Alexnet网络模型进行简要描述:
从图4中可以看出,该图共包括九层,其中,第一层为图像输入层,第二层至第九层为AlexNet网络模型,AlexNet网络模型沿正向传播方向依次包括有图像输入层、第一卷积层、第一批规范化层、第一最大池化层、第二卷积层、第二批规范化层、第二最大池化层、第三卷积层、第四卷积层、第五卷积层、第三最大池化层、第一全连接层、第一丢弃层、第二全连接层、第二丢弃层和第三全连接层,其中,
图像输入层为输入的图像,需要说明的是,采集的耳廓样本图像的大小为 224×224×3的RGB图像,经过图像输入层预处理变为图像大小为227×227×3 的RGB图像;
第一卷积层的卷积核为11×11,步长为4,输出通道数为96(由于使用两台图形处理器(graphics processing unit,GPU)同时训练,每台GPU的输出通道数为48,故共有96个输出通道),激活函数为Relu激活函数,padding类型为valid;使用Relu激活函数,计算开销小,具有稀疏性,缓解过拟合,同时解决了梯度饱和问题,第一卷积层输出特征图像大小为55×55×96;第一批规范化层用于加速网络收敛,并防止过拟合,提高泛化能力;第一最大池化层的池化核心为3×3,步长为2,padding类型为valid,第一最大池化层对第一卷积层输出的55×55×96特征图像进行处理,输出的特征图像大小为27×27×96;
第二卷积层的卷积核为5×5,步长为1,输出通道数为256,激活函数为relu 激活函数,padding类型为same;第二卷积层对第一最大池化层输出的27×27×96 特征图像进行处理,输出的特征图像大小为27×27×256;第二批规范化层也用于加速网络收敛,并防止过拟合,提高泛化能力;第二最大池化层的池化核心为3×3,步长为2,padding类型为valid,第二最大池化层对第二卷积层输出的 27×27×256特征图像进行处理,输出的特征图像大小为13×13×256;
第三卷积层的卷积核为3×3,步长为1,输出通道数为384,激活函数为relu 激活函数,padding类型为same,第三卷积层对第二最大池化层输出的 13×13×256特征图像进行处理,输出的特征图像大小为13×13×384;
第四卷积层的卷积核为3×3,步长为1,出通道数为256,激活函数为relu 激活函数,padding类型为same,第四卷积层对第三卷积层输出的13×13×384 特征图像进行处理,输出的特征图像大小为13×13×384;
第五卷积层的卷积核为3×3,步长为1,输出通道数为384,激活函数为relu 激活函数,padding类型为same,第五卷积层对第四卷积层输出的13×13×384 特征图像进行处理,输出的特征图像大小为13×13×256;第三最大池化层的池化核心为3×3,步长为2,padding类型为valid,第三最大池化层对第五卷积层输出的13×13×256特征图像进行处理,输出的特征图像大小为6×6×256,并将特征图展成一行,便于后面接第一全连接层;
第一全连接层的神经元数量为4096个,激活函数为relu激活函数,第一全连接层输出的特征向量的大小为4096×1;第一丢弃层用于随机地使一半的神经元失活,避免过拟合,提高泛化能力;
第二全连接层的神经元数量与第一全连接层的神经元数量相同,激活函数为relu激活函数,第二全连接层输出的特征向量的大小为4096×1;第二丢弃层用于随机地使一半的神经元失活,避免过拟合,提高泛化能力;
第三全连接层的神经元数量基于对象数量确定的,激活函数为softmax激活函数,其中,softmax激活函数用于识别影像为正例的概率和识别影像为负例的概率。
需要说明的是,Alexnet网络模型的结构属于本领域的普通技术人员均可以得知的技术,在此不再进行详述。
步骤223、基于耳廓样本图像训练待训练耳廓识别模型,得到耳廓识别模型。
在一种可实现的应用场景中,基于对象数量,对Alexnet网络模型中目标全连接层的神经元的数量进行调整,得到待训练耳廓识别模型之后,信息管理平台对待训练耳廓识别模型进行加载,在加载完成后可以看到待训练耳廓识别模型的结构信息如图5所示,该图包括待训练耳廓识别模型的所有层数信息,可见一共是25层,其中,data表示输入图像数据,经过预处理的图像大小为 227×227×3,conv1代表第一卷积层,relu1表示Relu激活函数,norm1表示第一批规范化层,pool1表示第一最大池化层,对此,本申请实施例对后续层不再进行说明。另外,该图右侧表示为对应层的相关参数,对此,本申请也不再进行说明。
本申请实施例中,在基于对象数量,对Alexnet网络模型中目标全连接层的神经元的数量进行调整,得到待训练耳廓识别模型的情况下,将包括已标注监测对象的耳廓样本图像输入至待训练耳廓识别模型,对待训练耳廓识别模型进行训练,得到用于训练成功的耳廓识别模型。
本申请实施例中,步骤223基于耳廓样本图像训练待训练耳廓识别模型,得到耳廓识别模型,可以通过如下步骤实现,
步骤A1、将训练样本图像输入待训练耳廓识别模型,得到已标注监测对象的预测耳廓特征。
其中,训练样本图像包括耳廓样本图像和处理后的耳廓样本图像。
其中,信息管理平台基于待训练耳廓识别模型得到的预测耳廓特征作为中间监督信息,来提高待训练耳廓识别模型的表征学习能力。
本申请实施例中,处理后的耳廓样本图像包括已标注监测对象的耳廓的完整信息。
本申请其他实施例中,处理后的耳廓样本图像的得到方式可以是对耳廓样本图像进行图像预处理,其中,图像预处理包括图像增强处理和/或图像归一化处理。
本申请实施例中,图像增强处理包括但不限于图像翻转、旋转、缩放、裁剪、平移或加噪声等,这里,信息管理平台对耳廓样本图像进行如下至少一种图像增强处理,如图像翻转处理、图像旋转处理、图像缩放处理、图像裁剪处理、图像平移处理、对图像加噪声处理,产生新图像,从而增加耳廓图像样本数据。如此,不仅扩充了图像的数据量,还增加了图像的多样性和泛化性。
本申请实施例中,图像归一化处理指的是将耳廓样本图像中的每个像素值转换为[0,1]范围内。这里,耳廓样本图像中的每个像素值范围是0到255之间的数值,对于计算机来说这个数值太大了,所以将像素值归一化处理一般是将像素值除以255,得到0到1之间的数值来进行计算,从而实现了图像的归一化。如此,对归一化处理后的图像进行处理,由于数值范围小,处理器的运行速度快,且减少了处理时长。
步骤A2、基于预测耳廓特征的损失值,对待训练耳廓识别模型进行调整,得到耳廓识别模型。
其中,耳廓识别模型输出的损失值满足预设收敛条件。
在一种可实现的场景中,信息管理平台可以通过损失函数如Focal loss来监督获取的预测耳廓特征,即通过Focal loss作为预测耳廓特征的损失值,其中,Focal loss可以有效地平衡正负样本不均匀的问题。这里,信息管理设备基于预测耳廓特征的损失值,对待训练耳廓识别模型进行调整,以使调整后的待训练耳廓识别模型输出的损失值满足预设收敛条件,此时,确定该调整后的待训练耳廓识别模型为最终使用的耳廓识别模型。
在一种可实现的应用场景中,得到耳廓识别模型之后,可以再次用耳温设备采集检测对象的耳廓图像,将采集到的耳廓图像作为测试样本数据用来验证识别的准确率和是否录入成功并能正确进行识别。为了将本申请实施例通过耳廓识别模型提取的待监测对象的耳廓特征,和其他用于特征提取的特征描述子 (feature descriptor)提取的对待检测对象的耳廓特征进行分析比较,选择了7 种较为常用的特征描述子的身份识别结果做对比,分别为局部二值模式(Local Binary Pattern,LBP)、盖伯滤波器(Gabor Filter)、马尔可夫随机场(BankGaussian Markov Random Field,GMRF)、局部傅里叶变换(LocalFourier Transform)、灰度共生矩阵(Gray-Level Co-occurrence Matrix,GLCM)、灰度梯度共生矩阵 (Gray Level Gradient Co-Occurrence Matrix,GLGCM)和小波变换(WaveletTransform)。
为比较这些特征描述子的身份识别结果差异,训练样本数据为常用且识别难度较高的OUTTEX纹理数据库。假设数据库中一共包含了4320张耳廓样本图像,每次随机选取30张耳廓样本图像作为测试样本图像,剩余4290张耳廓样本图像都作为训练样本图像,在使用以上8种特征提取方法获得每一特征描述子对应的准确率。然后,将之前用作测试的30张耳廓样本图像取回;进一步地,从4320张耳廓样本图像中再随机选取另外新的30张耳廓样本图像作为测试样本图像,剩余耳廓样本图像作为训练样本图像获得每一特征描述子对应的准确率,以此往复直至所有4320张耳廓样本图像都被取完作为测试样本图像为止。需要说明的是,在使用上述7种常用的特征提取方法时,主要使用k最邻近分类算法(k-NearestNeighbor,KNN)作为分类器且设置其K最近邻为4,因识别准确度和K最近邻的值有关,故此7种特征提取方法取得的准确率不一定是最高值,但其实验条件保持一致。
参照图6所示,图6示出的是各种特征提取方法对应的箱线图,下面就显示的箱线图中对各种特征提取方法对应的准确率,精度角度进行分析比较。这里,图6中的灰线表示每一特征提取方法对应的N次测试的准确率的中位数,中位数越高平均准确率越高,箱子上下框线为上四分位和下四分位数,箱子整体越小,上四分位和下四分位之间的四分位数间距(interquartile range,IQR) 越小,对应的特征描述子越稳定。
从图6中可以看出,本申请提供的耳廓识别模型在所有特征提取方法中表现最好,原因是本申请提供的耳廓识别模型是基于卷积神经网络的,存在多层,好的逼近器会有很多隐藏单元。虽然训练起来非常困难,但深度网络允许每一层学习图像的更高层次的抽象。因此,由于对高级图像特征的学习,本申请提供的耳廓识别模型在图像分类识别方面表现良好。除了本申请提供的耳廓识别模型之外,Gabor滤波器组识别结果较好,准确率高于90%。基本的LBP、GLCM、 GLGCM和Local Fourier Transform的识别结果一般,准确率在80%-90%之间。与其他特征描述子相比,MRF和小波变换识别结果较差,准确率在80%左右。
针对精度方面的比较,可以从图中IQR来判断,IQR越小,准确率离散度越低,特征描述子越稳定,越容易达到目标精度。GMRF和改进后的AlexNet 的IQR均小于5,因此这两个特征描述子在精度上有更好的表现。Gabor滤波器组的IQR小于10,精度表现良好,GMRF右边特征描述子的IQR都很大。需要强调的是,本申请提供的耳廓识别模型的分类结果无论是从准确度还是精度方面均处于较佳水平,相比于其他特征提取方式来讲,本申请提供的耳廓识别模型的是一个很好的用于识别分类的方法。
步骤203、计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度。
步骤204、从耳廓样本特征库中,选择匹配度满足匹配度条件的目标耳廓样本特征。
本申请实施例中,匹配度满足匹配度条件包括匹配度最大,或者匹配度大于匹配度阈值。
在一种可实现的场景中,信息管理设备计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度之后,从耳廓样本特征库中,选择最大匹配度对应的耳廓样本特征,作为目标耳廓样本特征。
步骤205、确定目标耳廓样本特征对应的身份信息为目标身份信息,并将耳温数据添加至与目标身份信息对应的体温数据列表中。
步骤206、若耳温数据大于或等于温度阈值,生成提示信息并输出提示信息。
其中,提示信息用于提示待监测对象的体温数据出现异常。
这里,输出提示信息可以是将提示信息输出至信息管理平台的显示界面和/ 或防疫管理平台的显示界面。
本申请实施例中,若获得的待监测对象的耳温数据耳温数据大于或等于温度阈值,在确定待监测对象的目标身份信息后,直接确定了异常体温对象的准确身份信息;进一步地,将待监测对象的耳温数据和/或测量时间添加至与待监测对象的身份信息对应的数据列表中,实现了人员识别和体温测量的一体化和数据的自动化登记;最后,生成用于提示待监测对象的体温数据出现异常的提示信息并输出提示信息,实现了体温异常预警,同时防止体温异常的人员出现逃逸或虚报身份信息的情况,从而能够更好为疫情防控或日常人员体温健康管理进行服务。
需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。
基于前述实施例,本申请提供一种疫情环境下耳温监测装置,该疫情环境下耳温监测装置可以用于实施图1~3对应提供的一种疫情环境下耳温监测方法,参照图7所示,该疫情环境下耳温监测装置7包括:
获取模块71,用于获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像;
处理模块72,用于将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征;
处理模块72,还用于计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;
确定模块73,用于基于匹配度确定待监测对象的目标身份信息;
添加模块74,用于将耳温数据添加至与目标身份信息对应的体温数据列表中。
在本申请其他实施例中,耳温设备配置有图像采集模组,人耳图像是在采集耳温数据的过程中,通过图像采集模组采集的待监测对象的耳廓的图像。
在本申请其他实施例中,获取模块71,还用于获取包括已标注监测对象的耳廓样本图像和已标注监测对象的对象数量;处理模块72,还用于基于对象数量,对Alexnet网络模型中目标全连接层的神经元的数量进行调整,得到待训练耳廓识别模型,其中,目标全连接层用于对已标注监测对象进行特征分类;基于耳廓样本图像训练待训练耳廓识别模型,得到耳廓识别模型。
在本申请其他实施例中,处理模块72,还用于对耳廓样本图像进行图像预处理,得到处理后的耳廓样本图像,其中,图像预处理包括图像增强处理和/ 或图像归一化处理;基于处理后的耳廓样本图像训练待训练耳廓识别模型,得到耳廓识别模型。
在本申请其他实施例中,处理模块72,还用于将训练样本图像输入待训练耳廓识别模型,得到已标注监测对象的预测耳廓特征,其中,训练样本图像包括耳廓样本图像和处理后的耳廓样本图像;基于预测耳廓特征的损失值,对待训练耳廓识别模型进行调整,得到耳廓识别模型,其中,耳廓识别模型输出的损失值满足预设收敛条件。
在本申请其他实施例中,处理模块72,还用于从耳廓样本特征库中,选择匹配度满足匹配度条件的目标耳廓样本特征;确定模块73,还用于确定目标耳廓样本特征对应的身份信息为目标身份信息。
在本申请其他实施例中,处理模块72,还用于若耳温数据大于或等于温度阈值,生成提示信息,输出模块,用于输出提示信息,其中,提示信息用于提示待监测对象的体温数据出现异常。
基于前述实施例,本申请提供一种信息管理平台,该信息管理平台可以用于实施图1~3对应提供的一种疫情环境下耳温监测方法,参照图8所示,该信息管理平台8(图8中的信息管理平台8对应图7中的疫情环境下耳温监测装置7)包括:存储器81和处理器82,其中;处理器82用于执行存储器81中存储的疫情环境下耳温监测程序,信息管理平台8通过处理器82以实现以下步骤:
获取耳温设备采集的待监测对象的耳温数据,以及包含待监测对象的耳廓的人耳图像;
将人耳图像输入至耳廓识别模型中,得到耳廓识别模型输出的待识别耳廓的耳廓特征;
计算待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;
基于匹配度确定待监测对象的目标身份信息,并将耳温数据添加至与目标身份信息对应的体温数据列表中。
在本申请其他实施例中,耳温设备配置有图像采集模组,人耳图像是在采集耳温数据的过程中,通过图像采集模组采集的待监测对象的耳廓的图像。
在本申请其他实施例中,处理器82用于执行存储器81中存储的疫情环境下耳温监测程序,以实现以下步骤:
获取包括已标注监测对象的耳廓样本图像和已标注监测对象的对象数量;基于对象数量,对Alexnet网络模型中目标全连接层的神经元的数量进行调整,得到待训练耳廓识别模型,其中,目标全连接层用于对已标注监测对象进行特征分类;基于耳廓样本图像训练待训练耳廓识别模型,得到耳廓识别模型。
在本申请其他实施例中,处理器82用于执行存储器81中存储的疫情环境下耳温监测程序,以实现以下步骤:
对耳廓样本图像进行图像预处理,得到处理后的耳廓样本图像,其中,图像预处理包括图像增强处理和/或图像归一化处理;基于处理后的耳廓样本图像训练待训练耳廓识别模型,得到耳廓识别模型。
在本申请其他实施例中,处理器82用于执行存储器81中存储的疫情环境下耳温监测程序,以实现以下步骤:
将训练样本图像输入待训练耳廓识别模型,得到已标注监测对象的预测耳廓特征,其中,训练样本图像包括耳廓样本图像和处理后的耳廓样本图像;基于预测耳廓特征的损失值,对待训练耳廓识别模型进行调整,得到耳廓识别模型,其中,耳廓识别模型输出的损失值满足预设收敛条件。
在本申请其他实施例中,处理器82用于执行存储器81中存储的疫情环境下耳温监测程序,以实现以下步骤:
从耳廓样本特征库中,选择匹配度满足匹配度条件的目标耳廓样本特征;确定目标耳廓样本特征对应的身份信息为目标身份信息。
在本申请其他实施例中,处理器82用于执行存储器81中存储的疫情环境下耳温监测程序,以实现以下步骤:
若耳温数据大于或等于温度阈值,生成提示信息并输出提示信息,其中,提示信息用于提示待监测对象的体温数据出现异常。
本申请提供一种计算机可读存储介质,该计算机可读存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现图 1~3对应提供的一种疫情环境下耳温监测方法。
需要说明的是,上述计算机存储介质/存储器可以是只读存储器(Read OnlyMemory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种终端,如移动电话、计算机、平板设备、个人数字助理等。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory, RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种疫情环境下耳温监测方法,其特征在于,所述方法包括:
获取耳温设备采集的待监测对象的耳温数据,以及包含所述待监测对象的耳廓的人耳图像;
将人耳图像输入至耳廓识别模型中,得到所述耳廓识别模型输出的待识别耳廓的耳廓特征;
计算所述待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;
基于所述匹配度确定所述待监测对象的目标身份信息,并将所述耳温数据添加至与所述目标身份信息对应的体温数据列表中。
2.根据权利要求1所述的方法,其特征在于,所述耳温设备配置有图像采集模组,所述人耳图像是在采集所述耳温数据的过程中,通过所述图像采集模组采集的所述待监测对象的耳廓的图像。
3.根据权利要求1所述的方法,其特征在于,所述耳廓识别模型的训练过程,包括:
获取包括已标注监测对象的耳廓样本图像和所述已标注监测对象的对象数量;
基于所述对象数量,对Alexnet网络模型中目标全连接层的神经元的数量进行调整,得到待训练耳廓识别模型,其中,所述目标全连接层用于对所述已标注监测对象进行特征分类;
基于所述耳廓样本图像训练所述待训练耳廓识别模型,得到所述耳廓识别模型。
4.根据权利要求3所述的方法,其特征在于,所述基于所述耳廓样本图像训练所述待训练耳廓识别模型,得到所述耳廓识别模型,包括:
对所述耳廓样本图像进行图像预处理,得到处理后的耳廓样本图像,其中,所述图像预处理包括图像增强处理和/或图像归一化处理;
基于所述处理后的耳廓样本图像训练所述待训练耳廓识别模型,得到所述耳廓识别模型。
5.根据权利要求3或4所述的方法,其特征在于,所述基于所述耳廓样本图像训练所述待训练耳廓识别模型,得到所述耳廓识别模型,包括:
将所述训练样本图像输入所述待训练耳廓识别模型,得到所述已标注监测对象的预测耳廓特征,其中,所述训练样本图像包括所述耳廓样本图像和处理后的耳廓样本图像;
基于所述预测耳廓特征的损失值,对所述待训练耳廓识别模型进行调整,得到所述耳廓识别模型,其中,所述耳廓识别模型输出的损失值满足预设收敛条件。
6.根据权利要求1所述的方法,其特征在于,所述基于所述匹配度确定所述待监测对象的目标身份信息,包括:
从所述耳廓样本特征库中,选择匹配度满足匹配度条件的目标耳廓样本特征;
确定所述目标耳廓样本特征对应的身份信息为所述目标身份信息。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若所述耳温数据大于或等于温度阈值,生成提示信息并输出所述提示信息,其中,所述提示信息用于提示所述待监测对象的体温数据出现异常。
8.一种疫情环境下耳温监测装置,其特征在于,所述装置包括:
获取模块,用于获取耳温设备采集的待监测对象的耳温数据,以及包含所述待监测对象的耳廓的人耳图像;
处理模块,用于将人耳图像输入至耳廓识别模型中,得到所述耳廓识别模型输出的待识别耳廓的耳廓特征;
所述处理模块,还用于计算所述待识别耳廓的耳廓特征与耳廓样本特征库中的每一耳廓样本特征之间的匹配度;
确定模块,用于基于所述匹配度确定所述待监测对象的目标身份信息;
添加模块,用于将所述耳温数据添加至与所述目标身份信息对应的体温数据列表中。
9.一种信息管理平台,其特征在于,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令,以实现如权利要求1至7中任一项所述的疫情环境下耳温监测方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1至7中任一项所述的疫情环境下耳温监测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211368562.2A CN116912893A (zh) | 2022-11-03 | 2022-11-03 | 一种疫情环境下耳温监测方法、装置、平台和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211368562.2A CN116912893A (zh) | 2022-11-03 | 2022-11-03 | 一种疫情环境下耳温监测方法、装置、平台和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116912893A true CN116912893A (zh) | 2023-10-20 |
Family
ID=88365423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211368562.2A Pending CN116912893A (zh) | 2022-11-03 | 2022-11-03 | 一种疫情环境下耳温监测方法、装置、平台和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116912893A (zh) |
-
2022
- 2022-11-03 CN CN202211368562.2A patent/CN116912893A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220284732A1 (en) | Iris liveness detection for mobile devices | |
US20190095701A1 (en) | Living-body detection method, device and storage medium | |
Raghavendra et al. | Robust scheme for iris presentation attack detection using multiscale binarized statistical image features | |
US11058209B2 (en) | Beauty counseling information providing device and beauty counseling information providing method | |
CN112801057B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN111222380B (zh) | 一种活体检测方法、装置、及其识别模型训练方法 | |
KR20130048076A (ko) | 얼굴 인식 장치 및 그 제어방법 | |
Trokielewicz et al. | Presentation attack detection for cadaver iris | |
CN109661668A (zh) | 用于虹膜识别的图像处理方法和系统 | |
Narang et al. | Face recognition in the SWIR band when using single sensor multi-wavelength imaging systems | |
CN111104833A (zh) | 用于活体检验的方法和装置,存储介质和电子设备 | |
WO2020195732A1 (ja) | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 | |
CN113221655B (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
CN111163650A (zh) | 一种基于智能终端的提醒方法和提醒系统 | |
Rajeshkumar et al. | Smart office automation via faster R-CNN based face recognition and internet of things | |
KR102038576B1 (ko) | 홍채 인식 시스템의 부정행위 검출 방법 | |
Tirado et al. | Bruise dating using deep learning | |
Viedma et al. | Relevant features for gender classification in NIR periocular images | |
Galdi et al. | PROTECT: Pervasive and useR fOcused biomeTrics bordEr projeCT–a case study | |
KR101313103B1 (ko) | 지능로봇의 얼굴인식 성능평가 시스템 및 평가 방법 | |
Tee et al. | Facial recognition using enhanced facial features k-nearest neighbor (k-NN) for attendance system | |
CN112525355A (zh) | 图像处理方法、装置及设备 | |
Huang et al. | Securable networked scheme with face authentication | |
CN116912893A (zh) | 一种疫情环境下耳温监测方法、装置、平台和存储介质 | |
Seal et al. | Minutiae based thermal human face recognition using label connected component algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |