CN111582233A - 数据处理方法、电子设备和存储介质 - Google Patents

数据处理方法、电子设备和存储介质 Download PDF

Info

Publication number
CN111582233A
CN111582233A CN202010438058.XA CN202010438058A CN111582233A CN 111582233 A CN111582233 A CN 111582233A CN 202010438058 A CN202010438058 A CN 202010438058A CN 111582233 A CN111582233 A CN 111582233A
Authority
CN
China
Prior art keywords
person
detected
cough
information
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010438058.XA
Other languages
English (en)
Inventor
李燕超
申省梅
谢佩博
马原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Pengsi Technology Co ltd
Original Assignee
Beijing Pengsi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Pengsi Technology Co ltd filed Critical Beijing Pengsi Technology Co ltd
Priority to CN202010438058.XA priority Critical patent/CN111582233A/zh
Publication of CN111582233A publication Critical patent/CN111582233A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Psychiatry (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种数据处理方法、电子设备和存储介质,该方法包括:获取关于待检测者的温度信息和当前视频流;将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息;基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。本申请实施例能够提高确定的待检测者的类型的准确度。

Description

数据处理方法、电子设备和存储介质
技术领域
本申请涉及信息技术领域,具体而言,涉及一种数据处理方法、装置、电子设备和存储介质。
背景技术
在室内或户外对待检测者进行体温检测时,通过手动或自动的方式,利用体温检测仪检测待检测者的体温,例如,通过手持的温度检测器,检测每个待检测者的温度,或者,通过红外温度监测仪检测待检测者的体温。
若存在某一个待检测者的温度超过预设阈值,也就是,存在待检测者具有发烧现象,则确定待检测者为危险程度高的个体,但是,存在一些危险程度高的个体不一定会有发烧症状,通过体温检测可能存在漏检情况,也就降低了检测的准确率。
发明内容
有鉴于此,本申请实施例的目的在于提供一种数据处理方法、装置、电子设备和存储介质,提高了确定被检测者的类型的准确度。
第一方面,本申请实施例提供了一种数据处理方法,该方法包括:
获取关于待检测者的温度信息和当前视频流;
将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息;
基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。
在一种实施方式中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
从当前视频流提取包括待检测者的多个图像;
将所述多个图像输入到所述咳嗽行为识别模块中的编码器,得到每个图像对应的编码特征向量;
将每个图像对应的编码特征向量输入到所述咳嗽行为识别模块中的解码器,得到所述待检测者在每个图像中具有咳嗽行为的第一概率;
基于各个所述第一概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
在一种实施方式中,从当前视频流提取包括待检测者的多个图像,包括:
从所述当前视频流中提取视频帧序列;
将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息;
基于各个所述位置信息,从对应视频帧中提取包括所述待检测者的图像。
在一种实施方式中,将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息,包括:
将所述视频帧序列中的任一视频帧输入到所述目标检测跟踪模块中的目标检测器,得到所述待检测者在所述任一视频帧中的位置信息;
将所述待检测者在所述任一视频帧中的位置信息和所述视频帧序列中除所述任一视频帧外的其它视频帧输入到所述目标检测跟踪模块中的目标跟标器,得到所述待检测者在其它视频帧中的位置信息。
在一种实施方式中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将从当前视频流中提取的多个视频帧输入到所述咳嗽行为识别模块中的骨骼特征提取模型,得到所述待检测者在每个视频帧中的骨骼特征信息;
将每个视频帧对应的骨骼特征信息输入到所述咳嗽行为识别模块中的咳嗽动作识别模型,得到所述待检测者在每个视频帧中具有咳嗽行为的第二概率;
基于各个所述第二概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
在一种实施方式中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将所述当前视频流输入到所述咳嗽行为识别模块中的第一识别模型,得到所述待检测者的第三概率;
将所述当前视频流输入到所述咳嗽行为识别模块中的第二识别模型,得到所述待检测者的第四概率;
基于所述第三概率和所述第四概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
在一种实施方式中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将从所述当前视频流中提取的视频帧序列输入到所述咳嗽行为识别模块中的面部识别器,得到所述待检测者在每个视频帧中的面部位置信息;
基于所述待检测者在每个视频帧中的面部位置信息,以及每个视频帧的宽高信息,确定所述待检测者在每个视频帧中的面部占比;
基于所述待检测者在每个视频帧中的面部占比,确定所述待检测者的咳嗽行为识别信息中的面部变化信息。
在一种实施方式中,基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型,包括:
若所述温度信息超出预设温度范围,或者所述咳嗽行为识别信息满足第一预设条件,则确定所述待检测者的类型为第一类型;所述第一预设条件为咳嗽概率大于第一阈值,和/或面部变化信息大于第二阈值;
若所述温度信息未超出预设温度范围,且咳嗽行为识别信息满足第二预设条件,则确定所述待检测者的类型为第二类型;所述第二预设条件为所述咳嗽概率小于或者等于所述第一阈值,和/或所述面部变化信息小于或者等于第二阈值;
其中,所述第二类型的待检测者的危险程度低于所述第一类型的待检测者的危险程度。
第二方面,本申请实施例提供了一种数据处理装置,该装置包括:
获取模块,用于获取关于待检测者的温度信息和当前视频流;
第一确定模块,用于基于所述当前视频流,以及咳嗽行为识别模块,确定所述待检测者的咳嗽行为识别信息;
第二确定模块,用于基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。
第三方面,本申请实施例提供了一种电子设备,包括:处理器、存储介质,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器执行所述机器可读指令,以执行时执行如上述数据处理方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述数据处理方法的步骤。
本申请实施例提供的数据处理方法,不仅仅考虑待检测者的温度信息,在获取待检测者的温度信息的同时,进一步获取包括待检测者的当前视频流,基于当前视频流以及咳嗽行为识别模型,确定待检测者的咳嗽行为识别信息,综合考虑待检测者的温度信息和咳嗽行为识别信息,确定待检测者的类型,可以实施确定待检测者的类型,从而减少了仅通过温度确定待检测者类型时漏检行为的发生,提高了确定待检测者的类型的准确度。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种对咳嗽行为进行识别的示意图;
图2示出了本申请实施例所提供的一种数据处理方法的流程示意图;
图3示出了本申请实施例所提供的一种在视频帧中显示待检测者所属区域的示意图;
图4示出了本申请实施例所提供的一种面部占比的计算示意图;
图5示出了本申请实施例所提供的一种利用视频流进行警示的示意图;
图6示出了本申请实施例所提供的一种数据处理装置的结构示意图;
图7示出了本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。
肺炎主要指由细菌、病毒等病原体引起的肺部感染,患者常有发热、咳嗽、咳痰等典型症状,而病毒性肺炎可以通过空气传播,造成大范围的感染,为了避免病毒性肺炎携带者感染其它个体,在每个个体进入公共场所之前可以进行体温检测,以确定待检测者的类型是否为危险型,即确定待检测者是否感染有病毒性肺炎。
对于病毒性肺炎而言,可能存在部分患者,患有病毒性肺炎但是并没有发烧症状,因此,仅通过温度检测可能存在漏检情况,导致确定的待检测者的类型的准确度比较低,考虑到病毒性肺炎患者存在咳嗽行为,可以综合检测温度和咳嗽行为确定待检测者的类型,以下进行详细介绍。
为了便于描述,本文不仅仅考虑待检测者的温度信息,在获取待检测者的温度信息的同时,进一步获取包括待检测者的当前视频流,基于当前视频流以及咳嗽行为识别模型,确定待检测者的咳嗽行为识别信息,综合考虑待检测者的温度信息和咳嗽行为识别信息,确定待检测者的类型,可以实时确定待检测者的类型,从而减少了仅通过温度确定待检测者类型时漏检行为的发生,提高了确定待检测者的类型的准确度。本申请实施例将基于该思想进行详细描述。
本申请提供的图像处理方法,在获取待检测者的温度信息的同时,可以通过视频采集设备采集待检测者的音视频流,并将音视频流输入到目标检测跟踪模块中对目标(如行人)进行跟踪识别,将跟踪识别结果输入到骨骼特征提取模块进行骨骼特征提取,以及将跟踪识别结果输入到光流提取模块进行光流信息提取,得到每个待检测者的多种提取信息(多模态信息),将每个待检测者(可以为n个待检测者)的多种提取信息输入到咳嗽行为识别模块进行咳嗽检测,并基于咳嗽检测结果进行咳嗽警示,可以参考图1,以下详细介绍本申请的数据处理方法。
本申请实施例提供了一种数据处理方法,如图2所示,应用于终端设备中,该方法包括以下步骤:
S201,获取关于待检测者的温度信息和当前视频流;
S202,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息;
S203,基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。
在S201中,温度信息和视频流可以为设置在室内或户外的数据采集设备获取的,温度信息可以为通过红外测温设备获取的,比如通过红外测温设备中的温度检测模块检测待检测者的温度;视频流可以为视频采集设备采集的,视频采集设备可以为RGB摄像头、深度摄像设备、近红外摄像设备、红外温度摄像设备等设备,相应地,从当前视频流中提取的视频帧可以为RGB图像、深度图、近红外图像、红外温度图等,可以根据具体的视频采集设备确定,比如,在视频采集设备为RGB摄像头时,当前视频流中的视频帧为RGB图像,在视频采集设备为深度摄像设备时,当前视频流中的视频帧为深度图,在视频采集设备为近红外摄像设备时,当前视频流中的视频帧为近红外图像,在视频采集设备为红外温度摄像设备时,当前视频流中的视频帧为红外温度图。
本申请通过不同的视频采集设备采集多种信息,实现在不同的场景下高准确度地确定待检测者的类型。在实际应用中,数据采集设备可以设置在商场入口、公共交通进站口、办公楼入口等户外或室内场所,例如,在办公楼入口处设置近红外摄像设备。
温度信息和当前视频流的采集时间可以相同,比如,在当前视频流对应的时间段中获取温度信息中包括的温度值;温度信息和当前视频流的采集时间也可以不同,在温度信息和当前视频流的采集时间不同时,温度信息和当前视频流的采集时间之间的间隔不大于预设时长,也就是,采集温度信息的时刻和采集当前视频流的时刻(开始时刻或结束时刻)之间的差值绝对值小于或者等于预设时长,预设时长可以根据实际场景确定,例如,预设时长可以100ms、2秒等。
在S202中,咳嗽行为识别模块可以包括咳嗽行为识别模型、音频识别模型等模型,咳嗽行为识别模型可以包括编码器、解码器、骨骼特征提取模型、咳嗽动作识别模型、面部识别器中的一种或几种的组合,比如,可以通过编码器和解码器确定待检测者具有咳嗽行为的咳嗽概率,也可以通过骨骼特征提取模型和咳嗽动作识别模型确定待检测者具有咳嗽行为的咳嗽概率,也可以通过面部识别器识识别待检测者的面部占比以确定待检测者的面部变化信息,这样,设置的多个模型可以识别多种类型的图像,解决视频采集设备不统一导致的识别难的问题。以下详细介绍不同方式下待检测者的咳嗽行为识别信息。
方式一:基于编码器和解码器确定待检测者的具有咳嗽行为的咳嗽概率。
在执行S202时,可以包括以下步骤:
从当前视频流提取包括待检测者的多个图像,将所述多个图像输入到所述咳嗽行为识别模型中的编码器,得到每个图像对应的编码特征向量,将每个图像对应的编码特征向量输入到所述咳嗽行为识别模型中的解码器,得到所述待检测者在每个图像中具有咳嗽行为的第一概率,基于各个所述第一概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
这里,咳嗽行为识别模型的输入数据为图像包括的像素点数据,比如,像素点数据为(x,y,z),其中,x为图像的宽,y为图像的高,z为图像中的通道数,在图像为RGB图像时,z为3,在图像为深度图时,z为1。
编码器包括一层全连接层(Fully Connected Layer)和激活函数(如Sigmoid),解码器包括至少一层三维卷积层和至少一层降采样层,比如,解码器中包括三层三维卷积层和两层降采样层,三层三维卷积层和两层降采样层的连接方式可以为:三维卷积层、降采样层、三维卷积层、降采样层、三维卷积层顺次连接,也可以根据实际情况确定;
编码特征向量表征图像中包括的内容,该编码特征向量一般为高维度向量(如128维);第一概率表征待检测者在一个图像中的概率,该概率越大,表示待检测者在一个时刻的可能性越大;咳嗽概率表征待检测者具有咳嗽行为的概率,该概率越大,表示待检测者在一个时间段中具有咳嗽行为的可能性越大。
在一种实施方式中,当前视频流为数据采集设备实时采集的一定时间段的视频流,该视频流可以为连续的几秒、几十秒等,在获取到当前视频流后,可以按照预设的采样率(如10ms/帧)从当前视频流中提取视频帧序列,视频帧序列中的视频帧可以是按照视频流的采集时间由远及近的顺序进行排序的,例如,从视频流中采集3个视频帧,视频帧1采集时间分别为10:00:01,视频帧2的采集时间为10:00:05,视频帧3的采集时间为10:00:10,则视频帧序列的排序顺序为视频帧1、视频帧2、视频帧3。
将视频帧序列中的视频帧输入到咳嗽行为识别模型中的编码器中,考虑到视频帧中除了包括待检测者外,还包括其它对象(如建筑等),其它对象可能会对模型的识别结果带来一定的负面影响,可以从视频帧序列中提取仅包含待检测者的图像,将提取的图像输入到咳嗽行为识别模型中,以下详述。
在从当前视频流提取到视频帧序列后,可以将视频帧序列中的每个视频帧输入到目标检测跟踪模块,得到待检测者在每个视频帧中的位置信息。其中,位置信息可以为待检测者所处位置区域的边界点信息,例如,待检测者所处的位置区域为矩形区域时,边界点信息可以为该位置区域的四个边界点的坐标(像素点坐标)。
在确定待检测者在每个视频帧中的位置信息时,从视频帧序列中筛选出包括同一个待检测者的视频帧,将筛选出的各个视频帧输入到目标检测跟踪模块进行识别,并输出每个待检测者在筛选出的视频帧中的位置信息。除了采用上述方法得到待检测者在视频帧中的位置信息外,还可以采用目标跟踪的方式从视频帧中识别待检测者的位置信息,以下详细介绍。
将视频帧序列中的任一视频帧输入到目标检测跟踪模块中的目标检测器,得到待检测者在任一个视频帧中的位置信息,将待检测者在任一视频帧中的位置信息和视频帧序列中除任一视频帧外的其它视频帧输入到目标检测跟踪模块中的目标跟标器,得到待检测者在其它视频帧中的位置信息。
这里,任一视频帧可以为从视频帧序列中任意选择的一个视频帧,也可以为视频帧序列中的首个视频帧,可以根据实际场景确定;目标检测器可以为基于目标检测算法(YOLOv3)的检测器,该目标检测器用于检测图像中包括的对象,如,图像中包括的行人、动物、车辆等;目标跟踪器可以为基于KCF(Kernel Correlation Filter)跟踪算法的跟踪器,该跟踪器可以对目标检测器检测到的目标进行跟踪,采用KCF算法具有简洁、效果好、速度快等效果。
在一种实施方式中,从视频帧序列中选择一个视频帧输入到目标检测跟踪模块中的目标检测器,对视频帧中包括的目标对象进行识别,输出视频帧中包括的待检测者的位置信息,将待检测者在该视频帧中的位置信息和视频帧序列中除该视频帧外的其它视频帧输入到目标检测跟踪模块中的目标跟踪器,以识别其它视频帧中待检测者的位置信息,最终得到待检测者在包含待检测者的视频帧中的位置信息。
例如,视频帧序列包括10个,视频帧的编号分别为1、2、3……10按照时间由远及近的顺序对个10个视频帧进行排序,排序后的编号依次为1、2、3……10,将编号为1的视频帧输入到目标检测跟踪模块的目标检测器,得到1号视频帧中包括的待检测者的位置信息,参考图3中矩形框的边界点的位置信息,将待检测者在编号为1的视频帧中的位置信息和2号-10号视频帧输入到目标检测跟踪模块中的目标跟踪器中,得到待检测者在2号-10号视频帧中的位置信息,若视频帧中不包括待检测者,则位置信息可以为空。
目标检测器可以为预先训练的模型,可以基于以下步骤训练目标检测器:
构建训练样本库,训练样本库中包括多个视频帧,以及每个视频帧中包括的目标对象的实际位置信息。
将每个视频帧作为目标检测模型的输入特征,预测得到每个视频帧中包括的目标对象的预测位置信息,计算目标对象在每个视频帧中的预测位置信息和实际位置信息之间的距离,按照距离最小原则,调整目标检测模型的模型参数,将距离最小对应的模型参数确定为目标检测模型的模型参数。其中,在计算距离时,可以通过欧式距离、曼哈顿距离、海明距离等方法。
在得到待检测者在各个视频帧中的位置信息后,可以从各视频帧中提取位置信息所对应的图像,以保证图像中仅包括待检测者,从而去除视频帧中包括的其它对象,降低视频帧中噪声对识别结果的影响程度。
将包括待检测者的多个图像输入到咳嗽行为识别模型中的编码器,得到每一个图像对应的编码特征向量,从每一个图像对应的编码特征向量输入到咳嗽行为识别模型中的解码器,得到每个图像中包括的待检测者具有咳嗽行为的第一概率,可以计算各个第一概率的平均值,将该平均值作为待检测者的咳嗽概率,也可以从各个第一概率中取中位值,将该中位值作为待检测者的咳嗽概率,可以根据实际情况确定。
另外,在待检测者的当前视频流为RGB摄像设备采集时,待检测者的图像为RGB图像,可以利用咳嗽识别模型中的光流提取器,提取每两帧图像之间的光流信息,也就是,待检测者在两帧图像中的位移信息,将得到的各条光流信息输入到咳嗽行为识别模型中的编码器,得到每条光流信息对应的编码特征向量,将得到的各个编码特征向量输入到咳嗽行为识别模型中的解码器,得到每条光流信息对应的咳嗽概率,计算各个咳嗽概率的平均值,将该平均值作为待检测者的第一概率。其中,光流提取器可以为基于光流提取算法(TVL1)的提取器。
包括解码器和编码器的咳嗽行为识别模型为利用待检测样本的历史数据训练得到的,可以根据以下步骤训练得到包括解码器和编码器的咳嗽行为识别模型,为了方便描述,以下将包括解码器和编码器的咳嗽行为识别模型描述为第一咳嗽行为识别模型:
构建训练样本库,训练样本库中包括样本检测者的多个图像以及每个图像对应的待检测者的实际咳嗽概率,其中,当图像中的样本检测者具有咳嗽行为时,实际咳嗽概率为1,否则为0。
将多个图像输入到第一咳嗽行为识别模型,预测得到样本检测者的预测概率,计算预测概率和实际咳嗽概率之间的差值,按照差值最小原则,调整第一咳嗽行为识别模型的模型参数,得到训练完成的第一咳嗽行为是被模型。
方式二:通过骨骼特征提取模型和咳嗽动作识别模型确定待检测者具有咳嗽行为的咳嗽概率。
将从当前视频流中提取的多个视频帧输入到所述咳嗽行为识别模型中的骨骼特征提取模型,得到所述待检测者在每个视频帧中的骨骼特征信息,将每个视频帧对应的骨骼特征信息输入到所述咳嗽行为识别模型中的咳嗽动作识别模型,得到所述待检测者在每个视频帧中具有咳嗽行为的第二概率,基于各个所述第二概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
这里,输入骨骼特征提取模型的输入为视频帧中像素点数据,比如,像素点数据为(x,y,z),其中,x为视频帧的宽,y为视频帧的高,z为视频帧中的通道数,在视频帧为RGB图像时,z为3,在视频帧为深度图时,z为1。
骨骼特征提取模型用于从视频帧提取待检测者的骨骼特征点的位置信息,该骨骼特征提取模型可以为基于人体姿态识别(OpenPose)的模型;咳嗽动作识别模型用于识别待检测者具有咳嗽行为的概率,该咳嗽动作识别模型可以为卷积神经网络模型等,咳嗽动作识别模型包括至少一个3D卷积层、降采样层、全连接层和激活函数(如Sigmoid)等,在一种实施方式中,3D卷积层、降采样层、3D卷积层、全连接层、Sigmoid激活函数顺次连接,可以根据实际情况确定,上述示例仅为示意性的;第二概率表征待检测者在视频帧中具有咳嗽行为的概率,该概率越大,表征待检测者具有咳嗽行为的可能性越大。
在具体实施过程中,按照预设的采样率从当前视频流中采集多个视频帧,将采集的多个视频帧输入到咳嗽行为识别模型中的骨骼特征提取模型,从而得到待检测者在每个视频帧中的骨骼特征信息,进一步,将得到的各个骨骼特征信息输入到咳嗽行为识别模型中的咳嗽动作识别模型,得到待检测者在每个视频帧中具有咳嗽行为的第二概率,计算各个第二概率的平均值,将该平均值作为待检测者具有咳嗽行为的咳嗽概率,或者从各个第二概率中取中位概率,将该中位概率作为待检测者的咳嗽概率。
包括骨骼特征提取模型和咳嗽动作识别模型的咳嗽行为识别模型为利用待检测样本的历史数据训练得到的,可以参考包括解码器和编码器的咳嗽行为识别模型的训练过程,此处不进行详细叙述。
方式三:采用第一识别模型和第二识别模型的结合确定待检测者具有咳嗽行为的咳嗽概率。
将所述当前视频流输入到所述咳嗽行为识别模型中的第一识别模型,得到所述待检测者的第三概率;将所述当前视频流输入到所述咳嗽行为识别模型中的第二识别模型,得到所述待检测者的第四概率;基于所述第三概率和所述第四概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
这里,第一识别模型可以包括编码器和解码器,编码器和解码器的具体结构和功能可以参考方式一;第二识别模型可以包括骨骼特征提取模型和咳嗽动作识别模型,骨骼特征提取模型和咳嗽动作识别模型的结构和功能可以参考方式二;第三概率为通过第一识别模型进行处理后得到的待检测者具有咳嗽行为的概率,该概率越大,待检测者具有咳嗽行为的可能性越大;第四概率为通过第二识别模型进行识别处理后得到的待检测者具有咳嗽行为的概率,该概率越大,待检测者具有咳嗽行为的可能性越大。
在具体实施过程中,利用咳嗽行为识别模型中的第一识别模型确定待检测者的第三概率的过程,可以参考方式一中的第一概率的确定过程,第一识别模型的训练过程可以参考方式一中模型的训练过程。
利用咳嗽行为识别模型中的第二识别模型确定待检测者的第四概率的过程,可以参考方式二中的第二概率的确定过程,第二识别模型的训练过程可以参考方式二中模型的训练过程。
在得到第三概率和第四概率后,可以计算第三概率和第四概率的平均值,将该平均值作为待检测者的咳嗽概率。这样,综合考虑第一识别模型和第二识别模型确定待检测者具有咳嗽行为的概率,在一定程度上可以提高确定的概率的准确度。
方式四:通过面部识别器识识别待检测者的面部占比以确定待检测者的面部变化信息。
将从所述当前视频流中提取的视频帧序列输入到所述咳嗽行为识别模块中的面部识别器,得到所述待检测者在每个视频帧中的面部位置信息;基于所述待检测者在每个视频帧中的面部位置信息,以及每个视频帧的宽高信息,确定所述待检测者在每个视频帧中的面部占比;基于所述待检测者在每个视频帧中的面部占比,确定所述待检测者的咳嗽行为识别信息中的面部变化信息。
这里,面部位置信息可以为待检测者的面部区域在视频帧中的位置信息,面部区域可以为矩形区域、圆形区域、或椭圆形区域等,面部位置信息为面部区域的边界点坐标信息,例如,在面部区域为矩形区域时,面部位置信息为四个边界点的坐标信息;面部占比可以为面部区域到视频帧中心位置的高度与视频帧高度的比值,例如,参考图4,A1点为面部区域的中心点,A2点为视频帧中心位置点,A1到A2的高度与视频帧高度的比值为面部占比。
在具体实施过程中,将从当前视频流中提取的视频帧序列输入到咳嗽行为识别模型中的面部识别器,得到待检测者在每个视频帧中的面部位置信息,也可以从视频帧序列中的每个视频帧中,提取包括待检测者的图像,将提取的多个图像输入到咳嗽行为识别模型中的面部识别器,得到待检测者在每个图像中的面部位置信息。
以图像为例进行说明,针对每个图像,利用该图像对应的面部位置信息,确定待检测者的面部中心点,计算面部中心点到该图像的中心位置的距离,进一步计算该距离与图像的高度之间的比值,将该比值作为待检测者在该图像中的面部占比。
在得到待检测者在每个图像中的面部占比后,计算每相邻两帧图像之间的面部占比的差值绝对值,将得到的多个差值绝对值作为待检测者的面部变化信息。
在识别面部位置信息的面部识别器可以为预先训练的面部识别模型,根据以下步骤训练面部识别模型:
构建训练样本库,训练样本库中包括样本检测者的多个图像以及每个图像对应的待检测者的实际面部位置信息。
将多个图像输入到面部识别模型,预测得到样本检测者的预测面部位置信息,计算预测面部位置信息和实际面部位置信息之间的差值,按照差值最小原则,调整面部识别模型的模型参数,得到训练完成的面部识别模型。
在S103中,待检测者的类型包括第一类型和第二类型,第一类型可以包括高危险型,第二类型可以包括低危险型,且第一类型的待检测者的危险程度高于第二类型的危险者的危险程度。
在一种实施方式中,若所述温度信息超出预设温度范围,或者所述咳嗽行为识别信息满足第一预设条件,则确定所述待检测者的类型为第一类型;所述第一预设条件为咳嗽概率大于第一阈值,和/或面部变化信息大于第二阈值。
若所述温度信息未超出预设温度范围,且咳嗽行为识别信息满足第二预设条件,则确定所述待检测者的类型为第二类型;所述第二预设条件为所述咳嗽概率小于或者等于所述第一阈值,和/或所述面部变化信息小于或者等于第二阈值。其中,所述第二类型的待检测者的危险程度低于所述第一类型的待检测者的危险程度。
具体地,预设的温度范围可以为人体正常温度范围,例如,小于或者等于37.2度;温度信息包括多个温度值,在采集当前视频流时,可以获取待检测者在当前视频流对应的时间段中的多个时刻对应的温度值,例如,当前视频流为5s,温度信息中包括的温度值可以分别为第1秒、第3秒和第5秒获取的待检测者的体温;第一阈值可以为根据历史咳嗽概率确定的,第二阈值为根据历史面部占比差值确定的。
在具体实施过程中,比对温度信息中包括的各个温度值和预设温度范围,以及比对待检测者的咳嗽概率和第一阈值,以及比对待检测者的面部变化信息中的差值绝对值与第二阈值。
无论待检测者的温度信息如何,当待检测者的咳嗽概率大于第一阈值,则说明待检测者的危险程度比较高,确定待检测者的类型为第一类型,比如,待检测者的类型为高危险型;或者,当待检测者的面部变化信息中存在差值绝对值大于第二阈值,且大于第二阈值的差值绝对值的数目大于第一数目,则确定待检测者的类型为第一类型。或者,当待检测者的咳嗽概率大于第一阈值,且待检测者的面部变化信息中存在差值绝对值大于第二阈值,且大于第二阈值的差值绝对值的数目大于第一数目,则确定待检测者的类型为第一类型。其中,第一数目可以根据实际情况设置,第一数目与面部变化信息中包括的差值绝对值的数目的比值可以大于90%。
除了通过上述方法确定待检测者为第一类型外,还可以在温度信息超过预设温度范围时,确定待检测者的类型为第一类型,即,若存在温度值超过预设温度范围,且超过预设温度范围的数目大于第二数目,则确定待检测者的类型为第一类型。其中,第二数目为预先设置的,第二数目阈值与温度信息中包括的温度值的数目的比值可以大于95%。
若存在温度值在预设温度范围,且在预设温度范围的温度值的数目大于第二数目,且待检测者的咳嗽概率小于或者等于第一阈值,则说明待检测者的危险程度比较低,确定待检测者的类型为第二类型,比如,待检测者的类型为低危险型。
除了通过上述咳嗽概率确定第二类型外,还可以当存在温度值在预设温度范围,且在预设温度范围的温度值的数目大于第二数目,且待检测者的面部变化信息中存在差值绝对值小于或者等于第二阈值,且小于或者等于第二阈值的差值绝对值的数目大于第三数目,则说明待检测者的危险程度比较低,确定待检测者的类型为第二类型。其中,第三数目可以根据实际情况确定。
另外,在获取到视频流后,将视频流输入到目标检测跟踪模块对目标进行识别,将识别结果输入到温度检测模块识别每个待检测者的温度,并判断温度是否超过预设温度范围,在温度超过预设温度范围时可以进行温度警示,将识别结果输入到咳嗽行为识别模块识别出每个待检测者具有咳嗽行为的概率,当概率超过预设概率阈值时,可以进行咳嗽警示,温度警示和咳嗽警示可以通过不同的方式进行警示,可以参考图5。
参照图6所示,为本申请实施例提供的一种数据处理装置的示意图,该方法包括以下步骤:
获取模块61,用于获取关于待检测者的温度信息和当前视频流;
第一确定模块62,用于基于所述当前视频流,以及咳嗽行为识别模块,确定所述待检测者的咳嗽行为识别信息;
第二确定模块63,用于基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。
在一种实施方式中,所述第一确定模块62用于根据以下步骤将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息:
从当前视频流提取包括待检测者的多个图像;
将所述多个图像输入到所述咳嗽行为识别模块中的编码器,得到每个图像对应的编码特征向量;
将每个图像对应的编码特征向量输入到所述咳嗽行为识别模块中的解码器,得到所述待检测者在每个图像中具有咳嗽行为的第一概率;
基于各个所述第一概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
在一种实施方式中,所述第一确定模块62用于根据以下步骤从当前视频流提取包括待检测者的多个图像:
从所述当前视频流中提取视频帧序列;
将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息;
基于各个所述位置信息,从对应视频帧中提取包括所述待检测者的图像。
在一种实施方式中,所述第一确定模块62用于根据以下步骤得到所述待检测者在每个视频帧中的位置信息:
将所述视频帧序列中的任一视频帧输入到所述目标检测跟踪模块中的目标检测器,得到所述待检测者在所述任一视频帧中的位置信息;
将所述待检测者在所述任一视频帧中的位置信息和所述视频帧序列中除所述任一视频帧外的其它视频帧输入到所述目标检测跟踪模块中的目标跟标器,得到所述待检测者在其它视频帧中的位置信息。
在一种实施方式中,所述第一确定模块62用于根据以下步骤将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽信息:
将从当前视频流中提取的多个视频帧输入到所述咳嗽行为识别模块中的骨骼特征提取模型,得到所述待检测者在每个视频帧中的骨骼特征信息;
将每个视频帧对应的骨骼特征信息输入到所述咳嗽行为识别模块中的咳嗽动作识别模型,得到所述待检测者在每个视频帧中具有咳嗽行为的第二概率;
基于各个所述第二概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
在一种实施方式中,所述第一确定模块62用于根据以下步骤将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息:
将所述当前视频流输入到所述咳嗽行为识别模块中的第一识别模型,得到所述待检测者的第三概率;
将所述当前视频流输入到所述咳嗽行为识别模块中的第二识别模型,得到所述待检测者的第四概率;
基于所述第三概率和所述第四概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
在一种实施方式中,所述第一确定模块62用于根据以下步骤将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息:
将从所述当前视频流中提取的视频帧序列输入到所述咳嗽行为识别模块中的面部识别器,得到所述待检测者在每个视频帧中的面部位置信息;
基于所述待检测者在每个视频帧中的面部位置信息,以及每个视频帧的宽高信息,确定所述待检测者在每个视频帧中的面部占比;
基于所述待检测者在每个视频帧中的面部占比,确定所述待检测者的咳嗽行为识别信息中的面部变化信息。
在一种实施方式中,所述第一确定模块62用于根据以下步骤确定所述待检测者的类型:
若所述温度信息超出预设温度范围,或者所述咳嗽行为识别信息满足第一预设条件,则确定所述待检测者的类型为第一类型;所述第一预设条件为咳嗽概率大于第一阈值,和/或面部变化信息大于第二阈值;
若所述温度信息未超出预设温度范围,且咳嗽行为识别信息满足第二预设条件,则确定所述待检测者的类型为第二类型;所述第二预设条件为所述咳嗽概率小于或者等于所述第一阈值,和/或所述面部变化信息小于或者等于第二阈值;
其中,所述第二类型的待检测者的危险程度低于所述第一类型的待检测者的危险程度。
关于方法中的处理流程、以及交互流程的描述可以参照上述装置实施例中的相关说明,这里不再详述。
本申请实施例还提供了一种电子设备70,如图7所示,为本申请实施例提供的电子设备70结构示意图,包括:处理器71、存储器72、和总线73。所述存储器72存储有所述处理器71可执行的机器可读指令(比如,图6中的装置中获取模块61、第一确定模块62、第二确定模块63对应的执行指令等),当电子设备70运行时,所述处理器71与所述存储器72之间通过总线73通信,所述机器可读指令被所述处理器71执行时执行如下处理:
获取关于待检测者的温度信息和当前视频流;
将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息;
基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。
如本领域技术人员所知,随着计算机硬件的发展,总线的具体实现方式以及名称可能发生各种改变,此处所称的总线概念上涵盖任何能够为电子设备内各部件提供服务的信息传送线路,包括但不限于FSB、HT、QPI、Infinity Fabric等。
在本申请实施例中,处理器可以是通用处理器,包括中央处理器(CPU),还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、神经网络处理器(NPU)、张量处理器(TPU)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
一种可能的实施方式中,处理器71执行的指令中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
从当前视频流提取包括待检测者的多个图像;
将所述多个图像输入到所述咳嗽行为识别模块中的编码器,得到每个图像对应的编码特征向量;
将每个图像对应的编码特征向量输入到所述咳嗽行为识别模块中的解码器,得到所述待检测者在每个图像中具有咳嗽行为的第一概率;
基于各个所述第一概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
一种可能的实施方式中,处理器71执行的指令中,从当前视频流提取包括待检测者的多个图像,包括:
从所述当前视频流中提取视频帧序列;
将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息;
基于各个所述位置信息,从对应视频帧中提取包括所述待检测者的图像。
一种可能的实施方式中,处理器71执行的指令中,将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息,包括:
将所述视频帧序列中的任一视频帧输入到所述目标检测跟踪模块中的目标检测器,得到所述待检测者在所述任一视频帧中的位置信息;
将所述待检测者在所述任一视频帧中的位置信息和所述视频帧序列中除所述任一视频帧外的其它视频帧输入到所述目标检测跟踪模块中的目标跟标器,得到所述待检测者在其它视频帧中的位置信息。
一种可能的实施方式中,处理器71执行的指令中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽信息,包括:
将从当前视频流中提取的多个视频帧输入到所述咳嗽行为识别模块中的骨骼特征提取模型,得到所述待检测者在每个视频帧中的骨骼特征信息;
将每个视频帧对应的骨骼特征信息输入到所述咳嗽行为识别模块中的咳嗽动作识别模型,得到所述待检测者在每个视频帧中具有咳嗽行为的第二概率;
基于各个所述第二概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
一种可能的实施方式中,处理器71执行的指令中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将所述当前视频流输入到所述咳嗽行为识别模块中的第一识别模型,得到所述待检测者的第三概率;
将所述当前视频流输入到所述咳嗽行为识别模块中的第二识别模型,得到所述待检测者的第四概率;
基于所述第三概率和所述第四概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
一种可能的实施方式中,处理器71执行的指令中,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将从所述当前视频流中提取的视频帧序列输入到所述咳嗽行为识别模块中的面部识别器,得到所述待检测者在每个视频帧中的面部位置信息;
基于所述待检测者在每个视频帧中的面部位置信息,以及每个视频帧的宽高信息,确定所述待检测者在每个视频帧中的面部占比;
基于所述待检测者在每个视频帧中的面部占比,确定所述待检测者的咳嗽行为识别信息中的面部变化信息。
一种可能的实施方式中,处理器71执行的指令中,基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型,包括:
若所述温度信息超出预设温度范围,或者所述咳嗽行为识别信息满足第一预设条件,则确定所述待检测者的类型为第一类型;所述第一预设条件为咳嗽概率大于第一阈值,和/或面部变化信息大于第二阈值;
若所述温度信息未超出预设温度范围,且咳嗽行为识别信息满足第二预设条件,则确定所述待检测者的类型为第二类型;所述第二预设条件为所述咳嗽概率小于或者等于所述第一阈值,和/或所述面部变化信息小于或者等于第二阈值;
其中,所述第二类型的待检测者的危险程度低于所述第一类型的待检测者的危险程度。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述数据处理方法的步骤。
具体地,该存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该存储介质上的计算机程序被运行时,能够执行上述数据处理方法,从而解决现有技术中确定待检测者的类型的准确度低的问题,本申请不仅仅考虑待检测者的温度信息,在获取待检测者的温度信息的同时,进一步获取包括待检测者的当前视频流,基于当前视频流以及咳嗽行为识别模型,确定待检测者的咳嗽行为识别信息,综合考虑待检测者的温度信息和咳嗽行为识别信息,确定待检测者的类型,可以实施确定待检测者的类型,从而减少了仅通过温度确定待检测者类型时漏检行为的发生,提高了确定待检测者的类型的准确度。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种数据处理方法,其特征在于,该方法包括:
获取关于待检测者的温度信息和当前视频流;
将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息;
基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型。
2.如权利要求1所述的方法,其特征在于,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
从当前视频流提取包括待检测者的多个图像;
将所述多个图像输入到所述咳嗽行为识别模块中的编码器,得到每个图像对应的编码特征向量;
将每个图像对应的编码特征向量输入到所述咳嗽行为识别模块中的解码器,得到所述待检测者在每个图像中具有咳嗽行为的第一概率;
基于各个所述第一概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
3.如权利要求2所述的方法,其特征在于,从当前视频流提取包括待检测者的多个图像,包括:
从所述当前视频流中提取视频帧序列;
将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息;
基于各个所述位置信息,从对应视频帧中提取包括所述待检测者的图像。
4.如权利要求3所述的方法,其特征在于,将所述视频帧序列输入到目标检测跟踪模块,得到所述待检测者在每个视频帧中的位置信息,包括:
将所述视频帧序列中的任一视频帧输入到所述目标检测跟踪模块中的目标检测器,得到所述待检测者在所述任一视频帧中的位置信息;
将所述待检测者在所述任一视频帧中的位置信息和所述视频帧序列中除所述任一视频帧外的其它视频帧输入到所述目标检测跟踪模块中的目标跟标器,得到所述待检测者在其它视频帧中的位置信息。
5.如权利要求1所述的方法,其特征在于,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将从当前视频流中提取的多个视频帧输入到所述咳嗽行为识别模块中的骨骼特征提取模型,得到所述待检测者在每个视频帧中的骨骼特征信息;
将每个视频帧对应的骨骼特征信息输入到所述咳嗽行为识别模块中的咳嗽动作识别模型,得到所述待检测者在每个视频帧中具有咳嗽行为的第二概率;
基于各个所述第二概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
6.如权利要求1所述的方法,其特征在于,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将所述当前视频流输入到所述咳嗽行为识别模块中的第一识别模型,得到所述待检测者的第三概率;
将所述当前视频流输入到所述咳嗽行为识别模块中的第二识别模型,得到所述待检测者的第四概率;
基于所述第三概率和所述第四概率,确定所述待检测者的咳嗽行为识别信息中的咳嗽概率。
7.如权利要求1所述的方法,其特征在于,将所述当前视频流输入咳嗽行为识别模块,以确定所述待检测者的咳嗽行为识别信息,包括:
将从所述当前视频流中提取的视频帧序列输入到所述咳嗽行为识别模块中的面部识别器,得到所述待检测者在每个视频帧中的面部位置信息;
基于所述待检测者在每个视频帧中的面部位置信息,以及每个视频帧的宽高信息,确定所述待检测者在每个视频帧中的面部占比;
基于所述待检测者在每个视频帧中的面部占比,确定所述待检测者的咳嗽行为识别信息中的面部变化信息。
8.如权利要求1所述的方法,其特征在于,基于所述温度信息和所述咳嗽行为识别信息,确定所述待检测者的类型,包括:
若所述温度信息超出预设温度范围,或者所述咳嗽行为识别信息满足第一预设条件,则确定所述待检测者的类型为第一类型;所述第一预设条件为咳嗽概率大于第一阈值,和/或面部变化信息大于第二阈值;
若所述温度信息未超出预设温度范围,且咳嗽行为识别信息满足第二预设条件,则确定所述待检测者的类型为第二类型;所述第二预设条件为所述咳嗽概率小于或者等于所述第一阈值,和/或所述面部变化信息小于或者等于第二阈值;
其中,所述第二类型的待检测者的危险程度低于所述第一类型的待检测者的危险程度。
9.一种电子设备,其特征在于,包括:处理器、存储介质,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器执行所述机器可读指令,以执行时执行如权利要求1至8任一所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至8任一所述的方法的步骤。
CN202010438058.XA 2020-05-21 2020-05-21 数据处理方法、电子设备和存储介质 Pending CN111582233A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010438058.XA CN111582233A (zh) 2020-05-21 2020-05-21 数据处理方法、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010438058.XA CN111582233A (zh) 2020-05-21 2020-05-21 数据处理方法、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN111582233A true CN111582233A (zh) 2020-08-25

Family

ID=72115935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010438058.XA Pending CN111582233A (zh) 2020-05-21 2020-05-21 数据处理方法、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN111582233A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033682A (zh) * 2021-03-31 2021-06-25 北京有竹居网络技术有限公司 视频分类方法、装置、可读介质、电子设备
CN114694269A (zh) * 2022-02-28 2022-07-01 江西中业智能科技有限公司 一种人体行为监护方法、系统及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447333B1 (en) * 2004-01-22 2008-11-04 Siemens Corporate Research, Inc. Video and audio monitoring for syndromic surveillance for infectious diseases
CN103919531A (zh) * 2014-04-22 2014-07-16 广东小天才科技有限公司 一种健康监测装置和设置健康监测装置的儿童学习设备
CN109740557A (zh) * 2019-01-10 2019-05-10 北京市商汤科技开发有限公司 对象检测方法及装置、电子设备和存储介质
CN110516620A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 目标跟踪方法、装置、存储介质及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447333B1 (en) * 2004-01-22 2008-11-04 Siemens Corporate Research, Inc. Video and audio monitoring for syndromic surveillance for infectious diseases
CN103919531A (zh) * 2014-04-22 2014-07-16 广东小天才科技有限公司 一种健康监测装置和设置健康监测装置的儿童学习设备
CN109740557A (zh) * 2019-01-10 2019-05-10 北京市商汤科技开发有限公司 对象检测方法及装置、电子设备和存储介质
CN110516620A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 目标跟踪方法、装置、存储介质及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
潘灏: "监控视频中人的动作识别研究" *
范钊宣: "基于深度学习的人体动作识别研究" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033682A (zh) * 2021-03-31 2021-06-25 北京有竹居网络技术有限公司 视频分类方法、装置、可读介质、电子设备
CN113033682B (zh) * 2021-03-31 2024-04-30 北京有竹居网络技术有限公司 视频分类方法、装置、可读介质、电子设备
CN114694269A (zh) * 2022-02-28 2022-07-01 江西中业智能科技有限公司 一种人体行为监护方法、系统及存储介质

Similar Documents

Publication Publication Date Title
Vishnu et al. Human fall detection in surveillance videos using fall motion vector modeling
Adhikari et al. Activity recognition for indoor fall detection using convolutional neural network
CN108629946B (zh) 一种基于rgbd传感器的人体跌倒检测方法
Shoaib et al. View-invariant fall detection for elderly in real home environment
CN107657244B (zh) 一种基于多摄像机的人体跌倒行为检测系统及其检测方法
CN111767888A (zh) 对象状态检测方法、计算机设备、存储介质和电子设备
CN109887234B (zh) 一种防儿童走失方法、装置、电子设备及存储介质
JP5106356B2 (ja) 画像監視装置
CN108647587B (zh) 人数统计方法、装置、终端及存储介质
CN111091025B (zh) 图像处理方法、装置和设备
CN109145696B (zh) 一种基于深度学习的老人跌倒检测方法及系统
JP6280020B2 (ja) 移動物体追跡装置
CN114469076B (zh) 一种融合身份特征的独居老人跌倒识别方法及系统
CN111582233A (zh) 数据处理方法、电子设备和存储介质
CN110874910B (zh) 路面报警方法、装置、电子设备及可读存储介质
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
CN111259718A (zh) 一种基于高斯混合模型的扶梯滞留检测方法及系统
CN111814690A (zh) 一种目标重识别方法、装置和计算机可读存储介质
CN110580708B (zh) 一种快速移动检测方法、装置及电子设备
CN110059531B (zh) 基于视频图像的打架行为检测方法及装置
Sowmyayani et al. Fall detection in elderly care system based on group of pictures
CN111382606A (zh) 摔倒检测方法、摔倒检测装置和电子设备
CN112036269A (zh) 跌倒检测方法、装置、计算机设备和存储介质
CA3141958A1 (en) Quantized transition change detection for activity recognition
Christodoulidis et al. Near real-time human silhouette and movement detection in indoor environments using fixed cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination