CN111914925A - 一种基于深度学习的患者行为多模态感知与分析系统 - Google Patents

一种基于深度学习的患者行为多模态感知与分析系统 Download PDF

Info

Publication number
CN111914925A
CN111914925A CN202010740442.5A CN202010740442A CN111914925A CN 111914925 A CN111914925 A CN 111914925A CN 202010740442 A CN202010740442 A CN 202010740442A CN 111914925 A CN111914925 A CN 111914925A
Authority
CN
China
Prior art keywords
patient
recognition unit
deep learning
modal
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010740442.5A
Other languages
English (en)
Other versions
CN111914925B (zh
Inventor
张立华
杨鼎康
翟鹏
董志岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202010740442.5A priority Critical patent/CN111914925B/zh
Publication of CN111914925A publication Critical patent/CN111914925A/zh
Application granted granted Critical
Publication of CN111914925B publication Critical patent/CN111914925B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Cardiology (AREA)
  • Pulmonology (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Fuzzy Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)

Abstract

本发明涉及一种基于深度学习的患者行为多模态感知与分析系统,包括数据采集单元、患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元、患者语音信息识别单元以及深度融合单元;通过对采集到的患者姿态、生理、图像和语音等多模态数据实现预处理和感兴趣区提取和诊断,深度融合单元采用多模态二维特征和三维特征融合网络结构,由2D深度学习网络获取初步分割结果,并通过3D深度学习网络在初步分割结果的基础上,获取患者行为检测结果。与现有技术相比,本发明实现了更加精准的评估患者行为,准确定位病灶,显著提高了患者病理走向预测准确度,为患者行为科学干预与医疗流程智能优化手段的实施提高有力的基础保障。

Description

一种基于深度学习的患者行为多模态感知与分析系统
技术领域
本发明涉及患者行为分析领域,尤其是涉及一种基于深度学习的患者行为多模态感知与分析系统。
背景技术
随着深度学习技术的不断发展,在处理许多单模态的感知型机器学习任务中,深度神经网络相对传统的信息处理方法,取得了很大的优势和信息处理效果。例如循环神经网络和递归神经网络(RNN)的提出,对于患者病历文本信息和语音信息的序列问题的处理,实现了极为成功的工程化推广和医疗诊断的应用;AlexNet、ResNet等模型的提出,在患者行为视频信息领域的任务处理上甚至超越了人类的表现。
将深度学习技术应用到模式识别领域进行各个模态的特征提取和选择,最常用于特征提取的深度网络是卷积神经网络(Convolutional neural network,CNN),它由多个单层卷积神经网络进行多次堆叠而成。单层卷积神经网络一般包括卷积、非线性变换和下采样三个阶段,CNN经常被用于提取视觉模态的特征,对于其他模态的特征也可使用CNN进行特征提取。在神经语言模型的基础上,大量的深度神经网络结构被改良并进一步应用于自然语言处理任务,如RNN、LTSM被广泛地应用于文本分类、实体识别等任务.由于RNN能够出色地学习序列样本中不同时刻的信息及其相互关系,RNN结构在机器翻译、对话生成等序列分析及序列生成任务中的优势极为突出。
面向急诊、ICU、护理、隔离病房或代谢舱等复杂医疗场景下,基于深度学习的患者行为的多维度感知算法传统的缺点是无法有效感知患者的精细行为和细粒度,对基于患者行为的医疗行为实施的合规性无法做出准确判断,同时目前对于患者行为的分析和研究,大多数医院和医疗数据中心依然停留在人工样本采集分析和自动化的单模态分析阶段,尽管部分机构已经展开了对多模态数据的感知分析,但是缺乏对多模态数据的兼容性处理和考量,很大程度上制约了患者行为和下一步的医疗结局的数据分析和研究。
现有的深度学习方法大多数应用于患者的图像信息处理方面,对多模态数据的处理依然存在网络设计复杂,训练速度慢以及梯度问题无法解决等缺陷,无法很好的发挥多模态信息融合可以使单模态异构特征以及多模态异构特征在时间和空间线索维度上互为补充的优势。例如虽然基于图像信息的特征提取中,RGB的表现纹理信息丰富,但却容易受到光强干扰,较难以表达时序线索;虽然基于三维人体动作捕捉系统得到的人体位姿惯性数据时序变化线索较容易提取和表达,但是却难以表现纹理信息等。
上述问题导致患者行为采集样本的位置不准确,延迟了对患者行为的评估和治疗,或者出现过度诊断以及过度治疗。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种更加准确可靠的基于深度学习的患者行为多模态感知与分析系统。
本发明的目的可以通过以下技术方案来实现:
一种基于深度学习的患者行为多模态感知与分析系统,包括数据采集单元、患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元、患者语音信息识别单元以及深度融合单元,所述数据采集单元用于获取多模态患者数据,所述数据采集单元分别连接所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元;所述深度融合单元分别连接所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元;
所述深度融合单元采用2D深度学习网络获取初步分割结果,并通过3D深度学习网络在所述初步分割结果的基础上,获取患者行为检测结果。
进一步地,所述2D深度学习网络和3D深度学习网络均采用带残差结构的ResUNet构建。
进一步地,所述深度融合单元的数据处理过程包括以下步骤:
2D深度学习网络处理步骤:2D深度学习网络对多维特征数据进行处理,并将处理结果由2D特征转换为3D特征,获取第一3D特征图;
3D深度学习网络处理步骤,将所述第一3D特征图与多维特征数据合并,一同输入到3D深度学习网络中,得到第二3D特征图;
融合处理步骤:将所述第一3D特征图和第二3D特征图进行求和计算后,依次输入2D+3D融合层、卷积计算层和分类预测层,获取3D的患者行为检测结果。
进一步地,所述2D深度学习网络的输入端通过四个特征通道分别对所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元传输的多维特征数据进行处理。
进一步地,所述第一3D特征图包括模态信息分割概率图和背景分割概率图,所述3D深度学习网络的输入端通过六个特征通道分别对所述模态信息分割概率图、背景分割概率图以及患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元传输的多维特征数据。
进一步地,所述患者人体姿态识别单元的执行过程包括以下步骤:
角度空间特征表示步骤,用于根据人体单元节点的骨架数据,提取患者姿态的角度空间特征;
节点动量特征表示步骤,用于通过将目标节点抽象为物理质点的方式,获取患者姿态的节点动量特征;
第一模态输出步骤,用于根据所述患者姿态的角度空间特征和节点动量特征,通过混淆矩阵,提取患者骨骼数据的空间运动信息,实现模态输出。
进一步地,所述患者生理信号识别单元的执行过程包括以下步骤:
外周生理信号收集步骤,用于通过医学影像学技术设备采集外周生理信号;
噪声消除预处理步骤,用于通过滤波器滤波和小波变换,对所述外周生理信号进行预处理;
外周生理特征提取步骤,用于对预处理后的所述外周生理信号进行特征提取;
第二模态输出步骤,用于根据所述特征提取的结果,实现模态输出。
进一步地,所述患者图像信息识别单元包括依次连接的图像信息采集模块、图像预处理模块和配准模块,所述图像预处理模块首先对彩色图像通过分量法和加权平均法实现灰度化;然后进行图像的几何变换,并按照变换关系进行灰度差值,最后结果图像增强技术,完成图像的预处理。
进一步地,所述患者语音信息识别单元包括依次连接的语音信息采集模块、语音预处理模块和信息特征提取模块,所述语音预处理模块用于通过加窗和端点检测的方式对语音信息进行预处理。
进一步地,所述患者行为多模态感知与分析系统还包括显示模块,该显示模块连接所述深度融合单元。
与现有技术相比,本发明具有以下优点:
(1)本发明通过结合采集单元、患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元、患者语音信息识别单元、深度融合单元以及显示单元,实现患者不同模态异构数据的充分采集,同时依据不同模态数据的特点在识别单元实现数据的预处理和筛查配准,融合单元所述的深度融合卷积神经网络模型不仅仅学到患者行为本身的时空特征,同时包含其空间纹理特征,实现更加精准的评估患者行为,准确定位病灶,显著提高患者病理走向预测准确度,为患者行为科学干预与医疗流程智能优化手段的实施提高有力的基础保障。
(2)本发明深度融合单元通过利用多模态数据的二维和三维特征实现综合的多模态融合,大大提高了模型的泛化能力和患者行为的识别预测准确度,解决了跨模态数据时空异构性与患者行为多维度感知准确性需求的矛盾,为下一步实现低延时,高精度,兼顾不同医疗场景的智慧患者行为感知和医疗流程优化提供客观依据,提高了患者诊治效率和水平。
(3)本发明数据采集单元充分应用医疗场景下的医学影像等技术和传感器技术结合,采集了患者行为的多模态数据信息,同时区别传统的分析方法,分别应用不同识别单元的相关原理和技术对模态数据实现了进一步的处理和特征提取。
(4)患者语音信息识别单元的语音预处理模块在通过加窗、端点检测等方式对语音信号进行预处理,一方面为了消除患者自身不可避免的伪影干扰,另一方面尽可能的减少医疗音频采集设备产生的环境噪声,提高患者语音质量,为后续的特征提取提供保障。
附图说明
图1为本发明基于深度学习的患者行为多模态感知与分析系统的原理框图;
图2为本发明提供的患者人体姿态识别单元的原理框图;
图3为本发明提供的患者生理信号识别单元的原理框图;
图4为本发明提供的患者图像信息识别单元的原理框图;
图5为本发明提供的患者语音信息识别单元的原理框图;
图6为本发明深度融合单元采用的基于深度融合卷积神经网络的多模态特征融合流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
如图1所示,本实施例提供一种基于深度学习的患者行为多模态感知与分析系统,包括数据采集单元、患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元、患者语音信息识别单元、深度融合单元以及显示模块,数据采集单元用于获取多模态患者数据,数据采集单元分别连接患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元;深度融合单元分别连接患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元、患者语音信息识别单元和显示模块。
数据采集单元通过医疗场景下的医学影像技术提供的多传感器设备和自建的数据库获取多模态患者数据。
深度融合单元主要包括2D-ResUNet结构、3D-ResUNet结构以及2D+3D融合层。所述的多模态2D-ResUNet结构主要包括四种模态的信息编码器、多模态卷积结构、解码器以及跳跃连接结构;所述的3D-ResUNet结构用于接收2D结构的分割概率信息,实现多维的多特征融合。
显示模块用于输出通过深度融合模块后的测试集的患者行为检测结果和行为评估。
下面对各部分进行详细描述。
1、患者人体姿态识别单元
如图2所示,患者人体姿态识别单元的执行过程包括以下步骤:
角度空间特征表示步骤,用于根据人体单元节点的骨架数据,提取患者姿态的角度空间特征;
节点动量特征表示步骤,用于通过将目标节点抽象为物理质点的方式,获取患者姿态的节点动量特征;
第一模态输出步骤,用于根据患者姿态的角度空间特征和节点动量特征,通过混淆矩阵,提取患者骨骼数据的空间运动信息,实现模态输出。
具体描述如下:
1.1)角度空间特征表示步骤将提取的25个人体单元节点的骨架数据转换为20个节点表示简化的人体骨架表示,计算整个数据集的平均值和标准偏差。通过标准化操作,令处理后的数据符合μ=0,σ=1的标准正态分布。对处理后的20个关节进行排列组合提取平面,结果将会产生
Figure BDA0002606543560000061
种可能的平面。这些可能值通过如下公式表示:
Cp={Pi,Pj,Pk},p∈N+[1,1140]i,j,k∈N+[1,20]
式中,Cp为总可能平面集合,Pi为人体关节特征点i的取值概率,Pj为人体关节特征点j的取值概率,Pk为人体关节特征点k的取值概率,N+[1,1140]为特征因子的分布水平范围。
此模块从这些点中选取三个点。可以得到所需要的向量,如下公式表示:
Figure BDA0002606543560000062
式中,Vp(1)为关节数据向量,在笛卡尔坐标系参照下,
Figure BDA0002606543560000063
为x平面关节特征点i的取值概率,
Figure BDA0002606543560000064
为x平面关节特征点j的取值概率,
Figure BDA0002606543560000065
为x平面关节特征点z的取值概率。
最后将提取后的数据特征描述子堆叠为F×H×W的张量表示形式,其中F表示从序列中抽取的帧数,H,W分别为长度和宽度。
1.2)节点动量特征表示步骤将目标节点抽象为一个物理质点,其质量为1,则目标质点的动量可以表示为ρ=mv,速度可以对质点单位时间运动的距离进行微分获得,假设患者姿态质点的运动轨迹处处可微,则表示如下:
Figure BDA0002606543560000066
之后将提取后的Mop堆叠为F×H×W的几何流表示,其中F表示从序列中抽取的帧数,H,W分别为长度和宽度。
1.3)模态输出:通过角度空间特征和节点动量特征表示患者姿态信息后,在网络层构造批量归一化和激活函数,建立混淆矩阵,挖掘骨骼数据的空间运动信息,实现模态输出。
2、患者生理信号识别单元
如图3所示,患者生理信号识别单元通过医疗场景下的CT、B超等医学影像学技术设备采集到的呼吸、皮肤电等外周生理信号时,不免会受到患者穿戴各种传感器设备产生的磁干扰和功率干扰,同时在对患者的采集过程中,患者会不自主的产生不可避免的各种肢体动作,产生噪声和基线漂移等干扰。
患者生理信号识别单元的执行过程包括以下步骤:
外周生理信号收集步骤,用于通过医学影像学技术设备采集外周生理信号;
噪声消除预处理步骤,用于通过滤波器滤波和小波变换,对外周生理信号进行预处理;
外周生理特征提取步骤,用于对预处理后的外周生理信号进行特征提取;
第二模态输出步骤,用于根据特征提取的结果,实现模态输出。
具体描述如下:
2.1)利用滤波器和小波变换,令外周信号更加纯净,确保输出模态的识别准确性。此单元考虑到患者外周生理信号强度微弱、不同信号频率范围内的强度不同的特点,利用滤波器对各种信号进行滤波,截取强度大的频率范围的生理信号便于后续模态识别的进行。
2.2)本单元得到的患者有限生理信号的频率范围为,脉搏信号有效频率范围0.5Hz~20Hz之间,肌肉电信号有效频率范围50Hz~150Hz之间,心电信号有效频率范围0Hz~40Hz之间,皮肤电信号有效频率范围0Hz~2Hz之间。结合脉搏信号、心电信号和皮肤点信号的频率范围较小,频率波动幅度较大的特点,对于基线漂移的低频部分,采用小波变换进行预处理,将低频部分利用小波变换中的小波分解提出,将提出以后剩余信号利用分组重构实现组合得到预处理数据。
2.3)结合该单元提取外周生理信号主要有水平眼电图、垂直眼电图、颌骨肌电图、斜方肌肌电图、电流皮肤相应和呼吸振幅以及皮肤温度等。利用频域特征提取法在信号强度大的频率范围提取有效的特征,用于光谱功率、功率谱密度和功能谱能量等。结合过滤信号的频率范围,分别提取信号的平均数、中位数、标准偏差等特征。
3、患者图像信息识别单元
如图4所示,患者图像信息识别单元包括图像信息采集模块、图像预处理模块和配准模块三个方面。具体如下:
3.1)此单元通过患者疾病临床过程中提供的多种医学影像,例如,如计算机X线断层扫描)、磁共振成像、单光子发射计算机断层成像、超声图像、电阻抗图像等不同的医学图像实现对不同基于患者行为的模态信息的收集、多模态的采集患者的图像信息可以充分显示形态成像方法的高分辨力和精准的定位能力。力图尽可能的挖掘影像信息,用于患者抗法治疗的收束定位和放疗计划设计。
3.2)患者图像信息的质量好坏直接影响了识别算法的效果精度,因此在配准之前需要先对图像进行预处理。图像预处理模块首先对彩色图像通过分量法和加权平均法实现灰度化,以减少所需处理的数据量,提高模块整体的处理速度。之后进行图像的几何变换,通过平移、转置、镜像、旋转和缩放对采集的图像进行处理,用于改正图像采集模块的系统误差和仪器误差。此外,还利用灰度插值按照变换关系,避免输出图像的像素映射到输入图像非整数坐标的可能。最后结合图像增强技术,针对特点医疗场景的应用场合,有目的的强调图像的整体或者局部特性,扩大图像中不同患者特征之间的差别,抑制不感兴趣的特征,丰富信息量和图像的判读识别效果,满足后续分析的需要。
3.3)配准模块实现对图像的分割来提取特征。此模块直接依照图像感兴趣区域(ROI)中的生理特征进行分析,将这些特征与图像的边、轮廓、表面和跳跃性特征。例如角落、线的交叉点和高曲率点等。之后按照先验知识选择一定的分割阈值对图像进行自动分割,从而得到图像的几何特征。然后进行变换操作。将一幅图像中的坐标点变换到另一幅图像的坐标系中,经过图像分割后,求解两幅图像中对应点的变换。
4、患者语音信息识别单元
如图5所示,患者语音信息识别单元包含了语音信息采集、语音预处理和信息特征提取三个模块,具体步骤如下:
4.1)语音信息采集模块通过医疗诊断记录中所收集到的专项语音数据集合和丰富的通用问诊数据集实现患者行为语音数据的补充和完善,这些数据集包含了医疗场景下丰富的患者语音信息,涉及患者的问诊记录、患者治疗日常言语信息以及康复阶段的情绪言语化表现。
4.2)语音预处理模块中,由于患者的语音信号具有短时平稳性,此模块对信号进行分帧处理。紧接着进行加窗处理,加窗的目的是可以认为对抽样n附近的语音波形加以强调而对波形的其余部分加以减弱。对语音信号的各个短段进行处理,即对各个短段进行某种变换或施以某种运算。这里使用矩形窗,其定义为:
Figure BDA0002606543560000091
式中,W(n)为矩形窗函数表达式,n为矩形窗序列长度,N为大于n+1的某一自然数,具体用来规定n的上边界范围。
这里的矩形窗主瓣较窄,具有较高的频率分辨率。
之后采用双门限比较法来进行端点检测。双门限比较法以短时能量E和短时平均过零率Z作为特征,结合Z和E的优点,使检测更为准确,有效降低系统的处理时间,能排除无声段的噪声干扰,从而提高的语音信号的处理性能。
4.3)信息特征提取模块中通过对短时能量、短时平均幅度和短时平均过零率三个特征提取,实现语音模态的输出。取一帧信号,计算某帧的语音信号的短时能量,之后实现语音信号的短时平均幅度,定义如下:
Figure BDA0002606543560000092
短时平均幅度是一帧语音信号能量大小的表征,它与短时能量的区别在于计算时不论采样值的大小,不会因为取二次方而造成较大的差异,在患者行为语音信号处理u会带来很大的好处。短时能量和短时平均幅度的有作用主要是:作为区分清浊音,区分声母韵母,区分有话段和无话段的指标。短时平均过零率表示一帧语音中语音信号波形穿过横轴(零电平)的次数。其计算公式为:
Figure BDA0002606543560000093
式中,sgn[*]为阶跃函数,L为语音信号序列取值长度。
由于浊音具有较低的过零率而清音具有较高的过零率,过零率可以用来区分清音和浊音,在端点检查中有一定的运用。
5、深度融合单元
深度融合单元采用2D深度学习网络获取初步分割结果,并通过3D深度学习网络在初步分割结果的基础上,获取患者行为检测结果。
2D深度学习网络和3D深度学习网络均采用带残差结构的ResUNet构建。
深度融合单元的数据处理过程包括以下步骤:
2D深度学习网络处理步骤:2D深度学习网络对多维特征数据进行处理,并将处理结果由2D特征转换为3D特征,获取第一3D特征图;
3D深度学习网络处理步骤,将第一3D特征图与多维特征数据合并,一同输入到3D深度学习网络中,得到第二3D特征图;
融合处理步骤:将第一3D特征图和第二3D特征图进行求和计算后,依次输入2D+3D融合层、卷积计算层和分类预测层,获取3D的患者行为检测结果。
2D深度学习网络的输入端通过四个特征通道分别对所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元传输的多维特征数据进行处理。
第一3D特征图包括模态信息分割概率图和背景分割概率图,3D深度学习网络的输入端通过六个特征通道分别对所述模态信息分割概率图、背景分割概率图以及患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元传输的多维特征数据。
如图6所示,具体实施时,本实施例深度融合单元采用基于深度融合卷积神经网络的多模态特征融合流程,包括2D-ResUNet结构(2D深度学习网络)、3D-ResUNet结构(3D深度学习网络)以及2D+3D融合层,整个模型的输入为多维特征,其中2D-ResUNet结构的特征通道数c=4表示四种模态T1,T2,T3,T4。此结构中假设函数T表示3D特征转化为2D的过程,T-1表示该转换的逆过程,则I2d=T(I),得到四种模态2D网络表示为f2d,3D网络表示为f3d,则多模态2D经多模态2D-ResUNet后的特征和概率图分别如下
F2d=f2d(I2d-T1,I2d-T2,I2d-T3,I2d-T4;θ2d)
F2d∈Rb×384×384×16
y2d=f2dcls(F2d;θ2dcls)
其中的θ2d2dcls分别为卷积网络和预测网络的参数,卷积网络和预测网络是2D-ResUNet结构的组成部分,卷积网络层进行多模态数据的卷积运算;预测网络层将解码后的多模态特征进行提取,输出分类特征进行预测。为了将2D网络所得到的结果与3D网络相结合,F2d与y2d需要经过以下变换,得到对应的3D特征图:
Figure BDA0002606543560000101
Figure BDA0002606543560000102
为此将
Figure BDA0002606543560000103
与I合并,一同输入3D-ResUNet中,得到3D网络的特征图:
Figure BDA0002606543560000104
通过求和变化后得到Z,再输入2D+3D融合层fHF,进行卷积计算得到H,在经过预测分类层fHFcls,得到3D的多模态行为预测结果yH。表示如下:
Figure BDA0002606543560000111
H=fHF(Z;θHF)
yH=fHFcls(H;θHFcls)
2D-ResUNet和3D-ResUNet的网络层次结构采用带残差结构的ResUNet构建模型很好的解决了梯度消失问题,有效实现了模型的训练和测试。
2D-ResUNet网络结构主要包括四种模态的编码器、多模态卷积结构、解码器以及编码器-解码器间的跳跃连接结构.编码器由带残差结构的卷积块与最大池化层组成,解码器由带残差结构的卷积块和反卷积层组成,将四种模态经编码器中的每一池化层进行池化,再将经池化后的四种特征图进行卷积运算,从而实现多模态2D特征的融合.具体实现过程为四种模态图像经过相同层次的卷积和池化后的特征图具有相同的尺寸,通过在深度的方向上对四种特征图进行合并,可生成深度为4的3D特征图,再通过大小为(1,1,4)的卷积核以(1,1,4)为步长对该特征图进行卷积,从而将特征图深度转化为1,实现四种模态特征的深度融合.经多模态卷积后的特征图,通过跳跃连接结构与解码器相同层次的特征图相加,从而减少反卷积过程中的信息丢失。
所述的3D-ResUNet网络结构的输入为多模态2D-ResUNet的分割概率图y2d经变换所得到的概率图
Figure BDA0002606543560000112
与模型的原始输入合并后的特征图;其中3D-ResUNet网络结构的输入为6通道,分别为四种模态以及多模态2D-ResUNet网络所得患者行为模态信息与背景两种区域分割概率图。将其输入到带有跳跃连接以及残差结构的3D-ResUNet网络中,即可实现3D分割。因此,该网络将四种模态作为输入的四通道,将多模态2D-ResUNet分割概率图作为输入的二通道,从而将2D网络快速分割结果用于指导3D模型分割,实现了基于多模态的患者行为的准确感知和评估。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,包括数据采集单元、患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元、患者语音信息识别单元以及深度融合单元,所述数据采集单元用于获取多模态患者数据,所述数据采集单元分别连接所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元;所述深度融合单元分别连接所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元;
所述深度融合单元采用2D深度学习网络获取初步分割结果,并通过3D深度学习网络在所述初步分割结果的基础上,获取患者行为检测结果。
2.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述2D深度学习网络和3D深度学习网络均采用带残差结构的ResUNet构建。
3.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述深度融合单元的数据处理过程包括以下步骤:
2D深度学习网络处理步骤:2D深度学习网络对多维特征数据进行处理,并将处理结果由2D特征转换为3D特征,获取第一3D特征图;
3D深度学习网络处理步骤,将所述第一3D特征图与多维特征数据合并,一同输入到3D深度学习网络中,得到第二3D特征图;
融合处理步骤:将所述第一3D特征图和第二3D特征图进行求和计算后,依次输入2D+3D融合层、卷积计算层和分类预测层,获取3D的患者行为检测结果。
4.根据权利要求3所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述2D深度学习网络的输入端通过四个特征通道分别对所述患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元传输的多维特征数据进行处理。
5.根据权利要求3所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述第一3D特征图包括模态信息分割概率图和背景分割概率图,所述3D深度学习网络的输入端通过六个特征通道分别对所述模态信息分割概率图、背景分割概率图以及患者人体姿态识别单元、患者生理信号识别单元、患者图像信息识别单元和患者语音信息识别单元传输的多维特征数据。
6.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述患者人体姿态识别单元的执行过程包括以下步骤:
角度空间特征表示步骤,用于根据人体单元节点的骨架数据,提取患者姿态的角度空间特征;
节点动量特征表示步骤,用于通过将目标节点抽象为物理质点的方式,获取患者姿态的节点动量特征;
第一模态输出步骤,用于根据所述患者姿态的角度空间特征和节点动量特征,通过混淆矩阵,提取患者骨骼数据的空间运动信息,实现模态输出。
7.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述患者生理信号识别单元的执行过程包括以下步骤:
外周生理信号收集步骤,用于通过医学影像学技术设备采集外周生理信号;
噪声消除预处理步骤,用于通过滤波器滤波和小波变换,对所述外周生理信号进行预处理;
外周生理特征提取步骤,用于对预处理后的所述外周生理信号进行特征提取;
第二模态输出步骤,用于根据所述特征提取的结果,实现模态输出。
8.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述患者图像信息识别单元包括依次连接的图像信息采集模块、图像预处理模块和配准模块,所述图像预处理模块首先对彩色图像通过分量法和加权平均法实现灰度化;然后进行图像的几何变换,并按照变换关系进行灰度差值,最后结果图像增强技术,完成图像的预处理。
9.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述患者语音信息识别单元包括依次连接的语音信息采集模块、语音预处理模块和信息特征提取模块,所述语音预处理模块用于通过加窗和端点检测的方式对语音信息进行预处理。
10.根据权利要求1所述的一种基于深度学习的患者行为多模态感知与分析系统,其特征在于,所述患者行为多模态感知与分析系统还包括显示模块,该显示模块连接所述深度融合单元。
CN202010740442.5A 2020-07-28 2020-07-28 一种基于深度学习的患者行为多模态感知与分析系统 Active CN111914925B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010740442.5A CN111914925B (zh) 2020-07-28 2020-07-28 一种基于深度学习的患者行为多模态感知与分析系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010740442.5A CN111914925B (zh) 2020-07-28 2020-07-28 一种基于深度学习的患者行为多模态感知与分析系统

Publications (2)

Publication Number Publication Date
CN111914925A true CN111914925A (zh) 2020-11-10
CN111914925B CN111914925B (zh) 2022-03-29

Family

ID=73286835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010740442.5A Active CN111914925B (zh) 2020-07-28 2020-07-28 一种基于深度学习的患者行为多模态感知与分析系统

Country Status (1)

Country Link
CN (1) CN111914925B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749666A (zh) * 2021-01-15 2021-05-04 百果园技术(新加坡)有限公司 一种动作识别模型的训练及动作识别方法与相关装置
CN113012821A (zh) * 2021-03-18 2021-06-22 日照职业技术学院 基于机器学习的多模态康复诊疗云平台的实现方法
CN113643795A (zh) * 2021-07-16 2021-11-12 上海交通大学医学院附属第九人民医院 基于人工智能的口腔颌面头颈肿瘤康复护理系统
CN115035576A (zh) * 2022-05-31 2022-09-09 深圳市北科瑞声科技股份有限公司 基于人脸视频的用户情绪识别方法、装置、设备及介质
CN118173292A (zh) * 2024-05-14 2024-06-11 四川互慧软件有限公司 一种基于ai自训练的远程诊疗系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919251A (zh) * 2017-01-09 2017-07-04 重庆邮电大学 一种基于多模态情感识别的虚拟学习环境自然交互方法
CN108806776A (zh) * 2018-06-14 2018-11-13 暨南大学附属第医院(广州华侨医院) 一种基于深度学习的多模态医学影像的方法
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法
CN109598727A (zh) * 2018-11-28 2019-04-09 北京工业大学 一种基于深度神经网络的ct图像肺实质三维语义分割方法
US20190221312A1 (en) * 2016-09-07 2019-07-18 Koninklijke Philips N.V. Systems, methods, and apparatus for diagnostic inferencing with a multimodal deep memory network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190221312A1 (en) * 2016-09-07 2019-07-18 Koninklijke Philips N.V. Systems, methods, and apparatus for diagnostic inferencing with a multimodal deep memory network
CN106919251A (zh) * 2017-01-09 2017-07-04 重庆邮电大学 一种基于多模态情感识别的虚拟学习环境自然交互方法
CN108806776A (zh) * 2018-06-14 2018-11-13 暨南大学附属第医院(广州华侨医院) 一种基于深度学习的多模态医学影像的方法
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法
CN109598727A (zh) * 2018-11-28 2019-04-09 北京工业大学 一种基于深度神经网络的ct图像肺实质三维语义分割方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749666A (zh) * 2021-01-15 2021-05-04 百果园技术(新加坡)有限公司 一种动作识别模型的训练及动作识别方法与相关装置
CN112749666B (zh) * 2021-01-15 2024-06-04 百果园技术(新加坡)有限公司 一种动作识别模型的训练及动作识别方法与相关装置
CN113012821A (zh) * 2021-03-18 2021-06-22 日照职业技术学院 基于机器学习的多模态康复诊疗云平台的实现方法
CN113012821B (zh) * 2021-03-18 2022-04-15 日照职业技术学院 基于机器学习的多模态康复诊疗云平台的实现方法
CN113643795A (zh) * 2021-07-16 2021-11-12 上海交通大学医学院附属第九人民医院 基于人工智能的口腔颌面头颈肿瘤康复护理系统
CN113643795B (zh) * 2021-07-16 2022-06-07 上海交通大学医学院附属第九人民医院 基于人工智能的口腔颌面头颈肿瘤康复护理系统
CN115035576A (zh) * 2022-05-31 2022-09-09 深圳市北科瑞声科技股份有限公司 基于人脸视频的用户情绪识别方法、装置、设备及介质
CN118173292A (zh) * 2024-05-14 2024-06-11 四川互慧软件有限公司 一种基于ai自训练的远程诊疗系统及方法
CN118173292B (zh) * 2024-05-14 2024-08-09 四川互慧软件有限公司 一种基于ai自训练的远程诊疗系统及方法

Also Published As

Publication number Publication date
CN111914925B (zh) 2022-03-29

Similar Documents

Publication Publication Date Title
CN111914925B (zh) 一种基于深度学习的患者行为多模态感知与分析系统
WO2020133636A1 (zh) 前列腺手术中外包膜智能检测和预警方法及系统
CN109993068B (zh) 一种基于心率和面部特征的非接触式的人类情感识别方法
Uddin et al. Human activity recognition using body joint‐angle features and hidden Markov model
WO2020077198A1 (en) Image-based models for real-time biometrics and marker-less motion tracking in imaging applications
CN113951883B (zh) 基于脑电信号情绪识别的性别差异性检测方法
CN111920420A (zh) 一种基于统计学习的患者行为多模态分析与预测系统
CN116012916A (zh) 远程光体积描记信号和心率检测模型构建方法及检测方法
Shahadi et al. Eulerian video magnification: a review
CN112932503A (zh) 基于4d数据表达和3dcnn的运动想象任务解码方法
Ziani Contribution to Single-Channel Fetal Electrocardiogram Identification.
CN114332910A (zh) 一种面向远红外图像的相似特征计算的人体部位分割方法
Xu et al. Application of artificial intelligence technology in medical imaging
CN117958970A (zh) 一种基于ct与激光口扫的口腔手术实时导航方法
CN117764917A (zh) 一种基于YOLOv8的肺结节图像检测方法
CN117633558A (zh) 基于视觉语言模型的多激励融合零样本病变检测方法
CN115813409B (zh) 一种超低延迟的运动图像脑电图解码方法
Cai et al. Combining chrominance features and fast ICA for noncontact imaging photoplethysmography
CN115374831B (zh) 多模态配准和时空特征注意的动静结合速度想象分类方法
CN112085105A (zh) 一种基于人体形状与姿态估计的动作相似度评价方法
Jian et al. Towards reliable object representation via sparse directional patches and spatial center cues
CN114569116A (zh) 基于三通道图像及迁移学习的心冲击图室颤辅助诊断系统
CN115909438A (zh) 基于深度时空域卷积神经网络的疼痛表情识别系统
Fiedler et al. Deep face segmentation for improved heart and respiratory rate estimation from videos
CN114428555A (zh) 一种基于皮层源信号的脑电运动意图识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant