CN111783612A - 一种基于视频流的帕金森非接触式智能检测方法及系统 - Google Patents
一种基于视频流的帕金森非接触式智能检测方法及系统 Download PDFInfo
- Publication number
- CN111783612A CN111783612A CN202010597179.9A CN202010597179A CN111783612A CN 111783612 A CN111783612 A CN 111783612A CN 202010597179 A CN202010597179 A CN 202010597179A CN 111783612 A CN111783612 A CN 111783612A
- Authority
- CN
- China
- Prior art keywords
- video
- parkinson
- layer
- convolution
- constructing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4082—Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Neurology (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pathology (AREA)
- Neurosurgery (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Developmental Disabilities (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Physiology (AREA)
- Veterinary Medicine (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于视频流的帕金森非接触式智能检测方法及系统。该方法包括:收集帕金森患者和非帕金森病患者的相关视频数据;构建视频预处理模型;构建视频通道模型;根据收集的处理过的视频数据和所建立的视频通道模型,确定视频特征向量;构建网络模型;根据所得视频特征向量和所建网络模型,得到标签向量;根据得到的标签向量,确定帕金森患者。本发明能够降低了检测成本与操作难度,提高交互性与检测效率。
Description
技术领域
本发明涉及帕金森非接触式智能检测邻域,特别是一种基于视频流的帕金森非接触式智能检测方法及系统。
背景技术
帕金森病又名震颤麻痹,是一种常见的神经系统变性疾病,主要影响人的运动系统,老年人多见,主要病变在黑质和纹状体。震颤、肌强直及运动减少是本病的主要临床特征。随着病情的加重,僵硬感将会在脸部肌肉运动时表现得更加明显,所以“面具脸”为临床判断是否患帕金森病的重要指标。
到目前为止,帕金森病虽然没有一套完全彻底的整治方案,但如果患者在早期就被诊断发现,那便可以提前进行治疗和提前采取一些措施以防止一些意外的发生现。帕金森病的检测方法有很多,例如脑CT、MRI检测、可穿戴式的传感设备等,但它们都需要大量人工或高科技物理设备的参与,这类方式加大了检测成本和限制了受测试者的活动范围,具有一定的局限性。随着移动设备的普及,拍摄视频已是一件非常简单方便的事,因此,本发明通过拍摄脸部动作的视频就能进行帕金森的检测,降低了检测成本与操作难度,弥补了现有方案的不足。
发明内容
本发明的目的是提供一种基于视频流的帕金森非接触式智能检测方法及系统,能够对患者脸部的脸部动作特征进行分析训练,使帕金森病患者的诊断更加准确方便。
为实现上述目的,本发明提供了如下方案:
一种基于视频流的帕金森非接触式智能检测方法,包括以下步骤:
收集帕金森患者和非帕金森病患者的相关视频数据;
构建视频预处理模型;
构建视频通道模型;
根据处理过的视频数据和所建立的视频通道模型,确定视频特征向量
构建网络模型;
根据所得视频特征向量和所建网络模型,得到标签向量;
根据得到的标签向量,确定帕金森患者。
可选的,所述构建视频预处理模型,具体包括:
应用MTCNN的人脸识别多任务级联网络框架,得到人脸特征信息的帧序列特征矩阵。
可选的,所述构建视频通道模型,具体包括:
构建3D核卷积网络的视频通道模型,所述视频通道模型包括第一视频深度卷积阶段、第二视频深度卷积阶段和视频全连接阶段,所述第一视频深度卷积阶段包括第一视频卷积层、第二视频卷积层和第一视频池化层,所述第二视频深度卷积阶段包括第三视频卷积层、第四视频卷积层和第二视频池化层,所述视频全连接阶段包括视频输入层、视频隐藏层和视频输出层。
可选的,所述根据所述处理过的视频数据集和所述视频通道模型,确定视频特征向量,具体包括:
将所述第一视频卷积层、所述第二视频卷积层、所述第三视频卷积层和所述第四视频卷积层中卷积核的个数分别设置为32、32、64和64,卷积核的大小均设置为3×3×3,步长均设置为1,边界零填充均设置为1,对各卷积层的输出都进行归一化处理;
将所述第一视频池化层和所述第二视频池化层均采用最大池化的方式,池化区域核的大小均设置为2×2×3,步长均设置为2;
将所述第一视频深度卷积阶段和所述视频第二深度卷积阶段的输出特征矩阵扁平化处理为1维特征向量。
可选的,所述构建网络模型,具体包括:
构建输入特征向量的全连接网络模型,所述全连接阶段包括输入层、第一隐藏层、第二隐藏层和输出层。
可选的,根据所述视频特征向量和所述网络模型,得到标签向量,具体包括:
将视频特征向量作为所述网络模型全连接阶段的输入向量,得到2维标签向量。
一种基于视频流的帕金森非接触式智能检测系统,包括以下步骤:
视频数据获取模块,用于收集帕金森患者和非帕金森病患者的相关视频数据;
视频预处理模块,用于提取人脸特征信息的帧序列特征矩阵。
视频通道模型构建模块,用于构建视频通道模型;
视频特征向量确定模块,用于根据所述处理过的视频数据集和所述视频通道模型,确定视频特征向量;
网络模型构建模块,用于构建网络模型;
标签向量确定模块,用于根据所述视频特征向量和所述网络模型,得到标签向量;
帕金森患者确定模块,用于根据所述标签向量,确定帕金森患者。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明基于视频流,仅需摄像头拍摄患者脸部视频就能进行有效检查,减少了人工的工作量,降低了成本,检测方式简单高效。与传统方法不同,本发明从视频中提取有效数据,降低算法的部署难度,具有可扩展性和可移植性的特点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于视频流的帕金森非接触式智能检测方法流程图;
图2是本发明基于视频流的帕金森非接触式智能检测系统结构图;
图3是本发明的视频通道模型图;
图4是本发明的网络模型图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的在于提供一种基于视频流的帕金森非接触式智能检测方法及系统,通过对脸部肌肉运动特征的分析,能够解决传统帕金森检测中需要复杂的物理设备,成本高,方法复杂和鲁棒性不强等问题。
为使本发明的上述目的、特征、优点能够更加明显易懂,下面结合附图和具体实施方式对本发明做进一步详细说明。
图1是本发明基于视频流的帕金森非接触式智能检测方法流程图。如图1所示,一种基于视频流的帕金森非接触式智能检测方法包括:
步骤101:获取帕金森患者和非帕金森患者的音视频数据集。
本发明构建了一个由2N个受试者组成的通过临床验证的数据集,其中帕金森患者与非患者比例为1:1。该数据集包含2N条纯人脸视频,将这样的数据以及二分类标签作为整个模型的初始输入数据。
步骤102:构建视频预处理模型,具体包括:
应用了MTCNN的人脸识别多任务级联网络框架,得到大小为32×32包含人脸特征信息的帧序列特征矩阵。
步骤103:构建视频通道模型,具体包括:
构建3D核卷积网络的视频通道模型,所述视频通道模型包括第一视频深度卷积阶段、第二视频深度卷积阶段和视频全连接阶段,所述第一视频深度卷积阶段包括第一视频卷积层、第二视频卷积层和第一视频池化层,所述第二视频深度卷积阶段包括第三视频卷积层、第四视频卷积层和第二视频池化层,所述视频全连接阶段包括视频输入层、视频隐藏层和视频输出层。
步骤104:根据所述处理过的视频数据集和所述视频通道模型,确定视频特征向量,具体包括:
将所述第一视频卷积层、所述第二视频卷积层、所述第三视频卷积层和所述第四视频卷积层中卷积核的个数分别设置为32、32、64和64,卷积核的大小均设置为3×3×3,步长均设置为1,边界零填充均设置为1,对各卷积层的输出都进行归一化处理。
将所述第一视频池化层和所述第二视频池化层均采用最大池化的方式,池化区域核的大小均设置为2×2×3,步长均设置为2。
将所述第一视频深度卷积阶段和所述视频第二深度卷积阶段的输出特征矩阵扁平化处理为1维特征向量。
步骤105:构建网络模型,具体包括:
构建输入特征向量的全连接网络模型,所述全连接阶段包括输入层、第一隐藏层、第二隐藏层和输出层。
步骤106:根据所述视频特征向量和所述网络模型,得到标签向量,具体包括:
将视频特征向量作为所述网络模型全连接阶段的输入向量,得到2维标签向量。全连接阶段以ReLu作为激活函数,使用Dropout方法减少过拟合现象,最后输出2维标签向量。
步骤107:根据所述标签向量,确定帕金森患者。
本发明基于视频流,仅需摄像头拍摄患者脸部视频就能进行有效检查,减少了人工的工作量,降低了成本,检测方式简单高效。与传统方法不同,本发明从视频中提取有效数据,降低算法的部署难度,具有可扩展性和可移植性的特点。
图2是本发明基于音视频的帕金森非接触式智能检测系统结构图。如图2所示,一种基于音视频的帕金森非接触式智能检测系统包括:
数据集获取模块201,用于获取帕金森患者和非帕金森患者的视频数据集;
视频预处理模块202,用于获取包含人脸特征信息的帧序列特征矩阵。
视频通道模型构建模块203,用于构建视频通道模型;
视频特征向量确定模块204,用于根据所述处理过的视频数据集和所述视频通道模型,确定视频特征向量;
网络模型构建模块205,用于构建网络模型;
标签向量确定模块206,用于根据所述视频特征向量和所述网络模型,得到标签向量;
帕金森患者确定模块207,用于根据所述标签向量,确定帕金森患者。
为了更为详尽的论述本发明,以下提供一个具体的实施例,具体步骤如下:
步骤一、数据集的构建:
本实施例构建了一个由200个受试者组成的通过临床验证的数据集,其中帕金森患者与非患者比例为1:1。该数据集包含200条纯人脸视频,将这样的数据以及二分类标签作为整个模型的初始输入数据。本实施例的工作主要是在youtube上搜索帕金森患者和非患者在自然表达场景下的相关视频,通过检索‘Parkinson facial OR vlog’筛选出含有‘Parkinson facial’或者‘Parkinson vlog’的条目,选择性跟踪含有大量帕金森节目的发布源,非患者片段则从亲属/治疗师描述患者病情的片段中截取。符合实验要求的节目有如下特点:1)人物面部清晰,完整;2)人物位置不过分偏离画面中心;3)含人物自然叙述片段。视频从youtube上挑选后,将经二次剪辑后的6.5秒视频片段交由医生团队进行临床标定,剔除争议的部分,最终保留100个帕金森患者视频与100个对照视频。
步骤二、视频预处理模型的构建:
为了从视频中提取人脸部分,本实施例应用了MTCNN的人脸识别多任务级联网络框架,该框架能够以从粗略到精细的方式预测面部和关键点位置,即使是在头部姿势多种多样的情况下也能保持鲁棒,得到大小为32×32包含人脸特征信息的帧序列特征矩阵。每一个样本的数据由通道数为200且大小为32×32的帧序列特征矩阵以及二分类标签向量Y组成,在二维标签向量Y中0表示非患者,1表示患者。
步骤三、视频通道模型的构建,如图3所示:
视频通道模型为3D核卷积网络,由2个深度卷积阶段和1个全连接阶段组成。先将通道数为200且大小为32×32的帧序列特征矩阵Vecvisual1做减去平均值再除以最大值的归一化处理(BatcNormalization),然后通过第1个深度卷积阶段:第一卷积层(Conv3D_1)+第二卷积层(Conv3D_2)+第一池化层(MaxPool3D_1),第一、第二卷积层的卷积核大小均设置为3×3×3,数量均设置为32,步长均设置为1,边界零填充(padding)均设置为1,池化层采用最大池化的方式,池化区域核大小为2×2×3,步长为2,输出通道数为32且大小为16×16的特征向量Vecvisual2。接着Vecvisual2通过第2个深度卷积阶段:第三卷积层(Conv3D_3)+第四卷积层(Conv4D_4)+第二池化层(MaxPool3D_2),第三、第四卷积层的卷积核大小均设置为3×3×3,数量均设置为32,步长均设置为1,边界零填充(padding)均设置为1,第二池化层采用最大池化的方式,池化区域核大小为2×2×3,步长为2,输出通道数为64且大小为7×7的特征向量Vecvisual3,对每个卷积层的输出都进行减去平均值再除以最大值的归一化处理(BatcNormalization),使其恢复原来输入时的分布。将Vecvisual3扁平化处理(Flatten)成大小为1×3136的特征向量Vecvisual4,作为全连接阶段的输入向量。全连接阶段的结构:输入层(Input Layer)+1层隐藏层(Hidden Layer)+输出层(Output Layer),采用ReLU作为激活函数,使用Dropout方法随机使一定的神经元失活来减少过拟合现象,失活概率P=0.3,最后输出大小为1×512的视频特征向量Vecvisual。
步骤四、网络模型的构建,如图4所示:
网络模型由视频特征输入阶段和全连接阶段组成。将视频通道输出的大小为1×512的视频特征向量Vecvisual作为网络模型的输入向量,全连接阶段的结构:输入层(InputLayer)+第一隐藏层(Hidden Layer_1)+第二隐藏层(Hidden Layer_2)+输出层(OutputLayer),该阶段采用二分类交叉熵(Binary_Crossentropy)作为损失函数,输入层和第一隐藏层以及第一隐藏层和第二隐藏层之间采用ReLu作为激活函数,使用Dropout方法随机使一定的神经元失活来减少过拟合现象,失活概率p=0.3,特征向量Vecvisual通过整个全连接阶段后得到大小为1×2的输出向量Vecoutput,对Vecoutput先做减去平均值再除以最大值的归一化处理(BatcNormalization)并且再用sigmoid函数进行处理Vectarget,根据二维向量Vectarget中两个值的大小确定是否为患者。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于视频流的帕金森非接触式智能检测方法,其特征在于,包括如下方法:
收集帕金森患者和非帕金森病患者的相关视频数据;
构建视频预处理模型;
构建视频通道模型;
根据收集的处理过的视频数据集和所建立的视频通道模型,确定视频特征向量;
构建网络模型;
根据所得视频特征向量和所建网络模型,得到标签向量;
根据得到的标签向量,确定帕金森患者。
2.根据权利要求1所述的基于视频流的帕金森非接触式智能检测方法,其特征在于,所述构建视频预处理模型,具体包括:
应用MTCNN的人脸识别多任务级联网络框架,得到人脸特征信息的帧序列特征矩阵。
3.根据权利要求1所述的基于视频流的帕金森非接触式智能检测方法,其特征在于,所述构建音频通道模型,具体包括:
构建3D核卷积网络的视频通道模型,所述视频通道模型包括第一视频深度卷积阶段、第二视频深度卷积阶段和视频全连接阶段,所述第一视频深度卷积阶段包括第一视频卷积层、第二视频卷积层和第一视频池化层,所述第二视频深度卷积阶段包括第三视频卷积层、第四视频卷积层和第二视频池化层,所述视频全连接阶段包括视频输入层、视频隐藏层和视频输出层。
4.根据权利要求3所述的基于视频流的帕金森非接触式智能检测方法,其特征在于,根据所述处理过的视频数据集和所述视频通道模型,确定视频特征向量,具体包括:
将所述第一视频卷积层、所述第二视频卷积层、所述第三视频卷
积层和所述第四视频卷积层中卷积核的个数分别设置为32、32、64和64,卷积核的大小均设置为3×3×3,步长均设置为1,边界零填充均设置为1,对各卷积层的输出都进行归一化处理;
将所述第一视频池化层和所述第二视频池化层均采用最大池化的
方式,池化区域核的大小均设置为2×2×3,步长均设置为2;
将所述第一视频深度卷积阶段和所述视频第二深度卷积阶段的输
出特征矩阵扁平化处理为1维特征向量。
5.根据权利要求1所述的基于视频流的帕金森非接触式智能检测方法,其特征在于,所述构建网络模型,具体包括:
构建输入特征向量的全连接网络模型,所述全连接阶段包括输入
层、第一隐藏层、第二隐藏层和输出层。
6.根据权利要求5所述的基于视频流的帕金森非接触式智能检测方法,其特征在于,根据所述视频特征向量和所述网络模型,得到标签向量,具体包括:
将视频特征向量作为所述网络模型全连接阶段的输入向量,得到2维标签向量。
7.一种基于视频流的帕金森非接触式智能检测系统,其特征在于,包括:
视频数据获取模块,用于收集帕金森患者和非帕金森病患者的相关视频数据;
视频预处理模块,用于获取包含人脸特征信息的帧序列特征矩阵。
视频通道模型构建模块,用于构建视频通道模型;
视频特征向量确定模块,用于根据所述处理过的频数据集和所述视频通道模型,确定视频特征向量;
网络模型构建模块,用于构建网络模型;
标签向量确定模块,用于根据所述视频特征向量和所述网络模型,得到标签向量;
帕金森患者确定模块,用于根据所述标签向量,确定帕金森患者。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010597179.9A CN111783612A (zh) | 2020-06-28 | 2020-06-28 | 一种基于视频流的帕金森非接触式智能检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010597179.9A CN111783612A (zh) | 2020-06-28 | 2020-06-28 | 一种基于视频流的帕金森非接触式智能检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111783612A true CN111783612A (zh) | 2020-10-16 |
Family
ID=72760639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010597179.9A Pending CN111783612A (zh) | 2020-06-28 | 2020-06-28 | 一种基于视频流的帕金森非接触式智能检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783612A (zh) |
-
2020
- 2020-06-28 CN CN202010597179.9A patent/CN111783612A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nagrani et al. | Seeing voices and hearing faces: Cross-modal biometric matching | |
Hossain | Patient state recognition system for healthcare using speech and facial expressions | |
CN113240691B (zh) | 一种基于u型网络的医学图像分割方法 | |
CN109816011A (zh) | 生成人像分割模型的方法和视频关键帧提取方法 | |
CN110969124A (zh) | 基于轻量级多分支网络的二维人体姿态估计方法及系统 | |
Muhammad et al. | Visual saliency models for summarization of diagnostic hysteroscopy videos in healthcare systems | |
US11704808B1 (en) | Segmentation method for tumor regions in pathological images of clear cell renal cell carcinoma based on deep learning | |
CN109497990B (zh) | 一种基于典型相关分析的心电信号身份识别方法及系统 | |
Kong et al. | Appearance matters, so does audio: Revealing the hidden face via cross-modality transfer | |
CN110136144B (zh) | 一种图像分割方法、装置及终端设备 | |
Zhang et al. | Gait-based age estimation with deep convolutional neural network | |
CN111553899A (zh) | 一种基于音视频的帕金森非接触式智能检测方法及系统 | |
CN116579982A (zh) | 一种肺炎ct图像分割方法、装置及设备 | |
CN103327359A (zh) | 一种应用于视频质量评价的视频显著性区域搜索方法 | |
CN116977463A (zh) | 图像处理方法、装置、计算机设备、存储介质及产品 | |
Zhang et al. | 3D-GAT: 3D-guided adversarial transform network for person re-identification in unseen domains | |
CN116012255A (zh) | 一种基于循环一致性生成对抗网络的低光图像增强方法 | |
Liu et al. | 4D facial analysis: A survey of datasets, algorithms and applications | |
Kanawong et al. | An automatic tongue detection and segmentation framework for computer–aided tongue image analysis | |
CN116740547A (zh) | 基于数字孪生的变电站目标检测方法、系统、设备及介质 | |
CN111783612A (zh) | 一种基于视频流的帕金森非接触式智能检测方法及系统 | |
CN116417008A (zh) | 一种跨模态音视频融合语音分离方法 | |
CN115984257A (zh) | 一种基于多尺度transformer的多模态医学图像融合方法 | |
CN110263753A (zh) | 一种对象统计方法和装置 | |
CN113239867B (zh) | 一种基于掩码区域自适应增强的光照变化人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210610 Address after: 100000 No. 6 South Road, Zhongguancun Academy of Sciences, Beijing, Haidian District Applicant after: Institute of Computing Technology, Chinese Academy of Sciences Applicant after: XIANGTAN University Address before: Xiangtan University, yanggutang street, Yuhu District, Xiangtan City, Hunan Province Applicant before: XIANGTAN University |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |