CN116884096A - 一种评估婴幼儿智力发育程度的方法、系统、设备 - Google Patents
一种评估婴幼儿智力发育程度的方法、系统、设备 Download PDFInfo
- Publication number
- CN116884096A CN116884096A CN202311156071.6A CN202311156071A CN116884096A CN 116884096 A CN116884096 A CN 116884096A CN 202311156071 A CN202311156071 A CN 202311156071A CN 116884096 A CN116884096 A CN 116884096A
- Authority
- CN
- China
- Prior art keywords
- infant
- behavior
- classifier
- development
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000011161 development Methods 0.000 title claims abstract description 49
- 230000006399 behavior Effects 0.000 claims abstract description 67
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 51
- 238000004422 calculation algorithm Methods 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 claims description 22
- 230000036630 mental development Effects 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 14
- 238000005457 optimization Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000002123 temporal effect Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 230000003542 behavioural effect Effects 0.000 claims description 7
- 230000005281 excited state Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000005283 ground state Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000011273 social behavior Effects 0.000 claims description 4
- 238000003066 decision tree Methods 0.000 claims description 3
- 238000007637 random forest analysis Methods 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000018109 developmental process Effects 0.000 description 34
- 238000009826 distribution Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000036626 Mental retardation Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000013506 data mapping Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000008140 language development Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06398—Performance of employee with respect to a job function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Strategic Management (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Development Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Social Psychology (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Biophysics (AREA)
- Quality & Reliability (AREA)
- General Business, Economics & Management (AREA)
- Psychiatry (AREA)
- Game Theory and Decision Science (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及智能医疗领域,具体涉及一种评估婴幼儿智力发育程度的方法、系统、设备。包括获取婴幼儿行为视频序列;将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到行为特征,将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。本申请利用人工智能方法分析不同年龄段的婴幼儿行为并进行评估,有利于在婴幼儿成长阶段进行早期干预和个性化教育。
Description
技术领域
本发明涉及智能医疗领域,具体涉及一种评估婴幼儿智力发育程度的方法、系统、设备、计算机可读存储介质。
背景技术
科学研究显示,婴幼儿时期是大脑快速成长和形成关键认知功能的关键时期,他们的行为和动作可以为其智力、社交能力、甚至未来的学术和职业表现提供早期的线索。然而,传统的婴幼儿智力发育评估往往受到多种因素的限制。首先,这些评估方法可能依赖于专家的经验和判断,导致结果可能存在主观偏见。其次,手动评估通常是费时费力的,且可能因为不同的评估者和方法之间存在差异而导致评估结果的不一致性。此外,现有技术在处理和分析婴幼儿行为视频数据时,可能因为数据质量问题而面临困难,从而影响评估的准确性。
人工智能和深度学习技术在众多领域都显示出了强大的分析和预测能力,这为婴幼儿智力发育评估提供了新的可能性。
发明内容
针对上述阐述的婴幼儿智力发育评估问题,本发明提出了一种评估婴幼儿智力发育程度的方法,结合先进的数据处理技术对婴幼儿的行为和动作进行深入分析,为家长和教育者提供一个更为准确、高效和客观的评估工具,具体包括:
获取婴幼儿行为视频序列;
将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到时段行为特征,所述双支神经网络是由空间特征提取分支和时间特征提取分支组成,所述空间特征提取分支是对所述婴幼儿行为视频序列做一维卷积和注意力增强得到空间特征;所述时间特征提取分支是对所述婴幼儿行为视频序列做三维卷积和注意力增强得到时间特征,所述空间特征与时间特征进行级联得到行为特征;
将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。
进一步,所述双支神经网络在进行特征提取过程中采用优化算法寻找参数的最优权重配置,所述最优权重配置基于概率谐波寻找参数的目标函数,目标函数的公式如下:
其中,和/>是权衡因子,损失函数/>最为均方根误差损失函数,/>为权重/>的观测状态值,/>为偏置/>的观测状态值,/>是权重的时间波动函数,/>是偏置的时间波动函数。
进一步,采用量子飞跃转变所述目标函数的取值,实现所述量子飞跃的公式如下:
其中,基态、激发态/>是Pauli-X矩阵,代表量子比特的一个基本操作,用于将基态和激发态进行交换,/>是一个调节系数,决定了量子飞跃的强度,量子参数/>和,并且满足/>。
所述分类器采用下列的一种或几种:随机森林、支持向量机、决策树、神经网络、极限学习机;其中,所述极限学习机采用核函数映射代替随机映射得到核极限学习机,采用所述核极限学习机进行婴幼儿智力发育程度的分类。
进一步,所述核函数映射是基于微分几何路径算法将行为特征转换为流形数据,再对所述流形数据进行映射,所述微分几何路径算法步骤为:
第一步:对行为特征中每个点进行欧式距离度量得到每个点的邻居度量;
第二步:对每个点和点的邻居进行权重重建计算;
第三步:基于所述权重重建构建一个矩阵W;
第四步:基于矩阵W构建拉普拉斯矩阵L;
第五步:计算矩阵L最小非零特征值对应的特征向量,所述特征向量为流形数据。
所述方法还包括数据预处理,所述数据预处理是所述婴幼儿行为视频序列进行数据增强,所述数据增强采用下列的一种或几种:全局自适应灰度拉伸算法、局部对比增强算法、滤波算法、去雾算法。
获取婴幼儿行为视频序列和发育时段,基于发育阶段将行为特征输至不同发育时段的分类器中判断婴幼儿智力发育程度;其中,所述不同发育时段的分类器的包括16周分类器、28周分类器、40周分类器、52周分类器、15月分类器、1.5岁分类器、3岁分类器;所述不同发育时段的分类器的分类指标包括下列的一种或几种:适应性、大动作、精细动作、语言动作、个人社交行为。
本申请的目的在于提供一种评估婴幼儿智力发育程度的系统,包括:
数据获取单元:获取婴幼儿行为视频序列;
模型学习单元:将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到行为特征,所述双支神经网络是由空间特征提取分支和时间特征提取分支组成,所述空间特征提取分支是对所述婴幼儿行为视频序列做一维卷积和注意力增强得到空间特征;所述时间特征提取分支是对所述婴幼儿行为视频序列做三维卷积和注意力增强得到时间特征,所述空间特征与时间特征进行级联得到行为特征;
程度分类单元:将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。
本申请的目的在于提供一种评估婴幼儿智力发育程度的设备,包括:
存储器和处理器;所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时实现任意一项上述的一种评估婴幼儿智力发育程度的方法。
本申请的目的在于提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现任意一项上述的一种评估婴幼儿智力发育程度的方法。
本发明的优势:
1.本发明采用双支卷积神经网络提取视频序列中的时间特征和空间特征,最大程度的保留视频数据中的有效信息,进而提高模型的准确率。
2.本发明基于声学启发选择概率谐波优化双支卷积神经网络模型的参数配置,缩短网络模型的训练时间,提高模型的处理效率,增强模型对特征的学习能力。
3.本发明在基于概率谐波优化算法中使用量子飞跃调整目标函数,避免目标函数陷入局部最优解或非最优状态的困境。
4.本发明使用核极限学习机进行分类,其中使用了核函数进行特征映射,使得模型能在高维空间隐式计算特征之间的距离或相似度,避免维度过高而导致计算能力不足的问题。
5.本发明在核极限学习机中采用了微分几何路径算法优化核函数的映射,在特征进行映射前转为流形数据,便于寻找特征之间的最优路径,提高核极限学习机的性能。
6.本发明采用神经网络模型对不同年龄段的婴幼儿的行为进行学习分类,准确识别婴幼儿的精细化动作并且结合评估量表评估婴幼儿智力发育水平,与传统的评估方式相比,本发明的评估方法更加客观、迅速、准确,有利于对婴幼儿智力发育水平的确定,进而进行提前干预。
7.本发明对婴幼儿视频进行了预处理操作,包括全局灰度拉伸、局部增强、去噪、去雾,使得视频数据中的有用信息被增强,有利于模型对特征的学习。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获取其他的附图。
图1为本发明实施例提供的一种评估婴幼儿智力发育程度的方法流程示意图;
图2为本发明实施例提供的一种评估婴幼儿智力发育程度的系统示意图;
图3为本发明实施例提供的一种评估婴幼儿智力发育程度的设备示意图;
图4为本发明实施例提供的视频信息数据展示示意图;
图5为本发明实施例提供的数据预处理过程示意图;
图6为本发明实施例提供的双支卷积神经网络示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如S101、S102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
图1本发明实施例提供的一种评估婴幼儿智力发育程度的方法示意图,具体包括:
S101:获取婴幼儿行为视频序列;
在一个实施例中,婴幼儿的成长发育阶段会表现出不同的行为举措,由于个体的差异性会出现发育迟缓和发育过快的现象,其中发育迟缓会影响婴幼儿的正常生长,需要予以外力进行干预,发育迟缓的征兆包括:体重不增或减低、身高不增长、运动发育迟于同龄儿、语言发育迟于同龄儿、社会适应能力差。
在一个具体实施例中,本发明所采用的数据通过录像和实时监控中获得,数据采集人群结合婴幼儿各个年龄阶段包括婴幼儿发育的第16周、28周、40周、52周、15月、1.5岁、3岁。
在一个具体实施例中,本发明在人工智能模型训练中所采用的视频数据格式为视频序列,即每个视频都是一个连续帧的集合,每帧都是一个图像矩阵。视频可以被表示为一个四维张量,其中维度表示时间、宽度、高度、颜色通道。采用的视频数据应包括婴幼儿发育的第16周、28周、40周、52周、15月、1.5岁、3岁各个阶段的行为特征,且在空间特征上,应包括婴幼儿的姿势、物体与其的相对位置、背景信息、动作、表请等;在时间特征上,应包括婴幼儿的动作速度、动作的序列和动作幅度等。
在一个具体实施例中,数据为一个10秒的视频baby_crawl.mp4,视频中的婴幼儿正在学习爬行,视频的分辨率为1280x720,帧率为30fps,时长为10s,颜色模式为RGB,视频由300帧组成,每帧是一个1280x720的图像,如图4所示,整个视频的张量是:
其中,是时间索引,对于一个10秒的视频,它从1到300;/>是行索引,范围从1到1280;/>是列索引,范围从1到720;/>是颜色通道索引,对于RGB,k可以是1(红色)、2(绿色)或3(蓝色)。每个元素/>的值范围为0到255,代表该时间、位置和通道的像素亮度。
在一个具体实施例中,本发明的人工智能模型训练方式为有监督学习训练方式,在数据标注时,数据的标签包括智力发育等级Ⅰ级、Ⅱ级、Ⅲ级、Ⅳ级、Ⅴ级。其中,Ⅰ级表示婴幼儿在此等级展现出超过同龄段大多数孩子的能力和技能,其认知、情感和社交能力表现出高度的成熟和理解;Ⅱ级表示婴幼儿在此等级展现出较高的能力,虽然不如Ⅰ级卓越,但仍然高于大部分同龄儿童;Ⅲ级表示婴幼儿的智力发育与同龄儿童相当或略高,总体表现稳定;Ⅳ级表示婴幼儿的智力发育基线与同龄段儿童相当;Ⅴ级表示婴幼儿在某些领域的智力发育稍微落后于同龄段的儿童,可能需要额外的支持和指导。Ⅰ级、Ⅱ级、Ⅲ级、Ⅳ级、Ⅴ级在数据标注时,使用标注工具进行标注,分别对应数字1、2、3、4、5。
在一个实施例中,所述方法还包括数据预处理,所述数据预处理是所述婴幼儿行为视频序列进行数据增强,所述数据增强采用下列的一种或几种:全局自适应灰度拉伸算法、局部对比增强算法、滤波算法、去雾算法。
在一个具体实施例中,在视频数据拍摄获取时,由于环境、光线、摄像设备等各种因素,录制的视频可能存在模糊、暗淡、噪点、色差等问题,导致视频数据质量低,影响人工智能算法的训练和应用。故,本发明对获取得到的视频数据进行数据增强,如图5所示,首先采用全局自适应灰度拉伸算法对视频数据V进行处理。全局自适应灰度拉伸的目标是调整整个视频的亮度和对比度,该方法首先确定原始视频帧的最大和最小像素值,然后将这个范围拉伸到[0,255]范围。对于每一帧的每一个像素值,处理方式可以表示为:
其中,和/>分别是视频帧的最小和最大像素值。
其次,利用局部对比度增强算法对数据进行处理。局部对比度增强的目标是在小的局部区域内增强对比度,通常采用直方图均衡化,可以增强在低对比度区域的细节。
设是像素值/>的累积分布函数(CDF),其局部直方图均衡化可以表示为为:
然后利用滤波算法对数据进行处理。滤波目的是去除噪声和增强图像边缘,本发明采用Gaussian滤波算法进行处理。对于每一个像素位置(i,j),新的像素值是其周围像素值的加权平均,权重是Gaussian函数,可以表示为:
其中,是中心在(i,j)的Gaussian函数。
最后,利用去雾算法对数据进行去雾操作。在婴幼儿视频拍摄过程中,如果环境中存在雾,会降低视频的清晰度,去雾算法的目的是恢复这些视频的清晰度。本发明采用基于McCarney大气散射模型对视频数据/>进行去雾处理。
设数据中的每个像素为/>,其可以表示为以下形式:
其中,表示/>中的像素值,/>表示场景的真实辐射率,/>表示大气光强,/>表示光线透射率。去雾后的数据是场景的真实辐射率/>。
去雾的目标是从中恢复出/>、/>和/>。具体的,首先,根据暗原色先验原理,在图像的局部区域找到暗通道,即某些像素的某个颜色通道有一个很小的值,可以表示为:
其中,代表R、G、B三个颜色通道中的一个。对于一个没有雾的图像,暗通道的强度几乎总是接近于0。但在有雾的图像中,暗通道的强度会随着光线透射率/>的减少而增加。
为了估算,设大气光强度/>是已知的,则/>可以近似为:
这个公式可以改写为:
在真实场景中,为了保留一些雾效果并避免图像看起来不自然,在上述公式中加入一个常数系数,得到:
由于基于块的计算方式可能会导致块效应,尤其是在边缘区域。为了避免这种效应,本发明采用邻域相似性原则对暗通道进行修正,即对每个像素单独提取暗通道并考虑其邻近像素的暗通道值。
S102: 将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到行为特征,所述双支神经网络是由空间特征提取分支和时间特征提取分支组成,所述空间特征提取分支是对所述婴幼儿行为视频序列做一维卷积和注意力增强得到空间特征;所述时间特征提取分支是对所述婴幼儿行为视频序列做三维卷积和注意力增强得到时间特征,所述空间特征与时间特征进行级联得到行为特征;
在一个实施例中,所述双支神经网络在进行特征提取过程中采用优化算法寻找参数的最优权重配置,所述最优权重配置基于概率谐波寻找参数的目标函数,目标函数的公式如下:
其中,和/>是权衡因子,损失函数/>最为均方根误差损失函数,/>为权重/>的观测状态值,/>为偏置/>的观测状态值,/>是权重的时间波动函数,/>是偏置的时间波动函数。
在一个实施例中,采用量子飞跃转变所述目标函数的取值,实现所述量子飞跃的公式如下:
其中,基态、激发态/>是Pauli-X矩阵,代表量子比特的一个基本操作,用于将基态和激发态进行交换,/>是一个调节系数,决定了量子飞跃的强度,量子参数/>和,并且满足/>。
在一个具体实施例中,将数据预处理后的数据分别输入到双支卷积神经网络中,所述双支卷积神经网络由两个分支组成:空间特征提取分支 (SFE) 和时间特征提取分支(TFE),如图6所示,首先,对于空间特征提取分支(SFE),将数据中的单一视频帧/>输入到卷积层中,其卷积操作可以表示为:
其中,表示卷积核的权重参数,/>是偏置项。/>是ReLU激活函数,其公式为。/>表示卷积操作。
其次,将卷积层的输出输入到第一注意力模块。在本发明中,空间注意力机制可以帮助模型集中关注于图像中与婴幼儿行为相关的关键区域。具体的,给定卷积层的输出,计算注意力权重/>时,首先计算计算注意力分数/>,可以表示为:
其中,和/>是学习得到的权重和偏置。
然后,使用Sigmoid函数得到注意力权重,可以表示为:
其中,是Sigmoid函数,公式为/>。
此外,通过注意力权重对原始输出进行加权:
其中,表示哈达玛积操作。
最后,将第一注意力模块的输出输入到第一金字塔池化层中,以捕获不同尺度的特征。考虑三个不同尺度的池化核,对于输出进行金字塔池化得到:
其中,每个输出对应一个不同的池化核大小。
对于时间特征提取分支(TFE),将数据中的连续的视频帧堆叠/>输入到卷积层中,本发明采用3D卷积来捕获时间维度的信息,可以表示为:
其中,是3D卷积核权重,/>是偏置项。
其次 将3D卷积层的输出输入到第二注意力模块中。类似于空间分支,对于时间分支的输出,则首先计算注意力分数,可以表示为:
然后,计算注意力权重,可以表示为:
通过注意力权重对原始输出进行加权,可以表示为:
再将第二特征提取模块的输出输入到第二金字塔池化层中。与空间分支类似,但在时间维度上进行,可以表示为:
对于SFE和TFE的输出,通过连接操作进行级联,可以表示为:
其中,表示级联操作,级特征拉伸后进行前后连接。
最后,将此输出通过2层全连接层神经网络进行特征融合。所述全连接层神经网络的第1层神经元数量与/>的维度相等,第2层神经元的数量为100。
在一个具体实施例中,在上述人工智能模型的训练过程中,本发明采用一种基于声学启发的神经网络优化方法进行参数优化,避免传统的梯度下降法收敛速度慢、容易陷入局部最小值、容易产生梯度消失和梯度爆炸等现象带来的问题。其中,本发明所提出的基于声学启发的神经网络优化方法为基于概率谐波优化(Probabilistic HarmonicOptimization,PHO)的参数优化方法,并结合概率分布进行参数更新。PHO旨在通过寻找参数的和谐平衡点以达到优化神经网络性能的目标。
首先,对于上述人工智能模型的神经网络的最基本的单元:神经元与其权重和偏置,将这些参数视为音符,整个神经网络可以被看作是一个复杂的和声。受声学共振的启发,理论上存在一种参数的组合方式,可以使得整个网络“和谐”。
对于参数的概率分布,考虑权重和偏置/>,且认为每个参数都服从某种概率分布,如正态分布。权重参数/>的概率分布表示为/>,偏差参数/>的概率分布表示为/>,这些概率分布是基于之前观察到的有效参数值。故,有以下表示:
其中,和/>是平均值,而/>和/>是方差。/>是权重的时间波动函数,是偏置的时间波动函数,对于任意权重/>和偏置/>,可以通过以下方式定义其时间波动函数:
其中,和/>是权重和偏置的最大波动范围,/>是波动的角频率,/>是当前迭代次数或时间,/>是初始相位。周期性的调整可以帮助参数逃离局部最优点。当参数陷入某一固定点时,通过引入一个周期性波动,参数得以持续地被推入和拉出这一点,从而提高找到全局最优点的概率。
在本发明中,训练过程的目标是找到一组参数,使得网络的输出与期望输出之间的差异最小,即损失函数最小。故,定义一个和谐函数/>即目标函数,具体如下:
其中,和/>是权衡因子,确定损失和概率分布在优化过程中的重要性。损失函数最为均方根误差损失函数。每次评估和谐函数都会基于当前的时间波动函数,从而产生参数的持续和有节奏的调整。/>为权重/>的观测状态值,/>为偏置/>的观测状态值,对于其获得方式,参考量子物理的量子态的概念,权重和偏置经历一个“量子飞跃”,从一个状态跃迁到另一个状态,从而更快地收敛到最优解。即:
其中,和/>是权重在基态和激发态下的具体值。
其中,和/>是偏置在基态和激发态下的具体值。
以权重为例,上述公式的假设是每个权重可以存在于两个“量子态”中:基态/>和激发态/>。其状态由以下的量子叠加态定义:
其中和/>是复数,并且满足:
在训练过程中,目标是最大化和谐函数。当权重处于其局部最小值或非最优状态时,为了从当前状态飞跃到另一个可能的更好状态,利用量子飞跃来调整权重的量子参数(即/>和/>)。通过以下Hamiltonian操作实现的:
其中,是Pauli-X矩阵,代表量子比特的一个基本操作,用于将基态和激发态进行交换。/>是一个调节系数,决定了量子飞跃的强度。
量子飞跃的操作是:
这种操作将导致权重的状态进行飞跃,从当前状态跳转到另一个状态,从而帮助权重跳出局部最小值。
在每一次迭代中,量子飞跃的权重也随之改变。即,每次迭代都从当前参数的概率分布中采样新的参数,并计算和谐函数。如果新的和谐函数值大于当前的值,则接受新的参数;否则,以一定的概率接受新的参数。
具体的,参数的更新规则如下:
其中,是从当前参数的概率分布中采样的新权重参数,/>是一个均匀分布的随机数。
对于偏置的更新与权重类似,且可以表示为:
其中,是从当前参数的概率分布中采样的新偏置参数。
S103:将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。
在一个实施例中,所述分类器采用下列的一种或几种:随机森林、支持向量机、决策树、神经网络、极限学习机;其中,所述极限学习机采用核函数映射代替随机映射得到核极限学习机,采用所述核极限学习机进行婴幼儿智力发育程度的分类。
在一个实施例中,所述核函数映射中基于微分几何路径算法将行为特征转换为流形数据,再对所述流形数据进行映射,所述微分几何路径算法步骤为:
第一步:对行为特征中每个点进行欧式距离度量得到每个点的邻居度量;
第二步:对每个点和点的邻居进行权重重建计算;
第三步:基于所述权重重建构建一个矩阵W;
第四步:基于矩阵W构建拉普拉斯矩阵L;
第五步:计算矩阵L最小非零特征值对应的特征向量,所述特征向量为流形数据。
在一个具体实施例中,将双支特征提取得到的特征输入到基于微分几何路径的核极限学习机分类器中。
设特征提取后的特征为,微分几何路径(Differential Geometric Pathway,DGP)算法的作用是将特征/>映射到流形上的数据/>。
具体的,首先,为特征中的每个点/>找到其在原始空间中的邻居,所述邻距的寻找过程基于欧氏距离度量,设为每个点找到了/>个邻居。
然后,进行重建权重计算,目标是为每个点和其邻居找到最佳的重建权重。这些权重表示了在新的流形空间中,如何使用邻居来重建给定的点。具体的,对于每个点,找到权重/>使得以下误差最小化:
其中,是点/>的邻居。为了使得解是唯一的,通常增加约束条件,约束条件为:
再进行流形坐标构建。基于重建权重,可以构建一个矩阵,该矩阵表示原始数据点如何在流形空间上连接。定义矩阵的元素为/>(如果/>是/>的邻居),否则为0。
然后,构建拉普拉斯矩阵:
/>
其中,是对角矩阵,其对角线元素是行或列的和。
需要注意的是,找到的最小的非零特征值对应的特征向量,这些特征向量为流形坐标。
最后,将数据映射到流形上的点/>:
其中,是通过特征向量得到的流形映射函数。
在一个具体实施例中,对于数据,采用核函数进行映射。核方法允许在高维空间中隐式地计算点之间的距离或相似度,而不需要显式地计算特征映射。给定核函数/>,对于任何两个点/>和/>,其核函数为:
其中,是特征空间的映射。
由于DGP进行了优化映射,故,核函数又可以表示为:
然后利用核极限学习机进行学习。给定标签和隐藏层节点数目/>,随机初始化权重/>和偏置/>,计算隐藏层输出/>,可以表示为:
核极限学习机的目标是最小化以下优化问题:
其中,是输出权重,/>是正则化参数。此优化问题可以通过最小二乘法进行求解:
其中,是单位矩阵。
在预测时,给定新的数据点,首先使用DGP进行映射,得到/>,然后计算隐藏层输出:
最终的预测输出为:
其中,为预测结果的输出。
在一个实施例中,获取婴幼儿行为视频序列和发育时段,基于发育阶段将行为特征输至不同发育时段的分类器中判断婴幼儿智力发育程度;其中,所述不同发育时段的分类器的包括16周分类器、28周分类器、40周分类器、52周分类器、15月分类器、1.5岁分类器、3岁分类器;所述不同发育时段的分类器的分类指标包括下列的一种或几种:适应性、大动作、精细动作、语言动作、个人社交行为。
在一个实施例中,时段分类器学习的特征由行为特征和发育时段特征构成,行为特征是指人体在进行活动时展现的动作形态,发育时段特征是指在特定的时间段内发生的动作,换句话说,婴幼儿的成长过程中被精细化分为多个阶段,每个阶段的婴幼儿的行为动作存在差异。在本发明中,对相应的阶段动作进行特征学习会得到相应的分类器,比如对16周的婴幼儿行为特征进行学习会得到16周分类器。
在一个具体实施例中,一种常见的婴幼儿智力发育家庭筛查方法包含的指标为:
1.认知能力评估(适应性):观察婴儿对周围环境的注意力和反应。观察婴儿是否对面部、声音和物体有适当的反应。通过玩具或物品与婴儿互动,评估其手眼协调能力和物体探索力。
2.语言能力评估(语言):观察婴儿是否能用眼睛追踪声音的来源。观察婴儿是否有流利的眼神交流,例如注视、回应、模仿和咿呀学语。评估婴儿是否能识别和模仿简单的语音和语调。
3.社交能力评估(个人-社交行为):观察婴儿与照料者或其他幼儿的互动。观察婴儿是否能表达和满足基本的情感需求,例如安抚和安慰。评估婴儿是否对周围环境和人的表情有适当的反应。
4.运动能力评估(大动作、精细动作):观察婴儿在不同姿势和位置下的运动能力,例如抬头、翻身、爬行和坐立。观察婴儿的手指动作和手眼协调能力,例如抓取、拍掌和握持物品。观察婴儿是否能在固定支撑下站立、行走和跳跃。这种家庭筛查方法仅作为一个初步评估工具。
在一个具体实施例中,本申请通过对录像的实时监控,结合婴儿各个年龄阶段(16周、28周、40周、52周、15月、1.5-3岁)评估所关注的目标检测动作(不同年龄阶段关注的目标动作有区别),自动生成该年龄阶段(16周、28周、40周、52周、15月、1.5-3岁)适应性、大动作、精细动作、语言、个人社交行为的评估结果,该评估结果自动生成,方便智能检测,迭代原低效、费时费力的量表评估。
图2本发明实施例提供的一种评估婴幼儿智力发育程度的系统示意图,具体包括:
数据获取单元:获取婴幼儿行为视频序列;
模型学习单元:将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到行为特征,所述双支神经网络是由空间特征提取分支和时间特征提取分支组成,所述空间特征提取分支是对所述婴幼儿行为视频序列做一维卷积和注意力增强得到空间特征;所述时间特征提取分支是对所述婴幼儿行为视频序列做三维卷积和注意力增强得到时间特征,所述空间特征与时间特征进行级联得到行为特征;
程度分类单元:将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。
图3本发明实施例提供的一种评估婴幼儿智力发育程度的设备示意图,具体包括:
存储器和处理器;所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行任意一项上述的一种评估婴幼儿智力发育程度的方法。
一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,所述计算机程序被处理器执行任意一项上述的一种评估婴幼儿智力发育程度的方法。
本验证实施例的验证结果表明,为适应症分配固有权重相对于默认设置来说可以改善本方法的性能。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的介质存储可以是只读存储器,磁盘或光盘等。
以上对本发明所提供的一种计算机设备进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种评估婴幼儿智力发育程度的方法,其特征在于,所述方法包括:
获取婴幼儿行为视频序列;
将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到行为特征,所述双支神经网络是由空间特征提取分支和时间特征提取分支组成,所述空间特征提取分支是对所述婴幼儿行为视频序列做一维卷积和注意力增强得到空间特征;所述时间特征提取分支是对所述婴幼儿行为视频序列做三维卷积和注意力增强得到时间特征,所述空间特征与时间特征进行级联得到行为特征;
将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。
2.根据权利要求1所述的一种评估婴幼儿智力发育程度的方法,其特征在于,所述双支神经网络在进行特征提取过程中采用优化算法寻找参数的最优权重配置,所述最优权重配置基于概率谐波寻找参数的目标函数,目标函数的公式如下:
其中,和/>是权衡因子,损失函数/>最为均方根误差损失函数,/>为权重/>的观测状态值,/>为偏置/>的观测状态值,/>是权重的时间波动函数,/>是偏置的时间波动函数。
3.根据权利要求2所述的一种评估婴幼儿智力发育程度的方法,其特征在于,采用量子飞跃转变所述目标函数的取值,实现所述量子飞跃的公式如下:
其中,基态、激发态/>是Pauli-X矩阵,代表量子比特的一个基本操作,用于将基态和激发态进行交换,/>是一个调节系数,决定了量子飞跃的强度,量子参数/>和/>,并且满足/>。
4.根据权利要求1所述的一种评估婴幼儿智力发育程度的方法,其特征在于,所述分类器采用下列的一种或几种:随机森林、支持向量机、决策树、神经网络、极限学习机;其中,所述极限学习机采用核函数映射代替随机映射得到核极限学习机,采用所述核极限学习机进行婴幼儿智力发育程度的分类。
5.根据权利要求4所述的一种评估婴幼儿智力发育程度的方法,其特征在于,所述核函数映射是基于微分几何路径算法将行为特征转换为流形数据,再对所述流形数据进行映射,所述微分几何路径算法步骤为:
第一步:对行为特征中每个点进行欧式距离度量得到每个点的邻居度量;
第二步:对每个点和点的邻居进行权重重建计算;
第三步:基于所述权重重建构建一个矩阵W;
第四步:基于矩阵W构建拉普拉斯矩阵L;
第五步:计算矩阵L最小非零特征值对应的特征向量,所述特征向量为流形数据。
6.根据权利要求1所述的一种评估婴幼儿智力发育程度的方法,其特征在于,所述方法还包括数据预处理,所述数据预处理是所述婴幼儿行为视频序列进行数据增强,所述数据增强采用下列的一种或几种:全局自适应灰度拉伸算法、局部对比增强算法、滤波算法、去雾算法。
7.根据权利要求1所述的一种评估婴幼儿智力发育程度的方法,其特征在于,获取婴幼儿行为视频序列和发育时段,基于发育阶段将行为特征输至不同发育时段的分类器中判断婴幼儿智力发育程度;其中,所述不同发育时段的分类器的包括16周分类器、28周分类器、40周分类器、52周分类器、15月分类器、1.5岁分类器、3岁分类器;所述不同发育时段的分类器的分类指标包括下列的一种或几种:适应性、大动作、精细动作、语言动作、个人社交行为。
8.一种评估婴幼儿智力发育程度的系统,其特征在于,包括:
数据获取单元:获取婴幼儿行为视频序列;
模型学习单元:将所述婴幼儿行为视频序列输至双支神经网络中进行特征提取得到行为特征,所述双支神经网络是由空间特征提取分支和时间特征提取分支组成,所述空间特征提取分支是对所述婴幼儿行为视频序列做一维卷积和注意力增强得到空间特征;所述时间特征提取分支是对所述婴幼儿行为视频序列做三维卷积和注意力增强得到时间特征,所述空间特征与时间特征进行级联得到行为特征;
程度分类单元:将所述行为特征输至分类器中得到婴幼儿智力发育程度的结果。
9.一种评估婴幼儿智力发育程度的设备,其特征在于,包括:
存储器和处理器;所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时实现权利要求1-7任意一项上述的一种评估婴幼儿智力发育程度的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任意一项上述的一种评估婴幼儿智力发育程度的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311156071.6A CN116884096B (zh) | 2023-09-08 | 2023-09-08 | 一种评估婴幼儿智力发育程度的方法、系统、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311156071.6A CN116884096B (zh) | 2023-09-08 | 2023-09-08 | 一种评估婴幼儿智力发育程度的方法、系统、设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116884096A true CN116884096A (zh) | 2023-10-13 |
CN116884096B CN116884096B (zh) | 2023-12-01 |
Family
ID=88257298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311156071.6A Active CN116884096B (zh) | 2023-09-08 | 2023-09-08 | 一种评估婴幼儿智力发育程度的方法、系统、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116884096B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117503069A (zh) * | 2024-01-04 | 2024-02-06 | 天津市儿童医院 | 基于医疗大数据的儿童发育筛查方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020035029A (ko) * | 2002-02-23 | 2002-05-09 | 종 해 김 | 인지발달 측정 수단을 구비한 사이버 프리스쿨 시스템 |
CN111883252A (zh) * | 2020-07-29 | 2020-11-03 | 济南浪潮高新科技投资发展有限公司 | 一种婴儿自闭症辅助诊断方法、装置、设备和存储介质 |
CN113239766A (zh) * | 2021-04-30 | 2021-08-10 | 复旦大学 | 基于深度神经网络的行为识别方法及智能报警装置 |
CN115813343A (zh) * | 2022-12-01 | 2023-03-21 | 兰州大学 | 儿童行为异常评估方法和系统 |
-
2023
- 2023-09-08 CN CN202311156071.6A patent/CN116884096B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020035029A (ko) * | 2002-02-23 | 2002-05-09 | 종 해 김 | 인지발달 측정 수단을 구비한 사이버 프리스쿨 시스템 |
CN111883252A (zh) * | 2020-07-29 | 2020-11-03 | 济南浪潮高新科技投资发展有限公司 | 一种婴儿自闭症辅助诊断方法、装置、设备和存储介质 |
CN113239766A (zh) * | 2021-04-30 | 2021-08-10 | 复旦大学 | 基于深度神经网络的行为识别方法及智能报警装置 |
CN115813343A (zh) * | 2022-12-01 | 2023-03-21 | 兰州大学 | 儿童行为异常评估方法和系统 |
Non-Patent Citations (1)
Title |
---|
季胜杰: "《基于全身运动对婴儿认知发育的智能预测》", 《优秀硕士论文》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117503069A (zh) * | 2024-01-04 | 2024-02-06 | 天津市儿童医院 | 基于医疗大数据的儿童发育筛查方法 |
CN117503069B (zh) * | 2024-01-04 | 2024-03-12 | 天津市儿童医院 | 基于医疗大数据的儿童发育筛查方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116884096B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jasim et al. | Plant leaf diseases detection and classification using image processing and deep learning techniques | |
Yang et al. | Graph r-cnn for scene graph generation | |
Zhou et al. | On classification of distorted images with deep convolutional neural networks | |
Lu et al. | Rating image aesthetics using deep learning | |
Yu et al. | Mixed pooling for convolutional neural networks | |
Nasution et al. | Eggplant Disease Detection Using Yolo Algorithm Telegram Notified | |
Cheng et al. | Random cropping ensemble neural network for image classification in a robotic arm grasping system | |
CN108596243B (zh) | 基于分级注视图和条件随机场的眼动注视图预测方法 | |
CN116884096B (zh) | 一种评估婴幼儿智力发育程度的方法、系统、设备 | |
Madsen et al. | Generating artificial images of plant seedlings using generative adversarial networks | |
Bhatt et al. | Comparison of CNN models for application in crop health assessment with participatory sensing | |
Hao et al. | Growing period classification of Gynura bicolor DC using GL-CNN | |
Li et al. | Multi-scale sparse network with cross-attention mechanism for image-based butterflies fine-grained classification | |
CN115115830A (zh) | 一种基于改进Transformer的家畜图像实例分割方法 | |
Bhimavarapu et al. | Analysis and characterization of plant diseases using transfer learning | |
Zhu et al. | Lad-net: A novel light weight model for early apple leaf pests and diseases classification | |
Singh et al. | Identification of tomato leaf diseases using deep Convolutional Neural Networks | |
Monigari et al. | Plant leaf disease prediction | |
EP4238073A1 (en) | Human characteristic normalization with an autoencoder | |
Jia et al. | Element extraction and convolutional neural network-based classification for blue calico | |
Lu et al. | Image classification and identification for rice leaf diseases based on improved WOACW_SimpleNet | |
CN117237756A (zh) | 一种训练目标分割模型的方法、目标分割方法及相关装置 | |
Wang et al. | Sq-swin: a pretrained siamese quadratic swin transformer for lettuce browning prediction | |
Das et al. | EmergeNet: A novel deep-learning based ensemble segmentation model for emergence timing detection of coleoptile | |
CN112489012A (zh) | 一种用于ct图像识别的神经网络架构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |