CN110909702B - 一种基于人工智能的幼儿敏感期方向分析方法 - Google Patents
一种基于人工智能的幼儿敏感期方向分析方法 Download PDFInfo
- Publication number
- CN110909702B CN110909702B CN201911204747.8A CN201911204747A CN110909702B CN 110909702 B CN110909702 B CN 110909702B CN 201911204747 A CN201911204747 A CN 201911204747A CN 110909702 B CN110909702 B CN 110909702B
- Authority
- CN
- China
- Prior art keywords
- infant
- sensitive period
- sensitive
- artificial intelligence
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 21
- 238000004458 analytical method Methods 0.000 title claims abstract description 12
- 230000006399 behavior Effects 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000005516 engineering process Methods 0.000 claims abstract description 6
- 230000035945 sensitivity Effects 0.000 claims description 15
- 238000000034 method Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 238000003708 edge detection Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 description 9
- 238000011176 pooling Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Educational Administration (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人工智能的幼儿敏感期方向分析方法,包括以下步骤:步骤S1:视频数据获取及图像识别,通过摄像头采集幼儿在某一环境下的行为信息,通过视频处理技术对视频数据处理,获得所需的关键帧;步骤S2:从关键帧中提取行为数据,从而获得行为对应的敏感方向。步骤S2是指,将关键帧图像作为输入量输入人工智能模型,得到输出量,即行为所属敏感方向。
Description
技术领域
本发明涉及一种幼教技术,具体涉及一种基于人工智能的幼儿敏感期方向分析方法。
背景技术
幼儿敏感期是指孩子成长过程中的某些时间范围内,他会只对环境中的某一项特质专心,而拒绝接受其他特征的事物;他还会不需要特定的理由而对某种行为产生强烈的兴趣,不厌其烦地重复,直到突然爆发出来某种新的动机为止,这就是孩子的某个敏感期,在这个阶段,孩子的学习能力特别强。
孩子身上在敏感期(一般是3~9岁)的不同阶段可能对不同或相同的某种特定的事物感兴趣(我们将特定事物进行划分,分为空间敏感期、数学敏感期、触觉敏感期、语言敏感期、语言及秩序敏感期、秩序敏感期),然而过了这个时间段,孩子不再敏感,他在这种特定事物(即某个敏感方向)的学习能力下降。从孩子语言发展中我们就能看到敏感期的存在,如果在0-6岁孩子错过语言的敏感期,将无法发展出人类的语言。
因此,在幼教过程中,及时发现幼儿敏感期并制定与其敏感期匹配的教育计划是更加有利于幼儿的成长和学习的。
但是,目前现有的幼教市场,存在着以下问题:(1)从业者普遍学历低,本科及以上不足20%。(2)从业时间短,人员流动性大,10年以上的工作年限占比降低到11.7%。(3)幼儿教师数量相对较少,远远低于其他教育阶段。
由于幼儿敏感期不同阶段可能会有不同的敏感方向,因此,现有的幼教从业人员很难甄别出幼儿不同阶段的敏感方向,因此,很容易错过幼儿敏感期,不利于幼儿的学习及成长。
发明内容
本发明目的在于提供一种基于人工智能的幼儿敏感期方向分析方法,采集记录幼儿行为动作数据,基于人工智能技术判断幼儿在敏感期内的敏感方向,以便于家长和幼教从业人员有效的对幼儿的成长进行引导和制定下阶段的教育规划,使得幼儿的天赋得到充分锻炼和展示。
为了实现上述目的,本发明采取的技术方案如下:
一种基于人工智能的幼儿敏感期方向分析方法,包括以下步骤:
步骤S1:视频数据获取及图像识别,通过摄像头采集幼儿在某一环境下的行为信息,通过视频处理技术对视频数据处理,获得所需的关键帧;
步骤S2:从关键帧中提取行为数据,从而获得行为对应的敏感方向。步骤S2是指,将关键帧图像作为输入量输入人工智能模型,得到输出量,即行为所属敏感方向。
作为一种优选方式,将步骤S2得出的敏感方向,发送给手机终端。
作为一种优选方式,上述步骤S1中,通过连续帧相减镜头边缘检测方法对视频进行处理。
作为一种优选方式,行为数据是指幼儿碰触教具,教具分为若干类,不同的教具对应不同的敏感方向。
作为一种优选方式,敏感方向包括空间敏感期、数学敏感期、触觉敏感期、语言敏感期、语言及秩序敏感期、秩序敏感期。
作为一种优选方式,若在同一时间阶段内,幼儿有多种敏感方向,则视频信息中与行为数据关联的时间数据为基准,判断总时间最长的行为对应的敏感方向为主要敏感方向。
本发明与现有技术相比,具有以下有益效果:
通过视频采集幼儿对于教具的自主碰触行为,然后通过视频处理技术提包括取幼儿的行为信息的关键帧,将其作为输入量输入人工智能模型,最后得到敏感方向类型的输出量。这种方式不需要人为去监控关注,不容易错过幼儿敏感期,大大提高了现在市面上的幼教水平,有利于幼儿的成长学习。
附图说明
图1为教具与敏感期方向的对应关系表。
图2为本发明的流程示意图。
具体实施方式
本发明的目的在于克服现有技术的缺陷,提供一种基于人工智能的幼儿敏感期方向分析方法,下面结合实施例对本发明作进一步详细说明。
实施例
一种基于人工智能的幼儿敏感期方向分析方法,包括以下过程:
视频数据获取:通过摄像头来获取幼儿行为信息及幼儿行为信息所属的环境信息,完成数据的获取输入。
视频处理及关键帧抽取:考虑到监控器通常监控的区域的变化几乎不变,人的运动能够被轻易的检测出来,而通常检测监控视频中人的出现是通常的需求,因此选用连续帧相减镜头边缘检测方法对视频进行处理。连续帧相减检测镜头边界测是衡量两张图片之间相似度就是图片对应像素相减之和,将其累加,值最小的即最接近的两张图片,使用这个指标来评价两张图片的近似度,一旦区别大到一定地步则认为该两帧是镜头边界。
获得敏感方向:将提取到的关键帧作为输入量输入人工智能模型,输出量得到敏感方向。
若在同一时间阶段内,幼儿有多种敏感方向,则视频信息中与行为数据关联的时间数据为基准,判断总时间最长的行为对应的敏感方向为主要敏感方向。
在获得幼儿敏感方向后,可以将幼儿敏感方向生产报告发送到教师及父母的手持终端中。而教师和父母根据幼儿的敏感方向,对幼儿阶段学习进行定制。
上述人工智能模型的建模包括以下过程:
(1)摄像头捕捉幼儿行为,获取视频文件,对视频文件进行抽帧处理,抽取关键帧,抽取方法如上所述;
(2)人工“手动的”框选标注出“人工智能需要识别的部分(例如幼儿去拿文字板,就要框选出拿文字板这个动作);
(3)人工智能算法去识别框选的内容(反复用几十万张甚至更多这种被框选的图片(模型)去锻炼人工智能);
(4)最后建立完整的人工智能模型,只要包含碰触教具信息的关键帧图片作为输入量,通过模型直接得出输出量,即幼儿敏感方向
具体的人工智能建模过程如下:
基于AlexNet神经网络和幼儿行为场景分类情况,将图片分类进一步精确细分到30个分类下,以便于提高下一步场景识别的精确度和缩小分类范围,提高准确率,得到体现幼儿接触教具的关键帧;
进行幼儿行为场景建模,建立多个幼儿碰触不同教具的场景模型,通过关键帧图像与场景模型进行匹配,确定视频信息所属的行为场景,并动态的循环分析视频信息;
幼儿行为场景建模采用卷积神经网络模型(Convolutional Neural Network,简称CNN)实现。研究和实验表明,更深的网络具有更强的特征提取能力。本发明以图像领域的人脸识别为例,一般底层所提取的特征为纹理、基本图形等,更深层次的特征为局部特征如轮廓等,再深层所提取的特征为眼、口鼻等,最后提取的是人脸的整体特征,如性别、年龄等。层次越深,网络的抽象能力越强,越能够描述更为复杂的对象。而CNN基于图像识别任务中效果显著,故此本申请选用CNN实现幼儿行为场景建模。
训练神经网络的具体公式如下:
在图像领域,主要的深度网络模型一般由卷积层、池化层、全连接层等交替堆叠组成。卷积层用于图像特征的提取,池化层用于特征抽象和减少参数,全连接层一般用于分类任务。
卷积层的参数包括卷积核的大小(kernel size)、移动步长(stride)、卷积通道数(卷积核个数)、卷积核参数(权重与偏置),训练参数为卷积核参数。卷积核在图像的像素矩阵中“移动”,在每个像素位置上通过共享参数降低网络复杂度,输出更深一层的特征图(feature map)。若输入层有Cin个通道,特征图尺寸为H*W,卷积核个数为Cout,尺寸为m*n,步长为stride,使用zero padding,则输出层的维数为:
训练参数个数为:
(Cin*m*n+1)*Cout
池化层一般是最大池化(max pooling),即对局部区域的神经元取最大值。若局部区域大小为2*2,则池化后特征图的大小为原来的一半,池化层无训练参数。
池化层后接全连接层,全连接层即输出层与输入层的每个神经元之间均有连接。全连接层的参数数目较多,均为训练参数。一般在网络最后,由softmax全连接层输出最终的分类结果。
网络的参数训练采用梯度反传(Back propagation)方法,本专利采用RMSprop训练器,使用momentum策略可提升训练性能和效率。
神经网络参数训练:
vt=β1*vt-1-(1-β1)*gt
wt+1=wt+Δwt
上述公式中个符号含义如下表所示:
按照上述实施例,便可很好地实现本发明。值得说明的是,基于上述结构设计的前提下,为解决同样的技术问题,即使在本发明上做出的一些无实质性的改动或润色,所采用的技术方案的实质仍然与本发明一样,故其也应当在本发明的保护范围内。
Claims (4)
1.一种基于人工智能的幼儿敏感期方向分析方法,其特征在于,包括以下步骤:
步骤S1:视频数据获取及图像识别,通过摄像头采集幼儿在某一环境下的行为信息,通过视频处理技术对视频数据处理,获得所需的关键帧;
步骤S2:从关键帧中提取行为数据,从而获得行为对应的敏感期方向;
步骤S2是指,将关键帧图像作为输入量输入人工智能模型,得到输出量,即行为所属敏感期方向;
视频处理及关键帧抽取:用连续帧相减镜头边缘检测方法对视频进行处理,所述连续帧相减镜头边缘检测方法是衡量两张图片之间的相似度,就是图片对应像素相减之和,将其累加,值最小的即为最接近的两张图片,使用这个指标来评价两张图片的近似度,一旦区别大到指定数值则认为该两帧是镜头边界;
获得敏感期方向:将提取到的关键帧作为输入量输入人工智能模型,输出量得到敏感期方向;
在同一时间阶段内,幼儿有多种敏感期方向,则以视频信息中与行为数据关联的时间数据为基准,判断总时间最长的行为对应的敏感期方向为主要敏感期方向;
在获得幼儿敏感期方向后,将幼儿敏感期方向生成报告发送到教师及父母的手持终端中;而教师和父母根据幼儿的敏感期方向,对幼儿阶段学习进行定制;
上述人工智能模型的建模包括以下过程:
(1)摄像头捕捉幼儿行为,获取视频文件,对视频文件进行抽帧处理,抽取关键帧,抽取方法如上所述;
(2)人工手动的框选标注出人工智能需要识别的部分;
(3)人工智能算法去识别框选的内容;
(4)最后建立完整的人工智能模型,只要包含碰触教具信息的关键帧图片作为输入量,通过模型直接得出输出量,即幼儿敏感期方向。
2.根据权利要求1所述的一种基于人工智能的幼儿敏感期方向分析方法,其特征在于:将步骤S2得出的敏感期方向,发送给手机终端。
3.根据权利要求1所述的一种基于人工智能的幼儿敏感期方向分析方法,其特征在于:行为数据是指幼儿碰触教具,教具分为若干类,不同的教具对应不同的敏感期方向。
4.根据权利要求3所述的一种基于人工智能的幼儿敏感期方向分析方法,其特征在于:敏感期方向包括空间敏感期、数学敏感期、触觉敏感期、语言敏感期、语言及秩序敏感期、秩序敏感期。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911204747.8A CN110909702B (zh) | 2019-11-29 | 2019-11-29 | 一种基于人工智能的幼儿敏感期方向分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911204747.8A CN110909702B (zh) | 2019-11-29 | 2019-11-29 | 一种基于人工智能的幼儿敏感期方向分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110909702A CN110909702A (zh) | 2020-03-24 |
CN110909702B true CN110909702B (zh) | 2023-09-22 |
Family
ID=69820822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911204747.8A Active CN110909702B (zh) | 2019-11-29 | 2019-11-29 | 一种基于人工智能的幼儿敏感期方向分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110909702B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106097793A (zh) * | 2016-07-21 | 2016-11-09 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
CN109637207A (zh) * | 2018-11-27 | 2019-04-16 | 曹臻祎 | 一种学前教育互动教学装置及教学方法 |
CN109977789A (zh) * | 2019-03-04 | 2019-07-05 | 深圳市鸿彩展示器材有限公司 | 路演效果评估方法、装置、计算机设备及其存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030039379A1 (en) * | 2001-08-23 | 2003-02-27 | Koninklijke Philips Electronics N.V. | Method and apparatus for automatically assessing interest in a displayed product |
US20190108561A1 (en) * | 2017-10-05 | 2019-04-11 | Mindtree Ltd. | Purchase Intent Determination And Real Time In-store Shopper Assistance |
-
2019
- 2019-11-29 CN CN201911204747.8A patent/CN110909702B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106097793A (zh) * | 2016-07-21 | 2016-11-09 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
CN109637207A (zh) * | 2018-11-27 | 2019-04-16 | 曹臻祎 | 一种学前教育互动教学装置及教学方法 |
CN109977789A (zh) * | 2019-03-04 | 2019-07-05 | 深圳市鸿彩展示器材有限公司 | 路演效果评估方法、装置、计算机设备及其存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110909702A (zh) | 2020-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270526B2 (en) | Teaching assistance method and teaching assistance system using said method | |
CN111563887B (zh) | 一种口腔图像的智能分析方法与装置 | |
CN104992223B (zh) | 基于深度学习的密集人数估计方法 | |
CN113807276B (zh) | 基于优化的YOLOv4模型的吸烟行为识别方法 | |
CN109635727A (zh) | 一种人脸表情识别方法及装置 | |
CN108596046A (zh) | 一种基于深度学习的细胞检测计数方法及系统 | |
CN106599800A (zh) | 一种基于深度学习的人脸微表情识别方法 | |
CN115661943B (zh) | 一种基于轻量级姿态评估网络的跌倒检测方法 | |
CN109271884A (zh) | 人脸属性识别方法、装置、终端设备和存储介质 | |
CN110575663B (zh) | 一种基于人工智能的体育辅助训练方法 | |
CN107301376B (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
CN105740780A (zh) | 人脸活体检测的方法和装置 | |
CN111582342A (zh) | 一种图像识别方法、装置、设备以及可读存储介质 | |
CN113239916B (zh) | 一种表情识别及课堂状态评估方法、设备及介质 | |
CN109902912A (zh) | 一种基于性格特征的个性化图像美学评价方法 | |
CN106951834B (zh) | 一种基于养老机器人平台的摔倒动作检测方法 | |
CN112151167A (zh) | 一种基于深度学习的儿童六龄牙龋齿智能筛查方法 | |
CN115346149A (zh) | 基于时空图卷积网络的跳绳计数方法和系统 | |
CN110827265A (zh) | 基于深度学习的图片异常检测方法 | |
CN110909702B (zh) | 一种基于人工智能的幼儿敏感期方向分析方法 | |
CN112597842B (zh) | 基于人工智能的运动检测面瘫程度评估系统 | |
JP7239002B2 (ja) | 物体数推定装置、制御方法、及びプログラム | |
CN112395994A (zh) | 一种基于双流网络的跌倒检测算法 | |
CN113239915A (zh) | 一种课堂行为的识别方法、装置、设备及存储介质 | |
CN111126364A (zh) | 一种基于分组卷积神经网络的表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |