CN110390614B - 基于情感监护与实时互动的身临其境教学方法与系统 - Google Patents
基于情感监护与实时互动的身临其境教学方法与系统 Download PDFInfo
- Publication number
- CN110390614B CN110390614B CN201910377055.7A CN201910377055A CN110390614B CN 110390614 B CN110390614 B CN 110390614B CN 201910377055 A CN201910377055 A CN 201910377055A CN 110390614 B CN110390614 B CN 110390614B
- Authority
- CN
- China
- Prior art keywords
- data
- sample
- server
- teacher
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000008451 emotion Effects 0.000 title claims abstract description 40
- 230000003993 interaction Effects 0.000 title abstract description 24
- 238000012544 monitoring process Methods 0.000 title abstract description 17
- 239000010410 layer Substances 0.000 claims abstract description 31
- 239000012792 core layer Substances 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims description 57
- 238000004458 analytical method Methods 0.000 claims description 36
- 239000013598 vector Substances 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 26
- 230000011218 segmentation Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000002360 preparation method Methods 0.000 abstract description 8
- 230000002996 emotional effect Effects 0.000 abstract description 2
- 230000015654 memory Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 238000011835 investigation Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 241000764238 Isis Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 208000025174 PANDAS Diseases 0.000 description 2
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 2
- 240000004718 Panda Species 0.000 description 2
- 235000016496 Panda oleosa Nutrition 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 235000014347 soups Nutrition 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了基于情感监护与实时互动的身临其境教学方法与系统,可以应用到备课、授课等领域。本系统包括有教师端(机房教室)、学生端(机房教室)、网络层(网络中心)、服务层(教育机构)和核心层(教育机构)。本系统使PDA、计算机或手机可以通过Internet网络或GSM、CDMA、3G手机网络,在编程课堂中实现学生端同步显示教师端内容,实现教师与学生的双向互动,帮助教师更加充分的讲解知识,节省精力,并且可以帮助学生理解知识,使学生能够熟练运用,从而建立学生成就感和自信心。同时还可以通过学生的提问反馈,实时监控学生学习情况和情绪状态,以帮助教师更好的调整授课模式与进度。
Description
技术领域
本发明涉及一种基于情感监护与实时互动的身临其境教学方法与系统,可以应用到备课、授课等领域。
背景技术
在创新创业蓬勃发展、计算机编程教育普及的当今,编程类课程的备课教学明显占用教师大量时间与精力。课程签到等事务性工作占据大量上课时间,上机课大多数同学都需要老师的单独辅导,个体指导工作量繁重;课程期末都需要教师出题阅卷,一份完美的试卷需要花费大量的工作时间、批改卷子工作量更是繁重。
大多数学生上课只关心该课程最后的所得分数以及该课程是否对自己未来就业有直接的帮助,故学生上完课后不知所学课程的实用性在哪里,对自我感觉不实用的内容不感兴趣;编程教学理论与实操分开进行,学生上课注意力不集中、不听讲现象屡屡发生,导致学生在理论课程部分听不懂,实操时无法完成既定目标,无法获得成就感,因此对课程失去兴趣,对自己失去信心,形成恶性循环。
教师与学生之间缺乏沟通反馈机制,教师给学生上课过程中,课程内容讲得不明白的同时也没有一种反馈机制可以得到学生的反馈,从而导致学生边听课边走神直至放弃;教师缺乏对学生情绪的监控,无法及时的针对学生情况调整教学模式。
现今的两种教学模式有两种,一是以传统的手段授课,教师在讲台前讲课,学生在下面听课,此种教学方式最大问题是容易导致学生厌学;二是以慕课等为主的网络课程,此种教学模式课程没有规范模式,学生上课没有统一的学分认定,学生线下学习缺乏自主性,学习过程容易因缺乏自制力而失控,教师无法做到统一管理。
基于以上问题分析以及高校编程教学的真实需求,提出了新一代针对编程教学的,学生端同步显示教师端内容,实时交互反馈的,教师能够监控学生情绪的基于情感监护与实时互动的身临其境教学方法与系统。
发明内容
本发明的目的在于克服现有编程教学模式的上述缺陷和解决监控学生情绪的需求,提供了一种超前的基于情感监护与实时互动的身临其境教学方法与系统。
本发明的目的之一是教师精力不足问题,实现了新课备课、跟随授课、实境自学,以解决高校编程教学目前存在的理论与实践脱节,编程实践缺失,编程能力难以评价等问题,大幅度降低了教师工作量。
本发明的目的之二是提高学生上课兴趣度,使学生上课能够听懂会用,帮助建立学生的成就感与信心。基于情感监护与实时互动的身临其境教学方法与系统通过自带编程实践环境,为学生打造全新的实境编程学习体验。重点增加交互、即时反馈等功能,学生可以在具有双向互动特性教学系统上进行二次编辑代码,实现即学即练,使学生熟练掌握编程知识与技巧从而增强学生的自信心与成就感。
本发明的目的之三是实现教师与学生之间的沟通反馈,帮助教师监控学生在学习期间的情绪变化。学生可以随时向老师提出问题,对学生的情绪进行分析,及时反馈给教师,以解决教师授课中无法了解学生学习状况与情绪情况,无法针对学生情况及时调整授课进度与模式,影响教学效果。
为了实现上述目的,本发明采取了如下技术方案:基于情感监护与实时互动的身临其境教学系统,该系统包括有教师端(1)、学生端(2)、网络层(3)、服务层(4)和核心层(5);教师端(1)、学生端(2)、网络层(3)、服务层(4)和核心层(5)顺次进行连接交互。
教师端(1)包括有教师个人电脑(1.1)和全镜编程模块教师端(1.2);教师个人电脑(1.1)通过访问服务器网址打开全镜编程模块教师端(1.2)。
所述的学生端(2)包括有内网接入设备(2.1)、教师机(2.2)、投影屏幕阵列(2.3)、学生机阵列(2.4)和全镜编程模块学生端(2.5);教师端(1)的教师个人电脑(1.1)通过内网接入设备(2.1)与教师机(2.2)、学生机阵列(2.4)相连接,教师机(2.2)接收来自教师端(1)的数据,将数据传递给投影屏幕阵列(2.3),学生机阵列(2.4)分别通过访问服务器网址打开全镜编程模块学生端(2.5)。
所述的网络层(3)包括有外网接入设备(3.1)和外网(3.2);学生端(2)的内网接入设备(2.1)通过外网接入设备(3.1)与外网(3.2)相连接。
所述的服务层(4)包括有数据服务器(4.1)、内网接入设备(4.2)、应用服务器(4.3)和全镜编程模块管理端(4.4);网络层(3)的外网接入设备(3.1)通过外网(3.2)与内网接入设备(4.2)相连接;内网接入设备(4.2)与数据服务器(4.1)、应用服务器(4.3)相连接;应用服务器(4.3)通过访问网址打开全镜编程管理端(4.4)。
所述的核心层(5)包括有大数据服务器(5.1)、编译服务器(5.2)、查重服务器(5.3)和情感分析服务器(5.4);服务层(4)的内网接入设备(4.2)分别与大数据服务器(5.1)、编译服务器(5.2)、查重服务器(5.3)和情感分析服务器(5.4)相连接。
基于情感监护与实时互动的身临其境教学方法,是按照以下步骤实现的:
步骤1)系统开始后,用户登录,系统根据用户登录信息进行角色判断:
步骤2)用户角色为管理员,全镜编程模块管理端启动,管理员选择管理教师、教室、课程、教案、视频,对所选内容进行增删改查,系统进行结束判断,如果不结束,进入步骤1中的角色判断,否则结束;
步骤3)用户角色为教师,全镜编程模块教师端启动,用户选择教室,进入教师端,进行服务选择:如进行备课,选择课程,读取大数据服务器看视频,读写教案,备课结束后,进行结束判断,如果不结束,进入步骤2的服务选择,否则结束;如与学生进行互动,发起互动(签到提问),学生签到或进行提问,教师查看对话,对内容进行情感分析,将分析结果可视化,互动结束后,进行结束判断,如果不结束,进入步骤2的服务选择,否则结束;如对学生进行考察,教师发起考察,抽查作答,将学生作答结果提交编译服务器运行,根据文本相似度算法,提交查重服务器打分,考察结束后,进行结束判断,如果不结束,进入步骤2的服务选择,否则结束;如进行实镜授课,教师输入内容(送缓存),对教室机多线投屏,将输入代码提交编译服务器运行,返回运行结果后,教室机多线投屏,授课结束后,进行结束判断,如果不结束,进入步骤2的服务选择,否则结束;
步骤4)用户角色为学生,选择教室全镜编程模块学生端启动,进行步骤3的服务选择,实镜授课时,学生获取内容(读缓存),看投影和接收投屏,跟随学习,实际操作实践时,学生输入内容,将内容提交编译服务器运行,返回运行结果,授课结束后,进行结束判断,如果不结束,进入学生端启动,否则结束;发起互动(签到提问)时,学生进行课堂签到,提出问题,查看对话,互动结束后,进行结束判断,如果不结束,进入学生端启动,否则结束;学生被抽查作答时,作答考察,将作答结果提交编译服务器运行,学生对编译结果进行判断,如果编译结果符合预期,作答结束,否则可返回。作答结束后,进行结束判断,如果不结束,进入学生端启动,否则结束。
利用所述的系统进行的基于卷积神经网络文本分析的情感分析方法,其特征在于是按照以下步骤实现的:
步骤1应用程序服务器利用tcp协议调用情感分析服务器后进入步骤2.1;该步骤的作用是采集终端评论数据,发送给进行情感分析服务器进行数据处理,待测样本数据集命名为x_sample(i,j),训练建模数据集命名为x_model(i,j),其中i表示样本序号,j表述第i个样本各属性的索引值;例如:当i=N时,j=1表示第N个样本的微博评论,j=2表示第N个样本的标签(隶属的类别);
步骤2应用服务器接收到各数据x(i,j)后进行处理;该步骤的作用采用文本到向量映射算法,如公式y(i,m)=Fw2v(x(i,j)),把终端评论样本由文字类型的数据转换成指定维数n的向量类型的数据,该步骤指定输出为y(i,m),m=1,2,3……n,i表示样本序号,m表示第i个样本维度的索引值,例如:当i=N时,m=1表示第N个样本的第1维向量值大小,步骤2由5个步骤组成,其中:
步骤2.1智能终端收到递交后的数据x_model(i,j)进行数据预处理,消除数据中不需要的字符,转步骤2.2;
步骤2.2收到经过预处理后的数据进行格式规范,使之满足Fw2v函数的输入要求,把转换格式后的数据输入函数模型Fw2v中,转步骤2.3;
步骤2.3收到递交后的数据进行词向量转化的建模,把模型Fw2v保存,保存x_model(i,j)转换后的数据y_model(i,m);进行训练集和测试集的切分,把切分后的数据命名为:X_train(i,m),Y_train(i,o),X_test(k,m),Y_test(k,o)保存,X_train与X_test数据集代表训练数据和测试数据,Y_train与Y_test代表训练数据标签与测试数据标签,i与k代表样本序号,m代表样本维度索引值,o代表输出维度,例如:X_train(1,1)代表测试数据第一个样本的第一个维度值Y_train(1,1)代表测试数据第一个样本的标签值,步骤2.4;
步骤2.4智能终端再次读入终端评论最新样本x_sample(i,j),转步骤2.1,从2.1输出的数据转步骤2.2,转步骤2.5,步骤2.1步骤2.2步骤2.3中的数据皆为x_sample(i,j);
步骤2.5读入步骤2.3中保存的模型Fw2v,利用该模型计算出新样本的向量化后的数据y_sample(i,m),转步骤3.1;
步骤3利用步骤2中的输出数据:X_train(i,m),Y_train(i,o),X_test(k,m),Y_test(k,o)作为神经网络的输入数据,训练集训练网络模型,测试集测试精度,并利用训练好的模型对待测数据y_sample(i,m)进行处理,步骤3由三个步骤组成,其中:
步骤3.1读入步骤2输出数据,初始化参数;用X_train(i,m),Y_train(i,o)数据进行神经网络X_NET的训练,保存X_NET模型参数,转步骤3.2;
步骤3.2把测试数据X_test(k,m),Y_test(k,o)作为步骤3.1中模型的输入,如果计算结果达到要求,转步骤3.3;未达到,则转步骤3.1;
步骤3.3把待测数据y_sample(i,m)作为输入,计算每个样本数据所属的标签。
所述的文本相似度算法,属于自然语言处理领域公知算法,按照以下步骤实现的:
步骤1查重服务器端的预设答案文本,作为已知文本;查重服务器接收到学生端提交的文本,作为待测文本,转到步骤2。
步骤2查重服务器端接收到数据后进行处理;该步骤的作用是将数据处理成方便后续计算文本相似度的格式,采用标点分句方法将文本进行分句处理,采用空格分词方法对文本进行分词处理,采用文本到稀疏向量映射算法得到规范化的词向量。分句/词方法如result(index)=text.split(sep),index=0,1,2……n,该步骤把输入文本text转换成以分隔符sep切分的句子/词语列表,text表示待处理文本,split()方法通过指定分隔符对字符串进行切片,分隔符sep是标点或者空格等字符,result(index)表示文本分隔处理结果(句子/分词列表),index表示分隔后每个句子或者词语的索引值。例如:当进行分句处理时,若sep=‘,’,则index=1表示文本text以逗号分隔后的第1个句子;当进行分词处理时,若sep=‘’,则index=1表示文本text以空格分隔后的第一个词语。文本到稀疏向量映射方法如公式Y(k,)=Doc2bow(X(k,)),把已知文本与待测文本由文字类型的数据转换成稀疏向量类型的数据,该步骤输出为Y(k,v),v=1,2,3……n,k表示分词后的索引,v表示第k个分词在文本中出现的频次,例如:当k=N时,v=1表示第N个词语在文本中出现过1次。Y(k,)表示处理后得到的稀疏向量;
步骤2由6个步骤组成:
步骤2.1查重服务器对预设答案文本text进行数据预处理,用split()方法消除数据中不需要的字符如标点、空格,并将文本切分成单个词语存放在列表texts中,转步骤2.2。
步骤2.2基于步骤2.1中产生的分词列表texts,使用Python自然语言处理gensim库的corpora.Dictionary(texts)方法生成语料库词典dictionary,词典是所有文本中所有词语的集合,而且记录了各词的出现次数等信息,转步骤2.3。
步骤2.3将步骤2.2中生成的词典dictionary通过doc2bow()方法把文本转化为稀疏向量,得到新的语料库corpus,转步骤2.4。
步骤2.4查重服务器端接收到学生端递交的待测文本test对其进行数据预处理,转步骤2.1,从2.1输出的数据转步骤2.2,步骤2.3,得到待测文本的稀疏向量表示test_vector,转步骤2.5。
步骤2.5使用步骤2.3生成的语料库corpus训练TF-IDF模型,TF-IDF是一种统计方法,用以评估一个词对于一个文件集或一个语料库中的其中一份文件的重要程度。使用gensim库中的models对象调用TfidfModel()方法训练后得到tfidf模型,即tfidf=models.TfidfModel(corpus),转步骤2.6。
步骤2.6将语料库corpus通过步骤2.5训练得到的tfidf模型转换成TF-IDF模型所表示的向量,即tfidf[corpus],转步骤3。
步骤3使用稀疏矩阵相似度方法计算已知文本和待测文本的相似度,采用gensim库similarities的SparseMatrixSimilarity()方法计算稀疏矩阵相似度从而建立索引,即
index=similarities.SparseMatrixSimilarity(tfidf[corpus],num_features=len(dictio nary.keys()));
num_features为步骤2.2所生成的字典的特征数;将待测文本带入得到最终的相似度结果,计算得similarity=index[tfidf[test_vector]],tfidf[test_vector]为待测文本的TF-IDF模型的向量表示。计算所得到的相似度similarity为0~1之间的数,越接近1表示两者越相似。
与现有技术相比,本发明具有如下优势:
1)基于情感监护与实时互动的身临其境教学方法与系统实现新课备课、跟随授课、学生端同步显示教师端代码、实境自学作业考试等功能,帮助教师完成课程事务性工作,大幅降低教师工作量。
2)对于编程类教学,学生的兴趣度与参与感尤为重要,基于情感监护与实时互动的身临其境教学方法与系统自带的编程实践环节,给学生提供实践平台和全新的编程学习体验,学生可以根据同步显示的教师代码即学即练,使学生熟练掌握编程技能,增强学生自信心和成就感。
3)打破了传统的课程单向输出的惯有模式,重点增加交互、即时反馈等功能,本发明对学生的反馈进行情绪分析,从而使教师即使掌握学生情绪与学习情况。
附图说明
图1是基于情感监护与实时互动的身临其境教系统图。
图2是基于情感监护与实时互动的身临其境教学方法图。
图3是基于卷积神经网络文本分析的情感分析方法图。
具体实施方式
下面结合图1~图2详细说明本实施例。
1、基于情感监护与实时互动的身临其境教学系统实现方案:
如图1所示,基于情感监护与实时互动的身临其境教学方法与系统包括有教师端(1)、学生端(2)、网络层(3)、服务层(4)和核心层(5)五个主要部分构成;:
1.1教师端(1)
本实例中选用Apple 15英寸MacBookPro,搭载2.2GHz六核第八代Intel Core i7处理器、Radeon Pro 555X图形处理器,配备4GB GDDR5显存、16GB2400MHz DDR4内存、256GB固态硬盘作为教师个人电脑(1.1)。
教师在教师个人电脑(1.1)通过访问服务器网址进入全镜编程模块教师端(1.2)。
1.2学生端(2)
本实例选用锐捷(Ruijie)RG-NBS228F-E-P交换机作为内网接入设备(1.2),配置为:型号:接口数目为24个,传输速度:4000Mbps。
选用DELL Vostro 3670-R18N8R主机,i5-8400处理器,8G内存,128G SSD+1T硬盘,GT 10302GB独立显卡;和DELL U2718Q显示器作为教师机,装载Windows10系统。
投影屏幕阵列(2.3)选用Optoma/奥图码X460投影仪,分辨率1024*768,4500流明亮度,俊翼120寸16:9白玻纤投影幕布。
学生机阵列(2.4)选用60组DELL Vostro 3670-R18N8R主机,i5-8400处理器,8G内存,128G SSD+1T硬盘,GT 10302GB独立显卡;和DELL U2718Q显示器分别作为学生机。学生通过打开全镜编程系统登录进入全镜编程模块学生端(2.5)。
教师端(1)的教师个人电脑(1.1)通过内网接入设备(2.1)与教师机(2.2)、学生机阵列(2.4)相连接,教师机(2.2)接收来自教师端(1)的数据,将数据传递给投影屏幕阵列(2.3),学生机阵列(2.4)分别通过访问服务器网址打开全镜编程模块学生端(2.5);
1.3网络层(3)
本实例选用Tenda/腾达AC5型号路由器作为外网接入设备(3.1),有线传输率为百兆端口,无线传输速率为1200Mbps,网络标准为802.11b、802.11g、802.11a、802.11n、802.11ac,无线网络支持频率2.4G&5G。
外网(3.2)选用电信部门的Internet网络,传输速率为100M。
学生端(2)的内网接入设备(2.1)通过外网接入设备(3.1)与外网(3.2)相连接。
1.4服务层(4)
本实例选用联想System x3650M5型号作为数据服务器(4.1),其硬件配置为:CPU型号为Xeon E5-2650,内存类型为DDR4,内存容量为16GB,硬盘内存300G,接口类型为SAS,操作系统搭载Windows Server 2008R2,预装软件为Windows server 2008,asp.net4.6,sql server 2014,iis8.0;
本实例选用锐捷(Ruijie)RG-NBS228F-E-P交换机作为内网接入设备(4.2),配置为:型号:接口数目为24个,传输速度:4000Mbps。
选用联想System x3650M5型号作为应用服务器(4.3),其硬件配置为:CPU型号为Xeon E5-2650,内存类型为DDR4,内存容量为16GB硬盘内存300G,接口类型为SAS,操作系统搭载Windows Server 2008R2,预装软件为Windows server 2008,asp.net4.6,sql server2014,iis8.0;
内网接入设备(4.2)与数据服务器(4.1)、应用服务器(4.3)相连接;
应用服务器(4.3)通过访问网址打开全镜编程管理端(4.4)。
1.5核心层(5)
包括有大数据服务器(5.1)、编译服务器(5.2)、查重服务器(5.3)和情感分析服务器(5.4)。
选用联想System x3650M5型号作为大数据服务器(5.1),其硬件配置为:CPU型号为Xeon E5-2650,内存类型为DDR4,内存容量为16GB硬盘内存300G,接口类型为SAS,操作系统搭载Windows Server 2008R2,预装软件为Windows server 2008,asp.net4.6,sqlserver 2014,iis8.0;
选用联想System x3850X6型号作为编译服务器(5.2),其硬件配置为:CPU型号为Xeon E7-4809v2,内存类型为DDR3,内存容量32GB,最大内存容量为1536GB,硬盘接口类型为SAS,最大硬盘容量为8TB,操作系统搭载Windows Server 2008,预装软件为Windowsserver 2008,asp.net4.6,sql server 2014,iis8.0。
选用DELL PowerEdge R730XD型号作为查重服务器(5.3),其硬件配置为:CPU型号为Xeon E5-2603v3,主板芯片组为Intel C610,内存类型为DDR4,内存容量为4GB,最大内存容量为768GB,硬盘接口类型为SATA,标配硬盘容量为1TB,操作系统搭载MicrosoftWindows HPC Server 2008,预装软件为Windows server 2008,asp.net4.6,sql server2014,iis8.0。
选用联想System x3850X6型号作为情感分析服务器(5.4),其硬件配置为:CPU型号为Xeon E7-4809v2,内存类型为DDR3,内存容量32GB,最大内存容量为1536GB,硬盘接口类型为SAS,最大硬盘容量为8TB,操作系统搭载Windows Server 2008,预装软件为Windowsserver 2008,asp.net4.6,sql server 2014,iis8.0。
2、基于情感监护与实时互动的身临其境教学方法,如图2所示,是按照以下步骤实现的:
1)用户在网页访问网址打开系统,系统开始后,用户登录,系统根据用户登录信息进行角色判断:
2)用户admin角色为管理员,全镜编程模块管理端启动,admin选择管理教师、教室、课程、教案、视频,对所选内容进行增删改查,系统进行结束判断,如果不结束,返回步骤,否则结束;
3)用户teacher001角色为教师,全镜编程模块教师端启动,teacher001教授c语言课程,选择教室,进入c语言课程教室,进入教师端,进行服务选择:如进行备课,选择c语言课程,读取大数据服务器看视频,读写教案,备课结束后,进行结束判断,如果不结束,返回步骤,否则结束;如与学生进行互动,课程开始时教师发起签到,学生在学生端签到,教师查看学生出席情况后开始上课,学生对课程内容进行提问,教师查看问题后进行回答,系统对大量学生的发言内容收集进行情感分析,将分析结果提供给教师,若分析结果为消极(听不懂),教师可针对听不懂内容进行反复讲解。互动结束后,进行结束判断,如果不结束,返回步骤,否则结束;如对学生进行考察,教师发起考察,在系统中输入题目,提前正确的编程内容和程序运行结果,预存正确,抽查作答,将学生作答结果提交编译服务器运行,提交查重服务器打分,
根据文本相似度算法,计算预设答案文本text与学生答案文本test的文本相似度,得出一个0~1区间的相似度,越接近1表示两者越相似。该算法的实施步骤如下:
步骤1:查重服务器端的预设答案文本text,作为已知文本;查重服务器接收到学生端提交的文本test,作为待测文本,转到步骤2。
步骤2:查重服务器端接收到数据后进行处理;该步骤的作用是将数据处理成方便后续计算文本相似度的格式,采用标点分句方法将文本进行分句处理,采用空格分词方法对文本进行分词处理,采用文本到稀疏向量映射算法得到规范化的词向量。步骤2由6个步骤组成,其中:
步骤2.1:使用软件Pycharm对预设答案文本text进行数据预处理,用split()方法消除数据中不需要的字符如标点、空格,并将文本切分成单个词语存放在列表texts中,转步骤2.2。
该步骤的具体做法是:(1)定义列表texts存放分句后的文本;(2)用Python的split()方法以标点为分隔符对预设答案文本进行分句处理,如for t in text.split(‘;’),用if语句判断是否还存在其它标点,将分隔后的每一句追加(append)到(1)中定义的texts列表中,即texts.append(t);(3)对分句后的文本进行分词处理,同样使用split()方法以空格作为分隔符对(2)中得到的结果进行分词,并追加到列表texts中,即texts.append(t.split(‘’)),最终得到分词后的数据处理结果texts列表。
步骤2.2:基于步骤2.1中产生的分词列表texts,使用Python自然语言处理gensim库的corpora.Dictionary()方法生成语料库词典dictionary,即dictionary=corpora.Dictionary(texts),转步骤2.3。
步骤2.3:将步骤2.2中生成的词典dictionary通过doc2bow()方法把文本转化为稀疏向量,得到新的语料库corpus,即corpus=[dictionary.doc2bow(text)for text intexts],转步骤2.4.
步骤2.4:查重服务器端接收到学生端递交的待测文本test对其进行数据预处理,转步骤2.1,从2.1输出的数据转步骤2.2,步骤2.3,得到待测文本的稀疏向量表示test_vector,转步骤2.5。
步骤2.5:使用步骤2.3生成的语料库corpus训练TF-IDF模型,TF-IDF是一种统计方法,用以评估一个词对于一个文件集或一个语料库中的其中一份文件的重要程度。使用gensim库中的models对象调用TfidfModel()方法训练后得到tfidf模型,即tfidf=models.TfidfModel(corpus),转步骤2.6。
步骤2.6:将语料库corpus通过步骤2.5训练得到的tfidf模型转换成TF-IDF模型所表示的向量,即tfidf[corpus],转步骤3。
步骤3:使用稀疏矩阵相似度方法计算已知文本和待测文本的相似度,采用gensim库similarities的SparseMatrixSimilarity()方法计算稀疏矩阵相似度从而建立索引,即
index=similarities.SparseMatrixSimilarity(tfidf[corpus],num_features=len(dictio nary.keys()))
其中num_features为步骤2.2所生成的字典的特征数;将待测文本带入得到最终的相似度结果,计算得similarity=index[tfidf[test_vector]],其中tfidf[test_vector]为待测文本的TF-IDF模型的向量表示。计算所得到的相似度similarity为0~1之间的数,越接近1表示两者越相似。
教师预设评分标准:
编程内容和运行结果与预存答案均一致的100分,编程内容不一致运行结果一致的100分;运行结果不一致,程序完整的根据编程内容与预存内容的相似度给50-99分,程序不完整的给分40-49分。考察结束后,进行结束判断,如果不结束,返回步骤,否则结束;如教师选择进行实镜授课,教师输入内容(送缓存):
机房投影显示内容,将输入代码提交编译服务器运行,返回运行结果:
Hello,World!
投影同步显示,授课结束后,进行结束判断,如果不结束,返回步骤,否则结束;
4)用户student001角色为学生,选择c语言课程教室,全镜编程模块学生端启动,进行服务选择,实镜授课时,学生端页面分为左右两大四小部分,左上部为接收的教师端代码,左下部为接收的教师端运行结果,右上部为学生输入代码区域,右下部为学生代码运行结果显示曲云。学生获取内容(读缓存):
获取教师代码运行结果:
Hello,World!
学生观看投影和接收投屏,跟随学习,实际操作实践时,学生输入学习内容:
将内容提交编译服务器运行,返回运行结果:
Hello,World!
授课结束后,学生进行结束判断,如果不结束,返回步骤,否则结束;在教师发起课堂签到时,学生进行课堂签到,在听课遇到问题时提出问题,查看对话教师回复,互动结束后,进行结束判断,如果不结束,返回步骤,否则结束;学生被抽查作答时,作答考察,将作答结果提交编译服务器运行,学生对编译结果进行判断,如果编译结果符合学生预期,作答结束,否则可返回继续作答。作答结束后,进行结束判断,如果不结束,返回步骤,否则结束。
3.基于卷积神经网络文本分析的情感分析方法,如图3所示,是按下列步骤实现的:
步骤1:各智能终端和外部数据源通过网络向应用服务器传输数据后进入步骤2.1;该步骤的作用是采集终端评论数据,发送给进行情感分析的服务器,准备进行数据处理。
该步骤的具体做法是:(1)环境配置:本例在Python 3.6.3版本,SQL2012版本的环境下;(2)在Python中import包pymssql(在此之前应该在终端cmd下载该包),用pymssql中的connect方法,输入服务器的ip地址、用户名、密码、数据库名;(3)利用cursor方法在python中生成游标,利用execute执行SQL语句,利用游标cursor执行fetchall方法保存所有数据,设样本的变量名称为df_weibo,维数为:265433×2,列名分别为label和review,分别保存当前评论信息的标签和文字评论,则用df_weibo[i,j]表示数据集,其中i=1,2,3……265433,j=1,2,j=1表示评论内容索引,j=2表示评论标签索引。例如:df_weibo.iloc[1,1]的内容为第二个样本的评论信息“风格喜欢喜欢张”,采用pandas包中的DataFrame方法把数据df_weibo格式转换成数据框,维度不变。
步骤2:应用服务器接收到数据后进行处理产生待处理数据;该步骤的作用是把终端评论样本由文字类型的数据转换成指定维数的向量类型的数据,准备卷积神经网络的输入;步骤2由5个步骤组成,其中:
步骤2.1收到递交后的df_weibo[i,j]数据集进行去网页标签、分词处理、去停用词,同样本词句分离,转步骤2.2;
该步骤的具体做法可以是:(1)用Python的import语句加载需要用到的包:os输入输出包、numpy、pandas、jieba、bs4中的BeautifulSoup包;(2)用jieba包中的cut方法对df_weibo.iloc[i,1]列即文字数据进行分词处理:引入中文停用词stopwords(字典类型,共有1893对键值对),并把停用词txt文档中的词变为“”:None格式;(3)用python中的BeautifulSoup函数去除文本中包含的html标签,用split函数初步对去除了html标签后的文本做词语划分,剔除在停用词之中的词语,将剔除后的词语以空格重新组合成句子,将以上该步骤整合入函数clean_Ctext()中,得出结果df_weibo_clean[i,1]=[i,1]clean_Ctext(df_weibo[i,1]);
步骤2.2收到递交的数据df_weibo_clean[i,j]后进行样本数据的列表化,其后初始化word2vec模型参数,把列表化后的数据输入模型中,转步骤2.3;
该步骤的具体做法可以是:(1)用list中的append方法把每一个样本的每一个词df_weibo_clean[i,1],i=1,2,……265433变成列表list格式;(2)引入genism包,初始化以下参数:转换的维度num_features=256、最小词频min_word_count=20、参数控制训练的并行数num_works=4、滑动窗口text_window=10以及模型的名称;
步骤2.3收到递交后的数据进行word2vec的建模,把模型model保存至当前的目录下,转步骤2.4;
该步骤的具体做法是:(1)利用Word2Vec函数建立模型;(2)保存模型model至当前目录下;
步骤2.4利用python再次读入终端评论最新样本df_weibo_new[i,j],i=1,2,……1000,j=1,2,从样本中提取出样本标签df_weibo_label[i,o],i=1,2,……1000,o=1.转步骤2.1,从2.1输出的数据转步骤2.2,转步骤2.5;
步骤2.5python读入步骤2.3中保存的模型model,利用该模型计算出新样本的向量化后的数据df_weibo_vec[i,m]=model(df_weibo_new[i,j]),其中m表示转换后的数据维度索引,m=1,2,……num_features,共有num_features维。进行训练集和测试集的切分,把切分后的数据存放至当前目录下,转步骤3.1;
该步骤的具体做法可以是:在python中import入sklearn中的train_test_split,用train_test_split函数直接切分训练数据及其对应标签和测试数据及对应标签x_train,x_test,y_train,y_test=train_test_split(df_weibo_vec,df_weibo_label);
步骤3利用步骤2中的输出数据作为神经网络的输入数据,训练集训练网络模型,测试集测试精度,并利用训练好的模型对待测数据进行处理,步骤3由3个步骤组成,其中:
步骤3.1应用软件matlab读入步骤2输出数据x_train,x_test,y_train,y_test,初始化参数;进行神经网络的训练,保存模型参数,转步骤3.2;
该步骤的具体做法可以是:(1)利用matlab的csvread函数读入步骤3输出的数据,把所有数据结构变成样本量*维数*维数的形式,并把数据值全部映射到(0,1);(2)定义cnn的基本主体结构,由输入层,卷积层,池化层,卷积层,池化层组成;其中卷积层(3.2.1)的输出维度是6,卷积核的大小是5,池化层(3.2.2)的大小为2,卷积层(3.2.3)的输出维度是12,卷积核大小是5,池化层(3.2.4)的大小为2;(3)定义学习率0.1,训练批次5,训练次数1;(4)把设定好的cnn结构及参数值传入cnnsetup函数中,再把x_train,y_train数据集输入cnntrain函数,得到训练好的模型cnn[];
步骤3.2把测试数据x_test,y_test作为步骤3.1中模型的输入,计算出最小均方误差MSE和误差率error,如果达到要求,转步骤3.3;未达到,则转步骤3.1;
该步骤的具体做法是:(1)验证集数据输入至步骤3.1保存的模型中,用cnnff函数计算出每一类对应的结果(概率)y=cnnff(cnn,x_test);(2)取最大概率对应的类别y作为最终结果;(3)把计算出的类别y与原类别y_test进行比较,得出计算错误的概率error和最小均方误差MSE,如果达到界定值0.10与0.05,则转步骤3.3,否则转步骤3.1调整cnn[]参数设定;
步骤3.3把待测数据作为保存的模型的输入,计算每个样本数据所属的标签;
该步骤的具体做法是:(1)把待测数据x(i,j)作为步骤3.2保存模型的输入,用cnntest函数计算每个样本数据所属的标签:y(i,o)=cnntest(cnn,x(i,m)),把标签结果y(i,o)返回到数据库中。
Claims (6)
1.基于卷积神经网络文本分析的情感分析方法,实现该方法的系统包括教师端(1)、学生端(2)、网络层(3)、服务层(4)和核心层(5);教师端(1)、学生端(2)、网络层(3)、服务层(4)和核心层(5)顺次进行连接交互;
其特征在于:该方法是按照以下步骤实现的:
步骤1应用程序服务器利用tcp协议调用情感分析服务器后进入步骤2.1;该步骤的作用是采集终端评论数据,发送给进行情感分析服务器进行数据处理,待测样本数据集命名为x_sample(i,j),训练建模数据集命名为x_model(i,j),其中i表示样本序号,j表述第i个样本各属性的索引值;当i=N时,j=1表示第N个样本的微博评论,j=2表示第N个样本的标签;
步骤2应用服务器接收到各数据x(i,j)后进行处理;该步骤的作用采用文本到向量映射算法,如公式y(i,m)=Fw2v(x(i,j)),把终端评论样本由文字类型的数据转换成指定维数n的向量类型的数据,该步骤指定输出为y(i,m),m=1,2,3……n,i表示样本序号,m表示第i个样本维度的索引值,当i=N时,m=1表示第N个样本的第1维向量值大小,步骤2由5个步骤组成,其中:
步骤2.1智能终端收到递交后的数据x_model(i,j)进行数据预处理,消除数据中不需要的字符,转步骤2.2;
步骤2.2收到经过预处理后的数据进行格式规范,使之满足Fw2v函数的输入要求,把转换格式后的数据输入函数模型Fw2v中,转步骤2.3;
步骤2.3收到递交后的数据进行词向量转化的建模,把模型Fw2v保存,保存x_model(i,j)转换后的数据y_model(i,m);进行训练集和测试集的切分,把切分后的数据命名为:X_train(i,m),Y_train(i,o),X_test(k,m),Y_test(k,o)保存,X_train与X_test数据集代表训练数据和测试数据,Y_train与Y_test代表训练数据标签与测试数据标签,i与k代表样本序号,m代表样本维度索引值,o代表输出维度,X_train(1,1)代表测试数据第一个样本的第一个维度值Y_train(1,1)代表测试数据第一个样本的标签值,步骤2.4;
步骤2.4智能终端再次读入终端评论最新样本x_sample(i,j),转步骤2.1,从2.1输出的数据转步骤2.2,转步骤2.5,步骤2.1步骤2.2步骤2.3中的数据皆为x_sample(i,j);
步骤2.5读入步骤2.3中保存的模型Fw2v,利用该模型计算出新样本的向量化后的数据y_sample(i,m),转步骤3.1;
步骤3利用步骤2中的输出数据:X_train(i,m),Y_train(i,o),X_test(k,m),Y_test(k,o)作为神经网络的输入数据,训练集训练网络模型,测试集测试精度,并利用训练好的模型对待测数据y_sample(i,m)进行处理,步骤3由三个步骤组成,其中:
步骤3.1读入步骤2输出数据,初始化参数;用X_train(i,m),Y_train(i,o)数据进行神经网络X_NET的训练,保存X_NET模型参数,转步骤3.2;
步骤3.2把测试数据X_test(k,m),Y_test(k,o)作为步骤3.1中模型的输入,如果计算结果达到要求,转步骤3.3;未达到,则转步骤3.1;
步骤3.3把待测数据y_sample(i,m)作为输入,计算每个样本数据所属的标签。
2.根据权利要求1所述的基于卷积神经网络文本分析的情感分析方法,其特征在于:教师端(1)包括有教师个人电脑(1.1)和全镜编程模块教师端(1.2);教师个人电脑(1.1)通过访问服务器网址打开全镜编程模块教师端(1.2)。
3.根据权利要求1所述的基于卷积神经网络文本分析的情感分析方法,其特征在于:所述的学生端(2)包括有内网接入设备(2.1)、教师机(2.2)、投影屏幕阵列(2.3)、学生机阵列(2.4)和全镜编程模块学生端(2.5);教师端(1)的教师个人电脑(1.1)通过内网接入设备(2.1)与教师机(2.2)、学生机阵列(2.4)相连接,教师机(2.2)接收来自教师端(1)的数据,将数据传递给投影屏幕阵列(2.3),学生机阵列(2.4)分别通过访问服务器网址打开全镜编程模块学生端(2.5)。
4.根据权利要求1所述的基于卷积神经网络文本分析的情感分析方法,其特征在于:所述的网络层(3)包括有外网接入设备(3.1)和外网(3.2);学生端(2)的内网接入设备(2.1)通过外网接入设备(3.1)与外网(3.2)相连接。
5.根据权利要求1所述的基于卷积神经网络文本分析的情感分析方法,其特征在于:所述的服务层(4)包括有数据服务器(4.1)、内网接入设备(4.2)、应用服务器(4.3)和全镜编程模块管理端(4.4);网络层(3)的外网接入设备(3.1)通过外网(3.2)与内网接入设备(4.2)相连接;内网接入设备(4.2)与数据服务器(4.1)、应用服务器(4.3)相连接;应用服务器(4.3)通过访问网址打开全镜编程管理端(4.4)。
6.根据权利要求1所述的基于卷积神经网络文本分析的情感分析方法,其特征在于:所述的核心层(5)包括有大数据服务器(5.1)、编译服务器(5.2)、查重服务器(5.3)和情感分析服务器(5.4);服务层(4)的内网接入设备(4.2)分别与大数据服务器(5.1)、编译服务器(5.2)、查重服务器(5.3)和情感分析服务器(5.4)相连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910377055.7A CN110390614B (zh) | 2019-05-07 | 2019-05-07 | 基于情感监护与实时互动的身临其境教学方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910377055.7A CN110390614B (zh) | 2019-05-07 | 2019-05-07 | 基于情感监护与实时互动的身临其境教学方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110390614A CN110390614A (zh) | 2019-10-29 |
CN110390614B true CN110390614B (zh) | 2023-02-10 |
Family
ID=68285310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910377055.7A Active CN110390614B (zh) | 2019-05-07 | 2019-05-07 | 基于情感监护与实时互动的身临其境教学方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110390614B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129689A (zh) * | 2019-12-31 | 2021-07-16 | 昆山峻优科技培训有限公司 | 一种编程教学端及系统 |
CN111292570B (zh) * | 2020-04-01 | 2021-09-17 | 广州爱浦路网络技术有限公司 | 基于项目式教学的云端5gc通信实验教学系统及教学方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104575140A (zh) * | 2015-01-19 | 2015-04-29 | 深圳市时尚德源文化传播有限公司 | 一种智能终端机网络教学方法 |
CN106157715A (zh) * | 2015-04-27 | 2016-11-23 | 广州骏颖泰教育科技有限公司 | 一种多媒体网络教学系统 |
CN106228856A (zh) * | 2016-09-07 | 2016-12-14 | 苏州国锦智承信息科技有限公司 | 一种基于移动课堂的互动方法及其互动系统 |
CN106710339A (zh) * | 2017-01-21 | 2017-05-24 | 深圳科达智慧科技有限公司 | 基于内网与外网服务器的数位学习系统及方法 |
CN107705228A (zh) * | 2017-09-10 | 2018-02-16 | 绵阳西真科技有限公司 | 一种高校考勤及多功能教学管理系统 |
CN108735022A (zh) * | 2018-05-24 | 2018-11-02 | 西安恒坐标教育科技集团有限公司 | 一种实景教学平台 |
CN109359521A (zh) * | 2018-09-05 | 2019-02-19 | 浙江工业大学 | 基于深度学习的课堂质量双向评估系统 |
-
2019
- 2019-05-07 CN CN201910377055.7A patent/CN110390614B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104575140A (zh) * | 2015-01-19 | 2015-04-29 | 深圳市时尚德源文化传播有限公司 | 一种智能终端机网络教学方法 |
CN106157715A (zh) * | 2015-04-27 | 2016-11-23 | 广州骏颖泰教育科技有限公司 | 一种多媒体网络教学系统 |
CN106228856A (zh) * | 2016-09-07 | 2016-12-14 | 苏州国锦智承信息科技有限公司 | 一种基于移动课堂的互动方法及其互动系统 |
CN106710339A (zh) * | 2017-01-21 | 2017-05-24 | 深圳科达智慧科技有限公司 | 基于内网与外网服务器的数位学习系统及方法 |
CN107705228A (zh) * | 2017-09-10 | 2018-02-16 | 绵阳西真科技有限公司 | 一种高校考勤及多功能教学管理系统 |
CN108735022A (zh) * | 2018-05-24 | 2018-11-02 | 西安恒坐标教育科技集团有限公司 | 一种实景教学平台 |
CN109359521A (zh) * | 2018-09-05 | 2019-02-19 | 浙江工业大学 | 基于深度学习的课堂质量双向评估系统 |
Non-Patent Citations (1)
Title |
---|
基于智能手表的智能家居系统;刘经纬 等;《科技资讯》;20171130(第11期);第1-2页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110390614A (zh) | 2019-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10937413B2 (en) | Techniques for model training for voice features | |
Shriberg et al. | Human-machine problem solving using spoken language systems (SLS): Factors affecting performance and user satisfaction | |
WO2021218029A1 (zh) | 基于人工智能的面试方法、装置、计算机设备及存储介质 | |
US10854189B2 (en) | Techniques for model training for voice features | |
CN113610680A (zh) | 一种基于ai的交互式阅读材料个性化推荐方法及系统 | |
Mathew et al. | NLP-based personal learning assistant for school education | |
CN110390614B (zh) | 基于情感监护与实时互动的身临其境教学方法与系统 | |
Zhu et al. | Computer simulation of ideological and political teaching under big data of complexity | |
WO2024011813A1 (zh) | 一种文本扩展方法、装置、设备及介质 | |
Pluzhnikova | Technologies of artificial intelligence in educational management | |
KR102031482B1 (ko) | 외국어 학습 관리 시스템 및 학습 방법 | |
CN110377706B (zh) | 基于深度学习的搜索语句挖掘方法及设备 | |
TWI474296B (zh) | Instant Inquiry and Feedback Interactive Learning System and Its | |
CN115757720A (zh) | 基于知识图谱的项目信息搜索方法、装置、设备和介质 | |
TWM455227U (zh) | 即時提問與回饋互動學習系統 | |
CN115408500A (zh) | 问答一致性的评估方法、装置、电子设备及介质 | |
CN112766902A (zh) | 一种基于人脸识别和gps定位的微信小程序课堂考勤方法 | |
He | An Exploratory study on the application of artificial intelligence technology in the teaching of Japanese language in university | |
Zheng | A Study on the Design of English Speaking Examination System Based on SSM Framework | |
WO2020068858A9 (en) | Techniques for language model training for a reference language | |
Jianyun | Big data assisted online teaching platform for ideological and political theory course in universities | |
Yang et al. | Application of Human-Computer Interaction Technology in Remote Language Learning Platform | |
US20230214688A1 (en) | Method, Apparatus for Determining Answer to Question, Device, Storage Medium and Program Product | |
KR102196457B1 (ko) | 읽기와 말하기 학습을 위한 랜덤단어조합 기반 영어 연습 서비스 제공 시스템 | |
WO2022011917A1 (zh) | 图片资产处理方法及装置、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |