CN105590632A - 一种基于语音相似性识别的s-t教学过程分析方法 - Google Patents
一种基于语音相似性识别的s-t教学过程分析方法 Download PDFInfo
- Publication number
- CN105590632A CN105590632A CN201510938665.1A CN201510938665A CN105590632A CN 105590632 A CN105590632 A CN 105590632A CN 201510938665 A CN201510938665 A CN 201510938665A CN 105590632 A CN105590632 A CN 105590632A
- Authority
- CN
- China
- Prior art keywords
- sound
- target sound
- target
- analysis
- teaching process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 238000004458 analytical method Methods 0.000 title claims abstract description 80
- 230000008569 process Effects 0.000 title claims abstract description 74
- 230000002452 interceptive effect Effects 0.000 claims abstract description 6
- 238000005070 sampling Methods 0.000 claims description 14
- 238000003745 diagnosis Methods 0.000 claims description 11
- 230000005236 sound signal Effects 0.000 claims description 8
- 241000208340 Araliaceae Species 0.000 claims description 6
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 6
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 235000008434 ginseng Nutrition 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 6
- 230000006399 behavior Effects 0.000 description 43
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003556 assay Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000000205 computational method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000001932 seasonal effect Effects 0.000 description 2
- 238000012731 temporal analysis Methods 0.000 description 2
- 238000000700 time series analysis Methods 0.000 description 2
- 101000798429 Pinus strobus Putative 2-Cys peroxiredoxin BAS1 Proteins 0.000 description 1
- 101001136140 Pinus strobus Putative oxygen-evolving enhancer protein 2 Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012482 interaction analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于语音相似性识别的S-T教学过程分析方法,包括以下步骤:S1、基本属性描述;S2、自动抽取数据并建立目标声音,分为两种建立方式,第一是T语音预先建立,第二是T语音判断建立;S3、自动声音相似性识别;S4、自动参数计算;S5、自动诊断,自动诊断教学模式、教师与学生互动特点及教学流程时间走向。本发明可以支持教学一线的常规和广泛应用,实施过程从行为标记到最后诊断可以利用智能移动设备来进行,无须利用不同工具和设备,误差产生因素减少,提高系统性和效率,是对原有方法实施过程的全新整合,提出了相应参数的计算方法和分析应用,可以增加分析的丰富性,降低颗粒度。
Description
技术领域
本发明涉及计算机教学技术领域,尤其涉及一种基于语音相似性识别的S-T教学过程分析方法。
背景技术
教学过程分析是对课堂教学实施中,教师和学生的语言、行为和态度等进行编码,依据编码所得的时间序列、空间序列数据及资料,建立模型对其教学模式、教学方法、教学特点、教学过程、学生学习及师生交互等进行分析的过程及系列方法的总称。
教学过程分析现在常用的方法有两大类。
1、基于语言的分析方法
针对教学过程中产生的语言进行分析时,通常可以进行三个层面的分析:语词类型、词性、频率等的分析;句法及语法的分析;语义的分析。
(1)基于语词的分析
根据教学过程中师生语言中语词的词性、词频和分布可以分析教师教学的语言风格、不同学科教学的语言特点、各学段教学的语言特点和课堂教学信息熵等。这类分析常见过程是将教学中的语音转为文本后,先利用分词软件自动分词,然后进行语词词性、频率、使用时刻等的分析,最后专家根据这些数据形成报告。由于形成的报告仅能反应教学过程语言风格等方面的特点,因此较难全面反映教学过程的具体特点;另外词性判定、分析报告的形成完全人工参与或完成,因此难以让经常采用,教师也较难自己使用。
(2)句法及语法分析
这种分析根据教学过程中师生语言中语法和句法构成情况来分析教师教学的过程、学生学习的特点及师生语言互动的特点。这类分析通常在将语言转化为文本后,利用分词软件进行词汇、短语的分析,识别句子的名法和语法。基本方法有线图分析法、知识结构分析、完全句法分析、局部句法分析和依存句法分析等方法。由于中文语法和句法的复杂性,需要投入人工校正和分析,人力消耗较大,较难常规和常态的应用于教学分析中。
(3)语义分析
这种分析通过教学过程中师生语言的语义分析来进行教学过程分析,由于当前人工智能领域在自然语言语义分析方面研究和应用有限,主要通过人工分析来进行,因此客观性、普及性都受到较大影响,难以常规应用。
从以上分析可知,基于语言的教学过程分析方法当前主要是语词分析,但由于其中必须有专家的人工参与,过程需要使用专业分词系统等,因此较难常规地应用于教学分析中。另外因为过程较繁杂,普通教师也较少采用这些方法进行教学过程分析,实用性和广泛性都受很大局限。
2、基于行为分析的方法
针对教学过程中教师和学生行为进行的分析,通常有两种情况:基于时间序列的分析和基于空间位置及变化的分析。
(1)基于空间位置及变化的分析
基于空间的分析是利用感应技术或人工记录下教学过程中教师和学生的空间位置数据及移动过程,从而分析该教学过程的教学模式、教师活动范围及空间、学生活动情况、师生交互特点等的方法,现在因为记录空间位置数据的设备和软件系统在中小学课堂中较少见,因此主要是人工进行,准确度较底,且需要受过训练的观察员,所以较难常规使用。
(2)基于时间序列的分析
基于教学过程的时间线设定行为抽样点,通过对抽样点上行为的编码,形成编码数据,利用编码数据进行教学过程的分析。在行为编码时,通常要建立编码依据或标准。由于编码依据或标准的不同,具体形成了各种行为分析方法,其中较简单和较客观方法是S-T分析法。
S-T分析方法,只将教学过程的行为分为教师行为(S)和非教师行为(T)两类,并不进行师生具体行为的分类,通过对抽样数据点的行为类型数量和分布,进行以下参数计算:
N:教学过程行为采样数;
NT:教学过程中T行为的占有率;
NS:教学过程中S行为的占有率;
g:表示相同行为的连续成为连;
通过对分析的数据进行统计处理求出RT,CH的值,并判定教学模式:
RT=NT/N;
CH=(g-1)/N;
当前这种方法实施中可以借助视频观看软件定时定点暂停,然后人工行为标记,然后利用EXCEL等软件再对标记好的行为数据进行整理和公式计算,得出以上参数值。
当前S-T分析法是基于行为的分析中最简单、较客观的方法,其优点是行为分类简单,参数计算方法简单,参数意义简单明了,参数统计常模已经建立。但这种方法仍然难以被教师广泛和常规地应用于日常教学的分析中,原因源于这种方法的以下不足:
第一:人工参与环节多,人力需要大,难以普及应用。由于数据抽样半人工实施,行为的标记需要人工进行,所得标记数据需要人工转换到数据统计分析软件中才能求得参数,因此整个分析过程多个环节分离为不同的软件环节进行,且都需要人工的参与,不能自动进行,较难普及用和常规用。
第二:人工参与,主观判断行为类型,误差产生较难避免。因为抽样行为的标记需要依靠专家实现,不同专家的关注点不同、专家在抽样点注意力集中程度、专家对抽样点上行为的理解不同都会影响专家对行为的标记。当专家在现场分析实时教学时,抽样频度较小(30秒以下)情况下专家反应的及时性也会影响标记类型的正确性。由于以上人为因素的影响会令分析结果产生差异,从而带来分析的误差,客观性受到影响。
第三:需要观察者和专家来提供人工分析,教师难以对自己教学过程进行实时的分析。当前教师不能对自己进行中的教学过程做S-T分析,也不能在日常教学结束时及时了解教学过程分析的数据和报告,通常是凭主观感受来进行教学过程的分析和理解,经验性和感性为主,科学性和规律性欠缺。
为发挥S-T分析基本方法的优点,改变其对人工的依靠,本发明提出综合语音相似分析技术进行全自动S-T分析的一套方法。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是提供一种基于语音相似性识别的S-T教学过程分析方法,可有效解决S-T分析方法环节分离、人工参与多和误差较大的情况。
为实现上述目的,本发明提供了一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,包括以下步骤:
S1、基本属性描述,包括教学时间、学科、学段、年级、授课教师、教学内容,并设定抽样频率;
S2、自动抽取数据并建立目标声音,分为两种建立方式,第一是T语音预先建立,第二是T语音判断建立;
S3、自动声音相似性识别,先与S目标声音进行相似识别,如相似标记为S,如果不相似将与T类目标语音进行相似性判断,并标记为T1、T2……Tn;
S4、自动参数计算,在完成教学过程音频抽样和类型标记后,根据所得到的标记数据进行参数自动计算,除延用S-T原有算法计算NT、NS、G、RT和CH,还增加S行为的详细分析;
S5、自动诊断,自动诊断教学模式、教师与学生互动特点及教学流程时间走向。
上述的一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,所述步骤S3自动声音相似性识别的具体步骤为:抽样出的音频信号与目标进行相似性识别,首先判断是否与T目标声音相似,若相似则标记为T1、T2……Tn;若不相似在判断与哪个S目标声音相似,并根据情况标记为相似的那个S目标声音。
上述的一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,所述步骤S2中T语音预先建立目标声音的方法具体为:开始分析前,任课教师输入简单语音信息,形成T目标语音,利用这一目标语音,自动根据声音的声学特点,抽取T目标声音的特征参数值,并标记类型为“T”,而S类语音可能有多个不同目标语音,它们将在分析过程中逐步自动生成。
上述的一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,所述步骤S2中T语音判断建立目标声音的方法具体为:启动分析后,自动以抽取出的第一个抽样音频信号为目标声音,根据声音的声学特点,抽取目标声音的特征参数值,由现场人员或教师自己界定行为类型是S还是T,然后开始下一次自动抽样和行为识别,在已有目标声音被确认为T类目标声音后,当有不同的音频信号被抽取标记为S类第二目标声音或第三目标声音时,不再人工提示确认,而自动记为Si,否则提示人工确定一直到T目标声音确定。
本发明的有益效果是:
1、本发明提出的新方法利用语音相似性识别技术实现行为类型的标记,使得行为类型标记、参数计算和分析诊断的工作完全自动实现,是对原有方法实现工艺的彻底改变,从而可以支持教学一线的常规和广泛应用。
2、本发明整个实施过程从行为标记到最后诊断可在同一个应用平台中完成,可以利用智能移动设备来进行,无须利用不同工具和设备,误差产生因素减少,提高系统性和效率,是对原有方法实施过程的全新整合。
3、本发明增加了对S类目标语音的识别和相应细类行为的标注,提出了相应参数的计算方法和分析应用,这是对原有分析原理的巨大改进,可以增加分析的丰富性,降低颗粒度。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1是本发明的整体实施流程图;
图2是本发明的自动声音相似性识别步骤流程图。
具体实施方式
如图1所示,一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,包括以下步骤:
S1、基本属性描述,包括教学时间、学科、学段、年级、授课教师、教学内容,并设定抽样频率;
S2、自动抽取数据并建立目标声音,分为两种建立方式,第一是T语音预先建立,第二是T语音判断建立;
S3、自动声音相似性识别,先与S目标声音进行相似识别,如相似标记为S,如果不相似将与T类目标语音进行相似性判断,并标记为T1、T2……Tn;
S4、自动参数计算,在完成教学过程音频抽样和类型标记后,根据所得到的标记数据进行参数自动计算,除延用S-T原有算法计算NT、NS、G、RT和CH,还增加S行为的详细分析;
S5、自动诊断,自动诊断教学模式、教师与学生互动特点及教学流程时间走向。
本发明各个阶段的具体实施方法介绍如下:
1、基本属性描述
该阶段的作用是对拟分析教学过程的基本属性进行描述。不同分析对象的基本属性值不同,成为区别不同教学过程的重要信息。基本属性包括教学时间、学科、学段、年级、授课教师、教学内容等。同时为自动抽取数据,需要确定抽样时间。这一阶段的工作需要人工完成,因内容简单,可用选单方式实现,所以占时较少,无二义性数据,教师或观察者都可快速设定,这也是整个方案中需要人工参与的不多环节。选定并输入某一教学过程的各属性值后,该教学过程与后续的分析数据及计算参数将形成唯一对应的关系。
2、自动抽取数据,建立目标声音
分析中目标声音的建立有两种方式。
第一种方式是T语音预先建立,用于现场教学过程分析。
开始分析前,任课教师输入简单语音信息,如:“请拿出书本,翻到20页。”、“请安静,我们开始上课。”等,形成T目标语音。利用这一目标语音,自动根据声音的声学特点,抽取T目标声音的特征参数值,如音色、和音、音频等区分声音特征的具体值,并标记类型为“T”。而S类语音可能有多个不同目标语音,它们将在分析过程中逐步自动生成。确定现场分析目标音频后,随教学活动的开展,便可正式启动数据自动抽样和标识。
第二种方式是T语音判断建立,用于对已完成并用视频形式记录的教学过程的分析。
启动分析后,自动以抽取出的第一个抽样音频信号为目标声音,根据声音的声学特点,抽取目标声音的特征参数值,由现场人员或教师自己界定行为类型是S还是T,然后开始下一次自动抽样和行为识别。在已有目标声音被确认为T类目标声音后,当有不同的音频信号被抽取标记为S类第二目标声音,或第三目标声音时,不再人工提示确认,而自动记为Si,否则提示人工确定一直到T目标声音确定。视频分析目标音频确定开始后,则无须任何人工参与,将以自动抽取并标注行为代码,数据抽样的过程不再需要人工辅助。
3、自动声音相似性识别
目标音频确定后,每个抽样出的语音数据都将与目标声音进行相似性识别,先与S目标声音进行相似识别,如相似标记为S,如果不相似将与T类目标语音进行相似性判断,并标记为T1、T2……Tn。这一过程完全自动进行,无须人工参与,进行过程如图2所示。
4、自动参数计算
在完成教学过程音频抽样和类型标记后,根据所得到的标记数据进行参数自动计算,除延用S-T原有算法计算NT、NS、G、RT和CH,还增加S行为的详细分析:
Sc:S行为类型数
PSi:每类S行为发生率,PSi=NSi/NS,
TSi:每类S行为发生的时间点位置。
5、自动诊断
根据上阶段的参数计算和标记数据,自动诊断教学模式、教师与学生互动特点及教学流程时间走向等。
本发明基于语音相似性的说话者识别S-T分析方法有以下四个特点:
(1)针对现场分析与视频录像分析两种情况,提出目标声音建立的不同方法,较好地支持教学现场的分析。另外增加T类行为的目标声音类型,为详细分析T类行为提供可能性。
(2)利用语音相似性分析方法,判断说话者与各目标语音的相似性,然后确定行为类型,实现了全自动行为类型标记。
(3)提出针对S类行为的详细参数及计算方法,可以支持深入的教学过程互动分析。
(4)自动标记数据,自动计算参数,自动生成诊断方案,不仅使S-T分析全过程极大减少了人工消耗,而且降低了由人工参与带来的误差,也使分析过程可能一体化完成。
下面结合一个具体实施例对本发明的工作流程做详细分析:
实施例1:高一年级地理课的分析。
第一步:开启分析系统,输入基本参数,设置抽样频率是30秒一次,开始数据抽样。
第二步:提取第一个音频数据,人工确定类型为T,全自动分析启动。自动形成以下数据表:
第三步:自动参数计算
根据以上数据进行参数计算N=81,NT=43,NS=38。T行为占有率RT=NT/N=43/81=53.08%。
该数据有27个连,CH=(27-1)/81=32.09%,S行为,
Sc=13,PS1=0.026,PS2=0.052,PS3=0.105,PS4=0.078,PS5=0.026,PS6=0.052,PS7=0.078,PS8=0.052,PS9=0.026,PS10=0.131,PS11=0.131,PS12=0.052,PS13=0.184;
TS1=30m,TS2=60m,TS3=120m……
第四步:自动诊断
本例中的教学模式为混合型(探究型),教学中学生交互活动参与较多,13人次参与交互。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (4)
1.一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,包括以下步骤:
S1、基本属性描述,包括教学时间、学科、学段、年级、授课教师、教学内容,并设定抽样频率;
S2、自动抽取数据并建立目标声音,分为两种建立方式,第一是T语音预先建立,第二是T语音判断建立;
S3、自动声音相似性识别,先与S目标声音进行相似识别,如相似标记为S,如果不相似将与T类目标语音进行相似性判断,并标记为T1、T2……Tn;
S4、自动参数计算,在完成教学过程音频抽样和类型标记后,根据所得到的标记数据进行参数自动计算,除延用S-T原有算法计算NT、NS、G、RT和CH,还增加S行为的详细分析;
S5、自动诊断,自动诊断教学模式、教师与学生互动特点及教学流程时间走向。
2.如权利要求1所述的一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,所述步骤S3自动声音相似性识别的具体步骤为:抽样出的音频信号与目标进行相似性识别,首先判断是否与T目标声音相似,若相似则标记为T1、T2……Tn;若不相似在判断与哪个S目标声音相似,并根据情况标记为相似的那个S目标声音。
3.如权利要求1所述的一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,所述步骤S2中T语音预先建立目标声音的方法具体为:开始分析前,任课教师输入简单语音信息,形成T目标语音,利用这一目标语音,自动根据声音的声学特点,抽取T目标声音的特征参数值,并标记类型为“T”,而S类语音可能有多个不同目标语音,它们将在分析过程中逐步自动生成。
4.如权利要求1所述的一种基于语音相似性识别的S-T教学过程分析方法,其特征在于,所述步骤S2中T语音判断建立目标声音的方法具体为:启动分析后,自动以抽取出的第一个抽样音频信号为目标声音,根据声音的声学特点,抽取目标声音的特征参数值,由现场人员或教师自己界定行为类型是S还是T,然后开始下一次自动抽样和行为识别,在已有目标声音被确认为T类目标声音后,当有不同的音频信号被抽取标记为S类第二目标声音或第三目标声音时,不再人工提示确认,而自动记为Si,否则提示人工确定一直到T目标声音确定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510938665.1A CN105590632B (zh) | 2015-12-16 | 2015-12-16 | 一种基于语音相似性识别的s-t教学过程分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510938665.1A CN105590632B (zh) | 2015-12-16 | 2015-12-16 | 一种基于语音相似性识别的s-t教学过程分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105590632A true CN105590632A (zh) | 2016-05-18 |
CN105590632B CN105590632B (zh) | 2019-01-29 |
Family
ID=55930154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510938665.1A Active CN105590632B (zh) | 2015-12-16 | 2015-12-16 | 一种基于语音相似性识别的s-t教学过程分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105590632B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090857A (zh) * | 2017-12-29 | 2018-05-29 | 复旦大学 | 一种多模态的学生课堂行为分析系统和方法 |
CN110473548A (zh) * | 2019-07-31 | 2019-11-19 | 华中师范大学 | 一种基于声学信号的课堂交互网络分析方法 |
CN110544481A (zh) * | 2019-08-27 | 2019-12-06 | 华中师范大学 | 一种基于声纹识别的s-t分类方法、装置及设备终端 |
CN111950646A (zh) * | 2020-08-20 | 2020-11-17 | 北京环境特性研究所 | 电磁图像的层次化知识模型构建方法及目标识别方法 |
CN117079655A (zh) * | 2023-10-16 | 2023-11-17 | 华南师范大学 | 一种音频分析方法、装置、设备和可读存储介质 |
CN117079667A (zh) * | 2023-10-16 | 2023-11-17 | 华南师范大学 | 一种场景分类方法、装置、设备和可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007256689A (ja) * | 2006-03-24 | 2007-10-04 | Univ Waseda | 音声の類似度の評価を行う方法および装置 |
KR20120008011A (ko) * | 2011-12-22 | 2012-01-25 | 주식회사 서비전자 | 다중 모델 적응화장치 및 방법 |
CN103077491A (zh) * | 2012-11-10 | 2013-05-01 | 南昌大学 | 课堂教学模式分析方法 |
CN103915096A (zh) * | 2014-04-15 | 2014-07-09 | 胡上杰 | 警务声纹识别方法 |
CN104268188A (zh) * | 2014-09-17 | 2015-01-07 | 广州迅云教育科技有限公司 | 一种信息化环境下课堂教与学行为分析的方法及系统 |
CN104751848A (zh) * | 2013-12-25 | 2015-07-01 | 三亚中兴软件有限责任公司 | 通话声音识别方法及装置 |
-
2015
- 2015-12-16 CN CN201510938665.1A patent/CN105590632B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007256689A (ja) * | 2006-03-24 | 2007-10-04 | Univ Waseda | 音声の類似度の評価を行う方法および装置 |
KR20120008011A (ko) * | 2011-12-22 | 2012-01-25 | 주식회사 서비전자 | 다중 모델 적응화장치 및 방법 |
CN103077491A (zh) * | 2012-11-10 | 2013-05-01 | 南昌大学 | 课堂教学模式分析方法 |
CN104751848A (zh) * | 2013-12-25 | 2015-07-01 | 三亚中兴软件有限责任公司 | 通话声音识别方法及装置 |
CN103915096A (zh) * | 2014-04-15 | 2014-07-09 | 胡上杰 | 警务声纹识别方法 |
CN104268188A (zh) * | 2014-09-17 | 2015-01-07 | 广州迅云教育科技有限公司 | 一种信息化环境下课堂教与学行为分析的方法及系统 |
Non-Patent Citations (4)
Title |
---|
YEFAI: "《基于S-T方法的教学过程分析(教学过程与教育资源评价)》", 《豆丁网》 * |
刘飞等: "《基于S-T分析法的教学过程对比分析-以网易视频公开课为例》", 《中国教育信息化》 * |
张毅等: "《基于S-T分析法的地理课堂观察-以洋思中学《新疆》教学过程为例》", 《教育观察》 * |
郭利刚等: "《声音匹配识别算法的研究与实践》", 《中国传媒大学学报自然科学版》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090857A (zh) * | 2017-12-29 | 2018-05-29 | 复旦大学 | 一种多模态的学生课堂行为分析系统和方法 |
CN108090857B (zh) * | 2017-12-29 | 2021-06-22 | 复旦大学 | 一种多模态的学生课堂行为分析系统和方法 |
CN110473548A (zh) * | 2019-07-31 | 2019-11-19 | 华中师范大学 | 一种基于声学信号的课堂交互网络分析方法 |
CN110544481A (zh) * | 2019-08-27 | 2019-12-06 | 华中师范大学 | 一种基于声纹识别的s-t分类方法、装置及设备终端 |
CN111950646A (zh) * | 2020-08-20 | 2020-11-17 | 北京环境特性研究所 | 电磁图像的层次化知识模型构建方法及目标识别方法 |
CN117079655A (zh) * | 2023-10-16 | 2023-11-17 | 华南师范大学 | 一种音频分析方法、装置、设备和可读存储介质 |
CN117079667A (zh) * | 2023-10-16 | 2023-11-17 | 华南师范大学 | 一种场景分类方法、装置、设备和可读存储介质 |
CN117079655B (zh) * | 2023-10-16 | 2023-12-22 | 华南师范大学 | 一种音频分析方法、装置、设备和可读存储介质 |
CN117079667B (zh) * | 2023-10-16 | 2023-12-22 | 华南师范大学 | 一种场景分类方法、装置、设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105590632B (zh) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106485964B (zh) | 一种课堂教学的录制和点播的方法及系统 | |
CN105590632A (zh) | 一种基于语音相似性识别的s-t教学过程分析方法 | |
Roth | From gesture to scientific language | |
WO2019095446A1 (zh) | 一种具有语音评价功能的跟随教学系统 | |
Dalton-Puffer | Content-and-language integrated learning: From practice to principles? | |
WO2019095447A1 (zh) | 一种具有远程评价功能的跟随教学方法 | |
Ruiz-Madrid et al. | Developing multimodal communicative competence in emerging academic and professional genres | |
CN105632251A (zh) | 具有语音功能的3d虚拟教师系统及其方法 | |
Zhan et al. | The role of technology in teaching and learning Chinese characters | |
Ødegaard et al. | Teaching activities and language use in science classrooms: Categories and levels of analysis as tools for interpretation | |
Li et al. | Speech emotion recognition in e-learning system based on affective computing | |
WO2019075825A1 (zh) | 一种基于互联网教学平台的跟随教学方法和系统 | |
Mssraty et al. | Teaching the Qur’anic Recitation with Harakatt: A multimedia-based Interactive Learning Method | |
Altun | Drama: a neglected source in language teaching to improve communication | |
Jaffe | Anthropological analysis in sociolinguistics | |
Che et al. | Automatic online lecture highlighting based on multimedia analysis | |
Zhang et al. | What two decades of research into L2 listening in System tells us: Looking back for looking forward | |
Yu et al. | The BURCHAK corpus: A challenge data set for interactive learning of visually grounded word meanings | |
TW200939167A (en) | Interactive conversation-learning system and method therefor | |
US10453354B2 (en) | Automatically generated flash cards | |
Germani et al. | A genre approach to prosody: Teaching intonation from a discourse perspective | |
Zeng et al. | The Construction of an Effective Multi-modal English Oral Output Teaching Mode in the Cloud Environment | |
Xiao | Research on the Teaching Mode of Computer-Assisted Technology in English Classrooms of Application-Oriented Universities | |
Wang | Multimodal Teaching Mode of Junior English Based on Rain Classroom | |
Bollen et al. | Drawings in computer-supported collaborative learning-Empirical and technical results |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 526000, Guangdong City, Zhaoqing province Guta road employment training center building fifth South Applicant after: Guangdong Decheng Science Co. Ltd. Applicant after: South China Normal University Address before: 526000, Guangdong, Duanzhou District, Guta Road, Zhaoqing city job training center building fifth South Applicant before: GUANGDONG DECHENG NETWORK TECHNOLOGY CO., LTD. Applicant before: South China Normal University |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |