CN117079667A - 一种场景分类方法、装置、设备和可读存储介质 - Google Patents

一种场景分类方法、装置、设备和可读存储介质 Download PDF

Info

Publication number
CN117079667A
CN117079667A CN202311330842.9A CN202311330842A CN117079667A CN 117079667 A CN117079667 A CN 117079667A CN 202311330842 A CN202311330842 A CN 202311330842A CN 117079667 A CN117079667 A CN 117079667A
Authority
CN
China
Prior art keywords
atomic
merging
dividing
data set
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311330842.9A
Other languages
English (en)
Other versions
CN117079667B (zh
Inventor
王睿
袁涛
韩鹏
郭延辉
季迎龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Normal University Intelligent Technology Co ltd
South China Normal University
Original Assignee
Guangdong Normal University Intelligent Technology Co ltd
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Normal University Intelligent Technology Co ltd, South China Normal University filed Critical Guangdong Normal University Intelligent Technology Co ltd
Priority to CN202311330842.9A priority Critical patent/CN117079667B/zh
Publication of CN117079667A publication Critical patent/CN117079667A/zh
Application granted granted Critical
Publication of CN117079667B publication Critical patent/CN117079667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请公开了一种场景分类方法、装置、设备和可读存储介质,本申请通过获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序对各原子片段进行顺序重排和合并,经过两次合并划分处理得到的第二级合并划分组,对各第二级合并划分组以及对应的各结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。本申请是结合各场景分类判断式进行场景分类的方式是一种基于规则的场景分类算法,无需大量数据进行学习,相比机器学习方式大大降低了对数据集的要求,研发成本低。同时本申请是有针对性的场景分类算法,可以解决通用性算法在课堂场景下无法满足细分类需求的问题,在所针对的场景下,算法效果更佳。

Description

一种场景分类方法、装置、设备和可读存储介质
技术领域
本申请涉及数据分析领域,更具体地说,涉及一种场景分类方法、装置、设备和可读存储介质。
背景技术
在现有的场景分类研究中,主要采用的是基于机器学习进行场景分类,该方式利用大量的标注数据和机器学习算法,自动化的学习课堂教学过程存在的多种不同场景的特征,泛化能力强,但需要人工参与和标注的成本较高,且对小场景范围的表现并不如意。也就是说,当前基于机器学习进行场景分类的方案主要存在以下两个技术缺点:
1、机器学习的均是通用性的场景分类算法,无法满足课堂场景下细分类的需求;
2、基于机器学习的场景分类算法对数据集需求量大,使得算法研发成本升高。
基于上述情况,本申请提出了一种可满足细分类需求且开发成本较低的场景分类方法方案。
发明内容
有鉴于此,本申请提供了一种场景分类方法、装置、设备和可读存储介质,提高了局部放电的检测灵敏度及定位精度,有效地改善了超声波受介质影响传播时间产生较大误差导致的定位不精确、定位失败的问题。
一种场景分类方法,包括:
获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录所述第一级合并划分情况的初始序列数组;
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组;
根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
优选的,获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,包括:
获取课堂教学过程中学生音频数据集和教师音频数据集;
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集;
对所述学生音频顺序集和所述教师音频顺序集进行合并,生成的综合音频顺序集。
优选的,根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组,包括:
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组;
根据所述第二级合并划分情况对所述初始序列数组进行合并划分调整,生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组。
优选的,对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息,包括:
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并,生成第二级综合划分组和结果判断综合数组;
利用所述结果判断综合数组对所述第二级综合划分组进行遍历,得到与各场景对应的时段信息。
优选的,所述时间戳包括起始时间戳和结束时间戳;
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集,包括:
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述起始时间戳,以所述起始时间戳从小到大分别对所述学生音频数据集和所述教师音频数据集中的各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集。
优选的,根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向,包括:
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔;
将各所述原子片段的相邻两侧中所述时间间隔较小一侧方向确定为所述原子片段对应的关联方向。
优选的,根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,包括:
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔;
以所述时间间隔小于所述预设间隔阈值的各相邻的所述原子片段合并划分为一组为第一级合并划分原则,合并划分得到的多个第一级合并划分组。
一种场景分类装置,包括:
数据获取单元,用于获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
关联方向单元,用于根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
第一划分单元,用于根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录所述第一级合并划分情况的初始序列数组;
第二划分单元,用于根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组;
分类判断单元,用于根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
遍历分析单元,用于对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
一种场景分类设备,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上述任一项所述的应用场景分类方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如上述任一项所述的场景分类方法的各个步骤。
从上述的技术方案可以看出,本申请实施例提供的一种场景分类方法、装置、设备和可读存储介质,首先通过获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序对各原子片段进行顺序重排和合并,生成的综合音频顺序集,并根据综合音频顺序集中各原子片段带有的时间戳确定对应的关联方向。其次根据综合音频顺序集中的各原子片段带有的时间戳,依次结合预设间隔阈值、预设组内阈值和各原子片段对应的关联方向分别对各原子片段进行两次合并划分,得到两次合并划分后的第二级合并划分组,并结合初始序列数组生成记录有第一级合并划分情况和第二级合并划分情况的综合序列数组。之后根据各第二级合并划分组内教师音频时长和学生音频时长,以及综合序列数组的长度,结合各场景分类判断式,确定各第二级合并划分组对应的各结果判断数组。最后对各第二级合并划分组以及对应的各结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。本申请相较传统方案具有以下优势:
1、本申请基于合并划分处理得到的第二级合并划分组,结合各场景分类判断式进行场景分类的方式是一种基于规则的场景分类算法,无需大量数据进行学习,相比机器学习方式大大降低了对数据集的要求,研发成本低;
2、本申请是有针对性的场景分类算法,可以解决通用性算法在课堂场景下无法满足细分类需求的问题,在所针对的场景下,算法效果更佳。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例公开的一种场景分类方法的流程图;
图2为本申请实施例公开的综合序列数组的结构示意图;
图3本申请实施例公开的一种场景分类装置的示意图;
图4为本申请实施例公开的场景分类设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等。
本申请实施例提供一种场景分类方法用于对课堂教学过程进行场景分类,该方法可以应用于各种教学场景分类系统或平台中,亦可以应用在各种计算机终端或是智能终端中,其执行主体可以为计算机终端或是智能终端的处理器或服务器。
接下来介绍本申请方案,本申请提出如下技术方案,具体参见下文。
图1为本申请实施例公开的一种场景分类方法的流程图。
如图1所示,该方法可以包括:
步骤S1、获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集。
具体的,所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳。本申请可基于各原子片段带有的时间戳,按照时间先后的顺序,分别对学生音频数据集中的各原子片段进行排序,以及对教师音频数据集中的各原子片段进行排序,将排序完成的学生音频数据集和教师音频数据集合并生成综合音频顺序集。
生成的综合音频顺序集的过程,具体可以包括:
①获取课堂教学过程中学生音频数据集和教师音频数据集。
②根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集。
③对所述学生音频顺序集和所述教师音频顺序集进行合并,生成的综合音频顺序集。
所述时间戳包括起始时间戳和结束时间戳,在此基础上,对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集的过程为:
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述起始时间戳,以所述起始时间戳从小到大分别对所述学生音频数据集和所述教师音频数据集中的各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集。
例如,定义学生音频数据集为,学生音频数据集的各原子片段记作/>,/>由片段的起始时间戳和结束时间戳来表示,其中起始时间戳记作/>,结束时间戳记作/>;同理定义教师音频数据集为/>,教师音频数据集的各原子片段记作/>,/>的起始时间戳,/>的结束时间戳为/>。分别对/>、/>做顺序重排操作,按其各自原子片段的起始时间戳从小到大排序,得到排序后的/>即学生音频顺序集,其满足,以同样的方式对/>进行处理,得到排序后的/>即教师音频顺序集。将学生音频顺序集和教师音频顺序集合并得到/>集合即综合音频顺序集,对于综合音频顺序集中的原子片段/>,满足/>。合并过程中记录序列数组/>,对于数组/>中任意元素/>,满足下式:
其中、/>分别是合并前/>对应的片段。
步骤S2、根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向。
具体的,根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算相邻原子片段之间的时间间隔,并根据时间间隔大小确定所述综合音频顺序集中各所述原子片段对应的关联方向,一般情况下会将间隔较小一侧确定为关联方向。
确定所述综合音频顺序集中各所述原子片段对应的关联方向的过程,具体可以包括:
①根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔。
②将各所述原子片段的相邻两侧中所述时间间隔较小一侧方向确定为所述原子片段对应的关联方向。
例如,记关联数组,数组长度为/>,则对于/>中任意元素/> 满足下式:
,/>
其中,用于计算两个原子片段的间隔;/>的值为1时,表示原子片段/>与相邻的/>关联度更紧密,关联方向为与下一相邻原子片段所在侧;/>的值为-1时,表示原子片段/>与相邻的/>关联度更紧密,关联方向为与上一相邻原子片段所在侧。
步骤S3、根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录所述第一级合并划分情况的初始序列数组。
具体的,对综合音频顺序集中的各原子片段,按照预设间隔阈值以及各原子片段带有的时间戳进行第一级合并划分,可以得到多个第一级合并划分组,合并划分分组同步进行记录,生成初始序列数组。
进行第一级合并划分得到的多个第一级合并划分组的过程,具体可以包括:
①根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔。
②以所述时间间隔小于所述预设间隔阈值的各相邻的所述原子片段合并划分为一组为第一级合并划分原则,合并划分得到的多个第一级合并划分组。
例如,遍历综合音频顺序集,设置间隔阈值/>,当相邻的原子片段间距离小于/>时,将这些原子片段划分为一组,得到多个第一级合并划分组组成的/>数组,对于/>数组中任一个第一级合并划分组/>,/>中任意两个相邻的原子片段满足:,分组过程中同步对序列数组/>进行分组,即合并划分分组同步进行记录,生成初始序列数组。
步骤S4、根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组。
具体的,根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,结合预设组内阈值以及前述步骤中确定的各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组。第二级合并划分过程中同步对初始序列数组进行分组,生成综合序列数组。
步骤S5、根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组。
具体的,对于每个第二级合并划分组,计算各第二级合并划分组内教师音频时长/>、学生音频时长/>。如图2所示是长度为/>的综合序列数组/>的结构示意图,可按、/>的方式切分成/>份,统计其中TSST的片段数记作/>。下面为本申请提供的结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组的一种可选方式:
记时长参考值,记序列参考值/>,记补偿参考值KK表示序列对结果判断的影响程度/>。记阈值/>、/>,记学生讨论场景为/>,教师讲解场景为/>,师生交流场景为/>,则对于该组有结果/>,当/>时有以下判断式:
时有以下判断式:
最终可得到每组的结果判断数组,/>即是/>对应的结果。
步骤S6、对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
具体的,合并遍历分析得到与各场景对应的时段信息的过程,具体可以包括:
①对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并,生成第二级综合划分组和结果判断综合数组。
合并时长过小的细分数组,较少课堂杂音对结果的影响。通过设置阈值表示最小时长,记/>的原子片段个数为/>,则/>的时长/>为:
时,将/>合并到相邻数组中。
对于要被合并的,记其相邻的/>的原子片段个数/>,根据/>结果进行以下判断操作:
其中描述合并操作,/>表示通过关联度合并,/>满足下列判断式:
在做合并操作时同步合并对应的、/>、/>
②利用所述结果判断综合数组对所述第二级综合划分组进行遍历,得到与各场景对应的时段信息。
以教师讲解、师生交流、学生讨论以及课堂沉寂四种情况为例,合并操作后的第二级综合划分组和结果判断综合数组/>中包含了教师讲解、师生交流、学生讨论三种场景对应的时段信息,记其时间段组成的集合为/>,记课堂总时间段为/>。则课堂沉寂时间段为/>
根据结果判断综合数组对第二级综合划分组/>和进行遍历,可分别得出教师讲解、师生交流、学生讨论三种场景各自对应的时间段信息,由此得出教师讲解、师生交流、学生讨论以及课堂沉寂四种情况的对应时段信息,完成了课堂言语结构分析。
从上述的技术方案可以看出,本申请实施例提供的一种场景分类方法、装置、设备和可读存储介质,首先通过获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序对各原子片段进行顺序重排和合并,生成的综合音频顺序集,并根据综合音频顺序集中各原子片段带有的时间戳确定对应的关联方向。其次根据综合音频顺序集中的各原子片段带有的时间戳,依次结合预设间隔阈值、预设组内阈值和各原子片段对应的关联方向分别对各原子片段进行两次合并划分,得到两次合并划分后的第二级合并划分组,并结合初始序列数组生成记录有第一级合并划分情况和第二级合并划分情况的综合序列数组。之后根据各第二级合并划分组内教师音频时长和学生音频时长,以及综合序列数组的长度,结合各场景分类判断式,确定各第二级合并划分组对应的各结果判断数组。最后对各第二级合并划分组以及对应的各结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。本申请相较传统方案具有以下优势:
1、本申请基于合并划分处理得到的第二级合并划分组,结合各场景分类判断式进行场景分类的方式是一种基于规则的场景分类算法,无需大量数据进行学习,相比机器学习方式大大降低了对数据集的要求,研发成本低;
2、本申请是有针对性的场景分类算法,可以解决通用性算法在课堂场景下无法满足细分类需求的问题,在所针对的场景下,算法效果更佳。
在本申请的一些实施例中,对步骤S4、根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组的过程进行介绍,具体可以包括:
步骤S31、根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组。
具体的,对于数组中任一个第一级合并划分组/>,对其组内的原子片段做关联度划分得到多个第二级合并划分组/>,设置组内阈值/>,对于/>中两个相邻的原子片段/>和/>,需要在满足/>的基础上,同时满足下式两条件之一:
根据关联方向对各第一级合并划分组中的各原子片段进行第二级合并划分得到的多个第二级合并划分组
步骤S32、根据所述第二级合并划分情况对所述初始序列数组进行合并划分调整,生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组。
具体的,按照第二级合并划分情况同步对初始序列数组进行合并划分调整,得到对应的综合序列数组,综合序列数组/>记录有所述第一级合并划分情况和所述第二级合并划分情况。
下面对本申请实施例提供的一种场景分类装置进行描述,下文描述的一种场景分类装置与上文描述的一种场景分类方法可相互对应参照。
参见图3,图3为本申请实施例公开的一种场景分类装置的示意图。
如图3所示,所述一种场景分类装置可以包括:
数据获取单元,用于获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
关联方向单元,用于根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
第一划分单元,用于根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录所述第一级合并划分情况的初始序列数组;
第二划分单元,用于根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组;
分类判断单元,用于根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
遍历分析单元,用于对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
从上述的技术方案可以看出,本申请实施例提供的一种场景分类方法、装置、设备和可读存储介质,首先通过获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序对各原子片段进行顺序重排和合并,生成的综合音频顺序集,并根据综合音频顺序集中各原子片段带有的时间戳确定对应的关联方向。其次根据综合音频顺序集中的各原子片段带有的时间戳,依次结合预设间隔阈值、预设组内阈值和各原子片段对应的关联方向分别对各原子片段进行两次合并划分,得到两次合并划分后的第二级合并划分组,并结合初始序列数组生成记录有第一级合并划分情况和第二级合并划分情况的综合序列数组。之后根据各第二级合并划分组内教师音频时长和学生音频时长,以及综合序列数组的长度,结合各场景分类判断式,确定各第二级合并划分组对应的各结果判断数组。最后对各第二级合并划分组以及对应的各结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。本申请相较传统方案具有以下优势:
1、本申请基于合并划分处理得到的第二级合并划分组,结合各场景分类判断式进行场景分类的方式是一种基于规则的场景分类算法,无需大量数据进行学习,相比机器学习方式大大降低了对数据集的要求,研发成本低;
2、本申请是有针对性的场景分类算法,可以解决通用性算法在课堂场景下无法满足细分类需求的问题,在所针对的场景下,算法效果更佳。
可选的,所述数据获取单元,执行获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集的过程,可以包括:
获取课堂教学过程中学生音频数据集和教师音频数据集;
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集;
对所述学生音频顺序集和所述教师音频顺序集进行合并,生成的综合音频顺序集。
可选的,所述第二划分单元,执行根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组的过程,可以包括:
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组;
根据所述第二级合并划分情况对所述初始序列数组进行合并划分调整,生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组。
可选的,所述遍历分析单元,执行对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息的过程,可以包括:
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并,生成第二级综合划分组和结果判断综合数组;
利用所述结果判断综合数组对所述第二级综合划分组进行遍历,得到与各场景对应的时段信息。
可选的,所述时间戳包括起始时间戳和结束时间戳;
所述数据获取单元,执行根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集的过程,可以包括:
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述起始时间戳,以所述起始时间戳从小到大分别对所述学生音频数据集和所述教师音频数据集中的各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集。
可选的,所述关联方向单元,执行根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向的过程,可以包括:
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔;
将各所述原子片段的相邻两侧中所述时间间隔较小一侧方向确定为所述原子片段对应的关联方向。
可选的,所述第一划分单元,执行根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组的过程,可以包括:
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔;
以所述时间间隔小于所述预设间隔阈值的各相邻的所述原子片段合并划分为一组为第一级合并划分原则,合并划分得到的多个第一级合并划分组。
本申请实施例提供的场景分类装置可应用于场景分类设备。图4示出了场景分类设备的硬件结构框图,参照图4,场景分类设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录所述第一级合并划分情况的初始序列数组;
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组;
根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
可选地,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录所述第一级合并划分情况的初始序列数组;
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组;
根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
可选地,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种场景分类方法,其特征在于,包括:
获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录第一级合并划分情况的初始序列数组;
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和第二级合并划分情况的综合序列数组;
根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
2.根据权利要求1所述的方法,其特征在于,获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,包括:
获取课堂教学过程中学生音频数据集和教师音频数据集;
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集;
对所述学生音频顺序集和所述教师音频顺序集进行合并,生成的综合音频顺序集。
3.根据权利要求1所述的方法,其特征在于,根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组,包括:
根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组;
根据所述第二级合并划分情况对所述初始序列数组进行合并划分调整,生成记录有所述第一级合并划分情况和所述第二级合并划分情况的综合序列数组。
4.根据权利要求1所述的方法,其特征在于,对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息,包括:
对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并,生成第二级综合划分组和结果判断综合数组;
利用所述结果判断综合数组对所述第二级综合划分组进行遍历,得到与各场景对应的时段信息。
5.根据权利要求2所述的方法,其特征在于,所述时间戳包括起始时间戳和结束时间戳;
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述时间戳,分别对各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集,包括:
根据所述学生音频数据集和所述教师音频数据集中的各所述原子片段带有的所述起始时间戳,以所述起始时间戳从小到大分别对所述学生音频数据集和所述教师音频数据集中的各所述原子片段进行顺序重排,生成学生音频顺序集和教师音频顺序集。
6.根据权利要求1所述的方法,其特征在于,根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向,包括:
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔;
将各所述原子片段的相邻两侧中所述时间间隔较小一侧方向确定为所述原子片段对应的关联方向。
7.根据权利要求1所述的方法,其特征在于,根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,包括:
根据所述综合音频顺序集中各所述原子片段带有的所述时间戳计算各所述原子片段与相邻两侧的所述原子片段之间的时间间隔;
以所述时间间隔小于所述预设间隔阈值的各相邻的所述原子片段合并划分为一组为第一级合并划分原则,合并划分得到的多个第一级合并划分组。
8.一种场景分类装置,其特征在于,包括:
数据获取单元,用于获取课堂教学过程中学生音频数据集和教师音频数据集,按照时间顺序分别对所述学生音频数据集和所述教师音频数据集中的各原子片段进行顺序重排和合并,生成的综合音频顺序集,其中所述学生音频数据集和所述教师音频数据集中的各原子片段均带有时间戳;
关联方向单元,用于根据所述综合音频顺序集中各所述原子片段带有的所述时间戳确定所述综合音频顺序集中各所述原子片段对应的关联方向;
第一划分单元,用于根据所述综合音频顺序集中的各原子片段带有的所述时间戳,按照预设间隔阈值对各所述原子片段进行第一级合并划分得到的多个第一级合并划分组,并生成记录第一级合并划分情况的初始序列数组;
第二划分单元,用于根据各所述第一级合并划分组中的各原子片段带有的所述时间戳,按照预设组内阈值和各所述原子片段对应的所述关联方向,对各所述原子片段进行第二级合并划分得到的多个第二级合并划分组,并结合所述初始序列数组生成记录有所述第一级合并划分情况和第二级合并划分情况的综合序列数组;
分类判断单元,用于根据各所述第二级合并划分组内教师音频时长和学生音频时长,以及所述综合序列数组的长度,结合各场景分类判断式,确定各所述第二级合并划分组对应的各结果判断数组;
遍历分析单元,用于对各所述第二级合并划分组以及对应的各所述结果判断数组进行合并遍历分析,得到与各场景对应的时段信息。
9.一种场景分类设备,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1-7中任一项所述的应用场景分类方法的各个步骤。
10.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-7中任一项所述的场景分类方法的各个步骤。
CN202311330842.9A 2023-10-16 2023-10-16 一种场景分类方法、装置、设备和可读存储介质 Active CN117079667B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311330842.9A CN117079667B (zh) 2023-10-16 2023-10-16 一种场景分类方法、装置、设备和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311330842.9A CN117079667B (zh) 2023-10-16 2023-10-16 一种场景分类方法、装置、设备和可读存储介质

Publications (2)

Publication Number Publication Date
CN117079667A true CN117079667A (zh) 2023-11-17
CN117079667B CN117079667B (zh) 2023-12-22

Family

ID=88717530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311330842.9A Active CN117079667B (zh) 2023-10-16 2023-10-16 一种场景分类方法、装置、设备和可读存储介质

Country Status (1)

Country Link
CN (1) CN117079667B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659662A (en) * 1994-04-12 1997-08-19 Xerox Corporation Unsupervised speaker clustering for automatic speaker indexing of recorded audio data
US20150142454A1 (en) * 2013-11-15 2015-05-21 Nokia Corporation Handling overlapping audio recordings
CN105590632A (zh) * 2015-12-16 2016-05-18 广东德诚网络科技有限公司 一种基于语音相似性识别的s-t教学过程分析方法
CN107918821A (zh) * 2017-03-23 2018-04-17 广州思涵信息科技有限公司 基于人工智能技术的教师课堂教学过程分析方法和系统
CN109461441A (zh) * 2018-09-30 2019-03-12 汕头大学 一种自适应、无监督式的课堂教学活动智能感知方法
US20200265864A1 (en) * 2017-11-02 2020-08-20 Huawei Technologies Co., Ltd. Segmentation-based feature extraction for acoustic scene classification
CN112185424A (zh) * 2020-09-29 2021-01-05 国家计算机网络与信息安全管理中心 一种语音文件裁剪还原方法、装置、设备和存储介质
CN115050372A (zh) * 2022-07-13 2022-09-13 北京字跳网络技术有限公司 一种音频片段的聚类方法、装置、电子设备和介质
US20220335947A1 (en) * 2020-03-18 2022-10-20 Sas Institute Inc. Speech segmentation based on combination of pause detection and speaker diarization
CN116797926A (zh) * 2023-06-09 2023-09-22 中国人民解放军32398部队 一种机器人多模态近场环境感知方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659662A (en) * 1994-04-12 1997-08-19 Xerox Corporation Unsupervised speaker clustering for automatic speaker indexing of recorded audio data
US20150142454A1 (en) * 2013-11-15 2015-05-21 Nokia Corporation Handling overlapping audio recordings
CN105590632A (zh) * 2015-12-16 2016-05-18 广东德诚网络科技有限公司 一种基于语音相似性识别的s-t教学过程分析方法
CN107918821A (zh) * 2017-03-23 2018-04-17 广州思涵信息科技有限公司 基于人工智能技术的教师课堂教学过程分析方法和系统
US20200265864A1 (en) * 2017-11-02 2020-08-20 Huawei Technologies Co., Ltd. Segmentation-based feature extraction for acoustic scene classification
CN109461441A (zh) * 2018-09-30 2019-03-12 汕头大学 一种自适应、无监督式的课堂教学活动智能感知方法
US20220335947A1 (en) * 2020-03-18 2022-10-20 Sas Institute Inc. Speech segmentation based on combination of pause detection and speaker diarization
CN112185424A (zh) * 2020-09-29 2021-01-05 国家计算机网络与信息安全管理中心 一种语音文件裁剪还原方法、装置、设备和存储介质
CN115050372A (zh) * 2022-07-13 2022-09-13 北京字跳网络技术有限公司 一种音频片段的聚类方法、装置、电子设备和介质
CN116797926A (zh) * 2023-06-09 2023-09-22 中国人民解放军32398部队 一种机器人多模态近场环境感知方法及系统

Also Published As

Publication number Publication date
CN117079667B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
Jain et al. Fake news detection
CN111080109B (zh) 客服服务质量评价方法、装置及电子设备
CN110909205A (zh) 一种视频封面确定方法、装置、电子设备及可读存储介质
CN110457524B (zh) 模型生成方法、视频分类方法及装置
CN108241856B (zh) 资讯信息生成方法及设备
CN110941738A (zh) 推荐方法、装置、电子设备及计算机可读存储介质
CN112732910B (zh) 跨任务文本情绪状态评估方法、系统、装置及介质
CN107967280A (zh) 一种标签推荐歌曲的方法及系统
Brinton et al. Mining MOOC clickstreams: on the relationship between learner behavior and performance
WO2021103401A1 (zh) 数据对象分类方法、装置、计算机设备和存储介质
CN115394318A (zh) 一种音频检测方法和装置
Martín-Morató et al. Crowdsourcing strong labels for sound event detection
Arai et al. Predicting quality of answer in collaborative Q/A community
CN111445921A (zh) 音频特征的提取方法、装置、计算机设备及存储介质
CN111611781B (zh) 数据标注方法、问答方法、装置及电子设备
CN117079667B (zh) 一种场景分类方法、装置、设备和可读存储介质
CN117079655A (zh) 一种音频分析方法、装置、设备和可读存储介质
CN117095230A (zh) 基于图像大数据智能分析的空气质量低耗评估方法及系统
CN113033500B (zh) 动作片段检测方法、模型训练方法及装置
CN113035238B (zh) 音频评测方法、装置、电子设备和介质
CN111353052B (zh) 一种多媒体对象推荐方法、装置、电子设备及存储介质
Zhang et al. Computer-assisted sampling of acoustic data for more efficient determination of bird species richness
US20210249027A1 (en) Separating speech by source in audio recordings by predicting isolated audio signals conditioned on speaker representations
Mathews et al. SMERC: Social media event response clustering using textual and temporal information
CN114639390A (zh) 一种语音噪声分析方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant