CN112969065B - 一种评估视频会议质量的方法、装置及计算机可读介质 - Google Patents
一种评估视频会议质量的方法、装置及计算机可读介质 Download PDFInfo
- Publication number
- CN112969065B CN112969065B CN202110536988.3A CN202110536988A CN112969065B CN 112969065 B CN112969065 B CN 112969065B CN 202110536988 A CN202110536988 A CN 202110536988A CN 112969065 B CN112969065 B CN 112969065B
- Authority
- CN
- China
- Prior art keywords
- data
- text
- representation
- generate
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/004—Diagnosis, testing or measuring for television systems or their details for digital television systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种评估视频会议质量的方法、装置及计算机可读介质,属于人工智能技术领域。该方法包括:获取视频会议的多模态数据,多模态数据至少包括两种模态数据;对多模态数据分别进行编码处理,生成多模态表示;对多模态表示进行拼接处理或加和处理,生成融合向量;将融合向量作为训练样本,利用多个训练样本进行模型训练,生成评估模型;获取视频会议的待测多模态数据;利用评估模型对待测多模态数据进行预测,生成质量评估结果。由此能够基于评估模型对视频会议质量进行客观评估,提高了视频会议质量评估的准确性和时效性,解决了现有技术中视频会议质量评估准确率低的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种评估视频会议质量的方法、装置及计算机可读介质。
背景技术
在当代办公流程中,视频会议逐步被普及,重要性也逐步凸显。视频会议质量的好坏直接反映视频会议的使用效果。为此需要对视频会议的质量进行有效的评估。
传统的评估方式是采用问卷调查的方式进行的,采用问卷调查的方式不仅调查过程中需要耗费大量的人力,而且还需要专门设计调查内容,并且针对调查结果采用的是打分制,因此整个问卷调查过程中主观性比较强。因此,不能准确客观地评估视频会议的质量。
发明内容
为了解决上述现有技术存在的问题,本发明实施例提供一种评估视频会议质量的方法、装置及计算机可读介质,能够对视频会议的质量进行准确评估,提高视频会议质量评估的准确性和客观性。
为实现上述目的,根据本发明实施例第一方面,提供一种评估视频会议质量的方法,该方法包括:获取视频会议的多模态数据,所述多模态数据至少包括两种模态数据;对所述多模态数据分别进行编码处理,生成多模态表示;对所述多模态表示进行拼接处理或加和处理,生成融合向量;将所述融合向量作为训练样本,利用多个所述训练样本进行模型训练,生成评估模型;获取视频会议的待测多模态数据;利用所述评估模型对所述待测多模态数据进行预测,生成质量评估结果。
可选的,所述多模态数据为视频图像数据、音频数据和文本数据;所述对所述多模态数据分别进行编码处理,生成多模态表示,包括:对所述视频图像数据进行编码处理,生成图像表示;对所述音频数据进行编码处理,生成音频表示;对所述文本数据进行编码处理,生成文本表示;将所述图像表示、音频表示和文本表示确定为多模态表示。
可选的,所述视频图像数据通过如下方法获得:获取视频图像源数据以及视频时长;基于所述视频图像源数据和所述视频时长,确定发生特定事件的高频时段;从所述视频图像源数据中选取所述高频时段的所有视频源图像,得到视频源图像子数据;从所述视频源图像子数据中抽取特定数量的视频源图像,得到视频图像数据。
可选的,所述对所述视频图像数据进行编码处理,生成图像表示,包括:
对所述视频图像数据进行编码,生成图像向量;将所述图像向量确定为图像表示。
可选的,所述对所述音频数据进行编码处理,生成音频表示,包括:识别所述音频数据中无效音频数据,并从所述音频数据中剔除所述无效音频数据;对剔除后剩余的音频数据进行组合,生成有效音频数据;获取音频数据的总时长,以及有效音频数据的有效时长;基于所述有效时长和所述总时长,确定视频会议的有效音效率;对所述音频数据进行编码,生成音频向量;将所述音频向量和所述有效音效率进行拼接,生成音频表示。
可选的,所述对所述文本数据进行编码处理,生成文本表示,包括:从所述文本数据中选取特定种类的文本数据,得到文本子数据;从不同维度对所述文本子数据进行统计,得到文本统计量;其中,所述不同维度包括文本总条数、文本总长度、文本去重总长度,以及文本关键词词频;对所述文本数据进行编码,生成文本向量;将所述文本向量和所述文本统计量进行拼接,生成文本表示。
可选的,所述评估模型为回归任务的分数制模型或分类任务的等级制模型。
为实现上述目的,根据本发明实施例第二方面,还提供一种评估视频会议质量的装置,该装置包括:第一获取模块,用于获取视频会议的多模态数据,所述多模态数据至少包括两种模态数据;编码模块,用于对所述多模态数据分别进行编码处理,生成多模态表示;融合模块,用于对所述多模态表示进行拼接处理或加和处理,生成融合向量;训练模块,用于将所述融合向量作为训练样本,利用多个所述训练样本进行模型训练,生成评估模型;第二获取模块,用于获取视频会议的待测多模态数据;预测模块,用于利用所述评估模型对所述待测多模态数据进行预测,生成质量评估结果。
为实现上述目的,根据本发明实施例第三方面,还提供一种电子设备,该电子设备包括:一个或多个处理器;存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如第一方面所述的评估视频会议质量的方法。
为实现上述目的,根据本发明实施例的第四方面,还提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的评估视频会议质量的方法。
与现有技术相比,本发明实施例提供的评估视频会议质量的方法,该方法通过获取视频会议的多模态数据,对多模态数据分别进行编码处理,之后再对编码处理后生成的多模态表示进行拼接或加和处理,生成融合向量;将融合向量作为训练样本,利用算法对多个训练样本进行模型训练,生成评估模型;由此通过编码处理将非结构化的模态数据转化为结构化的模态表示,并通过拼接或加和的方式对多模态表示进行融合,从而能够准确地评估视频会议的质量;之后基于多个融合向量,利用算法进行建模,生成评估模型,从而实现了视频会议质量评估的智能化。
最后利用训练好的评估模型对待测视频会议的多模态数据进行预测,输出质量评估结果,由此通过评估模型能够对视频会议的质量进行客观评估,并实现了端到端的实时评估,提高了视频会议质量评估的准确性和时效性,解决了现有技术中由于采用问卷调查等方式进行评估导致视频会议质量评估耗时耗力且评估准确率低的问题。
需要理解的是,本发明的教导并不需要实现上面所述的全部有益效果,而是特定的技术方案可以实现特定的技术效果,并且本发明的其他实施方式还能够实现上面未提到的有益效果。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中在附图中,相同或对应的标号表示相同或对应的部分。
图1为本发明一实施例评估视频会议质量的示意性流程图;
图2为本发明另一实施例评估视频会议质量的示意性流程图;
图3为本发明另一实施例生成音频表示的示意性流程图;
图4为本发明另一实施例生成文本表示的示意性流程图;
图5为本发明一实施例评估视频会议装置的示意性框图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
现有技术中,在进行视频会议质量评估时通常是采用问卷调查的方式进行的。由于问卷调查的方式会掺入很多人为主观因素,因此导致评估结果不准确,而且问卷调查的整个过程比较耗时耗力,因此时效性比较差。虽然现有技术中也不乏智能评估方法,但是智能评估方法通常不是应用于视频会议中,而且现有的智能评估方法都是基于单一模态数据进行评估,因此导致评估结果不够准确。
本发明的方法应用于云视频会议的质量评估场景中,通过应用多模态数据,再结合深度学习的方法对多模态数据进行编码处理、之后基于编码后的多模态向量和多模态数据对应的统计量或其他指标进行拼接生成多模态表示,最后将多模态表示进行融合,并基于融合向量,利用深度学习的方法进行建模,从而获得评估模型。之后利用评估模型对待测多模态数据进行预测,由此对视频会议质量实现了端到端的实时评估,从而提高了视频会议质量评估的准确性和时效性。
如图1所示,本发明一实施例评估视频会议质量的示意性流程图。一种评估视频会议质量的方法,包括如下步骤:S101,获取视频会议的多模态数据,多模态数据至少包括两种模态数据;S102,对多模态数据分别进行编码处理,生成多模态表示;S103,对多模态表示进行拼接处理或加和处理,生成融合向量;S104,将融合向量作为训练样本,利用多个训练样本进行模型训练,生成评估模型;S105,获取视频会议的待测多模态数据;S106,利用评估模型对待测多模态数据进行预测,生成质量评估结果。
在S101中,多模态用来表示不同形态的数据形式。每一种模态具有对应形态的数据形式。在这里,对视频会议的多模态数据中每种模态数据不作限定,可以是视频图像数据、音频数据、文本数据以及其他形态的数据。由此,通过采用至少两种模态数据对视频会议质量进行评估,从而能够更全面且更准确地评估视频会议的质量,提高了视频会议质量评估的准确性。
除此之外,模态数据可以是源数据,也可以是处理后的数据。对于视频会议每种模态数据的获取方式也不作限定,可以采用定时采集的方式进行获取,也可以是实时获取。
在S102中,对多模态数据中每种模态数据进行编码处理,生成对应的模态表示,将多个模态表示确定为多模态表示。由此,通过编码处理将非结构化的模态数据转换成结构化的模态表示,从而方便建模时用于模型训练。
在这里,针对每种模态数据进行据编码处理时所用到的算法不作限定,每种模态数据进行编码处理时所用到的算法可以相同的,也可以是不同的。通常会根据模态数据的形态选择能够获取最佳结果的算法进行编码。
需要说明的是,模态表示是一种向量。
在S103中,多模态表示中每个模态表示的维数可能是不同的。在对多模态表示进行融合处理时有两种方法:一种是,利用现有的算法对多模态表示直接进行拼接处理,生成融合向量,由此通过拼接处理能够将具有不同维数的多个模态表示进行有效融合。另一种是,先利用全连接层将不同维数的模态表示均转换成具有相同维数的模态表示,然后将多个具有相同维数的模态表示进行加和,生成融合向量;由此通过加和处理能够将具有不同维数的多模态表示进行有效融合。
在S104中,一组多模态数据对应一个融合向量,多组多模态数据对应多个融合向量;将融合向量作为训练样本,利用算法对多个融合向量进行模型训练,生成评估模型。模型架构可以是基于注意力机制的Transformer,即通过Transformer或其变形构建评估模型。由此,通过深度学习的方法建立评估模型,从而能够对视频会议质量进行客观评估,进而实现端到端的实时评估,提高了视频会议质量评估的准确性和时效性。
在这里,当多组多模态数据均来源于同一场景的视频会议,则获得的评估模型就是针对特定场景的评估模型。视频会议的场景有多种,例如讨论视频会议,发言视频会议,演讲视频会议等等。当多组多模态数据分别来自不同场景的视频会议,则获得的评估模型能够适用于不同场景的视频会议。
除此之外,对评估模型的种类不作限定,需要根据预先设定的任务来确定评估模型的类型,例如,评估模型可以是基于回归任务的分数制模型,也可以是基于分类任务的等级制模型。
在S105和S106中,将视频会议的待测多模态数据输入评估模型进行预测,输出视频会议的质量评估结果。例如,质量评估结果可以是以分数的形式表示,也可以是以等级的形式表示。
本发明实施例通过获取视频会议的多模态数据,并利用深度学习的方法将非结构化的多模态数据转化成结构化的多模态表示;之后通过拼接处理或加和处理将多模态表示进行融合,并基于融合结果,利用深度学习的方法进行建模,从而生成评估模型,进而能够基于评估模型对视频会议的质量进行客观评估,提高了视频会议质量评估准确率和时效性,解决了现有技术中由于采用问卷调查方式进行评估导致视频会议质量评估耗时耗力且评估准确率低的问题。
如图2所示,本发明另一实施例评估视频会议质量的示意性流程图。本实施例是在图1实施例的基础上进一步优化得到的。一种评估视频会议质量的方法,包括如下步骤:S201,获取视频会议的多模态数据,多模态数据为视频图像数据、音频数据和文本数据;S202,对视频图像数据进行编码处理,生成图像表示;S203,对音频数据进行编码处理,生成音频表示;S204,对文本数据进行编码处理,生成文本表示;S205,将图像表示、文本表示和音频表示进行拼接处理或加和处理,生成融合向量;S206,将融合向量作为训练样本,利用多个训练样本进行模型训练,生成评估模型;S207,获取视频会议的待测多模态数据;S208,利用评估模型对待测多模态数据进行预测,生成质量评估结果。
其中,在S205、S206、S207和S208的具体实现过程与图1所示实施例中在S103,S104、S105和S106的具体实现过程相类似,这里不再赘述。
在S201中,多模态数据为视频图像数据、音频数据和文本数据;由此通过选取能有效反应视频会议质量的音频数据、文本数据和视频图像数据,并基于这三种模态数据,利用深度学习的方法进行建模,从而能够获得准确率更高的评估模型。
由于视频图像源数据包含丰富的人像信息、行为信息等,因此数据量巨大,对计算
机算力要求较高。为此,需要事先对获取的视频图像源数据进行清洗处理,以获得有效的视
频图像数据。视频图像数据通过如下方法获得:获取视频图像源数据以及视频时长;基于视
频图像源数据和视频时长,确定发生特定事件的高频时段;从视频图像源数据中选取高频
时段的所有视频源图像,得到视频源图像子数据;从视频源图像子数据中抽取特定数量的
视频源图像,得到视频图像数据。例如:一场视频会议包括主持人发言事件和演讲事件。利
用整个视频会议的图像源数据和视频时长,统计发生演讲事件的高频时段,高频时段是指
发生演讲事件的时间段,从高频时段对应的视频源图像子数据中随机或者按特定时间步长
选取视频源图像,将选取的特定数量的视频源图像按时间顺序组合生成视频图像数据,例
如,其中N表示视频图像数据,n表示视频源图像。由此,通过对视频图像源
数据进行清洗处理,能够减小模型训练和预测过程中的计算量,从而提高了模型预测的速
度。
在S202至S204中,图像表示是利用算法对视频图像数据进行编码后生成的图像向量;音频表示可以是利用算法对音频数据进行编码后生成的音频向量,也可以是音频向量和与音频数据相关的统计量进行拼接后形成的;文本表示可以是利用算法对文本数据进行编码后生成的文本向量,也可以是文本向量和与文本数据相关的统计量进行拼接后形成的。
例如,利用卷积神经网络(CNN)对视频图像数据进行编码,生成图像向量;利用循环神经网络(RNN)或者深度神经网络(DNN)对音频数据进行编码,生成音频向量;利用Embedding等词嵌入技术对文本数据进行编码,生成文本向量;由此,针对不同模态数据选取合适的编码表示方式,从而能够使模型进行有效学习,提高了评估模型的准确率,进而能够利用评估模型对视频会议质量进行准确评估。
如图3所示,本发明另一实施例生成音频表示的示意性流程图。本实施例是在图2实施例的基础上进一步优化得到的。对音频数据进行编码处理,生成音频表示,包括如下步骤:S301,识别音频数据中无效音频数据,并从音频数据中剔除无效音频数据;S302,对剔除后剩余的音频数据进行组合,生成有效音频数据;S303,获取音频数据的总时长,以及有效音频数据的有效时长;S304,基于有效时长和所述总时长,确定视频会议的有效音效率;S305,对音频数据进行编码,生成音频向量;S306,将音频向量和有效音效率进行拼接,生成音频表示。
具体地,音频数据是连续的数字信号。无效音频数据是指包含无声、杂声的音频数
据。对剔除后剩余的音频数据按照音频数据的时间序列进行组合,生成有效音频数据。例如
音频数据的总时长为L1,有效音频数据的有效时长为L2,视频会议的有效音效率为,具体
公式如式(1)所示:
本实施例通过在音频向量中拼接有效音效率,从而能够更有效地利用音频数据对视频会议的质量进行评估,提高视频会议质量评估的准确性。
如图4所示,本发明另一实施例生成文本表示的示意性流程图。本实施例是在图3实施例的基础上进一步优化得到的。对文本数据进行编码处理,生成文本表示,包括如下步骤:S401,从文本数据中选取特定种类的文本数据,得到文本子数据;S402,从不同维度对文本子数据进行统计,得到文本统计量;其中,不同维度包括文本总条数、文本总长度、文本去重总长度,以及文本关键词词频;S403,对文本数据进行编码,生成文本向量;S404,将文本向量和文本统计量进行拼接,生成文本表示。
具体地,文本数据包括不同含义的数据,例如文本数据是由视频会议的会议纪要、
评论信息等组成的集合。文本子数据是从文本数据抽取的且具有特定含义的数据,例如会
议纪要或者评论信息等,文本统计量是从不同维度对文本子数据进行统计后获得的统计
量,例如从文本总条数、文本总长度、文本去重总长度,以及文本关键词词频等维度对会议
纪要进行统计而生成的统计量,即,其中Y表示会议纪要的统计量,y表示会
议纪要的不同维度,例如表示会议纪要的总条数,表示会议纪要的总长度。文本向量
为,将文本向量和文本统计量拼接后生成文本表示,该文本表示即为。
本实施例通过在文本向量中拼接有文本统计量,从而能够更有效地利用文本数据对视频会议的质量进行评估,提高视频会议质量评估的准确性。
应理解,在本发明的各实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在的逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
如图5所示,本发明一实施例评估视频会议质量的装置的示意性框图。一种评估视频会议质量的装置,该装置500包括:第一获取模块501,用于获取视频会议的多模态数据,多模态数据至少包括两种模态数据;编码模块502,用于对所述多模态数据分别进行编码处理,生成多模态表示;融合模块503,用于对所述多模态表示进行拼接处理或加和处理,生成融合向量;训练模块504,用于将所述融合向量作为训练样本,利用多个所述训练样本进行模型训练,生成评估模型;第二获取模块505,用于获取视频会议的待测多模态数据;预测模块506,用于利用所述评估模型对所述待测多模态数据进行预测,生成质量评估结果。
在可选的实施例中,多模态数据为视频图像数据、音频数据和文本数据;编码模块包括:第一编码单元,用于对所述视频图像数据进行编码处理,生成图像表示;第二编码单元,用于对所述音频数据进行编码处理,生成音频表示;第三编码单元,用于对所述文本数据进行编码处理,生成文本表示;确定单元,用于将所述图像表示、音频表示和文本表示确定为多模态表示。
在可选的实施例中,视频图像数据通过如下方法获得:获取视频图像源数据以及视频时长;基于所述视频图像源数据和所述视频时长,确定发生特定事件的高频时段;从所述视频图像源数据中选取所述高频时段的所有视频源图像,得到视频源图像子数据;从所述视频源图像子数据中抽取特定数量的视频源图像,得到视频图像数据。
在可选的实施例中,第一编码单元包括:编码子单元,用于对所述视频图像数据进行编码,生成图像向量;确定子单元,用于将所述图像向量确定为图像表示。
在可选的实施例中,第二编码单元包括:识别子单元,用于识别所述音频数据中无效音频数据,并从所述音频数据中剔除所述无效音频数据;组合子单元,用于对剔除后剩余的音频数据进行组合,生成有效音频数据;获取子单元,用于获取音频数据的总时长,以及有效音频数据的有效时长;确定子单元,用于基于所述有效时长和所述总时长,确定视频会议的有效音效率;编码子单元,用于对所述音频数据进行编码,生成音频向量;生成子单元,用于将所述音频向量和所述有效音效率进行拼接,生成音频表示。
在可选的实施例中,第三编码单元包括:选取子单元,用于从所述文本数据中选取特定种类的文本数据,得到文本子数据;统计子单元,用于从不同维度对所述文本子数据进行统计,得到文本统计量;其中,所述不同维度包括文本总条数、文本总长度、文本去重总长度,以及文本关键词词频;编码子单元,用于对所述文本数据进行编码,生成文本向量;拼接子单元,用于将所述文本向量和所述文本统计量进行拼接,生成文本表示。
在可选的实施例中,评估模型为回归任务的分数制模型或分类任务的等级制模型。
上述测试装置可执行本发明一实施例所提供的评估视频会议质量的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的评估视频会议质量的方法。
根据本发明再一实施例,还提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当该一个或多个程序被该一个或多个处理器执行,使得该一个或多个处理器实现本发明上述实施例提供的评估视频会议质量的方法。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备至少执行如下所示的操作步骤:S101,获取视频会议的多模态数据,所述多模态数据至少包括两种模态数据;S102,对所述多模态数据分别进行编码处理,生成多模态表示;S103,对所述多模态表示进行拼接处理或加和处理,生成融合向量;S104,将所述融合向量作为训练样本,利用多个所述训练样本进行模型训练,生成评估模型;S105,获取视频会议的待测多模态数据;S106,利用所述评估模型对所述待测多模态数据进行预测,生成质量评估结果。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (9)
1.一种评估视频会议质量的方法,其特征在于,包括:
获取视频会议的多模态数据,所述多模态数据为视频图像数据、音频数据和文本数据;
对所述视频图像数据进行编码处理,生成图像表示;所述图像表示是利用算法对视频图像数据进行编码后生成的图像向量;
对所述音频数据进行编码处理,生成音频表示;所述音频表示是与所述音频数据对应的音频向量和与音频数据相关的统计量进行拼接后形成的;
对所述文本数据进行编码处理,生成文本表示;所述文本表示是与所述文本数据对应的文本向量和与文本数据相关的统计量进行拼接后形成的;
将所述图像表示、音频表示和文本表示确定为多模态表示;
对所述多模态表示进行拼接处理或加和处理,生成融合向量;
将所述融合向量作为训练样本,基于Transformer或其变形利用多个所述训练样本进行模型训练,生成评估模型;
获取视频会议的待测多模态数据;
利用所述评估模型对所述待测多模态数据进行预测,生成质量评估结果。
2.根据权利要求1所述的方法,其特征在于,所述视频图像数据通过如下方法获得:
获取视频图像源数据以及视频时长;
基于所述视频图像源数据和所述视频时长,确定发生特定事件的高频时段;
从所述视频图像源数据中选取所述高频时段的所有视频源图像,得到视频源图像子数据;
从所述视频源图像子数据中抽取特定数量的视频源图像,得到视频图像数据。
3.根据权利要求1所述的方法,其特征在于,所述对所述视频图像数据进行编码处理,生成图像表示,包括:
对所述视频图像数据进行编码,生成图像向量;
将所述图像向量确定为图像表示。
4.根据权利要求1所述的方法,其特征在于,所述对所述音频数据进行编码处理,生成音频表示,包括:
识别所述音频数据中无效音频数据,并从所述音频数据中剔除所述无效音频数据;
对剔除后剩余的音频数据进行组合,生成有效音频数据;
获取音频数据的总时长,以及有效音频数据的有效时长;
基于所述有效时长和所述总时长,确定视频会议的有效音效率;
对所述音频数据进行编码,生成音频向量;
将所述音频向量和所述有效音效率进行拼接,生成音频表示。
5.根据权利要求1所述的方法,其特征在于,所述对所述文本数据进行编码处理,生成文本表示,包括:
从所述文本数据中选取特定种类的文本数据,得到文本子数据;
从不同维度对所述文本子数据进行统计,得到文本统计量;其中,所述不同维度包括文本总条数、文本总长度、文本去重总长度,以及文本关键词词频;
对所述文本数据进行编码,生成文本向量;
将所述文本向量和所述文本统计量进行拼接,生成文本表示。
6.根据权利要求1所述的方法,其特征在于,所述评估模型为回归任务的分数制模型或分类任务的等级制模型。
7.一种评估视频会议质量的装置,其特征在于,包括:
第一获取模块,用于获取视频会议的多模态数据,所述多模态数据为视频图像数据、音频数据和文本数据;
编码模块,用于对所述视频图像数据进行编码处理,生成图像表示;所述图像表示是利用算法对视频图像数据进行编码后生成的图像向量;对所述音频数据进行编码处理,生成音频表示;所述音频表示是与所述音频数据对应的音频向量和与音频数据相关的统计量进行拼接后形成的;对所述文本数据进行编码处理,生成文本表示;所述文本表示是与所述文本数据对应的文本向量和与文本数据相关的统计量进行拼接后形成的;将所述图像表示、音频表示和文本表示确定为多模态表示;
融合模块,用于对所述多模态表示进行拼接处理或加和处理,生成融合向量;
训练模块,用于将所述融合向量作为训练样本,基于Transformer或其变形利用多个所述训练样本进行模型训练,生成评估模型;
第二获取模块,用于获取视频会议的待测多模态数据;
预测模块,用于利用所述评估模型对所述待测多模态数据进行预测,生成质量评估结果。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现根据权利要求1-6中任一所述的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-6任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110536988.3A CN112969065B (zh) | 2021-05-18 | 2021-05-18 | 一种评估视频会议质量的方法、装置及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110536988.3A CN112969065B (zh) | 2021-05-18 | 2021-05-18 | 一种评估视频会议质量的方法、装置及计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112969065A CN112969065A (zh) | 2021-06-15 |
CN112969065B true CN112969065B (zh) | 2021-08-03 |
Family
ID=76279885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110536988.3A Active CN112969065B (zh) | 2021-05-18 | 2021-05-18 | 一种评估视频会议质量的方法、装置及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112969065B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837576A (zh) * | 2021-09-14 | 2021-12-24 | 上海任意门科技有限公司 | 用于内容推荐的方法、计算设备和计算机可读存储介质 |
CN114187544A (zh) * | 2021-11-30 | 2022-03-15 | 厦门大学 | 大学英语演讲多模态自动评分方法 |
CN114915779A (zh) * | 2022-04-08 | 2022-08-16 | 阿里巴巴(中国)有限公司 | 视频质量评估方法、装置、设备和存储介质 |
CN116506622B (zh) * | 2023-06-26 | 2023-09-08 | 瀚博半导体(上海)有限公司 | 模型训练方法及视频编码参数优化方法和装置 |
CN117079081B (zh) * | 2023-10-16 | 2024-01-26 | 山东海博科技信息系统股份有限公司 | 一种多模态视频文本处理模型训练方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401100A (zh) * | 2018-12-28 | 2020-07-10 | 广州市百果园信息技术有限公司 | 视频质量评估方法、装置、设备及存储介质 |
CN111741330A (zh) * | 2020-07-17 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 一种视频内容评估方法、装置、存储介质及计算机设备 |
CN112364810A (zh) * | 2020-11-25 | 2021-02-12 | 深圳市欢太科技有限公司 | 视频分类方法及装置、计算机可读存储介质与电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019204186A1 (en) * | 2018-04-18 | 2019-10-24 | Sony Interactive Entertainment Inc. | Integrated understanding of user characteristics by multimodal processing |
-
2021
- 2021-05-18 CN CN202110536988.3A patent/CN112969065B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401100A (zh) * | 2018-12-28 | 2020-07-10 | 广州市百果园信息技术有限公司 | 视频质量评估方法、装置、设备及存储介质 |
CN111741330A (zh) * | 2020-07-17 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 一种视频内容评估方法、装置、存储介质及计算机设备 |
CN112364810A (zh) * | 2020-11-25 | 2021-02-12 | 深圳市欢太科技有限公司 | 视频分类方法及装置、计算机可读存储介质与电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112969065A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112969065B (zh) | 一种评估视频会议质量的方法、装置及计算机可读介质 | |
US11409791B2 (en) | Joint heterogeneous language-vision embeddings for video tagging and search | |
CN109874029B (zh) | 视频描述生成方法、装置、设备及存储介质 | |
Stappen et al. | The multimodal sentiment analysis in car reviews (muse-car) dataset: Collection, insights and improvements | |
Han et al. | EmoBed: Strengthening monomodal emotion recognition via training with crossmodal emotion embeddings | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN112511854B (zh) | 一种直播视频精彩片段生成方法、装置、介质和设备 | |
CN111837142A (zh) | 用于表征视频内容的深度强化学习框架 | |
Martín-Morató et al. | What is the ground truth? reliability of multi-annotator data for audio tagging | |
Chen et al. | A large scale speech sentiment corpus | |
Lee et al. | Integrating character networks for extracting narratives from multimodal data | |
CN113536144A (zh) | 一种社交网络信息的传播规模预测方法、装置 | |
Ren et al. | Interactive multimodal attention network for emotion recognition in conversation | |
Tian et al. | An attempt towards interpretable audio-visual video captioning | |
Wang et al. | Fine-grained similarity measurement between educational videos and exercises | |
CN112231491A (zh) | 基于知识结构的相似试题识别方法 | |
CN113298015B (zh) | 基于图卷积网络的视频人物社交关系图生成方法 | |
CN112995690B (zh) | 直播内容品类识别方法、装置、电子设备和可读存储介质 | |
Tan et al. | Attention augmented convolutional neural network for acoustics based machine state estimation | |
CN117370736A (zh) | 一种细粒度情感识别方法、电子设备及存储介质 | |
CN115512104A (zh) | 一种数据处理方法及相关设备 | |
Sora et al. | Speech Sentiment Analysis for Citizen's Engagement in Smart Cities' Events | |
CN115186085A (zh) | 回复内容处理方法以及媒体内容互动内容的交互方法 | |
Chen et al. | Temporal attentive adversarial domain adaption for cross cultural affect recognition | |
CN117540007B (zh) | 基于相似模态补全的多模态情感分析方法、系统和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |